id
stringlengths
9
9
text
stringlengths
8.54k
92.7k
title
stringclasses
1 value
V27N04-02
\section{はじめに} \label{sec:intro}並列構造とは等位接続詞が結びつける句(並列句)から成る構造である.並列句の範囲の解釈には曖昧性があり,しばしば人間にとっても同定することが難しい.例えば,``{\itToshiba'slineofportables,forexample,featurestheT-1000,whichisinthesameweightclass\underline{but}ismuchslower\underline{and}haslessmemory,\underline{and}theT-1600,whichalsousesa286microprocessor,\underline{but}whichweighsalmosttwiceasmuch\underline{and}isthreetimesthesize}.''という文を一目見て,各等位接続詞に対する並列句を全て見つけることは困難である.並列構造の存在は文を長くし,解釈を曖昧にするため,構文解析において誤りの要因となっている.等位接続詞に対する並列句を同定する方法として,先行研究は並列句の二つの性質を利用してきた.(1)類似性-並列句は類似した言語表現となる傾向がある.(2)可換性-並列句を入れ替えても文全体が文法的に適格である.\citeA{ficler-goldberg:2016:EMNLP}は並列句ペアの類似性と可換性の特徴に基づいた計算を行うニューラルネットワークと構文解析器を組み合わせる方法を提案した.\citeA{teranishi-EtAl:2017:IJCNLP}もこれらの二つの特徴を取り入れているが,構文解析の結果を用いずに最高精度の性能を達成している.どちらのアプローチも\citeA{shimbo-hara:2007:EMNLP-CoNLL}や\citeA{hara-EtAl:2009:ACL-IJCNLP}の類似性に基づく手法と比べて高い性能を得ているが,三つ以上の並列句を持つ並列構造や文中の複数の並列構造をうまく取り扱うことができない.特に文中に複数の並列構造が存在する場合には,並列構造の範囲が不整合に重なり合う状況が生じ得るという問題がある.対して,\citeA{hara-EtAl:2009:ACL-IJCNLP}は並列構造の範囲に不整合が生じることなく並列構造を導出できる生成規則を用いている.本論文では,並列構造解析における新しいフレームワークを提案する.このフレームワークでは等位接続詞と語系列上の二つの範囲(スパン)を取るスコア関数を用いる.スコア関数は二つのスパンが並列となる場合に高いスコアを返す働きを持つ.この関数を並列構造の導出規則に基づくCKYアルゴリズムと組み合わせることで,システムは入力文に対する並列構造の集合を範囲の競合なく出力する.このようなスコア関数を得るために,並列構造解析のタスクを等位接続詞の同定,並列句ペアの内側境界の同定,外側境界の同定の三つのサブタスクに分解し,それぞれに異なるニューラルネットワークを用いる.各ニューラルネットワークは並列構造の構成要素に対して局所的に学習を行うが,CKYアルゴリズムによる構文解析時に協調して働く.英語における評価実験の結果,我々のモデルは並列構造を範囲の競合なく導出できることを保証しつつ,\citeA{teranishi-EtAl:2017:IJCNLP}の手法の拡張や先行研究と比較して高い精度を達成していることが示された.本研究の貢献は以下のとおりである.\begin{itemize}\setlength{\parskip}{0cm}\setlength{\itemsep}{0cm}\item並列句ペアに対するスコア関数の学習・適用によって並列構造を解析するというフレームワークを提案した.\item並列構造解析を三つのサブタスクに分解し,CKYアルゴリズムによる構文解析において協調して働くモデルを開発した.\item三つ以上の並列句を含む並列構造や文中の複数の並列構造を範囲の競合なく導出可能なシステムを確立し,既存手法を上回る解析精度を達成した.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{並列構造解析} \label{sec:coord}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{並列構造}並列構造(coordinatestructure)とは,等位接続詞(coordinator)が結びつける複数の句から成る統語構造である\footnote{並列句は句構造文法における句(phrase)と必ずしも一致しないが,ここでは便宜上``句''という表現を用いる.}.等位接続詞によって結び付けられた句は並列句(conjunct)と呼ばれる.英語において,andやor,butなどの等位接続詞によって形成される並列構造に連接して,カンマ(,)やセミコロン(;)なども等位接続の働きを持って並列句をさらに連結させる場合がある.本論文では,このように等位接続詞と協調して等位接続の役割を果たす語を準等位接続詞と呼ぶ.準等位接続詞は等位接続詞に付随せずに単体で並列構造を形成することができない.並列構造は多くの場合,等位接続詞の出現によって検出されるが,butが前置詞として働く場合があるように,語の表層形のみから並列構造の有無を判定することはできない.本論文では,等位接続詞・準等位接続詞となり得る語をそれぞれ並列キー・準並列キーと呼ぶ.英語においてはaswellasなどの複数の語から成る表現が等位接続の働きをする場合があるが,本研究では一語から成る等位接続詞を解析の対象とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{タスク定義と困難さ}並列構造解析とは,文に現れる並列キーに対して並列句を同定するタスクである.より具体的には,並列キーが並列構造を形成する場合は,その並列構造に含まれる全ての並列句の範囲(スパン)を$[始点,終点]$の形式で同定する.反対に並列キーが並列構造を形成しない場合は,並列構造の不在を表す{\scNone}を返す.並列キーと見なされる語は解析に先立って定義されるものとする.並列構造解析のタスクの難しさは複雑な並列構造の取扱いにくさから生じており,代表的には二つのケースが挙げられる.一つは並列構造が三つ以上の並列句を含む場合であり,もう一つは文中に複数の並列構造が存在する場合である.並列構造は準等位接続詞を伴って三つ以上の並列句を持つ可能性があるため,カンマに代表される準並列キーが実際に等位接続の役割を果たしているかを判定し,どの並列構造に属して並列句を連結しているのかを突き止めなければならない.文中に複数の並列構造が存在する場合,各並列構造は別の並列構造に包含されて入れ子の形で出現するか,もしくは他の並列構造と範囲が全く重なり合うことなく独立して出現する.言い換えると,二つの並列構造の範囲が部分的に重なり合うことはない.したがって,並列構造解析のタスクでは,各並列構造がいくつの並列句を含んでいるか知ることができない状態で,複数の並列構造の範囲の制約を満たしながら個々の並列句を同定しなければならない.並列構造解析のタスクは句構造解析や依存構造解析などの構文解析によって必ずしも解くことができない点でも困難である.例えば,``Imet[BobonSunday]and[AliceonWednesday].''という文では,``BobonSunday''と``AliceonWednesday''が並列となっているが,これらはふつう句構造文法の句と対応しない.また,``Wesawanold[man]and[woman].''と``Wesawa[beautifulwoman]and[man].''という二つの文では,前者はoldの主辞がmanであり後者はbeautifulの主辞はwomanであり,どちらも同一の依存構造を持ち,Stanford/UniversalDependencies\cite{de-marneffe-EtAl:2006:LREC,nivre-EtAl:2016:LREC}のアノテーションでは二つの文の並列構造の範囲の違いを表すことができない.さらに,``[Maryalwaysorderswine],and[Sallybeer].''という文において,andに後続する並列句では``alwaysorders''が省略されているように,空所化(gapping)という現象が生じる場合がある.このような空所化を句構造や依存構造では適切に表現することができず,文の統語構造がしばしば不自然な構文木で表されるため,構文解析の障害になるという問題がある.したがって,句構造や依存構造などを対象にした構文解析の枠組みで並列構造を解析することは容易ではなく,並列構造解析に特化した手法の研究がなされている\footnote{組合せ範疇文法など,複雑な並列構造を説明できる文法も存在するが,それらの文法における統計的構文解析によって必ずしも並列構造を精度良く解析できるわけではない.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{並列構造の木構造による表現}並列構造の階層関係や並列構造に含まれる複数の並列句の関係は木構造として表現することができる.本論文では並列構造の木構造による表現を並列構造木と呼ぶ.\figref{tree}は並列構造木の例である.木構造による並列構造の表現は,複数の並列構造の範囲が競合しない(部分的に重なり合う状態とならない)点,並列句の数を二つに限定せず制限なく表せる点で適している.言い換えれば,文に含まれる並列構造を木構造として出力することで,並列構造の範囲の制約は必然的に満たされる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{並列構造の範囲の組み合わせ}並列構造解析の一つの障害となる点として,並列構造に含まれる並列句の範囲の組み合わせ数が膨大になることが挙げられる.文の長さを$N$,等位接続詞の出現位置を$k$とする.並列句の数を二つに限定し,並列句が等位接続詞に隣接すると仮定した場合,並列句範囲の組み合わせ数は$(k-1)\times(N-k)$通りである.等位接続詞が文のほぼ中心位置に出現するとき,その組み合わせ数はたかだか$(N/2)^2$通りである.しかし実際には並列句は必ずしも等位接続詞に隣接せず,``[A]and,ontheotherhand,[B]''のように等位接続詞と並列句の間に挿入句が出現する場合がある.このような場合を考慮すると並列句範囲の組み合わせ数は$k(k-1)/2\,\times\,(N-k)(N-k+1)/2$通りとなり,等位接続詞が文のほぼ中心位置に出現するとき,その組み合わせ数はたかだか$(N/2)^4/4$通りである.これらの組み合わせ全てについて句のペアがどの程度並列になっているかを計算する場合,時間計算量$\mathcal{O}(N^4)$を要し,計算方法によっては膨大な時間がかかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{27-4ia1f1.eps}\end{center}\hangcaption{並列構造木の例.coordは並列構造,conjは並列句,ccは等位接続詞,cc-subは準等位接続詞を表す.}\label{fig:tree}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%実際には,準等位接続詞の出現により三つ以上の並列句が出現する場合や文中に複数の並列構造が出現する場合を考慮すると,それらの組み合わせの総当たり数は爆発的に増加するため,並列構造の範囲の組み合わせ全てについて範囲の妥当性を検証・比較することは現実的ではない.本研究では局所的な評価・比較を帰納的に適用することにより,計算量を抑えながら並列構造の範囲の組み合わせ全てについて考慮する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{並列句の特徴と従来研究} \label{sec:rwork}並列構造解析,すなわち等位接続詞が結びつける並列句の範囲同定において,有用な二つの特徴がある\cite{ficler-goldberg:2016:EMNLP,teranishi-EtAl:2017:IJCNLP}.\begin{itemize}\item{\bf類似性}:同一の並列構造に属する並列句は,句の構文構造・意味の点で類似する.\item{\bf可換性}:同一の並列構造に属する並列句は,互いに入れ替えても文の流暢性が保たれる.\end{itemize}\pagebreak例として,``{\itTheTassnewsagencysaidthe1990budgetanticipatesincomeof429.9billionrubles(US\$693.4billion)andexpendituresof489.9billionrubles(US\$790.2billion).}''という文を挙げる.等位接続詞andに対する二つの並列句,``incomeof429.9billionrubles(US\$693.4billion)''と``expendituresof489.9billionrubles(US\$790.2billion)''はともに名詞句であり,ほぼ同一の品詞系列・句構造を持つ(類似性,%%%%\figref{characteristics-sim}).\figref{characteristics}a).また,これらの並列句を互いに入れ替えた場合であっても文法性を損なうことなく,構文的に正しい文が成立する(可換性,%%%%\figref{characteristics-repl}).\figref{characteristics}b).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{27-4ia1f2.eps}\end{center}%%%%\subcaption{構文構造・意味の点で類似する並列句の対.}%%%%\label{fig:characteristics-sim}%%%%\subcaption{並列句の対を互いに入れ替えた文.}%%%%\label{fig:characteristics-repl}\caption{並列句の特徴.}\label{fig:characteristics}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{並列句の類似性に基づく従来手法}並列構造解析のタスクにおいて,これまで並列句の類似性に基づく手法が盛んに研究されてきた.まず並列句が共通して持つ品詞タグ・意味ラベル・形態情報・構文構造に基づいてスコアを計算することによって,並列する名詞句ペアを同定する手法が開発された\cite{agarwal-boggess:1992:ACL,kurohashi-nagao:1994:CL,resnik:1999:JAIR,hogan:2007:ACL}.これらの研究に対し,\citeA{shimbo-hara:2007:EMNLP-CoNLL}は並列句の類似度に基づく識別モデルを提案した.Shimboらの手法において,並列句の類似度は系列アラインメントのノードとエッジに割り当てられた統語・形態情報の特徴の重み付き和として計算され,そのパラメータは機械学習手法であるパーセプトロンによって調整される.\citeA{hara-EtAl:2009:ACL-IJCNLP}はShimboらの手法を発展させ,並列構造に特化した文脈自由文法規則と組み合わせ,三つ以上の並列句を持つ並列構造や文中の複数の並列構造を範囲が競合することなく導出可能にした.\citeA{hanamoto-EtAl:2012:EACL}はHaraらの手法による解析結果と主辞駆動句構造文法の解析器の出力を双対分解によって一致させることで精度を向上させた.並列句の類似性に基づく並列構造の解析手法の発展により,名詞句の並列などの類似度が大きい並列句に対しては解析精度が向上してきた.しかしながら,動詞句や節の並列,形容詞・動詞など異なる統語範疇を持つ句の並列など,類似度が必ずしも高くない並列句の同定には課題が残った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{並列句の類似性に依存しない手法}非類似となる並列句をとらえる方法として,\citeA{kawahara-kurohashi:2008:COLING}は類似性の素性を用いずに依存構造と格フレームに基づいて並列句の生成確率を学習し,範囲同定を行う手法を開発した.\citeA{yoshimoto-EtAl:2015:IWPT}はEisnerアルゴリズム\cite{eisner:1996:COLING}の規則を拡張し,依存構造とともに並列構造を同定する手法を提案している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ニューラルネットワークを用いた並列構造解析}近年,並列句の類似性・可換性に基づいたニューラルネットワークによるスコア計算を取り入れた並列構造解析の手法が研究されている.\citeA{ficler-goldberg:2016:EMNLP}は句の類似性のみならず可換性についても並列句ペアのスコア計算の素性として用いている.Ficlerらの手法は三つのコンポーネントから成り立っている.まず始めに二値分類器を用いて等位接続の働きをし得る語が実際に並列構造を持つか否かを予測する.次に並列構造を持つと予測された等位接続詞に対して,BerkeleyParser\cite{petrov-EtAl:2006:COL-ACL}を用いて並列句ペアの候補を抽出する.最後にニューラルネットワークを用いて並列句ペアの候補に対してスコア付けをし,最もスコアの高いペアをシステムの予測として出力する.Ficlerらの手法は従来の非ニューラルネットワークによる手法と比較して高い精度で並列句の範囲を同定することができるが,並列句ペアの候補抽出やスコア計算の過程において構文解析器の結果を用いており,構文解析の結果に強く依存しているという欠点がある.パイプライン的なアプローチに対し,\citeA{teranishi-EtAl:2017:IJCNLP}はニューラルネットワークによるエンドツーエンドの解析手法を開発した.Teranishiらの手法は直接的に個々の並列句を求めるのではなく,並列構造全体の始点・終点を予測した後に,並列構造を個々の並列句に分割するというトップダウンなアルゴリズムを採用している.並列句の類似性・可換性を考慮したニューラルネットワークによって並列構造の始点・終点が決定されるが,構文解析の結果を用いないという点でFiclerらの手法と異なる.Teranishiらの手法はFiclerらの手法よりも高い解析精度を達成したが,\citeA{hara-EtAl:2009:ACL-IJCNLP}の手法のように複数の並列構造を同時に考慮して,範囲の競合なく並列構造を導出することができていない.本研究は,(1)\,Haraらの手法のように並列構造の範囲が文全体として整合性を保つように制約を与える,(2)\,Teranishiらの手法のように並列となる語系列のペアに対して高いスコアを割り当てられるモデルを導入する,という二点を組み合わせる試みとして位置づけられる.Haraらの手法は動的計画法によりボトムアップに並列構造を導出しているのに対して,Teranishiらの手法はトップダウンに並列句を同定しているという違いがある.また,動的計画法の過程で並列句ペアの候補を比較する際に,逐一ニューラルネットワークによってスコア計算を行うことは計算量・解析速度の点で現実的なアプローチではない.本研究は並列句ペア候補のスコア計算を分割することで,ニューラルネットワークを用いながら動的計画法を適用可能にし,並列構造を範囲の競合なく導出できるようにしたことで,従来研究より優れた解析性能を達成している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{文脈自由文法規則を用いた構文解析} \label{sec:parsing}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{並列構造の構文解析}本節では並列構造を構文木として出力する方法について述べる\footnote{提案手法は任意の言語に適用できるが,本節以降は英語を対象として手法の説明および実装・評価を行い,英語以外の言語への適用については\secref{analysis}で議論する.}.並列構造を包含する文の構文木は\tabref{cfg}の文脈自由文法(CFG)規則から導出され,並列構造木と一対一に対応付けすることができる.並列構造を木として表現する利点については\secref{coord}で述べたが,CFG規則を用いる利点として,(1)\,並列構造の範囲が競合するような候補を排除し,並列構造木を導出できる組み合わせのみを探索できる,(2)\,CKYアルゴリズムの適用により効率的に並列構造木を導出できる,点が挙げられる.\tabref{cfg}のCFG規則は\citeA{hara-EtAl:2009:ACL-IJCNLP}が開発した規則をもとに作られているが,我々の規則が等位接続詞と並列句の間に任意の句が挿入された並列構造であっても導出できるのに対し,Haraらの規則は等位接続詞に隣接する並列句しか導出できないという違いがある.本規則を用いることで,並列構造のアノテーションが付与されたPennTreebankコーパス\cite{ficler-goldberg:2016:ACL}において,99.5\%の並列構造を構文木として導出することができる\footnote{導出不可能な並列構造は``[A]and[B]and[C]''のような等位接続詞の一つが準等位接続詞のように働く場合がほとんどであるが,このような表現であっても入れ子になった二つの並列構造として導出することができる.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\caption{並列構造木の導出規則}\label{tab:cfg}\input{01table01.tex}\vspace{4pt}\small(\ldots$|$\ldots)は括弧内のいずれかの語に,``*''は任意の語にマッチし,``?''は直前の要素の0または1回の出現を表す.\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tabref{cfg}の規則の適用により,同じ文から異なる構文木が複数導出され得る.そこで構文木に対してスコアを割り当てることで,最もスコアの高い構文木をシステムの出力とする.\begin{equation}\label{eq:parsing}\hat{T}=\argmax_{T\in\mathcal{T}_{G}(s)}(score(T))\end{equation}ここで,$\mathcal{T}_{G}(s)$は文脈自由文法$G$によって文$s$から導出可能な構文木の集合である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{スコア計算とCKYアルゴリズムの適用}本研究では並列構造の構文木に対して,非終端記号であるCOORDのノードと前終端記号のノードのみにスコアを割り当てる.COORDが付与されたノードに対するスコアは,関数$score_{coord}$によって与えられる.前終端記号について,その終端記号である語が並列キーとして定義された語の集合$\mathbb{S}_{cc}$または準並列キーとして定義された語の集合$\mathbb{S}_{sub{\text-}cc}$に属するとき,そのノードのスコアは関数$score_{ckey}$により計算される.終端記号の語が$\mathbb{S}_{cc}$または$\mathbb{S}_{sub{\text-}cc}$のいずれにも属さない場合,前終端記号はWに一意に決まり,そのノードのスコアは0とする.以上を整理して,スコア関数$score(T)$は次のように表される.\begin{align}\label{eq:scoring}score(T)&=\sum_{\langle[i,j],\ell\rangle\inT}score_{node}([i,j],\ell)\\score_{node}([i,j],\ell)&=\begin{cases}score_{coord}(i,j)&(\ell={\rmCOORD})\\score_{ckey}(i,\ell)&(\ell\in\{{\rmCC},{\rmCC{\text-}SUB},{\rmW}\},i=j,w_i\in\mathbb{S}_{cc}\cup\mathbb{S}_{sub{\text-}cc})\\0&(otherwise)\end{cases}\end{align}ここで$\langle[i,j],\ell\rangle$は構文木$T$に含まれるノードであり,ノードのスパン$[i,j]$とそのラベル$\ell$を表している.また,$w_i$は入力文の$i$番目に出現する語を表す.並列構造のノード$\langle[i,j],{\rmCOORD}\rangle$に対するスコア関数$score_{coord}$と,並列キーまたは準並列キーに該当する語の前終端ノードに対するスコア関数$score_{ckey}$の定義については次節にて述べる.本研究では,CFG規則の適用による並列構造の構文木の導出のためにCKYアルゴリズムを用いる.CKYアルゴリズムを適用するために,CFG規則はチョムスキー標準形に変換される\footnote{右辺が三項以上の規則について,本研究では右から順にバイナリ規則に変換する.}.CKYアルゴリズムを用いたCFG構文解析では,動的計画法により\eqref{parsing}の結果$\hat{T}$を時間計算量$\mathcal{O}(N^3)$($N$は入力文の単語数)によって効率良く求めることができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文の前処理・後処理法}\label{sec:prepostproc}アメリカ英語において,引用のあとに続くピリオドやカンマは引用符の内側に置かれる.引用符で囲まれた句が三つ以上並列する場合に,並列句の区切りとなる準等位接続詞が引用符内で閉じてしまう(例:``associations,''``societies''and``councils'').このような並列構造は\tabref{cfg}の規則(2)から正しく導出することができず,規則(2)の適用によって準等位接続詞直後の並列句が閉じ引用符から開始してしまう.そこで引用符の内側に置かれた句読点を取り扱う方法について示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{引用符の削除・復元による方法}引用符の削除・復元による方法では,文の構文解析に先立って引用符を削除する.その後構文解析によって並列句の範囲を同定したあとに引用符を挿入する.例えば,``A,''``B''and``C,''という並列構造を持つ文に対して,システムが並列句の境界を[A],[B]and[C],と予測した場合,後処理によって``[A],''``[B]''and``[C],''と復元される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{引用符と句読点のスワップによる方法}引用符と句読点のスワップによる方法では,カンマと閉じ引用符がこの並び順で出現した場合に,構文解析に先立って位置を入れ替える.その際にスワップ位置を保持しておき,その後構文解析によって並列句の範囲を同定したあとに再びスワップすることで元の語順に戻す.例えば,``A,''``B''and``C,''という文に対して,システムが前処理後の並列句の境界を``[A]'',``[B]''and``[C]'',と予測した場合,後処理によって``[A],''``[B]''and``[C],''と復元される.\vspace{\baselineskip}本研究ではスワップによる前処理・後処理法を採用する\footnote{前処理・後処理を加える方法の他に,単に引用符を考慮したCFG規則を追加することもできるが,CFG規則を不用意に複雑にしてしまうため,本研究では採用していない.}.理由として,スワップによる方法では引用符を手がかりとして並列句の範囲を決定することができる点が挙げられる.また,イギリス英語のように閉じ引用符のあとにカンマが出現する場合,スワップによる方法では単に前処理・後処理が適用されずにそのままシステムによる予測ができるが,削除・復元による方法ではそのような場合であっても引用符が削除されてしまい,システムの予測時に引用符を手がかりとして役立てることができない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{構文解析モデル} \label{sec:models}本節では\secref{parsing}で示した構文解析アルゴリズムに用いるスコア関数$score_{coord}$,$score_{ckey}$の定義と学習方法について示す.提案手法ではスコア関数を,{\bf等位接続詞分類モデル},{\bf内側境界スコア付与モデル},{\bf外側境界スコア付与モデル}の三つのモデルにより構成する.\figref{overview}は本手法のフレームワークの概要図である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{27-4ia1f3.eps}\end{center}\hangcaption{並列構造解析のフレームワークの概観.CKYアルゴリズムの適用において,前終端記号の四角形ノードは等位接続詞分類モデルによって,COORDノードは内側・外側境界スコア付与モデルによってそれぞれスコア付けされる.}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデル定義}$N$語の系列${w_{1:N}=w_1,\ldots,w_N}$と対応する品詞タグ系列${p_{1:N}=p_1,\ldots,p_N}$を入力として,我々のシステムは並列構造の集合${\{\langlet,\{[b^{(1)}_t,e^{(1)}_t],\ldots,[b^{(n)}_t,e^{(n)}_t]\}\rangle\}\;(n\geq2,b^{(i)}_t\leqe^{(i)}_t)}$を出力する.ここで$t$は等位接続詞の出現位置を表し,$[b^{(k)}_t,e^{(k)}_t]$は等位接続詞$w_t$によって形成される並列構造に含まれる並列句のうち先頭から$k$番目に出現する並列句であり,その開始位置が$b^{(k)}_t$,終了位置が$e^{(k)}_t$であることを表す.ここで並列構造に含まれる並列句の数$n$が$n\geq2$となっている理由は,並列構造に含まれる並列句の数をあらかじめ知ることができないためである.しかし,並列キーと準並列キーに対する並列句ペアの同定として,以下のようにタスクを定式化することができる.\begin{equation}\label{eq:problem}\begin{split}X&=\{w_{1:N},p_{1:N},C\}\\C&=\{t\,|\,w_t\in\mathbb{S}_{cc}\cup\mathbb{S}_{sub{\text-}cc}\}\\Y&=\{\langley^{ckey}_t,y^{pair}_t\rangle\,|\,t\inC\}\end{split}\end{equation}ここで$y^{ckey}_t$は語$w_t$が実際に等位接続の役割を果たしているか(${y^{ckey}_t=1}$),または果たしていないか(${y^{ckey}_t=0}$)を表す二値のラベルであり,$y^{pair}_t$は並列句スパンのペアである.また,${y^{ckey}_t=0}$のとき,対応する並列句ペアが存在しないことから${y^{pair}_t=\varnothing}$となる.${t=1}$または${t=N}$の場合について,語$w_t$は文内に並列構造を形成することができないため${y^{ckey}_t=0}$となる.本論文では,等位接続詞と成り得る語の集合$\mathbb{S}_{cc}$と準等位接続詞と成り得る語の集合$\mathbb{S}_{sub{\text-}cc}$をそれぞれ\{``and'',``or'',``but'',``nor'',``and/or''\}と\{``,'',``;'',``:''\}と定義する.提案手法では,$y^{pair}_t$の四つの境界―(準)等位接続詞の左側に出現する並列句の始点・終点,右側の並列句の始点・終点―に対して,内側境界(左側並列句の終点・右側並列句の始点)を同定するモデルと外側境界(左側並列句の始点・右側並列句の終点)を同定するモデルの二つを用いる\footnote{四つの境界の分割方法として,「句のペアの``二つの始点''と``二つの終点''」や「``左側並列句の始点・終点''と\mbox{``右側並列句の始点・終点''}」のような分割も考えられる.しかし予備実験の結果,「左側並列句の始点・終点と右側並列句の始点・終点」による分割は,一方の並列句を決定するときに他方の並列句を考慮しないため,並列句の類似性や可換性のような並列句ペアの特徴を用いることができず,十分な解析性能が得られなかった.「句のペアの二つの始点と二つの終点」による分割は,並列句ペアの始点同士・終点同士の類似性や境界前後の文脈との整合性を考慮できるものの,左側並列句の終点と右側並列句の始点がほとんどの場合に等位接続詞と隣接することから,モデルの訓練時に左側並列句の始点と右側並列句の終点を独立に学習している状態に陥り,提案手法の分割と比較して高い精度が得られなかった.}.四つの境界の組み合わせを列挙する場合の時間計算量は$\mathcal{O}(N^4)$であるが,内側・外側境界に分割して数え上げた場合は$\mathcal{O}(N^2)+\mathcal{O}(N^2)=\mathcal{O}(N^2)$となり,計算量を抑えることができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{等位接続詞分類モデル}等位接続詞分類モデルは並列キーおよび準並列キーのラベルを予測する二値分類器である.\begin{equation}P_{\theta}(y^{ckey}_t\,|\,t)={\rmsoftmax}(f_{ckey}(t))\end{equation}ここで$\theta$はモデルのパラメータ集合である.二値分類の損失関数は以下のとおりに計算される.\begin{equation}\label{eq:coord-loss}\ell^{ckey}_{\theta}(X,Y)=-\sum_{\langley^{ckey}_t,y^{pair}_t\rangle\inY}\logP_{\theta}(y^{ckey}_t\,|\,t)\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{内側境界スコア付与モデル}内側境界スコア付与モデルは並列句のペアに対し,その内側境界に基づいてスコアを付与するモデルである.本論文では,左側並列句の始点,終点,右側並列句の始点,終点をそれぞれ$b^l,e^l,b^r,e^r$と表す.並列キー$w_t$に対する内側境界$(e^l,b^r)$のスコアは以下のように計算される.\begin{equation}\label{eq:inner-scores}{\textsc{Score}}^{inner}_{\theta}(e^l,b^r,t)=f_{inner}(e^l,b^r,t)\end{equation}内側境界の確率値は全ての可能な内側境界の組み合わせにおけるスコアを正規化することで計算される.\begin{gather}\label{eq:inner-pairs}I_{t}=\{(1,t+1),(1,t+2),\ldots,(1,N),(2,t+1),\ldots,(t-1,N)\}\\[1ex]\label{eq:inner-probability}P_{\theta}(y^{pair}_t=([*,e^l],[b^r,*])\,|\,t)=\frac{\exp{({\textsc{Score}}^{inner}_{\theta}(e^l,b^r,t))}}{\sum\limits_{(e^{\primel},b^{\primer})\inI_{t}}\exp{({\textsc{Score}}^{inner}_{\theta}(e^{\primel},b^{\primer},t))}}\\[1ex]\label{eq:inner-loss}\ell^{inner}_{\theta}(X,Y)=-\sum_{\langley^{ckey}_t,y^{pair}_t\rangle\inY}y^{ckey}_t\logP_{\theta}(y^{pair}_t\,|\,t)\end{gather}ここで項$y^{ckey}_t\logP_{\theta}(y^{pair}_t\,|\,t)$は,(準)並列キーが等位接続となる場合(${y^{ckey}_t=1}$)のみ交差エントロピー損失が計算され,等位接続とならない場合(${y^{ckey}_t=0}$)は0となることを意味する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{外側境界スコア付与モデル}内側境界スコア付与モデルと同様に外側境界$b^l,e^r$の確率$P_{\theta}(y^{pair}_t=([b^l,*],[*,e^r])\,|\,t)$は外側境界の全ての可能な組み合わせ$O_{t}$から計算される.同様に,損失関数$\ell^{outer}_{\theta}$はスコア関数${\textsc{Score}}^{outer}_{\theta}$$(b^l,e^r,t)=f_{outer}(b^l,e^r,t)$を用いて定義される.ここで内側境界の集合$I_{t}$と外側境界の集合$O_{t}$は,境界の可能な組み合わせが同じであるため等しい.内側境界の確率${P_{\theta}(y^{pair}_t=([*,e^l],[b^r,*])\,|\,t)}$と外側境界の確率${P_{\theta}(y^{pair}_t=([b^l,*],[*,e^r])\,|\,t)}$を用いて,最も確率の高い並列句ペアは以下のように求められる.\begin{equation}\label{eq:pair}\begin{split}y^{pair}_t&=\argmax_{(\hat{e}^l,\hat{b}^r)}P_{\theta}(([*,\hat{e}^l],[\hat{b}^r,*])\,|\,t)\\&\cup\argmax_{(\hat{b}^l,\hat{e}^r)}P_{\theta}(([\hat{b}^l,*],[*,\hat{e}^r])\,|\,t)\end{split}\end{equation}ただし,\eqref{pair}によって個々の(準)等位接続詞について並列句ペアを決定すると範囲に不整合が生じる可能性があるため,並列構造の解析時には\secref{parsing}で示したとおり,CFG規則によって導出される構文木のスコアが最大となるように並列構造が決定される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{スコア関数の構成}本小節では\secref{parsing}で示したスコア関数$score_{coord}$,$score_{ckey}$の具体的な定義について説明する.並列キーまたは準並列キーに該当する語$w_i\in\mathbb{S}_{cc}\cup\mathbb{S}_{sub{\text-}cc}$の前終端ノードに対するスコアは,(準)並列キーの有無を表す二値のラベル$y^{ckey}_i$の対数確率から割り当てられる.\begin{equation}\label{eq:score-ckey}score_{ckey}(i,\ell)=\begin{cases}\log{P(y^{ckey}_i=1\,|\,i)}\;\;\;\;(\ell\in\{{\rmCC},{\rmCC{\text-}SUB}\})\\\log{P(y^{ckey}_i=0\,|\,i)}\;\;\;\;(\ell={\rmW})\end{cases}\end{equation}並列構造を表すCOORDノードのスコアは(準)等位接続詞が結びつける二つの並列句に基づいて計算される.等位接続詞の出現位置を$k$,左側並列句のスパンを$[i,l]$,右側並列句のスパンを$[m,j]$とすると,語$w_k$によって結びつけられた二つの並列句から成る並列構造$[i,j]$のスコアは,内側境界$(l,m)$の対数確率と外側境界$(i,j)$の対数確率の和として計算される.\begin{equation}\label{eq:score-coord}\begin{split}score_{coord}(i,j)&=\log{P(y^{pair}_k=([i,l],[m,j])\,|\,k)}\\&=\log{P(([*,l],[m,*])\,|\,k)}+\log{P(([i,*],[*,j])\,|\,k)}\end{split}\end{equation}\eqref{score-coord}の計算と\tabref{cfg}の規則(1)を対応づけると,規則(1)は以下のように表される.\[{\rmCOORD}_{i,j}\rightarrow~{\rmCONJ}_{i,l}~\,{\rmN}_{l+1,k-1}?~\,{\rmCC}_{k,k}~\,{\rmN}_{k+1,m-1}?~\,{\rmCONJ}_{m,j}\]準等位接続詞によって並列句が結びつけられる場合は,準等位接続詞$w_k$が結びつける左側並列句$[i,l]$と右側並列句$[m,j]$を用いて,\eqref{score-coord}と同様の計算を適用することでCOORDノードのスコアが割り当てられる.\eqref{score-coord}の計算を\tabref{cfg}の規則(2)に当てはめた場合,規則(2)の右辺を展開して以下のように表される.\begin{align*}{\rmCOORD}_{i,j}\rightarrow~&{\rmCONJ}_{i,l}~\,{\rmCC{\text-}SUB}_{k,k}~\,{\rmCONJ}_{m,j}~\,\ldots~\,{\rmN}?~\,{\rmCC}~\,{\rmN}?~\,{\rmCONJ}\\&(ただし,l=k-1,m=k+1)\end{align*}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ニューラルネットワーク}本小節では関数$f_{ckey}$,$f_{inner}$,$f_{outer}$のニューラルネットワークによる構成について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{エンコーダ}単語・品詞タグの系列の文レベルのベクトル表現を得るために,本研究では双方向型LongShort-TermMemory(BiLSTMs)\cite{hochreiter-schmidhuber:1997:NC}を用いる.\begin{equation}\label{eq:encoder}{\bfh}_{1:N}={\rmBiLSTMs}(f_{input}(w_{1:N},p_{1:N}))\end{equation}ここでLSTMの隠れ状態ベクトルの次元を$d^{hidden}$とすると,エンコーダから出力される系列の各ベクトル${\bfh}_t$の次元は$2d^{hidden}$となる.BiLSTMsの入力として,単語・品詞タグを各ベクトル表現にマッピングする関数$f_{input}$が出力するベクトル系列を用いる.$f_{input}$内での具体的なマッピング方法として,事前学習したベクトル表現のほか,ELMo\cite{peters-EtAl:2018:NAACL}やBERT\cite{devlin-EtAl:2019:NAACL}などの文脈を考慮した単語分散表現,文字レベルでの演算を行うLSTMや畳み込みニューラルネットワークの出力ベクトルなどを用いることができる.これらの選択による性能差は\secref{exp}で示す.$f_{input}$とBiLSTMsから成るモデルを本論文ではエンコーダと呼び,エンコーダは等位接続詞分類モデル,内側境界スコア付与モデル,外側境界スコア付与モデルの三つのネットワークの共通の下層部分として共有される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{等位接続詞分類モデル}$f_{ckey}$には並列キーの文レベルベクトル表現の線形変換を用いる.\begin{equation}\label{eq:ckey-model}f_{ckey}(t)={\bfW}^{ckey}{\bfh}_t+{\bfb}^{ckey}\end{equation}ここで${\bfW}^{ckey}\in\mathbb{R}^{2\times2d^{hidden}}$と${\bfb}^{ckey}\in\mathbb{R}^{2}$は等位接続詞分類モデルのパラメータである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{内側境界スコア付与モデル}エンコーダが出力した文レベルベクトル表現を用いて,内側境界スコア付与モデルは内側境界に位置する二つのベクトル表現を連結し,\pagebreak多層パーセプトロン(MLP)に入力することでスカラー値を出力する.\begin{equation}\label{eq:inner-model}f_{inner}(e^l,b^r,t)={\bfw}^{in}_{2}\:{\rmReLU}({\bfW}^{in}_{1}[{\bfh}_{e^l};{\bfh}_{b^r}]+{\bfb}^{in}_{1})+{\rmb}^{in}_{2}\end{equation}ここで${\bfW}^{in}_1\in\mathbb{R}^{d^{in}\times4d^{hidden}}$,${\bfb}^{in}_1\in\mathbb{R}^{d^{in}}$,${\bfw}^{in}_2\in\mathbb{R}^{d^{in}}$,${\rmb}^{in}_2\in\mathbb{R}$は内側境界スコア付与モデルのパラメータである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{外側境界スコア付与モデル}外側境界スコア付与モデルは外側境界のベクトル表現と並列キー前後のベクトル表現の差を用いてスコア計算を行う.減算は二つのスパンの意味的な距離や関連性をとらえる意図で導入している\cite{teranishi-EtAl:2017:IJCNLP}.演算によって得られたベクトル表現をMLPに入力することでスカラー値を得る.\begin{gather}\label{eq:feature}f_{feature}(b^l,e^r,t,{\bfh}_{1:N})=\bigl[{\bfh}_{b^l}-{\bfh}_{t+1};{\bfh}_{e^r}-{\bfh}_{t-1}\bigr]\\\begin{split}f_{outer}(b^l,e^r,t)&={\bfw}^{out}_{2}\:{\rmReLU}({\bfW}^{out}_{1}\:{\bfr}+{\bfb}^{out}_{1})+{\rmb}^{out}_{2}\\{\bfr}&=f_{feature}(b^l,e^r,t,{\bfh}_{1:N})\end{split}\label{eq:outer-model}\end{gather}ここで${\bfW}^{out}_1\in\mathbb{R}^{d^{out}\times4d^{hidden}}$,${\bfb}^{out}_1\in\mathbb{R}^{d^{out}}$,${\bfw}^{out}_2\in\mathbb{R}^{d^{out}}$,${\rmb}^{out}_2\in\mathbb{R}$は外側境界スコア付与モデルのパラメータである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{学習}ニューラルネットワークモデルのパラメータ集合$\theta$は以下の損失関数を最小化することによって最適化される.\begin{equation}\label{eq:loss}L(\theta)=\sum_{(X,Y)\inD}\bigl(\ell^{ckey}_{\theta}(X,Y)+\ell^{inner}_{\theta}(X,Y)+\ell^{outer}_{\theta}(X,Y)\bigr)\end{equation}ここで$D$は学習データに含まれる文$X$とその文に含まれる並列構造$Y$の対の集合である.\eqref{loss}で計算される損失は三つのサブモデルの損失の和であり,したがって三つのサブモデルのパラメータは同時に学習される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{なぜ局所的な学習を行うか}各サブモデルの局所的な決定に基づいてスコア関数を学習する代わりに,モデルを統合してCKYアルゴリズムによって導出された構文木のスコアと正解の構文木のスコアを最大マージン法などによって直接的に学習することができる\cite{stern-EtAl:2017:ACL}.しかしながら,このような大域最適の学習には非常に多くの時間を要し,またハイパーパラメータの注意深い設定が必要なうえ,予備実験の範囲では\citeA{teranishi-EtAl:2017:IJCNLP}の手法をわずかに上回る程度の精度しか得られなかった.内側・外側境界の局所的な学習の成功は,交差エントロピー損失を用いて学習を行ったことが要因であると分析する.最大マージン損失を最小化する大域的な学習の場合,スコア最大の構文木と正解の構文木に含まれる並列句の境界についてモデルのパラメータが調整される.対して交差エントロピー損失を用いた内側・外側境界の局所的な学習の場合,正解の境界だけでなく全境界についてパラメータの調整が行われ,不正解の境界全てのスコアが押し下げられるよう学習が進む.そこで交差エントロピー損失最小化による局所的な学習と類似の学習方法として,入力文$s$に対する構文木$T\in\mathcal{T}_{G}(s)$の条件付き確率$P(T|s)$を次式のようにモデル化することを考える.\begin{equation}P_{\theta}(T|s)=\frac{\exp(score_{\theta}(T))}{Z_{\theta}(s)}\;,\;\;\;Z_{\theta}(s)=\sum_{T^{\prime}\in\mathcal{T}_{G}(s)}\exp(score_{\theta}(T^{\prime}))\end{equation}この条件付き確率に対して最尤推定によってパラメータ集合$\theta$を調整することで,局所的な学習による方法と同等以上の解析精度が期待できるが,分配関数$Z$において文脈自由文法$G$によって文$s$から導出可能な構文木の全てについてスコア計算をする必要があり,現実的には計算が困難である.そこで分配関数$Z$を何らかの方法により近似することで,このような大域的な学習を実行する方法も考えられる\cite{andor-EtAl:2016:ACL}.しかし近年,\citeA{teng-zhang:2018:COLING}や\citeA{dozat-manning:2017:ICLR}の手法に見られるように,構文解析のタスクにおいて局所的な決定をニューラルネットワークによって高精度に学習し,解析時に大域最適解を求めることで,大域的な目的関数によって学習したモデルの解析結果と遜色ない精度が実現できている.提案手法において並列句ペアの内側・外側境界は局所的に学習されるが,並列構造の同定時にはCKYアルゴリズムを用いた構文解析によって両境界の整合性を考慮して大域最適解を求めている.このことから,各サブタスクを高い精度で学習できれば大域的な目的関数を用いた学習との解析精度の差は縮まると推測され,本研究でも局所的な学習による方法を採用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} \label{sec:exp}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{データセット}本研究では並列構造のアノテーションが付与されたPennTreebank\cite{ficler-goldberg:2016:ACL}(PTB)とGENIATreebankbeta\cite{Kim-EtAL:2003:BioInfo}(GENIA)を用いて評価実験を行う.実験の前処理・後処理には\secref{prepostproc}で示したスワップによる方法を用いる.PTBでの実験では,コーパスのWallStreetJournalのパートのうち,セクション2から21を訓練データ,セクション22を開発データ,セクション23をテストデータとして用いる.GENIAでの実験では,\citeA{hara-EtAl:2009:ACL-IJCNLP}と同様に5分割交差検定によって評価を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{モデル}エンコーダ内の関数$f_{input}$として,単語を事前学習済みの単語ベクトルに,単語を構成する文字列を文字ベースの畳み込みニューラルネットワーク\cite{ma-hovy:2016:ACL}(CharCNNs)の出力ベクトルに,品詞タグを品詞タグの表現ベクトルにマッピングし,それらの三つのベクトル表現を連結したベクトルを出力する関数を用い,この設定を本論文では{\itdefault}と呼ぶ.事前学習済みの単語ベクトルとして,PTBでの実験にはGloVe\cite{pennington-EtAl:2014:EMNLP}を,GENIAでの実験にはBioASQ\cite{tsatsaronis-EtAl:2012:AAAI}を初期値として用いる\footnote{それぞれ\url{http://nlp.stanford.edu/data/glove.6B.zip}(glove.6B.100d.txt),\url{http://bioasq.lip6.fr/tools/BioASQword2vec/}(vectors.txt)を使用した.}.PTBでの実験において,品詞タグはStanfordPOSTagger\cite{toutanova-EtAl:2003:NAACL}を用いて10分割ジャックナイフ法により付与し,GENIAでの実験では先行研究\cite{hara-EtAl:2009:ACL-IJCNLP,ficler-goldberg:2016:EMNLP,teranishi-EtAl:2017:IJCNLP}に従って,コーパスに付与されている品詞を用いた.モデルのパラメータの最適化はAdam\cite{kingma-ba:2015:ICLR}を用いて確率的勾配降下法によって行った.その他のハイパーパラメータについては\tabref{hyperparams}のとおりである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\caption{実験に用いたハイパーパラメータの設定.}\label{tab:hyperparams}\input{01table02.tex}\vspace{1\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{ベースライン}評価実験のベースラインとして\citeA{teranishi-EtAl:2017:IJCNLP}の手法を再実装したものを用いる.Teranishiらの手法は,並列構造全体の始点・終点を予測したあとに,等位接続詞とカンマによって並列構造を個々の並列句に分割している.しかし個々の並列構造に対して独立に始点・終点を決めているため,文中の他の並列構造と範囲が競合し得る.そこでTeranishiらの手法を拡張し,複数の並列構造の範囲が部分的に重なり合わないという制約のなかで,並列構造の範囲のスコアの合計が最も高くなる組み合わせを探索して決定する.ベースラインのモデルで使われるエンコーダについては,上述のdefaultの設定と同様の構成を用いる.本論文では以降,この拡張を施したベースラインモデルを{\itTeranishi+17:+ext}として参照する.またPTBでの実験では,\citeA{stern-EtAl:2017:ACL}の句構造構文解析器を用いて,並列構造の構文木表現を直接学習・予測した結果とも比較する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{評価}PTBでの実験では,並列キーに対する並列句スパンの予測に基づいて,\pagebreak適合率(P),再現率(R),それらの調和平均であるF1値(F)によってシステムの評価を行う.\citeA{teranishi-EtAl:2017:IJCNLP}の評価実験に則って,並列句の一致について以下四つの基準で評価する\footnote{並列構造が二つの並列句から成る場合はinnerとouterの一致基準は同一である.}.\begin{itemize}\setlength{\parskip}{0cm}\setlength{\itemsep}{0cm}\item{\bfwhole}:最初の並列句の始点と最後の並列句の終点の一致.\item{\bfouter}:最初の並列句の始点・終点の一致かつ最後の並列句の始点・終点の一致.\item{\bfinner}:等位接続詞前後の並列句それぞれの始点・終点の一致.\item{\bfexact}:全ての並列句の始点・終点の一致.\end{itemize}また,評価に際して特に名詞句の並列構造のみを対象にした解析性能についても調べる\footnote{\citeA{ficler-goldberg:2016:EMNLP}と同様に,NPに加えてNXの並列構造も名詞句の並列構造と見なす.}.GENIAでの実験では,上述の一致基準に基づいて再現率によって評価する.ただし,先行研究ではwholeの一致基準についてのみ評価を行っている.また,並列構造の統語範疇ごとに対象を絞って性能を評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\newcolumntype{C}[1]{>{\centering\arraybackslash}p{#1}}\begin{table}[t]\caption{比較手法で用いられる外部資源}\label{tab:resource-diff}\input{01table03.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{先行研究との実験設定の違い}提案手法と先行研究の実験設定の違いについて整理する.各手法が利用している外部資源について\tabref{resource-diff}に示す.提案手法,ベースラインおよび\citeA{teranishi-EtAl:2017:IJCNLP}のモデルは,PTBとGENIAのいずれにおいてもコーパス外のテキストで事前に学習した単語ベクトル表現を用いているのに対し,\citeA{stern-EtAl:2017:ACL}の構文解析器ではランダムに初期化した単語ベクトルを,\citeA{ficler-goldberg:2016:EMNLP}のモデルはPTB・GENIAのそれぞれで事前学習したベクトル表現を用いている.PTBでの評価実験において,FiclerらはBerkeleyParserによって付与された品詞タグを用いているのに対し,その他のモデルはStanfordPOSTaggerで付与した品詞タグを用いている.GENIAにおいてはいずれもコーパスに付与されている品詞タグを用いている.また,FiclerらはPTB・GENIAのいずれにおいてもBerkeleyParserが付与した句構造の構文木を用いており,品詞タグのベクトル表現についてはWord2Vec\cite{mikolov-EtAl:2013:ICLR}を用いてそれぞれのコーパスで事前学習している.外部資源の利用における差異は並列構造の解析性能に影響を及ぼすため,本節の評価実験は厳密に同条件下での比較ではない\footnote{FiclerらはBerkeleyParserを改変して用いており,改変部分や手法の実装についての詳細は得られなかった.}.しかしながら,本節では提案手法における外部資源の利用の有無による性能差を提示することで,設定の違いを考慮したうえでの優位点を示す.外部資源の利用以外の差異として,\secref{prepostproc}に示した引用符によるイレギュラーな並列構造に対する取扱いが挙げられる.Ficlerらの手法ではBerkeleyParserを用いて並列句ペアの候補を抽出しており,イレギュラーな並列構造を同定できるかどうかは構文解析の結果に依存する.ベースラインおよびTeranishiらの手法は,引用符による変則的な並列構造を導出できないという制限はない.対して提案手法は\tabref{cfg}で示した文脈自由文法規則からイレギュラーな並列構造を導出できないため,\secref{prepostproc}で提案したスワップによる前・後処理と組み合わせることで対応する.\tabref{cfg}の規則によって変換された正解の構文木をSternらの構文解析器によって直接的に学習する方法においても,同様の理由で学習用の構文木を構築する前に前処理を行い,解析器による構文木の出力後に後処理を行って評価をしている.このように,スワップによる前・後処理は\tabref{cfg}の規則を引用符によるイレギュラーな並列構造に対応させる目的で導入されており,提案手法のシステムの一部に組み込まれたものである.したがって,タスク評価の入出力時点では提案手法と他の手法で単語系列や並列構造範囲に差異はない.しかしながら,スワップによって単語系列が操作されることで引用符とカンマの語順が正規化され,BiLSTMsを用いた本手法にとってより有効な語順に変化している可能性がある.最後に本論文で提案する文脈自由文法規則と\citeA{hara-EtAl:2009:ACL-IJCNLP}の規則の違いによる性能差について述べる.Haraらの規則は等位接続詞の前後の並列句が等位接続詞に隣接すると仮定しており,``[A]\ldotsand[B]''のような,等位接続詞に隣接しない並列句を導出することができない.ただし,Haraらは``[A],and[B]''のような,等位接続詞とその前に出現する並列句とのあいだにカンマが出現することを許容し,規則を追加している.対して我々は\tabref{cfg}の規則(1)によって,等位接続詞と並列句のあいだに任意の句が出現するような並列構造を導出可能にしている.このような並列構造はPTBに実際に存在するが,GENIAにおいては等位接続詞と並列句のあいだにカンマ以外の任意の句が出現せず,アノテーションされた全ての並列構造がHaraらの規則により導出可能である.したがってGENIAでの評価実験において,規則の違いによる性能差は生じない\footnote{我々の構文解析器においてHaraらの規則を用いることで,正解の並列構造を候補から落とすことなく並列句の探索範囲を絞り込める点で,提案規則を用いる場合と比べて優位な設定で評価実験を行えるが,本節では\tabref{cfg}の提案規則を用いて実験を行う.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\newcolumntype{M}{C{7.125mm}}\begin{table}[t]\caption{PTBでの実験結果}\label{tab:ptb-results}\input{01table04.tex}\par\vspace{4pt}\smallTeranishi+17およびFicler+16の数値は論文で報告されている結果より抜粋.\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}PTBとGENIAの実験結果をそれぞれ\tabref{ptb-results}と\tabref{genia-results}に示す.PTBにおいて,提案手法(Ours)は並列構造の全ての一致基準において既存手法の精度を大幅に上回った.提案手法が並列句ペアの内側・外側境界について学習しているのに対し,ベースラインは並列構造全体の境界のみを学習しているため,whole以外の基準では提案手法がより正確に境界を予測できている.次に\citeA{stern-EtAl:2017:ACL}の句構造構文解析器による解析では,いずれの一致基準についても並列構造に特化した解析器と比べて並列構造の同定精度が低いことが確認された.しかし並列構造の構文木表現の構文解析精度について評価したところ,句構造のラベル付きスパンの一致についてのF1値が開発データで97.88\%,テストデータで97.63\%という結果となった.この精度の高さは,\tabref{cfg}のCFG規則で導出される構文木の大部分がWとNのノードによって右辺に展開される二分木であるためだと考えられる.しかし並列構造について高い精度で同定できていないことから,WやNのノードと比較して出現数が少ないCOORDのノードについては句構造構文解析によって高い精度でスパンを予測できていないと推測される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\caption{GENIAでの実験結果}\label{tab:genia-results}\input{01table05.tex}\par\vspace{4pt}\smallTeranishi+17,Ficler+16,Hara+09の数値は論文で報告されている結果より抜粋.\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%GENIAにおいて,提案手法はexactの基準でベースラインを上回る精度を達成した.我々のモデルはベースラインと比較して,並列構造全体の始点・終点を予測する能力について劣っているものの,innerの基準では高い性能を発揮している.対して,ベースラインはwholeの基準で高い性能を示しており,他の基準では精度が相対的に低い.この性能差は二つの手法のアルゴリズムの違いを反映している.提案手法はボトムアップに並列句ペアから並列構造を導出しているのに対し,ベースラインは並列構造全体の範囲を予測してから個々の並列句に分割するというトップダウンの解析を行っている.そのためベースラインの手法では,文や節などの長い並列構造を非準等位接続詞であるカンマによって誤って分割し,解析精度が低下してしまう.提案手法の欠点はCKYアルゴリズムの初期段階の誤りが後段のステップまで伝搬することであり,そのためinner以外の基準では誤りの影響を受けて精度が低下していると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{考察}\label{sec:analysis}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{文単位での完全一致}並列構造単位での評価に加えて,文単位での全並列構造の完全一致について評価した.評価に際して,文が持つ並列構造に応じて文を次の五つに分類する.\begin{itemize}\setlength{\parskip}{0cm}\setlength{\itemsep}{0cm}\setlength{\itemindent}{-1.0cm}\item[]{\bfAll}:並列構造を持つ全ての文.\setlength{\itemindent}{0cm}\item{\bfSimple}:二つの並列句から成るただ一つの並列構造を持つ文.\item{\bfComplex}:ConsecutiveまたはMultipleに該当する文.\begin{itemize}\setlength{\itemindent}{-0.4cm}\item{\bfConsecutive}:三つ以上の並列句から成る並列構造を少なくとも一つ持つ文.\item{\bfMultiple}:複数の並列構造を持つ文.\end{itemize}\end{itemize}なお,SimpleとComplexにそれぞれ該当する文の集合は互いに素であり,Allはそれらの和集合であるが,ConsecutiveとMultipleの文集合には一部重複がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\caption{文単位での並列構造の完全一致率}\label{tab:ptb-complete}\input{01table06.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tabref{ptb-complete}はPTBとGENIAにおける完全一致率の評価結果である.いずれのデータセットにおいても,Simpleの文において提案手法はベースラインと比較して高い性能を得ている.このパフォーマンスの差は二つのシステムが学習している境界の違いに由来するものだと考えられる.Simpleの文の場合,提案手法は等位接続詞の前後に出現する二つの並列句の内側・外側境界を学習しているのに対し,ベースラインのシステムは並列構造の外側境界のみを学習・予測している.しかし,同格や副詞句表現が等位接続詞と並列句の間に出現し得る場合があり,二つの並列句が等位接続詞に隣接するという仮定は必ずしも成立しない.提案手法はPTBにおいて,ConsecutiveとMultipleの文についてもベースラインの精度を上回っている.ベースラインの手法は並列構造全体のスパンを予測してから個々の並列句に分割しているため,準等位接続詞とならないようなカンマの出現により,誤って並列構造を分割し得る.対して提案手法はカンマなどの準並列キーが,実際に準等位接続詞として働いているかどうかについて予測しており,Consecutiveの文をより高い精度で導出することができている.しかしGENIAでは並列構造全体に占める名詞句の並列構造の割合が高く,かつ複合名詞が羅列するような単純な並列が多いため,カンマによる並列構造の分割が機能し,結果としてベースラインの手法がConsecutiveの文において精度高く解析できていると推測される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\caption{異なる設定によるモデルの性能の違い(PTB,開発)}\label{tab:ptb-comparison}\input{01table07.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{並列構造解析に有効な情報}並列構造解析に有効なベクトル表現・特徴計算について分析するため,異なる設定によって評価実験を行った.\tabref{ptb-comparison}はその結果を示している.品詞タグがない場合にモデルの性能は顕著に低下した.また品詞の他に,文字(形態)情報が有効な素性であることも確認できた.これらが有効な情報である理由として,特に名詞句の並列など類似度の高い並列句ペアにおいては,品詞や接頭辞・接尾辞の一致が並列句の範囲同定の手がかりになるからだと推測している.また,事前学習された単語の埋め込み表現がこのタスクにおいて有益であることも確認された.近年広く利用されている文脈を考慮した単語分散表現を用いた場合,ELMo\cite{peters-EtAl:2018:NAACL}では性能がわずかに上昇し,BERT\cite{devlin-EtAl:2019:NAACL}では大幅に向上した\footnote{ELMoの設定では{\itOriginal}のモデル(\url{https://s3-us-west-2.amazonaws.com/allennlp/models/elmo/2x4096_512_2048cnn_2xhighway/elmo_2x4096_512_2048cnn_2xhighway_weights.hdf5})を使用した.\newlineBERTの設定ではBERT-Large,uncasedのモデル(\url{https://storage.googleapis.com/bert_models/2018_10_18/uncased_L-24_H-1024_A-16.zip})を使用した.どちらのベクトル表現も次元数は1024次元である.}.ELMoは双方向型LSTMにより学習されており,LSTMの層ごとに前方向・後方向の文脈について独立に計算しているのに対し,BERTではTransformer\cite{vaswani-EtAl:2017:NIPS}が用いられており,アテンションによって両方向の文脈を同時に見ているという違いがある.我々のモデルではすでにエンコーダ内に双方向型LSTMが用いられているが,アテンションのような単語対単語の関係を考慮するようなモデルは組み込まれていないため,\citeA{kurohashi-nagao:1994:CL}や\citeA{shimbo-hara:2007:EMNLP-CoNLL}の手法で用いられているアラインメントと同様の働きをTransformerによって獲得できた可能性がある.今後はエンコーダにTransformerを用いるなど,アーキテクチャによる性能差をより細かく調査したい.また外側境界スコア付与モデル内での特徴計算において,内側境界スコア付与モデルと同様の特徴関数(\tabref{ptb-comparison}では{\itconcat}featureとして表記)を用いた場合,性能が低下した.\eqref{feature}は並列句ペアの類似性・可換性をとらえる目的で設計されており,単に$b^l,e^r$の二点だけを計算の考慮に入れた{\itconcat}featureでは,外側境界のそのような特徴をとらえられていないと分析する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\caption{ベースライン+BERTと提案手法の解析結果の違い}\label{tab:analysis2}\input{01table08.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ベースラインのモデルにELMoやBERTによるベクトル表現を用いた場合,提案手法のdefaultの設定を上回る性能が得られた.ベースラインのモデルにELMo・BERTを用いることで解けるようになった並列構造と,ベースラインの手法から提案手法に変更することで解けるようになった並列構造が仮に同一であった場合,提案手法にELMo・BERTを用いることによる改善は小さいはずである.しかしながら提案手法においてもELMo・BERTのベクトル表現を使用することによる性能改善は大きい.このことから,手法の改善によって解けるようになった並列構造と,ELMo・BERTを使って解けるようになった並列構造は性質が異なると推測される.各モデルによって解決された並列構造を\tabref{analysis2}に具体的に示す.\tabref{analysis2}より,提案手法で用いるアルゴリズムによって並列キーや準並列キーが複数出現する文において,複雑な並列構造をより頑健に同定できるようになったのに対し,文脈を考慮したベクトル表現は``NPandNPPP\ldots''や``VPandVPADVP\ldots''のような系列に対して,PPやADVPが後ろの並列句に含まれるかどうかといった前後文脈により依存するような曖昧な並列構造を同定するのに有効に働いていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\caption{提案手法の並列構造解析器による出力例}\label{tab:analysis}\input{01table09.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{解析結果の定性的分析}\tabref{analysis}に提案手法による並列構造の解析結果の例を示す.例1は二つの独立した並列構造を正しく解析できており,特に後者の並列構造ではtheretailandfinancialsectorsという名詞句に対し,theretailとfinancialsectorsという二つの名詞句の並列ではなく,retailとfinancialの二つの形容詞の並列として解析に成功している.例2は自動詞と他動詞の二つの動詞句による不均衡な並列構造の範囲を正確にとらえられている.例3は三つの平叙節の並列を解析できており,またそのうち一つの並列句内に埋め込まれている並列構造の解析にも成功している.対して例4では,atprevailingmarketpricesという前置詞句がorの直後の並列句に含まれるものとして解析している.解析結果の境界は句の切れ目として不自然ではないが,前置詞句の主辞(buy)をとらえることができていない.例5では入れ子となっている並列構造は解析できているが,that節のthatが省略されているために,Dealerssaid\ldotssecuritiesを一つの平叙節として認識してしまっている.このように,提案手法によって出力された並列句は句の境界については不自然ではないものの,並列構造の前後の句が並列句によって共有されるか否かの曖昧性を十分に解消できていない.並列となる句が前後の句に対して共通の関係を持つかどうかを判別することが提案手法の今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{他言語への適用可能性}本節では評価実験により提案手法の英語における有効性を示した.\secref{parsing}で示した構文解析を用いる本手法は,解析対象のテキストに対して以下の要件を前提としている.\begin{enumerate}\setlength{\parskip}{0cm}\setlength{\itemsep}{0cm}\renewcommand{\labelenumi}{\arabic{enumi}.}\itemテキストが文単位に分けられ,入力文は単語分割が完了したものとして単語から構成される.\item(準)等位接続詞となり得る語が定義されている.\item(準)等位接続詞が形成する並列構造のパターンが,文脈自由文法の規則として定義されている.\end{enumerate}これらの前提条件が満たされる限り,CKYアルゴリズムによる構文解析の過程において,並列キーに対する並列構造の有無が判定され,並列句の開始・終了位置となるあらゆる単語の組み合わせが精査され,並列構造の組み合わせが木として導出される,という一連のプロセスが言語やドメインに依存することなく機能する.また\secref{models}で提案したニューラルネットワークのモデルは,単語に対する品詞タグや事前学習されたベクトル表現を必須としていないが,高精度な解析のためにはそれらのリソースが利用できることが望ましい.さらにニューラルネットワークの学習のためには,並列句の範囲が明示的に付与された文が大量に利用できることが想定される\footnote{本実験で用いたGENIATreebankbetaでは,並列構造を持つ2,508の文のなかに3,598の並列構造が出現していることから,学習のためには少なく見積もっても数千以上のオーダーでアノテーション済みの文が必要であろう.}.以上の条件について,提案手法の日本語への適用を例に具体的に考える.『現代日本語書き言葉均衡コーパス』\cite{BCCWJ:2011}(BCCWJ)は,新聞,書籍,雑誌,白書,ブログ,掲示板など,様々なジャンルにまたがって収集されたテキストから成るコーパスであり,このコーパスでは一部のデータに対して並列構造の範囲が付与されている\cite{asahara-matsumoto:2018:ANLP}.並列構造の範囲は国語研短単位形態素境界に基づいて分割された文の構成要素を基準にして付与されており,六つのジャンルから成るコアデータでは総数57,109の文に14,368の並列構造が出現している.したがって前提条件1は解決され,学習に必要なアノテーションについても入手が可能であり,単語に対する品詞タグやベクトル表現もツールを使って付与することができる.また並列構造や品詞情報のアノテーションから,(準)等位接続詞となり得る語を定義することができ,前提条件2も満たされる.前提条件3について,例えば,``本物ならではの[風合い],[風格]そして[高級感あふれる質感]は''という並列構造が\tabref{cfg}の規則から導出できるように,提案規則を用いることで大部分の並列構造を導出することができると見込まれる.ただし,前終端記号に対する規則(11)\,(12)については,条件2で設定した(準)等位接続詞から定義される必要がある.日本語では``[A]と[B]と[C]''という並列構造のように,複数の等位接続詞から成る並列構造が頻出するが,例えば規則(2)に類似した規則,``COORD$\rightarrow$CONJ~\,CC~\,COORD''を追加することで,そのような並列構造を導出できる.また日本語の法令文においては,「並びに」と「及び」から成る並列構造が``[A]並びに[[B]及び[C]]''と一意に解釈できるように上位・下位の階層関係が定められており,このようなドメインや文書に固有のルールも文脈自由文法規則として取り入れることが可能である.以上を踏まえて,本手法を日本語に適用できる見込みは高く,本手法の提案規則に基づいていくつかの拡張を伴うことで,英語や日本語に類似した他言語においても本手法が適用可能であると期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} \label{sec:conc}本論文では,並列構造解析のためのシンプルでより正確なフレームワークを提案した.提案手法は並列構造解析のタスクを三つのサブタスクに分解し,それぞれに異なるニューラルネットワークを用いる.並列構造を範囲の競合なく導出できる文脈自由文法規則を定義し,CKYアルゴリズムによる構文解析とニューラルネットワークを組み合わせることで,我々のシステムは入力文に対する並列構造の集合を出力する.英語における評価実験の結果,並列構造の最適な組み合わせの導出のために三つのニューラルネットワークが協調して働いており,既存のシステムやその拡張を上回る解析精度を達成していることが示された.また分析により,提案手法はベースライン手法と比較して複雑な並列構造を文レベルで正確に解析できることが分かった.我々のシステムは並列構造の範囲同定に誤る場合であっても,並列句の境界は句の区切りと一致している傾向にあり,範囲の候補として有力である.今後の課題として,CKYアルゴリズムによる構文解析を拡張し,スコアが高いものから順に複数個の構文木を取り出し,並列構造の前後の文脈を考慮した構文木候補のリランキング手法を開発することによって,解析精度をより向上させることが挙げられる.また日本語を含む他言語に本手法を適用し,評価実験を行うことも課題とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSTCREST(課題番号:JPMJCR1513)の助成を受けて行った.また本研究の一部は,The2019AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologiesで発表したものである\cite{teranishi-EtAl:2019:NAACL}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{01refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{寺西裕紀}{%2014年慶應義塾大学商学部卒.同年,株式会社アイスリーデザイン入社.Web・モバイルアプリケーションの開発・運用に従事.2018年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年,同大学院先端科学技術研究科情報科学領域博士後期課程入学.自然言語処理の研究に従事.}\bioauthor{進藤裕之}{%2009年,早稲田大学先進理工学研究科博士前期課程修了.同年NTTコミュニケーション科学基礎研究所入所.2013年,奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2014年より現在まで,奈良先端科学技術大学院大学情報科学研究科助教.これまで,主に自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{渡辺太郎}{%1994年京都大学工学部情報工学科卒業.1997年京都大学大学院工学研究科情報工学専攻修士課程修了.2000年LanguageandInformationTechnologies,SchoolofComputerScience,CarnegieMellonUniversity,MasterofScience取得.2004年京都大学博士(情報学).ATRおよびNTT,NICTにて研究員,また,グーグルでソフトウェアエンジニアとして勤めた後,2020年より奈良先端科学技術大学院大学教授.自然言語処理や機械学習,機械翻訳の研究に従事.}\bioauthor{松本裕治}{%1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984~85年英国インペリアルカレッジ客員研究員.1985~87年(財)新世代コンピュータ技術開発機構に出向.1988年京都大学助教授,1993年奈良先端科学技術大学院大学教授.2020年理研AIP知識獲得チームリーダ,現在に至る.工学博士.専門は自然言語処理.情報処理学会,人工知能学会,言語処理学会,AAAI,ACL,ACM各会員.情報処理学会フェロー.ACLFellow.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V26N02-05
\section{はじめに} Twitterに代表されるソーシャルメディアにおいては,辞書に掲載されていない意味で使用されている語がしばしば出現する.例として,Twitterから抜粋した以下の文における単語「鯖」の使われ方に着目する.\quad(1)\space今日、久々に{\bf鯖$_1$}の塩焼き食べたよとても美味しかった\quad(2)\spaceなんで、急に{\bf鯖$_2$}落ちしてるのかと思ったらスマップだったのか(^q^)\noindent文(1)と文(2)には,いずれも鯖という単語が出現しているが,その意味は異なり,文(1)における鯖$_1$は,青魚に分類される魚の鯖を示しているのに対し,文(2)における鯖$_2$は,コンピュータサーバのことを意味している.ここで,「鯖」という語がコンピュータサーバの意味で使用されているのは,「鯖」が「サーバ」と関連した意味を持っているからではなく,単に「鯖」と「サーバ」の読み方が似ているためである.このように,ソーシャルメディアにおいては,既存の意味から派生したと考えられる用法ではなく,鯖のような音から連想される用法,チートを意味する升のような既存の単語に対する当て字などの処理を経て使用されるようになった用法,企業名AppleInc.を意味する林檎など本来の単語を直訳することで使用されるようになった用法などが見られ,これらの用法は一般的な辞書に掲載されていないことが多い.文(2)における鯖$_2$のように,文中のある単語が辞書に掲載されていない意味で使用されていた場合,多くの人は文脈から辞書に載っている用法\footnote{本研究では,一般的な辞書に採録されている単語の用法を一般的,そうでないものを一般的ではないとする.}と異なる用法で使用されていることには気付くことができるが,その意味を特定するためには,なんらかの事前情報が必要であることが多い.特に,インターネットの掲示板では,援助交際や危険ドラッグなどの犯罪に関連する情報は隠語や俗語を用いて表現される傾向にある\cite{yamada}.しかし,全体として,どのような単語が一般的ではない意味で使われているかということを把握することは難しい.本研究では,このような性質を持つ単語の解析の手始めとして,ソーシャルメディアにおいて辞書に掲載されていない意味で使用される場合があることが分かっている単語を対象に,ソーシャルメディア中の文に出現する単語の一般的ではない用例の検出に取り組む.ここで,単語の用法が一般的かそうでないかというような情報を多くの語に対し大量にアノテーションするコストは非常に大きいと考えられることから,本研究では教師なし学習の枠組みでこの問題に取り組む.検出の手がかりとして,まず,非一般的用法で使用されている単語は,その単語が一般的用法で使用されている場合と周辺文脈が異なるであろうことに着目する.具体的には,単語の用法を判断する上で基準とするテキスト集合における単語の用法と,着目している文中での用法の差異を計算し,これが大きい場合に非一般的用法と判断する.以下,本稿では単語の用法を判断する上で基準とするテキスト集合のことを学習コーパスと呼ぶ.非一般的用法を適切に検出するためには,学習コーパスとして,一般的用法で使用される場合が多いと考えられるテキスト集合を用いることが重要であると考えられることから,提案手法では,学習コーパスとして,新聞やインターネットを始めとする様々な分野から偏りなくサンプリングされたテキストの集合である均衡コーパスを使用する.また,提案手法における,学習コーパスと評価用データにおける単語の使われ方の差異の計算には,Skip-gramNegativeSampling\cite{Mikolov2013nips}によって学習された単語ベクトルを使用する. \section{評価データの作成} 本研究では,一般的ではない用法が存在する単語を対象として,文中における対象単語が一般的な用法かそうでないかをアノテートしたデータセットを新たに作成した.作成したデータセットは,コンピュータ,企業・サービス名,ネットスラングのドメインに出現した語から,非一般的用法として使用されることのある40語を含んだデータセットである.データのソースとしてTwitterを使用し,2016年1月1日から2016年1月31日に投稿されたツイートを対象としてデータセットを作成した.Twitterをデータのソースとして選択した理由は,Twitterにおいては,ある語が一般的な用法として使われる場合とそうでない場合が混在していると考えたためである.データセットの作成に先立ち,以下の条件を全て満たす語を対象語を選定した.\begin{enumerate}\itemコンピュータ,企業・サービス名,ネットスラングのドメインにおいて一般的ではない用法として使用される場合があることが分かっている語\itemウェブ上に一般的ではない用法の説明が存在している語\item均衡コーパスにおける出現頻度が100以上の語\end{enumerate}本研究では,コンピュータ,企業・サービス名からそれぞれ10語ずつ,ネットスラングから20語,合計40語を対象語として選定した.選定した40語の一覧を表\ref{tb:word_list}に示す.\begin{table}[p]\caption{選定した40語とその一般的ではない用法の説明}\label{tb:word_list}\input{05table01.tex}\end{table}データセットの作成においては,まず,選定した40語が含まれるツイートに対して形態素解析を行い,選定した単語が一般名詞であると解析されたツイートを無作為に100ツイート選択した.形態素解析には,MeCab\footnote{http://taku910.github.io/mecab/}を使用し,IPA辞書\footnote{http://ipadic.osdn.jp/}を用いた.次に,選択したツイートにおいて,選定した単語が一般的な用法として用いられているか,固有表現の一部となっているか,一般的ではない用法として用いられているかという判断を2人のアノテータによって人手で行った.固有表現の一部となっている事例というのは,例えば「井ノ尻」の中の「尻」のような事例を示す.また,いずれかのアノテータが,与えられた情報だけからはツイート中で使用されている対象語の用法を決定できないと判断したツイート(96ツイート)\footnote{「(*´茸`*)」の中の「茸」のような,顔文字の一部となっている事例などが含まれる.}は,データセットから除外した.アノテーションが一致したツイートのうち,2人のアノテータが一般的な用法として用いられていると判断した事例と,一般的ではない用法として用いられている判断した事例の集合を最終的なデータセットとした\footnote{固有表現の一部となっている事例を除いたのは,将来的に固有表現認識を行うことにより機械的に除外できると考えたためである.}.本アノテーションにおけるカッパ係数は0.808であった.表\ref{tb:dataset}に,作成したデータセットの概要を示す.\begin{table}[b]\caption{作成したデータセットの概要}\label{tb:dataset}\input{05table02.tex}\end{table}作成したデータセットでは,単語ごとにラベルの偏りが見られた.アノテーションの結果に基づいて,40語を,一般的な用法の事例が多い単語,非一般的用法として用いられている事例が多い単語,それ以外の単語の3つに分類した.具体的には,7割以上が一般的用法としてアノテーションされた単語を一般的ラベル優勢,7割以上が非一般的用法としてアノテーションされた単語を非一般的ラベル優勢,それ以外をラベル偏りなしとしてクラス分けを行った.表\ref{tb:dataset_annotation}に,アノテーション対象とした語の一覧をクラスごとに示す.また,表\ref{tb:dataset_class}に,各クラスごとにアノテーションされた一般的用法,非一般的用法の内訳を示す.\begin{table}[b]\caption{アノテーション対象とした40語の内訳}\label{tb:dataset_annotation}\input{05table03.tex}\end{table}作成したデータセットは各単語に対する学習データ数が少ないため,教師あり学習のための学習コーパスとして使用するには,データ量の観点から適切ではないと考える.そのため,本研究では,教師なし学習に基づいた単語の一般的ではない用法の検出手法を提案し,本データセットを評価用のデータセットとして用いる.\label{seq:dataset}\begin{table}[t]\caption{クラスごとのデータセット内訳}\label{tb:dataset_class}\input{05table04.tex}\end{table} \section{単語の一般的ではない用法の検出} 提案手法では,もしある単語が一般的ではない用法として使われた場合,その周辺単語は一般的な用法として使われた場合の周辺単語と異なるという考えに基づき,単語の一般的ではない用法の検出を行う.提案手法は単語の分散表現を活用したものであるため,本節では,まず,単語の分散表現を学習する手法として広く使われているSkip-gramの説明を行い,その後に提案手法の具体的なモデルの説明を行う.\subsection{Skip-gramwithNegativeSampling(SGNS)}Skip-gram\cite{Mikolov2013nips}とは,単語の分散表現を学習する手法の一つとして広く使われており,学習コーパスから主に単語の共起情報を学習し,学習コーパス内に出現した単語をベクトルとして表現する手法である.\label{seq:skipgram}Skip-gramでは,訓練データにおける単語列を$w_1$,$w_2$,...,$w_T$,窓幅を$m$とした時,$\frac{1}{T}\sum^T_{t=1}\sum_{-m\leqi\leqm,i\neq0}\logp(w_{t+i}|w_t)$が大きくなるように学習される.{\itW}を訓練データにおける語彙とした時,$p(w_k|w_t)$は次の式によって表される:\[p(w_k|w_t)=\frac{\exp(v_{w_t}^{IN}\cdot{v_{w_k}^{OUT}})}{\sum^{}_{w\inW}\exp(v_{w_t}^{IN}\cdot{v_{w}^{OUT}})}.\]Skip-gramは,着目単語の周辺単語を予測するモデルである.各単語は入力側の単語ベクトル$v^{IN}$と出力側の単語ベクトル$v^{OUT}$で表現され,確率値の計算には,これらが使用される.\citeA{Mikolov2013nips}は,Skip-gramの学習時における計算コストを削減するためにSkip-gramwithNegativeSampling(SGNS)を提案した.SGNSでは,学習コーパス内で単語$w_t$が$w_k$の近くに出現していた場合,$\log{\sigma({v_{w_t}^{IN}}\cdot{v_{w_k}^{OUT}})}+\sum^{N}_{n=1}\mathbb{E}_{w_n\simZ(w)}\log{\sigma({v_{w_t}^{IN}}\cdot{-v_{w_n}^{OUT}}})$が大きくなるようにそれぞれの単語に対応するベクトルが学習される.ただし,$\sigma$はシグモイド関数を表す.SGNSでは,$N$個の単語を確率分布$Z$から抽出し,これらを学習における負例単語として扱う.その結果,単語$w_t$と単語$w_t$の近くに出現した単語$w_k$については,$\log{\sigma(v_{w_t}^{IN}\cdot{v_{w_k}^{OUT}})}$の値が大きくなるようにそれぞれのベクトルが学習され,単語$w_t$と負例単語$w_n$については,$\log{\sigma({v_{w_t}^{IN}}\cdot{v_{w_n}^{OUT}}})$が小さくなるように学習される.単語間の類似度を測定するのにあたっては,入力側の単語ベクトル$v^{IN}$間における類似度を測る手法が広く用いられている.入力側の単語ベクトル$v^{IN}$は多くの研究で広く活用されているのに対して,\citeA{DBLP:journals/corr/MitraNCC16}や\citeA{eacl17oflr}などのように,出力側の単語ベクトル$v^{OUT}$を効果的に活用している研究は少ない.一方で,Levyら\cite{NIPS2014_5477}は,ShiftedPositivePointwiseMutualInformation(SPPMI)とSGNSの等価性を示しており,これによると,SGNSにおいて$v^{IN}$と$v^{OUT}$を使用することは,SPPMIを学習した際の単語の共起情報を参照することに関連し,これはある着目単語とその周辺単語のつながりの強さを計算することを意味する.以上より,これまで述べたような入出力単語ベクトルの学習過程およびSPPMIとSGNSの等価性を考慮すると,ある単語$w_t$が訓練データ内で単語$w_k$が共起されやすいかどうかを測るためには,従来の研究で多く見られるような$v_{w_t}^{IN}$と${v_{w_k}^{IN}}$を用いた余弦類似度を用いる手法だけではなく,入力側と出力側の単語ベクトルを用いた${\sigma(v_{w_t}^{IN}\cdotv_{w_k}^{OUT})}$を活用する手法も,単語間の類似度を計算する上では考慮するべきであると考えられる.\subsection{提案手法}本研究では,SGNSの学習メカニズムを考慮して,非一般的用法の検出を試みる.具体的には,まずSGNSを用いて均衡コーパスから単語の分散表現を学習し,続いて学習したベクトルを用いて着目単語とその周辺単語のベクトル間の内積値を算出し,その値が小さい場合,その着目単語の用法は一般的ではないと判断する.均衡コーパスは,言語全体を把握するために偏りなくサンプリングされたテキストの集合であることから,均衡コーパスを用いることで,単語の用法の一般性がより反映された単語ベクトルの学習が行われると考えられ,上述の内積値が高い事例は一般的,低い事例は一般的ではない用法と判断することができると考えられる.図~\ref{fig:method}に提案手法の概要を示す.\begin{figure}[t]\begin{center}\includegraphics{26-2ia5f1.eps}\end{center}\caption{提案手法の概要}\label{fig:method}\end{figure}提案手法では,SGNSによって単語ベクトルを学習し,学習された着目単語の入力側の単語ベクトル$v^{IN}$と,周辺単語の出力側の単語ベクトル$v^{OUT}$の類似度の加重平均に基づいて,単語の非一般的な用法を検出する.この過程で計算される類似度の加重平均を,単語の使われ方に対する一般性スコアと定義する.一般性スコアとして,着目単語とその周辺単語との類似度の加重平均を採用している理由は,本研究で使用したSGNSの学習過程では,着目している単語と距離の近い単語に重みを付けた学習が行われているためである\cite{levy2015}.窓幅を$m$,着目単語との距離を$d$と定義すると,加重平均の重み$\alpha$は,$\alpha=m+1-d$によって計算される整数値とする.ただし,$d$は,着目単語を基準として,何単語離れているかを表す整数値である.文中の着目単語を${w_t}$とし,着目単語の入力側の単語ベクトルを${v_{w_t}^{IN}}$,$w_t$を基準として前後$m$単語の単語集合を${\bfw_c}$,各周辺単語${w_j\in{\bfw_c}}$の出力側の単語ベクトルを$v_{w_j}^{OUT}$,その重みを$\alpha_{w_j}$と表すと,提案手法では,次の式(1)で計算されるスコアによって,着目単語$w_t$が一般的な使われ方かどうかを判断する:\begin{equation}\frac{\sum_{w_j\in{\bfw}_c}\sigma({v_{w_t}^{IN}}\cdotv_{w_j}^{OUT})\times\alpha_{w_j}}{\sum_{w_j\in{\bfw}_c}\alpha_{w_j}},\end{equation}ただし,式(1)における$\sigma$はシグモイド関数を表す.窓幅内に出現した未知語に対しては,未知語のトークンに対応する単語ベクトル$v_{unk}^{OUT}$を用いる.なお,この$v_{unk}$は,単語ベクトルの学習に使用したコーパス内における低頻度語に対応する単語ベクトルである.式(1)において,シグモイド関数を使用している理由は,SGNSの学習過程における非線形関数としてシグモイド関数が使用されていたためである\footnote{https://code.google.com/archive/p/word2vec/}.算出された一般性スコアが小さい場合,着目単語の使われ方は非一般的であり,また反対に大きい時には,その使われ方は一般的であるとみなす.\label{seq:method}\subsection{比較手法}本研究における提案手法には,3つの特徴がある.一つ目は単語ベクトルを学習する際に均衡コーパスを使用する点,二つ目は一般性スコアを計算する際に使用する単語ベクトルとして$v^{IN}$だけではなく$v^{OUT}$も使用する点,三つ目は一般性スコアの計算に加重平均を採用している点である.これらの特徴が非一般的な用法を検出するにあたり有用であるかを,比較実験を通して検証する.提案手法では,学習コーパスの用法と評価用データセットにおける用法との差異を一般性スコアとして計算している.この学習コーパスに含まれる単語の用法が非一般的用法検出を行う際の基準となるため,検出精度に大きく影響すると考えられる.そこで,本研究では,4種類の異なる性質のコーパスを用意し,どのコーパスで単語ベクトルを学習するのが本タスクにより適しているかを調査する.表\ref{tb:corpus}に,各コーパスの内容を示す\footnote{Webコーパスの収集には,\citeA{WEBcrawl}の手法を用いた.Wikipediaは,2016年7月時点でのWikipediaの記事を{https://dumps.wikimedia.org/jawiki/}からダウンロードしたものである.新聞については,毎日新聞,日経新聞,読売新聞を対象とした.}.\begin{table}[b]\caption{学習に使用したコーパスの内容}\label{tb:corpus}\input{05table05.tex}\end{table}提案手法は,一般的に使用される$v^{IN}$だけではなく,$v^{OUT}$も使用している.$v^{OUT}$の有用性を検証するため,従来研究\cite{neelakantan-EtAl:2014:EMNLP2014,MWEemb}で用いられている手法と同様に,$v^{IN}$のみを用いた手法との比較を行った.この比較手法では,式(1)における$\sigma(v_{w_t}^{IN}\cdotv_{w_j}^{OUT})$を,余弦類似度$\frac{{v_{w_t}^{IN}}^\topv_{w_j}^{IN}}{||{v_{w_t}^{IN}}||\times||v_{w_j}^{IN}||}$として一般性スコアを計算した.さらに,SGNS以外の手法で学習した単語ベクトルでの実験結果を比較するために,相互情報量を用いて学習した単語ベクトルに対して,特異値分解(SVD)によって次元削減を行った単語ベクトルを使用した手法\cite{levy2015,hamilton-EtAl:2016:EMNLP2016}による実験も行った.この時,式(1)における$v_{w_t}^{IN}$,$v_{w_j}^{OUT}$は,それぞれ,SVDによって特異値分解されたあとの$t$成分,$j$成分の値とする.相互情報量には,PositivePointwiseMutualInformation(PPMI)を使用した.また,SVDを用いた手法においても,一般性スコアの計算には余弦類似度を用いた\footnote{$v^{IN}$のみを用いた手法およびSVDを用いた手法において,類似度関数として余弦類似度の代わりにシグモイド関数を使用した場合においても実験を行ったが,この時の評価値は余弦類似度を用いた場合よりも低い値となった.}.\ref{seq:method}節で述べたように,式(1)の$\alpha$は,着目単語を基準とした時の,周辺単語との距離に対する重みである.この重み付けの有効性を調査するため,重み付けを行わず,式(1)において$\alpha=1$とした場合との比較実験を行った.これらに加えて,式(1)における周辺単語$\bfw_c$から,機能語である助詞,助動詞,接続詞として使われている単語を除いた条件での実験も行った.図\ref{fig:method}にも示した通り,実際のテキストにおける周辺単語$w_j$は,助詞をはじめとする機能語にもなり得る.しかし,機能語の単語ベクトルと着目単語の単語ベクトルとの類似度は,着目単語の用法の判断において効果的な要素ではない可能性が考えられる.そこで,周辺単語${w_j\in{\bfw_c}}$から機能語を排除した時の部分集合${{\bfw_{c^{'}}}\subseteq{\bfw_c}}$を用いて式(1)を計算するモデルにおいても実験を行った.\cite{Mikolov2013nips}は,高頻度語のもつ情報量は低頻度語のもつ情報量よりも少ないという仮定に基づき,Skip-gramの学習時にサブサンプリングによって学習コーパス中に出現する単語の出現頻度に応じて文中からコーパス内の単語それぞれを確率的に除外した上で学習を行っているが\footnote{\citeA{Mikolov2013nips}における2.3節に詳細が記述されている.},多くの機能語は高頻度語に該当することから類似した処理であると言える.さらに,ニューラルネットの層の深さが検出精度に関係するか調査するため,文脈をベクトル化する手法として提案されているcontext2vec\cite{context2vec}との比較も行う.提案モデルが1層の浅いニューラルネットモデルであるのに対して,context2vecはBi-directionalLSTM(Bi-LSTM)を活用した多層のモデルである.また,Skip-gramが,着目単語の前後窓幅分の周辺単語を用いて着目単語を予測するのに対して,context2vecでは,入力文の左から着目単語まで,および右から着目単語までを使用して予測を行うという違いがある.context2vecでは,文全体の単語埋め込みをBi-LSTMに入力し,着目単語の左側,および右側のBi-LSTMの出力層を結合し,2層の多層パーセプトロンに入力し,その出力層(文脈ベクトル)を用いて,着目単語を予測するモデルである.本タスクにおいては,文脈ベクトルと着目単語の単語ベクトルの内積に対してシグモイド関数を適用した値を一般性スコアとして扱う. \section{実験} \subsection{実験設定}単語ベクトルの学習にあたっては,次元を300とした.また,各コーパスにおいて,出現頻度が5回未満の単語は,$<$unk$>$に置き換えて学習を行った.SGNSによる単語ベクトルの学習には,Pythonライブラリの一つである{\small\verb|gensim|}\cite{rehurek_lrec}による実装を使用し,ネガティブサンプリングの数を10とした.SVDによる単語ベクトルの学習には,\citeA{levy2015}の実装\footnote{https://bitbucket.org/omerlevy/hyperwords}を使用した.学習epoch数は5とした.また,単語ベクトルを学習する際の窓幅は2,5,10としてそれぞれ実験を行った.context2vecの学習にあたっては,ネガティブサンプリング数を10,最適化手法にはAdam\cite{adam}を使用した.学習率は$10^{-3}$として学習を行った.その他の隠れ層や単語ベクトルの次元などの詳細なパラメータを表\ref{tb:c2v_param}に示す.また,学習の効率化のため,実験に使用するコーパスのうち,BCCWJとWebは中規模,WikipediaとNewspaperは大規模なコーパスであるとみなし,中規模コーパスで学習する際には,ミニバッチ数100,学習epoch数10,5回未満の出現頻度の単語を$<$unk$>$と置き換えて学習を行い,大規模コーパスで学習する際には,ミニバッチ数500,学習epoch数5,10回未満の出現頻度の単語を$<$unk$>$と置き換えて学習を行った.\begin{table}[t]\caption{context2vecのパラメータ}\label{tb:c2v_param}\input{05table06.tex}\end{table}評価には,テストセットの各事例で計算された一般性スコアを昇順にソートし,一般性スコアが低い順に非一般的用法として分類した時の平均適合率を使用する.さらに,これらの実験に加えて,3.3節に示した機能語を使用しない場合における実験も行う.また,誤り分析を行うため,任意の値を閾値として設定し,計算された一般性スコアが閾値を下回った場合には非一般的用法,それ以外は一般的用法と分類する実験を行った.閾値には,分類時に非一般的用法を正例とした時に計算されるF値が最も大きくとなるような閾値を使用した.\subsection{結果}表\ref{tb:res}に実験結果を示す.表\ref{tb:res}におけるweightedおよびuniformは,それぞれ,着目単語の周辺単語に対する重み付けを行った場合,行わない場合に対応する.また,ダガー($\dagger$)は,提案手法であるBCCWJを用いた時のSGNSIN-OUTweightedモデルによる実験結果と,有意水準5$\%$で並べ替え検定を行った際に,統計的有意差が確認できたことを示している.太字は,SGNSIN-OUT,SGNSIN-IN,SVDモデルによって得られた平均適合率のうち,設定された各窓幅2,5,10ごとでの実験結果を比較した際に最も平均適合率が高いことを示す.\begin{table}[t]\caption{各モデルによる平均適合率}\label{tb:res}\input{05table07.tex}\end{table}\subsubsection{各モデルごとの実験結果の比較}表\ref{tb:res}より,最も高い平均適合率を達成したモデルは,学習コーパスとしてWikipediaを使用した時のcontext2vecであり,その値は0.845であった.提案手法であるSGNSIN-OUTweightedモデルは,学習コーパスとしてBCCWJを使用し,窓幅を5と設定した時に最も高い平均適合率を達成し,その値は0.839であった.context2vecを用いた場合の平均適合率は0.803から0.845と高い値で安定していることがわかるため,ニューラルネットの層の深さは検出精度に貢献すると考えられる.実験結果から,提案手法であるSGNSIN-OUTのような層が浅いモデルでも,単語ベクトルの学習手法,学習された単語ベクトルの扱い方,学習コーパスを適切に選択することで,層が深いモデルと同等の性能を達成できることがわかった.次に,設定された各窓幅ごとでの性能を比較する.表\ref{tb:res}において,各モデルによって得られた平均適合率のうち,窓幅2,5,10ごとでの実験結果を比較すると,それぞれで最も平均適合率が高かったモデルは,全てBCCWJを学習コーパスとして使用した際のSGNSIN-OUTモデルであった.これより,BCCWJとSGNSIN-OUTを用いることによって,単語ベクトルの学習に使用する窓幅に関わらず高い平均適合率を達成する傾向があるといえる.また,窓幅を2と設定した場合の実験結果では,全12モデル中11モデルにおいて,重み付けによる平均適合率の減少が見られた.モデルが参照できる周辺単語が少ない場合では,重み付けによって着目単語周辺の機能語が強調されてしまい,これが悪影響となって平均適合率が減少した可能性が高い.この点は,後述の機能語を使用しないモデルにおける実験結果との関連があると考えられる.\label{seq:main_res}\subsubsection{機能語を使用しないモデルにおける実験結果}表\ref{tb:res_filter}に,一般性スコアの計算時に機能語を使用しないモデルにおける平均適合率を示す.ダガー($\dagger$)は,提案手法であるBCCWJを用いた時のSGNSIN-OUTweightedモデルによる実験結果と,有意水準5$\%$で並べ替え検定を行った際に,統計的有意差が確認できたことを示している.表\ref{tb:res_filter}より,機能語を使用しない場合においては,提案手法であるSGNSIN-OUTweightedモデルが最も高い平均適合率を達成した.これは,窓幅を5と設定し,学習コーパスとしてBCCWJ使用したモデルであり,平均適合率は0.857であった.\begin{table}[b]\caption{機能語を使用しないモデルにおける平均適合率}\label{tb:res_filter}\input{05table08.tex}\end{table}\begin{table}[b]\caption{機能語を使用するモデルと使用しないモデルでの平均適合率に統計的有意差が見られたモデル}\label{tb:filter_test}\input{05table09.tex}\end{table}表\ref{tb:res},表\ref{tb:res_filter}より,一般性スコアの計算時に機能語を使用しないことで,全76モデル中48モデルにおいて,平均適合率の向上が確認された.このうち,12モデルにおいて,機能語を使用しない場合の平均適合率と,機能語を使用した場合の平均適合率との間に統計的有意差が確認された.この有意差が確認されたモデルを表\ref{tb:filter_test}に示す.なお,26モデルでは,機能語を使用しないことで平均適合率の値が減少し,2つのモデルでは,平均適合率に変化がなかった.特に,context2vecを用いた4モデルでは機能語を使用しないことで平均適合率が減少する傾向にある.context2vecは,単語埋め込みを行った後,その情報をBi-LSTM,多層パーセプトロンに入力し着目単語の予測を行うモデルである.この時に,機能語を使用しないことによって,Bi-LSTMの言語モデルとしての働きを弱め,結果として予測がうまくいかなかったと考えられる.最もスコアが向上したモデルは,窓幅を10と設定し,学習コーパスとしてWebを用いた時のSVDweightedモデルであり,0.144ポイントの向上が見られた.また,最もスコアが減少したモデルは,学習コーパスとしてWebを用いた時のcontext2vecで,0.414ポイントの減少が見られた.以上の実験結果より,機能語の扱い方を考慮することが平均適合率の向上に貢献する可能性が高いと考えられる.次に,設定された各窓幅ごとでの性能を比較する.表\ref{tb:res_filter}において,各モデルで得られた平均適合率のうち,窓幅2,5,10ごとでの実験結果を比較した際に,最も平均適合率が高かったモデルは,それぞれBCCWJを学習コーパスとして使用した際のSGNSIN-OUTモデルであり,実験結果の大まかな傾向は\ref{seq:main_res}項にあるものと同様であることがわかる.また,窓幅を2と設定した場合の実験結果に着目すると,重み付けによる平均適合率の減少が見られたモデルは,全12モデル中3モデルであり,\ref{seq:main_res}項で見られた重み付けによる悪影響が軽減していることがわかる.これは,窓幅が小さい設定においては,機能語による悪影響があったことを示唆している.\subsubsection{重み付けの有無に関する実験結果の比較}表\ref{tb:res}より,重み付けを行うモデル(weighted)と行わないモデル(uniform)間における平均適合率の変化を調査すると,36モデル中22モデルが重み付けを行うことによって平均適合率が向上している.また,13モデルでは平均適合率が減少し,1つのモデルでは平均適合率の変化が見られなかった.表\ref{tb:res_filter}に示した機能語を使用しない条件での実験結果では,重み付けを行うことによって36モデル中30モデルにおいて平均適合率が向上した.4モデルにおいては平均適合率が減少し,2つのモデルでは平均適合率の変化が見られなかった.重み付けの有意性を調査するため,これらの実験結果に対して検定を行ったところ,重み付けを行うモデルによって得られた平均適合率と,行わないモデルによって得られた平均適合率との間に統計的有意差が確認されたのは,72ペアのうち36ペアだった.検定結果を表\ref{tb:weight}に示す\footnote{表\ref{tb:weight}における「w/機能語」は機能語を使用するモデル,「w/o機能語」は機能語を使用しないモデルに該当する.チェックマーク(\checkmark)は,重み付けを行うモデルによって得られた平均適合率が,行わないモデルによって得られた平均適合率よりも統計的に有意であることを表す.ただし,ダブルダガー($\ddagger$)は,重み付けを行わないモデルによって得られた平均適合率が,重み付けを行うモデルによって得られた平均適合率よりも統計的に有意であることを示す.}.全てのパターンで統計的な有意差は見られなかったものの,提案手法を使用するにあたっては,着目単語からより近い周辺単語が本タスクを解く上での手がかりとなっていることがわかった.\begin{table}[b]\caption{重み付けによる統計的有意性の調査}\label{tb:weight}\input{05table10.tex}\end{table}\subsubsection{各モデルにおける平均適合率の最高値の比較}表\ref{tb:best_results}に,これまでの実験において各モデルで達成した平均適合率の最高値と実験設定をまとめる.ダガー($\dagger$)は,提案手法であるSGNSIN-OUTによって得られた実験結果と,有意水準5$\%$で並べ替え検定を行った際に,統計的有意差が確認できたことを示している.提案手法であるSGNSIN-OUTモデルで得られた平均適合率と比較手法で得られた平均適合率との間に,統計的有意差が確認されたのはSVDモデルとSGNSIN-INモデルであった.これらの結果から,本タスクにおいては,$v^{IN}$だけではなく$v^{OUT}$も使用することが平均適合率の向上に寄与していることがわかる.また,SGNSIN-INモデルとSVDモデルにおける平均適合率の間で検定を行ったところp値は0.089であった.実験結果では,SGNSを用いた手法の方がより高い平均適合率を達成する傾向にあるが,その差は有意なものではなかった.\begin{table}[b]\caption{各モデルにおいて平均適合率が最も高かった時の実験設定}\label{tb:best_results}\input{05table11.tex}\end{table}続いて,各手法ごとでの実験設定に着目する.SGNSを用いる手法では,学習コーパスとしてBCCWJを使用,重み付けを適用し,機能語を使用しないことで,高い平均適合率を達成する傾向にある.また,SVDおよびcontext2vecを用いる手法ではWikipediaを学習コーパスとして使用し,機能語を使用することで最も高い平均適合率を達成している.より高い平均適合率が達成することができる学習コーパスは,単語ベクトルの学習手法ごとに異なることから,各手法に適した学習コーパスを選択することが必要であると考えられる.\subsection{誤り傾向と正解例・誤り例の分析}これまでの実験では,評価データ中の文書に対して,各手法によって計算された一般性スコアを用いてソートした時のランキングに対する評価を行った.本節では,誤り分析のため,ある閾値を設定し,計算された一般性スコアが閾値を下回った場合には非一般的用法,それ以外は一般的用法と分類する実験を行った.本実験では,閾値を0.001から1.000の範囲で0.001刻みで設定し,それぞれの値をもって分類を行った時,分類時に計算されるF値が最も大きくとなるような閾値を使用した.表\ref{tb:classification}に,各モデルごとで上述の閾値を用いた場合に計算される適合率,再現率,F値を示す.太字は,各評価指標において最も性能が高いことを示し,ダガー($\dagger$)は,提案手法であるSGNSIN-OUTモデルによる実験結果と,有意水準5$\%$で並べ替え検定を行った際に,統計的有意差が確認できたことを示している.なお,実験には表\ref{tb:best_results}に示したモデルを使用した.実験結果から,提案手法によって得られたF値が,各モデルによって得られたF値の中で最も高く,その値は0.796であった.また,適合率が最高値となったモデルは,提案手法であるSGNSIN-OUTであり,再現率が最高値となったモデルはcontext2vecを用いた手法であった.\begin{table}[b]\caption{各モデルによって計算された非一般的ラベルに対する適合率・再現率・F値}\label{tb:classification}\input{05table12.tex}\end{table}次に,表\ref{tb:dataset_annotation}に示したそれぞれのクラスごとに対する評価値を調査する.作成したデータセットでは,単語ごとにラベルの偏りが見られ,表\ref{tb:dataset_annotation}では,アノテーション対象とした40語がどちらのラベルに偏りがあったか,もしくは偏りがなかったかの3クラスを示した.クラスごとでの各評価値の変化を調査するため,各クラスごとでの適合率,再現率,F値を計算した.なお,実験に使用した閾値は上述の実験と同値である.これらの結果を表\ref{tb:results_for_each_label}に示す.ダガー($\dagger$)は,提案手法であるSGNSIN-OUTモデルによる実験結果と,有意水準5$\%$で並べ替え検定を行った際に,統計的有意差が確認できたことを示している.非一般的ラベル優勢クラスにおける適合率はそれぞれのモデルにおいて高い傾向にある一方で,一般的ラベル優勢クラスにおける適合率は低い傾向にあり,評価値の偏りが見られた.これらの結果より,全体のF値が大きくなるような閾値を設定すると,多くの人が一般的ではない用法として扱うような単語に対する検出はうまくいくものの,少数の人のみが使用しているような用法を持つ単語については,誤検出が多いということがわかった.\begin{table}[t]\caption{各クラスごとの適合率・再現率・F値}\label{tb:results_for_each_label}\input{05table13.tex}\end{table}続いて,提案手法による実験結果に対する定性的評価を行う.提案手法によって検出できた一般的ではない用法の例を次に示す.\quad(i)\spaceうちの場合\textbf{\underline{林檎}}は父が触ったことないし、Android端末いっぱい買って...\quad(ii)\space...国立\textbf{\underline{駅弁}}よりすこし高いくらいかなでもそこにいったって好きな研究室いけるとも...\quad(iii)\space光村雨チケ今回何枚取れるかなー久しぶりだから\textbf{\underline{泥}}率上げてくれるよね…?\quad(iv)...やっぱりLTで他全員でガン\textbf{\underline{芋}}してるのが一番強いんじゃないかな\quad(v)\space\textbf{\underline{鯖}}落ちだあああああああああああああああガチマに潜るなああああああああああ\\(i),(ii)の中の「林檎」や「駅弁」は,一般的ラベル優勢の単語に対しても一般的ではない用法を検出することができた例である.また,(iii),(iv)中の「泥」や「芋」のように,表\ref{tb:dataset}に示したような用法とは異なる一般的ではない用法に対しても,これを正しく検出することができた\footnote{この時の「泥」は,主にソーシャルゲームにおける「ドロップ」,「芋」は主にオンラインゲームにおける「スナイパー」を意味する.}.(v)の例は,context2vecを用いた手法で検出できなかったが,提案手法において検出が成功した事例である.context2vecは入力文全体を考慮する手法であるが,この事例は,全体を考慮することによって誤りとなった事例だと考えられる.一方で,提案手法は,着目単語の前後窓幅分の周辺単語に着目するため,周辺単語以外の情報に影響されずに,正しく検出することができたと考えられる.次に,提案手法によって検出できなかった一般的ではない用法を示す.\quad(vi)\spaceニコ動で実況者がワードバスケットやってて\textbf{\underline{草}}\quad(vii)\space55連でテレーゼ、エクセ、ユイ、\textbf{\underline{虹}}星1。引きは微妙だけど一番欲しかった...\quad(viii)\spaceあ〜、なんだこの気持ち。変なの\textbf{\underline{藁}}藁。醜い感情は押し殺せばいいか\quad(ix)\space零十サンの規制してしまった時用\textbf{\underline{垢}}。本垢フォローもよろしくでっす!!\quad(x)\space\textbf{\underline{養分}}辞めたい吸収される側から…する側になるためには…カネが…カネが必要…!\\(vi)の例のように,着目単語の周辺単語が少ない場合において,検出できなかった事例を確認した.しかし,(v)の例のように,周辺単語が少ないにも関わらず検出できた例も確認されているため,周辺単語の情報が少ない場合には,モデルの出力が不安定となると考えられる.次に,(vii)中の,「ユイ」,「エクセ」などのように,着目単語の近くの周辺単語が低頻度語・未知語に該当する場合において,検出できない事例を確認した.提案手法では,未知語が出現した場合には,予め学習された未知語に該当する単語ベクトルを使用しているが,このような事例に対応するためには,未知語の性質を考慮した個別な処理等が必要とされる.続いて,(viii),(ix)の例のように,着目単語の周辺単語として着目単語そのものが出現していた場合に,検出に失敗する傾向が見られた.これは,SGNSの学習過程より,着目単語自身の$v^{IN}$と$v^{OUT}$の内積値が高く計算される傾向にあることから\footnote{ランダムにサンプリングした10,000語を対象として,学習した単語ベクトルを用いて$v^{IN}$と$v^{OUT}$の内積値を計算したところ,ある着目単語自身の$v^{IN}$と$v^{OUT}$の内積値は,着目単語の$v^{IN}$とそれ以外の単語の$v^{OUT}$の内積値の平均値よりも高い傾向にあった.該当した事例は,10,000件中9,997件であった.なお,任意の単語自身の$v^{IN}$と$v^{IN}$の余弦類似度は常に1であるため,SGNSIN-INモデルにおいても本文中と同様の問題がある.},全体的な一般性スコアが高く計算され,これが要因となって検出に失敗したと考えられる.また,(x)の例は,提案手法で検出できなかったが,context2vecを用いた手法において検出が成功した事例である.提案手法は着目単語から固定窓幅分の周辺単語しか考慮しない手法である.そのため,(x)の例のように,着目単語と離れた位置にある「カネ」のような,単語の用法を判断する上で手がかりとなる要素を考慮することができず,検出に失敗したと考えられる.一方で,context2vecは,文脈全体を考慮するモデルであるため,検出に成功したと考えられる.\begin{table}[b]\begin{minipage}[t]{.45\textwidth}\caption{提案手法における混同行列}\label{tb:confusion_proposed}\input{05table14.tex}\end{minipage}\hfill\begin{minipage}[t]{.45\textwidth}\caption{context2vecにおける混同行列}\label{tb:confusion_context2vec}\input{05table15.tex}\end{minipage}\end{table}\subsection{混同行列による誤りの傾向分析}本節では,表\ref{tb:classification}に示した実験結果に対して,混同行列を用いた誤りの傾向分析を行う.ここでは,提案手法に加えて,表\ref{tb:best_results},\ref{tb:classification}より,これまでの実験で性能が高かったcontext2vecにおける分析も行う.表\ref{tb:confusion_proposed},\ref{tb:confusion_context2vec}に,それぞれの実験結果に対する混同行列を示す.本タスクにおける誤りとしては,表中の右上に該当する非一般的用法であるにも関わらずこれを検出できないような「見逃し」と,表中の左下に該当する一般的用法であるにも関わらず非一般的用法として判断してしまう「誤検出」の2パターンが存在する.表\ref{tb:confusion_proposed}より,提案手法では,見逃しが220件,誤検出が332件であった.また,表\ref{tb:confusion_context2vec}より,比較手法であるcontext2vecを用いた手法では,見逃しが192件,誤検出が384件であった.これらを比較すると,提案手法は,見逃しが多く誤検出が少ない手法,context2vecを用いた手法は,反対に,誤検出が多く見逃しが少ない手法であると言える.本タスクにおける誤りパターンである「見逃し」と「誤検出」のどちらがリスクとみなすかは,本研究を適用するアプリケーションに依存する.例として,本研究を一般的ではない用法の辞書の作成に応用した場合を考える.このような辞書の作成においては,見逃された用法をコーパスから探すことは難しい一方で,誤って一般的ではないと判断された語を人手で確認することは容易である.したがって,本研究を一般的ではない用法の辞書作成に応用した場合には,相対的に「見逃し」が少ない手法が望ましいと考えられる.次に,本研究を一般的ではない用法も解釈するような対話システムの作成に応用した場合を考える.このような対話システムでは,一般的ではない用法を検出できなかった場合と比べ,一般的な用法を誤って解釈した場合の方が,システムへの信頼性が低下しやすいと考えられる.したがって,対話システムに応用した場合には「誤検出」の少ない手法の方が望ましいと考えられる.\subsection{提案手法・context2vecにおいてともに誤りを出力した事例}本節では,4.3節で行った実験結果のうち,提案手法およびcontext2vecを用いた手法において,両方のモデルで共通した誤り事例に対する分析を行う.両モデルにおける共通の誤り事例は235件あり,そのうち,「見逃し」に該当するものが84件,「誤検出」に該当するものが151件であった.例として,表\ref{tb:false_all}に,誤りを出力した20件を示す.\begin{table}[t]\caption{提案手法およびcontext2vecを用いた手法において誤りを出力した事例}\label{tb:false_all}\input{05table16.tex}\end{table}まず,表中において「見逃し」に該当する(1)〜(10)に着目する.(1)〜(3)は,着目単語が文の後半に位置していた事例である.このような事例に対して,提案手法においては,扱える周辺単語の情報が少ないため,モデルの出力が不安定となることが検出失敗の要因であると推測される.context2vecを用いた手法では,入力ツイート中の文脈を考慮することができると考えられるが,周辺単語の情報量の不足による影響が少なからずあったと推測される.また,(4)〜(6)中の「シャロン」,「ノンノ」,「グラブル」など,着目単語の周辺単語として,学習コーパス中における未知語または低頻度語に該当する単語が出現した場合に,モデルが正しく検出できない傾向が見られた.これは,提案手法およびcontext2vecに限らず,機械学習を用いた手法における未知語の扱い方に関連する問題だと考えられる.この点については,例えば固有表現解析,係り受け解析,形態素解析などによって得られた結果を追加情報を活用することで,未知語による悪影響を軽減できる可能性がある.さらに,(7)〜(8)のように,着目単語の周辺単語として,着目単語自身が出現している場合にも検出に失敗しやすいことがわかった.このような場合において,4.3節の実験結果では,提案手法による一般性スコアが高く計算される傾向にあることを示したが,context2vecを用いた手法においても同様の問題があった.また,評価データ中のアノテーションにはミスが見られ,これによって誤りと判定される事例が確認された.(9)中の「尼」は固有表現の一部であり,(10)中の「安価」は一般的用法として扱われていると考えられる.次に,「誤検出」に該当する(11)〜(20)に着目する.(11)〜(13)は,「見逃し」のパターンと同様に,着目単語の周辺単語の情報が少ない場合において誤りとなった事例であり,このような場合には,モデルの出力が不安定となることがわかった.(14)〜(18)のように,着目単語の周辺単語として,人名や地名などの固有表現が出現した際に,モデルが誤りを出力する事例を確認した.これは,学習モデルにおける未知語や低頻度語の扱い方に関連する問題であると考えられる.この点については,文脈中に出現する固有表現に関する知識など,何らかの追加情報を活用することで,このような事例を正しく判断することができると考えられる.また,(9),(10)の事例と同様に,アノテーションのミスによって誤りと判定されている事例が確認された.(19)中の「蔵」は固有表現の一部であり,(20)中の「草」は非一般的用法として扱われていると考えられる. \section{関連研究} 本研究と関連している自然言語処理の研究分野として,新語義検出\cite{sinnou:2012}や新語義の用例のクラスタリング\cite{lau-EtAl:2012:EACL2012}が挙げられる.しかし,本研究で扱う表現は,特定のドメインにおいて語義が変化するという性質を持つため,これらの一般的な語義に着目した研究とは枠組みが異なる.また,\citeA{bamman-dyer-smith:2014:P14-2}は,話者の地域によって,語の持つ意味が異なるという点に着目し,状況に応じた語の意味表現ベクトルを獲得する手法を提案している.本研究も同様に,同一語の用法の違いに着目しているが,Bammanらが地域ごとの語の使われ方の違いに着目しているのに対し,本研究では語の使われ方が一般的であるかそうでないかに着目する.また,Multi-WordExpressionやイディオムのような形で表される単語の用法分類も行われてきた\cite{kiela-clark:2013:EMNLP,salehi-cook-baldwin:2015:NAACL-HLT,li2010}.本研究では,単語の用法の一般性という点に着目しているため,対象としている現象の性質という点で,これらは本研究とは異なる.Web上で使用される単語の一般的ではない用法に関する研究もいくつか存在する.\citeA{cook-EtAl:2014:Coling}は,辞書に採録されていないような単語の用法の検出を行っている.CookらがWeb上のテキストを対象としているのに対して,本研究では,ソーシャルメディアにおける単語の非一般的用法に着目している.\citeA{sboev:2016}は,インターネットにおいてのみ使われる中国語の俗語表現の分析を行った.\citeA{yamada}は,有害情報を表す隠語に焦点を当てて,隠語を概念化するフレームワークを提案し,隠語表現の分類を行った.山田らは,隠語の知識を含んだ辞書を作成し,分類タスクを解いたが,作成した辞書のみでは隠語表現の多様性の対応に不十分であったと報告している.本研究は,単語の一般的ではない用法の検出を行うことに主眼をおいているため,表現の分析に重きをおいているSboevの研究とは目的が異なる.また,山田らが有害情報を表す隠語に着目しているのに対して,本研究では,隠語のみならず,俗語や若者言葉のような,本来の単語の意味が変化して使われるようになった表現に着目している.加えて,山田らがドメインに特化した知識を用いているのに対し,本研究で提案する手法ではそのような知識を必要としないという違いがある.\citeA{matsumoto2017WII-A}は,若者言葉を代表とする俗語を対象として,それを感性評価軸とその俗語が持っている意味ベクトルを用いることによって,俗語を標準語へ変換する手法を提案した.松本らが着目している単語は,臆病の意味で使用される「チキン」というように,その表現の意味する概念に対して感性的要素が含まれるような単語であった.しかし,本研究で着目している単語については,「サーバ」の意味で使用される場合の「鯖」など,必ずしも感性的な印象が付与されるとは限らないため,この点で松本らの研究と着目対象とする単語の性質が異なる.また,近年,単語の分散表現を活用した研究は多肢に渡っており,時間変化による意味変化や地域による単語の使われ方の変化,単語の持つ感情極性の変化を分析するような研究でも広く使われている技術である\cite{mitra-EtAl:2014:P14-1,kulkarni2015statistically,TACL796,eisenstein-EtAl:2010:EMNLP,hamilton-EtAl:2016:EMNLP2016,yang2016sentiment}.さらに,一般的な多義性を扱うための分散表現\cite{neelakantan-EtAl:2014:EMNLP2014,gaussian_emb_1,gaussian_emb_2,topic_emb}や文脈をうまく表現するための分散表現\cite{context2vec,elmo}なども研究されてきたが,本研究の目的は,ある特定領域で別の意味を持つ単語の検出であるため,これらの研究とは目的が異なる.本研究で着目する出力側の単語ベクトル$v^{OUT}$を活用した研究は少ないが,$v^{OUT}$を効果的に使うことで,文書のランキングや\cite{DBLP:journals/corr/MitraNCC16}言語モデルの改善\cite{eacl17oflr,kobayashi-okazaki-inui:2017:I17-1}に有効だったと報告されている.また,\citeA{TACL1065}は本研究で用いたSGNSを単語に対する知識表現も学習できるように拡張し,$v^{IN}$は単語ベクトルを,$v^{OUT}$は$v^{IN}$に対応する単語の知識表現を学習することによって,SemanticTextualSimilarity,EntityLinking,そしてFactoid型質問応答の3つのタスクにおいてState-of-the-artを達成している. \section{まとめ} 本研究では,ソーシャルメディアにおいて辞書に掲載されていない意味で使用される場合があることが分かっている単語を対象に,単語の一般的ではない用法の自動検出を行った.提案手法では,Skip-gramwithNegativeSamplingを用いて均衡コーパスから学習した単語ベクトルを用いて,着目単語の単語ベクトルと着目単語の周辺単語の単語ベクトルの内積に対してシグモイド関数を適用した値の加重平均を,着目単語の用法の一般性スコアとして扱い,一般性スコアが高い場合に一般的,低い場合に非一般的と判断する.この際,従来の研究で一般的に用いられている$v^{IN}$だけではなく,$v^{OUT}$を組み合わせて使用した.事前に選定した40語を対象に,与えられた文における用法が一般的であるかそうでないかアノテーションしたデータセットを用いた評価実験の結果,均衡コーパスから学習されたベクトルを使用し,さらに$v^{OUT}$ベクトルと加重平均を一般性スコアの計算に活用することで,高い精度を達成できることを示した.この結果,出力側単語ベクトル$v^{OUT}$が,文中のある単語とその周辺単語を参照するようなタスクにおいて有用であることを可能性を示している.また,着目単語の周辺単語に対して,それらと着目単語との距離に応じて,単語ベクトルの重み付けを行うことによって評価値の向上が見られたことから,着目単語と距離の近い周辺単語が一般的ではない用法の検出において,より重要な手がかりとなっていると考えられる.さらに,提案手法においては,一般性スコアの計算時に機能語を使用しないことで評価値の向上が見られたから,機能語が持つ情報は一般的ではない用法の検出においては重要ではない可能性があると思われる.本研究は,ソーシャルメディア上で一般的ではない使われ方がされている語の分析の手始めとして取り組んだ.本研究で提案した手法を拡張することにより,ソーシャルメディアにおける単語の用法の分析に貢献できると期待される.本研究における評価実験は,作成したデータセットを用いたクローズドな問題設定だったが,提案手法によって計算された一般性スコアに対して閾値推定を施すことにより,未知のデータから一般的ではない用法を抽出するなど,オープンな問題設定に対しても適用可能だと考えられる.ソーシャルメディアにおいて,どのくらいの語が非一般的用法で用いられているかの分析や,単語の一般的ではない用法の検出だけではなく,その意味の自動獲得などが,本研究のさらなる発展として考えられる.\acknowledgment本論文の一部は,The2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2017)で発表したものです\cite{tatsuo}.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aoki,Sasano,Takamura,\BBA\Okumura}{Aokiet~al.}{2017}]{tatsuo}Aoki,T.,Sasano,R.,Takamura,H.,\BBA\Okumura,M.\BBOP2017\BBCP.\newblock\BBOQDistinguishingJapaneseNon-standardUsagesfromStandardOnes.\BBCQ\\newblockIn{\BemProceedingsofEMNLP'17},\mbox{\BPGS\2323--2328}.\bibitem[\protect\BCAY{Athiwaratkun\BBA\Wilson}{Athiwaratkun\BBA\Wilson}{2017}]{gaussian_emb_2}Athiwaratkun,B.\BBACOMMA\\BBA\Wilson,A.\BBOP2017\BBCP.\newblock\BBOQMultimodalWordDistributions.\BBCQ\\newblockIn{\BemProceedingsofACL'17},\mbox{\BPGS\1645--1656}.\bibitem[\protect\BCAY{Bamman,Dyer,\BBA\Smith}{Bammanet~al.}{2014}]{bamman-dyer-smith:2014:P14-2}Bamman,D.,Dyer,C.,\BBA\Smith,N.~A.\BBOP2014\BBCP.\newblock\BBOQDistributedRepresentationsofGeographicallySituatedLanguage.\BBCQ\\newblockIn{\BemProceedingsofACL'14},\mbox{\BPGS\828--834}.\bibitem[\protect\BCAY{Cook,Lau,McCarthy,\BBA\Baldwin}{Cooket~al.}{2014}]{cook-EtAl:2014:Coling}Cook,P.,Lau,J.~H.,McCarthy,D.,\BBA\Baldwin,T.\BBOP2014\BBCP.\newblock\BBOQNovelWord-senseIdentification.\BBCQ\\newblockIn{\BemProceedingsofCOLING'14},\mbox{\BPGS\1624--1635}.\bibitem[\protect\BCAY{Eisenstein,O'Connor,Smith,\BBA\Xing}{Eisensteinet~al.}{2010}]{eisenstein-EtAl:2010:EMNLP}Eisenstein,J.,O'Connor,B.,Smith,N.~A.,\BBA\Xing,E.~P.\BBOP2010\BBCP.\newblock\BBOQALatentVariableModelforGeographicLexicalVariation.\BBCQ\\newblockIn{\BemProceedingsofEMNLP'10},\mbox{\BPGS\1277--1287}.\bibitem[\protect\BCAY{Fadaee,Bisazza,\BBA\Monz}{Fadaeeet~al.}{2017}]{topic_emb}Fadaee,M.,Bisazza,A.,\BBA\Monz,C.\BBOP2017\BBCP.\newblock\BBOQLearningTopic-SensitiveWordRepresentations.\BBCQ\\newblockIn{\BemProceedingsofACL'17},\mbox{\BPGS\441--447}.\bibitem[\protect\BCAY{Frermann\BBA\Lapata}{Frermann\BBA\Lapata}{2016}]{TACL796}Frermann,L.\BBACOMMA\\BBA\Lapata,M.\BBOP2016\BBCP.\newblock\BBOQABayesianModelofDiachronicMeaningChange.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf4},\mbox{\BPGS\31--45}.\bibitem[\protect\BCAY{Gharbieh,Virendra,\BBA\Cook}{Gharbiehet~al.}{2016}]{MWEemb}Gharbieh,W.,Virendra,B.,\BBA\Cook,P.\BBOP2016\BBCP.\newblock\BBOQAWordEmbeddingApproachtoIdentifyingVerb-NounIdiomaticCombinations.\BBCQ\\newblockIn{\BemProceedingsofthe12thWorkshoponMultiwordExpressions},\mbox{\BPGS\112--118}.\bibitem[\protect\BCAY{Hamilton,Clark,Leskovec,\BBA\Jurafsky}{Hamiltonet~al.}{2016}]{hamilton-EtAl:2016:EMNLP2016}Hamilton,W.~L.,Clark,K.,Leskovec,J.,\BBA\Jurafsky,D.\BBOP2016\BBCP.\newblock\BBOQInducingDomain-SpecificSentimentLexiconsfromUnlabeledCorpora.\BBCQ\\newblockIn{\BemProceedingsofEMNLP'16},\mbox{\BPGS\595--605}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{WEBcrawl}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQCaseFrameCompilationfromtheWebusingHighPerformanceComputing.\BBCQ\\newblockIn{\BemProceedingsofLREC'06},\mbox{\BPGS\1344--1347}.\bibitem[\protect\BCAY{Kiela\BBA\Clark}{Kiela\BBA\Clark}{2013}]{kiela-clark:2013:EMNLP}Kiela,D.\BBACOMMA\\BBA\Clark,S.\BBOP2013\BBCP.\newblock\BBOQDetectingCompositionalityofMulti-WordExpressionsusingNearestNeighboursinVectorSpaceModels.\BBCQ\\newblockIn{\BemProceedingsofEMNLP'13},\mbox{\BPGS\1427--1432}.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2015}]{adam}Kingma,D.~P.\BBACOMMA\\BBA\Ba,J.\BBOP2015\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblockIn{\BemProceedingsofICLR'15}.\bibitem[\protect\BCAY{Kobayashi,Okazaki,\BBA\Inui}{Kobayashiet~al.}{2017}]{kobayashi-okazaki-inui:2017:I17-1}Kobayashi,S.,Okazaki,N.,\BBA\Inui,K.\BBOP2017\BBCP.\newblock\BBOQANeuralLanguageModelforDynamicallyRepresentingtheMeaningsofUnknownWordsandEntitiesinaDiscourse.\BBCQ\\newblockIn{\BemProceedingsofIJCNLP'17},\mbox{\BPGS\473--483}.\bibitem[\protect\BCAY{Kulkarni,Al-Rfou,Perozzi,\BBA\Skiena}{Kulkarniet~al.}{2015}]{kulkarni2015statistically}Kulkarni,V.,Al-Rfou,R.,Perozzi,B.,\BBA\Skiena,S.\BBOP2015\BBCP.\newblock\BBOQStatisticallySignificantDetectionofLinguisticChange.\BBCQ\\newblockIn{\BemProceedingsofWWW'15},\mbox{\BPGS\625--635}.\bibitem[\protect\BCAY{Lau,Cook,McCarthy,Newman,\BBA\Baldwin}{Lauet~al.}{2012}]{lau-EtAl:2012:EACL2012}Lau,J.~H.,Cook,P.,McCarthy,D.,Newman,D.,\BBA\Baldwin,T.\BBOP2012\BBCP.\newblock\BBOQWordSenseInductionforNovelSenseDetection.\BBCQ\\newblockIn{\BemProceedingsofEACL'12},\mbox{\BPGS\591--601}.\bibitem[\protect\BCAY{Levy\BBA\Goldberg}{Levy\BBA\Goldberg}{2014}]{NIPS2014_5477}Levy,O.\BBACOMMA\\BBA\Goldberg,Y.\BBOP2014\BBCP.\newblock\BBOQNeuralWordEmbeddingasImplicitMatrixFactorization.\BBCQ\\newblockIn{\BemProceedingsofNIPS'14},\mbox{\BPGS\2177--2185}.\bibitem[\protect\BCAY{Levy,Goldberg,\BBA\Dagan}{Levyet~al.}{2015}]{levy2015}Levy,O.,Goldberg,Y.,\BBA\Dagan,I.\BBOP2015\BBCP.\newblock\BBOQImprovingDistributionalSimilaritywithLessonsLearnedfromWordEmbeddings.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf3},\mbox{\BPGS\211--225}.\bibitem[\protect\BCAY{Li\BBA\Sporleder}{Li\BBA\Sporleder}{2010}]{li2010}Li,L.\BBACOMMA\\BBA\Sporleder,C.\BBOP2010\BBCP.\newblock\BBOQLinguisticCuesforDistinguishingLiteralandNon-LiteralUsages.\BBCQ\\newblockIn{\BemProceedingsofCOLING'10},\mbox{\BPGS\683--691}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Maruyama,Yamaguchi,Ogura,Kashino,Ogiso,Koiso,\BBA\Den}{Maekawaet~al.}{2010}]{BCCWJ}Maekawa,K.,Yamazaki,M.,Maruyama,T.,Yamaguchi,M.,Ogura,H.,Kashino,W.,Ogiso,T.,Koiso,H.,\BBA\Den,Y.\BBOP2010\BBCP.\newblock\BBOQDesign,Compilation,andPreliminaryAnalysesofBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemProceedingsofLREC'10},\mbox{\BPGS\1483--1486}.\bibitem[\protect\BCAY{松本\JBA土屋\JBA芋野\JBA吉田\JBA北}{松本\Jetal}{2017}]{matsumoto2017WII-A}松本和幸\JBA土屋誠司\JBA芋野美紗子\JBA吉田稔\JBA北研二\BBOP2017\BBCP.\newblock感性を考慮した日本語俗語の標準語変換.\\newblock\Jem{人工知能学会論文誌},{\Bbf32}(1),\mbox{\BPG\WII{\Hy}A\_1{\Hy}12}.\bibitem[\protect\BCAY{Melamud,Goldberger,\BBA\Dagan}{Melamudet~al.}{2016}]{context2vec}Melamud,O.,Goldberger,J.,\BBA\Dagan,I.\BBOP2016\BBCP.\newblock\BBOQcontext2vec:LearningGenericContextEmbeddingwithBidirectionalLSTM.\BBCQ\\newblockIn{\BemProceedingsofCoNLL'16},\mbox{\BPGS\51--61}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{Mikolov2013nips}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.~S.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandtheirCompositionality.\BBCQ\\newblockIn{\BemProceedingsofNIPS'13},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{Mitra,Nalisnick,Craswell,\BBA\Caruana}{Mitraet~al.}{2016}]{DBLP:journals/corr/MitraNCC16}Mitra,B.,Nalisnick,E.~T.,Craswell,N.,\BBA\Caruana,R.\BBOP2016\BBCP.\newblock\BBOQADualEmbeddingSpaceModelforDocumentRanking.\BBCQ\\newblock{\BemarXiv:1602.01137}.\bibitem[\protect\BCAY{Mitra,Mitra,Riedl,Biemann,Mukherjee,\BBA\Goyal}{Mitraet~al.}{2014}]{mitra-EtAl:2014:P14-1}Mitra,S.,Mitra,R.,Riedl,M.,Biemann,C.,Mukherjee,A.,\BBA\Goyal,P.\BBOP2014\BBCP.\newblock\BBOQThat'sSickDude!:AutomaticIdentificationofWordSenseChangeAcrossDifferentTimescales.\BBCQ\\newblockIn{\BemProceedingsofACL'14},\mbox{\BPGS\1020--1029}.\bibitem[\protect\BCAY{Neelakantan,Shankar,Passos,\BBA\McCallum}{Neelakantanet~al.}{2014}]{neelakantan-EtAl:2014:EMNLP2014}Neelakantan,A.,Shankar,J.,Passos,A.,\BBA\McCallum,A.\BBOP2014\BBCP.\newblock\BBOQEfficientNon-parametricEstimationofMultipleEmbeddingsperWordinVectorSpace.\BBCQ\\newblockIn{\BemProceedingsofEMNLP'14},\mbox{\BPGS\1059--1069}.\bibitem[\protect\BCAY{Peters,Neumann,Iyyer,Gardner,Clark,Lee,\BBA\Zettlemoyer}{Peterset~al.}{2018}]{elmo}Peters,M.~E.,Neumann,M.,Iyyer,M.,Gardner,M.,Clark,C.,Lee,K.,\BBA\Zettlemoyer,L.\BBOP2018\BBCP.\newblock\BBOQDeepContextualizedWordRepresentations.\BBCQ\\newblockIn{\BemProceedingsofNAACL:HLT'18},\mbox{\BPGS\2227--2237}.\bibitem[\protect\BCAY{Press\BBA\Wolf}{Press\BBA\Wolf}{2017}]{eacl17oflr}Press,O.\BBACOMMA\\BBA\Wolf,L.\BBOP2017\BBCP.\newblock\BBOQUsingtheOutputEmbeddingtoImproveLanguageModels.\BBCQ\\newblockIn{\BemProceedingsofEACL'17},\mbox{\BPGS\157--163}.\bibitem[\protect\BCAY{{\v{R}}eh{\r{u}}{\v{r}}ek\BBA\Sojka}{{\v{R}}eh{\r{u}}{\v{r}}ek\BBA\Sojka}{2010}]{rehurek_lrec}{\v{R}}eh{\r{u}}{\v{r}}ek,R.\BBACOMMA\\BBA\Sojka,P.\BBOP2010\BBCP.\newblock\BBOQSoftwareFrameworkforTopicModellingwithLargeCorpora.\BBCQ\\newblockIn{\BemProceedingsofWorkshoponNewChallengesforNLPFrameworks},\mbox{\BPGS\45--50}.\bibitem[\protect\BCAY{Salehi,Cook,\BBA\Baldwin}{Salehiet~al.}{2015}]{salehi-cook-baldwin:2015:NAACL-HLT}Salehi,B.,Cook,P.,\BBA\Baldwin,T.\BBOP2015\BBCP.\newblock\BBOQAWordEmbeddingApproachtoPredictingtheCompositionalityofMultiwordExpressions.\BBCQ\\newblockIn{\BemProceedingsofNAACL-HLT'15},\mbox{\BPGS\977--983}.\bibitem[\protect\BCAY{Sboev}{Sboev}{2016}]{sboev:2016}Sboev,A.\BBOP2016\BBCP.\newblock\BBOQTheSourcesofNewWordsandExpressionsintheChineseInternetLanguageandtheWaysbyWhichTheyEntertheInternetLanguage.\BBCQ\\newblockIn{\BemProceedingsofPACLIC'16},\mbox{\BPGS\355--361}.\bibitem[\protect\BCAY{新納\JBA佐々木}{新納\JBA佐々木}{2012}]{sinnou:2012}新納浩幸\JBA佐々木稔\BBOP2012\BBCP.\newblock外れ値検出手法を利用した新語義の検出.\\newblock\Jem{自然言語処理},{\Bbf19},\mbox{\BPGS\303--327}.\bibitem[\protect\BCAY{Vilnis\BBA\McCallum}{Vilnis\BBA\McCallum}{2015}]{gaussian_emb_1}Vilnis,L.\BBACOMMA\\BBA\McCallum,A.\BBOP2015\BBCP.\newblock\BBOQWordRepresentationsviaGaussianEmbedding.\BBCQ\\newblockIn{\BemProceedingsofICLR'15}.\bibitem[\protect\BCAY{山田\JBA安彦\JBA長谷川\JBAMichal\JBA中村\JBA佐久田}{山田\Jetal}{2016}]{yamada}山田大\JBA安彦智史\JBA長谷川大\JBAMichalPtaszynski\JBA中村健二\JBA佐久田博司\BBOP2016\BBCP.\newblockID交換掲示板における書き込み有害性評価に向けた隠語概念化手法の提案.\\newblock\Jem{言語処理学会第22回年次大会発表論文集},\mbox{\BPGS\49--50}.\bibitem[\protect\BCAY{Yamada,Shindo,Takeda,\BBA\Takefuji}{Yamadaet~al.}{2017}]{TACL1065}Yamada,I.,Shindo,H.,Takeda,H.,\BBA\Takefuji,Y.\BBOP2017\BBCP.\newblock\BBOQLearningDistributedRepresentationsofTextsandEntitiesfromKnowledgeBase.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf5},\mbox{\BPGS\397--411}.\bibitem[\protect\BCAY{Yang\BBA\Eisenstein}{Yang\BBA\Eisenstein}{2016}]{yang2016sentiment}Yang,Y.\BBACOMMA\\BBA\Eisenstein,J.\BBOP2016\BBCP.\newblock\BBOQOvercomingLanguageVariationinSentimentAnalysiswithSocialAttention.\BBCQ\\newblock{\BemarXiv:1511.06052}.\end{thebibliography}\clearpage\begin{biography}\bioauthor{青木竜哉}{2016年筑波大学情報学群情報メディア創成学類卒業.2018年東京工業大学工学院博士前期課程修了.同年より,同大学院博士後期課程に在籍.}\bioauthor{笹野遼平}{2009年東京大学大学院情報理工学系研究科博士課程修了.京都大学特定研究員,東京工業大学助教を経て,2017年より名古屋大学准教授.博士(情報理工学).自然言語処理,特に述語項構造解析に関する研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{高村大也}{1997年東京大学工学部計数工学科卒業.2000年同大大学院工学系研究科計数工学専攻修了(1999年はオーストリアウィーン工科大学にて研究).2003年奈良先端科学技術大学院大学情報科学研究科博士課程修了.博士(工学).2003年から2010年まで東京工業大学精密工学研究所助教.2006年にはイリノイ大学にて客員研究員.2010年から2016年まで同准教授.2017年より同教授および産業技術総合研究所人工知能センター知識情報研究チーム研究チーム長.計算言語学,自然言語処理を専門とし,特に機械学習の応用に興味を持つ.}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在は,科学技術創成研究院教授.2017年より,理化学研究所革新知能統合研究センター(AIP)客員研究員を兼務.工学博士.自然言語処理,テキスト要約,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会,AAAI,ACL,認知科学会,計量国語学会各会員.}\end{biography}\biodate\end{document}
V27N01-01
\section{はじめに} 機械学習に基づく言語処理システムは,一般に,訓練に用いたテキストドメインと,実際に運用ないし評価を行うテキストドメインが異なる場合に精度が低下する.この,訓練時と運用・評価時のテキストドメインの異なりによる精度低下を防ぐという課題を,ドメイン適応問題と呼ぶ.以下では,訓練に用いるデータのテキストドメインを適応元ドメイン,運用ないし評価を行うデータのテキストドメインを適応先ドメインと呼ぶ.ドメイン適応が必要になる理由は,端的にいえば,訓練データと評価データが同一分布からのサンプルであるという統計的機械学習の基本的な前提が破られていることにある.このため,最も基本的なドメイン適応手段は,適応先ドメインのアノテーション付きコーパスを訓練データに追加してモデルを訓練しなおすこと,すなわち,いわゆる追加訓練によって,訓練データと評価データの分布を近づけることである.このように,追加訓練という明らかな解決法が存在するドメイン適応問題を,ことさら問題として取り上げるのには主に2つの理由がある.ひとつは工学的あるいは経済的な理由である.我々が言語処理技術を適用したいテキストドメインが多様であるのに対して,既に存在するアノテーション付きデータのドメインは限られており,かつ,ターゲットとなるドメインごとに新たにアノテーションを行うことには大きなコストが必要となる.また,単純な追加訓練を超えるドメイン適応技法の中には,大量に存在する適応先ドメインの生テキストを活用することでアノテーションのコストを抑えることを狙うものもあるが,本稿で取り上げる適応先ドメインの一つである教科書テキストのように,そもそも,生テキストですら大量に存在する訳ではないドメインもある.このため,既存のアノテーション付きデータに比べ相対的に少量しか存在しない適応先ドメインデータをどのように活用するかは,重要な技術課題となる.ドメイン適応問題が重要である2つ目の理由は,単一言語のデータには,明らかにテキストドメインを超えた共通性が存在するという点にある.例えば,教科書テキストを解析したい場合でも,モデルを新聞テキストで訓練することには,当然ある程度の有効性がある.簡単にいえば,「どちらも日本語だから」そのようなことが可能になるわけであり,およそ全てのドメイン適応技術はこの前提に基づいているが,しかし我々は「日本語とは何か」ということの数理的・統計的な表現を知った上でこれを行っている訳では当然ない.逆に言えば,ドメイン適応課題とは,あるタスクの精度向上という目的を通じた間接的な形であれ,「日本語とは何か・日本語テキストに共通するものは何か」の理解に近づくための一つの試みであるといえる.以上の2つの理由のいずれからも,最も基本的なドメイン適応手段である追加訓練が,どのような例に対して有効で,どのような例に対してそうでないのかを知ることには大きな意義がある.それを知るための基本的な方法は,追加訓練によって改善された誤りとそうでないものを一つ一つ観察し分類してゆくことだが,これを通じて,追加訓練によって全体として何が起こっているのかを把握することは必ずしも容易でない.そこで本稿では,追加訓練の効果を俯瞰的に観察・分析するための一手法を提示し,日本語係り受け解析タスクにおける追加訓練を例として,その効果の分析を行った結果を報告する.本研究における分析手法は,追加訓練前後の係り受け誤り例の収集・係り受け誤りの埋め込み・埋め込みのクラスタリングの3つのステップに分けられる.係り受け誤りの埋め込みは,クラスタリングを行うための前処理のステップであり,ニューラルネットに基づく係り受け解析器の内部状態を用いて,係り受け誤りを密な実数ベクトルで表現する.解析器の内部状態を用いることで,データにもとづいて導出された,係り受け解析タスクにおいて重要な特徴を抽出した表現に基づくクラスタリングを行うことができ,いわば,「解析器の視点」からの追加訓練の効果の分析が行えると期待できる.次に,こうして得られた埋め込みをクラスタリングすることで追加訓練の効果を俯瞰的に観察・分析する.具体的には,クラスタリング結果に対していくつかの統計的・定量的分析を行い,高次元の空間の点として表現された誤りの分布と,追加訓練による誤りの解消・発生の様子を観察する.さらに,適応先ドメインごとに,追加訓練の効果が特徴的に表れているクラスタや,効果が見られないクラスタに着目してその内容を観察することで,追加訓練の効果に関わるドメインごとの特徴を分析する.この際,一つ一つの誤り例だけでなく,まずクラスタとしてまとめて観察することで,追加訓練によって改善しやすい誤りや,ドメインごとに発生しやすい誤りを見出すことが容易になると考えられる.さらに,追加訓練の効果やドメイン間の差について,クラスタに含まれる誤りの観察をもとに仮説を立て,コーパス上の統計量にもとづきそれを検証することで,ドメイン適応の有効性に関わるテキストドメインの特徴を把握し,よりよい追加訓練手法のための基礎的な知見を得ることが期待できる.本稿では,適応元ドメインとして新聞記事,適応先ドメインとして理科教科書および特許文書を用いて上記の分析を行った結果を報告する.追加訓練の効果が特に強く認められたクラスタの誤りを詳細に分析した結果,「{$X$}は+{$V_1$}スル+{$N$}は/が/を+{$V_2$}スル」「{$X$}は+{$V_1$}スルと+{$V_2$}スル」(「{$V_k$}スル」は用言,{$N$}は体言)など,どのドメインにも出現する文型に対して,正しい構造の分布がドメイン間で異なることが学習されたためであると分かった.追加訓練が効果を上げる理由としては,大きく分けて,(a)適応元ドメインでは稀な構文が新たに学習されること,および,(b)表層的には類似した文型に対する正しい構文構造(の分布)が,適応元ドメインと適応先ドメインで異なることが学習されることの2つが考えられる.本研究の分析の結果からは,後者が追加訓練の主要な効果であることが示唆される.なお,本研究における分析手法は追加訓練と誤りの収集が可能な解析器であればニューラル解析器に限らず適用することができる.例えば,{\cite{weko_192738_1}}では\eijiSVM\Eijiを用いた解析器である\eijiCaboCha\Eiji{\cite{cabocha}}に対する追加訓練の影響を,ニューラル解析器から得られる埋め込み表現とクラスタリングを用いて分析している.ただし,本稿では誤り収集と埋め込み表現の作成は同じ解析器で行った.以下,\ref{sec:related_works}節で関連研究についてまとめ,\ref{sec:teian}節で分析手法について詳述する.\ref{sec:zikken}節で実験結果を述べ,\ref{sec:owarini}節でまとめと今後の展望を述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%2 \section{関連研究\label{sec:related_works}} ドメイン適応問題に対する研究は数多くあるが,それらは大きく分けると2つのアプローチに分けられる.一つ目のアプローチは効果的な学習法に関するものである.このアプローチは少量しかない適応先ドメインデータの情報をより強く反映し,正しく解析を行うため,一般的な機械学習のプロセスの一部を変更するものである.例えばDaum\'{e}IIIら\cite{daume2006domain}は学習時の適応先ドメインデータの重みを適応元ドメインデータと変える方法を提案した.Daum\'{e}III\cite{daume2009frustratingly}は両方のドメインに共通の情報と固有の情報とを素性表現を使って工夫して学習する方法を提案した.McCloskyら\cite{mcclosky2010automatic}は複数の適応元ドメインの重みつき和によって適応先ドメインを表現する手法を提案した.Wangら\cite{wang-etal-2017-sentence}は適応先ドメインに類似した適応元ドメインデータだけをモデルの内部表現を用いて選択,訓練に用いる手法を提案した.Satoら\cite{sato-etal-2017-adversarial}は両方のドメイン共通の情報と固有の情報を敵対的学習を用いて分離し,訓練を行った.二つ目のアプローチは効率的な適応先データの収集法に関するものである.アノテーションされた適応先データは少ないが,生の適応先データは大量に利用できるという場合に利用できる手法で,生の適応先データのうち最も精度上昇に寄与するデータを選択し,そのデータを訓練データに追加するというものである.この手法はアクティブラーニングと呼ばれ,この手法を用いても適応先ドメインのアノテーションコストを減少できると期待できる(例えば{\cite{marcheggiani2014experimental,li2016active}など).}また,本研究はニューラルモデルの挙動について,特に追加訓練の効果に焦点を当てて説明しようとする研究とも位置付けられるが,複雑なニューラルモデルの挙動を様々な側面から理解しようとする試みは近年注目を集めている.例えば,Kohら\cite{influence}は損失関数の微分を用いて特定の訓練例や特定の素性が出力に与える影響を調べた.Tenneyら\cite{tenney-etal-2019-bert}は最終的な決定に対して\eijiBidirectional\Eiji\eijiEncoder\Eiji\eijiRepresentations\Eiji\eijifrom\Eiji\eijiTransformers\Eiji\eiji(BERT)\Eiji\cite{devlin-etal-2019-bert}の各層がもたらす寄与と,各層を追加することによる精度上昇量をもとにBERTの各層の振る舞いを調べた.本研究では特に追加訓練の効果を理解することを目的として係り受け誤りの分類・分析を行うが,より一般に,係り受け誤りの分類・分析を通した性能の改善に関しては先行研究が存在する.例えば,金山{\cite{weko_48179_1}}は,係り受け誤りについての調査から誤りの共通点を見出し,正解と誤りを区別する素性を追加することで誤りを減少させた.河原ら{\cite{ws_pnn03_parsing}}は,係り受け誤りをいくつかのパターンに分類し,それぞれのパターンについての対処法を述べ,さらに現在の性能評価の問題点や後続のタスクへの影響についても議論した.これらの先行研究は主として特定のドメインにおける係り受け誤りの改善を目的としているが,本研究ではドメインごとの差から生じる誤りや,追加訓練による誤り傾向の変化の分析を目的とする点でこれらと異なる.また,先行研究では誤りを人手で分類しているが,本研究は解析器の内部状態を用いて自動的に分類している.これによって,人手での分類が困難なほど多数の係り受け誤りを俯瞰的に観察することが可能になる.さらに,人の目を通して把握した文型や言語現象の類似性ではなく,解析器の内部状態を基に誤りを自動分類することで,データからの学習の効果と結びつけやすい形で誤りが分類できると期待できる.以上のように,ドメイン適応問題に関する研究やニューラルモデルの挙動について説明する研究,および誤り分析に関する研究は多く存在するが,ドメイン適応問題において追加訓練が解析結果にもたらす影響について,単なる精度の向上ではなく,その内実を理解することを目的とした研究は少ない.本研究は,これを目的として誤り傾向の変化を定性的・定量的に分析したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{27-1ia1f1.eps}\end{center}\caption{分析の流れのブロック図}\label{fig:zentaizou}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3 \section{分析手法\label{sec:teian}} 本節では分析手法について述べる.図\ref{fig:zentaizou}に分析の流れのブロック図を示す.以降ではそれぞれのブロックについて詳しく述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.1\subsection{係り受け解析器\label{subsec:parser}}はじめに,本研究で用いる係り受け解析器について述べる.これは図\ref{fig:zentaizou}の誤り収集・誤り埋め込みブロックで用いられる.本研究で用いるモデルは,松野ら\cite{neuralgraph}のものをベースとしている.松野らのモデルとの相違点については本項の最後にまとめる.本研究で用いる係り受け解析器を図\ref{fig:parser}に示す.この解析器は大きく文節埋め込み層(図下側)とスコア計算層(図上側)に分けられる.さらに文節埋め込み層は以下の3ステップに分けられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{27-1ia1f2.eps}\end{center}\caption{解析器の構成}\label{fig:parser}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{1.形態素層}形態素の素性表現ベクトル列$\bm{x}^{word}_i$に対しBi-directionalLong-ShortTermMemory(BiLSTM)を適用することで,各形態素を文脈を考慮した埋め込み表現$(\overleftarrow{\bm{y}}^{word}_i,\overrightarrow{\bm{y}}^{word}_i)$に変換する.\begin{align}(\overleftarrow{\bm{y}}^{word}_i,\overrightarrow{\bm{y}}^{word}_i)={\rmBiLSTM}^{word}(\bm{x}^{word}_i)\end{align}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{2.差分層}$\overleftarrow{\bm{y}}^{word}=(\overleftarrow{\bm{y}}^{word}_0,\dots,\overleftarrow{\bm{y}}^{word}_{M+1}),\overrightarrow{\bm{y}}^{word}=(\overrightarrow{\bm{y}}^{word}_0,\dots,\overrightarrow{\bm{y}}^{word}_{M+1})$($M$は形態素数)に対し,文節に属する形態素の情報が入力される前の情報と全ての情報が入力された後の情報の差分を取ることで文節を表す表現$\bm{x}^{chunk}=(\bm{x}^{chunk}_1,\dots,\bm{x}^{chunk}_C)$($C$は文節数)を求める.$t$番目の文節が$i$番目の形態素から$j$番目の形態素で構成されているとき,$\bm{x}^{chunk}$は以下のように計算される.ただし,{$\oplus$はベクトルの結合を表す.}\pagebreak\begin{align}\overleftarrow{\bm{x}}_t^{chunk}&=\overleftarrow{\bm{y}}_i^{word}-\overleftarrow{\bm{y}}_{j+1}^{word}\\\overrightarrow{\bm{x}}_t^{chunk}&=\overrightarrow{\bm{y}}_{j}^{word}-\overrightarrow{\bm{y}}_{i-1}^{word}\\\bm{x}_t^{chunk}&=\overleftarrow{\bm{x}}_t^{chunk}\oplus\overrightarrow{\bm{x}}_t^{chunk}\end{align}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{3.文節層}$\bm{x}^{chunk}$をBiLSTMに通すことで周辺の文脈も含んだ文節の情報を表す表現\\$\bm{y}^{chunk}=(\bm{y}^{chunk}_0,\dots,\bm{y}^{chunk}_{C+1})$(以降,文節埋め込み表現)にする.\begin{align}(\overleftarrow{\bm{y}}_t^{chunk},\overrightarrow{\bm{y}}_t^{chunk})&={\rmBiLSTM}^{chunk}(\bm{x}^{chunk}_t)\\\bm{y}_t^{chunk}&=\overleftarrow{\bm{y}}_t^{chunk}\oplus\overrightarrow{\bm{y}}_t^{chunk}\end{align}スコア計算層では{$t$番目の文節と{$u$}番目の文節}$(t<u)$について,それらの文節埋め込み表現$\bm{y}_t^{chunk},$$\bm{y}_u^{chunk}$を多層パーセプトロンに入力することで,2文節間の係り受け関係スコアを計算する.$t$番目の文節が$u$番目の文節に係る時の係り受け関係スコア$s_{t,u}$は以下のように計算される.\begin{align}s_{t,u}&={\rmMLP}(\bm{y}_t^{chunk}\oplus\bm{y}_u^{chunk}\oplus[\:{\rmI}(u-t=1),{\rmI}(u-t\le5)\:])\\{\rmI}(x)&=\begin{cases}1&(x\:{\rmis}\:{\rmtrue})\\0&(x\:{\rmis}\:{\rmfalse})\end{cases}\end{align}$\mathrm{I}(u-t=1)$は文節間距離が1であるかという素性を,{${\rmI}(u-t\le5)$}は文節間距離が5以下であるかという素性を表す.文節間距離素性は係り受け解析において大きな役割を果たすため,精度を向上させる目的でこのタイミングで明示的に導入する.文節間距離素性の境界値の設定(1,2〜5,6以上)は\eijiCaboCha\Eijiの実装に従ったものである.このスコア計算モデルと,遷移ベース係り受け解析アルゴリズムである内元ら\cite{maximumentropy}のアルゴリズムを用いて係り受け解析を行う.内元らのアルゴリズムは,ある係り文節に対し受け文節となりうる全ての文節\footnote{1.係り文節より後ろに存在すること,2.非交差条件を満たすこと,の2つを満たす文節.}について係り受け関係スコアを計算し,最もスコアが高い文節を受け文節と決めるということを後ろの文節から順に繰り返すことで構文木を構築する.正しい係り受け文節ペアを入力した時のスコアが他のペアを入力した時のスコアより高くなるようにするため,損失関数${\rmloss}$を以下のように定義し,訓練を行った.\begin{align}{\rmloss}=-\sum_{u'\in\mathcal{C}_t}\log\frac{\exp(s_{t,u})}{\exp(s_{t,u})+\exp(s_{t,u'})}\end{align}ただし,$t$は係り文節,$u$は正しい受け文節,$\mathcal{C}_t$は受け文節の候補集合を表す.係り受け解析器の追加訓練を行う際は,適応元ドメインのデータで訓練したパラメータを初期値とし,適応先ドメインのデータによる訓練を行った.本研究における分析では,追加訓練前後の誤り傾向の変化を,文節埋め込みの空間内でどの領域に配置される誤りが減少あるいは増加したか,という観点から捉える.また,この観察を複数の適応先ドメインに渡って行う.各適応先ドメインでの追加訓練の前後で文節埋め込み自体が変化すると,そのような形で誤りの変化を観察することはできない.そのため,文節埋め込み層のパラメータは固定し,スコア計算層のパラメータのみ学習するようにした.本研究で用いるモデルと松野らのモデルでは,係り受け関係スコアの計算法および解析アルゴリズムが異なる.松野らは文節埋め込み表現に対し,係り文節/受け文節専用の多層パーセプトロンを適用したあとでBiaffine変換を用いることで,係り受け関係スコアを計算している.\eijiBiaffine\Eiji変換は最大で2つの要素の組み合わせ素性を用いた回帰を行えるが,隠れ層1層の多層パーセプトロンでも,隠れ層のユニット数が十分であれば実質的に同じように組み合わせ素性を用いて回帰を行うことができる{\cite{Cybenko1989}}.そのため,表現力は同等(以上)であると考えられる.そこで本研究では多層パーセプトロンを用いた図\ref{fig:parser}の構成で解析を行った.また解析アルゴリズムとして松野らはグラフベース解析アルゴリズムを使っている.グラフベース解析アルゴリズムの典型例は,係り受けが非交差という条件の下で2文節間の係り受けスコアの和を最大化する構文木を求めるものである.このような手法では,非交差制約によって,ある2つの文節間の係り受けスコアの変化が構文木全体の形状に影響する場合がある.このため,係り受け関係スコアと構文木上で生じる誤りの関係が遷移ベースの解析法ほど明確でない.そこで本研究では遷移ベースのアルゴリズムを用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.2\subsection{係り受け誤りの収集・埋め込み}\label{subsec:syusyu}この項では,図\ref{fig:zentaizou}の誤り収集・誤り埋め込みブロックについて述べる.本研究の目的は追加訓練の前後における係り受けの誤り方の変化の分析である.そのために,表\ref{tab:syusyubunrui}に示す3種類の係り受け誤りの例を収集する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\caption{係り受け誤りの分類}\label{tab:syusyubunrui}\input{01table01.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{a.適応元ドメインにおける誤りの収集}適応元ドメインのデータを訓練データと評価データが1:1になるように分割し,訓練データを用いてモデルを訓練する.得られたモデルを用いて評価データを解析した際の誤りを用いる.適応元ドメインはデータ量が多く,かつ,標準的な日本語をある程度代表するテキストドメインだと仮定しているため,この誤りをクラスタリングした結果を分析({\ref{subsec:clustering}}項)における誤りタイプの基準として用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{b.追加訓練前の適応先ドメイン誤りの収集}追加訓練前の適応先ドメインの解析誤りとして,aで得られたモデルを用いて,適応先ドメインのデータ全てを解析した際の誤りを用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{c.追加訓練後の適応先ドメイン誤りの収集}追加訓練後の適応先ドメインの解析誤りとして,aで得られたモデルを4分割交差検証の要領で追加訓練・評価する.つまり適応先ドメインのデータを4つに分割し,そのうちの3つを用いて追加訓練によりモデルを作成,残り1つのデータを解析する,というプロセスを,評価に用いるデータを順番に入れ替えながら4回行い,得られた誤りを用いる.これらの誤りのうち,bを追加訓練前誤り,cを追加訓練後誤りと呼ぶ.なお,追加訓練後の解析器を用いて適応元ドメインのデータを解析した際の誤りは使用しない.その理由は,本研究の対象が追加訓練前後における適応先ドメインの解析誤りの変化であり,適応元ドメインの解析誤りの変化には興味がないためである.上のようにして得られた係り受け誤りはそのままでは数値的な取り扱いが難しい.そのため,数値表現に変換する.係り受け誤りには係り文節$b_1$,本来$b_1$が係るべき正しい受け文節$b_2$,解析器が誤って出力した受け文節$b'_2$という3つの主たる要素がある.本研究では係り受け誤り埋め込み表現を$b_1,b_2,b'_2$それぞれの文節の文節埋め込み表現(\ref{subsec:parser}項)と距離素性を結合したものと定義する.距離素性は係り文節が文の先頭から$a$番目に,正しい受け文節が$b$番目に,誤って選択した受け文節が$c$番目に存在するときの,${\rmI}(b-a=1),{\rmI}(b-a\le5),{\rmI}(c-a=1),{\rmI}(c-a\le5)$の値を結合させたベクトルである.係り受け誤り埋め込み表現はベクトルなので,数値的な取り扱いが容易になり,次項のクラスタリングを行えるようになる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%3.3\subsection{クラスタリング・定量的分析}\label{subsec:clustering}この項では図\ref{fig:zentaizou}のクラスタリング・分析ブロックについて述べる.係り受け誤りは一つ一つ見ることである程度誤りの原因が推測できるものの,そのような分析のみでは全体としての傾向は掴みにくい.そこで俯瞰的に分析するためにクラスタリングを行う.クラスタリングアルゴリズムとしてはデータ件数の多さを考慮し,k-means法を用いる.k-means法では,データのみならず初期値によっても結果が変化するため,追加訓練前誤りと追加訓練後誤りを独立してクラスタリングしてしまうと,得られるクラスタ集合の間で一対一の対応関係が自然に見いだせるとは限らない.その場合,追加訓練前後の比較が難しくなるため,それを防ぐために以下のようにクラスタリングを行う.\begin{enumerate}\item適応元ドメイン誤り(表\ref{tab:syusyubunrui}のa)のみを用いてk-means法でクラスタリングする.\item適応先ドメイン誤り(表\ref{tab:syusyubunrui}のb,c)のそれぞれの埋め込み表現を,手順1で得られたクラスタのうち,最もクラスタ重心が近いものに割り当てる.\end{enumerate}以上の手順は,まず数の多い適応元ドメインにおける誤りを,クラスタリングを通じてグループ化することで誤りタイプを定め,次に追加訓練前後それぞれの適応先ドメイン誤りを,近い誤りタイプに分類していくことを意図している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4 \section{実験} \label{sec:zikken}\ref{sec:teian}節で述べた分析手法に基づき,追加訓練の効果を調べる実験を行った.本節ではその詳細と分析結果について述べる.以下,\ref{subsec:data}項で利用したデータ,\ref{subsec:syusyukekka}項で係り受け誤りの収集結果について述べ,\ref{subsec:bunnseki}項で係り受け誤りのクラスタリング結果に基づく定量的分析についてまとめ,\ref{subsec:saranarubunnseki}項で,いくつかのクラスタの観察を通じて,追加訓練におけるドメインごとの特徴を分析した結果について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\caption{適応元ドメイン・適応先ドメインの統計}\label{tab:toukei}\input{01table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.1\subsection{利用データ}\label{subsec:data}追加訓練の効果を調べるためのデータとして以下の3種類の係り受けアノテーション付きコーパスを用いた.\begin{itemize}\item京都大学テキストコーパス\cite{kyotocorpus}(以下,新聞記事)\\1995年1月1日から17日までの毎日新聞の記事にアノテーションを付与したもの.\item東京書籍「新編新しい科学(中学1年生,中学2年生)」(以下,理科教科書)\\中学1年生向け,中学2年生向けの理科の教科書にアノテーションを付与したもの.\item特許文書\\高分子化合物に関する特許の実施例の箇所にアノテーションを付与したもの.\end{itemize}これらのうち,新聞記事を適応元ドメイン,理科教科書および特許文書を適応先ドメインとして扱う.それぞれのコーパスの統計情報を表\ref{tab:toukei}に示す.表からわかるように,適応先ドメインの量は適応元ドメインよりも少量(10\%未満)である.また新聞記事や理科教科書と比べると,特許文書の方が文が長いということがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.2\subsection{係り受け誤りの収集結果}\label{subsec:syusyukekka}\ref{subsec:parser}項で述べた解析器を,以下のようにハイパーパラメータを設定して訓練した.入力は形態素の品詞(4レベル)・活用形・活用タイプのそれぞれを20次元の埋め込み層に通したものと,形態素の基本形\footnote{訓練データにおいて出現回数1回以下の基本形はUNKトークンに置き換えた.}を200次元の埋め込み層に通したものを結合した320次元のベクトルの系列とした.形態素層・文節層のBiLSTMは隠れ層が1層300次元のものを用いた.訓練アルゴリズムは学習係数0.01のAdaGradで,ミニバッチサイズは32文,重み減衰係数は$10^{-5}$とした.訓練中の勾配爆発を抑えるため,勾配のノルムは5に制限した.エポック数は最大32エポックだが,各エポックの結果のうちで評価データにおける損失が最も少ないものを最終結果とした.実装にはChainer\cite{tokui2015chainer}を用いた.なお,訓練および誤りの収集いずれにおいても,単語区切り・品詞・文節区切りは正解データのものを用いた.追加訓練では\ref{subsec:syusyu}項で述べたように4分割交差検証の要領で訓練を行ったが,理科教科書と特許文書では分割の方法を変えて訓練した.具体的には理科教科書(および新聞記事の訓練・評価データ)の分割は文単位で行い,特許文書は文書単位で行った.その理由は,同じ特許文書内では,物質の生成手順をパラメータを変えて繰り返す記述など,極めて類似した文が連続することが多く,それらが訓練データと評価データに分かれると正しく汎化性能を評価できないと考えたためである.追加訓練前後の解析器の精度および収集できた係り受け誤りの数を表\ref{tab:syusyukekka}に示す\footnote{表の「文節単位精度」の計算において文末文節は対象外とし,文末から1つ前の文節は対象とした.また「文単位精度」の計算において文節数が1の文は対象外とした.}.理科教科書・特許文書それぞれについて追加訓練の前後を比較すると,文節単位精度が3ポイント以上向上していることから,追加訓練には効果があることが確認できる.また,追加訓練前の理科教科書の文節単位精度と比べて特許文書の文節単位精度は2.5ポイントほど低いことから,特許文書の解析には新聞記事での訓練だけでは不足することが多いと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\vspace{-0.5\Cvs}\caption{解析器の精度および収集できた係り受け誤りの数}\label{tab:syusyukekka}\input{01table03.tex}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.3\subsection{係り受け誤りのクラスタリングと分析}\label{subsec:bunnseki}前項で収集した係り受け誤りを\ref{subsec:syusyu}項で述べた手法で埋め込み表現に変換した.\pagebreakそれらをクラスタ数30として\ref{subsec:clustering}項で述べた手法を用いてクラスタリングした.係り受け誤りをクラスタリングしたものを主成分分析を用いて平面上にプロットした結果を図\ref{fig:news}から図\ref{fig:patent}に示す\footnote{図では見やすさのためクラスタ数10としてクラスタリングした時の分布を示す.小さい点が係り受け誤りを,大きい丸がクラスタ重心を表す.}.以降では,得られたクラスタを用いて定量的分析を行っていく.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3and4\begin{figure}[b]\setlength{\captionwidth}{198pt}\begin{tabular}{cc}\begin{minipage}{198pt}\begin{center}\includegraphics{27-1ia1f3.eps}\end{center}\hangcaption{新聞記事の係り受け誤り埋め込み表現を平面にプロットした図}\label{fig:news}\end{minipage}&\begin{minipage}{198pt}\begin{center}\includegraphics{27-1ia1f4.eps}\end{center}\hangcaption{図\ref{fig:news}のクラスタ集合を3つのまとまりに分割した図}\label{fig:news_app}\end{minipage}\end{tabular}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5and6\begin{figure}[b]\setlength{\captionwidth}{198pt}\begin{tabular}{cc}\begin{minipage}{198pt}\begin{center}\includegraphics{27-1ia1f5.eps}\end{center}\hangcaption{理科教科書(追加訓練前)の係り受け誤り埋め込み表現を平面にプロットした図}\label{fig:notext}\end{minipage}&\begin{minipage}{198pt}\begin{center}\includegraphics{27-1ia1f6.eps}\end{center}\hangcaption{理科教科書(追加訓練後)の係り受け誤り埋め込み表現を平面にプロットした図}\label{fig:text}\end{minipage}\end{tabular}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7and8\begin{figure}[b]\setlength{\captionwidth}{198pt}\begin{tabular}{cc}\begin{minipage}{198pt}\begin{center}\includegraphics{27-1ia1f7.eps}\end{center}\hangcaption{特許文書(追加訓練前)の係り受け誤り埋め込み表現を平面にプロットした図}\label{fig:nopatent}\end{minipage}&\begin{minipage}{198pt}\begin{center}\includegraphics{27-1ia1f8.eps}\end{center}\hangcaption{特許文書(追加訓練後)の係り受け誤り埋め込み表現を平面にプロットした図}\label{fig:patent}\end{minipage}\end{tabular}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[b]\begin{center}\includegraphics{27-1ia1f9.eps}\end{center}\caption{図\ref{fig:news_app}のそれぞれのまとまりに属する各誤りを構成する3つの文節の品詞の組の分布}\label{fig:error_pattern}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.3.1\subsubsection{クラスタ集合の傾向の分析}図\ref{fig:news}を観察すると,図\ref{fig:news_app}のようにいくつかのクラスタをまとめることで,大きく3つの誤りタイプに分割できそうである.以降では左のまとまり(赤)を\mr,中央のまとまり(緑)を\mg,右のまとまり(青)を\mbと呼ぶ.このように3つに分割した群が係り受け誤りの特徴をどのように反映しているか調べるため,それぞれの群の係り受け誤りに対して,<係り文節の最後の単語\footnote{記号は除く.}の品詞,正しい受け文節の最初の単語\footnote{記号,接頭詞は除く.誤って選択した受け文節も同じ.}の品詞,誤って選択した受け文節の最初の単語の品詞>の3つ組を作成し,分布を調べた.その結果を図\ref{fig:error_pattern}に示す\footnote{スペースの都合上,どのまとまりにおいてもまとまり全体の1\%未満しか含まれていなかった3つ組はまとめて「その他」とした.}.\mbは\mr,\mgと大きく異なっており,正しい受け文節と誤った受け文節がともに名詞であるパターンが多かった.\mrと\mgについては似た分布となっているが,\mrは3つ組のうち2つが動詞である誤りが\mgよりも相対的に多くなり,それ以外では\mgより少なくなっているという特徴があった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10\begin{figure}[b]\begin{center}\includegraphics{27-1ia1f10.eps}\end{center}\caption{図\ref{fig:news_app}のそれぞれのまとまりに属する各誤りを構成する文節の読点の有無の分布}\label{fig:error_touten}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.11\begin{figure}[b]\begin{center}\includegraphics{27-1ia1f11.eps}\end{center}\hangcaption{図\ref{fig:news_app}のそれぞれのまとまりに属する各誤りの係り文節〜正しい受け文節/係り文節〜誤った受け文節間距離の分布.ただし,$=1$は距離が1であることを,$\le5$は距離が2--5であることを,$\ge6$は距離が6以上であることを表す.}\label{fig:error_bunsetu_distance}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%他にも係り受け関係に影響を与える要素である読点の有無と文節間距離を調べるため,図\ref{fig:news_app}のそれぞれのまとまりに属する誤りに対し,係り文節/正しい受け文節/誤った受け文節が読点を含んでいるかどうかの3つ組の分布(図\ref{fig:error_touten})および<係り文節から正しい受け文節までの文節間距離,係り文節から誤った受け文節までの文節間距離>の2つ組の分布(図\ref{fig:error_bunsetu_distance})を調べた.\mbは全ての文節に読点が無いパターンが相対的に多く,距離が短い係り受け関係に偏っていた.\mrは\mgと比べると係り文節に読点があるパターンが相対的に多く,距離が6以上の係り受け関係に偏っていた.以上で調べた品詞,読点の有無,および文節間の距離は係り受け誤り埋め込みの分布と完全に対応しているわけではないものの,それらと係り受け誤りの空間内でのまとまりに関連性があったことから,埋め込み表現は係り受け誤りの構文的な特徴をある程度捉えていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.12\begin{figure}[b]\begin{center}\includegraphics{27-1ia1f12.eps}\end{center}\caption{新聞記事・理科教科書・特許文書のそれぞれの誤りについての正規化距離の分布}\label{fig:distance}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.3.2\subsubsection{正規化距離による分析}図\ref{fig:news}から図\ref{fig:patent}を見ると,少なくとも第1,第2主成分のなす平面上では,新聞記事誤りの分布から大きく離れた位置には適応先ドメイン誤りが存在しないことがわかる.理科教科書と特許文書の誤りについて,新聞記事誤りの分布との違いをより詳しく見るため,誤りからそれが属するクラスタの重心までの正規化距離のヒストグラムを作成した.ここでいう誤り$e$の正規化距離とは,誤り$e$の所属するクラスタを$C$,$C$の重心を$c$,$C$に属する新聞記事誤りの集合を$N$として以下のように計算される値である.\begin{align}\frac{||e-c||}{\sqrt{\frac{\sum_{n\inN}||n-c||^2}{|N|}}}\end{align}すなわち誤りから最寄りのクラスタ重心までの距離を,クラスタを等方的正規分布からの標本と見たときの分散の平方根で正規化したものである.その結果を図\ref{fig:distance}に示す.また,それぞれのドメインについての正規化距離の平均を表\ref{tab:distance}に示す.この図や表から新聞記事誤りと比べて理科教科書誤りは重心に近い傾向が,特許文書誤りは重心から遠い位置($\ge1.2$)にも存在する傾向があり,ドメインごとに特徴があることが確認できる.また追加訓練前後を比較すると,理科教科書誤りは訓練によってより重心に近い側に偏る傾向があり,特許文書誤りは訓練によってより重心から遠い側に偏る傾向があることがわかる.しかし,どちらの適応先ドメインでも,かつ,追加訓練の前後いずれにおいても,誤りからクラスタ重心までの距離は新聞記事誤りに比べて極端に遠いものが多い訳ではないことが分かる.このことから,適応先ドメインにおける誤りは,解析器の内部状態が新聞記事上では起こらなかったような状態(いわば解析器にとって「未知の内部状態」)になったために起こったわけではなく,新聞テキストと適応先ドメインのテキストは,解析器内の中間表現としては類似しているが,解析器が取るべき正しいアクションが異なっているために誤りが生じていることが示唆される.よって,新聞記事誤りを基準として適応先ドメイン誤りを分類することで,おおまかには構造的に類似した誤りのクラスタが得られると予想される.さらに詳細には,「解析器の視点」からは類似しているように見えるものの,本来は新聞と適応先ドメインで異なる特徴をもつ誤りのグループが見いだせる場合があると予想される.実際に\S\ref{subsubsec:cluster13}でそのような例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\caption{新聞記事・理科教科書・特許文書のそれぞれの正規化距離の平均}\label{tab:distance}\input{01table04.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.3.3\subsubsection{適応先ドメイン比による分析}理科教科書・特許文書の各クラスタを定量的に分析するための指標として,適応先ドメイン誤り比を定義する.これはそれぞれのクラスタに対し式(\ref{eq:tekiousakiwariai})で定義される値で,この値が大きいほど適応先ドメインに固有の誤りタイプだと考えられる.適応元ドメイン誤りの数で割る理由は,どのドメインにも大量に存在する誤りタイプではなく,適応先ドメインに特徴的に多い誤りタイプを見るためには基準となるドメイン(適応元ドメイン)で正規化したほうが良いためである.\begin{align}適応先ドメイン比=\frac{\#適応先ドメインから得られた誤り}{\#適応元ドメインから得られた誤り}\label{eq:tekiousakiwariai}\end{align}理科教科書・特許文書それぞれについての適応先ドメイン比を図\ref{fig:text_property},図\ref{fig:patent_property}に示す.追加訓練前後の適応先ドメイン比を比べると,ほとんどすべてのドメインで追加訓練を行うことで減少していることがわかる.しかし減少量はクラスタごとに異なるので,改善しやすい係り受け誤りと改善しにくい係り受け誤りがあることも確認できる.また理科教科書と特許文書で適応先ドメイン比が高いクラスタが異なっていることからは,ドメインごとに誤りの分布に特徴があることが確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.13\begin{figure}[t]\begin{center}\includegraphics{27-1ia1f13.eps}\end{center}\caption{理科教科書解析誤りの各クラスタにおける適応先ドメイン比}\label{fig:text_property}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.14\begin{figure}[t]\begin{center}\includegraphics{27-1ia1f14.eps}\end{center}\caption{特許文書解析誤りの各クラスタにおける適応先ドメイン比}\label{fig:patent_property}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.3.4\subsubsection{追加訓練の前後における各クラスタに属する誤りの数の比較}最後に理科教科書,特許文書の各クラスタについて追加訓練で変化しなかった/解消された/新たに発生した誤りの数を表\ref{tab:error_move}に示す\footnote{(追加訓練前の誤り数)=(変化しなかった誤り数)+(解消された誤り数),(追加訓練後の誤り数)=(変化しなかった誤り数)+(新たに発生した誤り数)と計算できる.}.新たに発生した誤りの数と変化しなかった誤りの数の比はどちらのドメインにおいてもほぼ{$1:2$}であるが,新たに発生した誤りの数と解消された誤りの数の比はドメインごとに異なっていることがわかる(理科教科書{$\rightarrow1:2.37$},特許文書{$\rightarrow1:1.85$})\footnote{この差は,ドメインの性質の違いと追加訓練に用いたデータ量の違いの効果が混合して生ずるものと考えられる.それぞれの効果の内訳を調べることは今後の課題とする.}.表中で特に多くの誤りが解消されたクラスタ13に属する理科教科書誤りどうしは,互いの類似性が高く,頻出する構文だと予想される.これは一般に機械学習は似通っていて,かつ大量に存在する誤りをより積極的に解消する傾向があるためである.実際にそうであるかは\S\ref{subsubsec:cluster13}で検討する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\caption{追加訓練による各クラスタに属する誤りの数の変化}\label{tab:error_move}\input{01table05.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.4\subsection{クラスタリング結果に基づくエラー分析}\label{subsec:saranarubunnseki}この項では前項で作成したクラスタのうち,クラスタ5,10,13,24についてさらに詳しく分析を行う.これらのクラスタを選択した理由は,クラスタ5やクラスタ13は理科教科書において適応先ドメイン比が大きく減少するという特徴を,クラスタ10は理科教科書と特許文書のいずれにおいても適応先ドメイン比があまり減少しないという特徴を,クラスタ24はどちらのドメインにおいても適応先ドメイン比が減少するという特徴を持っていたためである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.4.1\subsubsection{クラスタ5(理科教科書で大きくエラーが減少)}クラスタ5について,その誤り例を以下に示す.ただし\dbun{…}は係り文節を,\chbun{…}は正しい受け文節を,\whbun{…}はシステムが誤って選択した受け文節を表す.\vspace{0.5\Cvs}\stringquote{新聞記事-5:\\この/ため/ポストが/見つかるまでの/\dbun{間、}/研究生などと/して/\\大学に/\chbun{残る}/人が/\whbun{少なくない。}\\理科教科書-5:\\また,/震度の/\dbun{分布も,}/震央を/中心に/した/同心円状に/\whbun{なる}/ことが/\chbun{多い。}\\特許文書-5:\\表1〜/表3から、/実施例/1〜6の/\dbun{熱可塑性樹脂組成物は、}/\\長期にわたって/優れた/耐加水分解性および/耐熱性を/\chbun{有する}/ことが/\whbun{分かった。}}\vspace{0.5\Cvs}\noindentクラスタ5に属する誤りは,正しい受け文節と誤った受け文節がともに用言で,文中で先に出現する文節が連体修飾節であるものが多く見られた.この場合,係り文節の意味的に係る範囲が連体修飾節内で収まっているならば連体修飾節の末尾文節を受け文節とすべきだが,収まっていないならばより後ろの文節を受け文節とする必要がある.クラスタ5に属する誤りの多くはその判定を誤った結果発生したものだと考えられる.例えば理科教科書では,「…/こと+助詞(が,は等)/(わかる|多い|ある|できる)」という形の文が2,460文中274文と頻出する.この文型では文中で前方に出現するガ格文節が「こと」の直前の連体修飾節と文末文節のどちらに係るのか,一般には文脈や語彙の情報から判定する必要がある.一方,理科教科書の文であるという前提があれば,「Xは/…/Vスル/ことが/わかる」のように文末の用言によって正しい受け文節(「わかる」)がほぼ決まるものもある.この「…/こと+助詞/用言」という文型において判定を誤ったパターンは追加訓練前は43個であったが,22個解消し5個新たに発生することにより追加訓練後は26個になった.表\ref{tab:error_move}からわかるように,理科教科書で追加訓練によって解消されたクラスタ5の誤りは計123個あり,上記の「…/こと+助詞/用言」という文型以外のものも含まれる.他の誤りも同様に,一般的には文脈や語彙の情報を必要とする連体修飾節と後続の用言の間での受け文節の選択において,被修飾体言(上記の文型における「こと」)と後続の用言の組合せなどを手掛かりに,ドメイン特有の傾向が学習されたものと考えられる.また,他の要因の可能性として受け文節の曖昧さの問題も挙げられる.例えば,クラスタ5に属する誤りの中には以下のようにアノテーションエラーあるいは本質的に判断が難しいと思われる例も存在した.\vspace{0.5\Cvs}\stringquote{A.\\これに対して,/光を/当てた/\dbun{ときに}/植物に/\whbun{とりこまれる}/気体も/\chbun{ある。}\\B.\\その/\dbun{ほかに}/体外へ/\whbun{排出される}/物の/ひとつとして/尿が/\chbun{ある。}}\vspace{0.5\Cvs}\noindentこのような場合に,理科教科書のアノテーションでは後方の用言が受け文節として選ばれる傾向が見受けられ,これが追加訓練の結果に影響を及ぼしている可能性もある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.4.2\subsubsection{クラスタ10(理科教科書・特許文書ともに誤りが減少しない)}クラスタ10について,その例を以下に示す.\vspace{0.5\Cvs}\stringquote{新聞記事-10:\\それに/より/貸手、/借り手および/\dbun{天下り経営者や}/\chbun{行政の}/\whbun{責任が}/明確になり、/\\二度と/失敗しない/ための/数々の/教訓が/国民全体に/共有されるはずだ。\\理科教科書-10:\\ある/\dbun{温度の}/\whbun{1m$^3$の}/\chbun{空気に}/ふくまれる/水蒸気の/質量が,/\\その/温度での/飽和水蒸気量に対して/どれくらいの/割合かを/百分率で/表す。\\特許文書-10:\\上記の/粉体/100mgを/内径/\dbun{10.00mmの}/\chbun{円形の}/\whbun{ダイスに}/充填し、/\\ダイス内部の/気圧を/減圧した/上で、/5t/cm$^2$の/荷重を/かけ、/\\圧着温度/140℃で/1分間/圧着した。}\vspace{0.5\Cvs}\noindentクラスタ10に属する誤りは,係り文節が体言に接続する句であり,正しい受け文節と誤った受け文節が「AのB」のように両方とも体言句かつそれらが係り受け関係になっているという特徴を持つものが多かった.このタイプはさらに(a)並列関係の接続先の判断誤りと(b)連体の「の」の接続先の判断誤りに分けられる.例えば,新聞記事-10は(a)の誤りで,「天下り経営者や」と「責任が」は語句の意味を考えなければ接続できるが,常識的には並列関係にならないと考えられる.理科教科書-10は(b)の誤りで,「温度」と「1m$^3$」はどちらも空気の属性であり,いずれも「空気」を修飾しうるという知識があれば正しく判定できる.しかし特許文書-10において「10.00mm」は「円形」と「ダイス」どちらの属性としても考えられるので,文脈に依存する判定を行う必要もある.いずれのタイプの判断も意味的あるいは語彙レベルの知識を要し,少量の追加訓練データからはそのような知識は得られなかったため,誤りは大きくは改善しなかったと考えられる.特許文書におけるクラスタ10の誤りが理科教科書より多かった理由は,このタイプの構文の出現回数が多かったためだと推測される.この構文は一文に多くの内容を含めることができる一方,使いすぎると文の読みにくさにつながると考えられる.理科教科書では対象読者を考慮し「AのBのC」のような連体修飾の連続を控えているが,特許文書では一文で多くのことを表すために連体修飾句を多用したと考えられる.この仮説を検証するため,新聞記事・理科教科書・特許文書を正しく解析するときに,受け文節が体言句\footnote{サ変接続以外の名詞で始まる文節とする.}かつ受け文節候補の中に体言句が2つ以上存在するという状況(係り$\rightarrow$体言vs体言)の回数をカウントした.その結果を表\ref{tab:taigencount}に示す.この結果から,特許文書では複数の体言句の中から正しい受け文節を選択しなければならない場合が多く,その結果誤りも増えたと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\caption{(係り$\rightarrow$体言vs体言)状態での判定の回数と全判定回数}\label{tab:taigencount}\input{01table06.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.4.3\subsubsection{クラスタ13(理科教科書で大きくエラーが減少)}\label{subsubsec:cluster13}クラスタ13について,その例を以下に示す.\vspace{0.5\Cvs}\stringquote{新聞記事-13:\\立証負担が/軽く、/証拠も/そろえやすい/\dbun{ことから}/東京地検は/\\「製造の/企て」に/\chbun{絞り込んだと}/\whbun{聞く。}\\理科教科書-13:\\ドルトンは,/19世紀の/\dbun{初めごろ,}/物質は/それ以上/分割する/ことの/できない/\\小さな/粒子で/\whbun{できていると}/\chbun{考えた。}}\vspace{0.5\Cvs}\noindentクラスタ13に属する誤りは正しい受け文節と誤った受け文節の一方が引用の助詞を含む「〜と」という形の文節で,他方がそれに後続する用言である場合が多かった.評価データにおけるこのパターンの出現数を,正しい受け文節が(a)引用の「と」を含む文節であるか,(b)用言文節かに分類しつつ集計した.その結果を表\ref{tab:cluster13plus}に示す.新聞記事では正しい受け文節が引用の「と」を含む文節である回数が用言文節である回数の2倍弱であるが,理科教科書では8割以上の場合に正しい受け文節が用言文節となっている.これは,理科教科書には用語の定義を行う「Xを/Xは+Yと+いう」などの形の文が多く含まれるためであり,「Xを/Xは」の受け文節が用言文節に大きく偏っていることを追加訓練で学習した結果,図\ref{fig:text_property}のように係り受け誤りが大きく減少したと考えられる.また特許文書においてはそもそもこの文型の出現数が少なかったことが,図\ref{fig:patent_property}のクラスタ13の適応先ドメイン比が小さい理由だということがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\hangcaption{評価データにおける「…/係り文節/…/…と/用言」という文型を含む文の数(出現数)と正しい受け文節}\label{tab:cluster13plus}\input{01table07.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.4.4\subsubsection{クラスタ24(理科教科書,特許文書ともにエラーが減少)}クラスタ24について,その例を以下に示す.\vspace{0.5\Cvs}\stringquote{新聞記事-24:\\ところが/阪神大震災では/一番/重要な/情報収集が/\dbun{遅れ、}/自衛隊の/初動問題に/\\\whbun{代表されるように}/首相官邸だけでなく/政府全体の/対応が/後手に/\chbun{回った。}\\理科教科書-24:\\炭酸水素ナトリウムを/加熱すると,/3種類の/物質に/\dbun{分かれ,}/\\酸化銀を/\whbun{加熱すると,}/2種類の/物質に/\chbun{分かれた。}\\特許文書-24:\\次いで、/圧力を/常圧から/13.3kPaに/\dbun{し、}/加熱槽温度を/190℃まで/1時間で/\\\chbun{上昇させながら、}/発生する/フェノールを/反応容器外へ/\whbun{抜き出した。}}\vspace{0.5\Cvs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.15\begin{figure}[b]\begin{center}\includegraphics{27-1ia1f15.eps}\end{center}\caption{3つの節が並んでいるときの係り受け解析の誤り方}\label{fig:cluster24plus}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%クラスタ24に属する誤りは係り文節・正しい受け文節・誤った受け文節のすべてが節の末尾の用言文節であるというパターンが多かった.3つの節が並んでいるとき,係り受け誤りの構造には図\ref{fig:cluster24plus}の(a),(b)の2種類が存在する.(a)の構造は本来は単純に並列された構造を出力すべきだが,階層的な構造を出力したことを表し,(b)の構造は先頭の節が後ろの2つの節の両方と意味的に関係を持つため階層的な構造を出力すべきだが,単純に並列された構造を出力したことを表す\footnote{複数の文節に意味的に係る場合はその中で最も右側の文節を受け文節とすることが京都大学テキストコーパスのアノテーション基準に記述されており,理科教科書および特許文書のアノテーションでもこれに従っている.}.(a),(b)のような誤りを回避するには,本来であれば節同士の関係性を認識する必要がある.節同士の関係を認識することは意味的な判断を要する比較的難しいタスクだと考えられるが,今回使用した理科教科書・特許文書のどちらも係り受け誤りが減少している.その理由はドメインごとの構文の出現分布の偏りにあると推測できる.そこで実際にクラスタ24に属する係り受け誤りについて誤り方で分類し,その出現数を調べた.その結果を表\ref{tab:cluster24plus}に示す.ただし誤り方が「並列構造認識失敗」とは図{\ref{fig:cluster24plus}における}(a)のタイプの誤り方を表し,「階層構造認識失敗」は(b)のタイプの誤り方を表す.理科教科書・特許文書の共通点として,一方のパターンに偏っていた係り受け誤りが追加訓練を行うことで改善されているということが挙げられる.このことから,追加訓練の主な効果の一つは,このような誤り方の偏りを減らすことであると示唆される.ところで,理科教科書と特許文書では偏り方が反対になっている.追加訓練前において理科教科書は誤り方が「階層構造認識失敗」である誤り(例:理科教科書-24)が多い.その理由は,理科教科書は複数の関連したことを述べるために階層的な並列構造を取ることが多いが,階層的と認識できなかったことが多かったからだと考えられる.それとは対照的に追加訓練前において特許文書は誤り方が「並列構造認識失敗」である誤り(例:特許文書-24)が多い.その理由は,特許文書は物質の生成手順など手続きを述べた文が多く,単純に並列接続した構文が多いが,並列的と認識できなかったことが多かったからだと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\caption{クラスタ24に属する係り受け誤りにおける誤り方の分布}\label{tab:cluster24plus}\input{01table08.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%4.4.5\subsubsection{共通点を見出すことができなかったクラスタ}クラスタ2に属する誤りの例を以下に示す.\vspace{0.5\Cvs}\stringquote{新聞記事-2\\FRBは/「穏やかな/調整」と/しているが、/金融政策の/基調は、/一年以上/続いた/\\予防的引き締めから/\dbun{緩和へ}/\whbun{大きく}/舵が/\chbun{切り替えられたと}/いえよう。\\\newpage理科教科書-2\\これまでに,/分解や/化合,/酸化や/還元などの/化学変化について/学習したが,/\\化学変化の/なかには/加熱したり,/電流を/流したりしなくても,/\\\dbun{図1のように,}/溶液を/\whbun{混ぜ合わせる}/ことで,/反応が/\chbun{起こる}/ものも/ある。\\特許文書-2\\また、/40mlビーカーに/酸化チタン/(TiO$_2$)と/酸化セリウム/(CeO$_2$)と/\\ジクロロメタン/20ml/入れて、/\\酸化チタンが/ポリブタジエンに対して/20wt%に/なると共に/\\酸化セリウムを/\dbun{ポリブタジエンに対して}/\whbun{50wt%に}/\chbun{なるように}/調製した。}\vspace{0.5\Cvs}\noindentクラスタ2は理科教科書・特許文書の両方について適応先ドメイン比が減少しないという特徴を持っているが,このクラスタに属する誤りの共通点を見出すことはできなかった.そもそも追加訓練が効果をもたらさないクラスタには少なくとも2種類あると考えられる.ひとつはクラスタ10の「AのBのC」の構造のようなタイプで,意味を考えないとどうしても正しくできない例が一定数残り,追加訓練の効果が小さい場合である.もう一つはこのクラスタ2のように,おそらく,そもそも類似の例が少なく,様々な誤りが埋め込み上は近くなってしまっている場合である.前者は人間が見れば共通点を見出すことができるが,後者は人間が見ても共通点を見出すことができない.後者のように,低頻度かつ多種の誤りが混じっている場合には,本研究でのクラスタリングに基づく分析手法を通じて誤りの特徴を捉えることは難しいと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%5 \section{おわりに} \label{sec:owarini}ドメイン適応問題は現実の様々な場面に出現するもので,機械学習に基づく言語処理技術の実用において重要な課題である.ドメイン適応問題の解決法の一つに追加訓練があるが,「なぜ」うまくいくのか,その理由を調べた研究は少なく明確には解明されていなかった.本研究では日本語係り受け解析に焦点を当て,追加訓練の影響の俯瞰的な調査を通して,ドメイン適応問題に対する知見を得るための分析を行った.本研究における分析手法の特徴は二つあり,一つは解析器の内部状態を用いることで「解析器の視点から」分析を行えること,もう一つはドメインの特徴を探す際に,クラスタリングを用いることで,詳細に調べるべき誤りの集合を発見しやすくなり,効率的に分析を行えることである.本研究では,新聞記事を適応元ドメイン,理科教科書・特許文書を適応先ドメインとする実験を行った.まず,得られたクラスタに対し正規化距離や適応先ドメイン比などの指標を用いた定量的分析を行うことで,クラスタが係り受け誤りの構造をある程度反映していること,ドメインごとに誤りが固有の分布を持つこと,およびクラスタによって追加訓練の効果に差があることなどがわかった.これらによって,クラスタに基づく分析が,適応先ドメインの異なりによる精度低下の理由の違いや,分野適応の効果を誤りの構造に即して理解するための手段として妥当であることの前提が確認できた.次に,いくつかのクラスタについてそのクラスタを構成する誤りを観察したところ,クラスタ10,13などのように誤りの共通点を見出すことができたクラスタがあった.そのようなクラスタについて仮説を立て検証を行うことで,追加訓練による適応先ドメイン比の変化などの特徴を説明することができた.さらに,本来は意味を考慮しなければ正しく解析できない文型でも,構造の出現頻度に偏りがあれば学習されること,および出現頻度に偏りが生まれる原因には,ドメインに頻出する定型句(クラスタ13:「〜を〜という」)や,ドメインごとの文体の異なり(クラスタ24:並列的vs階層的)などがあることがわかった.これらの分析結果から,ドメインが異なることによって引き起こされる精度低下は,解析器の視点では似た形に見える文型でも,ドメインによって正解となる構造の出現頻度の偏り方が異なることが大きな原因であることが示唆される.適応元ドメインデータをいくら増やしても,同じドメインである限り正解の構造の頻度の偏り方は変化しないため,上で述べたような適応先ドメインに特徴的な構文は同じように誤り続ける.したがって適応元ドメインのデータのみで訓練された解析器が,適応先ドメインに特徴的な構文を全て正しく解析することは難しいことがわかる.逆に言えば,適応先ドメインデータを用いた追加訓練の主要な効果は,このドメイン固有の頻度の偏り方を学習することにあると考えられる.その意味では適応先ドメインを何らかの手法で近似して訓練を行う手法は,適応先ドメイン固有の構文の頻度を相対的に増やしている点で正しいアプローチと言える.しかし,適応元ドメインと適応先ドメインで正しい構造の分布が大きく異なる文型に対しては,訓練例の重みを変えるなどの手法によるドメイン適応技術には限界があるものと考えられる.今回用いた手法は,ドメイン適応技術の限界となりうる,表層的には類似しているがドメインごとに固有な構造の分布を持つ文型を見つける手がかりを得るためにも有用だと考えられる.さらに,今後の展望として機械で自動的にクラスタの特徴を発見できれば,クラスタを用いたアクティブラーニングへの応用が考えられる.一方で,本研究における分析手法を用いても,類似例が少なく解析器自体がうまく埋め込むことができない誤りが集まったと思しきクラスタなど,共通点を見出すことができず分析を行えなかったクラスタも存在していた.頻度が小さい多種の誤りから共通点を見つけ出すことは本研究の今後の課題である.その他,誤りではなく正しかった例も用いた調査・分析や,得られた知見を基にしたドメイン適応技術の開発が今後の課題として挙げられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究では,JSPS科研費16H01819で開発された教科書アノテーションデータの提供を受けた.ここに記して謝意を表する.また本研究はJST,さきがけ,JPMJPR175Aの支援を受けたものであり,特許文書に関する分析は名古屋大学と富士通研究所の共同研究の成果である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{01refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{原拓也}{%2018年名古屋大学工学部電気電子・情報工学科卒業.同年,名古屋大学工学研究科博士前期課程に進学.}\bioauthor{松崎拓也}{%2002年東京大学工学部システム創成学科卒業.2007年同大大学院情報理工学系研究科にて博士号(情報理工学)取得.同大学助教,国立情報学研究所特任准教授,名古屋大学准教授を経て,2019年より東京理科大学理学部准教授.言語処理学会,人工知能学会,情報処理学会各会員.}\bioauthor{横野光}{%2003年岡山大学工学部情報工学科卒業.2008年同大大学院自然科学研究科産業創成工学専攻単位取得退学.東京工業大学精密工学研究所研究員,国立情報学研究所特任研究員,同研究所特任助教を経て,2016年より株式会社富士通研究所研究員.博士(工学).意味解析の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{佐藤理史}{%1988年京都大学大学院工学研究科博士後期課程電気工学第二専攻研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学助教授,京都大学大学院情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科教授.工学博士.言語処理学会,人工知能学会,情報処理学会,日本認知科学会,ACM各会員.}\end{biography}\biodate\end{document}
V13N03-04
\section{はじめに} \label{sec:intro}スライドを用いたプレゼンテーションは,意見を人々に伝えるのに大変効果的であり,学会やビジネスといった様々な場面において利用されている.近年,PowerPointやKeynoteといったプレゼンテーションスライドの作成支援をするソフトが開発・整備されてきているが,一からスライドを作成することは依然として大変な作業である.そこで,科学技術論文や新聞記事からプレゼンテーションスライドを自動(または半自動)で生成する手法が研究されている.Utiyamaらは,GDAタグで意味情報・文章構造がタグ付けされた新聞記事を入力としてプレゼンテーションスライドを自動生成している\cite{Utiyama99}.また,安村らは,科学技術論文の\TeXソースを入力として,プレゼンテーション作成を支援するソフトウェアを開発している\cite{Yasumura03j}.しかし,いずれの研究においても,入力テキストに文章構造がタグ付けされている必要があり,入力テキストを用意することにコストがかかってしまう.\begin{figure}[t]\fbox{\begin{minipage}[t]{\hsize}大阪と神戸を結ぶJR神戸線,阪急電鉄神戸線,阪神電鉄本線の3線の不通により,一日45万人,ラッシュ時最大1時間12万人の足が奪われた.JR西日本東海道・福知山・山陽線,阪急宝塚・今津・伊丹線,神戸電鉄有馬線の不通区間については,震災直後から代替バスによる輸送が行われた.国道2号線が開通した1月23日から,同国道と山手幹線を使って,大阪〜神戸間の代替バス輸送が実施された.1月28日からは,国道2号,43号線に代替バス優先レーンが設置され,効率的・円滑な運行が確保された.\end{minipage}}\caption{入力テキストの例}\label{fig:text_example}\end{figure}\begin{figure}[t]\begin{center}\begin{minipage}[t]{\hsize}\begin{shadebox}\vspace{2mm}\begin{center}鉄道の復旧\end{center}\begin{itemize}\item大阪と神戸を結ぶJR神戸線,阪急電鉄神戸線,阪神電鉄本線の3線の不通\begin{itemize}\item一日45万人,ラッシュ時最大1時間12万人の足が奪われた\end{itemize}\itemJR西日本東海道・福知山・山陽線,阪急宝塚・今津・伊丹線,神戸電鉄有馬線の不通区間\begin{itemize}\item震災直後から\begin{itemize}\item代替バスによる輸送\end{itemize}\item国道2号線が開通した1月23日から\begin{itemize}\item同国道と山手幹線を使って,大阪〜神戸間の代替バス輸送が実施\end{itemize}\item1月28日から\begin{itemize}\item国道2号,43号線に代替バス優先レーンが設置され,効率的・円滑な運行が確保\end{itemize}\end{itemize}\end{itemize}\vspace{2mm}\end{shadebox}\end{minipage}\end{center}\caption{自動生成されたスライドの例}\label{fig:slide_example}\end{figure}本稿では,生テキストからスライドを自動生成する手法を提案する.入力テキストの例を図\ref{fig:text_example},それから自動生成されたスライドの例を図\ref{fig:slide_example}\,に示す.本稿で生成するスライドは,入力テキストから抽出したテキストの箇条書きから構成される.箇条書きを使うことによって,テキストの構造を視覚的に訴えることができる.例えば,インデントが同じ要素を並べることで並列/対比関係を表わすことや,インデントを下げることによって詳細な内容を表わすことなどといったことが可能となる.従って,生成するスライドにおいて,箇条書きに適切なインデントを与えるには,入力テキストにおける,対比/並列関係や詳細化関係などといった文または節間の関係を解析する必要がある.本稿では,入力テキストの談話構造を解析し,入力テキストから抽出・整形されたテキストを箇条書きにし,そのインデントを入力テキストの談話構造に基づいて決定することによりスライドを生成する.生成されたスライドは入力テキストに比べて見やすいものにすることができる.特に,テキストに大きな並列や対比の構造があると,見やすいスライドを生成することができる.図\ref{fig:slide_example}\,の例では,「震災直後から」,「国道2号線が開通した1月23日から」,「1月28日から」の対比の関係が解析され,それらが同じインデントで表示されることにより見やすいスライドが生成されている.また,図\ref{fig:slide_example}\,の例の「震災直後から」と「代替バスによる輸送」のように,各文から主題を取り出し,主題部と非主題部を分けて出力することにより,スライドを見やすくしている.特に対比関係の場合,何が対比されているのかが明確になる.本稿で提案するスライド生成の手法の概要を以下に示す.\begin{enumerate}\item入力文をJUMAN/KNPで形態素解析,構文解析,格解析する.\item入力文を談話構造解析の基本単位である節に分割し,表層表現に基づいて談話構造解析を行なう.\item入力文から主題部・非主題部を抽出し,不要部分の削除,文末の整形を行なう.\item談話構造解析結果に基づき,抽出した主題部・非主題部を配置することによりスライドを生成する.\end{enumerate}また,我々の手法は,プレゼンテーションスライドの作成支援を行なうだけでなく,自動プレゼンテーションを生成することができる.すなわち,テキストを入力とし,自動生成したスライドを提示しながら,テキストを音声合成で読み上げることにより,自動でプレゼンテーションを行なう.我々はこのシステムのことを,「text-to-presentationシステム」と呼んでいる(図\ref{fig:presentation_system}).難解な語や長い複合語は音声合成の入力に適しているとはいえないので,Kajiらの言い換え手法\cite{Kaji02,Kaji04}で書き言葉を話し言葉に自動変換してから音声合成に入力することにより,音声合成の不自然さを低減する.\begin{figure*}[t]\begin{center}\includegraphics[scale=0.55]{ttps-j.eps}\caption{text-to-presentationシステム}\label{fig:presentation_system}\end{center}\end{figure*}本稿の構成は以下のようになっている.\ref{sec:ds_analysis}\,章で談話構造解析について述べ,\ref{sec:topic_extract}\,章で入力テキストからスライドに表示するテキストを抽出する方法について述べ,\ref{sec:output_slide}\,章でスライドの生成方法を述べる.そして,\ref{sec:evaluation}\,章で実装したtext-to-presentationシステムと,自動スライド生成の実験の結果を報告する.\ref{sec:related_work}\,章で関連研究について述べ,\ref{sec:conclusion}\,章でまとめとする. \section{談話構造解析} \label{sec:ds_analysis}この章では,テキストの談話構造を解析する手法を述べる.まず,談話構造のモデルを説明し,次に談話構造を解析する手順について説明する.\subsection{談話構造のモデル}\label{subsec:ds_model}談話構造を図\ref{fig:discourse_structure}\,に示すようなものにモデル化した.図において,矢印,ラベルはそれぞれ,文(S)または節(C)の接続,結束関係を意味する.このモデルでは,初期状態として初期節点を設けており,文が初期節点に接続する時の結束関係を``初期化''とし,この文から新しい話題が始まることを意味する.\begin{figure*}[t]\begin{center}\includegraphics[scale=.48]{ds_model-j.eps}\caption{談話構造のモデル}\label{fig:discourse_structure}\end{center}\end{figure*}節と文を談話構造の基本単位とし,以下にあげる二種の結束関係を考える.どのような結束関係を考えるかは研究者によって異なるが,スライドを自動生成するためにはこれらで十分であると考えた.\begin{enumerate}\item一文内における節間の関係(4種類)\begin{quote}並列,対比,順接,逆接\end{quote}\item二文間の関係(11種類)\begin{quote}並列,対比,理由,条件,主題連鎖,焦点主題連鎖,詳細化,理由,原因結果,例提示,質問応答\end{quote}\end{enumerate}\vspace{5mm}次節から,談話構造解析について述べる.解析の手順は\cite{Kurohashi94j}に基づいている.解析は入力文一文ずつ行ない,談話構造を逐次的に構築する.まず,入力文を節に分割し,節間の関係を解析する.次に,すでに入力した文の中で,入力文と最も関連する文とその間の結束関係を様々な手がかりをもとに決定する.図\ref{fig:discourse_structure}\,の例は,1文目から順番に談話構造を解析していき,4文目までの構造が決定され,5文目の解析を行なっている様子を示しており,様々な文・結束関係の確信度を計算した結果,最も高い確信度を得た4文目と詳細化の関係で接続すると解析されている.\subsection{主題属性の付与}\label{subsec:topic_feature}まず,入力文をJUMANで形態素解析,KNPで構文・格解析を行なう.その後,\ref{subsec:dpnd_in_s}\,節で述べる対比関係の抽出,\ref{subsec:relation_two_sentences}\,節で述べる主題・焦点の抽出,\ref{sec:topic_extract}\,章で述べる主題部・非主題部の抽出のために,あらかじめ,主題となりうる文節に主題属性を付与しておく.以下にあげるようなパターンを満たす文節に主題属性を付与する.パターンは形態素を単位に記述し,入力文の形態素解析結果と照合する.\begin{itemize}\item延焼速度\Underline{は},...\itemインナーシティ\Underline{では},...\item出火原因の判明した火災\Underline{において},...\item3線の不通\Underline{により},...\end{itemize}また,以下のパターンの場合は〜の部分に主題属性を付与する.\begin{quote}…\{する/した\}\{の/とき\}は〜\{だ/になる\}\end{quote}以下の例では,「安否情報など」に主題属性を付与する.\ex.震災直後に被災者が必要と\Underline{したのは},家族や友人・知人の消息に関する安否情報など\underline{\underline{だった}}.なお,ここで付与した主題属性を利用して,\ref{subsec:dpnd_in_s}\,節や\ref{subsec:relation_two_sentences}\,節で対比・並列関係の解析を行なうが,関係を解析した結果,新たに主題属性が付与される場合がある.\subsection{入力文の節への分割}\label{subsec:divideintonodes}談話構造において,何をその基本単位とするかは研究者によって様々な定義がなされてきた.\cite{Polanyi88,Kurohashi94j}では文,\cite{Longacre83}では節,\cite{Grosz86,Marcu99a,Marcu99b}では独自に定義された単位(clause-likeunit)が談話構造の基本単位として採用されている.本研究では,スライドに配置する箇条書きが適切な長さとなるように,節に分割する基準を,南\cite{Minami93}の従属節の分類に応じて以下のように設定した\footnote{本論文では,一つの述語からなるまとまりではなく,ここで定義したものを節と呼ぶことにする.}.なお,節は談話構造解析の基本単位であると同時に,\ref{sec:topic_extract}\,章で説明する主題部・非主題部の抽出の基本単位でもある.\begin{figure*}[t]\begin{center}\includegraphics[scale=.49]{clause-j.eps}\caption{文の節への分割}\label{fig:discourse_unit}\end{center}\end{figure*}\begin{description}\item[レベルC](例:〜が,〜けれども):必ず分割する\item[レベルB](例:〜て,〜し):前後の文節列が類似している場合,または,節の文字数が閾\linebreak[4]値\footnote{この閾値はスライドの横幅とフォントのサイズによって決定される.}以上の場合に分割する\item[レベルA](例:〜ながら,〜つつ):分割しない\end{description}レベルBにおける節の分割において利用している文節列の類似度は,KNPで並列構造を検出するために計算している任意の2つの文節列の類似度を用いる.任意の2つの文節列の類似度計算は,まず,あらゆる2文節の類似度を語の一致,品詞の一致,シソーラス\cite{NTT}による類似度などにより計算し,その上で,DPマッチングでそれらの文節間の類似度を組み合わせることにより行なわれる\cite{KNP94}.\ref{ex:koube-level}\,の例では,「達したが」のレベルがCなので節に分割し,\ref{ex:hyakunin-level}\,の例では「減り」のレベルがBで,前後の文節列が類似しているので節に分割する.\ref{ex:shinsai-level}\,の例では,前後の文節列が類似していないので,「なく」で分割せず,「迫られて」もレベルがAなので分割を行なわない.\ex.[神戸市には,他都市,業界等からの仮設トイレ支援が約3,000基に\Underline{達したが,}$_{レベルC}$][受入れのための仮置き場の確保が大きな課題となった.]\label{ex:koube-level}\ex.[100人に1基行き渡った段階で設置についての苦情はかなり\Underline{減り,}$_{レベルB}$][75人に1基達成できた段階では苦情が殆どなくなった.]\label{ex:hyakunin-level}\ex.[震災時の環境保全については事前の具体的な対応策等が\Underline{なく,}$_{レベルB}$必要に\Underline{迫られて}$_{レベルA}$進めざるを得なかった.]\label{ex:shinsai-level}\subsection{一文内の節間の関係の解析}\label{subsec:dpnd_in_s}入力文を節に分割した後,一文内の節間の結束関係を求める.まず,各節の親の節を構文解析結果に基づいて決定する.すなわち,各節の親を,節の最終文節の係り先の文節を含む節とする.次に,節間の結束関係を以下の基準で決定する.\begin{itemize}\item二節が類似している場合\begin{itemize}\item並列\item対比\end{itemize}\item類似していない場合\begin{itemize}\item順接(〜て,(連用形))\item逆接(〜が,〜けれども)\end{itemize}\end{itemize}まず,二節が類似していない場合,結束関係を順接または逆接とし,順接であるか逆接であるかは節末の形態素列のパターンで認識する.二節が類似している場合,結束関係を対比または並列とする.一般に並列の関係の場合,人または物がある二つの属性を持ち,対比の関係の場合,二つの異なる人または物が類似した属性を持つ.従って,二つの節において,主題属性が付与された二文節が,二節の類似度を計算する際のDPマッチングのパス上で対応関係にあり,かつ,それらの類似度が閾値以上である場合,結束関係を対比とし,そうでない場合を並列とする.以下の例では,二節が類似しており,主題属性が付与された「当初は」と「3月末までは」が類似しているので,対比の関係とする.\ex.[代替バス利用者は,\Underline{当初は}1日あたり3〜5万人であったが,][\Underline{3月末までは}1日約20万人が利用した.]\label{ex:bus}また,どちらか一方の節の文節に主題属性が付与されており,もう一方の節の文節には主題属性が付与されていない場合でも,類似度が高い場合は対比関係とする.以下の例では,二節が類似しており,主題属性が付与された,「(75人に1基達成できた)段階では」と主題属性のついていない「(100人に1基行き渡った)段階で」が類似しているので,結束関係を対比とし,「(100人に1基行き渡った)段階で」に主題属性を付与する.\ex.[100人に1基行き渡った\Underline{段階で}設置についての苦情はかなり減り,][75人に1基達成できた\underline{\underline{段階では}}苦情が殆どなくなった.]以下の例では,主題属性の付与された「パソコン通信ニフティサーブでは」とDPマッチングで対応付けられた「ボランティア情報」との間の類似度が閾値以下なので,結束関係を並列とする.\ex.[\Underline{パソコン通信ニフティサーブでは}「地震情報コーナー」が開設され,][ボランティア情報,安否情報,行政情報など各種の情報提供に用いられた.]\subsection{二文間の関係の検出}\label{subsec:relation_two_sentences}二文間の関係は,種々の表層的手がかりをもとに,各入力文に対して,関係をもつ以前の文(接続文)とその間の結束関係を逐次的に求める.新しい話題が導入された後に古くなった話題に接続することはないという仮定をおき,入力文は談話構造の一番最後の子供の文にのみ接続可能と考える.図\ref{fig:discourse_structure}\,では,文5は初期節点,文3,文4に接続可能となり,文1,文2との接続を許さない.そして,さまざまな接続可能文との間のさまざまな結束関係を考慮し,(1)手がかり表現,(2)語連鎖,(3)二文の類似度の3つの観点から確信度を計算し,最終的に最も高い確信度を得た関係を採用する.以下,これらの3つの観点について順に詳しく述べる.\begin{enumerate}\item手がかり表現種々の結束関係を示す,接続詞などの表層的な手がかり表現を認識し,その結束関係への確信度を得るために,表\ref{tab:rule}\,に示すようなルールを用意した.表\ref{tab:rule}\,において,接続可能文パターン,入力文パターンは,それぞれに対する表層表現,文間の結束関係\linebreak[4]([]で括られたもの)などのパターン,適用範囲とはどれだけ離れた文との関係まで考えるかである.適用範囲において,「1」は接続可能文と入力文が隣接している場合のみルールが適用されることを,「*」はルールの適用に制限がないことをそれぞれ意味する.ルールが一致した場合には,指定された結束関係欄の関係に対して,確信度欄の点数が与えられる.この確信度は経験的に決定した.\begin{table}[t]\caption{談話構造解析のルール}\label{tab:rule}\begin{center}\begin{small}\begin{tabular}{@{\}l@{\}|@{\}l@{\}|@{\}c@{\}||@{\}c@{\}|@{\}c@{\}}\hline\begin{tabular}{c}接続可能文\\パターン\end{tabular}&\begin{tabular}{c}入力文\\パターン\end{tabular}&適用範囲&結束関係&確信度\\\hline〜&さて〜&*&初期化&10\\〜&そして〜&1&並列&5\\第一に〜&第二に〜&*&並列&30\\\verb|[|並列\verb|]|&さらに〜&1&並列&40\\〜&むしろ〜&1&対比&30\\〜&すなわち〜&1&詳細化&30\\〜&〜からだ&1&理由&30\\\hline\end{tabular}\end{small}\end{center}\end{table}\item語連鎖の検出一般に文は主題を示す部分(主題部)とそれ以外の部分(非主題部)に分けることができ,主題を\ref{subsec:topic_feature}\,節で付与した主題属性のついている文節から名詞をとり出したもの,焦点を非主題部の名詞とする.そして,二文間で,主題と主題,焦点と主題に語の連鎖(同一の語/句の出現)がある時は,それぞれ,主題連鎖,焦点主題連鎖の結束関係に確信度を与える.語連鎖は,完全一致と部分一致を考え,完全一致の場合は確信度15点を,部分一致の場合は確信度10点を与える.\item二文間の類似度二文が並列または対比の関係にある場合,それらはある種の類似性を持つと仮定することができる.二文間の類似度は,一文内の節の係り受け関係の所で述べた,任意の文節列間の類似度計算の方法で計算することができる.そして,一文内の対比/並列の関係の検出と同じように,二文における主題が類似している場合は対比の関係に,類似していない場合は並列の関係に確信度を与える.以下の例では,二文が類似しており,主題属性が付与されていない文\ref{ex:23}\,の「1月23日から」と,主題属性が付与されている文\ref{ex:28}\,の「1月28日から」に高い類似が認められるので,対比の関係に確信度を与え,「1月23日から」に主題属性を付与する.\ex.\a.国道2号線が開通した\Underline{1月23日から,}大阪〜神戸間の代替バス輸送が実施された.\label{ex:23}\b.\Underline{1月28日からは,}国道2号,43号線に代替バス優先レーンが設置され,効率的・円滑な運行が確保された.\label{ex:28}\\\par\end{enumerate} \section{スライドに表示するテキストの抽出} \label{sec:topic_extract}この章では,入力テキストから,スライドに表示するテキストを抽出する手法を説明する.\ref{subsec:relation_two_sentences}\,節で述べたように,文は主題部と非主題部から成る.入力テキストから文を抽出してそのままスライドに配置するのではなく,主題部と非主題部を分けてスライドに配置することにより,スライドを見やすいものとする.また,非主題部は一般に長いことが多いので,非主題部の簡約を行なうことにより,スライドを見やすくする.主題部と非主題部の抽出は,\ref{subsec:divideintonodes}\,節で分割した節を基本単位として行なう.一連の解析の様子を図\ref{fig:topic_extract}\,に示す.\begin{figure*}[t]\begin{center}\includegraphics[scale=.4]{extract_topic-j.eps}\caption{主題部・非主題部の抽出と非主題部の簡約}\label{fig:topic_extract}\end{center}\end{figure*}\subsection{主題部・非主題部の抽出}\label{subsec:extract_topic}\ref{subsec:topic_feature}\,節で付与した主題属性をもとに,主題部の抽出を行なう.主題属性が付与された文節から構文木を子の方向にたどって句を抽出し,それを主題部とし,残りの部分を非主題部とする.以下の例では,「延焼速度」が主題部として抽出され,「おおむね20〜40\,m/h程度で,」が非主題部となる.\ex.\Underline{延焼速度は}おおむね20〜40\,m/h程度で,節に主題属性が付与された文節が複数存在する場合は,そのうち一番前にあるもののみを抽出する.以下の例では,「震災初日の被災地内では」と「視聴は」に主題属性が付与されているが,一番前の「震災初日の被災地内では」を主題部として抽出し,残りを非主題部とする.\ex.震災初日の被災地内\underline{\underline{では}}停電などによりテレビの視聴\Underline{は}ほとんどできず,\label{ex:double_topic}ただし,主題属性のついているもので,対比関係にあると解析されたものは必ず抽出する.以下の例では,前の節と後の節が対比の関係にあり,「神戸市では」に主題属性に主題属性が付与されており,主題属性の付与された「当初は」と「1月22日には」が対比の関係にあると解析されている.このような場合,前の節からは,「神戸市では」と「当初は」の両方を主題として抽出する.\ex.[\Underline{神戸市では},\Underline{当初は}仮設トイレ300基程度で足りると考えていたが,][\Underline{1月22日には}「仮設トイレ対策本部」を設置し対応することとなった.]\subsection{非主題部の簡約}スライドを見やすいものとするためには,できるだけ入力テキストの情報を保持した上で,テキストを簡約する必要がある.本研究では,(1)構文解析結果に基づく不要な語あるいは語句の削除,(2)節末の用言の整形により,非主題部の簡約を行なう.\begin{enumerate}\item構文解析結果から不要部分の削除構文解析結果から以下の不要な語句の削除を行なう.\begin{itemize}\item接続詞\item副詞\itemレベル:Aの節\item副詞句例)\Underline{バッテリー切れによる利用不能のほか},救援・復旧関係者による被災地外から大量持ち込みによる輻輳の発生で利用できなくなった.\item同格:節末の用言の子の文節に「〜など」があれば削除する.例)\Underline{農林水産省,国土庁など}国の各機関\end{itemize}\item節末の用言の整形次のようなルールにより節末の用言の整形を行なう.\begin{itemize}\itemサ変名詞+する/された$\rightarrow$サ変名詞例)実施された$\rightarrow$実施\itemサ変名詞+が行われた$\rightarrow$サ変名詞例)輸送が行われた$\rightarrow$輸送\item名詞+判定詞$\rightarrow$名詞例)無被害であった$\rightarrow$無被害\itemナ形容詞/ナノ形容詞$\rightarrow$活用語尾を削除例)軽微であった$\rightarrow$軽微\end{itemize}ただし,節末の用言に否定表現を含む場合は,否定表現を削除してしまわないように,否定表現より後の部分の整形を行なう.\end{enumerate}\begin{center}\begin{table}[t]\caption{重要説明表現}\label{significant_words}\begin{center}\begin{tabular}[tb]{l|l}\hline格&用言\\\hlineガ格&重要だ,本質をつく,エッセンスだ,\\&ポイント,望ましい,鍵だ,大切だ,\\&有益だ,必要だ,指摘された\\\hlineヲ格&重視する,重要視する,明らかにする,\\&明確にする,取り上げる\\\hlineニ格&着目する,重点を置く,注目する\\\hline\end{tabular}\end{center}\end{table}\end{center}\subsection{強調表示}\label{subsec:emphasize}節末の用言が表\ref{significant_words}\,にあげるもので,かつ,指定された格を持つ場合,重要表現とみなし,次節で説明するスライドの出力の際に,この節の非主題部の強調表示を行なう.以下の例では,格解析の結果,「ことも」がガ格と解釈され,「指摘された」がガ格を持つことになるので,スライドの生成の際に強調表示を行なう.\ex.大規模な供給施設が液状化地域に設置されていなかった\Underline{ことも}指摘された. \section{スライドの生成} \label{sec:output_slide}図\ref{fig:slide_output}\,に示すように,\ref{sec:ds_analysis}\,章で解析した談話構造に基づいて,\ref{sec:topic_extract}\,章で抽出した主題部,非主題部を次にあげるルールでスライドに配置する(図において,T,Nはそれぞれ主題部,非主題部を表す).\begin{figure*}[t]\begin{center}\includegraphics[scale=.45]{slide_output2-j.eps}\caption{談話構造に基づくスライドの生成}\label{fig:slide_output}\end{center}\end{figure*}\begin{itemize}\itemメタデータなどで,入力テキストにタイトルがある場合,そのままスライドのタイトルとする.タイトルがない場合は,入力文の最初の主題部をスライドのタイトルとする.\item文の先頭から順番に,各節において,主題部があれば出力し,インデントを一つ下げて次の行に,非主題部を出力する.主題部がなければ,非主題部だけを出力する.以下の例のように,節に主題が二つある場合は,一つ目の主題部を出力し,インデントを一つ下げて次の行に二つ目の主題部を出力し,さらにインデントを一つ下げて次の行に非主題部を出力する.\ex.\Underline{神戸市では},\Underline{当初は}仮設トイレ300基程度で足りると考えていたが,\vspace{-3mm}\begin{center}$\Downarrow$\end{center}\vspace{-3mm}\begin{minipage}[t]{0.75\hsize}\begin{itemize}\item神戸市\begin{itemize}\item当初\begin{itemize}\item仮設トイレ300基程度で足りると考えていた\end{itemize}\end{itemize}\end{itemize}\end{minipage}\vspace{4mm}また,\ref{subsec:emphasize}\,節の処理により,非主題部が重要表現とみなされている場合は,強調表示を行なう.\item節のインデントのレベルを親との結束関係に応じて以下のように設定する.\begin{itemize}\item\textbf{初期化:}インデントレベルを0にする.\item\textbf{並列/対比:}同じにする.\item\textbf{主題連鎖:}主題部が親と同じ場合は,インデントを下げずに非主題部だけを出力する.主題部が異なっている場合は,インデントを下げて,主題部と非主題部を出力する.\item\textbf{その他:}親に対してインデントを一つ下げて出力する.\end{itemize}\end{itemize}出力される箇条書きの行数が閾値以上となる場合,各スライドの行数が閾値以下になるように分割し,複数のスライドを生成する.また,多くの研究者が指摘しているように,一般に談話構造の根に近い方が文の重要度が高いと考えられるので,談話構造は要約生成のための手がかりとなりうる\cite{Ono94,Marcu99a}.従って,根に近い文から抽出したテキストをスライドに出力し,談話構造木のある深さ以上の文から抽出したテキストはスライドに出力しないといった処理を行なうことにより,スライドに表示するテキストの量を制御することができる.しかし,自動生成したスライドを音声合成とともにユーザに提示する場合,音声に対応するテキストが全くないとユーザが違和感を感じてしまうので,上記の処理を行なわなかった. \section{実装と評価} \label{sec:evaluation}\subsection{text-to-presentationシステムの実装}\begin{figure*}[t]\begin{center}\includegraphics[scale=.29]{screenshot.eps}\caption{システムのスクリーンショット}\label{fig:screenshot}\end{center}\end{figure*}この節では,実装したtext-to-presentationシステムについて説明する.このシステムでは,ユーザは自然言語でクエリを入力すると,クエリに関するプレゼンテーションを閲覧することができる.本稿では,テキスト集合として,阪神淡路大震災教訓資料集\footnote{http://www.hanshin-awaji.or.jp/kyoukun/}を用いた.この資料集はHTMLで書かれており,HTMLタグを手がかりとして400テキストに自動分割することによりテキスト集合とした.各テキストにはタイトルが付与されており,スライドのタイトルとして利用した.テキストの平均文数は3.7,一文あたりの平均文字数は50であった.システムはまず,Kiyotaらの手法を用いて,ユーザからのクエリと最も類似したテキストを検索する\cite{Kiyota02}.その後,書き言葉を話し言葉に変換して音声合成に入力し,同時に,本稿で述べた手法で生成したスライドをユーザに提示する.図\ref{fig:screenshot}\,に示すように,本システムはWebブラウザ上で動作する.テキストから複数のスライドが生成された場合は音声合成と同期してスライドの表示を切り換える.\subsection{評価と考察}「ボランティアの役割」「火災の原因にはどのようなものがありますか」などといったユーザからの30クエリから検索されたテキストからスライドを生成し,談話構造解析と生成されたスライドの評価を行なった.書き言葉からの話し言葉への変換とテキスト検索の評価に関しては,それぞれ\cite{Kaji02,Kaji04},\cite{Kiyota02}に譲る.入力テキストと自動生成されたスライドのサイズを比較した平均圧縮率は0.797であった.\begin{center}\begin{table}[t]\small\caption{談話構造解析の精度}\label{tab:evaluation}\begin{center}\begin{tabular}[tb]{c|c}\hline&精度\\\hline節間の関係&30/39(76.9\%)\\\hline文間の関係&60/89(67.4\%)\\\hline\end{tabular}\end{center}\end{table}\end{center}\subsubsection{談話構造解析の評価}談話構造解析の精度を表\ref{tab:evaluation}\,に示す.評価は,節または文の接続先と結束関係が正しいかで行なった.談話構造解析の主な誤り原因を以下に示す.\paragraph{語連鎖の検出もれ}以下の例では1文目の「震災」と2文目の「地震」の関係が捉えられず,2文目で初期化されてしまっている.\ex.\a.\Underline{震災}直後には,神戸市によって神戸市外語大のホームページに被害写真が掲載され,海外に被害の大きさを知らせた.\b.パソコン通信ニフティサーブでは「\Underline{地震}情報コーナー」が開設され,ボランティア情報,安否情報,行政情報など各種の情報提供に用いられた.この問題には,国語辞典やシソーラスを用いて表現のずれを認識することにより対処することができると考えられる.また,本稿で扱ったテキストは書き言葉のため,語が省略されているために語連鎖が捉えられない例はそれほどなかったが,以下のような例では,「延焼速度」には「火災の」が省略されており,この関係が捉えられていないため,二文間の関係を主題連鎖と解析することができず,初期化されてしまった.\ex.\a.このうち焼損面積10,000平方メートル以上の火災は,特に神戸市長田区などで集中的に発生した.\b.\Underline{延焼速度は}おおむね20〜40\,m/h程度で,過去の都市大火事例等と比較して極めて遅かった.この問題には省略・照応解析を行なうことで対処する予定である.\paragraph{対比関係の検出もれ}名詞と句/節などが対比の関係にある時に,対比関係を検出できないことがあった.以下の例では,「震災直後に」と「震災から1週間程度を経ると」の対比関係を検出できなかった.\ex.\a.\Underline{震災直後に}被災者が必要としたのは,地震の規模や発生場所,被害状況などの被害情報,家族や友人・知人の消息に関する安否情報などだった.\\\b.\Underline{震災から1週間程度を経ると},長期的な生活に関わる情報として,住宅やり災証明を始めとする各種申請などの情報も求められた.また,以下の例では,「当初の」,「時間とともに」の対比関係が検出できなかった.\ex.ボランティアの\Underline{当初の}役割は,医療,食糧・物資配給,高齢者等の安否確認,避難所運営等だったが,\Underline{時間とともに},物資配分,引っ越し・修理,高齢者・障害者のケアなどへと変化していった.\\この問題には,「時間とともに」や「震災から1週間程度を経ると」が時間に関する表現であることを認識するためのルールを用意した上で,節/文の類似度を計算することで対処することができると考えられる.また,本稿で対象とした地震ドメインのテキストにはシソーラスにない語が含まれており,語の類似度を正しく計算できないことがあった.それが原因となり,文/節の類似度を正しく計算できないことがあった.この問題には地震ドメインにおけるシソーラスを人手で用意するか,コーパスから自動構築することにより対処できると考えられる.\subsubsection{自動スライドの出力例と評価}次に,自動生成したスライドの評価を行なった.評価の基準は,生成されたスライドがユーザの理解を妨げるものとなっていないかどうかとし,スライドのインデント,主題の抽出,文簡約などが適切であるかどうかをもとに評価を行なった.生成した30スライドについて筆者らが評価したところ,15枚については自然であり,12枚は少し不自然なところが含まれており,3つは全体的に不自然であるという結果であった.出力例を図\ref{fig:slide_example1}\,と図\ref{fig:slide_example2}\,に示す.図\ref{fig:slide_example1}\,の例では,「断水」,「停電」,「都市ガスの供給停止」の対比関係が正しく解析され,また,「明かりに不自由しながらの診察・治療が行われ」と「手動の人工呼吸器を押し続ける姿も見られた」の並列関係で項目を分割することにより,見やすいスライドとなっている.また,2文目の「医療用水のほか」の簡約や,「(治療)が行なわれ」の整形などが行なわれている.\begin{figure}[t]\begin{center}\fbox{\begin{minipage}[t]{\hsize}断水により,水の調達に苦慮した医療機関が多かった.断水の影響には,医療用水のほか,ボイラー用水や,コンプレッサー・自家用発電機等の冷却水が得られないという面もあった.停電により,明かりに不自由しながらの診察・治療が行われ,手動の人工呼吸器を押し続ける姿も見られた.都市ガスの供給停止により,入院患者の食事提供に影響があった病院もある.\end{minipage}}\vspace{2mm}$\Downarrow$\vspace{2mm}\begin{minipage}[t]{\hsize}\begin{shadebox}\vspace{2mm}\begin{center}被災地医療機関\end{center}\begin{itemize}\item断水\begin{itemize}\item水の調達に苦慮した医療機関が多かった\item断水の影響\begin{itemize}\itemボイラー用水や,コンプレッサー・自家用発電機等の冷却水が得られないという面もあった\end{itemize}\end{itemize}\item停電\begin{itemize}\item明かりに不自由しながらの診察・治療\item手動の人工呼吸器を押し続ける姿も見られた\end{itemize}\item都市ガスの供給停止\begin{itemize}\item入院患者の食事提供に影響があった病院もある\end{itemize}\end{itemize}\vspace{2mm}\end{shadebox}\end{minipage}\caption{出力例1}\label{fig:slide_example1}\end{center}\end{figure}また,図\ref{fig:slide_example2}\,の例では,1文目の主題「代替バス利用者」が抽出され,「当初」,「バスレーン設置後」,「3月末」の対比関係が正しく解析されている.しかし,2文目では,「代替バス」と「バスレーンの設置後」が対比していると間違って解析されており,正しくは,「当初」と「バスレーンの設置後」が対比関係にある.この対比関係を正しく解析できるようにした上でさらにこのスライドをよくするには,2文目からは「利用時間」という主題を取り出し,1文目の「代替バス利用者」と対比させるのが望ましいが,これはかなり難しい処理であるといえる.\begin{figure}[t]\begin{center}\fbox{\begin{minipage}[t]{\hsize}代替バス利用者は,当初は1日あたり3〜5万人であったが,バスレーン設置後は上昇し,3月末までは1日約20万人が利用した.当初,代替バスは交通渋滞に巻き込まれ,通行に多くの時間を要したが,バスレーンの設置後は約半分の所要時間に短縮されるなど,徐々に時間は短縮された.\end{minipage}}\vspace{2mm}$\Downarrow$\vspace{2mm}\begin{minipage}[t]{\hsize}\begin{shadebox}\vspace{2mm}\begin{center}鉄道の復旧\end{center}\begin{itemize}\item代替バス利用者\begin{itemize}\item当初\begin{itemize}\item1日あたり3〜5万人\end{itemize}\itemバスレーン設置後\begin{itemize}\item上昇\end{itemize}\item3月末\begin{itemize}\item1日約20万人が利用\end{itemize}\end{itemize}\item代替バス\begin{itemize}\item交通渋滞に巻き込まれ,通行に多くの時間を要した\end{itemize}\itemバスレーンの設置後\begin{itemize}\item約半分の所要時間に短縮されるなど,時間は短縮\end{itemize}\end{itemize}\vspace{2mm}\end{shadebox}\end{minipage}\caption{出力例2}\label{fig:slide_example2}\end{center}\end{figure}自動生成されたスライドで不自然な部分のほとんどは,談話構造解析誤りによるインデントのずれによるものであった.\ref{sec:output_slide}\,章で説明したスライド生成のヒューリスティックルールによる大きな誤りはなく,また,主題部・非主題部の抽出や非主題部の簡約にも大きな誤りは見受けられなかった.現在の文簡約は構文解析結果を基に行なう比較的シンプルなモデルであるが,十分機能しているといえる.しかし,以下のように固有表現にかかる連体節などは削除した方がよりよいスライドになると考えられるので,今後は固有表現抽出を行ない,このような簡約を行なう予定である.\ex.\Underline{大阪と神戸を結ぶ}\underline{\underline{JR神戸線,阪急電鉄神戸線,阪神電鉄本線}}の3線の不通により,一日45万人,ラッシュ時最大1時間12万人の足が奪われた.\ex.\Underline{兵庫県下随一の3次救急医療機関である}\underline{\underline{神戸市立中央市民病院}}は,市街地と島を結ぶ神戸大橋の不通により震災直後の救急患者の受け入れがあまりできなかった.たとえ自動スライドにインデントのずれや抽出したテキストが不自然であるといった誤りが少しあったとしても,入力テキストを音声合成と自動スライドのマルチモーダルに変換することは,ユーザに入力テキストをそのまま提示するよりもはるかによいことが実験により示された.特に,テキストに大きな並列や対比関係がある場合は,入力テキストよりも見やすいスライドを生成できることが確認された. \section{関連研究} \label{sec:related_work}Utiyamaらは,GDAで意味情報・文章構造がタグ付けされた文書からスライドショーを生成する手法を提案している\cite{Utiyama99}.GDAタグとは,文書に意味論的構造や語用論的構造を与えるもので,人手で付与される.まず,共参照を示すタグから文章構造をボトムアップに決定する.そして,重要なトピックを抽出し,各トピックに対して関連する文を集め,それらを箇条書きにして一枚のスライドを生成する.GDAタグを用いることにより,ある程度長い文章についても文章構造を解析し,スライドを生成することができるが,GDAタグを付与するコストは大きなものとなる.安村らは,論文からプレゼンテーション資料の作成支援を行なっている\cite{Yasumura03j}.まず,論文中の各セクションに対して,使用するスライドの枚数を割り当て,そして,個々のスライドに対してレイアウトを決定し,論文中から抽出した文や図表といったオブジェクトを配置している.しかし,この研究ではTF*IDF法で重要文を抽出しており,文章構造の解析や文簡約は行なわれていない.また,入力は\TeX形式の論文に限られており,本研究のように生テキストからスライドを生成することができない.次に,個別の処理に関連する研究をあげる.まず,談話構造解析の分野でよく知られているものとして,Marcuらの研究がある\cite{Marcu99b,Marcu00,Carlson01}.彼らは談話構造タグ付きのコーパスを作成し,機械学習の手法を用いることにより談話構造解析を行なっている.彼らの手法には精度の向上が見られるが,談話構造タグ付きコーパスを作成するにはコストがかかってしまう.これに対して,我々の談話構造解析は一般的なヒューリスティックルールに基づいている.我々のシステムの確信度などはもともと比較的少数の科学技術文章を対象に経験的に定めたものであるが,そのままの設定で地震ドメインのテキストに対しても,スライドを生成するのに十分な精度を達成しているといえる.従って,地震ドメインで談話構造タグ付きコーパスを作成し,機械学習を行なう必要はないと考えている.また,文末表現の整形で関連するものとして,\cite{Yamamoto05}の研究がある.この研究では,体言止めや助詞止めといった文末表現に着目し,新聞記事の表現を,新幹線車内や街頭での電光掲示板で流れるニュースで使われる表現に変換する手法を提案している.手法は我々と同じルールベースで,本研究で扱っているものよりも多くのパターンを利用しているが,誤り例も報告されており,我々の扱ったパターンでも十分であると考えている.Jingらは,自動要約の質を向上させるために,新聞記事とそこから作られた人間による要約のペアから文簡約の手法を学習している\cite{Jing00}.本研究においても,論文とプレゼンテーションスライドのペアから文の対応関係をとる研究\cite{Hayama05}を利用して,このアイデアを適用し得ると考えられる. \section{おわりに} \label{sec:conclusion}本稿では,テキストからスライドを自動生成する手法について述べた.スライド生成は,談話構造解析,主題部と非主題部の抽出と簡約によるスライドに出力するテキストの抽出,抽出したテキストの適切配置からなる.地震教訓集を入力テキストとして実験を行なったところ,生成されたスライドは入力テキストよりもかなり見やすいものであることが確認された.また,テキストを入力として自動プレゼンテーションを行なう,text-to-presentationシステムの実装を行なった.今後は,談話構造解析,主題の抽出,文簡約などの精度を高めるとともに,実装したtext-to-presentationシステムに会話エージェントを統合しシステムの質を向上させる予定である.また,システム全体が自然なプレゼンテーションであるかや,ユーザの理解の向上に貢献するかについては今後,評価実験を行なう予定である.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Carlson,Marcu,\BBA\Okurowski}{Carlsonet~al.}{2001}]{Carlson01}Carlson,L.,Marcu,D.,\BBA\Okurowski,M.~E.\BBOP2001\BBCP.\newblock\BBOQBuildingaDiscourse-TaggedCorpusintheFrameworkofRhetoricalStructureTheory\BBCQ\\newblockIn{\BemProceedingsofthe2ndSIGDIALWorkshoponDiscourseandDialogue}.\bibitem[\protect\BCAY{Grosz\BBA\Sidner}{Grosz\BBA\Sidner}{1986}]{Grosz86}Grosz,B.~J.\BBACOMMA\\BBA\Sidner,C.~L.\BBOP1986\BBCP.\newblock\BBOQAttention,intentions,andthestructureofdiscourse\BBCQ\\newblock{\BemComputationalLinguistic},{\Bbf12},\mbox{\BPGS\175--204}.\bibitem[\protect\BCAY{Hayama,Nanba,\BBA\Kunifuji}{Hayamaet~al.}{2005}]{Hayama05}Hayama,T.,Nanba,H.,\BBA\Kunifuji,S.\BBOP2005\BBCP.\newblock\BBOQAlignmentbetweenaTechnicalPaperandPresentationSheetsUsingHiddenMarkovModel\BBCQ\\newblockIn{\BemProceedingsofthe2005InternatinalConferenceonActiveMediaTechnology}.\bibitem[\protect\BCAY{Jing}{Jing}{2000}]{Jing00}Jing,H.\BBOP2000\BBCP.\newblock\BBOQSentenceReductionforAutomaticTextSummarization\BBCQ\\newblockIn{\BemProceedingsofthesixthconferenceonAppliednaturallanguageprocessing},\mbox{\BPGS\310--315}.\bibitem[\protect\BCAY{Kaji,Kawahara,Kurohashi,\BBA\Sato}{Kajiet~al.}{2002}]{Kaji02}Kaji,N.,Kawahara,D.,Kurohashi,S.,\BBA\Sato,S.\BBOP2002\BBCP.\newblock\BBOQVerbParaphrasebasedonCaseFrameAlignment\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\215--222}.\bibitem[\protect\BCAY{Kaji,Okamoto,\BBA\Kurohashi}{Kajiet~al.}{2004}]{Kaji04}Kaji,N.,Okamoto,M.,\BBA\Kurohashi,S.\BBOP2004\BBCP.\newblock\BBOQParaphrasingPredicatesfromWrittenLanguagetoSpokenLanguageusingtheWeb\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConference},\mbox{\BPGS\241--248}.\bibitem[\protect\BCAY{Kiyota,Kurohashi,\BBA\Kido}{Kiyotaet~al.}{2002}]{Kiyota02}Kiyota,Y.,Kurohashi,S.,\BBA\Kido,F.\BBOP2002\BBCP.\newblock\BBOQDialogNavigator:AQuestionAnsweringSystembasedonLargeTextKnowledgeBase\BBCQ\\newblockIn{\BemProceedingsof19thCOLING},\mbox{\BPGS\460--466}.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1994}]{KNP94}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQAsyntacticanalysismethodoflongJapanesesentencesbasedonthedetectionofconjunctivestructures\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf20}(4).\bibitem[\protect\BCAY{Longacre}{Longacre}{1983}]{Longacre83}Longacre,R.\BBOP1983\BBCP.\newblock{\BemTheGrammarofDiscourse}.\newblockNewYork:PlenumPress.\bibitem[\protect\BCAY{Marcu}{Marcu}{1999a}]{Marcu99b}Marcu,D.\BBOP1999a\BBCP.\newblock\BBOQAdecision-basedapproachtorhetoricalparsing\BBCQ\\newblockIn{\BemProceedingsofthe39thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\365--372}.\bibitem[\protect\BCAY{Marcu}{Marcu}{1999b}]{Marcu99a}Marcu,D.\BBOP1999b\BBCP.\newblock\BBOQDiscoursetreesaregoodindicatorsofimportanceintext\BBCQ\\newblockInI.Mani\BBACOMMA\\BBA\M.Maybury\BEDS,{\BemAdvancesinAutomaticTextSummarization},\mbox{\BPGS\123--136}.TheMITPress.\bibitem[\protect\BCAY{Marcu}{Marcu}{2000}]{Marcu00}Marcu,D.\BBOP2000\BBCP.\newblock\BBOQTheRhetoricalParsingofUnrestrictedTexts:ASurface-BasedApproach\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf26}(3),\mbox{\BPGS\395--448}.\bibitem[\protect\BCAY{NTTコミュニケーション科学研究所}{NTTコミュニケーション科学研究所}{1997}]{NTT}NTTコミュニケーション科学研究所\BBOP1997\BBCP.\newblock\JBOQ日本語語彙大系\JBCQ\\newblock岩波書店.\bibitem[\protect\BCAY{Ono,Sumita,\BBA\Miike}{Onoet~al.}{1994}]{Ono94}Ono,K.,Sumita,K.,\BBA\Miike,S.\BBOP1994\BBCP.\newblock\BBOQAbstractgenerationbasedonrhetoricalstructureextraction\BBCQ\\newblockIn{\BemProceedingsofthe15thCOLING},\mbox{\BPGS\344--348}.\bibitem[\protect\BCAY{Polanyi}{Polanyi}{1988}]{Polanyi88}Polanyi,L.\BBOP1988\BBCP.\newblock\BBOQAformalmodelofthestructureofdiscourse\BBCQ\\newblock{\BemJounnalofPragmatics},{\Bbf12},\mbox{\BPGS\601--638}.\bibitem[\protect\BCAY{Utiyama\BBA\Hasida}{Utiyama\BBA\Hasida}{1999}]{Utiyama99}Utiyama,M.\BBACOMMA\\BBA\Hasida,K.\BBOP1999\BBCP.\newblock\BBOQAutomaticSlidePresentationfromSemanticallyAnnotatedDocuments\BBCQ\\newblockIn{\Bem1999ACLWorkshoponCoreferenceandItsApplications}.\bibitem[\protect\BCAY{安村禎明\JBA武市雅司\JBA新田克己}{安村禎明\Jetal}{2003}]{Yasumura03j}安村禎明\JBA武市雅司\JBA新田克己\BBOP2003\BBCP.\newblock\JBOQ論文からのプレゼンテーション資料の作成支援\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf18}(4),\mbox{\BPGS\212--220}.\bibitem[\protect\BCAY{山本和英\JBA池田諭史\JBA大橋一輝}{山本和英\Jetal}{2005}]{Yamamoto05}山本和英\JBA池田諭史\JBA大橋一輝\BBOP2005\BBCP.\newblock\JBOQ「新幹線要約」のための文末の整形\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(6),\mbox{\BPGS\85--111}.\bibitem[\protect\BCAY{黒橋\JBA長尾}{黒橋\JBA長尾}{1994}]{Kurohashi94j}黒橋禎夫\JBA長尾眞\BBOP1994\BBCP.\newblock\JBOQ表層表現中の情報に基づく文章構造の自動抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf1}(1),\mbox{\BPGS\3--20}.\bibitem[\protect\BCAY{南不二男}{南不二男}{1993}]{Minami93}南不二男\BBOP1993\BBCP.\newblock\Jem{現代日本語文法の輪郭}.\newblock大修館書店.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{柴田知秀}{2002年東京大学工学部電子情報工学科卒業.2004年東京大学大学院情報理工学系研究科修士課程修了.現在,東京大学大学院情報理工学系研究科博士課程在学中.自然言語処理の研究に従事.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V29N04-02
\section{はじめに} 語彙制約付き機械翻訳は,翻訳文に含まれてほしいフレーズが指定された際に,それらのフレーズを含む文を生成するという制約の下で機械翻訳を行うタスクである.近年のニューラル機械翻訳(NeuralMachineTranslation;NMT)の発展\cite{luong-etal-2015-effective,vaswani:2017:NIPS}によって機械翻訳による翻訳文の品質は著しく向上したが,語彙制約付き機械翻訳のような,モデルの出力する翻訳文を人手でコントロールする手法に対するNMTの適用に関してはまだ課題が残されている.図~\ref{fig:task_overview}に語彙制約付き機械翻訳の例を示す.従来の機械翻訳モデルでは指定した語句を用いた翻訳が出来なかったのに対して,語彙制約付き機械翻訳モデルでは与えられた制約語句を反映させた翻訳を実現する.この際の制約語句は人手で与えられることが多い.訳語を指定した翻訳ができることで,法務や特許等における翻訳において非常に重要とされる専門用語や適切な名詞などの翻訳での訳語の一貫性を実現することができる.また,後編集のような人間が修正の指示を与えながら翻訳を行う,インタラクティブな翻訳にも応用可能である.さらに,近年複数のワークショップにおいて語彙制約付き機械翻訳のシェアードタスク\cite{nakazawa-etal-2021-overview,alam-etal-2021-findings}が開催されており,非常に注目を浴びているタスクである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{29-4ia1f1.pdf}\end{center}\caption{語彙制約付き機械翻訳の例}\label{fig:task_overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%語彙制約を満たすためにNMTモデルの出力をコントロールすることに取り組んだ研究はいくつか提案されており,\citeA{chen2020lexical_leca}に従うとそれらの手法は制約の取り扱い方によってハード制約とソフト制約の2種類に分けることができる.ハード制約による手法は,与えられたすべての制約語句がモデルの出力に含まれることを保証する.従来手法は,ビームサーチによる制約付きデコーディングで全ての制約語句を含む系列の候補を探索することで,このハード制約を満たすことを達成している\cite{hokamp-liu-2017-lexically,post-vilar-2018-fast}.これらの手法はすべての制約を満たすことを保証する一方で,従来のNMTと比べて大きい計算量を必要とする.また,入力される文によっては制約をすべて満たす出力系列の探索に失敗してしまい,従来のNMTよりも翻訳精度が低くなってしまう.一方で,ソフト制約による手法はすべての語彙制約が翻訳文に含まれることを保証しない.従来手法では,NMTモデルへ入力される原言語文を編集や拡張することで出力系列の探索などを用いずに制約語句を出力する方法が試みられている\cite{song-etal-2019-code,chen2020lexical_leca}.\citeA{song-etal-2019-code}はフレーズテーブルを用い,原言語文中の制約語句に対応する部分に対してその制約語句で置換したり挿入したりすることで,モデルの入力系列を編集する手法を提案している.また,\citeA{chen2020lexical_leca}は,原言語文の末尾に制約語句を結合してモデルの入力系列を拡張する手法を提案している.これらの手法は,出力候補を決定する際に探索アルゴリズムを用いないためハード制約の手法に比べて高速に動作する一方で,いくつかの制約語句が出力されない可能性がある.これらの従来手法に対し,我々は与えられた制約がすべて出力に含まれるという制約条件(ハード制約)の下で語彙制約付き機械翻訳の速度と精度を向上するために,翻訳モデルへの入力系列の拡張によって制約付きデコーディングの探索を改善する手法を提案する.本提案手法は,翻訳モデルにおいてソフト制約の下で語彙制約を実現する手法と探索アルゴリズムにおいてハード制約の下で語彙制約を実現する手法を組み合わせた初の試みである.日英および英日翻訳での実験により,提案手法がハード制約を満たした上で,従来手法と比べて少ない計算コストで高い翻訳精度を実現できることを確認した.なお,本手法は,WAT2021RestrictedTranslationTask\cite{nakazawa-etal-2021-overview}の日英/英日翻訳の両方において1位を獲得した.また,従来は人手で作成された語彙制約に対する語彙制約付き機械翻訳が主に研究されてきた.原言語文に対して事前に語彙制約を作成して語彙制約付き機械翻訳を行う場合には,制約語句を辞書などから自動的に抽出することで人手での作成に比べてコストが削減できると考えられる.しかし,自動抽出された制約語句にはノイズとなる語句が含まれることが考えられる.前述の語彙制約付き機械翻訳手法は与えられる制約語句が必ず翻訳文に含まれることを仮定しているため,自動抽出された語彙制約をそのまま用いると翻訳精度が低下することが想定される.そこで本論文では,自動抽出されたノイズを含む語彙制約に対しても語彙制約付き機械翻訳を適用するために,与えられた語彙制約の任意の組み合わせに対する翻訳候補にリランキング手法を用いることで最適な翻訳文を選択する手法を提案する.対訳辞書から自動抽出した語彙制約による日英翻訳での実験により,制約の与えられない一般的な機械翻訳手法に対して翻訳精度が改善できることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{語彙制約付き機械翻訳} label{sec:task_definition}$S$トークンからなる原言語の入力文を$X=(x_1,x_2,\ldots,x_S)$,$T$トークンからなる目的言語の参照訳文を$Y=(y_1,y_2,\ldots,y_T)$とする.従来の機械翻訳タスクでは,$X$から$Y$への系列変換という問題を以下の条件付き確率$p(Y\midX)$を最大化する目的言語文を探索することで翻訳文を生成する.\begin{equation}p(Y\midX)=\prod_{t=1}^{T}{p(y_t\midy_{<t},X)}\end{equation}これに対して語彙制約付き機械翻訳タスクでは,語彙制約を表す$N$個の語句のリスト$C=(C_1,C_2,\ldots,C_N)$がさらに与えられ,その制約語句を全て含んだ目的言語文を出力する必要がある\footnote{語彙制約に関して原言語側の情報は与えられない.したがって語彙制約に対応する原言語の語句が複数ある場合の正解はこのタスクでは議論されていない.}.このとき,語彙制約付き機械翻訳タスクは,$Y$が$C$をすべて含むという制約の下で以下の条件付き確率を最大化する問題として定義される.\begin{equation}p(Y\midX,C)=\prod_{t=1}^{T}{p(y_t\midy_{<t},X,C)}\end{equation}ただし,ここで与えられる制約語句のリスト$C$は参照訳中の出現順序とは独立であり,ランダムな順序で与えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} 本論文の提案手法は制約付きデコーディング手法(\ref{sec:lcd}節)での探索を翻訳モデルへの入力系列の拡張手法(\ref{sec:leca}節)によって改善し,ハード制約下で予測に必要な計算時間の削減と翻訳精度の向上を実現させるものである.\ref{sec:lcd}節および\ref{sec:leca}節では提案手法の要素となる2つの先行技術について紹介する.また,従来の語彙制約付き機械翻訳手法が取り扱っていた語彙制約は人手や参照訳を使用することで作成されてきたが,実際にすべての原言語文を翻訳する際には参照訳は利用できず人手で制約を作成するのにはコストがかかることから語彙制約の自動抽出が望まれる.そこで,本論文では自動抽出されたノイズの多く含む語彙制約に対しても語彙制約付き機械翻訳手法を適用するための手法を\ref{sec:reranking}節で提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ビームサーチによる語彙制約付きデコーディング}\label{sec:lcd}本研究が目的とするハード制約における語彙制約付き機械翻訳タスクでは,必ず翻訳文が語彙制約を満たす必要がある.そこで提案手法では,デコーディング時に語彙制約付きデコーディング(lexicallyconstraineddecoding;LCD)と呼ばれる手法\cite{hokamp-liu-2017-lexically,post-vilar-2018-fast}を用いる.この手法は,語彙制約を考慮したビームサーチによって出力文の探索を行う手法である.ビームは制約の個数と同じ数のbankに分割され,各bankは制約語句の個数と対応づけられる.各タイムステップの各出力候補はその候補が満たしている制約の個数に対応するbankへ追加される.これにより,最終的に与えられた制約語句の数と等しいbankから出力候補を取り出すことで,語彙制約を満たした翻訳文が得られることが保証される.一方で,LCDではビームを語彙制約の個数に分割するため,制約の個数が増加するに応じて必要なビームサイズが大きくなり,そのために従来のNMTと比べて計算量が大きくなってしまう.この問題に対して,\citeA{post-vilar-2018-fast}は各bankの容量をタイムステップ毎に動的に決定することで計算量の削減を行う手法を提案している.しかし,我々が行った日英翻訳における事前実験ではビームサイズを60まで大きくしないと語彙制約を満たす出力候補の探索に失敗するケースも確認されており,まだ改良の余地が大きい.また,探索が失敗するケースではNMTモデルが事前に設定した最大文長まで文を生成するため,単語の繰り返し等を多く含むような非文が生成されてしまい,結果として翻訳精度の低下に繋がるという問題がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{入力拡張による語彙制約を考慮したNMT}\label{sec:leca}前述のLCDの問題を解決するために,提案手法ではLexical-Constraint-AwareNMT(LeCA)\cite{chen2020lexical_leca}と呼ばれる,原言語文と制約語句を結合することによって入力系列を拡張する手法を用いる.翻訳モデルへの入力系列は,区切りとなるシンボルである\sepで原言語文$X$と制約語句のリスト$C$中の各語句$C_i$を連結することにより,以下のように作成される.\begin{equation}[X,\langle\texttt{sep}\rangle,C_1,\langle\texttt{sep}\rangle,C_2,\ldots,C_N,\langle\texttt{eos}\rangle]\label{eq:leca_input}\end{equation}ここで,{\eos}は文の終端を表すシンボルである.一般の対訳コーパスには制約語句の情報が含まれていないため,モデルの学習に際しては制約語句を新たに付与する必要がある.そこで学習時に式~\ref{eq:leca_input}の入力系列を作成するために,\citeA{chen2020lexical_leca}では参照訳中から擬似制約語句を動的にサンプリングする手法を提案している.制約語句のサンプリングは,初めに制約単語の個数$k$をサンプリングした後に,参照訳中から$k$個の単語をランダムに抽出することで行われる.ここで,制約単語の個数$k$は$0$から制約語句の最大個数$K$までの間から,ハイパーパラメータとして与えられる確率分布に従ってサンプリングされる.$k=0$の場合には制約語句が与えられない設定となるが,これは制約が課されない際の翻訳精度を保つことを目的としている.また,LeCAはTransformer\cite{vaswani:2017:NIPS}をベースとしたモデルであるが,式~\ref{eq:leca_input}に示した入力系列をそのままモデルに入力すると原言語文と各制約語句を区別することができない.そこで,LeCAでは入力系列の入力表現に変更を加える.入力表現は図~\ref{fig:leca_embed}に示すように,tokenembeddingsとpositionalembeddings,segmentembeddingsの3つから構成される.positionalembeddingsの上では入力系列内で位置情報が重複するのを避けるため,各制約語句への位置インデックスは原言語文の最大長から始まる値を割り当てる.また,原言語文と各制約に異なる値を割り当て,segmentembeddingsとしてモデルへと入力する.さらに,pointernetworkによるcopymechanism\cite{vinyals-et-at-2015-pointer,see-etal-2017-get}を導入する.これにより,入力系列のトークンをそのままコピーする形で出力できるため,制約語句の生成を助けることが期待できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{29-4ia1f2.pdf}\end{center}\caption{LeCAモデルの入力表現}\label{fig:leca_embed}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%LCDでは翻訳モデルが各トークンの生成確率を計算する際に語彙制約の情報を使用しない.一方で,LeCAではすべての制約語句が翻訳文中に含まれることが保証されない.そこで,本研究ではLeCAによる入力系列の拡張によってLCDの探索を改善することにより,翻訳精度を維持もしくは向上させながら制約を常に満たした訳出を行うことを保証することのできるモデルを提案する.LeCAを用いることによってデコーディング時よりも早いタイミングでどのような制約語句が存在しているのかという情報を翻訳モデルに与えることができるため,翻訳モデルが翻訳文中のどの位置で制約を出力するべきかをより適切に決定できるようになり,後段のLCDによる探索が効率化することが期待できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{自動で抽出した制約語句に対する語彙制約付き機械翻訳}\label{sec:reranking}本論文では,前述の翻訳手法の改善に加えて,対訳辞書などから自動で抽出された制約語句を用いて語彙制約付き機械翻訳を行う手法を提案する.特許や科学技術論文などの固有名詞を多く含むドメインの文書の翻訳では過去の翻訳結果から作成される翻訳メモリや対訳辞書を用いることが多く,そのため対訳辞書から自動で抽出した制約語句によって語彙制約付き機械翻訳を行うというユースケースが考えられる.一方で,制約語句を自動で抽出する場合には抽出された制約語句にノイズとなる語句が含まれることが考えられる.前節までで述べた語彙制約付き機械翻訳手法は与えられる制約語句が必ず参照訳中に含まれることを仮定しているため,そのまま自動抽出された制約語句の全てを語彙制約として語彙制約付き機械翻訳手法を適用すると間違った語句が必ず翻訳文に含まれることになり,むしろ語彙制約を使用しない一般的な機械翻訳手法よりも翻訳精度が低下することが想定される.この問題に対して本論文では,制約語句にノイズが含まれる状況において語彙制約付き機械翻訳を用いる手法を提案する.提案手法では,自動抽出された制約語句のリストのべき集合に対して語彙制約付き機械翻訳を行い,その翻訳結果に対してリランキング手法を用いて最も良い翻訳文の候補を選択することで,自動抽出された制約語句に対する語彙制約付き機械翻訳を実現する.まず,自動抽出された制約語句のリスト$C$のべき集合の各要素を語彙制約として語彙制約付き機械翻訳を行う.このとき作成される語彙制約は$2^{|C|}$個となり,その各語彙制約からそれぞれ複数の翻訳文の候補が得られる.次に,得られた翻訳文の候補から適切な語彙制約による翻訳文を抽出するために翻訳結果に対してリランキング用のスコアを計算し,そのスコアが最も良いものを翻訳文として選択する.これにより,自動抽出された制約語句のリスト$C$からノイズとなる制約語句を取り除いた,適切な語彙制約による翻訳文を候補として用いることができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{人手で作成した語彙制約による評価実験} \label{sec:manual_constraint_exp}\ref{sec:leca}節で述べた提案手法の有効性を評価するため,日英翻訳(\jatoen)および英日翻訳(\entoja)を対象として,人手で作成した語彙制約による制約付き機械翻訳の精度評価を行った.評価および分析の対象としたモデルは以下の通りである.\begin{itemize}\item\baseline:語彙制約を用いないベースラインモデル\item\baseline+LCD:\baselineおよびLCD\cite{post-vilar-2018-fast}\itemLeCA:Lexical-Constraint-AwareNMT\cite{chen2020lexical_leca}\itemLeCA+LCD:LeCAおよびLCD(提案手法)\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{01table01.tex}\hangcaption{ASPECおよびWAT2021RestrictedTranslationTaskデータセットの統計情報.制約語句に関する値では各文対に対する平均個数および平均単語数とそれらの分散を示す.英語の単語分割には\texttt{Moses},日本語の単語分割には\texttt{MeCab+NEologd}を用いた.}\label{tab:aspec}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット}\label{sec:dataset}学習および評価に使用する対訳コーパスとしてASPEC\cite{nakazawa16aspec}を用いた.また,開発用および評価用セットの語彙制約として,二言語話者が科学技術用語を抽出することで作成された,WAT2021RestrictedTranslationTask\cite{nakazawa-etal-2021-overview}のデータを使用した.ASPECに含まれる対訳文対の数を表\ref{tab:aspec}に示す.ASPECは英語及び日本語の科学技術論文から作成されたコーパスであり,300万文の対訳文対から構成されている.ASPECの対訳文は自動で対訳文対応付けした際のスコアが高い順に整列されているため,コーパスの末尾にある文対はノイズが多く含まれていることが考えられる.そこで,本研究では\citeA{morishita17wat}に従って,最初の200万文のみを対訳文対として使用することとした.また,最後の100万文対に関してはそれぞれの言語における擬似対訳コーパスの作成のための単言語データとした\cite{sennrich16acl}.疑似対訳コーパスを作成する方法としては,\citeA{morishita:2019:ntt}の分析および我々の事前実験に基づき,英日翻訳では目的言語文から翻訳(逆翻訳;back-translation)\cite{sennrich:2016:backtrans}を行った.モデルの学習に利用するデータには,事前実験の結果に基づき,英日翻訳ではASPEC上位200万文と残りの100万文から作成した疑似対訳データ,日英翻訳ではASPEC上位200万文のみを用いた.学習時に作成される疑似制約語句は参照訳中からサブワードではなく単語の単位でサンプリングされるため,サブワードへの分割の前に文の単語分割を行う必要がある.そこで,本研究では英語と日本語の両方の文に対して単語分割を行った.英語の単語分割には\texttt{Moses}toolkit\cite{koehn07moses}に含まれているトークナイザを用いた.日本語の単語分割には\texttt{MeCab}\cite{kudo06mecab}を使用した.\texttt{MeCab}の辞書としてよく使用されるものとして,デフォルトで利用される\texttt{ipadic}と\citeA{sato2015mecabipadicneologd}による\texttt{mecab-ipadic-NEologd}がある.\texttt{mecab-ipadic-NEologd}は多くの新語や固有表現を含む辞書であり,\texttt{ipadic}では正しく分割できない固有表現や専門用語をより適切に扱うことができると考えられる.固有表現や専門用語は語彙制約として多く与えられることが想定されるため,日本語の単語分割に際して\texttt{mecab-ipadic-NEologd}を用いることは品質の高い疑似制約語句の作成につながることが期待できる.辞書の違いによる翻訳精度および制約語句の一貫性への影響に関しては,\ref{sec:mecab_dictionary}節で比較評価を行う.目的言語が英語の場合,制約語句が大文字で始まっているかどうかによって生成結果が影響されるのを避けるために\texttt{Mosestruecaser}を使用した.単語分割後,\texttt{sentencepiece}\cite{kudo:2018:sentencepiece}を用いてサブワードへの分割を行った.\citeA{morishita:2019:ntt}によると,TransformerによるASPECの翻訳の際の語彙サイズは,一般的に用いられている値(例:32,000)よりも小さいサイズ(例:4,000)のほうが実験的に高い翻訳精度を達成すると報告されている.一方で,LCDを使用する際には制約語句のサブワード数を減らせるために大きい語彙サイズが適していると考えられる.これは,制約語句のサブワード数が増加するとLCDが必要とするビーム幅が増加し,訳出にかかる時間が増加するためである.本研究では,事前実験において最も良い結果を達成した,日本語と英語合わせて32,000トークンの語彙サイズを採用した.また,学習データから過度に長いものや文長が異なる文対を削除するため,\texttt{Moses}の\texttt{clean-corpus-n}スクリプトによるクリーニングを行った\footnote{文長の最短は1,最長は250,最大の長さ比は9に設定した.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデル}\label{sec:model}提案手法の有効性を確認するためのベースラインモデルにはTransformer(big)\cite{vaswani:2017:NIPS}を用いた.\citeA{kiyono-etal-2020-tohoku}に基づき,ベースラインモデルの詳細な設定およびハイパーパラメータは表~\ref{tab:hyper-parameter}に示したものを用いた.本実験で使用したモデルはベースラインモデルをベースとして作成しており,特に明記していない場合の設定およびハイパーパラメータはベースラインモデルの値に準じている.モデルの実装には{\ttfairseq}\cite{ott19fairseq}を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{01table02.tex}\caption{ベースラインモデルの設定およびハイパーパラメータ}\label{tab:hyper-parameter}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%LeCAの学習に際して疑似制約の最大個数$K$は14とし,単語数$k$は以下の分布に従ってサンプリングを行った.\begin{equation}p(k)=\left\{\begin{array}{ll}0.4&(k=0)\\0.6/14=0.04&(1\leqk\leq14)\end{array}\right.\end{equation}また,モデルの更新回数は,英語が制約の場合には10,000ステップ,日本語が制約の場合には12,000ステップとした.LeCAとLCDを組み合わせた際のビームサイズは,事前実験で30より大きくしても精度の改善がほとんど見られなかったため,$k=30$を用いた.語彙制約を用いた場合のモデルアンサンブルの効果についても検証した.モデルアンサンブルの実施方法としては,まず初めにそれぞれ異なる乱数のシード値から8個のモデルの学習を行った.その後,各タイムステップにおいてそれらのモデルのトークンの生成確率の平均を計算し,その値を基にビームサーチによるデコーディングを行った.最後に,翻訳文中の制約語句と対応する箇所に対して後処理を行った.これは,サブワード分割などの影響によって与えられた制約語句と表層が完全に一致しない状態で訳出されてしまうケースがあるためである.具体的には,翻訳文上で完全一致しない制約語句に対して,以下の手順で翻訳文中の制約語句に対応する箇所を制約語句に置換することにより行った.\begin{enumerate}\itemハイフン等の記号の前後の空白の削除や半角の記号を全角に変換する\item表層の完全一致で翻訳文中に見つからない制約語句に対して,翻訳文と制約語句の両方を小文字に変換及び空白を削除した状態で翻訳文の制約語句に対応する箇所を検索し,その情報に基づいて翻訳文の一部を与えられた制約語句に置換する.\item制約語句の一部が未知語となってしまっている場合が存在する\footnote{我々の作成したモデルの語彙ではテストセット中のおよそ2\%の文で語彙外のトークンが含まれていることを確認した.}ため,(2)の処理での検索でも制約語句に対応する箇所が見つからない場合には,制約語句の任意の部分文字列を未知語を表す特殊トークンに置き換えた後に(2)と同様の処理で置換を行う.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価尺度}語彙制約付き機械翻訳モデルの評価は翻訳文の翻訳精度および語彙制約の生成の間の一貫性という観点に基づいて行った.翻訳精度の尺度には,自動評価尺度としてBLEU\cite{papineni-EtAl:2002:ACL},人手評価尺度としてsource-baseddirectassessment(DA)\cite{cettolo17iwslt,federmann-2018-appraise}およびsource-basedcontrastiveassessment(CA)\cite{sakaguchi-van-durme-2018-efficient,federmann-2018-appraise}を用いた.特に明記していない場合,BLEUの計算にはsacrebleu\cite{post18sacrebleu}を用いた\footnote{signatureは以下の通り.\\Ja-En:``nrefs:1\textbarcase:mixed\textbareff:no\textbartok:13a\textbarsmooth:exp\textbarversion:2.0.0''\\En-Ja:``nrefs:1\textbarcase:mixed\textbareff:no\textbartok:ja-mecab-0.996-IPA\textbarsmooth:exp\textbarversion:2.0.0''}.語彙制約と生成の一貫性を測る尺度としては,Term\%\cite{susanto-etal-2020-lexically,chen2020lexical_leca}\footnote{\citeA{chen2020lexical_leca}ではcopysuccessrate(CSR)という名前で同じ評価尺度が用いられている.}およびSent\%という2つの尺度を用いた.Term\%およびSent\%は以下のように定義される.\begin{align}Term\%&=\frac{翻訳文中に正しく生成された制約語句の数}{データセット中の全ての制約語句の数}\times100\\Sent\%&=\frac{語彙制約を完全に満たす翻訳文の数}{データセット中の参照訳数}\times100\end{align}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}各手法による翻訳精度及び制約語句の訳出の一貫性の変化を確認する.\ref{sec:compare_model}節ではモデルの構成の違い,\ref{sec:mecab_dictionary}節では日本語を制約語句とする際の単語分割に使用する辞書の違いを比較し,評価尺度のスコアの変化から語彙制約付き機械翻訳および提案手法にとって最適な設定について検証する.また,\ref{sec:auto_eval}節ではそれまでの比較によって判明した最適な設定によるモデルの翻訳精度を示し,その結果から事前学習およびアンサンブルの効果についても確認する.最後に,\ref{sec:human_eval}節において,自動評価尺度で最も翻訳精度が高かったシステムに対する人手評価を行い,その結果を確認する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{モデルの構成の違いによる翻訳精度および一貫性の比較}\label{sec:compare_model}翻訳文と制約語句の間で表層が一致するようにするための後処理を行う前の,各モデルの翻訳精度及び一貫性の結果を表\ref{tab:term_sent_per}に示す.まず,LCDのみを用いた手法(\baseline+LCD)では,{\baseline}にくらべてTerm\%およびSent\%の大幅な改善が見られた.この時,ハード制約を満たすはずのLCDを適用しても\baseline+LCDの一貫性スコアが100\%になっていないが,これはトークナイズ時の正規化などが原因でスコアが減少しており,前述の後処理を適用することでスコアを100\%にすることができることを確認している(\ref{sec:model}節).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{01table03.tex}\hangcaption{後処理を行う前の各モデル構成の翻訳精度および語彙制約の生成の一貫性スコア.*が付いている値は後処理によって100\%になった値を表す.}\label{tab:term_sent_per}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一方で,\baseline+LCDの翻訳精度が{\jatoen}において\baselineと比べて減少してしまっていることがわかる.この際に生成された翻訳文を確認したところ,いくつかの文では制約語句と同じ意味だが表層が異なるフレーズが訳出された後に同じ単語やフレーズを大量に繰り返しており,その結果として翻訳精度が減少していた.これは,NMTモデルが制約語句と同じ意味だが表層が異なるフレーズを先に訳出した際に,制約語句に対応する原言語のフレーズは翻訳済みという扱いになってしまうので制約語句の出力確率は高くならず出力されづらくなるが,その一方でLCDはすべての制約を満たすまで生成を続けるようにモデルに強制するため,その結果としてトークンの繰り返しが発生してしまうのだと考えられる.また,\baseline+LCDを用いて全ての制約語句の生成を成功させるためには,ビームサイズを60以上にしないとビームサーチ時に探索失敗してしまうということも確認されたため,非常に翻訳時の計算コストが大きくなった.これは,翻訳モデルが語彙制約を知らないために制約語句に対する生成確率が高くならない場合が存在し,小さいビームサイズでは語彙制約を含む翻訳候補を探索できないことが原因だと考えられる.次に,LeCAの結果に着目すると,高い翻訳精度と一貫性スコアを達成していることがわかる.LeCAおよび\baseline+LCDへの入力は同じ原言語文と制約語句の2つであるが,\baseline+LCDに比べて翻訳精度は大きく向上していることがわかる.しかし,LeCAは語彙制約を満たすことを保証しない手法であることから,一貫性スコアに関しては\baseline+LCDよりも減少したものとなっている.これらの手法に対して,提案手法であるLeCA+LCDでは小さいビームサイズで全ての語彙制約を満たしながらも翻訳精度の向上を達成することができている.このことから,NMTモデルに原言語文と語彙制約の両方を入力することで,モデルが適切なタイミングで制約語句に対して高い出力確率を割り当てることができるようになり,その結果として語彙制約付きデコーディングによる出力候補の探索が効率的に行われるようになり,翻訳精度の向上やビームサーチの減少に繋がるのではないかと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{単語分割時の辞書の違いによる翻訳精度および一貫性の比較}\label{sec:mecab_dictionary}LeCAの学習時に作成される疑似制約語句は参照訳中から単語の単位でランダムにサンプリングされるため,単語の分割単位が学習に大きく影響を与えると考えられる.特に,分かち書きがされていない日本語では,使用する辞書などによって大きく単語の分割単位が変化する.そのため,日本語が語彙制約として与えられる{\entoja}において,単語分割の際の辞書の違いによりLeCAの翻訳精度および一貫性スコアがどのように変化するかを確認した.単語分割には\texttt{MeCab}を用い,比較する辞書としてはデフォルトの辞書である\texttt{ipadic}と固有表現を多く含む\texttt{mecab-ipadic-NEologd}の2種類を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{01table04.tex}\caption{{\entoja}における単語分割の際の辞書の違いによるLeCAの翻訳精度および一貫性スコアの変化}\label{tab:mecab_dictionary}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:mecab_dictionary}に各辞書を使用した際のLeCAの翻訳精度および一貫性スコアの結果を示す.\texttt{ipadic}を使用した場合に比べて\texttt{mecab-ipadic-NEologd}を用いたモデルのほうが翻訳精度および一貫性スコアが大きく向上している.このことから,\texttt{mecab-ipadic-NEologd}のような新語や固有表現が多く含まれる辞書を用いる方がそれらの単語が1単語として分割されるため,日本語におけるLeCAの学習に適しているということが確認できた.そのため,本研究における日本語の単語分割には\texttt{MeCab}と\texttt{mecab-ipadic-NEologd}の組み合わせを用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{自動評価尺度による翻訳精度の評価}\label{sec:auto_eval}表~\ref{tab:compare_bleu}に評価用データセットに対する各システムの自動評価尺度による翻訳精度を示す\footnote{これらの結果はWATRestrictedTranslationTaskの評価用サーバで評価されたものである.\\Ja-En:\url{http://lotus.kuee.kyoto-u.ac.jp/WAT/evaluation/list.php?t=158&o=4}\\En-Ja:\url{http://lotus.kuee.kyoto-u.ac.jp/WAT/evaluation/list.php?t=157&o=1}}.この結果より,提案手法(d)は{\baseline}(a)に対してBLEUスコアで{\entoja}が+10.85ポイント,{\jatoen}が+14.03ポイントと,大幅に翻訳精度が向上していることがわかる.また,既存の語彙制約付き機械翻訳手法であるLCD(b)およびLeCA(c)に対しても精度が向上している.これより,入力系列の拡張による語彙制約を考慮したNMTとビームサーチによる語彙制約付きデコーディングを組み合わせることで,さらに効果的な語彙制約付き機械翻訳が実現できることが確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{01table05.tex}\hangcaption{翻訳精度の自動評価尺度による結果.{\entoja}の結果に,\texttt{MeCab}による単語分割を基にしたBLEUスコアを示している.\textbf{太字}で示される値は各列において最も高い値を表す.}\label{tab:compare_bleu}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,後処理による翻訳精度の影響について確認する.後処理を行っていない表3の結果と比較すると,{\entoja}では翻訳精度が向上しているが{\jatoen}では翻訳精度が減少していることが確認できる.これは後処理が,目的言語が日本語の場合には制約語句に含まれる未知語が正しく復元されるなどの影響で翻訳精度の向上に寄与し,英語の場合には正規化の有無やトークン単位が一致しなくなるなどで翻訳精度が減少してしまう原因となっていると考えられる.最後に,その提案モデルのアンサンブルの効果について検証する.結果より,8個のモデルをアンサンブルすることにより,単一のモデルの翻訳精度に対して大幅な翻訳精度の検証が見られた(表~\ref{tab:compare_bleu}(d),(e)).このことから,語彙制約付きデコーディングとの組み合わせにおいてもモデルのアンサンブルは翻訳精度の改善に寄与することが確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{人手評価尺度による翻訳精度の評価}\label{sec:human_eval}表~\ref{tab:human_eval}に,\pagebreak\ref{sec:auto_eval}で最も高い精度を達成したモデル(表\ref{tab:compare_bleu}(e))に対する人手評価尺度による翻訳精度の評価結果を示す\footnote{これらのスコアはWAT2021RestrictedTranslationTask\cite{nakazawa-etal-2021-overview}にて,各参加者のベストモデルに対して二言語話者によって評価されたものである.\url{https://sites.google.com/view/restricted-translation-task/2021#h.ev9nk8f29t1k}}.提案手法により作成したモデルでは,人間によって翻訳が行われた参照訳よりも両方の尺度において高い翻訳精度が実現できている.特に,オリジナルのデータの翻訳方向と同じである{\jatoen}の設定においても参照訳を上回る精度を達成していることから,目的言語側で適切な語句を制約語句として選択することができる場合には,語彙制約付き言語生成によって人間と同等の翻訳精度を達成することができる可能性が示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{01table06.tex}\caption{翻訳精度の人手評価尺度による結果}\label{tab:human_eval}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{分析}これまでの実験により適切な語彙制約が与えられる設定では提案手法によって高い翻訳精度が達成できるということが確認できた.しかし,以下の点に関しては依然として疑問が残る.\begin{itemize}\item提案手法がなぜ先行研究と比べて有効であるのかという点(\ref{sec:example_analysis}節)\item提案手法によって計算効率はどの程度向上したのかという点(\ref{sec:beamsize_analysis}節)\item制約語句の性質によって翻訳精度が改善もしくは悪化するのかという点(\ref{sec:cons_feature_analysis}節)\end{itemize}本節ではこれらの疑問点に関して,さらなる分析を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実際の翻訳結果の例に基づく分析}\label{sec:example_analysis}提案手法がなぜ先行研究と比べて有効であるのかを確認するため,先行研究である{\baseline+LCD}では翻訳に失敗してしまうが提案手法のLeCA+LCDでは正しく翻訳が行えるケースを用いて分析を行う.表~\ref{tab:example_translation}にASPECの評価用セットから選択したそのようなケースの翻訳例を示す.ここで,表中の下線部は制約語句と完全一致するフレーズ,波線部は制約語句と同じ意味で表層が異なるフレーズを表す.結果より明らかであるように,{\baseline+LCD}は同様のフレーズを繰り返し生成しており,語彙制約を満たしている一方で翻訳には失敗してしまっている.特に,\texttt{superconductivitysinglephraseauto-transformer}という制約語句の生成が上手く行われていないように思われる.この問題は,{\baseline+LCD}が与えられた制約語句と非常に似た意味だが表層が異なるフレーズの\texttt{superconductingsingle-phasetransformer}(表~\ref{tab:example_translation}波線部)を早い段階で生成してしまい,制約語句の情報を知らない翻訳モデルはその制約語句に対応する原言語の表現が翻訳されたとしてしまうのに対して,実際には制約が満たされていないためにLCDが訳文の生成を終了させないようにモデルに出力を強制することから発生しているのではないかと考えられる.このような翻訳結果は{\baseline+LCD}の出力に多く見られており,このことが{\baseline}に比べて翻訳精度が低下している点やビームサイズを大きくする必要がある点の原因となっていると思われる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{01table07.tex}\hangcaption{翻訳例:下線部は制約語句と完全一致するフレーズ,波線部は制約語句と同じ意味で表層が異なるフレーズを示す.}\label{tab:example_translation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一方で,提案手法であるLeCA+LCDは語彙制約を満たした上での翻訳に成功している.このことから,入力として語彙制約を受け取るLeCAは制約語句に対して他の単語よりも高い生成確率を付与する,または他の単語の生成確率を適切に下げることができるため,提案手法がより制約を満たした文の生成に効果的であるということが示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ビームサイズの変化による翻訳精度の変化}\label{sec:beamsize_analysis}提案手法のビームサイズによる影響を確認するため,ビームサイズを変化させた際に提案手法の翻訳精度がどのように変化するかの分析を行う.図~\ref{fig:beamsize}に,英日翻訳におけるビームサイズを変化させた際のBLEUスコアを示す.\ref{sec:lcd}節でも述べた通り,\baseline+LCDではビームサイズを60以上まで大きくしないと語彙制約を満たす出力候補の探索に失敗するケースが確認された.これに対して,LeCA+LCDではビームサイズを非常に小さく設定した際においても語彙制約を満たすことができ,さらに翻訳精度も改善することができている.この結果より,LeCAの出力確率による翻訳候補のスコアリングはLCDによる探索をより効率化させ,LeCAとLCDを組み合わせた手法を用いることで予測にかかる計算時間を減少させることができることが示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{29-4ia1f3.pdf}\end{center}\caption{英日翻訳におけるビームサイズを変化させた際のBLEUスコア}\label{fig:beamsize}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{制約語句の性質による翻訳精度の変化}\label{sec:cons_feature_analysis}本節では,制約語句の性質によって翻訳精度がどのような影響を受けるのかについて分析を行う.前節までの結果より,科学技術用語のような適切な制約語句を与えることができれば,語彙制約付き機械翻訳によって高い翻訳精度が達成できることが確認できた.しかし,科学技術用語以外で一般にどのような制約語句が翻訳精度の向上に寄与するのかは明らかではなく,同様に制約語句が科学技術用語以外になった場合の語彙制約付き機械翻訳手法の有効性も明らかではない.そこで本節では,参照訳文中から言語学的な役割を持つ様々な語句を抽出し,それらの語句を語彙制約とした際の役割ごとの翻訳精度の変化を確認する.語句の役割には品詞・句構造木・固有表現のタグを採用した.品詞および固有表現は\texttt{spaCy}のRoBERTaベースのパイプライン\footnote{\url{https://spacy.io/models/en#en_core_web_trf}}を使用してタグ付けを行った.また,句構造解析にはBerkeleyNeuralParser\cite{kitaev-klein-2018-constituency}\footnote{\url{https://spacy.io/universe/project/self-attentive-parser}}を用いた.タグ付けされたすべての語句に対して,その語句を制約として与えた場合及び与えない場合の2通りでLeCA+LCDを用いて翻訳を行い,属性別でそれぞれのBLEUを計算した.表\ref{tab:pos_tag_bleu_improvement}に品詞タグ,表\ref{tab:constituency_tag_bleu_improvement}に句構造タグ,表\ref{tab:ner_tag_bleu_improvement}に固有表現タグにおける,役割別の翻訳精度の変化を示す.品詞・句構造ではほとんどのタグ,固有表現ではすべてのタグで語彙制約として与えた際に翻訳精度の改善が見られた.タグ付けの際のエラーを考慮してスコアの分散が小さいと思われる100文以上抽出されているタグに着目すると,品詞では基数(CD)や限定詞(DT),前置詞(IN),形容詞(JJ),人称代名詞(PRP\$,PRP),副詞(RB),動詞(VBD,VBG,VBN,VBP,VB,VBZ)などの幅広いタグで翻訳精度の改善が見られる.特に動詞に関連するタグでは精度改善の幅が大きく,これは動詞が活用などで表現が変化しやすいことから参照訳の表現と同じ表現で翻訳器が訳出することが難しいために語彙制約として与えることで訳出表現が一意に定められることが原因として考えられる.一般名詞(NN,NNS)に関しても精度が向上している一方で,固有名詞(NNP)では精度が向上していないという結果になっている.実際の出力結果から固有名詞が制約として与えられていてBLEUが低下しているものを確認すると,多くは制約語句の一部が大文字や小文字になっていることによりスコアの減少を招いていた.目的言語が英語の場合には制約語句が大文字で始まっているかどうかによって生成結果が影響されるのを避けるためにtruecaseを行っており,翻訳モデルの出力した文をdetruecaseする際に語彙制約全体もしくは最後の1文字が大文字にならないことがあるため,その結果として大文字で与えられることの多い固有名詞では翻訳精度が少し低下していると考えられる.実際に,すべて事前に小文字に変換して大文字と小文字の違いを無視した状態で評価を行ったところ,BLUEが制約なしでの翻訳では32.9ポイントであるのに対して制約付きの翻訳では33.4ポイントとなり,0.5ポイントの改善が確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[p]\input{01table08.tex}\end{center}\caption{品詞タグ別での制約の有無によるBLEUの比較.太字は同じ属性でBLUEスコアが高い方を示す.}\label{tab:pos_tag_bleu_improvement}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9and10\begin{table}[t]\setlength{\captionwidth}{205pt}\noindent\begin{minipage}[t]{205pt}\input{01table09.tex}\hangcaption{句構造タグ別での制約の有無によるBLEUの比較.太字は同じ属性でBLUEスコアが高い方を示す.}\label{tab:constituency_tag_bleu_improvement}\end{minipage}\raisebox{20pt}[0pt][0pt]{%\begin{minipage}[t]{205pt}\input{01table10.tex}\hangcaption{固有表現タグ別での制約の有無によるBLEUの比較.太字は同じ属性でBLUEスコアが高い方を示す.}\label{tab:ner_tag_bleu_improvement}\end{center}\end{minipage}}%\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{自動で抽出した語彙制約による評価実験} \label{sec:exp_auto_cons}\ref{sec:reranking}節で提案した,自動抽出した語彙制約に対する翻訳候補のリランキングによる語彙制約付き機械翻訳手法の有効性を確認するため,日英翻訳を対象として対訳辞書から自動抽出した語彙制約による語彙制約付き機械翻訳の精度評価を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対訳辞書}語彙制約を抽出するために用いる対訳辞書として,汎用的な辞書であるEDR日英対訳辞書(EDR-JE)\footnote{\url{https://www2.nict.go.jp/ipp/EDR/ENG/indexTop.html}}および日英翻訳システムALT-J/Eの対訳辞書\cite{ikehara-etal-altje-1987}を用いた.対訳辞書のエントリに関しては文脈に応じて訳語が変化するものや見出し語の検索性が低いものなどが存在しノイズとなるため,以下の要素に当てはまるエントリに対してフィルタリングを行った.\begin{itemize}\item名詞/名詞句以外の語句を含むエントリ\item長さが1の語句からなるエントリ\item原言語側の単語に対して複数の訳語が存在するエントリ\end{itemize}語彙制約の抽出は,対訳辞書の原言語側の語句から作成したTrie木\footnote{Trie木の実装には\texttt{rixwew/darts-clone-python}を用いた.\url{https://github.com/rixwew/darts-clone-python}}を用いて原言語文中に含まれるエントリを検索し,原言語側の語句の長さが最長となるエントリを選択することで行った.この際,対訳辞書と原言語文との間で形態素の単位を揃えるために,各エントリの原言語側の語句は\texttt{MeCab+NEologd}によって事前に分かち書きを行ったものを用いた.また,語彙制約のオラクルとして人手で作成された語彙制約(オラクル制約)であるWAT2021RestrictedTranslationTaskのデータを使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデル}評価に用いる翻訳モデルとしては以下のものを選択した.\begin{itemize}\itemTransformer(big)\itemLeCA+\{EDR-JE,ALT-J/E\}\itemLeCA+LCD+\{EDR-JE,ALT-J/E\}\itemLeCA+LCD+人手制約(WAT2021)\end{itemize}翻訳モデルの学習および評価に使用する対訳コーパスにはASPECを用いた.各モデルの詳細な設定およびハイパーパラメータは\ref{sec:manual_constraint_exp}節と同様のものを用い,新たにモデルを作成した.翻訳文と制約語句の間で表層が一致するようにするための後処理,およびモデルのアンサンブルに関しては行わなかった.辞書から抽出した制約に対しては$|C|$個の制約語句を全て使用したものから生成文の上位30文,及び$2^{|C|}$通りの語彙制約からそれぞれ上位30文を集めたものを翻訳候補として用いた.また,制約なしもしくは人手制約に対しては上位30文を翻訳候補として用いた.翻訳候補のリランキングの際に用いるスコアには以下の3つのスコアをそれぞれ用いた.\begin{itemize}\itemGeneration:翻訳モデルの出力する翻訳候補の尤度\itemReranker:原言語文と翻訳候補からリランキングモデルの計算するスコア\itemSBLEU:翻訳候補と参照訳との間の文レベルのBLEU\end{itemize}リランキングモデルには,\citeA{marie-fujita-2018-smorgasbord}の分析に基づき,文末から文頭へと翻訳文を生成するRight-to-Left翻訳タスクをTrasnformer(big)で学習したモデルを使用した.その際のリランキングのスコアとしては入力された翻訳候補をforcedecodingした際の尤度を用いた.また,SBLEUは参照訳を利用するため実際の翻訳時には利用できないが,理想的なリランキングができた際の翻訳結果と考えられるため使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価尺度}各辞書から抽出した語彙制約の特徴を分析するため,以下の尺度に基づいて各辞書の評価を行った.\begin{itemize}\item制約語句の原言語側での単語数/原言語文の単語数(sourcetokenmatch;ST)\item参照訳に含まれる制約語句数/全ての制約語句数(bilingualtermmatch;BT)\item各文に対して与えられた制約語句が1つでも参照訳に含まれる割合(Lax)\item各文に対して与えられた全ての制約語句が参照訳に含まれる割合(Strict)\item制約が与えられない文の割合(noconstrainedsentence;NoCons)\end{itemize}また,各手法の評価には翻訳精度の自動評価尺度であるBLEUを用いた.また,制約語句が与えられた文が翻訳結果にどの程度使用されているかを調べるために,\pagebreakリランキングによって選択された翻訳文中の制約語句が与えられた翻訳文の割合(ConstrainedSentenceRatio)を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{対訳辞書によって自動抽出された語彙制約の持つ特徴}各辞書に対する評価結果を表\ref{tab:constraints_accuracy}に示す.エントリ数に着目するとALT-J/Eのほうが規模が大きく,それに従って制約が与えられない文の割合であるNoConsに関しては非常に小さく,原言語側の単語に対する辞書のヒット率であるSTや自動抽出された制約語句が1つでも参照訳に含まれる割合であるLaxは高くなっている.一方で,参照訳に含まれる制約語句の割合であるBTやすべての制約語句が参照訳に含まれる割合であるStrictに関してはEDR-JEのほうが高いという結果を示している.このことから,EDR-JEは抽出できる語彙制約の数は多くないもののその語句が正しい割合は比較的高く,逆にALT-J/Eは制約語句の精度は比較的低いが語彙制約が多く抽出できるという特徴を持つと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[b]\input{01table11.tex}\caption{辞書の違いによる語彙制約の評価}\label{tab:constraints_accuracy}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{対訳辞書により作成した語彙制約を用いた際の翻訳精度の評価}対訳辞書により自動抽出した語彙制約を用いた際の各手法の翻訳精度を表\ref{tab:dict_cons_evaluation}に示す.まずはじめに,$|C|$個の制約語句を全て使用した翻訳を行った際の翻訳精度に着目すると,リランキングの方法によらずベースラインである一般的な機械翻訳手法に対してLeCAおよびLeCA+LCDの翻訳精度が低下していることが確認できる.これは,自動抽出された制約語句にはノイズとなる語句が含まれるため,そのまま語彙制約付き機械翻訳手法を適用すると間違った語句が翻訳文に含まれてしまうことが原因であると考えられる.次に,$2^{|C|}$通りの語彙制約から翻訳を行った際の翻訳精度に着目すると,$|C|$個の制約語句をすべて使用した際の語彙制約付き機械翻訳手法に対して,リランキングの方法によらず$2^{|C|}$通りの語彙制約を用いた手法による翻訳が高い翻訳精度を実現していることが確認できる.このことより,自動で抽出したノイズの多い制約語句に対して本論文で提案した制約語句のリストのべき集合の各要素に対して語彙制約付き機械翻訳を行う方法が有効であることが考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[t]\input{01table12.tex}\caption{対訳辞書により作成した語彙制約を用いた際の各手法の翻訳精度.$2^C$は$C$のべき集合を示す.}\label{tab:dict_cons_evaluation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[t]\input{01table13.tex}\caption{対訳辞書により制約語句の理想的な抽出ができた際の各手法の評価}\label{tab:oracle_dict_evaluation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,翻訳モデルの出力する尤度をスコアとするGenerationでは,ベースラインである一般的な機械翻訳手法に対して,EDR-JEやALT-J/Eでの語彙制約によるLeCAおよびLeCA+LCDの翻訳精度が低くなっているが,リランキングモデルによるスコアを用いるRerankerではベースラインに対してLeCAやLeCA+LCDが翻訳精度を向上させることができている.これは,Generationでは語彙制約付き機械翻訳手法の生成確率が与えられた語彙制約に影響されて大小することやモデルへの入力が異なるのにも関わらずその尤度を1つのスコアとして比較しているが,Rerankerではリランキングモデルの入力が原言語文のみであるので各翻訳候補に対する入力が同じになるため尤度を比較するのに向いているということが理由の1つとして考えられる.このことより,対訳辞書などから自動で抽出したノイズの多い語彙制約に対しても本論文で提案した翻訳候補のリランキングを用いることで,一般的な機械翻訳手法と比べて語彙制約付き機械翻訳手法で翻訳精度を改善できることが確認できる.さらに,SBLEUではベースラインに対して語彙制約付き機械翻訳手法が非常に高い翻訳精度が達成できていることから,理想的なリランキングに近づけば近づくほど翻訳精度を大きく改善することができることも予想される.一方で,人手制約によるLeCA+LCDの結果を見るとRerankerよりもGenerationのほうが高い翻訳精度を達成している.これは,今回使用した人手制約で与えられる固有名詞や専門用語などの生成確率は学習データに含まれていないことが多く,そのような制約語句を含む翻訳候補へのリランキングモデルのスコアが低下してしまうことが考えられ,ノイズのない人手制約ではRerankerの翻訳精度が低下してしまうということが考えられる.次に,ConstrainedSentenceRatioについて着目すると,RerankerやSBLEUではリランキングで制約なしの翻訳文が選択されていることがわかる.Generationではリランキングで選択された翻訳文の過半数以上が語彙制約が与えられた上での翻訳であるのに対して,RerankerやSBLEUではそのような文の割合が大きく減少している.特に,表\ref{tab:constraints_accuracy}のLaxの値と比較してRerankerやSBLEUの割合が低いことから,いくつかの翻訳に関しては参照訳に含まれている制約語句が与えられたとしても語彙制約なしで翻訳した結果が選択されていることがわかる.また,この結果からも,Generationでは語彙制約付き機械翻訳手法の生成確率が与えられた語彙制約に対して高い生成確率を割り当てており,語彙制約を使用した翻訳候補に対して高いスコアを割り当てていることが示唆される.最後に,辞書について着目すると,語彙制約が多く抽出できるALT-J/EがConstrainedSentenceRatioに関してはより高い割合となっており,ALT-J/Eの方が語彙制約付きでの翻訳結果が多く使用されている.一方で,翻訳結果に関してはGenerationではEDR-JEのほうが高い精度を達成しており,RerankerではALT-J/EとEDR-JEで大きな差はないという結果になっている.また,SBLEUでは逆にALT-J/Eのほうが高い精度を達成していることから,リランキングが高精度に行える環境下では制約語句の精度は比較的低くとも語彙制約が多く抽出できる辞書のほうが適していることが予想される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{対訳辞書により制約語句の理想的な抽出ができた際の各手法の評価}所与の対訳辞書から理想的な語彙制約が抽出できた際の翻訳精度を評価した.ここで,理想的な語彙制約とは抽出された制約語句にノイズとなる語句が含まれていない語彙制約を指し,対訳辞書により自動抽出した制約語句の中から参照訳に含まれる語句だけを選択することで作成した.対訳辞書を用いて語彙制約を自動抽出する場合にはノイズとなる制約語句によって翻訳精度が低下する恐れがあったため,制約語句のリストのべき集合を語彙制約とする方法をとっていた.これに対して,この理想的な語彙制約にはノイズとなる制約語句が含まれないため,本評価では抽出された制約語句を全て用いる語彙制約付き機械翻訳を行った.その後,得られた翻訳文の候補に対してリランキングを行った.結果を表\ref{tab:oracle_dict_evaluation}に示す.表\ref{tab:dict_cons_evaluation}の結果と比較すると,GenerationとRerankerのほとんどの設定で翻訳精度が向上していることがわかる.したがって,語彙制約の抽出の精度を向上させることによって翻訳精度を改善させられることが示唆される.一方で,SBLEUの値を見ると表\ref{tab:dict_cons_evaluation}の結果よりも低下していることがわかる.これは,本評価では語彙制約付きの翻訳しか行っていないため,リランキングの対象には制約なしでの翻訳候補が含まれないことが原因として考えられる.前節の結果から,いくつかの翻訳に関しては参照訳に含まれている制約語句が与えられたとしても語彙制約なしで翻訳した結果のほうが高い翻訳精度を達成すると考えられ,そのためSBLEUに関しては翻訳精度が低下してしまっていると思われる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \citeA{hokamp-liu-2017-lexically}はGridBeamSearch(GBS)と呼ばれる,ビームサーチを拡張して翻訳モデルに与えられた制約語句を出力させることを強制する手法を提案している.この手法では,各出力ステップにおいて,ビームを制約の個数と同じ数だけのbankに分割し,$n$個の制約を満たした候補の中から上位$k$個の候補を$n$番目のbankに割り当てる.この方法で探索を進めると,語彙制約をすべて満たした翻訳候補は制約の個数に対応するビームに含まれるようになる.一方で,ビームサイズが各入力文の制約の個数に応じて変化するため,複数の文を並列して翻訳することが難しくなる.これに対して,\citeA{post-vilar-2018-fast}はDynamicBeamAllocation(DBA)と呼ばれる,固定のビームサイズから各bankに対して動的にサイズを割り当ててデコーディングを効率化する手法を提案している.しかし,これらの論文における実験で用いられている制約語句の単語数は本論文で扱ったデータと比べると小さく,我々の実験ではこれらの手法は本論文で扱ったデータのようなケースでは上手く機能しないことが確認された.\citeA{song2020alignment}や\citeA{chen2021lexically}は制約語句と原言語文との間の単語アラインメントに基づいた制約付き機械翻訳手法を提案している.このアラインメントはアテンション機構の重み\cite{garg-etal-2019-jointly}や追加のアテンションヘッドの値から導出され,翻訳モデルが原言語のどの単語を翻訳しようとしているかという情報から制約語句を訳出するタイミングを決定する.しかし,これらの手法の学習には,語彙制約に加えて原言語文と制約語句の間の正解の単語アラインメントが必要になる.そのような情報が利用できない場合には自動単語アラインメント手法(e.g.GIZA++,Fast-Align)等を使用する必要があるが,そのアラインメントのエラーのせいで翻訳精度が低下してしまうことが予想される.\citeA{susanto-etal-2020-lexically}では全てのトークンを並列に生成するNon-AutoregressiveNMT(NAT)に基づいた高速な語彙制約付き機械翻訳手法を提案している.この手法では,各出力ステップでトークンの挿入および削除を行うLevenshteinTransformer\cite{gu-et-al-2019-levenshtein}を用いており,与えられた制約語句を出力の初期状態として翻訳を始める.この論文では与えられた語彙制約の順序は参照訳中に出現する順序と同じであると仮定しているが,一方で本論文で用いたデータのように制約語句の参照訳中での出現順序の情報が利用できないことのほうが一般的だと考えられる.その場合には,制約の個数の階乗個ある全ての順序で翻訳を行ってリランキングする必要があるため,非常に計算回数が大きくなってしまう.また,NATに基づく手法は従来のAutoregressiveNMTによる方法よりも依然として翻訳精度が低い.また,いくつかの先行研究では入力系列を語彙制約で拡張する手法を提案している.\citeA{song-etal-2019-code}は統計的機械翻訳で用いるフレーズテーブルを用い,原言語文のうち制約語句に対応する部分に対してその制約語句で置換したり挿入したりすることで入力系列を拡張する手法を提案している.また,\citeA{chen2020lexical_leca}は原言語文の末尾に制約語句を結合するという非常にシンプルだが効果的な手法を提案している.これらの手法はこれまで紹介した手法と比べて高速に動作するが,一方でこれらの手法によって全ての語彙制約が満たされた翻訳結果が得られることが保証されない.さらに,\citeA{song-etal-2019-code}はフレーズテーブルの品質に翻訳精度や語彙制約が満たされる割合が大きく影響されてしまう.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{まとめ} 本論文では翻訳モデルの入力系列の拡張によってビームサーチによる語彙制約付きデコーディングを効率化した語彙制約付き機械翻訳手法を提案した.ASPECによる日英および英日翻訳での実験により,提案手法が従来手法と比べて少ない計算コストで高い翻訳精度を実現することを確認した.また,対訳辞書などを用いて自動抽出されたノイズの多く含む語彙制約に対しても語彙制約付き機械翻訳手法を適用するために,与えられた語彙制約の任意の組み合わせに対する翻訳候補にリランキング手法を用いることで最適な翻訳文を選択する手法についても提案し,日英翻訳での実験において一般的な機械翻訳手法とくらべて高い翻訳精度が達成可能であることを示した.今後の課題としては,高精度に語彙制約の自動抽出を行う手法の検討が挙げられる.語彙制約付き機械翻訳手法に与える語彙制約は翻訳する言語対やドメインに大きく依存すると考えられ,すべての言語対やドメインに対して人手で語彙制約を作成するのはコストを要するために自動化が望まれる.しかし,制約語句の自動抽出を行う手法についてはまだほとんど取り組まれておらず,対訳辞書や対訳コーパスから作成したフレーズテーブルを用いて制約語句を作成することが考えられるが,その方法は自明ではない\footnote{事前実験において,ドメインおよび言語対を共有している学習データからフレーズテーブルを作成し,\ref{sec:exp_auto_cons}節と同様の実験を行ったが良い結果は得られなかった.}.今後は,対訳コーパスから語彙制約を自動的に抽出していく方法や人間と対話的に翻訳していく過程において語彙制約を構築する手法などを検討していく.また,\ref{sec:reranking}節の手法は制約語句数のべき乗のオーダの計算量がかかるため,制約語句数が増えると計算コスト面で問題となることも考えられる.この計算コスト面の問題に関しては制約語句の抽出の方法や方法ごとの制約語句数などに大きく影響されるため,その分析および高速化についても今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文の執筆にあたり,有益なコメントを頂きました査読者,担当編集委員の皆様に感謝申し上げます.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{01refs_strings,01refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{帖佐克己}{%NTTコミュニケーション科学基礎研究所社員.2020年奈良先端科学技術大学院大学先端科学技術研究科博士前期課程修了.同年より現職.主に機械翻訳に関する研究に従事.言語処理学会,ACL各会員.}\bioauthor{森下睦}{%NTTコミュニケーション科学基礎研究所研究員.2017年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年より現職.2022年東北大学大学院情報科学研究科博士後期課程修了.博士(情報科学).主に機械翻訳に関する研究に従事.言語処理学会,情報処理学会,ACL各会員.}\bioauthor{永田昌明}{%NTTコミュニケーション科学基礎研究所上席特別研究員.1987年京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.主に機械翻訳の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V31N04-04
\section{はじめに} 単語の意味は時代とともに変化することがある.単語の意味変化(以降意味変化と呼ぶ)については,従来は言語学者が手作業で検出と分析を行っていたが,通時コーパスの公開や単語の意味表現の研究の発展により,近年では意味変化の自動的な検出および分析が自然言語処理の分野で注目を集めている.代表的な例として,時間の経過とともに意味が変化した単語をテキストデータから自動的に検出する,意味変化検出というタスクがある\cite{hamilton-etal-2016-diachronic,schlechtweg-etal-2019-wind,giulianelli-etal-2020-analysing,kutuzov-etal-2021-grammatical}.意味変化検出に関する先行研究では,対象の通時コーパスの中で意味が変化した単語・変化していない単語の集合を評価セットとしていた.このとき,手法の性能は,評価セット内の単語を意味変化度合で並べ替えたときに,意味が変化した単語がどの程度上位に含まれるか,という基準で評価されてきた.しかし,意味変化の有無に関する情報だけでは,意味が変化した単語・変化していない単語を全て等しく扱うため,各単語の意味変化の程度を考慮した詳細な評価や分析を行うことはできない.また,先行研究では通時コーパスや評価セットが統一されておらず,さまざまなデータを使って学習と評価を行っていたため,性能を直接比較することは困難である\cite{Kulkarni-etal-2015-Statistically,hamilton-etal-2016-diachronic,yao-2018-dynamic}.この問題に対処するため,\citeA{schlechtweg-etal-2018-diachronic}は,単語の意味変化度合を計算するフレームワークであるDiachronicUsageRelatedness(DURel)を提案した.DURelでは,各対象単語に対して,通時コーパスから得られた用例ペアに人手で付与した意味類似度を用いて,時間経過に伴う意味変化度合を計算する.用例ペアとは,ルールに従ってコーパスから抽出された同一単語の2つの異なる用例を含むものである.このフレームワークに基づいて評価セットを作成することで,意味変化の度合を考慮した,より詳細な評価と分析を行うことが可能となる.DURelが公開されてから,ロシア語や中国語などのさまざまな言語について,DURelを採用した評価用単語セットが作成・公開されている\cite{rodina-kutuzov-2020-rusemshift,giulianelli-etal-2020-analysing,kutuzov-pivovarova-2021-three,chen-etal-2022-lexicon}.最近では,\citeA{schlechtweg-etal-2020-semeval}がDURelフレームワークを拡張し,英語やドイツ語をはじめとする4つの言語の評価用単語セットを作成した.そして,\citeA{schlechtweg-etal-2020-semeval}はデータセットを通時コーパスとあわせて提供して,意味変化検出の共有タスクであるSemEval-2020Task1を開催した.さまざまな言語で通時コーパスの公開・評価用単語セットの作成が進んでいるが,日本語では通時コーパスの作成が進んでいるものの,評価用単語セットは十分にない.\citeA{mabuchi-ogiso-2021-dataset-jp}は近代から現代にかけて意味が変化した単語のリストを作成したが,リスト内の単語の意味がどの程度変化したのか,という意味変化度合は付与されていない.そこで本研究では,DURelフレームワークを用いて,近代から現代における日本語の意味変化度合を算出して,評価用の単語セット\ac{JaSemChange}を構築した.明治時代から平成時代にかけて,日本語は社会的・言語的要因によって大きく変化した\cite{永澤済2010変化パターンからみる近現代漢語の品詞用法,田中佑2015近現代日本語における新たな助数詞の成立と定着}ため,今回は明治・大正時代,昭和時代,平成時代をカバーするコーパスを用いて,単語の意味変化を評価した.このとき,明治・大正時代と平成時代を比較するだけでなく,より短い時間間隔である昭和時代と平成時代でも比較を行い,単語に時期間の意味変化度合を付与した.これにより,異なる時間間隔をもつ時代間で意味変化の検出の性能評価や分析が可能になる.最終的に,我々の評価用単語セットには19単語が含まれており,それぞれの単語の意味変化度合は,最大4人のアノテータが2,280個の用例ペアに対して付与した計5,520個の意味類似度スコアから算出されている.本研究の貢献は以下の通りである.\begin{itemize}\item日本語の通時的な意味変化を研究するための評価用単語セットJaSemChangeを構築した\footnote{この評価用単語セットはGitHubで公開した(\url{https://github.com/tmu-nlp/JapaneseLSCDataset}).著作権の関係上,本研究で使用したコーパスの用例を公開することはできない.その代わり,コーパス検索アプリケーションである中納言\url{https://chunagon.ninjal.ac.jp/}を使ってダウンロードできる各用例のサンプルIDを公開した.}.DURelフレームワークを用いて,4人の専門家を集めてアノテーションを実施することにより,日本語の通時コーパスから抽出した用例を用いて対象単語の意味変化度合を定量化した.\item日本語の近現代語および現代語の非専門家にも同じアノテーションを依頼し,その結果を専門家の結果と比較した.専門家と非専門家の間に一致率の差は見られなかったが,用例ペアを詳しく調査することで,判断が困難な用例ペアに対しては非専門家よりも専門家の方が正確性が高く,専門知識が必要であることを確認できた.\item作成したJaSemChangeで,単語ベクトルを用いた2種類の意味変化の検出手法に対する評価実験を行った.その結果,どちらの手法も単語頻度に基づく手法を上回る性能を示し,手法間の性能差は他の言語の評価データと同じ傾向があることが分かった.また,異なる時間間隔によって,意味変化を検出する難しさが異なることもわかった.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{意味変化の検出手法}単語の通時的な意味変化の検出とその分析は自然言語処理において広く研究されている.近年では単語ベクトルを用いた意味変化検出が主流となっているが,単に時期ごとで独立に単語ベクトルを学習してもそれぞれで全く異なるベクトル空間が得られるため,時期間での比較ができない.そのため,複数の時期で比較可能な単語ベクトルを学習するための手法が数多く提案された.最初の段階では,word2vec\cite{Mikolov-2013-EfficientEO,mikolov-2013-sgns}に代表される文脈非依存(タイプベース)の単語ベクトルを用いた検出手法が数多く提案された.\citeA{kim-etal-2014-temporal}は,word2vecのSkip-gramwithNegativeSampling(SGNS)で学習した単語ベクトルを時系列で追加学習することで複数時期のベクトル空間を獲得し,意味変化の検出を行った.異なる時期のコーパスで学習する際に,古い時期で学習したモデルのパラメータを初期値に設定し,次の時期のコーパス上で追加学習した.その後,同じ単語の異なる時期の単語ベクトル同士のCosineSimilarityを計算することで,単語の意味変化を検出した.\citeA{Kulkarni-etal-2015-Statistically}では,各時期で単語ベクトルを学習し,時期間で線形変換による対応付けを行うことで,複数時期のベクトル空間を獲得し,意味変化の検出を行った.\citeA{hamilton-etal-2016-diachronic}は,各時期の単語ベクトルを学習し,それらのベクトル空間を対応付けすることで意味変化を検出した.各時期で独立に学習した単語ベクトルに対してOrthogonalProcrustes(OP)で回転行列を獲得し,時期間のベクトル空間の対応づけをして,単語ベクトルの比較を行った.この手法は,\citeA{schlechtweg-etal-2019-wind}が行った通時的な意味変化と共時的な意味変化の検出タスクにおいて,多くの手法の中で最もよい性能を示した.\citeA{yao-2018-dynamic}は,正則化項を組み込むことで,ベクトルの変化の時間的遷移を滑らかにしながら,全ての時期にわたって同時に単語のベクトルを学習した.この手法の性能を評価するために,彼らは既知の変化を持つ技術関連の単語を選択し,提案手法によってそれらを検出できることを示した.近年では,BERT\cite{devlin-etal-2019-bert}などに代表される事前学習済みの言語モデルによって,対象単語の個々の用例から文脈依存(トークンベース)の単語ベクトルを獲得できるようになった.文脈非依存の単語ベクトルに比べて,文脈依存の単語ベクトルでは,単語の意味変化を検出できるだけでなく,用例単位で単語の意味変化の観察・分析も可能である\cite{hu-etal-2019-diachronic}.そのため,文脈依存の単語ベクトルを活用した手法が提案された.\citeA{giulianelli-etal-2020-analysing}は,BERTを用いて各単語の用例集合から文脈依存ベクトルの集合を取得し,クラスタリングの結果を時期間で比較することで意味変化度合を予測した.この手法では,まず,全ての時期のベクトル集合に対して同時にクラスタリングを行い,各クラスタを語義の集合とみなした.次に,2つの異なる期間におけるクラスタ分布を比較することで,意味の通時的変化を定量化した.\citeA{rosin-etal-2022-time}は,文脈とその時期情報をエンコードするBERTモデルを提案した.提案された手法では,追加学習用データである通時コーパスにおいて,各用例に対してその年代を表す特殊トークンを追加した.その後,マスクされた単語/特殊トークンを,特殊トークンと周辺文脈/周辺文脈から推測できるように調整を行った.このようなマスキングを加えることで,異なる時期に特有の単語表現を学習することができる.従来のBERTなどを用いたトークンベースの手法は,意味変化検出タスクにおいてSGNSなどのタイプベースの手法の性能には及ばなかったが,実験よりその性能を上回ることを示した.\citeA{rosin-radinsky-2022-temporal}は,時期情報が組み込まれている注意機構を提案した.モデルの自己注意機構に対して時期に関する行列を加えることで,注意機構は各単語の重み計算の際に時期も考慮することができるようになり,意味変化検出タスクでも非常に高い性能を示した.\citeA{cassotti-etal-2023-xl}は,2つの文の中にある同一単語が同じ意味かどうかを判定するタスク\cite{pilehvar-camacho-collados-2019-wic}で学習した多言語モデルを提案した.提案された手法は意味変化検出の共通タスクSemEval-2020Task1\cite{schlechtweg-etal-2020-semeval}とロシア語の評価データセットRuShiftEval\cite{kutuzov-pivovarova-2021-three}において,時期情報をエンコードしたBERTや注意機構を上回り,現時点での最高性能を示した.したがって,現在は事前学習済みの言語モデルを用いた手法が主流となっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{意味変化の検出手法の評価}手法の性能を定量的に評価する場合,従来の研究では,意味変化した特定の単語を選択し,バイナリの評価を行っていた\cite{kim-etal-2014-temporal,Kulkarni-etal-2015-Statistically,hamilton-etal-2016-diachronic}.しかし,これらの研究では単語選択の基準が異なっており,異なる手法間で直接比較するのが困難であった.また,バイナリの評価は単語ごとの意味変化の有無に関する情報のみを扱っているため,各単語の意味変化度合を考慮することができない.そこで,より詳細な評価を行うためには,意味変化の有無だけではなく,意味変化度合についての情報も必要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\vspace{-0.5\Cvs}\input{03table01.tex}%\caption{アノテーションで使用する意味類似度に基づくスコアリング.}\label{table:ratepoint}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%このような問題に対して,\citeA{schlechtweg-etal-2018-diachronic}は,通時的な意味類似度を付与するための言語に依存しないフレームワークであるDURelを発表した.このフレームワークでは,用例ペアにおける対象単語に対して,\mbox{表\ref{table:ratepoint}}に示した意味的類似度を無関係(1)から同一(4)まで人手で付与し,その類似度をもとに単語の意味変化度合を算出する.SemEval-2020Task1では,共有タスクのベンチマークとして,英語,ドイツ語,スウェーデン語,ラテン語の評価データセット\footnote{これらのデータセットは,DURelフレームワークを拡張したDiachronicWordUsageGraph(DWUG)\cite{schlechtweg-etal-2021-dwug}を使って作成された.}が提供された\cite{schlechtweg-etal-2020-semeval}.その後も,DURelフレームワークに基づいて,ロシア語\cite{rodina-kutuzov-2020-rusemshift,kutuzov-pivovarova-2021-three},英語\cite{giulianelli-etal-2020-analysing},中国語\cite{chen-etal-2022-lexicon},ノルウェー語\cite{kutuzov-etal-2022-nordiachange},スペイン語\cite{d-zamora-reina-etal-2022-black}など,多くの言語のデータセットが作成されてきた.これらのデータセットは検出手法の評価基準として使われ,検出手法について様々な言語のデータセットでの性能評価が可能になった\cite{giulianelli-etal-2022-fire,cassotti-etal-2023-xl}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{日本語の意味変化検出}これまでに述べてきたように,さまざまな言語で意味変化の検出手法の開発,通時コーパスの公開や評価用単語リストの作成が行われている.しかし,日本語では公開された通時コーパスが限られているため,日本語の意味変化検出に関する研究は少ない.ここでは,その中でもいくつかの研究を紹介する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{03table02.tex}%\caption{\protect\citeA{mabuchi-ogiso-2021-dataset-jp}が作成した近現代日本語の意味変化分析のための単語リスト.}\label{table:mabuchi-wordlist}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\citeA{aida-journal-2023}は,意味変化を捉えるため,PointwiseMutualInformation(PMI)ベースの手法を提案し,英語と日本語のコーパスに適用した.対象語を分析する際,\citeA{mabuchi-ogiso-2021-dataset-jp}が作成したリストに載っている単語(表\ref{table:mabuchi-wordlist})は意味が変化した単語であり,リストに含まれていない単語は意味が変化していないものと仮定した.このリストには意味変化度合が付与されていないため,意味の変化した単語を一律に扱う平均逆順位に基づいて,提案手法とタイプベース・トークンベースの手法の性能を評価・比較した.\citeA{kobayashi-journal-2023}は,日本語の語義レベルの意味変化を分析するために,辞書ベース\cite{hu-etal-2019-diachronic}とクラスタリングベース\cite{giulianelli-etal-2020-analysing}の2つの異なるBERTベースの手法を意味変化の検出に適用し,両者の性能を比較した.どちらも分析のための手法であったため,性能の定量的な比較は行われなかったが,\citeA{mabuchi-ogiso-2021-dataset-jp}によって作成された意味変化した単語セットに着目し,定性的な評価を行った.このように,日本語における意味変化の研究では,意味変化した単語のリストしかないため,バイナリの評価や定性評価に留まっている.他の言語と同様に詳細な評価を行うためには,日本語でも意味変化度合が付与された評価用の単語セットの構築が必要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{03table03.tex}%\hangcaption{実際のアノテーションタスクでの例.用例中の対象語は**で囲む.\text{\textless\textgreater}内は用例の中納言のサンプルID,開始位置,連番である.}\label{table:Anannotationexample}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{JaSemChangeの構築} 日本語の意味変化度合が付与された評価用単語セットを作成するために,DURelフレームワークを適用した.このフレームワークでは,単語の意味変化度合は,対象コーパスの用例ペアにある単語の意味類似度によって定義される.対象単語の意味類似度は人手でアノテーションされ,用例ペアの対象単語に対して,意味が似ているペアは高得点となり,意味が離れているペアは低得点となる.\mbox{表\ref{table:ratepoint}}に示すように,DURelと同じ手順で意味類似度を4段階のスコアでアノテーションした.実際のアノテーション例を\mbox{表\ref{table:Anannotationexample}}に示す.まず,サンプリング対象となるコーパスの調査対象期間を基準にして初期$C_{earlier}$と後期$C_{later}$の2つに分ける.次に,対象単語ごとに,コーパスから3つのグループの用例ペアをサンプリングする.ここでは,それぞれを$Earlier$,$Later$,$Compare$と呼ぶ.$Earlier$のペアには$C_{earlier}$の用例が2つ,$Later$のペアには$C_{later}$の用例が2つ,$Compare$のペアには$C_{earlier}$と$C_{later}$の用例がそれぞれ含まれる.その後,各グループの用例ペアに対して対象単語の意味類似度をアノテーションする.最終的に,得られた用例ペアのアノテーション結果を用いて,単語の意味変化度合を算出する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アノテータ}各グループの用例ペアの評価には,日本語を母語とし,日本語に関連する豊富な知識を持つ4人のアノテータが参加した.アノテータは近代の日本語に詳しい国立国語研究所\footnote{\url{https://www.ninjal.ac.jp}}の研究員またはプロジェクトの技術/作業補佐員である.\citeA{schlechtweg-etal-2018-diachronic}と同様に,アノテーション作業に入る前に,アノテータには図\ref{fig:annotationguideline}に示すガイドラインを読み,チュートリアルを完了するよう指示した.このチュートリアルはGoogleFormsで提供し,実際のアノテーションと同じ環境である.チュートリアルの正解は第一著者が作成し,共著者がチェックした上で提供した.チュートリアル完了後,著者の判断を正解として提供し,アノテータに確認させたところ,参加者全員がほぼ満点を獲得し,不合理なミスもなかった.チュートリアルの画面は付録\ref{fig:tutorial}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{31-4ia3f1.pdf}\end{center}\caption{アノテーションタスクを説明するために作業開始前アノテータに見せるガイドライン.}\label{fig:annotationguideline}\vspace{-0.5\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コーパス}今回は,古い時期のコーパス$C_{earlier}$として日本語歴史コーパス(CHJ)\footnote{\url{https://clrd.ninjal.ac.jp/chj/index.html}}と昭和・平成書き言葉コーパス(Showa-HeiseiCorpusofwrittenJapanese;SHC)\footnote{\url{https://clrd.ninjal.ac.jp/shc/index.html}}を,新しい時期のコーパス$C_{later}$として現代日本語書き言葉均衡コーパス(BCCWJ)\footnote{\url{https://clrd.ninjal.ac.jp/bccwj/index.html}}\cite{bccwj-paper}を使用した.\mbox{表\ref{table:corpora}}に3つのコーパスの統計量を示す.ジャンルの影響を避けるため,全てのコーパスにおいて雑誌部分のみを使用した.CHJは,奈良時代(800年代~)から明治・大正時代(1860年代~1920年代)までの長期にわたる日本語テキストをカバーする通時コーパスである.我々の設定では,明治・大正時代のテキストを使用した.SHCは昭和から平成まで広くカバーする書き言葉コーパスである.今回はCHJとBCCWJを接続するように,1933年から2000年までのテキストを使用した.そのため,SHCの使用部分には平成初期の1989年から2000年までの文を含む.BCCWJは,昭和後期(1970年代~1980年代)から平成(1980年代~2010年代)までをカバーする書き言葉均衡コーパスである.今回はSHCとも比較を行うため,2001年以降のテキストを使用した.これらのコーパスを用いて,時間間隔が長い明治大正時代と平成時代($C_{earlier}$:CHJ,$C_{later}$:BCCWJ,本稿では\textbf{長期間}と呼ぶ),時間間隔が短い昭和時代と平成時代($C_{earlier}$:SHC,$C_{later}$:BCCWJ,本稿では\textbf{短期間}と呼ぶ)における単語の意味変化度合を評価した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{03table04.tex}%\caption{コーパスの概要.ドメインは全て雑誌を使用した.}\label{table:corpora}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{03table05.tex}%\hangcaption{評価セットの対象単語.意味変化ありの単語の下は原義と転義である.カッコ内は単語が短単位の品詞タグの略であり,大分類としては[名]名詞・[形状]形状詞・[形容]形容詞・[副]副詞がある.短単位品詞体系の「形状詞」は学校文法の「形容動詞」と日本語教育における「な形容詞」と同等である.短単位が採用する可能性に基づく品詞体系における名詞という大分類のもとに,「する」や「いたす」などを付けることでサ変動詞として使用可能な名詞は「名-サ変」とし,形状詞として使用可能な名詞は「名-形状」としている.}\label{table:target-word}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対象単語}アノテーションの対象単語として,表\ref{table:target-word}に示す計19単語を選定した.19単語のうち,意味が変化した単語を10単語,意味が変化しなかった単語を9単語とした.意味変化した単語は,先行研究をもとに専門家が選定した単語リストを使用した\cite{mabuchi-ogiso-2021-dataset-jp}.\citeA{mabuchi-ogiso-2021-dataset-jp}は頻度の変化と語義の分類を調査し,データセット構築のための予備作業の一環として,不適切な単語を除外することで,意味が変化したと想定される34単語を獲得した.我々はその中の10単語をランダムに選定し,今回の対象単語とした.今回の対象期間において,意味変化が起こらなかった単語を調べた研究を見つけられなかったため,意味が変化していない9単語の選定はデジタル大辞泉\footnote{\url{https://japanknowledge.com/contents/daijisen/}}を参考にした.このとき,辞書の中から,1つの説明文しか持たない単語を意味が変化していない単語とみなし,ランダムに9単語選定した\footnote{今回選定した意味が変化していない9単語について,デジタル大辞泉では単一の説明文だけを持つにもかかわらず,日本国語大辞典\url{https://japanknowledge.com/contents/nikkoku/}では複数の説明文を持つ単語も存在した.そのような単語に対して,今回サンプリングした用例集合内の語義割合を調査した.その結果,日本国語大辞典では複数の語義説明文を持つ単語でも,用例集合内ではほとんど1つの語義しか出現せず,意味が変化しない単語として適していることを確認した.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{サンプリング}今回の対象単語はコーパスの形態論解析単位である短単位\cite{BCCWJ-mopho-2011}と同形であるため,対象単語の用例は中納言を使って対象のコーパスから語彙素を用いた短単位検索で収集した.短単位検索では,対象単語の書字形または語彙素を検索することで,コーパス中の対象単語の用例を収集可能である.中納言では,対象単語の書字形で検索できるが,明治時代や大正時代では現代日本語とは異なる漢字表記を採用していた可能性があるため,書字形検索では表記が変わった単語の用例を収集できない.例えば,平成時代の「適当」という単語には,明治・大正時代では異なる表記の「適當」が存在する.そこで,書字形ではなく語彙素で検索することで,語彙素に属するすべての書字形の用例を収集することができる.また,語彙素だけで検索をすると,語彙素の表記は同じだが読みが異なる単語の用例が取得されることがある.例えば語彙素「生物」で検索すると,「生物(せいぶつ)」と「生物(なまもの)」の用例が同時に取れてしまう.この問題に対処するためには,語彙素(「生物」)だけでなく語彙素読み(「せいぶつ」・「なまもの」)や語種(和語・漢語)などの情報も指定すればよい.今回は選択した対象単語が1つの短単位から構成されており,「生物」のような読みの曖昧性を持たなかったため,語彙素のみを使用して用例のサンプリングを行った.他の言語の研究では,名詞,動詞,形容詞など品詞ごとに対象単語を分けていたが,本研究で用いる短単位は可能性に基づく品詞体系を採用するため,対象単語の品詞によって対象単語の用例を区別しなかった.例えば対象単語「教授」の場合,サ変動詞の語幹としての「教授(する)」という用法の用例も,名詞としての「(大学)教授」という用法の用例も全て用例サンプリングの対象である.収集した各用例は,対象単語の両側に最大50個の文脈トークンを持ち,最大用例長は101トークン列となる.また,サンプリングした用例はすべて中納言で固有のサンプルIDが付けられている.今回はDURelに基づき,長期間($C_{earlier}$:CHJ,$C_{later}$:BCCWJ)と短期間($C_{earlier}$:SHC,$C_{later}$:BCCWJ)の各期間において,2つのコーパスからランダムサンプリングした用例より対象単語の用例ペアを作成した.$Earlier$グループには$C_{earlier}$(CHJかSHC)から20ペア,$Later$グループには$C_{later}$(BCCWJ)から20ペアを選び,$Compare$グループには$C_{earlier}$と$C_{later}$からそれぞれ1つの用例をランダムサンプリングして20個の用例ペアを作成した.その後,それぞれのグループの各用例ペアに対して,アノテータによって対象単語の意味類似度が付与された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{意味変化度合の算出}アノテーション終了後,各対象単語$w$の意味変化を定量化するために,各グループの全スコアの平均$\mathrm{Mean}(groupname_w)$を計算する.この時,判断できないペア(N/A)は無視する.$\mathrm{Mean}(groupname_w)$が高い場合は,グループ内の用例ペアの対象単語の意味類似度が高いことを示し,$\mathrm{Mean}(groupname_w)$が低い場合は,グループ内のいくつかの用例ペアにおける対象単語の意味類似度がかけ離れていることを示す.これを3つのグループ$Earlier$,$Later$,$Compare$に適用すると,$\mathrm{Mean}(Earlier_w)$と$\mathrm{Mean}(Later_w)$はそれぞれ単独の時期のコーパス$C_{earlier}$と$C_{later}$における意味類似度を表し,$\mathrm{Mean}(Compare_w)$は両方の時期のコーパスにおける通時的な意味類似度を表す.最終的に,DURelフレームワークに基づいて,対象単語$w$における各グループの平均値から,2種類の意味変化度合を計算する.\begin{description}\item$\Delta{}Later_w=\mathrm{Mean}(Later_w)-\mathrm{Mean}(Earlier_w)$:これは,$Later$の全アノテーションスコアの平均から,$Earlier$のアノテーションスコアの平均を引いたものである.この指標は,$Earlier$グループから$Later$グループへの意味類似度の変化を表す.この指標によって計算された正の値は対象単語の語義が減少したことを示し,負の値は語義が増加したことを示す.\item$\mathrm{Mean}(Compare_w)$:$Compare$グループのアノテーションスコアの平均である.この指標では,スコアが高い/低いほど,変化の種類に関係なく,2つの時期間の変化の度合が弱い/強いことを示す.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{03table06.tex}%\hangcaption{最終的に得られた評価データの内訳である.1回目のアノテーションで得られた部分は\textbf{v1}であり,その上に2回目のアノテーションで追加して得られたのは\textbf{v2}である.}\label{table:2annotations}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アノテーション依頼}今回は,表\ref{table:2annotations}に示したように,二段階に分けてアノテーションを行った\footnote{1段階目に取り組んだ際に,まず部分的なデータを作成して結果を確認した.その際に,SHCがまだ公開されていないため,BCCWJとCHJでアノテーションを行った.1段階目の結果としては,予想通りに意味が変化した単語と変化しなかった単語にそれぞれふさわしい変化度合を得られた.そのため,2段階目ではデータセットの拡張を目的として,対象単語を追加し,昭和時代をカバーするSHCを取り入れて追加のアノテーションを行った.}.最初の段階では,8単語における長期間($C_{earlier}$:CHJ,$C_{later}$:BCCWJ)の比較を3人のアノテータに依頼した(\textbf{v1}).このとき,対象単語は意味変化のある6単語(結構,優勝,教授,免許,椅子,適当)と意味変化のない2単語(主張,林檎)とした(表\ref{table:target-word}).これらの結果から,長期間の意味変化においては,算出した意味変化度合と実際の意味変化あり/なしの情報との対応が取れていることを確認した\cite{ling-etal-2023-construction}.次の段階では,単語を19単語に増やし,長期間だけでなく短期間($C_{earlier}$:SHC,$C_{later}$:BCCWJ)の比較を行った(\textbf{v2}).スケジュールの都合上,v1の時の3人のアノテータのうち2人が参加できなくなったため,新たに1人のアノテータに作業を依頼した.このアノテータには,v2の追加分のデータだけでなく,v1の最初のデータのアノテーションを依頼した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{アノテーション結果と分析} アノテーションから得られた評価用単語セットの概要を表\ref{table:datasetstats}に示す.アノテーション結果の品質はアノテータ間の一致率で評価する.今回はKrippendorff'sAlpha\cite{castro-2017-fast-krippendorff}とアノテータ間のSpearman順位相関係数の平均を使用した\footnote{一致率の計算はPythonのライブラリを使用した(\url{https://pypi.org/project/krippendorff/},\url{https://docs.scipy.org/doc/scipy/reference/generated/scipy.stats.spearmanr.html}).}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{03table07.tex}%\hangcaption{評価用単語セットの概要.$\alpha$と$\rho$はそれぞれアノテータ間一致率のKrippendorff'sAlphaとSpearman順位相関係数を示す.}\label{table:datasetstats}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{語単位の意味変化}アノテーション結果から算出した,長期間/短期間における2種類の意味変化度合の結果を図\ref{fig:semanticchangescore}に示す.まず,$\Delta{}Later$値に基づく対象単語の意味変化度合に関して,%%%%図\ref{fig:chjdeltalaterrank}はCHJとBCCWJの比較,図\ref{fig:shcdeltalaterrank}はSHCとBCCWJの比較の結果を示す.図\ref{fig:semanticchangescore}aはCHJとBCCWJの比較,図\ref{fig:semanticchangescore}cはSHCとBCCWJの比較の結果を示す.理想的な結果としては,$\Delta{}Later$では意味が変化した単語が両側にあり,意味が変化していなかった単語が中央にあるようにあることを期待する.しかし,両方の$\Delta{}Later$の結果はともに,中央に意味が変化した単語が多く,意味変化ありの単語と意味変化のない単語の間に明確な境界がない.%%%%次に,図\ref{fig:chjdeltacomparerank}と\ref{fig:shccomparerank}は2つのコーパスの用例を直接比較する指標$\mathrm{Mean}(Compare)$であり,次に,図\ref{fig:semanticchangescore}bと\ref{fig:semanticchangescore}dは2つのコーパスの用例を直接比較する指標$\mathrm{Mean}(Compare)$であり,意味が変化した単語がグラフの左側に,意味の変化がなかった単語が右側に集中することを期待する.$\mathrm{Mean}(Compare)$は,語義変化が激しい単語であるほど変化度合の値が低いため,$\Delta{}Later$より意味変化した単語を適切に捉えていることがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{31-4ia3f2.pdf}\end{center}%%%%a\label{fig:chjdeltalaterrank}%%%%b\label{fig:chjdeltacomparerank}%%%%c\label{fig:shcdeltalaterrank}%%%%d\label{fig:shccomparerank}\hangcaption{それぞれのコーパスの比較から得られた,対象単語に対する2種類の意味変化度合について,昇順で並べた結果.$\Delta{}Later$の絶対値は意味変化度合の大きさを表し,正の値は語義の減少,負の値は語義の増加を表す.$\mathrm{Mean}(Compare)$は値が大きい/小さいほど意味変化度合が小さい/大きいことを示す.}\label{fig:semanticchangescore}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%CHJとBCCWJの比較の結果において,意味が変化した単語である「結構」と「適当」は,両方の意味変化度合から検出された.まず,「結構」は$\Delta{}Later$で語義減少を意味する最も高い値であり,$\mathrm{Mean}(Compare)$で最も低い値であることから,意味変化が激しいことが分かる.表\ref{table:kekkou_chj}には,3つのグループにおいて,各グループにつき1つの用例ペアを示した.$Compare$と$Earlier$において,CHJからサンプリングされた用例1の対象単語「結構」は「構成,構造」を意味し,BCCWJからの用例2は「かなり」「十分」を意味する.コーパスからサンプリングされた用例を詳しく調べると,$C_{earlier}$では「結構」には名詞としての「構成,構造」,形状詞としての「よい,十分」と副詞としての「かなり」など,いくつかの語義があることがわかった.$C_{later}$では,名詞の語義である「構成,構造」が消え,ほとんどの用例で形状詞や副詞として使われるようになった.次に,「適当」は,最も低い$\Delta{}Later$と4番目に低い$\mathrm{Mean}(Compare)$を得た.表\ref{table:tekitou_chj}に示すように,$Earlier$グループの「適当」の用例は,どちらも「適切」を意味する用例である.$Later$グループでは,用例1に「適切」,用例2に「いい加減」が出てくる.用例から,$C_{earlier}$では「適当」が主に「適切」を意味したが,$C_{later}$では「適当」が「適切」を意味する形状詞として低い割合で使用されており,「いい加減」を意味する形状詞として頻用されるようになったことがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{03table08.tex}%\hangcaption{CHJとBCCWJの比較において,単語「結構」の用例ペアの例.用例ペアのコーパス出自について,$Compare$は(用例1:CHJ,用例2:BCCWJ),$Earlier$は(用例1:CHJ,用例2:CHJ),$Later$は(用例1:BCCWJ,用例2:BCCWJ)となる.}\label{table:kekkou_chj}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{03table09.tex}%\hangcaption{CHJとBCCWJの比較において,単語「適当」の用例ペアの例.用例ペアのコーパス出自について,$Compare$は(用例1:CHJ,用例2:BCCWJ),$Earlier$は(用例1:CHJ,用例2:CHJ),$Later$は(用例1:BCCWJ,用例2:BCCWJ)となる.}\label{table:tekitou_chj}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一方,うまく検出できていない単語もある.意味が変化した単語「迚も(とても)」の場合,$\mathrm{Mean}(Compare)$では2番目に低い値であり,意味が激しく変化したことを意味している.しかし,$\Delta{}Later$で「迚も」は0に近い値を獲得し,意味が変化していなかったことになる.この意味変化度合の間の齟齬を調査するために,「迚も」の用例と各グループのスコア分布を調査した.表\ref{table:totemo_chj}に示すように,$Earlier$グループの「迚も」は「どうせ,到底」という否定的な文脈で多く使われていた.一方で,$Later$グループになると,副詞としての「非常に」という意味が大きな割合を占めている.%%%%図\ref{fig:chjcounttotemo}に示したように,図\ref{fig:annotationscorecount}dに示したように,$Earlier$グループと$Later$グループでは同じくスコア3と4が多い(同じ語義が多い)が,$Compare$ではスコア1と2が多い(異なる語義が多い).このように,2つの時期間で意味が変化したが,それぞれの時期内で語義の数が同じであり,語義の出現比率が同じ場合は,$\Delta{}Later$ではうまく変化を反映できない.$\mathrm{Mean}(Compare)$は語義の出現比率に影響されないため,実際の意味変化の激しさを反映できたと考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\input{03table10.tex}%\hangcaption{CHJとBCCWJの比較において,単語「迚も」の用例ペアの例.用例ペアのコーパス出自について,$Compare$は(用例1:CHJ,用例2:BCCWJ),$Earlier$は(用例1:CHJ,用例2:CHJ),$Later$は(用例1:BCCWJ,用例2:BCCWJ)となる.}\label{table:totemo_chj}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%SHCとBCCWJの比較において,$\Delta{}Later$と$\mathrm{Mean}(Compare)$の両方が検出できた単語として「適当」と「旨い」がある.CHJとBCCWJの比較と同じように,単語「適当」は最も低い$\Delta{}Later$と5番目に低い$\mathrm{Mean}(Compare)$になっており,意味の変化を示している.一方で,単語「旨い」は最も高い$\Delta{}Later$を獲得して,語義が減少したことがわかった.表\ref{table:umai_shc}に示したように,「旨い」は「味がおいしい」という意味が$C_{earlier}$では一定の割合を占めたが,$C_{later}$になると「味がおいしい」として使われる用例の割合が少なくなり,「都合よい,技術的に優れる」といった意味の割合が増えたことが確認できた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{03table11.tex}%\hangcaption{SHCとBCCWJの比較において,単語「旨い」の用例ペアの例.用例ペアのコーパス出自について,$Compare$は(用例1:SHC,用例2:BCCWJ),$Earlier$は(用例1:SHC,用例2:SHC),$Later$は(用例1:BCCWJ,用例2:BCCWJ)となる.}\label{table:umai_shc}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,SHCとBCCWJの比較において,意味が変化したとされる単語「教授」は,両方の意味変化度合で意味が変化しなかった単語と同等であった.CHJとBCCWJの比較では,「教授」は3番目に高い$\Delta{}Later$になっており,用例を調べてみると,動詞としての語義「教える」が少なくなっていた.しかし,SHCとBCCWJの比較では,対象単語が名詞であり,教職の「教授」の用例がほとんどであった.「教授」のような単語は,明治・大正から昭和にかけて意味が変化し,昭和前後で新しい意味が定着したため,長い時間間隔と短い時間間隔で意味変化の度合が異なると考える.このような傾向は,今回2つの時間間隔でデータを作成したことによって得られる発見である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{専門家と非専門家のアノテーションの比較}専門家は現代日本語と古い日本語の両方に通じている一方,非専門家は現代日本語には詳しいものの,古い日本語の表記や文体には習熟していないことが一般的である.しかし,非専門家が専門家と同じクオリティでこのタスクをこなせるかどうかについては,明らかになっていない.これを調べるために,専門家と非専門家のアノテーション一致率および実際のアノテーションを比較した.専門家のアノテーションはv1のときのアノテーションスコアを採用し,非専門家はクラウドソーシングサービスLancers\footnote{\url{https://www.lancers.jp/}}で3人のアノテータに依頼した.アノテータの採用条件として,日本人であることおよび大卒かそれ以上であることを設定した.依頼を受けたアノテータは全員大学を卒業した日本語ネイティブである.ここでは,v1と同じく長期間($C_{earlier}$:CHJ,$C_{later}$:BCCWJ)における8単語の用例ペアについてアノテーションした.アノテータ間一致率はさまざまな尺度で比較するために,Krippendoff'salpha,Spearman順位相関係数$\rho$,Cohen'sKappa係数,pairwise一致率の4つの尺度で評価する.Spearman順位相関係数$\rho$とCohen'sKappaの平均を算出する際に,NaNとなるペアは除外した.専門家と非専門家のアノテーションスコアの一致率を表\mbox{\ref{table:agreement}}に示す.2つのアノテータグループの一致率はいずれも高くなかった.また,両方の一致率の間に,すべての尺度において顕著な差はなかった.そして,専門家と非専門家を合わせて一致率を計算したが,それぞれのグループごとの一致率との間に大きな差はなかった.従って,一致率の観点だけでは,専門家と非専門家のアノテーションの質は区別できないことがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[b]\input{03table12.tex}%\hangcaption{専門家と非専門家のアノテータ間一致率の比較.専門家+非専門家は,1ペアにつき7個のスコアに対して一致率を計算した.}\label{table:agreement}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一方,専門家と非専門家ぞれぞれのアノテータ間一致率が同等なレベルとはいえ,一致しない部分については,両方が同じような意見の相違があるかどうかは明らかになっていない.そこで,非専門家が専門家と異なる意見を持っているかを調べるために,非専門家のスコアのばらつきが大きい用例ペアを抽出し,専門家と非専門家の傾向を調査した.その結果,いくつかの単語の判断に対して,専門家の方が非専門家よりも高い正確性を持っていることがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[b]\input{03table13.tex}%\hangcaption{CHJとBCCWJの比較において,$Earlier$グループ(用例1:CHJ,用例2:CHJ)にある単語「優勝」の用例ペアの例.}\label{table:yusho_chj_earlier}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%例えば,表\ref{table:yusho_chj_earlier}に示した用例ペアのように,CHJとBCCWJの比較において,$Earlier$の「優勝」は「優勝劣敗」という熟語の一部である用例が存在した.専門家のスコアは(3,4,3,4)と(3,4,3,3)であり,両方の「優勝」の意味は高い関連性を持っていると判断する傾向が見られる.非専門家が付与したスコアは(1,2,4)と(1,2,4)であり,両方の「優勝」に対する判断が相違した.これは,現代語では「優勝」と比較して「劣敗」という単語が単独として使われる頻度が低いので,非専門家が判断に迷ったものだと考えられる.もう1つの単語「主張」は,我々の設定では,これは意味が変わらなかった単語である.しかし,表\ref{table:shucho_chj_later}に示した$Later$グループでは,一般的に見られる「意見・持論を主張」の用例以外,そこから派生する「主張が強い(縞模様)」や「(色など)を主張する」といった現代的な用例が一部見られた.我々が参考にした辞書では,これらの用例内の「主張」の意味について適切な説明文を見つけられなかった.このような辞書にない語義については,専門家は(2,2,3,2)のように,より一致したスコアをつけた.一方,非専門家は(1,4,3)のように,派生的な語義に関して相違した判断が見られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table14\begin{table}[b]\vspace{-0.5\Cvs}\input{03table14.tex}%\hangcaption{CHJとBCCWJの比較において,$Later$グループ(用例1:BCCWJ,用例2:BCCWJ)にある単語「主張」の用例ペアの例.}\label{table:shucho_chj_later}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table15\begin{table}[b]\input{03table15.tex}%\hangcaption{CHJとBCCWJの比較において,$Compare$グループ(用例1:CHJ,用例2:BCCWJ)にある単語「林檎」の用例ペアの例.}\label{table:ringo_chj_compare}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%最後の単語「林檎」は,表\ref{table:ringo_chj_compare}が示した$Compare$グループには,果物という意味の「林檎」以外,人名やアカウント名などの固有名詞としての「林檎」を含む用例が存在したことを確認できた.例として挙げた用例の中で,果物としての「林檎」と固有名詞としての「林檎」は,意味が離れた,あるいは無関係であるべきと考えられる.そのような用例ペアに対して,専門家はほとんど1(意味が完全に異なる)をつけたり,判断できない場合はN/Aとしたが,非専門家の間では,1と4のような全く逆の判断が存在した.本来このようなケースはアノテーションガイドラインで示すことで防ぐことができるが,非専門家にどのような知識があってどのような知識がないのかを事前に仮定することは難しく,想定しうるケースを網羅しようとするとガイドラインが膨大となる可能性がある.このように,専門家と非専門家のアノテータ間一致率には差がほとんど見られなかったが,判断が難しい用例ペアに対して,専門家のほうがより高い正確性を示している.したがって,今回のようなアノテーションタスクには専門家の参加が望ましいと考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{検出手法の評価実験} 本節では,評価用単語セットJaSemChangeを用いて,意味変化の検出手法の性能に対する定量評価を行う.評価対象としては,先行研究に倣い,代表的なタイプベースの手法とトークンベースの手法を選択した.ベースラインは頻度に基づく手法である,相対頻度差と頻度ベクトルを使用した.タイプベースの手法では,SGNSを用いて単語ベクトルを学習する.トークンベースの手法では,言語モデルの学習やFine-tuningをせず,それぞれのコーパスにある対象単語のすべての用例をモデルに入力することで対象単語のベクトルを獲得する.結果については,\ref{subsec:results}節で考察する.今回モデルの学習を行ったのは,頻度ベクトルとSGNSである.JaSemChangeの中に長い時間間隔(CHJ,BCCWJ)と短い時間間隔(SHC,BCCWJ)の2つの比較があるため,これらで性能評価する際に,それぞれの通時コーパスを使用して単語ベクトルの学習を行う.学習データは表\ref{table:corpora}にある通時コーパスの全データを使用した.テストデータとしては,JaSemChangeの意味変化度合$\Delta{}Later$と$\mathrm{Mean}(Compare)$を使用した.今回作成したJaSemChangeでは,先行研究から定義されている意味が変化した単語と,辞書より定義した意味が変化していない単語から対象単語を選定した.しかし,事前に定義されている意味変化の有無と,本研究でDURelフレームワークから得られた意味変化度合が一致しない単語が存在する.評価データの一貫性を保つため,アノテーションによって得られたJaSemChangeの意味変化度合のみを評価に使用した.事前の分類とJaSemChangeの意味変化度合の齟齬については\ref{subsec:results}節で考察する.評価指標は,検出手法が出力した対象単語の意味変化度合とJaSemChangeの意味変化度合とのSpearman順位相関係数$\rho$を使用する\footnote{相関の計算はSciPyを使用した(\url{https://docs.scipy.org/doc/scipy/reference/generated/scipy.stats.spearmanr.html}).}.また,本研究では,$\Delta{}Later$はその絶対値$\mathrm{abs}(\Delta{}Later)$をとり,$\mathrm{Mean}(Compare)$は負の値$-\mathrm{Mean}(Compare)$を取ることで,値の大小と意味変化の大小を対応させた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{検出手法}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{ベースライン}頻度に基づく手法は相対頻度差と頻度ベクトルを用いた手法を使用した.相対頻度差(FrequencyDifference;\textit{FreqDiff})では,対象単語の意味変化度合を両方のコーパス内の相対頻度の差の絶対値で表現する.相対頻度の処理によって2種類の頻度差がある.\begin{enumerate}\item対象単語$w$の用例$u^w$の集合を$U^w$と表記する.時期$earlier$(コーパス$C_{earlier}$)と時期$later$(コーパス$C_{later}$)において,対象単語$w$の用例数$|U^w_{earlier}|$と$|U^w_{later}|$をそれぞれコーパスの延べ語数$|C_{earlier}|$と$|C_{later}|$で正規化する.この場合,単語$w$の時期$earlier$と時期$later$の間の意味変化度合は頻度差で計算される:\begin{align}F(w,C_{earlier})&=\frac{|U^w_{earlier}|}{|C_{earlier}|},\notag\\F(w,C_{later})&=\frac{|U^w_{later}|}{|C_{later}|},\notag\\\mathit{FreqDiff}{}(w,C_{earlier},C_{later})&=\mathrm{abs}(F(w,C_{earlier})-F(w,C_{later})).\end{align}\item対象単語$w$の正規化された頻度に対して対数を取る.この場合の対数頻度差は以下の式より定義される:\begin{align}F_L(w,C_{earlier})&=\log\frac{|U^w_{earlier}|}{|C_{earlier}|},\notag\\F_L(w,C_{later})&=\log\frac{|U^w_{later}|}{|C_{later}|},\notag\\\mathit{FreqDiff}{}_L(w,C_{earlier},C_{later})&=\mathrm{abs}(F_L(w,C_{earlier})-F_L(w,C_{later})).\end{align}\end{enumerate}頻度ベクトル(Frequency-basedVector;$\mathit{FreqVec}$)を用いた手法では,単語文脈行列を計算した後で対応付けを行い,2つの時期の対象単語ベクトルの距離を計算する.ここで,単語文脈行列は対象単語と文脈語との共起頻度からなる行列$\boldsymbol{W}$とする.$\boldsymbol{W}$の各行が単語$w$の共起頻度に関する行(ここではベクトルとみなす)$\boldsymbol{w}$で,単語$w_i$と文脈語$c_j$との共起頻度は$\boldsymbol{W}_{i,j}$となる.ここで,時期$earlier$と$later$の行列$\boldsymbol{W}_{earlier}$と$\boldsymbol{W}_{later}$を比較可能にするためには,共通の軸で対応付けをする必要がある.今回は,異なる学習データで獲得した頻度ベクトルに対してColumnIntersection(CI)で対応付けを行う.単語文脈行列の列は文脈語$c$に対応するため,行列$\boldsymbol{W}_{earlier}$と$\boldsymbol{W}_{later}$の共通の文脈語に関する列を抽出することで,時期間で対応のとれた頻度ベクトルが得られる.対応付けを取った単語ベクトルの違いを計測するために,CosineDistance(\textit{CosDist})で距離を計算する.時期$earlier$と$later$において対象単語$w$のベクトルをそれぞれ$\boldsymbol{w}_{earlier}$と$\boldsymbol{w}_{later}$とし,\textit{CosDist}は以下の式により定義される.\begin{align}\textit{CosDist}&=1-\cos(\boldsymbol{w}_{earlier},\boldsymbol{w}_{later})\notag\\&=1-\frac{\boldsymbol{w}_{earlier}\cdot\boldsymbol{w}_{later}}{||\boldsymbol{w}_{earlier}||\cdot||\boldsymbol{w}_{later}||}\end{align}この中で,$\cos(\boldsymbol{w}_{earlier},\boldsymbol{w}_{later})$は$\boldsymbol{w}_{earlier}$と$\boldsymbol{w}_{later}$のCosineSimilarityであり,値が$[-1,1]$の範囲内であるため,\textit{CosDist}の値域は$[0,2]$になる.大きい値は意味の差が大きい,つまり意味が変化した可能性が高いことを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table16\begin{table}[b]\input{03table16.tex}%\caption{頻度ベクトル($\mathit{FreqVec}$)とSGNSの学習ハイパーパラメータ.}\label{table:parameters}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{タイプベース}タイプベースの手法として,\citeA{schlechtweg-etal-2019-wind}が報告した,ドイツ語のデータセット上で最も性能が良い手法を評価する.具体的には,比較対象となるコーパスを学習データとしてSGNSで単語ベクトルを学習して,2種類の対応付け手法であるVectorInitialization(VI)\cite{kim-etal-2014-temporal}とOrthogonalProcrustes(OP)\cite{hamilton-etal-2016-diachronic}を使用した.VIは,2つの時期のデータ上でword2vecのSGNSを学習する際に,1つ目の時期のデータで学習済みのモデルのパラメータを2つ目の時期のデータを学習するモデルの初期パラメータにする.一方で,OPは回転行列を用いた異なる時期データから学習された単語ベクトルを同一空間に対応付けする方法である.2つのコーパス$C_{earlier}$,$C_{later}$で共通の語彙$\mathcal{V}$を獲得し,それに関する$d$次元の単語ベクトル行列$\boldsymbol{W}_{earlier}\in\mathbb{R}^{|\mathcal{V}|\timesd}$と$\boldsymbol{W}_{later}\in\mathbb{R}^{|\mathcal{V}|\timesd}$を獲得する.$\boldsymbol{W}_{earlier}$を時期$later$に対応付けさせる回転行列$\boldsymbol{R}\in\mathbb{R}^{d\timesd}_{earlier\rightarrowlater}$は以下のように計算する.\begin{equation}\boldsymbol{R}_{earlier\rightarrowlater}=\operatorname*{argmin}_{\boldsymbol{R}:\boldsymbol{R}\boldsymbol{R}^\top=1}||\boldsymbol{W}_{earlier}\boldsymbol{R}-\boldsymbol{W}_{later}||^{2}_{F}\end{equation}検出においては,異なる時期の単語の意味を反映するベクトルを比較するために,\textit{CosDist}を計算する.また,今回はさまざまなハイパーパラメータで手法の性能を評価した.頻度ベクトルとSGNSのハイパーパラメータを表\ref{table:parameters}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{トークンベース}トークンベースの手法としては,\citeA{giulianelli-etal-2020-analysing}が提案したBERTを用いた手法を評価する.\pagebreakコーパスの用例から単語ベクトルを獲得するために,国立国語研究所が開発したNWJC-BERTを使用する.一般的な日本語BERTと違って,NWJC-BERT\cite{asahara-etal-2020-nwjc}は語彙素に基づくモデルであり,用例をNWJC-BERTに入力する前に,トークンを語彙素に置き換える必要があるため,今回の実験ではコーパス中の全ての単語を語彙素に変換して実験を行った.ただし,今回はNWJC-BERTの追加学習やFine-tuningを行わずに,推論のみ行った.意味変化度合を計算する方法として,先行研究で高い性能が報告されたAveragePairwiseDistanceとJensen-ShannonDivergenceを用いる.AveragePairwiseDistanceは異なる時期の2つのベクトル間の平均距離である.今回は先行研究にならい,距離関数に\textit{CosDist}を採用した(APD$_{CosDist}$).単語$w$の時期$earlier$と時期$later$の用例$u^w_{earlier}$と$u^w_{later}$として,用例集合をそれぞれ$U^{w}_{earlier},U^{w}_{later}$とすると,時期$earlier$と時期$later$の用例ごとに得られる対象単語のベクトルは$\boldsymbol{u}^w_{earlier},\boldsymbol{u}^w_{later}$,その集合は$\boldsymbol{U}^w_{earlier},\boldsymbol{U}^w_{later}$となる.この時,APD$_{CosDist}$は次のようになる.高いAPD$_{CosDist}$は高い意味変化度合を意味する.\begin{equation}APD_{CosDist}(\boldsymbol{U}^w_{earlier},\boldsymbol{U}^w_{later})=\frac{1}{|{U}^w_{earlier}|\cdot|{U}^w_{later}|}\sum_{\boldsymbol{u}^w_i\in\boldsymbol{U}^w_{earlier},\boldsymbol{u}^w_j\in\boldsymbol{U}^w_{later}}CosDist(\boldsymbol{u}^w_i,\boldsymbol{u}^w_j)\end{equation}一方で,Jensen-ShannonDivergence(JSD)は時期$earlier$と$later$のクラスタ分布の差を計算することで単語の意味変化度合を計算する.時期$earlier$,$later$の用例ベクトル集合$\boldsymbol{U}^w_{earlier}$と$\boldsymbol{U}^w_{later}$をK-meansで$K$個のクラスタに分類する.この時,$K$は2から10を試し,$\boldsymbol{U}^w_{earlier}$と$\boldsymbol{U}^w_{later}$のクラスタリング結果の中で最もシルエットスコア\cite{ROUSSEEUW-Silhouettes-1987}が高い$K$を採用した.クラスタリングの結果,各クラスタの用例集合は$\boldsymbol{\Omega}^w_i(i\in\{1,...,K\})$と表せる.その後,時期ごとに各クラスタ$\boldsymbol{\Omega}^w_i$に用例が所属する割合$P^w_{earlier,i},P^w_{later,i}$を算出すると,時期ごとの用例クラスタ分布$\boldsymbol{P}^w_{earlier},\boldsymbol{P}^w_{later}$が得られる.得られた用例クラスタ分布を用いて,JSDは次のように計算する.\begin{equation}JSD(\boldsymbol{P}^w_{earlier},\boldsymbol{P}^w_{later})=\mathrm{H}(\frac{1}{2}(\boldsymbol{P}^w_{earlier}+\boldsymbol{P}^w_{later}))-\frac{1}{2}(\mathrm{H}(\boldsymbol{P}^w_{earlier})+\mathrm{H}(\boldsymbol{P}^w_{later}))\end{equation}$\mathrm{H}$はBoltzmann-Gibbs-Shannonエントロピーである.用例クラスタ分布が異なっている場合は,JSDが高くなるため,意味変化度合が高いことを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価結果}\label{subsec:results}各手法において最もよい性能を出したハイパーパラメータでの結果を表\ref{table:approach_results}に示す.\paragraph{比較コーパス別の性能}CHJとBCCWJ,SHCとBCCWJのどちらの比較でも,タイプベースおよびトークンベースの手法は,頻度に基づくベースラインを上回る性能を出した.CHJとBCCWJの比較では,$\mathrm{abs}(\Delta{}Later)$ではタイプベースの手法が最もよい性能を示し,$-\mathrm{Mean}(Compare)$ではタイプベースの手法とトークンベースの手法が同等の性能を示した.一方で,SHCとBCCWJの比較では,$\mathrm{abs}(\Delta{}Later)$ではどの手法も理想的な性能を発揮できなかったが,$-\mathrm{Mean}(Compare)$ではタイプベースの手法とトークンベースの手法が同等の性能を示した.ここで,CHJとBCCWJの比較での性能は,SHCとBCCWJの比較での性能を上回る傾向を示している.原因として,表\ref{table:corpora}より,CHJとBCCWJの時期の差がSHCとBCCWJより大きく,対象単語の意味や文脈が顕著に異なるため,意味変化を捉えやすくなると考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table17\begin{table}[b]\input{03table17.tex}%\hangcaption{代表的な意味変化検出手法のJaSemChangeにおけるSpearman順位相関係数$\rho$.太字の数字は各意味変化度合で最もよい結果である.}\label{table:approach_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table18\begin{table}[b]\input{03table18.tex}%\hangcaption{ロシア語のデータセットRuSemShiftにおける手法の実験結果\protect\cite{rodina-kutuzov-2020-rusemshift}.APはAffinityPropagationというクラスタリング手法である.}\label{table:RusemShift_approach_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{正解とする意味変化度合別の性能}ここで,2種類の正解意味変化度合の結果を比較すると,\\$\mathrm{abs}(\Delta{}Later)$での結果はどちらの比較でも検出手法の性能が相対的に低いことがわかる.原因として,$-\mathrm{Mean}(Compare)$では2つの時期で意味の違いを直接比較するのに対し,$\mathrm{abs}(\Delta{}Later)$では時期間の意味の増減を相対的に扱っていることが挙げられる\cite{rodina-kutuzov-2020-rusemshift}.その性質によって,単語の語義出現比率が変わらずに意味が変わった場合,そのような単語の$\mathrm{abs}(\Delta{}Later)$が0に近づいてしまい,意味が変化しなかったと不当に評価されてしまうのだと考える.この傾向は表\ref{table:RusemShift_approach_results}に示したロシア語での結果でも現れている.一方で,$-\mathrm{Mean}(Compare)$は2つの時期の意味を直接比較することはできるが,時期間における語義の増減を扱うことはできない.現在多くの評価セットが採用している意味変化の程度を評価する際には$-\mathrm{Mean}(Compare)$で評価すれば十分であるが,語義の増減といったより詳細な意味変化の種類を評価するには不十分である.したがって,今後は2つの意味変化度合を考慮した指標を作成することが重要であると考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{手法別の性能}タイプベースのモデルを用いた手法では,SGNS+VIがほとんどの場合においてSGNS+OPを上回った.\citeA{schlechtweg-etal-2019-wind}によるドイツ語での結果では,SGNS+OPの組み合わせが他の手法を上回る性能を出したが,今回は同じ結果は得られなかった.この要因として,ベクトル空間の対応付けに関する前提条件が挙げられる.ベクトル空間の対応付け手法であるOPを適用するには,学習文書データ内のほとんどの単語の意味が変化しないことが前提となっている.この傾向は,\citeA{aida-journal-2023}の実験結果からも見られるが,今回の学習データが対応する明治から平成までの日本語は,単語の語義以外に,表記や文体も大きく変化したため,OPの前提条件を満たせない可能性が高いと考える.トークンベースのモデルを用いた手法は,APD$_{CosDist}$を用いた距離計算がJSDをはるかに上回った.日本語以外の多くの言語のデータセット上でも,表\ref{table:semeval-subtask2}に示したように,今回と同じ評価実験設定のSemEval-2020Task1Subtask2の結果から,APDがJSDを上回る性能を出すケースが多いことが報告されている.JSDを使用する手法はクラスタリングの性能にも依存するため,単純な類似度計算より対象単語の意味変化を検出しにくい傾向があると考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table19\begin{table}[t]\input{03table19.tex}%\hangcaption{SemEval2020-Task1Subtask2の4言語のデータセットにおける一部の手法とその実験結果\protect\cite{schlechtweg-etal-2020-semeval}.EN,DE,LA,SVはそれぞれ英語,ドイツ語,ラテン語,スウェーデン語を表す.太字はこのSubtaskで最も高い性能を取った手法の性能である.}\label{table:semeval-subtask2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{まとめ} 本研究では,日本語の意味変化検出の評価用単語セットJaSemChangeを構築した.異なる時期をカバーする日本語通時コーパスを使用し,対象単語の意味変化度合を日本語の専門家による人手アノテーションで付与した.アノテーションはDURelフレームワークを適用し,各対象単語に対して異なる2つの意味変化度合$\Delta{}Later$と$\mathrm{Mean}(Compare)$を算出した.その結果,$\Delta{}Later$に比べて$\mathrm{Mean}(Compare)$ではより理想的なスコアを得られた.近現代日本語の非専門家が専門家と同等な品質のアノテーション結果を得られるかどうかを調べるために,非専門家にも同じアノテーションタスクを依頼した.両方のアノテータ間一致率を調べた結果,専門家と非専門家の間に一致率の差は見られなかったが,判断しにくい用例に対して非専門家の意見が分岐するため,アノテーションでは専門家の判断が望ましいことが明らかとなった.そして,今回構築したJaSemChangeに対して,2種類の意味変化の検出手法の検出性能を定量的に評価した.その結果,タイプベースのモデルを用いた手法とトークンベースのモデルを用いた手法はともに頻度に基づくベースラインを上回った.また,それぞれの意味変化度合である$\Delta{}Later$と$\mathrm{Mean}(Compare)$に対して異なる傾向が表れた.具体的には,$\mathrm{Mean}(Compare)$では両方の検出手法が高い相関を達成したが,$\Delta{}Later$では高い相関を達成した手法が少なく,全体的に$\mathrm{Mean}(Compare)$より相関が低いことを示した.今回構築した評価単語セットは,意味変化度合を考慮したが,意味変化の種類については深く考慮していない.意味がプラス評価を有するようになるという現象「良化」やマイナス評価を有するようになる「悪化」,意味の一般化や特殊化など,これらの意味変化をどのように定義するかはまだ議論されていない.今後は通時コーパスを利用して,意味変化の種類を定義することを検討したい.例えば,今回収集した用例ペアのスコアを用いることで,複数の時代における語義の分布をグラフで可視化することが可能になる\cite{schlechtweg-etal-2021-dwug}.分類語彙表\footnote{\url{https://clrd.ninjal.ac.jp/goihyo.html}}などの言語資源と今回算出した意味変化度合いを組み合わせることで,より複雑な語義の語彙派生関係について調査と分析を行うことが期待できる.また,今回の実験結果は,日本語あるいはすべての言語の通時的な意味変化に興味を持つ研究者の参考になることを期待している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は,国立国語研究所共同研究プロジェクト「開かれた共同構築環境による通時コーパスの拡張」およびJSTさきがけ「文理融合による人と社会の変革基盤技術の共創」JPMJPR2366の成果の一部を含むものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}%%%%\bibliography{03refs}\input{03ling_bbl.tex}\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix\vspace*{-2\Cvs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\vspace*{-2\Cvs}\begin{center}\includegraphics{31-4ia3f3.pdf}\end{center}\hangcaption{アノテータが受けるチュートリアルの最初に提示するタスク説明.アノテーションの作業環境と同じくGoogleFormsを使用した.}\label{fig:tutorial}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[p]\begin{center}\includegraphics{31-4ia3f4.pdf}\end{center}\caption{アノテーションのチュートリアルの問題例.}\label{fig:enter-label}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[p]\begin{center}\includegraphics{31-4ia3f5.pdf}\end{center}\caption{CHJとBCCWJの比較における,単語ごとのアノテーションスコアの割合.}\label{fig:chjbccwjannotationratio}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[p]\begin{center}\includegraphics{31-4ia3f6.pdf}\end{center}\caption{SHCとBCCWJの比較における,単語ごとのアノテーションスコアの割合.}\label{fig:shcbccwjannotationratio}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[p]\begin{center}\includegraphics{31-4ia3f7.pdf}\end{center}%%%%a\label{fig:chjcountkekko}%%%%b\label{fig:chjcounttekito}%%%%c\label{fig:chjcountmoderu}%%%%d\label{fig:chjcounttotemo}%%%%e\label{fig:chjcounteigo}%%%%f\label{fig:chjcountdensha}%%%%g\label{fig:chjcountshojo}%%%%h\label{fig:chjcountringo}\caption{CHJとBCCWJの比較における,それぞれのグループにおける対象単語のスコア分布.}\label{fig:annotationscorecount}\end{figure}\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{凌志棟}{%2022年東京都立大学(旧称首都大学東京)システムデザイン学部情報科学科卒業.同年同大学システムデザイン研究科情報科学域博士前期課程進学.現在に至る.}\bioauthor{相田太一}{%2020年長岡技術科学大学工学部電気電子情報工学課程卒業.2022年東京都立大学大学院システムデザイン研究科情報科学域博士前期課程修了.同年同大学同研究科同学域博士後期課程進学.現在に至る.}\bioauthor{岡照晃}{%2010年豊橋技術科学大学情報工学課程卒業.2012年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2013年より日本学術振興会特別研究員(DC2)を経て,2015年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.博士(工学).同年京都大学大学院情報学研究科特定研究員.2016年国立国語研究所言語変化研究領域プロジェクト非常勤研究員.同年同研究所コーパス開発センター特任助教.2021年東京都立大学システムデザイン学部特任助教.2023年一橋大学大学院ソーシャル・データサイエンス研究科特任助教.同年東京都立大学システムデザイン学部客員研究員.同年SBIntuitions株式会社.現在に至る.}\bioauthor{小町守}{%2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒業.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2008年より日本学術振興会特別研究員(DC2)を経て,2010年同研究科博士後期課程修了.博士(工学).同年同研究科助教.2013年首都大学東京(現東京都立大学)システムデザイン学部准教授.2022年同大学同学部教授.2023年より一橋大学大学院ソーシャル・データサイエンス研究科教授.現在に至る.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V22N05-02
\section{はじめに} 2000年以降の自然言語処理(NLP)の発展の一翼を担ったのはWorldWideWeb(以降,Webとする)である.Webを大規模テキストコーパスと見なし,そこから知識や統計量を抽出することで,形態素解析~\cite{Kaji:2009,sato2015mecabipadicneologd},構文解析~\cite{Kawahara:05},固有表現抽出~\cite{Kazama:07},述語項構造解析~\cite{Komachi:10,Sasano:10},機械翻訳~\cite{Munteanu:06}など,様々なタスクで精度の向上が報告されている.これらは,WebがNLPを高度化した事例と言える.同時に,誰もが発信できるメディアという特性を活かし,Webならではの新しい研究分野も形成された.評判情報抽出~\cite{Pang:2002}がその代表例である.さらに,近年では,TwitterやFacebookなどのソーシャルメディアが爆発的に普及したことで,自然言語処理技術をWebデータに応用し,人間や社会をWebを通して「知ろう」とする試みにも関心が集まっている.ソーシャルメディアのデータには,(1)大規模,(2)即時性,(3)個人の経験や主観に基づく情報など,これまでの言語データには見られなかった特徴がある.例えば,「熱が出たので病院で検査をしてもらったらインフルエンザA型だった」という投稿から,この投稿時点(即時性)で発言者は「インフルエンザに罹った」という個人の経験を抽出し,大規模な投稿の中からこのような情報を集約できれば,インフルエンザの流行状況を調べることができる.このように,NLPでWeb上の情報をセンシングするという研究は,地震検知~\cite{Sakaki:10},疾病サーベイランス~\cite{Culotta:2010}を初めとして,選挙結果予測,株価予測など応用領域が広がっている.大規模なウェブデータに対して自然言語処理技術を適用し,社会の動向を迅速かつ大規模に把握しようという取り組みは,対象とするデータの性質に強く依拠する.そのため,より一般的な他の自然言語処理課題に転用できる知見や要素技術を抽出することが難しい.そこで,ProjectNextNLP\footnote{https://sites.google.com/site/projectnextnlp/}ではNLPのWeb応用タスク(WebNLP)を立ち上げ,次のゴールの達成に向けて研究・議論を行った.\begin{enumerate}\itemソーシャルメディア上のテキストの蓄積を自然言語処理の方法論で分析し,人々の行動,意見,感情,状況を把握しようとするとき,現状の自然言語処理技術が抱えている問題を認識すること\item応用事例(例えば疾患状況把握)の誤り事例の分析から,自然言語処理で解くべき一般的な(複数の応用事例にまたがって適用できる)課題を整理すること.ある応用事例の解析精度を向上させるには,その応用における個別の事例・言語現象に対応することが近道かもしれない.しかし,本研究では複数の応用事例に適用できる課題を見出し,その課題を新しいタスクとして切り出すことで,ソーシャルメディア応用の解析技術のモジュール化を目指す.\item(2)で見出した個別の課題に対して,最先端の自然言語処理技術を適用し,新しいタスクに取り組むことで,自然言語処理のソーシャルメディア応用に関する基盤技術を発展させること\end{enumerate}本論文では,NLPによるソーシャルリスニングを実用化した事例の1つである,ツイートからインフルエンザや風邪などの疾患・症状を認識するタスク(第\ref{sec:used-corpus}章)を題材に,現状の自然言語処理技術の問題点を検討する.第\ref{sec:analysis}章では,既存手法の誤りを分析・体系化し,この結果から事実性の解析,状態を保有する主体の判定が重要かつ一般的な課題として切り出せることを説明する.第\ref{sec:factuality}章では,事実性解析の本タスクへの貢献を実験的に調査し,その分析から事実性解析の課題を議論する.第\ref{sec:subject}章では,疾患・症状を保有する主体を同定するサブタスクに対する取り組みを紹介する.さらに第\ref{sec:factandsub}章では,事実性解析と主体解析を組み合わせた結果を示す.その後,第\ref{sec:relatedworks}章で関連研究を紹介し,最後に,第\ref{sec:conclusion}章で本論文の結論を述べる. \section{コーパス} \label{sec:used-corpus}本研究では,風邪およびその症状に関するTwitter上での発言を集めたコーパス(以下,風邪症状コーパス)と,インフルエンザに関するTwitter上での発言を集めたコーパス(以下,インフルエンザ・コーパス)の2つを用いる.風邪症状コーパスは誤り分析及び主体解析の検証に,インフルエンザ・コーパスは事実性判定の検証に用いる.これらは2008年11月から2010年7月にかけてTwitterAPIを用いて30億発言を収集し,そこから「インフルエンザ」や「風邪」といったキーワードを含む発言を抽出したものである(表\ref{keywords}).\begin{table}[b]\caption{検索のためのキーワード}\label{keywords}\input{02table01.txt}\end{table}先行研究においても,風邪やインフルエンザなど感染症に関する研究は多く~\cite{lamb-paul-dredze:2013:NAACL-HLT},他にも西ナイル熱~\cite{sugumaran2012real}などが扱われている.これらの多くは,経験則により「風邪」や「インフルエンザ」などのキーワードとなる単語を選択し,その頻度を集計し,感染状況の把握を行っている~\cite{culotta2010detecting,aramaki-maskawa-morita:2011:EMNLP}.本研究では,先行研究の1つである~\cite{aramaki-maskawa-morita:2011:EMNLP}で使われたインフルエンザコーパス,及び,~\cite{荒牧2011}や商用サイト「カゼミル・プラス」で用いられた風邪症状コーパスを用いる.\subsection{風邪症状コーパス}風邪症状コーパスは,「風邪・咳・頭痛・寒気・鼻水・熱・喉の痛み」の7種類の症状に関して,ツイートの発言者が疾患・症状にあるかどうか(正例か負例か)をラベル付けしたものである.このコーパスでは,投稿者が以下の除外基準に照らし,1つでも該当するものがあれば負例とみなした.\begin{itemize}\item発言者(または,発言者と同一都道府県近郊の人間)の疾患でない.居住地が正確に分からない場合は負例発言とみなす.例えば,「風邪が実家で流行っている」では,「実家」の所在が不明であるので,負例とみなす.\item現在または近い過去の疾患のみ扱い,それ以外の発言は除外する.ここでいう「近い過去」とは24時間以内とする.例えば,「昨年はひどいインフルエンザで参加できなかった」は,負例とみなす.\item「風邪でなかった」等の否定の表現は負例とする.また,疑問文や「かもしれない」といった不確定な発言も負例とする.\end{itemize}コーパスサイズは,疾患の種類ごとに異なる.それぞれの疾患・症状ごとのコーパスサイズと疾患のラベル数を表\ref{corpus_size}に示す.\begin{table}[b]\caption{コーパスサイズ}\label{corpus_size}\input{02table03.txt}\end{table}\subsection{インフルエンザ・コーパス}インフルエンザ・コーパスは,「インフルエンザ」を含む10,443件の発言に対して,正例か負例かをラベル付けしたものである.アノテーションの基準については,風邪症状コーパスに準拠している.なお,正例数が1,319件,負例数が9,124件となっている.実際のコーパスからアノテーションの具体例を示す(表\ref{annotation_example}).\begin{table}[t]\caption{コーパスのアノテーションの具体例}\label{annotation_example}\input{02table02.txt}\end{table} \section{誤り分析} \label{sec:analysis}本章では,疾患・症状を検出するタスク(以降,罹患検出)について取り組み,風邪症状コーパスを用いて既存のシステムの誤り分析を行った.既存システムとして,単語n-gram素性を用いた手法~\cite{aramaki-maskawa-morita:2011:EMNLP}と同等の分類器をSupportVectorMachine(SVM)にて構築し,その誤りを人手で分類した.誤りには,本来,疾患・症状の事実があると判定すべきであるのに,それができなかった場合であるFalseNegative(以降,FN)の事例と,その逆に,疾患の事実がないのに誤って疾患とみなしてしまう場合であるFalsePositive(以降,FP)の事例がある.罹患検出は大規模な母集団に対して行われるので,再現率はさほど重要ではなく,適合率が重要になる.そこでFPに注目し,解析を進めた.FPと判定された事例に対して,なぜそれがNegativeな事例なのかという観点から,人手で誤りを分類した.誤り原因の分類と発言例を表\ref{FP_eg}に示す.誤りの分類は以下の通りである.\begin{table}[t]\caption{誤り分析(FPの原因ごとの例文)}\label{FP_eg}\input{02table04.txt}\end{table}\begin{itemize}\item\textbf{非当事者}:疾患・症状を所有する対象が,発言者およびその周辺の人物ではない.特定の二人称,三人称の人物が疾患・症状を保有する場合や,「みんな風邪ひかないように」といった発言のように一般的な人に向けたものも含める.\item\textbf{比喩}:比喩的に疾患表現が利用されている場合が当てはまる.「凄すぎて鼻水ふいた」という発言は,実際に疾患として鼻水が出ているとは考えにくく,「鼻水をふいた」という表現を利用することで大変驚いた様子を比喩的に表しているものだと推測される.\item\textbf{一般論}:そもそも疾患・症状の保有に関する話題ではなく,疾患そのものについて議論していたり,「風邪予防マスク」のように疾患が名詞句の一部として出現した場合である.\item\textbf{モダリティ}:「かもしれない」(疑い),「かな?」(疑問)などのモダリティ表現により,疾患の事実が認められない場合を指す.ここでは以下に示す否定,時制を除いた狭義のモダリティ表現を意味し,英語表現で置き換えれば,``must'',``might'',``haveto''などの助動詞が当てはまる.\item\textbf{時制}:疾患のあった時間が異なる.\item\textbf{否定}:「風邪でなくてよかった」など,疾患の事実が否定されている.\item\textbf{その他}:その他の理由によるもので,人でも理解不能な発言や,発言が短すぎて解析に失敗したものが含まれる.\end{itemize}表\ref{FP}に,風邪症状コーパスの6つの疾患・症状について,それぞれ100件の誤り(FalsePositive)事例について分析を行った結果を示す(600事例).表\ref{FP}より,疾患・症状の種類ごとに誤り方に大きな違いがあることがわかった.風邪,咳,熱は「非当事者」が原因となる解析誤りが多く,疾患・症状を保有する主体を識別する部分に課題がある.一方で寒気,鼻水は「非当事者」による解析誤りが少ない.これは,例えば,鼻水は他人の鼻水について言及することが少ないことが原因としてあげられる.また,頭痛,寒気,鼻水は比喩的な解析誤りが多く,改善すべき点が大きく異なる.事実性の問題(時制,モダリティ,否定)に注目すると,どの疾患・症状においても一定数見られ,一般的な問題と捉えることができる.これらのエラー分析の結果から,言語処理の研究課題という観点から整理すると,疾患があったのかという\textbf{事実性}(時制,モダリティ,否定)と,仮に疾患の事実があったとして,疾患を所有しているのは誰なのかという\textbf{主体性}(非当事者や一般論の問題)と,比喩の3つの大きな言語現象に大別できる.これらの現象について,少し詳しく説明する.\begin{table}[t]\caption{誤り分析(FalsePositiveについての誤りの分類)}\label{FP}\input{02table05.txt}\end{table}事実性は,一般的かつ重要な課題でありながら,解析の難しさから高い精度に到達できていない\cite{narita2013lexicon,matsuyoshi2010annotating}.疾患があったのかという事実性の問題を解消することができれば,7つの誤りの分類のうち,モダリティ(10.8\%),時制(10.1\%),否定(5.9\%)を改善することができ,最大で合計26.8\%のエラーを解消する可能性がある.事実性の問題はWeb文書に特化した話ではなく,言語処理全般における課題である.仮に疾患・症状の事実があったとして,疾患・症状を保有しているのは誰なのかという主体を認識するタスクも重要である.疾患・症状を認識するタスクでは,地域ごとに疾患・症状の流行状況を把握したいために,一次情報(本人が観測・体験した情報)であるかどうかの識別が重要となる.エラー分析を行った結果,発言者とは関係のない有名人や発言者との物理的な位置関係が明確でない返信先の人物が疾患・症状に罹っている発言が多数見受けられた.一方で,疾患・症状を意味する表現が名詞句の一部として現れることで,特定の主体を言及するものではない場合もある.例えば,「風邪予防マスク」のように風邪が名詞句の一部として使われているだけの発言が存在する.この場合,「風邪」という単語はただの名詞句の一部として「予防」を修飾しており,疾患のイベントを保有していないため,その主体も存在しない.この問題を合わせると,疾患・症状を保有した対象は存在するのか,存在する場合は誰なのか,という主体を認識するタスクを考えることができる.7つの誤りの分類のうち,非当事者(23.5\%),一般論(14.8\%)がこのタスクで解決できる課題であり,合わせれば最大で38.3\%のエラーを解消することが可能である.主体解析の問題は,疾患に限ったことではなく,評判抽出(だれの評判なのか?),感性情報処理(だれが喜び/悲しんでいるのか?)など,Web文章,特にブログなど個人が発言する情報を扱う上で基盤となる技術であり,言語処理がWebを通して世の中を把握するため,解くべき大きな課題である.Web上のテキストを扱う上で,比喩(20.4\%)の問題も見過ごせない.例えば「凄すぎて鼻水でた」という発言があった場合,事実性解析的にはイベントが成立していて,かつ,主体も発言者(一人称)と推定されるが,常識的に考えて症状は発生していない.私たちはこの発言において,直感的に,何かのイベントが起きて驚いたことに対する口語的表現として,「鼻水出た」という表現が利用されたと判断することができる.この比喩的な表現の問題を解決するには,比喩に関する人間の常識的な推論が必要である.例えば,「頭が痛い」「寒気がする」「発熱がある」など,疾患・症状が比喩的に使用される例は多くある.実用面を考えると,比喩の問題は重要であるが,特定の疾患・症状に依存した処理になりがちである.そこで,本論文では一般性が高いサブタスクとして,先に挙げた2つの課題(事実性解析,主体解析)に取り組み,罹患検出器の改善に取り組む.以降,\ref{sec:factuality}章にて事実性解析,\ref{sec:subject}章にて主体解析において罹患検出器を改善した結果を報告し,\ref{sec:factandsub}章にて事実性解析と主体解析を組み合わせた結果を示す. \section{事実性解析} \label{sec:factuality}\subsection{事実性解析とは}事実性解析については,\ref{sec:used-corpus}章で説明されたインフルエンザ・コーパスを対象とし実験を行った.ここで,インフルエンザ・コーパスを使用して事実性解析を行ったのは,インフルエンザ・コーパスにおいては,予防方法やニュース等といった「インフルエンザに感染している」という事実をもたない発言が多いという傾向が強く見られたことから,事実性解析の必要性が高いと判断したためである.実際に,他のコーパスに比べて,負例の割合が極端に高い傾向がある.インフルエンザの流行の検出のためには,実際にインフルエンザに感染している人がどの程度いるのかを判断する必要がある.しかし,機械的に「インフルエンザ」を含む発言を集めるだけでは感染している人がどの程度存在するかはわからない.このために,集めた発言を感染者に関する発言かそうでないかの分類を行うことにより流行の検出を行う.このような分類のためには,文に記述されている事象が,実際に起こったことなのか,そうでないことなのかの事実性を判定する技術が必要となる.これは,事実性解析(Factualityanalysis)と呼ばれる\cite{sauri2012you}.事実性解析が必要な例は以下のような例である.\begin{quote}(1)熱があったので、病院に行ったら\fbox{インフルエンザ}\underline{{\bfだった}}。(2)\fbox{インフルエンザ}に罹った\underline{{\bfかもしれない}}。(3)\fbox{インフルエンザ}に罹ってい\underline{{\bfたら}}、休まざるを得ないだろう。\end{quote}例を見ると,インフルエンザであることを「だった」として断定したり,「かもしれない」と推量をしたり,「たら」と仮定をしたりしていることがわかる.これにより,(1)は,「インフルエンザに感染する」という事実を持っており,反対に(2),(3)はこの事実を持たないと判断できる.このような表現はモダリティと呼ばれ,人間が情報の真偽を考える上で重要な手がかりになる.\subsection{事実性解析の活用}\label{sec:modality}本研究における事実性解析の目標は,「インフルエンザに感染している」という事実を持つ発言を検出することである.我々は,これを「対象とする事実」をもつかもたないかの2値分類タスクとして考え,分類器を構築し分類を行った.本章では,モダリティを利用した2つの手法について説明する.\subsubsection{つつじによる素性}事実性解析を罹患検出に活用する1つの方法として,つつじ\footnote{つつじ日本語機能表現辞書http://kotoba.nuee.nagoya-u.ac.jp/tsutsuji/}の利用を試みた.日本語の文を構成する要素には,主に内容的な意味を表す要素(内容語)以外に,助詞や助動詞といった,主に文の構成に関わる要素がある.ここでは,後者を総称して,「機能語」と呼び,「に対して」や「なければならない」のように,複数の語から構成され,かつ,全体として機能語のように働く表現である「複合辞」と合わせて,これらを機能表現と呼ぶ\cite{matsuyoshi2007}.つつじは16,801の機能表現の表層形を階層的に分類しており,同じような意味を持つ機能表現には同じ意味IDが振られている.\begin{table}[b]\caption{つつじによる意味ID素性の例}\label{extsutsujifeature}\input{02table06.txt}\end{table}本研究はTwitterのデータを使用しているため,発言の中には文が複数ある場合も多い.これにより,注目しているインフルエンザ感染に関連する機能表現と関係のない機能表現も多く存在すると考えられる.そこで,「インフルエンザ」の右の15文字中につつじの機能表現の表層形が含まれる場合にその意味IDを素性として利用することにした.つつじによる意味ID素性の具体例を表\ref{extsutsujifeature}に示す.\subsubsection{Zundaによる素性}次に,2つ目のモダリティの利用法として,Zunda\footnote{Zunda拡張モダリティ解析器https://code.google.com/p/zunda/}の解析結果を利用する手法を提案する.Zundaは文中のイベント(動詞や形容詞,事態性名詞など)に対して,その真偽判断(イベントが起こったかどうか),仮想性(仮定の話かどうか)などを解析することのできる日本語拡張モダリティ解析器である.本手法においては,Zundaの出力する真偽判断のタグを利用した.真偽判断についてのラベルとしては,「成立」,「不成立」,「不成立から成立」,「成立から不成立」,「高確率」,「低確率」,「低確率から高確率」,「高確率から低確率」,「0」のラベルが存在する.真偽判断ラベルについての具体的を表\ref{examplelabelofzunda}に示す.また,これらのラベルのうち頻出の「成立」,「不成立」「0」のラベルの解析精度を表\ref{zundanoseido}に示す.\begin{table}[b]\caption{Zundaの真偽判断ラベル}\label{examplelabelofzunda}\input{02table07.txt}\end{table}\begin{table}[b]\caption{Zundaの真偽判断タグにおける解析精度}\label{zundanoseido}\input{02table08.txt}\end{table}\begin{table}[b]\caption{Zundaによる素性の例}\label{exzundafeature}\input{02table09.txt}\end{table}これらのラベルが各イベントに対してついているが,つつじを使用した場合と同様にインフルエンザに関連するイベントがどこに存在するかを考えなければならない.我々はZundaが動詞,事態性名詞を「イベント」として解析していることから,「インフルエンザ」の右に続く動詞,事態性名詞で一番近いものをインフルエンザに関連するイベントとみなし,そのイベントとイベントに付けられたラベルの組み合わせを素性として利用した.具体例を表\ref{exzundafeature}に示す.\subsection{インフルエンザ感染か否かの2値分類の実験・評価}\subsubsection{実験設定}本研究は,発言をした人物,あるいはその周りの人物がインフルエンザにかかっているか否かを判定する2値分類をL2正則化ロジスティック回帰により行った.評価は5分割交差検定による適合率,再現率,F1-スコアを用いた.ツールとしては,Classias(ver.~1.1)\footnote{Classiashttp://www.chokkan.org/software/classias/index.html.ja}を使用した.ウィンドウを決めるための形態素解析器としてはMeCab(ver.~0.996)\footnote{MeCab日本語形態素解析器http://taku910.github.io/mecab/}を利用し,MeCabの辞書はIPA-Dic(ver.~2.7.0)を用いた.本研究のような風邪等の疾患情報を検出するために発言の分類を行うタスクは先行研究\linebreak\cite{aramaki-maskawa-morita:2011:EMNLP}があり,分類のためには,注目している疾患・症状を表す単語の周辺の単語が良い素性となることが知られている.ここでは,形態素解析により,分かち書きを行い,形態素を1つの単位としたウィンドウを作成した.「インフルエンザ」を含むウィンドウを中心として,左側の3つの形態素と右側の3つの形態素をBagofWords(BoW)の素性とし,これにモダリティに関しての素性以外を加えたものをベースラインの分類器として作成した.ベースラインに使用した素性を表\ref{feature}に示す.つつじによる素性とZundaによる素性に関しては前節の説明によるものとする.\begin{table}[b]\caption{ベースラインに使用した素性}\label{feature}\input{02table10.txt}\end{table}\subsubsection{実験結果}インフルエンザ感染に関しての2値分類を行った結果を表\ref{result}に示す.まず,BoWの素性にそれぞれの素性を加えた結果について言及したい.全体を見ると,適合率は少し減少する傾向にあるが,再現率は増加する傾向にある.F1-スコアに関してはURL,RPの素性以外については全て増加している.つつじの意味IDによる素性Tsutsujiを加えたときは適合率,再現率のどちらも増加している.適合率を上げることが難しいのは使用しているコーパスにおける負例の割合が非常に大きいためである.このため,再現率をあげることにより負例の多いデータからいかに正例をあつめられるかは重要である.本論文では,適合率を上げることを主要な目的としているが,インフルエンザ・コーパスのように正例の割合が小さく,再現率が低くなる場合,インフルエンザの感染者の増減を捉えることは難しくなる.以上のことから,本節では,適合率と再現率の両方を考慮したF1スコアの向上により性能を評価する.\begin{table}[t]\caption{インフルエンザ感染に関しての2値分類の結果}\label{result}\input{02table11.txt}\end{table}次に,つつじによる素性とZundaによるモダリティ素性以外を全て合わせたベースライン(baseline)に対してつつじの意味IDを加えたところ,F1-スコアが2.2ポイントほど向上した.BoWに加えたときと同様に,適合率,再現率が共に上がっている.また,Zundaによる素性をベースラインに加えたところ,F1-スコアは1.1ポイントほど向上した.最後に,ベースラインにつつじに関しての素性と,Zundaに関しての素性を両方を加えたAllを使用したとき,最高精度となった.この結果は,提案手法の素性を抜いたbaselineより,3.5ポイントのF1-スコアの向上が見られるので,提案手法の素性が有用であることを支持する.\subsubsection{コーパスサイズの影響}データのサイズに対する精度変化を見るために学習曲線を図\ref{learning_curve}に示す.これを見ると,データサイズの増加により,適合率は5,000件あたりで一定値に収束しているが,再現率,F1-スコアは増加し続けている.このことから膨大なデータを利用することでも精度向上が見込める事がわかる.一方で,コーパスの作成には人手によるアノテーションが必要でありコストがかかるため,少ないデータでも頑健に分類ができる分類器は有用である.\subsection{考察}本論文では,モダリティに関しての素性の貢献を見ることができたが,実際にどのような事例に対して貢献が見られたか,また,うまくいかなくなった事例はどのようなものかについて調査する.表\ref{example}に実際の発言例を示す.\begin{figure}[t]\begin{center}\includegraphics{22-5ia2f1.eps}\end{center}\caption{コーパスサイズに対する精度変化}\label{learning_curve}\end{figure}\begin{table}[t]\caption{分類に成功した例と失敗した例}\label{example}\input{02table12.txt}\end{table}\subsubsection{つつじによる素性}つつじにおける素性について,分類器の判断に大きく影響を与える素性を調べた.その結果を表\ref{tsutsujiweight}に示す.ここで,重みはベースラインにつつじによる素性を加えたもの(baseline+Tsutsuji)を利用した.表\ref{example}の発言例1においては,表\ref{tsutsujiweight}における,「らしい」のような推量のモダリティ表現をつつじの意味ID素性が捉えることにより,正しい出力を得るようになった.逆に,発言例2においては,ひらがな1文字の「と」や「え」が誤ってマッチしてしまっている.本来,このようなひらがな1文字のものがなければ,正例として正しい分類をしていたのにも関わらず,誤ってマッチしたことにより,分類に失敗している.ひらがな一文字の場合,機能表現として使われていないのにも関わらずマッチしたり,本来の意味と違った意味IDが割り振られてしまったりすることがある.例えば「I23」の意味IDをもつひらがな「え」は表\ref{tsutsujiweight}に示している「うる」,「だろう」に該当するものであり,正しい意味を捉えることができていない.ひらがな一文字の場合は前後の文脈の情報を考慮し,機能表現として使われているかを判別すること,どの意味の機能表現として使われているかの曖昧性を解消することが必要であ\linebreakる.\subsubsection{Zundaによる素性}次に,Zundaによる素性について,分類器の判断に大きく影響を与える素性を調べた.つつじの場合と同様に,重みの大きな素性を大きい順に並べた結果を表\ref{zundaweight}に示す.ここで,重みはベースラインにZundaによる素性を加えたもの(baseline+Zunda)を利用した.\begin{table}[b]\caption{重みの絶対値の大きい素性とその表層形例(つつじによるもの)}\label{tsutsujiweight}\input{02table13.txt}\end{table}\begin{table}[b]\caption{重みの絶対値の大きい素性とその表層形例(Zundaによるもの)}\label{zundaweight}\input{02table14.txt}\end{table}表\ref{zundaweight}を見るとつつじの素性に比べて直感的に理解できるものが多い.インフルエンザの発言は,注意を呼びかける発言,予防接種の内容の発言,ニュースに関する発言等が多く,負の重みによくそれが現れている.正の重みに関しては直接疾患に関係のある名詞や動詞が多くなっている.発言例3においては,「かかり=成立」の素性により,判別できるようになった.Zundaにおいてはこのように素性がうまく働き,分類の成否を分ける例が多く見られた.発言例4においては,実際に感染しているのは発言をしている本人でもなく周りの人でもないため,ここでは,負例を正解とするのが正しいが,「感染=成立」という素性のために正例になってしまっている.このように,確かにインフルエンザに感染しているという事実を持っているにも関わらず,インフルエンザに罹っている人物が,ソーシャル・メディア上で言及されやすい人物である場合,今回のインフルエンザ・コーパスの正負の定義から,分類に失敗する.このことから,インフルエンザに罹っている人物が誰なのかを知る必要がある.これは,主体解析の問題として次のセクションで言及する. \section{主体解析} \label{sec:subject}\subsection{主体解析が必要な事例}はじめに述べたように,Webデータをフルに利用するためには,事実性解析とならんで,誰が疾患・症状にあるのかという主体の推定(主体解析)が重要である.例えば,「娘が風邪を引いた」という発言において「風邪」という疾患を保有するのは「娘」であることが解析できれば,発言者の近くで「風邪」が出現したことが分かる.一方,「風邪と風を誤変換していた」という発言では「風邪」という疾患を保有している主体が存在せず,風邪の流行とは無関係である.主体が明らかになることにより,疾患・症状を保有する主体が周辺に存在しない発言を判別することができる.つまりWebの情報を利用して個人の状態を把握するためには,調べたい状態に言及する表現を認識することに加え,\underline{その状態に置かれている人物の特定}が重要となる.従来の自然言語処理においてこのタスクに最も近いのは,述語項構造解析である.もし,調べたい疾患・症状が事態性名詞である場合(例えば「発熱」)は,そのガ格を調べればよい.しかしながら,疾患・症状が事態性名詞になるかどうかは,述語項構造解析のアノテーション基準に依る所が大きく,通常「風邪」「鼻水」などは事態性名詞として扱われない.代わりに,用言の項構造に着目するアプローチも考えられる.先ほどの「娘が風邪を引いた」という例では,「風邪」は「引いた」のヲ格で,「娘」は「引いた」のガ格なので,「風邪」の保有者は「娘」と推定できる.しかし,このアプローチにも複数の問題がある.第1に,風邪を保有していることを表す述語を識別する問題である.例えば「医者が風邪を診察した」という文では,「風邪」は「診察した」のヲ格で,「医者」は「診察した」のガ格であるが,「風邪」の保有者は「医者」ではない.第2に,口語表現特有の解析誤りがある.例えば「風邪引いた」のようにヲ格が省略されると,述語項構造解析は失敗してしまう.さらに,「風邪ツラい」などカタカナの表現は,形態素解析にすら失敗する可能性がある.このように,既存の述語項構造解析の研究と,疾患・症状を保有する主体を推定するタスクの間には,かなりの乖離がある.そのため,既存の述語項構造解析では主体を正しく特定することは期待できない.この点を鑑み,本章では,疾患・症状を保有する主体を推定するという新しいタスクに取り組む.まず,ツイートの本文に対して,疾患・症状を保有する主体をラベル付けしたコーパスを構築するための方針を設計し,アノテーション作業を行った.次に,このデータを訓練事例として用い,疾患・症状を保有する主体を推定する解析器を設計した.評価実験では,主体を推定する解析器の精度を計測すると共に,主体を推定することによる後続のタスクである罹患検出における貢献を実証した.また,疾患・症状の主体を推定するタスクは,個別の疾患・症状への依存することなく,一般的な解析器を構築できることが分かった.\subsection{コーパスへのラベル付与}\label{sec:corpus}風邪症状コーパスにおいて,誰が疾患・症状にあるのかの情報を付与した.この作業は,疾患・症状毎に500件ずつ,合計で3,000件行った.図\ref{LabelExa}はラベル付けの例を示しており,疾患ラベル,ツイート,疾患クエリが\ref{sec:used-corpus}章で説明した風邪症状コーパスである.それに対して.疾患・症状を保有する主体が発言内に存在する場合に主体としてラベル付けし,二つ目の例のように省略されている場合には「(省略)」とした.また主体の種類を5つに分けた主体ラベルを用意し,疾患・症状を保有する主体がどの主体ラベルに当てはまるかをラベル付けした.\begin{figure}[b]\begin{center}\includegraphics{22-5ia2f2.eps}\end{center}\caption{ラベル付けの例}\label{LabelExa}\end{figure}ラベルの種類と発言例を表\ref{PersonLabel}に示す.ソーシャルメディアの分析では,一次情報(本人が観測・体験した情報)であるかどうかの識別が重要なので,「一人称」「周辺人物」「その他人物」「物体」「主体なし」の5つのラベルを用意した.\begin{itemize}\item「一人称」のラベルの,発言した話者が疾患・症状に\underline{関与}するという意味は,必ずしも症状にある場合だけではなく,主体が疾患・症状と関係する場合を全て含む.例えば,表\ref{PersonLabel}の一人称の発言例のように症状に対して願望を抱いている場合は,今は症状を保有していないため,カゼミル+の応用から考えると抽出したくない情報である.しかし,本章では疾患・症状と関与する主体の推定を目的としているため,疾患・症状を保有していない場合においても主体の同定を行う.願望以外にも,「風邪はひいていない」などの否定の発言も同様に扱い,疾患のラベルは「負例」となる一方で主体ラベルは「一人称」となる.疾患に罹っているかどうかの判断は,主体を推定した後に事実性の解析で行うべきである.主体が「周辺人物」「その他人物」の場合にも同様な条件で判断し,主体ラベルを付与した.\item「周辺人物」のラベルは話者が直接見聞きできる範囲の人物が症状にあるかを一つの分類基準とした.Aramakiらの風邪症状コーパス~\cite{aramaki-maskawa-morita:2011:EMNLP}は,話者か話者と同じ都道府県の人物が症状にある場合に正例となるが,人手で主体のラベル付けする際に,同じ都道府県かどうかを判断することは極めて難しいためである.\item「その他人物」のラベルは,疾患・症状を保有する主体となる人物が存在するが,「一人称」「周辺人物」「物体」には該当しない全てのケースを含む.返信先に疾患・症状の主体が存在する場合が一例で,表\ref{PersonLabel}の発言例では話者と物理的に見聞きできる距離にいることを確認できない.2つ目の例は,症状を保有する人物を観測することができるが,メディアの報道によって拡散された情報で,話者が直接見聞きした情報ではない.\item「物体」のラベルは物体,もしくは人間以外の生物が主体となる場合に付与され,パソコンなどの物体が発熱した場合が例として挙げられる.\item「主体なし」のラベルは,発言例にある「風邪薬」のように,風邪の単語自体に疾患のイベントが存在しておらず,風邪が名詞句の一部として出現する場合を含む.他にも「寒気」が「さむけ」ではなくて「かんき」として使われる場合のように語義が異なる場合や,疾患・症状が慣用句的に使われている場合,記事・作品のタイトルとして出現する場合にも「主体なし」とした.\end{itemize}\begin{table}[t]\caption{疾患症状に関する主体ラベルの種類と発言例}\label{PersonLabel}\input{02table15.txt}\end{table}表\ref{LabeLratio}を見ると,主体が「一人称」の場合にはほぼ省略されるが,主体が「周辺人物」「その他人物」「物体」の場合には約9割が発言内で言及される.正解ラベルとの比率に着目すると,「一人称」と「周辺人物」の場合は約8割が正例である一方で,「物体」「その他人物」「主体なし」の場合は1割以下であった.\begin{table}[t]\caption{疾患クエリを保有するtweetの主体ラベルの比率}\label{LabeLratio}\input{02table16.txt}\end{table}基本的には主体が認識できれば主体ラベルを認識することができる.ただし,まれに主体が認識できるのに主体ラベルが認識が難しい場合があり,それは「周辺人物ラベル」と「その他人物ラベル」の違いが見抜けない場合などである.例えば「今日学校へ行ったらAさんが風邪だと知った」という発言では,Aさんが風邪であるという事実を直接に見聞きしているので「周辺人物ラベル」を振っている.しかし実際には,Aさんが有名人で,有名人Aさんが風邪であるというニュースを学校で友人から聞いた,などという場合が存在している.また,本実験では3,000件のアノテーションを行ったが,1つの発言に対象の疾患・症状が複数言及されている発言と,同じ疾患・症状を保有する主体が複数存在する発言を除いた結果,表\ref{LabeLratio}の合計に示されるように2,924件となっている.\subsection{実験}\subsubsection{主体ラベル推定器}前節のコーパスを利用して,発言内での「風邪」や「頭痛」などの疾患・症状を保有している主体ラベルを推定する分類器を構築する.今回の実験では,「物体」と「主体なし」のラベルについて事例が少なく,また本論文において主たる推定の対象でないため,「主体なし」に統合した.ツイート中のリツイート,返信,URLは,有無のフラグを残した上で削除した.分類器にはClassias1.1を利用し,L2正則化ロジスティック回帰モデルを学習した.利用した素性を表\ref{Feature}に示す.\subsubsection{推定結果}\label{sec:result}表\ref{PersonF}に,5分割交差検定により主体ラベル推定の精度を測定した結果を示す.訓練事例として,6つの疾患・症状に関するコーパスをマージした3,000事例を用いた.全ての素性を組み合わせた結果,macroF1スコアはベースライン(BoW)と比べて約20ポイント上昇した.これは,提案した素性がうまく作用していることを示唆している.疾患クエリ,リプライの有無,周辺人物辞書が特に強い貢献を示した.\begin{table}[t]\caption{主体ラベル推定器の素性}\label{Feature}\input{02table17.txt}\end{table}\begin{table}[t]\caption{主体ラベル推定の素性と精度}\label{PersonF}\input{02table18.txt}\end{table}表\ref{PersonF}においてmacroF1スコアがmicroF1スコアより低い理由として,主体ラベルの正解比率の問題が挙げられる.表\ref{LabeLratio}より,「一人称」の主体が全体の約7割を占めている.この比率により,分類器のバイアス項の重みは「一人称」に傾き,主体ラベル推定器は「一人称」のラベルを付与しやすくなっている.よって,「一人称」のラベルの再現率が高い一方で,その他のラベルの再現率は低下している.その結果,発言数の少ない「周辺人物」「その他人物」「主体なし」の推定性能が伸び悩み,macroF1スコアが低下している.表\ref{ConfusionMatrix}に予測と正解のConfusionMatrixを示す.対角成分の太字の数値は予測が正解したケースである.(+数字)はベースラインと比べ,予測した事例数が何件変化したかを表す.例えば「周辺人物」の推定は34件成功し,ベースラインからは22件増加している.対角成分である太字の部分を見ると,「一人称」以外においてベースラインから大きく増えていることがわかる.これは作成した素性を利用することで,「一人称」以外の主体ラベルを推定する際の精度が向上していることを示している.「主体なし」ラベルの推定精度が大きく向上した理由として,疾患クエリごとのラベル比の改善がある「一人称」はどの疾患においても多数存在するが,「主体なし」は疾患毎にラベルの存在比率が異なる.例えば,「主体なし」は全体の発言の中で14\%を占めるが,風邪症状コーパスの中では4\%である一方で,寒気には30\%存在する.疾患クエリの素性は,これらの疾患毎の主体ラベルの比率を調整し,推定の精度を向上させている.\begin{table}[b]\caption{主体ラベルの予測と正解のConfusionMatrix}\label{ConfusionMatrix}\input{02table19.txt}\end{table}\begin{table}[b]\caption{主体の有無による予測精度の違い}\label{comparingSubject}\input{02table20.txt}\end{table}表\ref{comparingSubject}に主体の有無による正解比率を示す.「一人称」の予測は,そもそも主体が明示されないことが多いので,主体の有無に影響されていない.しかし「周辺人物」と「その他人物」の予測は,主体が明示されていない場合は精度が悪くなっていることがわかる.一方,「主体なし」は主体が明示されていないほうが正解率が良いという結果になった.これは物体における主体のバラエティが富んでいて,現在のBoWやN-gramなどのシンプルな素性では特徴を捕らえきれていないことが原因としてあげられる.\subsubsection{主体ラベル推定における疾患・症状への依存性}前節の実験では,6つの疾患・症状に関する全ての訓練事例を利用した.では,疾患・症状を保有している主体を推定するタスクは,どのくらい個別の疾患・症状に依存するのか?もし主体ラベルの推定が個別の疾患・症状に依存せず,新しい疾患・症状を対象とした主体ラベルを推定する際に,他の疾患・症状の教師データを利用することができれば,新しくその疾患・症状のための教師ありコーパスを構築するコストを削減することができる.この課題を事前に把握するため,本章では,風邪症状コーパスに含まれる事例のうち疾患クエリとして「風邪」が付与されている事例のみを用いた場合と,風邪症状コーパスに含まれる全ての事例を用いた場合の性能を比較する.以降,簡単のため,風邪症状コーパスの部分集合として,疾患クエリとして「風邪」が付与されている事例の集合を,特に風邪クエリコーパスと呼ぶ.コーパス毎の相違点としては,例えば,「風邪」と「引く」の共起頻度は高い一方で,別の疾患クエリ,例えば「頭痛」の事例においては,「引く」は寄与しない.よって,風邪クエリコーパスにおける主体の推定と頭痛クエリコーパスにおける主体の推定が異なる課題になっている可能性があり,そのため,新しい疾患を考えたときに主体ラベル推定の精度が悪化する可能性がある\begin{figure}[b]\begin{center}\includegraphics{22-5ia2f3.eps}\end{center}\caption{コーパスサイズと推定精度}\label{CorpusFigure}\end{figure}図\ref{CorpusFigure}は風邪クエリの主体ラベルを推定する際に5分割交差検定を行った結果を示している.実線は風邪クエリコーパスのみを用いて学習した場合で,コーパスサイズを100件,200件,300件,400件増やしている.点線は,風邪症状コーパスに含まれる全ての事例を風邪クエリコーパスに足して学習した場合の性能で,風邪クエリコーパスを400件で固定し,風邪以外のコーパスをランダムに625,1,250,1,875,2,500件増やした.風邪クエリの主体ラベルを予測するタスクなので,風邪クエリに関する学習データとの相性がよく,400件の学習データを用いた場合のF1スコアは45.1であった.一方,風邪クエリ以外の症状に関する学習データを追加し,2,900件の訓練事例を用いて風邪の主体ラベルを予測した場合のF1スコアは57.3で,風邪クエリのみの学習データを用いた場合と比較すると12.2ポイント向上した.風邪クエリの主体ラベルを予測するだけであれば,風邪クエリコーパスを増やすことが最も効果的であるが,風邪クエリ以外の疾患・症状の主体に関する訓練事例を増やすことで,特定の疾患・症状だけに依存しない汎用的な主体推定器を構築できる可能性が示唆された.同様の傾向は,他の疾患・症状を予測対象とした場合でも確認された.ただ,疾患・症状を保有する主体の事前分布にばらつきがあるため,疾患・症状の依存性が皆無という訳ではない.例えば,頭痛に関する言及では9割以上の主体が一人称の頭痛のことを表すが,熱に関しては物体の状況(例えばPCの発熱など)を言及するものも多い.したがって,幅広い疾患・症状をカバーしたコーパスを構築し,主体推定器の汎用性を改善していく必要がある.\subsubsection{推定した主体ラベルを利用いて罹患検出を行った結果}本研究の本来の目的である,罹患検出において,本研究で構築した主体ラベル推定器がどのくらい貢献するのか,実験を行った.表\ref{AllF}は本論文で提案した主体ラベル推定器を利用して主体ラベルを推定し,その主体ラベルを素性に追加して疾患・症状の有無を判定した結果である.なお,ベースライン手法は先行研究~\cite{aramaki-maskawa-morita:2011:EMNLP}の設計を参考にしたが,それに加えて,主体ラベル推定器によって推定された主体ラベルを素性として利用した.分類器にはClassias1.1を使用し,L2正則化ロジスティック回帰モデルを学習した.学習事例は6つの疾患・症状においてそれぞれ500件ずつ利用し,5分割交差検定を行った.\begin{table}[b]\caption{疾患・症状判別器の素性とF値}\label{AllF}\input{02table21.txt}\end{table}推定した主体ラベルを素性として利用して罹患検出を行った結果,寒気のF1スコアが5.5ポイント,熱のF1スコアが2ポイント向上し,全体のmacroF1スコアも1.3ポイント向上した.本研究で付与した主体の正解ラベル(ゴールドデータ)を素性として利用した場合とベースラインを比較すると,「風邪・咳・頭痛・鼻水」はF1スコアで2〜4ポイント程度向上し,「寒気・熱」は10ポイント以上向上した.これにより主体を正しく判定することができれば,平均で約6ポイントのF1スコアの向上が見込める.本研究で構築した主体推定器により,特に「寒気・熱」において,ゴールドデータとの差を縮めることができた.寒気の精度が向上した理由のひとつには,「寒気」が「さむけ」ではなく「かんき」として使われる場合や,「悪寒」が「予感」として使われる場合を排除できたことが挙げられる.一方で「頭痛」や「鼻水」においては,ほとんど精度を向上させることができなかった.これは,「頭痛」や「鼻水」が症状の場合に「一人称」が主体として使用される場合が多く,あまり他人の症状に言及していないためだと考えられる.\ref{sec:analysis}章で罹患検出のエラー分析をした結果から,主体解析によりFalsePositiveのうち38.3\%のエラー\footnote{FalsePositiveとFalseNegativeを合わせた全体のエラーのうちでは,およそ26\%を占めている.}を解消することが可能になると述べた.では,実際に主体解析を行った結果として,罹患検出のエラーをどの程度解消できたと言えるだろうか?表\ref{AllF}の一番右のエラー解消率には,ベースラインと比べたときのエラー解消率が示されている.推定した主体を素性として罹患検出を行った場合には,8.4\%のエラーを解消することができた.これより,ベースラインと比べれば精度が改善されている一方で,まだ主体の推定に誤りが含まれることがわかる.一方で,主体の正解ラベルを素性として罹患検出を行ったところ,38.1\%のエラーを解消することができた.これは罹患検出のエラー分析を行った際の主体の違いが原因となったエラー率よりも高く,主体の違いによるエラーが解消できていると考えられる. \section{事実性解析と主体解析} \label{sec:factandsub}\begin{table}[b]\caption{疾患・症状判別器の素性とF値}\label{commonresult}\input{02table22.txt}\end{table}最後に,\ref{sec:factuality}章の疾患があったのかという「事実性解析」と,\ref{sec:subject}章の疾患を所有しているのは誰なのかという「主体解析」を合わせて実験を行った.ベースライン手法は\ref{sec:factuality}章の設計を利用し,それに加えて,主体ラベル推定器によって推定された主体ラベルを素性として利用した.主体ラベルを推定する時には,インフルエンザコーパスからも,発言をランダムに500件抽出して主体の正解ラベルを付与し,それをインフルエンザの主体を学習する際のデータとして扱った.分類器にはClassias1.1を使用し,L2正則化ロジスティック回帰モデルを学習した.学習事例はインフルエンザコーパスと風邪症状コーパスの疾患・症状において,それぞれ500件ずつ利用し,5分割交差検定を行った.実験結果を表\ref{commonresult}に示す.ベースライン\footnote{本章の実験は4章と同一のベースラインの設計をしているため,5章の表20のベースラインとは値が異なっている.}と比べて,ベースラインに事実性解析を追加した結果から,事実性解析はインフルエンザにおいては大幅に上昇しているが,風邪症状コーパスに対しては,あまり変化が見られなかった.この理由としては,主体の問題や比喩的な問題が大きく関係していると考えられる.主体の問題の例としては,事実が確認出来たとしても,発言の返信先の人物が疾患に罹っている場合が挙げられる.比喩的な問題としては,例えば,鼻水の発言「面白すぎて鼻水が出たわ」では,「鼻水」が「出た」事実を解析することができたとしても,それが比喩的な表現であって,疾患は成立していない.これらの問題により,事実性の解析だけではあまり精度の向上が望めなかった.一方,ベースラインに事実性解析と主体解析の両方を組み合わせた結果,主体の問題が多少解決されることにより,ベースラインと比べて全体のmacroF1スコアで3.3ポイント向上した.これにより,事実性解析と主体解析をうまく組み合わせることで,より精度を向上させることができることが確認できた.さらに事実性と主体のゴールドラベルを合わせた結果,全ての疾患・症状において大幅に精度が向上し,全体のmacroF1スコアで9.6ポイント向上した.従って,事実性と主体の情報が疾患・症状判別タスクに有用な情報であるということが分かる. \section{関連研究} \label{sec:relatedworks}自然言語処理の研究は,Twitterを始めとしたソーシャルメディアの解析において2つの主要なタスクに取り組んできたと言える:(1)ひとつは実在する自然言語処理の技術をノイジーなテキストに適応させることで,(2)もうひとつは,そこから知識や統計量を抽出することである.前者としては品詞タグ付けの精度改善~\cite{gimpel-EtAl:2011:ACL-HLT2011}や固有表現認識~\cite{plank-EtAl:2014:Coling}のタスクを始めとして,崩れた単語の正規化などが行われてきた\cite{han-baldwin:2011:ACL-HLT2011,chrupala:2014:P14-2}.\begin{table}[t]\caption{Twitterを用いた関連研究}\label{relwork}\input{02table23.txt}\end{table}後者としては,イベント抽出やユーザ行動分析など様々なアプリケーションが提案されてきた(表\ref{relwork}).なかでも,疾患,特に即時的な把握が必要される感染症の流行検出は,主要なTwitter利用法の1つとして多くの研究がある.感染症の流行は,毎年,百万人を越える患者を出しており,重要な国家的課題となっている\cite{国立感染症研究所2006}.中でも,インフルエンザは事前に適切なワクチンを準備することにより,重篤な状態を避けることが可能なため,感染状態の把握は各国における重要なミッションとなっている\cite{Ferguson2005}.この把握は\textbf{インフルエンザ・サーベイランス}と呼ばれ,膨大なコストをかけて調査・集計が行われてきた.インフルエンザ以外でも,WestNileウィルス検出\cite{sugumaran2012real}など感染症の把握にTwitterなどのソーシャルメディアを利用する試みは多い.本邦においてもインフルエンザが流行したことによって総死亡者数は,毎年1万人を超えており\cite{大日2003},国立感染症研究所を中心にインフルエンザ・サーベイランスが実施されている\footnote{https://hasseidoko.mhlw.go.jp/Hasseidoko/Levelmap/flu/index.html}.しかし,これらの従来型の集計方式は,集計に時間がかかり,また,過疎部における収集が困難だという問題が指摘されてきた\footnote{http://sankei.jp.msn.com/life/news/110112/bdy11011222430044-n1.htm}.このような背景のもと,近年,ソーシャルメディアを用いた感染症サーベイランスが,現行の調査法と比べて大規模かつ,即時的な収集を可能にするとして,数多く提案されている\cite{Lampos2010,culotta2010detecting,Paul2011,aramaki-maskawa-morita:2011:EMNLP,Tanida2011}.しかしながら,実際にTwitterからインフルエンザに関する情報を収集するのは容易ではない.例えば,ニュースや有名人の罹患に関するリツイートなど,多くのノイズが混入する.Aramakiら\cite{aramaki-maskawa-morita:2011:EMNLP}によると,「インフルエンザ」に関するツイートの半数は,本人の罹患に関するものではないと報告されている.これを解決するための1つの方法は,キーワードのセットを適切に選ぶ方法が考えられる.例えば,「インフルエンザ」だけでなく「高熱」や「休む」などのキーワードを加えることで,より確かに罹患者を抽出できると考えられる.そこで,インフルエンザの流行と相関の高いキーワード群を,L1正規化を用いた単語の次元圧縮によって得る方法\cite{Lampos2010},疾患をある種のトピックとみたてトピックモデルを用いる方法\cite{Paul2011}や,素性選択を適応する手法\cite{Tanida2011}などが提案されている.一方で,キーワードを固定して,疾患・症状がポジティブな発言のみを分類するというアプローチもある.高橋ら\cite{Takahashi2011}のBoostingを用いた文書分類,Aramakiら\cite{aramaki-maskawa-morita:2011:EMNLP}がSVMによる分類手法を提案している.本研究も後者をアプローチに属するが,モダリティの解析や,主体の解析いう2つの自然言語処理の問題を導入することで,精度を高めることに成功した.以降,この2つの自然言語処理研究について関連研究をまとめる.\subsection{主体解析の関連研究}本研究で扱った主体解析とは,疾患に関係のある名詞の項を判別する意味解析だと考えることができる.関連する研究としては,PropBank~\cite{PropBank2004}は動詞の意味役割を大規模にアノテートした初めてのコーパスであり,NomBank~\cite{NomBank2004}は,それと似た規則で名詞の項にラベルが付与されている.例えばNomBankでは,``Therehavebeennocustomer\underline{\mbox{complaints}}aboutthatissue.''において,\textsc{arg0}として,``customer''がアノテートされ,\textsc{arg1}として``issue''がアノテートされる.さらに,このアノテーションが扱う範囲を広げる研究もある\cite{Gerber:2010}.日本語においても,京都大学テキストコーパス4.0\footnote{http://nlp.ist.i.kyoto-u.ac.jp/}やNAISTテキストコーパス\cite{iida2010}において,事態性名詞の項が付与されるなど近いアノテーションが試みられている.Komachiら\cite{komachi2007}は,対象となる名詞に事態性があるか否かの事態性判別と,その後の項同定を別タスクとして扱い,解析精度を報告している.また,「娘の風邪」などの名詞句内の関係を解析する研究~\cite{sasano2009}も関連がある.発言内で疾患・症状の主体が省略されていることも多いため,省略・照応解析~\cite{sasano2008}とも関連がある.本研究で扱う課題も,基本的には,ある疾患に関する表現に関する項(\textsc{arg0})の同定を行なうタスクとみなすことができる.しかし,疾患に関する表現,例えば,「寒気」,などは意味としては事態性をもった概念であるが,文法的には,事態性があると認められず,単純な事態性の名詞の項同定として考えることはできない.つまり,意味的な疾患概念が,文法的な事態に対応づけられない場合がある.しかも,今までの事態性名詞の研究は主に新聞を元にしたコーパスで行われており,Twitter上への適応が困難だという技術的問題もある.これらの理由から,我々は疾患を保有する主体の推定を目的とし,主体推定器のためにラベルを付与することを試みた.\subsection{モダリティ解析の関連研究}先行研究\cite{aramaki-maskawa-morita:2011:EMNLP}では,モダリティに関しての事例を集めたコーパスを作成することでモダリティ情報を利用しているが,本研究では,既存のリソースやツールを活用することで,コーパス作成の手間を省き,一般的なモダリティ解析が疾患のモダリティ解析にも貢献することを示した.日本語モダリティに関するリソースとしては,文献\cite{matsuyoshi2010}が態度表明,時制,仮想,態度,真偽判断,価値判断,焦点などについて詳細に事象アノテーションを行っている.焦点を除いた6種の項目を拡張モダリティと呼び,情報抽出や含意認識といった自然言語処理のタスクへの応用に向けて研究が行われている.本研究は,意味IDとして,これを素性化したが,モダリティ間の類似関係など,さらに緻密な素性化が可能であり,今後の課題としたい.また,このような研究は日本語だけでなく英語に関しても活発であり,文献\cite{sauri2012you}がモダリティを用いて,事実性の度合いを判断する研究を行っている.また,特にモダリティの一部である否定(Negation)や推量(Speculation)については,情報抽出の実用化のために重要であり,専門のワークショップ[NeSp-NLP2010]が開催されるなど盛んに研究されてきている.本研究にこれらの知見を導入することで,さらなる精度向上が期待される. \section{おわりに} \label{sec:conclusion}本論文では,Web応用タスク(WebNLP)を立ち上げ,実用性を強く意識しつつ,次のゴールの達成に向けて研究・議論を行った.その中で,NLPによるソーシャルリスニングを実用化した事例の1つである,ツイートからインフルエンザや風邪などの疾患・症状を認識する罹患検出のタスクに取り組んだ.まず,ソーシャルメディア上のテキストを分析する際の現状の自然言語処理技術が抱えている問題を認識し,課題を整理した.分析結果から,事実性の解析,状態を保有する主体の判定が重要かつ一般的な課題として切り出せると判断した.これらの課題を陽に扱った手法により実験した結果,両問題がそれぞれ罹患検出に貢献することを明らかにした.\ref{sec:factuality}章では,事実性解析の本タスクへの貢献を実験的に調査し,その分析から事実性解析の課題を議論した.具体的には,インフルエンザの流行検出のため,モダリティの素性を組み込む手法を提案し,これが「インフルエンザに感染している」という特定の事実の検出を目標とする事実性解析に貢献することを示した.\ref{sec:subject}章では,複数の疾患・症状に関して,その疾患・症状を保有する主体を推定する取り組みを紹介した.構築したコーパスを訓練事例とした主体推定器を作成し,主体の推定がmicroF1スコアで84ポイント程度の性能で行えること,異なる疾患・症状に対して横断的な主体の推定が可能であることを報告した.さらに推定した主体が疾患・症状を判定する上でどの程度貢献するのか実証し,主体を正しく推定できれば罹患検出を行う際にどの程度までエラーを減らすことができるかを示した.さらに\ref{sec:factandsub}章では,事実性解析と主体解析を組み合わせた実験を行い,その精度を確認した.ソーシャルメディア上の発言から個人の状態を分析することは,疾患の流行検出のみならず,個人の健康状態をモニタリングするなどの重要な応用が多く存在する.今後は,さらに多くのソーシャルメディア上のテキストでも検証を進め,両解析技術が発展し,より深くWebテキストを扱うことが期待される.\acknowledgment本研究は,ProjectNextNLP「Web応用タスク」による.本研究は首都大学東京傾斜的研究費(全学分)学長裁量枠戦略的研究プロジェクト戦略的研究支援枠「ソーシャルビッグデータの分析・応用のための学術基盤の研究」,JSTさきがけから部分的な支援を受けた.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{荒牧\JBA森田\JBA篠原(山田)\JBA岡}{荒牧\Jetal}{2011}]{荒牧2011}荒牧英治\JBA森田瑞樹\JBA篠原(山田)恵美子\JBA岡瑞起\BBOP2011\BBCP.\newblockウェブからの疾病情報の大規模かつ即時的な抽出手法.\\newblock\Jem{言語処理学会第17回年次大会},\mbox{\BPGS\838--841}.\bibitem[\protect\BCAY{Aramaki,Maskawa,\BBA\Morita}{Aramakiet~al.}{2011}]{aramaki-maskawa-morita:2011:EMNLP}Aramaki,E.,Maskawa,S.,\BBA\Morita,M.\BBOP2011\BBCP.\newblock\BBOQTwitterCatchesTheFlu:DetectingInfluenzaEpidemicsusingTwitter.\BBCQ\\newblockIn{\BemProceedingsofthe2011ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1568--1576}.\bibitem[\protect\BCAY{Bergsma,Dredze,Van~Durme,Wilson,\BBA\Yarowsky}{Bergsmaet~al.}{2013}]{bergsma-EtAl:2013:NAACL-HLT}Bergsma,S.,Dredze,M.,Van~Durme,B.,Wilson,T.,\BBA\Yarowsky,D.\BBOP2013\BBCP.\newblock\BBOQBroadlyImprovingUserClassificationviaCommunication-BasedNameandLocationClusteringonTwitter.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\1010--1019}.\bibitem[\protect\BCAY{Chrupa{\l}a}{Chrupa{\l}a}{2014}]{chrupala:2014:P14-2}Chrupa{\l}a,G.\BBOP2014\BBCP.\newblock\BBOQNormalizingTweetswithEditScriptsandRecurrentNeuralEmbeddings.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\680--686}.\bibitem[\protect\BCAY{Culotta}{Culotta}{2010a}]{culotta2010detecting}Culotta,A.\BBOP2010a\BBCP.\newblock\BBOQDetectingInfluenzaOutbreaksbyAnalyzingTwitterMessages.\BBCQ\\newblock{\BemarXivpreprintarXiv:1007.4748}.\bibitem[\protect\BCAY{Culotta}{Culotta}{2010b}]{Culotta:2010}Culotta,A.\BBOP2010b\BBCP.\newblock\BBOQTowardsDetectingInfluenzaEpidemicsbyAnalyzingTwitterMessages.\BBCQ\\newblockIn{\BemProceedingsofthe1stWorkshoponSocialMediaAnalytics(SOMA)},\mbox{\BPGS\115--122}.\bibitem[\protect\BCAY{Ferguson,Cummings,Cauchemez,Fraser,Riley,Meeyai,Iamsirithaworn,\BBA\Burke}{Fergusonet~al.}{2005}]{Ferguson2005}Ferguson,N.~M.,Cummings,D.A.~T.,Cauchemez,S.,Fraser,C.,Riley,S.,Meeyai,A.,Iamsirithaworn,S.,\BBA\Burke,D.~S.\BBOP2005\BBCP.\newblock\BBOQStrategiesforContaininganEmergingInfluenzaPandemicinSoutheastAsia.\BBCQ\\newblock{\BemNature},{\Bbf437}(7056),\mbox{\BPGS\209--214}.\bibitem[\protect\BCAY{Gerber\BBA\Chai}{Gerber\BBA\Chai}{2010}]{Gerber:2010}Gerber,M.\BBACOMMA\\BBA\Chai,J.~Y.\BBOP2010\BBCP.\newblock\BBOQBeyondNomBank:AStudyofImplicitArgumentsforNominalPredicates.\BBCQ\\newblockIn{\BemProceedingsofthe48thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1583--1592}.\bibitem[\protect\BCAY{Gimpel,Schneider,O'Connor,Das,Mills,Eisenstein,Heilman,Yogatama,Flanigan,\BBA\Smith}{Gimpelet~al.}{2011}]{gimpel-EtAl:2011:ACL-HLT2011}Gimpel,K.,Schneider,N.,O'Connor,B.,Das,D.,Mills,D.,Eisenstein,J.,Heilman,M.,Yogatama,D.,Flanigan,J.,\BBA\Smith,N.~A.\BBOP2011\BBCP.\newblock\BBOQPart-of-SpeechTaggingforTwitter:Annotation,Features,andExperiments.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\42--47}.\bibitem[\protect\BCAY{Han\BBA\Baldwin}{Han\BBA\Baldwin}{2011}]{han-baldwin:2011:ACL-HLT2011}Han,B.\BBACOMMA\\BBA\Baldwin,T.\BBOP2011\BBCP.\newblock\BBOQLexicalNormalisationofShortTextMessages:MaknSensa\#twitter.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\368--378}.\bibitem[\protect\BCAY{Han,Cook,\BBA\Baldwin}{Hanet~al.}{2013}]{han-cook-baldwin:2013:SystemDemo}Han,B.,Cook,P.,\BBA\Baldwin,T.\BBOP2013\BBCP.\newblock\BBOQAStacking-basedApproachtoTwitterUserGeolocationPrediction.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics:SystemDemonstrations},\mbox{\BPGS\7--12}.\bibitem[\protect\BCAY{Iida,Komachi,Inui,\BBA\Matsumoto}{Iidaet~al.}{2007}]{iida2010}Iida,R.,Komachi,M.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQAnnotatingaJapaneseTextCorpuswithPredicate-ArgumentandCoreferenceRelations.\BBCQ\\newblockIn{\BemProceedingsoftheLinguisticAnnotationWorkshop},\mbox{\BPGS\132--139}.\bibitem[\protect\BCAY{鍛治\JBA福島\JBA喜連川}{鍛治\Jetal}{2009}]{Kaji:2009}鍛治伸裕\JBA福島健一\JBA喜連川優\BBOP2009\BBCP.\newblock大規模ウェブテキストからの片仮名用言の自動獲得.\\newblock\Jem{電子情報通信学会論文誌(D情報・システム)},{\BbfJ92-D}(3),\mbox{\BPGS\293--300}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2005}]{Kawahara:05}河原大輔\JBA黒橋禎夫\BBOP2005\BBCP.\newblock格フレーム辞書の漸次的自動構築.\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\109--131}.\bibitem[\protect\BCAY{Kazama\BBA\Torisawa}{Kazama\BBA\Torisawa}{2007}]{Kazama:07}Kazama,J.\BBACOMMA\\BBA\Torisawa,K.\BBOP2007\BBCP.\newblock\BBOQExploitingWikipediaasExternalKnowledgeforNamedEntityRecognition.\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning(EMNLP-CoNLL2007)},\mbox{\BPGS\698--707}.\bibitem[\protect\BCAY{国立感染症研究所}{国立感染症研究所}{2006}]{国立感染症研究所2006}国立感染症研究所\BBOP2006\BBCP.\newblock\Jem{インフルエンザ・パンデミックに関するQ&A(2006.12改訂版)}.\newblock国立感染症研究所感染症情報センター.\bibitem[\protect\BCAY{小町\JBA飯田\JBA乾\JBA松本}{小町\Jetal}{2010}]{Komachi:10}小町守\JBA飯田龍\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblock名詞句の語彙統語パターンを用いた事態性名詞の項構造解析.\\newblock\Jem{自然言語処理},{\Bbf17}(1),\mbox{\BPGS\141--159}.\bibitem[\protect\BCAY{Komachi,Iida,Inui,\BBA\Matsumoto}{Komachiet~al.}{2007}]{komachi2007}Komachi,M.,Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQLearningBasedArgumentStructureAnalysisofEvent-nounsinJapanese.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceofthePacificAssociationforComputationalLinguistics(PACLING)},\mbox{\BPGS\120--128}.\bibitem[\protect\BCAY{Lamb,Paul,\BBA\Dredze}{Lambet~al.}{2013}]{lamb-paul-dredze:2013:NAACL-HLT}Lamb,A.,Paul,M.~J.,\BBA\Dredze,M.\BBOP2013\BBCP.\newblock\BBOQSeparatingFactfromFear:TrackingFluInfectionsonTwitter.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\789--795}.\bibitem[\protect\BCAY{Lampos\BBA\Cristianini}{Lampos\BBA\Cristianini}{2010}]{Lampos2010}Lampos,V.\BBACOMMA\\BBA\Cristianini,N.\BBOP2010\BBCP.\newblock\BBOQTrackingtheflupandemicbymonitoringtheSocialWeb.\BBCQ\\newblockIn{\Bem2ndIAPRWorkshoponCognitiveInformationProcessing(CIP2010)},\mbox{\BPGS\411--416}.\bibitem[\protect\BCAY{Li,Ritter,Cardie,\BBA\Hovy}{Liet~al.}{2014a}]{li-EtAl:2014:EMNLP20143}Li,J.,Ritter,A.,Cardie,C.,\BBA\Hovy,E.\BBOP2014a\BBCP.\newblock\BBOQMajorLifeEventExtractionfromTwitterbasedonCongratulations/CondolencesSpeechActs.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1997--2007}.\bibitem[\protect\BCAY{Li,Ritter,\BBA\Hovy}{Liet~al.}{2014b}]{li-ritter-hovy:2014:P14-1}Li,J.,Ritter,A.,\BBA\Hovy,E.\BBOP2014b\BBCP.\newblock\BBOQWeaklySupervisedUserProfileExtractionfromTwitter.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\165--174}.\bibitem[\protect\BCAY{Marchetti-Bowick\BBA\Chambers}{Marchetti-Bowick\BBA\Chambers}{2012}]{marchettibowick-chambers:2012:EACL2012}Marchetti-Bowick,M.\BBACOMMA\\BBA\Chambers,N.\BBOP2012\BBCP.\newblock\BBOQLearningforMicroblogswithDistantSupervision:PoliticalForecastingwithTwitter.\BBCQ\\newblockIn{\BemProceedingsofthe13thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\603--612}.\bibitem[\protect\BCAY{Matsuyoshi,Eguchi,Sao,Murakami,Inui,\BBA\Matsumoto}{Matsuyoshiet~al.}{2010}]{matsuyoshi2010annotating}Matsuyoshi,S.,Eguchi,M.,Sao,C.,Murakami,K.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2010\BBCP.\newblock\BBOQAnnotatingEventMentionsinTextwithModality,Focus,andSourceInformation.\BBCQ\\newblockIn{\BemProceedingsofthe7thconferenceonInternationalLanguageResourcesandEvaluation(LREC'10)},\mbox{\BPGS\1456--1463}.\bibitem[\protect\BCAY{松吉\JBA江口\JBA佐尾\JBA村上\JBA乾\JBA松本}{松吉\Jetal}{2010}]{matsuyoshi2010}松吉俊\JBA江口萌\JBA佐尾ちとせ\JBA村上浩司\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblockテキスト情報分析のための判断情報アノテーション.\\newblock\Jem{電子情報通信学会論文誌D},{\Bbf93}(6),\mbox{\BPGS\705--713}.\bibitem[\protect\BCAY{松吉\JBA佐藤\JBA宇津呂}{松吉\Jetal}{2007}]{matsuyoshi2007}松吉俊\JBA佐藤理史\JBA宇津呂武仁\BBOP2007\BBCP.\newblock日本語機能表現辞書の編纂.\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\123--146}.\bibitem[\protect\BCAY{Meyers,Reeves,Macleod,Szekely,Zielinska,Young,\BBA\Grishman}{Meyerset~al.}{2004}]{NomBank2004}Meyers,A.,Reeves,R.,Macleod,C.,Szekely,R.,Zielinska,V.,Young,B.,\BBA\Grishman,R.\BBOP2004\BBCP.\newblock\BBOQTheNomBankProject:AnInterimReport.\BBCQ\\newblockIn{\BemProceedingsoftheNAACL/HLTWorkshoponFrontiersinCorpusAnnotation},\mbox{\BPGS\24--31}.\bibitem[\protect\BCAY{Munteanu\BBA\Marcu}{Munteanu\BBA\Marcu}{2005}]{Munteanu:06}Munteanu,D.~S.\BBACOMMA\\BBA\Marcu,D.\BBOP2005\BBCP.\newblock\BBOQImprovingMachineTranslationPerformancebyExploitingNon-ParallelCorpora.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf31}(4),\mbox{\BPGS\477--504}.\bibitem[\protect\BCAY{Narita,Mizuno,\BBA\Inui}{Naritaet~al.}{2013}]{narita2013lexicon}Narita,K.,Mizuno,J.,\BBA\Inui,K.\BBOP2013\BBCP.\newblock\BBOQALexicon-basedInvestigationofResearchIssuesinJapaneseFactualityAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\587--595}.\bibitem[\protect\BCAY{O'Connor,Balasubramanyan,Routledge,\BBA\Smith}{O'Connoret~al.}{2010}]{OConnor:2010}O'Connor,B.,Balasubramanyan,R.,Routledge,B.~R.,\BBA\Smith,N.~A.\BBOP2010\BBCP.\newblock\BBOQFromTweetstoPolls:LinkingTextSentimenttoPublicOpinionTimeSeries.\BBCQ\\newblockIn{\BemProceedingsofthe4thInternationalAAAIConferenceonWeblogsandSocialMedia(ICWSM)},\mbox{\BPGS\122--129}.\bibitem[\protect\BCAY{大日\JBA重松\JBA谷口\JBA岡部}{大日\Jetal}{2003}]{大日2003}大日康史\JBA重松美加\JBA谷口清州\JBA岡部信彦\BBOP2003\BBCP.\newblockインフルエンザ超過死亡「感染研モデル」2002/03シーズン報告.\\newblock{\BemInfectiousAgentsSurveillanceReport},{\Bbf24}(11),\mbox{\BPGS\288--289}.\bibitem[\protect\BCAY{Palmer,Gildea,\BBA\Kingsbury}{Palmeret~al.}{2005}]{PropBank2004}Palmer,M.,Gildea,D.,\BBA\Kingsbury,P.\BBOP2005\BBCP.\newblock\BBOQThePropositionBank:AnAnnotatedCorpusofSemanticRoles.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf31}(1),\mbox{\BPGS\71--106}.\bibitem[\protect\BCAY{Pang,Lee,\BBA\Vaithyanathan}{Panget~al.}{2002}]{Pang:2002}Pang,B.,Lee,L.,\BBA\Vaithyanathan,S.\BBOP2002\BBCP.\newblock\BBOQThumbsUp?:SentimentClassificationUsingMachineLearningTechniques.\BBCQ\\newblockIn{\BemProceedingsoftheACL-02ConferenceonEmpiricalMethodsinNaturalLanguageProcessing-Volume10},\mbox{\BPGS\79--86}.\bibitem[\protect\BCAY{Paul\BBA\Dredze}{Paul\BBA\Dredze}{2011}]{Paul2011}Paul,M.~J.\BBACOMMA\\BBA\Dredze,M.\BBOP2011\BBCP.\newblock\BBOQYouAreWhatYouTweet:AnalysingTwitterforPublicHealth.\BBCQ\\newblockIn{\BemProcessingofthe5thInternationalAAAIConferenceonWeblogsandSocialMedia(ICWSM)}.\bibitem[\protect\BCAY{Plank,Hovy,McDonald,\BBA\S{\o}gaard}{Planket~al.}{2014}]{plank-EtAl:2014:Coling}Plank,B.,Hovy,D.,McDonald,R.,\BBA\S{\o}gaard,A.\BBOP2014\BBCP.\newblock\BBOQAdaptingTaggerstoTwitterwithNot-so-distantSupervision.\BBCQ\\newblockIn{\BemProceedingsofCOLING2014,the25thInternationalConferenceonComputationalLinguistics:TechnicalPapers},\mbox{\BPGS\1783--1792}.\bibitem[\protect\BCAY{Sakaki,Okazaki,\BBA\Matsuo}{Sakakiet~al.}{2010}]{Sakaki:10}Sakaki,T.,Okazaki,M.,\BBA\Matsuo,Y.\BBOP2010\BBCP.\newblock\BBOQEarthquakeShakesTwitterUsers:Real-timeEventDetectionbySocialSensors.\BBCQ\\newblockIn{\BemProceedingsofthe19thinternationalconferenceonWorldWideWeb(WWW)},\mbox{\BPGS\851--860}.\bibitem[\protect\BCAY{Sasano,Kawahara,\BBA\Kurohashi}{Sasanoet~al.}{2008}]{sasano2008}Sasano,R.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQAFully-LexicalizedProbabilisticModelforJapaneseZeroAnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsofthe22ndInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\769--776}.\bibitem[\protect\BCAY{Sasano,Kawahara,\BBA\Kurohashi}{Sasanoet~al.}{2010}]{Sasano:10}Sasano,R.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2010\BBCP.\newblock\BBOQTheEffectofCorpusSizeonCaseFrameAcquisitionforPredicate-ArgumentStructureAnalysis.\BBCQ\\newblock{\BemIEICETRANSACTIONSonInformationandSystems},{\BbfE93-D}(6),\mbox{\BPGS\1361--1368}.\bibitem[\protect\BCAY{Sasano\BBA\Kurohashi}{Sasano\BBA\Kurohashi}{2009}]{sasano2009}Sasano,R.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2009\BBCP.\newblock\BBOQAProbabilisticModelforAssociativeAnaphoraResolution.\BBCQ\\newblockIn{\BemConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\lowercase{\BVOL}~3,\mbox{\BPGS\1455--1464}.\bibitem[\protect\BCAY{Sato}{Sato}{2015}]{sato2015mecabipadicneologd}Sato,T.\BBOP2015\BBCP.\newblock\BBOQNeologismDictionaryBasedontheLanguageResourcesontheWebforMecab.\BBCQ\{\ttfamilyhttps://github.com/neologd/mecab-unidic-neologd}.\bibitem[\protect\BCAY{Saur{\'\i}\BBA\Pustejovsky}{Saur{\'\i}\BBA\Pustejovsky}{2012}]{sauri2012you}Saur{\'\i},R.\BBACOMMA\\BBA\Pustejovsky,J.\BBOP2012\BBCP.\newblock\BBOQAreYouSureThatThisHappened?AssessingtheFactualityDegreeofEventsinText.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf38}(2),\mbox{\BPGS\261--299}.\bibitem[\protect\BCAY{Shen,Liu,Weng,\BBA\Li}{Shenet~al.}{2013}]{shen-EtAl:2013:NAACL-HLT}Shen,C.,Liu,F.,Weng,F.,\BBA\Li,T.\BBOP2013\BBCP.\newblock\BBOQAParticipant-basedApproachforEventSummarizationUsingTwitterStreams.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\1152--1162}.\bibitem[\protect\BCAY{Sugumaran\BBA\Voss}{Sugumaran\BBA\Voss}{2012}]{sugumaran2012real}Sugumaran,R.\BBACOMMA\\BBA\Voss,J.\BBOP2012\BBCP.\newblock\BBOQReal-timeSpatio-temporalAnalysisofWestNileVirusUsingTwitterData.\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonComputingforGeospatialResearchandApplications},\mbox{\BPG~39}.ACM.\bibitem[\protect\BCAY{高橋\JBA野田}{高橋\JBA野田}{2011}]{Takahashi2011}高橋哲朗\JBA野田雄也\BBOP2011\BBCP.\newblock実世界のセンサーとしてのTwitterの可能性.\\newblock\Jem{電子情報通信学会情報・システムソサイエティ言語理解とコミュニケーション研究会},\mbox{\BPGS\43--48}.\bibitem[\protect\BCAY{谷田\JBA荒牧\JBA佐藤\JBA吉田\JBA中川}{谷田\Jetal}{2011}]{Tanida2011}谷田和章\JBA荒牧英治\JBA佐藤一誠\JBA吉田稔\JBA中川裕志\BBOP2011\BBCP.\newblockTwitterによる風邪流行の推測.\\newblock\Jem{マイニングツールの統合と活用\&情報編纂研究会},\mbox{\BPGS\42--47}.\bibitem[\protect\BCAY{Thelwall,Buckley,\BBA\Paltoglou}{Thelwallet~al.}{2011}]{Thelwall:2011}Thelwall,M.,Buckley,K.,\BBA\Paltoglou,G.\BBOP2011\BBCP.\newblock\BBOQSentimentinTwitterEvents.\BBCQ\\newblock{\BemJournaloftheAmericanSocietyforInformationScienceandTechnology},{\Bbf62}(2),\mbox{\BPGS\406--418}.\bibitem[\protect\BCAY{Varga,Sano,Torisawa,Hashimoto,Ohtake,Kawai,Oh,\BBA\De~Saeger}{Vargaet~al.}{2013}]{varga-EtAl:2013:ACL2013}Varga,I.,Sano,M.,Torisawa,K.,Hashimoto,C.,Ohtake,K.,Kawai,T.,Oh,J.-H.,\BBA\De~Saeger,S.\BBOP2013\BBCP.\newblock\BBOQAidisOutThere:LookingforHelpfromTweetsduringaLargeScaleDisaster.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1619--1629}.\bibitem[\protect\BCAY{Williams\BBA\Katz}{Williams\BBA\Katz}{2012}]{williams-katz:2012:ACL2012short}Williams,J.\BBACOMMA\\BBA\Katz,G.\BBOP2012\BBCP.\newblock\BBOQExtractingandModelingDurationsforHabitsandEventsfromTwitter.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\223--227}.\bibitem[\protect\BCAY{Zhou,Chen,\BBA\He}{Zhouet~al.}{2014}]{zhou-chen-he:2014:P14-2}Zhou,D.,Chen,L.,\BBA\He,Y.\BBOP2014\BBCP.\newblock\BBOQASimpleBayesianModellingApproachtoEventExtractionfromTwitter.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(Volume2:ShortPapers)},\mbox{\BPGS\700--705}.\end{thebibliography}\begin{biography}\bioauthor{叶内晨}{2011年東京都立国立高等学校卒業.2015年首都大学東京システムデザイン学部システムデザイン学科情報通信システムコース卒業.同年,同大学院博士前期課程に進学.}\bioauthor{北川善彬}{2010年私立明法高等学校卒業.2015年首都大学東京システムデザイン学部システムデザイン学科情報通信システムコース卒業.同年,同大学院博士前期課程に進学.}\bioauthor{荒牧英治}{2000年京都大学総合人間学部卒業.2005年東京大学大学院情報理工系研究科博士課程修了.博士(情報理工学).以降,東京大学医学部附属病院特任助教を経て,奈良先端科学技術大学院大学特任准教授.医療情報学,自然言語処理の研究に従事.}\bioauthor{岡崎直観}{2007年東京大学大学院情報理工学研究科博士課程終了.2005年英国テキストマイニングセンター・リサーチフェロー,2007年東京大学大学院情報理工学系研究科・特別研究員を経て,2011年より東北大学大学院情報科学研究科准教授.専門は,自然言語処理,テキストマイニング,機械学習.}\bioauthor{小町守}{2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒業.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2008年より日本学術振興会特別研究員(DC2)を経て,2010年博士後期課程修了.博士(工学).同年より同研究科助教を経て,2013年より首都大学東京システムデザイン学部准教授.大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある.情報処理学会,人工知能学会,言語処理学会,電子情報通信学会,ACL各会員.}\end{biography}\biodate\end{document}
V12N04-03
\section{はじめに} 本論文では,構造化された言語資料の検索・閲覧を指向した全文検索システムである『ひまわり』の設計,および,その実現方法を示す。ここで言う「構造化された言語資料」とは,コーパスや辞書のように,言語に関する調査,研究などに利用することを目的として,一定の構造で記述された資料一般を指す。近年,さまざまな言語資料を計算機で利用できるようになってきた。例えば,新聞,雑誌,文学作品などのテキストデータベース(例:『毎日新聞テキストデータベース』\shortcite{mainichi})やコーパス(例:『京都大学テキストコーパス』\shortcite{kyodai_corpus},『太陽コーパス』\shortcite{tanaka2001}),シソーラスなどの辞書的なデータ(例:『分類語彙表』\shortcite{bunrui})がある。また,音声情報や画像情報などのテキスト以外の情報をも含有するコーパス(例:『日本語話し言葉コーパス』\shortcite{maekawa2004}など)も現れている。言語資料には,書名や著者名などの書誌情報や,形態素情報,構文情報といった言語学的な情報が付与されており,言語に関する調査,研究における有力な基礎資料としての役割が期待されている。このような言語資料に対して検索を行うには,二つの「多様性」に対応する必要があると考える。一つは,構造化形式の多様性である。構造化された言語資料は,一般的に固有の形式を持つことが多い。したがって,検索システムは,検索の高速性を維持しつつ,多様な形式を解釈し,言語資料に付与されている書誌情報や,形態素情報や構文情報などの言語学的情報を抽出したり,検索条件として利用したりできる必要がある。もう一つの多様性は,利用目的の多様性である。ここで言う「利用目的の多様性」とは,検索対象の言語資料の種類や利用目的の違いにより,資料に適した検索条件や閲覧形式,さらには検索時に抽出する情報が異なってくることを指す。例えば,辞書を検索する場合は,見出し語や代表表記に対して検索を行い,単一の語の単位で情報を閲覧するのが一般的である。一方,新聞記事の場合は,記事本文やタイトルに含まれる文字列をキーとして,発行年などを制約条件としつつ検索し,前後文脈や記事全体を閲覧するのが一般的であろう。このように,言語資料を対象とした検索システムは,言語資料の性質と利用目的にあった検索式や閲覧形式を柔軟に定義できる必要がある。以上のような背景のもと,構造化された言語資料に対する全文検索システム『ひまわり』の設計と実現を行う。構造化形式の多様性に対しては,現在,広範に利用されているマークアップ言語であるXMLで記述された言語資料を検索対象と想定し,XML文書に対する全文検索機能を実現する。この際,検索対象とすることのできるXML文書の形式は,XML文書全体の構造で規定するのではなく,検索対象の文字列とそれに対して付与されている情報との文書構造上の関係により規定する。また,検索の高速化を図るため,SuffixArray方式など,いくつかの索引を利用する。次に,利用目的の多様性に関しては,検索式と閲覧方式を柔軟に設定できるよう設計する。まず,検索式を柔軟に設定するために,言語資料の検索にとって必要な要素を,検索対象の文字列とそれに対して付与されている情報との構造上の関係に基づいて選定する。一方,閲覧形式については,KWIC表示機能を備えた表形式での閲覧を基本とする。それに付け加えて,フォントサイズやフォント種,文字色などの表示スタイルの変更や音声,画像の閲覧に対応するために,外部の閲覧システムへデータを受け渡す方法を用いる。本論文の構成は,次のようになっている。まず,2節では,『ひまわり』を設計する上で前提となる条件を述べる。3節では,システムの全体的な構造と各部の説明を行う。4節では,言語資料の構造に対する検討を元にした検索方式について詳説する。5節では,『分類語彙表』と『日本語話し言葉コーパス』に本システムを適用し,言語資料と利用目的の多様性に対応できるか定性的に検証するとともに,検索速度の面から定量的な評価も行う。6節で関連研究と本研究とを比較することにより,本研究の位置づけと有用性を確認し,最後に,7節でまとめを行う。 \section{前提条件} \label{sec:前提条件}前節で述べたように,言語資料の構造上の多様性と,利用目的の多様性に対応したシステムを構築するという目的があるが,この目的に先立って,次の四つの前提条件を設けた。\paragraph{対象とする利用者}本システムは,構造化された言語資料に関する知識を持たない利用者(エンドユーザ)を想定して設計する。この際問題となるのは,構造化された言語資料を検索,閲覧するには,まず,言語資料に付与されている情報の意味や,構造化の方法を理解しなければならないということである。この問題を解決するために,本システムでは,エンドユーザでも使用できるよう,検索対象の構造化テキストに適した検索式や閲覧形式をあらかじめ設定しておき,簡便な操作で検索できるようにする。実際に設定するのは,本システムを同梱して言語資料を配布する目的を持った利用者(言語資料の作成者)とする。これによりエンドユーザが直接利用できる検索式や閲覧は限定されるが,本システムでは,エンドユーザが容易に言語資料を使用できる,ということを優先して考える。\paragraph{利用形態}本システムは,検索と閲覧を主体とした利用形態を想定する。別の言葉で言えば,言語資料を閲覧して,その場で,試行錯誤を伴う分析を行う利用形態である。言語研究における利用例としては,分析対象の語が,どの年代に多く出現するか,また,用法,出現する文脈はどのようなものかを把握するために,さまざまな条件で検索,閲覧を繰り返し,分析に生かすという利用形態が挙げられる。ただし,統計的な分析など,検索結果に対してさらなる分析を行う場合も考えられる。そのための手段として,検索結果を外部のソフトウェアへ受け渡す仕組みも用意する。\paragraph{任意の文字列に対する高速な全文検索}言語資料を検索するということから,任意の文字列に対する全文検索は必須の条件とする。また,すでに述べたように,本システムでは検索と閲覧を繰り返す利用形態を想定している。そこで,利用者の思考を妨げないために,検索の高速性も重視する。\paragraph{動作環境}本システムの動作環境としては,広範な計算機環境で,かつ,単独の計算機上で動作するものとする。「単独の計算機上」とは,検索用のサーバを用意することなく,利用者が使っている計算機上で検索できることを意味する。このような動作環境を前提とした理由は,作成した言語資料を配布する際に,本システムを同梱することを考えたからである。 \section{システムの概要} \subsection{構造}『ひまわり』のシステム構造を図\ref{fig:システム構成}に示す。図\ref{fig:システム構成}の上部が言語資料に関連するファイル群で,下部が『ひまわり』本体(ただし,点線の四角は外部システム)である。実線の矢印はデータの流れを,点線の矢印はデータの参照を表す。『ひまわり』はJava言語で記述され\label{page:regex},WindowsXP,Windows2000,Windows98,DebianGNU/Linux3.0上で動作することが確認されている。\begin{figure}[hbt]\begin{center}\epsfxsize=12.5cm\epsfbox{system.eps}\caption{システム構成}\label{fig:システム構成}\end{center}\end{figure}『ひまわり』は,大きくわけて,次の三つの部分からなる。\begin{itemize}\item検索条件入力用インターフェイス\item検索エンジン\item検索結果閲覧部\end{itemize}大まかな処理の流れとしては,まず,「検索条件入力用インターフェイス」により利用者が検索条件を指定し,その条件を元に「検索エンジン」が言語資料ファイルを検索する。そして,検索結果を「検索結果閲覧部」で表示する。『ひまわり』により,『太陽コーパス』\footnote{『太陽コーパス』は,総合雑誌『太陽』(1895〜1925年,博文館刊)を8年きざみで全文を収録したコーパスで,規模は約1500万字,記述形式はXMLである。『ひまわり』は,もともと『太陽コーパス』のXML文書を全文検索する目的で開発された。詳しくは,\shortcite{tanaka2001,yamaguchi2002}を参照されたし。}から文字列「研究」を検索した結果を図\ref{fig:『太陽コーパス』への適用例}に示す。このあとの節では,言語資料について説明した後,システム各部の機能を図\ref{fig:システム構成},\ref{fig:『太陽コーパス』への適用例}と対応づけて説明していくことにする。\begin{figure}[hbt]\begin{center}\vspace{0.5em}\epsfxsize=13.5cm\epsfbox{himawari_taiyo.eps}\caption{『太陽コーパス』への適用例}\label{fig:『太陽コーパス』への適用例}\end{center}\end{figure}\subsection{言語資料}図\ref{fig:システム構成}の上部に示したとおり,『ひまわり』は複数の言語資料ファイルを一つの言語資料集合として扱う。個々の言語資料には,検索を高速化するための索引ファイルが付与されている。言語資料ファイルの文字コードは,UTF-16である\footnote{Java言語では,言語仕様上,文字コードをUnicodeに変換した上で処理する。したがって,どのOSにおいても同一の実行プログラムコード,および,コーパスを利用することができる。}。1回の検索処理で検索対象となるのは,一つの言語資料集合であり,複数の言語資料をまとめて検索することができる。検索対象とする言語資料集合は,検索前に利用者が指定する。それぞれの言語資料集合は,「設定ファイル」を持つ。設定ファイルには,言語資料集合を構成する言語資料ファイルやその索引ファイルに関する記述のほか,(利用者が利用可能な)検索条件,検索結果として抽出する情報,閲覧時の表示スタイルの指定など,『ひまわり』を言語資料に適合させるための設定が定義されている。設定ファイルは,基本的に言語資料の作成者が定義することを想定している。\subsection{検索条件入力用インターフェイス}「検索条件入力用インターフェイス」は,利用者が指定した検索条件を「検索エンジン」に渡す役割を果たす。検索条件は,全文検索の対象とする文字列と検索結果の制約条件からなる。これらは,図\ref{fig:『太陽コーパス』への適用例}(上部)のGUIを使って入力することができる。全文検索対象の文字列については,XML文書中のどの要素の文字列を検索するかをメニュー形式で指定することができる(図\ref{fig:『太陽コーパス』への適用例}では,検索対象の文字列は,「本文」となっている)。制約条件は,図\ref{fig:『太陽コーパス』への適用例}で表示されている,「年」,「号」,「題名」など検索された文字列に付随する情報に対する制約条件であり,検索結果を絞り込むために利用する。このように,検索条件の指定は言語資料自身に対する知識を必要としない方法を用いている。これは,\ref{sec:前提条件}節の「対象とする利用者」に示した前提条件を反映したものである。つまり,エンドユーザには言語資料自身に対する知識を必要としないインターフェイスを提供し,より詳細な検索条件の設定,例えば,XML文書中のどの部分を検索できるようにするのか,どの付随情報を検索結果に含めるのか,どのような制約条件を設定可能とするかは,言語資料作成者が設定ファイルに対して行うことを想定している。検索条件については,\ref{sec:検索方式}節で詳しく説明する。なお,検索文字列を入力する際は,検索もれを防止するために,「字体変換」機能\shortcite{yamaguchi2002}を利用することができる。「字体変換」機能は,入力された検索文字列に対して,旧字,異体字など別字体の候補を提示する機能である。例えば,検索文字列を「国語」として字体変換を行うと,候補として「國語」を提示することができる。この機能は,『太陽コーパス』に収録されている総合雑誌『太陽』など,現代と異なる字体を含んだ言語資料の検索を想定して付加されている。\subsection{検索エンジン}「検索エンジン」は,「検索条件入力用インターフェイス」で入力された検索条件を元に,言語資料ファイルを検索し,「検索結果閲覧部」,もしくは,「外部閲覧システム」に検索結果を渡す役割を果たす。検索エンジンは,全文検索のほか,検索された文字列に付随する情報の抽出を行う。この際,高速化を図るため,索引ファイルを参照する。詳しくは,\ref{sec:検索方式}節を参照のこと。\subsection{検索結果閲覧部と外部閲覧システム}検索結果閲覧部では,検索結果をKWIC付きの表形式で表示する。図\ref{fig:『太陽コーパス』への適用例}では,検索対象となった「研究」が「キー」欄に表示され,その両側に前後文脈が表示される。検索結果には,この他にも,検索された文字列に付随する情報として,「年」,「号」,「題名」,「著者」欄が含まれる。どの付随情報を検索結果として表示するかは,言語資料の作成者が『ひまわり』の設定ファイルにあらかじめ記述しておく。検索結果閲覧部は,検索結果の表示の他に,次の機能を持つ。\begin{itemize}\item検索結果に対する簡易な分析機能(ソート,検索結果の絞込みなど)\item検索結果の外部プログラムへの出力\end{itemize}ここでは,検索結果の外部プログラムへの出力について詳しく説明する。簡易な分析機能については,\shortcite{yamaguchi2002}を参照されたい。外部プログラムへ検索結果を出力する方法は,図\ref{fig:システム構成}に示したとおり,(a)テキストファイルへの出力,(b)クリップボードへの出力,(c)外部閲覧システムへの出力の三つある。まず,このうち,(a),(b)は,検索結果に対してさらなる分析を行うことを目的として,統計処理ソフトウェアや表計算ソフトウェアに検索結果を渡す手段を提供するものである。(a)は,検索結果をタブ区切りのテキスト形式でファイルに出力するもの,(b)は,検索結果閲覧部の表形式の閲覧画面から利用者が選択した範囲のデータをクリップボードに転送するものである。(b)で転送されるデータも,タブ区切りのテキストデータである。一方,(c)は言語資料の利用目的の多様性に対応するために,二つの方法で言語資料を外部閲覧システムに渡す。一つは,XML文書の一部をXSL変換を介して,外部閲覧システムに渡す方法である。主として,HTMLブラウザに出力することを想定する。表示形式は,CSS(CascadingStyleSheet)で指定する。XSL変換用のXSLTスタイルシートとCSSは,言語資料集合に付随する設定ファイルの中で指定する。HTMLブラウザを用いているので,言語資料ファイル外の画像を表示できるほか,縦書きやルビの表示,フォントサイズ,フォントの種類,文字色の変更など,言語資料に合わせてさまざまな表現形式を用いることができる。図\ref{fig:『太陽コーパス』への適用例}中のHTMLブラウザは,この機能の利用例である。この例では,検索結果の文字列を含む(雑誌『太陽』の)「記事」要素全体を表示している。表示する際には,CSSの適用により,タイトルのフォントを大きくしたり,著者名を右寄せで表示するなどしている。言語資料を外部閲覧システムに渡す,もう一つの方法は,検索結果の特定の行,列を引数として,外部プログラムを実行する方法である。この機能を利用することにより,音声,画像ファイルなど言語資料外にあるデータ(図\ref{fig:システム構成}中央下)を参照することが可能である。実際に,『太陽コーパス』への適用においては,検索結果の「著者」欄の値を引数として,著者データベースを検索し,その情報を閲覧することができるようになっている。 \section{検索方式} \label{sec:検索方式}本節では,図\ref{fig:システム構成}に示した「検索エンジン」で用いる検索方式について詳しく説明する。\subsection{検索処理の流れ}\label{ssec:概要}『ひまわり』は,全文検索システムであり,検索処理の基本は,XMLで構造化された言語資料から指定された文字列を検索することである。これに付け加えて,言語資料に対してマークアップされたさまざまな情報を抽出するとともに,抽出された情報に対して制約を適用し,検索結果を絞り込む。検索処理の大まかな流れは,次のとおりである。\begin{enumerate}\item指定された要素中の文字列(以後,「検索対象文字列」と表記)を全文検索\item検索された文字列(以後,「検索結果文字列」と表記)に付随する情報(以後,「付随情報」と表記)を抽出\item抽出された付随情報に対して,指定された制約条件を適用し,検索結果を制約\end{enumerate}上記の処理の流れを説明するために,次のようなXML文書を検索することを考える。検索対象文字列は「記事」要素中の「普及」,制約条件は「記事」要素の「著者」属性が「山田太郎」であるものとする。\begin{quote}\begin{verbatim}<記事著者="山田太郎">インターネットの普及でさまざまなサービスが...</記事><記事著者="佐藤一朗">新たな規格の普及に向けて,各社が動き始めた。</記事>\end{verbatim}\end{quote}このとき,まず,「記事」要素に対して,全文検索を実行する。検索対象文字列の「普及」が検索されたら,その「記事」要素の「著者」属性値を取得し,制約値である「山田太郎」と一致するかチェックする。上記のXML文書の1行目は,制約値と一致し,検索結果として返される。一方,2行目は,「著者」属性値が「佐藤一朗」なので,検索結果から排除される。なお,検索結果には,検索結果文字列の他に,付随情報である「著者」属性値も含まれる。以上が,検索処理の基本的な流れであるが,『ひまわり』では検索処理を高速化するために,3種類の索引を用いている。そのうちの二つは,要素内容,および,要素属性に対する索引である。これらは,全文検索のための索引として用いられる。索引づけの方法は,SuffixArray方式に基づくものであり,検索手法は二分木検索を利用する。もう一つの索引は,要素に対する索引で,付随情報の参照のために使用される。索引として用いるのは,要素の開始・終了位置である。検索手法としては,検索文字列の位置情報をキーとして二分木検索を行う。索引については,この後の節で詳しく述べる。\subsection{言語資料の検索に必要な付随情報の参照に対する考察}前節で示したように,本システムは,全文検索により検索結果文字列を得るだけでなく,その付随情報を二次的に参照する。付随情報は,検索結果の一部であり,検索結果を制約するためにも用いられる。したがって,付随情報を参照する能力が検索式の記述力を左右するとともに,本システムで扱うことのできる文書構造を規定することを意味する。そこで,本節では,まず,言語資料の検索において,どのような付随情報を参照することが必要なのかを考察する。ここでは,図\ref{fig:付随情報の参照}のように,XML文書を木構造で表現し,その上で議論することにする。木構造の中で,各ノードがXML文書における要素を表し,ノードの文字は要素名を表す。下位ノードは,上位ノードを構成する要素とする。最上位ノード(root)はXML文書全体を表す。検索結果文字列は,strとする。要素Tは,全文検索を行った時に検索対象とした要素である。なお,『ひまわり』では,要素属性を検索対象文字列とすることもありうるが,その場合は,この後の節で示すように,要素属性を当該要素の要素内容全体として処理するので,図\ref{fig:付随情報の参照}のstrと同様に考えて差し支えない。\begin{figure}[hbt]\begin{center}\epsfxsize=10.5cm\epsfbox{tree_reference.eps}\caption{付随情報の参照}\label{fig:付随情報の参照}\end{center}\end{figure}本論文では,この木構造の中で,検索結果文字列strを起点として,上位階層要素,兄弟要素,前後要素の三つに着目する。この後の節では,この三つの要素それぞれについて,言語資料における構造化との関連を示して,その必要性を明確にする。\subsubsection{上位階層要素/属性値}上位階層要素は,検索結果文字列strを要素内容として持つ要素である。図\ref{fig:付随情報の参照}では,長方形で囲われた要素T,C,A,rootがstrに対する上位階層要素に相当する。上位階層要素のタグは,strに対する直接的な付与情報なので,上位階層要素/属性値の参照は必須である。言語資料における具体的な要素例としては,ルビや品詞のように文字や語に付与されるものから,記事,章,節というように文章の論理構造に付与されるものまでさまざまなものが考えられる。これらの例から明らかなとおり,strの親要素だけでなく,任意の階層の上位要素を参照する必要がある。上位階層要素の例を次に示す。これは,文字列「五月雨の季節」を「記事」,「形態素」,ruby(ルビ)要素で記述したものである。\begin{verbatim}<記事著者="山田太郎"タイトル="さみだれ"><形態素品詞="名詞"><rubyvalue="さみだれ">五月雨</ruby></形態素><形態素品詞="助詞">の</形態素><形態素品詞="名詞">季節</形態素></記事>\end{verbatim}例えば,検索結果文字列「五月雨」に対する記事情報を得ようとする場合,上位階層要素である「記事」要素を参照として,「著者」属性と「タイトル」属性を得ることになる。同様に,「五月雨」に対するルビや品詞情報を得る場合は,それぞれruby要素,「形態素」要素を参照する。以上の例を見ればわかるとおり,上位階層要素の参照は,要素自体というよりも,要素属性値を参照することが多い。要素自体を参照するのは,検索結果文字列をより広い範囲で参照する場合である。その例として挙げられるのは,上のXML文書に対して,「季節」を全文検索して,そこから記事全体を外部閲覧システム(図\ref{fig:システム構成}参照)で閲覧する場合である。\subsubsection{兄弟要素/属性値}ここで言う兄弟要素とは,検索文字列strの親要素に対して兄弟関係にある要素のことを指す。図\ref{fig:付随情報の参照}の検索結果文字列strに対しては,G,H要素が兄弟要素に相当する。同一の親を持つ要素の参照は,辞書の項目のように,一つの項目を複数の要素で記述したデータを参照するのに必要となる。次の例は,「辞書項目」要素を「見出し」,「表記」,「品詞」,「語義説明」要素で表現したものである(語義説明は,三省堂『大辞林』第2版の見出し「さみだれ」から引用)。\begin{verbatim}<辞書項目><見出し>さみだれ</見出し><表記>五月雨</表記><品詞>名詞</品詞><語義説明>〔「さ」はさつき,「みだれ」は水垂(みだれ)の意という〕(1)陰暦五月頃に降り続く雨。つゆ。梅雨(ばいう)。長雨(ながめ)。うのはなくたし。[季]夏。《—をあつめて早し最上川/芭蕉》(2)継続しないで,少しずつ繰り返すことのたとえ。「—スト」</語義説明></辞書項目>\end{verbatim}このXML文書の「見出し」要素を検索した時,辞書の検索結果としては,見出しを検索結果として示すだけでなく,その表記や品詞などの付随情報を同時に示すのが一般的だろう。このような付随情報を参照するためには,「見出し」要素に対する兄弟要素である「表記」,「品詞」,「語義説明」要素を参照できなければならない。\subsubsection{前後要素/属性値}前後要素とは,検索文字列の親要素と同一の要素名を持つ要素で,前出,後出する要素のことを指す。図\ref{fig:付随情報の参照}の検索結果文字列strに対しては,要素Eの兄弟要素のT要素と,要素Iの兄弟要素の二つのT要素が前後要素に相当する。兄弟要素と違って,共通する親要素を持つ必要はない。前後要素は,連続した要素の関係を考慮して検索を行う場合に必要になる。その例として,特定の形態素列を検索する状況が挙げられる。次の例は,文字列「今日のテーマは」に対して,「形態素」タグを付与したものである。\begin{verbatim}<形態素品詞="名詞">今日</形態素><形態素品詞="助詞">の</形態素><形態素品詞="名詞">テーマ</形態素><形態素品詞="助詞">は</形態素>\end{verbatim}このような形態素列に対して,「今日」に後続する形態素を参照することを考えると,「形態素」要素である「今日」に後続する「形態素」要素を参照することになる。これ以外にも,名詞,助詞,名詞といった特定の品詞列を検索する場合もあるだろう。この場合,検索対象文字列を「名詞」として,「形態素」要素の品詞属性に対して全文検索を行い,その後続する二つの「形態素」要素の属性値を参照することが必要になる。\subsubsection{参照可能な付随情報}\label{sss:付随情報}以上のことから,本システムにおいて参照することのできる付随情報を次のように定める。これらは,『ひまわり』が検索対象とすることのできるXML文書の構造を規定する。\begin{itemize}\itemstrを包含する任意の要素,および,その属性値。なお,当該要素が入れ子構造になる場合は,直近の要素を優先して参照するものとする。\itemstrの親要素の兄弟要素,および,その属性値。なお,参照する際は,同一の要素が複数存在する場合を考慮して,参照方向(親要素の前後)を指定するものとする。\itemstrの親要素と同一の要素名を持つ前後$n$番目の要素,および,その属性値($n$は任意の整数)\end{itemize}\subsection{検索対象文字列の全文検索}この節では,検索対象文字列の全文検索について説明する。この処理は,\ref{ssec:概要}節で示した検索処理の流れのうち,(1)に相当する。\subsubsection{SuffixArrayに基づく全文検索}検索対象文字列の検索対象としては,要素内容と要素属性があるが,いずれに対する検索も,SuffixArray方式の索引を用いた二分木検索を行う\shortcite{yamasita2000}。SuffixArrayを索引として用いた検索では,検索対象文字列をキーとし,結果として検索結果文字列の先頭の位置を取得することができる。索引づけは,検索対象の$n$個の文字すべてに対して行う。つまり,要素内容の場合は,要素内容中のタグを除くすべての文字データであり,要素属性の場合は,すべての要素属性値である。索引の量は,文字データ数$n$に比例する。検索の時間計算量は,索引を二分木検索するので,$O(\logn)$となる。検索対象文字列は,正規表現\footnote{『ひまわり』における正規表現は,記述言語であるJava言語の標準ライブラリの{\ttjavax.regex.Pattern}クラスに依存する。詳細は,{\tthttp://java.sun.com/j2se/1.4/ja/docs/ja/api/java/util/regex/Pattern.html}を参照のこと。}で記述する。全文検索を実行する際には,検索対象の要素,もしくは,要素属性を特定しておく。ただし,正規表現の指定には制限があり,検索文字列の中に,1文字以上のリテラルを含んでいる必要がある\footnote{例えば,「国」で始まる2文字の文字列を表す「{\tt国.}」は1文字のリテラル「国」を含むので,検索文字列として指定できるが,任意の2文字の文字列を表現する「{\tt..}」は,いずれもリテラルではないので,検索文字列としては指定できない。}。SuffixArray自体については,\shortcite{yamasita2000}を参照のこととし,この後の\ref{sssec:文字列の照合(要素内容の場合)},\ref{sssec:文字列の照合(要素属性の場合)}節では,要素内容,要素属性ごとに,文字列の照合方法を説明することにする。\subsubsection{文字列の照合(要素内容の場合)}\label{sssec:文字列の照合(要素内容の場合)}要素内容に対する全文検索における文字列の照合は,要素内容中のタグを除いた文字データと検索対象文字列とを照合する。照合する方法には,検索対象の要素の範囲を限定しないで照合する方法と,要素の範囲内で照合する方法の二つがあり,適宜使い分けることができる。なお,照合する際には,否定条件での照合も可能である。\paragraph{要素の範囲に限定しない方法}形態素に対するマークアップを行った場合,各要素内容の文字列は,連続的に解釈される。要素の範囲に限定しない照合方法は,こういった連続的に解釈可能な要素を全文検索する時に用いる。次のXML文書\footnote{本論文では,XML文書を見やすくするために,適宜,改行や字下げの空白を挿入している。『ひまわり』は,空白文字も通常の文字と同様に扱うので,実際のXML文書では,空白文字を挿入しないことが多い。}は,「文」,「形態素」の二つの要素で構造化を行ったXML文書である。{\small\begin{verbatim}<文><形態素>東京</形態素><形態素>タワー</形態素><形態素>へ</形態素><形態素>行く</形態素></文><文><形態素>時々</形態素><形態素>雨</形態素><形態素>が</形態素></文>\end{verbatim}}このXML文書の「形態素」要素に対して,「東京タワー」を検索した場合,「文」,「形態素」タグは無視されて,照合は成功する。ただし,場合によっては,過度な照合が行われてしまう場合がある。過度な照合を防ぐための手段として,照合する範囲を限定する要素を設定することができる。例えば,上のXML文書に対して,「行く時」を全文検索すると,照合が成功してしまうが,「文」要素を範囲限定のための要素とすれば,照合するのを防ぐことができる。以上は,リテラルだけからなる有限長の検索対象文字列の照合であるが,正規表現で検索対象文字列を指定した場合,検索対象文字列が無限長の文字列となる可能性がある。『ひまわり』では,照合対象となる文字列の最大文字列長を制限した上で照合を行う。具体的には,正規表現中のリテラル部分(利用者が検索対象文字列入力時に指定する)の前後文字列長を制限している。この最大前後文字列長は,利用者が設定することができる。例えば,最大前後文字列長が5文字のとき,正規表現「\verb+東京.*+」\footnote{「東京」に0文字以上の任意の文字が後続する文字列}に対しては,「東京」の前後5文字が照合の範囲となり,文字列「東京タワーへ行」との照合が成功することになる。\paragraph{要素の範囲を限定する方法}形態素列の照合と異なり,各要素の要素内容に連続性のない言語資料もある。その代表的な例は,辞書である。もう一度,「さみだれ」の辞書項目を元に説明する。{\small\begin{verbatim}<辞書項目><見出し>さみだれ</見出し><表記>五月雨</表記><品詞>名詞</品詞></辞書項目>\end{verbatim}}このXML文書において,「見出し」要素と「表記」要素の要素内容に連続性はない。そこで,要素範囲を限定した照合では,検索対象文字列と指定された要素の要素内容全体とを照合する。「見出し」要素に対して全文検索を行った場合,要素内容である「さみだれ」と検索対象文字列とを照合する。なお,部分文字列と照合させる場合は,「\verb+さみ.*+」などのように,正規表現を用いる。\subsubsection{文字列の照合(要素属性の場合)}\label{sssec:文字列の照合(要素属性の場合)}要素属性に対する全文検索における文字列の照合は,要素内容の照合における「要素の範囲を限定する方法」と同様に,属性値全体で照合を行う。検索対象文字列の指定も,リテラルを1文字以上含むという,制限付きの正規表現である。全文検索の結果としては,要素属性値の他に,当該要素の要素内容も含まれるものとする。付随情報の参照は,この要素内容を起点に行われる。\subsection{付随情報の参照と制約}この節では,付随情報の参照と,検索条件における付随情報の制約について説明する。これらの処理は,\ref{ssec:概要}節で示した検索処理の流れのうち,(2),(3)に相当する。\subsubsection{付随情報の参照}付随情報の参照には,全文検索の場合と同様,索引を用いる。\ref{sss:付随情報}節で示したいずれの付随情報についても,「要素に対する索引」を使用する。要素に対する索引とは,参照対象となる要素の開始位置と終了位置の組を開始位置でソートしたものである。参照する際には,検索結果文字列の位置をキーとし,結果として当該要素の開始位置と終了位置を得る。索引の量は,要素数を$n$とすると,$2n$である。検索処理の時間計算量は,二分木検索を使用するので,$O(\logn)$である。次に,各付随情報ごとに,参照方法を示す。\paragraph{上位階層要素,および,その属性値}索引づけは,全文検索時に検索対象とした要素(以後,「検索対象要素」と表記)を含む上位階層要素のうち,参照が必要になる要素に対して行う。図\ref{fig:付随情報の参照}では,root,A,C,T要素が相当する。当該要素の参照には,検索結果文字列の位置をキーとして,参照する要素の範囲(開始・終了位置)を検索し,その結果から要素を参照する。一方,属性値の参照には,検索された範囲の開始位置から,検索対象の属性を線形検索する。以後,兄弟要素,前後要素ともに,その属性値を得るときは,同様の方法を用いる。\paragraph{兄弟要素,および,その属性値}兄弟要素の参照に必要な索引づけは,検索対象要素に対して行う。図\ref{fig:付随情報の参照}では,T要素が相当する。兄弟要素の参照には,検索結果文字列の位置をキーとして,検索対象要素の範囲を取得する。そして,その前後の要素を線形検索することにより,兄弟要素を参照する。\paragraph{前後要素,および,その属性値}前後要素の参照に必要な索引づけも,検索対象要素に対して行う。前後要素を参照するには,まず,検索結果文字列の位置をキーとして,検索対象要素の索引を検索する。すでに述べたように,索引は要素の開始位置をキーとして,昇順にソートされている。検索対象要素に対して,$n$番目($n$が負値の場合,前の要素を表すこととする)の要素を参照するには,検索された索引に対して,$n$番目の索引を検索すればよい。\subsubsection{付随情報の制約}抽出された付随情報は,検索結果を制約する条件として利用できる。付随情報に対する制約条件は,正規表現で記述する。この際,否定条件を指定することもできる。文字列の照合は,全文検索の場合と同様,タグを排除した後に行う。 \section{評価} 本節では,言語資料の構造化形式と利用目的の多様性に対する『ひまわり』の有効性を検証するために,実際の言語資料である『分類語彙表』と『日本語話し言葉コーパス』に『ひまわり』を適用し,定性的に評価する。さらに,4種類の言語資料に対する検索速度を測定することにより,『ひまわり』を定量的に評価する。\subsection{言語資料への適用}\subsubsection{『分類語彙表』}まず,日本語のシソーラスである『分類語彙表(増補改訂版)』\shortcite{bunrui}に本システムを適用する。図\ref{fig:分類語彙表データ)}の左が『分類語彙表』の元のデータ(分類番号1.5010「体の類/自然/自然/光」の一部とその上位階層の分類項目)で,右がXMLで構造化した結果である。bunrui\_goi\_hyo,c,s,l,e要素は,それぞれ『分類語彙表』全体,分類項目,項目内の段落番号,項目内の小段落番号,表記を表す要素である。e要素には,表記に対する「見出し」属性を,c要素には「分類番号」,「概念パス」属性(当該の分類項目に至るまでの分類項目の並び)を付けている。\begin{figure}[hbt]\begin{minipage}{.45\linewidth}{\small\begin{verbatim}1体の類1.5自然1.50自然1.5010光01光(ひかり)-光(こう)光明光輝光彩02微光白光白色光03燐光蛍光蛍火\end{verbatim}}\end{minipage}\hspace{2.5em}\begin{minipage}{.45\linewidth}{\small\begin{verbatim}<bunrui_goi_hyo><c分類番号="1.5010"概念パス="/体/自然/自然/光"><s段落番号="01"><l小段落番号="01"><e見出し="ひかり">光</e>:<e見出し="こうさい">光彩</e></l></s><s段落番号="02"><l小段落番号="01"><e見出し="びこう">微光</e><e見出し="はっこう">白光</e></l><l小段落番号="02"><e見出し="はくしょくこう">白色光</e></l></s>:</bunrui_goi_hyo>\end{verbatim}}\end{minipage}\caption{『分類語彙表』(左:元データ,右:XMLによる構造化)}\label{fig:分類語彙表データ)}\end{figure}図\ref{fig:分類語彙表データ)}のXML文書を検索対象とするために,『ひまわり』の検索対象文字列,付随情報,および,閲覧形式を次のように設定した。\begin{description}\item[検索対象文字列]e要素の要素内容(つまり,表記),および,「見出し」属性\item[付随情報]c,s,l,e要素の属性(個々の要素に対して索引付け)\item[閲覧形式]分類項目に含まれる語を閲覧するために,c要素をHTMLブラウザに出力\end{description}図\ref{fig:適用例(分類語彙表)}は,「光」を表記に含む語を検索した結果である。「表記」欄が,検索結果文字列で,その左右に同一分類項目の語が列挙される。この三つの欄の他に,検索対象文字列として設定した「見出し」欄,付随情報として設定した「概念パス」や「分類番号」欄などが表示される。\begin{figure}[hbt]\begin{center}\epsfxsize=13.5cm\epsfbox{himawari_bunrui.eps}\caption{『分類語彙表』への適用例}\label{fig:適用例(分類語彙表)}\end{center}\end{figure}『ひまわり』のウィンドウに重ねて表示されているのは,外部閲覧システムのHTMLブラウザであり,検索結果文字列をダブルクリックすると起動される。この例では,検索結果文字列「微光」を含む分類項目全体を表示している。検索結果文字列は,利用者が発見しやすいように,赤色で表示される。HTMLブラウザには,検索対象文字列を含むc要素が渡され,図\ref{fig:システム構成}に示したようにXSL変換とCSSファイルが適用された後にその結果が表示される。このように,『ひまわり』は,(1)『分類語彙表』の見出し,および,表記を対象に全文検索できる,(2)書籍版とほぼ同等の形式で閲覧することができることを示した。これにより,『ひまわり』は『分類語彙表』を検索・閲覧するシステムとして適応していると考えられる。\subsubsection{『日本語話し言葉コーパス』}次に,『日本語話し言葉コーパス』に対して,『ひまわり』を適用する。『日本語話し言葉コーパス』は,学会講演などの独話を主体としたコーパスである。音声データの他に,音声データの転記テキストに形態論情報,分節音などの言語情報が付与されたXML形式のデータが提供される。詳しくは,\shortcite{maekawa2004}を参照されたい。ここでは,コーパス全データのうち,人手で形態論情報を付与された転記テキスト(396講演,約102万短単位)を適用対象とする。図\ref{fig:『日本語話し言葉コーパス』の書き起こしテキスト}(上)が,転記テキストである。転記テキストは,200[ms]以上のポーズ位置で「転記基本単位」に分割される。転記基本単位の始まりは,数字で始まる行で表される。左から,転記基本単位の通し番号,開始時刻,終了時刻,話者ID(LまたはR)を意味する。発話の転記には,漢字仮名混じりで表記された基本形と,発音を可能な限り正確にカタカナで表記した発音形がある。下の転記テキストでは,\verb+&+の左右がそれぞれ基本形,発音形が併記されている。また,各転記基本単位内は,文節単位で改行されている。\begin{figure}[hbt]\noindent{\bf■転記テキスト}{\small\begin{verbatim}000100000.311-00000.698L:テーマ&テーマ000200001.114-00002.989L:無人島に&ムジントーニ持っていくもの&モッテイクモノ三つ&ミッツ\end{verbatim}}\noindent{\bf■XML文書への変換結果}{\small\begin{verbatim}<kdb講演ID="AC00JUL124"><su代表形="テーマ"品詞="名詞"発音形="テーマ">テーマ</su><pp_id="001"/><t転記番号="0001"開始時刻="00000.311"終了時刻="00000.698"/><su代表形="ムジン"品詞="名詞"発音形="ムジン">無人</su><su代表形="トウ"品詞="接尾辞"発音形="トー">島</su><su代表形="ニ"品詞="助詞"その他1="格助詞"発音形="ニ">に</su><pp_id="002"/><su代表形="モツ"品詞="動詞"活用型="タ行五段"活用形="連用形"発音形="モッ">持っ</su><su代表形="テ"品詞="助詞"その他1="接続助詞"発音形="テ">て</su>\end{verbatim}}\caption{『日本語話し言葉コーパス』の転記テキストとXML文書への変換結果}\label{fig:『日本語話し言葉コーパス』の書き起こしテキスト}\end{figure}図\ref{fig:『日本語話し言葉コーパス』の書き起こしテキスト}(上)の転記テキストに形態論情報を付与し,XML形式で表現したのが,図\ref{fig:『日本語話し言葉コーパス』の書き起こしテキスト}(下)の「XML文書への変換結果」である。今回は,全転記テキストを一つの言語資料ファイルにまとめて検索することとした。kdb,su,p,t要素は,それぞれ,一つの転記テキスト全体,形態論情報(短単位\footnote{CSJに付与されている形態論的情報には,長い単位(長単位)と短い単位(短単位)があるが,今回は短単位を用いた。}),文節の区切り,転記基本単位の区切りを表す。図\ref{fig:『日本語話し言葉コーパス』の書き起こしテキスト}のXML文書を検索対象とするために,『ひまわり』の検索対象文字列,付随情報,および,閲覧形式を次のように設定した。\begin{description}\item[検索対象文字列]su要素の要素内容(要素範囲の限定なし),su要素の要素内容(要素範囲の限定あり)\item[付随情報]su,t要素の各種属性,su要素の前後要素\item[閲覧形式]転記テキスト全体を閲覧するために,kdb要素をHTMLブラウザに出力。また,検索結果文字列に対応する音声の参照(外部プログラムの音声再生プログラムを起動)\end{description}\vspace{1zh}図\ref{fig:適用例(日本語話し言葉コーパス)}は,su要素内容中の文字列「について」を検索した結果である。検索結果には,検索結果文字列のほか,付随情報として,検索結果文字列の品詞,後続する2短単位(「基本形1,2」欄)とその品詞(「品詞1,2」欄),講演IDなどが含まれる。\begin{figure}[hbt]\begin{center}\epsfxsize=13.5cm\epsfbox{himawari_csj.eps}\caption{『日本語話し言葉コーパス』への適用例}\label{fig:適用例(日本語話し言葉コーパス)}\end{center}\end{figure}検索結果文字列の「について」は,短単位で「に/つい/て」のように分割されるが,文字列の照合は,「要素範囲の限定なし」で行っているので,「について」全体が検索結果文字列となる。「品詞」欄には,検索結果文字列の先頭の文字列「に」の品詞である「助詞」が入っている。短単位での分割位置がわかっている場合は,文字列の照合をsu要素の範囲に限定して行えば,より厳密な検索ができる。このように,短単位の知識がなくても検索することが可能であると同時に,より詳細な制約を与えて,検索結果を絞り込むこともできる。図\ref{fig:適用例(日本語話し言葉コーパス)}右下のHTMLブラウザの画面は,講演全体を表示したものである。短単位の区切りは,`/'で表記している。また,短単位にカーソルを合わせると,当該短単位の品詞などの情報が図\ref{fig:適用例(日本語話し言葉コーパス)}のように表示されるようになっている。図\ref{fig:適用例(日本語話し言葉コーパス)}右上のウィンドウは,音声再生用の外部プログラムであり,言語資料外のデータを参照する例として示した。再生時には,付随情報である講演ID,開始時刻,終了時刻を外部プログラムに渡し,当該の部分の音声を再生できるようにしている。以上で示したように,『ひまわり』は,『日本語話し言葉コーパス』の言語資料の構造化形式に適応して,形態論情報を検索に有効に利用することが可能である。さらに,音声データの参照,および,転記テキスト単位での形態素列の閲覧など,言語資料に適した閲覧を実現している。\subsection{検索速度の測定}『ひまわり』の検索時間を測定し,定量的に評価する。検索の対象は,表\ref{tbl:平均検索時間}に示した,『太陽コーパス』,『毎日新聞テキストデータベース』(2002年,1年分),『分類語彙表』,CSJ(『日本語話し言葉コーパス』)の四つの言語資料である。検索対象の文字列は,『分類語彙表』が長さ2文字,それ以外の言語資料は長さ4文字の文字列をそれぞれの資料から100個ランダムに抽出し,表\ref{tbl:平均検索時間}の検索対象要素に対して全文検索を行った。検索結果に含まれる付随情報は,『分類語彙表』と『日本語話し言葉コーパス』(CSJ)は,前節で示した付随情報を,『太陽コーパス』と毎日新聞に対しては,書誌情報にあたる情報を付随情報として抽出した。測定に使用した計算機は,CPUPentium42.5GHz,メモリ1GB,OSLinux2.4.26(Debian/GNULinuxver.3.0r2),JRE(JavaRuntimeEnvironment)ver.1.4.2\_04である。測定結果として,表\ref{tbl:平均検索時間}に,平均検索時間,ファイルサイズ,総文字数,平均検索結果数を示す。ファイルサイズとは,言語資料ファイルのサイズ(タグを含む。encodingはUTF-16)であり,総文字数とは,検索対象要素中の文字データの総数(索引づけされた文字データ数でもある)である。この結果を見ればわかるとおり,307.2〜1114[ms]で検索されており,実用的な速度で検索できることが確認できた。このうち,最も検索時間がかかったのがCSJである。CSJの平均検索結果数を見ると,『太陽コーパス』と同程度であり,総文字数は『太陽コーパス』の約1/7であるにもかかわらず,検索時間は約3.6倍である。この原因は,形態論的情報に関連する付与情報が多く,全文検索時の文字列の照合に時間がかかるためだと考えられる。CSJの付与情報が『太陽コーパス』と比べて多いことは,CSJのファイルサイズが『太陽コーパス』の約4倍であることを見ればわかる。\begin{table}[hbt]\begin{center}\caption{『ひまわり』による平均検索時間}\label{tbl:平均検索時間}{\small\begin{tabular}{c|r|r|r|r|c}\hline{\bf言語資料}&{\bf平均検索時間[ms]}&{\bfファイルサイズ}&{\bf総文字数}&{\bf平均検索結果数}&{\bf検索対象要素}\\\hline\hline『太陽』&307.2&99MB&16066889&265.3&記事本文\\毎日新聞&618.9&222MB&56359298&581.8&記事本文\\分類語彙表&126.2&6.7MB&336435&253.3&e要素\\CSJ&1114.0&392MB&2205411&235.2&su要素\\\hline\end{tabular}}\end{center}\end{table} \section{関連研究との比較} 言語資料の検索を目的としたシステムは,コンコーダンサをはじめとして多くのシステムが提案されている。ここでは,言語資料の構造化形式と利用目的の二つの多様性の面から,『ひまわり』と既存システムとの比較を行う。言語資料の構造化形式の多様性へのアプローチとしては,(1)検索システムの汎用性を高める方法,(2)言語資料の形式を統一する方法,(3)タグを含めてテキストとして扱う方法,(4)多様性には対応せず,特定の言語資料に特化する方法,といったアプローチがある。従来のコンコーダンサは,(3)と(4)のアプローチが多い。例えば,(4)のアプローチの例としては,BritishNationalCorpusに付属するSARA\shortcite{BNC}が挙げられる。(3)の例としては,WordSmith\footnote{http://www.lexically.net/wordsmith/index.html}やTea\footnote{http://www2.nict.go.jp/jt/a132/members/mutiyama/software.html\#tea}などがある。このうち,(3)は非常に広範な資料を検索対象とすることができるが,検索対象文字列ですべての検索条件を記述する必要があるため\footnote{例えば,検索対象文字列にタグを含めた形で記述する。},利用者に言語資料の構造化に関する知識が必要となる。さらに,マークアップされている情報を検索条件として利用することや,それを検索結果として抽出することが困難である。(2)の例としては,電子出版用の共通フォーマットであるEPWING\footnote{http://www.epwing.or.jp/}に対応したソフトウェア群が挙げられる。EPWINGは,辞書検索をはじめとして広く利用されている。この方法は,類似した構造を持った言語資料を統一する場合には有効であるが,構造が大きく違う場合は,一つの形式に統一するのが困難である。(1)の手法を取るシステムとしては,XMLデータベースや関係データベースを利用した方法が提案されている(例:『茶器』\shortcite{matumoto2004})。これらに対して,本システムは,構造化の形式をXML文書と定め,XML文書に対する,索引つきの全文検索を実現している。検索対象のXML文書は,言語資料の検索にとって必要な付随情報と検索結果文字列とのXML文書構造上の関係を規定される。これにより,タグセットを限定したり,言語資料全体の構造を規定することなく,言語資料の多様性に対応することを可能にしている。さらに,構造化形式の多様性に対応しつつ,付随情報の抽出や付随情報による検索結果の制約も可能である。次に,利用目的の多様性への対応方法の面から比較する。まず,検索式の記述能力の面について考える。『ひまわり』は,エンドユーザと言語資料の作成者をユーザとして想定し,検索式の記述能力を維持しながら,言語資料に対する知識を持たないエンドユーザでも検索を行えるようにしている。ただし,検索式の記述能力自体は,XMLデータベースや関係データベースが優れている。例えば,XML文書の一部を参照する規格であるXPathは,\ref{sss:付随情報}節で示した要素をすべて参照することができる。しかし,現在のところ,導入コストの高さや導入・運用のための技術が必要とされることを考慮すると,コーパスに同梱して,エンドユーザに配布するという前提条件にはそぐわない。一方,閲覧形式の点では,KWIC形式で結果を表示する手法が多くのシステムで採用されている。しかし,資料に付随する情報は,閲覧時に十分考慮されていない。それに対して,本システムでは,KWICを含んだ表形式での表示が基本となっており,KWICとともに付随情報を利用してさまざまな分析が可能になる(例:用例を年代順に並べる。同一著者の用例をまとめるなど)。また,テキストとして表示できない音声や画像などのデータを参照する手段も備えている。 \section{おわりに} 本論文では,構造化された言語資料に対する全文検索システム『ひまわり』の設計と実現について述べた。『ひまわり』の特徴は,言語資料の構造化形式と利用目的の多様性に対応するように設計したところにある。構造化形式の多様性については,構造化の形式をXMLとし,その上で,索引つきの全文検索機能を実現した。この際,検索対象とすることのできるXML文書の形式を,XML文書全体の構造で規定するのではなく,検索対象の文字列とそれに対して付与されている情報との文書構造上の関係により規定した。これにより,幅広い構造化形式への適用を可能にした。また,利用目的の多様性に対しては,柔軟な検索条件と閲覧形式を利用者が定義可能とすることにより実現した。この際,エンドユーザと言語資料の作成者を想定し,言語資料の作成者が言語資料に適した検索条件と閲覧形式を定義することにより,言語資料に関する知識を持たないエンドユーザでも検索システムを利用できるようにした。『ひまわり』に対する評価は,二つの方法で行った。まず,『分類語彙表』,『日本語話し言葉コーパス』に『ひまわり』を適用し,言語資料の多様性へ対応できることを示した。さらに,四つの言語資料において,『ひまわり』の平均検索速度を計測し,実用的な速度で検索結果を得られることを確認した。なお,『ひまわり』は,独立行政法人国立国語研究所のWebページ\footnote{http://www.kokken.go.jp/lrc}において,一般に公開している。\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aston\BBA\Burnard}{Aston\BBA\Burnard}{1998}]{BNC}Aston,G.\BBACOMMA\\BBA\Burnard,L.\BBOP1998\BBCP.\newblock{\BemTheBNCHandBook,ExploringtheBritishNationalCorpuswithSARA}.\newblockEDINBURGHUNIVERSITYPRESS.\bibitem[\protect\BCAY{京都大学}{京都大学}{2000}]{kyodai_corpus}京都大学\BBOP2000\BBCP.\newblock\JBOQ京都大学コーパス\JBCQ\\newblockhttp://www.kc.t.u-tokyo.ac.jp/nl-resource/corpus.html.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2004}]{bunrui}国立国語研究所\JED\\BBOP2004\BBCP.\newblock\Jem{分類語彙表増補改訂版}.\newblock大日本図書.\bibitem[\protect\BCAY{山下達夫}{山下達夫}{2000}]{yamasita2000}山下達夫\BBOP2000\BBCP.\newblock\JBOQ用語解説SuffixArray\JBCQ\\newblock\Jem{人工知能学会誌},{\Bbf15}(6),p.1142.\bibitem[\protect\BCAY{山口昌也\JBA田中牧郎}{山口昌也\JBA田中牧郎}{2002}]{yamaguchi2002}山口昌也\JBA田中牧郎\BBOP2002\BBCP.\newblock\JBOQ言語研究のための構造化テキストと検索支援システム---「太陽コーパス」を例として\JBCQ\\newblock\Jem{国語学会2002年度春季大会要旨集},\BPGS\169--176.\bibitem[\protect\BCAY{松本裕治\JBA高岡\JBA浅原\JBA乾\JBA橋本\JBA投野\JBA大谷\JBAEdson\hspace{.5em}{T}\hspace{.5em}Miyamoto\JBA森田}{松本裕治\Jetal}{2004}]{matumoto2004}松本裕治\JBA高岡一馬\JBA浅原正幸\JBA乾健太郎\JBA橋本喜代太\JBA投野由紀夫\JBA大谷朗\JBAEdson\hspace{.5em}{T}\hspace{.5em}Miyamoto\JBA森田敏生\BBOP2004\BBCP.\newblock\JBOQタグ付きコーパスの格納/検索ツール「茶器」\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\BPGS\405--408.\bibitem[\protect\BCAY{前川喜久雄}{前川喜久雄}{2004}]{maekawa2004}前川喜久雄\BBOP2004\BBCP.\newblock\JBOQ「日本語話し言葉コーパス」の概要\JBCQ\\newblock\Jem{日本語科学},{\Bbf15},\BPGS\111--133.\bibitem[\protect\BCAY{田中牧郎}{田中牧郎}{2001}]{tanaka2001}田中牧郎\BBOP2001\BBCP.\newblock\JBOQXMLを利用したコーパスの構築---「太陽コーパス」を中心に---\JBCQ\\newblock\Jem{日本語学},{\Bbf20}(13),\BPGS\80--91.\bibitem[\protect\BCAY{毎日新聞社}{毎日新聞社}{1991〜2003}]{mainichi}毎日新聞社\BBOP1991〜2003\BBCP.\newblock\JBOQ毎日新聞テキストデータベース1991〜2003年版\JBCQ.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{山口昌也}{1992年東京農工大学工学部数理情報工学科卒業。1994年同大学院博士前期課程修了。1998年同大学院博士後期課程修了。同年,同大学工学部助手。2000年国立国語研究所研究員,現在に至る。自然言語処理の研究に従事。言語処理学会,情報処理学会,日本語学会,社会言語科学会各会員。}\bioauthor{田中牧郎}{1985年東北大学文学部文学科卒業。1987年同大学院博士課程前期修了。1989年同大学院博士課程後期中退。同年昭和女子大学文学部専任講師。1996年国立国語研究所研究員。2001年同研究所主任研究員,現在に至る。日本語学(語彙論・日本語史)の研究に従事。言語処理学会,日本語学会,日本言語学会,社会言語科学会各会員}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V29N02-08
\section{はじめに} \label{sec:intro}近年,社会的側面から雑談対話システムが注目を集めている\cite{wallace2009anatomy,banchs2012iris,higashinaka-EtAl:2014:Coling,alexa}.雑談対話システムの実装手法としてニューラルネットワークを用いた手法が広く研究されており,有望な結果がいくつか得られている\cite{vinyals2015neural,zhang2018persona,dinan2019second,adiwardana2020humanlike,roller2020recipes}.しかし,これらのシステムの性能はまだ満足できるものではなく,対話破綻が生じるようなシステムのエラーがしばしば見られる.システムのエラーを減らす方法のひとつは,どのような種類のエラーが生じやすいのかを分析し,そのエラーを削減する手立てを考えることである.このような目的において,エラーの類型化は有用である.これまで,タスク指向対話システムにおいてはいくつかのエラー類型が提案されており\cite{dybkjaer1996grice,bernsen1996principles,aberdeen2003,dzikovska2009dealing},システムの性能向上において効果を発揮してきた.雑談対話システムにおいても同様のアプローチがなされてきており,東中らは「理論に基づく類型」と「データに基づく類型」の二つの観点の異なる類型を提案している\cite{higashinaka2015towards,higashinaka2015fatal}\footnote{東中らはこれらをそれぞれトップダウン,ボトムアップと呼んでいるが,本稿ではより適切に内容を表していると考えられる表現である「理論に基づく類型」「データに基づく類型」を採用した.}.しかし,前者の「理論に基づく類型」は,Griceの会話の公準\cite{gri:log}や隣接ペアの概念\cite{schegloff1973opening}など,人どうしの対話を対象とした理論が元になっているため,人とシステムとの対話において生じるエラーと適合しない点が多いという問題点があった.また後者の「データに基づく類型」は,分析に用いたデータのみから引き出されたエラー類型であり,潜在的に生じ得るエラーや未知のシステムで生じる可能性があるエラーがカバーできていないという限界がある.これらの理由から,これらの類型はアノテーションの一致率が低いという問題や,エラーの概念化があまりうまくできていないという問題を抱えている\cite{higashinaka2019improving}.本稿では,雑談対話システムにおける新しい対話破綻の類型を提案する.これまでに提案された二つの類型に基づいて,それぞれの類型の利点と欠点を明らかにしたうえで,統合的な類型を作成した.そして,この統合的な類型の適切性をアノテーションの一致率を用いて評価したところ,Fleissの$\kappa$値が専門作業者間で0.567,クラウドワーカー間で0.488となり,既存の類型よりも高い値となった.\rev{また,アノテーションにおいて判断が困難とされた事例もほとんど見られなかった.}このことから,統合的な類型はエラーの概念化が適切になされており,雑談対話システムの分析に適するものになっているといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{従来の類型とそれらの統合} \label{sec:previous}東中らは雑談対話システムのエラーについて,「理論に基づく類型」\cite{higashinaka2015towards}と「データに基づく類型」\cite{higashinaka2015fatal}の2種類を提案している.「理論に基づく類型」は,対話における人どうしの協調的な振る舞いを説明する対話理論に基づき,対話理論が説明する原則から逸脱した現象をエラーとして位置づけている.それに対して「データに基づく類型」は,雑談対話システムの対話データの分析に基づいて典型的なエラーを抽出したものである.この類型では,対話破綻を生じさせたシステム発話に対してアノテータがそのエラー内容を説明するコメントを付与し,それらのコメントにクラスタリング手法を適用して,得られた個々のクラスタに名前を付与したものをエラー類型としている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{理論に基づく類型}「理論に基づく類型」\cite{higashinaka2015towards,東中2016}は,人どうしの協調的な対話の原則とされるGriceの会話の公準\cite{gri:log}に主として基づいている.Griceの会話の公準は,対話において一般的に成り立つ協調性の原則を,量・質・関連性・様態のそれぞれの観点から規定している.一方,対話の構成要素をスコープの広さで分類すると,発話・隣接ペア\cite{schegloff1973opening}・対話内文脈・対話外の環境となる.協調性の原則とスコープは原則として直交する概念であるので,これらの組み合わせでエラー類型を規定できるとして考案されたものが,この類型である.ただし,協調性の原則とスコープの組み合わせにおいて,「発話」に対する「関連性」の逸脱は定義できないので除かれている.また,分析に用いた対話データ中に観測された,人どうしの対話では現れない対話システム固有のエラーについては,該当するスコープ内に付け加えられている.この類型では,エラーの種類は\tabref{tbl:top-down}に示す16種類となっている.大分類にスコープ,小分類に主としてGriceの会話の公準を位置づけた対応となっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{07table01.tex}\caption{理論に基づく類型}\label{tbl:top-down}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%この類型は,アノテーションの一致率によって評価された.具体的には,対話破綻のアノテーションが行われたデータを対象とし,特に対話破綻を引き起こすと考えられる発話に対して,エラーの種類を付与することで行われた.アノテーションの一致率(Fleissの$\kappa$値)は,大分類で0.400,小分類で0.239と低いものであったと報告されている\cite{higashinaka2015towards}.このように低い一致率となった原因としては,評価に用いた人とシステムとの雑談対話において対話破綻が高頻度で起こっており,人を対話相手とする場合とは異なる振る舞いをユーザがした結果,対話そのものが人どうしのものとはかなり異なったものになっていたということが考えられる.それゆえ,人どうしの対話における協調性を前提とした理論がうまく当てはまらない対話であったにも関わらず,その観点からエラーを分類しようとしたため,アノテーションの一致率が結果として低くなったものと考えられる.このことを支持するデータとして,ひとつの対話中で最初に出現するエラー(小分類)に対するアノテーションの一致率が0.32であったのに対して,2回目以降のエラーに対するものは0.19であったことが報告されている\cite{higashinaka2019improving}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データに基づく類型}「データに基づく類型」\cite{higashinaka2015fatal}は,対話破綻アノテーション時に破綻発話に対して付けられたコメントをクラスタリングすることによって作成された.コメントを付与したアノテータは主として対話システムの研究者である.クラスタリングに際しては,事前にクラスタ数を決めることが難しいことから,データに基づいてクラスタ数を自動的に決めることができるノンパラメトリックベイズの一手法であるChineserestaurantprocess(CRP)\cite{pitman95}が用いられている.約1,500のコメントを対象にクラスタリングを行った結果,17個のクラスタが得られ,これに基づいて\tabref{tbl:bottom-up}に示すエラー類型が決められた.なお,類型名はクラスタ毎のコメントを人手で観察することによって決められている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{07table02.tex}\caption{データに基づく類型}\label{tbl:bottom-up}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%このようにして決められた類型は,アノテーションの一致率に基づいて評価された\cite{higashinaka2019improving}.その結果,「理論に基づく類型」よりもこの類型の方がFleissの$\kappa$値が高いことが報告されている.近年,同様の方法で作成された類型を用い,対話システムの評価や改善を目指す研究も報告されている.Seeら\cite{see-manning-2021-understanding}は,特定の対話システムのログにおけるユーザのネガティブな反応からエラー類型を作成し,ユーザが不満を抱く原因の特定を図っている.しかし「データに基づく類型」は,類型作成時の対話データに大きく依存するという問題点がある.対話システムとの対話ログ分析の結果として得られた類型は,現在も進展を続ける技術の特定の時期におけるシステムの誤り傾向の分析に基づいていることになり,今後の技術の進展によって対話システムが異なる振る舞いを示したときに生じ得るエラーには適用できない可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{類型の統合手順}\label{subsec:integration}前節までの分析に基づき,我々は二つの類型を統合するという考えに至った.「理論に基づく類型」は人とシステムとの対話に対して適用が難しい状況があるが,「データに基づく類型」は理論が捉えきれていないそのような対話現象を適切に扱えることが期待できる.一方で,「データに基づく類型」がカバーできていない現象が潜在的・将来的にあり得るという欠点は,「理論に基づく類型」の考え方に基づいてより包括的な対話現象をカバーする方向で補える.このようにこれらの類型は統合することで,より良い類型となることが期待できる.まず統合にあたり,既存類型が原則としているシングルラベルアノテーションからマルチラベルアノテーションへと枠組みを変更した.これは,たとえばユーザからの質問に答えないだけでなく,非常識な内容の発言を行うなど,ひとつのシステム発話が複数のエラーを含む可能性を考慮したものである.実際,「理論に基づく類型」の実験結果においてスコープをまたがる混同が多く見られており\cite{higashinaka2015towards},複数のレベルで生じたエラーをカバーするためにマルチラベルアノテーションへの移行は必然であると考えた.次に「理論に基づく類型」に対して,人とシステムの対話に当てはまりやすいように拡張を試みた.対話システムの起こすエラーは,Griceの会話の公準に基づいて判断できる不適切性をときとして大きく逸脱していることが観察されることから,大きく逸脱するケースを切り出して「形式」のエラーとして捉えることにした.そしてそれ以外を「内容」のエラーとして捉えることにした.なお,スコープについてはまずは大枠を残して考えた.逸脱の仕方を表す「形式」においては,スコープの狭い順に,言語表現としての標準的な規範(発話レベル),隣接する発話の機能の関係\cite{allen97}(応答レベル),話題の関連性(文脈レベル),社会的規範(環境レベル)を設定することとした.これらは人どうしの対話において通常守るべき形式を表しており,それらからの逸脱は検出しやすく,また概念化もしやすいと考えられる.あるエラーがこれらの形式からの逸脱に当てはまらない場合,「内容」に問題があると考える.すなわち内容に関しては,当該スコープでの形式が守られているにもかかわらず,そのスコープに原因が存在して対話が破綻している現象を指すことと定義できる.そして,「理論に基づく類型」と「データに基づく類型」のエラータイプを,形式・内容とスコープで構成したフレームに当てはめた.ここで,「理論に基づく類型」において「環境」と規定されたスコープについては,我々の方針として守るべき形式として社会規範を導入したことから,「社会性」というスコープ名に置き換えていることに注意されたい.この当てはめの結果,大半のエラータイプは設定したフレームにうまく収まったが,一部のエラータイプはフレームにうまく収まるよう合併・削除・分割・追加が必要であった.合併・削除については,東中ら\cite{higashinaka2019improving}の指摘に基づき,概念的に近い「表現エラー」と「用法エラー」を統合して発話レベルの形式のエラーとし,曖昧性あるいは対話システムへの理解を必要とする観点からアノテーションが困難であると指摘されている「対話不成立」,「解析エラー」,「会話のずれ」は取り除いた.また,「データに基づく類型」において「発話無視」とされていたものは,典型的な隣接ペアに応じて「依頼無視」「提案無視」「挨拶無視」に分割した(「質問無視」は既に用意されていた).このプロセスにおいて,応答レベルの「内容」に当てはまるエラーが見つからなかった.しかし,応答の形式は守っているものの,対話破綻が生じるような発話とはどのようなものかという議論から,「期待無視」(次節参照)のエラーを追加した.加えて,誤った情報を含む発話が,常識欠如,矛盾,意図不明などに分散していると考えられたことから,そのような誤りを「誤情報」のエラーとして切り出して,新規に追加した.最後に,「理論に基づく類型」において「大分類-類型名」(例:応答-関係)のように呼ばれていたものを,「データに基づく類型」の呼び方に合わせて類型名のみでそのエラーがわかりやすくなり,かつ他のエラーとの区別がつきやすくなるように名称変更を行った.\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{統合的な類型} \label{sec:integrated}前章での議論に基づいて作成したエラー類型の統合案を\tabref{tbl:integrated}に示す.エラー類型の種類はI1からI17(IはIntegratedの頭文字)までの計17種類となり,個々のエラー類型は対話におけるスコープと,逸脱の種類(形式または内容)の組み合わせでグループ化される.以下では,個々のエラータイプの詳細を対話例(大半は実対話データ,一部作例)を示しながら説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{07table03.tex}\caption{統合的なエラー類型}\label{tbl:integrated}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{発話レベルのエラー}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{形式の逸脱}発話レベルにおける形式に関するエラーは,対話を行っている言語の形式からの逸脱を表す.日本語としての妥当な文字列,文構造をなしていないものがこのカテゴリに当てはまる.\begin{description}\item[(I1)解釈不能:]{発話の意味内容がまったく理解できないような発話.たとえば,意味のない単語の羅列や誰も理解できないスラング,断片的な発話など.\begin{exe}\exWithha(発話をどうにも解釈しようがない)\end{exe}}\item[(I2)文法エラー:]{文を構成する要素の欠落や誤用によって,文意が汲み取れない発話.\begin{exe}\ex熱中症に気をつけか??\end{exe}}\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{内容の逸脱}単語の意味的組合せの誤用により,内容が汲み取れない,あるいは明らかに事実と異なる意味内容になっているもの.\begin{description}\itemsep=0mm\item[(I3)用法エラー:]{文法的には問題はないが,発話の中で一般に用いられないような言葉の用法が用いられている発話.たとえば,単語や表現の組み合わせが意味をなさなかったり,ある述語について相応しくない主語が用いられていたりするなど.\begin{exe}\ex小説は日露戦争がなるのです(小説は日露戦争がなるものではない)\end{exe}}\item[(I4)誤情報:]{明らかに事実とは異なる内容が含まれている発話.\begin{exe}\exビートルズのボブディランの新しいアルバムが出ましたね(ボブディランはビートルズのメンバーではない)\end{exe}}\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{応答レベルのエラー}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{形式の逸脱}応答レベルの形式は,DialogActMarkupinSeveralLayers(DAMSL)\footnote{\url{https://www.cs.rochester.edu/research/cisd/resources/damsl/RevisedManual/}}における機能の対応に基づいている.DAMSLでは発話の持つ前向き機能(forwardlookingfunction)を,発話後の対話相手の信念や行為に影響を及ぼすものと捉え,後ろ向き機能(backwardlookingfunction)をそれ以前の前向き行為に関連する機能と捉えている.この考えに基づき,直前のユーザ発話が質問や提案などの前向き機能を持つとき,システム発話がそれに対応する後向き機能を有していないものを応答レベルにおける形式の逸脱と位置づけた.\begin{description}\itemsep=0mm\item[(I5):質問無視:]{ユーザの質問を無視している発話.具体的には,質問で聞かれている回答種別(たとえば,命題の真偽,確認へのYES/NO,同意/不同意,選択肢からの選択,5W1H型の質問,人名,地名,理由,方法など)とタイプが合った内容を含まない返答をしている発話\footnote{以降の対話例において,Uはユーザの発話,Sはシステムの発話を表す.}.\begin{exe}\ex\begin{xlist}\exi{U:}何を食べているのですか?\exi{S:}スポーツは好きですか\end{xlist}\ex\begin{xlist}\exi{U:}横須賀は何県ですか?\exi{S:}横浜から横須賀に引っ越すのです\end{xlist}\end{exe}}\item[(I6):依頼無視:]{相手からの「~して下さい」のような依頼に対し,適切な後向き機能を有しない発話.\begin{exe}\ex\begin{xlist}\exi{U:}今度買ってきて下さい\exi{S:}やはり暑い季節に合わせたコスチュームになっているのでしょうかね?\end{xlist}\end{exe}}\item[(I7):提案無視:]{相手からの「~しましょう」という提案に対し,適切な後向き機能を有しない発話.\begin{exe}\ex\begin{xlist}\exi{U:}趣味の話をしましょう\exi{S:}裏磐梯と台湾なら,どちらが楽しいでしょうか?\end{xlist}\end{exe}}\item[(I8):挨拶無視:]{相手からの挨拶に対し,適切な後向き機能を有しない発話.\begin{exe}\ex\begin{xlist}\exi{U:}そろそろ帰りますね.\exi{S:}こんにちは.(別れる挨拶に対して,会った時の挨拶をしている)\end{xlist}\end{exe}}\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{内容の逸脱}直前のユーザ発話に対する応答の形式は合っているが,期待されている内容が含まれていないもの.\begin{description}\itemsep=0mm\item[(I9):期待無視:]{前向き機能を有する相手からの発話に対し,適切な後向き機能を有する発話としての形式は満たしているが,期待されている内容を含まない応答.あまりに情報がなかったり遠回しだったりする応答で,内容が妥当ではないと考えられる応答.\begin{exe}\ex\begin{xlist}\exi{U:}好きなスイーツありますか?\exi{S:}あります.(肯定的な返答の場合には,そのスイーツの名前を具体的に答えることが期待されている)\end{xlist}\end{exe}この例は一見妥当な応答に見えるが,協調的に対話を進めている文脈ではこのような応答が不適切となることがある.}\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文脈レベルのエラー}ここでは,文脈レベルの形式を話題の関連性維持と定義した.すなわち,話題からはずれる発話や意図の不明確性・必要な要素の欠落などによって現在の話題を継続することが難しい状況を文脈レベルの形式からの逸脱と捉える.それに対して,話題は維持されているものの,矛盾や不要な繰り返しを含む発話を内容の逸脱とした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{形式の逸脱}\label{sec:context-form}\begin{description}\itemsep=0mm\item[(I10):発話意図不明確:]{発話そのものは理解でき,かつ応答内容と話題との関係も分かるが,その内容をなぜ発話したのかという意図が明示されず,かつ文脈からも意図が分からない発話.関係性を表す要素(たとえば,接続詞や状況説明)が不足しているなど.\begin{exe}\ex\begin{xlist}\exi{U:}こんにちは.私はイチゴが好きです.あなたは?\exi{S:}私はりんごが好きです\exi{U:}赤い色っていいですよね.\exi{S:}イチゴは美味しいですね(りんごが美味しいと言っていたのに,なぜ突然イチゴに言及するのか意図が不明確)\end{xlist}\end{exe}}\item[(I11):話題遷移エラー:]{直前に相手が話していた話題と異なる話題へ説明なく遷移させる発話.ユーザの新しい話題に遷移する発話に対して,理由なく元の話題に戻す発話も含む.なお,話題とは何について話しているかということを表す.話題の粒度は,食事,ファッション,スポーツ,美容,健康,旅行などのカテゴリで表現できる程度のものとする.\begin{exe}\ex\begin{xlist}\exi{S:}おー.クラリネットはいいですね.\exi{U:}難しかったですが,とても楽しかったです\exi{S:}へえ~そうなんですか.何のパンが一番好きですか?\end{xlist}\end{exe}なお,隣接する発話が明確な話題を持たない場合,このエラータイプは適用されない.また,前の発話がこれまでの話題の終端となり得る後ろ向き機能を持つ発話であるとき,当該発話によって話題の遷移が発生しても,このエラータイプは適用されない.たとえば,以下は話題遷移エラーには当てはまらない.\begin{exe}\ex\begin{xlist}\exi{S:}あなたはテレビでオリピックの放送を見ますか?\exi{U:}はい,見たいですね.\exi{S:}こんな日は鍋料理が食べたいですね.\end{xlist}\end{exe}}\item[(I12):情報不足:]{発話に含むべき要素(主として修飾句,および主語や目的語などの格要素)が含まれていないために意味(何を言っているか)が理解できない,もしくは,理解しづらい発話.\begin{exe}\ex\begin{xlist}\exi{U:}おはよう.最近はすずしいですよ.\exi{S:}好きですよ(何が好きかわからない)\end{xlist}\ex\begin{xlist}\exi{U:}それはちょっと高すぎるでしょ?\exi{S:}温度差がひどいですよねえ(何の「温度差」なのか分からない.)\end{xlist}\end{exe}}\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{内容の逸脱}これまでの文脈で基盤化された内容に言及し,それらに対して矛盾する発話や不要な繰り返しを行っている発話.\begin{description}\itemsep=0mm\item[(I13):自己矛盾:]{これまでに話者自身が発話した内容と矛盾している内容を含む発話.ただし,矛盾とは平叙文・質問文に関わらず,発話内容に含まれる内容の辻褄が合わないことを指す.\begin{exe}\ex\begin{xlist}\exi{U:}どこの出身ですか?\exi{S:}愛知の知多ですよ.知多半島にあります.\exi{U:}愛知ですかぁ.いいところですね.\exi{S:}それから名古屋で就職が決まったことですね.\exi{U:}どんな仕事をするんですか?\exi{S:}専業主婦ですよ.(就職が決まったという内容と矛盾する)\end{xlist}\end{exe}}\item[(I14):相手の発話との矛盾:]{これまでに相手が発話した内容と矛盾している内容を含む発話(矛盾の定義については,自己矛盾の場合と同様).また,相手が言った内容について,それを否定するような質問も含む.\begin{exe}\ex\begin{xlist}\exi{S:}セリーグとパリーグはどちらが好きですか?\exi{U:}セリーグが好きです.\exi{S:}セリーグは嫌いなんですね.\end{xlist}\end{exe}}\item[(I15):繰り返し:]{これまでに自身が発話した文字列をただ繰り返しただけのような発話.なお,単語を言い換えただけのような発話も繰り返しに含む.また,執拗に聞き直すような発話の繰り返しも含む.\begin{exe}\ex\begin{xlist}\exi{S:}映画が楽しみです\exi{U:}そうですか\exi{S:}あはい\exi{U:}他に好きなものは?\exi{S:}映画が楽しみですね\end{xlist}\end{exe}}\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{社会レベルのエラー}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{形式の逸脱}言葉使いが社会の儀礼・礼節に反しユーザを不快にする,あるいは差別的で悪意がある発話.\begin{description}\itemsep=0mm\item[(I16):社会性欠如:]{相手,もしくは,特定の社会集団に対して気遣わないような失礼な言い方や言い回しが用いられている発話.\begin{exe}\ex\begin{xlist}\exi{U:}このまえ○○(国名が入る)に行ってきました\exi{S:}○○の人って頭悪いですよね\end{xlist}\end{exe}}\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{内容の逸脱}内容が社会通念/知識と反するにもかかわらず,根拠もなく断定あるいは肯定している発話.\begin{description}\itemsep=0mm\item[(I17):常識欠如:]{常識とは異なる内容が発話に含まれている発話.一般的な事実とは異なることを無根拠に主張したり,ある社会集団において大多数に信じられている事柄に対して逆の意見を述べたりするなど.\begin{exe}\ex\begin{xlist}\exi{U:}熱中症の話をしたいの?\exi{S:}熱中症はいいですよねー\end{xlist}\end{exe}}\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{エラーの独立性・排他性}このようにして定めた類型において,その成り立ちからエラーの独立性・排他性を定義しておくべきものがある.まず,発話レベルで破綻している発話に対しては,その該当するエラー以外のエラーは生じないものとする.「解釈不能」は日本語かどうかもわからないということであり,「文法エラー」「用法エラー」「誤情報」は内容が解釈できないということなので,それによって以降のレベルでの対話の形式や内容が満たされているかどうかの判断はできないと考える.また,文脈レベル・形式の枠にある「発話意図不明確」と「話題遷移エラー」,「発話意図不明確」と「情報不足」は同時にはエラーとなり得ず排他的に扱われる.これは\ref{sec:context-form}節で述べたように,「発話意図不明確」が話題に追随できていることを前提としているのに対して,「話題遷移エラー」は不自然に話題が遷移している,「情報不足」は話題との関係が不明という前提があり,定義からこれらは両立しない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{評価} \label{sec:evaluation}統合的な類型を用いてエラータイプのアノテーションを行い,アノテータ間の一致率を評価した.比較のため,「理論に基づく類型」と「データに基づく類型」についても,同じデータ・同じアノテータで評価を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{手順}\label{sec:procedure}エラータイプのアノテーションにあたり,\ref{sec:integrated}節の定義・例示に加えて,それぞれのエラーの背景や注意点などを加えたマニュアルを作成した\footnote{\url{https://github.com/ryuichiro-higashinaka/taxonomy-of-errors}}.また,アノテーション作業中の入力ミスをなくすために,表計算ソフトで入力が行えるワークシートとその作業マニュアルを別途用意した.\rev{表計算ソフト上では排他性について処理をあえて行わなかった.これは,アノテータにマニュアルを正確に理解してもらえているかを確認するためである.排他性については,アノテーション後に著者でチェックし,排他条件を満たさないものについては修正を依頼した.}アノテーション対象のデータは,対話破綻検出チャレンジで用いられたDBDCおよびDBDC2のデータ\cite{higashinaka:lrec2016,higashinaka2017overview}\footnote{\url{https://dbd-challenge.github.io/dbdc3/datasets}}である.このデータにおける対話はDCM\cite{docomo},DIT\cite{tsukahara:paclic2015},IRS\cite{ritter2011data}の3種類の日本語雑談対話システムとユーザとのテキストチャットによって行われた.データ中のすべてのシステム発話に対して,30名のアノテータによって破綻度合いのラベル(B(breakdown):明らかな破綻,PB(possiblebreakdown):違和感あり,NB(notabreakdown):破綻ではない)が付けられている.今回の評価実験では,これらのうち,半数(15名)以上のアノテータがBまたはPBと付けた発話を破綻発話と認定し,それらに対してエラー類型のアノテーションを行った.データセットは計400対話からなる.このデータセットを漸進的な評価・改良に用いるために各80対話からなる5つのデータセットAからEに分割した.\rev{結果として,データセットA,B,Cを用いることで統合案を順次改良し(具体的には,判定が割れた事例を分析し,より良い類型にするために,混同行列を作成し,混同が多い類型の組み合わせについて類型の改訂を行う等)},データセットDで最終的な評価を行った.データセットEは将来の改良・評価のため現時点では未使用である.評価に用いたデータセットDには599個の破綻発話があり,これらをエラー類型アノテーションの対象とした.アノテータは,その属性に基づいて2グループに分割された.1つのグループは言語資源作成タスクに精通した専門作業者2名からなり,もうひとつのグループはクラウドワーカー10名(20代から50代の女性6名男性4名,クラウドソーシングサービス会社\footnote{\url{https://www.lancers.jp/}}による認定ワーカー)からなる.クラウドワーカーを評価に加えた理由は,今回提案するエラー類型が適切に概念化され非専門家にも容易に理解可能なものであることを検証するためである.すべてのアノテータは統合的な類型,および,「理論に基づく類型」と「データに基づく類型」のマルチラベルアノテーションを行った.「理論に基づく類型」と「データに基づく類型」については,先行研究\cite{higashinaka2015towards,higashinaka2019improving}においてシングルラベルアノテーションが実施されているが,\ref{subsec:integration}節で述べた通り,ひとつの発話が複数のエラーを含みうることからマルチラベルアノテーションを実施した.なお,「データに基づく類型」については,\ref{subsec:integration}節で述べた東中らの考察\cite{higashinaka2019improving}と同様の根拠に基づき,「対話不成立」,「解析エラー」,「会話のずれ」のラベルを取り除き,「表現エラー」と「用法エラー」のラベルを統合した.その結果,「理論に基づく類型」では\tabref{tbl:bottom-up}に示した16種類,「データに基づく類型」では13種類のエラータイプでアノテーションが行われた.アノテータは,それぞれのエラータイプの定義と事例が記述されたマニュアルに従い,表計算ソフト上でアノテーションを実施した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アノテーション一致の評価尺度}我々はアノテーション一致の評価尺度として,Fleissの$\kappa$値\cite{fleiss1973equivalence}を改良して用いた.重み付きのCohenの$\kappa$値を用いている先行研究\rev{\cite{rosenberg-binkowski-2004-augmenting,ravenscroft2016multi}}を参考に,重み付きFleissの$\kappa$値を定義した.まず,重み付きのアノテータ間一致率$P_a$を,マルチラベルアノテーションを考慮して以下のように定義した.\begin{equation}P_a=\frac{1}{N}\sum_{n=1}^{N}\frac{\sum_{c=1}^{C}\sum_{(l,l')}w_{ncl}w_{ncl'}}{\sum_{c=1}^{C}\sum_{(l,l')}({w_{cnl}}^2+{w_{cnl'}}^2)/2},\end{equation}ここで,$w_{ncl}$は対象発話番号$n$にアノテータ$l$がエラータイプ$c$を割り当てたときの重みである.本来この重みはアノテータのマルチラベリングの頻度やエラータイプの出現頻度,さらにはアノテータが複数ラベルの重みを自ら割り当てた際の値などを反映させるべきであるが,計算が複雑になるため今回は対象発話番号$n$にアノテータ$l$が付けたラベルの個数の逆数とした.また,$N$はアノテーション対象発話の総数,$C$はエラータイプの種類数で,$\sum_{(l,l')}$はすべてのアノテータの組に関する和を示している.この定義より,重み付きFleissの$\kappa$値は$\kappa=(P_a-P_{\epsilon})/(1-P_{\epsilon})$で計算される.ここで,$P_{\epsilon}$は,\begin{equation}P_{\epsilon}=\sum_{c=1}^{C}\left(\frac{1}{NL}\sum_{n=1}^{N}\sum_{l=1}^{L}w_{ncl}\right)^2,\end{equation}であり,$L$はアノテータ数である.この重み付き一致率と,通常のFleissの$\kappa$値は,重みが1のときに同じ式となる.\rev{本$\kappa$値は,Fleissの$\kappa$値を,マルチラベルアノテーションにおける一致率を評価できるように独自に拡張したものであり,我々の知る限り,マルチラベルアノテーションにおける$\kappa$値の3人以上の場合への拡張についての文献は他に見られない.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{結果}実験の結果得られた重み付きFleissの$\kappa$値を\tabref{tbl:kappa}に示す.統合的な類型の一致率は専門作業者間で\rev{0.567},クラウドワーカー間で0.488であり,「理論に基づく類型」や「データに基づく類型」と比べて高い値となっている.このことから,提案類型は安定したアノテーションが可能であり,有効な類型であるといえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{07table04.tex}\caption{重み付きFleissの$\kappa$値}\label{tbl:kappa}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\rev{「理論に基づく類型」と「データに基づく類型」では専門作業者のほうが$\kappa$値が低く,提案類型では逆になっている理由は,類型の定義の曖昧性によるものではないかと考えている.具体的には,「理論に基づく類型」と「データに基づく類型」における類型の定義は,提案類型に至る過程のものであり,曖昧性があったと考えられる.一般に専門作業者は自身の理解や経験に基づく文脈や用法の細かな違いも踏まえた広範な判断基準に従って厳密にアノテーションを行うが,各自の定義がずれていれば,作業が厳密な分だけ$\kappa$値が低くなる.一方,クラウドワーカーの場合,専門作業者ほどの厳密さを持たないため,このような$\kappa$値の低下は起きづらい.今回の提案類型では,エラーの定義が明確化されたため,定義のずれが解消され,専門作業者については$\kappa$値が高まり,クラウドワーカーの値を上回ったと考えられる.}\rev{なお,今回アノテータには,判断が難しい,あるいは不可能であると思った場合,最も当て嵌まると思われるものを選択しつつ,その旨をコメントとして残すように依頼していた.今回そのようなコメントを残したアノテータはクラウドワーカーにはおらず,専門作業者からのコメントも1件(「該当するものがない」)のみであった.このことから,今回の類型が,起こりうる破綻のパターンを十分カバーしたものであると考えることができる.}発話毎の一致割合について,クラウドワーカーによるアノテーション結果において5名(すなわち半数)以上が一致している発話の割合を調べた.統合的な類型では,全599発話のうち,507発話で半数以上一致となり,そうならなかった発話は92発話であった.これに対して「理論に基づく類型」のアノテーションでは,全599発話のうち,126発話が半数以上一致,そうならなかった発話が473発話となった.この473発話のなかで,396発話は統合的な類型で半数以上一致となった.統合的な類型による改善が多く見られた事例は,応答-不理解および応答-意図不明が(I5)質問無視に集約された事例,スコープの決定がアノテーションが分かれる要因となった,応答-無関係と文脈-無関係話題が(I10)発話意図不明確に集約された事例などである.さらに,(I4)誤情報カテゴリの導入によって,応答-無関係,文脈-関連性不明,環境-一般常識欠如に分かれていたアノテーションが集約される事例が見られた.「データに基づく類型」のアノテーションでは,全599発話のうち,347発話が半数以上一致,そうならなかった発話が252発話となった.この252発話のなかで,193発話は統合的な類型で半数以上一致となった.「理論に基づく類型」の場合と同様に,(I4)誤情報カテゴリの導入は効果的であった.また,意図不明や話題遷移エラーが(I10)発話意図不明確に集約された.統合的な類型のクラウドワーカーによるアノテーション結果から計算した混同行列を\figref{fig:confusion_matrix_crowdworkers}に示す.混同行列の各要素は以下の式によって求めた.\pagebreak\begin{equation}m_{cc'}=\sum_{(l,l')}\sum_{n=1}^{N}w_{ncl}w_{nc'l'}/\binom{L}{2},\end{equation}これはあるアノテータがラベル$c$と付けた事例に対して,別のアノテータがラベル$c'$と付けた回数の重み付き平均値を表す.対角要素の値から見て相対的に大きな値となっている非対角要素は,混同が生じていると解釈することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{29-2ia7f1.pdf}\end{center}\hangcaption{統合的な類型の混同行列.I1--I17は\tabref{tbl:integrated}で定義されたエラータイプを表している.なお,対角成分より上の部分は,行列が対称であることから省略している.}\label{fig:confusion_matrix_crowdworkers}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%これによると,(i)(I5)質問無視と(I10)発話意図不明確,(ii)(I10)発話意図不明確と(I11)話題遷移エラー,(iii)(I10)発話意図不明確と(I12)情報不足との間で混同が見られる.(i)の混同パターンについては,(I5)質問無視と(I10)発話意図不明確が同じ発話に対して同時に付けられている事例も多かったことから,質問への回答になっていない発話の解釈が難しく,なぜ適切な応答ができなかったのかわからないという判断につながったのではないかと考えられる.(ii)の混同パターンについては,「発話における話題」の捉え方に個人差があったと考えられる.典型的な対話例を以下に示す.\begin{exe}\ex\begin{xlist}\exi{U:}死に慣れるのは怖いね\exi{S:}えっ!!??テトラポットから落ちたんですか?\exi{U:}落ちていません\exi{S:}スイカは木から生えていないですよ.\end{xlist}\end{exe}この対話例の最後のシステム発話では,システムは唐突にスイカについて話し始めている.スイカという単語に着目したアノテータは無理な話題の遷移を表す(I11)話題遷移エラーと捉えた一方,「死」と「木が生える」という言葉に関連性を感じたアノテータは発話の意図がわからないことを表す(I10)発話意図不明確と捉えたと考えられる.(iii)の混同パターンについては,短いシステム発話に対して頻繁に観測されたことから,対話文脈の情報をどれほど補って解釈できるかということについての個人差によって生じていると考えられる.\begin{exe}\ex\begin{xlist}\exi{U:}国内と海外ではどちらが好きですか.\exi{S:}旅行は高いですね\exi{U:}プランによっては安く行けますよ.\exi{S:}プランは良いですね\end{xlist}\end{exe}この対話例の最後のシステム発話では,プランの何がどのように良いのかが説明されていない.この発話に対して文脈によって補えきれない要素が特定できたアノテータが(I12)情報不足,発話をまったく文脈に位置づけられないアノテータが(I10)発話意図不明確と判断したものと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{エラータイプの分布}統合的な類型におけるエラータイプの分布を\tabref{table:ana}に示す.分布を計算する際に用いたデータは,前節で用いた3種類の対話システム(DCM,DIT,IRS)との対話データと,今回分析したデータには含まれていない2つの新しい対話システムHobbyist(HBY)\cite{hobbyist,sugiyama2021empirical}\footnote{\url{https://github.com/nttcslab/japanese-dialog-transformers}},ILYS-AOBA(ILA)\cite{ilys-aoba}\footnote{\url{https://github.com/cl-tohoku/ILYS-aoba-chatbot}}との対話データである.これらのデータに対して,2名の専門作業者が,対話破綻検出,破綻類型ラベリングの順でアノテーションを行った.新しい対話システムの対話データは対話システムライブコンペティション3\cite{livecompe3jp}の予選で収集された10対話\footnote{\url{https://dialog-system-live-competition.github.io/dslc3/data.html}}を用いた.HBYは日本語版BlenderBot\cite{roller2020recipes}である.Transformerencoder-decoderモデルを採用し,Twitterから得られた約21億個の発話対で事前学習を行い,日本語版のPersonaChat\cite{zhang2018persona}やEmpatheticDialogues\cite{rashkin-etal-2019-towards}のデータに加え,内製のチャットコーパスを用いてfine-tuningを行っている.ILAはHBYに近いアーキテクチャを採用しているが,学習データはHBYと比べて小規模である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{07table05.tex}\caption{エラータイプの分布.頻度上位3つまでを太字で示している.}\label{table:ana}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%分布を見ると,DCM,DIT,IRSの3つのシステムでは,(I5)質問無視と(I10)発話意図不明確が多かったが,近年のニューラルネットワークベースのシステムであるHBYとILAでは(I4)誤情報と(I13)自己矛盾が比較的多いことがわかる.これは,近年のシステムでは主要な問題点が,対話を形式的に成立させるということから,話されている内容やパーソナリティの一貫性を維持することに移っていることを示しているといえる.\rev{なお,DCM,IRSでは(I4)誤情報や(I13)自己矛盾が,DITでは(I13)自己矛盾が比較的少ない傾向にある.誤情報は近年の生成型の手法によく見られるエラー(いわゆるハルシネーション\cite{maynez-etal-2020-faithfulness})であり,矛盾は,話がある程度つながるようになったからこそ顕在化するエラーである.\tabref{table:ana}に示す通り,DCM,DIT,IRSの全体傾向としては,(I5)質問無視や(I10)発話意図不明確が多い.質問無視や発話意図不明確が多いと話が進まず,文脈的なエラーが現れにくいため,DCM,IRSでは(I4)誤情報や(I13)自己矛盾が,DITでは(I13)自己矛盾が比較的少なくなっていると考えられる.}\rev{杉山らの文献\cite{hobbyist}では,HBYの不自然な発話として「矛盾,話題の飛び,キーワード関係誤り,事実誤認」が挙げられており,これは本類型のI13(矛盾),I10(話題の飛び),I4(キーワード関係誤り,事実誤認)にあたり,いずれも他の類型と比較して高い頻度で出現している.また,藤原らの文献\cite{ilys-aoba}では,ILAで評価が低くなった発話として「文脈と矛盾する応答」が挙げられているが,これは本類型の(I13)自己矛盾にあたり,我々の分析でも,他の類型と比較して頻度が高くなっている.この分析を通じて,提案類型を定める上で考察の対象としていない雑談対話システムについても,ある程度エラーの傾向を捉えることができていることがわかる.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} \label{sec:summary}本稿では,雑談対話システムにおけるエラーの新しい分類法を提案した.これまでに提案された「理論に基づく類型」と「データに基づく類型」を統合し,統合的な類型を作成した.統合的な類型を重み付きFleissの$\kappa$値で評価したところ,提案類型は既存のものよりも優れていることがわかった.いくつかのエラータイプの間にはまだ混同が見られるものの,$\kappa$値はアノテーションを信頼するのに十分な高さを示している.今後の課題として,英語など他の言語へも類型の適用を広めたい.本類型の考案は日本語を対象に行ったが,類型化の枠組みは言語に依存していない.%\rev{しかしながら,実際に英語圏の対話システムに対してどのような類型が得られるかは明らかではない.日本語のより多様な対話システムでの破綻に対して類型をより洗練させながら,他の言語に対しても一般性があるかを確認していきたい.}他の可能性としては,対話モデルの頑健性を高めるunlikelihoodtraining\cite{li2019dont}における人工的なエラー生成のガイドラインとして用いることが考えられる.さらに提案類型はシステムによるエラーを減らすという目的以外にも,対話の破綻が起きた後に回復する方法の検討に用いることができる\cite{higashinaka2020overview}.修復\rev{\cite{Purver2018}},明確化要求\rev{\cite{liu-etal-2014-detecting,stoyanchev-etal-2013-modelling,Rodrguez2004FormIA}},ユーザの不満検出\cite{see-manning-2021-understanding}など,ミスコミュニケーション時に人々がどのように反応するかを理解するための様々な研究が行われており,我々は本類型を,対話破綻を中心とした様々な対話現象の対応を考えるための指針として,利用していけるのではないかと考えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文の一部は,The22ndAnnualMeetingoftheSpecialInterestGrouponDiscourseandDialogue(SIGDIAL2021)で発表したものです\cite{higashinaka2021taxonomy}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{07refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{東中竜一郎}{%2001年慶應義塾大学大学院政策・メディア研究科修士課程,2008年博士課程修了.2001年日本電信電話株式会社入社.2020年より,名古屋大学大学院情報学研究科教授.NTT人間情報研究所・NTTコミュニケーション科学基礎研究所客員上席特別研究員.慶應義塾大学環境情報学部特別招聘教授.2004年から2006年まで英国シェフィールド大学客員研究員.質問応答システム・対話システムの研究に従事.人工知能学会,言語処理学会,情報処理学会,電子情報通学会各会員.博士(学術).}\bioauthor{荒木雅弘}{%1988年京都大学工学部卒業.1993年京都大学大学院工学研究科博士課程研究指導認定退学.京都大学工学部助手,同総合情報メディアセンター講師を経て,現在京都工芸繊維大学大学院工芸科学研究科准教授.対話システムの開発方法論の研究に従事.ACL,ISCA,情報処理学会等各会員.博士(工学).}\bioauthor{塚原裕史}{%1996年中央大学大学院理工学研究科物理学専攻博士前期課程修了.1999年博士後期課程修了.2000年日立ソフトウェアエンジニアリング株式会社入社.2005年より,株式会社デンソーアイティーラボラトリ.人工知能を応用した車載情報システム,音声対話を利用した車載機器向けユーザインタフェースの研究開発に従事.日本物理学会,人工知能学会,言語処理学会,情報処理学会各会員.博士(理学).}\bioauthor{水上雅博}{%2012年同志社大学理工学部卒業.2014年奈良先端科学技術大学院大学情報科学研究科修士課程修了.2017年同研究科博士課程修了.同年,日本電信電話株式会社入社.現在,NTTコミュニケーション科学基礎研究所に所属.自然言語処理及び対話システムに関する研究に従事.博士(工学).}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V09N01-04
\section{はじめに} \label{sec:intro}これまで,機械学習などの分野を中心として,複数のモデル・システムの出力を混合する手法がいくつか提案され,その効果が報告されている.それらの成果を背景として,近年,統計的手法に基づく自然言語処理においても,複数のモデル・システムの出力を混合する手法を様々な問題に適用することが試みられ,品詞付け~\cite{vanHalteren98a,Brill98a,Abney99a},名詞句等の句のまとめ上げ~\cite{Sang00a,TKudo00ajx},構文解析(前置詞句付加含む)~\cite{Henderson99a,Abney99a,KoInui00aj,Henderson00a}などへの適用事例が報告されている.一般に,複数のモデル・システムの出力を混合することの利点は,単一のモデル・システムでは,全ての現象に対して網羅的かつ高精度に対処できない場合でも,個々のモデル・システムがそれぞれ得意とする部分を選択的に組み合わせることで,全体として網羅的かつ高精度なモデル・システムを実現できるという点にある.本論文では,日本語固有表現抽出の問題に対して,複数のモデルの出力を混合する手法を適用し,個々の固有表現抽出モデルがそれぞれ得意とする部分を選択的に組み合わせることで,全体として網羅的かつ高精度なモデルを実現し,その効果を実験的に検証する.一般に,日本語固有表現抽出においては,前処理として形態素解析を行ない,形態素解析結果の形態素列に対して,人手で構築されたパターンマッチング規則や統計的学習によって得られた固有表現抽出規則を適用することにより,固有表現が抽出される~\cite{IREX99aj}.特に,統計的学習によって得られた固有表現抽出規則を用いる場合には,形態素解析結果の形態素列に対して,一つもしくは複数の形態素をまとめ上げる処理を行ない,同時にまとめ上げられた形態素列がどの種類の固有表現を構成しているかを同定するという手順が一般的である~\cite{Sekine98a,Borthwick99aj,Uchimoto00aj,Sassano00a,Sassano00bjx,Yamada01ajx}.このとき,実際のまとめ上げの処理は,現在注目している位置にある形態素およびその周囲の形態素の語彙・品詞・文字種などの属性を考慮しながら,現在位置の形態素が固有表現の一部となりうるかどうかを判定することの組合わせによって行なわれる.一方,一般に,複数のモデル・システムの出力を混合する過程は,大きく以下の二つの部分に分けて考えることができる.\begin{enumerate}\item\label{enum:sub1}できるだけ振る舞いの異なる複数のモデル・システムを用意する.(通常,振る舞いの酷似した複数のモデル・システムを用意しても,複数のモデル・システムの出力を混合することによる精度向上は望めないことが予測される.)\item\label{enum:sub2}用意された複数のモデル・システムの出力を混合する方式を選択・設計し,必要であれば学習等を行ない,与えられた現象に対して,用意された複数のモデル・システムの出力を混合することを実現する.\end{enumerate}複数の日本語固有表現抽出モデルの出力を混合するにあたっても,これらの(\ref{enum:sub1})および(\ref{enum:sub2})の過程をどう実現するかを決める必要がある.本論文では,まず,(\ref{enum:sub1})については,統計的学習を用いる固有表現抽出モデルをとりあげ,まとめ上げの処理を行なう際に,現在位置の周囲の形態素を何個まで考慮するかを区別することにより,振る舞いの異なる複数のモデルを学習する.そして,複数のモデルの振る舞いの違いを調査し,なるべく振る舞いが異なり,かつ,適度な性能を保った複数のモデルの混合を行なう.特に,これまでの研究事例~\cite{Sekine98a,Borthwick99aj,Uchimoto00aj,Yamada01ajx}でやられたように,現在位置の形態素がどれだけの長さの固有表現を構成するのかを全く考慮せずに,常に現在位置の形態素の前後二形態素(または一形態素)ずつまでを考慮して学習を行なうモデル(固定長モデル,\ref{subsubsec:3gram}~節参照)だけではなく,現在位置の形態素が,いくつの形態素から構成される固有表現の一部であるかを考慮して学習を行なうモデル(可変長モデル~\cite{Sassano00a,Sassano00bjx},\ref{subsubsec:vgram}~節参照)も用いて複数モデルの出力の混合を行なう.次に,(\ref{enum:sub2})については,重み付多数決やモデルの切り替えなど,これまで自然言語処理の問題によく適用されてきた混合手法を原理的に包含し得る方法として,stacking法~\cite{Wolpert92a}と呼ばれる方法を用いる.stacking法とは,何らかの学習を用いた複数のシステム・モデルの出力(および訓練データそのもの)を入力とする第二段の学習器を用いて,複数のシステム・モデルの出力の混合を行なう規則を学習するという混合法である.本論文では,具体的には,複数のモデルによる固有表現抽出結果,およびそれぞれの固有表現がどのモデルにより抽出されたか,固有表現のタイプ,固有表現を構成する形態素の数と品詞などを素性として,各固有表現が正しいか誤っているかを判定する第二段の判定規則を学習し,この正誤判定規則を用いることにより複数モデルの出力の混合を行なう.以下では,まず,\ref{sec:JNE}~節で,本論文の実験で使用したIREX(InformationRetrievalandExtractionExercise)ワークショップ\cite{IREX99aj}の日本語固有表現抽出タスクの固有表現データについて簡単に説明する.次に,\ref{sec:NEchunk}~節では,個々の固有表現抽出モデルのベースとなる統計的固有表現抽出モデルについて述べる.本論文では,統計的固有表現抽出モデルとして,最大エントロピー法を用いた日本語固有表現抽出モデル~\cite{Borthwick99aj,Uchimoto00aj}を採用する.最大エントロピー法は,自然言語処理の様々な問題に適用されその性能が実証されているが,日本語固有表現抽出においても高い性能を示しており,IREXワークショップの日本語固有表現抽出タスクにおいても,統計的手法に基づくシステムの中で最も高い成績を達成している~\cite{Uchimoto00aj}.\ref{sec:combi}~節では,複数のモデルの出力の正誤判別を行なう規則を学習することにより,複数モデル出力の混合を行なう手法を説明する.本論文では,正誤判別規則の学習モデルとしては,決定リスト学習を用い,その性能を実験的に評価する.以上の手法を用いて,\ref{sec:experi}~節で,複数の固有表現抽出結果の混合法の実験的評価を行ない,提案手法の有効性を示す.\cite{Uchimoto00aj}にも示されているように,固定長モデルに基づく単一の日本語固有表現抽出モデルの場合は,現在位置の形態素の前後二形態素ずつを考慮して学習を行なう場合が最も性能がよい.また,\ref{sec:experi}~節の結果からわかるように,この,常に前後二形態素ずつを考慮する固定長モデルの性能は,可変長モデルに基づく単一のモデルの性能をも上回っている(なお,\cite{Sassano00bjx}では,最大エントロピー法を学習モデルとして可変長モデルを用いた場合には,常に前後二形態素ずつを考慮する固定長モデルよりも高い性能が得られると報告しているが,この実験結果には誤りがあり,本論文で示す実験結果の方が正しい.).ところが,可変長モデルと,現在位置の形態素の前後二形態素ずつを考慮する固定長モデルとを比較すると,モデルが出力する固有表現の分布がある程度異なっており,実際,これらの二つのモデルの出力を用いて複数モデル出力の混合を行なうと,個々のモデルを上回る性能が達成された.\ref{sec:experi}~節では,これらの実験について詳細に述べ,本論文で提案する混合法が有効であることを示す. \section{日本語固有表現抽出} \label{sec:JNE}固有表現抽出は,情報検索・抽出,機械翻訳,自然言語理解など自然言語処理の応用的局面における基礎技術として重要な技術の一つである.英語においては,特に米国において,MUC(MessageUnderstandingConference,例えば,MUC-7~\cite{MUC98aNLP})コンテストにおける課題の一つとして固有表現抽出がとりあげられ,集中的に研究が行なわれてきた.また,最近では,日本語においても,MET(MultilingualEntityTask,例えば,MET-1~\cite{Maiorano96a},MET-2~\cite{MUC98aNLP})やIREXワークショップ~\cite{IREX99aj}などのコンテストにおいて,固有表現抽出が課題の一つに取り上げられている.\subsection{IREXワークショップの固有表現抽出タスク}\begin{table}\begin{center}\caption{日本語固有表現の種類およびその頻度}\label{tab:irex_tag}\begin{tabular}{|c||c|c|}\hline&\multicolumn{2}{|c|}{頻度(\%)}\\\cline{2-3}種類&訓練データ&評価データ\\\hlineORGANIZATION&3676(19.7)&361(23.9)\\PERSON&3840(20.6)&338(22.4)\\LOCATION&5463(29.2)&413(27.4)\\ARTIFACT&747(4.0)&48(3.2)\\DATE&3567(19.1)&260(17.2)\\TIME&502(2.7)&54(3.5)\\MONEY&390(2.1)&15(1.0)\\PERCENT&492(2.6)&21(1.4)\\\hline合計&18677&1510\\\hline\end{tabular}\end{center}\end{table}IREXワークショップの固有表現抽出タスクでは,表~\ref{tab:irex_tag}に示す八種類の固有表現の抽出が課題とされた\\\cite{IREX99aj}.表~\ref{tab:irex_tag}には,主催者側から提供された訓練データの主要部分を占めるCRL(郵政省通信総合研究所---現,独立行政法人通信総合研究所)固有表現データ(毎日新聞1,174記事の固有表現をタグ付け),および本試験データのうちの一般ドメインのもの(毎日新聞71記事の固有表現をタグ付け)について,八種類の固有表現数を調査した結果を示す.\subsection{形態素と固有表現の対応パターン}次に,上記のIREXワークショップの固有表現抽出タスクの訓練データを形態素解析システム{\scbreakfast}\cite{Sassano97aj}\footnote{{\scbreakfast}の品詞タグの種類数は約300であり,新聞記事に対しては99.6\%の品詞正解率である.}で形態素解析し,その結果の形態素と固有表現の対応パターンを調査した結果を表~\ref{tab:MnNE}に示す.これからわかるように,半分近くの固有表現については,形態素と固有表現が一対一に対応しないことがわかる.また,そのうち,一つの固有表現が複数の形態素から構成されている場合は90\%近く(7175/(7175+1022)=87.5\%)を占めており,これらの固有表現については,各固有表現の区切り位置はいずれかの形態素の区切り位置と一致している,すなわち,固有表現の開始位置は,先頭の構成要素となる形態素の開始位置と,また,固有表現の終了位置は,末尾の構成要素となる形態素の終了位置と,それぞれ一致する.図~\ref{fig:egMtoNE}にこのような場合の例を示す.また,表~\ref{tab:MnNE}の「その他」の場合の多くは,一つ以上の固有表現が一つの形態素の一部となる場合である.例えば,「訪米」という形態素に対して,その一部である「米」のみがLOCATION(地名)であるという例がこれに相当する.この「その他」の場合の固有表現については,その割合が少なく,また,先行研究\cite{Uchimoto00aj}において,ある程度の割合で抽出できることがわかっているので,本論文における考慮の対象には含めない.\begin{table}\begin{center}\caption{形態素と固有表現の対応パターン}\label{tab:MnNE}\begin{tabular}{|c|c||c|c|}\hline\multicolumn{2}{|c||}{対応パターン}&\multicolumn{2}{|c|}{固有表現タグ頻度(\%)}\\\hline\hline\multicolumn{2}{|c||}{1対1}&\multicolumn{2}{|c|}{10480(56.1)}\\\hline&$n=2$&4557(24.4)&\\\cline{2-3}$n(\geq2)$形態素対1固有表現&$n=3$&1658(8.9)&7175(38.4)\\\cline{2-3}&$n\geq4$&960(5.1)&\\\hline\multicolumn{2}{|c||}{その他}&\multicolumn{2}{|c|}{1022(5.5)}\\\hline\hline\multicolumn{2}{|c||}{合計}&\multicolumn{2}{|c|}{18677}\\\hline\end{tabular}\end{center}\end{table}\begin{figure}\begin{center}{\flushleft\hspace*{2cm}{\bf\framebox{2形態素対1固有表現}}\\}\begin{tabular}{c|cc|c}\multicolumn{1}{c}{}&\multicolumn{2}{c}{\tt<ORGANIZATION>}&\\\cline{2-3}$\cdots$&ロシア&軍&$\cdots$\\\cline{2-3}\multicolumn{3}{c}{}\end{tabular}\begin{tabular}{c|cc|c}\multicolumn{1}{c}{}&\multicolumn{2}{c}{\tt<PERSON>}&\\\cline{2-3}$\cdots$&村山&富市&首相\\$\cdots$\\\cline{2-3}\multicolumn{4}{c}{}\end{tabular}\vspace*{.3cm}{\flushleft\hspace*{2cm}{\bf\framebox{3形態素対1固有表現}}\\}\mbox{\begin{tabular}{c|ccc|c}\multicolumn{1}{c}{}&\multicolumn{3}{c}{\tt<TIME>}&\\\cline{2-4}$\cdots$&午前&九&時&$\cdots$\\\cline{2-4}\multicolumn{5}{c}{}\end{tabular}\begin{tabular}{c|ccc|c}\multicolumn{1}{c}{}&\multicolumn{3}{c}{\tt<ARTIFACT>}&\\\cline{2-4}$\cdots$&北米&自由貿易&協定&$\cdots$\\\cline{2-4}\multicolumn{5}{c}{}\end{tabular}}\end{center}\caption{複数形態素が一つの固有表現に対応する例}\label{fig:egMtoNE}\end{figure} \section{最大エントロピー法を用いた固有表現抽出} \label{sec:NEchunk}本節では,まず,ベースモデルとなる,最大エントロピー法を用いた日本語固有表現抽出の手法~\cite{Borthwick99aj,Uchimoto00aj}を定式化する.\subsection{問題設定}\label{subsec:setting}ここでの固有表現抽出の問題は,固有表現まとめ上げおよび固有表現タイプ分類の問題ととらえることができる.いま,以下に示すような形態素列が与えられているとする.\[\begin{array}{c}\mbox{(左側文脈)}\\\\\\\\\\\\\\mbox{(右側文脈)}\\\cdotsM_{-k}^L\cdotsM_{-1}^L\\M_{0}\\M_{1}^R\cdotsM_{l}^R\cdots\\\uparrow\\\mbox{(現在位置)}\end{array}\]ここで,現在の位置が形態素$M_{0}$のところであるとすると,日本語固有表現まとめ上げおよび固有表現タイプ分類の問題とは,この現在位置の形態素$M_{0}$に,まとめ上げ状態および固有表現タイプ(詳細は\ref{subsec:tagck}~節で述べる)を付与することである.本論文の統計的固有表現抽出においては,訓練データからの教師あり学習により固有表現抽出モデルを学習する.その際には,各固有表現がどの形態素から構成されているかという情報が利用可能で,そのような情報を用いて固有表現抽出モデルを学習する.例えば,以下の例では,現在の位置に相当する形態素$M_{i}^{NE}$が$m$個の形態素からなる固有表現の一部であるという情報が利用可能である.\newpage{\begin{eqnarray}(左側文脈)&\mbox{(固有表現)}&(右側文脈)\nonumber\\\cdotsM_{-k}^L\cdotsM_{-1}^L&M_{1}^{NE}\cdotsM_{i}^{NE}\cdotsM_{m}^{NE}&M_{1}^R\cdotsM_{l}^R\cdots\nonumber\\&\uparrow\\\&\label{eqn:NE-len}\\&\mbox{(現在位置)}\\\&\nonumber\end{eqnarray}}また,次節で述べる最大エントロピー法を用いて固有表現抽出モデルを学習する際には,現在位置および周囲の形態素の素性(\ref{subsec:ftr}~節)を条件として,現在位置の形態素に固有表現まとめ上げ状態およびタイプ(\ref{subsec:tagck}~節)をクラスとして付与するための条件付確率モデルを最大エントロピー法により学習する.なお,通常,学習された確率モデルを適用して,形態素に固有表現まとめ上げ状態および固有表現タイプを付与することにより,固有表現の抽出を行なう場合は,一文全体で,固有表現まとめ上げ状態および固有表現タイプの確率を最大とする固有表現の組合わせを求める必要がある.本論文では,この最適解探索の方法としては,\cite{Uchimoto00aj}のものをそのまま用いている.\subsection{最大エントロピー法}\label{subsec:ME}最大エントロピー法は,文脈を規定する制約を素性として与え,与えられた素性のもとでエントロピーを最大化するという条件によって求められる確率モデルである.確率モデルの学習においてエントロピーを最大化することにより,与えられた制約を満たす最も一様なモデルが学習されるため,データの過疎性に強いという特徴を持つ.ここでは,与えられた訓練集合から,文脈$x(\in{\calX})$においてクラス$y(\in{\calY})$を出力するプロセスの確率的振舞い,すなわち条件付確率分布$p(y\midx)$を最大エントロピー法に基づいて推定する方法の概略を説明する.まず,訓練集合中の事象$(x,y)$の観測値を大量に集め,$freq(x,y)$を事象$(x,y)$の訓練集合中での生起頻度として,訓練集合中の経験的確率分布$\tilde{p}(x,y)$を以下のように推定する.\begin{eqnarray*}\tilde{p}(x,y)&\equiv&\frac{freq(x,y)}{\displaystyle\sum_{x,y}freq(x,y)}\end{eqnarray*}次に,訓練集合中のどのような現象に注目して確率分布を推定するのかを表す二値の関数$f(x,y)$を導入し,これを素性関数と呼ぶ.具体的には,各素性関数$f_i$について,この関数が真となる事象$x$および$y$の集合$V_{xi}$および$V_{yi}$が規定されていると考え,この集合にしたがって素性関数$f_i$が以下のように定義される.\begin{eqnarray*}f_i(x,y)&=&\left\{\begin{array}[c]{ll}1&\mbox{($x\inV_{xi}$かつ$y\inV_{yi}$の場合)}\\0&\mbox{(それ以外の場合)}\end{array}\right.\end{eqnarray*}また,一般に確率モデル学習の際には,大量の素性からなる素性の候補集合${\calF}$から,活性化された素性の部分集合${\calS}(\subseteq{\calF})$が選択され,これらによって事象$(x,y)$および確率分布$p(y\midx)$が記述される.次に,実際に確率モデル学習を行う際には,活性化された素性集合${\calS}$中の各素性$f_i$について,学習すべき確率分布$p(y\midx)$による素性$f_i$の期待値(左辺)と経験的確率分布$\tilde{p}(x,y)$による素性$f_i$の期待値(右辺)が等しいとする以下の制約等式を課す.\begin{eqnarray*}\sum_{x,y}\tilde{p}(x)p(y\midx)f_i(x,y)&=&\sum_{x,y}\tilde{p}(x,y)f_i(x,y)\mbox{\\\for\}\forallf_i\in{\calS}\end{eqnarray*}そして,これらの制約等式を満たす確率分布$p(y\midx)$のうちで,以下の条件付エントロピー$H(p)$を最大にする最も「一様な」モデルが,求めるべきモデル$p_{\ast}$であるとする.\begin{eqnarray}H(p)&\equiv&-\sum_{x,y}\tilde{p}(x)p(y\midx)\logp(y\midx)\nonumber\\p_{\ast}&=&\argmax_{p\in{\calC(S)}}H(p)\label{eqn:me}\end{eqnarray}(\ref{eqn:me})式を満たす確率分布は必ず存在し,それは以下の確率分布$p_{\lambda}(y\midx)$で記述される.\begin{eqnarray*}\label{eqn:plambda}p_{\lambda}(y\midx)&=&\frac{\displaystyle\exp\Bigl(\sum_{i}\lambda_{i}f_i(x,y)\Bigr)}{\displaystyle\sum_y\exp\Bigl(\sum_{i}\lambda_{i}f_i(x,y)\Bigr)}\end{eqnarray*}ただし,$\lambda_i$は各素性$f_i$のパラメータである.また,実際にエントロピーを最大にする最適なパラメータ${\lambda^{\ast}}_{i}$を推定するには,ImprovedIterativeScaling(IIS)アルゴリズム\cite{Pietra97a,Berger96a}と呼ばれるアルゴリズムが用いられる.\begin{table*}\begin{center}\caption{固有表現まとめ上げ状態の表現法}\label{tab:NEcode}\begin{tabular}{|c|cc|c|c|ccc|c|c|cc|}\hline固有表現タグ&&\multicolumn{1}{c}{}&\multicolumn{1}{c}{\tt<ORG>}&\multicolumn{1}{c}{}&\multicolumn{3}{c}{\tt<LOC>}&\multicolumn{1}{c}{}&\multicolumn{1}{c}{\tt<LOC>}&&\\\cline{4-4}\cline{6-8}\cline{10-10}形態素列&$\cdots$&$M$&$M$&$M$&$M$&$M$&$M$&&$M$&$M$&$\cdots$\\\cline{4-4}\cline{6-8}\cline{10-10}&\multicolumn{11}{c|}{}\\\hline固有表現&&\multicolumn{1}{c}{\ttO}&\multicolumn{1}{c}{\ttORG\_U}&\multicolumn{1}{c}{\ttO}&\multicolumn{1}{c}{\ttLOC\_S}&\multicolumn{1}{c}{\ttLOC\_C}&\multicolumn{1}{c}{\ttLOC\_E}&\multicolumn{1}{c}{}&\multicolumn{1}{c}{\ttLOC\_U}&\multicolumn{1}{c}{\ttO}&\\まとめ上げ状態&\multicolumn{11}{|c|}{}\\\hline\end{tabular}\end{center}\end{table*}\subsection{固有表現まとめ上げ状態の表現法}\label{subsec:tagck}本論文では,固有表現まとめ上げの際のまとめ上げ状態の表現法として,日本語固有表現抽出の既存の手法\cite{Sekine98a,Borthwick99aj,Uchimoto00aj}において用いられた\sekine_encoding法を採用する\footnote{この他に,まとめ上げ問題でよく用いられるInside/Outside法が知られているが,最大エントロピー法との組合わせで日本語固有表現抽出を行なう場合は\sekine_encoding法よりも性能が劣る~\cite{Sassano00bjx}.}.この方法では,各固有表現タイプについて,以下の四種類のまとめ上げ状態を設定する.\begin{description}\item[{\ttS}]--現在位置の形態素は,二つ以上の形態素から構成される固有表現の先頭の形態素である.\item[{\ttC}]--現在位置の形態素は,三つ以上の形態素から構成される固有表現の先頭・末尾以外の中間の形態素である.\item[{\ttE}]--現在位置の形態素は,二つ以上の形態素から構成される固有表現の末尾の形態素である.\item[{\ttU}]--現在位置の形態素は単独で一つの固有表現を構成する.\end{description}また,固有表現を構成しない形態素のための状態として以下の状態を設定する.\begin{description}\item[{\ttO}]--現在位置の形態素はどの固有表現にも含まれない.\end{description}結果として,この表現法では,固有表現まとめ上げ状態として,$4\times8+1=33$の状態を設定する.この方法により日本語固有表現のまとめ上げを行なう様子を表~\ref{tab:NEcode}に示す.\subsection{各形態素の素性}\label{subsec:ftr}各形態素の素性としては,以下の三種類のものを用いる\footnote{これらの素性のうち,語彙素性を抽出する条件は\cite{Uchimoto00aj}に従っている.また,品詞素性については,\cite{Uchimoto00aj}とは,利用している形態素解析システムの品詞体系が異なっているため,異なった素性になっている.さらに,\cite{Uchimoto00aj}では,素性として文字種は用いていないが,文字種を用いた方が高い性能が得られることが分かっている~\cite{Sassano00bjx}.}.\begin{enumerate}\item語彙---訓練コーパス中で,固有表現の位置および周囲二形態素以内に5回以上出現した2,052語彙\footnote{例えば,頻度上位10位以内のものは,助詞6種類,括弧等の記号3種類,読点,11$\sim$20位は,助詞3種類,助動詞1種類,句点,助数詞(``年'',``日''),接尾辞(``さん''),地名(``日本''),時相名詞(``昨年''),21$\sim$30位は,助詞3種類,助動詞2種類,助数詞(``%'',``円''),接尾辞(``氏''),地名(``ロシア'',``米国'')であった.}.\item品詞---形態素解析システム{\scbreakfast}の約300種類の品詞.\item文字種---平仮名・片仮名・漢字・数字・英語アルファベット・記号,およびそれらの組合わせ.\end{enumerate}\subsection{周囲の形態素のモデル化}\label{subsec:context}次に,本論文では,現在位置の形態素に対して固有表現のまとめ上げ状態を付与する際に,周囲のどれだけの形態素を考慮するか,つまり周囲の形態素をどのようにモデル化するかについて,以下の二種類のモデルを用いる.\subsubsection{固定(文脈)長モデル}\label{subsubsec:3gram}一つ目のモデルは,現在位置の形態素がどれだけの長さの固有表現を構成するのかを全く考慮せずに,固有表現まとめ上げ状態を付与するモデルである.これは,学習時においても,現在の形態素が,いくつの形態素からなる固有表現の一部であるか(\ref{subsec:setting}~節,式(\ref{eqn:NE-len})参照)といった情報を全く考慮せず学習を行なうモデルである.このモデルにおいては,以下に示すように,現在位置の形態素$M_0$の左側および右側の文脈中の形態素については,学習時においても適用時においても,常に固定された数の形態素だけを考慮する.\[\begin{array}{c}\\\\mbox{(左側文脈)}\\\\\\\\\\\mbox{(右側文脈)}\\\cdotsM_{-k}\cdotsM_{-1}\\M_{0}\\M_{1}\cdotsM_{l}\cdots\\\\\\\uparrow\\\\\\\mbox{(現在位置)}\end{array}\]本論文ではこのモデルのことを,{\bf固定長モデル}と呼ぶ.本論文では特に,現在位置の形態素$M_0$の左側および右側の文脈中の形態素をいくつ考慮するかに応じて,左右二形態素ずつを考慮する5グラムモデル\begin{eqnarray*}(左側文脈)&(現在位置)&(右側文脈)\nonumber\\\cdots\\M_{-2}M_{-1}&M_{0}&M_{1}M_2\\\cdots\end{eqnarray*}左右三形態素ずつを考慮する7グラムモデル\begin{eqnarray*}(左側文脈)&(現在位置)&(右側文脈)\nonumber\\\cdots\\M_{-3}M_{-2}M_{-1}&M_{0}&M_{1}M_2M_3\\\cdots\end{eqnarray*}左右四形態素ずつを考慮する9グラムモデル\begin{eqnarray*}(左側文脈)&(現在位置)&(右側文脈)\nonumber\\\cdots\\M_{-4}M_{-3}M_{-2}M_{-1}&M_{0}&M_{1}M_{2}M_{3}M_4\\\cdots\end{eqnarray*}を用いる.\subsubsection{可変(文脈)長モデル}\label{subsubsec:vgram}一方,もう一つのモデルは,学習時において,現在位置の形態素が,いくつの形態素から構成される固有表現の一部であるか(式(\ref{eqn:NE-len})参照)を考慮して学習を行なうモデルで,これを{\bf可変長モデル}と呼ぶことにする~\cite{Sassano00bjx,Sassano00a}.\subsubsection*{モデルの学習}学習時には,現在位置の形態素が固有表現を構成しない場合には,5グラムモデルと同じく,現在位置およびその左右の二個ずつの形態素を考慮して学習を行なう.一方,現在位置の形態素$M_{i}^{NE}$が$m(ただし本論文では3以下)$個の形態素からなる固有表現の一部であるときには,固有表現を構成する形態素およびその左右の二個ずつの形態素を考慮して学習を行なう.つまり,現在注目している固有表現の長さ$m$に応じて,考慮する周囲の形態素の総数が可変となる.\begin{eqnarray*}(左側文脈)&(固有表現)&(右側文脈)\nonumber\\\cdots\\M_{-2}^LM_{-1}^L&M_{1}^{NE}\cdotsM_{i}^{NE}\cdotsM_{m(\leq3)}^{NE}&M_{1}^RM_{2}^R\\\cdots\nonumber\\&\uparrow\\\\\\\&\\&\mbox{(現在位置)}\\\\\\&\nonumber\end{eqnarray*}また,現在位置の形態素$M_{i}^{NE}$が4個以上の形態素から構成される固有表現の一部であるときには,本論文では,以下の手順で,固有表現を構成するとみなす形態素数を3に限定するという近似を行なう.\begin{enumerate}\item現在位置の形態素が固有表現の先頭である場合は,先頭から三形態素のみが固有表現を構成するとみなし,四番目以降の形態素については右側文脈であるとみなす.\begin{eqnarray*}(左側文脈)&(固有表現)&(右側文脈)\nonumber\\\cdots\\M_{-2}^LM_{-1}^L&M_{1}^{NE}M_{2}^{NE}M_{3}^{NE}&M_{4}^{NE}M_{?}^?\\\cdots\nonumber\\&\uparrow\\\\\\\\\\\\\\\\\&\\&\mbox{(現在位置)}\hspace*{2cm}&\nonumber\end{eqnarray*}\item現在位置の形態素が固有表現の末尾である場合は,末尾の三形態素のみが固有表現を構成するとみなし,末尾の三形態素以外については左側文脈であるとみなす.\begin{eqnarray*}(左側文脈)&(固有表現)&(右側文脈)\nonumber\\\cdots\\M_{?}^?M_{m-3}^{NE}&M_{m-2}^{NE}M_{m-1}^{NE}M_{m}^{NE}&M_{1}^{R}M_{2}^R\\\cdots\nonumber\\&\\\\\\\\\\\\\\uparrow&\\&\\\\\\\\\\\\\\\mbox{(現在位置)}&\nonumber\end{eqnarray*}\itemその他の場合は,現在位置の形態素およびその前後一形態素ずつのみが固有表現を構成するとみなし,それ以外の形態素については左側もしくは右側文脈であるとみなす.\begin{eqnarray*}(左側文脈)&(固有表現)&(右側文脈)\nonumber\\\cdots\\M_{?}^?M_{?}^{?}&M_{i-1}^{NE}M_{i}^{NE}M_{i+1}^{NE}&M_{?}^{?}M_{?}^?\\\cdots\nonumber\\&\uparrow\\\&\\&\mbox{(現在位置)}\\\&\nonumber\end{eqnarray*}\end{enumerate}\clearpage例えば,以下のように,現在位置の形態素$M_{i}^{NE}$が4個の形態素から構成される固有表現の一部である場合を考える.\begin{eqnarray*}(左側文脈)&(固有表現)&(右側文脈)\\\cdots\\M_{-2}^LM_{-1}^L&M_{1}^{NE}M_{2}^{NE}M_{3}^{NE}M_{4}^{NE}&M_{1}^RM_{2}^R\\\cdots\\&\uparrow\\\\\\\\\\&\\&\mbox{(現在位置)}\\\\\\\\\&\end{eqnarray*}この場合,固有表現を構成する末尾の形態素$M_{4}^{NE}$が,あたかも固有表現の直後の右側文脈に存在する形態素であるかのようにみなされ,以下のように近似されてモデル化される.\begin{eqnarray*}(左側文脈)&(固有表現)&(右側文脈)\nonumber\\\cdots\\M_{-2}^LM_{-1}^L&M_{1}^{NE}M_{2}^{NE}M_{3}^{NE}&M_{4}^{NE}M_{1}^R\\\cdots\\&\uparrow\\\&\\&\mbox{(現在位置)}\\\&\nonumber\end{eqnarray*}\subsubsection*{モデルの適用}モデルの適用時には,現在位置の形態素がどのような固有表現を構成するかという情報が利用できないので,固定長の9グラムモデルの場合と同様に,現在位置の形態素,および,左右四形態素ずつの素性を考慮してモデルの適用を行なう\footnote{可変長モデルでは,モデルの学習時と適用時で考慮する素性の集合が異なっているので,単独での性能は高くないが,抽出される固有表現の分布が固定長モデルとは異なっている(\ref{subsec:indiv}~節参照).}.\subsubsection{周囲の形態素の素性}\label{subsubsec:ftr34}前節までで述べた固定長モデルおよび可変長モデルにおいて,特に現在位置の周囲の形態素の素性について,\ref{subsec:ftr}~節で述べた素性のうちの全部または一部のみを用いるモデルとして,以下の三種類のモデルを設定し,これらについて実験的評価を行なう\footnote{実際に,実験で用いた訓練コーパスから学習したモデルのうち,全素性を用いた5グラムモデルの素性数は13,200,素性関数の数は31,344(頻度3以上),全素性を用いた9グラムモデルの素性数は15,071,素性関数の数は35,311(頻度3以上)であった.}.\begin{itemize}\item全素性を用いるモデル.\item周囲の形態素$M_{l(\leq-3)}$および$M_{r(\geq3)}$については,語彙素性および品詞素性のみを考慮するモデル.\item周囲の形態素$M_{l(\leq-3)}$および$M_{r(\geq3)}$については,語彙素性のみを考慮するモデル.\end{itemize}なお,\cite{Uchimoto00aj}と同様に,周囲の複数の形態素の素性を結合した結合素性は用いていない. \section{正誤判別規則学習を用いた複数システム出力の混合} \label{sec:combi}\subsection{訓練・評価データセット}\label{subsec:trts}本論文の複数システム出力の混合法では,以下の三種類の訓練・評価データセットを用いる.\begin{enumerate}\item$TrI$:個々の固有表現抽出モデルを学習するための訓練データセット.\item$TrC$:複数システムの出力の正誤判別規則を学習するための訓練データセット.\item$Ts$:複数システムの出力の正誤判別規則を評価するための評価データセット.\end{enumerate}\subsection{訓練および評価手続きの概要}\label{subsec:proc}まず,以下に,訓練データセット$TrI$および$TrC$を用いて,複数システムの出力の正誤判別規則を学習するため手続きの概要を示す.\begin{enumerate}\item訓練データセット$TrI$を用いて,個々の固有表現抽出モデル$NEext_i$$(i=1,\ldots,n)$を学習する.\item個々の固有表現抽出モデル$NEext_i$$(i=1,\ldots,n)$を,それぞれ,訓練データセット$TrC$に適用し,各固有表現抽出モデル$NEext_i$につき,抽出結果の固有表現リスト$NEList_i(TrC)$をそれぞれ一つずつ得る.\item訓練データセット(テキスト)$TrC$中での各固有表現の出現位置の情報を用いて,抽出結果の固有表現リスト$NEList_i(TrC)$$(i\!=\!1,\ldots,n)$を,複数システム間$(i\!=\!1,\ldots,n)$で整列し,訓練データセット$TrC$の事象表現$TrCev$を作成する.\item訓練データセット$TrC$の事象表現$TrCev$を教師あり訓練データとして,複数システムの出力の正誤判別規則$NEext_{cmb}$を学習する.\end{enumerate}次に,評価データセット$Ts$に,学習された正誤判別規則$NEext_{cmb}$を適用する手順の概要を示す.\begin{enumerate}\item\label{enum:evproc1}個々の固有表現抽出モデル$NEext_i$$(i=1,\ldots,n)$を,それぞれ,評価データセット$Ts$に適用し,各固有表現抽出モデル$NEext_i$につき,抽出結果の固有表現リスト$NEList_i(Ts)$をそれぞれ一つずつ得る.\item評価データセット(テキスト)$Ts$中での各固有表現の出現位置の情報を用いて,抽出結果の固有表現リスト$NEList_i(Ts)$$(i\!=\!1,\ldots,n)$を,複数システム間$(i\!=\!1,\ldots,n)$で整列し,評価データセット$Ts$の事象表現$Tsev$を作成する.\item複数システムの出力の正誤判別規則$NEext_{cmb}$を評価データセット$Ts$の事象表現$Tsev$に適用し,性能を測定する.\end{enumerate}\subsection{データ構造}\label{subsec:expr}本節では,訓練データセット$TrC$の事象表現$TrCev$,あるいは,評価データセット$Ts$の事象表現$Tsev$のデータ構造を説明し,複数システムの出力の正誤判別規則を学習する際の素性・クラスについて述べる.以下では,訓練データセット$TrC$の事象表現$TrCev$を例にして説明する.\subsubsection{事象}\label{subsubsec:event}訓練データセット$TrC$の事象表現$TrCev$は,訓練データセット(テキスト)$TrC$中での各固有表現の出現位置の情報を用いて,抽出結果の固有表現リスト$NEList_i(TrC)$$(i\!=\!1,\ldots,n)$を複数システム間$(i\!=\!1,\ldots,n)$で整列することにより作成される.ここで,整列結果の事象表現$TrCev$は,セグメントの列$Seg_1,\ldots,Seg_N$で表現され,各セグメント$Seg_j$は,整列された固有表現の集合$\{NE_1,\ldots,NE_{m_j}\}$によって表現される.\begin{eqnarray*}TrCev&=&Seg_1,\ldots,Seg_N\\Seg_j&=&\{NE_1,\ldots,NE_{m_j}\}\end{eqnarray*}ただし,この整列の際には,少なくとも一つの形態素を共有する複数の固有表現は,同じセグメントに含まれなければならない,という制約が課せられる.次に,各セグメント$Seg_j$中の固有表現の集合$\{NE_1,\ldots,NE_{m_j}\}$は,固有表現の事象表現の集合$\{NEev_1,\ldots,NEev_{l_j}\}$に変換され,これにより,各セグメント$Seg_j$は事象表現$SegEv_j$に変換される.\begin{eqnarray}SegEv_j&=&\{NEev_1,\ldots,NEev_{l_j}\}\label{eqn:segev}\end{eqnarray}ここで,各事象表現$NEev_{k_j}$は,以下の二種類のうちのどちらかに対応し,それぞれ異なったデータ構造を持つ.\begin{enumerate}\item[i)]そのセグメント中で少なくとも一つのシステムにより出力された固有表現の事象表現.\item[ii)]そのセグメント中で一つも固有表現を出力しなかった一つのシステムに関する情報を表す事象表現.\end{enumerate}i)のタイプの事象表現$NEev_{k_j}$は以下のようなデータ構造を持つ.\begin{eqnarray}NEev_{k_j}&=&\Bigl\{systems=\langlep,\ldots,q\rangle,\nonumber\mlength=x\mbox{morphemes},\nonumber\\&&\\NEtag=\cdots,\POS=\cdots,\nonumber\class_{NE}=+/-\Bigr\}\label{eqn:NEnon-emp}\end{eqnarray}ここで,``$systems$''はこの固有表現を出力したシステムの指標のリストを,``$mlength$''はこの固有表現を構成する形態素の数を,``$NEtag$''はこの固有表現のタイプを,``$POS$''はこの固有表現を構成する形態素の数の品詞のリストを,それぞれ表す.また,``$class_{NE}$''は,正解データと比較して,この固有表現が正解であるか(``$+$''),それとも,システムによる誤出力であるか(``$-$'')を示す.一方,ii)のタイプの事象表現$NEev_{k_j}$は,このセグメント中で,指標$r$を持つシステムが固有表現を出力しなかったことを示す,以下のようなデータ構造を持つ.\begin{eqnarray}NEev_{k_j}&=&\Bigl\{systems=\langler\rangle,\class_{sys}=\mbox{``nooutput''}\Bigr\}\label{eqn:NEemp}\end{eqnarray}\subsubsection{クラス}\label{subsubsec:class}複数システムの出力の正誤判別を行なう規則は,式(\ref{eqn:segev})で定義されるセグメントの事象表現$SegEv_j$を一つの事象単位として,学習および適用が行なわれる.ここで,正誤判別規則の学習および適用の際には,セグメント$SegEv_j$中の固有表現を各システムごとにまとめて,システム単位で正誤のクラスを参照する.そこで,式(\ref{eqn:segev})で定義される一つのセグメントの事象表現$SegEv_j$に対して,各システム$i$ごとにまとめた以下のクラス表現を設定し,正誤判別規則の学習および適用を行なう.\begin{eqnarray}class_{sys}^1&=&\left\{\begin{array}{l}+/-,\\ldots,\+/-\\\mbox{``nooutput''}\end{array}\right.\nonumber\\&\cdots&\label{eqn:segcl}\\class_{sys}^n&=&\left\{\begin{array}{l}+/-,\\ldots,\+/-\\\mbox{``nooutput''}\end{array}\right.\nonumber\end{eqnarray}ここで,一般に,一つのセグメント中で,各システムは一つも固有表現を出力しない場合もあれば,複数の固有表現を出力する場合もありえるので,各システム$i$のクラス$class_{sys}^i$は上記のような表現になる\footnote{実際に,実験で用いた訓練コーパスから学習した正誤判別規則において,クラスの種類が最も多かったのは,システム数$n\!=\!2$の場合で,``$+$'',``$++$'',``$+++$'',``$++++$'',``$++-$'',``$+-$'',``$+--$'',``$+---$'',``$-$'',``$--$'',``$---$'',``nooutput'',の12通りであった.}.\subsubsection{複数システムの出力の正誤判別規則}次に,前節の事象のデータ構造を用いて,複数システムの出力の正誤判別を行なう規則について説明する.複数システムの出力の正誤判別を行なう規則は,式(\ref{eqn:segev})で定義されるセグメントの事象表現$SegEv_j$を一つの事象単位として,各システム$i$ごとに,式(\ref{eqn:segcl})で示すクラス$class_{sys}^i$を判別するという形式をとる.この正誤判別規則の学習の際には,式(\ref{eqn:segev})で定義されるセグメントの事象表現$SegEv_j$から,次節で説明する素性を抽出し,この素性を用いて各システム$i$ごとのクラス$class_{sys}^i$を判別する規則を学習する(\ref{subsec:DL}~節).この正誤判別規則の適用の際にも,事象表現$SegEv_j$から抽出される素性を用いて各システム$i$ごとにクラス$class_{sys}^i$を判別する(\ref{subsec:apl}~節).\subsubsection{素性}\label{subsubsec:ftr}式(\ref{eqn:segev})で定義されるセグメントの事象表現$SegEv_j$から抽出される一つの素性$f$は,システムの指標のリスト$\langlep,\ldots,q\rangle$,および,固有表現の素性表現$F$の組$\langlesystems\!=\!\langlep,\ldots,q\rangle,\F\rangle$の集合によって表現される.\begin{eqnarray}f&=&\Bigl\{\\langlesystems\!=\!\langlep,\ldots,q\rangle,\F\rangle,\\cdots,\\langlesystems\!=\!\langlep',\ldots,q'\rangle,\F'\rangle\\Bigr\}\label{eqn:ftr}\end{eqnarray}このうち,一つの組$\langlesystems\!=\!\langlep,\ldots,q\rangle,\F\rangle$は,指標$p,\ldots,q$に相当する(複数の)システムによって出力された一つの固有表現が,素性表現$F$を持つことを表している.固有表現の素性表現$F$は,集合$\{mlength\!=\!\cdots,NEtag\!=\!\cdots,POS\!=\!\cdots\}$の巾集合の任意の要素,あるいは,そのセグメント中で指標$p,\ldots,q$に相当する(複数の)システムが固有表現を出力しなかったことを表す集合の形式,のいずれかで表現される.\begin{eqnarray}F&=&\left\{\begin{array}{l}\Bigl\{mlength\!=\!\cdots,\NEtag\!=\!\cdots,\POS\!=\!\cdots\Bigr\}\nonumber\\\Bigl\{mlength\!=\!\cdots,\NEtag\!=\!\cdots\Bigr\}\nonumber\\\Bigl\{mlength\!=\!\cdots,\POS\!=\!\cdots\Bigr\}\nonumber\\\Bigl\{NEtag\!=\!\cdots,\POS\!=\!\cdots\Bigr\}\nonumber\\\Bigl\{mlength\!=\!\cdots\Bigr\}\nonumber\\\Bigl\{NEtag\!=\!\cdots\Bigr\}\nonumber\\\Bigl\{POS\!=\!\cdots\Bigr\}\nonumber\\\emptyset\nonumber\\\Bigl\{class_{sys}\!=\!\mbox{``nooutputs''}\Bigr\}\nonumber\end{array}\right.\end{eqnarray}正誤判別規則の学習時には,式(\ref{eqn:segev})で定義されるセグメントの事象表現$SegEv_j$から,式(\ref{eqn:ftr})の形式のあらゆる可能な素性$f$のうち,以下の制約を含むいくつかの制約を満たすものだけが抽出される\footnote{実際に,実験で用いた訓練コーパスから学習した正誤判別規則においては,固有表現を構成する形態素数``$mlength$''の値は18通り,固有表現のタイプ``$NEtag$''の値は8通り,固有表現を構成する形態素の品詞のリスト``$POS$''の値は4926通りであった.また,システム数$n\!=\!2$の場合で,可能な素性$f$の数の最大数は,112,114であった.}.詳細については,次節の例を参照.\begin{enumerate}\item[i)]システムの指標のリスト$\langlep,\ldots,q\rangle$については,その固有表現を出力した全てのシステムの指標を記すこととし,部分リストの形式は許さない.\item[ii)]一つのシステムが,一つのセグメント中で複数個の固有表現を出力した場合は,一つの素性$f$中で,それらの複数の固有表現のうちの一部のものだけの情報を記述することは許さない.それらの全ての固有表現について何らかの情報を記述するか,どの固有表現についての情報も記述しないかのどちらかである.\end{enumerate}\subsubsection{例}\label{subsubsec:comb-eg}\ref{subsubsec:event}~節の手続きにしたがって,二つのシステムの固有表現抽出結果を整列し,その整列結果を事象表現に変換する例を表~\ref{tab:ev-eg}に示す.また,\ref{subsubsec:class}~節および\ref{subsubsec:ftr}~節の手続きにしたがって,それらの事象表現からクラスおよび素性を抽出する例を表~\ref{tab:ftr-eg}に示す.表~\ref{tab:ev-eg}では,形態素解析の結果の形態素列に対して,システム0およびシステム1の二つのシステムがそれぞれ単独で出力した固有表現を,「単独システムの固有表現出力」の欄に示す.それらの単独システムの固有表現出力を整列した結果は,$SegEv_i\simSegEv_{i+3}$の四つのセグメントに分割されており,これらのセグメントを事象表現に変換した結果が「事象表現」の欄に示されている.各セグメントの特徴を簡単にまとめると以下のようになる.\begin{itemize}\item$SegEv_i$:システム0が連続する二つの固有表現を出力したのに対して,システム1はそれらをまとめて一つの固有表現として出力している.正解データとの比較では,システム1の出力結果の方が正解である.このセグメントの事象表現は,いずれかの単独システムから出力された三つの固有表現の事象表現から構成されている.\item$SegEv_{i+1}$:システム1のみが固有表現を出力したが,この固有表現は誤出力である.このセグメントの事象表現は,システム0からの出力がなかったことを表す事象表現と,システム1が出力した一つの固有表現の事象表現から構成されている.\item$SegEv_{i+2}$:システム0が一形態素から構成される一つの固有表現を出力したのに対して,システム1はその形態素を含む三形態素から構成される一つの固有表現を出力した.正解データとの比較では,システム1の出力結果の方が正解である.このセグメントの事象表現は,各々の単独システムから出力された二つの固有表現の事象表現から構成されている.\item$SegEv_{i+3}$:システム0,システム1ともに二形態素から構成される同一の固有表現を出力した.正解データとの比較では,この固有表現は正解である.このセグメントの事象表現は,この一つ固有表現の事象表現から構成されている.\end{itemize}次に,表~\ref{tab:ftr-eg}においては,まずクラスについては,これらの各セグメントの事象表現において,各システムが出力した固有表現のクラス(もしくは出力がなかったことを表す事象表現のクラス)をシステムごとにまとめたものになっている.一方,素性の方は,各セグメントについて,以下の制約を満たす可能な素性の一覧を表現したものになっている.\begin{itemize}\item$SegEv_i$:システム0は,このセグメント中で二つの固有表現を出力しているが,この二つの固有表現のうちの一つだけの情報を記述した素性は許容しない.\item$SegEv_{i+1}$:ある単独システムからの出力がなかったことだけを記述した素性は許容しない.例えば,$\Bigl\{\\langlesystems\!=\!\langle0\rangle,class_{sys}\!=\!\mbox{``nooutputs''}\rangle\\Bigr\}$という素性は許容しない.\item$SegEv_{i+3}$:システムの指標のリストにおいては,このセグメントの固有表現を出力した二つのシステムの指標0および1の両方を必ず記述する.\end{itemize}\begin{table}\begin{scriptsize}\begin{center}\caption{複数システムの出力の混合のための事象表現の例}\label{tab:ev-eg}\begin{tabular}{|c||c||c|c||c|}\hlineセグ&形態素列(品詞)&\multicolumn{2}{|c||}{単独システムの固有表現出力}&事象表現\\\cline{3-4}メント&&システム0&システム1&\\\hline\hline&$\vdots$&&&\\\hline$SegEv_i$&\begin{tabular}{c}来年(時相名詞)\\10月(時相名詞)\end{tabular}&\begin{tabular}{c}来年\\(DATE)\\10月\\(DATE)\end{tabular}&\begin{tabular}{c}来年10月\\(DATE)\end{tabular}&\begin{tabular}{l}$\Bigl\{systems\!=\!\langle0\rangle,mlength\!=\!1,$\\\\$NEtag\!=\!{\rmDATE},$\\\\$POS\!=\!時相名詞,class_{NE}\!=\!-\Bigr\}$\\$\Bigl\{systems\!=\!\langle0\rangle,mlength\!=\!1,$\\\\$NEtag\!=\!{\rmDATE},$\\\\$POS\!=\!時相名詞,class_{NE}\!=\!-\Bigr\}$\\$\Bigl\{systems\!=\!\langle1\rangle,mlength\!=\!2,$\\\\$NEtag\!=\!{\rmDATE},$\\\\$POS\!=\!時相名詞$-$時相名詞,$\\\\$class_{NE}\!=\!+\Bigr\}$\end{tabular}\\\hline&$\vdots$&&&\\\hline$SegEv_{i+1}$&\begin{tabular}{c}生殖(名詞)\\医療(名詞)\\技術(名詞)\end{tabular}&&\begin{tabular}{c}生殖医療技術\\(ARTIFACT)\end{tabular}&\begin{tabular}{l}$\Bigl\{systems\!=\!\langle0\rangle,$\\\\$class_{sys}\!=\!\mbox{``nooutputs''}\Bigr\}$\\$\Bigl\{systems\!=\!\langle1\rangle,mlength\!=\!3,$\\\\$NEtag\!=\!{\rmARTIFACT},$\\\\$POS\!=\!名詞$-$名詞$-$名詞,$\\\\$class_{NE}\!=\!-\Bigr\}$\end{tabular}\\\hline&について(助詞相当)&&&\\&$\vdots$&&&\\&調査(サ変名詞)&&&\\&は(提題助詞)&&&\\\hline$SegEv_{i+2}$&\begin{tabular}{c}厚生省(固有名詞)\\研究(サ変名詞)\\班(名詞)\end{tabular}&\begin{tabular}{c}厚生省\\(ORGANI-\\ZATION)\end{tabular}&\begin{tabular}{c}厚生省研究班\\(ORGANI-\\ZATION)\end{tabular}&\begin{tabular}{l}$\Bigl\{systems\!=\!\langle0\rangle,mlength\!=\!1,$\\\\$NEtag\!=\!{\rmORGANIZATION},$\\\\$POS\!=\!固有名詞,class_{NE}\!=\!-\Bigr\}$\\$\Bigl\{systems\!=\!\langle1\rangle,mlength\!=\!3,$\\\\$NEtag\!=\!{\rmORGANIZATION},$\\\\$POS\!=\!固有名詞$-$サ変名詞$-$名詞,$\\\\$class_{NE}\!=\!+\Bigr\}$\end{tabular}\\\hline&((記号)&&&\\&主任(人称名詞)&&&\\&研究者(人称名詞)&&&\\&、(読点)&&&\\\hline$SegEv_{i+3}$&\begin{tabular}{c}山田(人名)\\太郎(人名)\end{tabular}&\begin{tabular}{c}山田太郎\\(PERSON)\end{tabular}&\begin{tabular}{c}山田太郎\\(PERSON)\end{tabular}&\begin{tabular}{l}$\Bigl\{systems\!=\!\langle0,1\rangle,mlength\!=\!2,$\\\\$NEtag\!=\!{\rmPERSON},$\\\\$POS\!=\!人名$-$人名,class_{NE}\!=\!+\Bigr\}$\end{tabular}\\\hline&$\vdots$&&&\\\hline\end{tabular}\end{center}\end{scriptsize}\end{table}\begin{table}\begin{scriptsize}\begin{center}\caption{表~\ref{tab:ev-eg}の事象表現の例から抽出される素性およびクラス}\label{tab:ftr-eg}\begin{tabular}{|c||c|c|}\hline事象表現&素性&クラス\\\hline\hline\begin{tabular}{l}$\Bigl\{systems\!=\!\langle0\rangle,mlength\!=\!1,$\\\\$NEtag\!=\!{\rmDATE},$\\\\$POS\!=\!時相名詞,class_{NE}\!=\!-\Bigr\}$\\$\Bigl\{systems\!=\!\langle0\rangle,mlength\!=\!1,$\\\\$NEtag\!=\!{\rmDATE},$\\\\$POS\!=\!時相名詞,class_{NE}\!=\!-\Bigr\}$\\$\Bigl\{systems\!=\!\langle1\rangle,mlength\!=\!2,$\\\\$NEtag\!=\!{\rmDATE},$\\\\$POS\!=\!時相名詞$-$時相名詞,$\\\\$class_{NE}\!=\!+\Bigr\}$\end{tabular}&\begin{tabular}{c}$\Bigl\{\\langlesystems\!=\!\langle0\rangle,\F\rangle,\langlesystems\!=\!\langle0\rangle,\F'\rangle,$\\$\langlesystems\!=\!\langle1\rangle,\F''\rangle\\Bigr\}$\\\\または\\$\Bigl\{\\langlesystems\!=\!\langle0\rangle,\F\rangle,\langlesystems\!=\!\langle0\rangle,\F'\rangle\\Bigr\}$\\または\\\\$\Bigl\{\\langlesystems\!=\!\langle1\rangle,\F''\rangle\\Bigr\}$\\ただし\\$F,F'は\\\Bigl\{mlength\!=\!1,NEtag\!=\!{\rmDATE},$\\$POS\!=\!時相名詞\Bigr\}$\\の巾集合の任意の要素\\$F''は\\\Bigl\{mlength\!=\!2,NEtag\!=\!{\rmDATE},$\\\hspace*{0.7cm}$POS\!=\!時相名詞$-$時相名詞\Bigr\}$\\の巾集合の任意の要素\end{tabular}&\begin{tabular}{c}$class_{sys}^0\!=\!--$\\$class_{sys}^1\!=\!+$\end{tabular}\\\hline\begin{tabular}{l}$\Bigl\{systems\!=\!\langle0\rangle,$\\\\$class_{sys}\!=\!\mbox{``nooutputs''}\Bigr\}$\\$\Bigl\{systems\!=\!\langle1\rangle,mlength\!=\!3,$\\\\$NEtag\!=\!{\rmARTIFACT},$\\\\$POS\!=\!名詞$-$名詞$-$名詞,$\\\\$class_{NE}\!=\!-\Bigr\}$\end{tabular}&\begin{tabular}{c}$\Bigl\{\\langlesystems\!=\!\langle0\rangle,class_{sys}\!=\!\mbox{``nooutputs''}\rangle,$\\$\langlesystems\!=\!\langle1\rangle,\F\rangle\\Bigr\}$\\または\\\\$\Bigl\{\\langlesystems\!=\!\langle1\rangle,\F\rangle\\Bigr\}$\\ただし\\$Fは\\\Bigl\{mlength\!=\!3,NEtag\!=\!{\rmARTIFACT},$\\$POS\!=\!名詞$-$名詞$-$名詞\Bigr\}$\\の巾集合の任意の要素\end{tabular}&\begin{tabular}{c}$class_{sys}^0\!=\!$\\``nooutputs''\\$class_{sys}^1\!=\!-$\end{tabular}\\\hline\begin{tabular}{l}$\Bigl\{systems\!=\!\langle0\rangle,mlength\!=\!1,$\\\\$NEtag\!=\!{\rmORGANIZATION},$\\\\$POS\!=\!固有名詞,class_{NE}\!=\!-\Bigr\}$\\$\Bigl\{systems\!=\!\langle1\rangle,mlength\!=\!3,$\\\\$NEtag\!=\!{\rmORGANIZATION},$\\\\$POS\!=\!固有名詞$-$サ変名詞$-$名詞,$\\\\$class_{NE}\!=\!+\Bigr\}$\end{tabular}&\begin{tabular}{c}$\Bigl\{\\langlesystems\!=\!\langle0\rangle,\F\rangle,\langlesystems\!=\!\langle1\rangle,\F'\rangle\\Bigr\}$\\または\\$\Bigl\{\\langlesystems\!=\!\langle0\rangle,\F\rangle\\Bigr\}$\\または\\$\Bigl\{\\langlesystems\!=\!\langle1\rangle,\F'\rangle\\Bigr\}$\\ただし\\$Fは\\\Bigl\{mlength\!=\!1,$\hspace*{3.2cm}\\\hspace*{0.5cm}$NEtag\!=\!{\rmORGANIZATION},$\\\hspace*{2.2cm}$POS\!=\!固有名詞\Bigr\}$\\の巾集合の任意の要素\\$F'は\\\Bigl\{mlength\!=\!3,\hspace*{3.2cm}$\\\hspace*{0.7cm}$NEtag\!=\!{\rmORGANIZATION},$\\\hspace*{1.2cm}$POS\!=\!固有名詞$-$サ変名詞$-$名詞\Bigr\}$\\の巾集合の任意の要素\end{tabular}&\begin{tabular}{c}$class_{sys}^0\!=\!-$\\$class_{sys}^1\!=\!+$\end{tabular}\\\hline\begin{tabular}{l}$\Bigl\{systems\!=\!\langle0,1\rangle,mlength\!=\!2,$\\\\$NEtag\!=\!{\rmPERSON},$\\\\$POS\!=\!人名$-$人名,class_{NE}\!=\!+\Bigr\}$\end{tabular}&\begin{tabular}{c}$\Bigl\{\\langlesystems\!=\!\langle0,1\rangle,\F\rangle\\Bigr\}$\\ただし\\$Fは\\\Bigl\{mlength\!=\!2,NEtag\!=\!{\rmPERSON},$\\$POS\!=\!人名$-$人名\Bigr\}$\\の巾集合の任意の要素\end{tabular}&\begin{tabular}{c}$class_{sys}^0\!=\!+$\\$class_{sys}^1\!=\!+$\end{tabular}\\\hline\end{tabular}\end{center}\end{scriptsize}\end{table}\subsection{学習アルゴリズム}\label{subsec:DL}教師あり学習法としては,決定リスト学習を用いる\footnote{\ref{subsec:comb-ME}~節では,最大エントロピー法を用いて正誤判別規則学習を行なった結果との比較を行なっている.本論文では,実装が容易,学習が高速で,かつ,一定の性能を達成できるという理由で決定リスト学習を適用したが,より高性能な他の様々な教師あり学習法を適用することも十分可能である.}.決定リスト\cite{Rivest87a,Yarowsky94a}は,ある素性のもとでクラスを決定するという規則を優先度の高い順にリスト形式で並べたもので,適用時には優先度の高い規則から順に適用を試みていく.本論文では,各規則の優先度として,素性$f$の条件のもとでの,システム$i$のクラス$class_{sys}^i$の条件付確率$P(class_{sys}^i\!=\!c_i\midf)$を用い,この条件付確率順に決定リストを構成する.ただし,決定リストを構成する際には,素性$f$の条件のもとでの,システム$i$のクラス$class_{sys}^i$の頻度$freq(f,class_{sys}^i)$に下限$L_f$を設け,\begin{eqnarray}\label{eqn:lbdF}freq(f,class_{sys}^i)&\geq&L_f\end{eqnarray}の条件を満たす規則だけを用いて決定リストを構築する.頻度の下限$L_f$は,各規則の条件付確率$P(class_{sys}^i\!=\!c_i\midf)$を推定する際に使用したデータセット以外のデータセットに対して,正誤判別規則の性能を最大にする値を用いる.\subsection{正誤判別規則の適用による複数システム出力の混合}\label{subsec:apl}学習された正誤判別規則を適用することにより複数システムの出力の混合を行なう場合は,式(\ref{eqn:segev})と同じ形式のセグメントの事象表現\begin{eqnarray*}SegEv_j&=&\{NEev_1,\ldots,NEev_{l_j}\}\end{eqnarray*}に対して,決定リストの形式の正誤判別規則が参照され,素性$f$の条件のもとでの,システム$i$のクラス$class_{sys}^i$の条件付確率$P(class_{sys}^i\!=\!c_i\midf)$の推定値を得る.そして,\begin{enumerate}\item複数のシステムによって出力された単一の固有表現は,同一の正誤クラスを持つ.\item少なくとも一つの形態素を共有する複数の固有表現が,正のクラス(``$+$'')を持ってはならない.\end{enumerate}という二つの制約のもとで,全システムについての条件付確率$P(class_{sys}^i\!=\!c_i\midf)$の積を最大化するクラス割当ての組合わせが求められ,これが,セグメント中で各システム$i$$(i=1,\ldots,n)$が出力した固有表現への正誤クラスの判別結果$\hat{class_{sys}^1},\ldots,\hat{class_{sys}^n}$となる\footnote{システム$i$について,決定リスト中に照合する判別規則が存在しない場合には,そのシステムが出力した固有表現を誤出力(``$-$'')とみなしている.}.\begin{eqnarray*}\hat{class_{sys}^1},\ldots,\hat{class_{sys}^n}&=&\argmax_{c_i,f_i}\prod_{i=1}^{n}P(class_{sys}^i\!=\!c_i\midf_i)\end{eqnarray*} \section{実験および評価} \label{sec:experi}本節では,IREXワークショップの固有表現抽出タスクの訓練データおよび試験データを用いて,複数の固有表現抽出結果の混合法の実験的評価を行なった結果について述べる.以下では,訓練データとして用いているCRL固有表現データの一般ドメインのものを$D_{CRL}$,評価データとして用いている本試験データのうちの一般ドメインのものを$D_{formal}$と記す.ただし,いずれも,表~\ref{tab:MnNE}の「その他」のものは除いている.\subsection{各モデル単独の出力の比較}\label{subsec:indiv}本節では,\ref{subsec:context}~節で述べた各モデル単独の性能について述べ,各モデルの出力を比較する.実験に用いたモデルは,\ref{subsubsec:3gram}~節の固定長モデルとしては,5グラムモデル,7グラムモデル,9グラムモデル,および,\ref{subsubsec:vgram}~節の可変長モデルである.また,7グラムモデル,9グラムモデル,および,可変長モデルについては,\ref{subsubsec:ftr34}~節の三種類の素性の設定も区別して実験を行なった.まず,表~\ref{tab:indivi_res}に,個々の固有表現抽出モデルを学習するための訓練データセット$TrI$を$D_{CRL}$とした場合の,本試験データ$D_{formal}$に対する各モデルのF値($\beta=1$)を示す.この結果からわかるように,単独のモデルでは,5グラムモデルが最も高い性能を示す.また,7グラムモデルおよび9グラムモデルは,素性の設定に関わらず,ほぼ同等の性能を示している.次に,最も性能のよい5グラムモデルの出力と,他のモデルの出力との違いを調べるために,5グラムモデル以外の各モデルの出力について,5グラムモデルの出力との和集合を求め,本試験データ$D_{formal}$の正解データに対する再現率を算出した.また,5グラムモデル以外の各モデルの誤出力と5グラムモデルの誤出力の間の重複率\begin{eqnarray*}誤出力の重複率&=&\frac{\begin{tabular}{c}二つのモデルの誤出力間で重複する固有表現数\end{tabular}}{\begin{tabular}{c}5グラムモデルの誤出力の固有表現数\end{tabular}}\end{eqnarray*}を求めた.これらの結果を表~\ref{tab:dif_indivi}に示す.特に,和の再現率が最も高く,誤出力の重複率が最も低い結果(この場合は,可変長モデル(形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性$=$全て)との差分)を{\bf太字}で示す.表~\ref{tab:indivi_res}および表~\ref{tab:dif_indivi}の結果から分かるように,7グラムモデルおよび9グラムモデルは,5グラムモデルと比べて出力の和集合の再現率が低く,かつ誤出力の重複率も高いことから,相対的に5グラムモデルと似通ったモデルであると言える.一方,可変長モデルは,7グラムモデルおよび9グラムモデルと比べて,相対的に5グラムモデルとの類似性が小さいことがわかる.特に,誤出力の重複率が比較的小さい点が目立つ.\begin{table}\begin{center}\caption{本試験データ$D_{formal}$に対する各モデル単独の性能(F値($\beta=1$)(再現率/適合率)(\%))}\label{tab:indivi_res}\begin{tabular}{|l||c|c|c|}\hline&\multicolumn{3}{|c|}{形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性}\\\cline{2-4}&\\\全て\\\&語彙+品詞&語彙\\\hline\hline7グラムモデル&80.78(78.44/83.27)&80.81(78.44/83.33)&80.71(78.51/83.03)\\\hline9グラムモデル&80.13(77.87/82.54)&80.53(78.22/82.98)&80.53(78.37/82.82)\\\hline可変長モデル&45.12(51.50/40.15)&77.02(75.86/78.21)&75.16(73.78/76.58)\\\hline\hline5グラムモデル&\multicolumn{3}{|c|}{\bf81.16(78.87/83.60)}\\\hline\end{tabular}\vspace*{-.5cm}\end{center}\end{table}\begin{table}\begin{center}\caption{5グラムモデルの出力と各モデルの出力との差分(和の再現率/誤出力の重複率)(\%)}\label{tab:dif_indivi}\begin{tabular}{|l||c|c|c|}\hline&\multicolumn{3}{|c|}{形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性}\\\cline{2-4}&\\\全て\\\&語彙+品詞&語彙\\\hline\hline7グラムモデル&79.8/85.2&79.8/85.2&79.7/91.2\\\hline9グラムモデル&79.7/84.7&79.7/86.1&79.5/90.7\\\hline可変長モデル&{\bf82.6/27.3}&81.4/63.4&80.4/72.7\\\hline\end{tabular}\vspace*{-.5cm}\end{center}\end{table}\subsection{複数システムの出力の混合の性能評価}\subsubsection{評価方法}次に,7グラムモデル,9グラムモデル,可変長モデルについて,それぞれ,\ref{subsubsec:ftr34}~節の三種類の素性の設定を区別して,合計9種類のモデルを考え,その各々について,5グラムモデルの出力との間で混合を行ない,その性能を評価した.ただし,個々の固有表現抽出モデルを学習するための訓練データセット$TrI$,複数システムの出力の正誤判別規則を学習するための訓練データセット$TrC$,\ref{subsec:DL}~節の(\ref{eqn:lbdF})式の頻度閾値$L_f$の設定の組合わせとしては,以下の二通りについて評価を行なった.なお,複数システムの出力の正誤判別規則を評価するための評価データセット$Ts$については,いずれも,本試験データ$D_{formal}$を用いた.\begin{center}\begin{tabular}{lll}(a)&$TrI$:&$D_{CRL}$から200記事$D^{200}_{CRL}$を除いた残り$D_{CRL}-D^{200}_{CRL}$\\&$TrC$:&$D_{CRL}$中の200記事$D^{200}_{CRL}$\\&$L_f$:&$D_{CRL}-D^{200}_{CRL}$中の200記事に対して,正誤判別規則の性能を最大にする値\\(b)&\multicolumn{2}{l}{$TrI=TrC=D_{CRL}$}\\&$L_f$:&(a)と同じ値\end{tabular}\end{center}このうち,設定(a)は,二つの訓練データセット$TrI$と$TrC$について,重複のないデータセットを用いたものに相当する.ただし,利用可能なデータ量に限界があることから,混合のための正誤判別規則学習の訓練データセット$TrC$のサイズが小さくなっている.一方,設定(b)の方は,個々の固有表現抽出モデルを訓練データ$TrI$自身に適用したインサイド適用の結果を利用した混合となるが,混合のための正誤判別規則学習の訓練データセット$TrC$のサイズは設定(a)よりもずっと大きい\footnote{ここで,厳密に\ref{subsec:proc}~節の評価手続きに従うと,評価手順(\ref{enum:evproc1})において,評価データセット$Ts$に対する固有表現抽出結果のリスト$NEList_i(Ts)$$(i=1,2)$を得る場合には,訓練の段階で用いた個々の固有表現抽出モデル$NEext_i$$(i=1,2)$と同じものを用いる必要がある.しかし,本論文では,設定(a)と(b)の間で,混合を行なう前の固有表現抽出結果のリスト$NEList_i(Ts)$$(i=1,2)$を統一して,同一の条件で評価を行なうことを優先した.そのため,設定(a)において用いる固有表現抽出結果のリスト$NEList_i(Ts)$$(i=1,2)$としては,設定(b)と同じく,$D_{CRL}$の全体を用いて学習された各固有表現抽出モデルを適用して得られたものを用いた.訓練データが$D_{CRL}$であるか$D_{CRL}-D^{200}_{CRL}$であるかの違いによる固有表現抽出モデルの性能の差はそれほど大きくないので,このことによる影響は小さいと考えられる.}.\begin{table}\begin{center}\caption{5グラムモデルの出力と各モデルの出力の混合結果の性能(F値($\beta=1$)(再現率/適合率)(\%))}\label{tab:res-comb}\begin{tabular}{|l||c|c|c|}\hline\multicolumn{4}{|c|}{(a)\\\$TrI=D_{CRL}-D^{200}_{CRL}$,$TrC=D^{200}_{CRL}$($D_{CRL}$中の200記事)}\\\hline\hline&\multicolumn{3}{|c|}{形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性}\\\cline{2-4}&\\\全て\\\&語彙+品詞&語彙\\\hline\hline7グラムモデル&81.54(78.15/85.23)&81.53(77.79/85.65)&80.60(77.08/84.46)\\\hline9グラムモデル&81.31(77.58/85.41)&81.26(77.51/85.40)&80.60(77.08/84.46)\\\hline可変長モデル&{\bf83.43}{\bf(80.23/86.89)}&81.55(76.29/87.58)&81.85(78.51/85.49)\\\hline\multicolumn{4}{c}{}\\\hline\multicolumn{4}{|c|}{(b)\\\$TrI=TrC=D_{CRL}$}\\\hline\hline&\multicolumn{3}{|c|}{形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性}\\\cline{2-4}&\\\全て\\\&語彙+品詞&語彙\\\hline\hline7グラムモデル&81.97(78.51/85.76)&81.83(78.22/85.78)&81.58(78.51/84.90)\\\hline9グラムモデル&81.53(77.79/85.65)&81.66(78.15/85.50)&81.52(78.51/84.76)\\\hline可変長モデル&{\bf84.07}{\bf(81.45/86.86)}&83.07(79.94/86.44)&82.50(79.87/85.31)\\\hline\end{tabular}\vspace*{-.5cm}\end{center}\end{table}\subsubsection{評価結果}評価結果を表~\ref{tab:res-comb}に示す.この結果から分かるように,設定(a)と(b)を比べると,一律に,設定(b)の方が高い性能が得られている.このことから,正誤判別規則の学習において,たとえ,インサイド適用の結果しか利用できなかったとしても,混合のための正誤判別規則学習の訓練データセット$TrC$のサイズはできるだけ大きい方がよいことがわかる.特に,設定(b)においては,どの混合結果においても5グラムモデル単独の性能を上回っていることから,混合規則学習のための十分な訓練データがあれば,混合により多少なりとも個々のモデルの出力の性能を向上できることが予想される.また,設定(b)の場合,7グラムモデル,9グラムモデルといった固定長モデルの出力と5グラムモデルの出力を混合した場合よりも,可変長モデルの出力と5グラムモデルの出力を混合した場合の方が圧倒的に高い性能向上を達成している.この結果は,表~\ref{tab:dif_indivi}の差分の傾向と合致しており,5グラムモデルとの類似性が相対的に小さい可変長モデルの出力との混合において,より高い性能向上が得られている.また,可変長モデル同士の間で,形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性の設定が異なる場合を比較しても,この傾向が成り立っており,5グラムモデルとの類似性が小さいほど混合結果における性能向上は大きい.これらの結果から,出力の和の再現率が高く,誤出力の重複率が小さくなるような,なるべく類似性の小さい複数の日本語固有表現抽出モデルの出力を用意して,本論文の手法により出力の混合を行なえば,単独のモデルの出力の性能向上が期待できることがわかる.\subsubsection{固有表現の形態素長/種類ごとの分析}次に,5グラムモデルの出力と可変長モデルの出力の混合の場合について,固有表現を構成する形態素数ごと,および,固有表現の種類ごとに,単独モデルの出力および混合結果の性能(F値,再現率,適合率)を列挙したものを,それぞれ,表~\ref{tab:res-len},および,表~\ref{tab:res-netag}に示す.なお,表中で,固有表現を構成する形態素数ごと,あるいは,固有表現の種類ごとに,最も高いF値を達成した結果をそれぞれ{\bf太字}で示す.表~\ref{tab:res-len}から分かるように,どの可変長モデルの出力との混合においても,ほぼ全ての形態素長の固有表現において,5グラムモデル単独の出力の再現率・適合率をともに上回っている.特に,最高の性能を示している「5グラムモデル+可変長モデル(全て)」の結果においては,5グラムモデルからの性能向上の度合は,形態素長が長くなるほど大きいことから,可変長モデルでしか出力されなかった長い固有表現を,混合によってうまく抽出できていることがわかる.また,表~\ref{tab:res-netag}からは,どの可変長モデルの出力との混合においても,ほぼ全ての種類の固有表現において,5グラムモデルの出力の再現率・適合率とほぼ同等かそれ以上の性能が得られている.そのうち,TIME,MONEY,PERCENTの三種類については,他の種類と比較して,訓練データ・評価データともその頻度が小さく,また,5グラムモデルにおける性能もかなり高いことから,改善の余地があまりなかったと考えられる.ただし,その場合でも,混合結果においては,可変長モデルの低い性能の悪影響を受けることなく,5グラムモデルの高い性能が反映されている.\begin{table*}\begin{center}\caption{混合結果の性能:固有表現の形態素長ごと,$TrI=TrC=D_{CRL}$\\(F値($\beta=1$)(再現率)(適合率)(\%))}\label{tab:res-len}\begin{tabular}{|c||c||c|c|c|c|}\hline&\multicolumn{5}{c|}{$n$形態素対一固有表現}\\\cline{2-6}&$n\geq1$&$n=1$&$n=2$&$n=3$&$n\geq4$\\\hline\hline&81.16&83.60&86.94&68.42&50.59\\5グラムモデル&(78.87)&(84.97)&(85.90)&(63.64)&(35.83)\\&(83.60)&(82.28)&(88.00)&(73.98)&(86.00)\\\hline&45.12&53.77&56.63&33.74&16.78\\可変長モデル&(51.50)&(38.69)&(71.37)&(57.34)&(40.00)\\(全て)&(40.15)&(88.14)&(47.93)&(23.91)&(10.62)\\\hline&77.02&81.86&79.96&63.19&50.52\\可変長モデル&(75.86)&(78.57)&(84.82)&(63.64)&(40.83)\\(語彙+品詞)&(78.21)&(85.44)&(75.63)&(62.76)&(66.22)\\\hline&75.16&79.11&83.02&50.46&22.38\\可変長モデル&(73.78)&(87.05)&(81.13)&(38.46)&(13.33)\\(語彙)&(76.58)&(72.49)&(85.00)&(73.33)&(69.57)\\\hline\hline5グラムモデル&{\bf84.07}&85.06&{\bf88.96}&{\bf75.19}&{\bf65.96}\\+可変長モデル&{\bf(81.45)}&(85.12)&{\bf(87.42)}&{\bf(69.93)}&{\bf(51.67)}\\(全て)&{\bf(86.86)}&(84.99)&{\bf(90.56)}&{\bf(81.30)}&{\bf(91.18)}\\\hline5グラムモデル&83.07&84.97&87.29&72.80&63.04\\+可変長モデル&(79.94)&(84.52)&(85.68)&(66.43)&(48.33)\\(語彙+品詞)&(86.44)&(85.41)&(88.96)&(80.51)&(90.63)\\\hline5グラムモデル&82.50&{\bf85.11}&87.73&71.04&50.89\\+可変長モデル&(79.87)&{\bf(86.76)}&(86.12)&(64.34)&(35.83)\\(語彙)&(85.31)&{\bf(83.52)}&(89.41)&(79.31)&(87.76)\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}\begin{scriptsize}\begin{center}\caption{混合結果の性能:固有表現の種類ごと,$TrI=TrC=D_{CRL}$\\(F値($\beta=1$)(再現率)(適合率)(\%))}\label{tab:res-netag}\hspace*{-.3cm}\begin{tabular}{|c||c|c|c|c|c|c|c|c|}\hline&ORGANI-&PER-&LOCA-&ARTI-&DATE&TIME&MONEY&PER-\\&ZATION&SON&TION&FACT&&&&CENT\\\hline\hline&67.74&81.82&77.04&30.43&91.49&{\bf93.20}&{\bf92.86}&87.18\\5グラムモデル&(58.45)&(79.88)&(71.91)&(29.17)&(88.85)&{\bf(88.89)}&{\bf(86.67)}&(80.95)\\&(80.53)&(83.85)&(82.96)&(31.82)&(94.29)&{\bf(97.96)}&{\bf(100.00)}&(94.44)\\\hline&35.48&48.45&38.47&5.80&78.60&56.90&60.61&87.18\\可変長モデル&(37.40)&(48.52)&(32.93)&(22.92)&(81.92)&(61.11)&(66.67)&(80.95)\\(全て)&(33.75)&(48.38)&(46.26)&(3.32)&(75.53)&(53.23)&(55.56)&(94.44)\\\hline&65.30&78.56&72.46&26.92&88.51&77.36&80.00&{\bf89.47}\\可変長モデル&(57.34)&(77.51)&(66.59)&(29.17)&(88.85)&(75.93)&(80.00)&{\bf(80.95)}\\(語彙+品詞)&(75.82)&(79.64)&(79.48)&(25.00)&(88.17)&(78.85)&(80.00)&{\bf(100.00)}\\\hline&63.96&76.81&72.29&25.00&86.96&54.21&73.33&81.08\\可変長モデル&(54.57)&(78.40)&(68.52)&(20.83)&(84.62)&(53.70)&(73.33)&(71.43)\\(語彙)&(77.25)&(75.28)&(76.49)&(31.25)&(89.43)&(54.72)&(73.33)&(93.75)\\\hline\hline5グラムモデル&{\bf72.18}&84.15&{\bf79.58}&{\bf38.71}&{\bf92.86}&{\bf93.20}&{\bf92.86}&87.18\\+可変長モデル&{\bf(62.88)}&(81.66)&{\bf(73.61)}&{\bf(37.50)}&{\bf(90.00)}&{\bf(88.89)}&{\bf(86.67)}&(80.95)\\(全て)&{\bf(84.70)}&(86.79)&{\bf(86.61)}&{\bf(40.00)}&{\bf(95.90)}&{\bf(97.96)}&{\bf(100.00)}&(94.44)\\\hline5グラムモデル&70.19&83.41&78.22&35.29&92.64&92.16&{\bf92.86}&87.18\\+可変長モデル&(60.66)&(81.07)&(72.15)&(31.25)&(89.62)&(87.04)&{\bf(86.67)}&(80.95)\\(語彙+品詞)&(83.27)&(85.89)&(85.39)&(40.54)&(95.88)&(97.92)&{\bf(100.00)}&(94.44)\\\hline5グラムモデル&68.82&{\bf84.46}&77.50&31.46&91.85&{\bf93.20}&{\bf92.86}&{\bf89.47}\\+可変長モデル&(59.28)&{\bf(82.84)}&(72.15)&(29.17)&(88.85)&{\bf(88.89)}&{\bf(86.67)}&{\bf(80.95)}\\(語彙)&(81.99)&{\bf(86.15)}&(83.71)&(34.15)&(95.06)&{\bf(97.96)}&{\bf(100.00)}&{\bf(100.00)}\\\hline\end{tabular}\end{center}\end{scriptsize}\end{table*}\subsubsection{単独モデル・混合結果の出力のパターンの分析}\begin{table*}\begin{scriptsize}\begin{center}\caption{単独モデル・混合結果の出力のパターンの分析結果}\label{tab:res-syspat}\hspace*{-.3cm}\begin{tabular}{|c|c||c|c|c|c|c|c|c|c|c|c|c|c|}\hline\multicolumn{14}{|c|}{5グラムモデルと可変長モデル(形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性$=$全て)の出力の混合}\\\hline\hline単独モデルの&5グラムモデル&有&有&無&有&有&無&有&有&無&有&有&無\\\cline{2-14}出力の有無&可変長モデル&有&無&有&有&無&有&有&無&有&有&無&有\\\hline\multicolumn{2}{|c||}{混合結果の出力の有無}&\multicolumn{3}{|c|}{有}&\multicolumn{3}{|c|}{無}&\multicolumn{3}{|c|}{有}&\multicolumn{3}{|c|}{無}\\\hline\multicolumn{2}{|c||}{正解データにおける有無}&\multicolumn{3}{|c|}{有}&\multicolumn{3}{|c|}{無}&\multicolumn{3}{|c|}{無}&\multicolumn{3}{|c|}{有}\\\hline\hline\multicolumn{2}{|c||}{割合(\%)}&28.0&18.2&1.5&0.04&1.8&42.5&2.4&4.8&0&0&0&0.7\\\hline\multicolumn{2}{|c||}{正誤判別率(\%)(判別数/出力数)}&\multicolumn{6}{|c|}{(判別正解率)\\92.1\\(2194/2382)}&\multicolumn{6}{|c|}{(判別誤り率)\\7.9\\(188/2382)}\\\hline\multicolumn{14}{c}{}\\\hline\multicolumn{14}{|c|}{5グラムモデルと可変長モデル(形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性$=$語彙+品詞)の出力の混合}\\\hline\hline単独モデルの&5グラムモデル&有&有&無&有&有&無&有&有&無&有&有&無\\\cline{2-14}出力の有無&可変長モデル&有&無&有&有&無&有&有&無&有&有&無&有\\\hline\multicolumn{2}{|c||}{混合結果の出力の有無}&\multicolumn{3}{|c|}{有}&\multicolumn{3}{|c|}{無}&\multicolumn{3}{|c|}{有}&\multicolumn{3}{|c|}{無}\\\hline\multicolumn{2}{|c||}{正解データにおける有無}&\multicolumn{3}{|c|}{有}&\multicolumn{3}{|c|}{無}&\multicolumn{3}{|c|}{無}&\multicolumn{3}{|c|}{有}\\\hline\hline\multicolumn{2}{|c||}{割合(\%)}&67.8&4.4&1.7&0.2&2.6&10.3&8.9&2.6&0.1&0&0.7&0.7\\\hline\multicolumn{2}{|c||}{正誤判別率(\%)(判別数/出力数)}&\multicolumn{6}{|c|}{(判別正解率)\\87.1\\(1315/1510)}&\multicolumn{6}{|c|}{(判別誤り率)\\12.9\\(195/1510)}\\\hline\multicolumn{14}{c}{}\\\hline\multicolumn{14}{|c|}{5グラムモデルと可変長モデル(形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性$=$語彙)の出力の混合}\\\hline\hline単独モデルの&5グラムモデル&有&有&無&有&有&無&有&有&無&有&有&無\\\cline{2-14}出力の有無&可変長モデル&有&無&有&有&無&有&有&無&有&有&無&有\\\hline\multicolumn{2}{|c||}{混合結果の出力の有無}&\multicolumn{3}{|c|}{有}&\multicolumn{3}{|c|}{無}&\multicolumn{3}{|c|}{有}&\multicolumn{3}{|c|}{無}\\\hline\multicolumn{2}{|c||}{正解データにおける有無}&\multicolumn{3}{|c|}{有}&\multicolumn{3}{|c|}{無}&\multicolumn{3}{|c|}{無}&\multicolumn{3}{|c|}{有}\\\hline\hline\multicolumn{2}{|c||}{割合(\%)}&67.3&6.1&1.1&0.1&1.5&10.6&10.4&2.5&0&0&0.1&0.4\\\hline\multicolumn{2}{|c||}{正誤判別率(\%)(判別数/出力数)}&\multicolumn{6}{|c|}{(判別正解率)\\86.6\\(1297/1497)}&\multicolumn{6}{|c|}{(判別誤り率)\\13.4\\(200/1497)}\\\hline\end{tabular}\end{center}\end{scriptsize}\end{table*}5グラムモデルの出力と可変長モデルの出力の混合の場合について,各単独モデルの出力における固有表現の有無,および,混合結果における固有表現の有無と,正解データにおける固有表現の有無のパターンの割合を調査した結果を表~\ref{tab:res-syspat}に示す.表中で,「有」「無」は,それぞれ,単独モデルの出力,混合結果,正解データに固有表現が存在する場合,および,存在しない場合を表す.例えば,「有」「有」「有」「有」のパターンは,両方の単独モデルの出力にその固有表現が存在し,混合結果においてもその固有表現が出力され,かつ,それが正解データにも存在する正解の固有表現である場合に相当する.また,割合(\%)の計算においては,両方の単独モデルの出力の和における固有表現数を分母,それぞれのパターンに該当する固有表現数を分子として,割合(\%)を計算している.さらに,混合における正誤判別結果が正解であるか否かについては,混合結果および正解データにおける出力の有無が一致する場合は正誤判別が正解,一致しない場合は正誤判別が誤りであるので,「正誤判別率」の欄にそれぞれの率を示した.形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性の設定が異なる場合についてこの結果を比較すると,「5グラムモデル+可変長モデル(全て)」において判別正解率が高くなっているが,これは,「可変長モデル(全て)」の性能が極端に悪く,「可変長モデル(全て)」のみが出力した固有表現の多くが誤りであり,その判別が比較的容易であったからである.全体では,どの可変長モデルの出力との混合においても,5グラムモデルの出力を覆すことで正解となった場合(「無」「有」「有」「有」および「有」「無」「無」「無」)が数\%あり,これが,5グラムモデルからの性能向上に寄与している.その一方で,判別誤りの内訳をみると,その多くは,誤出力の検出が十分できなかった場合で,ほとんどの場合,少なくとも5グラムモデルはその誤りの固有表現を出力している.このことから,より効果的な素性を用いる,あるいは,より高性能な学習器を用いるなどして,誤出力検出の精度を向上させることにより,適合率を向上できる余地があることがわかる.\subsection{最大エントロピー法による正誤判別規則学習}\label{subsec:comb-ME}最後に,正誤判別規則学習の学習法の比較のために,最大エントロピー法を用いて正誤判別規則学習を行なった.まず,最大エントロピー法を適用するために,\ref{subsubsec:event}~節の(\ref{eqn:segev})式の事象表現$SegEv_j$を,以下のように変換する.\begin{eqnarray}SegEv_j&=&\{NEListev_{p,\ldots,q},\ldots,NEListev_{p',\ldots,q'}\}\\\\label{eqn:segev-ME}\end{eqnarray}ここで,各事象表現$NEListev_{p,\ldots,q}$は,システムの指標のリストごとに固有表現をまとめたもので,固有表現のリストの事象表現に相当する\footnote{最大エントロピー法の適用における事象表現の形式は,\ref{subsubsec:event}~節の決定リスト学習の場合の事象表現の形式とは異なっているが,最大エントロピー法における素性の表現能力を必要以上に制限しているわけではない.決定リスト学習において可能な素性を表現する際にも,\ref{subsubsec:ftr}~節のi)およびii)の二つの制約を課しているため,素性の表現能力について両者の間に意図的な差はない.}.\ref{subsubsec:event}~節の場合と同様に,以下の二種類のどちらかに対応し,それぞれ異なったデータ構造を持つ.\begin{enumerate}\item[i)]そのセグメント中で少なくとも一つのシステムにより出力された固有表現のリストの事象表現.\item[ii)]そのセグメント中で一つも固有表現を出力しなかった一つのシステムに関する情報を表す事象表現.\end{enumerate}i)のタイプの事象表現$NEListev_{p,\ldots,q}$は以下のようなデータ構造を持つ.\begin{eqnarray}NEListev_{p,\ldots,q}&=&\Bigl\{systems=\langlep,\ldots,q\rangle,\mlengthList=y,\ldots,z\mbox{morphemes},\nonumber\\&&\\NEtagList=\cdots,\POSList=\cdots,\nonumber\\&&\\classList_{NE}=+/-,\ldots,+/-\Bigr\}\label{eqn:NEnon-emp-ME}\end{eqnarray}このデータ構造は,\ref{subsubsec:event}~節の(\ref{eqn:NEnon-emp})式のデータ構造とほぼ同じであるが,固有表現のリストを表現するために,各素性に相当する情報が全てリスト表現になっている点が異なる.一方,ii)のタイプの事象表現$NEList_{r}$は,\ref{subsubsec:event}~節の(\ref{eqn:NEemp})式と同じく,以下のデータ構造で表現される.\begin{eqnarray}NEListev_{r}&=&\Bigl\{systems=\langler\rangle,\class_{sys}=\mbox{``nooutput''}\Bigr\}\label{eqn:NEemp-ME}\end{eqnarray}このような事象表現を用いて正誤判別規則の学習および適用を行なう際には,上述の(\ref{eqn:segev-ME})式の事象表現を事象の単位とし,\ref{subsubsec:class}~節の場合と同様に,各システム$i$ごとにまとめた以下のクラス表現を設定し,各システム$i$ごとにクラスの判別を行なうための正誤判別規則の学習および適用を行なう.\begin{eqnarray*}class_{sys}^1&=&\left\{\begin{array}{l}+/-,\\ldots,\+/-\\\mbox{``nooutput''}\end{array}\right.\nonumber\\&\cdots&\\class_{sys}^n&=&\left\{\begin{array}{l}+/-,\\ldots,\+/-\\\mbox{``nooutput''}\end{array}\right.\nonumber\end{eqnarray*}その際には,(\ref{eqn:NEnon-emp-ME})式の固有表現のリストの事象表現$NEListev_{p,\ldots,q}$の$mlengthList$,$NEtagList$,$POSList$,および,(\ref{eqn:NEemp-ME})式の固有表現の事象表現$NEList_{r}$の$class_{sys}$を,それぞれ文脈$x$とし,上式の,各システムごとにまとめた正誤のクラスのリストを付与するための条件付確率モデルを,最大エントロピーモデルとして学習する.この最大エントロピーモデルは,各システム$i$ごとに個別にモデルの学習・適用を行なう.\begin{table}\begin{center}\caption{5グラムモデル/その他の各モデルの出力の最大エントロピー法による\\混合結果の性能(F値($\beta=1$)(再現率/適合率)(\%))}\label{tab:res-comb-ME}\begin{tabular}{|l||c|c|c|}\hline\multicolumn{4}{|c|}{(a)\\\$TrI=TrC=D_{CRL}$,結合素性なし}\\\hline\hline&\multicolumn{3}{|c|}{形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性}\\\cline{2-4}&\\\全て\\\&語彙+品詞&語彙\\\hline\hline7グラムモデル&81.81(78.80/85.07)&81.70(78.51/85.16)&81.47(78.58/84.58)\\\hline9グラムモデル&81.21(78.01/84.68)&81.38(78.30/84.73)&81.46(78.51/84.63)\\\hline可変長モデル&81.12(76.65/86.15)&81.48(77.36/86.06)&81.37(78.37/84.61)\\\hline\multicolumn{4}{c}{}\\\hline\multicolumn{4}{|c|}{(b)\\\$TrI=TrC=D_{CRL}$,結合素性あり}\\\hline\hline&\multicolumn{3}{|c|}{形態素$M_{l(\leq-3)}$,$M_{r(\geq3)}$の素性}\\\cline{2-4}&\\\全て\\\&語彙+品詞&語彙\\\hline\hline7グラムモデル&81.71(78.72/84.93)&81.58(78.37/85.07)&81.35(78.44/84.49)\\\hline9グラムモデル&81.16(78.08/84.50)&81.22(78.37/84.28)&81.29(78.58/84.19)\\\hline可変長モデル&80.94(76.65/85.74)&81.40(77.29/85.98)&81.24(78.01/84.75)\\\hline\end{tabular}\vspace*{-.5cm}\end{center}\end{table}このような方法で,7グラムモデル,9グラムモデル,可変長モデルについて,それぞれ,\ref{subsubsec:ftr34}~節の三種類の素性の設定を区別して,合計9種類のモデルを考え,その各々について,5グラムモデルの出力との間で混合を行ない,その性能を評価した.ただし,$TrI=TrC=D_{CRL}$とし,評価データセット$Ts$は本試験データ$D_{formal}$とした.最大エントロピーモデルの素性関数の頻度に下限を設け,評価データセット$Ts$に対して最も高い性能が得られた場合の結果を表~\ref{tab:res-comb-ME}(a)に示す.また,決定リスト学習との間で条件を揃えるために,\ref{subsubsec:ftr}~節の(\ref{eqn:ftr})式の形式の決定リスト学習の素性のうち,上述の実験結果(a)では用いていなかった結合素性を追加して最大エントロピーモデルの学習および適用を行なった結果を表~\ref{tab:res-comb-ME}(b)に示す.この場合は,決定リスト学習における各規則の条件付確率$P(class_{sys}^i\!=\!c_i\midf)$に下限を設け,評価データセット$Ts$に対して最も高い性能が得られた場合の結果を示している.表~\ref{tab:res-comb-ME}の(a)と(b)の結果を比較すると,結合素性を用いた場合の方が性能が悪くなっている.また,いくかの結果を除いて,5グラムモデルの性能からの向上はみられるものの,決定リスト学習による可変長モデルの出力との混合の場合のような高い性能向上は達成できていない.この理由の一つとしては,最大エントロピーモデルと決定リスト学習の間のモデルの形式の違いの影響が挙げられる.最大エントロピーモデルは,あらゆる素性とクラスとの相関をそれぞれ別個のパラメータとし,モデル内では全パラメータを考慮する形式のモデルになっている.一方,決定リスト学習は,各々のクラス決定において最も寄与する素性の組合わせのみを考慮し,他の素性は全く考慮しない.したがって,素性間で寄与する度合の差がわずかしかない場合でも,決定リスト学習では,最も寄与する素性の組合わせのみが考慮されるのに対して,最大エントロピーモデルでは,全素性の寄与を総合的に考慮する.本論文の正誤判別規則学習による混合の問題では,素性の種類が比較的少なく,特に高頻度な素性\footnote{例えば,複数の情報の結合でなく単独の情報のみから構成される素性など.}は,実際にクラス判別に寄与する度合に関係なく,どの事象においても常に一定の値以上の重みを持つと考えられる.そのような問題の場合には,最大エントロピーモデルのように全素性の寄与を総合的に考慮する学習法でなく,決定リスト学習のように各々のクラス決定に最も寄与する素性の組合わせのみを考慮する学習法が適していると考えられる.逆に,正誤判別規則学習による混合の前段階である,形態素への固有表現まとめ上げ状態付与の問題の場合には,\cite{Sassano00bjx,Sassano00a}に示されるように,決定リスト学習よりも最大エントロピーモデルの方が高い性能を示している.この問題の場合には,素性の種類が比較的多く,極端に高頻度な素性も少ないことから,最大エントロピーモデルのように全素性の寄与を総合的に考慮する学習法が適していると考えられる. \section{関連研究} \label{sec:rel}\subsection{複数モデルの出力の混合法}\ref{sec:intro}~節で述べたように,一般に,複数のモデル・システムの出力を混合する過程は,大きく以下の二つの部分に分けて考えることができる.\begin{enumerate}\item\label{enum:sub1-rel}できるだけ振る舞いの異なる複数のモデル・システムを用意する.\item\label{enum:sub2-rel}用意された複数のモデル・システムの出力を混合する方式を選択・設計し,必要であれば学習等を行ない,与えられた現象に対して,用意された複数のモデル・システムの出力を混合することを実現する.\end{enumerate}ここで,これまで自然言語処理の問題に適用された混合手法においては,これらの(\ref{enum:sub1-rel})および(\ref{enum:sub2-rel})の過程について,大体以下のような手法が用いられていた.まず,(\ref{enum:sub1})については,大きく分けて以下のような手法がある.\begin{enumerate}\item[i)]学習モデルが異なる複数のシステム等(原理的には,人手による規則に基づくシステムとデータからの学習に基づくシステム,などの組合わせも可能),ある程度振る舞いの異なる既存のシステムを用意する~\cite{vanHalteren98a,Brill98a,Henderson99a,KoInui00aj,Sang00a}.\item[ii)]i)と似ているが,学習モデルは単一のものを用い,データの表現法(具体的には,まとめ上げ問題におけるまとめ上げ状態の表現法)として複数のものを設定することにより,複数の出力を得る~\cite{Sang00a,TKudo00ajx}.\item[iii)]単一の学習モデルを用いるが,訓練データのサンプリングを複数回行なうことにより複数のモデルを学習するbagging法~\cite{Breiman96b}を用いる~\cite{Henderson00a},あるいは,単一の学習モデルを用い,誤り駆動型で訓練データ中の訓練事例の重みを操作しながら学習と適用を繰り返すことにより,各サイクルの誤りに特化した複数のモデル(およびそれらの重み)を学習するboosting法~\cite{Freund99aj}を用いる~\cite{Haruno97a,Haruno99a,Abney99a,Henderson00a}.\end{enumerate}これに対して,本論文においては,振る舞いの異なる複数のモデルを得る方法として,学習モデルは単一のものを用い,固有表現まとめ上げの際に考慮する周囲の形態素の個数を区別することで複数のモデルを得るという方法をとった.この方法は,上記のうちでは,ii)でとられた方法と比較的似ている.次に,(\ref{enum:sub2})については,大きく分けて以下のような手法がある\footnote{boostingは,複数のモデルを組合わせる際の重みまで含めて,全体として誤りが減少するように複数モデルの生成法が設計されているので,以下の分類には含めない.}.\begin{enumerate}\item[i)]重み付多数決など,何らかの多数決を行なうもの~\cite{Breiman96b,vanHalteren98a,Brill98a,Henderson99a,KoInui00aj,Sang00a,Henderson00a,TKudo00ajx}.\item[ii)]複数のシステム・モデルの重みに応じて採用するシステムの切り替えを行なうもの~\cite{Henderson99a,KoInui00aj}.\item[iii)]原理的に,上記のi)およびii)を包含し得る方法として,複数のシステム・モデルの出力(および訓練データそのもの)を入力とする第二段の学習器を用いて,複数のシステム・モデルの出力の混合を行なうstacking法~\cite{Wolpert92a},あるいは,それと同等の方法に基づくもの~\cite{vanHalteren98a,Brill98a,Sang00a}.\end{enumerate}これらの方法のうち,本論文では,原理的に,i)およびii)を包含し得るiii)のstacking法を用いている.特に,本論文では,個々のシステムの出力する重みの情報は利用せずstackingを行なっているので,規則に基づくシステムなどで重みを出力しない場合でも,そのまま本論文の手法を適用することができる.これに対して,重み付多数決や重みを用いたシステム切り替えの場合は,システム数が少なく(例えば,二種類のシステムの混合の場合),かつ,個々のシステムが重みを出力しない場合などでは,適用が困難になると考えられる.また,通常のbagging法やboosting法を適用する場合でも,第一段としては何らかの学習モデルを採用する必要があるが,本論文の混合法にはそのような制約はないので,原理的には,第一段として任意のシステムを採用することが可能である.\subsection{Stacking法}次に,本節では,stacking法についての関連研究,および,stacking法と同等の手法を自然言語処理におけるシステム混合の問題に適用している研究事例について述べる.stacking法は,\cite{Wolpert92a}によってその枠組みが提案され,その後,機械学習の分野においていくつかの応用手法が提案されている~\cite{Breiman96a,Ting97a,Gama00a}.例えば,\cite{Breiman96a}は,回帰法を用いたstackingを提案している.\cite{Ting97a}は,第一段の学習器として,決定木学習,ナイーブベイズ,最近隣法を用い,第二段の学習器として,決定木学習,ナイーブベイズ,最近隣法,線形回帰法の一種を用いた実験を行ない,性能の比較をしている.一方,\cite{Gama00a}は,それまで提案されたstacking法を,$n$段の学習器の連鎖に拡張し,第$k$$(1<k\leqn)$段の学習器は,第一段から第$k-1$段までの全ての学習器の入出力データを素性として学習を行なうというカスケード法を提案している.特に,それまでのstacking法は,第一段の学習器の出力のみを入力素性として第二段の学習器の学習を行なうものがほとんどであったのに対して,カスケード法では,前段までの学習器の出力だけでなく,入力素性もあわせて利用する点が特徴的である.一方,自然言語処理におけるシステム混合の問題にstacking法と同等の手法を適用している研究事例\footnote{``stacking''という用語を用いていない事例も多い.}としては,英語品詞付けにおいて,最大エントロピー法,変形に基づく学習,トライグラムモデル,メモリベース学習を第一段の学習器とし,決定木学習,メモリベース学習法などを第二段の学習器としてstackingを行なうもの~\cite{Brill98a,vanHalteren98a},英語名詞句まとめ上げにおいて,七種類の学習器を第一段に用い,決定木学習,メモリベース学習法を第二段の学習器としてstackingを行なうもの~\cite{Sang00a}などがある.これらの事例においては,いずれも,第一段の入力素性および出力を用いて第二段の学習器の学習を行なった結果も報告している.また,\cite{Borthwick98a}は,英語の固有表現抽出において,単一の最大エントロピーモデルの素性として,通常の固有表現まとめ上げ・タイプ分類に用いる素性とあわせて,他の既存のシステムの出力を素性として用いて,個々の単語に固有表現まとめ上げ状態・タイプ分類を付与するための分類器の学習を行なっている.一方,\cite{Freitag00a}は,情報抽出におけるテンプレート・スロット埋め問題において,ナイーブベイズ法,帰納的論理プログラミング法などを第一段の学習器とし,回帰法を第二段の学習器としてstackingを行なっている.ここでは,第二段の学習器の入力は,第一段の学習器の出力のみとなっている.これらの事例と比較すると,本論文の日本語固有表現抽出の問題においては,第一段の学習器は,個々の形態素に固有表現まとめ上げ状態・タイプ分類を付与するための分類器の学習を行なっているのに対して,第二段の学習器は,個々のシステムの固有表現抽出結果,および,第一段の学習器の入力となった素性(の一部)を入力として,個々のシステムの固有表現抽出結果の正誤を判定するための分類器の学習を行なっている.このように,本論文のstacking法では,第一段と第二段の学習器の学習の単位が異なっている点が変則的である.ただし,このような構成をとることにより,第一段としては,任意の固有表現抽出システムを用いることが可能となっている.また,\cite{Borthwick98a}と比較すると,\cite{Borthwick98a}では,本論文の第二段に相当する学習器が,個々の単語に固有表現まとめ上げ状態・タイプ分類を付与するための分類器の学習を行なっている点が異なっている.\subsection{統計的手法に基づく日本語固有表現抽出}統計的手法に基づく日本語固有表現抽出の研究事例としては,我々がベースとした,最大エントロピー法を用いるもの\cite{Uchimoto00aj}の他に,決定木学習を用いるもの~\cite{Sekine98a,Nobata99aj},最大エントロピー法を用いるもの~\cite{Borthwick99aj},決定リスト学習を用いるもの~\cite{Sassano00a},SVM(supportvectormachines)を用いるもの~\cite{Yamada01ajx}などがある.これらは,いずれも,単一の学習モデルを用いている.決定リスト学習を用いる事例~\cite{Sassano00a}では,可変長文脈素性を用いることにより,固定長モデルの性能の上回る結果が得られているが,ベースとなる決定リスト学習の性能は最大エントロピー法の性能よりも劣っている.その他の事例では,いずれも,固定長文脈素性を用いている.また,stacking法の研究事例においては,異なる数種類の学習器を第一段に用いるという構成が多く見られ,一定の効果が報告されているので,上記の複数の学習器を第一段としてstacking法を行なうことにより,精度の向上が期待できる可能性がある.その他には,\cite{Yamada01ajx}で報告されているように,解析の方向を文頭から文末と文末から文頭の二通り設定し,解析済の固有表現のタグを素性として利用する方法により,振る舞いの異なった出力が得られる可能性があり,stacking法でその出力を利用することで,精度の向上が期待できる可能性がある.また,\cite{Isozaki00ajx}では,決定木学習により学習された可読性の高い規則や人手による付加制約等を適用して複数の固有表現候補を生成し,最長一致法により複数の候補の選別を行なっている.ここで,複数の候補の選別を行なう際に,本論文の混合法を適用することにより,誤出力の棄却まで含めたより一般的な選別が自然な形で実現できる可能性があると考えられる. \section{おわりに} \label{sec:conc}本論文では,日本語固有表現抽出の問題において,複数のモデルの出力を混合する手法を提案した.まず,最大エントロピー法に基づく統計的学習による固有表現抽出モデルにおいて,現在位置の形態素が,いくつの形態素から構成される固有表現の一部であるかを考慮して学習を行なう可変長モデルと,常に現在位置の形態素の前後数形態素ずつまでを考慮して学習を行なう固定長モデルとの間のモデルの挙動の違いに注目し,なるべく挙動が異なり,かつ,適度な性能を保った複数のモデルの出力の混合を行なった.混合の方式としては,複数のシステム・モデルの出力(および訓練データそのもの)を入力とする第二段の学習器を用いて,複数のシステム・モデルの出力の混合を行なう規則を学習するという混合法(stacking法)を採用した.第二段の学習器として決定リスト学習を用いて,固定長モデルおよび可変長モデルの出力を混合する実験を行なった結果,最大エントロピー法に基づく固有表現抽出モデルにおいてこれまで得られていた最高の性能を上回る性能が達成された.今回の実験では,固定長モデル同士は出力される固有表現の分布がお互いに似通っており,可変長モデル同士も使用する素性の集合に包含関係があることから,出力する固有表現の傾向が大きく異なるモデルは,固定長モデルと可変長モデルの二種類だけであると仮定した.そのため,評価実験においても,二つのモデルの出力の混合の結果のみを報告したが,今後は、傾向の大きく異なる三種類以上のモデルの出力に対して,本論文の混合手法の有効性を評価したいと考えている.また,本論文の手法は,個々の単独システムに何らかの固有表現候補を出力させて,それらの固有表現候補を取捨選択するという方法であるので,再現率の観点からは,個々の単独システムの出力の和の再現率が上限となってしまう.したがって,本論文の方法によってより高い性能の固有表現抽出を実現するためには,個々の単独システムが少しでも多くの固有表現候補を出力することが不可欠である.今後は,既存のどの固有表現抽出モデルを用いても抽出が失敗する固有表現の特性を分析し,できるだけ網羅的に固有表現候補を出力し,その結果を本論文の混合法で利用する方式について検討を行なう予定である.その際,網羅的に固有表現候補を出力するためには,まず,何らかの方法によって,広範なテキストから固有表現候補を収集して蓄積する必要があるが,ここでは,新聞記事やWWW上のテキスト等の大規模テキストから未知語を獲得する,あるいは専門用語を抽出するなどの手法の適用が有効であると考えている.\bibliographystyle{jnlpbbl}\bibliography{myabbrv,mydb}\clearpage\begin{biography}\biotitle{略歴}\bioauthor{宇津呂武仁}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学大学院工学研究科博士課程電気工学第二専攻修了.京都大学博士(工学).同年,奈良先端科学技術大学院大学情報科学研究科助手.1999年$\sim$2000年,米国ジョンズ・ホプキンス大学計算機科学科客員研究員.2000年,豊橋技術科学大学工学部情報工学系講師,現在に至る.自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本ソフトウェア科学会,日本音響学会,ACL,各会員.}\bioauthor{颯々野学}{1991年京都大学工学部電気工学第二学科卒業.同年より富士通研究所研究員,現在に至る.1999年$\sim$2000年,米国ジョンズ・ホプキンス大学計算機科学科客員研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会,各会員.}\bioauthor{内元清貴}{1994年京都大学工学部電気工学第二学科卒業.1996年同大学院工学研究科修士課程電気工学第二専攻修了.同年郵政省通信総合研究所入所.現在,独立行政法人通信総合研究所研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V15N03-04
\section{はじめに} 近年,自然言語処理において評価情報処理が注目を集めている\cite{Inui06}.評価情報処理とは,物事に対する評価が記述されたテキストを検索,分類,要約,構造化するような処理の総称であり,国家政治に対する意見集約やマーケティングといった幅広い応用を持っている.具体的な研究事例としては,テキストから特定の商品やサービスに対する評価情報を抽出する処理や,文書や文を評価極性(好評と不評)に応じて分類する処理などが議論されている\cite{Kobayashi05,Pang02,Kudo04,Matsumoto05,Fujimura05,Osashima05,McDonald07}.評価情報処理を行うためには様々な言語資源が必要となる.例えば,評価情報を抽出するためには「良い」「素晴しい」「ひどい」といった評価表現を登録した辞書が不可欠である\cite{Kobayashi05}.また,文書や文を評価極性に応じて分類するためには,評価極性がタグ付けされたコーパスが教師あり学習のトレーニングデータとして使われる\cite{Pang02}.我々は,評価情報処理のために利用する言語資源の一つとして,評価文コーパスの構築に取り組んでいる.ここで言う評価文コーパスとは,何かの評価を述べている文(評価文)とその評価極性を示すタグが対になったデータのことである(表\ref{tab:corpus}).タグは好評と不評の2種類を想定している.大規模な評価文コーパスがあれば,それを評価文分類器のトレーニングデータとして利用することや,そのコーパスから評価表現を獲得することが可能になると考えられる.\begin{table}[b]\caption{評価文コーパスの例.$+$は好評極性,$-$は不評極性を表す.}\label{tab:corpus}\input{04table1.txt}\end{table}\begin{figure}[b]\input{04fig1.txt}\caption{不評文書に好評文が出現するレビュー文書}\label{fig:pang}\end{figure}評価文コーパスを構築するには,単純に考えると以下の2つの方法がある.人手でコーパスを作成する方法と,ウェブ上のレビューデータを活用する方法である.後者は,例えばアマゾン\footnote{http://amazon.com/}のようなサイトを利用するというものである.アマゾンに投稿されているレビューには,そのレビューの評価極性を表すメタデータが付与されている.そのため,メタデータを利用することによって,好評内容のレビューと不評内容のレビューを自動的に収集することができる.しかしながら,このような方法には問題がある.まず,人手でコーパスを作るという方法は,大規模なコーパスを作ることを考えるとコストが問題となる.また,レビューデータを利用する方法には,文単位の評価極性情報を取得しにくいという問題がある.後者の具体例として図\ref{fig:pang}に示すレビュー文書\cite{Pang02}を考える.これは文書全体としては不評内容を述べているが,その中には好評文がいくつも出現している例である.このような文書を扱う場合,文書単位の評価極性だけでなく,文単位の評価極性も把握しておくことが望ましい.しかし,一般的にレビューのメタデータは文書に対して与えられるので,文単位の評価極性の獲得は難しい.さらに,レビューデータを利用した場合には,内容が特定ドメインに偏ってしまうという問題もある.こうした問題を踏まえて,本論文では大規模なHTML文書集合から評価文を自動収集する手法を提案する.基本的なアイデアは「定型文」「箇条書き」「表」といった記述形式を利用するというものである.本手法に必要なのは少数の規則だけであるため,人手をほとんどかけずに大量の評価文を収集することが可能となる.また,評価文書ではなく評価文を収集対象としているため,図\ref{fig:pang}のような問題は緩和される.さらに任意のHTML文書に適用できる方法であるため,様々なドメインの評価文を収集できることが期待される.実験では,提案手法を約10億件のHTML文書に適用したところ,約65万の評価文を獲得することができた. \section{アイデア} \label{sec:idea}提案手法は「定型文」「箇条書き」「表」という3つの記述形式を利用して評価文を自動抽出する.本節では,これら3つの形式で記述された評価文の例を概観して,基本的な考え方を説明する.手法の詳細は次節で述べる.\subsection{定型文}まず我々が着目したのは定型的な評価文である.\begin{lingexample}\head{これの\underline{良いところは}\fbox{計算が速い}\underline{ことです}.}\sent{\underline{悪い点は},\fbox{慣れるまで時間がかかる}\underline{こと}.}\end{lingexample}\noindentいずれの評価文も「良いところ/悪い点は〜なこと」という定型的な表現を使って記述されている.そのため,下線部にマッチするような語彙統語パターンを用意すれば,四角で囲まれたテキストを評価文として抽出することができる\footnote{四角で囲まれたテキストは正確には文ではなく句と呼ぶべきであるが,箇条書きと表から抽出される評価文との整合性を考えて,ここでは文と呼ぶことにする.}.以下では「良いところ」「悪い点」のように,評価文の存在を示唆する表現のことを手がかり句と呼ぶ.特に好評文の存在を示す手がかり句を「好評手がかり句」と呼ぶ.例えば「良いところ」は好評手がかり句である.同様に,不評文の存在を示す手がかり句を「不評手がかり句」と呼ぶ.\subsection{箇条書き}次に着目したのは,図\ref{fig:itemize}のように箇条書き形式で列挙された評価文である.この箇条書きは手がかり句(良い点,悪い点)を見出しに持つため,各項目に評価文が含まれていることが分かる.\begin{figure}[b]\input{04fig2.txt}\caption{箇条書き形式で記述された評価文}\label{fig:itemize}\end{figure}\subsection{表}箇条書きと同様に,図\ref{fig:table}のような表形式からも評価文を自動収集することができる.この表は左側の列が見出しの働きをしているが,ここにも手がかり句(気に入った点,イヤな点)が使われているので,表中に評価文が記述されていることが分かる.\begin{figure}[b]\input{04fig3.txt}\caption{表形式で記述された評価文}\label{fig:table}\end{figure} \section{評価文の自動収集} HTML文書から評価文を収集する手続きは次のようになる.\begin{enumerate}\item手がかり句のリストを作成する.\itemHTML文書をタグとテキストに分割する.一部の箇条書きと見出しはHTMLタグを使わないで記述されているので,ルールでタグを補完する.\item手がかり句のリストを利用して「定型文」「箇条書き」「表」から評価文を抽出する.\end{enumerate}\noindent以下では,まず実験で用いた手がかり句について説明する.そして「定型文」「箇条書き」「表」から評価文を抽出する方法を順に説明する.\subsection{手がかり句}実験で用いた手がかり句の一覧を表\ref{tab:cue}に示す.これらは予備実験を通して人手で選定した.表中の動詞,形容詞,形容動詞(「良い」など)は「所」「点」「面」という3つの名詞と組み合わせて使う.例えば「良い」は「良い所」「良い点」「良い面」の3つを手がかり句として使うことを意味する.「長所」や「メリット」のような名詞は,単語そのものを手がかり句として使う.なお,詳細は省略しているが「駄目な所」と「ダメな所」または「良い所」と「良いところ」のような表記揺れも網羅的に人手で記述している.\begin{table}[b]\caption{実験で使用した手がかり句}\label{tab:cue}\input{04table2.txt}\end{table}\subsection{定型文からの抽出}定型文から評価文を抽出するために,3種類の語彙統語パターンを人手で作成した.各パターンとそれにマッチする定型文の具体例を表\ref{tab:pattern}に示す.\begin{table}[b]\caption{語彙統語パターンと評価文抽出の例}\label{tab:pattern}\input{04table3.txt}\end{table}最初のパターン(表\ref{tab:pattern}上)は,主部が手がかり句(良いところ)で述部が評価文であるような定型文にマッチする.パターン中の矢印は文節間の依存関係,\fbox{手がかり句}\は手がかり句をそれぞれ表している.また\\ovalbox{評価文}\は,この部分にマッチしたテキストが評価文として抽出されることを意味する.表の右側に評価文が抽出される様子を示す.残り2つのパターンも同様である.それぞれ,主部が評価文で述部が手がかり句である定型文にマッチするパターン(表\ref{tab:pattern}中)と,評価文と手がかり句が同格になっている定型文にマッチするパターン(表\ref{tab:pattern}下)である.\subsection{箇条書きからの抽出}箇条書きからの評価文抽出は,手がかり句リストとHTMLタグを利用すれば容易に実現できる.すなわち,手がかり句が見出しになっている箇条書きを見つけて,その箇条書きの項目を順に取り出していけばよい.例えば,前節の図\ref{fig:itemize}からは「変に加工しない素直な音を出す」「曲の検索が簡単にでる」が好評文として,「リモコンに液晶表示がない」「ボディに傷や指紋がつきやすい」が不評文として取り出される.ここで問題となるのは,1つの項目に複数文が記述されている場合の処理である(図\ref{fig:itemize2}の3番目の項目).このような場合は1項目に好評文と不評文が混在している可能性がある.各文の評価極性を自動判定することは難しいので,1つの項目に複数文が存在した場合,その項目は抽出に使わないことにした.例えば図\ref{fig:itemize2}からは「発色がものすごくよい.」と「撮っていくうちに楽しくなる.」「カメラ背面の液晶画面が大きく,見やすい.」が好評文として抽出される.\begin{figure}[b]\begin{minipage}[b]{200pt}\input{04fig4.txt}\caption{1項目に複数文が記述されている箇条書き}\label{fig:itemize2}\end{minipage}\hfill\begin{minipage}[b]{200pt}\input{04fig5.txt}\caption{評価文を抽出するときに考慮する表タイプ}\label{fig:table_pattern}\end{minipage}\end{figure}\subsection{表からの抽出}最後に,表から評価文を抽出する方法を述べる.基本的には手がかり表現と$<$table$>$タグを利用すればよいのだが,HTML文書には多種多様な表が出現するので,あらゆる表に対応した抽出規則を作成することは難しい.そこで2種類の表だけを考えることにした(図\ref{fig:table_pattern}).図中の$C_{+}$と$C_{-}$は好評手がかり句と不評手がかり句を表し,+と−は好評文と不評文を表す.タイプAは,1列目に手がかり句があって,その横に評価文があるタイプである.前節で紹介した図\ref{fig:table}はこのタイプに相当する.タイプBは,1行目に手がかり句があって,その下に評価文があるタイプである.与えられた表のタイプは,1列目(1行目)を調べて,好評手がかり句と不評手がかり句の両方が出現していればタイプA(タイプB)であると判定する.表のタイプが決まれば,あとは図の+と−に対応するマスから評価文を抽出すればよい.ただし,1つのマスに複数文が記述されている場合は抽出対象としない.これは箇条書きの1項目に複数文が記述されている場合と同様の理由からである. \section{実験} 約10億件のHTML文書集合を用いて評価文の収集実験を行った結果,約65万の評価文を獲得することができた.ただし,使用したHTML文書にはミラーサイトなどの重複文書も含まれているため,同一の評価文が複数回抽出された場合は集計に入れていないようにした.表\ref{tab:result}に収集された評価文数の詳細を示す.定型文は,3種類の語彙統語パターン(表\ref{tab:pattern})から抽出された評価文数を分けて示している.定型文1,2,3というのは,それぞれ表\ref{tab:pattern}の上,中,下に記述されたパターンに相当する.表\ref{tab:example}に自動収集された評価文の一例を示す.\begin{table}[b]\begin{minipage}[t]{168pt}\caption{収集された評価文の数}\label{tab:result}\input{04table4.txt}\end{minipage}\hfill\begin{minipage}[t]{220pt}\caption{収集された評価文の例}\label{tab:example}\input{04table5.txt}\end{minipage}\end{table}収集された評価文コーパスから250文(各抽出法ごとに50文ずつ)を無作為に取り出し,妥当な評価文が集められているかどうかを2人の評価者が人手で調査した.評価者には収集された文のみを提示して,それを好評,不評,曖昧の3つに分類するように指示した.曖昧というカテゴリは,好評文か不評文かを決めるのが困難な場合に使用するものとした.評価の結果を表\ref{tab:acc1}に示す.抽出に利用した記述形式によって精度にややばらつきが見られるものの,おおよそ80\%から90\%の収集精度で評価文が収集できたことが分かる.ただし,評価者が曖昧と判断した文は不正解としている.さらに表\ref{tab:acc2}に,評価者が曖昧と判断した文を除いた場合の精度を示す.表\ref{tab:acc1}の結果と比べて,精度は大きく向上している.この結果から,表\ref{tab:acc1}で不正解に数えられている事例は,ほとんどが人間でも判断に迷う(=評価者が「曖昧」に分類していた)ケースであったことが分かる.曖昧に分類された文の典型例は文脈情報が欠如している文であった.これについては次節で詳しく議論する.なお,調査で用いた250文のうち,2人の評価者の分類結果が一致したものは208文であった(Kappa値は0.748).\begin{table}[b]\begin{minipage}{176pt}\caption{評価文の収集精度}\label{tab:acc1}\input{04table6.txt}\end{minipage}\hfill\begin{minipage}{228pt}\caption{評価者が曖昧と判断した評価文を除いた収集精度}\label{tab:acc2}\input{04table7.txt}\end{minipage}\end{table}次に,自動構築した評価文コーパスをトレーニングデータに使って評価文分類器を構築し,その分類精度を調べた(表\ref{tab:classify}).テストデータは,レストラン,コンピュータ,自動車の3ドメインのレビューサイトから収集したものを用いた.分類器はナイーブベイズ,素性は形容詞の原形を用いた.「良くない」などの言い回しに対応するため,形容詞と同一文節内に「ない」「ぬ」がある場合には,形容詞の原形に否定を示すタグを付与したものを素性に使った.また,自動収集した好評文と不評文の数に偏りがあったため,クラスの事前分布は好評,不評ともに0.5に設定した.\begin{table}[b]\caption{本コーパスを用いた評価文分類の結果}\label{tab:classify}\input{04table8.txt}\end{table}\begin{table}[b]\caption{レビューデータを用いた評価文分類の結果}\label{tab:classify2}\input{04table9.txt}\end{table}比較のため,上記3種類のレビューデータを,それぞれトレーニング/テストデータとして使ったときの分類精度も調査した(表\ref{tab:classify2}).ただし,トレーニングとテストで同一データを用いた場合には,10分割の交差検定を行った.この表から,トレーニングとテストに同一データを使った場合は,本コーパスを用いた場合と同等の精度であることが分かる.その一方で,異なるデータを用いた場合には精度が大きく低下していることが確認できる.この実験結果から,レビューデータよりも本コーパスの方がドメインの変化に頑健であると言うことができる.これは,大量のHTML文書から評価文を収集しているため,幅広いドメインの表現を網羅しているからであると考えられる. \section{議論} 実験の結果から,提案手法は80\%から90\%という精度で評価文を獲得できることが分かった.また,収集した評価文が分類タスクに対して有効であることも確認することができた.今後の課題としては,定型文から収集された評価文が多かったことから,新しい語彙統語パターンを利用して収集量をさらに拡大させることを検討している.また,収集した評価文からの評価表現辞書の構築にも取り組んでいる.評価者が「曖昧」と分類した評価文を分析したところ,評価極性を決定するために十分な文脈情報が与えられていない場合が大半であることが分かった.それ以外のものとしては,文分割と構文解析の誤りに起因するものが3例だけ見つかった.3例とも定型文から抽出されていた.文脈情報が欠落している例として「何しろ情報量が多い」という文が好評文として獲得されていた.この文の評価極性は文脈に依存するため,この文単独で評価極性を決定することは困難である.したがって,この評価文を人手で評価した場合には「曖昧」に分類される可能性が高い.しかし,実際にこの文が抽出された元テキストを調べてみると,次のようなものであった.\begin{lingexample}\single{このガイドブックのいいところは\underline{何しろ情報量が多い}ところです.}\end{lingexample}\noindentこれを見ると「何しろ情報量が多い」という文は,少なくとも原文では好評文として使われていたことが分かる.このことから,表\ref{tab:acc1}で不正解に数えられている評価文の中には,完全な間違いとは言いきれないものが含まれていると考えている.利用した記述形式によって,収集される好評文と不評文の割合に大きな差が見られた.特に定型文2の内訳を見ると,不評文の数が圧倒的に多いことが分かる(表\ref{tab:result}の定型文2).この理由を調べたところ「〜なのが難点」という言い回しが頻出していることが原因であった.このような好不評の偏りは,例えば本コーパスを評価文分類器のトレーニングデータとして使うときには考慮しておく必要があると考えられる.本実験ではHTML文書から評価文の収集を行ったが,提案手法自体はHTML文書に特化したものではないと考えている.たしかに,箇条書きと表形式を利用した抽出処理は,HTML文書の特性を利用している.しかし,表\ref{tab:result}から分かるように,抽出された評価文のうち80\%以上が定型文から抽出されている.このことから,提案手法はHTML文書以外のコーパスに対しても有効に働くと考えられる. \section{関連研究} 我々の知る限り,評価文の自動収集を行ったという研究はこれまでに報告されていない.最も関連が深いのは,評価語や評価句の自動獲得に関する研究である.これには主に2つのアプローチがあり,1つはシソーラスや国語辞典のような言語資源を利用して評価語を獲得する手法である.Kampsらは,類義語/反義語は同一/逆極性を持ちやすいという仮定にもとづき,WordNetを利用して評価語を獲得する手法を提案した\cite{Kamps04}.同様の考え方にもとづく手法はこれまでに多数提案されている\cite{Hu04,Kim04,Takamura05}.一方で,Esuliらは語の評価極性の判定を定義文の分類問題として解いている\cite{Esuli05,Esuli06a}.評価語や評価句を獲得するためのもう1つのアプローチは,評価表現同士の共起関係を利用する方法である.Turneyは,評価表現は同一ウィンドウ内に共起しやすいとことに着目し,語句の評価極性を判定する手法を提案した\cite{Turney02a,Turney02b}.共起頻度を求めるときに既存のコーパスを利用するのではなく,検索エンジンを利用してウェブという大規模コーパスでの頻度を見積もり,データスパースネスの問題に対処している点が特徴である.Hatzivassiloglouらは,コーパス中で2つの形容詞が{\itand}などの順接を表す接続詞で結ばれていれば同一評価極性を持ちやすく,逆に{\itbut}のような逆接で結ばれていれば逆極性を持ちやすいという観察にもとづき,コーパスから評価語を獲得する手法を提案した\cite{Hatzivassiloglou97}.この考え方はKanayamaらによってさらに拡張されている\cite{Kanayama06}.語句の評価極性ではなく主観性に着目した研究報告も存在する.Wiebeは,人手でタグ付けされたトレーニングデータ利用して,主観的形容詞を学習する手法を提案している\cite{Wiebe00}.Riloffらは主観的名詞の獲得を行っている\cite{Riloff03a}.Riloffらの手法では,主観的名詞とその抽出パターンが交互に学習される.まずシステムには少数の主観的名詞が入力として与えられる.そして,それを利用して主観的名詞の抽出パターンを学習する,学習されたパターンで新たな主観的名詞を獲得する,という処理が繰り返される.これにより大量の主観的名詞の獲得が行われる.\cite{Riloff03a}では名詞が対象とされていたが,\cite{Riloff03b}では名詞以外の句も獲得対象となっている.同様のブートストラップ的な手法は\cite{Wiebe05}でも議論されている.提案手法のように語彙統語パターンやレイアウト(箇条書きや表)パターンを用いて知識獲得を行う手法は古くから研究されてきている.Hearstは,{\itsuchas}のようなパターンに着目して,単語間の上位下位関係をコーパスから獲得する手法を提案した\cite{Hearst92}.Hearstの手法は英語を対象としているが,日本語においても安藤らが同様の手法を試している\cite{Ando03}.一方,新里らは,同一箇条書きに出現する単語は共通の上位語を持ちやすいという仮説にもとづき,上位下位関係を獲得する手法を提案している\cite{Shinzato05}.これ以外にも,全体部分関係にある単語対の獲得や,属性と属性値の獲得といったタスクにも,同様の手法が用いられている\cite{Berland99,Chklovski04,Yoshinaga06}.我々の知る限り,評価情報処理に同様の手法を適用したという報告はない.HuらやKimらの手法ではレイアウトパターンが利用されているが,これらの研究では,レイアウトは特定サイトに固有の手がかりとして議論されているため意味合いが異なる\cite{Hu05,Kim06}. \section{おわりに} 本論文では大規模なHTML文書集合から評価文を自動収集する手法を提案した.提案手法を約10億件のHTML文書に適用したところ,約65万の評価文を獲得することができた.収集精度はおおよそ80\%から90\%であったが,文脈依存する評価文の存在を考慮すると,良好な結果であると考えている.今後は,このコーパスからの評価表現の収集に取り組む予定である.\acknowledgment本研究は文部科学省リーディングプロジェクトe-society:先進的なウェブ解析技術によって支援された.また,実験を進めるにあたって,東京大学の荒牧英治氏と田渕史郎氏に協力していただきました.感謝いたします.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{安藤まや\JBA関根聡\JBA石崎俊}{安藤まや\Jetal}{2003}]{Ando03}安藤まや\JBA関根聡\JBA石崎俊\BBOP2003\BBCP.\newblock\JBOQ定型表現を利用した新聞記事からの下位概念単語の自動抽出\JBCQ\\newblock\Jem{情報処理学会研究報告2003-NL-157},\mbox{\BPGS\77--82}.\bibitem[\protect\BCAY{Berland\BBA\Charniak}{Berland\BBA\Charniak}{1999}]{Berland99}Berland,M.\BBACOMMA\\BBA\Charniak,E.\BBOP1999\BBCP.\newblock\BBOQFindingPartsinVeryLargeCorpora\BBCQ\\newblockIn{\BemProceedingsofthe37thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\57--64}.\bibitem[\protect\BCAY{Chklovski\BBA\Pantel}{Chklovski\BBA\Pantel}{2004}]{Chklovski04}Chklovski,T.\BBACOMMA\\BBA\Pantel,P.\BBOP2004\BBCP.\newblock\BBOQ{\scVerbOcean}:MiningtheWebforFine-GrainedSemanticVerbRelations\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)}.\bibitem[\protect\BCAY{Esuli\BBA\Sebastiani}{Esuli\BBA\Sebastiani}{2005}]{Esuli05}Esuli,A.\BBACOMMA\\BBA\Sebastiani,F.\BBOP2005\BBCP.\newblock\BBOQDeterminingtheSemanticOrientationofTermsthroushGlossClassification\BBCQ\\newblockIn{\BemProceedingsofConferenceonInformationandKnowledgeManagement(CIKM)},\mbox{\BPGS\617--624}.\bibitem[\protect\BCAY{Esuli\BBA\Sebastiani}{Esuli\BBA\Sebastiani}{2006}]{Esuli06a}Esuli,A.\BBACOMMA\\BBA\Sebastiani,F.\BBOP2006\BBCP.\newblock\BBOQDeterminingTermSubjectivityandTermOrientationforOpinionMining\BBCQ\\newblockIn{\BemProceedingsofEuropeanChapteroftheAssociationofComputationalLinguistics(EACL)},\mbox{\BPGS\193--200}.\bibitem[\protect\BCAY{藤村滋\JBA豊田正史\JBA喜連川優}{藤村滋\Jetal}{2005}]{Fujimura05}藤村滋\JBA豊田正史\JBA喜連川優\BBOP2005\BBCP.\newblock\JBOQ文の構造を考慮した評判抽出手法\JBCQ\\newblock\Jem{電子情報通信学会第16回データ工学ワークショップ}.\bibitem[\protect\BCAY{Hatzivassiloglous\BBA\McKeown}{Hatzivassiloglous\BBA\McKeown}{1997}]{Hatzivassiloglou97}Hatzivassiloglous,V.\BBACOMMA\\BBA\McKeown,K.~R.\BBOP1997\BBCP.\newblock\BBOQPredictingtheSemanticOrientationofAdjectives\BBCQ\\newblockIn{\BemProceedingsofthe35thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\174--181}.\bibitem[\protect\BCAY{Hearst}{Hearst}{1992}]{Hearst92}Hearst,M.\BBOP1992\BBCP.\newblock\BBOQAutomaticAcquisitionofHyponymsfromLargeTextCorpora\BBCQ\\newblockIn{\BemProceedingsofInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\539--545}.\bibitem[\protect\BCAY{Hu\BBA\Liu}{Hu\BBA\Liu}{2004}]{Hu04}Hu,M.\BBACOMMA\\BBA\Liu,B.\BBOP2004\BBCP.\newblock\BBOQMiningandSummarizingCustomerReviews\BBCQ\\newblockIn{\BemProceedingsofInternationalConferenceonKnowledgeDiscoveryandDataMining(KDD)},\mbox{\BPGS\168--177}.\bibitem[\protect\BCAY{乾孝司\JBA奥村学}{乾孝司\JBA奥村学}{2006}]{Inui06}乾孝司\JBA奥村学\BBOP2006\BBCP.\newblock\JBOQテキストを対象とした評価情報の分析に関する研究動向\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(3),\mbox{\BPGS\201--241}.\bibitem[\protect\BCAY{Kamps,Marx,Mokken,\BBA\de~Rijke}{Kampset~al.}{2004}]{Kamps04}Kamps,J.,Marx,M.,Mokken,R.~J.,\BBA\de~Rijke,M.\BBOP2004\BBCP.\newblock\BBOQUsingWordNettoMeasureSemanticOrientationsofAdjectives\BBCQ\\newblockIn{\BemInproceedingsoftheInternationalConferenceonLanguageResourcesandEvaluation(LREC)}.\bibitem[\protect\BCAY{Kanayama\BBA\Nasukawa}{Kanayama\BBA\Nasukawa}{2006}]{Kanayama06}Kanayama,H.\BBACOMMA\\BBA\Nasukawa,T.\BBOP2006\BBCP.\newblock\BBOQFullyAutomaticLexiconExpansionforDomain-orientedSentimentAnalysis\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\355--363}.\bibitem[\protect\BCAY{Kim\BBA\Hovy}{Kim\BBA\Hovy}{2004}]{Kim04}Kim,S.-M.\BBACOMMA\\BBA\Hovy,E.\BBOP2004\BBCP.\newblock\BBOQDeterminingtheSentimentofOpinions\BBCQ\\newblockIn{\BemProceedingsofInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\1367--1373}.\bibitem[\protect\BCAY{Kim\BBA\Hovy}{Kim\BBA\Hovy}{2006}]{Kim06}Kim,S.-M.\BBACOMMA\\BBA\Hovy,E.\BBOP2006\BBCP.\newblock\BBOQAutomaticIdentificationofProandConReasonsinOnlineReviews\BBCQ\\newblockIn{\BemProceedingsofInternationalConferenceonComputationalLinguistics,PosterSessions(COLING)},\mbox{\BPGS\483--490}.\bibitem[\protect\BCAY{小林のぞみ\JBA乾健太郎\JBA松本裕二\JBA立石健二\JBA福島俊一}{小林のぞみ\Jetal}{2005}]{Kobayashi05}小林のぞみ\JBA乾健太郎\JBA松本裕二\JBA立石健二\JBA福島俊一\BBOP2005\BBCP.\newblock\JBOQ意見抽出のための評価表現の収集\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(3),\mbox{\BPGS\203--222}.\bibitem[\protect\BCAY{Kudo\BBA\Matsumoto}{Kudo\BBA\Matsumoto}{2004}]{Kudo04}Kudo,T.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQABoostingAlgorithmforClassificationofSemi-StructuredText\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)}.\bibitem[\protect\BCAY{Liu,Hu,\BBA\Cheng}{Liuet~al.}{2005}]{Hu05}Liu,B.,Hu,M.,\BBA\Cheng,J.\BBOP2005\BBCP.\newblock\BBOQOpinionObserver:AnalyzingandComparingOpinionsontheWeb\BBCQ\\newblockIn{\BemProceedingsofWWW}.\bibitem[\protect\BCAY{Matsumoto,Takamura,\BBA\Okumura}{Matsumotoet~al.}{2005}]{Matsumoto05}Matsumoto,S.,Takamura,H.,\BBA\Okumura,M.\BBOP2005\BBCP.\newblock\BBOQSentimentClassificationUsingWordSub-sequencesandDependencySub-tree\BBCQ\\newblockIn{\BemProceedingsofPacificAsiaConferenceonKnowledgeDiscoveryandDataMining(PAKDD)},\mbox{\BPGS\301--311}.\bibitem[\protect\BCAY{McDonald,Hannan,Neylon,Wells,\BBA\Reynar}{McDonaldet~al.}{2007}]{McDonald07}McDonald,R.,Hannan,K.,Neylon,T.,Wells,M.,\BBA\Reynar,J.\BBOP2007\BBCP.\newblock\BBOQStructuredModelsforFine-toCoarseSentimentAnalysis\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)}.\bibitem[\protect\BCAY{筬島郁子\JBA嶋田和孝\JBA遠藤勉}{筬島郁子\Jetal}{2005}]{Osashima05}筬島郁子\JBA嶋田和孝\JBA遠藤勉\BBOP2005\BBCP.\newblock\JBOQ系列パターンを利用した評価表現の分類\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\mbox{\BPGS\448--451}.\bibitem[\protect\BCAY{Pang,Lee,\BBA\Vaihyanathan}{Panget~al.}{2002}]{Pang02}Pang,B.,Lee,L.,\BBA\Vaihyanathan,S.\BBOP2002\BBCP.\newblock\BBOQThumbsup?SentimentClassificationusingMachineLearningTechniques\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)}.\bibitem[\protect\BCAY{Riloff\BBA\Wiebe}{Riloff\BBA\Wiebe}{2003}]{Riloff03b}Riloff,E.\BBACOMMA\\BBA\Wiebe,J.\BBOP2003\BBCP.\newblock\BBOQLearningExtractionPatternsforSubjectiveExpressions\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)}.\bibitem[\protect\BCAY{Riloff,Wiebe,\BBA\Wilson}{Riloffet~al.}{2003}]{Riloff03a}Riloff,E.,Wiebe,J.,\BBA\Wilson,T.\BBOP2003\BBCP.\newblock\BBOQLearningSubjectiveNounsusingExtractionPatternBootstrapping\BBCQ\\newblockIn{\BemProceedingsoftheSeventhConferenceonNaturalLanguageLearning(CoNLL)}.\bibitem[\protect\BCAY{新里圭司\JBA鳥澤健太郎}{新里圭司\JBA鳥澤健太郎}{2005}]{Shinzato05}新里圭司\JBA鳥澤健太郎\BBOP2005\BBCP.\newblock\JBOQHTML文書からの単語間の上位下位関係の自動獲得\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(1),\mbox{\BPGS\125--150}.\bibitem[\protect\BCAY{Takamura,Inui,\BBA\Okumura}{Takamuraet~al.}{2005}]{Takamura05}Takamura,H.,Inui,T.,\BBA\Okumura,M.\BBOP2005\BBCP.\newblock\BBOQExtractingSemanticOrientationofWordsusingSpinModel\BBCQ\\newblockIn{\BemProceedingsofthe43thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\133--140}.\bibitem[\protect\BCAY{Turney}{Turney}{2002}]{Turney02a}Turney,P.~D.\BBOP2002\BBCP.\newblock\BBOQThumbsuporThumbsDown?SemanticOrientationAppliedtoUnsupervisedClassificationofReviews\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\417--424}.\bibitem[\protect\BCAY{Turney\BBA\Littman}{Turney\BBA\Littman}{2002}]{Turney02b}Turney,P.~D.\BBACOMMA\\BBA\Littman,M.~L.\BBOP2002\BBCP.\newblock\BBOQUnsupervisedLearningofSemanticOrientationfromaHundred-Billion-WordCorpus\BBCQ\\newblock\BTR,NationalResearchCouncilCanada.\bibitem[\protect\BCAY{Wiebe\BBA\Riloff}{Wiebe\BBA\Riloff}{2005}]{Wiebe05}Wiebe,J.\BBACOMMA\\BBA\Riloff,E.\BBOP2005\BBCP.\newblock\BBOQCreatingSubjectiveandObjectiveSentenceClassifiersfromUnannotatedTexts\BBCQ\\newblockIn{\BemProceedingsoftheSixthInternationalConferenceonIntelligentTextProcessingandComputationalLinguistics(CICLing-2005)}.\bibitem[\protect\BCAY{Wiebe}{Wiebe}{2000}]{Wiebe00}Wiebe,J.~M.\BBOP2000\BBCP.\newblock\BBOQLearningSubjectiveAdjectivesfromCorpora\BBCQ\\newblockIn{\BemProceedingsoftheSeventhNationalConferenceonArtificialIntelligence(AAAI)}.\bibitem[\protect\BCAY{吉永直樹\JBA鳥澤健太郎}{吉永直樹\JBA鳥澤健太郎}{2006}]{Yoshinaga06}吉永直樹\JBA鳥澤健太郎\BBOP2006\BBCP.\newblock\JBOQWebからの属性情報記述ページの発見\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf21}(6),\mbox{\BPGS\493--501}.\end{thebibliography}\begin{biography}\bioauthor{鍜治伸裕}{2005年東京大学大学院情報理工学系研究科博士課程修了.情報理工学博士.現在,東京大学生産技術研究所特任助教.自然言語処理の研究に従事.}\bioauthor{喜連川優}{1978年東京大学工学部電子工学科卒業.1983年同大大学院工学系研究科情報工学専攻博士課程修了.工学博士.同年同大生産技術研究所講師.現在,同教授.2003年より同所戦略情報融合国際研究センター長.データベース工学,並列処理,Webマイニングに関する研究に従事.現在,日本データベース学会理事,情報処理学会,電子情報通信学会各フェロー.ACMSIGMODJapanChapterChair,電子情報通信学会データ工学研究専門委員会委員長歴任.VLDBTrustee(1997--2002),IEEEICDE,PAKDD,WAIMなどステアリング委員.IEEEデータ工学国際会議ProgramCo-chair(99),GeneralCo-chair(05).}\end{biography}\biodate\end{document}
V03N02-04
\section{はじめに} 日本語の理解において省略された部分の指示対象を同定することは必須である.特に,日本語においては主語が頻繁に省略されるため,省略された主語の指示対象同定が重要である.省略された述語の必須格をゼロ代名詞と呼ぶ.主語は多くの場合,述語の必須格であるから,ここでは省略された主語をゼロ主語と呼ぶことにする.ここでは特に,日本語の複文におけるゼロ主語の指示対象同定の問題を扱う.日本語の談話における省略現象については久野の分析\cite{久野:日本文法研究,久野78}以来,言語学や自然言語処理の分野で様々な提案がなされている.この中でも実際の計算モデルという点では,centeringに関連するもの\cite{Kameyama88,WIC90}が重要である.しかし,これらは主として談話についての分析やモデルである.したがって,複文に固有のゼロ主語の指示対象同定という観点からすればきめの粗い点もある\cite{中川動機95,中川ので95}.したがって,本論文では主としてノデ,カラで接続される順接複文について,複文のゼロ主語に固有の問題について扱う.ノデ文については,既に\cite{中川動機95,中川ので95}において,構文的ないしは語用論的な観点から分析している.そこで,ここでは意味論的観点からの分析について述べる.複文は従属節と主節からなるので,主節主語と従属節主語がある.複文の理解に不可欠なゼロ主語の指示対象同定の問題は,2段階に分けて考えるべきである.第一の段階では,主節主語と従属節主語が同じ指示対象を持つかどうか,すなわち共参照関係にあるかどうかの分析である.第二の段階では,第一段階で得られた共参照関係を利用して,実際のゼロ主語の指示対象同定を行なう.このうち,第一の共参照関係の有無は,複文のゼロ主語の扱いにおいて固有の問題であり,本論文ではこの問題について考察していく.さて,主語という概念は一見極めて構文的なものであるが,久野の視点論\cite{久野78}で述べられているように実は語用論的に強い制限を受けるものである.例えば,授受補助動詞ヤル,クレルや,受身文における主語などは視点に関する制約を受けている.このような制約が複文とりわけノデ文においてどのように影響するかについては\cite{中川動機95}で詳しく述べている.ここでは,見方を変えて,意味論的な観点から分析するので,ゼロ主語の問題のうち視点に係わる部分を排除しなければならない.そこで,能動文においては直接主語を扱うが,受身文においては対応する能動文の主語を考察対象とする.また,授受補助動詞の影響については,ここでの意味論的分析と抵触する場合については例外として扱うことにする.なお,ここでの意味論的分析の結果は必ずしも構文的制約のように例外を許さない固いものではない.文脈などの影響により覆されうるものであり,その意味ではデフォールト規則である.ただし,その場合でも文の第一の読みの候補を与える点では実質的に役立つものであろう.さて,この論文での分析の対象とする文は,主として小説に現れる順接複文(一部,週刊誌から採取)である.具体的には以下の週刊誌,小説に記載されていた全ての順接複文を対象とした.\noindent週間朝日1994年6月17日号,6月24日号,7月1日号\noindent三島由紀夫,鹿鳴館,新潮文庫,1984\noindent星新一,ようこそ地球さん,新潮文庫,1992\noindent夏目漱石,三四郎,角川文庫,1951\noindent吉本ばなな,うたかた,福武文庫,1991\noindentカフカ/高橋義孝訳,変身,新潮文庫,1952\noindent宗田理,殺人コンテクスト,角川文庫,1985\noindent宮本輝,優駿(上),新潮文庫,1988\bigskipこのような対象を選んだ理由は,物理的な世界の記述を行なう文ばかりでなく,人間の心理などを記述した文をも分析の対象としたいからである.実際週刊誌よりは小説の方が人間の心理を表現した文が多い傾向がある.ただし,週刊誌においても人間心理を記述した文もあるし,逆に小説でも物理的世界の因果関係を記述した文も多い.次に,分析の方法論について述べる.分析の方法の一方の極は,全て論文著者の言語的直観に基づいて作例を主体にして考察する方法である.ただし,この場合非文性の判断や指示対象に関して客観的なデータであるかどうか疑問が残ってしまう可能性もないではない.もう一方の極は,大規模なコーパスに対して人間の言語的直観に頼らず統計的処理の方法で統計的性質を抽出するものである.後者の方法はいろいろな分野に関する十分な量のデータがあればある程度の結果を出すことは可能であろう.ただし,通常,文は対象領域や(小説,新聞,論文,技術文書などという)ジャンルによって性質を異にする.そこで,コーパスから得られた結果はそのコーパスの採取元になるジャンルに依存した結果になる.これらの問題点に加え,単なる統計的結果だけでは,その結果の応用範囲の可能性や,結果の拡張性などについては何も分からない.そこでここでは,両極の中間を採る.すなわち,まず第一に筆者らが収録した小規模なコーパスに対してその分布状況を調べることにより何らかの傾向を見い出す.次に,このようにして得られた傾向に対して言語学的な説明を試みる.これによって,見い出された傾向の妥当性,応用や拡張の可能性が推測できる.具体的には,従属節と主節の述語の性質を基礎に,主節主語と従属節主語の一致,不一致という共参照関係を調べる.このような述語の性質として,動詞に関しては,IPAL動詞辞書~\cite{IPALverb}にある意味的分類,ヴォイスによる分類,ムード(意志性)による分類を利用する.形容詞,形容動詞に関してはIPAL形容詞辞書~\cite{IPALadj}にある分類,とりわけIPAL形容詞辞書~\cite{IPALadj}にある意味分類のうち心理,感情,感覚を表すものに関しては快不快の素性を,属性の評価に関しては良否の素性を利用する.例えば,\enumsentence{淋しいので,電話をかける.}という文では,従属節に「感情-不快」という性質を与え,主節に「意志的な能動の動詞」という性質を与える.また,主節主語と従属節主語の一致,不一致については人手で判断する.このようにして与える従属節と主節の性質および主語の一致不一致の組合せが実例文においてどのように分布するかを調べ,そこに何か特徴的な分布が見い出されれば,その原因について考察するという方法を採る. \section{順接複文の性質} label{node-kara}本節では,この論文で対象としている順接複文すなわちノデ文,カラ文の意味論的性質についてまとめておく.第一に順接複文は因果性を記述しており,その従属節は原因,理由を示している.しかし,ノデ文とカラ文で微妙な差があり\cite{日本語の複文構造,カラノデ},それが主節主語と従属節主語の共参照関係に影響を与える可能性がある.以下で,ノデ文とカラ文の意味について説明する.\bigskip\noindent{\dgノデ文:}従属節と主節とも話し手の主観的評価を離れて事実とみなしている.よって,因果性は記述された世界の中に内在する.つまり,因果性は,主節の主語が従属節の事態を評価した結果何らかの動作をしたり状態になったりするという形で現れるものである.\noindent{\dgカラ文:}主節の内容も従属節の内容も基本的には話し手が外部から評価したものである.したがってカラ文の場合,因果性はむしろ話し手によって認識されたものであるといえる.もちろん,ノデ文と同じく因果性がカラ文で記述された世界に内在している場合も多い.\bigskip後の節で述べることを先取りすると,実際の例文を調べて得られる観察の妥当性や拡張性の検討に当たって,これらのノデとカラの意味は中心的役割を果たす.ただし,目下のところ,主節主語と従属節主語の共参照関係に関しては,次のような考察ができる.すなわち,ノデ文では主として主節主語,またカラ文では主として話し手という差はあるものの,いずれも従属節で記述されている事態を観察ないしは感覚し評価する人物がいる.また,カラ文の話し手が主節主語になっている場合も多く,ノデ文と同じように記述された世界に内在する因果性を記述することも多い.よって順接複文であるノデ文全ておよびカラ文のかなりの部分の性質として次のことがいえる.\bigskip\noindent{\bf1.}従属節に記述されている事態を外部から観察可能なら,主節主語と従属節主語は不一致でもよい.\noindent{\bf2.}従属節に記述されている事態を外部から観察不可能なら,主節主語と従属節主語は一致しなければならない.\bigskipなお,\cite{中川動機95,中川ので95}では,この性質を利用してノデ文の共参照関係を語用論的に分析している.この論文では,外部からの観察可能性と述語の意味との関連に着目することになる. \section{IPALの述語の素性} label{section3}ここでは,IPALの動詞辞書\cite{IPALverb}および形容詞辞書\cite{IPALadj}に記載されている述語の素性のうち,本論文で利用しているものについてまとめておく.まず,動詞の意味素性としては主として次の2点に着目する.\begin{enumerate}\itemヴォイスによる以下の4分類.能動(例:殺す),相互(例:並ぶ),中動(例:走る),受動(例:習う).\\注意すべき点は,能動では,主語から発する行為が他に及ぶ点である.したがって,能動の場合は外部からの観察可能性が高い.一方,中動の場合は,主語の行為が他には及ばないから外部からの観察可能性は低い.また,受動の場合は,主語自身は原則的にはなんの行為もしていないわけで,同じく外部からの観察可能性はさらに低いといえる.実際,収録した例文の中に受動詞が使われているものはなかった.\item意味的分類.大きくは状態と動作に二分され,さらに存在,所有,移動などに細分される.30種類近い細分類があるので,ここでは適当にまとめた分類を用いた.\bigskip\hspace*{-3zw}\hspace*{-1mm}ただし,部分的には次の意志性に関する性質も利用している.\item意志性による以下の分類.1:命令形なし(例:そびえる).2:願望のみを表す(例:咲く).以上のふたつは常に無意志である.3a:命令をも表す(例:落す).基本的には意志性があるが,無意志の用法もある.3b:命令を表し,意志性の用法だけである(例:探す).1,2,3bのタイプは意志性の有無については表層的な語彙からだけで判断できる.しかし,3aはその判断は文脈などに依存するため意志性の有無を人手で判断しなければならない.そこで,本論文では3aタイプに関しては,意志性の判断を人手で行なった.\itemこの他に各項(ガ格,ヲ格,ニ格)の意味素性などの情報も記載されているが,これは対応する名詞の素性などとも関連してくるから,ここでは利用しなかった.\end{enumerate}\bigskip形容詞,形容動詞に関しては,次のような素性に着目する.\begin{enumerate}\item評価.属性の語義の形容詞は好ましい状態を表す場合は「良」,好ましくない状態を表す場合は「否」と書く.どちらでもない場合は単に「評価」と書くことにする.\item快・不快.感覚や感情を表す場合,話し手が快と感じるものなら「快」,不快に感じるものなら「不快」と書く.どちらともいえない場合は「心理」と書くことにする.\end{enumerate}なお,名詞\hspace{-0.3mm}$+$\hspace*{-1mm}ダは状態とする.形容動詞かどうかは,副詞「非常に」をつけられるかどうかでテストする. \section{例文の分析} この節ではノデ文とカラ文を,主節主語と従属節主語が一致,不一致の各々の場合について,従属節の述語の性質と主節の述語の性質を表にした結果を示し,そこから観察される傾向について検討する.\subsection{従属節が形容詞,形容動詞である場合の分布}まず,動詞は,能動,中動,相互,受動(実際は例なし)に粗く分類し,形容詞,形容動詞に関しては前節で述べたように快不快心理,良否評価に細分類した分布表を示す.また,以下では紛らわしくない場合は,主節主語と従属節主語が一致する場合を単に「主語の一致」,不一致の場合を単に「主語の不一致」と書くことにする.なお,以下の各表の各データにおいて数字1/数字2という記述は,数字1がノデ文の個数,数字2がカラ文の個数を意味する.表のデータが空欄であるのは0/0すなわちノデ,カラ文とも0個であることを表す.また,例文数はノデ文が187例,カラ文が440例である.また,主語が一致するのは,ノデ文が72例,カラ文が142例,主語が不一致なのはノデ文が115例,カラ文が298例で,全体としてはノデ文とカラ文は同じような傾向である.\begin{center}\frame{\parbox{5mm}{\centering\shortstack{従\\属\\節}}\begin{tabular}{|l||c|c|c|c|c|c|c|c|c|c|c|c|}&\multicolumn{12}{c}{主節}\\\hline&能動&中動&相互&授受&使役&快&心理&不快&良&評価&否&状態\\\hline\hline能動&0/4&5/10&&&&&&&&0/2&0/1&0/3\\\hline中動&3/8&33/37&1/0&2/2&1/0&&0/1&2/2&&2/1&0/1&0/4\\\hline相互&&1/0&&&&&&&&&&\\\hline授受&&2/1&&&&&&&&&&\\\hline使役&&&&&&&&&&&&\\\hline快&&&&&&&&&&&&\\\hline心理&1/5&0/2&&0/1&&&0/2&&&0/2&&\\\hline不快&0/2&5/4&&0/1&&&&&&0/1&&\\\hline良&&1/1&0/1&&&&&&&&&\\\hline評価&1/2&6/7&&&&&&1/0&&&&0/1\\\hline否&1/0&1/1&&&&&&&&&&\\\hline状態&1/6&1/13&1/2&&&&0/2&&&0/5&0/1&0/3\\%\hlinerevisedbyshirai\end{tabular}}\\ノデ文の合計72例/カラ文の合計142例\\表1.形容(動)詞の性質を細分した分布(主語が一致の場合)\\\end{center}\vspace{1zh}\begin{center}\frame{\parbox{5mm}{\centering\shortstack{従\\属\\節}}\begin{tabular}{|l||c|c|c|c|c|c|c|c|c|c|c|c|}&\multicolumn{12}{c}{主節}\\\hline&能動&中動&相互&授受&使役&快&心理&不快&良&評価&否&状態\\\hline\hline能動&0/7&7/24&1/0&0/3&&&0/1&&0/1&0/12&&0/2\\\hline中動&9/31&48/62&&1/8&0/1&1/1&0/2&1/1&2/3&3/20&0/1&0/13\\\hline相互&&1/0&&&&&&&&&1/0&\\\hline授受&0/1&1/2&&0/1&&&&&&&&\\\hline使役&&&&&&&&&&0/1&&\\\hline快&&1/0&&&&&&&&&&\\\hline心理&0/3&1/0&0/1&0/1&0/1&&&&&0/1&&\\\hline不快&&3/1&&&&&&&&&&\\\hline良&&0/2&&&&1/0&&&&&&\\\hline評価&0/11&6/10&&&&&1/3&1/0&&0/2&0/1&0/2\\\hline否&4/2&3/4&&&&&&&&1/1&&\\\hline状態&3/9&8/26&&2/2&&&0/2&0/1&2/1&1/5&&1/7\\%\hlinerevisedbyshirai\end{tabular}}\\ノデ文合計115例/カラ文合計298例\\表2.形容(動)詞の性質を細分した分布(主語が不一致の場合)\\\end{center}以下ではこれらの表から得られる観察およびそれに対する言語学的な考察を行なう.これらの表によると,まずノデ文では,従属節が能動の動詞の場合,主節に形容詞,形容動詞,状態を表す動詞がこない.しかし,この現象についてもう少し深く考察してみる.まず,主節と従属節の主語が一致する場合について考えてみよう.この場合,従属節で記述される自分の意志的な動作が原因となって自分が持つに至った感情や感覚を主節として表現することはおかしい.なぜなら,その動作自体が主節の主語の意志的なものであり,その動作の結果をある程度予想しているはずだからである.例えば,\enumsentence{\label{1}$?$人を殺したので,恐ろしい.}は主語が一致とすると解釈すると若干違和感がある.ただし,不一致なら,おかしくない.これは次の文を見ればより明らかであろう.\enumsentence{\label{2}おとなしそうに見えた隣人が人を殺したので,私は恐ろしい.}では,なぜ不一致ではおかしくないか.他人の動作であれば,意志的な動作であっても,その動作に対する自分の感情や感覚を表す形容(動)詞で表現することは極ありふれたことだからである.ところで,自分の動作の結果に対する感情や感覚であっても,それが予想外に湧き上がってきた場合,すなわち状態の変化を表す場合は,不自然ではない.つまり,主節が動詞であれば許容できる表現となるであろう.例えば,\enumsentence{\label{3}人を殺したので,恐ろしくなった.}なら,主語が一致でも不一致でもおかしくない.さて,このような考察は従属節の動詞の意志性だけを利用して導いている.したがって,従属節の述語が能動の動詞のみならず中動の動詞であっても,意志性のものであれば同じ制約があるはずである.実際,例文を調べてみると,ノデ文では中動の動詞の場合でも,意志性がある場合は主語が一致する例はない.\begin{obs}\label{5}{\dgノデ文の場合:}従属節の動詞が意志性であり,主節の述語が感情ないし感覚形容(動)詞の場合は,主語が一致しない.ただし,主節の述語が動詞なら,感情や感覚を表す場合でも主語が一致しうる.\end{obs}カラ文では,表1,2から分かるように,従属節が能動の動詞あるいは中動の動詞で主節が形容(動)詞の例が多数ある.例えば,次のような一致および不一致の例である.\enumsentence{\label{k1}赤ん坊は乳母になついたから,大丈夫だ.}\enumsentence{\label{k2}何度追い払ってもついて来るから,嫌だ.}\ref{node-kara}節で述べたようにカラ文は従属節,主節ともその話し手の立場から評価されたものである.つまり,主語にとってはあずかり知らない二つの事象を話し手が原因と結果と認識して発話してよいわけである.例えば,(\ref{k1})では,主語である赤ん坊自身が大丈夫かどうか関知していることはこの文で言いたいことではない.あくまで,原因と結果という認識は話し手がしたものである.したがって,形容(動)詞で記述するような静的な状態が主節で記述されかつ,主語が一致してもよくなるわけである.しかし,表1,2を見ると,従属節が能動の動詞あるいは中動の動詞で主節が形容(動)詞の場合,主語が一致の場合8例に対し不一致の場合42例と不一致が圧倒的に多い.自分自身が何かの動作をしたことが理由になって,自分自身を評価したり感情を持ったりするという状態は考えにくいということは一般的にいえる.一方,自分自身の動作でなければ,それを評価したり,それに対して何らかの感情などを持つことはなんら不自然ではない.よって,カラ文が話し手の視点から因果性を認識するといっても,主語は一致しにくくなるのであろう.\begin{obs}\label{5k}{\dgカラ文の場合:}従属節が能動の動詞あるいは中動の動詞であり,主節が形容{\rm(}動{\rm)}詞だと,主語は一致しにくい.\end{obs}次の観察は表1,2から直接得られたものである.\begin{obs}\label{01}カラ文では,従属節が心理を表す形容{\rm(}動{\em)}詞の場合は主語が一致しやすい.\end{obs}心理は本来,主観的であり,主節の主語が他人の心理を読んで何かをするという事態は考えにくいという制限があると考えられる.したがって,ノデ文の場合は主語の一致は当然予測されることであるが,話し手から因果関係を認識するカラ文においても同様の制限が働いているのであろう.例えば,\enumsentence{\label{02}会いたいので/から,会いに出かけた.}のような文である.表1,2より次の観察も得られる.\begin{obs}\label{10}ノデ文の場合,従属節が不快あるいは否だと,主節は能動あるいは中動の動詞である場合が一致,不一致のいずれの場合も多い.\end{obs}例えば,次のような例である.\enumsentence{\label{20}苦しいので,薬を飲む.}この例のように不快な状態からの脱出するための意志的動作をする場合に対応している場合が多い.ただし,従属節が主節の主語に不快を与えて,その結果,主節が「怒る」などの無意志的な動作を記述する場合もある.実際ここで集めた例文を調べてみると,主節が意志的な動詞の場合は一致,無意志的動詞の場合は不一致という結果である.したがって,観察~\ref{10}を一歩進め,次の考察が得られる.\begin{kousatu}\label{30}ノデ文では従属節が不快の場合,主節が意志的な動詞なら主語は一致し,主節が無意志的な動詞なら主語は不一致である.\end{kousatu}主語が一致の場合は(\ref{20})が例文になるが,不一致の場合は次のような例である.\enumsentence{\label{31}相手がひどく横柄なので,ぼくはむっとした.}一方,従属節が快あるいは良の場合は,その状態から脱出しようという意志は働かないので,主節に意志性の動詞は来にくいと考えられる.事実,表1,2ではこのような組合せの例はない.ただし,全く不可能かといえばそうとも言い切れない.例えば,\enumsentence{\label{40}その宿を好きだったので,もう一度泊りに出かけた.}のように,快あるいは良の状態を続けよう,ないしは繰り返そうという場合がありうる.次に従属節,主節とも述語が形容(動)詞のノデ文について考えてみる.表1,2においてはこのようなケースは稀である.一般的に形容(動)詞は属性や状態を表す.ある属性や状態が原因になって何らの変化もなしに別の属性や状態になることはない.したがって,従属節と主節の双方において属性や状態が記述されることは考えにくいわけである.しかし,全く不可能というわけではなく,主語が一致と不一致の例として各々,\enumsentence{\label{50}私はその手の話には興味がないので,うんざりだ.}\enumsentence{\label{60}電車があまりに混雑しているので,気分が悪い.}のような例は可能である.実際,実例でこのタイプの文はこのような例であった.ただし,これで全て尽きているというわけではなく,主語が一致の場合と不一致の場合についてもう少し細かい分類を見て考察してみる必要がある.まず,一致の場合だが,同一の主語が矛盾する感情や評価を同時に持つことはありえない.よって次の考察が得られる.\begin{kousatu}\label{70}ノデ文では主語が一致する場合,従属節が快あるいは良,かつ主節が不快あるいは否という組合せはありない.同様に従属節が不快あるいは否,かつ主節が快あるいは良という組合せはありえない.\end{kousatu}\vspace{-0.3mm}このような組合せは収集した例文にも存在しない.ただし,主語が不一致だと,ある人にとっての不快は別人(例えば敵)にとっての快という場合もあるから,考察~\ref{70}のような組合せは矛盾ではなく,文として可能である.例えば,\enumsentence{\label{80}同僚のガールフレンドがあまりに美しいので,私はねたましかった.}などという文が可能である.一方,カラ文では従属節が形容(動)詞によって不快や否を表す例自体がほとんどない.感情,感覚などを表す心理的な述語は,そもそも主観的であり当事者(意味役割としては経験者)自身の立場からしか記述できないとされている.カラ文が外部の話し手の立場で記述していることを考えれば,従属節が主観的な快・不快を表す場合が少ないことは納得できる.ところで,従属節が形容(動)詞で評価の場合,主語の性質を調べると次のような観察が得られた.\begin{obs}\label{90}ノデ文,カラ文とも従属節が形容{\rm(}動{\rm)}詞で評価だと,従属節主語が無情物だと主語が不一致である.\end{obs}例えば,\enumsentence{\label{92}紛争地域の出張が多いから,家族が心配する.}である.従属節主語が無情物とくになにかの状況だったりすると,その結果を被るのは,その無情物そのものではなく,周りにいる人物や別の物である.なぜなら,無情物は意志的に動作しないから,無情物の評価が同一の無情物への別の評価なり状態変化なりを生むとは考えにくい.よって,観察~\ref{90}になると考えられる.この観察を少し拡張して考えると,従属節の主語が有情物とくに人間であっても,その動作なり様子なりが主節の主語ないしは話し手から観察されたような場合はやはり主語が一致しない.例えば,\enumsentence{\label{91}あまりに参加者が多いので,驚いた.}のような例はかなり多い.このような例は従属節だけを見て主語の一致,不一致を予想することは難しいが,主節の動詞が感情を表す場合はあてはまる場合が多い.よって,次のようになる.\begin{kousatu}\label{94}従属節の主語が有情物であっても,主節が感情を表す述語の場合は,主語は一致しない場合がある.\end{kousatu}実際の例文では,ノデ文主語が一致しない傾向が強いことが確かめられたが,カラ文では次のような一致の例も多く,必ずしもその傾向は見られない.\enumsentence{\label{95}自分のやり方に自信を持っているから,他人の非難は気にならない.}これもやはりノデとカラの意味の差によると考えられる.つまり,ノデ文では主節主語が従属節の事態を観察して主節に記述される感情を持つわけだから主語は一致しにくい.一方,カラ文では,従属節と主節の因果関係は話し手の認識による.したがって,主節の主語がある感情を持ったことが,実は主節の主語が従属節の事態を観察したこと以外の経験から得られたものでも,話し手が両者を因果関係にあると認識しさえすればよい.よって,主語が一致しても不都合はない.なお,これらの表には現れていないが,実際の例文においてノデ文には無意志の能動の動詞(IPALの意志性による分類の1および2)は現れない.しかし,実際には次のような例が可能であろう.\enumsentence{前回の試合で勝ったので,敵を侮ってしまった.}この例は主語が一致しているが,不一致の例も容易に作れる.よって,能動の動詞の無意志性は今のところ決定的な要因とは言えない.\subsection{主節および従属節の述語が動詞の場合}前節の表1,2から,主節,従属節とも動詞の場合が非常に多いことが分かる.そこでこの節では,主節,従属節とも述語が動詞の場合について検討する.動詞の分類は第~\ref{section3}節で述べた意味的分類を利用する.また,意志性に係わる観察については適宜説明していく.以下の表3,4に例文の分布を示す.\begin{center}\frame{\parbox{5mm}{\centering\shortstack{従\\属\\節}}\begin{tabular}{|l||c|c|c|c|c|c|c|c|c|}&\multicolumn{9}{c}{主節}\\\hline&\makebox[7mm]{存在}&\makebox[7mm]{関係}&\makebox[7mm]{単純}&\makebox[7mm]{抽象}&\makebox[7mm]{動き}&\makebox[7mm]{生理}&\makebox[7mm]{知覚}&\makebox[7mm]{言語}&\makebox[7mm]{他}\\\hline\hline存在所有&&&&1/0&1/3&&1/2&&1/0\\\hline関係認定&&&&&1/0&&&&\\\hline単純状態&&&0/1&1/0&1/1&&1/0&&\\\hline抽象的関係&&&&1/0&0/2&&2/0&&\\\hline動き&&&&&5/14&1/2&1/8&0/2&\\\hline生理&&&&&0/1&&1/0&1/0&\\\hline知覚心理&&&&&6/4&2/0&7/6&2/1&\\\hline言語活動&&&&&&&&&\\\hlineその他&1/0&&&&2/2&&1/0&1/0&0/1\\\end{tabular}}\\ノデ文合計42例/カラ文合計52例\\表3主節,従属節とも動詞であり,主語が一致する場合の分布\\\end{center}\vspace{2zh}\begin{center}\frame{\parbox{5mm}{\centering\shortstack{従\\属\\節}}\begin{tabular}{|l||c|c|c|c|c|c|c|c|c|}&\multicolumn{9}{c}{主節}\\\hline&\makebox[7mm]{存在}&\makebox[7mm]{関係}&\makebox[7mm]{単純}&\makebox[7mm]{抽象}&\makebox[7mm]{動き}&\makebox[7mm]{生理}&\makebox[7mm]{知覚}&\makebox[7mm]{言語}&\makebox[7mm]{他}\\\hline\hline存在所有&&&1/2&0/1&3/9&&4/5&0/2&0/3\\\hline関係認定&&&&0/1&0/1&&&&\\\hline単純状態&1/0&&&&&&1/1&&\\\hline抽象的関係&0/1&0/1&&&1/2&&4/2&2/2&\\\hline動き&0/2&1/0&1/2&4/1&8/31&&8/7&1/6&4/3\\\hline生理&&&&&&&1/0&&\\\hline知覚心理&0/1&&0/1&0/1&1/2&0/1&0/3&0/1&1/1\\\hline言語活動&&&&&5/1&2/0&4/5&2/1&0/1\\\hlineその他&1/0&&&0/1&3/8&&1/1&0/3&0/2\\\end{tabular}}\\ノデ文合計65例/カラ文合計120例\\表4主節,従属節とも動詞であり,主語が不一致の場合の分布\\\end{center}なお,表3,4で「動き」という欄は,意味素性が,移動,とりわけ出発帰着,出現発生,設置,離脱,着脱,接触,加力,および,消滅,生産,もようがえ,の全部をまとめたものである.また,「知覚心理」は知覚および心理という意味素性をまとめたものである.まず,従属節が存在所有の場合について説明する.表3,4には直接現れていないが,ノデ文の不一致の場合8例すべておよびカラ文の不一致の場合22例中21例は「ある」「いる」という動詞である.例えば,次のような例である.\enumsentence{\label{1001}会議があるので,出かけた.}\enumsentence{\label{1002}先客がいるので,ぼくは外で待っていた.}(アスペクト辞である「ている」「てある」ではなく,本動詞の「いる」「ある」である.)一方,ノデ文では一致の場合は「ある」「いる」は全く現れず,「持つ」などの意志性を持ち得る動詞である.また,カラ文では一致の5例中4例が「ある」,1例が「持つ」であった.この結果について少し考察してみる.「ある」の場合,通常,主語は有情物特に人間にはならない.したがって主節主語が人間なら明らかに主語は不一致になる.ただし,例外として「子供がある」のような表現がある.しかし,この場合も下記の「いる」の場合と同じ理由で主語は一致しない.では,主節,従属節とも同じ無情物でありうるかどうかについて考えてみる.石や本などの無情物がある場所にあることが原因になって,それ自体の状態変化を引き起こせるかどうか,という問題である.これは実際には可能であって,例えば,\enumsentence{\label{100}その食物は長い間冷蔵庫の外にあったので,腐った.}などは可能である.したがって,不一致は主節の主語が有情物の場合に限られるであろう.次に,「いる」だが,これは明らかに有情物しか主語にならない.主節の主語が無情物なら明らかに主語は不一致だから,主節の主語も有情物の場合について考察すればよい.主節の主語がその複文が記述する状況に身を置くのは自明である.したがって,もし主語が一致し,従属節で「いる」が使われると,上記の記述された状況に身を置くという自明のことをわざわざ従属節で述べ立てることになり,明らかに冗長であるのみならず原因を示す従属節はなんの情報も与えていないことになる.よって,主語は一致しないという結論が得られる.上記の考察をまとめた次の考察は有用であろう.\begin{kousatu}\label{110}~\\1.従属節の動詞が「ある」の場合,主節が有情物なら主語は一致しない.\\2.従属節の動詞が「いる」の場合,主語は一致しない.\end{kousatu}表から明らかに読みとれるノデ文における観察として次のものがある.\begin{obs}\label{120}ノデ文の場合,従属節が知覚思考あるいは心理を表す動詞だと,主語が一致しやすい.\end{obs}例えば,次のような例がありうる.\enumsentence{\label{121}ぼくは,そのことを知らなかったので,びっくりした.}知覚,思考,心理などは本来主語の内的な状態であり,それを外部から観察する特殊な状況がなければ,知覚,思考,心理などの中動の動詞で表される状態を経験した人自身が,それを理由に何らかの動作なりをするというのが普通であろう.したがって,観察~\ref{120}は一般的に成立すると考えても良い.ただし,知覚などを外部から観察可能とする言語的表現としては,「そうだ」などの様相の助動詞があり,このような場合は観察~\ref{120}の例外となる.例えば,\enumsentence{\label{125}じっくり考えているそうなので,我々ももう少し待とう.}また,知覚の場合,主語が知覚の主体でない「見える」「聞こえる」のような動詞があり,この場合も主語の一致という点からは例外である.例えば,\enumsentence{\label{122}ぼくはあこがれの大陸が見えたので,感激した.}ただし,文法的なガ格でなく,知覚の主体を問題にするなら観察~\ref{120}に類似の傾向が成立する.したがって,より洗練すると次の方がよい.\begin{kousatu}\label{123}従属節が知覚思考あるいは心理を表す動詞だと,従属節における知覚,思考などの心理状態の主体{\rm(}意味役割としては経験者格{\rm)}が主節の主語に一致する.\end{kousatu}この観察については\cite{中川ので95}に詳しく述べられている.なお,カラ文の場合は観察~\ref{120}自体がノデ文の場合ほど明確に成立しない.つまり,従属節の文法的ガ格が知覚・思考の主体でない(\ref{122})のタイプの例が多い.もちろん,従属節の経験者格に注目した考察~\ref{123}には多くの例が当てはまるが,カラ文の場合この考察にも反する次のような例が存在する.\enumsentence{\label{k121}彼らがやらないから,私がやった.}これらのことは,ノデ文に比べて,カラ文のほうが従属節の事態を話し手の立場からより客観的に記述していることの現れであろう.つまり,本来主観的な知覚などの心理的経験をより客観的に記述した場合はカラ文を使うということであろう.一方,従属節が言語活動の場合は次のような観察が得られる.\begin{obs}\label{130}ノデ文,カラ文の双方において,従属節が言語活動を表す動詞だと,主語は不一致である.\end{obs}例えば,\enumsentence{\label{131}知らないと言ったので,それ以上追求しなかった.}本来,言語活動は外部に現れる事象であり,かつ他人を意識したものだから,外部からの観察可能性が高く,不一致となる.ただし,例外的ケースとして,自分の発言を後から振り返るような場合は,一致することもできる.例えば,\enumsentence{\label{132}まずいことを言ったので,後悔している.}では,主語が一致している.また,将来の発言を予想しての文,\enumsentence{\label{150}明日は長い時間しゃべるので,今日は早めに休む.}でも,主語が一致しており,これらは観察~\ref{130}の例外である.次に従属節で,移動などを含む「動き」が記述されている場合について検討する.この場合も,言語活動と同じように考えられる.つまり,「動き」も動作であることからして外部に現れる事象であり,外部からの観察可能性が高いので,言語活動と同じような傾向を示すと予想される.ただし,「動き」の場合,言語活動と異なるのは必ずしも他人を意識した動作だけではない点である.したがって,主語の一致は言語活動ほど強い制約ではないと考えられる.ただしノデ文に限っては集めた例文では,主語が一致する場合5例は全て従属節がタ形であり,主節と従属節の時刻が異なる.よって,次のような観察となる.\begin{obs}\label{140}ノデ文では従属節が動きを表す動詞で主語は一致だと,過去形{\rm(}タ形{\rm)}である.\end{obs}例えば次のような例がありうる.\enumsentence{\label{141}朝早く出発したので,昼のうちに到着した.}ただし,不一致も全く不可能というわけではなく,\enumsentence{\label{142}あまりにたくさんの人が来たので,驚いた.}のような例も作例できる.カラ文では主語が不一致の場合の過去形15例,非過去形33例,主語が一致の場合の過去形10例,非過去形15例で,特段の傾向は見られない.したがって,このような現象に関してはノデ文との差が際だっている.次に,観察~\ref{140}に関して,従属節が動作動詞の場合の時制の影響について考察してみる.主節の主語が従属節の表す事態を知覚,あるいは感覚し評価してから,それに対応する行動を起こす.したがって,主節主語と従属節主語が一致している場合は,従属節で記述された自分の自身の動作を評価する時間が必要である.よって,従属節の参照時刻は主節の参照時刻より以前になる.日本語では,従属節のタ形は主節の時刻より以前であることを示す.よって,従属節はタ形になるのが一般的である.しかし,次のような例文もある.\enumsentence{アメリカへ留学するので/から,英語の勉強をした.}この場合でも,留学が決まったのは,英語の勉強をするより以前である.カラ文で従属節が非過去形で主語が一致するのは,このようなタイプの文が多い.この文のように主節と従属節の時刻の差は表層だけからは分からないから,上記の時制の影響の分析を機械的に利用することは困難である.もちろん,不一致なら主節と従属節の時刻について特に制約はない. \section{おわりに} 以上,この論文では実例文の調査から得られた観察に言語学的考察を加えるという方法で,順接複文の主節と従属節の主語の共参照関係に関するいくつかの観察を提案した.この観察は計算機上へ日本語理解システムを作る際に,複文の省略された主語の指示対象を同定する場合に直接役立つ言語学的知識である.ただし,このような応用を考えるに当たっては,考慮すべき問題点がいくつかあるので,ここではそれについて述べる.最後に,ここまで述べてきたような研究をするにあたって,IPALの辞書を利用する場合の問題点について述べる.動詞の意志性を利用した分析を行ない,これはかなり有力であることが分かった.しかし,意志性の有無は,1,2,3bタイプなら表層の語彙から機械的に判断できるが,多数存在する3aタイプは意志,無意志両方の可能性があるので,人手で判断しなければならなかった.意志性は文脈依存的である部分も多く,自動的な判定が難しい.よって機械的な処理においては大きな問題になる.次に問題であったのは多数存在するサ変動詞の意味分類をどのように扱うかである.動詞性接尾辞スルだけでは意味分類を決定できないので,ここではサ変動詞を構成する名詞の意味分類によって人手で判断した.これは,名詞の意味分類を記述した辞書が整備されれば,機械的にできるようになるであろう.なお,今回の分析では動詞句を構成しうる様相助動詞,クレル,ヤルなどの視点に関する表現,については考慮しなかった.これらについては\cite{中川動機95}において,主語の共参照関係にどのように影響するかについて分析しているが,今回の述語の意味に基づく分析とどのように関係するか,また共参照関係の決定への寄与がどちらがどの程度の割合かなどを検討する必要がある.このような検討を経て順接複文の理解システムの基本的設計を行なっていくことが今後の課題として重要である.\vspace*{7mm}\acknowledgment例文の収集および統計処理に尽力してくれた横浜国立大学の木村啓一君,俵正樹君,山本恵理子さんに感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{中川裕志}{1953年生.1975年東京大学工学部卒業.1980年東京大学大学院博士課程修了.工学博士.現在横浜国立大学工学部電子情報工学科教授.自然言語処理,日本語の意味論・語用論などの研究に従事.日本認知科学会,人工知能学会などの会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V10N01-01
\section{はじめに} 本研究の目的は,情報抽出のサブタスクである固有表現抽出(NamedEntityTask)の難易度の指標を定義することである.情報抽出とは,与えられた文章の集合から,「人事異動」や「会社合併」など,特定の出来事に関する情報を抜き出し,データベースなど予め定められた形式に変換して格納することであり,米国のワークショップMessageUnderstandingConference(MUC)でタスクの定義・評価が行われてきた.固有表現(NamedEntity)とは,情報抽出の要素となる表現のことである.固有表現抽出(NamedEntityTask)はMUC-6\cite{MUC6}において初めて定義され,組織名(Organization),人名(Person),地名(Location),日付表現(Date),時間表現(Time),金額表現(Money),割合表現(Percent)という7種類の表現が抽出すべき対象とされた.これらは,三つに分類されており,前の三つがentitynames(ENAMEX),日付表現・時間表現がtemporalexpressions(TIMEX),金額表現・割合表現がnumberexpressions(NUMEX)となっている.1999年に開かれたIREXワークショップ\cite{IREXproc}では,MUC-6で定義された7つに加えて製品名や法律名などを含む固有物名(Artifact)というクラスが抽出対象として加えられた.固有表現抽出システムの性能は,再現率(Recall)や適合率(Precision),そしてその両者の調和平均であるF-measureといった客観的な指標\footnotemark{}によって評価されてきた.\footnotetext{再現率は,正解データ中の固有表現の数(G)のうち,正しく認識された固有表現表現の数(C)がどれだけであったかを示す.適合率は,固有表現とみなされたものの数(S)のうち,正しく認識された固有表現の数(C)がどれだけであったかを示す.F-measureは,両者の調和平均である.それぞれの評価基準を式で示せば以下のようになる.\begin{quote}再現率(R)=C/G\\適合率(P)=C/S\\F-measure=2PR/(P+R)\end{quote}}しかし,単一システムの出力に対する評価だけでは,あるコーパスに対する固有表現抽出がどのように難しいのか,どのような情報がそのコーパスに対して固有表現抽出を行なう際に有効なのかを知ることは難しい.例えば,あるコーパスについて,あるシステムが固有表現抽出を行い,それらの結果をある指標で評価したとする.得られた評価結果が良いときに,そのシステムが良いシステムなのか,あるいはコーパスが易しいのかを判断することはできない.評価コンテストを行い,単一のシステムでなく複数のシステムが同一のコーパスについて固有表現抽出を行い,それらの結果を同一の指標で評価することで,システムを評価する基準を作成することはできる.しかしながら,異なるコーパスについて,複数の固有表現抽出システムの評価結果を蓄積していくことは大きなコストがかかる.また,継続して評価を行なっていったとしても,評価に参加するシステムは同一であるとは限らない.異なるコーパスについて,個別のシステムとは独立に固有表現抽出の難易度を測る指標があれば,コーパス間の評価,また固有表現抽出システム間の評価がより容易になると考えられる.本研究は,このような指標を定義することを目指すものである.\subsection{固有表現抽出の難易度における前提}異なる分野における情報抽出タスクの難易度を比較することは,複数の分野に適用可能な情報抽出システムを作成するためにも有用であり,実際複数のコーパスに対して情報抽出タスクの難易度を推定する研究が行われてきている.Baggaet.al~\cite{bagga:97}は,MUCで用いられたテストコーパスから意味ネットワークを作成し,それを用いてMUCに参加した情報抽出システムの性能を評価している.固有表現抽出タスクに関しては,Palmeret.al~\cite{palmer:anlp97}がMultilingualEntityTask~\cite{MUC7}で用いられた6カ国語のテストコーパスから,各言語における固有表現抽出技術の性能の下限を推定している.本研究では,固有表現抽出の難易度を,テストコーパス内に現れる固有表現,またはその周囲の表現に基づいて推定する指標を提案する.指標の定義は,「表現の多様性が抽出を難しくする」という考えに基づいている.文章中の固有表現を正しく認識するために必要な知識の量に着目すると,あるクラスに含まれる固有表現の種類が多ければ多いほど,また固有表現の前後の表現の多様性が大きいほど,固有表現を認識するために要求される知識の量は大きくなると考えられる.あらゆるコーパスを統一的に評価できるような,固有表現抽出の真の難易度は,現在存在しないので,今回提案した難易度の指標がどれほど真の難易度に近いのかを評価することはできない.本論文では,先に述べた,「複数のシステムが同一のコーパスについて固有表現抽出を行った結果の評価」を真の難易度の近似と見なし,これと提案した指標とを比較することによって,指標の評価を行うことにする.具体的には,1999年に開かれたIREXワークショップ\cite{IREXproc}で行われた固有表現抽出課題のテストコーパスについて提案した指標の値を求め,それらとIREXワークショップに参加した全システムの結果の平均値との相関を調べ,指標の結果の有効性を検証する.このような指標の評価方法を行うためには,できるだけ性質の異なる数多くのシステムによる結果を得る必要がある.IREXワークショップでは,15システムが参加しており,システムの種類も,明示的なパタンを用いたものやパタンを用いず機械学習を行ったもの,またパタンと機械学習をともに用いたものなどがあり,機械学習の手法も最大エントロピーやHMM,決定木,判別分析などいくつかバラエティがあるので,これらのシステムの結果を難易度を示す指標の評価に用いることには一定の妥当性があると考えている.\subsection{\label{section:IREX_NE}IREXワークショップの固有表現抽出課題}\begin{table}[t]\small\caption{\label{table:preliminary_comparison}IREX固有表現抽出のテストコーパス}\begin{center}\begin{tabular}{|l||r|r|r|}\hline&&\multicolumn{2}{|c|}{本試験}\\\cline{3-4}&予備試験&総合課題&限定課題\\\hline記事数&36&72&20\\単語数&11173&21321&4892\\文字数&20712&39205&8990\\\hline\end{tabular}\end{center}\end{table}IREXワークショップの固有表現抽出課題では,予備試験を含め,3種類のテストコーパスが評価に用いられた.表\ref{table:preliminary_comparison}に各々の記事数,単語数,文字数を示す.単語の切り分けにはJUMAN3.3~\cite{JUMAN33}を用い,単語の切り分けが固有表現の開始位置・終了位置と異なる場合には,その位置でさらに単語を分割した.IREXワークショップに参加した固有表現抽出システムの性能評価はF-measureで示されている.表\ref{table:F-measures}に各課題におけるF-measureの値を示す.本試験の評価値は,IREXワークショップに参加した全15システムの平均値である.一方,予備試験においては,全システムの評価は利用できなかったため,一つのシステム\cite{nobata:irex1}の出力結果を評価した値を用いている.このシステムは,決定木を生成するプログラム\cite{quinlan:93}を用いた固有表現抽出システム\cite{sekine:wvlc98}をIREXワークショップに向けて拡張したものである.IREXでは,8つの固有表現クラスが定義された.表\ref{table:F-measures}から,最初の4つの固有表現クラス(組織名,人名,地名,固有物名)は残り4つの固有表現クラス(日付表現,時間表現,金額表現,割合表現)よりも難しかったことが分かる.以下では,両者を区別して議論したいときには,MUCでの用語に基づき前者の4クラスを「ENAMEXグループ」と呼び,後者の4クラスを「TIMEX-NUMEXグループ」と呼ぶことにする.\begin{table}[t]\small\caption{\label{table:F-measures}IREX固有表現抽出の性能評価}\begin{center}\begin{tabular}{|l||r|r|r|}\hline&&\multicolumn{2}{|c|}{本試験}\\\cline{3-4}クラス&予備試験&総合課題&限定課題\\\hline\hline組織名&55.6&57.3&55.2\\\hline人名&71.3&67.8&68.8\\\hline地名&65.7&69.8&68.1\\\hline固有物名&18.8&25.5&57.9\\\hline日付表現&83.6&86.5&89.4\\\hline時間表現&69.4&83.0&89.8\\\hline金額表現&90.9&86.4&91.4\\\hline割合表現&100.0&86.4&---\\\hline\hline全表現&66.5&69.5&71.7\\\hline\end{tabular}\end{center}\end{table}\subsection{指標の概要}以下,本稿では,まず固有表現内の文字列に基いて,固有表現抽出の難易度を示す指標を提案する.ここで提案する指標は2種類ある.\begin{itemize}\itemFrequencyoftokens:各固有表現クラスの頻度と異なり数を用いた指標(\ref{section:FT}節)\itemTokenindex:固有表現内の個々の表現について,その表現のクラス内における頻度とコーパス全体における頻度を用いた指標(\ref{section:TI}節)\end{itemize}これらの指標の値を示し,それらと実際のシステムの評価結果との相関を調べた結果について述べる.次に,固有表現の周囲の文字列に基いた指標についても,固有表現内の文字列に基いた指標と同様に2種類の指標を定義し,それらの値とシステムの評価結果との相関の度合を示す(\ref{section:CW}節). \section{\label{section:FT}Frequencyoftokens} 本節では,固有表現クラスに含まれる文字列の頻度と異なり数とを用いて,固有表現抽出の難易度を示す指標について述べる.このような指標は,ある固有表現クラス内において,異なる文字列が数多く現れるならば,そのクラスの固有表現を認識することは難しくなる,という仮定に基づいている.頻度や異なり数を考慮する文字列の単位には,固有表現そのもの,単語,また単一の文字をとることができる.\subsection{\label{subsec:FE}固有表現を単位とする指標}まず,固有表現そのものを単位として分析を行なう.表\ref{table:FE_first}に,各クラスがもつ固有表現の異なり数を示す.予備試験と本試験の総合課題では,全表現の異なり数が各クラスの異なり数の合計よりも少ない.これは,複数のクラスに分類される固有表現がそれぞれ3個ずつあったからである.また,限定課題には割合表現が現われなかったので,数値が入っていない.\begin{table}[t]\small\caption{\label{table:FE_first}各クラスの固有表現の異なり数}\begin{center}\begin{tabular}{|l||r|r|r|}\hline&&\multicolumn{2}{|c|}{本試験}\\\cline{3-4}クラス&予備試験&総合課題&限定課題\\\hline\hline組織名&131&187&48\\\hline人名&113&217&71\\\hline地名&89&191&78\\\hline固有物名&31&39&9\\\hline日付表現&71&126&49\\\hline時間表現&16&32&15\\\hline金額表現&28&13&7\\\hline割合表現&6&16&-\\\hline\hline全表現&482(485)&818(821)&277\\\hline\end{tabular}\end{center}\end{table}異なり数を指標として用いるには,コーパスサイズの影響を除く必要がある.最初に定義する指標は,各クラスについて固有表現の異なり数を出現頻度で正規化したものである.以下これをFE(FrequencyofEntities)と呼ぶ.FEの定義を式で示せば式\ref{eq:FE}となる.\(D_E\)は各クラスに含まれる固有表現の異なり数,\(N_E\)は各クラス内の固有表現の総出現数である.FEは,あるクラス内の固有表現を抽出することが難しいときに,指標の値が大きくなることを意図して定義されている.\begin{equation}\label{eq:FE}\mbox{\itFE}=\frac{D_E}{N_E}\end{equation}FEの値を求める際には,文章中に現れる数字を全て文字``#''で置き換えた.これは,各数字を異なる表現とみなすよりも同一の表現とみなす方が固有表現の多様性を捉える際にはより適切であるという判断による.数字を同一の文字とみなすことによってTIMEX-NUMEXグループに含まれる固有表現クラスのFEの値は小さくなるが,これはTIMEX-NUMEXグループの認識精度が非常に高いという結果に合致する.FEの値を表\ref{table:FE_second}に示す.\begin{table}[t]\small\caption{\label{table:FE_second}各クラスのFEの値}\begin{center}\begin{tabular}{|l||l|l|l|}\hline&&\multicolumn{2}{|c|}{本試験}\\\cline{3-4}クラス&予備試験&総合課題&限定課題\\\hline\hline組織名&0.61&0.48&0.65\\&(=131/214)&(=187/389)&(=48/74)\\\hline人名&0.67&0.61&0.73\\&(=113/169)&(=217/355)&(=71/97)\\\hline地名&0.46&0.46&0.75\\&(=89/192)&(=190/416)&(=78/106)\\\hline固有物名&0.71&0.80&0.69\\&(=30/42)&(=39/49)&(=9/13)\\\hline日付表現&0.33&0.18&0.24\\&(=36/110)&(=51/277)&(=17/72)\\\hline時間表現&0.46&0.27&0.53\\&(=11/24)&(=16/59)&(=10/19)\\\hline金額表現&0.09&0.13&0.13\\&(=3/33)&(=2/15)&(=1/8)\\\hline割合表現&0.50&0.29&---\\&(=3/6)&(=6/21)&---\\\hline\hline全表現&0.53&0.45&0.60\\&(=415/790)&(=706/1581)&(=235/389)\\\hline\end{tabular}\end{center}\end{table}\subsection{\label{subsec:FW}単語,文字単位の指標}前節では固有表現そのものを指標を計算する単位として用いたが,単語や文字を単位としても同様に指標を定義することができる.固有表現よりも短かく頻度の大きい単語や文字を単位にすることで,よりコーパスサイズの影響を受けにくい指標が得られると期待される.以下,単語単位の指標をFW,文字単位の指標をFCと呼ぶ.FW,FCの定義はFEと同様に,それぞれ式\ref{eq:FW},式\ref{eq:FC}によって表わせる.\begin{eqnarray}\label{eq:FW}\mbox{\itFW}&=&\frac{D_W}{N_W}\\&\mbox{但し:}&\nonumber\\&D_W&\mbox{各固有表現クラスに含まれる単語の異なり数}\nonumber\\&N_W&\mbox{各固有表現クラスに含まれる単語の総出現数}\nonumber\end{eqnarray}\begin{eqnarray}\label{eq:FC}\mbox{\itFC}&=&\frac{D_C}{N_C}\\&\mbox{但し:}&\nonumber\\&D_C&\mbox{各固有表現クラスに含まれる文字の異なり数}\nonumber\\&N_C&\mbox{各固有表現クラスに含まれる文字の総出現数}\nonumber\end{eqnarray}FEと同様に,FW・FCにおいても数字は同一の文字とみなして値を求めた.FWとFCの値の傾向は似通っているので,ここではFCの値のみを示す(表\ref{table:FC}).FCではクラス間の差がFEよりも際だっており,特にTIMEX-NUMEXグループ内のクラスに対するFCの値はきわめて小さい.\begin{table}[t]\small\caption{\label{table:FC}各クラスのFCの値}\begin{center}\begin{tabular}{|l||l|l|l|}\hline&&\multicolumn{2}{|c|}{本試験}\\\cline{3-4}クラス&予備試験&総合課題&限定課題\\\hline\hline組織名&0.29&0.20&0.38\\&(=258/883)&(=365/1792)&(=139/365)\\\hline人名&0.39&0.26&0.48\\&(=222/575)&(=319/1228)&(=148/311)\\\hline地名&0.30&0.19&0.34\\&(=186/618)&(=284/1491)&(=155/462)\\\hline固有物名&0.53&0.50&0.58\\&(=131/245)&(=175/347)&(=34/59)\\\hline日付表現&0.16&0.07&0.07\\&(=44/282)&(=54/737)&(=15/226)\\\hline時間表現&0.18&0.09&0.14\\&(=12/66)&(=16/182)&(=10/71)\\\hline金額表現&0.06&0.09&0.13\\&(=4/72)&(=3/34)&(=2/16)\\\hline割合表現&0.38&0.10&---\\&(=5/13)&(=7/58)&---\\\hline\hline全表現&0.20&0.12&0.24\\&(=555/2754)&(=717/5869)&(=355/1510)\\\hline\end{tabular}\end{center}\end{table}\subsection{指標の有効性}指標の有効性を確かめるために,各指標がシステムの評価結果とどの程度相関しているかを調べる.まず,各固有表現クラスに対するFE・FW・FCの値とF-measureとの散布図を予備試験(図\ref{figure:scatter_diagram_dryrun}),本試験の総合課題(図\ref{figure:scatter_diagram_general}),限定課題(図\ref{figure:scatter_diagram_arrest})それぞれについて示す.どの図においても,縦軸に指標の値,横軸にF-measureの値をとっている.各クラスに対応するF-measureの値には,以下のような,クラス名を示す英字3文字のラベルを付した:\begin{quote}組織名(ORG),人名(PRS),地名(LOC),固有物名(ART),\\日付表現(DAT),時間表現(TIM),金額表現(MON),割合表現(PRC)\end{quote}予備試験と総合課題においては,TIMEX-NUMEXグループが右下にまとまり,固有物名を除いたENAMEXグループがややその左上に位置する.その左上に位置しているのは,固有物名である.限定課題においては,固有物名は他のENAMEXグループに属するクラスと同様の位置にある.F-measureの値においても,指標の値においても,値の傾向としてはほぼ同様であるといえる.各クラスごとにFE・FW・FCの値とF-measureとの相関係数を求めた結果を表\ref{table:FEWC_CC}に示す.これらの指標は,固有表現の抽出が難しいときに値が大きくなることを意図して定義されたものである.即ち,F-measureの値との負の相関が高くなることを意図して作成された指標である.\begin{table}[t]\small\caption{\label{table:FEWC_CC}指標とF-measureとの相関}\begin{center}\begin{tabular}{|l||r|r|r|}\hline課題&FE&FW&FC\\\hline\hline予備試験&-0.66&-0.63&-0.61\\\hline本試験(総合)&-0.91&-0.92&-0.97\\\hline本試験(限定)&-0.80&-0.87&-0.89\\\hline\end{tabular}\end{center}\end{table}表\ref{table:FEWC_CC}から,FW・FCは予備試験のコーパスにおいてはFEよりも相関が弱いが,本試験のコーパスにおいては総合・限定課題どちらにおいてもFEより相関が強いことが分かる.予備試験に対するシステムの評価結果は1つのシステムによるものであることを考慮すると,本試験の二つの課題に対して相関が強いほうが指標としてより信頼できる.本試験のコーパスに対する結果から,固有表現よりも単語の方が,単語よりも文字の方が指標の値を求める単位としては安定しているといえる.\begin{figure}[hb]\small\begin{center}\epsfile{file=dryrun_scatter_diagram.eps,scale=0.9}\end{center}\caption{\label{figure:scatter_diagram_dryrun}指標とF-measureとの散布図(予備試験)}\end{figure}\begin{figure}[htp]\small\begin{center}\epsfile{file=general_scatter_diagram.eps,scale=0.9}\end{center}\caption{\label{figure:scatter_diagram_general}指標とF-measureとの散布図(総合課題)}\begin{center}\epsfile{file=arrest_scatter_diagram.eps,scale=0.9}\end{center}\caption{\label{figure:scatter_diagram_arrest}指標とF-measureとの散布図(限定課題)}\end{figure}\newpage \section{\label{section:TI}Tokenindex} 本節では,固有表現内の個々の表現について,その表現のクラス内における頻度とコーパス全体における頻度との関係に基いて固有表現抽出の難易度を示すことを考える.これは,あるクラスに相対的に関連の強い文字列が多いほど,そのクラスの固有表現を抽出することはより易しくなるという仮定に基づいている.先に定義した指標では,クラス内の頻度のみを用いており,個々の固有表現内の文字列については考慮していなかった.本節で考える指標では,ある文字列の固有表現クラスとの関連の強さを,その文字列のクラス内での頻度とコーパス全体の頻度の双方を用いて定義する.つまりある文字列の頻度が高く,かつそのほとんどが特定の固有表現クラス内に限られるならば,その文字列はそのクラスと関連が強くなり,そのような文字列が多いほどそのクラスにおける固有表現の抽出は易しくなるという仮定に基づく.\subsection{\label{subsec:CI}文字単位の指標}以下では,文字を単位として指標を定義する.文字を単位として選んだのは,先に定義された指標の中では,文字を単位とした指標が最もシステムの評価結果との相関が強かったためである.まず,各文字ごとの指標CI$_c$を定義する.文字\(c\)のクラス\(L\)に対するCI$_c$の値は,式\ref{eq:character_index_each}によって与えられる.\(n_L(c)\)は文字\(c\)のクラス\(L\)における頻度,\(n_{(c)}\)はコーパス全体での頻度を現わす.\(N_{C^L}\)はクラス\(L\)内の総文字数である.つまり,右辺第1項\(\frac{n_L(c)}{N_{C^L}}\)はクラス\(L\)での文字\(c\)の相対頻度を示し,第2項\(\frac{n_L(c)}{n(c)}\)は文字\(c\)がクラス\(L\)にどれだけ偏って現れるかを示しているので,CI\(_c\)は文字\(c\)のクラス\(L\)における偏りを相対頻度で正規化したものとなる.\begin{equation}\label{eq:character_index_each}\mbox{CI$_c$}=\frac{n_L(c)}{N_{C^L}}\frac{n_L(c)}{n(c)}\end{equation}各固有表現クラスに現れる全文字のCI$_c$の値を合計した値を,新たな指標CI(CharacterIndex)として用いることにする.\begin{equation}\label{eq:character_index}\mbox{CI}=\sum_{c\inC^L}\mbox{CI$_c$}\end{equation}この指標は,固有表現の抽出が易しいときに値が大きくなることを意図して定義されたものである.従って,システムの評価結果との正の相関が強ければ,指標として優れていることになる.CI\(_c\)は,クラス\(L\)の表現に文字\(c\)が生じる条件付き確率\(p(c\vertL)\)と,文字cがあったときにそれがクラス\(L\)の表現の一部である条件付き確率\(p(L\vertc)\)との積を推定する式となっている.\[\mbox{CI$_c$}=p(c\vertL)\cdotp(L\vertc)\]CI\(_c\)は,文字\(c\)の出現確率\(p(c)\),クラス\(L\)内の文字が出現する確率\(p(L)\),文字\(c\)とクラス\(L\)の同時確率\(p(c,L)\)を用いて次のように変形できる.\[\mbox{CI$_c$}=\frac{p(c,L)^2}{p(c)\cdotp(L)}\]これは,文字\(c\)とクラス\(L\)に対する相互情報量に基づく尺度(式\ref{eq:mutual_information})に類似する.\begin{equation}\label{eq:mutual_information}\mbox{MI$_c$}=\log_2\left(\frac{p(c,L)}{p(c)\cdotp(L)}\right)\end{equation}異なる点は,\(log\)を取っていないことと,同時確率\(p(c,L)\)が二乗になっていることである.この違いによって,文字\(c\)がクラス\(L\)にのみ出現する場合,相互情報量に基づく尺度では,その文字の頻度に関わらず一定値になるのに対し,CI\(c\)の値では,さらにその文字がクラス\(L\)の全表現のうちどのくらいの割合を占めるかを指標として含むことができる.また,CI\(_c\)の定義は,CI\(_c\)の総和としてCIを求める際に必要な正規化となっており,クラス\(L\)内の全ての文字が\(L\)にのみ現れるならば,CIは最大値1をとる.これに対し,相互情報量に基づく尺度では,そのクラス内での文字の分布により最大値は一定でない.\begin{table}[tb]\small\caption{\label{table:CI}各クラスのCIの値}\begin{center}\begin{tabular}{|l||l|l|l|}\hline&&\multicolumn{2}{|c|}{本試験}\\\cline{3-4}クラス&予備試験&総合課題&限定課題\\\hline\hline組織名&0.34&0.31&0.45\\\hline人名&0.51&0.45&0.59\\\hline地名&0.38&0.40&0.56\\\hline固有物名&0.21&0.15&0.27\\\hline日付表現&0.39&0.48&0.60\\\hline時間表現&0.36&0.40&0.47\\\hline金額表現&0.47&0.51&0.51\\\hline割合表現&0.33&0.27&---\\\hline\hline全表現&0.57&0.58&0.71\\\hline\end{tabular}\end{center}\end{table}\subsection{CIの有効性}表\ref{table:index_CC_CI}に,CIとシステムの評価結果との相関係数の値を示す.CIとシステムの評価との相関は先に定義した指標のそれと比べると低く,指標としては十分でないことを示している.相関が低い理由の一つとしては,CIの値が,各固有表現クラスに含まれる全文字のCI$_c$の値を合計した値であることが考えられる.CI$_c$の値が低い文字はそのクラスに含まれる固有表現を抽出するのに有用であるとはいえないので,そのような文字はCIを求める際に取り除く必要がある.CI$_c$の値に対する閾値を設け,閾値以上の値についてのみCIの値に加えることで,CIの値をより指標として優れたものにできると考えられる.図\ref{figure:CI}は,CI$_c$に対する閾値と相関係数との関係を示すグラフである.CI$_c$に対する閾値を示す軸には対数軸を取っている.グラフから,3種類のテストコーパス全てについて相関係数の値は一旦上昇し,その後低下していることが分かる.各々の相関係数の最大値と,それに対応する閾値は表\ref{table:index_CC_CI}に示してある.これらの値は前節で提示した指標の相関係数と同程度になっている.もっとも,相関係数の最大値を与える閾値は,システムの評価結果を用いて初めて明らかになるので,新しいタスクのテストコーパスにおいては,事前に閾値を何らかの方法で決定する必要がある.新しいタスクにおいて閾値を求める方法の一つとしては,予め閾値を求めるために本当に評価したいコーパスと同じ種類のデータを用意し,同じ固有表現クラスの定義を用いて複数の参加システムについて実験をしておき,そこで得られた閾値を,本当に評価したいコーパスについて用いることが考えられる.例えば,性質の似た2種類のコーパスを用いて予備試験と本試験を行い,それぞれについて複数システムの評価結果を得ることができれば,予備試験の結果から閾値を得て本試験に用いることができる.今回の実験においては,予備試験に対して1システムの結果のみを用いているが,それでもその結果から得られた閾値を本試験のコーパスに対して用いるならば,表\ref{table:index_CC_CI}の最後の行に示すように,最大値に近い相関係数の値が得られるので,この方法によって妥当な閾値が得られたといえる.CIの値の振舞いをより詳しく調べるために,固有表現クラスをENAMEXグループとTIMEX-NUMEXグループの二つに分け,各々についてCI$_c$の値が大きい順に文字を並べてCI$_c$の値の変化を示したのが図\ref{figure:CI}である.TIMEX-NUMEXグループにおいてはCI$_c$の値が他に比べて極立って大きい文字がいくつか存在するのに対し,ENAMEXグループにはそのような文字は存在せず,なだらかにCI$_c$の値が変化していくことがグラフから見てとれる.このことは,ENAMEXグループの固有表現には多くの文字がほぼ同程度に関連しているが,極立って強い関連を持つものはなく,固有表現を抽出する際にはほぼ全ての文字を考慮する必要があること,一方NUMEX-TIMEXグループの固有表現には,少数の文字が非常に強く関連していることを示唆している.\begin{table}[t]\small\caption{\label{table:index_CC_CI}CIとF-measureとの相関}\begin{center}\begin{tabular}{|l|rr|rr|rr|}\hlineCIに対する条件&\multicolumn{2}{c|}{予備試験}&\multicolumn{2}{c|}{本試験(総合)}&\multicolumn{2}{c|}{本試験(限定)}\\\hline\hline閾値なし&0.62&&0.75&&0.49&\\\hline最大値(CI$_c$への閾値)&0.86&(0.005)&0.88&(0.004)&0.96&(0.009)\\\hline予備試験の閾値に対する値&\multicolumn{2}{c|}{-}&0.86&(0.005)&0.95&(0.005)\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[tb]\small\begin{center}\epsfile{file=CI_graph.eps,scale=0.8}\end{center}\caption{\label{figure:CI}CIとF-measureとの相関の変化}\end{figure}\subsection{CI$_c$による文字の重要度}本節では,CI$_c$の値に基づいて,固有表現を抽出する際に有用と思われる文字を具体的に挙げて述べる.表\ref{table:characters_with_CIc_numex}にTIMEX-NUMEXグループにおいてCI$_c$の値が大きい文字を示す.対象課題は本試験の総合課題である.「#」は数字全体を示している.前節で見たように,TIMEX-NUMEXグループには,CI$_c$の値が非常に大きい文字がいくつか存在する.これらの文字がそのクラスに属する表現と強く結びついていることは人間の直観から見ても妥当だといえる.実際,金額表現クラスにおける「円」,割合表現クラスにおける「%」のCI$_c$の値は非常に大きく,各クラスに対するCIの値の半分以上を占めている.一方,コーパス中の数字の頻度は非常に大きいが,TIMEX-NUMEXグループ内の各クラスに同様に現れるため,日付表現以外ではCI$_c$の値は小さい.\begin{table}[tb]\small\caption{\label{table:characters_with_CIc_numex}TIMEX-NUMEXグループ内でCI$_c$の値が大きい文字}\begin{center}\begin{tabular}{|l||r|r|l|}\hlineクラス&CI$_c$&\(n_L(c)\)&文字\\\hline\hline日付表現&0.1113&277&#\\\cline{2-4}&0.1071&143&日\\\cline{2-4}&0.0931&75&月\\\cline{2-4}&0.0893&98&年\\\cline{2-4}&0.0421&31&昨\\\hline\hline時間表現&0.1868&34&午\\\cline{2-4}&0.0586&32&時\\\cline{2-4}&0.0368&23&後\\\cline{2-4}&0.0352&8&夜\\\cline{2-4}&0.0330&6&夕\\\hline\hline金額表現&0.4412&15&円\\\cline{2-4}&0.0588&2&銭\\\cline{2-4}&0.0091&17&#\\\hline\hline割合表現&0.1379&8&%\\\cline{2-4}&0.0616&5&倍\\\cline{2-4}&0.0276&4&半\\\cline{2-4}&0.0212&4&割\\\cline{2-4}&0.0134&27&#\\\hline\end{tabular}\end{center}\end{table}次に,ENAMEXグループにおける各文字のCI$_c$の値の傾向を調べる.表\ref{table:characters_with_CIc_enamex}に,ENAMEXグループにおいてCI$_c$の値が大きい文字を示す.対象課題は同様に本試験の総合課題である.これを見ると,人名以外の3つのクラスにおいては,接尾辞として用いられる文字においてCI$_c$の値が比較的大きいことが分かる.これをより明確に示すために,ENAMEXグループにおいてCI$_c$を文字bi-gramについて求めた結果を表\ref{table:characters_with_CIc_bigram_enamex}に示す.{\tt[BOE]}は固有表現の開始,{\tt[EOE]}は終了を示す.文字bi-gramに対する結果からは,組織名クラスにおける「党」や「銀」,固有物名における「法」,地名における「市」や「国」など,いくつかの接尾辞に対して高いCI$_c$の値が得られた.これらの接尾辞が,特定の固有表現クラスに属する表現と強く結びついていることは人間の直観から見て妥当だといえる.今回の実験では,固有表現中の先頭にあるか末尾にあるかといった位置の情報は用いなかったが,このような位置情報を取り入れることで,指標の値から固有表現抽出に必要な知識の一部をより効率良く得ることができると考えられる.\begin{table}[htbp]\small\caption{\label{table:characters_with_CIc_enamex}ENAMEXグループ内でCI$_c$の値が大きい文字}\begin{center}\begin{tabular}{|l|c|r|l|}\hlineクラス&CI$_c$&\(n_L(c)\)&文字\\\hline\hline組織名&0.0177&41&銀\\\cline{2-4}&0.0159&43&党\\\cline{2-4}&0.0108&22&庁\\\cline{2-4}&0.0106&19&衆\\\cline{2-4}&0.0087&22&A\\\hline\hline人名&0.0200&34&原\\\cline{2-4}&0.0172&35&田\\\cline{2-4}&0.0155&19&郎\\\cline{2-4}&0.0126&18&藤\\\cline{2-4}&0.0109&21&山\\\hline\hline地名&0.0323&51&米\\\cline{2-4}&0.0161&36&市\\\cline{2-4}&0.0151&30&京\\\cline{2-4}&0.0125&24&ボ\\\cline{2-4}&0.0124&33&東\\\hline\hline固有物名&0.0206&20&法\\\cline{2-4}&0.0080&6&商\\\cline{2-4}&0.0058&2&仙\\\cline{2-4}&0.0043&3&賞\\\cline{2-4}&0.0038&2&鳳\\\hline\end{tabular}\end{center}\caption{\label{table:characters_with_CIc_bigram_enamex}ENAMEXグループ内でCI$_c$の値が大きい文字bi-gram}\begin{center}\begin{tabular}{|l|c|r|l|}\hlineクラス&CI$_c$&\(n_L(c)\)&文字bi-gram\\\hline\hline組織名&0.0125&39&党{\tt[EOE]}\\\cline{2-4}&0.0119&27&長銀\\\cline{2-4}&0.0111&26&銀{\tt[EOE]}\\\cline{2-4}&0.0110&24&自民\\\cline{2-4}&0.0101&22&民党\\\hline\hline人名&0.0126&20&上原\\\cline{2-4}&0.0120&19&郎{\tt[EOE]}\\\cline{2-4}&0.0107&17&原{\tt[EOE]}\\\cline{2-4}&0.0074&24&{\tt[BOE]}上\\\cline{2-4}&0.0069&11&佐藤\\\hline\hline固有物名&0.0146&14&法{\tt[EOE]}\\\cline{2-4}&0.0130&6&商法\\\cline{2-4}&0.0057&5&{\tt[BOE]}商\\\cline{2-4}&0.0057&3&ドラ\\\cline{2-4}&0.0051&2&鳳仙\\\hline\hline地名&0.0252&49&{\tt[BOE]}米\\\cline{2-4}&0.0163&31&米{\tt[EOE]}\\\cline{2-4}&0.0139&46&{\tt[BOE]}日\\\cline{2-4}&0.0136&36&本{\tt[EOE]}\\\cline{2-4}&0.0121&36&日本\\\cline{2-4}&0.0110&21&京都\\\cline{2-4}&0.0104&26&市{\tt[EOE]}\\\cline{2-4}&0.0100&44&国{\tt[EOE]}\\\hline\end{tabular}\end{center}\end{table}\newpage \section{\label{section:CW}固有表現周囲の文字列に基づく指標} 固有表現内の文字列に関する分析だけでは,難易度を調べるのに十分ではない.あるクラス内の固有表現が多様であったとしても,その周囲の表現が定まっているならば,そのクラスの固有表現抽出に関する難易度は小さくなると考えられる.本節では,固有表現の周囲の表現に着目して新たな指標を定義し,その有効性を先に定義した指標と同様に検証する.以下では指標を求める際の文字列の単位としては全て単語を用いている.\subsection{Frequencyofcontextwords}まず,FE・FW・FCと同様に,固有表現の周囲の単語について,その頻度と異なり数に基づいた指標FCW(Frequencyofcontextwords)を定義する.FCWは固有表現クラスの周囲\(m\)語以内の単語を対象とする指標であり,式\ref{eq:FCW}のように定義される.\begin{eqnarray}\label{eq:FCW}\mbox{\itFCW}&=&\frac{DCW_{m}}{NCW_{m}}\\&\mbox{但し:}&\nonumber\\&DCW_{m}&\mbox{各固有表現クラスの周囲\(m\)語以内に現れる単語の異なり数}\nonumber\\&NCW_{m}&\mbox{各固有表現クラスの周囲\(m\)語以内に現れる単語の総出現数}\nonumber\end{eqnarray}周囲の単語とみなす範囲\(m\)を,固有表現の直前または直後1単語から最大4単語まで変化させ,指標の値を求めた.また,固有表現の直前に現われる単語に関する指標{\itFCWpre}と,固有表現の直後に現れる単語に関する指標{\itFCWfol}とをそれぞれ求めた.\begin{eqnarray}\label{eq:FCWpre}\mbox{\itFCWpre}&=&\frac{DCW\mbox{\itpre}_{m}}{NCW\mbox{\itpre}_{m}}\\&\mbox{但し:}&\nonumber\\&DCW\mbox{\itpre}_{m}&\mbox{各固有表現クラスの直前\(m\)語以内に現れる単語の異なり数}\nonumber\\&NCW\mbox{\itpre}_{m}&\mbox{各固有表現クラスに直前\(m\)語以内に現れる単語の総出現数}\nonumber\end{eqnarray}\begin{eqnarray}\label{eq:FCWfol}\mbox{\itFCWfol}&=&\frac{DCW\mbox{\itfol}_{m}}{NCW\mbox{\itfol}_{m}}\\&\mbox{但し:}&\nonumber\\&DCW\mbox{\itfol}_{m}&\mbox{各固有表現クラスの直後\(m\)語以内に現れる単語の異なり数}\nonumber\\&NCW\mbox{\itfol}_{m}&\mbox{各固有表現クラスに直後\(m\)語以内に現れる単語の総出現数}\nonumber\end{eqnarray}指標とシステムの評価結果との相関を表\ref{table:index_CC_FCW}に示す.負の相関が強いほどこの指標の値がシステムの結果とよく合致していることになるが,相関係数の値から,FCWは指標として適切であるとはいえない.\begin{table}[t]\small\caption{\label{table:index_CC_FCW}FCWとF-measureとの相関}\begin{center}\begin{tabular}{|l||rrrr|}\hline&\multicolumn{4}{|c|}{FCWpre:直前の単語}\\\cline{2-5}課題&1語&2語&3語&4語\\\hline\hline予備試験&0.50&0.22&0.20&0.18\\\hline本試験(総合)&0.16&-0.05&0.01&0.01\\\hline本試験(限定)&-0.56&-0.36&0.00&0.16\\\hline\hline&\multicolumn{4}{|c|}{FCWfol:直後の単語}\\\cline{2-5}課題&1語&2語&3語&4語\\\hline\hline予備試験&0.58&0.50&0.49&0.46\\\hline本試験(総合)&0.34&0.43&0.23&0.26\\\hline本試験(限定)&0.06&0.13&0.34&0.49\\\hline\end{tabular}\end{center}\end{table}\subsection{Contextwordindex}\label{section:CWI}固有表現の周囲の単語を用いた新たな指標として,CIと同様にCWI(ContextWordIndex)を定義する.CWIの定義は式\ref{eq:context_word_index}で与えられる.\begin{eqnarray}\label{eq:context_word_index}\mbox{CWI}_w&=&\frac{1}{m}\frac{n_L(w)}{N_{W^L}}\frac{n_L(w)}{n(w)}\nonumber\\\mbox{CWI}&=&\sum_{w\inW^L_{m}}\mbox{CWI}_w\end{eqnarray}\(m\)は固有表現の周囲の単語とみなされる語の範囲を示し,右辺第1項\(\frac{1}{m}\)は,範囲\(m\)を大きくしたときに頻度を補正するための項である.\(W^L_m\)は,固有表現クラス\(L\)の周囲\(m\)語以内に現れる単語の集合を示す.\(n_L(w)\)は,単語\(w\)がクラス\(L\)の固有表現の周囲\(m\)語以内に現れる頻度,\(n_{(w)}\)はコーパス全体での頻度を現わす.\(N_{W^L}\)はクラス\(L\)の固有表現周囲に現れる単語の総数である.すなわち,右辺第2項\(\frac{n_L(w)}{N_{W^L}}\)はクラス\(L\)に対する単語\(w\)の相対頻度を示し,第3項\(\frac{n_L(w)}{n(w)}\)は単語\(w\)がクラス\(L\)に属する表現の周囲\(m\)語以内にどれだけ偏って現れるかを示す.表\ref{table:CWI}に,\(m=1\)のときの各クラスにおけるCWIの値を示す.FCWと同様に,直前の単語に関する指標CWIpreと直後の単語に関する指標CWIfolとを別々に求めた.各課題における指標の値のうち,クラス間で最も大きいものを太字で示した.\begin{table*}[t]\small\caption{\label{table:CWI}各クラスのCWIの値\((m=1)\)}\begin{center}\begin{tabular}{|l||c|c|c|c|c|c|}\hline&\multicolumn{2}{|c|}{予備試験}&\multicolumn{2}{|c|}{総合課題}&\multicolumn{2}{|c|}{限定課題}\\\cline{2-7}クラス&CWIpre&CWIfol&CWIpre&CWIfol&CWIpre&CWIfol\\\hline\hline組織名&0.23&0.30&0.16&0.22&0.15&0.20\\\hline人名&0.18&{\bf0.47}&0.17&{\bf0.53}&0.16&{\bf0.58}\\\hline地名&0.22&0.35&0.20&0.21&0.29&0.27\\\hline固有物名&0.09&0.10&0.05&0.18&0.02&0.56\\\hline日付表現&0.13&0.25&0.15&0.22&0.14&0.33\\\hline時間表現&{\bf0.29}&0.07&{\bf0.29}&0.20&{\bf0.44}&0.40\\\hline金額表現&0.14&0.20&0.25&0.28&0.37&0.45\\\hline割合表現&0.07&0.04&0.12&0.27&---&---\\\hline\hline全表現&0.32&0.41&0.30&0.36&0.34&0.43\\\hline\end{tabular}\end{center}\end{table*}\subsection{CWI$_w$による単語の重要度}固有表現の周囲の単語とみなす範囲を,固有表現の直前または直後1単語から最大4単語まで変化させ,システムの評価結果との相関を調べた.結果を表\ref{table:index_CC_CWI}に示す.ここでは正の相関が強いほどシステムの結果とよく合致していることを表わす.CWIの指標としての有効性はFCWよりは高いが,その他の指標と比べると低い.CWIは固有表現の周囲の表現がもつ情報を十分に利用しているとはいえないが,しかし課題や固有表現クラスによっては,人間の直観に沿うような結果が得られている.\(m=1\)のときの結果から,具体的な単語の例を表\ref{table:timeCWIpres},表\ref{table:personCWIfols},また表\ref{table:arrestCWIfols}に示す.これらの表において単語に添えられている値は,単語ごとの指標CWI$_w$と,あるクラスに属する固有表現の前または後に現われた頻度\(n_L(w)\)である.\begin{table}[tbp]\small\caption{\label{table:index_CC_CWI}CWIとF-measureとの相関}\begin{center}\begin{tabular}{|l||rrrr|}\hline&\multicolumn{4}{|c|}{CWIpre:直前の単語}\\\cline{2-5}課題&\(m=1\)&\(m=2\)&\(m=3\)&\(m=4\)\\\hline\hline予備試験&-0.07&-0.34&-0.53&-0.49\\\hline本試験(総合)&0.66&-0.01&-0.01&-0.04\\\hline本試験(限定)&0.67&0.39&0.46&0.20\\\hline\hline&\multicolumn{4}{|c|}{CWIfol:直後の単語}\\\cline{2-5}課題&\(m=1\)&\(m=2\)&\(m=3\)&\(m=4\)\\\hline\hline予備試験&-0.01&-0.24&-0.07&-0.09\\\hline本試験(総合)&0.14&0.29&0.00&0.02\\\hline本試験(限定)&0.06&0.46&0.36&0.10\\\hline\end{tabular}\end{center}\caption{\label{table:timeCWIpres}総合課題の時間表現に対してCWIpre$_w$の値が大きい単語}\begin{center}\begin{tabular}{|r|r|l|}\hlineCWIpre$_w$&\(n_L(w)\)&単語\\\hline\hline0.1805&35&#日\\\hline0.0920&8&同日\\\hline0.0086&1&#年#月#日\\\hline0.0067&5&同\\\hline0.0057&1&昨年#月#日\\\hline\end{tabular}\end{center}\caption{\label{table:personCWIfols}人名に対してCWIfol$_w$の値が大きい単語}\begin{center}\begin{tabular}{|l||r|r|p{1.5cm}|}\hline課題&CWIfol$_w$&\(n_L(w)\)&単語\\\hline\hline本試験(限定)&0.0471&30&容疑者\\\hline本試験(限定)&0.0407&33&(\\\hline予備試験&0.0406&28&氏\\\hline本試験(総合)&0.0370&54&さん\\\hline本試験(限定)&0.0340&13&さん\\\hline予備試験&0.0228&17&さん\\\hline本試験(総合)&0.0214&29&氏\\\hline本試験(総合)&0.0170&28&】\\\hline本試験(総合)&0.0164&25&被告\\\hline\end{tabular}\end{center}\caption{\label{table:arrestCWIfols}限定課題においてCWIfol$_w$の値が大きい単語}\begin{center}\begin{tabular}{|l||r|r|p{1.5cm}|}\hlineクラス&CWIfol&CWIfol$_w$&単語\\\hline\hline固有物名&0.5640&0.5470&違反\\\hline時間表現&0.4015&0.3876&ごろ\\\hline金額表現&0.4460&0.3750&相当\\\hline\end{tabular}\end{center}\end{table}表\ref{table:CWI}から3種類の課題全てにおいて時間表現クラスは他のクラスよりCWIpreの値が大きいことが分かるが,これは表\ref{table:timeCWIpres}に示すように,時間表現の直前には日付表現がよく現われていることによる.この逆が成り立たないことは,日付表現クラスのCWIfolの値が時間表現のCWIpreの値ほど高くないことから分かる.日付表現クラスは時間表現クラスとともに現れることも多いが,単独で現れることも多いからである.人名クラスについても同様に,どの課題でも他のクラスよりCWIfolの値が大きいことが表\ref{table:CWI}から分かる.表\ref{table:personCWIfols}にCWIfol$_w$の値が大きい単語を示す.どの課題においても敬称や呼称が人名の直後によく現れており,これらの単語は人名を抽出する際に有用であることが分かる.固有物名,金額表現,時間表現クラスはそれぞれ本試験の限定課題においてCWIfolの値が大きい.表\ref{table:arrestCWIfols}に示すように,そのほとんどが特定の一単語がもつCWIfol$_w$の値によるものである.これは,限定課題におけるコーパスが逮捕に関する記事のみから成っており,単語の用いられ方が他の種類の記事に比べてより固定されていることが理由であると考えられる. \section{個々のシステムとの相関} \begin{figure}[tb]\begin{center}\epsfile{file=hist_graph_g_in.eps,scale=0.55}\epsfile{file=hist_graph_g_ex.eps,scale=0.55}\end{center}\caption{\label{figure:hist_graphs_g}指標とシステムの評価結果との相関係数(総合課題)}\end{figure}\begin{figure}[tb]\begin{center}\epsfile{file=hist_graph_a_in.eps,scale=0.55}\epsfile{file=hist_graph_a_ex.eps,scale=0.55}\end{center}\caption{\label{figure:hist_graphs_a}指標とシステムの評価結果との相関係数(限定課題)}\end{figure}IREXワークショップに参加した全システムの性能について,その平均値との相関を調べることによって指標の結果の有効性を検討してきた.本節では,各システムの性能と指標との相関について示す.IREXで行なわれた本試験の総合課題・限定課題それぞれについて,定義した指標と参加した各システムの評価結果との相関係数を調べた結果を図\ref{figure:hist_graphs_g},\ref{figure:hist_graphs_a}に示す.指標の種類はFE,FW,FC,CI,CWIpre,CWIfolの全6種類である.CIについては,図\ref{figure:CI}から得られたしきい値を用いた結果を示した.固有表現内の文字列を用いた指標(FE,FW,FC,CI)との相関は,どちらの課題においても,ほとんどのシステムで高い.固有表現の周囲の単語を用いた指標(CWIpre,CWIfol)との相関はそれに比べると低いことが分かる.特に限定課題では,固有表現の周囲の単語を用いた指標との相関はシステムによって大きくばらつきがある.表\ref{table:each_system_fmeasure}に,個々のシステムについて,そのF-measureの値と手法の特徴をまとめた.括弧内に示した値は,各々のシステムのF-measureについて,それ以外の全システムのF-measureの平均との相関係数をとったものである.また,表\ref{table:each_system_index_general},表\ref{table:each_system_index_arrest}に,IREXで行なわれた本試験の総合課題・限定課題それぞれについて,定義した指標と参加した各システムの評価結果との相関係数を調べた結果を示す.これは,図\ref{figure:hist_graphs_g},図\ref{figure:hist_graphs_a}を記述するのに用いたものである.固有表現の周囲の単語を用いた指標は,どのシステムにおいても相関係数の値が低く,また,バラツキが大きいので以下の考察ではふれない.総合課題においては,各システムの評価と全体との相関は,システムOを除いて非常に高い.限定課題においては,システムE,F,Oにおいて,全体との相関が低くなっている.固有表現内の文字列を用いた指標(FE,FW,FC,CI)との相関は,両課題においてほぼシステム全体との相関に類似した結果になっている.システムE,F,Oはそれぞれ異なる機械学習手法を用いており,また評価結果も互いに近い値ではないので,手法の特徴が指標との相関に影響しているとはいえないが,システムFとOについては,評価時に用いたプログラムやデータに不備があり,本来の性能が発揮されていなかったことがワークショップにて発表された.このことが,F-measureの値や指標の値の双方において,他のシステムとの相関が低い原因になっていると考えられる.システムEについては,総合課題においては相関が高いが,限定課題では相関が低くなっている.システムの各クラスごとの評価を見ると,とくに固有物名・組織名での結果が平均に比べて高く,この差が相関が低くなった原因と考えられる(表\ref{table:system_E}).システムEは,限定課題用にチューニングは行っていないが,手作業および自動生成によって得られたNグラムパタンを用いており,これらのパタンが,限定課題の固有物名としてよく現れる法律名などに対応していたと考えられる.\begin{table}\begin{center}\caption{システムEの各クラスごとの評価結果}\label{table:system_E}\begin{tabular}{l|rrr}\hlineクラス&全平均&システムE&値の差\\\hline組織名&55.2&74.2&(+19.0)\\人名&68.8&68.9&(+0.1)\\地名&68.1&61.2&(-6.8)\\固有物名&57.9&91.7&(+33.8)\\日付表現&89.4&91.2&(+1.8)\\時間表現&89.8&89.5&(-0.3)\\金額表現&91.4&100.0&(+8.6)\\\hline全表現&71.7&74.6&(+2.9)\\\hline\end{tabular}\end{center}\end{table}総じて,固有表現内の文字列に基づいた指標と各システムの性能との相関は,ほぼ全システムの平均との相関と同じ傾向を示しているが,固有表現の周囲の単語を用いた指標は改善の必要があるといえる.\begin{table*}\begin{center}\small\caption{各システムの性能評価・手法の特徴:\\システムの評価はF-measureの値.括弧内の数字は,各システムのF-measureと,\\それ以外の全システムのF-measureの平均との相関係数.}\label{table:each_system_fmeasure}\begin{tabular}{c|rr|rr|cl}\hline&\multicolumn{4}{|c|}{各システムの評価}&\multicolumn{2}{c}{手法の特徴}\\\cline{2-7}システム&\multicolumn{2}{|c|}{総合課題}&\multicolumn{2}{|c|}{限定課題}&パタンの使用&機械学習の手法\\\hlineA&57.69&(0.956)&54.17&(0.972)&Y&-\\B&80.05&(0.989)&78.08&(0.901)&Y&有限状態変換器\\C&66.60&(0.969)&59.87&(0.756)&Y&-\\D&70.34&(0.973)&80.37&(0.927)&N&決定木\\E&66.74&(0.975)&74.56&(0.520)&Y&Nグラムパタン\\F&72.18&(0.876)&74.90&(0.493)&N&最大エントロピー\\G&75.30&(0.967)&77.61&(0.901)&Y&-\\H&77.37&(0.990)&85.02&(0.905)&N&最大エントロピー\\I&57.63&(0.901)&64.81&(0.908)&Y&-\\J&74.82&(0.961)&81.94&(0.820)&Y&-\\K&71.96&(0.975)&72.77&(0.923)&Y&決定木\\L&60.96&(0.984)&58.46&(0.882)&N&隠れマルコフモデル\\M&83.86&(0.892)&87.43&(0.933)&Y&-\\N&69.82&(0.932)&70.12&(0.779)&Y&-\\O&57.76&(0.424)&55.24&(0.229)&Y&パタン学習と判別分析\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}\begin{center}\small\caption{指標とシステムの評価結果との相関係数(総合課題)}\label{table:each_system_index_general}\begin{tabular}{c|cccc|cc}\hlineシステム&FE&FW&FC&CI&CWIpre&CWIfol\\\hlineA&-0.927&-0.935&-0.906&0.894&0.570&0.156\\B&-0.944&-0.943&-0.984&0.877&0.699&0.223\\C&-0.923&-0.931&-0.979&0.806&0.625&0.122\\D&-0.870&-0.897&-0.914&0.821&0.572&0.205\\E&-0.922&-0.938&-0.942&0.925&0.661&0.270\\F&-0.676&-0.704&-0.821&0.629&0.384&0.343\\G&-0.836&-0.881&-0.905&0.832&0.645&0.275\\H&-0.900&-0.908&-0.967&0.883&0.737&0.344\\I&-0.899&-0.854&-0.904&0.770&0.471&0.150\\J&-0.832&-0.825&-0.922&0.755&0.504&0.318\\K&-0.913&-0.902&-0.920&0.906&0.616&0.316\\L&-0.896&-0.920&-0.965&0.865&0.704&0.274\\M&-0.733&-0.704&-0.884&0.725&0.630&0.579\\N&-0.966&-0.979&-0.942&0.894&0.681&0.038\\O&-0.369&-0.342&-0.494&0.556&0.767&0.751\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}\begin{center}\small\caption{指標とシステムの評価結果との相関係数(限定課題)}\label{table:each_system_index_arrest}\begin{tabular}{c|cccc|cccc}\hlineシステム&FE&FW&FC&CI&CWIpre&CWIfol\\\hlineA&-0.753&-0.855&-0.894&0.923&0.726&0.483\\B&-0.756&-0.687&-0.684&0.886&0.444&0.547\\C&-0.721&-0.884&-0.929&0.787&0.744&0.096\\D&-0.771&-0.792&-0.770&0.870&0.646&0.344\\E&-0.767&-0.535&-0.451&0.622&0.133&0.058\\F&-0.267&-0.355&-0.484&0.582&0.110&0.682\\G&-0.729&-0.684&-0.679&0.869&0.482&0.547\\H&-0.754&-0.841&-0.906&0.886&0.708&0.345\\I&-0.904&-0.852&-0.818&0.926&0.509&0.353\\J&-0.587&-0.776&-0.858&0.775&0.802&0.322\\K&-0.959&-0.886&-0.886&0.958&0.519&0.383\\L&-0.575&-0.791&-0.868&0.838&0.758&0.452\\M&-0.672&-0.709&-0.725&0.832&0.704&0.503\\N&-0.671&-0.701&-0.646&0.770&0.492&0.315\\O&0.135&0.035&-0.023&0.260&-0.085&0.570\\\hline\end{tabular}\end{center}\end{table*} \section{結論} 本論文では,固有表現抽出の難易度を示す指標を定義し,IREXワークショップで行なわれた課題についてそれらの指標を適用し,参加したシステムの評価結果と相関を調べることで,その有効性を検証した.指標を定義するために,固有表現内の文字列,あるいは固有表現周囲の文字列に対して,固有表現クラスごとの頻度・異なり数や,個々の表現のクラス内における頻度とコーパス全体における頻度を用いた.定義された指標のうち,固有表現内の文字列に基いた指標に対しては非常に高い相関が得られた.また,個々の表現に対する指標の値と固有表現抽出における有効性との関係を具体例から考察した.今後の課題としては,まず固有表現の周囲の表現に基づいた指標を改良して指標としての有効性を高めることが挙げられる.また,固有表現内の文字列に基づいた指標に位置情報を加え,接頭辞や接尾辞などの有効性を測れるようにすることも考えられる.最終的には,指標による分析を通して,与えられた分野の固有表現抽出に有用な情報を自動的に獲得したいと考えている.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bagga\BBA\Biremann}{Bagga\BBA\Biremann}{1997}]{bagga:97}Bagga,A.\BBACOMMA\\BBA\Biremann,A.~W.\BBOP1997\BBCP.\newblock\BBOQ{AnalyzingtheComplexityofaDomainWithRespectToAnInformationExtractionTask}\BBCQ\\newblockIn{\BemTheTenthInternationalConferenceonResearchonComputationalLinguistics(ROCLINGX)},pp.~175--184.\bibitem[\protect\BCAY{DARPA}{DAR}{1995}]{MUC6}DARPA\BBOP1995\BBCP.\newblock{\Bem{ProceedingsoftheSixthMessageUnderstandingConference(MUC-6)}},Columbia,MD,USA.MorganKaufmann.\bibitem[\protect\BCAY{DARPA}{DAR}{1998}]{MUC7}DARPA\BBOP1998\BBCP.\newblock{\Bem{ProceedingsoftheSeventhMessageUnderstandingConference(MUC-7)}},Fairfax,VA,USA.\bibitem[\protect\BCAY{IREX}{IREX}{1999}]{IREXproc}IREX実行委員会\JED\\BBOP1999\BBCP.\newblock\Jem{{IREXワークショップ予稿集}}.IREX実行委員会.\bibitem[\protect\BCAY{松本,黒橋,山地,妙木,長尾}{松本\Jetal}{1997}]{JUMAN33}松本裕治,黒橋禎夫,山地治,妙木裕,長尾真\BBOP1997\BBCP.\newblock\Jem{日本語形態素解析システムJUMAN(version3.3)}.\newblock京都大学工学部,奈良先端科学技術大学院大学.\bibitem[\protect\BCAY{野畑}{野畑}{1999}]{nobata:irex1}野畑周\BBOP1999\BBCP.\newblock\JBOQ決定木を用いた学習に基づく固有表現抽出システム\JBCQ\\newblock\Jem{IREXワークショップ予稿集},pp.~201--206.\bibitem[\protect\BCAY{野畑,関根,辻井}{野畑\Jetal}{2000}]{nobata:nlp2000}野畑周,関根聡,辻井潤一\BBOP2000\BBCP.\newblock\JBOQ固有表現抽出技術の難易度に関する分析\JBCQ\\newblock\Jem{言語処理学会第6回年次大会併設ワークショップ}.\bibitem[\protect\BCAY{NOBATA,SEKINE\BBA\TSUJII}{NOBATAet~al.}{2000}]{nobata:acl2000}Nobata,C.,Sekine,S.\JBA\BBA\Tsujii,J.\BBOP2000\BBCP.\newblock\BBOQDifficultyIndicesfortheNamedEntitytaskinJapanese\BBCQ\\newblockIn{\BemProceedingsofthe38thAnnualMeetingofAssociationforComputationalLinguistics(ACL2000)},pp.~344--351.\bibitem[\protect\BCAY{Palmer\BBA\Day}{Palmer\BBA\Day}{1997}]{palmer:anlp97}Palmer,D.~D.\BBACOMMA\\BBA\Day,D.~S.\BBOP1997\BBCP.\newblock\BBOQ{AStatisticalProfileoftheNamedEntityTask}\BBCQ\\newblockIn{\BemProceedingsoftheFifthConferenceonAppliedNaturalLanguageProcessing(ANLP'97)},pp.~190--193.\bibitem[\protect\BCAY{Quinlan}{Quinlan}{1993}]{quinlan:93}Quinlan,J.~R.\BBOP1993\BBCP.\newblock{\BemC4.5:ProgramsforMachineLearning}.\newblockMorganKaufmannPublishers,Inc.,SanMateo,California.\bibitem[\protect\BCAY{Sekine,Grishman\BBA\Shinnou}{Sekineet~al.}{1998}]{sekine:wvlc98}Sekine,S.,Grishman,R.\BBA\Shinnou,H.\BBOP1998\BBCP.\newblock\BBOQA{D}ecision{T}ree{M}ethodfor{F}indingand{C}lassifying{N}amesin{J}apanese{T}exts\BBCQ\\newblockIn{\BemProceedingsoftheSixthWorkshoponVeryLargeCorpora},pp.~171--178\Montreal,Canada.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{野畑周}{1995年東京大学理学部情報科学科卒業.2000年東京大学大学院理学系研究科博士課程修了.博士(理学).同年通信総合研究所関西先端研究センター知的機能研究室非常勤研究員.2001年より,同けいはんな情報通信融合研究センター自然言語グループ専攻研究員.言語処理学会,情報処理学会,ACL各会員.}\bioauthor{関根聡}{AssistantResearchProfessor,NewYorkUniversity.1987年東京工業大学応用物理学科卒業.同年松下電器東京研究所に入社.1990年〜1992年UMIST客員研究員.1992年UMIST計算言語学科修士.1994年からNYU,ComputerScienceDepartment,AssitantResearchScientist.1998年Ph.D..同年から現職.自然言語処理の研究に従事.コーパスベース,パーザー,分野依存性,情報抽出,情報検索等に興味を持つ.言語処理学会,人工知能学会,ACL各会員.}\bioauthor{辻井潤一}{京都大学大学院工学博士.1971年京都大学工学部電気工学科卒業,1973年同大学大学院修士課程修了.同年4月より,同大学電気工学第2教室助手,助教授を経て,1988年から英国UMIST(UniversityofManchesterInstituteofScienceandTechnology)の教授.同大学の計算言語学センター所長などを経て,1995年より東京大学大学院理学系研究科情報科学専攻・教授.組織変更により,現在は,同大学院情報理工学系研究科・コンピュータ科学専攻教授.また,1981年〜1982年,フランスCNRS(グルノーブル)の招聘研究員.言語処理学会,情報処理学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V06N04-03
\section{まえがき} 現代日本語で「うれしい」「悲しい」「淋しい」「羨ましい」などの感情形容詞を述語とする感情形容詞文には,現在形述語で文が終止した場合,平叙文の際,一人称感情主はよいが二人称,三人称感情主は不適切であるというような,人称の制約現象がある\footnote{本稿で言う「人称」とは,「人称を表す専用のことば」のことではない.ムードと関連する人称の制約にかかわるのは「話し手」か「聞き手」か「それ以外」かという情報である.よって,普通名詞であろうと,固有名詞であろうと,ダイクシス専用の名詞であろうと,言語化されていないものであろうと,それがその文の発話された状況において話し手を指していれば一人称,聞き手を指していれば二人称,それ以外であれば三人称という扱いをする.\\a.太郎は仕事をしなさい.\\b.アイちゃん,ご飯が食べたい.(幼児のアイちゃんの発言)\\a.の「太郎」は二人称,b.の「アイちゃん」は一人称ということである.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(1)]\{わたし/??あなた/??太郎\}はうれしい.\item[(2)]\{わたし/??あなた/??太郎\}は悲しい.\end{itemize}\end{quote}\vspace{0.3cm}このとき,話し手が発話時に文をどのようなものと捉えて述べているかを表す「文のムード」\footnote{文のムードとは,話し手が,文を述べる際,どのような「つもり」であるのかを示す概念である.文を聞き手に対してどのように伝えるか(例えば,命令,質問など)ということと共に,話し手が,発話内容に対してどのように判断しているか(例えば確信,推量,疑念など)も文のムードである.これを「モダリティ」と呼ぶこともあるが,本稿では,こういった文の述べ方に対する概念的区分を,「ムード」と呼び,ムードが具体的に言語化された要素を「モダリティ」と呼ぶ.例えば「明日は晴れるだろう.」という文では,発話内容に対して推量していることを聞き手に伝え述べるというムードを持つのが普通であり,「だろう」は推量を表すモダリティである.}によって,感情形容詞の感情の主体(感情主)が,話し手である一人称でしかありえない場合と,やや不自然さはあるものの文脈によっては,二人称,三人称の感情主をとることが可能な場合がある\cite{東1997,益岡1997}.(3)(4)のように,話し手の発話時の感情を直接的に表現している「感情表出のムード」を持つ「感情表出文」(\cite{益岡1991,益岡1997}で「情意表出型」とされる文の一部)では,感情主は一人称に限定される.「感情表出のムード」とは話し手が発話時の感情を「思わず口にした」ようなものであり,聞き手に対してその発話内容を伝えようというつもりはあってもなくてもよいものである\footnote{感情表出文は,「まあ」「きゃっ」「ふう」など,発話者が自分の内面の感情を聞き手に伝達する意図なく発露する際に用いられる感嘆語と共起することが多いことから,聞き手への伝達を要しないものであることが分かる.\\きゃっ,うれしい.\\ふう,つらい.\\一方,「さあ」「おい」「よお」など,聞き手に何らかの伝達を意図する感嘆語と共起した場合,感情形容詞述語文であっても,感情表出文にはならない.\\さあ,悲しい.\\おい,寂しい.\\ただし,「まあ」などの感嘆語は感情表出文にとって必須ではない.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(3)]まあ,うれしい.\item[(4)]ええ憎い,憎らしい・・・・・人の与ひょうを〔木下順二『夕鶴』〕\end{itemize}\end{quote}\vspace{0.3cm}一方,客観的に捉えた発話内容を述べ,聞き手に伝え述べるという「述べ立てのムード」(\cite{仁田1991}第1,2章参照)を持つ「述べ立て文」(\cite{益岡1997}で「演述型」とされる文)における人称の制約は弱い.一般的には,(益岡~1997(:4))で述べられている「人物の内的世界はその人物の私的領域であり,私的領域における事態の真偽を断定的に述べる権利はその人物に専属する.」という語用論的原則により,(5)(6)のような感情を表す形容詞(益岡によれば「私的領域に属する事態を表現する代表的なもの」)を述語にする文において「あなた」「彼女」に関する事態の真偽を断定的に述べることは不適格である\footnote{ここでは,語用論的に不適切であると考えられる文を,\#でマークし,文法的に不適切であることをあらわす*とは区別して用いる.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(5)]夫が病気になったら\{わたし/\#あなた/\#彼女\}はつらい.\item[(6)]海外出張は\{わたし/\#あなた/\#彼女\}には楽しい.\end{itemize}\end{quote}\vspace{0.3cm}しかし,このような語用論的原則は,文脈や文体的条件\footnote{文体的な条件によって人称制約が変わるというのは,小説などにおいて一般的な日常会話と語用論的原則が異なってくることから生じるものである.\cite{金水1989}参照}などにより,その原則に反した発話でも許される場合があるのである.(7)は感情主を数量子化したもの,(8)は小説という文体的条件による.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(7)]海外出張は誰にでも楽しい.\item[(8)]それをこさえるところを見ているのがいつも安吉にはたのしい.(中野重治『むらぎも』)\end{itemize}\end{quote}\vspace{0.3cm}こういった人称制約のタイプを語用論的な人称の制約とする.\cite{東1997}では,前者のように人称が限定されるタイプの人称制約を「必然的人称指定」,後者のように語用論的に限定される人称制約を「語用論的人称制限」と呼び区別した.(益~岡~1997(:2))でも情意表出型と演述型の人称制限の違いを,後者のみが日本語特有の現象と捉え,区別する必要を述べている.しかし,従来の研究においては,その「感情表出(情意表出)のムード」がどのようなものであるかということは明確に規定されておらず,また,どのように感情主が一人称に決定されるのかという人称決定のシステムも描かれてきていない\footnote{(益岡1997(:2))でも「悲しいなあ.」のような「内面の状態を直接に表出する文の場合,感情主が一人称に限られるのは当然のこと」とされている.}.そこで,本稿では,以下の手順で「感情表出文」について明らかにしていく.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(I)]人称の制約が文のムードと関係して生じていることを確認する(2.1)\item[(II)]感情表出文は,そのムードが述語主体を常に一人称に決定するものであることを定義づける.(2.2)\item[(III)]感情表出文として機能し解釈されるためには一語文でなければならないことを主張する.(3)\item[(IV)]感情表出文のムードの性質から(III)を導き出す.(4)\end{itemize}\end{quote}\vspace{0.3cm}また,ここでは,人称制約を受ける部分を「ガ格(主格)」ではなく,「感情主」という意味役割を伴うもので扱う.感情形容詞述語は「感情主」と「感情の対象」(時にはそれは「感情を引き起こす原因」)を意味役割として必要とするが,人称の制約を受ける感情主は,ガ格とニ格とニトッテ格で表される可能性があるからである.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(9)]\underline{\{私/\#彼\}は}仕事が楽しい.\end{itemize}\end{quote}\vspace{0.3cm}(9)の「は」によって隠されている格を表わそうとすれば,三つの可能性があるが,どれも意味役割は感情主であり等価である.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(10)]a\underline{私が}仕事が楽しいコト\\b\underline{私に}仕事が楽しいコト\\c\underline{私にとって}仕事が楽しいコト\end{itemize}\end{quote}\vspace{0.3cm}また,(10)aにおけるガ格「私が」「仕事が」で,人称の制約がかかるのは,感情主「私が」だけであり,意味役割が感情の対象である「仕事が」には人称の制約がかかることはない.さらに,(9)の主題は,感情主であるため人称の制約があるが,(11)の主題「仕事は」には人称の制約はない.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(11)]仕事は\{私/\#あなた\}は楽しい.\end{itemize}\end{quote}\vspace{0.3cm}このようなことから,本稿では人称制約に関わる名詞句と述語との関係を意味役割で捉える. \section{感情主の人称制約と文のムード} 先に,文のムードによって感情主の人称制約のあり方が違うことを指摘したが,ここでは,人称の制約現象が,文のムードと関係して生じているものであることを,形容詞句の統語的な位置付けから確認する.まず,ムードを持たない統語的位置に形容詞句があるときには感情主の人称の制約がないことから,人称の制約は,ムードを伴うことによって生じることを示す.さらに,述べ立て文と感情表出文における感情形容詞文の人称の制約現象を比較し,両者の人称制約は,全く性質の異なるものであることを主張する.\subsection{ムードを持たない統語的位置における感情主}感情形容詞を述語とする文に,常に感情主の人称制約があるかというとそうではない.(12)〜(16)のような文には,感情主の人称の制約はない.これらには,文脈がどうであろうと,語用論的な制約もかからず,どの人称もあらわれ得る.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(12)][[\underline{よし子にとっては}うらやましい]話]だ.\item[(13)]こどもの成長は[[\underline{親にとって}うれしい]もの]だ.\item[(14)][[\underline{あなたが}悲しい]とき],彼女なら慰めてくれるだろう.\item[(15)][[\underline{私が}苦しい]の]は,あなたのせいじゃない.\end{itemize}\end{quote}\vspace{0.3cm}統語構造上,形容詞句は名詞句の内部に現れ,\cite{南1993}の階層で言えばB類に相当するところにあると言える.文のムードは南の階層のB類では担わない\footnote{\cite{南1993}では,様々な節の内部にどのような文の要素が含まれ得るかによって,文の階層構造を示した.代表的な例をあげておこう.}.\begin{figure}[b]\vspace{-0.6cm}\begin{tabular}{c}\begin{minipage}[c]{13.0cm}\footnotesize\begin{flushleft}・ナガラ節(平行継続):程度副詞,ガ格以外の格,動詞,ボイス,尊敬などを含み得る→A類\\美佐子は[ちらちらテレビを見ながらA]勉強した.\\*[美佐子がテレビを見ながらA],良夫が勉強した.\\・ノニ節:A類の要素,場所の修飾語,対比のハ,ガ格,ナイ,タなどを含み得る→B類\\[彼が[病院に行かA]ないのにB],私だけ行くのはいやだ.\\*[彼は[病院に行かA]ないだろうのにB],私だけ行くのはいやだ.\\・カラ節:A類,B類の要素,主題,マイ,ダロウなどを含み得る→C類\\[彼は[病院に行くA]だろうからC],私も準備しておこう.\\題述関係はC類の階層に属し,ここにおいて主題とムードが呼応している.\end{flushleft}\end{minipage}\\\end{tabular}\end{figure}\normalsize\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(16)]*[[\underline{よし子は}うらやましい\underline{だろう}]話]だ.\item[(17)]*[[\underline{太郎は}花子の死が悲しくある\underline{まい}]の]は当然だ.\end{itemize}\end{quote}\vspace{0.3cm}このように,文のムードと関わりのない統語的位置に,感情主と形容詞があるときには,感情形容詞文に人称制約は全くないのである.一方,ムードを担う文末に形容詞があったり,モダリティがムードを指定している文では人称の制約が働く.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(18)]\#\underline{よし子は}その話が\underline{うらやましい}.\item[(19)]\#\underline{私は}その話がうらやましい\underline{だろう}.\end{itemize}\end{quote}\vspace{0.3cm}よって,人称の制約現象は,明らかに,ムードとの関連のなかで生じている現象であることがわかる.\subsection{人称制約のある文と文のムード}感情形容詞文の感情主に人称の制約があると言っても,そのあり方は一元的ではなく,「語用論的人称制限」と「必然的人称指定」があることは,1.まえがきにも述べた.それぞれについてムードと人称の制約との関係を確認し,その上で,感情表出のムードを定義しよう.\subsubsection{2.2.1語用論的人称制限−述べ立てのムードの文}先述の\cite{益岡1997}において明らかにされたように,述べ立て文において,話者以外の感情(私的領域に属する事象)を,話者が断定的に述べることは,語用論的に避けられるべきことである.しかし,その原則が,文体,文脈的条件によって,適用されていない例を見てみよう.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(20)]シルレルの名を聞くことがもう\underline{僕に}は辛い.(小林秀雄『ドストエフスキーの生活』)\item[(21)]それをこさえるところを見ているのがいつも\underline{安吉に}はたのしい.((8)再掲)\item[(22)]\underline{榊山}は嬉しかった.(檀一雄『花筐』)\item[(23)]「私,自殺まで考えたのよ.どう責任とってくれるの.」\\「わかった.\underline{あなた}はつらかった.それはわかったから,今日のところは引き取ってくれ.」\end{itemize}\end{quote}\vspace{0.3cm}(20)〜(22)は小説からの引用であり,小説という文体では自然な表現であるが,一人称感情主の(20)以外,日常的な対話の場でこのような文は不自然である.また,(23)は話し手が聞き手に抗議された内容をまとめて,過去のコトガラとして強引に提示するような場面で用いられている.どれも,述べ立てのムードの文である.また,\cite{益岡1997}の原則とは別に,三人称の感情主がもっとも適切だが,文体,文脈的条件によって,一人称,二人称でも容認可能になる例もある\footnote{本稿の立場とは異なり,感情形容詞述語が一人称の感情主をとることを基本と考えてきたような研究においては,三人称をとる文は「人称制限解除」として,先の2.1の条件と同等に扱われた.しかし,どの人称も問題なくとれる2.1のものと,三人称をとりやすいこれらとは,当然別に扱うべきである.}.これらは,推し量り形式のモダリティが後接したものである.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(24)]\{\#\underline{わたし}/\#\underline{あなた}/\underline{太郎}\}はうれしい\underline{だろう}.\item[(25)]\{\#\underline{わたし}/\#\underline{あなた}/\underline{太郎}\}は連敗が悔しい\underline{にちがいない}.\end{itemize}\end{quote}\vspace{0.3cm}(24)(25)は,一,二人称の感情主では,普通不自然である.しかし,条件節などによって仮定の出来事であるという文脈的意味があれば,適切になるような性質のものである.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(26)]僕が彼女と別れたら,\underline{あなた}はうれしいだろう.\item[(27)]今はまだ自分の実力に自信がない.連敗しても仕方ないと思う.しかし,将来羽生善治氏のような栄光を手に入れたとして,その後名もない人に連敗などしたら……そんなことになったら,\underline{わたし}は連敗が悔しいにちがいない.\end{itemize}\end{quote}\vspace{0.3cm}これら人称制約が生じることのある感情主は,どれも文の主題であり,\cite{南1993}の階層ではムードと呼応する階層(C類)のものである(註7参照).そして,(20)〜(27)の例はみな,述べ立て文である.述べ立てのムードを持つ文の語用論的な人称の制約のあり方は,\cite{仁田1991}(第二章)に詳しいが,そこでは次のような例があげられている\footnote{仁田はこれらの人称を「ガ格」としているが,「主題の人称制約」とすべきであろう(\cite{東1997},本稿「まえがき」参照)}.(例とその判定は(仁田1991(:83—93))より.ただし,仁田論文において語用論的な人称制約で不適切な文についても用いられている*を,ここでは\#に書き換えた.)\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(28)]\{私/\#あなた\}は母が恋しい.\item[(29)]?ほら,君,転んだよ.\item[(30)]\#僕は彼を殴っただろう.\item[(31)]\#君は頭が痛い\{だろう/らしい/かもしれない\}.\end{itemize}\end{quote}\vspace{0.3cm}感情形容詞文の,文体,文脈的条件で変化する人称の制約も,こういった述べ立て文における人称制限そのものである.このように,文体,文脈的条件によって人称の制約の変化する感情形容詞文の人称の制約は,感情形容詞文に特有の現象ではなく,述べ立て文全体に存在する,語用論的な現象なのである.\subsubsection{2.2.2必然的人称指定−感情表出のムードの文}次に,常に感情主が一人称に決定されるような文をあげよう.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(32)]嬉しい.ねえ,しばらくでいいから,いっしょに連れて歩いて.(丸谷才一『笹まくら』)\item[(33)]ええ憎い,憎らしい・・・・人の与ひょうを((4)再掲)\item[(34)]「悲しいわ.」駒子はひとりごとのように呟いて(後略)(川端康成『雪国』)\end{itemize}\end{quote}\vspace{0.3cm}これらの感情形容詞文の感情主は,言語化されていないが,話し手に決定している.これらの文が担っているのが感情表出のムードであり,「感情表出文」は,次のように定義されるであろう.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(35)]発話者の発話時に生じる感情的状態を,客観的判断過程を通さず,直接的に表現した文\end{itemize}\end{quote}\vspace{0.3cm}しかしここで問題になるのは,「直接的に表現」することの意味である.先行の研究において感情表出は以下のように定義されているが,その議論をたどり,扱われている例文を見ても,「表出」することと「述べ立てる」こととの違いは鮮明でない.「表現時の感情」を単に述べることと「表出」することの本質的な違いについては説明されてきていないのである.\vspace{0.3cm}\begin{itemize}\item[](寺村1984(:349)):話し手のそのときの気持の直接的な表出\item[](益岡1991(:80-81))\begin{itemize}\item[-]対話文の「情意表出型」:表現時において,話し手の内面に存する感情・感覚や意志の内容を情報として聞き手に伝える働きを持つ.\item[-]非対話文の「情意表出型」:表現主体の内面にある感情・感覚や意思を表すもの\end{itemize}\item[]\cite{山岡1997}:発話時の話者の感情を直接表出する文.\end{itemize}\vspace{0.3cm}述べ立てと表出とは,以下のような点で,明らかに異なる.「述べ立て」文は,発話者が,何について述べるのか(文の主題)を多くの候補の中から選び出し,それについて述べるものである.述べられるものが「発話者自身」であり,また,述べる内容が「発話者の感情」であれば,一人称感情主についてその感情を述べる文になる.それは,三人称主題についての述べ立て文とムード的には何ら変わりない.「述べ立て」のムードの文においては,基本的にどんな人称も主題にできる\footnote{(37)は,主題が小説の登場人物であるなど何らかの条件で発話者が心理的共感を持たなければ述べにくい内容ではあるが.}\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(36)]私は試験がつらい.\item[(37)]太郎は試験がつらい.\item[(38)]この自動車は古い.\end{itemize}\end{quote}\vspace{0.3cm}一方「表出」は,ムードそのものが,発話者の感情を述べることを含み込んでおり,常に,感情主は発話者,すなわち一人称に決定している.述べ立て文のように,何について述べるのかの選択の余地はない.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(39)]つらい!(感情主=発話者(一人称))\end{itemize}\end{quote}\vspace{0.3cm}こうしたことから,ここで「表出」というものを次のように定義する.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(40)]表出文:その文のムードが述語主体を常に一人称に決定するもの\footnote{同じ表出のムードである「意志表出」でも同様に,ムードにより動作主が決定している.\\よし,手術をしよう.(動作主=発話者(一人称))\\感情表出文と意志表出文の関係は次のようになる.\\感情表出文:述語主体が感情主(例:うれしい!)\\意志表出文:述語主体が動作主(例:明日こそ宿題をやろう!)}\end{itemize}\end{quote}\vspace{0.3cm}感情を表す述語としては,形容詞だけでなく感情動詞もある.しかし感情や感覚,心理を表す述語であっても,動詞文では多くのものが(41)(42)のように感嘆語と共起しても発話者の感情を表出する文にはならない.(44)(45)のような一部の動詞のみ\footnote{註14にも引用したように,多くの動詞は,話し手自身の感情を直接表出するのには用いられない.},感情表出のムードをもつことができる\footnote{感情動詞の表出文については山岡1997参照.ただし山岡の言う「感情表出」には「述べ立て文」も含まれている.山岡の示すものの中で本稿の定義に一致する感情動詞は(45)(46)のほか,「頭に来る」「困る」「むかつく」「ドキドキする」「わくわくする」など,聞き手不在で使用できる感嘆語「ああ」などと共起できる動詞である.山岡の挙げる「疑う」「照れる」「気が晴れる」「憎む」などは表出文にはならない.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(41)]ああ,\{喜ぶ/喜んでいる\}.(×感情表出)\item[(42)]まあ,\{悲しむ/悲しんでいる\}.(×感情表出)\item[(43)]\#私は合格を\{喜ぶ/喜んでいる\}.(×感情表出)\footnote{(寺村1982(:143))には「動詞による感情表現のほうが」形容詞より「より客観的,物語り文的」とあり,「動詞表現は,話し手自身の発話時の気持ちを直接的に表出する表現ではない」としている.そのため,述べ立て文としての語用論的な人称の制約となるが,この場合,二人称だけでなく一人称も述べにくい.一人称の感情であれば,動詞で述べるよりも形容詞で述べるほうが語用論的に適切だからである.\\\{\#わたし/\#あなた/太郎\}は合格をよろこんでいる.\\\{\#わたし/\#あなた/太郎\}は別れを悲しむ.}\item[(44)]ああ,腹が立つ.(感情表出)\item[(45)]まったく,イライラする.(感情表出)\end{itemize}\end{quote}\vspace{0.3cm}感情表出文における人称制約は,感情形容詞文と,一部の感情動詞に特有の現象なのである.以上,本章で論じた点をまとめると以下のようになる.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(46)]人称の制約のあり方は,形容詞句(一部動詞句)の統語構造上の位置と深く関係している.\end{itemize}\end{quote}\vspace{0.3cm}\[\left\{\begin{array}{ll}ムードに関係ない形容詞句(南のB類)&:人称制約なし\\ムードに関係ある形容詞句(南のC類)&\left\{\begin{array}{l}述べ立てのムードの文\\:一般的な語用論的原則から生じ\\る人称制約((24)(25))\\感情表出のムードの文\\:ムードによって人称が決定\\感情形容詞と一部の感情動詞に\\特有の現象((32)〜(34)(39))\\\end{array}\right.\\\end{array}\right.\]\vspace{0.3cm}次章ではその感情表出文について,統語的特徴を明らかにする. \section{感情表出文の統語的特徴} \subsection{表出文であるための条件(1)--述語の形態と条件節}感情表出が,発話時の感情を表出するということをふまえれば,まず,述語が過去形であったり\footnote{ただし,「ああ,\{怖かった/おいしかった/つらかった\}.」のように,過去形であっても感情表出文となるものもある.これらは感情を引き起こす原因が消失すればその感情も消失するようなタイプのもので,原因が消失した直後の発話としてこのような過去形の表出文が成立するようである.詳細は別稿に譲る.},述べ立てのムードをあらわすモダリティが文末にあれば,表出文でないことは明らかである.\begin{quote}\begin{itemize}\item[(47)]私は淋しかっ\underline{た}.(夏目漱石『こころ』)\item[(48)]無性に悲しかっ\underline{た}.(新田次郎『孤高の人』)\item[(49)]*ああ,\{うれしかっ\underline{た}/哀しかっ\underline{た}\}.\item[(50)]あなたも辛いだろうが,私も辛い\underline{のだ}よ」(田辺聖子『新源氏物語』)\end{itemize}\end{quote}\vspace{0.3cm}また,現在形であっても,(51)(52)のように否定形では感情表出のムードは持たない.否定というのはそもそも,肯定される事態を想定したその上で,否定するという形式である.感情表出のムードは前述したように「発話時の一瞬に生じた感情的状態を客観的判断過程を通さず直接的に表現」するものであるから,一旦想定した事態を否定するというような判断過程が入りこむ余地はなく,よって,否定形は感情表出のムードに馴染まないのである\footnote{当然の事ながら,「つまらない」「やりきれない」など,固定化した表現は,否定形ではない.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(51)]*まあ,嬉しくない!\item[(52)]*ああ,淋しくない!\end{itemize}\end{quote}\vspace{0.3cm}よって,否定形は述べ立てのムードになり,人称の制約も必然的なものではなくなる.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(53)]妹の店で飲んでも\{\underline{わたし/\#あなた/\#太郎}\}は楽しく\underline{ない}.\item[(54)]「お万阿,そなたのお喋りを聞いていると〔中略〕これはおもしろいわい」\\「・・・・・」と,\underline{お万阿には}ちっとも面白く\underline{ない}.(司馬遼太郎『国盗り物語』)\end{itemize}\end{quote}\vspace{0.3cm}また,条件節が前接した場合も,発話時の感情表出のムードにはならない.条件節で提示した内容が発生した時においての感情を述べることになるからである.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(55)]\underline{もし君が来てくれたら}嬉しい.(福永武彦『花の草』)\item[(56)]\underline{スキーで雨に降られると}つらい.\end{itemize}\end{quote}\vspace{0.3cm}本節で確認した感情表出文になるための条件は以下の通りである.\newpage<事実1>\begin{quote}\begin{itemize}\item[(I)]述語が現在形で,並べ立てを表すモダリティが付加しない\item[(II)]述語が肯定形\item[(III)]条件節が前後しない\end{itemize}\end{quote}\vspace{-0.5cm}\subsection{表出文であるための条件(2)--無題文}3.1で確認した事実は,感情表出文となるための必要条件であり,それだけでは表出文の特徴を記述したことにはならない.本節ではさらに感情表出文の統語的特徴を示す.(益岡1997(:2))には,情意表出型の文の説明として次のような記述がある.\vspace{0.3cm}\small\begin{quote}\begin{itemize}\item[(4)]悲しいなあ.\end{itemize}このような場合,感情主は一人称に限られるので,一般に省略される.\begin{itemize}\item[(5)]?僕は悲しいなあ.\end{itemize}\end{quote}\vspace{0.3cm}\normalsize益岡は,例(5)に「?」を付しているが,これが表出文なのか述べ立て文なのか,明確には示されていない.この文が述べ立て文であれば,「僕」について述べる述べ立て文であり,不自然さはない.しかし,例文(4)の「悲しいなあ.」が益岡の言うように「感情主が一人称に限られる」ものであるのなら,こちらは感情表出文である.(4)と同じ表出文として扱うのならば,「僕は悲しいなあ.」という文は表出文ではありえないので,「?」ではなく「*」でなければならない.なぜなら,主題文は「主題について何かを述べる」文であり,主題は述べ立て文で用いられるものだからである.感情表出文「悲しいなあ.」と述べ立て文「僕は悲しいなあ.」は,ムードの異なる文であることから,益岡のように「一般に省略される」と記述するのは誤りである.先行研究において「感情表出文」として提示された文で,客観的な判断過程を含まず「直接表出」した感情主の人称が一人称に決定しているのは次のようなものであり,どれも無題文である.\begin{quote}\begin{itemize}\item[(57)]さびしいな.(\cite{寺村1984}より)\item[(58)]哀しいね.(\cite{益岡1991}より)\item[(59)]ああ,腹が立つ.(\cite{山岡1997}より)\end{itemize}\end{quote}\vspace{0.3cm}しかし,筆者の研究も含め,従来のいくつかの研究において「感情表出文」とされた例の中には,主題を持ち,発話時の発話者の感情を表出したものとは思われないものがある.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(60)]\underline{ぼくは}蛇が怖い.(\cite{寺村1973}より)\item[(61)]\underline{私は}すしが食べたい.(同上)\item[(62)]いや,野暮なことを言って,\underline{わし}は恥ずかしい.(木山捷平『長春五馬路』)(\cite{東1997}より)\end{itemize}\end{quote}\vspace{0.3cm}それぞれの主題に話者以外の感情主をあてると,確かに,不自然な文にはなる.しかし,これらは,先の3.2で確認した語用論的な制約によるものである.それらを述べてもよいようなコンテクストさえあれば,決して非文ではない.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(63)]\underline{拓也は}蛇が怖い.\underline{慎吾は}雷が怖い.\underline{正広は}暗闇が怖い.\\まったく,ここには怖がりばかりいるなあ.\end{itemize}\end{quote}\vspace{0.3cm}また,感情主以外の主題があっても同様に述べ立て文である\footnote{(寺村~1982(:151-152))にも,以下のような記述がある.\\感情的な形容詞を述語とする感情表出の文,\\XハYガ(形容詞)\\の,X(感情主)が文の背後にかくれ,Y,つまり形容詞で表される感情の対象が文の主題となって,Yハ(形容詞)となると,それは,「一般にYがこれこれの感情を引き起こすような性格を持ったものだ」という,品定め文の一種となる.}.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(64)]\underline{人間のことを想うのは}哀しい.(大仏次郎『帰京』)\item[(65)]\underline{ゆらりゆらり輪を描いて浮いてゆくむらさき色のけむりは}愉しい.(林芙美子『放浪記』)\item[(66)]\underline{この店のコース料理には}デザートが二品ついてくるのがうれしい.\item[(67)]\underline{バスは}時間が不定期で困るよ.(赤川次郎『女社長に乾杯』)(\cite{山岡1997}より)\end{itemize}\end{quote}\vspace{0.3cm}これらの文における感情主は,必ずしも発話者とは特定できない,genericな解釈がなされる文である.「誰にとってもその感情が引き起こされるような状態」であることを述べている文なのである\footnote{\cite{寺村1982}にも,「それ(=感情主の名詞句:引用者補)が文中になければ,その品定めが「一般に,誰にとっても」そうだという意味に解釈される」とある.}.また,(64)〜(67)には「〜にとって」という形式で,感情主を挿入することができるが,感情表出文には挿入できない.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(68)]人間のことを想うのは\{私/彼女\}にとって哀しい.\item[(69)]*わあ,私にとって哀しい!\end{itemize}\end{quote}\vspace{0.3cm}よって,(68)のように感情主が挿入できる(64)〜(67)の文は述べ立て文であるといえる.もちろん,(70)(71)のように文脈上,表現されていない感情主が一人称であると考えたほうが妥当なものもあるが,これらも状態を叙述する述べ立て文であることには変りない.同様のことは属性形容詞文((72))にもある.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(70)]今日は母の手蹟を見るのがはなはだ嬉しい.(夏目漱石『三四郎』)\item[(71)](八月×日)\\よそへ行って外のカフエーでも探してみようかと思う日もある.まるでアヘンでも吸っているように,ずるずるとこの仕事に溺れて行く事が悲しい.(林芙美子『放浪記』)\item[(72)]私は暗記が苦手だ.特に英単語を覚えるのは難しい.\end{itemize}\end{quote}\vspace{0.3cm}また,本来は主題があるが,文脈上省略されて隠れている文の場合も,やはり感情表出文にはならない.次の例で,下線の文はそれぞれ「私は」「加恵は」という主題が省略されており,述べ立て文である.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(73)]本当にいやないたずらね.\underline{嘘と分かっていても腹が立つわ}.(赤川次郎『女社長に乾杯』)(\cite{山岡1997}より)\item[(74)]加恵はそれを娘を喪った悲しみが躰にも響くのだと思っていた.目を押え,拭いながら,加恵は前々通りに家の中の雑事を片付けていた.しかし,夜になるとしみじみと娘が恋しかった.於継はそれを身を切り裂きたいようであったといったが,同じ悲しみでも加恵の性格ではそういう烈しさよりも全身の力が脱け落ちている.\underline{苛立たしいほど虚しくて,どうすることもできないほど淋しい}.加恵は自分の瞼にじっとりと滲み出るのは,涙ではなくて血なのではないかと思っていた.(有吉佐和子『華岡青州の妻』)\end{itemize}\end{quote}\vspace{0.3cm}以上の観察から,次のことが言える.<事実2>\begin{itemize}\item[]感情表出文は,主題を持てない.\footnote{同じ表出文である意志表出文も同様の特徴を持つ.意志表出文において「は」は常に「対比」の意味を持つ.(\cite{東1997}参照)}\end{itemize}\subsection{述語のみの文(統語的に未分化の文)}では,3.1の条件を満たし,無題文であれば,感情表出文なのであろうか.元来感情形容詞文は,感情の対象または感情主をとり,形容詞句を作るものである.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(75)]\underline{この授業が}つまらない(のは先生のせいだ.)\\(感情の対象)\item[(76)]\underline{私が}悲しい(ことをみんなは知らない.)\\(感情主)\item[(77)]\underline{彼にとって}\underline{社長との再会が}うれしい(はずはない.)\\(感情主)(感情の対象)\end{itemize}\end{quote}\vspace{0.3cm}ところが,先の感情表出文の例((57)〜(58))は,無題文であるだけでなく,そのどちらをも言語化していない\footnote{「腹が立つ」は,「立つ」という動詞が感情述語で対象に「腹」を取っているわけではない.}.(例文再掲)\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(57)]さびしいな.\item[(58)]哀しいね.\item[(59)]ああ,腹が立つ.\end{itemize}\end{quote}\vspace{0.3cm}このように感情主も感情の対象も言語化しない文が感情表出文となる.意味役割からすれば,感情形容詞文は,「感情主」「感情の対象」をとる可能性がある.しかし,それらの意味役割を助詞を伴って言語化した文は,感情表出文にならないのである.感情主や感情の対象を言語化した例において,(40)の定義のように,感情主が一人称に決定しているかどうか確認してみよう.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(78)a]わたしが淋しい.\item[b]わたし,淋しい.\end{itemize}\end{quote}\vspace{0.3cm}(78)は,感情主を言語化した例である.abそれぞれについて,感情主が発話者に決定しているか否か確認しよう.次のような文脈で,感情主を訊ねる質問文の答えとしては,aを用いるのが適切であり,bは不適切である.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(79)問:]「一体誰が淋しいの?」\item[答:]a「わたしが淋しいの.」\item[]b\#「わたし,淋しいの.」\end{itemize}\end{quote}\vspace{0.3cm}このことは,(79)aは,感情主が決定していない際に用いる形式で,bは感情主が決定している形式であることを示している.aは感情主として「わたし」以外の他の候補もあり得る形式だからこそ,この文脈で自然なのである.bは,このような文脈には現れない.それ以前の文脈とは無関係に,唐突に発話されるものである.すなわち,aのように感情主がガ格で表された文は感情表出文ではなく,bのように無助詞の場合,感情主が一人称に決定している感情表出文であると言えるであろう.また,(80)〜(83)は感情の対象を言語化したものである.それぞれ,aは助詞を用いて感情の対象をあらわし,bは無助詞である.これらにおいて,感情主の人称が,発話者に決定しているかどうかを確認しよう.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(80)a]芝漬けが食べたい.\item[b]芝漬け,食べたい.\item[(81)a]この授業がおもしろい.\item[b]この授業,おもしろい.\item[(82)a]先生と会えたから嬉しい.\item[b]先生と会えた,嬉しい.\item[(83)a]卒業できなくてつらい.\item[b]卒業できない,つらい.\end{itemize}\end{quote}\vspace{0.3cm}次のような文脈での問の答えとしては,aを用いるのが適切であり,bは不適切である.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(84)問:]「\{あなた/あなたの妹\}は一体何が食べたいの?」\item[答:a]「芝漬けが食べたい.」\item[答:b]\#「芝漬け,食べたい.」\item[(85)問:]「\{あなた/あなたの妹\}はなぜ嬉しいの?」\item[答:a]「先生と会えたから嬉しい.」\item[答:b]\#「先生と会えた,嬉しい.」\end{itemize}\end{quote}\vspace{0.3cm}aの形式は,それぞれの問で示された主題を受けて,答えているものである.省略されている主題を示せば,それぞれ次のようになる.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(86)]\{私/私の妹\}は芝漬けが食べたい.\item[(86)]\{私/私の妹\}は先生と会えたから嬉しい.\end{itemize}\end{quote}\vspace{0.3cm}ところがbの形式は問に対する答として不自然である.もしこのような会話の流れの中でbのように発話したとすれば,問を無視した独白という印象を与える.bの形式では問で提示された主題を受けることができず,感情主は発話者に決定しているのである.すなわち,(80)〜(83)のbは,表出文ということになる.しかし,無助詞であれば常に表出のムードを担うわけでもない.第三者が引用した例を見てみよう.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(88)]「芝漬け食べたいって.」\item[]「誰が?」\item[]「太郎が.」\item[(89)]「わたし,淋しいって」\item[]「何が?」\item[]「彼がいなくなったことが.」\end{itemize}\end{quote}\vspace{0.3cm}こうした会話が成立することから,引用された「芝漬け,食べたい」「わたし,淋しい」の感情主は一人称と限らず,表出文でないことが分かる.(88)のように感情の対象に助詞を添えないものは「って」という形式で間接引用されれば,表出文ではなく\footnote{表出文であることを明らかにするために,感動詞を添えると,間接引用にはならず直接引用になる.感情主は当然引用元の発話現場における発話者である.\\「ああ芝漬け食べたい」って.},(89)のように感情主に助詞を添えないものは直接引用になり,「わたし」は発話者ではない.このことから,感情主や感情の対象を無助詞で表すことは,感情表出文であるための必要条件であるが,十分条件ではないことが分かる.すなわち,表出文で感情の対象を言語化しようとするのであれば,助詞を伴うことはできないということである\footnote{動詞文でも同様である.「僕が子供にイライラする.」「ああ,イライラする!(表出文)」}.こうしたことから,次のことが言える.<事実3>\begin{itemize}\item[]感情表出文では,意味役割として存在する感情主や感情の対象を格を伴った形で表現することはできない.\end{itemize}\subsection{本章のまとめ}以上,本章で見てきた感情表出文に関する事実を確認すると次のようになる.\begin{quote}\begin{itemize}\item[(I)]現在形,肯定形述語であり,並べ立てのモダリティや条件節が付加されない.\item[(II)]無題文である.\item[(III)]意味役割を格を伴う形でとらない.\end{itemize}\end{quote}上記より考察すると,感情表出文では,感情主や感情の対象を,統語的に分析的な方法では言語化しないと言える.「まあ,わたし,うれしい.」というのは,表記上読点をふればこれだけ全体で一文であるが,「まあ.わたし.うれしい.」と句点をふった三つの文と何ら変わりはない.すなわち,感情表出文は,感情主や感情の対象をとらない一語文であると言える\footnote{一文でこのような特徴を満たしていても,文脈上,感情主や感情が「省略」された場合,感情表出文でない.「先生,今回の受賞のお気持ちを聞かせて下さい.」「(わたしは)(受賞が)とても嬉しいわ.」}.このことから,次のような仮説を立てる.\begin{flushleft}<仮説>\end{flushleft}\vspace{-0.5cm}\begin{quote}\begin{itemize}\item[(I)]感情表出文では,感情主や,感情の対象を言語化しない.すなわち,述語のみの一語文でなければならない.\item[(II)]仮に言語化するとしても,格関係や,題述関係など,統語的に分析的な方法をとってはいけない.\end{itemize}\end{quote}\vspace{0.5cm}発話時の感情を直接表出する感情表出文がなぜ,述語一語文でなければならないのか,この仮説を次章において検証する. \section{感情表出文はなぜ一語文か} 前章では,述語のみの文が,感情表出のムードを持つことができるという事実を確認した.本章では,表出文はなぜ一語文でなければならないのかを述べる.\subsection{一語文の意味決定}まず,本来とるべき意味役割を持つのにそれを言語化せず,一語文として表現される文が,どのように意味決定されるのか,その仕組みを考察してみよう.一語文の用法に関しては\cite{尾上1998}の研究があり,特に名詞一語文について詳しい分析がなされている.その中で,発話が名詞一語であることを本質的に必要としているのは「存在一語文」と名付けられたものだけであるとしている\footnote{他にも名詞一語文はあるが,それらは主述的に展開されうる文形式の一部が省略されて一語文になったものであるとされている.}.「存在一語文」とは,現場における,遭遇,発見の叫びとしての一語文であり,次のように分類されている\footnote{\cite{尾上1998}では,存在承認,存在希求それぞれがさらに,喚体的なものと伝達的なものとに下位分類されている.}.\begin{quote}\begin{itemize}\item存在承認:遭遇対象の名前を叫ぶことによって遭遇の際の急激な心的経験そのことを語るもの\\「とら!」(虎と遭遇した驚嘆を驚きとして発話する)\item存在希求:希求対象の名前を叫ぶことで希求感情そのものを結果的に表現するもの\\「水!」(砂漠で必死に水を求める)\end{itemize}\end{quote}これら存在一語文は,「述べないことによってこそ文であるという特殊な文表現\\(尾上~1998(:907))」であるが,なぜそれらが驚嘆や希求を表す文になるのかということについて,尾上では次のように説明している.\small\begin{quote}(前略)A〈存在承認〉一語文とB〈存在希求〉一語文は,「それがある」こと,「それを求める」ことを,「それ」の名を叫ぶことによって表現してしまう発話である.(中略)イマ・ココにあるものが急激に話し手の心を覆ってしまったとき,その心的経験を何らかにことばに発散しようとするなら話し手はそのものの名を叫ぶしかない.これがA1《発見・驚嘆》一語文である.また,イマ・ココにないものが話し手の心をイマ・ココで切実に充満するとき,その心的経験をことばにするなら,そのものの名を叫ぶ以外にない.これがB《希求》一語文にほかならない.(中略)対象の名を呼ぶことによってのみ果たされる表現とは,言ってしまえばイマ・ココの圧倒的な存在の承認である.(後略)\end{quote}\normalsizeすなわちこれらの一語文は,発話現場(イマ・ココ)との関係が義務的であるということである.そして,発話現場の状況と,「叫ばれた名詞」との関係によって,その発話の解釈は決定する.では,本稿で扱っている感情表出文としての一語文はどのような原理で表出文になるのであろうか.感情表出文は,名詞一語文ではなく述語一語文である\footnote{繰り返しになるが,尾上の扱った「存在一語文」と同様,感情表出文は文中の他の要素があってはならないものである.省略されているのではない.}.しかし,前章で述べたように,一語文が感情主や感情の対象を言語化しないからと言って,感情主や感情の対象そのものが存在しないわけではない.次の例では,感情主は発話者,感情の対象は()内に記したものであろう.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(90)]わあ,おもしろい.(発話者の眼前の出来事)\item[(91)]ふう,淋しい.(発話者の心中に想起されている出来事)\item[(92)]はあ,つらい.(発話者にふりかかっている事実)\item[(93)]うぅん,食べたい.(発話者の眼前のもの)\end{itemize}\end{quote}\vspace{0.3cm}これら感情主,感情の対象という意味役割に相当するものは,発話現場に依存して(もしくは拘束されて)解釈が決定している.その仕組みは以下のようである.一語文は,感情主,感情の対象といったものが統語的に存在しない.故に,それた意味役割に対し,言語文脈上の要素を参照して値を振り当てることができない.そこで,発話現場に存在する感情主(発話者),感情の対象(目前の出来事など)に,一義的に決定するのである.図示すると,(90)のような一語文が発話されたとき,発話と発話現場の関係は,図1のようである.\begin{figure}[h]\begin{center}\epsfile{file=62.eps,height=30mm}\caption{発話と発話現場の関係}\end{center}\end{figure}述語一語文の意味決定の仕組みは以下のようにまとめられる.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(94)]述語一語文では,述語の要求する意味役割は発話現場から探し出される.\end{itemize}\end{quote}\vspace{0.3cm}一語文であることで,発話現場の感情主(発話者),発話現場の感情の対象(ものや出来事)に自動的に決定するのである.このように述語一語文も発話現場と切り離せないものである.分析的に表現しないことで,発話現場とのつながりを絶対的なものとしているのである.\subsection{一語文と文のムード}述語一語文では,述語の要求する意味役割に相当するものを言語文脈上認定できないため,発話現場から探し出し決定することを前節で確認した.それは,感情表出文が「発話時の発話者の感情」を表出するものでなければならないことに適合する.\footnote{述語一語文であれば,常に「感情表出」になるわけではない.場の状況や述語の意味に応じて,様々なムードが出現する可能性がある.が,基本的に,テンスの分化のない述語一語文は,発話現場に存在する世界に直接意味役割を求めた発話になるのである.例えば「壊す.」という発話は,発話現場の2つの動作主(話し手と聞き手)のどちらをとるかによって,2種類の文のムードを持つ可能性がある.\\「壊す.」動作主→話し手→意志表出のムードになる\\→聞き手→命令のムードになる}一方,前章で立てた仮説を検証するために,意味役割を分析的に言語化した表現が,表出文になれないことを示そう.助詞を用いて分析的に表現するとき,言語化される感情主や感情の対象は,統語的に存在するので,発話現場のものである必要はない.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(98)]彼には出張中のK先生の授業がおもしろい.\item[(99)]亡き祖父は息子に先立たれてつらかった.\end{itemize}\end{quote}\vspace{0.3cm}このように発話現場に縛られない表現が可能である.仮に発話現場のものを同様に言語化していたとしても,発話現場との直接的な関係は絶たれ,言語表現として客観的に対象化される.\vspace{0.3cm}\begin{quote}\begin{itemize}\item[(100)]私には今受けているこの授業がおもしろい.\item[(101)]僕は息子に先立たれてつらい.\end{itemize}\end{quote}\vspace{0.3cm}「私」や「授業」が,発話現場のものであったとしても,助詞で関係づけている以上,言語化された世界での関係を示すだけであり,現実世界とのマッチングは表現された名詞が行うので,発話現場への直接的な値の参照は必要ないのである.意味役割は,言語化した世界で割り当てられる.言語表現という閉じた世界の中で,何が何に対してどうである,どうするなど,述語が要求する意味を満たす形で,関係づけているのである.これが一般的な文の述べ方で,「述べ立て文」であることは言うまでもない.こうした分析的な表現では,場面の状況や発話者との直接的な結びつきがないため,感情主の制約も,一,二,三人称のいずれからも選ぶ可能性がある中で,語用論的原則により一人称が選択されるということになるのである.このような事実は,\cite{山田1908,山田1936}の「喚体の文」が「非分解的である」\cite{山田1908}\footnote{(山田1908(:1209))には以下のようにある(引用者により漢字を新字体に改めた).「元来喚体句は直感的のものにして,他に之を伝ふるに又直感を以てするものにして決して解せしむる目的にあらず.感ぜしめむが目的なり.感動は直感的にして非分解的のものなり.然るに之を解釈すといふ直に了解作用の乗ずる所となりて,こゝに分離思考によらざるべからず,この故に一旦解釈すればすでに喚体文にあらず.」}ということと一致する.山田の理論を現代日本語研究に継承するために再解釈したものとして,\cite{尾上1986,堀川1996}などがあるが,両者とも,喚体と述体を区別する要因の一つとして「現場性」をあげている.喚体の文は現場性をもち,述体の文は現場からの独立性が特徴的であるという.分析的でない感情表出の表現は,現場とのつながりにおいてしか成立しえない,まさしく喚体の文と言えるのかも知れない\footnote{ただし\cite{尾上1986}では喚体の文の特徴として「ことばになるのは遭遇対象,希求対象のみで,心的経験・心的行為の面はことばにならない(:576)」とあるので「ああ,うれしい」は,述体と考えられているようである.また,\cite{尾上1998}(注2)において「あつい!」なども述体の側に位置づけると述べている.\cite{山田1908}でも,現代語で「ああうれしい」にあたる「あな,うれし.」は「感覚の言語的発表」であり,喚体には近いがあくまでも述体の文であると分類されている.}.以上のことから,次のような結論を出す.\begin{verbatim}<結論>\end{verbatim}一語文は,意味役割を発話現場から直接的に決定しなければならず,そのことと発話時,発話者,発話現場に拘束された感情表出のムードは適合する.一方,統語的に分析的な文は,統語的に表現された要素の存在から発話現場には拘束されないため,発話時,発話者の感情のみを表す感情表出文には不適切である.よって,感情表出文は述語一語文でなければならない. \section{むすび} 本稿での主張を順次まとめると,以下のようになる.\begin{itemize}\item[(I)]統語構造上の位置から感情形容詞文の人称の制約をみると,文のムードに関係のある階層に人称の制約があらわれる.\item[(II)]感情表出のムードの文においては,感情主が一人称に限定され,他の感情主が選択される余地はない.\item[(III)]感情表出文は,発話現場から直接意味役割を捜し出す,述語一語文でなければならない.\end{itemize}このように本稿では,感情表出文を述べ立て文から分ける明確な定義づけをしたことにより,表出文が述語一語文であるという統語的特徴を示すことができた.また,なぜ,感情表出文が一語文という統語的特徴を持つのかについて,一語文の意味役割決定のシステムを描くことにより,表出のムードとの意味の適合性があることを明らかにした.\vspace{1.0cm}\begin{flushleft}<参考資料出典>\end{flushleft}\begin{itemize}\item[]中村明1979『感情表現辞典』六興出版\item[]CD−ROM版新潮文庫の100冊新潮社版\end{itemize}\newpage\bibliographystyle{jnlpbbl}\bibliography{v06n4_03}\begin{biography}\biotitle{略歴}\bioauthor{東弘子}{1997年名古屋大学大学院博士課程後期満期退学.博士(文学).以後,大学非常勤講師として国語学,言語学,日本語などを担当.日本語学(主に文法)専門.言語処理学会,国語学会,関西言語学会会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V30N01-02
\section{はじめに} \label{sec:intro}\textbf{UniversalDependencies(UD)}\cite{nivre-etal-2016-universal}は,言語横断的に品詞・形態論情報・依存構造をアノテーションする枠組およびコーパスである.UDプロジェクトの研究目標として,多言語の統語解析器開発,言語横断的な言語処理技術の開発,さらには類型論的な言語分析\cite{de_marneffe_universal_2021}などがあげられている.UDでは,データ構造やアノテーション作業を単純化するため,またくだけた文や特殊な構造に対して頑健な表現を実現するために,句構造(phrasestructure)ではなく,\figref{fig:jp_ud1}のような語の間の依存関係と依存関係ラベルで表現する依存構造を採用している.UDのガイドラインを基に,現代語のみならず,古語・消滅危機言語・クレオール・手話などを含めた100言語以上の依存構造アノテーションデータが構築され,公開されている\footnote{\url{https://universaldependencies.org/}}.2022年8月現在でも,言語横断性を高めるためにUDの基準について活発にGitHub\footnote{\url{https://github.com/UniversalDependencies/docs/issues}}上やワークショップで議論され,ラベルの統廃合が行われながらもアノテーションやガイドラインが更新し続けられている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-1ia1f1.pdf}\end{center}\hangcaption{日本語UDの例.「文節係り受け構造」で採用されている単位「文節」(枠で囲んである単位)とは異なり「自立語(内容語)」と「付属語(機能語)」を分解した単語単位をUDでは想定する.UPOSがUDの定義する品詞,XPOSは言語依存の品詞(日本語UDではUnidic品詞.図の例では品詞の詳細を略するときがある.)}\label{fig:jp_ud1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%このUDの枠組では,依存構造関係を付与する基本単位として,音韻的な単位や文字・形態素ではない\textbf{構文的な語(syntacticword)}を語として用いることを規定している.英語やフランス語といった空白を用いて分かち書きをする言語においては(縮約形態などを除いて)空白を語の単位認定として用いることが多い.一方,語の境界を空白などで明示しない東アジアの言語においては,どのような単位を構文的な語に規定すべきかという問題があり,これらの言語では,一度語の基本単位を定義してから,UDを構築している.現代中国語\cite{xia2000-chinese-pen-tree,leung-etal-2016-developing}や韓国語のUD\cite{chun-etal-2018-building},トルコ語・古チュルク語\cite{kayadelen-etal-2020-gold,derin-harada-2021-universal}などでも,言語ごとにコーパスや形態素解析などによって語の単位認定を行い,UDの言語資源が構築されている.UDJapanese(日本語UD)Version2.6以降では,その基本単位として\textbf{国語研短単位}(ShortUnitWord,SUW:以下\textbf{短単位})を採用している\cite{_universal_asahara_2019}.短単位は『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{maekawa2014balanced}・『日本語日常会話コーパス』(CEJC)\cite{koiso-EtAl:2022:LREC}をはじめとした形態論情報つきコーパスでも単位として採用されている.短単位に基づく形態素解析用辞書として,約97万語からなるUniDic\cite{den2007unidic}も公開されている.また,170万語規模の単語埋め込みNWJC2vec\cite{Asahara2018NWJC2VecWE}でも短単位が使われており,短単位を基準として言語処理に必要な基本的な言語資源が多く整備されている.この短単位に基づく言語資源の豊富さから,実用上は短単位に基づく処理が好まれる傾向にあった.しかし,グレゴリー・プリングルによるブログ記事\footnote{\url{http://www.cjvlang.com/Spicks/udjapanese.html}}や\citeA{murawaki2019definition}では,単位として短単位を採用している既存のUDJapaneseコーパスは「形態素」単位であり,UDの原則にあげられる「基本単位を構文的な語とする」という点において不適切であることを指摘している.国語研においては,形態論情報に基づいて単位認定し,「可能性に基づく品詞体系」が付与されている短単位とは別に,文節に基づいて単位認定し,「用法に基づく品詞体系」が付与されている\textbf{国語研長単位}(LongUnitWord,LUW:以下\textbf{長単位})を規定している.しかし,長単位に基づくコーパスの構築は,短単位に基づくコーパスの構築より長時間の作業を要する\footnote{これは,短単位と比較すると,自動解析の精度が担保されておらず,長単位のアノテーション修正の作業ができる人材も少ないなどといった理由が挙げられる.}という問題がある.言語資源としては,BCCWJやCEJCには長単位に基づいた形態論情報が付与されているとはいえ,短単位と比べると利用可能な言語資源やツールが少ないため,長単位に基づく依存構造が解析器によって生成できるのかという問題もある.日本語における語の単位認定の検証のためには,実際に短単位のみではなく,長単位に基づく日本語UD言語資源を整備することが必要である.本研究では,長単位に基づく日本語UDの言語資源を整備したので報告する.UD全体と日本語における単位認定について説明しながら,既存の言語資源・解析器によって長単位に基づく日本語UDの構造が生成しやすいかを短単位UDと比較して検討する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{UniversalDependenciesと日本語の単位認定} \label{sec:issue}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{UniversalDependenciesによる単位認定}\label{sec:ud_wrd}\textbf{UniversalDependencies(UD)}\cite{nivre-etal-2016-universal}は,言語横断的に品詞,形態論情報,依存構造を付与するための枠組およびコーパスである.UDの枠組として,品詞体系(UPOS)はGoogleUniversalPart-of-speechTags\cite{petrov:2012:lrec}を,形態論情報(FEATS)はIntersetinterlinguaformorphosyntactictagsets\cite{Zeman2008}を,依存関係ラベル(DEPREL)はUniversalStanfordDependencies\cite{demarneffe:2014:LREC}を基に構成されている.さらにUDでは,多言語横断の枠組の実現のために,すべての構文構造を\figref{fig:jp_ud1}のように語の間の依存関係と依存関係ラベルで表現する.そのため,依存関係を表すための\textbf{「語(words)」の単位認定}が重要になる.UDのガイドラインでは,この「語」の単位について,語同士は依存関係が成立しているという前提でアノーテションすることを求めている.さらに,「語は\textbf{構文的な語(syntacticword)}である」と定義しており,構文的な語は形態素ではないと説明している.形態論的な特徴は語の属性としてアノテーションし,語を形態素に分割しない.これは,音韻論上他の語に依存する拘束形態素であっても統語的に独立した語(スペイン語の``d\'{a}melo''$\rightarrow$``damelo'')や縮約形態(``au''$\rightarrow$``\`{a}le'')を元の個別の単位に分解したいという理由に基づく\footnote{\url{https://universaldependencies.org/docs/u/overview/tokenization.html}}.このようなUDの規定する語を本稿では「構文的な語」として説明する.語の分割が空白により規定できる言語については,より細かく分割すべき接語(clitics)やまとめあげるべき数的表現・略語(``20000''や``e.g.'')に対して適切なドキュメンテーションを行うことが求められている.日本語や一部の東アジア諸言語では,空白を用いずに記述するため,明示的な空白を用いた単位認定が困難である.UDのアノテーションを作成するうえで単位認定は非常に重要であるため,言語またはツリーバンクごとにアノテーションする単位を規定している.たとえば,日本語と同様に空白による境界のない現代中国語\cite{xia2000-chinese-pen-tree,leung-etal-2016-developing}や韓国語のUD\cite{chun-etal-2018-building}では,既存の単語分割コーパスに基づいて単位を規定している.古チュルク語を含むトルコ語\cite{kayadelen-etal-2020-gold,derin-harada-2021-universal}のUDは,語の境界を表す空白は存在するものの,日本語と同じく膠着語であり,動詞などは接尾辞を付着させて文法関係を示している.そのため空白だけではなく,さらにUDの示す構文的な語に合うように接尾辞などを区切り,単位認定を行っている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{日本語の単位認定}\label{sec:suwluw_dec1}日本語は,形態論的変化が豊富でありながら,語境界に空白を使わない言語である.日本語における単位は分析手法に応じて定義される傾向にあり,自明な語境界があるわけではない.また,日本語の単位認定は工学的にも重要と考えられており,形態素解析の研究が自然言語処理の分野で盛んに行われていた.日本語の形態素解析では,内部的に辞書を用いて解析が行われることがほとんどであり,さまざまな種類の辞書が構築されて公開されている.日本語の形態素解析用辞書としては,IPADIC辞書\footnote{\url{https://ja.osdn.net/projects/ipadic/}},JUMAN辞書\footnote{\url{https://nlp.ist.i.kyoto-u.ac.jp/?JUMAN}},Sudachi辞書\cite{TAKAOKA18.8884,sakamoto_sudachi_2018},IPA辞書から新語を拡張した辞書mecab-ipadic-NEologd\cite{sato2017mecabipadicneologdnlp2017}なども公開されている.日本語UDは,他言語UDと同様に,既存の辞書やコーパスを利用してUDの形式に自動変換することを目指している.語境界を新たに認定するよりも,既存の単位に基づいて品詞などの対応を取るほうがUDの基準の変更に追随するためにも望ましい.日本語UDでは,Version2.6より,UniDic\cite{den2007unidic}の語彙項目の単位,すなわち\textbf{国語研短単位(短単位)}を単位とする方針とした\cite{_universal_asahara_2019}.本稿で報告する長単位UDの\textbf{国語研長単位(長単位)}も,短単位と同様に設計されたものである.次節では,短単位と長単位といった国語研による語の単位認定について説明をする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{国語研による語の単位認定}\label{sec:suwluw_dec}国語研短単位や国語研長単位は,語彙調査のために制定された単位である\cite{weko_1373_1}.\figref{fig:example}で示す通り,短単位は最小単位から,長単位は文節から規定されている.この節では最小単位,短単位,文節,長単位の説明をする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{30-1ia1f2.pdf}\end{center}\hangcaption{最小単位,短単位,長単位,文節の例(BCCWJのPB33\_00032より).\ref{sec:suwluw_dec}節でも説明する通り,最小単位から短単位,文節から長単位が規定されている.}\label{fig:example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%国立国語研究所では,現代語において意味を持つ最小の単位のことを\textbf{最小単位}と定義する.最小単位はその語種に基づき定義される.日本語は,漢語・和語・外来語・固有名詞・数値表現・記号などの語種からなる.漢語は1文字1語とし,和語・外来語・固有名詞はそのもっとも短い単位を1語とする.数値表現は十進の位取りで発音できる単位に分割する.記号は1文字1語とする.このような操作的な規則に則り,最小単位を制定している.\textbf{短単位}は,この最小単位に基づき,同じ語種同士の1回結合までを1単位として定義する.\figref{fig:example}の例では,「学」と「年」はそれぞれ漢語であり,結合した「学年」を1短単位とする.和語である「用い」と付属語である「られ」を結合しないで,それぞれを1短単位とする.短単位は,基準が分かりやすく,ゆれが少ないという特徴があり,頻度の計数にふさわしい単位とされている.この短単位に対してUniDic体系に基づく形態論情報(品詞・活用型・活用形・語形・語彙素)が定義される.短単位に付与されるUniDic品詞は「可能性に基づく品詞」であり,その語彙素(表層形)がなりうるすべての品詞用法を考慮したものである.たとえば,「日曜」などの単位は文脈によって「名詞-一般」にも「副詞-一般」にもなりえるため,「名詞-副詞可能」といった品詞を定義する.短単位は語彙分析を目的としており,文脈に依存した用法を考慮した品詞を定義していない.一方\textbf{長単位}は,まず\textbf{文節}境界を認定したのちに,文節内の短単位要素の結合により認定する単語単位である.文節は日本語における係り受け構造(依存構造)情報における基本単位に適した境界として採用されており,この文節を基に係り受け構造の整備が行われている\cite{asahara2018dep}.日本語の文節単位の係り受け構造は,係り受けが交差せず,倒置などをのぞいて右主辞であり,簡単なアルゴリズムで組み上げられるという性質を持つ.しかしながら,文節自体には品詞が設定されておらず,文節間同士の依存関係も基本的に定義されていない.そのため,文節のみでは,直接UDに変換するための情報が本質的に欠けている.文節は,1つの自立語と接頭辞・接尾辞・助詞・助動詞などの複数の付属語から構成されるとし,その各要素を長単位として認定する.\figref{fig:example}の文節「用いられている」は,長単位自立語と「用い」と長単位付属語「られ」「ている」により構成される.長単位の規程集\cite{weko_2862_1}では,長単位としてみなす複合辞(Multi-wordExpressions)が認定されており,複合辞をなす機能表現は1単位とする.また長単位には,文脈によりどのような統語的なふるまいかについて曖昧性解消を行った「用法に基づく品詞」が付与される.長単位は,文節を基に「用法に基づく品詞」が付与可能な自立語構成素と付属語への分割を行った単位とも言える.短単位と比較すると,長単位は依存構造の基本単位である文節を基準とした単位のため,構文的な語に近いと考えられる.また,たとえば,短単位における品詞「名詞-副詞可能」は,長単位においては文脈に基づき「名詞-一般」もしくは「副詞-一般」のいずれの用法なのかを判別して付与するため,統語上における品詞の曖昧性も解消できている可能性が高い.さらに,短単位は前述のとおり,形態素に基いているのみで,膠着語としての性質を考慮していない.そのため,接尾の語により品詞が変化する場合に対応できないものがある.これは\citeA{_universal_asahara_2019}でも問題としてあげられている点である.これは長単位の区切り方で解消することができると考えられる.\figref{fig:example2}に短単位と長単位の違いの1例をあげる.上が短単位,下が長単位の例である.\figref{fig:example2}から分かるように短単位は「力強さ」を「力強」「さ」,「両立する」が「両立」「する」の2つに認定されており,長単位ではそれぞれ「力強さ」「両立する」という1つの長単位として認定されている.接尾辞の「さ」は前にくる形容詞を名詞化するため,統語的には「力強さ」で名詞と品詞認定されるべきだが,短単位では実現できていない.長単位では「力強さ」を1長単位とし,「名詞」と認定されている.また,短単位では「両立」と「する」で分かれてしまっているため,「する」によって動詞化されていることを確認する必要がでてくる.実際\textbf{UD\_Japanese-BCCWJ}では「する」が名詞に接続されているかをプログラムで抽出して判定した後,UPOSの\utag{VERB}を付与するような変換規則を設けている\cite{omura-asahara-2018-ud}.一方で,「両立する」として1つの長単位として認定すれば,長単位の品詞体系から,自然と動詞として品詞認定できる.このように長単位は文脈上の品詞の曖昧性を解消しているため,短単位と比べて,UDの示す構文的な語に近いと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{30-1ia1f3.pdf}\end{center}\hangcaption{例文「打感と力強さが両立する」.上が短単位の例,下が長単位の例である.(BCCWJのPM41\_00172より一部抜粋)短単位の場合,「両立」だけではなく,「する」まで参照してから「\utag{VERB}」を付与する規則を設けている.}\label{fig:example2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{01table01.tex}\hangcaption{各単位認定で利用できる言語資源・解析器.N/Aは存在しない,あるいは計算できないことを示している.}\label{tab:lravail}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{日本語の単位認定について利用できる言語資源・解析器}統語解析では,統計的機械学習や深層学習により自動解析器を構築するものが多く,そのため,学習時に利用する言語資源の豊かさは重要な点である.前述した最小単位・短単位・長単位・文節について,\tabref{tab:lravail}に各単位認定で利用できる言語資源・解析器について示す.表中TTRはBCCWJ中の総語数に対する異なり語数の比率(TypeTokenRatio)であり,この値が高いほど,その単位の出現確率が小さくなることを意味する.最小単位は,現在のところ公開されている言語資源・解析器は存在しない.短単位は,形態素解析器MeCab\cite{kudo-etal-2004-applying}と形態素解析用辞書UniDicを用いることにより生成される.ほかにも\citeA{Asahara2018NWJC2VecWE}によって公開されたNWJC2vecなどの単語埋め込みが利用できる.長単位・文節については,TTRの大きさからも分かる通り,語彙が膨大であるため辞書は存在しない.しかし,長単位は,短単位から構成規則により生成が可能なため,中・長単位解析器Comainu\cite{kozawa2014comainujp}やVaporetto\cite{akabe2022}といった解析器などにより生成することができる.文節は,CaboCha\cite{cabocha}などのツールでも解析ができる.TTRが大きいほど単語埋め込みの構築の難易度も高くなることが\citeA{Asahara2018NWJC2VecWE}によって指摘されており,長単位や文節について単語埋め込みは構築されていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{これまでの日本語UniversalDependenciesの歴史}2023年1月までに,現代日本語UDリソースとして7種類のコーパスが公開されている.これまで公開された日本語UDを\tabref{tab:status}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{01table02.tex}\caption{公開現代日本語UDのコーパス.SUWは短単位,LUWは長単位の略称である.}\label{tab:status}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\textbf{UD\_Japanese-KTC}\cite{tanaka_universal_2016}は京都大学テキストコーパスを元に作られたUDコーパスである.\textbf{UD\_Japanese-KTC}は長単位に近い単語境界で単語を構成しており,人手によって句構造木が付与され,その句構造木に基づいてUDの依存構造木を構築している.現在UDプロジェクトではVersion2が公開されているが,\textbf{UD\_Japanese-KTC}についてはVersion1でメンテナンスが止まっている.\textbf{UD\_Japanese-BCCWJ}\cite{omura-asahara-2018-ud}はBCCWJに基づいたUDコーパスである.Version2.2より公開された.BCCWJでは短単位・長単位・文節および文節単位の係り受け構造の情報が提供されている.\textbf{UD\_Japanese-BCCWJ}はこのBCCWJからの形態素情報および係り受け構造を元に\citeA{omura-asahara-2018-ud}らが提案している規則によって,短単位に基づく依存構造木へと自動変換されたものである.\textbf{UD\_Japanese-GSD}と\textbf{UD\_Japanese-PUD}はVersion1.4までGoogle\cite{mcdonald-etal-2013-universal}が管理し,Version2.0から2.5まではIBMの単語分割器\cite{kanayama-etal-2000-hybrid}により単語分割し,修正したものであった.Version2.6より国立国語研究所がメンテナンスおよび公開しているコーパスである.あらかじめ\textbf{UD\_Japanese-GSD}のVersion1.4の権利者の許諾を得て,さらに交渉によりライセンスをCCBY-NC-SAからCCBY-SAに変更したうえで,Version1.4データの例文を元に,国立国語研究所にて国語研短単位形態論情報と文節係り受け情報を人手により付与している.UDの依存構造木については,文節係り受け木から\citeA{omura-asahara-2018-ud}らの規則によって\textbf{UD\_Japanese-BCCWJ}と同様に変換したものである.今回,さらに\textbf{UD\_Japanese-GSD},\textbf{UD\_Japanese-PUD},\textbf{UD\_Japanese-BCCWJ}の例文に基づき,長単位に基づく日本語UDコーパスを構築した.BCCWJには長単位形態論情報が付与されていたが,新たに\textbf{UD\_Japanese-GSD}と\textbf{UD\_Japanese-PUD}にも長単位形態論情報を付与した.次節では,長単位に基づく日本語UDコーパスの構築について紹介する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{長単位に基づく日本語UniversalDependencies} \label{sec:luwud}UDの理念に即した単位に基づく日本語の言語資源を構築すべく,我々は長単位を単位認定とした日本語UDコーパスを開発した.\textbf{UD\_Japanese-GSD},\textbf{UD\_Japanese-PUD}に対して,新たに国語研長単位形態論情報を付与し,UDのVersion2.9(2021年11月)から,BCCWJ,GSD,PUDの長単位に基づく日本語UDを,\textbf{UD\_Japanese-BCCWJLUW}\footnote{\url{https://github.com/UniversalDependencies/UD_Japanese-BCCWJLUW/}},\textbf{UD\_Japanese-GSDLUW}\footnote{\url{https://github.com/UniversalDependencies/UD_Japanese-GSDLUW/}},\textbf{UD\_Japanese-PUDLUW}\footnote{\url{https://github.com/UniversalDependencies/UD_Japanese-PUDLUW/}}として公開した.2023年1月現在Version2.11が最新版である.前節で説明したとおり,\textbf{UD\_Japanese-GSD}と\textbf{UD\_Japanese-PUD}は,Version2.6公開時に国語研長単位に基づく形態論情報(単語境界・品詞・語彙素)と文節に基づく係り受け構造を人手により整備した.さらに,国語研長単位に基づく形態論情報(単語境界・品詞・語彙素)の整備を継続して進めてきた.長単位整備時に,長単位と短単位でデータに一貫性の不備があった場合は,短単位形態論情報もさらに修正した.そしてこの国語研短単位・長単位形態論情報が付与された文節係り受けデータGSD,PUDを\citeA{omura-asahara-2018-ud}の提案した規則によって,文節係り受け構造から,長単位に基づくUD基準の依存構造コーパスに変換し,\textbf{UD\_Japanese-GSDLUW}と\textbf{UD\_Japanese-PUDLUW}を構築した.\textbf{UD\_Japanese-GSD}と\textbf{UD\_Japanese-PUD}の元となっているこの文節係り受けコーパスは拡張CaboCha形式\cite{matuyosi2014extend}ファイルのオープンデータとして公開\footnote{\url{https://github.com/udjapanese/UD-Japanese-GSDPUD-Cabocha}}されている.BCCWJは短単位の境界と品詞,長単位の境界と品詞が整備されており,\citeA{asahara2018dep}のデータを組み合わせることで文節係り受けデータも獲得できる.そこからGSDとPUDと同様に\citeA{omura-asahara-2018-ud}の規則によって変換を行い\textbf{UD\_Japanese-BCCWJLUW}を構築した.この\citeA{omura-asahara-2018-ud}らの変換規則は短単位と長単位の語彙素や品詞,形態的な特徴に基づいたものである.\figref{fig:exp-ud}に\citeA{omura-asahara-2018-ud}らの変換規則の一部\footnote{詳細な規則の一覧は\url{https://udjapanese.github.io/UD_converion_table/index.html}に記載している.}と例を掲載している.例文にアノーテションされた短単位と長単位の語彙素や品詞・係り受け構造から,単語間依存構造と情報を抽出し,\figref{fig:exp-ud}の下部の表で示しているような規則を単語ごとに適応している.適応結果から得られたUPOSおよびDEPRELのラベル付与することでUDの依存構造を生成している.\citeA{omura-asahara-2018-ud}らの変換規則は,Unidic品詞だけではなく,文節や係り受け構造も参照しつつ変換されている.日本語におけるUPOSとDEPRELについての説明は文献\cite{_universal_asahara_2019}を参照すること.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[b]\begin{center}\includegraphics{30-1ia1f4.pdf}\end{center}\hangcaption{係り受け構造からUD構造への変換規則の例.上記は規則の一部でかつ説明を簡略化したものである.(上記の例はUDJapanese-GSDLUW中のdev-s63)}\label{fig:exp-ud}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\citeA{omura-asahara-2018-ud}の時点では,変換規則は短単位のみの変換を想定していた.長単位UDコーパス構築に際して,長単位のための追加の規則が必要か検討したものの,既存の変換規則が長単位の規則を内包していたことが分かった\footnote{これは短単位に基づく日本語UDであっても,短単位品詞が「可能性に基づく品詞」の場合,実際は長単位品詞を用いて用法の曖昧性解消を行っていたためである.}.そのため,長単位UDでも,Version2.10時点で,そのまま数点の規則の変更のみ\footnote{UDの言語資源を公開するにあたってvalidator(\url{https://universaldependencies.org/validation-rules.html})を通す必要がある.UDのvalidator側の更新に合わせて,規則の精緻化やvalidatorに必要な例外規定の整備をリリース毎に行うため都度変更は発生することが多い.}で,長単位でも同じように適応している.\tabref{tab:luwstatic}に構築した長単位UDの文数・文節・単語の統計情報を示している.比較のために短単位UDの統計情報も掲載している.長単位は1語以上の短単位により構成されているため,\tabref{tab:luwstatic}から分かるように,長単位の語数は短単位の語数より少ない.しかしながら,ほとんどの語において短単位と長単位は1対1対応している.BCCWJにおいては81.3\%が,GSDにおいては79.0\%が,短単位と長単位が同一単位となっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\vspace{-0.5\Cvs}\input{01table03.tex}\hangcaption{日本語長単位ベースUDの統計情報.(文数・文節数・単語数,比較のために短単位ベースUDの数値も掲載)}\label{tab:luwstatic}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tabref{tab:luwstatic2}と\tabref{tab:luwstatic3}には日本語UDのUPOSとDEPRELのコーパスごとの頻度割合を示している.短単位と長単位を比較すると,\tabref{tab:luwstatic2}から,長単位のUPOSは\utag{PROPN},\utag{SCONJ},\utag{SYM}や\utag{NOUN}の割合が減少していることが分かる.\tabref{tab:luwstatic3}から,長単位のDEPRELは\dt{compound},\dt{fixed},\dt{nummod},\dt{mark}などの割合が減少しているのが分かる.いずれも複合名詞や複合動詞でよく用いられていたアノテーションであり,長単位で1単位となった際に消える関係のため減少する.一方で長単位の\utag{AUX}や\utag{ADP},\dt{aux},\dt{case}などの割合が増えているのは,短単位が結合して1長単位が格助詞や助動詞といった付属語に変化したためである.たとえば,\figref{fig:exp-ud2}の事例で説明すると,「吉田」「あや子」は長単位の場合,複合名詞「吉田あや子」と変化するため,「吉田」「あや子」を結んでいた\dt{compound}が消えている.また長単位「ている」は短単位の場合「て」「いる」の2単語で\dt{mark}と\dt{fixed}を用いているが,長単位「ている」と結合されたことで「助動詞」となるため,UPOSが\utag{AUX}に変化し,\dt{aux}が付与される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[p]\input{01table04.tex}\caption{日本語UDVersion2.10の統計情報.(UPOSの割合)}\label{tab:luwstatic2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[p]\input{01table05.tex}\caption{日本語UDVersion2.10の統計情報.(DEPRELの割合)}\label{tab:luwstatic3}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{30-1ia1f5.pdf}\end{center}\hangcaption{UDJapanese-GSD/GSDLUW中のtrain-s1430の事例.上が短単位,下が長単位である.長単位になると\dt{compound}と\dt{fixed}の関係がなくなる.また,「ている」のように結合し助動詞(\utag{AUX})に変化している.}\label{fig:exp-ud2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{オープンソース解析器による比較実験} この節では短単位および長単位という単位の異なる日本語UDコーパスについて,公開されている解析器により統語解析を行う.正解率に基づき,どの段階の構造が,どの程度再現可能かを調査する.統語解析の解析結果を比較することにより,短単位と長単位による解析精度の違い,長単位の再現度の困難さなどを確認することが目的である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}この実験では短単位UDと長単位UDの比較のため,短単位のUDである\textbf{UD\_Japanese-GSD}と長単位のUDである\textbf{UD\_Japanese-GSDLUW}(いずれもVersion2.10)を用いた.GSDデータはCoNLL-2017のSharedTaskにも用いられていた経緯から,訓練・開発・評価データに分割されており,実験データの設定もこの分割に基づいて実施した.\figref{fig:progress1}に統語解析の流れを示す.生文を入力してから単語分割,品詞付与とレンマ推定をし,依存構造解析を行う形\footnote{日本語では単語分割と品詞付与およびレンマ推定,すなわち形態素解析として同時に行われるものが多いが,本稿ではUDPipeのフェイズに合わせた形で説明する.}で統語解析を行い,UDを生成する.解析器としてはUDPipe,MeCab,Comainuを用いた.UDPipeでは単語分割,品詞推定+レンマ推定,依存構造解析を行い,MeCabとComainuは単語分割および品詞推定(XPOSまで)を行う.UDでは言語依存の品詞をXPOSとして指定できるため,日本語UDではUnidic品詞(国語研短単位形態論情報,国語研長単位形態論情報)を提供している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{30-1ia1f6.pdf}\end{center}\caption{本実験における統語解析の流れ.この3段階の流れはUDPipeのモデルに合わせている.}\label{fig:progress1}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%UDPipe\cite{udpipe:2017}は,生文あるいはUDコーパスを入力として単語分割,品詞付与+レンマ推定,依存構造解析ができる解析器である.UDPipeではそれぞれの段階ごとにモデルを学習し構築している.UDPipeはニューラルネットモデルをフェイズごとに組み合わせて実装されており,単語分割にはBidirectionalLSTMartificialneuralnetwork\cite{graves_framewise_2005}を,品詞付与+レンマ推定にはMorphoDiTa\cite{strakova14}を,依存構造解析にはParsito\cite{straka_parsing_2015}が使われている.\textbf{UD\_Japanese-GSD},\textbf{UD\_Japanese-GSDLUW}の訓練データ(Version2.10)を用いてUDPipeVersion1.2.0により訓練したモデルを用いる\footnote{UDPipeの最新版はversion2系列であるが,2022年6月時点でモデルを学習するインターフェースなどが見当たらず,また単語分割の機能は実装されていないため,利便性からUDPipeversion1.2.0を用いている.}.UDPipeでは,単語埋め込みを依存構造解析段階でのみ使用することができるため,単語埋め込みとして,短単位に基づく単語埋め込みNWJC2vecを用いた.なおNWJC2vecは短単位で構築されているが,短単位と長単位では共通する形態素も存在するため,影響をみるために,長単位のモデルでもNWJC2vecを用いている.本実験でのNWJC2vecは300次元のSkip-gramのモデルを使用した.MeCab\cite{kudo-etal-2004-applying}は国語研短単位形態論情報(単語分割,品詞付与+レンマ推定)を付与するために用いる.利用したバージョンはMeCab-0.996とUniDic-2.1.0であった.Comainu\cite{kozawa2014comainujp}は国語研長単位形態論情報(単語分割,品詞付与+レンマ推定)を付与するために用いる.利用したバージョンは0.72であった.なお,Comainuは内部でMeCabを呼び出して利用しており,MeCabの解析結果もComainuの結果から引用している.MeCabもComainuもすでに訓練されたモデルをそのまま用いた\footnote{これはComainu-0.72によりGSDを用いてモデルを訓練し用いた結果と付属モデルでの解析結果を比較した際,主に品詞推定において再訓練したものが著しく低かったためである.これはComainuの付属モデルに用いた訓練テキスト量がGSDのテキスト量よりも多いためと考えられ,また品詞体系も差異があるため完全な比較が難しい.我々の目的とする再現性の比較には不要と判断した.}.評価も\figref{fig:progress1}に示す3つの段階「単語分割」「品詞付与+レンマ推定」「依存構造解析」の段階での比較で行った.1つ目は未解析文を入力にしたすべての解析(単語分割,品詞付与+レンマ推定,依存構造解析)を行うものである.2つ目は正解の単語分割(Gold)を入力にして品詞付与+レンマ推定・依存構造解析を行うものである.3つ目は正解の単語分割(Gold)と正解の品詞タグ(Gold)を入力に依存構造解析のみを行うものである.評価プログラムにはCoNLL2018SharedTaskにて使用された評価スクリプト\footnote{\url{https://universaldependencies.org/conll18/evaluation.html}}を用いた.このスクリプトは出力結果と正解同士の結果を内部でアライメントし,その一致率を求めた上で,単語分割,品詞付与,レンマ推定,依存構造解析結果それぞれについてのF値を出力する.本稿の実験結果もこのF値を正解率として示している.以降は各段階に焦点を当てて結果と考察を示すが,全体の結果は付録\ref{sec:app}の\tabref{tab:resfull}を参考にされたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{01table06.tex}\caption{実験結果:単語分割および品詞タグ付け+レンマ推定.各項目はF値を表している.}\label{tab:result1}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{単語分割および品詞付与+レンマ推定}\tabref{tab:result1}に単語分割および品詞タグ付け+レンマ推定の結果を示す.Wordsは単語分割のF値,UPOSはUD品詞付与のF値,XPOSはUniDic品詞付与のF値,Lemmasはレンマ(UniDic語彙素)推定のF値である.なお,品詞付与+レンマ推定についてはXPOSとUPOSのそれぞれの正解率を求めているが,MeCabとComainuではXPOSのみ生成し,UPOSのみUDPipeで出力する形になっている.また示しているComainuの結果は短単位の解析誤りが含まれている.まず,単語分割においてはMeCabとComainuを比較すると,長単位(LUW)のほうが正解率が高く\footnote{うまく分割できてないものの大半が「数字表現」である.日本語UDコーパスでは数字表現を前処理で統合しひとつの数字表現としており,UniDicでは短単位・長単位関係なく数字表現は1桁ずつ分割するという違いがあり,その結果,単語数が多くなる短単位が多少評価が不利になっている.そのためこの正解率は参考程度となる.},品詞付与の正解率もUPOS,XPOSともに長単位のほうが高い.また,UDPipeとMeCabとComainuを比較すると,MeCabとComainuのほうが精度が高く,XPOSが特に高い.日本語形態素解析では,辞書などを用いながらUniDic品詞(XPOS)を推定することに特化しているため,XPOSのほうが汎化の高いUPOSよりも性能が高くなる傾向にある.次に,UDPipeを用いた場合の短単位(SUW)と長単位(LUW)を比較すると,単語分割において短単位のほうが正解率が高いことが分かった.品詞タグ付けやレンマ推定においても,短単位のほうが高いことが分かる.前述の通り短単位は短く揺れが少ない傾向にあるため,辞書知識を用いないUDPipeにおいて,短単位のほうが正解率が高いのは直感的である.全体として分割精度が低いと後続の結果にも影響がでるため,短単位のほうが結果として正解率が高くなっていると考えられる.単語分割を正解とした入力を与えた場合には,XPOSにおいては長単位のほうが短単位よりも正解率が高いことが分かった.これは辞書を用いずに文脈のみで機械学習により推定する場合には,「可能性に基づく品詞」の推定が困難で,「用法に基づく品詞」のほうがより推定しやすいことによる.レンマ推定においては,一貫して数字表現や複合辞の語彙素の復元が難しく,長単位のほうが正解率が低い.レンマ推定の際,Goldデータの場合と解析器によるものを比較すれば3--4\%も落ちていることが分かり,単語分割の正確性は重要であることが伺える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{依存構造解析}\tabref{tab:result_dep}に依存構造解析結果を示す.評価指標としてUAS,LAS,CLAS,MLAS,BLEXを示している.NWJC2vecを利用していないものと利用したものの結果について\textbf{(UDPipe)w/ovec}と\textbf{(UDPipe)w/vec}にて示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{01table07.tex}\caption{実験結果:依存構造解析の結果.各項目はF値を表している.}\label{tab:result_dep}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%UAS(UnlabeledAttachmentScore)は,親への依存関係(dependencyattachment)が正しい場合に正解として,正解率を評価する指標である.LAS(LabeledAttachmentScore)は,単語の係り先と親への依存関係ラベル(universaldependencylabel)が正しい場合に正解として,正解率を評価する指標である.CLAS(Content-WordLabeledAttachmentScore)は,LASの評価において,機能語(functionalwords)から自立語(contentwords)への依存関係の重みを0にしたものである.つまり,自立語の評価を主とした指標である.自立語と認定される依存関係は29種として定義されている\footnote{この29種類はnsubjobjiobjcsubjccompxcompoblvocativeexpldislocatedadvcladvmoddiscoursenmodapposnummodaclamodconjfixedflatcompoundlistparataxisorphangoeswithreparandumrootdepとなっている.}のみとする.MLAS(Morphology-AwareLabeledAttachmentScore)は,CLASの拡張であり,親への依存関係のみならず,子の機能語の依存関係がすべて対応しており,いくつかの形態論的属性(FEATS)も正しい場合に正解として,正解率を評価する指標である.この指標での依存関係は係り先と関係ラベルが一致しているものだけを評価する.ただし内容語でも機能語でもない関係ラベルのものは除かれて評価されている.BLEX(BilexicalDependencyScore)は,MLASと似た指標だが,形態論的属性(FEATS)の代わりにレンマ(LEMMA)が一致している場合に正解とする.その際,子の機能語の依存関係は評価しない.なお,出力と正解データで単語分割の区切りが一対一となるとは限らないため,一致率ではなく,F値として評価する.まず,UAS,LASを確認する.単語分割にUDPipeを用いたものを除いて,長単位のほうが短単位よりもUAS,LASともによいことが分かる.これは,品詞付与のときも同様であるが,UDPipeの単語分割の性能の差が依存構造解析に残っていることに基づく.単語分割に正解を与えた場合(Token:Gold),いずれの場合も依存構造解析の性能において0.73--2.47\%程度,短単位よりも長単位のほうが性能がよかった.また品詞に正解を与えた場合(Token:Gold,POS:Gold)も,短単位よりも長単位のほうが性能がよかった.これは,依存構造解析の単位として,長単位の分割および長単位に付与されているUPOSのほうが,構文解析しやすいことが示唆される.定性的にも,短単位に付与されている「可能性に基づく品詞体系」は依存構造を推定するための情報として曖昧な品詞体系であり,長単位に付与されている「用法に基づく品詞体系」が有効と考えられる.CLAS,MLAS,BLEXを確認すると,短単位のほうが長単位よりも正解率がよい.とくにBLEXは,レンマ解析結果の正解も必要なため,より長単位の評価に厳しい結果となっている.これはCLAS,MLAS,BLEXにおける自立語認定される語が,短単位のほうが長単位よりも比率が多いことに起因している.とくに短単位では長単位のときに1語と認定されているものが複数の語となり,かつその依存関係(\dt{compound}や\dt{fixed})も自立語として正解率に集計されている.実際,\textbf{UD\_Japanese-GSD}で自立語として認定される語の割合は103769/217954=0.4761,\textbf{UD\_Japanese-GSDLUW}で自立語として認定される語の割合は66116/174543=0.3788となっており,短単位のほうが自立語認定された語の割合が1割程度多い.これが,正解率に影響している可能性が高い.自立語の依存構造が正しく認定されているかを確認するために,文節中の自立語同士の依存関係のみを抽出し,結果を出した\footnote{具体的には文節内自立語主辞のみに限定した.これは日本語UDのMISC列にある\texttt{BunsetuPositionType}の\texttt{SEM\_HEAD}を抽出することと同値である.}.短単位UDと長単位UDの文節の数はほとんど一致しており,文節中には自立語はひとつと定義されているので,この結果は日本語の係り受け構造解析とほぼ同様の結果となる.それぞれの評価指標を計算しなおすと\tabref{tab:result33}のようになった.解析器がその単語が主辞かどうかを判定しないため,語の認定がずれている結果は正確に評価できない.そのため,語が一致しているもののみに限定している.短単位と比べて長単位のほうが自立語の依存構造においては解析精度がよいことが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{01table08.tex}\hangcaption{実験結果:文節内自立語主辞の依存構造解析結果(F値).\tabref{tab:result_dep}の一部に対して文節内自立語主辞の依存関係のみで再評価した結果.CoNLL2018SharedTaskのCLAS,MLAS,BLEXの定義と異なるため`-C`を付与している.}\label{tab:result33}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tabref{tab:embeddings}に,単語埋め込みNWJC2vecを用いた際に,どの程度依存構造解析の正解率が向上するかについて示す.\tabref{tab:result_dep}のw/vecとw/ovecの差分を示したものである.短単位に基づくNWJC2vecは,短単位の依存構造解析正解率を0.73-1.65\%程度向上させる.一方,長単位の依存構造解析正解率は0.01--0.23\%程度しか向上させることができない.NWJC2vecは短単位に基づき構築された単語埋め込みである.これは依存構造解析において,単語単位が揃っている単語埋め込みは正解率の向上に貢献することを示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{01table09.tex}\caption{実験結果:単語埋め込みの利用による依存構造解析正解率の向上.(\tabref{tab:result_dep}に基づく)}\label{tab:embeddings}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本稿では日本語UDにおける単語分かち書きの問題について,国語研短単位と国語研長単位という単語単位を比較することで検討を行った.日本語分かち書き基準として以前より採用されていた国語研短単位について紹介するとともに,UDが掲げる理念に即した単位認定「構文的な語」にふさわしい単位として国語研長単位があることを紹介した.実際に,長単位に基づく現代日本語のUDリソース\textbf{UD\_Japanese-BCCWJLUW},\textbf{UD\_Japanese-GSDLUW},\textbf{UD\_Japanese-PUDLUW}を構築し,共有・公開を行った.さらに長単位に基づく日本語UDについて,公開されているツール・言語資源および\textbf{UD\_Japanese-GSDLUW}を用いて,その再構成可能性について検討を行った.結果,既存の形態素解析器MeCab・Comainuとともに短単位に基づく単語埋め込みNWJC2vecを用いた設定において,短単位と長単位とで最終的な係り受けの性能において差がないことを確認した.構文的な語としての長単位の出力が実応用的に有用であり,UDの枠組にふさわしいものであるかについてはまだ議論の余地が残っている.さらに,類型論の研究を考えた場合に,他言語においても同様の「構文的な語」を規定できるかという問題がある.今後他言語を含めた有用性を検証する必要があると考えられる.検討事項があるとはいえ,今回の取組みにより,既存のアノテーション情報を元に短単位の日本語UDコーパスと長単位の日本語UDコーパスを構築することが可能となった.本基準を用いると,たとえば,短単位・長単位形態論情報・文節係り受けなどが付与されていれば,短単位・長単位に基づく『日本語日常会話コーパス』(CEJC)などもUD対応することが可能であろう.今後拡張CaboCha形式の日本語コーパスをUD基準に変換するプログラムもオープンソースソフトウェアとして公開予定である.また公開された長単位の日本語UDコーパスを元に\citeA{matuda2022}や\citeA{yasuoka2022}の研究のような\pagebreak長単位解析系のツールの開発なども取り組まれている.長単位の日本語UDコーパスによって,日本語の語の単位認定について,より進んだ研究が取り組まれることを期待する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の実施にあたって,松田寛氏・金山博氏・宮尾祐介氏・田中貴秋氏・松本裕治氏・伊藤薫氏の助言を受けました.ここに記して謝意を表します.本研究は国立国語研究所コーパス開発センター共同研究プロジェクト(2016--2021)・基幹型共同研究プロジェクト(2022--2027)「アノテーションデータを用いた実証的計算心理言語学」の成果です.また,科研費17H00917,18H05521の支援を受けました.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{01refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{依存構造解析の全体表} \label{sec:app}本稿で行った実験結果の全体表\tabref{tab:resfull}を付録として掲載する.この表は本稿の\tabref{tab:result1}と\tabref{tab:result_dep}を統合したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[p]\begin{center}\rotatebox[origin=c]{90}{%\begin{minipage}{571pt}\setlength{\captionwidth}{571pt}\input{01table10.tex}\hangcaption{実験結果:統語解析全体の結果.すべてF値で示している.Goldが正解データを与えた場合である.単語分割の結果は後続の結果(品詞付与+レンマ推定,依存構造解析)にも影響を与え,正解データを与えた場合のほうが結果がよくなることが分かる.}\label{tab:resfull}\end{minipage}}%\end{center}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{大村舞}{%国立国語研究所プロジェクト非常勤研究員.}\bioauthor{若狭絢}{%国立国語研究所プロジェクト非常勤研究員.}\bioauthor{浅原正幸}{%国立国語研究所・東京外国語大学教授.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\clearpage\clearpage\end{document}
V27N02-05
\section{はじめに} 単語,とくに名詞間の意味関係は,含意関係認識\cite{dagan2010}や質問応答\cite{yang2017}などの高度な意味処理を伴う自然言語処理タスクにおいて重要である.語の意味関係知識は,WordNet\cite{fellbaum1998}などの人手で作成された語彙知識ベースに蓄えられており,様々なタスクに利用することができる.しかし,このような人手による語彙知識ベースの拡張には大きなコストがかかり,新語や未知語に対応できず,さらにカバーされているドメインも限られている.この問題を解決するために,大規模コーパスから語の意味関係知識を獲得する方法が研究されている.コーパスからの意味関係知識の獲得には,二語を文中で結びつける単語系列,あるいは依存構造パスなどの関係パタンの利用が有効であることが知られている\cite{hearst-1992-automatic}.たとえば,\textit{Adogisakindofanimals.}という文において,\textit{isakindof}という語の系列から,\textit{dog}が\textit{animal}の下位語であることが識別できる.このように,コーパス中で二語を結びつける単語系列や依存構造パスを特徴として教師あり学習を行う手法が,パタンベースの手法として提案されている\cite{snow2004,shwartz2016improving,shwartz2016path}.また,関係パタンは,知識獲得の手法として,推論規則をコーパスから獲得するためにも用いられている\cite{schoenmackers-etal-2010-learning,tsuchida-etal-2011-toward}.パタンベースの意味関係識別は,意味関係の分類対象となる単語ペアについてコーパス上での十分な共起を必要とする.しかし,たとえ大規模コーパスが扱えたとしても,意味関係を持つ単語ペアが必ずしも十分に共起するとは限らない.文中で共起しなかった単語ペアや共起回数が少なかった単語ペアについては,このアプローチでは分類に有用な関係パタンの特徴が得られず,意味関係を適切に予測することができない.このようなパタンベースの意味関係識別の問題に対処するために,本研究ではニューラルネットワークを用いて,単語ペア$(w_1,w_2)$と,それらを結びつける関係パタン$p$の共起から,単語ペアの埋め込みを教師なし学習する手法を提案する.大規模コーパスから学習したニューラルネットワークの汎化能力を利用することで,コーパス上で十分に共起が得られなかった単語ペアについても,関係パタンとの共起を予測できるような,意味関係識別に有用な特徴が埋め込まれた埋め込みを得ることができる.コーパスから推論規則とその適用を学習して,共起しなかった二つの概念に関する関係性を推論する手法\cite{schoenmackers-etal-2010-learning,tsuchida-etal-2011-toward}も提案されているが,本研究ではニューラルネットワークの教師なし学習を用いて単語ペアの意味関係表現を得ることで,教師あり意味関係識別において,共起が十分に得られなかった単語ペアに関する分類性能を向上させることを目的とする.実験により,この単語ペア埋め込みを,パタンベースの意味関係識別の最先端のモデル\cite{shwartz2016path}に適用することで,4つデータセットにおいて名詞ペアに対する識別性能が向上することがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{背景} 本節では背景知識となる訓練データを用いる教師あり単語間意味関係識別について説明する.タスクの定義(\ref{subsec:教師あり単語間意味関係識別}節),従来手法である出現文脈分布を用いた識別手法(\ref{subsec:出現文脈分布を用いた意味関係識別}節)とパタンベースの識別手法(\ref{subsec:パタンベースの意味関係識別}節),最先端のニューラルパタンベースの手法(\ref{subsec:ニューラルパターンベースの手法}節)を説明した後に,パタンベースの手法の問題であるパタン欠落問題(\ref{subsec:パタン欠落問題}節)について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{教師あり単語間意味関係識別}\label{subsec:教師あり単語間意味関係識別}教師あり単語間意味関係識別は,単語ペアを特徴ベクトルとして表現し,訓練データを用いて,単語ペアを上位下位関係,部分全体関係などの意味関係クラスに分類するモデルを構築するタスクである.単語ペアの特徴として,各語の出現文脈の分布(\ref{subsec:出現文脈分布を用いた意味関係識別}節)や関係パタン(\ref{subsec:パタンベースの意味関係識別}節)の情報を用いることができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{従来手法}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{出現文脈分布を用いた意味関係識別}\label{subsec:出現文脈分布を用いた意味関係識別}各語の出現文脈分布を用いる手法は,各語を単語埋め込み\cite{mikolov2013,levy-goldberg-2014-dependency,pennington-etal-2014-glove}として表現し,二つの埋め込みに何らかの演算を施すことで,単語ペアの特徴ベクトルとする.用いられる演算には,ベクトルの結合\cite{baroni-etal-2012-entailment,roller-erk-2016-relations}や差分\cite{roller-etal-2014-inclusive,weeds-etal-2014-learning,vylomova-etal-2016-take}などがある.出現文脈分布を用いる手法は関係パタンを用いるパタンベースの手法と異なり,二語の共起を必要としない.しかし,これらの手法は二語の関係性を学習しているのではなく,個々の単語がそれぞれどれぐらい対象の関係を持ちやすいかを覚えているだけであるという報告がある\cite{levy-etal-2015-supervised}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{パタンベースの意味関係識別}\label{subsec:パタンベースの意味関係識別}パタンベースの教師あり意味関係識別では,単語ペアと共起した関係パタンを集計して特徴ベクトル化することで単語ペアを表現し,その上に分類器を構築する\cite{snow2004}.関係パタンを用いることで,二語の意味関係を捉えることができるが,関係パタンは単語系列,あるいは依存構造パスのため,特徴空間が非常にスパースになる.ゆえに,\textit{XisaspeciesofY}と\textit{XisakindofY}のような上位下位関係を表す関係パタン同士の類似性を捉えることができなくなってしまう.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ニューラルパタンベースの手法}\label{subsec:ニューラルパターンベースの手法}Shwartzらは,各関係パタンを単一の特徴として用いるのではなく,リカレントニューラルネットワーク(RNN)を用いて関係パタンを低次元で密なベクトルに符号化することで,特徴空間のスパース性を回避する手法LexNETを提案した\cite{shwartz2016improving,shwartz2016path}.Shwartzらは依存構造パスを関係パタンとして用いて,長短期記憶ネットワーク(LSTM)\cite{Hochreiter:1997}で符号化した.たとえば,\textit{Adogisamammal.}のような文があり,対象の単語ペアを\textit{dog}と\textit{mammal}とするとき,依存構造パスは\texttt{X/NOUN/nsubj/>be/VERB/ROOT/-Y/NOUN/attr/<}となる.ここで,\texttt{X}は\textit{dog},\texttt{Y}は\textit{mammal}である.依存構造パスの各エッジは,レンマ,品詞,依存関係,依存方向で構成される.このときエッジは,各要素の埋め込みの結合として,以下のように表現される.\begin{equation}\boldsymbol{e}=\left[\boldsymbol{v}_{l};\boldsymbol{v}_{pos};\boldsymbol{v}_{dep};\boldsymbol{v}_{dir}\right]\end{equation}ここで,$;$はベクトルの結合,$\boldsymbol{v}_{l}$,$\boldsymbol{v}_{pos}$,$\boldsymbol{v}_{dep}$,$\boldsymbol{v}_{dir}$は,それぞれレンマ,品詞,依存関係,依存方向の埋め込みを表す.エッジ埋め込み$\boldsymbol{e}$は,LSTMの各時点の入力となる.LSTMの時点$t$の隠れ状態$\boldsymbol{h}_t$は以下のように計算される.\begin{equation}\boldsymbol{h}_{t}=LSTM\left(\boldsymbol{h}_{t-1},\boldsymbol{e}_{t}\right)\end{equation}ここで$LSTM$はLSTMの計算式に沿って,前の隠れ状態$\boldsymbol{h}_{t-1}$と現在の入力$\boldsymbol{e}_t$から,現在の隠れ状態を計算する関数である.依存構造パスのすべてのエッジを入力した後のLSTMの最後の隠れ状態$\boldsymbol{o}_p$が,依存構造パス$p$の表現となる.単語ペアが共起した依存構造パスの表現をまとめるために,Shwartzらは以下のような平均プーリングを適用している.\begin{equation}\boldsymbol{v}_{P_{\left(w_{1},w_{2}\right)}}=\frac{\sum_{p\inP_{\left(w_{1},w_{2}\right)}}f_{\left(w_{1},w_{2},p\right)}\cdot\boldsymbol{o}_{p}}{\sum_{p\inP_{\left(w_{1},w_{2}\right)}}f_{\left(w_{1},w_{2},p\right)}}\end{equation}ただし,$P_{(w_1,w_2)}$は単語ペア$(w_1,w_2)$がコーパス上で共起した依存構造パスの集合,$f_{(w_1,w_2,p)}$は,依存構造パス$p$が$(w_1,w_2)$と共起した頻度である.Shwartzらは,各語の出現文脈分布の情報も考慮するために,単語ペア$(w_1,w_2)$の関係パタン表現$\boldsymbol{v}_{P_{\left(w_{1},w_{2}\right)}}$に,それぞれの単語埋め込み$\boldsymbol{v}_{w_1}$,$\boldsymbol{v}_{w_2}$を結合して,最終的な単語ペアの表現としている.\begin{equation}\label{eq:lex_last}\boldsymbol{v}_{\left(w_{1},w_{2}\right)}=\left[\boldsymbol{v}_{w_{1}};\boldsymbol{v}_{P_{\left(w_{1},w_{2}\right)}};\boldsymbol{v}_{w_{2}}\right]\end{equation}この単語ペアの特徴表現$\boldsymbol{v}_{\left(w_{1},w_{2}\right)}$をもとに,最終的な出力として各意味関係クラスに割り当てられる確率を表現するベクトル$\boldsymbol{y}$が以下のように計算される.\begin{equation}\boldsymbol{y}=\operatorname{softmax}\left(\boldsymbol{W}\boldsymbol{v}_{\left(w_{1},w_{2}\right)}+\boldsymbol{b}\right)\end{equation}ただし,$\boldsymbol{W}$は線形変換のパラメータ行列,$\boldsymbol{b}$はバイアス項を表すベクトルである.$\operatorname{softmax}$はソフトマックス関数である.各語の単語埋め込みによる出現文脈分布のみでなく,LSTMによりスパース性を解決した関係パタンの表現を用いることで,LexNETは高い汎化性能を持つことが報告されている\cite{shwartz2016improving,shwartz2016path}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{パタン欠落問題}\label{subsec:パタン欠落問題}LexNETを含むパタンベースの手法は関係パタンに基づくため,対象の単語ペアの共起を必要とする.しかし,たとえ単語ペアが何らかの意味関係を持っており,大規模コーパスがあったとしても,すべての単語ペアについて分類に十分な共起を観測することは難しい.単語の出現頻度はジフの法則に従うことが知られており,意味関係識別の対象となる内容語の大抵は低頻度であるためである\cite{hanks:2009}.本研究では,この問題をパタン欠落問題と呼ぶ.単語ペアの共起が得られなかった場合,パタンベースのモデルはそのペアについて,関係パタンに関わる有効な手がかりを得ることができない.そのようなペアについて,LexNETは\texttt{UNK-lemma/UNK-POS/UNK-dep/UNK-dir}のようなダミーパタンでパディングを行う.しかしこの処理では,モデルは単語ペアの間に意味関係がなかったので共起しなかったのか,意味関係があったがたまたま共起しなかったのかを区別できない.Nec{\c{s}}ulescuらはコーパスをグラフで表現することで,%%%%パタン欠落問題の解決を試みた\cite{necsulescu-etal-2015-reading}.パタン欠落問題の解決を試みた(Nec{\c{s}}ulescu,Mendes,Jurgens,Bel,Navigli2015).\nocite{necsulescu-etal-2015-reading}コーパスを依存構造解析し,単語をノード,依存関係を有向エッジとして表現して,それらを重ね合わせることでグラフを構築し,対象の二語についてグラフ上のパスをたどることで,共起しなかった単語ペアについても擬似的な関係パタンが得られる.Nec{\c{s}}ulescuらは,二語間のパスの集合を特徴として,特徴選択を行いつつ分類器を構築した.結果として,Recallが改善されたが,依然として,パタン欠落問題があったことを報告している.本研究では,単語ペアと関係パタンの共起をニューラルネットワークによって教師なし学習を行うことで,この問題の解決を試みる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} \label{sec:提案手法}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{単語ペア埋め込みの教師なし学習}\label{subsec:単語ペア埋め込みの教師なし学習}本節では,コーパスから得られる単語ペア$(w_1,w_2)$と二語を結びつける関係パタン$p$の共起データ$D=\{(w_1,w_2,p)_1,(w_1,w_2,p)_2,\ldots,(w_1,w_2,p)_n\}$から,単語ペアと関係パタンの共起をニューラルネットワークで教師なし学習する手法について述べる.ニューラルネットワークを用いて汎化することで,コーパス上で共起しなかった単語ペアについても,関係パタンとの共起情報を捉えた単語ペア埋め込みが得られる.さらに,パタンベースの意味関係識別では,対象の単語ペアが共起した関係パタンのみを用いるため,コーパスの一部しか学習に使用できないが,コーパス全体からの教師なし学習で獲得された単語ペア埋め込みを適用することで,コーパス全体を意味関係識別に用いることができる.埋め込みを用いた共起のモデリングは,主に単語埋め込みの学習法\cite{Collobert:2008,mikolov2013,levy-goldberg-2014-dependency,pennington-etal-2014-glove}として一般的であり,多くのバリエーションが考えられるが,本研究では単純で効率的なSkip-gramモデル\cite{mikolov2013}と似た方法を採用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{単語ペアと関係パタンの符号化}本手法では,単語ペアと関係パタンをそれぞれ埋め込みとして符号化し,それらの内積から共起する程度を予測することで学習を行う.単語ペア$(w_1,w_2)$は以下のように符号化を行う.\begin{align}\label{eq:l1}\boldsymbol{h}_{(w1,w2)}&=\tanh\left(\boldsymbol{W}_{1}\left[\boldsymbol{v}_{w_{1}};\boldsymbol{v}_{w_{2}}\right]+\boldsymbol{b}_{1}\right)\\\label{eq:l2}\tilde{\boldsymbol{h}}_{\left(w_{1},w_{2}\right)}&=\tanh\left(\boldsymbol{W}_{2}\boldsymbol{h}_{(w1,w2)}+\boldsymbol{b}_{2}\right)\end{align}ただし,$\boldsymbol{W}_1$,$\boldsymbol{b}_1$,$\boldsymbol{W}_2$,$\boldsymbol{b}_2$は,線形変換のためのパラメータ行列とバイアス項ベクトル,$\tanh$はtanh活性化関数である.関係パタン$p$の符号化には,ランダムに初期化した埋め込みを$\boldsymbol{v}_p$として,各パタンに割り当てる.ここでは関係パタンの符号化法として単純な方法を用いるが,\ref{subsec:ニューラルパターンベースの手法}節のようにLSTMで関係パタンを符号化することも可能である.その場合,学習時間は増加するが,関係パタン同士の類似性を捉えた学習が見込める.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{目的関数}目的関数には単語埋め込みの学習に用いられる負例サンプリング目的関数\cite{mikolov2013}を拡張したものを用いた.単語ペアを表現する$\tilde{\boldsymbol{h}}_{(w_1,w_2)}$と関係パタンを表現する$\boldsymbol{v}_p$が計算できるとき,本研究では,実際に共起したトリプル$(w_1,w_2,p)$を共起しなかったトリプル$(w_1,w_2,p^\prime)$と区別するように,以下のような目的関数$L$で学習を行う.\begin{equation}\label{eq:objectives}L=\sum_{\left(w_{1},w_{2},p\right)\inD}\log\sigma\left(\boldsymbol{v}_{p}\cdot\tilde{\boldsymbol{h}}_{\left(w_{1},w_{2}\right)}\right)+\sum_{\left(w_{1},w_{2},p^{\prime}\right)\inD^{\prime}}\log\sigma\left(-\boldsymbol{v}_{p^{\prime}}\cdot\tilde{\boldsymbol{h}}_{\left(w_{1},w_{2}\right)}\right)\end{equation}ただし,$\sigma$はシグモイド関数,$\cdot$はベクトルの内積,$D^\prime$は$D$からランダムに生成された負例サンプルの集合である.負例サンプル$(w_1,w_2,p^\prime)$は,各$(w_1,w_2,p)\inD$に対して$k$個生成される.$k$はハイパーパラメータである.$p^\prime$の生成は,単語埋め込みの学習によく用いられる設定\cite{mikolov2013}にならい,関係パタンの頻度分布を$3/4$乗したものから,ランダムに関係パタンをサンプリングすることで行った.この目的関数$L$を確率的勾配降下法によって最大化することで学習が行われる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{27-2ia4f1.eps}\end{center}\caption{単語ペア埋め込みの教師なし学習}\label{fig:network}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:network}に以上の手法の概要を示す.この図では,\textit{(dog,animal)}の単語ペアについて,それぞれの埋め込み$\boldsymbol{v}_{dog}$,$\boldsymbol{v}_{animal}$から,式\ref{eq:l1},式\ref{eq:l2}によって単語ペアを符号化し,$\tilde{\boldsymbol{h}}_{\left(dog,animal\right)}$を計算している.そして,式\ref{eq:objectives}を最大化して,$\tilde{\boldsymbol{h}}_{\left(dog,animal\right)}$と,実際に共起した関係パタン\texttt{X/NOUN/nsubj/>be/VERB/ROOT/-Y/NOUN/attr/<}の埋め込み$\boldsymbol{v}_{p}$との内積を大きくし,ランダムサンプリングされた負例の関係パタン\texttt{X/NOUN/nsubj/>use/VERB/ROOT/-Y/NOUN/dobj/<}の埋め込み$\boldsymbol{v}_p'$との内積を小さくすることで学習が行われる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{単語ペア埋め込みの計算と意味関係識別モデルへの適用}\label{subsec:単語ペア埋め込みの計算と意味関係識別モデルへの適用}ニューラルネットワークの学習後,単語埋め込みを持つ任意の二語について,式\ref{eq:l1},式\ref{eq:l2}に基づいて,コーパス上で共起しうる関係パタンの情報を捉えた表現$\tilde{\boldsymbol{h}}$を得ることができる.ここから以下のように単語ペア$(w_1,w_2)$の埋め込み$\boldsymbol{u}_{(w_1,w_2)}$を計算する.\begin{equation}\boldsymbol{u}_{\left(w_{1},w_{2}\right)}=\left[\tilde{\boldsymbol{h}}_{\left(w_{1},w_{2}\right)};\tilde{\boldsymbol{h}}_{\left(w_{2},w_{1}\right)}\right]\end{equation}$\tilde{\boldsymbol{h}}_{\left(w_{1},w_{2}\right)}$と$\tilde{\boldsymbol{h}}_{\left(w_{2},w_{1}\right)}$の両方を考慮することによって,\textit{$w_1$isa$w_2$}と\textit{$w_2$suchas$w_1$}のような,$w_1$と$w_2$の出現順序が異なる共起関係パタンの情報を捉えることができる.単語ペアの関係の方向性は$\tilde{\boldsymbol{h}}_{\left(w_{1},w_{2}\right)}$と$\tilde{\boldsymbol{h}}_{\left(w_{2},w_{1}\right)}$の結合の順序によって表現されているので,失われることはない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{27-2ia4f2.eps}\end{center}\caption{単語ペア埋め込みのLexNETへの適用}\label{fig:lexnet_pair}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%以上のように得られる単語ペア埋め込みを,既存の意味関係識別モデルLexNETに適用するために,本研究では,図\ref{fig:lexnet_pair}のようにLexNETの単語ペアの特徴表現(式\ref{eq:lex_last})に,$\boldsymbol{u}_{(w_1,w_2)}$を結合する.\begin{equation}\boldsymbol{v}_{\left(w_{1},w_{2}\right)}=\left[\boldsymbol{v}_{w_{1}};\boldsymbol{v}_{P_{\left(w_{1},w_{2}\right)}};\boldsymbol{v}_{w_{2}};\boldsymbol{u}_{(w_1,w_2)}\right]\end{equation}これにより,単語ペアの共起が十分に得られず,関係パタン表現$\boldsymbol{v}_{P_{\left(w_{1},w_{2}\right)}}$が分類に有用な情報を有してない場合でも,共起しうる関係パタンの情報を捉えた単語ペア埋め込み$\boldsymbol{u}_{\left(w_{1},w_{2}\right)}$により,関係パタンの情報を用いた意味関係識別が可能となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} 本節では,提案手法の有効性を示すための実験について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データセット}本実験では,意味関係識別のベンチマークである%%%%K\&H+N\cite{necsulescu-etal-2015-reading},K\&H+N(Nec{\c{s}}ulescuetal.2015),\nocite{necsulescu-etal-2015-reading}BLESS\cite{baroni-lenci-2011-blessed},EVALution\cite{santus-etal-2015-evalution},ROOT09\cite{santus-etal-2016-nine}の4つのデータセットの名詞ペアを用いた.これらのデータセットは,WordNetやWikipediaなどの知識ベースリソースからの抽出か,クラウドソーシング,もしくはその両方によって作られている.表\ref{table:relation}は各データセットで扱っている名詞の意味関係である.Shwartzらの先行研究\cite{shwartz2016path}に従い,EVALutionからは事例数の少ない含意関係と構成員集団関係は取り除いた.訓練・開発・テストデータの分割は,Shwartzらが用意したものを用いた\footnote{https://github.com/vered1986/LexNET/tree/v2/datasets}.表\ref{tab:statisticsofdata}に各分割の事例数を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\caption{各データセットで扱う名詞の単語間意味関係}\label{table:relation}\input{04table01.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\caption{各データセットの訓練・開発・テストデータの事例数}\label{tab:statisticsofdata}\input{04table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{コーパスと依存構造解析}パタンベースの手法では,単語ペアと関係パタンの共起を集める必要があるため,英語版WikipediaをspaCy\footnote{https://spacy.io}で依存構造解析を行い,名詞ペアと依存構造パスの$(w_1,w_2,p)$トリプルを抽出した.このとき$w_1$,$w_2$にはレンマタイズを施した.Shwartzらの実装\footnote{https://github.com/vered1986/LexNET}に従い,出現頻度が5以下の依存構造パスを含むトリプルは扱わないことにした.表\ref{table:instance}に,各データセットの共起の依存構造パスが得られた単語ペアの事例数の割合を示す.すべてのデータセットで,必ずしもすべての名詞ペアが共起するわけではないことがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\caption{共起依存構造パスが得られた事例数の割合}\label{table:instance}\input{04table03.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{単語ペア埋め込みの獲得}\label{subsec:単語ペア埋め込みの獲得}\ref{subsec:単語ペア埋め込みの教師なし学習}節で述べた単語ペア埋め込みの教師なし学習を行うために,以下のような処理を行った.関係パタンには,最も頻度の高い3万の名詞を結びつける依存構造パスのみを教師なし学習に用いた.単語埋め込みは配布されている50次元のGloVe\footnote{http://nlp.stanford.edu/data/glove.6B.zip}\cite{pennington-etal-2014-glove}で初期化し,パラメータの更新は行わなかった.教師なし学習のために,$w_1$と$w_2$がGloVeの語彙に含まれている$(w_1,w_2,p)$トリプルを抽出し,教師なし学習用の訓練データ$D$を構築した.その他のハイパーパラメータは表\ref{tab:hyperparametersforpairembeddings}のように設定した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\caption{単語ペア埋め込みの教師なし学習のハイパーパラメータ}\label{tab:hyperparametersforpairembeddings}\input{04table04.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{比較手法}提案手法の有効性を示すために,以下のモデルを比較した.なお,各モデルの訓練は,開発セットでの性能が7エポック向上しなかったらストップし,もっとも開発セットでの性能が高いモデルを,テストセットで評価した.評価指標は,Shwartzらの先行研究にならい,各クラスの事例数を考慮するscikit-learn\footnote{https://scikit-learn.org/stable/}の平均F1スコアを用いた.\pagebreak\begin{description}%[style=unboxed,leftmargin=0cm]\item[\textbf{DS}\cite{shwartz2016path}]各単語の出現文脈分布の情報のみを用いる手法として,二語の単語埋め込みを結合した$[\boldsymbol{v}_{w_1};\boldsymbol{v}_{w_2}]$を特徴ベクトルとし,多クラスロジスティック回帰を行う手法を実装した.単語埋め込みには\ref{subsec:単語ペア埋め込みの獲得}節で用いた50次元のGloVeで初期化した.\item[\textbf{DS\_h}\cite{shwartz2016path}]DSに隠れ層を追加したモデルである.隠れ層の次元数は60次元とした.\item[\textbf{DS\_Pair}(提案手法)]二語の単語埋め込みと\ref{sec:提案手法}節で述べた手法により学習される単語ペア埋め込みを結合した$[\boldsymbol{v}_{w_1};\boldsymbol{v}_{w_2};\boldsymbol{u}_{(w_{1},w_{2})}]$を特徴ベクトルとし,多クラスロジスティック回帰を行う手法を実装した.\item[\textbf{LexNET}\cite{shwartz2016path}]\ref{subsec:ニューラルパターンベースの手法}節に沿って,ベースラインとなるLexNETを実装した.ハイパーパラメータを表\ref{tab:hyperparametersforlexnet}に示す.レンマ埋め込み$\boldsymbol{v}_l$は\ref{subsec:単語ペア埋め込みの獲得}節で用いたGloVeと同じもので初期化を行った.正則化は,エッジ埋め込み$\boldsymbol{e}$の各要素をドロップアウトして行った\cite{iyyer-etal-2015-deep,kiperwasser-goldberg-2016-simple}.ドロップアウト率は開発セットの性能で調整した.\item[\textbf{LexNET\_h}\cite{shwartz2016path}]LexNETの拡張で,各語の単語埋め込み$\boldsymbol{v}_{w_1}$,$\boldsymbol{v}_{w_2}$と関係パタン表現$\boldsymbol{v}_{P_{\left(w_{1},w_{2}\right)}}$の相互作用を捉えるために,出力層との間に追加で隠れ層を追加したモデルである.隠れ層の次元数は60とした.その他はLexNETと同じである.\item[LexNET\_Pair(提案手法)]\ref{subsec:単語ペア埋め込みの計算と意味関係識別モデルへの適用}節で述べた教師なし学習で得られる単語ペア埋め込みでLexNETを拡張した提案手法のモデルである.教師なし学習で獲得された意味関係の特徴を評価するために単語ペア埋め込みは,教師あり意味関係識別の訓練では更新しない.その他はLexNETと同じである.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\caption{LexNETのハイパーパラメータ}\label{tab:hyperparametersforlexnet}\input{04table05.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{結果}\label{subsec:結果}各データセットのテストセットでの平均F1スコアを表\ref{table:result}に示す.結果として,4つのデータセットすべてで,\ref{sec:提案手法}節で述べた手法で得られる単語ペア埋め込みを用いたDS\_Pair,LexNET\_Pairによって,それぞれのベースラインと同等かそれ以上の平均F1スコアが得られた.単語ペア埋め込みを用いた場合,隠れ層を追加するDS\_h,LexNET\_hよりも性能が向上しているため,単語ペア埋め込みは,各語の単語埋め込みとLexNETで扱う関係パタン表現以上の情報を符号化していると考えられる.さらに,ほとんどすべての単語ペアが関係パタンを持つEVALutionにおいても,LexNETとLexNET\_Pairを比較したときに性能が向上している.このことは,前述したように教師なし学習によってコーパス全体から得られる単語ペアと関係パタンの共起に基づく意味関係の知識が,単語ペア埋め込みを通して性能に貢献していると考えられる.この点が,LexNETのように訓練データ内の単語ペアと,それらと共起した関係パタンのみを学習に用いる手法を上回る理由の一つと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\caption{各データセットにおける分類性能(平均F1スコア)}\label{table:result}\input{04table06.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%K\&H+Nでの性能の向上が他のデータセットと比べてわずかであるが,これはこのデータセットにおいて単語埋め込みの出現文脈分布の情報の貢献が強く,\ref{subsec:出現文脈分布を用いた意味関係識別}節で述べたような,単語ペアの各語が各意味関係をどれほど持ちやすいか,という学習のみでほとんどの事例に正解でき,関係パタンの情報があまり性能に貢献しないのが原因だと思われる.実際にDS,DS\_hとLexNETの平均F1スコアの差はごく僅かである.このデータセットにおいては,Shwartzらの先行研究においても,LexNETは単語埋め込みのみを用いた手法をごくわずかしか上回っていない\cite{shwartz2016path}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{分析} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{パタン欠落問題の緩和}提案手法がパタン欠落問題をどれほど緩和できているかどうか調べるために,各データセットの開発セットにおいて,共起が得られなかった単語ペア(パタン欠落ペア)についての各手法の平均F1スコアを比較した.結果を表\ref{table:onlymissingpaths}に示す.表から,EVALutionを除く3つデータセットにおいて,LexNETとLexNET\_Pairを比較すると,提案した単語ペア埋め込みを用いた場合,パタン欠落ペアの性能が適切に向上していることがわかる.なお,EVALutionにおいては,開発セットにパタン欠落ペアが4つしか含まれておらず,評価が困難であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\caption{共起しなかった単語ペアに対する性能(平均F1スコア)}\label{table:onlymissingpaths}\input{04table07.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{27-2ia4f3.eps}\end{center}\caption{各データセットの開発セットにおける共起関係パタン数,事例数と平均F1スコアの関係}\label{fig:frequency_analysis}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%さらに,図\ref{fig:frequency_analysis}に,各データセットの開発セットにおける共起関係パタン数(共起関係パタンのトークン数),事例数と,LexNETとLexNET\_Pairの平均F1スコアの関係を示す.この図によると,すべてのデータセットにおいて,共起関係パタン数が50以下の,意味関係識別の手がかりが十分に得られない単語ペアに対しては,提案した単語ペア埋め込みを用いた場合に,性能が向上することがわかる.EVALutionを除く3つのデータセットにおいては,このような共起回数が少ない,あるいはまったく共起が得られないペアがほとんどであり,これらの単語ペアに対しては単語ペア埋め込みの教師なし学習の利用が有効であることがわかる.一方で,共起関係パタン数が50より多い,意味関係識別の手がかりが十分にある単語ペアに対しては,単語ペア埋め込みの貢献は限定的である.これは,共起関係パタン数が多い単語ペアに対しては,関係パタンの特徴が十分にLexNETの関係パタンの表現に符号化がされるため,単語ペア埋め込みの教師なし学習で得られる情報が冗長になってしまうためであると考えられる.K\&H+N,BLESS,ROOT09において,共起関係パタン数が0のペア(パタン欠落ペア)に対するLexNETの平均F1スコアが共起関係パタンを持つペアに対する平均F1スコアよりも良いケースがある.これは,パタン欠落ペアの多くはランダムペア(無関係なペア)であり,これらに関しては,関係パタンに基づかなくとも,適切に分類が行えるのが理由であると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{関係パタンの共起予測}学習された単語ペア埋め込みが,どのような情報を符号化しているかを見るために,教師なし学習した$\tilde{\boldsymbol{h}}_(w_1,w_2)$と$\boldsymbol{v}_p$を用いて,BLESSの訓練セット内のコーパス上で共起しなかった単語ペアについて,どのような依存構造パスが共起しやすいかの予測を行った.負例サンプリング目的関数\cite{mikolov2013}の性質により,内積$\boldsymbol{v}_p\cdot\tilde{\boldsymbol{h}}_(w_1,w_2)$は単語ペア$(w_1,w_2)$と依存構造パス$p$の共起のしやすさを表すため,共起しなかった単語ペアについて,教師なし学習に用いた3万の依存構造パスを内積でランキングすることで,どのような依存構造パスと共起しうるかを見ることができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\newcommand{\DownCell}[2]{\raisebox{-#1\normalbaselineskip}[0pt][0pt]{#2}}\begin{table}[t]\caption{BLESS内の共起しなかった単語ペアについて予測された依存構造パス}\label{table:predictedpaths}\input{04table08.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%各単語ペアについて上位三件までの依存構造パスを予測した例を表\ref{table:predictedpaths}に示す.各単語ペアの意味関係を示唆すると思われる依存構造パスを太字にしている.予測された依存構造パスについては,不適切なものを含みつつも,各単語ペアの意味関係を表すものが予測されている.たとえば,$(\textit{jacket},\textit{commodity})$や$(\textit{goose},\textit{creature})$などの上位下位関係のペアにおいては,\textit{XisYmanufactured}や,\textit{XisaspeciesofY}のような,包含関係を表すis-aの関係パタンの依存構造パスが予測されている.また,部分全体関係を持つ$(\textit{owl},\textit{rump})$では\textit{XhasY}のような所有の関係を表すパスが予測されている.同じく部分全体関係を持つ$(\textit{mug},\textit{plastic})$に対しては,材料の関係を表す\textit{XmadefromY}が予測されている.いずれも部分全体関係を示唆する関係パタンである.兄弟関係を表すペアについては単語ペアのドメインに固有な,二つの名詞が同じカテゴリに属すことを示唆する依存構造パスが予測されている.$(\textit{carrot},\textit{beans})$のような野菜の単語ペアでは,\textit{XleafandY},$(\textit{cello},\textit{kazoo})$のような楽器の単語ペアでは,\textit{playX,guitar,andY}のような,等位接続の関係パタンが予測されており,兄弟関係を示唆している.これらの例から,本研究で提案された単語ペア埋め込みが,適切に関係パタンの情報を符号化していることがわかる.これにより,単語ペア埋め込みが適切にパタン欠落問題を緩和していると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{単語ペア埋め込みの可視化}単語ペア埋め込み$\boldsymbol{u}_{(w_1,w_2)}$の性質を調べるために,BLESS内の単語ペアに注釈されたドメインごとに,t-SNE\cite{maaten2008visualizing}によるデータ点の可視化を行った.各ドメインについてt-SNEによる次元削減を行い上位下位関係,兄弟関係,部分全体のペアをプロットした.比較として,LexNETで用いられる二語の単語埋め込みの結合に対しても,同様に可視化を行った.結果として,いくつかのドメインに関して,単語ペア埋め込み$\boldsymbol{u}_{(w_1,w_2)}$の空間では,各意味関係のクラスタが形成されていることがわかった.鳥(\texttt{bird}),建物(\texttt{building}),爬虫類(\texttt{amphibian\_reptile})のドメインの可視化を例として図\ref{fig:tsne}に示す.図においては,上位下位関係(\texttt{hyper}),兄弟関係(\texttt{coord}),部分全体関係(\texttt{mero})のデータ点がプロットされている.単語ペア埋め込みの結合の散布図は,各意味関係のデータ点が散らばったり,混ざり合ったりしているが,$\boldsymbol{u}_{(w_1,w_2)}$の散布図は,各意味関係ごとにクラスタを形成しているのがわかる.これは$\boldsymbol{u}_{(w_1,w_2)}$の空間が意味関係の類似性\cite{turney-2006-similarity}を捉えており,意味関係識別に有用な性質を有していることを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{27-2ia4f4.eps}\end{center}\caption{t-SNEによる単語ペア表現の可視化(上段は$\boldsymbol{u}_{(w_1,w_2)}$,下段は$[\boldsymbol{v}_{w_1};\boldsymbol{v}_{w_2}]$)}\label{fig:tsne}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{結論} 本研究では,パタンベースの意味関係識別において問題であったパタン欠落問題を解決するために,関係パタンとの共起の情報を捉えた単語ペア埋め込みの学習法を提案し,名詞ペアの意味関係識別に適用した.実験により,4つのデータセットの名詞ペアにおいて,分類性能が向上することを示した.さらに分析により,単語ペア埋め込みが適切にパタン欠落問題を緩和し,意味関係識別に有効な情報を持っていることを示した.今後の課題として,名詞以外の品詞の意味関係識別への適用を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment査読者の方々の有益なコメントに感謝する.本論文の内容の一部は,the2018ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologiesで発表したものである\cite{washio-kato-2018-filling}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{04refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{鷲尾光樹}{%2015年東京大学教養学部卒業.2017年東京大学大学院総合文化研究科言語情報科学専攻修士課程修了.同年,同大学院博士課程入学.}\bioauthor{加藤恒昭}{%1983年東京工業大学大学院総合理工学研究科修士課程終了.同年,日本電信電話公社(現NTT)に入社.2000年東京大学総合文化研究科言語情報科学専攻准教授,2010年同教授.現在に至る.博士(工学).マルチモーダル情報アクセス,語彙意味論に関する研究に従事.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V14N05-07
\section{はじめに} label{sec:intro}{\bfseries機能表現}とは,「にあたって」や「をめぐって」のように,2つ以上の語から構成され,全体として1つの機能的な意味をもつ表現である.一方,この機能表現に対して,それと同一表記をとり,内容的な意味をもつ表現が存在することがある.例えば,\strref{ex:niatatte-F}と\strref{ex:niatatte-C}には,「にあたって」という表記の表現が共通して現れている.\begin{example}\item出発する\underline{にあたって},荷物をチェックした.\label{ex:niatatte-F}\itemボールは,壁\underline{にあたって}跳ね返った.\label{ex:niatatte-C}\end{example}\strref{ex:niatatte-F}では,下線部はひとかたまりとなって,「機会が来たのに当面して」という機能的な意味で用いられている.それに対して,\strref{ex:niatatte-C}では,下線部に含まれている動詞「あたる」は,動詞「あたる」本来の内容的な意味で用いられている.このような表現においては,機能的な意味で用いられている場合と,内容的な意味で用いられている場合とを識別する必要がある\cite{日本語複合辞用例データベースの作成と分析}.以下,本論文では,文\nobreak{}(\ref{ex:niatatte-F}),(\ref{ex:niatatte-C})の下線部のように,表記のみに基づいて判断すると,機能的に用いられている可能性がある部分を{\bf機能表現候補}と呼ぶ.機能表現検出は,日本語解析技術の中でも基盤的な技術であり,高カバレージかつ高精度な技術を確立することにより,後段の様々な解析や応用の効果が期待できる.一例として,以下の例文を題材に,機能表現検出の後段の応用として機械翻訳を想定した場合を考える.\begin{example}\item私は,彼の車\underline{について}走った.\label{ex:nitsuite-C}\item私は,自分の夢\underline{について}話した.\label{ex:nitsuite-F}\end{example}\strref{ex:nitsuite-C}では,下線部は内容的用法として働いており,\strref{ex:nitsuite-F}では,下線部は機能的用法として働いており,それぞれ英語に訳すと,\strref{ex:nitsuite-C-e},\strref{ex:nitsuite-F-e}となる.\begin{example}\itemIdrove\underline{\mbox{following}}hiscar.\label{ex:nitsuite-C-e}\itemItalked\underline{about}mydream.\label{ex:nitsuite-F-e}\end{example}下線部に注目すれば分かる通り,英語に訳した場合,内容的用法と機能的用法で対応する英単語が異なっている.このように内容的用法と機能的用法で対応する英単語が異なるので,機能表現検出のタスクは,機械翻訳の精度向上に効果があると考えられる.また,機能表現検出の後段の解析として格解析を想定する.格解析は,用言とそれがとる格要素の関係を記述した格フレームを利用して行われる.\begin{example}\item私は,彼の仕事\underline{について}話す.\label{ex:nitsuite-k}\end{example}「について」という機能表現を含む\strref{ex:nitsuite-k}において,格解析を行う場合,機能表現を考慮しなければ,「仕事」と「話す」の関係を検出することができず,「私は」と「話す」の関係がガ格であることしか,検出できない.それに対して,「について」という機能表現を考慮することができれば,「仕事」と「話す」の関係の機能的な関係を「について」という機能表現が表現していることが検出することができる.このことから,機能表現検出の結果は,格解析の精度向上に効果があると考えられる.さらに,以下の例文を題材にして,機能表現検出の後段の解析としてを係り受け解析を想定する.\begin{example}\item2万円を\\限度に\\家賃\underline{に応じて}\\支給される.\label{ex:niouzite-1}\item2万円を\\限度に\\家賃\underline{に応じて}\\支給される.\label{ex:niouzite-2}\end{example}\strref{ex:niouzite-1},\strref{ex:niouzite-2}における空白の区切りは,それぞれ,機能表現を考慮していない場合の文節区切り,機能表現を考慮した場合の文節区切りを表している.この例文において,「限度に」という文節の係り先を推定する時,「限度に」という文節が動詞を含む文節に係りやすいという特徴をもっているので,\strref{ex:niouzite-1}の場合,「応じて」という文節に係ってしまう.それに対して,\strref{ex:niouzite-2}では,「に応じて」を機能表現として扱っているので,「限度に」の係り先を正しく推定できる.このようなことから,機能表現のタスクは,格解析の精度向上に効果があると考えられる.本論文では,これら3つの応用研究の内,係り受け解析への機能表現検出の適用方法を考えた.日本語の機能表現として認定すべき表記の一覧については,いくつかの先行研究が存在する.\cite{Morita89aj}は,450種類の表現を,意味的に52種類に分類し,機能的に7種類に分類している.\cite{Matsuyoshi06ajm}は,森田らが分類した表現の内,格助詞,接続助詞および助動詞に相当する表現について,階層的かつ網羅的な整理を行い,390種類の意味的・機能的に異なる表現が存在し,その異形は13690種類に上ると報告している.\cite{日本語複合辞用例データベースの作成と分析}は,森田らが分類した表現の内,特に一般性が高いと判断される337種類の表現について,新聞記事から機能表現候補を含む用例を無作為に収集し,人手によって用法を判定したデータベースを作成している.このデータベースによると,機能表現候補が新聞記事(1年間)に50回以上出現し,かつ,機能的な意味で用いられている場合と,それ以外の意味で用いられている場合の両方が適度な割合で出現する表現は,59種類である.本論文では,この59種類の表現を当面の検討対象とする.まず,既存の解析系について,この59種類の表現に対する取り扱い状況を調査したところ,59種類の表現全てに対して十分な取り扱いがされているわけではないことが分かった\footnote{詳しくは,\ref{subsec:既存の解析系}節を参照.}.59種類の表現の内,形態素解析器JUMAN\cite{juman-5.1}と構文解析器KNP\cite{knp-2.0}の組合わせによって,機能的な意味で用いられている場合と内容的な意味で用いられている場合とが識別される可能性がある表現は24種類である.また,形態素解析器ChaSen\cite{chasen-2.3.3}と構文解析器CaboCha\cite{TKudo02aj}の組合わせを用いた場合には,識別される可能性がある表現は20種類である.このような現状を改善するには,機能表現候補の用法を正しく識別する検出器と検出器によって検出される機能表現を考慮した係り受け解析器が必要である.まず,検出器の実現方法を考えた場合,検出対象である機能表現を形態素解析用辞書に登録し,形態素解析と同時に機能表現を検出する方法と,形態素解析結果を利用して機能表現を検出する方法が考えられる.現在,広く用いられている形態素解析器は,機械学習的なアプローチで接続制約や連接コストを推定した辞書に基づいて動作する.そのため,形態素解析と同時に機能表現を検出するには,既存の形態素に加えて各機能表現の接続制約や連接コストを推定するための,機能表現がラベル付けされた大規模なコーパスが必要になる.しかし,検出対象の機能表現が多数になる場合は,作成コストの点から見て,そのような条件を満たす大規模コーパスを準備することは容易ではない.形態素解析と機能表現検出が独立に実行可能であると仮定し,形態素解析結果を利用して機能表現を検出することにすると,前述のような問題を避けられる.そこで,機能表現の構成要素である可能性がある形態素が,機能表現の一部として現れる場合と,機能表現とは関係なく現れる場合で,接続制約が変化しないという仮定を置いた上で,人手で作成した検出規則を形態素解析結果に対して適用することにより機能表現を検出する手法が提案されてきた\cite{接続情報にもとづく助詞型機能表現の自動検出,助動詞型機能表現の形態・接続情報と自動検出,形態素情報を用いた日本語機能表現の検出}.しかし,これらの手法では,検出規則を人手で作成するのに多大なコストが必要となり,検出対象とする機能表現集合の規模の拡大に対して追従が困難である.そこで,本論文では,機能表現検出と形態素解析は独立に実行可能であると仮定した上で,機能表現検出を形態素を単位とするチャンク同定問題として定式化し,形態素解析結果から機械学習によって機能表現を検出するアプローチ~\cite{Tsuchiya07aj}をとる.機械学習手法としては,入力次元数に依存しない高い汎化能力を持ち,Kernel関数を導入することによって効率良く素性の組合わせを考慮しながら分類問題を学習することが可能なSupportVectorMachine(SVM)\cite{Vapnik98a}を用いる.具体的には,SVMを用いたチャンカーYamCha\cite{TKudo02bj}を利用して,形態素解析器ChaSenによる形態素解析結果を入力とする機能表現検出器を実装した.ただし,形態素解析用辞書に「助詞・格助詞・連語」や「接続詞」として登録されている複合語が,形態素解析結果中に含まれていた場合は,その複合語を,構成要素である形態素の列に置き換えた形態素列を入力とする.また,訓練データとしては,先に述べた59表現について人手で用法を判定したデータを用いる.更に,このようにして実装した機能表現検出器は,既存の解析系および\cite{形態素情報を用いた日本語機能表現の検出}が提案した人手で作成した規則に基づく手法と比べて,機能表現を高精度に検出できることを示す.次に,機能表現を考慮した係り受け解析器の実現方法としては,既存の解析系であるKNPとCaboChaを利用する方法が考えられる.KNPを利用する場合は,新たに機能表現を考慮した係り受け規則を作成する必要がある.それに対して,CaboChaを利用する場合は,現在使用されている訓練用データ(京都テキストコーパス~\cite{Kurohashi97bj})を機能表現を考慮したものに自動的に変換すればよい.そこで,本論文では,CaboChaの学習を機能表現を考慮した訓練データで行うことによって,機能表現を考慮した係り受け解析器を実現する.訓練データの作成には,訓練の対象となる文の係り受け情報と文に存在する機能表現の情報を利用する.本論文の構成は以下の通りである.\ref{sec:fe}~節で,本論文の対象とする機能表現と,その機能表現候補の用法を表現するための判定ラベルについて述べる.\ref{sec:chunker}~節で,機能表現検出をチャンク同定問題として定式化し,SVMを利用した機能表現のチャンキングについて説明し,機能表現検出器の検出性能の評価を行い,この検出器が,既存の解析系および人手によって規則を作成した手法と比べ,機能表現を高精度に検出できることを示す.\ref{sec:係り受け解析}~節では,機能表現検出器によって検出される機能表現を考慮した係り受け解析器について説明を行い,機能表現を考慮した係り受け解析器と従来の係り受け解析器を使った機能表現を考慮した最適な係り受け解析について述べ,実際に機能表現を考慮した係り受け解析の評価を行う.\ref{sec:関連研究}~節では,関連研究について述べ,最後に\ref{sec:結論}~節で結論を述べる. \section{機能表現およびその用法} label{sec:fe}\subsection{用例データベース}森田ら\cite{Morita89aj}は,機能表現の中でも特に「単なる語の連接ではなく,表現形式全体として,個々の構成要素のプラス以上の独自の意味が生じている」表現を{\bfseries複合辞}と呼び,個々の構成要素の意味から構成的に表現形式全体の意味を説明できるような表現とは区別している.現代語複合辞用例集\cite{NLRI01aj-nlp}(以下,{\bfseries複合辞用例集}と呼ぶ)は,主要な125種類の複合辞について,用例を集成し,説明を加えたものである.\begin{table}[t]\setlength{\tabcolsep}{4pt}\caption{判定ラベル体系}\label{tbl:判定ラベル体系}\newcommand{\exlabel}[1]{}\input{07t01.txt}\end{table}日本語複合辞用例データベース\cite{日本語複合辞用例データベースの作成と分析}(以下,{\bfseries用例データベース}と呼ぶ)は,機能表現の機械処理を研究するための基礎データを提供することを目的として設計・編纂されたデータベースである.用例データベースは,複合辞用例集に収録されている125種類の複合辞および,その異形(合計337種類の機能表現)を対象として,機能表現候補と一致する表記のリストと,個々の機能表現候補に対して最大50個の用例を収録している.また,用例は,毎日新聞1995年から収集されている.そして,各機能表現候補が文中において果たしている働きを,\tabref{tbl:判定ラベル体系}および次節に示す6種類の判定ラベルのうちから人手で判定し,付与している.\subsection{判定ラベル体系}\label{subsec:label}判定ラベルとは,機能表現候補が文中でどのような働きをしているかを表すラベルであり,用例データベースでは\tabref{tbl:判定ラベル体系}の通り,6種類のラベルが設定されている.以下,個々の判定ラベルについて説明する.用例データベースでは,IPA品詞体系(THiMCO97)の形態素解析用辞書\cite{ipadic-2.6.1}に登録されている語から,「助詞・格助詞・連語」として登録されている語を取り除いた残りの語を,語としている.そして,ある機能表現候補が,1個以上の語,複合辞または慣用表現からなる列である場合,その候補は判定単位として適切であるが,それ以外の場合は,その候補は判定単位として不適切であるとして,判定ラベルBを付与している.例えば,\tabref{tbl:判定ラベル体系}中の\strref{ex:A43-2000:B}に含まれる機能表現候補「にかけて」は,「心配する」という意味の慣用表現「気にかける」の一部が活用した形であり,先に述べた条件を満たしていない.したがって,\strref{ex:A43-2000:B}には,判定ラベルBが付与される.判定ラベルYは,機能表現候補の読みが,判定対象となっている機能表現の読みと一致していないことを表す.例えば,「AうえでB」という形で,「Aした後でB」という出来事の継起関係を表す機能表現「うえで」の用例として\tabref{tbl:判定ラベル体系}中の\strref{ex:A12-1000:Y}を判定する場合を考える.この場合,機能表現候補の読み「じょうで」と,判定対象となっている機能表現の読み「うえで」が一致していないので.判定ラベルYを付与する.判定ラベルCは,機能表現候補に内容的に働いている語が含まれていることを表す.例えば,\tabref{tbl:判定ラベル体系}中の\strref{ex:A56-1000:C}の機能表現候補に含まれる動詞「とる」は本来の意味で内容的に働いているので,判定ラベルとしてCを付与する.判定ラベルF,A,Mは,機能表現候補が機能的に働いているとき,その機能を区別するためのラベルである.判定ラベルFは,機能表現候補が複合辞用例集で説明されている用法で働いていることを表し,判定ラベルAは,機能表現候補が接続詞的に働いていることを表す.判定ラベルMは,これら以外の機能的な働きをしていることを表す.例として,機能表現候補「ところで」の用例として\tabref{tbl:判定ラベル体系}中の\strref{ex:A22-1000:F}$\sim$(\ref{ex:A22-1000:M})を判定する場合を考える.\strref{ex:A22-1000:F}では,複合辞用例集で説明されている通りに逆接の働きをしているので,判定ラベルFを付与する.\strref{ex:A22-1000:A}では,文頭で接続詞的に働いているので,判定ラベルAを付与する.\strref{ex:A22-1000:M}では,形式名詞「ところ」を含めて機能的に働いているので,判定ラベルMを付与する.本論文では,判定ラベルF,A,Mが付与される機能表現候補を検出対象とする. \section{機能表現検出} label{sec:chunker}\subsection{SVMを用いたチャンキングによる機能表現検出}\label{sec:chunking_using_svm}\subsubsection{SupportVectorMachines}サポートベクトルマシンは,素性空間を超平面で分割することによりデータを2つのクラスに分類する二値分類器である\cite{SVM,tinysvm}.2つのクラスを正例,負例とすると,学習データにおける正例と負例の間隔(マージン)を最大にする超平面を求め,それを用いて分類を行う.すなわち,以下の識別関数$f(x)$の値によってクラスを判別することと等価である.{\allowdisplaybreaks\begin{align}\label{eq:svm1}f({\bfx})&=sgn\left(\sum^{l}_{i=1}\alpha_iy_iK({\bfx}_i,{\bfx})+b\right)\\[0.5ex]b&=-\frac{\max_{i,y_i=-1}b_i+\min_{i,y_i=1}b_i}{2}\nonumber\\[0.5ex]b_i&=\sum^l_{j=1}\alpha_jy_jK({\bfx}_j,{\bfx}_i)\nonumber\end{align}}ここで${\bfx}$は識別したい事例の文脈(素性の集合),${\bfx}_{i}$と$y_i(i=1,...,l,y_i\in\{1,-1\})$は学習データの文脈とクラスである.また,関数$sgn(x)$は,$x\geq0$のときに1,$x<0$のときに$-1$となる二値関数である.各$\alpha_i$は,式(\ref{eq:svm5})と式(\ref{eq:svm6})の制約のもとで式(\ref{eq:svm4})の$L(\mbox{\boldmath$\alpha$})$を最大にするものである.\begin{align}L(\mbox{\boldmath$\alpha$})&=\sum^l_{i=1}\alpha_i-\frac{1}{2}\sum^l_{i,j=1}\alpha_i\alpha_jy_iy_jK({\bfx_i},{\bfx_j})\label{eq:svm4}\\&0\leq\alpha_i\leqC\,\,(i=1,...,l)\label{eq:svm5}\\&\sum^l_{i=1}\alpha_iy_i=0\label{eq:svm6}\end{align}関数$K$はカーネル関数と呼ばれ,様々なものが提案されているが,本論文では次式で定義される多項式カーネルを用いる.\begin{equation}\label{eq:svm3}K({\bfx},{\bfy})=({\bfx}\cdot{\bfy}+1)^d\end{equation}ここで,$C,d$は実験的に設定される定数である.予備実験を行い,次数$d$の値として$1,\2,\3$の3通りを検討した.$d=2,3$とした場合はF値に大きな差はなかったが,$d=1$とするとF値がかなり悪化した\footnote{評価尺度(F値)については\ref{subsec:評価尺度}節を参照.}.ただし,$d=3$とした場合は,$d=2$とした場合に比べて,学習時間がかなり増加したため,本論文では,次数$d$の値として2を用いる.また,予備実験において,マージン$C$の値として$1,0.1,0.01,0.001,0.0001$の5通りを検討したところ,F値に大きな差が見られなかったため,本論文ではマージン$C$の値として1を用いる.\subsubsection{チャンクタグの表現法}本論文では,検出対象とする機能表現全てに共通のチャンクタグを,形態素を単位として付与するという手順で,機能表現検出を行う.チャンクタグは,そのチャンクタグが付与された形態素が,検出対象とする機能表現のいずれかに含まれるか否かを表し,チャンクの範囲を示す要素とチャンクの用法を示す要素という2つの要素からなる.以下,本論文で用いたチャンクタグについて詳細を述べる.チャンクの範囲を示す要素の表現法としては,以下で示すようなIOB2フォーマット\cite{Sang00a}が広く利用されている.本論文でも,このIOB2フォーマットを使用する.\begin{center}\begin{tabular}{cl}\textbf{I}&チャンクに含まれる形態素(先頭以外)\\\textbf{O}&チャンクに含まれない形態素\\\textbf{B}&チャンクの先頭の形態素\\\end{tabular}\end{center}ただし,本論文ではIOB2フォーマットを,さらに\tabref{tbl:chunktag}のように機能表現候補の用法によって細分化したものを使用する.この表において,機能的用法とは,用例データベースで設定されている判定ラベルのうち,ラベルF,A,Mのいずれかが付与されたものを表し,内容的用法とは,判定ラベルのうち,ラベルC,Y,Bのいずれかが付与されたものを表している.本論文では,2つの用法のうち,機能的用法を検出する機能表現検出器を作成する.\begin{table}[t]\caption{チャンクタグ}\label{tbl:chunktag}\input{07t02.txt}\end{table}SVMは二値分類器であるため,そのままでは,2クラスの分類しか扱えない.本論文のようにクラス数が3以上の場合には,複数の二値分類器を組み合わせて拡張する必要がある.本論文では,拡張手法としては,広く利用されているペアワイズ法を用いる.ペアワイズ法とは,$N$個のクラスに属するデータを分類する時,異なる2つのクラスのあらゆる組み合わせに対する二値分類器を作り,得られた$N(N-1)/2$個の二値分類器の多数決により,クラスを決定する方法である.\subsubsection{素性}\label{subsec:feature}学習$\cdot$解析に用いる素性について説明する.文頭から$i$番目の形態素$m_{i}$に対して与えられる素性$F_{i}$は,形態素素性$MF(m_{i})$,チャンク素性$CF(i)$,チャンク文脈素性$OF(i)$の3つ組として,次式によって定義される.\begin{equation}F_{i}=\langleMF(m_{i}),CF(i),OF(i)\rangle\end{equation}形態素素性$MF(m_{i})$は,形態素解析器によって形態素$m_{i}$に付与される情報である.本論文では,IPA品詞体系(THiMCO97)の形態素解析用辞書\cite{ipadic-2.6.1}に基づいて動作する形態素解析器ChaSenによる形態素解析結果を入力としているため,以下の10種類の情報(表層形,品詞,品詞細分類$1\sim3$,活用型,活用形,原形,読み,発音)を形態素素性として用いた.チャンク素性$CF(i)$とチャンク文脈素性$OF(i)$は,$i$番目の位置に出現している機能表現候補に基づいて定まる素性である.今,下図のような形態素列$m_j\ldotsm_i\ldotsm_k$からなる機能表現候補$E$が存在したとする.\begin{center}\begin{tabular}[tb]{ccccc}$m_{j-2}$&$m_{j-1}$&\fbox{$m_j\ldotsm_i\ldotsm_k$}&$m_{k+1}$&$m_{k+2}$\\&&機能表現候補$E$&&\end{tabular}\end{center}チャンク素性$CF(i)$は,$i$番目の位置に出現している機能表現候補$E$を構成している形態素の数(機能表現候補の長さ)と,機能表現候補中における形態素$m_{i}$の相対的位置の情報の2つ組である.チャンク文脈素性$OF(i)$は,$i$番目の位置に出現している機能表現候補の直前2形態素および直後2形態素の形態素素性とチャンク素性の組である.すなわち,$i$番目の位置に対する$CF(i)$および$OF(i)$は次式で表される.\begin{align*}CF(i)&=\langlek-j+1,\;\;i-j+1\rangle\\OF(i)&=\langle~MF(m_{j-2}),CF(m_{j-2}),MF(m_{j-1}),CF(m_{j-1}),\\&~~MF(m_{k+1}),CF(m_{k+1}),MF(m_{k+2}),CF(m_{k+2})~\rangle\end{align*}機能表現検出においては,1つの文中に,複数の機能表現候補が部分的に重複して現れる場合を考慮する必要がある.ここでは,そのような場合のチャンク素性とチャンク文脈素性の付与方法について考える.複数の機能表現候補が部分的に重複して現れている場合,それらの候補全てに基づいてチャンク素性とチャンク文脈素性を付与するという方法と,それらの候補から何らかの基準を用いて1つの候補を選択し,選択された候補に基づいてチャンク素性とチャンク文脈素性を付与するという方法が考えられる.前者の方法で付与された素性を参照して機械学習を行うには,重複する可能性がある機能表現の全ての組み合わせに対して十分な量の学習事例が必要であるが,そのような学習事例を準備することは現実的ではない.そのため,本論文では,後者の方法を採り,次の優先順序に従って選ばれた1つの機能表現候補に基づいて,チャンク素性とチャンク文脈素性を付与することにする.\begin{description}\item[1]先頭の形態素が,最も左側の機能表現候補を用いる.\item[2]1を満たす候補が複数存在する場合は,その中で最も形態素数が多い候補を用いる.\end{description}例えば,\strref{ex:nakutehaikemasen}には,「なくてはいけません」および「てはいけません」という2つの機能表現候補が,部分的に重複して現れている.\begin{example}\item慎重にし\kern0pt\OriUnderline{なく}\kern0pt\OriUnderline{\OriUnderline{てはいけません}}.\label{ex:nakutehaikemasen}\end{example}この場合,「なくてはいけません」という機能表現候補が,「てはいけません」という機能表現候補に比べて,より左の形態素から始まっているので,「なくてはいけません」という機能表現候補に基づいて,チャンク素性とチャンク文脈素性を付与する.また,\strref{ex:toiumonono}には,「という」および「というものの」という2つの機能表現候補が,部分的に重複して現れている.\begin{example}\itemそれが試合\kern0pt\OriUnderline{\OriUnderline{という}}\kern0pt\OriUnderline{ものの}{\kern0pt}難しさだ.\label{ex:toiumonono}\end{example}この場合,2つの機能表現候補の先頭の形態素は同一であるため,より形態素数が多い候補「というものの」に基づいて,チャンク素性とチャンク文脈素性を付与する.$i$番目の形態素に対するチャンクタグを$c_{i}$とすると,チャンクタグ$c_{i}$の学習・解析を行う場合に用いる素性として,$i$番目の形態素および前後2形態素に付与された素性$F_{i-2},F_{i-1},F_{i},F_{i+1},F_{i+2}$と,直前2形態素に付与されたチャンクタグ$c_{i-2},c_{i-1}$を用いる(\figref{yamcha}).解析時には,解析によって得られたチャンクタグを,直前2形態素に付与されたチャンクタグとして順に利用して,解析を行う.前後3形態素の素性と直前3形態素のチャンクタグを用いて学習・解析を行う予備実験も行ったが,前後2形態素の素性と直前2形態素のチャンクタグを用いた場合に比べて,殆んど性能が変わらなかったため,前後2形態素の素性と直前2形態素のチャンクタグを用いる.\begin{figure}[t]\begin{center}\includegraphics{14-5ia7f1.eps}\end{center}\caption{YamChaの学習・解析}\label{yamcha}\end{figure}\subsection{実験と考察}\label{subsec:実験と考察}本論文で提案する機能表現検出器に対して,学習および解析を行い,各ベースラインと性能を比較した.\subsubsection{データセット}\label{subsec:dataset}文を単位として学習を行うには,文中に現れる全ての機能表現候補に対して判定ラベルが付与されたデータが必要である.本論文では,判別が必要な111表現のなかでも,新聞記事においても,機能的用法と内容的用法の両方が一定の割合で出現する59表現を対象とする.そして,これらの59表現に対する用例として用例データベースに収録されている2583例文について,これらの例文に含まれている全ての機能表現候補に判定ラベルを付与した.さらに,この例文の内,京都テキストコーパスに含まれる文と重複する154文を除いた.本論文では,この2429文(各表現について20用例以上収録)を機能表現検出器の訓練データとして使用する.ただし,用例データベースでは,機能表現候補の先頭と末尾が形態素境界と一致しない候補にも判定ラベルが付与されているが,本論文では,形態素解析結果に基づいて機能表現を検出する立場をとるため,そのような機能表現候補に対する判定ラベルは取り除くことにする.具体的には,以下のような処理を行った.最初に,用例データベースに収録されている用例を,IPA品詞体系の形態素解析用辞書に基づいて動作する形態素解析器ChaSenを用いて形態素解析した.次に,形態素解析結果中に,形態素解析用辞書に「助詞・格助詞・連語」や「接続詞」として登録されており,かつ実験の対象である59表現となる複合語が含まれていた場合は,その複合語を,構成要素である形態素の列に置き換えた.このようにして得られた形態素解析結果と機能表現候補を照合し,先頭と末尾が形態素境界と一致しなかった判定ラベルを取り除いた.また,機能表現検出器の評価データとしては,京都テキストコーパスに収録されている文を対象とし,その文に含まれている全ての機能表現候補に対して,判定ラベルを付与したものを使用した.\begin{table}[t]\caption{データセットの各統計量}\label{tbl:dataset}\input{07t03.txt}\end{table}訓練・評価データに含まれる各用法の数と,全形態素数を\tabref{tbl:dataset}に示す.1つの例文に,複数の機能表現候補が出現する場合があるため,機能表現候補の総数は,例文の総数よりも多くなっている.また,評価データ(京都テキストコーパス)における機能表現候補の分布は,\tabref{tbl:kyoto_FE_freq1}の通りである.\tabref{tbl:kyoto_FE_freq1}には,京都テキストコーパスにおける機能表現の分布以外に,機能表現の用例データベースにおける分類,その分類に基づいた係り受け解析の学習の際に使用する品詞体系の情報が示されている.機能表現の分類には,接続詞相当の働きをするもの(接続詞型),助詞相当の働きをするもの(助詞型),助動詞相当の働きをするもの(助動詞型)の3種類存在する.さらに,助詞型の機能表現は,接続助詞相当のもの(接続辞類),格助詞相当のもの(連用辞類),連体助詞相当のもの(連体辞類)に細分類することができる.係り受け解析の学習の際に使用する品詞体系は,上で述べた機能表現の分類に基づいて作成されている.また,\tabref{tbl:kyoto_FE_freq1}には,「といっても」,「とはいえ」など,接続詞型と助詞型の二つの分類に重複して登場している表現がある.これは,「といっても」などの機能表現候補は,接続詞型,助詞型のどちらの機能表現にもなりうるからである.\begin{table}[p]\caption{京都テキストコーパスにおける機能表現候補の出現頻度}\vspace{-2pt}\label{tbl:kyoto_FE_freq1}\input{07t04.txt}\end{table}\subsubsection{評価尺度}\label{subsec:評価尺度}実験を評価する際の尺度には,以下の式で表される精度,再現率,F値,および判別率を用いた.{\allowdisplaybreaks\begin{align*}\mbox{精度}&=\frac{\mbox{検出に成功したチャンク数}}{\mbox{解析によって検出されたチャンク数}}\\[1zw]\mbox{再現率}&=\frac{\mbox{検出に成功したチャンク数}}{\mbox{評価データに存在するチャンク数}}\\[1zw]\mbox{F値}&=\frac{2\times\mbox{精度}\times\mbox{再現率}}{\mbox{精度}+\mbox{再現率}}\\[1zw]\mbox{判別率}&=\frac{\mbox{正解した判定ラベル数}}{\mbox{全判定ラベル数}}\end{align*}}\subsubsection{既存の解析系に対する評価基準}\label{subsec:既存の解析系}既存の解析系(JUMAN/KNPおよびChaSen/CaboCha)は,形態素解析および構文解析段階で処理が必要となる機能表現を,部分的に処理の対象としている.しかし,明示的に機能表現を取り扱うという立場は取っていないため,機能表現のチャンキングというタスクに対する既存の解析系の性能を評価するには,その出力をどのように解釈するかを定めておく必要がある.形態素解析器JUMANと構文解析器KNPの組み合わせでは,機能表現は以下のように処理される.最初に,接続詞として形態素解析用辞書に登録されている機能表現は,形態素解析時に検出される.次に,構文解析時に,解析規則に記述された特定の形態素列が現れると,直前の文節の一部としてまとめたり,直前の文節からの係り受けのみを受けるように制約を加えて,機能表現である可能性を考慮した解析を行う.一方,IPA品詞体系(THiMCO97)の形態素解析用辞書\cite{ipadic-2.6.1}を用いた形態素解析器ChaSenと,京都テキストコーパス\cite{Kurohashi97bj}から機械学習したモデルを用いた構文解析器CaboChaの組合わせでは,機能表現は以下のように処理される.最初に,形態素解析用辞書に「助詞・格助詞・連語」や「接続詞」として登録されている機能表現は,形態素解析時に検出される.また,「ざるを得ない」などの表現は直前の文節の一部としてまとめられ,機能的な表現として解析される.既存の解析系でも,一部の機能表現については,機能的な働きをしていることを考慮した解析が行われているが,その対応状況は不十分である.判定ラベルF,A,Mのいずれかが付与されている用例の内,少なくとも1つの用例が,機能的に働いている可能性を考慮して解析され,かつ,判定ラベルC,Y,Bのいずれかが付与された用例の内,少なくとも1つの用例が,機能的に働いている可能性を考慮せずに解析されている場合,その機能表現は,用法が正しく区別される可能性があるとする.用例データベースに50用例が収録されている表現で,かつ,機能的な意味で用いられている場合と,それ以外の意味で用いられている場合の両方が適度な割合で出現する表現は,59種類ある\footnote{ここでの機能表現の種類数には,\cite{Tsuchiya07aj}における記述とは差異があるが,これは,本論文においては,「機能的な意味で用いられている場合と,それ以外の意味で用いられている場合の両方が適度な割合で出現する」という条件の認定方法の改訂を行ったためである.}.その内,JUMAN/KNPによって用法が正しく区別される可能性がある表現は,23種類である.一方,ChaSen/CaboChaによって用法が正しく区別される可能性がある表現は21種類である.また,用例データベースに収録されている337表現全体では,新聞上の実際の用法の割合に関係なく識別が必要と思われる表現は,111種類である.その内,JUMAN/KNPによって用法が正しく区別される可能性がある表現は43種類,ChaSen/CaboChaによって用法が正しく区別される可能性がある表現は40種類である.\subsubsection{評価結果}本論文で提案する機能表現検出器と,各ベースラインの検出性能を\tabref{tab:kekka_gaiyou}に示す.\tabref{tab:kekka_gaiyou}において,「頻度最大の判定ラベル」とは,全ての候補部分に対して頻度最大の判定ラベル(機能的用法)を付与した場合の検出性能である.「人手作成の規則による検出器」は,\cite{形態素情報を用いた日本語機能表現の検出}による検出性能である.\begin{table}[b]\caption{各検出器の検出性能(\%)}\label{tab:kekka_gaiyou}\input{07t05.txt}\end{table}\tabref{tab:kekka_gaiyou}中の「CRFを用いた検出器」は,ConditionalRandomFileds(CRF)\cite{CRF}によって学習・解析を行った場合の検出性能である.CRFとは,系列ラベリング問題のために設計された識別モデルであり,正しい系列ラベリングを他の全ラベリング候補と弁別するような学習を行う.本論文では,CRFによる学習・解析用ツールとしてCRF++\footnote{\url{http://chasen.org/~taku/software/CRF++/}}を利用した.素性としては,前後2形態素の形態素素性,チャンク素性,チャンク文脈素性と,直前2形態素のチャンクタグを用いた.学習時には,事前分布としてGaussianPriorを用いて事後確率を最大化することにより,パラメータを正則化した\cite{TKudo04b}.その際のハイパーパラメータとしては,1,2,3,4,5の5通りの値について予備実験を行い,最も良い性能を示した1を採用した.\tabref{tab:kekka_gaiyou}中の「SVMを用いた検出器」は,本論文の提案するSVMによるチャンキング手法による検出性能である.表より,提案手法は,学習・解析に用いた素性に関わらず,ベースラインおよび人手作成の規則による検出よりも,高いF値を示した.また,提案手法は,CRFを用いた検出器よりも,高いF値を示した.\tabref{tab:kekka_gaiyou}を見ると,「JUMAN/KNP」,「ChaSen/CaboCha」が他の手法に比べて著しく性能が悪いのがわかる.これは,\ref{subsec:既存の解析系}節で述べたように,「JUMAN/KNP」,「ChaSen/CaboCha」が取り扱っている機能表現が,本実験の対象である59表現の内,23表現,21表現となっているのが,一つの原因である.もう一つの原因は,評価対象の大部分を占める「という」という表現に対する再現率が,両解析系において,著しく低いということである.学習・解析に用いた素性の違いによる性能の違いを検討すると,形態素素性のみを用いた場合よりも形態素素性とチャンク素性を併用した場合の方が,形態素素性とチャンク素性を併用した場合よりも形態素素性,チャンク素性,チャンク文脈素性すべてを使用した場合の方が検出性能がすぐれていることから,チャンク素性とチャンク文脈素性は,機能表現を検出するための素性として適当であったといえる.全ての素性を用いて学習と解析を行った機能表現検出器において,評価用データにおいて10用例以上存在し,他の表現と比較して極端に検出性能が悪く,F値が70に達しなかった表現は,「にあたり」の1表現である.例えば,\strref{ex:niatari-F}に含まれる「にあたり」は,「(新規参入という)時が来たのに当面して」という機能的な意味で用いられている.それに対して,\strref{ex:niatari-C}および\strref{ex:niatari-C2}に含まれる「にあたり」は,内容的に用いられている.\begin{example}\item新規参入\underline{にあたり},潜在的なニーズを掘り起こそうと,転勤族を主な対象にした.\label{ex:niatari-F}\itemお神酒の瓶が女性\underline{にあたり},けがをする事故があった.\label{ex:niatari-C}\item米国の最先端の科学者が知恵を結集して原爆の開発\underline{にあたり},一九四五年八月に広島・長崎に原爆が投下された.\label{ex:niatari-C2}\end{example}しかし,SVMを用いた検出器は,\strref{ex:niatari-F}と\strref{ex:niatari-C}の用法を内容的用法として,また,\strref{ex:niatari-C2}の用法を機能的用法として検出してしまい,用法を正しく判定できたのは\strref{ex:niatari-C}のみであった.仮に,\strref{ex:niatari-F}と\strref{ex:niatari-C}を区別することだけが必要ならば,直前がサ変名詞であることが有効な素性として働く可能性があるが,\strref{ex:niatari-C2}は,そのような素性だけではうまく判定できない.このように,提案手法によっては適切に検出できない表現もごく少数ながら存在するが,他の表現については,\tabref{tab:kekka_gaiyou}に示したように適切に検出することができた. \section{機能表現を考慮した係り受け解析器} \label{sec:係り受け解析}\subsection{SVMを用いた統計的係り受け解析}\label{subsec:CaboCha}本論文では,SVMを用いた統計的係り受け解析手法\cite{TKudo02aj}を利用して係り受け解析を行っている.工藤らの手法は,入力文$B$に対する,条件付き確率$P(D\!\mid\!B$)を最大にする係り受けパターン列$D$を求める従来の手法と異なり,チャンキングを段階的に適用することによって係り受け解析を実現している.ここで,入力文$B$とは,あらかじめ文節にまとめられ,属性付けされた文節列${b_1,b_2,...,b_m}$を表しており,係り受けパターン列$D$とは,${Dep(1),Dep(2),...,Dep(m-1)}$を表している.ただし,$Dep(i)$は,文節$b_i$の係り先文節番号を示す.実際には,以下のようなアルゴリズムによって,段階的にチャンキングを行っている.\begin{enumerate}\item入力文節すべてに対し,係り受けが未定であることを示すOタグを付与する.\item文末の文節を除くOタグが付与された文節に対し,直後の文節に係るか否かを判定.係る場合はDタグを付与.文末から2番目の文節には無条件にDタグを付与.\itemOタグの直後にあるすべてのDタグおよびその文節を削除する.\item残った文節が一つ(文末の文節)の場合は終了,それ以外は2.に戻る.\end{enumerate}このアルゴリズムによる解析例を\figref{fig:example_dep}に示す.\begin{figure}[b]\begin{center}\includegraphics{14-5ia7f2.eps}\end{center}\caption{係り受け解析の流れ}\label{fig:example_dep}\end{figure}\figref{fig:example_dep}では,入力として「彼は彼女の温かい真心に感動した.」という文を文節単位に区切ったものが与えられている.そして,それぞれの文節に対して,係り受けが未定であることを示すOタグが付与される.その後,Oタグが付与されている文節に対し,直後の文節に係るか否かを判定する(文末から2番目の文節は無条件にDタグを付与).すると,「温かい」,「真心に」という文節が直後の文節に係ると推定されるので,Dタグが付与される.その後,Oタグの直後にあるすべてのDタグおよびその文節を削除するので,「温かい」という文節を削除する.この文節を削除できる理由としては,削除される文節は,非交差条件を考慮すると,他の文節から修飾されることはなく,それ自身の係り先もすでに同定されているため,係り受け候補として考慮する必要がなくなるためである.以上の作業を,入力が「感動した.」という文節のみになるまで続けると,「彼は」が「感動した.」に,「彼女の」が「真心に」に,「温かい」が「真心に」に,「真心に」が「感動した.」に係ると判定することができる.このアルゴリズムにおける係り受け関係の同定には,SVMを用いている.この場合,従来手法では,訓練データ中の全ての2文節の候補を学習事例として抽出していた.しかし,このような抽出方法では,学習データを不必要に多くしてしまい,学習の効率が悪い.それに対して,工藤らの手法では,学習も解析時と同じアルゴリズムを採用している.つまり,学習で使われる文節のセットは,上のアルゴリズムにおいて隣り合う文節のみであるので,負例が不必要に増えるのを防ぐことができる.SVMの学習・解析に使用する素性は,\tabref{tbl:feature}に示す通りである.\begin{table}[b]\setlength{\tabcolsep}{4pt}\caption{係り受けの学習・解析に使う素性}\label{tbl:feature}\input{07t06.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{14-5ia7f3.eps}\end{center}\caption{係り受け解析例}\label{fig:feature_for_cabocha}\end{figure}静的素性とは,文節の作成時に決定される素性を示しており,動的素性とは,係り関係そのものを素性としたものである.また,主辞とは文節内で品詞が特殊,助詞,接尾辞となるものを除き,文末に一番近い形態素を指し,語形とは文節内で品詞が特殊となるものを除き,文末に一番近い形態素のことを指す.具体的に\figref{fig:feature_for_cabocha}の文において,「して」という文節と「参加した」という文節の係り受け関係の学習・解析に使われる素性について見てみる.まず,係り元,係り先の文節である「して」と「参加した」の主辞,語形の情報と,各文節における括弧の有無,句読点の有無,文節の位置(文頭,文末)が素性として使用される.次に文節間の素性として,文節の距離,文節の間に存在する全ての助詞の見出し,文節間の括弧の有無,文節間の句読点の有無が使用される.「して」と「参加した」の間には,「運動会に」という文節が存在している.よって,文節の距離としては,「2以上5以下」(素性として1,2以上5以下,6以上の3通りの素性を選択)が使用される.文節の間に存在する全ての助詞の見出しとしては,「運動会に」に含まれる「に」が使用される.括弧の有無は,「運動会に」には括弧が含まれていないので「0」,句読点の有無も,句読点が含まれていないので「0」が使用される.動的素性としては,係り先文節「参加した」に係る文節「運動会に」の語形見出し「に」と,係り元文節「して」に係る文節「保護者と」の語形見出し「と」と,係り先文節「参加した」が係る文節「私は,」の主辞品詞「名詞」が使用される.以上の素性の一覧を\tabref{tbl:feature_for_cabocha}に示す.\begin{table}[b]\caption{係り受けの学習・解析に使う素性の例}\label{tbl:feature_for_cabocha}\input{07t07.txt}\end{table}\subsection{機能表現を考慮した係り受け解析}\label{subsec:機能表現を考慮した学習}次に,本論文で提案する,機能表現を考慮した係り受け解析の流れを\figref{fig:flow1}に示す.まず,ChaSenによって形態素解析を行う.次に,形態素解析結果に対して,機能表現検出器を用いて,機能表現検出を行う.その際,検出された機能表現は,構成している形態素列を連結し,一つの形態素として出力される.最後に,その出力結果に対して,機能表現を考慮した係り受け解析器を用いて,係り受け解析を行う.\begin{figure}[b]\begin{center}\includegraphics{14-5ia7f4.eps}\end{center}\caption{機能表現を考慮した係り受け解析}\label{fig:flow1}\end{figure}機能表現を考慮した係り受け解析器の学習において,形態素を連結して作られた機能表現に対して,新たに品詞名を付与する必要がある.用例データベースによると,機能表現は,接続詞相当の働きをするもの(接続詞型)と助詞相当の働きをするもの(助詞型),助動詞相当の働きをするもの(助動詞型)に分類することができる.さらに,助詞型の機能表現は,接続助詞相当のもの(接続辞類),格助詞相当のもの(連用辞類),連体助詞相当のもの(連体辞類)に細分類することができる.そこで,本論文では,\tabref{tbl:kyoto_FE_freq1}のような品詞体系を採用した.そして,現代語複合辞用例集~\cite{NLRI01aj-nlp}に掲載されている各機能表現と品詞分類との対応に基づいて,機能表現への品詞の付与を行った.特に,接続詞型になる可能性のある機能表現については,文頭に出現した場合は接続詞型とし,文頭以外の場合は助詞型とした.本論文では,SVMを用いた統計的係り受け解析手法の学習・解析ツールとしてCaboChaを利用して,機能表現を考慮した係り受け解析器を実現している.その際に,CaboChaの係り受け解析における訓練データを,機能表現を考慮したものに変換している.機能表現を考慮した係り受け解析の訓練データを作成するために必要な情報は二つある.一つは,既存の係り受け情報付与済みコーパスから得られる係り受け関係の情報である.もう一つは,対象文における機能表現の情報である.この二つの情報を用いて\figref{fig:学習の流れ}の流れで,訓練データを作成し,学習を行っている.\begin{figure}[t]\begin{center}\includegraphics{14-5ia7f5.eps}\end{center}\caption{機能表現を考慮した係り受け解析器の学習の流れ}\label{fig:学習の流れ}\end{figure}\figref{fig:学習の流れ}の訓練データ作成モジュールでは,末尾の文節から順に以下の手順に従って処理を行っている.\begin{description}\label{アルゴリズム}\item[1.]機能表現を構成している形態素列を連結する.\item[2.]連結する形態素列が複数の文節にまたがっている場合,文節の連結も行う.連結後の文節の係り先は,連結文節中の末尾の文節の係り先を採用する.\item[3a.]助詞・助動詞型の機能表現の場合で,連結した文節の先頭形態素が,機能表現の場合は,直前の文節に連結する.連結後の文節の係り先は,連結文節中の末尾の文節の係り先を採用する.\item[3b.]接続詞型の機能表現の場合で,一文節が機能表現のみで構成されない場合は,機能表現のみで一文節を構成するように文節を分解する.\item[4.]文節の連結,分解に伴う文節ID,係り先の変化を反映させる.\end{description}\figref{fig:訓練データ作成の流れ}に,機能表現を考慮した係り受け解析の訓練データ作成の例を示す.\figref{fig:訓練データ作成の流れ}中には,「にあたり」という機能表現が存在している.よって,まず格助詞「に」と動詞「あたる」の連用形「あたり」の連結を行う.それに伴い,「年頭に」という文節と「あたり」という文節の連結を行う.連結された「年頭にあたり」という文節の係り先は,「あたり」の係り先を採用する.次に,「年頭にあたり」以降の文節の文節IDと,「年頭にあたり」以降の文節に係る文節の係り先文節IDに対して変更を加える.このような作業をすることによって,機能表現を考慮していない係り受け解析の訓練データを,機能表現を考慮したものに変換していく.\begin{figure}[t]\begin{center}\includegraphics{14-5ia7f6.eps}\end{center}\caption{機能表現を考慮した係り受け解析の訓練データ作成の例}\label{fig:訓練データ作成の流れ}\end{figure}機能表現を考慮しない係り受け解析の学習(\figref{fig:feature_for_cabocha1})と機能表現を考慮した係り受け解析の学習(\figref{fig:feature_for_cabocha2})の間では,学習に使用する素性が異なる.以下では,\figref{fig:feature_for_cabocha1}における「して」という文節,および,\figref{fig:feature_for_cabocha2}における「保護者として」という文節と,「参加した」という文節の間の係り受け関係に注目する.まず,\figref{fig:feature_for_cabocha2}においては,文節の区切りが機能表現を考慮したものになっている.それによって,注目する係り受け関係の係り元文節が,\figref{fig:feature_for_cabocha1}では「して」という文節なのに対し,\figref{fig:feature_for_cabocha2}では「保護者として」となる.この違いによって,\tabref{tbl:feature_change_for_cabocha}に示すように,実際に学習・解析に使用する素性の間にも差違が生じる.具体的には,係り元の文節が「して」から「保護者として」と変化することによって,係り元の主辞が「し」から「保護」に,係り元の語形が「て」から「として」に変化している.また,係り元の文節に係る文節も「保護者と」から「甥の」に変化している.このように学習・解析に使用する素性を機能表現を考慮したものにすることによって,機能表現を考慮した係り受け解析が実現される.\begin{figure}[t]\begin{center}\includegraphics{14-5ia7f7.eps}\end{center}\caption{係り受け解析例(機能表現考慮せず)}\label{fig:feature_for_cabocha1}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{14-5ia7f8.eps}\end{center}\caption{係り受け解析例(機能表現考慮)}\label{fig:feature_for_cabocha2}\end{figure}\begin{table}[t]\caption{係り受けの学習・解析に使う素性の変化}\label{tbl:feature_change_for_cabocha}\input{07t08.txt}\end{table}\subsection{実験と考察}\label{subsec:係り受け解析の実験}本論文で提案する係り受け解析器に対して,学習および解析を行い,各ベースラインと性能比較をした.この際,対象とする表現は,機能表現検出器が対象としていた59表現である.実験で使われた機能表現検出器は,\ref{subsec:実験と考察}節の実験の訓練データで訓練を行ったものである.この際,素性は,形態素素性,チャンク素性,チャンク文脈素性を使用した.\subsubsection{データセット}\label{subsec:cabocha_dataset}係り受け解析器の訓練データとしては,京都テキストコーパス~\cite{Kurohashi97bj}を利用する.ここで,オリジナルの京都テキストコーパスには,機能表現の情報は付与されていないので,まず,京都テキストコーパス38,400文に存在する全ての機能表現に対して,判定ラベルを付与した.これらのデータセットに含まれる各用法の数と,全文数を\tabref{tbl:cabocha_dataset}に示す.\begin{table}[t]\caption{係り受け解析器用データセットの各統計量}\label{tbl:cabocha_dataset}\input{07t09.txt}\end{table}\subsubsection{評価尺度}実験結果を評価する際の尺度には,以下の式で表される係り先精度,係り元精度を用いた.\begin{align*}\mbox{係り先精度}&=\frac{\mbox{係り先を正しく同定できた文節数}}{\mbox{機能表現候補を含む文節数}}\\[1zw]\mbox{係り元精度}&=\frac{\mbox{係り元を正しく同定できた文節数}}{\mbox{機能表現候補を含む文節数}}\end{align*}\subsubsection{評価結果および考察}\begin{table}[b]\caption{係り受け解析の評価結果(\%)}\label{tbl:cabocha_result}\input{07t10.txt}\end{table}機能表現を考慮した係り受け解析器と各ベースラインの精度を\tabref{tbl:cabocha_result}に示す.評価においては,京都テキストコーパスを訓練・評価データとする10分割交差検定を行った.\tabref{tbl:cabocha_result}中の「CaboCha(機能表現抜き)」は,IPAdic辞書に連語として登録されている機能表現の内,評価対象の機能表現にあたるものを機能表現を構成している形態素に分解し,CaboChaの訓練を再度行ったものである.それらの機能表現は,59表現中「ところが」,「にあたって」,「にあたり」,「にかけて」,「に従い」,「につき」,「につけ」,「にとり」,「にかけ」,「として」,「をめぐる」,「という」,「といった」の13表現である.「CaboCha(オリジナル)」は,上記の連語に対して構成形態素への分解を行わず,CaboChaの訓練を再度行ったものである.また,機能表現を考慮した係り受け解析では,機能表現判定ラベルとして,\ref{sec:chunker}~節で述べた検出器により出力された結果を用いた場合,および,人手で付与した正解判定ラベルを用いた場合の二通りを評価した.\tabref{tbl:cabocha_result}を見ると,提案手法は,係り先精度については,ベースラインとの差を見ることができなかったが,係り元精度については,ベースラインと比べ統計的に有意な改善(有意水準5\%)が見られた\footnote{提案手法(検出器出力使用)の係り元精度$0.740(=\frac{5251}{7096})$およびベースライン(CaboCha(機能表現抜き)の係り元精度$0.725(=\frac{5148}{7100})$の母比率の差の検定による.}.よって,機能表現検出や,機能表現を考慮することが,係り元の推定に特に効果的であることがわかった.\begin{figure}[b]\begin{center}\includegraphics{14-5ia7f9a.eps}\\(a)ベースラインによる失敗例\\[.2cm]\includegraphics{14-5ia7f9b.eps}\\(b)提案手法による成功例\end{center}\caption{係り元同定の改善例(助詞型—連用辞類)}\label{depended_sample}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{14-5ia7f10a.eps}\\(a)ベースラインによる失敗例\\[.2cm]\includegraphics{14-5ia7f10b.eps}\\(b)提案手法による成功例\end{center}\caption{係り先同定の改善例(助動詞型)}\label{depend_sample}\end{figure}係り元の推定が改善された\underline{事例}においては,\underline{機能表現}を構成している形態素列を独立に扱うのではなく,一つの機能表現として検出していることが効果的に働いていると考えられる.例えば,「として」の場合,構成要素である形態素列を独立に扱うと,\figref{depended_sample}(a)の例文において,「チェチェン進行を」という文節が動詞を含む文節に係りやすいという特徴をもっているので,誤って「して」という文節に係ってしまう.それに対して,「として」を機能表現として扱った場合,\figref{depended_sample}(b)のように,「チェチェン進行を」の係り先を正しく推定することができる.また,係り元の推定が改悪された\underline{事例}においては,機能表現の検出ミスが改悪の主な原因であった.一方,係り先の推定が改善された\underline{事例}においては,\underline{機能表現}を構成している形態素列を独立した形態素として扱うのではなく,一つの機能表現として検出していることが効果的に働いていると考えられる.例えば,「として」の場合,構成要素である形態素列を独立に扱うと.\figref{depend_sample}(a)のように構成要素の一つである動詞「する」の連用形「し」が,最も近くの動詞と並立に係ると誤判定されることがある.それに対して,「として」を機能表現として扱った場合,\figref{depend_sample}(b)のように係り先を正しく判定できる.逆に,機能表現を考慮した係り受け解析によって,係り先の推定精度があまり改善されない原因としては,内容的用法と機能的用法とで,係り先の特徴が変化する表現がほとんどないということが挙げられる.例えば,『「絶対に勝つ」という自信満々な人もいた.』という文章において,「という」は内容的に働いており,その係り先は「人も」という文節である.また,『トップという名にこだわる人もいる.』という文章において,「という」は機能的に働いており,その係り先は「名に」という文節である.この様に,「という」は内容的用法であっても機能的用法であっても,名詞を含む文節に係る特徴がある.機能表現候補が内容的用法・機能的用法のいずれであるかということは,上で述べた通り,係り先の推定精度の改善にはあまり寄与しない.しかし,機能表現の係り先は,機能表現の品詞分類に依存する傾向がある.例えば,連用辞類の「として」は,動詞を含む文節に係るという特徴をもっているが,連体辞類の「という」は,動詞を含む文節には係らず,名詞を含む文節に係るという特徴を持っている.提案手法では,機能表現の品詞分類を行っており,機能表現の品詞を,相当する既存の品詞の細分類として扱うことによって,この問題を解決している.それに対して,CaboCha(オリジナル)では,全ての機能表現に対して,「助詞—格助詞—連語」という品詞を与え,機能表現の品詞分類を全く行っていない.このことが原因で,CaboCha(オリジナル)の係り先精度が,CaboCha(機能表現抜き)の係り先精度を下回っていると考えられる. \section{関連研究} \label{sec:関連研究}\cite{Uchimoto04aj,Uchimoto04}は,話し言葉コーパス\cite{CSJ}を対象コーパスとして,半自動で精度良く短単位・長単位の2種類の粒度の形態論的情報を付与する枠組みを提案している.この枠組みでは,なるべく少ない人的コストで話し言葉コーパス全体に2種類の粒度の形態素情報を付与するため,最初に短単位の解析を行い,次に,短単位の形態素情報を素性として,短単位をチャンキングすることによって長単位の形態素情報を付与するという手順を採っている.例えば,「という」という機能表現は,短単位列としては助詞「と」および動詞「いう」の連体形の2短単位に分割され,長単位としては助詞「という」という1長単位にチャンキングされる.短単位から長単位をチャンキングするための機械学習手法としては,最大エントロピー法(ME)とSVMを比較し,SVMがより優れていると報告している.内元らの研究は,話し言葉コーパス全体を対象としているのに対して,本論文では,機能表現に焦点をあてて検討を行っている点で異なる.そのため,内元らは話し言葉コーパス中の長単位全体に対する形態素解析精度の評価は行っているが,機能表現に特化した評価は行っていない.一方,本論文では,既存の解析系における機能表現の取り扱い状況を整理した上で,機能表現に特化した性能評価を行っている.また,本論文では,対象となる機能表現のリストを事前に用意しているため,形態素列のどの部分が機能表現として検出される可能性があるかという情報(チャンク素性およびチャンク文脈素性)を利用して,チャンキングを行うことができる.機械学習手法としては,CRFとSVMを比較し,SVMの方が検出性能が高いことを示している.\cite{shudo.coling80,shudo.NL88,shudo.NLC98,shudo.mwe2004}は,機能表現や慣用表現を含む複数の形態素からなる定型的表現をできるだけ網羅的に収集し,機能表現間に類似度を定義して,機能表現の言い換えや機械翻訳に利用することを提案している.\cite{hyoudo.NLC98,hyoudo.NLP99,hyoudo.NLP00}と\cite{isaji.NLP04}は,日本語の文構造の解析を容易にするため,通常よりかなり長い文節を単位として解析を行うことを提案し,機能表現を含む大規模な長単位機能語辞書を作成している.しかし,これらの先行研究における日本語処理系においては,機能表現と同一の形態素列が内容的に振る舞う可能性が考慮されていない.\cite{knp-2.0}と\cite{TKudo02aj}は,機能表現を考慮して,係り受け解析を実現している.\cite{knp-2.0}では,接続詞として形態素解析辞書に登録されている機能表現は,形態素解析時に検出される.次に,構文解析時に,解析規則に記述された特定の形態素列が現れると,直前の文節の一部にまとめたり,直前の文節からの係り受けのみを受けるように制約を加えて,機能表現を考慮した係り受け解析を実現している.\cite{TKudo02aj}では,形態素解析辞書に「助詞・格助詞・連語」や「接続詞」として登録されている機能表現は,形態素解析時に検出される.また,「ざるを得ない」などの表現は直前の文節の一部としてまとめることによって,機能表現を考慮した係り受け解析を実現している.しかし,\ref{subsec:既存の解析系}~節で述べた通り,これらの手法において考慮されている機能表現の数は,我々の一連の研究において対象とした機能表現の数よりも少ない.また,これらの研究では,機能表現検出が係り受け解析にどれだけ効果的かという評価を行っていない.一方,本論文では,評価対象を機能表現候補を含む文節に限定し,機能表現検出が係り受け解析にどのような影響を与えるのかを調べ.機能表現検出が,係り受け解析に効果的であることを示している.\cite{Tsuchiya07aj}では,本論文の\ref{sec:chunker}~節の内容に相当する機能表現のチャンキングについて述べられており,本論文では,この結果をふまえて,機能表現検出の結果を考慮した日本語係り受け解析手法(\ref{sec:係り受け解析}~節)を提案している.\cite{Tsuchiya07aj}と本論文との差分は\ref{sec:係り受け解析}~節の内容に相当するが,技術的な内容を本論文の記述範囲で完結させるために,本論文では,\ref{sec:chunker}~節を設けて,機能表現のチャンキングについても記述している. \section{結論} \label{sec:結論}本論文では,機能表現検出と形態素解析は独立に実行可能であると仮定した上で,形態素を単位とするチャンク同定問題として機能表現検出タスクを定式化し,機械学習手法を適用して機能表現の検出を実現し,さらに,その機能表現検出を利用して日本語機能表現を考慮した係り受け解析を実現した.実際に,SVMを用いたチャンカーYamChaを利用して,形態素解析器ChaSenによる形態素解析結果を入力とする機能表現検出器を実装し,59種類の機能表現を対象として性能評価を行った.その結果,機械学習によって作成した機能表現検出器は,既存の解析系および人手で作成した規則を用いた検出器よりも,高精度に機能表現を検出できることを示した.係り受け解析に関しても,機能表現を考慮した訓練データから,係り受け解析・学習ツールをCaboChaを利用して学習を行い,機能表現検出器の解析結果を入力とす日本語機能表現を考慮した係り受け解析器を実装した.59種類の機能表現を対象とした評価実験において,総体的に従来のCaboChaよりもよい性能を示すことができた.今後の研究課題として,対象とする機能表現の種類を増やし,その性能を評価することを計画している.また,格解析との統合的解析の実現により,解析性能をさらに改善することが期待できると考えている.\newcommand{\gengoshori}{}\newcommand{\kokuken}{}\begin{thebibliography}{}\bibitem[\protect\BCAY{浅原松本}{浅原\JBA松本}{2003}]{ipadic-2.6.1}浅原正幸\BBACOMMA\松本裕治\BBOP2003\BBCP.\newblock\JBOQ{IPAdic}version2.6.1ユーザーズマニュアル\JBCQ\\newblock\url{http://chasen.aist-nara.ac.jp/chasen/doc/ipadic-2.6.1-j.pdf}.\bibitem[\protect\BCAY{Cristianini\BBA\Shawe-Taylor}{Cristianini\BBA\Shawe-Taylor}{2000}]{SVM}Cristianini,N.\BBACOMMA\\BBA\Shawe-Taylor,J.\BBOP2000\BBCP.\newblock{\BemAnIntroductionto{S}upport{V}ector{M}achinesand{O}ther{K}ernel-based{L}earning{M}ethods}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{兵藤池田}{兵藤\JBA池田}{1999}]{hyoudo.NLP99}兵藤安昭\BBACOMMA\池田尚志\BBOP1999\BBCP.\newblock\JBOQ文節単位のコストに基づく日本語文節解析システム\JBCQ\\newblock\Jem{言語処理学会第5回年次大会発表論文集},\BPGS\502--504.\bibitem[\protect\BCAY{兵藤,村上,池田}{兵藤\Jetal}{2000}]{hyoudo.NLP00}兵藤安昭,村上裕,池田尚志\BBOP2000\BBCP.\newblock\JBOQ文節解析のための長単位機能語辞書\JBCQ\\newblock\Jem{言語処理学会第6回年次大会発表論文集},\BPGS\407--410.\bibitem[\protect\BCAY{兵藤,若田,池田}{兵藤\Jetal}{1998}]{hyoudo.NLC98}兵藤安昭,若田光敏,池田尚志\BBOP1998\BBCP.\newblock\JBOQ文節ブロック間規則による浅い係り受け解析と精度評価\JBCQ\\newblock\Jem{電子情報通信学会研究報告},NLC98-30\JVOL.\bibitem[\protect\BCAY{伊佐治,山田,池田}{伊佐治\Jetal}{2004}]{isaji.NLP04}伊佐治和哉,山田将之,池田尚志\BBOP2004\BBCP.\newblock\JBOQ長単位の機能語を辞書に持たせた文節構造解析システムibukiC\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集},\BPGS\636--639.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{2001}]{NLRI01aj-nlp}国立国語研究所\BBOP2001\BBCP.\newblock\Jem{現代語複合辞用例集}.\bibitem[\protect\BCAY{Kudo,,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{TKudo04b}Kudo,T.,,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldsto{Japanese}MorphologicalAnalysis\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\BPGS\230--237.\bibitem[\protect\BCAY{工藤松本}{工藤\JBA松本}{2002a}]{TKudo02bj}工藤拓\BBACOMMA\松本裕治\BBOP2002a\BBCP.\newblock\JBOQ{SupportVectorMachineを用いたChunk同定}\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(5),3--21.\bibitem[\protect\BCAY{工藤松本}{工藤\JBA松本}{2002b}]{TKudo02aj}工藤拓\BBACOMMA\松本裕治\BBOP2002b\BBCP.\newblock\JBOQチャンキングの段階適用による日本語係り受け解析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(6),1834--1842.\bibitem[\protect\BCAY{Kudoh}{Kudoh}{2000}]{tinysvm}Kudoh,T.\BBOP2000\BBCP.\newblock\BBOQ{TinySVM:SupportVectorMachines}\BBCQ\\newblock\url{http://cl.aist-nara.ac.jp/~taku-ku/software/TinySVM/index.html}.\bibitem[\protect\BCAY{黒橋河原}{黒橋\JBA河原}{2005a}]{juman-5.1}黒橋禎夫\BBACOMMA\河原大輔\BBOP2005a\BBCP.\newblock\Jem{日本語形態素解析システム{JUMAN}version5.1使用説明書}.\newblock\url{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/juman/juman-5.1.tar.gz}.\bibitem[\protect\BCAY{黒橋河原}{黒橋\JBA河原}{2005b}]{knp-2.0}黒橋禎夫\BBACOMMA\河原大輔\BBOP2005b\BBCP.\newblock\Jem{日本語構文解析システム{KNP}version2.0使用説明書}.\newblock\url{http://nlp.kuee.kyoto-u.ac.jp/nl-resource/knp/knp-2.0.tar.gz}.\bibitem[\protect\BCAY{黒橋長尾}{黒橋\JBA長尾}{1997}]{Kurohashi97bj}黒橋禎夫\BBACOMMA\長尾眞\BBOP1997\BBCP.\newblock\JBOQ京都大学テキストコーパス・プロジェクト\JBCQ\\newblock\Jem{言語処理学会第3回年次大会発表論文集},\BPGS\115--118.\bibitem[\protect\BCAY{Lafferty,Mc{C}allum,\BBA\Pereira}{Laffertyet~al.}{2001}]{CRF}Lafferty,J.,Mc{C}allum,A.,\BBA\Pereira,F.\BBOP2001\BBCP.\newblock\BBOQConditional{R}andom{F}ields:{P}robabilistic{M}odelsfor{S}egmentingand{L}abeling{S}equence{D}ata\BBCQ\\newblockIn{\BemProceedingsofICML},\BPGS\282--289.\bibitem[\protect\BCAY{前川}{前川}{2004}]{CSJ}前川喜久雄\BBOP2004\BBCP.\newblock\Jem{『日本語話し言葉コーパス』の概観ver.1.0}.\newblock\url{http://www2.kokken.go.jp/~csj/public/members_only/manuals/overview10.pdf}.\bibitem[\protect\BCAY{松本,北内,山下,平野,松田,高岡,浅原}{松本\Jetal}{2003}]{chasen-2.3.3}松本裕治,北内啓,山下達雄,平野善隆,松田寛,高岡一馬,浅原正幸\BBOP2003\BBCP.\newblock\JBOQ形態素解析システム{C}ha{S}enversion2.3.3使用説明書\JBCQ\\newblock\url{http://chasen.aist-nara.ac.jp/chasen/doc/chasen-2.3.3-j.pdf}.\bibitem[\protect\BCAY{松吉,佐藤,宇津呂}{松吉\Jetal}{2005}]{接続情報にもとづく助詞型機能表現の自動検出}松吉俊,佐藤理史,宇津呂武仁\BBOP2005\BBCP.\newblock\JBOQ接続情報にもとづく助詞型機能表現の自動検出\JBCQ\\newblock\Jem{言語処理学会第11回年次大会論文集},\BPGS\1044--1047.\bibitem[\protect\BCAY{松吉,佐藤,宇津呂}{松吉\Jetal}{2006}]{Matsuyoshi06ajm}松吉俊,佐藤理史,宇津呂武仁\BBOP2006\BBCP.\newblock\JBOQ階層構造による日本語機能表現の分類\JBCQ\\newblock\Jem{言語処理学会第12回年次大会論文集},\BPGS\408--411.\bibitem[\protect\BCAY{森田松木}{森田\JBA松木}{1989}]{Morita89aj}森田良行\BBACOMMA\松木正恵\BBOP1989\BBCP.\newblock\Jem{日本語表現文型},\Jem{NAFL選書},5\JVOL.\newblockアルク.\bibitem[\protect\BCAY{中塚,佐藤,宇津呂}{中塚\Jetal}{2005}]{助動詞型機能表現の形態・接続情報と自動検出}中塚裕之,佐藤理史,宇津呂武仁\BBOP2005\BBCP.\newblock\JBOQ助動詞型機能表現の形態・接続情報と自動検出\JBCQ\\newblock\Jem{言語処理学会第11回年次大会論文集},\BPGS\596--599.\bibitem[\protect\BCAY{Shudo,Narahara,\BBA\Yoshida}{Shudoet~al.}{1980}]{shudo.coling80}Shudo,K.,Narahara,T.,\BBA\Yoshida,S.\BBOP1980\BBCP.\newblock\BBOQMorphologicalAspectofJapaneseLanguageProcessing\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalConferenceonComputationalLinguistics(COLING'80)},\BPGS\1--8.\bibitem[\protect\BCAY{首藤,小山,高橋,吉村}{首藤\Jetal}{1998}]{shudo.NLC98}首藤公昭,小山泰男,高橋雅仁,吉村賢治\BBOP1998\BBCP.\newblock\JBOQ依存構造に基づく言語表現の意味的類似度\JBCQ\\newblock\Jem{電子情報通信学会研究報告},NLC98-30\JVOL,\BPGS\33--40.\bibitem[\protect\BCAY{Shudo,Tanabe,Takahashi,\BBA\Yoshimura}{Shudoet~al.}{2004}]{shudo.mwe2004}Shudo,K.,Tanabe,T.,Takahashi,M.,\BBA\Yoshimura,K.\BBOP2004\BBCP.\newblock\BBOQMWEsasNon-propositionalContentIndicators\BBCQ\\newblockIn{\BemProceedingsofthe2ndACLWorkshoponMultiwordExpressions:IntegratingProcessing(MWE-2004)},\BPGS\32--39.\bibitem[\protect\BCAY{首藤,吉村,武内,津田}{首藤\Jetal}{1988}]{shudo.NL88}首藤公昭,吉村賢治,武内美津乃,津田健蔵\BBOP1988\BBCP.\newblock\JBOQ日本語の慣用的表現について---語の非標準的用法からのアプローチ---\JBCQ\\newblock\Jem{情報処理学会研究報告},1988-NL-66\JVOL,\BPGS\1--7.\bibitem[\protect\BCAY{{TjongKimSang}}{{TjongKimSang}}{2000}]{Sang00a}{TjongKimSang},E.\BBOP2000\BBCP.\newblock\BBOQNounPhraseRecognitionbySystemCombination\BBCQ\\newblockIn{\BemProceedingsofthe1stConferenceof{NAACL}},\BPGS\50--55.\bibitem[\protect\BCAY{土屋,注連,高木,内元,松吉,宇津呂,佐藤,中川}{土屋\Jetal}{2007}]{Tsuchiya07aj}土屋雅稔,注連隆夫,高木俊宏,内元清貴,松吉俊,宇津呂武仁,佐藤理史,中川聖一\BBOP2007\BBCP.\newblock\JBOQ機械学習を用いた日本語機能表現のチャンキング\JBCQ\\newblock\Jem{自然言語処理},{\Bbf14}(1),111--138.\bibitem[\protect\BCAY{土屋,宇津呂,松吉,佐藤,中川}{土屋\Jetal}{2006}]{日本語複合辞用例データベースの作成と分析}土屋雅稔,宇津呂武仁,松吉俊,佐藤理史,中川聖一\BBOP2006\BBCP.\newblock\JBOQ日本語複合辞用例データベースの作成と分析\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf47}(6).\bibitem[\protect\BCAY{土屋,宇津呂,佐藤,中川}{土屋\Jetal}{2005}]{形態素情報を用いた日本語機能表現の検出}土屋雅稔,宇津呂武仁,佐藤理史,中川聖一\BBOP2005\BBCP.\newblock\JBOQ形態素情報を用いた日本語機能表現の検出\JBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\BPGS\584--587.\bibitem[\protect\BCAY{Uchimoto,Takaoka,Nobata,Yamada,Sekine,\BBA\Isahara}{Uchimotoet~al.}{2004}]{Uchimoto04}Uchimoto,K.,Takaoka,K.,Nobata,C.,Yamada,A.,Sekine,S.,\BBA\Isahara,H.\BBOP2004\BBCP.\newblock\BBOQMorphologicalAnalysisoftheCorpusofSpontaneousJapanese\BBCQ\\newblock{\BemIEEETransactionsonSpeechandAudioProcessing},{\Bbf12}(4).\bibitem[\protect\BCAY{内元,高岡,野畑,山田,関根,井佐原}{内元\Jetal}{2004}]{Uchimoto04aj}内元清貴,高岡一馬,野畑周,山田篤,関根聡,井佐原均\BBOP2004\BBCP.\newblock\JBOQ『日本語話し言葉コ-パス』への形態素情報付与\JBCQ\\newblock\Jem{第3回「話し言葉の科学と工学」ワークショップ論文集},\BPGS\39--46.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1998}]{Vapnik98a}Vapnik,V.~N.\BBOP1998\BBCP.\newblock{\BemStatisticalLearningTheory}.\newblockWiley-Interscience.\end{thebibliography}\begin{biography}\bioauthor{注連隆夫}{2005年大阪府立大学工学部卒業.2007年京都大学大学院情報学研究科修士課程修了.現在,日本電気株式会社C\&Cイノベーション研究所勤務.在学中は自然言語処理の研究に従事.}\bioauthor{土屋雅稔}{1998年京都大学工学部電気工学科第二学科卒業.2004年京都大学大学院情報学研究科知能情報学専攻博士後期課程単位認定退学.2004年より豊橋技術科学大学情報メディア基盤センター助手.2007年より同助教.京都大学博士(情報学).自然言語処理に関する研究に従事.}\bioauthor{松吉俊}{2003年京都大学理学部卒業.2005年同大学院情報学研究科修士課程修了.現在,同大学院情報学研究科博士後期課程在学中.自然言語処理の研究に従事.}\bioauthor{宇津呂武仁}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学大学院工学研究科博士課程電気工学第二専攻修了.京都大学博士(工学).奈良先端科学技術大学院大学情報科学研究科助手,豊橋技術科学大学工学部情報工学系講師,京都大学情報学研究科知能情報学専攻講師を経て,2006年より筑波大学大学院システム情報工学研究科知能機能システム専攻助教授.2007年より同准教授.自然言語処理の研究に従事.}\bioauthor{佐藤理史}{1983年京都大学工学部電気工学第二学科卒業.1988年同大学院工学研究科博士後期課程電気工学第二専攻研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学情報科学研究科助教授,京都大学大学院情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科電子情報システム専攻教授.工学博士.自然言語処理,情報の自動編集等の研究に従事.}\end{biography}\biodate\end{document}
V32N02-06
\section{はじめに} \label{sec:introduction}人工知能の実現に向けて古くから,知識と推論という要素が不可欠だと考えられてきた\linebreak\cite{Mccarthy1959ProgramsWC,weizenbaum1966eliza,winograd1971procedures,colmerauer1973prolog,shortliffe1976computer,elkan1993building}.知識とは例えば「質量を持つ物体は重力場を発生させる」「地球は質量を持つ」といった,この世界に関する事実を指す.一方で推論とは,複数の事実を組み合わせることで新たな知識を得る思考形態である.例えば上述の2つの事実から「地球は重力場を発生させる」という新たな知識を得る.最近の観察によると,巨大言語モデル(LargeLanguageModel,LLM)は,事前学習時に得た知識により類似の課題を解くことはできる一方で,推論を用いて新規の課題は解くことを苦手とする\cite{hodel2023response,dasgupta2023language,zhang2024careful}.例えば,「有名な算数の問題をそのままの形で出題すれば解けるが,数字や人名を変更すると解けなくなる」\cite{razeghi2022impact,mirzadeh2024gsmsymbolicunderstandinglimitationsmathematical},「(知識カットオフ以前の)過去年度のコーディング試験は解けるが,最新年度の試験は解けない」\cite{melanie2023blog}等である.このような「LLMが推論を苦手とする」という観察結果が,近年多く得られている(\Cref{sec:LLM_does_not_reason}).LLMの推論能力が低い理由として「事前学習コーパス中に高品質な推論サンプルが不足している」ということが疑われる\cite{betz-etal-2021-critical}.事前学習コーパスは主に人間が書いたテキストで構成されている.その中でも,例えばオンライン討論等が推論のサンプルとしての役割を果たす可能性がある.%%%%しかしながら,これら討論には,誤謬やバイアスが散見される\cite{hansson2004fallacies,Cheng:2017ud,guiacsu2018logical}.しかしながら,これら討論には,誤謬やバイアスが散見される(Hansson2004;Chengetal.2017;GuiasuandTindale2018).\nocite{hansson2004fallacies,Cheng:2017ud,guiacsu2018logical}これは,人間が通常,厳密な推論をするのではなく,反射的に物事を考える\cite{kahneman2011thinking,SunsteinHastie2015,Paglieri2017}からである.以上を考えると,LLMの推論能力を向上させる最も直截的な戦略は,「高品質な推論サンプルを用意して,LLMに学習させること」だと考えられる.そこで本研究では,推論の中でも最も基本的な「論理推論」の高品質サンプルを用いた追加学習,すなわち,\textbf{\ALTJP}(\textbf{AdditionalLogicTraining,\ALT})を提案する(\Cref{fig:ALT_overview}).論理推論サンプルは,与えられた事実群を推論規則に従って組み合わせることで,与えられた仮説を証明(あるいは反証)する過程を示すものである.このようなサンプルを用意するために,ルールベースによる自動生成のアプローチ\cite{clark2020transformers,betz-etal-2021-critical,tafjord-etal-2021-proofwriter}を採用する.ルールベース自動生成は,推論規則に厳密に従ったサンプルを大量に用意できる,というメリットがある.また,一定のランダム性を持たせることで,サンプルに多様性を持たせることも可能である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{32-2ia5f01.eps}\end{center}\hangcaption{\textbf{\ALTJP}(\textbf{AdditionalLogicTraining,\ALT})は,論理推論サンプルでの学習を通して,LLMの推論能力の向上を目指す.サンプル生成器がまず多段階演繹推論のサンプルを生成し(左),それを英語で書かれたサンプルに変換する(右).LLMは,与えられた\textbf{\colorBlueFacts{事実}}から,与えられた\textbf{\colorVioletHypothesis{仮説}}を導出するために,\textbf{\colorRedLogicalSteps{論理ステップ}}を生成する.サンプル生成器は,\Cref{sec:design_principles}で確立される設計指針に従う.実際に生成されたサンプルを\Cref{appendix:fig:deduction_example,appendix:fig:deduction_example_JFLD}に示す.}\label{fig:ALT_overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ルールベース自動生成では,『事前に定義された設計』に従ってサンプルが生成される.よって,このサンプル設計が必然的に,サンプルの品質を大きく決定づける.そこで我々はまず,\textbf{「論理推論サンプルの理想的な設計とは何か」}を議論することから始める(\Cref{sec:design_principles}).まず,論理推論は,「事実の内容」ではなく「事実間の論理的な関係性」のみに着目する思考形態であるため,既知の事実も未知の事実も等しく取り扱うことができる.このことは,既知の事実のみを取り扱う知識とは大きく異なる,論理推論の核心である.そこで,LLMに対してこの論理推論の核心を教えるため,論理推論サンプルも未知の事実での推論を例示すべきである(\Cref{sec:principle_unseen}).次に,LLMに対して,「事実が不十分な場合は,新たな事実を導くことは\underline{できない}」ということを例示するためのサンプルも含めるべきである(\Cref{sec:principle_negatives}).更に,「推論規則」や「論理式を示す同義の言語表現」などはそれぞれ様々なパターンがありうるため,これらを網羅的に含めるべきである(\Cref{sec:principle_deduction_rules,sec:principle_linguistic_diversity}).我々は,これらのポイントを,論理推論サンプルの\textbf{設計指針}としてまとめる.そして,この設計指針に従った論理推論サンプルを自動生成するための手法(プログラム)を開発し,論理推論サンプル10万件から構成される人工論理推論コーパス\textbf{\PLDItalic}(\PLDAbbr)を構築する(\Cref{sec:PLD}).次に,\ALTJPによってLLMの推論能力が向上することを実験により確認する(\Cref{sec:experiments,sec:results_and_discussions_method}).最先端のLLMすなわちLLaMA-3.1(8B/70B)\に対して,\PLDAbbr\での\ALTJPを施すことにより,\numBenchmarks\種類の多様なベンチマークにおいて性能向上を確認した(\Cref{fig:performance_comparison}).また,既存の人工論理推論コーパスに比べて,\PLDAbbrはより大きな性能向上をもたらした.これは,我々が提案する設計指針がLLMの推論を向上させる上で効果的であることを示している.加えて,\ALTJPでは「破滅的忘却を防止する手段を採ること」が極めて重要であることが分かった.これは,「人工論理推論コーパスに含まれる未知の事実を覚えることによって,既存の事実を忘れていってしまう」という事態を防げるからだと考えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{32-2ia5f02.eps}\end{center}\hangcaption{\llamaThreeLargeBaseline\と,それに対して\PLDAbbr上での\ALTJPを施したモデル(+\ALT)の精度.「Benchmarksets」中の「論理推論」「数学」「\dots」はそれぞれが,そのドメインの様々なベンチマークから構成されており(\Cref{appendix:tb:benchmarks}),ここでは平均精度を示す.結果の詳細は\Cref{tb:performance_aggregated,tb:performance_details}に示す.}\label{fig:performance_comparison}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%最後に,\ALTJPにより「どのようなタスクが」「なぜ」解けるようになるかを分析する(\Cref{sec:results_and_discussions_tasks}).論理推論タスクでは最大30ポイントという大幅な性能向上が得られた(\Cref{tb:which_task_logical_reasoning}).事例ごとの分析(\Cref{tb:case_study})により,これらの性能向上は,設計指針で意図した「論理の基礎」をLLMが獲得したことによると示唆される.また,驚くべきことに,人工論理推論コーパスのサンプルとは真逆の「結論から事実を予測する」仮説推論タスクでも性能が向上した.数学では最大7ポイントの性能向上が得られた(\Cref{tb:which_task_math}).論理推論は数学の問題を解くための前提知識なので自然である.コーディングでは最大10ポイントの性能向上が得られ,コーディング能力と論理推論能力の関係が示唆される(\Cref{tb:which_task_coding}).自然言語推論(NLI)タスクの性能向上(\Cref{tb:which_task_NLI})は,LLMが事前学習で元々獲得していた常識知識と,\ALTJPから新たに獲得した推論能力を,統合できた可能性を示唆する.その他の様々なタスクでも性能向上が見られた一方で,向上幅は最大2ポイント程度と小さかった(\Cref{tb:which_task_others}).これは,\ALTJPにより得られる推論能力をより効果的に「使いこなし」て多様な問題を解くために,今後の研究が必要であることを示唆する.本研究の貢献を以下にまとめる.\begin{itemize}\item人工論理推論コーパスを用いた\textbf{\ALTJP}(\textbf{AdditionalLogicTraining,\ALT})を提案し,最先端のLLMの推論能力を向上させられることを確認した.\item論理推論サンプルの確固たる設計指針を確立し,それに基づく人工論理推論コーパス\textbf{\PLDItalic}(\PLDAbbr)を構築した.\PLDAbbr\による性能向上が既存コーパスよりも大きいことを確認し,設計指針の正しさを示した.\item分析により,\ALTJPにより強化されたLLMが,論理推論はもとより,数学やコーディング,NLI等の様々なタスクで性能が向上することを示した.\end{itemize}なお,コーパス・コード・学習済みモデルを公開する\footnote{\url{https://github.com/hitachi-nlp/FLD}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{論理推論サンプルをどう設計すべきか} \label{sec:design_principles}ルールベース自動生成では,『事前に定義された設計』に従ってサンプルが生成される.よって,このサンプル設計が必然的に,サンプルの品質を大きく決定づける.しかしながら,先行研究\cite{clark2020transformers,betz-etal-2021-critical,tafjord-etal-2021-proofwriter}では,良い設計,すなわち,論理推論能力を獲得するために最適な設計とは何かについて,体系的な議論がなされてきていない.そこで我々は,論理推論サンプルの設計を探求する.このために,記号論理学や過去の哲学的論考,また近年の先行研究や我々の予備実験から得られている知見を参照しつつ議論しながら,設計の指針を打ち立てていく.まず,論理推論は,事実間の論理的な関係性のみに着目する思考形態であるため,既存事実のみならず,未知の事実も取り扱うことができる.このことは,既存の事実のみを取り扱う知識と大きく異なる,論理推論の核心である.そこで,LLMに対してこの論理推論の核心を教えるため,論理推論サンプルも未知の事実での推論を例示すべきである(\Cref{sec:principle_unseen}).次に,LLMに対して,「前提事実が不十分な場合は結論を導いてはいけない」ということを教えるために,前提事実が不十分なサンプルも含めるべきである(\Cref{sec:principle_negatives}).更に,「推論規則」や「論理式を示す同義の言語表現」などはそれぞれ様々なパターンがありうるため,これらを網羅的に含めるべきである(\Cref{sec:principle_deduction_rules,sec:principle_linguistic_diversity}).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{未知なる事実での推論を教える}\label{sec:principle_unseen}まず,以下の一段論理ステップを考えてみる:{\small\begin{equation}\begin{mathprooftree}\AxiomC{\stackanchor{1.地球は太陽を}{周回している}}\AxiomC{\stackanchor{2.もし地球が太陽を周回すれば,}{地球には四季がある.}}\BinaryInfC{地球には四季がある.}\end{mathprooftree}\label{eq:argument:first}\end{equation}}2つの前提事実から結論を論理的に導いており,妥当である.次に,別の論理ステップを考える:{\small\begin{equation}\begin{mathprooftree}\AxiomC{\stackanchor{1.地球は太陽を}{周回している}}\AxiomC{\stackanchor{2.もし地球が太陽を周回すれば,}{地球には四季が\red{ない.}}}\BinaryInfC{地球には四季が\red{ない.}}\end{mathprooftree}\label{eq:argument:second}\end{equation}\par}\noindent前提事実2は誤りなので結論も誤りである.しかしながら,\ul{もし仮に前提事実が正しかったとしたら}結論は論理的に出てくる.よって\Cref{eq:argument:second}も依然として\underline{論理的には}妥当である.最後に:{\small\begin{equation}\begin{mathprooftree}\AxiomC{\stackanchor{1.ぴよぴよがある}{}}\AxiomC{\stackanchor{2.もしぴよぴよがあれば,}{ぽよぽよもある.}}\BinaryInfC{ぽよぽよがある.}\end{mathprooftree}\label{eq:argument:third}\end{equation}}「ぴよぴよ」や「ぽよぽよ」は未知の何かであるが,それでもなお,\Cref{eq:argument:third}が論理的に妥当であることだけは分かる.\crefrange{eq:argument:first}{eq:argument:third}は記号を用いて\textbf{演繹規則}に抽象化できる:\begin{equation}\begin{mathprooftree}\AxiomC{$\mathcal{F}$}\AxiomC{$\mathcal{F}\rightarrow\mathcal{G}$}\RightLabel{\stackanchor{modusponens}{\tiny(モーダス・ポネンス)}}\BinaryInfC{$\mathcal{G}$}\end{mathprooftree}\label{eq:argument:modus_ponens}\end{equation}これまで見てきたように,演繹規則の論理的な妥当性はあくまで,前提事実から結論が「論理的に導かれるか」のみに依存しており,$\mathcal{F}$や$\mathcal{G}$の内容の「事実としての正しさ」($\fallingdotseq$知識的な正しさ)には依存しない.\textbf{すなわち,$\mathcal{F}$や$\mathcal{G}$の内容は任意のものが許される.}$\mathcal{F}$や$\mathcal{G}$は任意であるので,特に未知のものでもよかった:例えば,「ぴよぴよ」とか「ぽよぽよ」といったような「今までに一度も遭遇したことがない未知のもの」に対しても,論理を辿ることで思考を進めることができる.論理推論のこの性質は,既存事実のみを取り扱う知識とは対象的であり,未知なる問題を解く上で極めて重要となる.さて,演繹規則\Cref{eq:argument:modus_ponens}を教えるために,どのようなサンプルが必要となるかを考える.さしあたり,前提事実をプロンプトとして入力し,結論を生成させるタスクを想定する.サンプル\Cref{eq:argument:first,eq:argument:second}から,一見,背後に潜む演繹規則\Cref{eq:argument:modus_ponens}を推察できるように思われる.なぜならば,演繹規則\Cref{eq:argument:modus_ponens}は,サンプル\Cref{eq:argument:first,eq:argument:second}の両方ともを,説明することができるからである.しかしながら,サンプル\Cref{eq:argument:first,eq:argument:second}の背後に潜む演繹規則として,例えば以下のようなものを考えることもできる:「$\mathcal{F}$と$\mathcal{F}\rightarrow\mathcal{G}$が前提事実として与えられ,\underline{かつ$\mathcal{F}$と$\mathcal{G}$に``地球''という単語が}\linebreak\underline{含まれている場合に限り},結論$\mathcal{G}$を導いてよい」あるいは「\dots\ul{かつ天文学に関係する単語が含まれている場合に限り}\dots」というような演繹規則である.これら演繹規則であっても,サンプル\Cref{eq:argument:first,eq:argument:second}の両方ともを説明することができる.このように,与えられたサンプルから帰納的に一般化可能な演繹規則は,無数に存在する.言い換えれば,\textbf{帰納には恣意性がある}\cite{hume1748enquiry,goodman1954fact,quine1969epistemology}.従って,サンプル\Cref{eq:argument:first,eq:argument:second}を演繹規則\Cref{eq:argument:modus_ponens}のみに一般化させることはできない.人間は,仮にサンプル\Cref{eq:argument:first,eq:argument:second}のみが与えられた場合であっても,無数の演繹規則の中から演繹規則\Cref{eq:argument:modus_ponens}のみを選び取ることができたかもしれない.これがなぜかは諸説あるが,例えば「人間は単純な規則を求める」\cite{russel1946,wittgenstein1922tractatus}という説などがある.理由がどうあれ,人間は,正しい演繹規則を選択するための選好を\underline{事前に}持ち合わせている.一方,LLMはこのような選好を持たないため,サンプル\Cref{eq:argument:first,eq:argument:second}からどの演繹規則を選択するかは未知数(不定)である.例えば$\mathcal{F},\mathcal{G}$に,「地球は\dots」のような特定の内容が入ったサンプルのみを学習すると,$\mathcal{F},\mathcal{G}$が「地球」を含む場合にのみ結論$\mathcal{G}$を導出する演繹規則を,選びかねない.それでは,LLMに対して$\mathcal{F}$や$\mathcal{G}$が任意であると理解させるために必要なサンプルはどのようなものかというと:\begin{tcolorbox}[left=3.0mm,right=3.0mmtop=3.0mm,bottom=3.0mm,right=3.0mm]\noindent\underline{\textbf{設計指針1}(未知なる事実での推論)}\\$\mathcal{F}$や$\mathcal{G}$に任意の内容を割り当てた大量のサンプルを用意する.これにより,LLMに対して,$\mathcal{F}$や$\mathcal{G}$がまさしく任意であることを正確に帰納せしめ,結果として,未知の事実に対しても推論ができるように育てる.\end{tcolorbox}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{「前提事実が不十分な場合は結論を導けないこと」を教える}\label{sec:principle_negatives}LLMに対して,設計指針1に基づき,以下のようなサンプルを大量に学習させたとする:\begin{equation}\begin{mathprooftree}\AxiomC{$\mathcal{F}\land\mathcal{G}$}\AxiomC{$(\mathcal{F}\land\mathcal{G})\rightarrow\mathcal{H}$}\BinaryInfC{$\mathcal{H}$}\end{mathprooftree}\label{eq:argument:and_modus_ponens}\end{equation}ここで$\land$は論理積を表し,$\mathcal{F},\mathcal{G},\mathcal{H}$には任意の内容が割り当てられているとする.この演繹規則も論理的に妥当であることに注意されたい.さて,このLLMに対して,以下のような問題を与えたとする:\begin{equation}\begin{mathprooftree}\AxiomC{$\mathcal{F}$}\AxiomC{$(\mathcal{F}\land\mathcal{G})\rightarrow\mathcal{H}$}\BinaryInfC{$??$}\end{mathprooftree}\label{eq:argument:and_modus_ponens_collapsed}\end{equation}\Cref{eq:argument:and_modus_ponens}と比べると1つ目の前提事実の形が少し変わっており,前提事実が不十分である($\mathcal{G}$が足りない)ため,結論を論理的に導くことができない.よって「何も出力しない」ことが正解である.残念ながら,LLMは$\mathcal{H}$を出力してしまう場合が多い.理由は以下である.サンプル\Cref{eq:argument:and_modus_ponens}は,「\Cref{eq:argument:and_modus_ponens}の前提事実2つが入ってきたときに結論$\mathcal{H}$を生成してよいこと」を帰納せしめることはできる.しかしながら,「\Cref{eq:argument:and_modus_ponens_collapsed}の前提事実が入ってきたときに結論$\mathcal{H}$を生成しては\underline{いけない}」ということは,\Cref{eq:argument:and_modus_ponens}からは帰納できない.そのような情報はサンプル\Cref{eq:argument:and_modus_ponens}自体には含まれていなからである.もちろん人間なら,サンプル\Cref{eq:argument:and_modus_ponens}のみを見せられた場合であっても,「問題\Cref{eq:argument:and_modus_ponens_collapsed}はサンプル\Cref{eq:argument:and_modus_ponens}には該当しない.よって,論理的に何も言えないのではないだろうか」というような推測をすることができるかもしれない.しかしながら,LLMは,「該当するものが無いから論理的に何も言えないのではないだろうか」と推測するような機構を\underline{事前に}備えていない.結果として,問題\Cref{eq:argument:and_modus_ponens_collapsed}が出されたときに,形が似ているサンプル\Cref{eq:argument:and_modus_ponens}と同じ回答を生成してしまう,ということが起こり得る.LLMに対して,このような「論理的に何も言えない」ということを教えるためには,そのようなサンプル例を直接含める必要がある:\begin{tcolorbox}[left=3.0mm,right=3.0mmtop=3.0mm,bottom=3.0mm,right=3.0mm]\noindent\underline{\textbf{設計指針2}(不十分な前提)}\Cref{eq:argument:and_modus_ponens_collapsed}のような,前提事実が不十分なサンプルを含める.これらのサンプルにより,LLMに対して,「不十分な前提からは結論を導き出せないこと」を教える.\end{tcolorbox}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{多様な演繹規則を教える}\label{sec:principle_deduction_rules}Modusponens\Cref{eq:argument:modus_ponens}以外にも,様々な演繹規則が存在する:\begin{align}\begin{mathprooftree}\Axiom$(\mathcal{F}\fCenter\land\mathcal{G})$\UnaryInf$\fCenter\mathcal{F}$\end{mathprooftree}\\begin{mathprooftree}\Axiom$(\mathcal{F}\fCenter\land\mathcal{G})$\RightLabel{\stackanchor{$\land$除去}{}}\UnaryInf$\fCenter\mathcal{G}$\end{mathprooftree}&\\\\\\begin{mathprooftree}\Axiom$(\mathcal{F}\rightarrow\mathcal{G})\fCenter\land(\mathcal{G}\rightarrow\mathcal{H})$\RightLabel{\stackanchor{三段論法}{}}\UnaryInf$\mathcal{F}\fCenter\rightarrow\mathcal{H}$\end{mathprooftree}\nonumber\\\begin{mathprooftree}\Axiom$\mathcal{F}\fCenter\rightarrow\mathcal{G}$\RightLabel{\stackanchor{対偶}{}}\UnaryInf$\neg\mathcal{G}\fCenter\rightarrow\neg\mathcal{F}$\end{mathprooftree}&\\\\\\begin{mathprooftree}\Axiom$\neg(\mathcal{F}\fCenter\lor\mathcal{G})$\UnaryInf$\neg\mathcal{F}\fCenter\land\neg\mathcal{G}$\end{mathprooftree}\\begin{mathprooftree}\Axiom$\neg(\mathcal{F}\fCenter\land\mathcal{G})$\RightLabel{\stackanchor{ド・モルガンの法則}{}}\UnaryInf$\neg\mathcal{F}\fCenter\lor\neg\mathcal{G}$\end{mathprooftree}\label{eq:argument:others}\end{align}ここで$\lor$は論理和を,$\neg$は否定を表す.実際のところ,前提と結論に現れうる論理式は無限にあるため,演繹規則も無限に存在する.しかしながら,LLMに対して,無限個の演繹規則を\underline{直接}覚えさせることは,明らかに不可能である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{32-2ia5f03.eps}\end{center}\hangcaption{公理系による多段演繹推論(左)は,その他の任意の演繹規則(右)を表現できる.他の演繹規則を公理系によって表現した例は,\Cref{appendix:argument:proofs}を参照のこと.}\label{fig:proof_syllogism}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%無限個の演繹規則を直接教える代わりに,別のアプローチを取ることができる.いま,多段演繹推論(\Cref{fig:proof_syllogism}左)を考えてみる.多段演繹推論では,与えられた前提事実群をスタート地点として,演繹規則を複数ステップ積み重ねることにより,結論を導く.図では,$(\mathcal{F}\rightarrow\mathcal{G})\land(\mathcal{G}\rightarrow\mathcal{H})$という与えられた事実からスタートして,最終的に結論$\mathcal{F}\rightarrow\mathcal{H}$を導いている.ここで,前提と結論がちょうど,\Cref{eq:argument:others}で見た三段論法の形になっていることに気がつく.実は,三段論法のような「複雑な」演繹規則は,より「原子的な」演繹規則による多段演繹推論によって表現できることが知られている:\begin{tcolorbox}[left=3.0mm,right=3.0mmtop=3.0mm,bottom=3.0mm,right=3.0mm]\noindent\underline{\textbf{定理1}(一階述語論理の完全性,G{\"{o}}del,1929)}任意の妥当な演繹規則は,公理系から構成された多段演繹推論によって表現できる.\end{tcolorbox}%%%%ここで公理系とは,「原始的な」演繹規則の集合(\Cref{appendix:fig:argument:axioms})のことであるここで公理系とは,「原始的な」演繹規則の集合(\Cref{appendix:arguments:all}a)のことである\footnote{本研究は,古典論理の自然演繹法による定式化に話を限る.}.他の演繹規則を公理系によって表現した例は,\Cref{appendix:argument:proofs}を参照のこと.なお,公理系の多段演繹推論で表現される,より「複雑な」演繹規則は,「定理」と呼ばれる.完全性定理によると,公理系に含まれる演繹規則さえうまく扱えるようになれば,他の演繹規則も(その都度,公理系による適切な多段演繹推論を構築することにより)実効的に扱えることになる.そこで,\begin{tcolorbox}[left=3.0mm,right=3.0mmtop=3.0mm,bottom=3.0mm,right=3.0mm]\noindent\underline{\textbf{設計指針3}(公理系)}サンプルは,公理系から構成される多段演繹推論とする.これにより,LLMに対して,公理系による多段演繹推論をうまく構築することを学習させる.\end{tcolorbox}多段演繹推論において,前提から結論に至る論理ステップ数$s$は,問題によって大きく異なる.ここでもLLMは,学習サンプルに含まれる最大ステップ数$s_{\mathrm{max}}$を大きく超えた推論を実行できない事が多い\cite{zhou2024transformers,NEURIPS2022_fb7451e4}.なぜならば,$s\leqs_{\mathrm{max}}$の推論は果たして$s\leqs_{\mathrm{max}}$だから許されていたのか,あるいは$s>s_{\mathrm{max}}$でも適用可能なのかどうかは,$s\leqs_{\mathrm{max}}$のサンプルそれら自体からは帰納できないからである.そこで:\begin{tcolorbox}[left=3.0mm,right=3.0mmtop=3.0mm,bottom=3.0mm,right=3.0mm]\noindent\underline{\textbf{設計指針3$'$}(多様な論理ステップ)}\\多様な論理ステップ数$s$を含める.\end{tcolorbox}理想的にはこれで十分であるが,LLMはそもそも,ステップ数$s$が大きい多段演繹推論の構築を苦手とする\cite{gontier2020measuring}.結果としてLLMは,公理系の多段演繹推論で表現した場合のステップ数$s$が大きくなるような定理を,扱えなくなってしまう可能性がある.よって,重要な定理に関しては,それら自体を直接教えてしまう方が安全である.\begin{tcolorbox}[left=3.0mm,right=3.0mmtop=3.0mm,bottom=3.0mm,right=3.0mm]\noindent\underline{\textbf{設計指針3$''$}(代表的な定理)}代表的な定理(三段論法・対偶・ドモルガンの法則等)を含めておく.\end{tcolorbox}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{論理式を表現する多様な同義表現を教える}\label{sec:principle_linguistic_diversity}論理式$\mathcal{F}\rightarrow\mathcal{G}$を表現する自然言語は,``If$\mathcal{F}$then$\mathcal{G}$'',``$\mathcal{F}$leadsto$\mathcal{G}$'',and``$\mathcal{F}$resultsin$\mathcal{G}$''等,多様な同義表現があり得る.事前学習直後のLLMならば,このような同義表現を認識することは容易である.しかし,特定の言語表現のみを含んだ論理推論サンプルを大量に学習すると,それら言語表現に過学習して,結果として,これら言語表現のみに反応する機械に育ってしまうことがあり得る\cite{zhang2022paradox,yuan2023can}.これを防ぐために:\begin{tcolorbox}[left=3.0mm,right=3.0mmtop=3.0mm,bottom=3.0mm,right=3.0mm]\noindent\underline{\textbf{設計指針4}(多様な同義表現)}\\論理式を表す多様な同義表現を含める.\end{tcolorbox}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{設計指針に基づく人工論理推論コーパスの構築} \label{sec:PLD}前章で確立した設計指針に基づく論理推論サンプルを作成する.このために,ルールベース自動生成のアプローチ\cite{clark2020transformers,betz-etal-2021-critical,tafjord-etal-2021-proofwriter}を採用する.自動生成は,演繹規則に厳密に従ったサンプルを大量に用意できる,というメリットがある.また,一定のランダム性を持たせることで,サンプルに多様性を持たせることも可能である.\Cref{sec:FLD_generator}で自動生成手法を簡単に述べる(詳細は\Cref{appendix:sec:FLD_generator}).既存手法では設計指針に従ったサンプルを生成することはできないため,完全に新規の手法を提案する.なお,実際に生成されたサンプルの例を\Cref{appendix:fig:deduction_example}に示す.\Cref{sec:corpora_comparison}では,生成されたサンプル群,すなわち\textbf{人工論理推論コーパス\PLDAbbr(\PLD)}と,既存コーパスとを比較する(簡単には\Cref{tb:corpora}).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{自動生成手法}\label{sec:FLD_generator}まず,\Cref{fig:ALT_overview}左に示すような,論理式で書かれた多段演繹推論を生成する.多段演繹推論とは,前提事実群に対して\textbf{\colorGreenDeductionRule{演繹規則}}を複数ステップ適用することにより,結論を導くものであった.各ステップで使われる演繹規則は,公理系または代表的な定理から,ランダムに選択する.これにより,\textbf{公理系や代表的な定理から構築される,多様な多段演繹推論が生成される(設計指針3,3$''$)}.また,ステップ数は指定された範囲からランダムに選ぶので,\textbf{多様なステップ数の多段演繹推論が生成される(設計指針3$'$)}.次に,各論理式を英語の表現に変換する.このために,各論理式に対応する英語表現のテンプレートを複数,人手で用意しておく.例えば,「$\mathcal{F}\rightarrow\mathcal{G}$」に対して「If$\mathcal{F}$,then$\mathcal{G}$」「$\mathcal{F}$leadsto$\mathcal{G}$」「$\mathcal{F}$resultsin$\mathcal{G}$」などである.このテンプレートを豊富にすることで,\textbf{「論理式を表現する多様な同義表現」(設計指針4)}が実現できる.各論理式に対して,これらテンプレート群からランダムに1つを選択する.そして,$\mathcal{F}$や$\mathcal{G}$などの各記号に対して,「フィリピンバナナが激しく踊る」「ヒマラヤ山脈が気怠げに読書する」といった,語彙から(一定の文法制約下で)\textbf{ランダムに構築された任意の事実(設計指針1)}を割り当てる.なお,テンプレートと語彙を日本語にすることで,日本語のサンプルを作成することも可能である(\Cref{appendix:fig:deduction_example_JFLD}).最後に,以上から作られた英語の多段演繹推論を基に,論理推論サンプル(\Cref{fig:ALT_overview}右)を生成する:\begin{itemize}\item多段演繹推論の前提事実群を,論理推論サンプルの\textbf{\colorBlueFacts{「事実」}}として用いる.\item多段演繹推論の結論を,論理推論サンプルの\textbf{\colorVioletHypothesis{「仮説」}}として用いる.\item多段演繹推論の中間的な論理ステップを,論理推論サンプルの\textbf{\colorRedLogicalSteps{「論理ステップ」}}として用いる.\end{itemize}この論理推論サンプルでは事実から仮説を証明できるが,「事実から仮説を反証できるサンプル」や\textbf{「事実が不十分で証明も反証もできない場合のサンプル(設計指針2)」}も作成する.なお,設計指針2に関連して,以下の工夫もしている.多段演繹推論の前提事実群に加えて,不十分な事実を模擬した「ノイズ事実群」もサンプルに含めておく.LLMは,各論理ステップにおいて,「ノイズ事実群の存在下であっても,結論を導くのに十分な前提事実のみを選び取る」ことが求められる.よって,間接的に,「前提事実が不十分な場合は結論を導けないこと」を教えることに繋がる.ノイズ事実としては,「前提事実とよく似ているが,情報が欠落した論理式」を,ルールベースで生成する.例えば,前提事実$\mathcal{F}\land\mathcal{G}$に対して情報が欠落した$\mathcal{F}$などである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{05table01.tex}%\hangcaption{\PLDAbbr\と既存コーパスの比較.設計指針の観点からまとめなおしている.最後の行にはablationコーパス,すなわち,\PLDAbbr\から,ある設計指針を取り除いたものを示す.}\label{tb:corpora}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{既存コーパスとの比較}\label{sec:corpora_comparison}\Cref{tb:corpora}にて,設計指針の観点からまとめ直した,\PLDAbbr\と既存コーパス\cite{clark2020transformers,bao2022multi}の比較を示す.より詳細には以下の通りである:{\setlength{\leftmargini}{1\Cwd}\setlength{\labelsep}{0pt}\renewcommand{\labelitemi}{\textbullet{\kern0.25\Cwd}}\begin{itemize}\item設計指針1:$\mathcal{F}$や$\mathcal{G}$に対して割り当てる事実を構築するために用いる語彙として,既存コーパスでは100語程度の小規模な語彙を用いたのに対し,\PLDAbbr\では約10万語の大規模語彙WordNet\cite{miller1995wordnet}を用いる.これにより,より多様な任意事実を割り当てる事ができる.\item設計指針2:既存のコーパスはランダムに生成された論理式をノイズ事実として用いていたが,我々は,前節で述べたような,より「敵対的な」ノイズ事実を用いる.これによりLLMは,前提事実が十分な場合とそうでない場合の境界をより正確に学習できる.なお,ノイズ事実の数は,既存コーパスと同様に,各サンプル毎に,0から20の範囲からランダムに選択する.%%%%\item設計指針3-3$''$:既存のコーパスは2個程度の少数の演繹規則(\Cref{appendix:fig:argument:implication})しか使用しなかったのに対し,\item設計指針3--3$''$:既存のコーパスは2個程度の少数の演繹規則(\Cref{appendix:arguments:all}b)しか使用しなかったのに対し,我々は一階述語論理の公理系と代表的な定理を含めた,%%%%約50個の演繹規則(\Cref{appendix:fig:argument:axioms})を含める.約50個の演繹規則(\Cref{appendix:arguments:all}a)を含める.論理ステップ数は,サンプル毎に,1から8の範囲からランダムに選択する.\item設計指針4:既存コーパスは論理式あたり10件未満の言語表現を用いたが,我々は数十件程度\footnote{テンプレートは入れ子構造を持つため,組み合わせ的に多様な同義表現が生成される(\Cref{appendix:sec:FLD_generator_linguistic_diversity}).言語表現の正確な数を数えることは困難であるが,単純な変種も含めると少なくとも数十件程度の表現が確認されている.}の言語表現を用いる.\end{itemize}}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験設定} \label{sec:experiments}\ALTJPによる効果を確認するための実験を行った.すなわち,LLMを人工論理推論コーパスで追加学習し,ベンチマーク性能が向上するかを確認した.\noindent\textbf{\underline{LLM:}}\\\LLaMA-3.1-8BとLLaMA-3.1-70B\cite{llama3modelcard}を使用した.\noindent\textbf{\underline{人工論理推論コーパス}:}\\\\PLDAbbr\と既存コーパスを比較する(\Cref{tb:corpora}).既存コーパスは,設計指針1から4のいずれかの点で,\PLDAbbr\よりも不十分である.それぞれのコーパスから10万サンプル(およそ0.1Bトークン前後)を学習データとして用いる.\noindent\textbf{\underline{学習方法:}}\\\\Cref{fig:ALT_overview}(右)に示すように,\textbf{\colorBlueFacts{事実}}と\textbf{\colorVioletHypothesis{仮説}}をプロンプト(=入力)として,\textbf{\colorRedLogicalSteps{論理ステップ}}と回答ラベル(\Cref{appendix:sec:answer_label})を出力とする.すなわちLLMは,与えられた事実に基づいて,与えられた仮説を示すための\footnote{もしくは「仮説を反証するため」「事実が足り無いので証明も反証もできないと述べる」ための,論理ステップ.},論理ステップを生成することを学ぶ.プロンプトはマスクした(損失関数の計算からは除外した).エポック数は1,バッチサイズは256,学習ステップ数は390(最初の200ステップは線形ウォームアップ)である.学習率は,8Bモデルで2e-05,70Bモデルで3e-06である.実装にはHuggingfaceTransformers\cite{wolf-et-al-2019-huggingface}を使用した.\noindent\textbf{\underline{未知の事実を覚えさせない工夫:}}\\\事前学習はLLMに対して,知識,すなわち,既存の事実を学習させた.一方で,\ALTJPで用いる人工論理推論コーパスには未知の事実が大量に含まれているため,LLMに未知の事実を学習させ,その代わりに既存事実を忘却させてしまう可能性がある.これを防ぐため,まず,学習は1エポックとした.2エポック以上学習すると,未知の事実を覚え始める恐れがあるからである.次に,オプティマイザーとして,破滅的忘却の防止を目的とした「RecallAdam」\cite{recadam}を採用した.RecallAdamは,モデルのパラメータが事前学習時から大きく逸脱しないようにパラメータ更新に正則化をかけることで,破滅的忘却を防ぐ.RecallAdamは,他にも幾つかの点において,LLMの追加学習に適している\footnote{破滅的忘却の防止策として一般的に用いられる「事前学習コーパスとターゲットコーパスのマルチタスク学習」は,事前学習コーパスが必要となる.しかしながら,各研究機関が公開している事前学習済みLLMに関しては,その事前コーパスまでは公開されていないことが多い.また,仮に公開されていたとしても,巨大で扱いづらい.あるいは,別の破滅的忘却防止策として,モデルのアーキテクチャに変更を加えて,そこだけを学習する,という手法も有名である.しかしこの手法は,アーキテクチャの変更が必要となるので実装が複雑になる.一方でRecallAdamは,事前学習コーパスは不要である.また,かつアーキテクチャの変更も不要であり,実装の変更も「Adamを使っている部分のコードを変更し,RecallAdamを呼び出すだけ」である.}.実装には,我々の再実装版を用いた\footnote{deepspeedに対応するため.\url{https://github.com/hitachi-nlp/rec-adam}}.ハイパーパラメータは,$\beta_1=0.9,\beta_2=0.999,\epsilon=10^{-6}$,fisher係数は8Bモデルで4000,70Bモデルで2000とした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[p]\input{05table02.tex}%\hangcaption{LLMの評価に用いた\numBenchmarks\個のベンチマーク.問題を解くために必要となる「推論の形態」と「世界知識」も併記する.}\label{appendix:tb:benchmarks}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\textbf{\underline{ベンチマーク:}}\\\\Cref{appendix:tb:benchmarks}に示す\numBenchmarks\個のベンチマークでLLMを評価した.BBHとAbuductionRulesは3-shotそれ以外は5-shotの文脈内学習を使用した.なお,論理推論タスクのベンチマークとしては,\ALTJPに用いた人工論理推論コーパス(\Cref{tb:corpora})は含めなかった.人工論理推論コーパスで学習をすると,単にそのコーパスの表層的な統計特徴量を学習することで,高精度を達成してしまう\cite{zhang2022paradox,yuan2023can}.よって,論理推論能力が正しく身についているかどうか確認するためには,分布外のベンチマークを用いる必要がある.実装にはlm-evaluation-harness\cite{eval-harness}とbigcode-evaluation-harness\cite{bigcode-evaluation-harness}を使用した.\textbf{\underline{その他:}}\\\LLMは疑似乱数シード5つ分を学習した.予備実験を含む実験全体で,第一著者の組織が所有するNVIDIAH100GPU256基をおよそ数週間程度使った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{\ALTJPはLLMの能力を向上させられるか?} \label{sec:results_and_discussions_method}\Cref{tb:performance_aggregated}に\ALTJP前後のLLMの性能を示す.様々なベンチマークにおいて,\ALTJP後のLLM(「\llamaThreePRALT」「\llamaThreeRTALT」「\llamaThreePLDALTWoBold」)は,\ALTJP前のLLMを上回る性能を示した.性能向上は,論理推論タスクだけでなく,数学・コーディング・NLI・その他(常識推論や文章読解)等の様々なベンチマークで得られている.これは,論理推論は思考の基礎をなすものであり,様々なタスクで汎用的に役に立つからだと考えている.特筆すべきは,\llamaThreeLargeBaseline\,すなわち,15兆トークン以上で事前学習された最大規模のLLMであっても,\ALTJPにより大幅な性能向上が得られたことである.以上の結果から,\textbf{\ALTJPがLLMの総合能力を向上させられること}が分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{05table03.tex}%\addtocounter{table}{-1}\hangcaption{\ALTJP前後のLLMの精度.5-shot文脈内学習により評価した.$\oplus$\textbf{\ALT}-$x$は\Cref{tb:corpora}中に記載の人工論理推論コーパス$x$を用いて\ALTJPを施したことを示す.色は各列での順位を示す(濃いほど良い).「平均」は全てのベンチマークのミクロ平均である.「論理推論」「数学」「コード」「NLI」「その他」は,その領域の様々なベンチマークで構成され(\Cref{appendix:tb:benchmarks}),ここでは平均精度を示す.}\label{tb:performance_aggregated}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\ALTJPで用いた人工論理推論コーパスの中では,\PLDAbbr\の効果が,最も多くのベンチマークに汎化し,かつ性能向上幅も大きかった.既存コーパスは\PLDAbbr\に対して設計指針の観点で劣っており,\PLDAbbr\程の効果は得られなかった.更に,\PLDAbbr\から設計指針を除去したコーパスで学習した場合に,多くの場合に性能劣化が見られた(\Cref{tb:performance_aggregated_llama_three_ablation}).これらの結果は,\textbf{人工論理推論コーパスから最大限の効果を得るためには,我々が提案した設計指針が重要である}ことを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{05table04.tex}%\caption{ablationコーパス(\Cref{tb:corpora}最終行)で学習された\llamaThreeBaseline\の性能.}\label{tb:performance_aggregated_llama_three_ablation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\Cref{appendix:tb:performance_aggregated}に示すように,RecallAdamを使わずにLLMを学習すると,多くの場合に性能が劣化した.LLMが,人工論理推論コーパスに含まれる未知の事実を学習し,その代わりに既存事実を忘却してしまったからだと考える.\textbf{知識の忘却を防止することは\ALTJPの成功にとって極めて重要である.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{\ALTJPは「どのような」能力を「なぜ」向上させるのか?} \label{sec:results_and_discussions_tasks}各ベンチマーク毎のより詳細な分析により,掲題に答える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{05table05.tex}%\addtocounter{table}{-1}\hangcaption{\ALTJP前後の\llamaThreeLargeBaseline\の性能.5-shot文脈内学習により評価した.\llamaThreeBaseline\の結果は\Cref{appendix:tb:performance_details_8B}を参照のこと.}\label{tb:performance_details}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{論理推論}\label{sec:which_task_logical_reasoning}\Cref{tb:which_task_logical_reasoning}が示すように,\PLDAbbr\での\ALTJPは,論理推論タスクを取り扱う様々なベンチマークにおいて,\llamaThreeLargeBaseline\の性能を最大30ポイントと大幅に向上させた.驚くべきことに,人工論理推論コーパスに含まれている演繹推論だけでなく,仮説推論タスク(「AbductionRules」と「ART」)でも性能向上が得られた.仮説推論タスクでは,前提事実から結論を導くのではなく,観察された結論から,それを引き起こした「尤もらしい」前提事実を推測する:例えば「家に帰ったら,窓ガラスが割れ,部屋が荒らされていた」という結論から,「泥棒が侵入した」という前提事実を推測する.演繹推論とは丁度「逆向き」のようなタスクである.以下,\ALTJPで強化されたLLMが,実際に設計指針で意図した能力を身につけていることを,事例の分析を通して確認する.\Cref{tb:case_study}に\llamaThreeLargeBaseline\の誤りが\ALTJPによって治った問題例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{05table06.tex}%\hangcaption{\PLDAbbrを用いた\ALTJPによって,\llamaThreeLargeBaseline\の誤りが治った問題(\ALTJP前に間違え,\ALTJP後に正解できるようになった問題).\red{赤}は,結論に関係のある前提事実を示す.}\label{tb:case_study}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%最初の問題は非常に簡単であるので,\llamaThreeLargeBaseline\がこの問題を解けなかったことは驚くべきであり,事前学習のみから論理推論能力を獲得することの難しさを物語っている.実際,事前学習からこの問題を解けるようになることは,難しいかもしれない:前提として与えられた事実「Jessicaisacat」「Catsareafraidofsheeps.」は,内容としては不自然(未知)である.よって,前提事実の,「内容としての正しさ」すなわち知識としての正しさを考慮してしまうと,この問題を解くことはできない.しかしながら,「もし仮に前提事実が正しかったとしたら,\underline{論理的には}何が導けますか?」と問われると,確かに結論「Jessicaisafraidofsheep」を導ける.\PLDAbbr\で\ALTJP後の\llamaThreeLargeBaseline\はこの問題に正解できた.即ち,\PLDAbbr\での\ALTJPによって,論理的に考える能力,特に\textbf{「未知なる事実を扱う能力」が獲得されたことを示唆している(設計指針1).}2番目の問題では,\ALTJP\後の\llamaThreePLDALTWoBold\は,正しく「neutral」と回答し,\textbf{「前提事実が不十分な場合は結論を導けない」ことを理解できている(設計指針2)}ことを示した.3番目の問題はFOLIOベンチマークからのものである.この問題を解くには,最初のステップで,三段論法を使用する必要がある:「Alleelsarefish,andnofishareplants.Therefore,alleelsarenotplants.」.このように,\ALTJP後の\llamaThreeLargeBaseline\は\textbf{「多様な演繹規則」を獲得できている(設計指針3)}.4番目の問題のように,FOLIOベンチマークの問題は,Wikipediaのページに基づいて作成されているので,他のベンチマークよりも自然で豊かな言語表現で記述されている.この問題が解けることは,\textbf{「論理式を表す多様な同義表現」を理解できている(設計指針4)}ことを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{数学とコーディング}\label{sec:which_task_math_coding}\Cref{tb:which_task_math,tb:which_task_coding}が示すように,\ALTJPにより,数学タスクにおいて最大7ポイントの性能向上が得られた.\PLDAbbrから学べる述語論理は数学の問題を解くための必須知識である.よって,数学での性能向上は妥当である.コーディングタスクにおいては,最大10ポイントの性能向上が得られた.最近の研究によると,「逆方向の効果」すなわち,「コーディングデータでの学習が推論能力を向上させること」が確認されている\cite{jiang2024logicproimprovingcomplexlogical,ma2024at,uchiyama2024programminglanguagefeaturespretraining}.本研究と併せて,コーディングと推論能力の関係性を示唆する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{自然言語推論(NLI)}\label{sec:which_task_NLI}\Cref{tb:which_task_NLI}が示すように,\ALTJPは自然言語推論(NaturallanguageInference,NLI)タスクでの性能を最大6ポイント向上させた.NLIは,前提事実が仮説を支持するか矛盾するかを判断するという点で,演繹推論タスクに似ている.しかし,演繹推論タスクとの大きな違いは,この判断は与えられた前提事実だけでは下せず,別途,豊富な常識知識を必要とすることである.\Cref{tb:case_study}の5番目の問題を考える:与えられた前提事実「AnIndianwomanisdancingwithherpartner」に対して,追加の常識知識「Ifsomeoneisdancing,thenhe/sheismoving.」を補完することで,結論「Awomanismoving.」を導く.人工論理推論コーパスは未知の事実のみを含むため,LLMは\ALTJPから常識知識を獲得することは\underline{一切}できない.したがって,上記の問題を解くために用いられた常識知識は,LLMが事前学習から元々獲得していたものであるはずだ.よって,NLIでの性能向上は,LLMは,元々得ていた知識と\ALTJPから新たに獲得した論理推論能力を統合しつつ問題を解ける可能性を示唆する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{その他}\label{sec:which_task_others}その他の様々なタスクでも性能が向上しており(\Cref{tb:which_task_others})は,獲得された推論能力の汎用性を示している.しかしながら,性能向上幅は最大2ポイント程度と控えめであった.これには,以下のような理由が考えられる.まず,これらのベンチマークには,\Cref{tb:case_study_negatives}の一番目の問題のような「純粋に既存知識を問う問題」が含まれる.人工論理推論コーパスに含まれるのは未知の事実のみなので,既存知識は一切教えない.よって,知識を問う問題の解決能力は一切向上しない.次に,一部の問題が要求する高度な知識は,LLMが持っていなかった可能性がある.例えば,2番目の問題では,量子力学の知識を前提とした上で,推論能力が試される.このような場合は,知識不足がボトルネックとなり,\ALTJPから得られる推論能力の向上が活かしきれなかった可能性がある.知識不足の問題は事前学習の量を改善することで解決されるはずである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{05table07.tex}%\caption{\ALTJP後の\llamaThreeLargeBaseline\が依然として解けない問題.}\label{tb:case_study_negatives}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%最後に,\ALTJPは「特定の問題を解決するための手順」を教えることはできない,という原因が挙げられる.例えば3番目の問題を解くには,四択問題と論理推論の「合わせ技」が必要となる.LLMはまず,以下のように,各選択肢に帰結する推論系列を考えてみる必要がある:「Tobuildhomesinanaquaticenvironment,oneneedstomaintainbodyheatandinsulationdespitebeingfrequentlysubmergedincoldwater.Therefore,thewaterprooffurof(A)isessential」「Tobuildhomesinanaquaticenvironment,onemustgatherandprocessnaturalmaterialslikewood.Large,sharpteethof(C)arecriticalastheyallowbeaverstocutdowntreesandshapebranches.」.次にLLMは,一見妥当に見える全ての選択肢の中から,質問文の微妙なニュアンスを考慮しつつ,最良のものを選ぶ必要がある:「Sincethequestionemphasizestheaquaticenvironment,theleastrelatedreasoningtraceshouldbe(C).」.この手順は,単一の推論系列から直接答えを得られる論理推論やNLIとは対照的である.\ALTJPが教えるのはあくまで論理の基礎でああるため,このような「特定の問題の解法手順」を教えることはできない.よって今後,\ALTJPで得た推論能力を活かしながら,様々な問題の解法手順を教える必要がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{appendix:sec:related_work}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{LLMの推論能力の調査}\label{appendix:sec:LLM_reason_or_not}LLMの推論能力の調査が現在,非常に盛んに行われている.\pagebreakまず,先行研究を「LLMは現状,推論ができていそう(あるいは今後の進展でできるようになりそう)」というグループ(\Cref{sec:LLM_reason}),また「LLM現状ではあまり推論ができていなさそう」というグループ(\Cref{sec:LLM_does_not_reason})に分類して紹介する.このように整理した上で,先行研究から得られた知見を考察することにより,「推論ができるLLM」の現状と展望を明らかにする(\Cref{sec:reasoning_LLM_future}).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{肯定的な結果(LLMは推論ができていそう・今後できるようになりそう)}\label{sec:LLM_reason}\noindent\textbf{\underline{高い数学能力}:}\\\OpenAIo3はアメリカ数学オリンピック予選(AIME)の問題を97\%正解できる\cite{openai_days12}.また,数学の専門家が作成した高難易度ベンチマーク「FrontierMath」\cite{glazer2024frontiermathbenchmarkevaluatingadvanced}でも,25\%の正答率に達する.AIMEに関しては,過去問がweb上で手に入るため,単に類似問題の解法を暗記しているだけの可能性もある.そこで\citeA{li2024openaio1abtestingdoes}は,AIMEと同等の難易度であり,かつ試験データが非公開である「ChineseNationalTeamTrainingcamp(CNT)」を用いて,OpenAIo1の性能を評価した.その結果,OpenAIo1はAIMEと同等程度の性能を維持していた.よって,OpenAIo1は単純な暗記を超えた能力を身につけている可能性を示唆する\footnote{だだし,CNTと類似の問題がweb上に少ない,という仮定は必要ではある.}.\noindent\textbf{\underline{暗記と汎化の両立}:}\\\\citeA{xie2024memorizationlargelanguagemodels}は,論理推論のパズルにおいて,LLMのfine-tuningが学習サンプルの暗記に繋がる一方で,テストサンプルへの汎化性能も上がることを示した.ここで用いられたテストサンプルは,学習サンプルとは難易度が違うので,分布外(out-of-distribution)となっている.この結果は,暗記と汎化が必ずしも対立するものではなく,複雑な相互作用の下で両立している可能性を示唆する.他の研究\cite{arpit2017closerlookmemorizationdeep,yu2024generalizabilitymemorizationneuralnetworks}でも,暗記と汎化の緊密な関係性を論じている.\noindent\textbf{\underline{手続き知識の獲得}:}\\\\citeA{ruis2024proceduralknowledgepretrainingdrives}は,「LLMが問題を解く際に影響を与えている,事前学習に含まれていた文書」の分布を推定している.LLMは,事実を問う問題に対しては少数文書のみを参照しており,これは暗記した別個の知識を取り出している可能性を示唆する.一方で,数学のような推論問題に対しては,様々な文書を参照していることが分かった.これはLLMが,推論問題に対しては,様々な文書から見出される「手続き的な知識」(ProceduralKnowledge)を用いている可能性を示唆する.\citeA{zhang-etal-2024-llm-graph}も類似の調査をしており,LLMのパラメータ数を大きくした際に,事実を問う問題に対しては少数文書の暗記が増えるが,推論問題では必ずしも増えないことを明らかにした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{否定的な結果(LLMは現状では推論ができていなさそう)}\label{sec:LLM_does_not_reason}\noindent\textbf{\underline{暗記(memorization)}:}GPT-4が公開された当初,「2021年以前のプログラミング問題(Codeforces)は100\%の正解率だが,2022年以降の正解率はは0\%.」という現象が観測された\cite{melanie2023blog}.\cite{jiang2024investigatingdatacontaminationpretraining}は,GPT-2のフルスクラッチ学習実験により,データのコンタミネーションがdownstreamタスクの性能に大きな影響を与えることを示した.\noindent\textbf{\underline{脆弱性(brittleness):}}LLMは,数学問題などで,問題文の表現(言語・数値・数式)を変える,あるいは無関係な情報を入れるなどすると,性能が大きく劣化する\cite{razeghi2022impact,shi2023largelanguagemodelseasily,zhang2024careful,mirzadeh2024gsmsymbolicunderstandinglimitationsmathematical,srivastava2024functionalbenchmarksrobustevaluation,zhou-etal-2024-paraphrase}.\textbf{このような脆弱性はOpenAIo1-preview/o1のような最先端のモデルでも確認されており\cite{jenia2024twitter},最大30\%もの精度劣化が起こる\cite{gulati2024putnamaxiom}.}数学の問題Aと問題Bを独立に解けるLLMが,一方で,それらを単純に組合わせた問題(問題Aで得られた答えを問題Bで再利用する,等)を解くことができない\cite{hosseini2024llmreasonerscreatedequal}.論理推論問題においても,「一見回答に関係がありそうだが実は関係無い事実」を問題に混ぜるとLLMの性能が大きく劣化する\cite{bhuiya2024seeminglyplausibledistractorsmultihop},あるいは,前提事実を提示する順序を変えると性能が大きく下落する\cite{pmlr-v235-chen24i},等の現象が観測されている.\noindent\textbf{\underline{内容バイアス(contentbias):}}LLMは,日常的な内容の推論問題には強いが,反実仮想的な推論問題には弱い\cite{frohberg-binder-2022-crass,dasgupta2023language,li-etal-2023-counterfactual,yu2023ifqadatasetopendomainquestion,jin2024cladderassessingcausalreasoning,zecevic2023causalparrotslargelanguage,zhao-etal-2024-uncommonsense}.類似の現象として,学習コーパス中に頻出するトークンで構成した推論問題には強いが,低頻度トークンで構成した推論問題には弱い,という現象も観測されている\cite{jiang2024peektokenbiaslarge}.\citeA{liu2023evaluating}によると,GPT-4は,よく知られた論理推論ベンチマークでは高性能を示すものの,分布外の論理推論ベンチマークでは性能が著しく劣化する.LLMは,小さい桁数の足し算はできるが,桁数が大きくなると誤りが増えることが知られている\cite{GPT4AdditionEvaluation2023,gambardella2024language}.言語学オリンピックの問題において,高リソース言語の問題の正解率に比べて,低リソース言語(稀少言語・絶滅言語)の問題の正解率が著しく低い\cite{bean2024lingolybenchmarkolympiadlevellinguistic}.\noindent\textbf{\underline{ヒューリスティック:}}\citeA{nikankin2024arithmeticalgorithmslanguagemodels}によると,LLMは,数学の問題を,数学の規則を理解することでは無く,「無数のヒューリスティック(bag-of-heuristics)」によって解いている.\cite{aoki-etal-2024-first}によると,LLMは,「前提事実と問題文との語彙オーバーラップ」のようなヒューリスティックを用いて,初期の推論系列を選定している.\noindent\textbf{\underline{長さへの非汎化(lengthgeneralizationができない):}}LLMは,学習サンプルに含まれる推論ステップ数を大きく超えた推論を,頑健に実行することができない\cite{NEURIPS2022_fb7451e4,zhou2024transformers}.\noindent\textbf{\underline{非誠実(unfaithful)な推論系列:}}\citeA{pmlr-v202-morishita23a}は,GPT-4の論理推論問題における「推論系列としての正解率」と「最終的な回答の正解率」が大きく異なる(前者が後者に比べて著しく低い)ことを発見した.この発見は,LLMが自らが生成した推論系列と,LLMが実際に内部で行っている推論とには,食い違いがあることを示唆する.\citeA{lanham2023measuring}は,LLMに対して,人手でコントロールしたCoT系列を途中まで与えた上で最終的な回答を生成させた.その結果,CoT系列の内容によって,ある時はCoT系列に従った回答を生成するが,ある時はCoT系列を無視した上で回答を生成することが分かった.しかも,無視する場合においても,必ずしも正解を解答している訳ではない.この結果もまた,LLMは必ずしもCoT系列に忠実に従って回答を生成しいる訳ではないことを示唆する.\citeA{liu2024selfcontradictoryreasoningevaluationdetection}は,LLMの推論系列はしばしば,自己矛盾を起こしていることを明らかにした.\citeA{turpin2023language}によると,GPT-3.5が,選択問題において,文脈内に入れるfew-shotサンプルを特定の選択肢(例えばAなど)を持つものに偏らせると,推論系列も(A)を正当化するように変化する.これは,LLMが生成する推論系列にはバイアスがかかりうることを示唆する.\citeA{kudo2024thinktotalktalktothinkllmscome}はモデル内部への因果的な介入措置により調査を行い,LLMは,簡単な数学の問題の場合は,CoT系列を生成する前に既に回答を``知っている.''ということを明らかにした.\noindent\textbf{\underline{その他}}:\citeA{ando-etal-2023-evaluating,ozeki-etal-2024-exploring,bertolazzi2024systematicanalysislargelanguage,eisape-etal-2024-systematic}は,LLMが三段論法において人間に類似したバイアスを示すことを発見した.\citeA{patel2024multilogievalevaluatingmultisteplogical}は,多段論理推論タスクにおいて,推論ステップ数が増加するにつれてLLMの性能が著しく低下することを確認した.\citeA{parmar-etal-2024-logicbench}はLLMが複雑な推論,特に否定を含む問題に苦戦することを示した.\citeA{mondorf2024liarliarlogicalmire}はLLMが,各文が偽である可能性のある仮定的推論(suppositionalreasoning)に苦戦することを示した.その他,多くの研究がLLMの推論能力を検証している\cite{lanham2023measuring,wu2023reasoning,hodel2023response,dziri2023faith,dasgupta2023language,dougrezlewis2024assessingreasoningabilitieschatgpt,wan2024logicaskerevaluatingimprovinglogical,sprague2024musr,zhao2024exploringcompositionaldeficiencylarge,hong-etal-2024-closer,huang2024large,zhu2024dyval,wang-etal-2024-llms}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{「推論ができるLLM」の現状と展望}\label{sec:reasoning_LLM_future}以上のような先行研究からの知見を元に,「推論ができるLLM」の現状と今後の展望を簡単に考察する.まず,肯定的な結果のうち最も重要なものは,「モデルサイズや学習データサイズを拡大することで,より難しい推論ベンチマークが解けるようになってきている」という事実である.実際,最新のフロンティアモデルは,専門家でさえ苦戦する問題も解けるようになりつつある.更に,この観点からは,今後の方向性として「モデルサイズと学習データ量の拡大」という明確な道筋が示唆される.ただし,学習データに関しては,web上で利用可能なデータが近い将来に枯渇してしまうという推定がある\cite{villalobos2024rundatalimitsllm}.そのため,人工データやLLM自体に内在する推論系列の活用などの工夫が必要になる.また,LLMは問題を解くための「手続き的な」知識を獲得している,という観察もある.様々な問題の手続きを記憶しておいて使い回すことは,おそらく多くの人間がやっていることだとも考えられ,実用的な問題の多くを解決できる可能性がある.ただし,例えば,ある1つの問題に対してのみ有効な手続きを知っていても,それはその問題自体を暗記しているのと本質的に変わらない.したがって,汎用性が高い(抽象度が高い)手続きを獲得するための研究が必要である.他方で,否定的な様々な結果は,「LLMは学習データの分布内の問題には強いが,分布外の問題には弱い」という特徴に一言で集約される.「学習データ中で暗記した問題は解けるが,それ以外のサンプルは解けない」「事前学習コーパスに含まれている日常的な内容の問題は解けるが,反実仮想的な問題は解けない」「学習データに含まれている表現で問題を出せば解けるが,別の表現にすると解けない」「学習データに含まれる長さの論理ステップは生成できるが,それより長いものは生成できない」というようにである.この特徴は一見,単なる機械学習の一般的な性質\footnote{例えばPAC理論のような,データサンプリングの統計的揺らぎに由来する,経験誤差・汎化誤差の議論等.}と同様のものに思われる.しかしながら,推論という文脈においては,この特徴はより深刻な問題を示唆している.なぜならば,推論の規則の多くは任意性を持つため,本質的に\underline{分布内外という区別が存在しない}という側面があるからである.例えば本論文で議論する述語論理の演繹規則は任意の事実に対して成り立つ(\Cref{sec:principle_unseen})ので,分布内外の事実に対して等しく適用できる.しかしながらLLMは,分布外の事実に対して演繹規則を適用することには苦戦している.あるいは,足し算における繰り上がりのような規則\footnote{数学における規則としては,(本稿で考えたような)基本的な公理系が知られているが,ここでは分かりやすさのため,より実用的な規則を考える.}は,任意の桁数において普遍的に成り立つ.しかしながらLLMは,小さい桁数の足し算は得意である一方で,大きな桁数の足し算は苦手としている.それでは,「分布内の推論問題のみ解ける」機械は果たして一体何を学んでいるのか,という問いが生じる.例えば「推論の規則を,分布内の問題のみに適用できる形で学んだ」という可能性や「推論の規則とは全く関係無い(分布外に汎化不可能な)何かを学んだ」という可能性などがありうる.この点に関しては,\citeA{nikankin2024arithmeticalgorithmslanguagemodels}の調査が示唆を与える.この調査によると,LLMは数学の問題を「無数のヒューリスティック(bag-of-heuristics)」を用いて解いている.ここでヒューリスティックを用いるとは,例えば,「$x+y$という式において$x\in[5,25]\\mathrm{mod}\50$だとニューロンが反応する」や「$x+y$という式において$x-y=8\\mathrm{mod}\10$だとニューロンが反応する」といったものを指す.このようなヒューリスティックの組み合わせを用いて数学の問題を解く場合,数学の根本的な規則を用いる場合に比べて,汎化性が著しく低い.LLMの「分布内に強く,分布外に弱い」という性質も合理的に説明できる.実際,このようなヒューリスティックの組み合わせによって,数学が包含する任意の問題を解くことは,原理的に不可能\footnote{まず,数学の規則も任意性を含む側面がある.例えば,「繰り上がりの規則は\underline{任意の桁数}について成り立つ」あるいは「``問題1の解答は$x=1$である.問題2はこの$x$を使って$y=\frac{x+5}{2}$を計算する.問題3はこの$y$を使い\dots''と形で\underline{任意個の問題を組み合わせた新しい問題}を構築できる」などである.数学の規則が任意性を含む結果として,数学の問題は無限個存在する.しかしながら,有限個のヒューリスティックの組み合わせによって解ける(表現できる)問題は有限個である.したがって,数学が内包する無限個の問題を表現することは不可能である.もちろん,「任意の問題を解けるか」という議論はあえて極端にした例ではあるが,「数学の規則を理解すること」に対して「ヒューリスティックを用いること」が,いかに効率が悪いかを浮き彫りにしている.}である.このヒューリスティックの根本的欠陥は「手続き的な知識」にも内在している.以上のように,LLMは,推論の根本的な規則によってではなく,別の(本質的でない)手段で問題を解いている,という可能性がある.したがって今後,「LLMがどのような問題を解けるのか」という調査だけでなく,「LLMが\underline{どのように}問題を解いているのか」というメカニズムの調査が必要である\footnote{「難しいベンチマークを解けること」でもって,「推論ができる」と判断してしまっても,一見,問題ないように思われる.この論拠は,(例えば数学の場合は)「数学のこんなに難しい問題が解けるならば,数学の規則を理解していないはずがない」というものである.この論拠が成り立つならば,その対偶「数学の規則を理解していなければ,この難しい問題を解くことはできない」も成り立つ.この命題は確かに,人間に対しては成り立つかもしれない.しかしながら,LLMは,人間を遙かに超える記憶容量を持った機械であるので,例えば多数のヒューリスティックや手続きを流用することによって,難しい問題を解いてしまう可能性も否定できない.よってやはり,単に「問題が解けるかどうか」を調査するだけでなく「どのように解いているか」を\underline{直接}調査する必要があると考えられる.}.また併せて,LLMに推論の規則を獲得させる方法も探求する必要がある.以上の考察をまとめ,今後の展望とする.まず,今後も,モデルサイズや学習データサイズの拡大は有望な方向性である.ただし,web上の学習データは枯渇してしまう可能性があるので,人工データやLLM自体に内在する推論系列の活用などの工夫が必要である.また,このような学習によって汎用性の高い手続きを獲得するための手法も追求すべきである.更に,LLMがどのように問題を解いているのか(推論の規則を理解しているのか)という調査や,LLMに推論の規則を学習させる方法の確立が求められる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{人工コーパスによる,LLMの推論能力強化}\label{sec:related_work_synthetic_corpus}人工データを活用したLLMの推論能力強化に関する先行研究を紹介する.本節では主に,本研究に最も関連が深い「ルールベースで自動生成した」「論理推論コーパス」に話を限定する.RuleTaker\cite{clark2020transformers}が近年初めて,人工論理推論コーパスを構築した.%%%%演繹規則として,含意(\Cref{appendix:fig:argument:implication})を用いた.演繹規則として,含意(\Cref{appendix:arguments:all}b)を用いた.RuleTakerで学習されたTransformer\cite{vaswani2017attention}が,(コーパスに含まれるのと同様の)論理推論問題を解けることを確認した.後続の研究\cite{saha-etal-2020-prover,dalvi-etal-2021-explaining,tafjord-etal-2021-proofwriter,sanyal2022fairr}では,人工論理推論コーパスで学習したT5\cite{raffel-et-al-2019-t5}が,単に最終的な回答だけでなく,中間的な論理ステップも生成できることを確認した.PARARULE-Plus\cite{bao2022multi}は,RuleTakerをより強化した人工論理推論コーパスであり,より多数の論理ステップからなるサンプルを含む.PARARULE-Plusで学習したモデルは,RuleTakerで学習したモデルを上回る性能を達成できる.ArtificialArgumentCorpus\cite{betz-etal-2021-critical}は,クリティカル・シンキングに有用な演繹規則から構築された単一ステップの論理推論サンプルを含む.GPT-2\cite{radford2019language}をこのコーパスで学習すると,NLIタスクの性能が向上することが確認された.一方で,ARC\cite{habernal-etal-2018-argument}やLogiQA\cite{ijcai2020p501}のような,より挑戦的な推論タスクの性能は向上しなかった.\citeA{bostrom-etal-2021-flexible}は,既存コーパスよりも自然で豊かな言語表現によって記述された論理推論コーパスを作成した.演繹規則を基にしたテンプレートを用いてWikipediaから文を収集し,更にそれらの言い換えも生成することで,自然かつ豊かな言語表現を生成している.このコーパスでの学習は,EntailmentBank\cite{dalvi-etal-2021-explaining}のように,実世界に近い推論問題を解く能力を向上させることができる.これら先行研究は,人工論理推論コーパスの効果を部分的に検証したものといえる.一方で,以下のように,人工論理推論コーパスを用いたアプローチが本当に有望であるかどうかは,依然として未解明の謎であった.まず,「どのように論理推論サンプルを設計すべきなのか」という体系的な議論が欠如しており,結果として良いサンプルになっているかが不明であった.次に,人工論理推論コーパスから得られる能力が,元コーパスに含まれる演繹推論タスク以外の様々タスクに汎化するかどうかが未検証であった.更に,T5やRoBERTaといった小規模な言語モデルのみを用いて検証されていたため,人工論理推論コーパスの効果がより大きなLLMに対しても有効かどうかも未検証であった.本研究はこれらの疑問に答えることで,人工論理推論コーパスを用いたアプローチの有望性を初めて示すものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{LLMの推論系列を学習データとして活用する}\label{sec:related_work_distillation}このアプローチでは,GPT-4のような超巨大なLLMの推論過程をより小さいLLMに学習させる\cite{ho2023large,magister-etal-2023-teaching,li2022explanations,li-etal-2023-symbolic,shridhar-etal-2023-distilling,wang-etal-2023-scott,mitra2023orca,liu-etal-2023-logicot,benallal2024cosmopedia,lu2024mathgenie}.典型的な手順は以下の通りである:(i)既存の推論問題を大量に用意する.(ii)chain-of-thought\cite{wei2022chain}などの技術を用いて超巨大LLMに推論過程を生成させる(iii)これらの推論過程で小規模なLLMを学習する.この「蒸留」アプローチと,本研究で提案している人工論理推論コーパスアプローチは,以下のように相補的な利点・欠点がある.蒸留アプローチの利点は,既存の様々な問題に対する「解法を直接教える」ことができるので,極めて実用的であること,である.欠点としては,LLMの推論系列には(事前学習コーパスで頻出するパターンの方向に)偏りがあるので,設計指針で論じたような論理の基礎を教えづらい点が上がる.また,「超巨大なLLMそれ自体の性能向上はできない」「学習サンプル数が既存の問題の数で制限される」「推論過程の正確性が保証されない\cite{turpin2023language,lanham2023measuring}」等も欠点となる.人工論理推論コーパスの利点は,「サンプルが確固たる指針に基づいて作成されているため,論理の基礎を教えることができること」「超巨大なLLM自体の性能も向上させられること」「事実上無限のサンプルを生成できること」「推論過程の正確性が保証されていること」などである.一方欠点としては「あくまで論理の基礎しか教えることができないので,現実世界のより有用な問題を解くためには,追加で別の学習が必要になりうる(\Cref{sec:which_task_others})」点である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{今後の展望} \label{sec:conclusion}本研究では,LLMの推論能力を向上させるための一アプローチとして,人工論理推論コーパスによる\ALTJP(\textbf{AdditionalLogicTraining,ALT})を提案した.良質なサンプルを作成するための体系的な設計指針を確立し,この設計指針に基づく人工論理推論コーパス\PLD(\PLDAbbr)を構築した.\PLDAbbr\上での\ALTJPが,LLMの能力を大幅に向上させることを,実験的に確認した.今後の方針としてまず,より多くのサンプル数での学習が挙げられる.学習データ量を増やすことは,本研究のようなデータドリブンのアプローチでは,定石である.実際,推論においても,データ量を増やしていくことでgrokkingが起きる,という報告も上がっている\cite{wang2024grokkedtransformersimplicitreasoners}.よって,データ量の拡大は有望な方向性である.また,本研究で提案した手法は完全にデータドリブンなアプローチであり,モデル側には一切の工夫を施さなかった.すなわち,モデルは「データから言えることのみを吸い上げる」機械であった.結果として,例えば「演繹規則は任意の事実に対して成り立つ」(設計指針1)ということを教えるためだけに,実際に任意の事実を含んだサンプルを大量に用意する必要があった.一方で,人間には,少数のサンプルのみから,その背後に潜む規則を大胆に推測する能力が備わっていると考えられる(\Cref{sec:principle_unseen}).この能力は,汎用的な問題解決にとって重要である.なぜならば,規則というものは,本論文で扱った述語論理や数学などにとどまらず,ゲーム・パズルのルール,人間関係の暗黙的なルール,社会や文化の進化に伴う新しい慣習やマナーなど,さまざまな場面で随時,新たに発現しうるからである.このような場面が現れるごとに毎回大量のサンプルを生成することは,非効率的である.従って,少数のサンプルからその背後の規則や理論を推測する能力,すなわち帰納推論能力や仮説推論能力の獲得が,重要である.最後に,本研究や先行研究の多くは,LLMが「与えられた問題」を解決する能力に着目してきている.しかしながら,より創造的な能力として「(有用な)新しい問題を定義する能力」「自律的に議論を進める能力」,あるいは更に進んで「新しい学問を構築する能力」などが重要となる.このような目標に対しても,既存の問題をうまく一般化する帰納推論能力や,既存の枠にとどまらない大胆な仮説を提唱する仮説推論能力の獲得が必要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment東京科学大学の岡崎直観先生には,内容に関するアドバイスを頂いた.日立製作所の清水正明氏には,社内の大規模計算機環境の維持管理をして頂いた.また,計算機リソースとして,産総研のAI橋渡しクラウド(ABCI)を用いた.感謝申し上げる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{05refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix%%%%\numberwithin{equation}{section}%%%%\renewcommand{\thefigure}{\Alph{section}.\arabic{figure}}%%%%\renewcommand{\thetable}{\Alph{section}.\arabic{table}}\vspace{-0.5\Cvs} \section{演繹規則} \label{appendix:sec:deduction_rules}\vspace{-0.5\Cvs}\Cref{appendix:arguments:all}に,人工論理推論コーパスで用いられた演繹規則を示す.\Cref{appendix:argument:proofs}に,完全性定理(定理1)「任意の妥当な演繹規則は,公理系による多段演繹推論で表現ができる」ことを例示する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{32-2ia5f04.eps}\end{center}%%%%\label{appendix:fig:argument:axioms}%%%%\label{appendix:fig:argument:implication}\caption{\PLDAbbr\や既存コーパスで用いられた演繹規則.}\label{appendix:arguments:all}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{32-2ia5f05.eps}\end{center}%%%%\label{appendix:argument:proof_G_modus_ponens}%%%%\label{appendix:argument:proof_contraposition}\hangcaption{完全性定理(定理1)「任意の妥当な演繹規則は,公理系による多段演繹推論で表現ができる」ことの例示.}\label{appendix:argument:proofs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{32-2ia5f06.eps}\end{center}\hangcaption{\PLDAbbr\に実際に含まれているサンプル例.\textbf{\colorBlueFacts{事実}}と\textbf{\colorVioletHypothesis{仮説}}をLLMに与えて,\textbf{\colorRedLogicalSteps{論理ステップ}}と\textbf{\colorRedLogicalSteps{回答ラベル}}(\Cref{appendix:sec:answer_label}参照)を生成させる.}\label{appendix:fig:deduction_example}\vspace{-0.5\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[t]\begin{center}\includegraphics{32-2ia5f07.eps}\end{center}\caption{\PLDAbbr\の生成機構の概略図.詳細は\Cref{appendix:sec:FLD_generator}.}\label{fig:framework_overview}\vspace{-1\Cvs}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{\PLDAbbr\の生成機構} \label{appendix:sec:FLD_generator}「設計指針を満たす論理推論サンプルを自動生成する手法」を説明する.直感的な理解のために\Cref{fig:framework_overview}を参照のこと.最終的に生成されるサンプルの例は\Cref{appendix:fig:deduction_example,appendix:fig:deduction_example_JFLD}に示す.なお,人工論理推論コーパスの生成手法は先行研究\cite{clark2020transformers,betz-etal-2021-critical}があるが,これらの手法では設計指針を満たすことができないため,完全に新規な生成手法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[b]\begin{center}\includegraphics{32-2ia5f08.eps}\end{center}\caption{「ランダム演繹」の手順.詳細は\Cref{appendix:sec:FLD_proof_tree_generation}を参照のこと.}\label{appendix:fig:random_deduction}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ランダム演繹による多段推論生成}\label{appendix:sec:FLD_proof_tree_generation}まず最初に,論理式で表された多段演繹推論を生成する.先行研究\cite{clark2020transformers}では,論理式群をランダムに生成し,それらの間に偶発的に生じる多段演繹関係を論理ソルバーによって特定することで,多段演繹推論のサンプルを作成していた.しかしながらこの方法は,外部のソルバーに依存するため演繹規則群を自由に選ぶことができず,結果として「演繹規則として公理系を用いる」(設計指針3)や「代表的な定理も用いる」(設計指針3$''$)を満たすことができない.更に,偶発的に生じる演繹関係に頼っているため,論理ステップ数を調節することがず(特に大きな論理ステップ数を実現するのが難しい),「多様な論理ステップ数を用いる」(設計指針3$'$)を満たすこともできない.そこで我々は,指定された演繹規則群・論理ステップ数を用いた多様な多段演繹推論を生成するアルゴリズム\textbf{「ランダム演繹」}(\Cref{appendix:fig:random_deduction})を開発した.このアルゴリズムは,「指定された演繹規則群(今回は公理系と代表的な定理)からランダムに1つの演繹規則を選び,現在までに作った多段推論木に結合する」ということを,指定された論理ステップ数を達成するまで,繰り替える.より具体的には以下である.まず,前向きにランダム演繹を行う.公理系・代表的な定理からランダムに演繹規則を一つ選択し,その結論がルートノードとし,前提事実を子ノードとする,初期の多段推論木を形成する(\Cref{appendix:fig:random_deduction}\red{\textcircled{\scriptsize1}}).次に,演繹規則をもう一つランダムに選び,多段推論木に「結合」する(\Cref{appendix:fig:random_deduction}\red{\textcircled{\scriptsize2}}).以上を繰り返すことにより,所望の深さの多段推論木を生成する(\Cref{appendix:fig:random_deduction}\red{\textcircled{\scriptsize3}}).また,後向きランダム演繹も同様に行い,多段推論木の枝を増やす(\Cref{appendix:fig:random_deduction}\red{\textcircled{\scriptsize4}}).以上のように,ランダム演繹によって,\textbf{「公理系や代表的な定理を用いた,多様な多段演繹推論」(設計指針3・3$''$)}が生成される.また,この多段推論木の論理ステップ数は,木の深さと枝の数から決まるので,前向きランダム演繹・後ろ向きランダム演繹の回数を(所望の範囲から)ランダムに選ぶことで,\textbf{「多様な論理ステップ数」(設計指針3$'$)}も実現できる.なお,多段推論木に含まれる論理式の多様性を増やすために,以下の追加処理を施している.多段推論木のノードの論理式($\mathcal{F}$や$\mathcal{G}$)は任意である.よって,これらは,$\mathcal{F}$や$\mathcal{G}$といった単純な論理式ではなく,より複雑な論理式でもよい.そこで,$\mathcal{F}$や$\mathcal{G}$を,原子論理式($A$や$B$等)と論理演算子$\land,\lor,\neg$を用いたより複雑な論理式に,ランダムに変換する\footnote{ただし先行研究と同様,原子論理式の数は3までとする.}.例えば,$\mathcal{F}=A\landB$,$\mathcal{G}=(C\lor\negB)$などである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ノイズ事実の生成}\label{sec:FLD_distractor_generation}次に,\textbf{設計指針2「前提事実が不十分な場合は結論が導けないことを教える」}ために,多段演繹推論の前提事実群に加えて,不十分な事実を模擬した「ノイズ事実群」もサンプルに含めておく.LLMは,各論理ステップにおいて,「ノイズ事実群の存在下であっても,結論を導くのに十分な前提事実のみを選び取る」ことが求められる.よって,間接的に,「前提事実が不十分な場合は結論を導けないこと」を教えることに繋がる.ノイズ事実としては,「前提事実とよく似ているが,情報が欠落した論理式」を,ルールベースで生成する.例えば,前提事実$\mathcal{F}\land\mathcal{G}$に対して情報が欠落した$\mathcal{F}$を,前提事実$\mathcal{F}\rightarrow\mathcal{H}$に対して情報が欠落した$\mathcal{F}\land\mathcal{G}\rightarrow\mathcal{H}$を,生成する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{サンプル形式への変換}\label{appendix:sec:answer_label}論理式で書かれた多段推論木を用いて論理推論サンプルを生成する.論理推論サンプルは,「前提事実群」「仮説」「論理ステップ」「回答ラベル」から構成される.ここで,回答ラベルとは以下の3種類がある:\begin{itemize}\item「証明」:多段演繹推論により仮説を証明できる(例えば仮説が$\mathcal{F}$の場合,$\mathcal{F}$を導出できる,ということ).\item「反証」:多段演繹推論により仮説を反証できる(例えば仮説が$\mathcal{F}$の場合,$\neg\mathcal{F}$を導出できる,ということ).\item「不明」:前提事実群からは,仮説を証明も反証もできない.\end{itemize}特に「不明」の論理推論サンプルは,\textbf{「前提事実が不十分な場合は結論が出せないこと」(設計指針2)}を教える.まず,回答ラベル3種類から一様分布に従い1つを選び,次に,多段推論木を用いて,その回答ラベルに整合する論理推論サンプルを作成する.回答ラベルが「証明」の場合は:\begin{itemize}\item前提事実群:多段推論木の葉ノード群を用いる.\item仮説:多段推論木の根ノードを用いる\item論理ステップ:多段推論木の中間ノード群を用いる.\end{itemize}回答ラベルが「反証」の場合は:\begin{itemize}\item前提事実群:多段推論木の葉ノード群を用いる.\item仮説:多段推論木の根ノードの\underline{否定}を用いる(例えば根ノードが$\mathcal{F}$の場合は,$\neg\mathcal{F}$を用いる).\item論理ステップ:多段推論木の中間ノード群を用いる.\end{itemize}回答ラベルが「不明」の場合は:\begin{itemize}\item前提事実群:多段推論木の葉ノード群から\underline{幾つかをランダムに取り除いたノード群}を用いる.\item仮説:多段推論木の根ノードもしくはその否定を用いる.\item論理ステップ:多段推論木の中間ノード群を用いる.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ランダム事実の割り当て}\label{appendix:sec:FLD_generator_linguistic_diversity}最後に,各論理式に対して,自然言語で記述された事実を割り当てる.\citeA{betz-etal-2021-critical}を参考に,テンプレートベースのアプローチを採用する.まず,各論理式ごとに,それを表現する自然言語のテンプレートを複数,人手で用意しておく:\begin{alignSmall}A\rightarrowB:&\\text{``IfA,thenB.''},\\text{``AleadstoB.''}\nonumber\\F(a)\rightarrowG(b):&\\text{``IfaF,thenbG.''},\\text{``WhenaF,bG.''}\nonumber\end{alignSmall}このテンプレートを人手で豊富にすることにより,\textbf{「論理式を表す多様な同義表現」(設計指針4)}を達成できる.そして,各論理式に対して,このテンプレート群からランダムに1つを選択する.次に,$A,B,F,G,a,b$のような記号に対して,語彙から(一定の文法制約の下で)ランダムに構築した事実を割り当てる:\begin{alignSmall}A:\text{``anEarthquake}&\text{occurs''}\\\B:\text{``theyearends''}\nonumber\\F:\text{``run''}\G:\text{``answer''}\&a:\text{``thehamburger''}\b:\text{``Peter''}\nonumber\end{alignSmall}事実はランダムに構築されるため,\textbf{設計指針1「任意の事実」}となっている.ここで,文法制約とは,以下のようなものである:(i)$A$や$B$という原始命題は,「[NOUN]is[ADJ]」「[NOUN][VERB]」「[NOUN]occurs」というような完全文に変換する.(ii)$F$や$G$などの(論理的な)述語は,「[VERB]」「is[ADJ]」「is[NOUN]」といった言語的な述語に変換する.(iii)$a$のような定数は「[NOUN]」というようなエンティティに変換する.以上はテンプレートとして簡単な例を用いたが,実際には以下のように複雑である:\begin{alignSmall}\langle(A\landB)\rightarrowC\rangle:&\\text{If}\\langle(A\landB)\text{.predicate\_phrase}\rangle,\\text{then}\\langleC\text{.predicate\_phrase}\rangle.\nonumber\\:&\\langle(A\landB).\text{noun\_pharse}\rangle\\langle\text{cause\_synonyms}\rangle\\langleC\text{.noun\_phrase}\rangle.\nonumber\\:&\(\dots)\nonumber\\\langle(A\landB)\text{.predicate\_phrase}\rangle:&\A\\langle\text{occur\_synonyms}\rangle\\text{andalso}\B\\langle\text{occur\_synonyms}\rangle.\nonumber\\:&\A\\text{andalso}\B\\langle\text{occur\_synonyms}\rangle.\nonumber\\:&\\text{Both}\A\\text{and}\B\\langle\text{occur\_synonyms}\rangle.\nonumber\\:&\(\dots)\nonumber\\\langleC\text{.predicate\_phrase}\rangle:&\C\\langle\text{occur\_synonyms}\rangle.\nonumber\\:&\(\dots)\nonumber\\\langle\text{occur\_synonyms}\rangle:&\\text{occur}\nonumber\\:&\\text{happen}\nonumber\\:&\\text{takeplace}\nonumber\\:&\(\dots)\nonumber\\\langle(A\landB).\text{noun\_pharse}\rangle:&\A\\text{and}\B\nonumber\\:&\A\\text{andalso}\B\nonumber\\:&\\text{Both}\A\\text{and}\B\nonumber\\:&\\text{That}\A\\text{and}\B\\langle\text{occur\_synonyms}\rangle\nonumber\\:&\(\dots)\nonumber\\\langle\text{cause\_synonyms}\rangle:&\\text{cause}\nonumber\\:&\\text{resultin}\nonumber\\:&\\text{leadto}\nonumber\\:&\\text{bringabout}\nonumber\\:&\(\dots)\nonumber\\(&\dots)\label{appendix:eq:linguistic_templates}\end{alignSmall}見て分かるように,テンプレートは深く入れ子にできるため,組み合わせ的に多様な同義表現が生成される.組み合わせ的爆発により,これらのテンプレートを前もって展開することは不可能なため,テンプレートをランダムに,動的に展開しつつ,言語表現を作っていく.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[b]\begin{center}\includegraphics{32-2ia5f09.eps}\end{center}\hangcaption{日本語FLD(JFLD)の「ぷにぷに版」からののサンプル例.ぷにぷに版は,人間にとっての分かりやすさのために,事実を敢えて,ぷにぷにしたものに限っている.正式版はより多様で任意の事実を含む.実際に生成されたサンプルを\Cref{appendix:fig:deduction_example,appendix:fig:deduction_example_JFLD}に示す.}\label{appendix:fig:deduction_example_JFLD}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{日本語版の人工論理推論コーパス} \label{appendix:sec:JFLD}我々は,日本語LLMの学習及び評価を目的として,日本語版FLD(JapaneseFormalLogicDeduction,\textbf{JFLD})を構築している\cite{morishita_2024_NLP_JFLD,morishita-etal-2024-jfld}.JFLDのサンプル例を\Cref{appendix:fig:deduction_example_JFLD}に示す.また,JFLDを用いて様々な日本語LLMを評価し,以下のような洞察を得ている:\begin{enumerate}\itemGPT-4はある程度の論理推論能力を発揮できるが,完全には遠い.\item日本語LLMの論理推論能力はGPT-4に大きく劣る.\item事前学習の量の向上によりある程度の改善が見込めるが,(GPT-4のように)完全には届かない.\item人工論理推論コーパスでの大規模学習が有望な方向性である.\end{enumerate}JFLDの構築は具体的には,\PLDAbbr\の生成機構における「テンプレート」と「語彙」とを日本語にし,また日本語特有の統語現象もルールベースで取り入れることにより,実現している.まず,各論理式に対する\underline{日本語テンプレート}を人手で作成した.例を示す:\begin{align}\forallx,F(x)\rightarrowG(x):&\\text{$F$なものは$G$だ}\nonumber\\:&\\text{何かがFなら、それはGだ}\nonumber\\:&\\\\\\\dots\nonumber\\F(a)\rightarrowG(b):&\\text{$a$が$F$なら$b$は$G$だ}\nonumber\\:&\\text{$F$な$a$は$G$な$b$に繋がる}\nonumber\\:&\\\\\\\dots\label{eq:templates}\end{align}次に,\Cref{eq:templates}中の$F,G,a,b$のような各記号に対して,(一定の文法制約化で)ランダムに語彙を割り当てる.多言語WordNet\cite{bond-foster-2013-linking}から\underline{日本語の語彙}を割り当てた:%%%%\setlength{\abovedisplayskip}{3pt}%%%%\setlength{\belowdisplayskip}{3pt}\begin{align}F:\text{``頑健''}&\\\G:\\text{``腐敗''}\nonumber\\\forallx,F(x)\rightarrowG(x):&\\text{頑健なものは腐敗だ}\label{eq:assignment}\end{align}なお,文法制約とは以下のようなものである:\begin{itemize}\item(論理的な)述語$F$や$G$には,日本語の述語(動詞・名詞・形容動詞)を割り当てる.\item定数$a$や$b$には,日本語のエンティティ名詞を割り当てる.\end{itemize}最終的に\Cref{appendix:fig:deduction_example_JFLD}のような論理推論サンプルが得られる.ただし,\underline{日本語特有の統語現象}を以下のように組み込んでいる.第一に,日本語の語順は非常に柔軟で,例えば主語と目的語はほぼ常に入れ替え可能である.これに対応するため,許容される場合には句をランダムに入れ替えた.第二に,日本語は膠着語であるので,語句が活用する:例えば,「彼が走る」から「もし彼が走\underline{れ}ば」への変化などである.このような活用をMecab\cite{kudo2005mecab}の辞書を利用したルールにより実現した.\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{RecallAdamを使用せずに学習したLLMの性能} \label{appendix:sec:results_other_LLMs}\Cref{appendix:tb:performance_aggregated}にRecallAdamを使用せずに学習したLLMも含めた結果を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{\llamaThreeBaselineのベンチマーク毎の性能} \label{appendix:sec:llama_8B_results}\Cref{appendix:tb:performance_details_8B}に,\llamaThreeBaseline\のベンチマーク毎の結果を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[h]\input{05table08.tex}%\addtocounter{table}{-1}\hangcaption{\ALTJP前後のLLMの精度.5-shot文脈内学習により評価した.$\oplus$\textbf{\ALT}-$x$は\Cref{tb:corpora}中に記載の人工論理推論コーパス$x$を用いて\ALTJPを施したことを示す.``w/oRecAdam''は,RecallAdamオプティマイザーを使わなかったことを示す.色は各列での順位を示す(濃いほど良い).「平均」は全てのベンチマークのミクロ平均である.「論理推論」「数学」「コード」「NLI」「その他」は,その領域の様々なベンチマークで構成され(\Cref{appendix:tb:benchmarks}),ここでは平均精度を示す.}\label{appendix:tb:performance_aggregated}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\clearpage%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{05table09.tex}%\caption{\ALTJP前後の\llamaThreeBaseline\の性能.5-shot文脈内学習により評価した.}\label{appendix:tb:performance_details_8B}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{森下皓文}{%2014年に東京大学―理学系研究科―物理学専攻(修士課程)を修了.専門は素粒子物理学・宇宙物理学.同年に株式会社東芝に入社し,音声認識の研究に従事.2017年より株式会社日立製作所に入社し,機械学習の情報論的解釈や,自然言語処理の基礎(論理推論)また事業応用(ソフトウェア開発・意志決定理支援等)の研究に従事.}\bioauthor{森尾学}{%東京農工大工学部学情報工学科を2017年に早期卒業,同大学院工学府情報工学専攻を2019年に修了後,日立製作所入社.同社の研究開発グループにて自然言語処理の研究に従事.2023年よりHitachiAmericaLtd.の研究員,およびスタンフォード大学の客員研究員として自然言語処理と気候変動の学際研究に従事.}\bioauthor{山口篤季}{%2019年東京農工大学工学部情報工学科卒業.2020年英国シェフィールド大学コンピュータ・サイエンス学科音声言語処理専攻修士課程終了.株式会社日立製作所研究開発グループ研究員を経て,2023年より英国シェフィールド大学コンピュータ・サイエンススクール博士課程に在籍.現在は言語モデルの多言語適応に関する研究に従事.}\bioauthor{十河泰弘}{%2013年に大阪大学工学研究科電気電子情報工学専攻博士課程修了.博士(工学).同年に日本電気株式会社に入社し,機械学習技術の研究および事業応用に従事.2019年より株式会社日立製作所に入社.現在,ユニットリーダ主任研究員として自然言語処理技術の研究およびチームマネジメントに従事.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V27N02-02
\section{はじめに} 流暢な文の生成を可能にするニューラルネットワークによる系列変換モデル\cite{Sutskever:2014,BahdanauCB14}の発展は,文生成を利用する自然言語処理タスクに大きな恩恵をもたらした.文書要約タスクも例外ではなく,\citeA{D15-1044}以降,系列変換モデルを用いた生成型要約(abstractivesummarization)の研究が盛んに行われており,ヘッドライン生成,単一文書要約ではそれが顕著である.一方,文書の一部を抜き出すことで要約を生成する抽出型要約\footnote{本稿では,文抽出と文圧縮を統合した圧縮型要約(compressivesummarization)も抽出型要約とみなす.}(extractivesummarization)の研究は脈々と続いているものの生成型要約の研究と比較すると数は少なくなってきた.たとえば,2019年開催の第57回AssociationforComputationalLinguistics(ACL)では,抽出型要約手法に関する発表は約5件であったが生成型要約手法に関する発表は約15件であり,生成型要約手法に注目が集まっていることがよくわかる.このように自動要約研究の主流は抽出から生成へと移り変わりつつある.では,抽出型要約は終わってしまった研究,すなわち,継続する価値のない研究なのだろうか?この疑問に答えるためには,抽出型要約手法の上限,つまり抽出型要約でどれほど人間の要約に近づけるかを知る必要がある.抽出型要約手法の上限が十分高い水準にあるのならば,研究を続ける価値があるし,そうでないのならば続ける価値はない.自動要約手法のパラダイムが移りつつあるいまだからこそ,抽出型要約手法の上限を明らかにすることは自動要約研究の今後の発展に大きな意味を持つと考える.本稿では人間が生成した参照要約に対する自動評価スコアを最大化する抽出による要約,すなわち抽出型オラクル要約を上限の要約とみなす.そして,それを得るための整数計画問題による定式化を提案し,自動評価という観点から抽出型要約手法の到達点を調べる.次に,その妥当性をより詳細に検証するため,ピラミッド法\cite{nenkovau:2004:HLTNAACL,Nenkova:2007},DocumentUnderstandingConference(DUC)\footnote{\url{https://duc.nist.gov}}で用いられたQualityQuestions\cite{qqduc06}を用いて内容と言語品質の両側面から人手で評価し,それが人間にとってどの程度良い要約なのかを検証する.TextAnalysisConference(TAC)\footnote{\url{https://tac.nist.gov}}2009/2011のデータセットを用いて,自動評価指標であるROUGE-2\cite{rouge3},BasicElements(BE)\cite{hovy06}に対する文抽出,ElementaryDiscourseUnit(EDU)抽出,根付き部分木抽出の3種の抽出型オラクル要約を生成し,上記の観点でそれらを評価したところ,(1)自動評価スコアはいずれの抽出型オラクル要約も非常に高く,現状のシステム要約のスコアと比較すると差が大きいことがわかった.(2)ピラミッド法による評価結果から,要約の内容評価という点でも優れていることがわかった.(3)しかし,QualityQuestionsによる言語品質評価の結果は,現状の要約システムと大差ない,あるいは劣る結果となった.これらより,抽出型要約手法で重要情報に富んだ要約を生成できることが明らかとなった.つまり,抽出型要約は今後も続けていく価値のある研究であることが示された.その一方,言語品質には改善の余地があることも明らかとなった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{抽出型オラクル要約の定義} オラクル要約とは参照要約にもっとも類似し,かつシステムが生成可能な要約を指す.生成型要約の場合,その要約生成の仕組みに一切の制約がないため,実際にそれが生成可能かどうかの議論はあるが,オラクル要約は参照要約そのものになる.一方,抽出型要約は原文書中のテキストユニットを切り貼りして要約を生成するため,参照要約を再現することは基本的には不可能である.よって,抽出型オラクル要約(以降,オラクル要約)は参照要約との間の類似尺度を最大化する原文書中のテキストユニットの集合と定義できる.一般的には,ROUGEやBEなどの自動評価指標が類似尺度として利用されるので,自動評価指標(ROUGE-2/BE)を$f()$,参照要約の集合を${\calR}$,原文書におけるテキストユニット集合を${\calD}$とすると,オラクル要約は以下の定義となる.\begin{equation}\label{def:oracle}\begin{split}O=&\displaystyle\mathop{\rmargmax}_{S\subseteq{\calD}}f({\calR},S),\\\text{subject~to}\quad&\ell(S)\leL.\end{split}\end{equation}$\ell()$は要約の長さを返す関数であり,$L$はあらかじめ与えられた要約長である.そして,$f()$は以下の式で与えられる.\begin{equation}\label{rouge}f({\calR},S)=\frac{\sum_{i=1}^{|{\calR}|}\sum_{j=1}^{|U_{\calR}|}\min\{N(u_j,R_i),N(u_j,S)\}}{\sum_{i=1}^{|{\calR}|}\sum_{j=1}^{|U_{\calR}|}N(u_j,R_i)}.\end{equation}$U_{\calR}$は自動評価スコアの計算に利用する基本ユニットの参照要約全体における集合である.ROUGE-2であればバイグラム集合,BEであれば依存関係にある単語対とその関係ラベルからなるタプル集合をあらわす.$u_j$はその$j$番目の要素である.$N(u_j,R_i)$は$u_j$の$R_i$における頻度,$N(u_j,S)$は$u_j$の$S$における頻度である.式(2)の分母は$S$に依存しないため,分子を最大化すればオラクル要約を得ることができる.式(2)より,関数$f()$の分子は$u_j$の重みを$S$における頻度$N(u_j,S)$と$R_i$における頻度$N(u_j,R_i)$のどちらか小さい方として,すべてのユニットに対してその和を計算したものである.よって式(1)の最適化問題は,$N(u_j,R_i)$があらかじめ決まった値であることを考慮すると,長さ制約のもと,ユニット$u_j$の被覆回数を$N(u_j,R_i)$まではカウントしつつその和を最大化するよう${\calD}$の部分集合$S$を選択する問題となる.これは一種のMax-$k$-Cover問題であり,NP困難であることが示されている\cite{Feige:1998,Feige:2011}\footnote{ROUGEが劣モジュラ関数であることがLinら\citeyear{hlin11}によって証明されており,劣モジュラ関数の最大化がNP困難であることがFeigeら\citeyear{Feige:2011}によって示されていることから,式(1)の最適化問題がNP困難であるということもできる.}.そして,この問題に対し疑多項式時間で厳密解を得ることのできるアルゴリズムが知られていないことから,本稿では整数計画問題による定式化を提案し,ソルバを利用することでオラクル要約を生成する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{整数計画問題によるオラクル要約の生成の定式化} 本稿では,文抽出,EDU抽出,根付き部分木抽出の3種の抽出型オラクル要約を生成するための整数計画問題による定式化を提案する.オラクル要約を得るための自動評価指標としては,TACの公式指標として用いられたROUGE-2とBEを利用する.よって,スコア計算の基本ユニットはバイグラム,係り受け関係にある2つの単語と関係ラベルのタプルとなる.なお,以下の定式化では原文中の文,EDU,チャンク(依存構造木のノード),単語にはユニークなインデックスが割り当てられていることを想定している(図\ref{ex}参照).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{27-2ia1f1.eps}\end{center}\caption{単語,チャンク,EDU,文の関係.実線矢印はチャンク間の係り受け関係をあらわす.}\label{ex}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文抽出によるオラクル要約}文抽出型要約は広く利用される要約手法である.もっとも古典的な手法であり,1958年よりその研究が始まったと言われている\cite{Luhn:1958}.文抽出によるオラクル要約を得るための整数計画問題による定式化は以下となる.{\allowdisplaybreaks\begin{eqnarray}\text{maximize}&\textstyle\sum_{i=1}^{|{\calR}|}\sum_{j=1}^{|U_{\calR}|}z_{i,j}&\\\text{subjectto}&N(u_j,R_i)\gez_{i,j}&\foralli,j\\&\sum_{p\inV_{u_j}}t_p\gez_{i,j}&\foralli,j\\&s_{\text{id}(p)}\get_p&\forallp\in{V_{u_j}}\\&\sum_{k=1}^{|{\calD}|}\ell_ks_k\leL\\&s_k\in\{0,1\}&\forallk\\&t_p\in\{0,1\}&\forallp\\&z_{i,j}\in\mathbb{Z}_{\ge0}&\foralli,j\end{eqnarray}}%式(3)は式(2)の分子を最大化するための目的関数であり,解として得られる$z_{i,j}$は式(2)における$\min(N(u_j,R_i),N(u_j,S))$と一致する.ここで,$z_{i,j}$が$u_j$の$i$番目の参照要約における頻度と要約$S$における頻度のうち,小さい方の値をとるようにするための制約が式(4)と(5)である.式(4)より,$z_{i,j}$は$u_j$の$i$番目の参照要約における頻度よりも小さいことが保証され,式(5)より,$z_{i,j}$は原文書における$u_j$の頻度よりも小さいことが保証される.したがって,$z_{i,j}$は$i$番目の参照要約における$u_j$の頻度,原文書における$u_j$の頻度の双方よりも小さい値をとる.なお,原文書における$u_j$のすべての出現をその左側の単語の出現位置をあらわすインデックスと右側の単語の出現位置をあらわすインデックスのペアの集合$V_{u_j}$としてあらわす.$t_p$は0/1変数であり,$t_p=1$のときに$V_{u_j}$中の単語の出現位置インデックスペア$p$に対応する基本ユニットがオラクル要約に採用される.id($p$)は,$p$に対応する基本ユニットが出現する文番号を返す関数であり,式(6)は基本ユニットと文の間の依存関係をあらわす.$t_p=1$のときには,$p$に対応する基本ユニットを含むid($p$)の文がオラクル要約に採用される.すなわち任意の文をオラクル要約に採用するか否かをあらわす0/1変数$s_{{\rmid}(p)}$が1となる.式(7)はオラクル要約の長さ制約をあらわし,$\ell_k$は$k$番目の文の長さ,ここでは単語数をあらわす.$L$はあらかじめ与えられた単語数の上限をあらわす.なお,$\mathbb{Z}_{\ge0}$は非負整数集合をあらわす.図\ref{ex}の例を用いて説明する.いま,$u_j$として``andlive''というバイグラムを考える.このバイグラムは単語インデックス(6,7)と(17,18)に出現しているので$V_{u_j}{=}\{(6,7),(17,18)\}$となる.$t_{(6,7)}=1$のときには,``and$_{6}$live$_{7}$''がオラクル要約に採用され,$\text{id}(6,7)=1$より,$s_1$がオラクル要約に採用される.同様に,$t_{(17,18)}=1$のときには,``and$_{17}$live$_{18}$''がオラクル要約に採用され,$\text{id}(17,18)=2$より,$s_2$がオラクル要約に採用される.この整数計画問題をソルバを用いて解いた後,$s_k=1$となる文を集めれば文抽出によるオラクル要約を得ることができる.なお,ROUGE-2ではなくBEに対するオラクル要約を得る時には,$u_j$の出現に対応する単語インデックスペアが連続するとは限らないだけで,それ以外にROUGE-2の場合との違いはない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{EDUの抽出によるオラクル要約}ElementaryDiscourseUnit(EDU)とは,RhetoricalStructureTheory(RST)\cite{mann88}における修辞構造木の葉であり,およそ節に相当する.よってEDUは多くの場合文よりも小さい.\citeA{W16-3617}はピラミッド法\cite{Nenkova:2007}におけるSummaryContentUnit(SCU)(詳細は後述する)がEDUとよく一致することをヒントにEDU抽出による要約手法(near-extractivesummarizatioon)を提案し,その有効性を示した.EDU抽出によるオラクル要約生成は基本的には文抽出によるオラクル要約生成と同じであるが,それが文よりも小さいテキストユニットであるため,いくつかの制約を追加する必要がある.EDU抽出によるオラクル要約を得るための整数計画問題による定式化は以下となる.{\allowdisplaybreaks\begin{eqnarray}\text{maximize}&\textstyle\sum_{i=1}^{|{\calR}|}\sum_{j=1}^{|U_{\calR}|}z_{i,j}{-}\sum_{k=1}^{|{\calD}|}s_k&\\\text{subjectto}&N(u_j,R_i)\gez_{i,j}&\foralli,j\\&\sum_{p\inV_{u_j}}t_p\gez_{i,j}&\foralli,j\\&e_{\text{left}_e(p)}\get_p&\forallp\inV_{u_j}\\&e_{\text{right}_e(p)}\get_p&\forallp\inV_{u_j}\\&e_g\le1-t_p&\forallg\inD_p,~\forallp\inV_{u_j}\\&s_{\text{id}(n)}\gee_n&\foralln\\&\sum_{n=1}^{|{\calE}|}\ell_ne_n\leL\\&\kern-3emt_p\in\{0,1\}~\displaystyle\forallp&e_n\in\{0,1\}~\displaystyle\foralln\\&\kern-3ems_k\in\{0,1\}~\displaystyle\forallk&z_{i,j}\in\mathbb{Z}_{\ge0}~\displaystyle\foralli,j\end{eqnarray}}%EDUのような文よりも小さいユニットを抽出することでオラクル要約を生成する場合,抽出に何らかの制約を導入しなければ,バイグラム,係り受け関係にある単語対をカバーするよう多くの文からばらばらにEDUが抽出される.すると,ROUGE-2/BEは高いものの断片化された可読性の低いオラクル要約となってしまう.これを避けるため,Moritaら\citeyear{moritaACL2013}にならい,目的関数(3)にペナルティを導入し,選択したEDUの元となる文の数がなるべく少なくなるようにする.式(11)の第2項は抽出したEDUが属する文の異なり数をあらわすので,多くの文からEDUを抽出する場合には目的関数の値が小さく,少ない文からEDUを抽出する場合には目的関数の値が大きくなるようになる.式(12),(13)は文抽出の場合と同様で式(2)の分子を表現するための制約である.式(14),(15)は単語インデックスペアとEDUインデックスとの依存関係をあらわしており,$\text{left}_e(p)$,$\text{right}_e(p)$は,ペアの左側の単語インデックスが属するEDUのインデックス,右側の単語インデックスが属するEDUのインデックスである.すなわち,インデックスペアが$p$であるバイグラムをオラクル要約に採用するとき,その左側の単語が属するEDUとその右側の単語が属するEDUを同時にオラクル要約に採用することを示す.さらに,EDUという文よりも小さなユニットを抽出するため,原文書ではスキップのあるバイグラムをオラクル要約では単なるバイグラムとして採用することができる.つまり,任意のEDUの最後の単語とそれよりも右側のEDUの最初の単語で構成される原文書中のスキップバイグラムはオラクル要約ではバイグラムとして採用可能である.ただし,その際には左右の単語を含むEDUに挟まれたEDUはオラクル要約に採用できない.式(16)はその制約をあらわしており,$D_p$は単語インデックスペアの左側の単語が属するEDUのインデックスと右側の単語が属するEDUのインデックスに挟まれたEDUインデックスの集合をあらわす.つまり,$D_p=\{\text{left}_e(p)+1,\ldots,\text{right}_e(p)-1\}$である.式(17)は長さ制約をあらわしており,$\ell_n$は$n$番目のEDUの単語数,${\calE}$は原文書中のEDUの集合をあらわす.図\ref{ex}の例で説明する.$u_j$として``amphibiansand''というバイグラムを考える.スキップを許すと図の例では(2,6),(12,13),(12,17),(22,26)という4つの単語インデックスペアがそれに該当する.ここで,(2,6)と(12,17)はEDUの最後の単語と最初の単語で構成されるスキップバイグラムではないことからオラクル要約に採用することはできないので無視する.よって,$V_{u_j}{=}\{(12,13),(22,26)\}$となる.``amphibians$_{12}$and$_{13}$''をオラクル要約に採用する時,2つの単語を含むEDUは連続しているため,$D_{(12,13)}=\phi$となる.$\text{left}_e(12,13)=3$,$\text{right}_e(12,13)=3$より,インデックスが3であるEDUのみがオラクル要約に採用される.そして,id(3)=2より,$s_2=1$となる.一方,``amphibians$_{22}$and$_{26}$''をオラクル要約に採用するとき,$\text{left}_e(22,26)=5$,$\text{right}_e(22,26)=7$より,2つのEDUに挟まれたEDUのインデックスが6であることから,$D_{(22,26)}=\{6\}$となる.よって,インデックス5と7のEDUがオラクル要約に同時に採用され,インデックス6のEDUは採用されない.また,$\text{id}(5)=\text{id}(7)=3$より,$s_3=1$となる.整数計画問題を解いた後,$e_n{=}1$となるEDUを集めることでEDU抽出によるオラクル要約を得ることができる.なお,ROUGE-2ではなくBEに対してオラクル要約を生成する時,係り受け関係にある単語対が連続して出現する必要がないため,式(16)を無視すればよい.それ以外はROUGE-2の場合と同じである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{根付き部分木の抽出によるオラクル要約}根付き部分木の抽出による要約は圧縮型要約(compressivesummarization)\cite{martins-smith09,kirkpatrick11,Almeida13}とも呼ばれ,文抽出と文圧縮を統合した要約手法である.文書中の文は構文木として表現され,その根付き部分木を抽出することで要約を生成する.構文木としては句構造木,依存構造木の双方とも用いられるが,本稿では依存構造木を利用する.なお,依存構造木は\citeA{filippova:2013}のルールに従い,単語の依存関係でなくフレーズをチャンクとするチャンク間の依存構造へと変換しておく.根付き部分木抽出によるオラクル要約生成を得るための整数計画問題による定式化は以下の式となる.{\allowdisplaybreaks\begin{eqnarray}\text{maximize}&\textstyle\sum_{i=1}^{|{\calR}|}\sum_{j=1}^{|U_{\calR}|}z_{i,j}{-}\sum_{k=1}^{|{\calD}|}s_k&\\\text{subjectto}&N(u_j,R_i)\gez_{i,j}&\foralli,j\\&\sum_{p\inV_{u_j}}t_p\gez_{i,j}&\foralli,j\\&c_{\text{left}_c(p)}\get_p&\forallp\inV_{u_j}\\&c_{\text{right}_c(p)}\get_p&\forallp\inV_{u_j}\\&c_g\le1-t_p&\forallg\inD_p,~\forallp\inV_{u_j}\\&s_{\text{id}(n)}\gec_n&\foralln\\&c_{\text{parent}(n)}\gec_n&\foralln\\&\sum_{n=1}^{|{\calC}|}\ell_nc_n\leL\\&t_p\in\{0,1\}~\displaystyle\forallp&c_r\in\{0,1\}~\displaystyle\forallr\\&s_k\in\{0,1\}~\displaystyle\forallk&z_{i,j}\in\mathbb{Z}_{\ge0}~\displaystyle\foralli,j.\end{eqnarray}}%EDU抽出によるオラクル要約生成の定式化とほぼ同等であり,式(21)--(23)までは同じである.left$_c$($p$)は$p$に対応するバイグラムの左側の単語が属するチャンクのインデックス,right$_c$($p$)は右側の単語が属するチャンクのインデックスであり,$c_n$は$n$番目のチャンクをオラクル要約に採用する場合に1,そうでない場合に0をとる0/1変数である.式(24),(25)より,$p$に対応するバイグラムをオラクル要約に採用する場合,左側の単語が属するチャンクと右側の単語が属するチャンクの双方を同時にオラクル要約に採用しなければならない.そして,2つのチャンクが連続していない場合にはそれらに挟まれたすべてのチャンクをオラクル要約に採用しない.式(26)がその制約であり,$D_p=\{\text{left}_c(p)+1,\ldots,\text{right}_c(p)-1\}$が左側の単語が属するチャンクと右側の単語が属するチャンクに挟まれたチャンクの集合をあらわす.式(27)はチャンクと文の依存関係をあらわし,$n$番目のチャンクをオラクル要約に採用すると,それを含む文に対応する0/1変数$s_{\text{id}(n)}$が1となる.式(28)は抽出したチャンクが文の依存構造木の根付き部分木となるための制約である.$n$番目のチャンクをオラクル要約に採用すると,その依存構造木における親のチャンクである$c_{\text{parent}(n)}$もオラクル要約に採用される.式(29)はオラクル要約の長さ制約をあらわし,$\ell_n$は$n$番目のチャンクの長さ,${\calC}$は原文書中のチャンク集合をあらわす.図\ref{ex}の例を用いて説明する.$u_j$として``amphibianshave''というバイグラムを考える.スキップ\footnote{EDU抽出と同じく,チャンクの最後の単語とそれより右のチャンクの最初の単語からなるスキップバイグラムのみを考える.}も考慮した上で``amphibianshave''となる単語インデックスペアは(2,3),(12,15),(22,28)であるから,$V_{u_j}{=}\{(2,3),(12,15),(22,28)\}$となる.``amphibians$_2$have$_3$''をオラクル要約に採用するとき,$\text{left}_c(2,3)=1$,$\text{right}_c(2,3)=2$より,$D_{(2,3)}=\phi$となるので,$c_1$,$c_2$を同時にオラクル要約に採用するだけでよい.そして,$\text{id}(1)=\text{id}(2)=1$より,$s_1=1$となる.また,$\text{parent}(1)=2$,$\text{parent}(2)=\text{Root}$なので,式(28)の制約によって新たに採用するチャンクは存在しない.``amphibians$_{12}$have$_{15}$''をオラクル要約に採用するとき,$\text{left}_c(12,15)=9$,$\text{right}_c(12,15)=11$より,$D_{(12,15)}=\{10\}$となり,$c_{9}$,$c_{11}$を同時にオラクル要約に採用し,$c_{10}$を採用しない.そして,$\text{id}(9)=\text{id}(11)=2$より,$s_2=1$となる.また,$\text{parent}(12)=15$,$\text{parent}(15)=\text{Root}$であるから式(28)の制約によって新たに採用するチャンクは存在しない.``amphibians$_{22}$have$_{28}$''をオラクル要約に採用するには,$c_{16}$と$c_{21}$を同時にオラクル要約に採用し,$c_{17}$から$c_{20}$までを採用しない.そして,$s_3=1$となり,式(28)の制約によって新たに採用するチャンクも存在しない.この整数計画問題を解いた後,$c_n=1$となるチャンクを集めることで根付き部分木抽出によるオラクル要約を得ることができる.BEの場合には,EDU抽出によるオラクル要約生成の場合と同じく係り受け関係にあるチャンクが連続する必要はないため,ユニットの左側の単語が属するチャンクと右側の単語が属するチャンクに挟まれたチャンク集合を削除する必要はない.よって,式(26)を無視する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{人手評価の方法} オラクル要約の妥当性を調べるため,内容と言語品質という2つの観点からそれぞれ人手で評価を行う.以下,内容評価に用いたピラミッド法,言語品質評価に用いたQualityQuestionsについて説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ピラミッド法による内容評価}ピラミッド法\cite{nenkovau:2004:HLTNAACL,Nenkova:2007}は,要約の内容評価を評価者の直感に頼らず,根拠をもって評価する手法である.ピラミッド評価では1つの要約課題に対して複数の参照要約が与えられることが前提となっており,それらに基づきピラミッドを構築するステップと構築したピラミッドに基づき評価対象要約のスコアを決定するステップからなる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{27-2ia1f2.eps}\hangcaption{SCUとそれに対応するcontributorsとラベルの例.トピックID``D0928'',``TrialsofTyco'sDennisKozlowski''より.}\label{SCU}\end{center}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%まず,評価者はそれぞれの参照要約からSummaryContentUnit(SCU)と呼ばれるユニットを同定し,それに言及する参照要約の数でその重みを決定する.SCUは参照要約内で言及される事象であり,節相当のユニットである.図\ref{SCU}にSCUの例を示す.図中のCon.はcontributorと呼ばれ,SCUに対応する参照要約中の実際の文字列である.LabelはContributorに対して人間が割り当てた簡潔なラベルである.図の上段の4つのcontributor,下段の3つのcontributorはそれぞれ同じ意味を持つ.また,上段のSCUはcontributorの数が4であることからその重みは4となり,下段のSCUの重みは3である.つまり,$K$個の参照要約が与えられた場合,SCUが取りうる最大の重みは$K$であり,最小の重みは1となる.一般的にSCUの重みが大きくなると異なるSCUの数は少なくなり,小さくなると異なるSCUの数が多くなる.これを図示するとピラミッド(三角形)を想起させることからピラミッド法と名付けられた.次に,評価対象要約に対しても同様にSCUを同定し,ピラミッドのSCUと評価対象要約のSCUの対応関係を決定した後,評価スコアを以下の式で決定する.\begin{equation}\text{Pyr}({\calR},S)=\frac{\sum_{e_r\in{\calR}}\sum_{e_s\inS}W(e_r)b(e_r,e_s)}{\sum_{e_k\in{\calR}_{\text{top{-}$M$}}}W(e_k)}\end{equation}$e_r$はピラミッドのSCU,$e_s$は評価対象要約のSCUをあらわし,$W()$はSCUの重みを返す関数,$b(e_r,e_s)$は2つのSCUの間に対応関係が与えられていれば1,そうでなければ0を返す関数である.また,${\calR}_{\text{top{-}$M$}}$は,ピラミッドの重みが上位$M$件のSCUの集合であり,$M$は,参照要約中の平均SCU数である.式(32)より,要約の人手評価でよく用いられる5段階評価などとは異なり,ピラミッドというスコア決定の基準が与えられるため,その評価には客観性が期待できる.しかし,何をSCUとするのか,ピラミッド中のSCUと評価対象要約との間のSCUが意味的に一致するかどうかについては評価者によって判断が揺れることがありえる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{QualityQuestionsによる言語品質評価}要約の言語品質には,DUCで提案されたQualityQuestions\cite{qqduc06}を利用した.表\ref{qq}に詳細を示す.Grammaticalityは可読性に影響を与える文レベルでの文法ミスを評価する.Non-redundancyは,事象の繰り返しや固有表現の繰り返しなど冗長な表現を評価する.Referentialclarityは,参照表現が指す実体が要約中に含まれるかを評価する.Focusは要約の焦点が定まっているか,StructureandCoherenceは要約の構成,結束性を評価する.いずれの観点も5段階(5が最高)で評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\caption{言語品質評価のためのQualityQuestions}\label{qq}\input{01table01.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{設定}最大化する自動評価指標には,ROUGE-2とBEを採用し,TAC-2009/2011の複数文書要約タスクのデータセットに対し3種の抽出型オラクルを生成する.それぞれのデータセットには44トピック(文書セット)が与えられ,各トピックには新聞記事が10記事,参照要約が4つ含まれる.なお,要約システムは各トピックに対し100単語以内で要約を生成することが求められるのでオラクル要約の長さの上限も100単語となる.また,EDU抽出によるオラクル要約を生成するため,3層の双方向LSTMを用いたセグメンタを実装し,RSTDiscourseTreebank(RSTDT)\cite{rstdtb}を用いて訓練した.EDU境界の認定性能はRSTDTのテストセットでF値が0.9程度である.根付き部分木抽出によるオラクル要約の生成のため,StanfordParser\cite{stanford06}を用いて単語依存構造木を構築し,Filippovaら\citeyear{filippova:2013}のルールを用いてチャンク間の依存構造木へと変換した.比較評価のため,TAC-2009で最も良い成績を残したシステム{\ttpeer\_40}\cite{gillick:tac:09}\footnote{圧縮型要約要約システム\cite{gillick-favre:2009:ILPNLP}に対し,精度を重視した文圧縮,文境界認定の改善,要約対象候補文の絞り込みを導入したシステム.},TAC-2011で最も良い成績を残したシステム{\ttpeer\_22}\cite{tac11best}\footnote{単語の被覆に対してある程度の冗長性を許すように拡張した最大被覆問題を解くことで文を抽出するシステム.}を評価対象に含めた.また,TAC-2009に対しては,人間による文抽出{\scHexTac}も評価対象とした.{\scHexTac}は各トピックに対し5名の被験者が文抽出により要約を生成した後,それらの多数決で要約を生成する手法である.被験者は計算機科学分野の研究者である.なお,ピラミッド評価の際には,TAC-2009/2011で作成されたピラミッドを再利用し,評価対象要約におけるSCUの同定および既存ピラミッドのSCUと評価対象要約のSCUの対応付けのみを新たに行った.なお,1トピックあたりの参照要約数は4なので,SCUの重みの最大値は4である.対応付け,スコア計算にはピラミッド評価ツール{\ttDUCView-1.4.jar}を利用した.ピラミッド評価,QualityQuestionsとも1つのトピックに対し1名の被験者が全ての要約を評価した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{結果と考察}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{自動評価結果}人手評価結果を示す前に,自動評価という観点からの抽出型オラクル要約のROUGE-2,BEスコアの到達点を表\ref{auto}に示す.なお,表中の``Best''は{\ttpeer\_40}と{\ttpeer\_22}のスコアである.表より,双方のデータセットともEDU抽出,根付き部分木抽出,文抽出の順でスコアが高い.EDU抽出,根付き部分木抽出は文よりも小さな単位を抽出するので,ある長さの制約のもとで多くの情報を詰め込むことが可能なことから妥当な結果である.Bestと比較するとその差は非常に大きく,ROUGE-2では0.1から0.13ポイント,BEでは0.13から0.17ポイントの差である.なお,TAC-2009/2011のデータセットにおける現在のROUGE-2のベストスコアはそれぞれ0.128\cite{li-etal-2015-using},0.144\cite{li-etal-2013-document}であり\footnote{前者は文抽出による要約システム,後者は圧縮型要約システムである.},これらスコアとオラクル要約のスコアを比較してもその差は非常に大きい.特に,古典的な文抽出型オラクル要約であっても極めて高い自動評価スコアを獲得していることから,自動評価という観点ではあるが現在の要約システムは抽出型要約の上限には程遠いことがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\caption{抽出型オラクル要約の自動評価スコア}\label{auto}\input{01table02.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\caption{ピラミッド評価とQualiryQuestionsの結果}\label{res}\input{01table03.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{ピラミッド評価の結果}表\ref{res}にピラミッド評価とQualityQuestionsの結果を示す.カッコ内の数値は分散をあらわす.オラクル要約間を比較すると自動評価指標の場合と同様の傾向を示しており,EDU抽出,根付き部分木抽出,文抽出の順にスコアが高い.TAC参加システムと比較するとこれも自動評価指標の場合と同じくその差は大きい.この結果をより詳細に分析するため,各オラクル要約と参照要約に含まれる平均部分文数を調べた.その結果を表\ref{sent}に示す.表より,1つの要約に含まれる平均部分文数は,EDU抽出,根付き部分木抽出,文抽出の順に多い.EDU抽出は3--4文,根付き部分木抽出は2文程度,文抽出よりも文数が多い.また参照要約は根付き部分木抽出の場合に比べ1文弱程度,文数が少ない.先に述べたとおり,EDUや根付き部分木は,文抽出よりもより多くの部分文を要約に含めることができる.よって,SCUがうまく部分文に含まれていれば高いピラミッドスコアを達成できる.Liら\citeyear{W16-3617}はSCUとEDUは一致することが多いことを報告しており,この実験結果を支持している.これらの結果は,原文書の一部を抽出するだけで,自動評価だけでなく人手の内容評価も高い要約が生成可能であることを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\caption{各要約の平均部分文数}\label{sent}\input{01table04.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%なお,人間による文抽出である{\scHexTac}のスコアは,要約システムとほぼ変わらずオラクル要約に対しては大きく劣る結果となった.{\scHexTac}はそもそも参照要約を再現するように生成されていないこと,参照要約はNISTが訓練した情報分析のエキスパートが生成していることに対し,{\scHexTac}は計算機科学の研究者が要約を生成していることが原因であろう.{\scHexTac}の5名の要約作成者間の文抽出に対する一致が低いことも報告されており\cite{hextac},非エキスパートによる要約に問題があったのではないかと考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{QualityQuestionsの結果}自動評価とピラミッド評価においてオラクル要約は非常に高い評価を得たが,表\ref{res}より,QualityQuestionsの結果は既存の要約システムと同等か劣る結果となった.要約システムがどの項目においても4以上のスコアを得ていることに対し,オラクル要約のスコアは,TAC-2009の場合にはすべての項目で4未満,TAC-2011の場合には文抽出オラクル要約のみがシステムと同等の4程度のスコアである.TAC-2009/2011とも文抽出オラクル要約のGrammaticalityスコアが要約システムよりも低く,TAC-2009では4未満である.TACでは原文書に対して文区切りは与えられず,何らかの方法で文境界を認定しなければならない.文区切りにはStanfordCoreNLPを用いて同定したが,引用符号やカッコの対応がとれていない文があり,これらが悪影響を与えた.さらに,原文書に含まれる名詞句だけの短い文(記事の小見出し)を抽出した際にもGrammaticalityスコアが低いと判断された.EDU抽出,根付き部分木抽出のGrammaticalityスコアはさらに低く,EDU抽出は2から3程度でしかない.文の一部を抽出することにより文頭が大文字でない場合があること,EDUセグメンタのエラーにより非文法的なEDUが生成されること,依存構造解析のエラーにより根付き部分木の文法性が損なわれることが原因である.文頭が小文字であればそれを大文字にすることは自動的にできるが,後者の2つの事象については解析器の性能が完璧でない限り避けることができない.つまり,部分文を抽出する限りある程度文法的な誤りが含まれることは避けられない.Non-redundancy,Referentialclarityが低い原因として,EDU,根付き部分木抽出は参照要約での出現回数程度,固有表現を繰り返し抽出するものの,人間のように参照表現を織り交ぜて表現することができないため,単なる固有表現の繰り返しとなってしまい冗長に感じること,そもそも要約生成法に参照表現とその実体を対応付ける機構がないため,部分文の数が多いと参照表現が指すものが曖昧になる可能性が高くなることが原因である.さらに,部分文は接続詞を欠くことが多いこと,部分文の数が多いことで情報が断片化してしまうことにより文脈が損なわれることが多々ある.その結果,焦点や結束性という観点で低い評価となってしまう.図\ref{sum_ex}に参照要約,各種法によるオラクル要約,{\ttpeer\_40}の要約例を示す.オラクル要約の生成の際に最大化する自動評価スコアにはBEを用いた.オラクル要約は参照要約との間のBEスコアを最大化しているため,当然であるが,参照要約の内容をよく反映している.特に,EDU抽出,根付き部分木抽出は文の数が多いためより多くの内容で参照要約と一致している.システム要約{\ttpeer\_40}は参照要約を考慮せずに作成された要約であるため,オラクル要約と比較すると参照要約との間の内容の一致は高くない.一方,要約の言語品質に着目すると,EDU抽出,根付き部分木抽出には先頭が大文字でない文が含まれており,Grammaticalityが低い.また,文抽出と比較すると,固有表現の繰り返し回数が多く人名の参照に対して一貫性がない.たとえば,``L.DennisKozlowski''に対し,参照要約では初出時がフルネーム,2回目以降は姓だけであることに対し,EDU抽出,根付き部分木抽出は,初出時に姓のみ,2回目がフルネームとなっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[p]\includegraphics{27-2ia1f3.eps}\caption{トピックID``D0928'',``TrialsofTyco'sDennisKozlowski''に対する要約.}\label{sum_ex}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[p]\begin{center}\includegraphics{27-2ia1f4.eps}\end{center}\caption{ペナルティの重みを変化させた場合のROUGE-2,部分文数の変化}\label{rouge_sent}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%なお,部分文の数が多いことがQualityQuestionsの評価を下げる要因であるのなら,それを抑制すればよい.オラクル要約に採用する部分文の数をさらに抑制するには式(11),(21)のペナルティ項に対する重みを1よりも大きくすればよいことから,TAC-2009のデータセットを対象として,EDU抽出,根付き部分木抽出の双方のペナルティ項に対する重みを$\alpha$として1から0.5刻みで3.5まで変化させ,要約あたりの平均文数,ROUGE-2スコアの変化を調べた.その結果を図\ref{rouge_sent}に示す.図より,$\alpha$を大きくするにつれて平均文数が減っておりQualityQuestionsによる言語品質の評価が向上することが期待できる.一方,ROUGE-2スコアは低下してしまう.つまり,単純に部分文の数を抑制しただけでは要約の内容が劣化することを示している.以上より,抽出型要約手法により情報に富んだ要約を生成できることがわかったが,その言語品質は決して高いとは言えず改善が必要であることが明らかとなった.ピラミッド評価で高い評価が期待できるほどの高い自動評価スコアを維持しつつ言語品質をいかに高めていくかが抽出型要約の重要な研究ポイントとなるであろう.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本稿では文抽出,EDU抽出,根付き部分木抽出という3種の抽出型要約手法によるオラクル要約,すなわちROUGE-2あるいはBEスコアを最大化する要約を生成するための整数計画問題による定式化を提案し,それらの上限を明らかにした.オラクル要約の自動評価スコアは現状の要約システムのスコアよりも明らかに高く,抽出型要約手法にはまだ研究の余地が残されていることがわかった.そして,オラクル要約の内容評価と言語品質評価をピラミッド評価とQualityQuestionsを用いて人手で評価しその妥当性を検証した結果,自動評価スコアと同様,オラクル要約のピラミッドスコアは非常に高いことがわかった.一方,QualityQuestionsの結果から,EDU抽出,根付き部分木抽出の場合,解析器の誤りなどにより部分文の文法性が低下し,それにより要約全体の言語品質が大きく低下することが明らかとなった.これらの結果より,抽出型要約手法はまだまだ有望な要約手法であり,今後も研究を続ける価値があることが明らかとなった.一方,言語品質を担保するための研究が重要であることも明らかとなった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment有益なコメントをくださった査読者,担当編集委員の皆様に感謝いたします.本研究の一部はThe15thEuropeanChapterofAssociationforComputationalLinguistics(EACL)での発表\cite{hirao2017:EACL}とThe55thAssociationforComputationalLinguistics(ACL)での発表\cite{hirao-acl2017}に基づいています.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%{\setlength{\baselineskip}{16.5pt}\bibliographystyle{jnlpbbl_1.5}\bibliography{01refs}}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{平尾努}{%1997年奈良先端科学技術大学院大情報科学研究科博士前期課程修了.同年,株式会社NTTデータ入社.2000年より日本電信電話株式会社コミュニケーション科学基礎研究所.博士(工学).自然言語処理の研究に従事.情報処理学会,言語処理学会,ACL各会員.}\bioauthor{西野正彬}{%2008年京都大学大学院情報学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学基礎研究所.博士(情報学).自然言語処理,アルゴリズムの研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{永田昌明}{%1987年京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学研究所上席特別研究員.工学博士.自然言語処理の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
V11N04-04
\section{はじめに} \label{sec:intro}機械翻訳システムの辞書は質,量ともに拡充が進み,最近では200万見出し以上の辞書を持つシステムも実用化されている.ただし,このような大規模辞書にも登録されていない語が現実のテキストに出現することも皆無ではない.辞書がこのように大規模化していることから,辞書に登録されていない語は,コーパスにおいても出現頻度が低い語である可能性が高い.ところで,文同士が対応付けられた対訳コーパスから訳語対を抽出する研究はこれまでに数多く行なわれ\cite{Eijk93,Kupiec93,Dekai94,Smadja96,Ker97,Le99},抽出方法がほぼ確立されたかのように考えられている.しかし,コーパスにおける出現頻度が低い語とその訳語の対を抽出することを目的とした場合,語の出現頻度などの統計情報に基づく方法では抽出が困難であることが指摘されている\cite{Tsuji00}.以上のような状況を考えると,対訳コーパスからの訳語対抽出においては,機械翻訳システムの辞書に登録されていない,出現頻度の低い語を対象とした方法の開発が重要な課題の一つである.しかしながら,現状では,低出現頻度語を対象とした方法の先行研究としては文献\cite{Tsuji01b}などがあるが,検討すべき余地は残されている.すなわち,利用可能な言語情報のうちどのような情報に着目し,それらをどのように組み合わせて利用すれば低出現頻度語の抽出に有効に働くのかを明らかにする必要がある.本研究では,実用化されている英日機械翻訳システムの辞書に登録されていないと考えられ,かつ対訳コーパス\footnote{本研究で用いたコーパスは,文対応の付いた対訳コーパスであるが,機械処理により対応付けられたものであるため,対応付けの誤りが含まれている可能性がある.}において出現頻度が低い複合語とその訳語との対を抽出する方法を提案する.提案方法は,複合語あるいはその訳語候補の内部の情報と,複合語あるいはその訳語候補の外部の情報とを統合的に利用して訳語対候補にスコアを付け,全体スコアが最も高いものから順に必要なだけ訳語対候補を出力する.全体スコアは,複合語あるいはその訳語候補の内部情報と外部情報に基づく各スコアの加重和を計算することによって求めるが,各スコアに対する重みを回帰分析によって決定する\footnote{回帰分析を自然言語処理で利用した研究としては,重要文抽出への適用例\cite{Watanabe96}などがある}.本稿では,英日機械翻訳システムの辞書に登録されていないと考えられる複合語とその訳語候補のうち,機械翻訳文コーパス(後述)における出現頻度,それに対応する和文コーパスにおける出現頻度,訳文対における同時出現頻度がすべて1であるものを対象として行なった訳語対抽出実験の結果に基づいて,複合語あるいはその訳語候補の内部情報,外部情報に基づく各条件の有効性と,加重和計算式における重みを回帰分析によって決定する方法の有効性を検証する. \section{訳語対抽出処理の概要} \label{sec:outline}本稿で提案する方法による訳語対抽出処理の概要は次の通りである.\begin{enumerate}\item\label{enum:mt}対訳コーパスのうち英文コーパスを機械翻訳システムで翻訳する.翻訳には「翻訳これ一本2003」\footnote{http://www.sharp.co.jp/ej/}を利用した.\item\label{enum:sel_unknown}翻訳結果に原語のまま現れた二単語以上の単語列のうち,大文字で始まる語のみから構成される単語列を対象とする.小文字で始まる語を含む単語列を対象外とする理由は,予備調査の結果,小文字始まり語を含む単語列が辞書に登録されていない原因がつづりの誤りであることと,「kokuminnenkin」のような日本語のローマ字表記であることが多かったからである.大文字始まり語のみから構成される単語列(複合語)を含む文を抽出し,その集合を機械翻訳文コーパスとする.以下では,大文字始まり語のみから構成される辞書未登録の複合語を単に未登録語と呼ぶ.\item\label{enum:morph}機械翻訳文コーパスとそれに対応する和文コーパスそれぞれに対して形態素解析を行なう.解析には「茶筌」\footnote{http://chasen.aist-nara.ac.jp/chasen/}を利用した.\item\label{enum:sel_cand}未登録語に対応する訳語候補を,各機械翻訳文に対応する和文から抽出する.どのような語を訳語候補として抽出するかについては\ref{sec:conditions:pos}\,節で述べる.\item\label{enum:sel_low_freq}上記の処理(\ref{enum:sel_unknown})と(\ref{enum:sel_cand})で得られた訳語対候補から,機械翻訳文コーパスにおける出現頻度,それに対応する和文コーパスにおける出現頻度,訳文対における同時出現頻度がすべて1であるものを抽出する.\item\label{enum:sel_local}各訳語対候補に対して次の各観点からスコアを付与する.\begin{itemize}\item未登録語の構成単語の訳語を単純に合成した訳語と訳語候補との類似性\item未登録語のローマ字読みと訳語候補の読みとの類似性\item未登録語の近傍に現れる名詞の集合と訳語候補の近傍に現れる名詞の集合との類似性\item訳語候補と同一の語が機械翻訳文にも存在するか否か\end{itemize}これらの詳細については,それぞれ\ref{sec:conditions:element}\,節,\ref{sec:conditions:romaji}\,節,\ref{sec:conditions:neighbor}\,節,\ref{sec:conditions:same_noun}\,節で述べる.\item\label{enum:sel_global}処理(\ref{enum:sel_local})で付与された各スコアを統合して全体でのスコアを決定し,全体スコアが最も高いものから順に必要なだけ訳語対候補を出力する.スコアの統合方法については,\ref{sec:conditions:integration}\,節で述べる.\end{enumerate} \section{訳語対抽出に用いる制約条件と優先条件} \label{sec:conditions}本節では,\ref{sec:outline}\,節で概要を述べた訳語対抽出処理で用いる言語情報(制約条件と優先条件)について説明する.\subsection{品詞指定による訳語候補の絞込み}\label{sec:conditions:pos}辞書未登録の複合語は名詞であることが多い.このため,それに対する訳語候補の品詞も名詞であるとする.ただし,名詞すべてを訳語候補とするのではなく,「茶筌」の細分類品詞のうち,原則として,名詞-一般,名詞-サ変接続,名詞-形容動詞語幹,名詞-副詞可能,名詞-ナイ形容詞語幹,名詞-固有名詞を訳語候補とする.また,「茶筌」で未知語とされた語も,原則として,名詞とみなして訳語候補とする.これらの原則に従わない主な例外は次の二つの場合である.一つ目は,「する」か「できる」が名詞に後接しているとき,全体をサ変動詞とする場合である.二つ目は,半角の括弧のように記号とみなすべきものが「茶筌」の未知語になっている場合である.名詞あるいは未知語が連続している場合,全体を複合語とみなして一つの訳語候補とする.なお,名詞あるいは未知語の連続には接辞が含まれていてもよい.以下では,複合語を構成する単語の区切りを`/'で表わす.\subsection{未登録語の構成単語の単純合成訳と訳語候補の類似性による優先順位付け}\label{sec:conditions:element}未登録語の訳語すなわち複合語全体としての訳語は,複合語を構成する個々の単語の訳語を単純に合成したものであるとは限らない.しかし,複合語全体としての訳語と,複合語の構成単語の訳語を単純に合成した訳語との間にはある程度の類似性が見られることもある\cite{Kumano94,Takao96}.そこで,未登録語の訳語候補と,未登録語の構成単語の訳語を単純に合成した訳語との類似性に応じて未登録語と訳語候補の対にスコアを付けることを考える.以下,未登録語の構成単語の訳語の単純な合成を単純合成訳と呼ぶ.ここでは,訳語候補と単純合成訳の類似性を表わす尺度としてジャッカード係数\cite{Romesburg92}を用いる.ジャッカード係数は,この場合,未登録語の訳語候補と未登録語の単純合成訳の両方に現れる単語の数を,少なくとも一方に現れる単語の数で割った値であると定義できる.すなわち,未登録語$E$の訳語候補$J$を構成する単語の集合を$X$とし,未登録語$E$の単純合成訳を構成する単語の集合を$Y$としたとき,未登録語$E$と訳語候補$J$の対に対する単純合成訳の類似性スコア$S_1$は次の式(\ref{eq:jaccard})で求められる.\begin{equation}S_1(E,J)=\frac{|X\capY|}{|X\cupY|}\label{eq:jaccard}\end{equation}なお,本稿では複合語における構成単語の出現順序は考慮しない.実験に用いた対訳コーパスでは,例えば「Disaster/Prevention/Law」という未登録語の訳語候補として「災害/対策/基本/法」が挙げられる.他方,実験に用いた機械翻訳システムで「Disaster」,「Prevention」,「Law」を個別に翻訳するとそれぞれ「災害」,「防止」,「法」という訳語が得られる.このとき,訳語候補を構成する単語の集合と,単純合成訳を構成する単語の集合の積集合に属するものは「災害」と「法」の2語であり,和集合に属するものは「災害」,「対策」,「基本」,「法」,「防止」の5語である.従って,「Disaster/Prevention/Law」と「災害/対策/基本/法」が対訳である可能性に対して,複合語全体としての訳語と単純合成訳の類似性の観点から$S_1(\mbox{DisasterPreventionLaw},災害対策基本法)=2/5$というスコアが与えられる.\subsection{未登録語のローマ字読みと訳語候補の読みとの類似性による優先順位付け}\label{sec:conditions:romaji}\ref{sec:conditions:element}\,節で述べた条件は,複合語全体としては辞書に登録されていないが,複合語を構成する個々の単語は辞書に登録されている場合に有効である.しかし,地名や人名,組織名などを表わす固有名詞は辞書に登録されていないことも少なくなく,このような場合には有効に働かない.今回の実験では読売新聞とTheDailyYomiuriをコーパスとして用いたが,このように日本に関する事柄について述べた記事とその対訳記事を多く含むであろうコーパスを処理対象とする場合には地名や人名,組織名も日本のものであることが多い.このような日本に関する固有表現には日本語をローマ字表記した単語が多く含まれる可能性が高い.実際,TheDailyYomiuriコーパスのうち今回の実験対象とした文を機械翻訳システムで翻訳して得られた訳文に含まれる未登録語から100語を単純無作為抽出し,それらが例えば「Tsukuba/Circuit」のように日本語をローマ字表記した単語を含むかどうかを調べたところ,50語にローマ字表記語が含まれていた.未登録語が日本語をローマ字表記したものである場合,五十音表を用意すれば,比較的容易にかつある程度の精度でその読みを得ることができると考えられる.また,未登録語の訳語候補の読みも「茶筌」で得ることができる.これらの点に着目して,未登録語に対して得られるローマ字読みと訳語候補の読みを照合し,スコアを付けることにした.読みのスコアには,\ref{sec:conditions:element}\,節と同じく,ここでもジャッカード係数を用いる.すなわち,未登録語を構成する単語のローマ字読みの集合を$X$とし,訳語候補を構成する単語の読みの集合を$Y$としたとき,読みの類似性スコア$S_2$を式(\ref{eq:jaccard})と同様の式で求める.訳語候補については,それを構成する全ての単語の読みが得られるが,未登録語については,ローマ字読みが得られる単語とそうでない単語がある.未登録語を構成する単語のローマ字読みが得られない場合,便宜的にその単語そのものを読みとする.例えば未登録語「Tsukuba/Circuit」の場合,「ツクバ」と「Circuit」を読みとする.従って,「Tsukuba/Circuit」の読みの集合と訳語候補「筑波/サーキット」の読みの集合の積集合に属するものは「ツクバ」となり,和集合に属するものは「ツクバ」,「Circuit」,「サーキット」となるため,未登録語「Tsukuba/Circuit」と訳語候補「筑波/サーキット」に対する読みの類似性スコア$S_2(\mbox{TsukubaCircuit},筑波サーキット)$は$1/3$となる.実験に用いたコーパスでは,未登録語「Tsukuba/Circuit」の訳語候補として,「筑波/サーキット」の他に,「レース/用/バイク」,「パーツ/販売」が挙がってくるが,「レース/用/バイク」と「パーツ/販売」の場合は共に読みの類似性スコアが0となるので,未登録語「TsukubaCircuit」に対する訳語としては「筑波/サーキット」が優先される.\subsection{未登録語の近傍名詞集合と訳語候補の近傍名詞集合との類似性による優先順位付け}\label{sec:conditions:neighbor}訳語候補が未登録語の正しい訳語である場合,和文において訳語候補の前後に現れる語の集合と,機械翻訳文において未登録語の前後に現れる語の集合とは類似性が高いと考えられる\cite{Fung98,Kaji01}.そこで,未登録語の近傍に現れる名詞の集合と,訳語候補の近傍に現れる名詞の集合との類似性を訳語としての確からしさとして考慮する.ある語の近傍に現れる語を近傍名詞と呼び,近傍名詞になる可能性がある名詞を近傍名詞候補と呼ぶ\footnote{近傍名詞候補のうちどれを近傍名詞にするかは,どのくらいの距離を近傍とみなすかによる.}.近傍名詞候補には,未登録語の訳語候補(\ref{sec:conditions:pos}\,節参照)の他に,「茶筌」品詞の名詞-数も含める.これは,例えば「九十二/年」のような数表現は,訳語候補としては適切ではないが,未登録語の訳語候補の中から正しいものを選び出すのには有効な情報を提供すると考えられるからである.ある語の近傍の範囲は,その語が現れる文に含まれる近傍名詞候補の総数に比例するものとする.今回の実験では,未登録語が現れる機械翻訳文に含まれる近傍名詞候補の総数を$N$としたとき,未登録語の前方の近傍名詞候補を最大$N/4$語まで,後方の近傍名詞候補を最大$N/4$語まで近傍名詞として集合に加えた.なお,近傍名詞集合において,近傍名詞の出現位置が未登録語の前方か後方かは区別しない.また,近傍名詞候補数の上限値の小数点以下は切り捨てる.訳語候補についての近傍名詞集合についても和文において同様に求める.複合語の語数の計測では,個々の単語に分解せず,複合語全体で一語と数える.未登録語の近傍名詞集合と訳語候補の近傍名詞集合との類似性スコアもジャッカード係数で表わす.すなわち,未登録語$E$の近傍名詞集合を$X$とし,訳語候補$J$の近傍名詞集合を$Y$としたとき,近傍名詞集合の類似性スコア$S_3$を式(\ref{eq:jaccard})と同様の式で求める.例えば,次の和文(H\ref{SENT:maastrich})と機械翻訳文(M\ref{SENT:maastrich})から成る組では,未登録語「Maastrich/Treaty」の訳語候補は,「マーストリヒト/条約」と「弾み」である.\begin{SENT2}\sentEWithFrance,GermanyprovidedapowerfulnewimpetustoEuropeanintegration,terminatingintheMaastrichTreatyof1992.\sentHフランスとともにドイツは,九二年のマーストリヒト条約として結実する欧州統合に新たな,そして強力な弾みを与えた.\sentMフランスに関して,1992年のMaastrichTreatyで終了して,ドイツは,欧州統合に強力な新しい刺激をした.\label{SENT:maastrich}\end{SENT2}機械翻訳文(M\ref{SENT:maastrich})には7語の近傍名詞候補が現れる\footnote{機械翻訳文(M\ref{SENT:maastrich})に現れる近傍名詞候補は,「フランス」,「1992/年」,「Maastrich/Treaty」,「ドイツ」,「欧州統合」,「強力」,「刺激」である.}ので,「Maastrich/Treaty」の前後それぞれ1語ずつ「1992/年」と「ドイツ」が「Maastrich/Treaty」の近傍名詞となる.他方,和文(H\ref{SENT:maastrich})には8語の近傍名詞候補が現れる\footnote{和文(H\ref{SENT:maastrich})に現れる近傍名詞候補は,「フランス」,「ドイツ」,「九二/年」,「マーストリヒト/条約」,「欧州統合」,「新た」,「強力」,「弾み」である.}ので,「マーストリヒト/条約」の前方の2語「ドイツ」と「九二/年」,および後方の2語「欧州統合」と「新た」が「マーストリヒト/条約」の近傍名詞となる.訳語候補「弾み」の場合は,後方に近傍名詞候補が存在しないので,前方の2語「新た」と「強力」だけが近傍名詞となる.表\ref{tab:neighbor}\,に近傍名詞をまとめて示す.\begin{table}[htbp]\caption{近傍名詞集合の例}\label{tab:neighbor}\begin{center}\begin{tabular}{|l||l|}\hline\multicolumn{1}{|c||}{未登録語,訳語候補}&\multicolumn{1}{c|}{近傍名詞集合}\\\hline\hlineMaastrich/Treaty&1992/年,ドイツ\\マーストリヒト/条約&ドイツ,九二/年,欧州統合,新た\\弾み&強力,新た\\\hline\end{tabular}\end{center}\end{table}未登録語「Maastrich/Treaty」の近傍名詞集合と訳語候補「マーストリヒト/条約」の近傍名詞集合との積集合に属するものは「ドイツ」の1語となり,和集合に属するものは,「1992/年」,「ドイツ」,「九二/年」,「欧州統合」,「新た」の5語となるので,$S_3(\mbox{MaastrichTreaty},マーストリヒト条約)=1/5$という近傍名詞集合の類似性スコアが与えられる.他方,「Maastrich/Treaty」と訳語候補「弾み」の場合は,両者の近傍名詞集合の積集合に属する単語は存在しないので,近傍名詞集合の類似性スコア$S_3(\mbox{MaastrichTreaty},弾み)$は0となる.従って,近傍名詞集合のスコアの観点からは,未登録語「Maastrich/Treaty」の訳語として「マーストリヒト/条約」が「弾み」よりも優先される.\subsection{訳語候補と同一語の存在/非存在による優先順位付け}\label{sec:conditions:same_noun}和文に現れている訳語候補が機械翻訳文にも現れている場合,それらは対応関係にある可能性が高く,訳語候補と未登録語が対応関係にある可能性は低いのではないかと考えられる\footnote{同様の考え方が文献\cite{Ishimoto94}に示されている.}.例えば,次の和文(H\ref{SENT:foodstuff})と機械翻訳文(M\ref{SENT:foodstuff})から成る組では,未登録語「Foodstuff/Sanitation/Law」の訳語候補として,「食品/衛生/法」と「施行/規則」が挙げられる.このうち後者は,機械翻訳文(M\ref{SENT:foodstuff})に「規則」という単語が存在するため,「Foodstuff/Sanitation/Law」よりも「規則」に対応する可能性が高いと考えるのが自然であろう.\begin{SENT2}\sentEFirst,theyplantocoordinateviewswiththeircounterpartsattheAgriculture,ForestryandFisheriesMinistryandthenreviseregulationsoftheFoodstuffSanitationLawbyasearlyasthisfall.\sentH同省は、農水省と調整し、この秋にも食品衛生法の施行規則などを改正し、来年四月一日の施行を目指す。\sentM最初に、それらは、農林水産省でそれらの相対物を持つビューを統合し、その後、FoodstuffSanitationLawの規則をこの秋と同じくらい早く改正するつもりである。\label{SENT:foodstuff}\end{SENT2}このため,機械翻訳文に同じ語が現れる訳語候補と未登録語の対には,機械翻訳文に同じ語が現れない訳語候補と未登録語の対に与えるスコアよりも低いスコアを与える.なお,訳語候補と機械翻訳文に現れる語との照合は,複合語単位ではなく単語単位で行なう.すなわち,訳語候補と機械翻訳文に現れる語の両方あるいは一方が複合語である場合,それらを構成する単語のうち少なくとも一つが一致すれば,両者は対応関係にあるとみなす.実験では,訳語候補を構成する単語と同じ単語が機械翻訳文に現れる場合,同一語の存在/非存在に関するスコア$S_4$を0とし,現れない場合0.5とした.\[S_4=\left\{\begin{array}{lp{0.65\columnwidth}}0&訳語候補の構成単語と同じ単語が機械翻訳文に現れる場合\\0.5&現れない場合\end{array}\right.\]\subsection{総合的評価}\label{sec:conditions:integration}提案方法では,次の式(\ref{eq:weight})のような総合評価式に基づいて,未登録語と訳語候補の内部情報(未登録語の構成単語の単純合成訳と訳語候補との類似性,未登録語のローマ字読みと訳語候補の読みとの類似性)と未登録語と訳語候補の外部情報(未登録語の近傍名詞集合と訳語候補の近傍名詞集合との類似性,訳語候補と同一語の存在/非存在)を組み合わせた評価を行ない,全体スコア$S$が最も高い訳語対から順に出力する.\begin{equation}S=C+\displaystyle\sum_{i=1}^{4}W_i\timesS_i\label{eq:weight}\end{equation}$C$は定数であり,重み$W_i$は各観点からのスコア$S_i$の相対的重要度を表わす.訳語対内外の情報を併用するという考え方は,文献\cite{Kaji01}で示唆されているが,提案の段階に留まっており実験結果などは示されていない.$C$や$W_i$の決定方法として,直感的にあるいは予備実験を通じて経験的に決定する方法(以下,経験的な決定法と呼ぶ)と,回帰分析によって決定する方法が考えられる.本稿では,両者の場合について訳語対抽出の正解率を比較する. \section{実験と考察} \label{sec:experiment}\subsection{実験方法}\label{sec:experiment:method}実験には,内山ら\cite{Uchiyama03}によって文対応付けが行なわれた読売新聞とTheDailyYomiuriの対訳コーパスのうち1989年から1996年7月中旬までの記事で構成される部分を用いた.さらに,内山らの文対応スコアの上位10\%の訳文対に対象を限定した.このコーパスに対して訳語対抽出処理を行ない,各未登録語ごとに全体スコアが高いものから順に訳語候補を出力した.得られた訳語対データから標本抽出を行ない,標本中の各未登録語とその訳語候補の対に対して次のような「正解」か「不正解」の評価値を与えた.この評価値は,抽出された訳語対を辞書に登録する際の作業量の観点に立ったものである.\begin{LIST}\item[\bf正解]訳語の追加や削除,置換を行なわなくても,そのまま辞書に登録できる.\\例:Comprehensive/Security/Board$\Longleftrightarrow$総合/安全/保障/審議/会\item[\bf不正解]辞書に登録するためには,訳語の追加や削除,置換が必要である.\\例:Liquor/Tax/Law$\Longleftrightarrow$逆手\end{LIST}なお,上記の評価を行なう際,次のような場合は対象外とした.この措置は,訳語対抽出に用いた各条件の有効性と統合方法の有効性の検証に重点を置きたいことなどによる.\begin{itemize}\item未登録語の抽出が不適切である(未登録語が一つの名詞句を構成していない)場合.原因は\ref{sec:outline}\,節で述べた処理(\ref{enum:sel_unknown})が失敗したことにある.\\例:Kita/Ward/Tuesday$\Longleftrightarrow$大阪/市/北/区\item正解の一部分しか訳語候補になっていない場合.処理(\ref{enum:sel_cand})の失敗によるものである.なお,この場合は,訳語の追加を行なえば辞書に登録できる.例えば次の例では「法」を追加すればよい.例:Administrative/Procedures/Law$\Longleftrightarrow$行政/手続\item訳語候補に正解が含まれていない場合.これは,機械翻訳文コーパスにおける出現頻度,それに対応する和文コーパスにおける出現頻度,訳文対における同時出現頻度がすべて1であるものを対象としているため,処理(\ref{enum:sel_low_freq})で訳語候補から除外されることによる.また,元々,未登録語を含む機械翻訳文に対応する和文に正解が含まれていないことにもよる.\item未登録語に対する訳語候補が一つしかない場合.訳語候補が正解であっても対象外とした.\end{itemize}総合評価式(\ref{eq:weight})における定数$C$と重み$W_i$としては,それぞれ表\ref{tab:weight}\,に示す値を用いた.\begin{table}[htbp]\caption{重みの値}\label{tab:weight}\begin{center}\begin{tabular}{|l||r|r|}\hline&\multicolumn{1}{c|}{経験的決定法}&\multicolumn{1}{c|}{回帰分析}\\\hline\hline定数$C$&0&-4.58\\単純合成訳$W_1$&2&20.75\\ローマ字読み$W_2$&3&15.04\\近傍名詞集合$W_3$&1&3.58\\同一語$W_4$&2&2.81\\\hline\end{tabular}\end{center}\end{table}経験的な決定法による値は,予備実験で得られた訳語対データから未登録語を100語無作為抽出し,各未登録語とその全訳語候補との対に与えられた各条件によるスコアを観察した経験から,訳語対抽出に用いる各条件の信頼性が次の順で高くなっていくと判断したことによるものである.\begin{enumerate}\item未登録語の近傍名詞集合と訳語候補の近傍名詞集合との類似性($S_3$)\item未登録語の構成単語の単純合成訳と訳語候補との類似性($S_1$)と,訳語候補と同一語の存在/非存在($S_4$)\item未登録語のローマ字読みと訳語候補の読みとの類似性($S_2$)\end{enumerate}回帰分析による方法で決定した値は,個々の条件に基づくスコアを説明変数とし,正解か不正解か(1か0か)を目的変数としてロジスティック回帰分析を行なって求めたものである.訓練データの規模は1734件であり,このうち正解が148件,不正解が1586件である.表\ref{tab:weight}\,で経験的な決定法による重みの値と回帰分析による方法で決定した重みの値を比較すると,次のような違いがある.\begin{itemize}\item経験的な決定法の場合,未登録語と訳語候補の内部情報に基づくスコアに対する重みと未登録語と訳語候補の外部情報に基づくスコアに対する重みの間の差は小さいが,回帰分析による方法の場合は両者の差が比較的大きい.\item経験的な決定法では各条件の信頼性が$S_3$$<$$S_1$$=$$S_4$$<$$S_2$のように高くなっていくと考えたが,回帰分析による方法では$S_4$$<$$S_3$$<$$S_2$$<$$S_1$の順で高くなっていくとみなされている.\end{itemize}\subsection{実験結果}\label{sec:experiment:result}抽出された標本は,264語の未登録語と1086語の訳語候補から成る.すなわち,未登録語に対する訳語候補数は平均で4.11語(1086/264)であった.経験的な決定法による重みを用いた場合と回帰分析による方法で決定した重みを用いた場合のそれぞれの評価結果を表\ref{tab:result}\,に示す.表\ref{tab:result}\,を見ると,単独一位での正解率,同点一位を含めた場合の正解率,上位二位まででの正解率のいずれにおいても,回帰分析による方法のほうが経験的な決定法よりも高い正解率が得られている.\begin{table}[htbp]\caption{訳語対抽出の正解率}\label{tab:result}\begin{center}\begin{tabular}{|l||c|r|c|}\hline&単独一位&\multicolumn{1}{c|}{第一位(同点一位を含む)}&上位二位\\\hline\hline経験的決定法&74.24\%(196/264)&83.71\%(221/264)&92.80\%(245/264)\\\hline回帰分析&77.65\%(205/264)&86.36\%(228/264)&95.08\%(251/264)\\\hline\end{tabular}\end{center}\end{table}経験的な決定法と回帰分析による方法とで,正解が出力された順位がどのように変化したかを表わす分布を表\ref{tab:rank_change}\,に示す.表\ref{tab:rank_change}\,によれば,経験的な決定法より回帰分析による方法のほうが下がったものが5語である.逆に回帰分析による方法のほうが順位が上がったものは15語あり,その内訳は,同点一位から単独一位へ上がったものが2語,二位から単独一位へ上がったものが7語,三位以下から単独一位へ上がったものが5語,三位以下から二位へ上がったものが1語である.\begin{table}[htbp]\caption{正解が出力された順位の変動}\label{tab:rank_change}\begin{center}\begin{tabular}{|l||r|r|r|r|r|}\hline\multicolumn{1}{|c||}{経験的決定法$\backslash$回帰分析}&\multicolumn{1}{c|}{単独一位}&\multicolumn{1}{c|}{同点一位}&\multicolumn{1}{c|}{二位}&\multicolumn{1}{c|}{三位以下}&\multicolumn{1}{c|}{合計}\\\hline\hline単独一位&191&0&5&0&196\\同点一位&2&23&0&0&25\\二位&7&0&17&0&24\\三位以下&5&0&1&13&19\\\hline合計&205&23&23&13&264\\\hline\end{tabular}\end{center}\end{table}\subsection{失敗原因の分析}\label{sec:experiment:failure}正解が出力された順位が第二位以下であったものについて,その原因ごとに分類した結果を表\ref{tab:cause_of_failure}\,に示す.表\ref{tab:cause_of_failure}\,を見ると,未登録語のローマ字読みと訳語候補の読みとの類似性による優先順位付けの誤りによるもの(ローマ字読み)と訳語候補と同一語の存在/非存在による優先順位付けの誤りによるもの(同一語)の件数が他の原因に比べて多い.この二つの原因について分析する.なお,複合的原因は複数の原因が絡んでいると考えられるものである.\begin{table}[htbp]\caption{失敗原因の分類}\label{tab:cause_of_failure}\begin{center}\begin{tabular}{|l||r|r|}\hline\multicolumn{1}{|c||}{原因}&\multicolumn{1}{c|}{経験的決定法}&\multicolumn{1}{c|}{回帰分析}\\\hline\hline単純合成訳&2&6\\ローマ字読み&12&11\\近傍名詞集合&7&7\\同一語&19&9\\複合的原因&3&3\\\hline合計&43&36\\\hline\end{tabular}\end{center}\end{table}未登録語のローマ字読みと訳語候補の読みとの類似性による優先順位付けの誤りによるものは,次のように細分できる.\begin{itemize}\item表記からローマ字読みを得る処理の不備によるもの.実装した処理では,未登録語「Nihon/Shimbun/Kyokai」と正解「日本/新聞/協会」の対応関係が認識できなかった.この原因は,両唇音の直前の閉鎖音は両唇音に変わる音韻規則を考慮していなかったため,「shimbun」の読みを得ることができなかったことにある.また,「キョウ」を「kyo」と表記する書記規則を考慮していなかったため,「kyokai」の読みが「キョウカイ」ではなく「キョカイ」になってしまったことにも原因がある.\item読みの曖昧さによるもの.「Nihon/Shimbun/Kyokai」と「日本/新聞/協会」の対応関係が認識できなかったもう一つの原因は,「日本」の読みが「ニホン」ではなく「ニッポン」になっていたことにある.この問題は,「茶筌」の設定が読みの第一候補だけを得るようになっていたために生じたものであり,全候補を得る設定にすれば解決可能である.\item「茶筌」辞書の未登録語によるもの.「茶筌」の辞書に「熱川」という固有名詞が登録されていなかったために,「Atagawa」と「熱/川」の対応関係が認識できなかった.\end{itemize}訳語候補と同一語の存在/非存在による優先順位付けの誤りによるものは,機械翻訳文中の訳語候補(の構成要素)が和文にも現れているにもかかわらず,その訳語候補が正解である場合である.例えば,次の機械翻訳文(M\ref{SENT:price})に現れる未登録語「Price/Control/Ordinance」の正解訳語である「物価/統制/令」は,機械翻訳文(M\ref{SENT:price})に現れる「物価/上昇」と対応していると誤認識されてしまう.\begin{SENT2}\sentEThePriceControlOrdinancewasimposedinMarch1946tocurbpricehikesandeasethesupplyanddemandofproducts.\sentH物価統制令は一九四六年三月、物価暴騰を抑え、物資需給の円滑化を目的にポツダム命令として公布。\sentMPriceControlOrdinanceは、物価上昇を抑制し、そして、製品の需要と供給を緩和するために、1946年3月に課された。\label{SENT:price}\end{SENT2}このような誤りを防ぐには,「物価/上昇」が「物価/暴騰」に対応していることを認識する必要がある.\subsection{条件間の独立性}\label{sec:experiment:corel}複数の条件を組み合わせて訳語対抽出を行なう方法では,条件間の独立性が高いほうが望ましい.そこで,各条件間の独立性を調べるために,各素性間でのスピアマンの順位相関係数\cite{Siegel83}を求めた.その結果を表\ref{tab:corel}\,に示す.\begin{table}[htbp]\caption{各条件間でのスピアマンの順位相関係数}\label{tab:corel}\begin{center}\begin{tabular}{|l||r|r|r|r|}\hline&\multicolumn{1}{c|}{単純合成訳}&\multicolumn{1}{c|}{ローマ字読み}&\multicolumn{1}{c|}{近傍名詞集合}&\multicolumn{1}{c|}{同一語}\\\hline\hline単純合成訳&\multicolumn{1}{c|}{$-$}&0.057&0.048&0.039\\ローマ字読み&\multicolumn{1}{c|}{$-$}&\multicolumn{1}{c|}{$-$}&0.099&0.133\\近傍名詞集合&\multicolumn{1}{c|}{$-$}&\multicolumn{1}{c|}{$-$}&\multicolumn{1}{c|}{$-$}&-0.034\\同一語&\multicolumn{1}{c|}{$-$}&\multicolumn{1}{c|}{$-$}&\multicolumn{1}{c|}{$-$}&\multicolumn{1}{c|}{$-$}\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:corel}\,によれば,どの条件の間でも相関係数の値は小さく,独立性が高いことが分かる.\subsection{各条件の有効性}\label{sec:experiment:effect}本節では,各条件が正解率の向上にどの程度寄与しているかを調べる.個々の条件を課さない場合の重みの値は,各条件を除いた状態で1734件の訓練データに対してロジスティック回帰分析を行なうことによって求めた.各条件を課さない場合の正解率を表\ref{tab:feats-effect}\,に示す.括弧内の数字は正解数である.\begin{table}[htbp]\caption{各条件の有効性}\label{tab:feats-effect}\begin{center}\begin{tabular}{|l||c|r|c|}\hline&単独一位&\multicolumn{1}{c|}{第一位(同点一位を含む)}&上位二位\\\hline\hline全条件&77.65\%(205)&86.36\%(228)&95.08\%(251)\\単純合成訳なし&63.64\%(168)&81.44\%(215)&90.15\%(238)\\ローマ字読みなし&58.33\%(154)&79.92\%(211)&90.90\%(240)\\近傍名詞集合なし&74.24\%(196)&91.67\%(242)&95.45\%(252)\\同一語なし&76.89\%(203)&86.74\%(229)&94.70\%(250)\\\hline\end{tabular}\end{center}\end{table}未登録語の構成単語の単純合成訳と訳語候補との類似性に関する条件を課さない場合と,未登録語のローマ字読みと訳語候補の読みとの類似性に関する条件を課さない場合は,全ての条件を課した場合に比べて,単独一位での正解率,同点一位を含めた場合の正解率,上位二位まででの正解率のいずれもが低くなっている.特に単独一位での正解率の低下が大きい.従って,これら二つの条件は正解率の向上に寄与していると言える.他方,未登録語の近傍名詞集合と訳語候補の近傍名詞集合との類似性に関する条件を課さない場合と,訳語候補と同一語の存在/非存在に関する条件を課さない場合は,全ての条件を課した場合に比べて,同点一位を含めた場合の正解率は高くなっており,また,単独一位での正解率と上位二位まででの正解率も若干低くなっている程度である.従って,これら二つの条件は正解率の向上に寄与していないと言える.正解率の向上に寄与している二つの条件は複合語あるいはその訳語候補の内部情報に関するものであり,寄与していない二つの条件は外部情報に関するものである.訳語対抽出の正解率向上に有効に働く外部情報を探っていくことが今後の課題である. \section{おわりに} 本稿では,実用化されている機械翻訳システムの辞書に登録されておらず,かつ,(対応付け誤りを含む)対訳コーパスにおいて出現頻度が低い複合語を対象として,その訳語を抽出する方法を示した.提案方法では,複合語あるいはその訳語候補の内部の情報とそれらの外部の情報を統合的に利用して訳語対候補に全体スコアを付ける.全体スコアは四種類の情報に基づく各スコアの加重和を計算することによって求めたが,各スコアに対する重みをロジスティック回帰分析によって決定する方法を採った.読売新聞とTheDailyYomiuriの対訳コーパスを用いた実験では,加重和による総合評価式において各スコアに対する重みをロジスティック回帰分析により決定した場合,全体スコアが最も高い訳語対(のうちの一つ)が正解である割合が86.36\%,上位二位までに正解が含まれる割合が95.08\%という結果が得られた.この結果は,直感的にあるいは予備実験を通じて経験的に決定する方法による結果を上回るものである.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Dekai\BBA\Xia}{Dekai\BBA\Xia}{1994}]{Dekai94}Dekai,W.\BBACOMMA\\BBA\Xia,X.\BBOP1994\BBCP.\newblock\BBOQ{LearninganEnglish-ChineseLexiconfromaParallelCorpus}\BBCQ\\newblockIn{\BemProceedingsoftheAnnualConferenceofAssociationforMachineTranslationofAmerica},\BPGS\206--213.\bibitem[\protect\BCAY{Eijk}{Eijk}{1993}]{Eijk93}Eijk,P.\BBOP1993\BBCP.\newblock\BBOQ{AutomatingtheAcquisitionofBilingualTerminology}\BBCQ\\newblockIn{\BemProceedingsofthe6thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics},\BPGS\113--119.\bibitem[\protect\BCAY{Fung}{Fung}{1998}]{Fung98}Fung,P.\BBOP1998\BBCP.\newblock\BBOQ{StatisticalViewonBilingualLexiconExtraction:FromParallelCorporatoNon-parallelCorpora}\BBCQ\\newblock{\BemLectureNotesinArtificialIntelligence},{\Bbf1529},1--17.\bibitem[\protect\BCAY{石本浩之\JBA長尾眞}{石本浩之\JBA長尾眞}{1994}]{Ishimoto94}石本浩之\JBA長尾眞\BBOP1994\BBCP.\newblock\JBOQ対訳文章を利用した専門用語対訳辞書の自動作成---訳語対応における両立不可能性を考慮した手法について---\JBCQ\\newblock研究報告{NL}102-11,情報処理学会.\bibitem[\protect\BCAY{梶博行\JBA相薗敏子}{梶博行\JBA相薗敏子}{2001}]{Kaji01}梶博行\JBA相薗敏子\BBOP2001\BBCP.\newblock\JBOQ共起語集合の類似度に基づく対訳コーパスからの対訳語抽出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(9),2248--2258.\bibitem[\protect\BCAY{Ker\BBA\Chang}{Ker\BBA\Chang}{1997}]{Ker97}Ker,S.\BBACOMMA\\BBA\Chang,J.\BBOP1997\BBCP.\newblock\BBOQ{AClass-basedApproachtoWordAlignment}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf23}(2),312--343.\bibitem[\protect\BCAY{熊野明\JBA平川秀樹}{熊野明\JBA平川秀樹}{1994}]{Kumano94}熊野明\JBA平川秀樹\BBOP1994\BBCP.\newblock\JBOQ対訳文書からの機械翻訳専門用語辞書作成\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf35}(11),2283--2290.\bibitem[\protect\BCAY{Kupiec}{Kupiec}{1993}]{Kupiec93}Kupiec,J.\BBOP1993\BBCP.\newblock\BBOQ{AnAlgorithmforFindingNounPhraseCorrespondencesinBilingualCorpora}\BBCQ\\newblockIn{\BemProceedingsofthe31thAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\17--22.\bibitem[\protect\BCAY{Le\JBAYoubing\JBALin\BBA\Yufang}{Leet~al.}{1999}]{Le99}Le,S.\JBAYoubing,J.\JBALin,D.\JBA\BBA\Yufang,S.\BBOP1999\BBCP.\newblock\BBOQ{WordAlignmentofEnglish-ChineseBilingualCorpusBasedonChunks}\BBCQ\\newblockIn{\BemProceedingsoftheJointSIGDATConferenceonEmpiricalMethodsinNaturalLanguageProcessingandVeryLargeCorpora},\BPGS\110--116.\bibitem[\protect\BCAY{Romesburg}{Romesburg}{1992}]{Romesburg92}Romesburg,H.~C.\BBOP1992\BBCP.\newblock\Jem{実例クラスター分析}.\newblock内田老鶴圃,東京.\newblock西田英郎,佐藤嗣二訳.\bibitem[\protect\BCAY{Siegel}{Siegel}{1983}]{Siegel83}Siegel,S.\BBOP1983\BBCP.\newblock\Jem{ノンパラメトリック統計学---行動科学のために---}.\newblockマグロウヒルブック,東京.\newblock藤本煕監訳.\bibitem[\protect\BCAY{Smadja\BBA\McKeown}{Smadja\BBA\McKeown}{1996}]{Smadja96}Smadja,F.\BBACOMMA\\BBA\McKeown,K.\BBOP1996\BBCP.\newblock\BBOQ{TranslatingCollocationsforBilingualLexicons:AStatisticalApproach}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf22}(1),1--38.\bibitem[\protect\BCAY{高尾哲康\JBA富士秀\JBA松井くにお}{高尾哲康\Jetal}{1996}]{Takao96}高尾哲康\JBA富士秀\JBA松井くにお\BBOP1996\BBCP.\newblock\JBOQ対訳テキストコーパスからの対訳語情報の自動抽出\JBCQ\\newblock研究報告{NL}115-8,情報処理学会.\bibitem[\protect\BCAY{辻慶太}{辻慶太}{2001}]{Tsuji01b}辻慶太\BBOP2001\BBCP.\newblock\JBOQ対訳コーパスからの低頻度訳語対の抽出:翻字・頻度情報の統合的利用\JBCQ\\newblock\Jem{第49回日本図書館情報学会研究大会発表要綱},\BPGS\59--62.\bibitem[\protect\BCAY{辻慶太\JBA芳鐘冬樹\JBA影浦峡}{辻慶太\Jetal}{2000}]{Tsuji00}辻慶太\JBA芳鐘冬樹\JBA影浦峡\BBOP2000\BBCP.\newblock\JBOQ対訳コーパスにおける低頻度語の性質:訳語対自動抽出に向けた基礎研究\JBCQ\\newblock研究報告{NL}138-7,情報処理学会.\bibitem[\protect\BCAY{内山将夫\JBA井佐原均}{内山将夫\JBA井佐原均}{2003}]{Uchiyama03}内山将夫\JBA井佐原均\BBOP2003\BBCP.\newblock\JBOQ日英新聞の記事および文を対応付けるための高信頼性尺度\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(4),201--220.\bibitem[\protect\BCAY{Watanabe}{Watanabe}{1996}]{Watanabe96}Watanabe,H.\BBOP1996\BBCP.\newblock\BBOQ{AMethodforAbstractingNewspaperArticlesbyUsingSurfaceClues}\BBCQ\\newblockIn{\BemProceedingsofthe16thInternationalConferenceonComputationalLinguistics(COLING)},\BPGS\974--979.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.1999年神戸大学大学院自然科学研究科博士課程修了.(財)計量計画研究所(非常勤),シャープ(株)を経て,2003年より龍谷大学理工学部情報メディア学科勤務.}\bioauthor{九津見毅}{1965年生まれ.1990年,大阪大学大学院工学研究科修士課程修了(精密工学—計算機制御).同年,シャープ株式会社に入社.以来,英日機械翻訳システムの翻訳エンジンプログラムの開発に従事.}\bioauthor{小谷克則}{1974年生まれ.2002年より情報通信研究機構受託研究員.2004年,関西外国語大学より英語学博士取得.}\bioauthor{佐田いち子}{1984年北九州大学文学部英文学科卒業.同年シャープ(株)に入社.現在,同社情報通信事業本部情報商品開発センター技術企画室副参事.1985年より機械翻訳システムの研究開発に従事.}\bioauthor{井佐原均}{1978年京都大学工学部卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.2001年情報通信研究機構(旧:通信総合研究所)けいはんな情報通信融合研究センター自然言語グループリーダー.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V21N03-03
\section{はじめに} 日本において,大学入試問題は,学力(知力および知識力)を問う問題として定着している.この大学入試問題を計算機に解かせようという試みが,国立情報学研究所のグランドチャレンジ「ロボットは東大に入れるか」というプロジェクトとして2011年に開始された\cite{Arai2012}.このプロジェクトの中間目標は,2016年までに大学入試センター試験で,東京大学の二次試験に進めるような高得点を取ることである.我々は,このプロジェクトに参画し,2013年度より,大学入試センター試験の『国語』現代文の問題を解くシステムの開発に取り組んでいる.次章で述べるように,『国語』の現代文の設問の過半は,{\bf傍線部問題}とよばれる設問である.船口\cite{Funaguchi}が暗に指摘しているように,『国語』の現代文の「攻略」の中心は,傍線部問題の「攻略」にある.我々の知る限り,大学入試の『国語』の傍線部問題を計算機に解かせる試みは,これまでに存在しない\footnote{CLEF2013では,QA4MREのサブタスクの一つとして,EntranceExamsが実施され,そこでは,センター試験の『英語』の問題が使用された.}.そのため,この種の問題が,計算機にとってどの程度むずかしいものであるかさえ,不明である.このような状況においては,色々な方法を試すまえに,まずは,比較的単純な方法で,どのぐらいの正解率が得られるのかを明らかにしておくことが重要である.本論文では,このような背景に基づいて実施した,表層的な手がかりに基づく解法の定式化・実装・評価について報告する.我々が実装したシステムの性能は,我々の当初の予想を大幅に上回り,「評論」の傍線部問題の約半分を正しく解くことができた.以下,本稿は,次のように構成されている.まず,2章で,大学入試センター試験の『国語』の構成と,それに含まれる傍線部問題について説明する.3章では,我々が採用した定式化について述べ,4章ではその実装について述べる.5章では,実施した実験の結果を示し,その結果について検討する.最後に,6章で結論を述べる. \section{センター試験『国語』と傍線部問題} \begin{table}[b]\caption{センター試験『国語』の大問構成—出典\protect\cite{Kakomon2014}}\label{table:questions}\input{1001table01.txt}\vspace{-0.5\Cvs}\end{table}大学入試センター試験の『国語』では,毎年,大問4題が出題される\cite{Kakomon2014}.その大問構成を表\ref{table:questions}に示す.この表に示すように,現代文に関する出題は,第1問の「評論」と第2問の「小説」であり,『国語』の半分を占めている.第1問の「評論」は,何らかの評論から抜き出された文章(本文)と,それに対する6問の設問から構成される.6問の内訳は,通常,以下のようになっている.\begin{description}\item[問1]漢字の書き取り問題が5つ出題される.\item[問2--問5]本文中の傍線部について,その内容や理由が問われる.\item[問6]本文全体にかかわる問題で,2006年以降は本文の論の進め方や本文の構成上の特徴などが問われる.\end{description}一方,第2問の「小説」は,何らかの小説から抜き出された文章(本文)と,それに対する\mbox{6問}の設問から構成される.6問の内訳は,通常,以下のようになっている.\begin{description}\item[問1]語句の意味内容を問う問題が3つ出題される.\item[問2--問5]本文中の傍線部を参照し,登場人物の心情・人物像・行動の理由などが説明問題の形で問われる.\item[問6]本文全体の趣旨や作者の意図,表現上の特徴などが問われる.\end{description}\begin{figure}[b]\begin{center}\includegraphics{21-3ia1001f1.eps}\end{center}\caption{傍線部問題の例(2011年度本試験第1問の問5(2011M-E5))}\label{fig:2011M-E5}\end{figure}これらの設問のうち,「評論」「小説」の両者の\mbox{問2}から\mbox{問5}を{\bf傍線部問題}と呼ぶ.傍線部問題の具体例を図\ref{fig:2011M-E5}に示す.この図に示すように,傍線部問題は,原則として5つの選択肢の中から正解を一つ選ぶ5択問題である.傍線部問題の配点は,2009年度本試験では,第1問32点,第2問\mbox{33点}の計65点であり,現代文の配点100点の約2/3を占める.\subsection*{使用する試験問題}本研究では,2001年度から2011年度の奇数年の大学入試センター試験の本試験および追試験の『国語』(2005年以前は『国語I・II』)を使用する.ただし,諸般の事情により,本文等が欠けているものがあり,それらは使用しない.表\ref{table:all}に,本研究で使用する傍線部問題の一覧を示す.\begin{table}[t]\caption{使用する傍線部問題の一覧}\label{table:all}\input{1001table02.txt}\end{table}なお,以降では,設問を指し示すIDとして,以下のような4つの情報を盛り込んだ形式を採用する.\begin{enumerate}\item年度(4桁)\item試験区分(M:本試験,S:追試験)\item出題区分(E:評論,N:小説)\item設問番号(2,3,4,5)\end{enumerate}たとえば,図\ref{fig:2011M-E5}に示した,2011年度本試験第1問「評論」の問5は,「2011M-E5」と表す.なお,この例に示したとおり,(2)と(3)の間に,ハイフォン`-'を挟む. \section{傍線部問題の定式化} \subsection{定式化}センター試験『国語』現代文傍線部問題では,正解となる選択肢の根拠が必ず本文中に存在すると指摘されている\cite{Funaguchi}.そして,その根拠となる部分は,傍線部の付近に存在することが多いことが,板野の分析によって明らかにされている\cite{Itano2010}.我々は,これらの知見に基づき,傍線部問題を,図\ref{fig:formalization}に示すように定式化する.\begin{figure}[t]\begin{center}\includegraphics{21-3ia1001f2.eps}\end{center}\caption{傍線部問題の定式化}\label{fig:formalization}\end{figure}この定式化は,次のことを意味する.\begin{enumerate}\itemそれぞれの設問を入力とする.設問は,本文$T$,設問文$Q$,選択肢集合$C$から構成されるものとする.(図\ref{fig:2011M-E5}では,これらのうち,本文$T$を除いた,設問文$Q$と選択肢集合$C$を示している.)\item設問文$Q$と本文$T$から,選択肢と照合する本文の一部$\widehat{T}=\mathrm{extract}(T,Q)$を定める.\item選択肢集合$C$の中から,実際に本文の一部$\widehat{T}$と照合する部分集合$\widehat{C}=\mathrm{pre\_select}(C,Q)$を定める.これは,選択肢の事前選抜に相当する.\item設問文の極性$\mathrm{polarity}(Q)$を判定する.この関数は,設問文$Q$が「適当なもの」を要求している場合に$+1$を,「適当でないもの」を要求している場合に$-1$を返すものとする.\item事前選択済の選択肢集合$\widehat{C}$に含まれる選択肢$c_i$と,本文の一部$\widehat{T}$との照合スコア$\mathrm{score}(\widehat{T},c_i)$を計算する.これに設問文の極性$\mathrm{polarity}(Q)$をかけたものを,その選択肢の最終スコアとする.\item事前選択済の選択肢集合$\widehat{C}$に含まれる選択肢$c_i$のなかで,最終スコアが最大のものを,解として出力する.\end{enumerate}この定式化の特徴は,図\ref{fig:formalization}に示した(a)--(d)の4つの関数に集約される.これらの背後にある考え方について,以下で説明する.\subsection{本文の一部と照合する}正解の選択肢の根拠となる箇所は,多くの場合,本文中の傍線部の周辺にあると考えるのが妥当である.先に述べたように,この点についての詳細な分析が,板野によってなされている\cite{Itano2010}.実際,我々人間が傍線部問題を解くとき,本文中の傍線部の前後に注目するのは,標準的な戦略である.このような戦略は,選択肢$c_i$を本文$T$全体と照合するのではなく,あらかじめ,本文から,根拠が書かれていそうな部分$\widehat{T}$を抜き出し,$\widehat{T}$と$c_i$の照合スコアを計算することで,具体化できる.本文の一部を取り出す方法として,\begin{enumerate}\item本文の先頭から,当該傍線部までを$\widehat{T}$とする,\item一つ前の設問で参照された傍線部から,当該傍線部までを$\widehat{T}$とする,\item傍線部の前後のある範囲を$\widehat{T}$とする,\end{enumerate}などの方法が考えられ,これらと,採用する単位(文または段落)を組み合わせることにより,多くのバリエーションが生まれることになる.もちろん,設問毎に,設問文$Q$や本文$T$に応じて異なる(適切な)方法を採用してもよい.関数$\mathrm{extract}$は,これらの方法を抽象化したもので,以下のような関数として定義する.\begin{equation}\widehat{T}=\mathrm{extract}(T,Q)\end{equation}なお,厳密に言えば,設問文$Q$には一つ前の設問の傍線部の情報は含まれないが,その情報は本文を参照することによって得られるものと仮定する.事実,センター試験では,傍線部にはA,B,C,Dの記号が順に振られるため,当該傍線部がBであれば,一つ前の設問の傍線部はAであることがわかる.\subsection{照合スコアを採用する}本文の一部$\widehat{T}$が,選択肢$c_i$とどの程度整合するか(その根拠となりうるか)を,照合スコア$\mathrm{score}(\widehat{T},c_i)$として抽象化する.本来的には,整合するかしないかの2値であるが,そのような判定を機械的に下すのは難しいので,0から1の実数をとるものとする.\subsection{設問文の極性を考慮する}ほとんどの傍線部問題の設問文は,「最も適当なものを,次の1〜5のうちから一つ選べ」という形式となっている.しかし,2001S-E4のように,「適当でないものを,次の1〜5のうちから一つ選べ」という形式も存在する.このような「適当でないもの」を選ぶ設問に対しては,照合スコアを逆転させる(照合スコアが最も小さなものを選択する)のが自然である.上記のような設問形式に応じた選択法の変更を採用するために,設問文$Q$の極性を判定する関数$\mathrm{polarity}(Q)$を導入する.この関数は,設問が「適当なもの」を要求している場合に$+1$を,「適当でないもの」を要求している場合に$-1$を返すものとする.\subsection{選択肢の事前選抜を導入する}本定式化では,「設問文と5つの選択肢をよく読めば,本文を参照せずとも,正解にはならない選択肢のいくつかをあらかじめ排除できる」場合が存在すると考え\footnote{実際にセンター試験を受験したことがある複数人の意見に基づく.},選択肢の事前選抜を明示的に導入する.事前選抜$\mathrm{pre\_select}$は,選択肢集合$C$と設問文$Q$から,$C$の部分集合を返す関数として定式化する.\begin{equation}\widehat{C}=\mathrm{pre\_select}(C,Q),\qquad\widehat{C}\subseteqC\end{equation} \section{実装} \begin{table}[b]\vspace{-0.3\Cvs}\caption{実装の概要}\label{table:implementation}\input{1001table03.txt}\vspace{-0.3\Cvs}\end{table}前節の定式化に基づいて傍線部問題ソルバーを実装するためには,$\mathrm{score}$,$\mathrm{polarity}$,$\mathrm{extract}$,$\mathrm{pre\_select}$の4つの関数を実装する必要がある.表\ref{table:implementation}に,今回実装した方法の概要を示す(詳細は,以下で説明する).なお,前節の定式化では,正解と考えられる選択肢を一つ出力する形になっているが,実際のシステムは,選択肢を照合スコア順にソートした結果(すなわち,それぞれの選択肢の順位)を出力する仕様となっている.なお,照合スコアが一致した場合は,選択肢番号の若いものを上位とする\footnote{結果に再現性をもたせるために,照合スコアが一致したものからランダムに選ぶ方法は採用しない.}.\subsection{オーバーラップ率}照合スコア$\mathrm{score}$,および,選択肢の事前選抜$\mathrm{pre\_select}$の実装には,オーバーラップ率を用いる.オーバーラップ率の定義には,服部と佐藤の定式化\cite{Hattori2013,SKL2013}を採用する.この定式化では,まず,ある集合$E$を仮定する.この集合の要素が,オーバーラップ率を計算する際の基本単位となる.集合$E$としては,たとえば,文字集合$A$,形態素集合$W$,あるいは,文字$n$-gramの集合$A^n$などを想定する.オーバーラップ率の算出の出発点となる式は,2つの文字列$t_1$と$t_2$に共通に出現する集合$E$の要素の数を求める次式である.\begin{equation}\mathrm{overlap}({E};t_1,t_2)=\sum_{e\inE}\min(\mathrm{fr}(e,t_1),\mathrm{fr}(e,t_2))\end{equation}ここで,$\mathrm{fr}(e,t)$は,文字列$t$における$e\:(\inE)$の出現回数を表す.この値を,$t_2$の長さ,あるいは,$t_1$と$t_2$の長さの和で正規化することにより,オーバーラップ率を定義する.\begin{align}\mathrm{overlap\_ratio}_D(E;t_1,t_2)&=\frac{\mathrm{overlap}(E;t_1,t_2)}{\displaystyle\sum_{e\inE}\mathrm{fr}(e,t_2)}\label{eq:directional}\\\mathrm{overlap\_ratio}_B(E;t_1,t_2)&=\frac{2\\mathrm{overlap}(E;t_1,t_2)}{\displaystyle\sum_{e\inE}\mathrm{fr}(e,t_1)+\sum_{e\inE}\mathrm{fr}(e,t_2)}\end{align}前者の$\mathrm{overlap\_ratio}_D$は,$t_2$の長さのみで正規化したもので,方向性を持った(directional)オーバーラップ率となる.後者の$\mathrm{overlap\_ratio}_B$は,$t_1$と$t_2$の長さの和で正規化したもので,方向性を持たない,双方向性(bidirectional)のオーバーラップ率となる.\subsection{照合スコア}本文の一部$\widehat{T}$と選択肢$c_i$の照合スコアには,方向性を持ったオーバーラップ率$\mathrm{overlap\_ratio}_D$を用いる.\begin{equation}\mathrm{score}(\widehat{T},c_i)=\mathrm{overlap\_ratio}_D(E,\widehat{T},c_i)\end{equation}ここで,オーバーラップを測る際の単位(要素)集合$E$として,以下の4種類を実装した.\begin{enumerate}\item$A$:文字集合\item$A^2$:文字bigramの集合\item$W$:形態素表層形の集合\item$L$:形態素原形の集合\end{enumerate}いずれの場合も,句読点は要素に含めなかった.形態素解析器にはmecab-0.994を,形態素解析辞書には,ipadic-2.7.0またはunidic-2.1.0を用いた.すなわち,$W$と$L$は,それぞれ2種類存在することになる.\subsection{設問文の極性判定}設問文の極性判定は,文字列マッチングで実装した.具体的には,正規表現「\verb+/(適切|適当)でないものを/+」に一致した場合はnegative($-1$),それ以外はpositive($+1$)と判定する.対象とした問題は限られているので,極性判定結果は,人間の判断とすべて一致する.\subsection{本文の一部の抽出}段落(P)単位および文(S)単位の抽出を実装した.抽出する領域は,連続領域を採用した.すなわち,抽出単位,抽出開始点,抽出終了点の3つの情報によって,抽出領域は定まる.抽出開始・終了点は,当該傍線部を含む単位(段落または文)を基準点0とし,その前後何単位であるかを,整数で表す.たとえば,S-$m$-$n$は,当該傍線部を含む文と,その前$m$文,後$n$文を表す(全部で$m+1+n$文となる).この他に,本文先頭(a),前問の傍線部の位置(b),本文末尾(e)という3種類の特別な位置を指定できるようにした.さらに,当該傍線部を含む文を除外するというオプション($\overline{X}$)も実装した\footnote{設問の多くは,傍線部のある種の言い換えを求めているので,傍線部自身は,選択肢を選ぶ根拠とはならないことが多いと考えられる.今回の実装では,テキストを扱う最小単位は文なので,「当該傍線部を含む文」を除外するという実装となった.}.\subsection{選択肢の事前選抜}選択肢の事前選抜には,次の方法を採用した.\begin{enumerate}\itemそれぞれの選択肢$c_i$において,以下に示す事前選択スコア$\mathrm{ps}(c_i,C)$を計算する.\begin{equation}\mathrm{ps}(c_i,C)=\frac{1}{|C|-1}\sum_{c_j\inC,\c_j\nec_i}\mathrm{overlap\_ratio}_B(A;c_i,c_j)\end{equation}このスコアは,他の選択肢$c_j$との双方向文字オーバーラップ率$\mathrm{overlap\_ratio}_B(A;c_i,c_j)$の平均値である.\item得られた事前選択スコアが低い選択肢を,選択肢集合から除外する.(最終順位付けでは,かならず5位とする)\end{enumerate}なお,この実装は,いわば「もっとも仲間はずれの選択肢を一つ除外する」という考え方に基づいている. \section{実験と検討} \subsection{実験結果}実装した傍線部問題ソルバーを用いて,評論傍線部問題40問を解いた結果を表\ref{table:result1}および表\ref{table:result2}に示す.この表の各行の先頭の欄(ID)は,本文抽出法($\mathrm{extract}$)に対応しており,次の2つの数字は,その抽出法(ID)で抽出された文数(40問の平均値),および,該当傍線部を含む文を除外した場合($\overline{\mbox{ID}}$)の文数を示す\footnote{S-$m$-$n$で文数が$m+1+n$を越えるのは,2003S-E5の設問文が複数の傍線部(正確には,波線部)を含むためである.この場合,最初に現れる波線部の前方$m$文から,最後に現れる波線部の後方$n$文までを抽出する.}.斜線で区切られた4つの数字は,ある要素集合を単位としてオーバーラップ率を計算した場合に対応し,それぞれの数字は,順に,以下の場合の正解数を示す.\begin{enumerate}\item抽出法ID+事前選択なし(no)\item抽出法$\overline{\mbox{ID}}$+事前選択なし(no)\item抽出法ID+事前選択あり(yes)\item抽出法$\overline{\mbox{ID}}$+事前選択あり(yes)\end{enumerate}表\ref{table:result1}の2行目(P-a-0)の$A$欄の最初の数字20が,我々に衝撃を与えた数字である.これは,\begin{quote}本文の先頭から当該傍線部を含む段落までを$\widehat{T}$として抽出し(P-a-0),\\$\widehat{T}$と各選択肢$c_i$との照合スコアを文字オーバーラップ率($A$)で計算して,\\スコアが最大値を取る選択肢を選んだ場合,\\{\bf「評論」の傍線部問題の半分(20/40)が正しく解ける}\end{quote}ことを意味する.センター試験の設問は5択問題であるので,解答する選択肢をランダムに選んだとしても1/5の確率で正解する.40問においてランダムに解答を選んだ場合,正解する問題数は,$8\pm4.96$($p=0.05$)である\footnote{$\displaystyleB\left(40,\\frac{1}{5}\right)\approxN\left(8,\2.53^2\right)$.故に$1.96\times2.53\approx4.96$}.この値と比べ,正解数20問は有意に多い.我々は,このような性能が得られることを,まったく予期していないかった.この結果を受けて,我々は,色々な設定($84\times6\times4-12=\mbox{2,004}$通り)\footnote{傍線部を含む段落が1文のみから構成されている場合があるので,抽出法$\overline{\mbox{P-0-0}}$は設定しない.これが$-12$に相当する.84は,表\ref{table:result1}--\ref{table:result2}の行数の合計を,$6\times4$は1行に記述される設定数を示す.}での性能を網羅的に調べた.こうして得られたのが表\ref{table:result1}と表\ref{table:result2}である.これらの表では,正解数20以上をボールド体で表示した.さらに,正解数が22以上となった16の設定とその設定における正解の順位分布(第$n$位として出力された正解がいくつあるか)を,表\ref{table2}に示した.\begin{table}[p]\caption{「評論」に対する実験結果(その1)}\label{table:result1}\input{1001table04.txt}\end{table}\clearpage\begin{table}[t]\caption{「評論」に対する実験結果(その2)}\label{table:result2}\input{1001table05.txt}\end{table}\subsection{実験結果を検討する}表\ref{table:result1}と表\ref{table:result2}を観察すると,以下のことに気づく.\begin{table}[t]\caption{正解数が22以上の設定と正解の順位分布(「評論」)}\label{table2}\input{1001table06.txt}\end{table}\begin{enumerate}\item照合するテキスト$\widehat{T}$が極端に短い場合を除き,ほとんどの場合(2,004通り中1,828通りの設定)で,正解数はランダムな方法より有意に多い.すなわち,「評論」の傍線部問題に対しては,本論文で示した解法は,有効に機能する.\item照合スコアのオーバーラップ率の計算には,文字($A$)を用いると相対的に成績がよい場合が多い.文字オーバーラップ率が有効に機能するという,この結果は,日本語の含意認識(RITE2)における服部らの結果\cite{Hattori2013,SKL2013}に合致する.文字オーバーラップ率が有効に機能するのは,おそらく,日本語の文字の種類が多いこと,および,漢字1文字が内容的情報を表しうること,の2つの理由によるものと考えられる.\item照合スコアのオーバーラップ率の計算に,文字bigram($A^2$),形態素出現形($W$),形態素原形($L$)を用いた場合は,比較的短い$\widehat{T}$のいくつかに対して,成績がよい.これは,比較的短いテキストの照合では,語や文字bigramなどの,より長い要素の一致が大きな意味を持つためと考えられる.今回の実験で最も成績がよかった正解数23は,抽出法$\overline{\mbox{S-9-0}}$,照合法$A^2$または$L$-unidic,事前選抜あり(yes)の場合に得られた.\item照合テキスト$\widehat{T}$から,当該傍線部を含む文を除外した方が,除外しなかった場合よりも,成績は若干よい傾向を示す.脚注4でも述べたように,傍線部の言い換えを求めるような設問では,該当傍線部自身は,選択肢の根拠とはならないことが多い.このような設問に対しては,該当傍線部を含む文を除外することによる効果があると考えられる.\item選択肢の事前選抜は,正解数を増やす効果が見られる.なお,今回使用した40問において,正解が事前選抜によって除外される設問は,1問(2005M-3)だけ存在した.\item用いる形態素解析辞書によって,得られる結果は若干異なる.これは,形態素として認定する単位,および,原形の認定法の違い\footnote{unidicでは,語彙素を原形として採用した.}による.今回の実験では,ipadicを使用した方が,相対的によい結果が得られた場合が多かった.\end{enumerate}\subsection{性能の上限を見積もる}本論文で提案した方法で,どの程度の性能が達成可能であるかを見積もってみよう.性能の上限は,それぞれの設問において,\begin{enumerate}\item最も適切な本文の一部$\widehat{T}$が選択でき,かつ,\item最も適切な照合スコアを選択できる\end{enumerate}と仮定した場合の正解率で与えられる.ここでは,\begin{itemize}\item形態素解析辞書にはipadicのみを用いる\item選択肢の事前選択は行なわない\footnote{事前選抜を上限の計算に含めるのは複雑なので,除外した.}\end{itemize}こととした668($=84\times4-4$)通りの設定\footnote{数字84は,表\ref{table:result1}--\ref{table:result2}の行数の合計に,$4$は1行に対する設定数に,$-4$は抽出法$\overline{\mbox{P-0-0}}$は設定しないことに対応する.}を採用し,各設問毎に668通りの設定の成績(正解の順位)を集計した.その結果を表\ref{table:dist}に示す.表7に示すように,668通りの設定のいずれにおいても正解を出力できなかった設問は,\mbox{2問}(2001S-E5と2009M-E4)のみであった.すなわち,38/40(${}=95$\%)の設問に対して,本論文で示した解法は正解を出力できる可能性がある.表7において,1位となった設定数が多い設問は,言わば「ストライクゾーンが広い」設問である.つまり,パラメータ選択に「鈍感」であり,機械にとってやさしい設問である.たとえば,2003S-E3(1行目)は,668通り中664通りの設定で正解が得られている.逆に,1位となった設定数が少ない設問は,正解を出力するのが難しい設問である.たとえば,2003M-E5(下から3行目)は,668通り中14通りの設定でしか正解が得られない.これらのことを考慮して,次に,もうすこし現実的な到達目標を考えよう.正解率1/5でランダムに668回の試行を行なった場合の正解数は$133.6\pm20.26\:(p=0.05)$である.この値の上限をひとつの目安として\footnote{表\ref{table:dist}の左側の区切り線は,この境界を示す.},これよりも多い正解数が得られた設問は,設問に応じた適切なパラメータ選択により,正解を導ける可能性が高いとみなそう.このような設問は,40問中27問(67.5\%)である.実際,今回の実験で得られた最大正解数は23であり,正解数27は,現実的に到達可能な範囲にあると考えられる.\begin{table}[t]\caption{各設問における正解順位分布(「評論」)}\label{table:dist}\input{1001table07.txt}\end{table}\subsection{好成績の理由を考える}このような比較的単純な解法でも,半数以上の設問が正しく解けるのは,どうしてだろうか.その理由は,おそらく,「センター試験がよく練られた試験問題である」ということになろう.センター試験の問題は,当然のことながら,「正解が一意に定まる(大多数の人が,正解に納得できる)」ことが必要である.答の一意性を保証できる『数学』の問題とは異なり,『国語』の傍線部問題は,潜在的には多数の「正解文」が存在する.作問者の立場に立てば,そのうちの一つを選択肢に含め,それ以外を選択肢に含めないように問題を作らなければならない.そのため,正解選択肢とそれ以外の選択肢の間に,明示的な差異を持ち込まざるを得なくなる.そして,そのために持ち込まれた差異は,オーバーラップ率のような表層的な指標においても,識別できる差異として現れてしまうのであろう.もし,この推測が正しいとすれば,「良い問題であれば,機械にも解ける」ということであり,本論文で提案した解法は,センター試験ならではの性質を利用していることになろう.\subsection{正解が得られない設問}すでに何度も述べたように,我々は,本論文で提案した解法で「評論」の傍線部問題の半数以上が解けてしまうことが驚きであり,解けない設問があることに何の不思議さも感じない.しかしながら,査読者より,採録条件として,「提案手法では正解が得られない設問に対する分析(定性的な議論)が必要である」との指摘があったので,この点についての我々の見解を以下に述べる.まず,(ある特定パラメータを使用した)この解法によって正解が得られない直接的な理由は,抽出した本文の領域$\widehat{T}$と正解選択肢との照合スコア(オーバーラップ率)が低いことによる.この理由をさらに分解すると,次の3つの理由に行きつく.\begin{description}\item[R1]そもそも本文中に根拠がない\item[R2]不適切な領域$\widehat{T}$を抽出している\item[R3]照合スコアが意味的整合性を反映していない\end{description}しかしながら,特定の設問が解けない理由を,このどれか一つに特定することは難しい.まず,理由R1であるが,確かに,これがほぼ明白なケースは存在する.たとえば,2003M-E4は,傍線部の「具体例」を問う問題であるが,本文中にはその具体例は述べられていない.しかしながら,「根拠」という言葉はいささか曖昧であり,広くも狭くも解釈できるため,その解釈を固定しない限り,根拠の有無を明確に判断することは難しい.受験対策本がいう「根拠」は,「正解選択肢を選ぶ手がかり」という広い意味であり,「『適切に語句や表現を言い換えれば,選択肢の表現に変換できる』本文の一部」という狭い意味ではない.前者の意味では,ほとんどの設問に根拠は存在するが,後者の意味では,ほとんどの設題に根拠は存在しない.評論の傍線部問題で問われるのは,本文全体の理解に基づく傍線部の解釈であり,表現レベルの単純な言い換えではない.次に,理由R2であるが,今回の解法では,選択肢と照合する領域として文または段落を単位とする連続領域のみを扱っている.しかし,実際の(広い意味での)根拠は,より小さな句や節といった単位の場合もあり,かつ,不連続に複数箇所存在する場合も多い.現在の実装の自由度における最適な領域が,必ずしも真の意味で適切な領域であるとは限らない.最後に,理由R3であるが,現在の照合スコアが意味的整合性を適切に反映しない場合が存在するのは自明である.しかし,問題はそれほど単純ではない.照合スコアの具体的な値は,照合領域$\widehat{T}$に依存する.最適な領域が定まれば,使用している照合スコア計算法の善し悪しを議論できるが,最適な領域が不定であれば,正解を導けない原因を,領域抽出の失敗(R2)に帰すべきか,照合スコアの不適切さ(R3)に帰すべきかは,容易には定まらない.以上のように,特定の設問が解けない理由を追求し,解けない設問を類形化することは,かなり難しい.さらに,チャンスレベルは20\%であるから,たまたま解ける設問も存在する\footnote{前述の2003M-E4は正解する場合もある.}.そのような困難さを踏まえた上で,解けない設問を大胆に類形化するのであれば,次のようになろう.\begin{itemize}\item正解選択肢を選ぶ根拠が,傍線部のかなり後方に位置する設問.\item正解選択肢を選ぶ根拠が,本文全体に点在している設問.\item正解選択肢が,本文全体の理解・解釈を前提として,本文中には現れない表現で記述されている設問.\item本文と整合しない部分を含む選択肢を除外していくこと(いわゆる消去法\cite{Itano2010})によって,正解選択肢が導ける設問.\end{itemize}\subsection{「小説」に適用する}本論文で提案した解法を,そのまま「小説」の傍線部問題に適用すると,どのような結果が得られるであろうか.その疑問に答えるために,「評論」と同様の実験を,「小説」に対しても実施した.対象とした「小説」の傍線部問題は計38問なので,ランダムに解答すると,$7.6\pm4.83$問($p=0.05$)の正解が得られることになる.\begin{table}[b]\caption{正解数が13以上の設定と正解の順位分布(「小説」)}\label{table:novel}\input{1001table08.txt}\end{table}実験において,統計的に有意な結果(正解数13以上)が得られたのは,2,004通り中13通りの設定のみであった.これらを表\ref{table:novel}に示す.さらに,「評論」と同様に,各設問に対しても668通りの実験結果を集計した\footnote{表\ref{table:novel}の結果に基づき,形態素解析辞書にはipadicではなくunidicを採用した.}.正解数が$133.6\pm20.26$の上限を越えたのは,38問中10問であった.これらの結果より,「小説」に対しては,本論文で提案した解法の性能は,チャンスレベルと大差がないとみなすのが妥当であろう. \section{結論} 本研究で得られた結果をまとめると,次のようになる.\begin{enumerate}\itemセンター試験『国語』現代文の傍線部問題に対する解法を提案・定式化した.\item本論文で示した解法は,「評論」の傍線部問題に対しては有効に機能し,半数以上の設問に対して正解を出力することができる.今回の実験から推測される性能の上限は95\%,現実的に到達可能な性能は65--70\%である.\item本論文で示した解法は,「小説」の傍線部問題に対しては機能しない.その性能はチャンスレベルと同等である.\end{enumerate}本論文で示した解法で「『評論』が解ける」という事実を言い換えるならば,それは,「『評論』では,本文に書かれていることが問われる」ということである.これに対して,「『小説』が解けない」という事実は,その裏返し,すなわち,「『小説』では,本文に書かれていないこと(心情や行間)が問われる」ということを示している.このような差異の存在を,船口\cite{Funaguchi}も指摘しているが,表層的なオーバーラップ率を用いる比較的単純な方法においても,その差異が明確な形で現れることが判明した.\acknowledgment本研究では,国立情報学研究所のプロジェクト「ロボットは東大に入れるか」から,データの提供を受けて実施した.本研究の一部は,JSPS科研費24300052の助成を受けて実施した.本研究では,mecab/ipadic,mecab/unidicを使用した.\begin{thebibliography}{}\bibitem[\protect\BCAY{新井\JBA松崎}{新井\JBA松崎}{2012}]{Arai2012}新井紀子\JBA松崎拓也\BBOP2012\BBCP.\newblockロボットは東大に入れるか?—国立情報学研究所「人工頭脳」プロジェクト—.\newblock\Jem{人工知能学会誌},{\Bbf27}(5),\mbox{\BPGS\463--469}.\bibitem[\protect\BCAY{船口}{船口}{1997}]{Funaguchi}船口明\BBOP1997\BBCP.\newblock\Jem{きめる!センター国語現代文}.\newblock学研教育出版.\bibitem[\protect\BCAY{服部\JBA佐藤}{服部\JBA佐藤}{2013}]{Hattori2013}服部昇平\JBA佐藤理史\BBOP2013\BBCP.\newblock多段階戦略に基づくテキストの意味関係認識:RITE2タスクへの適用\newblock情報処理学会研究報告,2013-NLP-211No.4/2013-SLP-96No.4,情報処理学会.\bibitem[\protect\BCAY{Hattori\BBA\Sato}{Hattori\BBA\Sato}{2013}]{SKL2013}Hattori,S.\BBACOMMA\\BBA\Sato,S.\BBOP2013\BBCP.\newblock\BBOQTeamSKL'sStraregyandExpericenceinRITE2\BBCQ\\newblockIn{\Bem{Proceedingsofthe10thNTCIRConference}},\mbox{\BPGS\435--442}.\bibitem[\protect\BCAY{板野}{板野}{2010}]{Itano2010}板野博行\BBOP2010\BBCP.\newblock\Jem{ゴロゴ板野のセンター現代文解法パターン集}.\newblock星雲社.\bibitem[\protect\BCAY{教学社編集部}{教学社編集部}{2013}]{Kakomon2014}教学社編集部\BBOP2013\BBCP.\newblock\Jem{センター試験過去問研究国語(2014年版センター赤本シリーズ)}.\newblock教学社.\end{thebibliography}\begin{biography}\bioauthor{佐藤理史}{1988年京都大学大学院工学研究科博士後期課程電気工学第二専攻研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学助教授,京都大学大学院情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科教授.工学博士.現在,本学会理事.}\bioauthor{加納隼人}{2010年名古屋大学工学部電気電子・情報工学科入学.2014年同学科卒業.現在,名古屋大学大学院工学研究科電子情報システム専攻在学中.}\bioauthor{西村翔平}{2010年名古屋大学工学部電気電子・情報工学科入学.2014年同学科卒業.}\bioauthor{駒谷和範}{1998年京都大学工学部情報工学科卒業.2000年同大学院情報学研究科知能情報学専攻修士課程修了.2002年同大学院博士後期課程修了.博士(情報学).京都大学大学院情報学研究科助手・助教,名古屋大学大学院工学研究科准教授を経て,2014年より大阪大学産業科学研究所教授.現在,SIGDIALScientificAdvisoryCommitteemember.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会各会員.}\end{biography}\biodate\end{document}
V32N02-05
\section{はじめに} 高性能かつ頑健な言語処理モデルを構築するために,多様な質問応答(QA)タスクにおける訓練,評価,分析が重要である.QAタスクには,抽出型,生成型,多肢選択式など様々なタイプがあり,Multi-hop推論や実世界知識など多くの技術・知識が必要となる.QAタスクを解くモデルとして,様々なQAタスクを統合的に解くUnifiedQA\cite{khashabi-etal-2020-unifiedqa}や,他のタスクと統合的に解くFLAN\cite{wei2022finetuned}などが提案されているが,このような統合的な解析が可能なのは英語だけであり,他の言語では多様なQAデータセットが存在しないので不可能である.本研究では,基本的なQAデータセットであるJSQuAD\cite{kurihara-etal-2022-jglue}やJaQuAD\cite{so2022jaquad},JAQKET\cite{JAQKET}程度しか存在しない日本語に焦点を当てる.我々は,日本語に存在しないQAデータセットの中で重要なものとして,人間の情報欲求から自然に発生する質問からなるNaturalQuestions(NQ)データセット\cite{kwiatkowski-etal-2019-natural}に着目する.\color{black}本論文では,人間の情報欲求から自然に発生する質問を「自然な質問」と呼ぶ.\color{black}SQuAD\cite{rajpurkar-etal-2016-squad}のようなQAデータセットでは,質問をアノテータに作成してもらうため自然な質問ではなく,annotationartifacts\cite{gururangan-etal-2018-annotation}が存在するという問題がある.これに対して,NQでは,検索エンジンにユーザが入力したクエリが用いられており,自然な質問と考えられる.日本語版NQを構築するためにNQを日本語に翻訳するという方法が考えられるが,文法等の違いによる翻訳文の不自然さ,日本との文化の違いが大きな問題となるため,翻訳は用いない.我々は,日本語の検索エンジンのクエリログを利用して,JapaneseNaturalQuestions(JNQ)を構築する.また,より良いNQデータセットを得るために,オリジナルのNQのデータセット仕様を再定義する.なお,クエリログからデータセットを構築するために,NQでは訓練されたアノテータが雇用されていたが,JNQではコストを低減するためにクラウドソーシングで行う.本手法は,クエリログが手に入る言語であれば,どの言語にも適用できるものである.本研究では,JNQに加えて,NQの派生でyes/no質問からなるBoolQ\cite{clark-etal-2019-boolq}の日本語版JapaneseBoolQ(JBoolQ)も構築する.JBoolQの質問文,yes/noanswerは,JNQと同様の方法で収集する.\color{black}また,JNQと同様,より良いデータセットを得るために,オリジナルのBoolQのデータセット仕様を再定義する.\color{black}構築の結果,JNQは16,641質問文,79,276段落からなり,JBoolQは6,467質問文,31,677段落からなるQAデータセットとなった.JNQとJBoolQの例を図~\ref{fig:NQ-example}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure}[t]\begin{center}\includegraphics{32-2ia4f01.eps}\end{center}\caption{JNQとJBoolQの例}\label{fig:NQ-example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%さらに,JNQからlonganswer抽出,shortanswer抽出,open-domainNQの3タスク,JBoolQからyes/noanswer識別の1タスクの合計4タスクを定義し,それぞれのベースラインモデルを評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2 \section{関連研究} 既存のQAデータセットは,質問が自然なものとそうでないものに大別できる.質問が自然ではないQAデータセットとして,SQuAD\cite{rajpurkar-etal-2016-squad}やSQuAD2.0\cite{rajpurkar-etal-2018-know}がある.これらのデータセットの質問は,前述のとおり,短いテキストを読んだアノテータが作成しているため自然な質問ではない.そのため,作成した質問に生じるパターン(annotationartifacts)や,質問とテキスト間における表現の重複(lexicaloverlap)がデータセット利用時に問題となる.自然な質問を収めたQAデータセットとしてNaturalQuestions\cite{kwiatkowski-etal-2019-natural}やBoolQ\cite{clark-etal-2019-boolq}がある.これらのデータセットでは,人間の情報欲求から生じる自然な質問を収集するために,検索エンジンのクエリログを用いている.質問対象の文書はWikipediaの記事であり,その段落や表,スパンや\textsc{yes/no}を答えとしている.他にも,質問をクエリログから集めたデータセットとして,WikiQA\cite{yang-etal-2015-wikiqa}やMSMARCO\cite{bajaj2018ms}がある.これらのデータセットでは,NQやBoolQと答えの形式が異なり,文書中の1文や人間が要約した文を答えとしている.自然な質問の収集を指向した関連するQAデータセットとして,TyDiQA\cite{clark-etal-2020-tydi}がある.上述のSQuADにおける問題を緩和するために,アノテータには段落を提示するのではなくWikipediaの記事の冒頭のみを提示し,そこから連想する質問を考えてもらい,自然な質問を収集している.しかし,検索クエリログを質問として利用する場合と比較すると,この手法で収集した質問は真に自然ではないと言える.英語以外の言語で構築されたNQもしくはBoolQデータセットとして,アイスランド語NQ\cite{snaebjarnarson-einarsson-2022-natural}やロシア語BoolQ\cite{Glushkova_2021}がある.アイスランド語NQはTyDiQAと同じ手法を用いて\color{black}構築されており,\color{black}また,ロシア語BoolQでは質問の冒頭になり得るフレーズをクラウドワーカーに提示し,質問を作成してもらっているため,どちらも,収集された質問は真には自然ではないと言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3 \section{日本語NaturalQuestionsの構築} \label{JNQ}本節では,NQと比較しながらJNQの構築方法について説明する.NaturalQuestions(NQ)\cite{kwiatkowski-etal-2019-natural}は,自然な質問文に対し文書を読むことで答えることができるかに焦点を当てたQAデータセットである.各事例は質問文,文書,longanswer,shortanswerから構成される.質問文は,検索エンジンのクエリログから収集されている.文書は,Wikipediaの記事を用いており,一つの質問文に対し一つの文書が与えられる.longanswerは,質問文に対する答えを推測するのに十分な情報を含んでいる文書中の段落や表などである.shortanswerは,質問文に対するできるだけ短い答えであり,文書中のスパンもしくは\textsc{yes/no}である.JapaneseNaturalQuestions(JNQ)も,NaturalQuestionsと同様に,質問文,文書,longanswer,shortanswerから構成する.質問文は検索エンジンのクエリログから抽出し,文書は日本語Wikipediaの記事を用いる.longanswerとshortanswerはクラウドソーシング\footnote{Yahoo!クラウドソーシングを用いた.}を利用することで得る.クラウドソーシングを利用することにより,専門家のアノテータを必要とせずに低コスト,かつ,一定の質を担保したデータセットを構築できる.データセット構築をクラウドソーシングで行うことを考慮し,タスクを簡単化するため,longanswerは段落のみを対象とする.NQでは文書中にlonganswerは一つであるという強い制約があるが,実際は文書中に答えを含む段落が複数存在するので,JNQでは一つの質問文に対するlonganswerが複数ある場合を許容する\color{black}ようにデータセット仕様を再定義する.\color{black}以下ではJNQ構築の各段階について説明する.クラウドソーシングでは,質の良いベンチマークを構築するため,一つの質問に対して10人のクラウドワーカーに回答してもらう.JNQの構築フローを図~\ref{fig:construction_of_JNQ}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F2\begin{figure}[t]\begin{center}\includegraphics{32-2ia4f02}\end{center}\caption{日本語NaturalQuestionsの構築フロー}\label{fig:construction_of_JNQ}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.1\subsection{質問文候補と文書の収集}\label{Question_and_Documents_Collection_for_JNQ}JNQの質問文候補は,Yahoo!検索\footnote{\url{https://search.yahoo.co.jp/}}に入力された検索クエリログから抽出する\footnote{抽出対象としたクエリログの期間等の情報は社内の都合により非公開とする.}.人々は検索をする際,完全な文で検索せずに単語を並べて検索する場合がある.このようなクエリは検索エンジンに特化しており,質問文ではないものも含まれているため,スペースを含むクエリを質問文候補から除く.また,短いクエリは,質問文になっていないことが多いため,8単語以上で構成されるクエリのみを抽出する\footnote{単語分割は形態素解析ツールJuman++で行う.}.その後,以下の質問パターンのいずれかにマッチしたクエリを抽出する.%%%%%\begin{enumerate}\item{「は+疑問詞」を含む}\item{最後の文字が「?」}\item{「意味」「方法」,「理由」「~方」などの特定の単語を含む}\end{enumerate}%%%%%これらの手順により得られた質問文候補でGoogle検索を行い,検索結果の上位5件以内にWikipediaの記事がある場合,最も上位の記事一つを文書として採用する.検索結果上位5件以内にWikipediaの記事がない質問文候補は除去する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.2\subsection{良い質問文の識別}抽出した質問文候補の中には,質問ではない文や曖昧な質問文が存在するため,クラウドソーシングを用いて良い質問文を得る.\color{black}オリジナルのNQでは,良い質問文を「事実について尋ねるものであり,エンティティや説明で答えることができるもの」,悪い質問文を「曖昧なもの,理解しづらいもの,明らかに誤った前提に依存しているもの,意見を求めるもの,または事実に基づく情報を明確に求めていないもの」と定義している.JNQではこれらを拡張し,\color{black}良い質問文を,「事実,方法,原因・理由について尋ねる質問」と定義し,悪い質問文を,「曖昧」,「前提が間違っている」,「意見を求める」,「作品のタイトル\footnote{例えば「君たちはどう生きるか」のような質問文の形式をとった作品のタイトルのことを指す.}」,「答えるタイミングによって答えが変化する質問」と定義する.\color{black}検索クエリには方法や原因・理由を尋ねる質問文が一定の割合で含まれるので,良い質問文の定義に追加した.\color{black}良い質問文かどうかを,1質問文あたり10人のクラウドワーカーによって判定してもらう.10人のクラウドワーカーのうち,6人以上が良い質問文と判断した質問文候補を質問文として採用する.良い質問文と判断された例を表~\ref{tab:Examples_of_good_question}に示す.悪い質問文と判断された例としては,「今日はどこに行こうかな?」,「amazon支払い方法が承認されません」などがある.%%%%%%%%%%%%%%%%%%%%%T1\begin{table}[t]\input{04table01.tex}\caption{良い質問文の例}\label{tab:Examples_of_good_question}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.3\subsection{longanswer抽出}\label{Long_Answer_Identification}文書つまりWikipedia記事から良い質問文に対する答えを導くのに十分な情報を含む段落をlonganswerとしてクラウドソーシングにより得る.アノテーションコストを下げるため,クラウドワーカーには最大で5段落のみを与える.この5段落は,記事の最初の段落と,\ref{Question_and_Documents_Collection_for_JNQ}節で行ったGoogle検索によって得られるスニペットとの関連度が高い上位4段落(最初の段落以外)から構成する(図\ref{fig:5paragraph}).これは,概要を提供する最初の段落や,スニペットとの関連性が高い段落には答えが含まれている可能性が高いからである.関連度は,スニペットと段落をそれぞれbagofwordsで表現し,それらのcos類似度で計算する.この5段落に含まれない段落は,longanswerではない段落と判断し,\textsc{none}ラベルを付与する.得られた記事のタイトルや段落のセクション情報は保持しておく.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F3\begin{figure}[t]\begin{center}\includegraphics{32-2ia4f03.eps}\end{center}\caption{クラウドワーカーにlonganswerかどうかを尋ねるために,文書から段落を選ぶ方法}\label{fig:5paragraph}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%10人のクラウドワーカーに質問文と各段落を与え,段落が質問の答えを推論するのに十分な情報を含むかどうかを尋ねる.10人中の票数によって段落を3つに分類する.7票以上が\textsc{yes}の場合,その段落をlonganswerとし,\textsc{exist}ラベルを付与する.票数が4票以上6票以下の場合,longanswerかどうか曖昧な段落とし,\textsc{ambiguous}ラベルを付与する.この段落については,学習時に除去することで,ノイズを減らすことができると考えられる.3票以下の場合は,longanswerを含まない段落とし,\textsc{none}ラベルを付与する.段落ごとに判定するため,一つの質問に対して複数のlonganswerが存在する,もしくは,longanswerが一つも存在しない可能性がある.この5段落にlonganswerとなる段落が存在しない場合,質問文に対するlonganswerは文書の中にないと判断する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.4\subsection{yes/no質問識別}\ref{Short_Answer_Identification}節で説明する次のステップでlonganswerである段落からshortanswerを得るが,質問文がyes/no質問かどうかで手続きが異なる.そのため,まず質問文がyes/no質問かどうかをクラウドソーシングで判断する.10人中7人以上がyes/no質問であると判断した場合に,その質問文をyes/no質問とする.4人から6人がyes/no質問であると判断した場合は,yes/no質問かどうかが曖昧な質問文としてデータセットから除去する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3.5\subsection{shortanswer識別・抽出}\label{Short_Answer_Identification}質問文がyes/no質問かどうかによって場合分けを行い,以下の手順でspananswerもしくはyes/noanswerをshortanswerとして得る.%%%%%\paragraph{spananswer抽出}質問文がyes/no質問ではない場合,10人のクラウドワーカーに,longanswerと判断された段落内から質問文に対するspananswerを抜き出してもらう.もし,その段落にspananswerが無ければ,クラウドワーカーは\textsc{none}と判定する.10人の回答の集約にあたり,前処理として,ある回答が他の回答に包含される場合は,文字列が長い方の票数が小さい場合のみ,短い方の回答に票を加算する.その後,多数決をとり,最も票を集めた回答をshortanswerとして採用する.最多票数を集めた回答が複数ある場合は,文字列が短い回答を優先し,\textsc{none}が含まれる場合は\textsc{none}ではない回答を優先する.また,評価を頑健にするために,評価用のデータセット(dev,test)においてのみ,shortanswersとして一つ以上の回答を保持する.shortanswersは,shortanswerに選ばれた回答と,それ以外に3票以上集まった回答とする.%%%%%\paragraph{yes/noanswer識別}質問文がyes/no質問の場合,クラウドワーカーは,longanswerと判断された段落から,質問文に対する答えが\textsc{yes}か\textsc{no}かを判断する.10人のクラウドワーカーのうち,8人以上が\textsc{yes}もしくは\textsc{no}のどちらかを回答した場合,その回答をshortanswerとする.\textsc{yes}もしくは\textsc{no}と答えた人数が7人以下の段落は,\textsc{yes}か\textsc{no}か曖昧な質問文と判断し,shortanswerには\textsc{none}ラベルを付与する.つまり,この段落はlonganswerのみと判断される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4 \section{日本語BoolQ} \label{JBoolQ}BoolQ\cite{clark-etal-2019-boolq}は,自然な質問文,かつ,yes/no質問に焦点を当てたQAデータセットである.non-factoidの質問文が多く含まれており,解くために多様な推論能力が必要とされる.各事例は質問文,段落(NQにおけるlonganswerに相当),答え(\textsc{yes/no})で構成される.質問文と段落は,NQと同様に,検索エンジンのクエリログとWikipedia記事を利用している.BoolQはNQより仕様を簡単化しており,\textsc{yes/no}のどちらかの答えをもつ質問文のみを採用し,文書全体ではなく一つの段落を質問文とペアにしている.日本語BoolQ(JBoolQ)は,JNQにおけるyes/no質問と同じく,質問文,文書,longanswer,yes/noanswerで構成する.\color{black}BoolQとの違いとしては,各質問文は複数のlonganswerをもつ可能性があることと,実際のケースでは\textsc{yes}か\textsc{no}で答えることができない場合があるため\textsc{yes/no}以外に「答えられない」(\textsc{none})を追加したことであり,このようにデータセット仕様を再定義した.\color{black}そのため,BoolQよりも難易度が高く,質問に答えるためには文書に関するより深い理解が求められる.JBoolQは基本的にはJNQと同じ手続きで構築する.ただし,JNQに含まれるyes/no質問は約1\%と少ないことを鑑み,JNQよりも大規模なクエリログから収集する.構築手順は次のとおりである.各ステップの詳細は\ref{JNQ}節を参照されたい.%%%%%%\begin{enumerate}\item質問文候補と文書の収集\footnote{yes/no質問を抽出するためにJNQから条件を改変する.具体的には,6単語以上で,「?」もしくは「か」で終わるクエリを抽出する.}\item良い質問文の識別\itemyes/no質問識別\itemlonganswer識別\itemyes/noanswer識別\end{enumerate}%%%%%%ここで,JNQと比べ,yes/no質問識別とlonganswer識別の順序を逆にしているのは,対象とするyes/no質問に早期に候補を絞り,後段のアノテーションコストを削減するためである.最後に,JNQのyes/no質問をJBoolQにマージする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5 \section{分析} 本節では,構築したJNQとJBoolQについて分析する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.1\subsection{JNQ}%%%%%\paragraph{統計}JNQは16,641質問文からなる.質問文,記事,段落,spananswerの数,平均文字数,最大文字数,最小文字数を表\ref{tab:statistics_of_JNQ}に示す.段落の統計を表\ref{tab:statistics_of_JNQ's_paragraph}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%T2\begin{table}[b]\input{04table02.tex}\hangcaption{JNQにおけるユニークな質問文,記事,段落,spananswerの数と長さ.JNQに採用した段落は,アノテーションしていない段落を含むすべての段落を指す.}\label{tab:statistics_of_JNQ}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T3\begin{table}[b]\input{04table03.tex}\caption{JNQにおいてアノテーションされた段落の統計(延べ79,276段落)}\label{tab:statistics_of_JNQ's_paragraph}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%JNQでは,一つの質問文に対して複数の段落がlonganswerになる場合がある.1質問文あたりのlonganswer数の分布を表\ref{tab:numbers_of_long_answer}に示す.複数のlonganswerを持つ質問文は全体の約10\%,longanswerを持つ質問文の約28\%である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%T4\begin{table}[t]\input{04table04.tex}\caption{JNQにおける1質問文あたりのlonganswer数の分布}\label{tab:numbers_of_long_answer}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{質問タイプ}JNQから100件の質問文をサンプリングし,英訳したときに,どの疑問詞から始まるかによって分類した.その結果を表\ref{tab:questiontypeofJNQ}に示す.質問文のタイプとして,「What」を尋ねる質問がもっとも多く,39\%を占めた.その次に,「How」を尋ねる質問が多く,31\%を占めた.「How」を尋ねる質問のうち,84\%は方法に関する質問であり,全体の1/4を占める結果となっている.NQにおいて「Howto」から始まる質問は全体の1\%未満であることから,JNQでは,事実を尋ねる質問よりも答える難易度の高いと考えられる「Howto」を尋ねる質問が多い.%%%%%%%%%%%%%%%%%%%%%%T5\begin{table}[t]\input{04table05.tex}\caption{JNQの質問文のタイプ分類}\label{tab:questiontypeofJNQ}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{LexicalOverlap}SQuADにおいて指摘されているLexicalOverlapについて調査した.LexicalOverlapは,質問文と段落において重複している単語の割合である.この割合が大きい場合,モデルは質問に対して簡単に答えることができることが知られている.JNQにおいて,各質問文と\color{black}longanswerである\color{black}段落のペアを単語単位で分割し\footnote{単語の分割にはIPAdicを利用したMeCab(\url{https://taku910.github.io/mecab/})を用いた.},LexicalOverlapを計算した.JNQのLexicalOverlapは59.4\%であり,JSQuADの79.5\%より低い.この結果は,SQuADのような,アノテータが文章を読んだ後に質問文を作成するデータセットによく見られるannotationartifactsの問題に対処していることを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.2\subsection{JBoolQ}%%%%%\paragraph{統計}JBoolQは6,467質問文からなる.質問文,段落の平均文字数,最大文字数,最小文字数を表\ref{tab:statistics_of_JBoolQ}に示す.質問文の平均長はJNQより短い.これは,クエリログから質問文候補を抽出するとき,JNQは8単語以上のクエリを抽出したが,JBoolQはより多くのyes/no質問を得るために6単語以上のクエリを抽出したからである.段落の統計を表\ref{tab:statistics_of_JBoolQ's_paragraph}に示す.1質問文あたりのlonganswer数の分布を表\ref{tab:numbers_of_long_answer_JBoolQ}に示す.この分布については,JNQと同様の傾向であった.%%%%%%%%%%%%%%%%%%%%%%%T6\begin{table}[t]\input{04table06.tex}\caption{JBoolQにおける質問文と段落の数と長さ}\label{tab:statistics_of_JBoolQ}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T7\begin{table}[t]\input{04table07.tex}\caption{JBoolQにおける段落の統計(全段落数は31,430)}\label{tab:statistics_of_JBoolQ's_paragraph}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T8\begin{table}[t]\input{04table08.tex}\caption{JBoolQにおける1質問文あたりのlonganswer数の分布}\label{tab:numbers_of_long_answer_JBoolQ}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T9\begin{table}[t]\input{04table09.tex}\caption{JBoolQの質問文のタイプ分類}\label{tab:questiontypeofJBoolQ}{\vskip-2pt}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{質問タイプ}JBoolQから100件の質問文をサンプリングし,質問タイプによって分類した.基本的にBoolQで使用された分類方法を採用し,「可能性」と「必要性」の2つのカテゴリを追加した.その結果を表\ref{tab:questiontypeofJBoolQ}に示す.「その他事実(実体)」に関する質問が31\%を占め,最も多い.JBoolQで新しく追加されたカテゴリである「可能性」と「必要性」を尋ねる質問は,それぞれ23\%と11\%を占め,データセット全体の1/3を占める.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6 \section{実験} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.1\subsection{実験設定}JNQとJBoolQをQAシステム評価のベンチマークとして利用するために,4つのタスクを定義する.JNQからはlonganswer抽出,shortanswer抽出,open-domainNQの3つのタスク,JBoolQからはyes/noanswer識別タスクを定義する.longanswer抽出タスク,shortanswer抽出タスク,yes/noanswer識別タスクにおいては,それぞれ事前学習モデルに対しファインチューニングすることで,モデルの学習を行った.事前学習モデルとして,Tohoku-BERT\footnote{\url{https://huggingface.co/cl-tohoku/bert-base-japanese-v2}}\textsuperscript{,}\footnote{\url{https://huggingface.co/cl-tohoku/bert-large-japanese}}とWaseda-RoBERTa\footnote{\url{https://huggingface.co/nlp-waseda/roberta-base-japanese}}\textsuperscript{,}\footnote{\url{https://huggingface.co/nlp-waseda/roberta-large-japanese-seq512}}を用いる.それぞれ,baseモデル(パラメータ数111M)とlargeモデル(パラメータ数337M)を用いる.JNQおよびJBoolQにおける各質問をランダムにtrainセット,devセット,testセットに分割する.各タスクの統計を表~\ref{tab:statistics}に示す.これらのタスクに対してベースラインモデルを構築する.実験に用いたハイパーパラメータを表\ref{tab:hyper_parameters}に示す.learningrate,epoch,batchsizeについては,devセットを用いて最適なハイパーパラメータを探索し,そのハイパーパラメータを用いてtestセットで性能を評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T10\begin{table}[b]\input{04table10.tex}\hangcaption{4つのタスクの統計:longanswer抽出においては質問数,その他のタスクにおいてはインスタンス数である.}\label{tab:statistics}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T11\begin{table}[b]\input{04table11.tex}\caption{実験に用いたハイパーパラメータ}\label{tab:hyper_parameters}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{longanswer抽出}\label{subsec:task.longanswer}JNQでは,NQとは異なり,一つの文書に複数のlonganswerが存在することもあれば,longanswerが存在しない場合もある.従って,システムは,質問と文書が与えられたとき,longanswerを持つすべての段落を選択する必要がある.我々は,段落単位でlonganswerかどうかを判断する2値分類を行うベースラインモデルを構築する.評価尺度には段落単位のprecision,recall,F1スコアを使用する.実験では,以下の2種類の学習セットを用いる.%%%%%\begin{enumerate}\item\ref{Long_Answer_Identification}節で収集した段落で,正例と難しい負例(スニペットとの関連性は高いが,longanswerではない段落)を含む.\item文書中のすべての段落.\end{enumerate}%%%%%\textsc{ambiguous}ラベルが付与された段落は両方の学習データセットから除外する.テストでは,実際の抽出シナリオに近づけるため,文書中のすべての段落を使用する.文書中のすべての段落を含む学習セットを用いる場合,longanswerである段落が少なく学習が難しいため,largeモデルのみ,アノテーションしていない段落をダウンサンプリングする.\color{black}また,人間の精度も評価する.コストの関係上,クラウドワーカーの代わりに一定のスキルがある人に依頼するのは難しいため,データセット構築過程と同様にクラウドソーシングを用いて評価する.\color{black}10人のクラウドワーカーに回答を依頼し,7人以上のクラウドワーカーが同意した場合に,その段落はlonganswerであるとみなし,そうでない場合はlonganswerではないとみなす.コスト上の理由から,テストセット全体を使用する代わりに,100問をサンプリングする.%%%%%\paragraph{shortanswer抽出}本タスクでは,longanswerが存在するとアノテーションされた質問と段落のペアのみを対象とし,yes/no質問はNQに従い除去する.\color{black}SQuAD2.0\cite{rajpurkar-etal-2018-know}のタスク設定と同様に,システムは質問と段落のペアが与えられると,shortanswerが存在する場合は段落からshortanswerとしてスパンを抽出し,shortanswerが存在しなければunanswerableと回答する.\color{black}評価尺度はEM(ExactMatch)と文字単位のF1を用いる.我々は,shortanswer抽出を段落内の各トークンが,答えのスパン開始/終了位置であるかどうかの分類問題として扱い,shortanswerがない場合,答えのスパン開始/終了位置を[CLS]トークンの位置とする\footnote{\color{black}HuggingFace社が提供するtransformersライブラリを利用した(\url{https://github.com/huggingface/transformers/blob/main/examples/legacy/question-answering/run_squad.py}).}.また,テストセット全体について,クラウドソーシングを用いて人間の精度を評価する.3人のクラウドワーカーに回答を依頼し,そのスコアを平均する.%%%%%\paragraph{open-domainNQ}\label{subsec:task.open-domain-nq}本タスクは,紐づいた文書を与えられない設定において,shortanswerを答えるタスクである.shortanswerが存在するとアノテーションされた質問を対象とし,shortanswerが3単語以上の質問は正確に回答することが困難であると考えられるため削除する\color{black}ことで,適度な難易度設定にしている.英語のopen-domainNQタスク\cite{pmlr-v133-min21a}の実験設定に沿って,\color{black}評価指標にはEM(ExactMatch)を使用する.2種類のベースラインモデルを用いる.一つはretriever-readerモデルである.TF-IDFとDPRretriever\cite{karpukhin-etal-2020-dense}をretrieverに,DPRreaderをreaderに使用する.まず,retrieverでWikipediaのデータベースから質問に関連する100段落を検索し,次にreaderで検索された段落から答えを見つける.DPRチェックポイントは,第2回AI王\footnote{\url{https://sites.google.com/view/project-aio/competition2}}で構築されたベースラインモデルのものを用いる.もう一つのベースラインモデルは大規模言語モデルであるOpenAIGPT-4\footnote{gpt-4-turbo-2024-04-09を用いた.}である.ファインチューニングは行わず,ゼロショットで問題を解く.システムプロンプトは``数単語以内で簡潔に回答してください.「です」,「ます」,句読点なども必要ありません。''とする.%%%%%\paragraph{yes/noanswer識別}\label{subsec:task.boolq}\ref{JBoolQ}節で述べたように,JBoolQデータセットでは,BoolQとは異なり,\textsc{yes},\textsc{no},\textsc{none}の3種類のラベルが含まれる.すなわち3値分類タスクであり,システムは質問と段落のペアが与えられたとき,\textsc{yes},\textsc{no},\textsc{none}のいずれかを回答する.\color{black}\textsc{yes},もしくは,\textsc{no}を抽出することが目的であるため,\color{black}評価尺度は\textsc{yes}と\textsc{no}についてのprecision,recall,F1のマイクロ平均を用いる.\textsc{yes}か\textsc{no}のラベルを持つ事例は少ないので,これらを5倍にオーバーサンプリングして学習に用いる.また,10人のクラウドワーカーに以下の2つのタスクを行ってもらい,人間の精度を評価する.まず,longanswer抽出と同様の方法で,段落がlonganswerかどうかを判断する.次に,longanswerと判定された段落に対して,\textsc{yes},\textsc{no},\textsc{none}の判定を行う.\color{black}longanswerではないと判定された段落には\textsc{none}ラベルを付与する.\color{black}\textsc{yes},\textsc{no},\textsc{none}のうち,最も票数の多かったものを採用し,最多票数が同じ場合は\textsc{none}を採用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.2\subsection{結果}%%%%%\paragraph{longanswer抽出}longanswer抽出タスクの評価結果を表\ref{tab:longanswer}に示す.アノテーションした段落のみ(\textsc{ambiguous}である段落を除く)で学習した場合,recallは高い値を示すが,precisionは低い値を示した.すべてのデータで学習した場合,F1スコアが向上した\footnote{Waseda-RoBERTa-largeの場合,1/8までダウンサンプリングしても精度が出なかった.}.アノテーションされておらず,longanswerではないとして扱われる段落が学習に役立つことを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%T12\begin{table}[t]\input{04table12.tex}\hangcaption{longanswer抽出の精度.ベースラインモデルと人間のPrecision(P),recall(R),F1を示す.人間スコアの算出はテストセットからランダムに抽出した100問に対して行った.}\label{tab:longanswer}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%人間は,recallは高いが,precisionが低い.人間が\textsc{exist}であると回答した段落は,確かにlonganswerであることが多いが,クラウドソーシング対象の5段落に含まれていない.これは,アノテーションしていない段落の中にlonganswerを持つ段落がいくつかあることを示している.この問題に対処するためには,モデルによってlonganswerと判定された5つの段落以外の段落についてlonganswerかどうかをクラウドソーシングで判断する方法が考えられる.この検討は今後の課題である.%%%%%\paragraph{shortanswer抽出}shortanswer抽出タスクの評価結果を表\ref{tab:shortanswer}に示す.Waseda-RoBERTa-baseとWaseda-RoBERTa-largeの性能が良いが,Tohoku-BERT-baseおよびTohoku-BERT-largeは性能が低い.Tohoku-BERTは,段落全体を予測して出力する場合があり,これはタスクの定義に沿っていない.これは,我々のデータセットがJSQuAD\cite{kurihara-etal-2022-jglue}と比較して,spananswerが長く難しいことが原因の一つと考えられる.%%%%%%%%%%%%%%T13\begin{table}[t]\input{04table13.tex}\caption{shortanswer抽出の精度}\label{tab:shortanswer}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T14\begin{table}[t]\input{04table14.tex}\caption{open-domainタスクの精度}\label{tab:opendomainnq}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{open-domainNQ}open-domainNQタスクの評価結果を表\ref{tab:opendomainnq}に示す.open-domainNQタスクでは,devセットにおいて,TF-IDF+DPRreaderがDPRよりもわずかに良い結果を示した.質問文の平均長が比較的短く,質問文中のsalientなフレーズや希少なエンティティがDPRの正確な検索を難しくしていると推測される\cite{chen-etal-2022-salient}.GPT-4はTF-IDF+DPRreaderとDPRの精度を上回った.一部の誤答は表記揺れによるものであり,完全一致はしていないが実質的には正解していた.具体的には正答「1坪」に対して回答が「約1坪」,正答「フランクリン・ルーズベルト」に対して回答が「フランクリン・D・ルーズベルト」,正答「69歳」に対して回答が「69歳まで」といった誤答であった.また,「脳の血流を良くする方法」のように標準的な答えがなく,open-domainQAに適さない質問文が含まれており,このような質問文は今後除去することを検討する予定である.%%%%%\paragraph{yes/noanswer識別}yes/noanswer識別タスクの評価結果を表\ref{tab:yesnoansweridentification}に示す.Waseda-RoBERTa-largeが最も高く,F1は60\%程度であった.\textsc{none}ラベルを追加したことでBoolQよりも難易度が高くなっていると考えられる.モデルの性能を向上させるには,より高度な知識や推論能力が必要となり,我々のベンチマークは価値のあるものであると言える.人間は,recallが高い値を示しており,モデルよりも多くの\textsc{yes},\textsc{no}ラベルを正しく認識することができている.%%%%%%%%%%%%%%%%%%%%%%%%%T15\begin{table}[t]\input{04table15.tex}\caption{yes/noanswer識別の精度}\label{tab:yesnoansweridentification}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.3\subsection{議論}devセットにおけるシステムの正解例と誤り例を表\ref{tab:discussionoflonganswerextraction}から表\ref{tab:discussionofyes/noansweridentification}に示す.各タスクにおいて,最も性能が高かったシステムの例を載せている.longanswer抽出タスク(表\ref{tab:discussionoflonganswerextraction})の正解例では,システムが段落中の「ホーム球場」と質問文中の「本拠地」を同義と判断し,\textsc{exist}と判断することができている.誤り例1では,流域面積について触れられているが,日本で一番広いかどうかについては記述されていないため正解は\textsc{none}だが,システムは\textsc{exist}と予測している.誤り例2では,人間はひゅうが飯が丼物であると推測し,段落中の「材料となる魚」をご飯の上に乗せると判断しているが,システムは,ご飯の上に乗せると判断できず\textsc{none}となっている.誤り例3では,システムが段落中の「ベル」を人名と判断できず\textsc{none}としたと推測される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%T16\begin{table}[htp]\input{04table16.tex}\caption{longanswer抽出タスクにおけるシステムの正解例・誤り例}\label{tab:discussionoflonganswerextraction}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%shortanswer抽出タスク(表\ref{tab:discussionofshortanswerextraction})の正解例では,「ブラジルが生産量1位」とは明記されていないが,文脈からブラジルを回答として出力することができている.誤り例1では,鐘の鳴る時間が,質問文中では「朝と晩の6時」,段落中では「午前6時」と「午後6時」で異なっており,これらを正しく認識できずに誤ったと考えられる.誤り例2では,正解は「70歳未満」であり「70歳」は対象となっていないが,システム出力は「70歳」であり「70歳」も対象となってしまっている.%%%%%%%%%%%%%%%%%%%%%T17\begin{table}[t]\input{04table17.tex}\caption{shortanswer抽出タスクにおけるシステムの正解例・誤り例}\label{tab:discussionofshortanswerextraction}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T18\begin{table}[t]\input{04table18.tex}\caption{open-domainタスクにおけるシステムの正解例・誤り例}\label{tab:discussionofopen-domain}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T19\begin{table}[t]\input{04table19.tex}\caption{yes/noanswer識別タスクにおけるシステムの正解例・誤り例}\label{tab:discussionofyes/noansweridentification}\end{table}%%%%%%%%%%%%%%%%open-domainNQ(表\ref{tab:discussionofopen-domain})では,評価指標としてEMを用いているが,誤り例1のように単位が付くかどうかや,誤り例2のようにカタカナか漢字の違いで完全一致せず,不正解となるケースがあった.また,誤り例3のように,システムが出力した文字列が段落中に無いため,回答が正しくても不正解となる場合もあった.yes/noanswer識別タスク(表\ref{tab:discussionofyes/noansweridentification})の正解例では,「ルッコラを生で食べられる」とは明記されていないが,「生で料理に利用する」という文脈から「食べられる」と判断することができている.誤り例1では,段落中に「血糖値の上昇を抑える」と記述されているためシステムは\textsc{yes}と出力したと考えられるが,「血圧が下がる」とは記述されていないので正解は\textsc{none}になっている.誤り例2では,段落中に「従業員」という単語がなくシステムは\textsc{none}と出力したが,人間は「従業員」と「労働者」を同義と捉えたため,正解は\textsc{no}となっている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7 \section{結論} 本研究では,日本語NaturalQuestions(JNQ)と日本語BoolQ(JBoolQ)の2つのQAデータセットを構築した.質問文は,検索エンジンのクエリログから収集しており,人間の情報欲求に由来する自然なものである.アノテーションは,コストを低減するためにクラウドソーシングで行った.JNQからlonganswer抽出,shortanswer抽出,open-domainNQの3つのタスク,JBoolQからyes/noanswer識別の合計4タスクを定義し,ベースラインモデルの性能を評価した.構築したデータセットはQAモデルやNLPモデルの訓練,評価,分析に活用でき,日本語においてこれらの研究が促進されることが期待される.%%%Acknowledgement%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はLINEヤフー株式会社と早稲田大学の共同研究により実施した.また本論文は以下の論文を拡張・翻訳したものである.Uematsu,T.,Wang,H.,Kawahara,D.,andShibata,T.(2024).ABenchmarkSuiteofJapaneseNaturalQuestions.InProceedingsofthe13thJointConferenceonLexicalandComputationalSemantics(*SEM2024),pp.58--68,MexicoCity,Mexico.AssociationforComputationalLinguistics.\color{black}植松拓也,王昊,福田創,河原大輔,柴田知秀(2024).日本語NaturalQuestionsとBoolQの構築.言語処理学会第30回年次大会発表論文集,pp.679--684.\color{black}%%%Bibliography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{04refs}%%%Biography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{植松拓也}{%2023年早稲田大学基幹理工学部情報通信学科卒業.2024年現在同大学院修士課程在学中.}\bioauthor{王昊}{%2024年早稲田大学基幹理工学研究科修士課程修了.2024年現在同大学院博士課程在学中.}\bioauthor{福田創}{%2024年現在早稲田大学基幹理工学部学士課程在学中.}\bioauthor{河原大輔}{%2002年京都大学大学院博士課程単位取得認定退学.2005年同修了.博士(情報学).東京大学学術研究支援員,情報通信研究機構主任研究員,京都大学准教授を経て,2020年より早稲田大学教授.}\bioauthor{柴田知秀}{%2007年東京大学大学院情報理工学系研究科博士課程修了.博士(情報理工学).同年より京都大学大学院情報学研究科助教.2014年より同特定講師.2019年よりYahoo!JAPAN研究所上席研究員.2023年よりLINEヤフー研究所上席研究員/SBIntuitions株式会社ChiefResearchScientist.自然言語処理に関する研究開発に従事.言語処理学会,人工知能学会,情報処理学会各会員.}\end{biography}\biodate%%%%受付日の出力(編集部で設定します)\end{document}
V04N01-08
\section{序論} \label{sec:序論}近年,機械可読な言語データの整備が進んだことや,計算機能力の向上により大規模な言語データの取り扱いが可能になったことから,自然言語処理に用いる様々な知識を言語データから自動的に獲得する研究が盛んに行われている\cite{utsuro95a}.大量の言語データから自動的に獲得した知識は,人手によって得られる知識と比べて,獲得した知識が人間の主観に影響されにくい,知識作成のためのコストが低い,知識の適用範囲が広い,知識に何らかの統計情報を容易に組み込むことができる,といった優れた特徴を持っている.言語データから自動獲得される自然言語処理用知識には様々なものがあるが,その中の1つとして文法がある.文法には様々なクラスがあるが,統語解析の際に最もよく用いられるのは文脈自由文法(ContextFreeGrammar,以下CFGと呼ぶ)であり,一般化LR法,チャート法などのCFGを用いた効率の良い解析手法がいくつも提案されている.ところが,人手によってCFGを作成する場合,作成の際に考慮されなかった言語現象については,それに対応する規則がCFGに含まれていないために解析することができない.これに対して,コーパスから自動的にCFGを抽出することができれば,コーパス内に現れる多様な言語現象を網羅できるだけでなく,人的負担も極めて軽くなる.また,CFGの拡張の1つとして,文法規則に確率を付与した確率文脈自由文法(ProbabilisticContextFreeGrammar,以下PCFGと呼ぶ)がある\cite{wetherell80a}.PCFGは,生成する複数の解析結果の候補(解析木)に対して,生成確率による順序付けを行うことができるという点でCFGよりも優れている.そこで本論文では,CFGをコーパスから自動抽出し,その後各規則の確率をコーパスから学習することにより最終的にPCFGを獲得する手法を提案する.CFGまたはPCFGをコーパスから自動獲得する研究は過去にもいくつか行われている.文法獲得に利用されるコーパスとしては,例文に対して何の情報も付加されていない平文コーパス,各形態素に品詞が割り当てられたタグ付きコーパス,内部ノードにラベルのない構文木が与えられた括弧付きコーパス,内部ノードのラベルまで与えられた構文木付きコーパスなど,様々なものがある.以下ではまず,文法獲得に関する過去の研究が,どのような種類のコーパスからどのような手法を用いて行われているのかについて簡単に概観する.平文コーパスからの文法規則獲得に関する研究としては清野と辻井によるものがある~\cite{kiyono93a,kiyono94a,kiyono94b}.彼らの方法は,まずコーパスの文を初期のCFGを用いて統語解析し,解析に失敗した際に生成された部分木から,解析に失敗した文の統語解析を成功させるために必要な規則(彼らは仮説と呼んでいる)を見つけ出す.次に,その仮説がコーパスの文の解析を成功させるのにどの程度必要なのかを表わす尤度(Plausibility)を計算し,高い尤度を持つ仮説を新たな規則として文法に加える.彼らは全ての文法規則を獲得することを目的としているわけではなく,最初からある程度正しいCFGを用意し,それを新たな領域に適用する際にその領域に固有の言語現象を取り扱うために必要な規則を自動的に獲得することを目的としている.タグ付きコーパスからCFGを獲得する研究としては森と長尾によるものがある~\cite{mori95a}.彼らは,前後に現われる品詞に無関係に出現する品詞列を独立度の高い品詞列と定義し,コーパスに現われる品詞列の独立度をn-gram統計により評価する.次に,ある一定の閾値以上の独立度を持つ品詞列を規則の右辺として取り出す.また,取り出された品詞列の集合に対して,その前後に現われる品詞の分布傾向を利用してクラスタリングを行い,同一クラスタと判断された品詞列を右辺とする規則の左辺に同一の非終端記号を与える.そして,得られた規則のクラスタの中からコーパス中に最もよく現れるものを選び,それらをCFG規則として採用すると同時に,コーパス中に現われる規則の右辺の品詞列を左辺の非終端記号に置き換える.このような操作を繰り返すことにより,最終的なCFGを獲得すると同時に,コーパスの各例文に構文木を付加することができる.括弧付きコーパスからCFGを獲得する研究としては,まずInside-Outsideアルゴリズムを利用したものが挙げられる.LariとYoungは,与えられた終端記号と非終端記号の集合からそれらを組み合わせてできる全てのチョムスキー標準形のCFG規則を作り,それらの確率をInside-Outsideアルゴリズムによって学習し,確率の低い規則を削除することにより新たなPCFGを獲得する方法を提案した~\cite{lari90a}.この方法では収束性の悪さや計算量の多さが問題となっていたが,この問題を解決するために,PereiraらやSchabesらはInside-Outsideアルゴリズムを部分的に括弧付けされたコーパスに対して適用する方法を提案している~\cite{pereira92a,schabes93b}.しかしながら,局所解は得られるが最適解が得られる保証はない,得られる文法がチョムスキー標準形に限られるなどの問題点も残されている.一方,括弧付きコーパスから日本語のCFGを獲得する研究としては横田らのものがある\cite{yokota96a}.彼らは,Shift-Reduceパーザによる訓練コーパスの例文の統語解析が最も効率良くなるように,コーパスの内部ノードに人工的な非終端記号を割り当てることによりCFGを獲得する方法を提案している.これは組み合わせ最適化問題となり,SimulatedAnnealing法を用いることにより解決を求めている.1000〜7500例文からCFGを獲得し,それを用いた統語解析では15〜47\%の正解率が得られたと報告している.この方法では,CFG獲得の際に統計情報のみを利用し,言語的な知識は用いていない.しかしながら,利用できる言語学的な知識はむしろ積極的に利用した方が,文法を効率良く獲得できると考えられる.構文木付きコーパスから文法を獲得する研究としてはSekineとGrishmanによるものがある~\cite{sekine95a}.彼らは,PennTreeBank~\cite{marcus93a}の中からSまたはNPを根ノードとする部分木を自動的に抽出する.解析の際には,得られた部分木をSまたはNPを左辺とし部分木の葉の列を右辺としたCFG規則に変換し,通常のチャート法により統語解析してから,解析の際に使用した規則を元の部分木に復元する.得られた解析木にはPCFGと同様の生成確率が与えられるが,この際部分木を構成要素としているため若干の文脈依存性を取り扱うことができる.しかしながら,SまたはNPがある記号列に展開されるときの構造としては1種類の部分木しか記述できず,ここでの曖昧性を取り扱うことができないといった問題点がある.また,構文木付きコーパスにおいては,例文に付加された構文木の内部ノードにラベル(非終端記号)が割り当てられているため,通常のCFGならば構文木の枝分れをCFG規則とみなすことにより容易に獲得することができる.大量のコーパスからPCFGを獲得するには,それに要する計算量が少ないことが望ましい.ところが,統語構造情報が明示されていない平文コーパスやタグ付きコーパスを用いる研究においては,それらの推測に要する計算コストが大きいといった問題がある.近年では,日本においてもEDRコーパス~\cite{edr95a}といった大規模な括弧付きコーパスの整備が進んでおり,効率良くCFGを獲得するためにはそのような括弧付きコーパスの統語構造情報を利用することが考えられる.一方,括弧付きコーパスを用いる研究\cite{pereira92a,schabes93b,yokota96a}においては,平文コーパスやタグ付きコーパスと比べて統語構造の情報が利用できるとはいえ,反復アルゴリズムを用いているために文法獲得に要する計算量は多い.本論文では,括弧付きコーパスとしてEDRコーパスを利用し,日本語の言語的特徴を考慮した効率の良いPCFG抽出方法を提案する~\cite{shirai95b,shirai95a}.本論文の構成は以下の通りである.2節では,括弧付きコーパスからPCFGを抽出する具体的な手法について説明する.3節では,抽出した文法を改良する方法について説明する.文法の改良とは,具体的には文法サイズを縮小することと,文法が生成する解析木の数を抑制することを指す.4節では,実際に括弧付きコーパスからPCFGを抽出し,それを用いて統語解析を行う実験について述べる.最後に5節では,この論文のまとめと今後の課題について述べる. \section{括弧付きコーパスからの文法抽出} \label{sec:文法抽出}\subsection{EDRコーパスの概要}\label{sec:EDRコーパスの概要}本論文では,言語データとしてEDR日本語コーパスを使用する.EDRコーパスに収録されている例文数は207,802である.それぞれの文には補助情報として形態素情報,構文情報,意味情報が付加されている.本論文では形態素情報(特に品詞情報)と括弧付けによる構文構造を利用する.EDRコーパスの例文,及びそれに付加された形態素情報・括弧付けによる構文構造の例を図\ref{fig:構文構造の例1}に示す.\begin{center}\atari(120,68)\figcap{EDRコーパスの構文構造}{fig:構文構造の例1}\end{center}EDRコーパスで使われている品詞は以下に挙げる15種類であり,比較的粗い品詞体系になっている.\begin{quote}名詞,動詞,形容詞,形容動詞,連体詞,副詞,接続詞,数字,感動詞,助詞,\\助動詞,語尾,接頭語,接尾語,記号\end{quote}ここで注意しなければならないのは,``動詞''という品詞は動詞語幹に対して割り当てられ,語尾には``語尾''という品詞が割り当てられている点である.同様に,``形容詞'',``形容動詞'',``助動詞''という品詞は,それぞれ形容詞語幹,形容動詞語幹,助動詞語幹に割り当てられている.\subsection{ノードへの非終端記号の付与}\label{sec:ノードへの非終端記号の付与}図\ref{fig:構文構造の例1}は図\ref{fig:基本規則}のような書き換え規則の集合とみなすことができる.図\ref{fig:構文構造の例1}のような構文構造の各ノードに対して適切なラベル(非終端記号)を割り当てることができれば,図\ref{fig:基本規則}の規則はCFG規則となる.このように,括弧付けによる構文構造の内部ノードに適切なラベルを与えることは括弧付きコーパスからCFGを抽出することと等価である.そこで,\ref{sec:ラベルの決定方法}節では構文構造の内部ノードに与えるラベルを決定する方法について考える.\begin{center}\small\smallskip\begin{tabular}[t]{ccccc}\inode{0}&$\rightarrow$&\inode{1}&記号&\hspace{3zw}\\\inode{1}&$\rightarrow$&\inode{2}&助動詞&\\\inode{2}&$\rightarrow$&\inode{3}&\inode{4}&\\\inode{3}&$\rightarrow$&名詞&助詞&\\\inode{4}&$\rightarrow$&\inode{5}&\inode{14}&\\\inode{5}&$\rightarrow$&\inode{6}&助詞&\\\inode{6}&$\rightarrow$&\inode{7}&名詞&\\\inode{7}&$\rightarrow$&\inode{8}&\inode{13}&\\\end{tabular}\hspace{5mm}\begin{tabular}[t]{ccccc}\inode{8}&$\rightarrow$&\inode{9}&助詞&\\\inode{9}&$\rightarrow$&\inode{10}&名詞&\\\inode{10}&$\rightarrow$&\inode{11}&助詞&\\\inode{11}&$\rightarrow$&\inode{12}&名詞&\\\inode{12}&$\rightarrow$&接頭語&名詞&\\\inode{13}&$\rightarrow$&動詞&語尾&\\\inode{14}&$\rightarrow$&動詞&語尾&助動詞\\\end{tabular}\bigskip\figcap{構文構造から得られる書き換え規則}{fig:基本規則}\end{center}\subsection{ラベルの決定方法}\label{sec:ラベルの決定方法}日本語の特徴として,前の要素が後ろの要素を修飾する,すなわち句の主辞はその句における一番最後の要素であるということが知られている\cite{mihara94a}.例えば,図\ref{fig:基本規則}の中の\begin{quote}\inode{12}~~$\rightarrow$~~接頭語~~名詞\end{quote}という規則について考えよう.[接頭語名詞]という句の主辞は句の一番最後にある``名詞''であると考えられる.そこで,この主辞``名詞''に``句''をつけたラベル``名詞句''を左辺のノード\inode{12}に与えることにする.同様に,\begin{quote}X~~$\rightarrow$~~形容詞句~~名詞句\end{quote}という規則が存在すると仮定し,ラベルの決定されていないノードXに非終端記号を与える場合を考える.この時,[形容詞句名詞句]という句全体の主辞もまた句の最後にある``名詞句''であると考えられる.先ほどと異なるのは主辞となる記号が非終端記号であるという点である.このような場合には,右再帰を用いて左辺ノードXにも主辞と同じ``名詞句''というラベルを与える.しかしながら,このようなラベルの与え方が常に適切であるわけではない.\begin{itemize}\item主辞にならない品詞\quad例えば,\begin{quote}X~~$\rightarrow$~~接続詞~~記号\end{quote}という規則について考える\footnote{この規則の右辺は「しかし,」などに対応している.}.[接続詞記号]という句の1番最後にある品詞は``記号''であるが,この句の主辞は``記号''ではなく``接続詞''である.したがって,左辺のノードXに与えるラベルも``記号句''ではなく``接続詞句''とすべきである.このように,``記号''は主辞にはならない品詞であるとみなし,句の一番最後にある要素が``記号''である場合には,その左隣にある要素を主辞とみなす.\item``語尾''と``助動詞''の取り扱い\quad図\ref{fig:基本規則}の中の\begin{quote}\inode{13}~~$\rightarrow$~~動詞~~語尾\end{quote}という規則について考える.今までのやり方では,[動詞語尾]という句の1番最後にある品詞は``語尾''であるので,左辺のノード\inode{13}に与えるラベルは``語尾句''となる.ところが,\ref{sec:EDRコーパスの概要}節で述べたように,EDRコーパスにおいては,``語尾''という品詞は動詞の語尾にだけではなく形容詞・形容動詞・助動詞の語尾にも割り当てられている.したがって,このようなラベルの付け方では,\begin{quote}X~~$\rightarrow$~~形容詞~~語尾\\X~~$\rightarrow$~~形容動詞~~語尾\\X~~$\rightarrow$~~助動詞~~語尾\end{quote}といった規則の左辺にも``語尾句''というラベルを与えることになる.この場合,``語尾句''というラベルを割り当てられたノードが``動詞'',``形容詞'',``形容動詞'',``助動詞''のどれを含んでいるのかを識別することができない.同様に,規則の右辺の一番最後にある要素が``助動詞''のときも,左辺に``助動詞句''というラベルを与えるのは好ましいことではない.このような理由から,句の一番最後にある要素が品詞``語尾''または``助動詞''である場合には,その左隣にある要素から左辺に与える非終端記号を導出する.\item主辞が``助詞''の場合\quad左辺に``助詞句''というラベルを与えることも考えられるが,わかりやすさのため``後置詞句''というラベルを与える.\item主辞が``接尾語''の場合\quadEDRコーパスにおいては,品詞が``接尾語''となる形態素は「月」,「日」,「メートル」など単位を表しているものが多く,他にも「区」,「氏」など全体として名詞句を形成するものがほとんどである.そこで,主辞が``接尾語''のときには左辺ノードに``名詞句''というラベルを与える.\end{itemize}以上のようないくつかの例外処理が必要ではあるが,基本的には句の一番最後にある要素を主辞とみなして,それから左辺ノードに与えるラベルを決定することにする.本節で提案した括弧付きコーパスから文法を抽出するアルゴリズムを以下にまとめる.\begin{flushleft}\vspace*{2mm}{\bf【文法抽出アルゴリズム】}\vspace*{-3mm}\end{flushleft}\begin{enumerate}\item構文構造の中で,まだラベルが割り当てられていなくて,かつその子ノードには全てラベルが割り当てられているノードを見つける.そのようなノードがなければ(3)へ.\item(1)で見つけたノードが構文構造のルートである場合には,そのノードのラベルを開始記号Sとする.それ以外は【ラベル決定アルゴリズム】(後述)を用いてノードに与えるラベルを決定する.(1)へ戻る.\item構文構造の全ての内部ノードにはラベルが与えられているはずなので,それを\begin{center}ノード\quad→\quad子ノードの列\end{center}という形に分解しCFG規則とする.\end{enumerate}\begin{flushleft}\vspace*{2mm}{\bf【ラベル決定アルゴリズム】}\vspace*{-3mm}\end{flushleft}``記号'',``語尾'',``助動詞''以外の要素で子ノードの列の最も右側にあるものを選び,それをXとする.\begin{itemize}\itemXが``助詞''の場合,左辺ノードに``後置詞句''というラベルを与える.\itemXが``接尾語''の場合,左辺ノードに``名詞句''というラベルを与える.\itemXが``助詞'',``接尾語''以外の品詞の場合,左辺ノードに``X句''というラベルを与える.例えば主辞が``名詞''の場合,``名詞句''というラベルを与える.\itemXが非終端記号の場合,左辺ノードにも同じXというラベルを与える.例えば主辞が``名詞句''の場合,左辺ノードにも同じ``名詞句''というラベルを与える.\end{itemize}\bigskip上記の方法によって図\ref{fig:構文構造の例1}の内部ノードにラベルを与えて抽出された文法規則を図\ref{fig:抽出された文法の例}に示す.この操作をコーパスの全ての構文構造に対して行うことによりCFGを抽出することができる.\begin{center}\small\smallskip\begin{tabular}{lcll}S&$\rightarrow$&助動詞句&記号\\助動詞句&$\rightarrow$&動詞句&助動詞\\動詞句&$\rightarrow$&後置詞句&動詞句\\動詞句&$\rightarrow$&動詞&語尾\\動詞句&$\rightarrow$&動詞&語尾~~~~助動詞\\後置詞句&$\rightarrow$&名詞&助詞\\後置詞句&$\rightarrow$&名詞句&助詞\\名詞句&$\rightarrow$&後置詞句&名詞\\名詞句&$\rightarrow$&接頭語&名詞\\名詞句&$\rightarrow$&動詞句&名詞\\名詞句&$\rightarrow$&名詞句&名詞\\\end{tabular}\bigskip\figcap{抽出された文法規則}{fig:抽出された文法の例}\end{center}次に,本手法の文法抽出に要する計算量について考察する.【文法抽出アルゴリズム】は,「句の主辞はその句における一番最後の要素である」という日本語の言語学的特徴を利用して括弧付けによる構文構造の内部ノードに非終端記号を与えているため,文法抽出に必要な計算量はコーパスの構文構造の内部ノード数に比例する.また,長さ$n$の文があったとき,それに対する最も内部ノード数の多い構文構造は完全な二分木であり,そのときの内部ノード数は$n-1$である.したがって,文法抽出に必要な計算量は入力文の長さ$n$にも比例する.このことは大規模なコーパスからの文法抽出を可能にしている.これに対し,本研究と同じく括弧付きコーパスを用いてCFGを獲得するPereiraらの方法~\cite{pereira92a,schabes93b}では,Inside-Outsideアルゴリズムによる規則の推定に必要な計算量は$O(n)$であり\footnote{厳密には,コーパスに付加された構文木が完全な二分木のときのみ$O(n)$となり,それ以外の場合の計算量は$O(n)$よりも多い.},しかもこの作業を反復しなければならない.また,同じく括弧付きコーパスを利用した横田らの方法~\cite{yokota96a}では,内部ノードに与える非終端記号をランダムに変化させることを繰り返すSimulatedAnnealing法を用いてCFG規則を獲得しているため,内部ノードに決定的に非終端記号を与える本手法よりも多くの計算量を必要とするのは明らかである.\subsection{規則の確率の推定}\label{sec:規則の確率の推定}前節で提案した方法により括弧付きコーパスから抽出したCFGに対して,各規則の確率を次のように推定した\cite{wetherell80a}.\newpage\begin{flushleft}\vspace*{2mm}{\bf【規則の確率の推定】}\vspace*{-3mm}\end{flushleft}\begin{enumerate}\itemコーパスからCFG規則を抽出する際に,同じ規則を抽出した回数,すなわちその規則のコーパスにおける出現頻度を数える.規則$r_i$の出現頻度を$C(r_i)$とする.\item規則$r_i\;:\;A\rightarrow\zeta_i$の確率$P(r_i)$を次式により求める.\begin{equation}\label{eq:規則の確率}\hspace*{30mm}P(r_i)\quad=\quad\frac{C(r_i)}{\displaystyle\sum_{\forallr_j\;:\;A\rightarrow\zeta_j}C(r_j)}\end{equation}すなわち$P(r_i)$は,$r_i$の出現頻度を,$A$を左辺とする全ての規則の出現頻度の和で割った値とする.\end{enumerate}以上のように規則の確率を推定することにより,括弧付きコーパスからPCFGを抽出することができる. \section{文法の改良} \label{sec:文法の改良}サイズの小さなコーパスを用いて,前節で説明した方法によりPCFGを抽出する予備実験を行ったところ,以下のような問題点が明らかになった.\begin{itemize}\item文法のサイズが大きい\quadEDRコーパスからランダムに選び出した3,000例文からPCFGを抽出したところ,文法規則の数は1,009となり,コーパスサイズに比べて非常に多くの文法規則が抽出されることがわかった.統語解析に要するコストを考えると,文法サイズが不必要に大きいことは望ましいことではない.\item生成される解析木の数が多い\quad抽出したPCFGを用いてEDRコーパスからランダムに選び出した100例文\footnote{PCFGを抽出した3,000例文とは別の例文である.}を統語解析したところ,解析結果の候補として生成された解析木の数は平均$1.5\times10^6$となり,非常に多くの解析木を生成することがわかった.また,メモリ不足によって解析に失敗した文は69文あった.統語解析を意味解析や文脈解析などの前処理と考えるなら,統語解析結果の候補の数はできるだけ少ないことが望まれる.\end{itemize}本節ではこれらの問題への対応策について述べる.\subsection{文法サイズの縮小}\label{sec:文法サイズの縮小}ここでは,コーパスから抽出した文法のサイズを縮小する方法を提案する.文法サイズを縮小する方法としてまず考えられるのは,出現頻度の低い規則を削除することである.しかし,単純に出現頻度の低い規則を削除した場合,その規則がコーパスの構文構造作成時の誤りによって生じた不適切な規則であればよいが,稀にしか現われない言語現象に対応した規則である場合には,そのような規則を削除することにより文法の適用範囲(coverage)が狭くなる.両者を出現頻度のみで区別することは難しく,出現頻度が低いからといってその規則を削除することは必ずしも適切ではない.予備実験で抽出した文法を調べたところ,右辺長の長い規則が多く含まれていることがわかった.予備実験で抽出した文法規則の右辺長の分布を表\ref{tab:規則の右辺長の分布}に示す.\begin{center}\tblcap{文法規則の右辺長の分布}{tab:規則の右辺長の分布}\small\begin{tabular}{|c||r|r|r|r|r|r|r|r|r|r|r|r|r|r|}\hline右辺長&\makebox[4mm]{2}&\makebox[4mm]{3}&\makebox[4mm]{4}&\makebox[4mm]{5}&\makebox[4mm]{6}&\makebox[4mm]{7}&\makebox[4mm]{8}&\makebox[4mm]{9}&\makebox[4mm]{10}&\makebox[4mm]{11}&\makebox[4mm]{12}&\makebox[4mm]{13}&\makebox[4mm]{14}&\makebox[4mm]{16}\\\hline規則数&235&205&155&161&111&69&31&25&7&6&1&1&1&1\\\hline\end{tabular}\bigskip\end{center}右辺長の長い規則が多く含まれていることがわかる.そのような規則の一例を次に挙げる.\begin{center}\begin{tabular}{ccl}動詞句&$\rightarrow$&動詞~語尾~名詞~助詞~形容動詞~語尾~動詞~語尾\\\end{tabular}\end{center}これは,コーパスのある例文において,\begin{center}[~~動詞~語尾~名詞~助詞~形容動詞~語尾~動詞~語尾~~]\end{center}といった括弧付けがなされているためである.本来,その例文の構文構造を反映させるためにはもう少し細かい括弧付けが必要である.しかし,EDRコーパスの中には多くの要素を1つの括弧で括ってしまう例文も存在する.このような右辺の長い規則の存在が文法サイズを大きくしている原因の1つと考えられる.右辺の長い規則の場合,その規則を除去しても文法中の他の規則によって右辺の記号列を生成できる場合がある.例えば,文法中に次のような規則があったとする.\begin{center}\begin{tabular}{llcl}$r_b$:&動詞句&$\rightarrow$&動詞句~後置詞句~動詞句\\[-1mm]$r_{c1}$:&動詞句&$\rightarrow$&動詞~語尾\\[-1mm]$r_{c2}$:&後置詞句&$\rightarrow$&名詞~助詞\\[-1mm]$r_{c3}$:&動詞句&$\rightarrow$&形容動詞~語尾~動詞~語尾\\\end{tabular}\end{center}これら4つの規則を用いれば,非終端記号``動詞句''から``動詞~語尾~名詞~助詞~形容動詞語尾~動詞~語尾''という記号列を生成することが可能である.このことを図式化したものを図\ref{fig:冗長規則の例1}に示す.このように,ある規則を文法から除去しても,他の規則によって右辺の記号列を生成できるような場合は文法の生成能力は変わらない.\begin{center}\bigskip\atari(115,36)\figcap{複数の規則を用いた記号列の展開}{fig:冗長規則の例1}\end{center}そこで,「冗長な規則」を次のように定義する.\begin{center}\begin{minipage}{0.73\textwidth}ある規則$r_i:A_i\rightarrow\zeta_i$があるとき,文法内の$r_i$以外の規則を用いて非終端記号$A_i$を記号列$\zeta_i$に展開できるならば,すなわち$A_i\stackrel{*}{\rightarrow}\zeta_i$であるならば,$r_i$は冗長な規則である.\end{minipage}\end{center}\noindent$\stackrel{*}{\rightarrow}$は規則を1回以上適用することを示す.冗長な規則を削除する前の文法によって受理される文は,冗長な規則を削除した後の文法でも必ず受理される.したがって,冗長な規則を自動的に検出しそれを削除すれば,文法の適用範囲を狭めることなく文法サイズを縮小することができる.ここで問題となるのは,冗長な規則のコーパスにおける出現頻度をどのように取り扱うかということである.本論文では,式(\ref{eq:規則の確率})に示した通り,規則の出現頻度を規則の確率の推定に用いている.そのため,冗長な規則を文法から削除する際に,その出現頻度をも破棄してしまうのは望ましいことではない.冗長な規則を削除するのは,その規則の右辺の記号列が他の規則によって生成できることが保証されているからである.したがって,削除された冗長な規則の出現頻度は,その規則の右辺の記号列を生成するのに必要な規則の出現頻度に加えるべきである.例えば図\ref{fig:冗長規則の例1}において,$r_a$の右辺の記号列は$r_b$,$r_{c1}$,$r_{c2}$,$r_{c3}$をそれぞれ1回ずつ適用することによって生成されるので,$r_a$を文法から除去する場合には,$r_b$,$r_{c1}$,$r_{c2}$,$r_{c3}$の出現頻度に$r_a$の出現頻度をそれぞれ加えるべきである.さらに,冗長な規則の右辺を生成する規則の組\{$r_b$,$r_{ci}$\}(図\ref{fig:冗長規則の例1}においては\{$r_b$,$r_{c1}$,$r_{c2}$,$r_{c3}$\})が複数ある場合には,冗長な規則$r_a$の出現頻度を,各組の$r_b$に該当する規則の出現頻度で比例配分してから各規則に足し合わせる.また,ある規則$r_a$が冗長であるかどうかを調べる際には右辺長の長い規則から順番に行い,\{$r_b,r_{ci}$\}が冗長であるかどうかについては考慮しない.そして,$r_a$が冗長であるとわかった際には,\{$r_b,r_{ci}$\}の規則の出現回数を更新してから次の規則が冗長であるかどうかを調べる.したがって,例えば図\ref{fig:冗長規則の例1}の$r_{c3}$が冗長な規則である場合でも,$r_a$の出現頻度は$r_{c3}$の出現頻度に一旦加えられた後,$r_{c3}$の右辺の記号列を生成する規則の出現頻度にも足し合わされる.本節で提案した冗長な規則を検出しそれを削除するアルゴリズムを以下にまとめる.\begin{flushleft}\vspace*{2mm}{\bf【冗長規則削除アルゴリズム】}\vspace*{-3mm}\end{flushleft}$R,~R_{new},~C(r),~C_{new}(r)$を次のように定義する.\begin{center}\begin{tabular}{lcl}$R$&~$\cdots$~&抽出した文法規則の集合\\$C(r)$&~$\cdots$~&$R$中の規則$r$の出現頻度\\$R_{new}$&~$\cdots$~&冗長な規則を削除して作られる新しい文法規則の集合\\&&($R$の中から冗長でない規則を取り出した集合)\\$C_{new}(r)$&~$\cdots$~&$R_{new}$の各規則の出現頻度\\\end{tabular}\end{center}\begin{enumerate}\item$R_{new}$を空集合とする.\item$R$の中から右辺長の一番長い規則$r_a$を1つ抜き出す.\item以下の条件を満たす規則の組\{$r_b^j$,$r_{c1}^j$,$\cdots$,$r_{cn}^j$\}を可能な限り見つける.\begin{quote}規則$r_b^j$の右辺に含まれる非終端記号$B_i^j$を,$B_i^j$を左辺とする規則$r_{ci}^j$の右辺の記号列$\beta_i^j$に置き換えた記号列が$r_a$の右辺の記号列と一致する.\end{quote}この条件を図示すると図\ref{fig:冗長な規則のチェック}のようになる.但し,図\ref{fig:冗長な規則のチェック}において,$A,\;B_i\inN~,~~~\alpha_i,\;\beta_i\in(N+T)*$である.($N$は非終端記号の集合,$T$は終端記号の集合)\bigskip\begin{center}\atari(120,44)\figcap{冗長な規則のチェック}{fig:冗長な規則のチェック}\end{center}※このような規則の組が1つも見つからなかった場合($j=0$の場合)\begin{quote}$r_a$は冗長な規則ではない.この規則を$R_{new}$に加え,$C_{new}(r)=C(r)$とする.\end{quote}※このような規則の組が1つ以上見つかった場合($j>=1$の場合)\begin{quote}$r_a$は冗長な規則である.このときは$r_a$を$R_{new}$には加えず,出現頻度$C(r)$の更新のみを図\ref{fig:出現頻度の更新}のように行う.すなわち,見つけた規則の組の$r_b^j$に該当する規則の出現頻度で$C(r_a)$を比例配分し,それを$C(r_b^j)$,$C(r_{ci}^j)$に加える.\bigskip\begin{center}$\begin{array}{c@{\hspace*{5mm}}c@{\hspace*{5mm}}ccc@{\hspace*{10mm}}l}C(r_b^j)&\leftarrow&C(r_b^j)&+&C(r_a)\times\frac{\displaystyleC(r_b^j)}{\displaystyle\sum_j~C(r_b^j)}&for~all~~~~j\\[5mm]C(r_{ci}^j)&\leftarrow&C(r_{ci}^j)&+&C(r_a)\times\frac{\displaystyleC(r_b^j)}{\displaystyle\sum_j~C(r_b^j)}&for~all~~~i,\;j\\\end{array}$\figcap{出現頻度の更新}{fig:出現頻度の更新}\bigskip\end{center}\end{quote}\item$R$が空なら終了.それ以外は(2)へ戻る.\end{enumerate}以上のように冗長な規則を削除することにより,文法の適用範囲を狭めることなく文法サイズを縮小することができる.この方法により文法サイズをどの程度縮小することができるのかについては第\ref{sec:評価実験}節の実験で評価する.\subsection{解析木数の抑制}\label{sec:解析木数の抑制}ここでは,抽出した文法が生成する解析木の数を抑制するための3つの方法を提案する.\subsubsection{同一品詞列の取り扱い}\label{sec:同一品詞列}統語解析を行う文の中に同じ品詞が複数並んだ句が存在する場合には,生成される解析木数が増大すると予想される.例えば,``名詞''が3つ並んで構成される句の構造としては,名詞間の修飾関係に応じて図\ref{fig:複合名詞の構造3}に示す3つの構造が考えられる.\begin{center}\atari(110,24)\figcap{``名詞''が3つ並んだ句の構造}{fig:複合名詞の構造3}\end{center}ところが,これらの構造の中から正しいものを選択するためには何らかの意味的な情報が必要である\cite{kobayashi96a}.したがって,意味的な情報を用いない統語解析の段階では,これらの構造全てを解析結果の候補として生成する.一般に,生成される解析木の数は組合せ的に増大するため,同一品詞列に対して不必要な構造を無意味に生成することが解析木数を増大させる原因の1つとなっている.そこで統語解析の段階では,図\ref{fig:複合名詞の構造3}のような構造を全て生成する代わりに,図\ref{fig:右下がりの構造}のような右下がりの構造のみを出力することにし,この部分の係り受け解析については統語解析の後で行われる意味解析に任せることにした.また,他の非終端記号と区別するために,図\ref{fig:右下がりの構造}の構造の内部ノードには``X列''(例えばXが``名詞''の場合は``名詞列'')というラベルを与えることにした.\begin{center}\atari(40,23)\figcap{右下がりの構造}{fig:右下がりの構造}\end{center}\noindentこのように同一品詞列に対する構造を一意に決めれば解析結果として得られる解析木の数を減少させることができる.同一品詞列に対して図\ref{fig:右下がりの構造}のような右下がりの構造のみを生成するために,\ref{sec:ラベルの決定方法}節に述べた【文法抽出アルゴリズム】に,次の手続きを最初のステップとして追加する.\newpage\begin{flushleft}{\bf【文法抽出アルゴリズム】}\vspace*{-3mm}\end{flushleft}\begin{itemize}\item[0.]構文構造において一種類の品詞のみを支配するノードがあれば,そのノードの下の構造を図\ref{fig:右下がりの構造}のような右下がりの構造に修正する.\item[1.]$\sim$3.\hspace{5mm}変更なし.\end{itemize}\bigskip\noindentまた,【ラベル決定アルゴリズム】に次の手続きを追加する.\begin{flushleft}{\bf【ラベル決定アルゴリズム】}\vspace*{-3mm}\end{flushleft}\begin{itemize}\item子ノードが品詞``X''または非終端記号``X列''のみによって構成されている場合には,\\``X列''というラベルを与える.\end{itemize}\subsubsection{品詞の細分化}\label{sec:品詞の細分化}\ref{sec:EDRコーパスの概要}節で述べたようにEDRコーパスで使われている品詞は15種類である.したがって,コーパスから抽出した文法に含まれる終端記号(品詞セット)の数も15であるが,これは統語解析を行うのに十分であるとは言えない。例えば,コーパスの中に\begin{center}[~名詞~助詞~名詞~]\qquad(e.g.~記者席/と/傍聴席~)\end{center}という括弧付けが存在し,名詞並列を表わすCFG規則が抽出されたとする.ところが,この規則は``名詞助詞名詞''という品詞列に常に適用され,「地上/に/茅(を出す)」といった名詞並列でない入力に対しても,それが名詞並列であるといった解析結果を出力してしまう.これは全ての助詞に対して``助詞''という品詞を与えているためであり,並列助詞と他の助詞に異なる品詞を与えれば,このような誤った解析を回避することができる.そこで,EDRコーパスに用いられている品詞を細分化して生成される解析木の数を抑制することを試みた.ここでは``記号''と``助詞''の2つの品詞に着目する.\begin{itemize}\item品詞``記号''の細分化\quadEDRコーパスにおいては,記号には全て``記号''という品詞が割り当てられている.しかし,読点は文の切れ目を,句点は文の終りを表す特別な記号であり,他の記号とは区別するべきである.そこで,形態素「、」と「,」には``読点''という品詞を与えることにした.また,EDRコーパス中の例文の文末に現れる形態素のほとんどは「。」,「.」,「?」,「!」のいずれかであり,しかもこれらは文末以外に現れることはほとんどなかった.そこで,形態素「。」,「.」,「?」,「!」には``文末記号''という品詞を与えることにした.また,これらの以外の形態素が文末に現れる文,及びこれらの形態素が文末以外の場所に現れる文,合計102文を例外としてコーパスから除去した.\item品詞``助詞''の細分化\quadEDRコーパスにおいては,助詞には全て``助詞''という品詞が割り当てられているが,その助詞の持っている機能により``格助詞'',``係助詞''などの品詞を割り当てるべきである.しかしながら,助詞の中には2つ以上の機能を持っているものもあり,助詞の機能をその表層だけから判断することは一般に困難である.そこで,EDRコーパスにおいて``助詞''という品詞を割り当てられた形態素「M」については,その形態素毎に独自の品詞``助詞M''を割り当てることにした.例えば,形態素「は」が``助詞''という品詞を割り当てられていたならば,その品詞を``助詞は''に変更する.\end{itemize}PCFGの抽出は,まずコーパスの品詞を上記のように細分化し,その後で\ref{sec:ラベルの決定方法}節で提案した【文法抽出アルゴリズム】に従って行う.また,品詞の細分化に伴い\ref{sec:ラベルの決定方法}節の【ラベル決定アルゴリズム】を以下のように変更する.下線を引いた部分が変更箇所である.\begin{flushleft}\vspace*{2mm}{\bf【ラベル決定アルゴリズム】}\vspace*{-3mm}\end{flushleft}\underline{``記号'',``語尾'',``助動詞'',``読点'',``文末記号''}以外の要素で子ノードの列の最も右側にあるものを選び,それをXとする.\begin{itemize}\itemXが\underline{``助詞M''}の場合,左辺ノードに``後置詞句''というラベルを与える.\item[~](以下同じ)\end{itemize}\subsubsection{法・様相を表わす助動詞に対する構造の統一}\label{sec:助動詞に関する修正}文末に現われる助動詞は文全体の法や様態を表していることが多い.例えば,EDRコーパス中の2つの例文\begin{quote}\smallskip\begin{tabular}{ll}(a)&10月中旬には、袋から顔を出しそうだ。\\(b)&そのうえソ連は対越援助を削減しそうだ。\\\end{tabular}\smallskip\end{quote}には「そう」と「だ」という2つの助動詞が含まれている.これらは文全体にそれぞれ伝聞,断定の意味合いを持たせる働きをしている.ところがEDRコーパスにおいては,このような助動詞は,文全体に付加している構造(図\ref{fig:助動詞の2つの構造}の(a))と,文末の最後の要素に付加している構造(図\ref{fig:助動詞の2つの構造}の(b))の2通りの構造で表されている.このような2種類の構文構造を含むコーパスから抽出された文法は,文末に助動詞を含む文に対して少なくとも図\ref{fig:助動詞の2つの構造}のような2つの構造を生成し,このことが解析木の数を増加させる一因となっている.そこで,助動詞が文全体に付加された図\ref{fig:助動詞の2つの構造}の(a)のような構造を,図\ref{fig:助動詞の2つの構造}の(b)のような構造に修正してから文法を抽出することにした.助動詞に対する構造を統一することにより,生成される解析木数の減少が期待できる.統一後の構造として図\ref{fig:助動詞の2つの構造}の(a)ではなく(b)を選択したのは,(a)のような構造からは解析木数を著しく増加させる文法規則が抽出されるからである.例えば,図\ref{fig:助動詞の2つの構造}の(a)のノード\inode{1},\inode{2},\inode{3},\inode{8},\inode{10},\inode{12}には,\ref{sec:ラベルの決定方法}節の【文法抽出アルゴリズム】に従って``動詞句''という非終端記号が割り当てられ,その結果次のような規則が抽出される.\begin{quote}動詞句~$\rightarrow$~動詞句~助動詞\qquad(``\inode{1}$\rightarrow$\inode{2}助動詞''という枝分かれに対応)\end{quote}\begin{center}\atari(95,100)\figcap{助動詞に対する2つの構造}{fig:助動詞の2つの構造}\end{center}\noindentところが,この規則により``助動詞''がノード\inode{8},\inode{10},\inode{12}に付加される構造も生成されることになり,生成される解析木の数を増加させる要因の1つとなっている.これに対して,図\ref{fig:助動詞の2つの構造}の(b)のような構造からは上述のような文法規則は抽出されないため,無駄な解析木を生成することはない.\vspace{-1mm} \section{評価実験} \label{sec:評価実験}本論文で提案した手法の評価実験を行った.まず,EDRコーパスの207,802例文のうち,約10分の1に相当する20,000例文をランダムに選んでテストデータとし,残りを訓練データとした.そして,訓練データからPCFGを抽出し,抽出したPCFGを用いてテストデータの例文を統語解析することにより,抽出したPCFGの品質を評価した.\subsection{文法抽出実験}\label{sec:文法抽出実験}文法抽出を以下の手順で行った.\begin{enumerate}\item訓練データの例文の品詞を細分化した.(\ref{sec:品詞の細分化}節)また,文末の助動詞に対する構造を統一した.(\ref{sec:助動詞に関する修正}節)\item【文法抽出アルゴリズム】に従って訓練データからPCFGを抽出した.(\ref{sec:ラベルの決定方法}節,\ref{sec:同一品詞列}節)\item【冗長規則削除アルゴリズム】に従って冗長な規則を削除した.(\ref{sec:文法サイズの縮小}節)\item式(\ref{eq:規則の確率})より各規則の確率を推定した.(\ref{sec:規則の確率の推定}節)\end{enumerate}コーパスから抽出したPCFGの概要を表\ref{tab:抽出したPCFG}に示す.\begin{center}\tblcap{抽出したPCFG}{tab:抽出したPCFG}\begin{tabular}{|c||r|r|r|}\hline\makebox[10mm]{~}&\makebox[18mm]{非終端記号数}&\makebox[18mm]{終端記号数}&\makebox[18mm]{規則数}\\\hline$G_0$&41~~&149~~&15206~~\\\hline$G_1$&41~~&149~~&2219~~\\\hline\end{tabular}\bigskip\end{center}$G_1$は上述の手続きによって訓練データから抽出されたPCFG,$G_0$は冗長規則を削除する前のPCFGである.冗長規則を削除したことにより文法サイズを約85\%縮小することができた.\subsection{統語解析実験}\label{sec:統語解析実験}得られたPCFGを用いてテストデータの例文の統語解析を行った.統語解析は一般化LR法~\cite{tomita86a}により行った.LRパーザをSunSparcStation10/51(主記憶64Mbyte)上に実装した.結果を表\ref{tab:統語解析結果(枝刈りなし)}に示す.\begin{center}\tblcap{統語解析結果}{tab:統語解析結果(枝刈りなし)}\begin{tabular}{|r|r|r||r|}\hline\makebox[17mm][c]{受理}&\makebox[17mm][c]{不受理}&\makebox[17mm][c]{メモリ不足}&\makebox[17mm][c]{合計}\\\hline12,658文&23文&7,319文&20,000文\\\hline\end{tabular}\bigskip\end{center}「受理」はパーザが解析に成功して1個以上の解析木を出力したことを,「不受理」は解析に失敗したことを,「メモリ不足」はメモリ不足のためにパーザが解析を中断したことを示す.全体の約36\%に当たる7,319文がメモリ不足のために解析できなかった.そこで,これらの文については,生成確率の低い部分木を解析途中で破棄する枝刈りを行いながら再度統語解析を行った.その結果を表\ref{tab:統語解析結果(枝刈りあり)}に示す.\begin{center}\tblcap{枝刈りを行う統語解析結果}{tab:統語解析結果(枝刈りあり)}\begin{tabular}{|r|r|r||r|}\hline\makebox[17mm][c]{受理}&\makebox[17mm][c]{不受理}&\makebox[17mm][c]{メモリ不足}&\makebox[17mm][c]{合計}\\\hline5,822文&562文&935文&7,319文\\\hline\end{tabular}\bigskip\end{center}これにより,$12,658+5,822=18,480$文を受理することができた.受理した文の平均単語数は24.45単語であった.また,生成した解析木数の1文当たりの平均は$3.24\times10^9$であった.非常に多くの解析木が生成されているが,PCFGにより解析木の生成確率を計算し,その上位何位かを出力することによって解析結果の候補数を絞り込むことが可能である.まず,文法の適用範囲の広さを示す尺度として,受理率を次のように定義する.\[受理率~=~\frac{\displaystyle受理した文の数}{\displaystyle統語解析した文の数}\]受理率は$18480/20000~\simeq~0.924$となり,適用範囲の広い文法が得られたことがわかる.また,受理しなかった1520文のうち935文(約61.5\%)がメモリ不足によるものである.したがって,パーザの使用メモリを増やすことができれば受理率はさらに向上することが予想される.次に,パーザが出力した解析木の評価を行った.出力された解析木がどれだけ正しいかを評価するための尺度として,括弧付けの再現率,括弧付けの適合率,文の正解率をそれぞれ以下のように定義した.\smallskip\[括弧付けの再現率~=~\frac{\displaystyle正しい括弧付けの数}{\displaystyleコーパスの構文構造に含まれる括弧付けの数}\]\smallskip\[括弧付けの適合率~=~\frac{\displaystyle矛盾しない括弧付けの数}{\displaystyle解析木に含まれる全ての括弧付けの数}\]\smallskip\[文の正解率~=~\frac{\displaystyle出力した解析木の中に正しい解析木が含まれる文の数}{\displaystyle受理した文の数}\]\smallskipここで「正しい括弧付け」とは,コーパスに付加された構文構造の括弧付けと完全に一致している解析木中の括弧付けを表し,「矛盾しない括弧付け」とは,コーパスに付加された構文構造の全ての括弧付けと交差していない括弧付けを表す~\cite{pereira92a}.また「正しい解析木」とは,解析木中の全ての括弧付けが矛盾していない解析木を表す.解析木の評価方法としては,コーパスの各例文に付加された構文構造を正解とみなし,これと同じ構造を持つ解析木を正しい解析結果とする方法も考えられる.しかしながら,\ref{sec:文法サイズの縮小}節で述べたように,EDRコーパスの括弧付けの中には多くの要素を1つの括弧で括ってしまうものも含まれている.これに対し,冗長な規則すなわち右辺長の比較的長い規則を削除したPCFGは,EDRコーパスに付加された括弧付けよりも細かく括弧付けする傾向を持っている.したがって,コーパスの構文構造と単純に比較して正しい解析結果か否かを判断するのは適切であるとは言えない.「括弧付けの適合率」及び「文の正解率」を計算する際に,コーパスに付加された構文構造と完全に一致していなくても,「矛盾しない括弧付け」及び「矛盾する括弧付けを含まない解析木」を正解としたのはこのためである.まず,生成確率が1位の解析木について,括弧付けの再現率,括弧付けの適合率,文の正解率の値を計算した.結果を表\ref{tab:解析結果の評価(1位のみ)}に示す.\begin{center}\tblcap{解析結果の評価(1位のみ)}{tab:解析結果の評価(1位のみ)}\begin{tabular}{|r|r|r|}\hline\makebox[27mm][c]{括弧付けの再現率}&\makebox[27mm][c]{括弧付けの適合率}&\makebox[27mm][c]{文の正解率}\\\hline54.30\%~~&65.74\%~~&8.47\%~~\\\hline\end{tabular}\smallskip\end{center}Schabesらは,英語の括弧付きコーパス(WallStreetJournalCorpus)からInside-Outsideアルゴリズムにより獲得した文法を用いた統語解析実験を行い,20〜30単語のテスト文に対して括弧付けの適合率が71.5\%,文の正解率が6.8\%であったと報告している\footnote{彼らは括弧付けの再現率は示していない.}\cite{schabes93b}.我々の実験の結果は,括弧付けの適合率ではSchabesらの結果に劣るが文の正解率では優っている.しかしながら,本研究とは使用しているコーパスや対象言語が異なるため,単純な比較はできない.表\ref{tab:解析結果の評価(1位のみ)}では,生成確率が1位の解析木についてのみ評価を行ったが,生成確率は統語的にみた解析木の尤もらしさを示しており,係り受け関係などの意味的な関係を考えた場合,生成確率の最も高い解析木が必ずしも正しい解析結果を表わしているわけではない.正しい解析結果を選択するのには何らかの意味解析が必要であるが,統語解析の結果出力される全ての解析結果の候補に対して意味解析を行うのは現実的ではない.統語解析を,意味解析を行う解析結果の候補の数を絞り込み,意味解析にかかる負担を軽減するための前処理と考えるなら,正解となる解析木の生成確率が1位とならなくても,生成確率の上位何位かに含まれていれば十分であろう.そこで,生成確率の上位$k$位の解析木を出力し,その中から矛盾する括弧付けの最も少ない解析木を選んで評価した.結果を表\ref{tab:統語解析結果の評価(上位k位)}に示す.\begin{center}\tblcap{統語解析結果の評価(上位$k$位)}{tab:統語解析結果の評価(上位k位)}\begin{tabular}{|c||r|r|r|}\hline$k$&\makebox[27mm][c]{括弧付けの再現率}&\makebox[27mm][c]{括弧付けの適合率}&\makebox[27mm][c]{文の正解率}\\\hline\hline1&54.30\%~~&65.74\%~~&8.47\%~~\\\hline5&57.60\%~~&69.04\%~~&16.23\%~~\\\hline10&59.53\%~~&71.10\%~~&21.11\%~~\\\hline20&61.46\%~~&73.18\%~~&26.51\%~~\\\hline30&62.48\%~~&74.13\%~~&29.06\%~~\\\hline\end{tabular}\smallskip\end{center}上位30位までの解析木を出力した場合,その中に正解となる解析木が含まれている文の割合は8.47\%から29.06\%に向上することがわかった.最後に,統語解析を行う文法のサイズを変化させ,受理率と正解率および生成される解析木数との相関を調べる実験を行った.まず,$G_1$の中からある一定の閾値$P$以下の確率を持つ文法を除去し,サイズの小さい文法$G_2$〜$G_5$を抽出した\footnote{実際には,閾値以下の規則を削除した後,残された規則の出現回数をもとに各規則の確率の推定をやり直した.}.次に,テストデータの中から枝刈りなしで受理した12,658文(表\ref{tab:統語解析結果(枝刈りなし)}参照)を$G_2$〜$G_5$を用いて統語解析し,結果を比較した.テスト文をこのように限定したのは,パーザがメモリ不足によって統語解析を中断した場合には文法が生成する解析木の数を測定することができないからである.解析した文の平均単語数は19.01単語であった.実験結果を表\ref{tab:文法サイズと解析結果の変化}に示す.メモリ不足によって解析に失敗した文はなかった.括弧付けの再現率,括弧付けの適合率,文の正解率は,生成確率の1位の解析木のみについて評価した.表\ref{tab:文法サイズと解析結果の変化}により,文法サイズが小さくなるにつれて受理率が低下していることがわかる.また,受理率の低下に伴い平均解析木数も減少する傾向が見られる.これに対し,受理率が変化しても括弧付けの再現率,適合率,文の正解率はほとんど変化していない.このことから,受理率を向上させるために文法サイズを大きくして,その結果得られる解析木の数が増大しても,生成確率の上位の解析木のみを出力すれば正解率はほとんど変わらないということがいえる.\begin{center}\tblcap{文法サイズと解析結果の変化}{tab:文法サイズと解析結果の変化}\begin{tabular}{|c||r|r|r|r|r|}\hline\makebox[27mm]{文法}&\makebox[18mm]{$G_1$}&\makebox[18mm]{$G_2$}&\makebox[18mm]{$G_3$}&\makebox[18mm]{$G_4$}&\makebox[18mm]{$G_5$}\\[-1mm]\multicolumn{1}{|c||}{(閾値$P$)}&\multicolumn{1}{|c|}{(---)}&\multicolumn{1}{|c|}{($10^{-5}$)}&\multicolumn{1}{|c|}{($10^{-4}$)}&\multicolumn{1}{|c|}{($10^{-3}$)}&\multicolumn{1}{|c|}{($10^{-2}$)}\\\hline\hline非終端記号数&41&37&34&23&15\\\hline終端記号数&111&80&57&33&23\\\hline規則数&2,219&1,289&871&390&115\\\hline\hline受理率&100\%&99.39\%&95.57\%&76.74\%&34.22\%\\\hline平均解析木数&$2.730\times10^7$&$1.810\times10^7$&$1.071\times10^7$&$9.841\times10^5$&$4.485\times10^4$\\\hline括弧付けの再現率&62.71\%&62.73\%&62.66\%&62.91\%&60.11\%\\\hline括弧付けの適合率&75.59\%&75.62\%&75.68\%&76.58\%&73.64\%\\\hline文の正解率&12.07\%&12.00\%&12.25\%&13.38\%&11.45\%\\\hline\end{tabular}\smallskip\end{center} \section{結論} \label{sec:結論}本論文では,括弧付きコーパスから確率文脈自由文法(PCFG)を自動的に抽出する方法を提案した.PCFGの抽出は,日本語の主辞が句の一番最後の要素であるという特徴に着目し,括弧付けによる構文構造の内部ノードに適切な非終端記号を与えることによって行った.また,抽出した規則の確率はその規則のコーパスにおける出現回数から推定した.さらに,抽出したPCFGに対して2つの面から改良を加えた.1つは文法サイズの縮小,もう1つは生成される解析木数の抑制である.前者は冗長な規則を削除することにより行った.後者は同一品詞列に対する構造を右下がりの二分木のみに限定したこと,品詞を細分化したこと,文末の助動詞に対する構造を統一したことにより行った.最後に,提案した方法により抽出・改良されたPCFGを用いた統語解析実験を行ったところ受理率が約92\%となった.また,生成確率の上位30個の解析木を出力した場合,文の正解率が約29\%,括弧付けの再現率が約62\%,括弧付けの適合率が約74\%という結果が得られた.最後に本論文の今後の課題について述べる.コーパスから抽出したPCFGの問題点の1つは,\ref{sec:解析木数の抑制}節で生成される解析木の数を抑制したにも関わらず,依然として多くの解析木を生成することである.実験では,PCFGが出力する解析木数の1文当たりの平均は$3.24\times10^9$であった.生成確率の高い解析木のみを出力することにより解析結果の候補数を絞り込むことができるものの,文法が多くの解析木を生成するのは効率の面から見ても望ましいことではない.また,本論文では対象言語を日本語とし,句の主辞を特定する際に日本語の特性を考慮に入れているが,他の言語についても句の主辞を特定することができれば本手法をそのまま適用することができる.今後は,日本語以外の言語の文法を獲得することについても検討していきたい.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{白井清昭}{1970年生.1993年東京工業大学工学部情報工学科卒業.1995年同大学院理工学研究科修士課程修了.1995年同大学院情報理工学研究科博士課程入学,現在在学中.コーパスからの自然言語処理用知識の自動獲得に関する研究に従事.情報処理学会会員.}\bioauthor{徳永健伸}{1961年生.1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,同大学大学院情報理工学研究科計算工学専攻助教授.博士(工学).自然言語処理,計算言語学に関する研究に従事.情報処理学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioauthor{田中穂積}{1941年生.1964年東京工業大学工学部情報工学科卒業.1966年同大学院理工学研究科修士課程修了.同年電気試験所(現電子技術総合研究所)入所.1980年東京工業大学助教授.1983年東京工業大学教授.現在,同大学大学院情報理工学研究科計算工学専攻教授.博士(工学).人工知能,自然言語処理に関する研究に従事.情報処理学会,電子情報通信学会,認知科学会,人工知能学会,計量国語学会,AssociationforComputationalLinguistics,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V16N04-04
\section{はじめに} \subsection{本研究の背景}\label{ssec:background}近年,大学では文章能力向上のため,「文章表現」の授業がしばしば行われている.実際に作文することは文章能力向上のために有効であることから,多くの場合,学生に作文課題が課される.しかし,作文を評価する際の教師の負担は大きく,特に,指導する学生数が多いと,個別の学生に対して詳細な指導を行うこと自体が困難になる\footnote{筆者の一人は,1クラス30名程度のクラスを週10コマ担当している.延べ人数にして約300名の学生に対して,毎週添削してフィードバックすることは極めて困難であるため,半期に数回課題を提出させ,添削するに留まっている.}.{\modkまた,講義だけで,個別の指導がない授業形態では,学生も教師の指導意図をつかみにくく,ただ漠然と作文することを繰り返すといった受け身の姿勢になりがちである.}本研究は,上記のような現状に対処するために,大学における作文教育実習で{\modk活用できる}学習者向け作文支援システムを提案するものである.\subsection{既存システムの問題点}\label{ssec:problems}これまでに多くの作文支援システムが提案されてきた.支援手法という観点から既存の手法を分類すると,次のようになる.\begin{enumerate}\def\theenumi{}\item作文中の誤りを指摘する手法\item作文する際の補助情報を提供する手法\item教師の指導を支援する手法\item作文を採点する手法\end{enumerate}(a)の手法は,ワードプロセッサなどのスペルチェッカや文法チェッカとして,広く利用されている.また,より高度な文章推敲や校閲を支援するための手法\cite{umemura2007,笠原健成:20010515}も考案されている.教育分野への適用では,第2言語学習者向けの日本語教育分野での研究が盛んである.例えば,第2言語学習者の誤りを考慮して,文法誤りなどを指摘する手法\cite{chodorow2000,imaeda2003,brockett2006}がある.さらに,(b)の手法としては,文章作成時の辞書引きを支援する手法\cite{takabayashi2004},翻訳時にコーパスから有用な用例を参照する手法\cite{sharoff2006}などがある.これらは,学習者用というよりも,ある程度すでに文章技術を習得している利用者向けの手法である.(c)のアプローチは,学習者を直接支援するのではなく,作文指導を行う教師を支援することにより,間接的に学習者の学習を支援する手法である.この種のアプローチの例としては,教師の添削支援システム\cite{usami2007,sunaoka2006}に関する研究がある.これらの研究では,日本語教育の作文教育において,作文とそれに付随する添削結果をデータベースに蓄積し,教師の誤用分析などを支援する.(d)の手法は,小論文などの文章試験を自動的に採点することを目的に開発されている手法である.代表的なシステムとしては,英語の小論文を自動採点する,ETSのe-rater\cite{burstein1998}がある.また,e-raterを組み込んだオンライン作文評価システムCriterion\footnote{http://criterion.ets.org/}も開発されており,grammar,usage,mechanics,style,organization\&developmentという観点から作文を評価し,誤りの指摘などもあわせて行われる.なお,日本語でも,e-raterの評価基準を踏襲して,石岡らが日本語小論文評価システムJess\cite{ishioka-kameda:2006:COLACL}を構築している.また,井上らがJessをWindows用に移植し,大学において日本語のアカデミックライティング講座への導入を検討している\cite{井上達紀:20050824}.以上の手法のうち,学習者を直接支援対象としうる手法は,(a)(d)である.大学における作文実習に,これらの手法を適用することを考えた場合,次の二つの問題があると考える.\subsubsectionX{問題点1:意味処理が必要となる支援が困難なこと}大学の文章表現では,レポート,論文,手紙,電子メール,履歴書などを題材として,表記・体裁,文法,文章構成(例:テーマに即した文章の書き方,論理的な文章の書き方),要約の方法,敬語の使い方など,広範囲な文章技術を習得対象としている\cite{shoji2007,okimori2007}.それに対して,現状の作文支援システムは,表記・文法に関しては,手法(a)(d)で誤りの指摘が行われているが,意味的な解析が必要となる支援については,部分的に実現されるにとどまっている.例えば,前述のCriterionでは,導入部(introductionmaterial)や結論部(conclusion)などの文章要素を自動的に認識し,それぞれの部分の一般的な記述方法を表示することができる.しかし,現在の自然言語処理技術では,学習者の支援に耐えうるほどの精度で意味解析を行うことは難しい.そのため,作文課題に必要な記述が含まれているか\footnote{例えば,得意料理の作り方を記述する課題では,材料や料理手順に関する記述は必須的な内容であろう.},記述内容の説明が不足していないか,意味的な誤りや矛盾はないか,といった深い意味解析を必要とする支援は困難である.\subsubsectionX{問題点2:教師の指導意図をシステムの動作に十分反映できないこと}{\modk前述のとおり,教師が用意する作文課題には,学術的なものから実社会で役立つものまで様々なものがある.各課題を課す際には,学習者の作文の質を向上させるために,それぞれの目的に応じた到達目標やそれに応じた学習支援を設定する.したがって,}教師が実習で作文システムを利用するには,課題の内容に応じて,教師がシステムの支援内容をコントロールできなければならない.例えば,電子メールの書き方を習得するための課題であれば,電子メールに書かれるべき構成要素(例:本文,結び,signatureなど)が{\modk存在するか,また,}適切な順序で書かれているかを検査し,誤りがあれば,指摘するという支援が考えられる.このような支援を行うためには,電子メールに書かれるべき構成要素とその出現順序を,教師が規則として作文支援システム中で定義できなければならない.現状の作文支援システムの中では,手法(d)の作文採点システムが,作文評価用のパラメータの設定手段を持っている(自動採点システムにおける作文評価手法は\cite{石岡恒憲:20040910}に詳しい).例えば,Windows版Jessの場合は,修辞,論理構成に関する各種パラメータの採点比率,および,内容評価用の学習用文章をユーザが指定できるようになっている.このように,既存の規則のパラメータを設定することは可能である.{\modkしかし,教師が新たな規則を定義できるまでには至っておらず,教師の指導意図をシステムの動作に反映することは難しいのが現状である.}\subsection{本研究の目的}そこで,本研究では,上記の二つの問題を解決するための手法を提案し,作文支援システムとして実現する.まず,問題点1に対しては,「相互教授モデル」を導入する.このモデルでは,学習者,教師,システムが互いの作文知識を教授しあうことにより,学習者の作文技術を向上させる.従来のシステムのように,作文支援システムだけが学習者に作文技術を教授するのではなく,学習者・システム間,学習者同士で作文技術を教授しあうことにより,システム単独では実現できない,深い意味処理が必要で,多様な文章技術に対する支援を可能にする.また,問題点2に対しては,「作文規則」を用いる.この規則は,学習者の作文の構造,および,内容を規定するための規則である.教師は,作文課題に基づいて作文規則を決定する.システムは,作文規則に基づいて,学習者の作文をチェックし,誤りがあれば,それを指摘する.本稿では,作文規則の形式,作文への適用方法について示す.本論文の構成は,次のようになっている.まず,\ref{sec:system_structure}章ではシステムの構成について述べる.\ref{sec:model}章では相互教授モデルの提案を行い,\ref{sec:composition_rule}章では作文規則の定義と作文への適用方法を示す.さらに,提案手法の有効性を検証するために,\ref{sec:experiment}章で提案手法・従来手法による作文実験を行い,\ref{sec:evaluation}章で実験結果を評価・考察する.そして,最後に\ref{sec:conclusion}章でまとめを述べる.}{\mod \section{システム構成} label{sec:system_structure}本システムの構成を図\ref{fig:system}に示す.本システムは,Webサーバ上のWikiとして動作し,教師が作文課題用のサイトを構築する.学習者は,Webブラウザを介して作文するとともに,互いの作文を添削する.システムは,教師の設定した「作文規則」に基づいて,学習者の作文をチェックする.作文,および,添削結果は,WikiコンテンツとしてWebサーバ上に格納されていく.システムは,教師に対して,作文を分析する手段を提供する.\begin{figure}[b]\begin{center}\includegraphics{16-5ia5f1.eps}\caption{システム構成}\label{fig:system}\end{center}\end{figure}本システムの機能は,Wikiのプラグインとして実現される\footnote{Pukiwiki(http://pukiwiki.sourceforge.jp/)を利用している.}.プラグインは,次の4種類に大別される.\paragraph{編集関連プラグイン:}WYSIWYGエディタとして機能する\footnote{TinyMCE(http://tinymce.moxiecode.com/)を拡張している.}.エディタとしての基本的な機能の他,学習者による作文へのマークアップ,Webサーバへの作文の保存(排他処理を含む)ができる.作文結果は,XHTMLとしてWikiコンテンツの中に埋め込まれる.図\ref{fig:edit}に編集プラグインの実行例を示す.\paragraph{エラー検出プラグイン:}「作文規則」に基づき,作文をチェックする.チェックは,作文を保存する際に行われ,結果はWikiページに保存される.作文規則は,\ref{ssec:model_student_sys}節,\ref{sec:composition_rule}節で詳しく説明する.\paragraph{添削関連プラグイン:}学習者同士の添削を支援する.添削時には,まず,作文の該当箇所にハイパーリンクを作成する.添削の内容は,リンク先のWikiのページに記入する.図\ref{fig:edit}中の「冗」「口」\footnote{それぞれ「冗長表現」「口語表現」を指摘する添削である.}などのアイコンは,ハイパーリンクの例である.\paragraph{作文分析支援プラグイン:}作文中の文字数,文数,段落数,添削数などの統計や作文の検索など,主として教師が学習者の作文を分析するための役割を果たす.\begin{figure}[t]\begin{center}\includegraphics{16-5ia5f2.eps}\caption{編集プラグインの実行例}\label{fig:edit}\end{center}\end{figure}Wikiを利用している理由の一つは,Webコンテンツを作成するのが容易なことである.Wikiは,HTMLのタグではなく,Wikiの簡易的なタグでWebページを作成できる.作文教育の担当教師は,必ずしもWebシステムの利用やWebコンテンツの作成に精通しているとは限らない.しかし,もし,作文支援システムを含めたWebコンテンツを容易に作成できれば,授業の資料を含めた形の作文用のWebサイトを構築するという形で,作文支援システムを授業の中に導入しやすくするなると考えられる.Wikiを利用した,もう一つの理由は,プラグインとして実装することにより,機能の拡張やその利用が容易になるためである.作文課題のテーマや授業での利用方法は多様であり,システムの拡張性やその利用の容易性は重要である.Wikiのプラグインとして実装すれば,必要に応じて,機能を拡張することが可能であると同時に,拡張したプラグインを通常のプラグインと同様にWikiコンテンツに埋め込むことができる.} \section{相互教授モデル} label{sec:model}\subsection{概要}\label{ssec:model_abst}本節では,本システムの特徴である「相互教授モデル」について述べる.このモデルは,学習者,教師,システムが互いの作文に関する「知識」を教授しあうことにより,学習者の作文を支援する.概要を図\ref{fig:interaction}に示す.この図のとおり,このモデルには,教師$\Leftrightarrow$システム,学習者$\Leftrightarrow$システム,学習者$\Leftrightarrow$学習者,という三つのタイプのインタラクションがある.\begin{figure}[b]\begin{center}\includegraphics{16-5ia5f3.eps}\caption{相互教授モデルにおけるインタラクション}\label{fig:interaction}\end{center}\end{figure}このモデルの中で,学習者は二人以上を想定する.通常は,10名以上の学習者を想定し,特定の学習者間だけでなく,複数の学習者間でインタラクションが行われるようにする.これは,後述するように,学習者間のインタラクションにおいて,誤った作文知識が教授されるのを防ぐためである.教師は作文規則をシステムに「教授」し,システムがその作文規則に基づいて,個別の学習者とインタラクションしつつ,作文をチェックする.実際の授業で利用する場合は,次の手順で示すように,作文課題に関連する授業と本モデルとを組み合わせて運用することを想定している.\begin{description}\item[手順1]教師が,学習者に対して作文を書く前の事前授業を行う.\item[手順2]教師がシステムに対して「作文規則」(\ref{sec:composition_rule}節を参照のこと)を設定する(教師$\Rightarrow$システム).\item[手順3]学習者がそれぞれ作文する.この際,自分の作文に対して,各種のマークアップを行う(学習者$\Rightarrow$システム).また,作文の過程で,システムが学習者の作文をチェックし,チェック結果に基づいて,学習者が自分の作文を修正する(システム$\Rightarrow$学習者).\item[手順4]他の学習者の添削を行う(学習者$\Leftrightarrow$学習者).\item[手順5]学習者が添削結果に基づき,自分の作文の修正を行う(学習者$\Leftrightarrow$学習者).\item[手順6]システムが教師に対して,作文の分析支援を行う(システム$\Rightarrow$教師)\item[手順7]分析結果に基づき,授業で教師が学習者を指導する.\end{description}この後の節では,それぞれのインタラクションでどのような作文知識が教授され,どのように学習者の知識獲得につながるのか,ということを説明する.\subsection{教師$\Leftrightarrow$システム}まず,教師からシステムへは,教師自身が設定する「作文規則」が教授される(手順2).作文規則は,作文の表記,文法,文体,文章構造などの言語的な規則に加えて,作文の形式や内容を規定する規則である.一般的には,作文課題ごとに学習者に教授したい事柄(以後,「指導項目」)が存在するので,その指導項目に基づいて,作文規則が決定される.なお,指導項目は,教師が手順1で授業する内容と基本的に対応する.例えば,本論文の\ref{sec:experiment}節で実施した実験では,「章立て」の習得を目的として,「旅行計画」をテーマとする作文課題を出している.教師は,この目的とテーマを満たす作文が書かれるように,作文規則を設定する.この実験の場合,1文の長さ,文体(です・ます調で書く)といった一般的な作文上の規則に加えて,「章立て」に関する作文規則を設定した.さらに,作文のテーマに則して,必ず記述しなければならない項目(以後,「必須記述項目」)を設けて,作文規則とした.具体的には,「旅行計画」というテーマから,「旅行目的」「スケジュール」などを必須記述項目としている.一方,システムから教師へは,学習者が作成した作文を分析するための機能が提供される(手順6).具体的には,(1)作文規則の作文への適用結果の集計,(2)作文中の文字,文,段落数などの集計,(3)全作文に対する横断的な全文検索,(4)学習者同士の添削結果の集計などである.教師は,これらの機能を使って,全学習者の作文を分析(例えば,誤りの傾向分析)をした上で,授業で学習者を指導する(手順7).\subsection{学習者$\Leftrightarrow$システム}\label{ssec:model_student_sys}学習者とシステムとの間のインタラクションは,学習者が作文する過程で行われる(手順3).学習者は,自分の作文に対して,マークアップを加える.それに対して,システムは,作文に対する自動的なマークアップと,学習者のマークアップ結果を利用しつつ,作文規則を作文に適用する.そして,図\ref{fig:check}のように,作文規則に適合しない部分を学習者に指摘する.\begin{figure}[b]\input{05fig04.txt}\caption{システムによるチェック例}\label{fig:check}\end{figure}学習者が実際にどのようなマークアップを行うかは,教師の指導項目や自動的なマークアップの精度などに応じて決定する.例えば,\ref{sec:experiment}節の実験では,章節タイトル,引用部分などの言語的な要素の他に,「旅行目的」「スケジュール」といった必須記述項目の記述範囲に対するマークアップを行っている.{\modlこれは,この実験の教育目的が「章立て」の習得であり,作文テーマが「旅行計画」だからである.このように教育目的上,重要な部分については,自動的なマークアップの精度にかかわらず,学習者によるマークアップを行う.}学習者のマークアップが,学習者の作文技術習得に与える効果は,二つある.一つは,学習者自身が自分の作文に対してマークアップすることによって,教師が学習者に対して習得してほしいと考えている事柄を学習者が自覚的に確認しつつ,作文を行うことができることである.また,マークアップを行うことは,他者であるシステムに対して作文知識を「教える」ことになる.したがって,CAI関連研究において,\cite{kotani1989}や\cite{大林史明:20001215}が主張しているように,学習者の自発的な学習を促し,学習者自身の作文知識が整理・詳細化されることが期待される.学習者がマークアップすることの,もう一つの効果は,現在の自然言語処理技術では十分な精度で解析することが困難な対象に対しても,マークアップが可能になることである.現在のシステムでは実現困難なマークアップ処理を学習者が行えば,作文規則にそのマークアップ結果を取り込んで,学習者の作文を検査することが可能になる.例えば,上記でマークアップの例として挙げた「旅行目的」を自動的に検出するには,表層的な解析のみならず,意味的な解析が必要になると思われる.しかし,学習者がマークアップを行えば,「旅行目的」が記述されているか否かを機械的に判断し,記述されていない場合は,学習者にその誤りを指摘できる.\subsection{学習者$\Leftrightarrow$学習者}学習者間のインタラクションは,互いに作文に対して,コメントしたり,質問しあうことである.コメントや質問の内容についての制限はないが,(a)誤字・脱字の指摘,(b)語の用法や文法の誤りの指摘,(c)内容に対する質問,(d)文章構成などの改善案などを,教師が学習者に事前に推奨しておくものとする.学習者が行ったコメント,質問などは,システムが管理し,学習者同士が掲示版システムを用いて対話できるようにする.図\ref{fig:correction}に添削例を示す.学習者間のインタラクションが学習者の作文技術習得に与える効果は,学習者とシステム間のインタラクションと同様,学習者が他人に教授することによる効果と,広範な支援内容を実現できる点にある.ただし,その効果の内容は異なる.\begin{figure}[b]\begin{center}\includegraphics{16-5ia5f5.eps}\caption{添削例}\label{fig:correction}\end{center}\end{figure}まず,他人に教授することの効果について{\moda説明する.}学習者が他の学習者の作文に対してコメントや質問をすることは,コメントするだけの知識を自ら持たなければならず,学習者自身の知識が整理・詳細化されると考えられる.また,他人の作文を読むということは自分の作文作成の参考にもなる.自分の作文に対してマークアップする場合と異なるのは,添削した相手や他の学習者から添削自体に対する反応があることである.そのため,学習者(添削者,被添削者)の作文知識が矯正・強化される可能性がある.{\modl具体的には,(a)誤った知識に基づいて他人の作文を添削した場合でも,学習者同士の対話の過程で誤った知識が矯正されうること,(b)複数の添削者が同じ内容の添削を行えば,その添削内容の信頼性が被添削者や他の添削者にも伝わること\footnote{図\ref{fig:correction}は,(b)の例である.},などが挙げられる.}次に,広範な支援内容を実現できるという点について説明する.学習者とシステム間でのインタラクションでも同様の効果が得られるが,学習者間のインタラクションはそれを補完する役割を果たす.つまり,学習者・システム間のインタラクションでは,作文規則に記述できる範囲でしか支援しかすることができない.それに対して,学習者間のインタラクションでは,添削する側の学習者の作文知識の範囲での支援が可能である.以上のような学習効果がある一方,添削するのが学習者であり,専門家でないことから,添削内容に誤りが含まれる可能性を考慮しなければならない.そこで,本モデルでは,二つの対策を考えている.一つは,一人の学習者の作文に対して,複数の学習者が添削し,添削内容について議論できるようにすることである.もう一つは,添削用の掲示板システム上に,教師が部分的に介入することにより,添削者・被添削者が互いに解決できないような場合に対処することである.{\mod\subsection{他の教授モデルとの比較}本節では,ユーザ(学習者)による知識の教授という面から,相互教授モデルと既存の教授モデルとを比較する.まず,学習者同士の教授という面から見てみると,作文教育では従来から学習者同士の添削を導入している.例えば,国語教育では,学習者同士が作文を交換しあって読みあわせる「相互推敲」と呼ばれる手法が用いられている\cite{tazika2006}.また,第2言語学習者に対する作文教育でも,学習者同士で推敲しあう,ピア・レスポンスと呼ばれる手法が導入され,成果を挙げている\cite{harada2006}.これらの教授モデルと相互教授モデルとの違いは,本教授モデルでは,教師の指導項目が習得されているかをチェックする手段が,第三者であるシステムに作文規則として取り込まれている点である.教師の指導意図が学習者に伝わっているかを確認する場合,従来のモデルでは,各学習者の作文を個別に確認しなければならないが,本教授モデルでは,作文規則を用いて教師の指導意図を徹底させつつ,学習者同士の知識教授を実現することができる.このことは,学習者の習得結果を確認しづらい,多人数を対象とした授業において,特に有効である.次に,工学的な見地,つまり,ユーザ・システム間の知識教授という側面から本モデルと既存手法とを比較する.従来から,自然言語処理システムでは,全自動で十分な精度の解が得られない場合,ユーザとのインタラクションが用いられてきた.最も一般的に利用されているのは,仮名漢字変換システムである.\ref{ssec:problems}節の問題点2で取り上げた意味処理に関しても,GDA\cite{橋田浩一:19980701}を用いて,ユーザが意味的情報をアノテーションする手法が提案されている(例えば,\cite{綾2005}による要約生成).本モデルが既存手法と異なる点は,(1)アノテーションが学習者にとって手間になるのではなく,作文技術を習得する助けになる(\ref{ssec:model_student_sys}参照)という,積極的な意味を持つこと,(2)複数の学習者が存在するため,アノテーションの誤りを修正できる可能性があることである.二つ目の特徴は,誤ったアノテーションを行う可能性がある学習者をユーザとする作文支援システムにとっては,アノテーション結果を有効利用する上で重要である.} \section{作文規則} label{sec:composition_rule}\subsection{定義}作文規則は,学習者の作文が教師の指導項目に適合しているか検査するための規則である.本システム上で作成される作文は,XMLを用いて,内部的に構造化されており,作文規則はその構造に対して適用される.作文規則の例を表\ref{tbl:example_composition_rule}に示す.なお,これらの規則は,\ref{sec:experiment}節の実験で,実際に使用した作文規則の一部\footnote{表\ref{tbl:example_composition_rule}には,「章」の規則しか記載していないが,実際には,「節」「小節」「小々節」に関する規則がある.「章」と類似する規則となるので,省略した.}である.作文規則は,次の4種類のテンプレートを論理的に結合することにより構成する.テンプレート中の作文要素$e_i,e_j$は,作文自体,文,段落,文字など,作文を構成する言語的な要素である.なお,作文要素には,学習者がマークアップする言語要素も含まれる.\begin{quote}\begin{description}\item[テンプレート1:]$include(e_i,e_j,N)$\item[テンプレート2:]$child(e_i,e_j,N)$\item[テンプレート3:]$locate(e_i,e_j,P)$\item[テンプレート4:]$correspond(e_i,e_j,R)$\end{description}\end{quote}テンプレート1と2は,作文要素の包含関係を規定する.作文要素$e_i$が$e_j$を$N$だけ含む場合,作文とテンプレートが一致したことになる.$N$は,$e_j$の個数を表し,定数,もしくは,数値範囲で指定する.テンプレート1と2との違いは,テンプレート1では$e_i$が$e_j$を単に包含していればよいのに対して,テンプレート2では,$e_j$が$e_i$の子要素となっていなければいけないところである.この二つのテンプレートの使用例として,表\ref{tbl:example_composition_rule}の作文規則1,17を挙げる.作文規則1は,「作文には,一つの作文タイトルが存在する」ことを規定するもので,作文要素「作文」の中に,子要素として作文要素「作文タイトル」が一つ含まれることを意味する.作文をXMLで記述した例を図\ref{fig:structured_data}に示す.一方,作文規則17は,必須記述項目の「旅行の目的」が作文中に書かれているかを検査するための規則である.したがって,作文規則1とは異なり,作文の子要素ではなく,作文に単に包含されていればよい.図\ref{fig:structured_data}では,2章の章タイトルに「目的」タグとして付与されており,「作文」要素に包含された構造になっている.\begin{table}[t]\begin{center}\caption{作文規則の例(一部)}\label{tbl:example_composition_rule}\input{05table01.txt}\end{table}テンプレート3は,作文要素間の位置関係を規定する.作文要素$e_i$と$e_j$が位置関係$P$のときにテンプレートと一致したことになる.$P$の値は,「直前」「直後」「前」「後」「先頭」「末尾」のいずれかを取る.このテンプレートの使用例としては,表\ref{tbl:example_composition_rule}の規則3を挙げる.この規則では,図\ref{fig:structured_data}のように,「作文タイトル」要素が「作文」要素の先頭にあることを規定する.\begin{figure}[t]\input{05fig06.txt}\vspace{-1\baselineskip}\caption{構造化された作文の例}\label{fig:structured_data}\end{figure}テンプレート4は,作文要素間の対応関係を規定し,作文要素$e_i$と$e_j$が対応関係$C$であることを示す.対応関係には,「引用・出典」「図表参照」がある.このテンプレートの例としては,表\ref{tbl:example_composition_rule}の作文規則16を示す.この規則は,引用を行った場合,必ず出典を示すことを指導するためのものである.以上の四つのテンプレートに対して,論理演算子($and,or,not$)を適用することにより,複数のテンプレートを論理的に結合させることができる.また,演算子$desirable$を適用することにより,必須的な作文規則なのか,任意的な作文規則なのか(従ったほうが好ましい規則なのか)を表現することができる.作文規則$R$の形式は,次のBNFで規定される.\begin{align*}R::=&R'\middesirable(R')\\R'::=&(R'andR')\mid(R'orR')\midnot(R')\mid\\&include(e_i,e_j,N)\midlocate(e_i,e_j,P)\midcorrespond(e_i,e_j,C)\end{align*}\subsection{作文規則に基づく誤り検出}作文規則に基づく誤り検出は,次の手順で行う.\begin{enumerate}\item作文要素の付与\item規則の適用\itemエラーの生成\end{enumerate}\subsubsection{作文要素の付与}作文要素の付与方法には,(a)生テキストに自動付与,(b)学習者が付与,(c)(b)で付与された情報を利用して自動付与,の3通りがある.どのような作文要素を付与するかは,作文規則(つまり,教師の指導項目)に依存するが,ここでは,表\ref{tbl:example_composition_rule}に示した作文規則中の作文要素と関係づけつつ,三つのタイプの作文要素の付与方法を説明する.まず,(a)の方法で付与される作文要素は,自動的な認定の精度が高いものが対象となる.認定の精度が低い場合や,精度が高くても,必須記述項目に関連した作文要素のように教育上の重要性が高い部分については,(b)(c)の付与方法を取ることになる.表\ref{tbl:example_composition_rule}中の作文要素のうち,(a)の方法で付与された作文要素は,「作文」「段落」「文」「文字」「章番号」「話し言葉形態素」「だ・である形態素」である.これらは,表層的なパターンマッチングや形態素解析結果を利用して付与されている.例えば,「文」は,改行情報や句点(。)などの表層的な情報に基づいて認定している.また,「話し言葉形態素」は,作文全体を形態素解析し,主として,話し言葉でよく用いられる文末の助詞,助動詞を「話し言葉形態素」として認定している\footnote{今回は,形態素解析システムMeCab(http://mecab.sourceforge.net/),辞書としてJumandicを使用し,「か」以外の終助詞,接続助詞「けど」,助動詞「んだ」,動詞語尾「ちゃ」「りゃ」(例:食べ\underline{りゃ}いい)などを「話し言葉形態素」として検出した.認定方法は,\cite{juman_manual}を参考にした.}.次に,(b)のタイプの作文要素は,学習者が作文作成時にマークアップする.表\ref{tbl:example_composition_rule}中の作文要素のうち,このタイプの作文要素としては,章節タイトル(「章タイトル」「節タイトル」など),「引用」「出典」「作文タイトル」「著者」に加えて,必須記述項目に関連する作文要素「目的」「日程」「予算」「イベント」「導入部」「まとめ」がある.(c)のタイプの作文要素の例としては,作文要素「章」(図\ref{fig:structured_data}参照)がある.「章」要素の範囲を自動認定する際には,学習者がマークアップした「章タイトル」の付与結果を利用する\footnote{{\modl次の章タイトル,もしくは,文章末までを章の範囲として自動認定する.}}.また,必須記述項目の「導入部」についても,第1章の「章」要素を「序章」として認定するのに利用されている(図\ref{fig:structured_data}では,「章」要素のtype属性値として記述されている).\subsubsection{作文規則の適用とエラーの生成}作文規則の適用は,学習者が作文を保存するタイミングで実行される.作文が保存されると,まず,(前節で説明した)付与方法(a)(c)の順序で作文要素を付与する.その後,すべての作文規則を順次,作文に対して,適用する.もし,作文規則に合致しない場合は,エラーとして学習者に伝達する.エラーメッセージは,個々の作文規則ごとに対応づけられているものとする.実際の実行結果については,\ref{ssec:model_student_sys}節の図\ref{fig:check}を参照されたい. \section{実験} label{sec:experiment}本節では,提案した相互教授モデルの有効性を検証するために,実現した作文支援システムを用いて,作文実験を行う(実験1).さらに,従来からの作文教育との比較を行うために,システムを利用しない場合の作文実験も行う(実験2).なお,本論文の実験で検証対象とするのは,提案した相互教授モデルのうち,手順2から手順5に相当する部分である.システムから教師への知識教授(手順6)については,本稿では扱わない.\subsection{実験1}実験1では,実現したシステムを利用して,作文実験を行った.作文のテーマは「旅行計画」,教育上の目標は文章の「章立て」に関する技術習得とした.実験の条件は,次のとおりである.\begin{itemize}\item被験者:大学1〜3年生(教育学部)26名\item作文テーマ:旅行計画(著者自身がこれから行く旅行の計画を他人に説明する)\item想定する読者:年上を含む,不特定多数の読者\item文体:必要がない限り,口語表現は避ける.また,ですます調で書く.\item作文規則:表\ref{tbl:example_composition_rule}の作文規則を用いる.\item学習者によるマークアップ対象:作文タイトル,著者,章節タイトル(章,節,小節,小々節),引用,出典,図タイトル,[以降,必須記述項目]旅行の目的,日程,予算,旅行中のイベント,導入部,まとめ\end{itemize}実験手順は,次のとおりである.システムは,インターネット上のWebサーバ上に設置し,各被験者は好みの時間と場所で実験を行った.ただし,各段階の実施期間を定め,すべての被験者が同じ期間に同じ段階の実験を行うようにした.\begin{enumerate}\item章立てに関する資料を被験者に配布し,教育上の目標を理解してもらう.\itemテーマに基づき,個々の被験者が作文を行う.なお,学習者は,作文の過程で,自分の作文に対してマークアップを行う.また,システムによる誤りの指摘に基づき,作文を修正する.\item個々の被験者は,それぞれ4名の被験者の作文を添削する.各被験者は他の4名の被験者の添削を受ける.なお,添削する相手に添削内容がうまく伝わるように,添削を行う前に添削マニュアルを配布した.\item添削に基づき,自分の作文を修正する.なお,被添削者は添削結果に返答すること,添削結果を受け入れなくてもよいが,その理由を明記することが求められる.\end{enumerate}{\mod\subsection{実験2}実験2では,提案手法と従来手法との比較を行うために,作文支援システムを利用しない作文演習を想定して実験を行う.なお,学習者同士の添削は行わない.実験条件は,被験者以外,実験1と同一である.被験者は,実験1と重複しない18名(同一大学同一学部)である.実験手順は,実験1と同様,章立てに関する資料を被験者に配布し,教育上の目標を理解した上で,作文支援システムを使わないで作文してもらった\footnote{作文は,ワードプロセッサなどを利用し,電子的なテキストの形で提出してもらっている.}.また,筆者が実験後に実験1と同様の基準でマークアップを行った.}\subsection{実験結果}まず,表\ref{tbl:res_composition}「提案手法」(2行目)に実験1の作文結果をまとめる.示した数値は,全被験者の平均値である.最左列から,作文に含まれる文字数,文数である.「構造」「必須」は,それぞれ,必須記述項目以外に対する学習者のマークアップ数,必須記述項目に対するマークアップ数である.「誤り(章立て)」は,章立てに関連する作文規則(1〜9)により検出された誤りのうち,被験者が修正せずに残してしまった誤りの数を表す.「誤り(その他)」は,作文規則(10〜16)により検出された誤りのうち,被験者が修正せずに残してしまった誤りの数を表す.「誤り(必須)」は,必須記述項目に関連する作文規則(17〜22)で検出された誤りのうち,被験者が修正せずに残してしまった誤りの数である.\begin{table}[b]\caption{作文,および,マークアップ結果}\label{tbl:res_composition}\input{05table02.txt}\end{table}{\mod次に,表\ref{tbl:res_composition}「従来手法」に実験2の作文結果をまとめる.また,提案手法と従来手法とを比較するために,両者の結果に対して,ウィルコクソンの順位和検定を行った.表\ref{tbl:res_composition}「p値」に,p~値を示す.}表\ref{tbl:res_correction}に実験1における添削結果を示す.示した数値は,全被験者の合計値である.表\ref{tbl:res_correction}「添削数」(2行目)は他の学習者から受けた添削数,「修正数」はそのうち作文の著者が修正した数である.「誤字脱字」から「その他」までが,添削種類別の添削数である.「全体」は,作文中の個別の箇所でなく,作文全体に対して行われた添削の数である.「合計」は全添削種類の合計添削数,「添削」は他の被験者の作文に対して行った添削の総数である.\begin{table}[t]\caption{添削結果}\label{tbl:res_correction}\input{05table03.txt}\end{table} \section{評価} label{sec:evaluation}\subsection{システム,学習者間のインタラクションの評価}ここでは,相互教授モデル中のインタラクションのうち,システムと学習者間のインタラクションを評価する.\ref{sssec:syodate}〜\ref{sssec:jido}節では提案手法について扱い,\ref{ssse:hikaku}節では提案手法と従来手法との比較を行う.\subsubsection{章立てに関する評価(提案手法)}\label{sssec:syodate}作文の「章立て」を定量的に評価するために,章立てに関する学習者のマークアップと,作文規則への適用結果を分析してみる.表\ref{tbl:res_composition}「構造」より,必須記述項目以外の文章構造に関するマークアップは,平均11.7ヵ所である.このうち,章節タイトル(章,節,小節,小々節のタイトル)のマークアップ数は,平均9.3ヵ所である.1作文あたりの章の数は,5.0個であった.また,章節の階層の深さは,平均で1.59だった.表\ref{tbl:res_composition}「文字数」に示したとおり,作成された作文の文字数は平均1631文字なので,おおよそ,400字詰め原稿用紙4枚に,5章からなる作文が作成されたことになる.作成された作文は表\ref{tbl:example_composition_rule}の作文規則1から9で検査されているので,表\ref{tbl:res_composition}(「誤り(章立て)」列)に示されている誤り13ヵ所\footnote{{\mod章節タグのつけ誤りにより5ヵ所が誤りと検出されたが,それらは誤りとしてカウントしていない.}}以外は,作文規則(1から9)に適合した章立て構造を持った作文が作成されたことを意味する.解決されずに残された誤りの内訳は,(a)章節タイトルに番号がないもの(12ヵ所,作文規則9により検出),(b)序章が1章以外に存在するもの(1ヵ所,作文規則5により検出)だった.(a)は学習者のミス,もしくは,恣意的な「誤り」(エラー表示の中には誤りの修正が必須でないものも含まれるため,あえてそのままにした可能性がある)によるものだと思われる.(b)は学習者の章立てに対する理解不足だと思われる.以上の結果から,章節タイトル番号がない問題を除けば,作文規則1から9に規定される範囲内で,章立てがうまく行われたと考えられる.ただし,現状の作文規則では十分検出できなかった誤りもある.具体的には,(1)第1章に必要以上の情報を書き込む学習者が存在したこと(2名の学習者),(2)章立てを過度に細かくする学習者が存在したことである(例えば,一つの章に1文しかないものが見受けられた).前者については,序章に含まれる節数や文字数を制約する作文規則を追加すること,後者については,章の数,もしくは,各章に含まれる文字数の下限を制約する作文規則を作成することにより,防止できるものと考えられる.\subsubsection{必須記述項目による評価(提案手法)}\label{sssec:hissu}表\ref{tbl:res_composition}「必須」を見ると,必須記述項目に関するマークアップ数は,一人当り平均6ヵ所である.マークアップされた部分に関して,その内容を確認したところ,すべて正しくマークアップされていた.したがって,作文規則(17〜22)がうまく機能し,必須記述項目が正しく作文されたと考えられる.必須記述項目に関連する作文規則により検出され,修正されずに残ったエラーは,表\ref{tbl:res_composition}「誤り(必須)」に示したとおり,被験者一人あたり平均0.038ヵ所(合計1ヵ所)であった\footnote{{\mod作文規則17から20により検出されたエラーは,合計11ヵ所あった.しかし,10ヵ所については,対応する必須記述項目に関する記述が作文中にあることから,学習者のマークアップのつけ忘れだと考えられる.}}.エラーとして残った1ヵ所は作文規則22により検出された誤りで,作文にまとめの記述がなかった.当該の学習者は,他の必須記述項目については,正しくマークアップを行っていたので,まとめを作文にうまく組み込めなかったことが考えられる.上記の誤り例や\ref{sssec:syodate}節の誤り(b)のように教師の指導が必要な場合も検出される.したがって,本システムを運用する場合は,\ref{ssec:model_abst}節の手順7で示したように,検出された誤りを教師が分析し,作文後の授業で,指導することが好ましいと考える.\subsubsection{自動付与された作文要素による誤り検出の評価(提案手法)}\label{sssec:jido}ここでは,自動的に付与された作文要素による誤り検出について評価するために,作文規則10から15によって検出された誤りを分析する.表\ref{tbl:res_composition}「誤り(その他)」を見ると,誤りが修正されずに残っているのは,被験者一人あたり0.27ヵ所(合計7ヵ所)だった\footnote{{\modただし,形態素解析誤りなどの,作文要素自動付与誤りに起因するものは除いている.}}.その内訳は,3ヵ所が作文規則14(文体は「ですます」調で書く)に反して「だ・である」調で書かれていたもの,残り4ヵ所は作文規則15(話し言葉を用いてはいけない)に違反したものだった.前者・後者の誤りとも,(それぞれ別の)1名の被験者によるものである.このうち,前者は,箇条書き部分だけ「だ・である」調で書かれていたので,被験者の意志だと考えられる.後者は,作文規則15に対する被験者の認識不足か,不注意だと思われる.以上の結果から,作文規則10から13で規定されている事柄,つまり,文,段落の長さや図タイトルの位置に関する誤りは,抑制されているものと考えられる.{\mod作文規則14,15で規定されている文体関連の事柄については,部分的に誤りが残るが,従来手法では合計72ヵ所の誤りが検出されたので,作文規則の効果があったことが確認できる.}{\mod\subsubsection{従来手法との比較}\label{ssse:hikaku}まず,表\ref{tbl:res_composition}「誤り(章立て)」「誤り(必須)」「誤り(その他)」の値を合計すると,修正されずに残った誤りは,提案手法は一人あたりの平均で0.85ヵ所,従来手法は7.1ヵ所となり,提案手法では作文規則によって,誤りが抑制されていることがわかる.次に,表\ref{tbl:res_composition}「p値」より,提案手法と従来手法とで有意な差が出たのは,「誤り(その他)」$(p<.01)$,および,「構造」「誤り(章立て)」「誤り(必須)」$(p<.05)$である.このことから,提案手法は,従来手法と比較して,(a)多くの章立てがなされること,(b)章立て,構造(作文規則10〜16に反する),必須記述項目に関する誤りが少ないこと,が確認された.従来手法と比較して,多くの章立てがなされた要因としては,二つのことが考えられる.一つは,学習者自身が自分の作文に対してマークアップを行ったことにより,章立てが促進されたことである.もう一つは,作文規則4(作文には章が三つ以上ある)に基づくチェックを行ったことにより,章の数が結果的に増えたことである.一方,(b)の結果が得られた要因としては,作文規則によるチェックが有効に機能したことが考えられる.表\ref{tbl:res_composition}「提案手法」の「誤り(章立て)」「誤り(その他)」「誤り(必須)」が,作文規則を適用したときに(修正されずに)残る誤り数なので,表\ref{tbl:res_composition}「従来手法」の結果との差分が,作文規則を適用したことによる効果だと考えられる.この差分となる効果を生み出した作文規則を明らかにするために,「従来手法」の作文中の誤りを検出した作文規則を見てみると,特に有効に機能したのは,作文規則4(「誤り(章立て)」の誤りのうち,32\%),作文規則9(同32\%),作文規則14(「誤り(その他)」の誤りのうち,67\%),作文規則15(同22\%)であることがわかった.}\subsection{学習者間のインタラクションの評価}ここでは,学習者間のインタラクションの評価として,学習者同士の添削結果を分析する.\subsubsection{定量的評価}\label{sssec:u2u_teiryo}まず,添削の効果を検証する.表\ref{tbl:res_correction}の「合計」列に示したとおり,合計で182ヵ所の添削がなされ,そのうち,154ヵ所が添削対象の作文の著者によって修正されている.したがって,今回の実験では,作者から見て,約85\%の添削が作文の内容を改善するのに役立ったことがわかる.添削の種類別に添削数を見てみると,「その他」が全体の約27\%を占め,そのあと,「文法誤り」「誤字脱字」「口語表現」といった表記に関する添削が続く.「その他」の内訳については,次節で詳しく見てみることにする.次に,学習者を「添削者」という観点から見てみる.表\ref{tbl:res_correction}の「添削」列のとおり,198回の添削のうち\footnote{「合計」のほうが「添削」よりも少ないのは,前者が添削された場所の数であり,1ヵ所に複数の学習者が添削を行う場合があるからである.},168回の添削が添削対象の作文の著者により修正されており,全体的には約85\%の添削が被添削者に受け入れられている.ただし,学習者別に添削数を見てみると,最大23ヵ所,最小1ヵ所とばらつきが大きかった.添削数にばらつきがでる原因は,学習者の能力による要因以外にも,添削対象の作文,添削者との関係が考えられる.例えば,添削対象の作文が優秀な作文であれば,添削数は少なくなる.また,添削対象となる作文の著者が知り合いの上級生であれば,添削するのを遠慮する可能性がある.特に,後者の要因に関しては,どのような学習者集団を設定すれば,添削が活発になされるかを今後調査する必要がある.\subsubsection{定性的評価}ここでは,種類別に添削の内容を定性的に評価する.表\ref{tbl:res_correction}に示した種別ごとに,実際の添削例を示す.\begin{itemize}\item誤字・脱字\begin{description}\item[修正前:]モネは生涯でたくさんの\underline{水連}の絵を描きましたが\item[修正後:]モネは生涯でたくさんの\underline{睡蓮}の絵を描きましたが\item[添削内容:]睡蓮では?\end{description}\item説明不足\begin{description}\item[修正前:]満天の星を眺めて満喫します。\item[修正後:]満天の星を眺めて\underline{モンゴルの大自然を}満喫します。\item[添削内容:]満喫するには,何を満喫するのかを書く必要があるかと思います。モンゴルの星空を満喫するのか,モンゴルの大自然を満喫するのか,書いたほうがわかりやすいと思います。\end{description}\item冗長表現\begin{description}\item[修正前:]この計画の発案者は私なので,私が幹事を務めることになりました。\item[修正後:]発案者の私が幹事を務めることになりました。\item[添削内容:]「発案者の私が」とするとすっきりすると思います。\end{description}\item文法誤り\begin{description}\item[修正前:]おおまかな計画\underline{が}立てることができました。\item[修正後:]おおまかな計画\underline{を}立てることができました。\item[添削内容:]「を立てる」になると思います。\end{description}\item口語表現\begin{description}\item[修正前:]僕は\underline{やっぱり}「食べる」というのが一番の醍醐味だと思っています。\item[修正後:]僕は\underline{やはり}「食べる」というのが一番の醍醐味だと思っています。\item[添削内容:]「やはり」のほうがよいのではないでしょうか?\end{description}\end{itemize}なお,「その他」として分類された添削には,多様な種類の添削内容が含まれていた.量的に最も多いのが,より適切な語句や表現の提案であり,約半数がこの種類の添削だった.次に多かったのが,表記の変更を提案するもので,9例あった.それぞれの例を次に示す.\begin{itemize}\itemより適切な語句や表現の提案\begin{itemize}\item3,まとめ→3,おわりに(第1章が「はじめに」だったため)\item必ず暖かい服装をご用意ください。→必ず暖かい服装でご参加ください。\end{itemize}\item表記の変更の提案\begin{itemize}\item楽しんできたいとおもいます。→楽しんできたいと思います。\item八月十五日から十八日までの四日間→8月15日から18日までの4日間(横書に漢数字は読みにくいとの指摘があった)\end{itemize}\end{itemize}以上のように,表記上の誤り(誤字・脱字や文法誤りに示した例を参照)に対する支援だけでなく,「説明不足」「冗長表現」「その他」で示した例のように,周辺文脈の意味を考慮した上で,改善例を示すような支援も可能である.これは,従来の作文支援システムでは実現が困難だった支援である.学習者の添削のうち約85\%が作文の改善に寄与することと,他人に作文知識を教授すること効果を考慮すると,学習者間の添削は,作文支援の方法として,有効であると考える.{\mod \section{おわりに} label{sec:conclusion}本論文では,学習者向けの作文支援手法として,学習者,教師,システム間で互いに作文に関する知識を教えあう,相互教授モデルを提案した.本モデルの新規性は,次の点にある.\begin{itemize}\item作文規則を用いることにより,教師の指導意図を学習者に徹底させつつ,学習者同士の知識教授を実現できること\item学習者のアノテーションが手間になるのではなく,作文技術習得上の助けになること.\\また,複数の学習者を想定することにより,学習者のアノテーションの誤りを防止していること\end{itemize}さらに,相互教授モデルに基づいた作文支援システムを実現した.実現したシステムを評価するために,提案手法と従来手法による作文実験を行い,次の結果を得た.\begin{itemize}\item問題点1に対しては,相互教授モデルが有効に機能し,次のように意味解析が必要となるような支援を行うことができた.\begin{itemize}\item学習者・システム間のインタラクションによる,「章立て」や必須記述項目などに対する支援\item学習者同士の添削による,「説明不足」「冗長表現」などに対する支援\end{itemize}\item問題点2に対しては,作文規則により対応した.今回の実験では,教育上の目標を「章立て」の習得,作文テーマを「旅行計画」と設定して,作文規則を記述した.\item作文規則に照らし合わせて修正されずに残った誤りは,従来手法が一人あたりの平均で7.1ヵ所だったのに対して,提案手法は0.85ヵ所に削減することができた.また,提案手法で作成した作文は,従来手法の作文よりも,有意に誤りが少ないことを確認した.この結果は,学習者・システム間のインタラクション,および,作文規則が有効に機能したことを示すものである.\end{itemize}今後は,教師が容易に作文規則を設定できるようなインターフェイスの実現を行いつつ,さらなる作文課題に対して,提案手法が有効に機能するか検証を進める予定である.また,今回扱わなかった,システムから教師への知識教授についても,大量の作文に対する教師用の作文分析支援手法を検討中である.}\acknowledgment本研究を評価するにあたって行われた作文実験に参加してくださった被験者の方々,実験結果の集計を支援してくださった方々に深く感謝いたします.なお,本研究は,科学研究費補助金・基盤研究(C)(課題番号20500822)の助成を受けて行われたものである.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{綾\JBA松尾\JBA岡崎\JBA橋田\JBA石塚}{綾\Jetal}{2005}]{綾2005}綾聡平\JBA松尾豊\JBA岡崎直観\JBA橋田浩一\JBA石塚満\BBOP2005\BBCP.\newblock修辞構造のアノテーションに基づく要約生成.\\newblock\Jem{人工知能学会論文誌},{\Bbf20}(3),\mbox{\BPGS\149--158}.\bibitem[\protect\BCAY{Brockett,Dolan,\BBA\Gamon}{Brockettet~al.}{2006}]{brockett2006}Brockett,C.,Dolan,B.,\BBA\Gamon,M.\BBOP2006\BBCP.\newblock\BBOQCorrectingESLerrorsusingphrasalSMTtechniques.\BBCQ\\newblockIn{\BemProceedingsoftheCOLING/ACL2006},\mbox{\BPGS\249--256}.\bibitem[\protect\BCAY{Burstein,Kukich,Wolff,Lu,Chodorow,Braden-Harder,\BBA\Harris}{Bursteinet~al.}{1998}]{burstein1998}Burstein,J.,Kukich,K.,Wolff,S.,Lu,C.,Chodorow,M.,Braden-Harder,L.,\BBA\Harris,M.\BBOP1998\BBCP.\newblock\BBOQAutomatedscoringusingahybridfeatureidentificationtechnique.\BBCQ\\newblockIn{\BemProceedingsoftheCOLING/ACL1998},\mbox{\BPGS\206--210}.\bibitem[\protect\BCAY{Chodorow\BBA\Leacock}{Chodorow\BBA\Leacock}{2000}]{chodorow2000}Chodorow,M.\BBACOMMA\\BBA\Leacock,C.\BBOP2000\BBCP.\newblock\BBOQAnUnsupervisedMethodforDetectingGrammaticalErrors.\BBCQ\\newblockIn{\BemProceedingsoftheNAACL2000},\mbox{\BPGS\140--147}.\bibitem[\protect\BCAY{原田}{原田}{2006}]{harada2006}原田三千代\BBOP2006\BBCP.\newblock中級学習者の作文推敲課程に与えるピア・レスポンスの影響—教師添削とその比較—.\\newblock\Jem{『日本語教育』},{\Bbf131},\mbox{\BPGS\3--12}.\bibitem[\protect\BCAY{橋田}{橋田}{1998}]{橋田浩一:19980701}橋田浩一\BBOP1998\BBCP.\newblockGDA意味的修飾に基づく多用途の知的コンテンツ.\\newblock\Jem{人工知能学会誌},{\Bbf13}(4),\mbox{\BPGS\528--535}.\bibitem[\protect\BCAY{今枝\JBA河合\JBA石川\JBA永田\JBA桝井}{今枝\Jetal}{2003}]{imaeda2003}今枝恒治\JBA河合敦夫\JBA石川裕司\JBA永田亮\JBA桝井文人\BBOP2003\BBCP.\newblock日本語学習者の作文における格助詞の誤り検出と訂正.\\newblock\Jem{情報処理学会研究報告.コンピュータと教育研究会報告},{\Bbf2003}(13),\mbox{\BPGS\39--46}.\bibitem[\protect\BCAY{井上\JBA佐渡島}{井上\JBA佐渡島}{2005}]{井上達紀:20050824}井上達紀\JBA佐渡島紗織\BBOP2005\BBCP.\newblockアカデミックライティングへのJess導入の試み.\\newblock\Jem{日本行動計量学会大会発表論文抄録集},33\JVOL,\mbox{\BPGS\378--381}.\bibitem[\protect\BCAY{石岡}{石岡}{2004}]{石岡恒憲:20040910}石岡恒憲\BBOP2004\BBCP.\newblock記述式テストにおける自動採点システムの最新動向.\\newblock\Jem{行動計量学},{\Bbf31}(2),\mbox{\BPGS\67--87}.\bibitem[\protect\BCAY{Ishioka\BBA\Kameda}{Ishioka\BBA\Kameda}{2006}]{ishioka-kameda:2006:COLACL}Ishioka,T.\BBACOMMA\\BBA\Kameda,M.\BBOP2006\BBCP.\newblock\BBOQAutomatedJapaneseEssayScoringSystembasedonArticlesWrittenbyExperts.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\233--240}.\bibitem[\protect\BCAY{笠原\JBA小林\JBA荒井\JBA絹川}{笠原\Jetal}{2001}]{笠原健成:20010515}笠原健成\JBA小林栄一\JBA荒井真人\JBA絹川博之\BBOP2001\BBCP.\newblockマニュアルの校閲作業における文書推敲支援ツールの実適用評価.\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(5),\mbox{\BPGS\1242--1253}.\bibitem[\protect\BCAY{小谷}{小谷}{1989}]{kotani1989}小谷善行\BBOP1989\BBCP.\newblockIAC:利用者が教えるというパラダイムによる教育ツール.\\newblock\Jem{教育におけるコンピュータ利用の新しい方法シンポジウム報告集},\mbox{\BPGS\49--53}.情報処理学会.\bibitem[\protect\BCAY{黒橋\JBA河原}{黒橋\JBA河原}{2005}]{juman_manual}黒橋禎夫\JBA河原大輔\BBOP2005\BBCP.\newblock日本語形態素解析システムJumanversion5.1.\\newblock\newlinehttp://nlp.kuee.kyoto-u.ac.jp/nl-resource/juman.html.\bibitem[\protect\BCAY{沖森\JBA半沢}{沖森\JBA半沢}{1998}]{okimori2007}沖森卓也\JBA半沢幹一\BBOP1998\BBCP.\newblock\Jem{日本語表現法}.\newblock三省堂.\bibitem[\protect\BCAY{大林\JBA下田\JBA吉川}{大林\Jetal}{2000}]{大林史明:20001215}大林史明\JBA下田宏\JBA吉川榮和\BBOP2000\BBCP.\newblock仮想生徒へ「教えることで学習する」CAIシステムの構築と評価.\\newblock\Jem{情報処理学会論文誌},{\Bbf41}(12),\mbox{\BPGS\3386--3393}.\bibitem[\protect\BCAY{Sharoff,Babych,\BBA\Hartley}{Sharoffet~al.}{2006}]{sharoff2006}Sharoff,S.,Babych,B.,\BBA\Hartley,A.\BBOP2006\BBCP.\newblock\BBOQUsingcomparablecorporatosolveproblemsdifficultforhumantranslators.\BBCQ\\newblockIn{\BemProceedingsoftheCOLING/ACL2006},\mbox{\BPGS\739--746}.\bibitem[\protect\BCAY{庄司\JBA山岸\JBA小野\JBA安達原}{庄司\Jetal}{2007}]{shoji2007}庄司達也\JBA山岸郁子\JBA小野美典\JBA安達原達晴\BBOP2007\BBCP.\newblock\Jem{日本語表現法—21世紀を生きる社会人のたしなみ}.\newblock翰林書房.\bibitem[\protect\BCAY{砂岡\JBA劉}{砂岡\JBA劉}{2006}]{sunaoka2006}砂岡和子\JBA劉松\BBOP2006\BBCP.\newblock誤用データ機能を備えるWEB中国語作文添削支援システム設計と開発.\\newblock\Jem{2006PCカンファレンス論文集}.\bibitem[\protect\BCAY{Takabayashi}{Takabayashi}{2004}]{takabayashi2004}Takabayashi,S.\BBOP2004\BBCP.\newblock{\BemSyntheticAssistanceforCreationandCommunicationofInformation}.\newblockPh.D.\thesis,NaraInstituteofScienceandTechnology.\bibitem[\protect\BCAY{田近\JBA井上}{田近\JBA井上}{2006}]{tazika2006}田近洵一\JBA井上尚美\BBOP2006\BBCP.\newblock\Jem{国語教育指導用語辞典(第3版)\inhibitglue}.\newblock教育出版.\bibitem[\protect\BCAY{梅村\JBA増山}{梅村\JBA増山}{2007}]{umemura2007}梅村祥之\JBA増山繁\BBOP2007\BBCP.\newblock仕事文推敲支援に向けた連体修飾不足に対する受容性判定法.\\newblock\Jem{自然言語処理},{\Bbf14}(4),\mbox{\BPGS\43--65}.\bibitem[\protect\BCAY{Usami\BBA\Yarimizu}{Usami\BBA\Yarimizu}{2007}]{usami2007}Usami,Y.\BBACOMMA\\BBA\Yarimizu,K.\BBOP2007\BBCP.\newblock\BBOQDesignofXECS(XML-basedEssayCorrectionSystem):Effectsandimplications.\BBCQ\\newblockIn{\BemProceedingsoftheCASTEL-JinHawaii2007},\mbox{\BPGS\182--184}.\end{thebibliography}\begin{biography}\bioauthor{山口昌也}{1992年東京農工大学工学部数理情報工学科卒業.1994年同大学院博士前期課程修了.1998年同大学院博士後期課程修了.博士(工学).同年,同大学工学部助手.2000年国立国語研究所研究員,現在に至る.自然言語処理の研究,コーパス構築に従事.言語処理学会,情報処理学会,日本教育工学会,日本語学会,社会言語科学会各会員.}\bioauthor{北村雅則}{1998年関西大学文学部国文学科卒業.2000年名古屋大学大学院文学研究科国文学専攻国語学専門博士前期課程修了.2005年名古屋大学大学院文学研究科人文学専攻日本文学日本語学講座博士後期課程満期退学.博士(文学).2006年国立国語研究所研究開発部門言語資源グループ特別奨励研究員,2008年名古屋学院大学商学部講師,現在に至る.日本語学(現代語文法,文法史),作文教育の研究に従事.日本語学会,日本語文法学会,日本語用論学会,言語処理学会,日本教育工学会各会員.}\bioauthor{棚橋尚子}{1983年愛知教育大学教育学部小学校課程国語科卒業.1989年兵庫教育大学大学院学校教育研究科教科・領域教育専攻言語系コース(国語)修士課程修了.名古屋市立の中学校教諭,広島大学附属小学校教諭を経て1995年群馬大学教育学部専任講師,1997年同助教授.1999年奈良教育大学教育学部助教授.2006年同教授,現在に至る.漢字教育を中心とした国語科教育の研究に従事.全国大学国語教育学会,日本国語教育学会,中国四国教育学会,日本言語政策学会各会員.}\end{biography}\biodate\end{document}
V24N03-02
\section{研究背景} label{first}元来から日本は,外来語を受け入れやすい環境にあるといわれており,数多くの外国の言葉を片仮名として表記し,そのまま使用している.近年になり,今まで以上にグローバル化が進展すると共に,外来語が益々増加する中,外来語の発音を片仮名表記にしないケースが見受けられる.特に,英語の場合,外国語の表記をそのまま利用することも増えてきている.また,英単語などの頭文字をつなげて表記する,いわゆる略語もよく利用されるようになっている.例えば,「IC」といった英字略語がそれにあたる.しかし,英字略語は英単語の頭文字から構成される表現であるため,まったく別のことを表現しているにも関わらず,同じ表記になることが多い.先の英字略語「IC」には,「集積回路」という意味や高速道路などの「インターチェンジ」という意味がある.さらには,ある業界では,これらとはまた別の意味で使用されることもある.このように,英字略語は便利な反面,いわゆる一般的な単語よりも非常に多くの意味を有する多義性の問題を持つ.そのため,英字略語が利用されている情報は,すべての人が容易に,また,正確に把握できるとは言い難い.そこで,例えば,新聞記事などでは,記事の中で最初に英字略語が使用される箇所において,括弧書きでその意味を日本語で併記する処理をとっていることが多い.しかし,よく知られている英字略語にはそのような処置がとられていないなど,完全に対処されているわけではない.また,記事中の最初の箇所にのみ上記のような処置がとられており,それ以降はその意味が併記されていないことが多い.そのため,記事の途中から文書を読んだり,関連する記事が複数のページに渡って掲載されている時に先頭のページではない部分から記事を読んだりした場合には,最初にその英字略語が出現した箇所を探さなくてはならず,解読にはひと手間が必要となり,理解の妨げとなる.さらに,一般的な文章の場合では,このように英字略語の意味を併記するという処置をとる方が珍しいと言える. \section{関連研究} label{positioning}上記を踏まえて本論文では,英字略語の意味を推定する方法について提案する.本研究と同様の主旨の研究には,\cite{okazaki:07}の研究が報告されている.この方法では,新聞記事などの文章では,英字略語の意味を括弧書きで併記する表現に着目し,英字略語の意味の自動推定を実現している.しかし,すべての英字略語に対してこのような表現が適用されているわけではない.そのため,うまく自動推定できない場合がある.また,\cite{yoshida:05}では,片仮名表記の外来語を英語に復元した後に,辞書を用いて日本語訳を獲得する方法が提案されている.しかし,本方法では,対象が片仮名に限定されており,かつ,多義性を有する語彙には対応できない問題がある.さらに,\cite{M.Stevenson:09}や\cite{N.Okazaki:10}は,英字略語が頻出する生物医学の分野に着目し,医学関連のデータベースから抽出したデータセットをもとに作成したコーパスやクラスタリング技術を適用することに加え,語の共起情報を有効に活用することで,英字略語の意味を推定している.しかし,本方法は医学領域に特化した情報源を利用しているからこそ,語の共起情報が生物医学に関する英字略語の曖昧性解消に対して有効に機能していることに加えて,英字略語の意味を推定する教師データを自動生成するために大規模な文書集合を必要とすることから,汎用的に活用することは難しい.また,英字略語を対象としているわけではないが,単語(語義)の曖昧性を解消する方法が研究されている.\cite{R.Mihalcea:07}は,Wikipediaにおける各記事の参照情報であるハイパーリンクを利用することで,一般的な単語と当該単語を含む文章を入力した際に,当該単語の曖昧性を解消し,意味推定を実現している.本方法は品詞情報を利用して意味推定を実施しており,有効に機能する単語が限定(当該論文では曖昧性を有する普通名詞の意味推定を実施)されるという問題がある.他には,文章内の単語を知識ベースのエントリにマッピングすることで曖昧性を解消する技術(EntityDisambiguation)として,\cite{Y.Sun:15}はWikipediaから収集した情報をもとにニューラルネットワークを構築し,入力単語と入力文書のペアとエントリ間の類似性を判断している.しかし,本方法は2つのニューラルネットワークのトレーニング及びメンテナンスが必要であり,対象領域などに応じた適切な運用が要求される.一方,従来の情報検索でよく用いられるベクトル空間モデル\cite{G.Salton:75}などでは,文書における単語の出現頻度や統計情報などを利用して単語と文書間の類似性を判断している.このような方法は単語と文書内の各単語の表記が一致しない場合は関連性がないとの仮定に基づいている.そのため,多義性を持つ単語をはじめ,表記揺れや類義性を持つような単語に対して意味の推定を行うことは困難である.そこで,本論文では,多義性を有する英字略語に対して,意味の推定を実現する方法を提案する.提案方法では,我々がすでに提案している,あらゆる語彙の意味的な近さを判断できるメカニズムを組み合わせ,英字略語の意味を推定する.具体的には,ある概念から様々な概念を連想する語彙の概念化処理が可能な概念ベース\cite{kojima:02,hirose:02,okumura:07},及び,世界で最も収録語数が多いとされるWikipedia(ウィキメディア財団)\nocite{Wikipedia}を使用する.さらに,概念化した語彙の意味的な近さを判断するため,関連度計算\cite{watabe:06},または,EarthMover'sDistanceを応用した文章間関連度計算方法\cite{fujie:09}を用いる.これらを用いて英字略語の多義性を解消し,英字略語の本来の意味を推定する.この技術により,英字略語の意味を理解しやすくすることができ,情報検索や自動要約,情報推薦や自動翻訳など多くのアプリケーションの性能向上に加え,知能を有するロボットの研究開発における自然な知的対話の実現に寄与することも期待できる. \section{提案方法の概要} \label{concept}図\ref{fig:concept}に提案方法である英字略語の意味推定方法の概略図を示す.\begin{figure}[b]\begin{center}\includegraphics{24-3ia2f1.eps}\end{center}\caption{英字略語の意味推定方法の概略図}\label{fig:concept}\end{figure}英字略語が含まれる文章を入力として,入力文章から英字略語を抽出する.当該英字略語をWikipediaで検索し,意味が1つであれば,その意味を出力する.意味が複数ある場合には,それらの意味と入力文章との意味的な近さを判断し,最も近いと判断した意味を決定する.この際,当該意味と英字略語(が含まれる文章)の意味的な近さを判断するために,語彙の概念化を行う.なお,ここで述べる「意味」とは,英字略語の意味を表現する語,つまり,英字略語のもととなっている英単語の日本語での表現を「意味」と定義している.例えば,前述した英字略語「IC」の意味を推定する場合,「集積回路」や「インターチェンジ」という語を「意味」として出力する.\ref{technology}章では,本論文において使用した要素技術として,語彙を概念化する方法と,概念化した語彙の意味的な近さを判断する方法に関して詳細に説明する. \section{使用要素技術} \label{technology}\subsection{語彙の概念化処理}\label{conceptualization}\subsubsection{概念ベース}\label{concept_base}概念ベース\cite{kojima:02,hirose:02,okumura:07}とは,複数の電子化国語辞書などの見出し語を概念,その語義文に使用されている自立語を概念の意味特徴を表す属性と定義して構築された大規模なデータベースである.本論文で使用した概念ベースは自動的に概念および属性を構築した後,人間の常識に沿った属性の追加や削除を人手で行ったものであり,概念数は約9万語である.概念ベースでは,ある概念$A$は$m$個の属性$a_i$とその属性の重要性を表す重み$w_i$の対によって構成されており,以下のように表現することができる.ここで,属性$a_i$を概念$A$の一次属性と呼ぶ.\[\text{概念A}=\{(a_1,w_1),(a_2,w_2),\cdots,(a_m,w_m)\}\]概念ベースの大きな特徴として,属性である単語は概念として必ず定義されている点がある.これにより,概念$A$の一次属性である属性$a_i$を概念とみなし,更に属性を導くことができる.概念$a_i$から導かれた属性$a_{\mathit{ij}}$を,元の概念$A$の二次属性と呼ぶ.概念ベースの具体例を表\ref{table:concept_ex}に示す.\begin{table}[b]\caption{概念ベースの例}\label{table:concept_ex}\input{02table01.txt}\end{table}例えば,表\ref{table:concept_ex}のように,概念「医者」の一次属性である「患者」は,概念「患者」としても定義されている.また,この概念「患者」の一次属性である「病人,看病,治療,…」は,元の概念「医者」の二次属性ということになる.このように,概念ベースにより概念の意味特徴を定義し,連鎖できる構造を利用することで語彙の意味の近さを評価できる.詳細は\ref{evaluation_approach}節で説明する.\subsubsection{未定義語の概念化}\label{unknown_word}前節で述べた通り,概念ベースは複数の電子化国語辞書などを用いて構築されており,大規模かつ品質が高いというメリットがある.しかし,すべての語彙を網羅できていないという欠点もある.そのため,概念ベースに登録されていない未定義語は概念化されておらず,意味の近さを評価することはできない.そこで,未定義語については,Web上の言語情報を利用し,自動的に概念化すること\cite{tsuji:04,goto:08}で対処する.具体的には,Web検索エンジン(Google,Inc.)\nocite{google}により未定義語をキーワードとして情報検索し,検索結果の上位100件の検索結果ページの内容を取得する.その内容から概念ベースに登録されている自立語のみを抽出し,それらを未定義語の一次属性とする.また,一次属性に対する重みは,情報検索の分野で広く用いられている$\mathit{tf}\cdot\mathit{idf}$\cite{tokunaga:99}の考え方を応用することで算出する.語の網羅性である$\mathit{tf}$値は,検索結果ページ$A$中に出現する自立語$\mathit{Word}_{\mathit{A}}$の出現頻度$\mathit{tfreq}\allowbreak(\mathit{Word}_{\mathit{A}},A)$を,検索結果ページ$A$中のすべての自立語の語数$\mathit{tnum}(A)$で割ることで算出される.算出式は以下のようになる.\[\mathit{tf}(\mathit{Word}_{A},A)=\frac{\mathit{tfreq}(\mathit{Word}_{A},A)}{\mathit{tnum}(A)}\]次に,語の特定性である$\mathit{idf}$値は,StaticsWeb-InverseDocumentFrequency($\mathit{SWeb\mathchar`-idf}$)値を用いる\cite{tsuji:04,goto:08}.$\mathit{idf}$値の算出には,対象となる全文書空間の情報が必要になる.しかし,Webを利用する場合,Web上のすべての情報が必要ということになり,正確な$\mathit{idf}$値を算出することは現実的には不可能である.そこで,無作為に選択した固有名詞1,000個をそれぞれキーワードとして,Web検索エンジン(Google,Inc.)\nocite{google}で検索する.続いて,検索結果の上位10件の検索結果ページの内容を取得する.そして,それらの内容に含まれるすべての自立語の集合を疑似的なWebの全情報空間とみなし$\mathit{SWeb\mathchar`-idf}$値を算出する.$\mathit{SWeb\mathchar`-idf}$値の算出式は以下のように定義される.ここで$N$は固有名詞1,000個を検索キーワードとした際の各検索結果上位10件の合計ページ数($N=10,000$),$\mathit{df}(\mathit{Word}_{A})$は$\mathit{Word}_{A}$が出現する検索結果ページ数である.\[\mathit{SWeb\mathchar`-idf}(\mathit{Word}_{A})=\log\frac{N}{\mathit{df}(\mathit{Word}_{A})}\]この10,000ページから,複数の電子化国語辞書などから概念を抽出したデータベースである概念ベースの収録語数である約9万語を超える単語数が得られたことから,獲得した10,000ページをWebの全情報空間とみなしている.なお,固有名詞の選び方を変えても$\mathit{SWeb\mathchar`-idf}$値に大きな変化は見られないことが報告されている\cite{tsuji:04}.以上に示した式より,自立語$\mathit{Word}_{A}$へ付与する重み$w$は次の式で定義される.\[w=\mathit{tf}(\mathit{Word}_{A},A)\cdot\mathit{SWeb\mathchar`-idf}(\mathit{Word}_{A})\]つまり,ある自立語の重みは,網羅性を表す$\mathit{tf}$値と特定性を表す$\mathit{SWeb\mathchar`-idf}$値を掛け合わせることで与えられる.Web上の言語情報を利用するため,品質は概念ベースより劣るというデメリットはあるが,すべての語彙を概念化できるという大きなメリットがある.また,\cite{tsuji:04,goto:08}などの研究成果から,Web情報を利用して未定義語を概念化する方法の有効性が確認されており,本論文での処理においても十分な性能を確保していると考えられる.\subsection{意味的関連性評価方法}\label{evaluation_approach}\subsubsection{関連度計算}\label{DoA}関連度計算とは,概念と概念の関連の強さを定量的に評価する計算である.概念間にある関連性を定量的に評価する方法として,ベクトル空間モデルが広く用いられている.しかし,本論文では,概念を定義する属性集合とその重みを含めた一致度に基づいた関連度計算方式を利用する.これは,関連度計算方式が有限ベクトル空間によるベクトル空間モデルよりも良好な結果が得られるという報告がなされているためである\cite{watabe:01}.本論文では,重み比率付き関連度計算方式を使用する\cite{watabe:06}.任意の概念$A$,$B$について,それぞれ一次属性を$a_i$,$b_j$とし,対応する重みを$u_i$,$v_j$とする.また,概念$A$,$B$の属性数を$L$個,$M$個$(L\leqM)$とする.なお,各概念の一次属性の重みは,その総和が1.0となるよう正規化している.\begin{align*}A&=\{(a_i,u_i)\;\;|\;\;i=1〜L\}\\B&=\{(b_j,v_j)\;\;|\;\;j=1〜M\}\end{align*}このとき,重み比率付き一致度(DegreeofMatch)は以下のように定義される.ここで,$\mathit{DoM}(A,B)$は概念$A$,$B$の重み比率付き一致度である.\begin{align*}\mathit{DoM}(A,B)&=\sum_{a_i=b_j}^{}\min(u_i,v_j)\\\min(\alpha,\beta)&=\left\{\begin{array}{ll}\alpha&(\beta>\alpha)\\\beta&(\alpha\geq\beta)\end{array}\right.\end{align*}この定義は,概念$A$,$B$に対し,$a_i=b_j$となる属性(概念$A$,$B$に共通する属性)があった場合,共通する属性の重みの共通部分,つまり,小さい重み分のみ一致するという考えに基づいている.次に,属性数が少ない方の概念を$A$とし$(L\leqM)$,概念$A$の属性を基準とする.\[A=\{(a_1,u_1),\cdots,(a_i,u_i),\cdots,(a_L,u_L)\}\]そして,概念$B$の属性を,概念$A$の各属性との重み比率付き一致度$\mathit{DoM}(a_i,b_\mathit{xi})$の和が最大になるように並び替える.\[B_x=\{(b_{x1},v_{x1}),\cdots,(b_\mathit{xi},v_\mathit{xi}),\cdots,(b_\mathit{xL},v_\mathit{xL})\}\]これによって,概念$A$の一次属性と概念$B$の一次属性の対応する組を決める.対応にあふれた概念$B$の属性は無視する.ただし,一次属性同士が一致するものがある場合(概念表記が同じ:$a_i=b_j$)は別扱いにする.これは概念ベースには約9万語の概念が存在し,属性が一致することは稀であるという考えに基づく.従って,一致した属性の扱いを別にすることで,属性が一致した場合を大きく評価する.具体的には,対応する属性の重み$u_i$,$v_j$の大きさを重みの小さい方にそろえる.このとき,重みの大きい方はその値から小さい方の重みを引き,もう一度,他の属性と対応をとる.例えば,$a_i=b_j$で$u_i=v_j+\alpha$とすれば,対応を決定する箇所は$(a_i,v_j)$と$(b_j,v_j)$であり,$(a_i,\alpha)$はもう一度他の属性と対応させる.このように対応を決め,対応がとれた属性の組み合わせの数を$T$個とする.重み比率付き関連度とは,重み比率付き一致度を比較する概念の各属性間で算出し,その和の最大値を求めることで計算する.重み比率付き関連度(DegreeofAssociation)は以下の式で定義される.ここで,$\mathit{DoA}(A,B)$は概念$A$,$B$の重み比率付き関連度である.\[\mathit{DoA}(A,B)=\sum_{i=1}^{T}\{\mathit{DoM}(a_i,b_\mathit{xi})\cdot(u_i+v_\mathit{xi})\cdot(\min(u_i,v_\mathit{xi})/\max(u_i,v_\mathit{xi}))/2\}\]以下,重み比率付き一致度を一致度,重み比率付き関連度を関連度と略し,この関連度\cite{watabe:06}を用いる.関連度は概念間の関連の強さを0〜1の間の連続値で表す.\subsubsection{EarthMover'sDistance}\label{EMD}前節において,概念間の関連の強さを評価する方法として関連度計算について説明した.関連度計算は関連性が高い順に属性の対応をとることで計算を行う,つまり,1対1で対応をとる方法である.そのため,両概念に対して,少ない方の属性数分しか対応がとれない.例えば,概念$A$が持つ属性が3語,概念$B$が持つ属性が100語であった場合,概念$B$の属性97語は計算の対象外となる.そこで,本論文では,両概念の属性数に差がある状況にも対応するため,関連度計算に加えて,M対Nで対応をとることができるEarthMover'sDistance(EMD)を用いて意味的な関連性を評価する方法を利用する.EMDを用いた意味的な関連性評価方法は,ヒッチコック型輸送問題\cite{A.J.Hoffman:63}(需要地の需要を満たすように供給地から輸送を行う際の最小輸送コストを解く問題)で計算される距離尺度であるEMDを概念間の関連性評価に適用したものである.EMDは,2つの概念間の関連性を定量的に表現することが可能であり,\cite{fujie:09}の研究によりその有用性が報告されている.EMDとは,2つの離散分布があるとき,一方からもう一方の分布への変換を行う際の最小コストを指す.離散分布は当該分布を構成する要素と重みの対の集合で表現される.コスト算出の際には,変換前の離散分布の要素が持つ重みを供給量,変換先の離散分布の要素が持つ重みを需要量と考え,要素間の距離を供給量,需要量にしたがって重みを運送すると考える.できるだけ短い距離で,かつ,需要量に対して効率的に重みを運送する経路がEMDとなる.これを概念間の関連性評価に適応させる場合,概念の一次属性を要素として捉え,一次属性の集合を離散分布と考える.ある概念の離散分布を違う概念の離散分布へ変換すると考えると,その際のコストが最小となる概念が元の概念に最も近い概念となることから,概念間の関連性評価へ適用することが可能となる.EMDを用いた意味的な関連性評価方法について,図\ref{fig:EMD}に示す簡略図を用いて説明する.ある概念$A$と$B$があったとき,概念$A$を概念$B$に変換する際のコストを考える.それぞれの概念をそれらの一次属性$a_i$,$b_j$の離散分布と考える.EMDでは変換コストの算出を行う際に離散分布を構成する要素同士の距離を用いる.EMDを用いた意味的な関連性評価方法では,この距離を一次属性同士の関連性であると考え,一致度によってこれを求める.\begin{figure}[b]\begin{center}\includegraphics{24-3ia2f2.eps}\end{center}\caption{EMDを用いた意味的な関連性評価方法}\label{fig:EMD}\end{figure}属性$a_i$,$b_j$の距離$\mathit{dis}(a_i,b_j)$は次の式で表される.一致度は関連性が高いと値が大きくなる.また,一致度の最大値は1であるため,1から一致度を引いた値を距離としている.\[\mathit{dis}(a_i,b_j)=1-\mathit{DoM}(a_i,b_j)\]ここで,図\ref{fig:EMD}の例における$a_1$と$b_1$の間の変換コスト$\mathit{cost}(a_1,b_1)$は次の式で算出される.これは$a_1$と$b_1$の距離に重みを掛けたものである.$a_1$と$b_1$が持つ重みは同じく0.3であるため供給量と需要量が合致し,$a_1$からの重みの運送はこの時点で終了する.\[\mathit{cost}(a_1,b_1)=\mathit{dis}(a_1,b_1)\cdot0.3\]同様にコストの計算を行い,最終的にすべての運送経路のコストを足し合わせたものがEMDとなる.図\ref{fig:EMD}の例では概念$A$,$B$間のEMDは次のように表される.\[\mathit{EMD}(A,B)=\mathit{cost}(a_1,b_1)+\mathit{cost}(a_2,b_2)+\mathit{cost}(a_2,b_3)\]以上の式で算出されたEMDの最小値を最適化計算で求め,概念間の関連性(意味的な近さ)を算出している. \section{英字略語の意味推定方法} \label{proposal_method}\subsection{英字略語の抽出}\label{extract}本論文で提案する英語略語の意味推定方法の処理対象として扱う英字略語は,英単語の頭文字から構成される表記とする.例えば,商品の型番や「W杯」のように記号や数字,日本語などアルファベット以外の文字が混じる表記の場合,それらは英字略語ではないものとする.また,1文字で構成される英字略語の場合,英単語の頭文字ではなく,例えば,S字カーブの「S」のように,アルファベットの形状などに起因する意味で使用されることがある.本研究は,語彙の意味に着目し,多義性を有する英字略語の意味推定を目的としている.また,英字略語は大文字のアルファベットで構成されることが多いため,本論文では,2文字以上の大文字アルファベットのみで構成されている語を英字略語として扱うこととする.入力として受け付ける情報は,英字略語が含まれている文章とし,その文章から2文字以上の大文字アルファベットの羅列を英字略語として抽出する.\subsection{Wikipediaによる意味候補の検索}\label{search}\ref{extract}節で抽出した英字略語をWikipedia(ウィキメディア財団)で検索する.検索の結果,当該英字略語を説明する意味が1つであった場合には,その意味を出力する.意味を複数有する場合には,次節で述べる意味的な近さに基づく多義性の解消を行うため,それぞれの意味を概念化する.概念化には,\ref{concept_base}節で述べた概念ベースと\ref{unknown_word}節で述べたWebを用いた未定義語の概念化方法を用いる.今回,\ref{experiment_condition}節にあるように,英字略語の概念化は新聞記事を用いて実施しているため,Wikipediaから取得した意味候補の概念化も新聞記事を利用して実施したいが,各意味候補が新聞記事に含まれているとは限らない.一方,Wikipedia内の情報は辞書的に構成されており,新聞記事内の情報とは系統が異なる.そこで,今回は新聞記事と同様に雑多な情報から構成されるWeb情報を利用して意味候補の概念化を実施することにした.一例として,英字略語「IC」をWikipediaで検索した際の結果を表\ref{table:IC}に示す.英字略語「IC」の場合,13種類の意味を有していた.\begin{table}[b]\caption{英字略語「IC」をWikipediaで検索した際の結果}\label{table:IC}\input{02table02.txt}\end{table}\begin{table}[b]\caption{Wikipediaから英字略語の意味候補を取得する規則}\label{table:rule}\input{02table03.txt}\end{table}\begin{table}[b]\caption{設定したストップワードのリスト}\label{table:stopword}\input{02table04.txt}\end{table}Wikipediaから抽出した意味には,当該意味を説明・補助する情報(例えば,表\ref{table:IC}の3番における「-」以降の記述)が含まれるが,当該情報は意味の概念化処理における雑音となる.そこで,Wikipediaから抽出した意味に表\ref{table:rule}に示した規則を上から順に適用することで雑音を削除する.さらに,Wikipediaに掲載されている意味の中には,商品の型番やある種のコードなど英字略語ではないアルファベットの羅列(表\ref{table:IC}の例では10番と11番)が多数含まれているため,表\ref{table:stopword}に示したストップワードを適用することで当該意味を削除した上で意味候補を取得する.\subsection{英字略語の多義性解消}\label{resolution}\ref{search}節で検索した英字略語が複数の意味を有した場合,その多義性を解消する必要がある.具体的には,\ref{search}節で概念化された意味候補と入力された英字略語を含む文章との意味的な近さを評価することで実現する.この際,概念化された意味候補と英字略語の意味的な近さを評価するため,英字略語も概念化する必要がある.入力された文章に含まれる自立語をすべて抽出し,それを英字略語の一次属性と見立てる.これにより,英字略語を疑似的に概念化できる.なお,英字略語の一次属性とした自立語の中には概念ベースに登録されている語と登録されていない語(未定義語)が存在する.未定義語については,\ref{unknown_word}節で説明した方法により概念化を行う.この処理により,英字略語を概念とし,一次,二次へと属性を展開することができ,意味的な近さを評価することが可能になる.なお,英字略語を疑似的に概念化する際,一次属性として抽出した自立語が未定義語であった場合,当該一次属性に対する重みは,\ref{unknown_word}節で説明した未定義語の概念化における属性への重み付けの考え方と同様にして付与する.具体的には,語の網羅性である$\mathit{tf}$値は,入力された文章$A$中に出現する自立語$\mathit{Word}_A$の出現頻度$\mathit{tfreq}(Word_A,A)$を文章$A$中のすべての自立語の語数$\mathit{tnum}_A$で割ったもので算出される.算出式は以下のようになる.\[\mathit{tf}(\mathit{Word}_A,A)=\frac{\mathit{tfreq}(\mathit{Word}_A,A)}{\mathit{tnum}_A}\]語の特定性である$\mathit{idf}$値は$\mathit{SWeb\mathchar`-idf}$ではなくStaticsArticle-InverseDocumentFrequency($\mathit{SA\mathchar`-idf}$)を用いる.これは,疑似的な全文章空間の情報として,$\mathit{tf}$値を算出する際に使用した文章と同じカテゴリ,ジャンルである文章集合を利用する必要があるためである.$\mathit{SA\mathchar`-idf}$値の算出式は以下のように定義される.ここで,$N$は利用する文章集合の全文章数,$\mathit{df}(\mathit{Word}_A)$はその文章集合の中で$\mathit{Word}_A$が出現する文章数である.\[\mathit{SA\mathchar`-idf}(\mathit{Word}_A)=\log\frac{N}{\mathit{df}(\mathit{Word}_A)}\]以上に示した式より,自立語$\mathit{Word}_A$へ付与する重み$w$は次の式で定義される.\[w=\mathit{tf}(\mathit{Word}_A,A)\cdot\mathit{SA\mathchar`-idf}(\mathit{Word}_A)\]このように,概念化された英字略語と意味候補との意味的な近さを\ref{evaluation_approach}節で説明した語彙の意味的な近さを評価する方法により評価する.その結果,最も意味的に近いと判断された意味候補を英字略語の意味とする. \section{評価実験} \label{evaluation_experiment}\subsection{実験条件}\label{experiment_condition}本論文では,新聞記事から英字略語を抽出し,当該英字略語が含まれている記事を入力文章とすることで評価を実施した.今回使用した新聞記事は全国紙1か月分(約12,000記事)であり,2文字以上の大文字アルファベットの羅列が含まれる記事は約3,700記事であった.当該約3,700記事から表\ref{table:stopword}に示したストップワードに該当する略語として意味がない文字列を含む記事を人手で削除した上で,無作為に129記事を抽出し,評価実験データとして使用した.なお,その中で,表記が異なる英字略語の数は58個であった.つまり,129種類の英字略語の意味と58種類の英字略語の表記が含まれる記事を評価実験データとして使用した.また,当該58個の英字略語の表記をWikipediaで検索し,表\ref{table:rule}と表\ref{table:stopword}に示した規則を適用した結果,707個の意味を取得できた(1つの英字略語の表記につき,平均で12.2個,最少で2個,最多で29個の意味が存在).提案方法により推定した英字略語の意味が,当該英字略語を含む新聞記事における意味と一致した場合を正答として評価した.なお,意味の一致に関する判定は人手で実施しており,Wikipediaから取得した意味候補の中に正解となる候補が複数含まれることもある(例えば,表\ref{table:IC}における7番と8番の候補「インターシティ」は両方ともヨーロッパにおける都市間列車を指しており,どちらを選択しても正解と判定している).今回は評価の簡略化のため,英字略語として扱う2文字以上の大文字アルファベットの羅列が1つ含まれる記事を評価対象としている.\ref{resolution}節で述べた通り,入力した文章を用いて英字略語を疑似的に概念化する際には,\ref{unknown_word}節での考え方に基づき属性に重み付けを行う.今回の実験における入力対象は新聞記事である.そのため,概念ベースに登録されていない未定義語である一次属性に対する重み付けに必要な$\mathit{SA\mathchar`-idf}$値の算出には,1か月分の新聞記事集合を使用した.この1か月分の新聞記事集合から,概念ベースの収録語数である約9万語を超える単語数が得られたことから,当該集合を疑似的な全文章空間の情報とみなしている.\subsection{比較方法}\label{comparative_approach}本節では,本論文における提案方法の比較に使用するベクトル空間モデル\cite{G.Salton:75}について述べる.ベクトル空間モデルは,情報検索の分野で幅広く利用されている検索モデルである.各語の重みから構成されるベクトルとして入力語と文書をそれぞれ表現し,二つのベクトルの成す角度の余弦によって類似度を計算する点に特徴がある.ベクトル空間モデルにおいて使用される重みにはいくつかの種類があるが,本評価では,情報検索の分野で広く用いられている$\mathit{tf}\cdot\mathit{idf}$\cite{tokunaga:99}を使用する.\ref{search}節で概念化された英字略語を含む入力文章を$q$,同様に概念化された意味候補を$d_i$,両者における自立語の語の総数(異なり)を$M$とすれば,入力文章$q$と意味候補$d_i$はそれぞれ以下のような$M$次元のベクトルで表現できる.\begin{align*}q&=(w_{q1},w_{q2},\cdots,w_\mathit{qM})\\d_i&=(w_{i1},w_{i2},\cdots,w_\mathit{iM})\end{align*}入力文章$q$に対する意味候補$d_i$の得点$s_q(d_i)$は二つのベクトルの余弦により求まる.式を以下に示す.\[s_q(d_i)=\frac{\sum_{j=1}^{M}w_\mathit{ij}w_\mathit{qj}}{\sqrt[]{\mathstrut{\sum_{j=1}^{M}{w_\mathit{ij}^2}}}\:\:\sqrt[]{\mathstrut{\sum_{j=1}^{M}{w_\mathit{qj}^2}}}}\]\subsection{評価結果}\label{result}本論文では,提案方法に対して,以下に示す3種類の入力文章(A,B,C)および3種類の関連性評価方法(1,2,3),つまり,合計9パターンの評価を行った.\begin{itembox}[c]{評価方法(入力文章)}\begin{itemize}\item(A)英字略語を含む記事全体\item(B)英字略語を含む一文とその前後一文\item(C)英字略語を含む一文のみ\end{itemize}\end{itembox}\begin{itembox}[c]{評価方法(関連性評価方法)}\begin{itemize}\item(1)関連度計算(関連度)\item(2)EarthMover'sDistance(EMD)\item(3)ベクトル空間モデル(VSM)\end{itemize}\end{itembox}評価結果を表\ref{table:result}に示す.表\ref{table:result}における数値は正答率を示す.なお,\ref{positioning}章で紹介した先行研究\cite{okazaki:07,yoshida:05}は,適用可能な英字略語に制約条件(英字略語の意味を括弧書きで併記することが必要,片仮名表記が必要)がある.今回の評価で使用した129記事に対して,当該先行研究が適用できた英字略語はそれぞれ35\%程度であったため,これらの先行研究の正答率は最高でも35\%程度となる.\begin{table}[b]\caption{評価結果}\label{table:result}\input{02table05.txt}\end{table}表\ref{table:result}より,関連度計算はベクトル空間モデルよりも正答率が5--8\%高く,EMDはベクトル空間モデルよりも正答率が8--12\%高くなっており,提案方法が既存方法であるベクトル空間モデルよりも優れた結果を示した.また,EMDは関連度計算よりも3--4\%と若干ではあるが高い正答率を獲得した.他には,入力文章が長い(入力情報量が多い)ほど高い正答率を得ていることが分かる.意味推定結果の一例を図\ref{fig:result_sample_no1},図\ref{fig:result_sample_no2},図\ref{fig:result_sample_no3}に示す.\begin{figure}[t]\includegraphics{24-3ia2f3.eps}\caption{英字略語の意味推定結果一例(その1)}\label{fig:result_sample_no1}\end{figure}\begin{figure}[t]\includegraphics{24-3ia2f4.eps}\caption{英字略語の意味推定結果一例(その2)}\label{fig:result_sample_no2}\end{figure}\begin{figure}[t]\includegraphics{24-3ia2f5.eps}\caption{英字略語の意味推定結果一例(その3)}\label{fig:result_sample_no3}\end{figure}図\ref{fig:result_sample_no1}では,英字略語AFCに対して,Wikipediaから取得した13個の意味候補から,9つのすべてのパターンにおいて正しい意味を推定できており,英字略語の意味を十分に理解できていることが分かる.次に,図\ref{fig:result_sample_no2}では,英字略語HDに対して,20個の意味候補から,入力文章に英字略語を含む記事全体を使用した場合(パターン(A))は正しい意味を推定できた一方,推定に失敗したパターンがある.具体的には,ベクトル空間モデルを使用し,かつ,入力文章に英字略語を含む一文とその前後一文または英字略語を含む一文のみを使用した場合(パターン(B)-(3),パターン(C)-(3))と,関連度計算を使用し,かつ,入力文章に英字略語を含む一文のみを使用した場合(パターン(C)-(1))に失敗している.前者(パターン(B)-(3),パターン(C)-(3))は,単語の表記をもとに関連性を判断するベクトル空間モデルより,単語の意味を考慮して関連性を判断する関連度計算やEMDが有効に機能したためだと考えらえる.後者(パターン(C)-(1))は,関連性の高い属性を1対1で対応をとって計算を行うために他の関連性の高い属性を除外する可能性がある関連度計算より,すべての属性を計算に利用するEMDが有効に機能したことが考えられる.最後に,図\ref{fig:result_sample_no3}では,英字略語FBに対して,16個の意味候補から,9つのすべてのパターンにおいて正しい意味を推定することができなかった.これは,入力文章に金銭に関連する語が多く含まれていたため,正しい意味である「フェイスブック」より金銭に関連する意味候補である「政府短期証券」のほうが意味的に近いと判定されたためだと考えられる.Wikipediaは現存する辞書の中で収録語数が最も多いとされるが,提案方法は,処理の拠り所である辞書に登録されていない単語には対応できないという問題がある.これは,辞書を使用する以上,避けられない問題である.ただし,評価実験で使用したデータとは異なる100件の新聞記事を無作為に調査した結果,Wikipediaに登録されていない英字略語の出現頻度は約4.5\%であった.よって,新聞記事に登場するような比較的一般的な英字略語を対象とする場合,Wikipediaに未登録の語があることに起因する正答率の低下は5\%程度であると考えられる.なお,今回実施した評価に関しては,Wikipediaに登録されていない英字略語は評価実験データから除外している. \section{まとめ} \label{conclusion}本論文では,英単語の頭文字から構成される表現である英字略語に焦点を当て,その意味を推定する方法について提案した.提案方法では,英字略語の意味推定を未知語の意味推定とみなし,語彙の概念化方法と語彙の意味的な近さを評価できる関連性評価方法を使用する.さらに,英字略語ゆえの情報の欠如をWikipediaを辞書として用いて補完することで,英字略語の多義性を解消し,英字略語の本来の意味を推定することを実現した.提案方法に対して,129件の新聞記事を入力文章として評価を行った.評価結果より,最高で80\%近い正答率を示したことに加え,表記に頼る比較方法より良好な結果を得ることができた.本論文で提案した技術により,英字略語の意味を理解しやすくすることができ,情報検索や自動要約など多くのアプリケーションの性能向上や知能ロボットの研究開発における自然な知的対話の実現に寄与することができると考えられる.今後の研究課題としては,近年,盛んに研究が行われているWord2Vec\cite{T.Mikolov:13}のようなニューラルネットワークを応用したベクトルモデルを適用する方法の検討が考えられる.ベクトルモデルを構築するために使用する情報源を適切に選択・構築することで,概念ベースそのものを拡張(性能向上)できる可能性がある.このような検討により,語彙の概念化処理を発展させ,より円滑な自然言語処理の実現が期待できる.\acknowledgment本研究の一部は,JSPS科研費16K00311の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{藤江\JBA渡部\JBA河岡}{藤江\Jetal}{2009}]{fujie:09}藤江悠五\JBA渡部広一\JBA河岡司\BBOP2009\BBCP.\newblock概念ベースとEarthMover'sDistanceを用いた文書検索.\\newblock\Jem{自然言語処理},{\Bbf16}(3),\mbox{\BPGS\25--49}.\bibitem[\protect\BCAY{{Google,~Inc.}}{{Google,~Inc.}}{}]{google}{Google,~Inc.}\newblock\BBOQGoogle.\BBCQ\\newblock\Turl{http://www.google.co.jp}.\bibitem[\protect\BCAY{後藤\JBA土屋\JBA渡部\JBA河岡}{後藤\Jetal}{2008}]{goto:08}後藤和人\JBA土屋誠司\JBA渡部広一\JBA河岡司\BBOP2008\BBCP.\newblockWebを用いた未知語検索キーワードのシソーラスノードへの割付け手法.\\newblock\Jem{自然言語処理},{\Bbf15}(3),\mbox{\BPGS\91--113}.\bibitem[\protect\BCAY{広瀬\JBA渡部\JBA河岡}{広瀬\Jetal}{2002}]{hirose:02}広瀬幹規\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock概念間ルールと属性としての出現頻度を考慮した概念ベースの自動精錬手法.\\newblock\Jem{信学技報},{\BbfNLC2001-93},\mbox{\BPGS\109--116}.\bibitem[\protect\BCAY{Hoffman}{Hoffman}{1963}]{A.J.Hoffman:63}Hoffman,A.~J.\BBOP1963\BBCP.\newblock\BBOQOnSimpleLinearProgramingProblems.\BBCQ\\newblockIn{\BemProceedingsofthe7thSymposiuminPureMathematicsoftheAMS},\lowercase{\BVOL}~7,\mbox{\BPGS\317--323}.\bibitem[\protect\BCAY{小島\JBA渡部\JBA河岡}{小島\Jetal}{2002}]{kojima:02}小島一秀\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock連想システムのための概念ベース構成法—属性信頼度の考え方に基づく属性重みの決定.\\newblock\Jem{自然言語処理},{\Bbf9}(5),\mbox{\BPGS\93--110}.\bibitem[\protect\BCAY{Mihalcea}{Mihalcea}{2007}]{R.Mihalcea:07}Mihalcea,R.\BBOP2007\BBCP.\newblock\BBOQUsingWikipediaforAutomatricWordSenseDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofNAACLHLT},\mbox{\BPGS\196--203}.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{T.Mikolov:13}Mikolov,T.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQEfficientEstimationofWordRepresentationsinVectorSpace.\BBCQ\\newblock{\BemarXivpreprint},{\BbfarXiv:1301.3781},\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{岡崎\JBA石塚}{岡崎\JBA石塚}{2007}]{okazaki:07}岡崎直観\JBA石塚満\BBOP2007\BBCP.\newblock日本語新聞記事からの略語抽出.\\newblock\Jem{第21回人工知能学会全国大会論文集},{\Bbf2G4-4},\mbox{\BPGS\1--3}.\bibitem[\protect\BCAY{Okazaki,Ananiadou,\BBA\Tsujii}{Okazakiet~al.}{2010}]{N.Okazaki:10}Okazaki,N.,Ananiadou,S.,\BBA\Tsujii,J.\BBOP2010\BBCP.\newblock\BBOQBuildingaHigh-qualitySenseInventoryforImprovedAbbreviationDisambiguation.\BBCQ\\newblock{\BemBioinformatics},{\Bbf26}(9),\mbox{\BPGS\1246--1253}.\bibitem[\protect\BCAY{奥村\JBA土屋\JBA渡部\JBA河岡}{奥村\Jetal}{2007}]{okumura:07}奥村紀之\JBA土屋誠司\JBA渡部広一\JBA河岡司\BBOP2007\BBCP.\newblock概念間の関連度計算のための大規模概念ベースの構築.\\newblock\Jem{自然言語処理},{\Bbf14}(5),\mbox{\BPGS\41--64}.\bibitem[\protect\BCAY{Salton,Wong,\BBA\Yang}{Saltonet~al.}{1975}]{G.Salton:75}Salton,G.,Wong,A.,\BBA\Yang,C.~S.\BBOP1975\BBCP.\newblock\BBOQAVectorSpaceModelforAutomaticIndexing.\BBCQ\\newblock{\BemCommunicationsoftheACM},{\Bbf18}(11),\mbox{\BPGS\613--620}.\bibitem[\protect\BCAY{Stevenson,Guo,Amri,\BBA\Gaizauskas}{Stevensonet~al.}{2009}]{M.Stevenson:09}Stevenson,M.,Guo,Y.,Amri,A.~A.,\BBA\Gaizauskas,R.\BBOP2009\BBCP.\newblock\BBOQDisambiguationofBiomedicalAbbreviations.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponBioNLP},\mbox{\BPGS\71--79}.\bibitem[\protect\BCAY{Sun,Lin,Tang,Yang,\BBA\Wang}{Sunet~al.}{2015}]{Y.Sun:15}Sun,Y.,Lin,L.,Tang,D.,Yang,N.,\BBA\Wang,X.\BBOP2015\BBCP.\newblock\BBOQModelingMention,ContextandEntitywithNeuralNetworksforEntityDisambiguation.\BBCQ\\newblockIn{\BemProceedingsofthe24thInternationalJointConferenceonArtificialIntelligence(IJCAI2015)},\mbox{\BPGS\1333--1339}.\bibitem[\protect\BCAY{徳永}{徳永}{1999}]{tokunaga:99}徳永健伸\BBOP1999\BBCP.\newblock\Jem{情報検索と言語処理}.\newblock東京大学出版会.\bibitem[\protect\BCAY{辻\JBA渡部\JBA河岡}{辻\Jetal}{2004}]{tsuji:04}辻泰希\JBA渡部広一\JBA河岡司\BBOP2004\BBCP.\newblockwwwを用いた概念ベースにない新概念およびその属性獲得手法.\\newblock\Jem{第18回人工知能学会全国大会論文集},{\Bbf2D1-02},\mbox{\BPGS\1--4}.\bibitem[\protect\BCAY{渡部\JBA河岡}{渡部\JBA河岡}{2001}]{watabe:01}渡部広一\JBA河岡司\BBOP2001\BBCP.\newblock常識的判断のための概念間の関連度評価モデル.\\newblock\Jem{自然言語処理},{\Bbf8}(2),\mbox{\BPGS\39--54}.\bibitem[\protect\BCAY{渡部\JBA奥村\JBA河岡}{渡部\Jetal}{2006}]{watabe:06}渡部広一\JBA奥村紀之\JBA河岡司\BBOP2006\BBCP.\newblock概念の意味属性と共起情報を用いた関連度計算方式.\\newblock\Jem{自然言語処理},{\Bbf13}(1),\mbox{\BPGS\53--74}.\bibitem[\protect\BCAY{ウィキメディア財団}{ウィキメディア財団}{}]{Wikipedia}ウィキメディア財団.\newblockウィキペディアフリー百科事典.\\newblock\Turl{https://jp.wikipedia.org}.\bibitem[\protect\BCAY{吉田\JBA遠間\JBA増山\JBA酒井}{吉田\Jetal}{2005}]{yoshida:05}吉田辰巳\JBA遠間雄二\JBA増山繁\JBA酒井浩之\BBOP2005\BBCP.\newblock可読性の向上を目的とした片仮名表記外来語の換言知識獲得.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ88-D-II}(7),\mbox{\BPGS\1237--1245}.\end{thebibliography}\clearpage\begin{biography}\bioauthor{後藤和人}{2008年同志社大学大学院工学研究科博士前期課程修了.同年,日本電信電話株式会社入社.知識情報処理等の研究に従事.電子情報通信学会会員.}\bioauthor{土屋誠司}{2007年同志社大学大学院工学研究科博士後期課程修了.工学博士.2017年同志社大学理工学部教授.意味解釈等の研究に従事.言語処理,人工知能,情報処理,電子情報通信,日本認知科学会各会員.}\bioauthor{渡部広一}{1987年北海道大学大学院工学研究科博士後期課程中途退学.工学博士.2006年同志社大学工学部教授.概念処理等の研究に従事.言語処理,人工知能,情報処理,電子情報通信,システム制御情報,精密工学会各会員.}\end{biography}\biodate\end{document}
V17N01-08
\section{はじめに} label{introduction}テキストの評価は,自動要約や機械翻訳などのようなテキストを生成するタスクにおいて手法の評価として用いられるだけでなく,例えば人によって書かれた小論文の自動評価\cite{miltsakaki2004}といったように,それ自体を目的とすることもある.言語処理の分野においては前者のような手法評価の観点からテキスト評価に着目することが多く,例えば自動要約の評価で広く用いられているROUGE\cite{lin2003,lin2004}や機械翻訳で用いられているBLEU\cite{papineni2002}のような評価尺度が存在している.これらの評価手法は特に内容についての評価に重点が置かれている.つまり,評価対象のテキストが含んでいなければならない情報をどの程度含んでいるかということに焦点が当てられている.しかし,実際にはテキストは単に必要な情報を含んでいれば良いというわけではない.テキストには読み手が存在し,その読み手がテキストに書かれた内容を正しく理解できなければ,そのテキストは意味をなさない.読み手の理解を阻害する原因には,難解な語彙の使用,不適切な論理展開や文章の構成などが挙げられる.これらはテキストの内容に関する問題ではなく,テキストそのものに関する問題である.従って,テキストの内容が正しく読み手に伝わるかどうかを考慮するならば,その評価においては内容に関する評価だけでなく,テキストそのものについての評価も重要となる.テキストそのものについての性質のうち,テキスト一貫性\cite{danwa}とは文章の意味的なまとまりの良さであり,例えば因果関係や文章構造などによって示される文同士の繋がりである.意味的なまとまりが悪ければ,テキストの内容を読み手が正確に理解することが困難になると考えられる.このことから一貫性の評価はテキストの内容が正しく伝わることを保証するために必要であると言える.また,テキスト一貫性が評価できるようになると,テキストを生成するシステムにおいて,例えば,一貫性が良くなるように文章を構成したり,一貫性の観点からの複数の出力候補のランク付けが可能となり,出力するテキストの質を高めることができる.テキスト一貫性は局所的な一貫性と大域的な一貫性という2種類のレベルに分類できる.局所的な一貫性とは相前後する2文間における一貫性であり,大域的な一貫性とは文章における話題の遷移の一貫性のことである.一貫性の評価に関しては,この局所的な一貫性と大域的な一貫性の両方についてそれぞれ考えることができるが,局所的な一貫性は大域的な一貫性にとって重要な要素であり,局所的な一貫性の評価の精度の向上が大域的な一貫性の評価に影響すると考えられる.以上のことから,本論文では,テキスト一貫性,特に局所的な一貫性に焦点を当て,この観点からのテキストの評価について述べる.テキストの性質について,テキスト一貫性と並べて論じられるものにテキスト結束性\cite{halliday1976}がある.これは意味的なつながりである一貫性とは異なり,文法的なつながりである.一貫性が文脈に依存しているのに対し,結束性は脱文脈的で規則的な性質である\cite{iori2007}.テキスト結束性に寄与する要素は大きく参照\footnote{代名詞の使用や省略は参照に含まれる.},接続,語彙的結束性\footnote{同じ語の繰り返しは語彙的結束性に含まれる.}に分けられる.これらはテキストの表層において現れる要素である.一貫性は先に述べたように意味のまとまりの良さであり,これに寄与する要素は明示的な形では現れない.一貫性と結束性はどちらもテキストのまとまりに関する性質であり,それぞれが独立ではなく互いに関係している.従って,テキストの表層に現れる,結束性に関係する要素である接続表現や語彙的結束性を一貫性モデルにおいても考慮することで性能の向上が期待できる.2章で述べるように,局所的な一貫性に関する研究はテキスト中の隣接する文間の関係を単語の遷移という観点から捉えているものが多い.その中でもBarzilayら\cite{barzilay2005,barzilay2008}の研究は,この領域における他の研究において多く採用されているentitygridという表現を提案しており,先駆的な研究として注目に値する.しかし,3章で詳述するように,このモデルでは要素の遷移の傾向のみ考慮しており,テキストのまとまりに関係している明示的な特徴はほとんど利用されていない.そこで本論文では4章で詳述するように,一貫性モデルに結束性に関わる要素を組み込むことによって,結束性を考慮に入れた局所的な一貫性モデルを提案する. \section{関連研究} label{relatedwork}Barzilayら\cite{barzilay2005,barzilay2008}は局所的な一貫性のモデルとしてentitygridを提案している.このモデルはテキスト中で述べられている要素の遷移に着目している.これは,センタリング理論\cite{grosz1995}で示されているように,一貫性のあるテキストではその文中の要素の出現に規則性があるという考えに基づいている.Elsnerら\cite{elsner2008}は,entitygridモデルがテキストの一貫性において要素の遷移にのみ着目しているということに言及し,例えば参照表現や対象の要素がこれまでに既に述べられている要素かどうかなどといった他の要素をモデルに組み込んでいる.Filippovaら\cite{katja2007}はentitygridモデルに要素間の関係を考慮したモデルを提案し,このモデルをドイツ語の新聞記事に対して適用した結果を報告している.大域的な一貫性について,Barzilayら\cite{barzilay2004}は隠れマルコフモデル(HMM)を採用したモデルを提案している.このモデルでは文章中の話題をHMMにおける隠れ状態と見なし,話題の一貫性を隠れ状態の遷移確率によって表現している.Soricutら\cite{soricut2006}やElsnerら\cite{elsner2007}は局所的な一貫性と大域的な一貫性を同時に考慮するモデルをそれぞれ提案している.これらのモデルはentitygridモデルとHMMを組み合わせたものである.日本語の文章に対する一貫性の評価手法には,板倉ら\cite{itakura2008}の提案する段落の一貫性指標がある.これは段落内で用いられている単語間の意味的な関係に基づいている.これらの手法では文書中の単語の出現に着目してテキスト一貫性を評価しており,\ref{introduction}章で述べたように一貫性に影響すると考えられる,テキスト結束性に関係する表層的な特徴は考慮されていない. \section{EntityGridに基づく局所的な一貫性モデル} \begin{figure}[b]\begin{center}\includegraphics{17-1ia9f1.eps}\end{center}\caption{テキスト例(WallStreetJournalから引用)}\label{sample}\end{figure}\begin{table}[b]\caption{図\ref{sample}のテキストに対するentitygrid}\label{egsample}\input{09table01.txt}\end{table}Barzilayら\cite{barzilay2008}は,一貫性のあるテキストではその中で述べられる要素の出現の分布には規則性があるという仮説に基づいた一貫性のモデルを提案している.また,このテキスト中の要素の分布パターンを捉えるために,entitygridと呼ばれる表現を導入している.これは,テキストを,行に文を,列に文章中の要素をそれぞれ対応させた行列として表したものである.その各項には文における要素の構文役割が入る.用いられる構文役割は主語(S),目的語(O),その他(X),出現せず(-)の4種類である.図\ref{sample}に示すテキストに対応するentitygridを表\ref{egsample}に示す.この一貫性モデルではentitygridの作成の際に共参照解析を行い,異なる表現であっても同じ要素を指すものをまとめている.例えば,図\ref{sample}において$s_1$の``BELLINDUSTRIESInc.''と$s_4$の``Bell''は同じ要素を指すと判定されると,それらの構文役割は表\ref{egsample}の同じ列(``BELL'')に記述される.局所的な一貫性の評価にはentitygridを基に作られた文書ベクトルを用いる.ベクトルの要素は文n-gram($n\ge2$)における構文役割の遷移確率と,構文役割の出現確率からなる.構文役割の遷移を計算する際には,文書始めと文書終わりを含んだ遷移も考慮する.この確率はentitygrid中に存在する長さ$n$の全ての構文役割の遷移の数に対する対象の長さ$n$の遷移列の割合である.例えば,表\ref{egsample}に示すentitygridにおいて,[S-]という遷移の確率は,長さ2の全ての遷移の数(即ち,50)に対する対象の遷移列(即ち,3)の割合から求められる(即ち,0.06).また,テキストにおいて頻出する要素は,そのテキストの話題に関連すると考えられ,そのような要素はそうでない要素とは異なる遷移の傾向を持つという仮定から,出現頻度によってテキスト中の要素をグループに分け,それぞれのグループにおいてentitygridを作成している.連続する2文における遷移確率で構成された文書ベクトル$d_1$,$d_2$を図\ref{vecsample}に示す.図中の``0'',``1''はそれぞれ文書始め,文書終わりを表す.Barzilayらは構文役割をdependencyparserを使って推定しているが,これに対して本論文では構文役割を格助詞によって決定する(表\ref{sr_baseline}).また,文書ベクトルの作成において,考慮する構文役割の遷移はBarzilayらの手法と同様に文3-gramまでとした.\begin{figure}[b]\begin{center}\includegraphics{17-1ia9f2.eps}\end{center}\caption{長さ2の遷移列に基づく文書ベクトル}\label{vecsample}\end{figure}\begin{table}[b]\caption{構文役割}\label{sr_baseline}\input{09table02.txt}\end{table}テキスト一貫性は,対象のテキストについて一貫性がある,一貫性がないといったように絶対的に評価することが困難であるため,Barzilayらはテキストの文の順番を局所的一貫性に基づいて順位付けすることで相対的に評価するモデルを提案している.テキストの順位付けにはスコア関数を導入し,その値を利用する.このスコア関数は,あるテキスト$d_i$の文の順番を並べ替えて生成したテキストを$x_{ij}$,$x_{ik}$とし,$x_{ij}$の方が$x_{ik}$よりも一貫性があるとしたとき,\[{\bfw}\cdot\Phi(x_{ij})>{\bfw}\cdot\Phi(x_{ik})\]という条件を満たすような関数である.この{\bfw}の値は学習によって推定する.このパラメータの学習にはrankingSVMが用いられる.$\Phi(x)$はテキスト$x$の一貫性に関する性質を表す素性ベクトルであり,具体的には上述のテキスト中の要素の遷移確率で構成された文書ベクトルである.モデルの評価は,テキストの文の順番を決定するというタスクを順位付け問題として定式化して行う.即ち,テキストを文の集合と見なし,それから生成できるテキストの順位付けを行う.元のテキストの順番で構成されたテキストの順位が最も高ければ,そのテキストに対する局所的な一貫性の良し悪しを正しく評価できたと見なす.しかし,実際には,同じテキストから生成された異なる文の順番を持つテキストの一貫性を比較することは困難であるため,元テキストとそのテキストから生成された異なる順番を持つテキストのペアに対して比較を行い,どの程度元のテキストの方に高い順位を割り当てることができているかで評価する.この一貫性モデルは,テキスト中の要素の遷移列のみに着目している.参照表現に関しては共参照解析を行い,異なる表現であっても同じ要素を指すものは同一の要素として扱っているが,接続表現や同義語,類義語といったテキストのまとまりに関係しているその他の明示的な特徴は利用されていない. \section{テキスト結束性に関わる要素と構文役割の拡張} 本論文では,Barzilayら\cite{barzilay2008}の局所的な一貫性モデルに対して,テキスト結束性に寄与する,テキストに表層的に現れる文法的要素を考慮することで,その性能の向上を図る.これにより,既存手法では``正しい一貫性を持つテキストの性質''に着目したモデルを構築していたのに対し,本手法では``正しい結束性を持ち,且つ,一貫性を保っているテキストの性質''に着目したモデルを構築できると考えられる.具体的には,\ref{introduction}章で述べたテキスト結束性に寄与する要素を,それぞれ,文書ベクトルへの素性の追加,接続関係毎の遷移確率の計算,意味的な類似性に基づく文中の要素のクラスタリングという形で,局所的な一貫性モデルに組み込む.また,構文役割について,日本語の主題表現を考慮に入れた拡張を行う.\subsection{接続関係毎の遷移確率の計算}本論文では文の展開において接続関係の種類毎に文中の要素の構文役割の遷移の傾向が異なるという仮説を立てる.例えば,ある時点までで主題として述べられていた要素は,話題転換後には全く出現しない,あるいは別の主題の補助的な役割として出現するということが考えられる.この仮説による特徴を捉えるために,文の接続関係毎に遷移確率を計算する.文間の関係の推定には接続表現を利用する.テキスト中の隣接する文に対して,後ろの文の接続詞の種類によって文間の関係を決定する.接続関係には市川の分類\cite{itikawa1978}を採用し,これに基づいて接続詞を表\ref{conjtype}に示すグループに分類する.表中の括弧内の数字はそのグループに属する接続詞の数である.各グループへの接続詞の対応付けは人手で行った.接続詞が存在しない場合はその2文間には連鎖型の接続関係があると見なす.文間の関係の種類毎に遷移確率を計算するため,ベクトルの素性の数は接続関係の数に比例して増加する.このことはデータのスパース性を導くと考えられるので,さらにこの8種類の分類を表\ref{relation}に示す文脈形成の関係に基づく3種類のグループにまとめる.\begin{table}[b]\caption{接続関係の分類}\label{conjtype}\input{09table03.txt}\end{table}\begin{table}[b]\caption{文脈形成の観点に基づく接続関係の分類}\label{relation}\input{09table04.txt}\end{table}\begin{table}[b]\begin{minipage}[t]{.5\textwidth}\begin{center}\includegraphics{17-1ia9f3.eps}\end{center}\figcaption{テキスト例2}\label{sample2}\end{minipage}\hfill\begin{minipage}[t]{.45\textwidth}\caption{図\ref{sample2}に対するentitygrid}\label{egsample2}\input{09table05.txt}\end{minipage}\end{table}図\ref{sample2}に示すテキストとそのentitygrid(表\ref{egsample2})から生成される長さ2の構文役割の遷移確率のベクトルの例を示す.ここで$s_1,\dots,s_4$は文であり,$e_1,\dots,e_3$は文中の要素,図中の下付き文字はその要素の文中での構文役割である.文$s_2$の文頭に接続詞``そして''があり,この接続詞は添加型に属するため,$s_1$と$s_2$間の関係はGroup2となる.$s_2$と$s_3$間,$s_3$と$s_4$間に関しては$s_3$と$s_4$の文頭に接続詞が存在しないので連鎖型と見なしGroup3となる.遷移確率の計算は各関係毎に行う.例えば,Group3の[S-]という構文役割の遷移確率は,Group3の長さ2の全ての遷移の数(即ち,16)に対する[S-]の遷移の数(即ち,1)の割合である0.06となる.図\ref{sample2}のベクトルを図\ref{sample2vector}に示す.SS$_{\rmG_i}$はGroup$i$における構文役割の遷移[SS]の遷移確率を表す.\begin{figure}[t]\begin{center}\includegraphics{17-1ia9f4.eps}\end{center}\caption{接続関係を考慮した文書ベクトルの例(一部)}\label{sample2vector}\vspace{-0.5\baselineskip}\end{figure}\subsection{参照表現}参照表現に関して,本論文ではその先行詞が明示的である指示表現のみを考慮する.``この''や``あの''などの指示形容詞が使われている指示表現はその先行詞が前文に現れることが多い.従って,逆に指示形容詞が出現している文の前文にその先行詞が出現していなければ,その2文間のつながりは悪いと考えることができる.このことを考慮するために,指示形容詞を含む参照表現がその先行詞を前文に含む割合を文書ベクトルの素性として追加する.対象とする指示形容詞は``この''など8種類で,割合は``指示形容詞+名詞''という表現の出現数に対する,その先行詞が前文に現れている場合の数で求める.これは参照表現が正しく機能している割合と見なすことができる.Barzilayらの手法ではgridを作成する際に共参照解析を行い,異なる表現であっても同じ要素を指す場合は同一要素と見なしている.これに対して,本論文では共参照解析は行っていない.\subsection{語彙的結束性に基づいた文中の要素のクラスタリング}Barzilayらのentitygridモデルでは遷移確率を計算する際にそれぞれの要素を独立に扱っている.そのために要素間の関係はモデルに反映されていない.この問題に対して,各要素を意味的なクラスタリングによってまとめ,得られたクラスタを1つの要素として扱うことで対応する.本論文ではクラスタリング手法として日本語語彙大系\cite{goitaikei}の意味体系を利用した手法と語彙的連鎖を利用した手法の2種類を考える.要素をクラスタにまとめた際,同じクラスタにまとめられる要素が1文中に複数存在すると,そのクラスタに対して複数の構文役割が存在することになる.このような場合における構文役割の扱いに対して,次の2種類を考える.\begin{list}{}{}\item[{\bf手法1(1st).}]構文役割の優先順位\footnote{優先順位:S$>$O$>$X.}に基づいて,クラスタに対して1つの構文役割を決定する.\item[{\bf手法2(comb).}]クラスタ中の構文役割を全て利用し,遷移は全組合せを考える.\end{list}図\ref{select}にそれぞれの例を示す.図において,$e_1$,$e_2$,$e_3$は要素であり,$c_1$は$e_2$と$e_3$を含むクラスタである.手法1では,文$s_1$と$s_2$間での$c_1$の遷移は[OS]のみとする.これに対して,手法2では,構文役割の全ての組合せである[OO],[OS],[-O],[-S]を$c_1$の遷移と見なす.\begin{figure}[t]\begin{center}\includegraphics{17-1ia9f5.eps}\end{center}\caption{構文役割の選択}\label{select}\end{figure}\subsubsection{日本語語彙大系を利用したクラスタリング}日本語語彙大系を使って,要素を同じ概念のグループにまとめる.日本語語彙大系は最大12段からなる階層的な構造を持つ意味属性の体系を持つシソーラスである.このそれぞれの意味属性をクラスタとして扱う.テキスト中に出現する各要素に対して,その要素が持つ意味属性を日本語語彙大系から検索する.このうち特定の段において同じ意味属性を有する要素を同じクラスタにまとめる.1つの要素に対して複数の意味属性が存在する場合は,その特定の段の意味属性で見た時に数の多かった意味属性をその要素の意味属性と見なす.\subsubsection{語彙的連鎖を利用したクラスタリング}語彙的連鎖\cite{morris1991}とは意味的に関連している語の列である.この語の列をクラスタとして扱う.本論文ではMochizukiらの手法\cite{mochizuki2000}に基づいて語彙的連鎖を求める.はじめに,単語$X$,$Y$間の共起スコアはコサイン尺度(1)によって求める.\begin{equation}cos(X,Y)=\frac{\sum^n_{i=1}x_i\timesy_i}{\sqrt{\sum^n_{i=1}x^2_i}\times\sqrt{\sum^n_{i=1}y^2_i}}\end{equation}ここで$x_i$,$y_i$はテキスト$i$において単語$X$,$Y$が出現する回数であり,$n$はコーパス中のテキストの数である.次に,2つのクラスタ$C_i$,$C_j$間の類似度は式(2)によって求める.\begin{equation}sim(C_i,C_j)=\underset{X,Y}{\max}\cos(X\inC_i,Y\inC_j)\end{equation}語彙的連鎖の生成アルゴリズムは1文中の要素のクラスタリングとテキスト全体の要素のクラスタリングの2ステップからなり,テキスト中の全ての文に対してこのステップを繰り返し行う.1文中の要素のクラスタリングでは,まずテキストから文を取り出し,その文中のそれぞれの要素を1クラスタと見なして,全てのクラスタのペアに対して式(2)によって類似度を計算する.類似度の最も高いペアの類似度が閾値以上であれば,そのペアをマージする.この処理をマージするペアが無くなるまで繰り返す.次に,テキスト全体のクラスタと先ほど生成した文中のクラスタの全てのペアの類似度を同様に式(2)によって計算する.類似度の最も高いペアの類似度が閾値以上であれば,そのペアをマージする.この処理をマージするペアが無くなるまで繰り返す.\subsection{構文役割の拡張}Barzilayら\cite{barzilay2008}のentitygridモデルではテキストにおいて顕著な使われ方をする要素をそうでない要素と分けて遷移確率を求めている.これは顕著に表れる要素はテキストの主題を表すことが多く,そのような要素は特別な遷移傾向を持つという仮説に基づいている.主題に関しては,日本語の文章では助詞``は''を用いることでその文の主題を明示的に表すことができる.また,主題かどうかというだけでなく,述部に直接係る要素とそうでない要素では文章の展開への寄与が異なると考えられる.これらのことをモデルに組み込むために,本論文ではBarzilayらのentitygridモデルで用いられている4種類の構文役割を表\ref{sr_proposed}に示す主題と述部要素を加えた6種類に拡張する.この構文役割の集合においては,その役割間の優先順位関係をH$>$S$>$O$>$R$>$Xとする(cf.\cite{marilyn1994}).\begin{table}[t]\caption{構文役割(拡張)}\label{sr_proposed}\input{09table06.txt}\end{table} \section{実験と考察} 前章で述べた各要素の評価のために2種類の実験を行った.1つは文順序に関するタスクであり,もう1つは自動要約で生成された要約テキストのランキングのタスクである.実験において性能を評価するモデルと各モデルから生成される文書ベクトルの次元数を表\ref{features}に示す.各モデルに対して接続関係毎に遷移確率を計算してベクトルを作成した場合(+CONJ)と,それを行わなかった場合(noCONJ)の両方で実験を行った.全てのモデルにおいて頻出する要素とそうでない要素に分けてgridを作成する.その閾値はBarzilayらの手法と同様に2とした.BaselineはBarzilayら\cite{barzilay2008}の設定に従ったモデルである.但し,本論文ではBaselineにおいても共参照解析は行わない.\begin{table}[t]\caption{検討するモデル}\label{features}\input{09table07.txt}\end{table}実験では,形態素解析にはMeCab\footnote{http://mecab.sourceforge.net/}を,係り受け解析にはCaboCha\footnote{http://www.chasen.org/\~{}taku/software/cabocha/}を使用した.\subsection{予備実験}\label{pilot}語彙的結束性の考慮において,日本語語彙大系を利用したクラスタリングの際に使用する意味属性の段と語彙的連鎖によるクラスタリングの際の閾値をあらかじめ決定する必要がある.本論文ではこれらの値を予備実験によって決定した.予備実験は表\ref{features}のSC(1st)とLC(1st)のモデルに対して,\ref{sentenceordering}節と同じタスクを行った.使用したデータは朝日新聞コーパスの2003年の記事のうち,``人もの''というカテゴリに分類されている記事100件である.この記事の順番を無作為に並べ替えたものと元の記事を比べて元の記事の方が一貫性があると判定したペアを正解と見なし,その精度が最も良かった値を使用するパラメータとした.日本語語彙大系で用いられている意味属性体系は最大で12段あり1が最も抽象的な概念である.このうち3〜9の段に対して実験を行った.結果を表\ref{goitaikeipilot}に示す.同様に,語彙的連鎖のクラスタのマージに関する閾値について,0.05から0.5まで0.05刻みで値を変えて行った実験の結果を表\ref{lcpilot}に示す.これらの結果から,本実験では語彙的連鎖のクラスタのマージの閾値には0.35を使用した.また,日本語語彙大系を用いたクラスタリングは語彙的連鎖のクラスタリングに比べて,精度が低いことが判明したため,以降の実験では文中の要素のクラスタリングでは語彙的連鎖によるクラスタリングについてのみ行う.\subsection{実験1:テキストの並べ替え}\label{sentenceordering}文順序に関するタスクでは,3章で述べた評価方法と同様にオリジナルのテキストと文の順番を並べ替えたテキストとを比較し,どちらが一貫性があるかを正しく判定できた精度でモデルの評価を行った.\begin{table}[b]\caption{予備実験結果(日本語語彙大系)}\label{goitaikeipilot}\input{09table08.txt}\end{table}\begin{table}[b]\caption{予備実験結果(語彙的連鎖)}\label{lcpilot}\input{09table09.txt}\end{table}\begin{table}[b]\caption{各モデルのコストパラメータの値}\label{costparameter}\input{09table10.txt}\end{table}学習にはSVM$^{light}$\footnote{http://www.cs.cornell.edu/people/tj/svm\_light/}のrankingSVMモードを使用した.コストパラメータ$c$の値については各モデル毎に予備実験で使用したデータを使って10分割交差検定を行い,最も精度が高いものを使用している.各モデルに対する$c$の値を表\ref{costparameter}に示す.また,並べ替えテキスト中の文の順番がオリジナルのテキストの文の順番と大きく異なっていれば,一貫性の判定は容易になると考えられる.このことを検証するために,表\ref{permutation}に示す5種類の並べ替えの比較を行う.swap1はオリジナルのテキストとの差が最も小さく,randomはその差が最も大きくなる.mixはswap1,swap2,swap3の混合であり,swap3よりは差は小さい.本実験では朝日新聞コーパスの2003年分の記事から,``行政改革'',``医療'',``教育''というカテゴリに該当するもので,1記事あたり10文以上で構成されているものを使用した.データセット中に含まれる記事のカテゴリの割合は均等になるように調整している.オリジナルのテキストと比較する並べ替えテキストに関して,表\ref{permutation}に示す各並べ替えの種類のそれぞれにおいて,1つの記事に対して20個の並べ替えテキストを生成した.この比較する並べ替えのテキストの数に関して,Karamanis\cite{karamanis2006}はセンタリング理論に基づいた手法に対して,信頼できる結果を得るために100,000個の並べ替えテキストを生成して評価を行っているが,我々はentitygridに基づいたモデルを用いており,このモデルでの精度向上を目的としているため,使用する並べ替えテキストの数はBarzilayら\cite{barzilay2008}の実験の設定にあわせている.\begin{table}[b]\caption{並べ替えの種類}\label{permutation}\input{09table11.txt}\end{table}実験はデータセットに対して10分割交差検定を行い,テストデータ中の各ペアにおいてオリジナルのテキストの方が一貫性があると判定されたペアの割合で評価した.表\ref{exp1_model}に100記事,300記事に対してmixの並べ替えを行ったデータを用いた各モデルの結果を示す.``noCONJ''は各モデルにおいて接続関係毎の遷移確率の計算を行わなかった場合,``+CONJ''は接続関係毎の遷移確率の計算を行った場合を示す.表中の太字の数値は使用したデータにおいて最も良かったものを表し,斜字はベースライン(接続関係を未考慮のBaseline)を下回ったものを表す.また,右肩の記号$^{**}(p<0.01)$,$^{*}(p<0.05)$は符号検定においてベースラインの精度と有意な差があることを示す.全体としては,いくつかベースラインを下回っているものがあるものの,多くのモデルにおいてベースラインを有意に上回る結果を得ることができた.接続関係毎に遷移確率を計算したモデル(``+CONJ''の列)の方がそうでないモデル(``noCONJ''の列)に比べて良い結果を示している.特に各データセットにおいて接続関係のタイプを考慮したモデルが最も良い精度を得ており,文脈の展開を明示的に示す接続表現から得られる接続関係が一貫性の判定に有用であることを示している.\begin{table}[t]\caption{モデル別の結果(実験1)}\label{exp1_model}\input{09table12.txt}\end{table}gridから作成される文書ベクトルの素性は構文役割の遷移の組合せの数だけ存在する.従って,構文役割を拡張したモデル(SR(H))はベースラインのモデルに比べて素性の数が多くなり,データが少なかった時の影響が顕著に表れると考えられる.また,参照表現については少数の明示的な指示形容詞のみに限定したため,参照表現を考慮したモデル(REF)でもそれほど差が出なかったと考えられる.語彙的結束性に基づいたクラスタリングを行ったモデルでは良好な結果を得ることができた.本論文で提案した要素の全てを考慮したモデルは,全ての場合で最良の結果を得ることはなく語彙的結束性のみを考慮したモデルを下回った場合もあった.これは構文役割を拡張したモデルと同様に,全ての要素を考慮したモデルと語彙的結束性のみを考慮したモデルとでは文書ベクトルの次元の数が異なることが影響していると考えられる.本論文で用いている一貫性モデルではモデルの学習に必要なデータは人間が書いたテキストのみであり,学習のために特別な情報を付与する必要はない.従って,学習データの作成に必要なコストはほとんどない.そこで,データを更に増やして実験を行った.この実験ではベースラインのモデル(Baseline),構文役割を拡張したモデル(SR(H)),全ての要素を考慮したモデル(ALL-LC(comb)),接続関係毎に遷移確率を計算したモデル(+CONJ,Baseline)と全ての要素を考慮した接続関係毎に遷移確率を計算したモデル(+CONJ,ALL-LC(comb))のみを使用した.結果を表\ref{exp1_add_tab}に,そのグラフを図\ref{exp1_add}に示す.接続関係毎の遷移確率を考慮したモデルはそうでないモデルに比べて,データが増加するにつれて精度が向上することが明らかになった.一方,構文役割を拡張したモデルはデータを増やしていってもベースラインに比べてあまり向上は見られなかった.表\ref{exp1_data}に並べ替えの種類毎での結果を示す.比較するテキストの差と問題の難易度との関係については,差が一番小さいswap1では精度が最も低く,一番大きいrandomでは精度が最も高くなっており,仮説通りの結果が得られた.また,全てのデータセットにおいてBaselineと比べて本論文のモデルの方が良好な結果を得ることができた.\begin{table}[t]\caption{データ増加時の精度(実験1)}\label{exp1_add_tab}\input{09table13.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{17-1ia9f6.eps}\end{center}\caption{データ増加時の精度(実験1)}\label{exp1_add}\end{figure}\begin{table}[t]\caption{データ別の結果(実験1)}\label{exp1_data}\input{09table14.txt}\end{table}\subsection{実験2:要約文書の比較}\ref{sentenceordering}節で行った実験では,あるテキストとそのテキスト中の文の順番を並べ替えたものとを比較している.このため比較する2つのテキストの単語の出現頻度分布は等しいと言える.しかし,実際にはこのような状況は稀であると考えられる.例えば,自動要約の評価においては同じ元文書から生成された要約を用いてシステムの評価を行う.元文書が同じであっても,システム毎に異なる要約が生成されることがあり,これらの単語の出現傾向は異なると考えられる.そこで,実際に自動要約システムによって生成された要約を比較し,どちらが一貫性があるかを判定するという実験を行った.実験に使用したデータはNTCIR-4\footnote{http://research.nii.ac.jp/ntcir/ntcir-ws4/ws-en.html}\cite{ntcir4}のサブタスクであったTSC3(TextSummarizationChallenge3)\footnote{http://www.lr.pi.titech.ac.jp/tsc/index-en.html}に提出された要約である.TSC3では11のシステムが30件の元文書に対してそれぞれ長短2種類の要約を生成している.このうち実際に要約文が出力されている657件の要約を使用した.それぞれの要約には被験者による評価結果が付与されている.この評価では,被験者は15個のQualityquestionと呼ばれるテキストの質に関するチェック項目\cite{hirao2004}が示され,各項目毎にスコアを付ける.このQualityquestionは主に要約の読みやすさに対する質問で構成されている.本実験では特に一貫性に関係する項目のスコアのみに着目し,これらから要約の一貫性に関するスコアを計算し比較を行った.要約のスコアの決定について述べる.TSC3で用いられた15個のチェック項目のうち,付録\ref{qq}に示す8個の項目のスコアを利用した.それぞれチェック項目のスコアは各項目の内容に該当する箇所の個数であり,$qq_2$〜$qq_8$については$qq_1$の項目に当てはまった重複文は除外して数えられている.以上より,要約$S$のスコア$score(S)$を以下の式によって求める.\begin{equation}score(S)=\frac{N(qq_2)+\dots+N(qq_8)}{length(S)-N(qq_1)}+\frac{N(qq_1)}{length(S)}\end{equation}ここで,$N(qq_i)$はチェック項目$qq_i$のスコアであり,$length(S)$は要約$S$の文数である.$qq_8$の回答は``矛盾している'',``どちらともいえない'',``矛盾していない''のいずれかであり,これらのスコアは順に1,0.5,0として$N(qq_8)$の値とした.各スコアは文章中のおかしな箇所の個数であることから,$score(S)$は小さい方が良いテキスト,即ち,本実験においては一貫性が高いと考える.この$score(S)$を用いて,本実験では同じテキストから生成された異なるシステムによる同じ長さの要約のペアに対し,どちらの要約が一貫性があるかを判定する.従って,タスクとしては実験1と同じものとなる.比較する要約のスコアが等しいペアは除外する.テキスト一貫性の判定を実際に利用する状況では,判定が必要なデータを訓練データに用いることはできず,別に訓練データを用意する必要がある.このことを考慮して,本実験では交差検定ではなく\ref{sentenceordering}節の実験において作成した300記事とそのmixの並べ替えを訓練データとして用い,それによって得られたモデルを用いて判定を行った.実験に使用した学習器や各パラメータの値は\ref{sentenceordering}節での実験と同じである.また,\ref{sentenceordering}節の実験と同様に,比較するテキストの差による精度の違いの検証も行った.本実験ではそれぞれの要約のスコアの差が大きければ,一貫性の判定は容易になると考えられる.そこで比較する要約のペアのスコアの差を0から2.0まで0.5刻みでの範囲で分割し,それぞれでの精度を計算した.用いたテストデータ全てに対する,各モデルの精度を表\ref{exp2_model}に示す.表中の記号,字体の意味については前節の実験と同様である.\begin{table}[b]\caption{モデル別の結果(実験2)}\label{exp2_model}\input{09table15.txt}\end{table}学習データとテストデータのドメインが異なるために,前節の実験に比べて全体的な精度は低くなっているが,提案したほぼ全てのモデルにおいてベースラインよりも良い精度を得ることができた.接続関係を考慮したモデル(表中の``+CONJ''の列)とそうでないモデル(表中の``noCONJ''の列)では,最も良い精度を得られたモデルは接続関係を考慮しない場合でのものであったが,それぞれのモデルにおいての接続関係の考慮の有無による違いでは考慮した方が良い精度を示しているものが多くなっている.本実験においても,構文役割の拡張(SR(H))や参照表現の考慮(REF)を組み込んだモデルは,ほとんど改善が見られなかった.これは前節の実験結果と同様であった.語彙的結束性に基づくクラスタリングにおいても,同様にベースラインを上回る結果を得ることができた.比較した要約のスコアの差が小さければ,それらの一貫性を判定することが困難になると考えられる.そこでテストデータの各ペアのスコアの差毎の精度を求めた.その結果を表\ref{exp2_data}に示す.1行目のラベルの括弧の中の数字はその範囲に該当する要約ペアの数である.差が2.0より大きいペアについては,該当するペアの数が多くなかったため省略している.要約のスコアの差と精度の関係については,こちらも仮説通りスコアの差が小さければ判定は難しくなり,差が大きくなれば判定は容易であるという結果になった.本実験で用いたTSCのデータは1つの元文書に対して複数のシステム要約が存在しており,上述の計算式で求められたスコアに基づいて同じ元文書から生成された要約を順位付けすることができる.そこで要約のペアの比較ではなく,同一文書から生成された要約の順位を推定するという実験を行った.使用したモデルは前述の実験と同じ300記事とそのmixの並べ替えのデータで学習したものである.評価にはSpearmanの順位相関係数の平均を使用した.結果を表\ref{rankcor}に示す.\begin{table}[t]\caption{スコアの差毎の結果(実験2)}\label{exp2_data}\input{09table16.txt}\end{table}\begin{table}[t]\caption{順位相関(実験2)}\label{rankcor}\input{09table17.txt}\end{table}ベースラインに比べて提案したモデルに高い相関を示すものがあったが,全体的に相関は低いという結果が得られた.これは特にスコアの差が小さい場合での判定精度が影響していると考えられる.本実験結果から,ベースラインと比べると,ある程度実際にテキスト一貫性の判定を行うような設定においても本論文で提案したモデルの方が有効であることが明らかになった.しかし,その精度は高いとは言えず,改良の余地がある. \section{おわりに} 本論文では接続関係,参照表現,語彙的結束性といった結束装置,また,日本語に特化した構文役割をentitygridモデルに組み込むことで,結束性を考慮したテキストの局所的な一貫性モデルを提案し,その有効性の検証を行った.実験から,提案モデルがテキスト一貫性の高いテキストの判定と自動要約によって作成されたテキストの評価の2つのタスクにおいて,オリジナルのentitygridモデルを上回るということを示した.entitygridによるテキストの一貫性モデルはテキストにおける文中の要素の遷移に着目したものである.本論文ではその要素の遷移は文脈の展開によって違う傾向を示すという仮説を立て,文脈展開の種類を明示的に示す働きを持つ接続関係に着目し,その種類毎にgridを作成するというモデルを提案した.実験の結果,接続関係を考慮したモデルの方がそうでないモデルに比べて良い結果を得ることができ,この仮説がテキストの一貫性の評価において有効であることを示した.また,その他の項目についても一貫性の評価において有効であることを示した.本論文で採用したentitygridに基づいた局所的一貫性のモデルでは,テキストを1つのベクトルとして扱うため,テキスト全体についての一貫性の判定は行えても,テキストの部分についての一貫性の評価は行えない.テキストの部分の一貫性の評価は,小論文の自動評価など教育の現場での利用において有用であると考えられる.また,例えばテキストにおいて一貫性の悪い箇所の数を用いるなどによって,テキストの部分の一貫性の評価をテキスト全体の評価に用いることも可能であると考えられる.このことから,テキスト内の部分的な単位での一貫性の評価手法の提案が今後の課題である.\bibliographystyle{jnlpbbl_1.4}\begin{thebibliography}{}\bibitem[\protect\BCAY{Barzilay\BBA\Lapata}{Barzilay\BBA\Lapata}{2005}]{barzilay2005}Barzilay,R.\BBACOMMA\\BBA\Lapata,M.\BBOP2005\BBCP.\newblock\BBOQModelingLocalCoherence:anEntity-basedApproach.\BBCQ\\newblockIn{\BemProceedingsofthe43rdAnnualMeetingoftheAssociationforComputationalLinguistics(ACL'05)},\mbox{\BPGS\141--148}.\bibitem[\protect\BCAY{Barzilay\BBA\Lapata}{Barzilay\BBA\Lapata}{2008}]{barzilay2008}Barzilay,R.\BBACOMMA\\BBA\Lapata,M.\BBOP2008\BBCP.\newblock\BBOQModelingLocalCoherence:AnEntity-BasedApproach.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf34}(1),\mbox{\BPGS\1--34}.\bibitem[\protect\BCAY{Barzilay\BBA\Lee}{Barzilay\BBA\Lee}{2004}]{barzilay2004}Barzilay,R.\BBACOMMA\\BBA\Lee,L.\BBOP2004\BBCP.\newblock\BBOQCatchingtheDrift:ProbabilisticContentModels,withApplicationstoGenerationandSummarization.\BBCQ\\newblockIn{\BemHLT-NAACL2004:MainProceedings},\mbox{\BPGS\113--120}.\bibitem[\protect\BCAY{Elsner,Austerweil,\BBA\Charniak}{Elsneret~al.}{2007}]{elsner2007}Elsner,M.,Austerweil,J.,\BBA\Charniak,E.\BBOP2007\BBCP.\newblock\BBOQAUnifiedLocalandGlobalModelforDiscourseCoherence.\BBCQ\\newblockIn{\BemHumanLanguageTechnologies2007:TheConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics;ProceedingsoftheMainConference},\mbox{\BPGS\436--443}.\bibitem[\protect\BCAY{Elsner\BBA\Charniak}{Elsner\BBA\Charniak}{2008}]{elsner2008}Elsner,M.\BBACOMMA\\BBA\Charniak,E.\BBOP2008\BBCP.\newblock\BBOQCoreference-inspiredCoherenceModeling.\BBCQ\\newblockIn{\BemProceedingsofACL-08:HLT,ShortPapers},\mbox{\BPGS\41--44}.\bibitem[\protect\BCAY{Filippova\BBA\Strube}{Filippova\BBA\Strube}{2007}]{katja2007}Filippova,K.\BBACOMMA\\BBA\Strube,M.\BBOP2007\BBCP.\newblock\BBOQExtendingtheEntity-gridCoherenceModeltoSemanticallyRelatedEntities.\BBCQ\\newblockIn{\BemProceedingsofthe11thEuropeanWorkshoponNaturalLanguageGeneration}.\bibitem[\protect\BCAY{Grosz,Weinstein,\BBA\Joshi}{Groszet~al.}{1995}]{grosz1995}Grosz,B.~J.,Weinstein,S.,\BBA\Joshi,A.~K.\BBOP1995\BBCP.\newblock\BBOQCentering:aFrameworkforModelingtheLocalCoherenceofDiscourse.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf21}(2),\mbox{\BPGS\203--225}.\bibitem[\protect\BCAY{Halliday\BBA\Hasan}{Halliday\BBA\Hasan}{1976}]{halliday1976}Halliday,M.A.~K.\BBACOMMA\\BBA\Hasan,R.\BBOP1976\BBCP.\newblock{\BemCohesioninEnglish}.\newblockLongman,London.\bibitem[\protect\BCAY{Hirao,Okumura,Fukushima,\BBA\Nanba}{Hiraoet~al.}{2004}]{hirao2004}Hirao,T.,Okumura,M.,Fukushima,T.,\BBA\Nanba,H.\BBOP2004\BBCP.\newblock\BBOQTextSummarizationChallenge3-TextsummarizationevaluationatNTCIRWorkshop4.\BBCQ\\newblockWorkingNotesofthe4thNTCIRWorkshopMeeting.\bibitem[\protect\BCAY{市川}{市川}{1978}]{itikawa1978}市川孝\BBOP1978\BBCP.\newblock\Jem{国語教育のための文章論概説}.\newblock教育出版.\bibitem[\protect\BCAY{池原\JBA宮崎\JBA白井\JBA横尾\JBA中岩\JBA小倉\JBA大山\JBA林}{池原\Jetal}{1997}]{goitaikei}池原悟\JBA宮崎正弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{庵}{庵}{2007}]{iori2007}庵功雄\BBOP2007\BBCP.\newblock\Jem{日本語におけるテキストの結束性の研究}.\newblockくろしお出版.\bibitem[\protect\BCAY{板倉\JBA白井\JBA黒岩\JBA小高\JBA小倉}{板倉\Jetal}{2008}]{itakura2008}板倉由知\JBA白井治彦\JBA黒岩丈介\JBA小高知宏\JBA小倉久和\BBOP2008\BBCP.\newblock単語の概念関係を用いた段落一貫性評価指標の有効性.\\newblock\Jem{情報処理学会研究報告NL-183}.\bibitem[\protect\BCAY{Kando}{Kando}{2004}]{ntcir4}Kando,N.\BBOP2004\BBCP.\newblock\BBOQOverviewoftheFourthNTCIRWorkshop.\BBCQ\\newblockWorkingNotesofthe4thNTCIRWorkshopmeeting.\bibitem[\protect\BCAY{Karamanis}{Karamanis}{2006}]{karamanis2006}Karamanis,N.\BBOP2006\BBCP.\newblock\BBOQEvaluatingCenteringforSentenceOrderinginTwoNewDomains.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNAACL,CompanionVolume:ShortPapers},\mbox{\BPGS\65--68}.\bibitem[\protect\BCAY{Lin}{Lin}{2004}]{lin2004}Lin,C.-Y.\BBOP2004\BBCP.\newblock\BBOQROUGE:APackageforAutomaticEvaluationofSummaries.\BBCQ\\newblockIn{\BemProceedingsofWorksoponTextSummarizationBranchesOut,PostConferenceWorkshopofACL2004},\mbox{\BPGS\74--81}.\bibitem[\protect\BCAY{Lin\BBA\Hovy}{Lin\BBA\Hovy}{2003}]{lin2003}Lin,C.-Y.\BBACOMMA\\BBA\Hovy,E.\BBOP2003\BBCP.\newblock\BBOQAutomaticEvaluationofSummariesUsingN-gramCo-OccurrenceStatistics.\BBCQ\\newblockIn{\BemProceedingsofHLT-NAACL-2003}.\bibitem[\protect\BCAY{Miltsakaki\BBA\Kukich}{Miltsakaki\BBA\Kukich}{2004}]{miltsakaki2004}Miltsakaki,E.\BBACOMMA\\BBA\Kukich,K.\BBOP2004\BBCP.\newblock\BBOQEvaluationofTextCoherenceforElectronicEssayScoringSystems.\BBCQ\\newblock{\BemNaturalLanguageEngineering},{\Bbf10}(1),\mbox{\BPGS\25--55}.\bibitem[\protect\BCAY{Mochizuki,Iwayama,\BBA\Okumura}{Mochizukiet~al.}{2000}]{mochizuki2000}Mochizuki,H.,Iwayama,M.,\BBA\Okumura,M.\BBOP2000\BBCP.\newblock\BBOQPassage-LevelDocumentRetrievalUsingLexicalChains.\BBCQ\\newblockIn{\BemProceedingsofRIAO2000},\mbox{\BPGS\491--506}.\bibitem[\protect\BCAY{Morris\BBA\Hirst}{Morris\BBA\Hirst}{1991}]{morris1991}Morris,J.\BBACOMMA\\BBA\Hirst,G.\BBOP1991\BBCP.\newblock\BBOQLexicalCohesionComputedbyThesauralRelationsasanIndicatoroftheStructureofText.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf17}(1),\mbox{\BPGS\21--48}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni2002}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:aMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Soricut\BBA\Marcu}{Soricut\BBA\Marcu}{2006}]{soricut2006}Soricut,R.\BBACOMMA\\BBA\Marcu,D.\BBOP2006\BBCP.\newblock\BBOQDiscourseGenerationUsingUtility-TrainedCoherenceModels.\BBCQ\\newblockIn{\BemProceedingsoftheCOLING/ACL2006MainConferencePosterSessions},\mbox{\BPGS\803--810}.\bibitem[\protect\BCAY{田窪\JBA西山\JBA三藤\JBA亀山\JBA片桐}{田窪\Jetal}{2004}]{danwa}田窪行則\JBA西山佑司\JBA三藤博\JBA亀山恵\JBA片桐恭弘\BBOP2004\BBCP.\newblock\Jem{談話と文脈}.\newblock言語の科学7.岩波書店.\bibitem[\protect\BCAY{Walker,Iida,\BBA\Cote}{Walkeret~al.}{1994}]{marilyn1994}Walker,M.,Iida,M.,\BBA\Cote,S.\BBOP1994\BBCP.\newblock\BBOQJapaneseDiscourseandtheProcessofCentering.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf20}(2),\mbox{\BPGS\193--232}.\end{thebibliography}\appendix \section{スコアの計算に使用したQualityquestion} label{qq}\begin{list}{}{}\item[${\bfqq_1}$.]同一の,あるいはほぼ重複する文はいくつあるか?\item[${\bfqq_2}$.](ゼロ)代名詞化,指示表現化すべき箇所はいくつあるか?\item[${\bfqq_3}$.]先行詞のない指示表現はいくつあるか?\item[${\bfqq_4}$.]固有表現の出現位置がおかしい箇所はいくつあるか?\item[${\bfqq_5}$.]同一事物を参照する表現の一貫性という観点から修正すべき表現はいくつあるか?\item[${\bfqq_6}$.](前後の文脈も踏まえた上で)必須要素が欠如している箇所はいくつあるか?\item[${\bfqq_7}$.]接続詞が必要・不必要な箇所はいくつあるか?\item[${\bfqq_8}$.]時系列の関係が矛盾してないか?\end{list}\begin{biography}\bioauthor{横野光(正会員)}{2003年岡山大学工学部情報工学科卒.2008年同大大学院自然科学研究科産業創成工学専攻単位取得退学.博士(工学).同年東京工業大学精密工学研究所研究員,現在に至る.自然言語処理の研究に従事.情報処理学会,言語処理学会各会員.}\bioauthor{奥村学(正会員)}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.工学博士.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在に至る.自然言語処理,知的情報提示技術,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会.AAAI,言語処理学会,ACL,認知科学会,計量国語学会各会員.\\[email protected],http://oku-gw.pi.titech.ac.jp/{\textasciitilde}oku/}\end{biography}\biodate\end{document}
V19N05-04
\section{はじめに} 感染症の流行は,毎年,百万人を越える患者を出しており,重要な国家的課題となっている\cite{国立感染症研究所2006}.特に,インフルエンザは事前に適切なワクチンを準備することにより,重篤な状態を避けることが可能なため,感染状態の把握は各国における重要なミッションとなっている\cite{Ferguson2005}.この把握は\textbf{インフルエンザ・サーベイランス}と呼ばれ,膨大なコストをかけて調査・集計が行われてきた.本邦においてもインフルエンザが流行したことによって総死亡がどの程度増加したかを示す推定値({\bf超過死亡概念による死者数})は毎年1万人を超えており\cite{大日2003},国立感染症研究所を中心にインフルエンザ・サーベイランスが実施され,その結果はウェブでも閲覧することができる\footnote{https://hasseidoko.mhlw.go.jp/Hasseidoko/Levelmap/flu/index.html}.しかし,これらの従来型の集計方式は,集計に時間がかかり,また,過疎部における収集が困難だという問題が指摘されてきた\footnote{http://sankei.jp.msn.com/life/news/110112/bdy11011222430044-n1.htm}.このような背景のもと,近年,ウェブを用いた感染症サーベイランスに注目が集まっている.これらは現行の調査法と比べて,次のような利点がある.\begin{enumerate}\item{\bf大規模}:例えば,日本語単語「インフルエンザ」を含んだTwitter上での発言は平均1,000発言/日を超えている(2008年11月).このデータのボリュームは,これまでの調査手法,例えば,本邦における医療機関の定点観測の集計を圧倒する大規模な情報収集を可能とする.\item{\bf即時性}:ユーザの情報を直接収集するため,これまでにない早い速度での情報収集が可能である.早期発見が重視される感染症の流行予測においては即時性が極めて重要な性質である.\end{enumerate}以上のように,ウェブを用いた手法は,感染症サーベイランスと相性が高い.ウェブを用いた手法は,ウェブのどのようなサービスを材料にするかで,様々なバリエーションがあるが,本研究では近年急速に広まりつつあるソーシャルメディアのひとつであるTwitterに注目する.しかしながら,実際にTwitterからインフルエンザに関する情報を収集するのは容易ではない.例えば,単語「インフルエンザ」を含む発言を収集すると,以下のような発言を抽出してしまう:\begin{enumerate}\itemカンボジアで鳥インフルエンザのヒト感染例、6歳女児が死亡(インフルエンザに関するニュース)\itemインフルエンザ怖いので予防注射してきました(インフルエンザ予防に関する発言)\itemやっと...インフルエンザが治った!(インフルエンザ完治後の発言)\end{enumerate}上記の例のように,単純な単語の集計では,実際に発言者がインフルエンザにかかっている本人(本稿では,{\bf当事者}と呼ぶ)かどうかが区別されない.本研究では,これを文書分類の一種とみなして,SupportVectorMachine(SVM)\cite{Vapnik1999}を用いた分類器を用いて解決する.さらに,この当事者を区別できたとしても,はたして一般の人々のつぶやきが正確にインフルエンザの流行を反映しているのかという情報の正確性の問題が残る.例えば,インフルエンザにかかった人間が,常にその病態をソーシャルメディアでつぶやくとは限らない.また,つぶやくとしても時間のずれがあるかもしれない.このように,不正確なセンサーとしてソーシャルメディアは機能していると考えられる.この不正確性は医師の診断をベースに集計する従来型のサーベイランスとの大きな違いである.実際に実験結果では,人々は流行前に過敏に反応し,流行後は反応が鈍る傾向があることが確認された.すなわち,ウェブ情報をリソースとした場合,現実の流行よりも前倒しに流行を検出してしまう恐れがある.本研究では,この時間のずれを吸収するために,感染症モデル\cite{Kermack1927}を適応し補正を行う.本論文のポイントは次の2点である:\begin{enumerate}\itemソーシャルメディアの情報はノイズを含んでいる.よって,文章分類手法にてこれを解決する.\itemソーシャルメディアのインフルエンザ報告は不正確である.これにより生じる時間的なずれを補正するためのモデルを提案する.\end{enumerate}本稿の構成は,以下のとおりである.2節では,関連研究を紹介する.3節では,構築したコーパスについて紹介する.4節では,提案する手法/モデルについて説明する.5節では,実験について報告する.6節に結論を述べる. \section{関連研究} これまで,インフルエンザの流行予測は,政府主導のトップダウンな集計が中心であったが(2.1節),現在では,ICT技術を用いた大規模な調査方法が検討されている(2.2節).近年では,検索クエリやソーシャルメディアなどウェブの情報を利用した研究が行われている(2.3節).\subsection{現在行われている調査方法}インフルエンザの流行に対しては,事前の十分なワクチン準備が必須の対応となるため,世界各国で共通の課題として対策が行われてきた.このため,多くの国で,自国の感染症調査のための機関が組織されている.例えば,アメリカではCentersforDiseaseControlandPrevention(CDC)\footnote{http://www.cdc.gov/},EUはEUInfluenzaSurveillanceScheme(EISS)\footnote{http://ecdc.europa.eu/en/activities/surveillance/EISN/Pages/index.aspx}を運営している.本邦では,国立感染症研究所(InfectionDiseaseSurveillanceCenter;IDSC)の感染症情報センター\footnote{http://idsc.nih.go.jp/}がこの役目を担っている.これらの機関は主としてウイルスの遺伝子解析,国民の抗体保有状況や協力体制にある医療機関からの報告に頼って集計を行っている.例えば,IDSCは全国約5,000の診療所から情報を集め,集計結果を発表している.ただし,この集計には時間がかかるため,1週間前の流行状況が発表される.この遅延のため,発表時にはすでに流行入りしている可能性があり,より迅速な情報収集への期待が高まっている.\subsection{新しい調査方法}より早くインフルエンザの流行を捉えるため様々な手法が提案されている.Espinoetal.\cite{Espino2003}は電話トリアージ・アドバイス(電話を通じて医療アドバイスを行う公共サービス)に注目し,一日の電話コールの回数がインフルエンザの流行と相関していることを明らかにした.後の追試でもその有効性は確かめられている\cite{Yih2009}.Magruder\citeyear{Magruder2003}は,インフルエンザ市販薬の販売量(over-the-counterdrugsales)に注目した.ただし,本邦ではインフルエンザ薬の購入には処方が必要となっているように,この手法は万国で有効な手段ではない.このため,近年,薬事法など国ごとの制度に依存しない手法としてウェブが注目されている.\subsubsection{ログ・ベースの手法}近年,もっとも注目されている手法はGoogleのウェブ検索クエリを用いた手法\cite{Ginsberg2009}である.彼らはインフルエンザ流行と相関のある検索クエリ(相関係数の高い上位50語)を調査し,それらをモニタリングすることで,インフルエンザの予測を行っている.彼らの予測は,アメリカのCDC報告との相関係数0.97(最小値0.92;最大値0.99)という高い精度を報告している.同様のアイデアにもとづいた研究は他にも報告されている.例えば,Polgreenetal.はYahoo!のクエリを用いて同精度の予測を行った\cite{Polgreen2009}.Hulthetal.はスイス国内のウェブ検索会社のクエリを用いた\cite{Hulth2009}.Johnsonetal.は健康情報に関するウェブサイト「HealthLink」の閲覧のアクセスログを用いた\cite{Johnson2004}.これらは,それぞれ異なった情報源を用いているものの,患者の行動を直接調査するという観点からは同様のアプローチであるとみなせる.このアプローチは,多くの情報を即時的に収集することができるが,これを実現可能なのは,サービス・プロバイダのみという問題が残る.例えば,ウェブ検索クエリをリアルタイムに利用できる機関はGoogle,Yahoo!やMicrosoftといったいくつかのサービス・プロバイダに限定されてしまう.\subsubsection{ソーシャルメディアベースの手法}前述したように,ログ・ベースの手法はサービス・プロバイダに依存してしまうため,より利用が容易であるソーシャルメディアを情報源とした手法も2010年から開始されている.その中でも特にTwitterは,1.2億ユーザが参加しており,550万ツイートが毎日やりとりされている(2011年3月現在).このデータ量と即時性はクエリログに匹敵するため,感染症の把握について多くの研究が行われてきた\cite{Lampos2010,Culotta2010,Paul2011,Aramaki2011,Tanida2011}.これらの研究は,表\ref{t_relwork}のように,単語選択,発言の分類などの観点から分類できる.\begin{table}[b]\caption{ソーシャルメディア・ベースの疾患サーベイランス研究の分類}\label{t_relwork}\input{04table01.txt}\end{table}まず,この単語選択の問題に対しては,経験則で「風邪」や「インフルエンザ」などのキーワードとなる単語を選択し,その頻度を集計することが考えられ,これまでの多くの先行研究はこの手法をとっている\cite{Culotta2010,Aramaki2011}.これに対し,最近では統計的に単語の選択を行った手法が模索されている.例えば,L1正規化を用いて単語の次元を圧縮する方法\cite{Lampos2010},疾患をある種のトピックとみたてトピックモデルを用いる方法\cite{Paul2011}や,素性選択の手法を適応する研究\cite{Tanida2011}が試みられた.本研究では,これらの最新の単語選択手法を用いず,経験的に語を決めているが,単語選択と組み合わせることで,さらに精度を高めることが可能であり,今後の課題としたい.次に,いかに罹患した発言を集計するかという問題(分類問題)がある.この問題に対しては,高橋ら\citeyear{Takahashi2011}がBoostingを用いた文章分類,Aramakiet~al.\citeyear{Aramaki2011}がSVMによる分類手法を提案している.本研究では後者を用いた.以上の2つの単語選択問題と分類問題が,これまでの研究で扱われてきた主な問題であった.これに加え,本研究では,1節にて指摘したように,そもそもウェブから得られる情報は不正確である可能性に注目し,これを補正するために感染症モデルを用いる. \section{インフルエンザ・コーパス} 実際に発言者がインフルエンザにかかっている当事者かどうかを分類するためには,コーパスが必要となる.本節ではこのコーパスの構築方法とその統計について述べる.まず,材料として,2008年11月から2010年7月にかけてTwitterAPIを用いて30億発言を収集した.次に,そこから「インフルエンザ」という語を含む発言を抽出した.この結果40万発言が得られ,データを次の2つの領域に分割した.\begin{enumerate}\item{\bfトレーニング・データ}:2008年11月から無作為に5,000発言.それぞれの発言について人手で,発言者が実際にインフルエンザにかかっているかどうか(当事者かどうか)を判定した.判定の結果,発言者が実際にインフルエンザにかかっている場合をポジティブな発言とみなし(本稿では{\bf陽性発言}と呼ぶ),逆にインフルエンザにかかっていない場合をネガティブな発言({\bf陰性発言})とみなす.\item{\bfテスト・データ}:残りのデータ.後述する実験に用いる.\end{enumerate}陽性発言と陰性発言の区別は,以下の除外基準に照らし1つでも該当するものがあれば陰性発言とみなした.\begin{enumerate}\item{\bf非当事者}:発言者(または,発言者と同一都道府県近郊の人間)のインフルエンザについてのみ扱い,それ以外の発言は除外する(陰性発言とみなす).居住地が正確に分からない場合は陰性発言とみなす.例えば,「インフルエンザが実家で流行っている」では,「実家」の所在が不正確であるので,陰性発言とみなす.\item{\bf不適切な時制}:現在または近い過去のインフルエンザのみ扱い,それ以外の発言は除外する.ここでいう「近い過去」とは24時間以内とする.例えば,「{\bf昨年}はひどいインフルエンザで参加できなかった」は,陰性発言とみなす.\item{\bf否定/不適切なモダリティ}:「インフルエンザでなかった」等の否定の表現(ネゲーション)は除外する.また,疑問文や「かもしれない」と不確定な発言は基準を満たさないものとする.ここでいうモダリティとは狭義のモデリティの他に法(仮定法),表現類型(疑問文,命令文),価値判断(必要,許可)をも含む.例えば,「インフルにでもかかってしまえ」(命令文)や,「インフルエンザだとしても,熱がないのが不思議」(仮定法)は陰性発言とみなす.\item{\bf比喩的表現}:実際の疾患としての「インフルエンザ」を指さない表現は除外する.例えば,「インフルエンザ的な感染力じゃないですか!RT@■■■:朝からPCの調子が悪く困っています」におけるインフルエンザは,コンピューターウィルスをインフルエンザと比喩しており陰性発言とみなす.\end{enumerate}詳細な基準についてはアノテーション・ガイドラインを公開し,実際の用例とともに参照できるようにしている\footnote{http://www.mednlp.jp/resources/}.また,構築したコーパスについても同サイトにて配布している.なお,陽性発言/陰性発言のアノテーター間(3人)の平均一致率は84\%であった.トレーニング・データについてアノテートした結果,およそ半数の発言が陰性発言となった.すなわち,発言分類を行わない場合,半分近い発言はノイズとなっていることになる.ここで,陰性発言の一部(546発言)について,原因の割合を調査した(表\ref{t_内訳}).陰性発言となる主要な要因は広告であることが分かる.\begin{table}[t]\caption{コーパスの分類結果}\label{t_内訳}\input{04table02.txt}\end{table} \section{提案手法} 提案手法は,陽性発言と陰性発言を分類する手法(4.1節)と,集計の時間的なずれを補正する手法(4.2節)の2つからなる.\subsection{文章分類器を用いた発言の分類}前節にて述べたように,Twitterの発言の約半数は陰性発言となってしまう.そこで,前章にて述べたコーパスを用いて,発言を分類することでこれを解決する.このタスクは,スパムメール・フィルタリングや評価表現分析といった文の分類タスクと類似しており,本研究では,これらの研究で一般的な手法である機械学習による手法を用いる.\begin{description}\item{\bf【学習アルゴリズム】}学習アルゴリズムは先行研究(Aramakietal.2011)で使われていたSVMを用いた.先行研究では,モダリティごとにアノーテションを行い,これを複数のSVMを用いて学習する手法が提案されていたが,陰性発言を区別せず,単一のSVMで学習した場合と比べ,必ずしも精度を向上させず,また,コーパス作成が高コストになった.したがって,本研究では,陰性発言の種類を区別せず,一様に扱った.なお,SVMのカーネルは2次の多項カーネルとした.他のパラメータは用いたパッケージのデフォルト値\footnote{http://chasen.org/~taku/software/TinySVM/}を用いた.\item{\bf【素性の種類】}素性は注目している単語「インフルエンザ」または「インフル」とその周辺の形態素とした.この際,形態素解析器\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN}を用い,原形,読み,品詞を用いた(表\ref{t_素性}).\item{\bf【素性の範囲】}周辺文脈の範囲(ウィンドウ・サイズ)は予備実験によって調査した.予備実験は前節のトレーニング・データを10分割交差検定することによって行った.パフォーマンスはウィンドウ・サイズに依存する.表\ref{f_win_size.eps}にウィンドウ・サイズと精度(F値)の関係を示す.最もよいパフォーマンスは左右両方のコンテキストを6形態素までみる設定(表中の$\text{BOTH}=6$)で得られたため,以降の実験ではこの値を用いた.\end{description}\begin{table}[t]\caption{素性}\label{t_素性}\input{04table03.txt}\end{table}\begin{table}[t]\caption{ウィンドウ・サイズと精度(F値)}\label{f_win_size.eps}\input{04table04.txt}\end{table}素性の範囲を決める予備実験が示すように約74\%程度の精度で陰性発言を分類できる.この精度が,実際のインフルエンザ推定にとって有用かどうかは5節の実験にて検証する.\subsection{感染症モデルを用いた補正}前節では発言から陰性発言を取り除く手法について述べた.しかし,たとえ全てのノイズが取り除かれても,個々の発言が必ずしも正確にインフルエンザを報告しているわけではない.例えば,インフルエンザにかかってしまっても,あまりに症状がひどいとTwitterを使って発言している余裕がないことも考えられる.このような過誤が起こっているのならば,正しく発言を収集したとしても,実際の流行と集計結果との間にずれが生じてしまう.そこで,本研究では,この時間のずれを吸収するために,感染症の流行モデルである{\bfSIRモデル}\cite{Kermack1927}をソーシャルメディア用に修正したモデルを用いる.SIRモデル\cite{Kermack1927}は,感染症流行の古典的な計算モデルである.このモデルでは人間は下記の3つの状態のうちのいずれかをとっていると仮定し,各状態間の遷移確率を定義することで感染シミュレーションを行う.\begin{enumerate}\item{\bf状態S}(Susceptible):感染症に対して免疫を持たない者,\item{\bf状態I}(Infectious):発症者,\item{\bf状態R}(Recovered):感染症から回復し免疫を獲得した者.\end{enumerate}状態Sから状態Iの遷移は,健康な人に感染者が接触し感染が拡大する過程,状態Iから状態Rは感染者が回復する過程とみなせる.なお,感染症から回復して状態Rにいたった者は免疫を獲得したものとし再び感染しないものとする.また,各状態の総和,$\mathrm{S}(t)+\mathrm{I}(t)+\mathrm{R}(t)$,は人口全体であり定数とみなす.ここで,異なる状態にある個人同士の接触には,S-I,S-R,I-Rの3通りがあるが,感染が広がるのは,発症者と免疫を持たない者の接触であるS-Iだけである.すなわち,SとIが多いと感染は速く広がることになり,逆に少ないと感染は遅くなる.これを考慮して,状態Sと状態Iの量に比例した割合でSが感染するとみなす.\begin{equation}\frac{d\mathrm{S}}{dt}=-\beta\mathrm{IS}\end{equation}また,状態Iの者は単位時間あたり一定確率で回復し,状態Rに遷移すると考える.\begin{gather}\frac{d\mathrm{I}}{dt}=\beta\mathrm{IS}-\gamma\mathrm{I}\\\frac{d\mathrm{R}}{dt}=\gamma\mathrm{I}\end{gather}ここで$\beta$は,状態Sから状態Iへの遷移確率であり,感染率とみなせる.同様に,$\gamma$は状態Iから状態Rへの遷移確率であり,回復率とみなせる.それぞれの遷移確率は1日ごとの確率とする.つまり,感染者が100人いる状態で$\gamma$が0.1とすると翌日には,10人が回復し,90人が依然としてインフルエンザ状態のままであることを意味する.以上3つの式を用いることで,感染者が増えてからピークを迎えやがて収束するインフルエンザの流行がシミュレーション可能となる.前述のオリジナルのSIRモデルをソーシャルメディアに適応させるため,本研究では次の3点の修正を行った.\begin{enumerate}\itemインフルエンザに感染した患者(状態S--状態Iへの遷移)がウェブを通じて観測されるものとする.したがって,式(1)と式(2)で用いられる$\Delta$S(=$\beta$IS)が実数として,直接集計されるものとする.\item状態I--状態R間の遷移確率(変数$\gamma$)はインフルエンザの先行研究\cite{Anderson1979}において報告されていた値$(\gamma=0.38)$を用いる.\item各シーズンの開始時は,感染症はまったく流行していないものと仮定する$(\mathrm{I}(0)=0)$.\end{enumerate} \section{実験} \subsection{実験期間}テストデータのうち,インフルエンザ流行が起こりうる冬季(2009年と2010年の10月1日から3月31日まで)を実験対象とした.正解データとして,感染症情報センター(IDSC)から報告されているインフルエンザの定点当たりの患者数を用いた.これは週1回の報告であるので,各年24点(6ヶ月×4週)のデータポイントが含まれる\footnote{提案手法は日単位での集計が可能であるが,正解データの間隔に合わせた.}.\subsection{比較手法}提案手法の精度と比較するため以下の6つの手法を用意した.本研究の提案である(1)発言の分類と(2)SIRモデルによる補正のうち,後者に関しては,他のウェブベースの手法にも適応可能であり,Twitterだけでなく,Googleインフルトレンドを用いての検証を行った.\begin{description}\item{\bfTWITTER}:Twitter上での単語「インフルエンザ」の頻度を用いた手法.単なる単語頻度をそのまま出力する(ベースライン).\item{\bfTWITTER+SVM}:上記手法TWITTERにSVMによる発言の分類を適応した手法.陽性と分類された発言のみが集計される.\item{\bfTWITTER+SIR}:ベースラインの手法TWITTERにSIRモデルを適応した手法.\item{\bfTWITTER+SVM+SIR}:ベースラインの手法TWITTERにSVMのよる発言の分類とSIRモデルの両方を適応した手法(提案手法).\item{\bfGOOGLE}:Google検索サービスのクエリログを用いた手法\cite{Ginsberg2009}.Googleインフルトレンドのサイトにおいて,過去の推定値は公開されており\footnote{http://www.google.org/flutrends/jp/},そのデータをそのまま比較手法として用いた.\item{\bfGOOGLE+SIR}:上記手法GOOGLEにSIRモデルを適応した手法.\end{description}SIRモデルの挙動はパラメータ$\gamma$に依存する.パラメータ$\gamma$はその季節に流行するインフルエンザによって異なるが,本実験では,先行研究\cite{Anderson1979}において報告されている値$(\gamma=0.38)$と,もっともパフォーマンスの高い値であった0.20を参考値として用いた.\subsection{評価}評価方法は正解データとシステムの出力値の相関係数(ピアソンの相関係数)を用いた.この評価法は,クエリログを用いた先行研究\cite{Ginsberg2009}やTwitterを用いた研究\cite{Aramaki2011}と共通である.なお,上記の各手法の出力する値のスケール(最小値や最大値)はそれぞれ異なるが,相関係数で評価することで,スケールの差異はキャンセルされる.\subsection{結果と考察}各種法の結果を表\ref{t_result}に示す.文章分類手法を用いたTWITTER+SVM(相関係数0.902)は,TWITTER(相関係数0.850)よりも精度を向上させている(統計的には有意ではない).\begin{table}[b]\caption{各手法の推定精度}\label{t_result}\input{04table05.txt}\end{table}次に,SIRモデルは,すべての手法(TWITTER+SIRやGOOGLE+SIR)において精度を向上させている.特に,GOOGLE+SIRは$\gamma=0.2$と$\gamma=0.38$の両方で有意な精度向上となっている.他の場合も,いずれも精度を向上させており,SIRモデルは応用範囲が広い手法であると言える.さらに,文章分類手法とSIRモデルの両方を組み合わせて用いた場合(TWITTER+SVM+SIR)には,それぞれを個別に用いたよりも高い精度が得られた.特に,$\gamma=0.2$の時に相関係数0.850から0.919へ有意な$(p=0.10)$精度向上が見られた.この結果により,ソーシャルメディア上の情報をそのまま用いるのではなく,文章分類や疾患モデルと組み合わせて用いることで,さらにサーベイランス精度を向上できることが示された.本研究はインフルエンザを対象としたが,インフルエンザのみならず,熱中症,食中毒など,全貌の把握は困難であるが,各個人については把握が可能な疾患は数多く存在する.このような疾患においても,提案手法のパラメータを調整することで,対応できる可能性があることを強調したい.\subsection{誤り分析}発言の分類精度は,前節の実験で示されたようにF値74\%にすぎず(表\ref{f_win_size.eps}),4回に1回程度は誤っていることになる.どのように誤っているか表\ref{t_confusion}に示す.表に示されるように,陽性発言や否定や広告など定型的な表現はうまく判定できているが,不適切な時制や非当事者などは一部しか除外できていない.この理由は,時制の判定においては過去の程度(24時間以内かどうか)という判定が高度であること,また,当事者の判定においては,省略された主語の推定が困難なことなど,種々の原因が考えられる.このような課題はあるものの発言の分類はインフルエンザ流行推定という最終的な精度を向上できており,今後,より深い言語処理を導入することへの動機となりうる.\begin{table}[b]\caption{コンフュージョン・マトリクス}\label{t_confusion}\input{04table06.txt}\end{table}SIRモデルにおいても,改良の余地がある.推定値を可視化した結果を図\ref{f_result.eps}に示す.図に示されるように,TWITTERやGOOGLEの集計結果では,流行前に多めに推定し,流行後は少なめに推定するという傾向がある.これに対して,SIRモデルは,流行前の発言を後ろにずらして集計し,精度を高めることに成功している.しかし,SIRモデルにおいて,もっとも,高い推定値であったのは$\gamma=0.20$であり,先験的なパラメータ$(\gamma=0.38)$から外れていた.このベストパラメータ$(\gamma=0.20)$を用いた場合,相関係数0.919が得られるはずであり,これがモデルの上限値となる.今後,いかに,ベストパラメータを事前に設定するかが問題となる.なお,このパラメータ$\gamma$は,実験期間におけるインフルエンザ流行型の特質を示していると考えられ,シーズンを通して不変である可能性がある.この仮定が成り立つならば,シーズン開始時に正解データと誤差を最小化するようにし,最適なパラメータを得られる可能性があり,今後の課題としたい.\subsection{提案手法の有効性}本稿の冒頭にて,ウェブを用いた感染症サーベイランスの利点として,大規模性と即時性の2つの利点を挙げた.本節では,提案システムをウェブ・サービス\footnote{http://www.mednlp.jp/influ/}として運用した結果をもとに,これら2つの利点について実証的に議論する.\begin{figure}[b]\begin{center}\includegraphics{19-5ia6f1.eps}\end{center}\caption{各手法により推定された流行の可視化}\label{f_result.eps}\centerline{\footnotesize*Y軸は相対頻度を示す(最大値で正規化している).X軸は時間軸を示す.}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{19-5ia6f2.eps}\end{center}\caption{東日本災害時の福島県のサーベイランス結果(提案手法のサービスのスクリーン・ショット)}\label{f_result2}\footnotesize{*Y軸は既存手法については患者数(左目盛り),提案手法については陽性発言数を示す(右目盛り).X軸は時間軸を示す.}\end{figure}\begin{enumerate}\item{既存手法との比較:}既存手法では全国約5,000の診療所から情報を集め,集計結果を発表している.ただし,その分布は均一でなく,過疎地については,少数の診療所からの情報に頼っている.このため,地震などの災害時には,流行把握が不可能な地域が生じてしまう事がある.例えば,東日本大震災時には,3月の中旬と下旬の2度にわたって,福島県からの報告が途絶えた(図2).一方,提案手法は,GPS発信情報が付加された発言をもとに,福島県のインフルエンザ・サーベイランスが可能であった.さらに,既存の手法では,1週間前の流行しか把握できない.一方,提案手法では,つねに現状の流行をタイム・ラグなしに把握が可能である.\item{クエリ・ベースの手法(Googleインフルトレンド)との比較:}クエリ・ベースの手法であるGoogleインフルトレンドは,提案手法と同じくウェブを活用し,提案手法と同等の即時性と大規模性を持つ.ただし,根幹となるリソースの検索クエリは非公開であり,サービスを第三者が構築/拡張できないという問題がある.具体的には,Googleインフルトレンドの集計は,平成24年7月現在,国単位の集計にとどまっており,都道府県単位の集計を行っていない.この拡張を行う事はサービス・プロバイダ(Google)以外は不可能である.一方,提案手法のリソースであるTwitterは,公開されたAPIを通じて柔軟にサービスの開発が可能である.\end{enumerate}以上のように,提案手法は,既存手法と比較し,大規模性と即時性の両方において上回っている.また,クエリ・ベースの手法と比較し,同程度の大規模性と即時性を持つものの,サービスの拡張性という点では,ソーシャル・メディアが優位である.ただし,実用的には,両者のうち優位な方のみを利用するのではなく,いずれかが利用困難な場合でも,残った手法が稼働できる可能性があり,両者を併用することで頑健なサーベイランスを実現していくのが有効だと考えられる. \section{おわりに} 本研究ではソーシャルメディアを材料に,インフルエンザの流行の推定に注目した.これまでの多くのシステムは,単純に単語の頻度情報をもとに患者の状態を調査するというものであった.しかし,Twitterの情報はノイズを含んでおり,実際に疾患にかかっていない場合の発言を収集してしまう恐れがある.また,そもそも,ウェブの情報が必ずしもインフルエンザの流行を反映しているとは限らない.これらの問題に対応するため,発言者が実際にインフルエンザにかかっているかどうかの分類を行った.また,現実とウェブ情報の時間の差を吸収するための感染症モデルを適応した.実験の結果,前者はTwitterベースのシステムの精度を向上させた.また,後者はTwitterベースのシステムのみならず,Googleインフルトレンドの精度も向上させた.また,これらの両手法は独立した現象を扱っており,両方を組み合わせて用いた場合,Twitterにおいて感染症情報センター報告の患者数と相関係数0.910という高い推定精度を示すことができた.本研究により,ソーシャルメディア上の単語頻度を単純に用いるのではなく,文章分類や疾患モデルを組み合わせることで,さらに精度の向上が可能であることが示された.\acknowledgment本研究は,JST戦略的創造研究推進事業さきがけ「情報環境と人」領域「自然言語処理による診断支援技術の開発」,科研費補助金若手研究A「表記ゆれ及びそれに類する現象の包括的言語処理に関する研究」,および科研費補助金挑戦的萌芽研究「ダミー診療録の構築および自動構造化に関する研究」による.本論文を書くにあたって有益な議論をいただいた東京大学知の構造化センター宮部真衣氏,東京大学医学部附属病院篠原恵美子氏に謹んで感謝の意を表する.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Anderson\BBA\May}{Anderson\BBA\May}{1979}]{Anderson1979}Anderson,R.~M.\BBACOMMA\\BBA\May,R.~M.\BBOP1979\BBCP.\newblock\BBOQPopulationBiologyofInfectious-Diseases.\BBCQ\\newblock{\BemNature},{\Bbf280}(361).\bibitem[\protect\BCAY{Aramaki,Maskawa,\BBA\Morita}{Aramakiet~al.}{2011}]{Aramaki2011}Aramaki,E.,Maskawa,S.,\BBA\Morita,M.\BBOP2011\BBCP.\newblock\BBOQTwitterCatchesTheFlu:DetectingInfluenzaEpidemicsusingTwitter.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2011)},\mbox{\BPGS\1568--1576}.\bibitem[\protect\BCAY{Carbonell\BBA\Goldstein}{Carbonell\BBA\Goldstein}{1998}]{Carbonell1998}Carbonell,J.\BBACOMMA\\BBA\Goldstein,J.\BBOP1998\BBCP.\newblock\BBOQTheuseofMMR,diversity-basedrerankingforreorderingdocumentsandproducingsummaries.\BBCQ\\newblockIn{\BemProceedingsoftheSIGIR}.\bibitem[\protect\BCAY{Culotta}{Culotta}{2010}]{Culotta2010}Culotta,A.\BBOP2010\BBCP.\newblock\BBOQDetectinginfluenzaoutbreaksbyanalysingTwittermessages.\BBCQ\\newblock{\BemCoRR},{\Bbfabs/1007.4748}.\bibitem[\protect\BCAY{Espino,Hogan,\BBA\Wagner}{Espinoet~al.}{2003}]{Espino2003}Espino,J.,Hogan,W.,\BBA\Wagner,M.\BBOP2003\BBCP.\newblock\BBOQTelephonetriage:Atimelydatasourceforsurveillanceofinfluenza-likediseases.\BBCQ\\newblockIn{\BemProceedingsoftheAMIAAnnualSymposium},\mbox{\BPGS\215--219}.\bibitem[\protect\BCAY{Ferguson,Cummings,Cauchemez,Fraser,Riley,Meeyai,Iamsirithaworn,\BBA\Burke}{Fergusonet~al.}{2005}]{Ferguson2005}Ferguson,N.~M.,Cummings,D.A.~T.,Cauchemez,S.,Fraser,C.,Riley,S.,Meeyai,A.,Iamsirithaworn,S.,\BBA\Burke,D.~S.\BBOP2005\BBCP.\newblock\BBOQStrategiesforcontaininganemerginginfluenzapandemicinSoutheastAsia.\BBCQ\\newblock{\BemNature},{\Bbf437}(7056),\mbox{\BPGS\209--214}.\bibitem[\protect\BCAY{Ginsberg,Mohebbi,Patel,Brammer,Smolinski,\BBA\Brilliant}{Ginsberget~al.}{2009}]{Ginsberg2009}Ginsberg,J.,Mohebbi,M.~H.,Patel,R.~S.,Brammer,L.,Smolinski,M.~S.,\BBA\Brilliant,L.\BBOP2009\BBCP.\newblock\BBOQDetectinginfluenzaepidemicsusingsearchenginequerydata.\BBCQ\\newblock{\BemNature},{\Bbf457}(7232),\mbox{\BPGS\1012--1014}.\bibitem[\protect\BCAY{Hulth,Rydevik,\BBA\Linde}{Hulthet~al.}{2009}]{Hulth2009}Hulth,A.,Rydevik,G.,\BBA\Linde,A.\BBOP2009\BBCP.\newblock\BBOQWebQueriesasaSourceforSyndromicSurveillance.\BBCQ\\newblock{\BemPLoSONE},{\Bbf4}(2),\mbox{\BPG\e4378}.\bibitem[\protect\BCAY{Iwakura\BBA\Okamoto}{Iwakura\BBA\Okamoto}{2008}]{Iwakura2008}Iwakura,T.\BBACOMMA\\BBA\Okamoto,S.\BBOP2008\BBCP.\newblock\BBOQAfastboosting-basedlearnerforfeature-richtaggingandchunking.\BBCQ\\newblockIn{\BemProceedingsoftheTwelfthConferenceonComputationalNaturalLanguageLearning(CoNLL)},\mbox{\BPGS\17--24}.\bibitem[\protect\BCAY{Johnson,Wagner,Hogan,Chapman,Olszewski,Dowling,\BBA\Barnas}{Johnsonet~al.}{2009}]{Johnson2004}Johnson,H.,Wagner,M.,Hogan,W.,Chapman,W.,Olszewski,R.,Dowling,J.,\BBA\Barnas,G.\BBOP2009\BBCP.\newblock\BBOQAnalysisofWebaccesslogsforsurveillanceofinfluenza.\BBCQ\\newblock{\BemStudiesinHealthTechnologyandInformatics},{\Bbf107},\mbox{\BPGS\1202--1206}.\bibitem[\protect\BCAY{Kermack\BBA\McKendrick}{Kermack\BBA\McKendrick}{1927}]{Kermack1927}Kermack,W.~O.\BBACOMMA\\BBA\McKendrick,A.~G.\BBOP1927\BBCP.\newblock\BBOQAContributiontotheMathematicalTheoryofEpidemics.\BBCQ\\newblockIn{\BemTheRoyalSocietyofLondon},\mbox{\BPGS\700--721}.\bibitem[\protect\BCAY{国立感染症研究所}{国立感染症研究所}{2006}]{国立感染症研究所2006}国立感染症研究所\BBOP2006\BBCP.\newblock\Jem{インフルエンザ・パンデミックに関するQ&A(2006.12改訂版)\inhibitglue}.\newblock国立感染症研究所感染症情報センター.\bibitem[\protect\BCAY{Kwak\BBA\Choi}{Kwak\BBA\Choi}{2002}]{Kwak2002}Kwak,N.\BBACOMMA\\BBA\Choi,C.-H.\BBOP2002\BBCP.\newblock\BBOQInputfeatureselectionforclassificationproblems.\BBCQ\\newblock{\BemNeuralNetworks},{\Bbf13}(2).\bibitem[\protect\BCAY{Lampos\BBA\Cristianini}{Lampos\BBA\Cristianini}{2010}]{Lampos2010}Lampos,V.\BBACOMMA\\BBA\Cristianini,N.\BBOP2010\BBCP.\newblock\BBOQTrackingtheflupandemicbymonitoringthesocialweb.\BBCQ\\newblockIn{\BemCognitiveInformationProcessing(CIP),20102ndInternationalWorkshopon},\mbox{\BPGS\411--416}.\bibitem[\protect\BCAY{Magruder}{Magruder}{2003}]{Magruder2003}Magruder,S.\BBOP2003\BBCP.\newblock\BBOQEvaluationofover-the-counterpharmaceuticalsalesasapossibleearlywarningindicatorofhumandisease.\BBCQ\\newblockIn{\BemJohnsHopkinsUniversityAPLTechnicalDigest(24)}.\bibitem[\protect\BCAY{大日\JBA重松\JBA谷口\JBA岡部}{大日\Jetal}{2003}]{大日2003}大日康史\JBA重松美加\JBA谷口清州\JBA岡部信彦\BBOP2003\BBCP.\newblockインフルエンザ超過死亡「感染研モデル」2002/03シーズン報告.\\newblock{\BemInfectiousAgentsSurveillanceReport},{\Bbf23}(11).\bibitem[\protect\BCAY{Paul\BBA\Dredze}{Paul\BBA\Dredze}{2011}]{Paul2011}Paul,M.~J.\BBACOMMA\\BBA\Dredze,M.\BBOP2011\BBCP.\newblock\BBOQYouAreWhatYouTweet:AnalysingTwitterforPublicHealth.\BBCQ\\newblockIn{\BemProcessingoftheFifthInternationalAAAIConferenceonWeblogsandSocialMedia(ICWSM)}.\bibitem[\protect\BCAY{Peng,Long,\BBA\Ding}{Penget~al.}{2005}]{Peng2005}Peng,H.,Long,F.,\BBA\Ding,C.\BBOP2005\BBCP.\newblock\BBOQFeatureselectionbasedonmutualinformation:Criteriaofmax-dependency,max-relevance,andmin-redundancy.\BBCQ\\newblock{\BemPatternAnalysisandMachineIntelligence},{\Bbf27}(18).\bibitem[\protect\BCAY{Polgreen,Chen,Pennock,Nelson,\BBA\Weinstein}{Polgreenet~al.}{2009}]{Polgreen2009}Polgreen,P.~M.,Chen,Y.,Pennock,D.~M.,Nelson,F.~D.,\BBA\Weinstein,R.~A.\BBOP2009\BBCP.\newblock\BBOQUsingInternetSearchesforInfluenzaSurveillance.\BBCQ\\newblock{\BemClinicalInfectiousDiseases},{\Bbf47}(11),\mbox{\BPGS\1443--1448}.\bibitem[\protect\BCAY{高橋\JBA野田}{高橋\JBA野田}{2011}]{Takahashi2011}高橋哲朗\JBA野田雄也\BBOP2011\BBCP.\newblock実世界のセンサーとしてのTwitterの可能性.\\newblock\Jem{電子情報通信学会情報・システムソサイエティ言語理解とコミュニケーション研究会}.\bibitem[\protect\BCAY{谷田\JBA荒牧\JBA佐藤\JBA吉田\JBA中川}{谷田\Jetal}{2011}]{Tanida2011}谷田和章\JBA荒牧英治\JBA佐藤一誠\JBA吉田稔\JBA中川裕志\BBOP2011\BBCP.\newblockTwitterによる風邪流行の推測.\\newblock\Jem{マイニングツールの統合と活用&情報編纂研究会}.\bibitem[\protect\BCAY{Vapnik}{Vapnik}{1999}]{Vapnik1999}Vapnik,V.\BBOP1999\BBCP.\newblock{\BemTheNatureofStatisticalLearningTheory}.\newblockSpringer-Verlag.\bibitem[\protect\BCAY{Yih,Teates,Abrams,Kleinman,Kulldorff,Pinner,Harmon,Wang,\BBA\Platt}{Yihet~al.}{2009}]{Yih2009}Yih,W.~K.,Teates,K.~S.,Abrams,A.,Kleinman,K.,Kulldorff,M.,Pinner,R.,Harmon,R.,Wang,S.,\BBA\Platt,R.\BBOP2009\BBCP.\newblock\BBOQTelephoneTriageServiceDataforDetectionofInfluenza-LikeIllness.\BBCQ\\newblock{\BemPLoSONE},{\Bbf4}(4),\mbox{\BPG\e5260}.\end{thebibliography}\begin{biography}\bioauthor{荒牧英治}{2000年京都大学総合人間学部卒業.2002年京都大学大学院情報学研究科修士課程修了.2005年東京大学大学院情報理工系研究科博士課程修了(情報理工学博士).以降,東京大学医学部附属病院企画情報運営部特任助教を経て,現在,東京大学知の構造化センター特任講師,科学技術振興機構さきがけ研究員(兼任).自然言語処理の研究に従事.}\bioauthor{増川佐知子}{1989年お茶の水女子大学理学部物理学科卒業.1991年お茶の水女子大学大学院理学研究科物理学専攻修士課程修了.同年花王株式会社入社数理科学研究所配属.以降,国立福山病院附属看護学校,福山平成大学,福山市立女子短期大学非常勤講師を経て,2010年より,東京大学知の構造化センター学術支援専門職員.医療情報および自然言語処理の研究に従事.}\bioauthor{森田瑞樹}{2003年東京工業大学生命理工学部卒業.2005年東京工業大学大学院生命理工学研究科修士課程修了.2008年東京大学大学院農学生命科学研究科博士課程修了.同年東京大学大学院農学生命科学研究科特任助教.2009年医薬基盤研究所特任研究員.2012年東京大学知の構造化センター特任研究員.現在に至る.生命情報科学,医療分野における自然言語処理の研究に従事.}\end{biography}\biodate\end{document}
V30N01-06
\section{はじめに} \label{sec:introduction}深層学習の発展とともに,自然言語処理技術は目覚ましい発展を遂げた.中でも,自然言語文を実数ベクトルとして表現する\textbf{文埋め込み}は,類似文検索,質問応答,機械翻訳といった多様なタスクに応用することができ\cite{SGPT,xu-etal-2020-boosting},より優れた文埋め込みがこれらのタスクにおける性能を広く向上させる可能性があることから,深層学習を用いた自然言語処理の基礎技術として盛んに研究されている.文埋め込みを構成する手法は数多く存在するが,近年では自然言語推論(NaturalLanguageInference;NLI)タスクに基づいて文埋め込みモデルを獲得する手法が主流となっている.NLIタスクは与えられた文のペアに対して,その文ペアの含意関係が「含意」「矛盾」「その他」のうちのどれであるかを予測する分類タスクである.複数の研究がNLIタスクに基づく文埋め込み手法を提案しており\cite{InferSent,SBERT,SimCSE},文埋め込み評価のための標準的なベンチマークタスクで高い性能を達成してきた.しかし,NLIタスクに基づく手法は大規模なNLIデータセットが整備されている言語でしか利用できないという問題がある.実際,NLIタスクに基づく手法として代表的なSentence-BERT(SBERT)\cite{SBERT}は,人手でラベル付けされた約100万文ペアからなるNLIデータセットに基づくが,英語以外の言語ではこのようなデータセットは限られた量しか存在しない.したがって,既存のNLIタスクに基づく文埋め込み手法を英語以外に適用しても,英語と同等の精度は期待できない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-1ia5f1.pdf}\end{center}\caption{Sentence-BERT(左)と提案手法である\textbf{DefSent}(右)の概要図.}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究ではこの問題を解決するため,辞書に含まれる単語とその定義文が基本的に同一の意味内容を表すという関係に着目し,辞書の定義文を用いた文埋め込み手法である\textbf{DefSent}を提案する.NLIデータセットと比べて辞書は,はるかに多くの言語において既に整備がされている言語資源であり,辞書の定義文を用いた文埋め込み手法は多くの言語に適用できる可能性が高い.既存研究であるSBERTと,提案手法であるDefSentの概要を図\ref{fig:overview}に示す.本研究で提案する文埋め込み手法はSBERTと同様に,BERT\cite{BERT}やRoBERTa\cite{RoBERTa}といった事前学習済み言語モデルに基づく.これらのモデルに定義文を入力して得られる文埋め込みから,対応する単語を予測できるように事前学習済み言語モデルをfine-tuningする.単語予測というタスクを通して,事前学習済み言語モデルが備える単語埋め込み空間の意味情報を活用することで,文埋め込みを効率的に構成できるようになる.本研究では,2つの方法で提案手法による文埋め込みの有用性を評価した.一つ目は,文埋め込みモデルが捉える文ペアの意味的類似度がどれほど人間評価と近しいかを評価するSemanticTextualSimilarity(STS)タスクによる実験である.STSタスクを用いた評価により,提案手法が大規模なNLIデータセットを用いる既存手法と同等の性能を示すことを確認した.二つ目は,文埋め込みにどのような情報が捉えられているかを評価するソフトウェアのSentEval\cite{SentEval}を用いた評価である.SentEvalを用いた評価により,提案手法が既存手法の性能と同等の性能を示し,種々のタスクに有用な文埋め込みを構成することが確認できた.さらに本研究では,提案手法による文埋め込みの性質が,既存手法と比較してどのように異なるかを分析した.一般的に,機械学習モデルは学習に用いたデータセットやタスクによって異なる振る舞いを示す.文埋め込みモデルも同様に,これらの教師信号に影響を受け,文埋め込み手法ごとに異なる性質の文埋め込みが構成されると考えられる.それぞれの文埋め込みがどのような性質を持っているのか理解することは,よりよい文埋め込み手法の研究のために有益であると考えられる.上記を踏まえ,提案手法であるDefSentと,既存手法として代表的なSBERTを対象とし,STSタスクとSentEvalを用いた文埋め込みの性質分析を行った.最後に,性質の異なる文埋め込みを統合することによって,下流タスクでさらに高い性能を示す文埋め込みを構成できることを示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{定義文を用いた文埋め込み手法} 本節では,まず,BERTやRoBERTaといった,提案手法が基礎とする事前学習済み言語モデルについて述べ,次にNLIデータを用いる既存の文埋め込み手法として代表的なSentence-BERT(SBERT)について述べる.その後,本研究で提案する,定義文を用いた新たな文埋め込み手法であるDefSentについて述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{BERT,RoBERTa}BERTは複数のTransformer\cite{Transformer}エンコーダが積層された構造を持つ事前学習済み言語モデルの一種である.大規模なテキストを用い,マスク穴埋めタスク(MaskedLanguageModeling;MLM)と次文予測タスク(NextSentencePrediction;NSP)による自己教師あり学習を行うことで,汎用的な言語知識を獲得する.マスク穴埋めタスクは,文中のトークンを一定の割合で特殊トークン\MASKに置き換えてモデルに入力し,\MASKに対応する位置の最終層の埋め込み表現を用いて,置き換え前の単語を予測するタスクである.次文予測タスクは,文区切り用の特殊トークン\SEPで繋がれた2文をBERTに入力した際に,それらが元のテキストデータでも連続する2文であるかどうかを,入力の先頭に追加される特殊トークン\CLSを用いて予測する2値分類タスクである.BERTは単語の系列を入力として,単語埋め込みの系列を出力する機構であると言える.BERTが出力する単語埋め込みは,その単語が出力する文脈を考慮したベクトル表現となっていることから,文脈化単語埋め込みと呼ばれる.RoBERTaは,BERTと同じモデル構造のまま,次文予測タスクの排除とデータサイズ,訓練バッチサイズの増大といった工夫により,BERTの改善を試みたモデルである.次節以降で述べるSBERTと提案手法は,いずれもBERT,RoBERTaを含む多くの事前学習済み言語モデルに適用することができるが,本稿における手法の説明では基本的にBERTを用いた場合について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{Sentence-BERT}Conneauらが提案したInferSent\cite{InferSent}は,パラメータを共有した2つのエンコーダを用い,NLIタスクによってBiLSTMで構成される文埋め込みモデルを訓練する手法である.InferSentは,意味的に類似した文が意味ベクトル空間上で互いに近く分布するようにモデルを訓練する.Reimersらが提案したSentence-BERT(SBERT)\cite{SBERT}は,InferSentと類似した構造を採用するが,文埋め込みモデルとしてBERTを用いている\footnote{Reimersらは「SBERT」という名称を,「手法の名前」と「fine-tuningされたモデルの名前」の2種類の意味で使用している.例えば,Reimersらの論文中では,Reimersらの手法によってfine-tuningされたRoBERTaを「SBERT-RoBERTa」のような名称ではなく「SRoBERTa」と呼称しているなど,手法名とモデル名が結合しているため混乱が生じやすい.本稿では,「SBERT」という名称を主に手法の参照に用いる.}.SBERTの概要を図\ref{fig:overview}左に示す.SBERTによる訓練の流れについて述べる.SBERTでは,NLIデータセットに含まれる文ペアについて,文ペアそれぞれの文埋め込みを用いた含意関係認識タスクによりBERTをfine-tuningする.まずそれぞれの文をBERTに入力し,得られる文脈化単語埋め込みの系列に対し,Poolingと呼ばれる操作を施して単一のベクトルを構成する.Reimersら\cite{SBERT}は,pooling手法として以下の3つを実験している.\begin{itemize}\item\textbf{\texttt{CLS}}:BERTの事前学習時に次文予測で用いられる\CLSの埋め込み表現を用いる\footnote{RoBERTaを用いる場合は\CLSが存在しないため,代替として文頭トークン\texttt{<s>}の埋め込み表現を用いる.}.\item\textbf{\texttt{Mean}}:出力されたすべての文脈化単語埋め込みの平均を用いる.\item\textbf{\texttt{Max}}:出力されたすべての文脈化単語埋め込みの次元ごとの最大値を用いる.\end{itemize}このとき,poolingにより得られる文ペアのそれぞれの文埋め込みを$\bm{u},\bm{v}$とする.それらを組み合わせたベクトル$[\bm{u};\bm{v};|\bm{u}-\bm{v}|]$を含意関係ラベル予測層に入力し,文ペアに付与されている「含意」などのラベルを正しく予測できるようにfine-tuningを行う.Reimersらは,StanfordNLI(SNLI)データセット\cite{SNLI},および,Multi-GenreNLI(MNLI)データセット\cite{MNLI}を合わせた約100万文を用いてSBERTによるfine-tuningを行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{提案手法:DefSent}本研究では,単語辞書において,単語とその定義文が同一の意味内容を表すことに着目し,定義文から単語予測を行うことで文埋め込みを構成する手法を提案する.具体的には,BERTに定義文を入力して文埋め込みを構成し,その文埋め込みをもとに単語予測を行うことでBERTをfine-tuningする.例えば,``aballgameplayedwithabatandballbetweentwoteamsofnineplayers''という文に対しては,``baseball''という語を答えとして単語予測を行う.提案手法の概要を図\ref{fig:overview}右に示す.DefSentによるfine-tuningの流れについて述べる.ここで,ある定義文$X_k$に対応する単語を$w_k$と表す.また,BERTの事前学習時にマスク穴埋めタスクで用いられる,\MASKの位置に対応する埋め込み表現から置き換え前の単語を予測する層を単語予測層と呼ぶ.まず,$X_k$をBERTに入力し,出力された文脈化単語埋め込みの系列をPoolingすることで$X_k$の文埋め込み$\mathbf{u}_k$を構成する.Pooling手法はSBERTと同様,\texttt{CLS},\texttt{Mean},\texttt{Max}の3種類を用いる.次に,構成した文埋め込み$\mathbf{u}_k$を単語予測層に入力し,$X_k$を入力としたときの$w_k$の予測確率$P(w_k|X_k)$を得る.損失関数に交差エントロピー誤差を用いて,$P(w_k|X_k)$を最大化するようにBERTのfine-tuningを行う.したがって,訓練事例数を$N$としたときの訓練損失$\mathcal{L}$は次式のようになる.\[\mathcal{L}=-\sum_{k=1}^N\logP(w_k|X_k)\]この際,単語予測層には事前学習時のパラメータを固定して用いる.事前学習時に既に獲得されている層を用いることで,SBERTのように追加の分類器のための新たなパラメータを学習する必要がなくなり,fine-tuningの効率化が期待できる.また,事前学習済み言語モデルの単語埋め込みは,埋め込み空間上で類似した意味の単語が近くに分布するという性質が存在する.DefSentは事前学習時の単語予測層をそのまま用いるため,得られる文埋め込みについても,類似した意味の文が埋め込み空間上で近くに分布することが期待できる.本研究で提案する手法と類似した発想の研究として,Hillらの研究\cite{hill-dictrep-eval,hill-dictrep}が挙げられる.Hillらが提案したDictRepは,定義文と静的な単語埋め込みが近づくように学習を行うことで,句や文の埋め込みモデルを訓練する.これに対してDefSentは,事前学習済み言語モデルの単語埋め込み空間と学習済みの単語予測層を用いることで,文埋め込みモデルを効率的に獲得する.実際,DefSentのfine-tuningに要した時間は10--15分程度であり,同一の計算機環境でfine-tuningを実施した場合に120--130分程度を要するSBERTと比較して,高速である\footnote{実験環境とそれぞれのモデルの訓練時間を付録\ref{appendix:runtime-infra}に記載する.}.また,DictRepと異なり,DefSentは事前学習時の単語意味空間を有効に活用する点も特徴的である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{単語予測タスクにおける評価} 提案手法による文埋め込みが,どの程度,文の意味を正しく推定できているかを検証するため,定義文から単語を予測するタスクにおける性能を評価した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{訓練に使用するデータセット}提案手法は,単語と定義文のペアを用いて事前学習済み言語モデルのfine-tuningを行う.本研究では,石渡ら\cite{Ishiwatari}が公開しているデータセットの中から,OxfordDictionaryの見出しとなる単語と定義文を抽出して利用した.各事例は単語と定義文のペアからなり,一つの単語が複数の定義文を持ち得る.実験のため,全事例を単語ごとに訓練セット/開発セット/テストセットに8:1:1の割合で分割した.提案手法は,単語予測層としてBERTまたはRoBERTaの事前学習時の単語予測層をそのまま用いる.そのため,それぞれのモデルの語彙に含まれない単語の予測確率を,それらの単語予測層から直接得ることができない.したがって,本実験ではデータセットの中からBERT,RoBERTaそれぞれの語彙に含まれる単語とその定義文のみを用いた\footnote{語彙外単語に対する予測確率を得るため,予測対象に含めたい単語のサブワードの埋め込み表現の平均などを単語予測層に追加する等の処理が考えられる.実際,予備実験としてこの処理を行った評価を実施したが,このような語彙外単語のための補完処理を行っても,性能に大きな変化は見られなかった.本稿では簡単のため,これらの語彙外単語をデータセットから除去して実験を行った結果を示す.}.以後,作成したデータセットを定義文データセットと呼称する.定義文データセットの統計値を表\ref{tab:d2w-dataset}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{05table01.tex}\caption{定義文データセットの統計値.}\label{tab:d2w-dataset}\vspace{-1\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}\label{sec:d2w-eval-settings}提案手法の評価にあたり,複数のモデル,Pooling手法について実験を行った.モデルや実験プログラムの作成にはPyTorch\cite{PyTorch}を用いた.事前学習済み言語モデルとして,HuggingFace\footnote{\url{https://huggingface.co}}が公開する深層学習モデル用ライブラリのTransformers\cite{Transformers}から,BERT-base(\texttt{bert-base-uncased}),BERT-large(\texttt{bert-large-uncased}),RoBERTa-base(\texttt{roberta-base}),RoBERTa-large(\texttt{roberta-large})の事前学習済みモデルを利用した\footnote{BERT-baseとRoBERTa-baseはともに同規模のモデルであり,単語埋め込みの次元数は768,Transformerの層数は12層である.BERT-largeとRoBERTa-largeも同様に同規模のモデルであり,単語埋め込みの次元数は1024,Transformerの層数は24層である.また,それぞれのモデルのパラメータ数は,BERT-baseが1.1億,BERT-largeが3.4億,RoBERTa-baseが1.25億,RoBERTa-largeが3.55億である.}.提案手法による各事前学習済み言語モデルのfine-tuningには,バッチサイズを16,エポック数を1とし,最適化手法にAdam\cite{Adam}を用いた.また,学習率スケジューリング手法として,学習の開始時点では学習率を0とし,全学習ステップのうち10\%を用い,設定した値まで学習率を線形に上昇させるLinearwarm-up\cite{warmup}を用いた.学習率は,各モデル,Pooling手法ごとに$x\times10^{-6},\x\in\{1,2,5,10,20,50\}$の範囲で探索し,開発データでの評価スコアが最も高くなった学習率を使用した.提案手法の実装とfine-tuning済みモデルはGitHubにて公開している\footnote{\url{https://github.com/hppRC/defsent}}.評価には,定義文を入力した際に出力される単語の予測確率から,定義文に対応する正解単語の予測確率における平均逆順位(MeanReciprocalRank;MRR)と,予測確率の上位1,3,10位以内に正解単語が含まれる割合(Top-$k$accuracy)を算出し,評価に用いた.異なるシード値で10回実験を行い,その平均を評価スコアとした.また,比較対象としてBERT-baseモデルをfine-tuningせずに評価した場合(\woft)の性能も算出した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{05table02.tex}\caption{単語予測タスクの性能.}\label{tab:d2w-eval}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{05table03.tex}\hangcaption{DefSentによってfine-tuningされたモデルに定義文が入力されたときの予測確率上位3位まで予測単語と正解単語.1列目が正解単語,2列目が定義文,3から5列目が順位予測確率上位1,2,3位の単語を表す.表に示す定義文には,記号を含めて編集を加えていない.予測単語のうち正解単語を\textbf{太字}で,入力文に含まれている単語を\shatai{斜体}で表す.}\label{tab:d2w-actual-results}\vspace{-1\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\label{sec:d2w-eval}実験の結果を表\ref{tab:d2w-eval}に示す.fine-tuningしなかった場合の性能は,Pooling手法として\texttt{Max}を選んだ場合が最も高かった.しかし,そのTop-1accuracyは0.0157と極めて低い値であり,高い性能を得るためにはfine-tuningの実施が必須であることが確認できた.一方,定義文を用いてfine-tuingを行ったモデルでは,モデルサイズとしてbaseを用いたモデルよりlargeを用いたモデル,BERTを用いたモデルよりRoBERTaを用いたモデルの方が性能が高く,モデルとしてRoBERTa-largeを,pooling手法として\texttt{Mean}を用いた場合が最も高い性能を示した.また,RoBERTa-large以外のモデルは,Pooling手法に\texttt{CLS}を用いたモデルが最も高い性能を示した.定性的な議論のため,モデルに入力される文に対して実際にどのような単語が予測されるかを確認した.表\ref{tab:d2w-actual-results}に,テストセットに含まれる定義文の一部と,それに対応する単語,及びそれらの定義文をモデルに入力した際の予測確率上位3位までの単語を示す.この時,事前学習済み言語モデルとしてBERT-largeを用い,\pagebreakPooling手法として\texttt{CLS}を用いてfine-tuningされたモデルを用いた.実験の結果,訓練データセットに含まれない定義文の組に対しても,提案手法が意味的に妥当な文埋め込みを構成していることが確認できる.また,単語予測の上位に現れる単語に,入力定義文中の単語が比較的多く出現するという傾向が見られた.さらに,DefSentによりfine-tuningされたモデルが定義文以外の文に対してどのような埋め込み表現を構成するか観察するため,定義文以外の文をモデルに入力した際にどのような単語が予測されるかを確認した.表\ref{tab:d2w-other-results}に,モデルに入力した文とその結果得られた予測確率上位5位までの単語を示す.実験の結果,``royalman''から``king''や``prince''といった単語を予測できていることから,文中単語から適切に文の意味を構成できていると考えられる.また,``notgood''に対する予測結果として``bad''や``poor''といった単語が予測できていることから,否定表現に対しても妥当な意味を構成できていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{05table04.tex}\caption{定義文以外の文に対する予測確率上位5位までの予測単語.}\label{tab:d2w-other-results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{文類似度タスクでの評価} 提案手法による文埋め込みの意味的な品質を検証するため,文埋め込み評価に一般的に用いられる文類似度評価タスクのSemanticTextualSimilarity(STS)タスクを用いた評価を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{STSタスク}SemanticTextualSimilarity(STS)タスクは,文ペアが与えられた時に,モデルを用いて文ペアの意味的な類似度を計算し,それがどの程度人間による評価に近いかを検証することで,モデルが文の意味的類似性を正しく推定できるかを評価するタスクである.STSタスクの評価には教師ありと教師なしの二つの設定が存在し,文埋め込みの品質評価には主に教師なし設定が用いられる.教師なし設定の場合,STSデータセットを用いたモデルの学習は行わず,事前に用意したモデルを用いて文ペアの意味的類似度を計算し,モデルによる類似度と人手評価による類似度との相関係数を用いて評価を行う.この時,文の意味的類似度としては,文ペアの文埋め込み同士の余弦類似度が用いられることが多い.本研究では,提案手法が一般の文に対して妥当な文埋め込みを構成できているか評価するため,STSによる評価で一般的に用いられるデータセットであるSTS12--16\cite{STS12,STS13,STS14,STS15,STS16},STSBenchmark(STS-B)\cite{STSB},SICK-Relatedness(SICK-R)\cite{SICK}を用い,教師なし設定のSTSタスクにより評価を行った.これらのデータセットには文ペアとその意味的類似度が含まれており,意味的類似度は人手評価によって付与された0から5(SICK-Rのみ1から5)までの実数である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}\label{sec:sts-eval-settings}提案手法による文の類似度として,文ペアの文埋め込み同士の余弦類似度を用い,相関係数としてスピアマンの順位相関係数を用いた\footnote{Reimersらにより,STSの評価にはスピアマンの順位相関係数が適していることが報告されており\cite{TaskOriented},近年の文埋め込みの研究では評価にスピアマンの順位相関係数を用いるのが一般的となっている.本研究でも慣例に従い,スピアマンの順位相関係数を評価指標として用いた.}.評価には,Reimersら\cite{SBERT}と同様に,Pooling手法として\texttt{CLS},\texttt{Mean},\texttt{Max}を用いた.異なる乱数シード値で10回実験を行い,その平均を評価スコアとした.提案手法との比較に用いる既存手法は以下の通りである.\begin{description}\item[GloVe]{静的な単語埋め込み手法であるGloVe\cite{GloVe}の単語埋め込みの単純平均を用いる.最も単純な文埋め込み手法の一つだが.文埋め込み評価における強力なベースラインとしてよく機能することが知られている\cite{SWEM}.埋め込みの次元数は300である.}\item[InferSent]{Conneauらによって提案された文埋め込み手法であるInferSent\cite{InferSent}による文埋め込みを用いる.埋め込みの次元数は4096である.}\item[UniversalSentenceEncoder(USE)]{Cerらによって提案された文埋め込み手法であるUniversalSentenceEncoder(USE)\cite{USE}を用いる.USEはマルチタスク学習によって文埋め込みモデルを訓練する手法であり,InferSentやSBERTと同様のNLIタスクが学習タスクに含まれる.埋め込みの次元数は512である.}\item[SBERT]{Reimersらによって提案された文埋め込み手法であるSBERT\cite{SBERT}を用いる.埋め込みの次元数は,fine-tuningを適用する事前学習済み言語モデルとしてBERT-baseおよびRoBERT-baseを用いた場合は768,BERT-largeおよびRoBERTa-largeを用いた場合は1024である.}\end{description}評価にあたり,SBERT以外の既存手法の性能はReimersら\cite{SBERT}の結果を引用した.また,SBERTはReimersら\cite{SBERT}と同様の設定で再現実験を行い,評価した.\ref{sec:d2w-eval-settings}節で述べた,提案手法によるfine-tuningの設定と同等の設定で評価実験を行い,その性能を評価スコアとした.さらに,SBERTおよびDefSentによるfine-tuning前後での性能の変化を観察するため,fine-tuning前の各モデル,Pooling手法ごとの性能も評価した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\label{sec:sts-eval}実験の結果を表\ref{tab:sts-eval-all}に示す.全体として,SBERTのRoBERTa-largeが高い性能を示し,特にPooling手法として\texttt{Mean}を用いた場合に最も高い平均性能を示した.提案手法の中では,モデルとしてRoBERTa-baseを,Pooling手法として\texttt{CLS}を用いた場合が最も高い平均性能を示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[p]\input{05table05.tex}\hangcaption{文埋め込みの余弦類似度と人手評価とのスピアマンの順位相関係数(表内の値は全て100をかけたもの).データセットごとに最も性能が高い結果を\textbf{太字}で示す.}\label{tab:sts-eval-all}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%各モデルごとにSBERTとDefSentによる性能を比較すると,BERT-baseおよびBERT-largeにおいては,常にDefSentがSBERTと同等かそれ以上の平均性能を示している.また,BERT-baseおよびBERT-largeにおいては,Pooling手法ごとの性能の傾向も類似しており,いずれの手法も,Pooling手法として\texttt{Mean}を用いた場合に最も高い平均性能を示し,\texttt{CLS}および\texttt{Max}は\texttt{Mean}と比較して低い結果となっている.DefSentによるfine-tuningで用いる学習データは,SBERTの学習に使用されているデータ量の$5\%$程度の規模であるにもかかわらず,BERT-baseおよびBERT-largeにおいて,DefSentはSBERTと同等以上の性能を示すことが確認できた.一方で,RoBERTa-baseおよびRoBERTa-largeにおいては,SBERTとDefSentで異なる傾向が見られた.まず,RoBERTa-baseに着目すると,SBERTはPooling手法に\texttt{Mean}を用いた場合が最も性能が高いものの,DefSentは\texttt{Mean}を用いた場合の性能が最も低く,\texttt{CLS}を用いた場合に最も高い性能を示した.平均性能については,Pooling手法として\texttt{Mean}を用いた場合はSBERTの方が高い性能を示したが,\texttt{CLS}と\texttt{Max}を用いた場合は,DefSentの方が高い性能を示した.また,RoBERTa-largeに着目すると,RoBERTa-baseと同様に,SBERTはPooling手法に\texttt{Mean}を用いた場合に最も高い性能を示したが,DefSentは\texttt{Max}を用いた場合に最も高い性能を示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{分析}\label{sec:comp-sts}\ref{sec:sts-eval}節で,提案手法による文埋め込みが既存手法と比較して同等の性能を発揮することを示した.本節では,STSタスクを用いた詳細な分析を通して,提案手法による文埋め込みの性質について分析する.本研究では特に,それぞれの手法による文埋め込みの性質は,それぞれの文埋め込みを得るにあたって用いられた教師信号によって異なる可能性が高いと考えられることから,文埋め込みモデルの訓練に用いた教師信号の違いに着目した分析を行う.例えば,定義文から単語予測をすることで訓練された文埋め込みは,文の構成的な意味を表現するのに適していることが期待できる.一方で,NLIタスクを用いて訓練された文埋め込みは,表面的に類似した文の意味の違いを捉えることが重要であるというNLIタスクの性質から,表面的に類似した文の意味の違いを区別した埋め込みを構成していることが期待できる.本節では,提案手法であるDefSentによる文埋め込みと,SBERTによる文埋め込みの性質の違いを調査する.SBERTはDefSentと同様,事前学習済み言語モデルを文埋め込みを介した予測タスクによってfine-tuningする手法であり,提案手法による文埋め込みの性質を分析する上で比較対象として適していると考えた.分析は,STSデータセットを文ペアのソースと表層的類似度という二つの観点でそれぞれ分割し,分割されたサブデータセットごとにSTSタスクによる性能を評価することで行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{ソースに基づき分割したSTSデータセットでの比較}\label{sec:comp-sts-source}文埋め込み手法は,その訓練に用いられたデータセットに含まれる文に類似する文の意味について,その他の文よりも適切に捉えられると考えられる.すなわち,埋め込む文のソースが,文をどの程度適切に埋め込めるかに影響すると考えられる.例えば,SBERTはNLIデータセットに含まれる文に類似した文の意味をより捉えやすく,DefSentは単語辞書の定義文に類似した文の意味をより捉えられると期待できる.本研究ではこの傾向について調査するため,STSデータセットを文のソースによって分割し,得られたサブデータセットを用いて性能評価を行う.評価にはSTS12--16を用いた.STS12--16は,それぞれのデータセットが複数のデータセットから構成されており,このような文のソースごとの性能評価に適している.STS12--16のサブデータセットごとの統計値を表\ref{tab:sts-source-statistics}に示す.実験設定は\ref{sec:sts-eval-settings}節と同様である.比較分析の対象の文埋め込み手法はDefSentとSBERTとした.事前学習済み言語モデルとしてBERT-baseを用い,Pooling手法として\texttt{Mean}を用いた.また,参考として,fine-tuningを行っていないBERT-base(\woft)も評価対象とした.異なるシード値で10回学習を行い,その平均を評価スコアとした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{05table06.tex}\caption{各STSデータセットに含まれるソースと,ソースによって分割されたデータセットごとの統計値.}\label{tab:sts-source-statistics}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%実験の結果を図\ref{fig:sts-source}に示す.比較のため,サブデータセットごとの評価に加えて,各STSデータセット全体での結果も記載する.ここで,評価スコアとして相関係数を用いているため,一般にはサブデータセットを結合したデータセットのスコアはサブデータセットごとの評価スコアの平均に一致せず,極端な場合,全体での性能がサブデータセットごとの評価スコアの最小値を下回ることに注意されたい.結果より,SBERTとDefSentの性能はともに,全体として\woftの性能を上回っていることがわかる.DefSentは,STS13の\textsl{OnWN}と\textsl{FNWN}およびSTS14の\textsl{OnWN}にて,SBERTよりも顕著に高い性能を示した.STS13の\textsl{OnWN}と\textsl{FNWN}は,ともにOntoNotes,FrameNet,およびWordNetの定義文から作成されており,事前の予測通りDefSentの訓練に用いられている定義文と類似した文に対するDefSentの性能が高いことが確認できる.SBERTはSTS14の\textsl{deft-forum}および\textsl{headlines}と,STS15の\textsl{answer-students}にてDefSentよりも高い性能を示した.中でも,STS15の\textsl{answer-students}はNLIデータセットに類似した形式のデータセットであるため,SBERTが文の意味の違いを比較的正しく推定できたと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{30-1ia5f2.pdf}\end{center}\hangcaption{STS12--16をソースごとに分割して評価に用いた際の,スピアマンの順位相関係数の値に100をかけたもの.``STS\#ALL''は各STSデータセット全体での性能を示す.}\label{fig:sts-source}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{表層的類似に基づき分割したSTSデータセットでの分析}\label{sec:comp-sts-surface}次に,文ペアの表層的類似度が,どのようにそれぞれの文埋め込み手法によって計算された意味的類似度に影響を与えるかを調査した.SBERTは,表層的に類似した文の意味の違いを捉える必要があるNLIタスクを通して学習されているため,表層的に類似した文ペアの意味的類似度を比較的正しく推定できると期待できる.一方で,提案手法はNLIタスクのように文同士の意味を識別するような訓練は行わないため,表層的に類似した文ペアの意味の違いを推定するうえで,NLIタスクに基づく手法とは異なる傾向を示す可能性がある.このような性質について分析を行うため,STSBenchmarkを文ペアの表層的類似度によって分割し,それぞれのサブデータセットごとに性能評価を行った.本研究では文ペアの表層的類似度として,単語集合同士のDice係数を用いた.Dice係数は以下の式で示される.\[\mbox{Dice}(S_1,S_2)=\frac{2|W_1\capW_2|}{|W_1|+|W_2|}\]ここで,$S_1$および$S_2$はある文ペアに含まれるそれぞれの文を表し,$W_1$および$W_2$はそれぞれ$S_1$および$S_2$に含まれる単語の集合を表す\footnote{単語集合は,文末のピリオドなどの記号を削除し,全文を小文字に変換した後,空白で分割することにより求めた.}.評価実験にはSTSBenchmarkの訓練/開発/テストセットに含まれる文ペアを全て用い,それらを表層的類似度によって並び替え,20\%ごとに分割して評価に用いるサブデータセットとした.実験設定,評価対象は\ref{sec:comp-sts-source}節と同様である.実験の結果を図\ref{fig:sts-dice}に示す.結果から,すべての手法について,より大きなDice係数を持つサブデータセット,つまりより表層的に類似した文ペアで構成されているサブデータセットの方が評価スコアが低い傾向があることが確認できる.特に,最も表層的類似度が高いサブデータセットにおける\woftの性能は極めて低く,\woftによる文埋め込みでは,文の意味の違いを正しく識別できないと考えられる.SBERTおよびDefSentの結果に注目すると,表層的類似度が高いサブデータセットにおいては,SBERTがDefSentの性能を上回った.一方で,表層的類似度が低いサブデータセットにおいては,DefSentがSBERTの性能を上回った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{30-1ia5f3.pdf}\end{center}\hangcaption{STSBenchmarkを表層的類似度ごとに分割して評価に用いた際の,スピアマンの順位相関係数の値に100をかけたもの.図の右側にいくほど,文ペアの表層的類似度が大きいサブデータセットでの評価結果を表している.}\label{fig:sts-dice}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{05table07.tex}\hangcaption{STSBenchmarkに含まれる実際の文ペアと人手評価による類似度.``\woft'',``SBERT'',``DefSent''は,それぞれの手法を用いて構成された文埋め込み同士の余弦類似度を表す.この時,STSBenchmark全体での余弦類似度の平均は,\woftが0.816,SBERTが0.678,DefSentが0.809であった.また,SBERTとDefSentにおいて,人手評価の順位に対して相対的に大きな違いのある部分を\textbf{太字}で示す.}\label{tab:sts-example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表層的類似度がどのように意味的類似度の推定に影響を与えているかについてさらに調査するため,実際の例を用いた定性的分析を行った.表\ref{tab:sts-example}に,STSBenchmarkに含まれる実際の文ペアと,その人手評価による類似度およびDice係数,および\woft,SBERT,DefSentによって計算された余弦類似度を示す.表\ref{tab:sts-example}の上から2行目に示すように,文ペアのそれぞれの文がほとんど同じことを表現している場合でも,SBERTは他の例と比較して非常に小さな類似度を割り当てている.これは,NLIタスクの「文ペアが同じ事実を表現しているか」を重視するタスクの性質が,SBERTによる文埋め込みに影響を与えているからだと考えられる.この文ペアはDice係数が比較的小さい一方で人手評価が大きい文ペアとなっているが,SBERTによる類似度と異なり,DefSentは0.895と相対的に適切と考えられる類似度を出力できている.表\ref{fig:sts-dice}の結果からも確認できる通り,DefSentは意味的に類似しているが表層的類似度が低いような文ペアについて,その意味の違いを比較的正しく推定できると考えられる.上から3行目の例では,人手評価による類似度がそれほど高くない事例に対して,DefSentは比較的高い類似度を割り当てている.これは,片方の文がもう片方の文の部分文字列であるため,DefSentが文中単語から意味を構成する能力が高いゆえに,文の表層的な類似度に意味的類似度が大きく影響を受けてしまった結果であると考えられる.このような事例に対しては,意味の違いを識別するように訓練されているSBERTの方が,正しく文の意味の違いを推定できると考えられる.これらの結果から,SBERTは表層的類似度が高い文ペアの意味的類似度を捉えることに長けており,一方で,提案手法であるDefSentは表層的類似度が低い文ペアの意味的類似度を捉えることに長けていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{テキスト分類タスクを用いた評価} 提案手法による文埋め込みの一般的な有用性を評価するため,文埋め込み評価に広く用いられるSentEval\cite{SentEval}を用いて評価を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{SentEval}\label{sec:senteval-eval}SentEval\cite{SentEval}は,文の感情分類や主観性分類などを含む様々なタスクを集約した,文埋め込み評価のためのソフトウェアである.SentEvalを用いた評価では,パラメータを固定した文埋め込みモデルを用いて,文埋め込みを入力とする分類器の学習を行い性能を評価することで,文埋め込みがどのような情報を捉えているかを評価する.分類タスクで高い性能を達成できる文埋め込み手法は,文の多様な情報を捉え,種々のタスクに有用な文埋め込みを構成できると考えられる.SentEvalには後段タスク(downstreamtasks)とプロービングタスク(probingtasks)の二つが存在し,文埋め込みの有用性評価には主に後段タスクが用いられる.本研究では提案手法であるDefSentの有用性を確認するため,まずReimersら\cite{SBERT}と同様,後段タスクを用いて実験を行った.各タスクの概要を表\ref{tab:senteval-task-descriptions}に示す.評価には,\ref{sec:d2w-eval-settings}節の設定でfine-tuningを行ったモデルを使用した.SentEval内の各タスクについて,提案手法により構成した文埋め込みを入力とする分類器を学習し,性能を評価した.分類器の学習および性能評価は,Reimersら\cite{SBERT}と同様,SentEvalの標準設定を用いた.具体的には,分類器はロジスティック回帰分類器,バッチサイズは64,エポック数は4とし,最適化手法にAdamを用いて学習を行った.10分割交差検証によってタスクごとに正答率を算出し,平均正答率を計算した.提案手法によるfine-tuningと性能評価を異なるシード値で3回行い,その平均を評価スコアとした.比較対象として\ref{sec:sts-eval-settings}節で述べたものと同様の手法を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{05table08.tex}\hangcaption{評価に用いたSentEvalの後段タスクの概要.各タスクの例はConneauら\protect\cite{SentEval}の例を引用した.}\label{tab:senteval-task-descriptions}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%実験の結果を表\ref{tab:senteval-eval-all}に示す.全体として,STSタスクでの評価と同様,SBERTのRoBERTa-largeが最も高い性能を示した.提案手法の中では,モデルとしてRoBERTa-baseを,Pooling手法として\texttt{Max}を用いた場合が最も高い平均性能を示した.各モデルごとにSBERTとDefSentの性能を比較すると,BERT-baseおよびRoBERTa-baseではすべてのPooling手法でDefSentがSBERTの性能を上回った.また,BERT-largeにおいてPooling手法に\texttt{CLS}および\texttt{Mean}を用いた場合にも,DefSentはSBERTの性能を上回った.一方で,BERT-largeにおいて\texttt{Max}を用いた場合,およびRoBERTa-largeにおいては,SBERTの方がDefSentよりも高い性能を示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[p]\input{05table09.tex}\caption{SentEvalの後段タスクにおける正解率(\%).}\label{tab:senteval-eval-all}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{分析}\label{sec:comp-senteval}\ref{sec:comp-sts}節と同様,提案手法による文埋め込みの性質を分析するため,SentEvalの後段タスクとプロービングタスクを用いた性能比較と,タスクごとの特徴に着目した文埋め込みの性質分析を行った.分析に用いた設定は\ref{sec:senteval-eval}節と同様である.比較分析の対象はDefSentとSBERTとした.事前学習済み言語モデルとしてBERT-baseを用い,Pooling手法として\texttt{Mean}を用いた.また,参考として,fine-tuningを行っていないBERT-base(\woft)も評価対象とした.異なるシード値で3回学習を行い,その平均を評価スコアとした.まず,\ref{sec:senteval-eval}節で得られたSentEvalの後段タスクの性能を用いて,より詳細な分析を行った.DefSent,SBERT,\woftの各タスクにおける性能を抜粋したものを図\ref{fig:comp-senteval-downstream}に示す.SBERTに着目すると,MR,CR,SST2,MRPCにおいて最も高い性能を示していることがわかる.これは,MR,CR,SST2が感情分類タスクであり,SBERTが文の感情についての情報をよりよく埋め込んでいることを示唆する.また,MRPCは言い換え予測タスクであり,二つの文が同じ意味を持つかどうかを予測するタスクである.MRPCはSBERTの訓練に用いられたNLIタスクと似ており,SBERTの性能が高かった理由もこのタスクの類似性によるものであると考えられる.一方でDefSentはMPQAで最も高い性能を示し,SUBJとTRECの二つのタスクで\woftと同等の性能だった.MPQAは句単位の極性分類タスクであり,句の意味を適切に構成する必要があるタスクである.DefSentは定義文からその意味を適切に構成できるようにfine-tuningを行うため,DefSentはMPQAにおける性能が高かったと考えられる.また,SUBJとTRECにおいては,DefSentがSBERTよりも高い性能を示した.SUBJは主観性分類タスクであり,TRECは質問文の種別分類タスクであり,文中単語の情報が重要なタスクである.そのため,SBERTはDefSentや\woftと比較して,文中単語の情報をより考慮していないと考えられる.以上より,SBERTは主に文の意味的な情報を埋め込み,それゆえに文の意味が同じかどうかを識別するようなタスクに適していると考えられる.一方で,DefSentは文の意味を構成することに長けており,またその埋め込み表現には文中単語の情報がより含まれているものと考えられる.次に,SentEvalのプロービングタスクを用いて,各文埋め込み手法がどのような言語的特徴を捉えているか分析した.SentEvalのプロービングタスクには文埋め込みが言語的な特徴をどの程度捉えているか評価するためのタスクがまとめられており,例えば文の長さや文中に含まれていた単語や,文の時制の分類タスクなどが存在する.実験の結果を図\ref{fig:comp-senteval-probing}に示す.全体として,プロービングタスクでは\woft,DefSent,SBERTの順に性能が高かった.DefSentは,WordContent,Tense,およびSubjNumberにおいて比較的高い性能を示した.これらは文中単語の情報が重要なタスクであり,DefSentによる文埋め込みが文中単語の情報を多く埋め込んでいることを示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4and5\begin{figure}[t]\begin{minipage}[t]{196pt}\setlength{\captionwidth}{196pt}\begin{center}\includegraphics{30-1ia5f4.pdf}\end{center}\hangcaption{SentEvalの各後段タスクにおける正解率(\%).}\label{fig:comp-senteval-downstream}\end{minipage}\hfill\begin{minipage}[t]{206pt}\setlength{\captionwidth}{206pt}\begin{center}\includegraphics{30-1ia5f5.pdf}\end{center}\hangcaption{SentEvalの各プロービングタスクにおける正解率(\%).}\label{fig:comp-senteval-probing}\end{minipage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{異なる文埋め込みの統合} 前節で,提案手法であるDefSentとSBERTの性質の違いについて分析し,二つの手法が異なる性質を持つことを示した.このような異なる性質を持つ文埋め込みを統合することによって,さらに高性能な文埋め込みを構成することが可能か調査する.本研究では,以下に示す5つの統合手法について実験を行った.\begin{description}\item[\textsc{S+D}]{SBERTによるfine-tuningを行ったモデルをさらにDefSentでfine-tuningする.}\item[\textsc{D+S}]{DefSentによるfine-tuningを行ったモデルをさらにSBERTでfine-tuningする.}\item[\textsc{Multi}]{マルチタスク学習によってモデルをfine-tuningする.具体的には,SBERTのfine-tuningに用いるNLIデータセットとDefSentのfine-tuningに用いる定義文データセットの事例数の比はおおよそ19:1であるため,同じモデルに対し,SBERTによるパラメータ更新を19ステップ行ったのちDefSentによるパラメータ更新を1ステップ行う.}\item[\textsc{Average}]{別々にfine-tuningされたSBERTとDefSentの文埋め込みの平均を用いる.}\item[\textsc{Concat}]{別々にfine-tuningされたSBERTとDefSentの文埋め込みを連接したベクトルを用いる.}\end{description}評価タスクとして,教師なしSTSタスクとSentEvalの後段タスクを用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文類似度タスクでの統合手法の評価}まず,教師なしSTSタスクで5つの統合手法を評価した.実験設定は\ref{sec:sts-eval-settings}節と同様である.モデルとしてBERT-baseとBERT-largeを用い,Pooling手法に\texttt{Mean}を用いた.RoBERTa-baseおよびRoBERTa-largeを用いた場合の結果は,付録\ref{appendix:comb-roberta}の表\ref{tab:comb-roberta-sts}に記載する.実験では,それぞれの統合手法ごとに異なるシード値で10回モデルのfine-tuningと評価を行い,その平均を評価スコアとした.比較のため,DefSentとSBERTそれぞれ単体,およびfine-tuningを行っていないモデル(\woft)も評価した.実験の結果を表\ref{tab:comb-sts}に示す.統合手法のうち,\textsc{S+D},\textsc{Average},\textsc{Concat}は常にDefSentおよびSBERT単体の性能を上回った.特に,\textsc{S+D}はbaseおよびlargeモデルの双方で最も良い平均性能を示した.一方で,\textsc{D+S}と\textsc{Multi}については,大きな性能向上を確認できなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\input{05table10.tex}\hangcaption{各統合手法による文埋め込みの余弦類似度と人手評価とのスピアマンの順位相関係数(表内の値は全て100をかけたもの).データセットごとに最良の結果を\textbf{太字}で示す.}\label{tab:comb-sts}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{後段タスクでの統合手法の評価}次に,SentEvalの後段タスクで5つの統合手法を評価した.実験設定は\ref{sec:senteval-eval}節と同様である.モデルとしてBERT-baseとBERT-largeを用い,Pooling手法に\texttt{Mean}を用いた.RoBERTa-baseおよびRoBERTa-largeを用いた場合の結果は,付録\ref{appendix:comb-roberta}の表\ref{tab:comb-roberta-senteval}に記載する.実験では,それぞれの統合手法ごとに異なるシード値で3回モデルのfine-tuningと評価を行い,平均正答率を評価スコアとした.比較のため,DefSentとSBERTそれぞれ単体,およびfine-tuningを行っていないモデル(\woft)も評価した.実験の結果を表\ref{tab:comb-senteval}に示す.表より,\textsc{Concat}が最も高い性能を示したことが確認できるが,SentEvalの評価では文埋め込みを入力とするロジスティック回帰分類器を教師あり学習するため,文埋め込みの次元数が大きい方が有利である点には注意されたい\footnote{その他の文埋め込み評価の際の``落とし穴''に関しては,Egerらの研究\cite{pitfalls}が参考になる.}.\textsc{Concat}以外の統合手法では,\textsc{Average}が比較的高い性能を示し,その性能は常に\textsc{S+D},\textsc{D+S},\textsc{Multi}を上回った.これは,平均して\textsc{S+D}が最も高い性能を示した,教師なしSTSタスクでの評価結果とは異なる傾向である.この原因として,一つのモデルに対して複数回fine-tuningを行う\textsc{S+D}などの手法が,事前学習済み言語モデルの汎化性能を悪化させている可能性が考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{05table11.tex}\hangcaption{各統合手法による文埋め込みを用いた場合のSentEvalの各タスクにおける正解率(\%).タスクごとに最良の結果を\textbf{太字}で示す.}\label{tab:comb-senteval}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 深層学習を用いた自然言語処理の基礎技術として文埋め込みは盛んに研究されており,様々なモデルやタスクが提案されている.初期の文埋め込みモデルの研究では,特定のタスクではじめから文埋め込みモデルを訓練する手法が主流であった.Kirosらによって提案されたSkipThought\cite{SkipThought}はLSTM\cite{LSTM}を基にしたエンコーダ・デコーダモデルを用い,エンコーダに入力された文の埋め込み表現から,デコーダを介して前後の文を生成することでモデルを訓練する.Conneauらによって提案された\cite{InferSent}は,双方向LSTMとDualEncoderを基に,NLIタスクを解くことで文埋め込みモデルを訓練する.Cerらによって提案されたUniversalSentenceEncoder(USE)\cite{USE}は,マルチタスク学習によって文埋め込みモデルを訓練する.近年,事前学習済み言語モデルを用いた文埋め込み手法が多数提案されている.BERT\cite{BERT}やRoBERTa\cite{RoBERTa}のような事前学習済み言語モデルは,大規模なテキストを用いた自己教師あり学習によって汎用的な言語知識を獲得し,後段タスクで高い性能を達成することができ,事前学習によってモデルに備わる言語学的知識は文埋め込みモデルを構築する際にも有用である.これらの事前学習済み言語モデルを用いた文埋め込み手法は,教師なし手法と教師あり手法の二つに大別できる.教師なし文埋め込み手法は,人手作成されたラベルなどの教師データは用いず,事前学習済み言語モデルの特性を活用するか,人工的に訓練データを作成することで文埋め込みモデルを獲得する.Liらは,事前学習済み言語モデルの埋め込み空間が異方性を持つこと,すなわち埋め込み空間の一部の部分空間に埋め込み表現が偏って分布することを示し,等方的なガウス分布への写像を学習することで文埋め込みの異方性を解消し,教師なしで高い性能を持つ文埋め込みを獲得する手法であるBERT-flowを提案した\cite{BERT-flow}.高性能な文埋め込みを獲得するため,最近では対照学習と呼ばれる訓練手法がよく用いられている.対照学習を用いた文埋め込み手法は,学習時に正例および負例となる文ペアを用意し,正例文ペアの文埋め込み同士が近づくようにしつつ,負例文ペアの文埋め込み同士が離れるように学習を行う.対照学習を用いた文埋め込み手法は,どのように正例または負例を作成するかで特徴づけることができる.Giorgiらによって提案されたDeCLUTR\cite{DeCLUTR}は,同じ文書に含まれる文同士を正例として対照学習を行う.Yanらによって提案されたConSERT\cite{ConSERT}は,ある文に対して単語の削除や置換等の加工を施した文を正例として対照学習を行う.Gaoらによって提案されたUnsupervisedSimCSE\cite{SimCSE}は,同じ文に対して異なるdropoutmaskを適用して得られる文埋め込み同士を正例として対照学習を行う.教師あり文埋め込み手法は,より高度な意味情報を捉えるために,教師ラベルを用いてモデルを訓練する.一般的に,教師あり文埋め込み手法は教師なし文埋め込み手法と比較して,性能の高い文埋め込みを構成することができる.本研究で提案したDefSentおよび性質比較の対象としたSBERTは教師あり文埋め込み手法に分類できる.Gaoらによって提案されたSupervisedSimCSE\cite{SimCSE},およびZhangらによって提案されたPairSupCon\cite{PairSupCon}は,NLIデータセット中の含意関係にある文ペアを正例として対照学習を行う.Jiangらによって提案されたPromptBERT\cite{PromptBERT}は,NLIデータセット中の含意関係にある文ペアを正例とした対照学習を行うことに加え,テンプレートを用いた摂動を加えることで,より高性能な文埋め込みモデルを獲得する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では,辞書の定義文を用いた文埋め込み手法であるDefSentを提案した.DefSentは多くの言語において整備されている辞書に基づく手法であり,他の言語に応用する場合であっても新規の言語資源を作成する必要がない点が特徴的である.教師なしSTSタスクとSentEvalを用いた実験を通して,提案手法であるDefSentの有効性,および,大規模なNLIデータセットを用いる既存手法と同等の性能を発揮することを示した.さらに,文埋め込みの獲得に用いられる教師信号が文埋め込みの性質に与える影響について,実験的に調査した.比較の対象として,提案手法であるDefSentと,DefSentと非常に類似した構造を持つが,NLIタスクによってモデルをfine-tuningするSBERTを用いて,教師なしSTSタスクとSentEvalに含まれる分類タスクを複数の観点に分けて評価した.教師なしSTSタスクを用いた比較実験の結果,それぞれの手法は文のソースや文ペアの表層的類似度によって,文の意味的類似度を捉える能力に差があることがわかった.NLIデータセットという細かな意味の違いを捉えることが重要なタスクで訓練されているSBERTは,表層的に類似した文ペアの意味の違いを捉えることに長けていることがわかった.定義文からの単語予測タスクという文の意味を適切に構成することが重要なタスクで訓練されているDefSentは,文の意味的な構成性が重要になるタスクに適していることがわかった.また,SentEvalを用いた比較実験の結果,SBERTは文の意味的な情報が重要なタスクで高い性能を示し,一方でDefSentは文中単語の情報が重要なタスクで高い性能を示した.最後に,提案手法であるDefSentとSBERTの統合手法を検討し,評価した.その結果,DefSentとSBERTによるfine-tuningを順に適用する手法,およびそれぞれの文埋め込みの平均を取る手法が,単純ながら非常に高い性能を示した.\ref{sec:introduction}節で述べたように,提案手法は人手で作成されたNLIデータを必要とせず,辞書が整備されている多くの言語において適用可能であると考えられるが,本研究では英語のみを対象に実験を実施しており,英語以外の言語における有効性は示せていない.他の言語でも提案手法が実際に有効であるかを示すためには,複数の言語での実験が必要となるが,言語ごとに,適切な辞書データ,事前学習済み言語モデルと評価データの選定が必要となることから,今後の課題とする.また,提案手法と既存手法についてより深く分析するため,提案手法による定義文の埋め込み表現と,文脈化単語埋め込みの意味ベクトル空間上での関係の解析を行いたい.さらに,より多様な文埋め込み手法との性質比較と統合手法の検討を行いたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の一部はJSPS科研費21H04901の助成を受けたものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{05refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{実験環境と訓練時間} \label{appendix:runtime-infra}DefSentによるBERT-baseおよびRoBERTa-baseのfine-tuningには,一つのNVIDIAGeForceGTX1080Tiを用いて約10分を要した.DefSentによるBERT-largeおよびRoBERTa-largeのfine-tuningには,一つのNVIDIAQuadroGV100を用いて約15分を要した.SBERTによるBERT-baseおよびRoBERTa-baseのfine-tuningには,一つのNVIDIAGeForceGTX1080Tiを用いて約120分を要した.SBERTによるBERT-largeおよびRoBERTa-largeのfine-tuningには,一つのNVIDIAQuadroGV100を用いて約130分を要した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[b]\vspace{-0.5\Cvs}\input{05table12.tex}\hangcaption{各統合手法による文埋め込みの余弦類似度と人手評価とのスピアマンの順位相関係数(表内の値は全て100をかけたもの).}\label{tab:comb-roberta-sts}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[t]\input{05table13.tex}\caption{各統合手法による文埋め込みを用いた場合のSentEvalの各タスクにおける正解率(\%).}\label{tab:comb-roberta-senteval}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{RoBERTaを用いた統合手法の実験結果} \label{appendix:comb-roberta}表\ref{tab:comb-roberta-sts}に,モデルとしてRoBERTa-baseおよびRoBERTa-largeを用い,\pagebreakPooling手法として\texttt{Mean}を用いた際の,各統合手法のSTSタスクにおける実験結果を示す.また,表\ref{tab:comb-roberta-senteval}に,モデルとしてRoBERTa-baseおよびRoBERTa-largeを用い,Pooling手法として\texttt{Mean}を用いた際の,各統合手法のSentEvalの後段タスクにおける実験結果を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{塚越駿}{%2021年名古屋大学情報学部コンピュータ科学科卒業.同大学院情報学研究科知能システム学専攻博士前期課程に進学.}\bioauthor{笹野遼平}{%2009年東京大学大学院情報理工学系研究科博士課程修了.京都大学特定研究員,東京工業大学助教を経て,2017年より名古屋大学准教授.博士(情報理工学).2019年より理化学研究所AIPセンター客員研究員を兼任.}\bioauthor{武田浩一}{%1983年京都大学大学院工学研究科情報工学専攻修士課程修了.同年日本アイ・ビー・エム株式会社に入社.2017年より名古屋大学教授.博士(情報学).}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V04N03-02
\section{はじめに} \label{sec:introduction}単語の多義性を解消するための技術は,機械翻訳における訳語の選択や仮名漢字変換における同音異義語の選択などに応用できる.そのため,さまざまな手法\cite{Nagao96}が研究されているが,最近の傾向ではコーパスに基づいて多義性を解消するものが多い.コーパスに基づく手法では,単語と単語や語義と語義との共起関係をコーパスから抽出し,抽出した共起関係に基づいて入力単語の語義を決める.しかし,抽出した共起関係のみでは全ての入力には対応できないというスパース性の問題がある.スパース性に対処するための一つの方法は,シソーラスを利用することである.シソーラスを使う従来手法には,クラスベースの手法\cite{Yarowsky92,Resnik92,Nomiyama93,Tanaka95a}や事例ベースの手法\cite{Kurohashi92,Iida95,Fujii96a}がある.クラスベースの手法では,システムに入力された単語(入力単語)の代りに,その上位にある,より抽象的な節点を利用する\footnote{本章では単語と語義と節点とを特には区別しない.}.一方,事例ベースの手法では,このような抽象化は行わない.すなわち,入力単語がコーパスに出現していない場合には,出現している単語(出現単語)のうちで,入力単語に対して,シソーラス上での距離が最短の単語を利用する.ところで,シソーラス上では,2単語間の距離は,それらに共通の上位節点\footnote{「二つの節点に共通の上位節点」といった場合には,共通の上位節点のうちで最も深い節点,すなわち,根から最も遠い節点を指す.}の深さにより決まる.つまり,共通の上位節点の深さが深いほど,2単語間の距離は短くなる.したがって,事例ベースの手法では,シソーラス上における最短距離の出現単語ではなくて,最短距離の出現単語と入力単語とに共通の上位節点を利用しているとも考えられる.こう考えると,どちらの手法も,入力単語よりも抽象度の高い節点を利用している点では,共通である.二つの手法の相違は,上位節点の決め方とその振舞いの解釈である.まず,上位節点の決め方については,クラスベースの手法が,当該の入力単語とは独立に設定した上位節点を利用するのに対して,事例ベースの手法では,入力単語に応じて,それに最短距離の出現単語から動的に決まる上位節点を利用する.次に,上位節点の振舞いについては,クラスベースの手法では,上位節点の振舞いは,その下位にある節点の振舞いを平均化したものである.一方,事例ベースの手法では,上位節点の振舞いは,入力単語と最短距離にある出現単語と同じである.このため,クラスベースの手法では,クラス内にある単語同士の差異を記述できないし,事例ベースの手法では,最短距離にある出現単語の振舞いが入力単語の振舞いと異なる場合には,当該の入力の処理に失敗することになる.これは,一方では平均化により情報が失なわれ\cite{Dagan93},他方では個別化によりノイズに弱くなる\cite{Nomiyama93}という二律排反な状況である.クラスベースの手法でこの状況に対処するためには,クラスの抽象化の度合を下げればよい.しかし,それには大規模なコーパスが必要である.一方,事例ベースの手法では,最短距離の出現単語だけではなくて,適当な距離にある幾つかの出現単語を選び,それらの振舞いを平均化して入力単語の振舞いとすればよい.しかし,幾つ出現単語を選べば良いかの指針は,従来の研究では提案されていない.本稿では,平均化による情報の損失や個別化によるノイズを避けて,適当な抽象度の節点により動詞の多義性を解消する手法を提案する.多義性は,与えられた語義の集合から,尤度が1位の語義を選択することにより解消される.それぞれの語義の尤度は,まず,動詞と係り受け関係にある単語に基づいて計算される.このとき,尤度が1位の語義と2位の語義との尤度差について,その信頼下限\footnote{確率変数の信頼下限というときには,その推定値の信頼下限を意味する.確率変数$X$の(推定値の)信頼下限とは,$X$の期待値を$\langleX\rangle$,分散を$var(X)$とすると$\langleX\rangle-\alpha\sqrt{var(X)}$である.また,信頼上限は$\langleX\rangle+\alpha\sqrt{var(X)}$である.$\alpha$は推定の精度を左右するパラメータであり,$\alpha$が大きいと$X$の値が実際に信頼下限と信頼上限からなる区間にあることが多くなる.}が閾値以下の場合には語義を判定しないで,信頼下限が閾値よりも大きいときにのみ語義を判定する.語義が判定できないときには,シソーラスを一段上った節点を利用して多義性の解消を試みる.この過程を根に至るまで繰り返す.根においても多義性が解消できないときには,その係り受け関係においては語義は判定されない.提案手法の要点は,従来の研究では固定的に選ばれていた上位節点を,入力に応じて統計的に動的に選択するという点である.尤度差の信頼下限は,事例ベースの手法において,「幾つ出現単語を選べば良いか」を決めるための指標と考えることができる.あるいは,クラスベースの手法において,「平均化による情報の損失を最小にするクラス」を,入力に応じて設定するための規準と考えることができる.以下,\ref{sec:model}章では動詞の多義性の解消法について述べ,\ref{sec:experiment}章では提案手法の有効性を実験により示す.実験では,主に,提案手法とクラスベースの手法とを比較する.\ref{sec:discussion}章では提案手法とクラスベースの手法や事例ベースの手法との関係などを述べ,\ref{sec:conclusion}章で結論を述べる. \section{動詞の多義性の解消法} \label{sec:model}提案手法では,シソーラスに沿って段階的に入力単語を抽象化し,それぞれの段階で動詞語義の尤度を計算する.動詞語義の尤度は尤度パラメータ(確率変数)の値なので,シソーラスに沿った段階的な抽象化は,尤度パラメータの標本空間(定義域)を,シソーラスに沿って段階的に拡張することで実現する.このように,提案手法では,尤度パラメータの標本空間は可変なのであるが,説明の順番としては,まず,固定された標本空間での多義性の解消法について述べたあとで,可変の標本空間での多義性の解消法について述べ,最後に,\cite{Dagan94}の手法を変形した手法について述べる.本章で述べる方法は,一つの係り受け関係において動詞語義を決定する方法である.複数の係り受け関係がある場合には,関係ごとに尤度1位の語義と2位の語義との尤度差の信頼下限を得て,その値が最大の係り受け関係に従って動詞の語義を決める.ただし,全ての関係において尤度差の信頼下限が閾値以下である場合には,語義は判定されない.\subsection{固定された標本空間における動詞の多義性解消}\label{sec:solid}関係$r$にある単語$W$と動詞$V$とが与えられ,それぞれの語義集合が$W=\{w_1,w_2,\ldots\}$,$V=\{v_1,v_2,\ldots\}$であるとき,語義$v_i$の尤度パラメータ$F_i$の標本空間を定義する.まず,語義$w_h$と$v_i$とが関係$r$で共起することを$r(w_h,v_i)$で表し,その共起頻度を$n(r(w_h,v_i))$とする.このとき,単語$W$と語義$v_i$の共起頻度$n_i=n(r(W,v_i))=\sum_{w_h\inW}n(r(w_h,v_i))$に基づいて語義$v_i$の尤度を決める.$n(r(W,v_i))$は,標本空間が$\{r(W,v_1),r(W,v_2),\ldots\}$である確率変数$N(r(W,v_i))$の観測値である.$N(r(W,v_i))$の標本空間は$F_i$の標本空間でもある.本稿では,この標本空間における共起頻度の分布が一般化超幾何分布\footnote{ある母集団が$k$種類の個体からなるとき,それぞれの種類の個体数を$N_1,N_2,...,N_k$とする$(N=N_1+\cdots+N_k)$.$n$個の個体を非復元抽出したとき,それぞれの種類の個体が$n_1,n_2,...,n_k(n=n_1+\cdots+n_k)$だけ選ばれる確率は,一般化超幾何分布$h(n_1\cdotsn_k|N_1\cdotsN_k)=\left(\begin{array}{l}N_1\\n_1\end{array}\right)\cdots\left(\begin{array}{l}N_k\\n_k\end{array}\right)\left(\begin{array}{l}N\\n\end{array}\right)^{-1}$で表される.なお,$k=2$の場合が超幾何分布である.}に従うと仮定する.つまり,標本空間を$\{r(W,v_1),r(W,v_2),\ldots,r(W,v_k)\}$としたとき,$W$と$v_i$との共起頻度を表す確率変数$N(r(W,v_i))$の値には$0\leN(r(W,v_i))\leN_i$という制限があり,$N_1+N_2+\cdots+N_k=N$であるとする.このとき,語義$v_i$の尤度パラメータ$F_i$を以下のように定義する.\begin{equation}\label{D1}F_i=\frac{N_i-n_i}{N-n}.\end{equation}ただし,$n=n_1+n_2+\cdots+n_k$.すると,$F_i$の期待値,分散,および,$F_i$と$F_j$の共分散は以下の通りである(付録A参照).\begin{eqnarray}\label{D2}\langleF_i\rangle&=&(n_i+1)/(n+k),\\\label{D3}var(F_i)&=&p_i(1-p_i)/(n+k+1),\\\label{D4}cov(F_i,F_j)&=&-p_ip_j/(n+k+1).\end{eqnarray}ただし,$p_i=\langleF_i\rangle$である.動詞の語義を判定するかしないかは,$D=F_1-F_2$の信頼下限($Pl$)に基づいて決める.ここで,$\langleD\rangle=\langleF_1\rangle-\langleF_2\rangle$,$var(D)=var(F_1)+var(F_2)-2cov(F_1,F_2)$である.ただし,動詞の語義を適当に並べかえて,$i\gej$ならば$n_i\gen_j$であるようにする.推定精度を左右する$\alpha$と閾値$\theta$を適当に選んで,$Pl(v_1)=\langleD\rangle-\alpha\sqrt{var(D)}>\theta$である場合には$v_1$を語義とする.そうでない場合には関係$r$においては語義を判定しない.なお,$\alpha$と$\theta$の値は\ref{sec:experiment}章で述べる.複数の関係がある場合には,前述のように,最大の$Pl$である関係(信頼下限最大の関係)に基づいて語義の判定を行う.これは,\ref{sec:variable}節と\ref{sec:dagan}節で述べる手法についても同様である.なお,以後,特に断わらない限り,信頼下限とは,尤度1位の語義と2位の語義との尤度差($D$)の信頼下限($Pl$)のことである.\paragraph{例}「初めて理由を聞いた」における「聞く」の多義性を解消する.「聞く」の語義としては,「音を耳に感じとる(HEAR)」と「質問する(ASK)」とを考える.なお,以下では,$F_i$という表記の代りに$F(HEAR)$や$F(ASK)$という表記を用いる.また,共起頻度はEDR日本語コーパス\cite{EDR95}の一部における共起頻度である.「初めて理由を聞いた」には,「副詞(初めて,聞く)」と「を(理由,聞く)」という二つの係り受け関係\footnote{本稿での係り受け関係の種類は\ref{sec:data}節で述べる.}があるので.それぞれについて信頼下限を求めると以下のようになる.まず,「初めて」は「聞く」との共起回数は1回で,HEARと共起している.このとき,$\alpha=1$とすると,(\ref{D2})式から$\langleF(HEAR)\rangle=(1+1)/(1+2)\simeq0.67$,$\langleF(ASK)\rangle=(0+1)/(1+2)\simeq0.33$である.分散は(\ref{D3})式から$var(F(HEAR))=var(F(ASK))\simeq0.056$であり,共分散は(\ref{D4})式から$cov(F(HEAR),F(ASK))\simeq-0.056$である.以上より,$\langleD\rangle=\langleF(HEAR)\rangle-\langleF(ASK)\rangle\simeq0.33$,かつ,$var(D)=var(F(HEAR))+var(F(ASK))-2cov(F(HEAR),F(ASK))\simeq0.22$,$\sqrt{var(D)}\simeq0.47$である.よって,$Pl(HEAR)=\langleD\rangle-\sqrt{var(D)}\simeq-0.14$である.次に,「理由」は関係「を」では「聞く」との共起回数は5回で,HEARと0回,ASKと5回共起している.よって,上と同様な計算により,$Pl(ASK)\simeq0.47$となる.「聞く」の語義は,$\theta=0$とすると,以下のように決まる.まず,「副詞(初めて,聞く)」では,$Pl(HEAR)\simeq-0.14\le\theta$であるので,語義は判定されない.一方,「を(理由,聞く)」では,$Pl(ASK)\simeq0.47>\theta$であるので,ASKが語義として選択される.語義が判定された関係は「を」のみであるので,全体ではASKが語義として選択される.この例では,信頼下限最大の係り受け関係に従って語義を判定した結果が成功している.失敗する例については次節で述べる.\vspace{\baselineskip}本節で述べた手法は,単語と動詞語義との共起頻度に基づいて動詞の多義性を解消する手法であるが,この手法は,容易にクラスベースの手法に拡張できる.すなわち,あるクラスが与えられたときには,そのクラスと動詞語義との共起頻度に基づいて動詞の多義性を解消すればよい.このとき,クラスと動詞語義との共起頻度を得るには,そのクラスに属する語義の全てについて動詞語義との共起頻度を得て,それらの和をとればよい.これは,\ref{sec:dagan}節で述べる手法についても同様である.\subsection{可変の標本空間における動詞の多義性解消}\label{sec:variable}前節で述べた手法は,標本空間$\{r\}\times\{w_1,w_2,\ldots\}\times\{v_1,v_2,\dots\}$を縮小した標本空間$\{r(W,v_1),r(W,v_2),\ldots\}$における共起頻度の分布についての手法である.ここでは,標本空間をシソーラスに沿って拡張することを考える.標本空間を段階的に拡張し,各段階において信頼下限を求め,信頼下限が閾値より大となった時点で語義を判定し,判定のプロセスを終える.以下では,まず,標本空間の拡張の仕方について述べ,次に,信頼下限の求め方について述べる.最後に例を示す.\subsubsection{標本空間の拡張の仕方}ここで考える標本空間は$\{r\}\timesU_i\times\{v_1,v_2,\ldots\}$である.$U_i$は,単語$W$の語義集合$W=\{w_1,w_2,\ldots\}$を,シソーラス\footnote{本稿では,シソーラスとは,一つの根を有するDAG(DirectedAcyclicGraph)であるとする.シソーラスの節点のうちで,根は,それに接続する枝の終点となることはなく,かつ,根からは全ての節点に対して有向道がある.また,そこから出ていく枝がないような節点を葉と呼ぶ.さらに,ある節点の支配下の節点とは,その節点から到達できる節点である.}の構造に従って拡張したものである.$U_i$は$U_{ij}$の和集合として定義されるので,$U_{ij}$を定義してから,$U_i$を定義する.まず,$U_{ij}$は,根から$w_j$までの道上の節点において,根からの距離が$i$にある節点が支配する葉の集合\footnote{任意の単語の任意の語義は葉で表現されると仮定する.この場合には各々の語義は互いに支配関係にない.分類語彙表\cite{Kokken64}とEDR概念体系とを,\ref{sec:experiment}章では,実験に用いるのであるが,分類語彙表の場合には,この仮定が成立する.しかし,EDR概念体系の場合には,語義にあたる概念が葉であるとは限らないため,その語義にあたる節点が別の語義にあたる節点を支配している場合がある.その場合には,ある節点における葉の数が,その節点が支配する語義の数と一致しない.そのため(\ref{U2a})式や(\ref{U2b})式において考慮されない語義がでる.本稿ではこの問題は無視し,全ての語義が葉に相当するとして尤度を計算した.}として定義される.このとき,根から$w_j$までの距離を$l_j$とすると,\begin{equation}\label{U_0j}U_{0j}\supseteqU_{1j}\supseteq\cdots\supseteqU_{l_jj}=\{w_j\}\end{equation}である.なお,$k>l_j$のときには$U_{kj}=\phi$である.次に,$U_i$を以下のように定義する.\begin{equation}\label{U_i}U_i=\bigcup_{w_j\inW}U_{ij}.\end{equation}$i\lej$のときには,(\ref{U_0j})式と同様に,$U_i\supseteqU_j$が成立する.このとき,標本空間は,$l=\max_{w_j\inW}l_j$とすると,$U_l$から順に,$U_{l-1},U_{l-2},\ldots,U_0$と拡張される.たとえば,図\ref{fig:U_i}で$W=\{w_4,w_5\}$とすると,$U_0=\{w_1,w_2,w_3,w_4,w_5,w_6\}$,$U_1=U_2=\{w_4,w_5,w_6\}$,$U_3=\{w_5\}$である.このとき,標本空間は,$U_3,U_2,U_1,U_0$の順に拡張される.複数の親を持つ節点の場合には,根からの距離として複数の道の中で最長のものを選択すれば,$i\lej$のときに$U_i\supseteqU_j$となる.たとえば,根$a$から葉$e$までの二つの道が,$a\rightarrowb\rightarrowc\rightarrowd\rightarrowe$と$a\rightarrowb\rightarrowf\rightarrowe$であるとき,それぞれの節点の根からの距離は,$a=0,b=1,c=2,d=3,e=4,f=2$,とする.標本空間の拡張の仕方は他にも考えられるが,DAGを対象とする場合には,上述の方法が簡明であると考える.\begin{figure}[htbp]\begin{center}\leavevmode\atari(88,64)\end{center}\caption{$U_i$の例}\label{fig:U_i}\end{figure}\subsubsection{信頼下限の求め方}関係$r$にある単語$W$と動詞$V$について,それぞれの語義集合を$W=\{w_1,w_2,\ldots\}$,$V=\{v_1,v_2,\ldots\}$とする.ここで考える標本空間は,$I=\{r\}\timesU_i\timesV$である.語義$v_j$の尤度パラメータ$F(W^\prime,v_j|I)$は,$W^\prime=W\capU_i$とすると,次のように定義される.\begin{eqnarray}\label{U1}F(W^\prime,v_j|I)&=&F(v_j|I)F(W^\prime|v_j,I)\nonumber\\&=&F(v_j|I)\sum_{w\inW^\prime}F(w|v_j,I).\end{eqnarray}$F(W^\prime,v_j|I)$は,図\ref{fig:I}に示されるような標本空間の構造,すなわち,まず,動詞の語義を選び,次に,その語義のもとで単語の語義を選ぶという構造を反映している.\begin{figure}[htbp]\begin{center}\leavevmode\atari(108,72)\end{center}\caption{標本空間$I$の構造}\label{fig:I}\end{figure}$F(W^\prime,v_j|I)$の期待値は以下の通りである.\begin{equation}\label{U3}\langleF(W^\prime,v_j|I)\rangle=\langleF(v_j|I)\rangle\sum_{w\inW^\prime}\langleF(w|v_j,I)\rangle.\end{equation}ただし,$F(v_j|I)$と$F(W^\prime|v_j,I)$とは確率的に独立であるとみなした.なお,分散や共分散は付録Bで与える.(\ref{U1})式における$F(v_j|I)$や$F(w|v_j,I)$は,前と同じように一般化超幾何分布に従う確率変数であり,それらの期待値は以下の通りである.\begin{eqnarray}\label{U2a}\langleF(v_j|I)\rangle&=&\frac{\sum_{u\inU_i}n(r(u,v_j))+1}{\sum_{u\inU_i,v\inV}n(r(u,v))+|V|}\;\;,\\\label{U2b}\langleF(w|v_j,I)\rangle&=&\frac{n(r(w,v_j))+1}{\sum_{u\inU_i}n(r(u,v_j))+|U_i|}\;\;.\end{eqnarray}ただし,$n(r(u,v))$は関係$r$における共起頻度を表す.分散や共分散も(\ref{D3}),(\ref{D4})式と同様に得られる.(\ref{U2a})式と(\ref{U2b})式に使われる数値のなかで,まず,$|V|$は動詞の語義の数である.また,$|U_i|$は標本空間の可変な部分の大きさを表わす数値である.$|U_i|$はシソーラスの構造から決まるので,シソーラスの節点にあらかじめ記録しておくことにより,実行時の計算量を減らす.たとえば,図\ref{fig:U_i}で$|U_2|$の値を求めるときには,二つの節点$u_{24}$と$u_{25}$に記録されている$|U_{24}|=1$と$|U_{25}|=2$の和をとる.同様に,$\sum_{u\inU_i}n(r(u,v_j))$の値も,各節点に,支配下の葉と$v_j$との共起頻度の和を記録しておき,それを利用して求める\footnote{共起頻度の和は葉から根に再帰的に共起頻度を伝播することで記録する.たとえば,図\ref{fig:U_i}では,$u_1$に記録される値は$u_{24}$と$u_{25}$に記録されている値の和である.多重継承があるときには,この伝播の過程で,一つの節点に複数の親がある場合がある.その場合には,その節点に記録されている共起頻度の値を均等に親に分ける.}.図\ref{fig:U_i}の例では,$U_2$について,$\sum_{u\inU_2}n(r(u,v_j))=n(r(w_4,v_j))+n(r(w_5,v_j))+n(r(w_6,v_j))$を求めるためには,$u_{24}$に記録されている$n(r(w_4,v_j))$の値と$u_{25}$に記録されている$n(r(w_5,v_j))+n(r(w_6,v_j))$の値との和をとる.また,(\ref{U2a})式や(\ref{U2b})式の値は,$U_i$ごとに計算され,$U_i$は最大でシソーラスの高さだけの数しかないので,これらの値を計算することは計算量の面で困難ではない.動詞の語義を判定するかしないかは,$D=F(W^\prime,v_1|I)-F(W^\prime,v_2|I)$の信頼下限($Pl$)に基づいて決める.ただし,動詞の語義を適当に並べかえて,$\langleF(W^\prime,v_1|I)\rangle\ge\langleF(W^\prime,v_2|I)\rangle\ge,\ldots$であるようにする.なお,$D$の期待値は$\langleD\rangle=\langleF(W^\prime,v_1|I)\rangle-\langleF(W^\prime,v_2|I)\rangle$である.また,分散$var(D)$は付録Bで与える.語義を判定するために,$\alpha$と$\theta$を適当に選んで,$Pl(v_1)=\langleD\rangle-\alpha\sqrt{var(D)}>\theta$である場合には$v_1$を語義とし,語義判定のプロセスを終える.そうでない場合には,$U_i$の段階では語義の判定をせずに,標本空間をシソーラスに沿って拡張した$U_{i-1}$で再び語義の判定をする.$U_0$においても判定ができないときには関係$r$においては語義の判定を行わない.なお,$\alpha$と$\theta$の値は\ref{sec:experiment}章で述べる.\paragraph{例}「私は関係者にいきさつを聞いた」における「聞く」の多義性を解消する.「聞く」の語義としては,前節と同様に,ASKとHEARとを考える.また,$\alpha=1,\theta=0$とする.なお,計算に必要なその他の詳細は省略する.「私は関係者にいきさつを聞いた」には,「は(私,聞く)」「に(関係者,聞く)」「を(いきさつ,聞く)」という三つの係り受け関係があるので,それぞれについて信頼下限を計算し,語義を求める.「私」は関係「は」では「聞く」との共起回数は6回で,HEARと5回,ASKと1回共起している.そのため,標本空間を拡張するまでもなく$Pl(HEAR)=2.1\times10^{-1}>\theta$となった.「関係者」は関係「に」では2回共起し,HEARと1回,ASKと1回共起している.しかし,このHEARでの共起はタグ付けの誤りであり,ASKと共起すべきものであった.とにかく,この段階ではHEARとASKとで尤度差はない.しかし,シソーラス(分類語彙表)を2段階あがった時点($U_4$)では,$U_4$全体でHEARとの共起は2回,ASKとの共起は9回である.このとき,$|U_4|=69$であり,$Pl(ASK)=5.5\times10^{-4}>\theta$となり,ASKが語義として選択される.これは,タグ付けの誤りを回避した例である.「いきさつ」は関係「を」では「聞く」との共起頻度は0である.一段シソーラスを上ったときの標本空間全体ではASKと1回,HEARと0回共起する.しかし,この段階では$Pl(ASK)<\theta$であるので語義は判定されない.そのまま標本空間を拡張していくと,$U_1$で頻度の分布が逆転し,HEARで171回,ASKで104回共起している.しかし$|U_1|=26984$と標本空間の大きさが大きいので信頼下限は閾値$\theta$を超えない.結局,この係り受け関係では語義は判定されない.これは,シソーラス上での最短距離の語義に従えば成功していた例である.三つの係り受け関係のうちで「は(私,聞く)」が最も信頼下限$Pl$が大きい.一般に,シソーラスを上ると標本空間の大きさは指数的に大きくなるので,尤度は指数的に小さくなる.そのため,標本空間が小さいときの信頼下限は,それが大きいときに比べて大きい.この例では,「は(私,聞く)」に従って語義を選択するので,HEARが語義に選ばれる.これは失敗である.なお,最大の信頼下限に基づく語義選択の妥当性は,\ref{sec:experiment}章で実験により確かめる.\subsection{Daganの手法}\label{sec:dagan}多義性を解消するときに,語義の判定が可能なものだけを判定するという手法は,\cite{Dagan94}でも採用されている.\cite{Dagan94}では,機械翻訳における訳語の選択を目的としているが,ここでは,その手法を,動詞語義の選択のために修正したものについて述べる.以下では,この手法を単にDaganの手法と呼ぶ.また,本節で用いられている記号のうちで,新たに定義されていない記号については,\ref{sec:solid}節と同じ意味で用いられている.標本空間についていえば,Daganの手法は,\ref{sec:solid}節と同じ,固定された標本空間を使う.ただし,\cite{Dagan94}では共起頻度は多項分布をしていると仮定している.動詞の語義を判定するかどうかは,$\hat{p_1}$と$\hat{p_2}$との対数比$\ln(\hat{p_1}/\hat{p_2})$に基づいて決める.ただし,$\hat{p_1},\hat{p_2},\ldots$は,$n_1,n_2,\ldots$から最尤推定される$r(W,v_1),r(W,v_2),\ldots$の確率であり,$\ln(\hat{p_1}/\hat{p_2})=\ln(n_1/n_2)$,$var(\ln(\hat{p_1}/\hat{p_2}))\simeq1/n_1+1/n_2$である.もし,$n_1$,$n_2$で$0$なるものがあれば,$0$の代りに$0.5$を用いる.$\alpha$と$\theta$を適当に選んで,$Pl(v_1)=\ln(\hat{p_1}/\hat{p_2})-\alpha\sqrt{var(\ln(\hat{p_1}/\hat{p_2}))}>\theta$である場合には$v_1$を語義とする\footnote{\cite{Dagan94}では`$>$'ではなく`$\ge$'であるが,`$\ge$'の場合には,$\theta=0$としたときに$\hat{p_1}=\hat{p_2}$であっても$v_1$が選ばれることになるため`$>$'とした.ただし実際にはどちらを用いても同じことである.}.そうでない場合には関係$r$では語義は判定されない.なお,\cite{Dagan94}では$\alpha=1.282$,$\theta=0.2$が選ばれているので,\ref{sec:experiment}章の実験でもそれに従った.\subsection{Daganの手法と提案手法との違い}Daganの手法と提案手法との基本的な違いは,標本空間が固定か可変かということである.提案手法が,尤度の比較に差を用いたり,分布に一般化超幾何分布を仮定したりしているのは,可変の標本空間を上手く取扱うためである.まず,尤度の比較に差を用いた場合には,標本空間を拡張するたびに尤度や尤度差が指数的に小さくなるので,標本空間の大きさを信頼下限に直接反映させることができる.Daganの手法のように(対数)比を用いた場合には,第1位の語義の尤度と第2位の語義の尤度とはオーダとしては違わないため,標本空間の大きさは直接には反映されない.次に,一般化超幾何分布を用いている理由は,標本空間の大きさを明示的に取扱うためである.提案手法では,標本空間を拡張するたびに,尤度パラメータの期待値や分散が変化することが必要である.一般化超幾何分布に従うと,(\ref{U2b})式で示されるように,標本空間の可変な部分の大きさを$|U_i|$として明示的に取り扱える.標本空間の大きさを信頼下限に反映させる理由は,標本空間が小さいときほど語義の判定結果が信頼できると考えているためである. \section{実験} \label{sec:experiment}実験のデータ/手法/結果について順に述べる.\subsection{実験データ}\label{sec:data}\subsubsection{コーパスからの実験データの抽出}EDR日本語コーパス\footnote{本稿で用いたEDR日本語コーパス,日本語単語辞書,概念体系辞書はVersion1.5である.}から,動詞を「係り」または「受け」とする係り受け関係を抽出した.EDR日本語コーパスは,新聞・雑誌・辞典などの流通文書から1文単位でとられた約22万文からなるコーパスであり,各文は,人手により,形態素・構文・意味解析されている.なお,EDR日本語コーパスにおける形態素解析の結果には,動詞などの活用語の基本形は示されていない.そこで,本実験では,EDR日本語コーパスでの形態素解析結果をもとに,JUMAN\cite{Matsumoto94}を用いて動詞の基本形を同定した.EDR日本語コーパスにおける解析結果のうちで,本稿で利用するものは,文節間の係り受け関係と文節の主辞に付与された語義(概念識別子)とである.文節間の係り受け関係は,構文解析の結果から得た.また,構文解析の結果には句の主辞に相当するものに印が付いているので,それを利用して文節の主辞を得た.抽出したものは,コーパスにおいて主辞の印がついている動詞と,それと係り受け関係にある文節の集合である.これは,主節か従属節か連体修飾節のいずれかであるが,本稿では一括してセットと呼ぶ.多義性解消は各セットごとに行なわれる.なお,次のセットは抽出しなかった.\begin{itemize}\item多義性解消の対象である動詞に概念識別子が割当てられていないもの.\item多義性解消の対象である動詞を主辞とする文節(動詞文節)が受身,あるいは,使役であるもの.\item多義性解消の対象である動詞をJUMANにより基本形に変形できないもの.\end{itemize}また,セットに含まれる文節で,次のものは除いた.\begin{itemize}\item動詞/形容詞/形容動詞/副詞/名詞/接尾語/数字以外を主辞とする文節.\item動詞文節で,主辞である動詞をJUMANにより基本形に変形できないもの.\end{itemize}\newpage係り受け関係としては図\ref{fig:rels}に示されている21種類を用いた.「*」で示されているものは関係のグループにつけた名前であり,関係の名前ではない.「*係り」というのは,その品詞\footnote{「形容(動)詞」とは,形容詞または形容動詞のことである.また,名詞/接尾語/数字は一括して「名詞」とした.}の形態素を主辞とする文節に係っていくことを示している.なお,係りの関係は関係名の先頭に「係:」を付けることで示す.「*受け」は,その文節を受けることを示している.「*受け」の関係で「*格助詞」で示されるのは,名詞に続く助詞列が格助詞を含む場合である.なお,「φ」は,名詞文節を受ける際に,格助詞や係助詞などが介在しない場合である.また,関係が「*係助詞」で示されるのは,名詞に続く助詞列が係助詞のみからなる場合である.複数の係助詞が共起する場合には最後の係助詞により関係名が決まる.その他の場合は「助詞相当表現」として扱った.この例としては「に対して」などがある.\begin{figure}[htbp]\begin{center}\leavevmode\atari(99,37)\end{center}\caption{21種類の係り受け関係}\label{fig:rels}\end{figure}抽出したセットから頻度500以上の動詞74語を選び,それらの動詞を含む約8,9000セットを実験の対象とした.実験では頻度が5000を超える4語(ある,いう,する,なる)については,無作為に抽出した5000のセットについて実験を行った.その他の動詞については,抽出された全てのセットについて実験を行った.ただし,頻度が10未満の語義を語義としてもつ動詞を多義性解消の対象とするようなセットは実験のデータから除いた.なお,この74語には異なり語義数が1の動詞は含まれていない.\subsubsection{シソーラス}実験に用いたシソーラスはEDR概念体系と分類語彙表である.EDR概念体系には約40万の概念識別子があり,それらはDAGを構成している.分類語彙表には分類番号がつけられた約3万7千の単語があり,それらは意味的に分類された6レベルの木構造をなす.\subsection{実験の手法}\label{sec:method}それぞれの動詞について,抽出したセットに対して,10分割のクロスバリデーション法で多義性解消の実験を行った.すなわち,抽出したセットの集合を10個の均等な大きさの部分集合に分け,9個の部分集合を訓練データとして共起頻度を得て,残りの部分集合をテストデータとして多義性の解消をするということを10回繰り返した.訓練の段階では,以下のようにして,動詞の語義(概念識別子)と,それに係る(それを受ける)単語の語義との共起頻度を得た.まず,シソーラスとして分類語彙表を使う場合には,その単語に割り当てられている$n$個の分類番号の全てに対して,$1/n$を動詞語義との共起頻度とした.次に,シソーラスとしてEDR概念体系を使う場合には,共起の相手である単語に,コーパスにおいて概念識別子が付与されていれば,その概念識別子に共起頻度1を与え,そうでなければ,分類語彙表の場合と同様に,単語に割り当てられている全ての概念識別子に対して均等に共起頻度を割当てた.なお,テストの段階では,単語は全て多義語として取り扱い,単語に付与されている概念識別子は利用しなかった.コーパスのなかの単語には複合名詞もある.そのときには右からの最長一致により辞書引きをした.たとえば,「データ通信」が辞書にないときには「通信」で引き,「通信データ」の場合には「データ」で引いた.このようにしても辞書にない単語については共起として数えなかった.分類語彙表をシソーラスとして使うときには,分類語彙表にない単語は未知語となる.また,EDR概念体系をシソーラスとして使うときには,EDR日本語単語辞書にもEDR日本語コーパスにもない単語は未知語となる(字面が登録されていても概念識別子が登録されていない場合は未知語である).\subsection{実験結果}\label{sec:results}\subsubsection{多義性解消の精度}抽出したセットに対して,次の四つの要因を組み合わせて多義性解消の実験をした.その正確な組合せ方は表\ref{tab:results}にある.1)標本空間は,\ref{sec:model}章で述べた意味において,固定または可変である.2)共起の相手は,標本空間が固定の場合には単語かクラスであり,可変の場合には語義である.ただし,クラスとは,分類語彙表の場合には,分類番号の上位3桁を共有する分類番号の集合のことである.また,EDR概念体系の場合には,根からの距離が4である概念識別子が一つのクラスを代表する概念識別子であり,それに支配される概念識別子の集合が一つのクラスである.3)シソーラスには,分類語彙表かEDR概念体系かを用いた.4)多義性解消の際に動詞語義を判定する手法は,差に基づくもの(\ref{sec:solid}節や\ref{sec:variable}節の手法)か比に基づくもの(Daganの手法)である.なお,表\ref{tab:results}の2行目に$\alpha=1.55$などとあるのは,\ref{sec:solid}節と\ref{sec:variable}節で述べた,差に基づく手法においてパラメータ$\alpha$の値を1.55などにしたということである.ただし,$\theta$は0に固定した.また,比に基づく手法の場合は$\alpha=1.282$,$\theta=0.2$と一定である.ここで,差に基づく手法の$\alpha$の値は,比較の便宜のため,比に基づく手法と適合率の差が1%未満になるように調整した場合の値である.抽出したセットに対して,動詞ごとに多義性解消の実験を行い,判定率・適合率を計算した.ある動詞に対する判定率・適合率の定義は以下の通りである.\begin{equation}\label{app}\mbox{判定率}=\frac{\mbox{語義が判定されたセットの数}}{\mbox{その動詞を含むセットの数}},\end{equation}\begin{equation}\label{pr}\mbox{適合率}=\frac{\mbox{正解の数}}{\mbox{語義が判定されたセットの数}}.\end{equation}ただし,正解とは,プログラムにより選択された語義が,EDR日本語コーパスにおいて付与されている語義(概念識別子)と一致する場合をいう.\begin{table}[htbp]\begin{center}\leavevmode\caption{判定率・適合率の平均値}\label{tab:results}\smallskip\begin{tabular}{|c|cc|cc|cc|cc|cc|c|}\hline標本空間&\multicolumn{8}{c|}{固定}&\multicolumn{2}{c|}{可変}&\\\cline{1-2}\cline{2-9}\cline{10-11}共起対象&\multicolumn{4}{c|}{単語($\alpha=1.55$)}&\multicolumn{4}{c|}{クラス($\alpha=1.95$)}&\multicolumn{2}{c|}{語義($\alpha=1$)}&\\\cline{1-2}\cline{2-5}\cline{6-9}\cline{10-11}Thesaurus&\multicolumn{2}{c|}{分類}&\multicolumn{2}{c|}{EDR}&\multicolumn{2}{c|}{分類}&\multicolumn{2}{c|}{EDR}&分類&EDR&\raisebox{1.6ex}[0pt]{BASE}\\\cline{1-2}\cline{2-3}\cline{4-5}\cline{6-7}\cline{8-9}\cline{10-11}判定手法&比&差&比&差&比&差&比&差&\multicolumn{2}{c|}{差}&\\\hline\hline&.267&.332&.302&.363&.688&.682&.765&.764&.726&.865&1.000\\\raisebox{1.6ex}[0pt]{全体}&.750&.752&.753&.751&.710&.707&.696&.696&.713&.695&0.652\\\hline\hline&.132&.163&.153&.179&.370&.365&.517&.533&.539&.699&1.000\\\raisebox{1.6ex}[0pt]{group1}&.541&.544&.563&.567&.483&.473&.445&.442&.488&.462&0.353\\\hline&.194&.250&.214&.269&.510&.497&.587&.582&.624&.793&1.000\\\raisebox{1.6ex}[0pt]{group2}&.665&.675&.671&.665&.608&.607&.603&.604&.624&.587&0.515\\\hline&.307&.366&.356&.411&.808&.795&.874&.865&.796&.926&1.000\\\raisebox{1.6ex}[0pt]{group3}&.734&.733&.725&.726&.686&.685&.672&.673&.690&.674&0.647\\\hline&.331&.406&.374&.444&.850&.844&.905&.898&.829&.947&1.000\\\raisebox{1.6ex}[0pt]{group4}&.861&.859&.859&.854&.831&.832&.825&.826&.823&.818&0.813\\\hline&.380&.485&.419&.523&.917&.925&.954&.957&.852&.966&1.000\\\raisebox{1.6ex}[0pt]{group5}&.964&.963&.962&.960&.957&.956&.953&.953&.956&.954&0.951\\\hline\end{tabular}\end{center}各欄には,上段に判定率の平均値,下段に適合率の平均値が記載されている.表の2行目に$\alpha=1.55$などとあるのは,\ref{sec:solid}節と\ref{sec:variable}節で述べた,差に基づく手法においてパラメータ$\alpha$の値を1.55などにしたということである.ただし,$\theta$は0に固定した.また,比に基づく手法の場合は$\alpha=1.282$,$\theta=0.2$と一定である.\end{table}判定率・適合率は動詞ごとに異なり,かつ,その異なりは最頻の語義の占める割合と相関があると考えられる.たとえば,一つしか語義がない場合には適合率は1である.そこで,動詞74語を,最頻の語義の占める割合の小さいものから順に,五つの均等な大きさのグループに分け,各グループごとに判定率・適合率の平均値を求めた.それらは,表\ref{tab:results}に,group1〜5として示されている.表の各欄の値は,上段が判定率の平均値であり,下段が適合率の平均値である.なお,「全体」とある行には動詞全体についての平均値が載せてある.また,「BASE」とある右端の列には,常に最頻の語義を選ぶ手法の判定率と適合率がある.この手法は,多義性解消のための手法のベースラインと考えられる\cite{Gale92}.BASEにおいては,全てのセットについて,最頻の語義を語義とみなすので,判定率は1,適合率は最頻の語義の割合となる.表\ref{tab:results}において,まず,共起対象として,単語を選んだ場合とその他(クラスや語義)を選んだ場合とを比べると,シソーラスや判定手法の組合わせにより違いはあるが,単語を選んだ場合の適合率が,その他の場合より4〜5%程度高い.しかし,判定率を比べると,その他の場合の方が,35〜50%程度,単語を選んだ場合より高い.このように単語を共起対象とした場合には,クラスや語義を共起対象とする場合に比べて,適合率が高くなり判定率が低くなるが,4〜5%程度の適合率の高さは,35〜50%程度の判定率の低さを埋め合わせるほどではないと考える.次に,固定された標本空間での結果について比較する.まず,EDR概念体系と分類語彙表とを比べると,登録単語数の差を反映して,EDR概念体系の方が判定率が高い.また,比に基づく手法と差に基づく手法とを比べると,単語を共起の相手とした場合には,差に基づく手法の方が,6%程度,判定率が高い.このことは,差に基づく手法の方が共起頻度の違いに敏感なことを示している.クラスを共起の相手とした場合には,比に基づくものの方が多少判定率が高いが,その差は1%未満である.この場合に,手法の違いが,共起の相手を単語にした場合に比べて効かないのは,クラスを共起の相手とした場合には,単語を共起の相手とした場合に比べて,語義ごとの共起頻度の情報が無視される度合が強いためであると考えられる.最後に,固定された標本空間におけるクラスの結果と可変な標本空間の結果とを,差に基づく手法について比べると,可変な標本空間における方が,分類語彙表の場合には4%程度,EDR概念体系の場合には10%程度,判定率が高い.前述のように,クラスを共起の相手としたときには,比/差の手法において全体の判定率の違いは1%未満である.それに比べて,4あるいは10%程度の違いは大きいと考える.つまり,語義の判定に比を用いるか差を用いるかに比べて,標本空間を可変にするか固定にするかは,より重要な違いであると考える.なお,本稿程度の規模の実験では,1%程度の差があれば,EDR日本語コーパスが日本語全体を良く代表していると仮定して,日本語全体でも同様な傾向が見られるといえる.たとえば,固定された標本空間で,共起の相手としてクラスを選び,分類語彙表をシソーラスとして使ったときには,比に基づく手法の判定率と差に基づく手法の判定率との差は0.6%であるが,これは,符号検定によると,1%の有意水準で有意な差である.\subsubsection{最大の信頼下限による語義判定の有効性}表\ref{tab:results}では,動詞ごとに判定率と適合率を得て,それらの平均を示した.動詞ごとに適合率などを得たのは,動詞ごとのデータ数の違いを吸収するためである.ところで,本節と次節では,係り受け関係を個別にみるので,後述する指標を動詞ごとに得て,それを平均するのは不適当である.なぜなら,動詞によっては,出現数の少い係り受け関係があるため,安定した数値が得られないからである.そのため,動詞ごとではなくて,抽出したセット全体における指標を調べるが,この場合でも動詞ごとのデータ数の影響は除きたい.そこで,まず,各動詞について,前節と同様のセットに対して,\ref{sec:variable}節で述べた提案手法により,EDR概念体系を用い,共起の対象を語義とし,$\alpha=1$,$\theta=0$で多義性の解消をした.次に,その解析結果の中から,各動詞について500セットを無作為に選び,全体では$500\times74=37,000$セットについて本節と次節での分析をした.このセットの中では,最頻の語義が占める割合は0.655,語義の判定されたセットの占める割合は0.865,判定されたセットの中での正解の割合は0.720である.さて,提案手法では,複数の係り受け関係があるときには,係り受け関係ごとに動詞語義と信頼下限とを求め,信頼下限最大の動詞語義を語義として選択している.それが妥当なことは表\ref{tab:1and2}からわかる.表\ref{tab:1and2}は,抽出されたセットの中で語義が判定されたセットについて,係り受け関係ごとに語義判定の正解/不正解を調べたときに,信頼下限最大の係り受け関係での正解/不正解と2番目以降での正解/不正解との関連を示したものである.各欄の数値は,そのようなセットが,語義の判定されたセットの中で占める割合である.なお,「2番目以降に正解なし」という場合は,一つのセットにおいて,語義が判定された係り受け関係の数が1である場合を含む.表\ref{tab:1and2}から,信頼下限が2番目以降の係り受け関係に正解がある場合は,0.46と少ないことがわかる.更に,信頼下限最大のものが不正解である場合には,2番目以降に正解がある割合は$0.021/0.280\simeq0.075$のみである.以上から,語義の判定された係り受け関係が複数あるときには,信頼下限最大の係り受け関係に基づいて語義を判断するのが妥当であるといえる.\begin{table}[htbp]\begin{center}\leavevmode\caption{信頼下限最大の係り受け関係での正解/不正解と2番目以降のものでの正解/不正解の関連}\label{tab:1and2}\bigskip\begin{tabular}{c|cc|c}&2番目以降に正解あり&2番目以降に正解なし&合計\\\hline信頼下限最大の関係が正解&0.442&0.278&0.720\\信頼下限最大の関係が不正解&0.021&0.259&0.280\\\hline合計&0.463&0.537&1.000\end{tabular}\end{center}\end{table}\subsubsection{個別の係り受け関係の多義性解消への寄与}動詞の多義性解消における,係り受け関係ごとの寄与率を表\ref{tab:contrib}に示す.表\ref{tab:contrib}において,係り受け関係の「寄与率」とは,正解であったセットの中で,その係り受け関係の信頼下限が最大であったセット(その関係に基づいて語義が判定されたセット)の割合である.なお,表\ref{tab:contrib}の係り受け関係は,図\ref{fig:rels}に示したもののなかで,寄与率が1%以上のものである.また,表\ref{tab:contrib}では寄与率が5%の上下で境界線を引いた.次に,「出現率」は,その係り受け関係が出現するセットの数を全セット数で割ったものである.ただし,1セット中に同じ係り受け関係が複数回出現しても1回として計数した.「1位判定率」というのは,その係り受け関係が出現したセットにおいて,その関係に基づいて動詞語義が判定されたセットの割合である.「1位適合率」というのは,その係り受け関係により語義が判定されたセットにおいて,正解であったセットの割合である.「共出現数」とは,その係り受け関係が出現したセットにおいて,その関係を含めた係り受け関係の個数の平均値である.まず,寄与率をみると,「を」「に」「が」のような必須的な格,および,これに準ずる「係:名詞」のものが,やはり,高い.しかし,必須でない係り受け関係でも,「係:動詞」や「動詞」は寄与率が高い.これは,この二つの出現率が高いためであろう.つまり,コーパス中には複文が多いためであると考えられる.次に,1位判定率は,共出現数が少いほど高くなる傾向がある.それは,判定の際の競合相手が少くなるためである.そのため,$\mbox{1位判定率}/(1/\mbox{共出現数})=\mbox{1位判定率}\times\mbox{共出現数}$は,係り受け関係の相対的な強さ,つまり,提案手法が,どの係り受け関係により語義を判定するかの相対的な度合を示していると考えられる.この指標により,係り受け関係を並べると,大きい方から,「副詞」「を」「動詞」「係:動詞」「形容(動)詞」「φ」「が」「に」「係:名詞」...となる.ところで,計算機用日本語基本動詞辞書IPAL\cite{IPAL87}のような格フレーム辞書には,名詞と動詞の格関係のみが記述されている.したがって,動詞と動詞や副詞と動詞との共起関係は記述されていない.ところが,上述のことからは,動詞と動詞や副詞と動詞の係り受け関係も,多義性解消に高く貢献しているといえる.よって,格フレームだけでなく,動詞と動詞や副詞と動詞の共起関係を記述しておくことも必要であると考える.なお,1位適合率については次章で別に述べる.\begin{table}[htbp]\begin{center}\leavevmode\begin{tabular}{l|ccccc}係り受け関係&寄与率&出現率&1位判定率&1位適合率&共出現数\\\hlineを&0.212&0.346&0.495&0.769&2.738\\係:動詞&0.130&0.278&0.457&0.637&2.610\\係:名詞&0.117&0.272&0.367&0.731&2.324\\動詞&0.116&0.247&0.430&0.679&2.837\\に&0.089&0.245&0.325&0.695&2.786\\が&0.084&0.212&0.325&0.762&2.807\\副詞&0.050&0.100&0.426&0.727&3.255\\\hlineは&0.046&0.187&0.208&0.739&3.053\\φ&0.032&0.081&0.324&0.759&3.303\\形容(動)詞&0.029&0.067&0.369&0.733&3.030\\で&0.027&0.116&0.200&0.737&3.167\\助詞相当表現&0.014&0.075&0.162&0.727&3.003\\も&0.012&0.049&0.206&0.730&2.690\\と&0.011&0.038&0.251&0.744&2.540\\から&0.011&0.036&0.229&0.843&3.124\\係:形容(動)詞&0.011&0.034&0.287&0.665&2.497\\\end{tabular}\end{center}\caption{係り受け関係の寄与率}\label{tab:contrib}\end{table} \section{考察} \label{sec:discussion}本章では,提案手法とクラスベースの手法や事例ベースの手法との関係,および,今後の課題について述べる.\subsection{提案手法とクラスベースの手法や事例ベースの手法との関係}提案手法とクラスベースの手法とを比較すると,クラスベースの手法におけるクラスは,本稿での場合のように,先験的に決めるか,あるいは,データに基づいて決める\cite{Resnik92,Nomiyama93,Tanaka95a}必要がある.データに基づく場合には,必要が生じた時点でクラスを変更する必要がある.しかし,提案手法の場合には,入力に応じて動的に標本空間を定めるため,クラスの設定自体が不要である.提案手法と事例ベースの手法とを実験的に比較することは今後の課題であるが,一つの係り受け関係から動詞の語義を決める場合については,定性的には以下のことが言える.まず,動詞語義の尤度についていえば,事例ベースの手法では,入力単語が動詞語義に付与する尤度は,入力単語から,その動詞語義とコーパスで共起した単語(出現単語)への,シソーラス上での最短距離に基づいている.一方,提案手法では,動詞語義の尤度は,シソーラスの構造と動詞語義のシソーラス上での頻度分布と入力単語とにより決まる.これは,シソーラス上での距離を,コーパスでの共起情報と入力単語とを利用して尤度に変換しているとみなすこともできる.なお,これと同様なことは\cite{Shinnou96}でも行なわれている.しかし,\cite{Shinnou96}は,単語間の一般的な類似性を,シソーラス上での単語間の距離とコーパスでの共起頻度の分布とから設定することを目的としていて,多義性の解消は直接の目的とはしていない.次に,提案手法において,\ref{sec:variable}節で述べた$\alpha$の値を0にすると,第1位と第2位の語義の尤度差が0でなくなった段階で,必ず,動詞の語義が判定される.このときには,事例ベースの手法のように,シソーラス上での最短距離の出現単語に基づいて動詞語義を判定していることになる.一方,$\alpha$の値を大きくすると,動詞語義の頻度分布に大きな偏りがなければ,語義は判定されない.つまり,$\alpha$の値を大きくすることは,最短距離以外にある出現単語も考慮することを意味する.このことは,\ref{sec:introduction}章で述べた,「入力単語の振舞いを決めるのに幾つ出現単語を用いるか」という問題を,$\alpha$の設定に帰着させたと考えることもできる.事例ベースの手法で,もし複数の出現単語を使うとしても,幾つ使うかを決めるためには,シソーラスにおける動詞語義の頻度分布などを考慮しなければならないであろう.提案手法では,\ref{sec:variable}節で述べたように,それが既に分散として数式中で考慮されているため,$\alpha$の値を決めることは,幾つ出現単語を使うかを決めるよりは,容易であると考える.\subsection{今後の課題}表\ref{tab:contrib}にあるように,関係ごとの1位適合率は一様ではない.たとえば,「を」は1位適合率が高く,「係:動詞」は1位適合率が低い.そこで,1位適合率が高いものは,$\alpha$を小さくすることにより,判定率を高くし,1位適合率が低いものは,$\alpha$を大きくすることにより,判定率を低くすることが考えられる.$\alpha$の設定の仕方は今後の課題である.なお,同様な考え方として,\cite{Fujii96a}では,複数の格要素における語義の尤度を足し合わせて全体の尤度とするときに,格ごとの曖昧性解消への貢献度に応じて,その格での尤度に重みを付ける手法が述べられている.本稿では,複数の係り受け関係があっても,それらの間の関係は考慮せずに,信頼下限が最大のものを選んで多義性の解消をしている.この方法は,表\ref{tab:1and2}に示すように,有効である.しかし,複数の係り受け関係の間にある依存関係を利用すれば,判定率や適合率が向上すると考えられる.そのような依存関係を取扱うことは今後の課題である.依存関係を考慮したものとしては,既存の格フレームを利用したり\cite{Kurohashi92,Fujii96a},格フレームあるいは決定木を獲得したり\cite{Tanaka95b},対数線型モデル\cite{Matsuda88}により依存関係を推定する\cite{Bruce94}などの研究があるので,これらと提案手法との融合を検討したい. \section{おわりに} \label{sec:conclusion}シソーラスの構造に従って標本空間を動的に拡張し,動詞の多義性を解消する手法を提案した.シソーラスを使って多義性を解消する従来手法には,クラスベースの手法と事例ベースの手法とがあるが,前者には平均化により情報が失われるという短所があり,後者には個別化によりノイズに弱くなるという短所がある.提案手法は,入力に応じて抽象化の度合を統計的に変化させることにより,情報の損失やノイズを避けながら多義性の解消をしようとしている.実験では,EDR日本語コーパスから頻度500以上の動詞74語を抽出し,延べで約89,000の動詞について多義性の解消をした.このとき,最頻の語義を常に選ぶ場合の適合率は65%,判定率は100%であった.クラスベースの手法と提案手法とを比較すると,分類語彙表をシソーラスとして利用した場合には,適合率は共に71%であったが,判定率は,クラスベースの手法が68%,提案手法が73%であった.EDR概念体系を利用した場合には,適合率は共に70%であったが,判定率は,クラスベースの手法が76%,提案手法が87%であった.両者の判定率を比べると,提案手法の判定率の方が統計的に有意に高く,提案手法の有効性が示された.仮名漢字変換や情報検索などに提案手法を応用すること,複数の係り受け関係の間にある依存関係をモデル化すること,などが今後の課題である.\acknowledgment本稿に対して適切な助言を下さった,本学山本幹雄講師に感謝する.\bibliographystyle{jnlpbbl}\bibliography{disamb}\section*{付録}\label{sec:appendix}\section*{A壷のなかに残された玉の割合の推定\footnote{超幾何分布については\cite[Chapter6]{Jaynes96}にある.}}\label{sec:apA}壷の中に$k$種類の玉があり,それぞれ,$N_1$,$N_2$,...,$N_k$個であるとする($N=\sum_{i=1}^{k}N_i$).ただし,それらの値は不明である.$n$個の玉を壷から取り出したとき,それぞれの種類が,$n_1$,$n_2$,...,$n_k$だけ取り出されたとする($n=\sum_{i=1}^{k}n_i$).このとき,壷の中に残された玉$i$の割合$F_i=(N_i-n_i)/(N-n)$の期待値$\langleF_i\rangle$と分散$var(F_i)$,および,$F_i$と$F_j$との共分散$cov(F_i,F_j)$は$N\rightarrow\infty$のとき次の通りである.\begin{equation}\label{A1}\langleF_i\rangle=(n_i+1)/(n+k)\end{equation}\begin{equation}\label{A2}var(F_i)=p_i(1-p_i)/(n+k+1)\end{equation}\begin{equation}\label{A3}cov(F_i,F_j)=-p_ip_j/(n+k+1)\end{equation}ただし,$p_i=\langleF_i\rangle$である.\subsection*{導出の概略}$N_1$の期待値$\langleN_1\rangle$,分散$var(N_1)$,および,$N_1$と$N_2$との共分散$cov(N_1,N_2)$を求め,それを利用して$\langleF_1\rangle$,$var(F_1)$,$cov(F_1,F_2)$を求める.その他の$F_i$,$i=2,\ldots,k$については対称性から求まる.$D$により$k$種類の玉が,それぞれ,$n_1$,...,$n_k$個取り出されたという事象を示す.$N$や$N_i$は$p(\ldots)$の内部で使われたときには,玉の数が$N$や$N_i$であるという事象を示し,それ以外の場合には玉の数を示す.また,$I$はこの問題に対する事前知識(標本空間など)を示す.\begin{equation}\label{A4}\langleN_1\rangle=\sum_{N_1=0}^{N}N_1p(N_1|D,N,I)\end{equation}であるので,まず,$p(N_1|D,N,I)$を求める.ベイズの定理から,\begin{equation}\label{A5}p(N_1|D,N,I)=p(N_1|N,I)\frac{p(D|N_1,N,I)}{p(D|N,I)}.\end{equation}事前確率として次のような一様分布を設定する.\begin{equation}\label{A6}p(N_1|N,I)=\left\{\begin{array}{ll}1/(N+1)&0\leN_1\leN\\0&\mbox{otherwise}\end{array}\right..\end{equation}$D$は一般化超幾何分布からの標本であるので,\begin{equation}\label{A7}p(D|N_1,N,I)=\frac{\left(\begin{array}{l}N_1\\n_1\end{array}\right)\sum_{N_2+\cdots+N_k=N-N_1}\left(\begin{array}{l}N_2\\n_2\end{array}\right)\cdots\left(\begin{array}{l}N_k\\n_k\end{array}\right)}{\left(\begin{array}{l}N\\n\end{array}\right)}.\end{equation}$p(D|N,I)$は正規化のため項であり,\begin{equation}\label{A8}p(D|N,I)=\sum_{N_1=0}^Np(D|N_1,N,I)p(N_1|N,I).\end{equation}(\ref{A5})式に,(\ref{A6}),(\ref{A7}),(\ref{A8})式を代入すると次式が得られる.\begin{equation}\label{A9}p(N_1|D,N,I)=\frac{\left(\begin{array}{l}N_1\\n_1\end{array}\right)\sum_{N_2+\cdots+N_k=N-N_1}\left(\begin{array}{l}N_2\\n_2\end{array}\right)\cdots\left(\begin{array}{l}N_k\\n_k\end{array}\right)}{\sum_{N_1+\cdots+N_k=N}\left(\begin{array}{l}N_1\\n_1\end{array}\right)\cdots\left(\begin{array}{l}N_k\\n_k\end{array}\right)}.\end{equation}ここで\begin{equation}\label{A10}\sum_{N_1+\cdots+N_k=N}\left(\begin{array}{l}N_1\\n_1\end{array}\right)\cdots\left(\begin{array}{l}N_k\\n_k\end{array}\right)=\left(\begin{array}{l}N+k-1\\n+k-1\end{array}\right).\end{equation}よって,\begin{equation}\label{A11}p(N_1|D,N,I)=\left(\begin{array}{l}N_1\\n_1\end{array}\right)\left(\begin{array}{l}N-N_1+k-2\\n-n_1+k-2\\\end{array}\right)\left(\begin{array}{l}N+k-1\\n+k-1\end{array}\right)^{-1}\end{equation}(\ref{A11})式を(\ref{A4})式に代入すると\begin{equation}\label{A12}\langleN_1\rangle=\frac{(n_1+1)(N+k)}{n+k}-1.\end{equation}$F_1=(N_1-n_1)/(N-n)$とすると(\ref{A1})式が得られる.また$p_1=\langleF_1\rangle$とすると,\begin{equation}\label{A13}var(N_1)=\frac{p_1(1-p_1)}{n+k+1}(N+k)(N-n)\end{equation}である.よって,\begin{equation}\label{A14}var(F_1)=\frac{p_1(1-p_1)}{n+k+1}\frac{N+k}{N-n}\end{equation}であり,$N\rightarrow\infty$とすれば(\ref{A2})式が得られる.$N_1$と$N_2$との共分散は,$cov(N_1,N_2)=\langle(N_1-\langleN_1\rangle)(N_2-\langleN_2\rangle)\rangle=\langleN_1N_2\rangle-\langleN_1\rangle\langleN_2\rangle$である.(\ref{A5})式から(\ref{A8})式までと同様な導出により\begin{equation}\label{A15}p(N_1,N_2|D,N,I)=\left(\begin{array}{l}N_1\\n_1\end{array}\right)\left(\begin{array}{l}N_2\\n_2\end{array}\right)\left(\begin{array}{l}N-N_1-N_2+k-3\\n-n_1-n_2+k-3\\\end{array}\right)\left(\begin{array}{l}N+k-1\\n+k-1\end{array}\right)^{-1}\end{equation}であるので,$p_1=(n_1+1)/(n+k)$,$p_2=(n_2+1)/(n+k)$とすると\begin{equation}\label{A16}cov(N_1,N_2)=\frac{-p_1p_2}{n+k+1}(N+k)(N-n).\end{equation}$F_1=(N_1-n_1)/(N-n)$,$F_2=(N_2-n_2)/(N-n)$とすると\begin{equation}\label{A17}cov(F_1,F_2)=\frac{-p_1p_2}{n+k+1}\frac{N+k}{N-n}\end{equation}である.$N\rightarrow\infty$として(\ref{A3})式を得る.\section*{B差の分散}$D=F(W^\prime,v_1|I)-F(W^\prime,v_2|I)$としたとき,$var(D)$は(\ref{B2}),(\ref{B3}),(\ref{B4})式などから(\ref{B1})式により得られる.$E(X)$は確率変数$X$の期待値である.$F(v_1|I)$や$F(w|v_1,I)$などの期待値や分散などは\ref{sec:model}章を参照.また,(\ref{B2})式と(\ref{B4})式では$F(v_1|I)$と$F(v_2|I)$以外は確率的に独立であるとした.(\ref{B1})と(\ref{B2})と(\ref{B3})式については\cite{Stuart87},(\ref{B4})式については\cite{Bohrnstedt69}を参照.\begin{equation}\label{B1}var(D)=var(F(W^\prime,v_1|I))+var(F(W^\prime,v_2|I))-2cov(F(W^\prime,v_1|I),F(W^\prime,v_2|I))\end{equation}\begin{eqnarray}\label{B2}var(F(W^\prime,v_1|I))&=&var(F(v_1|I)F(W^\prime|v_1,I))\nonumber\\&=&var(F(v_1|I))var(F(W^\prime|v_1,I))+E(F(v_1|I))^2var(F(W^\prime|v_1,I))\nonumber\\&+&var(F(v_1|I))E(F(W^\prime|v_1,I))^2\end{eqnarray}\begin{eqnarray}\label{B3}var(F(W^\prime|v_1,I))&=&\sum_{w\inW^\prime}var(F(w|v,I))+\sum_{w,w^\prime\inW^\prime,w\new^\prime}cov(F(w|v,I),F(w^\prime|v,I))\nonumber\\\end{eqnarray}\begin{eqnarray}\label{B4}cov(F(W^\prime,v_1|I),F(W^\prime,v_2|I))&=&cov(F(v_1|I)F(W^\prime|v_1,I),F(v_2|I)F(W^\prime|v_2,I))\nonumber\\&=&cov(F(v_1|I),F(v_2|I))E(F(W^\prime|v_1,I))E(F(W^\prime|v_2,I))\nonumber\\\end{eqnarray}\begin{biography}\biotitle{略歴}\bioauthor{内山将夫}{筑波大学第三学群情報学類卒業(1992).筑波大学大学院工学研究科博士課程修了(1997).信州大学工学部電気電子工学科助手(1997).言語処理学会,情報処理学会の会員.}\bioauthor{板橋秀一}{東北大学工学部通信工学科卒業(1964).東北大学大学院工学研究科電気及び通信工学専攻博士課程単位取得退学(1970).東北大学電気通信研究所助手(1970).通産省工業技術院電子技術総合研究所技官(1972).同主任研究官(1974).ストックホルム王立工科大学客員研究員(1977-78).筑波大学電子・情報工学系助教授(1982).筑波大学電子・情報工学系教授(1987).専門は音声・自然言語・画像の処理・理解.1982年より,(社)日本電子工業振興協会の音声入力方式分科会主査,音声入出力方式専門委員会委員長として音声データベースの検討・構築に従事している.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V09N03-03
\section{はじめに} 近年,テキスト自動要約の必要性が高まってきており,自動要約に関する研究が盛んに行なわれてきている\cite{okumura}.要約とは,人間がテキストの内容の理解,取捨選択をより容易にできるようにするために,元のテキストを短く表し直したものをいう.これまでの研究で提案されてきた要約手法は,主に次の3つに分類される.\begin{itemize}\item文書を対象とした,重要文抽出による要約\item文を対象とした,不要個所削除(重要個所抽出)による要約\item文を対象とした,語句の言い換えによる要約\end{itemize}どのような使用目的の要約でも作成できる万能な要約手法は存在しないため,要約の使用目的に応じた手法を選択し,時には複数の手法を併用して要約を作成することが必要となる\cite{yamamoto}.要約技術の応用はいくつか考えられている.例えば,「WWW上の検索エンジンの検索結果を一覧するための要約」を作成する場合には,元の文書にアクセスするかどうかを判断するための手掛りとしての役割から,ユーザに読むことの負担を与えないために,簡潔で自然な文が必要となる.したがって,重要文抽出によって作成した要約結果に対し,必要に応じて不要個所削除と語句の言い換えによる要約手法を用いるという方法が適切であると考えられる.また「ニュース番組の字幕生成,及び文字放送のための要約」を作成する場合には,重要文抽出による要約では文書の自然さが損なわれやすいことと情報の欠落が大きすぎること,そしてテキストをそれほど短くする必要がないことなどから,不要個所削除と語句の言い換えによる要約手法を用いることが適切だと考えられる.このように,要約の使用目的に応じて,それに適した要約手法を用いることで,より効果の高い要約を作成することができる.また,テキストの種類に応じて適切な要約手法もあると考えられる.将来,テキストの種類を自動判別し,ユーザの要求に応じられる要約手法を選択し,テキストを要約するといった要約システムを実現するためには,様々な要約手法が利用可能であることが望まれる.本論文で提案するのは,不要個所削除による要約を実現するための要素技術である,文中の省略可能な連用修飾表現を認定するために必要な知識を獲得する手法である.不要個所省略による要約手法として,山本ら\cite{yamamoto}は,一文ごとの要約ヒューリスティックスに基づいた連体修飾節などの削除を提案している.この手法は,重要文抽出による要約結果をさらに要約するという位置付けで提案されているが,単独で用いることも可能である.若尾ら\cite{wakao}や山崎ら\cite{yamasaki}は,人手で作成された字幕とその元となったニュース原稿とを人手で比較し,それによって作成した言い換え規則を用いた要約手法を提案している.また,加藤ら\cite{kato}は記事ごとに対応のとれたニュース原稿と字幕放送の原稿を用いて,言い換えに関する要約知識を自動獲得する研究を行なっている.ところが,これらの手法には次のような問題点がある.まず,不要箇所の削除や言い換えに関する規則を人手で作成するには多大な労力が掛かり,網羅性などの問題も残ることが挙げられる.また,加藤らが使用したような原文と要約文との対応がとれたコーパスは要約のための言語知識を得る対象として有用であるのは明らかであるが,一般には存在しておらず,入手するのが困難である.また,そのようなコーパスを人手で作成するには多大な作業量が必要であると予想される.このような理由から,本論文では,原文と要約文との対応がとれていない一般のコーパスから,不要個所省略による要約において利用できる言語知識を自動獲得し,獲得した言語知識を用いて要約を行なう手法を提案する.ここで不要箇所の単位として連用修飾表現に注目する.連用修飾表現の中には,いわゆる格要素が含まれている.格要素の省略は日本語の文に頻出する言語現象である.格要素が省略される現象には次の2つの原因がある.\begin{enumerate}\item格要素の必須性・任意性\item文脈の影響\end{enumerate}(1):動詞と共起する格要素には,その動詞と共起することが不可欠である必須格と,そうではない任意格があるとされている\cite{IPAL}.必須格は,主格,目的格,間接目的格など,動詞が表現する事象の内部構造を記述するものであり,任意格は,手段や理由,時間,場所などを記述するものである場合が多い.必須格がないことは読み手に文が不自然であると感じさせる.ただし,必須格でも文脈によって省略可能となる場合があり,任意格についても動詞と共起するのが任意的であるというだけで,文中の任意格が必ず省略可能となるとは限らない.(2):本論文における文脈とは,読み手が当該文を読む直前までに得ている情報のことを指す.文脈の影響により省略可能となるのは,読み手にとって新しい情報を与えない格要素,または文脈から読み手が補完するのが容易な格要素である.なお,文脈から省略可能となるのは格要素だけに限らず,格助詞を持たない連用修飾表現においても,文脈から省略可能となる可能性がある.したがって,上で述べたように必須格の格要素でも,それが読み手にとって旧情報であれば省略可能となる場合があり,任意格の格要素でも,読み手にとって新情報であれば,省略することは重要な情報の欠落につながる場合がある.格要素の必須性・任意性を求めることで,省略可能な格要素を認定する手法として,格フレーム辞書を用いた手法を挙げることができる.現在,利用できる格フレーム辞書としては,IPALの基本動詞辞書\cite{IPAL}や日本語語彙大系\cite{goi}の構文意味辞書といった人手により収集されたものがある.また,格フレームの自動獲得に関する研究も数多く行なわれてきている.例えば,用言とその直前の格要素の組を単位として,コーパスから用例を収集し,それらのクラスタリングを行なうことによって,格フレーム辞書を自動的に構築する手法\cite{kawahara}がある.この手法は,用言と格要素の組合せをコーパスから取得し,頻度情報などを用いて格フレームを生成する.その他には,対訳コーパスからの動詞の格フレーム獲得\cite{utsuro1}等がある.本論文で提案する手法は,格要素も含めた省略可能な連用修飾表現を認定する手法であり,その点が格フレーム生成の研究とは異なる.だが,これらの研究で提案されている手法により獲得した格フレームを用いても,省略可能な格要素の認定が実現可能であると考えられる.しかし,格フレームを用いた格要素の省略には次のような問題点がある.\begin{enumerate}\item格要素以外の省略可能な連用修飾表現に対応できない.例えば,節「そのために必要な措置として二百八十二の指令・規則案を定めた.」の動詞「定めた」に対する連用修飾表現「そのために必要な措置として」は文脈から省略可能だが,格要素ではないので格フレーム辞書では対応できない.特に,我々の調査の結果,格要素ではない連用修飾表現で省略可能な表現は多数(後述の実験では,省略可能な連用修飾表現のうち,約55\%が格要素ではない連用修飾表現であった)存在する.\item格フレーム辞書に記載されていない動詞に関しては,省略可能な格要素が認定できない.\item動詞の必須格,任意格は,その格の格成分によって変化する.例えば,IPAL基本動詞辞書において,動詞「進める」の格フレームに関する記述は表\ref{SUSUMERU}のようになっている.この情報からN3が「大学」である場合のみニ格が必須格になる.このように,たとえ大規模な辞書が構築できたとしても,用例によっては任意格が必須格に変化する場合があり,辞書のような静的な情報では対応できない場合がある.\begin{table}[bt]\begin{center}\caption{動詞「進める」の格フレーム}\label{SUSUMERU}\begin{tabular}{r|l|l}\hlineNo.&格フレーム&文例\\\hline\hline1&N1ガN2ヲ(N3ニ/ヘ)&彼は船を沖へ進めた.\\2&N1ガN2ヲN3ニ&彼は娘を大学に進めた.\\3&N1ガN2ヲ&彼は会の準備を進めている.\\4&N1ガN2ヲ&政府は国の産業を進めている.\\\hline\end{tabular}\end{center}\end{table}\item格要素を省略可能と認定する場合,読み手が当該文を読む直前までに得ている情報から,省略可能と認定できる場合がある.しかし,格フレーム辞書では静的であるため,文脈を考慮した省略可能な格要素の認定ができない.\item認定対象としている連用修飾表現に重要な情報が含まれていれば,任意格であっても,そのような連用修飾表現を省略してしまえば情報欠落が大きくなる.しかし,格フレーム辞書では情報の重要度を考慮して認定することができない.\end{enumerate}そこで,本論文では,対応する要約文,もしくは格フレーム等を用いない省略可能な連用修飾表現の認定を行なう教師なしの手法を提案する.具体的には,省略できる可能性のある連用修飾表現を含む節に対して同一の動詞をもち,かつ,格助詞出現の差異が認められる節をコーパスから検索し,検索された節対から省略可能な連用修飾表現を認定する.そのため,格フレームでは対処できない格要素以外の連用修飾表現に対しても省略可能かどうかの判定が可能である.また,ある連用修飾表現が省略可能かどうかの判定の際に,その内容および前後の文脈を考慮して,その連用修飾表現に含まれている情報が以前の文にも含まれている情報である場合には,省略可能と認定されやすくなる.逆に,その情報が以降の文に含まれている場合や,重要な情報が含まれている場合には省略可能と認定されにくくなるような工夫を行なっている.本手法によって抽出された省略可能と認定された連用修飾表現は,その内容および前後の文脈を考慮している上に,格要素以外の連用修飾表現も含まれている.これらは現状の格フレーム辞書にはない知識であり,要約のみならず換言や文生成にも有用であると考える.本研究でコーパスとして想定するのは,形態素情報などの付与されていない一般のコーパスである.したがってCD-ROMなどで提供されている新聞記事のバックナンバーや電子辞書,WWW上で公開されている文書などを利用することができ,コーパスの大規模化も比較的容易に実現可能である.以下,第2章では,本論文で提案する手法を説明する.第3章では,手法を実装して,それによって省略可能と認定される連用修飾表現を示す.第4章では,本手法の性能を評価し,評価結果の考察を示す.第5章では,格フレーム辞書を用いた手法と本手法によって省略可能と認定された連用修飾表現を比較した実験について述べ,実験結果について考察する. \section{提案手法} 本手法では,省略できる可能性のある連用修飾表現を含む節に対して同一の動詞をもち,かつ格助詞出現の差異が認められる節をコーパスから検索し,検索された節対から省略可能な連用修飾表現を認定する.これは「省略できる可能性のある連用修飾表現を含む節に対して,同一の動詞と類似した名詞を含み,かつ,格助詞出現の差異が認められる節が存在し,一方にしか出現しない格助詞を含む連用修飾表現は省略可能である」という仮定に基づいている.ここで,本論文における節とは,ひとつの動詞と,それに対する連用修飾表現をもつ文の構成要素である.なお,本論文では主節も従属節も節とする.以後,省略できる可能性のある連用修飾表現を含有する節を含有節とする.また,含有節と同一の動詞をもち,かつ格助詞出現の差異が認められる節を差異節とする.\subsection{含有節の取得}本手法における含有節は,ある節における動詞に対して2つ以上,連用修飾表現が係っている節であるとする.例えば,「市場統合はECが八五年から進めてきた計画.」における動詞「進める」には「ECが」と「八五年から」という2つの連用修飾表現が係っている.そのため,節「ECが八五年から進めてきた」は含有節となる.ただし,「する」「ある」「なる」の3つの動詞に関して,これらの動詞に係る連用修飾表現を省略すると情報欠落が大きい場合が多いという理由から,精度向上のため,これらの動詞を含む節は含有節としない.本手法では,精度の向上のため,連用修飾表現が1つしか係っていない動詞に対する連用修飾表現を認定対象としない.もし,そのような連用修飾表現を省略可能としてしまうと,その節は連用修飾表現が係っていない動詞になってしまい,情報欠落が大きいものと考える.日本語には,文脈や文末表現によっては連用修飾表現がかかっていない動詞も存在している.しかし,それは一般的に何かの連用修飾表現が省略されている場合であり,文脈から補完ができる情報である.そこまで精度のよい完全な文脈解析ができないため,本手法では精度の向上のため,2つ以上の連用修飾表現が係っている動詞に対する連用修飾表現を対象とする.すなわち,その動詞に2つ以上の連用修飾表現が係っている場合,最も重要な連用修飾表現以外は省略できる可能性がある.よって,本手法を適用した動詞には,少なくとも1つの連用修飾表現が必ず係ることになる.\subsection{差異節の検索}取得した含有節に対する差異節をコーパスから検索する.ここで差異節とは,先に定義したように,含有節と同一の動詞をもち,かつ,格助詞出現の差異が認められる節である.すなわち上記の例文「市場統合はECが八五年から進めてきた計画」における差異節は,動詞「進む」をもち,かつ,「ガ格」「カラ格」のうち,「ガ格」をもつ節,および,「カラ格」をもつ節である.ただし,動詞「進む」をもち「ガ格」「カラ格」を両方,含んでいる節は,節対における格助詞出現の差異が認められないため,本手法における差異節ではない.また,厳密には動詞「進む」をもち「ガ格」「カラ格」を両方持たない節も差異節ではあるが,そのような節は省略可能な連用修飾表現の認定に必要な知識の獲得に有用ではないので,本手法においては対象外とする.例えば,含有節「ECが八五年から進めてきた」に対して,節「市が整備を進めてきた」は,ガ格を含んでいるがカラ格を含んでいないので差異節である.\subsection{省略可能な連用修飾表現の認定}含有節と差異節とを比較して省略可能な連用修飾表現を認定する.ここで,ある含有節に対して$k$個の差異節が検索されたとし,以下のように,記号を定義する.\begin{description}\item[$SP(V)$:]動詞$V$をもつ含有節,\item[$DP_{i}(V)$:]$SP(V)$の差異節.なお,$i=1,2,\dots,k$\item[$C(x)$:]節$x$の動詞$V$に係る連用修飾表現において,動詞$V$に対する格助詞の集合.ただし,$x=SP(V)\or\x=DP_{i}(V)$,\item[$E(c_{j},x)$:]節$x$において格助詞$c_{j}$を含む連用修飾表現.ただし,$c_{j}\inC(x)$,\end{description}例えば,$E(c_{1},SP(V))$と$E(c_{1},DP_{1}(V))$は,含有節$SP(V)$において格助詞$c_{1}$をともなう連用修飾表現$E(c_{1},SP(V))$と,差異節$DP_{1}$において同じ格助詞$c_{1}$をともなう連用修飾表現$E(c_{1},DP_{1}(V))$という関係がある.なお,含有節の動詞$V$に対する格助詞を伴わない連用修飾表現の$c_{j}$は,その動詞$V$に係る品詞によって決定される.品詞は,動詞,名詞,副詞,形容詞,助詞,接続詞,指示詞の7つに分類した\footnote{品詞情報は形態素解析器として採用したJUMANversion3.5に準拠する.}.例えば,「ECは市場統合に続いて通貨・政治統合を推進する」という節で,「ECは市場統合に続いて」が「推進する」に係っているが,この連用修飾表現は格助詞を伴っていないうえ,「続いて」が動詞なので$c_{j}=``動詞''$と定義する.また,「参入分野としては,大蔵省が当初から認める全分野を想定している.」という節で,「参入分野としては」が「想定している」に係っているが,この連用修飾表現は,格助詞を伴っていないうえ,最後に副助詞「は」が含まれているので,$c_{j}=``助詞''$と定義する.本論文では格助詞を伴わない連用修飾表現も,格助詞のかわりに他の品詞を伴っている連用修飾表現であるものと定義している.以下,省略可能な連用修飾表現の認定手法を説明する.\begin{description}\item[Step1]含有節$SP(V)$の各連用修飾表現$E(c_{j},SP(V))$に対して,含有節における各連用修飾表現の重み$W(E(c_{j},SP(V)))$を計算する.重みが高い連用修飾表現ほど,その含有節において重要であり,省略できない連用修飾表現になる.\begin{eqnarray}W(E(c_{j},SP(V)))&=&\max_{i=1,2,\dots,k}(1+SIM(n_{E(c_{j},SP(V))},n_{E(c_{j},DP_{i}(V))}))\nonumber\\&\times&\frac{f(V,c_{j})}{f(V)}\times(1+\sum_{n\inN(c_{j},SP(V))}B(n,SP(V)))\\B(n,SP(V))&=&\frac{1+after(n,SP(V))}{2(1+before(n,SP(V)))}\times\log\frac{P}{df(n)}\end{eqnarray}但し,\begin{description}\item[$n_{E(c_{j},x)}$:]節$x$において格助詞$c_{j}$をともなう連用修飾表現$E(c_{j},x)$において,格助詞$c_{j}$の前に出現する名詞,例えば,「欧州共同体の市場統合が十二月三十一日で完成する」という含有節$SP(V)$における連用修飾表現$E(c_{j},SP(V))$「欧州共同体の市場統合が」では,ガ格$c_{j}$の前に出現する名詞「統合」が$n_{E(c_{j},SP(V))}$である.なお,格助詞を含まない連用修飾表現では,その連用修飾表現の最後に出現する名詞とする.例えば「そのために必要な措置として」では,最後に出現する名詞「措置」が$n_{E(c_{j},SP(V))}$である.\item[$f(V)$:]含有節$SP(V)$に含まれている動詞$V$の全コーパスにおける出現頻度,\item[$f(V,c_{j})$:]全コーパスにおいて,動詞$V$が格助詞$c_{j}$と共起した頻度,\item[$N(c_{j},SP(V))$:]連用修飾表現$E(c_{j},SP(V))$に含まれる名詞の集合.ただし,複合名詞の場合は,分解せずに複合名詞で1つの名詞として扱う.例えば,連用修飾表現「欧州共同体の市場統合が」では,\{欧州共同体,市場統合\}が$N(c_{j},SP(V))$である.\item[$after(n,SP(V))$:]含有節$SP(V)$が存在する文$S$より後の文に名詞$n$が出現する頻度.ただし$n\inN(c_{j},SP(V))$,\item[$before(n,SP(V))$:]含有節$SP(V)$が存在する文$S$より前の文に名詞$n$が出現する頻度.ただし$n\inN(c_{j},SP(V))$,\item[$df(n)$:]対象とした全コーパスにおいて,名詞$n$を含んでいる文書の頻度,\item[$P$:]対象とした全コーパスにおける全文書数,\end{description}ここで,式(1)は,先に示した「含有節に対して,類似した名詞を含んだ差異節が存在し,一方にしか出現しない格助詞を含む連用修飾表現は省略可能である」という仮定に基づいて考案した.式(1)の第1項$SIM(n_{E(c_{j},SP(V))},n_{E(c_{j},DP_{i}(V))})$は,含有節$SP(V)$の格助詞$c_{j}$を伴う連用修飾表現$E(c_{j},SP(V))$における名詞$n_{E(c_{j},SP(V))}$と,差異節$DP_{i}(V)$の格助詞$c_{j}$を伴う連用修飾表現$E(c_{j},DP_{i}(V))$における名詞$n_{E(c_{j},DP_{i}(V))}$の類似度である.名詞間類似度の計算については後述する.$n_{E(c_{j},DP_{i}(V))}$は,最大で差異節の数だけ存在するが,類似度は,その中の最大値を採用する.例えば,含有節の連用修飾表現$E(c_{j},SP(V))$の名詞$n_{E(c_{j},SP(V))}$と,差異節の連用修飾表現$E(c_{j},DP_{i}(V))$の名詞$n_{E(c_{j},DP_{i}(V))}$の類似度が最も高かったとする.その場合,コーパスには連用修飾表現$E(c_{j},SP(V))$に対して同一の動詞に係り,同一の格助詞,類似した名詞をもつ連用修飾表現が存在したことになる.その最も高い類似度を乗算することで重みを大きくし,そのような連用修飾表現$E(c_{j},SP(V))$を省略されにくくする.しかし,その他の連用修飾表現(例えば,$E(c_{i},SP(V))$)は,$E(c_{j},SP(V))$の重みが大きくなることで,Step2の処理によって相対的に重みが小さくなるため省略されやすくなる.式(1)の第2項$\frac{f(V,c_{j})}{f(V)}$は,コーパス全体でその動詞$V$に対して格助詞$c_{j}$を含んだ連用修飾表現が係る割合であり,動詞$V$に対して多く係る格助詞を含む連用修飾表現ほど省略されにくくなる.式(1)の第3項$(1+\sum_{n\inN(c_{j},SP(V))}B(n,SP(V)))$は本手法における文脈補正項と定義し,詳細は後述する.\item[Step2]$W(E(c_{j},SP(V)))$を,含有節$SP(V)$の動詞$V$に係っているいくつかの連用修飾表現の重みの最大値で正規化する.ここで,含有節$SP(V)$の動詞$V$には$m$個の連用修飾表現が係っているものとする.\begin{eqnarray}Ws(E(c_{j},SP(V)))=\frac{W(E(c_{j},SP(V)))}{\max_{i=1,2,\dots,m}W(E(c_{i},SP(V)))}\end{eqnarray}\item[Step3]$Ws(E(c_{j},SP(V)))$が,ある閾値以下の連用修飾表現を省略可能と認定する.最大値で正規化しているので,複数ある$Ws(E(c_{i},SP(V)))$のどれか1つは値が1になっており,必ず省略不可能と認定される.ただし,連用修飾表現が提題,ガ格,ヲ格であった場合は無条件に省略不可能と認定する.ここで提題とは,文における主格となる表現である.\end{description}\subsection{名詞間類似度}名詞間類似度は,コーパス内の動詞と名詞の出現に関する相互情報量からその類似度を検出するヒンドル法\cite{Hindle,jHindle}を採用した.以下,ヒンドル法について述べる.\begin{description}\item[Step1]ある格助詞$c_{j}$において,動詞$v_{i}$と名詞$n_{k}$の出現に関する相互情報量$MI(c_{j},v_{i},n_{k})$を求める.\begin{eqnarray}MI(c_{j},v_{i},n_{k})=\log\frac{\frac{f(c_{j},v_{i},n_{k})}{N}}{\frac{f(v_{i})}{N}\times\frac{f(n_{k})}{N}}\end{eqnarray}\begin{description}\item[$N$:]全コーパス中の文の総数,\item[$f(n_{k})$:]名詞$n_{k}$の出現頻度,\item[$f(v_{i})$:]動詞$v_{i}$の出現頻度,\item[$f(c_{j},v_{i},n_{k})$:]$n_{k}$が格助詞$c_{j}$を伴って$v_{i}$と共起した頻度,\end{description}\item[Step2]格助詞$c_{j}$と動詞$v_{i}$からみた名詞$n_{k},n_{l}$の類似度$RSIM(c_{j},v_{i},n_{k},n_{l})$を求める.\\$MI(c_{j},v_{i},n_{k})>0$かつ$MI(c_{j},v_{i},n_{l})>0$のとき\begin{eqnarray}RSIM(c_{j},v_{i},n_{k},n_{l})=min(MI(c_{j},v_{i},n_{k}),MI(c_{j},v_{i},n_{l}))\nonumber\end{eqnarray}$MI(c_{j},v_{i},n_{k})<0$かつ$MI(c_{j},v_{i},n_{l})<0$のとき\begin{eqnarray}RSIM(c_{j},v_{i},n_{k},n_{l})=|max(MI(c_{j},v_{i},n_{k}),MI(c_{j},v_{i},n_{l}))|\nonumber\end{eqnarray}上記以外のとき\begin{eqnarray}RSIM(c_{j},v_{i},n_{k},n_{l})=0\nonumber\end{eqnarray}\item[Step3]$n_{k}$と$n_{l}$の名詞間類似度を次式で求める.\begin{eqnarray}SIM(n_{k},n_{l})=\sum_{i}\sum_{j}RSIM(c_{j},v_{i},n_{k},n_{l})\end{eqnarray}\end{description}なお,名詞を一つも含まない連用修飾表現(例えば,「しかし」といった接続詞,「さらに」といった副詞)は,名詞間類似度が算出できない.そのため,そのような連用修飾節の$SIM(n_{E(c_{j},SP(V))},n_{E(c_{j},DP_{i}(V))})$は$0$になる.\subsection{数値表現の省略}連用修飾表現$E(c_{j},SP(V))$で,その$n_{E(c_{j},SP(V))}$が数値表現であった場合は,省略可能性の認定手法が異なる.例えば,「欧州共同体の市場統合が十二月三十一日で完成する」という節における連用修飾表現「十二月三十一日で」で,デ格の前に出現する名詞は「三十一」である.この三十一が数値表現なので,この連用修飾表現の省略可能性の認定は以下で述べる手法を用いる.数値表現の省略は,数値情報の重要性が読み手によって異なるので,省略すべきかどうかの判断が難しい.本手法では,コーパス中で数値情報が頻繁に係る動詞における数値表現は省略しないとする.これを反映させるため,数値表現が含まれている連用修飾表現については,以下のような手法をとる.\begin{description}\item[Step1]まず,数値表現は全て``Number''という表現に置き換える.\item[Step2]含有節$SP(V)$の各連用修飾表現において,その$n_{E(c_{j},SP(V))}$が``Number''であった連用修飾表現$E(c_{j},SP(V))$の重み$W(E(c_{j},SP(V)))$を以下の式で計算する.\begin{eqnarray}Ws(E(c_{j},SP(V)))&=&f('Number',c_{j},V)\times\frac{f(V,c_{j})}{f(V)}\end{eqnarray}\begin{description}\item[$f('Number',c_{j},V)$:]動詞$V$における格助詞$c_{j}$を伴う連用修飾表現で,格助詞$c_{j}$の前に出現する名詞が``Number''である頻度,\item[$f(V)$:]動詞$V$の全コーパスにおける出現頻度,\item[$f(V,c_{j})$:]全コーパスにおいて,動詞$V$が格助詞$c_{j}$と共起した頻度,\end{description}\item[Step3]$Ws(E(c_{j},SP(V)))$がある閾値以下の連用修飾表現を省略可能と認定する.\end{description}\subsection{文脈補正項について}式(1)における第3項,$(1+\sum_{n\inN(c_{j},SP(V))}B(n,SP(V)))$を,本手法の文脈補正項と定義する.$B(n,SP(V))$は$tf\cdot{}idf$\cite{tfidf}を改良した計算式である.従来の$tf\cdot{}idf$は,名詞のある文書における重要度を算出する計算式であるが,本手法で提案する改良した計算式は,文書中における名詞の出現位置によって重要度が変化する点が従来の$tf\cdot{}idf$と異なる.例えば,名詞$n\inN(c_{j},SP(V))$が以前の文に出現している位置で$B(n,SP(V))$を計算すると,$before(n,SP(V))$の値が大きくなるので値は小さくなる.そのため,省略可能であるかどうかの認定対象となっている連用修飾表現に,それより以前の文に出現した名詞が含まれている場合は値が小さくなる.よって,そのような連用修飾表現は省略可能と認定されやすくなる.しかし,以降の文に出現する名詞が含まれている場合は値が大きくなり,省略可能と認定されにくくなる.また,重要な名詞の多い,長い連用修飾表現には情報が多く,それを省略することで情報欠落が大きくなる危険がある.しかし,重要な名詞は一般にコーパスにおける頻度が小さく,$df(n)$が小さい.よって,$B(n,SP(V))$は$\log\frac{P}{df(n)}$によって大きくなり,そのような名詞を多く含む連用修飾表現の文脈補正項$(1+\sum_{n\inN(c_{j},SP(V))}B(n,SP(V)))$は大きくなる.そのため,重要な名詞の多い,長い連用修飾表現は省略可能と認定されにくくなる. \section{手法の実装} 本手法を実装して,文書の要約システムを作成した.コーパスは1993年の日本経済新聞記事1月1日から3月31日までの,32729記事,278628文を採用した.この中から含有節と,それに対する差異節を検索する.なお,名詞間類似度を求めるための情報も,この範囲内で抽出し獲得する.形態素解析器としてJUMANversion3.5を,構文解析器としてKNPversion2.0b6を採用した.本手法によって省略可能と認定できる例をいくつか以下に示す.下線で示された部分が省略可能と認定された連用修飾表現である.\begin{itemize}\item{\footnotesize欧州共同体の市場統合が\underline{十二月三十一日で}完成し,十二カ国,人口三億四千万人の世界最大の単一市場が一日発足する.}\item{\footnotesizeEC域内の自由な経済活動を妨げてきた国境規制や基準の違いから生じる障壁を取り除こうというもので,\underline{そのために必要な措置として}二百八十二の指令・規則案を定めた.}\item{\footnotesize通貨・政治統合は九二年夏のデンマーク国民投票のマーストリヒト条約批准否決以来揺れているが,ECは\underline{市場統合の完成をステップに}実現を急ぐ考えだ.}\end{itemize}実際には,本手法によって省略可能と認定された連用修飾表現を文から削除することによって,削除型の文内要約を実現することができる. \section{評価実験} \subsection{実験方法および結果}実装したシステムを評価した.実験における対象記事は,1993年の日本経済新聞記事1月1日から3月31日までの32729記事の中から,無作為に11記事を選択した.選択した11記事には全183文が存在し,この中から含有節は$196$節(1文で2つ以上の含有節を有する文もある)存在した.つまり,この$196$節が認定対象となる.ただし,省略可能な連用修飾表現認定に必要となる差異節や,名詞間類似度を求めるための情報等は,日経新聞93年の1月1日から3月31日までの32729記事から取得した.$196$個の含有節に対する差異節は合計$76314$個存在し,1含有節あたりの平均差異節は$389$個であった.本手法によって含有節の$196$節から省略可能な連用修飾表現を認定した.評価方法は,対象記事群から省略可能な連用修飾表現の正解データを作成し,適合率,再現率で性能を評価する.ここで正解データは,対象記事群における全ての含有節から,省略しても妥当な連用修飾表現を人手で抽出し,作成した.再現率,適合率の定義を示す.\begin{eqnarray}再現率&=&\frac{本手法による結果と正解データで一致する省略可能な連用修飾表現の数}{正解データの省略可能な連用修飾表現の数}\nonumber\end{eqnarray}\begin{eqnarray}適合率&=&\frac{本手法による結果と正解データで一致する省略可能な連用修飾表現の数}{本手法によって省略可能と判定された連用修飾表現の数}\nonumber\end{eqnarray}実験結果を表\ref{Experiment_Resul}に示す.表\ref{Experiment_Resul}には本手法の$Ws(E(c_{j},SP(V)))$における閾値を0.04から0.14まで変化した場合の適合率,再現率,F値,省略認定数と,おのおのの平均値を示す.なお,$n_{E(c_{j},SP(V))}$が数値表現である場合は閾値を10倍した値を使用する.\begin{table}[bt]\begin{center}\caption{評価実験結果}\label{Experiment_Resul}\begin{tabular}{l|r|r|r|r}\hline閾値&再現率(\%)&適合率(\%)&F値&省略認定数\\\hline\hline0.04&55.5&79.5&65.3&83\\0.05&59.7&80.7&68.6&88\\0.06&61.3&79.3&69.2&92\\0.07&67.2&80.8&73.4&99\\0.08&69.7&79.0&74.1&105\\0.09&71.4&78.7&74.9&108\\0.1&71.4&77.3&74.2&110\\0.11&71.4&76.6&73.9&111\\0.12&73.1&76.3&74.7&114\\0.13&73.1&75.7&74.4&115\\0.14&73.1&74.4&73.7&117\\\hline平均&67.9&78.0&72.4&103.8\\\hline\end{tabular}\end{center}\end{table}本手法を評価するための対象記事では,閾値が$0.09$のときが最もF値が高い結果となった.しかし,対象記事によっては多少,変化するものと考える.そこで,最大のF値のときの閾値$0.09$を中心に,閾値を$0.04$から$0.14$まで変化させたときの再現率,適合率,F値,省略認定数の平均を本手法の評価結果として採用する.よって,本実験によって再現率$67.9$\%,適合率$78.0$\%を得た.\subsection{文脈補正項を導入した場合と導入しない場合との比較}本手法では,含有節において認定対象の連用修飾表現の内容および前後の文脈を考慮した文脈補正項を導入している.これによって,省略可能であるかどうかの認定対象となっている連用修飾表現に,それより以前の文に出現した名詞が含まれている場合は省略可能と認定されやすくなる.また,認定対象となっている連用修飾表現に重要な名詞が多数含まれていれば,省略可能と認定されにくくなる.この文脈補正項が,どの程度,性能に影響しているのかを調べる.そのために,計算式に文脈補正項を導入した場合としない場合との性能を比較する.表\ref{Experiment_Resul4}に文脈補正項を導入しない場合の実験結果を示す.\begin{table}[bt]\begin{center}\caption{文脈補正項を導入しない場合の性能}\label{Experiment_Resul4}\begin{tabular}{l|r|r|r|r}\hline閾値&再現率(\%)&適合率(\%)&F値&省略認定数\\\hline\hline0.04&52.9&77.8&63.0&81\\0.05&56.3&77.9&65.4&86\\0.06&61.3&78.5&68.9&93\\0.07&63.0&77.3&69.4&97\\0.08&66.4&76.7&71.2&103\\0.09&67.2&76.2&71.4&105\\0.1&67.2&76.2&71.4&105\\0.11&67.2&75.5&71.1&106\\0.12&68.9&75.9&72.2&108\\0.13&68.9&75.2&71.9&109\\0.14&70.6&74.3&72.4&113\\\hline平均&64.6&76.5&69.9&100.5\\\hline\end{tabular}\end{center}\end{table}平均を採用した場合,再現率$64.6$\%,適合率$76.5$\%,F値$69.9$を得た.\subsection{考察}評価の結果,提案手法は再現率67.9\%,適合率78.0\%の結果を得た.再現率$67.9$\%であることから,対象記事には,まだ省略できる連用修飾表現が残されているといえるので,手法には改良の余地がある.しかし,再現率よりも適合率のほうが実際に手法を適用する場合に重要であると考える.なぜなら,省略箇所の網羅性が少なくても読み手に悪影響を与えないが,間違った省略による要約は読み手に情報の欠落した情報を提供するからである.適合率は78.0\%であり,本手法によって認定された省略箇所は,概ね妥当であると考える.提案手法で,閾値を$0.1$としたときに省略可能と認定された連用修飾表現を,表層格の種類によって分類した.表\ref{result_main}に,各表層格において,省略が妥当と判定された連用修飾表現の数,妥当ではないと判定された連用修飾表現の数を挙げる.また,対象記事とした日本経済新聞1993年の1月1日から3月31日までの記事において,含有節における各表層格の出現の割合を示す.\begin{table}[bt]\begin{center}\caption{各表層格の判定の傾向と含有節における出現傾向}\label{result_main}\begin{tabular}{l|r|r|r|r}\hline表層格の種類&妥当であった数&妥当ではない数&正解データの数&出現割合(\%)\\\hline\hlineニ&9&5&19&14.16\\ヨリ&1&0&1&0.20\\デ&6&1&13&7.32\\ヘ&1&1&2&0.14\\ト&4&0&5&3.73\\カラ&8&1&9&2.51\\マデ&4&3&4&0.67\\\hline名詞&4&4&9&7.82\\接続詞&3&0&3&1.38\\副詞&14&0&15&4.09\\助詞&8&6&12&7.44\\指示詞&1&1&1&0.31\\形容詞&11&1&13&2.43\\動詞&11&1&12&2.90\\\hline\end{tabular}\end{center}\end{table}省略が妥当と判定された連用修飾表現の中で最も数が多かったのは,含有節の動詞に対する格助詞を持たない連用修飾表現であった.本論文では,そのような連用修飾表現を,動詞に係っている品詞情報を利用して「名詞」「接続詞」「副詞」「助詞」「指示詞」「形容詞」「動詞」の7つに分類した.これらの出現割合の合計は約26.4\%であり,格要素以外にも省略可能な連用修飾表現が多数,存在していることが分かる.このような連用修飾表現には「比較的順調に」といった形容動詞が変化したもの,「そのために必要な措置として」といった動詞「する」が変化したものが見られた.これらの連用修飾表現の省略可能性の判定は格フレームでは対応できず,本手法の有効性を示すと考える.しかし,省略が妥当ではないと判定された連用修飾表現の中で最も数が多かったのも,含有節の動詞に対する格助詞を持たない連用修飾表現であった.妥当ではないと判定されたものには,「イデオロギーや安全保障上の根本的な対立がない以上」のような,重要な情報を含む連用修飾表現があった.これらの連用修飾表現を省略することは,情報欠落が大きくなってしまう原因になる.本手法では,重要な名詞を多く含む連用修飾表現は省略可能と認定されにくくなるような補正項を導入している.しかし,それでも省略可能と認定されてしまう重要な情報を含む連用修飾表現が存在する.このような格助詞を持たない連用修飾表現を省略可能とすることでシステムの性能が低下してしまうとすると,格助詞を持たない連用修飾表現に対して省略可能かどうかを認定することが有害になってしまう.そこで,表層格の種類ごとに適合率,再現率を算出し,どの連用修飾表現の省略が有効であったか調べる.表\ref{result_pre}に結果を示す.\begin{table}[bt]\begin{center}\caption{各表層格の適合率,再現率}\label{result_pre}\begin{tabular}{l|r|r}\hline表層格の種類&再現率(\%)&適合率(\%)\\\hline\hlineニ&47.4&64.3\\ヨリ&100.0&100.0\\デ&46.2&85.7\\ヘ&50.0&50.0\\ト&80.0&100.0\\カラ&88.9&88.9\\マデ&100.0&57.1\\\hline名詞&44.4&50.0\\接続詞&100.0&100.0\\副詞&93.3&100.0\\助詞&66.7&57.1\\指示詞&100.0&50.0\\形容詞&84.6&91.7\\動詞&91.7&91.7\\\hline\end{tabular}\end{center}\end{table}表\ref{result_pre}によると,格助詞を持たない連用修飾表現の中では,「動詞」「副詞」「形容詞」が比較的,頻度が大きいにもかかわらず,適合率,再現率が高い.頻度が大きい格要素の中では,ニ格での適合率,再現率の低さが目立つ.その理由は以下のとおりである.ニ格は動詞に対する目的格となるものが多く,妥当ではないと判定されたニ格は,目的格を省略したため情報の欠落が大きい連用修飾表現が多かった.また,場所を表すニ格の連用修飾表現もあり,それを省略可能と認定した場合も情報欠落が大きい.そのため,妥当ではないと判定された場合が多かった.逆に,妥当であると判定されたニ格の連用修飾表現には「今月中に」「秋口に」といった時期を表す句,「絶対に」といった程度を表す連用修飾表現が多く,このような連用修飾表現は省略しても情報欠落が少なく,妥当であると判定された.つまり,ニ格に関しては,それが目的格であるかどうかが判別できれば,目的格は省略可能と認定しないという条件をつけて,適合率をより上げることができると考える.文脈補正項については,実験結果より,対象の含有節において文脈補正項によって再現率,適合率が上がり,性能への効果があったことがわかる.文脈補正項によって新たに省略可能となった連用修飾表現の数は$11$個であり,この中で省略が妥当な連用修飾表現の数は$7$個であった.一方,文脈補正項で省略不可となったのは$6$個であり,この中で省略が妥当な連用修飾表現の数は$2$個であった.文脈補正項を導入したことによって,全体の認定数の中で省略が妥当ではない連用修飾表現の数を減らし,省略が妥当な連用修飾表現の数を増やすことができた.よって,この文脈補正項は妥当であると考える.文脈補正項によって省略不可になった連用修飾表現には,「新たな財投資金の調達多様化策として」,「各省庁の許認可や審査事務の迅速化への取り組みについて」といった,重要な情報が多く含まれている表現が多かった.これは,文脈補正項の構成要素$B(n,SP(V))=\frac{1+after(n,SP(V))}{2(1+before(n,SP(V)))}\times\log\frac{P}{df(n)}$の$\log\frac{P}{df(n)}$が,高い値をとったため,省略不可と認定されたと考える.例えば,連用修飾表現「新たな財投資金の調達多様化策として」の「財投資金」や「調達多様化策」といった複合名詞はコーパスにおける頻度が少なく,$df(n)$が小さくなる.よって,このような名詞の$\log\frac{P}{df(n)}$は高くなる.そのため,文脈補正項の値は高くなり,省略不可と認定されるようになった.実際,「新たな財投資金の調達多様化策として」の重み$Ws(E(c_{j},SP(V)))$は,文脈補正項導入前で$0.038$であったが,文脈補正項導入後で$0.212$となった.しかし,既に示したように,情報が多く含まれている連用修飾表現でも省略可能と認定される場合があるので,文脈補正項は改良の余地があると考える.文脈については,該当の連用修飾表現に,以前の文に出現した名詞が含まれていた場合,重みが下がることで省略可能と認定されやすくなる.例えば,「また,単一市場の誕生で北欧や東欧を巻き込んだ欧州経済圏の結び付きが強まるのは確実で,世界の経済体制の行方にも影響しそうだ」という文において,連用修飾表現「単一市場の誕生で」は,文脈から省略可能となる.それは,以前の文に「欧州共同体(EC)の市場統合が完成し,世界最大の単一市場が一日発足する」という内容の文が存在しているからである.よって,連用修飾表現「単一市場の誕生で」の文脈補正項を計算する場合,「単一市場」の$B(n,SP(V))=\frac{1+after(n,SP(V))}{2(1+before(n,S(P)))}\times\log\frac{P}{df(n)}$における$before(n,S(P))$は,以前の文に「単一市場」が存在するため値が大きくなる.そのため,文脈補正項が小さくなり省略可能と認定されやすくなる.しかし,実際には「単一市場の誕生で」における重み$Ws(E(c_{j},SP(V)))$は,文脈補正項導入前で$0.0586$であったが,文脈補正項導入後で$0.0865$となった.これは,「単一市場」という複合名詞の$\log\frac{P}{df(n)}$が高いためであると考える.文脈から省略可能な連用修飾表現に対しては,より重みが小さくなるように,文脈補正項を改良する必要があると考える. \section{格フレームによる手法との比較実験} \subsection{実験方法および結果}本手法は,省略可能な連用修飾表現をコーパスの情報から認定する手法であるが,省略可能な連用修飾表現の認定は格フレーム辞書を使用することでも認定できる.すなわち,格フレームに記述されている格要素を動詞に対する必須格として省略不可能,記述されていない格要素を任意格として省略可能と認定する.実験では,格フレーム辞書を用いることによって省略可能な格要素の認定を行ない,提案手法との比較実験を行なった.認定対象,および対象記事は上記の実験と同じである.格フレーム辞書には日本語語彙大系\cite{goi}の構文意味辞書を使用した.使用した格フレーム辞書には意味素性による意味制約が記載されている.一つの動詞に複数の格フレームが記載されている場合は,格フレーム辞書に記載されている意味素性との照合を行ない,省略可能な連用修飾表現の認定を行なう.以下に格フレームを使用した場合の認定手法を示す.なお,格フレームとの照合は人手で行なった.\begin{description}\item[Step1]含有節$SP(V)$の動詞$V$に対する格フレームを格フレーム辞書から得る.\item[Step2]連用修飾表現$E(c_{j},SP(V))$の格助詞$c_{j}$と,その前に出現する名詞$n_{E(c_{j},SP(V))}$の意味素性を日本語語彙大系\cite{goi}の単語体系を利用して取得する.複数,意味素性がある場合は全て採用する.\item[Step3]まず,格フレームに記載されていない格助詞を含む連用修飾表現を省略可能と認定する.例えば,含有節「欧州共同体の市場統合が十二月三十一日で完成する」には,動詞「完成する」にガ格の「欧州共同体の市場統合が」とデ格の「十二月三十一日で」が係っているが,「完成する」の格フレームは表\ref{KANSEI}のとおりである.\begin{table}[bt]\begin{center}\caption{動詞「完成する」の格フレーム}\label{KANSEI}\begin{tabular}{r|l|l}\hlineNo.&格フレーム&意味素性\\\hline\hline1&N1ガ&N1=*\\2&N1ガN2ヲ&N1=3主体N2=*\\\hline\end{tabular}\end{center}\end{table}格フレームにはデ格が記載されていない.よって,デ格を省略可能な格要素と認定する.\item[Step4]格フレームに記載されている格助詞を含む連用修飾表現は,格フレーム辞書に記載されている意味素性と,Step\2で取得した名詞$n_{E(c_{j},SP(V))}$の意味素性との照合を行なう.その際,Step\2で取得した名詞$n_{E(c_{j},SP(V))}$の意味素性か,その上位概念が格フレームに記載されていれば,その連用修飾表現は省略不可と認定する.しかし,記載されていない場合は,その連用修飾表現は省略可能と認定する.例えば,連用修飾表現「銀行にEC単一免許が導入される」の動詞「導入する」の格フレームは表\ref{Include}のとおりである.\begin{table}[bt]\begin{center}\caption{動詞「導入する」の格フレーム}\label{Include}\begin{tabular}{r|l|l}\hlineNo.&格フレーム&意味素性\\\hline\hline1&N1ガN2ヲN3ニ/ヘ&N1=3主体\\&&N2=*\\&&N3=362組織388場所760人工物\\&&1001抽象物1236人間活動2054事象\\\hline\end{tabular}\end{center}\end{table}ニ格の連用修飾表現「銀行に」の名詞「銀行」の意味素性は「374企業428仕事場」である.「374企業」の上位概念に「362組織」があり,二格の格フレームと照合を行なうと,格フレームに記載されている意味素性であることがわかる.よって,連用修飾表現「銀行に」は省略不可である.ガ格の連用修飾表現「EC単一免許が」の名詞「免許」の意味素性は「1735許可1166権利」である.この上位概念に「3主体」は含まれていない.しかし,ガ格とヲ格の連用修飾表現を省略可能とすることは情報欠落が大きいので,ガ格,ヲ格に「3主体」が記載されている場合は,たとえ上位概念に「3主体」が含まれていなくても省略不可と認定する.\end{description}ただし,格フレーム辞書によって省略可能性を判定できるのは,動詞に対する格要素のみである.しかし,実際には格要素以外の省略可能な連用修飾表現が多数存在する.そのため,格フレームを使用した手法では,格助詞を伴わない連用修飾表現は全て省略可能と認定した.なお,格フレーム辞書に記載されていない動詞の格要素は,どれも省略不可能とした.また,連用修飾表現が提題である場合も省略不可能と認定した.実験結果を表\ref{Experiment_Resul2}に示す.提案手法の再現率,適合率は節4.1で得た結果である.\begin{table}[bt]\begin{center}\caption{格フレームを用いた手法との比較}\label{Experiment_Resul2}\begin{tabular}{l|r|r|r}\hline手法&省略可能と認定された数&再現率(\%)&適合率(\%)\\\hline\hline提案手法&103.8&67.9&78.0\\格フレームによる手法&150&77.3&61.3\\\hline\end{tabular}\end{center}\end{table}\subsection{格要素のみを対象とした場合の比較}節5.1の比較実験では,格助詞をともなわない連用修飾表現に対しては全て省略可能と認定した.しかし,全て省略可能としては適合率の低下が予想できる.そこで,格助詞をともなわない連用修飾表現に対しては全て省略不可とする場合と提案手法とを比較した.提案手法も,格助詞をともなわない連用修飾表現を全て省略不可とした.すなわち,格要素のみを対象に,提案手法と格フレームによる手法とを比較したことになる.この場合,正解データも格要素のみを対象として,適合率,再現率を算出した.実験結果を表\ref{Experiment_Resul3}に示す.\begin{table}[bt]\begin{center}\caption{格要素のみを対象とした場合の比較}\label{Experiment_Resul3}\begin{tabular}{l|r|r|r}\hline手法&省略可能と認定された数&再現率(\%)&適合率(\%)\\\hline\hline提案手法&45&61.8&74.5\\格フレームによる手法&49&51.9&57.1\\\hline\end{tabular}\end{center}\end{table}なお,提案手法の結果は,この実験では閾値を変化させると1.2のときF値が最も大きくなったので,閾値を0.07から0.17まで変化したときの適合率,再現率の平均を採用した.\subsection{考察}表\ref{Experiment_Resul2}によると,格フレームを用いた手法は再現率が提案手法に比べて上がっているが,適合率は下がっている.これは,格助詞をともなわない連用修飾表現を全て省略可能であると認定しているためであると考える.このことを確かめるため,格フレームを用いた手法でも,表層格の種類ごとに適合率,再現率を算出し,どの連用修飾表現の省略が有効であったかを調べる.表\ref{result_pre2}に結果を示す.\begin{table}[bt]\begin{center}\caption{格フレームを用いた手法における各表層格の適合率,再現率}\label{result_pre2}\begin{tabular}{l|r|r}\hline表層格の種類&再現率(\%)&適合率(\%)\\\hline\hlineニ&42.1&50.0\\ヨリ&0.0&0.0\\デ&92.3&70.6\\ヘ&0.0&0.0\\ト&20.0&100.0\\カラ&44.4&66.7\\マデ&75.0&60.7\\\hline名詞&100.0&60.0\\接続詞&100.0&100.0\\副詞&100.0&100.0\\助詞&100.0&36.4\\指示詞&100.0&50.0\\形容詞&100.0&86.7\\動詞&100.0&64.7\\\hline\end{tabular}\end{center}\end{table}格助詞を伴わない連用修飾表現の省略で,それぞれの再現率が100\%なのは,そのような連用修飾表現は全て省略可能としたからである.また,適合率は「名詞」以外はそれぞれ提案手法のほうが同等,もしくは良い適合率を出している.この結果から,格助詞を伴わない連用修飾表現の省略は有効であるが,全てを省略可能とすることは性能の低下を招くことが分かる.格要素のみを対象とした場合においても本手法が格フレームを用いた手法に比べて,再現率,適合率ともに上回った.この結果によって,格要素のみを対象とした場合でも従来の格フレームを用いた手法より本手法が優れていることが分かる.格フレームを用いた手法において,再現率に関しては,含有節の動詞が格フレームに記述されていなかった場合,その動詞に係る格要素を全て省略不可としたので低下したと考える.なお,全196の含有節において,格フレームに記述されていなかった動詞は41個存在した.この41個の動詞に係る格要素は省略可能かどうかの判別ができないので,全て省略不可とするしかないが,これらの中には省略可能な格要素も含まれている.よって再現率が低下したと考える.採用した格フレーム辞書は日本語語彙大系の構文意味辞書であり,現在,一般に使用できる格フレーム辞書の中でも最大規模である.しかし,実に約20\%もの動詞が記述されていなかった.本手法は格フレームに記述されていないような動詞に係る格要素でも省略可能かどうかの認定ができるので,格フレームを用いた手法より優れた手法であると考える.格フレームに記述されていない動詞の格要素は全て省略不可としたので,適合率に関しては格フレームの網羅量の影響を受けない.しかし,適合率に関しても格フレームを用いた手法より,本手法のほうがよい結果であった.これは,格フレームの質が適合率の結果に影響を与えるためである.つまり,ある動詞に関して,格フレームに記載されていない格要素を省略することで情報欠落が大きい場合があったので適合率が低下した.例えば,「当面は最大手の日住金への金利減免支援の強化を最優先する.」という文において,動詞「優先する」の必須格はガ格,ニ格と格フレームに記述してある.しかし,この文におけるヲ格「最大手の日住金への金利減免支援の強化を」を省略することは妥当ではない.他にも「大蔵省・日銀は住専支援策について,すでに一部関係金融機関に非公式に打診を始めた」という文において,動詞「始める」の必須格はガ格,ヲ格,カラ格と格フレームに記述してある.そのため,ヲ格「打診を」は省略不可であるが,ニ格「一部関係金融機関に」は省略可能となる.しかし,それは「どこに」に相当する部分を省略したことになり,省略が妥当とはいえない.この結果は,文は多様に変化し,格フレームのような静的な情報では対応に限界があることを示していると考える. \section{結び} 本論文では,省略できる可能性のある連用修飾表現を含む節に対して,同一の動詞をもち,かつ,格助詞出現の差異が認められる節をコーパスから検索し,検索された節対から省略可能な連用修飾表現を認定する手法を提案した.省略可能な連用修飾表現を認定する手法として,格フレームを用いる手法が考えられるが,格フレームでは格助詞を持たない連用修飾表現に対しては,省略可能かどうかの判定ができない.提案した手法は,そのような欠点を克服し,格助詞を持たない連用修飾表現でも省略可能かどうかの認定ができる.また,連用修飾表現の内容および前後の文脈を考慮して,重要な情報が多く含まれている連用修飾表現に対しては省略可能と認定できる可能性を低く,逆に,認定対象としている連用修飾表現に,それより以前の文に存在する情報が含まれている場合に対しては,省略可能と認定できる可能性が高くなるような工夫を施した.これにより,格フレームのような静的な情報ではなく,動的な情報で省略可能な連用修飾表現を認定できる.評価実験によって,本手法による省略可能な連用修飾表現は再現率67.9\%,適合率78.0\%を示し,比較的,良好な結果であった.これは,格フレームを用いた手法より高い値であった.さらに,格要素のみを対象とした場合も本手法のほうが良い結果であった.これは,本手法によって,省略可能な格助詞を持たない連用修飾表現を高い精度で抽出できたからであった.加えて,格フレームを用いた手法では,多様に変化する文に対して,格フレームのような静的な情報では対処しきれず,重要な情報を含む連用修飾表現を省略可能と認定した場合が多かった.これらの理由によって,本手法は格フレームを用いた手法を上回る性能を示すことができたと考える.しかし,本手法では,ニ格に関しては,他の格要素と比べて性能がよくなかった.ニ格は動詞に対して目的格となるものが多く,そのようなニ格の格要素は,多くが省略不可であった.しかし,本手法ではニ格の中で目的格であるものと,そうでないものとの判別ができず,目的格であっても省略可能と認定してしまうことがある.よって適合率が下がったと考える.本手法の適合率を上げるには,ニ格の格要素を目的格であるか,そうでないかを判別し,目的格である場合には省略不可とするような制限を加えることで,適合率を上げることができると考える.\acknowledgment言語データとして,日本経済新聞CD-ROM版の使用を許可して頂いた日本経済新聞社に深謝する.また,日本語語彙大系から意味分類を取得するために用いた形態素解析システムALT-JAWSver.2.0.の使用を許可して頂いた日本電信電話(株)に深謝する.\bibliographystyle{jnlpbbl}\bibliography{362}\begin{biography}\biotitle{略歴}\bioauthor{酒井浩之}{2002年豊橋技術科学大学大学院修士課程知識情報工学専攻修了.現在,同大学院博士後期課程電子・情報工学専攻在学中.自然言語処理,特に,検索,要約の研究に従事.{\tte-mail:[email protected]}}\bioauthor{篠原直嗣}{2001年豊橋技術科学大学大学院修士課程修了.現在,(株)リコー勤務.在学中は,自然言語処理,特に,テキスト自動要約の研究に従事.}\bioauthor{増山繁}{1977年京都大学工学部数理工学科卒業.1982年同大学院博士後期課程単位取得退学.1983年同修了(工学博士).1982年日本学術振興会奨励研究員.1984年京都大学工学部数理工学科助手.1989年豊橋技術科学大学知識情報工学系講師,1990年同助教授.1997年同教授.アルゴリズム工学,特に,並列アルゴリズム等,及び,自然言語処理,特に,テキスト自動要約等の研究に従事.言語処理学会,電子情報通信学会,情報処理学会等会員.{\tte-mail:[email protected]}}\bioauthor{山本和英}{1996年豊橋技術科学大学大学院博士後期課程システム情報工学専攻修了.博士(工学).同年より(株)国際電気通信基礎技術研究所(ATR)に所属し,現在はATR音声言語コミュニケーション研究所,研究員.1998年中国科学院自動化研究所,国外訪問学者.換言処理,機械翻訳,要約処理,中国語及び韓国語処理の研究に従事.1995年NLPRS'95BestPaperAwards.言語処理学会,情報処理学会,ACL各会員.{\tte-mail:[email protected]}}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V06N04-01
\section{はじめに} 照応関係の理解は,統語的・意味的レベルの問題であるとともに,談話レベルの問題でもあり,照応表現とその先行詞をどのように同定するかは,言語理論にとっても~\cite{sag}~\cite{tsujimura:1996}~\cite{imanishi:1990},工学的な談話理解システムを構築する上でも重要な課題である~\cite{nakaiwa:1996}~\cite{murata:1997a}~\cite{tanaka:1979}.本稿では,日本語の照応表現について,発見的ストラテジー(heuristicstrategy)が照応関係理解のプロセスでどのように関与するのかについて心理言語学的実験を通して考察する. \section{人間の照応関係理解} \subsection{照応理解モデル}英語の照応関係理解に関して行われてきているさまざまな実験結果に基づいて,~\cite{abe:1994}は照応関係理解過程のモデル化を試みている.彼らは,代名詞および名詞句による照応,ゼロ代名詞に対するモデルを提案しているが,それらに共通したプロセスは,概ね,次の図~\ref{fig:process}に示す通りである.\begin{figure}[t]\begin{center}\epsfile{file=5.eps,height=88mm}\end{center}\caption{照応関係理解のプロセス}\label{fig:process}\end{figure}彼らは,現在のモデルはまだまだ不十分であるとしているが,筆者は,こうしたモデルをさらに精緻化するという意味で,特に次のような問題を解決する必要があると考える.\begin{itemize}\item制約条件の設定がどのようなメカニズムで行われるのか.\\先行文脈(照応表現を取り巻く文脈)から得られる統語的情報や意味的情報が,照応理解のプロセスにおいて,いつどのように利用されるのか,また,先行文脈が照応関係の候補決定および照応解決に対して,いつ,どのような影響を及ぼすのかについて,さらに調査する必要がある.\item照応関係の決定がいつ行われるのか.\\指示対象があいまいな照応表現が認定された時点で,即時的に指示対象が仮に決定されるのか,文末(あるいは以後の処理)まで留保されて決定が遅れるのかを明らかにする必要がある.\item指示候補の選択はどのようなメカニズムで行われるのか.\\照応表現の指示対象候補が複数ある場合,その候補からの選択に働く原理を明確にする必要がある.\end{itemize}\footnotetext[1]{ここでいう「意味処理」とは,照応表現をとりまく文脈の意味処理を指す.}\subsection{研究課題}本稿では,照応表現の指示対象候補が複数ある場合に,上記モデルの「制約条件の設定」および「指示候補の選択」がどのようなメカニズムで展開するのかに焦点を当てて,以下の点について考察する.\begin{itemize}\item文脈によって規定される「主題」(topic)という概念が,指示対象の候補絞り込みに,どのような影響を及ぼすのか.\item日本語の代名詞の指示対象を同定するプロセスにおいても,英語に対して提案されている発見的ストラテジーである「主語割当方略」(SubjectAssignmentStrategy)や「平行機能方略」(ParallelFunctionStrategy)が用いられるのか.\end{itemize} \section{主題割当方略(TopicAssignmentStrategy)} \subsection{英語の照応関係における「主題」の役割}代名詞の照応表現に関して,文文法レベルにおける統語的制約だけでは,代名詞とその指示対象(先行詞)との間にある照応関係を説明するのに十分ではない.そこで,主題などの機能構文論的な概念を導入した説明がなされることがある.理論的にも照応関係を決定する一つの要因として,主題という概念が大きな役割を果たしていることが主張されている~\cite{takami:1997}~\cite{takami:1987}~\cite{kanzaki:1994}.例えば,~\cite{takami:1997}は,主題の概念を用いて,次のような文の適格性を説明することができるとしている.\vspace{3mm}\begin{tabular}{cl}(1)&a.John$i$tookoutMarytodinnerwhenhe$i$wenttoBoston.\\&b.$*$He$i$tookoutMarytodinnerwhenJohn$i$wenttoBoston.\\(2)&a.Whenhe$i$wenttoBoston,John$i$tookoutMarytodinner.\\&b.WhenJohn$i$wenttoBoston,he$i$tookoutMarytodinner.\\\end{tabular}\vspace{-2mm}\begin{flushright}\cite{takami:1997}\end{flushright}(1a)が適格であるのは,主節の主語であるJohnが同時に主題であるからである.それに対して,(1b)では主節の主語が主題ではあるが,代名詞になっているため不適格となる.言い換えると,主節が従属節に先行する場合,代名詞が主節の主語になることはできない.ところが,(2b)が適格であるのは,従属節と主節が意味上,独立した等位節として解釈され,Johnが意味上,この文全体の主題として解釈されるためであるとしている.\subsection{日本語の照応関係における「主題」の役割}言語類型論的な観点から見ると,英語などの言語は「主語卓立言語」(subjectprominentlanguage)であり,中国語などは「主題卓立言語」(topicprominentlanguage)であり,日本語はどちらの要素も多く持っていると言われている~\cite{huang:1984}~\cite{li:1976}~\cite{kanzaki:1994}.日本語には,主題を示す標識である助詞「は」があり,もし,助詞の情報が利用されるとすれば,日本語などの主題卓立の要素をもった言語には,(3)に示す「主題割当方略」とでも言うべきストラテジーが利用されると仮定することができる.\vspace{3mm}\begin{tabular}{cl}(3)&主題割当方略(TopicAssignmentStrategy;TAS)\\&代名詞には,先行する文脈の中で「主題」である指示対象を割り当てよ.\\\end{tabular}\vspace{3mm}次の例文を見られたい.\vspace{3mm}\begin{tabular}{cl}(4)&a.太郎が先週の金曜日健太を殴り,そして彼は慌てて逃げた.\\&b.太郎は先週の金曜日健太を殴り,そして彼は慌てて逃げた.\\\end{tabular}\vspace{3mm}日本語では,格助詞「が」は主語を表すのに対して,「は」は主題を表すと言われている.(4a)では,文頭名詞句「太郎」に「が」が付与されていることから,主語であることが示され,後続の「彼」と同一指示的となっている.また,(4b)では,文頭名詞句「太郎」に主題を示す「は」が付与されており,後続の「彼」と照応が可能である.このような現象などから,\cite{kanzaki:1994}は,(5)のような一般化を行っている.\vspace{3mm}\begin{tabular}{cl}(5)&1文中の代名詞の照応\\&代名詞は話題\footnotemark[2]になっている句(節)の中の同一名詞句と照応が可能である.\end{tabular}\vspace{3mm}\footnotetext[2]{「主題」,「話題」とは,\cite{halliday:1985}の定義に従えば,主題が文頭にくる要素であるのに対して,話題は必ずしも文頭にある必要はない.したがって,主題は話題の一部とみなすことができ,この点を除いてはほぼ同義と考えることができる.しかし,特にここでは厳密な区別は必要ないので,本稿では,「主題」という用語を用いることにする.}主要部後置型言語(head-finallanguage)である日本語では,文理解プロセスにおいて「助詞」が重要な役割を果たし,それが担う情報が利用されている.人間の文理解プロセスにおいては,主題を示す標識である「は」と主語を示す「が」の相違が影響を及ぼすと考えられる.また,ゼロ代名詞の照応関係についても,主題という概念が重要な役割を果たしていると考えられる.\cite{takami:1997}は(6a)と(6b)に見られる文の適格性の違いを,主題という概念を用いて説明している.\vspace{3mm}\begin{tabular}{cl}(6)&a.$\phii$会社から帰ったとき,父$i$は青い顔をしていた.\\&b.$*\phii$会社から帰ったとき,父$i$が青い顔をしていた.\\\end{tabular}\vspace{3mm}(6a)が適格であるのは,「父」が主題を表す「は」でマークされているため,従属節のゼロ代名詞の先行詞とも解釈されるからである.それに対して,(6b)は,「父」が中立叙述を表す「が」でマークされており,この文には主題が明示されていない.このような場合,従属節のゼロ代名詞の先行詞は,通例,話し手と解釈される.\subsection{Nagata(1991,1995)の実験}日本語の照応理解に関する心理言語学的実験はそれほど多くないが,ここでは日本語の照応関係理解の「主語の優位性」を主張している~\cite{nagata:1991}~\cite{nagata:1995}を取り上げ,その成果と問題点について簡単に述べることにする.~\cite{nagata:1991}では,日本語の再帰代名詞「自分」が,主語名詞句と間接目的語のいずれも先行詞としうる統語的曖昧文を用いて,ProbeRecognitionTaskを行った.プローブ語は,再帰代名詞の直後か文末で呈示される.\vspace{3mm}\begin{tabular}{cl}(7)&太郎$i$は花子$j$に自分$i/j$の家族の話ばかりされた.\\\end{tabular}\vspace{3mm}(7)では,統語的には「自分」は主語の「太郎」も目的語の「花子」も先行詞としてとり得る.しかし,プローブ語を呈示する位置に関係なく,文の主語名詞句が呈示された場合の方が間接目的語を呈示した場合よりも判断時間が短いことから,主語の優位性を主張している.さらに,~\cite{nagata:1995}では,日本語の再帰代名詞「自分」が,主節主語と従属節主語のいずれも先行詞としうる統語的曖昧文を作成し,どちらを先行詞とするかについて,(8)のようなlogophoric文とnon-logophoric文を用いて,同様の実験を行った.(8a)では,主節の動詞は,個人の視点や思考,感情,意識の状態を反映する動詞であり,再帰代名詞の指示対象は曖昧である.このようなタイプの束縛特性を含む文はlogophoric文と呼ばれる.それに対して,(8b)では指示対象の曖昧さは見られない.このような文はnon-logophoric文と呼ばれる.\vspace{3mm}\begin{tabular}{cl}(8)&a.先生$i$は生徒$j$が自分$i/j$の誤りを見つけたとすぐに察した.\\&b.先生$i$は生徒$j$が自分$*i/j$の誤りを見つけたときすぐにほめた.\\\end{tabular}\vspace{3mm}このような文を用いた場合は,プローブ語を呈示する位置に関係なく,従属節主語よりも主節主語が呈示された場合の方が,判断時間が速い傾向が見られた.この傾向は,(8b)のように主節主語が先行詞として不適切な場合にも見られたことから,主節主語の優位性を主張した.このように,英語における先行研究で指摘された「主語の優位性」が,日本語でも確認されたと主張されているが,~\cite{nagata:1991}~\cite{nagata:1995}で用いられた実験刺激文は,主語名詞句が「は」でマークされており,指示対象候補を設定する段階で「主題の優位性」が影響している可能性がある.そこで,主語の優位性と主題の優位性とを区別する実験を行った.\subsection{心理言語学実験}本稿の以下の節では,次に示すような心理言語学実験の結果を報告する.\vspace{-4mm}\subsubsection{被験者}日本語を母語とする大学生18名.\vspace{-4mm}\subsubsection{実験方法}\vspace{-2mm}実験課題は,以下に述べるSelf-PacedReadingTaskおよびProbeRecognitionTaskの2種類を用意した.被験者は,実験の目的についての説明を受けた後,Self-PacedReadingTaskの練習(3試行)を行った後,テスト問題を行い,続いてProbeRecognitionTaskの練習(3試行)を行った後,テスト問題をそれぞれ行った.以下にそれぞれのTaskについて詳述する.\begin{itemize}\itemSelf-PacedReadingTask\\実験文および内容理解を確認するQ\&Aはすべてコンピュータの画面上に文節ごとに呈示した.最初に実験手順を説明した後,実験に慣れるための練習を行った.実験では,初期画面には「準備ができたら何かキーを押して下さい」という指示が数秒出ており,被験者がスペース・キーを押すと,画面中央に*****マークが数秒間呈示され,この位置に実験文が呈示されることを示す.実験文はすべて文節ごとに呈示され,被験者の自己のペースで読み進めるにつれて,前の文節は消えていく.1文の呈示が終わると,内容理解を確認するQ\&Aが現れ,被験者は選択肢の数字キー(1または2)を押し,最後にリターン・キーを押すと1つの試行が終了する.Q\&Aは照応表現の先行詞を尋ねる問題で,たとえば,「〜したのは誰ですか?1)太郎2)健太」というような形式になっている.被験者はなるべく速く,正確に読むように,かつ内容を理解することがもっとも大切であると言われた.コンピュータには,各被験者の文節ごとの読解時間,Q\&Aの選択した解答および反応時間が自動的に記録された.\itemProbeRecognitionTask\\実験文の呈示方法は,Self-PacedReadingTaskと同じく,文節ごとに自己のペースで読み進めるが,文の途中で(本実験では,代名詞の直後)同じ画面にプローブ語(ターゲットへの手がかり)が呈示され,その語が文中に存在していたかどうかを判断する.プローブ語は,代名詞が指示対象とする人名である.心理学実験における反応結果(ここではプローブ語の判断時間)の一方がもう一方に比べて速い場合,速い方の人名が脳内で活性化されているのではないかと解釈することができる~\cite{abe:1994}.\end{itemize}\subsection{実験1:照応理解における主題割当方略}本実験では,3.2節の(3)に示した「主題割当方略」という発見的ストラテジーが,日本語の照応理解のプロセスで用いられるのかどうかについて検証する.\subsubsection{実験刺激文}表\ref{table:exam1s}に実験1で用いられる刺激文の例を示した.それぞれ(a)の文は,主語名詞句に助詞「が」が付与されており,(b)の文は,主語名詞句に助詞「は」が付与されている.このような基準で6セット作成した.なお,文中の▲はProbeRecognitionTaskにおけるプローブ語の現れる位置を表す.\begin{table}[htbp]\begin{center}\caption{実験1で用いる刺激文}\label{table:exam1s}\begin{tabular}{cl}\hline(9)&a.太郎$i$が花子に[健太$j$が自分$i/j$を▲批判した]と言った.\\&b.太郎$i$は花子に[健太$j$が自分$i/j$を▲批判した]と言った.\\(10)&a.太郎$i$が花子に[健太$j$が自分自身$i/j$を▲批判した]と言った.\\&b.太郎$i$は花子に[健太$j$が自分自身$i/j$を▲批判した]と言った.\\(11)&a.太郎$i$が[健太$j$が自分$i/j$の車で▲東京へ行った]と思っている.\\&b.太郎$i$は[健太$j$が自分$i/j$の車で▲東京へ行った]と思っている.\\(12)&a.太郎$i$が[健太$j$が自分自身$i/j$の車で▲東京へ行った]と思っている.\\&b.太郎$i$は[健太$j$が自分自身$i/j$の車で▲東京へ行った]と思っている.\\(13)&a.太郎$i$が先週の金曜日健太$j$を殴り,そして彼$i/j$は▲次郎を殴った.\\&b.太郎$i$は先週の金曜日健太$j$を殴り,そして彼$i/j$は▲次郎を殴った.\\(14)&a.太郎$i$が先週の金曜日健太$j$を殴り,そして次郎は彼$i/j$を▲殴った.\\&b.太郎$i$は先週の金曜日健太$j$を殴り,そして次郎は彼$i/j$を▲殴った.\\\hline\end{tabular}\end{center}\end{table}\subsubsection{結果の予測}それぞれの刺激文において,「が」を用いた(a)の文よりも「は」を用いた(b)の文で,Q\&A反応において「太郎」を照応表現の先行詞として割り当てる反応が多ければ,TASが用いられていることになる.また,「が」を用いた(a)の文よりも「は」を用いた(b)の文で,ProbeRecognitionの判断時間が短かければ,TASが用いられていることになる.\subsubsection{結果と考察}表\ref{table:exam1r}にSelf-PacedReadingTaskにおける読解時間・Q\&A反応結果,およびProbeRecognitionTaskにおける判断時間(ms)(PRT反応と略記)を示す.\begin{itemize}\itemSelf-PacedReadingTask\\照応表現の先行詞を判断するQ\&Aでは,「は」が付与された場合,その反応率が増加する傾向が見られた.特に,(10)のように先行詞として同一節内の名詞句をとる傾向の強い「自分自身」に対しても「は」による逆転が見られた.ただ,(12)においてはむしろ「太郎(は)」を先行詞とする反応が減少したが,これは「自分自身」がさらに深く名詞句の中にある(「自分自身の車」)ことが影響した可能性がある.「が」が付与された名詞句よりも「は」が付与された名詞句で読解時間がかかる傾向が見られ,分散分析を行った結果,それぞれの刺激文において両者の間に有意差が見られた((10a-b):$F(1,17)=11.214,p<0.05$;(11a-b):$F(1,17)=14.461,p<0.01$;(12a-b):$F(1,17)=143.831,p<0.01$;(13a-b):$F(1,17)=17.235,p<0.01$;(14a-b):$F(1,17)=5.612,p<0.05$).この傾向は,助詞「は」のもつ情報が利用されていることを示していると考えられる.\itemProbeRecognitionTask\\「が」を含む(a)の文では,文によってばらつきが見られ,「健太」の方が判断時間が速い場合もある.それに対して,(a)の文に比べて「は」を含む(b)の文では一貫して,プローブ語として「太郎」が呈示された場合の方が判断時間が速かった.これらの結果は,主題を表す「は」の情報が利用され,照応理解のプロセスでTASが利用されていることを示している.\end{itemize}\begin{table}\begin{center}\caption{実験1の結果}\label{table:exam1r}\begin{tabular}{|rl|r|r|r|r|r|r|}\hline\multicolumn{2}{|c|}{}&\multicolumn{2}{c|}{読解時間}&\multicolumn{2}{c|}{Q\&A反応}&\multicolumn{2}{c|}{PRT反応(ms)}\\\hline\multicolumn{2}{|c|}{実験文}&太郎が/は&照応表現&太郎&健太&太郎&健太\\\hline(9)a&太郎が\ldots自分を\ldots&14.77&21.60&13&5&1507&2272\\b&太郎は\ldots自分を\ldots&17.37&17.15&17&1&1372&1547\\(10)a&太郎が\ldots自分自身を\ldots&13.23&16.07&7&11&1598&1488\\b&太郎は\ldots自分自身を\ldots&17.77&21.89&10&8&1367&1482\\(11)a&太郎が\ldots自分の\ldots&13.07&28.65&3&15&1477&1488\\b&太郎は\ldots自分の\ldots&17.07&19.65&8&10&1303&1627\\(12)a&太郎が\ldots自分自身の\ldots&14.43&18.68&5&13&1513&1528\\b&太郎は\ldots自分自身の\ldots&19.15&22.38&4&14&1340&1485\\(13)a&太郎が\ldots彼は\ldots&13.36&12.48&12&6&1397&1888\\b&太郎は\ldots彼は\ldots&17.34&12.19&13&5&1360&1400\\(14)a&太郎が\ldots彼を\ldots&12.84&10.98&11&7&1445&1817\\b&太郎は\ldots彼を\ldots&15.21&14.66&14&4&1323&1898\\\hline\end{tabular}\end{center}\end{table} \section{主語割当方略および平行機能方略} 実験1では照応表現の解釈に主題の効果があることを見た.次に,英語における心理言語学的実験に基づいて提案されている他の発見的ストラテジーが日本語の照応関係理解のプロセスで利用されるかどうかについて考察する.\subsection{照応理解における主語割当方略および平行機能方略}英語における心理言語学的実験で「発見的ストラテジー」として提案されているものに,主語割当方略(SubjectAssignmentStrategy)と平行機能方略(ParallelFunctionStrategy)と呼ばれるものがある.これらのストラテジーは概略次のようなものである.\vspace{3mm}\begin{tabular}{cl}(15)&主語割当方略(SubjectAssignmentStrategy;SAS)\\&代名詞がいかなる文法的位置にあっても,それには,\\&先行する節中の主語位置にある名詞句の解釈を付与\\&せよ.\\(16)&平行機能方略(ParallelFunctionStrategy;PFS)\\&代名詞には,先行する節中で代名詞と同じ文法的位\\&置にある名詞句の解釈を付与せよ.\\\end{tabular}\vspace{3mm}これらのストラテジーをめぐって様々な心理言語学的実験が行われてきている~\cite{crawly:1990}.Crawlyらは,SASとPFSのどちらが利用されているかについて実験を行った.\vspace{3mm}\begin{tabular}{cl}(17)&a.JohnhitBillandheranaway.\\&b.JohnhitBillandMarykickedhim.\\\end{tabular}\vspace{3mm}彼らは,(17a)の代名詞のみならず,(17b)のような文においても,目的語代名詞には前節の主語名詞句を割り当てるという結果から,SASを支持する結果が得られたとした.また,性別の手がかりがある場合には,両者のストラテジー間には差が見られないことから,発見的ストラテジーの使用は他に決定的な手がかりが存在しない場合に限られるとした.一方,~\cite{smyth:1994}は,parallelな統語構造を持っている文では,PFSの使用が促進され,それ以外の構造においては,SASが促進されることを示した.また,これらのストラテジーは他の手がかりが存在しないときに活用されることも示した.このように,英語に関する先行研究では矛盾する結果が得られているので,日本語の場合について実験を行うことにした.\subsection{実験2}本実験では,指示対象が曖昧な代名詞を用いて,日本語の照応理解のプロセスで,SASあるいはPFSといったストラテジーが用いられるのか,また用いられるとしたらSASか,それともPFSなのかについて調査する.\subsubsection{実験刺激文}表\ref{table:exam2as}に実験2で用いられる刺激文を示した.実験文には,等位接続詞「そして」によって接続された第2節の主語が代名詞の場合(主語代名詞条件)と目的語が代名詞の場合(目的語代名詞条件)を設定した.第1節には同姓の2人の人物が登場し,第2節中の代名詞は2人の人物のいずれも指示することが可能である.なお,文中の▲はProbeRecognitionTaskにおけるプローブ語の現れる位置を表す.\vspace{-3mm}\begin{table}[htbp]\begin{center}\caption{実験2で用いる刺激文}\label{table:exam2as}\begin{tabular}{cl}\hline(18)&「が」:主語代名詞\\&a.太郎が健太を殴りそして彼は▲次郎を殴った.\\&「が」:目的語代名詞\\&b.太郎が健太を殴りそして次郎は彼を▲殴った.\\\hline\end{tabular}\end{center}\end{table}\vspace{-3mm}\subsubsection{結果の予測}いずれのストラテジーが用いられても,(18a)の「彼」は先行節の「太郎」が指示対象として優先されることが予測される.それに対して,(18b)では,SASが用いられれば「太郎」が,PFSが用いられば「健太」を指示対象として選択することが予測される.これらは,Self-PacedReadingTaskのQ\&A反応およびProbeRecognitionTaskの反応時間から判断することができる.PRT反応では,(18a)ではいずれのストラテジーを用いた場合でも,「太郎」の方が「健太」に比べて反応時間が速いはずである.しかし,(18b)ではSASが用いられれば,プローブ語として「太郎」が呈示された方が,PFSが用いられれば「健太」が呈示された方が反応時間が速いことが予測される.\subsubsection{結果と考察}表\ref{table:exam2ar}に,Self-PacedReadingTaskにおける読解時間(Q\&A反応結果,およびProbeRecognitionTaskにおける判断時間(ms)(PRT反応)を示す.\begin{itemize}\itemSelf-PacedReadingTask\\刺激文(18a-b)では,前節の主語を先行詞とする傾向が見られた.この傾向は,主語代名詞の場合だけでなく,目的語代名詞の場合にも見られたことから,SASを支持する結果が得られた.\itemProbeRecognitionTask\\まず,(18a)では,「健太」(1032ms)よりも「太郎」(930ms)がプローブ語として呈示された場合の方が判断時間が速く,両者の間には有意差が見られた($F(1,17)=5.318,p<0.05$).しかし,(18b)では,これとは逆の傾向が見られ,「太郎」(770ms)よりも「健太」(684ms)がプローブ語として呈示された場合の方が判断時間が速く,両者の間には有意差が見られた($F(1,17)=16.878,p<0.01$).\end{itemize}\begin{table}\begin{center}\caption{実験2の結果}\label{table:exam2ar}\begin{tabular}{|rl|r|r|r|r|r|r|}\hline\multicolumn{2}{|c|}{}&\multicolumn{2}{c|}{読解時間}&\multicolumn{2}{c|}{Q\&A反応}&\multicolumn{2}{c|}{PRT反応(ms)}\\\hline\multicolumn{2}{|c|}{実験文}&太郎が/は&照応表現&太郎&健太&太郎&健太\\\hline(18)a&太郎が\ldots彼は\ldots&13.58&12.71&15&3&930&1032\\b&太郎が\ldots彼を\ldots&12.71&12.83&17&1&770&684\\\hline\end{tabular}\end{center}\end{table}以上のことをまとめると,まず,Self-PacedReadingTaskにおけるQ\&A反応では,照応表現の先行詞を前節の主語とする反応が多いことから,SASを利用しているものと考えられる.しかし,(18b)については,実験課題による結果の相違が見られた.Self-PacedReadingTaskにおけるQ\&A反応では,「太郎」を先行詞とする反応が多いが,ProbeRecognitionTaskでは,「太郎」に比べて「健太」の方が判断時間が速く,照応表現が現れた時点では,被験者の脳内で「健太」が活性化され,「健太」を先行詞としていることが分かる.つまり,後者の実験課題では,PFSを支持する結果が得られた.こうした不一致は,次のような理由によるものと考えられる.Self-PacedReadingTaskにおけるQ\&Aは一文を読み終えた後に行われるため,文末以降の文処理を反映しており,意味処理や文脈処理が行われた結果が反映していると考えることができる.したがって,Self-PacedReadingTaskの結果からは,つねにSASが使用されると断定することはできず,提示される文の意味内容によってはPFSを支持する結果が得られる可能性もあるため,どちらのストラテジーが用いられるかを決定するのに有効な実験課題ではなかった.一方,ProbeRecognitionTaskは,照応表現が現れた時点で先行詞として何が活性化されているかというリアルタイムでの処理を反映している.そうすると,照応表現の位置では,(18b)のような目的語代名詞の場合には,前節の目的語が暫定的に先行詞として割り当てられていると考えることができ,オンラインではPFSが用いられていることになる. \section{発見的ストラテジー間の相互関係} 実験1では,日本語の照応理解プロセスで「主題役割方略」が用いられることを,また実験2では,parallelな構造をもつ文では「平行機能方略」が用いられることを示す結果が得られた.しかし,両者のストラテジーの関係は明らかになっていない.つまり,この2つのストラテジーが競合する場合,どちらか一方が優先的に利用されるということがあるのだろうか.また,これまで得られた結果について,他のストラテジーが関与している可能性はないのだろうか.\subsection{その他の発見的ストラテジー}英語の照応理解では,前節で触れた「主語割当方略」,「平行機能方略」以外にも,さまざまなストラテジーが提案されている.例えば次のような,いわゆる知覚上のストラテジーがある.\vspace{3mm}\begin{flushleft}\begin{tabular}{cl}(19)&ファーストメンション効果(firstmentioneffect;FM)\\&文の最初に言及された人物を代名詞の指示対象として割り当てよ.\end{tabular}\end{flushleft}\begin{flushright}\vspace{-2mm}~\cite{gernsbacher:1988}\end{flushright}\vspace{-2mm}\begin{flushleft}\begin{tabular}{cl}(20)&近接効果(recencyeffect;RE)\\&代名詞に最も近い位置に現れた人物をその代名詞の指示対象として割り当てよ.\\\end{tabular}\end{flushleft}\vspace{3mm}これまでの実験で,主題を表す「は」でマークされた語が代名詞の先行詞として解釈される場合は,(19)のストラテジーが利用されて,最初に言及した人物を割り当てているとも考えられる.また,parallelな構造をもつ文で目的語代名詞の場合には,先行する節の目的語が代名詞の先行詞として解釈される現象は,(20)のストラテジーが利用されている可能性もある.日本語の照応理解においても以上のようなストラテジーが働く可能性があるので,これらの知覚上のストラテジーとの関係について検討する必要がある.\subsection{予備実験}複数のストラテジーが競合する場合,利用されるストラテジーに優先度があるのかどうかについて詳細に調査する前に予備実験を行った.\subsubsection{実験刺激文}実験2で取り上げた刺激文(18)は,第1節には主語を示す「が」を用いた文であったが,それを主題を表す「は」に置き換えた刺激文(19)を用いて比較実験を行った.予備実験で用いた例文を表\ref{table:exam2bs}に示す.なお,参照の煩雑さを避けるため,刺激文(18)を再度掲載する.\vspace{-3mm}\begin{table}[htbp]\begin{center}\caption{実験2で用いる刺激文}\label{table:exam2bs}\vspace{-2mm}\begin{tabular}{cl}\hline(18)&「が」:主語代名詞\\&a.太郎が健太を殴り,そして彼は▲次郎を殴った.\\&「が」:目的語代名詞\\&b.太郎が健太を殴り,そして次郎は彼を▲殴った.\\(19)&「は」:主語代名詞\\&a.太郎は健太を殴り,そして彼は▲次郎を殴った.\\&「が」:目的語代名詞\\&b.太郎は健太を殴り,そして次郎は彼を▲殴った.\\\hline\end{tabular}\end{center}\end{table}\vspace{-3mm}\subsubsection{結果の予測}刺激文(18)では,PRT反応時間を測定した結果,主語代名詞の場合には第1節の主語を,目的語代名詞の場合には第1節の目的語を提示した方が反応時間が速かったことから,オンラインではPFSが利用されていることが分かった.これに対して,刺激文(19)では次のような予測が成り立つ.主語代名詞の(19a)では,PFSが用いられてもTASが用いられても,プローブ語として提示される「健太」に比べて「太郎」の反応時間が速いことが予測される.しかし,目的語代名詞の(19b)では,「健太」の反応時間が速ければPFSが用いられたことになり,「太郎」の反応時間が速ければTASが用いられたことになる.\subsubsection{結果と考察}実験結果を表~\ref{table:exam2br}に示す.主題を示す「は」を用いた刺激文(19a)では,「健太」(1192ms)よりも「太郎」(747ms)がプローブ語として呈示された場合の方が判断時間が速く,両者の間には有意差が見られた($F(1,17)=18.635,p<0.01$).また,(19b)でも同様の傾向が見られ,(18b)とは逆に,「健太」(1062ms)よりも「太郎」(888ms)がプローブ語として呈示された場合の方が判断時間が速く,両者の間には有意差が見られた($F(1,17)=6.231,p<0.05$).すなわち,(18a-b)と(19a-b)の間には利用されるストラテジーに違いが見られたが,これはPFSとTASが競合する場合,TASが優先的に利用されたと考えられる.予備実験の結果,いくつかのストラテジーが競合する場合,いずれかのストラテジーが優先して利用される可能性があることが分かった.\begin{table}\begin{center}\caption{実験2の結果}\label{table:exam2br}\begin{tabular}{|rl|r|r|r|r|r|r|}\hline\multicolumn{2}{|c|}{}&\multicolumn{2}{c|}{読解時間}&\multicolumn{2}{c|}{Q\&A反応}&\multicolumn{2}{c|}{PRT反応(ms)}\\\hline\multicolumn{2}{|c|}{実験文}&太郎が/は&照応表現&太郎&健太&太郎&健太\\\hline(18)a&太郎が\ldots彼は\ldots&13.58&12.71&15&3&930&1032\\b&太郎が\ldots彼を\ldots&12.71&12.83&17&1&770&684\\(19)a&太郎は\ldots彼は\ldots&12.42&17.24&16&2&747&1192\\b&太郎は\ldots彼を\ldots&12.82&15.00&18&1&888&1062\\\hline\end{tabular}\end{center}\end{table}\subsection{実験3}実験3では,SASあるいはPFSとTASが競合する場合,どれが優先的に利用されるかついて,人間の知覚上のストラテジーであるFM,REの影響とあわせて調査する.\subsubsection{実験刺激文}表\ref{table:exam3s}に実験3で用いられる刺激文を示した.前節と後節がパラレルな構造をもつように実験文を作成した.(a)を基本形として,語順のかき混ぜ(scrambling)によって文法項の位置を操作し,前節の目的語を前置した文(b),さらに,前置した目的語を主題化した文(c)を作成した(実験文(22),(23)).さらに,(22a-b),(22a-b)の「が」を「は」に置き換えて,(24a-b),(25a-b)を作成した.なお,文中の▲はProbeRecognitionTaskにおけるプローブ語の現れる位置を表す.\begin{table}[htbp]\caption{実験3で用いる刺激文}\label{table:exam3s}\begin{center}\begin{tabular}{cl}\hline(22)&主語代名詞\\&a.太郎が健太を殴った.そして彼は▲逃げていった.\\&主語代名詞:目的語前置\\&b.健太を太郎が殴った.そして彼は▲逃げていった.\\&目的語前置:主題化\\&c.健太は太郎が殴った.そして彼は▲逃げていった.\\(23)&目的語代名詞\\&a.太郎が健太を殴った.そして次郎は彼を▲殴った.\\&目的語代名詞:目的語前置\\&b.健太を太郎が殴った.そして次郎は彼を▲殴った.\\&目的語前置:主題化\\&c.健太は太が殴った.そして次郎は彼を▲殴った.\\(24)&主語代名詞\\&a.太郎は健太を殴った.そして彼は▲逃げていった.\\&主語代名詞:目的語前置\\&b.健太を太郎は殴った.そして彼は▲逃げていった.\\(25)&目的語代名詞\\&a.太郎は健太を殴った.そして次郎は彼を▲殴った.\\&目的語代名詞:目的語前置\\&b.健太を太郎は殴った.そして次郎は彼を▲殴った.\\\hline\end{tabular}\end{center}\end{table}\subsubsection{結果の予測}主語代名詞を含む(22)では,SASに従えばいずれの場合も代名詞の直後では「健太」に比べて「太郎」の反応時間が速いことが予測される.しかし,TASに従えば(22b),(22c)では「太郎」に比べて「健太」の反応時間が速くなることが予測される.目的語代名詞を含む(23)では,SASに従えばいずれの場合も代名詞の直後では「健太」に比べて「太郎」の反応時間が速いことが予測されるが,PFSに従えば,(21a-b)では「健太」の反応時間が速いことが予測される.しかし,(22a)と(23b),(24a)と(25b)の間にそれぞれ反応時間の差が見られないはずである.\subsubsection{結果と考察}表\ref{table:exam3r}にSelf-PacedReadingTaskにおける読解時間・Q\&A反応結果,およびProbeRecognitionTaskにおける判断時間(msec)(PRT反応)を示す.\vspace{0.5cm}\begin{itemize}\itemSelf-PacedReadingTask\\「が」を用いた文のうち,主語代名詞の刺激文(22)では,(22a-c)のいずれの場合にも代名詞には「太郎」を割り当てる傾向が見られた.目的語代名詞の刺激文(23)でも,同様の傾向が見られ,(23a-c)のいずれの場合にも代名詞には「太郎」を割り当てる傾向が見られた.また,「は」に置き換えた文(24),(25)でも同様の傾向が見られた.このことは,SASを支持する結果といえる.\itemProbeRecognitionTask\\しかし,ProbeRecognitionTaskの結果では,(22a)ではプローブ語として「太郎」(940ms)が呈示された場合の方が「健太」(981ms)が呈示された場合よりも判断時間が速いが,(22b)ではプローブ語として「健太」(945ms)が呈示された場合の方が「太郎」(1063ms)が呈示された場合よりも判断時間が速く,(22c)でも同様の傾向が見られた.目的語代名詞の(23)の場合,(23a)ではプローブ語として「健太」(1094ms)が呈示された場合の方が「太郎」(1238ms)が呈示された場合よりも判断時間が速く,(23b),(23c)でも同様の傾向が見られた.(23a)に見られた傾向から,照応表現が現れた位置ではPFSが利用されている可能性がある.\end{itemize}\begin{table}\vspace{-6mm}\begin{center}\caption{実験3の結果}\label{table:exam3r}\begin{tabular}{|rl|r|r|r|r|r|r|}\hline\multicolumn{2}{|c|}{}&\multicolumn{2}{c|}{読解時間}&\multicolumn{2}{c|}{Q\&A反応}&\multicolumn{2}{c|}{PRT反応(ms)}\\\hline\multicolumn{2}{|c|}{実験文}&太郎が/は&照応表現&太郎&健太&太郎&健太\\\hline(22)a&太郎が健太を\ldots彼は&15.17&19.87&12&6&940&981\\b&健太を太郎が\ldots彼は&12.08&24.24&11&7&1630&945\\c&健太は太郎が\ldots彼は&12.62&16.48&11&7&1234&840\\(23)a&太郎が健太を\ldots彼を&17.04&24.51&14&4&1238&1094\\b&健太を太郎が\ldots彼を&14.22&13.75&16&2&1448&1280\\c&健太は太郎が\ldots彼を&18.55&16.65&18&0&1020&727\\(24)a&太郎は健太を\ldots彼は&15.34&15.78&18&0&990&1006\\b&健太を太郎は\ldots彼は&14.05&15.30&15&3&1030&1417\\(25)a&太郎は健太を\ldots彼を&17.58&16.46&16&2&1013&1188\\b&健太を太郎は\ldots彼を&15.57&15.10&18&0&904&1106\\\hline\end{tabular}\end{center}\end{table}\vspace{0.5cm}TASの影響やRE,FMの影響などの関係について,さらに詳細に比較検討をおこなう.表9〜表14には,比較検討する文のそれぞれについて,PRT反応(ms)およびそれぞれの差が示されている.なお,PRT反応の下に示したストラテジーは,当該の反応時間がもう一方に比べて速い場合に,そのストラテジーが機能していると考えられることを示している.\vspace{-0.3cm}\begin{itemize}\itemREとSASが競合する場合\\まず,REとSASのいずれのストラテジーが用いらるか検討する.REは,(22a)でも(24a)でもより近い位置にある「健太」の反応時間が速いことを」予測するが,SASは,いずれの場合も「太郎」の反応時間が速いことを予測する.表\ref{table:ptr}にその結果を示した.PRT反応時間(ms)を比較した結果,(22a)では「健太」よりも「太郎」の判断時間が速く,REよりもSASが優位であることを示している.(24a)でも同様の傾向が見られたが,「太郎は」は主語でもあり主題でもあるので,REよりもSAS,TASが優位であることを示している.全体としては,SASがREよりも優位なストラテジーであると言える.\end{itemize}\begin{table}\begin{center}\caption{ProbeRecognitionTaskにおける平均判断時間}\label{table:ptr}\begin{tabular}{|r|l|c|c|c|}\hline\multicolumn{2}{|c|}{}&\multicolumn{2}{c|}{PRT反応(ms)}&\\\hline&実験文&太郎&健太&差\\\hline(22)a&太郎が健太を\ldots彼は&940&981&+41\\&&SAS&RE&\\\hline(24)a&太郎は健太を\ldots彼は&990&1006&+16\\&&SAS,TAS&RE&\\\hline\end{tabular}\end{center}\end{table}\begin{itemize}\itemFMとTASが競合する場合\\次にFMとTASが競合する場合について検討しよう.「健太を」を文頭に移動した文については,(22b)では「太郎」よりも「健太」の判断時間が速く,SASよりもFM効果が優位であることを示している(表\ref{table:fmtas}).同様の語順で「太郎は」に置き換えた(22b)では,逆に「健太」よりも「太郎」の判断時間が速くなったことから,FMよりもSAS,TASが優位であると考えられる.これらの間にはそれぞれ有意差が見られた((22b):$F(1,17)=209.503,p<0.01;(22b):F(1,17)=35.338,p<0.01$).(22b)と(22b)を比較すると,「太郎」と「健太」の判断時間に逆転現象が見られたことから,TASがFMよりも優位なストラテジーであると言える.(22b)と(22b)の間には「太郎」および「健太」の判断時間に有意差が見られた(「太郎」:$F(1,17)=108.532,p<0.01;$「健太」:$F(1,17)=70.503,p<0.01$).\end{itemize}\begin{table}\vspace{-5mm}\begin{center}\caption{ProbeRecognitionTaskにおける平均判断時間}\label{table:fmtas}\begin{tabular}{|r|l|c|c|c|}\hline\multicolumn{2}{|c|}{}&\multicolumn{2}{c|}{PRT反応(ms)}&\\\hline&実験文&太郎&健太&差\\\hline(22)b&健太を太郎が\ldots彼は&1630&945&-685\\&&SAS&FM&\\\hline(22)b&健太を太郎は\ldots彼は&1030&1417&+38\\&&SAS,TAS&FM&\\\hline差&&-600&+472&+1072\\\hline\end{tabular}\end{center}\end{table}\begin{itemize}\itemPFSとTASが競合する場合\\次に目的語が代名詞となっている場合の「が」と「は」を比較する(表~\ref{table:pfstas}).「が」を用いた(23a)では,「太郎」に比べて「健太」の方が判断時間が速く,SASよりもPFSが用いられている可能性がある.両者の間には有意差が見られた($F(1,17)=6.801,p<0.01$).しかし,同様の語順で「太郎は」に置き換えた(25a)では,逆に「健太」よりも「太郎」の方が判断時間が速くなったことから,PFSよりもTASが優位であると考えられる.両者の間には有意差が見られた($F(1,17)=5.389,p<0.01$).\end{itemize}\begin{table}\begin{center}\caption{ProbeRecognitionTaskにおける平均判断時間}\label{table:pfstas}\begin{tabular}{|r|l|c|c|c|}\hline\multicolumn{2}{|c|}{}&\multicolumn{2}{c|}{PRT反応(ms)}&\\\hline&実験文&太郎&健太&差\\\hline(23)a&太郎が健太を\ldots彼を&1238&1094&-168\\&&SAS&PFS&\\\hline(23)a&太郎は健太を\ldots彼を&1013&1188&+175\\&&SAS,TAS&PFS&\\\hline差&&-225&+94&+319\\\hline\end{tabular}\end{center}\end{table}\begin{itemize}\itemPFS・SASとTASが競合する場合\\(23b)では,「太郎」よりも「健太」の判断時間が速く,SASよりもPFSが優位である可能性がある(表\ref{table:pfssastas}).ただし,「健太」は文法機能(目的語)においては「彼」とparallelであるが,語順はparallelではないので,純粋なPFSが働いているかどうかは検討の余地がある.「太郎は」に置き換えた(23b)では,「健太」よりも「太郎」の判断時間が速くなったことから,PFSよりもSAS,TASが優位であると考えられる.(23b)では,「太郎」と「健太」の判断時間の間に有意差が見られた($F(1,17)=11.611,p<0.01$).(23b)に比べて(25b)では,プローブ語が「太郎」と「健太」のいずれの場合にも判断時間が速くなる傾向が見られたことから,TASが影響していると言える.(25b)と(25b)の間では,「太郎」の判断時間に有意差が見られた($F(1,17)=34.414,p<0.01$).\end{itemize}\begin{table}\begin{center}\caption{ProbeRecognitionTaskにおける平均判断時間}\label{table:pfssastas}\begin{tabular}{|r|l|c|c|c|}\hline\multicolumn{2}{|c|}{}&\multicolumn{2}{c|}{PRT反応(ms)}&\\\hline&実験文&太郎&健太&差\\\hline(23)a&健太を太郎が\ldots彼を&1448&1280&-168\\&&SAS&PFS?&\\\hline(25)a&健太を太郎は\ldots彼を&904&1106&+202\\&&SAS,TAS&PFS?&\\\hline差&&-544&-174&+370\\\hline\end{tabular}\end{center}\end{table}\begin{itemize}\itemFMとTASが競合する場合\\目的語「健太を」を文頭に移動した(22b)は,上述した通り,SAS効果よりもFMが優位であることを示す結果が得られた.さらに主題化して「健太は」とした(22c)でも同様の傾向が見られたことから,SASよりもFM,TASが優位であると考えられる.(22c)では,「太郎」と「健太」の判断時間の間に有意差が見られた($F(1,17)=12.191,p<0.01$).プローブ語が「健太」の場合,(22b)よりも(22c)の方で判断時間が短くなったことから,TASがその差を縮めたと言える(表~\ref{table:fmtas2}).\end{itemize}\begin{table}\begin{center}\caption{ProbeRecognitionTaskにおける平均判断時間}\label{table:fmtas2}\begin{tabular}{|r|l|c|c|c|}\hline\multicolumn{2}{|c|}{}&\multicolumn{2}{c|}{PRT反応(ms)}&\\\hline&実験文&太郎&健太&差\\\hline(22)b&健太を太郎が\ldots彼は&1630&945&-685\\&&SAS&FM&\\\hline(22)c&健太は太郎が\ldots彼は&1234&840&-396\\&&SAS&FM,TAS&\\\hline差&&-396&-105&+289\\\hline\end{tabular}\end{center}\end{table}\begin{itemize}\itemFMとPFSとTASが競合する場合\\最後に,(23b)では,上述した通り,SASよりもPFSが優位である可能性を示す結果が得られた.(23c)でも同様の傾向が見られ,このことは,SASよりもFM,PFS,TASが優位であることを示している(表\ref{table:fmpfstas}).(23c)では「太郎」と「健太」の判断時間の間に有意差が見られた($F(1,17)=9.592,p<0.01$).プローブ語が「健太」の場合,(23b)よりも(23c)の方で判断時間が短くなったことから,TASがその差を縮めたと言える.これらの間には有意差が見られた($F(1,17)=41.179,p<0.01$)\end{itemize}\begin{table}\begin{center}\caption{ProbeRecognitionTaskにおける平均判断時間}\label{table:fmpfstas}\begin{tabular}{|r|l|c|c|c|}\hline\multicolumn{2}{|c|}{}&\multicolumn{2}{c|}{PRT反応(ms)}&\\\hline&実験文&太郎&健太&差\\\hline(23)b&健太を太郎が\ldots彼を&1448&1280&-168\\&&SAS&FM,PFS&\\\hline(25)c&太郎は健太が\ldots彼を&1020&727&-293\\&&SAS&FM,TAS&\\\hline差&&-428&-553&-125\\\hline\end{tabular}\end{center}\end{table}以上の結果から,これらの結果から,SAS,PFSなどのストラテジーとTASが競合する場合,TASが優先的に利用されると言える.また,知覚上のストラテジーであるREやFMなどの効果よりもTASが優位なストラテジーであると言える. \section{まとめと今後の課題} 本稿では,日本語の照応理解のプロセスにおいて,いくつかの発見的ストラテジーが関与していることを見てきた.日本語の実験では,parallelな構造を持つ文では,PFSが利用されることが分かった.また,英語のような「主語卓立言語」とは異なり,日本語では,SASあるいはPFSとTASが競合する場合,むしろTASが利用されることが明らかになった.つまり,このことは,TASが他の発見的ストラテジーよりもより優位な立場にあるストラテジーであることを示唆するものである.これは,日本語が「主題卓立言語」の性質をもっていることを示している.今後は,文脈情報との相互作用など照応関係の理解に影響を及ぼすと思われる要因を考慮し,TASの優位性をさらに調査したい.また,統語的制約,意味的制約と発見的ストラテジーとの相互関係についても考察したい.\acknowledgment本稿の執筆にあたり,多くの貴重なご助言を賜った本稿査読者および,大阪大学の郡司隆男教授(現在,神戸松蔭女子学院大学),三藤博助教授に深謝いたします.また,有益なコメントを下さった大阪大学大学院言語文化研究科の言語工学研究会の諸氏にも感謝いたします.なお,本稿に残る誤植や間違いはすべて筆者の責任である.\bibliographystyle{jnlpbbl}\bibliography{v06n4_01}\begin{biography}\biotitle{略歴}\bioauthor{横川博一}{1994年京都教育大学大学院教育学研究科修士課程修了,1996年大阪大学大学院言語文化研究科博士前期課程修了,1999年同大学院言語文化研究科博士後期課程単位取得満期退学.現在,京都教育大学,京都外国語大学非常勤講師.心理言語学,応用言語学の研究に従事.関西英語教育学会事務局長,全国英語教育学会理事.言語処理学会,日本認知科学会,語学ラボラトリー学会,大学英語教育学会,日本児童英語教育学会などの会員.}\bioreceived{受付}\vspace{-2mm}\biorevised{再受付}\vspace{-2mm}\bioaccepted{採録}\end{biography}\end{document}
V07N02-03
\section{はじめに} 語彙とは“ある言語に関し(その一定範囲の)あらゆる語を一まとめにして考えた総体”(水谷,1983,p.1)のことである.したがって,日本語なら日本語という特定の1言語に限っても,その内容は一まとめにくくる際の観点をどのように設定するかによって変化しうる.大きく見れば,語彙は時代の進行にそって変化するし,同時代の語彙にも地域,職業,社会階層などによって集団としての差異が存在する.細かく見てゆくならば,個人によっても語彙は違うであろうし,特定の書籍,新聞,雑誌等,言語テキストそれぞれに独自の語彙が存在すると言ってよい.さらに,個人で見ても,その語彙のシステム(心内語彙=mentallexicon)は,発達・学習によって大きく変化し,さらに特定の時点における特定の状況に対応した微妙な調整によって,常に変化しつづけていると考えることができる.こうした語彙の多様性は,ごく簡単に整理すれば,経時的な変動と,それと連動しつつ,表現の主体,内容,形式のバラエティに主に関わる共時的な変動という,縦横の軸からとらえることができる.本研究では,新聞という一般的な言語テキストを対象に,経時的,共時的の両面に関して語彙の系統的な変動を抽出することを試みる.具体的には1991年から1997年までの毎日新聞7年分の電子化テキストを用いて,そこで使われている全文字種の使用状況の変動について,面種と時系列の2つの面から調べる.毎日新聞を対象にしたのは,紙面に含まれる記事の内容が広く,難度も標準的であり,現代日本の一般的な言語表現を観察するのに適していると考えられること,面種等のタグ付けが施されたテキストファイルが利用できること,研究利用条件が整っていて,実際に多くの自然言語処理研究で利用されているため,知見の蓄積があることなどによる.語彙について調べることを目標に掲げる研究で,文字を分析単位としている理由は,日本語の場合,文字が意味情報を多く含んでいて単語レベルに近いこと(特に漢字の場合),単語と違って単位が明確なために処理が容易であること,異なり数(タイプ)が多すぎないので悉皆的な調査も可能であることである.目標と方法の折り合うところとして,文字という単位にまず焦点を当てたのである(電子テキストを用いて,日本語の文字頻度の本格的な計量を行った例としては,横山,笹原,野崎,ロング,1998がある).面種による変動を調べるのは,1種類の新聞の紙面で,どの程度,語彙(本研究では実際には文字)の内容に揺れ(変位)があるかを吟味することをねらいとする.全体で一まとめにして“毎日新聞の語彙”とくくれる語彙の集合を紙面の種類によって下位カテゴリに分割しようとする試みであるとも言える.経済面とスポーツ面とで,使われている語彙に差異があるだろうということ自体は,容易に想像がつくが,本研究では,こうした差異がどの程度まで広範に確認されるかを検討する.テキストのジャンルによる使用語彙の差を分析したものとして,国立国語研究所(1962),Ku\v{c}era\&Francis(1967)を挙げることができる.前者は,1956年に刊行された90の雑誌から抽出した50万語の標本に対して評論・芸文,庶民,実用・通俗科学,生活・婦人,娯楽・趣味の5カテゴリを設定し,後者は1961年にアメリカ合衆国で出版された本,新聞,雑誌等から抽出した100万語のコーパスに報道記事,宗教,恋愛小説等の15カテゴリを設定している.ただし,いずれも対象としているテキストの種類が多岐にわたるだけに語彙の差が検出しやすい条件にあると見ることができるが,カテゴリ間に見られる差についての検討は十分なものではない.本研究の場合,新聞1紙の中でどの程度の内容差を検出できるかを,文字という単位で悉皆的に分析するところに特色がある.語彙の時系列的な変動に関しては,世代,時代といった長い時間幅であれば,様々に研究されているが,7年間という,この種の分析としては短い時間幅で,どのような変動が観察されるかを詳細に分析するところに本研究の独自性がある.本研究では,7年全体での変動としてのトレンドに加えて,循環性のある変動として月次変動(季節変動)も調べる.時系列的な微細な分析は,経済,自然の分野では多くの実例があるものの,言語現象への適用は未開拓である.実際,言語テキストの月単位,年単位でのミクロな分析は,近年の大規模電子コーパスの整備によってようやく現実的なものとなったという段階にあるにすぎない.新聞での用字パタンに時系列な変動が存在すること自体は予想できる.たとえば,“春”という文字は春に,“夏”という文字は夏に多用されそうである.しかし,そもそも,“春”なら“春”の字がある時期に多用されるといっても,実際のパタンがどうであるのか,また,こうした季節変動が他の文字種を含めてどの程度一般的な現象であるのかというのは調べてみなければわからない.時系列変動の中でも,月次変動に関しては,筆者らは既に新聞のカタカナ綴りを対象とした分析(久野,野崎,横山,1998;野崎,久野,横山,1998),新聞の文字を対象とした分析(久野,横山,野崎,1998)を報告している.そこでは,月ごとの頻度プロフィールの相関をベースに,隣接月次の単語・文字の使用パタンが類似したものとなり,12ヵ月がほぼ四季と対応する形でグルーピングできることを示したが,本報告では,個々の文字をターゲットとして時系列的変動の検出を試みる.この時系列変動の調査は,トレンドに関しては,近年における日本語の変化の大きさについて考えるための基礎資料となるという点からも意味が大きい.また,月次変動,季節変動については,日本の場合,風土的に四季の変化が明確であり,その変化をめでる文化をもち,様々な生活の営みが1年の特定時期と結びついているという点から,分析の観点として有効性が高いことが期待される.以下では,面種変動,時系列変動という順序で,分析結果を報告する.実際の分析は,両方を行き来し,重ね合せながら進めたが,面種変動の方が結果が単純であり,また,時系列変動の分析では面種要因を考慮に入れる操作をしているという事情による. \section{研究1:面種変動の分析} \subsection{方法}分析用のコーパスとして,毎日新聞7年分(1991〜1997)のテキストを収録したCD-ROM(毎日新聞社,1996--1998)を用いた.このCD-ROMでは,テキストは,全角文字(S-JISコード)で収録されているが,本研究では,見出しと本文の,空白文字を除く全角文字すべて(5,726字種,のべで約3億4千万文字)を分析の対象とした.5,726文字種の文字カテゴリ(e.g.,ひらがな,JIS漢字第1水準)の内訳を7年間全体での出現率(‰)のレベルと連関させて表1に示した.7年間での出現率は,年次ごとに集計した出現率の平均である.単純に7年分の合計文字数に対する出現率を求めてもほとんど変わらないが,表2に示したように年次が下るにつれてテキストの規模が大きくなるので,それを調整したものである.単語,文字の頻度分布で一般に観察されるように,高出現率のものの異なり数は少なく,低出現率のもののそれは多い.文字カテゴリごとに見ると,ひらがな,カタカナ,アラビア数字の出現率は高い.アルファベット,漢字第1水準がそれに次ぎ,漢字第2水準では大半が0.001‰以下である.その他の記号等は,高出現率のものと低出現率のものに分かれている.なお,実質的な文字ではなく,独特の使われ方(段落冒頭の字下げ,見出しの区切り,表で桁を揃える等)をする空白文字は出現率算出時の分母からも除外している(分析からの空白文字の除外は,以下のすべての集計で同様).\input{tab1}\input{tab2}集計区分とした面種は,毎日新聞社によって7年すべてに共通して設定されている16カテゴリ(1面,2面,3面,解説,社説,国際,経済,特集,総合,家庭,文化,読書,科学,芸能,スポーツ,社会)である.面種による文字の延べ数は表2を参照.社会面,総合面のように規模が大きい面種もあれば,科学,読書,文化のように規模の小さい面種もある.文字種ごとに各年次の面種別出現頻度を求め,テキストの規模の異なる面種間で比較可能なように,集計単位ごとに出現率(‰)を算出した.そして,文字種ごとに,面種別年次出現率に対して,面種を要因として1元配置分散分析を行った.これは,7つの年次で出現率が他の面に比べて安定して低い面や高い面種が(1以上)ある場合,それを面種変動として検出しようというものである.こうして,面種が16水準で各水準の繰り返し数は7という単純なモデルで,文字種と同数の5,726回の分散分析を実行した.なお,単語の出現頻度(出現率)のデータを用いて,分散分析,相関分析ほかのパラメトリックな分析をする際には,しばしば事前処理として対数変換を施すが,本研究では,もとの出現率に基づく分析結果を一貫して報告する.実際の分析は,対数変換を施した場合についても行っているが,変換をしてもしなくても,結果に違いがあまり認められないことが確認されているので(分散分析で要因の効果が有意となる文字種の割合は,百分率で数ポイント程度変わるに過ぎない),表示しやすく理解しやすい,もとの出現率に基づいた結果を示すこととした.\subsection{結果と考察}分散分析の結果を表3に示した.$F$値の自由度は$(15,96)$である.低出現率の文字種を除く大多数の文字種で,面種による出現率の変動が認められた.1.000‰以上の高出現率の文字種では,すべて0.1\%水準で有意である.出現率でほぼ上位半分に相当する0.001‰以上の文字種(2,732種)で見ても,実に95.5\%が0.1\%水準で有意,97.2\%が1\%水準までで有意,98.4\%が5\%水準までで有意となっている.さらに全5,726文字種で見ても,58.2\%が0.1\%水準で有意となり,1\%水準までで63.4\%,5\%水準まででは69.2\%が有意となる.低出現率の文字種で面種による比率の差が有意水準に達しない文字種には,出現総数が少なすぎるので,統計的検定の対象とするのが適当でない場合が多いと考えられる.したがって,実質的には,ほとんどの文字種で面種変動が見られるとしてよいと推測される.面種変動は,ひらがな,カタカナ,記号類等の漢字以外の文字種にも広く見られるが,これらの場合も,単語との直接的な対応は漢字の場合より弱いものの,やはり使用されている語彙の系統的な変動を相当に反映していると考えられる.たとえば,ある面種ではカタカナで表記される単語が多用されているといった現象を反映するようなケースである.\input{tab3}面種差の詳細に関しては,個々の文字種ごとの吟味に加えて,面による比率の高低による文字種のクラスタリングや,出現比率プロフィールの面種間類似性の分析等を通して,理解を深めてゆくことができるが,本研究では,面種差の例を示すとともに,面種差をもたらしている独自な面種に関する予備的調査の結果を示すにとどめる.\begin{figure}[htb]\begin{center}\epsfile{file=clip000.eps,scale=0.55}\end{center}\caption{面種により文字出現率が異なる例:“学”\\出現率は7年分の年次出現率の平均でエラーバーは標準偏差}\label{図1}\end{figure}面種差の具体例としては,“学”のケースを示す.面種別年次出現率を分散分析すると,$F(15,96)=42.03$($p<.0001$)となる.実際の面種別の平均出現率は図1の通りで,見て分かるように,科学面での出現率が他を大きく引き離している(Tukeyの方法により多重比較を行うと,他の15面種全てと5\%水準で差があることが確認できる).以下,読書面,文化面で出現率が高く,経済面,2面,国際面,芸能面,1面では低い.科学面,読書面,文化面といった教養的な内容の面で多く出現するのは了解しやすく,経済面,国際面,芸能面といった,内容が独自で学問の関与が薄そうな面で出現率が低いのも理解しやすい.一般的な内容の面が,その中間にくるようだが,それらの面の間にも差が認められるところが興味深い.追加分析として,各面種の独自性の程度について調べるために,上記の分散分析で$p$値が5\%未満の3,960文字種を対象として,面種ごとに出現率の順位(1〜16)の標準偏差を求めた.この値が大きい場合,平均的なレベルからずれる文字種が多いことになり,面種変動の原因となったケースが多いものと推測できる.標準偏差が大きい面種を挙げると,スポーツ面(5.12),芸能面(5.01),科学面(4.87),読書面(4.82),国際面(4.73)が上位5つとなる.これらは掲載する内容の特定性が高い面であり,他の面に比して出現率の高い文字種,低い文字種が多く存在することで,文字使用パタンの面種差の大きな原因となっていると考えられる.一方,標準偏差が小さい方を見ると,総合面(2.65),3面(3.52),解説面(3.55),社会面(3.64),1面(3.70)の順となる.内容が一般的な面種では,全体的に平均的なレベルで文字種が出現する傾向にあると言える.以上のように研究1では,文字の使用状況という観点から,毎日新聞紙面の言語表現の多様性の中に面種に関連して系統的な成分が広範に含まれていることが確認された.なお,分散分析によって面種変動を調べる場合,上述のような単純な一元配置のデザインの他に,年次や月次の要因を含めることによって分析の精度を高めることができるが,上記の分析で,面種変動が遍在するということは既に十分に示されたので,本稿ではこれ以上の分析報告は行わない. \section{研究2:時系列変動の分析} \subsection{方法}時系列分析では,一般に時系列データを,トレンド,循環変動,季節変動,不規則変動などに分解することを通して,データの性質を記述したり,将来の予測を行ったりする.目的に応じて多様な時系列分析の技法が開発されているが,本研究では,5,726系列という大量の時系列データに対して実行する初歩的な分析として,月次変動と年次変動の有無と程度を分散分析と相関係数を通して検討した.まず,7年分の電子テキストで,5,726の文字種それぞれに対して,月を集計単位として,出現率(‰)を求めた(84ヵ月分).この時系列上の84の出現率に対して,月次(12水準),年次(7水準)の2要因の主効果を調べる分散分析を実行した.これは,月次,年次に関して,相互に他方をブロック要因として,乱塊法モデルによって分散分析を行ったものと言うことができる.分析デザインとしては,面種の要因も組み込んだり,月次・年次を別個に分析したりすることで,他にも様々な選択がありうるが,時系列の2要因を同時に扱う最も単純なモデルを採用した.2つの要因はカテゴリ変数により構成される独立した要因として扱っていることになる.月次の主効果は広義の季節変動を反映するもので,日常概念としての季節(いわゆる四季といったもの)から外れるものも含めて12ヵ月以下の周期のサイクル現象を反映する.年次の主効果が有意になった場合,トレンド,それも期間が短いので1次のトレンドを主に反映すると考えられるが,偶発的な変動を反映して有意となることもありうる(偶発的な変動によって,本来存在するはずのトレンドが検出できずに,非有意となることももちろんありうる).分散分析に続いて,84の出現率の系列位置を連続的変数として扱い,相関係数を用いてトレンドの分析を行った.これは,先の分散分析で示された年次変動に関して,その程度を評価するための材料を提供するとともに,分散分析では年次をカテゴリ変数としたために,時系列の連続性の情報を用いていないという点を補うものである.具体的には,1991年1月を1,1991年2月を2として,以下,1997年12月の84まで,7年間の84ヵ月に順次,自然数を与え,それと月次出現率の相関係数(ピアソンの積率相関係数)を算出した.トレンドの分析としては,2次以上の項も考慮して回帰分析を行うことを検討したが,言語の長期変動を見るには7年間という期間は短く,高次の成分を抽出することの意味は小さいと考えられるので,1次の直線的な変動傾向のみを分析,考察の対象とすることにした.さらに,研究1の結果から,面種によって使用文字に変動があることが広範に認められているので,面種別に,年次・月次の2要因の分散分析を実行した.これは,面種によって時系列変動の様相が違うかどうかを調べようとするものである.この目的を実現するためには,面種も分散分析のモデルに要因として組み込んでしまう方法をとることもでき,その場合,面種と時系列要因の交互作用の分析が中心となるが,5,726セットを対象とするには,手続きも結果の表示も複雑である.そこで,本研究では,それぞれの面種でどの程度,時系列変動が見られるかを明らかにするために,はじめから面種を区別した上で,2要因の分散分析を行うこととした.\subsection{月次変動}まず,分散分析の結果に基づいて,月次変動について述べる.分散分析での月次の主効果を表4に示した.$F$値の自由度は$(11,66)$である.\input{tab4}面種変動ほど顕著ではないものの,かなり広範に系統的な変動の存在を確認することができる.出現率0.100‰以上の高出現率文字種では,5\%水準までで有意になるものが41.6\%で,10\%水準の有意傾向まで含めれば51.0\%と過半数の文字種に月次要因の効果が認められる.低出現率の文字種では月次要因の効果の認められるものが減少する.これは,面種変動のところでも述べたように,分散分析の適用が有効であるほどの出現数がないことに主によると考えられる.出現率0.001‰以上までとすると,5\%水準で有意が33.5\%,10\%水準までで41.8\%となる.全文字種では,5\%水準までで有意になるのは20.3\%,10\%水準まででは26.6\%となる.月次変動のパタンを個々の文字種について見ると,いわゆる季節との対応が想定できる変動も多く観察されるが,その対応にはゆるやかに複数の月にまたがって峰ができるものもあれば,特定の1つの月だけにピークがくるものもある.また,多峰性のものも少なくない.以下に,月次変動の具体的なパタンをいくつか例示する.季節性の変動の典型として,予想が確認されたという意味で“春”“夏”“秋”“冬”の場合を図2に示した(4文字種の月次要因の$F$値はそれぞれ,$F(11,66)=33.70$,$65.23$,$23.06$,$36.24$;いずれも$p<.0001$).ただこうした典型的なケースでも,パタンを微細に観察すると,いくつかの特徴を指摘することができる.たとえば,この4文字種は,四季それぞれを直接に示す文字種であり,季節とほぼ対応しているものの,そのピークの間隔は3ヵ月ではない.また,ピークのとがりも文字種によってかなり異なっている.\begin{figure}[bt]\begin{center}\epsfile{file=clip001.eps,scale=0.55}\end{center}\caption{文字出現率が季節に対応する月次変動を示す例}\label{図2}\end{figure}\begin{figure}[bt]\begin{center}\epsfile{file=clip002.eps,scale=0.55}\end{center}\caption{文字出現率が単峰性でない月次変動を示す例}\label{図3}\end{figure}四季に単純に対応しない月次変動が見られるものとして,図3に単峰性でない月次変動を示す文字種の例を示した.“貴”“撲”(それぞれ$F(11,66)=8.41$,$16.55$;いずれも$p<.0001$)は奇数の月に出現率が高まるのだが,これは大相撲の開催月に関連の記事が出ることによるものである.“甲”($F(11,66)=11.73$,$p<.0001$)は3月と8月に山があり,“誉”($F(11,66)=23.75$,$p<.0001$)は4月と11月に山がある.“甲”のピークは春夏の高校野球甲子園大会に関連した記事によるもので,“誉”のそれは春秋の叙勲褒賞によるものである.以上のように,月次を単位とした分析を通して,文字使用の循環的な変動が,“春”“夏”“秋”“冬”といった,その存在が容易に予測できるものに限らず,かなりの割合の文字種において,多様な変動パタンで存在することが見出された.\subsection{年次変動}続いて,年次変動について,分散分析と相関分析に基づいて検討する.分散分析の結果は,表4を参照.$F$値の自由度は$(6,66)$である.年次要因が有意となった文字種は月次要因が有意になったものよりも多い.1.000‰以上の高出現率の文字種では94.0\%が5\%水準までで年次の効果が有意である.以下,出現率レベルが下がるにつれて,年次の効果が有意でない文字種,有意であってもその水準が低い文字種の割合が高まっている.特に,\hbox{0.001‰}未満の文字種では,85.3\%が5\%水準に達していない(10\%水準にも達しないのが78.9\%).しかし,全文字種でも,5\%水準で43.9\%,10\%水準の有意傾向まで含めれば,ちょうど半分の50.0\%で年次変動が見られたことになる.分散分析で見出された年次変動には,方法のところで述べた通り,多様なパタンが含まれる.その中の単純な上昇傾向,下降傾向を見るために求めた,84の月次順序と出現率の相関係数は,表5を参照.表は相関係数の値で区分してまとめてあるが,相関係数の有意水準と対応させると,相関係数の絶対値が.35で0.1\%水準の有意となる.以下,.28で1\%水準の有意,.21で5\%水準の有意,.18で10\%水準の有意傾向となる.5,726文字種全体での結果を記すと,0.1\%水準で有意な相関が見られる文字種が997(17.4\%),1\%水準で有意な文字種が483(8.4\%),5\%水準で有意な文字種が552(9.6\%),10\%水準で有意な傾向が認められる文字種が408(7.1\%),10\%水準に至らず非有意な文字種が3,286(57.4\%)となる.分散分析の結果と比較して,有意となってもその水準が低くなっている文字種が多く,非有意な文字種も多くなっているのは,想定通り,変動の中でも1次のトレンドのみにしぼって見ていることに主によっていると考えられる.これは見方を変えれば,単調増加,単調減少以外の変動パタンが7年間のうちでかなりの程度観察されるということでもある.このような現象は,大きな事件や連載企画などによって生じうることである.\input{tab5}個々に見ると,正の相関係数で上位は,アラビア数字と一部の記号類(e.g.,“【”“】”“!”)が占めている.一方,負の相関係数では,絶対値の大きさで漢数字が上位に並ぶ.図4に例として“1”と“一”の出現率の変化を示した.相関係数は,“1”の場合,$r=.91$,“一”の場合,$r=-.83$である.図から明らかなように,1996年の4月に“一”の出現率が大きく低下し,同じ時点で“1”は上昇している.これは,この時期,数字表記の原則に方針変換があったことに対応していて,1996年の4月1日付で1面に掲載された社告に,“数字を読みやすく”と題して,“漢数字が原則だった数字の表記をきょうから洋数字に変えます.”とある.ただし,“1”については,この1996年4月の増加以外でも,全体的な増加傾向が著しく,さらに“1”と“一”を合わせた出現率も増加しているので,漢数字からアラビア数字への切り替え以外にも,紙面変化が生じていることをうかがわせる.\begin{figure}[htb]\begin{center}\epsfile{file=clip003.eps,scale=0.6}\end{center}\caption{文字出現率がトレンドを示す例(数字)}\label{図4}\end{figure}\begin{figure}[htb]\begin{center}\epsfile{file=clip004.eps,scale=0.6}\end{center}\caption{文字出現率がトレンドを示す例(数字以外)}\label{図5}\end{figure}トレンドの別の例として,数字,記号以外で時系列との相関が正負それぞれで最も強かった文字種を図5に示した.“思”は$r=.85$,“午”は$r=-.85$である.なお,この2例の示すトレンドについては現象の記述にとどめ,その解釈は本稿では行わない.一般に,こうしたトレンドが見られる背景としては,記事内容や紙面構成の変化,文体の変化,表現方針の変化等があることが推測されるものの,月次変動に比べて,その意味付けは容易でなく,実際のテキストに即して詳細な吟味が必要である.以上の分析を通して,具体的な内容理解は今後の検討にまつところが多いものの,文字使用の年次変動が多数の文字種において観察された.年次変動は,月次変動よりも多くの文字種で認められているが,これは近年における言語表現の変化の大きさを反映していると考えられる.\subsection{面種別の月次変動と年次変動}面種別に月次,年次を要因とする分散分析を実行した結果は表6を参照.\input{tab6}月次変動の主効果を見ると,有意な文字種が全般に少なくなっている.この結果に関して,面種区分をすることでテキストの規模が小さくなったことが当然影響している.特に,科学面,文化面,読書面といったテキスト規模が他より小さい面種では影響が大きいと推測される.ただし,全面種で集計した場合に認められた月次変動が,特定面種に大きく依存しているために,面種別にしてしまうと,その特定面種のほかでは変動が見られなくなってしまうというケースも多いと考えられる.月次変動が見られる文字種の多さでは,スポーツ面が際立っている.全文字種の34.3\%が5\%水準までで有意である.先に月次変動の例として,相撲関連,野球関連の文字種(“貴”“撲”“甲”)を挙げたが,他にもスポーツ関連で,月次変動を示す文字種が多数あることが分かる.他には,特集面,社会面,経済面で,面種区別をせず全体で分析した場合と同じくらいの割合の文字種に有意な変動が見られる.特集面や社会面ではイベント,行事,生活,気象等に関連した記事を通して,季節の変動が紙面に表れると考えられる.経済面については,経済現象における季節変動の存在は広く知られていることであり,それが紙面にも反映していると見ることができるだろう.一方,科学面,文化面,読書面,解説面等では月次変動が確認された文字種が少ない.これらは,学術的な,あるいはその時々の状況から独立した,普遍性の高い情報を主に掲載する面種とまとめることができよう.年次変動も面種区別をしなかった場合よりも全般に見られる割合が少なくなっているが,社説面,総合面,経済面,2面では,面種区分をしなかった場合と同程度の割合の文字種で有意な変動が見られる.経済面のほかは月次変動の少ない面種であるが,いずれも政治情勢,社会情勢の変化に関連して時事性の高い面であると言えるだろう.この4面種に続いて,家庭面,スポーツ面において変動を示す文字種の割合が高い.ここでも,科学面,読書面,文化面では,有意な変動が観察される文字種が少ない.掲載する情報のカテゴリ,スタイルが安定した面種であると言えそうだ.こうした面種による時系列変動の分析結果を先の面種変動の分析と対応させてみると,他の面種に比した場合の独自性の高低と,面種内での時系列変動の大小の組み合わせで,大きく4タイプに分けることができる.それぞれ面種の例とともに挙げれば,第1に,スポーツ面のように,面種としての独自性が高く,しかも時系列変動も大きい面種がある.第2に,科学面,読書面のように,面種としての独自性は高いが,時系列変動は小さい面種がある.第3に,面種としての独自性は低く一般的な紙面だが,大き目の時系列変動を示す面種に総合面がある.\hbox{第4}に,面種としての独自性も低く,時系列変動も小さい面種として解説面が挙げられる. \section{全体的考察} 以上の分析から,面種,時系列の双方の要因に関して,近年の毎日新聞7年間での文字使用には,系統的な変動が広範に観察されることが確認された.5,726文字種を対象として分散分析を行ったところ,有意水準5\%で,面種(16水準)による出現率の差は69.2\%で,月次(12水準)による差は20.3\%で,年次(7水準)による差は43.9\%で認められた.低出現率の文字種(0.001‰未満)を除いた2,732文字種では,さらに変動は顕著で,面種差は98.4\%で,月次差は33.5\%で,年次差は76.0\%で認められた.重要なのは,これだけの系統的な変動が,文字種という単位で,1種類の新聞の7年という限られた期間のテキストを対象として検出されたということである.別の言い方をすれば,1紙の語彙に限っても,多様な組織的変動を含んだものとして,その語彙の体系を把握することができるということである.この結果は,直接に単語を対象として,毎日新聞以外の新聞,さらには新聞以外の言語テキストをも対象に含めて,より長期にわたって調べた場合,語彙の系統的な変動は,さらに多様に検出できるであろうことを,容易に推測させる.語彙の使用に系統的な変動があること自体は,経験的にも了解されることだが,それを定量的に評価し,非常に広範に存在することを確認した点で,本研究の意味は大きい.本研究で見出された語彙の系統的変動の存在は,語彙調査,特に頻度の集計において,暗黙に想定されがちな,スタティックな語彙観の見直しを促す.調査の時期,対象とするテキストによって,頻度(出現率)にかなりの差を生じうることに注意が必要なのは言うまでもないとして,バランスに配慮した大量のコーパスから単純に平均的な頻度(出現率)を求めるような方法にも改善の余地があると言える.現実の語彙が,多くの系統的な変動を含むのであれば,平均は情報の一面でしかない.変動は,必ずしも排除すべき誤差ではなく,それ自体が重要な情報となりうるのである.今後,単語や文字の頻度に関して,系統的変動を視野に入れて,多面的に計量,分析を進めることが望まれる.系統的変動に注目することが重要であり,有効であるというのは,頻度が関わる言語現象の基礎研究に関してそう言えるにとどまらず,頻度調査の利用という見地からもそのように考えることができる.たとえば,頻度の情報は辞書や学習用の単語リストの編集にしばしば用いられるが,その際にも頻度を多面的に見ることは有効だろう.平均的な頻度集計では上位にならないけれども重要性の高い単語があり,逆に頻度は高いけれども重要性の低い単語もあるというような,経験的に知られている現象も,変動現象という観点からは自然なものと見ることができる.こうしたケースについて,人手による調整はもちろん不可欠だが,集計対象による変動を考慮に入れることで,頻度情報の有用性は改善される可能性がある.頻度調査の応用に関して改善が見込まれる例として,もうひとつ言語素材を用いた心理実験を挙げることができる.文字,単語などを素材とする心理実験では頻度の統制が大きな課題となり,その際,平均的な集計値(e.g.,国立国語研究所,1970;Ku\v{c}era\&Francis,1967)を利用するのが一般的であるが,変動をも考慮に入れた素材の用意や結果の分析も有効であろう.Gernsbacher(1984)は,頻度表では低頻度であるのに,主観的にはそう感じられない単語があることを指摘して,経験的親近性(experientialfamiliarity)を統制する必要があるとしている.しかし,親近性は主観的な評定によるものであり,指標の内容にあいまいな部分がある.親近性の指標としての意味を見直すことと並行して,頻度自体の情報の充実を進めてゆくというのが望ましい方向であると考えられる.一般に心理学の分野では,心内語彙に関する研究は盛んであるが,外的に存在する語彙の性質についての考察が弱い.心理実験で調べる心内語彙と,言語テキストの分析で調べる外的語彙は,本来双方向的であるのだから,双方の対応関係にもっと関心をもつ必要があり,それを実践するために本稿のような分析を応用することができるだろう(多面的に集計した単語出現率と心内辞書のパフォーマンスの関連を見た研究の例として,Hisano,1999がある). \section{おわりに} 今後の課題を2点挙げる.第1に,分析の精緻化,体系化を進めること.分散分析,相関係数における有意水準を手がかりとして検出した面種変動,時系列変動が,実際にどのような変動のパタンを示すかについて,本研究では,代表的なものを例示するにとどまった.個々のケースについては,各種の時系列分析法の適用や,実際のテキストでの用例の吟味によって,分析を洗練,深化してゆくことができる.また,変動のパタンを,語彙全体の構造の中で,より直接的に把握,表現するために,変動パタンの分類,クラスタリングを本格的に行うことが望まれる.第2に,対象の拡張を進めること.本研究は文字を単位とする分析を行ったが,これは語彙変動の抽出を念頭に置いてのものであり,今後,単語レベルでの変動を検討することが重要な課題であるのは言うまでもない.また,コーパスの拡張は,本研究で観察された変動現象の一般性を評価する意味で重要である.まず,今回の分析で扱った期間が短い(特にトレンドを見るには)ことと,電子テキストがまだ整備途上にあることを考えても,毎日新聞を対象に継続的な観測を行うことは重要である.もちろん,毎日新聞以外のコーパス(新聞以外を含む)への拡張も重要であり,その際には,英語をはじめとする他言語での検討も必要であるだろう.\acknowledgment本研究は日本心理学会第63回大会において発表した研究(久野,野崎,横山,1999)に,大幅な拡充を加えたものである.電子化コーパスを用いた日本語語彙の研究を共同で進めている横山詔一(国立国語研究所),野崎浩成(愛知教育大学)の両先生には,本研究においても,多くのご示唆,ご助力をいただきました.記して深い感謝の意を表します.\bibliographystyle{jnlpbbl}\bibliography{v07n2_03}\begin{biography}\biotitle{略歴}\bioauthor{久野雅樹}{1987年東京大学教育学部教育心理学科卒業.1995年同大学院博士課程修了.1996年電気通信大学電気通信学部講師,現在に至る.専門は認知心理学,言語心理学.日本心理学会,日本教育心理学会,日本認知科学会,人工知能学会,言語処理学会,日本行動計量学会,計量国語学会各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V24N04-02
\section{はじめに} 投資家は,資産運用や資金調達のために数多くの資産価格分析を行っている.とりわけ,ファイナンス理論の発展と共に,過去の資産価格情報や決算情報などの数値情報を用いた分析方法は数多く報告されている.しかしながら,投資家にとって,数値情報だけでなく,テキスト情報も重要な意思決定材料である.テキスト情報には数値情報に反映されていない情報が含まれている可能性があり,テキスト情報の分析を通じ,有用な情報を獲得できる可能性がある.そのため近年,これまで数値情報だけでは計測が困難であった情報と資産価格との関連性の解明への期待から,経済ニュースや有価証券報告書,アナリストレポート,インターネットへの投稿内容などのテキスト情報を用いた様々な資産価格分析がなされている\cite{Kearney2014,Loughran2016}.本研究では,これらファイナンス分野及び会計分野の研究に用いるための金融分野に特化した極性辞書の作成を試みる.テキスト情報の分析を行う際には,テキスト内容の極性(ポジティブorネガティブ)を判断する必要がある.極性辞書を用いた手法は,この課題を解くための主流の方法の一つである.極性辞書によるテキスト分析は,キーワードの極性情報を事前に定義し,テキスト内容の極性を判断することで分析が行われる.ファイナンス分野及び会計分野の研究では,極性辞書による分析が標準的な手法となっている.極性辞書が標準的な手法となっている理由の一つとして,どの語句や文が重要であるかが明確であり,先行研究との比較が容易である点が挙げられる.また,金融実務の観点からすると,テキスト情報を利用して資産運用や資金調達をする際には株主や顧客への説明責任が必要であるという事情がある.そのため,内部の仕組みがブラックボックス化してしまう機械学習よりも,重要な語句や文が明確である極性辞書の方が説明が容易であることから,好まれる傾向がある.極性辞書には,GeneralInquirer\footnote{http://www.wjh.harvard.edu/{\textasciitilde}inquirer/}やDICTION\footnote{http://www.dictionsoftware.com/}などの心理学者によって定義された一般的な極性辞書や金融分野に特化したオリジナルの極性辞書\footnote{金融分野に特化した極性辞書として,LoughranandMcDonaldSentimentWordLists(http://www3.nd.edu/\linebreak[2]{\textasciitilde}mcdonald/Word\_Lists.html)がある.}が用いられる.金融分野では,独自の語彙が用いられる傾向があることから,\citeA{Henry2008}や\citeA{Loughran2011}では,金融分野に特化した極性辞書を用いることで分析精度が上がるとの報告がなされている.しかしながら,金融分野に特化した極性辞書を作成するためには,人手によるキーワードの選択と極性の判断が必要であり,評価者の主観が結果に大きく影響するという問題点が存在する.また,価格との関連性の高いキーワードも,年々変化することが想定される.例えば,新たな経済イベントの発生や資産運用の新手法などがあれば,その都度キーワードの極性情報を更新する必要があり,専門家による極性判断を要することとなる.自然言語処理におけるブートストラップ法をはじめとする半教師あり学習を用いる方法はあるものの,これも最初に選択するキーワードによって,分析結果に大きな影響を与えてしまうことなる.そこで,これら問題点に対する解決策の一つとして,本研究では人手による極性判断を介さずに,ニュースデータと株式価格データのみを用いて極性辞書を作成する方法論を提示する.株式価格データを用いて日本語新聞記事を対象に,重要語の抽出を試みた研究報告として,\citeA{Ogawa2001}や\citeA{Chou2008},\citeA{Hirokawa2010}などがあるものの,これらは,株式価格情報からマーケット変動を十分に調節できていない.具体的には,株式固有のリスクを調節できていない.例えば,同じ銘柄であっても時期によって株式が有するリスクプレミアムに違いがあり,リスクに伴う株式価格変動が荒い時期と穏やかな時期があり,株式リターンが一見同じであっても,そこから得られる情報は異なることが広く知られている\cite{Campbell2003}.また,異なる銘柄について同様である.リスクに伴う株式価格変動が荒い銘柄と穏やかな銘柄があり,株式リターンが一見同じであっても,そこから得られる情報は異なることも広く知られている\cite{Campbell2003}.加えて,新聞記事には必ずしも資産価格変動と関連性の高い新鮮な内容のみが記述されているだけではない.本研究では,これら問題点も考慮し,なおかつ,金融市場における資産価格形成と関連性の高いメディアである日経QUICKニュースを用いて,重み付き属性値付きキーワードリスト(以下,本稿では「重み付き属性値付きキーワードリスト」のことを単に「キーワードリスト」と記述する.)の作成を行う.さらに,作成したキーワードリストによってどの時点でのニュース記事を分類できるかを,キーワードリストの作成に用いた日経QUICKニュースと他メディアであるロイターニュースの分類を通じて検証する.次章は,本分析で用いるデータに触れ,3章ではキーワードリストの作成方法,4章ではキーワードリストを用いた分類検証を記す.5章は,まとめである. \section{データ} \subsection{マーケットデータ}本研究では,株式価格情報からキーワードの極性評価を行うために,個別銘柄の株式リターンとリスクファクター・リターンのデータを用いた.個別銘柄の株式リターンとして,ThomsonReutersDatastreamから,トータルリターンの日次データを用いた.トータルリターンとは,株式の価格変動に加え,株式の配当も含めた株式の収益率のことを指す.また,リスクファクター・リターンのデータは,株式会社金融データソリューションズが提供する日本版Fama-Frenchベンチマークからマーケットリターン($Rm$),リスクフリーレート($Rf$),バリューファクター・リターン($HML$),サイズファクター・リターン($SMB$)の日次データを使用した.マーケットリターンは東証1部及び2部における全銘柄の時価総額加重平均配当込みの収益率,リスクフリーレートは新発10年国債利回りであり,バリューファクター・リターン及びサイズファクター・リターンは,\citeA{Fama1993}や\citeA{Kubota2007}において定義された方法によって算出された簿価時価比率のリスクファクター及び時価総額のリスクファクターである.\subsection{ニュースデータ}株式価格からキーワードリストを作成するためのニュースデータには日経QUICKニュースを用いた.日経QUICKニュースは,株式会社日本経済新聞社と株式会社QUICKの許諾を受けて使用した.日経QUICKニュースは,日本経済新聞社とQUICK社によって投資家向けに専用の端末を通じて配信されるニュースである.このニュースデータに対して,株式会社金融工学研究所が付与したタグ情報を利用した.日経QUICKニュースの利用したタグ情報は,「ニュース記事の配信日付」・「ニュース記事本文に含まれるキーワード」・「対象ニュース記事と関連する主要銘柄名(証券コード)」である.また,本研究手法によって得られたキーワードリストをもとに,ニュース記事分析をするためのニュースデータとして,日経QUICKニュースに加えて,異なるメディアに対してもキーワードリストの有効性を検証するために,ロイターニュースを用いた.ロイターニュースは,世界で最も広く知られたニュース提供会社の一つであるトムソンロイター社が配信しているニュースである.ロイターニュースの利用したタグ情報は,「ニュース記事の配信日時」・「対象ニュース記事と関連する銘柄名(証券コード)」を利用した.日経QUICKニュースとロイターニュースは,どちらも日本語で書かれたニュース記事を分析対象としている.これらニュースデータの一部は,日本経済新聞社やトムソンロイター社のウェブページから閲覧することが出来るが,本研究では,機関投資向けの専用端末を通じて24時間配信される全経済ニュースを分析に用いる.日経QUICKニュースとロイターニュースは,各団体が発信する一次情報に比べると,各メディアの記者やアナリストによる情報の取捨選択が行われており,社会や市場に対して相対的に重要な情報が含まれていると考えられる.また,日本証券市場に参加している多くの(機関)投資家が閲覧するメディアであることから,新聞や雑誌のニュースに比べ,経済イベントからニュース記事配信までのラグが小さく,金融市場における資産価格形成との関連性が高い新鮮な内容であることが想定される.\subsection{ニュースデータの前処理}ここでは,分析を行う前のデータ整形を記述する.本研究の分析対象期間は,2008年から2011年までとした.日経QUICKニュースは,2008年から2011年までの間に配信された719,633本のニュース記事を,ロイターニュースは,2009年から2011年までの間に配信された395,819本のニュース記事を,極性辞書の作成及び作成した極性辞書による分類検証に用いる.はじめに,ニュース記事配信日の調整を行う.日経QUICKニュースとロイターニュースは東京証券取引所の休業日に配信されたニュース記事に関して,翌営業日に配信されたニュース記事として分析を進めた.また,ロイターニュースは秒単位でのタイムスタンプ情報を獲得できたため,大引けの15時以降に配信されたニュース記事は翌営業日に配信されたニュース記事として分析を進めた.例えば,2016年9月3日は土曜日なので,この日に配信されたニュース記事は翌営業日である2016年9月5日に配信されたニュース記事として扱い,2016年9月1日16時に配信されたニュース記事は取引所が閉まった後に配信されたものなので,翌営業日である2016年9月2日のニュース記事として扱うということである.これらの調整は,マーケットが閉まっている間に配信されたニュース記事内容は,直後の営業日において株式価格に反映されると仮定したためである.次に,ニュース記事の選別を行う.本研究では,タグ情報(証券コード)をもとに東証一部上場企業と関連するニュース記事を抽出した.東証一部に鞍替えした銘柄は,鞍替え前のニュース記事も分析対象としている.また,後述のイベントスタディ分析において推定ウィンドウ及びイベントウィンドウを確保できる,すなわち,ニュース記事が配信される140営業日前から10営業日後までにおいて株式価格データが取得できる銘柄のニュース記事のみを分析対象としている.日経QUICKニュースの選別は,ニュース記事の本文を分析対象としたため,「ニュース記事本文に含まれるキーワード」が付与されていないニュース記事は使用しなかった.ロイターニュースの選別についても同様にヘッドラインのみのニュース記事は分析対象外とし,さらに,第一報のニュース記事のみを分析対象とするため,再送記事と訂正記事は分析対象外とした.加えて,本研究ではニュース記事のテキスト情報に注目したため,決算情報や社債の発行要項,テクニカルデータなどの数値情報のみのニュース記事についても分析対象外としている.また,複数の銘柄の内容について報じているニュース記事は,関連する銘柄数の分だけニュース記事を増やし,一つのニュース記事に一つの銘柄を対応付け,分析を進めた.日経QUICKニュースはタグ情報(証券コード)を基に主要銘柄を一つに絞ることが出来たが,ロイターニュースは絞ることが出来なかったため,一つのニュース記事から複数銘柄の株式価格変動の観察を行っている.しかしながら,厳密には,ニュース記事の内容を加味して分析することが望ましいと考えられる.分析手法の改善は今後の課題である.選別後のそれぞれのニュース記事数は,表\ref{news}に示す.ロイターニュースは,延べニュース記事数を表している.延べニュース記事数とは,一つのニュース記事に複数の証券コードタグが付随している場合,重複して計数した値である.また,カッコ内はニュース記事が報じている内容と関連する銘柄の異なり数を表している.\begin{table}[t]\caption{ニュース記事数}\label{news}\input{02table01.txt}\end{table}また,選別後の日経QUICKニュースのタグ情報から取得できたキーワード数(異なり数・延べ数)は,表\ref{tag}に示す.ここで得られたキーワードが本研究のキーワードリストのもとになる.\begin{table}[t]\caption{キーワード数}\label{tag}\input{02table02.txt}\end{table} \section{キーワードリストの作成方法} \subsection{作成手順の概略}ここでは,ニュースデータと株式価格データからキーワードリストを作成する方法論の手順の概略を記す.はじめに,株式価格情報からイベントスタディ分析によって,各ニュース記事へ教師スコアを付与をする.次に,ニュースデータに付与されているキーワードをもとに,ニュース記事内容をbag-of-wordsによってベクトルで表現する.最後に,サポートベクター回帰(SVR;SupportVectorRegression)\cite{Bishop2012}によって教師あり学習を行ったのち,学習器から各キーワードの極性情報を抽出することで,キーワードリストの作成を試みた.3.2節及び3.3節において,それぞれの作成方法の詳細を記述する.\subsection{株式価格データからニュース記事への教師スコアの付与}本研究手法の想定する二つの仮定を記述する.一つ目は,ニュースが報じられたことによって,株式価格が変動した場合である.ある銘柄の株式価格が上昇した場合,それは投資家がニュース記事を見て,銘柄に対してポジティブな感情を持ち,高値をつけたと考える.逆に,株式価格が下落した場合は,ネガティブな感情を持ち,安値をつけたと考える.そのため,株式価格変動にはニュース記事の内容のポジティブ/ネガティブの情報が含まれていることが想定される.二つ目は,ある銘柄の株式価格の変動を受けて,その概況がニュースとして報じられた場合である.株式価格が上昇したときに報じられたニュース記事にはポジティブな内容,株式価格が下落したときに報じられた場合にはネガティブな内容が記述されていると考える.この場合にも,株式価格変動にはニュース記事の内容のポジティブ/ネガティブの情報が含まれていることが想定される.いずれの場合においても,株式価格変動の大きさは,ニュース記事内容のポジティブ/ネガティブと密接な関係があることが想定される.そこで,本研究ではイベントスタディ分析の枠組みによって,株式価格データからニュース記事への教師スコアの付与を試みた\cite{Campbell2003}.イベントスタディ分析とは,経済上のイベントが株式価値にどのような影響を与えるかを測定する方法論であり,各銘柄と各時期の共変動リスクを調整した株式価格変動である異常リターンを算出するために用いた.異常リターンの概念図を,図\ref{異常リターンの概念図}に示す.\begin{figure}[b]\begin{center}\includegraphics{24-4ia2f1.eps}\end{center}\caption{異常リターンの概念図}\label{異常リターンの概念図}\end{figure}具体的な算出手順は以下の通りである.\begin{enumerate}\itemはじめに,ニュース記事${i}$ごとにイベント日,推定ウィンドウ,イベントウィンドウを設定する.ニュース記事への教師スコアの付与は,イベント日はニュース記事配信日,推定ウィンドウはニュース記事配信日の140営業日前から21営業日前までの120営業日間,イベントウィンドウはニュース記事配信日当日からその翌日までとした.本研究では,日数は東京証券取引所の営業日をもとに計数している.図\ref{本研究の設定}は,本研究の設定を図示したものである.例えば,2016年9月1日に配信されたニュース記事であれば,イベント日は2016年9月1日であり,推定ウィンドウは2016年2月5日から2016年8月2日までの120営業日間であり,イベントウィンドウは2016年9月1日から2016年9月2日まで2営業日間となる.\begin{figure}[t]\begin{center}\includegraphics{24-4ia2f2.eps}\end{center}\caption{本研究の設定}\label{本研究の設定}\end{figure}\item次に,推定ウィンドウにおいて,各ニュース記事${i}$に関連する銘柄に関して,Fama-Frenchの3ファクターモデルによって,切片及び各リスクファクターに対する感応度を算出する.Fama-Frenchの3ファクターモデルは,\begin{equation}R_{i}[t]-Rf[t]=\alpha_{i}+\beta^{M}_{i}(R_{M}[t]-Rf[t])+\beta^{SMB}_{i}SMB[t]+\beta^{HML}_{i}HML[t]+\varepsilon_{i}[t],\end{equation}にて定義される\cite{Fama1993}\footnote{小型株効果$SMB$と割安株効果$HML$を考慮することで,どのくらいモデルの寄与率が上がるか,トヨタ自動車・本田技研工業・日産自動車の三社の株価を例に,2010年1月から2015年5月のデータを用いて示す.$SMB$と$HML$を追加したとき,自由度調整済み決定係数がそれぞれ,トヨタ自動車:0.68→0.70,本田技研工業:0.60→0.62,日産自動車:0.54→0.56となる.}.$R_{i}$はニュース$i$と関連する銘柄の株式リターン,$Rf$はリスクフリー・レート,$R_{M}$はマーケット・リターン,$SMB$はサイズファクター・リターン,$HML$はバリューファクター・リターン,$\varepsilon_{i}$は誤差項を表しており,このモデルを用いることで,マーケット全体の価格変動の影響のほかに,小型株効果及び割安株効果の共変動の影響を取り除いている.また,$[t]$はイベント日からの日数を表しており,例えば,$R_{i}[-100]$であればニュース記事配信日の100営業日前のニュース記事$i$と関連する銘柄の株式リターンを表し,$SMB[+1]$であればニュース記事配信日の1営業日後のサイズファクター・リターンを表す.モデルのパラメータ($\alpha_{i},\beta^{M}_{i},\beta^{SMB}_{i},\beta^{HML}_{i}$)が切片及び各リスクファクターに対する感応度であり,推定ウィンドウにおいてこれらパラメータを推定する.推定は最小二乗法による線形回帰によって行われる.\item3番目に,推定したパラメータを用いて,イベントウィンドウにおける日次の異常リターン($AR$;AbnormalReturn)と累積異常リターン($CAR$;CumulativeAbnormalReturn)を算出する.ニュース記事${i}$のイベントウィンドウにおける$t$日の異常リターン$AR_{i}[t]$は,\begin{equation}AR_{i}[t]=R_{i}[t]-\bigl(\alpha_{i}+\beta^{M}_{i}(R_{M}[t]-Rf[t])+\beta^{SMB}_{i}SMB[t]+\beta^{HML}_{i}HML[t]\bigr),\end{equation}によって算出される.すなわち,異常リターンとはイベントウィンドウにおいて実際に実現したリターン($R_{i}[t]$)から,イベントが起きなかった時に達成されていたであろうと期待されるリターンである正常リターン($\alpha_{i}+\beta^{M}_{i}(R_{M}[t]-Rf[t])+\beta^{SMB}_{i}SMB[t]+\beta^{HML}_{i}HML[t]$)を差し引いた値である.続いて,イベントウィンドウにおける$t_{1}$日から$t_{2}$日までの累積異常リターン$CAR_{i}[t_{1},t_{2}]$は,\begin{equation}CAR_{i}[t_{1},t_{2}]=\sum_{t=t_{1}}^{t_{2}}{AR_{i}[t]},\end{equation}と算出される.本研究ではニュース記事に対する教師スコア付与のために,ニュース記事配信日の当日から1営業日後までの2営業日間の累積異常リターンである$CAR[0,+1]$を算出する.\item最後に,累積異常リターン$CAR_{i}[t_{1},t_{2}]$を過去の株式価格変動を用いて標準化する.具体的には,ニュース記事${i}$ごとに,$t_{3}$日から$t_{4}$日までの$L$日間の推定ウィンドウにおけるFama-Frenchの3ファクターモデルの残差${e_{i}}$の標準偏差$\sigma_{e_{i}}[t_{3},t_{4}]$を,\begin{multline}\sigma_{e_{i}}[t_{3},t_{4}]=\biggl(\frac{1}{L-k}\sum_{t=t_{3}}^{t_{4}}\Bigl(R_{i}[t]-\bigl(\alpha_{i}+\beta^{M}_{i}(R_{M}[t]-Rf[t])\\{}+\beta^{SMB}_{i}SMB[t]+\beta^{HML}_{i}HML[t]\bigr)\Bigr)^{2}\biggl)^{\frac{1}{2}},\end{multline}によって算出する.ここで$k$はモデルのパラメータ数を表している.本研究では,$L=120$,$k=4$として,$\sigma_{e_{i}}[-140,-21]$を算出する.そして,累積異常リターン$CAR_{i}[t_{1},t_{2}]$を,\begin{equation}SCAR_{i}[t_{1},t_{2}]=\frac{CAR_{i}[t_{1},t_{2}]}{\sigma_{e_{i}}[t_{3},t_{4}]},\end{equation}とすることで,標準化された累積異常リターン($SCAR$;StandardizedCumulativeAbnormalReturn)が算出される.本研究においては,ニュース記事配信日の当日から1営業日後までの標準化された累積異常リターン$SCAR_{i}[0,+1]$を,ニュース記事内容と関連する株式価格変動とし,ニュース記事の教師スコアとした.\end{enumerate}すべてのニュース記事に対して,(1)から(4)までのプロセスを経ることで,時期の違いと銘柄間の違い,共変動の影響を調整した教師スコアである$SCAR[0,+1]$を算出している.\subsection{ニュース記事内容のベクトル表現方法とキーワードの極性評価}ここでは,ニュース記事内容のベクトル表現方法とキーワードの極性評価を記述する.ニュースデータに付与されているキーワードをもとに,ニュース記事内容をbag-of-wordsによってベクトルで表現する.日経QUICKニュースには,ニュース記事の内容を表すキーワード群が付与されており,それらをニュース記事のベクトルの特徴量とした.キーワード数は表\ref{tag}を参照されたい.例えば,あるニュース記事Aに,「続落」,「原油高」,「懸念」の3つのキーワードが付与されているとき,ニュース記事Aは前述の3つのキーワード特徴量の値は1となり,他のキーワード特徴量の値は0となるようなベクトルとなる.加えて,ニュース記事に付与されたキーワードの数を考慮するために,各ニュース記事のキーワードベクトルを作成した後,ベクトルの長さが1になるように次式によって各特徴量の調整を行った.\begin{equation}\frac{1}{\sqrt{x_{i}}}\end{equation}ここで,$x_{i}$はニュース記事${i}$の特徴量数を表す.キーワードの極性評価は,前節の方法にて算出した教師スコアをニュース記事ベクトルに紐付け,入力($X$)をbag-of-wordsのベクトル,出力($Y$)を$SCAR[0,+1]$として,SVR(+線形カーネル)によって学習器を作成する\footnote{非常に少数であるが,同日に同一銘柄に関して,良いニュースと悪いニュースのどちらも配信されるケースがある.本研究では,これらを無視して同一のリターンを出力するような学習器を作成している.手法の改善は,今後の課題である.}.そして,学習器から法線ベクトルを各キーワードの極性情報と見なして抽出することで,キーワードリストの作成を試みた.法線ベクトルを抽出せず,直接テストデータへスコアを付与することは可能であるが,本研究では極性辞書の作成を研究目的としているため,あえて行っている.パラメータチューニングに関しては,10分割の交差検定を繰り返し,平均二乗誤差が最小になるようなハイパーパラメータを決定している.\subsection{作成したキーワードリスト}本研究手法によって得られたキーワードリストとその極性値を表\ref{findic}に示す.2008年は13,806,2009年は13,893,2010年は14,019のキーワードに対して極性値が振られている.表\ref{findic}は,各年のポジティブキーワードとネガティブキーワードとして,特徴量に対する重みの大きいあるいは小さいキーワードをそれぞれ上位30位までのキーワードを抽出し,記載したものである.つまり,これらは株式価格変動との関連性の高いニュース記事内のキーワードであり,重みがプラス方向に大きければ大きいほど,株式価格の値上がりの時によく現れていることを示しており,逆に,重みがマイナス方向に大きければ大きいほど,株式価格の値下がりのときによく現れていることを示している.\begin{table}[p]\begin{center}\rotatebox{90}{\begin{minipage}{571pt}\caption{本研究手法によって作成したキーワードリスト}\label{findic}\input{02table03.txt}\end{minipage}}\end{center}\end{table}ポジティブなキーワードとして,「買い」や「上方修正」,「増益」などのキーワード群を,ネガティブなキーワードとして,「嫌気」や「反落」,「悪化」などのキーワード群をそれぞれ獲得することができた.これらのキーワードは一般的にポジティブあるいはネガティブだと想定されるキーワードであり,本研究手法により,ニュースデータと株式価格データを用いてキーワードの極性情報を取り出すことのできる可能性を示すものである.抽出されたキーワードを見ると,「値上がり」や「急伸」,「続伸」,「反落」,「急落」,「値下がり」などの株式価格の動きを表したキーワードが多く抽出された.そして同時に,「上方修正」,「下方修正」,「資本増強」,「公募増資」,「オーバーアロットメント」などの,会計利益やコーポレートアクションなどと関連するキーワードも抽出された.一方で,「自動車株」や「ハイブリッド車」,「事務所」など極性を持つと考えにくいキーワードも抽出された.これは年によって特定の経済イベントが頻出したためだと考えられる.長期間のデータを用いれば,改善できる可能性があり,今後の課題である.\subsection{英文用の金融極性辞書との比較}ここでは,作成したキーワードリストと英文用の金融極性辞書との比較を行う.和文では,入手可能な金融用の極性辞書は存在しないため,英文用の金融極性辞書と比較を通じて,抽出した単語の極性情報の評価を試みる.筆者が直接単語の極性情報を評価することは可能であるが,恣意的な評価を避けるために行っている.英文用の金融極性辞書には,LoughranandMcDonaldSentimentWordLists\footnote{http://www3.nd.edu/{\textasciitilde}mcdonald/Word\_Lists.html}(以下,LM辞書と略表記する.)を用いた\cite{Loughran2011}.LM辞書は,Form10-K\footnote{日本では,有価証券報告書に相当する文書である.}の分析用に開発された極性辞書であり,金融関連の英文テキストの分析に広く用いられている.LM辞書には,ポジティブな英単語が354語,ネガティブな英単語が2,355語,それぞれ収録されおり,これら単語との比較を行う.具体的な評価手順は以下の通りである.\begin{table}[b]\caption{英文用の金融極性辞書との比較結果}\label{comparison}\input{02table04.txt}\end{table}はじめに,Google翻訳\footnote{https://translate.google.com/}によって,LM辞書に記載されている単語を和訳する.次に,本研究のキーワードリストとLM辞書のどちらにも記載されている単語を抽出する.3番目に,抽出した単語の極性情報を比較する.このとき,LM辞書は単にポジティブ/ネガティブの二値なのに対して,本研究のキーワードリストは重み付き属性値であるため,LM辞書に収録されているポジティブな単語群及びネガティブな単語群がどのような重み付き属性値を取っているかを考察することで評価を行う.表\ref{comparison}は,比較結果をまとめたものである.2008年と2009年では,ポジティブな単語群は平均値(重み付き属性値)がプラスで,ネガティブな単語群はマイナスの傾向はあるもの,2010年ではその傾向は見られない.また,表\ref{findic}と比較すると,重み付き属性値は0付近の値を取っており,LM辞書に記載されている単語は本研究のキーワードリストの重み上位に出てくる単語とのオーバーラップは少ないことが伺える.LM辞書ではポジティブな単語であるのに対して,どの年においても,本研究の重み付き属性値がマイナスになった単語として,「leadership(リーダーシップ)」,「transparency(透明性)」があった.また,LM辞書ではネガティブな単語であるのに対して,どの年においても,本研究の重み付き属性値がプラスになった単語として,「delisting(上場廃止)」,「rationalization(合理化)」,「antitrust(独占禁止法)」,「challenge(チャレンジ)」,「conciliation(和解)」などがあった.このような単語が抽出された原因として,文脈を見なければならない単語であることや英文と和文とでは用いられ方が異なる単語で直訳しただけでは上手く評価できない可能性がある.次章では,作成したキーワードリストをもとにニュース記事の分類を行うことで有効性を検証する. \section{キーワードリストを用いた分類検証} \subsection{ニュース記事の分類}本章では,本研究手法によって作成したキーワードリストをもとにニュース記事の分類を行い,分類した各ニュース記事クラスのニュース記事配信日付近の株式リターンの推移を観察することで,キーワードリストの有効性を検証する.そこではじめに,前章のキーワードリストをもとに,日経QUICKニュース及びロイターニュースを5つのクラス(VeryPositive・Positive・Neutral・Negative・VeryNegative)に分類する.\begin{table}[b]\caption{学習データと評価データの対応表}\label{valuation}\input{02table05.txt}\end{table}本分析では,前年の日経QUICKニュースと株式価格から得られたキーワードリストを用いて,翌年のニュースの分類を試みる.学習データと評価データの対応表は表\ref{valuation}に示す.例えば,2009年に配信されたニュース記事の分類は,2008年の日経QUICKニュースデータとマーケットデータを用いて作成したキーワードリストをもとに分類をする.同様に,2010年に配信されたニュース記事は,2009年のデータを用いて作成したキーワードリストを用いる.これは,ニュース記事配信時点での将来情報を用いないようにするためである.さらに,経済・金融分野に特化していない一般的な極性辞書との比較を行うため,テキストの評判分析に広く用いられる日本語評価極性辞書(名詞編){\kern-0.5zw}\footnote{http://www.cl.ecei.tohoku.ac.jp/index.php?Open\%20Resources\%2FJapanese\%20Sentiment\%20Polarity\%20\linebreak[2]Dictionary}\cite{Higashiyama2008}を用いて同様にニュース記事の分類を行う.本研究では,キーワードリストをもとに,各ニュース記事内に出現するキーワードを計数し,極性を表す重みで掛け合わせた値を,計数したキーワード数で割ることでニュース記事のスコアを算出した.日本語評価極性辞書は,pとnのラベルが付与されているキーワードを用いて同様にニュース記事のスコアを算出した.重みは,pを+1,nを$-1$とした.ここで,キーワードを重複して計数しないように,あらかじめニュース記事を形態素解析\footnote{形態素解析には,MeCab(http://taku910.github.io/mecab/)を用いた.システム辞書にはIPA辞書を用いた.また,ユーザ辞書として,ニュース記事の分類を行う際のキーワードリスト(本研究で作成したキーワードリストあるいは日本語評価極性辞書)を追加している.}を行ってわかち書きをした後,キーワードの計数を行っている.具体的には,ニュース記事$i$のスコアは以下の数式で表される.\begin{equation}Score_{i}=\frac{\sum_{k=1}^{n}TF_{w_{k}}\timesWeight_{w_{k}}}{\sum_{k=1}^{n}TF_{w_{k}}}\end{equation}ここで,$Score_{i}$はニュース記事$i$のスコア,$TF_{w_{k}}$は本研究のキーワードリストあるいは日本語評価極性辞書に定義されている$k$番目のキーワード$w_{k}$がニュース記事内に出現した頻度,$Weight_{w_{k}}$はキーワード$w_{k}$の極性度合いを表す実数値,$n$は本研究のキーワードリストあるいは日本語評価極性辞書に定義されているキーワード数を表す.ここで,本研究のキーワードリストあるいは日本語評価極性辞書に定義されたキーワードが存在しないニュース記事は,スコアが定義されないため分析からは除外した.そして,各ニュース記事のスコアを上式によって算出した後,次式によって年ごとにニュース記事のスコアを標準化した.\begin{equation}Z\mathchar`-Score_{i}=\frac{Score_{i}-\overline{Score}}{s_{Score}}\end{equation}ここで,$\overline{Score}$と$s_{Score}$は年ごとのスコアの標本平均値と標本標準偏差を表す.そして,標準化されたスコア$Z$-$Score_{i}$をもとに,ニュース記事を5分割する.具体的には,標準化されたニュース記事のスコアが,$Z\text{-}Score_{i}>=2$となるとき,とても良い内容が記述されている$ニュース記事クラス_{Very\,Positive}$に,$2>Z\text{-}Score_{i}>=1$となるとき,良い内容が記述されている$ニュース記事クラス_{Positive}$に,$1>Z\text{-}Score_{i}>-1$となるとき,中立な内容が記述されている$ニュース記事クラス_{Neutral}$に,$-1<Z\text{-}Score_{i}=<-2$となるとき,悪い内容が記述されている$ニュース記事クラス_{Negative}$に,$Z\text{-}Score_{i}=<-2$となるとき,とても悪い内容が記述されている$ニュース記事クラス_{Very\,Negative}$に分類した.\begin{table}[b]\caption{各ニュース記事クラスのスコアの要約統計量}\label{score_findic}\input{02table06.txt}\end{table}以上の手順によって本研究手法から得られたキーワードリスト及び日本語評価極性辞書を用いて分類した日経QUICKニュースとロイターニュースの各ニュース記事クラスのスコアの要約統計量に関して,評価データ3年分をまとめたものを表\ref{score_findic}に示す.日本語評価極性辞書を用いて分類した場合,日経QUICKニュース及びロイターニュースのどちらも,VeryPositiveに分類されたニュース記事は一つも存在しなかった.そのため,日本語評価極性辞書によって分類したニュース記事クラスに関しては,以降の分析からはVeryPositiveは除外して進める.また,日本語評価極性辞書に定義されたキーワードを含まず,スコアが付与されなかったニュース記事数は,日経QUICKニュースは5,201,ロイターニュースは753の事例が存在し,相対的に本研究のキーワードリストよりも多いことが分かる.\subsection{分類検証における各種指標}ここでは次節以降の分類検証における各種指標の詳細な記述を行う.本研究では,キーワードリストによって分類されたニュース記事のクラスごとにニュース記事配信日の10営業日前から10営業日後までの株式リターンの推移を観察することで,本研究のキーワードリストの有効性を検証する.具体的には,二種類の株式リターンに関する指標を考察する.一つ目は,各ニュース記事クラスの加工していない生の平均株式リターン($\overline{R}$;AverageReturn)及び累積平均株式リターン($\overline{CR}$;CumulativeAverageReturn)である.ある日$t$におけるニュース記事クラス$j$の$\overline{R_{j}}[t]$と$\overline{CR_{j}}[t_{1},t_{2}]$の算出方法は以下の通りである.\begin{gather}\overline{R_{j}}[t]=\frac{1}{N}\sum_{i=1}^{N}{R_{i}[t]},\\\overline{CR_{j}}[t_{1},t_{2}]=\sum_{t=t_{1}}^{t_{2}}\overline{R_{j}}[t].\end{gather}ここで,$N$はニュース記事クラス$j$に分類されたニュース記事数である.二つ目は,各ニュース記事クラスの平均異常リターン($\overline{AR}$;AverageAbnormalReturn)及び累積平均異常リターン($\overline{CAR}$;CumulativeAverageAbnormalReturn)である.$\overline{AR}$及び$\overline{CAR}$は,イベントスタディ分析によってマーケット全体の価格変動の影響のほかに,小型株効果と割安株効果に関する共変動の影響を調整した株式リターンである.ニュース記事クラス$j$の$\overline{AR_{j}}[t]$と$\overline{CAR_{j}}[t_{1},t_{2}]$は,3.2節にて記述した手順によってニュース記事クラス$j$に分類されたニュース記事$i$ごとに$AR_{i}[t]$と$CAR_{i}[t_{1},t_{2}]$を算出した後,それぞれ平均値を算出することで求められる.算出方法は,以下の式によって算出される.\begin{gather}\overline{AR_{j}}[t]=\frac{1}{N}\sum_{i=1}^{N}{AR_{i}[t]},\\\overline{CAR_{j}}[t_{1},t_{2}]=\frac{1}{N}\sum_{i=1}^{N}{CAR_{i}[t_{1},t_{2}]}.\end{gather}イベント日はニュース記事配信日,推定ウィンドウはニュース記事配信日の140営業日前から21営業日前までの120営業日間,イベントウィンドウはニュース記事配信日の10営業日前から10営業日後までの21営業日間とする.\begin{figure}[b]\begin{center}\includegraphics{24-4ia2f3.eps}\end{center}\caption{本研究のキーワードリストを用いて分類した各ニュース記事クラスの$\overline{CR}$の推移}\label{rawfindic}\end{figure}\subsection{ニュース記事配信日付近における株式リターン推移の検証結果}はじめに,ニュース記事配信日付近における$\overline{R}$と$\overline{CR}$を検証する.本研究手法によって作成されたキーワードリストによって分類した各ニュース記事クラスごとの$\overline{CR}$の推移を考察する.本節では,ニュース記事配信日10営業日前から$t$までの累積平均リターン$\overline{CR}[-10,t]$を$\overline{CR}$と表記する.$\overline{CR}$の推移を図示したものが図\ref{rawfindic}である.図\ref{rawfindic}は,縦軸がニュース記事配信日10営業日前から$t$日までの累積平均株式リターン$\overline{CR}$,横軸がイベント日からの日数$t$を表している.そして,(a)が日経QUICKニュースを,(b)はロイターニュースを分類した結果を図示したものである.また,日経QUICKニュース及びロイターニュースの$\overline{R}$と$\overline{CR}$をまとめたものが表\ref{rawtable}の表である.図と表について,どちらも単位は\%である.\begin{table}[p]\rotatebox{90}{\begin{minipage}{571pt}\caption{各ニュース記事クラスの平均リターン及び累積平均リターンの推移}\label{rawtable}\input{02table07.txt}\end{minipage}}\end{table}図\ref{rawfindic}から,日経QUICKニュース及びロイターニュースに関して,どちらもニュース記事クラスごとに$\overline{CR}$の動きが異なることが見て取れる.特に,ニュース記事配信日においてVeryPositiveは大きくプラスに,VeryNegativeは大きくマイナスになっている.PositiveとNegativeは,VeryPositiveとVeryNegativeと比較して,相対的に変動は小さいものの,プラスあるいはマイナスとなっている.そして,Neutralは,ニュース記事配信日に$\overline{CR}$の変化はあまり見られないことが分かった.表\ref{rawtable}から数値を読み取ると,日経QUICKニュースの$\overline{R}[0]$について,VeryPositiveは3.21\%,Positiveは1.51\%,Neutralは0.05\%,Negativeは$-1.03$\%,VeryNegativeは$-1.94$\%となっていることから,$\overline{R}[0]$の符号と大きさについて分類したクラスと整合的であり,前年の日経QUICKニュースから作成したキーワードリストが翌年の日経QUICKニュースの分類に対して,うまく機能していることを示している.また,ロイターニュースの$\overline{R}[0]$は,VeryPositiveは4.72\%,Positiveは3.15\%,Neutralは0.20\%,Negativeは$-1.75$\%,VeryNegativeは$-3.85$\%となっていることから,同様に符号と大きさについて分類したクラスと整合的であり,前年の日経QUICKニュースから作成したキーワードリストが翌年のロイターニュースの分類に対しても,うまく機能していることを示している.そして,ニュース記事配信日から離れると,どのニュース記事クラスも$\overline{CR}$の変化は小さくなることが見て取れる.日経QUICKニュースの$\overline{R}[-1]$について,VeryPositiveは0.49\%,Positiveは0.26\%,Neutralは0.01\%,Negativeは$-0.25$\%,VeryNegativeは$-0.29$\%であり,$\overline{R}[+1]$について,VeryPositiveは0.25\%,Positiveは0.15\%,Neutralは0.01\%,Negativeは$-0.35$\%,VeryNegativeは$-0.52$\%である.また,ロイターニュースの$\overline{R}[-1]$について,VeryPositiveは0.64\%,Positiveは0.32\%,Neutralは$-0.01$\%,Negativeは$-0.26$\%,VeryNegativeは$-0.43$\%であり,$\overline{R}[+1]$について,VeryPositiveは0.15\%,Positiveは0.18\%,Neutralは$-0.17$\%,Negativeは$-0.49$\%,VeryNegativeは$-0.84$\%である.これらの結果は,符号と大きさは,分類したクラスと整合的であることを示している.しかしながら,その水準は$\overline{R}[0]$よりも小さいことが伺える.さらに,ニュース記事配信日から2日以上離れると,$\overline{R}[t]$の符号と大きさは,分類したクラスと整合的でない様子が見て取れる.例えば,日経QUICKニュースの$\overline{R}[-2]$ではVeryPositiveは0.14\%,Positiveは0.09\%,Neutralは0.03\%,Negativeは$-0.05$\%,VeryNegativeは$-0.08$\%であり,$\overline{R}[+2]$では,VeryPositiveは$-0.03$\%,Positiveは$-0.02$\%,Neutralは$-0.02$\%,Negativeは$-0.09$\%,VeryNegativeは$-0.17$\%である.また,ロイターニュースの$\overline{R}[-2]$では,VeryPositiveは0.41\%,Positiveは0.05\%,Neutralは$-0.05$\%,Negativeは$-0.28$\%,VeryNegativeは$-0.22$\%であり,$\overline{R}[+2]$では,VeryPositiveは$-0.10$\%,Positiveは$-0.08$\%,Neutralは$-0.09$\%,Negativeは$-0.30$\%,VeryNegativeは$-0.15$\%である.他のイベントウィンドウにおいても,これらの傾向は同様であることから,本研究のキーワードリストはニュース記事配信日及び前後1営業日の株式リターンに関する極性情報を持つキーワードリストとなっていることを示している.続けて,日本語評価極性辞書によって分類した各ニュース記事クラスごとの$\overline{CR}$の推移を同様に考察する.$\overline{CR}$の推移を図示したものが図\ref{rawjpdic}である.\begin{figure}[b]\begin{center}\includegraphics{24-4ia2f4.eps}\end{center}\caption{日本語評価極性辞書を用いて分類した各ニュース記事クラスの$\overline{CR}$の推移}\label{rawjpdic}\end{figure}図\ref{rawjpdic}を見ると,日経QUICKニュース及びロイターニュースの$\overline{CR}$の動きは,一部のニュース記事クラスではニュース記事配信日付近において変化が見られるものの,図\ref{rawfindic}と比較すると変化の水準は小さく,また,分類したニュース記事クラスの順序と$\overline{CR}$の順序が整合的でない様子を見て取れる.表\ref{rawtable}の数値を読み取ると,日経QUICKニュースの$\overline{R}[0]$について,Positiveは0.19\%,Neutralは0.28\%,Negativeは$-0.51$\%,VeryNegativeは$-0.59$\%となっており,分類したニュース記事クラスの順序と整合的でないことがわかる.ロイターニュースの$\overline{R}[0]$についても,Positiveは1.15\%,Neutralは0.40\%,Negativeは$-0.95$\%,VeryNegativeは$-0.82$\%となっていることから,同様の傾向が伺える.また,変化の水準についても,本研究のキーワードリストを用いて分類したニュース記事クラスと比較すると,小さいことが分かる.これらの傾向は,$\overline{R}[-1]$や$\overline{R}[+1]$でも同様であり,本研究のキーワードリストの方が日本語評価極性辞書よりも,生の株式リターンに関して,うまく分類できていることを示している.次に,ニュース記事配信日付近における$\overline{AR}$及び$\overline{CAR}$について検証する.$\overline{AR}$及び$\overline{CAR}$は,マーケット全体の価格変動の影響のほかに,小型株効果と割安株効果についても共変動の影響を調整した株式リターンである.本節では,ニュース記事配信日10営業日前からの$t$日までの累積平均異常リターン$\overline{CAR}[-10,t]$を$\overline{CAR}$と表記する.$\overline{CAR}$の推移を図示したものが図\ref{abfindic}であり,$\overline{AR}$と$\overline{CAR}$をまとめたものが表\ref{abtable}である.\begin{figure}[t]\begin{center}\includegraphics{24-4ia2f5.eps}\end{center}\caption{本研究のキーワードリストを用いて分類した各ニュース記事クラスの$\overline{CAR}$の推移}\label{abfindic}\end{figure}図\ref{abfindic}を見ると,$\overline{CR}$と同様に,ニュース記事クラスの$\overline{CAR}$について,符号と大きさが分類したクラスと整合的であることがわかる.ニュース記事配信日においてVeryPositiveは大きくプラスに,VeryNegativeは大きくマイナスになっており,PositiveとNegativeは,VeryPositiveとVeryNegativeと比較して,相対的に変動は小さいものの,プラスあるいはマイナスとなっている.そして,Neutralは変化はあまり見られない.表\ref{abtable}から数値を読み取ると,日経QUICKニュースの$\overline{R}[0]$は,VeryPositiveは2.75\%,Positiveは1.19\%,Neutralは0.04\%,Negativeは$-0.79$\%,VeryNegativeは$-1.53$\%となっており,また,ロイターニュースの$\overline{R}[0]$は,VeryPositiveは4.57\%,Positiveは2.91\%,Neutralは0.25\%,Negativeは$-1.46$\%,VeryNegativeは$-3.50$\%となっている.$\overline{R}[-1]$や$\overline{R}[+1]$の符号と大きさについても,変化の水準は小さいものの,分類したクラスと整合的であることが見て取れる.調整済みの株式リターンについても,前年の日経QUICKニュースから作成したキーワードリストを用いて翌年の日経QUICKニュースとロイターニュースを分類できることを示している.$\overline{CAR}$が$\overline{CR}$と比較すると,変化の水準が小さいのは,本研究のキーワードリストが個別銘柄に関して良いあるいは悪いかどうかだけでなく,マーケット全体に関する記述も拾っているためだと考えられる.そして,ニュース記事配信日から2営業日以上離れると,$\overline{AR}[t]$の符号と大きさは分類したクラスと整合的でなく,分類が困難であることが示されている.また,日本語評価極性辞書によって分類した各ニュース記事クラスごとの$\overline{CAR}$の推移を,図示したものが図\ref{abjpdic}である.図\ref{abjpdic}を見ると,同様に$\overline{CAR}$の動きは,一部のニュース記事クラスではニュース記事配信日付近において変化が見られるものの,その変化の水準は図\ref{rawfindic}と比較すると小さく,また,分類したニュース記事クラスの順序と$\overline{CAR}$の順序が整合的でない様子を見て取れる.表\ref{abtable}からもそれらの傾向が読み取ることが出来る.調整済みの株式リターンについても,本研究のキーワードリストの方が日本語評価極性辞書よりも,うまく分類できていることを示しており,本研究手法によって作成したキーワードリストが日本語評価極性辞書と比較して,金融分野に特化した極性辞書となっていることを示している.\begin{table}[p]\rotatebox{90}{\begin{minipage}{571pt}\caption{各ニュース記事クラスの平均異常リターン及び累積平均異常リターンの推移}\label{abtable}\input{02table08.txt}\end{minipage}}\end{table}株式リターン推移の検証結果のまとめとして,本研究のキーワードリストを用いて分類したニュース記事は,ニュース記事配信日の株式リターンとの関連性が最も高く,符号と大きさは,分類したクラスと整合的である.さらに,ニュース記事配信日1営業日前と1営業日後の株式リターンとの関連性も高いことが分かった.とりわけ,生の株式リターンだけでなく,銘柄間の共変動を考慮した株式リターンとの関連性も見られることは,個別銘柄の変動を分類できていることを示している.これらの結果から,本研究手法で作成したキーワードリストがニュース記事の分類に対して有効である可能性を示している.\begin{figure}[t]\begin{center}\includegraphics{24-4ia2f6.eps}\end{center}\caption{日本語評価極性辞書を用いて分類した各ニュース記事クラスの$\overline{CAR}$の推移}\label{abjpdic}\end{figure}一方で,ニュース記事配信日から2営業日以上離れると,分類したクラスと株式リターンの符号と大きさが整合的でないため,困難であることが示された.すなわち,本研究のキーワードリストはニュース記事配信日及び前後1営業日の株式リターンに関する極性情報を持つキーワードリストとなっていることを示している.また,各ニュース記事クラスは,ニュース記事配信日以前に既に株式価格が変動しており,その変動方向も分類したクラスと整合的であることから,マーケットに対して後追いのニュースが存在することが示唆され,同時に,ニュース記事の内容を起因とし,マーケットが変動するような内容のニュース記事も存在していることが示唆される.さらに,本研究手法によって作成したキーワードリストは,日本語評価極性辞書と比較して金融分野に特化した辞書となっていることが示された.\begin{table}[b]\caption{本研究のキーワードリストを用いて分類したニュース記事クラス間の多重比較検定}\label{ghfindic}\input{02table09.txt}\end{table}\subsection{ニュース記事クラス間の株式リターンの多重比較検定結果}前節では,本研究のキーワードリストを用いて分類された各ニュース記事クラスが,ニュース記事配信日付近における絶対的な株式リターンがどのように推移するか観察することでキーワードリストの有効性を検証した.ここでは最後に,ニュース記事クラス間の相対的な株式リターンの差を考察することで,キーワードリストの有効性の検証を行う.そのため,各ニュース記事クラス間の株式リターンの平均値の多重比較検定を行った.本節では株式リターンの平均値として,株式価格変動の銘柄間の共変動のノイズが相対的に少ない$\overline{AR}$及び$\overline{CAR}$のみを用いて検定を行った.多重比較検定には,Games-Howell法を用いた\cite{Games1976}.ここでは,$\overline{AR}[0]$,$\overline{AR}[-1]$,$\overline{AR}[+1]$,$\overline{CAR}[-10,-6]$,$\overline{CAR}[-5,-2]$,$\overline{CAR}[+2,+5]$,$\overline{CAR}[+6,+10]$の7つの指標の検定を行う.表\ref{ghfindic}は,日経QUICKニュース及びロイターニュースに対して本研究のキーワードリストを用いて分類した各ニュース記事クラス間の$\overline{AR}$及び$\overline{CAR}$の平均値の差と有意水準をまとめたものである.有意水準は,Games-Howell法を用いて算出した平均値の差の対する有意確率に基づいており,***,**,*はそれぞれ,両側確率で有意水準0.1\%,有意水準1\%,有意水準5\%で差が有意であることを表している.本研究はサンプルサイズが大きく,統計検定における検出力が高いため有意確率に加え,平均値の差の大きさも含めて考察する.日経QUICKニュースの検定結果の表\ref{ghfindic}を見ると,$\overline{AR}[0]$では有意水準0.1\%で,全てのニュース記事クラス間の平均値に有意に差があり,符合についてもプラスであることから,全てのニュース記事クラス間の分類ができていることが伺える.$\overline{AR}[-1]$は,Negative-VeryNegativeでは有意差が認められないものの,他のニュース記事クラス間では平均値の差は1\%以下ではあるが,有意に差があり,符合についてもプラスである.また,$\overline{AR}[+1]$についても同様に,Negative-VeryNegativeでは有意差が認められないものの,他は有意差があり,符合もプラスである.これらの結果から,ニュース記事クラス間の$\overline{AR}$に統計的な差があり,分類可能であることが示された.特に,ニュース記事配信日だけでなく,配信日前後の$\overline{AR}$では分類できていることは,注目すべき点である.一方で,$\overline{CAR}[-10,-6]$や$\overline{CAR}[+6,+10]$では,分類が困難であることが分かる.$\overline{CAR}[-10,-6]$では,一部のニュース記事クラス間で$\overline{CAR}$の平均値が有意に差があるものの,その大きさは$\overline{AR}[0]$,$\overline{AR}[-1]$,$\overline{AR}[+1]$と比較すると小さく,相対的に有効でないことが分かる.また,$\overline{CAR}[+6,+10]$は,すべて有意な値を取っておらず,符号もマイナスであることから,有効でないことが示されている.さらに,$\overline{CAR}[-5,-2]$や$\overline{CAR}[+2,+5]$についても,有意な値を取らないニュース記事クラス間が多く,有意であったとしても差の符号がマイナスであることから,分類したクラスとは逆である.これらの結果から,本研究手法により作成したキーワードリストは,ニュース記事配信日付近において有効であることが見て取れる.ロイターニュースの検定結果の表\ref{ghfindic}を見ると,日経QUICKニュースの検定結果と同様に,$\overline{AR}[0]$では有意水準0.1\%で,全てのニュース記事クラス間の平均値に有意に差があり,符合についてもプラスであることから,全てのニュース記事クラス間の分類ができていることが伺える.しかしながら,$\overline{AR}[+1]$や$\overline{AR}[-1]$では,日経QUICKニュースでは有意差があったものの,ロイターニュースでは,有意差が認められないクラス間があった.とりわけ,$\overline{AR}[+1]$では顕著に異なる結果となった.$\overline{CAR}[-10,-6]$や$\overline{CAR}[+6,+10]$では,同様に,ニュース記事クラス間では有意差が認められず,分類が困難であることを示している.具体的には,$\overline{CAR}[-10,-6]$では一つのクラス間でのみ有意差が認められるだけであり,$\overline{CAR}[+6,+10]$では有意な値を取っているニュース記事クラス間はあるものの,符号がマイナスであるものは,分類したクラスとは逆であり,これらは分類できているわけではない.さらに,$\overline{CAR}[+2,+5]$もVeryPositive-Negative以外のクラス間では有意な値は取っていないため,分類が困難であることが示された.一方で,$\overline{CAR}[-5,-2]$においてVeryPositiveは,他のクラスとの間に有意差を取っている.さらに,表\ref{ghjpdic}は,日本語評価極性辞書によって分類した各ニュース記事クラス間の$\overline{AR}$及び$\overline{CAR}$の平均値の差について,検定結果をまとめたものである.\begin{table}[t]\caption{本研究のキーワードリストを用いて分類したニュース記事クラス間の多重比較検定}\label{ghjpdic}\input{02table10.txt}\end{table}日経QUICKニュースの検定結果である表\ref{ghjpdic}を見ると,$\overline{AR}[0]$では六つのニュース記事クラス間のうち4つでは有意差が見られることから,一部のクラス間では分類できていることを示している.しかしながら,Positive-Neutralでは符号が逆であり,Negative-VeryNegativeでは有意な値を取っていない.そのため,日本語評価極性辞書ではニュース記事配信日の株式リターンという観点では,日経QUICKニュースの分類が困難であることが示されている.有意な値を取っているニュース記事クラス間についても,差の大きさは本研究のキーワードリストによって分類したニュース記事クラス間と比較すると小さく,本研究のキーワードリストの方がよく分類できていることを示している.$\overline{AR}[-1]$や$\overline{AR}[+1]$についても一部のクラス間では有意差が見られるが,本研究のキーワードリストによって分類したニュース記事クラス間と比較すると,平均値の差の大きさは小さい.また,$\overline{CAR}[+2,+5]$や$\overline{CAR}[+6,+10]$では有意差が見られず,ニュース記事配信日から離れると同様に分類が難しいことが見て取れる.$\overline{CAR}[-10,-6]$や$\overline{CAR}[-5,-2]$では一部にクラス間に有意差が見られることから,日本語評価極性辞書は過去の状況を表したキーワードが多い可能性がある.ロイターニュースの検定結果である表\ref{ghjpdic}を見ると,$\overline{AR}[0]$ではNegative-VeryNegative以外で有意差があり,分類できている可能性はあるものの,表\ref{ghfindic}と比べると平均値の差は小さいため,ロイターニュースについても同様に本研究手法のキーワードリストの方が日本評価極性辞書よりもうまく分類できていることを示している.そして,ニュース記事配信日から離れると分類が困難である様子は同様である.多重比較検定結果のまとめとして,本研究のキーワードリストを用いて分類された各ニュース記事クラス間の相対的な株式リターンの差はニュース記事配信日において顕著に観察された.そして,日経QUICKニュースでは,ニュース記事配信日前営業日と翌営業日でにおいても,差の大きさ自体は小さいが統計的な差があり,キーワードリストの有効性が認められた.しかしながら,ロイターニュースではニュース記事配信日の株式リターンは,統計的な差があるものの,他の営業日では必ずしも統計的な差が認められず,日経QUICKニュースとは異なる結果となった.そのため,本研究手法で作成したキーワードリストを他のメディアに適用するためのより適切な方法は今後の課題である.そして,ニュース記事配信日から離れると統計的な差は認められず,本研究のキーワードリストはニュース記事配信日及び前後1営業日の株式リターンに関する極性情報を持つキーワードリストとなっていることを示している.さらに,本研究手法によって作成したキーワードリストは,金融分野に特化した辞書となっていることが示された. \section{極性辞書の自動生成に関する先行研究} 日本語極性辞書の自動作成を試みた先行研究として,\citeA{Kobayashi2001},\citeA{Inui2004},\citeA{Kobayashi2005},\citeA{Kanayama2006},\citeA{Kaji2007,Torikura2012}などがある.これら先行研究のアプローチは,半教師あり学習に分類される\cite{Pang2008,Liu2012}.半教師あり学習には,最初に少量ではあるが教師データが必要となる.教師データは人手で用意するか,あるいはGeneralInquirerのような既に人手でラベル付けされた辞書を用意する必要がある.とりわけ,金融分野に特化した極性辞書を作成する場合,専門家によるラベル付けが必要となる.これら半教師あり学習によるアプローチに対して,本研究では,(機関)投資家向けのニュースデータという特性に注目し,外部のデータベース(株式価格データ)から極性情報を獲得することで,人手による極性判断を介さずに金融分野に特化した極性辞書の作成を行った点が特長である. \section{おわりに} 本研究では,ファイナンス分野及び会計分野の研究に用いるための金融分野に特化した極性辞書の作成を目的とし,ニュースデータと株式価格データからキーワードリストの作成を行った.本研究の主な貢献は,1)イベントスタディ分析の枠組みによって,各銘柄と各時期の共変動リスクを調整した株式価格変動をもとにキーワードリストを作成したこと,2)金融市場の価格形成と関連性の高いメディアを用いることで,ニュース記事配信日の調整や個別銘柄への紐付けなど精緻に行ったこと.加えて,3)本研究手法によって作成したキーワードリストを用いて,作成に用いたメディアのニュース記事分類と他メディアのニュース記事分類を行い,一般的な極性辞書による分類との比較を通じて,本研究手法の有効性を検証したこと,の三点である.そして検証の結果,キーワードリストを用いることで,ニュース記事配信日の株式リターンに関して,将来のニュース記事を分類できること,加えて,異なるメディアのニュース記事も分類できることを示した.また,経済・金融分野に特化していない一般的な極性辞書よりもうまく分類できていることから,金融分野に特化した辞書になっていることが示された.一方で,キーワードリストはニュース記事配信日から2営業日以上離れると,ニュース記事分類が困難であることが示された.本研究手法によって作成されたキーワードリストを用いることで,経済ニュースや有価証券報告書,アナリストレポート,インターネットへの投稿内容などのテキスト情報を用いた資産価格分析を可能にし,これまで数値情報だけでは計測が困難であった情報と資産価格との関連性の解明できる可能性がある.本研究の手法は,これまで一回でも出現したキーワードに対して対応することは可能であるが,完全な新単語に対応できるわけではないため,手法の改善は今後の課題である.より長期間のデータを用いた実験やニュースデータ以外のメディアへの応用などについても,今後の課題である.\acknowledgment本稿の作成にあたり,株式会社日本経済新聞社,株式会社QUICK,株式会社金融工学研究所から研究支援を受けた.記して感謝したい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bishop}{Bishop}{2006}]{Bishop2012}Bishop,C.~M.\BBOP2006\BBCP.\newblock{\BemPatternRecognitionandMachineLearning}.\newblockSpringer.\bibitem[\protect\BCAY{Campbell,Lo,\BBA\MacKinlay}{Campbellet~al.}{1997}]{Campbell2003}Campbell,J.~Y.,Lo,A.~W.,\BBA\MacKinlay,A.~C.\BBOP1997\BBCP.\newblock{\BemTheEconometricsofFinancialMarkets}.\newblockPrincetonUniversityPress.\bibitem[\protect\BCAY{張\JBA松原}{張\JBA松原}{2008}]{Chou2008}張へい\JBA松原茂樹\BBOP2008\BBCP.\newblock株価データに基づく新聞記事の評価.\\newblock\Jem{第22回人工知能学会全国大会論文集},\mbox{\BPGS\1--3}.\bibitem[\protect\BCAY{Fama\BBA\French}{Fama\BBA\French}{1993}]{Fama1993}Fama,E.~F.\BBACOMMA\\BBA\French,K.~R.\BBOP1993\BBCP.\newblock\BBOQCommonRiskFactorsintheReturnsonStockandBonds.\BBCQ\\newblock{\BemJournalofFinancialEconomics},{\Bbf33}(1),\mbox{\BPGS\3--56}.\bibitem[\protect\BCAY{Games\BBA\Howell}{Games\BBA\Howell}{1976}]{Games1976}Games,P.~A.\BBACOMMA\\BBA\Howell,J.~F.\BBOP1976\BBCP.\newblock\BBOQPairwiseMultipleComparisonProceduresWithUnequalN'sand/orVariances:AMonteCarloStudy.\BBCQ\\newblock{\BemJournalofEducationalStatistics},{\Bbf1}(2),\mbox{\BPGS\113--125}.\bibitem[\protect\BCAY{Henry}{Henry}{2008}]{Henry2008}Henry,A.\BBOP2008\BBCP.\newblock\BBOQAreInvestorsInfluencedbyHowEarningsPressReleasesAreWritten?\BBCQ\\newblock{\BemJournalofBusinessCommunication},{\Bbf45}(4),\mbox{\BPGS\363--407}.\bibitem[\protect\BCAY{東山\JBA乾\JBA松本}{東山\Jetal}{2008}]{Higashiyama2008}東山昌彦\JBA乾健太郎\JBA松本裕治\BBOP2008\BBCP.\newblock述語の選択選好性に着目した名詞評価極性の獲得.\\newblock\Jem{言語処理学会第14回年次大会論文集},\mbox{\BPGS\584--587}.\bibitem[\protect\BCAY{廣川\JBA吉田\JBA山田\JBA増田\JBA中川}{廣川\Jetal}{2010}]{Hirokawa2010}廣川敬真\JBA吉田稔\JBA山田剛一\JBA増田英孝\JBA中川裕志\BBOP2010\BBCP.\newblock業種別による新聞記事と株価動向の関係の解析.\\newblock\Jem{言語処理学会第16回年次大会発表論文集},\mbox{\BPGS\1070--1073}.\bibitem[\protect\BCAY{乾\JBA乾\JBA松本}{乾\Jetal}{2004}]{Inui2004}乾孝司\JBA乾健太郎\JBA松本裕治\BBOP2004\BBCP.\newblock出来事の望ましさ判定を目的とした語彙知識獲得.\\newblock\Jem{言語処理学会第10回年次大会論文集},\mbox{\BPGS\91--94}.\bibitem[\protect\BCAY{Kaji\BBA\Kitsuregawa}{Kaji\BBA\Kitsuregawa}{2007}]{Kaji2007}Kaji,N.\BBACOMMA\\BBA\Kitsuregawa,M.\BBOP2007\BBCP.\newblock\BBOQBuildingLexiconforSentimentAnalysisfromMassiveCollectionofHTMLDocuments.\BBCQ\\newblockIn{\BemProceedingsofthe2007JointConferenceonEmpiricalMethodsinNaturalLanguageProcessingandComputationalNaturalLanguageLearning},\mbox{\BPGS\1075--1083}.\bibitem[\protect\BCAY{Kanayama\BBA\Nasukawa}{Kanayama\BBA\Nasukawa}{2006}]{Kanayama2006}Kanayama,H.\BBACOMMA\\BBA\Nasukawa,T.\BBOP2006\BBCP.\newblock\BBOQFullyAutomaticLexiconExpansionforDomain-orientedSentimentAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe2006ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\355--363}.\bibitem[\protect\BCAY{Kearney\BBA\Liu}{Kearney\BBA\Liu}{2014}]{Kearney2014}Kearney,C.\BBACOMMA\\BBA\Liu,S.\BBOP2014\BBCP.\newblock\BBOQTextualSentimentinFinance:ASurveyofMethodsandModels.\BBCQ\\newblock{\BemInternationalReviewofFinancialAnalysis},{\Bbf33},\mbox{\BPGS\171--185}.\bibitem[\protect\BCAY{小林\JBA乾\JBA乾}{小林\Jetal}{2001}]{Kobayashi2001}小林のぞみ\JBA乾孝司\JBA乾健太郎\BBOP2001\BBCP.\newblock語釈文を利用した「p/n辞書」の作成.\\newblock\Jem{言語・音声理解と対話処理研究会},{\Bbf33},\mbox{\BPGS\45--50}.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本\JBA立石\JBA福島}{小林\Jetal}{2005}]{Kobayashi2005}小林のぞみ\JBA乾健太郎\JBA松本裕治\JBA立石健二\JBA福島俊一\BBOP2005\BBCP.\newblock意見抽出のための評価表現の収集.\\newblock\Jem{自然言語処理},{\Bbf12}(3),\mbox{\BPGS\203--222}.\bibitem[\protect\BCAY{久保田\JBA竹原}{久保田\JBA竹原}{2007}]{Kubota2007}久保田敬一\JBA竹原均\BBOP2007\BBCP.\newblockFama-Frenchファクターモデルの有効性の再検証.\\newblock\Jem{現代ファイナンス},{\Bbf22},\mbox{\BPGS\3--23}.\bibitem[\protect\BCAY{Liu}{Liu}{2012}]{Liu2012}Liu,B.\BBOP2012\BBCP.\newblock{\BemSentimentAnalysisandOpinionMining}.\newblockMorgan\&ClaypoolPublishers.\bibitem[\protect\BCAY{Loughran\BBA\McDonald}{Loughran\BBA\McDonald}{2011}]{Loughran2011}Loughran,T.\BBACOMMA\\BBA\McDonald,B.\BBOP2011\BBCP.\newblock\BBOQWhenIsaLiabilityNotaLiability?TextualAnalysis,Dictionaries,and10-Ks.\BBCQ\\newblock{\BemJournalofFinance},{\Bbf66}(1),\mbox{\BPGS\35--65}.\bibitem[\protect\BCAY{Loughran\BBA\McDonald}{Loughran\BBA\McDonald}{2016}]{Loughran2016}Loughran,T.\BBACOMMA\\BBA\McDonald,B.\BBOP2016\BBCP.\newblock\BBOQTextualAnalysisinAccountingandFinance:ASurvey.\BBCQ\\newblock{\BemJournalofAccountingResearch},{\Bbf54}(4),\mbox{\BPGS\1187--1230}.\bibitem[\protect\BCAY{小川\JBA渡部}{小川\JBA渡部}{2001}]{Ogawa2001}小川知也\JBA渡部勇\BBOP2001\BBCP.\newblock株価データと新聞記事からのマイニング.\\newblock\Jem{情報処理学会研究報告情報学基礎(FI)},{\Bbf2001}(20),\mbox{\BPGS\137--144}.\bibitem[\protect\BCAY{Pang\BBA\Lee}{Pang\BBA\Lee}{2008}]{Pang2008}Pang,B.\BBACOMMA\\BBA\Lee,L.\BBOP2008\BBCP.\newblock\BBOQOpinionMiningandSentimentAnalysis.\BBCQ\\newblock{\BemFoundationsandTrendsinInformationRetrieval},{\Bbf2}(1-2),\mbox{\BPGS\1--135}.\bibitem[\protect\BCAY{鳥倉\JBA小町\JBA松本}{鳥倉\Jetal}{2012}]{Torikura2012}鳥倉広大\JBA小町守\JBA松本裕治\BBOP2012\BBCP.\newblockTwitterを利用した評価極性辞書の自動拡張.\\newblock\Jem{言語処理学会第18回年次大会論文集},\mbox{\BPGS\551--554}.\end{thebibliography}\begin{biography}\bioauthor{五島圭一}{2012年慶應義塾大学経済学部卒業.2014年同大学院経営管理研究科修士課程修了.2017年東京工業大学大学院総合理工学研究科知能システム科学専攻博士後期課程修了.博士(工学).現在は,日本銀行金融研究所にてファイナンス研究に従事.}\bioauthor{高橋大志}{1994年東京大学工学部卒業.富士写真フイルム(現・富士フイルム)研究員.三井信託銀行(現・三井住友信託銀行)シニアリサーチャー.筑波大学大学院経営・政策科学研究科修士課程修了.同大学院博士課程修了.博士(経営学).岡山大学准教授,キール大学客員研究員,慶應義塾大学准教授を経て,2014年より,慶應義塾大学大学院経営管理研究科・慶應義塾大学ビジネススクール教授.日本ファイナンス学会,SICE,人工知能学会等各会員.経営情報学会誌編集委員.}\end{biography}\biodate\end{document}
V03N04-02
\section{はじめに} label{intro}機械翻訳システムには,少し微妙だが重要な問題として冠詞の問題がある.例えば,\vspace*{5mm}\begin{equation}\mbox{\underline{本}\.と\.い\.う\.の\.は人間の成長に欠かせません.}\label{eqn:book_hito}\end{equation}の「本」は総称的な使われ方で,英語では``abook''にも``books''にも``thebook''にも訳される.これに対して,\begin{equation}\mbox{\.昨\.日\.僕\.が\.貸\.し\.た\underline{本}は読みましたか.}\label{eqn:book_boku}\end{equation}の「本」は英語では``thebook''と訳される.冠詞の問題は,多くの場合,名詞句の{\bf指示性}と{\bf数}を明らかにすることによって解決できる.文(\ref{eqn:book_hito})の「本」は総称名詞句で数は未定であり,``abook''にも``books''にも``thebook''にも訳される.また,文(\ref{eqn:book_boku})の「本」は定名詞句でほとんどの場合単数と解釈してよい.よって,英語では``thebook''となる.名詞句の指示性と数は日本語の表層表現から得られることが多い.例えば,文(\ref{eqn:book_hito})では「\.と\.い\.う\.の\.は」という表現から「本」が総称名詞句とわかる.文(\ref{eqn:book_boku})では修飾節「昨日僕が貸した」が限定していることから「本」が定名詞句とわかる.そこで,本研究では名詞句の指示性と数を日本語文中にあるこのような表層表現を手がかりとして推定することを試みた.名詞句の指示性と数の推定は文脈依存性の高い問題であり,本来文脈処理などを行なって解決すべき問題である.しかし,現時点での自然言語処理の技術では文脈処理を他の解析に役立てるところまでは来ていない.また,近年コーパスベースの研究が盛んであるが,指示性と数の正解の情報が付与されているコーパスがなく,タグなしコーパスから指示性と数の問題を解決することはほとんど不可能であるので,コーパスベースでこの問題を解決することはできない.そういう状況の中で,本論文は表層の手がかりを利用するだけでも指示性や数の問題をかなりの程度解決することができることを示すものである.本論文は文献\cite{Murata1993B}を詳しくしたものである.近年,本研究は,文献\cite{Bond1994,Murata1995}などにおいて引用され,具体的に重要性が明らかになりつつある.\cite{Bond1994}においては,日本語から英語への翻訳における数の決定に利用され,また,\cite{Murata1995}においては,同一名詞の指示対象の推定に利用されている.そこで,本論文は本研究を論文としてまとめることにしたものである.以前の文献ではあげられなかった規則も若干付け加えている. \section{名詞句の指示性と数の分類} label{sec:riron}\subsection{名詞句の指示性の分類}名詞句の指示性とは名詞句の対象への指示の仕方である.まず名詞句を,その名詞句の類の成員すべてか類自体を指示対象とする{\bf総称名詞句}と,類の成員の一部を指示対象とする{\bf非総称名詞句}に分ける.次に,非総称名詞句を指示対象が確定しているか否かで,{\bf定名詞句}と{\bf不定名詞句}に分ける(図\ref{fig:sijisei_bunrui})\footnote{この分類は文献\cite{Inoue1985}を参考にして行なった.日本語の名詞句に対して,この分類と同じような分類をしているものに文献\cite{Kinsui1986}が挙げられる.しかし,そこでは総称名詞句,定名詞句,不定名詞句の他に指示対象を持たない名詞句が考えられている.例えば,「私は大学教師です」の「大学教師」は指示対象を持たないとしてあった.それに対し,本研究では「大学教師」は大学教師という類のある成員と考え「不定名詞句」と考える.また,「定」「不定」の区別は聞き手の知識による分類となっており,ここでの分類とは異なる.}.この分類は英語の名詞句についての分類を念頭において行なったが,日本語の名詞句についてもかなりの程度役に立つと考えている\footnote{\ref{sec:junbi}節の表\ref{fig:sousyou}で述べるように指示性の判断が難しい名詞句も多く,新たな分類を設けなければならなくなることも考えられ,本論文の分類はまだ完全なものではない.しかし,第一近似としては有用なものであると考える.}.\begin{figure}[t]\small\begin{center}\fbox{\begin{minipage}[c]{220pt}\begin{center}{\tiny\[\mbox{\normalsize名詞句}\left\{\begin{array}[h]{cc}\mbox{\normalsize総称名詞句}&\\&\\\mbox{\normalsize非総称名詞句}&\left\{\begin{array}[h]{c}\mbox{\normalsize定名詞句}\\\\\mbox{\normalsize不定名詞句}\end{array}\right.\end{array}\right.\]}\end{center}\vspace*{1mm}\end{minipage}}\caption{名詞句の指示性の分類}\label{fig:sijisei_bunrui}\end{center}\end{figure}\paragraph{総称名詞句}総称名詞句は,その名詞句が意味する類に属する任意の成員(単数でも,複数でも,不可算のものでもよい)のすべて,もしくはその名詞句が意味する類それ自身を指示する.例えば,次の文(\ref{eqn:doguse})の「犬」は総称名詞句である.\begin{equation}\underline{犬}は役に立つ動物です.\label{eqn:doguse}\end{equation}ここでの「犬」は「犬」という類に属する成員のすべてを指示対象としている.\paragraph{定名詞句}定名詞句は,その名詞句が意味する類に属する文脈上唯一の成員(単数でも複数でも不可算のものでもよい)を指示する.例えば,次の文(\ref{eqn:thedoguse})の「その犬」は定名詞句である.\begin{equation}\underline{その犬}は役に立ちます.\label{eqn:thedoguse}\end{equation}ここでの「その犬」は,「犬」という類に属する文脈上唯一の成員を指示対象としている.このことは,指示詞「その」によって表わされており,聞き手は「その犬」なるものを確定できる.\paragraph{不定名詞句}不定名詞句は,その名詞句が意味する類に属するある不特定の成員(単数でも複数でも不可算のものでもよい)を指示する.不特定の成員を指示するというのは,現時点での聞き手の情報ではその名詞句が成員のどれを指し示すのか確定していないという意味である.また,現時点での聞き手の情報では,その名詞句が成員のどれを指し示しているとしても,その文の解釈として間違っていないということでもある.不定名詞句は総称名詞句とは異なり,その名詞句の意味する類の成員のすべてを指示するのではなくて,その名詞句の意味する類の成員の一部を指示する.次の文の「犬」は不定名詞句である.\begin{equation}\underline{犬}が三匹います.\label{eqn:dog3}\end{equation}ここでの「犬」は犬という類に属する任意の三匹の成員を指示対象として持ちえる.これはどんな犬でも三匹いればこの文が使えるということである.\begin{figure}[t]\small\begin{center}\fbox{\begin{minipage}[c]{220pt}\begin{center}{\tiny\[\mbox{\normalsize名詞句}\hspace{1mm}\left\{\begin{array}[h]{cc}\mbox{\normalsize可算名詞句}&\left\{\begin{array}[h]{c}\mbox{\normalsize単数名詞句}\\\\\mbox{\normalsize複数名詞句}\end{array}\right.\\&\\\mbox{\normalsize不可算名詞句}&\end{array}\right.\]}\end{center}\vspace*{1mm}\end{minipage}}\caption{名詞句の数の分類}\label{fig:suu_bunrui}\end{center}\end{figure}\subsection{名詞句の数の分類}名詞句の数とはその名詞句が指示する対象の数のことである.名詞句をその指示対象が数え上げられるか数え上げられないかに応じて,{\bf可算名詞句},{\bf不可算名詞句}に分ける.次に,可算名詞句をその指示する対象が一個か複数個かに応じて{\bf単数名詞句},{\bf複数名詞句}に分ける(図\ref{fig:suu_bunrui}).この分類は名詞句の指示性と同様に英語の名詞句の分類を念頭において行なった\footnote{この分類は日本語から英語への翻訳を念頭において行なったものであるが,以下の例のschool(学校)のように英語では無冠詞で表現されて不可算を思わせるものであっても意味的には単数であるものは単数として考える.\begin{quote}私はたいてい八時に\underline{学校}へ行きます.\\(Iusuallygoto\underline{school}at8:00.)\end{quote}}.\paragraph{単数}名詞句の指し示す対象が,話者の頭の中で一個のものとして他のものと区別して捉えることができる場合,その名詞句の数は単数となる.例えば,次の文の「ケーキ」は単数である.\begin{equation}彼女は\underline{ケーキ}を一個持って行きました.\end{equation}ここでの「ケーキ」は個々に区別して捉えることができ,一個である.\paragraph{複数}名詞句の指し示す対象が,話者の頭の中で個々に区別できるものとして複数個ある場合,その名詞句の数は複数となる.例えば,次の文の「たくさんのケーキ」は複数である.\begin{equation}この店には\underline{たくさんのケーキ}があります.\label{eqn:cake_mise}\end{equation}ここでの「たくさんのケーキ」は個々に区別して捉えることができ,またたくさんあるので複数個ある.\paragraph{不可算}名詞句の指し示す対象が,話者の頭の中で個々に区別できないものである場合,名詞句の数は不可算となる.例えば,次の文の「銅」は不可算である.\begin{equation}\underline{銅}はよく熱を伝導します.\label{eqn:cake_kinou}\end{equation}ここでの「銅」は個々に区別して捉えることができない.「銅」は「銅」という物質として使われており,不可算である.\vspace*{-2mm} \section{名詞句の指示性と数の推定方法} label{sec:decide}\subsection{「可能性」と「得点」}\label{sec:point}名詞句の指示性と数の推定は,表層の言語表現を手がかりにした規則を異なった種類の表現に応じて必要なだけ作り,入力文に対してそれらを適用することによって行なう.ある表層表現を手がかりにして,そこにあらわれる名詞句がある分類に属さないことがわかる場合がある.例えば,「\underline{\.あ\.る犬}」は連体詞「ある」がついていることから,「不定名詞句」であって「総称名詞句」「定名詞句」になる可能性はないことがわかる.これを表現するために,{\bf「可能性」}という評価値を導入する.「可能性」が1のときその分類に属する可能性があることを意味し,「可能性」が0のときその分類の可能性がないことを意味する.「可能性」が0となる規則が適用されれば,名詞句がその分類に属する可能性はなくなることになる.ある名詞句がある分類に属するかどうかを一つの表層表現から推定するのではなく,複数の表層表現を手がかりに推定を行なえば分類の精度はよくなると考えられる.そのため各規則に重要性を表わす{\bf「得点」}という評価値を導入し,ある名詞句に対して適用された規則の「得点」を合計することでその名詞句がある分類に属する場合の評価値とする.「可能性」の情報だけではどの分類に属するのか一意に推定できない場合に,この評価値はいずれの分類が最も適当であるか推定する基準になる.\begin{figure}[t]\small\begin{center}\fbox{\begin{minipage}[c]{220pt}\baselineskip=12pt\hspace*{1.0cm}\protect\verb+(規則の適用条件)+\\\hspace*{2.0cm}\protect\verb++\{\verb+不定(可能性得点)+\\\hspace*{2.18cm}\protect\verb+定(可能性得点)+\\\hspace*{2.18cm}\protect\verb+総称(可能性得点)+\}\end{minipage}}\caption{名詞句の指示性を推定する規則}\label{fig:rule_kouzou_sijisei}\end{center}\end{figure}\begin{figure}[t]\small\begin{center}\fbox{\begin{minipage}[c]{220pt}\baselineskip=12pt\hspace*{1.0cm}\protect\verb+(規則の適用条件)+\\\hspace*{2.0cm}\protect\verb++\{\verb+単数(可能性得点)+\\\hspace*{2.18cm}\protect\verb+複数(可能性得点)+\\\hspace*{2.18cm}\protect\verb+不可算(可能性得点)+\}\end{minipage}}\caption{名詞句の数を推定する規則}\label{fig:rule_kouzou_suu}\end{center}\end{figure}規則は指示性の場合に図\ref{fig:rule_kouzou_sijisei},数の場合に図\ref{fig:rule_kouzou_suu}の構造をしている.図の「規則の適用条件」には,その規則が適用されるかどうかの条件として,後で説明する依存構造の表現の形で文中の手がかりとなる表現を記述する.各分類には「可能性」と「得点」を一つずつ与えている.「可能性」は1か0のみであり,「得点」は0から10の間の整数である.「可能性」が1の分類がただ一つ求まった場合は,その分類を推定の結果とする.「可能性」が1の分類が複数ある場合は,その中で「得点」が最も大きい分類を推定の結果とする.同点の場合は同点の分類すべてを推定の結果とする.\begin{figure}[t]\small\begin{center}\fbox{\begin{minipage}[c]{300pt}\baselineskip=16pt\hspace*{0cm}\protect\verb+依存構造の表現::=(文節依存構造の表現依存構造の表現...)+\\\hspace*{0cm}\protect\verb+文節::=<単語単語...>+\\\hspace*{0cm}\protect\verb+単語::=[品詞品詞細分類活用型活用形基本形変化形]+\end{minipage}}\caption{依存構造の表現の基本要素の形式}\label{fig:s_eps}\end{center}\end{figure}\begin{figure}[t]\small\begin{center}\fbox{\begin{minipage}[c]{340pt}\begin{center}\begin{minipage}[c]{260pt}\baselineskip=0pt{\hspace*{0.000cm}\protect\verb+彼は──┐+\\\hspace*{0.000cm}\protect\verb+その──┐│+\\\hspace*{0.000cm}\protect\verb+弁護士の──┐│+\\\hspace*{0.000cm}\protect\verb+息子の──┤+\\\hspace*{0.000cm}\protect\verb+一人です.+}\center{(a):依存構造}\end{minipage}\end{center}\vspace{3mm}\begin{center}\begin{minipage}[c]{260pt}\baselineskip=12pt\hspace*{0cm}\protect\verb+(<[名詞普通名詞+\_\verb++\_\verb+一人一人]+\\\hspace*{0.33cm}\protect\verb+[判定詞+\_\verb+判定詞デス列基本形だです]+\\\hspace*{0.33cm}\protect\verb+[特殊句点+\_\verb++\_\verb+..]>+\\\hspace*{0.33cm}\protect\verb+(<[名詞普通名詞+\_\verb++\_\verb+息子息子]+\\\hspace*{0.84cm}\protect\verb+[助詞名詞接続助詞+\_\verb++\_\verb+のの]>+\\\hspace*{0.84cm}\protect\verb+(<[名詞普通名詞+\_\verb++\_\verb+弁護士弁護士]+\\\hspace*{1.36cm}\protect\verb+[助詞名詞接続助詞+\_\verb++\_\verb+のの]>+\\\hspace*{1.36cm}\protect\verb+(<[指示詞+\_\verb++\_\verb++\_\verb+そのその]>)))+\\\hspace*{0.33cm}\protect\verb+(<[名詞普通名詞+\_\verb++\_\verb+彼彼]+\\\hspace*{0.84cm}\protect\verb+[助詞副助詞+\_\verb++\_\verb+はは]+\\\hspace*{0.84cm}\protect\verb+[特殊読点+\_\verb++\_\verb+,,]>))+\center{(b):依存構造の表現}\end{minipage}\end{center}{\hspace*{2cm}(a)に示す依存構造は(b)に示す形に表現される.}\end{minipage}}\caption{入力文「彼はその弁護士の息子の一人です.」を表わす表現}\label{fig:弁護士_csan}\end{center}\end{figure}\subsection{システムの動作}\label{sec:system}文中の名詞句の指示性と数の推定は次のようなステップで行なわれる.\begin{itemize}\item[(1)]与えられた文の形態素解析,構文解析\footnote{形態素解析,構文解析は参考文献\cite{Matsumoto1992,Kurohashi1992}のものを用いた.}が行なわれ,依存構造の表現に変換される.この依存構造の表現は図\ref{fig:s_eps}のような形式のものであり,文節間の係り受けの情報を含んだ表現である.その例を図\ref{fig:弁護士_csan}に示す.\item[(2)]依存構造の表現に変換された文の名詞句を文頭から順に推定する\footnote{このため,既に推定された指示性と数は後に出てくる名詞句の解析の時に手がかりとして使用できる(例:\ref{subsec:abs_rule}節の具体例(c)(d)).}.各名詞句に対しては指示性を先に数を後に推定する\footnote{このため,数の推定には指示性の解析結果を用いることができる(例:\ref{subsec:num_rule}節の規則の例の3).}.指示性の推定は,指示性の規則をすべて用いて各分類の「可能性」と「得点」を計算する.この「可能性」と「得点」から\ref{sec:point}節で述べたように指示性を推定する.数の推定も同様である.規則の適用条件は依存構造の表現に似た形で表す.例えば,「その」がかかる名詞句を表現する場合は,図\ref{fig:その}のような構造となる.図中の``\verb+-+''は任意の依存構造の表現の部分を表す.このような適用条件の表現と入力文の依存構造の表現とを比較して規則が適用されるか否かを決定する.規則の適用条件の部分には,正規表現,論理和,論理積,否定などを書くことができる.また,比較部分を指定することによって文章中の任意の部分と比較することができる.\item[(3)]上記(2)で得られる推定の結果を図\ref{fig:弁護士_noun}に示す形で出力する.\end{itemize}\begin{figure}[t]\small\begin{center}\fbox{\begin{minipage}[c]{300pt}\baselineskip=12pt\hspace*{1.10cm}\protect\verb+(<[名詞-]>+\\\hspace*{1.6cm}\protect\verb+(<[指示詞+\_\verb++\_\verb++\_\verb+そのその]>)-)+\end{minipage}}\caption{「その」がかかる名詞句を表す規則の適用条件の表現}\label{fig:その}\end{center}\end{figure}\begin{figure}[t]\small\begin{center}\fbox{\begin{minipage}[c]{300pt}\baselineskip=12pt\begin{center}\begin{minipage}[c]{220pt}\baselineskip=12pt\hspace*{0cm}\protect\verb+(<[名詞普通名詞+\_\verb++\_\verb+一人一人不定単数]+\\\hspace*{0.33cm}\protect\verb+[判定詞+\_\verb+判定詞デス列基本形だです]+\\\hspace*{0.33cm}\protect\verb+[特殊句点+\_\verb++\_\verb+..]>+\\\hspace*{0.33cm}\protect\verb+(<[名詞普通名詞+\_\verb++\_\verb+息子息子定複数]+\\\hspace*{0.84cm}\protect\verb+[助詞名詞接続助詞+\_\verb++\_\verb+のの]>+\\\hspace*{0.84cm}\protect\verb+(<[名詞普通名詞+\_\verb++\_\verb+弁護士弁護士定単数]+\\\hspace*{1.36cm}\protect\verb+[助詞名詞接続助詞+\_\verb++\_\verb+のの]>+\\\hspace*{1.36cm}\protect\verb+(<[指示詞+\_\verb++\_\verb++\_\verb+そのその]>)))+\\\hspace*{0.33cm}\protect\verb+(<[名詞普通名詞+\_\verb++\_\verb+彼彼定単数]+\\\hspace*{0.84cm}\protect\verb+[助詞副助詞+\_\verb++\_\verb+はは]+\\\hspace*{0.84cm}\protect\verb+[特殊読点+\_\verb++\_\verb+,,]>))+\end{minipage}\end{center}\end{minipage}}\caption{図6の文に対する指示性と数の判定結果の表現}\label{fig:弁護士_noun}\end{center}\end{figure}システムでは文章ごとに解析しており,文章全体の表層表現を利用できるようにしている.これは同一名詞が既出のとき適用される規則に用いられる.\subsection{解析の対象から除外した名詞句}時間を表わす名詞句,「中」\hspace*{-.5em}「上」\hspace*{-.5em}「左」\hspace*{-.5em}「右」\hspace*{-.5em}「下」\hspace*{-.5em}「後」\hspace*{-.5em}「前」\hspace*{-.5em}「近く」\hspace*{-.5em}「遠く」\hspace*{-.5em}「別」\hspace*{-.5em}「他」\hspace*{-.5em}のよ\\うな名詞を主要部に持つ名詞句,「本当の」「普通の」「役に立つ」などの連体詞の一部とみなせる名詞を主要部に持つ名詞句は対象から除外した.「\underline{〜のまま}」「\underline{〜する程}」,「\underline{〜する訳}でない」,「\underline{〜する度}」の下線部に当たる名詞句なども除外した.\hspace*{-2mm}「大分」\hspace*{-2mm}「全員」\hspace*{-2mm}「\underline{一緒}に」\hspace*{-2mm}などの副詞とみなせるものも除外した.以上の名詞句以外は,対訳の英語文では名詞に訳されていない場合でもすべて解析の対象とした. \section{推定に用いる規則} label{sec:rule}規則は日本語,英語の文法書\cite{Kokuritukokugokenkyusho1978,Kumayama1985,Ikeuchi1985}を参考として作ったが,実験対象テキストを見て独自に考えて作ったものもある.実験中に新たな規則を随時追加していったが,現時点ですべてを網羅できているとはいえない.現在の規則の数は,指示性が86個で,数が48個である\footnote{すべての規則は文献\cite{Murata1993A}にある.}.次に規則の例をあげる.\subsection{指示性の規則}\label{subsec:abs_rule}\begin{enumerate}\item指示詞(「この」や「その」など)によって修飾される時,\\\{\mbox{不定名詞句}(00)\,\mbox{定名詞句}(12)\,\mbox{総称名詞句}(00)\}\footnote{各分類の「可能性」と「得点」を表わす.図\ref{fig:rule_kouzou_sijisei}参照.}\\(例文)\underline{\.こ\.の本}はおもしろい.\\(訳文)\underline{Thisbook}isinteresting.\item名詞句につく助詞が「は」で述語が過去形の時,\\\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(13)\,\mbox{総称名詞句}(11)\}\\(例文)\underline{犬}\.は向うに\.行\.き\.ま\.し\.た.\\(訳文)\underline{Thedog}wentaway.\item名詞句につく助詞が「は」で述語が現在形の時,\\\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(12)\,\mbox{総称名詞句}(13)\}\\(例文)\underline{犬}\.は役に立つ動物\.で\.す.\\(訳文)\underline{Dogs}\footnote{主語が総称名詞句になる場合であるので``adog''でも``thedog''でもよい.}areusefulanimals.\item名詞句につく助詞が「へ」「まで」「から」の時,\\\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(12)\,\mbox{総称名詞句}(10)\}\\(例文)彼を\underline{空港}\.ま\.で迎えに行きましょう.\\(訳文)Letusgotomeethimat\underline{theairport}.\item名詞句につく助詞が「の」で体言にかかる時\footnote{名詞句につく助詞が「の」で体言にかかる場合,いつでも総称名詞句であるとは限らない.しかし,「の」は旧情報と結び付きやすい性質を持っており,ほとんど定名詞句と総称名詞句のいずれかである.定名詞句の場合は他の情報により推定可能になると考え,総称名詞句により高い得点を与えている.},\\\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(12)\,\mbox{総称名詞句}(13)\}\\(例文)彼は\underline{教育}\.の\.価\.値を認識していません.\\(訳文)Hedoesn'trealizethevalueof\underline{education}.\end{enumerate}他にも,(i)「地球」「宇宙」のような名詞句自身から定名詞句と推定する規則\footnote{\label{foot:tikyuu}これは本来的には語の意味として取り扱うのが適切だろうが,これまで取り扱ってきた場合の特殊な場合と位置付けて規則の形で処理することにしている.},(ii)名詞句に数詞がかかることから総称名詞句以外と推定する規則,(iii)同一名詞の既出により定名詞句と推定する規則,(iv)「いつも」「昔は」「〜では」のような副詞が動詞にかかることから総称名詞句と推定する規則,(v)「〜が好き」「〜を楽しむ」のような動詞から総称名詞句と推定する規則,(vi)「用」「向き」のような接尾辞から総称名詞句と推定する規則などがある.手がかりとなる語がない時は不定名詞句と推定するようにしている\footnote{ここであげた規則の他に,「息子」「お腹」などの親族呼称,体の一部を意味する名詞句は定名詞句である割合が高いので,定名詞句であると推定する規則を追加した方が良いと思われる.ただし,この規則は5節で述べるテストサンプルの実験の後に作成したものであるので,5節での実験では用いていない.しかし,この規則の有効性を確かめるためこの規則を追加して実験したところ,5節で述べる指示性の精度に比べ学習サンプルでは0.4\%下がり,テストサンプルでは3\%上がるという結果となった.これは学習サンプルでは親族呼称,体の一部を意味する名詞句が定名詞句以外で使われる例が意外に多かったためで,一般のテキストでは親族呼称,体の一部の規則を利用した方がよいと思われる.このとき,親族呼称,体の一部を意味する名詞の判定には,分類語彙表\cite{Kokuritukokugokenkyusho1964}を用いている.分類語彙表の分類番号が121ではじまるものを親族呼称とし,157ではじまるものを体の一部とした.}.\vspace{3mm}例として,次の文の中に現れる名詞句「我々が昨日摘みとった果物」に注目し,これにどのような規則が適用され得点がどのようになるか,具体的に説明する.\newpage\noindent\underline{我々が昨日摘みとった果物}は味がいいです.\\\underline{Thefruitthatwepickedyesterday}tastesdelicious.\bigskip\vspace*{-.5mm}以下のように七つの規則が適用され,この「果物」は定名詞句と推定された.\begin{itemize}\item[(a)]名詞句につく助詞が「は」で述語が現在形の時,\\(果物\.は味が\.い\.い\.で\.す.)\footnote{規則が適用される手がかりとなる表現.}\\\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(12)\,\mbox{総称名詞句}(13)\}\item[(b)]述部が過去形の節が係る時,\\(摘み\.と\.っ\.た)\\\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(10)\}\item[(c)]「は」か「が」がついた定名詞句を含む節が係る時,\\(\.我\.々\.が)\\\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(10)\}\item[(d)]助詞がついた定名詞句を含む節が係る時,\\(\.我\.々が)\\\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(10)\}\item[(e)]代名詞を含む節が係る時,\\(\.我\.々が)\\\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(11)\,\mbox{総称名詞句}(10)\}\item[(f)]名詞句につく助詞が「は」で述語が形容詞の時,\\(果物\.は味が\.い\.い\.で\.す.)\\\{\mbox{不定名詞句}(10)\,\mbox{定名詞句}(13)\,\mbox{総称名詞句}(14)\}\item[(g)]主要部の名詞が普通名詞の時,\\(果物)\\\{\mbox{不定名詞句}(11)\,\mbox{定名詞句}(10)\,\mbox{総称名詞句}(10)\}\end{itemize}\smallskipこれらすべての規則の適用の結果として「果物」の最終の「可能性」と「得点」は,\\\hspace*{9mm}\{\mbox{不定名詞句}(11)\,\mbox{定名詞句}(19)\,\mbox{総称名詞句}(17)\}\\となり,定名詞句と推定された.\subsection{数の規則}\label{subsec:num_rule}\begin{enumerate}\item「その」「この」「あの」によって修飾される時,\\\{\mbox{単数}(13)\,\mbox{複数}(10)\,\mbox{不可算}(11)\}\\(例文)\underline{\.あ\.の本}をください.\\(訳文)Giveme\underline{thatbook}.\item名詞句につく助詞が「は」「が」「も」「を」で,述部に数詞が係る場合,\\数詞の数が単数の時,\\\{\mbox{単数}(12)\,\mbox{複数}(10)\,\mbox{不可算}(10)\}\\数詞の数が複数の時,\\\{\mbox{単数}(10)\,\mbox{複数}(12)\,\mbox{不可算}(10)\}\\(例文)\underline{りんご}\.を\.二\.個食べる.\\(訳文)Ieattwo\underline{apples}.\item名詞句の指示性が総称名詞句と推定されており,係り先の動詞が「が好きです」「を楽しむ」などのように,総称の名詞句を格にとる場合,\\\{\mbox{単数}(10)\,\mbox{複数}(12)\,\mbox{不可算}(10)\}\\(例文)私は,\underline{りんご}\.が\.好\.き\.で\.す.\\(訳文)Ilike\underline{apples}.\end{enumerate}他にも,(i)「空気」「水」のような名詞句自身から不可算と推定する規則,(ii)「達」「ら」のような接尾辞から複数と推定する規則,(iii)数詞が係ることにより推定する規則,(iv)名詞述語文における主語と述語の数が一致することにより推定する規則,(v)「集める」「溢れる」などの動詞から推定する規則,(vi)「いくらでも」「何度でも」のような副詞が動詞にかかることから推定する規則などがある.手がかりとなる語がない時は単数と推定するようにしている. \section{実験と考察} label{sec:jikken}\subsection{実験の準備}\label{sec:junbi}\begin{table}[t]\small\caption{総称名詞句とした名詞句の例(下線部の名詞を主要部に持つ名詞句)}\label{fig:sousyou}{\begin{center}\begin{tabular}{|l|}\hline(1)\underline{ラクダ}は\underline{水}を飲まなくても長い間歩くことができます.\\(2)ワシントンスクールから一クラスの学生たちが,昨日,\underline{見学}にいきました.\\(3)多くの若い\underline{男}の\underline{人たち}は\underline{陸軍}に兵役します.\\(4)\underline{紳士}は普通\underline{淑女}のために\underline{ドア}を開けます.\\(5)有名なシャ−ロックホ−ムズ探偵の物語は大抵ロンドン地域を\underline{背景}にしたものです.\\(6)彼はクリスマスの\underline{贈り物}に本を買いました.\\(7)ワールドカップ大会の決勝戦は,\underline{タンゴ}のアルゼンチンと\underline{行進曲}の西ドイツとの勝負だ.\\[0.1cm]\hline\end{tabular}\end{center}}\end{table}実験に用いたテキストは名詞句の指示性と数の正解の分類がわかりやすいように日英の対訳がある文章に限った.実験対象のテキストの各名詞句に対してあらかじめ正解の分類を人手で決定した.正解の決定の際には対訳の英語文を見て行なったが,必ずしも冠詞にとらわれることなく\ref{sec:riron}節で説明した分類の定義によって正解を決定した.指示性の分類については,総称名詞句の判定は極めて困難であり,表~\ref{fig:sousyou}のようなものを総称名詞句としたが,正解が間違っている可能性がある.以下,正解とはこの人手による分類のことをいう.数の分類については,対訳の英語文で名詞に訳されているものは冠詞に合わせて正解を設定した.明らかに複数とか不可算とわかるものはそのように設定し,それ以外は単数とした.総称名詞句が主語に来る場合は冠詞が何になるのかわからないので,数の分類は単数でも複数でも不可算でもいいことにして正解は「未定」\footnote{各分類の得点が同点の時のみ正解とする分類.}とした.\begin{table}[t]\small\caption{学習サンプル}\label{tab:kanshi_d}\begin{center}{\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|r|r|}\hline&\multicolumn{5}{c|}{指示性}&\multicolumn{5}{c|}{数}\\\hline\multicolumn{1}{|c|}{評価}&不定&定&総称&その他&総数&単数&複数&不可算&その他&総数\\\hline\multicolumn{11}{|c|}{英語冠詞用法辞典(140文,380名詞句)}\\\hline正解&96&184&58&1&339&274&32&18&25&349\\正解を含む&0&3&1&0&4&1&1&1&0&3\\部分解&0&0&0&0&0&0&0&0&11&11\\不正解&4&25&7&1&37&3&10&0&4&17\\\hline正解率&96.0&86.8&87.9&50.0&89.2&98.6&74.4&94.7&62.5&91.8\\\hline\multicolumn{11}{|c|}{こぶとりじいさん(104文,267名詞句)}\\\hline正解&73&140&6&1&222&205&24&5&0&234\\正解を含む&3&4&0&0&7&2&0&0&0&2\\部分解&0&0&0&0&0&0&0&0&7&7\\不正解&11&23&4&0&38&1&22&1&0&24\\\hline正解率&83.9&84.0&60.0&100.0&83.2&98.7&52.2&83.3&0.0&87.6\\\hline\multicolumn{11}{|c|}{天声人語(23文,98名詞句)}\\\hline正解&25&35&16&0&76&64&13&0&3&80\\正解を含む&0&4&2&0&6&2&1&0&0&3\\部分解&0&0&0&0&0&0&0&0&6&6\\不正解&5&10&1&0&16&1&6&1&1&9\\\hline正解率&83.3&71.4&84.2&-----&77.6&95.5&65.0&0.0&30.0&81.6\\\hline全体での出現率&29.1&57.7&12.8&0.4&100.0&74.2&14.6&3.5&7.7&100.0\\全体での正解率&89.4&84.0&84.2&66.7&85.5&98.2&63.3&88.5&49.1&89.0\\\hline\end{tabular}}\end{center}\end{table}\subsection{実験}\ref{sec:system}節で述べたように指示性と数の推定の前に形態素・構文解析を行なうが,そこでの誤りは人手で修正した.まず,三つの資料\{英語冠詞用法辞典\cite{Kumayama1985}の典型的な用法の例文(140文,解析した名詞句380個),物語の「こぶとりじいさん」\cite{Nakao1985}全文(104文,解析した名詞句267個),86年7月1日の天声人語(23文,解析した名詞句98個)\}を学習サンプルとして実験を行なった.システムには正解を入力して自動的に正解率を出力できるようにして,正解率が向上するように規則を変更,追加した.最も正解率が良くなった規則の時の正解率を表\ref{tab:kanshi_d}に示す.このとき,三つの資料に対してはすべて同じ規則で実験を行なった.規則の変更,追加は,学習サンプルでのすべての誤り箇所に対して以下のことを行なうことによって実現する.\begin{enumerate}\item\label{enum:error_mod}誤り箇所を見て規則の変更・追加を行なう.具体的には,誤り箇所の周辺の表層表現を眺め,新たに規則を作成できないかを考える.また,このとき適用されている規則の条件部や得点を変更することでこの誤り箇所を直すことができないかを調べる.\item\ref{enum:error_mod}のルールの変更・追加を行なった後に実験を行ない全体の正解率が上がるか下がるかを調べる.正解率が上がれば\ref{enum:error_mod}で行なった変更・追加を正式に採用する.正解率が下がった場合は,\ref{enum:error_mod}で行なった変更・追加は行なわず,\ref{enum:error_mod}の検討を何回か行なう.\end{enumerate}このとき,大雑把に誤り例を調べ,同じ理由で誤ったもので,規則を追加することでそれらを改善できる場合はその規則を追加するということも行なう.また,ある規則を追加するべきかどうかが問題となったときに,その規則が適用される箇所をすべて出力し,それらを総合的に眺めた上で判断する場合もある.\begin{table}[t]\caption{テストサンプル}\label{tab:turu_d}\begin{center}{\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|r|r|}\hline&\multicolumn{5}{|c|}{指示性}&\multicolumn{5}{c|}{数}\\\hline\multicolumn{1}{|c|}{評価}&不定&定&総称&その他&総数&単数&複数&不可算&その他&総数\\\hline\multicolumn{11}{|c|}{つるのおんがえし(263文,699名詞句)}\\\hline正解&109&363&13&10&495&610&13&1&1&625\\正解を含む&6&25&0&0&31&12&2&0&0&14\\部分解&0&0&0&0&0&0&0&0&1&1\\不正解&32&135&6&0&173&2&20&37&0&59\\\hline正解率&74.2&69.4&68.4&100.0&70.8&97.8&37.1&2.6&50.0&89.4\\\hline\multicolumn{11}{|c|}{天声人語(75文,283名詞句)}\\\hline正解&75&81&16&0&172&197&13&2&3&215\\正解を含む&8&9&1&0&18&3&1&0&0&4\\部分解&0&0&0&0&0&0&0&0&3&3\\不正解&33&51&9&0&93&3&55&3&0&61\\\hline正解率&64.7&57.5&61.5&-----&60.8&97.0&18.8&40.0&50.0&76.0\\\hline\multicolumn{11}{|c|}{冷戦後世界と太平洋アジア(22文,192名詞句)}\\\hline正解&21&108&11&2&142&157&6&1&1&165\\正解を含む&6&7&0&0&13&3&0&0&0&3\\部分解&0&0&0&0&0&0&0&0&0&0\\不正解&11&24&2&0&37&3&20&1&0&24\\\hline正解率&55.3&77.7&84.6&100.0&74.0&96.3&23.1&50.0&100.0&85.9\\\hline全体での出現率&25.6&68.4&4.9&1.0&100.0&84.3&11.1&3.8&0.8&100.0\\全体での正解率&68.1&68.7&69.0&100.0&68.9&97.4&24.6&8.9&55.6&85.6\\\hline\end{tabular}}\end{center}\end{table}以上の学習サンプルでの実験では新しい文での正解率がわからない.そこで,以上のようにして作った規則を固定して,新たな三つの資料\{物語の「つるのおんがえし」\cite{Nakao1985}全文(263文,解析した名詞句699個),86年7月8,9,15日の天声人語の三回分(75文,解析した名詞句283個),冷戦後世界と太平洋アジア$\langle$国際文化会館会報Vol.3No.21992年4月号$\rangle$(22文,解析した名詞句192個)\}をテストサンプルとして実験を行なった.これらの正解率を表\ref{tab:turu_d}に示す.表中の「正解」は推定の結果が正解と一致した場合である.「正解を含む」は推定の結果の中に正解の分類がある場合である.例えば,正解が定名詞句で推定の結果が定名詞句と不定名詞句が同点で得られた場合,「正解を含む」となる.「部分解」は推定の結果が正解に含まれる場合である.「不正解」は以上の評価以外のものである.「正解率」は「正解」の個数を総数で割ったものである.「全正解率」は三つの資料全てにおける正解率である.「出現率」は各分類の個数を総数で割ったものである.「その他」は,単数と複数と不可算の得点が同点の時のみ正解とする「未定」のように,複数個の分類が正解になるものの個数である.\subsection{考察}\subsubsection{指示性の実験に対する考察}正解率が上がるようにテキストの表現に対して規則を変更して実験した学習サンプルのテキスト全体での正解率は85.5\%であった.また,各分類に対する正解率も極端に悪いものはない.このことから表層表現を手がかりとした我々の方法で極めて多くの名詞句の指示性が推定できることがわかった.規則を固定して実験したテストサンプルのテキスト全体での正解率は,68.9\%であった.また,各分類に対する正解率もほぼ均等に良くすべて50\%以上である.つるのおんがえしの実験では,定名詞句の出現率が74.8\%であったのですべての解析結果を定名詞句にする規則を作ると正解率が74.8\%になり実験の正解率の70.8\%より高くなるが,不定名詞句と総称名詞句の正解率が0\%になるので意味がない.われわれはそれぞれの分類が均等に良い正解率が得られることに価値があると考えている.テストサンプルのテキストでの正解率はあまり良くないが,規則を修正すれば容易に上がると考えられる.しかし,新しい文章に対する正解率を上げようとするとどこまでも規則を増やしていかねばならないという危険性がある.規則を変更しても解析が失敗する例として,表\ref{fig:false_tei},表\ref{fig:false_sousyou}がある.表\ref{fig:false_tei}は定名詞句であるのに,定名詞となる手がかりがなく解析を失敗したものである.これを解決するには文脈や発話状況などの表層表現以外の情報が必要である.表\ref{fig:false_sousyou}は総称名詞句であるのに,解析を失敗したものである.それぞれの例に対して失敗した理由を付けている.総称名詞句は判断が難しく,成功はしているが正解があっているのか不確かな例もある.\begin{equation}\underline{ラクダ}は\underline{水}を飲まなくても長い間歩けます.\label{eqn:rakuda}\end{equation}\vspace*{-.3mm}という文の「ラクダ」は明らかに総称名詞句であるが,「水」は総称名詞句でいいのだろうか.総称名詞句は他と明確に区別して考えにくく種々の性質のものがありそうなので,新たに分類を考え直さなくてはならないだろう.\setcounter{bottomnumber}{2}\begin{table}[t]\small\caption{解析を失敗した定名詞句の例(下線部の名詞を主要部に持つ名詞句)}\label{fig:false_tei}{\begin{center}\begin{tabular}{|p{300pt}|}\hline(1)彼は\underline{社長}の兄さんです.\\(2)ジョンは\underline{クラス}の中で一番背が高い.\\(3)彼女は\underline{テーブル}のほこりを取り除くためにふきんを使いました.\\(4)\underline{仕事}で難しい所がありましたが,克服しました.\\(5)私は\underline{先生}と同じ本を持っています.\\(6)車は\underline{道}の\underline{わき}に駐車してあります.\\(7)ジョンソン教授は\underline{学会}で\underline{論文}を読みました.\\[0.1cm]\hline\end{tabular}\end{center}}\end{table}\begin{table}[t]\small\caption{解析を失敗した総称名詞句の例(下線部の名詞句)}\label{fig:false_sousyou}{\begin{center}\begin{tabular}{|l|}\hline(1)修飾節で限定され定名詞句になる例\\\underline{それ自体を守ろうとしない文化}は滅びます.\\[0.1cm]\hline(2)述語が過去形のために定名詞句になる例\\\underline{中国人}は独自の文字を発明しました.\\[0.1cm]\hline(3)判定詞「だ」がつくために不定名詞句になる例\\日本の社会では父親は\underline{家長}です.\\[0.1cm]\hline(4)手がかりがなく不定名詞句になる例\\\underline{食物}がおいしければおいしいほど,たくさん食べます.\\普通\underline{肺炎}にかかると入院しなければなりません.\\[0.1cm]\hline\end{tabular}\end{center}}\end{table}これ以外の成功した例でも深く考察すると表層表現で推定できるのか疑問なものがある.\begin{equation}\mbox{これは\underline{\.私\.が\.彼\.か\.ら\.借\.り\.た辞書}です.}\label{eqn:kari_jisyo}\end{equation}この文の「私が彼から借りた辞書」は修飾節により限定されていて定名詞句と解析される.しかし,この「私が彼から借りた辞書」は,「私」が「彼」から複数の辞書を借りており,そのうちの一つを指す場合には不定名詞句となる.つまり,ある程度の知識がなければ定名詞句か不定名詞句かの判断ができない.\subsubsection{数の実験に対する考察}正解率が上がるようにテキストの表現に対して規則を変更して実験した学習サンプルとしてのテキスト全体での正解率は,89.0\%であった.しかし,「複数」の正解率が全体的に悪い.また,「不可算」は不可算名詞句としてあらかじめ登録してあるので見かけ上正解率は高いが,問題がないわけではない.規則を固定して実験したテストサンプルとしてのテキスト全体での正解率は,85.6\%であった.しかし,「複数」「不可算」の正解率は悪く,「単数」の出現率と正解率が高いおかげで高い正解率が出ているにすぎない.また,その「単数」の正解率が高いのも,手がかりのないときは「単数」と推定させているからにすぎない.正解が「複数」である名詞句で,解析が失敗した例に以下の下線部の名詞句がある.\begin{equation}\underline{あなたが注文した建築材料}がきました.\label{eqn:kentiku}\end{equation}手がかりがなく,解析結果は「単数」となってしまう.これを「複数」と判定できるようにするには,「建築材料」という名詞自身から「複数」と判定できるようにしなければならない.しかし,いつでも「建築材料」が「複数」とは限らない.数量表現以外から「複数」とわかった例として以下の下線部の名詞句がある.\hspace*{-2mm}\begin{equation}\mbox{その事故が発生してから\underline{野次馬}\.が\.集\.ま\.っ\.てきました.}\label{eqn:jiko}\end{equation}\vspace*{-.3mm}「が集まる」から「野次馬」が「複数」と解析された.このような規則を作っていけば,数が明\\示されていなくても名詞句の数がわかる場合がある.しかし,以下の例のように間違う場合もある.\begin{equation}\hspace*{-0.3cm}\mbox{\underline{シュート}\.を\.浴\.び\.たゴールキーパーが,右のてのひらを裂いた.}\label{eqn:shoot}\end{equation}\vspace*{-.3mm}「を浴びる」の規則は実験では「複数」と「不可算」が強いとしていたが,一発のシュートで手\\を裂いたので,上のシュートは「単数」である.動詞からの推定もそう安易なものではない.\begin{table}[t]\small\leavevmode\caption{数を推定するのに利用できそうな動詞の例}\begin{center}\label{tab:num_verb}\begin{tabular}{|p{13cm}|}\hline浴びる,吹きかける,まぶす,わきでる,そろえる,たてこむ,うもれる,流れる,吸い出す,しみる,もれる,そそぐ,もぐる,こぼれる,散らばる,群がる,押し寄せる,並べる,連ねる,増える,溢れる,折り重ねる,数える,飲む,どよめく\\\hline\end{tabular}\end{center}\end{table}学習サンプル,テストサンプルでの実験の後,「集まる」「並べる」「浴びる」などの動詞から数を推定する規則について考察した.分類語彙表の動詞の部分をながめ,数の推定に利用できそうな動詞を約300個人手で抽出した.その例を表\ref{tab:num_verb}にあげる.また,これらの動詞から数を推定できる名詞句がどれくらいの割合で出現するかを調べた.85年2月の天声人語一カ月分のうち構文解析が成功した文(526文,名詞2680個)に対して動詞から数を推定できる名詞句の数を数えたところ21個存在した.この数は少ないがそれでも数を解析できる名詞句が増えるので,動詞から数を推定する規則も利用する必要があると考える. \section{おわりに} label{sec:end}学習サンプルでの正解率は,指示性で85.5\%,数で89.0\%であり,テストサンプルでの正解率は,指示性で68.9\%,数で85.6\%であった.指示性の推定における課題としては,次の二つのことが残っている.一つは,人間が見ると状況から定名詞句であることが明らかであるのに推定できていない場合である.状況の情報をうまく使えるようになれば,推定できるようになる.しかし,このときも知識だけでなく表層表現と知識の連携が必要であろう.もう一つは,総称名詞句に関することである.総称名詞句は他の分類とはっきりと区別して定義することが難しいという性質をもっており,まだまだ考えてゆかなければならない問題である.しかし,現時点で総称名詞句としているものは表層表現を手がかりとして,ある程度取り出すことができるので,分類がどう変化しても本研究で用いた規則の適用条件の部分はそのまま使えると期待できる.数の方は数量詞のような表層表現があれば容易に推定できるがいつでも数量詞があるとは限らないので数の推定はそう容易ではない.しかし,数量詞のような表層表現がなくても,動詞「集める」や副詞「いくらでも」などの表層表現によって数を推定できる場合がある.このような規則によって推定できるものは少しではあるが,それでも解析できる名詞句の数が少しでも増えることになるので,このような規則も利用するべきであると考える.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部電気工学第二学科卒業.1995年同大学院修士課程修了.同年,同大学院博士課程進学,現在に至る.自然言語処理,機械翻訳の研究に従事.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程修了.同年,京都大学工学部助手,現在に至る.自然言語処理,知識情報処理の研究に従事.1994年4月より1年間Pennsylvania大学客員研究員.}\bioauthor{長尾真}{1959年京都大学工学部電子工学科卒業.工学博士.京都大学工学部助手,助教授を経て,1973年より京都大学工学部教授.国立民族学博物館教授を兼任(1976.2--1994.3).京都大学大型計算機センター長(1986.4--1990.3),日本認知科学会会長(1989.1--1990.12),パターン認識国際学会副会長(1982--1984),日本機械翻訳協会初代会長(1991.3--1996.6),機械翻訳国際連盟初代会長(1991.7--1993.7).電子情報通信学会副会長(1993.5--1995.4).情報処理学会副会長(1994.5--1996.4).京都大学附属図書館長(1995--).パターン認識,画像処理,機械翻訳,自然言語処理等の分野を並行して研究.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V02N04-04
\section{まえがき} 本論文では,話者の対象認識過程に基づく日本語助詞「が」と「は」の意味分類を行ない,これを,一般化LR法に基づいて構文解析するSGLRパーザ(沼崎,田中1991)の上に実装する.さらに,助詞「を」と「に」についても意味分類を行ない,パーザに実装する.そして,これらの意味分類の有用性を実験により確認した結果について述べる.話者の対象認識過程とは,話者が対象を認識し,それを言語として表現する際に,対象を概念化し,対象に対する話者の見方や捉え方,判断等を加える過程のことをいう.本研究の新規性は,次の3点である.1.三浦文法に基づいて,日本語の助詞「が」と「は」の意味規則,及び,「を」と「に」についての意味分類を考案したこと.2.この規則の動作機構をPrologの述語として記述し,日本語DCGの補強項に組み込んだこと.3.その規則をSGLRパーザに載せ,構文解析と意味解析の融合を図り,それにより,構文的曖昧性を著しく削減できることを示したことである.関連する研究としては,(野口,鈴木1990)がある.そこでは,「が」と「は」の用法の分類を,その語用論的機能と,聴者の解釈過程の特徴とによって整理している.本研究との相違は,(野口,鈴木1990)が聴者の解釈過程を考慮した分類であるのに対し,本研究では,話者の対象認識過程を考慮した分類である点,および,本研究がパーザへの実装を行なっているのに対し,(野口,鈴木1990)は,これを行なっていない点である.以後,2章では言語の過程的構造,3章では助詞「が」と「は」の意味分析,4章では助詞「が」と「は」のコア概念について述べる.5章では,助詞「が」と「は」の意味規則,および,助詞「を」と「に」の意味規則について述べる.6章ではパーザの基本的枠組,7章では試作した文法と辞書について述べる.8章ではSGLRパーザの実装について述べ,実験結果を示す.そして,9章では結論を述べる. \section{言語の過程的構造} 言語にはそれが生成される過程がある.例えば,人が町中を歩く際に,見えるものを表現するとする.この際に,生成される言葉は,人により千差万別であろう.この理由は,話し手が語る言葉が,彼が見たものを全て含んではいないことによる.また,同じものに着目しても,人によりその捉え所が異なり,別々の表現になることもある.このように,言語表現は,万人に共通する対象のあり方がそのまま表現されているわけではなく,対象のあり方が話し手の認識(対象の見方,捉え方,感情,判断,意志)を通して,表現されているのである.しかしながら,その表現に内在する普遍的な情報を分析する試みが,時枝誠記の言語過程説・時枝文法(時枝1941,1950)および,これを発展的に継承した三浦つとむの三浦文法(三浦1967a,1967b,1972,1975,1976)に提唱されている.時枝は彼の言語過程説において,文の主体的表現と,客体的表現の違いを分析している.三浦は,これを継承しつつ,意味は表現自体が持っている客観的な関係であるとした関係意味論を提唱し,それに基づく新しい日本語の文法,三浦文法を提案した.三浦文法は,細部についての分析が及んでいない部分もあるが,本研究では,これに基づいて日本語の文法を作成し,DCG形式で表現している.以下では,三浦文法を概観してみる.\subsection{主体表現と客体表現}時枝の言語過程説によれば,言語表現は以下のように主体的表現(辞)と客対的表現(詞)に分けられ,文は,辞が詞を包み込むようにして構成された句を,別の句が重層的に包み込んだ入れ子型構造(図\ref{fig:ireko}参照)で表される.\begin{itemize}\item客体的表現:\\話者が対象を概念化して捉えた表現で,日本語では,名詞,動詞,形容詞,副詞,連体詞,接辞で表される.主観的な感情や意志などであっても,それが話者の対象として捉えられたものであれば概念化し,客体的表現として表される.実体,属性,関係からなる対象のうち,実体を概念化したものが名詞である.\item主体的表現\\話者の主体的な感情,要求,意志,判断などを直接表現したものであり,日本語では,助詞,助動詞(陳述を表す零記号,すなわち,図\ref{fig:ireko}に示す記号φのように肯定判断を表し,表現としては省略された助動詞を含む),感動詞,接続詞,陳述副詞で表される.\end{itemize}\begin{figure}\begin{picture}(300,40)(-100,30)\put(15,35){\framebox(175,40){}}\put(20,40){\framebox(40,30){梅}}\put(60,43){\framebox(20,24){の}}\put(85,40){\framebox(40,30){花}}\put(125,43){\framebox(20,24){が}}\put(150,40){\framebox(40,30){咲く}}\put(190,43){\framebox(20,24){φ}}\end{picture}\caption{句の入れ子型構造}\vspace*{-1mm}\label{fig:ireko}\end{figure}\vspace*{-0.5mm} \section{助詞「が」と「は」の意味分析} \vspace*{-0.5mm}日本語の格助詞「が」,副助詞・係助詞「は」の意味解釈については,多くの国語学者・言語学者により論じられており,既に種々の学説が提案されている.例えば,久野は図\ref{fig:kuno}に示すように,「は」を主題と対照に,「が」を中立叙述と総記と目的格に分け,新情報/旧情報という観点から「が」と「は」の相違を論じている(久野1973).しかし,従来の学説の主な論点は,主題/主格,新情報/旧情報などといった点にとどまっており,話者の対象認識過程まで踏み込んだ議論はあまりされていない.池田は,認知的な観点から,「は」が「その発話の対象世界が何であるかを指し示すものである」のに対して,「が」は「対象世界について叙述する際の着目対象を指すもの」という説明原理に基づいて説明することを試みている(池田1989)時枝の言語過程説(時枝1941,1950)を発展的に継承した三浦の助詞論(三浦1967b,1972,1975,1976)によれば,助詞は用言に対する実体の関係(格関係など)を示すだけでなく,実体に対する話者の捉え方をも表す.以下では,このような観点から,格助詞「が」,および副助詞・係助詞「は」を対象に話者の対象認識過程からみた意味分析を行ない,核となる概念(コア概念)を明らかにする.さらに,「は」や「が」を使い分けることによって生ずる微妙なニュアンスの違いをも解析できるようなより高度な日本語文の意味処理を実現するための助詞「は」「が」に関する分類規則を作る.\begin{figure}\hspace*{10mm}主題(総称):鯨\underline{は}ホニュウ類です.\\\hspace*{10mm}主題(文脈指示):太郎\underline{は}学生です.\\\hspace*{10mm}対照:雨\underline{は}降っていますが雪\underline{は}降っていません.\\\hspace*{10mm}中立叙述:雨\underline{が}降っています.\\\hspace*{10mm}総記:太郎\underline{が}学生です.\\\hspace*{10mm}目的格:僕は花子\underline{が}好きだ.\caption{助詞「は」と「が」の用法(久野)}\vspace*{-1mm}\label{fig:kuno}\end{figure}\subsection{三浦文法による助詞の扱い}言語表現には万人に共通する対象のあり方がそのまま表現されているわけではなく,対象のあり方が話者の認識(対象の見方,捉え方,話者の感情・意志・判断など対象に立ち向かう話者の心的状況)を通して表現されている.すなわち,言語は対象-認識-表現の過程的構造を持つ.ここで,意味とは「音声や文字に結び付き固定された対象と認識との間の関係」であり,言語表現そのものに客観的に存在する.語は表現されて初めて意味(関係)を生じるのであり,対象や認識は意味を構成する実体である.言語表現は,話者が対象を概念化して捉えた客体的表現(詞)と話者の主観的な感情・要求・意志・判断などを直接的に表現した主体的表現(辞)に分けられる.日本語文は詞が辞を伴って入れ子を構成していく,入れ子構造モデルとして捉えられる.助詞は辞であり,対象(実体)に立ち向かう話者の立場を直接表現する.助詞のうち,実体のあり方の認識を表すのが格助詞,認識に対する陳述の要求を表すのが係助詞,実体や認識に対する観念的前提の付加を表すのが副助詞である.格助詞「が」は実体の個別性,係助詞「は」は実体の普遍性,副助詞「は」は実体の特殊性を表す.\vspace*{-0.5mm} \section{助詞「が」「は」のコア概念} \vspace*{-0.5mm}一般に対象は複雑な構造と多様な属性を持ち,その数は数えきれない.このような性質を持つ対象を有限な能力で認識するには,種々の捨象が行なわれる.すべての対象はそれ自身を他と区別する特徴を持つと同時に何らかの共通性を持つ.この個別性と普遍性は相対的なものであり,認識者の視点によって相互に入れ替わる.ここで,対象の個別性に着目すれば,対象は具体的に取り上げられ,普遍性に着目すれば対象の個別的側面は捨象されて抽象化が行なわれる.\subsection{助詞「が」のコア概念}格助詞「が」は,対象(実体)の個別的側面に着目して,その時その時の実体のあり方を個別的・具体的に取り上げることを表す.例えば,「鳥が飛ぶ」においては,認識者の目前にいる「鳥」という種(クラス)に属する個体(インスタンス)としての「鳥」を取り上げている.久野の中立叙述は,この用法にあたる.また,クラスとしての「鳥」も,より抽象化された上位概念であるクラスとしての「動物」から見れば,個別的・具体的に取り上げたことになる.特殊な文脈において,今話題にのぼっている動物の中で,「鳥だけ(こそ)飛ぶ」という意味で,「鳥が飛ぶ」と表現する場合にも,実体の個別性を表す格助詞「が」が使われる.この場合は個別性が特に強調され,実体の限定性・排他性を表すようになる.久野の総記や目的格は,このような用法にあたる.格助詞「が」は,従来,新情報や主格を表すと言われている.しかし,新情報は,性質上個別に取り上げる必要があるから,また,主格は用言に必須のものとしてやはり個別に取り上げる必要があるから,それぞれ「が」が使われると考えるべきである.また,「が」は主格以外にも使われることは,久野が「が」の用法として目的格をあげていることからも明らかであろう.さらに,池田の「対象世界の中で着目するもの」は,当然個別に取り上げる必要があるため,「が」が使われると考えられる.\subsection{助詞「は」のコア概念}係助詞「は」は,対象の普遍的側面に着目して,いつも替わらない実体のあり方を普遍的・抽象的に取り上げることを表す.例えば,「鳥は飛ぶ」においては,インスタンスとしての「鳥」ではなく,クラスとしての「鳥」を取り上げている.久野の主題(総称)は,このような用法にあたる.副助詞「は」は,対象を他の実体と比較してその特別なあり方,すなわち実体の特殊性を取り上げることを表す.通常,ある観念的前提が存在する.例えば,「昨日は遅刻した」においては,「いつもは遅刻しない」という観念的前提が存在しており,「遅刻する」という観点から見た「今日,一昨日,\ldots」と比較した「昨日」の特殊性を取り上げている.また,特殊な文脈において,今話題にのぼっている動物の中で,「他のものと異なり鳥こそ飛ぶ」という意味で,「鳥は飛ぶ」と表現する場合にも,実体の特殊性を表す副助詞「は」が使われる.この場合,実体の限定性・排他性を表す「鳥が飛ぶ」と類似な表現であるが,「が」を用いた場合に比べて,排他性はあまりない.久野の主題(文脈指示)は上記のような用法に当たる.さらに,「雨は降っているが雪は降っていない」では,「雨」のときは「雪などそれ以外の天候」ではなく,「雪」のときは「雨などそれ以外の天候ではないことを意識して,相互前提において両者(「雨」と「雪」)の特殊性を取り上げている.この相互前提から対照の意味が生ずる.久野の対照は,このような用法にあたる.副助詞・係助詞「は」は,従来,旧情報や主題を表すと言われている.しかし,実体の普遍的側面(例えば,クラスとしての鳥の概念)は,誰でもが共通の知識としてもっている既知の情報,すなわち旧情報である.また,実体の特殊的側面は,話者と聞き手の間で対象の比較対象となる実体や観念的前提とともに知識を共有していて始めて理解できる旧情報である.このような旧情報を「は」で取り上げ,それらについて叙述する,すなわち新情報を付加することにより主題の意味を生じるのである.さらに,池田の「対象世界が何であるか指し示すもの」は,「は」が主題を示すことを別な表現で述べたものと言える. \section{助詞の意味分類} \subsection{助詞「が」と「は」の意味規則}\label{sec:gatoha}三浦文法に基づく助詞「が」と「は」の意味規則の要点は次の通りである.まず,意味を「音声や文字に結び付き固定された対象と認識との間の関係」即ち,対象と認識との間の関係と定義した上で,助詞「が」と「は」に前接する名詞の3つの範疇(クラスとインスタンスを表す範疇N1,インスタンスを表す範疇N2,クラスを表す範疇N3)に対して助詞「が」と「は」の意味分類を次のように定義している.\\[N1+が]前接する名詞が目的格の場合,N1をN3と捨象し限定性.\\~例:酒が好きだ./水が飲みたい.\\前接する名詞が総記の場合,N1をN3と捨象し限定性.\\~例:燕が鳥だ./子供がかかりやすい.\\上記以外の場合,N1をN2と捨象し個別性.\\~例:鳥が飛ぶ./雪が白い./犬がいる.\\[N1+は]存在文の場合,N1をN3と捨象し特殊性.\\~例:犬はいる./本はある.\\前接する名詞が対照の場合,N1をN3と捨象し特殊性.\\~例:月は東に日は西に.\\前接する名詞が目的格の場合,N1をN3と捨象し特殊性.\\~例:酒は好きだ./水は飲みたい.\\上記以外の場合,N1をN3と捨象し普遍性.\\~例:鳥は飛ぶ./雪は白い./燕は鳥だ.\\[N2+が]限定性.~例:太郎が学生です.\\[N2+は]特殊性.~例:太郎は学生です.\\[N3+が]限定性.~例:鳥類がハチュウ類から進化した.\\[N3+は]普遍性.~例:鳥類はハチュウ類から進化した.\subsection{助詞「を」と「に」の意味分類}\label{sec:wotoni}助詞「を」と「に」のコア概念については,三浦文法(三浦1967b,1972,1975,1976)に準拠している.すなわち,「を」は,実体と属性との動的な目標としての関係付けを行ない,「に」は,実体と属性との静的な目標としての関係付けを行なう.意味分類は,助詞に前接する名詞あるいは,他の品詞の上位概念により,「を」を4つ,「に」を5つに分けることにした(森岡,徳川,川端,中村,星野1993).\\[場所+を]場所.~例:鳥が空を飛ぶ.\\[時+を]時.~例:この宿で夜を過ごす.\\[行為+を]行為.~例:彼は仕事をする.\\[上記以外+を]動的対象.~例:白い上着を着る.\\[場所+に]場所.~例:並木の道に雨が降る.\\[時+に]時.~例:三時に会いました.\\[様態+に]様態.~例:左右に揺れる.\\[行為+に]目的.~例:忘れ物を取りに帰る.\\[上記以外+に]静的対象.~例:あなたに渡すものがある. \section{パーザの基本的枠組} 次に話者の対象認識過程を分析するパーザの基本的枠組について記述する.\\・文法規則はDCG形式とする.\\これは,我々がSGLRパーザ(後述)を使用していることによる.\\・DCGの記述はチョムスキー標準形に準ずる.\\チョムスキー標準形は,文法に意味制約を加えることとの整合性が良い.すなわち,規則右辺の非終端記号が2つのみ存在するという点が,二つの要素を意味分類して,一つの結果を作るという枠組を導入でき,構文解析と,意味解析の融合を図ることができる.\\・全ての名詞に(引数として)N1,N2,N3,N4,N51,N52の分類(ただし,N4は動作名詞,N51は目的格をとる状態名詞,N52は目的格をとらない状態名詞を表す.)と,上位概念を与える.\\上位概念としては,助詞「を」と「に」の意味分類に適合するものとして,人,動物,物,場所,時,表現,行為などを割り振る.\\・全ての助詞,助動詞に(引数として)その語を与える.\\・全ての動詞に,上位の意味概念を与える.(宮崎,高橋1993)の意味分類では用いられないものも含む.\\・意味分類は補強項で行なう.\\これは,DCG形式の要請によるものである.SGLRパーザは,これにより,意味解析と構文解析を融合して行なう.\\・構文解析と意味分類を同時に進める.\\・意味分類の同定は,トップレベルの規則で呼び出す.\\・構文的曖昧性がある場合は,曖昧な個々の解析に意味分類を与える.これにより,構文的曖昧性を,意味分類を通して,削減できる可能性が生ずる.\\・話者の対象認識過程は,構文木の客体判断である詞と,主体判断である辞として取り出す.さらに,助詞「が」と「は」の用法の分類として,話者の対象に対する見方を抽出する. \section{文法と辞書の試作} 以上に基づき試作した簡易版の文法と辞書を図\ref{fig:gram},図\ref{fig:dict}に示す.文法と辞書はDCG形式に従っており,補強項のプログラム呼び出しにより,意味処理を行なう.補強項のプログラムは図\ref{fig:augmentation}に示した.これをSGLRパーザに実装することにより,構文解析を行なう.パーザの動作はボトムアップに情報を組み立てていく.これにより,情報は引数として与えられた変数を通し,木の末端のカテゴリから上位のカテゴリに向かって流れる.文法は,おおむね三浦文法の形式に従っている.特に,零判断辞というものを,導入している点は,従来のものと異なる.零判断辞は,話者の主体的判断を示す重要な要素である.これについては,実験例で説明する.また,辞書の各項目には,引数として,意味的情報が付加されている.以下,補強項のプログラムについて説明する.``分類''は,後置詞句における,助詞の意味分類を行なう.''同定''は,話者の対象認識過程の認識を呼び出す.''認識''では,\ref{sec:gatoha},\ref{sec:wotoni}に示した意味分類規則に従って,助詞の役割を分類する.''認識''の第一引数において,助詞の種類と名詞の分類に応じ,第六引数に分類の結果を返す.''述部''は,認識の際に,述語の情報を必要とする時,それを呼び出すものである.\newpage\begin{figure}[htb]\footnotesize\verb|文法:|\\\begin{minipage}[t]{.48\textwidth}\begin{verbatim}文(S)-->文(S1),文(S2),{同定1(S1,S2,S)}.文(S)-->詞(P),辞(D),{同定(P,D,S)}.詞(S)-->後置詞句(P),動詞(V),{結合(P,[述語(V)],S)}.詞(S)-->後置詞句(P),名詞(N),{結合(P,[述語(N)],S)}.詞(S)-->後置詞句(P),形容詞(A),{結合(P,[述語(A)],S)}.詞(S)-->後置詞句(P1),形式動詞句(P2),{結合(P1,[述語(P2)],S)}.詞(S)-->後置詞句(P),仮定動詞(V),{要素(指示格(_),P),結合(P,[述語(V)],S)}.後置詞句(P)-->後置詞句(P1),後置詞句(P2),{結合(P1,P2,P)}.後置詞句(P)-->動詞(A),助詞(ni),{分類([A,ni],P)}.後置詞句(P)-->名詞(A),助詞(D),{分類([A,D],P)}.\end{verbatim}\end{minipage}\begin{minipage}[t]{.48\textwidth}\begin{verbatim}後置詞句(P)-->名詞句([S,A]),助詞(D),{分類([A,D],P0),結合(S,P0,P)}.後置詞句(P)-->形容詞(A),辞0(D),{分類([A,D],P)}.名詞(P)-->代名詞(N),名詞(P).名詞句([S,P])-->文(S),名詞(P),{述部(S,行為)}.形式動詞句([n4,V])-->名詞([n4,_]),形式動詞(V).仮定動詞(存在)-->[].辞0(φ)-->[].辞(D)-->辞0(D).辞(da)-->助動詞(da).辞(masu)-->助動詞(masu).辞(ADJ)-->形式形容詞(ADJ),辞0(D).辞([masu,ta])-->助動詞(masu),助動詞(ta).辞(X)-->辞0(D),助動詞(X),{X==ta;X==tai;X==nai;X==darou}.\end{verbatim}\end{minipage}\normalsize\caption{試作した日本語文法}\label{fig:gram}\end{figure}\begin{figure}[htb]\footnotesize\verb|辞書:|\\\begin{minipage}[t]{.32\textwidth}\begin{verbatim}名詞([n1,動物])-->[鯨].名詞([n1,物])-->[雨].名詞([n1,物])-->[酒].名詞([n1,物])-->[水].名詞([n1,場所])-->[東].名詞([n1,場所])-->[道].名詞([n1,物])-->[上着].名詞([n1,物])-->[忘れ物].名詞([n2,人])-->[僕].名詞([n2,人])-->[花子].名詞([n2,時])-->[夜].名詞([n3,動物])-->[鳥類].名詞([n4,様態])-->[進化].名詞([n51,感情])-->[好き].代名詞(kono)-->[この].助詞(ga)-->[が].助詞(wo)-->[を].助詞(de)-->[で].助動詞(da)-->[です].助動詞(ta)-->[た].助動詞(masu)-->[ます].動詞(現象)-->[かかり].動詞(現象)-->[降る].動詞(行為)-->[飲み].動詞(行為)-->[行く].動詞(行為)-->[過ごす].動詞(行為)-->[揺れる].動詞(行為)-->[会い].動詞(存在)-->[ある].形式動詞(行為)-->[した].形式形容詞(程度)-->[やすい].\end{verbatim}\end{minipage}\begin{minipage}[t]{.32\textwidth}\begin{verbatim}名詞([n1,動物])-->[犬].名詞([n1,物])-->[本].名詞([n1,物])-->[月].名詞([n1,物])-->[花].名詞([n1,場所])-->[西].名詞([n1,動物])-->[燕].名詞([n1,物])-->[並木].名詞([n2,人])-->[私].名詞([n2,人])-->[あなた].名詞([n2,数])-->[三].名詞([n3,動物])-->[ホニュウ類].名詞([n3,動物])-->[ハチュウ類].名詞([n4,様態])-->[左右].名詞([n52,様態])-->[きれい].助詞(ha)-->[は].助詞(ni)-->[に].助詞(no)-->[の].助詞(kara)-->[から].助動詞(da)-->[だ].助動詞(tai)-->[たい].助動詞(masu)-->[まし].動詞(現象)-->[降って].動詞(行為)-->[飛ぶ].動詞(行為)-->[取り].動詞(行為)-->[着る].動詞(行為)-->[渡す].動詞(行為)-->[帰る].動詞(存在)-->[いる].形式動詞(存在)-->[い].形容詞(色)-->[白い].\end{verbatim}\end{minipage}\begin{minipage}[t]{.32\textwidth}\begin{verbatim}名詞([n1,人])-->[学生].名詞([n1,人])-->[子供].名詞([n1,物])-->[雪].名詞([n1,動物])-->[鳥].名詞([n1,場所])-->[空].名詞([n1,物,時])-->[日].名詞([n1,物])-->[もの].名詞([n2,場所])-->[宿].名詞([n2,人])-->[太郎].名詞([n2,時])-->[昨日].\end{verbatim}\end{minipage}\normalsize\caption{試作した日本語辞書}\label{fig:dict}\end{figure}\begin{figure}[htbp]\footnotesize\begin{verbatim}分類([[N|_],ha],[主題(N)]):-!.分類([[N|_],ga],[総記(N)]):-!.分類([[_,N|_],wo],[目的格(N)]):-!.分類([[_,N|_],ni],[指示格(N)]):-!.分類([V,ni],[指示格(V)]):-!.分類([N,to],[同位格(N)]):-!.分類([N,mo],[同主題(N)]):-!.分類([N,no],[所有格(N)]):-!.分類([X,Y],[その他(X,Y)]):-!.結合([],X,X):-!.結合([A|X],Y,[A|Z]):-結合(X,Y,Z).要素(X,[X|_]):-!.要素(X,[_|R]):-要素(X,R).同定([A|L],D,[B|R]):-同定([A|L],D,[0,0],[B|R]).同定([[]|L],D,F,R):-同定(L,D,F,R).同定([A|L],D,F,[A|R]):-A=[_|_],同定(L,D,F,R).同定([A|L],D,F,[B|R]):-認識(A,L,D,F,F1,B),同定(L,D,F1,R).同定([],_,_,[]).同定1(S,S,[対照,S]):-!.認識(総記(n1),L,da,[0,N],[1,N],[[N1→N3+が],総記,限定性]):-述部(L,[n1,_]).認識(総記(n1),L,da,[0,N],[1,N],[[N1→N3+が],目的格,限定性]):-述部(L,[n51,_]),!.認識(総記(n1),L,tai,[0,N],[1,N],[[N1→N3+が],目的格,限定性]):-述部(L,行為).認識(総記(n1),L,程度,[0,N],[1,N],[[N1→N3+が],総記,限定性]).認識(総記(n1),L,_,[0,N],[1,N],[[N1→N2+が],中立叙述,個別性]).認識(総記(n2),L,_,[0,N],[1,N],[[N2+が],総記,限定性]).認識(総記(n3),L,_,[0,N],[1,N],[[N3+が],総記,限定性]).認識(主題(n1),L,_,[N,0],[N,1],[[N1→N3+は],存在,特殊性]):-述部(L,存在).認識(主題(n1),L,da,[N,0],[N,1],[[N1→N3+は],目的格,特殊性]):-述部(L,[n4,_]).認識(主題(n1),L,da,[N,0],[N,1],[[N1→N3+は],目的格,特殊性]):-述部(L,[n51,_]).認識(主題(n1),L,tai,[N,0],[N,1],[[N1→N3+は],目的格,特殊性]).認識(主題(n1),L,_,[N,0],[N,1],[[N1→N3+は],総称,普遍性]).認識(主題(n2),L,_,[N,0],[N,1],[[N2+は],文脈指示,特殊性]).認識(主題(n3),L,_,[N,0],[N,1],[[N3+は],総称,普遍性]).認識(目的格(場所),L,_,F,F,[目的格,場所]):-!.認識(目的格(時),L,_,F,F,[目的格,時]):-!.認識(目的格(物),L,_,F,F,[目的格,動的対象]):-!.認識(目的格(動物),L,_,F,F,[目的格,動的対象]):-!.認識(目的格(人),L,_,F,F,[目的格,動的対象]):-!.認識(目的格(行為),L,_,F,F,[目的格,行為]):-!.認識(目的格(_),L,_,F,F,[目的格,動的対象]).認識(指示格(場所),L,_,F,F,[指示格,場所]):-!.認識(指示格(時),L,_,F,F,[指示格,時]):-!.認識(指示格(場合),L,_,F,F,[指示格,場合]):-!.認識(指示格(様態),L,_,F,F,[指示格,様態]):-!.認識(指示格(行為),L,_,F,F,[指示格,目的]):-!.認識(指示格(物),L,F,_,F,[指示格,静的対象]):-!.認識(指示格(動物),L,_,F,F,[指示格,静的対象]):-!.認識(指示格(人),L,_,F,F,[指示格,静的対象]):-!.認識(指示格(_),L,_,F,F,[指示格,静的対象]).認識(その他(_,_),L,_,F,F,[]).認識(所有格(_),L,_,F,F,[]).認識(述語(P),L,_,F,F,述語(P)).述部([述語(P)|_],P):-!.述部([A|L],P):-述部(L,P).\end{verbatim}\normalsize\caption{意味分類の規則}\label{fig:augmentation}\end{figure}\normalsize\clearpage \section{パーザへの実装} Prolog上に,DCG文法の形式により,話者の対象認識過程に基づく助詞の意味分類を示した.その際,ボトムアップに情報が流れるように記述している.この点は,SGLRパーザを使用するが故の文法の特殊性といえる.しかし,この文法は,他のDCGのボトムアップパーザにも適用できる文法であり,その意味で,文法には一般性があるといえる.\subsection{SGLRパーザについて}SGLRパーザ(沼崎,田中1991)は,Prolog上に構築された一般化LRパーザで,富田法に準ずる構文解析のアルゴリズムを持っている.その特徴は,構文解析で用いるスタックが複数生ずる場合,これを統合し,処理効率を上げていること,及び,DCG文法を用いることにより,構文解析と意味解析の融合を図れる枠組を提供していることである.上のような文法と辞書,及び,補強項のプログラムを用意すれば,SGLRのトランスレータが文法と辞書をボトムアップに動作するPrologプログラムに変換し,構文解析を行なうことができる.\subsection{実験結果}上記の文法,辞書,意味分類規則をSGLRパーザ上で動作させた結果を下に示す.\small\begin{verbatim}inputsentense:酒,が,好き,だ.酒,が,好き,だLength:4executiontime=0msec|-文|-詞||-後置詞句|||-名詞--酒|||-助詞--が||-名詞--好き|-辞|-助動詞--だArgumentInformation:[[[[N1→N3+が],目的格,限定性],述語([n51,感情])]]NumberofTreesare:1\end{verbatim}\normalsizeこの例は,「が」の解析結果として,「酒」が目的格になっており,N1のカテゴリが,N3のカテゴリに捨象されているこことを示している.また,客体的表現を''詞''として,主体的表現を''辞''として取り出している.この点と,捨象の判断において,話者の対象認識過程の実装に成功している.\small\begin{verbatim}inputsentense:月,は,東,に,日,は,西,に.月,は,東,に,日,は,西,にLength:8executiontime=60msec|-文|-文||-詞|||-後置詞句||||-後置詞句|||||-名詞--月|||||-助詞--は||||-後置詞句||||-名詞--東||||-助詞--に|||-仮定動詞--[]||-辞||-辞0--[]|-文|-詞||-後置詞句|||-後置詞句||||-名詞--日||||-助詞--は|||-後置詞句|||-名詞--西|||-助詞--に||-仮定動詞--[]|-辞|-辞0--[]ArgumentInformation:[[対照,[[[N1→N3+は],存在,特殊性],[指示格,場所],述語(存在)]]]NumberofTreesare:1\end{verbatim}\normalsizeこの文は,対照の文であることを示すと同時に,「東」と「西」が場所を示すことを表している.\small\begin{verbatim}inputsentense:鳥,が,空,を,飛ぶ.鳥,が,空,を,飛ぶLength:5executiontime=10msec|-文|-詞||-後置詞句|||-後置詞句||||-名詞--鳥||||-助詞--が|||-後置詞句|||-名詞--空|||-助詞--を||-動詞--飛ぶ|-辞|-辞0--[]ArgumentInformation:[[[[N1→N2+が],中立叙述,個別性],[目的格,場所],述語(行為)]]NumberofTreesare:1\end{verbatim}\normalsizeこの文は,「が」の中立叙述の用法であることを示し,「を」の解析において,「空」が場所であることを示している.また,文末に付加された「辞0」は,零判断辞といい,肯定の助動詞がそこに省略されていることを示している.\small\begin{verbatim}inputsentense:あなた,に,渡す,もの,が,ある.あなた,に,渡す,もの,が,あるLength:6executiontime=10msec|-文|-詞||-後置詞句|||-名詞句||||-文|||||-詞||||||-後置詞句|||||||-名詞--あなた|||||||-助詞--に||||||-動詞--渡す|||||-辞|||||-辞0--[]||||-名詞--もの|||-助詞--が||-動詞--ある|-辞|-辞0--[]ArgumentInformation:[[[指示格,静的対象],述語(行為),[[N1→N2+が],中立叙述,個別性],述語(存在)]]NumberofTreesis:1\end{verbatim}\normalsizeこの解析は,「が」の総記の用法であり,「あなた」が対象であることを示している.また,文末の辞0は,そこに肯定の助動詞が省略されていることを示している.上記のように本論文に記載した例文については,全て正しく意味分類がなされた.また,予想されていたことではあるが,構文的曖昧性も著しく減少することが判明した.例えば,「月は東に日は西に.」の文には,66通りの構文木が存在するが,意味制約によりそれが1つに絞られ,解析時間も4.5倍速くなっている. \section{結論} 本研究では,DCG文法に基づいて,助詞「が」と「は」及び,「に」と「を」の意味分類を行なうパーザの基本的枠組を提案し,その有用性を実証した.話者の対象認識過程の分析について言えば,客体的表現と主体的表現を詞と辞の形で取り出す文法を試作した点と,主体的表現である助詞の意味分類をSGLRパーザ上に実装した点で,話者の対象の見方の抽出に成功したと言える.今後はさらに,話者の対象の捉え方や感情,判断,意志等を分類抽出する拡張が期待できる.さらに,パーザ自体も,三浦文法による形態素解析システム(高橋,佐野,宍倉,前川,宮崎1993)と結合し,三浦文法による本格的な統語意味融合型の文法を構築し,構文的曖昧性の意味制約を用いた解消の検討を行なう予定である.\acknowledgment最後に「は」と「が」の意味分析において御討論頂いたNTTコミュニケーション科学研究所の,池原悟,白井諭の両氏に感謝する.\nocite{Ikeda1989}\nocite{Kuno1973}\nocite{Miura1967a}\nocite{Miura1967b}\nocite{Miura1972}\nocite{Miura1975}\nocite{Miura1976}\nocite{Miyazaki1993}\nocite{Morioka1993}\nocite{Noguchi1990}\nocite{Numazaki1991}\nocite{Takahashi1993}\nocite{Tokieda1941}\nocite{Tokieda1950}\bibliographystyle{jtheapa}\bibliography{nls}\begin{biography}\biotitle{略歴}\bioauthor{沼崎浩明}1986年東京工業大学工学部情報工学科卒業.1988年同大学院修士課程修了.同年(株)三菱総合研究所入社.1989年東京工業大学大学院博士課程入学.1992年同大学院博士課程修了.日本学術振興会特別研究員.1993年より新潟大学工学部情報工学科助手.自然言語理解,対話システムなどの研究に従事.工学博士.1990年情報処理学会学術奨励賞受賞.電子情報通信学会,情報処理学会,各会員.1995年7月死去.\bioauthor{宮崎正弘}1969年東京工業大学工学部電気工学科卒業.同年日本電信電話公社に入社.以来,電気通信研究所において大型コンピュータDIPSの開発,コンピュータシステムの性能評価法の研究,日本文音声出力システムや機械翻訳などの自然言語処理の研究に従事.1989年より新潟大学工学部情報工学科教授.自然言語理解,機械翻訳,辞書・シソーラスなど自然言語処理用言語知識の体系化などの研究に従事.工学博士.1995年日本科学技術情報センター賞(学術賞)受賞.電子情報通信学会,情報処理学会,人工知能学会,各会員.\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V10N04-09
\section{はじめに} 日本語のテンス・アスペクトは,助動詞「タ/テイル/テアル/シツツアル/シテイク/…」などを付属させることによって表現される.中国語では「了/着/\kanji{001}(過)/在」などの助字がテンス・アスペクトの標識として用いられるが,テンス・アスペクトを明示的に表示しない場合も多い.言語学の側からの両言語のテンス・アスペクトに関する比較対照の先行研究においては,次のような文献がある.\begin{enumerater}\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\item\cite{Ryu1987}は両言語の動詞を完成と未完成に分類しながら,「タ」と「了」の意味用法を対比した.\item\cite{Cho1985}は,「了」と「た」の対応関係を描き,その微妙に似通ったり,食い違ったりする原因,理由を探している.\item\cite{Shu1989}は,「タ」と「了」のテンス・アスペクトの性格について論じている.\item\cite{Oh1996}は,「シテイル」形の意味用法を基本にして,日本語動詞の種別に対する中国語の対応方法を考察している.\item\cite{Ryu2000}は,中国語の動詞分類によって,意味用法上で日本語のテンス・アスペクトと中国語のアスペクト助字との対照関係を述べている.\\\end{enumerater}これらの言語学側の先行研究では,日中両言語間のテンス・アスペクト表現の対応の多様性(すなわち曖昧性)を示すと同時に,動詞の時間的な性格や文法特徴の角度から曖昧性を解消する方法も論じている.しかしながらこれらの先行研究では,例えば「回想を表す場合」や「動作が完了或いは実現したことを表す場合」などといった表現での判断基準を用いており,そのまま計算機に導入することは難しい.すなわち,これらの判断基準は人間には了解できても,機械にとっては「どのような場合が回想を表す場合であるのか」「どのような場合が完了あるいは実現したことを表す場合であるのか」は分からない.本論文では,機械翻訳の立場から,日本語のテンス・アスペクト助辞である「タ/ル/テイル/テイタ」に対して,中国語側で中国語のテンス・アスペクト用助字である「了/着/\kanji{001}(過)/在」を付属させるか否かについてのアルゴリズムを考案した.その際,\maru{4}では日本語述語の時間的性格を分析して中国語への対応を論じているが,我々は日中機械翻訳においては対応する中国語の述語はすでに得られていると考えてよいから,中国語の述語の時間的性格も同時に判断の材料としてアルゴリズムに組み込んだ.そのほか両言語における述語のいくつかの文法特徴や共起情報も用いた.以下,第2章で両言語におけるテンス・アスペクト表現の意味用法およびその間の対応関係についてまとめ,第3章で,「タ/ル/テイル/テイタ」と中国語アスペクト助字の対応関係を定めるアルゴリズムについて述べた.さらに第4章で,作成した翻訳アルゴリズムの評価を手作業で行った結果を説明し,誤った箇所について分析も行った.評価の結果は約8割の正解率であった. \section{日中両言語におけるテンス・アスペクト助辞の意味用法とその対照} まず両言語におけるテンス・アスペクト助辞の意味用法を整理する.\subsection{日本語側のテンス・アスペクト助辞の意味用法}本論文で取り上げる「タ」「ル」「テイル/テイタ」の主な意味用法は以下のように整理できる\cite{Shu1989,Kanemizu2000,Masuoka1992,Oh1996,Teramura1991}.\\「タ」には以下の意味用法がある.\begin{enumerate}\item動作や作用,変化が発話時点あるいは注目時点より前に完成したという過去の意味を表す.\itemアスペクト(完了または実現)を表す.\itemムードの働きをする.\\\end{enumerate}基本形「ル」には以下の意味用法がある.\begin{enumerate}\item現在あるいは現在までの状態,発話時での知覚・思考あるいは話し手の行為を表す.\item実現が確実な場合に,未来の状態,出来事,動作を表す.\item習慣や反複される出来事・動作が現在に及んでいる場合,基本形で表現される.\item時間を超越した事態を表す.\\\end{enumerate}「テイル/テイタ」には以下の意味用法がある.\begin{enumerate}\item動作の進行中を表す.\item動作・作用の結果の残存を表す.\item習慣または繰り返し行う動作を表す.\item現在に意義を持つ過去の事象を表す.\end{enumerate}\subsection{中国語のテンス・アスペクト助字の意味用法}中国語におけるテンス・アスペクト的なものは「了」,「着」,「\kanji{001}」などの助字,時間副詞(「已\kanji{002}」,「就」,「在」など),趨向補助語(「去」,「来」,「起来」など)および結果補助語(「完」,「到」,「\kanji{003}」,「在...上」など)で表される.時間副詞「已\kanji{002}」,「就」は日本語の「もう/すでに」,「すぐに」などの時間表現に対応するものであるので,我々は既に翻訳処理は為されているものと考える.また,趨向補助語および結果補助語は,機械翻訳の立場から見れば,動詞・形容詞に対応する訳語の一部として辞書に記載され既に訳出されていると考えられる.従って,以下では助字「了」,「着」,「\kanji{002}」,および副詞「在」について考察することとした.これらの語の意味用法については以下のように整理できる\cite{Ryu1996,Kanemizu2000,Shu1989,Ro1980,Cho1985}.\\「了」には以下の意味用法がある.\begin{enumerate}\item過去を表す.\item完了または実現を表す.\item変化が生じた事を表す.\item語気の役を担う.\\\end{enumerate}文中の位置と役割によって,「了」は「了1」,「了2」の二つに区別される.動詞の直後に用いられる「了」を「了1」と書くことにする.「了1」は主に動作の完了を表す.その動詞が目的語/補助語を伴えば,「了1」は目的語/補助語の前に置かれることになる.文末に置かれる「了」を「了2」と書くことにする.「了2」は主に事柄に変化が起こったことを表すが,変化が起ころうとしていること(語気)を表す働きもある.文中の述語が目的語/補助語を伴えば,「了2」は目的語/補助語の後に置かれることになる.「了1」は主に完了,「了2」は主に変化が生じたことを表すが,「\kanji{004}杏\kanji{005}叶全部落光\underlines{了}./銀杏の葉が全部落ちてしまった.」のように「了」は変化が生じたこと(木の葉の状況が変化したこと)を表すか,動作の完了(動作「落ちる」が完了したこと)を表すかの区別は,明確であるとは言えない.\\「\kanji{001}(過)」には以下の意味用法がある.\begin{enumerate}\item動作が済んだことを表す.\item経験を述べる.\\\end{enumerate}(1)の用法に対しては「\kanji{001}」を「了」に入れ替えることができるが,(2)の用法に対しては「了」に入れ替えることはできない.例えば,「他去\kanji{001}中国./彼が中国に行ったことがある.」は経験の意味を表すが,「他去了中国./彼が中国に行った.」または「他去中国了./彼が中国に行った.」では経験という意味を表現できない.\\「着」には以下の意味用法がある.\begin{enumerate}\item動作の進行中を表す.\item動作・状態の持続を表す.\item語気を表す.\\\end{enumerate}「在」の意味用法:副詞である「在」は文中の主語と述語の間に介入し,動作の進行中を表す.「着」も同じ動作の進行中を表すが,「着」に接する動詞は状態性が強い,「在」に接する動詞は動作性が強いという相違点がある.\subsection{両言語のテンス・アスペクトの意味用法の対照}日本語のタ/ル/テイル/テイタ,中国語の了/着/在には,前述したようにさまざまの意味用法があり,単純にタ→了,ル→$\phi$,テイル→着,テイタ→在と対応させるようなわけにはいかない($\phi$はアスペクト助字を使わないことを指す).「タ」は「了」より多くの場面で使われ,「了」をつけることができない場合や結果補助語,趨向補助語と対応する場合などがある\cite{Ryu1987,Cho1985}.「テイル/テイタ」は「在」,「着」,「了」などに対応する\cite{Oh1996}.「ル」は現在・未来の出来事,習慣あるいは時間を超越した事態を表すが,中国語ではそのような場合ふつう$\phi$に対応する.しかし変化が生じたことを表すときは「了」と対応する.例えば,「この町へ引越ししてきてから,かれこれ5年になる.」の中国語訳では「搬到\kanji{006}个城市一\kanji{017}眼五年\underlines{了}.」と「了」を使う.テンス・アスペクトの意味はその標識のみによって決定されるのではなく,動詞の時間的な性格や修飾語などによっても影響される.両言語の動詞等の時間的な性格や修飾語,文法特徴には違いがあるから,意味用法間の対応関係には曖昧性が生じてくる.第3章では,機械翻訳の立場から,両言語の文法特徴および中国語述語の時間的性格に基づいてその曖昧性を解決する方法について考察する. \section{「タ/ル/テイル/テイタ」と中国語アスペクト助字の対応関係を定めるアルゴリズム} ここで述べるアルゴリズムは,「タ/ル/テイル/テイタ」によるテンス・アスペクトの表現以外の処理は終わっているものとして,「タ/ル/テイル/テイタ」をどのように中国語に翻訳すれば,整合の取れた正しい翻訳になるかという立場からのものである.従って,原文である日本語文に関する情報だけでなく,「タ/ル/テイル/テイタ」以外に関する中国語翻訳文についての情報も使えるものとしている.このアルゴリズムは,主語,目的語等の文法特徴や共起する語彙,中国語動詞の時間的性格属性などを主な手がかりとしている.この章ではまず中国語動詞の時間的性格分類について述べる.\subsection{中国語述語の時間的性格分類}\cite{Ryu2000}は,中国人の日本語学習の観点から日中両言語を対照し,中国語の動詞が未然・継続と已然・非継続において,対立を持っているか否かという視点から,時間的性格分類を行っている.本文ではその分類を参考にして多くの例文に対して翻訳アルゴリズムを検討し,結果として表1に示すように分類した.劉の分類との主な違いは,\maru{1}静態動詞に分類されていた心理・生理的状態動詞を動作性が強いか,状態性が強いかによって心理活動動詞と心理状態動詞の二つに分けたこと,\maru{2}形容詞は事柄の性質・状態を表すという点で静態動詞と機能が同じであるので,静態動詞に分類したことである.結果動詞については,「着」を付加できるか否かを判定条件とした(付加できなければ結果動詞).\begin{table}[htbp]\label{HYO1}\caption{中国語述語の時間的性格分類}\begin{center}\def\arraystretch{}\begin{tabular}{|c|l|l|}\hline大分類&\multicolumn{1}{|c|}{細分類}&\multicolumn{1}{|c|}{例}\\\hline\hline&\maru{1}動作行為動詞&\kanji{008}\kanji{009},\kanji{010},拍\\\cline{2-2}\cline{3-3}&\maru{2}動作状態動詞&挂,穿,吊\\\cline{2-2}\cline{3-3}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{動態動詞}&\maru{3}心理活動動詞&回\kanji{011},体会,\kanji{012}料\\\cline{2-2}\cline{3-3}&\maru{4}移動動詞(趨向動詞)&来,上,去\\\hline&\maru{1}属性動詞&当做,是,缺乏\\\cline{2-2}\cline{3-3}&\maru{2}存在動詞&有,在,\kanji{013}有\\\cline{2-2}\cline{3-3}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{静態動詞}&\maru{3}心理状態動詞&知道,佩服,后悔\\\cline{2-2}\cline{3-3}&\maru{4}形容詞&静,来不及,少\\\hline&\maru{1}「V+V」構造&采用,取得,下降\\\cline{2-2}\cline{3-3}&\maru{2}「V+Adj」構造&提高,放\kanji{014},打乱\\\cline{2-2}\cline{3-3}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{結果動詞}&\maru{3}「V+趨向補助語」構造&冲出,走上,跨\kanji{090}\\\cline{2-2}\cline{3-3}&\maru{4}瞬間変化動詞&\kanji{015}\kanji{016},死,看\kanji{003}\\\hline\end{tabular}\end{center}\end{table}結果動詞の\maru{1}「V+V」構造はその動詞の内部構造が二つの動詞からなるもの;\maru{2}「V+Adj」構造はその動詞の内部構造が動詞と形容詞からなるもの;\maru{3}「V+趨向補助語」構造はその動詞の内部構造が動詞と趨向動詞(補助語)からなるものという意味である.付録に,第4章で評価する際に対訳される中国語の述語についての時間的性格分類を示す.\subsection{「タ」の翻訳アルゴリズム}「タ」は「了/\kanji{001}」などのアスペクト助字と対応するばかりでなく,結果補助語,趨向補助語と対応する場合がある\cite{Cho1985}.しかし,前述のように,機械翻訳の立場から見れば,結果補助語や趨向補助語は述語部分に対応する訳語の一部として辞書に記載され,既に訳出されていると考えられる.例えば,次の例の訳文中の趨向補助語「出来」は述語「整理/とりまとめる」と一緒に訳出される.\\例文:残された外来語の表記の見直しについては62年1月以来,審議を続け,委員会試案として\underlines{とりまとめた}.訳文:剩下的外来\kanji{019}\kanji{020}写法的修\kanji{021}工作,自一九八七年一月以来,\kanji{002}多次\kanji{022}\kanji{023},才作\kanji{024}委\kanji{025}会的\kanji{026}行方案\underlines{整理\underline{出来}}.\\従って,以下では「タ」に「了」を対応させて訳出すべきか否かを中心に,「タ」と「了/\kanji{001}」などのアスペクト助字との対応について考察する.以下では,いくつかの構文的特徴から「了」の使用,不使用を決められる場合と,動詞の時間的性格から決められる場合とについて考察し,次いで全体をひとつのアルゴリズムにまとめる.\paragraph{(i)連体節の場合}日本語では連体節中の「タ」は,連体修飾される名詞に対する視点が修飾する事柄の前のものにあるのか後のものにあるのかという,相対的な時間関係を表す.\begin{enumerater}\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\itemアラスカへ行った次郎視点は``アラスカへ行った後''の次郎にある;\itemアラスカへ行く次郎視点は``アラスカへ行く前''の次郎にある.\end{enumerater}中国語では連体節と連体修飾される名詞を「的」でつないで表現するが,その際日本語のように時間的関係を表現することは必須ではない.すなわち,\maru{1}の場合「了」を使う表現「去\underlines{了}阿拉斯加的次郎」もあるが,「了」を使わない表現「去阿拉斯加的次郎」も許される.その場合に時間的な関係は文脈や常識から判断される.つまり動詞が連体節を作るとき,単に状態や属性を示すだけのものに変わり,時間性から解放される方向を辿る\cite{Cho1985}.従って我々のアルゴリズムでは連体節の「タ」は$\phi$と対応させることとした.ただし,形式名詞が連体修飾されている場合には,若干事情が異なる.「〜たことがある」,「〜たことがない」は経験を表す表現であるので,$\phi$でもまた「了」でもなく,「\kanji{001}」を対応させなければならない.「〜たことがある」は全体が連体節になる場合,例えば,「アラスカに行っ\underlines{たことがある}次郎はカナダにも行きたい.」は「去\underlines{\kanji{001}}阿拉斯加\underlines{的}次郎\kanji{027}想去加拿大.」のように,「\kanji{001}」を使う連体節と連体修飾名詞を「的」でつないだ文に訳される.「連体節+形式名詞」が完了を表す「もう/すでに」を伴うとき,「了1」を使う.形式名詞によって受け止められる連体節でこれら以外の場合は,述語がそのまま主語あるいは目的語になって「了」を使わない.従って,「タ」の対応は$\phi$とする.\begin{figure}[hbtp]\begin{center}\epsfile{file=figure/1.eps,width=135mm,height=28.5mm}\caption{連体節中の「タ」の翻訳}\label{fig:1}\end{center}\end{figure}\paragraph{(ii)否定表現の場合}中国語では「没有/没」で動作・作用の起こったことあるいは完了したことを否定する.変化の意味を含まない限り,「没有/没」は過去のことを表すと了解されるから,「了」を使う必要はない.また,「不」で性質・状態を否定する.性質,状態およびその否定は時間性と関係ないから,「没有/没」と同じように変化の意味を含まない限り,「了」を使わない.「没有/没」と「不」を伴うとき,事態の変化の意味を含むなら,「了2」を使う(ivの\maru{2}参照).しかし,変化の意味を含むか否かの判別については,日本語側の「形容動詞+でなくなった(静かでなくなった)」,「形容詞+なくなった(明るくなくなった)」,「名詞+でなくなった(子供でなくなった)」,「動詞+なくなった(食べなくなった)」の場合を変化の意味を含むとし,その他の場合については判別できていない.\begin{figure}[hbtp]\begin{center}\epsfile{file=figure/2.eps,width=127.2mm,height=26mm}\caption{否定表現と「タ」の翻訳}\label{fig:2}\end{center}\end{figure}\paragraph{(iii)文法的特徴から「了」を使わないと判断できるその他の場合}以上の他,日本語では「タ」を使うが対応する中国語では「了」を使わない場合として,次のような場合が観察される\cite{Ryu1996}.\begin{enumerater}\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\item介詞フレーズ補助語を伴う場合.介詞フレーズ(介詞「于/自/向」+名詞)は動詞の後ろに用いられて補助語になる.これを介詞フレーズ補助語と呼ぶ.介詞フレーズ補助語は単に状況を紹介するためだけの表現である.中国語で,このような介詞フレーズ補助語を伴っている文では介詞「向」以外の場合は「了」を用いてはいけない.例えば,「他一九〇七年生\underlines{于}北海道旭川町.」/「彼は明治40年,北海道・旭川町に生まれ\underlines{た}.」において「了」を使ってはいけない.「向」の場合には,直後に完了を表す「了1」を使っても使わなくても同じ意味(状況を紹介する)を表す.例えば,「他把目光\kanji{017}\,\underlines{向}我.」と「他把目光\kanji{017}\,\underlines{向了}我.」/「彼は視線を私に転じた.」において,「了1」を使っても使わなくても同じ「視線を転じた」ことを表す.以上のことから,本アルゴリズムでは介詞フレーズ補助語を伴う場合,「了」を使わないとした.\item「是…的.」構文の場合.中国語「是…的.」構文は二つの機能がある.一つは述語の動作が過去においてすでに完了したことを表すが,述べようとする重点は動作自体にあるのではなく,動作の時間や場所,やり方,条件,目的,対象,仕手,動作に関係する何らかの側面にある.この場合すでに完了したことであっても「了」を使わない.例えば,「我\kanji{028}\,\underlines{是}坐\kanji{029}\kanji{030}去\underlines{的}.」/「私達は電車に乗って行ったのです.」では動作「行く」に関するやり方の側面である「電車に乗って」を重点として述べている.もう一つの機能は主に話者の見方や見解,態度を表す機能である.このような話者の判断を表現する場合,専ら完了を表す「已\kanji{002}」(「すでに」の意味)を伴わない限り,「了」を使わない.例えば,「\kanji{006}个\kanji{031}\kanji{032},我\kanji{028}\,\underlines{是}很注意\underlines{的}.」/「この問題に関して,我々は関心をいだいた.」には「了」を使わない.「已\kanji{002}」がある場合には「我\kanji{028}已\kanji{002}是注意到\kanji{006}个\kanji{031}\kanji{032}了的.」のように「了」を使う(この場合日本語では「我々はこの問題にすでに関心をいだいていた.」のように「ていた」が使われる).これらのことから,本アルゴリズムでは,「是…的.」構文においては,副詞「已\kanji{002}」を伴っているとき以外,「了」を使わないとした.\item述語が結果補助語あるいは趨向補助語を伴っている場合.この場合は,補助語によってアスペクトが表現されており,「了」と共存してもしなくてもよい.例えば,「\kanji{037}\kanji{038}的地\kanji{033}情况\kanji{034}修\kanji{035}\kanji{018}\,\underlines{来}了困\kanji{036}.」/「複雑な地質の状況が橋工事に困難をもたらした.」には,「了」を使っても使わなくてもよい(「来」$\in$趨向補助語).本アルゴリズムでは,明確に変化の意味を含んでいると判断される場合以外は,「了」を使わないとした.変化の意味を含むか否かについてはivの\maru{2}と同様に判断する.\end{enumerater}\paragraph{(iv)文法的特徴から「了」を使うと判断できるその他の場合}逆に以下の場合には,完了或いは変化の意味を表すと判断できるので,「了」を使わなければならない.\begin{enumerater}\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\item日本語の文で,もっぱら完了を表す「もう」・「すでに」を伴っている場合.\item日本語の文で,変化あるいは完了を表す「になった」/「なった」を伴っている場合.この場合,述語が目的語を伴う時,完了を表す「了1」,伴わなければ,変化を表す「了2」とする.\\例文:彼は勤勉によって実業家\underlines{になった}.\\訳文:他通\kanji{001}努力成\underlines{了}一个\kanji{039}\kanji{040}家.\item日本語の従属文が「したら」であり,主文が「タ」である場合.このような文は,過去に実際には起こらなかったことを起こりえたこととして主張している.主文の「タ」形に対して主文の中国語の訳では変化が起ころうとしている語気を表す,「了2」を使う.\\例文:もし君が昨年まじめに勉強しなかっ\underlines{\underline{たら}},今この大学の学生でいられなかっ\underlines{た}ろう.\\訳文:如果\kanji{041}去年没\kanji{042}真地学\kanji{043},\kanji{016}在就不是\kanji{006}个大学的学生\underlines{了}.\item日本語の文末が「〜てしまった」である場合.状況が好ましいものでない「〜てしまった」は行為・状態の実現を明示する「了2」と対応する.\\例文:誕生日におばのくれた指輪を昨日なくし\underlines{てしまった}.\\訳文:生日那天姑母\kanji{034}我的戒指昨天\kanji{044}\,\underlines{了}.\item中国語の文が数量補助語を伴っている場合.この場合,すでに到達した数量,または完了までの持続時間を表す.例えば,「\kanji{014}\,\underlines{了}\,\kanji{045}天会.」/「2日間会議を開い\underlines{た}.」には会議が終わるまでの持続時間(2日間)を表す.述語の直後,数量補助語の前に「了1」あるいは「\kanji{001}」を使う可能性があるが,「了1」で「\kanji{001}」を代用しても到達した数量,または完了までの持続時間を同様に表現できるから,本アルゴリズムでは「了1」を使うとした.\end{enumerater}\paragraph{(v)述語の時間的性格からの「了」の使用/不使用の判断}\begin{enumerater}\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\item一般に静態動詞は状態や性質を表し,時間性と関係ないため「了」を使わない.\item引用を表す動態動詞の場合.引用表現の重点が動作の完了に置かれるならば「了」を取らないこともないが,たいていの場合には表現の重点は引用された内容の紹介,描写に置かれているのであって,引用の媒介である動作が完了したか否かに関係なく,「了」は使わない\cite{Cho1985}.本アルゴリズムでは,この場合も「了」を使わないとした.なお,引用を表す動詞(「\kanji{046}…」/「…」と話した,「以\kanji{024}…」/「…」と思った,「倡\kanji{023}…」/「…」と提唱したなど)については,辞書に引用を表す動態動詞であるという属性が付与されているものとする.\item残った動態動詞と結果動詞の場合には,「タ」を過去あるいは完了を表す「了1」に対応させる.\\\end{enumerater}表2は,以上の考察をアルゴリズムの形にまとめたものである.表中の処理1〜13は文法特徴による個別的・特殊的な判別条件,処理14〜16は(v)の中国語述語の時間的性格による一般的な判別条件である.この処理順は,前述の(i)〜(v)の考察をより個別的・特殊的な条件を先に調べるという原則で並べたものである.ただし,以下の``[...]''中の処理は順序に関係がない.\begin{center}1→2→3→[4,5,6]→7→[8,9]→[10,11]→[12,13]→[14,15]→16\\$\longleftarrow$特殊性が強い一般性が強い$\longrightarrow$\end{center}$\phi$は「了」を使わないという意味である.また,(日)は日本語に関する条件であること,(中)は中国語に関する条件であることを表している.\begin{table}[htbp]\label{HYO2}\caption{「タ」形の翻訳を決める手順}\begin{center}\def\arraystretch{}\begin{tabular}{|c|l|c|}\hline処理順&\multicolumn{1}{|c|}{判別条件}&処理\\\hline\hline1&(日)「〜たことがある/ない」&[\kanji{001}]\\\hline2&(日)連体節(「連体節+形式名詞」を除く)&$\phi$\\\hline3&(日)「もう」・「すでに」を伴う時&[了1]\\\hline4&(日)「連体節+形式名詞」の場合&$\phi$\\\hline5&(中)「是…的.」構文&$\phi$\\\hline6&(中)介詞フレーズ補助語を伴う&$\phi$\\\hline7&(日)「になった」/「なった」:(中)目的語を伴う時&[了1]\\\hline8&(日)「になった」/「なった」&[了2]\\\hline9&(日)従属文が「したら」である場合,主文のタ形&[了2]\\\hline10&(中)否定&$\phi$\\\hline11&(中)趨向・結果補助語がある場合&$\phi$\\\hline12&(中)数量補助語を伴う場合&[了1]\\\hline13&(日)「〜しまった」の場合&[了1]\\\hline14&(中)静態動詞(述語性格で判別する.以下同様)&$\phi$\\\hline15&(中)引用を表す動態動詞&$\phi$\\\hline16&(中)動態動詞・結果動詞&[了1]\\\hline\end{tabular}\end{center}\end{table}\subsection{「テイル/テイタ」の翻訳アルゴリズム}日本語で「テイル/テイタ」が使われている場合に,中国語への翻訳としては2.1節で述べた「テイル/テイタ」の意味用法に概ね対応して,「了」,「着」,「在」などのアスペクト助字を使う,あるいはこれらのどれも使わない($\phi$).これらの使い分けは,主として中国語の述語を中心とする事情によるものであり,日本語の側での意味解析・意味分類によるよりも,主として中国語側の状況に依存して使い分けるほうが合理的であり,有利である.以下では主として中国語側の構文的特徴と動詞の時間的性格から,これらのアスペクト助字を使用する場合について考察し,次いで全体をひとつのアルゴリズムにまとめた.\paragraph{A.$\phi$とする場合}\begin{enumerater}\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\item日本語で習慣を表す,あるいは動作が繰り返し行われる「毎〜」や「たいてい」を伴う場合.この場合は,進行中と見なされ,中国語では「在」を使うか,あるいはアスペクト助字のどれも使わない.例えば,「父は最近毎朝走っている.」に対しては「父\kanji{047}最近\kanji{048}天早晨\underlines{在}\,\kanji{049}\kanji{241}.」と「父\kanji{047}最近\kanji{048}天早晨\kanji{049}\kanji{241}.」はどちらでも繰り返して「走る」ことを表すが,本アルゴリズムで「在」を使わない,つまり$\phi$とする.\item述語が中国語の静態動詞に訳される場合.静態動詞は状態や性質を表し,時間性と関係ないため,アスペクト助字のどれも使わない.例えば,次の例の訳文中の「\kanji{050}次\kanji{052}比」は形容詞(静態動詞)であり,アスペクト助字のどれも使わない.\\例文:(裏寺町通は)わずか500メートルほどの通りだが,16の寺が軒を\underlines{連ねている}.\\訳文:(里寺町街)\kanji{053}不\kanji{001}五百米,却有十六座寺院\underlines{\kanji{050}次\kanji{052}比}.\item述語が中国語に訳すとき名詞化される場合.この場合には時間性が失われるため,$\phi$にする.例えば,次の例文で日本語の連体修飾「述語+形式名詞(の)」は,訳文で「的」によって名詞化されて主文の主語になり,アスペクト助字のどれも使わない.\\例文:一方,\underlines{折り詰め宅配弁当と銘打って展開をしている}のは,24時間営業の「KAKIEMON」.\\訳文:与此同\kanji{055},\underlines{以``送木制盒\kanji{054}''\kanji{024}名\kanji{014}展(\kanji{040}\kanji{056})的}有昼夜二十四小\kanji{055}\kanji{057}\kanji{040}的``柿\kanji{058}\kanji{059}''.\item「タ」形の翻訳アルゴリズムと同じ理由で介詞フレーズ補助語を伴う((iii)の\maru{1})場合,および「是…的」構文である((iii)の\maru{2})場合,$\phi$にする.例えば,次の例の訳文では「是…的」構文が使われているので,アスペクト助字のどれも使わない.\\例文:非信者の教会挙式について,結婚式相談会社社長でクリスチャンでもある比留間宗生氏によれば,教会としては布教活動の一環と\underlines{とらえている}という.\\訳文:\kanji{060}于非教徒到教堂\kanji{061}行婚礼一事,据婚礼咨\kanji{062}公司\kanji{063}\kanji{002}理比留\kanji{064}宗生(基督教徒)\kanji{046},教会\underlines{\underline{是}}把它\underlines{当作}一件\kanji{066}教工作来\kanji{067}待\underlines{\underline{的}}.\item結果補助語あるいは趨向補助語を伴う動作行為動詞である場合.この場合,「タ」形の翻訳アルゴリズムと同じ理由((iii)の\maru{3})で,補助語がすでに時間性を表しているため,$\phi$にする.\\例文:ゆうべ私たちは11時まで話し\underlines{ていた}.\\訳文:昨天\kanji{272}上我\kanji{028}\kanji{068}\,\underlines{到}十一点\kanji{069}.(到$\in$結果補助語)\end{enumerater}\paragraph{B.「着」とする場合}中国語での動作状態動詞は動詞の主体が動作の終わった瞬間の姿をそのまま維持していくことを表す.「テイル/テイタ」に接する述語が動作状態動詞に訳される場合は,以前の動作・作用の結果が現在に残っていることを表す,つまりその動作・作用の持続を表すため,「着」を使う.例えば,「彼は帽子をかぶっ\underlines{ている}.」あるいは「彼は帽子をかぶっ\underlines{ていた}.」に対して「他戴\underlines{着}帽子.」の「戴」は動作状態動詞であり,直後に「着」が使われる.\paragraph{C.「了」とする場合}\begin{enumerater}\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\item述語が数量補助語を伴う場合.「タ」形の翻訳アルゴリズムと同じ理由((ivの\maru{5}))で,「了1」を使う.例えば,次の例文の訳文に,述語「快」が数量補助語「十分\kanji{069}」を伴って,その間に「了1」を使う.\\例文:ぼくの時計は10分進ん\underlines{でいます}.\\訳文:我的表快\underlines{了}十分\kanji{069}.\item述語が結果動詞である場合.中国語での結果動詞は完了したあるいは変化した結果を表す.この場合,目的語を伴う時,完了の意味を表す「了1」を使う;目的語を伴わない結果動詞では,変化の意味を表す場合「了2」を使う.\\例文:平安神宮,吉田神社周辺などでは高層建築や底地買いに反対する市民運動が\underlines{起きている}\,.\\訳文:在平安神\kanji{070}和吉田神社等\kanji{071}也\kanji{072}起\underlines{了}反\kanji{067}在其周\kanji{073}修建高\kanji{074}建筑或\kanji{075}置地\kanji{076}的市民\kanji{077}\kanji{078}.(「\kanji{072}起」$\in$結果動詞)\end{enumerater}\paragraph{D.「在」とする場合}A〜Cの記述に含まれていないケースは動作状態動詞を除く動態動詞である(動作行為動詞と心理活動動詞).この二種の動態動詞に訳す場合,動作の進行中を表すと判断できるので,「在」を使うことにする.\\例文:同じ情報を定期的,広域に提供する媒体のひとつとして成長を\underlines{続けている}.\\訳文:它作\kanji{024}一\kanji{079}定期向广泛地区提供同\kanji{080}信息的媒体,\underlines{在}持\kanji{081}\kanji{072}旺\kanji{015}\kanji{082}.(「持\kanji{081}」$\in$動作行為動詞)\\以上のことから,中国語述語の時間性格分類と「テイル/タイタ」とアスペクト助辞との一般的な対応関係は図3のように整理される.\begin{figure}[hbtp]\begin{center}\epsfile{file=figure/3.eps,width=119mm,height=38.1mm}\caption{中国語述語の時間性格分類と「テイル/テイタ」の翻訳}\label{fig:3}\end{center}\end{figure}なお,「シテイル」と「シテイタ」は中国語に翻訳するとほとんどの場合区別はなくなる.これは,日本語では「シテイル」と「シテイタ」で非過去・過去の対立が表現されるが,中国語では時間副詞,結果・趨向補助語などで表現される場合が多い.実際,「シテイル」形の過去形「シテイタ」形に対して,新聞記事150文を調査した結果,「ていた」を「ている」に入れ替えても,以下の二文以外は中国語訳語が同じでよいことが確認できた.\begin{enumerate}\item松下幸之助さんは,大阪電灯で屋内配線工事の手車をひいて働いていた.\itemフランスではショコラ,ドイツではショコラーデ,アメリカではチョコレート,日本では昔,長康霊糖,猪口令糖などの当て字を使っていた.\end{enumerate}この二つの文は「シテイタ」形が過去の事象を表し,中国語では経験を表す「\kanji{001}」に対応させるのが自然である.「シテイル」形に変えると,進行中の意味を表し,中国語では(1)に対しては$\phi$を,(2)に対しては「在」を対応させるのが自然である.(2)に関しては,中国語での違いはニュアンスの違いといってもよいが,(1)の違いは区別すべきであろう.我々のアルゴリズムでは,(1)の場合のみこの区別を考慮し(表3の12),(2)の場合およびその他の場合は中国語ではこのような区別を表現しないとして,同一視することとした.つまり,「学\kanji{043}」,「工作」,「\kanji{083}\kanji{078}」などの持続性を持つ動作行為動詞であるとき,「〜ている」であれば$\phi$にする;「〜ていた」であれば「\kanji{001}」にする.表3は,以上の考察をアルゴリズムの形にまとめたものである.\begin{table}[htbp]\label{HYO3}\caption{「テイル/テイタ」形の翻訳を決める手順}\begin{center}\def\arraystretch{}\begin{tabular}{|c|l|c|}\hline処理順&\multicolumn{1}{|c|}{判別条件}&処理\\\hline\hline1&(日)「毎〜」,「たいてい」(習慣を表す)&$\phi$\\\hline2&(中)数量補助語を伴う&[了1]\\\hline3&(中)「是…的.」文&$\phi$\\\hline4&(中)介詞フレーズ補助語を伴う&$\phi$\\\hline5&(中)静態動詞&$\phi$\\\hline6&(中)動作状態動詞&[着]\\\hline7&(中)結果動詞:目的語ある場合&[了1]\\\hline8&(中)結果動詞:目的語ない場合&[了2]\\\hline9&(中)動態動詞:述語が名詞句(主語,目的語)になる時&$\phi$\\\hline10&(中)動作行為動詞:結果・趨向補助語を伴う&$\phi$\\\hline11&(日)「〜ている」:(中)持続性を持つ動作行為動詞&$\phi$\\\hline12&(日)「〜ていた」:(中)持続性を持つ動作行為動詞&[\kanji{001}]\\\hline13&(中)動態動詞:他&[在]\\\hline\end{tabular}\end{center}\end{table}表3で,処理1〜4は文法特徴による特殊的な判別条件,処理5~13は中国語述語の時間的性格による一般的な判別条件である.ただし,``[...]''中の処理は順序に関係がない.\begin{center}1→2→[3,4]→[5,6,7,8]→9→[10,11,12]→13\\$\longleftarrow$特殊性が強い一般性が強い$\longrightarrow$\end{center}\subsection{「ル」形を「了」に訳す場合の判断}日本語の基本形「ル」は現在・未来または習慣を表すので,一般には$\phi$に対応し,過去・完了を表す「了」とは対応しない.しかし,日本語の「ル」形が事態の変化を表現する場合は中国語の「了」を対応させなければならない.以下にそれらの場合を考察する.日本語で「(形容詞)なる」,「(形容動詞)になる」,「(名詞)になる」などいわゆる「なる」系の表現は変化の意味を表すので,中国語では「了」を使う(ただし,「気になる」,「こうなる」などの慣用節を除く).このほか,中国語側が以下のようである場合にも,変化または完了の意味を表すことになるから,「了」を使う.\begin{enumerater}\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\item時間副詞「已\kanji{002}」(すでに,もはや,もう)を伴う時,動作や変化が完了し,またはある程度に達していることを表す(呂1980).\\例文:いちいち訳語を作っていては,\underlines{もう間に合わない}のかも知れません.\\訳文:也\kanji{084}是因\kanji{024}\kanji{067}\kanji{048}一个新\kanji{085}都去\kanji{051}造\kanji{086}\kanji{085}\,\underlines{已\kanji{002}来不及了}.\item副詞「就」+形容詞である時,状態の変化を表す.\\例文:大手の広告代理店が1番や2番を引き当てると,中小の広告代理店への影響が\underlines{大きい}\,.\\訳文:大广告代理店一旦抓到1号,2号,\kanji{067}中小广告代理店的影\kanji{087}\,\underlines{就大了}.\item程度副詞「太」+形容詞である時,程度が高いあるいは過ぎるという話者の気持ち(語気)を表す.\\例文:とにかく大学の数が\underlines{多すぎる}.\\訳文:\kanji{063}之,大学\underlines{太多了}.\item副詞「一下子」を使う時,話者が短い時間に変化または完了したことを表す.\\例文:昭和40年代に始まったマンガブームは昭和50年代にはテレビや映画も巻き込んで\underlines{ぱっと広がる}.\\訳文:从昭和40年代\kanji{014}始的漫画\kanji{088}潮,到昭和50年代把\kanji{029}\kanji{003},\kanji{029}影都卷了\kanji{090}来,\underlines{一下子\kanji{091}展\kanji{014}了}.\item動詞「成」+名詞目的語である時,事柄の変化または完了を表す.\\例文:輸入ものを養殖池に入れ,日本の水を吸わせれば堂々の\underlines{日本産だ}.\\訳文:将\kanji{090}口\kanji{093}\kanji{094}放\kanji{090}\kanji{095}\kanji{094}池内,\kanji{096}它\kanji{028}吸\kanji{092}日本的水,\kanji{006}\kanji{080}便\underlines{成了}堂堂的\underlines{日本\kanji{097}}.\item動詞「\kanji{232}」+形容詞である時,変化の意味を表す.\\例文:今年も,春闘では,労働時間の短縮が大きな目標に掲げられているが,時短が\underlines{進む}.\\訳文:今年的``春斗''仍将\kanji{098}短\kanji{083}\kanji{078}\kanji{055}\kanji{064}作\kanji{024}一大目\kanji{099}提出,但\kanji{083}\kanji{078}\kanji{055}\kanji{064}\,\underlines{\kanji{232}短了}.\\\end{enumerater}以上の条件はすべて論理ORの関係であるから,判断の順番は関係しない.ただし,これらの条件は二つ以上が共存する場合では,完了を表す「了1」を対応させるか,変化を表す「了2」を対応させるかに関しては,判断条件の順番が影響する.本論文では,三つ以上が共存することは無いと考え,二つが共存する場合についてこれらの場合を二つずつ比較し,三角表で優先順位を考察した(図4).「了1/了2」の使用判断に影響するのが強いほうを表中に書く.「×」は不可能な組み合わせ,Nは名詞目的語,Aは形容詞である.優先順位は表4に処理順序で示す.\\\begin{figure}[hbtp]\begin{center}\epsfile{file=figure/4.eps,width=140mm,height=40mm}\caption{「ル」形で「了」を使う判断条件の優先順位の考察}\label{fig:4}\end{center}\end{figure}以上の考察をまとめ,「ル」形を「了」に訳す判定アルゴリズムを作成した(表4).この中で,副詞「一下子」がある場合,動詞「成」+名詞目的語の場合,副詞「已\kanji{002}」がある場合は,計算機処理のため,「了1」にしたが,「了2」にしてもかまわない.これらの条件を満たさないなら,他の「ル」形は$\phi$とする.\begin{table}[htbp]\label{HYO4}\caption{「ル」→「了」の翻訳を決める手順}\begin{center}\def\arraystretch{}\begin{tabular}{|c|l|c|c|}\hline処理順序&\multicolumn{1}{|c|}{判別条件}&処理&「了」意味用法\\\hline\hline&(中)副詞「一下子」がある場合&「了1」&完了・変化\\\cline{2-2}\cline{3-3}\cline{4-4}\raisebox{0.5\normalbaselineskip}[0pt][0pt]{1}&(中)副詞「太」+形容詞の場合&「了2」&語気\\\hline&(中)動詞「成」+名詞目的語の場合&「了1」&完了・変化\\\cline{2-2}\cline{3-3}\cline{4-4}2&(中)動詞「\kanji{232}」+形容詞の場合&「了2」&変化\\\cline{2-2}\cline{3-3}\cline{4-4}&(中)副詞「就」+形容詞の場合&「了2」&変化\\\hline3&(中)副詞「已\kanji{002}」がある場合&「了1」&完了・変化\\\hline4&(日)「なる」系&「了2」&変化\\\hline\end{tabular}\end{center}\end{table} \section{評価} \subsection{評価資料}「日本報刊選読(日中文対照)」(蘇1995){1989年〜1993年の「読売新聞」,「朝日新聞」,「毎日新聞」などに載った46新聞記事の日中対訳集}中の1412文を対象として,各文の述語に対して第3章のアルゴリズムを手作業で評価した.\subsection{評価結果}評価した結果を表5に示す.\begin{table}[htbp]\label{HYO5}\caption{評価結果}\begin{center}\def\arraystretch{}\begin{tabular}{|c|c|c|c|c|c|}\hline翻訳アルゴリズム&評価文数&A:一致文数&B:容認文数&A+B:正解文数&誤った文数\\\hline\hline「タ」形&432&335(77.5\,\%)&49&384(88.9\,\%)&48\\\hline「テイル」形&248&186(75.0\,\%)&33&219(88.3\,\%)&29\\\hline「ル」形&732&596(81.4\,\%)&35&631(86.2\,\%)&101\\\hline\end{tabular}\end{center}\end{table}ここで一致文数は,アルゴリズムの結果と「日本報刊選読」の中国語訳文に使われている「了」,「着」,「在」,$\phi$とが一致した文の数である.Bは,一致はしていないが,機械翻訳としては意味的に大きな問題はなく正解と考えてもよいと筆者が判断した文の数である.正解文数はこの二つを加えたものである.\subsection{誤り分析}\paragraph{(1)「タ」形の翻訳アルゴリズムの誤り分析}「タ」形の翻訳では48文の誤りがあった.以下にそられの誤り分析を行う.\paragraph{A.事態変化を表すときの問題(3/48)}\\文1:仮にこれらの問題が新実験線で解決され,実用化の\underlines{メドがついた}としても,総額数兆円の規模にのぼる``中央リニア新幹線''の財源を,どこがどう負担するのか.\\訳文:即使\kanji{006}些\kanji{031}\kanji{032}通\kanji{001}新\kanji{039}\kanji{100}\kanji{101}而得到解决,从而\kanji{039}用化\kanji{031}\kanji{032}\,\underlines{有了\kanji{102}\kanji{103}},\kanji{063}金\kanji{104}\kanji{082}数万\kanji{105}日元的``中央里尼\kanji{106}新干\kanji{101}''建\kanji{107}\kanji{002}\kanji{108}又由\kanji{109}里,如何来承担\kanji{007}?\\誤り訳:即使\kanji{006}些\kanji{031}\kanji{032}通\kanji{001}新\kanji{039}\kanji{100}\kanji{101}而得到解决,从而\kanji{039}用化\kanji{031}\kanji{032}\,\underlines{有\kanji{102}\kanji{103}},\kanji{063}金\kanji{104}…\\文2:吉田英司店長は,「カラオケは,女性にも娯楽の一つとして\underlines{定着しました}.\\訳文:店\kanji{053}吉田英司\kanji{046}:``\kanji{265}拉OK也\underlines{成\kanji{024}}\,\kanji{110}女\kanji{028}的一\kanji{079}\kanji{111}\kanji{112}\,\underlines{了}.\\誤り訳:店\kanji{053}吉田英司\kanji{046}:``\kanji{265}拉OK也\underlines{成\kanji{024}}\,\kanji{110}女\kanji{028}的一\kanji{079}\kanji{111}\kanji{112}.\\\\\hako{分析}:中国語静態動詞(存在動詞)「有(…\kanji{102}\kanji{103})」と静態動詞(属性動詞)「成\kanji{024}」に対して,アルゴリズムでは「了」を使わないという判断になる.しかし,これらの文は事態変化の意味を表しており,「了」が必要である.\paragraph{B.日本語連体節の問題(9/48)}\\文3:シャワーからたっぷり湯の出るOLの「朝シャン」風景に対し,東京都が自粛を\underlines{求めた}結果だった.\\訳文:(\kanji{006}部广告片)是女\kanji{065}\kanji{025}在\kanji{113}\kanji{113}地\kanji{114}着\kanji{088}水的淋浴器下``朝香''的\kanji{115}\kanji{102},\kanji{067}此\kanji{116}京都政府\underlines{提出了}自我\kanji{117}束的要求.\\誤り訳:…\kanji{067}此\kanji{116}京都政府\underlines{提出}自我\kanji{117}束的要求.\\\\\hako{分析}:アルゴリズムでは日本語の連体節は中国語でも連体節に翻訳されるものと考え,従って「了」を使わないとしている.しかし,これらの誤ったケースでは連体節に翻訳されない.(「選読」では連体節に翻訳されていない.また,連体節に翻訳しようとすると不自然になる.)\paragraph{C.日本語「〜なった」の問題(10/48)}\\文4:「\underlines{苦しくなった}」理由としては65.5\,\%が「家計にゆとりがなくなった」を挙げている.\\訳文:65.5\,\%的人提出``\underlines{不好\kanji{001}}''的原因是``家庭收支\underlines{不\kanji{119}裕}''.\\誤り訳:65.5\,\%的人提出``\underlines{不好\kanji{001}了}''的原因是``家庭收支\underlines{不\kanji{119}裕了}''.\\\\\hako{分析}:アルゴリズムでは日本語の「〜なった」の表現は変化を表すものと考えて「了1/2」を使うとしたが,この例のように中国語訳語では変化を表す意味を持たず,状態を表す場合があり,その場合には「了」は使われない.\paragraph{D.中国語「開始+V」の問題(6/48)}\\文5:給食指導のあり方を見直すため,今年から「中堅栄養職員研修会」を\underlines{スタートさせた}.\\訳文:\kanji{024}了改革供餐指\kanji{248}方\kanji{120},今年\underlines{\kanji{014}始}\,\kanji{061}\kanji{121}``中\kanji{122}\kanji{057}\kanji{095}\kanji{065}\kanji{025}研修会'',\kanji{026}\kanji{123}\kanji{124}少吃剩\kanji{016}象.\\誤り訳:…今年\underlines{\kanji{014}始了}\,\kanji{061}\kanji{121}``中\kanji{122}\kanji{057}\kanji{095}\kanji{065}\kanji{025}研修会'',\kanji{026}\kanji{123}\kanji{124}少吃剩\kanji{016}象.\\\\\hako{分析}:中国語の「\kanji{014}始」は動態動詞(動作行為動詞)であるが,後ろに動詞がくると「了」を使わない.「開始動詞」という新しい分類を追加した方がよい.\paragraph{E.他の問題(20/48)}\\文6:日本人は明治の近代化にあたって外国の思想などを紹介するのに,懸命になって漢字による日本語の訳語を\underlines{生みだしました}.\\訳文:日本人在明治\kanji{055}代\kanji{153}\kanji{016}代化\kanji{055},\kanji{024}了介\kanji{266}外国思想,都力求\underlines{\kanji{051}造}采用\kanji{125}字的日\kanji{126}\kanji{127}.\\誤り訳:…\kanji{024}了介\kanji{266}外国思想,都力求\underlines{\kanji{051}造了}采用\kanji{125}字的日\kanji{126}\kanji{127}.\\\\\hako{分析}:中国語「\kanji{051}造」は動態動詞であるが,副詞「力求」で修飾されると,過去に完了したことでも「了」を使わなくなる.\\\\文7:清水寺は境内隣接地のマンション建設を食い止めるため,10億円でその用地を\underlines{買い取った}\,.\\訳文:清水寺\kanji{024}了制止在\kanji{267}接的土地上修建公寓,花\kanji{108}10\kanji{105}日元将那\kanji{128}地皮\underlines{\kanji{010}了下来}.\\誤り訳:清水寺\kanji{010}了制止在\kanji{267}接的土地上修建公寓,花\kanji{108}10\kanji{105}日元将那\kanji{128}地皮\underlines{\kanji{010}下来}.\\\\\hako{分析}:アルゴリズムでは趨向補助語を伴う時は既にアスペクトが趨向補助語で表現されているので,「了」を使わないとしたが,この文では従属節が目的を表現しているので主節の動詞に「了1」を使わないと将来のテンスを表現することになる.\paragraph{(2)「テイル/テイタ」形の翻訳アルゴリズムの誤り分析}\paragraph{A.日本語「〜なっている/た」の問題(2/29)}\\文1:日本人がさらに\underlines{長生きになっている}ことが判明した.\\訳文:\kanji{129}\kanji{130}表明,日本人更加\underlines{\kanji{053}寿了}.\\誤り訳:\kanji{129}\kanji{130}表明,日本人更加\underlines{\kanji{053}寿}.\\\\\hako{分析}:中国語では形容詞(静態動詞)には一般に「了」を使わないが,変化の意味が付加されると「了」を使う場合がある.しかしアルゴリズムでは形容詞(静態動詞)に対しては,既定値として$\phi$と定めているのみで,「了」を使う場合の条件判断ができていない.\paragraph{B.他の問題(23/29)}\\文2:実は,銀行には国際化と自由化の荒波が\underlines{押し寄せている}.\\訳文:原来,国\kanji{131}化和自由化的\kanji{132}\kanji{132}浪潮\underlines{正}向\kanji{004}行\underlines{冲来}.\\誤り訳:原来,国\kanji{131}化和自由化的\kanji{132}\kanji{132}浪潮向\kanji{004}行\underlines{冲来了}.\\\\\hako{分析}:アルゴリズムでは中国語訳語が結果動詞であれば,結果の残存の意味を表すと考えて,「了」を使うことにしているが,結果動詞であっても進行中の意味を表す「正(在)」を使う場合がある.その条件判断ができていない.\paragraph{(3)「ル」形の翻訳アルゴリズムの誤り分析}\paragraph{A.副詞「就」がある場合の問題(7/101)}\\文1:「本を読んでいる」が32\,\%などの順で,(車内)混雑すればするほどポスターを見る傾向が\underlines{強い}.\\訳文:``看\kanji{020}''的占32\,\%,\kanji{030}里越\kanji{134},\kanji{135}于看广告的人\underlines{就}越多.\\誤り訳:``看\kanji{020}''的占32\,\%,\kanji{030}里越\kanji{134},\kanji{135}于看广告的人\underlines{就}越多\underlines{了}.\\\\\hako{分析}:「就」+形容詞の場合は変化の意味を表し,アルゴリズムでは「了2」を使うとした.しかし,文1で用いられている「越...越...」は動作または変化がますます深まった状態・性質を表すので「了」は使われない.\paragraph{B.「なる」系の問題(28/101)}\\文2:二つがいっしょになって大きな銀行となり,多くの預金を集め,多くの企業などに貸し出しすることができるので,利益は\underlines{多くなる}.\\訳文:\kanji{045}家并\kanji{024}一家大\kanji{004}行之后,由于可\kanji{270}加存款\kanji{104}和企\kanji{040}\kanji{097}款\kanji{104},所以利益\underlines{很大}.\\誤り訳:\kanji{045}家并\kanji{024}一家大\kanji{004}行之后,由于可\kanji{270}加存款\kanji{104}和企\kanji{040}\kanji{097}款\kanji{104},所以利益\underlines{很大了}.\\\\\hako{分析}:アルゴリズムでは日本語の「なる」系は変化の意味を表すので「了」を使うとした.しかし,この訳文の全体は利益の性質を表し,「了」を使わない.\paragraph{C.他の問題(66/101)}\\文3:(京都は)4年後に建都1200年を\underlines{迎える}.\\訳文:再\kanji{001}四年,京都就要迎接建都一千二百年\underlines{了}.\\誤り訳:再\kanji{001}四年,京都就要迎接建都一千二百年.\\\\\hako{分析}:表4以外の「ル」形はアルゴリズムで「了」を使わないとした.しかし,この文は未来に完了することを表し,「了」を使うものになる. \section{終わりに} 人間が「タ/ル/テイル/テイタ」を中国語アスペクト助字に翻訳する際には,文脈と述語自身の時間性格などの要素および諸要素間の優先関係などで総合的な意味を理解して判断する.本研究では,機械翻訳の立場から,表層の文法情報と述語の性格分類のデータをもとに計算機で中国語の訳語を定める手順について考察した.まず,両言語におけるテンス・アスペクトの性格・意味用法の研究成果を調査し,比較・整理を行って,意味用法間の対応関係について考察した.次に,両言語の文法特徴・共起情報,中国語述語の時間的性格を主な手がかりとして,「タ/ル/テイル/テイタ」と中国語アスペクト助字の対応関係を定めるアルゴリズムを作成した.最後に日中対訳文集を材料として,作成した翻訳アルゴリズムを手作業で評価した.評価実験の結果は,正解率は約八割であり,本稿で提案したテンス・アスペクトの翻訳処理手法の有効性が確認できた.さらに翻訳の精度が上がるようにアルゴリズムを整備することと,これらのアルゴリズムを我々の翻訳システム\cite{Imai2002,Imai2003}に組み込んでいくことが今後の課題である.\bibliographystyle{jnlpbbl}\bibliography{paper}\appendix\section*{評価資料に現れた中国語述語の時間的性格分類リスト}\paragraph{・動態動詞}\\\maru{1}動作行為動詞\\安排,委托,慰\kanji{031},影\kanji{087},往返,卸,加,加班,画,戒(烟),学,学\kanji{043},冠以,刊行,看,寄(信),寄宿,起(作用),吃,吸,供,叫,教,研究,糊口,公演,公布,工作,行\kanji{078},合并,采\kanji{136},参与,指\kanji{137},指\kanji{138},支援,施行,写,出差,出售,升,商量,唱,招待,照射,照搬,笑,上升,推广,睡\kanji{139},制作,征集,整理,接送,撰写,租借,操心,争\kanji{269},装,走,送,打(球),打\kanji{140},置\kanji{171},采取,着手,注意,注目,跳舞,追\kanji{271},提供,展望,努力,搭(\kanji{030}),等,答\kanji{037},宣\kanji{141},逃\kanji{049},播映,播放,波及,表示,表明,表\kanji{142},表\kanji{082},扶持,保持,募集,包\kanji{073},放映,翻\kanji{126},\kanji{144}\kanji{145},蔓延,面\kanji{146},利用,警告,命令,遭受,留学,倡\kanji{023},做,听,哭,喊,喘气,找,拿,撼\kanji{078},敲,靠,\kanji{061}(例),\kanji{061}行,\kanji{010},吻,\kanji{141}播,\kanji{147},\kanji{124},\kanji{051}造,\kanji{148}\kanji{046},\kanji{121},\kanji{121}理,\kanji{149},拍,\kanji{015}火,\kanji{015}展,\kanji{015}\kanji{225},\kanji{150}叫,\kanji{071}理,\kanji{039}行,\kanji{022}\kanji{023},\kanji{014},\kanji{014}始,\kanji{014}展,\kanji{014}列,\kanji{014}辟,\kanji{014}\kanji{015},\kanji{151}\kanji{129},\kanji{152}\kanji{038},\kanji{153},\kanji{154}示,\kanji{155}迎,\kanji{156}集,\kanji{157}算,\kanji{158},\kanji{159}透,\kanji{160},\kanji{161}正,\kanji{002}\kanji{162},\kanji{002}\kanji{057},\kanji{163},\kanji{164}定,\kanji{165}算,\kanji{042}可,\kanji{008}(\kanji{166}),\kanji{008}\kanji{009},\kanji{167}\kanji{031},\kanji{168},\kanji{084}\kanji{169},\kanji{107},\kanji{026},\kanji{046},\kanji{046}明,\kanji{046}\kanji{170},\kanji{145},\kanji{129}\kanji{130},\kanji{138}\kanji{171},\kanji{172}予,\kanji{090}行,\kanji{173}售,\kanji{031},\kanji{012}\kanji{117},\kanji{174}演,禁止,忠告,要求,邀\kanji{175},\kanji{175}求,\kanji{206}呼,持\kanji{081},称呼,假装,\kanji{176}\kanji{176}欲\kanji{026}\\\\\maru{2}動作状態動詞\\空,迎接,写,住,住宿,穿,停,保留,刮,挂,收,矗立,\kanji{118},吊,站,\kanji{095},\kanji{073},\kanji{014}\kanji{107},\kanji{178}\kanji{179},\kanji{180},\kanji{181}\kanji{182},\kanji{183},\kanji{184},\kanji{185}\kanji{186},\kanji{187}\\\\\maru{3}心理活動動詞\\回\kanji{011},考\kanji{188},肯定,自\kanji{042},想,打算,忘,体会,着想,同意,理解,了解,估\kanji{165},决定,\kanji{165}\kanji{177},\kanji{042}\kanji{189},\kanji{012}料\\\\\maru{4}移動動詞(趨向動詞)\\出去,出来,来,到,回,去\paragraph{・静態動詞}\\\maru{1}属性動詞\\(以…)\kanji{024}…,蔚然成\kanji{192},下下停停,居,共有,叫做,限于,高\kanji{082},合\kanji{165},作(作\kanji{024}),是,占,属,属于,成\kanji{024},定\kanji{024},当作,不同,不如,富有,包括,缺乏,\kanji{024},\kanji{082},\kanji{001},\kanji{193}先,\kanji{050}次\kanji{052}比,\kanji{194}名,笑\kanji{195}\kanji{195},停滞不前,用于,已婚,徘徊不前,\kanji{196}有尽有,不相上下,\kanji{112}不可支,默不作声,\kanji{135}于,\kanji{135}向,陷于,需要,蜂\kanji{013}而至,火上加油,可\kanji{003}一斑,冲突,\kanji{162}任,取而代之,\kanji{191}保\\\\\maru{2}存在動詞\\活,在,在于,在\kanji{200},不在,没有,有,有\kanji{060},\kanji{171}有,\kanji{018}有,\kanji{013}有\\\\\maru{3}心理状態動詞\\以期,以求,以\kanji{024},感到,感\kanji{072}趣,感\kanji{201},看待,喜\kanji{155},希望,后悔,熟悉,信任,相信,尊敬,担心,知道,佩服,\kanji{139}得,\kanji{042}\kanji{024}\\\\\maru{4}形容詞\\一致,快,快\kanji{112},活生生,活\kanji{176},吃\kanji{206},共同,激烈,固定,好,好\kanji{001},幸福,高,高\kanji{072},自由,寂静,弱,受\kanji{155}迎,准\kanji{202},小,少,深孚\kanji{203}望,水泄不通,成功,静,清楚,生机\kanji{204}然,先\kanji{090},争奇斗\kanji{205},相\kanji{196},多,大,担\kanji{206}受怕,超群出\kanji{203},低,泥\kanji{207},登峰造\kanji{208},突出,如火如荼,悲\kanji{209},漂亮,不安,不足,\kanji{210}用,普及,慢,猛烈,有限,来得及,沮\kanji{211},\kanji{273},\kanji{212}\kanji{039},\kanji{014}心,\kanji{072}隆,来不及,\kanji{213}具一格,\kanji{119}裕,\kanji{119}敞,\kanji{214}底,\kanji{154}眼,\kanji{154}著,\kanji{272},\kanji{088}烈,\kanji{191}定,\kanji{215}\kanji{178},\kanji{117}定俗成,\kanji{053}寿,\kanji{036},大\kanji{216}全\kanji{217}\paragraph{・結果動詞}\\\maru{1}「V+V」構造\\下降,下跌,采用,取得,到\kanji{082},招收,制定,接受,接\kanji{218},逃脱,听取,捐献,\kanji{270}加,\kanji{060}\kanji{219},\kanji{051}\kanji{121},\kanji{014}\kanji{121},\kanji{220}用,\kanji{221}制,\kanji{222}放,\kanji{270}\kanji{053}(zhang3)\\\\\maru{2}「V+Adj」構造\\延\kanji{053},加速,看破,固定,降低,湿透,推\kanji{014},睡着,打乱,提高,登高,腐\kanji{223},放\kanji{014},泡大,用尽,冲淡,站\kanji{191},\kanji{270}多,\kanji{270}大,\kanji{224}斜,\kanji{124}少,\kanji{091}大,\kanji{153}\kanji{226},\kanji{098}短,\kanji{046}服,弄\kanji{226},打碎\\\\\maru{3}「V+趨向補助語」構造\\引起,看出,叫\kanji{014},遇到,迎来,跨\kanji{090},使出,失去,写出,升起,伸出,推出,染上,前往,前来,超\kanji{001},跳入,提出,度\kanji{001},渡\kanji{001},逃出,撞上,播出,落下,留下,列入,冲来,剩下,售出,掀起,陷入,\kanji{271}上,追上,\kanji{072}起,跟上,\kanji{018}来,\kanji{227}出,\kanji{228}去,\kanji{229}出,\kanji{163}入,\kanji{096}出,逃出来,\kanji{129}往,\kanji{017}入,代之而起,\kanji{090}入,\kanji{230}出,\kanji{231}入\\\\\maru{4}瞬間変化動詞\\化成,改成,看到,看\kanji{003},受到,制成,造就,提到,得到,听\kanji{003},找到,抓住,抛\kanji{014},\kanji{141}到,\kanji{232}成,\kanji{118}掉,\kanji{234}住,\kanji{017}成,\kanji{017}\kanji{235},\kanji{082}到,去世,出\kanji{016},消\kanji{236},想到,停\kanji{121},突破,突\kanji{232},破\kanji{076},曝光,弄湿,冲走,\kanji{044},\kanji{237}死,\kanji{015}生,\kanji{236},\kanji{238}掉,\kanji{238}死,\kanji{229}束,\kanji{229}婚,\kanji{021}婚,咽气,死,死亡,自\kanji{239},成,形成,一\kanji{240}而光,一\kanji{241}登天,下\kanji{242},解决,回国,回\kanji{243},改任,改\kanji{245},外出,完成,幸免,合理化,坐\kanji{001}站,作(分析),自\kanji{239},辞\kanji{065},失常,出生,出版,升\kanji{246},倒\kanji{197},淘汰,到\kanji{082},得(病,\kanji{198}分),得救,\kanji{233}\kanji{209},\kanji{259},\kanji{027}\kanji{243},\kanji{264}成,\kanji{229}冰,\kanji{217}利,\kanji{199}\kanji{270},\kanji{015}行,\kanji{015}\kanji{016},\kanji{015}\kanji{247},\kanji{232},\kanji{248}致,\kanji{014}\kanji{178},\kanji{249}\kanji{040},淡化,中止,\kanji{164}范化,\kanji{250}生,\kanji{251}\kanji{030},翻番,迷路,猛\kanji{270},乱套,通\kanji{001},拒收,限制,借,集中,住院,出借,商定,承\kanji{042},招\kanji{252},尽力,成,晴,生,精疲力竭,相\kanji{189},停(\kanji{029}),定,表\kanji{016},分送,包括,包租,冷落,收走,缺席,\kanji{043}\kanji{253},\kanji{254}及,\kanji{255}水,\kanji{256}\kanji{108}(苦心),\kanji{003},\kanji{021}做,\kanji{107}立,\kanji{257}苦,\kanji{201}罪,\kanji{090},\kanji{090}京,\kanji{090}口,\kanji{258}\kanji{217},\kanji{053}(zhang3),\kanji{031}及,\kanji{012},定降,参加,新\kanji{107},霹,告\kanji{257}\newpage\begin{biography}\biotitle{略歴}\bioauthor{謝軍}{1993年中国瀋陽工業大学計算機学部卒.2000年岐阜大学大学院工学研究科電子情報工学専攻修士課程修了.工学修士.現在同大学院工学研究科電子情報システム工学専攻博士課程在学中.日中機械翻訳,中国語処理の研究に従事.情報処理学会学生会員.}\bioauthor{ト朝暉}{1991年中国広西大学外国語学部日本語科卒.2001年岐阜大学教育学研究科国語科教育専修修了.教育学修士.現在同大学工学研究科電子情報システム工学専攻後期課程に在学中.日中機械翻訳に興味を持つ.言語処理学会,情報処理学会各学生会員.}\bioauthor{池田尚志(正会員)}{1968年東大・教養・基礎科学科卒.同年工業技術院電子技術総合研究入所.制御部情報制御研究室,知能情報部自然言語研究室に所属.1991年岐阜大学工学部電子情報工学科教授.現在,同応用情報学科教授.工博.人工知能,自然言語処理の研究に従事.情報処理学会,電子情報通信学会,人工知能学会,言語処理学会,ACL,各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V07N05-04
\section{はじめに} label{sec:introduction}本稿では、人手で記述された文法及び統計情報を用いて日本語の係り受け関係を求める手法について述べる。特に、文法とヒューリスティクスにより文節の係り先の候補を絞った時に構成することができる新しいモデルを提案し、それにより高い係り受けの精度(文節正解率88.6$\%$)が得られることを示す。我々のグループでは、何らかの意味表現を構成できるような高機能な構文解析器を実現することを最終目標とし、HPSG\cite{PollardSag94}の枠組みに基づいた文法を作成している。現状では意味表現の構成こそできていないが、新聞や雑誌などの実世界の文章の殆どに対して構文木を出力できる、被覆率の高い日本語文法SLUNG\cite{Mitsuishi98}を開発した。しかしながら、文法的に可能な構造を列挙するだけでは、曖昧性が大きいため、実用に耐えない。また、今後の課題である意味構造の自動学習のためにも、曖昧性の解消が要求される。本研究では、文法を用いた構文解析の結果の曖昧性解消を目的として、文節単位の係り受け解析によって、最も可能性の高い統語構造を選択できるようにする。また、係り受け解析を行う際に文法を用いることが精度の向上に寄与している。係り受け解析は以下のような手順でなされる。\begin{itemize}\itemまず、文法SLUNGで構文解析し、各文節の係り先の候補を、文法が許す文節に絞る。\item文法により絞った係り先候補が4つ以上存在する場合、それを係り元から見て(1)最も近い文節、(2)二番目に近い文節、(3)最も遠い文節の3つに制限する。これは、上記の三文節のいずれかが正解となる場合が98.6$\%$を占めるという観察に基づいている。この制限により、以下で考える統計モデルにおいて、係り先の候補は常に3つ以下であるとみなせる\footnote{候補が1つの場合は、係り先をその文節に決定できるため、候補が2つまたは3つの時にのみ確率を計算する。}。\item係り元文節がそれぞれの候補に係る確率を、{\bf3つ組/4つ組モデル}を用いて求める。このモデルは、係り元の文節と、2つまたは3つの係り先候補の全てを同時に考慮するという特徴があり、最大エントロピー法\cite{Berger96}を用いて推定される。\item文法が出力するそれぞれの部分木(文節間の係り受けに相当する)に上記の統計値を割り当てて、最も高い優先度が割り当てられた文全体の構文木が選択される。\end{itemize}本研究で用いるモデルと他の研究でのモデルの違いについてであるが、従来の統計モデル\cite{Uchimoto99}\cite{Haruno98}\cite{Fujio99}では、係り元文節$i$・係り先文節$j$に対して、係り元文節の属性$\Phi_i$及び係り先文節の属性$\Psi_{i,j}$(係り元と係り先の文節間の属性を含む)を前件として、係り受けが成立する(Tが出力される)条件付き確率\begin{equation}P(i\rightarrowj)=P(\mbox{T}\mid\Phi_i,\Psi_{i,j})\label{equ:naive0}\end{equation}\refstepcounter{enums}を求めていた。これに対し、本研究で用いる3つ組/4つ組モデルでは、係り元文節$i$の候補$t_n$に関して、$i$の属性を$\Phi_i$、$t_k$及び$i$と$t_k$の文節間の属性を$\Psi_{i,t_k}$とするとき、$\Phi_i$と全ての$t_k$に対する$\Psi_{i,t_k}$を前件として、$n$番目の候補が選ばれる条件付き確率\begin{eqnarray}P(i\rightarrowt_n)=&P(n\mid\Phi_i,\Psi_{i,t_1},\Psi_{i,t_2})&(候補が2つのとき:n=1,2)\label{equ:triplet0}\refstepcounter{enums}\\P(i\rightarrowt_n)=&P(n\mid\Phi_i,\Psi_{i,t_1},\Psi_{i,t_2},\Psi_{i,t_3})&(候補が3つのとき:n=1,2,3)\label{equ:quadruplet0}\end{eqnarray}\refstepcounter{enums}を求める。上記の(\ref{equ:triplet0}),~(\ref{equ:quadruplet0})式をそれぞれ3つ組モデル・4つ組モデルと呼ぶ。なお、ここでの$n$番目の候補とは、表層文中で係り元から数えて$n$番目の文節ではなく、文法的に許される係り先のうち2つまたは3つに絞ったものの中で、係り元から$n$番目に近い文節である。\ref{sec:related}~節では、従来の統計方式の日本語係り受け解析に関する関連研究、本研究で用いる日本語文法、及び最大エントロピー法を紹介する。\ref{sec:ourmodel}~節では、上記で概観した我々の手法を順に詳しく述べる。\ref{sec:result}~節の実験結果で、対照実験の結果とともに3つ組/4つ組モデルの有効性を示す。そして、\ref{sec:observations}~節で、具体的なパラメータの観察や他研究との比較を行う。 \section{関連研究} label{sec:related}本節では、これまでに提案されてきた日本語構文解析のための統計的アプローチと、本研究で構文解析に用いる日本語文法SLUNG、及び確率モデルの推定に用いる最大エントロピー法を紹介する。\subsection{従来の統計的構文解析手法}\label{subsec:conventional}日本語の係り受け解析のための統計的手法として、様々なモデルが考案されており、次の2つに大別される。\begin{description}\item[生起確率を計算するモデル]文$s$が与えられた時に、ある構文木$T$が生起する条件付き確率を求める方法である。すなわち、次のような構文木$T$を選択する。\begin{equation}\mathop{\rmargmax}_TP(T|s)\end{equation}\refstepcounter{enums}\item[文中の係り受け確率の積をとるモデル]文節$i$と文節$j$が係り受け関係にある確率$P(i\rightarrowj)$を考え、式(\ref{equ:product})に示すような、文中にある全ての係り受けの積を最大化する係り受け関数$dep(i)$を求める方法である。\begin{equation}\mathop{\rmargmax}_{dep}\displaystyle{\prod_i}P(i\rightarrowdep(i))\label{equ:product}\end{equation}\refstepcounter{enums}\end{description}前者に属するものとして、確率文脈自由文法を用いたもの\cite{Mori98}や、確率一般化LR法を用いたもの\cite{Shirai98}などがある。これらは、数学的に妥当な確率を用いることができ、形態素解析など様々なレベルとの統合が容易であるという利点があるものの、現状では係り受け解析の精度は最高でも白井らの85〜86$\%$にとどまっている。一方、後者の手法は、比較的学習が容易なため、高い解析精度が得られる手法が多数提案されている。実際、最大87.9$\%$と、生起確率に基づくものよりも高い精度が報告されている\cite{Uchimoto99b}。本研究の手法もこのアプローチに基づいており、以下でいくつかの研究を紹介する。これらの手法及び本稿で提案する手法は、上記の$P(i\rightarrowj)$の求め方に違いがある。決定木を用いたモデル\cite{Haruno98}、最大エントロピー法を用いたモデル\cite{Uchimoto99}、距離確率と語彙確率を用いたモデル\cite{Fujio99}では、係り元文節$i$の品詞や語彙や読点の有無など、係り先文節$j$の品詞や語彙、そして二文節間の距離・読点や副助詞「は」の数などを属性として、ある属性を持った二文節が存在する時にそれが係り受け関係にある確率を二文節$i,j$間の係り受けのしやすさとしている。英語の統計的構文解析において二語間の距離が係り受けを決定する重要な要素となる\cite{Collins96}のと同様に、日本語の解析においても二文節間の距離が重要であるとされ、上記のモデルではいずれも文節間にある文節数を属性として用いている。これらのモデルでは、文節$i$と$j$以外の文節の情報は、文節間の距離などの属性を除いては反映されない。係り元・係り先とそのまわりの文節を考慮するモデル\cite{Uchimoto99b}では、係り元文節$i$の係り先文節$j$への係りやすさの計算に、$i$より右側にある全ての文節の情報を用いている。そのために、二文節間の関係を、「係る」「係らない」の二値ではなく、「越えて、遠くの文節に係る」「係る」「手前の文節に係る」の三値を出力するものとして学習する。そして、$i$が$j$に係る確率を、$i$が$i,j$間の文節を「越える」確率と$i$が$j$より右側の文節より「手前に係る」確率の積で補正する。これにより、ある種の文脈情報が取り扱えることになり、解析精度が\cite{Uchimoto99}より約$1\%$向上したことが報告されている。但し、このモデルでは、係り元文節がそれより右側にあるそれぞれの文節に「係る」か「越える」か「手前に係る」かを互いに独立であると仮定しなければならない。本研究で用いる3つ組/4つ組モデル\cite{Kanayama99}では、2つまたは3つの係り先候補の属性を同時に考慮できるため、文脈情報が扱えるうえ、さまざまな望ましい点がある。これに関しては本論文の\ref{sec:ourmodel}~節以降で詳しく解説する。\subsection{日本語文法SLUNG}\label{subsec:slung}本論文で提案する手法では、人手で書かれた文法で候補を絞ることが必須である。我々が用いるSLUNG\cite{Mitsuishi98}は、HPSG\cite{PollardSag94}の枠組みで記述された日本語文法であり、8つのスキーマと、48個の語彙項目テンプレート\footnote{主に自立語に対して、品詞毎に振る舞いを記述したもの。具体的な語彙は区別していない。}、105個の語彙項目\footnote{助詞や接尾辞などに対しては、それぞれの語に対して文法的性質が記述されている。}からなる。EDR日本語コーパス\cite{EDR}の文に対して98.4$\%$と、非常に高い被覆率(構文木を一つでも返した文の割合)を示している。文法自体は曖昧性解消の機構を持っていないため、SLUNGを用いて構文解析した場合、文法的に許される全ての構文木が出力される。本研究では、文節係り受けの統計モデルを用いることにより、出力された構文木から最も優先度の高いものを選び出すことができるようになる。\subsection{最大エントロピー法}\label{subsec:me}統計モデルの推定に、最大エントロピー法(ME法)\cite{Berger96}を用いる。ME法では、「学習コーパス中の履歴の特定の条件を満たし、かつ特定の出力値を得る場合」(素性)の頻度を得て、様々な素性に対するパラメータを、出力値の確率分布が最も一様分布に近づくように調整して求める。別の素性に対し、それぞれ満たす集合に重なりがあってもよく、抽象度の高い素性と低い素性を任意に混ぜることができるため、統計モデルを構築する際のデータスパースネスの問題を軽減できる。日本語係り受け解析でもME法は非常に有用で\cite{Uchimoto99}、品詞の情報だけでなく、頻度の高い単語に対しては語彙的情報も加えるといった柔軟な素性の追加が容易である。本稿での実験における精度は、単純な相対頻度で推定した3つ組/4つ組モデル\cite{Kanayama99}よりも約1.9$\%$向上しているが、その要因として、ME法を用いることで以前よりも多くの素性を追加できたことが挙げられる。 \section{本研究の手法} label{sec:ourmodel}本節では、「3つ組/4つ組モデル」を用いて係り受け解析をする手順を解説する。係り受け解析の全体の流れは図\ref{fig:flow}~のようになっている。3つ組/4つ組モデルの準備として、\ref{subsec:restrict}~節で述べる手法により、各文節の係り先候補を3つ以下に制限する。まず、文法を用いて、各文節の係り先として文法的に正しいものを列挙する。その中で係り元から一番近い文節・二番目に近い文節・最も遠い文節を選び出し、他を無視する。そして、係り先の候補の集合の中で、ある要素が係り先として選択される確率を、係り元文節と全ての係り先の候補の属性を同時に考慮するモデル(3つ組/4つ組モデル)で推定する。\ref{subsec:tripquad}~節では、モデルの特徴及び利点について述べる。最後に、上記のモデルを用いて文全体の最適な係り受けを選択する方法を、\ref{subsec:sentence}~節で解説する。\begin{figure}[t]\begin{center}\small\setlength{\unitlength}{.35mm}\begin{picture}(360,180)\put(0,160){\framebox(100,10){文}}\put(50,160){\vector(0,-1){20}}\put(0,130){\framebox(100,10){可能な全ての構文木}}\put(100,135){\vector(1,0){40}}\put(140,130){\framebox(100,10){各文節の係り先候補}}\put(160,130){\vector(0,-1){50}}\put(140,70){\framebox(100,10){各係り受けの確率}}\put(160,70){\vector(-4,-1){80}}\put(50,130){\vector(0,-1){80}}\put(0,40){\framebox(100,10){統計値付き構文木}}\put(50,40){\vector(0,-1){20}}\put(0,10){\framebox(100,10){最適な構文木}}\put(100,15){\vector(1,0){40}}\put(140,10){\framebox(100,10){最適な文節係り受け}}\put(50,145){\makebox(30,10){\shortstack{文法}}}\put(160,115){\makebox(70,10){\shortstack{最大3つの候補}}}\put(160,85){\makebox(60,20){\shortstack{\bf3つ組・\\\bf4つ組モデル}}}\put(260,120){\framebox(100,10){学習コーパス}}\put(310,100){\line(0,1){20}}\put(220,100){\line(1,0){90}}\put(220,100){\vector(0,-1){20}}\put(220,85){\makebox(80,10){\shortstack{ME法にて推定}}}\put(100,125){\makebox(40,10){\shortstack{変換}}}\put(100,5){\makebox(40,10){\shortstack{変換}}}\end{picture}\caption{係り受け解析の流れ}\label{fig:flow}\end{center}\end{figure}\subsection{準備:係り受け候補の制限}\label{subsec:restrict}\subsubsection{文法の利用}本システムでは、文を入力とし、JUMAN\cite{JUMAN}で形態素解析をした後、文法SLUNG\cite{Mitsuishi98}で構文解析する。SLUNGは、JUMANの形態素を解析の単位として、文法的に正しい全ての構文木を出力する。これを係り先候補の制限に使うために、それぞれの構文木中の部分木を、図~\ref{fig:transform}のようにして、文節単位の係り受け構造に帰着させる。部分木{\sfM}の左部分木{\sfL}、右部分木{\sfR}の最も右側にある語をそれぞれ$l$,$r$とし、それらが属する文節を$b(l)$,$b(r)$とするとき、$b(l)$は$b(r)$に係ることになる。一つの構文木は一つの係り受け構造に対応するが、可能な構文木が複数あるため、一つの係り元文節に対して、係り先候補となる文節が複数求まる。以下では、その候補の中から正しいものを選び出すことを考える。\begin{figure}[t]\begin{center}\small\setlength{\unitlength}{.25mm}\begin{picture}(180,55)\put(0,10){\line(2,1){80}}\put(30,25){\line(2,-1){30}}\put(80,10){\line(2,1){40}}\put(80,50){\line(2,-1){80}}\put(0,10){\line(1,0){60}}\put(80,10){\line(1,0){80}}\put(45,-5){\makebox(10,10){\small\shortstack{$l$}}}\put(145,-5){\makebox(10,10){\small\shortstack{$r$}}}\put(70,55){\makebox(20,10){\shortstack{\sfM}}}\put(15,28){\makebox(10,10){\shortstack{\sfL}}}\put(125,33){\makebox(10,10){\shortstack{\sfR}}}\end{picture}\begin{picture}(40,55)\put(0,20){\line(1,0){5}}\put(0,20){\line(0,1){5}}\put(5,15){\line(0,1){5}}\put(5,15){\line(2,3){5}}\put(0,25){\line(1,0){5}}\put(5,25){\line(0,1){5}}\put(5,30){\line(2,-3){5}}\end{picture}\begin{picture}(120,55)\put(0,10){\framebox(40,20){$b(l)$}}\put(80,10){\framebox(40,20){$b(r)$}}\put(20,30){\line(0,1){20}}\put(20,50){\line(1,0){80}}\put(100,50){\vector(0,-1){20}}\end{picture}\caption{部分木から文節係り受けへの変換}\label{fig:transform}\end{center}\end{figure}人手で記述する文法を用いることには、\ref{sec:introduction}~節で述べたような我々の最終目標に達するための要件である他に、決してありえない構造を排除することができるという利点がある。文法の制約が過剰でないことは、\ref{sec:related}~節で述べたようにSLUNGの被覆率が高いことが保証している。\subsubsection{係り先候補の3つ以下への制限}日本語の文節の係り先の傾向として、(1)近くから遠くになるに従って割合が減少すること、(2)最も遠い文節に係る場合だけは比較的多いことが知られている。この傾向は例えば\cite{Maruyama92}で分析されている。SLUNGにより係り先候補を絞った場合にもこの傾向はやはり顕著である。EDRコーパスの文をSLUNGで解析した際の、係り先候補の数、及び正しい係り先の位置の関係の分布を表\ref{tab:position}~に示す。表中の「第一」「第二」…は、文法で制限された係り先候補のうち、係り元文節から近い順に何番目が正しい係り先であるかを意味する。「最遠」は係り元から最も遠い候補である。このデータより、係り元文節から(1)最も近い文節・(2)二番目に近い文節・(3)最も遠い文節のいずれかに係る場合だけで98.6$\%$を占める\footnote{これは、文法で候補を制限しているためである。文法を用いずに3つの文節に絞っても、92.6$\%$程度しかカバーできない。}ことがわかる。この性質を利用して、係り先の候補が4つ以上存在する場合にも上記の3文節だけを考え、その他の文節を無視することにする。この制限によって、係り受け精度の上限は98.6$\%$となるが、わずか1.4$\%$の犠牲により問題を大幅に単純化することができ、次節で述べる3つ組/4つ組モデルの構成が可能になる。\begin{table}[tb]\begin{center}\small\begin{tabular}{|c|c||c|c|c|c|c|c||c|}\hline候補の数&比率&{\bf第一}&{\bf第二}&第三&第四&$..$&{\bf最遠}&第一,第二,最遠\\\hline\hline1&32.7&100&$-$&$-$&$-$&$-$&\footnotesize(100)&100\\\hline2&28.1&74.3&26.7&$-$&$-$&$-$&\footnotesize(26.7)&100\\\hline3&17.5&70.6&12.6&\footnotesize(16.8)&$-$&$-$&16.8&100\\\hline4&9.9&70.4&11.1&4.7&\footnotesize(13.8)&$-$&13.8&95.3\\\hline5&5.4&70.1&11.6&4.2&2.5&$..$&11.5&93.2\\\hline6以上&6.4&70.3&10.8&3.9&2.4&$..$&9.6&90.7\\\hline\hline合計&100&$-$&$-$&$-$&$-$&$..$&$-$&{\bf98.6}\\\hline\end{tabular}\caption{\small係り先の候補の数に対する、正しい係り先の分布(単位は$\%$)\\{\footnotesize「比率」は、候補の数の分布を示す。括弧付きの値は他の項との重複を表す。}}\label{tab:position}\end{center}\end{table}\subsection{3つ組/4つ組モデル}\label{subsec:tripquad}3つ組/4つ組モデルは、文節$i$が文節$t_n$に係る確率$P(i\rightarrowt_n)$を式(\ref{equ:triplet2}),~式(\ref{equ:quadruplet2})で計算する。但し、$t_n$は文節$i$の係り先の(3つ以下に限定された)候補、$\Phi_i$は文節$i$の属性、$\Psi_{i,t_n}$は$t_n$及び二文節$i,t_n$間の属性を表す。\begin{eqnarray}P(i\rightarrowt_n)=&P(n\mid\Phi_i,\Psi_{i,t_1},\Psi_{i,t_2})&(係り先の候補が2つのとき:n=1,2)\label{equ:triplet2}\refstepcounter{enums}\\P(i\rightarrowt_n)=&P(n\mid\Phi_i,\Psi_{i,t_1},\Psi_{i,t_2},\Psi_{i,t_3})&(係り先の候補が3つのとき:n=1,2,3)\label{equ:quadruplet2}\end{eqnarray}\refstepcounter{enums}このモデルの特徴は、上記の式から推測される通り、「{\bf係り元文節と、係り先の候補となる全ての文節の属性を同時に考慮}すること」、そして「それぞれの係り先の候補の係りやすさを求めるのではなく、{\bf各候補が選ばれる確率}を求める」ことである。これらの意義は次の3点にある。\vskip2mm\begin{description}\item[意義1]文節間の距離でなく、係り先の{\bf候補の中での相対的位置}を用いて係り先を選べること\item[意義2]着目している候補だけでなく、{\bf文脈}、すなわち他の候補の属性を考慮できること\item[意義3]ある係り元に対する全ての候補への係りやすさを、{\bf同じ条件の下で計算}できること\end{description}\vskip2mm以下で、これらの意義について順に述べる。\subsubsection{意義1~:~候補の中での相対的位置}文節間の距離は、係り受け解析における重要な要素として考えられているが、係り先の候補の中の位置の方が重要な場合がある。例として、(\ref{sent:karega})の各文における「彼が」の係り先を推定する時を考える。両者とも、「走るのを」が正しい係り先と考えられる。\vskip2mm\begin{tabular}{lll}\refstepcounter{enums}\label{sent:karega}(\theenums)&a.&{\bf彼が}\underline{走るのを}見たことがありますか。\\&b.&{\bf彼が}ゆっくり\underline{走るのを}見たことがありますか。\end{tabular}\refstepcounter{equation}\vskip2mm文法を用いずに文節数を距離とするモデルでは、「彼が」と「走るのを」の文節間距離はaでは1、bでは2と異なっている反面、aでの「彼が→見た」\footnote{「→」は、二文節間の係り受けを表す。}とbでの「彼が→走るのを」が、係り元からの距離が2である動詞であるという点で、似た事象であると見なされる。一方、文法で係り先を絞った場合、a,~bとも「彼が」の係り先の候補は「走るのを」と「見た」の2つとなる。このように、係り先の候補のみに着目すれば、両者を同じ事象として扱えるので、より効率のよい学習が行えるようになる。\subsubsection{意義2~:~文脈の考慮}(\ref{sent:watashino})において、「私の」の係り先を考える。正解は、それぞれ「娘に」「友人の」である。\vskip2mm\begin{tabular}{lll}\refstepcounter{enums}\label{sent:watashino}(\theenums)&a.&{\bf私の}かわいい\underline{娘に}道でばったり会った。\\&b.&{\bf私の}\underline{友人の}娘に道でばったり会った。\end{tabular}\refstepcounter{equation}\vskip2mm係り元文節と係り先文節、及び文節間距離を考えるモデルでは、a,bにおける「私の→娘に」は区別されることなく、全く同じ係り受け確率が付与される。しかしながら、この確率は非常に低くなる。なぜなら、実際にEDRコーパスの一部を観察したところ、aの「${\sfN_1}$の${\sfA}$${\sfN_2}$」\footnote{{\sfN}と{\sfA}はそれぞれ名詞、形容詞を表す。}という構文に対し、bのような「${\sfN_1}$の${\sfN_2}$${\sfN_3}$」の構文の頻度が4倍程度あり、後者の構文では、${\sfN_1}$は近くの${\sfN_2}$を修飾する場合が約75%と、圧倒的に多いからである。従って、aにおいて、「私の→娘に」に比べて「私の→かわいい」の確率のほうが高くなり、解析誤りを引き起こす\footnote{なお、「顔のかわいい女の子」のような構文では、「顔の」は「かわいい」に係るのが正しいが、この構文が現れる頻度は低い。このような場合は、語彙情報を加えることによって解決できよう。}。係り元と係り先の3つの候補全てを同時に考慮すると、この誤りを防ぐことができる。aにおいて「私の」と、その係り先候補である「かわいい」「娘に」「会った。」を同時に考えて、三者のそれぞれが選ばれる確率を計算した場合、第二候補であっても、第一候補の形容詞連体形よりも高い確率が割り当てられ、正しく係り先を求めることができる。このような現象は、第一候補である形容詞や副詞を飛び越えて第二候補に係るケースなどで一般的に数多く見受けられる。\subsubsection{意義3~:~同じ条件下での係りやすさの計算}これは意義2~とも関連するが、ある一つの係り元に対する係り受けの確率を、共通の前件を持った条件付き確率で計算できるという利点である。(\ref{sent:watashino}a)の「私の」の係り先を考える際には、従来の手法は式(\ref{equ:pairmodel})、我々の手法は式(\ref{equ:tqmodel})を求めることになる\footnote{$\Psi$は文節間の属性も含むため、係り元文節にも依存するが、以下の式・図では省略している。}。(\ref{equ:pairmodel})ではそれぞれの条件付き確率の前件が異なるため、5つの値の和は1にならないのに対し、式(\ref{equ:tqmodel})では3つの和が1になる。従って、3つ組/4つ組モデルにおいて推定する条件付き確率は、係り元とその係り先候補がある文脈において、それぞれの係り先候補が選ばれる確率に一致することになる。なお、考慮する条件を図示すると、それぞれ図\ref{fig:oldmodel}~、図\ref{fig:abcd}~のようになる。\begin{figure}[t]\begin{center}\small\setlength{\unitlength}{.35mm}\begin{picture}(340,65)\put(0,15){\thicklines\framebox(40,10){\small私の}}\put(60,15){\thicklines\framebox(40,10){\smallかわいい}}\put(120,15){\thicklines\framebox(40,10){\small娘に}}\put(180,15){\thicklines\framebox(40,10){\small道で}}\put(240,15){\thicklines\framebox(40,10){\smallばったり}}\put(292,15){\thicklines\framebox(56,10){\small会った。}}\put(26,25){\line(0,1){14}}\put(23,25){\line(0,1){17}}\put(20,25){\line(0,1){20}}\put(17,25){\line(0,1){23}}\put(14,25){\line(0,1){26}}\put(26,39){\line(1,0){54}}\put(23,42){\line(1,0){117}}\put(20,45){\line(1,0){180}}\put(17,48){\line(1,0){243}}\put(14,51){\line(1,0){306}}\put(80,39){\vector(0,-1){14}}\put(140,42){\vector(0,-1){17}}\put(200,45){\vector(0,-1){20}}\put(260,48){\vector(0,-1){23}}\put(320,51){\vector(0,-1){26}}\put(0,0){\makebox(40,10){\shortstack{$\Phi_{私の}$}}}\put(60,0){\makebox(40,10){\shortstack{$\Psi_{かわいい}$}}}\put(120,0){\makebox(40,10){\shortstack{$\Psi_{娘に}$}}}\put(180,0){\makebox(40,10){\shortstack{$\Psi_{道で}$}}}\put(240,0){\makebox(40,10){\shortstack{$\Psi_{ばったり}$}}}\put(300,0){\makebox(40,10){\shortstack{$\Psi_{会った。}$}}}\put(60,39){\line(1,1){23}}\put(120,42){\line(1,1){20}}\put(180,45){\line(1,1){17}}\put(240,48){\line(1,1){14}}\put(300,51){\line(1,1){11}}\put(60,39){\circle*{2}}\put(120,42){\circle*{2}}\put(180,45){\circle*{2}}\put(240,48){\circle*{2}}\put(300,51){\circle*{2}}\put(80,59){\makebox(40,10){\shortstack{\tiny$P(私の\rightarrowかわいい)$}}}\put(140,59){\makebox(40,10){\shortstack{\tiny$P(私の\rightarrow娘に)$}}}\put(200,59){\makebox(40,10){\shortstack{\tiny$P(私の\rightarrow道で)$}}}\put(260,59){\makebox(40,10){\shortstack{\tiny$P(私の\rightarrowばったり)$}}}\put(320,59){\makebox(40,10){\shortstack{\tiny$P(私の\rightarrow会った。)$}}}\end{picture}\caption{従来のモデルで考慮する条件\\{\footnotesize各係り受けの確率が、それぞれの二文節の属性を用いて(\ref{equ:pairmodel})式で計算される。}}\label{fig:oldmodel}\end{center}\end{figure}\begin{figure}[t]\begin{center}\small\setlength{\unitlength}{.35mm}\begin{picture}(340,45)\put(0,15){\thicklines\framebox(40,10){\small私の}}\put(60,15){\thicklines\framebox(40,10){\smallかわいい}}\put(120,15){\thicklines\framebox(40,10){\small娘に}}\put(180,15){\makebox(40,10){\shortstack{道で}}}\put(240,15){\makebox(40,10){\shortstack{ばったり}}}\put(292,15){\thicklines\framebox(56,10){\small会った。}}\put(20,25){\line(0,1){10}}\put(30,35){\oval(20,20)[tl]}\put(30,45){\line(1,0){280}}\put(70,35){\oval(20,20)[tr]}\put(130,35){\oval(20,20)[tr]}\put(310,35){\oval(20,20)[tr]}\put(80,35){\vector(0,-1){10}}\put(140,35){\vector(0,-1){10}}\put(320,35){\vector(0,-1){10}}\put(80,35){\line(1,1){15}}\put(140,35){\line(1,1){15}}\put(320,35){\line(1,1){15}}\put(80,35){\circle*{2}}\put(140,35){\circle*{2}}\put(320,35){\circle*{2}}\put(84,48){\makebox(40,10){\shortstack{\tiny$P(私の\rightarrowかわいい)$}}}\put(144,48){\makebox(40,10){\shortstack{\tiny$P(私の\rightarrow娘に)$}}}\put(324,48){\makebox(40,10){\shortstack{\tiny$P(私の\rightarrow会った。)$}}}\put(0,0){\makebox(40,10){\shortstack{$\Phi_{私の}$}}}\put(60,0){\makebox(40,10){\shortstack{$\Psi_{かわいい}$}}}\put(120,0){\makebox(40,10){\shortstack{$\Psi_{娘に}$}}}\put(300,0){\makebox(40,10){\shortstack{$\Psi_{会った。}$}}}\end{picture}\caption{3つ組/4つ組モデルで考慮する条件\\{\footnotesize係り元と3つに絞られた係り先候補の属性を用いて、それぞれの候補に係る確率を(\ref{equ:tqmodel})式で求める。}}\label{fig:abcd}\end{center}\end{figure}\begin{equation}\left.\begin{array}{ll}P(私の\rightarrowかわいい)&=P(\mbox{T}\mid\Phi_{私の},\Psi_{かわいい})\\P(私の\rightarrow娘に)&=P(\mbox{T}\mid\Phi_{私の},\Psi_{娘に})\\P(私の\rightarrow道で)&=P(\mbox{T}\mid\Phi_{私の},\Psi_{道で})\\P(私の\rightarrowばったり)&=P(\mbox{T}\mid\Phi_{私の},\Psi_{ばったり})\\P(私の\rightarrow会った。)\qquad&=P(\mbox{T}\mid\Phi_{私の},\Psi_{会った。})\end{array}\right\}\nonumber\\\qquad\qquad\qquad\quad\quad\label{equ:pairmodel}\end{equation}\refstepcounter{enums}\begin{equation}\left.\begin{array}{ll}P(私の\rightarrowかわいい)&=P(1\mid\Phi_{私の},\Psi_{かわいい},\Psi_{娘に},\Psi_{会った。})\\P(私の\rightarrow娘に)&=P(2\mid\Phi_{私の},\Psi_{かわいい},\Psi_{娘に},\Psi_{会った。})\\P(私の\rightarrow会った。)\qquad&=P(3\mid\Phi_{私の},\Psi_{かわいい},\Psi_{娘に},\Psi_{会った。})\end{array}\right\}\nonumber\\\qquad\label{equ:tqmodel}\end{equation}\refstepcounter{enums}\subsection{最適な係り受けの選択}\label{subsec:sentence}各文節間の係りやすさ$P(i\rightarrowj)$を求めるにあたって、係り元文節に対する係り先文節の候補の数に依って、次のようなモデルを用いることにする。\begin{itemize}\item係り先候補が1つの場合:その係り先に確定するため、$P(i\rightarrowj)=1.0$となる。\item係り先候補が2つの場合:係り元と2つの係り先の文節の情報を考慮する「3つ組モデル」を用いる。\item係り先候補が3つ以上の場合:係り先の候補のうち、係り元に最も近い文節、二番目に近い文節、最も遠い文節の3つだけを考え、係り元とその3つの文節の情報を考慮する「4つ組モデル」を用いる。\end{itemize}こうして求まった値を用いて、SLUNGの出力した全ての部分木Mに対して、統計値$Q(\mbox{M})$を以下のようなアルゴリズムで割り振る。なお、SLUNGの出力する構文木の終端記号は、文節単位でなく、単語(JUMANの出力する形態素)を単位としている。\begin{itemize}\item部分木Mがただ一つの単語からなる場合、$Q(\mbox{M})$=1.0\itemそうでない場合、図\ref{fig:partialtree}~の部分木において、左部分木Lの最も右側の単語を$l$、右部分木Rの最も右側の単語を$r$として、$l$、$r$の属する文節をそれぞれ$b(l)$、$b(r)$とする。このとき、\begin{equation}Q(\mbox{M})=Q(\mbox{L})\timesQ(\mbox{R})\timesP(b(l)\rightarrowb(r))\end{equation}\refstepcounter{enums}\end{itemize}文全体に対応する構文木で、この統計値が最大になるようなものを探索し、その構文木を再び文節の係り受け関係に変換して出力する。こうして得られた文の係り受けは、必ず文法的に正しい構文木に対応しており、係り受け同士が交差することはない。\begin{figure}[t]\begin{center}\small\setlength{\unitlength}{.35mm}\begin{picture}(140,55)\put(0,10){\line(2,1){70}}\put(30,25){\line(2,-1){30}}\put(80,10){\line(2,1){30}}\put(70,45){\line(2,-1){70}}\put(0,10){\line(1,0){60}}\put(80,10){\line(1,0){60}}\put(50,0){\makebox(10,10){\shortstack{$l$}}}\put(130,0){\makebox(10,10){\shortstack{$r$}}}\put(60,45){\makebox(20,10){\shortstack{M}}}\put(20,25){\makebox(10,10){\shortstack{L}}}\put(110,25){\makebox(10,10){\shortstack{R}}}\end{picture}\caption{SLUNGの出力する部分木M}\label{fig:partialtree}\end{center}\end{figure} \section{実験結果} label{sec:result}3つ組/4つ組モデルを用いた係り受け解析の実験環境と用いた素性、及び実験結果を示す。さらに、学習コーパスの量を変えた実験や、3つ組/4つ組モデルを導入したことの効用を確かめるための対照実験の結果を載せる。\subsection{実験環境}\label{subsec:env}EDR日本語コーパス\cite{EDR}の208,157文\footnote{このうち、括弧付けの順番が逆転している5,263文は除外した。}のうち、192,778文を学習、3,372文をテストに用いた。\ref{subsec:restrict}節で述べたような観察や、次節で述べる考察などにはその他の6,744文を用いている。これは、テストコーパスの解析結果を人が見てモデルを修正することによるコーパスへの特化を防ぐためである。前節で述べた通り、係り先の候補が2つの場合のための「3つ組モデル」と候補が3つ以上の場合のための「4つ組モデル」の二つのモデルを別個に作る。学習コーパス中の文をSLUNGで構文解析して、係り先候補が2つである文節に対して、係り元文節と2つの係り先候補の属性の組を履歴として「3つ組モデル」を構成する。そして、係り先候補が3つ以上である文節に対しては、\ref{subsec:restrict}節で述べた方法で候補を3つに制限し、係り元文節と3つの係り先候補の属性の組を履歴として「4つ組モデル」を構成する。これらは最大エントロピー法のツールChoiceMakerMaximumEntropyEstimator\cite{Borthwich99}を使って推定される。推定の際に用いた素性を表\ref{tab:features}~に示す。素性の値は\cite{Haruno98}~\cite{Uchimoto99}に倣っており、品詞の分類などにはJUMANの出力結果を用いている。但し、京大コーパスを用いた実験と違って、形態素解析の正解は与えられておらず、誤りを含む場合がある。以下で各素性について解説する。なお、{\bf主辞}とは、品詞大分類が「特殊」「助動詞」「助詞」「接尾辞」「判定詞」のいずれかであるものを除いて、文節内で最も右側にある語、{\bf語形}とは、品詞大分類が「特殊」であるものを除いて、文節内で最も右側にある語である。\begin{description}\item[品詞]語形・主辞ともに、JUMANの品詞細分類が用いられる。\item[助詞・副詞]頻度の高い26種の助詞と69種の副詞。\item[主辞語彙]品詞に依らず、主辞として現れる語のうち頻度の高い294種の語彙。\item[語形語彙]品詞が「助動詞」「接尾辞」のうち、頻度の高い70種の語彙。\item[活用形]JUMANの出力する活用形を、「基本形」「連用形」「連体形」「テ形」「タ形」「その他」の6種に分類したもの。\item[文節間読点の数・「は」の数]係り元と係り先の文節間にある読点の数を、「0」「1」「2」「3以上」の4値で表す。同様に、副助詞「は」の数を「0」「1」「2以上」の3値で表す。\end{description}表\ref{tab:features}~中の「異なり数」とは各素性の取りうる値の総数であり、素性番号19〜27の組み合わせ素性に関しては、それぞれの要素の積を記してある。実際には、履歴の数と出力値の数(2または3)の積だけの素性が用いられる。また、係り先に関する素性(素性番号8〜27)は、それぞれの係り先候補(3つ組モデルでは2つ、4つ組モデルでは3つ)に対して素性が割り振られる\footnote{例として、14の係り先読点の素性は、3つ組モデルに対しては、2つの候補それぞれに対して読点の有無を考え、さらに「第一候補に係る場合」「第二候補に係る場合」の二つの出力値があるため、$2\times2\times2=8$、同様に4つ組モデルに対しては$2\times3\times3=18$の素性がある。}。このうち、コーパス中で3回以上出現したものが有効素性となる。\begin{table}\begin{center}\begin{tabular}{|c|l|r|r|r|}\hline\multicolumn{1}{|c|}{素性}&\smash{\lower2.0ex\hbox{素性の種類}}&\smash{\lower2.0ex\hbox{異なり数}}&\multicolumn{2}{c|}{有効素性数}\\\cline{4-5}番号&&&3つ組&4つ組\\\hline\hline1&係り元主辞品詞&24&42&64\\\hline2&係り元語形品詞&34&66&99\\\hline3&係り元助詞&27&47&73\\\hline4&係り元副詞&70&131&193\\\hline5&係り元語形語彙&71&110&225\\\hline6&係り元活用形&6&12&18\\\hline7&係り元読点の有無&2&4&6\\\hline\hline8&係り先主辞品詞&24&70&158\\\hline9&係り先語形品詞&34&96&231\\\hline10&係り先主辞語彙&295&1164&2597\\\hline11&係り先助詞&27&92&204\\\hline12&係り先語形語彙&71&216&454\\\hline13&係り先活用形&6&24&53\\\hline14&係り先読点の有無&2&8&18\\\hline15&係り先「は」の有無&2&8&18\\\hline16&係り先引用「と」の有無&2&6&17\\\hline17&文節間読点の数&4&16&36\\\hline18&文節間「は」の数&3&12&27\\\hline\hline19&係り元語形品詞×係り先主辞品詞&816&1187&2727\\\hline20&係り元語形品詞×係り元読点×係り先読点&136&380&870\\\hline21&係り元助詞×係り先主辞語彙&7965&6465&13463\\\hline22&係り元語形品詞×係り先語形品詞&1156&1213&3108\\\hline23&係り元助詞×係り先助詞&729&618&1637\\\hline24&係り元語形品詞×係り先助詞&918&1025&2494\\\hline25&係り元語形品詞×係り先語形語彙&2414&1483&3514\\\hline26&係り元語形品詞×助詞×読点の有無×係り先主辞品詞&132192&1331&3058\\\hline27&係り元主辞品詞×語形品詞×活用形×係り先主辞品詞×活用形&705024&6605&14700\\\hline\hline&合計&-&22433&50063\\\hline\end{tabular}\caption{用いた素性\\{\footnotesize8番以降の素性は、係り先に関する素性なので、2つまたは3つの全ての候補に対して考える。}}\label{tab:features}\end{center}\end{table}\subsection{実験結果}\label{subsec:result}\ref{subsec:env}~に記したコーパスに対する、次の2つの精度を測定した結果を表\ref{tab:result}~に示す。\begin{description}\item[文節正解率]文中の最後の文節を除く全ての文節に対して、その係り先が正解と一致する割合。表\ref{tab:result}~においてのみ、後ろから二番目の文節(可能な係り先が最後の文節のみであるので、必ず正解する)を除外した値を参考のために載せてある。\item[文正解率]一文中の係り受けが全て正解する文の割合。なお、テストコーパスの平均文節数は8.82である。\end{description}なお、「解析成功文」とは、テストコーパスのうち構文解析が成功した文、即ちSLUNGが少なくとも一つの構文木を返した3,326文(全体の98.63$\%$にあたる)に対する正解率を測ったものである。また、参考のためにコーパス中の「すべての文」に対しての精度も測っている。SLUNGでの構文解析が失敗した文に関しては、各係り元文節に対して最も高い確率が割り振られた候補を決定的に係り先と判定し、どの候補にも係り得ないとされた文節は隣の文節を修飾すると仮定して正解率を測った。表\ref{tab:result}~は学習コーパスの約19万文を全て用いた時の値である。学習コーパスの量を変えた時の解析成功文に対する文節正解率を図\ref{fig:graph}~に示す。\begin{table}\begin{center}\begin{tabular}{|l|l|rc|}\hline\smash{\lower3.0ex\hbox{解析成功文}}&文節正解率&{\bf88.55$\%$}&(23078/26062)\\&(後ろから二番目の文節を除く場合)&86.88$\%$&(19752/22736)\\\cline{2-4}&文正解率&46.90$\%$&(1560/3326)\\\hline\smash{\lower3.0ex\hbox{すべての文}}&文節正解率&88.33$\%$&(23350/26436)\\&(後ろから二番目の文節を除く場合)&$86.62\%$&(19978/23064)\\\cline{2-4}&文正解率&46.35$\%$&(1563/3372)\\\hline\end{tabular}\caption{学習に19万文を用いたときの解析精度}\label{tab:result}\end{center}\end{table}\begin{figure}[t]\begin{center}\small\setlength{\unitlength}{.15mm}\begin{picture}(600,270)\put(30,30){\vector(1,0){600}}\put(30,30){\vector(0,1){260}}\put(60,49){\circle*{7}}\put(90,91){\circle*{7}}\put(120,120){\circle*{7}}\put(150,142){\circle*{7}}\put(180,146){\circle*{7}}\put(210,166){\circle*{7}}\put(240,177){\circle*{7}}\put(270,185){\circle*{7}}\put(300,184){\circle*{7}}\put(330,185){\circle*{7}}\put(360,186){\circle*{7}}\put(390,182){\circle*{7}}\put(420,181){\circle*{7}}\put(450,188){\circle*{7}}\put(480,198){\circle*{7}}\put(510,195){\circle*{7}}\put(540,203){\circle*{7}}\put(570,209){\circle*{7}}\put(600,205){\circle*{7}}\path(60,49)(90,91)(120,120)(150,142)(180,146)(210,166)(240,177)(270,185)(300,184)(330,185)(360,186)(390,182)(420,181)(450,188)(480,198)(510,195)(540,203)(570,209)(600,205)\multiput(30,50)(10,0){59}{\line(1,0){3}}\multiput(30,150)(10,0){59}{\line(1,0){3}}\multiput(30,250)(10,0){59}{\line(1,0){3}}\put(-10,45){\makebox(30,10){87.0}}\put(-10,145){\makebox(30,10){88.0}}\put(-10,245){\makebox(30,10){89.0}}\put(-10,265){\makebox(30,10){($\%$)}}\put(160,10){\makebox(40,10){5}}\put(310,10){\makebox(40,10){10}}\put(460,10){\makebox(40,10){15}}\put(600,10){\makebox(40,10){(万文)}}\end{picture}\caption{学習コーパスの量と文節正解率の関係}\label{fig:graph}\end{center}\end{figure}\subsection{対照実験}\label{subsec:control_exp}\ref{sec:ourmodel}~節で述べた3つ組/4つ組モデルの有効性を示すために、以下のような対照実験を行った。これらのモデルでは、他の統計的係り受け解析モデル\cite{Fujio99}~\cite{Haruno98}~\cite{Uchimoto99}と同様に、二つの文節及び文節間の属性から、二文節間の係りやすさを独立に計算する。また、係り先候補の中での位置を出力とする代わりに、係り元と係り先の文節間の距離(「1」「2から5」「6以上」の3値)を導入している。ME法による推定において\ref{subsec:env}~節に示した素性と同じ素性を使っており、その全てに対して上記の距離の属性を組み合わせている。\begin{description}\item[文法なしモデル]文法を用いて候補を絞ることをせず、係り元文節より右側の全ての文節に対して統計値を求める。係り元・係り先文節の属性と文節間距離などを用いて、二文節があった時にそれが係り受け関係にある確率を計算する。これは概ね、他の研究と同様のモデルである。\item[候補限定なしモデル]構文解析の結果文法が許した係り先に対してのみ、文法なしモデルと同様、係り元・係り先属性と文節間距離から係る確率を求める。\item[2つ組モデル]文法が許す係り先候補を、\ref{subsec:restrict}~節で述べた方法で3つに絞って、その3つに対してのみ統計値を求める。上記のモデルと同様、係り元・係り先属性と文節間距離から、係る確率を求める。なお、考慮する係り先候補は3つ組/4つ組モデルの時と同じになる。\end{description}対照実験の結果は表\ref{tab:control_exp}~の通りである。「3つ組/4つ組モデル」は「2つ組モデル」と比べて精度が0.9$\%$ほど向上している。このデータから、3つ組/4つ組モデルが有効であることを次節にて論じる。\begin{table}[t]\begin{center}\begin{tabular}{|l|cccc|rc|rc|}\hline&G&H&T&D&\multicolumn{2}{c|}{解析成功文}&\multicolumn{2}{c|}{すべての文}\\\hline\hline文法なしモデル&$-$&$-$&$-$&$+$&86.70$\%$&(22594/26062)&86.61$\%$&(22895/26436)\\\hline候補限定なしモデル&$+$&$-$&$-$&$+$&87.37$\%$&(22770/26062)&$87.18\%$&(23046/26436)\\\hline2つ組モデル&$+$&$+$&$-$&$+$&87.67$\%$&(22849/26062)&$87.49\%$&(23128/26436)\\\hline3つ組/4つ組モデル&+&+&+&$-$&88.55$\%$&(23078/26062)&88.33$\%$&(23350/26436)\\\hline\end{tabular}\caption{対照実験の結果(文節正解率)\\{\footnotesizeG,H,T,Dはそれぞれ「文法の利用」「候補を3つに限定」「3つ組/4つ組モデル」}\\{\footnotesize「文節間距離属性の利用」の有無を表す。}}\label{tab:control_exp}\end{center}\end{table} \section{考察} label{sec:observations}ここでは、本稿で提案する手法がどのように精度向上に寄与しているかの観察、及び他研究との比較を行う。\subsection{「3つ組/4つ組モデル」の効用}表\ref{tab:control_exp}~にある対照実験の結果は、以下の理由から3つ組/4つ組モデルの有効性を示しているといえる。\begin{itemize}\item「3つ組/4つ組モデル」の精度は「2つ組モデル」の精度よりも約0.9$\%$上回っている。両者とも、文法とヒューリスティクスにより係り先候補を3つ以下に限定しているが、それらの係り先候補を同時に考慮するモデルを用いた方が精度が上がることが確認された。\item「2つ組モデル」は、「文法なしモデル」より1.0$\%$、「候補限定なしモデル」よりも0.3$\%$高い精度を出している。従って、文法を用いることや係り先候補を3つに限定することは妥当な措置であり、「2つ組モデル」は「3つ組/4つ組モデル」の比較対象として適当である。\end{itemize}次に、両者のモデルで実際に解析を行う時の、具体的なMEのパラメータを観察してみる。例として、文(\ref{sent:kodomo})の「子供たちの」の各候補への係りやすさを計算する。「子供たちの」の係り先候補は、「甲高い」「声で」「騒然となる。」の3文節で、正解は「声で」である。\vskip2mm\refstepcounter{enums}\label{sent:kodomo}(\theenums)そんなとき、{\bf子供たちの}甲高い\underline{声で}騒然となる。\refstepcounter{equation}\vskip2mm各候補への係りやすさを2つ組モデル・4つ組モデル\footnote{候補数が3なので、4つ組モデルが使われる。}で推定する際のME法のパラメータ$\alpha_k$のうち主な($|\log\alpha_k|$が大きい)ものを、それぞれ表\ref{tab:pair_me}~,表\ref{tab:quad_me}~に示す。パラメータ$\alpha_k$のうち、履歴$a$、出力値$b$に対応する素性のものを掛け合わせるので、$\alpha_k$の値が1.0より大きいものは出力値を$b$にすることを助長するパラメータ、1.0より小さいものは$b$にすることを抑制するパラメータである。「$\alpha_k$の積」の項は、表に載せていないものも含め、対応する出力値に関する全てのパラメータの積である。\subsubsection{2つ組モデルの場合}このモデルでは、係り先ごとに別々の条件で係りやすさを計算する。各係り先への係りやすさ$P(i\rightarrowj)$は、出力値Tに対する$\alpha_k$の積を、出力値T,~Fに対する$\alpha_k$の積の和で割ったものである。例えば、$P(子供たちの\rightarrow甲高い)$は、$0.93/(0.93+0.81)=0.53$となる。「声で」に係る場合のパラメータに注目すると、係り元助詞「の」は隣の文節に係る傾向が強いことから、文節間距離が「2から5」に対するパラメータが小さくなっている。そのため、「甲高い」に係る確率の方が高くなってしまう。\subsubsection{4つ組モデルの場合}全ての係り先への係りやすさを共通の確率分布を用いて計算する。出力値$b$は$1,2,3$の3値をとり、第一候補への係りやすさ$P(i\rightarrowt_1)$は出力値1に対する$\alpha_k$の積を、3つの出力値に対する$\alpha_k$の積の和で割ったものであり、表\ref{tab:quad_me}~の例では$0.682/(0.682+2.39+0.106)=0.215$となる。出力値が2となる場合のパラメータに着目する。係り元が「の」で、第一候補が「形容詞」であること、第二候補が「名詞」であること、第三候補が「形容詞」であることの全てが第二候補に係るパラメータを高めており、第二候補に係る確率が第一候補に係る確率を上回っている。特に、出力値$b$と異なる候補(この場合、第一・第三候補)に関係する素性も強い影響を及ぼしていることが興味深い。\begin{table}[t]\scriptsize\begin{center}\begin{tabular}{|p{.8cm}||c|p{5cm}|p{.7cm}|p{1.15cm}|r|r|}\hline係り先$j$&\smash{\lower1.6ex\hbox{素性番号}}&\smash{\lower1.6ex\hbox{履歴$a$}}&出力値$b$&パラメータ$\alpha_k$&\smash{\lower1.6ex\hbox{$\alpha_k$の積}}&\smash{\lower1.6ex\hbox{$P(i\rightarrowj)$}}\\\hline\hline甲高い&26&係り元語形「接続助詞」「の」・読点「無」・係り先主辞「形容詞」・距離「1」&T&0.83&0.93&0.53\\\cline{2-6}&6&係り先活用形「基本形」・距離「1」&F&0.69&0.81&\\\cline{2-5}&26&係り元語形「接続助詞」「の」・読点「無」・係り先主辞「形容詞」・距離「1」&F&1.19&&\\\cline{2-5}&27&係り元主辞「普通名詞」・語形「接続助詞」・係り先主辞「形容詞」「基本形」・距離「1」&F&0.81&&\\\hline\hline声で&3&係り元助詞「の」・距離「2〜5」&T&0.78&0.57&0.31\\\cline{2-5}&10&係り先主辞「声」・距離「2〜5」&T&0.79&&\\\cline{2-5}&23&係り元助詞「の」・係り先助詞「で」・距離「2〜5」&T&1.82&&\\\cline{2-5}&26&係り元語形「接続助詞」・係り先品詞「名詞」・距離「2〜5」&T&0.84&&\\\cline{2-5}&27&係り元主辞「普通名詞」・係り元語形「接続助詞」「の」・係り先主辞「普通名詞」・距離「2〜5」&T&0.81&&\\\cline{2-6}&27&係り元主辞「普通名詞」・係り元語形「接続助詞」「の」・係り先主辞「普通名詞」・距離「2〜5」&F&1.06&1.26&\\\hline\hline騒然となる&3&係り元助詞「の」・距離「2〜5」&T&0.78&0.11&0.10\\\cline{2-5}&8&係り先主辞「形容詞」・距離「2〜5」&T&0.86&&\\\cline{2-5}&26&係り先語形「接続助詞」「の」・読点「無」・係り先主辞「形容詞」・距離「2〜5」&T&0.48&&\\\cline{2-6}&26&係り元語形「接続助詞」「の」・読点「無」・係り先主辞「形容詞」・距離「2〜5」&F&1.08&1.03&\\\hline\end{tabular}\caption{(\ref{sent:kodomo})の「子供たちの」の係り先推定の際の、2つ組モデルにおけるMEのパラメータ\\{\footnotesizeそれぞれの係り先に対して、別個に「係る(T)」「係らない(F)」を出力値とするパラメータが計算される。}}\label{tab:pair_me}\end{center}\end{table}\begin{table}[t]\scriptsize\begin{center}\begin{tabular}{|c|p{6cm}|p{.7cm}|p{1.15cm}|r|r|}\hline\smash{\lower1.6ex\hbox{素性番号}}&\smash{\lower1.6ex\hbox{履歴$a$}}&出力値$b$&パラメータ$\alpha_k$&\smash{\lower1.6ex\hbox{$\alpha_k$の積}}&\smash{\lower1.6ex\hbox{$P(i\rightarrowt_b)$}}\\\hline\hline10-2&第二候補主辞語彙「声」&1&0.83&0.682&0.215\\\cline{1-4}21-1&係り元助詞「の」・第一候補主辞語彙「その他」&1&0.78&&\\\cline{1-4}26-1&係り元語形「接続助詞」「の」・読点「無」・第一候補主辞「形容詞」&1&0.84&&\\\hline11-2&第二候補助詞「で」&2&1.29&2.39&0.752\\\cline{1-4}13-1&第一候補活用形「基本形」&2&0.77&&\\\cline{1-4}26-1&係り元語形「接続助詞」「の」・読点「無」・第一候補主辞「形容詞」&2&1.23&&\\\cline{1-4}26-2&係り元語形「接続助詞」「の」・読点「無」・第二候補主辞「名詞」&2&1.25&&\\\cline{1-4}26-3&係り元語形「接続助詞」「の」・読点「無」・第三候補主辞「形容詞」&2&1.24&&\\\cline{1-4}27-1&係り元主辞「普通名詞」・語形「接続助詞」・第一候補主辞「形容詞」「基本形」&2&0.84&&\\\hline3&係り元助詞「の」&3&0.59&0.106&0.034\\\cline{1-4}7&係り元読点「無」&3&0.84&&\\\cline{1-4}10-2&第二候補主辞語彙「声」&3&2.15&&\\\cline{1-4}11-2&第二候補助詞「で」&3&0.46&&\\\cline{1-4}17-3&係り元-第三候補文節間読点「無」&3&1.40&&\\\cline{1-4}20-3&係り元語形品詞「形容詞」・第三候補読点「無」&3&0.80&&\\\cline{1-4}27-2&係り元主辞「普通名詞」・語形「接続助詞」・第二候補主辞「名詞」&3&0.79&&\\\cline{1-4}27-3&係り元主辞「普通名詞」・語形「接続助詞」・第三候補主辞「形容詞」「基本形」&3&0.70&&\\\hline\end{tabular}\caption{(\ref{sent:kodomo})の「子供たちの」の係り先推定の際の、4つ組モデルにおけるMEのパラメータ\\{\footnotesize各候補が選ばれる(出力値が1,2,3)場合のパラメータを一つの確率分布で求めている。}}\label{tab:quad_me}\end{center}\end{table}\subsection{他研究との比較}\subsubsection{EDRコーパスでの精度の比較}係り受けの精度判定にEDRコーパスを用いている他研究と比較してみる。決定木を用いた手法\cite{Haruno98}での精度は84〜85$\%$、語の共起確率を用いた手法\cite{Fujio99}では、86.8$\%$となっている。我々の手法はこれらを上回っており、EDRコーパスに対してテストした中では最も高い水準といえよう。また、\cite{Kanayama99}では、3つ組/4つ組モデルを単純な相対頻度を用いて構成している。そこでの精度は86.7$\%$であり、ME法の利用によって約1.9$\%$精度が向上したことになる。精度向上の要因は、ME法によってデータスパースネスの問題が軽減でき、従来は入れられなかった語彙や活用に関する素性を追加できたことであると思われる。\subsubsection{京大コーパスでの精度の比較}いくつかの研究では、京大コーパス\cite{kc}を用いて精度を測っている。構文的・語彙的情報を統合して構文木の生起確率を求めている手法\cite{Shirai98}での精度は85〜86$\%$である。本研究と同様に、ME法を用いた研究~\cite{Sekine99},~\cite{Uchimoto99b}では、京大コーパスの1月9日分の1,246文を用いている。比較のために、同じコーパスでテストした結果は、表\ref{tab:accuracy_kc}~のようになった。\begin{table}\begin{center}\begin{tabular}{|l|l|rc|}\hline\smash{\lower2.0ex\hbox{解析成功文}}&文節正解率&87.08$\%$&(8299/9530)\\\cline{2-4}&文正解率&44.70$\%$&(493/1103)\\\hline\end{tabular}\caption{EDRコーパスで学習し、京大コーパスでテストした際の解析結果}\label{tab:accuracy_kc}\end{center}\end{table}文末から決定的に係り先を決定するモデル\cite{Sekine99}の精度は87.14$\%$で我々と同程度、後方文脈を考慮するモデル\cite{Uchimoto99b}は87.93$\%$で我々の精度よりも高くなっている。その原因として、以下のことが考えられる。\begin{itemize}\item我々は、学習データとしてEDRコーパスを用いている。\cite{Uchimoto99b}などと比べて約24倍の学習データがあるとはいえ、括弧付けの方針の違いなどから、京大コーパスでの解析の誤りを引き起こすことが多い。\item関根ら、内元らは京大コーパス中にある形態素解析・文節区切りの結果を用いているのに対し、我々はJUMANで解析したものを用いているため、形態素解析の誤りを含み、解析誤りの原因となっている。\item文法SLUNGがEDRコーパスの括弧付けの方針に従って作られており、京大コーパスにあるような係り方を許さない場合がある。\end{itemize}現在のところ、京大コーパスの解析には被覆率・精度ともに充分でないが、文法やシステムの改変により対処した上で本論文で提案する手法を有効に適用できるようにすれば、より高い精度が得られると考えている。\subsubsection{学習量の比較}図\ref{fig:graph}~より、最高値に近い精度を得るためには、10〜15万文の学習コーパスを要している。この学習量は、EDRコーパスを用いている研究\cite{Fujio99}と同程度であり、\cite{Uchimoto99}などの京大コーパスを用いた場合より、20倍程度の学習量になっている。一般に、ME法を用いることにより学習量を減らすことができると考えられているが、3つ組/4つ組モデルでは、複数の係り先に関する属性を同時に捉える条件付き確率を用いているため、区別される事象の数が大きくなり、多くの学習量が必要になっている。我々のモデルは、EDRコーパスのような多くの学習データを有効に利用できるモデルであるといえる反面、京大コーパスのように学習データ量が限られている時には、より効率のよい素性選択などが要求されるであろう。\subsubsection{解析速度の比較}本研究での係り受け解析は、あくまで詳細な構文構造を得るという目標の前段階であるため、速度に焦点を当ててはいないが、参考のために比較しておく。文末から決定的に係り先を決定するモデル\cite{Sekine99}では、一文当たり平均0.03秒(SunUltra10,300MHz)で解析できるのに対し、一方、我々のシステムではEDRコーパスの文に対して平均約0.5秒(PentiumIII,500MHz:経験的に、上記の計算機の約3倍の速度)を要する。両者には大きな差があるものの、我々の速度も非実用的なものではない。また、そのほとんどはHPSGパーザによる部分木の生成の時間である。単に係り受け構造を求めるだけなら速度を向上する余地は多分にあるうえ、HPSGパーザ自体の高速化も研究されており\cite{Nishida99,Torisawa00}、速度の問題は深刻であるとは考えていない。 \section{まとめ} label{sec:conclusion}本稿では、文法を用いて係り受け解析をする際に望ましい統計モデルについて論じた。係り先の候補を文法が許すものに制限した後、係り元から最も近い文節・二番目に近い文節・最も遠い文節のみに絞る。これにより、係り元と全ての係り先候補の属性を同時に考慮する「3つ組/4つ組モデル」を用いることができるようになり、88.6$\%$という高い係り受け精度を達成した。また、このモデルが精度向上に確かに寄与していることを示した。\bibliographystyle{jnlpbbl}\bibliography{nlp-j}\begin{biography}\biotitle{略歴}\bioauthor{金山博}{1998年東京大学理学部情報科学科卒業。2000年同大学院理学系研究科修士課程修了。同年日本アイ・ビー・エム(株)入社、現在に至る。構文解析・機械翻訳等に関する研究に従事。}\bioauthor{鳥澤健太郎}{1992年東京大学理学部情報科学科卒業。1995年同大学大学院理学系研究科情報科学専攻博士課程退学、同年より同大学大学院理学系研究科情報科学専攻助手。1998年より科学技術振興事業団さきがけ研究21研究員兼任。計算言語学の研究に従事。理学博士。言語処理学会会員。}\bioauthor{光石豊}{1996年東京大学理学部情報科学科卒業。1998年同大学院理学系研究科修士課程修了。現在、同博士課程在学中。HPSGの枠組による日本語文法に関する研究に従事。ACMSIGMODJ学生会員。}\bioauthor{辻井潤一}{1971年京都大学工学部電気工学科卒業。1973年同大学大学院工学研究科修士課程修了。京都大学工学部電気第2工学科助手、助教授を経て、1988年英国マンチェスタ大学科学技術研究所(UMIST)教授、1995年より、東京大学大学院理学系研究科教授(情報科学専攻)、現在に至る。1981〜82年フランス・CNRS(グルノーブル)、招聘研究員。自然言語処理、機械翻訳の研究に従事。工学博士。国際計算言語学委員会(ICCL)メンバ、情報処理学会、人工知能学会など、会員。2000年6月より言語処理学会会長。}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\newpage\thispagestyle{plain}\verb++\end{document}
V06N07-03
\section{はじめに} GeorgeA.Millerは1956年に人間の短期記憶の容量は7±2程度のチャンク\footnote{チャンクとはある程度まとまった情報を計る,情報の認知単位のこと.}(スロット)しかないこと,つまり,人間は短期的には7±2程度のものしか覚えられないことを提唱した\cite{miller56}.本研究では,京大コーパス\cite{kurohashi_nlp97}を用いて日本語文の各部分において係り先が未決定な文節の個数を数えあげ,その個数がおおよそ7±2程度でおさえられていたことを報告する.この結果は,人間の文の理解過程において係り先が未決定な文節を短期記憶に格納するものであると仮定した場合,京大コーパスではその格納される量がちょうどMillerのいう7±2の上限の9程度でおさえられており,Millerの7±2の提唱と矛盾しないものとなっている.またYngveによって提案されている方法\cite{yngve60}により英語文でも同様な調査を行ない,NP程度のものをまとめて認識すると仮定した場合,必要となる短期記憶の容量が7±2の上限の9程度でおさえられていたことを確認した.近年,タグつきコーパスの増加により,コーパスに基づく機械学習の研究が盛んになっているが\cite{murata:nlken98},タグつきコーパスというものは機械学習の研究のためだけにあるのではなく,本研究のような言語の数量的な調査にも役に立つものである.現在の日本の言語処理研究ではコーパスを機械学習の研究に用いるものがほとんどであるが,本論文のようにコーパスの様々な使い道を考慮するべき時代がきていると思っている. \section{短期記憶と7±2} Millerは短期記憶の容量を計る,言葉,音感,味覚,視覚などを対象とした種々の実験におけるデータが,いずれも概ね7±2であったことから,人間の短期記憶の容量は7±2程度のチャンクであることを提唱した.7±2の「±2」は個人差を意味しており,一般の人は7個程度,人によっては二つ多いめに,もしくは二つ少なめに覚えることができることを意味している\footnote{\baselineskip=0.85\baselineskipMillerの7±2とは直接関係ないが,言語の特性を短期記憶と結びつけて議論しているものにLewisのマジカルナンバ2or3\cite{Lewis96}という研究がある.これは中央埋め込みの数に関する研究で,英語では主節と一つの中央埋め込みの二つの文(ここでいう文は,句点によって区切られる文ではなく,動詞によって構成される節のような部分的な文のことを意味する.)まで(日本語では主節と二つの中央埋め込みの三つまで)しか短期的に覚えることができないと主張するもので,これは英語については古くはKimballの7つの原則\cite{Kimball73}のうちの四つ目の「文二つの原則」にあげられていることである.これらの研究は文理解において中央埋め込みの数に制限があるのは人間の短期記憶の容量に限界があるためであると考えているものである.}.7±2の研究は心理学の分野に属するものではあるが,工学の分野にも応用することができる.例えば,文生成の研究では7±2の容量を越える文を作成するとわかりにくい文になるであろうから\cite{matsuoka96},その条件を満足するように文生成を行なうということがある\cite{yngve60}.また,画像処理の分野では最近はやりのカーナビを構築する際に,一画面に多くの情報を与えすぎると人間の認識に支障をきたすので,7±2程度のものしか提示しないようにするなどの研究を行なっているものもある\cite{Inui91}.7±2の研究は,単なる知的好奇心による人間の解明に役に立つだけでなく,実際の社会においても利用されうる有益な研究なのである. \section{日本語文での調査報告} \begin{figure}[t]\begin{center}\fbox{\begin{minipage}{7cm}\begin{center}\epsfile{file=jap.eps,height=4cm,width=7cm}\end{center}\vspace{-0.5cm}\caption{係り先が未決定の文節数の数え方}\label{fig:jap}\end{minipage}}\end{center}\end{figure}本節では実際に京大コーパスを用いて行なった調査結果を報告する.(京大コーパスは1995年の毎日新聞のデータをもとに作成されたタグつきコーパスである.)まず調査方法を述べる.本研究では文の理解とは文の係り受け構造の解析であるとみなし,文を理解するときに短期記憶に格納することが必要とされるものは,係り先が未決定な文節であると考える.図\ref{fig:jap}に例を示す.図は「その少年は小さい人形を持っている.」という文の係り受け構造を頭から解析するときに,各文節において係り先が未決定になっている文節の数を数えているものである.図の矢印は係り受け構造を示し,数字は係り先が未決定な文節の個数を示し,その下に係り先が未決定な文節として短期記憶に格納しなければならない要素を示している.この文を頭から見てみると,「その」が入ってきたときはそれの係り先はまだ決まっていないのでそれは覚えておかなければならず,係り先が未決定なものとして短期記憶に格納される.次に「少年は」が入ってきたときは,「その」は「少年は」に係るとわかり「その」単独ではもう今後係り受けの解析に利用する必要はないので単独で認識する必要はなく,「少年は」とくっつけて「その少年は」という形で認識され,結局係り先が未決定な「その少年は」が一つだけ短期記憶に格納されることになる.その次に「小さい」が入ってくる.このときは新たに係り受け関係が定まるものはないので,「その少年は」と「小さい」が短期記憶に格納される.その次の「人形を」が入ってきたときは,「小さい」は「人形を」に係るので「小さい」はもう今後単独では解析に用いられることはないので,「人形を」とくっつけて「小さい人形を」とまとめて認識され,前から覚えていた「その少年は」とあわせて二つ覚えるだけでよい.最後に文末の「持っている。」が入ってくると,すべての係り受け関係が定まるので係り先の未決定数は0となり,短期記憶に覚えていたものはすべて忘れてもよいこととなる.\begin{table}[t]\caption{係り先が未決定な文節の個数の頻度統計}\label{tab:hindo_toukei}\begin{center}\small\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|r|r|r|}\hline未決定文節数&\multicolumn{2}{c|}{頻度}\\\cline{2-3}&\multicolumn{1}{c|}{文節数}&\multicolumn{1}{c|}{文数}\\\hline0&19954&90\\1&52751&1352\\2&59494&5022\\3&38465&6823\\4&15802&4468\\5&4488&1593\\6&1143&480\\7&195&102\\8&47&17\\9&10&5\\10&3&2\\\hline\end{tabular}\end{center}\end{table}\begin{table*}[t]\vspace{-5mm}\caption{係り先が未決定な文節の個数が10であった箇所を持つ文}\label{tab:10deatta_bun}\begin{center}\small\begin{tabular}[c]{|p{13.5cm}|}\hline調べでは、同町○○(地名)、建設業、○○○○(人名)容疑者は、九月六日告示の町議選を無投票にするため、逮捕された議員十五人が出し合った現金四百五十万円を告示日の六日、同町○○○(地名)、元町議で農業の○○○○(人名)容疑者に、また百万円を告示翌日の七日、新人で出馬予定だった同町○○○(地名)、会社員、○○○○(人名)容疑者と夫の会社代表、○○(人名)容疑者の二人に渡した疑い。\\\hline国はその後、このうち二十三点の公開は「やむを得ない」と認めたものの、主に電子機器などを置いてある地下部分の資料二十一点については「ASWOCはシーレーン防衛のための中枢基地であり、公開されると国防や警備上、重大な支障が生じる」などと主張、決定の取り消しなどを要求して争ってきた。\\\hline\end{tabular}\end{center}\end{table*}本稿では,人間が文を理解する際に以上のような過程をたどると想定し,実際に係り受け構造のタグがふってある京大コーパスにおいて,実際に上記の方法で係り先が未決定な文節の数を数えあげた.その結果を表\ref{tab:hindo_toukei}に示す.この表の「文節数」の列の数字は,京大コーパス(未定義のタグがふってあった2文を除く19,954文,192,352文節)の全文節において上記の方法で係り先が未決定な文節の数を調べ,その係り先未決定文節数ごとに,文節の頻度を調べたものである.また,表の「文数」の列は,一文中で最も大きかった係り先未決定文節数をその文の係り先未決定文節数と考えて,係り先未決定文節数ごとに文の頻度を調べたものである.この表では,未決定文節数が10つまり,Millerの7±2の上限9を越える文が二つあったが,おおよそ7±2の理論の範囲でおさまっていることを意味する.7±2を越えた二つの文を表\ref{tab:10deatta_bun}に示す.これらの文は極めて読解が難解なもので真剣に読んでもなかなか理解ができない文である.7±2の上限の9を越えた文が少ないこと,また,7±2の上限の9を越えた二文も読解が難解な文であったことから,この調査結果はMillerの7±2の理論と矛盾しないものとなっている.本研究では京大コーパスの係り受けのタグにしたがって係り先が未決定な文節の個数を数えたが,京大コーパスは助詞「は」がつく文節が複数の係り先が想定される場合なるべく後ろの文節に係るようにタグづけされており,これを近くにかかるようにすれば統計結果は変化するだろう.また,接続詞など,記憶が必要でないかもしれない文節も数えてしまっている.これらに対して適切な処理を施せば,係り先の未決定な文節の個数はさらに少なくなると予想される. \section{英語文での調査報告} 前節は日本語コーパスを用いて文の理解に必要な短期記憶の上限を調査するものだった.本節では,英語コーパスにおける調査結果について記述する.まず,Yngveにより提案されている英語コーパスでの短期記憶の容量の計算方法を述べる.次にSampsonが行なった英語のSUSANNEコーパスにおける同様な調査\cite{Sampson97}の紹介と,われわれが行なった英語のPennTreebankコーパスにおける調査結果を報告する.\begin{figure}[t]\begin{center}\fbox{\begin{minipage}{7cm}\begin{center}\epsfile{file=eng.eps,height=5.5cm,width=5cm}\end{center}\vspace{-0.5cm}\caption{スタックに蓄える非終端記号の数の数え方}\label{fig:eng}\end{minipage}}\end{center}\end{figure}英語での文の構造解析に必要な短期記憶の容量を求める方法はYngve\cite{yngve60}によってすでに提案されている.この方法は文をプッシュダウンオートマトンでトップダウンに解析する際にスタックに蓄えられるSやNPなどの非終端記号を短期記憶するべきものと考え,このスタックにつまれる記号の個数を数えるものである.図\ref{fig:eng}は``Theboyhasasmalldoll.''をプッシュダウンオートマトンで解析したときにスタックに蓄える非終端記号の数の数え方を示したものである.\begin{figure}[t]\vspace{-5mm}\begin{center}\fbox{\begin{minipage}{7cm}\begin{center}\epsfile{file=eng_1.eps,height=0.5cm,width=2cm}\end{center}\vspace{-0.5cm}\caption{各枝への数の付与の仕方}\label{fig:eng_1}\end{minipage}}\end{center}\end{figure}\begin{figure}[t]\vspace{-1mm}\begin{center}\fbox{\begin{minipage}{7cm}\begin{center}\epsfile{file=eng_3.eps,height=3cm,width=5cm}\end{center}\vspace{-0.5cm}\caption{Sampsonの変更した計算方法}\label{fig:eng_3}\end{minipage}}\end{center}\end{figure}図\ref{fig:eng_3}の下の方にある四角い箱は人間の短期記憶の格納庫に相当するスタックを表す.この文を頭から見て``The''が入ってきたときに,トップダウンで解析するのでまず最初にSから始まってSを(NPVP)に変形しVPを覚えておいてNPを(DTN)に変形してNを覚えておいてDTの部分を``The''と認識するので\footnote{\baselineskip=0.85\baselineskipこのトップダウンの認識はわれわれ日本人には若干不自然に思えるものだが,英語文の場合はボトムアップよりも,文が成立すると仮定しまた主語と述部があると仮定して読み進めるトップダウンの方が人間の文理解のモデルとしてもよいとされている\cite{Kimball73}.}$^{,}$\footnote{\baselineskip=0.85\baselineskip図\ref{fig:eng}ではNPを展開する際に(DTN)と(DTJN)の二種類が想定でき,``The''が入ってきただけではそのどちらであるかを特定できないという問題がある.また,前提とする文法ルールを変更したりすることで,構文木の表現がかわり集計結果が変わってしまう問題がある.Yngveの方法はそういう問題を持っているが,タグつきコーパスからの計数方法が非常に容易であるため本稿はそれにしたがって計数している.},都合``The''のところではVPとNの二つをスタックに覚えておく必要がある.同様な考え方でスタックに積む必要のある非終端記号は図\ref{fig:eng}のようになり各単語でのスタックに積んでおく必要のある数は図\ref{fig:eng}のように``2,1,1,2,1,0''となる.Yngveはこのスタックに積んでおく必要のある数を簡単に数える方法も示している.それは,図\ref{fig:eng}の構文木の各枝に図\ref{fig:eng_1}に示した要領で数字をふりSから単語までの経路の数字を足したものがスタックに積む個数とする方法である.``The''を見るとS,NP,DTと見て1と1があるので足して2となりスタックの数2と一致する.\begin{table}[t]\vspace{-1mm}\caption{スタックに積まれる非終端記号の個数の頻度統計(SUSANNEコーパス)}\label{tab:hindo_toukei_eng_sussane}\begin{center}\small\small\renewcommand{\arraystretch}{}\begin{tabular}[t]{|r|r|}\multicolumn{2}{c}{(a)Yngveの方法で集計}\\\hline\multicolumn{1}{|l|}{積む}&\multicolumn{1}{c|}{頻度}\\記号数&\multicolumn{1}{c|}{(単語数)}\\\hline0&7851\\1&30798\\2&34352\\3&26459\\4&16753\\5&9463\\6&4803\\7&2125\\8&863\\9&313\\10&119\\11&32\\12&4\\13&1\\\hline\end{tabular}\vspace{-5mm}\begin{tabular}[t]{|r|r|}\multicolumn{2}{c}{(b)Sampsonの変更した方法で集計}\\\hline\multicolumn{1}{|l|}{積む}&\multicolumn{1}{c|}{頻度}\\記号数&\multicolumn{1}{c|}{(単語数)}\\\hline0&55866\\1&64552\\2&12164\\3&1274\\4&76\\5&4\\\hline\end{tabular}\end{center}\vspace{3mm}\end{table}\begin{table}[t]\vspace{-3mm}\caption{スタックに積まれる非終端記号の個数の頻度統計(PennTreebankコーパス)}\label{tab:hindo_toukei_eng}\begin{center}\small\small\renewcommand{\arraystretch}{}\begin{tabular}[t]{|r|r|r|}\multicolumn{3}{c}{Yngveの方法で単語部分で集計}\\\hline\multicolumn{1}{|l|}{積む}&\multicolumn{2}{c|}{頻度}\\\cline{2-3}記号数&\multicolumn{1}{c|}{単語数}&\multicolumn{1}{c|}{文数}\\\hline0&49208&132\\1&377740&772\\2&309255&3921\\3&213294&9528\\4&103864&13324\\5&44274&11163\\6&16478&6158\\7&5750&2719\\8&1939&981\\9&661&338\\10&243&111\\11&92&29\\12&43&17\\13&15&14\\14&1&1\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\vspace{-1mm}\caption{スタックに積まれる非終端記号の個数の頻度統計(PennTreebankコーパス)}\label{tab:hindo_toukei_engb}\begin{center}\small\small\renewcommand{\arraystretch}{}\begin{tabular}[t]{|r|r|r|}\multicolumn{3}{c}{Sampsonの方法で単語部分で集計}\\\hline\multicolumn{1}{|l|}{積む}&\multicolumn{2}{c|}{頻度}\\\cline{2-3}記号数&\multicolumn{1}{c|}{単語数}&\multicolumn{1}{c|}{文数}\\\hline0&49208&132\\1&485849&1956\\2&414945&13367\\3&140611&22966\\4&28317&9124\\5&3616&1518\\6&283&133\\7&28&12\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\vspace{-0.5mm}\caption{スタックに積まれる非終端記号の個数の頻度統計(PennTreebankコーパス)}\label{tab:hindo_toukei_engc}\vspace{-2mm}\begin{center}\small\small\renewcommand{\arraystretch}{}\begin{tabular}[t]{|r|r|r|}\multicolumn{3}{c}{Yngveの方法でNP部分で集計}\\\hline\multicolumn{1}{|l|}{積む}&\multicolumn{2}{c|}{頻度}\\\cline{2-3}記号数&\multicolumn{1}{c|}{NP数}&\multicolumn{1}{c|}{文数}\\\hline0&69820&4546\\1&102337&7634\\2&74126&16847\\3&30025&11489\\4&11432&5780\\5&3336&2020\\6&963&633\\7&273&187\\8&76&51\\9&29&13\\10&13&8\\\hline\end{tabular}\end{center}\vspace{-3mm}\end{table}\begin{figure}[t]\vspace{-0.5mm}\begin{center}\fbox{\begin{minipage}{7cm}\begin{center}\epsfile{file=eng_2.eps,height=3cm,width=5cm}\end{center}\vspace{-0.5cm}\caption{並列節の各枝の数の修正方法}\label{fig:eng_2}\end{minipage}}\end{center}\end{figure}この方法を用いてSampsonはSUSANNEコーパス(約13万語)において表\ref{tab:hindo_toukei_eng_sussane}(a)の結果を得ている.表の「頻度(単語数)」はスタックに積まれる非終端記号数ごとの単語の頻度を意味している.詳細な計算方法はSampsonの論文を参照のこと.この結果では,7±2の上限9を越える文が多く存在している.そこで,Sampsonは各ノードでふられている数字を図\ref{fig:eng_3}のように変更して計数している.図\ref{fig:eng_3}のトップダウンの文の構造認識においてAを認識する際にB,C,D,Eを個々に覚えておくのではなく,B,C,D,Eをまとめて認識し覚えておくのは(B,C,D,E)の一つのセットでよい(もしくは,Aを認識する際にB,C,D,Eを個々に覚えておくのではなく,その親のノードを一個だけを覚えておく)と仮定するものである.この計数方法によりSampsonは表\ref{tab:hindo_toukei_eng_sussane}(b)の結果を得ている.この結果は7±2の下限5以下でおさえられており,Millerの7±2の理論と矛盾しないものとなっている.われわれは上記の調査をPennTreebank\cite{Marcus93}のWallStreetJournalのコーパス(49,208文,1,122,857単語)で行なってみた.SUSANNEコーパスで調査を行なわなかったのは,SUSANNEコーパスの構造が若干複雑なことと,PennTreebankの方がデータ量が多いこととSUSANNEコーパスではすでにSUSANNEコーパスの作成者のSampsonが調査を行なっていたことに起因する.PennTreebankにおける実験結果を表\ref{tab:hindo_toukei_eng}に示す.表の「単語数」はスタックに積まれる非終端記号数ごとの単語の頻度を意味し,「文数」は一文で最も多く積んだときの非終端記号数をその文の非終端記号数としたときの非終端記号数ごとの文の頻度を意味する.ただし,ピリオドなどの記号は削除し,また``and''などによって構成される並列節の表現形式がこのコーパスではスタックの非終端記号の数を余分に数えるような構造になっていたので,その部分は図\ref{fig:eng_2}のように数値をふり直すことで余分に数えなくてすむようにして数えあげた.表\ref{tab:hindo_toukei_eng}の結果は表\ref{tab:hindo_toukei_eng_sussane}(a)の結果とよく似ていることがわかる.この結果でも7±2の上限9を越える文が多く存在することが気になる.そこで,Sampsonの修正した方法で計数してみた.その結果を表\ref{tab:hindo_toukei_engb}に示す.SampsonのSUSANNEコーパスでの結果では5でおさえられていたが,PennTreebankの結果では7のものもあることがわかる.われわれはさらにYngveとSampsonと異なる英語コーパスにおける新しい計数方法を考えた.これは,日本語では文節を単位としてカウントし英語では単語を単位としてカウントするのは若干不公平ではないだろうかという考えに基づく.そのわれわれの方法は,人間は日本語の文節のように個々の単語にまで分解せずにNP程度のものはまとめて認識すると仮定してNPの部分におけるスタックの数を勘定するものである.つまり,SからNPにいたる経路に書いてある数字を足しあわせたものを用いて集計した.その結果を表\ref{tab:hindo_toukei_engc}に示す.この結果では,10のものがありMillerの7±2を逸脱している文もいくつかあるが,表\ref{tab:hindo_toukei}の日本語文での結果とよく似ており,またMillerの7±2のプラス2の部分に相当する8,9の文もあるということで我々の計数方法も有力ではないかと考えている.いずれにせよ,Yngveの方法のまま計数すればMillerの7±2の理論を満足しないが,Sampsonの新しい計数方法か我々の新しい計数方法を採用すれば,Millerの7±2と矛盾しない説明をつけることができることがわかる.また,Sampsonの計数方法に比べわれわれの計数方法は以下の二つの利点がある.\begin{itemize}\itemわれわれの英語における計数方法は,計数の単位に文節に対応するNPを考慮するものであり,われわれの日本語における計数方法から学んだものであるという理由づけがある.\itemSampsonの方法だとMillerの7±2の7あたりまで(SUSANNEコーパスでは5あたりまで)しか出現しないことになるが,われわれの方法ではMillerの7±2の8,9あたりの文も出現している.\end{itemize}\vspace{-1.5mm} \section{おわりに} GeorgeA.Millerは人間の短期記憶の容量は7±2程度のスロットしかないことを提唱している\cite{miller56}.本研究では,京大コーパス\cite{kurohashi_nlp97}を用いて日本語文の各部分において係り先が未決定な文節の個数を数えあげ,その個数がおおよそ7±2の上限9程度でおさえられていたことを報告した.また,英語文でも同様な調査を行ないNP程度のものをまとめて認識すると仮定した場合7±2の上限9程度でおさえられていたことを確認した.これらのことは,文理解における情報の認知単位(チャンク)として日本語と英語で文節,NPといったフレーズという同程度のものを仮定すると,Millerの7±2の理論と,言語解析・生成において短期記憶するものは7±2程度ですむというYngveの主張を整合性よく説明できることを意味する.最後に本論文で得られた知見を再度整理しておくと以下のようになる.\begin{itemize}\item日本語文の統語構造認識に関する調査結果において,文節を認知単位とするとMillerの7±2の理論と矛盾しない.\item英語文の調査結果においてNPレベルを認知単位とするとMillerの7±2の理論と矛盾しない.このことから,NPレベルを認知単位とするとよさそうであることが推測される.また,日本語文では文節を認知単位としており,文節と同レベルのNPレベルを認知単位とするのは自然なように思える\footnote{正しいかどうかはわからないが,われわれの直観としては,短期記憶から長期記憶の意味ネットワークへの変換過程で格にとられるもの,格をとるものといったものが認知単位になるように思われるため,その直観から日本語と英語で同じフレーズというものが認知単位になるのは自然に感じられる.}.\item上記二つを仮定すると,日本語文,英語文の調査結果と,Millerの7±2の理論・Yngveの主張(言語解析・生成において短期記憶するものは7±2程度ですむという主張)は矛盾しないものとなる.このことから,Millerの7±2の理論・Yngveの主張が必ず正しいということが証明されるわけではないが,矛盾しない事柄が増えたという意味で理論・主張が補強されたことになる.言語処理の立場からすると,Yngveの主張が正しければ「言語解析・生成において短期記憶するものは7±2程度である」ことを実際のシステム作りに役立てることができることになる.\end{itemize}\section*{謝辞}本研究の初期の段階において京大長尾真総長と議論した.また,慶応大学メディアセンターの榎沢康子さんには文献検索において非常にお世話になった.また,郵政省通信総研の藤原伸彦研究員には心理学の基礎的な事柄について教わった.ここに感謝する.\bibliographystyle{jnlpbbl}\bibliography{v06n7_03}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.研究官.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所,郵政技官.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{馬青}{1983年北京航空航天大学自動制御学部卒業.1987年筑波大学大学院理工学研究科修士課程修了.1990年同大学院工学研究科博士課程修了.工学博士.1990$\sim$93年株式会社小野測器勤務.1993年郵政省通信総合研究所入所,主任研究官.人工神経回路網モデル,知識表現,自然言語処理の研究に従事.日本神経回路学会,言語処理学会,電子情報通信学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V20N03-06
\section{はじめに} 2011年3月に発生した東日本大震災では,ソーシャルメディアは有益な情報源として大活躍した~\cite{nomura201103}.震災に関する情報源として,ソーシャルメディアを挙げたネットユーザーは18.3\%で,インターネットの新聞社(18.6\%),インターネットの政府・自治体のサイト(23.1\%)と同程度である.ニールセン社の調査~\cite{netrating201103}によると,2011年3月のmixiの利用者は前月比124\%,Twitterは同137\%,Facebook同127\%であり,利用者の大幅な伸びを示した.東日本大震災後のTwitterの利用動向,交換された情報の内容,情報の伝搬・拡散状況などの分析・研究も進められている~\cite{Acar:11,Doan:11,Sakaki:11,Miyabe:11}.Doanら~\cite{Doan:11}は,大震災後のツイートの中で地震,津波,放射能,心配に関するキーワードが多くつぶやかれたと報告している.宮部ら~\cite{Miyabe:11}は,震災発生後のTwitterの地域別の利用動向,情報の伝搬・拡散状況を分析した.Sakakiら~\cite{Sakaki:11}は,地震や計画停電などの緊急事態が発生したときのツイッターの地域別の利用状況を分析・報告している.AcarとMurakiは~\cite{Acar:11},震災後にツイッターで交換された情報の内容を分類(警告,救助要請,状況の報告:自身の安否情報,周りの状況,心配)している.一方で,3月11日の「コスモ石油のコンビナート火災に伴う有害物質の雨」に代表されるように,インターネットやソーシャルメディアがいわゆるデマ情報の流通を加速させたという指摘もある.東日本大震災とそれに関連する福島第一原子力発電所の事故では,多くの国民の生命が脅かされる事態となったため,人間の安全・危険に関する誤情報(例えば「放射性物質から甲状腺を守るにはイソジンを飲め」)が拡散した.東日本大震災に関するデマをまとめたツイート\footnote{https://twitter.com/\#!/jishin\_dema}では,2012年1月時点でも月に十数件のペースでデマ情報が掲載されている.このように,Twitter上の情報の信憑性の確保は,災害発生時だけではなく,平時においても急務である.我々は,誤情報(例えば「放射性物質から甲状腺を守るためにイソジンを飲め」)に対してその訂正情報(例えば「放射性物質から甲状腺を守るためにイソジンを飲め\ulinej{というのはデマ}」)を提示することで,人間に対してある種のアラートを与え,情報の信憑性判断を支援できるのではないかと考えている.訂正情報に基づく信憑性判断支援に向けて,本論文では以下に挙げる3つの課題に取り組む.\begin{description}\item[東日本大震災時に拡散した誤情報の網羅的な収集:]「○○というのはデマ」「○○という事実は無い」など,誤情報を訂正する表現(以下,訂正パターン)に着目し,誤情報を自動的に収集する手法を提案する.震災時に拡散した誤情報を人手でまとめたウェブサイトはいくつか存在するが,東日本大震災発生後の大量のツイートデータから誤情報を自動的,かつ網羅的に掘り起こすのは,今回が初めての試みである.評価実験では,まとめサイトから取り出した誤情報のリストを正解データと見なし,提案手法の精度や網羅性に関して議論する.\item[東日本大震災時に拡散した誤情報の発生から収束までの過程の分析:]東日本大震災時の大量のツイートデータから自動抽出された誤情報に対し,誤情報の出現とその拡散状況,その訂正情報の出現とその拡散状況を時系列で可視化することで,誤情報の発生から収束までの過程をモデル化する.\item[誤情報と訂正情報の識別の自動化:]誤情報を訂正している情報を自然言語処理技術で自動的に認識する手法を提案し,その認識精度を報告する.提案手法の失敗解析などを通じて,誤情報と訂正情報を対応づける際の技術的課題を明らかにする.また,本研究の評価に用いたデータは,ツイートIDと\{誤情報拡散,訂正,その他\}のラベルの組として公開を予定しており,誤情報とその訂正情報の拡散に関する研究の基礎データとして,貴重な言語資源になると考えている.\end{description}なお,ツイートのデータとしては,東日本大震災ワークショップ\footnote{https://sites.google.com/site/prj311/}においてTwitterJapan株式会社から提供されていた震災後1週間の全ツイートデータ(179,286,297ツイート)を用いる.本論文の構成は以下の通りである.まず,第2節では誤情報の検出に関する関連研究を概観し,本研究との差異を述べる.第3節では誤情報を網羅的に収集する手法を提案する.第4節では提案手法の評価実験,結果,及びその考察を行う.第5節では,収集した誤情報の一部について,誤情報とその訂正情報の拡散状況の分析を行い,自動処理による訂正情報と誤情報の対応付けの可能性について議論する.最後に,第6節で全体のまとめと今後の課題を述べる. \section{関連研究} 近年,ツイッターは自然言語処理の分野においても研究対象として注目を浴びている.言語処理学会の年次大会では「Twitterと言語処理」というテーマセッションが2011,2012年に企画されていた.また,国際会議のセッションや併設ワークショップにおいても,ソーシャルメディアに特化した情報交換の場が設けられることが珍しくない.このような状況が映し出すように,ツイッターを対象とした研究は数多くあるが,本節ではツイートで発信される情報の真偽性や信憑性に関連する研究を紹介する.Ratkiewiczら~\cite{Ratkiewicz:2011}は,米国の選挙に関連して,アストロターフィング\footnote{団体や組織が自発的な草の根運動に見せかけて行う意見主張のこと.一般市民を装って,特定の候補者を支持したり,否定する意見をツイートで発信し,複数のユーザアカウントを使って多勢を装ったり,一般市民のリツイートを誘発させるなどして,選挙活動を行う.}や誹謗中傷,誤情報の意図的な流布を行っているツイートを検出するシステムを提案した.Qazvinianら\cite{Qaz2011}は,誤情報に関連するツイート群(例えば「バラク・オバマ」と「ムスリム」を含むツイート群)から,誤情報に関して言及しているツイート(例えば「バラク・オバマはムスリムである」)と,誤情報に関して言及していないツイート(例えば「バラク・オバマがムスリムのリーダーと面会した」)を分類し,さらに誤情報に関して言及しているツイート群を,誤情報を支持するツイートと否定するツイートに分類する手法を提案した.Qazvinianらの研究は,誤情報に関連するツイート群(もしくはクエリ)が与えられることを想定しており,本研究のように大規模なツイートデータから誤情報をマイニングすることは,研究対象の範囲外である.日本では,東日本大震災時にツイッター上で誤情報が拡散したという問題意識から,関連する研究が多く発表されている.白井ら~\cite{Shirai}は,デマ情報とその訂正情報を「病気」とみなし,感染症疾患の伝染モデルを拡張することで,デマ情報・デマ訂正情報の拡散をモデル化した.藤川ら~\cite{Fuji12}は,ツイートに対して疑っているユーザがどの程度いるのか,根拠付きで流言であると反論されているか等,情報に対するユーザの反応を分類することで,情報の真偽判断を支援する手法を提案した.鳥海ら~\cite{Tori}は,あるツイートの内容がデマかどうかを判別するため,ツイートの内容語と「デマ」「嘘」「誤報」などの反論を表す語の共起度合いを調べる手法を提案した.梅島ら~\cite{Ume11}は,東日本大震災時のツイッターにおけるデマと,デマ訂正の拡散の傾向を分析することを目標とし,「URLを含むリツイートはデマである可能性が低い」「デマは行動を促す内容,ネガティブな内容,不安を煽る内容が多い」「この3つのいずれかの特徴を持つツイートはリツイートされやすい」等の仮説を検証した.彼女らのグループはその後の研究~\cite{Ume12,DemaCloud}で,誤情報のデータベースを構築するために,「デマ」や「間違い」といった訂正を明示する表現を用いることで,訂正ツイートの認識に有用であることを示した.さらに彼女らは,訂正を明示する表現を含むツイートを収集し,各ツイートが特定の情報を訂正しているか,訂正していないのか\footnote{例えば「ツイート上には様々なデマが流れているので注意を!」というツイートには「デマ」という表現を含んでいるが,特定の情報を訂正しているわけではない}を識別する二値分類器を構築した.これらの先行研究は,ツイートが誤情報を含むかどうか,もしくはツイートが特定の情報を訂正しているかどうかを認識することに注力しており,ツイート中で言及されている誤情報の箇所を同定することは研究対象の範囲外となっている.したがって,大規模なツイートデータから誤情報を網羅的に収集する研究は,我々の知る限り本研究が最初の試みである.誤情報の発生から収束までの過程を分析している研究としては鳥海ら~\cite{Tori}の研究がある.鳥海らは「ワンピースの作者が多額の寄付を行った」という誤情報をとりあげ,関連するツイートを誤情報の拡散ツイートと訂正ツイートに振り分けて,時系列に基づく深い分析を行った.彼らの手法は「ワンピース,作者,寄付」と共起するツイートを誤情報拡散ツイート,「ワンピース,作者,デマ」と共起するツイートを誤情報訂正ツイートに機械的に振り分けるというものであったが,本研究ではツイートの内容を人間が検証することにより,14トピックの誤情報の拡散・訂正状況を詳細に分析する. \section{提案手法} 本研究では,ツイッター上で拡散している誤情報に対して,別の情報発信者がその情報を訂正すると仮定し,誤情報の抽出を行う.例えば,「コスモ石油の爆発により有害な雨が降る」という誤情報に対して,ツイッター上で以下のような訂正情報を含むツイート(以下,訂正ツイート)が発信された.\EXS{ex:tweet}{\item[ex1]コスモ石油の爆発により、有害な雨が降る\ulinej{という事実はない。}\item[ex2]コスモ石油の科学物質を含んだ雨が降る\ulinej{というデマ}がTwitter以外にも出回ってるので注意を}訂正ツイートは,訂正表現(下線部)と,その訂正対象である誤情報から構成される.そこで,ツイート中の訂正表現を発見することで,誤情報を抽出できると期待できる.本節で提案する手法の目標は,訂正表現を手がかりとして,ツイート本文から誤情報を説明する箇所を推定する抽出器を構築することである.さらに,構築した抽出器によって,ツイート集合から誤情報を過不足なく収集したい.図\ref{fig:zentai}に提案手法の流れを示す.手順は大きく4つに分けられる.まず,ツイート本文に訂正パターン(後述)を適用し,訂正対象となる部分(被訂正フレーズ)を抽出する(ステップ1).次に,「昨日のあれ」のように具体的な情報を含まないフレーズを取り除くために,ステップ2において被訂正フレーズに含まれやすいキーワードを選択する.同一の被訂正情報を言及しているが,表現や情報量の異なるフレーズをまとめるために,フレーズに含まれるキーワードをクラスタリングする(ステップ3).その結果,「コスモ石油」や「イソジン」といった,誤情報の代表的なキーワードを含むクラスタが構築される.図\ref{fig:zentai}左上の表は,被訂正フレーズに含まれやすいキーワードが上位に来るよう,クラスタをステップ2の条件付き確率(式\ref{eq1},後述)で並べ替えたものである.最後に,ステップ4で,各クラスタごとに誤情報を最もよく説明しているフレーズを選択する.図\ref{fig:zentai}右上はステップ3で並べ替えたクラスタからフレーズを抽出し,出力された誤情報のリストである.以降では,各ステップについて詳細に説明する.\begin{figure}[b]\begin{center}\includegraphics{20-3ia21f1.eps}\end{center}\caption{提案手法の流れ}\label{fig:zentai}\end{figure}\subsection{ステップ1:訂正パターンを用いた訂正フレーズの抽出}\begin{figure}[b]\begin{center}\input{21fig02.txt}\end{center}\caption{被訂正フレーズを含むツイートの構造}\label{fig:correct_pattern}\end{figure}ステップ1では,ツイート本文から被訂正フレーズを見つけ出す.被訂正フレーズは,「デマ」や「間違い」といった表現で,訂正や打ち消されている箇所のことである.被訂正フレーズは,「イソジンは被曝を防ぐ」といった単文や,「コスモ石油の火災により有害な雨が降る」といった複文,「うがい薬の件」といった名詞句もある.被訂正フレーズと訂正表現は,「という」や「のような」といった連体助詞型機能表現で繋がれ,図\ref{fig:correct_pattern}に示す構造をとる.被訂正フレーズに続く表現を,すなわち連体助詞型機能表現と訂正表現の組み合わせを,「訂正パターン」と呼ぶ.例えば,図\ref{fig:correct_pattern}において,「というデマ」,「といった事実はありません」が訂正パターンである.全ツイートを形態素解析し,訂正パターンに対して形態素レベルでのパターン照合を行う.マッチしたツイートに対して,文頭から訂正パターンの直前までを被訂正フレーズとして抽出する.被訂正フレーズを漏れなく抽出するには,質のよい訂正パターンを整備することが重要である.そこで,どのような表現が訂正パターンになり得るのかを調べた.具体的には,既知の誤情報15件を含むツイートを検索するようなクエリを考え,そのツイートの内容を確認することにより,訂正パターンを収集・整理した.このようにして得られた訂正パターンの一覧を表\ref{tbl:teisei}に示した.表\ref{tbl:teisei}の訂正パターンのいずれかを含むツイートに対して,文頭から訂正パターンの直前までを被訂正フレーズとして抽出した例を図\ref{fig:correct_pattern_extraction}に示した.図\ref{fig:correct_pattern_extraction}の下線部が訂正パターンである.\begin{table}[t]\caption{訂正パターン}\label{tbl:teisei}\input{21table01.txt}\end{table}\begin{figure}[t]\begin{center}\input{21fig03.txt}\end{center}\caption{被訂正フレーズの抽出}\label{fig:correct_pattern_extraction}\end{figure}\subsection{ステップ2:キーワードの抽出}前節で抽出された被訂正フレーズには,「昨日のあれ」のように具体的な情報が提示されていないフレーズも含まれている.これらは誤情報としては不適切であるため,取り除く必要がある.そこで,被訂正フレーズ中の名詞句が訂正情報中に偏って出現しているかどうかを調べる.ここで分析の対象とする名詞句は,単名詞および名詞連続に限定する.具体的には,ある名詞句がツイートで言及されるとき,その名詞句が被訂正フレーズに含まれる確率(条件付き確率)を算出する.被訂正フレーズ中には頻出し,その他のツイート中では出現頻度の低い名詞句は,被訂正時にのみ頻出することから,誤情報のキーワードとなる名詞句である可能性が高い.逆に,被訂正フレーズ以外でも頻出する名詞句は,一般的な名詞句であり,誤情報のキーワードとなる可能性は低い.「昨日のあれ」の「昨日」や「あれ」は,被訂正フレーズ以外でも頻出するため,一般的な名詞句であると判断できる.フレーズ中の名詞句$w$が誤情報のキーワードらしいかどうかを,式\ref{eq1}によって計算する.ここで,$D$は訂正フレーズ集合を表す.\begin{equation}P(w\inD|w)=\frac{P(w\inD)}{P(w)}=\frac{wが訂正パターンを伴って出現するツイート数}{wを含むツイート数}\label{eq1}\end{equation}このように求めた条件付き確率が高い上位500個を,キーワードとして選択する.ただし,コーパス中での出現頻度が極端に低い名詞句を除くため,コーパス全体での出現回数が10回以上かつ,被訂正フレーズ集合での出現回数が2回以上の名詞句のみをキーワードとして認定する.また,ひらがなや記号が半数以上の名詞句(例えば「◯◯町」)はキーワードとして不適切と考え,キーワードから取り除いた.\subsection{ステップ3:キーワードのクラスタリング}被訂正フレーズには,「コスモ石油の火災により有害物質を含む雨が降る」と「コスモ石油の爆発は有害だ」のように,同一の被訂正情報を言及しているが,表現や情報量の異なるフレーズが含まれている.誤情報を過不足なく抽出するために,これらをまとめる必要がある.そこで,ステップ2で抽出されたキーワードを,同一の被訂正情報を説明するキーワードがまとまるようにクラスタリングする.クラスタリングにおけるキーワード間の類似度計算では,キーワードと文内で共起する内容語(名詞,動詞,形容詞)を特徴量とした文脈ベクトルを用いた.これは,周囲に同じ単語が表れていれば,2つのキーワードは類似しているという考えに基づく.文脈ベクトルの特徴量には,各単語との共起度合いを表す尺度である自己相互情報量(PMI)を用いた.この値が0以上の内容語を文脈ベクトルの特徴量に加えた.各文脈ベクトルの類似度はコサイン類似度によって計算した.クラスタリング手法は,階層クラスタリングの一種である最長距離法を用いた.今回のデータでは,類似度の閾値を0.2に固定してクラスタリングを行ったところ,500個のキーワードから189個のクラスタが得られた.得られた各クラスタに対し,式\ref{eq1}の示す確率が最も高いキーワードを代表キーワードとする.代表キーワードは,クラスタの誤情報を説明するために最も重要なキーワードであると考える.\subsection{ステップ4:代表フレーズの選択}\label{sec:selecting-representative-phrase}クラスタごとに被訂正フレーズを抽出し,誤情報として出力する.誤情報に相応しい被訂正フレーズは,誤情報を過不足なく説明できるような一文である.例えば,以下の例では,bは説明が不足しており,cは冗長な情報が含まれているため,aを誤情報として出力したい.\EXS{ex:phrase_selection}{\item[a]コスモ石油の火災により,有害物質を含む雨が降る\item[b]コスモ石油の件で,有害な雨が降る\item[c]コスモ石油が爆発したというのは本当で,有害な雨が降るから傘やカッパが必須らしい}このような選択を可能にするため,内容語の種類と含有率に着目する.まず,代表キーワードを含む被訂正フレーズを誤情報の候補として抽出する.次に,この候補の中から誤情報の内容を過不足なく説明するものを抽出する.文書自動要約における重要文抽出の考えから,前段で用いたキーワードとよく共起する内容語を多く含むものは,より重要な文であると考えられる.そこで,共起度合いを自己相互情報量(PMI)で計る.\begin{equation}\mathrm{Score}_{p}(s,t)=\sum_{w\inC_s}\mathrm{PMI}(t,w)\label{eq_scorep}\end{equation}$s$は被訂正フレーズ,$t$は各クラスタの代表キーワード,$C_s$は$s$中の内容語の集合を表す.ここで,内容語とは被訂正フレーズに含まれる名詞,動詞,形容詞とする.この式により,誤情報クラスタを代表するキーワードと共起性の強い内容語を多く含むフレーズに対して,高いスコアが付与される.しかし,この式では,被訂正フレーズに含まれる内容語の数が多い,長い文ほど高いスコアが付与されてしまう.そこで,代表キーワードを含む文の中でも,典型的な長さの文に高いスコアを付与し,短い文および長い文に対して低いスコアを与える補正項を用いる.\begin{equation}\mathrm{Score}_{n}(s,t)=\mathrm{hist}(\mathrm{len}_s,t)\label{eq_scoren}\end{equation}$\mathrm{len}_s$は被訂正フレーズ$s$の単語数を示す.$\mathrm{hist}(l,t)$は,代表キーワード$t$を含み,かつ単語数が$l$である文の出現頻度を表す.最終的なスコアは,式\ref{eq_scorep}と式\ref{eq_scoren}を乗算したものとする(下式).\begin{equation}\mathrm{Score}(s,t)=\mathrm{Score_{p}}*\mathrm{Score}_{n}\label{eq_score_final}\end{equation}最後に,各クラスタから式\ref{eq_score_final}のスコアが最も高いフレーズを一つずつ選択し,誤情報として出力する. \section{実験} 評価実験では,東日本大震災時のツイートデータを用いて,誤情報の抽出を行い,その精度と再現率を測った.抽出された誤情報を,その代表キーワードの式\ref{eq1}で並べ替え,上位100件を評価対象とした.考察では,ツイートデータから抽出できなかった事例や,誤って抽出された事例を分類し,今後の対策について述べる.\subsection{データセット}誤情報の抽出元となるコーパスには,東日本大震災ビックデータワークショップでTwitterJapanから提供された2011年3月11日09:00から2011年3月18日09:00までの日本語のツイートデータ179,286,297ツイートを利用した.このデータのうち,リツイート(自分の知り合いへのツイートの転送)は単順に同じ文が重複しているだけであるため,取り除いた.\subsection{正解データ}東日本大震災の際に発信された誤情報を網羅的にまとめたデータは存在しない.評価実験の正解データは,誤情報を人手でまとめた以下の4つのウェブサイトに掲載されている事例を利用した.\begin{enumerate}\item絵文録ことのは「震災後のデマ80件を分類整理して見えてきたパニック時の社会心理」\footnote{http://www.kotono8.com/2011/04/08dema.html}\item荻上式BLOG「東北地方太平洋沖地震,ネット上でのデマまとめ」\footnote{http://d.hatena.ne.jp/seijotcp/20110312/p1}\item原宿・表参道.jp地震のデマ・チェーンメール\footnote{http://hara19.jp/archives/4905}\itemNAVERまとめ注意!地震に関するデマ・チェーンメールまとめ\footnote{http://matome.naver.jp/odai/2130024145949727601}\end{enumerate}以上の4サイトに掲載されているすべての事例のうち,Twitterデータの投稿期間内(20113/1109:00から20113/1809:00まで)に発信されたと判断できる事例は60件存在した.この60件の誤情報を正解データとした.作成した正解データの一部を以下に列挙する.\begin{itemize}\item関西以西でも大規模節電の必要性\itemワンピースの尾田栄一郎さん15億円寄付\item天皇陛下が京都に避難された\itemホウ酸を食べると放射能を防げる\item双葉病院で病院関係者が患者を置き去りにして逃げた\itemいわき市田人で食料も水も来ていなく餓死寸前\item宮城県花山村が孤立\item韓国が震災記念Tシャツを作成\item民主党がカップ麺を買い占め\end{itemize}\subsection{評価尺度}抽出された誤情報の正否は,同等の内容が60件の正解データに含まれるかどうかを一件ずつ人手で判断した.また,正解データに含まれていないが,誤情報であると判断できるものもある.そこで抽出された情報が正解データに含まれなかった場合は,関連情報を検索することで,その正否を検証した.本研究の目的は,出来るだけ多くの誤情報を抽出し,人に提示することにある.しかし人が一度に見ることのできる情報には限界があり,出来るだけ多くの誤情報を人に提示するには,提示する誤情報の中にある,冗長な誤情報を取り除きたい.この目的のため,抽出した誤情報のうち,同じ内容と判断できるものが複数ある場合は,正解は一つとし,他の重複するものは不正解とした.また,日本語として不自然なものも不正解とした.提案手法はスコアの高い順にN件まで出力可能であるため,Nをいくつか変化させたときの精度@N,再現率@N,F値@Nによって評価した.精度には,正解データに含まれるかどうかで判断したもの(精度@N(60件))と,人手により検証を行ったもの(精度@N(人手検証))を用意した.また,人手による検証に加え,重複を許した場合(精度@N(重複))も評価に加えた.この評価を行うことで,目的の一つである「誤情報抽出」がどの程度達成されているかを知ることができる.それぞれは以下の式で表される.\begin{align}精度@N(60件)&=\frac{N事例のうち,60件の誤情報に含まれる事例数(重複を除く)}{N}\\[1zw]精度@N(人手検証)&=\frac{N事例のうち,人手で誤情報と検証された事例数(重複を除く)}{N}\\[1zw]精度@N(重複)&=\frac{N事例のうち,人手で誤情報と検証された事例数(重複を許す)}{N}\\[1zw]再現率@N&=\frac{N事例のうち,60件の誤情報に含まれる事例数(重複を除く)}{正解の誤情報の数(60件)}\\[1zw]F値@N&=\frac{2*精度@N(60件)*再現率@N}{精度@N(60件)+再現率@N}\end{align}\subsection{実験結果}\begin{table}[b]\vspace{-1\Cvs}\caption[評価]{実験結果}\label{kekka}\input{21table02.txt}\end{table}評価結果を表\ref{kekka}に示す.\pagebreakNが100のとき,提案手法が抽出した情報のうち,60件の正解データにも含まれる情報は31件であった.さらに,正解データには含まれないが,誤情報と判断できる事例が23件存在したことから,提案手法は54\%の精度で誤情報を抽出できた.次に,上位N件に限定しない場合の再現率について述べる.「上限(N=189)」は500個のキーワードをクラスタリングし得られた189個のクラスタから,代表フレーズをすべて出力した時の再現率であり,「上限(クラスタなし)」は,提案手法ステップ1で収集された被訂正フレーズ集合約2万件をすべて出力した時の再現率である.「上限(N=189)」は,キーワードを189個に絞った時の,ランキング改善による性能向上限界を表すに対し,後者はキーワードの選択,ランキング,クラスタリング改善による性能向上限界,つまり訂正パターンに基づく抽出手法の限界を表す.被訂正フレーズ集合の段階でカバーされている50件は,キーワードの選択やクラスタリングなど,後段の処理を改善することで抽出できる可能性があるが,残る10件は,訂正パターンに基づく抽出手法の改善が必要となる,難解な事例である.\subsection{考察}本節では,評価結果の誤りを分析する.抽出された誤情報の上位100件のうち,31件は正解データに含まれていたが,残りの69件は正解データに含まれていなかった.そこで,不正解データに対する誤判定の原因を調べたところ,8種類の原因に分類できた.表\ref{FP}に理由と件数を示す.\begin{table}[b]\caption[評価]{精度に対する誤り分析}\label{FP}\input{21table03.txt}\end{table}(a)から(d)は,明らかに誤抽出と判断できる事例である.(e)と(f)は,正解データの構築に用いた4つの誤情報まとめサイトに掲載されてはいなかったが,ウェブ上で調べることで,明らかに誤情報であると認められる事例である.(g)と(h)は,人手でも誤情報であるかを判断できない事例である.以下でそれぞれの詳細と,改善案を述べる.\pagebreak\begin{description}\item[(a)]キーワード抽出による誤り\\代表キーワードが誤抽出につながったと考えられる事例である.以下に例を示す.括弧の中は,選定に利用した代表キーワードである.\enumsentence{\ulinej{\mbox{陰謀論とか、「悪意の行動があった」}}とかいうデマを信じる人って…(悪意)}「善意」や「悪意」といった単語は,元々「デマ」などの訂正表現の周辺文脈に出現しやすい単語であるため,条件付き確率(\ref{eq1})が高く,キーワードとして選ばれた.しかし,特定の誤情報に関連するキーワードではないため,上記の例のように,具体性に欠ける被訂正フレーズが誤情報として抽出された.このようなキーワードは,誤情報の拡散時に限らず,通常時から訂正表現と共起すると考えられる.そこで対策として,被訂正フレーズに含まれる確率(式\ref{eq1})を使用するのではなく,通常時の共起度合いを組み込むことで,改善が望めると考えらる.\item[(b)]クラスタリングによる誤り\\抽出された誤情報上位100件のうち,同じ内容と判断できる誤情報が重複している事例である.例を以下に示す.括弧の中は,選定に利用した代表キーワードである.\enumsentence{市原市のコスモ石油千葉製油所LPGタンクの爆発により,千葉県,近隣圏に在住の方に有害な雨などと一緒に飛散する(コスモ石油千葉製油所)\\千葉県の石油コンビナート爆発で,空気中に人体に悪影響な物質が空気中に舞い雨が降ると酸性雨になる(石油コンビナート爆発)}これはステップ3でクラスタリングを行ったとき,同じクラスタに分類できなかったため,重複として表れた.誤情報検出の目的は達成できているものの,冗長な誤情報を抜き出しているため厳しめに評価して不正解とした.キーワードのクラスタリングには,被訂正フレーズの中で共起する単語を素性としているが,素性に表層の情報を加えることで,誤りを減らすことができると考えられる.\item[(c)]内容が不正確な情報\\抽出された誤情報の内容が,誤情報を説明するのに内容が不足していると思われる事例である.以下に例を示す.\enumsentence{餓死者や凍死者が出た.}正解データの中には「いわき市で餓死者や凍死者が出た」というものが存在するが,それと比べると具体性に欠けているため,不正解とした.より的確な候補を抽出するには,候補が多いほど作成したパターンの精度や再現率を考慮した選定が必要である.\item[(d)]正しい情報\\誤情報として抽出されたが,事実を確認したところ,誤情報ではなかった事例である.以下に例を示す.\enumsentence{東京タワーの先端が曲がった}この例に関連するツイートを観察したところ,根拠とされる写真を提示されても信じてもらえないほど,突拍子のない情報として扱われていた.そのため,訂正ツイートが多く投稿されたようである.提案手法は訂正の数が多い情報ほど,ランキングが上位になる仕組みになっているため,この事例は誤って抽出された.本研究の目的は「誤情報の抽出」であることを考えると,(a)から(c)の誤りに比べ,深刻な誤りである.しかし,始めは誤情報として疑っていたユーザーの中には,誤情報出なかったことを知り,以下のようなツイートをしている人も存在した.\enumsentence{東京タワーが曲がったってデマじゃなかったんだ\\東京タワー曲がったとかデマだと思ったら本当だった}このように,訂正を訂正しているツイートも存在し,二重否定を判別することが出来れば,この問題の改善につながると考えられる.\item[(e)]まとめサイトに掲載されていない誤情報(過去)\\これは誤情報まとめサイトに掲載されていないが,人手で検証したところ,誤情報と判別された事例である.その中でも今回利用したツイートコーパスの期間より前の事象に関する誤情報である.以下に例を示す.\enumsentence{\ulinej{関東大震災の時「朝鮮人が井戸に毒を入れた」}というのはデマだったはず\\\ulinej{阪神淡路大震災は三時間後に最大の揺れが来た}というのは誤った情報のようです。\\\ulinej{\mbox{明治43年(1910年)}にハレー彗星が大接近した時、地球上の空気\mbox{が5分間}ほどなくなる}というデマが一部で広まり,…}上記の例は訂正ツイートであり,下線部は被訂正フレーズとして抽出された部分である.一度過去に誤情報として認識されたことは間違いないが,人々に悪影響を与える可能性があり,誤情報として抽出し,拡散・訂正の動向を監視する必要がある.\item[(f)]まとめサイトに掲載されていない誤情報(現在)\\これは誤情報まとめサイトに掲載されていないが,人手で検証を行ったところ,誤情報と判別された事例である.その中でも今回利用したツイートコーパスの期間中に発生した誤情報である.以下に例を示す.\enumsentence{VIPで韓国の救助犬1匹が逃亡\\巷説にある遺体には感染症のリスクがある}\item[(g)]未来予測\\(h)の真偽不明の事例のうち,未来に起こりうる事象について述べたものを抽出した事例である.以下に例を示す.\enumsentence{福島で核爆発が起こる\\富士山が噴火する}未来に起こりうる事象である以上,現時点での真偽は不明である.抽出されたものの多くは,上記の例のように人々の不安を煽る情報であり,パニックを防ぎたいと思い訂正ツイートを発信した人が多かったため,抽出されたと考えられる.\item[(h)]真偽不明\\複数のウェブサイトを検索して検証を行ったが,誤情報かどうかを判別できなかった事例である.以下に例を示す.\enumsentence{サントリーが自販機無料開放\\築地で魚が余っている}\end{description}次に,正解データにある誤情報60件のうち,抽出されなかった誤情報29件についても同様に原因を調査したところ,3つに分類できることが判明した.3つの原因の件数と割合を表\ref{FN}に示す.\begin{table}[b]\caption[評価]{再現率に対する誤り分析}\label{FN}\input{21table04.txt}\end{table}\begin{description}\item[(i)]訂正パターンで候補を抽出できなかったもの\\今回作成した訂正パターンでは,抽出できなかった誤情報である.「仙台市三条中学校が中国人・韓国人が7割の留学生の心ない行動で避難所機能停止」という誤情報に対して,以下のようなツイートが数多く存在した.\enumsentence{コレ本当?RT@XXXXX今,祖母と叔母に確認.何と仙台市の三条中学校の避難所,閉鎖!避難所用救援物資を根こそぎ,近隣の外国人留学生(中国韓国で七割強)が運び出してしまい,避難所の機能停止だそうです.}上の例では,明示的に誤情報だと否定している人は少ないが,元のツイートコメントする形で,その情報を疑っている人は多かった.このことから,改善案とし訂正パターンのみではなく,懐疑を表す表現も利用できるのではないかと思われる.\item[(j)]訂正パターンで抽出できたが,クラスタリングによる誤り\\訂正パターンにより候補の抽出はできたが,クラスタリングにより,誤って他の誤情報に含まれた事例である.しかし,全体に比べ,事例数が少ないため,それほど問題ではないと思われる.\item[(k)]訂正パターンで抽出できたが,ランキング外\\訂正パターンにより候補を抽出できたが,条件付き確率が低かったため,キーワードとして抽出できなかった事例である.例えば,「東京電力を装った男が表れた」という誤情報では,「東京電力」というキーワードは誤情報以外の話題でも頻出したため,条件付き確率が低くなった.対策としては,キーワード単独をスコアリングするのではなく,被訂正フレーズそのものをスコアリングするような手法が必要である.\end{description} \section{誤情報の拡散状況の分析} 本節では,誤情報がどのように発生し,拡散・収束していくかを分析する.誤情報およびその訂正情報の拡散状況を時系列で可視化することで,誤情報の拡散のメカニズムを詳細かつ系統的に分析する.分析対象とする誤情報は,将来的には自動抽出結果を用いる予定だが,「東日本大震災の誤情報の拡散状況を正しく分析する」という目的から,誤情報であると確認できた事例のみを用いた.\begin{figure}[b]\begin{center}\includegraphics{20-3ia21f4.eps}\end{center}\caption{誤情報拡散状況システム}\label{fig:system}\end{figure}本節で想定しているシナリオは以下の通りである.前節までの手法で,ツイート空間上で誤情報と考えられているフレーズ(例えば「コスモ石油のコンビナート火災に伴い有害物質の雨が降る」)を抽出できる.この誤情報がどのように発生・拡散し,その訂正情報がどのように発生・拡散したのかを調べるため,このフレーズの中からキーワードを選び,ツイート検索システムへのクエリ(例えば「コスモ石油AND有害物質」)とする.このクエリを用いてツイートを検索すると,誤情報を拡散するツイート,誤情報を訂正するツイートが混ざって得られる.そこで,本節ではツイートを誤情報の「拡散」と「訂正」の2グループに自動分類する手法を提案する.図4は実際に作成した,誤情報の拡散状況を提示するシステムである.このシステムの処理をリアルタイム化すれば,被訂正情報から抜き出したキーワードを誤情報の監視クエリとし,誤情報の拡散・訂正状況をモニタリングしたり,誤情報を発信した(もしくは発信しようとしている)者に,訂正情報の存在を通知することができる.本節で提案する手法で「拡散」「訂正」ツイートの分類精度を測定するため,14件の誤情報に関して,正解データを作成した.この正解データを利用すれば,提案手法の性能を評価できるだけではなく,誤情報の拡散・訂正状況を精緻に検証し,誤情報の発生から収束までのメカニズムをモデル化することができる.最後に,自動手法の失敗解析を通じて,誤情報と訂正情報を対応づける際の技術的課題を述べる.\subsection{訂正表現による誤情報と訂正情報の自動分類}\begin{table}[b]\caption{訂正情報を認識する精度}\label{kakusan}\input{21table05.txt}\end{table}与えられたツイートに対して,誤情報の「拡散」もしくは「訂正」に分類する手法を,順を追って説明する.まず,前節までの手法で獲得した誤情報に関連するツイートを集める.ツイートの収集には本研究室で開発されたツイート全文検索システムを用いる.誤情報に関連するツイートを収集するために,獲得した誤情報(例えば「東大が合格者の入学取り消し」)を適切なクエリ(例えば「東大AND入学」)に変換する.次に検索によって得られた全ツイートを誤情報と訂正情報とに分類する.分類には「デマ」や「風説」などの訂正表現を含むツイートを「訂正情報」とし,含まないものを「訂正情報ではない」ツイートとする.訂正表現は震災時のツイートを読みながら,121個用意した.検索で得られるツイートの中には,「誤情報」や「訂正情報」とは関係の無い「その他」のツイートが存在するが,後述する正解データの割合を示した表\ref{kakusan}から分かるように,「その他」の割合は少ない.そこで本節では「訂正情報ではない」ツイートは誤情報の「拡散」ツイートとして見なす.\subsection{実験と評価}本手法の認識精度を評価するため,14件の誤情報に関連するツイート群を検索し,それらのツイートを「誤情報」「訂正情報」「その他」の手作業で分類し,正解データを作成した.評価対象の誤情報は,人手での作業の負荷を考慮して14件とした.関連するツイート5,195件のうち,誤情報ツイートが2,462件,訂正情報ツイートが2,376件,その他のツイートが357件であった(表\ref{kakusan}).評価対象として14件の誤情報は,第\ref{sec:selecting-representative-phrase}節で定義した条件付き確率(式\ref{eq1})が高いものから誤った事例を人手で除き,順に選んだ.今回の実験では被リツイート数の多いツイートを優先的に採用し,手作業による分類のコストを下げた\footnote{実際には,被リツイート数が$x$件以上のツイートのみを採用した.誤情報によって関連するツイート数が異なるため,閾値$x$は誤情報毎に調整した.}.なお,評価対象のツイートは誤情報や訂正情報に関するものと仮定しているので,「その他のツイート」は評価の対象外とする.表\ref{kakusan}に,提案手法が訂正情報を認識する精度(再現率・適合率・F1スコア)を示した.この評価では,リツイートは削除し,オリジナルのツイートのみを評価対象としている.表\ref{kakusan}によると,ほとんどの誤情報について高い適合率が得られた.適合率が高いということは「デマ」などの訂正表現を含むツイートは,かなりの確度で訂正情報と見なせるということである.「デマ」という語を伴って誤情報の拡散を行うことは,通常では考えにくいので,これは直感的に理解できる結果である.これに対し,再現率はユーザが誤情報の訂正のために,「デマ」などの訂正表現をどのくらい使うのかを示している.再現率が高いということは,誤情報の訂正情報のほとんどが「デマ」等の表現を伴うということである(例えば,以下のツイートを参照).\begin{quote}【拡散希望】トルコが日本に100億円の支援をするという内容のツイートが出回ってますが,誤情報だということです.情報を発信した本人が誤りだと言ってます.\end{quote}以上の結果から,訂正表現のマッチングに基づく提案手法でも,かなりの精度で誤情報の「拡散」と「訂正」のツイートを分離できることが示された.しかし,量は少ないものの,訂正表現を含む誤情報拡散ツイートも見受けられる.\begin{quote}万が一原発から放射能が漏れ出した際,被爆しない為にイソジンを15~cc飲んでおいて下さい!原液です!ガセネタではありません.お医者さんからの情報です.これはRTではないので信じてください!\end{quote}このツイートでは,「ガセ」という訂正表現を含んでいるが,「ガセ」をさらに否定しているので,二重否定により誤情報の拡散ツイートと解釈できる.さらに,訂正表現を用いずに誤情報を否定するツイートも存在する.\begin{quote}千葉のコスモ石油のタンク爆発事故で中身の有害物質が雲に付着して降ってくるというツイートをよく見かけますが、公式サイトでタンクの中身がLPだったので火災で発生した大気が人体に及ぼす影響はほとんどないみたいです。\end{quote}このツイートでは,「デマ」「嘘」などの訂正表現は一切使われていないが,誤情報の内容(「コスモ石油の火災により有害物質の雨が降る」)を訂正するツイートであると判断できる.このようなツイートを訂正ツイートと認識するためには,深い処理(例えば,「タンクの爆発事故」による「人体に及ぼす影響はほとんどない」と解釈する)や,ツイートやユーザ間の関係(例えば,このツイートをRTしているユーザが,訂正表現を用いてた別の訂正ツイートをRTしている,等の手がかり)を用いる必要がある.\subsection{誤情報の拡散状況の分析}本研究において構築した正解データを分析すれば,様々な誤情報の拡散状況を調べることができる.そこで,誤情報の「拡散」ツイートと「訂正」ツイートの数を,それぞれ一定時間おきに折れ線グラフにプロットし,誤情報の拡散状況を可視化するシステムを開発した.可視化にはクロス・プラットフォームかつブラウザ上で利用できるGoogleChartToolsを用いた.デモシステムでは,各時点でどのようなツイートが拡散していたのか,ツイート本文を閲覧できるようになっている.なお,グラフにプロットするツイートの数はリツイート数も考慮し,ツイート空間上での情報の拡散状況を表した.14件の誤情報に対して,正解データからプロットされたグラフを観察すると,誤情報の拡散状況は,以下の2つの要素で特徴付けらることが分かった.\begin{description}\item[ツイートの量の違い:]誤情報ツイート数と訂正ツイート数のどちらが多いか.\item[収束時間の違い:]誤情報の収束が遅いか速いか\footnote{収束時間(誤ツイートの発生から,誤ツイート量が0になるまでの時間)が一日未満であれば,速く,そうでなければ遅いと分類した.}.\end{description}この2つの要素の組み合わせにより,誤情報の拡散状況を4つにタイプ分けした.(表\ref{type_kakusan},図\ref{fig:four-kakusan}参照)\begin{table}[t]\caption{拡散状況のタイプ}\label{type_kakusan}\input{21table06.txt}\end{table}\begin{figure}[t]\begin{center}\includegraphics{20-3ia21f5.eps}\end{center}\caption{4種類に分けられる拡散状況}\label{fig:four-kakusan}\end{figure}\begin{description}\item[誤情報優勢・短時間収束型:]例えば,「サーバールームで身動きが取れない」という誤情報では,人間の危険や不安を伝えているため,誤情報を見たユーザが善意でツイートを拡散する傾向にある.このように,助けを求めたり,不安を煽るなどの情報は拡散しやすく,情報が間違いである場合は,訂正情報よりも誤情報の拡散ツイートの方が多くなりやすい.さらに,情報の発信者がジョークとしてつぶやいた情報や,情報の裏を検証することで真偽性を判定しやすいもの,救助などで緊急性を要するものは,短時間収束型になる傾向がある.他には,「阪神大震災では3時間後に最大の揺れが来た」などの誤情報が,このカテゴリに分類される.\item[誤情報優勢・長時間拡散型:]例えば,「支援物資の空中投下は法律で認められていない」という誤情報は,緊急性を要するものではあったが,真偽性を判断する情報源や専門家の数が少ないため,結果として誤情報が長く拡散する傾向にある.同じカテゴリの誤情報には,「イソジンを飲んで放射線対策」などが挙げられる.このカテゴリの誤情報は,長期間にわたって拡散し,訂正情報の数も少ないため,情報技術での対応が最も期待されるカテゴリであると考える.\item[訂正情報優勢・短時間収束型:]例えば,「被災地の合格者が期限までに書類を提出できないと東大の入学が取り消される」という誤情報は,このカテゴリに属する.このカテゴリの誤情報は,誤情報を否定する情報源がウェブ等に存在する等で,訂正が容易であったと考えられる.また,誤情報を否定する情報がすでにウェブ上に存在するか,否定情報が発表されるまでの期間が短いため,誤情報が短時間で収束した.他には,「阪神大震災時にはレイプが多発」など,既にソースがある誤情報がこのカテゴリに属する.\item[訂正情報優勢・長時間拡散型:]例えば,「コスモ石油の爆発で有害な雨が降る」という誤情報は,コスモ石油や厚生労働省などの信頼性の高い情報源から訂正情報が流れたため,訂正情報が優勢となった.ただ,訂正情報の公式発表が遅れたため,誤情報の収束までの時間が長くなった.また,誤情報の内容に緊急性が無い場合(例えば「トルコが100億円寄付」)も,長時間拡散型になりやすい.\end{description}このように,誤情報の拡散と訂正のメカニズムは,情報の緊急性や真偽の検証に必要な情報の入手性・信憑性により,様々であることが分かった. \section{おわりに} 本研究では,誤情報を訂正する表現に着目し,誤情報を自動的に収集する手法を提案した.実験では,誤情報を人手でまとめたウェブサイトから取り出した誤情報のリストを正解データと見なして評価を行ったところ,出力数が100件のとき正解データの約半数である31件を収集することができた.これは抽出した情報100件の約3割であるが,残り69件の中には,まとめサイトに掲載されていない誤情報も23件あり,54\%の精度で誤情報を抽出できた.また,収集された誤情報の中に真実の情報が含まれていると深刻な問題であるが,誤って抽出された事例の多くは,内容の重複する誤情報や真偽不明の事例であり,特に問題である真実の情報は100件のうち1件と非常に少なく,提案手法は誤情報の自動収集に有用であることを示した.また,誤情報に対して,誤情報の出現とその拡散状況,その訂正情報の出現とその拡散状況を可視化するシステムを構築した.本システムの訂正情報の認識精度を測定したところ,多くの誤情報について高い精度を得ることができた.実際に,本システムを用いて収集された誤情報の分析を行ったところ,拡散状況を幾つかのタイプに分類を分類することができた.今後の課題として,懐疑や反論といった,訂正パターン以外の情報を考慮した誤情報の抽出が挙げられる.\acknowledgment本研究は,文部科学省科研費(23240018),文部科学省科研費(23700159),およびJST戦略的創造研究推進事業さきがけの一環として行われた.貴重なデータを提供して頂いた,TwitterJapan株式会社,および東日本大震災ビッグデータワークショップに感謝いたします.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Acar\BBA\Muraki}{Acar\BBA\Muraki}{2011}]{Acar:11}Acar,A.\BBACOMMA\\BBA\Muraki,Y.\BBOP2011\BBCP.\newblock\BBOQTwitterforcrisiscommunication:lessonslearnedfromJapan'stsunamidisaster.\BBCQ\\newblock{\BemInternationalJournalofWebBasedCommunities},{\Bbf7}(3/2011),\mbox{\BPGS\392--402}.\bibitem[\protect\BCAY{Doan,Vo,\BBA\Collier}{Doanet~al.}{2011}]{Doan:11}Doan,S.,Vo,B.-K.~H.,\BBA\Collier,N.\BBOP2011\BBCP.\newblock\BBOQAnanalysisof{Twitter}messagesinthe2011{Tohoku}{Earthquake}.\BBCQ\\newblockIn{\Bem4thICSTInternationalConferenceoneHealth},\mbox{\BPGS\58--66}.\bibitem[\protect\BCAY{藤川\JBA鍜治\JBA吉永\JBA喜連川}{藤川\Jetal}{2011}]{Fuji12}藤川智英\JBA鍜治伸裕\JBA吉永直樹\JBA喜連川優\BBOP2011\BBCP.\newblockマイクロブログ上の流言に対するユーザの態度の分類(テーマセッション,大規模マルチメディアデータを対象とした次世代検索およびマイニング).\\newblock\Jem{電子情報通信学会技術研究報告.DE,データ工学},{\Bbf111}(76),\mbox{\BPGS\55--60}.\bibitem[\protect\BCAY{宮部\JBA荒牧\JBA三浦}{宮部\Jetal}{2011}]{Miyabe:11}宮部真衣\JBA荒牧英治\JBA三浦麻子\BBOP2011\BBCP.\newblock東日本大震災におけるTwitterの利用傾向の分析.\\newblock\Jem{情報処理学会研究報告},17\JVOL.\newblock2011-DPS-148/2011-GN-81/2011-EIP-53.\bibitem[\protect\BCAY{宮部\JBA梅島\JBA灘本\JBA荒牧}{宮部\Jetal}{2012}]{DemaCloud}宮部真衣\JBA梅島彩奈\JBA灘本明代\JBA荒牧英治\BBOP2012\BBCP.\newblock流言情報クラウド:人間の発信した訂正情報の抽出による流言収集.\\newblock\Jem{言語処理学会第18回年次大会},\mbox{\BPGS\891--894}.\bibitem[\protect\BCAY{ネットレイティングス株式会社}{ネットレイティングス株式会社}{2011}]{netrating201103}ネットレイティングス株式会社\BBOP2011\BBCP.\newblockニュースリリース:震災の影響により首都圏ライフライン関連サイトの訪問者が大幅増.\http://csp.netratings.co.jp/nnr/PDF/\linebreak[2]Newsrelease03292011\_J.pdf.\bibitem[\protect\BCAY{野村総合研究所}{野村総合研究所}{2011}]{nomura201103}野村総合研究所\BBOP2011\BBCP.\newblockプレスリリース:震災に伴うメディア接触動向に関する調査.\\newblockhttp://www.nri.co.jp/news/2011/110329.html.\bibitem[\protect\BCAY{Qazvinian,Rosengren,Radev,\BBA\Mei}{Qazvinianet~al.}{2011}]{Qaz2011}Qazvinian,V.,Rosengren,E.,Radev,D.~R.,\BBA\Mei,Q.\BBOP2011\BBCP.\newblock\BBOQRumorhasit:identifyingmisinformationinmicroblogs.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing},EMNLP'11,\mbox{\BPGS\1589--1599},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Ratkiewicz,Conover,Meiss,Goncalves,Patil,Flammini,\BBA\Menczer}{Ratkiewiczet~al.}{2011}]{Ratkiewicz:2011}Ratkiewicz,J.,Conover,M.,Meiss,M.,Goncalves,B.,Patil,S.,Flammini,A.,\BBA\Menczer,F.\BBOP2011\BBCP.\newblock\BBOQTruthy:mappingthespreadofastroturfinmicroblogstreams.\BBCQ\\newblockIn{\BemProceedingsofthe20thinternationalconferencecompanionon{WorldWideWeb}},WWW'11,\mbox{\BPGS\249--252}.\bibitem[\protect\BCAY{Sakaki,Toriumi,\BBA\Matsuo}{Sakakiet~al.}{2011}]{Sakaki:11}Sakaki,T.,Toriumi,F.,\BBA\Matsuo,Y.\BBOP2011\BBCP.\newblock\BBOQTweetTrendAnalysisinanEmergencySituation.\BBCQ\\newblockIn{\BemSpecialWorkshoponInternetandDisasters(SWID2011)},\mbox{\BPGS\3:1--3:8}.\bibitem[\protect\BCAY{白井\JBA榊\JBA鳥海\JBA篠田\JBA風間\JBA野田\JBA沼尾\JBA栗原}{白井\Jetal}{2012}]{Shirai}白井嵩士\JBA榊剛史\JBA鳥海不二夫\JBA篠田孝祐\JBA風間一洋\JBA野田五十樹\JBA沼尾正行\JBA栗原聡\BBOP2012\BBCP.\newblockTwitterにおけるデマツイートの拡散モデルの構築とデマ拡散防止モデルの推定.\\newblock\Jem{人工知能学会全国大会予稿集,IC3-OS-12-1}.\bibitem[\protect\BCAY{鳥海\JBA篠田\JBA兼山}{鳥海\Jetal}{2012}]{Tori}鳥海不二夫\JBA篠田孝祐\JBA兼山元太\BBOP2012\BBCP.\newblockソーシャルメディアを用いたデマ判定システムの判定精度評価.\\newblock\Jem{デジタルプラクティス},{\Bbf3}(3),\mbox{\BPGS\201--208}.\bibitem[\protect\BCAY{梅島\JBA宮部\JBA荒牧\JBA灘本}{梅島\Jetal}{2011}]{Ume11}梅島彩奈\JBA宮部真衣\JBA荒牧英治\JBA灘本明代\BBOP2011\BBCP.\newblock災害時Twitterにおけるデマとデマ訂正RTの傾向.\\newblock\Jem{情報処理学会研究報告.データベース・システム研究会報告},{\Bbf2011}(4),\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{梅島\JBA宮部\JBA灘本\JBA荒牧}{梅島\Jetal}{2012}]{Ume12}梅島彩奈\JBA宮部真衣\JBA灘本明代\JBA荒牧英治\BBOP2012\BBCP.\newblockマイクロブログにおける流言マーカー自動抽出のための特徴分析.\\newblock\Jem{第4回データ工学と情報マネジメントに関するフォーラム(DEIMForum2012),F3-2}.\end{thebibliography}\begin{biography}\bioauthor{鍋島啓太}{2012年東北大学工学部情報知能システム情報学科卒業.同年,同大学情報科学研究科博士課程前期に進学,現在に至る.自然言語処理の研究に従事.情報処理学会学生会員.}\bioauthor{渡邉研斗}{2013年東北大学工学部情報知能システム情報学科卒業.同年,同大学情報科学研究科博士課程前期に進学,現在に至る.自然言語処理の研究に従事.情報処理学会学生会員.}\bioauthor{水野淳太}{2012年奈良先端科学技術大学院大学情報科学研究科博士課程修了.同年より東北大学大学院情報科学研究科研究員.2013年より独立行政法人情報通信研究機構耐災害ICT研究センター研究員.博士(工学).自然言語処理,耐災害情報通信の研究に従事.情報処理学会,人工知能学会各会員.}\bioauthor{岡崎直観}{2007年東京大学大学院情報理工学系研究科・電子情報学専攻博士課程修了.同大学院情報理工学系研究科・特別研究員を経て,2011年より東北大学大学院情報科学研究科准教授.自然言語処理,テキストマイニングの研究に従事.情報理工学博士.情報処理学会,人工知能学会,ACL各会員.}\bioauthor{乾健太郎}{1995年東京工業大学大学院情報理工工学研究科博士課程修了.同研究科助手,九州工業大学助教授,奈良先端科学技術大学院大学助教授を経て,2010年より東北大学大学情報科学研究科教授,現在に至る.博士(工学).自然言語処理の研究に従事.情報処理学会,人工知能学会,ACL,AAAI各会員.}\end{biography}\biodate\end{document}
V30N03-03
\section{はじめに} 対話において,対話の参加者の間で共有される知識や信念の情報を共通基盤(または相互信念)と呼ぶ\cite{CLARK1989259,traum94,kopp21}.複雑な内容を伴う対話は,その内容の理解を積み上げていく必要があるため,ユーザとの高度な対話(例えば,教育,議論,交渉などを目的とする対話)が可能なシステムを実現するためには,対話を通じてユーザとともに共通基盤を構築していき,それに基いて対話を行うモデルを確立することが望ましい.対話をモデル化する上で,共通基盤は重要な概念の一つとされてきたが,共通基盤が構築される過程を分析した研究は少なく,その過程は明らかではない\cite{nakano19}.共通基盤を扱った従来の研究では,話者が対話を通じて共同作業を行う課題を設定し,対話や課題に関する情報を記録,分析するというアプローチが取られてきた\cite{benotti21,chandu21}.課題の達成には作業者間で共通基盤を構築する必要があることから,課題の最終的な結果を共通基盤と関連付けて分析することで,対話と共通基盤の関係性が分析されている\cite{anderson91,foster08,he17}.そのため,対話を通じてどのように共通基盤が構築されるかという過程そのものに関する研究は,いくつかの例外を除き行われてきていない.例外として,\citeA{udagawa19}は,共通基盤の構築過程を分析するために,課題に関するオブジェクト,および,対話中に出現する参照表現を人手で結び付けたデータを作成し,参照表現からオブジェクトを推定する研究を行った.また,\citeA{bara21}は,仮想空間上で話者が対話を通じて共同作業を行う課題において,対話相手の信念や行動についてどの程度理解しているかを問う質問をリアルタイムに話者に回答させることで,対話中の共通基盤を記録している.これらの研究では,対話中の共通基盤を手作業で記録する必要があり,高いコストがかかる.また,分析可能な情報は,あらかじめ定義された参照表現や質問の内容に限定される.本論文では,\hl{共同作業を行う対話を対象とし,}課題の中間結果を構築中の共通基盤に相当するものとして自動的に記録することで,共通基盤構築の過程を分析する手法を提案する.課題の中間結果をその時点における共通基盤に相当するものとして記録することで,共通基盤が記録された対話を低いコストで収集でき,対話の各段階における各話者の信念やその共通部分である共通基盤を分析することが可能になる.このために,2名の作業者がテキストチャットを用いて,ランダムに配置されたオブジェクトを共通のレイアウトに配置する課題,{\bf\taskname}(\fig{diagram})を設定した.本課題において,2名の作業者が作成したレイアウトを各作業者の信念とみなし,それらの類似度を利用することで,対話を通じて構築される共通基盤を定量化することが可能である.{\taskname}を用いて984対話を収集し,共通基盤構築の過程を調査した結果,\hl{共通基盤の構築過程にいくつかのパタンが見られ,また,対話相手の発話を肯定したり,話者自信の理解を相手に伝えたりする表現が出現している場合,共通基盤が構築できている傾向にあると考えられる.}さらに,共通基盤を構築可能な対話システム\hl{の実現}に向けて,対話の各段階における共通基盤構築の度合いを推定する実験を実施した結果,対話とレイアウトの双方の情報が推定に有用であることが明らかになった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-3ia2f1.pdf}\end{center}\hangcaption{本研究で提案する{\taskname}.各作業者は自身の図形配置しか参照することができず,相手の図形配置は参照することはできない.}\label{fig:diagram}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本論文の貢献は以下の3点である.\begin{enumerate}\item対話中の共通基盤を自動的に記録する手法を提案した.提案手法を利用することで,人手によるアノテーションやアンケートへの回答を経ることなく共通基盤が構築される過程を記録することが可能となる.また,提案する共同図形配置課題の対話を984対話収集した共同図形配置コーパスを構築した.\item共通基盤構築の過程を初めて定量的に明らかにした.具体的には,共通基盤構築の過程が複数の典型的なクラスタに分けることができ,また,\hl{対話中に肯定的な評価や共感を示す発話が出現している場合,共通基盤が構築できている傾向にあると考えられる.}\item共通基盤を構築可能な対話システムの実現に向けて,共通基盤構築の度合いを対話と課題の内容から推定する実験を行い,その双方の内容が推定に有用であることを示した.\end{enumerate}%本研究で提案する共同図形配置課題は,共通基盤を記録することを目的として設計されており,その対話の内容は一般的な対話と比較して限定的である.しかしながら,我々の知る限り,共通基盤構築の過程を定量化した試みは本研究が初めてである.共通基盤の構築過程は,相互理解を必要とするあらゆる対話に現れうるため,本研究の知見は共通基盤を扱う対話システムの研究一般において有用だと考えている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 共通基盤の研究はこれまで,主に話者間で共通基盤構築を必要とする特定の課題を対象に,人対人の対話を分析することで扱われてきた\cite{benotti21,chandu21}.共通基盤構築の成否は課題の最終結果に基づいて定義され,課題達成に成功した場合,対話を通じて共通基盤が適切に構築されたとみなされる.初期の研究では,具体的な課題として,地図を用いて経路の伝達やオブジェクトの操作を行う課題\cite{anderson91,carletta97,bard00,danise12}や,二次元平面上に配置されたパズルを解く課題\cite{clark86,foster08,spanger09,tokunaga12}が提案されてきた.\hl{また,共通基盤は,対話研究における基盤化のモデルの中でも扱われてきた.代表的なものとして,対話を通じた基盤化の過程をグラフ\cite{CLARK1989259}やオートマトン\cite{traum94}として表現するモデルが存在する.これらは本研究と同様対話の基盤化の過程に着目しており,先行研究とみなせる.本研究は共通基盤の構築度合いの定量化しており,従来のモデルと組み合わせることで,これらのモデルの検証につながる可能性がある.}近年は,共通基盤を対象とした研究において,与えられた環境の中で話者が特定のオブジェクトを見つけたり,作成したりするという課題が数多く提案されている.話者に与える環境として,例えば,テキスト\cite{he17,lewis17,gero20},画像\cite{liu12,vries17,kim17,udagawa19},仮想空間\cite{polyak17,ilinykh19,hahn20,jayannavar20},現実空間\cite{liu16}を扱う課題が提案されている.また,人対システムの対話ではあるものの,もう一つの主要な研究分野として,実空間でロボットを操作することを目的として,入力されたユーザ発話を現実空間のオブジェクトに関連付ける研究\cite{moratz09,hough17,chai17,waveren19}も取り組まれている.これらの研究では,主に対話と課題の最終結果に基づいて,対話と共通基盤の関係が分析されている.なぜならば,これらの研究は,対話を通じて課題を成功させるために,どのような対話現象が生じているかを明らかにしたり,その対話現象に基づき課題を自動的に達成するシステムを構築することを目的としているからである.しかしながら,先行研究の枠組みでは共通基盤構築の過程を記録することはできないため,共通基盤が構築される過程の分析が難しいという問題がある.我々の研究は共通基盤構築の過程を記録することを試みるものであり,同様の目的で設計された課題であるOneCommon\cite{udagawa19,udagawa20},および,MindCraft\cite{bara21}との関連が深い.OneCommon\cite{udagawa19}は,複数の点(ドット)がランダムな位置,大きさ,色で配置された二次元平面の画像が与えられた状況で,二名の作業者が共通の点を選択する課題である.二名の作業者には,二次元平面に関して,作業者間でわずかに異なる領域が与えられ,テキストチャットを通じて共通のドットを1つ選択する.作業者間で選択されたドットが同じであれば,課題は成功となる.このとき,作業者間で参照表現等の多様な言語表現を利用しつつ共通のドットを探す過程は,共通基盤の構築過程とみなすことができる.そのため,ドットへの参照表現が人手でアノテーションされている\cite{udagawa20}.また,MindCraft\cite{bara21}は,ビデオゲームのMinecraft\footnote{\url{https://www.minecraft.net/ja-jp}}において,二名の話者(プレイヤ)がそれぞれ異なる知識とスキルを与えられた状況で,協力して特定のオブジェクトを作成する課題である.課題を進める間,75秒ごとにプレイヤが共通基盤に関する所定の質問(例えば,「あなたの相手は今,何を作っていると思いますか?」という質問)に回答することで,共通基盤が構築される過程を記録している.我々の研究はこれらの研究と類似するものの,共通基盤を自動的に記録することが可能であるという点において異なる.共通基盤を自動的に記録することで,データ収集のコストを削減することができ,かつ,共通基盤に関する情報が対話の各時点について得られるため,収集されたデータと対話を紐づけることで,共通基盤の構築過程を扱う研究の可能性を大きく広げると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{共同図形配置コーパスの構築} 本節では,まず,共通基盤構築の過程を記録するための課題として必要な要件を述べる.次に,要件に基づき設定した共同図形配置課題の定義を述べた後,本研究で実施した対話データ収集について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{課題設定のための要件}\label{ssec:conds}特定の課題を通じて共通基盤構築の過程を記録するため,まず,課題の要件を設定した.この要件の設定には,OneCommon\cite{udagawa19}で述べられている課題の要件を参考にした.具体的には,OneCommonでは要件として,課題の中に{\itcontinuous}な(連続性のある)要素,および,{\itpartially-observable}な(部分的可観測性のある)要素を含めている.{\itcontinuous}な要素とは,課題に関して,離散的な情報(例えば,有限の候補からなるラベル集合)ではなく,画像のような連続的な情報が含まれることを意味する.連続的な情報は離散的な情報と異なり,その情報を対話の中で端的に表現することが難しいため,作業者には複数の発話を通じて情報をやり取りする必要が生じる.また,{\itpartially-observable}な要素とは,課題の初期状態において,作業者間で課題に関する部分的な情報のみが共有されることを意味する.このような状況では,作業者は対話を通じて自身の情報を相手に共有する必要が生じる.OneCommonで提案されている要件に加え,本研究で扱う課題には新たに二つの要件を追加した.第一の要件は,課題が達成されるまでに,作業者が一回の操作ではなく,複数回の操作を行う必要があるというものである.本要件を導入することで,操作結果,すなわち,課題の結果が複数段階に分割され,課題の中間結果をその時点における共通基盤に相当するものとして記録することが可能になる.第二の要件は,構築される共通基盤を定量化するために,課題の中間結果はその進捗が定量化可能であるというものである.本要件を導入することで,対話の各段階における共通基盤を定量的に扱うことが可能になる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{共同図形配置課題}\fig{diagram}に,テキストチャットを通じて,同じ図形の集合を共通のレイアウトに配置する課題({\taskname})の概要を示す.作業者には初期配置として,作業者ごとに図形がランダムに配置されているレイアウトが与えられる.このレイアウトは,各作業者の課題に関する信念とみなされる.作業者はテキストチャットを通じて,最終的なレイアウトの目標を議論しながら,一つずつ順に図形を共通の位置に配置していくことで,共通基盤となる共通のレイアウトを作成する.このとき,課題の制限として,作業者は自身のレイアウトしか見ることができない.そのため,相手のレイアウトを想像しながら,自身の図形を配置する必要がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{30-3ia2f2.pdf}\end{center}\hangcaption{{\taskname}の対話を収集するためのインターフェース.図には1名の作業者に提示されるインターフェイスを示している.各作業者は,共通のチャット画面,および,自身の図形配置画面を見ることができるが,相手の図形配置画面を見ることはできない.}\label{fig:tool}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\fig{tool}に,{\taskname}の対話を収集するためのインタフェース(二名の作業者AとBのそれぞれに提示される画面)を示す.インタフェースは作業の開始と終了のボタン,カウントダウンタイマ,図形配置画面,チャット画面(メッセージ入力ボックスとメッセージ送信ボタンを含む)から構成されている.作業開始時,図形配置画面には作業者ごとにランダムに配置された図形が表示されている.作業者は図形配置画面の中で,マウスを利用して図形を操作することで共通のレイアウトを作成する.図形の操作としては平行移動のみが許容されており,図形の削除,回転,拡大,縮小はできない.このとき,インタフェースは作業者が図形を移動する際の全てのマウス操作(ドラッグ&ドロップ)を,座標,タイムスタンプと共に操作ログとして自動的に記録する.\hl{作業者は対話中にいつでもレイアウトを操作可能であり,インタフェースはその操作結果とタイムスタンプを全て記録する.}作業者は自身の図形配置画面しか見ることができないが,チャット画面については作業者間で共通の内容のものを見ることができる.作業が進み,チャットを通じて作業者の間で配置が同一になったと作業者が判断した場合,作業者は終了ボタンを押し課題を終了する.または,課題開始から10分が経過したとき,課題は終了となる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{30-3ia2f3.pdf}\end{center}\caption{{\taskname}で使用する図形セット2種類,{\SimpleFig}(左)と{\MapFig}(右)}\label{fig:objects}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\fig{objects}に,{\taskname}で配置の対象となる二種類の図形集合({\SimpleFig}と{\MapFig})を示す.図中の左側は{\bf\SimpleFig}を表し,右側は{\bf\MapFig}を表す.{\SimpleFig}は10個の基本図形(例えば,四角形や円形)から構成されており,{\MapFig}は10個の建物アイコン(例えば,バーや警察)から構成されている.単純図形にはMicrosoftPowerPoint\footnote{\url{https://www.microsoft.com/ja-jp/microsoft-365/powerpoint}}に登録されている図形を利用し,建物図形には建物を端的に表す白黒のアイコンセット\footnote{\url{https://www.flaticon.com/packs/city-life-3}における白黒アイコンを利用した.}を利用した.{\MapFig}は{\SimpleFig}と異なり,作業者が図形に関する前提知識を利用することができる(例えば,前提知識に基づき配置方針を伝える発話として,「安心してバーに行けるよう,近くに警察を配置しよう」という発話が考えられる).{\SimpleFig}と{\MapFig}という二種類の異なる性質の図形を配置対象のオブジェクトとすることで,収集対象の対話が特定の種別のオブジェクトのみを扱う対話にならないよう配慮している.これらの図形集合を用いて,図形配置画面に表示する図形の個数を5個または7個とし,重複ありでランダムな大きさ,位置に設定することで初期配置を作成した\footnote{レイアウトの大きさを$1\times1$の正方形としたとき,各図形の大きさ(図形を包含する正方形の辺の長さ)を0.1以上0.2以下と定義した.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対話データ収集}作業者のペアが{\taskname}を行う対話を大規模に収集し,コーパスを構築した.以降,本コーパスを{\bf{\corpusname}}と呼ぶ.対話の収集実験には,287名の作業者が参加した.作業者はクラウドソーシングを専門とする会社を通じて募集され,実験への参加条件として,日本語を母国語としており,かつ,簡単なPC操作に慣れている作業者という条件を設定した.募集の際には,作業者の属性(年齢,性別,職業等)が偏らないよう努めた.実験に参加した287名の作業者の中で,初対面の作業者2名をランダムに組み合わせることでペアを作成し,その結果,213組が課題を実施した.このとき,各作業者ペアは4回ずつ課題を実施した({\SimpleFig}5個,{\SimpleFig}7個,{\MapFig}5個,{\MapFig}7個の計4回).作業者への教示として,実験の目的,タスク概要,図形の種別,理想的なレイアウトの配置方針(できるだけ相手の意見を聞き,かつ,工夫を\hl{凝らす}ようなレイアウトを作成するようするというもの)を与えた.\hl{さらに,図形の操作は対話を行いながら実施するよう作業者に指示した.}また,実験参加にあたって,身体的負担を考慮し,いつでも実験の継続を中止することが可能である旨を伝えた上で作業を実施させた.\hl{データ収集にあたっては,監督者が教示に基づいて実際の作業前に各作業者にインストラクションを行い,対話ごとに作業者とコミュニケーションを取るようにした.そのため,タスクを理解していないケースはほとんど存在しないと考えている.これを裏付けるものとして,各対話の内容を人手で確認することで,作業の品質に問題がないことを確認した.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{02table01.tex}%\caption{{\corpusname}の統計量}\label{tab:stats}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tab{stats}に,{\corpusname}として収集されたデータの統計情報を示す.213組の作業者ペアが課題を実施することで,合計984の対話が収集された\footnote{作業者ペアの割り当ての都合により,例外的に213組のうち24組の作業者ペアは4回課題を実施する作業を複数回実施した.}.表の通り,各対話には平均28.8発話が含まれており,平均65.4回の図形操作が含まれていた.図形集合間の比較として,{\MapFig}は{\SimpleFig}に比べ,対話あたりの発話数が多く,一方で操作数が少ない傾向が確認できる.これは,建物に関する前提知識を使用することができる{\MapFig}の方が,{\SimpleFig}よりも最終的なレイアウトを議論しやすく,効率的に図形を配置できたためと考えられる.なお,288組が平均521秒と10分以内に課題を完了し,その他のペアは最長10分,\hl{すなわち}時間切れまで作業を行っていた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\vspace{-1\Cvs}\input{02table02.tex}%\hangcaption{{\taskname}で収集された対話の例.この対話は\fig{tool}に示すセッションで収集されたものである.}\label{tab:dialogue}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tab{dialogue}に,収集された対話の例を示す.この例は,\fig{tool}のインタフェースの説明において示したレイアウト(図形集合が{\SimpleFig}であり,図形個数が5個のもの)を対象に特定の作業者ペア二名(AとB)によって収集された対話である.最終的なレイアウトのアイデアは,$U_{14}$までに作業者間で合意されており,各図形は$U_{15}$以降,お互いが指示を出し合うことで順に配置されている.$U_7$から$U_{14}$までの発話において,相談を通じて図形のレイアウト方針が決定したり,また,$U_{24}$や$U_{29}$の発話において,作業者が配置を指示したり,自身の配置を伝えたりしており,対話を通じて共通基盤が構築されている様子が確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{共通基盤構築過程の分析} 収集した{\corpusname}に基づき,共通基盤構築の過程を分析した.まず,各対話において,二名の作業者が作成した最終的な二つのレイアウトが一致しているかを人手で確認した.次に,レイアウトの類似度に基づいて,課題の中間結果を共通基盤として定量化した.最後に,定量化した共通基盤の系列に対して時系列分析を適用し,共通基盤構築における典型的な流れを調査した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{\cgpattern}\label{ssec:classify}収集したデータを人手で確認した結果,多くの作業者ペアが課題を達成したと判断しているにも関わらず,一部のレイアウトのペアは同一になっていないことが明らかになった.共通基盤を定量化するためには,どのようなレイアウトのペアを一致とみなすか,すなわち,レイアウトのペアがどのような状態になっていれば共通基盤が構築できたとみなすかを明らかにする必要がある.そのため,まず,最終的なレイアウトペアの一致,不一致のパタンを明らかにした.\fig{patterns}に,最終的なレイアウトのペアにおける一致,不一致のパタン({\cgpatterns})を示す.{\cgpatterns}を作成するために,最終的なレイアウトのペアをランダムに50組選択し,著者らが手作業で類似するペアをまとめることでパタンを作成した.その結果,{\cgpatterns}は大きく3つのパタン({\finsuc},{\finalm},{\finfail})に分類され,詳細には7つのパタン(パタン1--7)に分類された.\hl{パタン3の同図形混同は,大きさの異なる同一の図形(例えば,大きさの異なる二つの三角形や警察署の図形)の配置のみが異なるものを指す.}このとき,パタン1--2({\patperf},{\patzero})において課題が成功,パタン3--6({\patconfsame},{\patconf},{\patsym},{\patsize})において部分的に成功,パタン7({\paterr})において失敗しているものとみなすこととした.{\patperf}に加え,{\patzero}も課題が成功したとみなした理由は,作業者への教示として,図形全体を絶対座標において同じ位置に配置するよう指示しなかったためである.\hl{また,教示では,図形全体の配置を合わせるという課題において,対称ずれ(鏡像)が成功とみなされないことは自明と考えたため,対称ずれを避ける指示は行っていない.なお,アノテーションの一致率を確認するため,著者と同組織に所属する作業者二名がランダムサンプリングした50件のレイアウトペアについてアノテーションを行ったところ,単純一致で74\%,Cohen'skappaで0.68となり,妥当な分類になっていることを確認した.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{30-3ia2f4.pdf}\end{center}\caption{最終図形配置パタン}\label{fig:patterns}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tab{patternfreq}に,著者らとは異なる作業者(同組織に所属する専門のアノテータ)が{\corpusname}に含まれる全984件のレイアウトペアに{\cgpattern}をアノテーションした結果を示す.この表から,成功率({\patperf}または{\patzero})は25\%($=19\%+7\%$)となることが確認できる.図形集合については,{\SimpleFig}よりも{\MapFig}の方が成功率が高い.これは,{\MapFig}で図形に関する前提知識を利用することで共通基盤の構築が容易になったためと考えられる.一方,図形数については,各パタンの出現頻度は5個と7個でほぼ同じ傾向となり,図形数が増えたとしても課題の難易度は大きく変化しないことが確認できる.\hl{複雑な図形は複数の類似の図形(例.直角三角形と正三角形,四角形と平行四辺形など)を含むため,一致しにくい傾向があった.}興味深い点として,図形が全く一致しないもの({\paterr})が{\SimpleFig}で27\%,{\MapFig}で13\%または15\%存在しており,共通基盤が構築される過程のみならず,共通基盤の構築に失敗する過程をも分析可能なコーパスになっていることが確認できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{02table03.tex}%\caption{{\cgpatterns}の頻度}\label{tab:patternfreq}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{共通基盤の定量化}{\cgpatterns}に基づき,対話中の共通基盤を定量化する尺度として{\cgscore}を導入する.このとき,パタン1--2({\patperf},{\patzero})において課題が成功,パタン3--6({\patconfsame},{\patconf},{\patsym},{\patsize})において部分的に成功と定義していることから,{\finsuc}で{\cgscore}の値が最も小さくなるよう尺度を設計した.この指標は,レイアウトペアに含まれる任意の二図形間の距離の和であり,次式で示される.\[図形配置間距離(L_{A},L_{B})=\frac{1}{2}\sum_{i\in{\rmFigures}}^{}\sum_{j\in{\rmFigures}}^{}\|\vec{a}_{i,j}-\vec{b}_{i,j}\|\]$L_A$,$L_B$は作業者A,Bが作成したレイアウト,\hl{Figuresは一つのレイアウトに含まれる全図形の集合,}$a_{i,j}$および$b_{i,j}$は,$L_A$および$L_B$に含まれる二つの図形,$i$と$j$(例えば,\fig{ld}の図形1と図形2)を結ぶベクトルを表す.\fig{ld}に,二図形間の距離($\|\vec{a}_{i,j}-\vec{b}_{i,j}\|$)の例を示す.これらのベクトルの差の距離をレイアウトに含まれる全ての図形の組み合わせに対して足し合わせたものが{\cgscore}であり,{\cgscore}の値が小さいほど,共通基盤の構築が進んでいることを表す.この{\cgscore}に基づいて,対話内の各タイムステップにおける共通基盤が構築されている度合いを定量的に評価することができる.\hl{対話のある時点において図形配置間距離を計算する際には,その時点に最も近いタイムスタンプの$L_A$および$L_B$(各作業者がその時点までに行った全操作を反映したレイアウト)を利用する.なお,本尺度の他に,ユーザ間で同一の図形間の距離(例えば,作業者Aの図形1と作業者Bの図形1の距離)を足し合わせるという尺度を検討したが,原点ずれの場合において距離が小さくならないという問題があったため,採用しなかった.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{30-3ia2f5.pdf}\end{center}\caption{{\cgscore}の計算に用いる,レイアウト$L_A$と$L_B$の間で定義される二図形間の距離}\label{fig:ld}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\fig{mean}に,対話中の{\cgscore}(共通基盤構築の度合い)の遷移を示す.\hl{横軸は対話の進行度を表しており,1回の発話,または,同じ図形を複数回連続して動かす操作を1タイムステップとした\footnote{\hl{本研究で定義しているタイムステップ(1回の発話,または,同じ図形を複数回連続して動かす操作)は,ターン(ある作業者の発話と操作,および,もう一方の作業者の発話と操作を一つにまとめたもの)とは異なる概念である.}}.各ステップにおける図形配置間距離をプロットする際には,線形補完を用いて,全ての対話のタイムステップ数を50に正規化した.}課題終了時(タイムステップが50の時点)の{\cgscore}は{\finsuc},{\finalm},{\finfail}の順に高くなっており,我々の定義通りに共通基盤が構築されている度合いを定量化できることが確認できる.\hl{また,図形配置間距離の変化と発話を目視で確認したところ,発話単位でずれが生じていることはなかった.このことにより,ずれは本研究におけるスコアの計算結果に影響は与えないと考えている.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[t]\begin{center}\includegraphics{30-3ia2f6.pdf}\end{center}\hangcaption{対話における{\cgscore}(共通基盤構築の度合い)の遷移.ステップ数は対話の進行度を表しており,0は対話の開始時点,50は対話の終了時点を表す.}\label{fig:mean}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%定義した{\cgscore}に基づいて,共通基盤構築の典型的な過程を明らかにするために,k-meansに基づく時系列クラスタリング手法であるk-Shape\cite{paparrizos15}を使用して{\cgscore}の系列をクラスタリングした.具体的には,{\corpusname}に含まれる全984対話(すなわち,984個の{\cgscore}の系列)に対して,k-Shapeを適用することで,{\cgscore}の系列における典型的なクラスタを調査した.\fig{clustering}に,{\cgscore}に対して時系列クラスタリングを適用した結果を示す.各クラスタの図において,X軸はタイムステップ,Y軸はz正規化した{\cgscore}を表す.クラスタ数は5に設定されており,理由として,クラスタ数を6以上にした場合,類似のクラスタが出現し,また,4以下にした場合,複数の特徴が混じり合ったようなクラスタが構成されたためである.各クラスタ(C1--5)の対話数の比率は,それぞれ29\%,28\%,24\%,12\%,7\%であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[b]\begin{center}\includegraphics{30-3ia2f7.pdf}\end{center}\caption{共通基盤の構築過程をクラスタリングした結果(C1--C5)}\label{fig:clustering}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\hl{各クラスタの傾向を明らかにするために,クラスタごとに10対話をサンプリングし,著者らで傾向を分析した.}クラスタ1は,対話を通じて一貫して{\cgscore}が減少しており,共通基盤が終始滞りなく構築されている対話のクラスタである.クラスタ1に含まれる対話として,例えば,対話の序盤で目標が決定され,目標に従って図形を順に配置していくことで{\cgscore}が順調に低下している対話が見られた.\hl{クラスタ2--4は,対話の中盤まで図形配置間距離が減少しておらず,共通基盤構築が停滞する期間を含む対話のクラスタである.特徴は共通基盤の構築が進み始めるタイムステップが異なっている点であり,それぞれタイムステップがおよそ15,25,35の時点から進み始めている.またその他の特徴として,クラスタ4において,作業者が図形をグルーピングし,グループごとに図形の配置を合わせる対話が含まれていた.作業者が図形をグルーピングし,グループごとに作業を行ったことで,終盤まで図形配置間距離が減少しなかったと考えられる.}クラスタ5は{\cgpatterns}の{\paterr}に相当しており,共通基盤がうまく構築されていない対話のクラスタである.クラスタ5に含まれる対話としては,例えば,位置の確認を怠った対話や,最終的なレイアウトの目標の認識に齟齬がある対話(具体的には「斜めに配置」という目標を一方の作業者は「右下がり」と理解し,他方の作業者は「左下がり」と理解して作業を進めた対話)が見られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{02table04.tex}%\hangcaption{{\taskname}の成否(\finsuc,\finalm,\finfail)と,\fig{clustering}で示した共通基盤構築過程クラスタリング結果(C1--C5)との対応関係}\label{tab:mapping}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tab{mapping}に,{\taskname}の成否と,\fig{clustering}で示した共通基盤構築過程クラスタリング結果との対応関係を示す.表中の各数値は,各クラスタにおける課題の成否(\finsuc,\finalm,\finfail)の割合を表す(列方向に値を足すと100\%となる).クラスタ1--3では,{\finsuc}と{\finalm}の割合が多く,共通基盤の構築に成功した対話が含まれていることが確認できる.\hl{クラスタ1とクラスタ2を比較すると,クラスタ2の方が成功の比率が多く,課題に成功するために必ずしもクラスタ1のような共通基盤構築の過程を経る必要はない(図形配置間距離が停滞する期間があってもよい)と考えられる.}一方,クラスタ4,5には,{\finfail}に対応する{\paterr}が多く含まれており,共通基盤の構築に失敗した対話が含まれていることが確認できる.これらの結果から,{\finsuc}の対話では,比較的早い段階から共通基盤が構築され始め,対話が終わる頃には十分な共通基盤が構築されている傾向があると考えられる.{\finfail}の対話では,対話の後半から共通基盤が構築され始め課題終了までに十分な水準に達しなかったり,対話全体を通して共通基盤を構築できないという傾向があると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{共通基盤構築過程と対話の分析}定義した{\cgpattern},および,{\cgscore}に基づき,共通基盤の構築に成功した対話と失敗した対話に出現する言語表現や対話の特徴を調査し,どのような言語表現や特徴を持った対話を実現することが共通基盤構築において重要なのかを調査した.これらの言語現象や対話の特徴は,ユーザと共通基盤を構築可能な対話システムを構築するための有用な知見となると考えられる.調査方法として,まず,言語表現を調査するために,収集された対話を先に述べた3種類の課題の成否({\finsuc},{\finalm},{\finfail})に基づいて分け,それぞれの対話において頻繁に出現する言語表現と対話行為を調査した.また,対話の特徴を調査するために,それぞれの対話における対話行為の遷移を隠れマルコフモデル(HiddenMarkovModel;HMM)を用いてモデル化し,対話の大局的な構造や,どの遷移が特に共通基盤の構築に有効であるかを{\cgscore}に基づき調査した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{02table05.tex}%\hangcaption{課題の成否で分類した各対話において統計的に有意に出現する上位10個の言語表現.``**''は$p<.01$,``*''は$p<.05$を表す.}\label{tab:phrases}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tab{phrases}に,対話の中で統計的に有意な上位10個の言語表現を示す.各表現は述語相当表現(動詞はまた形容詞を含む文節)を表しており,表現の抽出には,日本語形態素解析器JTAG\cite{fuchi98}を使用した.検定手法としてフィッシャーの正確確率検定を利用し,$p$値を用いて昇順に表現をランキングすることで,三種類の対話のいずれかの対話において有意に出現頻度が高い表現を列挙した.この表から,{\finsuc}では,「良いと」などの肯定的な評価や,「しましょう」,「できました」などの図形操作に関する表現が多く出現していることが分かる.また,{\finalm}では,「いいですね」のような肯定的な表現が出現しているものの,「しました」,「置きました」などの図形操作を示す表現がより多く見られる.一方,{\finfail}では,肯定的な評価や図形操作に関する表現は見られず,「どうしますか」や「眺めている」など,意図が曖昧な表現が多く見られた.\hl{これらの結果から,対話において自身の理解や行動を伝えるための評価表現,共感,具体的指示が出現している場合,共通基盤が構築できている傾向にあると考えられる.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{02table06.tex}%\hangcaption{課題の成否で分類した各対話において統計的に有意に出現する上位5つの対話行為.``**''は$p<.01$,``*''は$p<.05$を表す.}\label{tab:da}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tab{da}に,課題の成否で分類した各対話において統計的に有意に出現する上位5つの対話行為を示す.対話行為として,\citeA{meguro11}が提案したラベルセットを利用し,各発話に対して自動的にラベルを付与することで検定を行った.\hl{推定精度は45\%,人手のアノテータ間の単純一致は59\%と報告されており\cite{higashinaka14},得られる推定結果は妥当と考えられる.}ラベルセットには,33種類(例:自己開示:話者の好みや感情の開示,情報提供:客観的情報の伝達,共感・同意:共感的な発話や賞賛)の対話行為が定義されている.ラベルの推定には\citeA{higashinaka14}において学習されたサポートベクトルマシンに基づく分類器を利用した.また,\tab{phrases}と同様に,フィッシャーの正確確率検定を利用した.この表から,{\finsuc}では,ポジティブな評価を表す自己開示,感謝,共感など,相手を肯定する表現が多く出現していることが確認できる.{\finsuc}と同様に,{\finalm}でも共感を示す表現が多く出現しており,また,評価に関する質問が多く出現している.{\finfail}では,情報提供や挨拶など,{\finsuc}や{\finalm}とは異なる対話行為が多く見受けられる.評価に関連する表現も出現するが,その内容はネガティブなものである.\hl{これらの結果から,\tab{phrases}に示した言語表現の結果同様,対話において肯定的な評価や話者の理解を伝える共感,同意を示す発話が出現している場合,共通基盤が構築できている傾向にあると考えられる.}上記で述べた言語表現の調査では,述語や対話行為などの言語現象のみに焦点を当ててきた.さらなる調査として,言語現象(以降,対話行為を対象とする)と{\cgscore}の双方の遷移を組み合わせて分析することで,対話の大局的な構造と共通基盤構築の関係性や,どのような対話行為が共通基盤構築に大きく寄与するかを定量的に明らかにできる可能性がある.このために,対話行為の遷移をモデル化する手法として,状態数が未知の系列における構造を学習する手法であるHMMを利用し,対話のモデル化を行った\cite{rabiner86}.実装として,HMMの学習と推論が可能なライブラリであるHMMlearn\footnote{\url{https://github.com/hmmlearn/hmmlearn}}を使用した.HMMの学習方法は,\citeA{meguro13}に準じ,具体的には,エルゴードHMM(遷移先の次の状態から前の状態にも戻ることができるHMM)における半数の状態集合から特定の話者(例えば話者A)の対話行為のみを出力し,残りの半数の状態集合から他方の話者(例えば話者B)の対話行為を出力するよう初期化し,学習を行った.このとき,状態数は1~10とし,各状態数において10個のHMMを学習することで,計100個のHMMを作成した.作成したHMMから,最適なHMMをMinimumDescriptionLength(MDL)基準で選択することで,対話の最終的なモデルを決定した.\fig{hmm}に,{\finsuc}における対話,および,{\finfail}における対話に含まれる対話行為の系列から学習されたHMMを示す.なお,{\finalm}は{\finsuc}と同様のHMMが構築されたため省略している.各状態において,`A'と`B'は二名の話者を表しており,また,該当話者による対話行為のうち観測確率の高いもの(観測確率が0.1以上のもの)が列挙されている.状態間のエッジに付与されている`p'は遷移確率を表し,辺の太さに相当する.また,`d'は遷移における{\cgscore}の差の平均を表しており,下記の式で定義される,隣接する二つの状態に含まれる各対話行為のペアにおける{\cgscore}の差を出現確率で重み付けして計算した値である.\[d(s_i,s_j)=\sum_{o_k\ins_i}{\sum_{o_l\ins_j}{p(o_k|s_i)p(o_l|s_j)f(o_k,o_l)}}\]$s_i$はHMMモデルの状態$i$,$o_k$は各状態における観測である対話行為,$p(o_k|s_i)$は状態$s_i$における対話行為$o_k$の観測確率を表す.また,$f(o_k,o_l)$は{\corpusname}全体において,対話行為が$o_k$と分類された発話の直後に,対話行為$o_l$の発話が出現したときの,{\cgscore}の平均変化量を表す.すなわち,あるエッジの`d'({\cgscore}の差)が小さい値(負の値)である程,そのエッジで遷移する二つの状態の間で共通基盤の構築が進んでいることを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[t]\begin{center}\includegraphics{30-3ia2f8.pdf}\end{center}\hangcaption{対話行為の系列から学習されたHMMモデル.左側は課題の結果が{\finsuc}の対話,右側は課題の結果が{\finfail}の対話に対応する.`A'と`B'は二名の話者を表し,エッジ上の`p'は遷移確率,`d'は{\cgscore}の差分(平均値)を表している.エッジは遷移確率`p'が高いほど太くなっている.また,{\cgscore}の差分`d'の値が小さい値(負の値)である程,共通基盤の構築が進んでいることを表す.}\label{fig:hmm}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%二つのHMMから,これらの対話の構造は全く異なるものであり,{\finfail}の対話よりも{\finsuc}の対話の方が複雑な構造を持つという傾向が確認できる.二つのHMMの間で共通する構造として,挨拶に関する状態のペア(両HMMの状態1と状態2),および,情報・共感に関する状態のペア(両HMMの状態3と状態4)が見られる.すなわち,基本的にはどちらの対話もお互いによる挨拶から始まり,その後,互いの情報提供に進むと考えられる.また,二つのHMMの間で異なる構造として,共感・同意やポジティブな評価の自己開示に関する状態のペア(成功の場合のHMMにおける状態5と状態6)は,成功の対話のみに見られ,失敗の対話には見られない.エッジ上の`d'の値(共通基盤構築の進捗を表すもの)に着目すると,この共感・同意やポジティブな評価の自己開示のペアの間のエッジが最も小さい値($-0.15$)になっており,特に共通基盤の構築が進んでいるとみなせる.ここまで述べてきた三種類の分析(頻出する述語の分析,頻出する対話行為の分析,対話行為と{\cgscore}を用いたモデル化)の結果をまとめる.{\taskname}において共通基盤の構築に成功した対話では,共感や同意の発話,および,評価に関する自己開示の発話が多く出現する傾向が見られた.これらの発話を通じて,作業者が自身の理解を伝えたり,相手の発話や配置に対する肯定的な評価を伝えたりする言語表現が見られた.\hl{特に,共感や同意の発話を伝える際に,図形配置間距離が最も低下する(共通基盤の構築が進む)傾向があることから,これらの発話を行っている場合,共通基盤が構築できている傾向にあると考えられる.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{図形配置間距離の推定} ユーザと共通基盤を構築可能な対話システムの実現の第一歩として,作業者の間で構築された共通基盤の程度を自動で推定する問題に取り組む.ユーザと共同作業を行うことができる対話システムは,過去の対話,および,自身の課題の状況に基づいて,ユーザとの間でどの程度共通基盤が構築できているかを把握しながら課題を遂行することが望ましい.したがって本研究では,最も基本的な問題として,対話と一方の作業者のレイアウトのみを入力とし,{\cgscore}で表される共通基盤構築の度合いを推定する問題に取り組む.具体的には,対話中のあるタイムステップ$i$において,対話文脈がU$_1$~U$_i$の発話,U$_i$の話者が作業者A(もう一方の作業者はB)であるとする.このとき,対話文脈U$_1$~U$_i$,および,AのレイアウトL$_{A,i}$が与えられたとき,タイムステップ$i$における{\cgscore}$_i$を,Bのレイアウト$L_B$に関する情報なしに推定するというものである.\hl{なお,入力として対話はタイムステップ$i$までの全ての発話を利用するが,画像についてはタイムステップ$i$の画像のみを利用する.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデルとデータセットの作成}\fig{model}に,対話と一方の作業者のレイアウトのみから{\cgscore}を推定するモデルを示す.本研究では,テキストおよび画像に関する事前学習済みモデルに基づいて,対話とレイアウトの両方を考慮して目的の出力を得るモデルを採用した\cite{soleymani19}.事前学習済みモデルとして,多様な問題に汎用的に適用できることを期待し,対話からの特徴量抽出にはBERT(BidirectionalEncoderRepresentationsfromTransformers)\cite{devlin19}を利用し,レイアウトからの特徴量抽出にはResNet(ResidualNetwork)\cite{he16}を使用した.\citeA{soleymani19}が提案したモデル同様,対話とレイアウトについて,事前学習済みモデルから得られた特徴量を結合し,結合層を通じて混合ベクトルを作成し,再度結合層に入力することで,最終的に{\cgscore}(共通基盤構築の度合い)を示すスカラー値を出力するようにした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[t]\begin{center}\includegraphics{30-3ia2f9.pdf}\end{center}\hangcaption{対話と一方の作業者のレイアウトのみから{\cgscore}を推定するモデル(\MDialPic).レイアウトは,話者XがU$_i$を発話した時点のものである.FCは完全連結層を表す.}\label{fig:model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%実験設定として,収集した全984対話を8:1:1(それぞれ,学習セット,開発セット,テストセット)に分割した.このとき,同じ作業者ペアが実施した対話がいずれかのセットのみに含まれるようデータを分割した.\hl{入出力を作成する際の手順を述べる.入力については,一つ目の入力として,対話の先頭の発話U$_1$からある発話U$_i$までの文脈を取得する(図9左上の対話に対応).二つ目の入力として,U$_i$が発話された時点でのU$_i$の話者のレイアウトを取得する(図9左下の配置画像に対応).出力については,U$_i$が発話された時点での図形配置間距離を計算する(図9右の図形配置間距離に対応).このとき,図形配置間距離はmin-max正規化を用いて0から1の値に正規化した.}学習済みモデルとして,huggingface/transformerにおける,日本語用のBERT-baseのモデルを利用し\footnote{\url{https://huggingface.co/cl-tohoku}},また,torchvisionにおけるResNet-18のモデルを利用した\footnote{\url{https://pytorch.org/vision/stable/models.html}}.モデルを学習する際には損失関数として平均二乗誤差(MSE)を利用し,最適化器としてAdam\cite{kingma14}を用いて,学習率を$2\mathrm{e}-5$に設定して学習を実施した.モデルが利用する対話とレイアウトの情報の有効性を調査するために,\hl{5}種類のモデル(\hl{{\MBase},}{\MBaseX},{\MDial},{\MPic},{\MDialPic})を用意した.\hl{{\MBase}は,一定値(学習セットにおける図形配置間距離の平均値)を出力するベースラインである.{\MBaseX}は,学習セットにおいて正規化した各ステップにおける平均値を出力するベースラインである.}{\MDial},および,{\MPic}は,対話またはレイアウトの一方のみを入力とするモデルである.{\MDialPic}は,\fig{model}で示した対話とレイアウトの両方の情報を考慮したモデルである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価結果}\tab{mse}に,対話とレイアウトから推定した{\cgscore}のMSEを示す.\pagebreakSteel-Dwassの多重比較\cite{dwass60}において,{\MDialPic}のMSEが有意に最も小さく($p<.05$),対話とレイアウトの双方を考慮したモデルの有効性が確認できた.{\MDialPic}に比べ,{\MDial},および,{\MPic}の性能が低くなっている.これは,対話の内容とレイアウトの双方の情報に基づいて推定を行うことで,対話やレイアウト等の単一の情報のみで推定を行うよりも,共通基盤の構築が進んだか否かをより正確に推定できることを示す.この結果から,共通基盤が構築された程度を推定しながらユーザと{\taskname}を行う対話システムを構築するにあたって,本研究で収集した共通基盤の構築過程(対話とレイアウトの情報)が有用であると考えられる.\hl{また,LayoutはMean-Baselineよりも有意に性能が低く,レイアウトの情報のみから図形配置間距離の推定を行うことは難しいことが確認できる.なお,データセットを異なるランダムシードで再度分割し実験を行ったところ,同様の結果が得られることを確認した.}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{02table07.tex}%\hangcaption{与えられた対話とレイアウトから推定された図形配置間距離と真の図形配置間距離の平均二乗誤差(MSE).添え字は,Steel-Dwassの多重比較において,添字が付与されているスコアが添字のモデルのスコアより有意に良い($p<.05$)ことを示す.}\label{tab:mse}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%以降,誤り分析として,推定が適切または適切でない対話の特徴,および,その要因を考察する.これらの対話に共通する特徴を調査するにあたって,{\MDialPic}におけるMSEが最大となった対話,および,最小となった対話を計10対話ずつ(図中の4対話を含む)を抽出し,著者らが人手で対話と各作業者のレイアウトを確認した.\fig{erranalysis}に,図形配置間距離の推定値と真の値を対話ごとにプロットした図を示す.また,\fig{dialogues}に,\fig{erranalysis}に対応する各対話を示す.各プロット上の番号はコーパス中の対話のIDを示す.\fig{erranalysis}と\fig{dialogues}において,左の2対話はモデル({\MDialPic})の推定値と真の値のMSEが最小のもの(推定が適切に行えたもの)を表し,右の2対話はMSEが最大のもの(推定が適切に行えなかったもの)を表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10\begin{figure}[t]\begin{center}\includegraphics{30-3ia2f10.pdf}\end{center}\hangcaption{図形配置間距離の推定値と真の値の対話ごとのプロット.左の2対話はモデル({\MDialPic})の推定値と真の値のMSEが最小のもの(推定が適切に行えたもの)を表し,右の2対話はMSEが最大のもの(推定が適切に行えなかったもの)を表す.}\label{fig:erranalysis}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.11\begin{figure}[t]\begin{center}\includegraphics{30-3ia2f11.pdf}\end{center}\caption{\fig{erranalysis}に対応する各対話の抜粋}\label{fig:dialogues}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%各対話について概略を述べると,MSEが最小となった一つ目の対話``73-2''では,具体的な図形配置を指示する表現とそれを承認する表現が少ない.そのため,図形配置間距離が十分に低下しないという過程をモデルが正しく推定できていたと考えられる.MSEが最小となった二つ目の対話``137-1''では,具体的な指示とその承認が頻出している.すなわち,図形が規則的に配置されていく過程を対話とレイアウトに基づきモデルが正しく推定できたと考えられる.対話例に示した``73-2''と``137-1''の発話を比較すると,``137-1''の対話の方が各発話の内容が具体的であることが確認できる.\hl{MSEが最大となった対話は,図7で示した図形配置間距離のクラスタリング結果におけるクラスタ4に見られるような,図形をグルーピングし作業を行う対話であった.具体的には,}MSEが最大となった一つ目の対話``125-3''では,図形をグループ(目,鼻,口など)に分け,個々のグループでレイアウトを合わせるものの,最後までグループ間のレイアウトに齟齬が生じており,その齟齬を推定することができていなかったと考えられる(具体的には,右目と左目の図形全体が入れ替わっていた).MSEが最大となった二つ目の対話``131-4''では,同様にグループ分けを行ってグループ内のレイアウトを決定し,最後にグループ間のレイアウト(発話``B19''で言及されている空港等の位置)を合わせていた.そのため,``131-4''同様に,これらのグループごとの基盤化の過程を捉えることができず,推定が正しく行えなかったと考えられる.以上の図形配置間距離の推定,および,その誤り分析の結果から,傾向として,図形配置間距離の推定が適切な対話では,作業者が図形を一つずつ順に最終位置に移動させている過程が見られ,推定が適切でない対話では,作業者が図形をグルーピングし,グループごとに作業を行っている過程が見られた.図形の位置を一つずつ順に確定させる対話では,対話において理解を示す肯定的な評価や共感の評価が出現したり,レイアウトにおいて図形の配置が規則的(例えば,一直線の配置や隣接した配置)になることで,モデルが図形配置間距離の低下を適切に推定できたと考えられる.一方で,作業者が図形をグルーピングしながら作業を行う対話では,グループ内のレイアウトを一致させた後にグループ間のレイアウトを合わせる複雑な基盤化の過程が見られた.その結果,モデルが基盤化の過程を捉えることができず,図形配置間距離の推定が適切に行えなかったと考えられる.今後の課題として,図形単体のみならず,複数の図形をグループ化した集合を対象として,言語と共に共通基盤を扱う枠組みを検討する必要があると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} \hl{本研究では,共同作業を行う}対話における共通基盤の構築過程を明らかにするために,二名の作業者が対話を通じて共通のレイアウトに図形を配置する共同図形配置課題を提案した.{\taskname}において,二名の作業者のレイアウトにおける図形配置の共通部分をその時点の共通基盤に相当するものとし,対話中の共通基盤が構築される過程を自動的に記録する.コーパスとして,{\taskname}を行った対話を984対話収集した.収集したデータを調査した結果,課題の結果として7つの{\cgpatterns}を発見した.この{\cgpatterns}に基づいて,共通基盤を定量化する方法として{\cgscore}を導入した.\hl{この{\cgscore}の遷移に対して時系列クラスタリングを行った結果,共通基盤の構築過程にいくつかのパタンが見られた.}また,課題達成につながる言語現象を対話と{\cgscore}の観点から分析した.\hl{その結果,肯定的な評価や共感が対話中に出現している場合,共通基盤が構築できている傾向にあると考えられる.}また,対話とレイアウトの情報を入力として{\cgscore}を推定する問題に取り組み,対話とレイアウトの双方の情報が推定に有用であることを確認した.\hl{今後は,共通基盤を扱う上で対話システムが相手の信念を推定できることが重要であるため,対話から次のレイアウト変更の操作を予想する問題に取り組む.最終的には,レイアウト変更や図形配置間距離の推定器を対話システムに組み込むことで,ユーザと共に共同図形配置課題を達成可能なシステムを確立したい.}そのためには,ユーザと共にOneCommonを達成するシステムが参考になると考えられる\cite{fried21}.このとき,5節で述べたグループ化された図形を適切に扱えるよう,言語とグループ化された図形を紐付けて扱う手法を確立することも重要な課題である\cite{saito22}.\hl{図形の配置画像を入力とし,図形配置間距離を推定するモデル(Layout)が手掛かりとする情報の考察も行いたい.}\hl{本研究では,図形配置間距離が課題の成功,中間,失敗を反映できていることで正当性を確認したが,本数値と共通基盤に関する心象との相関を確認することで,さらなる検証が可能と考えている.本研究では,対話内容の分析にフィッシャーの正確確率検定を利用したが,今後は線形回帰・分類等で特徴量の重みの分析も行いたい.本研究と関連の深い研究として共通基盤を扱った\citeA{bara21}と本研究を比較すると,本論文で述べた課題は実際的ではないと考えられる.今後,より実際の共同作業に近い課題に取り組むことも重要である.}また,本研究ではテキストを介した対話のみを対象にしたが,音声や映像といったマルチモーダルな情報を介する対話における共通基盤の構築過程を明らかにすることも重要な課題である\cite{furuya22}.本研究で扱った課題は,対話を通じて話者の理解を一致させるという一般的な過程を含んでおり,明らかになった共通基盤構築の過程は他の課題にも適用できると考えている.\hl{具体的には,作業者が対話を通じ共同で課題を達成する状況,かつ,作業者が課題を独立に行い,その課題の状態の定量化が可能なもの(例えば,グラフィカルな要素を含むもの)であれば,作業者間での課題の状態の一致度を定義することができるため,本論文のデータ収集手法,および,分析手法が適用できると考えられる.}今後,他の課題でも同様の調査を実施し,本研究で得られた知見の一般性を検証していきたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本論文の一部は,The13thLanguageResourcesandEvaluationConference(LREC2022)で発表したものです\cite{mitsuda22}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{02refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{光田航}{%2013年東京工業大学情報工学科卒業.2015年同大学大学院情報理工学研究科修士課程修了.2021年筑波大学大学院システム情報工学研究科博士課程修了.2015年から2023年まで日本電信電話株式会社研究員.2023年よりrinna株式会社AppliedScientist.自然言語処理,対話システムの研究開発に従事.言語処理学会会員.博士(工学).}\bioauthor{東中竜一郎}{%2001年慶應義塾大学大学院政策・メディア研究科修士課程,2008年博士課程修了.2001年日本電信電話株式会社入社.2020年より,名古屋大学大学院情報学研究科教授.NTT人間情報研究所客員上席特別研究員.慶應義塾大学環境情報学部特別招聘教授.2004年から2006年まで英国シェフィールド大学客員研究員.質問応答システム・対話システムの研究に従事.人工知能学会,言語処理学会,情報処理学会,電子情報通学会各会員.博士(学術).}\bioauthor{大賀悠平}{%2020年千葉大学情報画像学科卒業.2022年筑波大学大学院システム情報工学研究科修士課程修了.2022年日本電信電話株式会社入社.自然言語処理,文書画像処理に関する研究開発に従事.}\bioauthor{吉田仙}{%1995年東北大学大学院情報科学研究科博士前期課程修了.1995年から2022年まで日本電信電話株式会社,2003年から2007年まで西日本電信電話株式会社.2022年より株式会社三菱ケミカルホールディングス(現:三菱ケミカルグループ株式会社).現在,自然言語処理の応用業務に従事.情報処理学会,人工知能学会各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V02N01-04
\section{まえがき} 文章(文献)の執筆者の推定問題(authorshipproblem),あるいは執筆順序の推定や執筆時期の推定などの問題(Chronology)に対して,文章の内容や成立に関する歴史的事実の考証とは別に,文章から著者の文体の計量的な特徴を抽出し,その統計分析によって問題の解決を試みる研究が多くの人々に注目をあつめつつある.統計分析の手法を用いた文章の著者の推定や執筆の時期の推定などの研究は今世紀の初頭から行なわれていたが,本格的な研究が現れたのは今世紀の中ごろである.研究の全体像を把握するため今世紀の主な研究を表\ref{rri}に示した.\begin{table}[htb]\caption{{\dg著者の推定などの研究のリスト}\label{rri}}\begin{center}\renewcommand{\arraystretch}{}\footnotesize{\begin{tabular}{llll}\hline分析の対象となった文章&用いた情報&用いた情報,手法&研究者\\\hlineShakespeare,Bacon&単語の長さ&モード&Mendenhall,T.C.(1887)\\TheImitationofChrist&文の長さ&平均値,中央値など&Yule,G.U.(1939)\\TheImitationofChrist&語彙量&K特性値&Yule,G.U.(1944)\\Shakespeareetal.&単語の音節数&Shannonエントロピー&Fucks,W.(1952)\\Shakespeareetal.&音節数の接続関係&分散共分散の固有値,&\\&&Shannonエントロピー&Fucks,W.(1954)\\Shakespeareetal.&単語の長さの分布&平均値など&Williams,C.B.(1956)\\プラトンの第七書簡&文の長さ&平均値,中央値など&Wake,W.C(1957)\\WorkofPlato&文末の単語のタイプ&判別分析&Cox,D.R.etal.(1958)\\QuintusCurtiusSnodgrass&&&\\letter&語の長さの分布&$\chi^2$の検定,$t$検定&Brinegar,C.S.(1963)\\新約聖書の中のパウロの書簡&語の使用頻度&$\chi^2$検定&Morton,A.Q.(1965)\\源氏物語の宇治十帖&頁数,和歌数など&U検定,$\chi^2$検定&安本美典(1960)\\Federalistpaper&単語の使用頻度&線形判別分析,確率比&Mosteller,F.etal.(1963)\\由良物語&単語の使用頻度&線形判別分析,確率比&韮沢正(1965)\\ShakespeareandBacon&単語の長さの分布&分布の比較&Williams,C.B.(1975)\\Shakespeare&語彙量&ポアソン分布&Thisted,R.etal.(1976)\\源氏物語&頁数,和歌数等&因子分析&安本美典(1977)\\Shakespeare&単語の出現頻度&ポアソン分布,検定&Thisted,R.etal.(1987)\\紅楼夢&虚詞の使用頻度&主成分,&\\&&クラスターリングなど&Li,X.P.(1987,1989)\\日蓮遺文&品詞の使用率など&$t$検定,主成分,&\\&&クラスターリング&村上征勝他(1992,1994)\\\hline\end{tabular}}\end{center}\end{table}文章の著者の推定や文章の分類などを行なう際,文章に関するどのような著者の特徴を表す情報(特徴情報)を用いるかが問題解決の鍵である.今までの文章の著者の推定や文体の研究では著者の特徴を表す情報としては,単語の長さ,単語の使用頻度,文の長さなどがよく用いられている.日本文に関して,少し詳細に見ると,安本は直喩,声喩,色彩語,文の長さ,会話文,句読点,人格語などの項目を用いて100人の作家の100編の文章を体言型—用言型,修飾型—非修飾型,会話型—文章型に分類することを試み(安本1981,1994),また長編度(頁数),和歌の使用度,直喩の使用度,声喩の使用度,心理描写の数,文の長さ,色彩語の使用度,名詞の使用度,用言の使用度,助詞の使用度,助動詞の使用度,品詞数の12項目の情報を用いて源氏物語の宇治十帖の著者の推定を試みた(安本1958).韮沢は,「にて」,「へ」,「して」,「ど」,「ばかり」,「しも」,「のみ」,「ころ」,「なむ」,「じ」,「ざる」,「つ」,「む」,「あるは」,「されど」,「しかれども」,「いと」,「いかに」などの単語の使用率を用いて,「由良物語」の著者の判定(韮沢1965,1973)を行い,村上らは品詞の接続関係,接尾語などを用いて日蓮遺文の真偽について計量分析を行なっている(村上1985,1988,1994).このように,日本文に関して,文章の著者の推定を試みる研究はいくつかあるが,著者の推定などのための文章に関するどのような情報が有効となるかに関する基礎的な研究はほとんどない状況である.文章に関するどのような要素に著者の特徴が現れるかに関して,外国での研究ではいくつかあるが,それは言語によって異なると考えられるため,外国語での研究成果が日本語の場合もあてはまるのか,もしあてはまらないとすれば日本語の文章ではどのような要素に著者の特徴が現れるかというようなことが文体研究の重要な課題である.筆者は日本語の文章の著者の推定あるいは著者別に文章を分類する基礎的な研究として,文章の中のどのような要素が著者の文体の特徴になるかについて研究を進めている.コンピュータのハードウエアとソフトウエアの発展に伴い,コンピュータを利用することによって文章の中から膨大な情報が抽出できるようになった.しかし,今度はそのような膨大な情報の中からどの情報を用いるべきかという新しい問題が生じた.筆者らは文章の中に使用された読点について計量分析を行ない,読点の前の文字に関する情報で文章を著者別に分類する方法を提案し,この方法は文学作品だけではなく研究論文についても有効であることを実証した(金1993a,b,1994c,d,e).このような日本文に適応した著者の文体の特徴情報の抽出に関する研究は始まったばかりで決して十分とはいえない.ところで,コンピュータで著者の文体の特徴を抽出するためには計算機処理可能な文章のデータベースが必要であるが,そのようなデータベースが入手できなかったため,作成することにした.データベース化したのは井上靖,三島由紀夫,中島敦の短篇小説である.分析に用いた情報の安定性の考察及び用いた短い文章とのバランスをとるため,比較的長い文章はいくつかに分割して用いた.例えば,井上の「恋と死と波と」は二つに,中島の「弟子」は三つに,「李陵」は四つに分割して用いることにした.表\ref{list}に,用いた文章と発表年などを示した.\begin{table}[htb]\caption{{\dg分析に用いた文章のリスト}\label{list}}\begin{center}\small{\begin{tabular}{llccccc}\hline著者&文章名&記号&単語数&出版社&発表の年\\\hline井上靖&結婚記念日&I1&4749&角川文庫&1951\\&石庭&I2&4796&同上&1950\\&死と恋と波と(前半)&I3&4683&同上&1950\\&死と恋と波と(後半)&I4&4386&同上&同上\\&帽子&I5&3724&新潮文庫&1973\\&魔法壜&I6&3624&同上&同上\\&滝へ降りる道&I7&3727&同上&1952\\&晩夏&I8&4269&同上&同上\\三島由紀夫&遠乗会&M1&4984&新潮文庫&1951\\&卵&M2&4004&同上&1955\\&詩を書く少年&M3&4502&同上&1955\\&海と夕焼&M4&3359&同上&1955\\中島敦&山月記&L1&3226&新潮文庫&1942\\&名人伝&L2&3202&同上&1942\\&弟子(前の1/3)&L3&4078&同上&1943\\&弟子(中の1/3)&L4&4092&同上&同上\\&弟子(後の1/3)&L5&3727&同上&同上\\&李陵(前の1/4)&L6&4563&同上&1944\\&李陵(中の1/4)&L7&4561&同上&同上\\&李陵(中の1/4)&L8&4638&同上&同上\\&李陵(後の1/4)&L9&4458&同上&同上\\\hline\end{tabular}}\end{center}\end{table}この3人を選んだのは,OCR(光学読み取り装置)で文章を入力する場合に漢字の認識率が問題になるため,現代文の中で漢字の使用率がわりに高い中島の文章を用いてOCRでの入力テストを行なったのがきっかけであった.中島と同時期の作家として井上,三島を選んだ.データベースは分析に用いる文章をOCRで入力し,読み取りの誤りを訂正し,品詞コードなどを入力して作成した.表\ref{datas}に作成したデータベースの一部分を示した.単語の認定は「広辞苑」に従った.ただし,広辞苑にない複合動詞については複合された全体を1語とした.\begin{table}[htb]\caption{\dgデータベースの例}\label{datas}\begin{center}\footnotesize\renewcommand{\arraystretch}{}\begin{tabular}{l}\hline\\(2)/父(M)は(J)(27)/軍医(M)で(Z),(4)/当時(M)(5)/聯隊(M)の(J)\\(6)/ある(R)(6)/地方(M)の(J)(9)/小都市(M)を(J)(9)/転々と(F)\\(10)/し(D)て(J)(27)/おり(D),(11)/子供(M)を(J)(13)/自分(M)の(J)\\(14)/手許(M)に(J)(27)/置く(D)と(J),(16)/何回(M)も(J)\\(17)/転校させ(D)なけれ(Z)ば(J)(23)/なら(D)なかっ(Z)た(Z)ので(J),\\(19)/そう(F)(20)/し(D)た(Z)(23)/こと(M)から(J)(23)/私(M)を(J)\\(23)/郷里(M)に(J)(24)/置く(D)(25)/気(M)に(J)(26)/なっ(D)た(Z)\\(27)/もの(M)らしかっ(Z)た(Z).\\\\(3)/たとえ(F)(3)/田舎(M)の(J)(11)/小学校(M)でも(J),(7)/まだ(F)\\(6)/同じ(R)(7)/小学校(M)に(J)(14)/落着い(D)て(J)(9)/通わ(D)せ(Z)\\た(Z)(11)/方(M)が(J)(11)/教育上(M)(11)/いい(K)と(J)(13)/考え(D)\\た(Z)の(J)で(Z)(14)/ある(D).\\\\\hline\end{tabular}\end{center}\hspace*{0.8cm}{\footnotesize記号/は文節の境界線で,(数字)は(数字)の直後の文節が係る文節の番号で,(ローマ字)は品詞コードである.}\end{table} \section{単語の長さの分布に基づいた文章の分類} 文章の中の著者の特徴情報を用いて,文章の著者を推定するためには,用いた情報に基づいて文章を分類する際,文章が著者別に分類できることが望まれる.どのような単語を好んで用いるのか,どのような長さの単語を好んで用いるのかは著者の文章の一つの特徴であると考える.前者を用いる場合は,著者の好みの単語が何であるかを見つけ出すのはかなり厄介なことである.前者にくらべ後者はわりに簡単である.欧米では,著者の推定などの研究には単語の長さの情報がよく用いられている.しかし,日本文の分析においては,単語の長さに関する情報はあまり用いておらず,また,単語の長さと著者の関係に関する基礎的な研究はない.その主な原因としては,\begin{enumerate}\item日本文は「分ち書き」されていないため単語の認定が難しいこと,\item日本語の機械処理技術が遅れたこと\end{enumerate}などがあげられる(村上1989a,b).これらの問題は計算機科学の発展により次第に解決されてきている.今日では,コンピュータは日本語を自由に処理できるようになってきているし,近い将来かなり精度の良い日本文の単語分割システムも開発されると予測される(中野1991).筆者は実際に書かれた文字を単位とした単語の長さと著者との関係を明らかにするため,単語の長さの分布に著者の特徴が現れるかどうかについて計量分析を行なってきた.分析はすべての単語を用いた場合と単語を名詞,動詞,形容詞,形容動詞,助詞,助動詞,副詞に分けた場合の品詞別の単語の長さの分布について行なった.その結果,日本語の単語の長さの分布を用いて著者別に文章を分類する際,単語を品詞別に分けていない場合には,著者の特徴が出にくい単語や文章の内容に依存性が高い単語などが含まれてしまうため,分類はうまくいかないが,単語を品詞別に分けることによって分類の精度をあげることが可能であり,特に動詞の単語の長さの分布に著者の特徴が出やすいと言うことが分かった(金1994a,b).本文では,動詞の長さの分布に基づいた文章の分類及び動詞の単語の長さの分布に現れる著者の特徴と動詞の中の和語・漢語(漢語と和語が合成された動詞を指す.例えば,勉強する.叙述の便利のため漢語と呼ぶことにする.)、合成語・非合成語の比率との関係についての計量分析について述べる.まず,動詞の長さの分布を用いた文章の分類について述べておく.表\ref{wlf}に,表\ref{list}の21編の文章における実際に書かれた文字を単位とした1文字から5文字までの長さ別の動詞の使用頻度を示した.\begin{table}[htb]\caption{\dg長さ別の動詞の使用頻度}\label{wlf}\begin{center}\small{\begin{tabular}{ccrrrrr}\hline著者名&文章の記号&1&2&3&4&5\\\hline井上&I1&114&515&88&77&29\\&I2&138&518&94&60&12\\&I3&117&492&119&73&17\\&I4&119&476&95&54&17\\&I5&101&398&89&52&7\\&I6&114&438&77&45&7\\&I7&98&408&77&70&12\\&I8&110&429&87&85&17\\三島&M1&74&509&171&77&24\\&M2&111&353&120&87&21\\&M3&100&419&136&63&12\\&M4&68&379&92&58&8\\中島&N1&57&357&73&36&8\\&N2&60&340&104&43&7\\&N3&87&474&77&37&5\\&N4&73&480&86&42&11\\&N5&69&448&80&35&3\\&N6&74&503&124&51&17\\&N7&101&491&112&39&16\\&N8&90&490&116&55&13\\&N9&98&499&98&39&7\\\hline\end{tabular}}\end{center}\end{table}いま,\hspace{-0.15mm}文章$i$の長さ\hspace{-0.1mm}$j$の単語の使用頻度を$x_{ij}$と表すと,\hspace{-0.15mm}$I$編の文章における長さ\hspace{-0.1mm}$J$までの単語\\の使用頻度と使用率のマトリックスはそれぞれ\[X_{I\timesJ}=\left[x_{ij}\right]\]\[P_{I\timesJ}=\left[p_{ij}\right]\]\[p_{ij}=\frac{x_{ij}}{\sum_{v=1}^{J}x_{iv}},\hspace{0.5cm}\sum_{j=1}^{J}p_{ij}=1\]で表示できる.本文では,$P_{I\timesJ}$の一行を一つの分布とみなし,分布の間の距離を用いて分析を行なった.叙述の便利のため,分布の間の距離を文章の間の距離と呼ぶことにする.さて,文章$i$の単語の長さの分布と文章$l$の単語の長さの分布の間の距離$d_{il}$を次のように定義する.\[d_{il}=\frac{1}{2}\sum_{j=1}^{J}{(p_{ij}log\frac{2p_{ij}}{p_{ij}+p_{lj}}+p_{lj}log\frac{2p_{lj}}{p_{ij}+p_{lj}})}\]\vspace*{-0.2mm}ただし\vspace*{-0.2mm}\begin{center}$p_{ij}=0$\hspace{0.5cm}なら\hspace{0.5cm}$p_{ij}log{\frac{2p_{ij}}{p_{ij}+p_{lj}}}=0$\\$p_{lj}=0$\hspace{0.5cm}なら\hspace{0.5cm}$p_{lj}log{\frac{2p_{lj}}{p_{ij}+p_{lj}}}=0$\\\end{center}\vspace*{-0.2mm}とする.また上式で求められた分布の間の距離のマトリクスを\[D_{I\timesI}=\left[\begin{array}{cc}0&d_{ji}\\d_{ij}&0\\\end{array}\right]\]で表記する.著者別に文章を分類する観点からは,同一の著者(今後は群内と呼ぶ)の任意の二つの分布の間の距離が,異なる著者間(今後は群間と呼ぶ)の任意の二つの分布の間の距離より小さいことが望まれる.しかし,本研究ではこのような望ましい結果は得られなかった.分類を行なう際,文章が著者別に分類されたとしても,グループの間の距離が十分大きくない場合は,同一の著者の文章の間の距離が,異なる著者の文章の間の距離より大きい可能性も十分あり得る.そこで,群内の距離の平均値と群間の距離の平均値を用いて分析を進めることにする.群内の距離の平均値が群間の距離の平均値より小さいと,用いた分布には著者の特徴があり,群内の距離が群間の距離より小さければ小さいほど著者の特徴が明確である(分類がよい)と考えられる.著者\hspace{-0.1mm}$k$の\hspace{-0.1mm}$k_{n}$編の文章における任意の二つの分布の間の距離の平均(今後は群内の距離と呼ぶ)\\を\[\overline{d(k)}=\frac{2\sum_{k_{i}=k_1}^{k_{n}-1}\sum_{k_{j}=k_{i}+1}^{k_{n}}d_{k_{i}k_{j}}}{(k_{n}-1)k_{n}}\times100\]著者\hspace{-0.1mm}$k$と著者\hspace{-0.1mm}$h$の,それぞれの$k_{n},h_{m}$編の文章における任意の二つの分布の間の距離の平均(今\\後は群間の距離と呼ぶ)を\[\overline{d(k,h)}=\frac{\sum_{k_{i}=k_1}^{k_{n}}\sum_{h_{j}=h_1}^{h_{m}}d_{k_{i}h_{j}}}{k_{n}h_{m}}\times100\]で求めた.表\ref{dld}に3人の21編の文章について,動詞の長さの分布を用いた場合の群内,群間の距離を示した.\begin{table}[htbp]\caption{\dg動詞における距離}\label{dld}\begin{center}\small{\begin{tabular}{cccccc}\hline&群内&群&&間&最小の群間\\著者名&&井上&三島&中島&\\\hline井上&0.2317&&0.7101&0.5612&0.5612\\三島&0.5342&0.7101&&0.8513&0.7101\\中島&0.2630&0.5612&0.8513&&0.5612\\\hline\end{tabular}}\end{center}\end{table}3人の群内の距離はいずれの群間の距離より小さいため,動詞の長さの分布には著者の特徴があると判断する.井上,中島の群内の距離が三島の群内の距離に比べてかなり小さいが,これは長い文章をいくつかに分割して用いた影響ではないかと考えられる.このことを明かにするため,長い文章を分割しなかった場合の各著者の群内の距離の平均値を求めてみた.井上,中島の群内の距離の平均値はそれぞれ0.2394,0.2389で,長い文章を分割して用いた場合と比べて大きな差が見られない.したがって,井上,中島の群内の距離が三島の群内の距離よりかなり小さいのは長い文章を分割して用いた影響ではないと判断する.三島の群内の距離が大きい原因としては\begin{enumerate}\item三島の文章における動詞の使用法の分散が大きい.\item分析に用いた単語の長さの分布が十分安定していない.\end{enumerate}などが考えられる.長い文章をいくつかに分割した場合,必ずしも同一の小説の文章の間の距離が,同一の著者の異なる小説の間の距離より小さいという結果は得られなかった.この結果については,以下のような原因が考えられる.\begin{enumerate}\item動詞の単語の長さの分布は文章の内容に関して,依存性が低い.\item文章における動詞の単語の長さの分布が十分安定していない.\end{enumerate}残念ながらこの原因については用いたデータベースでは実証することが困難であるため,今後の研究課題にせざる得ない.動詞の単語の長さの分布を用いた場合の分類の結果を視覚化してみる.分類を視覚化するクラスタ分析の方法は,いくつかの方法があるが,ここでは主成分分析を用いた.分類を行なう際の主成分分析としては,二つの方法が考えられる.一つは,分類に用いるデータ\[X_{I\timesJ}=\left[x_{ij}\right]\]\[P_{I\timesJ}=\left[\begin{array}{c}p_{ij}\end{array}\right]\]\[p_{ij}=\frac{x_{ij}}{\sum_{j=1}^J{x_{ij}}},\hspace{0.5cm}\sum_{j=1}^J{p_{ij}}=1\]を用いて主成分分析を行なう方法で,もう一つは,上記のデータから個体間の距離(あるいは類似度)を求め,距離(あるいは類似度)のデータを用いて主成分分析を行なう方法である.本研究では後者を用いた.主成分分析は,求められた距離のマトリックス\[D_{I\timesI}=\left[\begin{array}{cc}0&d_{ji}\\d_{ij}&0\\\end{array}\right]\]を以下のように標準化し,\[\widehat{d}_{ij}=\frac{d_{ij}}{\sum_{v=1}^Id_{iv}},\]\vspace*{-0.2mm}\[\widehat{D}_{I\timesI}=\left[\widehat{d}_{ij}\right],\]$\widehat{D}_{I\timesI}$の分散共分散の行列を用いて行なった.動詞の単語の長さの分布を用いて求められた$\widehat{D}_{I\timesI}$の分散共分散行列の主成分分析では,第1\\主成分,第2主成分,第3主成分の寄与率はそれぞれ57.04\%,34.04\%,3.94\%で,第2主成分までの累積寄与率は91.08\%であった.図\ref{dlcp}に第2主成分までの主成分得点のプロットをに示した.横軸は第1主成分で,縦軸は第2主成分である.主成分分析の結果から動詞の単語の長さの分布を用いた場合,著者別に文章が分類できるといえよう.見やすくするため,文章を著者別に滑らかの曲線(境界線)で囲んだ.もちろん,このような境界線はどの文章がどの著者のものであるかの情報を用いて引いている.このような方法を用いて著者不明の文章の著者の判別などを行なう場合は,まずトレーニングーデータを用いて境界線を引き,著者不明の文章がどのグループに属するかの判別(判定)を行なうべきである.{\unitlength=1mm\begin{figure}\begin{center}\epsfile{file=fig1.eps,width=118mm}\end{center}\caption{動詞の長さの分布に基づいた$\widehat{D}_{21\times21}$の主成分得点のプロット}\label{dlcp}\end{figure}} \section{動詞における和語・漢語,合成語・非合成語の比率} 前節では,動詞の単語の長さの分布を用いた場合の文章の分類について述べた.動詞の長さの分布に著者の特徴が現れる現象の原因の一つとしては和語・漢語,合成語・非合成語の比率が考えられる.もし,動詞の長さに著者の特徴が現れるという結果が,和語・漢語,合成語・非合成語の比率の影響によるものであるとすると,和語・漢語,合成語・非合成語の比率に差がない著者に対しては動詞の長さの分布は著者の特徴情報になれない.したがって,動詞の単語の長さの分布に著者の特徴が現れるという現象と和語・漢語,合成語・非合成語の比率との関係について明かにする必要がある.\subsection{和語・漢語の比率}本節では動詞は,和語と漢語(和語と漢語より合成された動詞)より構成されたと見なし,動詞の単語の長さの分布に現れる著者の特徴と和語・漢語の比率との関係について計量分析を行なう.和語の比率は漢語の比率より高いため,和語の比率について分析を行なうことにする.表\ref{wagop}に3人の作家の21編の文章における動詞の中の和語の比率(動詞の中の和語の数/動詞の総単語数)を示した.長さ1,4,5の動詞では,和語の比率はほぼ同じで,1である.長さ2,3の動詞には漢語が多少含まれている.和語の比率に著者の特徴が現れるかどうかを調べてみる.好都合なことに動詞の中の和語の比率に著者の特徴がありそうなのは長さ2,3の動詞だけであるため,動詞の長さ2,3における和語の比率を図\ref{wagopf}にプロットした.横軸は長さ2の和語の比率で,縦軸は長さ3の和語の比率である.図\ref{wagopf}でわかるように中島は単独に一つのクループを作っているが,井上と三島は著者別にクループを作っていない.つまり,動詞の中の和語の比率には著者の特著が現れているが,文章を著者別に分類できるほどではない.\begin{table}[htb]\caption{{\dg動詞の中の和語の比率}\label{wagop}}\begin{center}\small{\begin{tabular}{cccccc}\hline&1&2&3&4&5\\\hlineI1&1&0.9825&0.9667&1.0000&0.9600\\I2&1&0.9750&1.0000&1.0000&1.0000\\I3&1&0.9939&0.9919&1.0000&1.0000\\I4&1&0.9937&0.9677&1.0000&1.0000\\I5&1&0.9824&0.9778&1.0000&1.0000\\I6&1&0.9932&0.9740&1.0000&1.0000\\I7&1&0.9902&0.9750&0.9851&1.0000\\I8&1&0.9860&0.9886&1.0000&1.0000\\M1&1&0.9666&0.9765&1.0000&1.0000\\M2&1&0.9914&0.9748&1.0000&1.0000\\M3&1&0.9691&0.9209&1.0000&1.0000\\M4&1&0.9841&0.9892&1.0000&1.0000\\N1&1&0.9469&0.8472&1.0000&1.0000\\N2&1&0.9676&0.9429&1.0000&1.0000\\N3&1&0.9346&0.8816&0.9730&1.0000\\N4&1&0.9439&0.8721&1.0000&1.0000\\N5&1&0.9509&0.9620&1.0000&1.0000\\N6&1&0.9382&0.9302&1.0000&1.0000\\N7&1&0.9532&0.8654&1.0000&1.0000\\N8&1&0.9470&0.9130&1.0000&1.0000\\N9&1&0.9579&0.9200&1.0000&1.0000\\\hline\end{tabular}}\end{center}\end{table}{\unitlength=1mm\begin{figure}\begin{center}\epsfile{file=fig2.eps,width=120mm}\end{center}\caption{長さ2,3の動詞の中の和語の比率のプロット}\label{wagopf}\end{figure}\begin{figure}\begin{center}\epsfile{file=fig3.eps,width=120mm}\end{center}\caption{和語の動詞の長さの分布に基づいた$\widehat{D}_{21\times21}$の主成分得点のプロット}\label{wagopf2}\vspace*{14cm}\end{figure}}漢語を含んだ場合の長さの分布と漢語を除いた場合の長さの分布との関係を調べるため,漢語を含んだ場合($AV$で表記する)と漢語を除いた場合($JV$で表記する)との動詞の使用頻度について相関係数を求めてみた.相関係数が最も小さいのは0.9843で,$COR(AV,JV)$の対角要素の平均は0.9940である.$COR(AV,JV)$から漢語を含んだ場合と漢語を除いた場合の動詞の長さの分布は強い相関を持っていることが分かる.\[COR(AV,JV)=\left[\begin{array}{ccccc}1&&&&\Large{r_{ij}}\\&0.9864&&&\\&&0.9843&&\\&&&0.9998&\\\Large{r_{ji}}&&&&0.9995\\\end{array}\right]\]漢語を含んだ動詞の長さの分布を用いた場合の分類と漢語を除いた動詞の長さの分布を用いた場合の分類の結果を比較してみる.第2章と同様な方法で,漢語を除いた動詞の長さの分布の間の距離を用いて求めた$\widehat{D}_{21\times21}$に\\ついて主成分分析を行なった.第1,2主成分得点の寄与率はそれぞれ59.24\%,30.96\%で,第2主成分までの累積寄与率は90.20\%である.図\ref{wagopf2}に第2主成分までの主成分得点のプロットを示した.主成分得点のプロットから漢語を含んだ動詞の長さの分布を用いた場合と漢語を除いた動詞の長さの分布を用いた場合とには大きな差がないことがわかる(図\ref{dlcp}を参照).以上の分析結果から,動詞の長さの分布に現れる著者の特徴は漢語・和語の使用率の影響ではないことが分かった.\subsection{合成語・非合成語の比率}本節では動詞は合成語と非合成語により構成されていると見なし,合成語・非合成語の比率が動詞の長さの分布に現れる著者の特徴に与える影響について分析を行なう.非合成語の比率は合成語の比率より高いため,表\ref{goseigop}に,動詞の中の非合成語の比率(動詞の中の非合成語の数/動詞の単語総数)を示した.表\ref{goseigop}から分かるように,長さ1,2の動詞には合成語がない.また長さ5における非合成語の比率は安定していないことが目立つ.これは各文章における長さ5の動詞が少なかったためであると考える(情報が不安定する).表\ref{goseigop}のデータを見る限り,著者の特徴が現れそうなのは長さ3と長さ4の非合成語の比率である.非合成語の比率に著者の特徴が現れるかどうかを知るため,長さ3と長さ4の非合成語の比率を図\ref{goseigopf}にプロットした.横軸は長さ3の非合成語の比率で,縦軸は長さ4の非合成語の比率である.図\ref{goseigopf}では21作品が著者別にグループを作っていないことから,非合成語の比率には著者の特徴が見られないと判断する.\begin{table}[htb]\caption{{\dg動詞の中の非合成語の比率}\label{goseigop}}\begin{center}\small{\begin{tabular}{cccccc}\hline&1&2&3&4&5\\\hlineI1&1&1.000&0.7889&0.8571&0.9200\\I2&1&1.000&0.6264&0.8167&0.5455\\I3&1&1.000&0.8211&0.7286&0.8333\\I4&1&1.000&0.8602&0.8909&0.8667\\I5&1&1.000&0.6444&0.8235&0.6000\\I6&1&1.000&0.7922&0.9111&1.0000\\I7&1&1.000&0.8875&0.7761&0.8333\\I8&1&1.000&0.7273&0.8765&1.0000\\M1&1&1.000&0.7765&0.8571&0.9524\\M2&1&1.000&0.7227&0.9080&1.0000\\M3&1&1.000&0.8201&0.7759&0.9167\\M4&1&1.000&0.8387&0.9655&1.0000\\N1&1&1.000&0.8056&0.8333&1.0000\\N2&1&1.000&0.9143&0.8810&1.0000\\N3&1&1.000&0.8684&0.6757&0.6000\\N4&1&1.000&0.7442&0.6667&0.8182\\N5&1&1.000&0.6709&0.8000&1.0000\\N6&1&0.998&0.7287&0.7708&0.6429\\N7&1&1.000&0.7404&0.7568&0.1875\\N8&1&1.000&0.8348&0.7255&0.9231\\N9&1&1.000&0.7400&0.7368&0.8333\\\hline\end{tabular}}\end{center}\end{table}合成語を含んだ動詞の単語の長さの分布($AV$で表記する)と,合成語を除いた動詞の単語の長さの分布($\overline{CV}$で表記する)との相関係数を求めてみた.相関係数の中で最も小さいのは長さが5の場合で,0.8794である.相関係数の対角要素の平均は0.9568で,高い相関を持っていると言えよう.\[COR(AV,\overline{CV})=\left[\begin{array}{ccccc}1&&&&\Large{r_{ij}}\\&0.9999&&&\\&&0.9346&&\\&&&0.9699&\\\Large{r_{ji}}&&&&0.8794\\\end{array}\right]\]合成語を含んだ場合と合成語を除いた場合との動詞の単語の長さの分布を用いた分類の結果を比較してみた.第2章で用いた方法と同じく,非合成語における動詞の長さの分布の間の距離を用いて求めた$\widehat{D}_{21\times21}$について主成分分析を行なった.第1,2主成分得点の寄与率はそれぞれ61.77\%,30.74\%で,第2主成分までの累積寄与率は92.51\%である.図\ref{goseigopf2}に主成分得点のプロットを示した.主成分得点のプロットから合成語を含んだ場合と合成語を除いた場合では大きな差がないことがわかる(図{\ref{dlcp}}を参照).長さ5における合成語を含んだ場合と合成語を除いた場合の相関係数が0.8794であるにも関わらず分類のプロットにはあまり差が見られなかったのは,長さ5の動詞の使用頻度は少なく,分類に対する寄与も小さいためであると考える(金1994a).以上の分析結果から,動詞の長さの分布に現れる著者の特徴は合成語・非合成語の比率の影響ではないことがわかった.{\unitlength=1mm\begin{figure}\begin{center}\epsfile{file=fig4.eps,width=118mm}\end{center}\caption{長さ3,4の動詞の中の非合成語の比率のプロット}\label{goseigopf}\end{figure}\begin{figure}\begin{center}\epsfile{file=fig5.eps,width=122mm}\end{center}\caption{非合成語の動詞の長さの分布に基づいた$\widehat{D}_{21\times21}$の主成分得点のプロット}\label{goseigopf2}\end{figure}} \section{むすび} 本研究では,3人の作家の21編の文章における動詞の長さの分布に基づいた文章の分類及び動詞の単語の長さの分布に現れる著者の文体の特徴と和語・漢語,合成語・非合成語の比率との関係について計量分析を行なった.その結果,動詞の長さの分布は,和語・漢語,合成語・非合成語の比率に著者毎の差が見られない場合でも,著者の文体の特徴になる可能性があることを明かにした.動詞の長さの分布を用いて分類を行なう場合の有効性の考察を行なうため,従来よく用いられている文の長さの分布,品詞の使用率,漢字・仮名の使用率,筆者が提案した読点の前の文字の分布を用いた場合と比較も行なった.その結果,最も分類がよいのは読点の前の文字の分布を用いた場合であり,その次が動詞の長さの分布で,従来よく用いられている文の長さの分布,品詞の使用率,漢字・仮名の使用率より著者の特徴が明確に現れることが分かった(金1994a,b,c,d,e).動詞の単語の長さの分布だけを用いて文章を分類する場合,分類の結果が十分に満足できるとはいえない.しかし,著者不明の文章の著者の推定(判別)などを行なう場合は,無相関である複数の文体の特徴情報を組み合わせて用いて分析を行なわなければならないため,このような文体の特徴情報に関する研究は重要であると考える.単語の長さを計る単位を実際に書かれた文字を単位とした場合,単語の長さは表記文字の種類の影響を受けることも考えられる.しかし,本計研究に用いた動詞には平仮名やローマ字によるものはない.表記文字の種類が単語の長さに与える影響について考察を行なうため,漢字・仮名の使用率を調べてみた.その結果,漢字・仮名の使用率には著者の特徴が明確に現れなかった(金1994a).単語の長さを計る単位として音節,ローマ字を用いることも考えられるが,今後の課題にする.単語の長さの分布に関する情報を抽出するためには,品詞情報が付加されているデータベースが必要である.このようなデータベースが入手できなっかたことと,大量の作品のデータベースを作成する経費がないため本研究では3人の21編文章だけを用いた分析に留まった.今後より多くの作家の作品や異なるジャンルについて実証的な研究が必要であろう.また,文章の量と動詞の長さの分布の安定性との関係に関しても興味深い課題である.\acknowledgment本研究に用いたデータベースは文部省統計数理研究所及び総合研究大学院大学の村上征勝教授の研究費で作成しました,本研究をご支援及び御指導下さった村上征勝教授,言語学及び文体学の観点からご指導及びご助言下さった神戸学院大学の樺島忠夫教授,論文の仕上げにご協力くださっ統計数理研究所の吉野諒三助教授,有益なコメントを下さった査読者に深く感謝します.本論文の最終の修正は学術振興会の特別研究員(TheJSPSPostdoctoralFellowship)として国立国語研究所にいる期間中に行ないました.特別研究員として採用して下さった学術振興会,ご支援下さった国語研究所の江川清,中野洋両部長,米田正人室長に心より感謝します.\bibliographystyle{jtheapa}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{金明哲}{1978年中国吉林師範大学(現東北師範大学)数学系卒業.同年中国長春郵電学院(大学)に就職.1988年4月来日,宇都宮大学工学研究科,神戸大学工学部の外国人研究員を経て,1991年10月に総合研究大学院大学数物科学統計科学専攻の博士後期課程に入学,1994年9月博士後期課程終了.博士(学術).現在学術振興会の特別研究員(TheJSPSPostdoctoralFellowship)として国立国語研究所で研究.統計分析,パターン認識・分類,自然言語に関する研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V22N03-03
\section{はじめに} 抽出型要約は現在の文書要約研究において最も広く用いられるアプローチである.このアプローチは,文書をある言語単位(文,節,単語など)の集合とみなし,その部分集合を選択することで要約文書を生成する.要約システムに必要とされる側面はいくつかあるが,特に重要なのが,一貫性(coherence)\cite{hobbs85,mann:88}と情報の網羅性が高い要約を生成することと,要約長に対し柔軟に対応できることである.一貫性の高い要約とは,原文書の談話構造(あるいは論理構造)を保持した要約を指す.要約が原文書の談話構造を保持していない場合,原文書の意図と異なる解釈を誘発する文書が生成されてしまうおそれがある.すなわち,原文書と似た談話構造を持つように要約文書を生成することは,要約を生成するために重要な要素である\footnote{原文書は常に一貫性を持った文書であることを仮定している.}.要約文書において談話構造を考慮するために修辞構造理論(RhetoricalStructureTheory;RST)\cite{mann:88}が利用可能である.RSTは文書の大域的な談話構造を木として表現するため,RSTの木構造を損なわぬように原文書中の抽出単位を選択することで,原文書の談話構造を保持した要約文書が生成できる\cite{marcu:98,daume:02,hirao:13}.従来のRSTを抽出型要約に組み込む従来の手法の問題点は,その抽出粒度にある.RSTで扱う文書中の最小単位はElementaryDiscourseUnit(EDU)と呼ばれ,おおよそ節に対応するテキストスパンである.従来手法は,抽出の単位をEDUとして要約の生成を行ってきたが,それが要約において必ずしも最適な単位であるとは限らない\footnote{これについては\ref{sec:unit}節で考察する.}.また,本節で後に説明するように,それなりの長さを持ったテキストスパンを抽出単位とする場合,要約長に対する柔軟性の面でも問題が生じる.情報の網羅性は,文書要約の目的そのものでもある非常に重要な要素である.要約文書は原文書の内容を簡潔にまとめている必要があり,原文書の重要な内容を網羅していることが要求される.近年,抽出型要約において,原文書から重要な抽出単位の部分集合を選択する問題を整数計画問題(IntegerLinearProgramming;ILP)として定式化するアプローチが盛んに研究されている.抽出された部分集合が原文書の情報をなるべく被覆するような目的関数を設定し,最適化問題として解くことで,原文書の情報を網羅した要約文書の生成が可能となる.実際にこれらの手法は要約文書の情報の網羅性の指標となる自動評価手法であるROUGE(Recall-OrientedUnderstudyforGistingEvaluation)\cite{lin:04}値の向上に大いに貢献してきた\cite{mcdonald:07,filatova:04,takamura:09}.RSTを要約に組み込む研究の多くはRSTで定義される修辞構造の構造木をそのまま利用したものが多かった\cite{marcu:98,daume:02}が,Hiraoら\cite{hirao:13}は,RSTの談話構造木をそのまま用いることの問題点を指摘し,EDUの依存構造木(DEP-DT)に変換し,依存構造木の刈り込みにより要約を生成する木制約付きナップサック問題\cite{johnson:83}として要約を定式化した.ILPの導入によって,高い網羅性を持った要約の生成が可能となった一方で,要約手法が持つ要約長に対する柔軟性は,情報の網羅性と密接な関係をもつようになった.文書要約では,要約文書が満たすべき上限の長さを指定することが一般的である.抽出型要約においてよく用いられる抽出単位は文であり,生成された要約の文法性が保証されるという利点がある.しかし,高い圧縮率,すなわち原文書の長さと比較して非常に短い長さの要約文書が求められている場合,文を抽出単位とすると十分な量の情報を要約文書に含めることが出来ず,情報の網羅性が低くなってしまうという問題\footnote{これは上述の通り,RSTに基づくEDUを抽出単位とした手法も同様である.EDUは文よりは細かいとはいえ,固定された抽出単位としてはかなり粗いテキストスパンである.}があった.この問題に対し,文抽出と文圧縮を組み合わせるアプローチが存在する.文圧縮とは,主に単語や句の削除により,対象となる文からより短い文を抽出する手法である.近年,こうした文圧縮技術と文抽出技術を逐次適用するのではなく,それらを同時に行うアプローチ(以降これらを同時モデルとよぶ)が盛んに研究されており,高い情報の網羅性と要約長への柔軟性を持った要約文書の生成が可能となっている.本研究の目的は,文書の談話構造に基づく,情報の網羅性と要約長への高い柔軟性を持った要約手法を開発することである.これまで,文書要約に談話構造を加える試みと,文抽出と文圧縮の同時モデルは,どちらも文書要約において重要な要素であるにもかかわらず,独立に研究されてきた.その大きな要因の一つは,両者の扱う抽出粒度の違いである.前者はEDUであり,後者の抽出粒度は文(圧縮され短くなった文も含む)である.抽出単位を文やEDUというそれなりの長さのテキストスパンにすると,ある要約長制約に対し,選択可能なテキストスパンの組合せは自ずと限られ,情報の網羅性を向上させることが困難な場合がある.我々は,文間の依存関係に基づく木構造と単語間の依存関係に基づく木構造が入れ子となった{\bf入れ子依存木}を提案し,その木構造に基いて要約を生成することでこの問題に取り組む.提案手法について,図\ref{fig:nested_tree}に示す例で説明する.本研究で提案する入れ子依存木は,文書を文間の依存関係で表した{\bf文間依存木}で表現する.文間依存木のノードは文であり,文同士の依存関係をノード間のエッジとして表現する.各文内では,文が単語間の依存関係に基づいた{\bf単語間依存木}で表現されている.単語間依存木のノードは単語であり,単語同士の依存関係をノード間のエッジとして表現する.このように,文間依存木の各ノードを単語間依存木とすることで,入れ子依存木を構築する.そして,この入れ子依存木を刈り込む,つまり単語の削除による要約生成をILPとして定式化する.生成された要約は,文間依存木という観点では必ず文の根付き部分木となっており,その部分木内の各文内,すなわち単語間依存木の観点では単語の部分木となっている.ここで,文間依存木からは必ず木全体の根ノードを含んだ根付き部分木が抽出されているのに対し,単語間依存木はそうでないものも存在することに注意されたい.従来,文圧縮を文書要約に組み込む研究では,単語間依存木の場合も必ず根付き部分木が選択されていたが,限られた長さで重要な情報のみを要約に含めることを考えると,単語の根付き部分木という制約が情報の網羅性の向上の妨げとなる可能性がある.そこで提案手法では,根付きに限らない任意の部分木を抽出するために,部分木の親を文中の任意の単語に設定できるよう拡張を加えた.\begin{figure}[t]\begin{center}\includegraphics{22-3ia3f1.eps}\end{center}\hangcaption{提案手法の概要.原文書は二種類の依存木に基づく入れ子依存木として表現される.提案手法は,文間依存木からは根付き部分木,その各ノードは単語間依存木の部分木となっているように単語を選択することで要約を生成する.}\label{fig:nested_tree}\end{figure}提案手法をRSTDiscourseTreebank\cite{carlson:01}における要約システムの評価セットで従来の同時モデルや木制約付きナップサック問題による要約手法と比較評価したところ,文書要約の自動評価指標であるROUGEにおいて最高精度が得られることを確認した. \section{関連研究} 現在の抽出型要約の主流である文抽出,文圧縮の同時モデルでは,与えられた文書(群)から,文を単語間依存木として表現し,その根付き部分木を刈り込む,すなわち単語を削除することで要約を生成する.また,これをILPとして定式化する研究が盛んに行われている\cite{almeida:13,liu:13,morita:13,gillick:09}.しかし,文から抽出する単語列を単語依存木の根付き部分木に限ると高圧縮な要約設定において情報の網羅性が低下するおそれがある\footnote{ただし,単一の文に対し明示的に圧縮率が与えられる文圧縮タスクだけに限れば,文に複数の根を与える手法も存在する\shortcite{filippova:08}.}.さらに,これらの同時モデルでは文書が持つ談話構造を考慮しないため,情報の網羅性が高く自動評価指標のROUGEにおいて高い値を得ることができるが,一貫性に欠けた要約が生成されてしまうという欠点がある.また,同時モデルにおける文圧縮の手段として,文を依存構造木ではなく句構造木として表現し,その部分木を抽出する手法も提案されている\cite{li:14,lu:13,kirkpatrick:11}.句構造木は連続した単語列の文法的な役割を階層構造として表現した木であるため,この木を刈り込む際には連続した単語列(句)を同時に削除することが多くなる.よって,依存構造木を用いた刈り込みと比較すると要約長に柔軟な刈り込みが難しい.一方,一貫性をもった要約を生成する手法としてRSTを利用した手法が提案されている.Daum{\'e}IIIandMarcuは,RSTを利用したNoisy-channelモデルに基づく文書圧縮手法を提案した\cite{daume:02}.彼らの手法は一貫性を持った要約の生成が可能であるが,情報の網羅性という観点で最適解が得られるとは限らない.また適切な確率を計算するために大量のコーパスを必要とする上に,計算量の問題で長い文書に適用できないという欠点があった.Marcuは,RSTの構造を利用してEDUの順位を決定し,ランキング上位のEDUを要約として抽出した\cite{marcu:98}.Uz\^{e}daらは,Marcuの手法を含む合計6つの手法を組み合わせる手法を提案し,オリジナルの手法との比較評価を行った\cite{uzeda:10}.\ref{sec:rouge}節では彼らの報告にある数値も参考値として載せている.Marcuらの手法を含むEDUのランキングに基づく手法は,十分な情報の網羅性が保証されないという欠点がある.Hiraoらはこれを解決するため,EDUの依存木を構築し,その依存関係に基づいてEDUを選択する問題を木制約付きナプサック問題として定式化した\cite{hirao:13}.これらの手法はRSTにおけるテキストの最小単位であるEDUをそのまま抽出単位としていたが,EDUが文書要約においても適切な抽出単位であるかについては,要約長に対する柔軟性の面で疑問が残る.EDUは文よりも短いとはいえそれなりの長さを持ったテキストスパンである.そのため,要約に含める情報の組み合わせの自由度は比較的低く,かつEDUのようなテキストスパンを対象とした構文解析器がないため,文圧縮のような技術が適用できない.これに関しては\ref{sec:unit}節で評価実験結果をふまえて考察を行う.Hiraoらの手法は提案手法に最も強く関連している.両者の違いは,Hiraoらの手法がEDUをノードとする依存木からEDUを選択する要約手法であることに対し,提案手法は文間の依存関係と単語間の依存関係が入れ子構造を成す木から単語を選択する要約手法であるという点である.また,文重要度の決定に貢献する特徴を調べた文献\cite{louis:10}でも,RSTの有効性が示されている.これまで,文書の(大域的な)談話構造を利用した要約手法について紹介したが,隣接した文同士のつながりを評価し,文の局所的な並びを最適にすることに取り組む研究も存在する\cite{nishikawa:10,christensen:13}.これらの方法では,修辞構造解析器を必要としないため,論理構造が明確でなく自動解析の精度が期待できない文書においては有効である.一方で,文書の大域的な談話構造を考慮した要約生成はできない可能性がある. \section{入れ子依存木の刈り込みによる要約文書生成} 本研究の目的は,要約文書の一貫性と情報の網羅性が高く,かつ要約長に柔軟な要約手法を提案することである.要約としての一貫性と要約長への柔軟性を獲得するために文書を入れ子依存木として表現し,入れ子依存木から要約文書を生成する問題を整数計画問題として定式化することで高い情報の網羅性を持った要約生成を行う.本節では,入れ子依存木の構築についての詳細と,ILPでの定式化について説明する.\subsection{修辞構造理論}\begin{figure}[b]\begin{center}\includegraphics{22-3ia3f2.eps}\end{center}\hangcaption{RSTによる文書の表現.$\mathrm{EDU}_\text{1--10}$は具体的なテキストになっており,おおよそ節に相当する.隣り合ったテキストスパンは再帰的に修辞関係により関連付けられており,最終的に文書全体で木構造を構成する.NとSはそれぞれ核と衛星に対応し,間に書かれたラベルがそれらの間の修辞関係である.}\label{fig:rstdt}\end{figure}修辞構造理論(RhetoricalStructureTheory;RST)\cite{mann:88}は,文書の談話構造を表現するために提案された理論である.文書をEDUに分割し,連続したEDU同士(あるいは,複数のEDUをつなぎあわせたテキストスパン)を修辞関係で関連付けることで,談話構造木を構築する.構築される木は,終端ノードがEDU,非終端ノードが子ノード間の修辞関係をラベルに持つ木構造で表現される.図\ref{fig:rstdt}に,談話構造木の例を示す.図において二つの非終端ノードの間に書かれているラベルがそのノード間の修辞関係である.具体的には例示,補足,背景などの関係により,テキストスパン同士がどのような関係にあるかを表現する.今回用いたコーパスでは合計で89種類の修辞関係が存在した.また,修辞関係と共に各テキストスパンには核(Nuclear)か衛星(Satellite)のいずれかのラベルが付与される.核はその修辞関係において中心的な役割を担い,衛星は補助的な役割を持つ.例えば補足という修辞関係では,補足される方のテキストスパンが核であり,その内容を具体的に補足したテキストスパンが衛星となる.図においては,各非終端ノードのNとSがそれぞれ核と衛星を表している.なお,図\ref{fig:rstdt}の$\ast$のように,複数の核からなる多核(multinucleus)という性質を持った修辞関係も存在する.\subsection{入れ子依存木の構築}\label{sec:build_tree}\begin{figure}[b]\begin{center}\includegraphics{22-3ia3f3.eps}\end{center}\hangcaption{依存構造に変換された文書の修辞構造.(1)HiraoらによるEDU間の依存関係を表したDEP-DTであり,図\ref{fig:rstdt}の木構造を変換したもの.なお,multinucleusの関係を持つテキストスパンを成す$\text{EDU}_4$と$\text{EDU}_5$はそれぞれ独立に一つ上の核である$\text{EDU}_3$に依存している.(2)本研究で用いる文間依存木.HiraoらのDEP-DTを変換したもの.}\label{fig:deptrees}\end{figure}Hiraoら\cite{hirao:13}はRSTの木構造を変換することで依存構造に基づくDEP-DTを構築した.DEP-DTは,EDU間の依存関係を直接表現しており,この依存木を刈り込むことで一貫性を保った要約が生成できる.図\ref{fig:deptrees}に,図\ref{fig:rstdt}の木構造から変換されたDEP-DTと本研究で用いる文間依存木を示す.Hiraoらの用いたDEP-DTは,EDUをノードとするものであったが,本研究では文間の関係をとらえた同時モデルのため,これを文をノードとした依存木へと変換する.具体的には,同じ文に属するEDU集合をまとめ,文内の親となっているEDUの依存先を,その文の依存先として採用する.依存先のEDUは他の文に属しているため,この変換規則により,文間の依存関係を持った木構造(文間依存木)を取得することができる.次に文間依存木の各ノードとなる文に対し依存構造解析を行い,単語間の依存構造(単語間依存木)を獲得する.以上の処理により,文書が文の係り受け木,各文内では単語の係り受け木により構成された{\bf入れ子依存木}を構築する.本研究では,この入れ子依存木から不要な単語を刈り込むことで要約文書を生成する.\subsection{整数計画問題による定式化}\label{sec:ilp}入れ子依存木からの単語の削除による要約文書の生成は,整数計画問題として定式化できる.具体的には,ある目的関数のもと,文間依存木の根付き部分木,根付き部分木中の各文は単語間依存木の(任意の)部分木となるように単語を選択することで要約を生成する.提案手法は次の整数計画問題で定式化できる.\begin{eqnarray}\text{max.}&\displaystyle\sum_{i}^n\sum_{j}^{m_i}w_{ij}z_{ij}\nonumber\\\text{s.t.}&\sum_{i}^n\sum_{j}^{m_i}z_{ij}\leqL;&\label{st_length}\\&x_{i}\geqz_{ij};&\foralli,j\label{st_word_in}\\&x_{\text{parent}(i)}\geqx_i;&\foralli\label{st_sent_dep}\\&z_{\text{parent}(i,j)}+r_{ij}\geqz_{ij};&\foralli,j\label{st_word_dep}\\&r_{ij}+z_{\text{parent}(i,j)}\leq1;&\foralli,j\label{st_r_is_top}\\&\sum_{j=0}^{m_i}r_{ij}=x_i;&\foralli\label{st_one_root}\\&r_{ij}\leqz_{ij};&\foralli,j\label{st_r_with_z}\\&\sum_{j\notinR_c(i)}r_{ij}=0;&\foralli\label{st_only_rc}\\&r_{i\text{root}(i)}=z_{i\text{root}(i)};&\foralli\label{st_prs_root}\\&\sum_{j=0}^{m_i}z_{ij}\geq\text{min}(\theta,m_i)x_i;&\foralli\label{st_s_has_w}\\&\sum_{j\in\text{sub}(i)}z_{ij}\geqx_i;&\foralli\label{st_has_sub}\\&\sum_{j\in\text{obj}(i)}z_{ij}\geqx_i;&\foralli\label{st_has_obj}\\&x_i\in\{0,1\};&\foralli\\&z_{ij}\in\{0,1\};&\foralli,j\\&r_i\in\{0,1\};&\foralli\label{fig:model}\end{eqnarray}$n$は対象とする原文書に含まれる文数であり,$m_i$は文$i$の単語数である.$w_{ij}$は単語$ij$($i$番目の文における$j$番目の単語)の重みである.$x_i$は,文$i$を要約に含めるときに1となる決定変数であり,$z_{ij}$は,単語$ij$を要約に含めるときに1となる決定変数である.目的関数は,要約に含まれた単語の重みの総和であり,この関数を最大にするように単語を選択する.式(\ref{st_length})は,要約として選択される単語数が$L$以下であることを保証するための制約式である.式(\ref{st_word_in})は要約に含まれていない文中の単語を要約に含めてしまうことを防ぐための制約式である.式(\ref{st_sent_dep})は文間依存木から文を選択する時に,その木構造を保つことを保証する.これは文間依存木からは必ず根を含む根付き部分木が選択されることを意味する.$parent(i)$は,文間依存木において文$i$の親となる文のインデックスを返す関数である.式(\ref{st_word_dep})から式(\ref{st_prs_root})には決定変数$r_{ij}$が含まれている.$r_{ij}$は,単語$ij$を根とした部分木を要約文書に含める場合に1となる.式(\ref{st_word_dep})は,単語間依存木から単語を選ぶ場合,その木構造を保つことを保証する.ただし,単語間依存木の根以外の単語${ij}$を根として部分木を抽出する場合は,その単語${ij}$には必ず親となる単語$parent(i,j)$が存在する.その状況では$z_{ij}$が1のまま$z_{parent(i,j)}$を0にすることが許容されなければならず,それを可能とするのが左辺第二項の$r_{ij}$である.なお,$parent(i,j)$は,文$i$に対応する単語間依存木において,単語$ij$の親となる単語のインデックスを返す関数である.ただし,このままでは,$z_{parent(i,j)}$と$r_{ij}$のどちらも1である場合も許容されてしまうため,2つの変数が同時に1となることを制限するための制約式(\ref{st_r_is_top})を追加する.同様に,このままでは$r_{ij}$のみが1となっている場合も許容されてしまう.$r_{ij}$が1である場合はその単語$ij$は必ず要約に含まれなければならないため,制約式(\ref{st_r_with_z})を追加することで対処する.本研究では文$i$が要約に含まれる場合($x_i$=1)は,そこから抽出される部分木は高々一つであるとしている.そこで,式(\ref{st_one_root})により,一つの文から複数の部分木(の根)が生じることを制限している.また,文$i$における単語間依存木の根に相当する単語($\text{root}(i)$)に関しては,根付き部分木を抽出する場合,すなわち$r_{\text{root}(i)}$が1であるときのみ要約に含めることを保証する必要があり,そのため制約式(\ref{st_prs_root})を追加している.冒頭で述べた通り,本研究では単語間依存木から部分木を抽出する際は,根となり得るのは文中の動詞と,単語間依存木全体の根となる単語に限っている.そこで,それ以外の単語が根となることを防ぐことを保証するため,制約式(\ref{st_only_rc})を追加する.ここで,$R_c(i)$は文$i$中で根の候補となる単語,すなわち動詞のインデックス集合を返す関数である.式(\ref{st_s_has_w})は,文(に対応する単語間依存木の部分木)を要約に含めるための最低の単語数を規定するための制約式である.これは,単語の削除により木を刈り込むという手法の性質上,極端に短く刈ってしまうと非文になる可能性が高くなることを防ぐ目的がある.また,要約を最適化問題としてモデル化しているので,目的関数を最大化するために要約長の限界まで単語を選択しようとして,刈り込みを無制限に許容すると,極端な例では1単語からなる部分木を選択してしまうため,それを防ぐための制約である.式(\ref{st_has_sub})は,部分木を抽出する際は必ず一つ以上の主語を含むことを保証する制約である.同様に式(\ref{st_has_obj})は,目的語を一つ以上含むことを保証する制約である.ここで,$sub(i)$と$obj(i)$は,それぞれ文$i$中の単語のうち係り受けラベルが主語,目的語である単語のインデックス集合を返す関数である.提案手法の文圧縮が単語間依存木の刈り込みに基づいている以上,その操作により非文が生成されてしまう可能性がある.ここで,非文となる部分木の生成を避けるための二種類の追加的な制約を導入する.一つ目の制約式は単語対に対するものである:\begin{equation}z_{ik}=z_{il}.\label{st_equal}\end{equation}式(\ref{st_equal})は.単語$ik$と単語$il$は必ず同時に要約に含まれることを保証する.これは,片方だけを要約に含めてしまう場合に非文となってしまうような組に対して定義される.具体的には,係り受けタグがPMOD\footnote{前置詞とその子の単語の間の関係.},VC\footnote{過去分詞形や現在進行形など,動詞が連続する時のそれらの動詞間の関係.}である単語とその親の単語,否定詞とその親の単語,係り受けタグがSUBあるいはOBJである単語とその親となっている動詞,形容詞の比較級(JJR)あるいは最上級(JJS)とその親の単語,冠詞とその親の単語,``to''とその親の単語である.二つ目の制約式は単語列に対するものである:\begin{equation}\sum_{k\ins(i,j)}z_{ik}=|s(i,j)|z_{ij}.\label{st_span}\end{equation}式(\ref{st_span})は単語の集合に対し,集合中のいずれかの単語を要約に含めるとき,集合中の他の全ての単語も要約に含めることを保証する制約である.具体的には,固有名詞列(品詞タグがPRP\%,WP\%あるいはPOSのいずれかである単語列)や,所有格とその係り先の単語,その間に含まれる全ての単語列である.ここで,$s(i,j)$は,単語$ij$と,例に上げた関係にある単語インデックスの集合を返す関数である.\vspace{-0.3\Cvs} \section{評価実験} \vspace{-0.5\Cvs}\subsection{実験設定}提案手法の有効性を示すために評価実験を行った.実験にはRSTDiscourseTreebank(RST-DTB)\cite{carlson:01}に含まれる要約評価用のテストセットを用いた.RST-DTBはPennTreebankコーパスの一部の文書(WallStreetJournalから収集された385記事)からなるコーパスであり,RSTに基づく木構造が人手で付与されている.さらにその内30記事について,人手で作成された要約文書(参照要約)が存在しており,それらの文書を評価用テストセットとした.実験に用いたすべての文書は,PennTokenizerによりトークンに区切った.要約システムの入力となる要約長は,参照要約の有するトークン数とした.テストセットに含まれる30記事の参照要約には,平均して原文書の25\%程度の長さの{\bflong}要約と,平均して原文書の10\%程度の長さの{\bfshort}要約の二種類が存在する.本実験では両方のテストセットについて先行研究との比較を行う.評価尺度としてはROUGE(Recall-OrientedUnderstudyforGistingEvaluation)\cite{lin:04}を用いる\footnote{評価スクリプト実行時のオプションは,ROUGE-1では``-a-m-s-n1-x'',ROUGE-2では``-a-m-s-n2-x''である.また,stopwordを含めた評価では``-s''を削除する.}.抽出粒度の妥当性について検証するため,比較手法としてEDUを単位とした木制約付きナップサック問題による要約手法\cite{hirao:13}と,文を単位とする木制約付きナップサック問題による要約手法を用意した.また,単一文書要約において強力なベースラインとなるLEAD法との比較も行った.LEAD法は,要約長に達するまで文書の冒頭から抽出単位を選択していくことで要約文書を生成する手法である.本稿ではEDUを抽出単位とするLEAD$_\text{EDU}$と,文を抽出単位とするLEAD$_\text{snt}$との比較を行う.さらに,提案手法において文(単語間依存木)から部分木を抽出する際に根付き部分木に制限する手法({\bf根付き部分木抽出})も用意し,任意の部分木を抽出対象とする提案手法({\bf任意部分木抽出})との比較を行った.本実験に用いたすべての文間依存木は,RST-DTBで人手付与されたRST構造を利用しており談話構造解析器は利用していない.考察において,談話構造解析器を用いた追加実験を行い,精度の変化について考察する.また,単語依存木はSuzukiらの提案した依存構造解析手法\cite{suzuki:09}を用いて構築した.なお,本実験では,単語の重要度$w_{ij}$として以下を用いた:\begin{equation}w_{ij}=\frac{log(1+tf_{ij})}{depth(i)^2}.\end{equation}$tf_{ij}$は文書における単語$w_{ij}$の単語頻度であり,$depth(i)$は,文書の文間依存木における文$x_i$の根からの深さである.また,制約(\ref{st_s_has_w})における$\theta$は8とした.\subsection{結果と考察}\subsubsection{ROUGEによる比較}\label{sec:rouge}表\ref{tab:results}に,各手法によるROUGE-1,2値を示す.まず,short要約,long要約セット双方において,提案手法である任意部分木抽出と根付き部分木抽出の間にROUGE値の顕著な差はみられなかった.これについては\ref{sec:subtree}節において,両手法が抽出した実際の部分木を例に定性的な考察を行う.以下では,任意部分木を提案手法とし,他の手法との比較を行う.また,表\ref{tab:results}の下3行はUz\^{e}daらによる比較実験の結果から一部の数値を引用している\footnote{\protect具体的には\cite{uzeda:10}で報告されている結果のうち,本実験に最も条件が似ているもの(TableIIの最左のカラム)の数値を引用している.}.ここで,Marcu$_\text{ours}$(0.432)とMarcuetal.(0.440)は,どちらも\cite{marcu:98}の手法による結果を示している.前者は我々による再実装の数値であり,後者は\cite{uzeda:10}において報告されていた数値である.数値が異なるのはトークナイゼーションなどの前処理の違いによるものであると考えられるが,Uz\^{e}daらの文献に前処理の詳細がないため,完全な比較とはならないことに注意されたい.とはいえ,両者の数値に大きな差異はないことから,ほぼ同じ実験条件での数値であると判断した.\begin{table}[t]\caption{各手法によるshort要約セットおよびlong要約セットにおけるROUGE-1,2値}\label{tab:results}\input{03table01.txt}\end{table}まず,short要約セットのstopwordを除去した条件(最も左のカラム)において,提案手法の評価値はホルム法による多重比較の結果,他の全ての手法を有意に上回っていることを確認した.個別の手法と比較すると,文選択手法すなわち文圧縮を一切行わない手法と比較すると,提案手法が大幅に上回っている事がわかる.これは,文をそのまま抽出する場合は,今回の要約設定(平均圧縮率が約10\%)では十分に情報を網羅できないことを示している.次に,EDU選択手法と比較しても提案手法が上回っている.EDU選択は文選択を有意に上回っていることから,文よりも細かいEDUを抽出粒度とすることで,要約文書の情報の網羅性を高めることができている.しかし,EDUという予め決められた長さのテキストスパンを抽出する手法よりも,部分木という可変長のテキストスパンを抽出できる提案手法の方がROUGE値は上回っており,その有効性がわかる.LEAD法は,報道記事の単一文書要約問題において非常に強力なベースラインである.これは,報道記事ではしばしば記事の冒頭でその記事全体の小さなまとめが書かれる傾向にあるためである.今回の実験では抽出単位の異なる二種類のLEAD法を用いたが,いずれも低い数値となった.これは要約対象となっている文書が,単純な報道記事ではなく,エッセイや社説によって構成されているためであり,冒頭に重要なまとめが記載されているわけではないことが原因である.一方,long要約セットでは,提案手法とEDU選択手法との間に顕著な差は見られなかった.これは,25\%という圧縮率が比較的緩く,いずれの手法,抽出単位でもある程度の情報が網羅できるために大きな差が生まれなかったためである.ただし,文を抽出単位とした手法(文選択およびLEAD$_{snt}$)のROUGEスコアは低いことから,情報網羅性の向上のためには,文よりも小さいテキストスパンを抽出することが重要であるとわかる.以上の結果から,提案手法のような要約長に柔軟な要約手法は,short要約セットのように比較的圧縮率の高い設定において有効であることがわかる.\subsubsection{修辞構造の自動解析による精度の変化}表\ref{tab:results}の実験結果は,人手で与えられたRSTに基づく修辞構造を用いていた.提案手法を任意の文書に適用する場合,文書の修辞構造を自動で解析する解析器が必須である.しかし,修辞構造の自動解析は難しいタスクの一つであり,人手で付与された談話構造を使用したときと比較して精度が劣化してしまうおそれがある.そこで本節では,既存の修辞構造解析器を用いて自動で解析した修辞構造を利用した場合の精度の変化を調べる.今回の実験では自動解析器として,サポートベクターマシンに基づく高い精度を持った解析器であるHILDA\cite{duverle09,hilda}を用いた.表\ref{tab:results_auto}に実験結果を示す.$_\text{HILDA}$と付いている行が,自動解析に基づく依存木を使用した場合の結果である.結果から,いずれの手法も人手で作成された修辞構造を用いたものよりROUGE値が劣化していることがわかる.short要約セットの場合は,提案手法の方が劣化が大きい.これは,提案手法がEDU単位の依存構造を文単位に変更しているためである.HILDAを始めとする自動解析器は,ボトムアップに修辞構造木を組み上げていくため,それを用いて得た修辞構造木を談話依存構造へと変換すると,距離が近いEDU間の依存関係は比較的高い精度で予測できるが,遠い依存関係の予測精度は低い.このため,遠距離の依存関係である文間の依存関係の同定に失敗し,提案手法のROUGEが大きく劣化したと考える.実際,依存先の正解率~\footnote{ここで正解率とは,自動解析による談話構造木とgoldstandardの談話構造木を\protect\ref{sec:build_tree}節の手順で依存木に変換した場合の両者の一致率である.}を計算すると,EDU単位で0.590,文単位で0.324となった.しかしながら,short要約セットにおいては,減少幅は大きいものの依然として提案手法の精度が,今回比較したどの手法の数値よりも高いことから,提案手法の有効性がわかる.\begin{table}[b]\caption{修辞構造を自動解析した場合の精度の変化}\label{tab:results_auto}\input{03table02.txt}\vspace{-1\Cvs}\end{table}long要約セットにおいては,EDU選択手法のROUGE値の減少はほとんど見られなかった.\ref{sec:rouge}節で述べた通り,long要約セットは低い圧縮率であるため比較的多くの情報を要約に含めることができる.文単位の依存関係においても,正解率自体は低くとも選択できる文数が増えるため,short要約セットよりもROUGE値の劣化が抑えられている.すなわち,short要約セットのように圧縮率の厳しい設定では,より高い精度で抽出単位の依存先を推定する必要がある.\subsubsection{単一文書要約における重要箇所同定}前節で,提案手法の有効性をROUGE値によって確認した.本節では,談話構造,すなわち文間依存木の情報が文書中の重要箇所同定に有効かという点について考察を行う.現在,文書要約において主流な問題設定は,同じトピックについて書かれた文書の集合からひとつの要約文書を生成する,複数文書要約である.冒頭で説明した文抽出と文圧縮を組み合わせる手法も全て複数文書要約に取り組んでいるのに対して,今回我々が行った実験は,一つの文書に対し一つの要約文書を生成する単一文書要約問題である.単一文書要約は複数文書要約と比較して,要約文書に含めるべき文書の重要部分の同定が難しい.なぜならば複数文書要約では文書集合全体として重要な話題は文書横断的に出現するため,その性質を利用できる\footnote{その分,複数文書要約においてはいかに冗長な情報を要約に含めないかという点が重要となる.}が,単一の文書においてそのような情報は利用できないためである.対象とする文書が報道記事である場合は,冒頭部分に記事全体の要約が書かれやすいという強力な基準があるが,そうでない場合に重要な部分を同定することは困難である\footnote{ただし,報道記事であれば必ず記事冒頭に記事全体の要約が存在しているとは限らないことも分かっており,単純に記事冒頭を機械的に抽出しても必ずしも重要箇所が得られるとは限らない\cite{yang:14}.}.今回我々が用いた単一文書要約の評価セットは,報道記事ではなく社説やエッセイのような文書で構成されているため重要部分の同定が難しい.これは表\ref{tab:results}におけるLEAD手法のROUGE値からも確認できる.\begin{table}[b]\caption{RSTに基づく文間依存木を利用しない場合の結果の変化}\label{tab:results_single}\input{03table03.txt}\end{table}文間依存木の情報が文書の重要箇所同定に与える影響について検証するため,提案手法(自動解析含む)の単語重要度から$depth^2$を取り除いたもの,すなわち単語の重要度が単にその文書における出現頻度で決まる場合と,文間依存木の情報を一切用いない従来の同時モデルについても同様に実験を行い比較した.表\ref{tab:results_single}に,それぞれの結果を示す.提案手法の単語重要度から文間依存木の情報(依存木の根からの深さ)を除いた場合に十分なROUGEスコアが得られないことから,文書の談話構造が単一文書要約における重要箇所の同定に寄与していることがわかる.なお,同時モデルと異なり,木構造の制約という形で文間依存木の情報は用いていることに注意されたい.同時モデルの結果を見ると,文抽出と文圧縮の同時最適化のみでは,本評価セットで有効に機能しないことがわかる.重要文の同定・抽出が困難であるならば,複数文書要約において盛んに取り組まれている文抽出と文圧縮の同時最適化を適用することも困難となり,要約長に柔軟な要約文書の生成も困難となる.本研究の結果は単一文書における重要部分の同定に対するひとつの手がかりとして,文書の談話構造が有効である可能性を示唆しているといえる.\subsubsection{異なる部分木抽出手法の定性評価}\label{sec:subtree}ここまで,ROUGEの観点から評価実験の結果についての考察を進めてきた.本節では,単語間依存木からその部分木を抽出する方法として,任意の部分木を抽出することの有用性を,例を示して考察する.図\ref{fig:sents}に,任意部分木抽出手法と根付き部分木抽出手法が共通して要約文書に含めた文と,そこから抽出した部分木に対応する二つの文を示す.なお,これはshort要約セットにおける例である.\begin{figure}[b]\begin{center}\includegraphics{22-3ia3f4.eps}\end{center}\caption{二つの手法が共通して要約に選択した文と,それぞれが抽出した部分木の例}\label{fig:sents}\end{figure}ここで,$\{\cdot\}$は依存構造解析器が単語間依存木の根であると出力した語であり,$[\cdot]$は要約システムが部分木の根として選んだ語である.任意部分木抽出においては,例に示したいずれの文も解析器の根以外の単語を根として部分木を抽出している.例に見るように,目的節やthat節の内容の方が重要な情報を持つことが多いため,その部分のみを抽出することは,限られた長さで重要な情報のみ要約に含める上で有用であり,今回の実験ではこうした事例が少なかったこともありROUGEスコアで大きな差がでなかったが,特に圧縮率の高い設定\footnote{すなわち,原文書そのものの長さに対し非常に短い要約を生成する必要があるような設定.}では有効であろう.\subsubsection{抽出粒度と要約文書の文数の関係}\label{sec:unit}EDUはRSTにおける談話構造の基本単位であるが,抽出型要約の抽出単位として適切とは限らない.図\ref{fig:edus}に,ある文\footnote{この文はwsj\_1128より選択した.}とその文を構成するEDUの例を示す.図のように,EDUはおおよそ節に対応する文よりも細かな単位である.抽出単位が文よりも細かいEDUであることは,EDU抽出は,文圧縮を逐次適用した要約手法として考えることができる.つまり,EDU抽出による要約は多くの文を事前に圧縮しつつ抽出していることに相当する.このように文よりも小さな断片を組み合わせて要約を生成すると,文を組み合わせる場合よりも長さ制約をちょうど満たすように要約を生成することができる可能性が高い.よって,ROUGE値も上昇する傾向にある.しかし,EDUは文よりも短いため,たとえ一貫性があろうともそれを読んだ読者が違和感を覚えてしまうだろう.\begin{figure}[b]\begin{center}\includegraphics{22-3ia3f5.eps}\end{center}\caption{本データセットにおける文の一例.5行全体で一つの文であり,各行が一つのEDUに対応している.}\label{fig:edus}\end{figure}抽出型要約において,文書中の多くの文から細かな断片を集めることで情報の断片化された要約の生成につながっているかどうかのは,要約文書に含まれる抽出単位集合の元となる文の数が,その一つの指標となる.言い換えると,生成された要約を構成する文の数が,参照要約すなわち人間によって生成された要約に近い方が,自然で読みやすい要約になっていると考えられる.そこで本節では各手法が生成した要約文書に含まれる原文書の文数を比較した.比較に用いた手法は提案手法である任意部分木抽出の他に,文選択とEDU選択である.文選択は原文書中の文の数,EDU選択は原文書中のEDUに対応する文の数,部分木選択は,部分木に対応する文の数である.なお,参照要約は人間が自由に生成した要約であるため,必ずしも原文書の文とは対応していないことに注意されたい.short要約セットにおいて各選択手法が選択した文について箱ひげ図を図\ref{fig:boxes_short}に示す.各々の箱の上辺と下辺は,それぞれその手法が選択した文数の第一四分位点,第三四分位点を表しており,箱の中の線は中央値を表している.箱の上下に伸びる線(ひげ)の先は,それぞれ最大値,最小値を表し,ひげよりも外側に見られる$+$印は,外れ値である.図を見ると,EDU選択手法が最も多くの文を用いて要約を生成していることがわかる.一方で文選択手法は,比較手法の中では最も参照要約の文に近いが,\ref{sec:rouge}節で示した通り情報の網羅性という点で十分な要約を作成できない.部分木抽出は文選択とEDU選択の間で,両者のように実際に抽出されるテキストスパンの長さを固定せずに要約システムが柔軟に各文から抽出する部分木を選択することができる.それにより情報の網羅性と要約としての自然さを両立出来ている.なお,部分木抽出手法の平均文数は4.73であり,中央値は4文であった.これに対し,EDU選択の平均文数は5.77で中央値は5文であった.これは提案手法の方が有意\footnote{ウィルコクソンの符号順位検定($p<0.05$).}に少ない文を用いて要約を生成していることを示している.自動解析を利用した場合も同様の傾向であるため詳細は割愛する.\begin{figure}[b]\begin{center}\includegraphics{22-3ia3f6.eps}\end{center}\hangcaption{short要約セットにおいて各手法が使用した原文書の文の数.(HILDA)と付いているものは自動解析による修辞関係を利用している.}\label{fig:boxes_short}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{22-3ia3f7.eps}\end{center}\caption{long要約セットにおいて各手法が使用した原文書の文の数}\label{fig:boxes_long}\end{figure}同様に,long要約セットについて図\ref{fig:boxes_long}に示す.圧縮率が低くなった場合も全体の傾向としてはshort要約セットとの大きな差異はない.全体的にばらつき(箱の縦の長さ)が大きくなっているが,これは参照要約自体の長さのばらつきがshort要約セットよりも大きいことが原因である. \section{まとめ} 本研究では,単語間の依存構造解析に基づく単語間依存木と,RSTに基づく文間依存木から入れ子依存木を構築し,そこから要約文書に含める単語を選択する要約生成問題をILPとして定式化した.提案手法はEDUの依存木の刈り込み手法に比べ,過剰に文を区切ることなくROUGEを向上させることが確認できた.また,単語の依存木からその部分木を抽出する方法として,構文解析器が出力した根にこだわらない任意部分木抽出手法について,その有用性を定性的に分析した.さらに,人手で作成された修辞構造以外に,修辞構造解析器で推定された修辞構造も用いて,その精度への影響を確かめた.提案手法の抱える課題は,任意の文書に対して適用する際に修辞構造の自動解析を利用しており,その精度の与える影響が大きいという点である.今回はEDU単位の修辞構造解析結果を文単位の依存関係に変換して利用したが,はじめからEDU単位の依存関係を獲得する研究\cite{yoshida14}も存在する.これらを踏まえ,今後はより良い文間依存木の獲得方法を検討していく.今回はRSTから得られる情報のうち文間の依存関係のみに着目したが,各文内におけるEDU間の関係や修辞構造のラベルを考慮して文圧縮や文抽出を行うことが可能であり,今後取り組むべき課題として興味深い.今後は,他のコーパスの文書や,複数文書要約においても提案手法を適用することを考えている.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Almeida\BBA\Martins}{Almeida\BBA\Martins}{2013}]{almeida:13}Almeida,M.\BBACOMMA\\BBA\Martins,A.\BBOP2013\BBCP.\newblock\BBOQFastandRobustCompressiveSummarizationwithDualDecompositionandMulti-TaskLearning.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\196--206}.\bibitem[\protect\BCAY{Berg-Kirkpatrick,Gillick,\BBA\Klein}{Berg-Kirkpatricket~al.}{2011}]{kirkpatrick:11}Berg-Kirkpatrick,T.,Gillick,D.,\BBA\Klein,D.\BBOP2011\BBCP.\newblock\BBOQJointlyLearningtoExtractandCompress.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\481--490},Portland,Oregon,USA.\bibitem[\protect\BCAY{Carlson,Marcu,\BBA\Okurowski}{Carlsonet~al.}{2001}]{carlson:01}Carlson,L.,Marcu,D.,\BBA\Okurowski,M.~E.\BBOP2001\BBCP.\newblock\BBOQBuildingaDiscourse-taggedCorpusintheFrameworkofRhetoricalStructureTheory.\BBCQ\\newblockIn{\BemProceedingsofthe2ndAnnualSIGdialMeetingonDiscourseandDialogue(SIGDIAL)},\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{Christensen,Mausam,Soderland,\BBA\Etzioni}{Christensenet~al.}{2013}]{christensen:13}Christensen,J.,Mausam,Soderland,S.,\BBA\Etzioni,O.\BBOP2013\BBCP.\newblock\BBOQTowardsCoherentMulti-DocumentSummarization.\BBCQ\\newblockIn{\BemNAACL:HLT},\mbox{\BPGS\1163--1173}.\bibitem[\protect\BCAY{Daum{\'e}{\}III\BBA\Marcu}{Daum{\'e}{\}III\BBA\Marcu}{2002}]{daume:02}Daum{\'e}{\}III,H.\BBACOMMA\\BBA\Marcu,D.\BBOP2002\BBCP.\newblock\BBOQANoisy-ChannelModelforDocumentCompression.\BBCQ\\newblockIn{\BemProceedingsof40thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\449--456},Philadelphia,Pennsylvania,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{duVerle\BBA\Prendinger}{duVerle\BBA\Prendinger}{2009}]{duverle09}duVerle,D.\BBACOMMA\\BBA\Prendinger,H.\BBOP2009\BBCP.\newblock\BBOQANovelDiscourseParserBasedonSupportVectorMachineClassification.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheACLandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP},\mbox{\BPGS\665--673},Suntec,Singapore.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Filatova\BBA\Hatzivassiloglou}{Filatova\BBA\Hatzivassiloglou}{2004}]{filatova:04}Filatova,E.\BBACOMMA\\BBA\Hatzivassiloglou,V.\BBOP2004\BBCP.\newblock\BBOQAFormalModelforInformationSelectioninMulti-SentenceTextExtraction.\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\397--403}.\bibitem[\protect\BCAY{Filippova\BBA\Strube}{Filippova\BBA\Strube}{2008}]{filippova:08}Filippova,K.\BBACOMMA\\BBA\Strube,M.\BBOP2008\BBCP.\newblock\BBOQDependencyTreeBasedSentenceCompression.\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalNaturalLanguageGenerationConference(INLG)},\mbox{\BPGS\25--32}.\bibitem[\protect\BCAY{Gillick\BBA\Favre}{Gillick\BBA\Favre}{2009}]{gillick:09}Gillick,D.\BBACOMMA\\BBA\Favre,B.\BBOP2009\BBCP.\newblock\BBOQAScalableGlobalModelforSummarization.\BBCQ\\newblockIn{\BemProceedingsoftheNAACLHLTWorkshoponIntegerLinearProgrammingforNaturalLanguageProcessing(ILP)},\mbox{\BPGS\10--18}.\bibitem[\protect\BCAY{Hernault,Prendinger,duVerle,\BBA\Ishizuka}{Hernaultet~al.}{2010}]{hilda}Hernault,H.,Prendinger,H.,duVerle,D.~A.,\BBA\Ishizuka,M.\BBOP2010\BBCP.\newblock\BBOQHILDA:A\mbox{Discourse}ParserUsingSupportVectorMachineClassification.\BBCQ\\newblock{\BemDialogueandDiscourse},{\Bbf1}(3),\mbox{\BPGS\1--33}.\bibitem[\protect\BCAY{Hirao,Yoshida,Nishino,Yasuda,\BBA\Nagata}{Hiraoet~al.}{2013}]{hirao:13}Hirao,T.,Yoshida,Y.,Nishino,M.,Yasuda,N.,\BBA\Nagata,M.\BBOP2013\BBCP.\newblock\BBOQSingle-DocumentSummarizationasaTreeKnapsackProblem.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1515--1520}.\bibitem[\protect\BCAY{Hobbs}{Hobbs}{1985}]{hobbs85}Hobbs,J.~R.\BBOP1985\BBCP.\newblock{\BemOntheCoherenceandStructureofDiscourse}.\newblockCSLI.\bibitem[\protect\BCAY{Johnson\BBA\Niemi}{Johnson\BBA\Niemi}{1983}]{johnson:83}Johnson,D.~S.\BBACOMMA\\BBA\Niemi,K.~A.\BBOP1983\BBCP.\newblock\BBOQOnKnapsacks,Partitions,andaNewDynamicProgrammingTechniqueforTrees.\BBCQ\\newblock{\BemMathmaticsofOperationsResearch},{\Bbf8}(1),\mbox{\BPGS\1--14}.\bibitem[\protect\BCAY{Li,Liu,Liu,Zhao,\BBA\Weng}{Liet~al.}{2014}]{li:14}Li,C.,Liu,Y.,Liu,F.,Zhao,L.,\BBA\Weng,F.\BBOP2014\BBCP.\newblock\BBOQImprovingMulti-documentsSummarizationbySentenceCompressionbasedonExpandedConstituentParseTrees.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\691--701},Doha,Qatar.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Lin}{Lin}{2004}]{lin:04}Lin,C.-Y.\BBOP2004\BBCP.\newblock\BBOQROUGE:APackageforAutomaticEvaluationofsummaries.\BBCQ\\newblockIn{\BemProceedingsoftheACLWorkshoponTextSummarizationBranchesOut},\mbox{\BPGS\74--81}.\bibitem[\protect\BCAY{Louis,Joshi,\BBA\Nenkova}{Louiset~al.}{2010}]{louis:10}Louis,A.,Joshi,A.,\BBA\Nenkova,A.\BBOP2010\BBCP.\newblock\BBOQDiscourseIndicatorsforContentSelectioninSummarization.\BBCQ\\newblockIn{\BemProceedingsoftheSIGDIAL2010Conference},\mbox{\BPGS\147--156},Tokyo,Japan.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Mann\BBA\Thompson}{Mann\BBA\Thompson}{1988}]{mann:88}Mann,W.~C.\BBACOMMA\\BBA\Thompson,S.~A.\BBOP1988\BBCP.\newblock\BBOQRhetoricalStructureTheory:TowardaFunctionalTheoryofTextOrganization.\BBCQ\\newblock{\BemText},{\Bbf8}(3),\mbox{\BPGS\243--281}.\bibitem[\protect\BCAY{Marcu}{Marcu}{1998}]{marcu:98}Marcu,D.\BBOP1998\BBCP.\newblock\BBOQImprovingSummarizationThroughRhetoricalParsingTuning.\BBCQ\\newblockIn{\BemProceedingsofthe6thWorkshoponVeryLargeCorpora},\mbox{\BPGS\206--215}.\bibitem[\protect\BCAY{McDonald}{McDonald}{2007}]{mcdonald:07}McDonald,R.\BBOP2007\BBCP.\newblock\BBOQAStudyofGlobalInferenceAlgorithmsinMulti-documentSummarization.\BBCQ\\newblockIn{\BemProceedingsofthe29thEuropeanConferenceonInformationRetrieval(ECIR)},\mbox{\BPGS\557--564}.\bibitem[\protect\BCAY{Morita,Sasano,Takamura,\BBA\Okumura}{Moritaet~al.}{2013}]{morita:13}Morita,H.,Sasano,R.,Takamura,H.,\BBA\Okumura,M.\BBOP2013\BBCP.\newblock\BBOQSubtreeExtractiveSummarizationviaSubmodularMaximization.\BBCQ\\newblockIn{\BemProceedingsofthe52ndAnnualMeetingoftheAssociationforComputationalLinguistics(ACL)},\mbox{\BPGS\1023--1032}.\bibitem[\protect\BCAY{Nishikawa,Hasegawa,Matsuo,\BBA\Kikui}{Nishikawaet~al.}{2010}]{nishikawa:10}Nishikawa,H.,Hasegawa,T.,Matsuo,Y.,\BBA\Kikui,G.\BBOP2010\BBCP.\newblock\BBOQOpinionSummarizationwithIntegerLinearProgrammingFormulationforSentenceExtractionandOrdering.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalConferenceonComputationalLinguistics(COLING)},\mbox{\BPGS\910--918}.\bibitem[\protect\BCAY{Qian\BBA\Liu}{Qian\BBA\Liu}{2013}]{liu:13}Qian,X.\BBACOMMA\\BBA\Liu,Y.\BBOP2013\BBCP.\newblock\BBOQFastJointCompressionandSummarizationviaGraphCuts.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1492--1502}.\bibitem[\protect\BCAY{Suzuki,Isozaki,Carreras,\BBA\Collins}{Suzukiet~al.}{2009}]{suzuki:09}Suzuki,J.,Isozaki,H.,Carreras,X.,\BBA\Collins,M.\BBOP2009\BBCP.\newblock\BBOQAnEmpiricalStudyofSemi-supervisedStructuredConditionalModelsforDependencyParsing.\BBCQ\\newblockIn{\BemProceedingsofthe2009ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\551--560},Singapore.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Takamura\BBA\Okumura}{Takamura\BBA\Okumura}{2009}]{takamura:09}Takamura,H.\BBACOMMA\\BBA\Okumura,M.\BBOP2009\BBCP.\newblock\BBOQTextSummarizationModelbasedontheBudgetedMedianProblem.\BBCQ\\newblockIn{\BemProceedingsofthe18thACMConferenceonInformationandKnowledgeManagement(CIKM)},\mbox{\BPGS\1589--1592}.\bibitem[\protect\BCAY{Uz{\^{e}}da,Pardo,\BBA\Nunes}{Uz{\^{e}}daet~al.}{2010}]{uzeda:10}Uz{\^{e}}da,V.~R.,Pardo,T.A.~S.,\BBA\Nunes,M.D.G.~V.\BBOP2010\BBCP.\newblock\BBOQAComprehensiveComparativeEvaluationofRST-basedSummarizationMethods.\BBCQ\\newblock{\BemACMTransactionsofSpeechandLanguageProcessing},{\Bbf6}(4),\mbox{\BPGS\4:1--4:20}.\bibitem[\protect\BCAY{Wang,Raghavan,Castelli,Florian,\BBA\Cardie}{Wanget~al.}{2013}]{lu:13}Wang,L.,Raghavan,H.,Castelli,V.,Florian,R.,\BBA\Cardie,C.\BBOP2013\BBCP.\newblock\BBOQASentenceCompressionBasedFrameworktoQuery-FocusedMulti-DocumentSummarization.\BBCQ\\newblockIn{\BemProceedingsofthe51stAnnualMeetingoftheAssociationforComputationalLinguistics(Volume1:LongPapers)},\mbox{\BPGS\1384--1394}.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Yang\BBA\Nenkova}{Yang\BBA\Nenkova}{2014}]{yang:14}Yang,Y.\BBACOMMA\\BBA\Nenkova,A.\BBOP2014\BBCP.\newblock\BBOQDetectingInformation-DenseTextsinMultipleNewsDomains.\BBCQ\\newblockIn{\BemProceedingsofthe28th{AAAI}ConferenceonArtificialIntelligence,July27--31,2014,Qu{\'{e}}becCity,Qu{\'{e}}bec,Canada},\mbox{\BPGS\1650--1656}.\bibitem[\protect\BCAY{Yoshida,Suzuki,Hirao,\BBA\Nagata}{Yoshidaet~al.}{2014}]{yoshida14}Yoshida,Y.,Suzuki,J.,Hirao,T.,\BBA\Nagata,M.\BBOP2014\BBCP.\newblock\BBOQDependency-basedDiscourseParserforSingle-DocumentSummarization.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\1834--1839},Doha,Qatar.AssociationforComputationalLinguistics.\end{thebibliography}\begin{biography}\bioauthor{菊池悠太}{2011年木更津工業高等専門学校専攻科制御・情報システム工学専攻修了.2013年東京工業大学総合理工学研究科博士前期課程修了.同年,同大学博士後期課程に進学.}\bioauthor{平尾努}{1995年関西大学工学部電気工学科卒業.1997年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年株式会社NTTデータ入社.2000年よりNTTコミュニケーション科学基礎研究所に所属.博士(工学).自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL各会員.}\bioauthor{高村大也}{1997年東京大学工学部計数工学科卒業.2000年同大大学院工学系研究科計数工学専攻修了(1999年はオーストリアウィーン工科大学にて研究).2003年奈良先端科学技術大学院大学情報科学研究科博士課程修了.博士(工学).2003年から2010年まで東京工業大学精密工学研究所助教.2006年にはイリノイ大学にて客員研究員.2010年より同准教授.計算言語学,自然言語処理を専門とし,特に機械学習の応用に興味を持つ.}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会,AAAI,ACL,認知科学会,計量国語学会各会員.}\bioauthor{永田昌明}{1987年京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学研究所主幹研究員(上席特別研究員).工学博士.統計的自然言語処理の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
V06N02-05
\section{まえがき} 自然で自発的な発話を対象とする音声翻訳ないし音声対話システムの構築を目指している.読み上げ文を対象とする音声認識研究においては文が処理単位となっている.また,従来の音声翻訳ないし音声対話システムへの入力は,文節区切りのようなゆっくり丁寧に発話された文を単位とする音声であった\cite{Morimoto96}.ここで,音声翻訳システムや音声対話システム等の音声認識応用システムへの入力となる機械的に自動処理可能な単位を「発話単位」と呼ぶことにすると,自然で自発的な発話を対象とする音声翻訳ないし音声対話システムへの入力としての発話単位は文に限定できない.一方,言語翻訳処理における処理単位は文である.書き言葉を対象とする自然言語処理システムにおける処理単位も一般に文である.話し言葉を対象とする言語翻訳処理における処理単位も文である\cite{Furuse97}.音声対話システムにおける問題解決器のための解釈の処理単位も暗黙の内に文ないし文相当のものを想定していると考えられる.ところで,本稿では文の定義の議論はしない.例えば,文献\cite{Masuoka92}等に文に関する説明がある.また,話し言葉における文は,無音と韻律に代表される表層のレベル,構造のレベル,意味のレベルで特徴付けられると言われるが,計算機処理から見て十分な知見は得られていない\cite{Ishizaki96}.そこで,本稿では文という術語は使わず,翻訳や解釈のための自然言語処理単位という観点から「言語処理単位」と呼ぶことにする.まず,{\bf2}で一つの発話を複数の言語処理単位に分割したり,複数の発話をまとめて一つの言語処理単位に接合する必要があることを,通訳者を介した会話音声データを使って示す.次に,{\bf3}でポーズと細分化された品詞の$N$-gramを使って,発話単位から言語処理単位に変換できることを実験により示す.最後に{\bf4}で全体をまとめ,今後の展望を述べる. \section{発話単位から言語処理単位への変換の必要性} \subsection{音声翻訳システムへの入力としての発話単位}音声翻訳研究のために,日本語話者と英語話者の,通訳者を介した対話を収集し,データベース化している\cite{Morimoto94,Takezawa98b}.通訳の質を高めるために,日英方向と英日方向の2名の通訳者を介した.「近未来の音声翻訳システム」のための基礎資料を目指しているため,通訳者は1回の発話毎に逐次的に通訳を行う.通訳者が正確に伝えられるために,1回の発話は10秒以内とした.また,相手の話している間に割り込むことは禁止した.ホテル担当者やホテル滞在者であるという設定資料を用意し,それをもとに模擬対話を行っている.役割や設定をいろいろ変化させた上で,多くの話者に演じてもらい,多様な音声言語現象を収録した.このようにして集めた会話音声データにおいて会話参加者が逐次通訳者に渡す発話は音声認識応用システムへの入力となる機械的に自動処理可能な単位とは異なるが,機械的に振る舞う逐次通訳者に会話参加者が渡す発話を入力と仮定することは使い勝手の良い音声認識応用システムの研究開発につながるものと期待できる.そこで,機械的に自動処理可能な単位との関連も含めて,まず第一段階としてこのような会話データの調査を行うことにする.\subsection{発話単位の分割による言語処理単位への変換}句や節を単位として漸進的に翻訳処理を行う研究\cite{Mima97}も開始されているが,現段階では,言語翻訳は文を単位とすることが妥当である\cite{Furuse97}.応答の「はい」等を含む感動詞はそれだけで文を構成すると言われている\cite{Masuoka92}.しかしながら,我々のデータベースでは「はい.それで結構です.」と書き起こされていたり,「はい,それで結構です.」と書き起こされていたりする.無音区間の長さと韻律的な情報に着目するよう指示したガイドラインにより区別されているが,その都度物理量を測定することはせず,書き起こし作業者の判断に委ねられている部分もある.言語処理単位の手がかりとして,句点で区切られた節境界に注目する.まず,一つの発話を複数の言語処理単位へ分割する必要がある例を示す.ポーズの長さの情報を[]内に記す.\begin{itemize}\item[(1)]お待たせいたしました.[440ms]シングル一泊一万円のお部屋でしたね.\item[(2)]お部屋を調べます.[170ms]しばらくお待ちください.\end{itemize}例(1)(2)共に一つの発話が二つの言語処理単位で構成されている.今回調査対象としている対話音声データベースの一部を使って我々が以前に行った実験\cite{Takezawa96}では,対数パワーとゼロ交差数の二つの特徴量を用い,300~msを閾値としてポーズを自動検出したところ,促音と区別してポーズを検出できた.そこで,一応の目安として300~msを閾値として機械的に自動処理することを想定すれば,例(1)のポーズは300~msより長いので,二つの言語処理単位に分割することができる.しかし,例(2)のポーズは300~msより短いので,二つの言語処理単位に機械的に分割することはできない.したがって,無音区間に関する物理量のみで発話を言語処理単位に自動分割することは難しい.\subsection{発話単位の接合による言語処理単位への変換}次に,複数の発話を一つの言語処理単位に接合する必要がある例を示す.\begin{itemize}\item[(3)]\begin{itemize}\item[(a)]カードの番号が,[680ms]五二七九.\item[(b)]三九二零.\item[(c)]二四六九.\item[(d)]零零九八[410ms]でございますね.\end{itemize}\end{itemize}例(3)はカードの番号を確認する際に,数字の桁毎に区切って通訳者に渡した事例である.(a)(b)(c)(d)は別の発話となっており,それぞれに対して通訳が個別に挿入されている.現在の我々のデータベースでは,発話の最後は必ず句点で書き起こす決まりになっているため,(a)(b)(c)(d)の最後に句点が置かれている.文献\cite{Takezawa95}で我々が「箇条発話」と名付けたものは,話者ないし項目の数と内容により,同じ発話となったり,別の発話に分けられたりする.通訳の単位としては無理に接合しなくとも良いが,何らかの問題解決のための解釈の単位としては接合した方が良い可能性もある.接続することを明示するためには,例えば,例(3')のように書き起こせば良い.\begin{itemize}\item[(3')]\begin{itemize}\item[(a')]カードの番号が,[680ms]五二七九,\item[(b')]三九二零,\item[(c')]二四六九,\item[(d')]零零九八[410ms]でございますね.\end{itemize}\end{itemize}発話の最後に読点を挿入するか,あるいは句点を挿入しないことで,発話としては終了していたとしても,言語処理単位としては継続することを表現できる.音声翻訳ないし音声対話システムの枠組みでも,言語処理単位が終了していない発話の最後には読点を挿入するか,あるいは句点を挿入しなければ,発話の接合による言語処理単位への変換をインタフェースとして実現することができる.\begin{itemize}\item[(4)]お待たせいたしました.[1600ms]洋室は,[1130ms]一泊二食付き,[450ms]二万円で,補助ベッドが入ります.\end{itemize}既に述べたように,我々のデータベースでは通訳者に渡す発話を単位として音声波形ファイルを切り出している.したがって,例(4)は一つの単位として切り出され,データベース化されている.しかしながら,我々の目標とする自然で自発的な発話を対象とする音声翻訳システム\cite{Takezawa98a}において音声の終端検出を自動的に行う\cite{Reaves98}と,この音声波形切り出し単位は細かく分割される可能性がある.例えば,1秒より長い無音区間を終端とみなせば\cite{Reaves98},例(4)は三つの発話単位から構成される.その場合,「洋室は,」という発話単位はその次の発話単位と接合した方が良い可能性がある.\begin{itemize}\item[(5)]シングルの[390ms]シャワー付きのお部屋が$\cdots$\end{itemize}300msを閾値として発話単位に分割すると,例(5)は翻訳のための言語処理単位よりも小さい単位に分割され過ぎてしまう事例である. \section{発話単位から言語処理単位への変換手法} \subsection{単語・品詞並びを使った句点相当の節境界検出}英語の自然で自発的な発話を対象とする音声認識結果を構文解析する研究\cite{Lavie96}において,ロバストなパーザの探索空間を削減するために,節境界情報を利用する試みが検討されている.そこでは,確定した音声認識結果全体を入力とし,現在位置の前後2単語(合計4単語)までの範囲を参照して,その位置の節境界らしさの値を求め,それが閾値を越えれば節境界とみなしている.そこで,単語・品詞並びを使った句点相当の節境界検出手法を検討する.先行研究\cite{Lavie96}で提案されている推定式を次に示す.$\bullet$の位置が句点相当の節境界の位置である.その前に二つの単語$w_1w_2$があり,その後に二つの単語$w_3w_4$がある.\begin{equation}\tilde{F}([w_1w_2\bulletw_3w_4])=\frac{C([w_1w_2\bullet])+C([w_2\bulletw_3])+C([\bulletw_3w_4])}{C([w_1w_2])+C([w_2w_3])+C([w_3w_4])}\end{equation}ここで,$C([w_iw_j\bullet])$はバイグラム$[w_iw_j]$の右に句点相当の節境界が現れる回数であり,$C([w_iw_j])$はバイグラム$[w_iw_j]$が訓練セットに現れる総数である.他の記号も同様である.訓練データ中にバイグラムと一緒に現れる句点相当の節境界の回数から求められる個別の頻度$F([w_1w_2\bullet])$,$F([w_2\bulletw_3])$,$F([\bulletw_3w_4])$の平均や線形結合よりも効果的であったと報告されている\cite{Lavie96}.理由は,十分信頼できる情報を含んでいない低い出現頻度のバイグラムを,他の要因と同じように使わないためである.なお,$F([w_iw_j\bullet])$は次式で表される.\begin{equation}F([w_iw_j\bullet])=\frac{C([w_iw_j\bullet])}{C([w_iw_j])}\end{equation}$F([w_i\bulletw_j])$と$F([\bulletw_iw_j])$も同様に求められる.$\tilde{F}$の値が閾値より大きければそこを句点相当の節境界とする.閾値の値は人手で設定し,訓練セットに対して最良の性能が得られるように調整する.文献\cite{Lavie96}では単語のみ検討しているが,我々は日本語を対象とし,次の3通りの組合わせを調べる.\begin{enumerate}\item品詞のみ\item品詞・活用形・活用型(プレターミナル\cite{Takezawa96}と同等)\item表層表現・品詞・活用形・活用型(単語と同等)\end{enumerate}さらに,それぞれに対して,現在位置の前後2単語(合計4単語)の範囲を参照する場合(式(1))と,前2単語と後1単語の合計3単語の範囲を参照する場合(次式(3))を検討する.\begin{equation}\tilde{F}([w_1w_2\bulletw_3])=\frac{C([w_1w_2\bullet])+C([w_2\bulletw_3])}{C([w_1w_2])+C([w_2w_3])}\end{equation}\vspace{-3mm}\subsection{分割または接合による言語処理単位への変換}\vspace{-1mm}先行研究\cite{Lavie96}では長い発話を分割することのみを検討していた.我々は分割のみならず接合による言語処理単位への変換も検討する.単語・品詞並びを使った句点相当の節境界検出のための統計モデルとポーズ情報を組み合わせた手法を考える.{\bf\dg表\ref{t:combination}}において,(A)と(B)には句点「.」を挿入する.(D)には何も挿入しない.(C)は箇条発話が相当し,扱いが難しいが,原則的には読点「,」を挿入する.\begin{table}\caption{分割または接合による言語処理単位への変換}\label{t:combination}\begin{center}\begin{tabular}{|l||c|c|}\hline&\multicolumn{1}{l|}{閾値より長い無音あり}&\multicolumn{1}{l|}{閾値より長い無音なし}\\\hline\hline単語・品詞並びの統計モデルが成功する&(A)句点挿入&(B)句点挿入\\\hline単語・品詞並びの統計モデルが失敗する&(C)読点挿入&(D)挿入なし\\\hline\end{tabular}\end{center}\end{table}ATR音声言語データベース\cite{Morimoto94}の618会話から音声認識と言語翻訳を接続する評価実験用のホテル予約9会話を選択した.日本語話者が客の役割を務めているものが4会話,日本語話者がホテル担当者を務めているものが5会話である.そのホテル予約9会話には166ターン(発話権の交代),216発話あった.内容を確認したところ,体言止めの箇条発話は含まれていたが,発話を接合して言語処理単位に変換する必要のある事例はその9会話には含まれていなかった.つまり,例(3)ないし(3')のような発話の仕方はまれである.一方,その166ターン,216発話の書き起こしテキストに含まれる句点の数は289個であった.発話の最後は必ず句点で書き起こす決まりになっているので,ターンの途中にある句点の数は123個,発話の途中にある句点の数は73個である.つまり,通訳者へ渡す発話を分割する必要のある事例の頻度は多い.発話の最後が言語処理単位の最後になっているのか,それとも,言語処理単位としてはまだ継続するのかに関して,単語・品詞並びの統計モデルおよび韻律的な特徴等により判断すれば,発話の接合による言語処理単位への変換をインタフェースとして実現できる.しかしながら,発話を接合する必要のある事例は少ないので,以下では,まず,発話を分割する手法について検討する.\subsection{発話単位の分割に関する実験}\subsubsection{準備}評価実験用のホテル予約9会話以外の609会話を訓練に用いた.訓練は発話権の交代(ターン)を単位として行った.箇条発話は話者ないし項目の数と内容により同じ発話となったり,別の発話となったりするため,その影響を除くことを意図した.ターンの始めには開始記号を挿入し,ターンの終りには終了記号を挿入した.発話の開始と終了の情報は使わなかった.書き起こしテキストの句点をそのまま句点相当の正しい節境界とみなした.\subsubsection{書き起こしテキストを用いた実験結果}書き起こしテキストを用いた予備実験を行った.句点と読点を除いた形態素列を入力とした.訓練時と同様に,発話の開始と終了の情報は使わず,発話権の交代(ターン)毎に一つの入力単位とした.ターンの途中にある句点123個が評価対象となる.書き起こしテキストの句点を正解として,再現率と適合率を求め,評価する.その際,結果を三つに分類する.\begin{enumerate}\item句点相当の節境界で成功する:正解[○]\item句点相当の節境界で失敗する:誤り[×]\item句点相当の節境界ではない場所で成功する:涌き出し誤り[※]\end{enumerate}\begin{equation}再現率=\frac{○}{○+×}\end{equation}\begin{equation}適合率=\frac{○}{○+※}\end{equation}まず,閾値を0.10にそろえ,粒度および参照する範囲の違いの比較・検討を行った.結果を{\bf\dg表\ref{t:hikaku}}に示す.\begin{table}\caption{粒度および参照する範囲の違いの比較}\label{t:hikaku}\begin{center}\begin{tabular}{|l||r||r|r|r|r|r|r|}\hline&\multicolumn{1}{c||}{条件}&\multicolumn{2}{c|}{品詞のみ}&\multicolumn{2}{c|}{品詞・活用形・活用型}&\multicolumn{2}{c|}{単語}\\\cline{2-8}&閾値&再現率&適合率&再現率&適合率&再現率&適合率\\\hline\hline前後2単語&0.10&87.9\%&24.8\%&96.7\%&32.4\%&96.7\%&31.9\%\\\hline前2単語と後1単語&0.10&86.2\%&26.7\%&96.7\%&39.9\%&92.7\%&41.6\%\\\hline\end{tabular}\end{center}\end{table}粒度の違いについては,品詞・活用形・活用型の場合が最も良い結果となった.文献\cite{Takezawa96}においても,品詞では粒度が荒らすぎ,単語では被覆率の観点で良くなかったため,妥当な結果と考えられる.また,参照する範囲については,前2単語と後1単語の方が前後2単語(合計4単語)よりも良かった.そこで,品詞・活用形・活用型の並びに関して,前後2単語を参照する場合と,前2単語と後1単語を参照する場合について,さらに最適な閾値を探してみた.結果を{\bf\dg表\ref{t:result}}に示す.\begin{table}\caption{最適な閾値に基づく再現率と適合率}\label{t:result}\begin{center}\begin{tabular}{|l||r||r|r|}\hline&\multicolumn{1}{c||}{条件}&\multicolumn{2}{c|}{品詞・活用形・活用型}\\\cline{2-4}&閾値&再現率&適合率\\\hline\hline前後2単語&0.37&80.5\%&64.7\%\\\hline前2単語と後1単語&0.43&88.6\%&65.7\%\\\hline\end{tabular}\end{center}\end{table}やはり,前2単語と後1単語の品詞・活用形・活用型の並びを利用した場合が最も良い.誤りおよび涌き出し誤りの内容を次に示す.あらかじめ要約すると,その分析内容も,前2単語と後1単語の範囲を見れば十分であることを示唆している.\vspace{-1mm}\subsubsection{誤りの分析}\vspace{-1mm}閾値を0.43として,前2単語と後1単語の品詞・活用形・活用型の並びを利用した場合の誤りは14件あった.その内容を分析する.発話の途中の感動詞の直後が2件あった.発話の途中の感動詞の直後は読点で書き起こされることが多いためである.次に例を示す.行の先頭の「×」記号は誤り例を意味する.「$+$」記号は単語の区切り位置を示す.[]記号の中にポーズの長さや発話開始・終了等の情報を加えた.「$\bullet$」記号が現在位置を示す.\begin{itemize}\item[×]様$+$ありがとうございました[60ms]$\bullet$また\end{itemize}接尾辞の直後が5件あった.そのうちの3件は別の発話となっている.同じ発話に含まれるものは2件あり,そこには285msと350msのポーズがあった.例を示す.\begin{itemize}\item[×]千$+$円[発話終了]$\bullet$和室\item[×]鈴木$+$様[285ms]$\bullet$それでは\end{itemize}名詞類の直後が2件あった.そのうち1件は別の発話となっている.同じ発話に含まれる1件については,615msのポーズが挿入されていた.例を示す.\begin{itemize}\item[×]零$+$零[発話終了]$\bullet$ご\item[×]ご$+$滞在[615ms]$\bullet$零\end{itemize}接続助詞の直後が5件あった.1秒程度以上の長いポーズが挿入されるか,発話が終わらない限り,接続助詞の直後は読点で書き起こされているためと考えられる.そのうち4件は別の発話となっている.同じ発話に含まれる1件については990msのポーズが挿入されていた.例を示す.\begin{itemize}\item[×]す$+$が[発話終了]$\bullet$予約\item[×]た$+$もんですから[990ms]$\bullet$あ\end{itemize}\subsubsection{涌き出し誤りの分析}閾値を0.43として,前2単語と後1単語の品詞・活用形・活用型の並びを利用した場合の涌き出し誤りは57件あった.その内容を分析する.発話の先頭の感動詞の直後が45件あった.発話の先頭の感動詞の直後は句点で書き起こされていることが多いためである.これらの事例は句点とみなしても構わない.次に例を示す.行の先頭の「※」記号は涌き出し誤り例を意味する.他の記号は同様である.\begin{itemize}\item[※]$+$はい[640ms]$\bullet$いつ\item[※]$+$はい[110ms]$\bullet$そう\end{itemize}終助詞の直後の涌き出し誤りが7件あった.これらもすべて句点とみなしても構わない.例を示す.\begin{itemize}\item[※]す$+$か[590ms]$\bullet$じゃあ\end{itemize}その他の事例が5件あった.すべて頻度のまれな個別的な事例であった.例を示す.\begin{itemize}\item[※]し$+$た$\bullet$っけ\item[※]大変$+$申し訳ございません$\bullet$が\end{itemize}\subsubsection{ヒューリスティックス導入の効果}涌き出し誤り57件のうち,発話の先頭の感動詞の直後45件と終助詞の直後7件の合計52件については,句点相当の節境界とみなして良い.そこで,それらはすべて句点を正解と見なした場合の実験を行った.さらに既に列挙した誤りおよび涌き出し誤りに関する事例のうち,直感により普遍的に成立すると判断したものをヒューリスティックスとして導入する.その内容は次の通りである.\begin{itemize}\item感動詞の直後に接続助詞が続かない限り句点相当の節境界とする.\item感動詞の直後に接続助詞が続く場合は句点相当の節境界とはしない.\item助動詞終止形と終助詞の間は句点相当の節境界としない.\end{itemize}今回導入したヒューリスティックスはすべて細分化された品詞並びに関する情報からなるもののみである.このようにして求めた再現率と適合率を{\bf\dg表\ref{t:result2}}に示す.今回の実験は開発実験データから得られた誤りおよび涌き出し誤りの事例からヒューリスティックスを作成していることもあり,再現率,適合率ともに改善できた.さらに別の評価実験データ(オープンデータ)を用いた実験は今後の課題とする.\begin{table}\caption{ヒューリスティックス導入の効果}\label{t:result2}\begin{center}\begin{tabular}{|l||r|c|c||r|r|}\hline&\multicolumn{3}{c||}{条件}&\multicolumn{2}{c|}{品詞・活用形・活用型}\\\cline{2-6}&閾値&正解句点の追加&ヒューリスティックス&再現率&適合率\\\hline\hline前2単語と後1単語&0.43&なし&なし&88.6\%&65.7\%\\\hline前2単語と後1単語&0.43&あり&なし&92.0\%&97.0\%\\\hline前2単語と後1単語&0.43&あり&あり&97.7\%&99.4\%\\\hline\end{tabular}\end{center}\end{table}\subsection{音声認識結果への適用実験}文献\cite{Shimizu96}の音声認識器の結果を用いて,句点相当の節境界を検出する実験を行った.書き起こしテキストによる評価実験を行ったホテル予約9会話を対象とした.書き起こしテキストを用いた予備実験では発話権の交代(ターン)毎に一つの入力単位としたが,音声認識結果を対象とする場合は音声波形切り出し単位を一つの入力単位とした.第1位候補に対する例を示す.\begin{itemize}\item[(音声認識結果例1)]\item{\bf\dg書き起こし}お待たせいたしました.申し訳ございません.シングルは満室となっております.\item{\bf\dg認識結果}{\ttお+待/た/し/いた+し+ま+し+た○/申し訳ございません○/十/五/満室/に+な+っ+てお+り+ま+す○}\end{itemize}認識結果の「{\tt/}」記号は音声認識で使っている単語辞書の区切りを表す.認識結果の「{\tt+}」記号はデータベースの形態素辞書の区切りを表す.「○」は検出できた句点相当の節境界のうち,正解とみなせるものを示す.\begin{itemize}\item[(音声認識結果例2)]\item{\bf\dg書き起こし}[んー]ちょっと高いですね.もっと安い部屋は無いですか.\item{\bf\dg認識結果}{\tt二※/ちょっと/高/い/で+す+ね○/オー/で+す※/いや/な/い/で+す+か○}\end{itemize}書き起こしの[んー]は間投詞を表す.「※」は涌き出し誤りを示す.音声認識で使っている単語辞書では,話し言葉の文末表現に相当するものを一つの長い単位で扱うことが多いため,文末表現の位置に誤認識が少ない.音声認識に対する評価実験を行った結果を{\bf\dg表\ref{t:recognition}}に示す.第1位候補を対象にした.第1位の単語認識率は77.4\%(挿入誤りを除けば83.6\%)であった.今回の実験対象は,ある基準(機械的に振る舞う逐次通訳者に会話参加者が渡した発話)で音声波形が切り出されてデータベース化されているものである.そこでまず発話途中のみを対象に分割に関する数値評価を行った.また,発話末に対してもそこが境界位置かどうかに関する判定を行うことができる.そこで次にその位置も対象に含めた数値評価も行ってみた.\begin{table}\caption{音声認識結果への適用実験}\label{t:recognition}\begin{center}\begin{tabular}{|l||r|r|}\hline&\multicolumn{1}{c|}{再現率}&\multicolumn{1}{c|}{適合率}\\\hline\hline発話途中のみを対象&95.6\%&94.8\%\\\hline発話途中と発話末を対象&98.4\%&98.1\%\\\hline\end{tabular}\end{center}\end{table}音声の終端検出を自動的に行う\cite{Reaves98}場合は分割のみならず接合する必要のある現象が出現する可能性がある.接合するかどうかの判定は発話末位置が境界になるかどうかの情報で行うことができる.\subsection{発話単位の接合に関する実験}我々が対象としている会話音声は通訳者を介したものであり,人間の通訳者がその場で対処できないような断片的な発話はデータベース化していない\cite{Morimoto94}.そのため,データベースの中には接合しなければいけないような発話は含まれていない.まず第一段階として,現時点ではこのようにして集めた会話音声を研究対象としている.さて,我々の音声翻訳実験システム\cite{Takezawa98a}においてオンラインで音声入力する場合の音声の終端検出では1秒より長い無音区間があれば終端とみなしている\cite{Reaves98}.そこで,1秒を閾値として,今回の評価実験用のホテル予約9会話の発話を自動分割してみた.例えば,先に挙げた例(4)は次の例(4')のような発話単位に分割される.\begin{itemize}\item[(4')]\begin{itemize}\item[(a)]お待たせいたしました.\item[(b)]洋室は,\item[(c)]一泊二食付き,二万円で,補助ベッドが入ります.\end{itemize}\end{itemize}1秒を閾値として分割できた発話単位のうち,その終端が句点でないものは5例あった.その5例について提案手法を適用したところ,すべて句点とはみなされなかった.したがって,{\bf\dg表\ref{t:combination}}のモデルにおいて,閾値を1秒とした場合の(C)と判断できるので,そこにはすべて読点を挿入することができる.さらに参考実験として300msを閾値とする自動分割も行ってみた.300msを閾値として分割できた発話単位のうち,その終端が句点でないものは99例あった.この99例について提案手法を適用し,句点とみなされなければ接合に成功したものとしてすべて正解と集計した\footnote{{\bf\dg表\ref{t:combination}}のモデルによれば読点が挿入される.書き起こしテキストのその位置に読点が書き起こされていても書き起こされていなくても読点で正解とみなした.}場合の結果を{\bf\dg表\ref{t:connect}}に示す.\begin{table}\caption{発話単位の接合に関する実験}\label{t:connect}\begin{center}\begin{tabular}{|l||r|r|}\hline&再現率&適合率\\\hline\hlineヒューリスティックスなし&67.0\%&84.3\%\\\hlineヒューリスティックスあり&90.8\%&86.8\%\\\hline\end{tabular}\end{center}\end{table}涌き出し誤りは,予約内容の確認の発話で名詞類を並べて発話するような箇条発話における名詞類の直後に多い.対処法としては,パワーの変化や韻律情報,さらに音韻の継続時間長等との関係を調べることが考えられる.それらは今後の課題とする. \section{むすび} 細分化された品詞並びの統計モデルとポーズ情報を用いる句点相当の節境界を検出する手法を提案し,音声認識結果に適用する実験を行ったところ,良好な結果を得た.箇条発話の扱いが今後の課題である.パワーの変化や韻律情報,さらに音韻の継続時間長等を組み合わせることも今後の課題である.次発話予測の研究\cite{Iwadera96}で用いている発話タイプと関連付ける研究にも発展させていく.その際,韻律情報を用いた発話タイプの識別\cite{Fujio95,Fujio96}も考慮する予定である.また,音声認識過程で構文規則を利用する研究\cite{Takezawa96}と組み合わせれば,統語構造の情報を併用することも可能である.そこで用いている部分木\cite{Takezawa96}と同時通訳方式の実現に向けた処理単位\cite{Mima97}との関係も調べる予定である.なお,言語翻訳知識を利用して音声認識候補からもっともらしい部分を見つける研究\cite{Wakita97}も行われているが,そこでの入力となる言語翻訳単位はあくまで文である.したがって,文献\cite{Wakita97}と組み合わせる場合であっても,本稿で提案した処理とメカニズムは必須となる.\acknowledgment実験に協力いただいた大槻直子,林輝昭両氏に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{v06n2_05}\begin{biography}\biotitle{略歴}\bioauthor{竹沢寿幸}{1961年生.1984年早稲田大学理工学部電気工学科卒業.1989年同大学院理工学研究科博士後期課程修了.工学博士.1987年より同大学情報科学研究教育センター助手.1989年よりATR自動翻訳電話研究所勤務.現在,ATR音声翻訳通信研究所,主任研究員.音声翻訳システムの研究に従事.インタラクションの研究に興味を持つ.情報処理学会,電子情報通信学会,人工知能学会,日本音響学会,言語処理学会各会員.}\bioauthor{森元逞}{1946年生.1970年九州大学大学院修士課程修了.同年日本電信電話公社入社.1987年よりATR自動翻訳電話研究所ならびにATR音声翻訳通信研究所に勤務.1998年福岡大学電子情報工学科教授.現在に至る.博士(工学).電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,日本音響学会各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V10N03-07
\section{はじめに} われわれは2001年に行なわれたSENSEVAL2\cite{senseval2}の日本語辞書タスクのコンテストに参加した.このコンテストでは,日本語多義性の解消の問題を扱っており,高い精度で日本語多義性の解消を実現するほどよいとされる.われわれは機械学習手法を用いるアプローチを採用した.機械学習手法としては多くのものを調査した方がよいと考え,予備調査として先行研究\cite{murata_nlc2001_wsd}においてシンプルベイズ法,決定リスト法,サポートベクトルマシン法などの手法を比較検討した.その結果,シンプルベイズ法とサポートベクトルマシン法が比較的よい精度を出したのでその二つの機械学習手法を基本とすることにした.また,学習に用いる素性は,豊富なほどよいと考え,文字列素性,形態素素性,構文素性,共起素性,UDC素性(図書館などで用いられる国際十進分類を利用した素性)と,非常に多くの素性を利用した.コンテストには,シンプルベイズ法,サポートベクトルマシン法,またそれらの組み合わせのシステム二つの合計四つのシステムをコンテストに提出した.その結果,組合わせシステムが参加システム中もっとも高い精度(0.786)を得た.コンテストの後,シンプルベイズ法で用いていたパラメータを調節したところさらに高い精度を得た.また,解析に用いる情報(素性)を変更する追加実験も行ない,各素性の有効性,特徴を調査した.本稿では,これらのシステムの説明と結果を述べる.以降,\ref{sec:imp}節で多義解消の重要性を述べ,\ref{sec:mondai_settei}節で本コンテストの問題設定を述べる.\ref{sec:ml_method}節でわれわれが利用した機械学習手法について述べ,\ref{sec:sosei}節でその機械学習手法で用いる素性について述べ,\ref{sec:experiment}節でその機械学習手法と素性を用いた実験とその考察について述べる.\ref{ref:kanren}節では関連文献について述べる. \section{多義性解消の重要性} \label{sec:imp}本節では多義性解消の重要性を例を用いながら説明する.例えば,最近重要視されつつある質問応答\cite{murata2000_1_nl,qac_hp}の問題を考えてみる.ここで,質問応答の質問として以下のようなものがあったとしよう.\begin{quote}「トラは天王寺動物園にはどのくらいいますか。」\end{quote}ここで質問応答システムの知識源として,\begin{quote}「天王寺動物園にはトラが11頭飼育されており…」\end{quote}があったとする.この場合システムは「どのくらい」などの表現から数量表現が解とわかるのでこの知識源から「11頭」を解として正しく抽出することができる.しかし,質問が以下のようであったとしよう.\begin{quote}「虎は天王寺動物園にはどのくらいいますか。」\end{quote}この質問では先の質問の「トラ」が「虎」に変わっている.この場合,「トラ」と「虎」が同一であることを計算機に認識させなければならないが,これをするためには計算機に単語の意味に関する情報を与えておかなければならない.ここで例えばEDR辞書\cite{edr}を利用すると,「虎」の同義語としては「トラ」「酒酔」「酒酔い」「酔客」「酔狂人」「酔人」が得られる.これは「虎」には「虎という動物」と「酒に酔った人」の二つの意味があり,この後ろの「酒に酔った人」の意味の場合の同義語が得られて「酒酔い」などの不要な同義語が得られるのである.この不要な同義語を使って解の抽出を試みる場合,例えば\begin{quote}\mbox{「昨夜未明,天王寺動物園で5人の酒酔い客が暴れだし…」}\end{quote}という文が知識中にある場合,誤って「5人」を解として取り出してしまう可能性がある.ここで多義性の解消をし,ここでの「虎」の意味は「虎という動物」と認識し同義語は「トラ」だけであるとしてから,解の抽出をした方が誤る可能性は減るのである.「虎」の場合はまだ意味が二つであったからよいが,高頻度に用いられる平易な語ほど語義の数が多く,この問題は深刻なものとなる.このことから,多義性の解消の重要性がわかる.ここでは質問応答の場合の例をあげたが各解析システムにおいて多義性の解消は同様に重要なものとなろう.例えば,照応解析\cite{murata_deno_nlp}においても,ある語Aが「人間」と「物」の二つの意味をもっていて,物しか指示しない「それ」という指示詞が出現した場合,語Aの多義性を解消し,もし「人間」であるということがわかれば,この「それ」の指示先は語Aではありえないとわかり他の指示先の候補を探せばよいとわかる.また,機械翻訳でも訳し分けが必要な語は多義性を解消しなければ正しい翻訳をすることができない.このように多義性の解消は種々の場面で役に立つものである. \section{問題設定} \label{sec:mondai_settei}本節ではSENSEVAL2の日本語辞書タスクの問題設定について説明する.SENSEVAL2の日本語辞書タスクでは,評価用のデータとしては100単語(このうち50単語が名詞で50単語が動詞)についてそれぞれ100事例が与えられ,合計10000事例が与えられた.学習用のデータとしては,RWCコーパス\cite{shirai_nl2001}が与えられた.このコーパスは毎日新聞の1994年の3,000個の記事を用いたもので,コーパス中の主要な名詞,動詞,形容詞(総数:約15万個)に対して,岩波国語辞典に基づいて定義された語義がふられている.このタスクの目的は,この語義をその単語のまわりの情報などを用いて推定することである.また,精度の評価には,SENSEVAL2のホームページ\footnote{http://www.sle.sharp.co.uk/senseval2}より取得できるscorer2という評価用プログラムによって算出される,mixed-grainedscoreという値が用いられた\footnote{具体的には``scorer2結果のファイル正解のファイルsense-map-gmixed''というコマンドを打ち込むことにより算出される.}. \section{機械学習手法} \label{sec:ml_method}一般に,単語多義性解消問題の場合,各単語にふられる語義は,単語ごとにかわるので,機械学習手法による実験は各単語ごとに逐次的に行なわれる.つまり,学習器は単語の異なり数の分だけ作成する.しかし本タスクでは,あらかじめ50個が名詞で,50個が動詞であるとわかっている.このため,システムは,単語ごとだけでなく,単語と品詞の組に対して個々に作成した.本コンテストの場合,50個の名詞と50個の動詞が対象であったので,合計100個の学習器を作ることになる.本稿では学習器のために用いる機械学習手法としては,以下の方法を利用した\footnote{機械学習手法としては,他にC4.5\cite{c4.5j}などの決定木学習を利用する方法があるが,本稿では,種々の問題で決定木学習手法が他の手法に比べて劣っていること\cite{murata:nlken98,murata_haihan_rule_ipsj,taira_svm},また,本稿で扱う問題は属性の種類の数が多くC4.5が走るまで属性の数を減らすと精度が落ちるであろうことの二つの理由により,用いていない.また,最大エントロピー法も有力な手法であるが,システムの都合で動かない単語があったこと,また先行研究\cite{murata_nlc2001_wsd}において最大エントロピー法が他の手法よりも精度が低かったことにより本稿では用いていない.}.\begin{itemize}\itemシンプルベイズ法\item決定リスト法\itemサポートベクトルマシン法\end{itemize}本節ではこれらの個々の機械学習手法の説明と,これらの機械学習手法のいくつかを組み合わせる融合手法について説明する.\subsection{シンプルベイズ法}シンプルベイズ法は,ベイズの定理に基づいて各分類になる確率を推定し,その確率値が最も大きい分類を求める分類とする方法であり,多義性解消の研究における基本的な方法である.文脈$b$で分類$a$を出力する確率は以下の式で与えられる.{\begin{eqnarray}p(a|b)&=&\frac{p(a)}{p(b)}p(b|a)\\\label{eq:simple_bayes}&\simeq&\frac{\tilde{p}(a)}{p(b)}\prod_i\tilde{p}(f_i|a)\end{eqnarray}}ただし,ここで文脈$b$は,あらかじめ設定しておいた素性$f_j(\inF,1\leqj\leqk)$の集合である.$p(b)$は,文脈$b$の出現確率で,今回の場合分類aに非依存で定数のため,計算しない.$\tilde{p}(a)$と$\tilde{p}(f_i|a)$は,それぞれ学習データから推定された確率で,分類aの出現の確率,分類aのときに素性$f_i$を持つ確率を意味する.$\tilde{p}(f_i|a)$として最尤推定し求めた値を用いると,しばしば値がゼロになり,式(\ref{eq:simple_bayes})の値がゼロになり分類先を決めるのが難しい場合が多い.このため,スムージングがなされるが,本稿では以下のスムージングをしたものを用いる.{\begin{eqnarray}\label{eq:simple_bayes2}\tilde{p}(f_i|a)=\frac{freq(f_i,a)+\epsilon*freq(a)}{freq(a)+\epsilon*freq(a)}\end{eqnarray}}ただし,$freq(f_i,a)$と$freq(a)$は,それぞれ,素性$f_i$を持ちかつ分類が$a$である事例の個数,分類が$a$である事例の個数を意味する.$\epsilon$は実験で定める定数である.本稿では,$\epsilon$としては0.01と0.0001を用いた\footnote{\label{fn:bayes_epsilon}SENSEVAL2のコンテストでは,われわれは$\epsilon$としては0.01を用いていた.コンテストの終了後,$\epsilon$として0.1から0.00000001まで1/10の倍率でいくつか試してみた.その結果,学習用データでの10分割のクロスバリデーションの結果では$\epsilon=0.0001$のときの値がもっともよかった.}.\subsection{決定リスト法}これは,素性$f_i$と分類先$a$の組を規則とし,それらをあらかじめ定めた優先順序でリストに蓄えておき,リストで優先順位の高いところから,入力と素性が一致する規則を利用して分類先を求める方法である\cite{Yarowsky:ACL94}.本稿では優先順序としては以下のものを用いる\footnote{$\tilde{p}(a|f_i)$の値が等しい場合は,出現頻度の多い規則,すなわち,素性$f_j$で分類$a$である事例の多い規則を優先するようにしている.}$^,$\footnote{Yarowskyの研究など一般に用いられている決定リストでは,対数尤度比,さらには,その尤度比をスムージングしたものが用いられている.ところで最近では,本手法と同じ確率$\tilde{p}(a|f_i)$の式の上でベイズ推定に基づくスムージングをした式を用いることで,従来の尤度比を用いる方法よりも高い精度を得たという報告\cite{tsuruoka_nlp2002}がある.本稿ではこのあたりはそれほど注意深く検討していない.種々のスムージングをすることで今よりもよい精度を得る可能性はある.}.{\begin{eqnarray}\label{eq:decision_list_order}\tilde{p}(a|f_i)\end{eqnarray}}この方法は,以下の式で与えられる,ある文脈$b$での分類$a$を出力する確率$p(a|b)$がもっとも高い分類$a$を解とする方法と等価であり,本稿では実際にはこの方法を用いて分類先を特定する.{\begin{eqnarray}\label{eq:decision_list}p(a|b)=\tilde{p}(a|f_{max})\end{eqnarray}}ただし,$f_{max}$は以下の式によって与えられる.{\begin{eqnarray}\label{eq:decision_list2}f_{max}=argmax_{f_j\inF}\max_{a_i\inA}\\tilde{p}(a_i|f_j)\end{eqnarray}}また,$\tilde{p}(a_i|f_j)$は学習データで素性$f_j$を文脈に持つ場合の分類$a_i$の出現の割合である.\begin{figure}[t]\begin{center}\epsfile{file=margin.eps,height=4cm,width=8cm}\end{center}\caption{マージン最大化}\label{fig:margin}\end{figure}\subsection{サポートベクトルマシン法}サポートベクトルマシン法は,空間を超平面で分割することにより2つの分類からなるデータを分類する手法である.このとき,2つの分類が正例と負例からなるものとすると,学習データにおける正例と負例の間隔(マージン)が大きいもの(図\ref{fig:margin}参照\footnote{図の白丸,黒丸は,正例,負例を意味し,実線は空間を分割する超平面を意味し,破線はマージン領域の境界を表す面を意味する.})ほどオープンデータで誤った分類をする可能性が低いと考えられ,このマージンを最大にする超平面を求めそれを用いて分類を行なう.基本的には上記のとおりであるが,通常,学習データにおいてマージンの内部領域に少数の事例が含まれてもよいとする手法の拡張や,超平面の線形の部分を非線型にする拡張(カーネル関数の導入)がなされたものが用いられる.この拡張された方法は,以下の識別関数を用いて分類することと等価であり,その識別関数の出力値が正か負かによって二つの分類を判別することができる\cite{SVM,kudoh_svm}.{\begin{eqnarray}\label{eq:svm1}f({\bfx})&=&sgn\left(\sum^{l}_{i=1}\alpha_iy_iK({\bfx}_i,{\bfx})+b\right)\\b&=&-\frac{max_{i,y_i=-1}b_i+min_{i,y_i=1}b_i}{2}\nonumber\\b_i&=&\sum^l_{j=1}\alpha_jy_jK({\bfx}_j,{\bfx}_i)\nonumber\end{eqnarray}}ただし,${\bfx}$は識別したい事例の文脈(素性の集合)を,${\bfx}_{i}$と$y_i(i=1,...,l,y_i\in\{1,-1\})$は学習データの文脈と分類先を意味し,関数$sgn$は,{\begin{eqnarray}\label{eq:svm2}sgn(x)\,=&1&(x\geq0)\\&-1&(otherwise)\nonumber\end{eqnarray}}であり,また,各$\alpha_i$は式(\ref{eq:svm5})と式(\ref{eq:svm6})の制約のもと式(\ref{eq:svm4})の$L(\alpha)$を最大にする場合のものである.{\begin{eqnarray}\label{eq:svm4}L({\alpha})&=&\sum^l_{i=1}\alpha_i-\frac{1}{2}\sum^l_{i,j=1}\alpha_i\alpha_jy_iy_jK({\bfx_i},{\bfx_j})\end{eqnarray}}{\begin{eqnarray}\label{eq:svm5}0\leq\alpha_i\leqC\,\,(i=1,...,l)\end{eqnarray}}{\begin{eqnarray}\label{eq:svm6}\sum^l_{i=1}\alpha_iy_i=0\end{eqnarray}}また,関数$K$はカーネル関数と呼ばれ,様々なものが用いられるが本稿では以下の多項式のものを用いる.{\begin{eqnarray}\label{eq:svm3}K({\bfx},{\bfy})&=({\bfx}\cdot{\bfy}+1)^d\end{eqnarray}}$C,d$は実験的に設定される定数である.本稿ではすべての実験を通して$C$,$d$はそれぞれ1と2に固定した.ここで,$\alpha_i>0$となる${\bfx}_i$は,サポートベクトルと呼ばれ,通常,式(\ref{eq:svm1})の和をとっている部分はこの事例のみを用いて計算される.つまり,実際の解析には学習データのうちサポートベクトルと呼ばれる事例のみしか用いられない.サポートベクトルマシン法は分類の数が2個のデータを扱うもので,通常これにペアワイズ手法を組み合わせて用いることで,分類の数が3個以上のデータを扱うことになる\cite{kudoh_chunk_nl2000}.ペアワイズ手法とは,N個の分類を持つデータの場合,異なる二つの分類先のあらゆるペア(N(N-1)/2個)を作り,各ペアごとにどちらがよいかを2値分類器(ここではサポートベクトルマシン法\footnote{本稿の2値分類器としてのサポートベクトルマシンは,工藤氏が作成したTinySVM\cite{kudoh_svm}を利用している.})で求め,最終的にN(N-1)/2個の2値分類器の分類先の多数決により,分類先を求める方法である.本稿のサポートベクトルマシン法は,上記のようにサポートベクトルマシン法とペアワイズ手法を組み合わせることによって実現される.\subsection{融合手法}\label{sec:yuugou}本節では,いくつかの機械学習を組み合わせて用いる融合手法について説明する.われわれの融合手法では,それぞれの単語ごとに用いる機械学習手法を変更する.(厳密には,本稿の場合は単語と名詞の組に対して学習器を作成しているので,この融合手法はそれぞれの単語と名詞の組ごとに機械学習手法を変更することになる.)各単語ごとに用いられる機械学習手法は,融合する機械学習手法のうち学習データでの10分割のクロスバリデーションの精度がもっともよかったものとする.われわれは融合手法としては以下の五つの手法を試した.\begin{itemize}\item融合手法1シンプルベイズ($\epsilon$=0.01)とサポートベクトルマシンの組み合わせ\item融合手法2二種類のシンプルベイズ($\epsilon$=0.01)と二種類のサポートベクトルマシンの合計四種類のシステムの組み合わせただし,ここでいう二種類は\ref{sec:sosei}節で後述する素性(解析に用いる情報)をすべて用いた場合と,KNP構文素性のみを削除した場合の二つの場合を意味する\footnote{KNP構文素性のみを削除した場合のものを融合の一つに用いたのは,先行研究\cite{murata_nlc2001_wsd}においてKNP構文素性のみを削除した場合の方が精度が高かった場合があったことによる.}.\item融合手法3シンプルベイズ($\epsilon$=0.0001)とサポートベクトルマシンの組み合わせ\item融合手法4二種類のシンプルベイズ($\epsilon$=0.0001)と二種類のサポートベクトルマシンの合計四種類のシステムの組み合わせただし,ここでいう二種類は\ref{sec:sosei}節で後述する素性(解析に用いる情報)をすべて用いた場合と,KNP構文素性のみを削除した場合の二つの場合を意味する.\item融合手法5$\epsilon$=0.01のシンプルベイズと$\epsilon$=0.0001のシンプルベイズの組み合わせ\end{itemize} \section{素性(解析に用いる情報)} \label{sec:sosei}前節で種々の機械学習の説明を述べたが,それぞれの手法ともに素性(解析に用いる情報)を定義しなければ,その手法を用いることができない.本節ではその素性の説明を行なう.\ref{sec:mondai_settei}節の問題設定で述べたように,本稿の問題設定では,日本語文の入力を与えられたときに,その入力中の語義タグがふられていた各形態素に対して,その語義の分類を推定して出力することになっている.このため,解析に用いる情報,すなわち,素性は入力される日本語文から取り出すことになる.本稿では素性としては以下のものを定義する.\begin{itemize}\item{\bf文字列素性}\footnote{日本語の研究で機械学習手法の素性に文字列素性を用いた研究としては文献\cite{NLP98_nakano,inui:nlken98,murata_nlc2001}などがある.}\begin{itemize}\item解析する形態素自身の文字列\item解析する形態素の直前の1〜3gramの文字列\item解析する形態素の直後の1〜3gramの文字列\end{itemize}\item{\bfRWC形態素素性}\begin{itemize}\item解析する形態素自身のRWCコーパスの品詞情報,品詞細分類情報,品詞細細分類情報\footnote{ここで,品詞情報,品詞細分類情報,品詞細細分類情報は,RWCコーパスでの3,4,5カラム目のものを意味する.}\item解析する形態素の直前の形態素の単語自身,その単語の分類語彙表\cite{bgh}の5桁,その単語の分類語彙表の3桁,品詞情報,品詞細分類情報,品詞細細分類情報\item解析する形態素の直後の形態素の単語自身,その単語の分類語彙表の5桁,その単語の分類語彙表の3桁,品詞情報,品詞細分類情報,品詞細細分類情報\end{itemize}\item{\bfJUMAN形態素素性}コーパスをJUMAN\cite{JUMAN3.6}で形態素解析し,その結果を素性として利用する.\begin{itemize}\item解析する形態素自身のJUMANの解析結果の品詞情報,品詞細分類情報,品詞活用形情報\item解析する形態素の直前の形態素の単語自身,その単語の分類語彙表の5桁,その単語の分類語彙表の3桁,品詞情報,品詞細分類情報,品詞活用形情報\item解析する形態素の直後の形態素の単語自身,その単語の分類語彙表の5桁,その単語の分類語彙表の3桁,品詞情報,品詞細分類情報,品詞活用形情報\end{itemize}\item{\bf構文素性}コーパスをKNP\cite{KNP2.0b6}で構文解析し,その結果を素性として利用する.\begin{itemize}\item解析する形態素を含む文節自身,また,その文節が体言かいなか,付属語の品詞,品詞細分類,活用情報\item解析する形態素を含む文節の係り先の文節の自立語,その単語の分類語彙表の5桁,その単語の分類語彙表の3桁,品詞情報,品詞細分類情報,品詞活用形情報\item解析する形態素を含む文節の係り元の文節の自立語,その単語の分類語彙表の5桁,その単語の分類語彙表の3桁,品詞情報,品詞細分類情報,品詞活用形情報.ただし,すべての場合において,付属語の情報を併用する.\end{itemize}\item{\bf同一文内共起素性}コーパスをJUMANで形態素解析し,その解析結果の形態素列を素性として利用する.\begin{itemize}\item同一文中の各形態素,また,その単語の分類語彙表の5桁,その単語の分類語彙表の3桁.\end{itemize}\item{\bfUDC素性}RWCコーパスには,各記事ごとに図書館などで書籍の分類に用いられる,国際十進分類(UDC)がふられている.この情報は各記事がどういう分野のものかを示している.\begin{itemize}\item解析対象とする形態素を含む記事のUDCコードの最初の1桁,2桁,3桁.\end{itemize}\end{itemize} \section{実験} \label{sec:experiment}本節ではまず\ref{sec:experiment1}節で,コンテストに提出したシステム,また,コンテストの後に改良したシステムについて記述し,その後\ref{sec:experiment2}節で,素性を変更した実験について記述する.\subsection{コンテストの実験結果(一部コンテスト後のシステムも含む)}\label{sec:experiment1}われわれはSENEVAL2のコンテストに四つのシステム(CRL1からCRL4),すなわち,サポートベクトルマシン,シンプルベイズ($\epsilon=0.01$),融合手法1,融合手法2を提出した.また,コンテストの後,$\epsilon=0.0001$を用いるシンプルベイズと決定リスト法,融合手法3,4,5を用いて実験を行なった.これらの結果を表\ref{tab:result}に示す.「ベースライン」は学習データで最も頻度の大きかった分類を常に正解として選ぶ手法を意味する.「コンテストの最高システム」はコンテストに参加した団体によって提出されたすべてのシステムにおいてもっとも高いシステムを意味し,実際にはそれは融合手法2であった.表の値は,\ref{sec:mondai_settei}節でも述べたscorer2から算出されるmixed-grainedscoreの値である.値の分子が整数でないのは複数の語義が正解となる場合も考慮し部分点も与えるためである\footnote{われわれのシステムでは複数の解を出力することは基本的にできない.このため,複数の解が答えになる場合はその複数の解を一つの組にしてその組を個々の解の分類とは別に新たに一つの分類として扱うことで,複数の解が答えになる場合を扱っている.}.また,scorer2のプログラムでは適合率(精度)と再現率を出力するが,われわれのシステムではすべての事例に対して解を出すため適合率(精度)と再現率の値は常に一致する.このため,表ではそれらを精度として統一して記述している.\begin{table*}[t]\caption{実験結果}\label{tab:result}\begin{center}\small\renewcommand{\arraystretch}{}\hspace*{-1cm}\begin{tabular}[c]{|l|cc|}\hline\multicolumn{1}{|c|}{方法}&\multicolumn{2}{|c|}{精度}\\\hlineベースライン&0.726&(7260.00/10000)\\サポートベクトルマシン(CRL1)&0.783&(7829.75/10000)\\シンプルベイズ$\epsilon=0.01$(CRL2)&0.778&(7775.82/10000)\\シンプルベイズ$\epsilon=0.0001$&0.790&(7902.53/10000)\\決定リスト&0.760&(7603.70/10000)\\融合手法1(CRL3)&0.786&(7864.50/10000)\\融合手法2(CRL4)(コンテストでの最高システム)&0.786&(7864.83/10000)\\融合手法3&0.787&(7873.33/10000)\\融合手法4&0.787&(7869.00/10000)\\融合手法5&0.793&(7933.37/10000)\\\hline\end{tabular}\end{center}\end{table*}表\ref{tab:result}の結果より以下のことがわかる.\begin{itemize}\itemすべてのシステムがベースラインよりも高い精度を出した.このことから,それぞれの手法ともにそれなりにまともな解析をしていることがわかる.\item提出した4システム(CRL1からCRL4)の中では,CRL4の融合手法2が最も高い精度(0.786)をえた.\itemまた,コンテストの後,$\epsilon=0.0001$を用いるシンプルベイズを用いたところ,さらに高い精度(0.790)をえた.(この$\epsilon=0.0001$の設定は脚注\ref{fn:bayes_epsilon}でのべたように学習データのみを用いて定めた値なので恣意的ではない.)この結果から,この問題ではシンプルベイズ法が有効であることがわかる.最近の機械学習手法を用いた種々の研究\cite{taira_svm,kudoh_chunk_nl2000,murata_nlc2001}ではたいていの場合サポートベクトルマシン法がよいようだが,日本語多義解消ではそうではないことがあることがわかる\footnote{われわれの先行研究\cite{murata_nlc2001_wsd}では日本語多義性解消でサポートベクトルマシンがもっともよい精度としていたが,これはシンプルベイズで$\epsilon=0.01$で実験した場合であって,$\epsilon=0.0001$の場合はシンプルベイズの方がよいこともあることに注意して欲しい.}.しかし,シンプルベイズとサポートベクトルマシンの精度差はそれほど大きいものではない.\item融合手法としてはシンプルベイズ法でのパラメータ調整が適切でない場合つまり,$\epsilon=0.01$のとき,サポートベクトルマシンが0.783でシンプルベイズが0.778でそれらの融合が0.786であったので,精度向上を実現できる場合があることがわかる.しかし,シンプルベイズ法でのパラメータ調整を適切にした場合つまり,$\epsilon=0.0001$のとき,サポートベクトルマシンが0.783でシンプルベイズが0.790でそれらの融合が0.787であったので,精度向上を実現できていない.このことから,システムの融合がいつでも効果があるわけではなく効果がないことがあることもわかる.\item融合手法としては,$\epsilon=0.01$のシンプルベイズと$\epsilon=0.0001$のシンプルベイズを融合する手法も用いたが,この精度は0.793となり精度向上を実現した.これは単語ごとに最適な$\epsilon$が異なることを示唆する.本稿のシンプルベイズ法では単純なスムージング法を採用しているが,本稿のスムージング法があまりよくないために単語ごとに最適なパラメータがかわっている可能性もある.今後は他のもう少し高度なスムージング法も試してみる必要があると思われる.ところで,融合手法としては同じシンプルベイズでもパラメータをかえたものを組み合わせることで精度向上ができる場合があることがわかった\footnote{$\epsilon$を0.1から0.00000001まで0.1倍ずつ変えたシステム8個を本稿の融合手法で組み合わせたシステムでも実験してみたが,その精度は0.01と0.0001の融合手法とまったく同じ精度であった.}.\end{itemize}\begin{table}[t]\caption{融合手法において用いられている学習手法の内訳}\label{tab:yuugou_wariai}\vspace*{.5cm}\hspace*{1.5cm}\begin{minipage}[h]{20cm}(a)融合手法1\begin{tabular}[c]{|l|c|}\hline\multicolumn{1}{|c|}{手法}&\multicolumn{1}{|c|}{用いられた単語の数}\\\hlineサポートベクトルマシン&69単語\\シンプルベイズ($\epsilon$=0.01)&31単語\\\hline\end{tabular}\vspace{0.5cm}(b)融合手法2\begin{tabular}[c]{|l|c|}\hline\multicolumn{1}{|c|}{手法}&\multicolumn{1}{|c|}{用いられた単語の数}\\\hlineサポートベクトルマシン&48単語\\シンプルベイズ($\epsilon$=0.01)&24単語\\サポートベクトルマシン(KNP構文素性削除)&19単語\\シンプルベイズ(KNP構文素性削除,$\epsilon$=0.01)&9単語\\\hline\end{tabular}\vspace{0.5cm}(c)融合手法3\begin{tabular}[c]{|l|c|}\hline\multicolumn{1}{|c|}{手法}&\multicolumn{1}{|c|}{用いられた単語の数}\\\hlineサポートベクトルマシン&37単語\\シンプルベイズ($\epsilon$=0.0001)&63単語\\\hline\end{tabular}\vspace{0.5cm}(d)融合手法4\begin{tabular}[c]{|l|c|}\hline\multicolumn{1}{|c|}{手法}&\multicolumn{1}{|c|}{用いられた単語の数}\\\hlineサポートベクトルマシン&26単語\\シンプルベイズ($\epsilon$=0.0001)&46単語\\サポートベクトルマシン(KNP構文素性削除)&17単語\\シンプルベイズ(KNP構文素性削除,$\epsilon$=0.0001)&11単語\\\hline\end{tabular}\vspace{0.5cm}(e)融合手法5\begin{tabular}[c]{|l|c|}\hline\multicolumn{1}{|c|}{手法}&\multicolumn{1}{|c|}{用いられた単語の数}\\\hlineシンプルベイズ($\epsilon$=0.01)&33単語\\シンプルベイズ($\epsilon$=0.0001)&67単語\\\hline\end{tabular}\end{minipage}\end{table}本研究では,融合手法としては\ref{sec:yuugou}節で述べたように5つのものを用いている.ここで,実際に実験対象である100単語のうち,どのくらいの割合で融合される個々の機械学習手法が用いられていたかを示しておきたい.この用いられた機械学習手法の内訳を表\ref{tab:yuugou_wariai}に示す.ただし,融合手法において用いる学習手法は,学習データでの10分割のクロスバリデーションの精度がもっともよかったものとしているが,この精度が同点であった場合は,その同点であった学習手法のうち表に示した順序で最初に出現した手法を用いている.表\ref{tab:yuugou_wariai}からわかるように精度の高い手法ほど,融合手法において多く利用されていることがわかる.例えば,「サポートベクトルマシン」の精度は0.783で,「シンプルベイズ($\epsilon$=0.01)」の精度は0.778で,「サポートベクトルマシン」の方が精度が高いが,実際に表\ref{tab:yuugou_wariai}(a)では,「サポートベクトルマシン」の方が多く用いられている.\begin{table*}[t]\caption{素性を変更した場合の精度(全課題100単語)}\label{tab:sosei_change}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l@{}|c@{}c@{}|c@{}c@{}|c@{}c@{}|}\hline\multicolumn{1}{|c|}{素性}&\multicolumn{2}{|c|}{シンプルベイズ}&\multicolumn{2}{|c|}{サポートベクトル}&\multicolumn{2}{|c|}{決定リスト}\\\hline全素性利用&{\bf0.790}&(7902.53/10000)&0.783&(7829.25/10000)&0.760&(7603.70/10000)\\\hline文字列素性なし&0.786&(7863.03/10000)&0.781&(7810.08/10000)&0.757&(7574.03/10000)\\RWC形態素素性なし&0.787&(7869.87/10000)&0.780&(7800.58/10000)&0.759&(7592.70/10000)\\JUMAN形態素素性なし&0.787&(7872.70/10000)&0.783&(7826.75/10000)&0.760&(7598.20/10000)\\KNP構文素性なし&0.784&(7838.37/10000)&0.779&(7788.70/10000)&0.757&(7568.52/10000)\\文内共起素性なし&0.778&(7782.30/10000)&0.770&(7696.67/10000)&0.766&(7658.35/10000)\\UDC素性なし&0.788&(7883.12/10000)&{\bf0.784}&(7842.58/10000)&0.759&(7589.70/10000)\\\hline文字列素性のみ&0.760&(7600.33/10000)&0.777&(7774.93/10000)&{\bf0.773}&(7731.63/10000)\\RWC形態素素性のみ&0.710&(7104.92/10000)&------&(---------/------)&0.759&(7589.30/10000)\\JUMAN形態素素性のみ&0.723&(7231.01/10000)&------&(---------/------)&0.758&(7579.07/10000)\\KNP構文素性のみ&0.749&(7487.18/10000)&0.738&(7379.62/10000)&-----&(------/------)\\文内共起素性のみ&0.754&(7539.53/10000)&------&(---------/------)&0.741&(7410.77/10000)\\UDC素性のみ&------&(---------/------)&------&(---------/------)&-----&(------/------)\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}[t]\caption{素性を変更した場合の精度(名詞50単語)}\label{tab:sosei_change_noun}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l@{}|c@{}c@{}|c@{}c@{}|c@{}c@{}|}\hline\multicolumn{1}{|c|}{素性}&\multicolumn{2}{|c|}{シンプルベイズ}&\multicolumn{2}{|c|}{サポートベクトル}&\multicolumn{2}{|c|}{決定リスト}\\\hline全素性利用&{\bf0.782}&(3911.50/5000)&0.780&(3899.42/5000)&0.749&(3745.58/5000)\\\hline文字列素性なし&0.779&(3897.00/5000)&0.779&(3896.08/5000)&0.746&(3729.92/5000)\\RWC形態素素性なし&0.777&(3886.67/5000)&0.775&(3872.58/5000)&0.748&(3737.58/5000)\\JUMAN形態素素性なし&0.778&(3887.67/5000)&0.779&(3895.75/5000)&0.748&(3740.08/5000)\\KNP構文素性なし&0.777&(3883.83/5000)&0.772&(3862.50/5000)&0.745&(3725.25/5000)\\文内共起素性なし&0.766&(3828.08/5000)&0.768&(3840.33/5000)&0.753&(3762.92/5000)\\UDC素性なし&0.781&(3906.83/5000)&{\bf0.785}&(3922.58/5000)&0.747&(3736.08/5000)\\\hline文字列素性のみ&0.758&(3790.08/5000)&0.767&(3835.00/5000)&0.764&(3819.58/5000)\\RWC形態素素性のみ&0.745&(3723.25/5000)&------&(---------/------)&{\bf0.771}&(3852.67/5000)\\JUMAN形態素素性のみ&0.737&(3685.25/5000)&------&(---------/------)&0.766&(3831.33/5000)\\KNP構文素性のみ&0.721&(3605.58/5000)&0.739&(3695.08/5000)&------&(---------/------)\\文内共起素性のみ&0.739&(3693.75/5000)&------&(---------/------)&0.726&(3629.25/5000)\\UDC素性のみ&------&(---------/------)&------&(---------/------)&------&(---------/------)\\\hline\end{tabular}\end{center}\end{table*}\begin{table*}[t]\caption{素性を変更した場合の精度(動詞50単語)}\label{tab:sosei_change_verb}\begin{center}\small\renewcommand{\arraystretch}{}\begin{tabular}[c]{|l@{}|c@{}c@{}|c@{}c@{}|c@{}c@{}|}\hline\multicolumn{1}{|c|}{素性}&\multicolumn{2}{|c|}{シンプルベイズ}&\multicolumn{2}{|c|}{サポートベクトル}&\multicolumn{2}{|c|}{決定リスト}\\\hline全素性利用&{\bf0.798}&(3991.03/5000)&0.786&(3930.33/5000)&0.772&(3858.12/5000)\\\hline文字列素性なし&0.793&(3966.03/5000)&0.783&(3914.00/5000)&0.769&(3844.12/5000)\\RWC形態素素性なし&0.797&(3983.20/5000)&0.786&(3928.00/5000)&0.771&(3855.12/5000)\\JUMAN形態素素性なし&0.797&(3985.03/5000)&0.786&(3931.00/5000)&0.772&(3858.12/5000)\\KNP構文素性なし&0.791&(3954.53/5000)&0.785&(3926.20/5000)&0.769&(3844.27/5000)\\文内共起素性なし&0.791&(3954.22/5000)&0.771&(3856.33/5000)&0.779&(3895.43/5000)\\UDC素性なし&0.795&(3976.28/5000)&0.784&(3920.00/5000)&0.771&(3853.62/5000)\\\hline文字列素性のみ&0.762&(3810.25/5000)&{\bf0.788}&(3939.93/5000)&{\bf0.782}&(3912.05/5000)\\RWC形態素素性のみ&0.676&(3381.66/5000)&------&(---------/------)&0.747&(3736.63/5000)\\JUMAN形態素素性のみ&0.709&(3545.76/5000)&------&(---------/------)&0.750&(3747.73/5000)\\KNP構文素性のみ&0.776&(3881.60/5000)&0.737&(3684.53/5000)&------&(---------/------)\\文内共起素性のみ&0.769&(3845.78/5000)&------&(---------/------)&0.756&(3781.52/5000)\\UDC素性のみ&------&(---------/------)&------&(---------/------)&------&(---------/------)\\\hline\end{tabular}\end{center}\end{table*}\subsection{素性を変更した実験}\label{sec:experiment2}次に解析に用いる情報,すなわち,素性を変更した場合の実験を行なった.この実験では融合手法は用いず,シンプルベイズ($\epsilon=0.0001$),サポートベクトルマシン,決定リストで行なった.この結果を表\ref{tab:sosei_change}から表\ref{tab:sosei_change_verb}までに示す.表\ref{tab:sosei_change}は課題の100単語すべてでの結果であり,表\ref{tab:sosei_change_noun}と表\ref{tab:sosei_change_verb}は名詞50単語,動詞50単語に対する結果である.各表とも,まず全素性を用いる方法の精度を示し,次に各素性を省いた場合のもの,最後に各素性のみを用いた場合のものを示している.各手法で最も大きいときの精度を太字にしている.また,表で``------''としている部分については,システムおよび素性の設定の都合でシステムが問題を解けなかった単語が一部あったため精度が算出できなかったものを示す.\begin{itemize}\item全課題での実験において精度がもっとも高かったのは,全素性を用いるシンプルベイズ法であった.シンプルベイズ法では,名詞50単語,動詞50単語でも,全素性を用いる方法が安定して最も高い精度を獲得した.\itemサポートベクトルマシン法では,名詞ではUDC素性を用いない方法が最もよく,動詞では文字列素性のみを用いる方法がもっともよかった.\item決定リスト法では名詞ではRWC形態素素性のみを用いる方法がもっともよく,動詞では文字列素性のみを用いる方法がもっともよかった.\item名詞50単語の精度では,UDC素性を用いないサポートベクトルマシンがもっとも精度がよい.このことから,常にシンプルベイズ法がよいわけではなく,他の方法の方がよい場合があることがわかる.\item表\ref{tab:sosei_change}の文字列素性のみを用いる場合の各手法の精度を見て欲しい.このときは,サポートベクトルマシン法がもっとも精度がよく0.777であった.また,決定リスト法では0.773であった.これらの数字は最高精度に比較してもそれほど悪くなく,単なる文字列の素性だけでも高い精度を獲得できることを示している.また,特に動詞の場合は,サポートベクトルマシン,決定リスト法ともに文字列素性のみを用いた場合がもっとも精度が高い.\end{itemize}これらの結果から現状で日本語多義解消を行なう場合,簡便性を考えると以下の二通りのアプローチがあると思われる.\begin{itemize}\item手法としては簡便なシンプルベイズを用いるが,素性としてはさまざまなものを用意して高い精度を目指す.\item手法としては,サポートベクトルマシンや決定リストなどの強力な機械学習手法を用いるが,文字列素性などの少数の有用な素性のみを用いるもの.このアプローチでは前者に比べて素性が簡便であってもよい.\end{itemize} \section{関連文献} \label{ref:kanren}本節では関連文献について説明する.英語単語の多義語の曖昧性解消に機械学習手法を用いた研究は極めて多数存在する\cite{Fuji98a,sense1,fukumoto_ipsj2001}が,日本語単語の多義語の曖昧性解消に機械学習手法を用いた研究は,SENSEVAL2以前はほとんどなかった\cite{shinou98}.例えば,新納の研究では語の多義の解消ではなく,同音異義語の判別を扱っていた.その意味で,日本語多義解消の問題で「シンプルベイズ法」「決定リスト法」「サポートベクトルマシン法」の三つの機械学習手法,さらには,素性を変化させた場合の実験結果を示している本稿は,今後の日本語単語の多義語の曖昧性解消の問題を考えるための資料として非常に役に立つものと思われる.次にいくつかの関連研究を紹介したい.まず,SENSEVAL2で英語を含む数多くの言語で優秀な成績をとっていたYarowskyらのシステム\cite{yarowsky_s2}について説明する.Yarowskyらのシステムは,シンプルベイス法と決定リストの組み合わせであり,決定リストで求まる確信度が高いところでは決定リストの手法の解を用い,それ以外の場合は種々の手法の多数決の結果を解とする手法である.確信度を用い決定リストで確実に求まるところだけを別個に扱っているところが興味深い.次に,SENSEVAL2の日本語辞書タスクに参加していた八木らのシステム\cite{yagi_nlc2001}について説明する.八木らのシステムは決定リスト法を機械学習手法として用いており,学習用のデータとして,RWCコーパス以外に岩波国語辞典の例文のデータを用いていることを特徴としている.RWCコーパスでの語義の定義は岩波国語辞典を用いているため,岩波国語辞典の例文のデータも語義解析のための学習データとして利用できるのである.八木らの研究ではこの例文データも利用した場合の方が利用しない場合よりも精度が高かったとしている.この結果は,われわれの研究でもこのデータを追加で用いることで精度を向上できる可能性を示唆するものであり,興味深い.次に,高村らの素性空間を再構成する手法\cite{takamura2001_NL}について説明する.この研究は英語を対象に行なわれており,機械学習手法としてはサポートベクトルマシン法を利用している.この手法は学習に用いる素性を構成し直すところに特徴がある.普通に抽出した素性だけでなく,その素性の分布に対して独立成分分析や主成分分析を行ない,元々の素性よりも一段抽象化したような素性を新たに作り出し,これも素性として追加で用いる方法である.この素性を再構成する方法を含めた複数のシステムの多数決を用いる方法で,単純なサポートベクトルマシン法の性能を上回ったとしている.独立成分分析などにより素性の情報を抽象化することでデータスパースネス対策などに役立っていると思われ,興味深い.最後に,中野らのAdaBoostを用いた手法\cite{nakano_ada}を説明する.この研究ではSENSEVAL2日本語タスクのデータを対象としており,AdaBoostを機械学習手法として利用している.AdaBoostは正しく分類された事例の重みを下げ,誤って分類された事例の重みを上げて,再学習をする手法である.中野らの報告では,AdaBoostを利用することで決定リスト法,シンプルベイズ法よりも高い精度を得たと報告している.ただし,その最高精度は79.1\,\%であり,われわれの最高精度の79.3\,\%より若干低い.しかし,この結果はわれわれのシステムの素性の情報が豊かであるためである可能性があり,われわれのシステムの素性の情報でAdaBoostを利用するとさらによい精度を得ることができる可能性がある.しかし,中野らはわれわれのシステムでは用いていない日本語語彙体系\cite{ntt}の辞書の情報を用いており,中野らの方が素性の情報が少ないとは言い切れないので,われわれのシステムの素性の情報でAdaBoostを利用するとさらによい精度を得ることができるかどうかはわからない.また,われわれのシステムの素性の情報の方が豊富であっても,われわれのシステムの素性でAdaBoostが本当によい精度を出せるかどうかはわからない.次に,多義性の研究に直接は関係はないが,複数の機械学習の方法を組み合わせるのに,スタッキングを用いる手法\cite{Halteren_cl2001}について説明したい.スタッキングを用いる手法とは,もともとの素性の他に,複数の機械学習の結果を素性として追加し,その追加された素性を用いて機械学習を行なう方法である.従来は複数の機械学習の方法の融合には多数決が多く用いられていたが,スタッキングの方法ではどの機械学習の方法がよいかを学習することになっておりたいていの場合で多数決の方法よりも精度が高くなると思われる.このスタッキングを利用する研究としては,形態素解析のもの\cite{Halteren_cl2001}や固有名詞表現抽出のもの\cite{Utsuro_ne}などがある.本稿でのシステムの融合では,各単語でもっとも精度の高い手法を利用していた.このわれわれの融合手法は各単語ごとに用いる手法を最尤推定で求めるものになっていて少々は融合に学習を用いていることにはなっている.しかし,手法の組み合わせにおいても強力な学習手法を用いた方が精度はよいと思われるので,われわれの手法でもスタッキングを利用することを考えた方がよい.以上,種々の有力な関連研究を紹介した.それぞれの手法ともに特徴的な要素を持っており,\ref{sec:experiment2}節の最後に述べた考察と含めてそれらを総合的に考察し,それぞれの手法の良い面を組み合わせることで,さらによりよい多義解消を行なえると思われる. \section{おわりに} 本稿では,2001年に行なわれたSENSEVAL2コンテストの日本語辞書タスクでのわれわれの取り組みについて述べた.我々は,サポートベクトルマシン法,シンプルベイズ法,またそれらの組み合わせのシステム二つの合計4システムを提出し,組合わせシステムが参加システム中もっとも高い精度(0.786)を得た.コンテストの後,シンプルベイズ法で用いていたパラメータを調節したところさらに高い精度を得た.現在もっとも性能の高いシステムは二つのシンプルベイズ法を組み合わせたシステムであり,その精度は0.793である.また,本稿では素性を変更した実験もいくつか追加で行ない,各素性の有効性,特徴を調査した.その調査結果では文字列素性のみを用いても比較的高い精度が得られるなどの興味深い知見が得られている.また,関連文献も紹介し,今後の多義解消の研究のための有益な情報を提供した.\acknowledgmentSENSEVAL2の運営,および,本特集号に尽力してくださいました,東大黒橋助教授と北陸先端大白井助教授をはじめとする方々に感謝いたします.\begin{thebibliography}{}\bibitem[\protect\BCAY{Cristianini\BBA\Shawe-Taylor}{Cristianini\BBA\Shawe-Taylor}{2000}]{SVM}Cristianini,N.\BBACOMMA\\BBA\Shawe-Taylor,J.\BBOP2000\BBCP.\newblock{\BemAnIntroductiontoSupportVectorMachinesandOtherKernel-basedLearningMethods}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{藤井}{藤井}{1998}]{Fuji98a}藤井敦\BBOP1998\BBCP.\newblock\JBOQコーパスに基づく多義性解消\JBCQ\\newblock\Jem{人工知能学会},{\Bbf13}(6),pp.~904--911.\bibitem[\protect\BCAY{福本}{福本}{2002}]{fukumoto_ipsj2001}福本文代\BBOP2002\BBCP.\newblock\JBOQ語義の曖昧性解消のための最適な属性選択\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf43}(1).\bibitem[\protect\BCAY{Halteren,vanZavrel,\BBA\Daelemans}{Halterenet~al.}{2001}]{Halteren_cl2001}Halteren,V.H.,Zavrel,J.,\BBA\Daelemans,W.\BBOP2001\BBCP.\newblock\BBOQImprovingAccuracyinWordClassTaggingthroughtheCombinationofMachineLearningSystems\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf27}(2),pp.~199--229.\bibitem[\protect\BCAY{Ide\BBA\Mylonas}{Ide\BBA\Mylonas}{2000}]{sense1}Ide,N.\BBACOMMA\\BBA\Mylonas,E.\BBOP2000\BBCP.\newblock{\BemComputersandthehumanities,SpecialIssueonSENSEVAL}.\newblockKluwerAcademicPublishers.\bibitem[\protect\BCAY{池原,宮崎,白井,横尾,中岩,小倉,大山,林}{池原\Jetal}{1997}]{ntt}池原悟,宮崎正弘,白井諭,横尾昭男,中岩浩巳,小倉健太郎,大山芳史,林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙体系}.\newblock岩波書店.\bibitem[\protect\BCAY{乾,内元,村田,井佐原}{乾\Jetal}{1998}]{inui:nlken98}乾裕子,内元清貴,村田真樹,井佐原均\BBOP1998\BBCP.\newblock\JBOQ文末表現に着目した自由回答アンケートの分類\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会NL128-25}.\bibitem[\protect\BCAY{キンラン}{キンラン}{1995}]{c4.5j}J.R.キンラン\BBOP1995\BBCP.\newblock\Jem{AIによるデータ解析}.\newblockトッパン.\bibitem[\protect\BCAY{国立国語研究所}{国立国語研究所}{1964}]{bgh}国立国語研究所\BBOP1964\BBCP.\newblock\Jem{分類語彙表}.\newblock秀英出版.\bibitem[\protect\BCAY{工藤,松本}{工藤,松本}{2000}]{kudoh_chunk_nl2000}工藤拓,松本裕治\BBOP2000\BBCP.\newblock\JBOQSupportVectorMachineを用いたChunk同定\JBCQ\\newblock\Jem{自然言語処理研究会2000-NL-140}.\bibitem[\protect\BCAY{Kudoh}{Kudoh}{2000}]{kudoh_svm}Kudoh,T.\BBOP2000\BBCP.\newblock\BBOQ{TinySVM:SupportVectorMachines}\BBCQ\\\\newblock{http://cl.aist-nara.ac.jp/\verb+~+taku-ku/software/TinySVM/index.html}.\bibitem[\protect\BCAY{黒橋,長尾}{黒橋,長尾}{1998}]{JUMAN3.6}黒橋禎夫,長尾真\BBOP1998\BBCP.\newblock\Jem{日本語形態素解析システム{JUMAN}使用説明書version3.6}.\newblock京都大学大学院工学研究科.\bibitem[\protect\BCAY{黒橋}{黒橋}{1998}]{KNP2.0b6}黒橋禎夫\BBOP1998\BBCP.\newblock\Jem{日本語構文解析システム{KNP}使用説明書version2.0b6}.\newblock京都大学大学院情報学研究科.\bibitem[\protect\BCAY{村田,長尾}{村田,長尾}{1997}]{murata_deno_nlp}村田真樹,長尾真\BBOP1997\BBCP.\newblock\JBOQ用例や表層表現を用いた日本語文章中の指示詞・代名詞・ゼロ代名詞の指示対象の推定\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf4}(1).\bibitem[\protect\BCAY{村田,内元,馬,井佐原}{村田\Jetal}{1998}]{murata:nlken98}村田真樹,内元清貴,馬青,井佐原均\BBOP1998\BBCP.\newblock\JBOQ学習による文節まとめあげ---決定木学習,最大エントロピー法,用例ベースによる手法と排反な規則を用いる新手法の比較---\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会NL128-4}.\bibitem[\protect\BCAY{村田,内元,馬,井佐原}{村田\Jetal}{2000a}]{murata_haihan_rule_ipsj}村田真樹,内元清貴,馬青,井佐原均\BBOP2000a\BBCP.\newblock\JBOQ排反な規則を用いた文節まとめあげ\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf41}(1),pp.~59--69.\bibitem[\protect\BCAY{村田,内山,井佐原}{村田\Jetal}{2000b}]{murata2000_1_nl}村田真樹,内山将夫,井佐原均\BBOP2000b\BBCP.\newblock\JBOQ類似度に基づく推論を用いた質問応答システム\JBCQ\\newblock\Jem{自然言語処理研究会2000-NL-135},pp.~181--188.\bibitem[\protect\BCAY{村田,馬,内元,井佐原}{村田\Jetal}{2001a}]{murata_nlc2001}村田真樹,馬青,内元清貴,井佐原均\BBOP2001a\BBCP.\newblock\JBOQサポートベクトルマシンを用いたテンス・アスペクト・モダリティの日英翻訳\JBCQ\\newblock\Jem{電子情報通信学会言語理解とコミュニケーション研究会NLC2000-78}.\bibitem[\protect\BCAY{村田,内山,内元,馬,井佐原}{村田\Jetal}{2001b}]{murata_nlc2001_wsd}村田真樹,内山将夫,内元清貴,馬青,井佐原均\BBOP2001b\BBCP.\newblock\JBOQ種々の機械学習手法を用いた多義解消実験\JBCQ\\newblock\Jem{電子情報通信学会言語理解とコミュニケーション研究会NLC2001-2}.\bibitem[\protect\BCAY{中野,村田,長尾}{中野\Jetal}{1998}]{NLP98_nakano}中野貴之,村田真樹,長尾真\BBOP1998\BBCP.\newblock\JBOQネットニュース記事のタイプ分類\JBCQ\\newblock\Jem{言語処理学会第4回年次大会}.\bibitem[\protect\BCAY{中野,平井}{中野,平井}{2002}]{nakano_ada}中野桂吾,平井有三\BBOP2002\BBCP.\newblock\JBOQ{AdaBoost}を用いた語義の曖昧性解消\JBCQ\\newblock\Jem{言語処理学会第8回年次大会}.\bibitem[\protect\BCAY{日本電子化辞書研究所}{日本電子化辞書研究所}{1993}]{edr}日本電子化辞書研究所\BBOP1993\BBCP.\newblock\JBOQ{EDR}電子化辞書仕様説明書\JBCQ.\bibitem[\protect\BCAY{{NTCIR-3QACtaskcommittee}}{{NTCIR-3QACtaskcommittee}}{2001}]{qac_hp}{NTCIR-3QACtaskcommittee}\BBOP2001\BBCP.\newblock\newblock\BBOQQuestionAnsweringChallenge(QAC)HomePage\BBCQ.\\\newblock{http://www.nlp.cs.ritsumei.ac.jp/qac/}.\bibitem[\protect\BCAY{新納}{新納}{1998}]{shinou98}新納浩幸\BBOP1998\BBCP.\newblock\JBOQ複合語からの証拠に重みをつけた決定リストによる同音異義語判別\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf39}(12).\bibitem[\protect\BCAY{白井,柏野,橋本,徳永,有田,井佐原,荻野,小船,高橋,長尾,橋田,村田}{白井\Jetal}{2001}]{shirai_nl2001}白井清昭,柏野和佳子,橋本三奈子,徳永健伸,有田英一,井佐原均,荻野紫穂,小船隆一,高橋裕信,長尾確,橋田浩一,村田真樹\BBOP2001\BBCP.\newblock\JBOQ岩波国語辞典を利用した語義タグ付きテキストデータベースの作成\JBCQ\\newblock\Jem{自然言語処理研究会2001-NL-141}.\bibitem[\protect\BCAY{平,春野}{平,春野}{2000}]{taira_svm}平博順,春野雅彦\BBOP2000\BBCP.\newblock\JBOQSupportVectorMachineによるテキスト分類における属性選択\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf41}(4),pp.~1113--1123.\bibitem[\protect\BCAY{高村,山田,工藤,山本,松本}{高村\Jetal}{2001}]{takamura2001_NL}高村大也,山田寛康,工藤拓,山本薫,松本裕治\BBOP2001\BBCP.\newblock\JBOQ素性空間再構成によるWord-SenseDisambiguation\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2001-NL-144}.\bibitem[\protect\BCAY{鶴岡,近山}{鶴岡,近山}{2002}]{tsuruoka_nlp2002}鶴岡慶雅,近山隆\BBOP2002\BBCP.\newblock\JBOQベイズ統計の手法を利用した決定リストのルール信頼度推定法\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf9}(3).\bibitem[\protect\BCAY{宇津呂,颯々野,内元}{宇津呂\Jetal}{2002}]{Utsuro_ne}宇津呂武仁,颯々野学,内元清貴\BBOP2002\BBCP.\newblock\JBOQ正誤判別規則学習を用いた複数の日本語固有表現抽出システムの出力の混合\JBCQ\\newblock\Jem{言語処理学会誌},{\Bbf9}(1).\bibitem[\protect\BCAY{八木,野呂,白井,徳永,田中}{八木\Jetal}{2001}]{yagi_nlc2001}八木豊,野呂智哉,白井清昭,徳永健伸,田中穂積\BBOP2001\BBCP.\newblock\JBOQ決定リストを用いた語義曖昧性解消\JBCQ\\newblock\Jem{電子情報通信学会言語理解とコミュニケーション研究会NLC2001-42}.\bibitem[\protect\BCAY{Yarowsky}{Yarowsky}{1994}]{Yarowsky:ACL94}Yarowsky,D.\BBOP1994\BBCP.\newblock\BBOQDecisionListsForLexicalAmbiguityResolution:ApplicationtoAccentRestorationin{Spanish}and{French}\BBCQ\\newblockIn{\Bem32rdAnnualMeetingoftheAssociationoftheComputationalLinguistics},\BPGS\pp.~88--95.\bibitem[\protect\BCAY{Yarowsky}{Yarowsky}{2001}]{senseval2}Yarowsky,D.\BBOP2001\BBCP.\newblock{\BemProceedingsofSENSEVAL-2}.\bibitem[\protect\BCAY{Yarowsky,Cucerzan,Florian,Schafer,\BBA\Wicentowski}{Yarowskyet~al.}{2001}]{yarowsky_s2}Yarowsky,D.,Cucerzan,S.,Florian,R.,Schafer,C.,\BBA\Wicentowski,R.\BBOP2001\BBCP.\newblock\BBOQTheJohnsHopkinsSENSEVAL-2SystemDescriptions\BBCQ\\newblockIn{\BemProceedingsofSENSEVAL-2}.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.現在,独立行政法人通信総合研究所主任研究員.自然言語処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,人工知能学会,電子情報通信学会,ACL,各会員.}\bioauthor{内山将夫}{1992年筑波大学第三学群情報学類卒業.1997年筑波大学大学院工学研究科博士課程修了.博士(工学).1997年信州大学工学部電気電子工学科助手.1999年郵政省通信総合研究所非常勤職員.2001年独立行政法人通信総合研究所任期付き研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本音響学会,ACL,各会員.}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所.現在,独立行政法人通信総合研究所研究員.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{馬青}{1983年北京航空航天大学自動制御学部卒業.1987年筑波大学大学院理工学研究科修士課程修了.1990年同大学院工学研究科博士課程修了.工学博士.1990$\sim$93年株式会社小野測器勤務.1993年郵政省通信総合研究所入所.1994年同所主任研究官.2003年龍谷大学理工学部教授.人工神経回路網モデル,知識表現,自然言語処理の研究に従事.日本神経回路学会,言語処理学会,電子情報通信学会,各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所.現在,独立行政法人通信総合研究所けいはんな情報通信融合研究センター自然言語グループリーダー.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V26N03-03
\section{はじめに} \label{sec:intro}本稿では,参照文を用いた文単位での機械翻訳自動評価手法について述べる.文単位での信頼性の高い自動評価によって,機械翻訳システムの細かい改善が可能になる.文単位での機械翻訳の評価手法には,ある機械翻訳システムの翻訳文に対して他のシステムの翻訳文と比較して相対的に評価する手法と,翻訳文の品質を絶対的に評価する手法がある.本研究では,機械翻訳システムの文単位での定性的な分析,つまり,評価対象の機械翻訳システムがどのような文に対してどの程度の品質で翻訳できるのかについての分析を可能にするため,各翻訳文に対して絶対的な自動評価を行う.本研究では,人手評価に近い絶対評価ができる手法を信頼性の高い自動評価であると捉え,その信頼性に基づいて各評価手法の性能比較や分析を行う.機械翻訳に関する国際会議ConferenceonMachineTranslation(WMT)\footnote{https://aclanthology.info/venues/wmt}では,機械翻訳自動評価手法の人手評価との相関を競うMetricsSharedTaskが開催されており,これまでに多くの手法が提案されてきた.しかし,現在のデファクトスタンダードであるBLEU\cite{papineni-2002}をはじめとして,ほとんどの機械翻訳自動評価手法は文字$N$-gramや単語$N$-gramなどの局所的な素性を利用しており,文単位での評価にとっては限定的な情報しか扱えていない.また,大域的な情報を考慮するために文の分散表現を用いた手法も存在するが,人手評価値付きのデータセットなどの比較的少量の教師ありデータのみを用いてモデル全体を学習するため,十分な性能を示せていない.そこで本研究では,局所的な素性に基づく従来手法では扱えない大域的な情報を考慮するために,大規模コーパスによって事前学習された文の分散表現を用いる機械翻訳自動評価手法を提案する.我々の提案手法は,(a)~翻訳文と参照文を独立に符号化する手法と,(b)~翻訳文と参照文を同時に符号化する手法に大別できる.これらの2つの提案手法は,大規模コーパスによって事前学習された文の分散表現を素性として利用し,人手評価値付きのデータセット上で訓練された回帰モデルによって機械翻訳の自動評価を行うという点で共通している.我々はまず,事前学習された文の分散表現を用いた機械翻訳自動評価のための回帰モデルRUSE\footnote{https://github.com/Shi-ma/RUSE}(RegressorUsingSentenceEmbeddings)(図~\ref{fig:ruse_bert}(a))を提案する.WMT-2017MetricsSharedTask\cite{bojar-2017}のデータセットにおける実験の結果,RUSEは文単位の全てのto-English言語対で従来手法よりも高い性能を示した.この結果は,事前学習された文の分散表現が機械翻訳の自動評価にとって有用な素性であることを示す.\begin{figure}[t]\begin{center}\includegraphics[scale=1.1]{26-3ia3f1.eps}\end{center}\caption{各手法の概要.散点部は訓練し,横線部は固定する.}\label{fig:ruse_bert}\end{figure}我々は続いて,文および文対の符号化器であるBERTによる機械翻訳自動評価手法(図~\ref{fig:ruse_bert}(b))を提案する.BERT(BidirectionalEncoderRepresentationsfromTransformers)\cite{devlin-2019}は,大規模な生コーパスを用いて双方向言語モデルおよび隣接文推定の事前学習を行った上でタスクに応じた再訓練を行い,多くの自然言語処理タスクで最高性能を更新している.我々は,WMTMetricsSharedTaskの人手評価値付きデータセットを用いて再訓練することで,BERTによる機械翻訳自動評価を可能にした.WMT-2017MetricsSharedTaskのデータセットにおける実験の結果,BERTによる機械翻訳自動評価は文単位の全てのto-English言語対でRUSEを凌ぎ,最高性能を更新した.詳細な分析の結果,RUSEとの主な相違点である事前学習の方法,文対モデリング,符号化器の再訓練の3点が,それぞれBERTによる機械翻訳自動評価における性能改善に貢献していることが明らかになった.本研究の主な貢献は以下の3つである.\begin{itemize}\item事前学習された文の分散表現に基づく機械翻訳自動評価手法RUSEを提案し,事前学習された文の分散表現が機械翻訳の自動評価において有用な素性であることを示した.\item同じく事前学習された文の分散表現に基づくBERTによる機械翻訳の自動評価を行い,WMT-2017MetricsSharedTaskのデータセットを用いる実験において,文単位の全てのto-English言語対で最高性能を更新した.\itemRUSEとBERTによる機械翻訳自動評価の比較に基づく詳細な分析により,BERTの事前学習の方法,文対モデリング,符号化器の再訓練の3点が,それぞれ機械翻訳の自動評価における性能改善に貢献していることを明らかにした.\end{itemize}本稿の構成を示す.2節では,まず機械翻訳の人手評価について説明し,続いて機械翻訳自動評価手法の関連研究について概説する.3節では,事前学習された文の分散表現に基づくRUSEおよびBERTによる機械翻訳の自動評価手法を提案する.4節では,WMTMetricsSharedTaskの人手評価値付きデータセットを用いて,提案手法の評価実験を行う.5節では,訓練データの文対数と性能の関係やfrom-English言語対における性能について分析する.最後に6節で,本研究のまとめを述べる. \section{関連研究} \label{sec:related_works}本節では,まず機械翻訳の人手評価について説明し,続いて機械翻訳自動評価手法の関連研究について概説する.自動評価については,人手評価値付きのデータセットを用いて訓練する手法を教師あり手法,訓練しない手法を教師なし手法として分けて説明する.\subsection{機械翻訳の人手評価}\label{sub:human_evaluation}機械翻訳に関する国際会議WMTでは,機械翻訳システムの性能を競うNewsTranslationSharedTaskが開催されており,各システムの翻訳文を研究者やクラウドソーシングによって人手評価してきた.WMTにおける機械翻訳の人手評価としては,各翻訳文に対する相対評価(RR:RelativeRanking)\cite{bojar-2016a}と絶対評価(DA:DirectAssessment)\cite{graham-2013,graham-2014,graham-2017}が行われてきた.人手の相対評価では,ある原文と参照文に対して複数の機械翻訳システムによる翻訳文が与えられ,各翻訳文を順位付けする.しかし,このような相対評価では異なる原文に対する翻訳文同士の品質を比較できないという問題が存在する.そのため,WMT-2016\cite{bojar-2016b}からは人手の絶対評価が行われ始めた\footnote{WMTにおいて,人手の絶対評価が採用され始めたのはWMT-2016NewsTranslationSharedTaskからであるが,WMT-2016MetricsSharedTaskでは訓練用のデータセットとしてWMT-2015NewsTranslationSharedTask\cite{stanojevic-2015b}における翻訳文と参照文に対して人手で付与した絶対評価値付きデータセットが公開されている.}.人手の絶対評価では,ある原文と参照文に対して単一の機械翻訳システムによる翻訳文が与えられ,各翻訳文に妥当性や流暢性についての品質スコアを付与する.WMTの人手評価では,原文は考慮せず,翻訳文と参照文の比較のみによって各翻訳文の妥当性や流暢性について絶対的な評価を行っている.ここでの翻訳文の妥当性とは,参照文との意味的な類似度のことであり,機械翻訳におけるターゲット言語側の単言語の評価タスクとなっている.WMTNewsTranslationSharedTaskにおける妥当性や流暢性の人手評価値の収集は下記の手順で行われる.\begin{enumerate}\itemWMTNewsTranslationSharedTaskに参加した機械翻訳システムの翻訳文とそれに対応する参照文の対が100文対ずつ無作為抽出され,各評価者に割り振られる.\item各評価者は,翻訳文と参照文を比較し,0〜100のアナログスケールにより各翻訳文の妥当性や流暢性を評価する.\item品質管理\cite{graham-2014}により,質の低い評価者による評価値を排除する.\item評価者ごとのスコアの偏りを均質化するため,評価者ごとに平均が0,標準偏差が1となるようにz-scoreを用いて評価値を標準化する.\item複数の評価者による標準化された評価値を平均し,最終的な評価値とする.\end{enumerate}WMTMetricsSharedTaskでは,上記の方法で収集されたデータセットの中から妥当性についての質の高いデータ\footnote{評価者15人以上によって評価された翻訳文と参照文の対\cite{graham-2015}}を各言語対ごとに無作為抽出することにより,人手の絶対評価値付きデータセットを作成している.本研究では,この人手による妥当性についての絶対評価値付きデータセットを用いて,提案手法を訓練および評価する.\subsection{機械翻訳の自動評価のための教師なし手法}\label{sub:unsupervised}機械翻訳の自動評価におけるデファクトスタンダードであるBLEU\cite{papineni-2002}は,単語$N$-gramの一致率に基づくシステム単位の教師なし手法である.文単位での評価のためには,平滑化されたSentBLEU\footnote{https://github.com/moses-smt/mosesdecoder/blob/master/scripts/generic/mteval-v13a.pl}が用いられる.SentBLEUは,WMTMetricsSharedTaskにおけるベースラインとして利用されている.AM-FM\cite{banchs-2015}は,機械翻訳自動評価のために文の分散表現を用いる教師なし手法であり,妥当性に基づく評価手法であるAdequacyMetric(AM)と流暢性に基づく評価手法であるFluencyMetric(FM)の調和平均を最終的な翻訳文の評価値とする.妥当性を評価するAMでは,潜在的意味インデキシング(LSI)により得られる,参照文と翻訳文の各分散表現間のコサイン類似度に基づいて翻訳文を評価する.流暢性を求めるFMでは,$N$-gram言語モデルに基づいて翻訳文を評価する.chrF\footnote{https://github.com/m-popovic/chrF}\cite{popovic-2015}は,文字$N$-gramのF値に基づく手法である.また,chrF+およびchrF++\cite{popovic-2017}は,文字$N$-gramとともに単語$N$-gramのF値も考慮する.これらの手法は,WMT-2016\cite{bojar-2016b}以降のMetricsSharedTaskにおいて文単位のfrom-English言語対で常に高い性能を示している.MEANT~2.0\footnote{http://chikiu-jackie-lo.org/home/index.php/meant}\cite{lo-2017}は,逆文書頻度で重み付けされた単語$N$-gram,単語分散表現に基づく単語類似度および意味役割付与(SRL)に基づく構文類似度を用いる手法である.SRLを利用できない言語においては,MEANT~2.0-nosrlを適用することができる.MEANT~2.0はWMT-2017MetricsSharedTaskにおいて,文単位のto-English言語対で高い性能を示しており,教師なし手法の中では最も高い性能を示している.また,MEANT~2.0-nosrlはWMT-2017MetricsSharedTaskにおいて,文単位のfrom-English言語対で最高性能を示している.これらの教師なし手法は,多くの言語対において一貫した評価ができるという利点を持つ.しかし,評価値のラベル付きデータが比較的多く存在するto-English言語対においては,教師あり手法がより高い性能を示している.我々は,to-English言語対を主な対象として,より人手評価に近い絶対評価ができる教師あり手法を提案する.\subsection{機械翻訳の自動評価のための教師あり手法}\label{sub:supervised}BEER\footnote{https://github.com/stanojevic/beer}\cite{stanojevic-2015a}は,文字$N$-gramの一致率を素性として人手の相対評価値付きデータセット上で訓練を行う教師あり手法である.この手法は,WMT-2017のMetricsSharedTaskにおいて,文単位のfrom-English言語対で高い性能を示している.Blend\footnote{https://github.com/qingsongma/blend}\cite{ma-2017}は,機械翻訳の自動評価用ツールキットAsiya\footnote{http://asiya.lsi.upc.edu}\cite{PBML_Asiya:2010}の基本25素性に先述のBEERなど4種類の他の機械翻訳自動評価手法\cite{stanojevic-2015a,wang-2016,yu-2015a,yu-2015b}を組み合わせたアンサンブル手法であり,人手の絶対評価値付きデータセット上で訓練する教師あり手法である.この手法は,WMT-2017MetricsSharedTaskにおいて,文単位のto-English言語対で最高性能を達成している.Blendは多くの素性を用いる手法であるが,文字単位の編集距離や単語$N$-gramに基づく素性など,文全体を同時に考慮できない局所的な情報のみに頼っている.本研究では,これらの教師あり学習に基づく従来手法では扱えない大域的な情報を考慮する手法を提案する.\subsection{機械翻訳の自動評価のための大域的な素性に基づく教師あり手法}\label{sub:reval}文全体の大域的な情報を考慮する手法として,文の分散表現に基づくReVal\footnote{https://github.com/rohitguptacs/ReVal}\cite{gupta-2015}がある.ReValはWMTMetricsSharedTaskおよび文対の意味的類似度推定タスク\cite{marelli-2014}における人手の相対評価値付きデータセット上でTree-LSTM\cite{tai-2015}によって文の分散表現を学習する.しかし,小規模なラベル付きコーパスのみを用いるため十分な性能を達成できていない\cite{bojar-2016b}.本研究では,大規模な生コーパス上で事前学習された文の分散表現を利用することで,文単位での表現学習における少資源問題を克服する. \section{事前学習された文の分散表現を用いた機械翻訳の自動評価} \label{sec:ruse}従来手法に多く見られる文字や単語の$N$-gram素性に基づく機械翻訳自動評価手法には,文全体の大域的な情報を考慮できないため,参照文と表層的には異なるが意味的には似ている翻訳文に対して正確な評価ができないという問題がある.一方で,\ref{sub:reval}節で説明したReValは文の分散表現を用いて大域的な情報を考慮するが,WMTMetricsSharedTaskのデータセットなどの小規模なラベル付きコーパスのみを用いてモデル全体を訓練するため,文単位での十分な表現学習ができていない.そこで本研究では,大域的な情報を考慮する際の少資源問題を解決するために,事前学習された文の分散表現に基づく機械翻訳自動評価手法を提案する.我々の提案手法は,RUSEとBERTによる機械翻訳自動評価の2つである.まず\ref{sub:ruse}節では,文の分散表現を用いた機械翻訳自動評価のための回帰モデルであるRUSEについて説明する.次に\ref{sub:bert}節では,文対を同時に符号化するBERTによる機械翻訳自動評価について説明する.\subsection{RUSE:文の分散表現を用いた機械翻訳自動評価のための回帰モデル}\label{sub:ruse}本節では,事前学習された文の分散表現を素性とする回帰モデルRUSE(RegressorUsingSentenceEmbeddings)について説明する.まず\ref{subsub:sentence_embeddings}節では,RUSEで使用する3種類の文の分散表現について説明する.続いて\ref{subsub:ruse_regressor}節では,機械翻訳自動評価のための回帰モデルおよび素性抽出について述べる.\subsubsection{事前学習された文の分散表現}\label{subsub:sentence_embeddings}大規模なコーパスを用いて事前学習された文の分散表現は,文書分類や文対の意味的類似度推定など多くの応用タスク\cite{conneau-2018}において高い性能を発揮している.本研究では,教師あり学習に基づくInferSent\cite{conneau-2017},教師なし学習に基づくQuickThought\cite{logeswaran-2018}およびマルチタスク学習に基づくUniversalSentenceEncoder\cite{cer-2018}の3手法を用いて文全体の大域的な情報を考慮する.InferSent\footnote{https://github.com/facebookresearch/InferSent}は,含意関係認識のためのStanfordNaturalLanguageInference(SNLI)データセット\cite{bowman-2015}上でMax-poolingを用いた双方向LSTMネットワークを訓練する教師あり学習に基づく手法である.図~\ref{fig:infersent}に示すように,文$u$および$v$をそれぞれ符号化し,それらの分散表現$\vec{u}$および$\vec{v}$から素性を抽出し,含意関係認識の3値分類を通して文の符号化器を学習する.含意関係認識とは,所与の文対の関係を含意/矛盾/中立に3値分類するタスクであり,意味の違いに敏感な文の分散表現が得られると期待できる.QuickThought\footnote{https://github.com/lajanugen/S2V}は,大規模な生コーパス上で双方向GRUネットワークを用いて隣接文推定することにより,教師なしで文の表現学習を行う手法である.図~\ref{fig:quick-thought}に示すように,文$i$,その文脈$t$,その他の文(対比文)$c_1,c_2,...,c_k$が与えられ,2種類の文の符号化器$f$および$g$がそれぞれ文を符号化する.そして,入力文の分散表現$\vec{i}$との最大の内積値を持つ分散表現に対応する文を隣接文として推定する分類器を用いて,隣接文推定の学習を行う.応用タスクでは,所与の文を2つの符号化器$f$および$g$を用いてそれぞれ符号化し,各符号化器から得られる分散表現を連結することによって文の分散表現を獲得する.隣接文推定タスクを通して文の符号化器を学習することによって,文対の関係を考慮した分散表現が得られると期待できる.\begin{figure}[t]\noindent\begin{minipage}[b]{158pt}\begin{center}\includegraphics[scale=1.1]{26-3ia3f2.eps}\end{center}\caption{InferSentの概要図}\label{fig:infersent}\end{minipage}\begin{minipage}[b]{260pt}\begin{center}\includegraphics[scale=1.1]{26-3ia3f3.eps}\end{center}\caption{QuickThoughtの概要図}\label{fig:quick-thought}\end{minipage}\end{figure}UniversalSentenceEncoder\footnote{https://www.tensorflow.org/hub/modules/google/universal-sentence-encoder-large/2}は,復号器を用いるSkip-Thought\cite{kiros-2015}のような隣接文推定,発話応答推定および含意関係認識の3タスクを用いて自己注意機構に基づくネットワーク\cite{vaswani-2017}をマルチタスク学習する手法である.UniversalSentenceEncoderでは隣接文推定や発話応答推定のための訓練データとして,Wikipedia,ニュース,QAサイト,議論サイトなどの多様なWebソースを用いる.多様なドメインのコーパスに基づくマルチタスク学習によって,幅広い応用タスクにおいて有用な文の分散表現が得られると期待できる.\subsubsection{機械翻訳自動評価のための回帰モデルと素性抽出}\label{subsub:ruse_regressor}機械翻訳の自動評価は,翻訳文と参照文から翻訳文の人手評価値を推定する回帰タスクとして考えることができる.そこでRUSE(図~\ref{fig:ruse_bert}(a))は,所与の翻訳文$t$と参照文$r$から\ref{subsub:sentence_embeddings}節の符号化器を用いて分散表現$\vec{t}$および$\vec{r}$を獲得し,InferSent\cite{conneau-2017}にならって以下の3つの方法で翻訳文と参照文の関係を抽出し,それら3つを連結したものを素性として多層パーセプトロン(MLP)に基づく回帰モデルを訓練する.\begin{itemize}\item連結:$(\vec{t},\vec{r})$\item要素積:$\vec{t}*\vec{r}$\item要素差:$|\vec{t}-\vec{r}|$\end{itemize}回帰モデルには,これらの3種類の素性を連結した4$d$次元の素性が入力される.\pagebreakただし,$d$は分散表現$\vec{t}$および$\vec{r}$の次元数である.RUSEでは回帰モデルのみを学習し,文の符号化器の再訓練は行わない.\subsection{BERTによる機械翻訳自動評価}\label{sub:bert}文および文対単位の表現学習モデルであるBERT(BidirectionalEncoderRepresentationsfromTransformers)\cite{devlin-2019}が,文対の意味的類似度推定など多くのタスクで最高性能を更新し,注目を集めている.本節では,BERTを用いて機械翻訳の自動評価を行う.BERTによる機械翻訳の自動評価はRUSEと同じく,事前学習された文の分散表現を利用し,MLPによって人手評価値を推定する.ただし,図~\ref{fig:ruse_bert}(b)に示すように,BERTによる機械翻訳の自動評価では翻訳文と参照文の両方を文対の符号化器で同時に符号化する.以下では,RUSEとの主な相違点でありBERTによる機械翻訳自動評価の特徴である,事前学習の方法,文対モデリング,符号化器の再訓練について詳細に説明する.\subsubsection{BERTにおける事前学習}\label{subsub:bert_pre-train}BERTは,大規模な生コーパス上で双方向の自己注意機構に基づくネットワーク\cite{vaswani-2017}を用いて,以下の2種類の教師なし事前学習を同時に行う.\paragraph{双方向言語モデル:}生コーパスの一部のトークンを[MASK]トークンに置換した上で,双方向の言語モデルによって元のトークンを推定する.この教師なしの事前学習によって,BERTの符号化器は文内におけるトークン間の関係を学習する.\paragraph{隣接文推定:}生コーパスの一部の文を無作為に他の文に置換した上で,連続する2文が隣接していた文対か否かを2値分類する.この教師なしの事前学習によって,BERTの符号化器は文対の関係を学習する.\subsubsection{BERTにおける文対モデリング}\label{subsub:bert_sentence-pair_encoding}BERTでは,隣接文推定や含意関係認識などの文対を扱うタスクのために,各文を独立に符号化するのではなく,文対を同時に符号化する.文対に含まれる各文は,入力系列の先頭に一度のみ追加される[CLS]トークンおよび各文末に追加される[SEP]トークンによって区別される(図~\ref{fig:bert_input}).最終的に,[CLS]トークンに対応する最終の隠れ層が,文対の分散表現を表す\footnote{極性分類などの単一文を扱うタスクのために,文対ではなく文を符号化することもできる.この場合,文頭と文末に[CLS]トークンと[SEP]トークンが一度ずつ追加され,[CLS]に対応する最終の隠れ層が文の分散表現を表す.}.\subsubsection{BERTにおける符号化器の再訓練}\label{subsub:bert_fine-tuning}BERTでは,符号化器で文または文対の分散表現を得た後,それを入力としてMLPによって分類や回帰などの応用タスクを解く.なお,応用タスクのラベル付きデータを用いてMLPを訓練する際,文または文対の分散表現を得るための符号化器も再訓練する.\begin{figure}[b]\begin{center}\includegraphics{26-3ia3f4.eps}\end{center}\caption{BERTの文対モデリング($u$,$v$:入力トークン,$T,T'$:各入力トークンに対する分散表現)}\label{fig:bert_input}\end{figure} \section{評価実験} \label{sec:experiment_wmt17}本節では,WMTMetricsSharedTaskにおける人手の絶対評価値付きデータセットを用いて,文単位のto-English言語対における提案手法の有効性を検証する.\begin{table}[b]\caption{WMTMetricsSharedTaskのto-English言語対における人手の絶対評価値付き文対数}\label{tab:dataset_da}\input{03table01.tex}\end{table}\subsection{実験設定}\label{sub:settings_wmt17}表~\ref{tab:dataset_da}に,\ref{sub:human_evaluation}節の手順により作成された人手の絶対評価値付きデータセットの言語対\footnote{en:英語,cs:チェコ語,de:ドイツ語,fi:フィンランド語,ro:ルーマニア語,ru:ロシア語,tr:トルコ語,lv:ラトビア語,zh:中国語}ごとの文対数を示す.これらのデータセットにおける人手の絶対評価値は,約$-1.95$〜約$1.65$の実数値で示されている.本実験では,WMT-2015\cite{stanojevic-2015b}およびWMT-2016\cite{bojar-2016b}の合計5,360文対を無作為に分割し,9割を訓練用,1割を開発用に利用する.また,WMT-2017\cite{bojar-2017}の文対は評価用に利用する.RUSEの素性には,それぞれ著者らによって公開されている学習済みのInferSent,QuickThoughtおよびUniversalSentenceEncoderを用いて文の分散表現を得る.BERTには,著者らによって公開されている訓練済みモデルのうち,BERT$_\text{BASE}$(uncased)\footnote{https://github.com/google-research/bert}を用いる.各自動評価手法のメタ評価のために,人手の絶対評価値とのピアソンの積率相関係数,スピアマンの順位相関係数および平均2乗誤差を用いる.ピアソンの積率相関係数は,WMTMetricsSharedTaskで用いられており,各手法が出力する評価値の絶対的なメタ評価ができる指標である.しかし,ピアソンの積率相関係数は外れ値が存在した場合に不当な値を示すという問題が存在するため,本実験ではスピアマンの順位相関係数によるメタ評価も行う.また本研究では,機械翻訳の自動評価を回帰問題として扱っているため,各自動評価手法がどれほど人手の評価値に近い値を出力しているかについても評価したい.そのため,本タスクを回帰問題として扱っているBlend,RUSEおよびBERTについては,人手の評価値と各手法の評価値の平均2乗誤差によるメタ評価も行う.\subsection{比較手法}\label{sub:metrics_wmt17}本実験では,WMT-2017MetricsSharedTaskにおけるベースラインであるSentBLEUおよび上位3手法を提案手法と比較する.比較手法のメタ評価には,WMT-2017MetricsSharedTask\footnote{http://www.statmt.org/wmt17/results.html}で公開されている各手法の評価値を利用した.提案手法については,事前学習された文の分散表現による貢献を明らかにするため,RUSEの素性として単語分散表現の平均ベクトルを用いた実験も行う.RUSEとBERTによる機械翻訳自動評価を比較するため,最終的に以下の7つの設定で実験した.\paragraph{RUSEwithGloVe-BoW:}図~\ref{fig:ruse_bert}(a)の文の分散表現として,単語分散表現GloVe\cite{pennington-2014}(glove.840B.300d\footnote{https://nlp.stanford.edu/projects/glove})の平均ベクトルを用いる.この300次元のベクトルを文の分散表現として,\ref{subsub:ruse_regressor}節の方法で素性を抽出する.\paragraph{RUSEwithIS:}SNLIデータセット\cite{bowman-2015}の56万文およびMultiNLIデータセット\cite{williams-2018}の約43万文の両方を用いて事前学習されたInferSentによって4,096次元の文の分散表現を獲得し,\ref{subsub:ruse_regressor}節の方法で素性を抽出する.\paragraph{RUSEwithQT:}BookCorpusデータセット\cite{Zhu-2015}の4,500万文およびUMBCWebBase\cite{han-2013}の約1億3,000万文の両方を用いて事前学習されたQuickThoughtによって4,800次元の文の分散表現を獲得し,\ref{subsub:ruse_regressor}節の方法で素性を抽出する.\paragraph{RUSEwithUSE:}Wikipedia,ニュース,QAサイト,議論サイトなどの多様なWebソースを用いて事前学習されたUniversalSentenceEncoderによって512次元の文の分散表現を獲得し,\ref{subsub:ruse_regressor}節の方法で素性を抽出する.\paragraph{RUSEwithBERT:}単一文を入力とするBERTの[CLS]トークンに対応する隠れ層のうち,最終4層を連結したものを3,072次元の文の分散表現として\ref{subsub:ruse_regressor}節の方法で素性を抽出する.ただし,BERTの符号化器の部分は再訓練しない.\paragraph{BERT(w/ofine-tuning):}文対を入力とするBERTの[CLS]トークンに対応する隠れ層のうち最終4層を連結したもの(3,072次元)を,図~\ref{fig:ruse_bert}(b)のMLPの入力として用いる.ただし,BERTの符号化器の部分は再訓練しない.\paragraph{BERT:}文対を入力とするBERTの[CLS]トークンに対応する最終隠れ層(768次元)を図~\ref{fig:ruse_bert}(b)のMLPの入力として用い,MLPとともにBERTの符号化器の部分も再訓練する.RUSEとBERT(w/ofine-tuning)の各パラメータは,以下の組み合わせの中からグリッドサーチにより,開発データにおける平均2乗誤差が最も小さいモデルを選択する.なお,全ての層において活性化関数はReLUを使用する.\begin{itemize}\item$バッチサイズ\in\{64,128,256,512,1024\}$\item$学習率(\text{Adam})\in\{\text{1e-3}\}$\item$エポック数\in\{1,2,...,30\}$\item$\text{ドロップアウト率}\in\{0.1,0.3,0.5\}$\item$\text{MLPの隠れ層の数}\in\{1,2,3\}$\item$\text{MLPの隠れ層の次元}\in\{512,1024,2048,4096\}$\end{itemize}BERTの各パラメータは,著者らによって提唱されている組み合わせの中からグリッドサーチにより,開発データにおける平均2乗誤差が最も小さいモデルを選択する.\begin{table}[b]\caption{WMT-2017MetricsSharedTask(to-English言語対)におけるピアソンの積率相関係数}\label{tab:experiment_wmt17_pearson}\input{03table02.tex}\end{table}\subsection{実験結果}\label{sub:results_wmt17}表~\ref{tab:experiment_wmt17_pearson},表~\ref{tab:experiment_wmt17_spearman}および表~\ref{tab:experiment_wmt17_mse}にWMT-2017MetricsSharedTaskにおける実験結果を示す.表~\ref{tab:experiment_wmt17_pearson}および表~\ref{tab:experiment_wmt17_spearman}より,BERTが全てのto-English言語対において人手評価との最高の相関を示す.同様に,表~\ref{tab:experiment_wmt17_mse}より,BERTがzh-en以外の言語対で最小の誤差を示す.これらの結果は,文対を同時に符号化する表現学習モデルであるBERTが機械翻訳自動評価タスクにおいても有効であることを示す.\begin{table}[t]\caption{WMT-2017MetricsSharedTask(to-English言語対)におけるスピアマンの順位相関係数}\label{tab:experiment_wmt17_spearman}\input{03table03.tex}\end{table}\begin{table}[t]\caption{WMT-2017MetricsSharedTask(to-English言語対)における平均2乗誤差}\label{tab:experiment_wmt17_mse}\input{03table04.tex}\end{table}各表の下段を比較すると,事前学習された文の分散表現を素性として用いた全てのRUSEモデルが,単語分散表現の平均ベクトルを素性として用いたRUSEwithGloVe-BoWよりも高い相関および小さな誤差を示していることがわかる.これらの結果は,文全体の大域的な情報を考慮できる文の分散表現に基づく素性が,機械翻訳自動評価にとって有用であることを意味する.また,QuickThoughtやBERTの素性を用いるRUSEwithQTおよびRUSEwithBERTが,単一の符号化器に基づく提案手法の中でも特に高い性能を示した.このことから,隣接文推定の教師なし学習によって得られる文の分散表現が,機械翻訳の評価において特に有効であると考えられる.UniversalSentenceEncoderもマルチタスク学習の一部として隣接文推定を行っているが,これはQuickThoughtやBERTにおける隣接文推定とは設定が異なる.QuickThoughtやBERTにおける隣接文推定では,符号化器と単純な分類器を用いて文対が隣接するか否かを分類する.一方でUniversalSentenceEncoderにおける隣接文推定では,符号化器と復号器を用いて入力文から隣接文を生成する.そのため,前者はタスクを解くための情報を符号化器が獲得するが,後者は符号化器と復号器の両方にタスクを解くための情報が散在すると考えられる.この違いのために,QuickThoughtやBERTが有用性の高い文の分散表現を獲得できた.さらに,隣接文推定のみによって事前学習されたRUSEwithQuickThoughtよりも,双方向言語モデルと隣接文推定の両方によって事前学習されたRUSEwithBERTの方が,多くの言語対において高い性能を示していることがわかる.このことから,BERTの符号化器における事前学習の方法による性能への影響がわかる.つまり,BERTの大きな特徴のひとつである双方向言語モデルによる事前学習は,機械翻訳の自動評価のためにも有効であると考えられる.RUSEwithBERTとBERT(w/ofine-tuning)を比較すると,BERTの文対モデリングによる性能への影響がわかる.多くの言語対において,翻訳文と参照文を独立に符号化する前者よりも,同時に符号化する後者の方が高い性能を持つ.RUSEでは,InferSentにならって2つの文の分散表現を組み合わせる素性抽出を行ったが,これが機械翻訳の自動評価に適した素性抽出の方法であるとは限らない.一方で,BERTの文対モデリングは,素性抽出を陽に行うことなく文対の関係を考慮した分散表現を得ている.BERTでは隣接文推定による事前学習の際に,上手く文対の関係を学習できている可能性がある.BERT(w/ofine-tuning)とBERTを比較すると,符号化器の再訓練による性能への影響がわかる.事前学習された文対の符号化器から素性抽出を行いMLPのみを訓練するBERT(w/ofine-tuning)よりも,文対の分散表現を素性としMLPとともに符号化器を再訓練するBERTの方が,全ての言語対において大幅に高い相関を示し,zh-en以外の言語対で最小の誤差を示す.つまり,BERTの大きな特徴のひとつである符号化器の再訓練は,機械翻訳の自動評価のためにも有効である. \section{分析} \label{sec:analysis}\subsection{訓練データの文対数と性能の関係}\label{sub:larning_curve}本節では,WMT-2017のlv-en言語対の560文対を評価用データとして,RUSEとBERTについて訓練データの文対数と性能の関係を分析する.WMT-2015,WMT-2016およびWMT-2017のlv-en言語対以外の合計8,720文対を無作為に分割し,8,160文対を訓練用,560文対を開発用に利用する.そして,訓練用データを510文対,1,020文対,2,040文対,4,080文対,8,160文対の5つの大きさでそれぞれ無作為抽出し,開発用データと評価用データにおける人手評価値とのピアソンの積率相関係数,スピアマンの順位相関係数および平均2乗誤差を評価する.RUSEの素性には\ref{sub:settings_wmt17}節で述べたQuickThoughtを用いる.RUSEの各パラメータは\ref{sub:settings_wmt17}節の組み合わせの中からグリッドサーチにより,開発データにおける平均2乗誤差が最も小さいモデルを選択するが,バッチサイズのみ以下に変更した.\begin{itemize}\item$バッチサイズ\in\{16,32,64,128,256,512,1024\}$\end{itemize}BERTの各パラメータは,著者らによって提唱されている組み合わせの中からグリッドサーチにより,開発データにおける平均2乗誤差が最も小さいモデルを選択するが,バッチサイズとエポック数のみ以下に変更した.\begin{itemize}\item$バッチサイズ\in\{8,16,32\}$\item$エポック数\in\{1,2,...,6\}$\end{itemize}\begin{figure}[b]\begin{center}\includegraphics{26-3ia3f5.eps}\end{center}\caption{RUSE(左)とBERT(右)における学習曲線(人手評価とのピアソンの積率相関係数)}\label{fig:LC_pearson}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{26-3ia3f6.eps}\end{center}\caption{RUSE(左)とBERT(右)における学習曲線(人手評価とのスピアマンの順位相関係数)}\label{fig:LC_spearman}\end{figure}図~\ref{fig:LC_pearson},図~\ref{fig:LC_spearman}および図~\ref{fig:LC_mse}に,RUSEとBERTのピアソンの積率相関係数,スピアマンの順位相関係数および平均二乗誤差に対する学習曲線をそれぞれ示す.RUSEの学習曲線およびBERTの学習曲線において,訓練データ数が510文対の場合と8,160文対の場合では評価時のピアソンの積率相関係数およびスピアマンの順位相関係数に約0.1の差があり,評価時の平均2乗誤差には約0.05以上の差がある.このことから,RUSEおよびBERTによる機械翻訳自動評価の両手法において,訓練データ数による性能の変化が大きいことがわかる.また,図~\ref{fig:LC_pearson}と図~\ref{fig:LC_spearman}および図~\ref{fig:LC_mse}より,BERTによる機械翻訳自動評価は訓練データ数が510文対の場合でも,RUSEの8,160文対の訓練データ数での性能を上回っていることがわかる.510文対のデータで訓練されたBERTによる機械翻訳自動評価の性能は,表\ref{tab:experiment_wmt17_pearson}と表\ref{tab:experiment_wmt17_spearman}および表\ref{tab:experiment_wmt17_mse}におけるいずれの比較手法よりも同等もしくは高い性能を示している.以上の分析から,BERTは少量のラベル付きコーパスを用いる訓練でも高い性能を発揮することがわかり,訓練データ数を増やすことが可能であれば,更に信頼性の高い機械翻訳自動評価手法になると考えられる.\begin{figure}[t]\begin{center}\includegraphics{26-3ia3f7.eps}\end{center}\caption{RUSE(左)とBERT(右)における学習曲線(人手評価との平均2乗誤差)}\label{fig:LC_mse}\end{figure}\subsection{from-English言語対における性能}\label{sub:from-english}本節では,to-English言語対以外の設定として,from-English言語対の中で最も多くのラベル付きコーパスが存在するen-ru言語対における性能を調査する.WMT-2015の500文対およびWMT-2016の560文対の合計1,060文対を無作為に分割し,9割を訓練用,1割を開発用に利用する.評価用には,WMT-2017の560文対を用いる.RUSEの素性には,ロシア語のWikipedia上で事前学習したQuickThoughtを用いる.RUSEの各パラメータは\ref{sub:settings_wmt17}節の組み合わせの中からグリッドサーチにより,開発データにおける平均2乗誤差が最も小さいモデルを選択するが,バッチサイズとMLPの隠れ層の次元のみ以下に変更した.\begin{itemize}\item$バッチサイズ\in\{16,32,64,128,256\}$\item$\text{MLPの隠れ層の次元}\in\{128,256,512,1024,2048,4096\}$\end{itemize}BERTには,著者らによって公開されている多言語対応の訓練済みモデル(Multilingual,Cased)\footnote{https://github.com/google-research/bert/blob/master/multilingual.md}を用いる.BERTの各パラメータは,\ref{sub:larning_curve}節と同様に選択する.比較手法として,WMTMetricsSharedTaskのベースラインであるSentBLEU,WMT-2017MetricsSharedTaskにおける上位3手法である,chrF+\cite{popovic-2017},MEANT~2.0-nosrl\cite{lo-2017}およびBlend\cite{ma-2017}を用いる.\ref{sub:metrics_wmt17}節と同様に,各比較手法の公開されている評価値を用いて各比較手法のメタ評価を行った.人手評価値とのピアソンの積率相関係数,スピアマンの順位相関係数および平均2乗誤差によって各手法を評価する.評価の結果を表~\ref{tab:from-english}に示す.教師あり学習に基づくBlendとRUSEを比較すると,RUSEの方が高い性能を示しており,to-English言語対以外の設定においても事前学習された文の分散表現が機械翻訳の自動評価にとって有効な素性であると言える.しかし,RUSEは教師なし学習に基づくchrF+およびMEANT~2.0-nosrlの性能には及ばない.前節の分析から,RUSEは訓練データ数による性能の変化が大きいことが確認されており,en-ru言語対においても同様の理由で性能が低下していると考えられる.\begin{table}[t]\hangcaption{WMT-2017MetricsSharedTask(en-ru言語対)における人手による絶対評価とのピアソンの積率相関係数,スピアマンの順位相関係数および平均2乗誤差}\label{tab:from-english}\input{03table05.tex}\end{table}一方でBERTは,他の手法よりも大幅に高い性能を示している.同じく前節の分析から,BERTは少量のデータでも高い性能を発揮することが確認されており,en-ru言語対においても最高性能を達成した.このことからBERTは,少量のラベル付きコーパスが利用できれば,様々な言語対に対応した機械翻訳自動評価手法になると考えられる.\subsection{出力例}\label{output_examples}WMT-2017MetricsSharedTaskにおいて文単位のto-English言語対で最高性能を達成したBlendと,提案手法であるRUSEおよびBERTによる機械翻訳自動評価の出力を比較をする.人手評価値と各手法の評価値を比較するために,\ref{sub:larning_curve}節と同様にWMT-2017におけるlv-en言語対560文対に対する人手評価値および各手法の評価値を用いた.表~\ref{tab:examples}に,翻訳文と参照文に対する人手評価値および各手法の評価値を示す.成功例1において,参照文と語彙や構文は異なるが意味が似ている(人手評価値が高い)翻訳文に対して,Blendでは低い値をつけてしまっているのに対し,提案手法であるRUSEやBERTによる評価ではBlendより高い値を示しており,正しい評価が行えている.また,成功例2において,参照文と語彙や構文が似ているが意味が異なる(人手評価値が低い)翻訳文に対して,Blendでは高い値をつけてしまっているのに対し,RUSEやBERTによる評価では低い値を示しており,正しい評価が行えている.このことから,RUSEやBERTは,局所的な素性に基づく手法であるBlendでは扱えない大域的な情報を考慮した評価ができていると考えられる.\begin{table}[t]\caption{Blend,RUSEおよびBERTによる機械翻訳自動評価の出力例}\label{tab:examples}\input{03table06.tex}\end{table}失敗例には言い換えの問題があると考えられ,どの手法でも人手評価より低い値をつけてしまっている.Blendによる評価では,言い換えによる表層の不一致の影響により低い値がつけられていると考えられる.RUSEやBERTによる評価では,文全体の言い換えの関係を上手く捉えられていないため,低い値をつけてしまっていると考えられる. \section{おわりに} 本研究では,信頼性の高い文単位での絶対的な自動評価を行うため,事前学習された文の分散表現に基づく機械翻訳の自動評価手法を提案した.我々は,大規模な生コーパスを用いる隣接文推定や双方向言語モデルの教師なし事前学習によって,機械翻訳の自動評価のために有用な文の符号化器が得られることを示した.我々の提案手法は,局所的な素性に基づく従来手法では扱えない大域的な情報を考慮することができ,翻訳文と参照文の間の表層的な一致率にとらわれない正確な自動評価を可能にした.RUSEによる機械翻訳の自動評価では,WMT-2017MetricsSharedTaskの評価実験において,文単位のto-English言語対でどの従来手法よりも高い性能を示した.また,BERTによる機械翻訳の自動評価では,WMT-2017MetricsSharedTaskの評価実験において,文単位の全てのto-English言語対でRUSEを凌ぎ,最高性能を更新した.詳細な分析の結果,BERTによる機械翻訳の自動評価は,事前学習の方法,文対モデリング,符号化器の再訓練の3点がそれぞれ性能改善に貢献しており,少量のラベル付きコーパスのみを用いても高い性能を発揮することがわかった.\acknowledgment本研究の一部はJSPS科研費(研究活動スタート支援,課題番号:18H06465)の助成を受けたものです.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Banchs,D'Haro,\BBA\Li}{Banchset~al.}{2015}]{banchs-2015}Banchs,R.~E.,D'Haro,L.~F.,\BBA\Li,H.\BBOP2015\BBCP.\newblock\BBOQAdequacy-FluencyMetrics:EvaluatingMTintheContinuousSpaceModelFramework.\BBCQ\\newblock{\BemIEEE/ACMTransactionsonAudio,Speech,andLanguageProcessing},{\Bbf23}(3),\mbox{\BPGS\472--482}.\bibitem[\protect\BCAY{Bojar,Chatterjee,Federmann,Graham,Haddow,Huck,Jimeno~Yepes,Koehn,Logacheva,Monz,Negri,Neveol,Neves,Popel,Post,Rubino,Scarton,Specia,Turchi,Verspoor,\BBA\Zampieri}{Bojaret~al.}{2016}]{bojar-2016a}Bojar,O.,Chatterjee,R.,Federmann,C.,Graham,Y.,Haddow,B.,Huck,M.,Jimeno~Yepes,A.,Koehn,P.,Logacheva,V.,Monz,C.,Negri,M.,Neveol,A.,Neves,M.,Popel,M.,Post,M.,Rubino,R.,Scarton,C.,Specia,L.,Turchi,M.,Verspoor,K.,\BBA\Zampieri,M.\BBOP2016\BBCP.\newblock\BBOQFindingsofthe2016ConferenceonMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe1stConferenceonMachineTranslation},\mbox{\BPGS\131--198}.\bibitem[\protect\BCAY{Bojar,Graham,\BBA\Kamran}{Bojaret~al.}{2017}]{bojar-2017}Bojar,O.,Graham,Y.,\BBA\Kamran,A.\BBOP2017\BBCP.\newblock\BBOQResultsoftheWMT17MetricsSharedTask.\BBCQ\\newblockIn{\BemProceedingsofthe2ndConferenceonMachineTranslation},\mbox{\BPGS\489--513}.\bibitem[\protect\BCAY{Bojar,Graham,Kamran,\BBA\Stanojevi{\'{c}}}{Bojaret~al.}{2016}]{bojar-2016b}Bojar,O.,Graham,Y.,Kamran,A.,\BBA\Stanojevi{\'{c}},M.\BBOP2016\BBCP.\newblock\BBOQResultsoftheWMT16MetricsSharedTask.\BBCQ\\newblockIn{\BemProceedingsofthe1stConferenceonMachineTranslation},\mbox{\BPGS\199--231}.\bibitem[\protect\BCAY{Bowman,Angeli,Potts,\BBA\Manning}{Bowmanet~al.}{2015}]{bowman-2015}Bowman,S.~R.,Angeli,G.,Potts,C.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQALargeAnnotatedCorpusforLearningNaturalLanguageInference.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\632--642}.\bibitem[\protect\BCAY{Cer,Yang,Kong,Hua,Limtiaco,St.~John,Constant,Guajardo-Cespedes,Yuan,Tar,Strope,\BBA\Kurzweil}{Ceret~al.}{2018}]{cer-2018}Cer,D.,Yang,Y.,Kong,S.-y.,Hua,N.,Limtiaco,N.,St.~John,R.,Constant,N.,Guajardo-Cespedes,M.,Yuan,S.,Tar,C.,Strope,B.,\BBA\Kurzweil,R.\BBOP2018\BBCP.\newblock\BBOQUniversalSentenceEncoderforEnglish.\BBCQ\\newblockIn{\BemProceedingsofthe2018ConferenceonEmpiricalMethodsinNaturalLanguageProcessing:SystemDemonstrations},\mbox{\BPGS\169--174}.\bibitem[\protect\BCAY{Conneau\BBA\Kiela}{Conneau\BBA\Kiela}{2018}]{conneau-2018}Conneau,A.\BBACOMMA\\BBA\Kiela,D.\BBOP2018\BBCP.\newblock\BBOQSentEval:AnEvaluationToolkitforUniversalSentenceRepresentations.\BBCQ\\newblockIn{\BemProceedingsofthe11thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\1669--1704}.\bibitem[\protect\BCAY{Conneau,Kiela,Schwenk,Barrault,\BBA\Bordes}{Conneauet~al.}{2017}]{conneau-2017}Conneau,A.,Kiela,D.,Schwenk,H.,Barrault,L.,\BBA\Bordes,A.\BBOP2017\BBCP.\newblock\BBOQSupervisedLearningofUniversalSentenceRepresentationsfromNaturalLanguageInferenceData.\BBCQ\\newblockIn{\BemProceedingsofthe2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\670--680}.\bibitem[\protect\BCAY{Devlin,Chang,Lee,\BBA\Toutanova}{Devlinet~al.}{2019}]{devlin-2019}Devlin,J.,Chang,M.-W.,Lee,K.,\BBA\Toutanova,K.\BBOP2019\BBCP.\newblock\BBOQBERT:Pre-trainingofDeepBidirectionalTransformersforLanguageUnderstanding.\BBCQ\\newblockIn{\BemProceedingsofthe2019ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies,Volume1(LongandShortPapers)},\mbox{\BPGS\4171--4186}.\bibitem[\protect\BCAY{Gim{\'{e}}nez\BBA\M{\`{a}}rquez}{Gim{\'{e}}nez\BBA\M{\`{a}}rquez}{2010}]{PBML_Asiya:2010}Gim{\'{e}}nez,J.\BBACOMMA\\BBA\M{\`{a}}rquez,L.\BBOP2010\BBCP.\newblock\BBOQAsiya:~AnOpenToolkitforAutomaticMachineTranslation(Meta-)Evaluation.\BBCQ\\newblock{\BemThePragueBulletinofMathematicalLinguistics},{\Bbf94},\mbox{\BPGS\77--86}.\bibitem[\protect\BCAY{Graham,Baldwin,\BBA\Mathur}{Grahamet~al.}{2015}]{graham-2015}Graham,Y.,Baldwin,T.,\BBA\Mathur,N.\BBOP2015\BBCP.\newblock\BBOQAccurateEvaluationofSegment-levelMachineTranslationMetrics.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\1183--1191}.\bibitem[\protect\BCAY{Graham,Baldwin,Moffat,\BBA\Zobel}{Grahamet~al.}{2013}]{graham-2013}Graham,Y.,Baldwin,T.,Moffat,A.,\BBA\Zobel,J.\BBOP2013\BBCP.\newblock\BBOQContinuousMeasurementScalesinHumanEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe7thLinguisticAnnotationWorkshopandInteroperabilitywithDiscourse},\mbox{\BPGS\33--41}.\bibitem[\protect\BCAY{Graham,Baldwin,Moffat,\BBA\Zobel}{Grahamet~al.}{2014}]{graham-2014}Graham,Y.,Baldwin,T.,Moffat,A.,\BBA\Zobel,J.\BBOP2014\BBCP.\newblock\BBOQIsMachineTranslationGettingBetteroverTime?\BBCQ\\newblockIn{\BemProceedingsofthe14thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics2014},\mbox{\BPGS\443--451}.\bibitem[\protect\BCAY{Graham,Baldwin,Moffat,\BBA\Zobel}{Grahamet~al.}{2017}]{graham-2017}Graham,Y.,Baldwin,T.,Moffat,A.,\BBA\Zobel,J.\BBOP2017\BBCP.\newblock\BBOQCanMachineTranslationSystemsbeEvaluatedbytheCrowdAlone.\BBCQ\\newblock{\BemNaturalLanguageEngineering},{\Bbf23}(1),\mbox{\BPGS\3--30}.\bibitem[\protect\BCAY{Gupta,Orasan,\BBA\vanGenabith}{Guptaet~al.}{2015}]{gupta-2015}Gupta,R.,Orasan,C.,\BBA\vanGenabith,J.\BBOP2015\BBCP.\newblock\BBOQMachineTranslationEvaluationusingRecurrentNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe10thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\380--384}.\bibitem[\protect\BCAY{Han,L.~Kashyap,Finin,\mbox{Mayfield},\BBA\Weese}{Hanet~al.}{2013}]{han-2013}Han,L.,L.~Kashyap,A.,Finin,T.,\mbox{Mayfield},J.,\BBA\Weese,J.\BBOP2013\BBCP.\newblock\BBOQUMBC\_EBIQUITY-CORE:SemanticTextualSimilaritySystems.\BBCQ\\newblockIn{\Bem2ndJointConferenceonLexicalandComputationalSemantics,Volume1:ProceedingsoftheMainConferenceandtheSharedTask:SemanticTextualSimilarity},\mbox{\BPGS\44--52}.\bibitem[\protect\BCAY{Kiros,Zhu,Salakhutdinov,Zemel,Urtasun,Torralba,\BBA\Fidler}{Kiroset~al.}{2015}]{kiros-2015}Kiros,R.,Zhu,Y.,Salakhutdinov,R.~R.,Zemel,R.,Urtasun,R.,Torralba,A.,\BBA\Fidler,S.\BBOP2015\BBCP.\newblock\BBOQSkip-ThoughtVectors.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems28},\mbox{\BPGS\3294--3302}.\bibitem[\protect\BCAY{Lo}{Lo}{2017}]{lo-2017}Lo,C.-K.\BBOP2017\BBCP.\newblock\BBOQMEANT~2.0:~AccurateSemanticMTEvaluationforAnyOutputLanguage.\BBCQ\\newblockIn{\BemProceedingsofthe2ndConferenceonMachineTranslation},\mbox{\BPGS\589--597}.\bibitem[\protect\BCAY{Logeswaran\BBA\Lee}{Logeswaran\BBA\Lee}{2018}]{logeswaran-2018}Logeswaran,L.\BBACOMMA\\BBA\Lee,H.\BBOP2018\BBCP.\newblock\BBOQAnEfficientFrameworkforLearningSentenceRepresentations.\BBCQ\\newblockIn{\BemInternationalConferenceonLearningRepresentations},\mbox{\BPGS\1--16}.\bibitem[\protect\BCAY{Ma,Graham,Wang,\BBA\Liu}{Maet~al.}{2017}]{ma-2017}Ma,Q.,Graham,Y.,Wang,S.,\BBA\Liu,Q.\BBOP2017\BBCP.\newblock\BBOQBlend:~aNovelCombinedMTMetricBasedonDirectAssessment---CASICT-DCUsubmissiontoWMT17MetricsTask.\BBCQ\\newblockIn{\BemProceedingsofthe2ndConferenceonMachineTranslation},\mbox{\BPGS\598--603}.\bibitem[\protect\BCAY{Marelli,Menini,Baroni,Bentivogli,Bernardi,\BBA\Zamparelli}{Marelliet~al.}{2014}]{marelli-2014}Marelli,M.,Menini,S.,Baroni,M.,Bentivogli,L.,Bernardi,R.,\BBA\Zamparelli,R.\BBOP2014\BBCP.\newblock\BBOQASICKCurefortheEvaluationofCompositionalDistributionalSemanticModels.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\216--223}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni-2002}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:~aMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsof40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Pennington,Socher,\BBA\Manning}{Penningtonet~al.}{2014}]{pennington-2014}Pennington,J.,Socher,R.,\BBA\Manning,C.\BBOP2014\BBCP.\newblock\BBOQGloVe:GlobalVectorsforWordRepresentation.\BBCQ\\newblockIn{\BemProceedingsofthe2014ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\1532--1543}.\bibitem[\protect\BCAY{Popovi{\'{c}}}{Popovi{\'{c}}}{2015}]{popovic-2015}Popovi{\'{c}},M.\BBOP2015\BBCP.\newblock\BBOQchrF:CharacterN-gramF-scoreforAutomaticMTEvaluation.\BBCQ\\newblockIn{\BemProceedingsofthe10thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\392--395}.\bibitem[\protect\BCAY{Popovi{\'{c}}}{Popovi{\'{c}}}{2017}]{popovic-2017}Popovi{\'{c}},M.\BBOP2017\BBCP.\newblock\BBOQchrF++:~WordsHelpingCharacterN-grams.\BBCQ\\newblockIn{\BemProceedingsofthe2ndConferenceonMachineTranslation},\mbox{\BPGS\612--618}.\bibitem[\protect\BCAY{Stanojevi{\'{c}},Koehn,\BBA\Bojar}{Stanojevi{\'{c}}et~al.}{2015}]{stanojevic-2015b}Stanojevi{\'{c}},M.,Koehn,P.,\BBA\Bojar,O.\BBOP2015\BBCP.\newblock\BBOQResultsoftheWMT15MetricsSharedTask.\BBCQ\\newblockIn{\BemProceedingsofthe10thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\256--273}.\bibitem[\protect\BCAY{{Stanojevi{\'{c}}}\BBA\Sima'an}{{Stanojevi{\'{c}}}\BBA\Sima'an}{2015}]{stanojevic-2015a}{Stanojevi{\'{c}}},M.\BBACOMMA\\BBA\Sima'an,K.\BBOP2015\BBCP.\newblock\BBOQBEER~1.1:~ILLCUvASubmissiontoMetricsandTuningTask.\BBCQ\\newblockIn{\BemProceedingsofthe10thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\396--401}.\bibitem[\protect\BCAY{Tai,Socher,\BBA\Manning}{Taiet~al.}{2015}]{tai-2015}Tai,K.~S.,Socher,R.,\BBA\Manning,C.~D.\BBOP2015\BBCP.\newblock\BBOQImprovedSemanticRepresentationsFromTree-StructuredLongShort-TermMemoryNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\1556--1566}.\bibitem[\protect\BCAY{Vaswani,Shazeer,Parmar,Uszkoreit,Jones,Gomez,Kaiser,\BBA\Polosukhin}{Vaswaniet~al.}{2017}]{vaswani-2017}Vaswani,A.,Shazeer,N.,Parmar,N.,Uszkoreit,J.,Jones,L.,Gomez,A.~N.,Kaiser,L.,\BBA\Polosukhin,I.\BBOP2017\BBCP.\newblock\BBOQAttentionisAllyouNeed.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems30},\mbox{\BPGS\5998--6008}.\bibitem[\protect\BCAY{Wang,Peter,Rosendahl,\BBA\Ney}{Wanget~al.}{2016}]{wang-2016}Wang,W.,Peter,J.-T.,Rosendahl,H.,\BBA\Ney,H.\BBOP2016\BBCP.\newblock\BBOQCharacTER:~TranslationEditRateonCharacterLevel.\BBCQ\\newblockIn{\BemProceedingsofthe1stConferenceonMachineTranslation},\mbox{\BPGS\505--510}.\bibitem[\protect\BCAY{Williams,Nangia,\BBA\Bowman}{Williamset~al.}{2018}]{williams-2018}Williams,A.,Nangia,N.,\BBA\Bowman,S.\BBOP2018\BBCP.\newblock\BBOQABroad-CoverageChallengeCorpusforSentenceUnderstandingthroughInference.\BBCQ\\newblockIn{\BemProceedingsofthe2018ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies,Volume1},\mbox{\BPGS\1112--1122}.\bibitem[\protect\BCAY{Yu,Ma,Wu,\BBA\Liu}{Yuet~al.}{2015a}]{yu-2015a}Yu,H.,Ma,Q.,Wu,X.,\BBA\Liu,Q.\BBOP2015a\BBCP.\newblock\BBOQCASICT-DCUParticipationinWMT2015MetricsTask.\BBCQ\\newblockIn{\BemProceedingsofthe10thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\417--421}.\bibitem[\protect\BCAY{Yu,Wu,Jiang,Liu,\BBA\Lin}{Yuet~al.}{2015b}]{yu-2015b}Yu,H.,Wu,X.,Jiang,W.,Liu,Q.,\BBA\Lin,S.\BBOP2015b\BBCP.\newblock\BBOQAnAutomaticMachineTranslationEvaluationMetricBasedonDependencyParsingModel.\BBCQ\\newblockIn{\BemarXivpreprintarXiv:1508.01996}.\bibitem[\protect\BCAY{Zhu,Kiros,Zemel,Salakhutdinov,Urtasun,\mbox{Torralba},\BBA\Fidler}{Zhuet~al.}{2015}]{Zhu-2015}Zhu,Y.,Kiros,R.,Zemel,R.~S.,Salakhutdinov,R.,Urtasun,R.,\mbox{Torralba},A.,\BBA\Fidler,S.\BBOP2015\BBCP.\newblock\BBOQAligningBooksandMovies:TowardsStory-LikeVisualExplanationsbyWatchingMoviesandReadingBooks.\BBCQ\\newblockIn{\Bem2015IEEEInternationalConferenceonComputerVision},\mbox{\BPGS\19--27}.\end{thebibliography}\begin{biography}\bioauthor{嶋中宏希}{2018年首都大学東京システムデザイン学部システムデザイン学科情報通信システムコース卒業.同年,首都大学東京システムデザイン研究科システムデザイン専攻情報科学域博士前期課程に進学,現在に至る.}\bioauthor{梶原智之}{2013年長岡技術科学大学工学部電気電子情報工学課程卒業.2015年同大学大学院工学研究科修士課程電気電子情報工学専攻修了.2018年首都大学東京大学院システムデザイン研究科博士後期課程情報通信システム学域修了.博士(工学).同年より大阪大学データビリティフロンティア機構特任助教.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{小町守}{2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒業.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2008年より日本学術振興会特別研究員(DC2)を経て,2010年博士後期課程修了.博士(工学).同年より同研究科助教を経て,2013年より首都大学東京システムデザイン学部准教授.大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
V09N01-01
\section{はじめに} \label{はじめに}日本語には語順の入れ替わり,格要素の省略,表層格の非表示などの問題があり,単純な係り受け解析を行っただけでは文の解析として十分とはいえない.例えば,「ドイツ語も話す先生」という文の場合,係り受け構造を解析しただけでは,「ドイツ語」と「話す」,「先生」と「話す」の関係はわからない.このような問題を解決するためには,用言と格要素の関係,例えば,「話す」のガ格やヲ格にどのような単語がくるかを記述した格フレームが必要である.このような格フレームは文脈処理(照応処理,省略処理)においても必須の知識源となる.これまで,重要な用言の典型的な格フレームについては,人手で辞書をつくるということも試みられてきた.しかし,格と同じ振る舞いをする「によって」,「として」などの複合辞があること,「〜が〜に人気だ」のように名詞+判定詞にも格フレームが必要なこと,専門分野ごとに用言に特別な用法があることなどから,カバレージの大きな実用的な辞書をつくるということは大変なことであり,人手による方法には限界がある.そこで,格フレーム辞書をコーパスから自動学習する方法を考える必要がある.しかし,格フレームの学習には膨大なデータが必要となり,現存するタグ付きコーパスはこのような目的からは量的に不十分である.そこで,本論文では,格フレーム辞書をタグ情報が付与されていない大規模コーパス(生コーパス)から自動的に構築する手法を提案する.格フレーム辞書を生コーパスから学習するためには,まず,生コーパスを構文解析しなければならないが,ここで解析誤りが問題となる.しかし,この問題はある程度確信度が高い係り受けだけを学習に用いることでほぼ対処することができる.むしろ問題となるのは用言の用法の多様性である(これはタグ付きコーパスから学習する場合にも問題となる).つまり,同じ表記の用言でも複数の意味,格要素のパターン(用法)をとり,とりうる格や体言が違うことがあるので,用言の用法ごとに格フレームを作成することが必要である.本論文では,これに対処するために,用言とその直前の格要素の組を単位として用例を収集し,それらのクラスタリングを行うという方法を考案した.用言とその直前の格要素の組を単位とするというのは,「なる」や「積む」ではなく,「友達になる」「病気になる」,「荷物を積む」「経験を積む」を単位として収集するということである.用言とその直前の格要素の組を単位として考えると,用言の用法はほとんど一意に決定される.この組み合わせは膨大になるので充分な量のコーパスが必要であるが,本研究では生コーパスから収集するので問題にならない.クラスタリングは,用法に違いはないが,用言の直前の単語が異なるために別の格フレームになってしまう用例をマージする処理である. \section{格フレーム構築の種々の方法} \label{本手法}\begin{figure*}[t]\begin{center}\atari(143,136)\caption{格フレームに関連するさまざまなデータ処理}\label{格フレームに関連するデータ}\end{center}\end{figure*}我々の提案する格フレーム辞書の自動構築の過程は以下のとおりである(図\ref{格フレームに関連するデータ}の点線で囲まれた部分).\begin{enumerate}\itemコーパスのテキストに対して,KNP\cite{Kurohashi1994J}を用いて構文解析を行い,その結果から,ある程度信頼できる用言・格要素間の関係を取り出す.ここで取り出すデータを{\bf用例}と呼ぶ.\label{概略::用例の収集}\item抽出した関係を用言と直前の格要素の組ごとにまとめる.このようにして作成したデータを{\bf用例パターン}と呼ぶ.\label{概略::組にまとめる}\itemシソーラスを用いて,用例パターンのクラスタリングを行う.この結果できたものを{\bf用例格フレーム}と呼び,本研究ではこれが最終的に得られるものである.以下では「荷物」,「物資」,「経験」などの格要素になる単語を{\bf格用例},用例格フレームにおけるある格の格用例の集合,例えば「積む」の1つめの用例格フレームのヲ格の格用例集合\{「荷物」,「物資」\}を{\bf格用例群}と呼ぶ.{\bf格要素}は格用例と格の組である.\end{enumerate}次に,格フレームに関連するさまざまなデータ処理を図\ref{格フレームに関連するデータ}に沿って議論する.まず,図\ref{格フレームに関連するデータ}のIの用例をそのまま個別に使うことが考えられるが,この場合データスパースネスが問題になる.\vspace*{1ex}\begin{tabular}{l@{}l@{\\}l@{}l@{}l}\ex&\subex&車に&荷物を&積む\\&\subex&トラックに&物資を&積む\end{tabular}\vspace*{1ex}\noindent例えば,この2つの用例がコーパスにあったとしても,「車に物資を積む」という表現が妥当であるかどうかはわからない.一方,用例を二項関係に分割すると,図\ref{格フレームに関連するデータ}のIIのような共起データを作ることができる.これは統計パーサによって用いられているデータ形式であり,データスパースネスの問題を回避することができる\cite{Collins1996}.しかし,その副作用として用言の用法の多様性の問題が生じる.\vspace*{1ex}\begin{tabular}{l@{}l@{\\}l@{}l@{}l}\ex&\subex&車に&荷物を&積む\\&\subex&&経験を&積む\end{tabular}\vspace*{1ex}\noindent例えば,この2つの用例から「車に積む」,「荷物を積む」,「経験を積む」という共起データが得られるが,これらのデータだけでは「車に経験を積む」のような間違った表現を許すことになる.また,図\ref{格フレームに関連するデータ}のIIIのように用例を単純にまとめたものも,もっている情報は共起データと同じであり,やはり用言の用法の多様性が問題となる.これに対して,本手法で得られる用例格フレームでは,用言とその直前の格要素を組にして扱うという方法で,用法の多様性の問題を解決しつつ,データスパースネスにも対処している.一方,用例を直接クラスタリングすることによって用例格フレームを作成する方法も考えられる(図\ref{格フレームに関連するデータ}のIV).この方法でも,用言の用法ごとに分かれた用例格フレームが得られるので,我々の作成する用例格フレームに近いといえる.しかし,この方法ですべての格要素を等しく扱うと,用言の用法にあまり関係しない格要素(用言の直前ではない格要素)が類似していることによって,用言の用法の異なる用例がひとつの用例格フレームにマージされてしまうことがある.\vspace*{1ex}\begin{tabular}{l@{}l@{\\}l@{}l@{}l}\ex&\subex&従業員が&荷物を&積む\\&\subex&従業員が&経験を&積む\end{tabular}\vspace*{1ex}\noindent例えば,この2つの用例は,用法が異なっているが,ガ格の「従業員」が同じであるためにマージされる可能性がある.このような問題があるため,用例を直接クラスタリングする方法では,必ずしもよい精度の格フレームにはならないと思われる.格フレームは辞書として利用されるものであり,精度は非常に高いものが要求されるため,この方法は格フレームの作成には適当ではないと考えられる. \section{関連研究} 英語を対象として,生コーパスから格フレームを学習する方法はいくつか研究されてきた\cite{Brent1991,Manning1993,TedBriscoe1997}.英語は格要素が省略されることがなく,問題となるのは格要素が用言にとって必須であるか任意であるかの判定である.この判定は,統計情報を利用して用言と格フレームの関連度を計算することによって行われている.学習する格フレームは用例格フレームのようなものではなく,動詞が名詞句と前置詞句をとるといったパターンである.つまり,用言の用法そのものを収集していると考えられるので,用言の用法の多様性は問題にならない.日本語では,格フレームを構文情報付きコーパスから学習する方法が提案されている\cite{東優1996,宇津呂武仁1997}.これらの手法は,学習に構文情報付きコーパスを用いているためカバレージの点で問題がある.春野は,意味素を要素とする格フレームをコーパスから学習する方法を提案している\cite{春野雅彦1995}.11個の動詞を対象とし,新聞1年分から人手で抽出した用例を用いているのでカバレージの点では問題ないが,動詞数を増やして実用的な格フレームを作成するのは難しいと思われる.これらの手法で得られる格フレームは,格要素を汎化した意味素を格フレームの個々の要素としたものであり,この点では本研究と異なる.用言の用法の多様性は,それぞれ次のようにして扱っている.東らはEDRコーパスを用いており,動詞についている動詞概念ごとに格フレームを作成している.宇津呂らと春野の手法は,それぞれ機械学習,情報圧縮の手法を用いて意味素の汎化レベルを決定することによって,用例を直接クラスタリングするものである.しかし,前節で述べたように,これらの方法は精度の面で格フレームの作成には適当ではないと考えられる. \section{用例の収集} \label{用例の収集}コーパスを構文解析した結果から,図\ref{格フレームに関連するデータ}に示したような用例の収集を行う.質の高い用例を収集するために,コーパスの解析結果から確信度の高い係り受けを抽出する.\subsection{格要素の条件}\label{格要素の条件}用例を収集するときに,格,格用例,格要素に以下の条件を設定する.\subsubsection*{\underline{格の設定}}収集する格要素の格として,日本語の基本的な格すべてを対象とする.対象とした格を以下に示す.\vspace*{1ex}\begin{quote}ガ格,ヲ格,ニ格,ト格,デ格,カラ格,ヨリ格,ヘ格,マデ格,無格\end{quote}\vspace*{1ex}\noindentこれらに加えて,次のものも格として扱う.\begin{description}\item[時間格]ニ格,無格,カラ格,マデ格で,意味素「時間」(後述)をもっている格要素はまとめてひとつの格にする.これは,格フレームを作成する際には,その用言が時間に強く関係しているかどうかが重要であり,表層格の区別は重要でないからである.\begin{exn}例:\&3時に,来年から\end{exn}\item[複合辞]格と同じように振る舞う複合辞を,それぞれひとつの格として扱う.\begin{exn}例:\&〜をめぐって,〜によって,\\&〜について,〜として\end{exn}\end{description}\subsubsection{\underline{格用例の汎化}}個別の単語を扱うことにあまり意味がなく,明確な意味を考えることできる格用例はクラスとしてまとめて扱う.この汎化したクラスを以下のように3種類設定した.この場合,格用例として単語のかわりにクラスを記述する.\vspace*{1ex}\noindent{\bf時間}\begin{itemize}\item品詞細分類が時相名詞の形態素を含む文節\\\begin{exn}例:\&朝,春,来年\end{exn}\item時間助数辞を含む文節\\\begin{exn}例:\&1999年,12月,6日,9時,35分,23秒\end{exn}\item「前」,「中」,「後」という接尾辞をもち,自立語がシソーラス上の意味属性「場所」をもたない文節\\\begin{exn}例:\&会議中,戦争後,書く前\end{exn}\end{itemize}\noindent{\bf数量}\begin{itemize}\item数詞を含む(助数辞を含まない)文節\\\begin{exn}例:\&1,2,一,二,十,百\end{exn}\item数詞と,「つ」,「個」,「人」のような助数辞を含む文節については,「<数量>つ」,「<数量>個」,「<数量>人」のように数量クラスと助数辞のペアにして扱う.\begin{exn}例:\&1つ$\rightarrow$<数量>つ\\&2個$\rightarrow$<数量>個\end{exn}\end{itemize}\noindent{\bf補文}\begin{itemize}\item引用節「〜と」,連体修飾+形式名詞またはそれに準ずる表現(〜の〜,〜くらい〜,)\begin{exn}例:\&書くと,書いたことを,書くのを,\\&書くくらいが\end{exn}\end{itemize}\subsubsection*{\underline{曖昧な格要素の排除}}次のような格要素は収集に用いない.\begin{itemize}\item提題助詞をもつ格要素と用言の連体修飾先は,表層格が明示されていないので収集に用いない.\begin{exn}例:\&その\underline{議員}は〜を提案した.\\&〜を提案している\underline{議員}が〜\end{exn}\itemニ格,デ格で副詞的に使われる格要素は,係る用言との関係が任意的であるので収集から除外する.これらの格要素については人手で辞書を作成した.\begin{exn}例:\&ために,無条件に,うえで,せいで\end{exn}\itemKNPでは,「〜では」,「〜でも」はデ格,「〜には」,「〜にも」はニ格の格要素として扱われるが,副助詞,あるいは従属節の場合もあるので収集の対象から除外する.\begin{exn}例:\&足の1本\underline{でも}折ってやろうかと思った.\\&育成しないこと\underline{には}世界で通用しない.\end{exn}\end{itemize}\vspace*{2ex}格要素が複合名詞の場合には,もっとも意味的に重要であると考えられる最後の自立語を収集に用いる.\vspace*{1ex}例えば,\begin{tabular}{l@{}l}\ex&30日に総理大臣がその2人に賞を贈った.\end{tabular}\noindentという文からは,\begin{quote}<時間>:時間格\大臣:が<数量>人:に\賞:を\\\贈る\end{quote}\noindentという用例を得る.\subsection{用言の条件}収集する用言は動詞,形容詞,名詞+判定詞とする.名詞+判定詞として収集する用言には体言止めの名詞も含む.ただし,以下のような用言は収集に用いない.\begin{itemize}\item用言が受身,使役,「〜もらう」,「〜たい」,「〜ほしい」,「〜できる」の形であれば,格の交替が起こり,格と格要素の関係が通常の場合と異なるので収集に用いない.\item「〜で」は,判定詞かデ格かの自動判定が難しいので,KNPが判定詞と認識しても,用言として収集に用いない.\begin{exn}例:\&彼は\underline{京都で},試験を受け…\(助詞)\\&彼が好きな町は\underline{京都で},…\(判定詞)\end{exn}\item形態素解析において,活用形から原形が一意に決まらない用言は収集に用いない.\begin{exn}例:\&あった:ある,あう\\&いった:いる,いう\end{exn}\item用言として用いられているサ変名詞の直後に読点か句点がある場合,そのサ変名詞が受身か能動であるのかを区別することは難しいので,これは収集に用いない.\begin{exn}例:\&世界選手権は約1200人が出場して福井県鯖江市で\underline{開催}.\end{exn}\end{itemize}\subsection{確信度の高い係り受けの抽出}\label{確信度の高い係り受けの抽出}コーパスを構文解析した結果から用例を収集するときに問題となるのは,解析結果に誤りが含まれていることである.そこで,誤りの影響を軽減するために,解析の精度が低い係り受けは捨てて,ある程度確信度が高い係り受けを格フレームの収集に用いる.KNPでは,次のような優先規則によって文節の係り先を決定している.\vspace*{2ex}\begin{description}\item[Rule1]文中の強い区切りを見つけることによって,係り先の候補の絞り込みを行う(ここで候補がひとつになるなら,係り先をそれに決定する).\item[Rule2]係り先の候補の用言のうち,格要素の係り先にならないことが多い用言を候補から除外する.\item[Rule3]``読点のない文節はもっとも近い候補に係り,読点のある文節は2番目に近い候補に係る''という優先規則に従って,候補の中から係り先を決定する.\end{description}\vspace*{2ex}用例の収集では,Rule1は信頼し,Rule2とRule3は信頼しない(多くの場合正しいが,誤っていることもある)こととする.つまり,Rule1で候補がひとつになり決定される係り受けは用例の収集に用い,Rule2やRule3の処理が適用された係り受けは収集に用いない.\vspace*{1ex}\begin{tabular}{l@{}l}\ex&\begin{minipage}[t]{12.8cm}彼は先生のアドバイスに従って英語を勉強したので,テストのスコアが大きく上がった.\end{minipage}\end{tabular}\vspace*{1ex}\noindentこの例では,「〜ので」はKNPによって強い区切りであると認識され,「英語を」の係り先の候補は「勉強した」の1つしかないので,この用例が取り出される.「スコアが」の係り先の候補は,「大きく」がRule2によって除外されており,「上がった」の1つだけであるが,この用例は取り出されない.「アドバイスに」の係り先の候補は「従って」,「勉強した」の2つであり,Rule3の優先規則により係り先は「従って」に決定されるが,この用例は取り出されない.上の例ではルールがすべて正しく働いていたが,Rule2によって係り先の候補から除外した用言は,場合によっては係り先になる可能性があるので,このときの用例は収集しないことにしている.例えば,次の例のように,形容詞「早い」の直後に「救う」のような強い用言がある場合,このような形容詞は格要素の係り先になりにくいために,係り先の候補から除外される.\vspace*{1ex}\begin{tabular}{l@{}l}\ex&\begin{minipage}[t]{12.8cm}長女が気づき,家族とともに二人を助けようとしたが火の\underline{回りが}早く救い出せなかった.\end{minipage}\end{tabular}\vspace*{1ex}\noindentこの例では,「回りが」は形容詞「早く」に係るのが正解であるが,「早く」は係り先の候補から除外されており解析が誤っている.また,Rule3の処理の例を次に示す.\vspace*{1ex}\begin{tabular}{l@{}l}\ex&\begin{minipage}[t]{12.8cm}商工会議所の会頭が,\underline{質問に}先頭を切って答えた.\end{minipage}\end{tabular}\vspace*{1ex}\noindentKNPは,「質問に」の係り先の候補として,「切って」,「答えた」の2つの可能性を考慮する.この場合,``より近くに係る''という優先規則に従って係り先は「切って」に決定されるが,この解析は誤りである.この例のように,係り先の候補が複数存在すると,係り先に曖昧性があり確信度が低いので,このような用例は収集しない.京都大学テキストコーパスから確信度の高い係り受けを抽出して,その精度の評価を行った.対象としている格をもつ格要素の係り受けの精度は90.9\%であるのに対し,抽出した確信度の高い係り受けの精度は97.2\%であった.抽出した係り受けは,対象としている格をもつ係り受け全体の44.0\%であった.これより,この処理はかなり効果的であることがわかる. \section{用例格フレームの作成} \ref{本手法}章の例文で示したように,用言の用法の異なる用例をひとつの格フレームとしてまとめてしまうと,誤った表現を許す格フレームを作ってしまう.従って,格パターンの異なる格フレームは別々に作成する必要がある.用言の用法を決定する重要な格要素は用言の直前にくることが多い.また,用言とその直前の格要素をペアにして考えると,用言の用法はほとんど一意に決定される.そこで,用例を,{\bf用言とその直前の格要素の組を単位としてまとめる}という処理を行い,用例パターン(図\ref{格フレームに関連するデータ})を作る.用例パターンの用言の直前の格要素を{\bf直前格要素},直前格要素の格を{\bf直前格}と呼ぶ.用例パターンは,ひとつの用言について,直前格要素の数だけ存在している.そのため,次の例のように,用法がほとんど同じパターンまで個別に扱われている.\vspace*{1ex}\begin{tabular}{l@{}l@{\\}l@{}l@{}l@{}l}\ex&\subex&従業員:が&車:に&荷物:を&積む\\&\subex&&\{トラック,飛行機\}:に&物資:を&積む\end{tabular}\vspace*{1ex}\noindentそこで,ほとんど用法が同じ用例パターンをマージするために,用例パターンのクラスタリングを行う.以下では,このクラスタリングの詳細について述べる.\subsection{用例パターン間の類似度}用例パターンのクラスタリングは,用例パターン間の類似度を用いて行う.用例パターン間の類似度は,格の一致度と格用例群間の類似度の積とする(図\ref{用例パターン間の類似度の計算の例}に類似度の計算の例を示す).\begin{figure}[t]\begin{center}\atari(100,61)\caption{用例パターン間の類似度の計算の例(用例の右下の数字は頻度を示す.)}\label{用例パターン間の類似度の計算の例}\end{center}\end{figure}まず,単語$e_1,e_2$間の類似度$sim_e(e_1,e_2)$を,日本語語彙大系のシソーラスを利用して以下のように定義する.\[sim_e(e_1,e_2)=max_{x\ins_1,y\ins_2}\,sim(x,y)\]\[sim(x,y)=\frac{2L}{l_{x}+l_{y}}\]ここで,$x,y$は意味属性であり,$s_1,s_2$はそれぞれ$e_1,e_2$の日本語語彙大系における意味属性の集合である(日本語語彙大系では,単語に複数の意味属性が与えられている場合が多い).$sim(x,y)$は意味属性$x,y$間の類似度であり,$l_{x},l_{y}$は$x,y$のシソーラスの根からの階層の深さ,$L$は$x$と$y$の意味属性で一致している階層の深さを表す.類似度$sim(x,y)$は0から1の値をとる.用例パターン$P_1,P_2$の格の一致度$cs$は,$P_1,P_2$に含まれるすべての格用例に対する,$P_1,P_2$の共通格に含まれている格用例の割合とし,\begin{eqnarray*}cs=\frac{\sum_{i=1}^{n}|E_{1cc_i}|+\sum_{i=1}^{n}|E_{2cc_i}|}{\sum_{i=1}^{l}|E_{1c1_i}|+\sum_{i=1}^{m}|E_{2c2_i}|}\end{eqnarray*}と定義する.ただし,用例パターン$P_1$中の格を$c1_1,c1_2,\cdots,c1_l$,用例パターン$P_2$中の格を$c2_1,c2_2,\cdots,c2_m$,$P_1$と$P_2$間の共通格を$cc_1,cc_2,\cdots,cc_n$とする.また,$E_{1cc_i}$は$P_1$内の格$cc_i$に含まれる格用例群であり,$E_{2cc_i}$,$E_{1c1_i}$,$E_{2c2_i}$も同様である.$\left|E_{1cc_i}\right|$などの絶対値記号は頻度を表す.用例パターン$P_1,P_2$の共通格に含まれる格用例群間の類似度$sim_E(P_1,P_2)$は,格用例の類似度の和を正規化したもので,\begin{eqnarray*}\lefteqn{sim_E(P_1,P_2)}\\[5pt]&=\frac{\sum_{i=1}^{n}\sum_{e_1\inE_{1cc_i}}\sum_{e_2\inE_{2cc_i}}\left|e_1\right|\left|e_2\right|\,sim_e(e_1,e_2)}{\sum_{i=1}^{n}\sum_{e_1\inE_{1cc_i}}\sum_{e_2\inE_{2cc_i}}\left|e_1\right|\left|e_2\right|}\end{eqnarray*}とする.用例パターン$P_1,P_2$間の類似度は,格の一致度$cs$と$P_1,P_2$の共通格の格用例群間の類似度の積とし,次のようにして計算する.\[\mbox{類似度}=cs\cdotsim_E(P_1,P_2)\]\subsection{クラスタリングの手順}用例パターンのクラスタリングの手順を以下に示す.\begin{enumerate}\itemまず,直前の格要素の出現頻度がある閾値以上あるという条件で足切りを行う.これは,直前の格以外にも格用例がある程度の回数以上出現しているような安定した用例パターンだけを対象にするためである.この閾値は5に設定した.\label{クラスタリング::頻度の足切り}\item{\bf直前格が同じ用例パターンのクラスタリング}\label{クラスタリング::基本クラスタリング}\begin{enumerate}\item[i.]あらゆる2つ組の用例パターンの類似度を計算し,用例パターンの意味属性を固定する.これらの処理は,\ref{用例パターンの意味属性の固定}節で述べるように繰り返す.\item[ii.]用例パターン間の類似度が閾値を越える組について,用例パターンのマージを行う.\end{enumerate}\item{\bf直前格を限定しない用例パターンのクラスタリング}\\直前格が同じ用例パターンのクラスタリングでは,次の例のように,格パターンが同じで用言の用法もほとんど同じ用例パターンであっても,直前格が異なっていれば別の用例パターンとなってしまう.\vspace*{1ex}\begin{tabular}{l@{}l@{\\}l@{}l@{}l}\ex&\subex&\{物資,貨物\}:を&トラック:に&積む\\&\subex&\{トラック,飛行機\}:に&\{荷物,物資\}:を&積む\end{tabular}\vspace*{1ex}\noindentこのように,直前格が異なっていても格パターンがほとんど同じ格フレームをマージする必要がある.行う処理は,\ref{クラスタリング::基本クラスタリング}の処理で得られた用例パターンのクラスタリングである.類似度,閾値とも\ref{クラスタリング::基本クラスタリング}と同じものを用いる.\ref{クラスタリング::基本クラスタリング}と異なる点は用例パターンの意味属性の固定を行わないことである.\item{\bf残りの用例パターンのふりわけ}\\頻度の閾値を越えない用例パターン(残りの用例パターン)をこれまでの処理で作成された用例パターンにふりわける.これまでと同様に用例パターン間の類似度を計算し,類似度が閾値を越え,もっとも類似している用例パターンにマージする.クラスタリング結果に対象としている用言の格フレームがないときは,残りの用例をひとつの格パターンとしてまとめる.\end{enumerate}\vspace{1em}\subsection{用例パターンの意味属性の固定}\label{用例パターンの意味属性の固定}用例パターン間の類似度は,用例パターンの直前格要素の意味属性が大きく影響する.そのため,用例パターンの直前格要素に多義性があるときに問題がある.例えば,「合わせる」の用例パターンのクラスタリングにおいて,用例パターンの組(手,顔)\footnote{ここでは,用例パターンを直前格要素で表している.たとえば,「手」は「手:を合わせる」という用例パターンを意味している.}と(手,焦点)がそれぞれマージされる.(手,顔)は意味属性<動物(部分)>,(手,焦点)は意味属性<論理・意味等>を共通にもつためである.この2つの用例パターンの組から結果的に(手,顔,焦点)という意味的におかしい組が作られてしまう.この問題は,「手」が複数の意味属性<動物(部分)>,<論理・意味等>をもち,多義であるにもかかわらず,その多義性をまったく考慮せずに単純にクラスタリングしていることに起因している.この問題に対処するために,もっとも類似度が高い用例パターンの組から意味属性を固定する処理,すなわち用例パターンの意味の曖昧性解消を行う.この処理は,用例パターンの直前格要素の意味属性を固定することによって,次のような手順で行う.\begin{enumerate}\item類似度が高い用例パターンの組(p,q)から順に,両方の用例パターンの直前格要素n${}_p$,n${}_q$の意味属性を固定する.固定する意味属性は,n${}_p$,n${}_q$間の類似度を最大にする意味属性s${}_p$,s${}_q$とする.ここで扱う用例パターンは,直前格が同じものに限定する.\itemp,qに関係する用例パターンの類似度を再計算する.\item閾値を越える用例パターンの組がなくなるまで,この2つの処理を繰り返す.\end{enumerate}次に,この処理の例を示す.用言「飛ぶ」について,直前格の単語が「声」,「怒声」,「機」,「質問」であり,用例パターン間の類似度がクラスタリングの閾値(ここでは0.65とする)を越える組み合わせが以下の4通りであったとする.\vspace*{1ex}\begin{tabular}{lllr}(a)&声:<声>&怒声:<声>&0.90\\(b)&声:<単位>&機:<単位>&0.78\\(c)&声:<声>&質問:<質問>&0.69\\(d)&怒声:<声>&質問:<質問>&0.68\end{tabular}\vspace*{1ex}この表より,もっとも類似度が高い用例パターンの組は(a)であり,「声」を直前格とする用例パターンと「怒声」を直前格とする用例パターンの類似度が0.90となっている.このとき,「声」の意味属性が<声>で,「怒声」の意味属性も<声>のときに,「声」,「怒声」という単語間の類似度,そしてこの用例パターン間の類似度が最大になっている.ここで,「声」の意味素を<声>,「怒声」の意味属性も<声>に固定する.「声」と「怒声」の意味属性が限定されたので,それらの用例パターンに関係する類似度(b),(c),(d)の再計算を行う.再計算の結果,(c),(d)の類似度は変わらないが,(b)は,\vspace*{1ex}\begin{tabular}{lllr}(b)&声:<声>&機:<単位>&0.29\end{tabular}\vspace*{1ex}\noindentとなり,類似度0.29は閾値を下回り,結局この用例パターン間のクラスタリングは行われない. \section{必須格の選択} クラスタリングを行った結果得られる用例格フレームについて,格用例の頻度が少ない格は除く.これは,ひとつには構文解析結果の誤りへの対策であり,また頻度の少ない格はその用言と関係が希薄であると考えられるからである.ただし,ガ格についてはすべての用言がとると考え,頻度が少なくても削除せず,逆にガ格の格用例がない場合には,意味属性<主体>を補うことにした.頻度の閾値は,現在のところ経験的に$2\sqrt{mf}$と定めている.ただし,$mf$はその用言においてもっとも多く出現した格の延べ格用例数である.例えば,ある用言について,もっとも多く出現した格がヲ格で,$mf=100$であり,ニ格の格用例数が16であったすると,このニ格は頻度が20未満なので捨てられることになる. \section{作成した格フレーム辞書} 毎日新聞約9年分の460万文から実際に格フレーム辞書を構築した.クラスタリングの閾値は$0.80$に設定した.これは,格パターンが違ったり,意味が違う格フレームが同じ格フレームにならないという基準で設定したものである.従って,格フレームは基本的にはばらばらで,意味がほとんど同じ格フレームを最小限まとめたものになっている.格フレームの例を表\ref{構築した格フレームの例}に示す.この表では,<主体>,<場所>の意味属性をもつ格用例を【主体】,【場所】という意味属性でまとめて表示している.71,000個の用言について格フレームが構築され,用言あたりの平均格フレーム数は1.9個,格フレームあたりの格の平均数は1.7個,格あたりの平均異なり格用例数は4.3個であった.また,クラスタリングによって用例格フレーム数は用例パターン数の53\%になった.構築した格フレーム辞書をみると,「賛成」のような名詞+判定詞の格フレームや,「ただす」の「について」のような複合辞の格についても得られている.また,「告知する」は,語順の問題への対処が有効に働いて,次の2つの分割する必要のない用例格フレームが1つにマージされている.\begin{tabular}{l@{}l@{\\}l}\ex&\subex&<主体>:が患者:に告知する\\&\subex&同僚:が\{患者,本人,家族\}:に感染:を告知する\end{tabular}\begin{table*}[tbp]\begin{center}\caption{構築した格フレームの例(*はその格が用言の直前の格であることを示す.)}\label{構築した格フレームの例}\begin{tabular}{l|c|l}\hline\multicolumn{1}{c|}{用言}&格&\multicolumn{1}{c}{用例}\\\hline\hline買う1&ガ格&【主体:<数量>人,乗客,幹部,筋,男性,資産家,政府,銀行,…】\\&ヲ格*&株,円,土地,もの,ドル,切符,車,物,家,株式,国債,…\\&デ格&【場所:店,駅】,<数量>円,金,価格,会社,仲介,額,インターネット,…\\\hline買う2&ガ格&対応,厚生,絵はがき,蓄財,シーン,工作,禁止,風刺画,…\\&ヲ格*&怒り,ひんしゅく,失笑,反感,恨み,不興,憤激,嘲笑,…\\\hline\multicolumn{1}{c|}{:}&\multicolumn{1}{c|}{:}&:\\\hline\hline読む1&ガ格&【主体:大学生,首相,先生,若者,女性サラリーマン】,<数量>割,…\\&ヲ格*&本,記事,新聞,小説,投書,作品,書,文,文章,手紙,…\\\hline読む2&ガ格&【主体:<主体>】\\&ヲ格&話,<補文>,意見,惨状,ニュース,事件,記,経緯,記事,…\\&デ格*&新聞,本,本紙,教科書\\\hline読む3&ガ格&【主体:<主体>】\\&ヲ格*&先\\\hline\multicolumn{1}{c|}{:}&\multicolumn{1}{c|}{:}&:\\\hline\hlineただす1&ガ格&【主体:氏,委員,議員,委員長,党首,会長,主席】,両氏,副総裁,喚問,…\\&ヲ格*&見解,真意,考え,方針,問題,真偽,意図,策,行方,意向,…\\&について&問題,<補文>,展開,責任,影響,停止,法案,見通し,事例,…\\\hlineただす2&ガ格&【主体:委員長,自ら,業界】\\&ヲ格*&【主体:身】,姿勢,姿,威儀\\\hline\multicolumn{1}{c|}{:}&\multicolumn{1}{c|}{:}&:\\\hline\hline告知する1&ガ格&【主体:医師】\\&ニ格*&本人\\\hline告知する2&ガ格&【主体:同僚】\\&ヲ格*&感染,がん\\&ニ格*&患者,本人,家族\\\hline\multicolumn{1}{c|}{:}&\multicolumn{1}{c|}{:}&:\\\hline\hline賛成1&ガ格&【主体:<主体>】\\&ニ格*&意見,考え,主張,認識,論,立場\\\hline賛成2&ガ格&【主体:<主体>】\\&ニ格*&<補文>\\\hline\end{tabular}\end{center}\end{table*} \section{解析実験} \begin{table}[tbp]\caption{提題,被連体修飾詞の格解析の評価}\label{格解析の評価}\begin{center}\small\begin{tabular}{l|c|c|c|c|c|c}\hline\multicolumn{1}{l}{}&&&\multicolumn{4}{c}{誤り}\\\cline{4-7}\multicolumn{1}{l}{}&&\raisebox{0.5zh}{正解}&\begin{minipage}{5zw}対応付けの誤り\end{minipage}&\begin{minipage}{5zw}外の関係による誤り\end{minipage}&\begin{minipage}{5zw}ガガ構文による誤り\end{minipage}&\begin{minipage}{5zw}係り受けの誤り\end{minipage}\\\hline\raisebox{-0.8zh}[0pt][0pt]{本手法}&提題&85&3&--&2&13\\&連体修飾&50&5&9&--&2\\\hline\raisebox{-0.8zh}[0pt][0pt]{ベースライン}&提題&81&7&--&2&13\\&連体修飾&43&6&15&--&2\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tbp]\caption{格解析の結果の例}\label{格解析の結果の例}\hhline\begin{center}\exa{\underline{大蔵省は}$_{1:ガ格}$九日,信託銀行の不良債権の処理を促進するため,一九九五年三月期決算で信託銀行各行が\fbox{積み立てている}$\,_2$\underline{特別留保金の}$_{2:ヲ格}$取り崩しを\fbox{認める}$\,_3$\underline{方針を}$_{3:ニ格\Rightarrow外の関係}$\fbox{決めた.}$\,_1$}\exa{特に\underline{日本信託銀行は}$_{1:ガガ}$不動産融資の焦げ付きで信託勘定の不良債権が\fbox{膨らんでおり,}$\,_1$\,\underline{大蔵省は}$_{2:ガ格}$「特別留保金を取り崩して不良債権処理を促進する\underline{ことは}$_{3:ガ格}$顧客保護にも\fbox{通じる}$\,_3$」と\fbox{判断した.}$\,_2$}\exa{\underline{新民連は}$_{1:ガ格}$これに\fbox{先立ち}$\,_1$,衆参院議員二十九人が参加して総会を開き,山花氏が,今後の新党問題の\underline{協議は}$_{2:ヲ格}$準備会で\fbox{進める}$\,_2$\underline{考えを}$_{2:外の関係}$表明し,\underline{新民連は}$_{3:ガ格}$事実上,活動停止状態に\fbox{なった.}$\,_3$}\exa{金権選挙追放策の一つとして,戦後\fbox{廃止されてしまった}$\,_1$民衆訴訟による\underline{当選無効制度の}$_{1:ガ格}$\underline{復活も}$_{2:ヲ格}$\fbox{試みる…….}$\,_2$}\exa{これらの\underline{業界は}$_{1:ヲ格\Rightarrowガガ}$,比較的外圧を受けにくく,また政治的発言力が強い,という特徴が\fbox{ある.}$\,_1$}\exa{宇宙誕生のなぞや物質の重さの起源に迫ろうという世界最大の素粒子加速器建設計画が,十九カ国が\fbox{加盟する}$\,_1$\underline{欧州合同原子核研究所の}$_{1:ニ格}$理事会で本決まりとなった.}\exa{そして物質に重さを\fbox{与える}$\,_1$\underline{役割を}$_{1:外の関係}$\fbox{担う}$\,_2$\underline{ヒッグス粒子の}$_{2:ガ格}$発見などを目指している.}\exa{しかし,日韓正常化の韓国での\underline{歴史評価は}$_{1:ヲ格}$,韓国の人々に\fbox{まかせるべきであろう.}$\,_1$}\exa{代表質問を“影の内閣”として\fbox{設置した}$\,_1$\underline{政権準備委員会の}$_{1:ニ格\Rightarrowガ格}$「施政方針演説」と位置付け,政権担当能力をアピールするのが狙い.}\end{center}\hhline\small下線部は提題または被連体修飾詞を表し,四角形で囲まれた部分は用言を表している.四角形には用言の番号を付与してある.下線部の後に,係り先の用言を示す番号と,格解析によって認識された格を記述し,格解析が誤っているときは$\Rightarrow$の後に正解の格を記述した.\end{table}得られた格フレーム辞書の静的な評価は難しいので,それを用いた格解析を通して評価する.毎日新聞の記事200文をテストセットとし\footnote{このテストセットは,格フレーム辞書の構築には用いていない.},これに対して格解析を行った.格解析は\cite{Kuro-IEICE1994}の方法を用いた.格解析結果の評価は,提題と被連体修飾詞の格を正しく認識できるかどうかで行う.格解析の評価を表\ref{格解析の評価}に示す.ベースラインは,格フレーム辞書を用いずに,対象の用言がもっていない格をガ格,ヲ格,ニ格の順番に探して最初にみつかった格に決定するという処理を行ったものである.表\ref{格解析の評価}において,格解析の精度をみるために係り受けの誤りを除いて考えると,本手法では提題が94\%,被連体修飾詞が78\%,ベースラインでは提題が90\%,被連体修飾詞が67\%という精度であり,本手法はベースラインの精度を大きく上回っている.解析結果の例を表\ref{格解析の結果の例}に示す.誤りの大きな原因は,「〜を与える役割」のような外の関係,「業界は〜という特徴がある」といったガガ構文である.この問題の対処は今後の課題である. \section{おわりに} 本論文では,用言とその直前の格要素の組を単位として,生コーパスから用例を収集し,それらのクラスタリングを行うことによって,格フレーム辞書を自動的に構築する手法を提案した.得られた辞書を用いて実際に格解析を行った結果,提題,連体修飾の格の解釈をかなり高い精度で行うことができた.従って,実用レベルの格フレーム辞書を構築できたと考えられる.今後,この格フレーム辞書を用いて文脈解析を行う予定である.\bibliographystyle{jnlpbbl}\bibliography{NLP-CaseFrame}\begin{biography}\biotitle{略歴}\bioauthor{河原大輔}{1997年京都大学工学部電気工学第二学科卒業.1999年同大学院修士課程修了.現在,同博士課程在学中.構文解析,文脈解析の研究に従事.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程修了.京都大学工学部助手,京都大学情報学研究科講師を経て,2001年東京大学大学院情報理工学系研究科助教授,現在に至る.自然言語処理,知識情報処理の研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V29N01-06
\section{はじめに} \label{sec:intro}自然言語で記述された文を単語の系列に変換する単語分割は,さまざまな自然言語処理タスクにおいて,その性能に影響を与える重要な処理である\cite{peng2015named,peng2016improving,sennrich2016neural,he2017f,pranav20202kenize,bollegala2020language}.従来の自然言語処理では,ルールを用いた単語分割手法\cite{koehn2007moses}や,辞書を用いた単語分割手法\cite{kudo2006mecab,morita2015morphological,tolmachev2018juman,takaoka18sudachi},ニューラルネットワークを用いた教師あり学習による単語分割手法\cite{yang2017neural,cai2017fast,yang2018subword},教師なし単語分割手法\cite{goldwater2006contextual,goldwater2009bayesian,mochihashi2009bayesian,sennrich2016neural,kudo2018sentencepiece}などの,さまざまな方法で単語分割が行われている.また,後段モデルの性能が向上するような適切な単語分割は,後段タスクによって異なることがこれまでの研究から分かっている\cite{xu2008bayesian,chang2008optimizing,nguyen2010nonparametric,domingo2018much,hiraoka2019stochastic,gowda2020finding}.さらに,\citeA{hiraoka2020optimizing}の実験結果から,適切な単語分割が後段モデルの構造にも依存することが示唆されている.これらの研究から,後段タスクや後段モデルに応じて,適切な単語分割を選択することが,後段モデルの性能の向上に繋がると期待される.しかしながら,従来の自然言語処理において単語分割処理は後段モデルとは独立している場合が多く\footnote{固有表現抽出タスクにおいては,単語分割と固有表現抽出をマルチタスク学習として同時に学習することで性能向上が得られると報告されている\cite{peng2016improving}.},さまざまな単語分割を用いて後段モデルを学習し,その性能を評価しなければ,後段モデルに適切な単語分割を決定することができない.可能な単語分割の候補ごとに新たに後段モデルを学習し,評価するという探索方法には多くの時間や計算資源が必要となるため,現実的とは言えない.近年の研究では,後段タスクや後段モデルに基づいて単語分割を最適化する手法\cite{xuanli2020dynamic,hiraoka2020optimizing}が提案されているが,既存手法はいずれも使用用途が特定のタスクに限定されている.\citeA{xuanli2020dynamic}は,機械翻訳などのSequence-to-Sequenceタスクにおいて,学習データを用いて単語分割を最適化するDynamicProgrammingEncoding(DPE)を提案した.しかし,DPEによる単語分割の最適化には学習データのみを利用しており,機械翻訳タスクのための後段モデルであるエンコーダー・デコーダーのパラメータを単語分割の最適化に用いていない.そのため,DPEは後段モデルに応じて単語分割を最適化することはできない.\citeA{hiraoka2020optimizing}は,単語分割を後段タスクに最適化する際に,後段モデルのパラメータを用いるOpTokを提案した.しかしながら,OpTokは入力文の文ベクトルを用いて単語分割の最適化を行うため,文書分類タスクにしか適用することができず,機械翻訳タスクなどの多くの自然言語処理のタスクに応用することはできない.このように,現在の自然言語処理において,さまざまな後段タスクや後段モデルに適用可能な単語分割の最適化手法は存在していない.本稿では,さまざまな自然言語処理タスクに利用可能な,単語分割\footnote{本稿で取り扱う単語分割は厳密にはTokenization(トークン化)であり,分割後のトークンは単語やサブワードになるとは限らない.しかしながら,日本語の自然言語処理の文脈でトークン化ということばが広く浸透しているとは言えないため,わかりやすさのために本稿では文を部分文字列に分割することを単語分割と呼ぶ.}と後段モデルの同時最適化の新たな手法を提案する.提案手法は,複数の単語分割を用いて後段モデルの損失値を計算し,その損失値をもとに後段モデルに適切な単語分割を優先的に選択できるように単語分割器を更新する.提案手法による単語分割器の更新には後段モデルの損失値のみを用いるため,提案手法はさまざまな自然言語処理のタスクやモデルに適用することができる.さらに,提案手法によって単語分割を学習済みの後段モデルに対して最適化することで,後段モデルが学習済みであっても,その性能を向上させることが可能である.本稿では,学習済みの後段モデルに対して単語分割を最適化する処理を後処理としての単語分割の最適化と呼ぶ.このように,提案手法は後段モデルが未学習の場合であっても,学習済みの場合であっても用いることができるため,自然言語処理のさまざまな場面で利用可能な手法である.本研究では複数言語を対象とした文書分類タスクと機械翻訳タスクを用いて実験を行った.実験結果から,文書分類タスクと機械翻訳タスクの双方において,提案手法が既存の単語分割の最適化手法の性能を上回ることを確認した.また,サブワード正則化\cite{kudo2018subword,provilkov2019bpe}を用いて学習を行った後段モデルに対して,後処理として単語分割を最適化することで,その性能の向上を実現できることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} \label{sec:proposed_method}提案手法は,単語分割器と後段モデルの2つから構成され,これらを後段タスクに対して同時に最適化する.本章ではまず,入力が1文である場合の提案手法の学習方法について説明する(\ref{sec:optimizing_tokenization}節).次に,提案手法で使用する単語分割器の学習(\ref{sec:nulm_tokenizer}節)と後段モデルの学習(\ref{sec:model_loss}節)について説明する.最後に,機械翻訳タスクのように入力として複数の文を用いるタスクでの学習方法について説明する(\ref{sec:multi_sentences}節).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{後段モデルの損失値を用いた単語分割器の最適化}\label{sec:optimizing_tokenization}提案手法の単語分割器(\ref{sec:nulm_tokenizer}節)はニューラルネットワークで構成されており,文$s$を語彙$V$に含まれる単語$w$の系列$s'=w_1,...,w_I$に分割する.ここで$I$は系列の長さである.この単語分割処理において,提案手法の単語分割器は次の損失値を最小化するように学習を行う.\begin{align}{\mathcalL}_{s'}&=q(f(s'),z)\label{eq:nulm_loss}\end{align}ここで$f(s')$は後段モデルで,\pagebreak単語分割済みの文$s'$を入力として受け取り,後段タスクに応じた出力を行う.また,$q(f(\cdot),z)$は後段タスクに応じた損失関数で,後段モデルの出力と教師信号$z$を入力として受け取り,損失値を出力する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\vspace{-1\Cvs}\begin{center}\includegraphics{29-1ia5f1.pdf}\end{center}\hangcaption{提案手法による$N$-best単語分割(\ref{sec:nulm_tokenizer}節)を用いた単語分割器の学習に使用する損失値$\mathcal{L}_s$と,単語分割のサンプリング(\ref{sec:model_loss}節)を用いた後段モデルの学習に使用する損失値$\mathcal{L}_{\tilde{s'}}$の計算方法の概要.実線矢印は誤差逆伝播を行う計算パスを表す.}\label{fgr:model_outline}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fgr:model_outline}に提案手法の概要を示した.${\rmargmin}_{s'}(q(f(s'),z))$を満たすような単語分割を決定するために,提案手法では後段モデルの性能が向上するような単語分割に対して高い確率を与えるように単語分割器を更新する.具体的には,学習に用いる文$s$に対する$N$個の単語分割の候補$s'_1,...,s'_n,...s'_N$を求め,それぞれの単語分割を用いて後段モデルの損失値${\mathcalL}_{s'_n}$を計算する.以下のように,それぞれの単語分割に対応する損失値を,各単語分割の確率$p(s'_n)$で重み付けることで損失値の重み付き和を計算し,単語分割器の学習に用いる.\begin{align}a_n&=\frac{p(s'_n)}{\sum_{m=1}^{N}{p(s'_m)}}\label{eq:weight}\\{\mathcalL}_s&=\sum_{n=1}^{N}{a_n{\mathcalL}_{s'_n}}\label{eq:total_loss}\end{align}本研究では,$N$個の単語分割の候補として,入力文に対する$N$-best単語分割を用いる.\pagebreak上記の式において,各$N$-best単語分割に対応する損失値${\mathcalL}_{s'_1},...,{\mathcalL}_{s'_N}$を,総和が1になるようにノーマライズした各単語分割の確率で重みづけを行う.この損失値の重み付き和${\mathcalL}_s$を用いて単語分割器を最適化することで,単語分割器は後段モデルに適切な単語分割,すなわち後段モデルの損失値が低くなるような単語分割に対して高い確率を与えるように学習される.提案手法において,式(\ref{eq:nulm_loss})の後段モデル$f(\cdot)$や損失関数$q(f(\cdot),\cdot)$には,あらゆる関数を用いることができる.そのため,提案手法は自然言語処理のさまざまな後段タスクや後段モデルに対して適用可能である.例えば文章分類タスクの場合であれば,後段モデル$f(\cdot)$として単語分割済みの文から文ラベルを予測するニューラルネットワークを用い,損失関数$q(f(\cdot),\cdot)$として後段モデルが予測したラベルと正解ラベルとの交差エントロピー誤差関数を用いることができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{NULMを用いた単語分割器}\label{sec:nulm_tokenizer}本研究では,単語分割器としてニューラルユニグラム言語モデル(NULM)を用いる.NULMでは,ある単語$w$のユニグラム確率$p(w)$を単語分散表現${\bmv}_w$から次のように計算する.\begin{align}d_w&=\mathrm{MLP}({\bmv}_w)\label{eq:mlp_in_langmodel}\\p(w)&=\frac{\mathrm{exp}(d_w)}{\sum_{\hatw\inV}\mathrm{exp}(d_{\hatw})}\label{eq:token_prob}\end{align}ここで${\rmMLP}(\cdot)$は多層パーセプトロンである.NULMの語彙$V$は,あらかじめ適度な規模で初期化する.例えば,既存の教師なし単語分割手法であるSentencePiece\cite{kudo2018sentencepiece}やBPE\cite{sennrich2016neural},辞書ベースの単語分割手法であるMeCab\cite{kudo2006mecab}などを用いて,語彙を初期化する.語彙に含まれない文字については,未知語トークンとして取り扱う\footnote{本研究では未知語トークンのユニグラム確率には微小な値($10^{-10}$)を設定した.}.また,単語分割の確率$p(s')$は次のように,単語分割に含まれる単語のユニグラム確率の積として計算する.\begin{equation}\label{eq:sent_prob}p(s')=\prod_{w\ins'}p(w)\end{equation}式(\ref{eq:total_loss})を用いた学習を行う際には,文$s$の可能な単語分割候補の確率に対してForward-DPBackward-A*アルゴリズム\cite{nagata1994stochastic}を適用することで$N$-best単語分割を得ることができる\footnote{文に含まれる文字数$J$と単語の最大長$M$について$O(JM)$で$N$-best解を得ることができる.}.推論時には,ビタビアルゴリズム\cite{viterbi1967error}で$1$-best単語分割を求めて,後段モデルへと入力する.なお,英語のようにスペース記号で単語境界が明示された系列が入力される場合は,単語境界を跨いだ単語分割は行わない.また,推論時にもForward-DPBackward-A*アルゴリズムを用いることで,$N$-best単語分割を用いた推論も可能であり,機械翻訳タスクにおいては$N$-bestデコーディング\cite{kudo2018subword}が可能である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{単語分割のサンプリングを用いた後段モデルの学習}\label{sec:model_loss}後段モデルを学習する時には,単語分割器の学習と同様に,式(\ref{eq:total_loss})で計算した損失値${\mathcalL}_s$に対して誤差逆伝播法を適用すれば良い.しかし,単純に${\mathcalL}_s$に対して誤差逆伝播法を用いると,メモリ使用量が莫大になるという問題がある.これは,$N$-bestの単語分割候補を用いる場合に,計算グラフを繋いだ状態で$N$個の後段モデルの各パラメータの更新に関する情報を保持する必要があるためである.そこで,図\ref{fgr:model_outline}に示すように,${\mathcalL}_s$を用いた後段モデルのパラメータ更新は行わず,新たに単語分割$\tilde{s'}$を1つサンプリングして後段モデルの学習に用いる.具体的には${\mathcalL}_{\tilde{s'}}=q(f(\tilde{s'}),z)$に対して誤差逆伝播法を適用することで,後段モデルの更新を行う.すなわち,提案手法ではNULMのみを学習するための損失値と,後段モデルのみを学習するための損失値の和${\mathcalL}_s+{\mathcalL}_{\tilde{s'}}$を最終的な損失値とし,これを最小化する.提案手法では学習途中のNULMのパラメータを用いたサブワード正則化による後段モデルの学習を行うことで,計算グラフを保持した状態で同時に$N$個のモデルを処理する必要がなくなる.サブワード正則化を用いることで,メモリ効率の観点で軽量な学習が行えるだけでなく,後段モデルが未知の入力に対して頑健になるように学習することができる\cite{kudo2018subword,hiraoka2019stochastic,provilkov2019bpe}.単語分割$\tilde{s'}$を選択するために,式(\ref{eq:sent_prob})のNULMによる単語のユニグラム確率の積を用いて,\\$p(\tilde{s'})^\alpha/\sum_{k=1}^{K}{p(s'_k)^\alpha}$からサンプリングを行う\cite{kudo2018subword}.ここで,$\alpha\in\mathbb{R}^+$は分割の多様性を制御するためのハイパーパラメータであり,$\alpha$を小さく設定するほど一様に近い分布から単語分割をサンプリングする事になる.また,$K$はサンプリングに使用する単語分割の候補数を表すハイパーパラメータで,$K=\infty$の場合はForwardFilteringBackwardSampling\cite{scott2002bayesian,mochihashi2009bayesian}を用いたサンプリングを行う\footnote{文に含まれる文字数$J$と単語の最大長$M$について$O(JM)$でサンプリングが可能である.}.サブワード正則化による後段モデルの学習は,メモリ効率の良い学習と,頑健な後段モデルの学習に貢献するだけでなく,提案手法の単語分割器の学習における$N$-best単語分割の多様性を向上させることにも間接的に貢献する.後段モデルを$N$-best単語分割で学習する場合,毎学習エポックで似たような単語分割候補に対して後段モデルの最適化が行われるため,特定の単語分割を用いた時の損失値のみが低下しやすくなる.これにより,NULMは特定の単語分割のみに高い確率を与えるように更新され,単語分割が局所解から抜け出しにくくなってしまう.後段モデルの学習にサブワード正則化を用いることで,後段モデルの学習が特定の単語分割に偏ることを防ぎ,単語分割が局所解に陥りにくくすることができる.提案手法がベースとしている\citeA{hiraoka2020optimizing}では,この局所最適解に陥ってしまう問題を解消するために,語彙の一部をサンプリングした制約付き語彙を用いていた.一方で本研究では後段モデルに用いるサブワード正則化を用いることが間接的に単語分割の多様性をもたらすため,先行研究で使用した制約付き語彙を使用せずに多様な単語分割を学習に用いることができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{複数入力文を用いた学習}\label{sec:multi_sentences}ここまでは,提案手法への入力が1文となる場合に限定して説明を行った.しかし,含意関係認識タスクや機械翻訳タスクなどの後段タスクでは,複数の文を同時に後段モデルへと入力する必要がある.そこで,本節では複数文を提案手法に用いる場合について説明する.複数文を用いて単語分割器を学習するための損失値を計算する時は,1つの文について$N$-best単語分割を用い,それ以外の文については単語分割のサンプリングを行う.例として,機械翻訳タスクのように,ソース文とターゲット文の2文を後段モデルに入力し,ソース側とターゲット側のそれぞれについて単語分割器を学習する場合を考える.機械翻訳タスクでは,ソース文を後段モデルの入力として用い,ターゲット文を後段モデルの教師信号として使用する.ソース文$s$とターゲット文$t$の単語分割を,それぞれ$s'$,$t'$と表す.ソース側の単語分割器を学習する場合には,ソース文$s$の$N$-best単語分割の各単語分割$s'_n$と,サンプリングしたターゲット文の単語分割$\tilde{t'}$を用いて,損失値${\mathcalL}_{s'_n}=q(f(s'_n),\tilde{t'})$を計算し,式(\ref{eq:total_loss})による重み付き和$\mathcal{L}_{s}$を最小化する.同様にしてターゲット側の単語分割器も,サンプリングしたソース文の単語分割$\tilde{s'}$と,ターゲット文の$N$-best単語分割の各単語分割$t'_n$を用いて${\mathcalL}_{t'_n}=q(f(\tilde{s'}),t'_n)$とその重み付き和$\mathcal{L}_{t}$を計算し,これによって学習を行うことができる.複数文を用いて後段モデルを学習する際には,単純に各文の単語分割をサンプリングして用いる.すなわち,機械翻訳タスクの場合であれば,ソース文とターゲット文のそれぞれの単語分割をサンプリングして計算した損失値${\mathcalL}_{\tilde{s'},\tilde{t'}}=q(f(\tilde{s'}),\tilde{t'})$に対して誤差逆伝播法を用いることで,後段モデルの学習を行う.あるミニバッチ$B\ni(s,t)$を用いて学習を行う時には,以下の損失値に対して最小化を行う.\begin{equation}\mathcal{L}=\sum_{(s,t)\inB}{\mathcal{L}_{s}+\mathcal{L}_{t}+\mathcal{L}_{\tilde{s'},\tilde{t'}}}.\end{equation}機械翻訳タスクにおいて,ソース側のNULMを学習するときの概要を図\ref{fgr:model_outline_multi}に示した.同様にして,ターゲット側のNULMの学習も説明することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{29-1ia5f2.pdf}\end{center}\hangcaption{入力として2文を用いる機械翻訳タスクにおける,ソース側のNULMを学習するための損失値$\mathcal{L}_s$の計算方法の概要.$s$,$t$はそれぞれソース文とターゲット文であり,実線矢印は誤差逆伝播を行う計算パスを表す.}\label{fgr:model_outline_multi}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} \label{sec:experiments}提案手法が複数の後段タスクに適用可能であることを調べるために,本研究では先行研究\cite{xuanli2020dynamic,hiraoka2020optimizing,hiraoka2021optimizing}に倣い,文書分類タスクと機械翻訳タスクでの実験を行う.実験では,特定タスクにおいて単語分割を最適化する既存の手法と提案手法を比較する.具体的には,文書分類タスクにおける単語分割の最適化手法としてOpTok\cite{hiraoka2020optimizing,hiraoka2021optimizing},機械翻訳タスクにおける単語分割の最適化手法としてDPE\cite{xuanli2020dynamic}をそれぞれ比較対象として用い,提案手法の性能と比較する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文書分類}\label{sec:exp_tc}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験設定}提案手法が複数言語の文書分類タスクで有効であることを示すために,3言語のデータセットで実験を行う.Weibo(Zh)\footnote{\url{https://github.com/wansho/senti-weibo}},Twitter(Ja)\cite{suzuki2019filtering}\footnote{\url{http://www.db.info.gifu-u.ac.jp/data/Data_5d832973308d57446583ed9f}},Twitter(En)\footnote{\url{https://www.kaggle.com/c/twitter-sentiment-analysis2}}は,それぞれ中国語,日本語,英語のショートテキストSNS上での感情分析データセットである.Genre(Zh/Ja/En)とRating(Zh/Ja/En)は,中国語,日本語,英語のE-commerceサイトの商品レビューデータセットから作成したタスクで,それぞれレビューから商品のジャンルを予測するタスクと,レビューのレートを予測するタスクである.中国語はJD.com\cite{zhang2015daily}\footnote{\url{http://yongfeng.me/dataset/}},日本語は楽天市場\cite{rakuten},英語はAmazon\cite{he2016ups}\footnote{\url{http://jmcauley.ucsd.edu/data/amazon/}}によるデータセットをそれぞれ使用した.さらに,入力として2文を必要とする実験設定として,SNLI\cite{bowman2015large}を用いた実験を行う.文書分類タスクで使用する各データセットの前処理は,先行研究\cite{hiraoka2020optimizing,hiraoka2021optimizing}と同じ方法を用いた.文書分類タスクにおける比較手法として,SentencePiece(SP)\cite{kudo2018sentencepiece}とOpTok\cite{hiraoka2020optimizing}を用いる.OpTokは本研究がベースとしている手法で,$N$-bestの単語分割候補の文ベクトルを用いて,文書分類タスクに対して単語分割を最適化する手法である.SentencePieceについては,サブワード正則化を用いて学習を行う設定(SP+R)も比較対象として用いる.サブワード正則化では,文書分類タスクの学習時に言語モデルを用いて単語分割をサンプリングし,複数の単語分割を考慮した学習を行う.各手法の評価時には,$1$-bestの単語分割を用いる.文書分類タスクの学習に用いる後段モデルには,先行研究\cite{hiraoka2020optimizing,hiraoka2021optimizing}の実験設定と合わせるために,BiLSTMエンコーダーによる文書分類器を用いる\footnote{文書分類タスクの実験には,先行研究に用いた実験コードを使用した.\url{https://github.com/tatHi/optok}}.提案手法とOpTokの語彙$V$とNULMのユニグラム確率の初期化には,学習済みのSentencePieceのモデルを使用\footnote{先行研究\cite{hiraoka2020optimizing,hiraoka2021optimizing}と同様,NULMとSentencePieceのユニグラム言語モデルのKLダイバージェンスの最小化によって初期化する.}し,すべての手法で同じ語彙を用いて比較を行う.使用する語彙の規模は,Twitter(Ja)とTwitter(En)のみ16,000単語,その他は32,000単語とした.提案手法とOpTokで用いる単語分割の候補数は$N=3$とし,サブワード正則化に用いるハイパーパラメータは$\alpha=0.2$,$K=\infty$と設定した.SNLIコーパスについては,前提(premise)と仮説(hypothesis)の双方について同じNULMを用い,\ref{sec:multi_sentences}節で説明した複数文に対する単語分割の最適化方法を用いて提案手法の学習を行った.30エポックの学習を行い,開発データで性能が最大となるモデルの評価データにおける性能を評価する.先行研究\cite{hiraoka2020optimizing,hiraoka2021optimizing}では,言語モデルの性質を維持するための損失関数を加えることでOpTokの性能が向上することを報告している.提案手法でも同様に性能が向上すると期待されるが,先行研究の実験と設定を合わせるために言語モデルの性質を維持するための損失関数は使用しない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験結果}文書分類タスクでの実験結果を表\ref{tbl:tc_results}に示した.実験結果より,提案手法はすべてのデータセットにおいてSentencePieceと,サブワード正則化を用いた設定よりも高い性能であることが確認された.ここから,単語分割の最適化を行わない場合の学習に対する提案手法の優位性が示される.また,提案手法は10データセットのうち8つのデータセットで,既存手法であるOpTokの性能を上回ることが確認された.残りの2つのデータセットについても,提案手法の性能はOpTokの性能に大きく劣らない性能であることが確認された.これらの結果から,提案手法は文書分類タスクにおける有効な単語分割の最適化手法として,既存手法と代替可能であることが示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{05table01.tex}\hangcaption{文書分類タスクにおける各手法の性能(F1値,5回試行の平均).SPとRはそれぞれ,SentencePieceとサブワード正則化を表す.太字は手法間での最大値を表す.SP+RとOpTokの値については,先行研究\protect\cite{hiraoka2020optimizing,hiraoka2021optimizing}の実験結果から引用した.}\label{tbl:tc_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案手法が多くのデータセットでOpTokの性能を上回る原因として,後段モデルの学習方法が提案手法とOpTokで異なる点が挙げられる.OpTokにおける後段モデルの学習では,後段モデルへの入力として$N$-bestの単語分割候補に対応する文ベクトルの重み付き和を用いている.しかし,推論時には$1$-bestの単語分割のみを用いるために,入力のベクトルの性質が学習時と推論時で異なるものになっており,これが後段モデルの推論に悪影響を与えていると考えられる.一方で,提案手法における後段モデルの学習では,サブワード正則化と同様にサンプリングによって選択した1つの単語分割のみを用いるため(\ref{sec:model_loss}節),学習時と推論時のどちらでも一貫して1つの単語分割のみが後段モデルに入力される.これによって,提案手法はOpTokに比べて効果的に後段モデルの推論を行うことができ,性能の向上がもたらされたと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{機械翻訳}\label{sec:exp_mt}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験設定}提案手法が複数のタスクで有効であることを調べるために,文書分類タスクに加えて機械翻訳タスクでも実験を行う.本研究では,IWSLTデータセットとWMTデータセットを用いて,ドイツ語(De),ベトナム語(Vi),中国語(Zh),アラビア語(Ar),フランス語(Fr),ハンガリー語(Hu),ルーマニア語(Ro)のそれぞれと,英語(En)との8言語対での実験を行う.機械翻訳タスクの既存研究に倣い\cite{cui2020university,huo2020diving,wu2020tencent},前処理として中国語のデータについてはJieba\footnote{\url{https://github.com/fxsjy/jieba}}による事前単語分割を行い,その他の言語に対してはMosesTokenizer\footnote{\url{https://github.com/moses-smt/mosesdecoder}}を用いて事前単語分割を行った.機械翻訳の評価を行う際には,単語分割を復元するデトークナイズを行ってから,SacreBLEU\cite{post2018call}による評価を行った.本実験では,事前単語分割済みのデータに対してSentencePiece(SP),DPE\cite{xuanli2020dynamic},提案手法のそれぞれで単語分割を行い,機械翻訳モデルの学習を行う.文書分類タスクと同様に,サブワード正則化(SP+R)を用いた機械翻訳モデルの学習手法\cite{kudo2018subword}もベースラインとして比較する.DPEはSequence-to-Sequenceモデルに特化した単語分割の最適化手法で,ソース文の情報を用いてターゲット文の単語分割を調整する手法である.本研究の実験ではDPEの公式実装\footnote{\url{https://github.com/xlhex/dpe}}を使用した.機械翻訳タスクで使用する後段モデルとして,Transformer\cite{vaswani2017attention}のFairseq\cite{ott2019fairseq}による実装を用いる.IWSLTデータセットについてはTransformer(small)を使用し,すべての言語に対して語彙の規模を16,000単語としてSentencePieceによる単語分割を行った.WMTデータセットについてはTransformer(base)を使用し,単語分割に用いる語彙の規模はすべての言語に対して32,000単語とし,SentencePieceによる単語分割を行った.文書分類タスクでの実験設定と同様に,提案手法のNULMの初期化にはSentencePieceによって獲得された単語分割と言語モデルを使用する.また,比較対象であるDPEによる単語分割器の学習にも,提案手法と同様にSentencePieceでの単語分割を初期値として用いる.SentencePiece,DPE,提案手法の各手法は同じSentencePieceによって獲得された語彙を用いるため,語彙の規模による不平等はない.サブワード正則化に用いるハイパーパラメータは先行研究\cite{kudo2018subword}に倣い,IWSLTデータセットでは$\alpha=0.2$,WMTデータセットでは$\alpha=0.5$とした.また,データセットにかかわらず,単語分割のサンプリングを行う際の単語分割の候補数は$K=\infty$とした.提案手法の単語分割の最適化に使用する単語分割の候補数は,IWSLTデータセットでは$N=8$,WMTデータセットでは$N=3$と設定した.100エポックの学習を行い,開発データで性能が最大となるモデルの評価データにおける性能を評価する.推論時にはビームサーチを使用し,ビーム幅は5とした.DPEはターゲット側の単語分割のみを最適化する手法であるため,先行研究\cite{xuanli2020dynamic}での実験設定と同様にソース側の単語分割にはサブワード正則化のためにSentencePieceによる単語分割のサンプリングを用いた学習を行う.提案手法はソース側とターゲット側の双方の単語分割の最適化に利用することができるため,ソース側のみに提案手法を用いた場合,ターゲット側のみに提案手法を用いた場合,ソース側とターゲット側の双方に提案手法を用いた場合の3種類の実験設定を用意した.また,提案手法をソース側,ターゲット側のどちらか一方にのみ使用する場合は,もう片方の言語にはサブワード正則化のためにSentencePieceによる単語分割のサンプリングを用いた学習を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{実験結果}機械翻訳タスクにおける各手法の実験結果を表\ref{tbl:mt_results}に示した.実験結果より,16言語対のうち15言語対での機械翻訳タスクにおいて,提案手法を使用した場合に最も性能が高くなることが確認された.さらに,この15言語対のうち10言語対において,提案手法をターゲット側言語のみに使用する設定(SP+R/Ours)が最高性能となることが示された.また,単語分割の最適化の既存手法であるDPEをターゲット側に使用した設定(SP+R/DPE)と比較すると,同様にターゲット側の単語分割のみを最適化する提案手法(SP+R/Ours)は,16言語対のうち15言語対で高い性能であることが確認された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{05table02.tex}\hangcaption{IWSLTデータセットとWMTデータセットを用いた機械翻訳タスクでの実験結果(BLEU値,3回試行の平均).表上部にソース側とターゲット側に使用した単語分割手法をそれぞれ示した.SRとRはそれぞれSentencePieceとサブワード正則化を表す.太字は手法間での最高値を表す.}\label{tbl:mt_results}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%両側言語にサブワード正則化を用いるベースライン(SP+R/SP+R)と比較すると,提案手法をソース側言語のみに使用する設定(Ours/SP+R)だと14言語対,ターゲット側言語のみに使用する設定(SP+R/Ours)だと16言語対すべて,両側に使用する設定(Ours/Ours)だと13言語対で,ベースラインの性能を上回っている.ここから,提案手法をターゲット側のみに使用する設定が,安定して性能の向上に貢献することが示された.一方で,提案手法をソース側とターゲット側の双方に用いた設定は,多くの言語において大きな性能の向上に繋がらないことがわかった.これは,提案手法を用いてソース側とターゲット側の両側の言語の単語分割を同時に最適化することが難しく,性能の向上が得られなかったためだと考えられる.機械翻訳タスクにおいて,提案手法を用いてソース側とターゲット側の双方を最適化して性能の向上を得る方法については,\ref{sec:both_enc_dec}節でさらに詳細に分析する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{後処理としての単語分割の最適化} \label{sec:post_optimization}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}\ref{sec:optimizing_tokenization}節で述べた通り,提案手法における後段モデルにはあらゆる関数が使用できるため,後段モデルが学習済みであっても提案手法を適用して単語分割の最適化を行うことができる.本節では,学習済みの後段モデルに対して提案手法を適用し,後処理として単語分割を最適化することで,性能の更なる向上が得られることを確認する.具体的には,式(\ref{eq:total_loss})における${\mathcalL}_s$を用いて,後段モデルのパラメータは更新せずに提案手法の単語分割器(NULM)のみを学習したときの性能の向上について検証する.後処理としての単語分割の最適化の効果を確かめるために,文書分類タスクのうち感情分析データセットと,機械翻訳タスクのうちIWSLTデータセットを用いて実験を行う.学習済みの後段モデルを作成するために,文書分類タスクではBiLSTMエンコーダーを用いた文書分類器,機械翻訳タスクではTransformer(small)をそれぞれ,\ref{sec:experiments}章での実験と同じ設定で学習する.なお,文書分類タスクと機械翻訳タスクの両方において,後段モデルはサブワード正則化を用いて学習する.文書分類タスクでは30エポック,機械翻訳タスクでは100エポックの学習を行った時点でのモデルを,学習済みの後段モデルとして扱う.学習済みの後段モデルに対して提案手法を適用し,後段モデルのパラメータは更新せず,単語分割の更新のみをさらに5エポック学習し,単語分割の最適化による性能の向上が得られるかを確認する.学習済みの後段モデルのパラメータは更新しないため,機械翻訳タスクにおいては,ソース側の単語分割のみを最適化することで,推論時の性能が向上するかを確かめる.文書分類タスクにおいては,既存手法であるOpTokも同様に後処理としての単語分割の最適化を行えるため,ベースラインとして比較する.またTwitter(Ja)データセットでは,SentencePieceによる単語分割以外でも提案手法が有効であることを調べるために,日本語で広く使用される辞書ベースの単語分割器MeCab\cite{kudo2006mecab}を用いた実験を行う.この実験では,MeCab(IPADIC)による単語分割を用いて後段モデルを30エポック学習した後に,5エポックの単語分割の最適化を行う.後段モデルの学習にはサブワード正則化を用いない.提案手法とOpTokで使用するNULMの初期状態として,MeCabで単語分割を行った学習データの頻度数え上げによるユニグラム言語モデルを用いた.また,学習データにおいて頻度が1である単語はすべて未知語トークンに置換した.Twitter(En)データセットでは,大規模な事前学習モデルに提案手法が適用可能であることを調べるために,BERT\cite{devlin2018bert}を用いた実験を行う.この実験では,文書分類タスクの学習に用いるBiLSTMエンコーダーを$\mathrm{BERT}_\mathrm{base}$\footnote{HuggingFaceが配布している事前学習モデルを利用した:\url{https://github.com/huggingface/transformers}}に置き換え,後段モデルに対して30エポックのファインチューニングを行ってから5エポックの単語分割の最適化を行う.MeCabの実験と同様,後段モデルの学習にはサブワード正則化を使用せず,NULMの初期状態にはBERTに同梱されているWordPieceによる学習データの単語分割から頻度数え上げで作成したユニグラム言語モデルを用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{05table03.tex}\hangcaption{学習済みの後段モデル(学習済み)と,後処理として単語分割を最適化した場合(学習済み→OpTok,学習済み→Ours)の文書分類タスク(Sentiment,F1値)と機械翻訳タスク(IWSLT15,BLEU)での性能.「学習済み」はSentencePiece,MeCab,BERTのWordPieceによる単語分割を使用し,文書分類タスクで30エポック,機械翻訳タスクで100エポックの学習をそれぞれ行った後段モデルである.SentencePieceによる後段モデルの学習にはサブワード正則化を使用した.OpTokとOursは,学習済みの後段モデルに対して後処理としての単語分割の最適化をそれぞれの手法で5エポック学習した時の性能である.太字は手法間での最高値を表す.}\label{tbl:post_proc}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}後処理として単語分割を最適化した時の各手法の実験結果を表\ref{tbl:post_proc}に示した.表において,「学習済み」は文書分類タスクで30エポック,機械翻訳タスクで100エポックの学習を行った時点での後段モデルの性能を示す.また,「学習済み→OpTok」と「学習済み→Ours」はそれぞれ,学習済みの後段モデルに対してOpTokと提案手法それぞれで5エポックの単語分割の最適化を行ったときの性能を表す.実験結果より,提案手法による単語分割の最適化を行うことで,既に学習済みの後段モデルよりも性能が向上することが示された.文書分類タスクにおいては,既存手法のOpTokと提案手法はどちらも後処理としての単語分割の最適化によって性能の向上が得られ,提案手法は日本語と英語のデータセットにおいてOpTokの性能を上回ることが確かめられた.機械翻訳タスクにおいても,提案手法による単語分割の最適化によって,安定して学習済みの後段モデルの性能を向上させることが示された.また,単語分割器にMeCabを用いた実験設定でも,提案手法によって性能の向上が得られることが確認された.この結果から,日本語で広く用いられる辞書ベースの単語分割器を用いて学習した後段モデルであっても,提案手法によって性能の向上が得られることが示された.さらに,BERTを用いた実験でも提案手法による性能向上が得られ\footnote{後処理ではなく,\ref{sec:exp_tc}節のように単語分割器とBERTを用いた後段モデルを同時に最適化する実験はOpTokに関する既存研究\cite{hiraoka2020optimizing,hiraoka2021optimizing}で行われている.ここから,提案手法もOpTokと同様に,BERTを用いた場合であっても後段モデルと単語分割の最適化が可能であると考えられる.},提案手法はSentencePieceやサブワード正則化を用いない方法で学習された後段モデルであっても,後処理として単語分割の最適化を行い,性能向上に寄与することがわかった.これらの結果から,後段モデルが学習済みであり,学習可能なパラメータがない状態であっても,単語分割を調整することでその性能を底上げすることができ,提案手法を用いることで適切な単語分割が得られることがわかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{分析} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ソース側とターゲット側の単語分割双方の最適化}\label{sec:both_enc_dec}機械翻訳タスクにおける\ref{sec:exp_mt}節での実験結果から,提案手法を用いてソース側とターゲット側の双方の単語分割を同時に最適化すると,片側のみに提案手法を用いた場合に比べて性能が劣ることが示された.この結果は,機械翻訳タスクにおけるソース側言語とターゲット側言語で適切な単語分割の粒度が異なり,同時に最適化を行うことが難しいことに起因すると考えられる.本節では,機械翻訳タスクにおいてソース側とターゲット側双方の単語分割を最適化しつつ,安定した性能の向上を得るための学習の戦略を3つ用意し,比較を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{Src$\rightarrow$Tgt}100エポックの学習のうち,前半の50エポックはソース側のNULMのみを更新し,ターゲット側のNULMは更新しない.後半の50エポックではソース側のNULMのパラメータを更新せず,ターゲット側のNULMのみを更新する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{Tgt$\rightarrow$Src}Src$\rightarrow$Tgtの戦略とは逆に,前半の50エポックでターゲット側のNULMを学習し,後半の50エポックでソース側のNULMを学習する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{Random}ミニバッチごとに,ソース側とターゲット側のNULMを確率0.5でランダムに選択し,選択された片方のみのNULMを更新する.\\いずれの学習戦略においても,後段モデルである機械翻訳モデルは単語分割器と同時に最適化し,全体で100エポックの学習が行われる.それぞれの学習戦略を用いたときの機械翻訳タスクでの実験結果を表\ref{tbl:exp_both}に示した.表においてBothは,ソース側とターゲット側の双方の単語分割を同時に最適化する実験設定で,表\ref{tbl:mt_results}におけるOurs/Oursの数値を引用したものである.実験結果より,ソース側のNULMを学習してからターゲット側のNULMを学習する戦略(Src$\rightarrow$Tgt)を用いることで,両側の単語分割を最適化しつつ,安定して性能の向上が得られることがわかった.特に,Vi-En,En-Vi,Zh-Enの3言語対での実験では,Src$\rightarrow$Tgtの戦略を用いることで\ref{sec:exp_mt}節での実験(表\ref{tbl:mt_results})で示した最高性能値を上回ることが示された.一方で,ターゲット側のNULMを学習してからソース側のNULMを学習する戦略(Tgt$\rightarrow$Src)は,3言語対で性能が両側を同時に最適化する方法(Both)に劣り,ソース側とターゲット側の単語分割の最適化の順番が重要であることが示唆される.さらに,学習するNULMをミニバッチごとにランダムに選択する戦略(Random)の性能も,両側を同時に最適化する方法(Both)に劣る性能であった.ここから,ランダムに選択した片側のみのNULMを更新するだけでは性能向上が得られず,片側ずつ順番に学習を行うことの重要性が示唆される.これらの結果から,機械翻訳タスクにおいてソース側言語とターゲット側言語の双方の単語分割を最適化するときには,ソース側のNULMを学習してからターゲット側のNULMを学習する,段階的な学習戦略を用いることで,性能の向上が得られることが示された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{05table04.tex}\hangcaption{ソース側とターゲット側の双方の単語分割を最適化するための各戦略のIWSLT15データセットでの機械翻訳タスクの性能(BLEU値,3回試行の平均).Bothは表\ref{tbl:mt_results}におけるOurs/Oursの実験設定の数値を引用したものである.太字は実験設定間での最高値を表す.}\label{tbl:exp_both}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,ソース側のNULMをあらかじめ学習してから固定し,ターゲット側の学習を行うことで性能が向上するという結果から,学習の終盤でソース側の単語分割が変更されることが性能の低下に繋がっていると考えられる.ここから,ソース側の単語分割が学習を通して大きく変わる傾向にあり,学習を不安定にさせていることが示唆される.機械翻訳タスクにおいて,実際に最適化された単語分割の粒度については\ref{sec:granularity_mt}節で分析する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文書分類タスクで最適化された単語分割}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{獲得された単語分割}本節では,文書分類タスクにおいて提案手法で最適化を行った単語分割の分析を行う.単語分割の分析には,英語のレビューデータについてのジャンル予測タスクとレート予測タスクを用いる.これらのデータセットは,どちらも同じAmazonデータセットから作成されており,同じコーパスに対してジャンル予測タスクとレート予測タスクの2つのタスクが設定されている.そのため,タスクによって同じコーパスに対して異なる単語分割を学習しているかを調べることができる.既存手法のOpTokと提案手法を用いて最適化した単語分割の例と,これらの初期値であるSentencePieceによる単語分割の例を表\ref{tbl:seg_tc}に示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{05table05.tex}\hangcaption{文書分類タスクにおける,手法ごとの単語分割の例.手法間で異なる単語分割が見られる箇所を太字で示した.}\label{tbl:seg_tc}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:seg_tc}より,提案手法によって最適化された単語分割は,ベースとしているOpTokで最適化した単語分割と似た傾向となることが確認できる.例えば,OpTokと提案手法はどちらも,ジャンル予測のタスクでのみ単語``episodes''の接尾辞``-s''を切り離している.``episode''という単語は``Movies\_and\_TV''ジャンルに特徴的な単語であるため,接尾辞を切り離すことでタスクに特化した単語分割を使用するように学習したと考えられる.ここから,提案手法と既存手法はどちらもタスクに特化した単語分割を学習できていることが示唆される.ジャンル予測タスクにおいて,提案手法はOpTokとは異なり``seasons''という単語の接尾辞を分割し,``season-s''と学習している.レート予測タスクでは,OpTokが``like-d''と過去を表す接尾辞を分割する一方で,提案手法は分割を行わずに``liked''という単語をそのまま使用している.これらの差は,OpTokと提案手法で使用している損失関数が異なることや,得られる結果が後段モデルのパラメータの初期値やミニバッチ学習の順序に依存することに起因する.また,提案手法はOpTokと比較して,レート予測タスクにおいて単語を細かく分割しない傾向にあることが分かっている(\ref{sec:granularity_tc}節).これは,後段モデルの損失値に重み付けを行う提案手法と,文ベクトルに重み付けを行うOpTokとの構造的な差に起因すると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{単語分割の粒度}\label{sec:granularity_tc}表\ref{tbl:seg_tc}に示した単語分割の例から,\pagebreak提案手法とOpTokのそれぞれで最適化した単語分割は,初期状態のSentencePieceの単語分割に比べて,接尾辞を区切るなどの操作によって短い単語を多く使う傾向にあることがわかる.つまり,短い単語を多く使うことで,最適化後の単語分割は元の単語分割に比べて単語数が多くなる傾向にある.そこで,単語分割の最適化によって単語分割済みの文に含まれる単語数がどの程度多くなったかを,中国語,日本語,英語のレビューデータセットを用いて調べる.表\ref{tbl:length_tc}に,初期状態であるSentencePieceの単語分割に含まれる単語数を1.0とした時の,各手法で最適化を行った単語分割に含まれる単語数の割合を示した.比較には,学習データに含まれる全文の単語分割を用いる.この表において1.0を超える値は,最適化された単語分割の単語数が初期状態よりも多いことを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{05table06.tex}\hangcaption{文書分類タスクにおける,既存手法OpTokと提案手法による単語分割の粒度.各手法の使用したSentencePieceによる単語分割の長さを1.0とした時に,最適化された単語分割の長さが学習データ全体でどの程度長くなったかの割合を示す.1.0以上の数値は,初期値の単語分割よりも系列長が長くなっている(細かい粒度で分割を行っている)ことを表す.}\label{tbl:length_tc}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:length_tc}より,すべてのデータセットにおいて提案手法とOpTokによって最適化された単語分割は,どちらも初期状態であるSentencePieceの単語分割に比べて単語数が増えていることがわかる.また,英語のデータセットで最適化された単語分割は,中国語や日本語に比べて単語分割の長さの増加率が小さいことが確認された.これは,英語における意味を持つ単語の単位が中国語や日本語よりも長く,細かく区切ることで意味が失われてしまうためであると考えられる.さらに,提案手法とOpTokのどちらの手法でも,ジャンル予測タスクで最適化された単語分割はレート予測タスクで学習された単語分割よりも単語数が多くなっており,単語分割の最適化の傾向が双方で似ていることが示唆される.この傾向は,ジャンル予測タスクとレート予測タスクの特徴や,ラベルの数に関係していると考えられる.表\ref{tbl:seg_tc}に示したように,提案手法はラベルに特徴的な単語の接尾辞などを切り離すことで,効果的な予測を行えるように単語分割を学習する.ジャンル予測タスクはレート予測タスクに比べてラベルの数が多く,ラベルごとに特徴的な単語も比較的多いため,文中の多くの単語に対して接尾辞の分割操作が働き,単語数が多くなっていると考えられる.一方でレート予測タスクにおけるラベルの特徴語の多くは,ポジティブ・ネガティブのそれぞれの極性に対応する単語である.そのため,レート予測タスクでは特徴語の種類がジャンル予測タスクに比べて少なく,接尾辞の分割操作の頻度も少なくなることで,文全体の単語数が抑えられていると考えられる.また,すべての言語のレート予測タスクにおいて,提案手法による単語分割の単語数はOpTokを下回ることが確認された.つまり,レート予測タスクにおいて提案手法はOpTokに比べて単語を短く切らない傾向がある.OpTokでは,単語分割の候補それぞれの文ベクトルに対して単語分割の確率で重み付けを行うため,単語分割の確率が後段モデルに入力される情報に影響を与える.そのため,ラベルに特徴的な単語を含む単語分割の文ベクトルの情報をより多く得るために,その単語分割の確率を向上させるような学習が働く.これにより,ラベルに特徴的な単語のユニグラム確率が大きく向上し,結果として細かい粒度での単語分割を行う傾向につながる.一方で提案手法は,後段モデルの損失値に重み付けを行うため,単語分割の確率が後段モデルの入力に影響を与えない.そのため,ラベルに特徴的な単語のユニグラム確率を大きく向上させる傾向がOpTokよりも弱く,このような単語分割の粒度の差として表れていると考えられる.特にレート予測タスクのように,ラベルと特徴語の関係が強いタスクにおいて,この構造上の差が単語分割の粒度として顕著に表れたと推測される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{機械翻訳タスクで最適化された単語分割}\label{sec:tokenization}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{獲得された単語分割}本節では,機械翻訳タスクにおいて提案手法で最適化を行った単語分割について分析を行う.表\ref{tbl:seg_example}に,SentencePieceによる単語分割と,DPEと提案手法のそれぞれで最適化を行った単語分割の例を示した.分析ではIWSLT15データセットの中国語・英語ペアを使用し,それぞれの手法による英語側の単語分割の比較を行う.DPEはターゲット側の単語分割を最適化する手法であるため,中英翻訳ペアでのみ比較を行う.また提案手法については,英語側のみの単語分割を最適化し,中国語側の最適化は行わずに学習したものを用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{05table07.tex}\hangcaption{SentencePiece,DEP,提案手法のそれぞれによる英中・中英翻訳での英語側の単語分割の比較.手法間で単語分割が異なる部分を太字で示した.}\label{tbl:seg_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:seg_example_src}はソース側の英語の文における,表\ref{tbl:seg_example}aはソース側の英語の文における,SentencePieceによる初期状態の単語分割と,提案手法によって最適化を行った単語分割の比較である.表より,提案手法はSentencePieceによる単語分割に比べて単語を短く区切る傾向があることがわかる.例えば,``don''を``do-n'',``have''を``hav-e'',``hours''を``hour-s''と区切っており,語根から接尾辞を分割する傾向が見られる.これは,文書分類タスクにおいて最適化を行った単語分割の例(表\ref{tbl:seg_tc})と同様の傾向である.%%%%表\ref{tbl:seg_example_tgt}では,表\ref{tbl:seg_example}bでは,ターゲット側の英語の文における,SentencePieceによる初期状態の単語分割と,DPEと提案手法それぞれによって最適化を行った単語分割の比較を示した.表より,ソース側の単語分割と比べて,提案手法はターゲット側の文の単語分割を細かく区切らないことが確認できる.例えば提案手法は,SentencePieceによる単語分割``separate-d''を``separat-ed''と分割し直しているが,文全体の単語数は変わっていない.機械翻訳タスクにおける既存の単語分割の最適化手法であるDPEと比較すると,提案手法は過去の接尾辞``-ed''を分割するという点で,似た傾向を持つ.しかし,DPEが``a-way''という分割を用いるのに対して提案手法はSentencePieceと同様に``away''と細かく区切らないなど,提案手法は系列長が長くなるような分割を避ける傾向にあることがわかった.これは,DPEと異なり提案手法が後段モデルの損失値を直接学習に用いており,系列長が長くなることでデコーダーによる生成が難しくなることを避けているためだと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{05table08.tex}\hangcaption{IWSLTデータセットにおいて,SentencePieceによる初期状態の単語分割に含まれる単語数を1.0としたときの,DPEと提案手法それぞれで最適化を行った単語分割に含まれる単語数の割合.EncoderとDecoderはそれぞれ機械翻訳タスクの学習に用いた単語分割手法を表,SP+RはSentencePieceによるサブワード正則化を用いた設定を表す.}\label{tbl:analysis_length}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{単語分割の粒度}\label{sec:granularity_mt}機械翻訳タスクにおける各比較手法による単語分割の粒度を調べるために,\ref{sec:granularity_tc}節と同様に,単語分割済みの文に含まれる単語数の比較を行う.表\ref{tbl:analysis_length}に,SentencePieceによる初期状態の単語分割に含まれる単語数を1.0とした時の,DPEと提案手法それぞれで最適化を行った単語分割に含まれる単語数の割合を示した.比較には,IWSLTデータセットの学習データに含まれる全文の単語分割を用いる.表において,1.0を超える値は初期状態の単語分割よりも単語数が増えていることを表す.表\ref{tbl:analysis_length}より,ソース側言語に対して提案手法で最適化を行った単語分割に含まれる単語数は,初期状態のSentencePieceによる単語分割よりも増えていることがわかる.%%%%ここから,表\ref{tbl:seg_example_src}の例にある通り,ここから,表\ref{tbl:seg_example}aの例にある通り,提案手法はコーパス全体でソース側の単語を細かい単位に分割していることがわかる.一方で,ターゲット側言語に対して提案手法で最適化を行った単語分割に含まれる単語数は,初期状態の単語分割に比べてわずかに短くなる傾向がある.ここから,提案手法はソース側の単語分割の最適化とは異なり,初期状態の単語分割の単語数を維持しながらターゲット側言語の単語分割を調整していることが示唆される.これは,単語を短く区切ることでターゲット側言語の系列長が長くなり,デコーダーによる生成が難しくなることを提案手法が避けているためだと考えられる.英中翻訳においては,他の翻訳ペアとは異なり,提案手法はターゲット側の中国語の単語分割を初期状態よりも短く区切り,系列長を長くすることが確認された.中国語は表意文字を用いるため1文字が持つ情報が表音文字を用いる英語に比べて多く,中国語の1文に含まれる文字数は英語よりも少なくなる.そのため,提案手法はソース側の英語の単語分割の粒度と揃えるために,ターゲット側の中国語の単語分割を細かく区切るように学習されたと考えられる.提案手法と比較して,単語分割の最適化の既存手法であるDPEによる単語分割の粒度は,言語ごとに傾向が異なることがわかる.提案手法がユニグラム言語モデルとビタビアルゴリズムというシンプルな単語分割器の構成を持っているのに対し,DPEはTransformerと特殊なデコード用のアルゴリズムを用いた単語分割を行うため,提案手法よりも単語分割の自由度が高い.さらに,DPEはターゲット側の単語分割を生成する際に,ソース側の単語分割をTransformerに入力することで直接考慮することができる.一方で,提案手法がターゲット側の単語分割を生成する際には,両側言語を用いて学習したNULMを用いるため,ソース側の単語分割を直接考慮することはできない.そのため,DPEの単語分割は言語ごとの影響を受けやすく,単語分割の粒度も言語によって異なったものになると考えられる.提案手法は単語分割の自由度という点において,DPEよりも制約が大きいが,\ref{sec:exp_mt}節での実験から機械翻訳タスクでの性能はDPEよりも高いことがわかっている.NULMはユニグラム言語モデルであるため,文脈に応じて単語分割を変化させることができないが,これはコーパス全体で一貫した単語分割を行うことができるという利点でもある.機械翻訳タスクでの性能向上は,こうした提案手法の性質が寄与していると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{最適化された単語分割の異なるタスクへの転用}\ref{sec:post_optimization}章の実験では,単語分割の最適化のみでも後段モデルの性能の向上が得られることを確認した.このように,後段タスクや後段モデルの性質に応じて単語分割を調整する提案手法は,単語分割のドメイン適応の手法と捉えることができる.そこで本節では,提案手法によって最適化を行った単語分割が,後段タスクや後段モデルに特化したものになっているかを調べる.具体的には,ある後段タスクに対して最適化を行った単語分割を,本来目的としていたものとは異なるタスクに転用した時の性能を調査する.分析のために,文書分類タスクの実験で使用したジャンル予測タスクとレート予測タスクを利用する.これらのデータセットは,同一のレビューコーパスから2つの異なる後段タスクを作成しているため,後段モデルに対する単語分割の影響のみを比較することができる.\ref{sec:post_optimization}章での実験と同様に,それぞれの後段タスクにおいて,SentencePieceとサブワード正則化によって後段モデルを学習する.30エポックの学習を終えた後段モデルのパラメータを固定し,同じタスクを用いて提案手法による単語分割の最適化を5エポック行う.その後,最適化を行った単語分割を本来の後段モデルと,異なる後段タスクで学習を行った後段モデルに適用し,性能の評価を行う.例えばジャンル予測タスクを用いて後段モデルを学習した後に,その後段モデルを用いて単語分割をジャンル予測タスクに最適化する.この単語分割を用いて,ジャンル予測タスクで学習した後段モデルと,レート予測タスクで学習した後段モデルのそれぞれの評価を行い,その性能を確認する.提案手法が後段タスクに特化したものになっているのであれば,本来の目的であるジャンル予測タスクでの性能が,レート予測タスクの性能よりも高くなるはずである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{05table09.tex}\hangcaption{最適化に用いたタスクとは異なるタスクに単語分割を転用した場合の後段モデルの性能.後段モデルはSentencePieceによるサブワード正則化で学習済みのものを用い,単語分割はパラメータを固定した後段モデルを用いて学習した.評価タスクごとの最大性能を太字で示した.}\label{tbl:cross_task}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:cross_task}に,中国語,日本語,英語のレビューデータセットでの実験結果を示した.例えば1行目は,JD.comデータセットのGenreタスクで学習を行った後段モデルについて30エポックの学習を行ったモデル(SP+R),Genreタスクで5エポックの単語分割の最適化を行ったモデル(SP+R→Genre),Ratingタスクで5エポックの単語分割の最適化を行ったモデル(SP+R→Rating)それぞれの性能を示している.表\ref{tbl:cross_task}に示した実験結果より,すべての言語のレビューデータセットにおいて,後段モデルの学習と単語分割の最適化に用いた後段タスクが同じ場合が,初期状態の単語分割を使った場合や異なるタスクを用いた場合よりも性能が高くなることが確認された.ここから,提案手法によって後段タスクや後段モデルに特化した単語分割が得られていることが示唆される.また,異なるタスクで学習した単語分割を用いた場合であっても,初期状態の単語分割よりも後段モデルの性能が向上する場合があることが確認された.この結果は,ジャンル予測タスクとレート予測タスクで横断的に有効な単語分割が存在することを示唆している.特にレート予測タスクで最適化した単語分割をジャンル予測タスクに転用したすべての場合で,後段モデルの性能が初期状態の単語分割よりも向上している.ここから,レート予測タスクに最適な単語分割が,部分的にジャンル予測タスクにも有効であることを示している.一方でジャンル予測タスクに最適化した単語分割は,レート予測タスクには転用しにくいことが示された.これは,ジャンル予測タスクに有効な単語がラベルごとに特徴的であり,単語分割の粒度も大きく変わることから(\ref{sec:granularity_tc}節),レート予測タスクに有効な単語分割と重複する部分が少なくなるためだと考えられる.また,後段モデルと単語分割の学習に同じタスクを用いる実験設定は\ref{sec:post_optimization}章の実験設定と同じであり,その性能はいずれも初期状態の単語分割を用いた時よりも向上している.ここから,提案手法は感情分析タスクだけではなく,レビューデータセットを用いた文書分類タスクであっても後処理としての単語分割の性能向上が得られることが確認される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ハイパーパラメータ$N$の影響}提案手法では,NULMの更新のために$N$-bestの単語分割候補を使用しており,$N$はハイパーパラメータとして設定している.本節では,このハイパーパラメータ$N$が後段タスクに与える影響について分析する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[b]\begin{center}\includegraphics{29-1ia5f3.pdf}\end{center}%%%%\label{fgr:various_n_tc}%%%%\label{fgr:various_n_mt}\hangcaption{文書分類タスクと機械翻訳タスクにおけるハイパーパラメータ$N$による性能の差.それぞれ表\ref{tbl:tc_results},表\ref{tbl:mt_results}で報告した値からの差を示す.}\label{fgr:various_n}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%分析のために,\ref{sec:experiments}章での実験設定とは異なる$N$を用いて文書分類タスクと機械翻訳タスクの実験を行う.%%%%それぞれのタスクでの実験結果を図\ref{fgr:various_n_tc}と図\ref{fgr:various_n_mt}に示した.それぞれのタスクでの実験結果を図\ref{fgr:various_n}aと図\ref{fgr:various_n}bに示した.図では,\ref{sec:experiments}章での実験で使用した$N$を用いた時の性能を0.0とし,異なる$N$を用いた時の性能との差を示した.つまり,文書分類タスクでは$N=3$の基準として表\ref{tbl:tc_results}の値を用い,機械翻訳タスクでは$N=8$の基準として表\ref{tbl:mt_results}の値を用いた.文書分類タスクとして,\ref{sec:exp_tc}節での実験から中国語,日本語,英語の感情分析タスクを用いてハイパーパラメータ$N$の影響を調査する.また,提案手法がベースとする先行研究OpTok\cite{hiraoka2020optimizing}についても同様の分析を行っているため,その数値を引用して図に示した.%%%%図\ref{fgr:various_n_tc}の結果より,図\ref{fgr:various_n}aの結果より,文書分類タスクにおいて,ハイパーパラメータ$N$は提案手法を用いた後段モデルの性能に大きな影響を与えないことが示された.さらに,日本語と英語のデータセットについては,より大きな$N$を用いることで性能が上昇する傾向があることが示された.一方で中国語のデータセットでは,$N$を大きくすることが性能の低下につながることが確認された.これは,単語境界をスペース記号で明記する英語や,複数の文字種を用いる日本語に比べて,スペース記号を用いず単一の文字種で記述を行う中国語の単語分割には多くの曖昧性があるためだと考えられる.つまり,中国語において大きな$N$を設定することで単語分割候補の多様性が高くなり,後段モデルの学習が安定しなくなると考えられる.既存研究であるOpTok\cite{hiraoka2020optimizing}に対して同様の実験を行った値と比較すると,提案手法は$N$に対して頑健であることがわかる.\ref{sec:exp_tc}節で述べた通り,OpTokは後段モデルの学習に$N$-bestの単語分割候補それぞれの文ベクトルの重み付き和を用いている一方で,提案手法はサンプリングされた一つの単語分割のみを用いることで,学習時と推論時の設定の乖離を防いでいる.そのため提案手法においては,ハイパーパラメータ$N$の値が後段モデルの学習に直接与える影響が小さくなっており,異なる$N$に対して安定した性能が得られていると考えられる.この結果より,提案手法は異なる$N$を用いた場合でも性能が安定しているという点において,先行研究\cite{hiraoka2020optimizing}よりも優れていると言える.機械翻訳タスクでの分析には,IWSLT15データセットのベトナム語から英語への翻訳ペアを用い,%%%%実験結果を図\ref{fgr:various_n_mt}に示した.実験結果を図\ref{fgr:various_n}bに示した.実験結果より,提案手法による単語分割の最適化をターゲット側のみに用いた設定(SP-Ours)においては,ハイパーパラメータ$N$が性能に与える影響は小さいことが確認された.\ref{sec:granularity_mt}節での分析で見たように,提案手法によるターゲット側の単語分割の最適化では,その粒度は初期状態から大きく変わらない.そのため,単語分割の候補数$N$を増やしても,変わらず初期状態の単語数に似た単語分割が選択されるために,ターゲット側に対する$N$の影響が大きくならないと考えられる.一方で,提案手法をソース側のみに使用した設定(Ours-SP)では,$N$を大きくすることで性能が向上することがわかった.\ref{sec:tokenization}節での分析から,機械翻訳タスクにおいて提案手法はソース側の単語分割を大きく変更する性質があることがわかっている.そのため,$N$を大きくすることで学習中に使用できる単語分割の候補が増え,より広い探索空間からタスクに適した単語分割を選択できるようになり,性能が向上すると考えられる.また,この傾向は同様にエンコーダーを用いる文書分類タスクにおけるハイパーパラメータ$N$に関する傾向とも一致する.機械翻訳タスクにおいて,両側の言語の単語分割を最適化する設定(Ours-Ours)では,$N$を大きくすることでわずかに性能が低下することが示された.両側の単語分割を同時に最適化する場合は,より大きな$N$を設定することでソース側の単語分割が学習中に大きく変わり,デコーダー側の単語分割や後段モデルの学習が不安定になるためであると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 自然言語処理において,後段タスクに応じて適切な単語分割を獲得するための試みは,主に機械翻訳分野で研究されてきた.\citeA{niessen2004statistical}と\citeA{goldwater2005improving}は,人手で作成した言語学的な情報を用いることで,統計的機械翻訳の性能が向上するような適切な単語分割の指標を作成した.また,機械翻訳におけるソース文とターゲット文のアラインメント情報を活用することで,適切な単語分割を自動で獲得する方法についても研究されている\cite{xu2008bayesian,chung2009unsupervised,nguyen2010nonparametric}.近年の研究では,後段タスクに応じた適切な単語分割をニューラルネットワークを用いて学習するための手法が提案されている.\citeA{gowda2020finding}は,ニューラルネットワークを用いた機械翻訳タスクにおける適切な単語分割の粒度の分析を行った.\citeA{salesky2020optimizing}では,BPE\cite{sennrich2016neural}によるトークンのマージ操作を,検証データでの機械翻訳モデルの性能を参考にして停止する手法(Incremental-BPE)を提案している.本研究は後段モデルである機械翻訳モデルの情報を用いて単語分割を決定するという点で\citeA{salesky2020optimizing}と類似しているが,Incremental-BPEは単語分割の候補がBPEのマージ操作の順番に依存しており,単語分割の探索範囲が狭い.提案手法は与えられた語彙の中から自由に単語分割を選択することができる点において,Incremental-BPEとは異なる.\citeA{xuanli2020dynamic}は,機械翻訳タスクに特化した単語分割手法であるDynamicProgrammingEncoding(DPE)を提案した.DPEは,機械翻訳モデルとは別に単語分割を行うためのTransformerを用意し,ソース文を用いてターゲット文の単語分割を生成する手法である.DPEはニューラルネットワークを用いて単語分割の最適化を行う点で提案手法と類似しているが,DPEによる単語分割の最適化には後段モデルの情報が使われていない.提案手法は後段モデルの情報を用いて直接単語分割器の更新を行う点でDPEとは異なる.さらに,提案手法は機械翻訳のようなSequence-to-Sequenceタスク以外であっても適用可能である点でDPEとは異なる.\citeA{hiraoka2020optimizing},\citeA{hiraoka2021optimizing}では,文書分類タスクにおいて単語分割器と後段モデルを同時に最適化する手法(OpTok)を提案した.本研究ではOpTokのアイディアをベースとして,機械翻訳のような複数のタスクで単語分割の最適化を行えるように拡張を行った.さらに,提案手法とOpTokは後段モデルの学習方法が異なっている.OpTokでは複数の単語分割候補の文ベクトルを単語分割の確率で重みづけることで,後段モデルと単語分割器を同時に更新していた.一方で提案手法では,単語分割器のみを複数の単語分割候補に対応する損失値の重み付き和で学習し,後段モデルはサンプリングした1つの単語分割のみで学習を行う.本稿では実験を通して,提案手法による学習方法がOpTokよりも有効であることを示した.提案手法の後段モデルの学習には,単語分割のサンプリングを行う.これはサブワード正則化として知られている学習テクニックである.\citeA{kudo2018subword}はユニグラム言語モデルをベースとした単語分割モデルであるSentencePiece\cite{kudo2018sentencepiece}を用いて単語分割をサンプリングし,機械翻訳モデルの学習に用いることで性能が向上することを報告した.\citeA{provilkov2019bpe}はBPE\cite{sennrich2016neural}によるマージ操作にドロップアウトを適用することで,サブワード正則化をBPEの枠組みで使用できるように拡張した.また,\citeA{hiraoka2019stochastic}はサブワード正則化が文書分類タスクでも有効であることを示し,サンプリングをスケジューリングすることで性能の向上が得られることを示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本稿では,後段モデルや学習データなどの後段タスクの情報を用いて単語分割を最適化する新たな手法を提案した.提案手法は複数の単語分割候補を後段モデルに入力し,それぞれに対応する損失値を用いて単語分割器の更新を行う.文書分類タスクと機械翻訳タスクにおける実験を通して,提案手法が既存の単語分割手法や単語分割の最適化手法を上回る性能であることを確認した.提案手法では,後段モデルの損失値のみを用いて単語分割器を更新するため,様々な自然言語処理のタスクで利用可能である.提案手法は単語分割器の学習のために$N$-bestの単語分割候補を用いた推論が必要であり,一般的な後段モデルの学習に比べて時間的なコストがかかる\footnote{\ref{sec:exp_tc}節におけるTwitter(En)データセットでの実験における学習処理では,1秒あたりの平均処理文数がSP:1,181文,SP+R:995文,OpTok:181文,提案手法:225文である.SPやSP+Rで使用しているSentencePieceがC++の実装で,OpTokや提案手法で用いている分割アルゴリズムがPythonによる実装であるため正確な比較はできないが,処理速度の問題は実応用の観点から看過できない.}という課題がある.今後はこうした課題の解決に加え,固有表現抽出タスクや質問応答タスクのように,より単語分割境界が重要となるようなタスクにおいても提案手法が有効であるかを調査していく.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgmentこの成果は,国立研究開発法人新エネルギー・産業技術総合開発機構(NEDO)の委託業務(JPNP18002)の結果得られたものです.また本論文の内容の一部はFindingsofACL:ACL-IJCNLP2021に採択されたものです\cite{hiraoka2021joint}.本研究では,国立情報学研究所のIDRデータセット提供サービスにより楽天グループ株式会社から提供を受けた「楽天データセット」(\url{https://doi.org/10.32130/idr.2.0})を利用しました.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{05refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{平岡達也}{%2017年早稲田大学教育学部卒業.2019年奈良先端科学技術大学院大学情報科学研究科卒業,修士(工学).同年4月より東京工業大学情報理工学院博士後期課程に在学中.言語処理学会,ACL各会員.}\bioauthor{高瀬翔}{%2012年東北大学工学部卒業.2014年東北大学大学院情報科学研究科博士前期課程修了.2017年東北大学大学院情報科学研究科博士後期課程修了.博士(情報科学).NTTコミュニケーション科学基礎研究所でのリサーチアソシエイト,東京工業大学での研究員を経て,2020年4月より東京工業大学助教.自然言語処理の研究に従事.言語処理学会,ACL各会員.}\bioauthor{内海慶}{%2006年筑波大学大学院図書館情報学メディア研究科博士前期課程修了.修士(情報学).同年~2013年ヤフー株式会社にて自然言語処理の研究開発に従事.2013年株式会社デンソーアイティーラボラトリ入社.2021年現在,同社在職中.自然言語処理の研究に従事.言語処理学会会員.}\bioauthor{欅惇志}{%株式会社デンソーアイティーラボラトリアソシエイトリサーチャ.博士(工学).2014年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2012~2014年日本学術振興会特別研究員(DC2).2013年マイクロソフト・リサーチアジアリサーチインターン.2014~2019年東京工業大学情報理工学院助教.2016~2017年シンガポール国立大学客員研究員.ACM,電子情報通信学会,日本データベース学会,言語処理学会,人工知能学会各会員.}\bioauthor{岡崎直観}{%2007年東京大学大学院情報理工学系研究科博士課程修了.東京大学大学院情報理工学系研究科・特任研究員,東北大学大学院情報科学研究科准教授を経て,2017年8月より東京工業大学情報理工学院教授.言語処理学会,人工知能学会,情報処理学会,ACL各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V22N04-03
\section{はじめに} \label{sect:intro}対訳文中の単語の対応関係を解析する単語アラインメントは,統計的機械翻訳に欠かせない重要な処理の一つであり,研究が盛んに行われている.その中で,生成モデルであるIBMモデル1-5\cite{brown93}やHMMに基づくモデル\cite{vogel96}は最も有名な手法であり,それらを拡張した手法が数多く提案されている\cite{och03,taylor10}.近年では,Yangらが,フィードフォワードニューラルネットワーク(FFNN)の一種である「Context-DependentDeepNeuralNetworkforHMM(CD-DNN-HMM)」\cite{dahl12}をHMMに基づくモデルに適用した手法を提案し,中英アラインメントタスクにおいてIBMモデル4やHMMに基づくモデルよりも高い精度を達成している\cite{yang13}.このFFNN-HMMアラインメントモデルは,単語アラインメントに単純マルコフ性を仮定したモデルであり,アラインメント履歴として,一つ前の単語アラインメント結果を考慮する.一方で,ニューラルネットワーク(NN)の一種にフィードバック結合を持つリカレントニューラルネットワーク(RNN)がある.RNNの隠れ層は再帰的な構造を持ち,自身の信号を次のステップの隠れ層へと伝達する.この再帰的な構造により,過去の入力データの情報を隠れ層で保持できるため,入力データに内在する長距離の依存関係を捉えることができる.このような特長を持つRNNに基づくモデルは,近年,多くのタスクで成果をあげており,FFNNに基づくモデルの性能を凌駕している.例えば,言語モデル\cite{mikolov10,mikolov12,sundermeyer13}や翻訳モデル\cite{auli13,nal13}の構築で効果を発揮している.一方で,単語アラインメントタスクにおいてRNNを活用したモデルは提案されていない.本論文では,単語アラインメントにおいて,過去のアラインメントの情報を保持して活用することは有効であると考え,RNNに基づく単語アラインメントモデルを提案する.前述の通り,従来のFFNNに基づくモデルは,直前のアラインメント履歴しか考慮しない.一方で,RNNに基づくモデルは,隠れ層の再帰的な構造としてアラインメントの情報を埋め込むことで,FFNNに基づくモデルよりも長い,文頭から直前の単語アラインメントの情報,つまり過去のアラインメント履歴全体を考慮できる.NNに基づくモデルの学習には,通常,教師データが必要である.しかし,単語単位の対応関係が付与された対訳文を大量に用意することは容易ではない.この状況に対して,Yangらは,従来の教師なし単語アラインメントモデル(IBMモデル,HMMに基づくモデル)により生成した単語アラインメントを疑似の正解データとして使い,モデルを学習した\cite{yang13}.しかし,この方法では,疑似正解データの作成段階で生み出された,誤った単語アラインメントが正しいアラインメントとして学習されてしまう可能性がある.これらの状況を踏まえて,本論文では,正解の単語アラインメントや疑似の正解データを用意せずにRNNに基づくモデルを学習する教師なし学習法を提案する.本学習法では,Dyerらの教師なし単語アラインメント\cite{dyer11}を拡張し,正しい対訳文における単語対と語彙空間全体における単語対を識別するようにモデルを学習する.具体的には,まず,語彙空間全体からのサンプリングにより偽の対訳文を人工的に生成する.その後,正しい対訳文におけるアラインメントスコアの期待値が,偽の対訳文におけるアラインメントスコアの期待値より高くなるようにモデルを学習する.RNNに基づくモデルは,多くのアラインメントモデルと同様に,方向性(「原言語$\boldsymbol{f}\rightarrow$目的言語$\boldsymbol{e}$」又は「$\boldsymbol{e}\rightarrow\boldsymbol{f}$」)を持ち,各方向のモデルは独立に学習,使用される.ここで,学習される特徴は方向毎に異なり,それらは相補的であるとの考えに基づき,各方向の合意を取るようにモデルを学習することによりアラインメント精度が向上することが示されている(Matusov,Zens,andNey2004;Liang,Taskar,andKlein2006;Gra\c{c}a,Ganchev,andTaskar2008;Ganchev,Gra\c{c}a,andTaskar2008).\nocite{matusov04,liang06,graca08,gancev08}そこで,提案手法においても,「$\boldsymbol{f}\rightarrow\boldsymbol{e}$」と「$\boldsymbol{e}\rightarrow\boldsymbol{f}$」の2つのRNNに基づくモデルの合意を取るようにそれらのモデルを同時に学習する.両方向の合意は,各方向のモデルのwordembeddingが一致するようにモデルを学習することで実現する.具体的には,各方向のwordembeddingの差を表すペナルティ項を目的関数に導入し,その目的関数にしたがってモデルを学習する.この制約により,それぞれのモデルの特定方向への過学習を防ぎ,双方で大域的な最適化が可能となる.提案手法の評価は,日英及び仏英単語アラインメント実験と日英及び中英翻訳実験で行う.評価実験を通じて,前記提案全てを含む「合意制約付き教師なし学習法で学習したRNNに基づくモデル」は,FFNNに基づくモデルやIBMモデル4よりも単語アラインメント精度が高いことを示す.また,機械翻訳実験を通じて,学習データ量が同じ場合には,FFNNに基づくモデルやIBMモデル4を用いた場合よりも高い翻訳精度を実現できることを示す\footnote{実験では,NNに基づくモデルの学習時の計算量を削減するため,学習データの一部を用いた.全学習データから学習したIBMモデル4を用いた場合とは同等の翻訳能であった.}.具体的には,アラインメント精度はFFNNに基づくモデルより最大0.0792(F1値),IBMモデル4より最大0.0703(F1値),翻訳精度はFFNNに基づくモデルより最大0.74\%(BLEU),IBMモデル4より最大0.58\%(BLEU)上回った.また,各提案(RNNの利用,教師なし学習法,合意制約)個別の有効性も検証し,機械翻訳においては一部の設定における精度改善にとどまるが,単語アラインメントにおいては各提案により精度が改善できることを示す.以降,\ref{sect:related}節で従来の単語アラインメントモデルを説明し,\ref{sect:RNN}節でRNNに基づく単語アラインメントモデルを提案する.そして,\ref{sect:learning}節でRNNに基づくモデルの学習法を提案する.\ref{sect:experiment}節では提案手法の評価実験を行い,\ref{sect:discuss}節で提案手法の効果や性質についての考察を行う.最後に,\ref{sect:conclusion}節で本論文のまとめを行う. \section{従来の単語アラインメントモデル} \label{sect:related}今まで数多くの単語アラインメント手法が提案されてきており,それらは,生成モデル(例えば\cite{brown93,vogel96,och03})と識別モデル(例えば\cite{taskar05,moore05,blunsom06})に大別できる.\ref{sect:SWA}節では生成モデルを概観し,\ref{sect:FFNN}節では識別モデルの一例として,提案手法のベースラインとなるFFNNに基づくモデル\cite{yang13}を説明する.\subsection{生成モデル}\label{sect:SWA}生成モデルでは,$J$単語から構成される原言語の文を$f_{1}^{J}=f_{1},\ldots,f_{J}$,それに対応する$I$単語で構成される目的言語の文を$e_{1}^{I}=e_{1},\ldots,e_{I}$とすると,$f_{1}^{J}$は$e_{1}^{I}$からアラインメント$a_{1}^{J}=a_{1},\ldots,a_{J}$を通じて生成されると考える.ここで,各$a_{j}$は,原言語の単語$f_{j}$が目的言語の単語$e_{a_{j}}$に対応する事を示す隠れ変数である.通常,目的言語の文には単語「null」($e_{0}$)が加えられ,$f_{j}$が目的言語のどの単語にも対応しない場合,$a_{j}=0$となる.そして,$f_{1}^{J}$が$e_{1}^{I}$から生成される生成確率は,次の通り,$e_{1}^{I}$が生成する全アラインメントとの生成確率の総和で定義される:\begin{equation}\label{eqn:base1}p(f_{1}^{J}|e_{1}^{I})=\sum_{a_{1}^{J}}p(f_{1}^{J},a_{1}^{J}|e_{1}^{I}).\end{equation}IBMモデル1,2やHMMに基づくモデルでは,式(\ref{eqn:base1})中の特定アラインメント$a_{1}^{J}$との生成確率$p(f_{1}^{J},a_{1}^{J}|e_{1}^{I})$をアラインメント確率$p_{a}$と語彙翻訳確率$p_{t}$で定義する\footnote{アラインメント確率$p_{a}$において,$a_{0}$=0である.}:\begin{equation}\label{eqn:base2}p(f_{1}^{J},a_{1}^{J}|e_{1}^{I})=\prod_{j=1}^{J}p_a(a_{j}|a_{j-1},j)p_t(f_{j}|e_{a_{j}}).\end{equation}この3つのモデルでは,アラインメント確率の定義が異なる.例えば,HMMに基づくモデルでは単純マルコフ性を持つアラインメント確率を用いる:$p_a(a_{j}|a_{j}-a_{j-1})$.また,目的言語の各単語に対する稔性(fertility)や歪み(distortion)を考慮するIBMモデル3-5も提案されている.これらのモデルは,EMアルゴリズム\cite{dempster77}により,単語単位のアラインメントが付与されていない対訳文の集合(ラベルなし学習データ)から学習される.また,ある対訳文($f_{1}^{J}$,$e_{1}^{I}$)の単語アラインメントを解析する際は,学習したモデルを用いて,次式(\ref{eqn:viterbi_alignment})を満たすアラインメント(ビタビアラインメント)$\hat{a}_{1}^{J}$を求める:\begin{equation}\label{eqn:viterbi_alignment}\hat{a}_{1}^{J}=\argmax_{a_{1}^{J}}p(f_{1}^{J},a_{1}^{J}|e_{1}^{I}).\end{equation}例えば,HMMに基づくモデルは,ビタビアルゴリズム\cite{viterbi67}によりビタビアラインメントを求めることができる.\subsection{FFNNに基づく単語アラインメントモデル}\label{sect:FFNN}FFNNは,非線形関数を持つ隠れ層を備えることにより,入力データから多層的に非線形な素性を自動的に学習することができ,入力データの複雑な特徴を捉えることができる.近年,その特長を活かし,音声認識\cite{dahl12},統計的機械翻訳\cite{son12,vaswani13}やその他の自然言語処理\cite{collobert08,collobert11}等,多くの分野で成果をあげている.Yangらは,FFNNの一種であるCD-DNN-HMM\cite{dahl12}をHMMに基づくアラインメントモデルに適用したモデルを提案した\cite{yang13}.本節では,提案手法のベースラインとなる,このFFNNに基づく単語アラインメントモデルを説明する.FFNNに基づくモデルは,式(\ref{eqn:base2})のアラインメント確率$p_{a}$及び語彙翻訳確率$p_{t}$をFFNNにより計算する:\begin{equation}\label{eqn:FFNN}s_{NN}(a_{1}^{J}|f_{1}^{J},e_{1}^{I})=\prod_{j=1}^{J}t_{a}(a_{j}-a_{j-1}|c(e_{a_{j-1}}))\cdott_{t}(f_{j},e_{a_{j}}|c(f_{j}),c(e_{a_{j}})).\end{equation}ただし,全単語にわたる正規化は計算量が膨大となるため,確率の代わりにスコアを用いる.$t_{a}$と$t_{t}$は,それぞれ,アラインメントスコアと語彙翻訳スコアであり,$p_{a}$と$p_{t}$に対応する.また,$s_{NN}$はアラインメント$a_{1}^{J}$のスコアであり,「$c(\text{単語}w)$」は単語$w$の文脈を表す.ビタビアラインメントは,典型的なHMMに基づくアラインメントモデル同様,ビタビアルゴリズムにより求める.アラインメントスコアは直前のアラインメント$a_{j-1}$に依存しているため,FFNNに基づくモデルも単純マルコフ過程に従う.図\ref{fig:FFNN}に,語彙翻訳スコア$t_{t}(f_{j},e_{a_{j}}|c(f_{j}),c(e_{a_{j}}))$を計算するネットワーク構造(語彙翻訳モデル)を示す.このネットワークは,lookup層(入力層),1層の隠れ層,出力層から構成され,各層は,それぞれ,重み行列$L$,$\{H,B_{H}\}$,$\{O,B_{O}\}$を持つ.$L$はwordembedding行列であり,各単語を特徴付ける低次元の実ベクトルとして,単語の統語的,意味的特性を表す\cite{bengio03}.原言語の単語集合を$V_{f}$,目的言語の単語集合を$V_{e}$,wordembeddingの長さを$M$とすると,$L$は$M\times(|V_{f}|+|V_{e}|)$行列である.ただし,$V_{f}$と$V_e$には,それぞれ,未知語を表す$\langleunk\rangle$と単語「null」を表す$\langlenull\rangle$を追加する.\begin{figure}[t]\begin{center}\includegraphics{22-4ia3f1.eps}\end{center}\caption{FFNNに基づくモデルにおける語彙翻訳スコア$t_{t}(f_{j},e_{a_{j}}|c(f_{j}),c(e_{a_{j}}))$計算用ネットワーク}\label{fig:FFNN}\end{figure}この語彙翻訳モデルは,入力として,計算対象である原言語の単語$f_{j}$と目的言語の単語$e_{a_{j}}$と共に,それらの文脈単語を受け付ける.文脈単語とは,予め定めたサイズの窓内に存在する単語であり,図\ref{fig:FFNN}は窓幅が3の場合を示している.まず,lookup層が,入力の各単語に対して行列$L$から対応する列を見つけ,wordembeddingを割り当てる.そして,それらを結合させた実ベクトル$z_{0}$を隠れ層に送る.次に,隠れ層がlookup層の出力$z_{0}$を受け取り,$z_{0}$の非線形な特徴を捉える.最後に,出力層が隠れ層の出力$z_{1}$を受け取り,語彙翻訳スコアを計算して出力する.隠れ層,出力層が行う具体的な計算は次の通りである\footnote{本論文では,実験コストを削減するため,NN(FFNN及びRNN)に基づくモデルの隠れ層は1層としたが,連続した$l$層の隠れ層を用いる事もできる:$z_{l}=f(H_{l}\timesz_{l-1}+B_{H_{l}})$.複数の隠れ層を用いた実験は今後の課題とする.}:\begin{align}\label{eqn:FFNN2}z_{1}&=f(H\timesz_{0}+B_{H}),\\t_{t}&=O\timesz_{1}+B_{O}.\end{align}ここで,$H$,$B_{H}$,$O$,$B_{O}$は,それぞれ,$|z_{1}|\times|z_{0}|$,$|z_{1}|\times1$,$1\times|z_{1}|$,$1\times1$行列である.また,$f(x)$は非線形活性化関数であり,本論文の実験では,\cite{yang13}に倣い,htanh$(x)$\footnote{$x<-1$の時は$\mathrm{htanh}(x)=-1$,$x>1$の時は$\mathrm{htanh}(x)=1$,それ以外の時は$\mathrm{htanh}(x)=x$である.}を用いた.アラインメントスコア$t_{a}(a_{j}-a_{j-1}|c(e_{a_{j-1}}))$を計算するアラインメントモデルも,語彙翻訳モデルと同様に構成できる.語彙翻訳モデル及びアラインメントモデルの学習では,次式(\ref{eqn:FFNN3})のランキング損失を最小化するように,各層の重み行列を最適化する.最適化は,サンプル毎に勾配を計算してパラメータを更新する確率的勾配降下法(SGD)\footnote{実験では,後述のRNNに基づくモデル同様,単純なSGDではなくバッチサイズ$D$のミニバッチSGDを用いた.}で行い,各重みの勾配は,誤差逆伝播法\cite{rumelhart86}で計算する.\begin{equation}\label{eqn:FFNN3}loss(\theta)=\sum_{(\boldsymbol{f},\boldsymbol{e})\inT}\text{max}\{0,1-s_{\theta}(\boldsymbol{a^{+}}|\boldsymbol{f},\boldsymbol{e})+s_{\theta}(\boldsymbol{a^{-}}|\boldsymbol{f},\boldsymbol{e})\}.\end{equation}ここで,$\theta$は最適化するパラメータ(重み行列の重み),$T$は学習データ,$s_{\theta}$はパラメータ$\theta$のモデルによる$a_{1}^{J}$のスコア(式(\ref{eqn:FFNN})参照),$\boldsymbol{a^{+}}$は正解アラインメント,$\boldsymbol{a^{-}}$はパラメータ$\theta$のモデルでスコアが最も高い不正解アラインメントである. \section{RNNに基づく単語アラインメントモデル} \label{sect:RNN}本節では,アラインメント$a_{1}^{J}$のスコアをRNNにより計算する単語アラインメントモデルを提案する:\begin{equation}\label{eqn:RNN1}s_{NN}(a_{1}^{J}|f_{1}^{J},e_{1}^{I})=\prod_{j=1}^{J}t_{RNN}(a_{j}|a_{1}^{j-1},f_{j},e_{a_{j}}).\end{equation}ここで,$t_{RNN}$はアラインメント$a_{j}$のスコアであり,FFNNに基づくモデルと異なり,直前のアラインメント$a_{j-1}$だけでなく,$j-1$個の全てのアラインメントの履歴$a_{1}^{j-1}$に依存している.また,本モデルにおいても,FFNNに基づくモデルと同様,確率ではなくスコアを用いる.\begin{figure}[b]\begin{center}\includegraphics{22-4ia3f2.eps}\end{center}\caption{RNNに基づくアラインメントモデル}\label{fig:RNN}\end{figure}図\ref{fig:RNN}にRNNに基づくモデルのネットワーク構造を示す.このネットワークは,lookup層(入力層),隠れ層,出力層から構成され,各層は,それぞれ,重み行列$L$,$\{H^{d},R^{d},B_{H}^{d}\}$,$\{O,B_{O}\}$を持つ.隠れ層の重み行列$H^{d}$,$R^{d}$,$B_{H}^{d}$は,直前のアラインメント$a_{j-1}$からの距離$d$($d=a_{j}-a_{j-1}$)毎に定義される.本論文の実験では,8より大きい距離及び$-8$より小さい距離は,それぞれ,「$\geq8$」と「$\leq-8$」にまとめた.つまり,隠れ層は,直前のアラインメントからの距離$d$に対応した重み行列$\{H^{\leq-8},H^{-7},\cdots,H^{7},H^{\geq8},R^{\leq-8},R^{-7},\cdots,R^{7},R^{\geq8},B_{H}^{\leq-8},B_{H}^{-7},\cdots,B_{H}^{7},B_{H}^{\geq8}\}$を用いて$y_{j}$を算出する.ビタビアラインメントは,FFNNに基づくモデルと同様に,図\ref{fig:RNN}のモデルを$f_{1}$から$f_{J}$に順番に適用して求める.ただし,アラインメント$a_{j}$のスコアは,$y_{i}$を通じて$a_{1}$から$a_{j-1}$の全てに依存しているため,動的計画法に基づくビタビアルゴリズムは適用できない.そこで,実験では,ビームサーチにより近似的にビタビアラインメントを求める.図\ref{fig:RNN}のモデルにより$f_{j}$と$e_{a_{j}}$のアラインメントのスコアを計算する流れを説明する.まず,$f_{j}$と$e_{a_{j}}$の2単語がlookup層へ入力される.そして,lookup層が2単語それぞれをwordembeddingに変換し,そのwordembeddingを結合させた実ベクトル$x_{j}$を隠れ層に送る.このlookup層が行う処理は,FFNNに基づくモデルのlookup層と同じである.次に,隠れ層は,lookup層の出力$x_{j}$と直前のステップ$j-1$の隠れ層の出力$y_{j-1}$を受け取り,それらの間の非線形な特徴を捉える.この時に用いる重み行列$H^{d}$,$R^{d}$,$B_{H}^{d}$は,直前のアラインメント$a_{j-1}$との距離$d$により区別されている.隠れ層の出力$y_{j}$は,出力層と次のステップ$j+1$の隠れ層に送られる.そして最後に,出力層が,隠れ層の出力$y_{j}$に基づいて$f_{j}$と$e_{a_{j}}$のアラインメントのスコア$t_\mathrm{RNN}(a_{j}|a_{1}^{j-1},f_{j},e_{a_{j}})$を計算して出力する.隠れ層,出力層が行う具体的な計算は次の通りで\linebreakある\footnote{$j=1$の時の隠れ層では,$a_{0}$は0とし,直前ステップの隠れ層からの出力$y_{0}$は考慮しない:$y_{1}=f(H^{d}\timesx_{1}+B^{d}_{H}).$}:\begin{align}\label{eqn:RNN2}&y_{j}=f(H^{d}\timesx_{j}+R^{d}\timesy_{j-1}+B^{d}_{H}),\\&t_\mathit{RNN}=O\timesy_{j}+B_{O}.\end{align}ここで,$H^{d}$,$R^{d}$,$B^{d}_{H}$,$O$,$B_{O}$は,それぞれ,$|y_{j}|\times|x_{j}|$,$|y_{j}|\times|y_{j-1}|$,$|y_{j}|\times1$,$1\times|y_{j}|$,$1\times1$行列である.ただし,$|y_{j-1}|=|y_{j}|$である.また,$f(x)$は非線形活性化関数であり,\cite{yang13}と同様に,本論文ではhtanh(x)を用いる.前述の通り,FFNNに基づくモデルは,語彙翻訳スコア用とアラインメントスコア用の2つのモデルから構成される.一方で,RNNに基づくモデルは,直前のアラインメントとの距離$d$に依存した重み行列を隠れ層で使うことで,アラインメントと語彙翻訳の両者を考慮する1つのモデルで単語アラインメントをモデル化する.また,RNNに基づくモデルは再帰的な構造をした隠れ層を持つ.このため,過去のアラインメント履歴全体をこの隠れ層の入出力$y_{i}$にコンパクトに埋め込むことで,直前のアラインメント履歴のみに依存する従来のFFNNに基づくモデルよりも長いアラインメント履歴を活用して単語アラインメントを行うことができる. \section{モデルの学習} \label{sect:learning}提案モデルの学習では,特定の目的関数に従い,各層の重み行列(つまり,$L$,$H^{d}$,$R^{d}$,$B^{d}_{H}$,$O$,$B_{O}$)を最適化する.最適化は,単純なSGD(バッチサイズ$D=1$)よりも収束が早いミニバッチSGDにより行う.また,各重みの勾配は,通時的誤差逆伝播法\cite{rumelhart86}で計算する.通時的誤差逆伝播法は,時系列(提案モデルにおける$j$)でネットワークを展開し,時間ステップ上で誤差逆伝播法により勾配を計算する手法である.提案モデルは,FFNNに基づくモデル同様,式(\ref{eqn:FFNN3})で定義されるランキング損失に基づいて教師あり学習することができる(\ref{sect:FFNN}節参照).しかし,この学習法は正解の単語アラインメントが必要であるという問題がある.この問題を解決するため,次の\ref{sect:usv}節で,ラベルなし学習データから提案モデルを学習する教師なし学習法を提案する.\subsection{教師なし学習}\label{sect:usv}本節で提案する教師なし学習は,Dyerらにより提案されたcontrastiveestimation(CE)\cite{smith05}に基づく教師なし単語アラインメントモデル\cite{dyer11}を拡張した手法である.CEとは,観測データの近傍データを疑似負例と捉え,観測データとその近傍データを識別するモデルを学習する手法である.Dyerらは,ラベルなし学習データ中の対訳文$T$において考えられる全ての単語アラインメントを観測データ,目的言語側を単語空間$V_{e}$全体とした単語アラインメント,つまり,対訳文$T$中の原言語の各単語と$V_{e}$中の各単語との全単語対を近傍データとしてCEを適用した.提案する学習法は,この考え方を目的関数のランキング損失に導入する:\begin{equation}\label{eqn:usv1}\mathit{loss}(\theta)=\text{max}\biggl\{0,1-\sum_{\boldsymbol{(f^{+},e^{+})}\inT}\text{E}_{\Phi}[s_{\theta}(\boldsymbol{a}|\boldsymbol{f^{+}},\boldsymbol{e^{+}})]+\sum_{(\boldsymbol{f^{+}},\boldsymbol{e^{-}})\in\Omega}\text{E}_{\Phi}[s_{\theta}(\boldsymbol{a}|\boldsymbol{f^{+}},\boldsymbol{e^{-}})]\biggr\}.\end{equation}ここで,$\Phi$は対訳文$(\boldsymbol{f},\boldsymbol{e})$に対する全ての単語アラインメントの集合,E$_{\Phi}[s_{\theta}]$は$\Phi$におけるスコア$s_{\theta}$の期待値を表す.$\Omega$は対訳文$T$中の目的言語の各単語を$V_{e}$全体とした対訳対集合である.したがって,$\boldsymbol{e^{+}}$は学習データ$T$中の目的言語の文であり,$\boldsymbol{e^{-}}$は$|\boldsymbol{e^{+}}|$個の目的言語の単語で構成される疑似の文である($\boldsymbol{e^{-}}\inV_{e}^{|\boldsymbol{e^{+}}|}$).一つ目の期待値が観測データ,二つ目の期待値が近傍データに関する項である.しかしながら,式(\ref{eqn:usv1})中の$\Omega$に対する期待値の計算量は膨大となる.そこで,計算量を削減するため,NoiseContrastiveEstimation\cite{gutmann10,mnih12}に基づくNegativeSampling\cite{mikolov13}のように,近傍データ空間からサンプリングした空間を用いる.つまり,各原言語の文$\boldsymbol{f^{+}}$に対する$\boldsymbol{e^{-}}$として,$|\boldsymbol{e^{+}}|$個の目的言語の単語で構成される全ての文ではなく,サンプリングしたN文を使う.さらに,ビーム幅$W$のビームサーチにより期待値を計算することで,スコアが低いアラインメントを切り捨て計算量を削減する:\begin{equation}\label{eqn:usv2}\mathit{loss}(\theta)=\sum_{\boldsymbol{f^{+}}\inT}\text{max}\biggr\{0,1-\text{E}_{\text{GEN}}[s_{\theta}(\boldsymbol{a}|\boldsymbol{f^{+}},\boldsymbol{e^{+}})]+\frac{1}{N}\sum_{\boldsymbol{e^{-}}}\text{E}_{\text{GEN}}[s_{\theta}(\boldsymbol{a}|\boldsymbol{f^{+}},\boldsymbol{e^{-}})]\biggl\}.\end{equation}式(\ref{eqn:usv2})において,$\boldsymbol{e^{+}}$は学習データ内で$\boldsymbol{f^{+}}$の対訳となっている目的言語の文($\boldsymbol{(f^{+},e^{+})}\inT$)であり,$\boldsymbol{e^{-}}$は無作為に抽出された長さ$|\boldsymbol{e^{+}}|$の疑似の目的言語の文である.つまり,$|\boldsymbol{e^{+}}|=|\boldsymbol{e^{-}}|$である.そして,$N$は,各原言語の文$\boldsymbol{f^{+}}$に対して抽出する疑似の目的言語の文の数である.GENは,ビームサーチにより探索される単語アラインメント空間であり,全ての単語アラインメント空間$\Phi$の部分集合である.各$\boldsymbol{e^{-}}$は,無作為に抽出した$|\boldsymbol{e^{+}}|$個の目的言語の単語を順番に並べることで生成する.学習に効果的な負例を生成するために,$\boldsymbol{e^{-}}$の各単語は,$V_{e}$から抽出する代わりに,$l_{0}$正則化付きIBMモデル1\cite{vaswani12}によって対訳文中で$f_{i}\in\boldsymbol{f^{+}}$との共起確率が$C$以上と判定された目的言語の単語集合から抽出する.$l_{0}$正則化付きIBMモデル1は,単純なIBMモデル1と比較して,より疎なアラインメントを生成するため,疑似翻訳$\boldsymbol{e^{-}}$の候補の範囲を制限することが可能となる.\subsection{両方向の合意制約}\label{sect:agreement}FFNNに基づくモデルとRNNに基づくモデルは,共に方向性を持つモデルである.すなわち,$\boldsymbol{f}$に対する$\boldsymbol{e}$のアラインメントモデルにより,単語$f_{j}$に対して$\boldsymbol{e}$との1対多アラインメントを表す.通常,方向性を持つモデルは方向毎に独立に学習され,両方向のアラインメント結果をヒューリスティックに結合し決定される.Yangらの研究においても,FFNNに基づくモデルは独立に学習されている\cite{yang13}.一方で,各方向のモデルの合意を取るように同時に学習することで,アラインメント精度を改善できることが示されている.例えば,MatusovらやLiangらは,目的関数を「$\boldsymbol{f}\rightarrow\boldsymbol{e}$」と「$\boldsymbol{e}\rightarrow\boldsymbol{f}$」の2つのモデルのパラメータで定義し,2つのモデルを同時に学習している\cite{matusov04,liang06}.また,GanchevらやGra\c{c}aらは,EMアルゴリズムのEステップ内で,各方向のモデルが合意するような制約をモデルパラメータの事後分布に課している\cite{gancev08,graca08}.そこで,提案モデルの学習においても両方向の合意制約を導入し,それぞれのモデルの特定方向への過学習を防ぎ,双方で大域的な最適化を可能とする.具体的には,各方向のwordembeddingが一致するようにモデルを学習する.これを実現するために,各方向のwordembeddingの差を表すペナルティ項を目的関数に導入し,その目的関数に基づいて各方向のモデルを同時に学習する:\begin{equation}\label{eqn:agreement}\argmin_{\theta_{FE},~\theta_{EF}}\bigl\{loss(\theta_{FE})+loss(\theta_{EF})+\alpha\lVert\theta_{L_{EF}}-\theta_{L_{FE}}\rVert\bigr\}.\end{equation}ここで,$\theta_{FE}$と$\theta_{EF}$は,それぞれ,$\boldsymbol{f}\rightarrow\boldsymbol{e}$と$\boldsymbol{e}\rightarrow\boldsymbol{f}$のアラインメントモデルのパラメータ,$\theta_{L}$はlookup層のパラメータ($L$の重みでありwordembeddingを表す),$\alpha$は合意制約の強さを制御するパラメータ,$\lVert\theta\rVert$は$\theta$のノルムである.実験では2-ノルムを用いた.この合意制約は,教師あり学習と教師なし学習の両方に導入可能である.教師あり学習の場合は,式(\ref{eqn:agreement})の$loss(\theta)$として式(\ref{eqn:FFNN3})を用い,教師なし学習の場合は式(\ref{eqn:usv2})を用いる.両方向の合意制約を導入した教師なし学習の手順をアルゴリズム1にまとめる.ステップ2では,学習データTからバッチサイズ分のD個の対訳文$(f^{+},e^{+})^{D}$を無作為に抽出する.ステップ3-1と3-2では,それぞれ,各$f^{+}$と$e^{+}$に対して,$l_{0}$正則化付きIBMモデル1($IBM1$)が特定した翻訳候補の単語集合から無作為に単語をサンプリングすることにより,負例となる対訳文を$N$個($\{e^{-}\}^{N}$と$\{f^{-}\}^{N}$)生成する(\ref{sect:usv}節参照).ステップ4-1と4-2では,特定の目的関数に従い,SGDにより各層の重み行列を更新する(\ref{sect:usv}節と\ref{sect:agreement}参照).このステップでは,$\theta_{FE}$と$\theta_{EF}$の更新は同時に行われ,各方向のwordembeddingを一致させるために,$\theta_{EF}$は$\theta_{FE}$の更新に,$\theta_{FE}$は$\theta_{EF}$の更新に制約を課している\footnote{t回目の$\theta_{EF}^{t}$,$\theta_{FE}^{t}$の更新の際には,それぞれ,$t-1$回目に更新された$\theta_{FE}^{t-1}$と$\theta_{EF}^{t-1}$が制約として使われ,更新中の$\theta_{EF}^{t}$,$\theta_{FE}^{t}$はお互いに依存しないことに注意されたい.$\theta_{EF}^{t}$と$\theta_{FE}^{t}$をお互いに依存させて同時に最適化する学習もあり得るが,今後の課題としたい.}.\begin{table}[t]\input{03table_algo01.txt}\end{table} \section{評価実験} \label{sect:experiment}\subsection{実験データ}\label{sect:data}提案手法の有効性を検証するため,単語アラインメントの精度及び翻訳精度の評価実験を行った.単語アラインメントの評価実験は,NAACL2003のsharedtask\cite{mihalcea03}で使われたHansardsデータにおける仏英のタスク({\itHansards})と,BasicTravelExpressionCorpus({\itBTEC})\cite{takezawa02}における日英のタスク({\itIWSLT$_{a}$})で実施した.翻訳精度の評価実験は,IWSLT2007における日英翻訳タスク\cite{fordyce07}({\itIWSLT}),新聞データから作成されたFBISコーパスにおける中英翻訳タスク({\itFBIS}),NTCIR-9及びNTCIR-10における日英特許翻訳タスク\cite{goto10,goto13}({\itNTCIR-9},{\itNTCIR-10})で行った.\begin{table}[t]\caption{実験データのサイズ(対訳文数)}\label{tbl:data}\input{03table01.txt}\end{table}表\ref{tbl:data}に各タスクで使用する対訳文の数を示す.「Train」は学習データ,「Dev」はディベロップメントデータ,「Test」はテストデータを表す.$\mathit{IWSLT}_{a}$及び{\itIWSLT}の実験データは共に{\itBTEC}のデータであり,$\mathit{IWSLT}_{a}$の実験データは,{\itIWSLT}の学習データのうち,単語アラインメントが人手で付与された9,960対訳文である\cite{goh10}.9,960の対訳文の最初の9,000を学習データ,残りの960をテストデータとした.$\mathit{IWSLT}_{a}$の学習データは単語アラインメントが付与されているラベルあり学習データであるのに対し,{\itHansards}の学習データは単語アラインメントが付与されてないラベルなし学習データである.{\itHansards}及び$\mathit{IWSLT}_{a}$のアラインメントタスクでは,各アラインメントモデルのハイパーパラメータは学習データの一部を用いた2分割交差検証により予め決定し,ディベロップメントデータは使わなかった\footnote{$\mathit{IWSLT}_{a}$の学習データの最初の2,000文を用いた2分割交差検証で最適なパラメータを用いた.$\mathit{IWSLT}_{a}$以外のデータに対してもこの検証により得られたパラメータを使った.ディベロップメントデータを使った各タスクでのパラメータ調整は今後の課題としたい.}.また,NAACL2003のsharedtaskオリジナルの学習データの総数は約110万文対あるが,今回の{\itHansards}の実験では,学習時の計算量を削減するため,無作為にサンプリングした10万文対を学習データとして用いた.大規模データの実験は今後の課題とする.{\itFBIS}では,NIST02の評価データをディベロップメントデータとして使い,NIST03とNIST04の各評価データでテストした.\subsection{実験対象}\label{sect:method}評価実験では,提案手法であるRNNに基づくモデルに加え,ベースラインとして,IBMモデル4とFFNNに基づくモデルを評価した.また,単語アラインメントタスクにおける合意制約の有効性を考察するため,ベースラインとして,典型的なHMMに基づくアラインメントモデルであるVogelらのモデル\cite{vogel96}($\mathit{HMM}_{indep}$)とこのVogelらのモデルにLiangらの両方向の合意制約\cite{liang06}を導入したモデル($\mathit{HMM}_{joint}$)も評価した.IBMモデル4は,IBMモデル1-4とHMMに基づくモデルを順番に適用して学習した\cite{och03}.具体的には,IBMモデル1,HMMに基づくモデル,IBMモデル2,3,4をこの順で5回ずつ繰り返した($1^{5}H^{5}3^{5}4^{5}$).これは,GIZA++のデフォルトの設定である({\itIBM4}).$\mathit{HMM}_\mathit{indep}$及び$\mathit{HMM}_\mathit{joint}$はBerkleyAligner\footnote{https://code.google.com/p/berkeleyaligner/}を用いた.Liangらの通り,IBMモデル1,HMMに基づくモデルを順番に5回ずつ繰り返し,各モデルを学習した\cite{liang06}.FFNNに基づくモデルでは,wordembeddingの長さ$M$を30,文脈の窓幅を5とした.したがって,$|z_{0}|$は$300=30\times5\times2$である.また,隠れ層として,ユニット数$|z_{1}|$が100の層を1層使用した.このFFNNに基づくモデルは,\cite{yang13}に倣って\ref{sect:FFNN}節の教師あり手法により学習したモデル$\mathit{FFNN}_{s}$に加えて,\ref{sect:usv}節と\ref{sect:agreement}節で提案した教師なし学習や合意制約の効果を確かめるため,$\mathit{FFNN}_{s+c}$,$\mathit{FFNN}_{u}$,$\mathit{FFNN}_{u+c}$のモデルを評価した.「$s$」は教師ありモデル,「$u$」は教師なしモデル,「$+c$」は学習時に合意制約を使うことを意味する.RNNに基づくモデルでは,wordembeddingの長さ$M$を30,再帰的に連結している隠れ層のユニット数$|y_{j}|$を100とした.したがって,$|x_{j}|$は$60=30\times2$である.また,提案の学習法の効果を検証するため,FFNNに基づくモデル同様,$\mathit{RNN}_{s}$,$\mathit{RNN}_{s+c}$,$\mathit{RNN}_{u}$,$\mathit{RNN}_{u+c}$の4種類を評価した.FFNNに基づくモデル及びRNNに基づくモデルの各層のユニット数や$M$などのパラメータは,学習データの一部を用いた2分割交差検証により予め設定した.NNに基づくモデルの学習について説明する.まず,各層の重み行列を初期化する.具体的には,lookup層の重み行列$L$は,局所解への収束を避けるため,学習データの原言語側と目的言語側からそれぞれ予め学習したwordembeddingに初期化する.その他の重みは,$[-0.1,0.1]$のランダムな値に初期化する.wordembeddingの学習には,Mikolovらの手法\cite{mikolov10}を基にしたRNNLMツールキット\footnote{http://rnnlm.org/}(デフォルトの設定)を用いる.その際,コーパスでの出現数が5回以下の単語は$\langleunk\rangle$に置き換える.各重みの初期化後は,ミニバッチSGDにより特定の目的関数に従って各重みを最適化する.本実験では,バッチサイズ$D$を100,学習率を0.01とし,50エポックで学習を終えた.また,学習データへの過学習を避けるため,目的関数には$l2$正則化項(正則化の比率は0.1)を加えた.教師なし学習におけるパラメータ$W$,$N$,$C$は,それぞれ,100,50,0.001とし,合意制約に関するパラメータ$\alpha$は0.1とした.翻訳タスクでは,フレーズベース機械翻訳(SMT)システムMoses\cite{Koehn07}を用いた.日本語の各文はChaSen\footnote{http://chasen-legacy.sourceforge.jp/},中国語の各文はStanfordChinesesegmenter\footnote{http://nlp.stanford.edu/software/segmenter.shtml}により単語へ分割した.その後,40単語以上の文は学習データから除いた.言語モデルは,SRILMツールキット\cite{stolcke02}により,modifiedKneser-Neyスムージング\cite{kneser95,chen98}を行い学習した.{\itIWSLT},{\itNTCIR-9}及び{\itNTCIR-10}では,学習データの英語側コーパスから構築した5グラム言語モデル,{\itFBIS}では,EnglishGigawordのXinhua部分のデータから構築した5グラム言語モデルを使用した.翻訳モデルは,各単語アラインメント手法により特定されたアラインメント結果に基づいて学習した.SMTシステムの各パラメータは,ディベロップメントデータを用いてMERT\cite{FOch03}によりチューニングした.\subsection{実験結果(単語アラインメント)}\label{sect:res_alignment}表\ref{tbl:res_wa}に各手法の単語アラインメントの精度をF1値で示す.NNに基づく教師ありモデルに対しては,学習データに付与されている正しい単語アラインメントを学習したモデル({\itREF})と,{\itIBM4}で特定した単語アラインメントを学習したモデル({\itIBM4})の2種類の精度を示す.{\itHansards}の学習データには正しい単語アラインメントが付与されていないため,{\itREF}に対する実験は実施していない.\begin{table}[b]\caption{単語アラインメント精度}\label{tbl:res_wa}\input{03table02.txt}\end{table}評価手順は,まず,各アラインメントモデルにより,$\boldsymbol{f}\rightarrow\boldsymbol{e}$と$\boldsymbol{e}\rightarrow\boldsymbol{f}$のアラインメントをそれぞれ生成する.その後,「grow-diag-final-and」ヒューリスティックス\cite{koehn03}により,両方向のアラインメントを結合する.そして,その結合したアラインメント結果をF1値で評価する.有意差検定は,有意差水準5\%の符号検定で行った.具体的には,テストデータの各単語に対して,他方の手法では不正解だが正しく判定したものを$+$,他方の手法では正解だが誤って判定したものを$-$として,2手法の評価に有意な差があるかどうかを片側検定の符号検定で判定した.表\ref{tbl:res_wa}中の「$+$」は,ベースラインとなるFFNNに基づくモデル$\mathit{FFNN}_{s}$({\itREF/IBM4})との精度差が有意であることを示し,「$++$」は,ベースラインのFFNNに基づくモデル$\mathit{FFNN}_{s}$({\itREF/IBM4})に加えて{\itIBM4}との精度差も有意であることを示す.また,正しい教師ラベルを使用するモデル({\itREF})と使用しないモデル({\itREF}以外)のそれぞれで最高の精度を太字で示す.表\ref{tbl:res_wa}より,$\mathit{IWSLT}_{a}$と{\itHansards}の両タスクにおいて,本論文の提案手法(RNNに基づくモデル,教師なし学習,合意制約){\itRNN$_{u+c}$}が最もアラインメント精度が高いことが分かる.特に,ベースラインとの精度差は有意であることから,本論文の提案を組み合わせることにより,従来手法より高いアラインメント精度を達成できることが実験的に確認できる.次に,本論文の各提案の個別の有効性について確認する.表\ref{tbl:res_wa}より,$\mathit{IWSLT}_{a}$と{\itHansards}の両タスクにおいて,$\mathit{RNN}_{s/s+c/u/u+c}$({\itIBM4}),$\mathit{RNN}_{s/s+c}$({\itREF})は,それぞれ,,$\mathit{FFNN}_{s/s+c/u/u+c}$({\itIBM4}),$\mathit{FFNN}_{s/s+c}$({\itREF})よりも精度が良い.特に,$\mathit{IWSLT}_{a}$では,$\mathit{RNN}_{s}$({\itREF}),$\mathit{RNN}_{s}$({\itIBM4})と$\mathit{FFNN}_{s}$({\itREF}),$\mathit{FFNN}_{s}$({\itIBM4})とのそれぞれの性能差は有意であることが分かる.これは,RNNに基づくモデルにより長いアラインメント履歴を捉えることで,アラインメント精度が向上することを示しており,RNNを利用したモデルの有効性を確認できる.ただし,{\itHansards}においては,RNNの効果が少ない.この言語対による効果の違いについては\ref{sect:discuss_RNN}節で考察する.$\mathit{IWSLT}_{a}$と\textit{Hansards}の両タスクにおいて,$\mathit{RNN}_{s+c}$({\itREF/IBM4}),$\mathit{RNN}_{u+c}$のアラインメント精度は,それぞれ,$\mathit{RNN}_{s}$({\itREF/IBM4}),$\mathit{RNN}_{u}$を上回っており,これらの精度差は有意であった.さらに,$\mathit{FFNN}_{s+c}$({\itREF/IBM4}),$\mathit{FFNN}_{u+c}$は,それぞれ,$\mathit{FFNN}_{s}$({\itREF/IBM4}),$\mathit{FFNN}_{u}$より有意にアラインメント精度が良い.この結果より,教師ありと教師なしの両方の学習において,両方向の合意制約を導入することでFFNNに基づくモデル及びRNNに基づくモデルのアラインメント精度を改善できることが分かる.一方で,{\itHMM$_{joint}$}の方が{\itHMM$_{indep}$}よりも精度が良いことから,提案の合意制約に限らず,両方向の合意をとるようにモデルを学習することは有効であることが確認できる.HMMに基づくモデルに導入したLiangらの両方向の合意制約と提案の合意制約の傾向の違いは,\ref{sect:discuss_size}節で考察する.$\mathit{IWSLT}_{a}$では,$\mathit{RNN}_{u}$と$\mathit{RNN}_{u+c}$は,それぞれ,$\mathit{RNN}_{s}$({\itIBM4})と$\mathit{RNN}_{s+c}$({\itIBM4})より有意にアラインメント精度が良い.一方で,{\itHansards}では,これらの精度は同等である.この傾向はFFNNに基づくモデルでも同様である.これは,学習データの質({\itIBM4}の精度)が悪い場合,教師あり学習は{\itIBM4}による疑似学習データに含まれる誤りの悪影響を受けるのに対し,提案の教師なし学習は学習データの質に依らずに精度の良いFFNNやRNNに基づくモデルを学習できることを示している.\subsection{実験結果(機械翻訳)}\label{sect:res_translation}表\ref{tbl:res_mt}に各手法により付与されたアラインメントを用いたSMTシステムの翻訳精度を示す.評価尺度は,大文字と小文字を区別したBLEU4\footnote{評価ツールとしてmteval-v13a.pl(http://www.itl.nist.gov/iad/mig/tests/mt/2009/)を用いた.}\cite{Papineni02}を用いた.MERTの不安定な振る舞いの影響を緩和するため,MERTによるチューニングは3回行い,その平均値を表\ref{tbl:res_mt}に示す\cite{utiyama09}.\begin{table}[b]\caption{翻訳精度}\label{tbl:res_mt}\input{03table03.txt}\end{table}{\itIWSLT}では,アラインメントモデル及び翻訳モデルの学習には学習データ全てを用いた.一方で,{\itNTCIR-9},{\itNTCIR-10}と{\itFBIS}では,アラインメントモデルの学習における計算量を削減するため,学習データから無作為にサンプリングした10万文対からアラインメントモデルを学習した.その後,学習したアラインメントモデルにより学習データ全ての単語アラインメントを自動的に付与し,翻訳モデルを学習した.また,詳細な比較を行うため,全学習データから学習したIBMモデル4に基づくSMTシステムの精度を{\itIBM4$_{all}$}として示す.翻訳精度の有意差検定は,有意差水準5\%でブートストラップによる検定手法\cite{koehn04}により行った.表\ref{tbl:res_mt}の「*」は,ベースライン({\itIBM4}及び$\mathit{FFNN}_{s}$({\itIBM4}))との精度差が有意であることを示す.また,各タスクで最高精度({\itIBM4$_{all}$}を除く)を太字で示す.表\ref{tbl:res_wa}と表\ref{tbl:res_mt}より,単語アラインメント精度を改善しても,必ずしも翻訳精度が向上するとは限らないことが分かる.この事は従来より知られており,例えば,\cite{yang13}においても同様の現象が確認されている.しかしながら,表\ref{tbl:res_mt}より,全ての翻訳タスクで,$\mathit{RNN}_{u}$と$\mathit{RNN}_{u+c}$は$\mathit{FFNN}_{s}$({\itIBM4})と{\itIBM4}よりも有意に翻訳精度がよいことが分かる.この結果から,提案手法は翻訳精度の改善にも寄与することが実験的に確認できる.また,{\itNTCIR-9}と{\itFBIS}では,提案モデルは学習データの一部から学習したが,学習データ全てから学習した$\mathit{IBM4}_\mathit{all}$と同等の精度を達成している.学習データ量の影響は\ref{sect:discuss_size}節で考察する. \section{考察} \label{sect:discuss}\subsection{RNNに基づくモデルの効果}\label{sect:discuss_RNN}図\ref{fig:wa}に$\mathit{FFNN}_{s}$及び$\mathit{RNN}_{s}$で解析した単語アラインメントの具体例を示す.三角が$\mathit{FFNN}_{s}$の解析結果,丸が$\mathit{RNN}_{s}$の解析結果,四角が正しい単語アラインメントを表す.図\ref{fig:wa}より,$\mathit{RNN}_{s}$は$\mathit{FFNN}_{s}$と比較して,複雑なアラインメント(例えば,図\ref{fig:wa}(a)中の「haveyoubeen」に対するギザギザのアラインメント)を特定できていることが分かる.これは,$\mathit{FFNN}_{s}$は直前のアラインメント履歴しか利用しないが,$\mathit{RNN}_{s}$は長いアラインメント履歴に基づいてアラインメントのパス(例えば,フレーズ単位のアラインメント)を捉えられることを示唆している.\begin{figure}[b]\begin{center}\includegraphics{22-4ia3f3.eps}\end{center}\caption{単語アラインメントの解析結果例}\label{fig:wa}\end{figure}\ref{sect:res_alignment}節で述べた通り,RNNに基づくモデルの効果は,日英アラインメント($\mathit{IWSLT}_{a}$)と比べて仏英アラインメント(\textit{Hansards})に対して少ない.これは,英語とフランス語は語順が似ていて,日英に比べて1対1アラインメントが多く(図\ref{fig:wa}参照),仏英単語アラインメントは局所的な手がかりで捉えられる場合が多いためであると考えられる.図\ref{fig:wa}(b)は,このような単純な単語アラインメントは,$\mathit{FFNN}_{s}$と$\mathit{RNN}_{s}$の両モデルで正しく解析できることを示している.\subsection{学習データ量の影響}\label{sect:discuss_size}{\itBTEC}における日英アラインメントタスクにおいて様々なサイズの学習データを使った時のアラインメント精度を表\ref{tbl:size}に示す.「40~K」,「9~K」,「1~K」は,それぞれ,{\itIWSLT}の全学習データ,$\mathit{IWSLT}_{a}$の全学習データ,$\mathit{IWSLT}_{a}$の全学習データから無作為に抽出した1,000文対を学習データとした時の,$\mathit{IWSLT}_{a}$のテストデータに対するアラインメント精度である.「9~K」及び「1~K」はラベルあり学習データ,「40~K」はラベルなし学習データである.そのため,教師ありモデル({\itREF})の「40~K」に対する実験は実施していない.表\ref{tbl:size}より,「1~K」の$\mathit{RNN}_{s+c}$({\itREF})と「9~K」の$\mathit{RNN}_{u+c}$は「40~K」の{\itIBM4}より性能がよいことが分かる.すなわち,RNNに基づくモデルは,{\itIBM4}の学習データの22.5\%以下(9,000/40,000)のデータから同等の精度を持つモデルを学習できたことが分かる.その結果,表\ref{tbl:res_mt}が示す通り,学習データの一部を使った$\mathit{RNN}_{u+c}$に基づくSMTシステムが,全学習データを用いた$\mathit{IBM4}_\mathit{all}$に基づくSMTシステムと同等の精度を達成できる場合がある.\begin{table}[b]\caption{学習データ量による単語アラインメント精度の比較}\label{tbl:size}\input{03table04.txt}\end{table}表\ref{tbl:size}より,HMMに基づくモデルに導入したLiangらの両方向の合意制約は学習データが小規模なほど効果があることが分かる.一方で,提案の合意制約は,Liangらの合意制約と比較すると精度の改善幅は小さいが,どのテータサイズにおいても同等の効果を発揮することが確認できる.また,各データサイズで\ref{sect:res_alignment}節と同様の手法の比較を行うと,教師ラベルを使わない場合は$\mathit{RNN}_{u+c}$,使う場合は$\mathit{RNN}_{s+c}$({\itREF})が最も性能が良い.そして,本論文で提案した,RNNの利用,教師なし学習,合意制約の個別の有効性も確認できることから,データサイズに依らず提案手法が有効であることが分かる. \section{まとめ} \label{sect:conclusion}本論文では,RNNに基づく単語アラインメントモデルを提案した.提案モデルは,隠れ層の再帰的な構造を利用し,長いアラインメント履歴に基づいてアラインメントのパス(例えば,フレーズ単位のアラインメント)を捉えることができる.また,RNNに基づくモデルの学習法として,Dyerらの教師なし単語アラインメント\cite{dyer11}を拡張して人工的に作成した負例を利用する教師なし学習法を提案した.そして,更なる精度向上のために,学習過程に各方向のwordembeddingを一致させる合意制約を導入した.複数の単語アラインメントタスクと翻訳タスクの実験を通じて,RNNに基づくモデルは従来のFFNNに基づくモデル\cite{yang13}よりアラインメント精度及び翻訳精度が良いことを示した.また,提案した教師なし学習や合意制約により,アラインメント精度を更に改善できることを確認した.提案モデルでは,アラインメント対象の文脈をアラインメント履歴($y_{i}$)に暗示的に埋め込み利用しているが,今後は,FFNNに基づくモデルのように周辺単語の入力($c(f_{j})$や$c(e_{a_{j}})$)として明示的に利用することも検討したい.また,Yangらは複数の隠れ層を用いることでFFNNに基づくモデルの精度を改善している\cite{yang13}.これに倣って提案モデルでも各隠れ層を複数にするなど,提案モデルの改良を行う予定である.さらに,本論文では提案モデルにより特定したアラインメントに基づいて翻訳モデルを学習したが,翻訳モデル学習時の素性としてアラインメントモデルが算出するスコアを使用したり,Watanabeら\cite{watanabe06}のように翻訳候補のリランキングの中で使ったりするなど,提案モデルのSMTシステムへの効果的な組み込み方に関しても検討したい.\acknowledgment本論文は国際会議The52ndAnnualMeetingoftheAssociationforComputationalLinguisticsで発表した論文\cite{tamura14}に基づいて日本語で書き直し,説明や評価を追加したものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Auli,Galley,Quirk,\BBA\Zweig}{Auliet~al.}{2013}]{auli13}Auli,M.,Galley,M.,Quirk,C.,\BBA\Zweig,G.\BBOP2013\BBCP.\newblock\BBOQJointLanguageandTranslationModelingwithRecurrentNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2013},\mbox{\BPGS\1044--1054}.\bibitem[\protect\BCAY{Bengio,Ducharme,Vincent,\BBA\Janvin}{Bengioet~al.}{2003}]{bengio03}Bengio,Y.,Ducharme,R.,Vincent,P.,\BBA\Janvin,C.\BBOP2003\BBCP.\newblock\BBOQANeuralProbabilisticLanguageModel.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf3},\mbox{\BPGS\1137--1155}.\bibitem[\protect\BCAY{Berg-Kirkpatrick,Bouchard-C\^{o}t\'{e},DeNero,\BBA\Klein}{Berg-Kirkpatricket~al.}{2010}]{taylor10}Berg-Kirkpatrick,T.,Bouchard-C\^{o}t\'{e},A.,DeNero,J.,\BBA\Klein,D.\BBOP2010\BBCP.\newblock\BBOQPainlessUnsupervisedLearningwithFeatures.\BBCQ\\newblockIn{\BemProceedingsofHLT:NAACL2010},\mbox{\BPGS\582--590}.\bibitem[\protect\BCAY{Blunsom\BBA\Cohn}{Blunsom\BBA\Cohn}{2006}]{blunsom06}Blunsom,P.\BBACOMMA\\BBA\Cohn,T.\BBOP2006\BBCP.\newblock\BBOQDiscriminativeWordAlignmentwithConditionalRandomFields.\BBCQ\\newblockIn{\BemProceedingsofColing/ACL2006},\mbox{\BPGS\65--72}.\bibitem[\protect\BCAY{Brown,Pietra,Pietra,\BBA\Mercer}{Brownet~al.}{1993}]{brown93}Brown,P.~F.,Pietra,S.A.~D.,Pietra,V.J.~D.,\BBA\Mercer,R.~L.\BBOP1993\BBCP.\newblock\BBOQTheMathematicsofStatisticalMachineTranslation:ParameterEstimation.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(2),\mbox{\BPGS\263--311}.\bibitem[\protect\BCAY{Chen\BBA\Goodman}{Chen\BBA\Goodman}{1996}]{chen98}Chen,S.~F.\BBACOMMA\\BBA\Goodman,J.\BBOP1996\BBCP.\newblock\BBOQAnEmpiricalStudyofSmoothingTechniquesforLanguageModeling.\BBCQ\\newblockIn{\BemProceedingsofACL1996},\mbox{\BPGS\310--318}.\bibitem[\protect\BCAY{Collobert\BBA\Weston}{Collobert\BBA\Weston}{2008}]{collobert08}Collobert,R.\BBACOMMA\\BBA\Weston,J.\BBOP2008\BBCP.\newblock\BBOQAUnifiedArchitectureforNaturalLanguageProcessing:DeepNeuralNetworkswithMultitaskLearning.\BBCQ\\newblockIn{\BemProceedingsofICML2008},\mbox{\BPGS\160--167}.\bibitem[\protect\BCAY{Collobert,Weston,Bottou,Karlen,Kavukcuoglu,\BBA\Kuksa}{Collobertet~al.}{2011}]{collobert11}Collobert,R.,Weston,J.,Bottou,L.,Karlen,M.,Kavukcuoglu,K.,\BBA\Kuksa,P.\BBOP2011\BBCP.\newblock\BBOQNaturalLanguageProcessing(Almost)fromScratch.\BBCQ\\newblock{\BemJournalofMachineLearningResearch},{\Bbf12},\mbox{\BPGS\2493--2537}.\bibitem[\protect\BCAY{Dahl,Yu,Deng,\BBA\Acero}{Dahlet~al.}{2012}]{dahl12}Dahl,G.~E.,Yu,D.,Deng,L.,\BBA\Acero,A.\BBOP2012\BBCP.\newblock\BBOQContext-DependentPre-trainedDeepNeuralNetworksforLargeVocabularySpeechRecognition.\BBCQ\\newblock{\BemIEEETransactionsonAudio,Speech,andLanguageProcessing},{\Bbf20}(1),\mbox{\BPGS\30--42}.\bibitem[\protect\BCAY{Dempster,Laird,\BBA\Rubin}{Dempsteret~al.}{1977}]{dempster77}Dempster,A.~P.,Laird,N.~M.,\BBA\Rubin,D.~B.\BBOP1977\BBCP.\newblock\BBOQMaximumLikelihoodfromIncompleteDataviatheEMAlgorithm.\BBCQ\\newblock{\BemJournaloftheRoyalStatisticalSociety,SeriesB},{\Bbf39}(1),\mbox{\BPGS\1--38}.\bibitem[\protect\BCAY{Dyer,Clark,Lavie,\BBA\Smith}{Dyeret~al.}{2011}]{dyer11}Dyer,C.,Clark,J.,Lavie,A.,\BBA\Smith,N.~A.\BBOP2011\BBCP.\newblock\BBOQUnsupervisedWordAlignmentwithArbitraryFeatures.\BBCQ\\newblockIn{\BemProceedingsofACL/HLT2011},\mbox{\BPGS\409--419}.\bibitem[\protect\BCAY{Fordyce}{Fordyce}{2007}]{fordyce07}Fordyce,C.~S.\BBOP2007\BBCP.\newblock\BBOQOverviewoftheIWSLT2007EvaluationCampaign.\BBCQ\\newblockIn{\BemProceedingsofIWSLT2007},\mbox{\BPGS\1--12}.\bibitem[\protect\BCAY{Ganchev,Gra{\c{c}}a,\BBA\Taskar}{Ganchevet~al.}{2008}]{gancev08}Ganchev,K.,Gra{\c{c}}a,J.~V.,\BBA\Taskar,B.\BBOP2008\BBCP.\newblock\BBOQBetterAlignments=BetterTranslations?\BBCQ\\newblockIn{\BemProceedingsofACL/HLT2008},\mbox{\BPGS\986--993}.\bibitem[\protect\BCAY{Goh,Watanabe,Yamamoto,\BBA\Sumita}{Gohet~al.}{2010}]{goh10}Goh,C.-L.,Watanabe,T.,Yamamoto,H.,\BBA\Sumita,E.\BBOP2010\BBCP.\newblock\BBOQConstrainingaGenerativeWordAlignmentModelwithDiscriminativeOutput.\BBCQ\\newblock{\BemIEICETransactions},{\Bbf93-D}(7),\mbox{\BPGS\1976--1983}.\bibitem[\protect\BCAY{Goto,Chow,Lu,Sumita,\BBA\Tsou}{Gotoet~al.}{2013}]{goto13}Goto,I.,Chow,K.~P.,Lu,B.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2013\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskattheNTCIR-10Workshop.\BBCQ\\newblockIn{\BemProceedingsof10thNTCIRConference},\mbox{\BPGS\260--286}.\bibitem[\protect\BCAY{Goto,Lu,Chow,Sumita,\BBA\Tsou}{Gotoet~al.}{2011}]{goto10}Goto,I.,Lu,B.,Chow,K.~P.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2011\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskattheNTCIR-9Workshop.\BBCQ\\newblockIn{\BemProceedingsof9thNTCIRConference},\mbox{\BPGS\559--578}.\bibitem[\protect\BCAY{Gra{\c{c}}a,Ganchev,\BBA\Taskar}{Gra{\c{c}}aet~al.}{2008}]{graca08}Gra{\c{c}}a,J.~V.,Ganchev,K.,\BBA\Taskar,B.\BBOP2008\BBCP.\newblock\BBOQExpectationMaximizationandPosteriorConstraints.\BBCQ\\newblockIn{\BemProceedingsofNIPS2008},\mbox{\BPGS\569--576}.\bibitem[\protect\BCAY{Gutmann\BBA\Hyv{\"a}rinen}{Gutmann\BBA\Hyv{\"a}rinen}{2010}]{gutmann10}Gutmann,M.\BBACOMMA\\BBA\Hyv{\"a}rinen,A.\BBOP2010\BBCP.\newblock\BBOQNoise-ContrastiveEstimation:ANewEstimationPrincipleforUnnormalizedStatisticalModels.\BBCQ\\newblockIn{\BemProceedingsofAISTATS2010},\mbox{\BPGS\297--304}.\bibitem[\protect\BCAY{Kalchbrenner\BBA\Blunsom}{Kalchbrenner\BBA\Blunsom}{2013}]{nal13}Kalchbrenner,N.\BBACOMMA\\BBA\Blunsom,P.\BBOP2013\BBCP.\newblock\BBOQRecurrentContinuousTranslationModels.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2013},\mbox{\BPGS\1700--1709}.\bibitem[\protect\BCAY{Kneser\BBA\Ney}{Kneser\BBA\Ney}{1995}]{kneser95}Kneser,R.\BBACOMMA\\BBA\Ney,H.\BBOP1995\BBCP.\newblock\BBOQImprovedBacking-offforM-gramLanguageModeling.\BBCQ\\newblockIn{\BemProceedingsofICASSP1995},\mbox{\BPGS\181--184}.\bibitem[\protect\BCAY{Koehn}{Koehn}{2004}]{koehn04}Koehn,P.\BBOP2004\BBCP.\newblock\BBOQStatisticalSignificanceTestsforMachineTranslationEvaluation.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2004},\mbox{\BPGS\388--395}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constrantin,\BBA\Herbst}{Koehnet~al.}{2007}]{Koehn07}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constrantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL2007},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{Koehn,Och,\BBA\Marcu}{Koehnet~al.}{2003}]{koehn03}Koehn,P.,Och,F.~J.,\BBA\Marcu,D.\BBOP2003\BBCP.\newblock\BBOQStatisticalPhrase-BasedTranslation.\BBCQ\\newblockIn{\BemProceedingsofHLT/NAACL2003},\mbox{\BPGS\48--54}.\bibitem[\protect\BCAY{Le,Allauzen,\BBA\Yvon}{Leet~al.}{2012}]{son12}Le,H.-S.,Allauzen,A.,\BBA\Yvon,F.\BBOP2012\BBCP.\newblock\BBOQContinuousSpaceTranslationModelswithNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofNAACL/HLT2012},\mbox{\BPGS\39--48}.\bibitem[\protect\BCAY{Liang,Taskar,\BBA\Klein}{Lianget~al.}{2006}]{liang06}Liang,P.,Taskar,B.,\BBA\Klein,D.\BBOP2006\BBCP.\newblock\BBOQAlignmentbyAgreement.\BBCQ\\newblockIn{\BemProceedingsofHLT/NAACL2006},\mbox{\BPGS\104--111}.\bibitem[\protect\BCAY{Matusov,Zens,\BBA\Ney}{Matusovet~al.}{2004}]{matusov04}Matusov,E.,Zens,R.,\BBA\Ney,H.\BBOP2004\BBCP.\newblock\BBOQSymmetricWordAlignmentsforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofColing2004},\mbox{\BPGS\219--225}.\bibitem[\protect\BCAY{Mihalcea\BBA\Pedersen}{Mihalcea\BBA\Pedersen}{2003}]{mihalcea03}Mihalcea,R.\BBACOMMA\\BBA\Pedersen,T.\BBOP2003\BBCP.\newblock\BBOQAnEvaluationExerciseforWordAlignment.\BBCQ\\newblockIn{\BemProceedingsoftheHLT-NAACL2003WorkshoponBuildingandUsingParallelTexts:DataDrivenMachineTranslationandBeyond},\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{Mikolov,Karafi{\'a}t,Burget,Cernock{\'y},\BBA\Khudanpur}{Mikolovet~al.}{2010}]{mikolov10}Mikolov,T.,Karafi{\'a}t,M.,Burget,L.,Cernock{\'y},J.,\BBA\Khudanpur,S.\BBOP2010\BBCP.\newblock\BBOQRecurrentNeuralNetworkbasedLanguageModel.\BBCQ\\newblockIn{\BemProceedingsofINTERSPEECH2010},\mbox{\BPGS\1045--1048}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{mikolov13}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandtheirCompositionality.\BBCQ\\newblockIn{\BemProceedingsofNIPS2013},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{Mikolov\BBA\Zweig}{Mikolov\BBA\Zweig}{2012}]{mikolov12}Mikolov,T.\BBACOMMA\\BBA\Zweig,G.\BBOP2012\BBCP.\newblock\BBOQContextDependentRecurrentNeuralNetworkLanguageModel.\BBCQ\\newblockIn{\BemProceedingsofSLT2012},\mbox{\BPGS\234--239}.\bibitem[\protect\BCAY{Mnih\BBA\Teh}{Mnih\BBA\Teh}{2012}]{mnih12}Mnih,A.\BBACOMMA\\BBA\Teh,Y.~W.\BBOP2012\BBCP.\newblock\BBOQAFastandSimpleAlgorithmforTrainingNeuralProbabilisticLanguageModels.\BBCQ\\newblockIn{\BemProceedingsofICML2012},\mbox{\BPGS\1751--1758}.\bibitem[\protect\BCAY{Moore}{Moore}{2005}]{moore05}Moore,R.~C.\BBOP2005\BBCP.\newblock\BBOQADiscriminativeFrameworkforBilingualWordAlignment.\BBCQ\\newblockIn{\BemProceedingsofHLT/EMNLP2005},\mbox{\BPGS\81--88}.\bibitem[\protect\BCAY{Och}{Och}{2003}]{FOch03}Och,F.~J.\BBOP2003\BBCP.\newblock\BBOQMinimumErrorRateTraininginStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL2003},\mbox{\BPGS\160--167}.\bibitem[\protect\BCAY{Och\BBA\Ney}{Och\BBA\Ney}{2003}]{och03}Och,F.~J.\BBACOMMA\\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQASystematicComparisonofVariousStatisticalAlignmentModels.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf29},\mbox{\BPGS\19--51}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{Papineni02}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:aMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofACL2002},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Rumelhart,Hinton,\BBA\Williams}{Rumelhartet~al.}{1986}]{rumelhart86}Rumelhart,D.~E.,Hinton,G.~E.,\BBA\Williams,R.~J.\BBOP1986\BBCP.\newblock\BBOQLearningInternalRepresentationsbyErrorPropagation.\BBCQ\\newblockInRumelhart,D.~E.\BBACOMMA\\BBA\McClelland,J.~L.\BEDS,{\BemParallelDistributedProcessing},\mbox{\BPGS\318--362}.MITPress.\bibitem[\protect\BCAY{Smith\BBA\Eisner}{Smith\BBA\Eisner}{2005}]{smith05}Smith,N.~A.\BBACOMMA\\BBA\Eisner,J.\BBOP2005\BBCP.\newblock\BBOQContrastiveEstimation:TrainingLog-LinearModelsonUnlabeledData.\BBCQ\\newblockIn{\BemProceedingsofACL2005},\mbox{\BPGS\354--362}.\bibitem[\protect\BCAY{Stolcke}{Stolcke}{2002}]{stolcke02}Stolcke,A.\BBOP2002\BBCP.\newblock\BBOQSRILM-AnExtensibleLanguageModelingToolkit.\BBCQ\\newblockIn{\BemProceedingsofICSLP2002},\mbox{\BPGS\901--904}.\bibitem[\protect\BCAY{Sundermeyer,Oparin,Gauvain,Freiberg,Schl{\"u}ter,\BBA\Ney}{Sundermeyeret~al.}{2013}]{sundermeyer13}Sundermeyer,M.,Oparin,I.,Gauvain,J.-L.,Freiberg,B.,Schl{\"u}ter,R.,\BBA\Ney,H.\BBOP2013\BBCP.\newblock\BBOQComparisonofFeedforwardandRecurrentNeuralNetworkLanguageModels.\BBCQ\\newblockIn{\BemProceedingsofICASSP2013},\mbox{\BPGS\8430--8434}.\bibitem[\protect\BCAY{Takezawa,Sumita,Sugaya,Yamamoto,\BBA\Yamamoto}{Takezawaet~al.}{2002}]{takezawa02}Takezawa,T.,Sumita,E.,Sugaya,F.,Yamamoto,H.,\BBA\Yamamoto,S.\BBOP2002\BBCP.\newblock\BBOQTowardaBroad-coverageBilingualCorpusforSpeechTranslationofTravelConversationsintheRealWorld.\BBCQ\\newblockIn{\BemProceedingsofLREC2002},\mbox{\BPGS\147--152}.\bibitem[\protect\BCAY{Tamura,Watanabe,\BBA\Sumita}{Tamuraet~al.}{2014}]{tamura14}Tamura,A.,Watanabe,T.,\BBA\Sumita,E.\BBOP2014\BBCP.\newblock\BBOQRecurrentNeuralNetworksforWordAlignmentModel.\BBCQ\\newblockIn{\BemProceedingsofACL2014},\mbox{\BPGS\1470--1480}.\bibitem[\protect\BCAY{Taskar,Lacoste-Julien,\BBA\Klein}{Taskaret~al.}{2005}]{taskar05}Taskar,B.,Lacoste-Julien,S.,\BBA\Klein,D.\BBOP2005\BBCP.\newblock\BBOQADiscriminativeMatchingApproachtoWordAlignment.\BBCQ\\newblockIn{\BemProceedingsofHLT/EMNLP2005},\mbox{\BPGS\73--80}.\bibitem[\protect\BCAY{Utiyama,Yamamoto,\BBA\Sumita}{Utiyamaet~al.}{2009}]{utiyama09}Utiyama,M.,Yamamoto,H.,\BBA\Sumita,E.\BBOP2009\BBCP.\newblock\BBOQTwoMethodsforStabilizingMERT:NICTatIWSLT2009.\BBCQ\\newblockIn{\BemProceedingsofIWSLT2009},\mbox{\BPGS\79--82}.\bibitem[\protect\BCAY{Vaswani,Huang,\BBA\Chiang}{Vaswaniet~al.}{2012}]{vaswani12}Vaswani,A.,Huang,L.,\BBA\Chiang,D.\BBOP2012\BBCP.\newblock\BBOQSmallerAlignmentModelsforBetterTranslations:UnsupervisedWordAlignmentwiththe$l_0$-norm.\BBCQ\\newblockIn{\BemProceedingsofACL2012},\mbox{\BPGS\311--319}.\bibitem[\protect\BCAY{Vaswani,Zhao,Fossum,\BBA\Chiang}{Vaswaniet~al.}{2013}]{vaswani13}Vaswani,A.,Zhao,Y.,Fossum,V.,\BBA\Chiang,D.\BBOP2013\BBCP.\newblock\BBOQDecodingwithLarge-ScaleNeuralLanguageModelsImprovesTranslation.\BBCQ\\newblockIn{\BemProceedingsofEMNLP2013},\mbox{\BPGS\1387--1392}.\bibitem[\protect\BCAY{Viterbi}{Viterbi}{1967}]{viterbi67}Viterbi,A.~J.\BBOP1967\BBCP.\newblock\BBOQErrorBoundsforConvolutionalCodesandanAsymptoticallyOptimumDecodingAlgorithm.\BBCQ\\newblock{\BemIEEETransactionsonInformationTheory},{\Bbf13}(2),\mbox{\BPGS\260--269}.\bibitem[\protect\BCAY{Vogel,Ney,\BBA\Tillmann}{Vogelet~al.}{1996}]{vogel96}Vogel,S.,Ney,H.,\BBA\Tillmann,C.\BBOP1996\BBCP.\newblock\BBOQHmm-basedWordAlignmentinStatisticalTranslation.\BBCQ\\newblockIn{\BemProceedingsofColing1996},\mbox{\BPGS\836--841}.\bibitem[\protect\BCAY{Watanabe,Suzuki,Tsukada,\BBA\Isozaki}{Watanabeet~al.}{2006}]{watanabe06}Watanabe,T.,Suzuki,J.,Tsukada,H.,\BBA\Isozaki,H.\BBOP2006\BBCP.\newblock\BBOQNTTStatisticalMachineTranslationforIWSLT2006.\BBCQ\\newblockIn{\BemProceedingsofIWSLT2006},\mbox{\BPGS\95--102}.\bibitem[\protect\BCAY{Yang,Liu,Li,Zhou,\BBA\Yu}{Yanget~al.}{2013}]{yang13}Yang,N.,Liu,S.,Li,M.,Zhou,M.,\BBA\Yu,N.\BBOP2013\BBCP.\newblock\BBOQWordAlignmentModelingwithContextDependentDeepNeuralNetwork.\BBCQ\\newblockIn{\BemProceedingsofACL2013},\mbox{\BPGS\166--175}.\end{thebibliography}\begin{biography}\bioauthor{田村晃裕}{2005年東京工業大学工学部情報工学科卒業.2007年同大学院総合理工学研究科修士課程修了.2007年から2011年まで日本電気株式会社にて自然言語処理,特にテキストマイニングに関する研究に従事.2011年から2014年まで情報通信研究機構にて統計的機械翻訳に関する研究に従事.2013年東京工業大学大学院総合理工学研究科博士課程修了.2014年から2015年まで日本電気株式会社にてテキスト分類に関する研究に従事.2015年から情報通信研究機構の研究員,現在に至る.工学博士.情報処理学会,言語処理学会,ACL各会員.}\bioauthor{渡辺太郎}{1994年京都大学工学部情報工学科卒業.1997年京都大学大学院工学研究科情報工学専攻修士課程修了.2000年LanguageandInformationTechnologies,SchoolofComputerScience,CarnegieMellonUniversity,MasterofScience取得.2004年京都大学博士(情報学).ATR,NTTおよびNICTにて研究員として務めた後,現在,グーグル株式会社ソフトウェアエンジニア.}\bioauthor{隅田英一郎}{1982年電気通信大学大学院修士課程修了.1999年京都大学大学院博士(工学).日本アイ・ビー・エム東京基礎研究所,国際電気通信基礎技術研究所を経て,2007年より国立研究開発法人情報通信研究機構に勤務,現在,ユニバーサルコミュニケーション研究所副所長.自動翻訳,eラーニングに関する研究開発に従事.2007,2014年アジア太平洋機械翻訳協会長尾賞,2007年情報処理学会喜安記念業績賞,2010年文部科学大臣表彰・科学技術賞(開発部門),2013年第11回産学官連携功労者表彰・総務大臣賞.情報処理学会,電子情報通信学会,ACL,日本音響学会,ACM各会員.}\end{biography}\biodate\end{document}
V13N01-01
\section{はじめに} \label{はじめに}高精度の機械翻訳システムや言語横断検索システムを構築するためには,大規模な対訳辞書が必要である.特に,専門性の高い文書や時事性の高い文書を扱う場合には,専門用語や新語・造語に関する対訳辞書の有無が翻訳や検索の精度を大きく左右する.人手による対訳辞書の作成はコスト及び時間がかかる作業であり,できるだけ自動化されることが望ましい.このような課題に対処するため,対訳文書から対訳表現を自動的に抽出する手法が数多く提案されている.この中でも,文対応済みの対訳文書から共起頻度に基づいて統計的に対訳表現を自動抽出する手法は,精度が高く,対訳辞書を自動的に作成する方法として有効である\cite[など]{北村97,山本2001,佐藤2002,佐藤2003}.本稿では,その中の一つである\cite{北村97}の手法をベースにし,従来手法の利点である高い抽出精度を保ちつつ,抽出できる対訳表現のカバレッジを向上させるために行った種々の工夫について論じ,その有効性を実験で示す.\begin{description}\item[(A)]文節区切り情報や品詞情報の利用\item[(B)]対訳辞書の利用\item[(C)]複数候補の対訳表現が得られた場合の人手による確認・選択\item[(D)]多対多の対応数を考慮に入れた対応度評価式\item[(E)]対訳文書の分割による漸進的な抽出\end{description}\noindentの5点である.これらを用いることで実用的な対訳表現抽出を行うことができる.(A)は,文節区切り情報や品詞情報を利用することにより,構文的に有り得ない表現が抽出候補にならないようにする.文節区切り情報の有効性は,既存の研究\cite{Yamamoto-Matsumoto:2003}において確かめられているが,彼らは抽出の対象を自立語に限定している.提案手法では,各単語における文節内の位置情報と品詞情報を用いて抽出の対象を制限することで,自立語以外の語も抽出の対象とする.(B),(C)では,共起頻度に基づいた統計的な値のみでは対訳かどうかが判断できない場合,対訳辞書や人手を利用して対訳か否かを判断する手法である.過去の研究\cite{佐藤2003}では,対訳辞書は対訳文書から対訳関係にある単語ペアを見つけるための手がかりとして利用されることが多いが,本提案では,手がかりとするのではなく,統計的に抽出された対訳表現から適切な対訳表現だけを選り出すための材料として利用する.(D)では,原言語と目的言語の単語列間の対応関係の強さを示す尺度である{\bf対応度}の評価式を改良する.対応度の計算には,一般に重み付きDice係数やLog-Likelihoodなどの評価式が用いられるが,我々は従来手法\cite{北村97}の実験結果を分析した結果,Dice係数やLog-Likelihoodの評価式に対して,多対多の対応数を考慮した負の重み付けを行うことが効果的であると判断し,評価式を改良した.(E)は抽出時間に関する課題を解決する.従来手法では10,000文以上からなる対訳文書を抽出対象とする場合,原言語と目的言語単語列の組み合わせが多数生成されるという課題があった.提案手法ではその組み合わせ数を削減するために,対訳文書を一定の単位に分割し,抽出対象とする文書の単位を徐々に増やしていきながら抽出するという方法を採用する.対象とする対訳文を1,000文,2,000文,…,10,000文と徐々に増やす度に,抽出された対訳表現に関わる単語列を除去していく.その結果,対象の文が10,000文に達した時の単語列の組み合わせ数は,直接10,000文を対象にした場合の組み合わせ数より少なくなり,抽出時間を短縮させることができる.以下,\ref{従来}章では,従来手法\cite{北村97}における,原言語単語列と目的言語単語列間の対応度の計算方法と抽出アルゴリズムを説明する.\ref{提案}章では,本稿が提案する種々の工夫を採用した改良手法について述べる.\ref{実験}章では\ref{提案}章に述べた各手法の評価実験を報告し,その結果を考察する.\ref{関連研究}章では関連研究と比較し,\ref{まとめ}章でまとめる. \section{従来手法} \label{従来}\subsection{連続単語列間の対応度計算方法}\label{連続単語列間の対応度計算方法}原言語単語列$w_{o}$と目的言語単語列$w_{t}$の対応関係の強さを示す尺度として,対応度$sim(w_{o},w_{t})$を定義する.対応度は,原言語の単語列の出現回数,目的言語の単語列の出現回数,両者が同時に対訳文に同時に出現する回数で求められ,いくつかの計算方法が提案されている\cite{Matsumoto-Utsuro:2000}.従来手法では重み付きDice係数が用いられている.Dice係数はXとYの事象において,Xが発生する回数とYが発生する回数の和に対してXとYの事象が同時に出現する回数の割合で表す.さらに,同時出現回数の重みを与えたものを重み付きDice係数と呼び,これはXとYの相関関係だけでなく,出現回数も考慮に入れることができる.日本語単語列を$w_{J}$,英語単語列を$w_{E}$,$w_{J}$の日本語文書中の出現回数を$f_{j}$,$w_{E}$の英語文書中の出現回数を$f_{e}$とし,$w_{J}$と$w_{E}$が対訳文に同時に出現する回数を$f_{je}$とすると,重み付きDice係数を用いた対応度は,以下の式で定義される\cite{北村97}.\[sim(w_{J},w_{E})=(\log_{2}f_{je})\cdot\frac{2f_{je}}{f_{j}+f_{e}}\]\subsection{抽出アルゴリズム}\label{抽出アルゴリズム}従来手法の基本的な考え方は,原言語文書と目的言語文書から抽出される連続単語列集合の全ての組合せに対して,\ref{連続単語列間の対応度計算方法}節に述べた対応度を計算し,対応度の高い連続単語列ペアから順に対訳表現として抽出するという手法である.図\ref{基本アルゴリズム}の流れ図に従って,各処理を説明する\footnote{この手法で対象とする対訳文書は言語に依存しないが,以下では日本語と英語の対訳文書を対象にして説明する.}.\begin{figure}[t]\begin{center}\epsfxsize=9cm\epsfbox{./figure/figure1.ps}\end{center}\caption{基本アルゴリズムの流れ図}\label{基本アルゴリズム}\end{figure}\vspace{5mm}\begin{description}\item[(1)形態素解析:]対訳文書$(E,J)$を構成する日本語文書及び英語文書中の各対訳文を形態素解析する.形態素解析された対訳文書$(E,J)$中の各対訳文を$(es,js)$とする.\item[(2)連続単語列の抽出:]各対訳文$(es,js)$に対して英語連続単語列集合$EWS$と日本語連続単語列集合$JWS$を抽出し,$(EWS,JWS)$を連続単語列データベースに登録する.ここでの連続単語列とは,連続単語列の構成単語数の最大値を$l_{max}$とした場合の$n\leql_{max}$の条件を満たす単語n-gramである.\ref{実験}節の実験では$l_{max}=10$を用いた.\item[(3)出現回数閾値設定:](4)から(6)の処理で抽出対象とする連続単語列の出現回数の最低値を閾値$Th$とし,その初期値である$f_{max}$を代入する.4節の実験では,$f_{max}$は,抽出された英語及び日本語連続単語列の出現回数の最高値の1/2の値に設定した.なお,(4)から(6)の処理は,対訳表現が抽出されなくなるまで閾値$Th$を変えずに繰り返される.対訳表現が抽出されなくなれば(7)で$Th$を下げ,再び(4)から(6)が繰り返される.\item[(4)出現回数の数え上げ:]上記(2)の全ての$(EWS,JWS)$に対して,閾値$Th$回以上出現する英語連続単語列($ews$とする)と日本語連続単語列($jws$とする)を抽出する.\item[(5)対応度の計算・対訳表現の抽出:](4)で抽出された全ての$ews$,$jws$に対して,\ref{連続単語列間の対応度計算方法}節の評価式にしたがって対応度を計算し,以下のa),b)の処理を行う.\begin{description}\item[a)]$ews$において最大の対応度をもつ$jws'$を探す.$jws$において最大の対応度をもつ$ews'$を探す.\item[b)]$ews$と$ews'$及び$jws$と$jws'$が同じで,かつ,$jws$と$ews$の対応度が\\$sim(jws,ews)\geq\log_{2}Th$の条件を満たすならば,連続単語列ペア$(ews,jws)$を対訳表現とみなして,対訳表現データベースに登録する.\end{description}b)の条件の右辺は評価式(ここでは$(\log_{2}f_{je})\cdot\frac{2f_{je}}{f_{j}+f_{e}}$)に$Th=f_{je}=f_{j}=f_{e}$を代入することにより求められる.出現回数が閾値$Th$の場合,対応度が最高となるのは$Th=f_{je}=f_{j}=f_{e}$の時である.したがって,出現回数が閾値$Th$より小さい場合,$Th=f_{je}=f_{j}=f_{e}$の時の対応度の最高値を超えることはない.この条件を課すことで,閾値$Th$を下げた次の段階で得られる対応度の最高値は,前段階で抽出される対訳表現の対応度の値を越えないことが保証される.\item[(6)連続単語列データベースにおける候補の削減:]以降の処理で新たな対訳表現を抽出候補としたいため,既に抽出した対訳表現,つまり,(5)で「対訳表現データベース」に登録された対訳表現$(ews,jws)$に関連する連続単語列を連続単語列データベースから削除する.削除の方法は,連続単語列データベース内の$(EWS,JWS)$に同時に出現する$ews$と同一の部分をもつ英語連続単語列$ews$-$ex$($ews$と$ews$-$ex$が同一である場合も含む)と,$jws$と同一の部分をもつ日本語連続単語列$jws$-$ex$($jws$と$jws$-$ex$が同一である場合も含む)を$(EWS,JWS)$から削除する.$ews$でなく$ews$と同一の部分をもつ英語連続単語列$ews$-$ex$を削除する理由は,$ews$-$ex$は$ews$を元にして抽出された連続単語列であるためである.$jws$-$ex$を削除する理由も同様である.(5)において対訳表現が抽出されたならば(4)の処理に戻る.抽出されなければ(7)に進む.\item[(7)閾値低下による候補拡大:]$Th>f_{min}$であれば閾値$Th$の値を1つ減らして(4)から(7)の処理を繰り返す.$Th=f_{min}$であれば処理を終了する.$f_{min}$は抽出対象とする連続単語列の最低出現回数であり,4節の実験では$f_{min}=2$又は$f_{min}=1$に設定した.\end{description}\vspace{5mm}\noindentこの手法の特徴は,連続単語列ペアの出現回数に対する閾値を設け,その閾値を満足する連続単語列ペアを対象にして対訳表現を抽出し,閾値を満足する連続単語列ペアがなくなれば,その閾値を徐々に下げていくという点にある.対応度と連続単語列ペアの出現回数は相関関係をもつように設定されているので,出現回数に対する閾値を設けて,その値を徐々に小さくしていくことで,対応度の高い連続単語列ペア,つまり確からしい連続単語列ペアから順に対訳表現を抽出することができる.また,閾値を下げていき,精度が保証されなくなる段階で,処理を終了することもできる. \section{提案手法} \label{提案}我々は\ref{従来}節の従来手法に対して,(A)文節区切り情報や品詞情報の利用,(B)対訳辞書の利用,(C)複数候補の対訳表現が得られた場合の人手による選択,(D)多対多の対応数を考慮に入れた対応度評価式,(E)対訳文書の分割による漸進的な抽出,の5つの改良を行った.これらを改良した提案手法の処理の流れ図を図\ref{提案アルゴリズム}に示す.ステップの番号のカッコ内の数字は,\ref{抽出アルゴリズム}の抽出アルゴリズムの各ステップの番号に対応している.図\ref{提案アルゴリズム}の四角の枠で囲まれたステップは,本提案で改良されたステップである.ステップ(1)-2では,形態素解析と同時に文節区切り処理を行い,ステップ(2)-1では,その結果を用いて文節を超えないように連続単語列を抽出する.ステップ(5)-1の対応度の計算では,改良された対応度の評価式を用いる.ステップ(1)-1,(5)-2,(5)-3-aは,辞書を参照する場合に適用されるステップである.辞書参照だけでなく,人手による確認も行う場合はステップ(5)-3-aではなく,ステップ(5)-3-bを用いる.対訳文書の分割による漸進的な抽出は,ステップ(1)-3で対象となる対訳文書をあらかじめ決められた単位に分割し,ステップ(7)-2で1単位ずつ追加することによって対象とする文書範囲を拡大していくという手法をとる.以下に,提案アルゴリズムの各処理を説明する.\begin{figure}[t]\begin{center}\epsfxsize=9cm\epsfbox{./figure/figure2.ps}\end{center}\caption{対訳表現抽出方法の流れ図}\label{提案アルゴリズム}\end{figure}\vspace{5mm}\begin{description}\item[(1)-1対訳辞書の登録:]既存の対訳辞書を「対訳辞書データベース」に登録する.\item[(1)-2形態素解析・文節区切り解析:]対訳文書$(E,J)$を構成する日本語文書及び英語文書の各対訳文において形態素解析及び文節区切り解析\footnote{英語には「文節」という単位がないため,それに相当する単位を導入する.\ref{文節情報利用}節を参照のこと.}を行う.形態素解析及び文節区切り解析された各対訳文を$(es,js)$とする.\item[(1)-3対訳文書抽出対象の分割・設定:]対訳文書$(E,J)$を$n$個に分割し,\\$(E_{1},J_{1}),(E_{2},J_{2}),...,(E_{n},J_{n})$とする.現時点での分割文書番号$x$に$1$をセットする.\item[(2)-1連続単語列の抽出:]対訳文書$(E_{x},J_{x})$中の各対訳文$(es,js)$に対して,(1)-2の文節区切り解析結果を利用して,文節の境界を超えない範囲で英語単語列の集合$EWS$と日本語単語列の集合$JWS$を抽出する.各対訳文$(es,js)$における$(EWS,JWS)$を連続単語列データベースに追加する.\item[(2)-2連続単語列DBにおける候補の削減:]$x=1$であれば,(3)の処理に進む.\\$x>1$であれば,現時点で「対訳表現データベース」に登録されている対訳表現$(ews,jws)$に関連する連続単語列を連続単語列データベースから削除する.削除の方法は,連続単語列データベース内の$(ews,jws)$に同時に出現する$ews$と同一の部分をもつ英語連続単語列$ews$-$ex$($ews$と$ews$-$ex$が同一である場合も含む)と,$jws$と同一の部分をもつ日本語連続単語列$jws$-$ex$($jws$と$jws$-$ex$が同一である場合も含む)を$(EWS,JWS)$から削除する.(これは,ステップ(6)と同じ処理である.)\item[(3)出現回数の閾値の設定:](4)から(6)の処理で抽出対象となる連続単語列の出現回数の最低値を閾値$Th$とし,その初期値$f_{max}$を代入する.\ref{実験}節の実験での$f_{max}$の値は\ref{抽出アルゴリズム}節の抽出アルゴリズムに準ずる.\item[(4)出現回数の数え上げ:]上記(2)-2の全ての$(EWS,JWS)$に対して,$Th$回以上出現する英語連続単語列($ews$とする)と日本語連続単語列($jws$とする)を抽出する.\item[(5)-1対応度の計算:]抽出された全ての$ews$,$jws$に対して,\ref{多対多評価式}節の計算方法にしたがって対応度を計算し,以下のa),b)の処理を行う.\begin{description}\item[a)]$ews$において最大の対応度をもつ$jws'$を探す.$jws$において最大の対応度をもつ$ews'$を探す.\item[b)]$ews$と$ews'$及び$jws$と$jws'$が同じであり,以下の条件を満たしており,かつ,連続単語列ペア$(ews,jws)$が「対訳表現除外データベース」に登録されていないならば,連続単語列ペア$(ews,jws)$を対訳表現候補とする.\\{\bf対応度にDice係数を用いる場合:}$sim(jws,ews)\leq\log_{2}Th${\bf対応度にLog-Likelihoodを用いる場合:}\[sim(jws,ews)\geqf_{all}\logf_{all}-(f_{all}-Th)\log(f_{all}-Th)-Th\logTh\]\end{description}上記の条件を課す理由は,\ref{従来}節の従来手法の抽出アルゴリズムの(5)と同じである.本処理は閾値$Th$において複数回繰り返されるが,閾値において1回目の処理であれば,(5)-2に進む.2回目以降の処理であれば,(5)-3-aまたは(5)-3-bに進む.\item[(5)-2対訳辞書参照による対訳表現の抽出(1回目の処理):](5)-1で候補とされた連続単語列ペア$(ews,jws)$において,$ews$を構成する英語自立語単語の集合と,$jws$を構成する日本語自立語単語の集合を取り出し,両集合間での組合せにおいて,少なくとも1つの組合せが「対訳辞書データベース」に登録されているならば,連続単語列ペア$(ews,jws)$を対訳表現と認定し「対訳表現データベース」に登録する.\item[(5)-3-a対訳表現の抽出(2回目以降の処理):](5)-1で候補とされた対訳表現候補$(ews,jws)$を全て対訳表現と認定し「対訳表現データベース」に登録する.\item[(5)-3-b人手による対訳表現の確認・選択(2回目以降の処理):](5)-1で候補とされた対訳表現候補を対訳表現候補$(ews,jws)$を対応度の高いものから順に並べ替える.それをファイルに格納し,そのファイルを作業者に提示する.作業者は各対訳表現候補を確認し,間違った対訳表現候補をファイルから削除する.全ての確認を終了し,ファイルが保存されると,ファイルに残された候補は「対訳表現データベース」に登録され,ファイルから削除された候補は「対訳表現除外データベース」に登録される.\item[(6)連続単語列DBにおける候補の削減:](5)-2,(5)-3-a,(5)-3-bで「対訳表現データベース」に登録された全ての対訳表現$(ews,jws)$に関連する連続単語列を連続単語列データベースから削除する.削除の方法は,連続単語列データベース内の$(EWS,JWS)$に同時に出現する$ews$と同一の部分をもつ英語連続単語列$ews$-$ex$($ews$と$ews$-$ex$が同一である場合も含む)と,$jws$と同一の部分をもつ日本語連続単語列$jws$-$ex$($jws$と$jws$-$ex$が同一である場合も含む)を$(EWS,JWS)$から削除する.(5)において対訳表現が抽出されたならば(4)の処理に戻る.抽出されなければ,ステップ(7)-1に進む.\item[(7)-1閾値低下による候補の拡大:]$Th>f_{merge}$であれば,閾値$Th$の値を1つ下げ,(4)から(7)の処理を繰り返す.$Th>f_{merge}$でなければ,ステップ(7)-2に進む.$f_{merge}$は100\%の精度が得られる出現回数の最低値であり,\ref{実験}節の実験では予備実験の結果から$f_{merge}=3$に設定した.\item[(7)-2対訳文書対象範囲の拡大:]$x\neqn$,つまり,抽出対象が全対訳文書でないならば,$x$に$1$を加え,(2)から(7)の処理を繰り返す.一方,$x=n$かつ$Th>f_{min}$であれば,閾値の値を下げて(4)から(7)の処理を繰り返す.$x=n$かつ$Th=f_{min}$であれば,全処理を終了する.$f_{min}$は抽出対象とする連続単語列の最低出現回数であり,\ref{実験}節の実験では,従来手法と同様,$f_{min}=2$又は$f_{min}=1$を用いた.\end{description}\subsection{文節区切り情報や品詞情報の利用}\label{文節情報利用}\ref{連続単語列間の対応度計算方法}節の従来手法による抽出結果を分析すると\footnote{実験データは,先行研究\cite{北村97}で使用された「取引条件表現辞典例文\cite{石上:1992}を利用した.\ref{文書性質の実験}節の実験結果の分析も同様である.}「中心に多くの:willbecomethetarget」「その保有する膨大な:vastinventory」のように,構成する一部の単語の対応は正しいが,全体では間違っているという対訳表現が数多くみられた.このような例の多くは,英語や日本語の表現として意味をなさない不適切な単位であることが多かった.この課題を解決するため,不適切な対訳表現候補を生成しない工夫を施す.具体的には,以下の処理を行う.\begin{description}\item[(a)]候補となる連続単語列を抽出する時(ステップ(2)-1),文節区切り情報を用いて,文節境界の範囲を超える連続単語列候補を生成しない.なお,英語には,文節という単位がないため,動詞句,名詞句,前置詞句,副詞句の4つの文の構成成分を文節とする.\item[(b)]あらかじめ設定された連続単語列内の位置及び品詞の条件をもつ連続単語列は生成しない.これは,その条件を規則として表現し,その規則に適合する連続単語列は生成しないことで実現している.現時点での品詞レベルの規則数は英語25規則,日本語45規則,単語(見出し)レベルの規則数は,英語201規則,日本語309規則である.\end{description}\begin{figure}[t]\begin{center}\epsfxsize=9cm\epsfbox{./figure/figure3.ps}\end{center}\caption{文節区切りを利用した連続単語列の抽出}\label{文節区切り利用連続単語列抽出}\end{figure}\noindent以下に具体例を示す.図\ref{文節区切り利用連続単語列抽出}は日本語文における文節区切り結果とそれに基づく連続単語列抽出の例である.形態素解析ツールによって区切られた形態素の区切りを``/'',係り受け解析ツールによって区切られた文節の区切りを``//''で表す.文節区切り情報を利用しない場合「する安全」「決議の諸」などの対訳表現として不適切な日本語表現が候補となるが,提案手法では文節境界の範囲を超える連続単語列を生成しないため,これらの表現は候補とならない.また,(b)の条件を課することによって,文節内の不適切な表現も生成されない.例えば「の」や「れる」のような一単語のみからなる助詞や助動詞は生成されないが「決議\_の」や「満たす\_れる」のように,助詞が名詞の後ろに位置する場合や,助動詞が動詞の後ろに位置する連続単語列は生成される.上記の処理をすることにより,提案手法では意味的にまとまりをなしていない文字列を除外することができる.\subsection{対訳辞書の利用}対訳辞書は,抽出精度向上のための有効な知識である.しかし,対訳辞書を手がかりとして抽出すると,対訳辞書に登録されていない専門用語などの表現が抽出されなくなる可能性がある.そこで,我々は,従来手法のアルゴリズムで抽出された対訳表現に対して,対訳辞書を参照することによって適切な対訳表現を選り出し,それらを優先的に抽出するという改良を行った.閾値$Th$において対訳表現が抽出される限り,ステップ(4)から(6)の処理が繰り返されるが,何回目の処理かによって処理内容を変える.閾値$Th$での処理が1回目の場合,対訳辞書を参照し,その候補が対訳関係にあると認められれば抽出する.対訳関係か否かの判断は,連続単語列を構成する英語と日本語の自立語単語の組合せにおいて1つでも対訳辞書登録語があれば,対訳関係にあると認定する.この理由は,対訳辞書登録語との完全一致する連続単語列ペアのみを対訳関係にあると認定すると,対訳関係にある連続単語列ペアはわずかとなり,辞書参照の効果が得られないためである.ステップ(6)では,抽出された対訳表現に関する連続単語列候補は削除される.閾値での処理が2回目以降では,この削除された状態で,対訳辞書を参照せずに対訳表現を抽出する.このように,対訳辞書の利用は適切な対訳表現を選り出す働きだけでなく,不適切な連続単語列候補を除外する役割も果たすことができる.\subsection{複数候補の対訳表現が得られた場合の人手による確認・選択}次に人手による確認・選択を考える.人手による確認・選択は,作業効率に見合った効果が得られるかどうかが重要である.その作業が時間や手間がかかるものであれば,最終結果を人手で取捨選択する作業と変わらない.我々は,ここでも従来手法の抽出アルゴリズムの性質を利用して,繰り返し処理の途中に人手による確認・選択作業を施す.具体的には,出現回数の閾値での1回目の処理では,辞書参照による対訳表現抽出を行い,2回目以降の処理において,ステップ(5)-1で候補とされた対訳表現候補全てに対して,人間が正しいかどうかを確認する.正しいと判断された候補は「対訳表現データベース」に登録され,一方,残りの対訳表現は「対訳表現除外データベース」に登録される.「対訳表現データベース」に登録された連続単語列ペアは,ステップ(6)の連続単語列候補の削減に利用される.一方「対訳表現除外データベース」に登録された連続単語列ペアは,ステップ(5)-2で対訳表現を抽出する時に参照され,対訳表現候補から必ず除外される.\subsection{多対多の対応数を考慮した対応度評価式}\label{多対多評価式}従来手法では対応度を評価する式として重み付きDice係数が用いられたが,提案手法では,重み付きDice係数と同様に,原言語と目的言語の単語列の同時出現回数と相関があるLog-Likelihoodを用いる.さらに,重み付きDice係数やLog-likelihoodに対して,多対多の対応数を考慮した改良を行う.Log-Likelihood\cite{Dunning:1993,Matsumoto-Utsuro:2000}は,ある表現Xの出現が別の表現Yの出現にどの程度強く依存するかを調べるための確率論に基づいた尺度である.実際の出現事例においてXの出現がYに依存しないという仮説とYの出現/非出現に依存するという仮説の尤度比で表す.\ref{連続単語列間の対応度計算方法}節の$w_{J}$,$w_{E}$,$f_{j}$,$f_{e}$.$f_{je}$の前提に加えて,対訳文書が有する文数を$f_{all}$とすると,以下の式で定義される.\begin{small}\begin{eqnarray*}sim(w_{J},w_{E})&=&f_{je}\logf_{je}+(f_{e}-f_{je})\log(f_{e}-f_{je})+(f_{j}-f_{je})\log(f_{j}-f_{je})\\&&+(f_{all}+f_{je}-f_{e}-f_{j})\log(f_{all}+f_{je}-f_{e}-f_{j})\\&&-f_{e}\logf_{e}-f_{j}\logf_{j}-(f_{all}-f_{j})\log(f_{all}-f_{j})-(f_{all}-f_{e})\log(f_{all}-f_{e})\\&&+(f_{all})\log(f_{all})\end{eqnarray*}\end{small}\begin{figure}[t]\begin{center}\epsfxsize=9cm\epsfbox{./figure/figure4.ps}\end{center}\caption{基本アルゴリズムによる抽出結果の例}\label{抽出結果の例}\end{figure}\noindent次に,多対多の対応数を考慮した対応度評価式について説明する.\ref{従来}節の従来手法を用いて抽出した対訳表現を分析した結果,図\ref{抽出結果の例}(a)のように,日本語連続単語列と英語連続単語列が,対応度が同じで,かつ,多対多の関係で対応付けられている場合に誤りが多かった.一方,(b)の例のように,同じ対応度では1対1の対応関係しか持たない場合,その大半は正しかった.図\ref{抽出結果の例}(a)の現象は,一部の単語が異なり,残りの単語は全て共通である対訳文が複数存在した場合に起こる.その共通部分において組み合わされる日本語・英語連続単語列ペアは対応度が等しくなり,多対多の対応関係を有する対訳表現となる.上記に述べた多対多の関係を有する対訳表現の抽出を避けるために,Dice係数及びLog-likelihoodの対応度$sim(w_{J},w_{E})$に対して,原言語と目的言語の連続単語列が多対多の関係で対応付けられる場合にはその対応度の値が小さくなるような重み付けを与える.以降,この対応度を$dsim(w_{J},w_{E})$と表記し,{\bf多対多の対応数を考慮した対応度}と呼ぶ.$dsim(w_{J},w_{E})$を以下のように定義する.\[dsim(w_{J},w_{E})=\frac{sim(w_{J},w_{E})}{\log_{2}(fw_{J\rightarrowE}+fw_{E\rightarrowJ})}\]$sim(w_{J},w_{E})$は従来のDice係数やLog-likelihoodによる対応度の値である.$fw_{J\rightarrowE}$は現段階のステップ(4)で生成された全ての連続単語列において,日本語単語列$w_{J}$を有する連続単語列ペアの数であり,$fw_{E\rightarrowJ}$は,英語単語列$w_{E}$を有する連続単語列ペアの数である.上記の式は,日本語単語列$w_{J}$と英語単語列$w_{E}$からなる連続単語列ペアにおいて,$w_{J}$が対応する英語単語列の数と,$w_{E}$が対応する日本語単語列の数の和が大きいほどその値が小さくなるように設定されている.また,$w_{E}$と$w_{J}$が1対1で対応する場合の値はDice係数やLog-likelihoodから計算される$sim(w_{J},w_{E})$の値と等しくなるように設定されている.\subsection{対訳文書の分割による漸進的な抽出}ステップ(5)の処理における英語と日本語の連続単語列の組み合わせ数は,対訳文書の文数が多くなるにしたがい増大する.この連続単語列候補の生成を抑えるために,文書分割による漸進的な抽出手法を提案する.まず,ステップ(1)-3で対象となる対訳文書をあらかじめ定められた文数の単位\footnote{何文単位で分割するのが適切かは、\ref{文書分割実験}節の文書分割による影響の項で議論する.}で分割し,まず1単位で,100\%の精度が保証される出現回数まで抽出を繰り返す(ステップ(7)-1).その単位での処理が終了すれば,さらに1単位を追加して抽出を繰り返す(ステップ(7)-2).追加しながら処理を繰り返し行い,抽出対象が対訳文書全体に及べば処理を終了する.対象とする文を徐々に拡大することで,対象とする文数が少ない初期の段階で抽出された対訳表現に関する英語・日本語連続単語列を候補から除外することができる.これにより,抽出対象が拡大された時の連続単語列候補の生成を削減することができる. \section{実験および考察} \label{実験}3章に提案した各手法の有効性を評価するために,様々な設定の下での比較実験を行った.基本となる実験条件と評価指標を最初に説明し,実験結果及び考察を述べる.実験には読売新聞とTheDailyYomiuriの記事データからなる「日英新聞記事対応付け結果」\cite{内山:2003}の先頭から8,000文を利用した.それ以外の文書を対象とする場合は各実験結果に明記する.日本語形態素解析及び文節区切りは「茶筌\footnote{http://chasen.aist-nara.ac.jp/}」及び「南瓜\footnote{http://cl.aist-nara.ac.jp/~taku-ku/software/cabocha/}」を用いた.英語形態素解析及び対訳辞書参照に利用した対訳辞書は,機械翻訳システム\cite{Kitamura-Murata:2003}の形態素解析モジュール及び英日・日英辞書を利用した.この対訳辞書は,507,110ペアの対訳表現を持つ.英語は「Charniakパーザー\footnote{http://ftp.cs.brown.edu/pub/nlparser/}」の係り受け解析結果と\ref{文書分割実験}節に述べた方法に基づいて文節単位に区切った.評価は,精度とカバレッジを求めることにより行った.精度は,対訳表現抽出結果を\vspace{2mm}\begin{description}\item[正解:]対訳表現をそのまま辞書として登録できる\item[半正解:]対訳表現のどちらか一方の一部の表現を削除すれば辞書として登録できる\item[不正解:]正解及び半正解以外\end{description}\vspace{2mm}\noindentの三段階で評価し,抽出総数に対する正解及び半正解の割合を百分率で求めた.以降に示す表では,半正解の割合を()内に示す.一方,カバレッジは,英語,日本語それぞれの文書において,\[coverage(\%)=(1-\frac{未抽出自立語総単語数}{文書中自立語総単語数})\cdot100\]\noindentを計算し,その平均を求めた.上記式内の「未抽出自立語総単語数」とは,各文書から正解,半正解の対訳表現を除去した結果,残った自立語の総単語数である.また,自立語の総単語数だけでなく,自立語異なり単語数に対しても同様にカバレッジを求めた.以下の表\ref{従来手法}から表\ref{文書サイズ}では後者を()内に示す.\subsection{従来手法との比較}\label{従来手法の実験}\begin{table}[t]\caption{従来手法との比較}\label{従来手法}\begin{center}\begin{tabular}{l|l||r|r|r|r|r}\hline\multicolumn{2}{c||}{}&\multicolumn{4}{c|}{Dice}&\multicolumn{1}{c}{d-Loglike}\\\cline{3-7}\multicolumn{2}{c||}{}&\multicolumn{1}{c|}{\verb|<1>|従来}&\multicolumn{1}{c|}{\verb|<2>|文節}&\multicolumn{1}{c|}{\verb|<3>|辞書}&\multicolumn{1}{c|}{\verb|<4>|人手}&\multicolumn{1}{c}{\verb|<4'>|人手}\\\hline&合計&3,033&3,057&2,981&2,847&3,527\\&正解数&2,686&2,808&2,832&2,770&3,447\\$f_{min}$&半正解数&110&83&82&64&64\\\cline{2-7}$=2$&精度&88\%(92)&91\%(94)&95\%(97)&97\%(99)&98\%(100)\\&カバレッジ&79\%(12)&80\%(15)&80\%(15)&80\%(15)&82\%(13)\\\cline{2-7}&計算機実行時間&6h34m&3h40m&4h17m&4h19m&41m\\&人手作業時間&---&---&---&24m&21m\\\hline&合計&16,784&16,276&10,276&7,274&6,250\\&正解数&6,766&7,293&6,996&6,821&5,993\\$f_{min}$&半正解数&434&391&335&221&151\\\cline{2-7}$=1$&精度&40\%(42)&44\%(47)&68\%(71)&93\%(96)&96\%(98)\\&カバレッジ&85\%(16)&86\%(19)&86\%(19)&85\%(19)&85\%(19)\\\cline{2-7}&計算機実行時間&11h47m&4h15m&4h49m&4h51m&1h06m\\&人手作業時間&---&---&---&2h07m&1h57m\\\hline\end{tabular}\end{center}\end{table}最初に「文節区切り情報の利用」「対訳辞書の利用」「人手による確認」の改良効果を確かめるための実験を行った.表\ref{従来手法}に結果を示す.表\ref{従来手法}の\verb|<1>|は従来手法,\verb|<2>|は文節区切り情報を利用した場合(2.2節のアルゴリズムに3節の提案アルゴリズムのステップ(1)-2,(2)-1のみを適用した場合),\verb|<3>|は文節区切り情報と対訳辞書を利用した場合(\verb|<2>|に対して3節の提案アルゴリズムのステップ(1)-1,(5)-2を適用した場合),\verb|<4>|は,さらに人手による確認を行った場合(\verb|<3>|に対してステップ(5)-3-aの代わりにステップ(5)-3-bを適用した場合)の結果である.いずれも対応度の計算には重み付きDice係数を用いた.\verb|<4'>|は重み付きDice係数の代わりに多対多の対応数を考慮したLog-likelihoodを用いた結果である.表中の$f_{min}=2$は,出現回数を2回までとして抽出した場合,$f_{min}=1$は出現回数を1回までとして抽出した場合の結果である.但し,$f_{min}=1$では,$f_{je}=f_{j}=f_{e}=2$における対応度より小さく,$f_{je}=f_{j}=f_{e}=1$における対応度以上の値を持つ対訳表現が抽出されるが,$f_{je}=f_{j}=f_{e}=1$の対訳表現は抽出精度が極めて低いため\footnote{表\ref{従来手法}\verb|<3>|と同様の設定で実験を行った結果,$f_{je}=f_{j}=f_{e}=1$の時の対訳表現の精度は43\%であった.},今回の実験では抽出対象から除外した.以降の実験も同様である.本結果から,提案手法\verb|<4>|の$f_{min}=2$では97\%の精度が得られることがわかる.さらに$f_{min}=1$では,従来手法\verb|<1>|は40\%であったが,提案手法\verb|<4>|は93\%であった.\verb|<1>|から\verb|<4>|へと文節区切り情報,辞書参照,人手確認という工夫を追加していくことにより,抽出総数は減少していくが,カバレッジの低下を伴わない.これは,提案手法が間違った対訳表現のみを除去するフィルタリングの働きとして効果的に機能していることを示している.\subsection{対応度の評価式の違いによる比較}\label{評価式違いによる実験}次に対応度の評価式の違いによる結果を比較する.本結果を表\ref{対応度評価式}に記す.ここでは,表\ref{従来手法}\verb|<4>|と同じ設定で,適用する評価式を変える.\begin{table}[t]\caption{対応度評価式の違いによる比較}\label{対応度評価式}\begin{center}\begin{tabular}{l|l||r|r|r|r}\hline\multicolumn{2}{c||}{}&\multicolumn{1}{c|}{\verb|<1>|Dice}&\multicolumn{1}{c|}{\verb|<2>|d-Dice}&\multicolumn{1}{c|}{\verb|<3>|Loglike}&\multicolumn{1}{c}{\verb|<4>|d-Loglike}\\\hline&合計&2,981&2,934&3,791&3,796\\&正解数&2,832&2,875&3,563&3,682\\$f_{min}$&半正解数&82&30&152&76\\\cline{2-6}$=2$&精度&95\%(97)&98\%(99)&94\%(98)&97\%(99)\\&カバレッジ&80\%(15)&78\%(13)&83\%(16)&81\%(13)\\\hline&合計&10,276&9,957&6,412&6,452\\&正解数&6,996&7,040&5,740&5,764\\$f_{min}$&半正解数&335&333&222&236\\\cline{2-6}$=1$&精度&68\%(71)&71\%(74)&89\%(93)&89\%(93)\\&カバレッジ&86\%(19)&86\%(19)&85\%(19)&85\%(19)\\\hline\end{tabular}\end{center}\end{table}\verb|<1>|は重み付きDice係数の評価式,\verb|<2>|は多対多の対応数を考慮した重み付きDice係数の評価式,\verb|<3>|はLog-likelihoodの評価式,\verb|<4>|は多対多の対応を考慮したLog-likelihoodの評価式を用いた場合の結果である.重み付きDice係数\verb|<1>|とLog-likelihood\verb|<3>|の結果を比較した場合,$f_{min}=2$では精度の違いはあまりみられないが,$f_{min}=1$ではLog-likelihoodの方が良い結果が得られた.重み付きDice係数は$f_{min}=2$ではLog-likelihoodと同等の信頼性が得られるが,$f_{min}=1$のように対応度が低い場合ではその信頼性は低いと言える.これは,両者の評価式の性質の違いによる.重み付きDice係数は連続単語列の出現回数のみを利用した評価式であるため,少ない出現回数の場合の計算の信頼性は低くなる.一方,Log-likelihoodは,周辺頻度(出現/非出現の両方の回数)を利用した確率論に基づく評価式であるため,出現回数が少ない場合でも正確に対応度を求めることができると考えられる.次に,多対多の対応を考慮した場合としない場合を比較する.多対多の対応を考慮することにより$f_{min}=2$では,重み付きDice係数,Log-likelihoodともに3\%向上した.しかし,$f_{min}=1$では,Dice係数では3\%向上したものの,Log-likelihoodでは差がみられなかった.重み付きDice係数では,対応度の高低にかかわらず,評価式の欠点を補い,多対多の対応の考慮が有効に働いている.しかし,Log-likelihoodは,対応度が高い場合では信頼性の高い対訳表現の対応度を上げ,抽出精度を高める効果を発揮するが,対応度が低い場合では周辺頻度を利用した確率計算が有効に働いているため,評価式の欠点を補うほどの効果を得ることはできなかったと考えられる.\subsection{対訳文書の性質による影響}\label{文書性質の実験}\begin{table}[t]\caption{文の位置及び文書の違いによる比較}\label{文書の違い}\begin{center}\begin{tabular}{l|l||r|r|r||r}\hline\multicolumn{2}{c||}{}&\multicolumn{1}{c|}{\verb|<1>|先頭部}&\multicolumn{1}{c|}{\verb|<2>|中間部}&\multicolumn{1}{c||}{\verb|<3>|後部}&\multicolumn{1}{c}{\verb|<4>|取引}\\\hline\multicolumn{2}{l||}{対訳文数}&\multicolumn{3}{c||}{8,000}&9,045\\\hline\multicolumn{2}{l||}{英語単語総数}&175,768&193,284&200,707&158,652\\\multicolumn{2}{l||}{(英語出現単語数)}&(7,687)&(8,866)&(9,355)&(2,746)\\\hline\multicolumn{2}{l||}{日本語単語総数}&209,709&221,119&228,949&222,737\\\multicolumn{2}{l||}{(日本語出現単語数)}&(9,853)&(12,012)&(13,000)&(3,052)\\\hline&合計&3,796&3,631&3,490&2,980\\&正解数&3,682&3,485&3,350&2,741\\$f_{min}$&半正解数&76&109&105&90\\\cline{2-6}$=2$&精度&97\%(99)&96\%(99)&96\%(99)&92\%(95)\\&カバレッジ&81\%(13)&76\%(12)&75\%(11)&92\%(22)\\&所要時間&42m&1h29m&3h21m&43m\\\cline{2-6}\hline&合計&6,452&6,588&6,676&4,631\\&正解数&5,764&5,640&5,613&3,113\\$f_{min}$&半正解数&236&335&351&271\\\cline{2-6}$=1$&精度&89\%(93)&86\%(91)&84\%(89)&67\%(73)\\&カバレッジ&85\%(19)&81\%(16)&78\%(15)&94\%(34)\\\cline{2-6}&所要時間&1h06m&4h58m&7h58m&1h26m\\\cline{2-6}&辞書登録語率&63\%&61\%&59\%&39\%\\\cline{2-6}&辞書登録語精度&97\%&96\%&96\%&92\%\\&正解数/総数&3,924/4,054&3,832/4,000&3,755/3,917&1,657/1,798\\\cline{2-6}&辞書未登録語精度&77\%&70\%&67\%&52\%\\&正解数/総数&1,840/2,398&1,808/2,588&1,858/2,759&1,466/2,833\\\hline\end{tabular}\end{center}\end{table}実験で用いた「日英新聞記事対応付け結果」\cite{内山:2003}は,対訳辞書を用いた対応度の計算結果に基づいて,英語の文と日本語の文の自動対応付けを行っており,その対応度の高い順に文が並び替えられている.したがって「日英新聞記事対応付け結果」の先頭部分には,対応が明らかな対訳語を多く含む対訳文が多いのに対して,後半になるほど対訳関係が不明瞭な対訳文が多くなる.この対訳文の性質が抽出精度にどれだけ影響を及ぼすかを調べた.表\ref{文書の違い}は「日英新聞記事対応付け結果」において,先頭から8,000文(先頭部\verb|<1>|),8,001文目から8,000文(中間部\verb|<2>|),24,001文目から8,000文(後部\verb|<3>|)を対象として実験した結果である.また比較のため最右部に機械ではなく人手で対応付けた取引条件に関する対訳文書\cite{石上:1992}(以下,取引条件文とよぶ)の9,045文における結果を示す.なお,全ての実験は\ref{評価式違いによる実験}節の表\ref{従来手法}の\verb|<4>|の条件と同じ実験環境(文節区切り情報利用,辞書参照,多対多の対応数を考慮したLog-likelihood評価式を利用)で行った.文の対応度が高い文書ほど抽出精度は高い.また,取引条件文を用いた場合,カバレッジは新聞記事を用いたいずれの結果より高かったが,その精度は67\%と劣っていた.この理由は,取引条件文は専門用語が多く,出現する用語が偏っているため,連続単語列の組み合わせに要する時間は少なくてすむが,その一方で,類似する文が多く,組み合わせの曖昧性が増えるため,低い対応度での精度は低くなったと考えられる.表\ref{文書の違い}の最下部に,抽出結果において,対訳辞書を参照することにより抽出された対訳表現(\ref{提案}章の提案アルゴリズムのステップ(5)-2で抽出された対訳表現)とそれ以外の対訳表現(ステップ(5)-3-aで抽出された対訳表現)の精度及び抽出語数を記した.新聞記事では後部になるほど,対訳辞書では対訳関係が認められない対訳表現の割合が増え,その影響で全体の精度も低くなった.取引条件文では,専門用語が新聞記事に比べて多いため,対訳辞書では対訳関係が認められない対訳表現の割合が高く,精度が低い結果となった.一方,表\ref{文書の違い}には記載していないが,表\ref{文書の違い}\verb|<1>|の設定で,対訳辞書を参照せず,対訳表現を抽出した.その抽出結果に対して,ステップ(5)-2と同じ手法を用いて,対訳表現と認められるものと,そうでないものに分類した結果,前者の精度は97\%,後者の精度は71\%となった.表\ref{文書の違い}\verb|<1>|で,対訳辞書を参照することにより抽出された対訳表現の精度は97\%,そうでない対訳表現の精度は77\%であり,予想通りの効果が得られている.\subsection{文書分割における影響}\label{文書分割実験}図\ref{グラフ}は,出現回数2回($f_{min}=2$)における連続単語列の組み合わせ数が,対訳文数の増加によってどのように増加するかを示すグラフである.\begin{figure}[t]\begin{center}\epsfxsize=13cm\epsfbox{./figure/figure5.eps}\end{center}\caption{出現回数2回における対訳表現候補対の総数}\label{グラフ}\end{figure}「従来手法」は従来手法(表\ref{従来手法}\verb|<1>|と同じ設定)の場合「文節区切り」は文節区切り情報を利用した場合(表1\verb|<2>|と同じ設定)「分割」は従来手法に対して,文書分割の手法\footnote{4,000文までは500文単位で分割し,それ以上は4,000文単位で分割した.また,$f_{merge}=3$とした.}のみを採用した場合(従来手法に対してステップ(1)-3,(7)-2を適用した場合)「分割+文節」は文書分割の手法と文節区切り情報を利用した場合「分割+文節+辞書」はさらに辞書を参照した場合の結果を示している.図5から,文節区切り情報の利用と文書分割は計算量の削減に寄与しており,この両方を用いることにより,より大きな削減効果が得られることがわかる.一方,辞書の参照は,組み合わせ数を削減する効果はない.この理由は,辞書参照によって正しいと認められた対訳表現に関係する候補を削除する働きはあるものの,辞書を参照しない場合でも同様の削除処理が行われているためである.さらに「分割+文節+辞書」の手法に対して,人手による確認工程を加えた手法について同様の実験を行ったが,その結果も「分割+文節+辞書」の結果とほぼ等しくなり,組み合わせ数の削減効果は見られなかった.\begin{table}[t]\caption{文書分割手法の分割数による比較}\label{文書分割手法}\begin{center}\begin{tabular}{l|l||r|r|r|r|r|r|r|r}\hline\multicolumn{2}{c||}{}&\multicolumn{1}{c|}{\verb|<1>|}&\multicolumn{1}{c|}{\verb|<2>|}&\multicolumn{1}{c|}{\verb|<3>|}&\multicolumn{1}{c|}{\verb|<4>|}&\multicolumn{1}{c|}{\verb|<5>|}&\multicolumn{1}{c|}{\verb|<6>|}&\multicolumn{1}{c|}{\verb|<7>|}&\multicolumn{1}{c}{\verb|<8>|}\\\cline{3-10}\multicolumn{2}{c||}{}&\multicolumn{4}{c|}{8,000文}&\multicolumn{4}{c}{16,000文}\\\cline{3-10}\multicolumn{2}{c||}{}&\multicolumn{3}{c|}{分割有}&\multicolumn{1}{c|}{\raisebox{-1.5ex}[0cm][0cm]{分割無}}&\multicolumn{3}{c|}{分割有}&\multicolumn{1}{c}{\raisebox{-1.5ex}[0cm][0cm]{分割無}}\\\cline{3-5}\cline{7-9}\multicolumn{2}{c||}{}&\multicolumn{1}{c|}{8分割}&\multicolumn{1}{c|}{4分割}&\multicolumn{1}{c|}{2分割}&\multicolumn{1}{c|}{}&\multicolumn{1}{c|}{8分割}&\multicolumn{1}{c|}{4分割}&\multicolumn{1}{c|}{2分割}&\multicolumn{1}{c}{}\\\hline&合計&3,830&3,813&3,793&3,796&6,124&6,124&6,076&6,124\\&正解数&3,715&3,698&3,679&3,682&5,879&5,880&5,833&5,879\\$f_{min}$&半正解数&77&76&76&76&183&186&181&149\\\cline{2-10}$=2$&\raisebox{-1.5ex}[0cm][0cm]{精度}&97\%&97\%&97\%&97\%&96\%&96\%&96\%&96\%\\&&(99)&(99)&(99)&(99)&(99)&(99)&(99)&(98)\\\cline{2-10}&\raisebox{-1.5ex}[0cm][0cm]{カバレッジ}&81\%&81\%&81\%&81\%&81\%&81\%&81\%&81\%\\&&(13)&(13)&(13)&(13)&(12)&(12)&(13)&(13)\\\cline{2-10}&所要時間&49m&31m&36m&42m&7h47m&6h45m&8h48m&10h21m\\\hline&合計&6,556&6,461&6,465&6,452&10,654&10,581&10,549&10,473\\&正解数&5,834&7,040&5,753&5,764&9,375&9,306&9,283&9,206\\$f_{min}$&半正解数&262&231&255&236&426&439&422&437\\\cline{2-10}$=1$&\raisebox{-1.5ex}[0cm][0cm]{精度}&89\%&89\%&89\%&89\%&88\%&88\%&88\%&88\%\\&&(93)&(93)&(93)&(93)&(92)&(92)&(92)&(92)\\\cline{2-10}&\raisebox{-1.5ex}[0cm][0cm]{カバレッジ}&85\%&85\%&85\%&85\%&85\%&85\%&85\%&85\%\\&&(19)&(19)&(19)&(19)&(18)&(18)&(18)&(18)\\\cline{2-10}&所要時間&1h15m&1h00m&1h01m&1h06m&9h42m&9h04m&11h45m&16h28m\\\hline\end{tabular}\end{center}\end{table}一方,表\ref{文書分割手法}は文書分割手法の分割数による比較結果である.\verb|<1>|から\verb|<4>|は,実験対象として8,000文の対訳文書を用いた場合,\verb|<5>|から\verb|<8>|は16,000文の対訳文書の場合であり,それぞれ8分割,4分割,2分割で等分割した場合,分割しなかった場合の結果を求めた.この表からわかることは次の3点にまとめられる.第一に,対訳文書の文数が多い方が文書分割の効果が大きい.第二に,分割が細かすぎると逆に処理時間が遅くなる.8,000文,16,000文共,対訳文書を4分割した時が最も速い結果となった.この理由は,分割数が多いと対応度の計算処理の繰り返し回数が増え,この繰り返し処理のオーバーヘッドによって遅くなったと考えられる.第三に,精度,カバレッジ共に,文書分割の影響を受けない.しかし,文書分割により抽出される順序が変わるため,抽出される対訳表現は若干異なっている.\subsection{文書サイズによる結果の比較}\begin{table}[t]\caption{文書サイズの違いによる比較}\label{文書サイズ}\begin{center}\begin{tabular}{l|l||r|r|r|r|r|r|r}\hline\multicolumn{2}{c||}{}&\multicolumn{1}{c|}{\verb|<1>|}&\multicolumn{1}{c|}{\verb|<2>|}&\multicolumn{1}{c|}{\verb|<3>|}&\multicolumn{1}{c|}{\verb|<4>|}&\multicolumn{1}{c|}{\verb|<5>|}&\multicolumn{1}{c|}{\verb|<6>|}&\multicolumn{1}{c}{\verb|<7>|}\\\multicolumn{2}{c||}{}&\multicolumn{1}{c|}{500}&\multicolumn{1}{c|}{1,000}&\multicolumn{1}{c|}{2,000}&\multicolumn{1}{c|}{4,000}&\multicolumn{1}{c|}{8,000}&\multicolumn{1}{c|}{16,000}&\multicolumn{1}{c}{32,000}\\\hline&合計&332&455&975&2,123&3,631&5,319&14,395\\&正解数&312&437&936&2,038&3,485&5,106&13,819\\$f_{min}$&半正解数&6&9&29&64&109&159&288\\\cline{2-9}$=2$&\raisebox{-1.5ex}[0cm][0cm]{精度}&94\%&96\%&96\%&96\%&96\%&96\%&96\%\\&&(96)&(98)&(99)&(99)&(99)&(99)&(98)\\\cline{2-9}&\raisebox{-1.5ex}[0cm][0cm]{カバレッジ}&66\%&68\%&70\%&73\%&76\%&79\%&80\%\\&&(14)&(13)&(11)&(12)&(12)&(12)&(12)\\\cline{2-9}&所要時間&35sec&2m&5m&13m&1h29m&16h41m&28h53m\\\hline&合計&633&1,284&2,230&4,048&6,588&10,704&17,368\\&正解数&550&1,200&1,935&3,437&5,640&9,186&14,551\\$f_{min}$&半正解数&29&37&109&200&335&555&894\\\cline{2-9}$=1$&\raisebox{-1.5ex}[0cm][0cm]{精度}&87\%&88\%&87\%&85\%&86\%&86\%&84\%\\&&(91)&(93)&(92)&(90)&(91)&(91)&(89)\\\cline{2-9}&\raisebox{-1.5ex}[0cm][0cm]{カバレッジ}&72\%&73\%&76\%&75\%&81\%&83\%&84\%\\&&(18)&(17)&(16)&(15)&(16)&(16)&(17)\\\cline{2-9}&所要時間&1m&3m&6m&16m&4h58m&22h36m&52h35m\\\hline\end{tabular}\end{center}\end{table}表\ref{文書サイズ}は,対訳文書のサイズの違いによって精度がどのように変化するかを記した表である\footnote{この実験では,\ref{文書性質の実験}節にみられる対訳文書の位置による影響を少なくするために,全てのサイズにおいて32,000文の中間部の文を対象とした.また,32,000文は文書分割($n=4$)の手法を採用した.}.この表から,カバレッジは文書のサイズに影響を受け,サイズが大きくなるほど高くなるが,精度はほとんど影響を受けず,ほぼ一定の値をとることがわかる.\subsection{その他の考察}\begin{table}[t]\caption{対訳表現抽出例}\label{対訳表現抽出例}\begin{center}\begin{tabular}{c||ll|r}\hline評価&\multicolumn{1}{|c}{日本語}&\multicolumn{1}{c}{英語}&\multicolumn{1}{|c}{対応度}\\\hline&中・東欧諸国&theCEECs&11.48\\正解&洗練するられる&sophisticated&7.61\\&コモンハウス&thecommonhouse&6.62\\\hline&冷戦&war&48.45\\半正解&冷戦&thecold&44.14\\&に従って&inaccordance&1.82\\\hline&米国&Washington&48.45\\不正解&いまだに&haveyet&44.14\\&休息その他の&otherwork&6.62\\\hline\end{tabular}\end{center}\end{table}最後に,\ref{従来手法の実験}節の表\ref{従来手法}の\verb|<4'>|の実験環境(文節区切り情報利用,辞書参照,人手確認有り,多対多の対応数を考慮したLog-likelihood評価式を利用)での抽出結果の例を表\ref{対訳表現抽出例}に示す.本手法を用いることにより「中・東欧諸国:theCEECs」のような辞書には存在しない多くの専門用語を抽出することができる.また,形態素解析では未知語になる「コモンハウス:thecommonhouse」の例のような単語も数多く抽出することができる.半正解の原因は「冷戦:thecold」「冷戦:war」のような文節区切りによる悪影響である.これは将来的には,原言語の単語列に対して複数の目的言語の単語列が対応付けられている場合には元の文を参照することにより正しい対訳表現に復元することができると考えている.一方,間違った原因は,対訳辞書参照による悪影響と,人手確認による誤りである.例えば「休息その他の:otherwork」の対訳表現は「その他:other」が対訳辞書に登録されているために抽出された.今回の実験では,連続単語列を構成する英語と日本語の自立語単語の組合せにおいて1つでも対訳辞書登録語があれば,対訳表現として抽出するようにした.しかし,上記の例では「その他」と``other''は登録語であるが「休息」と``work''は登録語ではない.将来的には,辞書参照の方法をより厳格にし,その連続単語列ペアが対訳辞書登録語によって過不足なく対応付けられる場合のみ対訳表現と判定する,または,利用する対訳辞書をより大規模なものにして完全一致でも辞書参照の効果が得られるようにするなどの工夫が求められる.また,大量の対訳表現の確認は作業者のミスを招く.「米国:Washington」は作業者のミスにより抽出された.対訳辞書の拡張,改良等により,できるだけ多くの信頼性の高い対訳表現を自動的に検知し,作業者の負担を軽減させることも必要である.最後に,触れておかねばならないのは,人手確認における作業コストである.抽出された対訳表現を翻訳辞書として利用するためには,最終的に抽出された対訳表現が正しいか否かを再確認し,選定する必要がある.処理途中に人手による確認を行わない場合では,表\ref{文書の違い}\verb|<1>|の結果のように,$f_{min}=2$では3,796語,$f_{min}=1$では6,452語を抽出処理終了後に人手により確認し,正しい対訳表現のみを選択しなければならない.一方,処理途中に人手による確認を行う場合では,$f_{min}=2$では処理途中に681語,処理終了後に人手未確認分の2,886語,合計3,567語を確認し,正しい対訳表現のみを選択しなければならない.また$f_{min}=1$では,処理途中に2,084語,処理終了後に人手未確認分の4,353語,合計6,437語を確認し,正しい対訳表現のみを選択しなければならない.このように確認すべき語数においては有意な差はみられない結果となったが,表\ref{文書の違い}\verb|<1>|と表\ref{従来手法}\verb|<4'>|の結果にみるように,処理途中に人手確認をした方が,最終的な精度が高く,正解語数も増えている.精度が高くなることにより,処理終了後の削除の手間も削減されることから,人手による確認工程を処理途中に設ける方法は,作業コスト削減の効果があるといえる. \section{関連研究} \label{関連研究}我々の手法の特徴は,言語資源を効果的に利用することにより,低出現回数の対訳表現を抽出することができるという点にある.言語資源を利用する手法には,\cite{Melamed:1995},\cite{Al-Onaizan-Kevin:2002}がある.一方,低出現回数の対訳表現を抽出する手法には,\cite{Moore:2003},\cite{佐藤2002,佐藤2003}がある.\cite{Melamed:1995}は,対訳辞書,品詞,語源情報,構文情報の4種類の情報によって,抽出すべき対訳表現をフィルタリングしている.フィルタリングという点では我々の手法と似ているが,異なる点は我々の手法は複数の単語列からなる対訳表現候補を抽出対象としているのに対し,Melamedの手法は,単語対応に限定している点である.単語対応の場合は,その組み合わせ数は少なく,言語資源の利用の際にも計算量を考慮する必要はない.しかし,任意長の長さの表現を対象にする場合,計算量をできるだけ抑え,資源を利用するような仕組みが必要となる.我々は,信頼性の高い対訳表現から段階的に抽出するという漸進的な手法を活かし,処理の途中に対訳辞書利用や人手介入を行うことにより任意長の対訳表現の抽出の際に起こりがちな計算量の問題を解決している.\cite{Al-Onaizan-Kevin:2002}は,言語資源としてWebページのような大規模な生成側の単言語テキストや,トランスリタレーション(音表記)情報を利用している.Al-Onaizanらが対象にしている言語は,アラビア語と英語であり,両者のような異なる言語族の2言語を抽出対象とする場合,対応の規則を抽出することが難しく既存の言語知識をいかに効率良く利用するかが重要となる.この点では我々のアプローチと似ており,Al-Onaizanの手法は我々の手法にも応用することができる.例えば,我々の手法での人手確認の代わりにWeb上での検索を利用することができる.また,カタカナ表記語はトランスリタレーション情報を用いて,対応度を再評価する等が考えられる.一方,\cite{Moore:2003}の手法は,3段階の学習モデルを用いることによって,対応度の精度を高めていきながら対訳表現を抽出する手法であり,低出現回数の対訳表現も抽出することができる.ある語とその訳語は常に一対一の関係にあるという前提や先頭文字種情報などの表層的な情報を学習モデルとして利用することにより,出現回数が1回の対訳表現でも精度良く抽出することができる.この手法は,統計モデルと表層的な言語特徴情報のみを利用し,辞書や形態素解析結果などの既存の言語知識を利用しないため,専門用語の抽出も可能である.しかし,上述した前提や先頭文字種情報は専門用語の翻訳の特徴であり,イディオムや慣用句などの抽出精度は下がる.我々の手法では形態素解析結果を利用するが,対訳表現として適切でない単語列を除去するために利用するに過ぎないので,表\ref{対訳表現抽出例}の「コモンハウス:thecommonhouse」等の専門用語も抽出することができる.佐藤は,最大エントロピー法\cite{佐藤2002}やSVM\cite{佐藤2003}を利用して,少ない文書でも高精度で抽出する方法を提案している.しかし,これらの手法は学習用の対訳文書が必要となる.また,抽出対象を句単位と限定することにより,検索対象を絞っている.最後に,\cite{山本2001}は,我々の手法と同様,統計的係り受け解析結果を用いて漸進的な手法で対訳表現抽出を行う.しかし,彼らは文節を越えた構造的な対訳表現を抽出することを目的としているのに対し,我々は候補とする連続単語列を文法的に意味のある範囲に限定し抽出間違いを減らすことを目的とする. \section{おわりに} \label{まとめ}本稿は,文節区切り情報や対訳辞書を利用する,人手による確認工程を設ける,などの種々の手法を組み合わせることによって実用性を高めた対訳表現抽出手法を提案した.また,(1)従来手法との比較,(2)対応度の評価式の違いよる比較,(3)文書の性質の違いによる比較,(4)文書分割手法の違いによる比較,(5)文書サイズの違いによる比較,という5つの比較実験により,その効果を確認した.従来手法との比較実験では,文節区切り情報利用,辞書参照,人手確認という手法が,間違った対訳表現の抽出を排除するためのフィルタリングの機能を果たすことを確認した.対応度の評価式の違いによる実験では,対応度が低い場合($f_{min}=1$の場合)の対訳表現の抽出には重み付きDice係数よりLog-likelihoodが優れており,多対多の対応数の考慮による改良は,重み付きDice係数には効果的だがLog-likelihoodには効果が小さいことがわかった.文書の性質,及び,文書サイズの違いによる比較実験では,精度は文書のサイズには影響を受けないが,文書の専門性の高さや使用されている単語数などの対訳文書の性質に影響を受けやすいことがわかった.一方,カバレッジは文書のサイズ,性質共に影響を受けやすいことがわかった.最後に,文書分割手法の違いによる実験では,文書分割は連続単語列の組み合わせ数を削減し,計算時間を短縮させることができるが,分割が細かすぎると,逆に繰り返し処理のオーバーヘッドを生じ,計算時間が長くなることがわかった.8,000文の対訳文書による実験では,従来手法では精度40\%,カバレッジ79\%であったのに対し,提案手法では人手による確認工程がある場合では精度96\%,カバレッジ85\%で抽出することができた.人手による確認を行わない場合でも,8,000文では,精度89\%,カバレッジ85\%で抽出することができる.我々が,完全自動でなく,半自動という立場をとり,精度を重視している理由の一つは,抽出結果を辞書として機械翻訳システムに直接利用することを想定しているためである.今後は,本手法で抽出した対訳表現を機械翻訳システム\cite{Kitamura-Murata:2003}の辞書として利用し,機械翻訳支援機能として本手法を評価することを計画している.\acknowledgment本研究は、通信・放送機構平成17年度基盤技術研究促進制度に係る研究開発課題「多言語標準文書処理システムの研究開発」の一環として行われている。\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Al-Onaizan\BBA\K.}{Al-Onaizan\BBA\K.}{2002}]{Al-Onaizan-Kevin:2002}Al-Onaizan,Y.\BBACOMMA\\BBA\K.,K.\BBOP2002\BBCP.\newblock\BBOQTranslatingNamedEntitiesUsingMonolingualandBilingualResources\BBCQ\\newblockIn{\BemProceedingsof40thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL-2002)},\BPGS\400--408.\bibitem[\protect\BCAY{Dunning}{Dunning}{1991}]{Dunning:1993}Dunning,T.\BBOP1991\BBCP.\newblock\BBOQAccuratemethodsforstatisticsofsurpriseandcoincidence\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(1),61--74.\bibitem[\protect\BCAY{石上}{石上}{1992}]{石上:1992}石上進\BBOP1992\BBCP.\newblock\Jem{取引条件表現法辞典電子ブック版第1巻物品取引}.\newblock国際事業開発株式会社.\bibitem[\protect\BCAY{北村\JBA松本}{北村\JBA松本}{1997}]{北村97}北村美穂子\JBA松本裕治\BBOP1997\BBCP.\newblock\JBOQ{対訳コーパスを利用した対訳表現の自動抽出}\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf38}(4),727--736.\bibitem[\protect\BCAY{Kitamura\BBA\Murata}{Kitamura\BBA\Murata}{2003}]{Kitamura-Murata:2003}Kitamura,M.\BBACOMMA\\BBA\Murata,T.\BBOP2003\BBCP.\newblock\BBOQPracticalMachineTranslationSystemallowingComplexPatterns\BBCQ\\newblockIn{\BemProceedingsofMTSummitIX},\BPGS\232--239.\bibitem[\protect\BCAY{Matsumoto\BBA\Utsuro}{Matsumoto\BBA\Utsuro}{2000}]{Matsumoto-Utsuro:2000}Matsumoto,Y.\BBACOMMA\\BBA\Utsuro,T.\BBOP2000\BBCP.\newblock\BBOQLexicalKnowledgeAcquisition\BBCQ\\newblockIn{\BemHandbookofNaturalLanguageProcessing},\BPGS\563--610.MarcelDekker.\bibitem[\protect\BCAY{Melamed}{Melamed}{1995}]{Melamed:1995}Melamed,I.\BBOP1995\BBCP.\newblock\BBOQAutomaticEvaluationandUniformFilterCascadesforInducingN-besttranslationlexicons\BBCQ\\newblockIn{\BemProceedingsof3rdAnnualWorkshoponVeryLargeCorpora(WVLC-95)},\BPGS\184--198.\bibitem[\protect\BCAY{Moore}{Moore}{2003}]{Moore:2003}Moore,R.\BBOP2003\BBCP.\newblock\BBOQLearningTranslationsofNamed-EntityPhrasesfromParallelCorpora\BBCQ\\newblockIn{\BemProceedingsof16thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL-2003)},\BPGS\259--266.\bibitem[\protect\BCAY{佐藤健吾\JBA斉藤博昭}{佐藤健吾\JBA斉藤博昭}{2002}]{佐藤2002}佐藤健吾\JBA斉藤博昭\BBOP2002\BBCP.\newblock\JBOQ{最大エントロピー法を用いた対訳表現の抽出}\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(1),101--115.\bibitem[\protect\BCAY{佐藤健吾\JBA斉藤博昭}{佐藤健吾\JBA斉藤博昭}{2003}]{佐藤2003}佐藤健吾\JBA斉藤博昭\BBOP2003\BBCP.\newblock\JBOQ{サポートベクターマシンを用いた対訳表現の抽出}\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(4),109--124.\bibitem[\protect\BCAY{内山将夫\JBA井佐原均}{内山将夫\JBA井佐原均}{2003}]{内山:2003}内山将夫\JBA井佐原均\BBOP2003\BBCP.\newblock\JBOQ{日英新聞の記事および文を対応付けるための高信頼性尺度}\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(4),201--220.\bibitem[\protect\BCAY{山本\JBA松本}{山本\JBA松本}{2001}]{山本2001}山本薫\JBA松本裕治\BBOP2001\BBCP.\newblock\JBOQ{統計的係り受け解析結果を用いた対訳表現抽出}\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(9),2239--2247.\bibitem[\protect\BCAY{Yamamoto\BBA\Matsumoto}{Yamamoto\BBA\Matsumoto}{2003}]{Yamamoto-Matsumoto:2003}Yamamoto,K.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQExtractingTranslationKnowledgefromParallelCorpora\BBCQ\\newblockIn{\BemRecentAdvancesinExample-basedMachineTranslation},KluwerText,SpeechandLanguageTechnologySeries,\BCH~13,\BPGS\365--396.KluwerAcademicPublishers.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{北村美穂子}{1987年奈良女子大学理学部生物学科卒業.1995年奈良先端科学技術大学院大学情報科学研究科博士前期課程終了.2004年同大学院博士後期課程修了.現在、沖電気工業株式会社研究開発本部に勤務し,機械翻訳の研究に従事.工学博士.情報処理学会,ACL各会員.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒業.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜85年英国インペリアルカレッジ客員研究員.1985〜87年(財)新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授,現在に至る.工学博士.情報処理学会,人工知能学会,日本ソフトウェア科学会,認知科学会,AAAI,ACL,ACM各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V12N05-05
\section{はじめに} 我々は,人間と自然な会話を行うことができる知的ロボットの開発を目標に研究を行っている.ここで述べている「知的」とは,人間と同じように常識的に物事を理解・判断し,応答・行動できることであるとしている.人間は会話をする際に意識的または無意識のうちに,様々な常識的な概念(場所,感覚,知覚,感情など)を会話文章から判断し,適切な応答を実現しコミュニケーションをとっている.本論文では,それらの常識的な判断のうち,時間の表現に着目し研究を行っている.例えば,「もうすっかり葉が散ってしまいましたね」という表現に対して,人間であれば「秋も終わって冬になろうとしている」ことを理解し,「もう少ししたら雪が降りますね」などのように,自然なコミュニケーションとなる返答をする.しかし,これまでの会話・対話の研究においては「おうむ返し」が一般的であり,この場合「どうして葉が散ってしまったのですか」や「どのように葉が散ってしまったのですか」などのように,自然な会話が成立しているとはいえない返答をする.このように,人間と同じように自然な会話を実現するためには,語や語句から時間を連想する機能・システムは必要不可欠であると考える.このようなことを実現するためには,ある語から概念を想起し,さらに,その概念に関係のある様々な概念を連想できる能力が重要な役割を果たす.これまで,ある概念から様々な概念を連想できるメカニズムを,概念ベース\cite{hirose:02,kojima:02}と関連度計算法\cite{watabe:01}により構成し実現する方法が提案されている.また,この連想メカニズムを利用し,ある名詞から人間が想起する感覚を常識的に判断するシステム\cite{horiguchi:02,watabe:04}について提案されている.そこで本稿では,連想メカニズムを基に,人間が日常生活で使用する時間に関する表現を理解し,適切な判断を実現する方法について提案する.これまでにも,コンピュータに時間を理解させる方法が研究されている.\cite{allen:84}や\cite{mcdermott:82}の時間論理を基に,時間的な関係や因果関係などについての推論,プランニングなどが行われている.また,\cite{tamano:96}では,事象の時間的構造に関する記述形式について提案がなされている.\cite{mizobuchi:99}では,時間表現を意味解釈するために,意味解釈を時点,時点区間などの概念に分類し,これらの分類に対して時間表現に対応する形式表現が定義されている.さらに,形態素列からなる時間表現を形式表現に変換するアルゴリズムが提案されている.このように,これまでの研究は,時間表現の記述形式に着目したものであり,様々な時間表現をある定義に沿って変換し,整理するものである.本研究では,時間表現の変換ではなく,語句からある時間を表現する語を連想することを特徴としている.具体的には,日常的な時間表現に着目し,知識として持っていない未知の表現にも対応できる柔軟なメカニズムの構築を実現している.さらに体言と用言の組合せパターンを一切持たずに語句から時間を推測するなど,時間の観点から,少ない知識を如何に多様に使用するかが本研究の特徴である. \section{時間判断システム} label{time}\begin{figure}[b]\caption{時間判断システムの構成}\label{time-judgment-system}\end{figure}時間判断システムの構成を図\ref{time-judgment-system}に示す.時間判断システムは,時間を表現する語(以下,時語と呼ぶ)を収録した知識ベース(以下,時間判断知識ベースと呼ぶ)と,時間判断知識ベースに存在しない未知の語(以下,未知語と呼ぶ)を扱うために,時間判断知識ベースに存在する既知の語(以下,既知語と呼ぶ)に関連付け,未知語を既知語と見なして扱うための未知語処理手法により構成されている.また,未知語処理においては,複数の電子化辞書等から機械的に自動構築された大規模なデータベースである概念ベース\cite{hirose:02,kojima:02}と,語と語の間にある関連性を評価する関連度計算法\cite{watabe:01}(以下,これらを合わせて連想メカニズムと呼ぶ)を用いることにより,語の連想を実現し処理を行っている.本研究では,時間に関する表現として,\begin{itemize}\item体言,または体言の組み合わせによる語句\\(ex.:朝,明日の朝)\item体言と用言の組み合わせによる語句\\(ex.:日が昇る,葉が赤い)\end{itemize}について,一つの語句のみから人間が時間を判断できるものを扱う.上記の例では,「日が昇る」から「朝」,「葉が赤い」から「紅葉」を想起し「秋」であると判断できる.つまり,「物価が上がる」のように人間でも時間を判断できないものや,「事件の当日」のようにこの語句のみからでは時間を判断できないものについては扱わないものとする.なお,時間判断とは,ある語句に対してそれが時間に関する語句であるか否かの判断ができ,さらに,時間に関する語句であった場合には,その語句から想起される時間を提示できることであると定義する.判断結果として提示する時間は,「日」の中の時刻・時間帯,「年」の中の日付や季節である.表現方法としては,具体的な数値(ex:クリスマス=12月25日,午後=12:00〜23:59)または,\ref{time_judgment_knowledge_base}章で述べる時間判断知識ベースの明示的時語である絶対時語として登録されている「春」,「梅雨」,「夏」,「秋」,「冬」,「朝」,「昼」,「夕方」,「夜」の9語とする.なお,これらの9語を以下代表時語と呼び,日常生活でよく使用し,且つ,なるべく少ない語数で違和感なく「日」と「年」のすべての期間を表現するという基準の下,気象庁が定義している「日本の四季」\footnote{http://www.kishou.go.jp/know/whitep/1-2-1.html}と「時間細分図」\footnote{http://www.kishou.go.jp/know/yougo\_hp/saibun.html}を参考にして選定している. \section{時間判断知識ベース} label{time_judgment_knowledge_base}時間判断知識ベースには,大きく分けて明示的時語と暗示的時語の2種類があり,我々が日常一般的に使用している時語を計565語登録している.具体的には,大学生約150名に,「時を表現する語」と「時を連想できる語」に関して各20語以上ずつ自由記述でアンケートをとり,その中で,5名以上が回答した語を時語として時間判断知識ベースに登録している.\ref{meiji}節,\ref{anji}節で,それぞれの時語について例を挙げて説明する.なお,時間判断知識ベースに登録した時語は,\ref{meiji}節,\ref{anji}節で示すように分類して整理することができる.また,今回登録した時語はあくまでも例であり,より多く登録すれば時間判断の精度は向上し,少なければ精度は劣化すると考えられる.本研究では,\ref{meiji}節,\ref{anji}節で示す計565語の知識を用いて時間判断の処理を行い,如何に多くの時間表現に対応できるかが重要なポイントとなる.\subsection{明示的時語}\label{meiji}ある語そのものが時間を表すものであり,以下の9種類に分類でき,計378語を登録している.\begin{itemize}\item絶対時語(157語)\\単体で特定の時間を表す語(ex.:クリスマス,朝,夏).\item相対時語(93語)\\ある時間を基準として相対的な時間を表す語(ex.:今日,来年).\item週曜時語(35語)\\年月日時分秒ではなく,曜日の概念で時間を表す語(ex.:月曜日,週末).\item範囲時語(36語)\\ある時間の範囲を表し,単体では時間を表すことはできない語(ex.:上旬,最後).なお,これらの語は絶対時語や相対時語などと組み合わせることによって時間を表す(ex.:1月の上旬,夏休みの最後).\item複合時語(30語)\\時語の組み合わせによって時間を表す語(ex.:明朝→明日+朝,昨年度→前の+年度).\item単位時語(14語)\\時間を表す単位であり,数字と組み合わせて時間を表す語(ex.:年,週間).\item指定時語(7語)\\未来または過去方向ならびにその方向への距離を表すベクトル的な語(ex.:前の,次の).\item年号時語(4語)\\数字と組み合わせて年号を表す語(ex.:昭和,平成).ただし,身近なものに限定している.\item前後時語(2語)\\時語の後ろに接続して「前」と「後」関係を表す語(ex.:三日前,一週間後).\end{itemize}\subsection{暗示的時語}\label{anji}人間であれば「スキー」から「冬」を想起するように,その語自体は時間を表さないが,暗黙的に時間を想起する語である.暗示的時語として,一日の中での時間を暗示する語である「時語日」を43語,一年の中での時間を暗示する語である「時語年」を144語,計187語を常識の範囲で登録している(ex.:「時語日」:起床→朝,就寝→夜,「時語年」:紫陽花→梅雨,蝉→夏). \section{概念ベースと関連度計算法} 連想メカニズムは概念ベースと関連度計算法により構成されており,概念ベース\cite{hirose:02,kojima:02}は,ある語から語意の展開を行い,関連度計算法\cite{watabe:01}は,語意の展開結果を利用し,語の間にある関連性を数値として表す手法である.\subsection{概念ベース}\label{consept_base}概念ベースは,複数の電子化辞書から各見出し語を概念,その見出し語の説明文中の自立語を概念の属性として,機械的に自動構築された大規模なデータベースである.本研究では,機械的に構築した後,人間の感覚からは不適切である属性を削除し,必要な属性を追加する自動精錬処理を行った概念ベース(概念数約9万)\cite{hirose:02}を利用している.概念ベースにおいて,任意の概念$A$は,概念の意味特徴を表す属性$a_i$と,この属性$a_i$が概念$A$を表す上でどれだけ重要かを表す重み$w_i$の対で表現される.概念$A$の属性数を$N$個とすると,概念$A$は以下のように表せる.ここで,属性$a_i$を概念$A$の一次属性と呼ぶ.\begin{eqnarray}A&=&\{(a_1,w_1),(a_2,w_2),\cdots,(a_N,w_N)\}\end{eqnarray}概念$A$の一次属性$a_i$は概念ベースに定義されている概念としているため,$a_i$からも同様に属性を導くことができる.$a_i$の属性$a_{ij}$を概念$A$の二次属性と呼ぶ.概念「電車」を二次属性まで展開した様子を図\ref{concept_base}に示す.\begin{figure}[t]\caption{概念「電車」を二次属性まで展開した場合の例}\label{concept_base}\end{figure}\subsection{関連度計算法}関連度とは,概念と概念の関連の強さを定量的に評価するものであり,具体的には概念連鎖により概念を2次属性まで展開したところで,最も対応の良い一次属性同士を対応付け,それらの一致する属性個数を評価することにより算出するものである.概念$A$と$B$の関連度$Assoc(A,B)$は以下のアルゴリズムにより計算する\cite{watabe:01}.\begin{enumerate}\itemまず,2つの概念$A$,$B$を1次属性$a_i,b_j$を用いて,\begin{eqnarray}A&=&\{a_i|i=1\simL\}\label{ConA}\nonumber\\B&=&\{b_j|j=1\simM\}\label{ConB}\nonumber\end{eqnarray}と定義する.ここで,属性個数は重みの大きいものから30個を上限として展開するものとする.この属性個数30個は,ある概念に対して「関連が深い」,「関連がある」,「関連がない」と思われる概念200組に対して,属性個数を10〜100個まで10個刻みで変化させたときの関連度の関係が,上記3つの関係と一致するか否かを調査した結果導き出された最適な値である.\cite{irie:99}\item1次属性数の少ない方の概念を概念$A$とし($L\leM$),概念$A$の1次属性の並びを固定する.\begin{eqnarray}A&=&(a_1,a_2,\cdots,a_L)\nonumber\end{eqnarray}\item概念$B$の各1次属性を対応する概念$A$の各1次属性との一致度($Match$)の合計が最大になるように並べ替える.ただし,対応にあふれた概念$B$の1次属性($b_{x_j},\j=L+1,\cdots,M$)は無視する.\begin{eqnarray}B_x&=&(b_{x_1},b_{x_2},\cdots,b_{x_L})\nonumber\end{eqnarray}\item概念$A$と概念$B$との関連度$Assoc(A,B)$は,\begin{eqnarray}Assoc(A,B)&=&(s/L+s/M)/2\label{Echain}\nonumber\\s&=&\sum_{i=1}^LMatch(a_i,b_{x_i})\nonumber\end{eqnarray}とする.\end{enumerate}また,概念$A$と概念$B$の一致度$Match(A,B)$は,一致する1次属性の個数(すなわち,$a_i=b_j$なる$a_i$の個数)を$s$個とするとき,次式で定義する.\begin{eqnarray}Match(A,B)&=&(s/L+s/M)/2\label{Ematch}\nonumber\end{eqnarray}この式は,概念Aと概念Bの一致割合を評価する一つの方式として,概念$A$から見たときの属性の一致割合$s/L$と概念$B$から見たときの一致割合$s/M$の平均を採用している. \section{時間判断手法} 本研究では,時間に関する表現として\ref{time}章で説明したように「朝」や「明日の朝」などのように,体言,または体言の組み合わせによる語句と,「日が昇る」(=「朝」)や「葉が赤い」(=「秋」)などのように,体言と用言の組み合わせによる語句とを対象に,語句の持つ意味に着目し時間判断の処理を行う.以下に,時間判断における各処理方法を詳しく述べる.\subsection{体言,または体言の組み合わせによる語句に対する処理}入力される体言が既知語である場合,時間判断知識ベースを参照することにより,直接時間を判断することができる.また,体言の組み合わせである場合は,各体言から判断する時間を足し合わせる.例えば,語句「今年のクリスマス」であれば,体言「今年」から「2005年」,体言「クリスマス」から「12月25日」を導き,結果「2005年12月25日」であると判断できる.なお,入力される体言が未知語であった場合,\ref{unknown_word_processing}章で述べる未知語処理手法を用いて処理を行う.\subsection{体言と用言の組み合わせによる語句に対する処理}体言と用言の組み合わせによる語句の意味を扱うにあたり,日本語には経験的に以下のような特徴を挙げることができる.\begin{itemize}\item漢字にはそれぞれ意味があり,使用される漢字により語句の意味が表現されていることが多い.例えば,仮に語句の意味がわからない場合であっても,人間は,使用されている漢字からある程度その語句の意味を推測することができる.\item体言と用言を組み合わせた表現の場合,体言の動作・状態を表現する用言が非常に重要な意味を持つ.\item体言と用言が単体で表現する意味は,用言より体言の方がその範囲を限定し,詳しく表現することができる.\end{itemize}これらのことを踏まえて,体言と用言の組み合わせによる語句に対する処理の手順は,語句の意味をよりうまく表現しているものを利用した処理から順に行う.つまり,まずはじめに,語句の意味を最もよく表現している漢字を用いた処理を行い,次に,語句で重要になる用言を拡張する処理を行う.続いて,語の意味を概念ベースにより語意拡張する処理,体言のみからの処理を行い,最後に,用言のみからの処理を行うものとする.具体的な処理は,入力される語句から直接時間を判断するのではなく,入力される語句に含まれる漢字や概念ベースを活用し,時間判断知識ベースに存在する既知語へ帰着させ,間接的に時間を判断する.例えば,語句「葉が赤い」から「秋」であると判断するのではなく,既知語「紅葉」に帰着させる.そして,時間判断知識ベースを参照することにより「秋」であると判断することができる.なお,体言と用言の組み合わせによる語句に対する処理において,用言に関する知識ベースを用いずに処理を行う.何故ならば,体言と用言を組み合わせることにより,体言または用言それぞれが表現する意味,内容が変化する特性をもっているからである.もし,体言と同じように用言に関する知識ベースを構築し,体言と用言との組み合わせをとり処理を行った場合,語句の複雑性から例外が頻発し,処理が煩雑になると考えられる.\subsubsection{漢字の組み合わせによる処理}\label{kanji}漢字の持つ意味に着目し,入力された語句の体言と用言に含まれる漢字を組み合わせて時語を生成する.例えば,語句「日が落ちる」を処理する場合,体言「日」と用言「落ちる」のそれぞれから漢字「日」と「落」を抽出する.抽出された漢字を組み合わせて生成される語は,「日落」と「落日」の2語である.この場合,「落日」は既知語であるため,語句「日が落ちる」は既知語「落日」に帰着され,結果「夕方」であると判断することができる.\subsubsection{用言を代替する漢字の組み合わせによる処理}漢字の組み合わせによる処理と同様,漢字の持つ意味に着目した処理である.概念ベースを利用して,入力された語句の用言に対する属性を取得する.その属性のうち用言,およびサ変名詞を抽出し,体言との漢字を組み合わせて時語を生成する.なお,漢字を組み合わせて生成した語が既知語に複数存在する場合は,概念ベースの属性に付与されている重みが最大の属性を用いて生成した語に帰着させる.例えば,語句「日が沈む」を処理する場合,漢字「日」と「沈」から生成される語は「日沈」と「沈日」であり既知語ではない.そこで,概念ベースから用言「沈む」の属性を取得し,「没する,入る,落ちる,$\cdots$」などの属性を抽出する.これらの漢字と体言の漢字「日」を組み合わせることにより時間を判断することができる.この場合,既知語「日没」と「落日」が生成されるが,属性「落ちる」の方が概念ベースでの重みが大きいため,既知語「落日」に帰着され,結果「夕方」であると判断することができる.\subsubsection{属性の検索による処理}入力された語句の体言と用言を属性に含んでいる既知語を検索する.なお,条件を満たす既知語が複数存在する場合,既知語と入力された語句の体言,用言との関連度の平均が最も大きいものに帰着させる.例えば,語句「太陽が沈む」を処理する場合,体言「太陽」と用言「沈む」の両方を属性に含む既知語を検索する.結果,既知語「夕日」が条件を満たし,「夕方」であると判断することができる.\subsubsection{体言のみによる処理}入力された語句の体言のみから時間を判断する.体言が既知語である場合,直接時間を判断することができる.なお,入力される語句の体言が未知語であった場合,\ref{unknown_word_processing}章で述べる未知語処理手法を用いて処理を行う.例えば,語句「柿を食べる」を処理する場合,体言「柿」のみから「秋」であると判断することができる.\subsubsection{用言のみによる処理}入力された語句の用言のみから時間を判断する.用言に関しては時間判断知識ベースに存在しないため,すべての用言に対して\ref{unknown_word_processing}章に述べる未知語処理手法を用いて処理を行う.例えば,語句「手がかじかむ」の用言「かじかむ」に対して未知語処理を行い,結果として「冬」であると判断することができる. \section{未知語処理手法} label{unknown_word_processing}意味的な観点からある既知語と同義または非常に関連性の強い未知語は,時間的な観点からも関連性が強いと考えられる.また,すべての語に対してそれらの語に関する知識を作成しデータベースに格納することは非常に困難であり,現実的ではない.そこで,時間に関する概念を効率よく表現できるごく少数の代表的な語を選別し,時間判断知識ベースに格納している.そして,格納した既知語とある未知語との関連性を評価し,未知語を関連性の強い既知語に帰着させる.これにより,未知語を既知語と同等に扱うことができる.この処理を未知語処理と呼ぶ.以下にその処理手法を示す.なお,各処理手法の具体例として体言の場合を挙げて説明しているが,\ref{concept_base}章で述べた概念ベースでは,用言についても体言と同様に表現しているため,用言に対しても体言と同様の処理手法が適用できる.\subsection{最高関連度語置換処理手法}\label{max_processing}関連度計算法を利用し,未知語と極めて関連性の強い既知語を導き出す未知語処理手法である.\renewcommand{\labelenumi}{}\begin{enumerate}\item未知語$X$とすべての既知語との関連度を算出する.\item未知語$X$との関連度が最も大きい既知語に未知語$X$を帰着させ,それに対応する代表時語を未知語$X$が表現する時間とする.ただし,概念または関連度の性質上,ある語と語の間に関係がないと思われる場合であっても,ごく小さな値の関連度が出力される.そのため,単純に「最も大きな関連度」という判断基準により処理を行うと,すべての語に対して関係がない場合,結果として未知語$X$を関連性が弱い既知語に帰着するおそれがある.そこで,閾値$Th_r$を設け,最も大きい関連度が閾値$Th_r$以下の場合には未知語$X$をその既知語に帰着させず,時間に関係のない語であると判断する.\end{enumerate}図\ref{max_association}に最高関連度語置換処理手法の具体例を示す.\begin{figure}[t]\caption{最高関連度語置換処理手法の具体例}\label{max_association}\end{figure}\subsection{二次閾値付き多数決未知語処理手法}\label{second_processing}概念の属性と重みを利用し,未知語から想起される代表時語を導き出す未知語処理手法である.なお,以下の説明では,概念$X$の$n$個目の一次属性を$X_n$,$X_n$の$m$個目の一次属性(概念$X$の二次属性)を$X_{nm}$のように表す.同様に,それぞれの属性の重みを$W_n$,$W_{nm}$と表す.\begin{enumerate}\item概念ベースから未知語$X$の一次属性を取得する.\item未知語$X$の二次属性,つまり$X_n$の一次属性($X_{n1}$,$\cdots$,$X_{nm}$)が時語知識ベースに存在する既知語か否かをそれぞれ検索する.もし,既知語であれば,その語に関連付けられている代表時語に帰着させる.\item$X_{n1}$,$\cdots$,$X_{nm}$のうち代表時語に帰着された属性に付与されている$X_n$に対する重みを指数とする.代表時語ごとに指数を加算し,指数が一番大きく,かつその指数が下限$Th_s$以上である代表時語に$X_n$を帰着させる.同指数の代表時語が複数ある場合は,関連度が最大の語に帰着させる.$X_{n1}$,$\cdots$,$X_{nm}$がすべて未知語の場合は,$X_n$も未知語とする.\item$X_n$が代表時語に帰着されたら未知語$X$に対する$X_n$の重み$W_n$の値をその代表時語の指数に加算する.これを一次属性すべてに繰り返す.\item指数が一番大きく,かつ閾値$Th_v$以上である代表時語に,未知語$X$を帰着させる.同指数の代表時語が複数ある場合は関連度が最大の語に帰着させる.\end{enumerate}図\ref{second_association}に二次閾値付き多数決未知語処理手法の具体例を示す.\begin{figure}[t]\caption{二次閾値付き多数決未知語処理手法の具体例}\label{second_association}\end{figure}\subsection{最高関連度語置換処理手法と二次閾値付き多数決未知語処理手法の比較}\label{max_second_processing}\ref{max_processing}節,\ref{second_processing}節で述べた最高関連度語置換処理手法と二次閾値付き多数決未知語処理手法において,閾値$Th_r$,$Th_v$の値を大きくすると,未知語と既知語との関連性を弱く表現する傾向になり,結果として何も出力を出さない無答が増加し,誤答が減少する.また,逆に閾値を小さくすると,未知語と既知語との関連性を強く表現する傾向になり,結果として無答が減少し,誤答が増加する.実際,時間に関係のある未知語を190語,関係のない未知語を250語を作成し,最高関連度語置換処理手法と二次閾値付き多数決未知語処理手法において,正答率と精度が閾値によりどのように変化するかを調査した.時間に関係のある語と時間に関係のない語における正答率と精度の結果を図\ref{max_association_result},図\ref{second_association_result}に示す.なお,正答率と精度は以下のように定義する.\begin{figure}[b]\caption{最高関連度語置換処理手法における閾値に対する正答率と精度の変化の様子}\label{max_association_result}\end{figure}\begin{figure}[b]\caption{二次閾値付き多数決未知語処理手法における閾値に対する正答率と精度の変化の様子}\label{second_association_result}\end{figure}正答率=正答数/(正答数+誤答数+無答数)精度=正答数/(正答数+誤答数)ここで,時間に関係のある語においては,人間が想起する既知語(最高関連度置換処理方式の場合)または代表時語(二次閾値付き多数決未知語処理手法の場合)に帰着した場合を「正答」とし,「正答」以外の既知語または代表時語に帰着した場合が「誤答」であり,どの既知語または代表時語にも帰着しない場合が「無答」である.時間に関係ない語においては,すべての語が時間を表さないため,どの既知語または代表時語にも帰着しない場合が「正答」であり,「無答」は「正答」ということになる.「誤答」とは,何らかの既知語または代表時語に帰着した場合である.なお,図\ref{max_association_result},図\ref{second_association_result}において,正答率は時間に関係のある語に対するものである.これは前述したように,時間に関係のない語については「正答=無答」という関係が成り立ち,「正答率=精度」となるためである.前述のように,最高関連度語置換処理手法では,関連度計算法を利用し,未知語と極めて関連性の強い既知語を導き出し,二次閾値付き多数決未知語処理手法では,概念ベースを利用し,概念の属性と重みを用いて未知語から想起される代表時語を導き出す.そのため,未知語から時間を判断する際には,最高関連度語置換処理手法の方が,より詳細に,より精度良く時間を判断することが可能である.そこで,一段階目では,精度を重要視し,閾値を高い水準に置いた最高関連度語置換処理によって未知語の既知語への帰着を試みる.既知語への帰着が成功しない場合には,正答率を重要視し,閾値を比較的低い水準にした二次閾値付き多数決未知語処理によって再度帰着を試みる.未知語処理を二段階で行い,性質の異なる方式を組み合わせ,信頼性の高い処理を優先的に実行することで,それぞれの処理を単独で行うよりもより高い精度・正答率が得られると考えられる.二段階未知語処理におけるパラメータは,図\ref{max_association_result}で示した最高関連度語置換処理における閾値に関する実験結果から$Th_r$=0.8,図\ref{second_association_result}で示した二次閾値付き多数決未知語処理手法における閾値に関する実験結果から$Th_v$=0.1と設定した.また,二次閾値付き多数決未知語処理手法におけるパラメータ$Th_s$については,パラメータ$Th_r$,$Th_v$の設定の際に使用した時間に関係のある未知語190語と関係のない未知語250語を使用し,\ref{second_processing}節の$X_n$に,これらの一次属性を\ref{second_processing}節の$X_{nm}$に見立て,$X_n$が時間に関係のある語である場合には適切な代表時語を帰着できたか否か,また,$X_n$が時間に関係のない語である場合には代表時語を帰着させないか否かの評価を基に設定した.具体的には,パラメータ$Th_s$を0から0.25まで0.025刻みで変化させ,7名の被験者にて上記評価を行い,5名の被験者が同じ判断をしたものを正解とした際に,最も正解率の高かった$Th_s$=0.025と設定した.\subsection{関連度計算法を用いた最高関連度語置換処理手法の有効性の評価}\ref{max_processing}節で提案した関連度計算法を用いた最高関連度語置換処理手法の有効性を評価するため,関連度計算法と同じように単語間の関連性を数値化する別の手法を用いた場合との比較を行った.本論文では,比較実験において,\cite{nagao:96}で紹介されている以下の算出式によりシソーラス上の距離を定量化することで単語間の類似度を求める手法を用いた.\begin{eqnarray}sim(n_1,n_2)&=&2d(c)/(d(n_1;c)+d(n_2;c))\nonumber\end{eqnarray}なお,$d(a)$は$a$の深さ,すなわち,シソーラスのルートノードからノード$a$への最短パス長であり,$d(a;b)$は$b$を経由する$a$の深さ,すなわち,シソーラスのルートノードからノード$b$を経由してノード$a$へ至るパスの最短パス長である.また,実験に使用したシソーラスは,日本語語彙体系\cite{ntt:97}を使用した.シソーラスを用いた場合の最高関連度語置換処理手法と関連度計算法を用いた最高関連度語置換処理手法の結果を表\ref{conf_result}に示す.実験データならびに評価方法は\ref{max_second_processing}節で用いたものと同様である.また,シソーラスを用いた場合の最高関連度語置換処理手法におけるパラメータ$Th_r$に関しても\ref{max_second_processing}節で行ったパラメータの設定方法と同様に行い,$Th_r$=0.9と設定した.\begin{table}[t]\caption{シソーラスと関連度計算法を用いた場合の最高関連度語置換処理手法の比較結果}\label{conf_result}\end{table}時間に関係のない語の精度ならびに正答率に関しては,顕著な差はないが,時間に関係のある語の精度に関しては,明らかな差を見ることができる.\ref{max_second_processing}節で述べたように,最高関連度語置換処理手法においては,精度に重きを置いているため,この結果より,関連度計算法を用いた最高関連度語置換処理手法は有効な手法であるといえる. \section{時間判断システムの評価} 本研究では,以下に示す実験データを作成し,\ref{max_second_processing}節において提案した二段階未知語処理手法を用いた時間判断システムについて評価した.A群:体言と体言の組み合わせによる語句(285個)1995年のある全国紙の記事から,季節などの偏りを避けるため,ランダムに選択した100個の記事を対象に,人手で抜き出した時間に関係のある語句.B群:体言と用言の組み合わせによる語句(256個)正答(語句から連想できる時間)の候補として代表時語9語を提示し,語句とその正答(代表時語9語と可能であれば具体的な時間)を自由記述形式でアンケート調査した結果収集された時間に関係のある語句.C群:時間に関係のある語(289個)B群のアンケート調査と同様の方法により収集,および,俳諧で用いられる時間を表す語である季語のうち日常的に使用する時間に関係のある語.D群:時間に関係のない語(250個)代表時語9語を提示し,これらに該当しないと思われる語を自由記述形式でアンケート調査した結果収集された時間に関係のない語.なお,実験データとしては,7名の被験者にそれらのデータが時間に関係ある語か否かの判断をしてもらい,そのうち5名以上が同じ判断を行った語のみを人間が行う判断結果として使用した.評価方法としては,\ref{max_second_processing}節と同様に,実験データに対する時間判断結果を「正答」「誤答」「無答」の三種類に分けて行う.実験データA群,B群,C群では,ある語または語句から人間が想起する具体的な時間または代表時語と同じものが得られた場合を「正答」,「正答」以外の代表時語が得られた場合を「誤答」,代表時語が得られなかった場合を「無答」とする.実験データD群では,すべての語が時間を表さないため,代表時語が得られない場合を「正答」,何らかの代表時語が得られた場合を「誤答」とする.正答率,精度は\ref{max_second_processing}節で示した定義と同様である.\begin{table}[b]\caption{各データ群における評価}\label{result}\end{table}\begin{table}[b]\caption{実験データA群,B群,C群における未知語と既知語の割合}\label{proportion}\end{table}\begin{table}[t]\caption{実験データA群における詳細結果}\label{a_detail_result}\end{table}\begin{table}[t]\caption{実験データB群における詳細結果}\label{b_detail_result}\end{table}\begin{table}[t]\caption{実験データC群における詳細結果}\label{c_detail_result}\end{table}\begin{table}[b]\caption{C群,D群の正答例と誤答例(括弧内は期待される解)}\label{C_D_result_conf}\end{table}各実験データ群に対する評価結果を表\ref{result}に示す.また,実験データA群,B群,C群における未知語と既知語の割合を表\ref{proportion}に示し,未知語処理の有効性を評価するため,実験データA群,B群,C群における正答率,精度の結果を表\ref{a_detail_result},表\ref{b_detail_result},表\ref{c_detail_result}に示す.なお,実験データA群にのみ未知語と既知語の他に混在という表記があるが,これは,体言と体言の組み合わせによる語句のうち片方が未知語でもう一方が既知語の実験データのことであり,B群については,用言はすべて未知語であるため,体言が未知語か既知語かの割合を示している.表\ref{a_detail_result},表\ref{b_detail_result},表\ref{c_detail_result}から,未知語に対する処理は,既知語に対する処理よりも劣るものの,十分有効に機能しているといえる.A群で誤答になったものは,「94年」などのように数字が省略されているものや,「1985.9.22」などのように単位が省略された表現であった.これらの表現は,文脈に依存するものであり,本稿で提案したシステムでは対処できない.今後,省略された表現を文脈から補完する手法の開発が望まれる.B群では「夏が終わる」など,用言が時間の推移・遷移を表す時間表現で誤答となった.このような表現は,時間の前後関係を表すため前後時語と同等に扱う必要がある.本研究で提案した時語生成手法は,主に漢字が持つ意味に着目し,複数の漢字を組み合わせて時語を導き出す.しかし,必ずしも意味的に関連性の強い漢字同士を組み合わせて表現される時語が存在するとは限らない.B群については,他の実験データ群と比較し正答率,精度ともに著しく悪いことから,今後,時間を体言と用言の組み合わせによって表現する語句に対する処理の改良が望まれる.表\ref{C_D_result_conf}にC群,D群の正答例と誤答例を示す.例えば,C群の「潮干狩り」は,潮の満ち引きに強く関係することから「月」と,D群の「ネクタイ」は,同じように首に巻いて使用する「マフラー」と関連性が強いと判断され誤答になっている.時間判断システムの結果としては,時間に関係のある語のみ(A群〜C群)を対象にした際の正答率が平均69.4\%,精度が平均81.6\%の割合で人が行う判断結果と一致しており,二段階未知語処理手法を用いた時間判断システムは有効なシステムであるといえる.仮に,未知語処理手法を適用しなかった場合,時間判断知識ベースに登録されている語にしか判断を行うことができず,正答率は約52.3\%,精度は約85.3\%になる.つまり,時間判断知識ベースに登録する語数を減らすと精度が向上する一方で正答率は劣化し,登録語数を増やすと正答率は向上する.しかし,正答率が100\%になることは現実的にはありえず,ある正答率で飽和すると考えられる.ただし本研究では,これまで述べてきたように,より少ない知識でより多くの表現に対応することを目標にしており,時間判断知識ベース,各種処理手法,ならびにそれらから構成される時間判断システムの有効性,妥当性は本結果により十分に示すことができたと考える. \section{おわりに} 本稿では,ある概念から様々な概念を連想できるメカニズムを基に,人間が行う常識的な判断の一つである時間に関する判断を実現する方法について提案した.日常的な時間表現に着目し,基本的な常識知識を事前に与え,知識として持っていない多くの未知の表現にも対応できる柔軟なメカニズムの構築を実現した.常識的判断システム実現の困難さは,誰もが持っている普遍的な常識知識のみをシステムに与え,如何にして,それらの周りにある膨大な常識知識を扱うかにある.そして,本稿でも提案したこのような構成・処理手法が極めて現実的な方法であると考えている.結果としては,時間判断システムにおいて,時間に関係のある語のみを対象にした際の正答率が約69.4\%,精度が約81.6\%の割合で人が行う判断結果と一致しており,二段階未知語処理手法を用いた時間判断システムは有効なシステムであるといえる.\acknowledgment本研究は,文部科学省からの補助を受けた同志社大学の学術フロンティア研究プロジェクトにおける研究の一環として行った.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Allen}{Allen}{1984}]{allen:84}Allen,J.~F.\BBOP1984\BBCP.\newblock\BBOQTowardsaGeneralTheoryofActionandTime\BBCQ\\newblock{\BemArtificialIntelligence},{\Bbf23}(2),123--154.\bibitem[\protect\BCAY{広瀬\JBA渡部\JBA河岡}{広瀬\Jetal}{2002}]{hirose:02}広瀬幹規\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ概念間ルールと属性としての出現頻度を考慮した概念ベースの自動精錬手法\JBCQ\\newblock\Jem{信学技報,NLC2001-93},109--116.\bibitem[\protect\BCAY{Horiguchi\JBATsuchiya\JBAKojima\JBAWatabe\BBA\Kawaoka}{Horiguchiet~al.}{2002}]{horiguchi:02}Horiguchi,A.\JBATsuchiya,S.\JBAKojima,K.\JBAWatabe,H.\JBA\BBA\Kawaoka,T.\BBOP2002\BBCP.\newblock\BBOQConstructingaSensuousJudgmentSystemBasedonConceptualProcessing\BBCQ\\newblock{\BemComputationalLinguisticsandIntelligentTextProcessing(Proc.ofCICLing-2002)},86--95.\bibitem[\protect\BCAY{入江\JBA東村\JBA渡部\JBA河岡}{入江\Jetal}{1999}]{irie:99}入江毅\JBA東村貴裕\JBA渡部広一\JBA河岡司\BBOP1999\BBCP.\newblock\JBOQ知的判断メカニズムにおける概念間の関連度計算方式\JBCQ\\newblock\Jem{情報処理学会秋季全国大会},3J--7.\bibitem[\protect\BCAY{小島\JBA渡部\JBA河岡}{小島\Jetal}{2002}]{kojima:02}小島一秀\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ連想システムのための概念ベース構成法−属性信頼度の考え方に基づく属性重みの決定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(5),93--110.\bibitem[\protect\BCAY{McDermott}{McDermott}{1982}]{mcdermott:82}McDermott,D.\BBOP1982\BBCP.\newblock\BBOQATemporalLogicforReasoningaboutProcessesandPlans\BBCQ\\newblock{\BemCognitiveScience},{\Bbf6}(2),101--155.\bibitem[\protect\BCAY{溝渕\JBA住友\JBA泓田\JBA青江}{溝渕\Jetal}{1999}]{mizobuchi:99}溝渕昭二\JBA住友徹\JBA泓田正雄\JBA青江順一\BBOP1999\BBCP.\newblock\JBOQ日本語時間表現の一解釈法\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf40}(9),3408--3419.\bibitem[\protect\BCAY{NTTコミュニケーション科学研究所}{NTTコミュニケーション科学研究所}{1997}]{ntt:97}NTTコミュニケーション科学研究所\BBOP1997\BBCP.\newblock\Jem{日本語語彙体系}.\newblock岩波書店.\bibitem[\protect\BCAY{玉野\JBA松本}{玉野\JBA松本}{1996}]{tamano:96}玉野健一\JBA松本裕治\BBOP1996\BBCP.\newblock\JBOQ制約條件を用いた事象の時間構造の記述\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会資料},{\Bbf115}(2),9--14.\bibitem[\protect\BCAY{渡部\JBA河岡}{渡部\JBA河岡}{2001}]{watabe:01}渡部広一\JBA河岡司\BBOP2001\BBCP.\newblock\JBOQ常識的判断のための概念間の関連度評価モデル\JBCQ\\newblock\Jem{自然言語処理},{\Bbf8}(2),39--54.\bibitem[\protect\BCAY{渡部\JBA堀口\JBA河岡}{渡部\Jetal}{2004}]{watabe:04}渡部広一\JBA堀口敦史\JBA河岡司\BBOP2004\BBCP.\newblock\JBOQ常識的感覚判断システムにおける名詞からの感覚想起手法\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf19}(2),73--82.\bibitem[\protect\BCAY{長尾}{長尾}{1996}]{nagao:96}長尾真\BBOP1996\BBCP.\newblock\Jem{岩波講座ソフトウェア科学15自然言語処理}.\newblock岩波書店.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{土屋誠司}{2000年同志社大学工学部知識工学科卒業.2002年同大学院工学研究科知識工学専攻博士前期課程修了.同年,三洋電機株式会社入社.2004年同志社大学大学院工学研究科知識工学専攻博士後期課程入学.主に,常識的判断システムの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{奥村紀之}{2003年同志社大学工学部知識工学科卒業.同大学院工学研究科知識工学専攻博士前期課程在学.知識情報処理の研究に従事.}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.工学博士.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会,日本知能情報ファジィ学会各会員.}\bioauthor{河岡司}{1966年大阪大学工学部通信工学科卒業.1968年同大学院修士課程修了.同年,日本電信電話公社入社,情報通信網研究所知識処理研究部長,NTTコミュニケーション科学研究所所長を経て,現在同志社大学工学部教授.工学博士.主にコンピュータネットワーク,知識情報処理の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,IEEE(CS)各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V04N01-06
\section{はじめに} 日本語文章における代名詞などの代用表現を含む名詞の指す対象が何であるかを把握することは,対話システムや高品質の機械翻訳システムを実現するために必要である.そこで,我々は用例,表層表現,主題・焦点などの情報を用いて名詞の指示対象を推定する研究を行なった.普通の名詞の指示対象の推定方法はすでに文献\cite{murata_noun_nlp}で述べた.本稿では指示詞・代名詞・ゼロ代名詞の指示対象の推定方法について説明する.代名詞などの指示対象を推定する研究として過去にさまざまなものがあるが\cite{Tanaka1}\cite{kameyama1}\cite{yamamura92_ieice}\cite{takada1}\cite{nakaiwa},これらの研究に対して本研究の新しさは主に次のようなものである.\begin{itemize}\item従来の研究では代名詞などの指示対象の推定の際に意味的制約として意味素性が用いられてきたが,本研究では対照実験を通じて用例を意味素性と同様に用いることができることを示す.一般に意味素性つきの格フレームの方が用例つきの格フレームよりも作成コストがかかるので,用例を意味素性と同様に用いることができることがわかるだけでも有益である.\item連体詞形態指示詞の推定には意味的制約として「AのB」の用例を用いる.\item「この」が代行指示になりにくいという性質を利用して解析を行なう.\item指示詞による後方照応を扱っている.\item物語文中の会話文章の話し手と聞き手を推定することで,その会話文章中の代名詞の指示対象を推定する.\end{itemize}論文の構成は以下の通りである.\ref{wakugumi}節では,本研究の指示対象を推定する枠組について説明する.次に,その枠組で用いる規則について,\ref{sec:sijisi_ana}節,\ref{sec:pro_ana}節,\ref{sec:zero_ana}節で指示詞,代名詞,ゼロ代名詞の順に説明する.\ref{sec:jikken}節では,これらの規則を実際に用いて行なった実験とその考察を述べる.\ref{sec:owari}節で本研究の結論を述べる. \section{指示対象を推定する枠組} \label{wakugumi}本研究での指示詞・代名詞・ゼロ代名詞を含む名詞の指示対象の推定は,手がかりとなる複数の情報をそれぞれ規則にし,これらの規則を用いて指示対象の候補をあげながらその候補に得点を加えていき,合計点が最も高い候補を指示対象とすることによって実現した.これは,照応解析のように複雑な問題では複数の情報が絡み合っており,複数の情報を総合的に判断することにより解析を行なうためである.規則に応じて候補に得点を足していく操作は,その候補が指示対象であるという確信度が高まっていくことに対応している.\begin{figure}[t]\begin{center}\fbox{\begin{minipage}[c]{7cm}\hspace*{0.7cm}条件部$\Rightarrow$\{提案提案..\}\\[-0.1cm]\hspace*{0.7cm}提案:=(指示対象の候補\,得点)\end{minipage}}\caption{列挙判定規則の表現}\label{fig:kouho_rekkyo}\end{center}\end{figure}\begin{figure}[t]\begin{center}\fbox{\begin{minipage}[c]{6cm}\hspace*{1.5cm}条件部$\Rightarrow$(得点)\end{minipage}}\caption{判定規則の表現}\label{fig:kouho_hantei}\end{center}\end{figure}まず,解析する文章を\cite{csan2_ieice}の方法によって構文解析・格解析する.その結果に対して文頭から順に文節ごとにすべての規則を適用して指示対象を推定する.規則には,指示対象の候補をあげながら候補の良さを判定する列挙判定規則とその列挙された複数の候補すべてに対して適用する判定規則の二種類がある.列挙判定規則を図\ref{fig:kouho_rekkyo}に,判定規則を図\ref{fig:kouho_hantei}に示す.図中の「条件部」には,(i)文章中のあらゆる語とその分類語彙表\cite{bgh}の分類番号と,(ii)IPALの格フレーム\cite{ipal}の情報と,(iii)名詞の指示性の情報と,(iv)構文解析・格解析の結果の情報などを条件として書く.「指示対象の候補」には指示対象の候補とする単語の位置を書く.「得点」は指示対象としての適切さの度合を表す.指示対象の推定は条件を満足した規則により与えられる得点の合計点で行なう.まずすべての列挙判定規則を適用し得点のついた指示対象の候補を列挙する.このとき同じ候補を列挙する規則が複数あれば得点を加算する.次に列挙された指示対象の各候補に対してすべての判定規則を適用して,各候補ごとに得点を合計する.最も合計点の高い指示対象の候補を指示対象と判定する.最も合計点の高い指示対象の候補が複数個ある場合は,一番初めに出された\footnote{規則の適用順序に従う.ただし,\ref{sec:sijisi_ana}節以降で説明する規則の順と適用順序は異なる.}指示対象の候補を指示対象とする.代名詞などを解析するために列挙判定規則および判定規則をそれぞれ指示詞については51個と11個,代名詞については4個と6個,ゼロ代名詞については24個と4個作成した.以降,これらのうち主要なものを指示詞,代名詞,ゼロ代名詞の順に説明する. \section{指示詞の指示対象を推定するための規則} \label{sec:sijisi_ana}指示詞の解析のための規則は,\cite{seiho1}\cite{hyasi2}\cite{sijisi_nihongogaku}\cite{sijisi}などの文献を参考にしたり,実際の文章を調査することによって作成した.指示詞には名詞形態指示詞,連体詞形態指示詞,副詞形態指示詞の三つがある.以下にそれぞれの指示詞の解析をするための規則の説明を行なう.\begin{table}[t]\caption{主題の重み}\label{fig:shudai_omomi}\begin{center}\newcommand{\mn}[1]{}\begin{tabular}[c]{|@{}l@{}|@{}l@{}|@{}r@{}|}\hline\multicolumn{1}{|c|}{表層表現}&\multicolumn{1}{c|}{例}&\multicolumn{1}{c|}{重み}\\\hline{ガ格の指示詞・代名詞・ゼロ代名詞}&(\underline{太郎}が)した.&21\\\hline名詞は/には&\underline{太郎}はした.&20\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{焦点の重み}\label{fig:shouten_omomi}\begin{center}\newcommand{\mn}[1]{}\begin{tabular}[c]{|@{}l@{}|@{}l@{}|@{}r@{}|}\hline{表層表現(「は」がつかないもので)}&\multicolumn{1}{c|}{例}&重み\\\hline{ガ格以外の指示詞・代名詞・ゼロ代名詞}&(\underline{太郎}に)した.&16\\\hline{名詞が/も/だ/なら/こそ}&\underline{太郎}がした.&15\\\hline名詞を/に/,/.&\underline{太郎}にした.&14\\\hline名詞へ/で/から/より&\underline{学校}へ行く.&13\\\hline\end{tabular}\end{center}\end{table}\subsection{名詞形態指示詞の指示対象を推定するための規則}\label{sec:meishi_siji}\subsection*{\underline{名詞を指示対象の候補とする規則}}\noindent{\bf列挙判定規則1}\begin{indention}{0.8cm}\noindent名詞形態指示詞か「その/この/あの」の場合\\\{(同一文中か前文の重みが$w$で主題と焦点を合わせて数えて$n$個前の主題\,$w-n-2$)\\(同一文中か前文の重みが$w$で主題と焦点を合わせて数えて$n$個前の焦点\,$w-n+4$)\}\\この括弧式は,図\ref{fig:kouho_rekkyo}の規則の提案のリストを表わす.\\主題と焦点の定義と重みは表\ref{fig:shudai_omomi},表\ref{fig:shouten_omomi}のとおりである.\\指示詞の場合は,ゼロ代名詞の場合と異なり,既知情報の主題と照応するよりも未知情報の焦点と照応しやすいと考え,係数$-2$,$+4$をつけることによって,主題よりも焦点の方が指示対象になりやすくしている.\end{indention}\vspace{0.5cm}主題・焦点の重みや指示詞と指示対象の候補の間の距離に応じて,それぞれの候補の得点,すなわち,その候補の指示対象としての確からしさが変わる.\subsection*{\underline{事態(用言)を指示対象の候補とする規則}}\noindent{\bf列挙判定規則2}\begin{indention}{0.8cm}\noindent「それ/あれ/これ」や連体詞形態指示詞の場合\\\label{kore_mae}\{(前文,もしくは,指示詞の前方の同一文内に逆接接続助詞か条件形を含む用言がある場合はその用言\,$15$)\}\end{indention}\vspace{0.5cm}前文の事態を指示する例文として以下のものがある.\begin{equation}\begin{minipage}[h]{10cm}天狗達は間もなくやってきて,前の晩のように歌ったり踊ったりし始めました.\\おじいさんは\underline{それ}を見て,こんな風に歌い始めました.\end{minipage}\label{eqn:sore_mite_utau}\end{equation}この例の「それ」の指示対象は「天狗達が歌ったり踊ったりし始めた」という事態を指示している.また,前文の事態でなく,同一文内の逆接の接続助詞の存在する用言の表す事態を指示する場合として,次の例の「それ」がある.\begin{equation}\begin{minipage}[h]{10cm}おじいさんは一所懸命に歌い,そして踊りましたが,\underline{それ}は言葉では言い表せないほど下手糞でありました.\end{minipage}\label{eqn:sore_mite_heta}\end{equation}\begin{table}[t]\caption{名詞形態指示詞の場合に与える得点}\label{tab:hininshoudaimeisi_ruijido}\begin{center}\begin{tabular}[c]{|l|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|}\hline類似レベル&0&1&2&3&4&5&6&一致\\\hline得点&0&0&$-$10&$-$10&$-$10&$-$10&$-$10&$-$10\\\hline\end{tabular}\end{center}\vspace*{-1mm}\end{table}\begin{table}[t]\caption{分類語彙表の分類番号の変更}\label{tab:bunrui_code_change}\begin{center}\begin{tabular}[c]{|l|l|l|}\hline意味素性&分類語彙表の&変更後の\\&分類番号&分類番号\\\hlineANI(動物)&156&511\\[0cm]HUM(人間)&12[0-4]&52[0-4]\\[0cm]ORG(組織・機関)&125,126,127,128&535,536,537,538\\[0cm]PLA(植物)&155&611\\[0cm]PAR(生物の部分)&157&621\\[0cm]NAT(自然物)&152&631\\[0cm]PRO(生産物・道具)&14[0-9]&64[0-9]\\[0cm]LOC(空間・方角)&117,125,126&651,652,653\\[0cm]PHE(現象名詞)&150,151&711,712\\[0cm]ACT(動作・作用)&13[3-8]&81[3-8]\\[0cm]MEN(精神)&130&821\\[0cm]CHA(性質)&11[2-58],158&83[2-58],839\\[0cm]REL(関係)&111&841\\[0cm]LIN(言語作品)&131,132&851,852\\[0cm]その他&110&861\\[0cm]TIM(時間)&116&a11\\[0cm]QUA(数量)&119&b11\\[0cm]\hline\end{tabular}125,126については二つの分類番号が与えられる.\end{center}\end{table}\subsection*{\underline{指示詞は人を指しにくいという性質を利用した規則}}\noindent{\bf判定規則1}\begin{indention}{0.8cm}\noindent照応詞が名詞形態指示詞の場合で,指示対象の候補となった名詞が意味素性HUMを満足する時,$-10$点を与える.このとき指示対象の候補となった名詞の意味素性は名詞意味素性辞書\cite{imiso-in-BGH}のものを用いる.\end{indention}\vspace{0.5cm}\noindent{\bf判定規則2}\begin{indention}{0.8cm}\noindent照応詞が名詞形態指示詞の場合,指示対象の候補となった名詞の分類語彙表の分類番号と以下の人間を代表する分類語彙表の番号\{520000301052010020605202001020520200611552410021505244002100\}との類似レベルの最も大きいものにより得点を与える.与える得点は{表\ref{tab:hininshoudaimeisi_ruijido}}のとおりである.このとき用いる類似度計算には分類語彙表の分類番号を表\ref{tab:bunrui_code_change}に従って変換したものを用いる.この変更は,分類語彙表の分類番号の付け方が意味的に妥当でないところがあったためである.また,一桁目の数字に種類を設けたので,もとの分類番号よりも細かい分類となっている.\end{indention}\vspace{0.5cm}これらの規則は名詞形態指示詞で人を指すことがないという性質を用いることによって指示対象の候補を削減するためのものである.例えば,次の例文中の「それ」の指示対象は「コンピューター」であるが,「それ」の近くにある「コンピューター」以外の名詞は人を表すものしかなく,「それ」は人を指さないので,指示対象が「コンピューター」であることがわかる.\begin{equation}\begin{minipage}[h]{10cm}太郎は最新のコンピューターを買いました.\\ジョンに早速\underline{それ}を見せました.\end{minipage}\label{eqn:sore_new_computer}\end{equation}\subsection*{\underline{「ここ」「そこ」などは場所を指示しやすいという性質を利用した規則}}\noindent{\bf判定規則3}\begin{indention}{0.8cm}\noindent照応詞が「ここ/そこ/あそこ」の場合,指示対象の候補となった名詞が場所を意味する意味素性LOCを満足する時,$10$点を与える.\end{indention}\vspace{0.5cm}\noindent{\bf判定規則4}\begin{indention}{0.8cm}\noindent照応詞が「ここ/そこ/あそこ」の場合,指示対象の候補となった名詞の分類語彙表の分類番号と以下の場所を代表する分類語彙表の番号\{656300601065590050209113301090911330201064710010306314020130\}との類似レベルの最も大きいものにより得点を与える.与える得点は{表\ref{tab:bashomeisi_ruijido}}のとおりである.\end{indention}\vspace{0.5cm}例えば,次の例(\ref{eqn:soko_dekuwasu})の「そこ」の指示対象は,場所を表す名詞「売店」であることがわかる.\begin{equation}\begin{minipage}[h]{10cm}太郎が公園で本を読んでいました.\\コーラを買いに売店に入りました.\\次郎は\underline{そこ}で偶然,でくわしました.\end{minipage}\label{eqn:soko_dekuwasu}\end{equation}\begin{table}[t]\caption{場所を指示する指示詞の場合に与える得点}\label{tab:bashomeisi_ruijido}\begin{center}\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|}\hline類似レベル&0&1&2&3&4&5&6&一致\\\hline得点&$-$10&$-$5&0&5&10&10&10&10\\\hline\end{tabular}\end{center}\end{table}\subsection*{\underline{「ここで」「そこで」などが接続詞として用いられる場合の規則}}\noindent{\bf列挙判定規則3}\begin{indention}{0.8cm}\noindent「ここで/そこで」の場合\{(前文\,$11$)\}\end{indention}\vspace{0.5cm}この規則は,「ここで/そこで」が接続詞として用いられている場合,前文を指示すると解析するための規則である.場所を指す語が近くにない場合には,この規則によってあげられた候補が一番高い得点を持つことになり,接続詞として用いられていると解析できる.例えば,この規則により次の例文の「そこで」は接続詞として用いられていると判定できる.\begin{equation}\begin{minipage}[h]{10cm}歌い始めると,おじいさんは天狗が少しも怖くなくなってしまいました.\\\underline{そこで}おじいさんは隠れていた穴から出てきてしまいました.\end{minipage}\label{eqn:soko_ojiisan_kakureru}\end{equation}「そこで」を英語に翻訳する際には指示詞か接続詞であるかによって``there''か``then''に訳し分けをする必要があるが,このときこの規則が必要となる.\subsection*{\underline{後方照応の場合の規則}}名詞形態指示詞は,同一文内の後方照応をする場合がある.同一文内の後方照応をする場合については,他の形態指示詞も含めて文献\cite{matsuoka_nl}での方法から作成した規則により対処する.文献\cite{matsuoka_nl}では,名詞形態指示詞が同一文内の後方照応の他に次の文などを指示する場合も扱っているが,そのようになる場合はまれでありその規則を用いない方が精度が良いので本研究では使用していない.\subsection*{\underline{その他の規則}}以上で述べたもの以外に以下のような規則がある.\vspace{0.5cm}\noindent{\bf列挙判定規則4}\begin{indention}{0.8cm}\noindent「それ/あれ/これ」や連体詞形態指示詞の場合で,その指示詞の直前の文節に用言の基本形か「〜とか」などの例を列挙するような表現がある場合\\\{(用言の基本形か例を列挙するような表現\,$40$)\}\end{indention}\vspace{0.5cm}\noindent{\bf列挙判定規則5}\begin{indention}{0.8cm}\noindent指示詞の場合\\\{(個体を導入\,$10$)\}\\この規則は指示詞の指示対象が文章中にないときでも,システムになんらかのものを指示させるためのものである.この規則により個体を導入し,その個体を指示すると解析する.\end{indention}\subsection{連体詞形態指示詞の指示対象を推定するための規則}\label{sec:rentai}「この」「その」「あの」「こんな」「そんな」などの連体詞形態指示詞と呼ばれるものには限定指示と代行指示の二種類がある.限定指示とは,「連体詞形態指示詞+名詞」の形で指示するものであり,例えば,次の例の下線部の「この」のようなものである.\begin{equation}\begin{minipage}[h]{10cm}おじいさんは天狗達の前に出ていって踊り始めました.\\けれども\underline{このおじいさん}は歌も踊りも下手糞でした.\end{minipage}\label{eqn:kono_ojiisan_heta}\end{equation}この例では「このおじいさん」という一固まりで第一文の「おじいさん」を指示している.また,代行指示とは,連体詞形態指示詞の部分が指示対象を持つ用法であり,「その」ならば「それの」と置き換えて考えることができる.例えば,次の例では連体詞形態指示詞の「その」が「天狗」を指示しており,代行指示である.\begin{equation}\begin{minipage}[h]{10cm}また,烏の様な顔をした天狗も居ました.\\\underline{その}口はまるで鳥の嘴の様に尖っているのでした.\end{minipage}\label{eqn:sono_kuti}\end{equation}以下に限定指示,代行指示の場合のための規則を示す.\subsection*{\underline{限定指示の場合の規則}}\noindent{\bf列挙判定規則6}\begin{indention}{0.8cm}\noindent「その名詞A」の場合\\ソ系の連体詞形態指示詞+名詞Aの場合\\\{(名詞Aを部分文字列として含む名詞\,$45$)\\(重みが$w$で$n$個前\footnote{主題が何個前かを調べる方法は,主題だけを数えることによって行なう.主題がかかる用言の位置が今解析している文節よりも前の場合はその用言の位置にその主題があるとして数える.そうでない場合はそのままの位置で数える.}の主題で名詞Aの下位語の名詞\,$w-n*2+10$)\\(重みが$w$で$n$個前の焦点で名詞Aの下位語の名詞\,$w-n*2+10$)\}\\語の上位下位の関係の把握は,EDRの単語辞書\cite{edr_tango_2.1}の定義文の文末の単語をその単語の上位語とする方法\cite{tsurumaru91}で行なった.次に示すコ系に比べ,ソ系は比較的近くにあるものしか指さないので,第二項には係数$2$をつけている.\end{indention}\vspace{0.5cm}\noindent{\bf列挙判定規則7}\begin{indention}{0.8cm}\noindentコ系の連体詞形態指示詞+名詞Aの場合\\\{(名詞Aを部分文字列として含む名詞\,$45$)\\(重みが$w$で$n$個前の主題で名詞Aの下位語の名詞\,$w-n+30$)\\(重みが$w$で$n$個前の焦点で名詞Aの下位語の名詞\,$w-n+30$)\}\end{indention}\vspace{0.5cm}\noindent{\bf列挙判定規則8}\begin{indention}{0.8cm}\noindentア系の連体詞形態指示詞+名詞Aの場合\\\{(名詞Aを部分文字列として含む名詞\,$45$)\\(重みが$w$で$n$個前の主題で名詞Aの下位語の名詞\,$w-n*0.4+30$)\\(重みが$w$で$n$個前の焦点で名詞Aの下位語の名詞\,$w-n*0.4+30$)\}\end{indention}\vspace{0.5cm}上の三つの規則では「連体詞形態指示詞+名詞A」の近くに「名詞A」があれば,限定指示と解釈して「名詞A」を指示対象の候補とする.また,「連体詞形態指示詞+名詞A」の近くに「名詞A」の下位語があればそれらの間に照応関係が存在すると考えられるので,それも指示対象の候補とする.これらの規則には比較的大きな得点を与えている.下位語を指示する例として以下のものがある.\begin{equation}\begin{minipage}[h]{10cm}おじいさんは遠くの山のむこうに見えなくなってしまうまで,遠のいていく鶴の姿を見送るのでありました.\\「\underline{あの鳥}を助けてやってよいことをした」とおじいさんはひとりごとを言いました.\end{minipage}\label{eqn:ano_tori}\end{equation}この例では下線部の「あの鳥」がその前文にある下位語「鶴」を指示している.\begin{table}[t]\caption{ソ系の連体詞形態指示詞の場合に与える得点}\label{tab:sokei_meishi_anob_ruijido}\begin{center}\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|}\hline類似レベル&0&1&2&3&4&5&6&一致\\\hline得点&$-$10&$-$2&$-$1&0&1&2&3&4\\\hline\end{tabular}\end{center}\end{table}\subsection*{\underline{ソ系の連体詞指示詞が代行指示をする場合の規則}}\noindent{\bf判定規則5}\begin{indention}{0.8cm}\noindent照応詞がソ系の連体詞形態指示詞の場合,それが係る名詞Bの用例「名詞Aの名詞B」を検索し,名詞Aと指示対象の候補となった名詞の類似レベルにより得点を与える.与える得点は{表\ref{tab:sokei_meishi_anob_ruijido}}のとおりである.このとき用いる「名詞Aの名詞B」の用例はEDRの共起辞書\cite{edr_kyouki_2.1}のものを用いる.\end{indention}\vspace{0.5cm}この規則は代行指示の場合における意味的整合性を調べるための規則である.(代行指示の場合の指示対象の候補は\ref{sec:meishi_siji}節であげた列挙判定規則1によりあげられる.)代行指示の例として前にあげた例文\ref{eqn:sono_kuti}の下線部の「その」の指示対象は前文の「天狗」であるが,この規則では「天狗」と「その」が修飾している「口」の間の意味的整合性を調べるために「名詞Aの口」という用例を集め,この「名詞A」と意味的に近い場合は指示対象として適切であると判定する.たとえば,EDRの共起辞書\cite{edr_kyouki_2.1}には「名詞Aの口」という用例は表\ref{fig:meishi_A_kuti}だけある.\begin{table}[t]\caption{「名詞Aの口」の用例}\label{fig:meishi_A_kuti}\begin{center}\begin{tabular}[c]{|p{11.5cm}|}\hline名詞Aになるもの\\\hlineポリ袋ルポライター委員長一同家庭教師幹部関係者灸牛国民採用市民私自分周作就職庶民人世間青木赤ちゃん先生袋谷村担当者炭がま長日本人彼彼ら彼女被災者避難民負傷者兵兵隊弁護士母\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{ソ系以外の連体詞形態指示詞の場合に与える得点}\label{tab:akei_meishi_anob_ruijido}\begin{center}\begin{tabular}[c]{|l|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r@{\hspace{0.12cm}}|@{\hspace{0.12cm}}r|}\hline類似レベル&0&1&2&3&4&5&6&一致\\\hline得点&$-$30&$-$30&$-$30&$-$30&$-$10&$-$5&$-$2&0\\\hline\end{tabular}\end{center}\end{table}\bigskip\subsection*{\underline{ソ系以外の連体詞指示詞が代行指示をする場合の規則}}\noindent{\bf判定規則6}\begin{indention}{0.8cm}\noindent照応詞がソ系以外の連体詞形態指示詞の場合,それが係る名詞Bの用例「名詞Aの名詞B」を検索し,名詞Aと指示対象の候補となった名詞の類似レベルにより得点を与える.与える得点は{表\ref{tab:akei_meishi_anob_ruijido}}のとおりである.ソ系以外の連体詞形態指示詞は代行指示になりにくいという性質\cite{seiho1}\cite{yamamura92_ieice}があるので,ソ系の場合よりも得点を低く設定している.\end{indention}\bigskip\subsection*{\underline{事態を指示する場合の規則}}連体詞形態指示詞は名詞形態指示詞と同様に,前文の文末の用言が表す事態を指示する場合がある\footnote{事態を指示する場合でも代行指示か限定指示かの区別を行なう必要があるが,本研究ではこの区別は行なっていない.}.\newpage\begin{equation}\begin{minipage}[h]{10cm}つまり,人間の脳より優秀なパターン認識プログラムが作れない段階では,非常に複雑で面白そうな事象については,まずその画像を作って,そのデータを物理学者に吟味させる必要がある.\\1980年代の初頭にLEP実験装置の設計が始まった時,\underline{この戦略}が採用されたのだった.\end{minipage}\label{eqn:kono_senryaku}\end{equation}この例の「この戦略」の指示対象は前文の用言「吟味させる」が表す事態である.このように事態が指示対象となる場合の推定は,代行指示として「この」が指すものや限定指示として「この戦略」が指すものとして適正な名詞が「この」の近くにない場合,事態を指示するようにすることで実現する.ただし,連体詞形態指示詞の場合も名詞形態指示詞と同様に同一文内に逆接の接続助詞の存在する用言があれば,その用言の表す事態を指示するようにしている.以上のことは\ref{sec:meishi_siji}節の列挙判定規則2によって実現される.\subsection*{\underline{「こんな」+名詞を解析する場合の規則}}「こんな(名詞)」については次の文を指示対象とする場合がある.\begin{equation}\begin{minipage}[h]{10cm}おじいさんは急に天狗達と一緒に踊りたくなってきました.とうとうおじいさんは踊りだし,踊りながら\underline{こんな歌}を歌いました.「天狗,天狗,八天狗」\end{minipage}\label{eqn:konana_kouhou}\end{equation}例えば,上の例の「こんな歌」の指示対象は『「天狗,天狗,八天狗」』である.\begin{table}[t]\caption{「こんな(名詞)」が前文を指示するか後文を指示するかの調査結果}\label{fig:konna_meishi_joshi_tyosha}\begin{center}\begin{tabular}[c]{|l|c|c|c|c|c|c|c|c|c|c|c|c|c|c|}\hline「こんな(名詞)」&は&は&に&に&に&で&で&の&す&が&を&も&で&合\\につく助詞&&な&&も&は&&は&&ら&&&&は&計\\&&い&&&&&&&&&&&な&\\&&&&&&&&&&&&&い&\\\hline前文を指示(個)&9&5&17&1&2&15&5&9&2&27&43&2&0&137\\\hline後文を指示(個)&0&0&0&0&0&0&0&0&0&22&26&4&1&53\\\hline\end{tabular}\end{center}\end{table}ところが,「こんな(名詞)」という手がかりだけでは前方照応か後方照応かを判定することができない.そこで,「こんな(名詞)」につく助詞によって前方か後方かの判定を行なうために,1986,1987年の天声人語と社説の約6万文から317個の「こんな」を含む部分を抽出し,そのうち前文か後文を指示対象とする場合の「こんな(名詞)」190個について前文,後文を指す個数を数えた.この結果を表\ref{fig:konna_meishi_joshi_tyosha}に示す.この表により,未知情報を表現する時に用いられやすい助詞「が」「を」などがつく場合以外は,前方照応であることがわかる.助詞「が」「を」がつく場合は,文献\cite{matsuoka_nl}の方法と同様に引用記号の``「''``」''がついている文が指示対象になりやすいなどの規則によって指示対象を推定する.\subsection{副詞形態指示詞の指示対象を推定するための規則}\subsection*{\underline{ソ系の副詞形態指示詞が前文を指示する場合の規則}}\noindent{\bf列挙判定規則9}\begin{indention}{0.8cm}\noindent「そう」などのソ系の副詞形態指示詞の場合\\\{(前文\,$30$)\}\end{indention}例文として,以下のものがある.\begin{equation}\begin{minipage}[h]{10cm}「天狗,天狗,八天狗」\\\underline{そう}歌ったのは数えてみますとそこに八匹の天狗が居たからです.\end{minipage}\label{eqn:sono_utau}\end{equation}例えば,この例の「そう」の指示対象は前文の『「天狗,天狗,八天狗」』である.\subsection*{\underline{ソ系の副詞形態指示詞が文内後方照応をする場合の規則}}\noindent{\bf列挙判定規則10}\begin{indention}{0.8cm}\noindent「そう/そうして/そのように」の場合で,それらが存在する文が逆接の接続助詞か助動詞「ように」を持つ従属節である場合\{(主節\,$45$)\}\\この規則は\cite{matsuoka_nl}の方法を利用したものである.\end{indention}\subsection*{\underline{コ系の副詞形態指示詞が前文を指示する場合の規則}}\noindent{\bf列挙判定規則11}\begin{indention}{0.8cm}\noindent「こう」などのコ系の副詞形態指示詞の場合\\\{(前文\,$25$)\}\end{indention}\vspace{0.5cm}\subsection*{\underline{コ系の副詞形態指示詞が後ろの文を指示する場合の規則}}\noindent{\bf列挙判定規則12}\begin{indention}{0.8cm}\noindentコ系の副詞形態指示詞の解析の場合\\\{(後の文\,$26$)\}\end{indention}\vspace{0.5cm}コ系の副詞形態指示詞については次の文を指示対象とする後方照応をする場合がある.\begin{equation}\begin{minipage}[h]{10cm}天狗達は暫くおじいさんを見ていましたが,天狗達はとうとう\underline{こう}言いました.\\「今日のお前は駄目だな.\\どうして昨日の様に歌ったり,昨日の様に踊ったりできないのだ.\\さあ,これを返してやるから家へ帰ってしまえ.」\end{minipage}\label{eqn:kou_iu}\end{equation}上の例の「こう」の指示対象は次の文以降の発話である.前方照応となる場合は文の形が「こうして」「こうすれば」などのように典型的な形になるのでこのような場合は前方照応とし,これら以外の場合を後方照応とみなす.このための規則として次の規則を作成した.\vspace{0.5cm}\noindent{\bf列挙判定規則13}\begin{indention}{0.8cm}\noindent「こう/こんなふうに」+条件節もしくは「こうして」の場合で,文末でない場合\\\{(前文\,$7$)\}\end{indention} \section{代名詞の指示対象を推定するための規則} \label{sec:pro_ana}\noindent{\bf列挙判定規則1}\begin{indention}{0.8cm}\noindent一人称の代名詞の場合\{(一人称\,$25$)\}\end{indention}\vspace{0.5cm}\noindent{\bf列挙判定規則2}\begin{indention}{0.8cm}\noindent二人称の代名詞の場合\{(二人称\,$25$)\}\end{indention}\vspace{0.5cm}一人称,二人称の代名詞はほとんど会話文章中にあらわれ,会話文章中の一人称(話し手),二人称(聞き手)をあらかじめ推定しておくことで,ほぼ確実に推定することができる.会話文章の話し手や聞き手の推定は,その会話文章の発話動作を表す用言のガ格とニ格をそれぞれ話し手,聞き手とすることによって行なう.会話文章の発話動作を表す用言は,その会話文章に「と言った.」などがつけばそれとし,そうでない場合は前文の文末の用言とする\footnote{実際にはこのような方法では発話動作を表す用言の推定を誤ることがあるが,本論文で用いたテキストではこの方法ですべて正しく解析できた.}.例えば,次の文章中の二人称の代名詞「お前さん」の指示対象は,この会話文の二人称の「おじいさん」である.\begin{equation}\begin{minipage}[h]{10cm}「明日,また(おじいさんが)参りますよ.」とおじいさんは約束しました.\\「もちろん,\underline{お前さん}を(一匹の天狗が)疑う訳ではないのだが」と,一匹の天狗が\underline{おじいさんに}言いました.\end{minipage}\label{eqn:ojiisan_mairu_omae}\end{equation}この会話文の二人称が「おじいさん」であることは,その会話文の発話動作を表す動詞「言う」のニ格が「おじいさん」であることから求まる.\vspace{0.5cm}\noindent{\bf列挙判定規則3}\begin{indention}{0.8cm}\noindent三人称の代名詞の場合\{(一人称\,$-10$)(二人称\,$-10$)\}\end{indention}\vspace{0.5cm}一般の代名詞については以下の三つの規則で解析される.列挙判定規則4により,主題・焦点と代名詞と先行詞の距離を考慮して,優先順序を持った候補群をあげ,判定規則1,判定規則2により人間である候補の得点を高くする.\begin{table}[t]\caption{人称代名詞の場合に与える得点}\label{tab:ninshoudaimeisi_ruijido}\begin{center}\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|}\hline類似レベル&0&1&2&3&4&5&6&一致\\\hline得点&0&0&3&7&10&10&10&10\\\hline\end{tabular}\end{center}\end{table}\vspace{0.5cm}\noindent{\bf列挙判定規則4}\begin{indention}{0.8cm}\noindent代名詞の場合\\\{(同一文中か前文の重みが$w$で主題と焦点を合わせて数えて$n$個前の主題\,$w-n-2$)\\(同一文中か前文の重みが$w$で主題と焦点を合わせて数えて$n$個前の焦点\,$w-n+4$)\}\end{indention}\vspace{0.5cm}\noindent{\bf判定規則1}\begin{indention}{0.8cm}\noindent照応詞が代名詞の場合で,指示対象の候補となった名詞が意味素性HUMを満足する時,$10$点を与える.\end{indention}\vspace{0.5cm}\noindent{\bf判定規則2}\begin{indention}{0.8cm}\noindent照応詞が代名詞の場合で,指示対象の候補となった名詞の分類語彙表の分類番号と以下の人間を代表する分類語彙表の番号\{520000301052010020605202001020520200611552410021505244002100\}との類似レベルの最も大きいものにより得点を与える.得点は{表\ref{tab:ninshoudaimeisi_ruijido}}のとおりである.\end{indention} \section{ゼロ代名詞の指示対象を推定するための規則} \label{sec:zero_ana}\subsection*{\underline{一般のゼロ代名詞の指示対象の候補をあげるための規則}}\noindent{\bf列挙判定規則1}\begin{indention}{0.8cm}\noindentガ格の省略の場合のデフォルト規則\\\{(重みが$w$で$n$個前の主題\,$w-n*2$+1)\\(重みが$w$で$n$個前の焦点\,$w-n$+1)\\(今解析している節と並列の節の主格\,25)\\(今解析している節の従属節か主節の主格\,23)\\(今解析している節が埋め込み文の場合で主節の主格\,22)\}\end{indention}\newpage\vspace{0.5cm}\noindent{\bf列挙判定規則2}\begin{indention}{0.8cm}\noindentガ格以外の省略の場合のデフォルト規則\\\{(重みが$w$で$n$個前の主題\,$w-n*2-3$)\\(重みが$w$で$n$個前の焦点\,$w-n*2+1$)\}\end{indention}\vspace{0.5cm}主題・焦点の重みや指示詞と指示対象の候補の間の距離に応じて,それぞれの候補の得点が変わる.\subsection*{\underline{複文の解析のための規則}}\noindent{\bf列挙判定規則3}\begin{indention}{0.8cm}\noindent複文での主格の不一致の条件となる接続助詞「ので」「ならば」が含まれる文で,主節(もしくは従属節)のガ格が省略されていて,従属節(もしくは主節)の主格が省略されずに存在してその主格につく助詞が「が」の場合,\\\{(従属節(もしくは主節)の主格\,$-30$)\}\end{indention}\vspace{0.5cm}複文でのガ格の省略の場合,列挙判定規則1により主節か従属節に省略されていないガ格の名詞があれば,それを他方に補完することを行なう.ただし,従属節の接続助詞によっては主節と従属節の主格が一致しないということが知られており\cite{minami}\cite{yoshimoto}\cite{hirai}\cite{nakaiwa},このような接続助詞の場合は主節と従属節の主格を他方に補完するということは行なわない.列挙判定規則3は,このための規則である.\subsection*{\underline{用言との意味関係を利用した規則}}\noindent{\bf判定規則1}\begin{indention}{0.8cm}\noindent指示対象の候補となった名詞が格フレームの格要素の意味素性を満足しない時,$-5$点を与える.\end{indention}\vspace{0.5cm}\noindent{\bf判定規則2}\begin{indention}{0.8cm}\noindent指示対象の候補となった名詞と格フレームの格要素の用例の名詞との類似レベルにより得点を与える.与える得点は{表\ref{tab:yourei_ruijido}}のとおりである.\end{indention}\vspace{0.5cm}\begin{table}[t]\caption{用言との意味関係から与える得点}\label{tab:yourei_ruijido}\begin{center}\begin{tabular}[c]{|l|r|r|r|r|r|r|r|r|}\hline類似レベル&0&1&2&3&4&5&6&一致\\\hline得点&$-$10&$-$2&1&2&2.5&3&3.5&4\\\hline\end{tabular}\vspace{-0.8mm}\end{center}\end{table}\clearpageこの二つの規則はゼロ代名詞の解析においてそのゼロ代名詞を格要素にとる用言との意味的整合性を調べるための規則である.判定規則1は,意味素性により意味的整合性を調べるもので,判定規則2は,用例を利用して意味的整合性を調べるものである.意味的整合性の調べ方を図\ref{fig:datousei_hantei_rei}の例文のゼロ代名詞を例にして説明する.\begin{figure}[t]\begin{center}\fbox{\begin{minipage}[c]{8cm}\underline{おじいさん}は地面に腰を下ろしました.\\やがて(\underline{おじいさんは})眠ってしまいました.\\\begin{tabular}[c]{lll}{\bf意味素性}&HUM/ANIが&眠る.\\{\bf用例}&彼/犬が&眠る.\\\end{tabular}\end{minipage}}\caption{意味的整合性の調べ方の例}\label{fig:datousei_hantei_rei}\end{center}\end{figure}意味素性による方法では,指示対象の候補となった名詞が指示対象として妥当であるための条件は,その名詞に付けられた意味素性の一つが動詞の格フレームに記述された意味素性と同一もしくは下位の意味素性であることとする.例えば,図\ref{fig:datousei_hantei_rei}のゼロ代名詞に対しては動詞「眠る」のガ格の意味素性がHUM/ANI\footnote{HUM,ANIはそれぞれ人間(\underline{HUM}AN),動物(\underline{ANI}MAL)を表す意味素性である.``/''は``または''を表す.}であり「おじいさん」がHUMであることから,「おじいさん」は指示対象として妥当とする.また,用例による判定方法では,指示対象の候補となった名詞と,動詞の格フレームに記述された名詞の用例とが意味的に類似していればその類似度に応じてその名詞は指示対象として妥当であるとする.例えば,図\ref{fig:datousei_hantei_rei}の省略部分に対しては動詞「眠る」のガ格の用例が「彼/犬」であり「おじいさん」と「彼」が意味的に近いことから「おじいさん」は指示対象として妥当とする.この用言との意味関係を用いた判定方法は,指示詞や代名詞の指示対象の推定にも用いた.\subsection*{\underline{同一用言の複数の格要素に同じ要素が入りにくいという性質を利用した規則}}\noindent{\bf列挙判定規則4}\begin{indention}{0.8cm}\noindent今求める省略要素を格要素に持つ用言の他の格要素に名詞Aがすでに入っている場合,\{(名詞A\,$-20$)\}\end{indention}\subsection*{\underline{視点を利用した規則}}\noindent{\bf列挙判定規則5}\begin{indention}{0.8cm}\noindent「くれる」「くださる」が補助動詞としてつく用言のガ格の省略の場合でニ格に省略がある場合はニ格を先に解析し,ガ格の省略に対しては\{(省略部分を埋めない\,$-5$)\}\\この規則は視点の理論\cite{kameyama1}を利用したものである.「くれる」「くださる」が補助動詞としてつく用言の場合は,共感度の高いニ格の解析を先に行なうことによって主題などの共感度の高い名詞がニ格の格要素に入り,残ったものがガ格の格要素に入ることになる.\end{indention}\subsection*{\underline{会話文章中のゼロ代名詞のための規則}}\noindent{\bf列挙判定規則6}\begin{indention}{0.8cm}\noindent会話文章中で「やる」「したい」「行く」などの一人称がガ格に入りやすい用言のガ格の省略の場合,\{(一人称\,$5$)\}\end{indention}\vspace{0.5cm}\noindent{\bf列挙判定規則7}\begin{indention}{0.8cm}\noindent会話文章中で「くれる」「なさる」「来る」などの二人称がガ格に入りやすい用言か命令表現か疑問表現を文末に持つ文中のガ格の省略の場合,\{(一人称\,$-30$)(二人称\,$25$)\}\end{indention}\vspace{0.5cm}\noindent{\bf列挙判定規則8}\begin{indention}{0.8cm}\noindent会話文章中のガ格の省略の場合,\{(一人称\,$15$)\}\end{indention}\vspace{0.5cm}会話文章中でのゼロ代名詞の解析では,文末表現などからその動詞の省略された格要素の指示対象に入るべき人称を推定できる場合がある.このような場合は,その会話文章の一人称と二人称を推定することで代名詞と同様に会話文章中でのゼロ代名詞の解析を行なうことができる\footnote{工藤\cite{kudou93_ieice}は文末表現から対話コーパス中のゼロ代名詞の人称を推定しているが,本研究は物語文内の会話文章を対象としており,各発話文の話し手と聞き手を推定する必要があるという点で異なる.}.例えば,次の会話文は,「言う」のガ格とニ格から一人称は「天狗達」で二人称は「おじいさん」である.\begin{equation}\begin{minipage}[h]{10cm}天狗達はとうとうこうおじいさんに言いました.\\「今日のお前は駄目だな.\\さあ,これを\underline{(天狗達が)}\underline{(おじいさんに)}返してやるから家へ\underline{(おじいさんが)}帰ってしまえ.」\end{minipage}\label{eqn:ojiisan_omae_dame}\end{equation}「返してやる」のガ格の省略部分の指示対象は,「返してやる」に補助動詞「やる」がついていることから一人称の「天狗達」であることがわかる.「返してやる」のニ格の省略部分の指示対象も,補助動詞「やる」から二人称の「おじいさん」と判定できる.「帰ってしまえ」のガ格の省略部分の指示対象は,命令表現から二人称の「おじいさん」と判定できる.\subsection*{\underline{その他の規則}}\noindent{\bf列挙判定規則9}\begin{indention}{0.8cm}\noindent「AをBだと言う/思う」における「Bだ」のガ格の省略の場合,\{(名詞A\,$50$)\}\end{indention}\begin{figure}[t]\begin{center}\fbox{\begin{minipage}[h]{12.5cm}\smallskipドル相場は,米新政権の経済政策に対する期待の高まりなどから130円台に上昇した.\underline{このドル高}は,米国と欧州各国との間の政策協調をぎくしゃくさせている.\vspace{0.5cm}\begin{tabular}[h]{|l|r|r|r|r|r|}\hline規則&\multicolumn{5}{|c|}{各候補の得点(点)}\\\hline&前文&個体を導入&130円台&高まり&ドル相場\\\hline列挙判定規則2&15&&&&\\[-0.1cm]列挙判定規則5&&10&&&\\[-0.1cm]列挙判定規則1&&&17&15&15\\[-0.1cm]判定規則6&&&$-30$&$-30$&$-30$\\\hline合計&15&10&$-13$&$-15$&$-15$\\\hline\end{tabular}\smallskip\end{minipage}}\caption{指示詞「この」の指示対象の推定例}\label{tab:dousarei}\end{center}\end{figure} \section{実験と考察} \label{sec:jikken}\subsection{実験}指示対象の推定を行なう前に構文解析・格解析を行なうが,その際の誤りは人手で修正した.格フレームはIPALの辞書のものを用いたが,IPALの辞書にない用言に対しては人手で格フレームを作成した.指示詞「この」の指示対象を推定した例を図\ref{tab:dousarei}に示す.これは図中の下線部の「このドル高」の指示対象を前文全体を指すと正しく解析したことを示している.これを以下に説明する.まず,\ref{sec:sijisi_ana}節で示した指示詞の列挙判定規則2により前文を指示対象とする「前文」という候補があげられ,それに15点が与えられる.また,列挙判定規則5により「個体を導入」という候補があげられ,それに10点が与えられる.さらに,列挙判定規則1により,主題と焦点から「130円台」「高まり」「ドル相場」という候補があげられ,これらの候補にはそれぞれ17,15,15点の得点が与えられる.これらの候補に対して判定規則6を適用してみる.判定規則6は「(名詞A)の(名詞B)」の用例を利用する規則であり,この場合は「(名詞A)のドル高」という用例を利用する.この用例の「(名詞A)」の部分に来る名詞はEDRの共起辞書では「最近」しかなく,この「最近」との分類語彙表での類似レベルは「130円台」「高まり」「ドル相場」ともに低く,それぞれには表\ref{tab:akei_meishi_anob_ruijido}より$-30$点が与えられる.「前文」と「特定指示として導入」は名詞でないので,この判定規則により得点を与えられることはない.この結果,合計点の最も高い「前文」という候補が指示対象と正しく推定される.\begin{table*}[t]\caption{本研究の実験結果}\label{tab:sougoukekka}\fbox{\begin{minipage}[h]{14cm}\smallskip\begin{center}\begin{tabular}[c]{|l|r|r@{}c|r@{}c|r@{}c|r@{}c|}\hline\multicolumn{1}{|p{2cm}|}{テキスト}&\multicolumn{1}{|l|}{文数}&\multicolumn{2}{c|}{指示詞}&\multicolumn{2}{c|}{代名詞}&\multicolumn{2}{c|}{ゼロ代名詞}&\multicolumn{2}{c|}{合計}\\\hline学習サンプル&204&87\%&(41/47)&100\%&(9/9)&86\%&(177/205)&87\%&(227/261)\\\hlineテストサンプル&184&86\%&(42/49)&82\%&(9/11)&76\%&(159/208)&78\%&(210/268)\\\hline\end{tabular}\end{center}各規則で与える得点は学習サンプルにおいて人手で調節した.学習サンプルは,例文(43文),童話「こぶとりじいさん」全文(93文)\cite{kobu},天声人語一日分(26文),社説半日分(26文),サイエンス(16文)であり,テストサンプルは,童話「つるのおんがえし」前から91文抜粋\cite{kobu},天声人語二日分(50文),社説半日分(30文),サイエンス(13文)である.\end{minipage}}\end{table*}\begin{table*}[t]\begin{center}\caption{指示詞の実験結果の内訳}\label{tab:sijisi_kekka}\begin{tabular}[c]{|l|r|r@{}c|r@{}c|r@{}c|r@{}c|}\hline\multicolumn{1}{|p{2cm}|}{テキスト}&\multicolumn{1}{|l|}{文数}&\multicolumn{2}{c|}{名詞形態}&\multicolumn{2}{c|}{連体詞形態}&\multicolumn{2}{c|}{副詞形態}&\multicolumn{2}{c|}{すべての指示詞}\\\hline学習サンプル&204&83\%&(15/18)&86\%&(19/22)&100\%&(7/7)&87\%&(41/47)\\\hlineテストサンプル&184&82\%&(14/17)&88\%&(23/26)&83\%&(5/6)&86\%&(42/49)\\\hline\end{tabular}\end{center}\end{table*}本研究による方法で指示詞,代名詞,ゼロ代名詞の指示対象を解析した実験結果を表\ref{tab:sougoukekka}に示す.また,指示詞の実験結果について名詞形態,連体詞形態,副詞形態指示詞の内訳を表\ref{tab:sijisi_kekka}に示す.指示詞の解析において,指示対象が文になる場合で,前の数文もしくは後ろの数文が指示対象となる場合は,その範囲まで推定できなくても,指示対象が前方の文か後方の文かの判定を行なうことができれば正解とした.これは指示対象の範囲の推定は,原因--結果,例提示などの文の間の関係を解析した後でするべきであると考えるためである.また,ゼロ代名詞の解析精度は指示対象が存在するか否かがあらかじめわかっていると仮定して解析した時の精度である.\subsection{考察}指示詞については,正解率はテストサンプルにおいても80\%を越えたので,本システムで用いた規則は有効であることがわかる.しかし,指示詞は種類が多いのでより詳細に規則を作成することでさらに高精度に解析できる可能性がある.また,本研究では「この」が代行指示になりにくいという性質を利用したが,これを利用したために正しく解析できた例が4例あった.代名詞については,今回の実験テキストにおいて一人称と二人称の代名詞しか出現しなかったので,その代名詞が存在する会話文の一人称と二人称を推定することでほぼ正確に推定できた.代名詞の解析において誤った主な原因は,「言う」のニ格のゼロ代名詞の解析を誤り会話文の二人称の推定を誤ったためであった.ゼロ代名詞の解析誤りとしては,分類語彙表,意味素性辞書,格フレーム辞書に誤りがあるために誤ったものや,統語構造や補助表現から指示対象が推測できるのに規則が不十分なために誤ったものがあった.また,理解や推論が必要なために誤ったものとして次のものがあった.\begin{equation}\begin{minipage}[h]{10cm}そんな状況なのに,ワシントンで開かれる主要先進7カ国の蔵相中央銀行総裁会議(G7)について各国の通貨当局は「大きな問題はないので共同コミュニケは出ない.顔合わせ中心の会合だ」と,まるで会議の意義を薄めようとしているような言い方だ.\\(中略)\\米新政権は近く,財政赤字削減の具体的構想を議会に示す予定である.\\(段落替え)\\\underline{(通貨当局が)}共同コミュニケの発表を控えるのは,為替市場に過大な期待を与えたくないためだろう.\end{minipage}\label{eqn:data_bgh_notamae}\end{equation}この例の「控える」のガ格の省略部分の指示対象は「各国の通貨当局」である.しかし,システムは「米新政権」を誤って指示対象と解析した.この指示対象を正しく解析できるようにするためには,そこまでの文章から共同コミュニケの発表を控えるものが通貨当局であることを理解しておく必要がある.\subsection{対照実験}\label{sec:taishojikken}\begin{table*}[t]\caption{意味素性と用例の対照実験の結果}\begin{center}\label{tab:yourei_taishou}\begin{tabular}[c]{|@{}l@{}|@{}r@{}c@{}|@{}r@{}c@{}|@{}r@{}c@{}|@{}r@{}c@{}|@{}r@{}c@{}|}\hline\multicolumn{1}{|c|}{テキスト}&\multicolumn{2}{@{}p{2cm}@{}|}{用例と意味素性の両方を用いる}&\multicolumn{2}{@{}p{2cm}@{}|}{意味素性のみを用いる}&\multicolumn{2}{@{}p{2cm}@{}|}{用例のみを用いる(分類語彙表の分類番号の変更)}&\multicolumn{2}{@{}p{2cm}@{}|}{用例のみを用いる(分類語彙表の分類番号のまま)}&\multicolumn{2}{@{}p{2cm}@{}|}{意味素性と用例の両方を用いない}\\\hline\multicolumn{11}{|c|}{指示詞}\\\hline学習サンプル&87\%&(41/47)&83\%&(39/47)&87\%&(41/47)&83\%&(39/47)&79\%&(37/47)\\\hlineテストサンプル&86\%&(42/49)&88\%&(43/49)&88\%&(43/49)&84\%&(41/49)&86\%&(42/49)\\\hline\multicolumn{11}{|c|}{代名詞}\\\hline学習サンプル&100\%&(9/9)&100\%&(9/9)&100\%&(9/9)&100\%&(9/9)&89\%&(8/9)\\\hlineテストサンプル&82\%&(9/11)&64\%&(7/11)&82\%&(9/11)&55\%&(6/11)&64\%&(7/11)\\\hline\multicolumn{11}{|c|}{ゼロ代名詞}\\\hline学習サンプル&86\%&(177/205)&83\%&(171/205)&86\%&(176/205)&82\%&(169/205)&66\%&(135/205)\\\hlineテストサンプル&76\%&(159/208)&76\%&(158/208)&79\%&(164/208)&75\%&(155/208)&63\%&(131/208)\\\hline\end{tabular}\end{center}\end{table*}指示詞と代名詞とゼロ代名詞の解析において判定規則として用例を用いる規則と意味素性を用いる規則とを用いるが,これらの有効性を調べるために表\ref{tab:yourei_taishou}にあげる対照実験を行なった.ここでいう用例を用いる規則は指示詞の判定規則2,4,代名詞の判定規則2およびゼロ代名詞の判定規則2とそれに対応する指示詞・代名詞の判定規則を意味する.また,意味素性を用いる規則は指示詞の判定規則1,3,代名詞の判定規則1およびゼロ代名詞の判定規則1とそれに対応する指示詞・代名詞の判定規則を意味する.「名詞Aの名詞B」の用例を用いる規則には対応する意味素性を用いる規則がないので,この対照実験ではすべての場合でこの規則を用いた.推定精度は表\ref{tab:yourei_taishou}のように用例を用いる方法と意味素性を用いる方法とは同程度であった.このことにより,意味素性と同様に用例を用いることができることがわかった.また,分類語彙表においては分類番号の付け方が意味的に妥当でないところがあったため分類番号を変更したが,分類番号を変更したものの方が分類語彙表の分類番号のままのものより精度が良く,妥当な変更であることが確認できた.実験結果を考察すると用例による方法では格フレームの記述から外れた表現に対しても有効な場合があった.例えば,「言う」のニ格には人間しか入らないように格フレームに書いてあるので,意味素性による方法では次の例のニ格の省略部分には鶴を補うことができない.\begin{equation}\begin{minipage}[h]{10cm}おじいさんは鶴をはなしてやりながら(鶴に)言いました.\end{minipage}\label{eqn:turu_hanasu}\end{equation}しかし,用例による方法では人間と動物は表\ref{tab:bunrui_code_change}により類似レベルが1で減点が小さく鶴をニ格に補うことができる.\subsection{各規則の貢献度}本研究では様々な規則を使用したが,それぞれの規則の正解への貢献度の考察を行なった.ゼロ代名詞の解析では表層の手がかりが少ないので,動詞との意味的整合性の情報が重要になる.一方,指示詞の場合は,表層の手がかりが多く,また,指示詞であるということから人を指しにくいとわかり,動詞との意味的整合性の情報はあまり重要でなくなる.また,指示詞は,それぞれ詳細に規則化する必要があり,すべての規則が必須かつ重要である.一人称,二人称の代名詞は話し手と聞き手を把握して解析する規則が有効である.また,会話文章において話し手と聞き手を把握することで代名詞やゼロ代名詞の指示対象を推定する規則を作成していたが,これらの規則は会話文章がよく現れる童話で有効であった. \section{おわりに} \label{sec:owari}本論文では指示詞・代名詞・ゼロ代名詞の指示対象を推定するために既存の手法の整理,および,新しい手法の提案を行なった.その結果を用いて実際に解析を行なったところ,指示詞・代名詞・ゼロ代名詞の指示対象を学習サンプルにおいて87\%の正解率で,テストサンプルにおいて78\%の正解率で,推定することができた.また,対照実験を通じて意味的制約として意味素性と同様に用例を用いることができることがわかった.\acknowledgment本研究において有意義な議論をいただいた黒橋禎夫氏に感謝いたします.最後に、本研究および実験に関して援助して下さった松岡正男氏をはじめとする長尾研究室の皆様に感謝します。\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{村田真樹}{1993年京都大学工学部電気工学第二学科卒業.1995年同大学院修士課程修了.同年,同大学院博士課程進学,現在に至る.自然言語処理,機械翻訳の研究に従事.}\bioauthor{長尾真}{1959年京都大学工学部電子工学科卒業.工学博士.京都大学工学部助手,助教授を経て,1973年より京都大学工学部教授.国立民族学博物館教授を兼任(1976.2〜1994.3).京都大学大型計算機センター長(1986.4--1990.3),日本認知科学会会長(1989.1--1990.12),パターン認識国際学会副会長(1982--1984),日本機械翻訳協会初代会長(1991.3--1996.6),機械翻訳国際連盟初代会長(1991.7--1993.7).電子情報通信学会副会長(1993.5--1995.4).情報処理学会副会長(1994.5--1996.4).京都大学附属図書館長(1995--).パターン認識,画像処理,機械翻訳,自然言語処理等の分野を並行して研究.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V20N02-07
\section{はじめに} \label{sec:introduction}文字による記述だけでなく,画像も付与された辞書は,教育分野\cite{Popescu:Millet:etc:2006}や言語\linebreak横断検索\cite{Hayashi:Bora:Nagata:2012j}での利用,子供や異なる言語の話者\cite{Suwa:Miyabe:Yoshino:2012j},文字の認識に困難を\linebreak伴うような人とのコミュニケーションを助けるツール\cite{Mihalcea:Leong:2008,Goldberg:Rosin:Zhu:Dyer:2009}の構築に使うことができるなど,様々な潜在的な可能性を持っている.そのため,本稿では,できるだけ広範な語義に対して画像が付与された辞書を構築することを第一目標とする.辞書やシソーラスに画像を付与する研究はこれまでにもいくつか存在する.特に,見出し語を含む検索語を用いて画像検索を行ない,インターネットから画像を獲得する研究は複数存在する.\PN\cite{PicNet}や\IN\cite{ImageNet}といったプロジェクトでは,\WN{}\cite{_Fellbaum:1998}のsynsetに対し,画像検索で獲得した候補画像の中から適切な画像を人手で選択して付与している.\PN{}や\IN{}では,近年発達してきたAmazonMechanicalTurkサービス\footnote{http://www.mturk.com/}を始めとする,データ作成を行なう参加者をインターネット上で募り,大量のデータに対して人手でタグを付与する仕組みを用いて大量の画像の収集とタグ付けを行なっている.これらの手法は,大量のデータを精度良く集めることができるため有望である.しかし,現在は対象synsetが限定されているため,辞書全体に対するカバー率や,多義語の複数語義に対する網羅性には疑問が残る\footnote{\IN{}の場合,HP(http://www.image-net.org/)によると,2010年4月30日時点で,\WN{}の約100,000synsetsのうち,21,841synsetには画像が付与されているとしている.多義性に関する報告はない.}.また,\PN{}や\IN{}では,上位語や同義語にあたる語で検索語を拡張して用いているが,どのような語による拡張がより有効かといった調査は報告されていない.また,\IO{}\cite{Popescu:Millet:etc:2006,Popescu:Millet:etc:2007,Zinger:Millet:etc:2006}でも,\WN{}のsynsetに対してインターネットから獲得した画像を付与している.\IO{}では,不適切な画像を取り除くために,人の顔が含まれるかどうかによる自動的フィルタリングや,画素情報による分類などを用いている.この手法は,自動的に大量のデータを集めることができるため有望である.しかし,\PN{}や\IN{}と同様,現在は対象synsetが具体物などに限定されているため,辞書全体に対するカバー率や,多義語の複数語義に対する網羅性には疑問が残る\footnote{\cite{Popescu:Millet:etc:2007}は実験対象を\WN{}の\textit{placental}配下の1,113synsetsに限定しており,多義性に関する報告はない.}.一方,語の多義性に着目し,多義のある語に対しても語義毎に適切な画像を付与する研究として,\cite{Bond:Isahara:Fujita:Uchimoto:Kuribayashi:Kanzaki:2009}や\cite{Fujii:Ishikawa:2005a}がある.\cite{Bond:Isahara:Fujita:Uchimoto:Kuribayashi:Kanzaki:2009}では,日本語\WN\footnote{http://nlpwww.nict.go.jp/wn-ja/}のsynsetに対し,OpenClipArtLibrary(\OCAL)\footnote{http://openclipart.org/}から獲得した画像を付与している.彼らは,\OCAL{}と\WN{}の階層構造を比較し,両方の上位階層で同じ語が出現する画像のみを候補として残すことで,多義性に対応している.さらに,候補の画像の中から各synsetの画像として適切な画像を人手で選択している.\OCAL{}は著作権フリーで再配布可能という利点があるが,含まれる画像が限られるため,画像を付与できる語義も限られている.\cite{Fujii:Ishikawa:2005a}では,インターネットから収集した画像を事典検索システム\CL\footnote{http://cyclone.cl.cs.titech.ac.jp/}における語義と対応付ける実験を行なっている.彼らは,辞書の見出し語を検索語として用い,インターネットから候補となる画像とそのリンク元テキストを収集し,テキストの曖昧性解消をおこなうことによって,画像の意味を推定している.これは,多義性に対応できる手法であるが,出現頻度の低い語義の画像収集は困難だという問題がある.なぜなら,見出し語のみを検索語としてインターネット検索を行なった場合,得られる画像のほとんどは,最も出現頻度の高い語義に関連する画像になるからである.例えば,「アーチ」という語には,“上部を弓の形にして支えやすくした建物.”や,“野球で,本塁打.”などの語義があるが,見出し語である「アーチ」を検索語とした場合に得られた画像のうち,上位500画像には後者の語義に対応する画像はない\footnote{Google画像検索の結果(2009年12月実施)}.本稿の第一目標は,できるだけ広範な語義に対して画像が付与された辞書を構築することである.本稿では,基本語データベース\lxd{}\cite{Amano:Kobayashi:2008j}の内容語(一般名詞,サ変名詞,動詞,形容詞類,副詞類)を対象に画像付与を試みる.幅広い語義に画像を付与するため,インターネットから画像検索によって画像を獲得する.また,多義性のある語にも語義毎に適切な画像を付与するため,語義毎に検索語セットを用意する.第二の目標は,画像検索を行なう時に重要な問題である検索語の設定方法についての知見を得ることである.本稿では,作業者が対象語義に画像が付与できるかどうかという判断を行なった後,用意した検索語セットの中から適切な検索語セットを選択・修正して画像検索に用いる.最終的に利用された検索語セットを分析することで知見を得たい.第三の目標は,提案する検索語セットの優先順位,特に,最も優先順位が高い検索語セットをデフォルトの検索語セットとして利用することの妥当性を示すことである.今後の作成・維持コストや,新しい辞書への適用を考えると,人手による画像付与ができない場合でも,優先順位の高い検索語セットによる検索結果が利用できれば,有用だと考えられるからである.以降,\ref{sec:resource}章では画像付与の対象である\lxd{}について紹介する.\ref{sec:make-query}章では,まず,200語義を対象として行なった予備実験\cite{Fujita:Nagata:2010}を紹介する(\refsec{sec:pre-exp}).その結果を踏まえた上で,画像検索に用いる検索語セットの作成方法を紹介し(\refsec{sec:queryset}),検索語セットの優先順位の決定方法を提案する(\refsec{sec:query-order}).\ref{sec:all-lxd-exp}章では,作成した検索語セットを用いた画像獲得方法,および,評価方法について述べる.\ref{sec:ana-rand-best}章では,第三の目標である提案した優先順位の決定方法の妥当性を示す.\ref{sec:all-lxd-analysis}章では,第二の目標である最終的に利用された検索語に関する分析と,改良点の調査を行なう.ここまでの実験で,第一の目標である\lxd{}の広範な語義に対する画像付与を行ない,\ref{sec:ana-cannot}章では,構築した辞書を用いて画像付与可能/不可能な語義について,意味クラスや品詞などの特徴から分析を行なう.最後に,\ref{sec:conclusion}章で本稿の実験と分析をまとめる. \section{言語資源} \label{sec:resource}\subsection{言語資源の概要}\label{sec:lexeed}本章では,用いる言語資源についての概略を説明する.画像付与対象の辞書である\lxd{}と,関連する言語資源から得られる情報の例を図~\ref{fig:arch-lxd}にまとめて提示する.\begin{figure}[t]\input{07figure01.txt}\vspace{0.5zw}\small但し,下付き文字で表される番号は語義番号を示している.\par\caption{\lxdと\hkの例:アーチ}\label{fig:arch-lxd}\end{figure}\subsubsection{基本語データベース:語義別単語親密度(Lexeed)}本稿では,「基本語データベース:語義別単語親密度」(\lxd{})を画像付与の対象とする.\lxd{}は,心理実験により,対象語の日本人の成人にとっての平均的な馴染み深さを「親密度」として測定し,日本人の95\%以上が知っていると推定される語を基本語として収録したものである.収録語数は約29,000語である.各語は平均1.7語義からなり,語義数では約48,000語義収録されている.各エントリは,見出し語,読み,品詞,見出し語の親密度,および,語義毎の親密度,定義文と例文から構成される.ここで,見出し語には,複数の表記が含まれる場合がある.それらは代表的な表記(以下,代表表記)とそれ以外(以下,表記ゆれ)に分けられている.例えば,「たまねぎ」の場合,見出し語には「たまねぎ」「玉葱」が含まれるが,「たまねぎ」が代表表記,「玉葱」は表記ゆれになっている.代表表記は,必ず一つ以上記載されているが,表記ゆれは,全エントリに記載されているわけではない.なお,語義は,「アーチ$_1$」のように下付き文字で語義番号を付与した形で示す.\subsubsection{檜オントロジと檜センスバンク}\lxd{}の各エントリには,「檜」プロジェクトにより様々な付加情報が付与されている.「檜」プロジェクトでは,\lxd{}を用いたセンスバンクやツリーバンクの構築\cite{Bond:Fujita:Tanaka:2006},語義文からの半自動的なオントロジ構築\cite{Bond:Nichols:Fujita:Tanaka:2004},日本語語彙大系\cite{GoiTaikeij}や\WN{}などの既存言語資源とのリンク構築\cite{Nichols:Bond:Tanaka:Fujita:Flickinger:2006}などが行なわれた.本稿では,「檜」プロジェクトで構築された檜オントロジ,檜センスバンク,日本語語彙大系の一般名詞カテゴリ(以下,意味クラス)とのリンクから得られる情報を用いる.檜オントロジは,\lxd{}の定義文の構文解析結果とルールにより,見出し語に対する上位語や同義語,分野情報などを抽出したものである(図~\ref{fig:arch-lxd}の\ul{下線部}).檜センスバンクは,\lxd{}の語義を付与したコーパスである.\lxd{}の語義文と例文,京都大学テキストコーパス\footnote{http://www-lab25.kuee.kyoto-u.ac.jp/nl-resource/corpus.html},Senseval-2日本語辞書タスク\cite{Shirai:2003j}の訓練データ等,約194,000文が含まれ,その内容語のうち約1,403,000語に語義が付与されている.日本語語彙大系は深さ0から11までの階層構造をもつシソーラスである.意味クラスは,2,710個存在し,各意味クラスには,固有の番号とクラス名が付与されている.番号は深さ優先で振られており,例えば,3から999番までの意味クラスはすべて\izs{2:具体}の配下であり,具体的な事物を表すことを示している.また,1000以上の番号を持つ意味クラスはすべて\izs{1000:抽象}の配下であり,抽象的な事物を表すことを示している.なお,意味クラス同士の関係の97.9\%はis-a関係\footnote{is-a関係とは,包含関係を示している.例えば,\izs{531:星}isa\izs{527:天体}など.}残りの2.1\%はhas-a関係\footnote{has-a関係とは,全体部分関係を示している.例えば,\izs{0555:顔}hasa\izs{0571:耳}など.}である.\subsection{画像付与実験対象語}\label{sec:all-lxd-target}\lxd{}の内容語(一般名詞,サ変名詞,動詞,形容詞類,副詞類)のエントリを画像付与実験の対象とした.ただし,檜オントロジ構築時と出版時のバージョンの違いにより檜オントロジや意味クラス等の付加情報が付与されていないエントリは,これらの情報との関係分析が行なえないため対象外とした.その結果,画像付与実験の対象語は,25,481語,39,251語義となった.\lxd{}出版版の収録語のうち内容語は,27,787語,47,106語義であるため,今回の対象語により,語単位で91.7\%,語義単位で83.3\%をカバーすることになる.\begin{table}[b]\caption{対象語数と品詞内訳}\label{tb:lxd-all-target}\input{07table01.txt}\end{table}表~\ref{tb:lxd-all-target}に,対象語全体の数を品詞毎に示す.ただし,名詞は,すべての語義が\izs{1000:抽象}配下,すべての語義が\izs{2:具体}配下,\izs{1000:抽象}配下と\izs{2:具体}配下の両方含む,および,サ変名詞に分割し,それらの小計も表示している.ここで,\izs{2:具体}配下かどうか等は,\lxd{}の各語義にリンクされた意味クラスで分類している.例えば,図~\ref{fig:arch-lxd}の「アーチ$_1$」には意味クラス\izs{865:家屋(本体)}と\izs{2435:類型}が付与されており,それぞれ\izs{2:具体}配下と\izs{1000:抽象}配下にあるため,両方含む,と分類される. \section{検索語の拡張} \label{sec:make-query}\subsection{画像付与予備実験の概要(\ano)}\label{sec:pre-exp}辞書の語義毎に適切な画像をWebから獲得する方法を提案した予備実験について紹介する.予備実験では,\lxd(図~\ref{fig:arch-lxd})と\wpd{}という,非常に傾向の異なる2種類の辞書を対象としているが,本章では,\lxdを対象とした実験について紹介する.\ref{sec:introduction}章で述べたように,見出し語(代表表記)のみで画像検索した場合,最もメジャーな語義の画像しか得られないことが多く,複数の語義に適切な画像を獲得することは難しい.そこで予備実験では,語義毎に適切な画像を得るため,あらかじめ検索語を語義毎に拡張し,その効果を評価した.予備実験で検索語として利用したのは,次の4通りである.\\(1)代表表記のみ(\bl),(2)代表表記と同義語類(\syn),(3)代表表記と上位語等(\hyp),(4)基本的に代表表記のみ利用するが,代表表記がひらがなの場合のみ表記ゆれも利用(\mono)\footnote{例えば,「たまねぎ」の場合,表記揺れである「玉葱」も利用する.}.また,具体物かどうか,単義語か多義語か,によって傾向と難しさが異なると考えられるため,\lxd{}の対象語義を次の4つのタイプに分類した.``具体物で単義語'',``具体物で多義語'',``具体物以外で単義語'',``具体物以外で多義語''である.本稿と同様,\izs{2:具体}配下の意味クラスだけが付与されている場合を具体物とした.対象語義は,各タイプからランダムに50語義ずつ選択,合計200語義について,適切な画像を付与できるかどうか,また,どの検索語がより良い画像を得るのに有効かを調べた.\subsubsection{予備実験結果の概要}\label{sec:pre-exp-conclusion}予備実験では,\bl{},\syn{},\hyp{},\mono{}のそれぞれの検索語によって獲得した画像\footnote{画像検索は,2009年9月に実施.}を人手評価した.その結果,以下のようなことがわかった.\begin{itemize}\itemいずれのタイプに対しても\syn{}の方が\hyp{}による画像より適合率が高い.つまり,同義語類の方が上位語等より適切な画像に絞る効果がある.\item検索語の拡張は特に多義語に対して効果が高い.\item逆に具体物の単義語の場合,\syn{},\hyp{}共に適合率は\bl{}より下がる.これは,単義語の具体物の場合,対象語義自体がメジャーな語義になるため,拡張するとむしろ典型的な画像が獲得できなくなるためだと考えられる.\item具体物の単義語でも,\mono{}だけは\bl{}より良くなる.つまり,ひらがな以外の語の利用は,語義を絞る上で効果がある.\item検索で得られた画像の適合率は,各タイプの語義に対して,``具体物で単義語''の場合\mono{}で87.7\%,``具体物で多義語''の場合\syn{}で69.2\%,``具体物以外で単義語''の場合\mono{}で66.7\%,``具体物以外で多義語''の場合\syn{}で66.3\%だった.\end{itemize}また,画像獲得がうまくいかなかった原因を調べた結果,以下のようなことがわかった.\begin{itemize}\item多義語でもメジャーな語義に対しては,単義語と同様拡張しないほうがよい.\item拡張に使った語の語義がマイナーだった場合,メジャーな語義の画像が得られて適合率が下がるため,マイナーな語義は拡張に使わない方がよい.\end{itemize}本稿では,こうした予備実験の結果を反映して,検索語セットの作成(\refsec{sec:queryset}),および,優先順位の決定方法を提案する(\refsec{sec:query-order}).\subsection{検索語セットの作成方法}\label{sec:queryset}\refsec{sec:pre-exp}の結果から,特に多義語の場合,複数の語義に適切な画像を獲得するためには,検索語の拡張が有効であることがわかっている.また,同義語類による拡張が,適切な画像を獲得するために有効なことがわかっている.しかし,同義語類はすべての語義で得られるわけではない.また,他の関連語の効果もより詳細に調査し,今後の改良につながる知見を得たい(第二の目標).そのため,本稿では辞書から得られるできるだけ多くの関連語から検索語セットを作成,比較する.検索語セットに利用する情報は以下の通りである.\subsubsection{見出し語:代表表記と表記ゆれ(\refsec{sec:lexeed}参照)}代表表記は,\lxd{}では必ず一つ以上記載されており,最も代表的な表記と考えられる.そこでまず,代表表記のみを用いた検索語セットを作成する(以下,$q_{代表}$).単義語の場合など,拡張しない方が良い検索結果が得られる場合が考えられるためである.また,代表表記がひらがなの場合は漢字の表記ゆれを追加し,ひらがな以外の場合は代表表記のみを用いた検索語セットを用意する(以下,$q_{基本}$).これは,予備実験の\mono{}にあたり,曖昧性を軽減するのに有効だったためである.以降の検索語セットはすべて,$q_{基本}$に1語追加して作成する.例えば,「たまねぎ」の場合,$q_{代表}$は「たまねぎ」,$q_{基本}$は「たまねぎ」「玉葱」となる.$q_{基本}$で利用しなかった表記ゆれは,同音異表記の同義語といえるため,檜オントロジの同語義と同様に扱う.なお表記ゆれは,全エントリに記載されているわけではなく,49,245エントリ中,11,083語にのみ存在した.\subsubsection{檜オントロジ(\refsec{sec:lexeed}参照)}檜オントロジでは,定義文から獲得した同義語,分野情報,上位語などの関連語を,語義ごとに抽出している.これらの関連語1語ずつを$q_{基本}$に追加することで,検索語セットを作成する(以下,$q_{関連語}$).\refsec{sec:pre-exp}の結果から,特に多義語では,関連語(特に同義語)による検索語の拡張が有効であることがわかっているが,関連語ごとに検索語セットを作成・比較することで,適切な画像を獲得するために有効な検索語の特徴を詳細に調査する.なお,関連語は檜オントロジでは語義番号を含めた語義として抽出されているが,検索語セットでは語義番号は含めず,語として利用する.表~\ref{tb:hinoki-ont-data-new}に,利用する檜オントロジの内訳を示す.\begin{table}[t]\caption{檜オントロジの内訳}\label{tb:hinoki-ont-data-new}\input{07table02.txt}\end{table}檜オントロジは,対象語義側から関連語を参照する(以下,順方向)ように構築されているが,カバー率をあげるため,本稿では逆方向の参照も行なう(以下,逆方向).例えば,「アーチ$_3$」の同義語は「ホームラン$_1$」なので,逆に「アーチ$_3$」を「ホームラン$_1$」の同義語として用いることができる.\subsubsection{定義文中,例文中の特徴的な語}定義文中,および,例文中に出現する内容語のうち特徴的な語を$q_{基本}$に追加する(以下,$q_{定義文}$,$q_{例文}$).そうした語は語義を特徴付け,適合率の高い画像を得るのに有効な可能性があると考えたためである.特徴的かどうかは,各語の\tfidf{}\cite{Tokunaga:1999j}によって決定する.\tfidf{}の計算は,式(\ref{s:tfidf})を用いる.\begin{equation}\mathit{tf}\cdot\mathit{idf}_{i,j}=\frac{n_{i,j}}{\sum_{k}^{}n_{k,j}}\times\log{\frac{D}{df_i}}\label{s:tfidf}\end{equation}ここで,$n_{i,j}$は,文$j$中で,ある語義$_i$の出現する回数,$\sum_{k}^{}n_{k,j}$は,文$j$に含まれる内容語の数,$D$は全文数,$df_i$は語義$_i$の出現する文の数を表している.\tfidf{}の計算は,定義文と例文で別個に行ない,檜オントロジですでに関係が獲得されている語を除き,最も\tfidf{}の高い語をそれぞれ検索語の拡張に利用した.例えば「アーチ」(図~\ref{fig:arch-lxd})の場合に得られる$q_{定義文}$と$q_{例文}$は表~\ref{tb:tfidf}の通りである.ここで,「アーチ$_3$」で$q_{定義文}$がないのは,定義文中の内容語がすべて,檜オントロジですでに関係が獲得されているためである.\begin{table}[t]\caption{「アーチ」(図~\ref{fig:arch-lxd})の定義文/例文から得られる検索語セット}\label{tb:tfidf}\input{07table03.txt}\end{table}\subsubsection{検索語セットに利用しない語}前述の情報を用いて検索語セットを作成するが,以下の様な語は利用しない.\begin{itemize}\item同じ見出し語の語義間で共通する語は用いない.\\語義間で共通する語では,別の語義に関連する画像が得られる可能性があるためである.例えば,「口紅$_1$」\gogi{化粧品の一種。唇に\ul{塗る}\ul{紅}。…}と,「口紅$_2$」\gogi{物の周り、特に陶磁器の周囲に赤い色を\ul{塗る}こと。また、その\ul{紅}。}の場合,「塗る」「紅」は両方の定義文に出現するため利用しない.\item低頻度語義は利用しない.\\ここで低頻度語義とは,語としては一定回数以上出現するにも関わらず,その語義としてはほとんど利用されない語義である.低頻度語義を利用すると,意図した語義ではなく,同じ見出し語のもっとメジャーな語義に関する画像が得られる可能性があるためである.本稿では,檜センスバンク全体で5回以上出現する語にも関わらず,自分自身の例文以外には利用されていない語義を低頻度語義とした.逆に,語としての出現回数が少ない場合でも,例えば100\%対象語義として利用されているような場合,意図した語義以外の画像が得られる可能性は低いため,対象外とする必要はないと判断した.\\例えば,「アイス」は檜センスバンク全体で9回出現するが,「アイス$_3$」\gogi{高利貸し$_1$.}の語義はほとんど出現しない.檜オントロジでは,「高利貸し$_1$」は,「アイス$_3$」の順方向の同義語として獲得されており,「アイス$_3$」の検索語の拡張に利用する.しかし,逆に「高利貸し$_1$」の拡張に「アイス$_3$」を利用することはない.\item見出し語側に完全に含まれる語は利用しない.\\冗長だと考えられるためである.\\例えば,「アイス$_1$」は「アイスキャンデー$_1$」の同義語だが,完全に含まれるので,利用しない.\item檜オントロジで関係が「部分全体」「分野」の場合,逆方向に参照された語は利用しない.\\同義語類とは異なり,逆方向では同じ関係にならないためである.\\例えば,「アーチ$_3$」の分野として「野球$_1$」が獲得されているが,「野球$_1$」の拡張に「アーチ$_3$」は利用しない.\end{itemize}\subsection{検索語セットの優先順位}\label{sec:query-order}\begin{figure}[b]\input{07figure02.txt}\caption{検索語セットの優先順位決定方法}\label{fig:query-order}\end{figure}\begin{table}[b]\caption{検索語セットと優先順位の例}\label{tb:query-set-arch}\input{07table04.txt}\end{table}\refsec{sec:queryset}では検索語セットの作成方法を述べた.この方法では複数の検索語セットが作られる.人手で画像付与を行なう場合,これらの検索語セットによる検索結果をすべて表示し,最も良い画像を選べば良いだろう.しかし,辞書のエントリが増えた場合や,他の辞書に画像を付与したい場合など,いつでも人手で画像付与ができるわけではない.そのため,デフォルトで利用する検索語セットを設定しておくことは重要である.そこで本稿では,予備実験(\refsec{sec:pre-exp})の結果とヒューリスティックスから,複数の検索語セットの優先順位を決定する方法を提案する(図~\ref{fig:query-order}).付与した優先順位,特に最も高い優先順位を与えたものがよかったかどうかは,後の実験で検証する.また,検索語セットと優先順位の例を表~\ref{tb:query-set-arch}に示す. \section{実験方法} \label{sec:all-lxd-exp}本章では,対象語義に適切な画像を付与する実験手順について述べる\footnote{実験は,google画像検索を利用して,2011年1月から12月にかけて実施した.}.\refsec{sec:exp-steps}では,画像付与,および,評価の手順について,\refsec{sec:exp-eva}では,画像自体の評価基準について述べる.\subsection{画像付与・優先順位の妥当性評価方法}\label{sec:exp-steps}本稿では,複数の検索語セットを用意し,それらに優先順位を付与する方法を提案した.そこでまず,第三の目標としてあげたように,付与した優先順位の妥当性を評価する.特に,自動的に画像を付与する場合,最も優先順位が高くなった検索語セット(以下,\best{})を用いて適切な画像が得られるかどうかが重要である.\begin{figure}[b]\input{07figure03.txt}\caption{評価方法:\evaR{}}\label{tb:eva-method-rand}\vspace{-1\Cvs}\end{figure}そこで,検索語セットの提示方法として2通りの方法を試し,結果を比較する.つまり,すべての検索語セットによる検索結果をランダムに表示する方法(\evaR{},図~\ref{tb:eva-method-rand})と,\best{}による検索結果を最初に表示し,その段階で高い評価の画像が十分獲得できれば,他の検索語セットは利用しない方法(\evaB{},図~\ref{tb:eva-method-best})である.いずれの方法でも,用意した検索語セットでは適切な画像が得られない場合,作業者に自由に検索語を修正してもらう(図~\ref{tb:eva-method-rand},Step2-1).なお,そもそも画像表示できない語義の場合,どのような方法であっても画像を付与できないため,そのような語義かどうかを判断する箇所も設けてある(図~\ref{tb:eva-method-rand},Step-1).\begin{figure}[b]\input{07figure04.txt}\caption{評価方法:\evaB{}}\label{tb:eva-method-best}\end{figure}\begin{figure}[b]\input{07figure05.txt}\caption{画像の適合度評価例}\label{tb:eva-ex}\end{figure}比較に用いるのは,10,500語義\footnote{10,500語義の品詞割合は,名詞(\izs{2:具体})20.5\%,名詞(\izs{1000:抽象})27.6\%,名詞(両方)15.7\%,サ変名詞13.5\%,動詞13.7\%,形容詞類4.8\%,副詞類4.3\%}ずつ,合計21,000語義であり,作業者は各語義につき一人である.画像の適合度評価(図~\ref{tb:eva-method-rand},Step3)まで含めた作業にかかる時間は,用意した検索語セットから選択する場合,1語義につき平均約3分,作業者が検索語を修正する場合,平均約4分と報告されている.\subsection{画像の適合度評価}\label{sec:exp-eva}図~\ref{tb:eva-method-rand}のStep3において,作業者には,各語義5枚の画像を選択してもらい,各画像の適合度を評価してもらった.評価値は,1--5の5段階であり,数字が大きい方が適合度が高い.なお,画像表示可能と評価された語義には,評価値3以上の画像が少なくとも1枚以上付与されるように作業している.図~\ref{tb:eva-ex}に評価例を示す. \section{優先順位の妥当性の評価} \label{sec:ana-rand-best}本章では,提案した優先順位,特に,\best{}が妥当かどうかを評価する(第三の目標).そのため,\evaR{}と\evaB{}のそれぞれの場合で最終的に選択された検索語セットの優先順位を比較する.比較のため10,500語義ずつを選び,それぞれの方法によって作業を行った.選択された検索語セットの優先順位の占める割合を図~\ref{fig:used-query-order}に示す.なお,画像表示が出来ないと判断された語義は除いて集計した.両者の対象語義は異なるので厳密な比較はできないが,各評価における対象語義の品詞割合は同じであり傾向調査としては十分な量であると考える.\begin{figure}[b]\begin{center}\includegraphics{20-2ia7f6.eps}\end{center}\smallここで,\sel{}は全拡張語候補中から作業者が検索語を選び直した場合,\added{}は作業者により検索語が追加された場合,\fixed{}は全組合せ中にない検索語が用いられた場合を示す.\vspace{0.5\Cvs}\caption{画像獲得のために利用された検索語セットの優先順位:\evaR{}と\evaB{}の比較}\label{fig:used-query-order}\end{figure}図~\ref{fig:used-query-order}から,\evaR{}でも\evaB{}でも,最も多く利用された検索語セットは,\best{},つまり,最も良いと予想した検索語セットであることがわかる.検索結果はStep-1ではランダムに表示されており,作業者には優先順位はわからないにも関わらず,利用された検索語セットの割合は優先順位の通りになっている.そのため,提案した検索語セットの優先順位は妥当だといえる.さらに,\evaB{}の場合,\best{}が利用された割合は,\evaR{}の場合より非常に高い(全体で,+23\%).これは,最初に\best{}を表示し,そこで十分な画像が獲得できれば,終了しているためである.つまり,ランダムに表示すれば,同じくらいよい結果があれば他の検索語セットを利用する可能性があるが,\best{}を先に表示することで,\best{}で十分だと判断されることが多くなっているのだと考えられる.つまり,特に,人手で画像付与ができずに自動的な検索結果を用いる場合,デフォルトの検索語セットとして\best{}を利用しておくことは妥当であるといえる. \section{検索語に関する分析} \label{sec:all-lxd-analysis}本章の目的は,最終的に利用された検索語の調査である(第二の目標).検索を行なう場合に,どのような検索語を利用すれば良いかは重要な問題である.\ref{sec:ana-rand-best}章では,提案した優先順位の決定方法の妥当性を示したが,\evaB{}の場合でも,全体の46.6\%は\best{}以外の検索語が利用されている.そこで本章では,最終的に利用された検索語をより詳細に調査し,できれば改良につながる知見を得たい(\refsec{sec:ana-query},\refsec{sec:ana-add-fixed}).また,利用された検索語を手がかりにセンスバンクや語義親密度との関係分析も行なう(\refsec{sec:judge-major}).本稿では,\ref{sec:ana-rand-best}章で比較のために\evaB{}を用いた10,500語義以外は,\evaR{}によって画像付与実験を行なっている.そこで本章では,評価方法の違いによるバイアスを避けるため,\evaR{}による画像付与実験結果を対象に,最終的に利用された検索語を分析する\footnote{ただし,すべての語義を対象として同様の分析を行なった場合でも,傾向はほぼ変わらなかった.}.\subsection{利用された検索語セット}\label{sec:ana-query}\evaR{}における評価実験で,作業者によって最終的に選択された検索語セットの内訳を図~\ref{fig:used-query}に示す.図~\ref{fig:used-query}によると,図~\ref{fig:query-order}で定義した\MONO{}と\MAJOR{}の場合,最も利用されている検索語セットは代表表記のみを用いたものであり,それぞれ44.9\%,31.3\%を占める.\MINOR{}の場合でも,12.9\%は代表表記のみが用いられている.多義語にも関わらず代表表記のみで検索されている語義は,少なくとも画像検索では最も出現頻度が高い語義であるといえるだろう.なお,代表表記のみが利用された場合の分析は\refsec{sec:judge-major}で行なう.\begin{figure}[b]\begin{minipage}{212pt}\includegraphics{20-2ia7f7.eps}\caption{画像獲得に利用された検索語セットの内訳}\label{fig:used-query}\end{minipage}\hfill\begin{minipage}{188pt}\setlength{\captionwidth}{188pt}\begin{center}\includegraphics{20-2ia7f8.eps}\end{center}\hangcaption{図~\ref{fig:used-query}の作業者による\added{},\fixed{},\sel{}で利用された検索語の内訳}\label{fig:used-query-fixed}\end{minipage}\end{figure}\MINOR{}の場合最も多いのは,人手で追加・修正・削除された検索語セットが用いられた割合であり,あわせて約59\%を占める.これは,こうした語義に適切な検索語セットを自動的に用意することの難しさを示している.\MONO{}や\MAJOR{}でも人手で追加・修正・削除された場合は多いが,それらを除くと,上位語,定義文から,同義語,例文からの情報が,よく用いられている.これらの間には,高々1--2\%程度の差分しかなく,予備実験で得られた結果のように明らかに同義語の方が良いとはいいがたい.ただし,すべての語義について同義語が獲得できているわけではないことを考慮する必要がある.つまり,同義語があれば同義語の方が良いが,ないので上位語が用いられた可能性もある.そこで,各タイプ毎に,作成された検索語セットのうち,最終的に利用された検索語セットの割合を表~\ref{tb:used-query-inall}に示す.\begin{table}[t]\caption{作成された検索語セットのうち,実際に利用されたものの割合}\label{tb:used-query-inall}\input{07table05.txt}\end{table}表~\ref{tb:used-query-inall}によると,同義語を用いて作られた検索語セットのうち,24.9\%は最終的に利用されている.また,同義語の一種である略称(正式名称への展開)や別称も利用される割合が高い.分野情報は作られた数自体が少ないが,特に\MINOR{}でよく選択されている.逆に,上位語の場合は,作られた検索語セットのうち,実際に利用されたのは8.4\%であり,同義語類に比べるとかなり低い割合である.つまり,同義語が存在する場合には,同義語は比較的利用される割合が高いといえる.ただし,\MONO{},\MAJOR{},\MINOR{}のそれぞれにおいて,利用された検索語セットの割合は相当異なっており,同じ同語義類でも,\MONO{}では同義語のうち31.6\%が利用されているが,\MINOR{}では10.2\%に留まり,代わりに略称や別称などが利用される割合が高くなっている.今後は,優先順位の決定において,タイプ別にこれらの優先順位を決定することも考えられる.\subsection{人手で追加/修正/選択された検索語}\label{sec:ana-add-fixed}図~\ref{fig:used-query}(\refsec{sec:ana-query})に示した様に,人手で検索語が追加/修正/選択された割合は,それぞれ,21.3\%,16.1\%,7.7\%と高い.これらの,人手によって追加/修正/選択されて作られた検索語セットに含まれる語のタイプを分類した(図~\ref{fig:used-query-fixed}).検索語セットには複数の語が含まれることがあるが,語毎に分割して集計してある.同義語類には,同義語,略称,別称などをまとめた.図~\ref{fig:used-query-fixed}によると,新しく追加された語の割合が最も多い.次いで,代表表記が利用される割合が高く,定義文,例文からの語が続く.定義文からの語とは,定義文中に出現する語のうち,檜オントロジでは同義語や上位語といった関係にない語になる.また,同義語や上位語などもあり,こうした語や代表表記に,何らかの語句が追加されているというパターンが多く見られた.ここで,追加された検索語のトップ10を表~\ref{tb:added-queries}に示す.追加された語で最も多いのは「イラスト」で,3,612回と際だって多く追加されている.「イラスト」が追加された語の品詞を集計すると,多い順に,動詞(34.4\%),サ変名詞(25.3\%),名詞\izs{1000:抽象}(19.7\%)と続いており,特に動作を表すような語義や抽象的な語義に対し,イラスト化された画像を得るために多く利用されたことが推測できる.それ以外にも,「イメージ」「グラフ」「写真」「図」など,語自体が図や画を想起させる語が多く追加されている.これは画像検索ならではの特徴だと思われる.\begin{table}[t]\caption{\changed{画像獲得のために追加された検索語のトップ10}}\label{tb:added-queries}\input{07table06.txt}\end{table}また,典型的と思われる事物や用法に具体化するための検索語の追加も多く見受けられる.例えば,「くたくた$_1$」\gogi{布や衣服などが使い古されて,張りを失い弱くなった様子.}に対して「服」が追加され,「くたくたになっている服」の画像が選ばれたり,「災難$_1$」\gogi{不意に起こる不幸な出来事.}に対し,「事故」が追加され,事故場面の写真が選ばれたりしている.\subsection{代表表記のみで検索された語義}\label{sec:judge-major}図~\ref{fig:used-query}(\refsec{sec:ana-query})によると,\MINOR{},つまり,多義語において高頻度語義だと判断しなかった語義でも,検索には代表表記のみが利用された語義が12.9\%(1,646語義)存在する.同じ見出し語に対し,語義が複数存在するにもかかわらず,代表表記のみで検索されているということは,これらの語義は,少なくとも画像検索では最も出現頻度が高い語義であるといえるだろう.本実験では,檜センスバンクで5回以上出現する語の,出現率が80\%以上の語義を高頻度語義としている(\refsec{sec:query-order}参照).この条件はヒューリスティックに設定しており,厳しかった可能性もある.そこで,檜センスバンクにおける出現率と,多義語のうち代表表記のみが利用された語義の関係を調べる.図~\ref{fig:major-hyouki}に,多義語のうち10回以上出現する語についての関係を示す\footnote{足きりする出現回数を変えても,同様の傾向を示した.}.出現率は10\%単位でまとめて集計してある.また,檜センスバンクは,新聞と辞書定義文,辞書例文からなるが,これらのコーパスにおける語義の出現率と人間の感覚は異なっている可能性も考えられる.本実験で利用した辞書\lxd{}には,語義別の親密度が付与されており,これは,各語義に対する馴染み深さを心理実験により付与したものである.そこで図~\ref{fig:psy-hyouki}に,語義親密度と,多義語のうち代表表記のみが利用された語義の関係を示す.語義親密度は1から7の間の値で表わされ,数値が大きくなるほど親密度が高い.図~\ref{fig:psy-hyouki}では,1以上2未満,2以上3未満というようにまとめて集計してある.\begin{figure}[b]\begin{minipage}[t]{183pt}\setlength{\captionwidth}{181pt}\includegraphics{20-2ia7f9.eps}\hangcaption{檜センスバンクにおける出現率と,代表表記のみを検索語に利用した語義の割合}\label{fig:major-hyouki}\end{minipage}\hfill\begin{minipage}[t]{178pt}\setlength{\captionwidth}{176pt}\includegraphics{20-2ia7f10.eps}\hangcaption{語義親密度と,代表表記のみを検索に利用した語義の割合}\label{fig:psy-hyouki}\end{minipage}\vspace{-1\Cvs}\end{figure}まず図~\ref{fig:major-hyouki}から,基本的には,センスバンクでの出現率が高ければ高いほど,代表表記のみが利用される割合も高くなっていることがわかる\footnote{センスバンクにおける出現率と代表表記のみ利用された語義の相関係数は,0.35であり,弱い相関があると言える.}.そのため,デフォルトの検索語セットを用意する場合,出現率が高い語は代表表記のみを利用するのは妥当と言えるだろう.しかしながら,図~\ref{fig:major-hyouki}からは,センスバンクでの出現率が高ければ必ず代表表記のみが用いられたわけではないこともわかる.出現率が90\%以上と非常に高い場合であっても,代表表記のみ検索に利用されたのは該当する語義の53\%程度であり,残り47\%程度は異なる検索語が利用されている.出現率が高いにも関わらず,代表表記以外で検索されている語を確認したところ,語からイメージされる,代表的シーンを示す様な検索語が利用されていることが多かった.例えば,「悔やむ$_1$」の場合は「悔やむ,マウンド」,「封鎖$_1$」の場合は「事件現場」が利用されている.両方,センスバンクでの出現率は100\%である.逆に,出現率が低い(10\%以下)にも関わらず,代表表記で検索されている語も存在する.例えば,「チェック」の6つの語義のうち,代表表記のみが検索に用いられているのは,「チェック$_3$」\gogi{洋服地の碁盤の目のような柄.}である.この語義の出現率は,2.1\%(96回のうち2回)と非常に低い.それに対し,最も出現率の高い(89\%)語義は,「チェック$_6$」\gogi{照合の印を付けること.また,その印.また,照合して検査すること.}であるが,検索語は作業者による自由修正によって,「チェックマーク,イラスト」が用いられている.なお,「チェック$_3$」の語義親密度は4.225,「チェック$_6$」の語義親密度は5.300であり,語義親密度についても「チェッ\mbox{ク$_6$」}の方が高かった.同様に語義親密度との関係(図~\ref{fig:psy-hyouki})でも,基本的に,語義親密度が高くなれば代表表記のみが利用される割合は高くなる\footnote{語義親密度と代表表記のみ利用された語義の相関係数は,0.27であり,弱い相関があると言える.}.ただし,やはり例外も存在する.語義親密度が低いにも関わらず代表表記のみが利用されている語を調べると,語義の親密度以外に,その語義に関連する画像の存在する量も影響している可能性がある.例えば,「縄張り$_2$」\gogi{建築の敷地に縄を張って建物の位置を定めること.}は,語義親密度が1.825とかなり低いが,代表表記のみが利用されている.「縄張り$_2$」は家を建てる時に行なわれ,記念,記録として撮られたらしい写真が多く存在する.逆に,「縄張り」の中で,最も親密度が高い語義は,「縄張り$_5$」\gogi{動物の個体や集団が,他の侵入を許すまいと努める地域.テリトリー.}(語義親密度5.225)だが,こちらは比較的画像で表しにくく\footnote{本実験では,犬などがテリトリーの匂い付け行動をしている写真などが付与されている.},関連する画像の量自体が少ないのだと思われる.つまり,画像検索での出現率と,人間のその語義に対する親密度,あるいは,センスバンクでの出現率は,関連はするものの,完全一致ではなく,画像として表現しやすいかどうか,画像として残されやすいかどうか,という条件を加味しなければ,画像検索に代表表記のみを利用すればよい語義を正確に推定することはできないだろう. \section{画像表示可能/不可能な語義の分析} \label{sec:ana-cannot}\vspace{-0.2\Cvs}第一の目標として,辞書のほとんどの内容語を対象として画像付与実験を行なったが,対象語義の中には,そもそも画像表示できない語義も存在している.そのため評価時に,そもそも画像表示可能な語義かどうかを判断している(\refsec{sec:exp-steps},図~\ref{tb:eva-method-rand},Step1-2).これまでの分析では,画像表示可能と判断されたものだけを対象にしてきたが,本章では,そもそも画像表示可能,あるいは,不可能と判断された語義はどのような特徴を持つのかを調査する.まず,\refsec{sec:pos-cannot}では品詞との関係について,\refsec{sec:iz-cannot}では意味クラスとの関係について定量的に調査する.また,\refsec{sec:ex-cannot}では,画像表示不可能な語義の傾向について述べる.\subsection{品詞と画像表示可能/不可能の関係}\label{sec:pos-cannot}本章では,品詞と画像表示可能/不可能と判断された語義の関係について述べる.図~\ref{fig:pos-cannot}に,画像表示が可能,あるいは,不可能と判断された語義の品詞毎の割合を示す.どの品詞でも「可能」と判定された語義が最も多くなった.特に,動詞は97.8\%が「可能」と判断されており,\izs{2:具体}配下の名詞よりも割合が高い.最も「可能」と判断された語義の割合が少なかったのは,副詞類だが,それでも60.1\%は「可能」と判断されている.ただし,本実験は,できるかぎり画像を付与するという方針で行なっているため,画像表示が「可能」と判断されていても,適合度が高い画像が獲得できているとは限らない.そこで,画像表示可能と判定された語義に付与された画像のうち,評価値が5(適切),および,4(適合度\_高)と評価された画像の枚数を図~\ref{fig:eva4-5}に示した.評価の高い画像を多く獲得できているということは,それだけ画像付与が容易な語義であるといえる.実験では,30枚の検索結果から,各語義につき5枚ずつ,評価の高い画像から獲得するようにしており,最大獲得枚数は5枚である.図~\ref{fig:eva4-5}からは,\izs{1000:抽象}配下の名詞,形容詞類,副詞類の場合,評価値4以上の画像が1枚も獲得できていない語義が最も多いことがわかる.\begin{figure}[b]\begin{minipage}[t]{188pt}\setlength{\captionwidth}{186pt}\includegraphics{20-2ia7f11.eps}\hangcaption{画像表示可能/不可能と判断された語義の割合}\label{fig:pos-cannot}\end{minipage}\hfill\begin{minipage}[t]{184pt}\setlength{\captionwidth}{182pt}\includegraphics{20-2ia7f12.eps}\hangcaption{画像表示可能な語義に付与された画像のうち,評価値が4(適合度\_高)以上の画像の枚数}\label{fig:eva4-5}\end{minipage}\vspace{-0.5\Cvs}\end{figure}評価自体は作業者によってゆれがあるため,各画像について評価値毎の詳細な区別は難しい\footnote{ランダムに選択した100語義500画像の適合度評価について,二人の作業者間の一致率を調べたところ,Cohenの重み付きkappa係数は0.602となり実質的に一致しているといえた.}.しかし,このように評価値の高い画像が何枚とれたか,という観点でみると,品詞と,画像としての表現しやすさとの傾向が良くわかる.「可能」か「不可能」かという点だけをみると,動詞は非常に「可能」の割合が高いが,評価値が4の画像が5枚獲得されているのは,24.0\%のみである.図~\ref{fig:eva4-5}から,評価値の高い画像が獲得できている品詞は,順に,名詞(\izs{2:具体}),名詞(両方含む),サ変名詞,動詞,副詞類,名詞(\izs{1000:抽象}),形容詞類となる.\subsection{意味クラスと画像表示可能/不可能の関係}\label{sec:iz-cannot}\refsec{sec:pos-cannot}では,品詞と画像表示可能/不可能の関係について調べた.ただし,名詞は,\izs{2:具体}配下か,\izs{1000:抽象}配下か,その両方を含むか,によって分割している.しかし,意味クラスは2,710クラス存在しており,本章では,さらに詳細な意味クラスとの関係を調査する.本章では,各語義に付与された意味クラス毎に,その語義が「可能」「不可能」と判断された数をカウントする.ただし,各語義に複数の意味クラスが付与されている場合,すべての意味クラスでカウントしている.例えば,アーチ$_1$の場合,\izs{865:家屋(本体)}と\izs{2435:類型}が付与されているため,両方でカウントする.50回以上利用されている意味クラスの中で,属する語義が「可能」あるいは「不可能」と判断されている割合を調べた.その結果,すべての語義が「可能」と判断された意味クラスは,\izs{2:具体}配下では,\izs{677:作物},\izs{818:衣服(本体)},\izs{920:出版物}などの23クラス,\izs{1000:抽象}配下では\izs{1048:絵画},\izs{2360:天気},\izs{2498:構造}などの7クラスだった.なお,すべての語義が「不可能」と判断された意味クラスはなかった.このことから,画像表示が不可能な語義を,属する意味クラスのみから判定することは難しいが,逆に,いくつかの意味クラスに関しては,新規の語義であっても,画像表示が可能である可能性は高いといえる.また,個別の意味クラスだけでなく,配下のすべての意味クラスで,属する語義がすべて「可能」と判断されている場合もある.表~\ref{tb:cats-cannot}に,配下の意味クラスに属する語義すべてが画像表示可能と判断された意味クラスを列挙した\footnote{なお,同様にすべてが画像表示不可能と判断された意味クラスはなかった.}.こうした意味クラスには,\izs{838:食料},\izs{671:植物},\izs{925:目印・象徴物}などが存在する.画像表示可能かどうかの判別には,個別の意味クラスだけでなく,こうした階層構造も重要だろう.\begin{table}[p]\hangcaption{配下のすべての意味クラスに属する語義が,画像表示可能と判断された意味クラス(累計100回以上出現する意味クラスのみ)}\label{tb:cats-cannot}\input{07table07.txt}\end{table}\subsection{画像表示不可能な語義の傾向}\label{sec:ex-cannot}画像表示不可能と判断された語義として,作業者から報告された語義の傾向は以下の通りである.\begin{enumerate}\item否定的な意味をもつ語義\item[例]「干す$_4$」\gogi{仕事などを与えない.}\\「無給$_1$」\gogi{給料が無いこと.給料を支給しないこと.}\item言語表現\item[例]「悪しからず$_1$」\gogi{悪く思わないで.よろしく.相手の気持ちを考えないで物事をしたときなどに了承を得るために使う言葉.}\item仮定表現\item[例]「ひょっとしたら$_1$」\gogi{もしかすると.ひょっとすると.}\item相対表現\item[例]「絶品$_1$」\gogi{比べるものが無いほど優れた品物や作品.}\\「別件$_1$」\gogi{別の用件.別の事件.}\item内容を厳密には表せない語義(\ul{下線部}の意味が画像で表現できない)\item[例]「だて眼鏡$_1$」\gogi{\ul{実際には掛ける必要が無いのに}、お洒落のために掛ける眼鏡.}\\「テストパイロット$_1$」\gogi{新しく製造された航空機の\ul{試験飛行をする}パイロット.}\end{enumerate}画像表示不可能な語義かどうかの判別の自動化の可能性について考えてみると,上記(5)の「だて眼鏡$_1$」「テストパイロット$_1$」のような語義では,自動化は困難だと思われる.一方,上記(1)から(4)については,語義文からある程度の手がかりは獲得できるかもしれない.例えば,(2)にあたるものとして,上位語が「言葉」や「語」の語義は「不可能」と判断される可能性が高いかもしれない.実際に「不可能」とされたのは,本稿での対象語のうち上位語が「言葉」である語義の11.0\%\footnote{上位語が「言葉」の語義で,「可能」と判断されたのは,「お世辞$_1$」「見出し$_1$」「歌詞$_2$」「気障$_1$」など.逆に「不可能」と判断されたのは,「一言$_2$」「禁句$_2$」「殺し文句$_1$」「片言$_1$」など.},「語」である語義の25.7\%\footnote{上位語が「語」の語義で,「可能」と判断されたのは,「謙譲語$_1$」「流行語$_1$」「反意語$_1$」「結び$_3$」など.逆に「不可能」と判断されたのは,「ご存じ$_1$」「良く$_5$」「むしろ$_1$」「何なら$_1$」など.}だった.この割合は,全体の割合に比べればかなり高いが(図~\ref{fig:pos-cannot}),必ず「不可能」と判断されたわけでもない.なお,これらの語義で,「可能」と判断された語義には,その語が利用される典型的なシーンの画像が付与されることが多かった.\subsection{画像の多様性}\label{sec:disc-diver}本章ではこれまで画像表示が可能かどうか,といった観点で調べてきたが,「可能」と判断された語義の中にも,一つの画像だけでなく,多様な画像が求められる場合がある.例えば,同じ\izs{537:獣}という意味クラスに含まれる語であっても,「シロナガスクジラ$_1$」ならシロナガスクジラの画像のみだが,「家畜$_1$」は,豚,鶏,牛など,複数種類の動物の画像が付与されている.どれか一種類の動物の画像だけであれば,「家畜$_1$」がその動物を指すのだという誤解を招くおそれがあるが,複数種類の動物の画像を付与することで,これらすべてを含むような概念であるとわかる.また,「牛$_1$」のような場合でも,細分類すると,白黒の斑のあるホルスタイン種,茶色いジャージー種,黒毛の和牛など様々な種類があり,本実験においても出来る限り多くの種類の画像が付与されている.このように,一つの語義に対して複数の画像を付与するのは,イメージの固定化を防ぎ\cite{Suwa:Miyabe:Yoshino:2012j},対象語義の範囲を示す上で重要だと思われる.また,より具体的な下位概念の方が適切な画像を付与しやすい場合も多い.作業者によって検索語に追加された語に,対象語義を典型的と思われる事物や用法に具体化するための語句が多く含まれたのもそのためだろう(\refsec{sec:ana-add-fixed}).\cite{Popescu:Millet:etc:2007}では,\WN{}のある対象synset配下のリーフノードのみを画像付与の対象にしており,上位synsetは上下関係から間接的にカバーされると述べられている.同様に,動植物など一部の上下関係に対しては,より具体性の高い下位語義(概念)に対して画像を付与し,上位概念はその集合として扱うことも可能かもしれない.こうした方法は,作業量の削減や画像の多様性確保に効果がある可能性がある.ただし,抽象的な概念への適用はかなり難しいと考えられるため,適用範囲に注意する必要がある. \section{まとめと今後の課題} \label{sec:conclusion}画像が付与された辞書は,教育分野や言語横断検索での利用,子供や異なる言語の話者,文字の認識に困難を伴うような人とのコミュニケーションを助けるツールの構築,セマンティックギャップを埋めるための研究利用など,様々な用途が考えられる.作成・維持コストを考えれば,なるべく自動的に画像を付与することが望ましいが,大量の辞書エントリに対して,高い精度で画像を付与することは容易ではない.また,そもそもどういった語義には画像を付与できるのか,あるいはできないのかといった調査が大規模になされた例はなく,画像が付与できる語義を自動的に判別することも困難である.そこで,まず語義別に画像が付与された辞書を人手で構築することを第一の目標とした.幅広い語義に適切な画像を付与するため,インターネットから画像検索によって画像を獲得する.そこで,語義毎に適切な画像を得るための検索語を調査することを第二の目標とした.さらに,本稿では検索語セットの優先順位の決定方法も提案した.今後の作成・維持コストや,新しい辞書への適用を考えると,人手による画像付与ができない場合でも,優先順位の高い検索語セットによる検索結果が利用できれば,有用だと考えられるからである.そのため,提案した優先順位の決定方法の妥当性を示すことを第三の目標とした.まず第一の目標に関して,本稿全体では,辞書\lxd{}の名詞,動詞,形容詞,副詞類の25,481語,39,251語義を対象として,画像付与実験を行なった.その結果,対象語義全体の94.0\%に画像付与が可能と判断され,画像が付与できた.構築した辞書を用いて,\ref{sec:ana-cannot}章では,画像付与が可能/不可能な語義の特徴を,品詞との関係や意味クラスとの関係に着目して調査した.品詞との関係では,語義との適合度が高い画像が獲得できた品詞は,順に,名詞(\izs{2:具体}),名詞(両方含む),サ変名詞,動詞,副詞類,名詞(\izs{1000:抽象}),形容詞類であることを示した.意味クラスとの関係分析では,意味クラスによってはほぼ確実に画像付与可能なクラスが存在し,さらに,画像付与が可能かどうかの判断には階層構造も考慮することが有効だと思われることを示した.第二,第三の目標は,辞書の構築過程に関係している.本稿では,語義毎に,上位語や同義語,例文中の語など,辞書から得られる様々な語を用いた検索語セットを用意し,それらに優先順位を付与する手法を提案した.提案手法では,対象語義が単義語や多義語のメジャーな語義の場合には代表表記のみを利用した検索語セットを優先させ,それ以外の語義の場合は同義語によって拡張した検索語セットを優先させた.本稿では,用意した検索語セットによる検索結果を作業者に提示し,最も適切な検索語セットを選択してもらった.ここで,2通りの提示方法を試すことで,デフォルトとして自動的な検索結果を表示する場合でも,最も優先順位の高い検索語セットによる検索結果を利用することが妥当であることを示した(\ref{sec:ana-rand-best}章,第三の目標).第二の目標に関しては,最終的に作業者によって選択された検索語を分析することで改良点を探った(\ref{sec:all-lxd-analysis}章).その結果,同義語類,分野情報は検索語として選択されやすいことや,メジャーな語義かどうかによって優先順位の決定方法を改良すればよいことがわかった.こうした知見は,今後追加されるエントリや,新しい辞書への適用時に有効である.また,検索語については更に2種類の分析をおこなった.まず,適切な検索語セットが候補にない場合に,追加・修正された検索語の分析を行なった.その結果,追加された検索語には,「イラスト」や「イメージ」など,語自体が図や画を想起させる語や,典型的と思われる事物や用法に具体化するための語が多く含まれることがわかった.さらに,多義語であるにも関わらず,代表表記のみが検索語として利用された語義は,少なくとも画像検索においては最頻語義だと考えられるという点に着目し,こうした語義のセンスバンクでの出現率,語義親密度との関連性についても分析した.その結果,センスバンクでの出現率や語義親密度と,画像検索における最頻語義は相関関係があるが,完全一致ではなく,画像として表現しやすいか,画像として残されやすいかどうか,という条件を加味しなければ,画像検索における最頻語義を正確に推定することは困難であることがわかった.このように,本稿では,様々な品詞を含む幅広い語義に対して画像を付与する実験と分析を行なった.今後はさらに,画像研究者と協力し,色や輪郭などの画像自体の特徴と言語的特徴の両面から,語義と画像の関係分析を行なっていきたい.また,提案した検索語セットは,語義曖昧性解消のための学習データ獲得にも利用できるかもしれない.例えば,単義の同義語によって検索語を拡張し,Web検索によって得られた文を訓練データとして利用する方法も提案されている\cite{Mihalcea:Moldovan:1999,Agirre:Martinez:2000}.同様に,本稿での提案手法によって優先順位が高くなった検索語セットや,作業者によって選ばれた検索語セットを用いて\footnote{ただし,作業者によって追加された語で,「イメージ」のように画像検索特有だと思われる語を除く必要はある.}学習データを獲得した場合,語義曖昧性解消の精度向上に貢献できるかどうか調査したい.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Agirre\BBA\Martinez}{Agirre\BBA\Martinez}{2000}]{Agirre:Martinez:2000}Agirre,E.\BBACOMMA\\BBA\Martinez,D.\BBOP2000\BBCP.\newblock\BBOQ{ExploringAutomaticWordSenseDisambiguationwithDecisionListsandtheWeb.}\BBCQ\\newblockIn{\BemProceedingsofCOLING-2010WorkshoponSemanticAnnotationAndIntelligent},\mbox{\BPGS\11--19}.\bibitem[\protect\BCAY{天野\JBA小林}{天野\JBA小林}{2008}]{Amano:Kobayashi:2008j}天野成昭\JBA小林哲生\BBOP2008\BBCP.\newblock\Jem{基本語データベース:語義別単語親密度}.\newblock学習研究社.\bibitem[\protect\BCAY{Bondet~al.}{Bondet~al.}{2006}]{Bond:Fujita:Tanaka:2006}Bond,F.,Fujita,S.,\BBA\Tanaka,T.\BBOP2006\BBCP.\newblock\BBOQ{TheHinokiSyntacticandSemanticTreebankofJapanese.}\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf40}(3--4),\mbox{\BPGS\253--261}.\newblock(SpecialissueonAsianlanguagetechnology).\bibitem[\protect\BCAY{Bondet~al.}{Bondet~al.}{2009}]{Bond:Isahara:Fujita:Uchimoto:Kuribayashi:Kanzaki:2009}Bond,F.,Isahara,H.,Fujita,S.,Uchimoto,K.,Kuribayashi,T.,\BBA\Kanzaki,K.\BBOP2009\BBCP.\newblock\BBOQ{EnhancingtheJapaneseWordNet.}\BBCQ\\newblockIn{\BemProceedingsoftheJointconferenceofthe47thAnnualMeetingoftheAssociationforComputationalLinguisticsandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAsianFederationofNaturalLanguageProcessing:ACL-IJCNLP-2009},\mbox{\BPGS\1--8}.\bibitem[\protect\BCAY{Bondet~al.}{Bondet~al.}{2004}]{Bond:Nichols:Fujita:Tanaka:2004}Bond,F.,Nichols,E.,Fujita,S.,\BBA\Tanaka,T.\BBOP2004\BBCP.\newblock\BBOQ{AcquiringanOntologyforaFundamentalVocabulary.}\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics:COLING-2004},\mbox{\BPGS\1319--1325},\Geneva.\bibitem[\protect\BCAY{Bormanet~al.}{Bormanet~al.}{2005}]{PicNet}Borman,A.,Mihalcea,R.,\BBA\Tarau,P.\BBOP2005\BBCP.\newblock\BBOQ{PicNet:PictorialRepresentationsforIllustratedSemanticNetworks.}\BBCQ\\newblockIn{\BemProceedingsoftheAAAISpringSymposiumonKnowledgeCollectionfromVolunteerContributors}.\bibitem[\protect\BCAY{Denget~al.}{Denget~al.}{2009}]{ImageNet}Deng,J.,Dong,W.,Socher,R.,Li,L.-J.,Li,K.,\BBA\Fei-Fei,L.\BBOP2009\BBCP.\newblock\BBOQ{ImageNet:ALarge-ScaleHierarchicalImageDatabase.}\BBCQ\\newblockIn{\BemIEEEComputerVisionandPatternRecognition(CVPR)},pp.248--155.\bibitem[\protect\BCAY{Fang\BBA\Zhai}{Fang\BBA\Zhai}{2006}]{Fang:Zhai:2006}Fang,H.\BBACOMMA\\BBA\Zhai,C.\BBOP2006\BBCP.\newblock\BBOQSemantictermmatchinginaxiomaticapproachestoinformationretrieval.\BBCQ\\newblockIn{\BemProceedingsofthe29thannualinternationalACMSIGIRconferenceonResearchanddevelopmentininformationretrieval},SIGIR'06,\mbox{\BPGS\115--122},ACM.\bibitem[\protect\BCAY{Fellbaum}{Fellbaum}{1998}]{_Fellbaum:1998}Fellbaum,C.\BED\\BBOP1998\BBCP.\newblock{\Bem{WordNet}:AnElectronicLexicalDatabase}.\newblockMITPress.\bibitem[\protect\BCAY{Fujii\BBA\Ishikawa}{Fujii\BBA\Ishikawa}{2005}]{Fujii:Ishikawa:2005a}Fujii,A.\BBACOMMA\\BBA\Ishikawa,T.\BBOP2005\BBCP.\newblock\BBOQ{ImageRetrievalandDisambiguationforEncyclopedicWebSearch.}\BBCQ\\newblockIn{\BemProceedingsoftheInternationalJointConferenceonArtificialIntelligence:IJCAI-2005},\mbox{\BPGS\1598--1599}.\bibitem[\protect\BCAY{Fujita\BBA\Nagata}{Fujita\BBA\Nagata}{2010}]{Fujita:Nagata:2010}Fujita,S.\BBACOMMA\\BBA\Nagata,M.\BBOP2010\BBCP.\newblock\BBOQEnrichingDictionarieswithImagesfromtheInternet-TargetingWikipediaandaJapaneseSemanticLexicon:Lexeed-.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalConferenceonComputationalLinguistics:COLING-2010},\mbox{\BPGS\331--339},\Beijing,China.\bibitem[\protect\BCAY{{Goldberget~al.}}{{Goldberget~al.}}{2009}]{Goldberg:Rosin:Zhu:Dyer:2009}{Goldberg,A.~B.,Rosin,J.,Zhu,X.andDyer,C.~R.}\BBOP2009\BBCP.\newblock\BBOQTowardText-to-PictureSynthesis.\BBCQ\\newblockIn{\BemNIPS2009Mini-SymposiaonAssistiveMachineLearningforPeoplewithDisabilities}.\bibitem[\protect\BCAY{林\Jetal}{林\Jetal}{2012}]{Hayashi:Bora:Nagata:2012j}林良彦\JBA永田昌明\JBAサワシュ・ボラ\BBOP2012\BBCP.\newblock言語横断情報検索における画像手がかりを用いたインタラクティブな翻訳曖昧性解消の評価.\newblock\Jem{情報処理学会論文誌データベース},{\Bbf5}(2),\mbox{\BPGS\26--35}.\bibitem[\protect\BCAY{井手\JBA柳井}{井手\JBA柳井}{2009}]{Ide:Yanai:2009j}井手一郎\JBA柳井啓司\BBOP2009\BBCP.\newblockセマンティックギャップを越えて:画像・映像の内容理解に向けて.\\newblock\Jem{人工知能学会誌},{\Bbf24}(5),\mbox{\BPGS\i--ii,691--699}.\bibitem[\protect\BCAY{池原\Jetal}{池原\Jetal}{1997}]{GoiTaikeij}池原悟\JBA宮崎雅弘\JBA白井諭\JBA横尾昭男\JBA中岩浩巳\JBA小倉健太郎\JBA大山芳史\JBA林良彦\BBOP1997\BBCP.\newblock\Jem{日本語語彙大系}.\newblock岩波書店.\bibitem[\protect\BCAY{海野\Jetal}{海野\Jetal}{2008}]{Unno:Miyao:Tsujii:2008j}海野裕也\JBA宮尾祐介\JBA辻井潤一\BBOP2008\BBCP.\newblock自動獲得された言い換え表現を使った情報検索.\\newblock\Jem{言語処理学会第14回年次大会(NLP-2008)},\mbox{\BPGS\123--126}.\bibitem[\protect\BCAY{Mihalcea\BBA\Leong}{Mihalcea\BBA\Leong}{2008}]{Mihalcea:Leong:2008}Mihalcea,R.\BBACOMMA\\BBA\Leong,C.~W.\BBOP2008\BBCP.\newblock\BBOQTowardcommunicatingsimplesentencesusingpictorialrepresentations.\BBCQ\\newblock{\BemMachineTranslation},{\Bbf22}(3),\mbox{\BPGS\153--173}.\bibitem[\protect\BCAY{Mihalcea\BBA\Moldovan}{Mihalcea\BBA\Moldovan}{1999}]{Mihalcea:Moldovan:1999}Mihalcea,R.\BBACOMMA\\BBA\Moldovan,D.\BBOP1999\BBCP.\newblock\BBOQ{AnAutomaticMethodforGeneratingSenseTaggedCorpora.}\BBCQ\\newblockIn{\BemProceedingsoftheAmericanAssociationforArtificialIntelligence(AAAI-1999)},\mbox{\BPGS\461--466}.\bibitem[\protect\BCAY{Nicholset~al.}{Nicholset~al.}{2006}]{Nichols:Bond:Tanaka:Fujita:Flickinger:2006}Nichols,E.,Bond,F.,Tanaka,T.,Fujita,S.,\BBA\Flickinger,D.\BBOP2006\BBCP.\newblock\BBOQ{RobustOntologyAcquisitionfromMultipleSources.}\BBCQ\\newblockIn{\BemProceedingsofCOLING-20062ndWorkshoponOntologyLearningandPopulation:BridgingtheGapbetweenTextandKnowledge},\mbox{\BPGS\10--17},\Sydney.\bibitem[\protect\BCAY{Popescuet~al.}{Popescuet~al.}{2007}]{Popescu:Millet:etc:2007}Popescu,A.,Millet,C.,\BBA\Mo{\"e}llic,P.-A.\BBOP2007\BBCP.\newblock\BBOQOntologyDrivenContentBasedImageRetrieval.\BBCQ\\newblockIn{\BemProceedingsoftheACMInternationalConferenceonImageandVideoRetrieval},pp.387--394.\bibitem[\protect\BCAY{Popescuet~al.}{Popescuet~al.}{2006}]{Popescu:Millet:etc:2006}Popescu,A.,Millet,C.,Mo{\"{e}}llic,P.-A.,\BBA\H{\`{e}}de,P.\BBOP2006\BBCP.\newblock\BBOQAutomaticConstructionofaGroundedMultimediaOntologyofObjectstoIllustrateConceptsinaLearningProcess.\BBCQ\\newblockIn{\BemNETTIES2006Conference:AdvancedEducationalTechnologiesforaFuturee-Europe}.\bibitem[\protect\BCAY{白井}{白井}{2003}]{Shirai:2003j}白井清昭\BBOP2003\BBCP.\newblock{SENSEVAL-2}日本語辞書タスク.\\newblock\Jem{自然言語処理},{\Bbf10}(3),\mbox{\BPGS\3--24}.\bibitem[\protect\BCAY{諏訪\Jetal}{諏訪\Jetal}{2012}]{Suwa:Miyabe:Yoshino:2012j}諏訪智大\JBA宮部真衣\JBA吉野孝\BBOP2012\BBCP.\newblockWebページにおける文化差可視化システムの開発.\\newblock\Jem{平成24年情報処理学会関西支部大会},E-14,pp.1--4..\bibitem[\protect\BCAY{徳永}{徳永}{1999}]{Tokunaga:1999j}徳永健伸\BBOP1999\BBCP.\newblock\Jem{情報検索と言語処理},\Jem{言語と計算シリーズ},5\JVOL.\newblock東京大学出版会.\bibitem[\protect\BCAY{Voorhees}{Voorhees}{1994}]{Voorhees:1994}Voorhees,E.~M.\BBOP1994\BBCP.\newblock\BBOQQueryExpansionusingLexical-SemanticRelations.\BBCQ\\newblockIn{\Bemthe17thAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformaionRetrieval},\mbox{\BPGS\61--69}.\bibitem[\protect\BCAY{Zingeret~al.}{Zingeret~al.}{2006}]{Zinger:Millet:etc:2006}Zinger,S.,Millet,C.,Mathieu,B.,Grefenstette,G.,H{\`e}de,P.,\BBA\Mo{\"e}llic,P.-A.\BBOP2006\BBCP.\newblock\BBOQClusteringandsemanticallyfilteringwebimagestocreatealarge-scaleimageontology.\BBCQ\\newblockIn{\Bem{SPIE18thAnnualSymposiumElectronicImaging,InternetImagingVII}},\lowercase{\BVOL}\6061,\mbox{\BPGS\89--97}.\end{thebibliography}\begin{biography}\bioauthor{藤田早苗}{1999年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年,NTT日本電信電話株式会社入社.現在,コミュニケーション科学基礎研究所研究主任.工学博士.自然言語処理の研究に従事.言語処理学会,ACL各会員.}\bioauthor{平博順}{1994年東京大学理学部化学科卒業.1996年同大学院修士課程修了.同年,日本電信電話株式会社入社,2002年奈良先端大学院大学情報学専攻博士後期課程修了.博士(工学).2005年〜2007年株式会社NTTデータ技術開発本部.現在,NTTコミュニケーション科学基礎研究所研究主任.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{永田昌明}{1987年京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学研究所主幹研究員(上席特別研究員).工学博士.統計的自然言語処理の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
V15N05-05
\section{はじめに} \label{hajime}共参照解析とは,ある表現が他の表現と同一の対象を指していることを同定する解析のことであり,計算機による自然言語の意味理解を目指す上で重要な技術である.本研究では,日本語文における,同一文章内の表現間の共参照である文章内共参照を解析の対象とする.文章内共参照では,ある表現(照応詞)が文章中の先行する表現(先行詞)と同一の対象を指している場合にそれを認識することが目的となる.共参照における照応詞としては,普通名詞,固有名詞,代名詞の3つが考えられる.英語などの言語では照応詞として代名詞が頻繁に使用されるが,日本語では代名詞の多くはゼロ代名詞として省略されるため,照応詞の多くは普通名詞,固有名詞が占めている.ゼロ代名詞の検出・解析(ゼロ照応解析)も,意味理解を目指すためには欠かすことのできない解析であり,多くの研究が行われている\cite{Seki2002,Kawahara2004a,Iida2006}.ゼロ照応解析は,先行する文中から先行詞を同定するという点では共参照解析と同じであるが,ゼロ代名詞の認識が必要である点,省略されているため照応詞自体に関する情報がない点で異なっており,より応用的なタスクであると言える.本研究では,高精度な照応解析システムを実現するためには,まず基礎的な照応解析である共参照解析の精度向上が重要であると考え,共参照解析の精度向上を目指す.共参照解析の手法としては大きく分けて,人手で作成した規則に基づく手法と,タグ付きコーパスを用いた機械学習に基づく手法がある.英語を対象とした共参照解析では,これらの2手法によりほぼ同程度の精度が得られている\cite{Soon2001,Ng2002a,Zhou2004}.一方,日本語の場合は規則に基づく手法で高い精度が得られる傾向がある\cite{Iida2003,Murata1996b}\footnote{これらの研究では使用しているコーパスが異なるため単純には比較できないものの,新聞記事を対象とした予備実験の結果,規則に基づく手法でより高い精度が得られた.}.日本語において規則に基づく手法で高い精度が得られるのは,普通名詞,固有名詞間の共参照関係が大部分であり,語彙的情報が非常に大きな役割を占めるため,機械学習によって得られる性向が,人手で作成した規則でも十分に反映できているためであると考えられる.そこで本研究では基本的に,人手で設定した規則に基づく共参照解析システムを構築する.照応詞が普通名詞,固有名詞となる場合,照応詞と先行詞の関係は大きく以下のように分類できる.\begin{enumerate}\item照応詞の表記が先行詞の表記に含まれているもの:Ex.大統領官邸=官邸\label{most1}\item同義表現による言い換え:Ex.北大西洋条約機構=NATO\label{most2}\itemその他(クラスとインスタンス,上位語と下位語など):Ex.1995年=前年\label{most3}\end{enumerate}このうち,\ref{most1}は基本的に照応詞が先行詞と一致する場合や,末尾に含まれている場合で,特別な知識がなくても認識が可能である.ただし,末尾が一致する場合すべてが共参照関係にあるわけではなく,精度の高い解析のためには照応詞,先行詞が指すものを解析する必要がある.例えば次のような2文があった場合,いずれの文にも「結果」という語が複数回出現するが,aではそれらが同一の内容を指しているのに対し,bでは異なる内容を指している.\exs{a.&2006FIFAワールドカップ優勝国予想アンケートを行った.\underline{結果}はブラジルがトップだった.アンケート\underline{結果}の詳細はWebで見られる.\label{kekka}\\&b.&先月行なわれた韓国との親善試合の\underline{結果}を受けアンケートを行った.アンケート\underline{結果}から以下のようなことが判明した.}\\これらの違いを正しく解析するためには,a中の「結果」はともに「アンケートの結果」を意味しているのに対し,b中の「結果」は順に「試合の結果」,「アンケートの結果」を意味していることを認識する必要がある.そこで本研究では,係り受け解析,および,自動構築した名詞格フレームに基づく橋渡し指示(bridgingreference)解析により名詞句の関係を解析し,その結果を共参照解析の手掛りとして用いる.2は「北大西洋条約機構」と「NATO」のように,同義表現を用いた言い換えとなっている場合である.同義表現を用いた言い換えとなっている場合,人間が同一性を理解する場合も,事前の知識がないと困難な場合も多い.そこで,同義表現に関する知識を事前にコーパスや国語辞典から自動的に獲得し,獲得した同義表現知識を共参照解析に使用する.\ref{most3}については,シソーラスを用いたり,文脈的な手がかりを用いることによって解決できる場合があると考えられるが,本研究では解析を行なわず,今後の課題とする. \section{同義表現の自動獲得} \subsection{獲得に用いるリソース}\label{resource}同義表現を獲得するためのリソースとしては,コーパスや辞書が考えられる.コーパスを用いた同義表現に関する研究としては,括弧表現を用いる手法や,テキストの局所的な文脈依存性を利用する手法\cite{Yamamoto2002},コーパスから名詞と略語をその出現頻度に関するルールを用いて獲得する手法\cite{Sakai2003},係り受けおよび共起関係を利用し同義表現を抽出する手法\cite{Ueno2004},複数の著者の表記の違いを利用した手法\cite{Murakami2004}などが提案されている.本研究ではこのうち比較的高い精度を実現している括弧表現を用いた手法を用いる.括弧表現から獲得できる同義表現の特徴としては,常識となっていない事柄,すなわち,新語や未知語への対応力は強いものの,次の例文における「日」と「日本」のように極めて常識的な言い換えは抽出できない点が挙げられる.\ex{在\underline{日}外国人への所得課税を優遇する要件を厳しくし,主に\underline{日本}で働く外国人には国内外のすべての所得に課税できるようにする.\label{nihon}}そこで,極めて常識的な言い換え表現を獲得するため国語辞典からも同義表現の抽出を行う.国語辞典から獲得できる同義表現ペアには,新語などは含まれないものの,括弧を用いて表記されないような極めて一般的な同義表現ペアが含まれていると考えられ,括弧表現と国語辞典の2つのリソースを用いて同義表現を抽出することで,多くの同義表現を獲得できると考えられる.\subsection{括弧表現からの同義表現の抽出}括弧の解析に関する先行研究としては久光らの研究\cite{Hisamitsu1997}や,Okazakiらの研究\cite{Okazaki2008}がある.久光らは統計量とルールを組み合わせて括弧表現を,同義表現や,読みを表している場合,補足している場合などに分類し,同義表現などの有用な情報の抽出を行っている.久光らの手法は,小規模なコーパスからも大量に同義表現を抽出できるという特徴がある.実験には日経新聞1992年1年分を使用しており,もっとも高い精度となるYate補正した$\chi^2$とルールを組合せた場合の言い換え抽出精度は,$\chi^2$値上位500位に含まれる437個の言い換え表現の獲得に対しては約99.3\%,$\chi^2$値上位501位〜6366位に含まれる約3400個の言い換え表現の獲得に対しては約96.5\%である\footnote{久光らは,適切な文字列の削除/追加により正解となるものを半正解としているが,ここでは本研究の基準と同様にそれらを不正解として計算している.}.Okazakiらは,新たに以下の2つの条件を同時に満たす文書は「A→B」の語彙的言い換えであると認定することで計算される言い換え発生率を指標として導入し,精度95.7\%,適合率90.0\%,再現率87.6\%を得ている.\begin{enumerate}\item「A(B)」のパターンが出てくる前の文において,表現Bが出現しない.\item「A(B)」のパターンが出てきた後の文において,表現Aよりも表現Bの出現頻度が高い.\end{enumerate}実験には1998--1999年の毎日新聞・読売新聞に含まれる括弧表現のうち共起頻度が8よりも大きい語彙対を使用しており,その中に含まれる言い換え可能な表現は1,430事例である.再現率が87.6\%であることから約1,250個の言い換え表現を獲得していることになる.本研究では,共参照解析において有用となる同義表現を獲得することを目的とし,できるだけ出現頻度の高い同義表現を精度良く獲得することを目指す.同義表現であるならば,「A(B)」のパターンに加えて,「B(A)」のパターンも出現する(双方向性がある)可能性が高いと考え,双方向性に注目することにより高精度に同義表現を抽出する手法を提案する.抽出する同義表現を「A(B)」のパターンに加えて,「B(A)」のパターンも出現するものに限定することにより,コーパスサイズに対する獲得同義表現数は少なくなるものの,高い精度で抽出できると考えられる.提案する括弧表現からの同義表現の自動獲得の手順は以下の通りである.\begin{description}\item[1.長い同義表現候補の抽出]\\\括弧の中の表現Aと,その前に出現した句読点から括弧の前までの表現Bのペアをコーパスから取り出し,AとBを同義表現の候補とする.例えば,(\ref{tyogin})のような文があった場合はAとして「日本長期信用銀行」がBとして「金融システムの危機について焦点となっている長銀」を取り出す.\ex{現在のところ,金融システムの危機について焦点となっている\textgt{長銀}\textgt{(日本長期信用銀行)}に関しては,….\label{tyogin}}\item[2.短い同義表現候補の抽出]\\\Bの形態素解析を行い末尾の名詞句B'がBと異なる場合はB'を取り出し,AとB'のペアも同義表現候補とする\footnote{人名とその所属組織,地名とそこに位置する組織名などの組み合わせを除くためAとB'のいずれかが,人名のみ,または地名のみで構成されている場合は候補としていない.}.例えば(\ref{tyogin})のような文があった場合は「日本長期信用銀行」と「長銀」のペアが抽出される.\item[3.同義表現の決定]\\\A(B)とB(A)の両方が出現しているものに対し,表\ref{THREsynonym}に示すような同義表現候補のタイプごとに設定した閾値を満足する同義表現候補を同義表現として抽出する.\end{description}\begin{table}[b]\caption{括弧表現を用いた同義表現抽出のために設定した閾値}\label{THREsynonym}\begin{center}\input{05table01.txt}\end{center}\end{table}表\ref{THREsynonym}に示した閾値は事前に100個程度の同義表現候補とその出現頻度を参考に決定した.また,実験には毎日新聞12年分と読売新聞14年分,計26年分,約2,600万文を使用した.約2,600万文中に文頭に出現するものを除いて括弧は約1,000万回出現し,短い同義表現候補の異なり数は約110,000個,双方向性のある語彙対は5,800個であった.獲得された固有表現の種類と数,正しいと判断されたものの割合(正解の割合)を表\ref{Equivalent}に示す.正解の割合はタイプ1,タイプ2に関してはランダムに抽出した200個を,タイプ3,タイプ4に関しては抽出されたすべての同義表現対を人手で評価し算出している\footnote{抽出された同義表現対が正解であると判断する基準は,それらが同一文章中に出現した場合に同じ対象を指していることが多いと考えられるかどうかである.}.\begin{table}[t]\caption{括弧表現を用いた同義表現抽出の結果}\label{Equivalent}\begin{center}\input{05table02.txt}\end{center}\end{table}表\ref{Equivalent}の結果から約2,600個の同義表現を精度約99\%という高い精度で同義表現を獲得できており,双方向性に注目した絞り込みが有効であったことが確認できる.また,先行研究と比較した場合,大規模なコーパスを使うことにより,抽出精度を落とさずに多くの同義表現の獲得に成功していると言える.次に,使用した閾値の妥当性を確認するため同義表現であると判断する閾値を表\ref{THREsynonym}に``[]''を用いて記した閾値に緩めて同義表現の抽出を行った.新たに同義表現と判断された語の数と評価を表\ref{Equivalent2}に示す.新たに約730個の正しい同義表現が獲得され,その精度は約95\%であった.このことから,使用するコーパスから出来るだけ多くの同義表現の獲得を目的とする場合,閾値を緩めた方が良いと考えられる.しかしながら,同義表現の獲得数はより大規模なコーパスを使用することで増やすことができると考えられること,精度の高い同義表現データの方が汎用性が高いと考えられることから本研究では緩い閾値は採用せず,表\ref{Equivalent}に示した同義表現を知識として使用する.\begin{table}[t]\caption{緩い閾値を用いて新たに抽出された同義表現}\label{Equivalent2}\begin{center}\input{05table03.txt}\end{center}\end{table}\subsection{国語辞典からの同義表現の抽出}括弧表現を用いるだけでは抽出できないと考えられる\ref{resource}節の(\ref{nihon})の例における「日」と「日本」のような極めて常識的な言い換え表現も含めた同義表現辞書を構築するために,国語辞典からの同義表現抽出も行う.国語辞典からの同義表現抽出については多くの研究が行なわれており\cite{Tsurumaru1991,Tokunaga2001,Nichols2005},それらの多くは国語辞典から出来る限り多くの情報を抽出することを目的としている.本研究では,共参照解析に有用な同義表現の獲得を目的としており,また,コーパス中に出現する共参照関係にある同義表現のうち括弧表現から抽出できないものの多くは常識的な地名の言い換えであることから,これらの地名を含む常識的な言い換えが抽出できれば十分であると考える.そこで,これらが抽出できるような簡単な規則を設定し国語辞典からの同義表現抽出を行う.同義表現抽出のために用いた規則を以下に示す.\begin{enumerate}\item対象の語の見出し語Aを取り出す.\item対象の語の定義文を順に見ていき,「の略.」,「のこと.」で終わっている定義文である場合はその前の部分を,それ以外の定義文については句点より前の部分を取り出しBとする.\item取り出したBが「」で囲まれているか,または,Bが国語辞典に見出し語として載っている場合のみ次の処理に進む.\label{joken3}\itemその定義文が対象の語の第一義である場合,または,Bが地名として国語辞典に登録されているならば,AとBを同義表現とする.\label{joken4}\end{enumerate}\begin{table}[b]\caption{例解小学国語辞典の定義文の例}\label{RSK}\input{05table04.txt}\end{table}例えば,表\ref{RSK}に示すような見出し語と定義文があった場合の処理は次のようになる.「ソビエトれんぽう」に対しては,まず,表記として「ソビエト連邦」が取り出される.続いて定義文を順に取り出していき,条件\ref{joken3}を満足するかどうかを調べると,最後の定義文「ソ連」のみが辞書の表記として含まれているので,\ref{joken4}の処理に進む.この場合,「ソ連」は辞書に地名として載っているので,「ソビエト連邦」と「ソ連」は同義表現であると判断される.「ふけい」に対しては,まず,表記として「婦警」が取り出され,続いて,定義文から「婦人警察官」が取り出される.「婦人警察官」は辞書には登録されていないが,「」で囲まれた表現なので\ref{joken4}の処理に進み,第一義であるので「婦警」と「婦人警察官」は同義表現として抽出される.実験に用いた国語辞典は「例解小学国語辞典\cite{Reikai}」と「岩波国語辞典\cite{Iwanami}」である.「例解小学国語辞典」は小学生向けの辞書で基本的な語が比較的平易な定義文により記載されており,約3万語が記載されている.一方,「岩波国語辞典」は一般向けの辞書であり,語彙数は約6万語である.表\ref{fromdic}に自動抽出された同義表現の例を示す.抽出された同義表現は150個であった.掲載語彙数に対して少ないと言えるが,目的とした常識的な国名の言い換え表現は獲得できており,誤った同義表現のペアは含まれていなかった.括弧表現から抽出した同義表現ペアと重複しているのは「国連」と「国際連合」,「北朝鮮」と「朝鮮民主主義人民共和国」など6つのみであり,「高校」と「高等学校」,「米国」と「アメリカ」など括弧表現から抽出することができない極めて常識的な同義表現の抽出に成功していると言える.\begin{table}[t]\caption{国語辞典を用いた同義語抽出}\label{fromdic}\begin{center}\input{05table05.txt}\end{center}\end{table} \section{名詞句の関係解析} 本研究では,名詞句間の関係を解析するため,構文解析,および,橋渡し指示(bridgingreference)解析を行う.構文解析は,KNP\cite{KNP3}を用いて行う.構文解析の結果,文節ごとの係り受け関係,および,連体修飾であるなど係り受け関係にある2文節がどのような関係にあるかが分かる.例えば,以下のような文があった場合,「立てこもる」が「事件」を連体修飾していることなどが分かる.\ex{女性を人質に\textbf{立てこもる}\underline{事件}があった.\label{tate1}}橋渡し指示とは,(\ref{nedan})中の「チケット」と「値段」の関係である.これらは直接係り受け関係にはないが,「チケットの値段」という意味となっている.橋渡し指示解析は自動構築した名詞格フレームを用いて行う\cite{Sasano2004}.橋渡し指示解析の結果,(\ref{nedan})中の「値段」は「チケット」の値段という意味であることなどが分かる.\ex{金券ショップでは\underline{チケット}が何倍もの\underline{値段}で売られていた.\label{nedan}} \section{共参照解析} \subsection{文字列のマッチングを用いた共参照解析}本研究では,基本的な共参照解析システムとして,文字列のマッチングを用いた共参照解析システムを用いる.本節では,文字列のマッチングを用いた共参照解析システムについて説明する.\subsubsection{照応詞,先行詞として考える単位}共参照解析システムを構築するにあたり問題となるのが,照応詞,先行詞として扱う単位をどのようにするかである.特に,複合名詞句があった場合,その構成素のうちどの部分を照応詞,先行詞として考えるかが問題となる.まず,考えられるのがIidaら\cite{Iida2003}の基準である.Iidaらは共参照解析を行うにあたり,照応詞を文節の主辞(最右の名詞自立語)に限定している.\ex{携帯電話/PHSの利用に関するウェブ・アンケート\underline{調査}を実施し,207名から回答を得ました.\underline{調査}内容は…\label{phs}}しかしながら,(\ref{phs})のような文があった場合,「ウェブ・アンケート調査」と,「調査内容」の「調査」は同じ対象を指しており,カバレッジの大きな共参照解析システムの構築を目指す場合,主辞となっていない形態素が照応詞となる共参照関係も認識できることが望ましいと考えられる.そこで,本研究では,複合名詞の構成素すべてを照応詞の候補として考える.ただし,固有表現については結び付きが強いと考えられることから例外として扱い,固有表現の部分構成素は照応詞,先行詞として考慮しないものとする.京都テキストコーパス\cite{Kawahara2002c}では,複合名詞句の構成素も含むすべての自立語を照応詞,先行詞として扱っている.例えば,次のような文があった場合,後続する「ロシア軍」に含まれる「ロシア」および「軍」にはそれぞれ別々に,先行する「ロシア」,「軍」と共参照関係にあるというタグが付与されている.\ex{グロズヌイからの報道では,\underline{ロシア}\underline{軍}は….首都防衛はうまくいっており,\underline{ロシア}\underline{軍}の戦車五十両を破壊したと発表.\label{russia}}しかしながら,複合名詞のある構成素が,先行する同表記の複合名詞の構成素と共参照関係にある場合,その複合名詞の他の構成素も対応していることは自明であると考えられる.例えば,(\ref{russia})のような文があった場合,「軍」が同一の対象を指しているならば,「ロシア」が同じ対象を指していることは自明である.そこで本研究では,1つの文節に対してはより右側に出現した照応詞1つのみを解析の対象とする.以上より,本研究における先行詞,照応詞として扱う基準は以下のとおりである.\begin{itemize}\item文章内に出現したすべての名詞句,複合名詞句の構成素を先行詞の候補とする.\item文章内に出現したすべての名詞句,複合名詞句の構成素を照応詞の候補とする.ただし,1つの文節に対しては,より右側に出現した照応詞1つのみを対象とする.\item固有表現については例外として扱い,その部分構成素は先行詞,照応詞として考えない.\end{itemize}\subsubsection{基本的な方針}一般的に,文章中に新しい概念が登場する際は,その性質や内容を表す節を伴なって出現する場合が多いと考えられる.これに対して,既に文章中に出現している内容・対象を指す表現の場合はすでに行われた説明を繰り返すと冗長になるため,同一,または,より簡潔な表現で表される場合が多いと考えられる.また,同一文章中に先行する文章中で出現した表現が同一,または,より簡潔な形で出現した場合は,それらは同一の内容・対象を指す可能性が高いと考えられる.そこで本研究では基本的に,先行する文章中に出現した表現が同一,または,より簡潔な形で出現した場合に,それらが同一の内容・対象を指すと考える.ただし,指示詞や「同」に修飾されている表現については,先行する表現を照応していると考えた方が自然であるので,これらの語を伴なっていた場合も先行する表現を照応していると考える.また,固有表現は,修飾語によって限定されることはないと考えられるので,修飾語を伴なっていた場合も先行する同表記の固有表現を照応していると考える.以下では,同一,または,より簡潔な形で出現したと判断し,照応詞候補と先行詞候補が共参照関係にあると判断する基準を,共参照関係認定基準と呼ぶ.\subsubsection{共参照関係認定基準}\label{basis}文章中に出現した表現が,共参照関係にあると判断する基準,すわなち,照応詞候補が先行詞候補と,同一,または,より簡潔な形であると判断する基準として以下の2つの基準を用いる.ただし,いずれの場合も指示詞,および,「同」は考慮しない.\begin{description}\item[\underline{\mbox{共参照関係認定基準1:(文節内のみ考慮)}}]\\\照応詞,先行詞候補を含む文節を比較し,照応詞候補を含む文節の照応詞候補以前の部分が,先行詞候補を含む文節に含まれている場合,同一,または,より簡潔であるとする.\item[\underline{\mbox{共参照関係認定基準2:(文節間の係り受けも考慮)}}]\\\1の条件に加え,照応詞候補が他の文節から修飾されていない場合のみ,同一,または,より簡潔であるとする.\end{description}例として,(\ref{part})のような文を考える.共参照関係認定基準1を使用した場合は,a,b,cの場合に,後続する「出場者」は先行する「出場者」と同一,または,より簡潔な表現だと判断し,共参照関係認定基準2を使用した場合は,a,bの場合のみ,同一,または,より簡潔な表現だと判断する.\exs{a.\label{part}&会場に集まった\underline{出場者}が….\underline{出場者}たちは….\\&b.&会場に集まった\underline{出場者}が….同\underline{出場者}たちは….\\&c.&会場に集まった\underline{出場者}が….決勝に残った\underline{出場者}たちは….\\&d.&会場に集まった\underline{出場者}が….決勝戦\underline{出場者}たちは….}\subsubsection{文字列のマッチングを用いた共参照解析のアルゴリズム}\label{alg}以上の方針に基づく,文字列のマッチングを用いた共参照解析のアルゴリズムを以下に示す.\begin{enumerate}\item対象とする文章について,形態素解析,固有表現認識,構文解析を行う.\item文頭の文節から順に,すべての名詞句,および,複合名詞の構成素を照応詞候補とする.だだし,固有表現と解析された名詞句については,それ以上分割しない.\item各照応詞候補について,以下の基準で先行詞を探し,先行詞が見つかった場合は,それらの照応詞候補,先行詞は共参照関係にあると判断する.ただし,1文節中に複数の照応詞がある場合は,より主辞の近く(右側)に出現したものを優先する.\begin{enumerate}\item先行する文章中から同一の表現を探す.\label{3-a}\item照応詞候補が固有表現である場合は,より簡潔な表現であるかどうかを考慮せず,同一の固有表現があれば先行詞と判断する.\itemそれ以外の場合は,照応詞候補がその表現と同一,または,より簡潔な形である場合,その表現を先行詞とする.先行詞の条件を満たす表現が複数あった場合は,照応詞候補の近くに出現したものを優先する.\end{enumerate}\end{enumerate}\subsection{名詞句の関係解析の利用}構文解析の結果,連体修飾関係にある2つの文節と,それらに含まれる自立語を含む複合名詞句があった場合,連体修飾されている名詞句と複合名詞句は同じ対象を指している可能性が高いと考えられる.例えば,(\ref{soren})中の「北海道北部」に連体修飾された「占領」と「北海道北部占領」や,(\ref{tate})中の「立てこもる」に連体修飾された「事件」と「立てこもり事件」は同一の対象を指していると考えられる.そこで,照応詞候補を含む文節の照応詞候補以前の部分が,先行詞候補を含む文節に含まれていない場合であっても,含まれていない部分を原形に直したものが,先行詞候補を連体修飾している文節の原形に含まれている場合,これらは共参照関係にあると考える.\ex{…,ソ連の当時の最高指導者スターリンが,日本の\textbf{北海道北部}の\underline{占領}とともに,……ソ連の\underline{北海道北部占領}計画は既に知られているが…\label{soren}}\ex{…女性を人質に\textbf{立てこもる}\underline{事件}があった.今回の\underline{立てこもり事件}について…\label{tate}}同様に,橋渡し指示解析の結果,先行詞候補と関係があると解析された表現の原形を補うことにより,照応詞候補が先行詞候補に含まれるようになった場合,これらは共参照関係にあると考える.例えば(\ref{wcup})のような文があった場合,橋渡し指示解析の結果,2文目に出現する「結果」がアンケートの結果であると認識され,3文目の「アンケート結果」と同一の対象を指していると解析できるようになる.\ex{2006FIFAワールドカップ優勝国予想アンケートが行った.\underline{結果}はブラジルがトップだった.\underline{アンケート結果}の詳細はWebで見られる.\label{wcup}}\subsection{同義表現の利用}\ref{alg}節で説明したアルゴリズムでは,同義表現を用いた言い換えに対応できない.そこで,\ref{alg}節の3(a)において,先行する文章中から同一の表現を探す際に,自動獲得した同義表現も対象とする.この結果,以下のような文があった場合,「北大西洋条約機構」と「NATO」の間の共参照解析を認識できるようになる.\ex{米国は\underline{北大西洋条約機構}加盟国に対し,タリバンとの衝突が激化した南部地域への増派を求めており,7日からの\underline{NATO}国防省理事会で主要議題になる見通し.} \section{実験と考察} 京都テキストコーパス,および,ウェブから集めた文章に京都テキストコーパスと同様の基準\cite{TAG}で共参照タグを付与したウェブコーパスを用いて,共参照解析実験を行なった.京都テキストコーパスは,毎日新聞322記事2098文から成り,2870個の共参照タグが付与されている.ウェブコーパスは,186記事979文から成り,717個の共参照タグが付与されている.実験は,共参照関係認定基準1,および,共参照関係認定基準2それぞれに対し,文字列のマッチングのみを用いた手法,それに名詞句の関係解析,自動獲得した同義表現,および,その両方を追加した計4手法を行った.また,共参照関係認定基準の妥当性を確かめるため,より簡潔であるかどうかに関わらず,照応詞候補があった場合,先行する直近の同一の表現を先行詞と判断するという手法も用いた.すなわち,「大統領官邸」という表現の前に「首相官邸」という表現がある場合,「官邸」が同一の対象を指していると判断する.ただし,より長い表現間のマッチングを優先し,「首相官邸」より前に「大統領官邸」という表現があった場合は,「大統領官邸」を先行詞とする.結果を表\ref{main}に示す.表\ref{main}中のF値は,適合率と再現率の調和平均である.\begin{table}[b]\caption{共参照解析結果}\label{main}\begin{center}\input{05table06.txt}\end{center}\end{table}先行する直近の同一の表現を先行詞と判断する手法と文字列のマッチングのみを用いた手法を比較すると,いずれの共参照関係認定基準を用いた場合も,僅かな再現率の減少で,適合率は大幅に上昇しており,照応詞を先行詞と同一,または,より簡潔な表現とするという制約が有効であることが確認できる.共参照関係認定基準1を用いた場合と共参照関係認定基準2を用いた場合とを比較すると,共参照関係認定基準2の方が厳しい制約であるため,再現率が低下するかわりに,適合率が上昇している.F値に関しては,京都テキストコーパスを用いた実験では共参照関係認定基準1を用いた場合の方が,ウェブコーパスを用いた実験では共参照関係認定基準2を用いた場合の方が高くなっている.これは,新聞記事では比較的長い名詞句が多いため,同一の複合名詞句であれば同じものを指している場合が多く文節内のみを考慮すれば十分であるのに対し,ウェブコーパスでは短い名詞句が多いため文節間の修飾関係も考慮する必要があるためだと考えられる.同義表現を用いない場合と用いる場合を比較すると,同義表現を用いることにより適合率,再現率はともに上昇しており,自動獲得した同義表現を共参照解析に用いることは有効であると言える.表\ref{syn}に同義表現の利用により新たに共参照関係にあると解析された例を示す.共参照関係認定基準1を用いた場合,同義表現を用いることにより,京都テキストコーパスとウェブコーパス合わせて新たに56個がシステムにより共参照関係にあると解析されるようになった.そのうち51個が正しい解析となっており,新たに誤って解析されるようになったものは表\ref{syn}に示した「衛星」と「BS」など5個のみであった.また,51個中21個が国語辞典から抽出された同義表現であり,国語辞典から抽出された同義表現は,数は少ないものの共参照解析の性能向上に貢献していることが分かる.\begin{table}[b]\caption{同義表現の利用により新たに共参照関係にあると解析された例}\label{syn}\input{05table07.txt}\end{table}一方,名詞句の関係解析を用いた場合,再現率は上昇したものの,適合率は減少しており,ウェブコーパスに対し共参照関係認定基準1を用いた実験ではF値も低下している.しかし,ウェブコーパスに対し,より高い精度となる共参照関係認定基準2を用いた場合は再現率は大幅に上昇しており,また,いずれのコーパスに対しても,もっとも高い精度が得られたのは同義表現,名詞句の関係解析の両方を用いた場合であることから,名詞句の関係解析を用いることも共参照解析にある程度有効であると考えられる.共参照関係認定基準1を用いた場合に,名詞句の関係解析の利用により新たに共参照関係にあると解析された例を表\ref{rel}に示す.表\ref{rel}において,名詞句の関係解析を用いることにより新たに正しく認識できるようになったものは,それぞれ2回出現する「所感」,「結果」,「漁民」が「首相の所感」,「アンケートの結果」,「ベトナム系の漁民」と解析されたことにより,これらの間の共参照関係を認識できるようになった.一方,新たに誤って認識するようになったものは,それぞれ2回出現する「候補」,「燃料」が「連絡協議会の候補」,「核の燃料」と解析されることから,これらの表現が共参照関係にあると判断したものの,この場合は,それぞれ「有力」,「独自の」,また,「初回分の」,「代替」という異なる修飾語で限定されていることから,これらの表現は同一のものを指しているとは言えず,誤った解析となっている.\begin{table}[b]\caption{名詞句の関係解析の利用により新たに共参照関係にあると解析された例}\label{rel}\input{05table08.txt}\end{table}\begin{table}[b]\caption{照応詞と先行詞の関係ごとの再現率}\label{recall}\begin{center}\input{05table09.txt}\end{center}\end{table}続いて,\ref{hajime}章で分類した照応詞と先行詞の関係ごとの傾向を調べるため,京都テキストコーパスから無作為に抽出した共参照タグ250個について,照応詞と先行詞の関係,および,システムが正しく認識できているか否かを調べた.結果を表\ref{recall}に示す.照応詞の表記が先行詞の表記に含まれている場合は高い再現率が実現できていることが確認できる.また,同義表現による言い換えとなっている場合は,出現数が少ないものの,ある程度高い再現率が実現されていると考えられる.その他に分類されたものは本システムでは原理的に解析できないため,22個すべてが解析できていない.その他に分類された例を(\ref{others})に示す.このような共参照関係は全体の約9\%程度を占めており,より高い再現率をもつ共参照解析システムを構築するためには,これらの認識を行う必要があると考えられる.\exs{a.\label{others}&小選挙区に立候補するには現金\underline{三百万円}か\underline{同額}の国債証書を…\\[-10pt]&b.&…ロシア軍は一日までの激戦で,首都\underline{グロズヌイ}を事実上制圧した模様だが,….しかし,\underline{市}内を完全に制圧するまでには,…}\begin{table}[t]\caption{先行研究との比較}\label{compare}\begin{center}\input{05table10.txt}\end{center}\end{table}最後に,先行研究との比較結果を表\ref{compare}に示す.対象とする共参照の定義,および,使用しているコーパスが異なるため単純には比較できないものの,提案システムは,ある程度高い精度を実現していると考えられる. \section{関連研究} 直接照応解析に関係する先行研究で用いられた手法としては大きく,人手で作成した規則に基づく解析手法と,タグ付きコーパスを用いた学習手法に分けられる.\subsection{規則ベースの手法}Zhouら\cite{Zhou2004}は,英文に対して,coreferenceを7種類に分類し,照応の種類ごとに規則を作成し直接照応の解析を行っている.各段階で必要となる制約は基本的にデータから人手で作成している.Zhouらはこの手法により,MUC-6に対して73.9\%,MUC-7に対して66.5\%のF値という解析結果を得ている.村田ら\cite{Murata1996b}は,日本語を対象として,名詞の指示性を考慮した9個のルールを用いて名詞の同一性の解析を行っている.名詞句の指示性に関しては,人手で作成した86個の規則を適用することにより,すべての名詞を総称名詞,定名詞,不定名詞の3種類に分類している.童話や新聞記事を用いた実験を行い,結果として適合率79\%,再現率77\%を得ている.童話,新聞記事それぞれの精度,および,複合名詞の構成素が関係する照応をどこまで扱っているかなどは不明である.\subsection{機械学習を用いた手法}機械学習を用いた同一指示解析手法はいくつかの手法が提案されている.これらの手法の多くは,共参照解析の問題を,照応詞候補に対して,先行詞の候補となる名詞句の各々が先行詞となるか否かを判別する2値分類問題として扱っている.分類器は対象の名詞句が先行詞かどうかという2値分類問題を解く.Soonら\cite{Soon2001}は,訓練時には,先行詞と照応詞の対を正例,先行詞と照応詞の間の各名詞句と照応詞の対を負例として学習した.照応問題を解く際には,照応詞から先行文脈に向かって,先行詞候補となる名詞句の各々について,それが先行詞かどうかを分類していく.そして,分類器がいずれかの名詞句を先行詞として決定した時点で解析を終了する.分類器が,先行する名詞句をすべて先行詞でないと分類した場合は,対象としている照応詞は先行詞を持たないと判断する.Soonらの実験では,12個の素性を用い,決定木を用いて学習を行ない,MUC-6に対して62.6\%のF値,MUC-7に対して60.4\%のF値と,規則ベースの手法と同程度の精度を得ている.Ngら\cite{Ng2002a}はSoonらの手法を2つの点において改良している.一つは素性集合を拡張し,語彙的な素性や意味的素性など,53個の素性に増やした.もう一つは先行詞同定の探索アルゴリズムの変更である.Soonらが照応詞に近い名詞句から順に先行詞かどうかを決定的に決めるのに対し,Ngらはすべての先行する名詞句を分類器にかけ,分類器が先行詞と決定した名詞句の中で,最も先行詞らしいと判定した名詞句を先行詞とする.NgらのモデルはSoonらのモデルよりも先行詞同定の精度がよく,MUC-6に対して70.4\%,MUC-7に対して63.4\%のF値を得ている.日本語における機械学習を用いた同一指示性解析に関する研究としてはIidaら\cite{Iida2003}の研究がある.Iidaらは日本語では冠詞などの情報が無く,名詞句の指示性の推定がそれほど容易でないことから,まず名詞の指示性の判断を行った後に先行詞の同定を行うのではなく,まずある表現に対する最尤先行詞候補を決定した後先行詞候補の情報も用いて名詞の指示性の判断を行っている.Iidaらは分類器としてSVMを用い,語彙的な情報を用いた素性や統語的な情報を用いた素性,意味的な情報を用いた素性,名詞句間の距離情報を用いた素性計30あまりの素性を用いている.京大コーパスの報道90記事に対して名詞句同一指示関係のタグを付与し,10分割交叉検定を行った結果,F値として70.9\%を得ている. \section{おわりに} 本稿では,まず,コーパスおよび国語辞典の定義文から同義表現の自動獲得を行った.続いて,獲得した同義表現,および,名詞句の関係解析結果を用いた日本語共参照解析システムの構築を行った.京都テキストコーパス,および,ウェブコーパスを使った実験の結果,同義表現,および,名詞句の関係解析結果を用いることにより,共参照解析の精度は向上し,手法の有効性が確認できた.今後の課題としては,文字列のマッチングや同義表現による言い換えでは解析できないような共参照関係の認識が挙げられる.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Guodong\BBA\Jian}{Guodong\BBA\Jian}{2004}]{Zhou2004}Guodong,Z.\BBACOMMA\\BBA\Jian,S.\BBOP2004\BBCP.\newblock\BBOQAHigh-PerformanceCoreferenceResolutionSystemusingaConstraint-basedMulti-AgentStrategy\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\522--528}.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2006}]{Iida2006}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2006\BBCP.\newblock\BBOQExploitingSyntacticPatternsasCluesinZero-AnaphoraResolution\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\625--632}.\bibitem[\protect\BCAY{Iida,Inui,Takamura,\BBA\Matsumoto}{Iidaet~al.}{2003}]{Iida2003}Iida,R.,Inui,K.,Takamura,H.,\BBA\Matsumoto,Y.\BBOP2003\BBCP.\newblock\BBOQIncorporatingContextualCuesinTrainableModelsforCoreferenceResolution\BBCQ\\newblockIn{\BemProceedingsofthe10thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguisticsWorkshoponTheComputationalTreatmentofAnaphora},\mbox{\BPGS\23--30}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2004}]{Kawahara2004a}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2004\BBCP.\newblock\BBOQZeroPronounResolutionbasedonAutomaticallyConstructedCaseFramesandStructuralPreferenceofAntecedents\BBCQ\\newblockIn{\BemProceedingsofthe1stInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP-04)},\mbox{\BPGS\334--341}.\bibitem[\protect\BCAY{Ng\BBA\Cardie}{Ng\BBA\Cardie}{2002}]{Ng2002a}Ng,V.\BBACOMMA\\BBA\Cardie,C.\BBOP2002\BBCP.\newblock\BBOQImprovingMachineLearningApproachestoCoreferenceResolution\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\104--111}.\bibitem[\protect\BCAY{Nichols,Bond,\BBA\Flickinger}{Nicholset~al.}{2005}]{Nichols2005}Nichols,E.,Bond,F.,\BBA\Flickinger,D.\BBOP2005\BBCP.\newblock\BBOQRobustontologyacquisitionfrommachine-readabledictionaries\BBCQ\\newblockIn{\BemProceedingsoftheInternationalJointConferenceonArtificialIntelligenceIJCAI-2005},\mbox{\BPGS\1111--1116}.\bibitem[\protect\BCAY{Okazaki\BBA\Ishizuka}{Okazaki\BBA\Ishizuka}{2008}]{Okazaki2008}Okazaki,N.\BBACOMMA\\BBA\Ishizuka,M.\BBOP2008\BBCP.\newblock\BBOQADiscriminativeApproachtoJapaneseAbbreviationExtraction\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP-08)},\mbox{\BPGS\889--894}.\bibitem[\protect\BCAY{Sasano,Kawahara,\BBA\Kurohashi}{Sasanoet~al.}{2004}]{Sasano2004}Sasano,R.,Kawahara,D.,\BBA\Kurohashi,S.\BBOP2004\BBCP.\newblock\BBOQAutomaticConstructionofNominalCaseFramesanditsApplicatointoIndirectAnaphoraResolution\BBCQ\\newblockIn{\BemProceedingsofthe20thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1201--1207}.\bibitem[\protect\BCAY{Seki,Fujii,\BBA\Ishikawa}{Sekiet~al.}{2002}]{Seki2002}Seki,K.,Fujii,A.,\BBA\Ishikawa,T.\BBOP2002\BBCP.\newblock\BBOQAProbabilisticMethodforAnalyzing{J}apaneseAnaphoraIntegratingZeroPronounDetectionandResolution\BBCQ\\newblockIn{\BemProceedingsofthe19thInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\911--917}.\bibitem[\protect\BCAY{Soon,Ng,\BBA\Lim}{Soonet~al.}{2001}]{Soon2001}Soon,W.~M.,Ng,H.~T.,\BBA\Lim,D.C.~Y.\BBOP2001\BBCP.\newblock\BBOQAMachineLearningApproachtoCoreferenceResolutionofNounPhrases\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf27}(4),\mbox{\BPGS\521--544}.\bibitem[\protect\BCAY{Tokunaga,Syotu,Tanaka,\BBA\Shirai}{Tokunagaet~al.}{2001}]{Tokunaga2001}Tokunaga,T.,Syotu,Y.,Tanaka,H.,\BBA\Shirai,K.\BBOP2001\BBCP.\newblock\BBOQIntegrationofheterogeneouslanguageresources:Amonolingualdictionaryandathesaurus\BBCQ\\newblockIn{\Bemthe6thNaturalLanguageProcessingPacificRimSymposium},\mbox{\BPGS\135--142}.\bibitem[\protect\BCAY{鶴丸\JBA竹下\JBA伊丹\JBA柳川\JBA吉田}{鶴丸\Jetal}{1991}]{Tsurumaru1991}鶴丸弘昭\JBA竹下克典\JBA伊丹克企\JBA柳川俊英\JBA吉田将\BBOP1991\BBCP.\newblock\JBOQ国語辞典情報を用いたシソーラスの作成について\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会1991-NL-083},\mbox{\BPGS\121--128}.\bibitem[\protect\BCAY{酒井\JBA増山}{酒井\JBA増山}{2003}]{Sakai2003}酒井浩之\JBA増山繁\BBOP2003\BBCP.\newblock\JBOQコーパスからの名詞と略語の対応関係の自動獲得\JBCQ\\newblock\Jem{言語処理学会第9回年次大会発表論文集}.\bibitem[\protect\BCAY{西尾\JBA岩淵\JBA水谷}{西尾\Jetal}{2000}]{Iwanami}西尾実\JBA岩淵悦太\JBA水谷静夫\JEDS\\BBOP2000\BBCP.\newblock\Jem{岩波国語辞典}.\newblock岩波書店.\bibitem[\protect\BCAY{村田\JBA長尾}{村田\JBA長尾}{1996}]{Murata1996b}村田真樹\JBA長尾眞\BBOP1996\BBCP.\newblock\JBOQ名詞の指示性を利用した日本語文章における名詞の指示対象の推定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf3}(1),\mbox{\BPGS\67--81}.\bibitem[\protect\BCAY{河原\JBA黒橋\JBA橋田}{河原\Jetal}{2002}]{Kawahara2002c}河原大輔\JBA黒橋禎夫\JBA橋田浩一\BBOP2002\BBCP.\newblock\JBOQ「関係」タグ付きコーパスの作成\JBCQ\\newblock\Jem{言語処理学会第8回年次大会発表論文集},\mbox{\BPGS\495--498}.\bibitem[\protect\BCAY{河原\JBA笹野\JBA黒橋\JBA橋田}{河原\Jetal}{2005}]{TAG}河原大輔\JBA笹野遼平\JBA黒橋禎夫\JBA橋田浩一\BBOP2005\BBCP.\newblock\Jem{格・省略・共参照タグ付けの基準}.\bibitem[\protect\BCAY{黒橋\JBA河原}{黒橋\JBA河原}{2007}]{KNP3}黒橋禎夫\JBA河原大輔\BBOP2007\BBCP.\newblock\JBOQ日本語構文解析システム{KNP}version3.0使用説明書\JBCQ\\newblock京都大学大学院情報学研究科.\bibitem[\protect\BCAY{久光\JBA丹羽}{久光\JBA丹羽}{1997}]{Hisamitsu1997}久光徹\JBA丹羽芳樹\BBOP1997\BBCP.\newblock\JBOQ統計量とルールを組み合わせて有用な括弧表現を抽出する手法\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会1997-NL-122},\mbox{\BPGS\113--118}.\bibitem[\protect\BCAY{村上\JBA那須川}{村上\JBA那須川}{2004}]{Murakami2004}村上明子\JBA那須川哲哉\BBOP2004\BBCP.\newblock\JBOQ複数の著者の表記の違いを利用した同義表現抽出\JBCQ\\newblock\Jem{情報処理学会自然言語処理研究会2004-NL-162},\mbox{\BPGS\117--124}.\bibitem[\protect\BCAY{上野\JBA森\JBA木戸\JBA中川}{上野\Jetal}{2004}]{Ueno2004}上野友司\JBA森辰則\JBA木戸冬子\JBA中川裕志\BBOP2004\BBCP.\newblock\JBOQ係り受けの2部グラフと共起関係を利用した同義語抽出\JBCQ\\newblock\Jem{言語処理学会第10回年次大会発表論文集}.\bibitem[\protect\BCAY{山本}{山本}{2002}]{Yamamoto2002}山本和英\BBOP2002\BBCP.\newblock\JBOQテキストからの語彙的換言知識の獲得\JBCQ\\newblock\Jem{言語処理学会第8回年次大会発表論文集}.\bibitem[\protect\BCAY{田近}{田近}{1997}]{Reikai}田近洵一\JED\\BBOP1997\BBCP.\newblock\Jem{例解小学国語辞典}.\newblock三省堂.\end{thebibliography}\begin{biography}\bioauthor{笹野遼平}{2004年東京大学工学部電子情報工学科卒業.2006年同大学院情報理工学系研究科修士課程修了.現在,同大学院博士課程在学中.省略解析,照応解析の研究に従事.}\bioauthor{黒橋禎夫}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学院博士課程修了.京都大学工学部助手,京都大学大学院情報学研究科講師,東京大学大学院情報理工学系研究科助教授を経て,2006年京都大学大学院情報学研究科教授,現在に至る.自然言語処理,知識情報処理の研究に従事.}\end{biography}\biodate\end{document}
V08N04-04
\section{はじめに} \label{sec:intro}英語と日本語は,英語が名詞文体であり日本語が動詞文体であると言われるように,言語的特徴が著しく異なる言語である.このため,英語の名詞句をそのまま日本語の名詞句に直訳すると,違和感を感じることが少なくない.例えば,文(E\ref{SENT:buying})を実用に供されているある英日機械翻訳システムで処理すると,文(J\ref{SENT:buying})のような翻訳が出力される.\begin{SENT}\sentETheBOJ'sbuyingofnewgovernmentbondsisbannedunderfiscallaw.\sentJ新しい国債のBOJの購入は,会計法の下で禁止される.\label{SENT:buying}\end{SENT}文(E\ref{SENT:buying})において名詞句``TheBOJ'sbuyingofnewgovernmentbonds''が伝える命題的な内容は,「BOJが新しい国債を購入すること」であるが,日本語の名詞句「新しい国債のBOJの購入」をこの意味に理解することは,訳文を注意深く読まなければ難しい.このような問題を解決するためには,英語と日本語の言語的特徴の違いを考慮に入れ,日本語として自然な表現が得られる処理を実現することが重要となる.しかしながら,従来の機械翻訳研究では,主に原文解析の正しさに焦点が当てられており\cite{Narita00},訳文の自然さについてはあまり議論されてこなかった\cite{Yoshimura95,Yamamoto99}.訳文の自然さに関する研究としては,文献\cite{Nagao85,Somers88,Matsuo95}などがある.これらの文献に示されている方法では,直訳すると日本語として不自然になる英語の名詞句を適切に翻訳するための処理が原言語から目的言語への変換過程で行なわれる.ところで,人間による翻訳では,文が表わす命題内容を含む名詞句を日本語に直訳した場合の違和感を解消するために,英語の名詞句を日本語に翻訳する前に,文またはそれに近い形式に言い換えるという処置がとられることがある\cite{Nida73,Anzai83}.本研究では,人間のこの翻訳技法を機械的に模倣し,このような名詞句を前編集の段階で文に近い形式に自動的に書き換えることによって自然な訳文を生成することを試みる.日本語として自然な表現を得るための処理を変換過程で行なう方法に比べて,前編集の段階で行なう方法の利点は,前編集系は特定のシステムの内部に組み込まれていないため,システムへの依存性が低く,実践上の適用範囲が広いことである.実際,対象名詞句が現れる英文を提案手法によって書き換えて既存システムで翻訳し,元の英文の翻訳と比較する実験を行なったところ,我々のシステムだけでなく,市販されている他のシステムにおいても,より自然な翻訳が得られることが確認された.このことは,提案手法が様々なシステムの前編集系として利用可能であることを示している. \section{書き換えの分類} \label{sec:classify}本節ではまず,書き換え前の表現(名詞的表現)が文中で果たす構文的機能と,書き換え後の表現の構文的機能が同じであるか異なるかという観点から書き換えを二種類に分類する.本稿では,書き換え前後の表現の構文的機能が変化しない書き換えを扱うが,名詞的表現の中でも動詞的性質を持つもの(後述)を書き換え対象とする.このため,次に,動詞的性質の強さの度合いに着目した名詞的表現の分類を示す.\subsection{書き換え前後の表現の構文的機能に着目した分類}\label{sec:classify:syn-func}書き換え前後の表現が文中で果たす構文的機能が異なる書き換えには,名詞句として機能している表現を副詞的に機能する表現に書き換えるものなどがある.例えば文(E\ref{ESENT:diff-func})のような無生物主語他動詞構文における主語の名詞句を,文(E\ref{ESENT:diff-func}')のように,接続詞asで導かれ理由を表わす副詞的従属節に書き換えることができる\cite{Bekku75,Anzai83}.このような書き換えを行なうためには,構文構造を大きく変更する必要がある.\begin{ESENT}\sentEHisthreeyear'sstayinLondonbroughthimagreatprogressinEnglishconversation.\sentRewEAshehadstayedinLondonforthreeyears,hemadeagreatprogressinEnglishconversation.\label{ESENT:diff-func}\end{ESENT}書き換え前後の表現の構文的機能が変化しない書き換えでは,書き換え後の表現も名詞的に機能する.例えば文(E\ref{EJSENT2:same-func})における名詞句``hisabsencefromtheparty''は,文(E\ref{EJSENT2:same-func}')のように動名詞節``hisbeingabsentfromtheparty''に書き換えることや,文(E\ref{EJSENT2:same-func}'')のように名詞的従属節``thathewasabsentfromtheparty''に書き換えることができる\footnote{一般には,元の名詞句の解釈と,書き換え後の動名詞節やthat節の解釈とが一致しないことがあり\cite{Chomsky70,Thomason85,Siegel97},常に書き換え可能であるとは限らない.}.\begin{EJSENT2}\sentEWeweredisappointedathisabsencefromtheparty.\sentJ我々は,パーティからの彼の不在に失望した.\sentRewEWeweredisappointedathisbeingabsentfromtheparty.\sentRewJ我々は,彼がパーティを欠席していることに失望した.\sentYAEWeweredisappointedthathewasabsentfromtheparty.\sentYAJ我々は,彼がパーティを欠席していることに失望した.\label{EJSENT2:same-func}\end{EJSENT2}本研究では,書き換え前後で構文的機能が変化しない書き換えだけを扱う.もちろん,このような制限を設けないほうが望ましいが,構文的機能が変化しない書き換えは,構文構造を大きく変える必要がないため,機械的な前編集による実現が容易である.また,名詞的表現への比較的簡単な書き換えを行なった上で処理するだけでも,書き換え前の文の翻訳に比べてより自然な翻訳が得られる例も少なくない.実際,文(J\ref{EJSENT2:same-func}')と文(J\ref{EJSENT2:same-func}'')は,書き換え後の文を我々のシステムで実際に処理して得られた翻訳であるが,書き換え前の文の訳文(J\ref{EJSENT2:same-func})に比べてより自然な翻訳になっている.具体的にどの程度の文において翻訳品質の改善効果が期待できるかについては\ref{sec:rewrite:prospect}\,節で述べる.\subsection{名詞化の階層}\label{sec:classify:depred}名詞的表現の中には,文が表わす命題内容を含むものがある.そのような名詞的表現と文の間には,動詞的性質の強さ(名詞的性質の弱さ)に応じて,名詞化の階層をいくつか設定することができる\cite{Jelinek66,Lees68}.ここでは,Jelinekの分類に準じて,文から動詞由来名詞句までに次のような五段階の表現形式が可能であるものとする.文が最終的に動詞由来名詞を主辞とする名詞句に縮退していく過程で,動詞的性質は徐々に弱まり,逆に名詞的性質が徐々に強まっていく(時制や相,態,法などの動詞的範疇に対する制限が強くなっていく).本研究は,以下に挙げる表現間での書き換えを実現することを目的とする.\begin{DEPRED}\depred\label{depred:sent}縮退度\ref{depred:sent}\,の表現形式である文では,時制や相,態,法などのあらゆる動詞的範疇が明示される.\begin{DEPEX}\depexampleHerefusedourinvitationtoaparty.\end{DEPEX}\depred\label{depred:subord}縮退度\ref{depred:subord}\,の表現は,接続詞thatなどで導かれる名詞的従属節である.従属節は時制や法などの選択肢が制限された形式であり,時制の区別は時制一致の法則に従う.\begin{DEPEX}\depexampleWeweredisappointed{\itthatherefusedourinvitationtoaparty}.\end{DEPEX}\depred\label{depred:verb-gerund}縮退度\ref{depred:verb-gerund}\,の表現を動詞的動名詞節と呼ぶ\cite{Yasui82,Declerck94}.動詞的動名詞は,次のような構文的性質を持つ.(a)冠詞や限定詞を伴うことができず(ただし属格は可能),(b)副詞による修飾が可能であるが形容詞による修飾は不可能であり,(c)意味上の主語や目的語が前置詞ofで導かれず,(d)時制の区別が可能であり,(e)複数形が存在しない\cite{Inui54,Ota74,Yasui82,Declerck94}.\begin{DEPEX}\depexampleWeweredisappointedat{\ithishavingrefusedourinvitationtoaparty}.\end{DEPEX}\depred\label{depred:noun-gerund}この縮退度の表現は名詞的動名詞句と呼ばれる.名詞的動名詞句は,動詞的動名詞節の構文的性質(a)ないし(e)とすべての点で逆の性質を示す.\begin{DEPEX}\depexampleWeweredisappointedat{\ithisrefusingofourinvitationtoaparty}.\end{DEPEX}\depred\label{depred:nominal}縮退度\ref{depred:nominal}\,は,接尾辞\,-ionや\,-mentなどを伴う動詞由来名詞を主辞とする名詞句である.また,接尾辞-nessなどを伴う形容詞由来名詞を主辞とする名詞句もこの縮退度の表現に分類される.\begin{DEPEX}\depexampleWeweredisappointedat{\ithisrefusalofourinvitationtoaparty}.\end{DEPEX}\end{DEPRED} \section{名詞句の書き換え} \label{sec:rewrite}機械翻訳システムの前編集でどの縮退度の表現をどの縮退度の表現に書き換えるべきかは,書き換え結果を入力として受け取るシステムに依存する\footnote{しかし,\ref{sec:experiment:trans}\,節で示すように,本稿の書き換えは我々のシステムだけでなく他のいくつかの市販システムの前編集系としても有効である.}.以下,我々が実験に利用したシステムにおいて必要な書き換えについて述べる.\subsection{書き換え対象}\label{sec:rewrite:source}我々のシステムでは,動詞的動名詞節(縮退度\ref{depred:verb-gerund})の翻訳には問題はないが,名詞的動名詞句(縮退度\ref{depred:noun-gerund})と動詞由来名詞句(縮退度\ref{depred:nominal})は直訳されて不自然な翻訳となることが多い.このため,本研究では名詞的動名詞句と動詞由来名詞句を書き換え対象候補とする.さらに,訳文の不自然さの度合い(後述)を考慮して形式(\ref{eq:source-np1})に適合する名詞句に候補を限定する.この候補の中から実際に書き換える名詞句を選択するための条件については,\ref{sec:rewrite:cond}\,節で述べる.\begin{equation}[\\mbox{NP}_1\mbox{'s}\\mbox{ADJ}^?\\mbox{NOM}\\mbox{of}\\mbox{NP}_2\]\label{eq:source-np1}\end{equation}形式(\ref{eq:source-np1})の名詞句は,NOMを主辞とする名詞句である.NOMは,動名詞または動詞由来名詞を表わす.\NPpreは,属格名詞句または限定的所有代名詞である.形容詞ADJに付されている上付き記号?は一回以下の出現を意味する.形式(\ref{eq:source-np1})の名詞句を含む文の例と,我々のシステムによる翻訳を以下に挙げる.各文において,斜字体の部分が書き換えるべき名詞句であり,ボールド体の部分がそれに対応する翻訳である.文(E\ref{SENT:Ving})には名詞的動名詞句が含まれ,文(E\ref{SENT:VN})には動詞由来名詞句が含まれている.文(E\ref{SENT:ADJ-VN})の動詞由来名詞句では動詞由来名詞を修飾する形容詞が存在する.\begin{SENT}\sentERelocationoftheFutenmaair-baseistotallyunrelatedto{\itOkinawa'shostingofthe2000GroupofEightSummit}.\sentJFutenma空軍基地の再配置は,{\bf沖縄の2000年先進8ヶ国サミットのホスティング}に完全に無関係である.\label{SENT:Ving}\end{SENT}\begin{SENT}\sentE{\itYourfulfillmentofthisobligation}willbeimportanttotherenewalofourdealershipagreementwithyou.\sentJ{\bfこの義務のあなたの達成}は,あなたとの我々の販売権合意の更新にとって重要であろう.\label{SENT:VN}\end{SENT}\begin{SENT}\sentE{\itYournegativeconsiderationofourposition}willnotfacilitatemutuallyrewardingmarketingefforts.\sentJ{\bf我々のポジションのあなたの負の考慮}は,相互に報いるマーケティング努力を促進しないであろう.\label{SENT:ADJ-VN}\end{SENT}書き換えは,名詞的動名詞あるいは動詞由来名詞NOMを主辞とする名詞句のすべてに対して行なう必要はなく,日本語に直訳した場合の問題が大きい名詞句に対してだけ行なえばよい.このため,次のような理由から主な書き換え対象を形式(\ref{eq:source-np1})の名詞句とした.形式(\ref{eq:source-np1})は,属格名詞句とof前置詞句の二つの句が主辞NOMに結合した名詞句を表わしている.NOMを主辞とする名詞句のうち形式(\ref{eq:source-np1})以外の名詞句としては,(a)``fulfillmentofthisobligation''や単に``fulfillment''のように,NOMに結合する句が一つ以下である名詞句や,(b)``thecity'sdestructionbytheenemy''や``destructionofthecitybytheenemy''のように,NOMに結合する句が二つであってもそれらが属格名詞句とof前置詞句の組み合わせでない名詞句などがある.形式(\ref{eq:source-np1})の名詞句の翻訳は,次のようなことが原因で(a)や(b)の名詞句の翻訳よりさらに読みにくい.(a)や(b)の名詞句では,助詞「の」によってNOMに結び付けられる句は高々一つしか存在しない.例えば,(a)の``fulfillmentofthisobligation''の翻訳は「この義務の達成」となり,(b)の``thecity'sdestructionbytheenemy''と``destructionofthecitybytheenemy''の翻訳は共に「敵による都市の破壊」となる.これに対して,文(J\ref{SENT:Ving})ないし文(J\ref{SENT:ADJ-VN})に示したように,従来システムで形式(\ref{eq:source-np1})の名詞句を処理した場合には,「\NPの\NPpostのNOM」と翻訳され,\NPとNOMの関係及び\NPpostとNOMの関係は共に助詞「の」で示される.形式(\ref{eq:source-np1})の名詞句では,\NPがNOMの意味上の主語,\NPpostが目的語であることが多い\footnote{\ref{sec:rewrite:cond}\,節で述べるように,NOMが活動の結果などを表わす場合はこの限りではない.}が,このように翻訳されると,\NPと\NPpostのどちらが主語でどちらが目的語であるのかが認識しにくくなる.従って,形式(\ref{eq:source-np1})のように,動詞由来名詞NOMに属格名詞句とof前置詞句の両方が結合している場合は,NOMを動詞に書き換えて,日本語として自然な翻訳にする必要性が高い.なお,本稿の主な書き換え対象候補は形式(\ref{eq:source-np1})の名詞句であるが,この他に形式(\ref{eq:source-np2})の名詞句も扱う.\begin{equation}[\\mbox{NP}_1\mbox{'s}\\mbox{ADJ}^?\\mbox{NOM}\\mbox{to}\\mbox{ADV}^?\\mbox{VERB}\]\label{eq:source-np2}\end{equation}形式(\ref{eq:source-np2})におけるNOMは,to不定詞を支配する動詞由来名詞,例えばattemptやfailure,requestなどである.形式(\ref{eq:source-np2})の名詞句を含む例を文(E\ref{SENT:failure})に示す.\begin{SENT}\sentE{\itThemanager'sfailuretoproperlysupervisePalmer'sdealings}causedthelosses.\sentJ{\bfPalmerの取引を適切に監督することに関するマネージャの不履行}は,損失を引き起こした.\label{SENT:failure}\end{SENT}\subsection{動詞的動名詞節への書き換え}\label{sec:rewrite:action}書き換えの目的は,形式(\ref{eq:source-np1})の名詞句において\NPがNOMの意味上の主語であり\NPpostが目的語であることが機械翻訳システムに認識できるような構造に書き換えることである.このためには,我々のシステムでは,動詞的動名詞節に書き換えればよい.形式(\ref{eq:source-np1})の名詞的動名詞句を動詞的動名詞節に書き換えるには,名詞的動名詞NOMの直後のofを削除し,形容詞が存在する場合にはそれを副詞化する.例えば,文(E\ref{SENT:Ving})に現れる名詞句``Okinawa'shostingofthe2000GroupofEightSummit''は,``Okinawa'shostingthe2000GroupofEightSummit''に書き換える.このように書き換えた文(E\ref{SENT:Ving}')からは,文(J\ref{SENT:Ving}')のように,文(J\ref{SENT:Ving})よりも自然な翻訳が得られる.\begin{list}{}{\setlength{\leftmargin}{6em}\setlength{\labelsep}{1em}\setlength{\labelwidth}{\leftmargin}\addtolength{\labelwidth}{-\labelsep}\setlength{\itemsep}{0ex}}\item[(E\ref{SENT:Ving}')\hspace*{1mm}]RelocationoftheFutenmaair-baseistotallyunrelatedto{\itOkinawa'shostingthe2000GroupofEightSummit}.\item[(J\ref{SENT:Ving}')\hspace*{1mm}]Futenma空軍基地の再配置は,{\bf沖縄が2000年先進8ヶ国サミットを主催すること}に完全に無関係である.\end{list}形式(\ref{eq:source-np1})の動詞由来名詞句を書き換えるには,ofの削除と形容詞の副詞化を行なう他に,動詞由来名詞をそれに対応する動名詞に書き換える.例えば,文(E\ref{SENT:VN})に現れる名詞句``yourfulfillmentofthisobligation''は,``yourfulfillingthisobligation''に書き換える.このように書き換えた文(E\ref{SENT:VN}')から得られる文(J\ref{SENT:VN}')は,文(J\ref{SENT:VN})より自然な翻訳である.\begin{list}{}{\setlength{\leftmargin}{6em}\setlength{\labelsep}{1em}\setlength{\labelwidth}{\leftmargin}\addtolength{\labelwidth}{-\labelsep}\setlength{\itemsep}{0ex}}\item[(E\ref{SENT:VN}')\hspace*{1mm}]{\itYourfulfillingthisobligation}willbeimportanttotherenewalofourdealershipagreementwithyou.\item[(J\ref{SENT:VN}')\hspace*{1mm}]{\bfあなたがこの義務を果たすこと}は,あなたとの我々の販売権合意の更新にとって重要であろう.\end{list}形式(\ref{eq:source-np2})の名詞句についても,動詞由来名詞の動名詞への書き換えによって文(J\ref{SENT:failure}')のようなより自然な翻訳が得られるようになる.\begin{list}{}{\setlength{\leftmargin}{6em}\setlength{\labelsep}{1em}\setlength{\labelwidth}{\leftmargin}\addtolength{\labelwidth}{-\labelsep}\setlength{\itemsep}{0ex}}\item[(E\ref{SENT:failure}')\hspace*{1mm}]{\itThemanager'sfailingtoproperlysupervisePalmer'sdealings}causedthelosses.\item[(J\ref{SENT:failure}')\hspace*{1mm}]{\bfマネージャがPalmerの取引を適切に監督することができないこと}は,損失を引き起こした.\end{list}\subsection{期待される改善度}\label{sec:rewrite:prospect}名詞的動名詞句や動詞由来名詞句を動詞的動名詞節に書き換えることによって,どの程度の翻訳品質(訳文の自然さ)の向上が期待できるのかをあらかじめ確認しておくために,訓練文集を作成し,形式(\ref{eq:source-np1})または(\ref{eq:source-np2})の名詞句を人手で動詞的動名詞節に書き換えた文を我々の実験システムで処理して,書き換え前の文の翻訳と比較した.評価値は品質の向上,低下,同等の三値とした.評価の実施は第三者一名に依頼した.訓練文集の作成は,単語列$[X\Y^?\Z\(of|to)]$を含む文を文字列照合によって新聞記事から抽出することによって行なった.$X$は,アポストロフィ$s$で終わる単語(属格名詞と想定)またはmyなどの単語(限定的所有代名詞)と適合する.$Y$は形容詞であることを想定している.$Z$は\,-al,\,-ance,\,-ing,\,-ion,\,-ment,\,-sisで終わる単語,または,予備調査において比較的高い頻度で出現した語attempt,failure,pledge,requestのいずれかである.この単語列に適合し,かつ品詞の条件を満たす($Z$が動名詞あるいは動詞由来名詞であり,もし$Y$が存在するならば形容詞である)表現を含む文として,218文が抽出された.このうち30文は,書き換え前の文の翻訳品質が翻訳の自然さを比較するのに適切ではなかったため,除外した.残りの188文のうち構文的,意味的に書き換え可能であるものは95文であった.95文についての評価結果を表\ref{tab:prospect}\,に示す.95文の57.9\%に当たる55文において,より自然な翻訳が得られている.このことから,動詞的動名詞節への書き換えを正しく行なうことができれば,その効果は高いと考えられる.なお,31文の翻訳品質が低下しているが,この原因は,動詞由来名詞句や名詞的動名詞句を動詞的動名詞節に書き換えると,構文構造がシステムにとって複雑になりすぎ,正しく認識できなかったことにある.\begin{table}[htbp]\caption{書き換えによって期待される翻訳品質の改善度}\label{tab:prospect}\begin{center}\begin{tabular}{|r@{}r|r@{}r|r@{}r|}\hline\multicolumn{2}{|c}{向上}&\multicolumn{2}{|c}{同等}&\multicolumn{2}{|c|}{低下}\\\hline\hline57.9\%&(55/95)&9.5\%&(9/95)&32.6\%&(31/95)\\\hline\end{tabular}\end{center}\end{table}\subsection{書き換え条件}\label{sec:rewrite:cond}\ref{sec:rewrite:action}\,節で述べた書き換え操作の適用条件は,以下で述べるように,書き換え対象名詞句の文中での構文的機能に関する制約と,動詞由来名詞の意味に関する制約から主に構成される.\subsubsection{名詞句の構文的機能に関する制約}\label{sec:rewrite:cond:syn}名詞的動名詞句と動詞由来名詞句は,主語,補語,動詞・前置詞の目的語として機能する.これに対して,動詞的動名詞節は,主語,補語としては動詞の種類によらず機能するが,動詞・前置詞の目的語になれるかどうかは動詞や前置詞の種類に依存する\footnote{この動詞的動名詞節は,形式(\ref{eq:source-np1})の名詞句を書き換えたものであるので,意味上の主語\NPを伴う.主語付き動詞的動名詞節はafterやbeforeなど時間を表わす前置詞の目的語にはならない\cite{Quirk85}.\label{foot:prep}}.このため,書き換えが構文的に可能であるかどうかを判定しなければならない.このような判定を厳密に行なうためには構文解析が必要であるが,ここでは次のように近似的に判定する.\begin{enumerate}\item\label{enum:step1}書き換え対象名詞句の直前にbe動詞以外の動詞が存在すれば,それが主語付き動詞的動名詞節を目的語として支配しうる場合に限り,動詞的動名詞節に書き換える.\item\label{enum:step2}書き換え対象名詞句の直前にbe動詞か前置詞が存在すれば,対象名詞句をそれぞれbe動詞の補語,前置詞の目的語とみなして動詞的動名詞節に書き換える.\item\label{enum:step3}書き換え対象名詞句の前方3語以内に動詞が存在しなければ,対象名詞句を主語とみなして書き換える.\end{enumerate}判定手続き(\ref{enum:step1})において,動詞が主語付き動詞的動名詞節を支配できるかどうかは,Hornbyの分類\cite{Hornby77}を拡張した動詞型に基づいて判断する.書き換え対象名詞句の直前が前置詞である場合,前置詞の種類による制約を考慮せずに書き換えを行なう.前置詞の種類を考慮しないと,英語の適格性に問題が生じることがあるが,本研究では適格な英語表現に書き換えることは二次的な目的であり,主な目的は書き換え結果を入力として受け取る機械翻訳システムによって自然な日本語表現が生成されるように英語表現を書き換えることである.実験に用いたシステムでは,動詞的動名詞節が前置詞の目的語になりうる位置に出現した場合,前置詞の種類によらず,動詞的動名詞節は前置詞の目的語と解釈されるため,構文解析に失敗しない.このため,システムのこの性質を利用して,前置詞の種類によらず動詞的動名詞節への書き換えを行なうことにする.\subsubsection{動詞由来名詞の意味に関する制約}\label{sec:rewrite:cond:sem}文は\ref{sec:classify:depred}\,節で述べた過程を経て動詞由来名詞句(縮退度\ref{depred:nominal})に縮退しうる.名詞的動名詞句(縮退度\ref{depred:noun-gerund})までの段階では,動詞的特徴を残して出来事や活動,行為を表わすが,動詞由来名詞句になると,この他に,行為の結果や場所,原因など様々な具体的あるいは抽象的なモノを表わすようになる\cite{Grimshaw90,Kageyama99}.例えば,organizationには「組織すること」の他に「協会」の意味があり,decorationには「飾ること」か「勲章」かという曖昧性があり,destructionには「破壊の原因」という意味も含まれる.ここで,文献\cite{Kageyama99}に倣い,動詞由来名詞が出来事や行為を表わす場合をデキゴト名詞と呼び,具体的あるいは抽象的なモノを表わす場合をモノ名詞と呼ぶことにする.動詞由来名詞が動詞的意味を表すデキゴト名詞である場合は,動詞由来名詞句を動詞的動名詞節に書き換えることができるが,モノ名詞である場合にはできない.このため,動詞由来名詞がデキゴト名詞であるかモノ名詞であるかを判定する必要がある.この判定に利用できる手がかりとしては,動詞由来名詞句の内部から得られるものと,外部から得られるものがある.名詞句内部からの手がかりを利用する方法\cite{Hull96}では,動詞由来名詞に対応する動詞の格パターンの各スロットに記述されている共起制約を主語\NPと目的語\NPpostが満たせばデキゴト名詞であると判定され,満たさなければモノ名詞であると判定される.他方,外部からの手がかりとしては,動詞由来名詞と,それを支配する動詞やその動詞に支配されている他の格要素との意味的な関係がある\cite{Vendler67}.しかし,本研究のように前編集の段階では,このような手がかりを正確に得ることは容易ではない.また,動詞と動詞由来名詞との意味的な対応関係は体系的なものではなく,単語ごとに個別的である\cite{Ota74}.このため,次のような素朴な方法でモノ名詞かデキゴト名詞かを区別する.すなわち,動詞由来名詞が形式(\ref{eq:source-np1})の名詞句の主辞になっている場合に,動詞由来名詞の解釈として,(a)文脈によらずデキゴト名詞が優勢か,(b)文脈によらずモノ名詞が優勢か,(c)どちらの解釈かが文脈により決定されるかを主観的に判断する.(a)に該当する動詞由来名詞は書き換え対象候補とし,(b)の動詞由来名詞は対象外とする.(c)については,書き換え漏れを減らすことよりも不適切な書き換えを抑えることを重視するという方針の下で実験を繰り返して経験的に書き換え対象候補に追加していく.このような方針に基づいて,接尾辞\,-al,\,-ance,\,-ion,\,-ment,\,-sisを伴う動詞由来名詞に,訓練文集において比較的高い頻度で出現した語attempt,failure,pledge,requestを加えて,786語を書き換え対象候補とした.\subsubsection{その他の制約}\label{sec:rewrite:cond:etc}\ref{sec:rewrite:action}\,節の書き換えは,形式(\ref{eq:source-np1})の名詞句において\NPがNOMの意味上の主語であると解釈できると仮定して行なうものであるが,\NPが時間を表わす場合,この仮定が成り立たないことがある.例えば``lastweek'srevivalofSuper301''という名詞句では,``lastweek''は``revive''の主語とは解釈できない.一般には,時間名詞でもNOMの主語と解釈し,書き換えるべき場合もありうるので,\NPがNOMの主語になりうるかどうかは,\NPとNOMに対応する動詞との共起的意味解析などによって決定する必要がある.しかし,ここでは,ごく簡単な処理によって不適切な書き換えが抑えられればよいという立場から,時間名詞は書き換えないことにする.\NPが時間名詞であるかどうかの判定は,辞書に記述されている意味標識に基づいて行なう.また,書き換え対象候補の名詞句が連語や慣用句のように固定的な表現を構成する場合にも書き換えない. \section{実験と考察} \label{sec:experiment}提案手法の有効性を検証するために,訓練文集の場合と同じ方法(\ref{sec:rewrite:prospect}\,節)で選別した227文を対象として実験を行なった.このうち書き換え可能な文は93文である.書き換えの評価は,次の二点について行なう.\begin{LIST}\item[\bf単体精度]提案手法自体の精度であり,英語の適格性の観点から,書き換えるべき表現がどれだけ書き換えられ,書き換えるべきでない表現がどれだけそのまま残されたかを表わす.\item[\bf実用精度]提案手法と機械翻訳システムを組み合わせた場合の精度であり,英日翻訳の観点から,書き換えられた文のうちどれだけの文において翻訳品質が実際に向上したかを表わす.\end{LIST}英語の適格性の観点からの評価は英国人一名に依頼した.英日翻訳の観点からの評価では,\ref{sec:rewrite:prospect}\,節での事前評価者を主評価者とし,副評価者を二名加えた(いずれも日本人).\subsection{書き換えの妥当性の評価}\label{sec:experiment:preedit}提案手法自体の評価結果を表\ref{tab:preedit}\,に示す.表\ref{tab:preedit}\,によれば,71.8\%の精度が得られており,ほぼ妥当な書き換えが行なえていると考えられる.\begin{table}[htbp]\caption{提案手法自体の精度}\label{tab:preedit}\begin{center}\begin{tabular}{|l||r@{}r|r@{}r|r|}\hline正解と&\multicolumn{4}{|c|}{提案手法}&\\\cline{2-5}の比較&\multicolumn{2}{|c|}{書き換えた}&\multicolumn{2}{|c|}{書き換えず}&\multicolumn{1}{|c|}{\raisebox{1.5ex}[0pt]{精度}}\\\hline\hline一致&17.2\%&(39/227)&54.6\%&(124/227)&71.8\%\\\hline不一致&4.4\%&(10/227)&23.8\%&(54/227)&28.2\%\\\hline\end{tabular}\end{center}\end{table}書き換えるべきでない表現が誤って書き換えられた10文について,その原因を分析した.10文のうち8文は,書き換え対象名詞句の直前が前置詞である場合に前置詞の種類による制約(脚注\ref{foot:prep}\,参照)を考慮していないために,不適格な英文となっていた.しかし,この書き換えは,\ref{sec:rewrite:cond:syn}\,節で述べたように意図的に行なっている処理であるので,適格な英語表現に書き換えることに主眼を置くならば,抑えることができる.前置詞の種類による制約を加えれば,精度は75.3\%にまで上がる.残りの2文は,動詞的動名詞節に書き換えると構文構造が複雑になりすぎるため,書き換えない方がよいと考えられるものであった.このような場合に書き換えを行なわないようにするためには,まず構文的複雑さを測る尺度を明確にする必要がある.しかし,たとえそのような尺度が定められたとしても,それを前編集の段階で利用することは容易ではないため,この問題は提案手法の限界を越えている.\subsection{翻訳品質改善度の評価}\label{sec:experiment:trans}提案手法によって書き換えられた文を機械翻訳システムで処理した場合,書き換えを行なわない場合に比べて翻訳品質がどの程度向上するかを検証する.提案手法によって書き換えられた文のうち\ref{sec:experiment:preedit}\,節の評価で英語の適格性に問題があるとされた文は前置詞の問題と構文的複雑さの問題であったが,これらの問題は機械翻訳システムでは問題にならないこともあるので,これらの文を評価対象から除外はしないことにする.\subsubsection{我々のシステムでの改善度}\label{sec:experiment:trans:ours}我々の実験システムでの翻訳品質の評価結果を表\ref{tab:trans}\,に示す.表\ref{tab:trans}\,によれば,33文(67.3\%)で品質改善が見られ,比較的簡単な書き換えでほぼ有効な結果が得られている.なお,評価値は評価者三名の多数決によるものである.ただし,判定が三つに分かれ多数決で決まらない場合は,主評価者の評価値を採用した\footnote{49文のうち,評価者全員の判定が一致したものが32文,多数決により決定されたものが15文,三名の判定が分かれたものが2文であった.}.\begin{table}[htbp]\caption{機械翻訳としての精度}\label{tab:trans}\begin{center}\begin{tabular}{|r@{}r|r@{}r|r@{}r|}\hline\multicolumn{2}{|c}{向上}&\multicolumn{2}{|c}{同等}&\multicolumn{2}{|c|}{低下}\\\hline\hline67.3\%&(33/49)&8.2\%&(4/49)&24.5\%&(12/49)\\\hline\end{tabular}\end{center}\end{table}\ref{sec:experiment:preedit}\,節の表\ref{tab:preedit}\,より,書き換えるべき表現が書き換えられなかった書き換え漏れは,54文存在した.このうちもし書き換えられていれば翻訳品質が向上したのは27文であった.この27文について,書き換え漏れの原因を分析した結果を表\ref{tab:leak}\,に示す.\begin{table}[htbp]\caption{書き換え漏れの原因}\label{tab:leak}\begin{center}\begin{tabular}{|l|r|r|}\hline\multicolumn{1}{|c}{原因}&\multicolumn{1}{|c|}{文数}\\\hline\hline構文的制約&13\\意味的制約&9\\その他の制約&5\\\hline\end{tabular}\end{center}\end{table}構文的制約による書き換え漏れは,\ref{sec:rewrite:cond:syn}\,節で述べた処理の不備によるものである.最も多かった原因は,書き換え対象名詞句の直前に存在する語(着目語)がfollowingやincludingのように動詞か前置詞かの曖昧性を持つが対象文中では前置詞として機能していることを正しく認識できなかったことにある.\ref{sec:rewrite:cond:syn}\,節の処理では,着目語が動詞か前置詞かの曖昧性をもつ場合を適切に考慮していないため,followingなどが実際には前置詞として機能している場合でも,主語付き動詞的動名詞節を目的語として支配できないものとして手続き(\ref{enum:step1})で書き換えが行なわれなくなる.意味的制約による書き換え漏れは,動詞由来名詞が\ref{sec:rewrite:cond:sem}\,節で選別した書き換え対象候補に加えられていなかったことによる.書き換え漏れの件数は,慎重な方針で書き換え対象候補を選んだわりには予想外に少なかった.この一因として,訓練文集と試験文集が,同じ種類のコーパス(共に新聞記事)から作成したものであることが挙げられる.今後,他の種類のテキストを対象として実験を行い,書き換え対象候補の検討を行なう必要がある.また,書き換え対象候補の動詞由来名詞をあらかじめ固定しておくのではなく動的に選択する方法などについても検討が必要である.\subsubsection{他の市販システムでの改善度}\label{sec:experiment:trans:others}前編集の段階で原文を書き換える方法は,特定のシステムにあまり依存しないため,我々のシステムに限らず他のシステムにおいても品質改善効果があると予想される.この点を確認するために,提案手法を,市販されている三つのシステムの前編集系として利用した場合としない場合で品質がどのように変化するかを調べた.我々のシステムを評価した際の評価基準と同じ基準で主評価者により評価された結果を表\ref{tab:others}\,に示す.表\ref{tab:others}\,によると,システムCでは書き換えによって品質が極端に悪化している\footnote{システムCで悪化した39文で見られた現象の主な内訳は,(a)例えば``Ieyasu'sestablishmentoftheTokugawashogunate''という名詞句を書き換えた動名詞節``Ieyasu'sestablishingtheTokugawashogunate''が「徳川の将軍職を確立するIeyasu」と訳されるなど,形式(\ref{eq:source-np1})または(\ref{eq:source-np2})の名詞句を書き換えると,\NPが書き換え後の表現の主辞と解釈されているものが21文(53.8\%),(b)書き換え対象名詞句自体の翻訳品質には問題ないが,書き換えの影響で他の部分の品質が悪化しているために,文全体としては「低下」となったものが7文(17.9\%)などである.}が,システムAとBでは書き換えによる品質改善の効果が見られる.特にシステムAでは我々のシステムの場合に近い効果が出ている.このことから,提案手法は特定のシステムへの依存性が低く,複数のシステムの前編集系として利用可能であるといえる.\begin{table}[htbp]\caption{他の市販システムでの翻訳改善度}\label{tab:others}\begin{center}\begin{tabular}{|c||r@{}r|r@{}r|r@{}r|}\hline&\multicolumn{2}{c}{向上}&\multicolumn{2}{|c|}{同等}&\multicolumn{2}{|c|}{低下}\\\hline\hlineシステムA&63.3\%&(31/49)&12.2\%&(6/49)&24.5\%&(12/49)\\システムB&51.0\%&(25/49)&16.3\%&(8/49)&32.7\%&(16/49)\\システムC&12.2\%&(6/49)&8.2\%&(4/49)&79.6\%&(39/49)\\\hline\end{tabular}\end{center}\end{table} \section{関連研究} \label{sec:related-work}動詞由来名詞句に関する工学的研究としては,文献\cite{Hobbs76,Dahl87,Somers88,Hull96,Macleod98}などがある.このうち,本研究と同様に英日機械翻訳の立場からの研究はSomersらの研究である.Somersらは,動詞由来名詞句を自然な日本語表現に翻訳するための方法として,英日両言語から中立な内部表現を利用する方法と,変換過程での明示的な構造変換による方法を検討している.これらはいずれも必要な処理をシステム内部で行なうものである.このような方法に比べて,本稿のような前編集による方法は,後編集による方法\cite{Knight94,Yamamoto99,Ozaki01}と同様に,システムからの独立性が高いため,様々なシステムで利用可能であり,実際にシステムと組み合わせる際にシステムの既存部分を修正する必要はほとんどない.Hullらは,動詞由来名詞が動詞的意味を表すデキゴト名詞であるか,非動詞的意味を表すモノ名詞であるかの判定を行い,さらに,デキゴト名詞であると判定された場合,動詞由来名詞の語義(対応する動詞の格パターン)を決定する方法を示している.これに対して,本稿では,デキゴト名詞かモノ名詞かの判定は行なう(デキゴト名詞かモノ名詞かをあらかじめ区別しておく)が,動詞由来名詞に対応する動詞の語義を決定することは機械翻訳システム本体に委ねるという方針を採っている.Macleodらは,動詞由来名詞と動詞の対応情報を記述した辞書を構築している.この辞書には,動詞の補足語が動詞由来名詞句では属格となるのかあるいはどのような前置詞を伴うのかなどが記述されている.本稿では書き換え対象を形式(\ref{eq:source-np1})に限定したが,この形式以外の表現では,(a)動詞由来名詞がデキゴト名詞かモノ名詞かの曖昧性や,(b)動詞由来名詞とその補足語との結合関係の曖昧性,(c)動詞由来名詞の後方に存在する前置詞句の付加の曖昧性などが生じやすい.Macleodらの辞書を利用すればこのような問題にある程度対処できるので,書き換え対象を拡げることも可能であろう. \section{おわりに} 本稿では,直訳すると不自然な日本語表現になる英語の名詞的表現を文に近い表現形式に書き換えることによって翻訳品質を改善する方法を示した.小規模ではあるが実験を行なったところ,簡単な書き換えによって比較的良好な結果が得られ,提案した方法の有効性が確認された.また,提案手法は特定のシステムに依存せず,複数のシステムの前編集系としても有効に機能することが実験的に確かめられた.今回の実験では形式(\ref{eq:source-np1})または(\ref{eq:source-np2})の名詞句を動詞的動名詞節へ書き換える処理を扱ったが,今後は書き換え対象名詞句の拡張や動詞的動名詞節以外の表現形式への書き換えも行なっていく.さらに,名詞的表現を副詞的表現に書き換えるなどのより大きな構造変換を伴う書き換えを前編集の段階でどの程度実現できるかを検討していく必要もある.\acknowledgment議論に参加頂いた英日機械翻訳グループの諸氏に感謝します.また,本稿の改善に非常に有益なコメントを頂いた査読者の方に感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{304}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.同年よりシャープ(株)にて機械翻訳システムの研究開発に従事.1999年神戸大学大学院自然科学研究科博士課程修了.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V32N01-05
\section{はじめに} 大規模言語モデルの生成の質は近年著しく向上し,人間によるものと区別のつかない文章の生成が可能となっている\cite{devlin-etal-2019-bert,brown2020language,touvron2023llama}.一方で,事実と異なる誤りを含む内容も自然な文章として生成してしまう問題が顕在化し\cite{huang2023survey},誤情報の拡散や意思決定への影響といったリスクが増している.言語モデルによる誤情報生成への対策の一つに,モデルが生成した内容に対する確信度推定がある.確信度スコアが高いほど実際に生成内容が正しい確率が高くなるような確信度指標を設計することで,ユーザが出力を信頼するかの判断材料としたり,アプリケーションにおける生成内容の出力制御に用いるというものである.確信度指標としては,単に出力トークンに対する予測尤度を用いるのが素朴な方法であるが,予測尤度と生成内容の正確性は必ずしも対応しない.そのため,生成時に利用可能な他の情報を用いることで,生成内容の正確性をより精度良く推定できる指標が研究されている.生成時に確信度推定に利用できる情報はユーザ,開発者といった立場やモデルの公開レベルによって異なる.モデルの出力テキストのみを参照可能なブラックボックス条件下では,確信度を示す表現を出力テキストに含めさせる\cite{mielke-etal-2022-reducing},複数の生成間の一貫性を見る\cite{manakul-etal-2023-selfcheckgpt}などの方法がある.モデルの内部状態を参照可能な設定では,テキストの埋め込み表現や注意機構の値などを用いる方法や\cite{ren2023outofdistribution,li2023inferencetime},少量の訓練データを用い,学習に基づいて確信度スコアが実際の正答率に近づくよう調整する方法がある\cite{mielke-etal-2022-reducing}.一方,これらの既存研究では,言語モデルの訓練データの利用は想定されていない.これは,大規模言語モデルの多くがAPIアクセスやモデルパラメータの公開のみに留まっており,訓練データそのものにアクセスできるケースが少ない現状を反映していると考えられる.しかしながら,著作権や透明性担保の観点から言語モデルの訓練に使われたデータの開示への要請は高まりつつあり,訓練に用いられたコーパスを検索できる仕組みが提供される例も現れている\cite{piktus2023roots}.また,テキスト生成の質改善においては訓練データの利用が有用であることが既に知られている\cite{Khandelwal-etal-2020-knnlm}.以上のような背景から,本研究では言語モデルの訓練データにアクセス可能な状況を想定し,確信度指標の改善に訓練データの利用が有用であるかを検討する.具体的には,言語モデルの出力に関連のある訓練データ中の事例に基づきモデル出力の確信度を計算する複数の確信度指標を設計し,言語モデルの知識評価ベンチマークであるLAMA(Petronietal.2019)を用いて評価した.関連事例の検索には,訓練データを文脈表現および文分散表現に基づき検索可能なデータストアを構築して用いる方法と,文中のエンティティに基づくテキスト一致検索とを比較検討した.言語モデルとしては,データストアが数TB規模に相当する訓練データで学習可能な中規模モデルのうち,LAMAベンチマークで高い性能を示すBERTモデル\cite{devlin-etal-2019-bert}を使用し,英語Wikipediaを訓練データとして事前学習を行った.なお,本研究において外部の知識源ではなくモデルの訓練データを用いるのは,確信度推定の主目的が,言語モデルが学習した知識に基づいて正確に出力を行えているかを判定することにあるためである.外部の情報源を参照して,言語モデルの知識の範囲外の事柄について真偽を判定することは,本研究の直接的な目的ではない点に注意する.実験から,言語モデルの予測尤度と訓練データ中の関連事例の情報を組み合わせて用いることで,訓練データを用いない場合と比較して確信度指標の性能が向上することを確認した.このことから,モデル出力の確信度推定の観点からも,言語モデル学習に用いた訓練データへのアクセスは有用であることが示唆される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2 \section{タスクと評価指標} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.1\subsection{タスク}\label{sec:task_notation}本研究では,言語モデルの生成内容が何らかの事実に関する記述を含むとき,その記述が事実に即して正確かどうかを判別するための確信度指標を考える.このとき,言語モデルは生成時に外部情報等の参照は行わず,学習時に訓練データから獲得した知識のみに基づき生成を行うものとする.具体的な処理の流れは以下のようになる.マスク付き入力文$c_t=(w_1,\ldots,w_{t-1},M,w_{t+1},\ldots,$$w_T)$のマスク位置$t$において,言語モデルが予測する単語$w$の出力確率を$P_{\rmLM}(w|c_t)$とする.以下,特にことわらない限り,モデルの予測としては予測確率が最大のもの$\hat{w}=\arg\max_wP_{\rmLM}(w|c_t)$を採用することとする.これに対し,あらかじめ定義された確信度指標$\psi$に基づき,予測内容が正しさの確信度スコア$\psi(\hat{w},c_t)$を計算する.確信度指標として最も素朴なものは,モデルの出力する尤度$\psi_{\rmToken}(w,c_t)=\logP_{\rmLM}(w|c_t)$をそのまま確信度として用いるものである.評価ベンチマークとしてはLAMA\cite{petroni-etal-2019-language}を用いる.LAMAは言語モデルの知識評価を目的としたデータセットで,学習済み言語モデルの事実や常識に関する知識をゼロショットで生成・評価させるよう設計されている.データセットは主に(subject,relation,object)の三つ組からなる関係知識を問う質問から構成され,関係知識を問う入力文は,関係タイプごとに設計されたテンプレートに基づいて設計される.例えば,人物の出生地に関する質問には``\texttt{<subj>wasbornin[MASK].}''というテンプレートが用いられる.\texttt{<subj>}は三つ組ごとに具体的なエンティティで置き換えられる.データセットは,三つ組の関係知識を問うGoogle-RE\footnote{\url{https://code.google.com/archive/p/relation-extraction-corpus/}}とT-REx\cite{elsahar-etal-2018-rex},語彙に関する意味関係の知識を問うConceptNet\cite{speer-havasi-2012-representing},質問応答データセットに基づいて構築されたSQuAD\cite{rajpurkar-etal-2016-squad}の4つのサブセットから構成される.表\ref{tab:dataset_examples}に各データセットの事例サンプルを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%T1\begin{table}[t]\input{04table01.tex}\hangcaption{LAMAデータセット中の事例サンプル.ConceptNetサンプルにはrelationラベルが付与されていないが,参考として各事例のpredicateラベルを示す.SQuADサンプルにはsubject,relationラベルが付与されていない.}\label{tab:dataset_examples}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2.2\subsection{評価指標}\label{sec:selective_lama_evaluation}評価対象のシステムは,入力されたマスク文$c_t$と言語モデルによる予測単語$\hat{w}$に対し,予測内容が正しい可能性を確信度$\psi(\hat{w},c_t)$として定量化する.確信度指標の評価としては,選択的予測に基づくフレームワーク\cite{yoshikawa-okazaki-2023-selective}を採用する.選択的予測において,システムは言語モデルの予測に対し,確信度スコアに応じて予測を採用するか否かを決定する.具体的には,確信度$\psi(\hat{w},c_t)$が事前に設定された閾値$\beta$を上回ったときだけ予測を採用する.ここでシステムの閾値$\beta$の値を徐々に小さくしていくことで,確信度の低い予測の採用数を増やし回答数が増える.閾値を動かしたときの回答数$N_{\rmpred}$と誤り率$e$のトレードオフ関係は,回答数を横軸,誤り率を縦軸としたリスク-カバレッジグラフとして表現できる.なお,$e=(N_{\rmpred}-N_{\rmcorr})/N_{\rmpred}$で,$N_{\rmpred},N_{\rmcorr}$はそれぞれ閾値$\beta$における予測件数と正答件数である.システムの評価はGeifmanらの方法\cite{geifman2018biasreduced}に従い,リスク-カバレッジグラフの下側面積(RC-AUC)に基づく.システムは誤りリスクを低く抑えながらできるだけ多くの質問に回答することが望ましいため,RC-AUCが小さいほど良いシステムであると評価される.あるモデル予測に対するRC-AUCの下限値RC-AUC$^{*}$は,正解事例で1,不正解事例で0の値をとるような最適な確信度指標により達成される.RC-AUCから下限値RC-AUC$^{*}$を引いた差分E-AURC\cite{geifman2018biasreduced}は,モデルの予測性能による影響を差し引いて確信度の性能のみを把握するのに役立つ.本論文の評価ではRC-AUCとE-AURCの値を併記する.図~\ref{fig:auc}に評価指標の関係図を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F1\begin{figure}[t]\begin{center}\includegraphics{32-1ia4f1.eps}\end{center}\caption{評価指標RC-AUCおよびE-AURCの関係図.}\label{fig:auc}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S3 \section{関連研究} テキスト生成における出力内容の誤りは,大規模言語モデルの発展以前から文書要約などに代表される条件付き生成の文脈等で研究されてきた.条件付き生成においては,入力として与えられる文書と出力内容との間に矛盾や乖離がある場合に出力が誤りとみなされ,入力文書への忠実性を評価・改善する取り組みが主として行われた\cite{maynez-etal-2020-faithfulness}.一方,言語モデルの大規模化に伴い,モデルが事前学習で獲得した知識を直接用いることで,背景情報を入力として与えることなく知識を要するタスクが解かれるようになった\cite{petroni-etal-2021-kilt}.この場合,入力情報に必要な知識が含まれていることは前提とされないため,モデル生成内容の誤りを入力への忠実性のみから判定することはできない.こうしたタスクにおいては,出力内容に事実としての誤りが含まれているかどうかが問題の焦点となっている.前者の入力文書との矛盾に基づく誤りはintrinsichallucinations,後者の入力情報のみでは検証不能な事実としての誤りはextrinsichallucinationsと呼ばれる\cite{ji-etal-2023-survey-hallucination}.本論文で議論する誤りはextrinsichallucinationsに相当する.言語モデル出力の確信度推定手法はアクセス可能な情報のレベルに応じてブラックボックス手法,ホワイトボックス手法に分類できる\cite{geng-etal-2024-survey}.ブラックボックス手法では,プロンプトと呼ばれる言語モデルへのテキスト入力と,入力に応じてモデルが生成するテキスト出力のみを利用する.プロンプトを用いてモデルに出力内容の確信度を``Idon'tknow'',``Obviously''といった言語表現によって出力させる方法\cite{mielke-etal-2022-reducing}や,言語モデルによる複数の生成間の一貫性に基づき確信度をスコア化する方法\cite{manakul-etal-2023-selfcheckgpt}が提案されている.ホワイトボックス手法では,モデルの内部状態を参照した確信度計算が行われる.モデルの埋め込み情報を用いて入力情報がサポート外のドメインであるかどうかを判別するためのスコアを計算する\cite{ren2023outofdistribution},モデルの内部状態に基づき出力の確信度を判定する分類器を少量の追加データを用いて訓練する\cite{kadavath2022language}といった方法が提案されている.また,モデルの内部状態から出力の正確性に関わる部分を特定・操作することで,モデル出力の正確性を改善するアプローチも存在する\cite{li2023inferencetime}.しかし,これらのホワイトボックス手法でも訓練データを情報源として利用することは想定されていない.言語モデル出力の信頼性に関する確信度推定以外のアプローチとしては,言語モデルの出力内容に対し外部知識に基づいた検証や説明を与えるもの\cite{rashkin-etal-2023-attribution-nlg,Bohnet-etal-2023-attributedqa}や,言語モデルの訓練データを検索可能な状態で公開することで透明性を向上する取り組みがある\cite{piktus2023roots}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4 \section{言語モデルとデータストア} 図\ref{fig:overview}に手法の概要を示す.ある入力とそれに対する言語モデルの出力を受け取り,出力内容と関連する訓練データ中の事例をデータストアから検索する.その後,検索によって得られた関連事例と入出力情報を組み合わせて確信度の推定を行う.本節では実験に用いた言語モデルとデータストアについて説明し,\ref{sec:confidence}節で訓練データに基づく確信度指標を導入する.%%%%%%%%%%%%%%%%%%%%%%%%%%%F2\begin{figure}[b]\begin{center}\includegraphics{32-1ia4f2.eps}\end{center}\caption{提案手法の概要図.}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.1\subsection{言語モデル}\label{sec:lm-training}訓練データを用いた確信度推定には言語モデルと参照可能な訓練データのセットの組が必要であるため,中規模な言語モデルを自前で訓練し,訓練データからなるデータストアを構築した.言語モデルとしてはBERT-large\cite{devlin-etal-2019-bert}を用いた.訓練データとしては,2020年1月版の英語Wikipedia全文を用い,MLPerfTrainingBenchmark\cite{MLSYS2020_02522a2b}の実装に基づき事前学習を行った\footnote{\url{https://github.com/mlcommons/training/tree/master/language_model/tensorflow/bert}}.なお,評価タスクとして大文字小文字を区別するものを用いるため,モデルの語彙としても大文字小文字の区別があるものを用い,MLPerfの提供するチェックポイントではなくランダムに初期化したパラメータから学習を開始した.訓練に用いたGPUはNVIDIAP100を4基,バッチサイズは12とした.訓練データの前処理としては,テキストのトークン分割後,トークン全体の15\%を予測対象としてランダムに選択した.予測位置に対応する入力トークンは,マスクトークン$\texttt{[MASK]}$,ランダムなトークン,元のトークンのいずれかに一定の割合で置き換えられた.この処理を複数回行い,各系列に対し異なるマスクパターンを生成した.このようにして生成された前処理済みの訓練データは延べ1,600万文,予測対象箇所は61億となった.学習済みモデルの開発データにおけるマスク単語予測,次文予測の精度はそれぞれ0.691,0.986であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2\subsection{データストア}訓練データは言語モデルへの入力およびモデルの生成内容に応じて,関連する文脈情報を取得することに用いる.保存方式による検索の質と確信度推定の影響の違いを確認するため,異なるレベルで情報を保存した複数のデータストアを構築した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F3\begin{figure}[b]\begin{center}\includegraphics{32-1ia4f3.eps}\end{center}\caption{文表現の概要図.}\label{fig:vec4}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2.1\subsubsection{トークンレベル文脈表現}\label{sec:knn-token}\ref{sec:lm-training}節で述べたように,言語モデルの訓練時には,訓練データをトークン分割し,予測対象の位置をマスクした前処理済みの入力が用いられる.トークンレベル文脈表現としては,この前処理済みの入力の予測対象位置の文脈を学習済みモデルで改めてエンコードした文脈ベクトル$v_c$を用いる.ここでの文脈ベクトルは,予測位置に対応するBERTモデルの最終層の隠れ状態とする(図\ref{fig:vec4}a).データストアは,文脈ベクトル$v^{\rmc}$をキー,該当文脈の正解トークン$w^{\rmc}$を値とする組$(v^{\rmc},w^{\rmc})$を保存する.文脈ベクトルの保存と検索には,密ベクトル向けのベクトル検索ライブラリFAISS\cite{johnson2019billion}を用いた.訓練時に使用した文脈情報は61億箇所あり,これら全てを生ベクトルの状態で保存すると膨大なサイズになる.リソース消費を抑えるため,直積量子化(productquantization,PQ)に基づくベクトル量子化を施した.また,検索効率向上のため転置インデックス(IVF)を採用し検索空間を削減した.これにより,近傍ベクトルの検索結果は近似値となり,厳密解と一致しない場合が生じる.ベクトル量子化や近似検索のためのハイパーパラメータは,訓練データの一部を用いて十分な再現率が得られるよう調整した.近傍検索を行う際には,構築したインデックスに基づき上位100件の近傍を取得した後,検索結果に対し文脈ベクトルを再計算し,厳密なL2距離を求めてリランキングを行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.2.2\subsubsection{文レベル分散表現}\label{sec:knn-sent}文レベル分散表現は,トークンレベルの文脈ではなく生成文と文単位で類似する訓練事例を検索するために用いる.マスク処理を行う前の訓練事例を文単位で分割し,各文を学習済み言語モデルでエンコードする.最終層の文頭$\texttt{[CLS]}$トークンに対応する隠れ状態$v^s$を文表現とみなし,文$s$との組$(v^s,s)$をデータストアに保存する(図\ref{fig:vec4}b).なお,実装上は文の元テキストと前処理済みの特徴量,メタデータを共に保存している.$\texttt{[CLS]}$トークンの隠れ状態は,事前学習において次文予測タスクにより訓練されている.ベクトルのインデックス化や検索の方式はトークンレベル分散表現と同様である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S4.3\subsection{テキスト一致検索}言語モデルの学習した事実に関する知識を確認する上では,特定のエンティティに関して記載された文を参照することが有用な場合がある.そこで,分散表現に基づく類似文脈の検索に加え,単純なテキスト一致に基づく検索も実施する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5 \section{訓練データに基づく確信度指標} label{sec:confidence}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.1\subsection{トークンレベル文脈表現に基づく確信度}\label{sec:token_confidence}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.1.1\subsubsection{検索}トークンレベル文脈表現の検索では,\ref{sec:task_notation}節で導入した入力文$c_t$のマスク箇所を言語モデルでエンコードした文脈ベクトル$v^{\rmq}$をクエリとし,\ref{sec:knn-token}節の方法で構築した文脈ベクトルデータストアに対して$k$近傍検索を行い近傍事例${\calN}=\{(v^{\rmc}_1,w^{\rmc}_1),\ldots,(v^{\rmc}_k,w^{\rmc}_k)\}$を得る.以下の実験では$k=100$を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.1.2\subsubsection{近傍事例に基づく尤度補正(kNN-LM)}言語モデルによる文生成において,現在の文脈と類似する訓練データ中の文脈情報を活用することで生成の質を向上できることが報告されている\cite{Khandelwal-etal-2020-knnlm}.この方法に基づき,言語モデルの予測尤度を訓練データ中の近傍の文脈ベクトルにより補正し,確信度として用いる.まず,クエリベクトル$v^{\rmq}$に対し,データストアから上位$k$個の近傍事例を検索し,検索結果に基づき補正用の分布$p_{\rmkNN}(w|c_t)$を計算する.補正分布における単語$w$の確率は,$w$を正解とする近傍事例の文脈ベクトル$v^{\rmc}$とクエリベクトル$v^{\rmq}$のL2距離$d(v^{\rmq},v^{\rmc})$に基づく:%%%%%\begin{align}&p_{\rmkNN}(w|c_t)=\left.\left(\sum_{(v^{\rmc},w^{\rmc})\in{\calN}}\mathbf{1}_{w=w_{\rmc}}\exp(-d(v^{\rmq},v^{\rmc})^2/\tau)\right)\right./Z,\\&Z=\sum_{w'}\sum_{(v^{\rmc},w^{\rmc})\in{\calN}}\mathbf{1}_{w'=w_{\rmc}}\exp(-d(v^{\rmq},v^{\rmc})^2/\tau).\end{align}%%%%%ただし,$\tau$はハイパーパラメータである.これとモデルの元の予測分布との重み和をとり計算された補正分布に基づく尤度をkNN-LM確信度とする:%%%%%\begin{align}\psi_{\text{kNN-LM}}(w,c_t)=\log(\lambdap_{\rmkNN}(w|c_t)+(1-\lambda)p_{\rmLM}(w|c_t)).\end{align}%%%%%ただし,$\lambda$はハイパーパラメータである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.2\subsection{文レベル分散表現に基づく確信度}\label{sec:sent_confidence}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.2.1\subsubsection{検索}文レベル分散表現の検索では,入力文$c_t$のマスク箇所を予測単語$\hat{w}$で埋め完成させた文をエンコードし,$\texttt{[CLS]}$トークンに対応する隠れ状態$v^{\rmq}$をクエリベクトルとする.これを用いて,\ref{sec:knn-sent}節で構築した文レベル分散表現のデータストアに対して$k$近傍検索を行い近傍事例${\calN}=\{(v^{\rms}_1,s_1),\ldots,(v^{\rms}_k,s_k)\}$を得る.以下の実験では$k=10$を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.2.2\subsubsection{文脈を付与して再予測(kNN-sent-context)}\label{seq:knn-sent-context}大規模コーパス中から入力文と類似する文を検索し,生成時の文脈に追加することで生成の質を向上できることが知られている\cite{lewis2020rag}.これと同様に,訓練データ中の類似文を文脈情報として利用し再度予測を行うことで,出力の確信度予測の改善を試みる.具体的には,検索によって得られた訓練データ中の類似文$s_i$を元の入力文$c_t$の先頭に文脈情報として付与した文脈つき入力$s_i\oplusc_t$を作成し,予測単語$w$の出力確率$P_{\rmLM}(w|s_i\oplusc_t)$を得る.これを$k$個の類似文全てに対して行い,得られた対数尤度の最大値を確信度として用いる:%%%%%\begin{align}\psi_{\text{kNN-CTX}}(w,c_t)=\max_{(v^{\rms}_i,s_i)\in{\calN}}(\logP_{\rmLM}(w|s_i\oplusc_t))\end{align}%%%%%なお,$k$種の予測尤度の平均値をとる方法も検討したが,予備実験において性能に大きな差はみられなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.2.3\subsubsection{近傍事例中のエンティティ頻度に基づく指標(kNN-sent-entity)}予測対象の文と意味的に類似する訓練事例中に,問われている知識について直接述べている文がどれだけ多いかを頻度に基づき指標化する.(subject,relation,object)の三つ組からなる関係知識に基づく入力文$c_t$について,subjectにあたるエンティティを$e^{\rms}$とする.検索結果の$k$文のうち,$e^{\rms}$とobjectに相当するモデルによる予測単語$\hat{w}$の両方が含まれる文の件数$N^{\rmsp}$をカウントし,$\psi_{\text{kNN-Ent}}(w,c_t)=N^{\rmsp}/k$を確信度とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.3\subsection{テキスト検索に基づく確信度}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.3.1\subsubsection{テキスト一致件数(CorpusSearch-count,CorpusSearch-bin)}テキスト検索に基づく確信度では,訓練データ中に予測内容と関連する事例が一定数存在するかどうかをエンティティに基づき判定し,確信度推定に用いる.(subject,relation,object)の三つ組からなる関係知識に基づく入力文$c_t$について,subjectにあたるエンティティを$e^{\rms}$とobjectに相当するモデルによる予測単語$\hat{w}$の両方が含まれている訓練データ中の文を検索し,該当する訓練データ中の文の件数を確信度として用いる:$\psi_{\text{CorpusSearch-count}}(w,c_t)=N(e^{\rms},\hat{w})$.また,訓練データ中の該当文の有無のみに基づく二値の確信度も検討する:$\psi_{\text{CorpusSearch-bin}}(w,c_t)=\mathbf{1}_{N(e^{\rms},\hat{w})>0}$.なお,訓練データ内に100件以上の関連事例が見つかった場合は十分に根拠ありとみなし,計算効率の観点から検索事例は100件を上限とした.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S5.3.2\subsubsection{文脈を付与して再予測(CorpusSearch-context)}\ref{seq:knn-sent-context}節と同様に,テキスト一致による検索結果を生成時の文脈として付与し,再予測時の対数尤度を用いる.手続きは\ref{seq:knn-sent-context}節に準ずるが,テキスト一致検索では検索結果が0件の場合があることを考慮し,文脈を付与しない元の文の対数尤度を含めた予測の中から最大値をとる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6 \section{実験結果} label{sec:results}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.1\subsection{言語モデル性能}表\ref{tab:lama_model_accuracy}に,評価対象のBERTモデルのLAMAデータセットでの基礎性能を示す.ここでのRC-AUCの計算には,予測尤度に基づく確信度$\psi_{\rmToken}$を用いた.比較対象として,GoogleBERT-largeモデル\footnote{\url{https://github.com/google-research/bert}}による同条件での評価結果を示している.本研究では言語モデルの確信度評価としての訓練データの有効性を確認することを主目的とし,検証用モデルがGoogle-BERTと同等の性能を達成することは必ずしも重視していない.評価用モデルとGoogle-BERTとで異なる点としては,Google-BERTではWikipediaに加えてBookCorpus\cite{zhu2015bookcorpus}を訓練データに用いている点が挙げられる.BookCorpusは様々なジャンルの書籍からなるテキストで構成されており,Wikipediaでカバーされない多様な表現を含む.また,\ref{sec:lm-training}節で述べたように,モデルの訓練においてはMLPerfTrainingBenchmarkの学習設定をタスクと実験環境に合わせて改変しており,この点も性能差に影響した可能性がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T2\begin{table}[t]\input{04table02.tex}\hangcaption{評価に用いたモデルのLAMAデータセットにおける(全ての予測を用いた場合の)予測精度と,予測尤度に基づく確信度$\psi_{\rmToken}$に基づくRC-AUC.比較のため,右列にGoogleBERTモデルによる同条件での評価を示している.}\label{tab:lama_model_accuracy}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.2\subsection{選択的予測に基づく確信度指標の評価}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.2.1\subsubsection{評価データ}表\ref{tab:dataset_split}に示す通り,LAMAデータセット中のGoogle-RE,T-REx,ConceptNet,SQuADの4つのサブセットをそれぞれ開発データと評価データに分割した.開発データはkNN-LMのハイパーパラメータ探索および複数指標の組み合わせと重み探索に用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%T3\begin{table}[t]\input{04table03.tex}\caption{評価データの内訳.}\label{tab:dataset_split}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.2.2\subsubsection{ベースライン}訓練データを用いない確信度指標として,\cite{yoshikawa-okazaki-2023-selective}の指標との比較を行った.Tokenは出力の対数尤度を直接用いるもの,Sentはマスク箇所を埋めた文レベルの疑似尤度を用いるもの,DropoutMeanは推論時にモデルにdropoutを適用して予測の統計情報を用いるもの,TemplateDiffは予測におけるsubject情報の有無による予測確率の差分を用いるものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.2.3\subsubsection{単体評価}表\ref{tab:lama_selective_result}に,選択的予測の設定に基づく確信度指標の評価(\ref{sec:selective_lama_evaluation}節)の結果を示す.なお,SQuADについてはsubjectラベルが定義されておらずエンティティを用いる確信度指標を適用できないため,それらは評価から除外した.訓練データを使用しない確信度指標の中ではTokenまたはTemplateDiffの性能が最も良く,どの指標も対数尤度を直接用いるToken指標を大きく改善することはなかった.これは他のモデルで評価した既存研究の傾向とも適合する.訓練データを使用した確信度指標については,kNN-LM指標が関係知識を問うデータセットにおいてベースラインをわずかに改善した.一部を除き,文レベル分散表現やテキスト一致に基づく指標はToken確信度よりも悪い結果となったが,Google-REに関してはCorpusSearch-contextがToken指標を改善した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T4\begin{table}[t]\input{04table04.tex}\hangcaption{LAMAデータセットの評価結果(RC-AUC/E-AURC,低いほど良い).SQuADデータセットはsubjectラベルが未定義なため,これを必要とする指標は除外.複数指標組み合わせの結果は,(A)が(A)群のみからの組み合わせ,(A)+(B)が(A)群ならびに(B)群全ての指標からの組み合わせを表す.それぞれの指標群の重み和のうち開発データで最良の組み合わせの結果を示している.}\label{tab:lama_selective_result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S6.2.4\subsubsection{確信度の組み合わせ効果}次に,これらの確信度指標を組み合わせて用いた場合の効果を検証する.複数の確信度指標の組み合わせとしては,確信度指標の重み付き線形和をとる.各データセットについて,開発データを用いて最良の指標組み合わせと重みを探索し,評価データセットで評価した.指標組み合わせと重みの探索を現実的な試行回数に収めるため,次のような段階的手続きによる探索を行った.まず,ベースラインで最良であるToken確信度とそれ以外の確信度を1つずつ組み合わせ,Token確信度の性能から改善のあった指標に絞り込む.このとき,それぞれについて0.1,1.0,10.0の3種類から最良の重みを決定した.次に,絞り込み後の指標群について全ての組み合わせを検証し,性能が最良となるものを探索した.結果を表\ref{tab:lama_selective_result}下部に示す.テキスト検索に基づく指標を適用できないSQuADを除き,いずれのデータセットにおいても,訓練データを使用する指標と使用しない指標を組み合わせて用いた場合に最良の性能が得られた.特にGoogle-REとT-RExについては,尤度に基づく指標を含む全指標に対し,単独使用の場合の性能を大幅に改善した.訓練データを使用しない指標のみを組み合わせた場合には同様の性能改善は得られなかった.表\ref{tab:ablation}に,各データセットで用いられた指標の組み合わせとアブレーション分析の結果を示す.Google-REとT-RExにおいては,コーパス検索に基づく指標が特に性能に寄与していることが確認できる.ConceptNetについてはいずれの指標も一定の寄与があるものの,性能の改善幅は関係知識を問うデータセットと比較して小さかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T5\begin{table}[t]\input{04table05.tex}\hangcaption{複数指標組み合わせ評価のアブレーション分析.評価値はRC-AUC.最上段は各データセットの開発データで最良の組み合わせで,添字は重みを示す.2行目以降は,他の指標の重みは変更しないまま,当該指標のみを除いた場合の結果.SQuADはToken指標を単独で用いた場合に最良であったため除外.TK:Token,S:Sent,TD:TemplateDiff,KLM:kNN-LM,CX:kNN-sent-context,ET:kNN-sent-entity,CSc:CorpusSearch-count,CSb:CorpusSearch-bin,CSctx:CorpusSearch-context.}\label{tab:ablation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:corpussearch_crosstab}は,T-RExデータセット上でコーパス検索に基づく指標(CorpusSearch-bin)とモデル予測の正誤のクロス集計を行った結果である.CorpusSearch-binはバイナリ指標であり,予測に関係する事例が訓練データ中に見つかれば1,見つからなければ0の値をとる.表より,正解事例の94.9\%において,訓練データ中に関連文が存在している.すなわち,コーパス検索に基づく指標は単独の確信度指標としては精度が粗いが,訓練データ中に関連文が存在しない事例をフィルタリングすることによる効果が高いため,他の指標と組み合わせることで高い効果を得られたと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%T6\begin{table}[t]\input{04table06.tex}\caption{CorpusSearch-bin指標の値と予測正誤のクロス集計表.}\label{tab:corpussearch_crosstab}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7 \section{分析} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7.1\subsection{事例分析}\ref{sec:results}節では,訓練データを用いない確信度と訓練データに基づく確信度,特にコーパス検索に基づくものとの組み合わせが有効に働くことが示唆された.そこで,ベースラインである尤度に基づく確信度(Token)とコーパス検索に基づく文脈付与(CorpusSearch-context)の振る舞いを,効果の大きかったGoogle-REと効果が比較的小さかったConceptNetの事例を用いて比較する.表\ref{tab:result_example}に示すGoogle-REの事例では,予測が誤りである例について,コーパス検索では関連事例が見つからないため相対的に確信度を下げることができている(1,2).逆に3,4では,予測が正しい事例についてコーパス検索に基づき高い確信度を与えることができている.一方,コーパス検索の効果が低かったConceptNetにおいては,検索により関連事例が見つかっているにも関わらず正解事例の相対的な確信度を落としてしまう例がみられた(5,6).ConceptNetの事例は一般名詞や形容詞といった単語で表される概念間の意味的関係を問うもので,固有名詞と比較して訓練データ中での出現頻度は高く,関連事例が見つかりやすい傾向がある.しかしながら,検索された事例は問われている概念間の関係を直接的に述べていない場合が多く,モデルの確信度の強化に貢献しにくかったと推定される.%%%%%%%%%%%%%%%%%%%%%%%%%%T7\begin{table}[t]\input{04table07.tex}\hangcaption{予測事例に対する2つの確信度(Token,CorpusSearch-context)による順位付けの比較例.$\Delta$rankは,同じ関係ラベルをもつデータセット(分母は総数)内でのTokenとCorpusSearch-contextに基づく順位の差.下向き矢印$\downarrow$はTokenと比べてCorpusSearch-contextによる順位が下がっていることを示す.それぞれ,コーパス検索で該当事例がない不正解事例の順位を下げられた例(1,2),コーパス検索により正解事例の順位を上げられた例(3,4),コーパス検索で事例があるにもかかわらず正解事例の順位を下げてしまった例(5,6).}\label{tab:result_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7.2\subsection{データストア検索と出力真偽の関係}\label{sec:search_f1}実験に用いたデータストアがモデル出力の真偽判定に寄与しうる検索結果を返すことができているかを検証するため,以下の分析を行った.各検索方法について,各予測に対する検索結果として用いられた文書のうち,入力文のsubjectにあたるエンティティ$e^s$と予測単語$\hat{w}$の両方を含む事例が存在する場合に予測を正解,存在しない場合に不正解とみなすことで言語モデルの予測の真偽を判定する単純な分類器を考える.この分類器を用いた真偽判定を評価したとき,recallは言語モデルの予測が正しい事例のうち対応するエンティティを含む事例が検索された割合を表す.Precisionは予測されたエンティティが含まれる事例が計算された事例のうち,実際に予測が正しかった事例の割合を表す.表\ref{tab:search_f1}に結果を示す.いずれのデータセットにおいても,トークン文脈ベクトルおよび文ベクトル検索結果はrecallが低く,真偽判定の根拠となりうる情報が検索結果から漏れてしまっているケースが多いと考えられる.このことから,ベクトル検索手法を改良し,訓練データに存在する根拠情報をより高精度に検索することで,ベクトル表現に基づく指標の性能が改善できる可能性がある.テキスト一致検索では,いずれのデータセットでもrecallが高く,precisionは文ベクトル検索と同程度であった.このことは,モデル出力が正しいケースでは多くの場合に訓練データ中に根拠情報が含まれていることを示唆しており,訓練データがモデル出力の確信度推定に寄与することを裏付けている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%T8\begin{table}[t]\input{04table08.tex}\hangcaption{各検索方式で確信度推定に用いた検索結果をもとに,予測対象エンティティの出現有無に基づき真偽判定をした場合の精度評価.SQuADデータセットはsubjectラベルが未定義のため除外.}\label{tab:search_f1}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7.3\subsection{データセット・関係タイプと確信度指標}確信度指標の寄与度がデータセットや関係タイプにどの程度依存するのかを調べるため,データセット・関係タイプ毎に確信度指標と正誤の相関を計算した結果を図\ref{fig:corr}(a)に示す.三つ組の関係知識に関するデータセットであるGoogle-REとT-RExでは,エンティティ頻度に基づく指標(kNN-sent-entity)を除くほぼ全ての指標について,正誤との間に比較的高い相関があり,特に予測尤度(Token)およびコーパス検索に基づく指標(CorpusSearch-bin,CorpusSearch-context)が高い相関を示している.一方,語彙間の関係知識を問うConceptNetにおいては,訓練データに基づく指標と正誤の相関が一貫して小さくなっている.表\ref{tab:search_f1}に示すように,ConceptNetは訓練データ中のエンティティ出現有無による分類精度が低いことを踏まえると,一般名詞を主とする語彙の共起はノイズを多く含むため,訓練データを利用した真偽判定との相性が悪いと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F4\begin{figure}[tp]\begin{center}\includegraphics{32-1ia4f4.eps}\end{center}\hangcaption{(a)データセット・関係タイプ毎の予測正誤と確信度相関.(b)データセット・関係タイプ毎のToken確信度とその他の確信度指標の相関.}\label{fig:corr}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:corr}(b)はToken確信度と他の確信度指標のスコア相関をデータセット・関係タイプ毎に計算したものである.検索結果を文脈に付与して尤度を更新するCorpusSearch-contextを除けば,訓練データを用いる指標は訓練データを用いないものと比較してToken確信度との相関が一貫して低いことから,両者の組み合わせにより高い効果が得られたと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S7.4\subsection{近傍事例数の確信度への影響}\ref{sec:token_confidence}節および\ref{sec:sent_confidence}節の検索事例を用いた確信度指標においては,検索する近傍事例数をそれぞれ$k=100$,$k=10$とした.近傍事例数$k$を変えたときに確信度推定に与える影響を調べるため,異なる$k$を用いて単体性能の比較を行った結果を図\ref{fig:varyk}に示す.$k=10,50,75,100$における確信度指標の性能は,いずれのデータセットにおいてもほぼ横ばいとなった.\ref{sec:search_f1}節で議論したように,モデルの文脈表現や文表現に基づくベクトル検索では出力された知識に対応する関連事例のカバレッジが低いため,検索事例数を増やした際に関連の低い事例も混入しノイズになっていることが推定される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%F5\begin{figure}\begin{center}\includegraphics{32-1ia4f5.eps}\end{center}\caption{トークン・文レベル分散表現に基づく確信度指標の検索事例数$k$と性能の関係.}\label{fig:varyk}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S8 \section{おわりに} 本論文では,言語モデルが訓練時に獲得した知識に基づき生成を行う際の出力内容の確信度推定について,訓練データを用いた指標を導入し,その効果を検証した.実験の結果から,訓練データを用いた指標とその他の指標を組み合わせることで,従来の確信度指標による推定精度を改善できることが確認された.本論文では訓練データ利用の効果検証のため,中規模の言語モデルであるBERTとWikipediaの組み合わせを用いた.一方で,近年は大規模言語モデルの発展が著しく,モデルサイズ・訓練データサイズともにより規模の大きなモデルが増加し,実用化が進んでいる.本研究で検証した訓練データに基づく確信度推定手法が大規模モデルにおいても効果的か否かは今後さらなる検証が必要であるほか,訓練データの大規模化に伴う関連事例検索の質と効率の向上が課題となる.また,大規模言語モデルの訓練に用いられるデータには,内容の信頼性や文章の質が低いものが含まれることも多い.本研究で導入した確信度指標は訓練データであるWikipedia内の記述が信頼できるという暗黙的な前提に基づいており,こうした質の低い事例を含むデータは確信度推定の性能に影響を及ぼす可能性がある.誤り事例を含むデータを確信度推定に用いる際には,各訓練事例の記述内容の信頼性を考慮したり,信頼できるデータをフィルタリングするといった工夫が必要になる可能性がある.一方で,誤りのある事例も検索対象に含めることで,訓練データの誤りに起因するモデル出力の誤りの特定に役立てるといった応用も考えられる.%%%Acknowledgement%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究は,文部科学省補助事業「生成AIモデルの透明性・信頼性の確保に向けた研究開発拠点形成」の支援を受けたものです.本研究は,東京科学大学のスーパーコンピュータTSUBAME4.0を利用して実施しました.%%%Bibliography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{04refs}%%%Biography%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{吉川和}{%2013年東京大学工学部計数工学科卒業.2015年同大学院修士課程修了.同年,(株)富士通研究所入社,現在,富士通(株)人工知能研究所研究員.自然言語処理,知識抽出・知識活用の研究開発に従事.2021年より東京科学大学(旧東京工業大学)情報理工学院情報工学系博士課程.}\bioauthor{岡崎直観}{%2007年東京大学大学院情報理工学系研究科博士課程修了.東京大学大学院情報理工学系研究科・特任研究員,東北大学大学院情報科学研究科准教授を経て,2017年8月より東京科学大学(旧東京工業大学)情報理工学院教授.産業技術総合研究所招聘研究員,国立情報学研究所大規模言語モデル研究開発センター科学主幹.言語処理学会,人工知能学会,情報処理学会,ACL各会員.}\end{biography}\biodate%%%%受付日の出力(編集部で設定します)\end{document}
V31N02-13
\section{はじめに} 自然言語処理の分野では古くから機械翻訳の研究が盛んに行われており,これまで様々な機械翻訳手法が提案されている.近年では,翻訳性能の高さから,ニューラルネットワークに基づく機械翻訳(NeuralMachineTranslation:NMT)が主流になっている.NMTの性能改善を行う研究の流れの一つとして,原言語文や目的言語文中の単語の品詞や文構造などの言語学的素性を活用する試みが行われている.その中で,言語学的素性として,人名や地名,組織名といった特定の表現を表す固有表現(NamedEntity:NE)に着目し,NMTにおいてNE情報を活用する研究が行われている\cite{tag,embed1,replace,embed2,embed3}.NEには複合語が多く存在するため,NEの情報をNMTに与えることで単語のチャンク情報を翻訳に活用できる.また,NEの種類の情報は,多義語を翻訳する際の語義曖昧性解消に役立つことが報告されている\cite{embed1}.NE情報を活用する代表的な方法として,NEの種類と開始/終了情報を含むNEタグを文中のNEの前後に挿入する「タグ付けモデル」\cite{tag}や,NE埋め込みを単語埋め込みに組み込む「埋め込みモデル」\cite{embed1}が提案されている.NE情報を活用するNMTの初期の研究では原言語文中のNEのみが活用されていたが,近年では,原言語文中のNEに加えて目的言語文中のNEの情報も活用することで翻訳性能が改善されており,埋め込みモデルにおいても目的言語文のNE情報が有効であることが報告されている\cite{embed3}.しかし,タグ付けモデルではこれまで目的言語文のNEは活用されていない.そこで本研究では,原言語文のNE情報に加えて目的言語文のNE情報も活用するタグ付けモデルを提案する.提案のタグ付けモデルの概要を図\ref{fig:tag-model}に示す.図\ref{fig:tag-model}のように,提案モデルでは,NEの種類と開始/終了情報を含むNEタグをNEの前後に挿入した原言語文と目的言語文に基づいて翻訳を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{31-2ia12f1.pdf}\end{center}\caption{提案タグ付けモデルの概要図}\label{fig:tag-model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,機械学習の分野では,推論時に複数のモデルの出力を統合するアンサンブル\cite{Hansen}により性能改善が行われており,機械翻訳においてもアンサンブルの有効性が示されている.例えば,\citeA{ensemble}では,原言語側のNE情報を活用する3つの埋め込みモデル(単語埋め込みとNE埋め込みを加算するモデル,単語埋め込みとNE埋め込みを結合するモデル,ドキュメント単位で翻訳を行うモデル)をアンサンブルするモデルを提案し,翻訳性能を改善している.そこで本研究では,提案のタグ付けモデルの性能を改善させるため,提案タグ付けモデルと埋め込みモデルのアンサンブルにより翻訳を行うNMTモデルも提案する.提案のアンサンブルモデルの概要を図\ref{fig:ensemble-model}に示す.提案アンサンブルモデルではタグ付けモデル及び埋め込みモデルを独立に学習する.そして推論時に,図\ref{fig:ensemble-model}のように,学習した二つのモデルによる出力確率を平均した確率に基づき目的言語文を生成する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{31-2ia12f2.pdf}\end{center}\caption{提案アンサンブルモデルの概要図}\label{fig:ensemble-model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%WMT2014の英語とドイツ語間の翻訳タスク\cite{wmt2014}及びWMT2020の英語と日本語間の翻訳タスク\cite{wmt2020}において提案モデルを評価した結果,日英翻訳を除き,提案タグ付けモデルの翻訳性能が従来タグ付けモデルの翻訳性能を上回り,タグ付けモデルにおいて目的言語文のNE情報を活用することで翻訳性能が改善することを確認した.また,全ての言語対において,埋め込みモデルとアンサンブルすることで提案タグ付けモデルの翻訳性能が向上し,提案アンサンブルモデルは従来タグ付けモデルと比較して,英独翻訳では最大0.76ポイント,独英翻訳では最大1.59ポイント,英日翻訳では最大0.96ポイント,日英翻訳では最大0.65ポイントBLEUが上回ることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{従来研究} 本節では,NE情報を活用する従来のNMTモデルについて説明する.NE情報を活用するNMTモデルは,原言語文のNE情報のみを活用するモデルと,原言語文と目的言語文の両方のNE情報を活用するモデルに大別できる.原言語文のNE情報のみを活用するモデルとしては,例えば,\citeA{tag}は,NEタグを挿入した原言語文に基づき翻訳を行うタグ付けモデルを提案している.\citeA{embed1}は,LSTMに基づくNMTにおいて,エンコーダの埋め込み層で原言語文の各単語の埋め込みにそのNE情報(IOタグ)の埋め込みを加算する,埋め込みモデルを提案している.また,\citeA{embed2}は,TransformerNMTにおいて,原言語文のNE情報(IBOタグ)を統合する様々な埋め込みモデルを試し,その翻訳性能を調査している.彼らの調査では,NE情報の統合方法として加算と結合が試され,また,考慮するNE情報としてNEか否かのラベル(粗粒度)とNEクラスまで含むラベル(細粒度)が試されている.\citeA{ensemble}は,\citeA{embed2}の加算によりNE情報を統合する埋め込みモデル,結合によりNE情報を統合する埋め込みモデル,ドキュメント単位で翻訳を行うモデルの3つのモデルをアンサンブルするNMTモデルを提案している.\citeA{multiencoder}は,原言語文をエンコードするエンコーダとNE情報をエンコードするエンコーダの2つを備え,2つのエンコーダの出力の和をデコーダに送るTransformerNMTモデルを提案している.これらのNMTモデルは,本研究の提案モデルとは異なり,目的言語文のNEを活用していないことに注意されたい.原言語文と目的言語文の両方のNEを考慮するモデルとしては,例えば,\citeA{replace}は,原言語文と目的言語文の双方でNEの認識(NER)を行い,原言語と目的言語間で対応付いたNE部分をそのNEの種類を表す記号で置き換え,置き換え後の文を翻訳するNMTモデルを提案している.\citeA{multitask}は,TransformerNMTのエンコーダとデコーダにNE分類器を付加し,学習時に翻訳タスクと原言語文及び目的言語文のNEを検出するタスクのマルチタスク学習を行うことで,原言語側と目的言語側のNEを意識して翻訳を行うモデルを提案している.\citeA{embed3}は,エンコーダとデコーダの埋め込み層において,単語埋め込みとNE埋め込みを組み合わせる埋め込みモデルを提案している.以降では,提案のタグ付けモデル及びアンサンブルモデルのベースとなる,原言語文のNE情報のみを活用するタグ付けモデル\cite{tag}と,原言語文と目的言語文の両方のNEを活用する埋め込みモデル\cite{embed3}を詳細に説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{タグ付けモデル}\label{sect:tag-source}\citeA{tag}のタグ付けモデルは,まず,原言語文に対してNERを行い原言語文内のNEを特定する.そして,特定した原言語文中のNEの前後に,NEの種類と開始/終了の情報を含むNEタグを挿入し,NEタグが挿入された原言語文に基づいて学習や翻訳を行う.学習時には,教師データである対訳文対の原言語文に対してNERを行い,原言語文内のNEを特定する.そして,特定したNEの前に「\verb|<|$c$\verb|>|」というNEタグを挿入し,後に「\verb|</|$c$\verb|>|」というNEタグを挿入する.ここで,$c$はNEの種別を表すNEクラスである.このNEタグが挿入された原言語文と目的言語文の対を用いてNMTモデルを学習する.推論時には,原言語文に対して学習時と同様にNERを行い,原言語文内のNEの前後にNEタグを挿入する.そして,NEタグが挿入された原言語文を学習したNMTモデルで翻訳する.このタグ付けモデルは原言語文のNEしか活用していない.また,このモデルはLSTMに基づいており,Transformerに基づくタグ付けモデルについては研究されていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{埋め込みモデル}\label{sect:embedding}\citeA{embed3}の埋め込みモデルはTransformerNMTに基づくモデルである.この埋め込みモデルでは,通常のTransformerNMTモデル\cite{Transformer}のエンコーダとデコーダに,NEの情報を埋め込む「NE埋め込み層」と,単語埋め込み層の出力にNE埋め込み層の出力を足し合わせる「加算層」が追加されている.さらに,デコーダには,出力文の各単語のNEを予測する「NE出力層」が追加されている.埋め込みモデルの概要を図\ref{fig:embed-model}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{31-2ia12f3.pdf}\end{center}\caption{埋め込みモデルの概要図}\label{fig:embed-model}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%エンコーダとデコーダには,単語系列とNE系列が入力される.ただし,\citeA{embed3}はNE情報をBIOESタグ形式(NEではない場合は「O」,NEの場合は,一単語で構成される場合は「S-NE種別」,複数単語で構成される場合は先頭の単語は「B-NE種別」,最後の単語は「E-NE種別」,それ以外は「I-NE種別」)で活用しているが,本研究では\citeA{embed1}と同様,IOタグ形式(NEではない場合は「O」,NEの場合は「I-NE種別」)でNE情報を活用する.IOタグ形式には,同じクラスのNEタグが連続した場合にNEを区別できないという欠点がある.例えば,\verb|<|ORG\verb|>|巨人\verb|</|ORG\verb|>|\verb|<|ORG\verb|>|阪神\verb|</|ORG\verb|>|と\verb|<|ORG\verb|>|巨人阪神\verb|</|ORG\verb|>|は,BIOES形式では$\text{巨人}_\text{S-ORG}\text{阪神}_\text{S-ORG}$と$\text{巨人}_\text{B-ORG}\text{阪神}_\text{E-ORG}$となり区別することができるが,IOタグ形式ではいずれの場合も$\text{巨人}_\text{I-ORG}$$\text{阪神}_\text{I-ORG}$となり区別できない.一方,IOタグ形式は,BIOESタグ形式と比べてタグのスパース性を緩和できるという利点がある.NEの構成要素に対して,IOタグ形式は「I-NE種別」の1種類のタグを割り当てるが,BIOESタグ形式は「B-NE種別」,「I-NE種別」,「E-NE種別」,「S-NE種別」の4種類のタグを割り当てるためBIOESタグ形式ではNEタグがスパースになる.このようにIOタグ形式には利点と欠点の両方があるが,本研究で使用したデータセットでは,同じクラスのNEタグが連続するのは全体の約0.8\%と僅かであるため,IOタグ形式の欠点が翻訳性能に大きく影響することはないと考え,本研究ではIOタグ形式を採用する.したがって,本節ではIOタグを入力とした場合の埋め込みモデルについて説明する.原言語側のIOタグは原言語文のNERの結果から獲得し,目的言語側のIOタグはNE出力層の出力から獲得する.表\ref{tbl:embed-input}に埋め込みモデルへの入力例を示す.表\ref{tbl:embed-input}の日本語文のIOタグ系列は,「東京タワー」が建築物(FAC)のNE,「1958年」が日付(DATE)のNE,それ以外の単語はNEではない(O)ことを表している.また,英語文のIOタグ系列は,「TokyoTower」が建築物のNE,「1958」が日付のNE,それ以外の単語はNEではない(O)ことを表している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{12table01.tex}\caption{埋め込みモデルの入力例}\label{tbl:embed-input}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%埋め込モデルは,まず,単語とIOタグを単語埋め込み層とNE埋め込み層に送り,単語埋め込みとNE埋め込みを生成する.そして,加算層で単語埋め込みとNE埋め込みを足し合わせ,単語とNEの両方の情報を含む埋め込みに基づいて翻訳を行う.具体的には,各時刻$t$において,単語出力層で単語$y_{t}\inV$の出力確率$p_{emb}(y_t|\bvec{\tilde{x}},\bvec{\tilde{y}}_{1:t-1})$を算出すると共に,NE出力層でIOタグ$l_{t}\inT_{emb}$の出力確率$p_{emb}({l}_t|\bvec{\tilde{x}},\bvec{\tilde{y}}_{1:t-1})$を算出し,時刻$t$における出力単語とそのIOタグのペアを,以下の確率に基づいて予測する.\begin{equation}\label{eq:embed_prob}p_{emb}(y_{t},l_{t}|\bvec{\tilde{x}},\bvec{\tilde{y}}_{1:t-1})=p_{emb}({y}_t|\bvec{\tilde{x}},\bvec{\tilde{y}}_{1:t-1})\timesp_{emb}({l}_t|\bvec{\tilde{x}},\bvec{\tilde{y}}_{1:t-1})\end{equation}ここで,$V$は目的言語の単語集合,$T_{emb}$は目的言語のIOタグ集合,$\bvec{\tilde{x}}$は原言語側の単語とそのIOタグのペアの系列,$\bvec{\tilde{y}}_{1:t-1}$は時刻$t-1$までの出力単語とそのIOタグのペアの系列を表す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案モデル} 本節では,原言語文と目的言語文の両方のNE情報を活用するタグ付けモデルを提案する(\ref{sect:tagging}節).また,提案するタグ付けモデルを用いて,タグ付けモデルと埋め込みモデルのアンサンブルにより原言語文と目的言語文の両方のNEを考慮するNMTモデルも提案する(\ref{sect:proposed_model}節).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{原言語文と目的言語文のNE情報を活用するタグ付けモデル}\label{sect:tagging}本節では,原言語文のNE情報に加えて目的言語文のNE情報も活用するタグ付けモデルを提案する.提案タグ付けモデルでは,図\ref{fig:tag-model}に示すように,原言語文に加えて目的言語文中のNEの前後にNEの種類と開始/終了の情報を含むNEタグを挿入し,NEタグが挿入された対訳文に基づいた学習と推論を行う.学習時には,まず,学習データの対訳文にNERを行いNEを特定し,特定したNEの前後にNEタグを挿入する.NER及びNEタグの挿入は,原言語文と目的言語文で独立に行う.NEタグの挿入は,従来の原言語文のNEのみを活用するタグ付けモデルと同様である(\ref{sect:tag-source}節参照).つまり,特定したNEの前にNEタグ「\verb|<|$c$\verb|>|」を,後にNEタグ「\verb|</|$c$\verb|>|」を挿入する.ここで,$c$はNEの種別を表すNEクラスである.例えば,図\ref{fig:tag-model}では,原言語である日本語文中の「スティーブ・ジョブズ」が人名(PER)のNE,「アップル」が組織名(ORG)のNEと認識され,「スティーブ・ジョブズ」と「アップル」の前後に,それぞれ,「\verb|<|PER\verb|>|」と「\verb|</|PER\verb|>|」,「\verb|<|ORG\verb|>|」と「\verb|</|ORG\verb|>|」というNEタグが挿入されている.また,目的言語文である英語文も同様に,「SteveJobs」と「Apple」が,それぞれ人名と組織名のNEとして認識され,「SteveJobs」の前後には「\verb|<|PER\verb|>|」と「\verb|</|PER\verb|>|」,「Apple」の前後には「\verb|<|ORG\verb|>|」と「\verb|</|ORG\verb|>|」がそれぞれ挿入されている.そして,NEタグが挿入された対訳文対を用いてNMTモデルを学習する.推論時には,まず原言語文$\bvec{x}$に対して,学習時と同様にNERを行い,原言語文内のNEの前後にNEタグを挿入する.そして,NEタグが挿入された原言語文$\bvec{x'}$を,学習済みのNMTモデルで翻訳する.具体的には,各時刻$t$においてTransformerデコーダの出力層で単語及びNEタグの出力確率$p_{tag}(y'_t|\bvec{x'},\bvec{y'}_{1:t-1})$を算出し,算出した出力確率に基づいて目的言語文を生成する.ここで,$y'_{t}$は時刻$t$でのタグ付けモデルの出力であり,$y'_{t}\inV\cupT_{tag}$である.ただし,$V$は目的言語の単語集合,$T_{tag}$は目的言語のNEタグの集合である.つまり,$y'_{t}$は目的言語の単語あるいはNEタグである.また,$\bvec{y'}_{1:t-1}$は時刻$1$から$t-1$までの出力系列を表す.翻訳の結果,生成された文にNEタグが含まれている場合はNEタグを削除し,NEタグのない文を目的言語文として出力する.生成された文にNEタグが含まれていない場合は,生成した文をそのまま目的言語文として出力する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{タグ付けモデルと埋め込みモデルのアンサンブルモデル}\label{sect:proposed_model}本節では,\ref{sect:tagging}節で提案したタグ付けモデルと\ref{sect:embedding}節で説明した埋め込みモデルのアンサンブルによって原言語文と目的言語文の両方のNE情報を活用するNMTモデル「アンサンブルモデル」を提案する.提案アンサンブルモデルは,推論時に,独立に学習したタグ付けモデルと埋め込みモデルを用いて目的言語文を生成する.目的言語文の生成は,図\ref{fig:ensemble-model}に示すように,タグ付けモデルの出力確率と埋め込みモデルの出力確率を平均した確率に基づいて目的言語の単語とNEクラスを予測することで行う.具体的には,各時刻$t$においてタグ付けモデルと埋め込みモデルを用いて,目的言語の単語($y_{t}\inV$)とNE($c_{t}\inC\cup\{\text{O}\}$)のペア($o_t=(y_{t},c_{t})$)の出力確率$p(o_{t}|\bvec{x'},\bvec{\tilde{x}},\bvec{o}_{1:t-1})$を式(\ref{eq:ensemble_prob})の通りに求める.ただし,$C$はNEクラスの集合であり,「O」はNEではないことを表すクラスである.\begin{equation}\label{eq:ensemble_prob}p(o_t|\bvec{x'},\bvec{\tilde{x}},\bvec{o}_{1:t-1})=\frac{\hat{p}_{emb}(o_{t}|\bvec{\tilde{x}},\bvec{o}_{1:t-1})+\hat{p}_{tag}(o_{t}|\bvec{x'},\bvec{o}_{1:t-1})}{2}\end{equation}ここで,$\hat{p}_{emb}(o_{t}|\bvec{\tilde{x}},\bvec{o}_{1:t-1})$と$\hat{p}_{tag}(o_{t}|\bvec{x'},\bvec{o}_{1:t-1})$はそれぞれ,埋め込みモデルに基づく$o_{t}$の出力確率とタグ付けモデルに基づく$o_{t}$の出力確率を表す.そして,求めた出力確率に基づき,式(\ref{eq:argmax})の通りに目的言語文$\bvec{\hat{y}}$を生成する.\begin{equation}\label{eq:argmax}\bvec{\hat{y}}=\mathop{\text{argmax}}_{\bvec{y}}\sum_{t=1}^{T}\text{log}~p(o_t|\bvec{x'},\bvec{\tilde{x}},\bvec{o}_{1:t-1})\end{equation}ここで,$T$は目的言語文の文長である.以降では,\ref{sect:pemb}節で埋め込みモデルに基づく$\hat{p}_{emb}$の算出方法を説明し,\ref{sect:ptag}節でタグ付けモデルに基づく$\hat{p}_{tag}$の算出方法を説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{$\hat{p}_{emb}$の算出方法}\label{sect:pemb}\ref{sect:embedding}節で説明した通り,埋め込みモデルは各時刻において目的言語の単語とそのNEのIOタグのペア$\tilde{y_{t}}(=(y_{t},l_{t}))$に対する確率を予測する.NEのIOタグ$l_{t}$とNEクラス$c_{t}$は1対1に対応するので,提案アンサンブルモデルでは,埋め込みモデルを用いて時刻$t$における目的言語の単語とNEのペア$o_t=(y_{t},c_{t})$の出力確率$\hat{p}_{emb}(o_{t}|\bvec{\tilde{x}},\bvec{o}_{1:t-1})$を式(\ref{eq:embed_ensemble_prob})の通りに求める.\begin{equation}\label{eq:embed_ensemble_prob}\hat{p}_{emb}({o}_{t}|\bvec{\tilde{x}},\bvec{o}_{1:t-1})=p_{emb}({y}_t,l_t|\bvec{\tilde{x}},\bvec{\tilde{y}}_{1:t-1})\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{$\hat{p}_{tag}$の算出方法}\label{sect:ptag}タグ付けモデルは,NEタグと目的言語の単語からなる系列を逐次的に生成する.したがって,$\hat{p}_{tag}(o_{t}|\bvec{x'},\bvec{o}_{1:t-1})$の算出の際には,まず,時刻$t-1$までの目的言語の単語とそのNEクラスのペアの系列$\bvec{o}_{1:t-1}$を,タグ付けモデルの入力となる目的言語の単語とNEタグからなる系列$\bvec{y'}_{1:t'-1}$へ変換する(ステップ1).その後,$\bvec{y'}_{1:t'-1}$に続く各要素(NEタグと目的言語の単語)の出力確率を算出し,算出した確率に基づき$\hat{p}_{tag}(o_{t}|\bvec{x'},\bvec{o}_{1:t-1})$を求める(ステップ2).以降で,各ステップについて説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subparagraph*{ステップ1:$\bvec{o}_{1:t-1}$から$\bvec{y'}_{1:t'-1}$への変換}\quad\\本ステップでは,$\bvec{o}_{1:t-1}$中の目的言語の単語系列$\bvec{y}_{1:t-1}$において,\pagebreak隣接する目的言語の単語間でNEが異なる箇所にNEタグを挿入することで$\bvec{y'}_{1:t'-1}$に変換する.つまり,$c_{1}\neq\text{O}$または${c}_{i-1}\neq{c}_{i}$($i=2,3,...,t-1$)となるところにNEタグを挿入する.具体的には,次の(i)から(iv)のタグ挿入により$\bvec{o}_{1:t-1}$を$\bvec{y'}_{1:t'-1}$に変換する.\begin{description}\item[(i)]$c_{1}\neq\text{O}$の時:開始タグ\verb|<|$c_1$\verb|>|を$y_{1}$の直前に挿入.\item[(ii)]$c_{i-1}=\text{O},c_{i}\inC$の時:開始タグ\verb|<|$c_i$\verb|>|を${y}_{i-1}$と$y_i$の間に挿入.\item[(iii)]$c_{i-1}\inC,c_{i}=\text{O}$の時:終了タグ\verb|</|$c_{i-1}$\verb|>|を${y}_{i-1}$と$y_i$の間に挿入.\item[(iv)]$c_{i-1}\inC,c_{i}\inC,{c}_{i-1}\neq{c}_{i}$の時:終了タグ\verb|</|$c_{i-1}$\verb|>|と開始タグ\verb|<|$c_i$\verb|>|を${y}_{i-1}$と$y_i$の間に挿入.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph*{ステップ2:$\hat{p}_{tag}$の計算}\quad\\本ステップでは,$\bvec{y'}_{1:t'-1}$をタグ付けモデルへ入力し,$\bvec{y'}_{1:t'-1}$に続く要素に対するタグ付けモデルの出力確率$p_{tag}({y'}_{t'}|\bvec{x'},\bvec{y'}_{1:{t'}-1})$に基づいて$\hat{p}_{tag}(o_{t}|\bvec{x'},\bvec{o}_{1:t-1})$を計算する.その際,時刻$t'$におけるタグ付けモデルの出力要素がNEタグである場合,$o_{t}$の出力単語を決定することができない.そこで,タグ付けモデルの出力要素が初めて目的言語の単語になるまで予測を継続し,$\hat{p}_{tag}$を計算する.以降では,$t'$時点において全てのNEタグが閉じている場合(NEタグが出現していない,あるいは全ての開始タグに対応する終了タグが出現している場合)と,$t'$時点においてNEタグが開いている場合(開始タグに対応する終了タグが出現していない場合)に分けて,$\hat{p}_{tag}$の計算方法を詳細に説明する.なお,タグ付けモデルにおいてNEタグを含む出力系列は,同じクラスの開始タグと終了タグが対となる(条件1),対となる開始タグと終了タグの間はNEタグを含まない単語列となる(条件2)の2つの条件を満たす必要がある.そこで,これらの条件を満たさない出力に対しては確率を0として無視する.そして,これにより確率の総和が1にならない場合は,その差分を条件を満たす出力の確率に均等に割り振ることで,$\hat{p}_{tag}$の総和が1となるように補正する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph*{ケース1:時刻$t'$においてタグが閉じている場合}\quad\\タグ付けモデルの出力は,単語($w$),開始タグ(\verb|<|$c$\verb|>|),終了タグ(\verb|</|$c$\verb|>|)のいずれかである.ただし,$w\inV$,$c\inC$である.ここで,時刻$t'$の出力が\verb|</|$c$\verb|>|である場合は,出力系列の条件1に反するため無視する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subparagraph*{ケース1-1:${y'}_{t'}$が単語$w$の場合}\quad\\時刻$t'$においてタグが閉じているので,${y'}_{t'}$の単語$w$のNEクラスは$\text{O}$である.したがって,$\hat{p}_{tag}(o_{t}|\bvec{x'},\bvec{o}_{1:t-1})$は式(\ref{eq:tag_ensemble_prob_O_close})の通りとなる.式(\ref{eq:tag_ensemble_prob_O_close})の具体例は付録の図\ref{fig:tag_ensemble_prob_O_close}に示す.\begin{equation}\label{eq:tag_ensemble_prob_O_close}\hat{p}_{tag}(o_{t}=(w,\text{O})|\bvec{x'},\bvec{o}_{1:t-1})=p_{tag}({y'}_{t'}=w|\bvec{x'},\bvec{y'}_{1:{t'}-1})\\\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subparagraph*{ケース1-2:${y'}_{t'}$が開始タグ$\texttt{<}{c}\texttt{>}$の場合}\quad\\時刻$t'$の出力が開始タグの場合,$o_{t}$の単語は${y'}_{t'}$だけでは決定できない.そこで,${y'}_{t'}$の出力確率に加えて,次の時刻$t'+1$における要素${y'}_{t'+1}$の出力確率も用いて$\hat{p}_{tag}(o_{t}|\bvec{x'},\bvec{o}_{1:t-1})$を算出する.その際,時刻$t'+1$におけるタグ付けモデルの出力のうち,開始タグと終了タグの場合は出力系列の条件1または条件2に反するため,出力が単語の場合の確率のみを求める.${y'}_{t'}$が開始タグ$\texttt{<}{c}\texttt{>}$であり,${y'}_{t'+1}$が単語$w$の場合,$w$のNEクラスは$c$となる.したがって,$\hat{p}_{tag}(o_{t}|\bvec{x'},\bvec{o}_{1:t-1})$は式(\ref{eq:tag_ensemble_prob_NE_close})の通りとなる.式(\ref{eq:tag_ensemble_prob_NE_close})の具体例は付録の図\ref{fig:tag_ensemble_prob_NE_close}に示す.\begin{equation}\label{eq:tag_ensemble_prob_NE_close}\begin{split}&\hat{p}_{tag}(o_{t}=(w,c)|\bvec{x'},\bvec{o}_{1:t-1})\\&\quad=p_{tag}(y'_{t'}=\texttt{<}{c}\texttt{>}|\bvec{x'},\bvec{y'}_{1:t'-1})\timesp_{tag}({y'}_{t'+1}=w|\bvec{x'},\bvec{y'}_{1:t'-1},y'_{t'}=\texttt{<}{c}\texttt{>})\end{split}\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subparagraph*{$\hat{p}_{tag}$の補正}\quad\\前述の$\hat{p}_{tag}$の算出過程では,タグ付けモデルの出力系列の条件に反する出力は無視されるため,全ての$o_{t}$に対する確率$\hat{p}_{tag}$の合計が1にならない場合がある.そこで,式(\ref{eq:tag_ensemble_prob_O_close})または式(\ref{eq:tag_ensemble_prob_NE_close})で算出した$\hat{p}_{tag}$を,式(\ref{eq:delta})及び式(\ref{eq:tag_ensemble_prob})に示すように補正し,補正後の確率$\tilde{p}_{tag}$を式(\ref{eq:ensemble_prob})の$\hat{p}_{tag}$として用いる.\begin{gather}\label{eq:delta}\delta=\frac{1-\sum_{o_{t}\inV\times\{C\cup\{\text{O}\}\}}\hat{p}_{tag}(o_{t}|\bvec{x'},\bvec{o}_{1:t-1})}{|V|\times|\{C\cup\{\text{O}\}\}|}\\\label{eq:tag_ensemble_prob}\tilde{p}_{tag}(o_{t}|\bvec{x'},\bvec{o}_{1:t-1})=\hat{p}_{tag}(o_{t}|\bvec{x'},\bvec{o}_{1:t-1})+\delta\end{gather}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph*{ケース2:時刻$t'$においてタグ$\texttt{<}{c}\texttt{>}$が開いている場合(終了タグ$\texttt{</}{c}\texttt{>}$が未出力の場合)}\quad\\ケース2においては,時刻$t'$のタグ付けモデルの出力のうち,開始タグまたは$c$以外のNEクラスの終了タグの場合は,出力系列の条件1または条件2に反するため無視する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subparagraph*{ケース2-1:${y'}_{t'}$が単語$w$の場合}\quad\\時刻$t'$において開始タグ$\texttt{<}{c}\texttt{>}$が開いているので,${y'}_{t'}$の単語$w$のNEクラスは$c$である.したがって,$\hat{p}_{tag}(o_{t}|\bvec{x'},\bvec{o}_{1:t-1})$は式(\ref{eq:tag_ensemble_prob_NE_open})の通りとなる.式(\ref{eq:tag_ensemble_prob_NE_open})の具体例は付録の図\ref{fig:tag_ensemble_prob_NE_open}に示す.\begin{equation}\label{eq:tag_ensemble_prob_NE_open}\hat{p}_{tag}(o_{t}=(w,c)|\bvec{x'},\bvec{o}_{1:t-1})=p_{tag}({y'}_{t'}=w|\bvec{x'},\bvec{y'}_{1:{t'}-1})\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subparagraph*{ケース2-2:${y'}_{t'}$が終了タグ$\texttt{</}{c}\texttt{>}$の場合}\quad\\$o_{t}$の単語は${y'}_{t'}$だけでは決定できないため,次の時刻$t'+1$における要素${y'}_{t'+1}$の出力確率も用いて$\hat{p}_{tag}(o_{t}|\bvec{x'},\bvec{o}_{1:t-1})$を算出する.${y'}_{t'}$が終了タグ$\texttt{</}{c}\texttt{>}$である場合,時刻$t'+1$では全ての開始タグが閉じているため,時刻$t'+1$における$\hat{p}_{tag}$の算出は,前述のケース1と同様に考えることができる.そのため,${y'}_{t'+1}$が単語の場合の$\hat{p}_{tag}$は式(\ref{eq:tag_ensemble_prob_O_open})に示すように計算され,${y'}_{t'+1}$が開始タグで${y'}_{t'+2}$が単語の場合の$\hat{p}_{tag}$は式(\ref{eq:tag_ensemble_prob_NE_open2})に示すように計算される.式(\ref{eq:tag_ensemble_prob_O_open})と式(\ref{eq:tag_ensemble_prob_NE_open2})の具体例は付録の図\ref{fig:tag_ensemble_prob_O_open}と図\ref{fig:tag_ensemble_prob_NE_open2}にそれぞれ示す.\begin{gather}\label{eq:tag_ensemble_prob_O_open}\begin{split}&\hat{p}_{tag}(o_{t}=(w,\text{O})|\bvec{x'},\bvec{o}_{1:t-1})\\&\quad=p_{tag}(y'_{t'}=\texttt{</}{c}\texttt{>}|\bvec{x'},\bvec{y'}_{1:t'-1})\timesp_{tag}({y'}_{t'+1}=w|\bvec{x'},\bvec{y'}_{1:{t'-1}},y'_{t'}=\texttt{</}{c}\texttt{>})\\\end{split}\\\label{eq:tag_ensemble_prob_NE_open2}\begin{split}&\hat{p}_{tag}(o_{t}=(w,c')|\bvec{x'},\bvec{o}_{1:t-1})\\&\quad=p_{tag}(y'_{t'}=\texttt{</}{c}\texttt{>}|\bvec{x'},\bvec{y'}_{1:t'-1})\timesp_{tag}(y'_{t'+1}=\texttt{<}{c'}\texttt{>}|\bvec{x'},\bvec{y'}_{1:t'-1},y'_{t'}=\texttt{</}{c}\texttt{>})\\&\qquad\timesp_{tag}({y'}_{t'+2}=w|\bvec{x'},\bvec{y'}_{1:t'-1},y'_{t'}=\texttt{</}{c}\texttt{>},y'_{t'+1}=\texttt{<}{c'}\texttt{>})\\\end{split}\end{gather}ただし,$\hat{p}_{tag}(o_{t}=(w,c)|\bvec{x'},\bvec{o}_{1:t-1})$は,式(\ref{eq:tag_ensemble_prob_NE_open})と$c'=c$の場合の式(\ref{eq:tag_ensemble_prob_NE_open2})の2つから求まるため,これらの確率値の和とする.また,タグが開いているケース1と同様,式(\ref{eq:tag_ensemble_prob_NE_open})から式(\ref{eq:tag_ensemble_prob_NE_open2})を用いて算出した$\hat{p}_{tag}$は式(\ref{eq:delta})と式(\ref{eq:tag_ensemble_prob})のように補正し,補正後の確率$\tilde{p}_{tag}$を式(\ref{eq:ensemble_prob})の$\hat{p}_{tag}$として用いる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} \label{sect:experiment}本節では提案モデルの性能を評価するための実験について述べる.まず,\ref{sect:setting}節で本研究の実験設定について説明する.次に,\ref{sect:mainresult}節で実験結果について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}\label{sect:setting}本実験では,WMT2014の英語とドイツ語間のニュース翻訳タスクとWMT2020の英語と日本語間のニュース翻訳タスクにおいて提案モデルの有効性を検証した.実験では,提案モデルである原言語文と目的言語文の両方のNE情報を活用するタグ付けモデル({\itTag})とタグ付けモデルと埋め込みモデルのアンサンブルモデル({\itEns})を,NE情報を活用しない通常のTransformerNMTモデル({\itBS}),原言語文のNE情報のみを活用するタグ付けモデル({\itTag-Source}),原言語文と目的言語文の両方のNE情報を活用する埋め込みモデル({\itEmb})の3つのNMTモデルと比較した.なお,{\itEns}は{\itTag}と{\itEmb}のアンサンブルモデルである.また,すべてのNMTモデルのベースにはFairseq\cite{fairseq}のTransformer{\itbase}を使用し,ハイパーパラメータは\citeA{Transformer}の設定に従った.翻訳性能の評価指標にはBLEU(\%)\cite{BLEU},METEOR(\%)\cite{METEOR},BERTScore(\%)\cite{BERTScore}を用いた.各NMTモデルの学習は,検証データに対する性能が5エポック連続で向上しなくなったら終了させた.各データセットはBytePairEncoding(BPE)\cite{subword}でサブワード分割した.英語とドイツ語間の翻訳実験では,語彙は英語とドイツ語で共有させ,語彙サイズは40,000とした.英語と日本語間の翻訳実験では,英語と日本語で語彙は共有させず,語彙サイズはそれぞれ32,000とした.BPE適用後,学習データと検証データから,文長が250以上の文を含む文対及び原言語文と目的言語文の文長比が1.5以上の文対は削除した.実験データの統計量を表\ref{tbl:data}に示す.文中のNEを特定するためのNER器は,英語とドイツ語間の翻訳実験ではStanza(英語文にはCoNLL03モデル,ドイツ語文にはGermEval14モデル)\cite{stanza}を,英語と日本語間の翻訳実験ではspacy(英語文にはen\_core\_web\_trfモデル,日本語文にはja\_core\_news\_trfモデル)\cite{spacy}を使用した.教師データにおけるNEの統計量を表\ref{tbl:NE_ratio}に示す.表\ref{tbl:NE_ratio}の「両言語ともNEを含む文対数」は両言語においてNEを1つ以上認識した対訳文対の数を表し,「両言語でNEの数が一致した文対数」は両言語ともにNEを含む対訳文対のうち認識したNEの数が一致した対訳文対の数を表す.また,それぞれのNER器が認識するNEを付録の表\ref{tbl:stanza-NE}と表\ref{tbl:spacy-NE}に示す.提案モデルでは,NER器が認識するNEクラスと固有表現ではない単語を表す「O」を各単語のNEの情報として使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{12table02.tex}%\caption{実験データの文対数}\label{tbl:data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{12table03.tex}%\caption{教師データ中のNEの統計量}\label{tbl:NE_ratio}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:NE_ratio}より,同一データセットでも言語間で認識したNEに差があることが分かる.NEの差が生じた原因として,一方の言語でNER器が認識誤りをしたことや,対訳文対でNEの数がそもそも一致していないことが考えられる.例えば,対訳文対において一方の言語の文でNEが訳抜けしていたり,一方の言語の文に含まれるNEがもう一方の言語の文では代名詞で書かれていたりする実例が存在する.\pagebreakこのように対訳文対においてNEの数が一致しない場合があるが,本研究ではSiekmeierら\cite{embed3}の研究に倣い,NEの数は統一せずにNER器の結果をそのまま使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}\label{sect:mainresult}実験結果を表\ref{tbl:mainresult}に示す.BLEUでは,評価データ全文に対する翻訳性能に加えて,NEを含む文のみ,NEを含まない文のみに対する翻訳性能も評価した.NEを含むか否かは,評価データの原言語文に対するNERの結果に基づき判断した.評価データ全文に対する翻訳性能に関して,アンサンブルモデルとそれ以外のモデルの性能差に対してブートストラップによる有意差検定\cite{koehn}(有意差水準5\%)を行った.表\ref{tbl:mainresult}の$\star$,$\maltese$,$\dagger$,$\diamond$は,それぞれ,{\itEns}が,{\itBS},{\itEmb},{\itTag-Source},{\itTag}に対して有意に高いことを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[b]\input{12table04.tex}%\caption{翻訳性能}\label{tbl:mainresult}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案タグ付けモデル{\itTag}と従来タグ付けモデル{\itTag-source}の評価データ全文に対するBLEUの比較より,日英翻訳を除き,タグ付けモデルにおいて原言語文のNE情報に加えて目的言語文のNE情報も活用することで,BLEUが向上することを確認した.また,原言語と目的言語の両方のNE情報を活用するタグ付けモデル({\itTag})と埋め込みモデル({\itEmb})の評価データ全文に対するBLEUを比較すると,全ての言語対で,タグ付けモデルは埋め込みモデルよりもBLEUが高いことを確認した.さらに,タグ付けモデルと埋め込みモデルをアンサンブルすることで,全ての言語対においてNEの有無に依らずBLEUが向上し,評価データ全文に対するBLEUにおいて,比較対象の全モデルに対して統計的に有意な性能改善を確認した.特に,アンサンブルモデルの評価データ全文に対するBLEUは,従来タグ付けモデルよりも,英独翻訳では0.76ポイント,独英翻訳では1.59ポイント,英日翻訳では0.96ポイント,日英翻訳では0.65ポイント上回った.METEORとBERTScoreでの比較においても,BLEUと同様に,{\itTag}と{\itEns}において翻訳性能が改善していることが分かる.NEを活用していない{\itBS}と提案モデルである{\itTag}や{\itEns}のBLEUを比較すると,NEを活用することによる翻訳性能の改善は,NEを含まない文よりもNEを含む文に対する方が大きいことを確認した.NEを含まない文に対してもNEを活用する提案モデルで翻訳性能が改善しているのは,NEではない(O)という情報が翻訳時の語義曖昧性の解消に役立ったからだと考えられる.例えば,「平野は農業に適している。」という日本語文を英語に翻訳する場合,日本語文中の「平野」は「へいや」の意味と地名のNEである「ひらの」の二つの意味があるが,この文では「へいや」の意味で使用されている.この時,文中の「平野」がNEではない(O)という情報は,「平野」を``plain''と正しく翻訳するために役立つ.これらの結果より,タグ付けモデルにおいて目的言語のNE情報を活用すること及びタグ付けモデルと埋め込みモデルをアンサンブルすることの有効性を確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{考察} 本節では提案モデルの翻訳性能を詳細に分析する.まず,\ref{sect:NE_result}節でNEに対する翻訳性能について分析する.次に,\ref{sect:translation-example}節で提案モデルと従来のNEを活用するNMTモデルの翻訳結果の実例を比較する.そして,\ref{sect:NE_type}節で活用するNEクラスの数を変更した際の翻訳性能について分析する.最後に\ref{sect:single-ensemble}節で提案モデルを{\itTag}同士のアンサンブルモデル,{\itEmb}同士のアンサンブルモデルと比較する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{NEに対する翻訳性能}\label{sect:NE_result}本節では,NEに対する翻訳性能を評価するため,出力文におけるNEの適合率・再現率・F値を調べた.NEの適合率・再現率・F値の算出では,参照訳に対するNERによって認識されたNEを正解データとした.適合率は出力文中のNEのうち正しかったNEの割合,再現率は参照訳中のNEのうち正しく訳出できたNEの割合,F値は適合率と再現率の調和平均である.本研究では,NEの文字列とNEクラスの両方が一致した場合のみNEを正しく訳出できたとみなした.なお,\ref{sect:setting}節で述べた通り,NERの認識誤りや対訳文対のNEのそもそもの数の不一致によって入力文と参照訳でNEの数が異なる場合がある.その場合,適切な性能評価ができない.例えば,入力文中に存在するNEが参照訳中に存在しない場合や参照訳中でNER器が認識できなかった場合は,入力文中に存在するNEを正しく訳出できても適合率が低下する.そこで本節では,評価データのうち,入力文と参照訳で認識されたNEの数が等しい文対に対してのみ評価を行った.このようにNER器の認識誤りの影響を緩和させた評価を行ったが,NER器の結果を正解データとしているため,本節で報告するNEの適合率・再現率・F値はNER器の性能に依存した値となっていることに注意されたい.ただし,この評価値を用いたモデル間の性能比較においては,比較条件(評価データの作成方法)が一致しているため,性能比較には一定の意味があると考えられる.結果を表\ref{tbl:subresult}に示す.表\ref{tbl:subresult}において{\itTag}と{\itEmb}を比較すると,{\itTag}は英独翻訳における適合率が{\itEmb}より低いが,その他の値は{\itEmb}よりも高い.この結果より,{\itEmb}より{\itTag}の方がNEに対する翻訳性能が良いことが,表\ref{tbl:mainresult}において{\itTag}の評価データ全文に対する翻訳性能が{\itEmb}を上回った一因であると推察される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[b]\input{12table05.tex}%\caption{NEの適合率・再現率・F値(\%)}\label{tbl:subresult}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また表\ref{tbl:subresult}では,{\itEmb}は{\itTag}と比較して,再現率が適合率よりも著しく低い傾向がある.{\itEmb}の解析結果を見たところ,NEクラスを「O」と誤るケースが多くみられた.これは,NE出力層の教師データであるIOタグ系列が,90\%近くが「O」で構成される不均衡データであったことが原因だと考えられる.また,このNEクラスの誤りはNEの予測にも悪影響を及ぼしたと考えられる.これらのことから,{\itEmb}は再現率が低くなっていると推察される.{\itEns}に関しては,{\itTag}や{\itEmb}と比較して適合率とF値が高いことが分かる.一方で再現率については,{\itEmb}よりは高いが,\pagebreak{\itTag}と比較すると日英翻訳以外は同等あるいは低い結果となった.これより,タグ付けモデルと埋め込みモデルをアンサンブルすることでNEの適合率が改善し,それによりNEのF値が改善できることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{翻訳例の比較}\label{sect:translation-example}本節では,{\itEmb},{\itTag},{\itEns}の翻訳結果の実例を比較する.英日翻訳での実例を表\ref{tbl:translation-example}に示す.表\ref{tbl:translation-example}のSrcは入力文,Refは参照訳,H${}_{\text{Emb}}$は{\itEmb}の出力文,H${}_{\text{Tag}}$は{\itTag}の出力文,H${}_{\text{Ens}}$は{\itEns}の出力文を表す.また,各モデルでNEと認識された単語の後ろにはNEクラスを「単語${}_{\text{-NEクラス}}$」の形式で記してある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[b]\input{12table06.tex}%\caption{翻訳結果の実例}\label{tbl:translation-example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:translation-example}の例において,{\itEmb}は原言語文中の「金正恩」を正しく訳せていないが,{\itTag}と{\itEns}は正しく訳出できている.図\ref{fig:attn_emb}に{\itEmb}の言語間注意機構における注意マップを,図\ref{fig:attn_tag}に{\itTag}の言語間注意機構における注意マップを示す.図\ref{fig:attn_emb}より,{\itEmb}では目的言語の「金」,「正@@」,「日」,「キム」,「ジョン@@」,「ウン」は,それぞれ,原言語文の``Kim'',``Jong'',``-'',``un''の各単語に対して一つずつ注意が向いていることが分かる.一方,図\ref{fig:attn_tag}より,{\itTag}では「金正」や「恩」は``KimJong-un''全体に対して注意が向いていることが分かる.この結果より,{\itTag}では原言語文中のNEである``KimJong-un''をチャンクとして捉えることができたため,{\itTag}や{\itEns}では「金正恩」を正しく翻訳できたと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{31-2ia12f4.pdf}\end{center}\caption{埋め込みモデルの言語間注意機構における注意マップの実例(一部)}\label{fig:attn_emb}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{31-2ia12f5.pdf}\end{center}\caption{タグ付けモデルの言語間注意機構における注意マップの実例(一部)}\label{fig:attn_tag}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,「米大統領」に関しては,{\itEmb}と{\itTag}は訳抜けを起こしている.一方で,{\itEns}では,原言語文中の「USpresident」の意味を含んだ翻訳文を生成できている.このように埋め込みモデル単体やタグ付けモデル単体では訳出できなかった単語をアンサンブルモデルが訳出できている例を確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{活用するNEクラス数を変更した場合の翻訳性能}\label{sect:NE_type}\ref{sect:experiment}節の実験では,英語とドイツ語間の翻訳では4種類のNE,英語と日本語間の翻訳では英語では18種類のNE,日本語では22種類のNEを用い,翻訳タスクによって活用するNEの種類数が異なる.そこで本節では,英語と日本語間の翻訳実験において,活用するNEのクラスを英語とドイツ語間の翻訳実験で活用したものと同じ4種類に減らして実験を行うことで,活用するNEのクラス数が翻訳性能に与える影響を調査する.具体的には,英語と日本語間の翻訳実験において,PERSON,ORG,LOCはそのまま使用し,GPEとFACは場所を表すLOCに置き換え,それ以外のNEクラスはMISCに置き換えた.結果を表\ref{tbl:NE_type_result}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{12table07.tex}%\caption{活用するNEクラス数を変更した際の翻訳性能(BLEU(\%))}\label{tbl:NE_type_result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:NE_type_result}より,NEクラスを4種類にした場合でも{\itEns}の性能が最も高いことが分かる.これより,提案のアンサンブルモデルは,NEのクラス数を減らした場合でも翻訳性能を向上できることを確認した.しかし,{\itTag}と{\itEns}の両モデルは,NEの種類を4種類に減らすと,18/22種類のNEを用いた場合よりも翻訳性能が低くなった.また日英翻訳では,従来モデルにおいてもNEの種類を減らすことで翻訳性能が低下した.これらの結果より,提案モデルや日英翻訳における従来モデルでは,細かいNEクラスを活用すると豊富なNE情報を活用できるため,翻訳性能を向上できることが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{単一モデルのアンサンブルとの比較}\label{sect:single-ensemble}{\itEns}は{\itTag}と{\itEmb}の二つの異なるモデルをアンサンブルしたモデルだが,機械翻訳の分野では,単一のモデルにおいても,シード値を変えて学習した複数モデルをアンサンブルすることで翻訳性能が向上することが報告されている.そこで本節では,提案アンサンブルモデルの効果を明らかにするため,二つの{\itEmb}をアンサンブルしたモデル({\itEns-Emb})と二つの{\itTag}をアンサンブルしたモデル({\itEns-Tag})の翻訳性能を評価し,提案アンサンブルモデルの翻訳性能と比較する.{\itEns-Emb}は二つの{\itEmb}の出力確率を平均した確率に基づいて翻訳を行うモデルであり,{\itEns-Tag}は二つの{\itTag}の出力確率を平均した確率に基づいて翻訳を行うモデルである.{\itEns-Emb}でアンサンブルする{\itEmb}は,\ref{sect:experiment}節の{\itEmb}と,シード値を変えて学習した{\itEmb}の二つであり,{\itEns-Tag}でアンサンブルする{\itTag}は,\ref{sect:experiment}節の{\itTag}と,シード値を変えて学習した{\itTag}の二つである.シード値はランダムに決定した.結果を表\ref{tbl:subresult2}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{12table08.tex}%\caption{アンサンブルモデルの翻訳性能(BLEU(\%))}\label{tbl:subresult2}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tbl:mainresult}と表\ref{tbl:subresult2}の比較より,従来の報告同様,タグ付けモデルと埋め込みモデルの各モデルにおいてもシード値を変えて学習した複数モデルをアンサンブルすることで翻訳性能が改善することを確認した.そして,表\ref{tbl:subresult2}の{\itEns-Emb}と{\itEns-Tag}の比較より,アンサンブルする場合でも埋め込みモデルよりタグ付けモデルの方が翻訳性能が高くなる言語対が多いことが分かる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{12table09.tex}%\caption{アンサンブルしたモデル間の出力確率分布の類似度}\label{tbl:prob_sim}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一方で,表\ref{tbl:mainresult}と表\ref{tbl:subresult2}を比較すると,アンサンブルによる性能向上はタグ付けモデルよりも埋め込みモデルの方が大きい.アンサンブルでは,組み合わせる確率の分布の違いが大きいほど汎化性能が向上することが報告されている\cite{ensemble_krogh}.そこで,{\itEns-Tag}でアンサンブルした二つの{\itTag}の出力確率分布の類似度と{\itEns-Emb}でアンサンブルした二つの{\itEmb}の出力確率分布の類似度を算出した.確率分布の類似度はKLダイバージェンスを用いて求めた.結果を表\ref{tbl:prob_sim}に示す.表\ref{tbl:prob_sim}より,{\itEns-Tag}よりも{\itEns-Emb}の方がKLダイバージェンスが大きいことが分かる.これより,{\itEns-Emb}の方が出力確率分布の違いが大きいモデル同士をアンサンブルしたため,性能改善が大きくなったと考えられる.また,表\ref{tbl:subresult2}において,全ての言語対で{\itEns}の翻訳性能が{\itEns-Emb}や{\itEns-Tag}の翻訳性能よりも高い.特に,独英翻訳及び日英翻訳においては,{\itEns}は{\itEns-Emb}や{\itEns-Tag}と比較して有意な性能改善(独英:$p<0.1$,日英:$p<0.05$)であった.これより,単一モデル同士のアンサンブルよりもタグ付けモデルと埋め込みモデルの異なるモデルをアンサンブルする提案アンサンブルモデルが有効であることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では,NE情報を活用するNMTモデルとして,原言語文のNE情報に加えて目的言語文のNE情報も活用するタグ付けモデルを提案した.さらに,従来の目的言語文のNE情報を活用する埋め込みモデルと提案タグ付けモデルをアンサンブルして翻訳を行うアンサンブルモデルも提案した.WMT2014の英語とドイツ語間の翻訳タスク及びWMT2020の英語と日本語間の翻訳タスクにおける評価実験を通じて,英独,独英,英日翻訳タスクにおいて,タグ付けモデルで目的言語文のNE情報を活用することで翻訳性能が向上することを確認した.また,全ての言語対において,埋め込みモデルとタグ付けモデルをアンサンブルすることで翻訳性能が改善することを確認し,提案アンサンブルモデルは提案タグ付けモデル同士のアンサンブルや埋め込みモデル同士のアンサンブルよりも高い翻訳性能を達成した.今後は,提案タグ付けモデルの翻訳性能を更に改善するため,埋め込みモデルとの推論時のアンサンブル以外の統合方法も検討したい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の一部は,同志社大学ハリス理化学研究所研究助成の支援を受けて行った.ここに記して謝意を表する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.7}\bibliography{12refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6\begin{figure}[b]\begin{center}\includegraphics{31-2ia12f6.pdf}\end{center}\caption{式(\ref{eq:tag_ensemble_prob_O_close})の計算例}\label{fig:tag_ensemble_prob_O_close}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.7\begin{figure}[b]\begin{center}\includegraphics{31-2ia12f7.pdf}\end{center}\caption{式(\ref{eq:tag_ensemble_prob_NE_close})の計算例}\label{fig:tag_ensemble_prob_NE_close}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[p]\begin{center}\includegraphics{31-2ia12f8.pdf}\end{center}\caption{式(\ref{eq:tag_ensemble_prob_NE_open})の計算例}\label{fig:tag_ensemble_prob_NE_open}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[p]\vspace{-0.75\Cvs}\begin{center}\includegraphics{31-2ia12f9.pdf}\end{center}\caption{式(\ref{eq:tag_ensemble_prob_O_open})の計算例}\label{fig:tag_ensemble_prob_O_open}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10\begin{figure}[p]\vspace{-0.75\Cvs}\begin{center}\includegraphics{31-2ia12f10.pdf}\end{center}\caption{式(\ref{eq:tag_ensemble_prob_NE_open2})の計算例}\label{fig:tag_ensemble_prob_NE_open2}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix\label{sect:appendix}本付録では,\ref{sect:ptag}節で説明した$\hat{p}_{tag}$を求める際の計算例を図\ref{fig:tag_ensemble_prob_O_close}から図\ref{fig:tag_ensemble_prob_NE_open2}に示す.図\ref{fig:tag_ensemble_prob_O_close},図\ref{fig:tag_ensemble_prob_NE_close},図\ref{fig:tag_ensemble_prob_NE_open},図\ref{fig:tag_ensemble_prob_O_open},図\ref{fig:tag_ensemble_prob_NE_open2}はそれぞれ式(\ref{eq:tag_ensemble_prob_O_close}),式(\ref{eq:tag_ensemble_prob_NE_close}),式(\ref{eq:tag_ensemble_prob_NE_open}),式(\ref{eq:tag_ensemble_prob_O_open}),式(\ref{eq:tag_ensemble_prob_NE_open2})の例である.また,表\ref{tbl:stanza-NE}に英語とドイツ語間の翻訳実験で使用したNER器が認識するNEの一覧を示し,表\ref{tbl:spacy-NE}に英語と日本語間の翻訳実験で使用したNER器が認識するNEの一覧を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\input{12table10.tex}%\caption{英語とドイツ語間の翻訳実験で使用するNE}\label{tbl:stanza-NE}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{12table11.tex}%\caption{英語と日本間の翻訳実験で使用するNE}\label{tbl:spacy-NE}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{南端尚樹}{2022年同志社大学理工学部情報システムデザイン学科卒業,同年同大学院理工学研究科情報工学専攻に進学,現在に至る.}\bioauthor{田村晃裕}{2005年東京工業大学工学部情報工学科卒業.2007年同大学院総合理工学研究科修士課程修了.2013年同大学院総合理工学研究科博士課程修了.日本電気株式会社,国立研究開発法人情報通信研究機構にて研究員として務めた後,2017年より愛媛大学大学院理工学研究科助教.2020年より同志社大学理工学部准教授となり,現在に至る.博士(工学).情報処理学会,言語処理学会,人工知能学会,ACL各会員.}\bioauthor{加藤恒夫}{1994年東京大学工学部電子工学科卒業.1996年同大学工学系大学院電子工学専攻博士前期課程修了.同年,国際電信電話株式会社入社.KDD研究所,KDDI研究所を経て,2015年より同志社大学理工学部.現在同志社大学理工学部教授.博士(情報理工学).言語処理学会,情報処理学会,電子情報通信学会,日本音響学会,日本音声学会,ヒューマンインターフェース学会,ACM,IEEE各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\clearpage\clearpage\end{document}
V29N03-04
\section{はじめに} \label{sec:introduction}\textbf{意志性(volitionality)}はイベントの基本的な属性であり,イベントに何者かの意志的な関与があるかどうかを表す.本研究では特にイベントの主語が表すエンティティがイベントに意志的に関与しているか否かに着目する.例えば,主語のエンティティの観点から見て,「食べる」や「書く」といったイベントはふつう意志的(volitional)であり,「泣く」や「怪我をする」,「怒られる」といったイベントは非意志的(non-volitional)である.イベントの意志性分類は,因果関係知識の類型化\cite{lee-jun-2008-constructing,inui2003kinds,abe-etal-2008-acquiring,abe-etal-2008-two}に用いられてきたほか,条件付きイベント予測\cite{du-etal-2019-modeling},スクリプト抽出\cite{chambers-jurafsky-2008-unsupervised},顧客フィードバック分析\cite{liu-etal-2017-ijcnlp}などへの応用がある.一方,有生性(animacy)は名詞の属性であり,名詞が表すエンティティに人間のような意志的な行為が可能かどうかを表す.本研究ではイベントの主語が表すエンティティがイベントに意志的に関与しているか否かに着目するため,イベントの主語が有生名詞であることはイベントが意志的であることの必要条件となる.この密接な関係に着目し,本研究では\textbf{主語有生性}というイベントの属性を考える.意志性の学習では主語有生性の同時学習が助けになると期待される.意志性を認識する難しさは,言語資源の不足と文脈理解が必要なことにある.意志性は多くの場合,イベントの述語によって同定できる.冒頭の「食べる」や「泣く」などがそうである.しかし,意志的(あるいは非意志的)な行為を表す述語を網羅したリストは存在しない.また,たとえそうした言語資源があったとしても,述語だけではなく,その文脈も考慮しなければ意志性を同定できない場合が存在する.例えば,例~\ref{ex:shawa-o-abiru}と例~\ref{ex:hinan-o-abiru}の述語はどちらも同じ「浴びる」であるが,前者は意志的,後者は非意志的である\footnote{意志的なイベントの例は「V(volitionalの略)」,非意志的なイベントの例は「NV(non-volitionalの略)」を付記して示す.}.\ex.\a.\label{ex:shawa-o-abiru}シャワーを浴びる.$_\text{{(V)}}$\b.\label{ex:hinan-o-abiru}非難を浴びる.$_\text{{(NV)}}$また,例~\ref{ex:iki-o-suru}は非意志的であるが,例~\ref{ex:fukaku-iki-o-suru}は「深く」という副詞を伴うことで意志的となる.\ex.\a.\label{ex:iki-o-suru}息をする.$_\text{{(NV)}}$\b.\label{ex:fukaku-iki-o-suru}深く息をする.$_\text{{(V)}}$文脈理解の問題は言語資源の整備によって解決するのは困難である.あらゆる文脈―述語の項,項への連体修飾,述語への修飾(副詞句)の組み合わせ―に対して意志性のラベルをアノテーションすることは非現実的だからである.この問題に対する有望な解決策は,イベントを構成する語句の意味とそれらの関係性を柔軟に捉えて意志性を認識する分類器を構築することである.そうした柔軟な分類器は深層学習モデルを訓練することで得られると期待されるが,その訓練には通常,大量のラベル付きデータが必要となる.主語有生性の認識についても,意志性の認識と同様の難しさがある.まず,言語資源の不足の問題がある.主語有生性は,たいていの場合,主語の名詞が通常有生名詞(animatenoun)か無生名詞(inanimatenoun)かによって同定できる.有生名詞・無生名詞はConceptNet\cite{10.5555/3298023.3298212}などの知識ベースから一定量のリストが得られるが,網羅的とは言い難い.また,主語有生性の認識においても文脈理解が必要となる場合がある.例えば,例~\ref{ex:shirobai-ga-tometearu}の主語「白バイ」は通常無生名詞であるが,例~\ref{ex:shirobai-ga-oikaketekuru}の主語「白バイ」は警察官の換喩であり,この文脈においては有生名詞である\footnote{主語が有生名詞であるイベントの例は「A(animateの略)」,主語が無生名詞であるイベントの例は「IA(inanimateの略)」を付記して示す.}.\ex.\a.\label{ex:shirobai-ga-tometearu}白バイが停まっている.$_\text{{(IA)}}$\b.\label{ex:shirobai-ga-oikaketekuru}白バイが追いかけてくる.$_\text{{(A)}}$こうした現象に対処するには,やはり柔軟な文脈理解が可能な分類器を構築するのが有望であり,その訓練には大量のラベル付きデータが必要となる.本研究では,イベントの意志性と主語有生性を同時学習する弱教師あり学習手法を提案する.提案手法の概要を図~\ref{fig:overview}に示す.提案手法ではまず,ヒューリスティクスを用いて生コーパス中のイベントにラベルを付与する.意志性のラベルは「わざと」などの意志的な行為を表す副詞(意志的副詞)と「うっかり」などの非意志的な行為を表す副詞(非意志的副詞)を手がかりに付与する.例えば,例~\ref{ex:aete-shijitsu-o-hanasu}は意志的副詞「あえて」が述語に係っているため,意志的であるとみなす.例~\ref{ex:ukkari-keitai-o-otosu}は,非意志的副詞「うっかり」が述語に係っているため,非意志的であるとみなす.\ex.\label{ex:aete-shijitsu-o-hanasu}あえて真実を話す.$_\text{(V)}$\ex.\label{ex:ukkari-keitai-o-otosu}うっかり携帯を落とす.$_\text{(NV)}$主語有生性のラベルは既存の言語資源に登録されている有生名詞・無生名詞を手がかりに付与する.生コーパスの量は際限なく増やすことが可能であるため,この方法で大量のラベル付きデータを低コストで収集することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{29-3ia3f1.pdf}\end{center}\hangcaption{提案手法の概要.生コーパス中のイベントにヒューリスティクスを用いて意志性・主語有生性のラベルを付与し,意志性・主語有生性それぞれのラベル付きデータセット($\mathcal{D}^l_\text{vol}$・$\mathcal{D}^l_\text{ani}$)とラベルなしデータセット($\mathcal{D}^u_\text{vol}$・$\mathcal{D}^u_\text{ani}$)を得る.その上で,意志性と主語有生性の分類を同時学習する.その際,手がかり語だけに着目した分類に陥ることを防ぐための正則化を導入する.}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%例~\ref{ex:aete-shijitsu-o-hanasu},例~\ref{ex:ukkari-keitai-o-otosu}が示唆するように,意志的副詞・非意志的副詞を除いたとしても,多くの場合,イベントの意志性は保持される.これは主語有生性に関しても同様である.しかし,そうでない場合もある.例えば,例~\ref{ex:wazato-kokeru}は意志的であるが,そこから「あえて」を除いた例~\ref{ex:kokeru}は非意志的である.\ex.\a.\label{ex:wazato-kokeru}あえてこける.$_\text{(V)}$\b.\label{ex:kokeru}こける.$_\text{(NV)}$このように,意志的副詞と共起するイベントが必ずしも意志的なイベントであるとは限らない.主語有生性に関してもこうした例が存在する.例えば,例~\ref{ex:shogekiga-hashiru}の主語である「衝撃」は無生名詞であるが,「衝撃」を除いた例~\ref{ex:hashiru}の主語は有生名詞として捉えるのが妥当である.\ex.\a.\label{ex:shogekiga-hashiru}衝撃が走る.$_\text{(IA)}$\b.\label{ex:hashiru}走る.$_\text{(A)}$手がかり語を常に含むラベル付きデータから,手がかり語を含まないラベルなしイベントに汎化する分類器を得るには,原則として手がかり語に頼らず,それと共起するテキストからラベルを予測することを学習しつつ,手がかり語を除くことでラベルが変化する例に関しては,手がかり語と共起するテキストからラベルを予測することを学習しないことが重要である.本研究では,分類器を学習する際にラベル付けの手がかり語だけに着目して分類することを抑制する正則化を導入することで前者の原則を学習しつつ,汎用言語モデル\cite{devlin-etal-2019-bert}が作り出すイベントの汎化ベクトル表現の上で分類器を構築することで,予測のために手がかり語に着目せざるを得ないケースがデータから学習されることを期待する.本研究は,手がかり語に着目した分類を抑制する問題をバイアス削減あるいは教師なしドメイン適応の問題と捉え,その手法を活用する.バイアス削減はデータセット中に存在する特定のバイアスが予測に濫用されることを防ぐ手法である\cite{NIPS2016_a486cd07,zhao-etal-2017-men,zhao-etal-2019-gender,kennedy-etal-2020-contextualizing}.本研究ではヘイトスピーチ認識器の学習において利用されているバイアス削減手法を転用する\cite{kennedy-etal-2020-contextualizing,Jin2020Towards}.ここで提案されているバイアス削減手法は,分類器が「gay」といったヘイトスピーチに特徴的な単語(バイアス)だけに着目した分類に陥ることを抑制し,文脈を考慮した分類を促すものである.本研究では,ラベル付けに用いる手がかり語をバイアスとみなして,単純なバイアス削減手法であるwordremoval(WR),より高度なバイアス削減手法で有効性が知られているsamplingandocclusion(SOC)の2つを利用する.教師なしドメイン適応は,ソースドメインのラベル付きデータとターゲットドメインのラベルなしデータを用いて,ターゲットドメインに汎化するモデルを構築する手法である.本研究の設定は,手がかり語を含むラベル付きデータをソースドメインのデータ,手がかり語を含まないラベルなしデータをターゲットドメインのデータとみなすことで,教師なしドメイン適応の問題として定式化できる.本研究では,深層学習モデルを利用したテキスト分類器の学習において有効性が確認されている教師なしドメイン適応手法adversarialdomainadaptation(ADA)を利用する\cite{JMLR:v17:15-239,pmlr-v37-ganin15,shah-etal-2018-adversarial,Shen_Qu_Zhang_Yu_2018}.ADAでは,ラベル付きデータのもとで分類を学習しつつ,敵対的学習の枠組みで,ラベル付きデータとラベルなしデータが判別できなくなるようにイベントのベクトル表現を学習する.この学習により,ラベル付きデータにだけ現れる手がかり語になるべく頼らない分類が学習されると期待される.提案手法の有効性を確認するため,日本語と英語で実験を行った.分類器の性能を評価するため,各言語についてクラウドソーシングで評価データを新たに構築した.実験を通して,提案手法により,人手でラベル付きデータを構築することなく,イベントの意志性・主語有生性の高精度な分類器を構築できることを示した\footnote{本研究で構築した評価データおよびモデルの実装は公開予定である.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 関連研究として,イベントの意志性分類,バイアス削減,教師なしドメイン適応について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{イベントの意志性分類}イベントの意志性分類に関する過去の研究は,視点となる名詞句が与えられる設定と与えられない設定に大別できる.視点となる名詞句が与えられる設定では,述語と名詞句が与えられ,その名詞句が表すエンティティが述語が表すイベントに意志的に関与しているか否かを予測する.この設定はsemanticproto-rolelabelingのサブタスクとして取り組まれている\cite{reisinger-etal-2015-semantic,white-etal-2016-universal,TeichertPoliakVanDurmeGormley2017}.視点となる名詞句が与えられない設定では,イベントが与えられ,その主語が表すエンティティがイベントに意志的に関与しているか否かを予測する\cite{abe-etal-2008-acquiring,abe-etal-2008-two,inui2003kinds}.本研究はこの設定に取り組む.\citeA{abe-etal-2008-acquiring}と\citeA{abe-etal-2008-two}は,意志的・非意志的な述語のリストを構築し,それを参照することでイベントの意志性を予測している.この手法は,構築する述語のリストの網羅性に性能が依存するほか,例~\ref{ex:shawa-o-abiru}と例~\ref{ex:hinan-o-abiru}にあるような,述語単独では意志性を同定できない場合に対応できない点に問題がある.\citeA{inui2003kinds}はデータ駆動の手法を取っている.ここでは,少量のラベル付きデータを構築し,手作りの言語特徴量の上でSVMを学習している.しかし,意志性は述語,項,副詞などの修飾要素から非構成的に定まる属性であり,少量の事例から頑健な分類器を学習することは困難である.本研究では,ヒューリスティクスを用いて大量のラベル付きデータを収集し,そのもとで強力な汎用言語言語モデル\cite{devlin-etal-2019-bert}に基づく分類器を構築することで,意志性の認識に関わる広範な言語現象と世界知識を学習する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{バイアス削減}バイアス削減はデータセット中に存在する特定のバイアスが予測において濫用されることを防ぐ手法である.バイアス削減は機械学習の公平性の分野で研究されている\cite{NIPS2016_a486cd07,zhao-etal-2017-men,zhao-etal-2019-gender,kennedy-etal-2020-contextualizing}.本研究では,バイアス削減の手法を転用し,手がかり語だけに反射的に反応して分類を行うのではなく,手がかり語の文脈を考慮して分類を行うモデルを学習する.具体的には,バイアス削減の手法として,\citeA{kennedy-etal-2020-contextualizing}が提案しているwordremovalとsamplingandocclusion\cite{Jin2020Towards}の2つを利用する.これらの手法は,頑健なヘイトスピーチ分類器の学習のために提案されたものであり,「gay」などのヘイトスピーチに特徴的な単語のみを手がかりに分類を行うことを抑制し,文脈を考慮した予測を促す目的で利用されている.手法の詳細は\ref{sec:training-with-regularization}節に譲る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{教師なしドメイン適応}教師なしドメイン適応は,ターゲットドメインのラベルなしデータのみを用いて行うドメイン適応である\cite{ramponi-plank-2020-neural}.本研究の問題は,手がかり語を含むラベル付きデータをソースドメインのデータ,手がかり語を含まないラベルなしデータをターゲットドメインのデータとみなすことで,教師なしドメイン適応の問題として定式化できる.教師なしドメイン適応の手法は多数提案されているが,タスク横断的な評価を欠いており,どの手法が優れているとも言えないのが現状である\cite{ramponi-plank-2020-neural}.本研究で扱う問題は,広くはテキスト分類に分類されるものである.そこで,本研究では,ニューラルモデルに適用可能でかつテキスト分類タスクで多くの成功を収めているadversarialdomainadaptation(ADA)を用いる\cite{JMLR:v17:15-239,pmlr-v37-ganin15,shah-etal-2018-adversarial,Shen_Qu_Zhang_Yu_2018}.ADAでは,ソースドメインのラベル付きデータでタスクを学習しつつ,ソースドメインとターゲットドメインのデータの区別がつかないような潜在空間を学習することを通して,ターゲットドメインにおけるモデルの汎化性能を向上させる.手法の詳細は\ref{sec:training-with-regularization}節に譲る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{問題設定} 本研究で扱うイベントの表現,スコープ,意志性・主語有生性のアノテーションについて述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{表現}イベントは1つの主たる述語を含むテキスト(節)として表す.イベントは\citeA{2018aSaito}の基準にならって認定する.\citeA{2018aSaito}は,イベントを述語句構造を基本とする情報構造として定義している.\citeA{2018aSaito}の基準では,述語であっても,意味の重要性や事象性が希薄なものはイベントとして認定されない.たとえば,例~\ref{ex:ookiku}の「大きく」は副詞的な形容詞であり,単独のイベントとして認定される代わりに,述語「表示する」が構成するイベントの一部とみなされる.\ex.\label{ex:ookiku}大きく表示する.例~\ref{ex:utsukushi}の「思う」は推量・伝聞のモダリティであり,単独のイベントとして認定される代わりに,述語「美しい」が構成するイベントの一部とみなされる.\ex.\label{ex:utsukushi}美しいと思う.また,\citeA{2018aSaito}の基準では,項が複合名詞である場合や連体修飾されている場合は,それらの句・節の全体が項として認定される.\citeA{2018aSaito}の基準でイベントを抽出した後,イベントを構成する語句を元のテキストにおける表示順で結合し,イベントのテキスト表現を得る.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{スコープ}\label{sec:scope}本研究では,単純な言語素性,具体的には述語の品詞と態(voice)によって意志性が同定できないイベントを扱う.述語の品詞が例~\ref{ex:sora-ga-kireida}のように形容詞あるいは例~\ref{ex:kare-wa-gakuseida}のように判定詞であるイベントは状態を表し,非意志的であることが明らかであるため,本研究では扱わない.\ex.\label{ex:sora-ga-kireida}空が綺麗だ.$_\text{{(NV)}}$\ex.\label{ex:kare-wa-gakuseida}彼は学生だ.$_\text{{(NV)}}$述語が例~\ref{ex:kare-ga-sensei-ni-shikarareru}のように受動態または例~\ref{ex:watashi-wa-hashireru}のように可能態であるときも,イベントは主語の観点から見て非意志的であることが明らかであるため,本研究では扱わない.\ex.\label{ex:kare-ga-sensei-ni-shikarareru}先生に叱られる.$_\text{{(NV)}}$\ex.\label{ex:watashi-wa-hashireru}私は走れる.$_\text{{(NV)}}$加えて,モダリティを伴うイベントも本研究では扱わない.モダリティは,イベントに対する筆者の意見や態度を表す言語表現である.例~\ref{ex:kare-wa-kuru-hazuda}は蓋然性を表すモダリティ「はずだ」を伴うイベントである.\ex.\label{ex:kare-wa-kuru-hazuda}彼は来るはずだ.本研究の主眼はイベントそのものの意志性を認識することにあるため,こうしたイベントも本研究では扱わない.本研究では,蓋然性を含むモダリティ10種を考慮し,それらを伴うイベントを除いた.モダリティのリストと例を付録の表~\ref{tab:modality}に示す.最後に,本研究では,主節に相当するイベントのみを採用し,従属節に相当するイベントは扱わない.例えば,以下の文からは「雨が強まったので」と「試合は中止になった」の2つのイベントが抽出されるが,前者(従属節)は除外し,後者(主節)のみを利用する.\ex.雨が強まったので,試合は中止になった.これは\ref{sec:evaluation-dataset}節で説明するクラウドソーシングによる評価データ構築の際,イベントが接続表現で終わっていること等を理由に不自然な言語表現であると判断されることを避けるためである\footnote{クラウドワーカに対して不自然な言語表現と判断する基準を教示し,従属節のイベントもアノテーションの対象とすることも考えられるが,意志性・主語有生性の判断という本質的な作業に注力させるため,本研究では主節のイベントのみを採用することにした.}.従属節のイベントの意志性を分類する際は,節末の言語表現を主節らしく適当に整形すれば良い.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{アノテーション}\label{sec:annotation}イベントには意志性と主語有生性の2つのラベルを付与する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{意志性}主語の表すエンティティがイベントに意志的に関与しているなら,「意志的(volitional)」のラベルを付与する.そうでないなら,「非意志的(non-volitional)」のラベルを付与する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{主語有生性}主語が表すエンティティに人間のような意志的な行為が可能であるなら,「有生名詞(animatenoun)」のラベルを付与する.そうでないなら,「無生名詞(inanimatenoun)」のラベルを付与する.主語有生性のラベルはそのイベントにおいて主語が有生名詞であるか無生名詞であるかを表すもので,名詞だけを取り出して,それが一般に有生名詞であるか有生名詞であるかを表すものではないことに注意されたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{提案手法} 本研究では,ある単独のイベント$x$を入力として,その意志性$y_\text{vol}$と主語有生性$y_\text{ani}$を予測する問題を考える.$y_\text{vol}$と$y_\text{ani}$はポジティブ(意志的/有生名詞)であるなら1,ネガティブ(非意志的/無生名詞)であるなら0である.提案手法ではまず,ヒューリスティクスを用いて生コーパスから収集したイベントに意志性と主語有生性のラベルを付与する.そうして得たデータの上で,意志性と主語有生性の分類を同時学習する.その際,分類器が手がかり語だけに着目した分類に陥ることを抑制する正則化を導入する.意志性と主語有生性の分類の損失および正則化のペナルティを合わせたものを目的関数とし,それを最小化するように分類器とエンコーダを最適化する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{訓練データセットの構築}\label{sec:constructing-a-training-dataset}生コーパス中のイベントに対し,ヒューリスティクスを用いて意志性・主語有生性のラベルを付与し,意志性のラベル付きデータセット$\mathcal{D}^l_\text{vol}$とラベルなしデータセット$\mathcal{D}^u_\text{vol}$,主語有生性のラベル付きデータセット$\mathcal{D}^l_\text{ani}$とラベルなしデータセット$\mathcal{D}^u_\text{ani}$の4種類のデータセットを得る.まず,\ref{sec:scope}~節にて説明した条件を満たすイベントを生コーパスから抽出する.ここでは,既存の構文解析器および品詞タグ付けモデルを利用する.抽出したイベントそれぞれについて,ヒューリスティクスを用いて意志性および主語有生性のラベルを付与する.ラベル付与の成否にしたがって,イベントを各データセットに振り分ける.意志性のラベルを付与するため,意志的副詞・非意志的副詞の小規模な辞書を用意する.辞書中の副詞がイベントの述語を修飾していれば対応するラベルをそのイベントに付与し,イベントを$\mathcal{D}^l_\text{vol}$に追加する.ラベルを付与できなかったイベントは$\mathcal{D}^u_\text{vol}$に追加する.主語有生性のラベルを付与するため,まず既存のオントロジーから得た有生名詞・無生名詞のリストを得る.意味役割解析器の出力を用いてイベントの主語の名詞句を同定し,主語の名詞句が見つかったら,有生名詞・無生名詞のリストを参照する.そこに主語の名詞句が含まれていたら,対応するラベルを付与した後,イベントを$\mathcal{D}^l_\text{ani}$に追加する.ラベルを付与できなかったイベントは$\mathcal{D}^u_\text{ani}$に追加する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデル}モデルは3つの要素から構成される.1つ目はエンコーダ$E$である.エンコーダはイベント$x$をベクトル表現に変換する.エンコーダは事前学習済みの汎用言語モデルBERT\cite{devlin-etal-2019-bert}で初期化する.2つ目は意志性分類器$C_\text{vol}$である.意志性分類器は,エンコーダが出力するイベントのベクトル表現を入力として,そのイベントが意志的である確率を予測する.3つ目は主語有生性分類器$C_\text{ani}$である.主語有生性分類器は,エンコーダが出力するイベントのベクトル表現を入力として,そのイベントの主語が有生名詞である確率を予測する.意志性分類器と主語有生性分類器のパラメータはランダムに初期化する.エンコーダと各分類器のパラメータは後述の目的関数を最小化するように最適化される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{正則化付き分類学習}\label{sec:training-with-regularization}モデルは意志性の分類と主語有生性の分類を同時学習する.その際,手がかり語だけに着目して分類することを抑制する正則化を導入する.意志性と主語有生性はどちらも統一的な方法で学習するため,意志性・主語有生性の区別を取り払い,ラベル付きデータセットを$\mathcal{D}^l$,ラベルなしデータセットを$\mathcal{D}^u$,ラベルを$y$,分類器を$C$とする表記を導入する.以降,上記の表記に関しては,意志性の学習では「vol」の下付き文字,主語有生性の学習では「ani」の下付き文字を伴うものとして読み替えるものとする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{分類(CLS;classification)}主たる目的関数はラベル付きデータセット$\mathcal{D}^l$の上で分類を学習するものである.形式的には以下のように書ける.\begin{equation}\label{eq:cls}\mathcal{L}_\text{CLS}=\mathbb{E}_{(x,y)\sim\mathcal{D}^l}\text{BCE}(y,C(E(x)))\end{equation}$\text{BCE}$はバイナリ交差エントロピーである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{正則化(REG;regularization)}手がかり語に頼らない分類を学習するための正則化として3つの手法を検討する.実験では開発データに対する性能をもとに最適な正則化手法を選択する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{WordRemoval(WR)}WRはバイアス削減の最も単純な手法である.WRは訓練データ中のテキストから特定の語句を削除することで,分類器がその語句に頼って予測を学習することを抑制する\cite{kennedy-etal-2020-contextualizing}.本研究ではラベル付けに利用した手がかり語に対してWRを適用し,手がかり語が予測において注目されることを抑制する.形式的には,以下の目的関数の最小化を解く.\begin{equation}\mathcal{L}_\text{WR}=\mathbb{E}_{(x,y,w)\sim\mathcal{D}^l}\text{BCE}(y,C(E(x\backslashw)))\end{equation}ここで$w$はイベント$x$中に含まれる手がかり語,$x\backslashw$は$x$から$x$を除いたテキストである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{SamplingandOcclusion(SOC)}SOC\cite{kennedy-etal-2020-contextualizing}はバイアス削減の手法であり,ある語句の予測における寄与度を計算し,それを最小化することで,その単語が予測において注目されることを抑制する.SOCではまず,予測における寄与度を計算する語句の周りの文脈を学習済み言語モデルを用いてサンプリングする.そして,サンプリングした各文脈においてその語句をマスクトークンに置き換えたときと置き換えないときとの予測の差を計算し,その平均をその語句の予測における寄与度とする.SOCによって計算される寄与度は微分可能であるため,通常の勾配法によって,特定の語句が予測において注目されることを抑制できる.本研究ではラベル付けに利用した手がかり語に対してSOCを適用する.形式的には以下の目的関数の最小化を解く.\begin{align}\mathcal{L}_\text{SOC}&=\mathbb{E}_{(x,w)\sim\mathcal{D}^l}[\phi(x,w)]^2\\\phi(x,w)&=\frac{1}{|\mathcal{S}|}\sum_{x'\in\mathcal{S}}[C(E(x'))-C(E(x'\backslashw))]^2\end{align}ここで$w$はイベント$x$中に含まれる手がかり語,$\mathcal{S}$は$x$を初期値として事前学習済みの言語モデルを用いて$w$の文脈の単語をサンプリングして得たイベントの集合,$x'\backslashw$は$x'$に現れる$w$をpaddingトークンで置き換えたテキストである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\paragraph{AdversarialDomainAdaptation(ADA)}ADAは教師なしドメイン適応の一手法である.本研究では,ラベル付きデータ$\mathcal{D}^l$をソースドメインのデータ,ラベルなしデータ$\mathcal{D}^u$をターゲットドメインのデータとみなしてADAを適用する.学習時にはdiscriminatorと呼ばれるニューラルネットワーク$D$を追加で学習する.discriminatorはエンコーダが出力するイベントのベクトル表現を入力として,それがソースドメイン由来であるなら1,ターゲットドメイン由来であるなら0を出力するように学習する.エンコーダはdiscriminatorがその分類に失敗するように,すなわちエンコーダがソースドメイン由来の特徴に対して0,ターゲットドメイン由来の特徴に対して1を出力するように学習する.形式的には以下の目的関数の最小化を解く.\[\mathcal{L}_\text{ADA}=\mathbb{E}_{x\sim\mathcal{D}^l}\text{BCE}(0,D(E(x))+\mathbb{E}_{x\sim\mathcal{D}^u}\text{BCE}(1,D(E(x)))\]discriminatorはこの目的関数の最大化を学習する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{一貫性(CON;consistency)}手がかり語だけに着目した分類を抑制する正則化に加えて,意志性分類と主語有生性分類の一貫性を学習することを考える.主語が有生名詞であることはイベントが意志的であることの必要条件である.したがって,主語が無生名詞であるという予測とイベントが意志的であるという予測は両立しない.この関係を以下の目的関数を最小化することで学習する.\begin{equation}\mathcal{L}_\text{CON}=\mathbb{E}_{x\sim\mathcal{D}^u_\text{vol}+\mathcal{D}^u_\text{ani}}\max(0,C_\text{vol}(E(x))-C_\text{ani}(E(x)))\end{equation}実験では,意志性・主語有生性の一方の分類と一貫性の学習だけで他方の分類を解く設定も検証する.このとき,一貫性の学習は分類を学習している側の性能に影響しないことに注意されたい.一方の分類が学習されていない状況では,分類を学習している側が一貫性を学習することで得られる情報はないからである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{目的関数}上記の目的関数を重み付きで足し合わせ,最終的な目的関数を得る.\begin{equation}\mathcal{L}=\mathcal{L}_\text{CLS}+\alpha\mathcal{L}_\text{REG}+\beta\mathcal{L}_\text{CON}\end{equation}$\alpha$と$\beta$はハイパーパラメータとして設定される正則化の重み,$\mathcal{L}_\text{REG}$は$\mathcal{L}_\text{WR}$,$\mathcal{L}_\text{SOC}$,$\mathcal{L}_\text{ADA}$のいずれかである\footnote{これらの正則化手法を組み合わせることは技術的には可能であるが,計算資源の制約から,これらの組み合わせについては検証しない.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} 提案手法の有効性を確認するため,日本語と英語で実験を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{訓練データセット}\ref{sec:constructing-a-training-dataset}節に記載の手続きにしたがって訓練データセットを構築した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{日本語}生コーパスとしてCC-100\cite{conneau-etal-2020-unsupervised,wenzek-etal-2020-ccnet}中の3千万文書を利用した.イベントの抽出には構文解析器KNP\cite{kawahara-kurohashi-2006-fully}を用いた.イベント抽出では,まず極端に出現頻度の低い$D^l_\text{vol}$のイベントを生コーパス全体から取り出した\footnote{\label{footnote:rare}意志的副詞・非意志的副詞を伴うイベントは日英ともに約5,000件に1件の割合で得られた.意志的副詞・非意志的副詞のリストは付録~\ref{sec:full-list}を参照されたい.}.この際,副詞の文字列を含まない文を構文解析の対象から除外し,計算コストを削減した.その後,$D^u_\text{vol}$,$D^l_\text{ani}$,$D^u_\text{ani}$のイベントを$D^l_\text{vol}$と同じ件数だけ生コーパスのサンプルから取り出した.イベントの頻度の情報を保存するため,重複するイベントが得られても削除しなかった.意志性のラベル付与のため,意志的副詞・非意志的副詞をそれぞれ15件ずつ整備した.表~\ref{tab:frequent-volitionality-indicating-words}に頻度上位5件の副詞,付録~\ref{sec:full-list}にすべての副詞を示す.主語有生性のラベルを付与するため,JumanDic\footnote{\url{https://github.com/ku-nlp/JumanDIC}}を知識源として用いた\footnote{実装としては,KNPが付与する「SM-主体」の素性を利用した.これはJumanDicのカテゴリ情報にもとづき付与される素性である.}.JumanDicに登録されている語にはカテゴリ情報が付与されており,カテゴリが人または組織・団体のものを有生名詞,それ以外を無生名詞とした.JumanDicに登録されている語の数はおよそ3万であった.主語はKNPの格解析によって同定した.具体的には,ガ2格の句があればそれを,ガ2格の句がなくガ格の句があればそれを主語として認定し,どちらもなければ主語有生性のラベルを付与しなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{03table01.tex}\caption{意志的副詞・非意志的副詞それぞれの高頻度5件.括弧内は頻度.}\label{tab:frequent-volitionality-indicating-words}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{英語}生コーパスとしてCC-100に収録されている3千万文書を利用した.イベントの抽出にはspacy\footnote{\url{https://spacy.io}}を用い,日本語と同様の手続きで$D^l_\text{vol}$,$D^u_\text{vol}$,$D^l_\text{ani}$,$D^u_\text{ani}$のイベントを抽出した.意志性のラベルを付与するため,意志的副詞・非意志的副詞をそれぞれ10件ずつ整備した.表~\ref{tab:frequent-volitionality-indicating-words}に頻度上位5件の副詞,付録~\ref{sec:full-list}にすべての副詞を示す.主語有生性のラベルを付与するため,ConceptNet\cite{10.5555/3298023.3298212}から有生名詞・無生名詞のリストを得た.具体的には,有生名詞として「person」と「organization」の下位語,無生名詞として「object」,「item」,「thing」,「artifact」,「location」の下位語を用いた.結果として,2,604件の有生名詞,430件の無生名詞が得られた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{評価データセット}\label{sec:evaluation-dataset}$\mathcal{D}^l_\text{vol}$,$\mathcal{D}^u_\text{vol}$,$\mathcal{D}^l_\text{ani}$,$\mathcal{D}^u_\text{ani}$における分類器の性能を調べるため,それぞれについて評価用に人手で正解ラベルを付与した.なお,本研究の主眼である意志性分類に関しては,手がかり語の副詞を伴うイベントは出現する割合が低く,実テキストにおける性能は$\mathcal{D}^u_\text{vol}$に対する性能で近似できることに注意されたい.まず,各データセットから1,200件ずつユニークなイベントを抽出した.それらにクラウドソーシングで正解ラベルを付与した.意志性に関して,クラウドワーカーは各イベントに対して以下のラベルの中から1つを選んで付与した.\begin{itemize}\item主語がイベントに意志的に関与している.\item主語がイベントに意志的に関与していない.\itemどちらとも言えない.\item理解不能.\end{itemize}主語有生性に関して,クラウドワーカーは各イベントに対して以下のラベルの中から1つを選んで付与した.主語有生性のラベルは,\ref{sec:annotation}節で説明した通り,そのイベントにおいて主語が有生名詞であるか無生名詞であるかを表すものであり,主語だけを取り出してそれが一般に有生名詞であるか無生名詞であるかを表すものではないことに注意されたい.\begin{itemize}\item主語が人または組織を表す.\item主語が人も組織を表さない.\itemどちらとも言えない.\item理解不能.\end{itemize}各イベントに5人のワーカを割り当て,ラベル付けさせた.クラウドワーカーは一度の作業で10件のイベントにラベルを付与した.日本語のクラウドソーシングプラットフォームとして,Yahoo!クラウドソーシング\footnote{\url{https://crowdsourcing.yahoo.co.jp/}}を利用した.品質管理のため,Yahoo!クラウドソーシングのチェック設問機能を利用した.この機能を用いて,事前にわれわれが正解を用意している簡単な設問(チェック設問)を1問追加した.チェック設問に誤答したワーカは不適格として,報酬を支払わず,回答も破棄した.かかった費用は24,000円であった.英語のクラウドソーシングプラットフォームとして,AmazonMechanicalTurk(MTurk)を利用した.品質管理のため,一般に取られている慣行\cite{Berinsky2012EvaluatingOL}にならった.具体的には,ワーカをタスクの合格率が95\%以上,アメリカ在住,1,000タスク以上を完了している者に限定した.かかった費用は288USDであった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{03table02.tex}\hangcaption{各データセットにおけるアノテータ間の一致率(左)とFleiss'kappa(右).一致率は各イベントに関して最大の得票数を得た解答の割合の平均である.}\label{tab:eval-dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{03table03.tex}\caption{各ラベルごとの最大得票数を得たイベントの件数.}\label{tab:eval-dataset-detail}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表~\ref{tab:eval-dataset}にアノテータ間の一致率およびFleiss'kappa,表~\ref{tab:eval-dataset-detail}に各ラベルごとの最大得票数を得たイベントの件数を示す.日本語に関しては妥当な相関を確認できたが,英語に関してはわずかな相関しか確認できなかった.アノテーションの平均的な一致率が高かった日本語のイベントに関して,アノテータ間で票が割れたものの一部を示す.\ex.また、持久走も行いました。$_\text{{(V)}}$(V:3名,NV:2名)\ex.その他なにかあれば追記で書いていきます。$_\text{{(V)}}$(V:3名,NV:2名)\ex.ちょっと緊張してしまう。$_\text{{(NV)}}$(V:2名,NV:3名)\ex.実は、驚くほど様々な効果・効能があります。$_\text{{(NV)}}$(V:2名,NV:3名)票の割れたイベントの多くは判断に困る例とは考えにくく,票が割れた原因は不真面目なクラウドワーカーがラベル付けを担当したことにあると考えるのが妥当であった.英語ではこの傾向がさらに顕著であった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{03table04.tex}\hangcaption{データセットの統計.+がついているものは,最も件数が少なかった$\mathcal{D}^l_\text{vol}$のイベント数に合わせて,同量のイベントを抽出したことを表す.}\label{tab:dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%この観察から,信頼できるクラウドワーカーによってラベル付けが行われたことが期待される,アノテータ間の一致率が80\%以上(5名中4名の回答が一致)のイベントを抽出し,評価データとして利用した.この条件のもとで採用されるイベントと除かれるイベントの間に定性的な違いは確認できず,この条件で除かれたイベントに対しても,本研究で構築した評価データにおける性能と同等程度の性能で分類が可能と期待する.評価データのうち,半分は開発データ,残りの半分はテストデータとした.分割はラベルごとにランダムに行った.表~\ref{tab:dataset}にデータセットの統計を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実装の詳細}\label{sec:implementation-detail}エンコーダにはBERT$_\text{BASE}$\cite{devlin-etal-2019-bert}を用いた.\pagebreak日本語の実験ではNICTが提供している事前学習済みモデル\footnote{\url{https://alaginrc.nict.go.jp/nict-bert/index.html}}を用いた.英語の実験ではオリジナルのBERT$_\text{BASE}$のcasedモデルを用いた.BERTの事前学習時の入力形式にならい,イベントのトークン列の先頭に\textsc{Cls}トークン,末尾に\textsc{Sep}トークンを追加して入力テキストを構成した.\textsc{Cls}トークンの最終層のベクトル表現をイベントのベクトル表現として利用した.意志性・主語有生性の分類器はReLU関数を非線層とする3層パーセプトロンとした.分類器の出力はシグモイド関数を用いて0から1の範囲の実数値に変換した.SOCにおけるサンプル数$|\mathcal{S}|$は3とした.文脈のサンプリングは,エンコーダに用いたBERTを使ってギブスサンプリングを行うことで実現した\cite{wang-cho-2019-bert}.ADAではdiscriminatorをReLU関数を非線層とする3層パーセプトロンとして構成・学習した.$\alpha$と$\beta$の値は\{0.0,0.01,0.1,1.0\}の中から選択した.モデルはバッチサイズを256として3エポック学習した\footnote{エポックには小規模の予備実験の結果をもとに十分大きな値を設定した.}.モデルのパラメータはAdam\cite{kingma2014adam}で最適化した.学習率は$3\mathrm{e}-5$とし\footnote{$\mathcal{D}^l_\text{vol}$を正則化なし・主語有生性の同時学習なしで学習する設定において,\{$5\mathrm{e}-5$,$3\mathrm{e}-5$,$2\mathrm{e}-5$\}の範囲を探索し,分類精度に影響しないことを確認した.ハイパパラメータの探索範囲を減らすため,本実験では学習率は$3\mathrm{e}-5$で固定とした.},10\%の学習が完了した時点で学習率がピークになるように線形のスケジューリングを行った.モデル選択では,100ステップごとに$\mathcal{D}^u_\text{vol}$の開発データにおける精度を計算し,最高スコアを達成した時点のパラメータを採用した.$D^u_\text{vol}$の性能に基づいてモデル選択を行うのは,意志的・非意志的行為を表す副詞を伴うイベントの出現頻度が低く,実テキストにおける意志性分類の性能が$D^u_\text{vol}$に対する性能で近似できるからである.評価指標にはAUCを用いた.モデルは異なるランダムシードで3回学習し,その平均・分散を計算した.モデルの実装にはPyTorchを用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{03table05.tex}\hangcaption{日本語における意志性・主語有生性分類の結果.評価指標はAUCである.数値は異なるランダムシードを用いて3回実験を行った際の平均と分散である.太字のスコアはすべてのモデルのうち最も平均スコアが高いことを表す.正則化(REG)には開発データに対する性能をもとに選択された手法を併記している.ハイフン(-)はその分類をラベル付きデータを用いて学習していないことを示す.}\label{tab:experiment-result-long-ja}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}表~\ref{tab:experiment-result-long-ja}に日本語における実験結果を示す.主たる関心である$\mathcal{D}^u_\text{vol}$を含む,全てのデータセットで正則化と同時学習を併せて利用したモデルが最高精度を達成した.$\mathcal{D}^u_\text{vol}$に対する最高精度は,意志性をCLS+REG(SOC),主語有生性をCLS+REG(WR)で学習したモデルが達成した(AUC:96.7,正解率:92.2,精度:94.9,再現率:90.8,F値:92.8).これはベースラインである意志性をCLSで学習したモデルの精度(AUC:89.5,正解率:83.5,精度:91.0,再現率:78.2,F値:84.1)を大きく上回っている.主語有生性をWRで学習するのが有効なことには主語の省略が関係していると考える.主語有生性のラベルを付与する際,主語の同定を格解析によって行ったため,主語が省略されているイベントには主語有生性のラベルが付与されず,それらはラベルなしデータセット$\mathcal{D}^u_\text{ani}$に追加された.WRによって主語をテキストから除外した上でその有生性を予測することを学習したことで,主語が省略されているイベントに汎化する推論が学習され,それが精度の向上に繋がったのだと考える.一貫性の学習は有効に機能しなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{03table06.tex}\hangcaption{英語における意志性・主語有生性分類の結果.評価指標はAUCである.数値は異なるランダムシードを用いて3回実験を行った際の平均と分散である.太字のスコアはすべてのモデルのうち最も平均スコアが高いことを表す.正則化(REG)には開発データに対する性能をもとに選択された手法を併記している.ハイフン(-)はその分類をラベル付きデータを用いて学習していないことを示す.}\label{tab:experiment-result-long-en}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表~\ref{tab:experiment-result-long-en}に英語における実験結果を示す.英語においても全てのデータセットで正則化と同時学習を併せて利用したモデルが最高精度を達成した.主たる関心である$\mathcal{D}^u_\text{vol}$に対する最高精度は,意志性をCLS+REG(SOC),主語有生性をCLSで学習し,加えて一貫性を学習したモデルが達成した(AUC:75.8,正解率:74.3,精度:66.1再現率:65.1,F値:65.6).これはベースラインである意志性をCLSで学習したモデルの精度(AUC:66.2,正解率:69.5,精度:65.8,再現率:39.7,F値:49.5)を大きく上回っている.日本語のスコアと比較して,英語のスコアは全体的に低い傾向が見て取れた.この主たる原因は評価データセットの品質にあった.\ref{sec:evaluation-dataset}節で述べたように,英語の評価データのラベル付けにあたったクラウドワーカーには不真面目な者が多かった.英語の評価データの中にそうしたクラウドワーカーの票が偶然誤ったラベルに集まったことで採用されたと考えられるイベントが一定数含まれており,それによって分類器の性能が過小評価されていた.日本語に関しては,そうした例はほとんど見られなかった.日本語のラベル付けを行ったクラウドワーカーには不真面目な者が少なく,複数の不真面目なクラウドワーカーが特定のイベントのラベル付けに割り当てられかつ誤ったラベルに票が集まるケースが少なかったからだと考えられる.高品質な英語データセットの構築は今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{分析} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{定性分析}提案手法で学習したモデルが\ref{sec:introduction}節で言及した文脈依存性を捉えられるか定性的に分析した.分析には$\mathcal{D}^u_\text{vol}$において最高精度を達成したモデルを用いた.ランダムシードを変えて学習したモデルが3つ存在するが,$\mathcal{D}^u_\text{vol}$の開発データでの性能に関して2番目のモデルを用いた.日本語に関して,$\mathcal{D}^u_\text{vol}$における最良のモデルは意志性をCLS+REG(SOC),主語有生性をCLS+REG(WR)で学習したものであったため,これを分析に用いた.まず,例~\ref{ex:shawa-o-abiru}と例\ref{ex:hinan-o-abiru}を用いてモデルが述語の項の違いを認識して意志性を分類できるか調べ,これらが正しく分類できることを確認した.次に,例\ref{ex:iki-o-suru}と例\ref{ex:fukaku-iki-o-suru}を用いてモデルが副詞の意味を捉えて意志性を分類できるか調べ,こちらについても正しく分類できることを確認した.最後に,例\ref{ex:shirobai-ga-tometearu}と例\ref{ex:shirobai-ga-oikaketekuru}を用いて主語有生性を文脈を考慮して予測できるか調べ,こちらについてもやはり正しく分類できることを確認した.分析に用いた例のように,イベントの一部が共通で,残りの部分の違いによって意志性・主語有生性が変化する例を集めたベンチマークを構築すれば,こうした文脈理解がどの程度可能なのか定量的に調べることができる.これは今後の課題としたい.一方で,モデルが意志性の認識に失敗する例もあった.最も顕著だったのは述語が「いる」のイベントであった.「いる」は状態動詞であり,基本的に状態を表すが,主語が有生名詞である場合には意志的な動作を表すことがある.この認識誤りはイベントの主語が省略されている場合に特に顕著であり,省略された主語の有生性を予測する難しさが「いる」の意味理解をさらに難しくしていると推測される.この問題に対する解決策として,学習時に前後のイベント,すなわちより広い文脈を考慮することが考えられる.イベントの意味が異なれば,その前後に現れるイベントの分布も異なることが期待できる.そうした分布の異なりを学習に利用することで,表層的に類似しているイベント同士の意味の異なりをより精緻に捉えられるモデルが構築できると期待できる.英語に関して,$\mathcal{D}^u_\text{vol}$における最良のモデルは意志性をCLS+REG(SOC),主語有生性をCLSで学習し,加えて予測の一貫性を考慮したものであり,これを用いて定性分析を行った.結果,英語についても,モデルが文脈を考慮した分類を行えていることを確認した.たとえば,以下の例は述語はどちらも同じ「made」であるが,項の違いを認識して,前者を意志的,後者を非意志的と正しく分類できた.\ex.\a.%%%%\label{ex:i-tumbled}Imadepancakes.$_\text{{(V)}}$\b.%%%%\label{ex:i-tumbled-for-his-honor}Imadeamistake.$_\text{{(NV)}}$以下の例もまた「forhim」という副詞句の有無によるイベントの意味の違いを認識し,前者を非意志的,後者を意志的と正しく分類できた.\ex.\a.%%%%\label{ex:i-tumbled}Itumbled.$_\text{{(NV)}}$\b.%%%%\label{ex:i-tumbled-for-his-honor}Itumbledforhim.$_\text{{(V)}}$%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{意志性のラベル付けに用いる副詞の種類の数が性能に与える影響}提案手法は,生コーパス中のイベントに意志性のラベルを付与するために意志的副詞・非意志的副詞を人手で準備する必要がある.分析として,日本語のデータセットを用いて,副詞の種類の数が主たる関心である$\mathcal{D}^u_\text{vol}$の分類精度に与える影響を調査した.具体的には,意志的・非意志的な行為を表す副詞をそれぞれ頻度順に並べたときの上位1件,2件,4件,8件,15件を用いる場合の精度を比較した.副詞の種類数が増えると同じ大きさの生コーパスから得られるラベル付きデータの数も増えるが,ここでは副詞の種類数が性能に与える影響を調べるため,頻度上位1件の副詞を用いたときに得られるラベル付きデータの件数23,408件(「あえて」にマッチしたイベント5,293件と「思わず」にマッチしたイベント18,115件の合計)に合わせてサンプリングした.モデルとして,意志性のラベル付きデータのみを正則化なしで学習する素朴な設定(ベースライン)と,$\mathcal{D}^u_\text{vol}$における最高精度を達成した,意志性をCLS+REG(SOC),主語有生性をCLS+REG(WR)で学習する設定(提案手法)の2つを用いた.学習時の設定は\ref{sec:implementation-detail}節に記載のものと同じである.表~\ref{tab:experiment-result-seed-diff}に結果を示す.両方のモデルにおいて,ラベル付けに利用する副詞の種類を増やすことで$\mathcal{D}^u_\text{vol}$の性能が向上することが見て取れた.これは,副詞の種類を増やすことでラベル付きデータの多様性が増し,多くのイベントに汎化する推論が学習できたからだと考えられる.また,驚くべきことに,提案手法は選定した副詞の中で最も高頻度であった「あえて」と「思わず」だけをラベル付与に用いた設定でも87.4ポイントのAUCという高い分類精度を達成した.これは,「あえて」と「思わず」が多様な文脈で現れる副詞であり,これらの副詞を含むイベントからだけでも,意志性分類がかなり学習できることを示唆している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{03table07.tex}\hangcaption{日本語の$\mathcal{D}^u_\text{vol}$のテストデータにおける意志性のラベル付けに用いる副詞の種類数による分類性能の変化.評価指標はAUCであり,異なるランダムシードを用いて3回実行した際の平均と分散を記載している.最も右の結果は,表~\ref{tab:experiment-result-long-ja}からの再掲であり,頻度上位1件の副詞を用いたときに得られるラベル付きデータの件数に合わせてサンプリングを行わず,表~\ref{tab:dataset}に記載の数のデータを用いたときの結果である.}\label{tab:experiment-result-seed-diff}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ヒューリスティクスの精度}\label{sec:quality-analysis}ラベル付きデータにはヒューリスティクスを用いてラベルを付与しているため,誤ったラベルが付与されるケースもある.しかし,あまりにラベル付けが誤っていると,そこから期待する分類結果が得られるような分類器を学習することは困難である.本研究で構築したデータセットのもとでかなりの精度の分類器を学習できたという事実を踏まえ,他言語や別ドメインのデータに提案手法を適用する際の参考になるように,ラベル付きデータの品質を調べた.$\mathcal{D}^l_\text{vol}$と$\mathcal{D}^l_\text{ani}$からポジティブ・ネガティブのイベントをそれぞれ100件ずつ抽出し,それらに正しいラベルが付与されているかどうか,著者1名が人手で確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{03table08.tex}\caption{正しいラベルが付与されていたイベントの割合.}\label{tab:labeled-data-quality}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表~\ref{tab:labeled-data-quality}に結果を示す.ほとんどのイベントに正しいラベルが付与されていることが確認できた.日本語の$\mathcal{D}^l_\text{ani}$のネガティブ(無生名詞)のイベントは比較的ラベル付けの精度が悪かった.これは主に主語の認識に失敗に起因するものであった.また,英語の$\mathcal{D}^l_\text{ani}$のネガティブ(無生名詞)のイベントも比較的ラベル付けの精度が悪かった.これは,「location」の下位語を無生名詞として利用していたが,国名など一部の名詞は組織や集団を表す有生名詞としての用法もあることに起因していた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では,意志性分類と主語有生性の密接な関係に注目し,\pagebreakヒューリスティクスを利用して自動構築した訓練データのもとでこれらの正則化付き同時学習を行う,弱教師あり学習手法を提案した.日本語・英語の実験を通して,提案手法によりラベル付きデータを人手で構築することなく高精度の分類器を学習できることを確認した.本研究では単独のイベントを入力としてそれが意志的であるかどうか分類する設定を考えたが,文や段落,文章などイベントより大きな言語単位を入力とし,入力テキスト中の各イベントの意志性を分類する設定では,イベントの前後の文脈を考慮しなければならないケースがある.例えば,例~\ref{ex:kare-wa-kore-ijo}の下線部のイベントは,前の文脈を考慮しないなら非意志的とみなすのが自然であるが,前の文脈を考慮すれば意志的とみなすのが自然である.\ex.\label{ex:kare-wa-kore-ijo}私は彼女を庇って\underline{非難を受けた.}$_\text{{(V)}}$このようなケースに対応できないことは本研究の限界であり,より広い文脈を考慮した意志性分類は今後の課題である.意志性はイベントの基本的な属性であり,その応用は広い.しかし,意志性に着目した研究はほとんど存在しない.これは,容易に利用可能な意志性分類器も意志性分類器を低コストで構築する手法もなく,意志性に基づく処理をするにはそれなりのコストをかけて意志性分類器を構築することから始める必要があったからである.その意味で,本研究は意志性に着目した研究を促進する可能性を持っている.今後は,本研究で構築した意志性分類器をテキストマイニング等の諸タスクで活用することに取り組み,そこで得られた観察をもとに手法のさらなる改善に取り組みたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究の一部はTheThirty-SixthAAAIConferenceonArtificialIntelligence(AAAI2022)で発表したものである\cite{Kiyomaru_Kurohashi_2022}.本研究はヤフー株式会社の支援を受けた.ここに感謝の意を表する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{03refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{モダリティのリスト} 本研究ではモダリティを伴うイベントは対象としなかった.表~\ref{tab:modality}に本研究で扱ったモダリティのリストとその例を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[b]\input{03table09.tex}\caption{モダリティのリストとその例.}\label{tab:modality}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{意志的副詞・非意志的副詞のリスト} \label{sec:full-list}意志性のラベル付与のために準備した意志的副詞・非意志的副詞のリストは以下の通りである.括弧内の数字は頻度を表す.\paragraph{日本語の意志的副詞}あえて(5,293),急いで(4,187),じっくり(4,017),慎重に(3,743),のんびり(3,262),わざわざ(3,222),さっさと(1,945),集中して(1,194),意図的に(920),わざと(880),意識的に(786),念入りに(766),気楽に(591),ちゃっかり(510),注意深く(496).\paragraph{日本語の非意志的副詞}思わず(18,115),つい(15,897),自動的に(14,212),ふと(12,050),ついつい(10,054),自動で(5,058),気づいたら(1,414),うっかり(1,333),幸いにも(950),幸運にも(571),思いがけず(546),あいにく(422),幸運なことに(285),不運にも(63),不運なことに(32).\paragraph{英語の意志的副詞}carefully(13,594),thoroughly(12,468),actively(10,379),deliberately(3,366),intentionally(2,713),consciously(1,846),purposely(1,391),hurriedly(942),attentively(839),proactively(388).\paragraph{英語の非意志的副詞}unfortunately(13,070),automatically(12,824),accidentally(5,272),unexpectedly(3,106),luckily(1,894),instinctively(1,321),unconsciously(1,059),inadvertently(999),unintentionally(635),carelessly(384).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{清丸寛一}{%2022年京都大学大学院情報学研究科博士課程修了.博士(情報学).同年より京都大学大学院情報学研究科特定研究員.自然言語処理の研究に従事.言語処理学会,ACL,各会員.}\bioauthor{黒橋禎夫}{%1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.言語処理学会10周年記念論文賞,同20周年記念論文賞,第8回船井情報科学振興賞,2009IBMFacultyAward等を受賞.2014年より日本学術会議連携会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V03N04-04
\section{はじめに} \label{sec:はじめに}照応や省略の問題は,言語学および言語工学の問題として広く研究されている.特に,日本語では,主語が省略される場合が多く,一方,英語では主語が必須であるため,日英機械翻訳において,省略された主語(ゼロ主語)の照応先を同定し,補完することが問題となる.主語を補完せず,受動文に翻訳することも考えられるが,受動文よりは能動文のままの方が望ましい.また,日英機械翻訳の別の問題として,文が長すぎるという問題がある.長い文は,翻訳に失敗することが多く,人手による前処理でも,長文の分割は大きな部分を占めている.この問題に対処する手段として,長文を複数の短文に自動的に分割する自動短文分割がある.しかし,分割された短文には,主語が含まれないことが多く,ここでもゼロ主語の補完の問題が発生する.このような背景の下で,筆者らは,自動短文分割を利用した放送ニュース文の日英機械翻訳システムの中で,ゼロ主語の補完の問題を研究している.その基本的な考え方は確率モデルを用いるものである.ここで述べるゼロ主語の補完の問題は,従来から行われてきた,ゼロ主語の補完の問題とは,完全には一致していない.つまり,従来手法は,初めから異なる文の間で発生するゼロ主語を取り扱っており,ここでの問題は,短文分割によって人工的に生ずるゼロ主語を扱うものである\footnote{例えば,従来手法は,「太郎は食べようとした」「しかし食べられなかった」のように2文からなる表現に対して,後方の文のゼロ主語を考察するものが多い.しかし,ここでは,「太郎は食べようとしたが,食べられなかった」のように元は1文から成る文を2文に自動的に分割した後の表現を扱うので,従来手法の考察範囲とはずれがある.そこで,本稿の手法が従来の問題にそのまま適用できることはない.}.しかし,共通する部分も多いので,まず従来手法に検討を加える.ゼロ主語の補完に対する従来のアプローチは大きく3種類に分類できる.第1の方法は,「焦点」,「Centering」など,言語学における談話理論から得られる知見を利用するものである\cite{Yoshimoto88,Nakagawa92,Nomoto93,Walker94,Takada95,清水95}.この方法は,理論的な基礎づけがあるものの,比較的単純な文が対象であり,放送ニュース文のような複雑な文に適用した例は見あたらない.ニュース文に対するゼロ主語の補完には,従来の談話理論から得られる情報だけでなく,意味的なものなどさまざまな情報を広く考慮する必要がある.第2の方法は,待遇表現など主として文末に現われる情報を利用するものである\cite{Yoshimoto88,堂坂89,鈴木92}.しかし,本方法は対話文には有効であるものの,ニュース文には不適当である.第3の方法は,ゼロ主語のまわりの文脈から得られた各種情報をヒューリスティック規則にまとめるものである\cite{Carbonell88,村田95}.この方法は,確率モデルによる方法と同様,様々な情報が利用できる利点があるが,ヒューリスティック規則の作成や規則適用の優先度の付与を人手で行っており,恣意性がある.これらの従来手法に対して,確率モデルによる方法は,以下のような特徴を持つ.\begin{itemize}\itemゼロ主語の補完に有効な様々な情報を統一的に取り扱うことができる.\itemいったん学習データを作成した後は,自動的にモデルが構築できるので客観的であり,恣意性がない.\item確率モデルは言語工学のみでなく,多くの分野で利用されており,そこで得られた理論的知見や適用事例が利用できる.\end{itemize}確率モデルを用いたゼロ主語補完の方法としては,従来,多次元正規分布が用いられていた\cite{金94}.本稿では,これをいくつかの分布に拡張する.そして,それらの分布を用いたモデルについて,主語補完の精度を評価するとともに,誤った事例について考察を加え今後の課題を明らかにする.以下,\ref{sec:主語補完の方法}章では,主語補完の基本的な手順の説明を行う.\ref{sec:確率モデル}章では,本稿で考察する4種の確率モデルについて述べる.\ref{sec:補完実験}章では,ゼロ主語の補完実験の方法と結果について述べ,誤事例について考察する. \section{主語補完の方法} \label{sec:主語補完の方法}\subsection{基本的考え方}\label{subsec:基本的考え方}言語を用いた人と人とのコミュニケーションにおいては,「言わなくとも分かること」は言わないのが普通であり,ゼロ主語の場合もこれに相当する.このような言われなかったことが実際に何を表すかは,広い意味での文脈から推定される.人間の場合は,生まれて以来修得した,あるいは生まれる前から持っている各種の知識が文脈として利用できるが,現在の計算機では,このようなことは不可能である.そこで,計算機で取り扱えるより狭い文脈を利用せざるをえない.つまりゼロ主語のまわりのテキスト自体を文脈として利用することになる\footnote{「テキストが実世界とどのような関係にあるのか」という意味での文脈をcontext,「テキストのある部分が,そのテキスト全体とどのような関係にあるのか」という意味での文脈をdiscourseとして区別することもあるが,ここでは両者ともに文脈と呼ぶ.}.以下その方法を説明する.具体例については\ref{sec:補完実験}章で述べる.まず,主語補完が必要となる述語のまわりの文脈から,主語となりうる名詞句を候補として取り出す.そして,これらの主語候補名詞句に関する様々な情報を特徴パラメータとして,やはり文脈から抽出する.その結果,主語候補名詞句は特徴パラメータの数の次元を持つ空間内の点として表現される.この空間を特徴パラメータ空間と呼ぶ.実際の主語補完は,学習フェーズと補完フェーズの2つのフェーズに分けられる.前者は,学習データ(標本)を用いて,確率分布を推定するフェーズであり,補完フェーズに先だって行われる.後者は,実際の主語補完を行うフェーズである.学習フェーズでは,学習データを使って,特徴パラメータ空間上で主語になる名詞句の分布と主語にならない名詞句(非主語)の分布を求める.具体的には,主語補完が必要な述語に対して,主語候補名詞句を抽出し,それらの名詞句の中でどれが真の主語であるかを人手で判断したデータを学習データとして用意する.そして,これらの学習データを用いて,特徴パラメータ空間上の確率分布を推定する.確率分布は,離散型の場合,確率関数で与えられ,連続型の場合は,確率密度関数で与えられる.このようにして学習(推定)された,主語の確率(密度)関数を$p$,非主語の確率(密度)関数を$q$と書く.補完フェーズでは,主語補完が必要な述語に対して,主語候補の名詞句$\{n_{1},n_{2},\cdots,n_{k}\}$とそれらの特徴パラメータの値を文脈から抽出する.そして,これらの名詞句の中から,$p$と$q$の比が最大となるもの\begin{equation}n=\arg\max_{i=1,\cdots,k}\frac{p(n_{i})}{q(n_{i})}\label{eq:尤度比}\end{equation}を主語として補完する.\subsection{主語候補の範囲}\label{subsec:主語候補の範囲}まず,文脈として考慮しているゼロ主語の付近,つまり,主語のない補完対象述語の付近のテキストの中から,補完されるべき主語候補を抽出する範囲を決めなければならない.本稿では,自動短文分割の後処理としての主語補完を考えているので,以下の範囲の名詞句に主語候補を制限した.\begin{enumerate}\item主語候補は補完対象述語の左側にある.つまり,前方照応のみを考えている.\item主語候補は分割対象文内にある.分割前の複数文内の照応は考慮していない.\item主語候補は「は,が,では,を,で,も,に,の,としては,には」のいずれかの助詞(助詞相当表現を含む)を持つ名詞句である.ただし,「の」は動詞に連接する場合のみ(「太郎の書いた本」など)を対象とする\footnote{ここで対象としてる格助詞は,原文での格を表わす助詞であり,補完された主語の格を表わすものではない.格助詞「を」を持つ名詞句が,正解候補である例は,\ref{subsec:誤りデータの分析}節の第1の例にある.}.\end{enumerate}これらの条件を満足する名詞句を主語候補として抽出する.\subsection{特徴パラメータの設定}\label{subsec:特徴パラメータの設定}次にこれらの主語候補や文脈が持っている種々の性質から主語補完に有効である性質を特徴パラメータとして取り出す.このような性質として,ここでは8種のものを選定した.この選定は,データの事前分析による経験的なものである.これらの特徴パラメータは以下に示すように,文法的性質,意味的性質および当該名詞句と補完対象述語の間の各種の距離に関する性質に分けられる.以下各特徴パラメータについて説明する.\paragraph{(1)助詞の種類}候補名詞句に付属する助詞の種類は主語補完に利用できる.この情報は従来の「談話分析」に基づく主語補完でも利用されている.考察する助詞の種類は,候補名詞句の範囲に含まれるものである.予備実験の結果,最も主語となる可能性が高い助詞から順に並べて,その順番に数値を小さい方から割り当てた.その結果,「は,では,が,の,としては,に,で,を,も,には」が0から9に対応した.間隔は1である.\paragraph{(2)文字数}主語が補完対象述語からどの程度離れているのかは,主語認定のもう一つの手掛かりになる.一般的に遠く離れているほど主語になれる可能性は低くなる.ここではその離れている度合,即ち距離を計る基準として,候補名詞句と補完対象述語との間の文字数を用いた.ただし,離散分布のときはスパースになりすぎるので文字数を10で割って,少数点以下を切り捨てた値を特徴パラメータとした.距離に関するその他の基準としては,(5)から(8)までがある.\paragraph{(3)意味的整合性}主語候補と補完対象述語間の意味的結合の整合度は,格助詞「が」を中心とした語と語の係り受けデータ\cite{田中89}と分類語彙表\cite{国語研64}を利用して計算する.まず,あらかじめ係り受けデータを分類語彙表を用いて,係り元の分類番号(3桁)と係り先の語形の間の係り受けデータに変換しておく.次に,実行時には,主語候補の分類番号を求め,その番号と補完対象述語の語形との間に係り受け関係があるかどうかを係り受けデータの中で検索する.そして,検索に成功したものを整合するとして,以下の数値を用いる.\begin{itemize}\item整合する場合:2.0\item整合しない場合:0.0\item主語候補の分類番号が得られなかった場合:1.0\end{itemize}\paragraph{(4)連体節との関係}連体節に含まれる名詞句の係り受け範囲はその連体節に制限される場合が多いので,主語候補が連体節に含まれているかいないかは主語認定の手掛かりになる.連体節に含まれている場合は「1」,いない場合は「0」に数量化した.\paragraph{(5)「は」の数}一般的に係助詞「は」はある主題を表すので,同一文内で他の「は」によって主題の切り替えを行なった際,前者が後者を越えて係る場合はあまり見られない.即ち,同一文内の「は」助詞は相互に影響を受ける.本パラメータは,候補名詞句と補完対象述語との間の係助詞「は」の数である.\paragraph{(6)「が」の数}同じく,格助詞「が」の数である.「が」も「は」のように相互に影響を受けるため,他の「が」の存在は主語補完に有効な情報である.\paragraph{(7)「は」「が」以外の格文節の数}同じく,「は」と「が」以外の格文節の数である.通常,主語候補の内,述語により近いものが主語として認定される可能性が高いのでこの格文節の数が少ないほど主語として認定されやすい.ただし,ここでは補完対象述語自身は数えない.\paragraph{(8)動詞の数}主語候補と述語の間に存在する動詞の数を示す.一般的に,文末に係る主語を除いて,この数値が大きいほど主語になれる可能性は低い.ただし,連体形の動詞は数えない.\bigskip\bigskip以上の特徴パラメータの値は,形態素解析,文節認定およびグルーピングと呼ばれる部分的な構文解析によって得られる\cite{金94}.また,\ref{subsec:主語候補の範囲}節で述べた主語候補の抽出もこれらのプログラムによって行うことができる.\subsection{確率モデルの範囲と主語補完の方法}\label{subsec:確率モデルの範囲と主語補完の方法}\ref{subsec:特徴パラメータの設定}節で述べた特徴パラメータの個数は$8$であるので,特徴パラメータ空間の次元は$8$となる.従来法では,この特徴パラメータの空間を,実ベクトル空間として,多次元正規分布モデルによる主語補完を行っていた\cite{金94}.しかし,特徴パラメータは,本来,離散的なものである.そこで,本稿では,連続モデルと離散モデルの双方について考察する.本稿で対象としている確率モデルは\begin{quote}\vspace*{2mm}\begin{tabular}{ll}連続分布&正規分布\\&疑似正規分布\\離散分布&1次対数線形分布\\&2次対数線形分布\\\end{tabular}\vspace*{2mm}\end{quote}である.このモデルの詳細は章を改めて述べる.学習フェーズでは,これらのモデルに対して,その母数\footnote{確率分布のパラメータのことであるが,特徴パラメータと混同しないために母数という用語を用いる.}を学習データから推定する.補完フェーズでは,主語と非主語の確率(密度)関数の値,$p$と$q$を求め,式(\ref{eq:尤度比})に従って主語を補完する. \section{確率モデル} \label{sec:確率モデル}\subsection{連続分布}\label{subsec:連続分布}連続分布としては,多次元正規分布と正規分布に基づくGram-Charlier展開\cite[pp.228-229]{Stuart94}を多次元に拡張した分布(疑似正規分布と呼ぶ)について考察した.連続分布の場合は,$p,q$として,確率密度関数を用いる.それらを,正規分布の場合は,$p_{G},q_{G}$と書き,疑似正規分布の場合は,$p_{H},q_{H}$と書く.\paragraph{正規分布}正規分布は連続分布として広く用いられる分布であり,まず正規分布から出発するのは自然である.正規分布の密度関数は,特徴パラメータ空間の次元を$k$(今の場合$k=8$)とするとき,以下のようになる.主語の分布に対して,平均値ベクトルを$\mu_{p}$,共分散行列を$\Sigma_{p}$とし,特徴パラメータ空間における主語候補の点の位置を${\bfx}$とするとき,\begin{equation}p_{G}({\bfx})=(\frac{1}{\sqrt{2\pi}})^{k}\frac{1}{\sqrt{\det{\Sigma_{p}}}}\exp{-\frac{1}{2}({\bfx}-\mu_{p})^{t}\Sigma_{p}^{-1}({\bfx}-\mu_{p})}\end{equation}と書ける.非主語の分布に対する$q_{G}$についても同様である.分布の母数の数は平均値ベクトルで$k$個,共分散行列で$k(k+1)/2$個である.\paragraph{疑似正規分布}正規分布は対称であるが,後述する実験から,$p,q$は非対称であることが観察される.そこで,非対称性を扱える分布として,疑似正規分布を考える.この場合は,密度関数が\begin{equation}p_{H}({\bfx})=[\sum_{(i_{1},i_{2},\cdots,i_{k})\inI}a_{i_{1}i_{2}\cdotsi_{k}}H^{1}_{i_{1}}({\bfx})H^{2}_{i_{2}}({\bfx})\cdotsH^{k}_{i_{k}}({\bfx})]p_{G}({\bfx})\label{eq:hermite}\end{equation}と表される.ここで,$I$はインデックスの集合であり,$p_{G}({\bfx})$は正規分布の密度関数である.$H^{j}_{i_{j}}$は$i_{j}$次のHermite多項式から計算される.式(\ref{eq:hermite})の導出は付録\ref{app:疑似正規分布}で詳述する.非主語に対する$q_{H}$の場合も同様である.疑似正規分布の母数は,平均値ベクトル,共分散行列に加えて,係数$a_{i_{1}i_{2}\cdotsi_{k}}((i_{1},i_{2},\cdots,i_{k})\inI)$がある.係数$a_{i_{1}i_{2}\cdotsi_{k}}$の次数を$m=i_{1}+i_{2}+\cdots+i_{k}$とすると,$m$次の係数の総数は$(k+m-1)!/m!(k-1)!$となる.$0$次の係数は$1$であり,$1$次と$2$次の係数はすべて$0$である.今回の考察では,$3$次以下の係数のみを用いている.そこで,$a_{i_{1}i_{2}\cdotsi_{k}}((i_{1},i_{2},\cdots,i_{k})\inI)$の総数は$k(k+1)(k+2)/6$個である($0$次を除く).なお,疑似正規分布では,分布の裾の方で値が$0$以下になってしまう場合が起こり得る.このような場合には,$p_{H}$や$q_{H}$の代わりに$p_{G}$や$q_{G}$を用いた.\subsection{離散分布}\label{subsec:離散分布}前節で述べたように,特徴パラメータは離散的であり,離散分布を適用するのが本来である.離散分布は特徴パラメータに対する同時分布の確率関数$p(i_{1},i_{2},\cdots,i_{k})$で表現される.この意味は,$j$番目$(j=1,\cdots,k)$の特徴パラメータが$i_{j}$という値を取る事象の確率である.$j$番目のパラメータが取る値の範囲を$i_{j}=1,2,\cdots,I_{j}$とすると,単純に離散モデルを適用した場合,母数の数は$I_{1}\timesI_{2}\times\cdots\timesI_{k}$となってしまう.このように多くの母数に対して,その値を精度良く推定するためには,極めて大きい標本が必要となり,現実的でない.そこで,母数の数を少なくするために対数線形分布を用いる.この分布は,確率関数$p$の対数が\begin{eqnarray}\lefteqn{\log{p(i_{1},i_{2},\cdots,i_{k})}}\nonumber\\&=&\log{h^{(0)}}+\sum_{j=1}^{k}\log{h^{(1)}_{j}(i_{j})}+\sum_{j=1}^{k-1}\sum_{l=j+1}^{k}\log{h^{(2)}_{j,l}(i_{j},i_{l})}\nonumber\\&&+\sum_{j=1}^{k-2}\sum_{l=j+1}^{k-1}\sum_{m=l+1}^{k}\log{h^{(3)}_{j,l,m}(i_{j},i_{l},i_{m})}+\cdots\end{eqnarray}のように書ける分布である.ここで,関数$h^{(i)}_{j_{1},j_{2},\cdots,j_{i}}$の値は$j_{1},j_{2},\cdots,j_{i}$番目の特徴パラメータの値のみの関数であり,それらの特徴パラメータに対する周辺分布から計算される.本稿では,$h^{(1)}_{j}$のみを用いる1次対数線形分布および$h^{(2)}_{j,l}$のみを用いる2次対数線形分布を考える.前者に対する確率関数$p$,$q$を$p_{1}$,$q_{1}$と書き,後者に対しては,$p_{2}$,$q_{2}$と書く.ただし,両分布とも,$p$の値が$0$となる場合には,主語に対する学習データの総数$N_{p}$を用いて,$p=\frac{1}{N_{p}}$とフロアリングした.$q$の値が$0$となる場合には,非主語に対する学習データの総数$N_{q}$を用いて,$q=\frac{1}{N_{q}}$とした.\newpage\paragraph{1次対数線形分布}1次対数線形分布は\begin{equation}p_{1}(i_{1},i_{2},\cdots,i_{k})=\prod_{j=1}^{k}h^{(1)}_{j}(i_{j})\end{equation}と表される.$h^{(1)}_{j}(i_{j})(j=1,\cdots,k)$は$j$番目の特徴パラメータの値$i_{j}$のみの関数であり,$p^{(1)}_{j}$をパラメータ$j$に対する1次の周辺分布とするとき,\begin{equation}p^{(1)}_{j}(i_{j})=\sum_{i_{1}=1}^{I_{1}}\cdots\sum_{i_{j-1}=1}^{I_{j-1}}\sum_{i_{j+1}=1}^{I_{j+1}}\cdots\sum_{i_{k}=1}^{I_{k}}\prod_{j^{'}=1}^{k}h^{(1)}_{j^{'}}(i_{j^{'}})\end{equation}を満足するように定められる.このような$h^{(1)}_{j}$は実は$p^{(1)}_{j}$そのものである.つまり,\begin{equation}p_{1}(i_{1},i_{2},\cdots,i_{k})=\prod_{j=1}^{k}p^{(1)}_{j}(i_{j})\end{equation}となる.これは特徴パラメータが互いに独立であると仮定した分布に他ならない.この場合の母数は$p^{(1)}_{j}(i_{j})(j=1,\cdots,k;i_{j}=1,\cdots,I_{j})$であり,その総数は$I_{1}+I_{2}+\cdots+I_{k}$となる.非主語に対する1次対数線形分布$q_{1}$についても同様に定義される.\paragraph{2次対数線形分布}2次対数線形分布は\begin{equation}p_{2}(i_{1},i_{2},\cdots,i_{k})=\prod_{j=1}^{k-1}\prod_{l=j+1}^{k}h^{(2)}_{j,l}(i_{j},i_{l})\end{equation}と表される.$h^{(2)}_{j,l}(i_{j},i_{l})(j=1,\cdots,k-1,l=j+1,\cdots,k)$は$j$番目の特徴パラメータの値$i_{j}$および$l$番目の特徴パラメータの値$i_{l}$のみの関数であり,$p^{(2)}_{j,l}(i_{j},i_{l})$をパラメータ$j,l$に対する2次の周辺分布とするとき,\begin{eqnarray}\lefteqn{p^{(2)}_{j,l}(i_{j},i_{l})}\nonumber\\&=&\sum_{i_{1}=1}^{I_{1}}\cdots\sum_{i_{j-1}=1}^{I_{j-1}}\sum_{i_{j+1}=1}^{I_{j+1}}\cdots\sum_{i_{l-1}=1}^{I_{l-1}}\sum_{i_{l+1}=1}^{I_{l+1}}\cdots\sum_{i_{k}=1}^{I_{k}}\prod_{j^{'}=1}^{k-1}\prod_{l^{'}=j^{'}+1}^{k}h^{(2)}_{j^{'},l^{'}}(i_{j^{'}},i_{l^{'}})\label{eq:制約式2}\end{eqnarray}を満足するように定められる.このような$h^{(2)}_{j,l}(i_{j},i_{l})$は2次の周辺分布から,比例反復法\cite[pp.235-238]{廣津82}に基づいて求めることができる.その方法を付録\ref{app:比例反復法}に示す.この場合の母数は$h^{(2)}_{j,l}(i_{j},i_{l})(j=1,2,\cdots,k-1;i_{j}=1,2,\cdots,I_{j};l=j,j+1,\cdots,k;i_{l}=1,2,\cdots,I_{l})$であり,その総数は,\begin{equation}\sum_{j=1}^{k-1}\sum_{l=j+1}^{k}I_{j}\cdotI_{l}\end{equation}となる.非主語に対する2次対数線形分布$q_{2}$についても同様に定義される. \section{補完実験} \label{sec:補完実験}381文の放送ニュース文を用いて,ゼロ主語の補完実験を行った.これらの文は,1991年1月1日から2月10日までの間のNHKのニュース原稿からランダムに選択された.これらの文にあらかじめ形態素解析と自動短文分割を施した結果,主語補完が必要な文が108文得られた.これら108文に含まれる補完対象述語に対して主語候補名詞句を文脈中より抽出した.各補完対象述語に対する主語候補の個数の分布を図\ref{fig:候補名詞数の分布}に示す.\begin{figure}\center{\atari(70.0,50.0)\caption{候補名詞数の分布}\label{fig:候補名詞数の分布}}\end{figure}図\ref{fig:候補名詞数の分布}から,108個の述語に対して,ランダムに主語補完を行った時の補完精度は$35.8$\%であることが分かる.いかなる補完手法であっても,補完精度がこの値より良くなくては意味がない.そこで,この値を基準精度とすることができる.次にこれらの述語に対して正しい主語を人手により選択するとともに,主語候補の名詞句の特徴パラメータの値を求め,実験データを作成した.そして,実験データを元に交差確認法(crossvalidation)によって,手法の精度を評価した.\subsection{母数の推定値の考察}精度評価実験を行う前に,\ref{sec:確率モデル}章で述べた各分布に対して,母数を推定した結果を考察する.なお,ここでの推定は,実験データを全て用いて行った.\paragraph{連続分布}まず,正規分布と疑似正規分布の母数の推定値について考察する.平均値ベクトル$\mu_{p},\mu_{q}$は以下のようになった.\begin{equation}\mu_{p}=(1.03,2.48,1.54,0.01,0.12,0.35,2.81,1.58)^{t}\end{equation}\begin{equation}\mu_{q}=(4.83,2.44,0.74,0.23,0.28,0.52,2.60,1.58)^{t}\end{equation}また,共分散行列$\Sigma_{p},\Sigma_{q}$の下三角成分は以下のようになった.\begin{equation}\def\arraystretch{}\begin{array}{rrrrrrrr}\Sigma_{p}=\hspace*{12mm}\\[-1mm]1.93\\-0.55&2.08\\0.14&0.19&0.58\\0.02&-0.01&0.00&0.01\\0.00&0.14&0.02&-0.00&0.16\\-0.05&0.42&0.02&0.01&0.06&0.28\\-0.92&1.93&0.09&-0.02&0.13&0.27&2.93\\-0.23&0.95&0.18&-0.01&0.11&0.24&0.91&0.82\end{array}\end{equation}\begin{equation}\def\arraystretch{}\begin{array}{rrrrrrrr}\Sigma_{q}=\hspace*{12mm}\\[-1mm]7.59\\-1.08&1.77\\-0.25&0.03&0.75\\0.07&0.06&0.01&0.18\\-0.26&0.27&0.01&0.01&0.31\\-0.26&0.54&0.03&0.02&0.09&0.42\\-0.58&1.39&0.07&0.03&0.16&0.29&2.14\\-0.52&0.84&0.16&-0.02&0.19&0.26&0.72&0.93\end{array}\end{equation}$\mu_{p}$と$\mu_{q}$を比較することで,以下のことが平均的には言える.\begin{enumerate}\item主語は数値の小さい助詞を持つ名詞句がなりやすい.\item意味的整合性が高い方が主語になりやすい.\item連体節に含まれる名詞句は主語になりにくい.\item補完対象述語と候補名詞句の間の「は」や「が」の数が少ないほど主語になりやすい.\end{enumerate}これらの結果は,\ref{subsec:特徴パラメータの設定}節で述べたことがらとほぼ一致しており,特徴パラメータの性質が実験的にも確かめられた.共分散行列は,対角に近いものであり,各特徴パラメータの間の相関はあまり強くないことが分かる.共分散行列を用いた詳しい考察は\cite{金93}を参照されたい.\noindent共分散行列の行列式の値は\begin{eqnarray}\det{\Sigma_{p}}=0.0002\\\det{\Sigma_{q}}=0.0488\end{eqnarray}であった.この値から主語の分布より非主語の分布の方が広がりが大きいことがわかる.共分散行列から計算されたCholesky分解(後述)の逆行列の下三角成分は以下のようになった.\begin{equation}\def\arraystretch{}\begin{array}{rrrrrrrr}C_{p}^{-1}=\hspace*{12mm}\\[-1mm]1.39\\-0.40&1.39\\0.10&0.17&0.74\\0.01&0.00&0.00&0.09\\0.00&0.11&0.00&-0.01&0.39\\-0.03&0.29&-0.03&0.07&0.08&0.43\\-0.66&1.20&-0.07&-0.07&-0.01&-0.23&0.99\\-0.17&0.63&0.12&-0.03&0.10&0.11&0.07&0.59\end{array}\end{equation}\begin{equation}\def\arraystretch{}\begin{array}{rrrrrrrr}C_{q}^{-1}=\hspace*{12mm}\\[-1mm]2.76\\-0.39&1.27\\-0.09&0.00&0.86\\0.02&0.05&0.01&0.42\\-0.09&0.18&0.00&0.01&0.52\\-0.09&0.39&0.03&0.01&0.02&0.51\\-0.21&1.03&0.06&-0.04&-0.09&-0.28&0.97\\-0.19&0.60&0.17&-0.12&0.12&0.00&0.05&0.69\end{array}\end{equation}次に,疑似正規分布のパラメータを吟味する.120個の3次の係数の推定値の分布は図\ref{fig:疑似正規分布の係数の値}のようである.\begin{figure}\center{\atari(140.0,55.0)\caption{疑似正規分布の係数の値}\label{fig:疑似正規分布の係数の値}}\end{figure}このことから,多くの係数は$0$に近いことがわかる.特に,非主語の係数について,そうである.絶対値が$0.2$より大きい係数は,以下のとおりである.\begin{equation}\def\arraystretch{}\begin{array}{rrcrr}\multicolumn{2}{c}{主語の分布}&&\multicolumn{2}{c}{非主語の分布}\\i_{1},\cdots,i_{k}&a_{i_{1}\cdotsi_{k}}&&i_{1},\cdots,i_{k}&a_{i_{1}\cdotsi_{k}}\\00030000&1.65&&01002000&0.36\\10020000&0.72&&01000200&0.35\\00003000&0.65&&00003000&0.29\\01002000&0.58&&00030000&0.20\\01000200&0.31\\30000000&0.30\\01100001&0.23\\03000000&0.22\\00120000&0.22\\01000002&0.21\\01100100&-0.21\\\end{array}\end{equation}$i_{4}$の部分は,特徴パラメータの$(4)$「連体節との関係」にほぼ対応している.このパラメータの値は,主語の分布に対する学習データのうちで1となるものが1データしかなく,分布の偏りが特に大きい.このため,主語の分布の第1,2行目の係数値が大きくなっている.\paragraph{離散分布}1次対数線形分布の母数の推定値は,1次の周辺分布である.それを図\ref{fig:1次の周辺分布}に示す.図\ref{fig:1次の周辺分布}から,\ref{subsec:特徴パラメータの設定}節で述べたことが確認できる.また,分布の非対称性が大きいことが分かる.\begin{figure}\center{\atari(130.0,190.0)\caption{1次の周辺分布}\label{fig:1次の周辺分布}}\end{figure}2次対数線形分布の母数の推定値$h^{(2)}_{j,l}(i_{j},i_{l})$と2次の周辺分布$p^{(2)}_{j,l}(i_{j},i_{l})$の関係を主語の場合について,図\ref{fig:2次対数線形分布の母数}に示す.$h^{(2)}_{j,l}(i_{j},i_{l})$の値はかなりばらついていることが分かる.この値は$4$回の繰り返し後の結果である.この$h^{(2)}$を式(\ref{eq:制約式2})に代入して得た$p^{(2)}$の値と実験データから直接推定した$p^{(2)}$の値の差は最大$0.005$であり,比例反復法は十分に収束している.\begin{figure}\center{\atari(70.0,47.0)\caption{2次対数線形分布の母数}\label{fig:2次対数線形分布の母数}}\end{figure}\subsection{ゼロ主語補完精度の評価}\ref{sec:確率モデル}章で提案した$4$種の確率モデルについて,式(\ref{eq:尤度比})に基づくゼロ主語補完の実験を行い,精度を評価した.実験はclosedtestとopentestに分けて行った.closedtestは実験データ全体を学習データと試験データの双方に用いるものである.一方,opentestは以下のような交差確認法(crossvalidationtest)によった.実験データから4個のデータを除いて,残りを学習データとし,除いたデータを試験データとして,補完実験を行う.このような実験を試験データの範囲をずらせながら,合計$27$回$(108/4)$行った.実験結果を表\ref{tab:実験結果}に示す.ここで,1位とは,正解の主語に対する式(\ref{eq:尤度比})の値が1位であることを意味する.\begin{table}\begin{center}\caption{ゼロ主語補完実験結果}\label{tab:実験結果}closedtest\vspace{.5\baselineskip}\\\begin{tabular}{|c|c|c|c|c|}\hline&G&H&1&2\\\hline1位&84(77.8)&93(86.1)&91(84.3)&107(99.1)\\1〜2位&101(93,5)&104(96.3)&106(98.1)&108(100.0)\\3位以下&7&4&2&0\\\hline\end{tabular}\vspace{\baselineskip}\\opentest\vspace{.5\baselineskip}\\\begin{tabular}{|c|c|c|c|c|}\hline&G&H&1&2\\\hline1位&79(73.1)&84(77.8)&84(77.8)&87(80.6)\\1〜2位&100(92.6)&101(93.5)&103(95.4)&102(94.4)\\3位以下&8&7&5&6\\\hline\end{tabular}\vspace{.5\baselineskip}\\\begin{tabular}{l}G:正規分布H:疑似正規分布\\1:1次対数線形分布2:2次対数線型分布\\かっこ内は補完精度(%)\\\end{tabular}\end{center}\end{table}この結果から以下のことがいえる.\begin{itemize}\item母数の数が多い分布を用いた方が,少ない分布を用いるよりclosedtest,opentest共に精度が高い.つまり,過学習による精度の低下は見られない.\item連続分布モデルより離散分布モデルの方が精度が高い.\item2次対数線形分布モデルはclosedtest,opentest共に最も精度が高い.\end{itemize}\subsection{補完例}試験データに対して,ゼロ主語補完を行った例を示す.(\ref{eq:補完例})で,$L_{p_{G}/q_{G}}$などとあるのは,$p_{G}/q_{G}$の$10$を底とする対数の意味である.\begin{itemize}\item原文:橋本大蔵大臣はきょうの閣議のあとの記者会見で,湾岸戦争終結後,円安・ドル高が進んでいる為替水準について,現在のドル高はアメリカ経済のファンダメンタルズ=基礎的な力を反映したものではなく好ましくないという考えを強調しました.\item分割文2:考えを強調しました.\item補完対象述語:強調する\item主語候補パラメータ値と評価値:\begin{equation}\begin{array}{lrrrrr}\nonumber主語候補&パラメータ値&L_{p_{G}/q_{G}}&L_{p_{H}/q_{H}}&L_{p_{1}/q_{1}}&L_{p_{2}/q_{2}}\\大臣&0\52\2\0\1\1\4\4&1.92&4.16&0.82&1.82\\会見&6\44\0\0\1\1\4\3&-11.36&-8.52&-4.03&-20.50\\ドル高&2\32\1\1\1\0\3\3&-57.19&-49.85&-3.91&-36.12\\ドル高&0\22\1\0\0\0\2\2&3.63&4.23&1.71&1.33\\力&7\13\2\1\0\0\1\2&-53.73&-46.82&-5.62&-13.26\\\\\end{array}\label{eq:補完例}\end{equation}\end{itemize}正しい主語は「大臣」である.この場合,正規分布,疑似正規分布,1次対数線形分布はいずれも2番目の「ドル高」を補完しており,不正解である.これは,「ドル高」に付加している助詞が「は」であり,しかも述語に近いためである.これに対して,2次対数線形分布は正しく「大臣」を補完している.特徴パラメータ間の相互関係を考慮することが有効に働いて正しい補完が行われた.\subsection{誤りデータの分析}\label{subsec:誤りデータの分析}本節では,実験の結果,最も精度が高かった2次対数線形分布モデルについて,主語補完を誤った事例を分析する.このような誤事例に対して,正解候補と補完候補の意味的整合性に関する分布を表\ref{tab:誤事例の意味的整合性に関する分布}に示す(パラメータ値の意味は\ref{subsec:特徴パラメータの設定}節参照).誤事例の総数は$21$である.この表から,以下のようなことが明らかになる.\begin{table}\begin{center}\caption{誤事例の意味的整合性に関する分布}\label{tab:誤事例の意味的整合性に関する分布}\begin{tabular}{|c|c||c|c|c|}\hline\multicolumn{2}{|c||}{}&\multicolumn{3}{c|}{補完候補の}\\\multicolumn{2}{|c||}{}&\multicolumn{3}{c|}{パラメータ値}\\\cline{3-5}\multicolumn{2}{|c||}{}&\multicolumn{1}{p{1.2em}|}{\centering2}&\multicolumn{1}{p{1.2em}|}{\centering1}&\multicolumn{1}{p{1.2em}|}{\centering0}\\\hline\hline\raisebox{-5pt}[0pt][0pt]{正解候補の}&2&6&0&8\\&1&1&1&1\\\raisebox{5pt}[0pt]{パラメータ値}&0&1&0&3\\\hline\end{tabular}\end{center}\end{table}正解候補が非整合$(0)$で,補完候補が整合$(2)$している事例は1例である.このことから,意味的整合性を特徴パラメータに加えたことによって,精度が低下することは少ないことがわかる.言い替えると,意味的整合性が副作用を起こす場合は少ないとも言える.正解候補が整合で,補完候補が非整合の事例は8例ある.これらは,意味的に整合しているにもかかわらず,正解として選択されていない例である.8例の正解候補に対する助詞の種類を調べると,「は」が2例で,「では,が,の,としては,に,を」が各1例である.このように,主語になりにくい助詞が付加している場合が半数である.このことから,意味的整合性の把握が,まだ不十分であることがわかる.つまり,助詞の種類の情報を上回るだけの意味的整合性の情報が得られていない.このことは,図\ref{fig:1次の周辺分布}(c)で,主語かつ非整合,非主語かつ整合の確率がそれほど小さくないことからも分かる.意味的整合性をより正確に捉える特徴パラメータを見いだすことは今後の課題である.この場合の誤事例を以下に示す.\begin{itemize}\item原文:政府は湾岸危機に対する中東貢献策のひとつとして国連平和協力法案を去年の秋の臨時国会に提出しましたが,野党側が強く反発し,結局,廃案となりました.\item主語補完対象述語:廃案となる\item正解候補:法案整合\item補完候補:野党側非整合\vspace*{3mm}\end{itemize}正解候補も補完候補も非整合である3例を正解とするためには,前項と同様に,より正確な意味的整合性の把握が必要である.これら3例は,いずれも人間が判断すれば,正解候補が整合となるものである.この場合の誤事例を以下に示す.\begin{itemize}\item原文:一戸建住宅の福袋は1個だけ,福袋のコーナーでは家族連れなどが住宅の写真や間取りを見ながら次々と申込みを済ませていました.\item主語補完対象述語:済ませる\item正解候補:家族連れ非整合\item補完候補:コーナー非整合\vspace*{3mm}\end{itemize}正解候補も補完候補も整合の6事例は,ここで用いているような単純な意味的整合性ではどちらも整合となる場合であり,この誤りをなくすには,より深い解析が必要であろう.しかし,現状では,このような深い解析を広範な文書に対して行うのは困難であり,この種の誤事例が最後まで残るものと思われる.この場合の例を示す.\begin{itemize}\item原文:政府としては,こうした流れを踏まえて,サミット後の7月下旬にも中山外務大臣がソビエトを訪問し,このあと,海部総理大臣の早期のソビエト訪問を実現し,より突っ込んだ交渉を行うことを目指しています.\item主語補完対象述語:実現する\item正解候補:政府整合\item補完候補:(中山外務)大臣整合\vspace*{3mm}\end{itemize}最後に,正解候補または補完候補の分類番号が得られなかった誤事例は,3例であり,比較的少数である.これらは,分類語彙表に出現しない未登録語であり,その解決には,分類語彙表の増補を待たなければならない.他の類語辞典を利用することも考えられるが,いずれにしても,未登録語が出現する. \section{おわりに} 確率モデルを用いたゼロ主語補完の方法について,4種類のモデルを比較した.その結果,2次対数線形分布モデルが最も精度が高かった.さらに,3次以上の対数線形分布モデルや,複数の次数が混在しているモデルも考えられるが,2次のモデルが,学習データに対して,極めて高い精度をもっていることから,単なる次数の増加による精度の向上は期待できない.それよりも,\ref{subsec:誤りデータの分析}節で述べたような誤事例をふまえて,より適切な特徴パラメータを利用することが望まれる.この点は今後の課題である.本方法は,計算機によって観測可能でありさえすれば,いかなる情報であっても特徴パラメータとして利用できるので,(計算)言語理論の進展に伴って,精度の向上が期待できる.ここで述べた確率モデルはいずれも特徴パラメータ空間を基礎にしており,一般化すれば,特徴パラメータ値のリストとカテゴリー(本稿の場合は,主語か非主語)の組からなる表状のデータに対する解析と見ることができる.このようなデータ形式は,種々の情報を組み合わせて利用するような問題で,しばしば現われる.本稿で述べた確率モデルはそのような問題にも適用することができる.例えば,\begin{itemize}\item主語以外の必須格に対するゼロ要素の補完\item代名詞の照応\item名詞の定,不定の判別\end{itemize}などがあるが,さらに,言語工学の基本問題である\begin{itemize}\item語彙的曖昧性の解消問題\item構造的曖昧性の解消問題\end{itemize}にも適用可能であろう.\acknowledgment本研究と発表の機会を与えていただいたNHK放送技術研究所西澤台次所長,先端制作技術研究部榎並和雅部長に感謝する.また,本研究に対して有意義なコメントをいただいた当部自動翻訳研究グループの各氏に感謝する.\appendix \section{疑似正規分布の導出と母数の推定} \label{app:疑似正規分布}$k$次元の実数空間に値をとる確率変数${\bfX}=(X_{1},X_{2},\cdots,X_{k})^{t}$の$(i_{1},i_{2},\cdots,i_{k})$次のモーメント$\mu_{i_{1}i_{2}\cdotsi_{k}}$は$E$を期待値をとる作用素として,\begin{equation}\mu_{i_{1}i_{2}\cdotsi_{k}}=E[X_{1}^{i_{1}}X_{2}^{i_{2}}\cdotsX_{k}^{i_{k}}]\end{equation}である.これらを用いて,まず,平均値ベクトル$\mu$と共分散行列$\Sigma$が以下のように求められる.$\mu$の要素を$\mu_{1},\mu_{2},\cdots,\mu_{k}$とすると,\begin{equation}\begin{array}{ll}\mu_{1}=\mu_{100\cdots0},\\\mu_{2}=\mu_{010\cdots0},\\\cdots\\\mu_{k}=\mu_{00\cdots01}\end{array}\end{equation}である.また,$\Sigma$の$(i,j)$要素$(i,j=1,\cdots,k)$を$\Sigma_{ij}$とすると\begin{equation}\begin{array}{ll}\Sigma_{11}=\mu_{20\cdots0}-\mu_{1}\mu_{1},\\\Sigma_{12}=\mu_{110\cdots0}-\mu_{1}\mu_{2},\\\cdots\\\Sigma_{ij}=\mu_{0\cdots0\breve{1}0\cdots0\breve{1}0\cdots0}^{\;\;\;\;\;\;\;i\;\;\;\;\;\;\;j}-\mu_{i}\mu_{j}\end{array}\end{equation}などと求められる.$\Sigma$のCholesky分解$(\Sigma=CC^{t})$が正則であるとして,\begin{equation}{\bfY}=C^{-1}({\bfX}-\mu)\end{equation}と変数変換を行い,$\mu$のまわりの$(i_{1},i_{2},\cdots,i_{k})$次の正規化モーメント$\alpha_{i_{1}i_{2}\cdotsi_{k}}$が\begin{equation}\alpha_{i_{1}i_{2}\cdotsi_{k}}=E[Y_{1}^{i_{1}}Y_{2}^{i_{2}}\cdotsY_{k}^{i_{k}}]\end{equation}と求められる.さらに,式(\ref{eq:hermite})の係数を求める.式(\ref{eq:hermite})の$H^{j}_{i_{j}}({\bfX})$は$i_{j}$次のHermite多項式$\tilde{H}_{i_{j}}$を用いて\begin{equation}H^{j}_{i_{j}}({\bfX})=\tilde{H}_{i_{j}}(Y_{j})\end{equation}である.係数$a_{i_{1}i_{2}\cdotsi_{k}}$はHermite多項式の直交性を利用して,以下のように求められる.\begin{eqnarray}\lefteqn{\int_{-\infty}^{\infty}\cdots\int_{-\infty}^{\infty}H^{1}_{i_{1}}({\bfX})\cdotsH^{k}_{i_{k}}({\bfX})p_{H}({\bfX})d{\bfX}}\nonumber\\&=&\!\!\int_{-\infty}^{\infty}\cdots\int_{-\infty}^{\infty}H^{1}_{i_{1}}({\bfX})\cdotsH^{k}_{i_{k}}({\bfX})[\sum_{(j_{1},j_{2},\cdots,j_{k})\inI}a_{j_{1}j_{2}\cdotsj_{k}}H^{1}_{j_{1}}({\bfX})\cdotsH^{k}_{j_{k}}({\bfX})]p_{G}({\bfX})d{\bfX}\nonumber\\&=&\!\!\int_{-\infty}^{\infty}\cdots\int_{-\infty}^{\infty}\tilde{H}_{i_{1}}(Y_{1})\cdots\tilde{H}_{i_{k}}(Y_{k})\nonumber[\sum_{(j_{1},j_{2},\cdots,j_{k})\inI}a_{j_{1}j_{2}\cdotsj_{k}}\tilde{H}_{j_{1}}(Y_{1})\cdots\tilde{H}_{j_{k}}(Y_{k})]\nonumber\\&&\!\!\frac{1}{\sqrt{2\pi}}\exp{-\frac{Y_{1}^{2}}{2}}\cdots\frac{1}{\sqrt{2\pi}}\exp{-\frac{Y_{k}^{2}}{2}}dY_{1}\cdotsdY_{k}\nonumber\\&=&\!\!a_{i_{1}\cdotsi_{k}}i_{1}!\cdotsi_{k}!\end{eqnarray}そこで\begin{equation}c_{ir}=(-1)^{r}(2r-1)!!\frac{i!}{2r!(i-2r)!}\end{equation}とおくと,\begin{equation}a_{i_{1}i_{2}\cdotsi_{k}}=\frac{1}{i_{1}!i_{2}!\cdotsi_{k}!}\sum_{r_{1}=0}^{[\frac{i_{1}}{2}]}\sum_{r_{2}=0}^{[\frac{i_{2}}{2}]}\cdots\sum_{r_{k}=0}^{[\frac{i_{k}}{2}]}c_{i_{1}r_{1}}c_{i_{2}r_{2}}\cdotsc_{i_{k}r_{k}}\alpha_{(i_{1}-2r_{1})(i_{2}-2r_{2})\cdots(i_{k}-2r_{k})}\end{equation}となる.ここで,$[n]$は$n$を越えない最大の整数である.以上の式を用いて,学習データ(標本)からモーメントおよび正規化モーメントの推定値を計算すれば,全ての母数,$\mu$,$\Sigma$および$a_{i_{1}i_{2}\cdotsi_{k}}$の推定値が得られる. \section{比例反復法による2次対数線形分布の母数の推定} \label{app:比例反復法}2次対数線形分布の母数である$h^{(2)}_{j,l}(i_{j},i_{l})(j=1,2,\cdots,k-1;i_{j}=1,2,\cdots,I_{j};l=j,j+1,\cdots,k;i_{l}=1,2,\cdots,I_{l})$は以下の比例反復法によって求めることができる.2次対数線形分布の制約式である\begin{equation}p^{(2)}_{j,l}(i_{j},i_{l})=\sum_{i_{1}=1}^{I_{1}}\cdots\sum_{i_{j-1}=1}^{I_{j-1}}\sum_{i_{j+1}=1}^{I_{j+1}}\cdots\sum_{i_{l-1}=1}^{I_{l-1}}\sum_{i_{l+1}=1}^{I_{l+1}}\cdots\sum_{i_{k}=1}^{I_{k}}\prod_{j^{'}=1}^{k-1}\prod_{l^{'}=j^{'}+1}^{k}h^{(2)}_{j^{'},l^{'}}(i_{j^{'}},i_{l^{'}})\label{eq:2次周辺分布}\end{equation}を変形すると,\begin{eqnarray}\lefteqn{p^{(2)}_{j,l}(i_{j},i_{l})}\nonumber\\&=&h^{(2)}_{j,l}(i_{j},i_{l})\nonumber\\&&\times\sum_{i_{1}=1}^{I_{1}}\cdots\sum_{i_{j-1}=1}^{I_{j-1}}\sum_{i_{j+1}=1}^{I_{j+1}}\cdots\sum_{i_{l-1}=1}^{I_{l-1}}\sum_{i_{l+1}=1}^{I_{l+1}}\cdots\sum_{i_{k}=1}^{I_{k}}\prod_{j^{'}=1}^{k-1}\prod_{l^{'}=j^{'}+1,(j^{'},l^{'})\neq(j,l)}^{k}h^{(2)}_{j^{'},l^{'}}(i_{j^{'}},i_{l^{'}})\nonumber\\\end{eqnarray}と書くことができる.そこで,$h^{(2)}_{j,l}(i_{j},i_{l})$の$r$回目の推定値を$h^{(2),(r)}_{j,l}(i_{j},i_{l})$とし,式(\ref{eq:2次周辺分布})の右辺に$h^{(2),(r)}_{j,l}(i_{j},i_{l})$を代入して求めた2次周辺分布を$p^{(2),(r)}_{j,l}(i_{j},i_{l})$とするとき,$r+1$回目の推定値を\begin{equation}h^{(2),(r+1)}_{j,l}(i_{j},i_{l})=\frac{p^{(2)}_{j,l}(i_{j},i_{l})}{p^{(2),(r)}_{j,l}(i_{j},i_{l})}h^{(2),(r)}_{j,l}(i_{j},i_{l})\end{equation}のようにして求める.この反復を,推定値が収束するまで繰り返し行う.なお,初期値は以下のように設定した.\begin{eqnarray}h^{(2),(0)}_{j,l}(i_{j},i_{l})=\left\{\begin{array}{ll}1,&\mbox{$p^{(2)}_{j,l}(i_{j},i_{l})\neq0$}\\0,&\mbox{else}\end{array}\right.\end{eqnarray}\bibliographystyle{jnlpbbl}\bibliography{nlp}\begin{biography}\biotitle{略歴}\bioauthor{江原暉将}{1967年早稲田大学理工学部電気通信学科卒業.同年,日本放送協会に入局.1970年より放送技術研究所に勤務.現在,先端制作技術研究部主任研究員.かな漢字変換,機械翻訳などの研究に従事.電子情報通信学会,情報処理学会,ACL,機械翻訳協会各会員.}\bioauthor{金淵培}{1958年生.1983年UniversityofS$\tilde{a}$oPaulo大学工学部化学工学科卒業.1984年(株)ブラビス・インターナショナル入社.1991年NHK入局.現在,放送技術研究所・先端制作技術研究部においてニュース用日英機械翻訳,自然言語処理等の研究に従事.情報処理学会,AAAI各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V10N05-03
\section{はじめに} \thispagestyle{empty}計算機の高性能化や記憶容量の大容量化および低価格化にともない,情報のマルチメディア化が急速に進行しており,このような背景のもと,マルチメディア・コンテンツに対する情報検索技術の必要性がますます大きくなってきている.マルチメディア・コンテンツ検索では,マルチメディア情報そのものから得られる特徴量に基づき類似検索を行なうという内容型検索(content-basedretrieval)が近年の主流であるが,多くの場合,複数の特徴量を多次元ベクトルで表現し,ベクトル間の距離によりコンテンツ間の類似性を判定している.たとえば,文書検索の場合には,索引語の重みベクトルで文書や検索質問を表現することができるし\cite{Salton75,Sasaki01},画像の類似検索の場合には,カラーヒストグラム,テクスチャ特徴量,形状特徴量などから成る特徴量ベクトルにより画像コンテンツを表現する\cite{Flickner95,Pentland96}.特徴量ベクトルに基づくコンテンツの類似検索は,検索質問として与えられたベクトルと距離的に近いコンテンツ・データベース中のベクトルを見つけるという最近傍検索(nearestneighborsearch)の問題に帰着することができる.データベース中のベクトルと逐次的に比較する線形探索では,データベースの規模に比例した計算量が必要となるため,データベースが大規模化した際の検索システムの処理効率に深刻な影響を及ぼすことになる.したがって,最近傍検索を効率的に行なうための多次元インデキシング技術の開発が重要な課題として,従来より活発に研究されてきた\cite{Katayama01,Gaede98}.ユークリッド空間における多次元インデキシング手法には,R-tree\cite{Guttman84},SS-tree\cite{White96},SR-tree\cite{Katayama97}などが提案されており,また,より一般の距離空間を対象にしたインデキシング手法としては,VP-tree\cite{Yianilos93},MVP-tree\cite{Bozkaya99},M-tree\cite{Ciaccia97}などが提案されている.これらのインデキシング手法は,多次元空間を階層的に分割することにより,探索範囲を限定することを基本としている.しかし,高次元空間では,ある点の最近点と最遠点との間に距離的な差が生じなくなるという現象が起こるため\cite{Aggarwal01,Beyer99},探索する領域を限定することができず,線形探索に近い計算量が必要になってしまうという問題点がある.高次元空間における上記の問題点に対処するために,近似的な最近傍検索についても研究が進められている.たとえば,ハッシュ法に基づく近似検索手法\cite{Gionis99}や空間充填曲線(space-fillingcurve)を用いて高次元空間の点を索引付けする手法\cite{Liao00,Shepherd99}などが提案されている.我々は,現在,テキストと画像のクロスメディア情報検索に関する研究の一環として,類似画像検索システムを開発しているが\cite{Koizumi02a,Koizumi02b},クロスメディア情報検索では,ユーザとのインタラクションを通じて所望の検索結果を得ることが多々あるため,特徴量ベクトルに基づく最近傍検索の実行回数が必然的に多くなってしまう.このような場合,完全な最近傍検索は必要ではなく,むしろ高速な近似的最近傍検索のほうが望ましい.本稿では,1次元自己組織化マップを用いた,高速な近似的最近傍検索の手法を提案し,提案した手法の有効性を類似画像検索と文書検索という2種類の実験により評価する.最近傍検索を行なう際の一番のボトルネックは,2次記憶上のデータへのアクセスであるが,提案する手法は,次元数がきわめて多い場合でも効率的にディスク・アクセスを行なうことができるという利点を持っている. \section{自己組織化マップを用いた最近傍検索} \subsection{自己組織化マップ}自己組織化マップ(self-organizingmap;SOM)\cite{Kohonen95}は,教師なし競合学習により,高次元データを低次元データに写像する2階層型のニューラルネットワークである.自己組織化マップでは,高次元空間での近傍関係をできる限り保ちつつ,低次元空間へデータを配置するという位相的整列性と呼ばれる特徴を持っている.自己組織化マップの典型的な適用例は,多次元データの可視化であり,この場合には高次元データを2次元平面上に配置するということを行なう\cite{Kohonen00,Oja99}.図~\ref{Fig:SOM}は,$n$次元の入力データを2次元平面上に配置する自己組織化ネットワークの例を示している.ネットワークの入力層は,2次元平面上に格子状に配置されたすべてのユニットと結合されており,各ユニットには,入力層に入力されるデータと同じ次元数の参照ベクトル(referencevector)が対応している.学習の過程では,入力層に入力されたベクトルと最も近い参照ベクトルを持つユニットを探し,このユニットとその近傍にあるユニットの参照ベクトルを入力ベクトルに近づけるという操作を繰り返す.このようにして,同じような位相的特徴を持ったユニットが近傍領域に集まり,結果的に入力データの位相的特徴を反映した自己組織化マップが作られることになる.自己組織化マップの学習アルゴリズムをまとめると,以下のようになる.\begin{enumerate}\item参照ベクトル$\mathbf{m}_i$をランダムな値で初期化する.\item入力ベクトル$\mathbf{x}$に最も近い参照ベクトル$\mathbf{m}_c$を持つユニット$c$を見つける.\begin{equation}\mathbf{m}_c=\mathop{\mbox{argmin}}_{\mathbf{m}_i}||\mathbf{x}-\mathbf{m}_i||\end{equation}\itemユニット$c$および$c$の近傍領域の参照ベクトル$\mathbf{m}_i$を次式により更新する.\begin{equation}\mathbf{m}_i=\mathbf{m}_i+h_{ci}(\mathbf{x}-\mathbf{m}_i)\end{equation}ここで,$h_{ci}$はユニット$c$から離れるにつれ,小さな値になるように設定する.また,$h_{ci}$は学習が進むにつれ,単調に減少するようにする.\itemステップ2より繰り返す.\end{enumerate}\begin{figure}\begin{center}\epsfile{file=fig01.eps,scale=1.0}\end{center}\caption{自己組織化マップ}\label{Fig:SOM}\end{figure}\begin{figure*}[t]\begin{center}\epsfile{file=fig02.eps,scale=0.75}\end{center}\caption{1次元自己組織化マップを用いた多次元インデキシング}\label{Fig:SOMIndexing}\end{figure*}\subsection{自己組織化マップを用いた最近傍検索手法}上で述べたように,自己組織化マップでは,高次元空間での近傍関係をできる限り保ちつつ,入力データを低次元空間へ配置することができるという特徴を持っている.この特徴を用いると,高次元空間での最近傍検索を低次元空間での最近傍検索問題に置き換えることができると考えられる.しかし,自己組織化マップの学習には誤差がともなううえ,低次元のマップ上では,高次元空間での距離が保存されていないため,低次元マップだけを用いて最近傍検索を行なうことは不可能である.我々は,自己組織化マップにより得られた低次元空間での近傍関係から,最近傍検索の探索範囲を限定し,限定されたデータに関してだけ,元の高次元空間上で距離を計算するという方法を考えた.また,探索範囲の限定を効率的に行なうことができるように,1次元の自己組織化マップを用いることにした.以下に,1次元自己組織化マップを用いた最近傍検索手法をまとめる(図~\ref{Fig:SOMIndexing}参照).\vspace*{2mm}\noindent{\bf多次元インデキシングの作成}\begin{enumerate}\item自己組織化マップの学習アルゴリズムにより,多次元データを1次元上に配置する.ユニット数を$k$とすると,データは$k$個のクラスタに分割されることになる.\item各クラスタに属するデータを,2次記憶上の連続した領域に格納する.また,この際,1次元マップ上の各ユニットに2次記憶領域へのポインタを持たせる.なお,2次記憶領域には,元の多次元データを格納する.\end{enumerate}\noindent{\bf最近傍検索}\begin{enumerate}\item与えられた検索質問ベクトルに最も近い参照ベクトルを持つユニット$c$を見つける.\itemユニット$c$の近傍ユニットに配置されたデータに対してのみ,検索質問との距離計算を行なう.距離計算の際には,2次記憶上に格納されている多次元データを用いる.\item上記で計算された結果を,距離の小さい順にソートし,これを最近傍検索の結果として出力する.\end{enumerate}\vspace*{2mm}検索質問ベクトルと距離計算の行なわれるデータは,2次記憶上の連続した領域に格納しているため,2次記憶へのアクセスはきわめて効率的に行なうことが可能である.3節で実験結果を述べるが,1次元マップ上の各ユニットに割り当てられるデータ数が大きく偏ることはなく,概ね平均化している.したがって,2次記憶へのアクセス回数は数回程度である.なお上記では,1次元の自己組織化マップを用いたが,2次元の自己組織化マップを用いることも可能である.ただし,2次元自己組織化マップを用いる場合には,近傍ユニットに属するデータを必ずしも2次記憶上の連続した領域に格納できるとは限らないため,最近傍検索の手続きが多少複雑になる.上記で提案した多次元インデキシング手法の本質は,多次元データのクラスタリングに1次元自己組織化マップを用いている点であり,クラスタ(あるいは近傍クラスタ)内の検索は基本的に線形探索によって行われている.自己組織化マップ以外にも,他のクラスタリング手法を用いて同様のインデキシングを行うことも考えられる.たとえば,主成分分析を用いて第1主成分により1次元上にデータをマッピングすることもできるが,主成分分析はデータの分布が正規分布に近い場合には有効であるが,そうでない場合には自己組織化マップを用いたほうが近似の精度が高いという利点がある.また,ベクトル量子化は,ユニット中のセントロイド(コードブック)により入力データを近似するという点で自己組織化マップに類似しているが,ベクトル量子化では高次元空間での近傍関係を保つという位相的整列性を特別に考慮していない.提案した最近傍検索手法では,検索の際に近傍ユニットを探索することから,位相的整列性を備えた自己組織化マップを用いた手法のほうが良いと考えられる. \section{実験結果} 自己組織化マップを用いた最近傍検索手法の有効性を調べるために,類似画像検索実験と文書検索実験を行なった.以下で実験の概要および実験結果について述べる.\subsection{類似画像検索実験}\label{Sec:ImageRetrieval}類似画像検索実験では,Corelデータベースから抽出した42,381件のカラー写真画像を用いた.また,このうち,424件(全体の1\,\%)の画像データをランダムに抽出し,検索画像とした.これらの画像データから,表~\ref{Tab:ImageFeatures}に示すような,次元数の異なる4種類の特徴量ベクトルを作成した.\begin{table*}[t]\begin{center}\caption{画像検索実験に用いた特徴量}\label{Tab:ImageFeatures}\begin{tabular}{c|r|p{10cm}}\hline\hline特徴量&次元数&\multicolumn{1}{c}{特徴量の概略}\\\hlineRGB-48&48&画像全体から256階調のR,G,Bのヒストグラムを求め,各色16次元(計48次元)に圧縮した特徴量\\\hlineHSI-192&192&画像全体から256階調の色相(hue),彩度(saturation),輝度(intensity)に関するHSI特徴量を求め,各特徴量を64次元(計192次元)に圧縮した特徴量\\\hlineHAAR-256&256&画像全体の輝度成分に対して2レベルのHaarWavelet変換を行い,高域成分のWavelet係数を$16\times16$の各部分画像領域ごと(計256次元)に加算平均した特徴量\\\hlineHSI-432&432&画像全体を$3\times3$の部分画像に分割し,各部分画像に対してHSI特徴量を求め,各部分画像のHSI特徴量を48次元(計432次元)に圧縮した特徴量\\\hline\end{tabular}\end{center}\end{table*}自己組織化マップを用いた最近傍検索の精度を調べるためには,検索された画像のうち,どれが正解であるかという情報が必要である.このため,各検索画像と全画像データとの間のユークリッド距離を線形探索により求め,距離の小さい400件を正解データとした.与えられた検索画像から,自己組織化マップを用いた最近傍検索により,上位400件の検索結果を出力し,これを正解データと比較することにより適合率を算出した.自己組織化マップを用いた最近傍検索では,検索条件によって適合率は変化する.適合率が変化する主な要因は,1次元マップ上の総ユニット数,および,検索の際に用いる近傍数である.ここで,近傍数とは,探索候補の絞り込みの際にいくつのユニットを参照したかを意味しており,具体的には,検索質問の属するユニットに加え,その近傍のユニットをいくつ参照したかを示す.以下では,検索質問の属するユニットのみを参照したときは近傍数1,検索質問の属するユニットに加え,その左右両側のユニットを参照したときは近傍数3というように表すことにする.なお,近傍数3の際,検索質問が1次元マップ上の左端(あるいは右端)のユニットに属している場合には,そのユニットの右側(あるいは左側)しか参照しない.図~\ref{Fig:ImageResults}は,ユニット数が10あるいは20,近傍数3のときの適合率曲線を示している.横軸方向は検索結果数を,縦軸方向は平均適合率を表しており,グラフは上位$n$件の結果が検索された時点での平均適合率をプロットしたものである.図から分かるように,検索結果数が増えるに連れ平均適合率は単調に減少しており,次元数が大きほど適合率が減少する度合が大きくなっている.しかし,ユニット数10,近傍数3およびユニット20,近傍数3のいずれの条件下でも,上位100件程度の近傍検索では,近似解の精度がほぼ100\,\%に達している.一方,従来の近似検索手法\cite{Gionis99,Shepherd99}での実験結果では,最も次元数が高い256次元のデータから近傍検索数10件の検索を行うのに,全データ数の約1割程度の距離計算回数を費やすことで約90\,\%の近似解の精度が得られたと報告している.このことから,他の近似検索手法と比べ,提案手法による検索精度の高さが分かる.また,表~\ref{Tab:ImageResults}は,さまざまな条件のもとでの平均$R$適合率\footnote{$R$適合率($R$-precision)とは,検索質問に適合する結果の総数を$R$とするとき,上位から$R$番目までの検索結果を出力した時点での適合率を意味する\cite{IRbook}.$R$適合率は,上位に順位付けされた検索結果の有効性を示す評価尺度である.}と検索質問1件当たりの平均距離計算回数を示している.表~\ref{Tab:ImageResults}から分かるように,同じ検索条件のもとでは,適合率は次元数が大きくなるにつれ低下する傾向にあるが,距離計算回数は次元数によらずにほぼ一定である.したがって,本手法は,次元数が増大した場合にも高速性が失われることはない.なお,距離計算回数が次元数によらず一定である理由は,各ユニットに割り当てられるデータ数が概ね平均化しているためである.図~\ref{Fig:UnitNumDat}に,ユニット数20の際に各ユニットに割り当てられたデータ数を示すが,1次元マップ上の各ユニットに割り当てられるデータ数が極端にばらついていないことを読み取ることができる.また,特徴量ベクトルから1次元自己組織化マップに基づく多次元インデキシングを行うのに要したCPU時間は,ユニット数10の場合,RGB-48に対しては525秒,HSI-192,HAAR-256,HSI-432に対してはいずれも1000秒程度であり,次元数の増加にともないインデキシング時間が極端に増加するということはなかった.なお,今回実験を行ったマシンのOSはLinux,CPUはIntelXeon2.4GHz,主記憶容量は1,024Kバイトである.参考のために,各画像特徴量に対するSR-treeの平均距離計算回数を表~\ref{Tab:SRtree}に示す.SR-treeでは,検索対象データに対する多次元インデクスを作成する際に多次元空間を木構造を用いて階層的に分割しているが,検索時には木構造の内部ノードとの距離計算も行うため,検索対象データ数よりも多くの距離計算が行われることがある.表~\ref{Tab:SRtree}では,検索対象データとの平均距離計算回数を括弧内に示している.表~\ref{Tab:SRtree}から分かるように,SR-treeの場合には,与えられた検索質問に距離的に近い検索結果を上位何件求めるかにより距離計算回数が異なるが,検索件数が増えるに従い距離計算回数は単調に増加する傾向にある.上位1件のみを求める場合には距離計算回数はきわめて少ないが,それ以外の場合にはいずれの特徴量においても自己組織化マップを用いた検索よりも計算回数が多くなっている.実際に類似検索を行う際には,上位1件のみの検索結果だけが必要であることは稀であると考えられるため,この場合には自己組織化マップを用いた提案手法のほうが高速な検索を行うことが可能である.\begin{figure*}\bigskip\begin{center}\epsfile{file=u10.eps,scale=0.75}\begin{center}(a)ユニット数10,近傍数3\end{center}\epsfile{file=u20.eps,scale=0.75}\begin{center}(b)ユニット数20,近傍数3\end{center}\end{center}\caption{画像検索の平均適合率}\label{Fig:ImageResults}\end{figure*}\begin{table*}\small\begin{center}\caption{画像検索の$R$適合率および平均距離計算回数}\vspace*{2mm}\label{Tab:ImageResults}\newcommand{\mrow}[1]{}\begin{tabular}{c|*{3}{p{17pt}|p{20pt}|p{17pt}|}p{17pt}|p{19pt}|p{17pt}}\hline\hline\multicolumn{1}{c|}{特徴量}&\multicolumn{3}{c|}{RGB-48}&\multicolumn{3}{c|}{HSI-192}&\multicolumn{3}{c|}{HAAR-256}&\multicolumn{3}{c}{HSI-432}\\\hline\multicolumn{1}{c|}{{\footnotesizeユニット数}}&\multicolumn{1}{c|}{5}&\multicolumn{1}{c|}{10}&\multicolumn{1}{c|}{20}&\multicolumn{1}{c|}{5}&\multicolumn{1}{c|}{10}&\multicolumn{1}{c|}{20}&\multicolumn{1}{c|}{5}&\multicolumn{1}{c|}{10}&\multicolumn{1}{c|}{20}&\multicolumn{1}{c|}{5}&\multicolumn{1}{c|}{10}&\multicolumn{1}{c}{20}\\\hline\multicolumn{1}{c|}{近傍数}&\multicolumn{1}{c|}{1}&\multicolumn{1}{c|}{3}&\multicolumn{1}{c|}{3}&\multicolumn{1}{c|}{1}&\multicolumn{1}{c|}{3}&\multicolumn{1}{c|}{3}&\multicolumn{1}{c|}{1}&\multicolumn{1}{c|}{3}&\multicolumn{1}{c|}{3}&\multicolumn{1}{c|}{1}&\multicolumn{1}{c|}{3}&\multicolumn{1}{c}{3}\\\hline$R$適合率&0.73&0.93&0.82&0.60&0.84&0.76&0.73&0.88&0.75&0.61&0.78&0.68\\\hline平均距離&&&&&&&&&&&&\\計算回数&\mrow{8940}&\mrow{12226}&\mrow{6211}&\mrow{9320}&\mrow{11998}&\mrow{6209}&\mrow{8884}&\mrow{11190}&\mrow{6121}&\mrow{9005}&\mrow{11528}&\mrow{5989}\\\hline\end{tabular}\end{center}\end{table*}\begin{figure*}\begin{center}\epsfile{file=numdat.eps,scale=0.8}\end{center}\caption{各ユニット中のデータ数}\label{Fig:UnitNumDat}\end{figure*}\begin{table}\begin{center}\caption{SR-treeの平均距離計算回数}\label{Tab:SRtree}\begin{tabular}{|c|c|c|c|c|}\hline&RGB-48&HSI-192&HAAR-256&HSI-432\\\hline1&153.3(104.2)&79.0(48.5)&613.1(538.2)&283.4(211.7)\\5&16548.3(16162.9)&22048.0(19966.4)&41108.7(37393.8)&38885.7(31452.7)\\10&18265.2(17865.3)&23985.0(21830.6)&41430.0(37710.9)&40825.1(33283.2)\\50&22013.7(21584.7)&28387.4(26084.6)&42128.2(38398.3)&44426.9(36715.4)\\100&23723.8(23283.4)&30425.6(28060.7)&42432.8(38698.2)&45675.8(37909.2)\\200&25429.1(24976.1)&32530.8(30104.3)&42750.1(39010.7)&46736.0(38921.4)\\\hline\end{tabular}\end{center}\end{table}\begin{figure*}\begin{center}\epsfile{file=IR.eps,scale=0.8}\end{center}\caption{文書検索の平均適合率}\label{Fig:DocResults}\end{figure*}\subsection{文書検索実験}\ref{Sec:ImageRetrieval}において,類似画像検索を対象にした実験結果を示した.画像特徴量の次元数は,数10$\sim$数100次元程度であるが,これよりも次元数が大きい場合の手法の有効性を調べるために,ベクトル空間モデル(vectorspacemodel;VSM)に基づく文書検索を対象とした実験を行なった.なお,文書検索では通常,検索質問中の索引語が現われる文書しか対象にしないため,転置ファイル\cite{IRbook}に基づく方法が用いられ,この場合には高速な検索を行うことが可能である.ここでの実験は,次元数が大きい場合にも提案手法が有効かどうかを検証することを主な目的として行ったものである.ベクトル空間モデルでは,文書中から索引語を抽出し,文書を索引語の出現頻度に基づくベクトルで表現する\cite{IRbook,Salton75}.文書ベクトルの次元数は,文書集合全体にわたる索引語の総数と等しいため,次元数はきわめて大きくなる.本実験では,情報検索評価用のテストコレクションであるMEDLINEを用いた.MEDLINEは,検索対象文書1,033文書,検索質問30文書から成る小規模なコレクションであり,各検索質問には,どの文書が適合しているかという適合情報が用意されている.なお,各検索質問に対する平均適合文書数は23.2文書である.まず前処理として,MEDLINEコレクションから``a''や``about''などの不要語439単語,および全文書中に1回しか出現しなかった単語を削除した.その後,ポーター・アルゴリズム(Porteralgorithm)\cite{Porter80}によるステミングを行なった結果,4,329個の索引語が得られた.以上の処理により得られた索引語から4,329次元の文書ベクトルを構成した.この際,索引語の重み付けとして,局所的重み付けには対数化索引語頻度を,大域的重み付けにはエントロピーを,文書正規化にはコサイン正規化を用いた\cite{IRbook}.文書検索の評価では,通常のベクトル空間モデルに基づく最近傍検索(線形探索)と自己組織化マップを用いた最近傍検索の両者とも30件の検索結果を出力し,出力結果をMEDLINEの適合情報と比較することにより適合率を求めた.この際,自己組織化マップを用いた最近傍検索では,ユニット数20,近傍数3の条件で検索を行なった.図~\ref{Fig:DocResults}に,文書検索の適合率曲線を示すが,自己組織化マップを用いた検索のほうがわずかながら良い結果を与えている.なお,ベクトル空間モデルに基づく検索の$R$適合率は0.53であり,自己組織化マップを用いた検索の$R$適合率は0.58であった.また,自己組織化マップを用いた最近傍検索の平均距離計算回数は1検索質問当たり141回であり,これは線形探索の約1/7に相当する.以上はMEDLINEコレクションの適合情報に対する評価であるが,次に,自己組織化マップによる最近傍検索の近似誤差について述べる.ベクトル空間モデルの検索結果を正解とみなした場合,自己組織化マップを用いた検索結果の$R$適合率は0.68であった.したがって,上位30件までの検索では32\,\%の近似誤差が生じていることになる.しかし,近似誤差があるにもかかわらず,MEDLINEの適合情報に対する評価では,通常のベクトル空間モデルよりも適合率が高くなっている.潜在的意味インデキシング(latentsemanticindexing;LSI)\cite{Berry99}などによる検索では,次元数を削減すると検索精度が逆に向上することなどから,高次元空間そのものにおける検索が質的に良い検索結果を与えるとは限らない.我々の提案した手法の近似の程度と検索精度の関係等を調査することは,今後の課題である. \section{おわりに} 本稿では,1次元自己組織化マップを用いた高次元データの近似的な最近傍検索手法を提案した.提案した手法では,自己組織化マップを用いて,高次元空間での近傍関係をできる限り保ちつつ,高次元データを1次元マップ上に配置することにより,最近傍検索の探索範囲を大きく削減することができる.また,本手法では,実際に距離計算の行なわれるデータは,2次記憶上の連続した領域に格納できるため,2次記憶へのアクセスを効率的に行なうことができるという大きな利点を持っている.このため,大規模なデータ集合に対しても,きわめて高速な最近傍検索を行なうことが可能である.従来のSR-tree等の正確な最近傍検索では,高次元の場合に線形探索に近い計算量が必要となってしまうという問題点があるため,現実的,応用的な場面においては,本手法のような高速な近似的最近傍検索のほうが望ましいと考えられる.\acknowledgment本研究の実験の一部に協力頂いた修士課程1年の原一眞君に感謝する.また,本研究の一部は,財団法人放送文化基金の援助によった.\bibliographystyle{jnlpbbl}\bibliography{433atari}\begin{biography}\biotitle{略歴}\bioauthor{北研二}{昭和56年,早稲田大学理工学部数学科卒業.昭和58年,沖電気工業(株)入社.昭和62年,ATR自動翻訳電話研究所出向.平成4年,徳島大学工学部講師.平成5年,同助教授.平成12年,同教授.平成14年,同大学高度情報化基盤センター教授.工学博士.自然言語処理,情報検索等の研究に従事.平成6年日本音響学会技術開発賞受賞.著書『確率的言語モデル』(東京大学出版会),『情報検索アルゴリズム』(共著,共立出版)など.}\bioauthor{獅々堀正幹}{平成3年,徳島大学工学部情報工学科卒業.平成5年,同大学院博士前期課程修了.平成7年,同大学院博士後期課程退学.同年,同大学工学部知能情報工学科助手.現在,同大学工学部知能情報工学科助教授.博士(工学).情報検索,文書処理,自然言語処理の研究に従事.情報処理学会第45回全国大会奨励賞受賞.著書『情報検索アルゴリズム』(共著,共立出版).電子情報通信学会,情報処理学会会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V10N01-02
\section{はじめに} 自動用語抽出は専門分野のコーパスから専門用語を自動的に抽出する技術として位置付けられる.従来,専門用語の抽出は専門家の人手によらねばならず,大変な人手と時間がかかるためup-to-dateな用語辞書が作れないという問題があった.それを自動化することは意義深いことである.専門用語の多くは複合語,とりわけ複合名詞であることが多い.よって,本論文では名詞(単名詞と複合名詞)を対象として専門用語抽出について検討する.筆者らが専門分野の技術マニュアル文書を解析した経験では多数を占める複合名詞の専門用語は少数の基本的かつこれ以上分割不可能な名詞(これを以後,単名詞と呼ぶ)を組み合わせて形成されている.この状況では当然,複合名詞とその要素である単名詞の関係に着目することになる.専門用語のもうひとつの重要な性質として\cite{KageuraUmino96}によれば,ターム性があげられる.ターム性とは,ある言語的単位の持つ分野固有の概念への関連性の強さである.当然,ターム性は専門文書を書いた専門家の概念に直結していると考えられる.したがって,ターム性をできるだけ直接的に反映する用語抽出法が望まれる.これらの状況を考慮すると,以下のような理由により複合名詞の構造はターム性と深く関係してくることが分かる.第一に,ターム性は通常tf$\times$idfのような統計量で近似されるが,tf$\times$idfといえども表層表現のコーパスでの現われ方を利用した近似表現に過ぎない.やはり書き手の持っている概念を直接には表していない.第二に,単名詞Nが対象分野の重要な概念を表しているなら,書き手はNを頻繁に単独で使うのみならず,新規な概念を表す表現としてNを含む複合名詞を作りだすことも多い.このような理由により,複合名詞と単名詞の関係を利用する用語抽出法の検討が重要であることが理解できる.この方向での初期の研究に\cite{Enguehard95}があり,英語,フランス語のコーパスから用語抽出を試みているが,テストコレクションを用いた精密な評価は報告されていない.中川ら\cite{NakagawaMori98}は,この関係についてのより形式的な扱いを試みている.そこでは,単名詞の前あるいは後に連接して複合名詞を形成する単名詞の種類数を使った複合名詞の重要度スコア付けを提案していた.この考え方自体は\cite{Fung95}が非並行2言語コーパスから対訳を抽出するとき用いたcontextheterogeneityにも共通する.その後,中川らはこのスコア付け方法による用語抽出システムによってNTCIR1のTMREC(用語抽出)タスクに参加し良好な結果を出している.彼らの方法はある単名詞に連接して複合名詞を構成する単名詞の統計的分布を利用する方法の一実現例である.しかし,彼らの方法では頻度情報を利用していない.上記のように複合名詞とそれを構成する単名詞の関係がターム性を捉えるときに重要な要因であるとしても,\cite{NakagawaMori98}が焦点を当てた単名詞に連接する単名詞の種類数だけではなく,彼らが無視したある単名詞に連接する単名詞の頻度の点からも用語抽出の性能を解析してみる必要があると考える.本論文ではこの点を中心に論じ,また複合名詞が独立に,すなわち他の複合名詞の一部としてではない形で,出現する場合の頻度も考慮した場合の用語抽出について論ずる.さらに,有力な用語抽出法であるC-valueによる方法\cite{FrantziAnaniadou96}や語頻度(tf)に基づく方法との比較を通じて,提案する方法により抽出される用語の性質などを調べる.以下,2節では用語抽出技術の背景,3節では単名詞の連接統計情報を一般化した枠組,4節ではNTCIR1TMRECのテストコレクションを用いての実験と評価について述べる. \section{用語抽出技術の背景} 単言語コーパスからの用語抽出には三つのフェーズがある.第一フェーズは,用語の候補の抽出である.第二フェーズは第一フェーズで抽出された候補に対する用語としての適切さを表すスコア付けないし順位付けである.この後に順位付けられた用語候補集合の中から適切な数の候補を用語として認定するという第三のフェーズがある.しかし,第三フェーズは認定したい用語数の設定など外部的要因に依存するところもあるので,本論文ではその技術的詳細に立ち入らないことにする.\subsection{候補抽出}西欧の言語と異なって空白のような明確な語境界がない日本語や中国語では,情報検索に使う索引語として文字N-gramも考えられる\cite{FujiiCroft93,Lam97}.しかし,専門用語という観点に立てばやはり人間に理解できる言語単位でなければならず,結果として単語を候補にせざるをえない.また,NTCIR1TMRECで使用されたテストコレクションでも単語を対象にしている.さて,単語も詳細に見ると単名詞と複合語に分かれる.関連する過去の研究では単語よりは複雑な構造である連語(Collocation)や名詞句の抽出を目標にする研究\cite{SmadjaMcKeown90,Smadja93,FrantziAnaniadou96,HisamitsuNitta96,Shimohata97}が多い.連語や複合語のような言語単位を対象にする場合には,それらはより基本的な構造から構成されることを仮定しなければならない.ここでは,単名詞を最も基本的な要素とする.用語候補が単名詞のどのような文法的構造によって構成されるかという問題も多く研究されてきた\cite{Anania94}.どのような構造を抽出するにせよ,まずコーパスの各文から形態素解析によって単語を切り出す必要がある.形態素解析の結果としては各単語に品詞タグが付けられる.よって,複合名詞を抽出するなら,連続する名詞を抽出すればよい.これまでの研究では,名詞句,複合名詞\cite{HisamitsuNitta96,Hisamitsu00,NakagawaMori98},連語\cite{SmadjaMcKeown90,daille94,FrantziAnaniadou96,Shimohata97}などを抽出することが試みられた.\subsection{スコア付け}前節で述べた用語候補抽出の後,用語候補に用語としての重要度を反映するスコア付けを行う.当然ながら,用語としての重要度はターム性を直接反映すると考えてよく,それゆえにスコアはターム性を反映したものが望ましい.しかし,ターム性というのは前にも述べたように直接計算することが難しい.このため,tf$\times$idfのような用語候補のコーパスでの頻度統計で近似することがひとつの方法である.一方,\cite{KageuraUmino96}は用語の持つべきもうひとつの重要な性質,ユニット性を提案している.ユニット性とは,ある言語単位(例えば,連語,複合語など)がコーパス中で安定して使用される度合いを表す.これを利用するスコアも用語の重要度を表す有力な方法である.例えば,Ananiadouらが\cite{FrantziAnaniadou96,Ananiadou99}で提案しているC-valueは入れ子構造を持つコロケーションからユニット性の高い要素に高いスコアを付ける有力な方法である.\cite{Hisamitsu00}は,注目する用語と共起する単語の分布が全単語分布に比べてどのくらい偏っているかをもってターム性を計ろうとしている.\cite{Kageura00}は日英2言語コーパスを用い,日本語の用語の対訳が英語のコーパスの対応する部分にも共起することがターム性を表わすというアイデアに基づいた用語抽出法を提案している.同様の考えは\cite{daille94}にも見られる.これらの研究は,用語の現れ方や使用統計に基礎をおくものである.一方,\cite{NakagawaMori98}は,単名詞と複合語の関係という用語の構造に着目してターム性を表わそうとしている.本論文の次節以降で我々は,ターム性を直接的に捉えようとする\cite{NakagawaMori98}に対して,連接する単名詞の種類数だけではなく,頻度も考慮した場合を提案し実験的比較を行った. \section{単名詞の連接統計情報の一般化} \subsection{単名詞の連接}2節の用語抽出技術の背景で述べた多くの研究では実質的に用語の対象にしているのは名詞である.実際,専門用語の辞典に収録されている用語も大多数は名詞である.例えば,\cite{densi,computer-sci,archi}などでは収録されているのはほとんどが名詞である.そこで本研究では対象とする用語を単名詞と,その単名詞のみで構成される複合名詞とした.実際,用語の大多数は\cite{densi,computer-sci,archi}に見られるように複合名詞である.しかし,これらの複合名詞の要素となる単名詞はあまり多数にのぼるわけではない.この考え方から,単名詞に連接して複合名詞を構成する単名詞の異なり数に着目するというアイデア\cite{NakagawaMori98}が生まれる.しかし,連接する単名詞の異なり数だけではなく,頻度など他の要素も考慮することは重要である.連接する単名詞のどのような性質に着目したときに性能の良いスコアになるかを調べるのが本論文の課題のひとつである.まず,特定のコーパスを想定したとき,単名詞$N$が連接する状況すなわち単名詞バイグラムを一般的に図\ref{fig:1}のように表わす.\begin{figure}[htbp]\hspace*{\fill}\begin{tabular}{ll}$[LN_1\hspace{1em}N](\#L_1)$&$[N\hspace{1em}RN_1](\#R_1)$\\$[LN_2\hspace{1em}N](\#L_2)$&$[N\hspace{1em}RN_2](\#R_2)$\\:&:\\$[LN_n\hspace{1em}N](\#L_n)$&$[N\hspace{1em}RN_m](\#R_m)$\\\end{tabular}\hspace*{\fill}\caption{単名詞$N$を含む単名詞バイグラムと左右連接単名詞の頻度}\label{fig:1}\end{figure}図\ref{fig:1}において,$LN_i$($i=1,...,n$)は,単名詞バイグラム$[LN_i\hspace{1em}N]$において$N$の左方に連接する単名詞($n$種類)を表わし,単名詞バイグラム$[N\hspace{1em}RN_i]$において$RN_i$($i=1,...,m$)は$N$の右方に連接する単名詞($m$種類)を表わす.また,()内の$\#L_i$($i=1,...,n$)は$N$の左方に連接する単名詞$LN_i$の頻度を表わし,$\#R_i$($i=1,...,m$)は$N$の右方に連接する単名詞$RN_i$の頻度を表わす.もちろん,単名詞バイグラム$[LN_i\hspace{1em}N]$や$[N\hspace{1em}RN_j]$はより長い複合名詞の一部分であってもよい.以下に``トライグラム''という単名詞を含む単語バイグラムがコーパスから得られた場合,そこから連接頻度を求める簡単な作例を示す.\begin{quote}{\bf例1:単名詞``トライグラム''を含む単語バイグラムの抽出例}\\トライグラム統計,トライグラム,単語トライグラム,クラストライグラム,単語トライグラム,トライグラム,トライグラム抽出,単語トライグラム統計,トライグラム,文字トライグラム\end{quote}この例を図\ref{fig:1}に示す形式で表記すると図\ref{fig:2}のようになる.\begin{figure}[htbp]\hspace*{\fill}\begin{tabular}{ll}$[$単語トライグラム$](3)$&$[$トライグラム統計$](2)$\\$[$クラストライグラム$](1)$&$[$トライグラム抽出$](1)$\\$[$文字トライグラム$](1)$&\\\end{tabular}\hspace*{\fill}\caption{単名詞``トライグラム''を含む単語バイグラムと左右連接単名詞の頻度の例}\label{fig:2}\end{figure}\subsection{単名詞バイグラムを用いた単名詞のスコア付け}\subsubsection{\bf連接種類数$\#LDN(N),\#RDN(N)$}図1において単名詞バイグラムで単名詞$N$の左方にくる単名詞の種類の異なり数,すなわち$n$を以後$\#LDN(N)$と書く.同様に,単名詞バイグラムで単名詞$N$の右方にくる単名詞の種類の異なり数,すなわち$m$を以後$\#RDN(N)$と書く.図\ref{fig:2}の例では,$\#LDN(トライグラム)=3$,$\#RDN(トライグラム)=2$である.\cite{NakagawaMori98}では,この$\#LDN(N),\#RDN(N)$を単名詞$N$のスコアにしている.$\#LDN(N),\#RDN(N)$は頻度に影響されないので,コーパスが出現する複合名詞の用語をカバーする程度に大きくなれば,もはや一定の値になる.$\#LDN(N),\#RDN(N)$は$N$が固有の分野においてどれほどたくさんの概念(複合名詞で表される)を作るときに使われるかを表す.つまり,分野における基礎概念である度合を表す.よって,$N$の持つ概念としての重要さを直接表現しているので,ターム性の重要な一面を計っているといえよう.\subsubsection{\bf連接頻度$\#LN(N),\#RN(N)$}単名詞バイグラムを特徴付ける要因には,連接単名詞の異なり数の他に頻度情報$\#L_i,\#R_j$がある.この二つの要因を組み合わせ方としては種々の方法が考えられるが,簡単なのは異なり単名詞毎の頻度の総和をとる方法であり,次式で表わされる.ただし,記法は図\ref{fig:1}の記号を用いる.\begin{eqnarray}\#LN(N)&=&\sum_{i=1}^{n}(\#L_i)\label{form1}\\\#RN(N)&=&\sum_{i=1}^{m}(\#R_i)\label{form2}\end{eqnarray}$\#LN(N),\#RN(N)$は,それぞれ$N$の左方,右方に連接して複合名詞を形成する全単名詞の頻度である.図2の例だと,$\#LN(トライグラム)=5$,$\#RN(トライグラム)=3$である.\subsection{複合名詞のスコア付け}以上のような方法で単名詞の左右に連接する単語の種類数あるいは頻度を用いたスコアを定義した.これら左右のスコアを組み合わせて単名詞そのもののスコアを定義する必要がある.一方,我々が注目している用語は単名詞だけではなく,複数の単名詞から生成される複合名詞も含まれる.先に述べたように専門用語ではむしろ複合名詞が多いので,複合名詞のスコアを定義することも必要である.複合名詞のスコア付けには,ふたつの考え方がある.第一の考え方は,複合名詞のスコアはその構成単名詞数すなわち長さに依存するというものである.この考え方に従えば,長い複合名詞ほど高いスコアがつくことが自然である.第二の考え方は,スコアは複合名詞の長さに依存しないというものである.この考え方に従えば,長さに対して依存しないような正規化が必要になる.専門用語に複合名詞が多いことは認めるにしても,長い程,あるいは逆に短い程,重要であるという根拠は今のところない.よって,我々は第二の考え方を採る.まず,前節までで導入した2つの単名詞のスコア関数を抽象化し,単名詞$N$の左方のスコア関数を$FL(N)$,右方のスコア関数を$FR(N)$と書くことにする.単名詞$N_1,N_2,...,N_L$がこの順で連接した複合名詞を$CN$とする.$CN$のスコアとして前節で定義した各単名詞の左右のスコアの平均をとれば,我々の採った第二の考えに沿った,$CN$の長さに依存しないスコアを定義できる.ここでは,相乗平均を採用する.ただし,$CN$の構成要素の単名詞のスコアが一つでも0になると$CN$のスコアが0になってしまうので,これを避けるために次式で$CN$のスコア$LR(CN)$を定義する.\begin{eqnarray}LR(CN)&=&(\prod_{i=1}^L(FL(N_i)+1)(FR(N_i)+1))^{\frac{1}{2L}}\label{form5}\end{eqnarray}例えば,図2の場合,連接頻度をスコアとすれば,$LR(トライグラム)=\sqrt{(5+1)(3+1)}\simeq4.90$である.式(\ref{form5})によれば,複合名詞と同時に単名詞のスコア付けもできている.(\ref{form5})で$CN$の長さ$L$の逆数のべき乗となっているので,$LR(CN)$は$CN$の長さに依存しない.したがって,単名詞も複合名詞も同じ基準でそのスコアを比較できる.なお,ここで定義した相乗平均の他に相加平均を用いる方法もあるが,以下では予備実験において若干性能の良かった相乗平均のみについて議論する.\subsection{候補語の出現頻度を考慮した重み付け}\label{sec35}これまでに述べてきたのは,連接種類数にせよ,連接頻度にせよ,(\ref{form5})の$LR(CN)$に関しては,抽出された用語候補集合内での統計的性質についての議論であった.一方で,用語候補が純粋にコーパス中で出現した頻度という別種の情報が存在する.つまり,前者が用語候補集合における構造の情報,後者が,コーパスにおける個別用語候補の統計的性質であり,両者は別種の情報であるといえる.したがって,この両者を組み合わせることによってスコア付け方法の性能改善が期待できる.そこで,用語候補である単名詞あるいは複合名詞が単独で出現した頻度を考慮すべく,(\ref{form5})を補正して,次のように$FLR(CN)$を定義する.\begin{eqnarray}FLR(CN)&=&f(CN)\timesLR(CN)\end{eqnarray}$f(CN)$は候補語$CN$が単独で出現した頻度である.ここで単独で出現した用語というのは,他の複合名詞に包含されることなく出現した用語のことを指す.例えば,例1(図\ref{fig:2})の場合,``トライグラム''は単独で3回出現しているので,連接頻度をスコアとすれば,$FLR(トライグラム)=3\times\sqrt{(5+1)(3+1)}\simeq14.70$となる.\subsection{MC-value}\label{sec36}比較のために,単名詞バイグラムによらない用語スコア付けとしてC-value\cite{FrantziAnaniadou96}を考える.C-valueは次式で定義される.\begin{eqnarray}\mbox{C-value}(CN)&=&(length(CN)-1)\times(n(CN)-\frac{t(CN)}{c(CN)})\end{eqnarray}ここで,\begin{quote}\begin{tabular}{ll}$CN$:&複合名詞\footnotemark\\$length(CN)$:&$CN$の長さ(構成単名詞数)\\$n(CN)$:&コーパスにおける$CN$の出現回数\\$t(CN)$:&$CN$を含むより長い複合名詞の出現回数\\$c(CN)$:&$CN$を含むより長い複合名詞の異なり数\end{tabular}\end{quote}\footnotetext{\cite{FrantziAnaniadou96}ではnestedcollocationと呼ばれる.}である.ところがこの式では,$length(CN)=1$すなわち$CN$が単名詞の場合C-valueが0になってしまい,適切なスコアにならない.C-value以前の類似の方法の\cite{kita94}では,複合語を認識するための計算コストを用語の重要度評価に用いていた.C-valueにおいても,このような背景から,一度複合名詞が切り出された後は,その構成要素の名詞数に比例する認識コストが重要度になる.ただし,複合名詞全体がすでに認識されている場合,名詞を順に認識していけば,最後の名詞を認識する手間は必要なくなる.したがって,(5)では$(length(CN)-1)$となる.しかしながら,人間が言葉を認識する上では全ての構成要素の単名詞を認識していると考えられる.そこで,我々は\cite{FrantziAnaniadou96}の定義を次のように変更した.また,変更した定義を以後,ModifiedC-value略してMC-valueと呼ぶ.\begin{eqnarray}\mbox{MC-value}(CN)=length(CN)\times(n(CN)-\frac{t(CN)}{c(CN)})\end{eqnarray}例1(図\ref{fig:2})の場合,$\mbox{MC-value}(トライグラム)=(7-7/5)=5.6$である. \section{実験および評価} \subsection{実験環境および方法}本節では,まず実験の主な環境となるテストコレクションについて述べる.我々が用いたのはNTCIR-1のTMRECタスクで利用されたテストコレクションである\cite{kageura99}.1999年に行われたNTCIR-1のタスクのひとつであったTMRECでは,日本語のコーパスを配布して用語抽出を行う課題が行われた.主催者側が人手で準備した用語に対して参加システムが抽出した用語の一致する度合いを評価した.ただし,これらは何らかの客観的定量的基準に基づいて人手で選択されたものではなく,抽出者の直観によるものである.翻って,ある学問分野における正しい用語とは多くの専門家の時間をかけた合意の産物であり,簡単に定義できない.さりとて,この問題に深入りしても当面大きな成果が得られる保証もないので,上記の評価方法を用いる.なお,以下ではNTCIR1で準備された用語を簡単のため正解用語と呼ぶことにする.さて,日本語コーパスは,NACSIS学術会議データベースから収集された1,870の抄録からなる.対象の分野は,情報処理である.主催者側で準備した正解用語は8,834語であり,単名詞と複合名詞が多く含まれる.参加システム側で形態素解析を行うタスクと,主催者側で予め行って形態素解析済みコーパスを配布して利用するタスクがあった.我々は,形態素解析済みで品詞タグ付きのコーパスを利用した.我々は,この品詞タグ付きのコーパスから用語候補として連続する名詞を抽出した.ただし,``的''と``性''で終了する形容詞は分野固有の複合語の用語に含まれることが多いと考え,例外として単名詞扱いしている.この結果,用語候補数は16,708になった.これらを3節に述べた諸方法でスコア付けし,スコアの降順に整列した.こうして作られた用語候補を上位から$PN$個取り出した場合について,NTCIR-1TMRECテストコレクションとして供給された正解用語と比較し,抽出正解用語数,適合率,再現率,F-値を計算し評価する.これらは次式で定義される.\begin{eqnarray}抽出正解用語数(PN)&=&上位PN候補中の正解用語数\\適合率(PN)&=&\frac{抽出正解用語数(PN)}{PN}\\再現率(PN)&=&\frac{抽出正解用語数(PN)}{\mbox{NTCIR-1TMREC}テストコレクション中の全正解用語数}\\\mbox{F-値}(PN)&=&\frac{2\times再現率(PN)\times適合率(PN)}{再現率(PN)+適合率(PN)}\end{eqnarray}\subsection{各方法の比較実験および考察}以下の各々の手法によりスコア付けをし順位を求めた場合について,$PN$が3,000語までの抽出結果を示し,考察を行なう.\begin{enumerate}\item連接種類数$\#LDN(N),\#RDN(N)$を用いた$LR$法(以下,「連接種類$LR$法」と呼ぶ.)\item連接頻度$\#LN(N),\#RN(N)$を用いた$LR$法(以下,「連接頻度$LR$法」と呼ぶ.)\item$LR$(連接頻度)法に候補語の単独出現数を考慮した$FLR$法\itemMC-value法\item単名詞,複合名詞の単独での出現頻度をスコアとする語頻度法\end{enumerate}NTCIR1のように専門用語が高い密度で現われるコーパスでは語頻度法が有効に機能すると考えられるので,比較対象の一つに加えた.もしも,語頻度法のような簡単な方法が高い精度を示すなら,ここまで検討してきた1から4のような複雑な方法は必要がないからである.\begin{figure}[htbp]\hspace*{\fill}\epsfile{file=LRDN.eps,scale=0.47}\hspace*{\fill}\caption{連接種類LR法で抽出した候補語上位3,000語における完全一致数と部分一致数}\label{fig:LR}\end{figure}\begin{figure}[htbp]\hspace*{\fill}\epsfile{file=seikai.eps,scale=0.47}\hspace*{\fill}\caption{語頻度法,連接頻度LR法,MC-value法,FLR法における完全一致数の変化\\(連接種類LR法との差をプロット)}\label{fig:LR1}\vspace*{10ex}\hspace*{\fill}\epsfile{file=bubun.eps,scale=0.47}\hspace*{\fill}\caption{語頻度法,連接頻度LR法,MC-value法,FLR法における部分一致数の変化\\(連接種類LR法との差をプロット)}\label{fig:LR2}\end{figure}まず,図\ref{fig:LR}に連接種類$LR$法によって抽出された候補語3,000語までの場合について,正解用語との完全一致用語数と,正解用語を含んだより長い候補語も数えた,部分一致用語数を示す.例えば,正解用語に「エキスパートシステム」という用語があって,候補語に「エキスパートシステム構築支援」というような用語が抽出された場合,これは部分一致用語数として数えられる.正解用語を含んだより長い候補語も正解とすると3,000語まではかなりの部分をカバーしていることがわかる.そこで,この連接種類$LR$法を基準として,語頻度法,連接頻度$LR$法,MC-value法,および,$FLR$法を比較する.図\ref{fig:LR1}に完全一致用語数の変化を示し,図\ref{fig:LR2}に部分一致用語数の変化を示す.いずれも,各手法の一致用語数から,基準となる連接種類$LR$法の一致用語数を減じた数を記している.例えば,図中「$FLR-$種類」と示されているプロットは,$FLR$法により求めた一致用語数と連接種類$LR$法により求めたものの差の変化を示すものである.まず,完全一致用語数では「連接頻度$-$種類」のプロットが0よりもほぼ上にあることから,連接種類数を手掛かりとするよりも連接頻度を用いる手法のほうが若干優れていることがわかる.一方,$FLR$法,MC-value法,語頻度法は,いずれも,連接頻度$LR$法,連接種類$LR$法を上回る結果となった.さらに,1,400語までは$FLR$法が最も優れた結果を示し,それ以降はMC-valueがこれを上回った.また,部分一致用語数では連接頻度$LR$法が最も優れた結果を示した.しかしながら,連接種類$LR$法と$FLR$法は,共に大差はないが,語頻度法ならびにMC-value法はこれらを大きく下回る結果となった.これらを見てもわかるように,我々の提案する手法では完全に間違った候補語は抽出されにくいのに対して,語頻度法やMC-value法は正解用語とまったく関係のない候補語も抽出される傾向にあるといえる.さらに,候補語3,000語,6,000語,9,000語,12,000語,15,000語の各々について,抽出正解用語数,再現率,適合率,F-値を求めた.表\ref{table1}に抽出正解用語数を,表\ref{table2}に再現率,適合率,F-値を示す.\begin{table}[htbp]\caption{各方法により抽出された完全一致用語数}\label{table1}\begin{center}\begin{tabular}{|r|r|r|r|r|r|}\hline$PN$&連接種類$LR$&連接頻度$LR$&$FLR$&語頻度&MC-value\\\hline3,000&1746&1784&1970&2034&2111\\\hline6,000&3270&3286&3456&3740&3671\\\hline9,000&4713&4744&4866&4834&4930\\\hline12,000&5974&6009&6090&5914&6046\\\hline15,000&7036&7042&7081&6955&7068\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{各方法により抽出された完全一致用語における再現率,適合率,F-値}\label{table2}\begin{center}\begin{tabular}{|r|r|r|r|r|r|r|}\hline$PN$&連接種類$LR$&連接頻度$LR$&$FLR$&語頻度&MC-value\\\hline3,000&.197&.202&.223&.230&.239\\&.582&.595&.657&.678&.704\\&.295&.301&.333&.343&.356\\\hline6,000&.370&.372&.391&.423&.415\\&.545&.548&.576&.623&.612\\&.441&.443&.466&.504&.496\\\hline9,000&.533&.536&.550&.547&.557\\&.524&.527&.540&.537&.548\\&.529&.532&.545&.542&.553\\\hline12,000&.676&.680&.689&.669&.684\\&.498&.501&.508&.493&.504\\&.573&.577&.584&.567&.580\\\hline15,000&.796&.796&.800&.786&.799\\&.469&.469&.472&.464&.471\\&.590&.591&.594&.583&.593\\\hline\end{tabular}\\表の各セルの内容は上段が再現率,中段が適合率,下段がF-値を表わす.\end{center}\end{table}この結果を見ると,まず単名詞バイグラムによる方法の中では,$\#LN(N),\#RN(N)$に候補語の独立出現数を補正した$FLR$のスコアが一番性能がよい.語頻度法が6,000語の場合には一番性能が良く,MC-valueは抽出用語数が3,000語,および9,000語の場合には全ての方法の中で最も性能がよい.しかし,抽出用語数が増えるにつれて$FLR$との差は小さくなり,上位12,000語および15,000語を抽出した場合には$FLR$が最高の性能を示した.単純な語頻度法は6,000語付近で最高の性能を示すが,それ以外では$FLR$あるいはMC-valueに劣ることが実験的に判明した.さて,このような傾向から見てどの方法が優れているかについて考えてみる.専門用語辞書をみると,\cite{densi,computer-sci,archi}では,各々10,000語から40,000語を収録している.よって,15,000語という多数の抽出で高い性能を示した$FLR$が有望な方法である.一方,インターネット上の情報通信用語辞典e-Words\cite{e-words}では,2002年5月時点で約3,200語を収録している.この領域ではMC-valueが最も高い性能であった.目的とする抽出語数が決まれば,採用すべき方法が決まるようにも見えるが,実際は既に述べたようにNTCIR1で主催者が用意した用語の性質にも定量的根拠が薄いので早急な結論は出しにくい.いろいろな分野への適用を通じてどの方法が望ましいかが見えてくると考える.\subsection{抽出用語の性質}さて,これまでは抽出用語の質をそのまま候補語中の正解用語数で議論してきた.しかし,テストコレクションの正解が実用的にどのくらい有効な指標になっているかは議論の余地がある.そこで抽出用語に対する直接的な評価を以下に試みる.まず,用語の長さは抽出用語の品質に密接に関係するのでこれを調べる.語頻度法,連接頻度$LR$法,$FLR$法,MC-value法の4つの手法における上位から並べた正解用語の長さを図\ref{fig:gotyou}に示す.ただし,長さは複合名詞を構成する単名詞数で表わした.なお,正解用語の平均語長は2.56である.\begin{figure}[htbp]\hspace*{\fill}\epsfile{file=gotyou.eps,scale=0.47}\caption{各手法における100語毎の平均語長}\label{fig:gotyou}\hspace*{\fill}\end{figure}図\ref{fig:gotyou}を見ると,候補語上位1,400語付近まででMC-value法は連接頻度$LR$法や$FLR$法に比べて平均語長が短い傾向にある.すなわちMC-value法では語長の短い語が高いスコアを得る傾向にある.ところが,上位1,400語までは$FLR$が最も多くの正解用語を抽出している.上位1,400語以降,MC-valueは語長の長い語も抽出するようになるにつれて,より多くの正解用語を抽出するようになった.連接頻度$LR$,$FLR$の手法は1,000語付近まではFLRのほうが短い語を抽出しているが,それ以降は同程度の長さの語を抽出し,比較的安定している.語頻度法は安定して短い用語を抽出する傾向にある.この理由は後で述べる.次に具体的な抽出用語例を示そう.全てを示すことは紙面の関係でできないので,最上位の抽出用語を示して各スコア付けの特徴について考えてみる.\begin{table}[htbp]\hsize\textwidth\caption{スコアの最上位の15用語候補}\begin{center}\begin{tabular}{|l|c||l|c||l|c||l|c|}\hline連接種類$LR$&&$FLR$&&語頻度&&MC-value&\\\hline知識&&知識&&システム&&学習者&\\学習知識&&システム&&知識&&問題解決&\\学習&&問題&&研究&$\times$&システム&\\言語的知識&&学習&&本稿&$\times$&知識&\\知識システム&&モデル&&手法&$\times$&研究&$\times$\\学習システム&&情報&&問題&&本稿&$\times$\\問題知識&$\times$&問題解決&&論文&$\times$&手法&$\times$\\学習問題&&設計&&方法&$\times$&問題&\\言語的&&知識ベース&&学習者&&知識ベース&\\システム&&推論&&情報&&論文&$\times$\\問題&&支援&$\times$&モデル&&方法&$\times$\\論理的知識&&知識表現&&我々&$\times$&支援システム&\\学習支援システム&&エージェント&&ユーザ&&計算機&\\設計知識&&学習者モデル&&機能&$\times$&情報&\\学習問題解決システム&&構造&$\times$&対象&&モデル&\\\hline\end{tabular}\\無印:正解用語,$\times$:不正解用語\end{center}\label{table:15}\end{table}表\ref{table:15}に各手法におけるスコアの最上位15候補を示す.この結果を見ると,明らかに連接種類$LR$によるスコア付の上位候補は複合名詞が多い.一方,$FLR$,語頻度,MC-valueの各手法によるスコア付けの上位候補には単名詞が多い.$FLR$では,出現頻度の高い単名詞を優遇する補正をしているし,MC-valueでも単名詞の頻度がその単名詞を含む複合名詞の頻度を強く反映した構造になっているから,この結果は偶然ではない.MC-valueの場合``研究,論文,方法,手法''などという分野の用語でない名詞が多く抽出されているが,これも大量かつ多種類の複合名詞に含まれるであろうこと,およびMC-valueが多数かつ多種類の複合名詞に含まれる単名詞のスコアを高くつけることから得られる帰結である.一方,$FLR$法では,連接頻度を用いることにより,これらの単純に頻度が高いだけの名詞をスコアを低くする効果がある点が有利である.さて,図\ref{fig:gotyou}で見たように語頻度法が短い用語を抽出する傾向についてであるが,表\ref{table:15}を見れば,「我々」「方法」のような一般に使用される単名詞を抽出している.このような一般的な単語は高い頻度で現われるということを示しており,同時に必ずしも専門用語としては重要でないことを考えれば,語頻度法では専門用語を選択的に抽出する能力には限界があると言わざるをえない.\subsection{NTCIR-1TMRECの結果との比較}ここまで述べてきたスコア付け方法の客観的評価を行うために,NTCIR-1TMRECタスクで上位の成績を残したチームとの比較を行う.なお,NTCIR-1にはC-valueによるスコア付けをするチームも参加しているが,NTCIR-1の参加規定によりどのチームかは不明である.しかし,後で述べるように本論文で提案したC-valueを修正したMC-valueが良好な結果を示していることから,我々のC-valueの修正法には若干の独自性が認められると考えられる.NTCIR-1TMRECの上位2チームの手法を以後T1,T2と呼ぶ.T1,T2,ならびに,本論文で性能の良かった$FLR$およびMC-valueの各スコア付け方法において,上位から3,000語までの範囲で1,000語毎に求めた適合率を表\ref{table:pre}ならびに図\ref{fig:Prec1k}に示す.また,同様に上位から15,000語までの範囲で3,000語毎に求めた適合率を図\ref{fig:Prec3k}に示す.\begin{table}[htbp]\caption{NTCIR-1TMREC参加上位2チームと$FLR$,MC-valueの比較(1000語毎の適合率)}\begin{center}\begin{tabular}{|r|r|r|r|r|}\hline$PN$&$FLR$&MC-value&T1&T2\\\hline1から&.773&.754&.705&.744\\1,000&&&&\\\hline1,001から&.635&.707&.607&.584\\2,000&&&&\\\hline2,001から&.562&.640&.618&.518\\3,000&&&&\\\hline\end{tabular}\end{center}\label{table:pre}\end{table}\begin{figure}[htbp]\hspace*{\fill}\epsfile{file=Prec1k.eps,scale=0.47}\hspace*{\fill}\caption{NTCIR1TMRECタスク参加上位2チームとFLR,MC-value方式の比較(1000語毎の適合率)}\label{fig:Prec1k}\end{figure}\begin{figure}[htbp]\hspace*{\fill}\epsfile{file=Prec3k.eps,scale=0.47}\hspace*{\fill}\caption{NTCIR1TMRECタスク参加上位2チームとFLR,MC-value方式の比較(3000語毎の適合率)}\label{fig:Prec3k}\end{figure}表\ref{table:pre}ならびに図\ref{fig:Prec1k}によれば,スコア付け1001〜2000,2001〜3000語の部分ではMC-valueが他を上回ったが,1〜1000語部分での抽出精度は我々の提案した$FLR$によるスコア付けが,最も優れた結果を示した.また,図\ref{fig:Prec3k}に示すとおり,3,000語以降については,候補語数が多くなるにつれて,手法T1,T2は適合率を落とすが,$FLR$法とMC-value法の抽出精度の下がり方はなだらかであった.このことは$FLR$法やMC-value法が安定して正解用語を抽出していることを示している.最終的に$FLR$は候補語上位16000語のうち,7412語が正解用語であった.この結果は他の研究と比較しても高い結果といえるだろう.NTCIRの中のチームの候補語上位16,000語での抽出結果では,$T1$の正解用語数6536語が最高である.また,最も多く正解用語を抽出したチームは$T2$で,正解用語数7944語であるがこれは候補語上位23270語からマッチしたものであり,かなり低い適合率である.我々は,名詞の連続だけを取り出したが,正解用語の中には形容詞と名詞の連接や,助詞``の''によってつながった用語もある.これらを広く抽出すれば再現率は高まるが,上位のスコアの抽出後においてすら非正解用語を多数抽出してしまい,あまり好ましくない. \section{おわりに} 本論文では,専門分野コーパスからの専門用語の抽出法について検討した.まず,用語抽出技術の背景を述べ,次に本論文の核心である単名詞$N$に連接する単名詞の頻度の統計量を利用する$N$のスコア付け方法を提案した.これらスコア付け方法を複合名詞のスコア付けに拡張した.比較対象としては,既存のC-valueを修正したMC-value法ならびに語頻度法を検討した.これらのスコア付け法をNTCIR-1TMRECタスクのテストコレクションに適用して結果を評価した.その結果,スコア上位の候補,および12,000語以上を抽出する場合においては我々の提案する$FLR$法の性能が優れていることがわかった.一方,1,500〜10,000語程度の専門語を抽出したいのであるなら,MC-value法のほうが優れた結果を示すが,正解用語を含む長めの語でよいのであれば,$FLR$法の出力は正解用語の大部分をカバーすることができることもわかった.今後の課題としては,より多様な情報,例えば文脈情報を利用して用語抽出の性能の向上を計ることが重要である.しかし,一方で,専門分野の用語として真に欲しいのはどのような性質を持つ用語なのかを定式化するという根本的問題も考察していく必要があろう.このような考察は哲学的なものというよりは,実際のコーパスの統計処理を用いた実験的なものでなければ実用性に乏しい.その意味で,このような観点から設計した用語抽出タスクを企画することも望まれる時期にきているのではないだろうか.\acknowledgment国立情報学研究所主催のNTCIRならびにそのサブタスクTMRECを企画・運営し,評価用データを作成していただいた皆様に感謝致します.また,数多くの有益なコメントを頂いた査読者の方に感謝いたします.なお,本研究の一部は文部科学省科学研究費補助金基盤研究(C)(2)(課題番号12680368)により支援を受けております.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{中川裕志}{1975年東京大学工学部電気工学科卒業.1980年同大学院博士課程修了.同年,横浜国立工学部講師,同助教授,教授を経て,1999年より東京大学情報基盤センター教授.現在に至る.自然言語処理の研究に従事.1990年1月より1年間Stanford大学CSLI客員研究員.現在,言語処理学会副会長,ACLExecutiveCommitteeMember.}\bioauthor{湯本紘彰(非会員)}{2000年横浜国立大学工学部電子情報工学科卒業.2002年同大学院工学研究科博士課程前期修了.同年4月,株式会社東芝入社.同年10月,東芝ITソリューション株式会社転籍.現在に至る.同大学院在学中,自然言語処理の研究に従事.}\bioauthor{森辰則}{1986年横浜国立大学工学部情報工学科卒業.1991年同大学大学院工学研究科博士課程後期修了.工学博士.同年,同大学工学部助手着任.同講師を経て現在,同大学大学院環境情報研究院助教授.この間,1998年2月より11月までStanford大学CSLI客員研究員.自然言語処理,情報検索,情報抽出などの研究に従事.言語処理学会,情報処理学会,人工知能学会,日本ソフトウェア科学会,日本認知科学会,ACM,AAAI各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V12N06-02
\section{はじめに} 自由に閲覧することができる電子化文書の数が膨大になるにつれ,その中からユーザが必要とする情報を効率的に探し出すことが困難になってきている.このため,ユーザからの質問に対して明確な回答を自動的に提示する質問応答(QA)技術が注目されている.質問応答に用いる知識を人工言語で記述したUC\cite{thesis:wilensky84}などの質問応答システムでは,十分な記述力をもつ人工言語の設計のむずかしさ,知識ベースの高い作成コストといった問題があった.そこで,大量の電子化文書が利用可能になった1990年代からは,自然言語で記述された文書を質問応答システムの知識として利用しようとする研究が行われている\cite{proc:hammond95}.近年では,TREC\cite{web:TREC}やNTCIR\cite{web:NTCIR}といった評価型ワークショップも行われ,新聞記事やWWW文書などを知識として用いる質問応答システムの研究もさかんである.しかし,これらの研究の多くは事実を問う質問(what型の質問)を対象としていて,方法や対処法を問う質問(how型の質問)を扱うものは\cite{proc:higasa99}\cite{proc:kiyota02}などまだ少ない.これは,事実を問う質問に答えるための知識に比べ,方法や対処法を問う質問に答えるための知識(「こんな場合にはこうする」など)を獲得することがむずかしいからである.日笠らや清田らは,方法や対処法を問う質問に答えるための知識としてFAQ文書やサポート文書が利用できることを示した\cite{proc:higasa99}\cite{proc:kiyota02}.しかしこれらの研究では,FAQ文書やサポート文書がもつ文書構造を利用することを前提としていた.FAQ文書やサポート文書以外の,より多くの文書を知識として利用するためには,文書構造以外の手がかりを利用する方法について研究しなければならない.そこで本研究では最初に,方法や対処法を問う質問(how型の質問)に質問応答システムが答えるための知識を,メーリングリストに投稿されたメールからその質問や説明の中心になる文(重要文)を取り出すことによって獲得する方法について述べる.次に,メーリングリストに投稿されたメールから獲得した知識を用いる質問応答システムについて報告する.作成したシステムは自然な文で表現されたユーザの質問を受けつけ,その構文的な構造と単語の重要度を手がかりに質問文とメールから取り出した重要文とを照合してユーザの質問に答える.最後に,作成したシステムの回答と全文検索システムの検索結果を比較し,メーリングリストに投稿されたメールから方法や対処法を問う質問に答えるための知識を獲得できることを示す. \section{方法や対処法を問う質問に答える質問応答システムで用いる知識} 清田らは,パーソナルコンピュータの利用者を対象にした質問応答システムを作成していて,そこで入力される質問を以下の3種類に分類している\cite{proc:kiyota02}.\begin{enumerate}\itemwhat型(事実を問うもの)\itemhow型(方法を問うもの)\itemsymptom型(症状を示し,その対処法を問うもの)\end{enumerate}自然言語文書を知識として利用する質問応答システムではwhat型の質問を取り扱うものが多く,how型とsymptom型の質問を扱うものは少ない.これは,方法や対処法を問うhow型やsymptom型の質問に答えるためには,「こんな場合(条件)にはこうする(説明)」といった,条件と説明を組み合わせた知識が必要だからである.こうした知識を自然言語で記述された文書から取り出すのは,事実を問うwhat型の質問に答えるための知識を取り出すのに比べてむずかしい.日笠らや清田らは,方法や対処法を問う質問に答えるための知識として,FAQ文書やサポート文書が利用できることを示した\cite{proc:higasa99}\cite{proc:kiyota02}.しかしこれらの研究では,FAQ文書やサポート文書がもつ文書構造を利用することを前提としていた.FAQ文書やサポート文書以外の,もっと多くの文書から「こんな場合(条件)にはこうする(説明)」という知識を獲得するためには,文書構造以外の手がかりを用いる方法を検討する必要がある.例えば,メーリングリストや電子掲示板にはさまざまな分野における質問と回答がくりかえし行われるものがあり,そこでは「こんな場合にはこうする」という情報が活発に交換されている.こうしたメディアでやりとりされている電子化文書から,方法や対処法を問う質問に答えるための知識を獲得する方法について検討することは重要である.大量の電子化文書から知識を獲得する場合,取り出した知識が正しいかどうかという問題もある.質問応答システムの知識として利用することを前提に作成した文書であるならば,あるいはFAQ文書やサポート文書のようなものならば,誤った情報がふくまれるおそれは少ない.しかし,インターネットで公開されている大量の電子化文書を質問応答システムの知識として利用する場合,それらの中に誤った情報や矛盾した内容がふくまれるおそれは十分にある.したがって,それらの文書から取り出した知識が正しいかどうかについての情報も重要である.質問に直接答えるための知識(例えば,how型の質問に対する「こんな場合にはこうする」という知識)以外にも,質問応答システムにとって重要な知識がある.例えば質問応答システムでは,ユーザの質問の不明確さやあいまいさが問題になる.こうした質問には,システムがユーザに問い返しを行うことが有効である\cite{proc:higasa99}\cite{proc:kiyota02}.このため,どのような問い返しを行うのかについての知識を用意することは重要である. \section{メーリングリストに投稿されたメールからの重要文の抽出} \label{sec:メーリングリストに投稿されたメールからの重要文の抽出}\subsection{メーリングリストに投稿されたメール}メーリングリストには質問と回答のメールが繰り返し投稿されるものがある.たとえば,Vinelinuxに関心のある人たちが情報を交換しているメーリングリスト(VineUsersML\footnote{http://vinelinux.org/ml.html})では質問と回答のメールがさかんに投稿されている.われわれはこうしたメーリングリストに投稿されたメールから質問応答システムで用いる知識を獲得することを考えた.その有利さを以下に示す.\begin{itemize}\item特定のドメインについての質問と回答の例を集めやすい\itemあいまいな質問に対する問い返しの例も集めやすい\item情報のすばやい更新が期待できる\item回答内容の確認が行われる\item回答内容に誤りがあると,その誤りが指摘されることが多い\end{itemize}VineUsersMLに投稿されるメールを調査すると,以下の4種類に分けることができた.\begin{description}\item[質問メール]ある問題について,最初に投稿される質問のメール(例:図\ref{fig:VineUsersMLに投稿された質問メール間の参照関係の例}のQ1).質問メールでの質問は,質問応答システムにおけるユーザの質問と同様に,その内容が不明確だったりあいまいな場合もある.\item[直接回答メール]質問メールに直接回答するメール(例:図\ref{fig:VineUsersMLに投稿された質問メール間の参照関係の例}のDA1,DA2).直接回答メールは,質問メールの質問にそのまま答える場合と,質問内容を問い返す場合がある.\item[質問者返信メール]直接回答メールに質問メールの投稿者が直接返信するメール(例:図\ref{fig:VineUsersMLに投稿された質問メール間の参照関係の例}のQR1).質問者返信メールでは,直接回答メールでよせられた回答にしたがって行った作業の報告や問い返しに対する回答が述べられている.直接回答メールの回答に誤りがある場合には,それを指摘することもある.\item[その他](例:図\ref{fig:VineUsersMLに投稿された質問メール間の参照関係の例}のO1,O2,O3)\end{description}メーリングリストに投稿されたメールがこれら4種類のどのメールであるのかは,メール間の参照関係と投稿者のメールアドレスを利用すれば自動的に判定することができる.例えば,図\ref{fig:VineUsersMLに投稿された質問メール間の参照関係の例}のQ1は参照するメールがないので質問メール,DA1とDA2は質問メールであるQ1を参照しているので直接回答メール,そしてQR1は直接回答メールDA1を参照していて,投稿者のメールアドレスが質問メールQ1のものと同じであるので質問者回答メールであると判定できる.\begin{figure}[t]\leavevmode\begin{center}\epsfile{file=fig/mails.eps,scale=0.5}\caption{VineUsersMLに投稿されたメール間の参照関係の例}\label{fig:VineUsersMLに投稿された質問メール間の参照関係の例}\end{center}\end{figure}\begin{figure}[t]\begin{center}質問メールとその重要文の例\vspace{1mm}\epsfile{file=fig/doc921.eps,scale=0.3}直接回答メールとその重要文の例\vspace{1mm}\epsfile{file=fig/doc929.eps,scale=0.3}質問者返信メールとその重要文の例\vspace{1mm}\epsfile{file=fig/doc993.eps,scale=0.3}\caption{VineUsersMLに投稿されたメールと重要文の例(破線で囲まれた文が重要文)}\label{fig:VineUsersMLに投稿されたメールと重要文の例}\end{center}\end{figure}VineUsersMLなどのメーリングリストに投稿されたメールではさまざまな形式で質問や回答が表現されていて,FAQ文書やサポート文書のような一定の文書構造がない.しかし,質問・説明の中心になる文があった.図\ref{fig:VineUsersMLに投稿されたメールと重要文の例}に示すメールの例では破線で囲まれた文が質問・説明の中心になる文である.こうした文を重要文とよぶことにする.われわれは,メーリングリストに投稿されたメールから重要文を取り出すことで,方法や対処法を問う質問(how型の質問)に質問応答システムが答えるための知識を獲得できるのではないかと考えた.すなわち,メーリングリストに投稿されたメールを対象に,\begin{itemize}\item質問メールと直接回答メールから取り出した重要文を用いて「この場合にはこうする」という知識を獲得する.\item質問者返信メールから取り出した重要文を用いて「この場合にはこうする」という知識の正しさについての情報を獲得する.\item質問メールと直接回答メールから取り出した重要文を用いて,あいまいな質問とそれに対する問い返しの例を獲得する.\end{itemize}VineLinuxMLに投稿されたメールを調査すると,質問メール,直接回答メール,質問者返信メールの重要文には次のような特徴があった.\begin{enumerate}\item質問メールの重要文はsubjectに含まれる名詞および未定義語を含むことが多い.これは,質問メールの重要文もsubjectも,そのメールの質問内容のよい要約になっていることが多いからである.\itemそれぞれのメールの重要文は,そのメールに直接返信しているメールで引用されることが多い.図\ref{fig:VineUsersMLに投稿されたメールと重要文の例}では,質問メールと直接回答メールの重要文がそれぞれ直接回答メールと質問者返信メールで引用されている.\itemそれぞれのメールの重要文には典型的な表現がある.例えば質問メールの重要文には以下に示すような典型的な表現があった.\begin{itemize}\item文末に「ません」「しょうか」「います」「ました」がある.(例)Bluefishで日本語フォントの表示ができ\underline{ません}.\item文中に「困って」「トラブって」「ご指導」「?」がある.(例)数日前から一般ユーザログインでxstartできなくて\underline{困って}います.\item行頭に#がない.行頭の#は,その行の記述については無視することを要請する記号である.(例)\underline{#}とても初歩な質問でスミマセン\end{itemize}\itemそれぞれのメールの重要文は,本文のはじめに近い位置にあらわれることが多い.ただし,直接回答メールや質問者返信メールの重要文は,それらのメールが返信しているメールの重要文を引用している場合には,その引用している重要文の後にあらわれることが多い.図\ref{fig:VineUsersMLに投稿されたメールと重要文の例}の直接回答メールの例では,先頭の4行が引用文で,そこでは質問メールの重要文が引用されている.この引用のあとに,直接回答メールの重要文(破線で囲まれた文)がある.\end{enumerate}\subsection{メーリングリストに投稿されたメールからの重要文の抽出処理}メーリングリストに投稿されたメールから重要文を抽出する処理の概要を図\ref{fig:メーリングリストに投稿されたメールから重要文を取り出す処理}に示す.前処理を行ってメールから取り出した文に対し4つの規則を適用して重要度を計算する.最も重要度が高い文を重要文として各メールから1文ずつ取り出す.\begin{figure}[t]\begin{center}\epsfile{file=fig/jyu.eps,scale=1.0}\caption{メーリングリストに投稿されたメールから重要文を取り出す処理}\label{fig:メーリングリストに投稿されたメールから重要文を取り出す処理}\end{center}\end{figure}\subsubsection{前処理}メールの各文の重要度を評価する前に,以下の前処理を行う.\begin{enumerate}\renewcommand{\labelenumi}{}\itemメーリングリストに投稿されたメールを対象に,メール間の参照関係および投稿者のメールアドレスを利用して,\begin{itemize}\item質問メール\item直接回答メール\item質問者返信メール\end{itemize}を取り出す.\item取り出したメールの本文を形態素解析する.ただし,以下のものは形態素解析を行う前に取り除く.\begin{itemize}\item#ではじまる行\item引用記号(例:>)ではじまる行\item()で囲まれている文字列\end{itemize}図\ref{fig:VineUsersMLに投稿されたメールと重要文の例}の直接回答メールの例では,先頭の4行を引用部分として取り除き,残りの2文について形態素解析を行う.また,「実行するとSegmentationfault(coredumped)してしまいます」という文の場合は,「(coredumped)」の部分をとりのぞいてから形態素解析を行う.形態素解析にはJUMAN\cite{man:juman98}を用いる.\item形態素解析を行った文が,そのメールに直接返信しているメールで何回引用されているか記述する.\item質問メールのsubjectを形態素解析し,その結果から名詞と未定義語を取り出す.\end{enumerate}\begin{table}[tbp]\begin{center}\caption{メーリングリストに投稿されたメールからの重要文抽出に用いる手がかり表現}\label{tab:重要文抽出に用いた手がかり表現}\vspace{3mm}1.質問メールからの重要文抽出に用いる手がかり表現\begin{enumerate}\item「ません」「しょうか」「います」「ました」「?」で終わる文\item「困って」「トラブって」「ご指導」を含む文\item接続詞「が」「しかし」を含み,「ません」「しょうか」「います」「ました」で終わる文\end{enumerate}\vspace{4mm}2.直接回答メールからの重要文抽出に用いる手がかり表現\begin{enumerate}\item以下の表現で終わる文\begin{itemize}\item「ますか」(していますか,どうなっていますか,など)\item「ませんか」(ありませんか,いませんか,など)\item「ですか」(いかがですか,ってことですか,ないですか,など)\item「でしょうか」(どうでしょうか,いかがでしょうか,など)\item「よね」(ますよね,ですよね,など)\item「できます」「できません」「できています」「ないようです」「簡単です」「可能です」\item「しました」「いません」「ます」(してます,います,あります,など)\item「ください」\item「いかがでしょう」\item「すればよい」\item「です」「はず」「と思う」「とか」\end{itemize}\item以下の語を含む文\begin{itemize}\item「あれば」「すれば」「ならば」「ときは」「したら」\item「では」\end{itemize}\end{enumerate}\vspace{4mm}3.質問者返信メールからの重要文抽出に用いる手がかり表現\begin{enumerate}\item以下の表現で終わる文\begin{itemize}\item「です」「ました」(できました,いきました,なりました,など)\item「ません」「だめでした」\item「ありがとう」「ありがとうございました」\item「ますか」「ます?」\end{itemize}\end{enumerate}\end{center}\end{table}\subsubsection{重要度の計算}質問メール,直接回答メール,および質問者返信メールから取り出した文に対し,以下の4つの規則を順に適用して重要度を計算する.そして,それぞれのメールから最も重要度が高い文を重要文として取り出す.\begin{description}\item[{\bf規則1:}][subjectの規則]この規則は,質問メールの本文から取り出した文にのみ適用する.subjectに含まれている名詞・未定義語を含む文には1点を加える.\item[{\bf規則2:}][手がかり表現の規則]表\ref{tab:重要文抽出に用いた手がかり表現}に示す手がかり表現を$N$個含む文には$N$点を加える.\item[{\bf規則3:}][引用文の規則]メールの本文から取り出した文で,そのメールに直接返信しているメールで引用されている回数が最も多い文に1点を加える.\item[{\bf規則4:}][位置の規則]規則1〜3を適用した時点で最高の重要度が与えられている文が2つ以上ある場合,最も先頭に近い文に1点を加える.ただし,直接回答メールあるいは質問者返信メールで,それが返信しているメールの重要文を引用している場合は,その引用している重要文の後で最も先頭に近い文に1点を加える.\end{description}規則1,2,4は,新聞記事などを対象にして用いられている重要文抽出手法をメールに適用したものである\cite{thesis:okumura99}.一方,規則3は,引用が多用されるメールから重要文を抽出するための規則である.\subsection{重要文抽出の実験結果と検討}本研究では,VineUsersMLおよびperl質問箱\footnote{http://www.freeml.com/info/[email protected](プログラミング言語perlについて話しあうメーリングリスト)}というメーリングリストに投稿されたメールを対象に実験を行った.VineUsersMLに投稿されたメール50846通には,\begin{itemize}\item質問メール(8964通)\item直接回答メール(13094通)\item質問者返信メール(4276通)\end{itemize}が含まれていた.この中から,返信がある質問メール127通を無作為に取り出し,それらの直接回答メール(184通)と質問者回答メール(75通)も取り出した.同様に,perl質問箱に投稿されたメール6086通から返信がある質問メール36通を無作為に取り出し,それらの直接回答メール(58通)と質問者回答メール(20通)も取り出した.それらに対する重要文抽出の結果を表\ref{tab:重要文抽出の結果}に示す.重要文抽出に失敗した理由を以下に示す.\begin{itemize}\item表\ref{tab:重要文抽出に用いた手がかり表現}に示した手がかり表現を含まない重要文があった.\item重要文ではない文で表\ref{tab:重要文抽出に用いた手がかり表現}に示した手がかり表現を含む文があった.\item質問あるいは回答の中心になる文が複数の文で構成されていて,それらのうち1文しか取り出せなかった.\item重要文中に誤字・脱字があった.\end{itemize}\begin{table}[tbp]\leavevmode\begin{center}\vspace{-3mm}\caption{重要文抽出の結果}\label{tab:重要文抽出の結果}\vspace{2mm}\begin{tabular}[t]{cc}\begin{tabular}{lcc|c}\multicolumn{4}{c}{VineUsersML}\\メールの種類&正&誤&合計\\\hline質問メール&96&31&127\\直接回答メール&153&31&184\\質問者返信メール&45&30&75\\\end{tabular}&\begin{tabular}{lcc|c}\multicolumn{4}{c}{perl質問箱}\\メールの種類&正&誤&合計\\\hline質問メール&28&8&36\\直接回答メール&42&16&58\\質問者返信メール&10&10&20\\\end{tabular}\end{tabular}\end{center}\end{table}つぎに,重要文抽出の結果が「こんな場合にはこうする」という条件と説明の知識として適切であるかどうか,\begin{itemize}\item文のつながりが正しいかどうか\itemその知識が問題解決に有効かどうか\end{itemize}という点に注意して検討を行った.例えば,以下の例では質問メール(質問A)の重要文と直接回答メール(直接回答A--1)の重要文とでは正しく文がつながっている.一方,(質問A)と(直接回答A--2)の重要文の間では文のつながりがない.しかし,(質問A)と(直接回答A--1)の知識は問題解決に役立つとして,この質問メールと回答メールからは有効な知識が獲得できたと判定した.\begin{verbatim}(質問A)veditは,存在しないファイルをひらこうとするとコアはきますか├(直接回答A-1)はい,コアダンプします└(直接回答A-2)将来,GNOMEはインストール後すぐつかえるのですか?\end{verbatim}VineUsersMLから取り出した127個の質問メールとそれらの直接回答メールを調べると,92例で有効な知識の獲得に成功し,35例で失敗した.一方,perl質問箱から取り出した36個の質問メールとそれらの直接回答メールを調べると,23例で有効な知識の獲得に成功し,13例で失敗した.知識の獲得に失敗した原因を以下に示す.\begin{itemize}\item質問メールからの重要文抽出に失敗した(VineUsersML:21例,perl質問箱:8例)\item直接回答メールからの重要文抽出に失敗した(VineUsersML:14例,perl質問箱:5例)\end{itemize}質問メールからの重要文抽出に失敗したことが原因で知識の獲得に失敗した例はそれほど深刻ではない.誤って抽出した文の多くは質問文ではなく,質問応答システムでユーザの質問とマッチする可能性が低いからである.一方,直接回答メールからの重要文抽出に失敗したことが原因で知識の獲得に失敗した例はより深刻である.質問メールから取り出した文は質問文として適切で,質問応答システムでユーザの質問とマッチする可能性が高いからである.その場合,直接回答メールから誤って抽出した,回答や問い返しとして不適切な文がユーザに示されるおそれがある.図\ref{fig:vinelinuxMLから取り出した知識の例}に,VineUsersMLに投稿されたメールからの重要文抽出によって獲得した「こんな場合にはこうする」という知識の例を示す.\begin{figure}[t]\begin{verbatim}(質問1)サウンドの設定でこまっています.├(直接回答1-1)まずは,sndconfigを実行してみてください.│└(質問者返信1-1)これでうまくいきました└(直接回答1-2)sndconfigで,しあわせになりました.\end{verbatim}\begin{verbatim}(質問2)パーティション設定時にSCSIディスクが表示されないので,インストール│できません.├(直接回答2-1)えーと,「パーティション設定時にSCSIディスクが表示されない」│というのはdiskdruidでの話でしょうか└(直接回答2-2)typicalproblemsに書いてある問題じゃないでしょうか\end{verbatim}\begin{verbatim}(質問3)1.0.6のパッチはありますか.└(直接回答3-1)gtk+-1.0.4を利用するほうがいいでしょう.\end{verbatim}\begin{verbatim}(質問4)ES1868のサウンドカードをつかっていますが,音が大きすぎてこまっています.└(直接回答4-1)xmixerを使って下さい.└(質問者返信4-1)xmixerもxplaycdもインストールされていないみたいです.\end{verbatim}\begin{verbatim}(質問5)いくつか問題がありますが,この件のレポートはどこに送ればいいのですか.└(直接回答5-1)このMLで構いません.\end{verbatim}\begin{verbatim}(質問6)これはどういう意味ですか.└(直接回答6-1)ちゃんと質問しないと,だれも答えられません.\end{verbatim}\caption{VineUsersMLに投稿されたメールからの重要文抽出によって獲得した,\\方法や対処法を問う質問に答えるための知識の例}\label{fig:vinelinuxMLから取り出した知識の例}\end{figure}図\ref{fig:vinelinuxMLから取り出した知識の例}の質問メール(質問1)には,2つの直接回答メール(直接回答1--1)と(直接回答1--2)があった.どちらのメールでも質問者にsndconfigを使うことをすすめているが,(直接回答1--1)はその内容が質問者返信メール(質問者返信1--1)によって保証されている.方法や対処法を問う質問に対する回答候補は複数個ある場合が多く,この場合のように質問者返信メールによる情報内容の保証があると,ユーザが情報をしぼりこむのに役立つ.図\ref{fig:vinelinuxMLから取り出した知識の例}の質問メール(質問2)と(質問3)からは,質問としてはあいまいで不完全な文が重要文として取り出されている.(質問2)のメールでは,ハードディスクのパーティションの設定についての質問が行われていた.しかし,この質問メールでの質問そのものがあいまいであったため,そこから取り出した重要文もまたあいまいな内容になっていた.具体的には,質問者がどんなプログラムを利用してハードディスクのパーティションの設定したのかについての情報が欠けていた.これに対して,(直接回答2--1)の回答者は,質問者が利用したプログラムがdiskdruidであるかどうか問い返している.この例を知識として用いれば,(質問2)に類似するあいまいな質問に対して質問応答システムは,ユーザにdiskdruidを利用したのかどうか問い返すことができる.実験では,このようなあいまいな質問に対する問い返しの例がVineUsersMLで15例,perl質問箱で3例あった.(質問3)では,gtk+についての質問が行われていた.この質問メールでの質問にはあいまいさはなかったが,質問の中心になる文が複数あった.そのうち1文だけを重要文として取り出したため,何について質問しているのかという情報(この場合は,gtk+)が失われていた.しかし,(直接回答3--1)から取り出した重要文がこの失われた情報を補っている.そこで,この例では(質問3)からの重要文抽出には失敗と判定したが,(質問3)と(直接回答3--1)から抽出した重要文を組み合わせた知識については正しいと判定した.実験では,このような例がVineUsersMLで10例,perl質問箱で1例あった.(質問4)の質問に対する(直接回答4--1)の回答は(質問4)の質問者にとっては適切な内容ではなかった.(質問4)の質問者は(直接回答4--1)の回答内容を試し,問題が解決しなかったことを(質問者返信4--1)で報告している.実験では,このように回答の誤り・不適切さを指摘する例がVineUsersMLで4例あった.(質問5)と(質問6)では,分野に依存しない質問が行われている.したがって,これらの例はわれわれの方法が分野に依存したものではないことを示している.ただし,(質問6)に対する(直接回答6--1)の回答はあまり丁寧な文ではない.このような例を利用してシステムが回答すると,ユーザにそのシステムを利用しようとする意欲を失わせるおそれがある.また,(質問5)と(質問6)にはそれぞれ照応表現が含まれていて,その先行詞が取り出されていない.こうした文は,質問応答システムがユーザの質問文と照合するのに失敗するおそれがある. \section{メーリングリストに投稿されたメールを利用した質問応答システム} \label{sec:メーリングリストに投稿されたメールを利用した質問応答システム}メーリングリストに投稿されたメールを利用して,how型の質問に答える質問応答システムについて述べる.このシステムは自然な文で表現したユーザの質問を受けつけ,VineUsersMLに投稿されたメールからユーザの質問に類似する重要文をもつ質問メールをさがし,その回答メールの重要文とともに回答としてユーザに示す.\subsection{システムの概要}作成したシステムの概要を図\ref{fig:システムの概要}に示す.システムを構成するモジュールの機能と内容を以下に示す.インターフェイスにはWebブラウザを用いた.\begin{description}\item[{\bf質問受付モジュール}]自然な文で表現されているユーザの質問を受けつけ,質問解析モジュールに送る.\item[{\bf回答出力モジュール}]類似度計算モジュールの計算結果にしたがって,ユーザの質問に類似すると判定した質問メールおよび回答メールをユーザに示す.\item[{\bf質問解析モジュール}]ユーザの質問文を対象に形態素解析および係り受け解析を行い,解析結果を類似度計算モジュールに送る.形態素解析にはJUMAN\cite{man:juman98},係り受け解析にはKNP\cite{man:knp98}を用いた.\item[{\bf類似度計算モジュール}]ユーザの質問文と質問メールの重要文の類似度を,文の構文的な構造と単語の重要度にもとづいて計算する.類似度の計算方法は,\ref{sec:自然な文で表現された質問文と質問のメールから取り出した重要文の類似度}節で述べる.計算結果は回答出力モジュールに送られる.\item[{\bf質問\&回答メール}]メーリングリストに投稿された質問メールとその回答メール(直接回答メール,質問者回答メール,およびその他)が格納されている.\item[{\bf重要文の解析結果}]質問メールとその回答メールから取り出した重要文の形態素解析および係り受け解析の結果が格納されている.重要文の解析結果は類似度計算を行うときに参照される.\item[{\bf同義語辞書}]類似度計算で用いる同義語の辞書.519語が登録されている.図\ref{fig:同義語辞書に登録されている同義語の例}にこの辞書に登録されている同義語の例を示す.\begin{figure}[t]\begin{center}\epsfile{file=fig/yokomizo02.eps,scale=0.9}\caption{システムの概要}\label{fig:システムの概要}\end{center}\end{figure}\begin{figure}[t]\begin{center}{\small\begin{tabular}{|l|}\hlineHDHDDハード・ディスク\\LANカードLANアダプタLANボードNIC\\RAMカードPCメモリ・カード\\圧縮アーカイバ圧縮ソフト圧縮ツール\\アラート警告\\\hline\end{tabular}}\caption{同義語辞書に登録されている同義語の例}\label{fig:同義語辞書に登録されている同義語の例}\end{center}\end{figure}\end{description}\subsection{自然な文で表現された質問文と質問のメールから取り出した重要文の類似度}\label{sec:自然な文で表現された質問文と質問のメールから取り出した重要文の類似度}ユーザの質問文と質問メールの重要文との類似度を,文の構文的な構造と単語の重要度にもとづいて定義する.質問メール$M_{i}$から取り出した重要文$S_{i}$に含まれる自立語$t$の重要度$w_{WORD}(t,M_{i})$を以下のように定義する.\[w_{WORD}(t,M_{i})=tf(t,S_{i})\log\frac{N}{df(t)}\]$tf(t,S_{i})$は重要文$S_{i}$における自立語$t$の出現頻度,$N$は重要文をとりだすことのできた質問メールの総数,$df(t)$は自立語$t$を重要文に含む質問メールの総数である.また,質問メール$M_{i}$から取り出した重要文$S_{i}$の係り受け構造木を構成する枝$l$の重要度$w_{LINK}(l,M_{i})$を以下のように定義する.\begin{eqnarray*}w_{LINK}(l,M_{i})&=&w_{WORD}(modfier(l),M_{i})+w_{WORD}(head(l),M_{i})\end{eqnarray*}$modfier(l)$と$head(l)$はそれぞれ枝$l$によって係る文節の自立語,係られる文節の自立語を表わす.質問メール$M_{i}$から取り出した重要文$S_{i}$に含まれる自立語のうち,質問文$Q$にその自立語そのものかその同義語が含まれているものの重要度の和を$SCORE_{WORD}(Q,M_{i})$とする.また,質問メール$M_{i}$から取り出した重要文$S_{i}$の係り受け構造木を構成する枝のうち,質問文$Q$の係り受け構造木にもあらわれるものの重要度の和を$SCORE_{LINK}(Q,M_{i})$とする.このとき,ユーザの質問文$Q$と質問メール$M_{i}$から取り出した重要文$S_{i}$の類似度$SCORE(Q,M_{i})$を$SCORE_{WORD}(Q,M_{i})$と$SCORE_{LINK}(Q,M_{i})$の和とする.\subsection{自然な文で表現されたユーザの質問に対する応答}\label{subsec:自然な文で表現されたユーザの質問に対する応答}\begin{figure}[t]\begin{center}{\small\begin{tabular}[t]{rp{120mm}}(1)&DHCPでIPを再取得できない\\(2)&Linuxで音が出ません\\(3)&XWindowSystem起動時の不都合について\\(4)&ハードディスクのパーティションの修復\\(5)&ApacheにSSIを許可する設定はいずこに\\(6)&proftpdにログインできない\\(7)&漢字入力できません\\(8)&NICを二枚使用して,Linuxマシーンをルータとして機能する方法を教えてください\\(9)&Apache1.39でCGIが使えない\\(10)&再起動すると時間がくるう\\(11)&英語エラーメッセージに戻す方法がありましたらお教え下さい\\(12)&NFSサーバが起動しません\\(13)&MOを使う方法を教えてください\\(14)&トラフィックのモニタリングする方法はありませんでしょうか\\(15)&Emacsで漢字コードを指定するにはどうしたらいいのでしょうか\\(16)&Xで\キーが入力できない\\(17)&PDFのテキストだけを抽出する方法を教えてください\\(18)&loginするときに時間がかかってしまいます\\(19)&lprで印刷ができないで困っています\\(20)&Emacsでバックアップファイルをつくらない方法を教えてもらえないでしょうか\\(21)&Xwindowの画面を取り込むにはどうしたらいいのでしょうか\\(22)&レスキューディスクがないときの起動はできるのでしょうか\\(23)&PCMCIAスロットを使えるように設定したのですが,ネットワークカードをネットワークカードとして認識してくれません.\\(24)&PPxPが実行できない\\(25)&chmodができるFTPサーバを探しています\\(26)&Makefileの記述方法がわかりません\\(27)&特定のユーザをtelnetでログインできないようにしたいのですが,どういう設定が必要なのか教えていただけないでしょうか?\\(28)&VineLinux2.5でWebminを起動しようとすると,localhost:10000へのネットワーク接続を試みているときに接続が拒否されました\\(29)&自作マシンにビデオキャプチャーカードを挿したはいいものxawtvを用いてテレビを見ることができません\\(30)&LaTexで書かれた日本語の文章があって,これをWordの文章にしたい\\(31)&リソースを監視できるソフトの中でお勧めのソフトって何かありますでしょうか\\(32)&CDROMのmountができずにてこずっています\\\end{tabular}}\caption{LinuxUsersMLから取り出した32個の質問}\label{fig:LinuxUsersMLから取り出した32個の質問}\end{center}\end{figure}\ref{sec:自然な文で表現された質問文と質問のメールから取り出した重要文の類似度}節で定義した類似度にもとづいて,自然な文で表現されたユーザの質問に対し,メーリングリストに投稿されたメールを利用して回答する実験を行った.実験にはVineUsersMLに投稿された50846通のメールを用いた.これらのメールには,\begin{itemize}\item質問メール(8964通)\item直接回答メール(13094通)\item質問者回答メール(4276通)\end{itemize}が含まれていて,それらから重要文を取り出した.実験に用いる自然な文で表現された質問は,VineUsersMLに類似したメーリングリストLinuxUsersML\footnote{http://www.linux.or.jp/community/ml/linux-users/(Linuxに関するユーザ同士の情報交換を目的としたメーリングリスト)}に実際に投稿された質問を用いた.図\ref{fig:LinuxUsersMLから取り出した32個の質問}に実験に用いた32個の質問を示す.提案手法の結果は,質問文に含まれる名詞と未定義語を検索のキーとする全文検索の結果と以下の3つの方法で比較した.\begin{description}\item[評価1]検索結果の上位1つを比較\item[評価2]検索結果の上位3つを比較\item[評価3]検索結果の上位5つを比較\end{description}表\ref{tab:提案手法と全文検索の結果の比較}はそれぞれの評価について,(a)適切な質問メールとその回答のメールを検索できた問題の数,(b)検索された適切な質問メールとその回答のメールの組の数を示す.\begin{table}[t]\begin{center}\caption{提案手法と全文検索の結果の比較}\label{tab:提案手法と全文検索の結果の比較}\vspace{2mm}\begin{tabular}{lcccccccc}&\multicolumn{2}{c}{評価1}&\multicolumn{2}{c}{評価2}&\multicolumn{2}{c}{評価3}&\multicolumn{2}{c}{}\\&(a)&(b)&(a)&(b)&(a)&(b)&&\\\hline提案手法&9&9&16&26&17&41&&\\全文検索&5&5&5&9&8&15&&\\\hline\multicolumn{9}{l}{\footnotesize(a)適切な質問と回答のメールを検索できた問題の数}\\\multicolumn{9}{l}{\footnotesize(b)検索された適切な質問と回答のメールの組の数}\end{tabular}\end{center}\end{table}評価1で,提案手法で適切な応答が得られたのは,質問2,6,7,8,13,14,15,19,24.一方,全文検索で適切な検索結果が得られたのは,質問2,5,7,19,32.質問2,7と19は提案手法でも全文検索でも適切な結果が得られたが,それらは異なるメールであった.これは,ユーザの質問に答えられる内容の質問メールとその回答のメールの組が複数存在することがあるからである.質問4「ハードディスクのパーティションの修復」についてはどちらの方法でも適切な質問のメールは検索できなかった.この質問に対する全文検索の結果に「ファイルを救出したい」という質問のメールがあった.このメールおよびその回答のメールではファイルの救出方法が扱われていてパーティションの修復方法は直接扱っていないが,質問4の目的が「ファイルの救出」であるならば適切な回答であるといえる.このようにユーザの質問とその目的にずれがあるときは,そのギャップをうめる工夫が必要である.こうしたギャップをうめるのに,対話処理は有効であると考えられる.評価2および3では提案手法の結果が全文検索の結果よりよい.全文検索よりも多くの質問にこたえているし,ユーザの質問に関連する質問メールをより多く見つけ出している.また,作成したシステムの回答結果は,図\ref{fig:ユーザの質問に対する応答の例}のように重要文を用いて表現されているので,全文検索の場合にくらべてその回答内容をユーザは把握しやすい.\subsection{システムの質問応答例}図\ref{fig:ユーザの質問に対する応答の例}は,質問14「トラフィックのモニタリングする方法はありませんでしょうか」に対するシステムの応答を示す.この質問に対してシステムは2つの答え(質問メールとその回答メールから取り出した重要文)をユーザに示している.いずれの答えも適切な内容で,そのうち応答結果が1位のものを以下に示す.\begin{verbatim}(質問B)vine-linuxで使える,トラフィックを測定するツールってないでしょうか?├(直接回答B-1)snmp+mrtgとはではダメですか?├(直接回答B-2)見た目は・・こちらをどうぞ│http://web.wt.net/~billw/gkrellm/gkrellm.html└(直接回答B-3)ネットワーク接続中にちょっとトラフィックを確認するぐらいならば└(質問者返信B-1)みなさん,いろいろ情報ありがとうございました.\end{verbatim}表示されている重要文を選択すると,その重要文を取り出したメールが表示され,ユーザは詳しい情報を知ることができる(図\ref{fig:回答メールの表示の例}).\begin{figure}[p]\begin{center}\epsfile{file=fig/nishisys14g.ps,scale=0.4}\caption{ユーザの質問に対する応答の例}\label{fig:ユーザの質問に対する応答の例}\vspace{12mm}\epsfile{file=fig/nishisys14ansg.ps,scale=0.4}\caption{回答メールの表示の例}\label{fig:回答メールの表示の例}\end{center}\end{figure}作成したシステムは,ユーザの質問に対して(直接回答B-1)や図\ref{fig:vinelinuxMLから取り出した知識の例}の(直接回答2-1)のように問い返しを行うことができる.この問い返しによって,ユーザは自分の質問で不足している情報に気づき,より具体的であいまいさのない質問をつくることができる.また,その問い返し文を取り出したメールから問題を解く手がかりや答えそのものを取り出せることもある.獲得した知識による問い返しについて,われわれは以下の取組みを現在行っている.\begin{itemize}\item作成したシステムでは回答候補の順位づけにユーザの質問文と質問メールの重要文との類似度のみを用いている.そこで,直接回答メールや質問者回答メールから取り出した重要文の情報も利用して,ユーザの質問にふさわしい内容の回答(例えば問い返しなど)を優先してユーザに示す方法を検討している.\item作成したシステムは対話処理を行えないので,システムの問い返しに対するユーザの返事は新たな質問として扱われる.そこで,獲得した知識を用いてユーザとシステムが対話を行う方法について検討している.\end{itemize}(直接回答B-2)には照応表現(「こちら」)がある.この例のように,質問メールとその回答のメールから取り出した重要文には,照応・省略表現が含まれることがある.作成したシステムはユーザの質問文とメールから取り出した重要文とを照合して質問に答えているので,こうした照応・省略表現による情報の欠落に弱い.本研究では照応解析を行わずに,大量のメールから知識を獲得することでこの問題に対応しようと考えた.大量のメールから知識を獲得すれば,照応・省略表現を含まない「こんな場合にはこうする」という情報を十分に獲得できるのではないかと考えたからである.VineUsersMLに投稿されたおよそ5万通のメールから獲得した知識を用いた今回の実験では,照応解析を行わなくても全文検索よりよい結果を得ることができた. \section{おわりに} 作成したシステムでは,回答候補の順位づけにユーザの質問文と質問メールの重要文との類似度のみを用いている.現在,直接回答メールや質問者回答メールから取り出した重要文の情報も利用して,ユーザの質問にふさわしい内容の回答を優先してユーザに示す方法を検討している.また,今回獲得した知識を用いてユーザとシステムが対話を行う方法についても検討している.\acknowledgment本研究を進めるにあたって有意義なコメントをいただいた龍谷大学岡田研究室のみなさんに感謝いたします.また,本稿の改善に対して,査読者の方から非常に有益なコメントをいただきました.ここに感謝いたします.\bibliographystyle{unsrt}\begin{thebibliography}{99}\bibitem[\protect\BCAY{Hammond}{Hammond}{1995}]{proc:hammond95}Hammond,Burke,Martin,Lytinen:``FAQFinder:ACase-BasedApproachtoKnowledgeNavigation'',11thConferenceonArtificialIntelligenceforApplication,(1995)\bibitem[\protect\BCAY{日笠}{日笠}{1999}]{proc:higasa99}日笠,古河,黒橋:大学における計算機環境下での対話的ヘルプシステムの作成,言語処理学会第5回年次大会,(1999)\bibitem[\protect\BCAY{清田}{清田}{2002}]{proc:kiyota02}清田,黒橋,木戸:大規模テキスト知識ベースに基づく自動質問応答--話し言葉ナビ--,言語処理学会第8回年次大会,(2002)\bibitem[\protect\BCAY{黒橋}{黒橋}{1998}]{man:juman98}黒橋,長尾:日本語形態素解析システムJUMANversion3.61使用説明書,京都大学,(1998)\bibitem[\protect\BCAY{黒橋}{黒橋}{1998}]{man:knp98}黒橋:日本語構文解析システムKNPversion2.0b6使用説明書,京都大学,(1998)\bibitem[\protect\BCAY{NTCIR}{NTCIR}{}]{web:NTCIR}NTCIR:http://www.nlp.cs.ritsumei.ac.jp/qac/\bibitem[\protect\BCAY{奥村}{奥村}{1999}]{thesis:okumura99}奥村,難波:テキスト自動要約に関する研究動向,自然言語処理,Vol.6,No.6,(1999)\bibitem[\protect\BCAY{TREC}{TREC}{}]{web:TREC}TREC:http://trec.nist.gov/\bibitem[\protect\BCAY{Wilensky}{Wilensky}{1984}]{thesis:wilensky84}Wilensky,Arens,Chin:``TalkingtoUNIXinEnglish:AnOverviewofUC'',CommunicationsoftheACM,27(6),(1984)\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{渡辺靖彦}{1991年京都大学工学部電気工学第二学科卒業.1995年同大学院博士課程退学.博士(情報学).龍谷大学理工学部助手を経て,2002年より龍谷大学理工学部情報メディア学科専任講師,現在に至る.自然言語処理,知識情報処理の研究に従事.}\bioauthor{横溝一哉}{2003年龍谷大学理工学部卒業.同年,ケイ・オプティコムに入社,現在に至る.}\bioauthor{西村涼}{2003年龍谷大学理工学部情報メディア学科入学,現在に至る.}\bioauthor{岡田至弘}{1977年立命館大学理工学部卒業.工学博士.現在,龍谷大学理工学部情報メディア学科教授.学内キャンパスのLANの構築,および分散型計算機システム,パターン認識・理解の研究に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V14N05-02
\section{はじめに} 我々人間は,日常生活において様々な会話の中から必要に応じて情報を取捨選択している.さらに,会話の流れに即して語の意味を適宜解釈し,適切な応答を行っている.人間は語の情報から適切な応答を行うために,様々な連想を行っている\cite{yoshimura2006}.例えば,「車」という語から「タイヤ」,「エンジン」,「事故」,…,といった語を自然に連想する.連想によって,会話の内容を柔軟に拡大させている.このように,柔軟な会話ができる背景には,語の意味や,語と語の関係についての膨大な知識を有しているため,種々の知識から語と語の関連性を判断し,新たな語を連想することができることが挙げられる.実生活における会話では,「車と自動車」,「自動車と自転車」のように,同義性や類似性の高い語と語の関係のみならず,「車と運転」,「赤ちゃんと玩具」,「雨と傘」のように,広い意味での語と語の関連性の評価が必要となる場合が多い.人間とコンピュータ,あるいはコンピュータ同士の会話においても,人間のような柔軟で常識的な応答を行うためには連想機能が重要となる.そのためには,コンピュータに語と語に関する知識を付与し,同義性や類義性のみならず,多様な観点において語と語の関連の強さを定量的に評価する手法が必要となる.これまで,コンピュータにおける会話処理の重要な要素の一つとして,語と語の類似度に関する研究がなされてきた.類似度の研究では,シソーラスなどの知識を用いて,語と語が意味的にどの程度似ているかを評価することを目的としている\cite{kasahara1997}.そのため,会話において未知の語が出現した場合には,既知の知識との類似度を算出し,同義語や類義語に置換することによって語の意味を理解することが可能となる.一方,本論文では,コンピュータとの会話において,「雨が降っていますよ」という文に対し,「雪」,「霧」,…などの「雨」に対する同義語や類義語だけではなく,「雨」や「降る」という語から,人間が自然に想起するような,「傘」,「濡れる」,「天気予報」,…などの語を幅広く想起させ,自然な会話を行うための連想機能を実現することを目的としている.コンピュータがこのような連想をできるならば,「雨が降っていますよ」という文に対して,「それでは傘を持っていきます」という応答を生成することが可能となる.コンピュータの連想機能を実現するために,概念ベースとそれを用いた関連度計算方式が提案されている\cite{kojima2004,watabe2001,watabe2006}.概念ベースでは,語の意味(概念)が,電子化国語辞書から抽出した特徴語(直接意味語・間接意味語)と重みの集合で定義されている.各特徴語(属性)の重みは,概念と概念の関連の強さを定量的に評価するための基本量として定義している.すなわち,概念ベースの構築においては,概念に対する属性をどのように抽出し,各属性に付与する重みをどのように決定するかが重要となる.本論文では,電子化辞書から構築された4万語規模の概念ベースを,電子化された新聞記事等を用いて12万語規模の概念ベースへ拡張する手法について述べている.概念ベースの構築手法については,電子化辞書から見出し語に対する語義説明文から属性を抽出し,属性信頼度に基づく精錬を行う手法が提案されている.しかしながら,この手法には大きく2つの問題点が存在する.第一には,辞書の語義説明文から取得される大部分の属性は,語の狭義の意味を説明する語(直接意味語)であり,間接的に見出し語と関連を持つ広義の意味語(間接意味語)を獲得することが困難である点である.これは,コンピュータに柔軟な連想機能を実現する上で,同義や類義の語以外の連想語を取得する際に大きく影響する.直接意味語と間接意味語について,「自動車」の例を挙げる.\noindent例.自動車\begin{description}\item[直接意味語]車,車輪,原動機,回転,装置,ブレーキ,…\item[間接意味語]渋滞,免許証,事故,便利,交通,信号,保険,レース,…\end{description}第二には,4万語規模の概念ベースでは,幅広い連想を行い,語と語の関連性を定量化する上で語彙が不十分である点である.概念を定義するための属性は,全て概念ベースに定義されている語でなければならないという制約があるため,4万語規模の概念ベースに定義されていない語を,新たな属性として概念に付与するためには,概念ベースの拡張が必須となる.概念ベースの拡張においては,概念に付与すべき属性の抽出手法,並びに,獲得した属性に対する重みの付与手法が必要となる.まず,国語辞書からの概念ベース構築の際に適切に属性を取得することができなかった概念を抽出し,不適切な概念を削除する.属性の抽出手法として,電子化された新聞記事等における共起に基づく手法を提案する.また,重みの付与手法として,属性関連度と概念価値に基づく手法を提案する.このように拡張した概念ベースの有用性を,関連度計算方式を用いた評価実験によって示している. \section{概念ベース} 概念ベース\cite{kojima2004,hirose2002}は,概念(見出し語)とその特徴を表す複数の語(属性)を対の組として集めた語の知識ベースである.任意の概念$A$は,見出し語$A$と属性$a_i$,重み$w_i$により以下のように定義する.\begin{equation}A=\{(a_1,w_1),(a_2,w_2),(a_3,w_3),\cdots,(a_k,w_k)\}\end{equation}なお,属性となる全ての語は概念ベースの概念として定義されていなければならない.このことから,各概念は$n$次元の属性連鎖集合として定義されることとなる(図\ref{fig:concept-base}).すなわち,概念$A$の属性$a_i$を一次元の属性(一次属性)と呼ぶ.さらに,属性$a_i$を概念として見た場合,$a_i$の属性$a_{i_j}$を概念$A$の二次元の属性(二次属性)として導出することが可能である.\begin{figure}[b]\begin{center}\includegraphics{14-5ia2f1.eps}\caption{概念ベース}\label{fig:concept-base}\end{center}\end{figure}概念とは,$n$次元の属性連鎖集合で定義される属性空間である.概念は,無限連鎖による属性集合であるため,起点となる概念を識別するために「見出し語」と言う表現を用いる.すなわち,見出し語とは,$n$次元の属性連鎖集合によって定義された属性空間を識別するためのラベルである.さらに,単に「属性」と表記する場合は,各概念の一次属性を表すものとする.各属性の重みは,概念と他の概念との関連の強さを定量的に評価するための基本量として付与している.すなわち,概念間の関連の強さは概念を構成する(属性,重み)の対の集合の総合的な一致度合いに基づき定量化される.このため,概念間の関連の強さを定量化するためには,属性とその重みを具体的にどのように付与するかが重要となる.なお,本論文で対象とする概念ベースでは,各概念の属性はシソーラス等を用いて意味的に圧縮していない.その理由として,各概念が持つ微妙な特徴が意味的な圧縮を行うことによって失われること,また,概念を意味的に適切に圧縮することが困難であることが挙げられる. \section{関連度計算方式} 関連度計算方式\cite{watabe2006}は,概念ベースに定義された語と語の関連の強さを,同義性,類似性のみに関わらず定量化する手法である.本論文では,概念を構成する属性集合間の一致の度合いを定量化する関連度計算方式を前提に,この方式に適した概念ベースの構築法を論じている.また,語と語の類似性評価手法として,シソーラスなどを用いて属性の意味的な圧縮を行った概念ベースを前提に各概念をベクトルと見なし,余弦を用いて定量化するベクトル空間モデルが広く利用されている\cite{Kawashima2005}.この方式は,「赤ちゃんと子ども」や「自動車と車」といった,類似性の高い語と語の類似性評価には適しているが,「赤ちゃんと玩具」や「自動車と事故」といった語と語の関連性は,類似性という観点からは関連性評価が困難であると考えられる.そのため,本論文に使用する概念ベースは,より柔軟に語と語の関連の強さを定量化するために関連度計算方式を前提としている.以下,概念間の属性一致度,並びに属性一致度に基づき概念関連度を求める関連度計算方式について述べる.\subsection{属性一致度}概念$A$,$B$の属性を$a_i$,$b_j$,対応する重みを$u_i$,$v_j$とし,それぞれ属性が$L$個,$M$個あるとする.($L\leqM$).また,各概念の属性の重みを,その総和が$1.0$となるよう正規化している.\begin{gather*}A=\{(a_i,u_i)|i=1\simL\}\\B=\{(b_j,v_j)|j=1\simM\}\end{gather*}このとき,概念$A$と概念$B$の属性一致度$\mathit{MatchWR}(A,B)$を以下のように定義する.\begin{gather}\mathit{MatchWR}(A,B)=\sum_{a_i=b_j}\mathit{min}(u_i,v_j)\\\mathit{min}(u_i,v_j)=\begin{cases}u_i(u_i\leqv_j)\\v_j(v_j<u_i)\end{cases}\end{gather}ただし,$a_i=b_j$は属性同士が一致した場合を示している.すなわち,一致した属性の重みのうち,小さい方の重みの和が属性一致度となる.属性一致度は$0.0\sim1.0$の値をとる.\subsection{概念関連度}概念関連度$\mathit{MR}$は,対象となる二つの概念において,一次属性の組み合わせについて属性一致度を求め,これを基に概念を構成する属性集合全体としての一致度合いを計算することで算出される.具体的には,まず,見出し語として一致する属性同士($a_i=b_j$)について,優先的に対応を決定する.他の属性については,全ての一次属性の組み合わせにおいて属性一致度を算出し,属性一致度の和が最大となるように組み合わせを決定する.属性一致度を考慮することにより,属性同士の見出し語としての一致だけではなく,一致度合いの近い属性を有効に対応づけることが可能となる.また,概念$A$,$B$間の見出し語として一致する属性($a_i=b_j$)については,以下の処理により別扱いとする.$a_i=b_j$なる属性があった場合,それらの属性の重みを参照し,$u_i>v_j$となる場合は,$a_i$の重み$u_i$を$u_i-v_j$とし,属性$b_j$を概念$B$から除外する.逆の場合は,同様に$b_j$の重み$v_j$を$v_j-u_i$とし,属性$a_i$を概念$A$から除外する.見出し語として一致する属性が$T$組あった場合,概念$A$,$B$はそれぞれ$A'$,$B'$として以下のように再定義され,これらの属性間には見出し語として一致する属性は存在しなくなる.見出し語として一致した属性の概念関連度を$\mathit{MR}_{\mathit{com}}(A,B)$とし,以下の式で定義する.\begin{gather}\mathit{MR}_{\mathit{com}}(A,B)=\sum_{a_i=b_j}\mathit{min}(u_i,v_j)\\A'=\{(a_i',u_i')|i=1\simL-T\}\nonumber\\B'=\{(b_j',v_j')|j=1\simM-T\}\nonumber\\\mathit{min}(u_i,v_j)=\begin{cases}u_i(u_i\leqv_j)\\v_j(v_j<u_i)\end{cases}\end{gather}次に,見出し語として一致する属性を除外した$A'$,$B'$の概念関連度を$\mathit{MR}_{\mathit{def}}(A',B')$とする.$\mathit{MR}_{\mathit{def}}(A',B')$を算出するために,属性数の少ない方の概念$A'$の並びを固定し,属性間の属性一致度の和が最大になるように概念$B'$の属性を並べ替える.この時,対応にあふれた属性は無視する.概念$A'$の属性$a_i'$と概念$B'$の属性$b_{x_i}$が対応したとすると,概念$B'$は以下のように並び換えられる.\begin{equation}B'=\{(b_{x_1},v_{x_1}),(b_{x_2},v_{x_2}),\cdots,(b_{x_{L-T}},v_{x_{L-T}})\}\end{equation}この結果,見出し語として一致する属性を除去した属性間の概念関連度$\mathit{MR}_{\mathit{def}}(A',B')$を以下の式によって定義する.$\mathit{MR}_{\mathit{def}}(A',B')$は対応が決定した属性間の重みの比率と,重みの平均値を属性一致度に乗じることで,属性一致度を補正する.\begin{gather}\mathit{MR}_{\mathit{def}}(A',B')=\sum_{s=1}^{L-T}\mathit{MatchWR}(a_s',b_s')\times\frac{\mathit{min}(u_s',v_s')}{\mathit{max}(u_s',v_s')}\times\frac{u_s'+v_s'}{2}\\\mathit{max}(u_i,v_j)=\begin{cases}u_i(u_i\geqv_j)\\v_j(v_j>u_i)\end{cases}\end{gather}このように,見出し語として一致する属性間の概念関連度$\mathit{MR}_{\mathit{com}}(A,B)$と,見出し語として一致しない属性間の概念関連度$\mathit{MR}_{\mathit{def}}(A',B')$をそれぞれ算出し,合計を概念$A$,$B$の概念関連度$\mathit{MR}(A,B)$とする.\begin{equation}\mathit{MR}(A,B)=\mathit{MR}_{\mathit{com}}(A,B)+\mathit{MR}_{\mathit{def}}(A',B')\end{equation}概念関連度もまた,属性一致度と同様$0.0\sim1.0$の値をとる. \section{関連度計算方式を用いた概念ベース評価法} \label{hyouka}構築した概念ベースの性能評価は,概念ベースに定義されている概念$X$と概念$Y$の関連の強さに対して,人間の評価と関連度計算の比較により行う.任意の概念$X$と概念$Y$に対し出来るだけ人間の判断結果に近い結果が得られる概念ベースが,連想機能を実現する上で有効であると考えられる.\subsection{評価用データ}任意の概念を基準概念$X$とし,人間が判断して非常に高い関連があると考えられる概念$A$,概念$A$ほどではないが,概念$X$に対して関連があると考えられる概念$B$,そして,概念$X$に対して無関連だと考えられる概念$C$を一組とするデータを準備する.このような4つの見出し語が一組となり構成されるデータセットを$X$-$\mathit{ABC}$評価用データと呼ぶ(表\ref{Table:X-ABC}).\begin{table}[t]\input{02t1.txt}\end{table}\subsection{X-ABC関連度評価法}基準概念$X$に対して,概念$A$,概念$B$,概念$C$の概念関連度$\mathit{MR}(X,A)$,$\mathit{MR}(X,B)$,$\mathit{MR}(X,C)$を算出する.このとき,それぞれの概念関連度の間に以下の式が成立するならば,判断は正しいとする.また,全$X$-$\mathit{ABC}$評価用データに対し,以下の式を満たす$X$-$\mathit{ABC}$評価用データの比率を$C$平均順序正解率と呼ぶ.$set_{num}$は$X$-$\mathit{ABC}$評価用データの総数である.\begin{gather}\mathit{MR}(X,A)-\mathit{MR}(X,B)>\mathit{AveMR}(X,C)\\\mathit{MR}(X,B)-\mathit{MR}(X,C)>\mathit{AveMR}(X,C)\\\mathit{AveMR}(X,C)=\frac{\sum_{i=1}^{\mathit{set}_{\mathit{num}}}\mathit{MR}(X_i,C_i)}{\mathit{set}_{\mathit{num}}}\end{gather}なお,$\mathit{AveMR}(X,C)$は$X$-$\mathit{ABC}$評価用データ全体における$MR(X,C)$の平均値である.基準概念$X$に対して無関連である概念$C$との概念関連度$\mathit{MR}(X,C)$は,0となるのが理想であるが,一つでも一致する属性があった場合,$\mathit{MR}(X,C)$は$0$とならない.そのため,$\mathit{AveMR}(X,C)$を概念関連度の誤差とみなし,各概念関連度($\mathit{MR}(X,A)$,$\mathit{MR}(X,B)$,$\mathit{MR}(X,C)$)間に誤差以上の有意差があった場合を正解し,概念ベースの性能評価を行う. \section{国語辞書を用いた基本概念ベース構築法} \label{kihon-make}本節では,電子化国語辞書から概念ベースを構築する手法について述べる.この手法では,電子化国語辞書から各見出し語に対して,語義説明文に含まれる自立語を属性候補として抽出し,それらを,属性信頼度(語に関する種々の知識から属性としての確からしさを定量化した値)により精錬し不適切な語を削除する\cite{kojima2004}.その後,手作業で作成した重み学習データを用いた最適化実験により属性の重みを付与することにより概念ベース(基本概念ベース)を構築している.また,属性の取得数が少数であった見出し語に関しては,基本概念ベースには定義していない.\subsection{電子化辞書からの属性抽出}電子化国語辞書の見出し語の語義説明文中に含まれる自立語を構文解析により機械的に抽出する.次に,見出し語の意味には関係なくどの説明文にも形式的に含まれる自立語は削除し属性候補を得る(Ex.する,なる,…).このようにして,概念総数約3万4千,属性総数約150万,各概念につき平均約40の属性を持つ初期概念ベースが得られる.初期概念ベースは,厳密には関連度計算のための基本量として重みが付与された概念ベースではなく,「概念—属性」の対の集合が取得され,各属性の語義説明文内での出現頻度を重みとして保持している.\subsection{学習による重み付与手法}\label{sec:gakushu}初期概念ベースについて説明文中の出現頻度と語に関する種々の知識(シソーラスや同義語辞書等)を用いて属性らしさを表す属性信頼度を求める\cite{kojima2004}.さらに属性信頼度の値により属性のクラス分けを行い,学習実験によりクラス毎の最適な属性の重みを得る.初期概念ベースを用いて属性信頼度を算出し,実験により各属性の重みを算出する重み学習による属性重み付与手法について述べる.各属性の重みが属性の確からしさを表す属性信頼度に関係することは明らかであるが,各属性信頼度に対してどのような重みを付与すればよいのかは極めて難しい課題である.そこで,手作業で用意した学習データを用いて,評価結果が最適となる属性の重みを実験的に求める手法が提案されている.学習実験により属性の重みを決定する際に,各属性の重みを連続値として最適化を行うのは不可能である.したがって,属性信頼度を基準とし,6つのクラスに分割し,クラスごとに重みを最適化する.以下,属性信頼度と属性信頼度を算出するための手がかり,学習データ,実験的に決定したクラス別の重みについて述べる.\subsubsection{属性信頼度と信頼度クラス}属性信頼度は複数の手がかりを用いて算出され,各手がかりに合致する属性の確からしさは手作業によるサンプルの目視評価によって求められている.属性信頼度を算出するための手がかりは以下の6項目である.\begin{enumerate}\item概念と属性の一致\item関係データに定義されている\item初期概念ベースの頻度重み\item初期概念ベースを用いた概念関連度\item概念と属性の表記の部分一致\item概念と属性が相互属性関係にある\end{enumerate}\noindent関係データとは電子化辞書を解析した際に取得された語と語の関係を示すデータであり,同義・類義・反意などの関係が定義されている.また,相互属性関係とは,概念$A$の属性$a_i$に対し,概念$a_i$の属性として概念$A$が付与されている場合,概念$A$と属性$a_i$は相互属性関係にあると定義する.また,複数の手がかりに該当する属性の属性信頼度は,独立事象の確率合成によって算出する.独立事象$P_1$,$P_2$の起こりうる確率が$p_1$,$p_2$であった場合,$P_1$,$P_2$が同時に起こりうる確率$P$は以下の式\ref{eq:gousei}によって算出する.\begin{equation}P=\frac{p_1p_2}{p_1p_2+(1-p_1)(1-p_2)}\label{eq:gousei}\end{equation}算出された各属性の属性信頼度を表\ref{Table:shinraido-class}に示すように信頼度クラスに分類する.\begin{table}[b]\input{02t2.txt}\end{table}\subsubsection{各信頼度クラスの属性の重み}重み学習データ(表\ref{Table:gakushu-data})を用いてC平均順序正解率が最高となる各属性信頼度クラスの重みは表\ref{Table:gakushu-kekka}のように得られる.\begin{table}[b]\input{02t3.txt}\end{table}重みが$0$となる信頼度クラス$5$,$6$に関しては,属性として採用されず,概念ベースから削除される.信頼度クラス$1$に関しては,同義・類義・反意をさらに細分化して重みを算出しており,同義が$8$,類義が$4$,反意が$1$となっている.このとき,概念ベースの概念総数は約3万4千,属性総数は約53万,平均属性数は各概念につき約16個となる.このように構築された概念ベースを基本概念ベースと呼ぶ.\begin{table}[b]\input{02t4.txt}\end{table}\subsubsection{特徴と問題点}\label{special}学習による重み付与手法は,概念ベースの属性を選別し,適切な重みを付与する手法としては十分評価できるものである.しかし,同じ信頼度クラスに属する属性には同じ重みを付与することになるため,信頼度クラスの設定が曖昧であると適切な重みを算出することが困難になる.また,この方式は,学習データに大きく依存するため一般性に問題が残る(図\ref{fig:270-590}).図\ref{fig:270-590}では,重みを最適化するために使用した590組の学習データによるC平均順序正解率と,590組の学習データと重複しない500組の評価データによるC平均順序正解率を示している.\begin{figure}[t]\begin{center}\includegraphics{14-5ia2f2.eps}\caption{基本概念ベースの性能評価}\label{fig:270-590}\end{center}\end{figure}最適化実験に使用した学習データによるC平均順序正解率と,最適化実験に使用しなかった評価データによるC平均順序正解率では,およそ10\%の差違が生じており,学習対象となる学習データに大きく依存する重みが算出されていることが分かる.さらに,語彙数の拡大された概念ベースの構築に際しては,信頼度クラスの分割数の設定と,それに伴う最適化学習時間などに多くの課題が発生する. \section{新聞記事を用いた概念ベース構築法} 本節では,基本概念ベースの構築において,電子化辞書から適切な属性を抽出することができなかった見出し語について,新聞記事などを用いて属性を取得し,概念ベースを大規模なものへ拡張し構築する手法について述べる.また,基本概念ベースに定義されている概念についても,属性を追加している.なお,基本概念ベースへの属性追加手法として,語間の論理関係を用いた属性拡張\cite{kojima2004a}が提案されているが,基本概念ベースに定義される概念のみを対象としており,本論文で目的とする概念ベースの拡張とは本質的に異なる.基本概念ベースに定義されている約4万語の概念では,日常会話に出現する語に幅広く対応することが困難であり,少なくとも国語辞書の見出し語として記載される概念については,概念ベースとして構築することが望ましい.しかし,電子化辞書に記載される語義説明文からは適切に属性を取得できない概念が多数存在するため,新聞記事やWEB文書など,一般の文書から属性を獲得することが必要となる.新聞記事など一般の記事から取得した属性候補の確からしさは,電子化辞書に記載される語義説明文から取得した属性候補に対して低下する.そのため,概念に対して不適切な属性(雑音属性)の除去を行い,適切な重みを付与する必要がある.これには,\ref{sec:gakushu}節に述べたように,属性信頼度の考え方に基づく概念ベースの精錬手法が有効であると考えられるが,概念数の増大により,適切な学習データを作成することや,学習データに基づく重みの最適化を行うために時間がかかることなど,種々の問題が発生する.したがって,大規模な概念ベースを構築する際には,概念ベースの規模に即した精錬手法が必要となる.本論文では,大規模に拡張した概念ベースの精錬手法として,情報検索やテキストマイニングなどの分野において広く利用されるキーワード重み付け手法である$\mathit{tf}\cdot\mathit{idf}$法\cite{tokunaga1999}に基づき各概念に付与された属性に対し初期属性重みを付与する.さらに,その初期属性重みを用いることにより,拡張した概念ベースに定義される任意の概念と概念の概念関連度を算出することが可能となる.そのため,各概念と属性の概念関連度を特に属性関連度と呼び,属性関連度を用いて雑音属性の除去を行う.また,$\mathit{idf}$の考え方に基づく概念価値を算出し再度重みを付与することにより,概念ベースの質の向上を図っている.\subsection{電子化辞書からの見出し語抽出}一般的な国語辞書にはおよそ20万語の語彙が収録されている.電子化国語辞書を用いた基本概念ベースの構築においては,見出し語の説明文から取得された自立語数(属性数)が少数である場合には,その見出し語は概念として採用されていなかった.しかし,4万語程度の概念では,自然な会話を行うために語と語の関連性を定量化する上で語彙が不十分である.そこで,電子化新聞の記事を用いることにより,国語辞書からは属性の取得が困難であった見出し語(概念)について,属性を抽出する手法を提案する.国語辞書に掲載されている20万語のうち,見出し語(概念)として不適切な表記を除去した約12万語の概念について,電子化新聞(毎日新聞,日本経済新聞)より属性を取得する.すなわち,基本概念ベースに定義されている概念についても,同様に属性を取得する.表\ref{Table:get-word}に電子化辞書に記載されており,且つ基本概念ベースでは定義されなかった見出し語(概念)の例,および,見出し語として不適切な表記の例を示す.\begin{table}[t]\input{02t5.txt}\end{table}基本概念ベースにはカタカナ語や固有名詞が定義されていなかった場合が多い.また,一般的に会話文中に出現するような「飲食店」などの語も定義されていない.見出し語として不適切であるとしたものは,「…」による表記の省略,「〈〉」による表記の使用例,「・」による表記の並列等である.\subsection{電子化新聞からの属性抽出}\label{get-attribute}電子化新聞には,電子化辞書のように「語—説明文」という明確な関係がない.このため,電子化新聞から「概念—属性」の関係を抽出するためには,新聞記事内での語と語の共起を手がかりとする手法が有効であると考える\cite{hirose2002}.本論文における共起とは,句読点によって区切られた領域において,単語$A$と単語$B$が同時に出現している場合,単語$A$と単語$B$は共起していると定義する.例えば,図\ref{fig:news-kyouki}に示すように,新聞記事内に「…,大学が国立研究所など外部の研究機関に大学院の研究室を置く,…」という文があった場合,語「大学,国立,研究所,外部,…」など,文中に出現する単語は共起していると定義する.このように,電子化新聞中の記事を句読点に区切られた領域に分割し,領域ごとに約12万語に拡張された概念ベースに定義される概念および属性候補を自立語として抽出する.\begin{figure}[b]\begin{center}\includegraphics{14-5ia2f3.eps}\caption{共起の例}\label{fig:news-kyouki}\end{center}\end{figure}また,抽出された領域内の単語$A$,単語$B$,単語$C$,…の間には,単語$A$を概念とした場合,その属性として共起している単語$B$,単語$C$,…が付与されるという関係にある.「…,大学が国立研究所など外部の研究機関に大学院の研究室を置く,…」の例では,表\ref{Table:kyouki-zokusei}のように「概念—属性」の関係を取得する.\begin{table}[t]\input{02t6.txt}\end{table}このようにして,各概念に対して取得された属性数は平均で100属性ほどである.\subsection{初期属性重みの付与}本論文では,最終的な属性重みとして属性関連度と概念価値を用いる.しかし,前節までの手順により「概念—属性」の関係を抽出した段階では,各概念に対する属性に適切な重みが付与されていないため,属性関連度を算出することができない.そこで,$\mathit{tf}\cdot\mathit{idf}$法の考え方に基づく初期重みを付与することにより,属性関連度を算出する.\subsubsection{疑似$\mathit{tf}$の算出}$\mathit{tf}$とは,対象文書内に同一の単語が出現する頻度である.すなわち,限られた領域内で頻繁に出現する単語は重要であるという指標となる.しかし,本論文で構築する概念ベースでは,各概念に対して,重複する属性は付与していない.したがって,各概念に対して付与される属性の出現頻度は全て1回のみである.そのため,概念ベースからは定量的な$\mathit{tf}$の算出が困難である.そこで,本論文では,概念ベースの初期属性重み算出のために,基本概念ベースと属性抽出の際の共起情報を基に,以下の手順により,3段階の疑似$\mathit{tf}$値を各属性に付与する(図\ref{fig:shoki-shinraido}).$\mathit{tf}(A,a)$は,概念(見出し語)$A$に対する属性候補$a$の疑似$\mathit{tf}$値を示している.\begin{figure}[t]\begin{center}\includegraphics{14-5ia2f4.eps}\caption{初期属性重み算出のための疑似$\mathit{tf}$導出}\label{fig:shoki-shinraido}\end{center}\end{figure}新聞記事を用いた概念ベースの拡張では,前提として基本概念ベースを使用している.基本概念ベースに定義される概念に対し,付与されている属性の質は高い.そのため,基本概念ベースに定義されている「概念—属性」の関係は信頼性が高いと考えられるため,疑似$\mathit{tf}$を1.0としている.また,基本概念ベースには定義されていない「概念—属性」の関係は,新聞記事内での共起情報に基づいて収集している.しかし,新聞記事内での共起情報のみでは,「概念—属性」の関係がどの程度確からしいかを判定することは困難である.したがって,新聞記事内の共起情報のみによって関係が示される属性に関しては疑似$\mathit{tf}$を0.0とし,属性候補として保留する.$\mathit{tf}\cdot\mathit{idf}$法では,単語の出現頻度と,全文書における対数文書頻度を乗じることによりキーワードの重みを算出している.そのため,疑似$\mathit{tf}$を0.0とした場合,$\mathit{tf}\cdot\mathit{idf}$法に基づいた重み付けを行うと,重みは0.0となる.しかしながら,新聞記事内での共起情報以外に「概念—属性」の関係を明確にすることができないために,属性候補を雑音属性として除去すると,大半の属性候補は概念ベースから除去されてしまう.そこで,疑似$\mathit{tf}$を0.0とし属性候補を保留しておき,後述の属性関連度を算出し,属性としての採否を決定することで,最終的な属性として付与することとする.本論文では,直接意味語のみならず,間接意味語も含めて,概念の属性とすることを目的としている.複合語を形成する語と語の間には間接意味語の関係となる場合が多いと考えられる.ここで,複合語とは,「携帯電話」などのように,複数の自立語(名詞)が複合することによって,新たな意味を持つ語のことである.新聞記事内に出現する語のうち,本論文では,特に隣接する語と語の間には関係があると考え,記事内で隣接して出現する語と語を複合語として定義した.新聞記事から取得された複合語はおよそ46万語ある.概念と属性候補が複合語の関係にある場合,共起の条件のみを満たす「概念—属性」の関係よりも信頼性があるものとし疑似$\mathit{tf}$値を0.5としている.同様に,概念と属性候補の見出し語の表記が部分的に一致している場合,たとえば,「車と自動車」のように,「車」という表記が一致しており,これらの語と語の間には関連があると考えられる.そのため,疑似$\mathit{tf}$値を0.5としている.さらに,国語辞書における自立語とその語義説明文の間には,語と語がどのような論理関係を持っているかが記されている場合が多い.そこで,図\ref{fig:kankei}に示す関係を用いて,語と語の明確な論理関係を抽出し,「概念—属性」の関係が国語辞書において論理関係を取得できる場合,疑似$\mathit{tf}$値を1.0としている.これは,複合語や表記の部分的な一致とは異なり,国語辞書の情報から関係が明確となるため,概念に対して確からしい属性であると判断し,疑似$\mathit{tf}$値を付与している.また,国語辞書の記載情報については,「対」と記されている見出し語との関係は反意語,「類」と記されている見出し語との関係は類義語,また,体言止めとなっている場合は見出し語と同義語,「〜の略」と記されている場合は,見出し語と同義であるとした.\begin{figure}[t]\begin{center}\includegraphics{14-5ia2f5.eps}\caption{同義・類義・反意の語彙説明文}\label{fig:kankei}\end{center}\end{figure}国語辞書の記載情報と同様に,シソーラスにおいて上位・下位・仲間(親ノードが同じ)(図\ref{fig:shoki-shinraido})関係にある「概念—属性」の関係も,人手で作成された信頼できる情報であるとし,疑似$\mathit{tf}$値を1.0としている.\subsubsection{$\mathit{idf}$の考え方に基づく概念価値}概念価値とは,概念ベースに定義されている各概念の概念ベース内における重要性を示す値である.各概念は,$n$次の属性連鎖集合によって定義されている.各概念を特徴づける属性は,各概念の語義説明文や同一の新聞記事に共に出現する語である.それら属性はすべて概念ベースにおいて定義されているため,さらにそれらの属性の語義説明文や新聞記事に共出現する語を取得することが可能である.したがって,$n$次の属性集合を仮想的な文書集合として捉えることができる.本論文では,概念ベースを仮想的な文書空間と捉え概念価値を算出し,概念ベースに定義される各概念に対する属性の重みとして付与する手法を提案する.概念ベースの特性上,多数の概念の属性として付与されているような概念は参照頻度が高く,各概念を特徴づける上で価値が低いと考えられる.そのため,対数文書頻度である$\mathit{idf}$の考え方に基づき,少数の概念にしか属性として付与されていない概念の価値を重要視することを目的としている.概念ベースにおける概念価値として,情報検索などの分野で広く利用されている$\mathit{tf}\cdot\mathit{idf}$に基づく概念価値算出手法について述べる.本論文では特に,$\mathit{idf}$の考え方を基に概念価値の算出を行う.$\mathit{idf}$とは,稀に出現する語は重要であるという観点に基づいた情報価値である.一般に$\mathit{idf}$は以下の式によって算出される.\begin{equation}\mathit{idf}(t)=\log\frac{N}{\mathit{df}(t)}\end{equation}ここで,$N$は検索対象となる文書集合中の全文書数,$\mathit{df}(t)$は語$t$が出現する文書数である.$\mathit{idf}$は,ある語が少数の文書にしか出現しない場合において大きな値となり,全ての文書に出現するような語は最小の値となる.一般に検索対象となる文書数は膨大であり,対数をとることでその分布を抑制している.本論文で対象としている概念ベースは,$n$次元の属性連鎖集合で定義されており,見出し語を起点とし,$n$次元までの属性集合を取得することが可能である.したがって,概念ベースに定義される全見出し語数(約12万語)を仮想的な全文書数とし,ある概念$A$が12万語の概念の中で属性として参照されている見出し語数を,仮想的な概念$A$の出現文書数とみなすことができる.したがって,概念ベースにおける擬似的な$\mathit{idf}$を以下の式によって定義する.\begin{equation}V\_\mathit{CB}_{(n)}(t)=\log_2\frac{N_{\mathit{all}}}{\mathit{df}(t)}\label{idf-base}\end{equation}このとき,$N_{\mathit{all}}$は概念ベースに定義される全概念数である約12万,$\mathit{df}(t)$は,語$t$を$n$次属性内に属性として保持している概念数である.なお,一般に$\mathit{idf}$を算出する際の抑制関数として常用対数が用いられている.これは,情報検索やテキストマイニングなどで対象とする文書数が数億から数十億といった巨大な規模の文書をソースとしているためである.一方,本論文で扱う概念ベースは約12万語の仮想的な文書集合であり,常用対数を用いることによって抑制幅が大きくなり各値の分布が高密度に圧縮されるため,対数の底は2としている.このように,$\mathit{idf}$の考え方に基づき,$n$次の属性集合を用いて擬似的に算出する概念価値を$V\_\mathit{CB}_{(n)}$と定義する.\subsubsection{初期属性重みの付与}\label{shoki-omomi}本論文では,属性関連度を用いて各概念に付与された属性に重みを算出する手法を提案する.そのため,属性関連度を算出するために,各概念に付与される属性には属性重みが付与されている必要がある.属性関連度を算出するための初期属性重みとして,疑似$\mathit{tf}$と$V\_\mathit{CB}_{(1)}$による重み付けを行う(式\ref{shoki-zokuseiomomi}).\begin{equation}w(A,a)=p\_\mathit{tf}(A,a)\timesV\_\mathit{CB}_{(1)}(a)\label{shoki-zokuseiomomi}\end{equation}$w(A,a)$は概念$A$に対する属性候補$a$の属性重み,$p\_\mathit{tf}(A,a)$は概念$A$に対する属性候補$a$の疑似$\mathit{tf}$値,$V\_\mathit{CB}_{(1)}(a)$は属性候補を新聞記事から収集し,疑似$\mathit{tf}$を各概念に対する属性候補に付与した後に,疑似$\mathit{tf}$値が0.0となった属性候補を除去した概念ベースでの一次属性を用いた$a$の概念価値である.\subsection{属性関連度}\label{kinji-shinraido}概念ベースに定義される任意の概念と概念の関連度を概念関連度と呼ぶことに対し,「概念—属性」の関係にある概念同士の概念関連度を特に属性関連度($\mathit{AR}$)と呼ぶ.属性関連度は概念関連度と同様に,各概念に付与される属性に対して属性重みが付与されることにより算出される.各属性に重みが付与されていない限りは属性関連度を算出できないため,\ref{shoki-omomi}節に述べた手法により重みを付与し,概念$A$に対する属性$a_i$の属性関連度を算出している(式\ref{zokusei-kanrendo}).\begin{equation}\mathit{AR}(A,a_i)=\mathit{MR}(A,a_i)\label{zokusei-kanrendo}\end{equation}また,属性関連度を用いて新聞記事から拡張した概念ベースの属性の精錬を行う.新聞記事から「概念—属性」の関係を抽出した場合,国語辞書など定義的な情報源から抽出する場合と比較すると,属性としての信頼性が低下する.そのため,初期属性重みを基に,属性を精錬する必要がある.新聞記事からの属性拡張を行っているが,前提条件として基本概念ベースを使用しているため,精錬に際しては,図\ref{fig:270-590}に示した500組の$X$-$\mathit{ABC}$評価用データを用いて,基準概念$X$に対し無関連の概念である概念$C$の平均値,すなわち基本概念ベースにおける$\mathit{MR}(X,C)$の平均値(0.02)を閾値とし,属性を選別している.このとき,拡張した概念ベースは,概念総数約12万,属性総数約250万,各概念に対し平均約30属性が付与された.\subsection{属性関連度と概念価値に基づく重み付与手法}\label{shin-omomi}$\mathit{tf}\cdot\mathit{idf}$法では,ある限られた領域内に頻出する語は重要であるという考え方に基づく$\mathit{tf}$と,全文書集合において稀に出現する語は重要であるという考え方に基づく$\mathit{idf}$を乗じることによって各キーワードの重みを算出している.一方,本論文では,$\mathit{idf}$の考え方に基づく概念価値を定量的に算出することは可能であるが,出現頻度の情報に基づく$\mathit{tf}$を算出することができない.そのため,疑似$\mathit{tf}$を付与することにより,$\mathit{tf}\cdot\mathit{idf}$法に準拠した手法による重み付けを行っている.しかし,疑似$\mathit{tf}$は3段階の値であり,詳細な重みを算出できているとは言い難い.そこで,疑似$\mathit{tf}$と概念価値によって重みを付与した概念ベースを用いて属性関連度を算出し,「概念—属性」の関連の強さが大きいほどその属性は概念にとって重要な属性であると考え,属性関連度($\mathit{AR}$)と概念価値($V\_\mathit{CB}_{(n)}$)を乗じた値を重みとして付与する.具体的には,概念$A$の属性$a_i$の重み$u_i$を以下の式で定義する.\begin{equation}u_i=\mathit{AR}(A,a_i)\timesV\_\mathit{CB}_{(n)}(a_i)\end{equation}本論文で提案する属性関連度と概念価値による重み付与手法では,\ref{kihon-make}節で作成された概念ベースへの実験による重み付与手法とは異なり,各属性の重みが離散値ではなく連続値をとることに特徴がある. \section{$X$-$\mathit{ABC}$関連度評価法を用いた評価実験} \ref{hyouka}節に述べた$X$-$\mathit{ABC}$関連度評価法を用いて,拡張した概念ベースの性能評価を行った.評価用データとして,多数の$X$-$\mathit{ABC}$評価用データを準備し,3名の被験者により目視評価を行い,3名全員が正しいと判定した1780組の$X$-$\mathit{ABC}$評価用データを採用した.実験に際しては,初期属性重みを付与した概念ベースに対し,属性関連度と概念価値を$V\_\mathit{CB}_{(1)}\simV\_\mathit{CB}_{(4)}$まで展開した値をそれぞれ重みとして付与した概念ベースの性能比較を行った.また,本論文では属性関連度と概念価値を乗じ,重みを付与するため,再帰的に重みを算出することが可能であり,再帰的に重みを付与した場合のC平均順序正解率の動向を調査した.最後に,基本概念ベースと拡張した概念ベースの性能比較として,500組の$X$-$\mathit{ABC}$評価用データと1780組の$X$-$\mathit{ABC}$評価用データを用いて性能評価を行った.\subsection{属性関連度と概念価値による重み付与手法の検証}\ref{shoki-omomi}節において作成した初期属性重みを付与した概念ベースと,\ref{shin-omomi}節において作成した概念ベースの性能比較を行った.初期属性重みに関しては,疑似$\mathit{tf}$が0.0となった属性候補を除去し,残った属性候補のみを用いて概念価値を算出し,重みとして付与している(式\ref{idf-base}).また,属性関連度と概念価値による重み付与手法では,初期属性重みを用いて算出した属性関連度を基に,属性関連度が$0.02$に満たない属性候補を除去し,1次属性から算出した概念価値から4次属性まで概念ベースを属性連鎖によって展開し算出した概念価値を用いて重みを付与した概念ベースを構築した.図\ref{fig:shoki-kanrendo-comp}にそれぞれのC平均順序正解率を示す.\begin{figure}[t]\begin{center}\includegraphics{14-5ia2f6.eps}\caption{初期属性重みと属性関連度$\times$概念価値}\label{fig:shoki-kanrendo-comp}\end{center}\end{figure}図\ref{fig:shoki-kanrendo-comp}から,雑音属性の除去を行った後に,2次属性まで各概念を属性連鎖によって展開した際に取得される概念価値$V\_\mathit{CB}_{(2)}$と属性関連度を乗じ,重みを付与した場合が最高となり,71.2\%となった.以降の検証では,属性関連度と概念価値$V\_\mathit{CB}_{(2)}$を乗じた重みを付与した概念ベースを拡張概念ベースと定義し,拡張概念ベースを用いて実験を行った.\subsection{属性関連度を繰り返し算出した重み付与手法の検証}属性関連度と概念価値に基づく重み付与手法は,算出された重みを基に再度属性関連度を算出することによって再帰的に重みを付与することが可能である.すなわち,拡張概念ベースに付与された重みを基に属性関連度を算出し,概念価値を乗じた重みを付与することができる.このような操作を繰り返すことによってC平均順序正解率にどのような変動が見られるかを調査した.図\ref{reverse}に結果を示す.\begin{figure}[b]\begin{center}\includegraphics{14-5ia2f7.eps}\caption{再帰的に重みを付与した場合のC平均順序正解率}\label{reverse}\end{center}\end{figure}図\ref{reverse}では左から順に拡張概念ベースを用いて属性関連度を算出し概念価値を乗じた重みを付与した概念ベース(first),firstを用いて属性関連度を算出し概念価値を乗じた重みを付与した概念ベース(second)…,と順に4回目の繰り返しまで示している.図\ref{reverse}から,再帰的に重みを付与することは可能であるが,徐々にC平均順序正解率が低下することが分かる.すなわち,再帰的に重みを付与しても,C平均順序正解率の向上は見込めないことが分かる.\subsection{基本概念ベースと拡張概念ベースの性能比較}本論文では,新聞記事から概念ベースを拡張する手法について論じているが,拡張のベースとなる基本概念ベースに定義される概念について,拡張することによって基本概念ベース部分の性能にどのような変化が見られるかを検証した.検証には基本概念ベースに定義されている概念のみで構成された$X$-$\mathit{ABC}$評価用データ500組と基本概念ベースに未定義の概念も含む1780組の$X$-$\mathit{ABC}$評価用データを用いた.実験結果を図\ref{kihon-kakucho}に示す.\begin{figure}[b]\begin{center}\includegraphics{14-5ia2f8.eps}\caption{基本概念ベースと拡張概念ベースの性能比較}\label{kihon-kakucho}\end{center}\end{figure}図\ref{kihon-kakucho}から,基本概念ベースに定義されている概念について54.8\%から73.2\%へC平均順序正解率を向上させたことが分かる.また,基本概念ベースに定義されていない概念も含む$X$-$\mathit{ABC}$評価用データについては,基本概念ベースでは概念関連度を正しく算出することができない概念について,拡張概念ベースによって対応を可能としたため,対応語彙数の拡張に成功していることが分かる.基本概念ベースでは,1780組の$X$-$\mathit{ABC}$評価用データに対応できずC平均順序正解率が7.4\%となり,拡張によって対応語彙数が拡大したことによる有効性が示されている.\subsection{考察}検証実験により,基本概念ベースの性能を大幅に向上し,対応できる語彙数を拡張しても,拡張概念ベースの基本概念ベース相当部分における性能もまた,元々基本概念ベースに定義されていた概念と同等の性能で概念関連度を算出することが可能となったと言える.すなわち,本論文で提案した手法を用いて基本概念ベースを新聞記事によって拡張し,属性関連度と概念価値を用いた重み付与手法によって構築した拡張概念ベースは有効であることが示されたと言える. \section{おわりに} 人間とコンピュータの自然な会話を実現するにはコンピュータに大規模の語について,類義語のみならず幅広い関連語を連想できる機能を持たせることが必須となる.この連想機能により,会話において,知らない語を知っている語に置き換え,文の意味を理解し,さらに入力文に含まれる語から応答にふさわしい語を想起することにより,自然な応答文を作り出すことが可能となる.本論文では,12万語を超える大規模概念ベースを構築するため,電子化辞書の語義説明文からだけではなく,電子化新聞等,対象語(概念)を含む一般的な情報文から多数の属性候補語を収集し,それらを属性関連度と概念価値に基づく属性重み付与法により精錬し適切な属性語を選出する方式を提案した.この方式では,流行語など,電子化国語辞書にも掲載されていない新概念についてもWEBのホームページを使い逐次拡張が可能となる.また,提案方式で構築した大規模概念ベース(12万語)を用いた関連度評価実験により,拡張された概念に関しても4万語規模概念ベース以上の性能が得られることを示した.ただし,提案手法では固有名詞と用言に関しては十分な属性を獲得することが出来ず,今後の課題として対応が必要である.固有名詞については,概念ベースとは別に,人名辞典,企業名辞典,地名辞典などの辞典類の知識ベース化による対処,また,用言については,大規模な格フレーム辞書\cite{kawahara2005,kawahara2006}の利用による対処を考えている.\acknowledgment本研究は文部科学省からの補助を受けた同志社大学の学術フロンティア研究プロジェクトにおける研究の一環として行った.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{広瀬\JBA渡部\JBA河岡}{広瀬\Jetal}{2002}]{hirose2002}広瀬幹規\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ概念間ルールと属性としての出現頻度を考慮した概念ベースの自動精錬手法\JBCQ\\newblock信学技報,電子情報通信学会,NLC2001-93,109--116.\bibitem[\protect\BCAY{笠原\JBA松澤\JBA石川}{笠原\Jetal}{1997}]{kasahara1997}笠原要\JBA松澤和光\JBA石川勉\BBOP1997\BBCP.\newblock\JBOQ国語辞書を利用した日常語の類似性判別\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf38}(7),\mbox{\BPGS\1272--1283}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2005}]{kawahara2005}河原大輔\JBA黒橋禎夫\BBOP2005\BBCP.\newblock\JBOQ格フレーム辞書の漸次的自動構築\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(2),\mbox{\BPGS\109--131}.\bibitem[\protect\BCAY{河原\JBA黒橋}{河原\JBA黒橋}{2006}]{kawahara2006}河原大輔\JBA黒橋禎夫\BBOP2006\BBCP.\newblock\JBOQ高性能計算環境を用いたWebからの大規模格フレーム構築\JBCQ\\newblock自然言語処理研究会,情報処理学会.\bibitem[\protect\BCAY{川島\JBA石川}{川島\JBA石川}{2005}]{Kawashima2005}川島貴広\JBA石川勉\BBOP2005\BBCP.\newblock\JBOQ言葉の意味の類似性判別に関するシソーラスと概念ベースの性能評価\JBCQ\\newblock\Jem{人工知能学会論文誌,20巻5号B},\mbox{\BPGS\326--336}.\bibitem[\protect\BCAY{小島\JBA渡部\JBA河岡}{小島\Jetal}{2002}]{kojima2004}小島一秀\JBA渡部広一\JBA河岡司\BBOP2002\BBCP.\newblock\JBOQ連想システムのための概念ベース構成法-属性信頼度の考え方に基づく属性重みの決定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(5),\mbox{\BPGS\93--110}.\bibitem[\protect\BCAY{小島\JBA渡部\JBA河岡}{小島\Jetal}{2004}]{kojima2004a}小島一秀\JBA渡部広一\JBA河岡司\BBOP2004\BBCP.\newblock\JBOQ連想システムのための概念ベース構成法-語間の論理関係を用いた属性拡張\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(3),\mbox{\BPGS\21--38}.\bibitem[\protect\BCAY{徳永}{徳永}{1999}]{tokunaga1999}徳永健伸\JED\\BBOP1999\BBCP.\newblock\Jem{情報検索と言語処理}.\newblock東京大学出版会.\bibitem[\protect\BCAY{渡部\JBA河岡}{渡部\JBA河岡}{2001}]{watabe2001}渡部広一\JBA河岡司\BBOP2001\BBCP.\newblock\JBOQ常識的判断のための概念間の関連度評価モデル\JBCQ\\newblock\Jem{自然言語処理},{\Bbf8}(2),\mbox{\BPGS\39--54}.\bibitem[\protect\BCAY{渡部\JBA奥村\JBA河岡}{渡部\Jetal}{2006}]{watabe2006}渡部広一\JBA奥村紀之\JBA河岡司\BBOP2006\BBCP.\newblock\JBOQ概念の意味属性と共起情報を用いた関連度計算方式\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(1),\mbox{\BPGS\53--74}.\bibitem[\protect\BCAY{吉村\JBA土屋\JBA渡部\JBA河岡}{吉村\Jetal}{2006}]{yoshimura2006}吉村枝里子\JBA土屋誠司\JBA渡部広一\JBA河岡司\BBOP2006\BBCP.\newblock\JBOQ連想知識メカニズムを用いた挨拶文の自動拡張方式\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(1),\mbox{\BPGS\117--141}.\end{thebibliography}\begin{biography}\bioauthor{奥村紀之}{2003年同志社大学工学部知識工学科卒業.2005年同志社大学大学院工学研究科知識工学専攻博士前期課程修了.同大学院工学研究科知識工学専攻博士後期課程在学.知識情報処理の研究に従事.言語処理学会会員.}\bioauthor{土屋誠司}{2000年同志社大学工学部知識工学科卒業.2002年同志社大学大学院工学研究科知識工学専攻博士前期課程修了.同年,三洋電機株式会社入社.2007年同志社大学大学院工学研究科知識工学専攻博士後期課程修了.同年,徳島大学大学院ソシオテクノサイエンス研究部助教.工学博士.主に,知識処理,概念処理,意味解釈の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.工学博士.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会各会員.}\bioauthor{河岡司}{1966年大阪大学工学部通信工学科卒業.1968年同大学院修士課程修了.同年,日本電信電話公社入社,情報通信網研究所知識処理研究部長,NTTコミュニケーション科学研究所所長を経て,現在同志社大学工学部教授.工学博士.主にコンピュータネットワーク,知識情報処理の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,IEEE(CS)各会員.}\end{biography}\biodate\end{document}
V25N02-03
\section{はじめに} \label{sec:introduction}難解なテキストの意味を保持したまま平易に書き換えるテキスト平易化は,言語学習者や子どもをはじめとする多くの読者の文章読解を支援する.近年,テキスト平易化を同一言語内の翻訳問題と考え,統計的機械翻訳を用いて入力文から平易な同義文を生成する研究\cite{specia-2010,zhu-2010,coster-2011b,coster-2011a,wubben-2012,stajner-2015a,stajner-2015b,goto-2015}が盛んである.しかし,異言語間の機械翻訳モデルの学習に必要な異言語パラレルコーパスとは異なり,テキスト平易化モデルの学習に必要な単言語パラレルコーパスの構築はコストが高い.これは,日々の生活の中で対訳(異言語パラレル)データが大量に生産および蓄積されるのとは異なり,難解なテキストを平易に書き換えることは自然には行われないためである.そのため,公開されておりテキスト平易化のために自由に利用できるのは,EnglishWikipedia\footnote{http://en.wikipedia.org}とSimpleEnglishWikipedia\footnote{http://simple.wikipedia.org}から構築された英語のパラレルコーパス\cite{zhu-2010,coster-2011a,hwang-2015}のみであるが,SimpleEnglishWikipediaのように平易に書かれた大規模なコーパスは英語以外の多くの言語では利用できない.そこで本研究では,任意の言語でのテキスト平易化を実現することを目指し,生コーパスから難解な文と平易な文の同義な対(テキスト平易化のための疑似パラレルコーパス)を抽出する教師なし手法を提案し,獲得した疑似パラレルコーパスと統計的機械翻訳モデルを用いて英語および日本語でのテキスト平易化を行う.図~\ref{fig:abstract}に示すように,我々が提案するフレームワークでは,リーダビリティ推定と文アライメントの2つのステップによって生コーパスからテキスト平易化のための疑似パラレルコーパスを構築する.大規模な生コーパスには,同一の(あるいは類似した)イベントや事物に対する複数の言及や説明が含まれると期待でき,それらからは同義や類義の関係にある文対を得ることができるだろう.さらに我々はリーダビリティ推定によって難解な文と平易な文を分類するので,生コーパスから難解な文と平易な文の同義な対を抽出することができる.\begin{figure}[t]\begin{center}\includegraphics{25-2ia3f1.eps}\end{center}\caption{疑似パラレルコーパスと統計的機械翻訳モデルを用いたテキスト平易化}\label{fig:abstract}\end{figure}我々は2つの設定で提案手法の効果を検証した.まず先行研究と同様に,難解なテキストと平易なテキストのコンパラブルコーパスからテキスト平易化のためのパラレルコーパスを構築した.我々の提案する文アライメント手法は難解な文と平易な文のアライメント性能を改善し,高品質にテキスト平易化コーパスを構築できた.さらに,我々のコーパスで学習したモデルは従来のコーパスで学習したモデルよりもテキスト平易化の性能も改善できた.次に,コンパラブルコーパスを利用しない設定で,生コーパスのみからテキスト平易化のための疑似パラレルコーパスを構築し,フレーズベースの統計的機械翻訳モデルを用いてテキスト平易化を行った.平易に書かれた大規模コーパスを使用しないにも関わらず,疑似パラレルコーパスで学習したモデルは従来のコーパスで学習したモデルと同等の性能で平易な同義文を生成することができた.本研究の貢献は次の2つである.\begin{itemize}\item単語分散表現のアライメントに基づく文間類似度を用いて,難解な文と平易な文の文アライメントを改善した.\item生コーパスのみから教師なしで擬似パラレルコーパスを自動構築し,これがコンパラブルコーパスから得られる従来のパラレルコーパスと同等に有用であることを確認した.\end{itemize}これまでは,人手で構築された難解な文と平易な文のパラレルコーパス\footnote{https://newsela.com/data/}\cite{xu-2015},平易に書かれた大規模なコーパス(SimpleEnglishWikipedia),文間類似度のラベル付きデータ\footnote{http://ixa2.si.ehu.es/stswiki/index.php/Main\_Page}\cite{agirre-2012,agirre-2013,agirre-2014,agirre-2015},言い換え知識\footnote{https://www.seas.upenn.edu/{\textasciitilde}epavlick/data.html}\cite{ganitkevitch-2013,pavlick-2015,pavlick-2016}などの言語資源が豊富に存在する英語を中心にテキスト平易化の研究が進められてきたが,本研究ではこれらの外部知識を利用することなく生コーパスのみからテキスト平易化のための疑似パラレルコーパスを自動構築し,統計的機械翻訳を用いたテキスト平易化における有用性を確認した.生コーパスは多くの言語で大規模に利用できるので,今後は本研究の成果をもとに多くの言語でテキスト平易化を実現できるだろう.本稿の構成を示す.2節では,関連研究を紹介する.3節では,生コーパスから擬似パラレルコーパスを構築する提案手法を概説する.4節では,テキスト平易化のための文アライメントとして,単語分散表現のアライメントに基づく文間類似度推定手法を提案する.続いて,5節から7節で実験を行う.まず5節では,4節の提案手法を評価し,テキスト平易化のための最良の文アライメント手法を決定する.6節では,3節から5節に基づき,英語の疑似パラレルコーパスを構築し,テキスト平易化を行う.7節では,同様に日本語の疑似パラレルコーパスを構築し,テキスト平易化を行う.最後に8節で,本研究のまとめを述べる. \section{関連研究} \label{sec:related_work}\subsection{統計的機械翻訳を用いたテキスト平易化}2010年以降,統計的機械翻訳を用いたテキスト平易化の研究が盛んである.特に英語では,EnglishWikipediaとSimpleEnglishWikipediaをコンパラブルコーパスと考え,ここから抽出された単言語パラレルコーパス\cite{zhu-2010,coster-2011a,hwang-2015}とフレーズベースの統計的機械翻訳モデルを用いたテキスト平易化\cite{zhu-2010,coster-2011b,coster-2011a,wubben-2012,stajner-2015a}が盛んに研究されている.\citeA{coster-2011a}は,標準的なフレーズベースの統計的機械翻訳ツールMoses\cite{koehn-2007}を用いて英語のテキスト平易化を行った.本研究でも,同じくMosesを用いてテキスト平易化を行うが,我々は任意の言語でのテキスト平易化を実現することを目的に,SimpleEnglishWikipediaに頼ることなくEnglishWikipediaのみから構築する疑似パラレルコーパスでモデルを学習する.\subsection{テキスト平易化のための単言語パラレルコーパス}これまでに3種類の英語のテキスト平易化のための単言語パラレルコーパスが,EnglishWikipediaとSimpleEnglishWikipediaの文アライメントによって構築されている.\citeA{zhu-2010}は,文をTF-IDFベクトルとして表現し,そのベクトル間のコサイン類似度を用いて初めてテキスト平易化のための単言語パラレルコーパス\footnote{https://www.ukp.tu-darmstadt.de/data/sentence-simplification/simple-complex-sentence-pairs/}を構築した.\citeA{coster-2011a}は,TF-IDFベクトル間のコサイン類似度に加えて文の出現順序を考慮することで,より高精度にテキスト平易化コーパス\footnote{http://www.cs.pomona.edu/{\textasciitilde}dkauchak/simplification/}を構築した.しかし,Zhuetal.やCosterandKauchakの手法では,異なる単語間の類似度を考慮していない.難解な表現から平易な表現への書き換えが頻繁に行われるテキスト平易化タスクにおいては,異なる単語間の類似度も適切に測定したい.\citeA{hwang-2015}は,国語辞典の見出し語と定義文中の単語の共起を用いて,異なる単語間の類似度も考慮してテキスト平易化コーパス\footnote{http://ssli.ee.washington.edu/tial/projects/simplification/}を構築した.本研究では,単語分散表現を用いることで辞書などの外部知識に頼らず異なる単語間の類似度を考慮する文アライメントを行う.\subsection{文間類似度推定}文間の意味的類似度を計算するSemanticTextualSimilarity(STS)タスク\cite{agirre-2012,agirre-2013,agirre-2014,agirre-2015}では,単語分散表現の成功を受け,異なる単語間の類似度を考慮する手法が提案されている.SemEval-2015のSTSタスク\cite{agirre-2015}では,word2vec\cite{mikolov-2013a}の単語分散表現やPPDB:paraphrasedatabase\cite{ganitkevitch-2013}の言い換えを用いた単語アライメントに基づく教師あり学習の手法\cite{sultan-2015,hanig-2015,han-2015}が上位を独占している.同じくword2vecの単語分散表現のアライメントに基づく教師なしの文間類似度計算手法\cite{song-2015,kusner-2015}も提案されている.文間類似度のラベル付きデータを必要としないこれらの教師なし手法は,テキスト平易化のための単言語パラレルコーパスの自動構築にも応用できる.\subsection{リーダビリティ推定}テキストの可読性を評価するリーダビリティ尺度としては,FleschReadingEaseFormula\cite{flesch-1948}やFlesch-KincaidGradeLevel\cite{kincaid-1975}がよく知られている.これらはいずれも,単語数と音節数を用いてリーダビリティを計算する.また,単語数に加えて難解な表現が出現する割合を考慮するDale-ChallReadabilityFormula\cite{chall-1995}や言語モデルに基づく手法\cite{collins-2004}も提案されている.これらの研究は英語を対象としているが,リーダビリティ尺度は言語ごとに開発されており,例えば日本語では\citeA{shibasaki-2010},\citeA{sato-2011},\citeA{fujita-2015b}の研究がある.本研究ではシンプルなリーダビリティ尺度を採用するが,我々の提案するフレームワークに基づいて,リーダビリティ推定のステップには任意のリーダビリティ尺度を適用できる.\subsection{テキスト平易化の評価}統計的機械翻訳を用いたテキスト平易化\cite{specia-2010,zhu-2010,coster-2011b,coster-2011a,wubben-2012,stajner-2015a,stajner-2015b,goto-2015}では,機械翻訳のための評価尺度であるBLEU\cite{papineni-2002}による自動評価が一般的である.BLEUではリファレンスとの比較によって出力文の意味や文法の正しさを評価するが,テキスト平易化では入力文よりも平易な文を出力したいため,入力文と出力文の比較も行いたい.本研究では,テキスト平易化のために新たに提案されたSARI\cite{xu-2016}による自動評価も行う.SARIは入力文と出力文とリファレンスの3つを用いる自動評価尺度であり,特に平易さの観点でBLEUよりも人手評価との相関が高いことが知られている.\begin{figure}[b]\begin{center}\includegraphics{25-2ia3f2.eps}\end{center}\caption{品質推定を用いた生コーパスからの疑似パラレルコーパス構築}\label{fig:framework}\end{figure} \section{生コーパスから疑似パラレルコーパスを構築するためのフレームワーク} \label{sec:raw2parallel}本研究では,生コーパスからテキスト平易化のための疑似パラレルコーパスを自動構築するフレームワークを提案する.これは,より一般的には図\ref{fig:framework}のように説明できる.生コーパスから無作為に抽出した2つの文に対して,タスクに応じた品質推定を行い,一定以上の尤度を持つ文対を擬似パラレルコーパスとして抽出する.品質推定\cite{stajner-2016}とは入力文と出力文の比較によってリファレンスなしで出力文を評価する技術の総称であり,テキストからのテキスト生成タスク,特に機械翻訳\cite{callisonburch-2012,bojar-2013,bojar-2014,bojar-2015,bojar-2016}を中心に研究されている.図\ref{fig:framework}に戻ると,品質推定のステップでは言い換え生成であれば2文間の同義性を評価し,文圧縮であれば2文間の同義性および文Aに対する文Bの圧縮率を評価し,応答文生成であれば文Aを質問文として文Bの応答文らしさを評価する.このように,タスクごとの品質推定を高精度に実現できれば,このフレームワークを用いてタスクに応じた疑似パラレルコーパスを生コーパスから抽出できる.本研究では,テキスト平易化のための疑似パラレルコーパスを構築したい.テキスト平易化は意味を保持したまま平易に書き換えるタスクなので,図\ref{fig:framework}における品質推定のステップでは,各文の難易度および2文間の同義性を評価する.我々は文の難易度を評価するために,各言語で開発されているリーダビリティ尺度を用いる.各文に対してリーダビリティ推定を行い,絶対的あるいは相対的なリーダビリティの高低がわかれば,続いてリーダビリティの低い難解な文とリーダビリティの高い平易な文の同義性を評価する.一般に長い文よりも短い文の方が読みやすいので,テキスト平易化では難解な表現から平易な表現への言い換えの他に,重要ではない表現の省略も頻繁に行われる\cite{xu-2015}.そのため,テキスト平易化における同義性は,言い換えタスクのような相互に置換可能な「同義性」には限定されない.そこで我々は,\ref{sec:sentence_alignment}節で説明する意味的文間類似度を用いて2文間の同義性を評価する.最終的に,難解な文と平易な文の対であり,かつ類似度が高い文対のみをテキスト平易化のための擬似パラレルコーパスとして採用する. \section{単語分散表現のアライメントに基づく文間類似度を用いた文アライメント} \label{sec:sentence_alignment}難解な文と平易な文の同義性を評価するために,我々は単語分散表現のアライメントに基づく4種類の文間類似度の計算手法を提案する.\ref{subsec:ave_alignment}節から\ref{subsec:hun_alignment}節で説明する手法は,\citeA{song-2015}によって提案された単語分散表現のアライメントに基づく文間類似度の計算手法を本タスクに応用するものである.\ref{subsec:wmd_alignment}節のWordMover'sDistance\cite{kusner-2015}も,単語分散表現のアライメントに基づく文間類似度の計算に用いることができる.\subsection{AverageAlignment}\label{subsec:ave_alignment}文$x$と文$y$の間の全ての単語の組み合わせについて単語間類似度を計算し,それらの$|x||y|$個の単語間類似度を平均して文間類似度$S_{ave}(x,y)$を求める.\pagebreak\begin{equation}S_{ave}(x,y)=\frac{1}{|x||y|}\sum_{i=1}^{|x|}\sum_{j=1}^{|y|}\phi(x_i,y_j)\end{equation}ここで,$x_i$および$y_j$は,それぞれ文$x$および文$y$に含まれる単語を表す.また,$\phi(x_i,y_j)$は単語$x_i$と単語$y_j$の間の単語間類似度を表し,本研究ではコサイン類似度を用いる.\subsection{MaximumAlignment}\label{subsec:max_alignment}AverageAlignmentは単語分散表現に基づく文間類似度として直感的であるが,同義の文対を考えても全ての単語の組み合わせについて単語間類似度が高くなるとは考えにくく,多くの単語間類似度は$0$に近い値を取るノイズになると考えられる.そこで文$x$に含まれる各単語$x_i$に対して最も類似度が高い文$y$中の単語$y_j$を選択し,それらの$|x|$個の単語の組み合わせについてのみ計算した単語間類似度$\phi(x_i,y_j)$を平均して$S_{asym}(x,y)$を求める.$S_{asym}(x,y)$は非対称なスコアであるため,$S_{asym}(x,y)$と$S_{asym}(y,x)$の平均値を用いて対称な文間類似度$S_{max}(x,y)$を計算する.\begin{align}S_{asym}(x,y)&=\frac{1}{|x|}\sum_{i=1}^{|x|}\max_j\phi(x_i,y_j)\\S_{max}(x,y)&=\frac{1}{2}(S_{asym}(x,y)+S_{asym}(y,x))\end{align}\subsection{HungarianAlignment}\label{subsec:hun_alignment}AverageAlignmentおよびMaximumAlignmentは,それぞれ多対多および多対一の単語アライメントに基づく文間類似度である.本節では$x$および$y$の2文を単語をノードとする2部グラフとして考え,一対一の単語アライメントに基づく文間類似度を定義する.この2部グラフは,単語間類似度$\phi(x_i,y_j)$を重みとする重み付きの辺を持つ重み付き完全2部グラフである.この完全2部グラフの最大マッチングを求めることで,単語間類似度の総和を最大化する一対一の単語アライメントを得ることができる.2部グラフの最大マッチング問題は,Hungarian法\cite{kuhn-1955}を用いて解くことができる.そこで文$x$に含まれる各単語$x_i$に対してHungarian法によって文$y$中の単語$h(x_i)$を選択し,それらの$|x|$個の単語の組み合わせについて計算した単語間類似度を平均して文間類似度$S_{hun}(x,y)$を求める.\begin{equation}S_{hun}(x,y)=\frac{1}{\min(|x|,|y|)}\sum_{i=1}^{|x|}\phi(x_i,h(x_i))\end{equation}\subsection{WordMover'sDistance}\label{subsec:wmd_alignment}WordMover'sDistance\cite{kusner-2015}も,単語の分散表現を用いた多対多の単語アライメントに基づく文間類似度の計算に用いることができる.WordMover'sDistanceは,文$x$から文$y$へと単語を輸送する輸送問題を解くEarthMover'sDistance\cite{rubner-1998}の特殊な場合に相当する.\begin{align}S_{wmd}(x,y)&=1-\mathrm{WMD}(x,y)\\\mathrm{WMD}(x,y)&=\min\sum_{u=1}^{n}\sum_{v=1}^{n}\mathcal{A}_{uv}\psi(x_u,y_v)\\\begin{split}\mathrm{subject\;to:\;}\sum_{v=1}^n\mathcal{A}_{uv}&=\frac{1}{|x|}freq(x_u)\\\sum_{u=1}^n\mathcal{A}_{uv}&=\frac{1}{|y|}freq(y_v)\end{split}\nonumber\end{align}ここで,$\psi(x_u,y_v)$は単語$x_u$と単語$y_v$の間の単語間非類似度(距離)を表し,本研究ではユークリッド距離を用いる.また,$\mathcal{A}_{uv}$は文$x$中の単語$x_u$から文$y$中の単語$y_v$への輸送量を表す行列であり,$n$は語彙数,$freq(x_u)$は文$x$中での単語$x_u$の出現頻度である. \section{実験1:難解な文と平易な文のアライメント} \label{sec:intrinsic_evaluation}本節では,難解な文と平易な文の組に対してパラレルおよびノンパラレルの2値分類を行い,単語分散表現のアライメントに基づく文間類似度の有効性を評価する.\subsection{実験設定}\citeA{hwang-2015}は,EnglishWikipediaとSimpleEnglishWikipediaから抽出した67,853文対に対して以下の4つのラベルを人手で付与したデータを公開している.\begin{itemize}\item{\itGood}:2文間の意味が等しい(277文対)\item{\itGoodPartial}:一方の文が他方を含意する(281文対)\item{\itPartial}:部分的に関連する(117文対)\item{\itBad}:無関係(67,178文対)\end{itemize}我々はこの評価用データセットを用いて,以下の2つの設定で,文間類似度によって各文対をパラレルデータとノンパラレルデータに2値分類する.\begin{itemize}\item{\itGvs.O}:{\itGood}のラベル付きデータのみをパラレルデータとする\item{\itG+GPvs.O}:{\itGood}と{\itGoodPartial}の2つのラベル付きデータをパラレルデータとする\end{itemize}評価には,Hwangetal.と同じく以下の2つの尺度を用いる.\begin{itemize}\itemMaxF1:F1スコアの最大値\itemAUC-PR:Precision-Recall曲線(PR曲線)上のAreaUndertheCurve\end{itemize}比較手法には,EnglishWikipediaとSimpleEnglishWikipediaからテキスト平易化のためのパラレルコーパスを構築する\citeA{zhu-2010},\citeA{coster-2011a}およびHwangetal.の3つの先行研究に加えて,AdditiveEmbeddings\cite{mikolov-2013b}を用いる.AdditiveEmbeddingsは,単語アライメントを使用しない比較手法であり,単語の分散表現を足し合わせることによって文の分散表現を構成し,コサイン類似度によって文間類似度を計算する.単語分散表現に基づく文間類似度計算のために,我々は公開されている学習済みの単語分散表現\footnote{https://code.google.com/archive/p/word2vec/}を用いる.これは,GoogleNewsdataset上でword2vec\cite{mikolov-2013a}のCBOWモデルによって学習された300次元の単語分散表現である.提案手法のうち,AverageAlignment,MaximumAlignmentおよびHungarianAlignmentについては,\citeA{song-2015}にならって単語アライメントのノイズ除去を行った.\ref{subsec:max_alignment}節でも述べたが,同義の文対$(x,y)$を考えても全ての単語対について単語間類似度が高くなるとは考えにくく,どの単語アライメントの手法を用いても単語間類似度が低いにも関わらず対応付けられてしまう単語対が存在する.このようなノイズとなる単語対の影響を抑えるため,我々は$\phi(x_i,y_j)>\theta$の単語間類似度を持つ単語対$(x_i,y_j)$のみを用いて単語アライメントを行った.この閾値$\theta$はMaxF1を最大化するように選択し,AverageAlignmentについては{\itGvs.O}の分類時に$0.89$,{\itG+GPvs.O}の分類時に$0.95$,MaximumAlignmentについては{\itGvs.O}の分類時に$0.28$,{\itG+GPvs.O}の分類時に$0.49$,HungarianAlignmentについては{\itGvs.O}の分類時に$0.98$,{\itG+GPvs.O}の分類時に$0.98$を採用した.\subsection{実験結果}パラレルデータとノンパラレルデータの2値分類の結果を表~\ref{tab:binary_classification}に示す.{\itGood}とその他の2値分類においては多対多の単語アライメントに基づくWordMover'sDistanceが最も高い性能を示した.また,{\itGood+GoodPartial}とその他の2値分類においては多対一の単語アライメントに基づくMaximumAlignmentが最も高い性能を示した.なお,MaximumAlignmentは{\itGood}とその他の2値分類においても3つの先行研究よりも高い性能を示した.図~\ref{fig:good_vs_others}および図~\ref{fig:partial_vs_others}に,パラレルデータとノンパラレルデータの2値分類におけるPrecision-Recall曲線を示す.図~\ref{fig:partial_vs_others}の{\itGood+GoodPartial}とその他の2値分類において,太実線のMaximumAlignmentが他の単語分散表現に基づく文間類似度計算手法よりも高い性能を示した.\begin{table}[t]\caption{パラレルデータとノンパラレルデータの2値分類精度}\label{tab:binary_classification}\input{03table01.tex}\end{table}\begin{figure}[t]\noindent\begin{minipage}[b]{.5\textwidth}\begin{center}\includegraphics{25-2ia3f3.eps}\end{center}\caption{{\itGvs.O}の2値分類におけるPR曲線}\label{fig:good_vs_others}\end{minipage}\begin{minipage}[b]{.5\textwidth}\begin{center}\includegraphics[width=180pt]{25-2ia3f4.eps}\end{center}\caption{{\itG+GPvs.O}の2値分類におけるPR曲線}\label{fig:partial_vs_others}\end{minipage}\end{figure}\ref{sec:raw2parallel}節で述べたように,テキスト平易化タスクでは省略も頻繁に行われる.そこで,テキスト平易化のための単言語パラレルコーパスには,対応する難解な文と平易な文が同義である{\itGood}の文対だけでなく,難解な文が平易な文の意味を含意する{\itGoodPartial}の文対も含めることが重要である.そのため,{\itGood+GoodPartial}とその他の2値分類において最も高い性能を示すMaximumAlignmentが,テキスト平易化のための単言語パラレルコーパス構築に最も適した文間類似度の計算手法であると言える.図~\ref{fig:max_alignment}および図~\ref{fig:hun_alignment}から,MaximumAlignmentでは(genus,genus)と(species,genus)のような多対一の単語アライメントが可能であるが,HungarianAlignmentには(as,genus)や(tree,is)のような誤った単語アライメントが見られる.機能語は色々な単語とある程度の単語間類似度を持つため,HungarianAlignmentにおける一対一の制約は厳しすぎる.また,MaximumAlignmentは多対一の単語アライメントを許すので,フレーズと単語の言い換えも上手く捉えられる.\begin{figure}[t]\noindent\begin{minipage}[b]{.5\textwidth}\begin{center}\includegraphics{25-2ia3f5.eps}\end{center}\caption{MaximumAlignmentによる単語アライメント}\label{fig:max_alignment}\end{minipage}\begin{minipage}[b]{.5\textwidth}\begin{center}\includegraphics{25-2ia3f6.eps}\end{center}\caption{HungarianAlignmentによる単語アライメント}\label{fig:hun_alignment}\end{minipage}\end{figure} \section{実験2:英語のテキスト平易化} \label{sec:english_experiment}SimpleEnglishWikipediaのような平易に書かれた大規模コーパスは英語以外の多くの言語では利用できないため,本研究では生コーパス(EnglishWikipedia)からテキスト平易化のための疑似パラレルコーパスを構築し,それを用いてフレーズベースの統計的機械翻訳モデルを訓練することによってテキスト平易化を実現する.本節では,平易に書かれた大規模コーパスが利用できる英語での実験によって,文アライメント手法の改善によるテキスト平易化の性能の変化を確認する.また,平易なコーパスに頼らない疑似パラレルコーパスから訓練されたモデルが,既存のパラレルコーパスから訓練されたモデルに匹敵する性能を発揮できることを示す.\subsection{疑似パラレルコーパスの構築}\label{subsec:pseudo_parallel_corpus}\ref{sec:raw2parallel}節で述べたように,我々はリーダビリティ推定と文アライメントによって各文対に対してテキスト平易化のための品質推定を行い,コーパスに含める文対を選抜する.\subsubsection{生コーパス}まず,生コーパスを用意する.本研究では,EnglishWikipedia\footnote{https://dumps.wikimedia.org/enwiki/20160501/}の各記事に対してWikiExtractor\footnote{https://github.com/attardi/wikiextractor/}を用いた本文抽出とNLTK3.2.1\footnote{http://www.nltk.org/}を用いたトークナイズを行い,10単語以上の6,283,703文を対象とした.\subsubsection{リーダビリティ推定}次に,英文のリーダビリティ推定のために,我々は英語のテキスト平易化\cite{zhu-2010,bingel-2016}でよく利用されるFleschReadingEaseFormula\cite{flesch-1948}を用いる.FleschReadingEaseFormulaでは,$\alpha$を単語数,$\beta$を1単語あたりの平均音節数として,文のリーダビリティを次のように定義する.\begin{equation}FleschReadingEase=206.835-1.015\alpha-84.6\beta\end{equation}FleschReadingEaseFormulaで計算されたリーダビリティスコアは,おおよそ0以上100以下の値を取り,$[60,70)$を標準レベルとして,高いほど読みやすい平易な文であることを意味する.そこで我々は,EnglishWikipediaから抽出した6,283,703文を以下のように分割した.\begin{itemize}\item難解なサブコーパス:$[0,60)$のリーダビリティスコアを持つ3,689,227文\item平易なサブコーパス:$[60,100]$のリーダビリティスコアを持つ2,358,921文\itemリーダビリティを測定不能として棄却:数百単語の長文や箇条書きなど,0未満または100を超えるリーダビリティスコアを持つ235,555文\end{itemize}\subsubsection{文アライメント}我々は\ref{sec:intrinsic_evaluation}節で最も高い性能を示したMaximumAlignmentを用いて全ての難解な文と平易な文の組み合わせに対して文間類似度を計算した.単語分散表現には,\ref{sec:intrinsic_evaluation}節と同じく公開されている学習済みのCBOWモデル\footnote{https://code.google.com/archive/p/word2vec/}を使用した.ノイズを軽減するために単語間類似度が0.5以上の単語対のみを単語アライメントに使用し,文間類似度が0.5以上である2,072,572文対を抽出して英語のテキスト平易化のための疑似パラレルコーパスを構築した.\subsection{疑似パラレルコーパスの妥当性}図~\ref{fig:readability}に,EnglishWikipediaとSimpleEnglishWikipediaの文のリーダビリティの分布を示す.縦軸は各リーダビリティスコアの文数を正規化したものであり,各ヒストグラムの面積が1となる.FleschReadingEaseFormulaに基づくリーダビリティスコアの60未満の範囲では,難解なコーパスであるEnglishWikipediaの文が出現する割合が高い.同じく,60以上の範囲では平易なコーパスであるSimpleEnglishWikipediaの文が出現する割合が高い.よって,本研究で難解な文と平易な文を分割した閾値60の基準も妥当であると言える.また,EnglishWikipediaには難解な文が多いとは言え,全ての文が難解なわけではないこともわかる.そのため,EnglishWikipediaから平易な文を抽出することで,平易な文書に頼ることなく平易なサブコーパスを得ることができる.\begin{figure}[b]\noindent\begin{minipage}[b]{.5\textwidth}\begin{center}\includegraphics{25-2ia3f7.eps}\end{center}\caption{リーダビリティの分布}\label{fig:readability}\end{minipage}\begin{minipage}[b]{.5\textwidth}\begin{center}\includegraphics{25-2ia3f8.eps}\end{center}\caption{疑似パラレルコーパスの品質}\label{fig:analysis}\end{minipage}\end{figure}図~\ref{fig:analysis}に,我々が構築した疑似パラレルコーパスの文間類似度ごとの同義性の品質を示す.{\itGood},{\itGoodPartial},{\itPartial}および{\itBad}の各ラベルは,\ref{sec:intrinsic_evaluation}節の実験設定と対応しており,\citeA{hwang-2015}に準ずるものである.文間類似度の範囲ごとに100文対を無作為抽出し,合計500文対を2人のアノテータが評価した.各文対に4つのラベルのうちの1つを割り当てたところ,アノテータ間の一致率はピアソンの相関係数で0.629と十分に高かった.この同義性に関する人手評価から,文間類似度が高くなるにつれて無関係な{\itBad}の文対が減少し,同義な{\itGood}の文対が増加していることがわかる.また,一方の文が他方を含意する{\itGoodPartial}の文対は文間類似度$[0.9,1.0)$の範囲でのみ減少しているが,これは難解な文と平易な文の文長に関係している.文間類似度$[0.8,0.9)$の範囲では,難解な文の平均文長は平易な文の平均文長よりも約3語長い.しかし,文間類似度$[0.9,1.0)$の範囲では,その差は1語未満である.文長の近い文対では意味的な包含関係が成立しにくく,文間類似度の高い文対は同義になりやすいと考えられる.\begin{table}[b]\caption{EnglishWikipediaから構築したテキスト平易化のための疑似パラレルコーパスの例}\label{tab:corpus_example}\input{03table02.tex}\end{table}表~\ref{tab:corpus_example}に,我々が構築したテキスト平易化のための疑似パラレルコーパスの例を示す.{\itGood}の文対には,難解な語句から平易な語句への言い換え(precipitation→rainfall)の例が見られる.{\itGoodPartial}の文対には省略の例が見られる.{\itPartial}の文対は,同義関係や含意関係ではないが,共通する語句や関連する語句を含み,関連する内容について書かれている.EnglishWikipediaを分割した難解なサブコーパスと平易なサブコーパスの組は,EnglishWikipediaとSimpleEnglishWikipediaの組とは異なりコンパラブルコーパスではない.そのため,図~\ref{fig:analysis}に示したように,同義や含意の関係にある文対の割合は多くはない.しかし,本研究ではフレーズベースの統計的機械翻訳を用いてテキスト平易化を行うため,以下の3つの理由でこの問題の影響は少なく,雑音の多い文対からでも重要な知識を獲得できる.\begin{itemize}\itemテキスト平易化は同一言語内の翻訳問題であるため,入力文に含まれる多くの単語をそのまま出力できる(変換しないことが正解である).そのため,異言語間の翻訳問題とは異なり,適切な変換対が少量しか得られないことが致命的な問題にはならない.\itemフレーズベースの統計的機械翻訳では,フレーズ単位の変換対を学習する.難解なフレーズとその言い換えである平易なフレーズの組は,同義や含意の関係にある文対からだけではなく,類義の関係にある文対からも得ることができる.\itemフレーズベースの統計的機械翻訳では,最終的に言語モデルによるリランキングを行うため,雑音の多いフレーズペアを獲得していても,平易な言い換えとして適切なフレーズペアをその中に含むことができれば適切な平易文が得られる.\end{itemize}\subsection{実験設定}\label{subsec:experimental_setup}我々は生コーパスのみから構築したテキスト平易化のための疑似パラレルコーパスの有効性を調査するために,フレーズベースの統計的機械翻訳を用いてテキスト平易化モデルを学習し,SimpleEnglishWikipediaを使って構築された既存のテキスト平易化のためのパラレルコーパスを用いて学習したモデルとの比較を行う.本研究では,テキスト平易化を難解な文から平易な文への翻訳問題と考え,対数線形モデルを用いてモデル化する.\begin{equation}\begin{split}\hat{s}&=\argmax_{simple}P(simple|complex)\\&=\argmax_{simple}P(complex|simple)P(simple)\\&=\argmax_{simple}\sum_{m=1}^{M}\lambda_mh_m(simple,complex)\end{split}\end{equation}対数線形モデルでは$M$個の素性関数$h_m(simple,complex)$および各素性の重み$\lambda_m$を考え,翻訳確率$P(simple|complex)$をモデル化する.テキスト平易化の場合は,入力の難解な文に対して素性関数の重み付き線形和を最大化する平易な文$\hat{s}$を探索する問題を考える.素性関数としては,フレーズの平易化モデル$\logP(complex|simple)$や言語モデル$\logP(simple)$などを用いる.我々はフレーズベースの統計的機械翻訳ツールであるMoses2.1\cite{koehn-2007}を使用し,パラレルコーパスからの単語アライメントの獲得にはGIZA++\cite{och-2003}を用いた.また,KenLM\cite{heafield-2011}を用いて各パラレルコーパスの平易側の文から5-gram言語モデルを構築した.テストデータには,\citeA{xu-2016}によって公開されているマルチリファレンスのパラレルコーパス\footnote{https://github.com/cocoxu/simplification}を使用した.これは,EnglishWikipediaから抽出された難解な350文に対して,それぞれ8人が平易な同義文を付与したものである.本研究では,このマルチリファレンスのパラレルコーパスを用いてFleschReadingEase(FRE),BLEU\cite{papineni-2002}およびSARI\cite{xu-2016}による自動評価を行った.なお,トレーニングデータからはテストデータに含まれるEnglishWikipediaの文を除外した.\begin{table}[b]\caption{英語のテキスト平易化の実験結果}\label{tab:experimental_result}\input{03table03.tex}\end{table}\begin{table}[b]\caption{疑似パラレルコーパスの文対数と性能の変化}\label{tab:threshold_result}\input{03table04.tex}\end{table}\subsection{実験結果}\label{subsec:experimental_result}表~\ref{tab:experimental_result}および表~\ref{tab:threshold_result}にフレーズベースの統計的機械翻訳を用いたテキスト平易化の実験結果を示す.Baselineは,書き換えを行わず入力文をそのまま出力する弱いベースラインである.Zhuetal.corpus\footnote{https://www.ukp.tu-darmstadt.de/data/sentence-simplification/simple-complex-sentence-pairs/},CosterandKauchakcorpus\footnote{http://www.cs.pomona.edu/{\textasciitilde}dkauchak/simplification/}およびHwangetal.corpus\footnote{http://ssli.ee.washington.edu/tial/projects/simplification/}は,我々の実験設定と同じくフレーズベースの統計的機械翻訳ツールMosesによってテキスト平易化を行うが,難解なコーパス(EnglishWikipedia)と平易なコーパス(SimpleEnglishWikipedia)の両方を用いて構築されたパラレルコーパスをトレーニングに使用する.Ourparallelcorpus\footnote{https://github.com/tmu-nlp/sscorpus}は,同じくEnglishWikipediaとSimpleEnglishWikipediaのコンパラブルコーパスを用いるが,\ref{subsec:max_alignment}節のMaximumAlignmentによって構築したテキスト平易化のためのパラレルコーパスをトレーニングに使用する強いベースラインである.Ourpseudo-parallelcorpusは我々の提案手法であり,生コーパスのみを用いて構築したテキスト平易化のための疑似パラレルコーパスを使用する.\subsubsection{語彙数}我々のパラレルコーパスや既存の他のパラレルコーパスでは,難解なコーパスの方が平易なコーパスよりも語彙数が多い.これは,SimpleEnglishWikipediaが850語の基本語彙を用いるというガイドラインに従って書かれているためである.850語の制約が厳密に守られているわけではないとはいえ,SimpleEnglishWikipediaの語彙の方が少なくなっている.しかし,我々の疑似パラレルコーパスでは,文間類似度の高い100万文対までは難解なコーパスの語彙数の方が少ない.これは,文間類似度を用いて貪欲に文アライメントを取るため,同じ文が繰り返し使用される場合があるからである.例えば10万文の疑似パラレルコーパスでは,平易なコーパスの異なり文数が25,817であるのに対して,難解なコーパスの異なり文数は3,674である.\subsubsection{平均文長}我々のパラレルコーパスは既存の他のパラレルコーパスよりも難解なコーパスと平易なコーパスの文長の差が大きく,EnglishWikipediaとSimpleEnglishWikipediaの全体の平均文長(25.1および16.9)に近い.これは,MaximumAlignmentが文長に関わらず適切に文間類似度を計算できていることを意味する.\subsubsection{平易化規則数(フレーズテーブルのエントリ数)}10万文や50万文の部分に注目すると,我々の疑似パラレルコーパスは得られる規則が少ない.これは類似度の低い文対ほど多くの平易化が実施されるためである.例えば,Zhuetal.corpusや我々のパラレルコーパスには,0.5以上の類似度の文対が含まれている.一方,疑似パラレルコーパスには,10万文で0.94以上,50万文で0.79以上の類似度の文対しか含まれていない.同じ10万文や50万文で比較したときには我々の疑似パラレルコーパスでは類似度の高い文対が多くなり,平易化のバリエーションは少ない.しかし,疑似パラレルコーパスは大量に用意できるため,最終的には十分な量の規則を獲得することができる.\subsubsection{FRE:FleschReadingEase(リーダビリティ)}疑似パラレルコーパスを用いて学習したモデルでも,入力文よりもリーダビリティの高い文を出力できた.平易な大規模コーパスを使用していないにも関わらず,文間類似度の上位200万文を用いて学習した場合には,SimpleEnglishWikipediaを使って学習した場合と同等の59を超えるリーダビリティを持つ文を出力することができた.\subsubsection{BLEUおよびSARI}FREが出力文のみを用いてリーダビリティのみを評価するのに対して,BLEUは出力文とリファレンスの両方を,SARIは入力文と出力文とリファレンスの全てを用いて文法や意味も評価する.\citeA{xu-2016}は,BLEUがGrammarやMeaningの観点で人手評価との相関が高く,SARIがSimplicityの観点で人手評価との相関が高いことを報告しており,テキスト平易化のために提案されたSARIはGrammar/Meaning/Simplicityの全てのバランスが取れた自動評価尺度であると結論付けている.表~\ref{tab:experimental_result}によると,BLEUはBaselineが最も高い.これは,入力文を何も変換しない場合には意味も文法も損なわれないためである.完全に意味を保持することはできないため,平易化の操作を加えることによってリーダビリティが向上する一方でBLEUは低下してしまう.BLEUを高く保ちつつリーダビリティのより高い文を出力することが良い平易化である.我々のパラレルコーパスを用いて学習したモデルは,SARIで最高性能を達成した.他の先行研究との違いは文アライメントの手法であり,\ref{sec:intrinsic_evaluation}節の内的評価の結果と同様にMaximumAlignmentの有効性が確認できた.疑似パラレルコーパスを用いて学習したモデルでは,文間類似度の上位150万文を使った場合にSARIが最大となった.平易な大規模コーパスを利用しないにも関わらず,先行研究のパラレルコーパスを用いて学習したモデルと同等の性能を発揮することができた.また,このときのBLEUも先行研究と同等であり,入力文の文法や意味を保持した文を出力することができた.\subsubsection{テキスト平易化の例}表~\ref{tab:simplification_example}に,フレーズベースの統計的機械翻訳を用いたテキスト平易化の例を示す.疑似パラレルコーパスを用いて学習したモデルは,Reference1と同様に不要な表現``both''を省略し,Reference2や3と同様に難解な表現``numerous''を平易な表現``many''に言い換えた.比較手法の中には,難解な表現``extremely''から平易な表現``very''への言い換えも見られた一方で,``world''など必要以上の省略も見られた.\begin{table}[t]\caption{英語のテキスト平易化の例}\label{tab:simplification_example}\input{03table05.tex}\end{table} \section{実験3:日本語のテキスト平易化} \label{sec:japanese_experiment}提案手法が言語やコーパス(EnglishWikipedia)に依存しないことを確認するために,本節では日本語の均衡コーパスを用いた実験を行う.\subsection{疑似パラレルコーパスの構築}\label{subsec:japanese_pseudo_parallel_corpus}\ref{subsec:pseudo_parallel_corpus}節と同じく,リーダビリティ推定と文アライメントによって生コーパスからテキスト平易化のための疑似パラレルコーパスを構築する.生コーパスには現代日本語書き言葉均衡コーパス(BCCWJ)\cite{maekawa-2010}を,リーダビリティ推定には文中の各単語の単語難易度\footnote{https://github.com/tmu-nlp/simple-jppdb}\cite{kajiwara-2017}の平均値をそれぞれ使用した.この単語難易度は,571,023語の日本語の単語に3段階(1:初級,2:中級,3:上級)の難易度が自動的に付与されたものである.MaximumAlignmentの文アライメントに使用する単語分散表現は,word2vec\cite{mikolov-2013a}のCBOWモデルをBCCWJ上で学習した.ノイズを軽減するために単語間類似度が0.5以上の単語対のみを単語アライメントに使用し,文間類似度が0.6以上である470,885文対を抽出して日本語のテキスト平易化のための疑似パラレルコーパスを構築した.\subsection{実験設定}\label{subsec:japanese_experimental_setup}\ref{subsec:experimental_setup}節の英語の実験と同じ設定で,フレーズベースの統計的機械翻訳モデルを用いてテキスト平易化を行った.テストデータには,Web\footnote{https://matcha-jp.com/}から収集した2,000文対を使用した.収集したデータは難解なテキストと平易なテキストからなるコンパラブルコーパスである.MaximumAlignmentの文間類似度が$[0.75,1.0)$の範囲の各文対について,2人のアノテータが\citeA{hwang-2015}に準ずる4つのラベル({\itGood},{\itGoodPartial},{\itPartial},{\itBad})のうちの1つを割り当てたところ,アノテータ間の一致率はピアソンの相関係数で0.769と十分に高かった.テストデータとして使用するのは,2人のアノテータがいずれも{\itGood}または{\itGoodPartial}のラベルを付与した2,000文対である.\subsection{実験結果}\label{subsec:japanese_experimental_result}表~\ref{tab:japanese_experimental_result}に,フレーズベースの統計的機械翻訳を用いた日本語のテキスト平易化の実験結果を示す.日本語ではテキスト平易化のためのパラレルコーパスが公開されていないため,書き換えを行わず入力文をそのまま出力する弱いベースラインのみと比較する.疑似パラレルコーパスを用いて学習したモデルは,いずれもSARIにおいてBaseline(入力文)よりも高い性能を示した.英日の実験結果から,我々は提案手法が言語やコーパスに依存せず有効であることを確認できた.なお,表~\ref{tab:experimental_result}の英語の実験結果に比べて全体にBLEUが低いのは,シングルリファレンスのテストデータで評価を行っているためである.\begin{table}[t]\caption{日本語のテキスト平易化の実験結果}\label{tab:japanese_experimental_result}\input{03table06.tex}\end{table}\begin{table}[t]\caption{日本語のテキスト平易化の例}\label{tab:japanese_example}\input{03table07.tex}\end{table}表~\ref{tab:japanese_example}に,日本語のテキスト平易化の例を示す.疑似パラレルコーパスで訓練したテキスト平易化モデルは,難解な表現``定休日''から平易な表現``休みの日''などの言い換えを漏らしているものの,難解な表現``電話で聞く''から平易な表現``電話をする''などの言い換えや,ガ格とニ格の並び替えに成功した. \section{おわりに} \label{sec:conclusion}本稿では,フレーズベースの統計的機械翻訳モデルを用いる生コーパスのみからのテキスト平易化について述べた.提案手法では,平易に書かれた大規模なコーパスや言い換え知識などの外部知識に頼らず,生コーパスのみを用いてリーダビリティと文間類似度によってテキスト平易化のための疑似パラレルコーパスを構築する.我々が提案した単語分散表現のアライメントに基づく文間類似度は,外部知識に頼ることなく難解な単語と平易な単語の単語間類似度を考慮することができ,従来の文間類似度よりも文長に頑健なため,テキスト平易化コーパスを構築するための文アライメントに適した手法である.フレーズベースの統計的機械翻訳を用いたテキスト平易化の実験結果は,疑似パラレルコーパスを用いて学習したモデルが,平易な大規模コーパスを用いて学習する先行研究のモデルと同等の性能で入力文を平易な同義文に変換できることを示した.これまでは,豊富な言語資源が存在する英語を中心にテキスト平易化の研究が進められてきたが,生コーパスは英語以外の多くの言語でも大規模に利用できるので,今後は多くの言語でテキスト平易化が実現できるだろう.また,パラレルコーパスは文圧縮や応答文生成などの他のテキストからのテキスト生成タスクにおいても有用な言語資源である.日本語など,英語以外の言語の単言語パラレルコーパスが不足している現状を考えると,本研究で提案した疑似パラレルコーパスの自動構築手法は,これらのタスクにおいても有望である.\acknowledgment本研究は首都大学東京傾斜的研究費(全学分)学長裁量枠戦略的研究プロジェクト戦略的研究支援枠「ソーシャルビッグデータの分析・応用のための学術基盤の研究」から部分的な支援を受けた.\\\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Agirre,Banea,Cardie,Cer,Diab,Gonzalez-Agirre,Guo,Lopez-Gazpio,Maritxalar,Mihalcea,Rigau,Uria,\BBA\Wiebe}{Agirreet~al.}{2015}]{agirre-2015}Agirre,E.,Banea,C.,Cardie,C.,Cer,D.,Diab,M.,Gonzalez-Agirre,A.,Guo,W.,Lopez-Gazpio,I.,Maritxalar,M.,Mihalcea,R.,Rigau,G.,Uria,L.,\BBA\Wiebe,J.\BBOP2015\BBCP.\newblock\BBOQSemEval-2015Task2:SemanticTextualSimilarity,English,SpanishandPilotonInterpretability.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\252--263}.\bibitem[\protect\BCAY{Agirre,Banea,Cardie,Cer,Diab,Gonzalez-Agirre,Guo,Mihalcea,Rigau,\BBA\Wiebe}{Agirreet~al.}{2014}]{agirre-2014}Agirre,E.,Banea,C.,Cardie,C.,Cer,D.,Diab,M.,Gonzalez-Agirre,A.,Guo,W.,Mihalcea,R.,Rigau,G.,\BBA\Wiebe,J.\BBOP2014\BBCP.\newblock\BBOQSemEval-2014Task10:MultilingualSemanticTextualSimilarity.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\81--91}.\bibitem[\protect\BCAY{Agirre,Cer,Diab,\BBA\Gonzalez-Agirre}{Agirreet~al.}{2012}]{agirre-2012}Agirre,E.,Cer,D.,Diab,M.,\BBA\Gonzalez-Agirre,A.\BBOP2012\BBCP.\newblock\BBOQSemEval-2012Task6:APilotonSemanticTextualSimilarity.\BBCQ\\newblockIn{\Bem*SEM2012:The1stJointConferenceonLexicalandComputationalSemantics--Volume1:ProceedingsoftheMainConferenceandtheSharedTask,andVolume2:Proceedingsofthe6thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\385--393}.\bibitem[\protect\BCAY{Agirre,Cer,Diab,Gonzalez-Agirre,\BBA\Guo}{Agirreet~al.}{2013}]{agirre-2013}Agirre,E.,Cer,D.,Diab,M.,Gonzalez-Agirre,A.,\BBA\Guo,W.\BBOP2013\BBCP.\newblock\BBOQ*SEM2013sharedtask:SemanticTextualSimilarity.\BBCQ\\newblockIn{\Bem2ndJointConferenceonLexicalandComputationalSemantics,Volume1:ProceedingsoftheMainConferenceandtheSharedTask:SemanticTextualSimilarity},\mbox{\BPGS\32--43}.\bibitem[\protect\BCAY{Bingel\BBA\S{\o}gaard}{Bingel\BBA\S{\o}gaard}{2016}]{bingel-2016}Bingel,J.\BBACOMMA\\BBA\S{\o}gaard,A.\BBOP2016\BBCP.\newblock\BBOQTextSimplificationasTreeLabeling.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\337--343}.\bibitem[\protect\BCAY{Bojar,Buck,Callison-Burch,Federmann,Haddow,Koehn,Monz,Post,\mbox{Soricut},\BBA\Specia}{Bojaret~al.}{2013}]{bojar-2013}Bojar,O.,Buck,C.,Callison-Burch,C.,Federmann,C.,Haddow,B.,Koehn,P.,Monz,C.,Post,M.,\mbox{Soricut},R.,\BBA\Specia,L.\BBOP2013\BBCP.\newblock\BBOQFindingsofthe2013WorkshoponStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe8thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\1--44}.\bibitem[\protect\BCAY{Bojar,Buck,Federmann,Haddow,Koehn,\mbox{Leveling},Monz,Pecina,Post,Saint-Amand,Soricut,Specia,\BBA\Tamchyna}{Bojaret~al.}{2014}]{bojar-2014}Bojar,O.,Buck,C.,Federmann,C.,Haddow,B.,Koehn,P.,\mbox{Leveling},J.,Monz,C.,Pecina,P.,Post,M.,Saint-Amand,H.,Soricut,R.,Specia,L.,\BBA\Tamchyna,A.\BBOP2014\BBCP.\newblock\BBOQFindingsofthe2014WorkshoponStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe9thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\12--58}.\bibitem[\protect\BCAY{Bojar,\mbox{Chatterjee},Federmann,Graham,Haddow,Huck,Jimeno~Yepes,Koehn,Logacheva,Monz,Negri,Neveol,Neves,Popel,Post,Rubino,Scarton,Specia,Turchi,Verspoor,\BBA\Zampieri}{Bojaret~al.}{2016}]{bojar-2016}Bojar,O.,\mbox{Chatterjee},R.,Federmann,C.,Graham,Y.,Haddow,B.,Huck,M.,Jimeno~Yepes,A.,Koehn,P.,Logacheva,V.,Monz,C.,Negri,M.,Neveol,A.,Neves,M.,Popel,M.,Post,M.,Rubino,R.,Scarton,C.,Specia,L.,Turchi,M.,Verspoor,K.,\BBA\Zampieri,M.\BBOP2016\BBCP.\newblock\BBOQFindingsofthe2016ConferenceonMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe1stConferenceonMachineTranslation},\mbox{\BPGS\131--198}.\bibitem[\protect\BCAY{Bojar,\mbox{Chatterjee},\mbox{Federmann},\mbox{Haddow},Huck,Hokamp,Koehn,Logacheva,Monz,Negri,Post,Scarton,Specia,\BBA\Turchi}{Bojaret~al.}{2015}]{bojar-2015}Bojar,O.,\mbox{Chatterjee},R.,\mbox{Federmann},C.,\mbox{Haddow},B.,Huck,M.,Hokamp,C.,Koehn,P.,Logacheva,V.,Monz,C.,Negri,M.,Post,M.,Scarton,C.,Specia,L.,\BBA\Turchi,M.\BBOP2015\BBCP.\newblock\BBOQFindingsofthe2015WorkshoponStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe10thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\1--46}.\bibitem[\protect\BCAY{Callison-Burch,Koehn,Monz,Post,\mbox{Soricut},\BBA\Specia}{Callison-Burchet~al.}{2012}]{callisonburch-2012}Callison-Burch,C.,Koehn,P.,Monz,C.,Post,M.,\mbox{Soricut},R.,\BBA\Specia,L.\BBOP2012\BBCP.\newblock\BBOQFindingsofthe2012WorkshoponStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe7thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\10--51}.\bibitem[\protect\BCAY{Chall\BBA\Dale}{Chall\BBA\Dale}{1995}]{chall-1995}Chall,J.\BBACOMMA\\BBA\Dale,E.\BBOP1995\BBCP.\newblock{\BemReadabilityRevisited:TheNewDale-ChallReadabilityFormula}.\newblockCambridge,MA:BrooklineBooks.\bibitem[\protect\BCAY{Collins-Thompson\BBA\Callan}{Collins-Thompson\BBA\Callan}{2004}]{collins-2004}Collins-Thompson,K.\BBACOMMA\\BBA\Callan,J.~P.\BBOP2004\BBCP.\newblock\BBOQALanguageModelingApproachtoPredictingReadingDifficulty.\BBCQ\\newblockIn{\BemProceedingsoftheHumanLanguageTechnologyConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\193--200}.\bibitem[\protect\BCAY{Coster\BBA\Kauchak}{Coster\BBA\Kauchak}{2011a}]{coster-2011b}Coster,W.\BBACOMMA\\BBA\Kauchak,D.\BBOP2011a\BBCP.\newblock\BBOQLearningtoSimplifySentencesUsingWikipedia.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponMonolingualText-To-TextGeneration},\mbox{\BPGS\1--9}.\bibitem[\protect\BCAY{Coster\BBA\Kauchak}{Coster\BBA\Kauchak}{2011b}]{coster-2011a}Coster,W.\BBACOMMA\\BBA\Kauchak,D.\BBOP2011b\BBCP.\newblock\BBOQSimpleEnglishWikipedia:ANewTextSimplificationTask.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\665--669}.\bibitem[\protect\BCAY{Flesch}{Flesch}{1948}]{flesch-1948}Flesch,R.\BBOP1948\BBCP.\newblock\BBOQANewReadabilityYardstick.\BBCQ\\newblock{\BemJournalofAppliedPsychology},{\Bbf32},\mbox{\BPGS\221--233}.\bibitem[\protect\BCAY{藤田\JBA小林\JBA南\JBA杉山}{藤田\Jetal}{2015}]{fujita-2015b}藤田早苗\JBA小林哲生\JBA南泰浩\JBA杉山弘晃\BBOP2015\BBCP.\newblock幼児を対象としたテキストの対象年齢推定方法.\\newblock\Jem{認知科学},{\Bbf22}(4),\mbox{\BPGS\604--620}.\bibitem[\protect\BCAY{Ganitkevitch,Van~Durme,\BBA\Callison-Burch}{Ganitkevitchet~al.}{2013}]{ganitkevitch-2013}Ganitkevitch,J.,Van~Durme,B.,\BBA\Callison-Burch,C.\BBOP2013\BBCP.\newblock\BBOQPPDB:TheParaphraseDatabase.\BBCQ\\newblockIn{\BemProceedingsofthe2013ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\758--764}.\bibitem[\protect\BCAY{Goto,Tanaka,\BBA\Kumano}{Gotoet~al.}{2015}]{goto-2015}Goto,I.,Tanaka,H.,\BBA\Kumano,T.\BBOP2015\BBCP.\newblock\BBOQJapaneseNewsSimplification:TaskDesign,DataSetConstruction,andAnalysisofSimplifiedText.\BBCQ\\newblockIn{\BemProceedingsofMTSummitXV},\mbox{\BPGS\17--31}.\bibitem[\protect\BCAY{Han,Martineau,Cheng,\BBA\Thomas}{Hanet~al.}{2015}]{han-2015}Han,L.,Martineau,J.,Cheng,D.,\BBA\Thomas,C.\BBOP2015\BBCP.\newblock\BBOQSamsung:Align-and-DifferentiateApproachtoSemanticTextualSimilarity.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\172--177}.\bibitem[\protect\BCAY{H{\"{a}}nig,Remus,\BBA\de~laPuente}{H{\"{a}}niget~al.}{2015}]{hanig-2015}H{\"{a}}nig,C.,Remus,R.,\BBA\de~laPuente,X.\BBOP2015\BBCP.\newblock\BBOQExBThemis:ExtensiveFeatureExtractionfromWordAlignmentsforSemanticTextualSimilarity.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\264--268}.\bibitem[\protect\BCAY{Heafield}{Heafield}{2011}]{heafield-2011}Heafield,K.\BBOP2011\BBCP.\newblock\BBOQKenLM:FasterandSmallerLanguageModelQueries.\BBCQ\\newblockIn{\BemProceedingsofthe6thWorkshoponStatisticalMachineTranslation},\mbox{\BPGS\187--197}.\bibitem[\protect\BCAY{Hwang,Hajishirzi,Ostendorf,\BBA\Wu}{Hwanget~al.}{2015}]{hwang-2015}Hwang,W.,Hajishirzi,H.,Ostendorf,M.,\BBA\Wu,W.\BBOP2015\BBCP.\newblock\BBOQAligningSentencesfromStandardWikipediatoSimpleWikipedia.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\211--217}.\bibitem[\protect\BCAY{梶原\JBA小町}{梶原\JBA小町}{2017}]{kajiwara-2017}梶原智之\JBA小町守\BBOP2017\BBCP.\newblock\BBOQSimplePPDB:Japanese.\BBCQ\\newblock\Jem{言語処理学会第23回年次大会発表論文集},\mbox{\BPGS\529--532}.\bibitem[\protect\BCAY{Kincaid,Fishburne~Jr.,Rogers,\BBA\Chissom}{Kincaidet~al.}{1975}]{kincaid-1975}Kincaid,J.~P.,Fishburne~Jr.,R.~P.,Rogers,R.~L.,\BBA\Chissom,B.~S.\BBOP1975\BBCP.\newblock\BBOQDerivationofNewReadabilityFormulas(AutomatedReadabilityIndex,FogCountandFleschReadingEaseFormula)forNavyEnlistedPersonnel.\BBCQ\\newblockIn{\BemTechnicalReport,DefenceTechnicalInformationCenterDocument},\mbox{\BPGS\8--75}.\bibitem[\protect\BCAY{Koehn,Hoang,Birch,Callison-Burch,Federico,Bertoldi,Cowan,Shen,Moran,Zens,Dyer,Bojar,Constantin,\BBA\Herbst}{Koehnet~al.}{2007}]{koehn-2007}Koehn,P.,Hoang,H.,Birch,A.,Callison-Burch,C.,Federico,M.,Bertoldi,N.,Cowan,B.,Shen,W.,Moran,C.,Zens,R.,Dyer,C.,Bojar,O.,Constantin,A.,\BBA\Herbst,E.\BBOP2007\BBCP.\newblock\BBOQMoses:OpenSourceToolkitforStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe45thAnnualMeetingoftheAssociationforComputationalLinguisticsCompanionVolumeProceedingsoftheDemoandPosterSessions},\mbox{\BPGS\177--180}.\bibitem[\protect\BCAY{Kuhn}{Kuhn}{1955}]{kuhn-1955}Kuhn,H.~W.\BBOP1955\BBCP.\newblock\BBOQTheHungarianMethodfortheAssignmentProblem.\BBCQ\\newblock{\BemNavalResearchLogisticsQuarterly},{\Bbf2},\mbox{\BPGS\83--97}.\bibitem[\protect\BCAY{Kusner,Sun,Kolkin,\BBA\Weinberger}{Kusneret~al.}{2015}]{kusner-2015}Kusner,M.,Sun,Y.,Kolkin,N.,\BBA\Weinberger,K.\BBOP2015\BBCP.\newblock\BBOQFromWordEmbeddingstoDocumentDistances.\BBCQ\\newblockIn{\BemProceedingsofThe32ndInternationalConferenceonMachineLearning},\mbox{\BPGS\957--966}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Maruyama,Yamaguchi,Ogura,Kashino,Ogiso,Koiso,\BBA\Den}{Maekawaet~al.}{2010}]{maekawa-2010}Maekawa,K.,Yamazaki,M.,Maruyama,T.,Yamaguchi,M.,Ogura,H.,Kashino,W.,Ogiso,T.,Koiso,H.,\BBA\Den,Y.\BBOP2010\BBCP.\newblock\BBOQDesign,Compilation,andPreliminaryAnalysesofBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemProceedingsofthe7thInternationalConferenceonLanguageResourcesandEvaluation},\mbox{\BPGS\1483--1486}.\bibitem[\protect\BCAY{Mikolov,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013a}]{mikolov-2013a}Mikolov,T.,Chen,K.,Corrado,G.~S.,\BBA\Dean,J.\BBOP2013a\BBCP.\newblock\BBOQEfficientEstimationofWordRepresentationsinVectorSpace.\BBCQ\\newblockIn{\BemProceedingsofWorkshopattheInternationalConferenceonLearningRepresentations}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013b}]{mikolov-2013b}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.~S.,\BBA\Dean,J.\BBOP2013b\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandTheirCompositionality.\BBCQ\\newblockIn{\BemAdvancesinNeuralInformationProcessingSystems},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{Och}{Och}{2003}]{och-2003}Och,F.~J.\BBOP2003\BBCP.\newblock\BBOQMinimumErrorRateTraininginStatisticalMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe41stAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\160--167}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{papineni-2002}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsof40thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Pavlick\BBA\Callison-Burch}{Pavlick\BBA\Callison-Burch}{2016}]{pavlick-2016}Pavlick,E.\BBACOMMA\\BBA\Callison-Burch,C.\BBOP2016\BBCP.\newblock\BBOQSimplePPDB:AParaphraseDatabaseforSimplification.\BBCQ\\newblockIn{\BemProceedingsofthe54thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\143--148}.\bibitem[\protect\BCAY{Pavlick,Rastogi,Ganitkevitch,Van~Durme,\BBA\Callison-Burch}{Pavlicket~al.}{2015}]{pavlick-2015}Pavlick,E.,Rastogi,P.,Ganitkevitch,J.,Van~Durme,B.,\BBA\Callison-Burch,C.\BBOP2015\BBCP.\newblock\BBOQPPDB2.0:BetterParaphraseRanking,Fine-grainedEntailmentRelations,WordEmbeddings,andStyleClassification.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\425--430}.\bibitem[\protect\BCAY{Rubner,Tomasi,\BBA\Guibas}{Rubneret~al.}{1998}]{rubner-1998}Rubner,Y.,Tomasi,C.,\BBA\Guibas,L.~J.\BBOP1998\BBCP.\newblock\BBOQAMetricforDistributionswithApplicationstoImageDatabases.\BBCQ\\newblockIn{\BemProceedingsofthe6thInternationalConferenceonComputerVision},\mbox{\BPGS\59--66}.\bibitem[\protect\BCAY{佐藤}{佐藤}{2011}]{sato-2011}佐藤理史\BBOP2011\BBCP.\newblock均衡コーパスを規範とするテキスト難易度判定.\\newblock\Jem{情報処理学会論文誌},{\Bbf52}(4),\mbox{\BPGS\1777--1789}.\bibitem[\protect\BCAY{柴崎\JBA玉岡}{柴崎\JBA玉岡}{2010}]{shibasaki-2010}柴崎秀子\JBA玉岡賀津雄\BBOP2010\BBCP.\newblock国語科教科書を基にした小・中学校の文章難易度学年判定式の構築.\\newblock\Jem{日本教育工学会論文誌},{\Bbf33}(4),\mbox{\BPGS\449--458}.\bibitem[\protect\BCAY{Song\BBA\Roth}{Song\BBA\Roth}{2015}]{song-2015}Song,Y.\BBACOMMA\\BBA\Roth,D.\BBOP2015\BBCP.\newblock\BBOQUnsupervisedSparseVectorDensificationforShortTextSimilarity.\BBCQ\\newblockIn{\BemProceedingsofthe2015ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\1275--1280}.\bibitem[\protect\BCAY{Specia}{Specia}{2010}]{specia-2010}Specia,L.\BBOP2010\BBCP.\newblock\BBOQTranslatingfromComplextoSimplifiedSentences.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalConferenceonComputationalProcessingofthePortugueseLanguage},\mbox{\BPGS\30--39}.\bibitem[\protect\BCAY{{\v{S}}tajner,Bechara,\BBA\Saggion}{{\v{S}}tajneret~al.}{2015a}]{stajner-2015a}{\v{S}}tajner,S.,Bechara,H.,\BBA\Saggion,H.\BBOP2015a\BBCP.\newblock\BBOQADeeperExplorationoftheStandardPB-SMTApproachtoTextSimplificationanditsEvaluation.\BBCQ\\newblockIn{\BemProceedingsofthe53rdAnnualMeetingoftheAssociationforComputationalLinguisticsandthe7thInternationalJointConferenceonNaturalLanguageProcessing},\mbox{\BPGS\823--828}.\bibitem[\protect\BCAY{{\v{S}}tajner,Calixto,\BBA\Saggion}{{\v{S}}tajneret~al.}{2015b}]{stajner-2015b}{\v{S}}tajner,S.,Calixto,I.,\BBA\Saggion,H.\BBOP2015b\BBCP.\newblock\BBOQAutomaticTextSimplificationforSpanish:ComparativeEvaluationofVariousSimplificationStrategies.\BBCQ\\newblockIn{\BemProceedingsoftheInternationalConferenceRecentAdvancesinNaturalLanguageProcessing},\mbox{\BPGS\618--626}.\bibitem[\protect\BCAY{{\v{S}}tajner,Popovi{\'{c}},Saggion,Specia,\BBA\Fishel}{{\v{S}}tajneret~al.}{2016}]{stajner-2016}{\v{S}}tajner,S.,Popovi{\'{c}},M.,Saggion,H.,Specia,L.,\BBA\Fishel,M.\BBOP2016\BBCP.\newblock\BBOQSharedTaskonQualityAssessmentforTextSimplification.\BBCQ\\newblockIn{\BemLREC2016Workshop\&SharedTaskonQualityAssessmentforTextSimplification},\mbox{\BPGS\22--31}.\bibitem[\protect\BCAY{Sultan,Bethard,\BBA\Sumner}{Sultanet~al.}{2015}]{sultan-2015}Sultan,M.~A.,Bethard,S.,\BBA\Sumner,T.\BBOP2015\BBCP.\newblock\BBOQDLS$@$CU:SentenceSimilarityfromWordAlignmentandSemanticVectorComposition.\BBCQ\\newblockIn{\BemProceedingsofthe9thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\148--153}.\bibitem[\protect\BCAY{Wubben,van~denBosch,\BBA\Krahmer}{Wubbenet~al.}{2012}]{wubben-2012}Wubben,S.,van~denBosch,A.,\BBA\Krahmer,E.\BBOP2012\BBCP.\newblock\BBOQSentenceSimplificationbyMonolingualMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe50thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\1015--1024}.\bibitem[\protect\BCAY{Xu,Callison-Burch,\BBA\Napoles}{Xuet~al.}{2015}]{xu-2015}Xu,W.,Callison-Burch,C.,\BBA\Napoles,C.\BBOP2015\BBCP.\newblock\BBOQProblemsinCurrentTextSimplificationResearch:NewDataCanHelp.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf3},\mbox{\BPGS\283--297}.\bibitem[\protect\BCAY{Xu,Napoles,Pavlick,Chen,\BBA\Callison-Burch}{Xuet~al.}{2016}]{xu-2016}Xu,W.,Napoles,C.,Pavlick,E.,Chen,Q.,\BBA\Callison-Burch,C.\BBOP2016\BBCP.\newblock\BBOQOptimizingStatisticalMachineTranslationforTextSimplification.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf4},\mbox{\BPGS\401--415}.\bibitem[\protect\BCAY{Zhu,Bernhard,\BBA\Gurevych}{Zhuet~al.}{2010}]{zhu-2010}Zhu,Z.,Bernhard,D.,\BBA\Gurevych,I.\BBOP2010\BBCP.\newblock\BBOQAMonolingualTree-basedTranslationModelforSentenceSimplification.\BBCQ\\newblockIn{\BemProceedingsofthe23rdInternationalConferenceonComputationalLinguistics},\mbox{\BPGS\1353--1361}.\end{thebibliography}\begin{biography}\bioauthor{梶原智之}{2013年長岡技術科学大学工学部電気電子情報工学課程卒業.2015年同大学大学院工学研究科修士課程電気電子情報工学専攻修了.同年,首都大学東京大学院システムデザイン研究科博士後期課程情報通信システム学域に進学,現在に至る.自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会各学生会員.}\bioauthor{小町守}{2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒業.2007年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2008年より日本学術振興会特別研究員(DC2)を経て,2010年博士後期課程修了.博士(工学).同年より同研究科助教を経て,2013年より首都大学東京システムデザイン学部准教授.大規模なコーパスを用いた意味解析および統計的自然言語処理に関心がある.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
V12N04-06
\section{背景} \label{sec:background}多言語コーパスが整備されていく過程で,ある言語への翻訳が複数の言語に基づいて行われる場合がある.たとえば,聖書の翻訳における日本語訳を考える際に,その原言語として様々な言語が存在する状況に類似している.原言語が英語とフランス語のような場合,それらからの日本語訳には,原言語の影響はほとんどないかもしれない.一方で,原言語として韓国語と英語のような対を考える場合,それらの原言語の違いは,翻訳に多大な影響を及ぼすと予想できる.一般に,ある言語への翻訳が存在する場合,同一内容のものを別の言語から翻訳することは経済的理由から非常に少ない.たとえば,英語から日本語に翻訳された文書が存在する場合,同一内容の文書を韓国語から日本語に翻訳することは極めて稀である.まとまった量の文書を翻訳する場合,その可能性はさらに低くなる.そのため,原言語が異なる同一内容の大規模文書の翻訳は,人為的に作成されない限り入手は困難である.一方で,原言語が翻訳に与える影響は確実に存在し,認識されている.ところが,これまで,原言語が翻訳に与える影響に関して,どのような現象がどの程度生じるのかについて詳細に調査した研究は存在しない.原言語によって生じる違いを詳細に研究することによって,人間と機械の双方にとってよりよい翻訳を得るための知見,知識が得られると考える.そこで,本研究では,日本語と英語の対訳コーパスから日本語と英語を原言語として韓国語コーパスを作成し,翻訳における原言語の影響を考察する.各コーパスは,162,308文から構成される.2つの韓国語コーパスと日英の対訳コーパスの関係を図\ref{fig_relation}に示す.\begin{figure}[tb]\begin{center}\epsfile{file=Relations1.eps,width=7.5cm}\caption{原言語が異なる韓国語コーパス}\label{fig_relation}\end{center}\end{figure}これら2つの韓国語翻訳コーパスは原言語が日本語ならびに英語と大きく異なることから,それぞれ原言語の影響を受けたいくつかの特徴があり,両者は大きく異なる.本論文では,敬語表現,語彙選択,統語的差異,同義表現,表記のゆれ(正書法)の5つの言語現象の観点からそれらの違いを分析する.周知のように英語は比較的固定された語順(SVO)を持ち,主語,目的語などが省略されない.反面,日本語は,述部が文末にくるが,それ以外の要素は,述部に対する関係を助詞などによって示すため,語順が柔軟である.さらに日本語では,文脈上明らかな主語,目的語などは明示されない.これらの点では,韓国語は英語より日本語に非常に近い言語である.このように,日本語と英語は,その構文構造が大きく異なる言語であり,語彙論的な観点からも,単語が与える意味や,その概念なども相当異なる.\begin{exe}\ex\label{k:angry}\gll韓国語:\hg{gyga}\hg{murieihaise}~\hg{hoaga}\hg{naSda.}\\直訳:彼が無礼で腹が立った\\\trans英語:``Hisrudenessannoyed/bothered/upsetme.''\end{exe}たとえば,例(\ref{k:angry})に示した韓国語と英語の2つの文\cite{Lee:1999}は,同じ内容を表しているが,韓国語は複文構造を,英語は単文構造をとっている.これは,英語と日本語の間の翻訳についても言えることであるが,一方の言語において自然な表現を翻訳する場合,目的言語における自然な構文構造が,原言語のそれとは大きく異なる場合がある.しかしながら,翻訳が理想的な状況で行われるとは限らず,原言語の構文構造をそのままに,単語や,句を目的言語の該当表現へ変換することによって翻訳する場合もある.したがって,原言語が日本語と英語のように大きく異なる言語からの韓国語翻訳文は,その原言語に大きく影響されると予想する.構文構造が大きく異なる言語間の翻訳において,目的言語における自然な構文へ翻訳することは,人間にとっても機械にとっても当然負担がかかる.以下に示す日本語と英語から韓国語への翻訳は,原言語の違いが翻訳に与える影響をよく示している.\begin{exe}\ex\begin{xlist}\ex\label{sj_1}このケーブルカーに乗れば,ホテルに行くことができます。(原文)\trans\gll訳:``\hg{qi}\hg{keiqibyrkaryr}\hg{tamien}\hg{hoteirqei}\hg{gar}\hg{su}\hg{'iSsybnida.}''\\この~ケーブルカーに~乗れば~ホテルに~行く~ことが~できます。\\\ex\label{se_1}Thiscablecarwilltakeyoutothehotel.(原文)\trans\gll訳:``\hg{keiqibyrkaga}\hg{hoteirqei}\hg{deirieda}\hg{jur}\hg{gebnida.}''\\ケーブルカーが~ホテルに~連れて~あげる~でしょう。\\\end{xlist}\end{exe}例(\ref{sj_1})の韓国語訳は,和文の構造をそのまま用いて翻訳されている反面,(\ref{se_1})の韓国語訳は英文の構造に影響されている.訳の自然さに関しては,日本語の構造の影響を受けている(\ref{sj_1})が(\ref{se_1})に比べて非常に良い.この例から,より自然な文へ翻訳するために構文構造の大きな変更が必要な場合,そのような変更が行われず,原言語に大きく影響された翻訳が数多く存在していると予想する.原言語の違いが翻訳に差をもたらす事実は,認識されてはいても,これまで詳細に検討されたことはなかった.本研究では,両コーパスの分析を通して翻訳における原言語の影響を計量的に示し,このような異質なコーパスを機械翻訳および他の自然言語処理の分野にどのように応用できるかについて考察する. \section{原言語が異なるコーパスの比較} \label{sec:compare}本論文では,ATR旅行会話基本表現集(BTEC)を用いる.BTECは旅行会話に必要とされる話題(たとえば,買物,ホテル・レストラン予約など)をはじめ,旅行に関する様々な話題を網羅している\cite{Takezawa:Shirai:Ooyama:2001}.BTECは当初,日本語と英語の対訳コーパスの収集から開始されたが,日本語または英語を原言語として他言語へ翻訳し,拡充してきた.本論文では,日本語から韓国語へ翻訳されたコーパスを$K_J$,英語から韓国語へ翻訳されたコーパスを$K_E$と表記する.また,BTECは文単位の対応がとれた多言語コーパスである.使用するBTECの構成を表\ref{tab:btec}に示す.また,使用するBTECの一部の例文を付録\ref{ApendixBTEC}に示す.\begin{table}[htb]\begin{center}\caption{BTECの構成}\label{tab:btec}\begin{tabular}{l|r|r|r|r|r}\hline\hline&日本語&中国語&英語&$K_J$&$K_E$\\\hlineのべ&162,320&162,320&162,320&162,320&162,308\\異なり&102,247&96,309&97,326&103,051&92,816\\重複割合&37.0\%&40.7\%&40.0\%&36.5\%&42.8\%\\\hline\hline\end{tabular}\end{center}\end{table}本論文では,$K_J$と$K_E$の2つのコーパスを比較し,それぞれの性質を詳しく調べる.まずは,2つのコーパスの間の類似度の分析から始め,次の節ではいくつかの言語現象についてより詳しく分析する.\subsection{類似度を用いたコーパス比較}\label{sec:sim}まず,2つのコーパスが表層的にどの程度類似しているのかを編集距離に基づく類似度によって求めた.類似度を求めるプログラムはPerl言語と{\ttString::Similarity}モジュール\cite{Lehmann:2000}を用いて作成した.このモジュールは,Myersによる方法\cite{Myers:1986}によって,編集距離を求め,その値に基づき類似度を与える.具体的には2つの文字列$S_1,S_2$の類似度$sim$は次の式によって与えられる.\begin{equation}sim(S_1,S_2)=1-\frac{Ins+Del}{|S_1|+|S_2|}\end{equation}ここで,$|S|$は文字列$S$の長さに対応し,$Ins$と$Del$は2つの文字列を同一にするために必要な最小の編集操作(挿入と削除)のそれぞれの回数を示している.たとえば,文字列$S_1=$``foo'',$S_2=$``fou''の場合,$S_1$を$S_2$と同一とするための最小の編集操作は$S_1$の最後の``o''を削除し,``u''を挿入することである.したがって,$Del=1$,$Ins=1$となり,この場合は,\[sim(S_1,S_2)=1-\frac{1+1}{3+3}=0.6667\]となる.一方,$S_1=$``foo'',$S_2=$``bar''と2つの文字列が全く異なる場合,$S_1$を$S_2$と同一にするためには$S_1$の全ての文字列を削除し,$S_2$と同一の文字列を挿入することになるので,$Del=3$,$Ins=3$となり,この場合は,\[sim(S_1,S_2)=1-\frac{3+3}{3+3}=0\]となる.したがって,$sim$は全く異なる文字列に対しては0を,同一の文字列には類似度1を与える.具体例を以下に示す\footnote{韓国語では,文節ごとにスペースを置くが,スペースも編集距離の計算対象となる.}.\begin{exe}\ex\glll{100}\hg{darre}\hg{'ieigymhago}~\hg{sipqyndei'io.}($K_E$)\\\hg{baig}\hg{darre}\hg{'ieigymhago}\hg{sipqyndei'io.}($K_J$)(類似度:0.8750=$1-\frac{1+3}{17+15}$)\\100(百)~ドル~貯金し~たいです。\\\end{exe}まず,$K_J$と$K_E$すべての翻訳対毎に類似度$sim$を求めた.そして,類似度0から1までを0.1刻みで10のクラスに分類し,それぞれを類似度クラス0から9まで(たとえば,類似度クラス1は類似度0.1以上0.2未満を示す)とした.この類似度を用いた集計結果を表\ref{tab:sim}に示す.\begin{table}[htb]\caption{類似度によるコーパスの比較結果}\label{tab:sim}\begin{center}\begin{tabular}{c|rrrrrr}\hline\hline類似度&0-0.1&0.1-0.2&0.2-0.3&0.3-0.4&0.4-0.5&0.5-0.6\\\hline類似度クラス&0&1&2&3&4&5\\\hlineのべ&100&1,910&11,006&23,126&33,755&34,888\\\hline異なり&58&1,243&7,876&19,351&29,053&30,149\\\hline\end{tabular}\vspace*{1mm}\begin{tabular}{l|rrrrr}\hline類似度&0.6-0.7&0.7-0.8&0.8-0.9&0.9-1.0&Total\\\hline類似度クラス&6&7&8&9\\\hlineのべ&28,083&17,400&7,693&4,347&162,308\\\hline異なり&24,382&14,946&6,434&3,037&136,529\\\hline\hline\end{tabular}\end{center}\end{table}表\ref{tab:sim}から分かることは,全ての異なり対のうち,全く異なる表現と判断された文が0.1\%($58/136,529$)以下で,ほぼ同一である文が3\%以下($3037/136,529$)である.使用したコーパスにおいて正書法が一貫してないところがあり,同一と判断されない文が多数存在する.この点を考慮すると,同一とみなせる文は約8.3\%となる.文献\cite{Culy:Riehemann:2003}では,BLEU\cite{Papineni2001}に代表される統計的な翻訳評価指標に関する実験を通して,一つのテキストに対して実に様々な訳が可能であることを議論している.この議論から,$K_J$と$K_E$が,原言語が異なるとはいえ同一の文が約8\%程度であるということは,それほど不自然ではない.しかし,彼らが用いたテキストは,聖書と文学作品である.また,すでに翻訳が存在する場合に,翻訳者がその翻訳と差をつけようとする可能性があることや,原言語の影響に関してそこでは直接議論されていない. \section{諸言語現象における原言語の影響} \label{sec:ling}原言語が翻訳に与える影響を調べるために,いくつかの言語現象に着目して,それぞれのコーパスを調査した.分析した言語現象は原言語の差が明確に現れる敬語表現,語彙選択(漢語,外来語),統語的差異(ゼロ代名詞,助数詞),文レベルの同義表現(意訳),表記のゆれ(正書法)である.これらの言語現象のコーパス中の出現頻度を調査した.実際の調査は,表\ref{tab:sim}に示した類似度分布のうち,類似度クラス1から9までの範囲からそれぞれ1\%にあたる文(ペア)を無作為抽出し,それぞれの文がどのような現象を含んでいるかを調査した.類似度クラス0についてはすべての文を調べた.まず,抽出された文のうち,$K_J$と$K_E$それぞれの文に敬語,ゼロ代名詞,漢語,外来語がどの程度含まれているかを調べた.集計結果を表\ref{tab:diff}に示す.各項目は,無作為抽出した文のうち,それぞれの現象が含まれていた文数を示している.\begin{table*}[tb]\caption{$K_J$と$K_E$における言語現象とその頻度}\label{tab:diff}\begin{center}\begin{tabular}{l|rrrrrrrrrr}\hline\hline類似度クラス&0&1&2&3&4&5&6&7&8&9\\\hline無作為抽出数&58&12&78&193&290&301&243&149&64&30\\\hline敬語($K_J$)&4&1&10&16&82&101&76&32&11&2\\敬語($K_E$)&2&0&8&15&20&32&31&9&2&0\\\hlineゼロ代名詞($K_J$)&0&0&3&8&23&28&22&13&4&1\\ゼロ代名詞($K_E$)&0&0&2&5&7&15&8&9&1&1\\\hline漢語($K_J$)&0&0&7&23&39&54&22&19&4&0\\漢語($K_E$)&0&0&2&10&25&35&19&12&0&0\\\hline外来語($K_J$)&0&0&5&16&14&15&7&6&0&0\\外来語($K_E$)&0&0&0&7&11&9&11&3&0&0\\\hline\hline\end{tabular}\end{center}\end{table*}次に対象とした対それぞれについて,文全体の対応,訳語選択における違い,統語的な違い,正書法の違いがそれぞれどの程度含まれているかを調査した.調査結果を表\ref{tab:para}に示す.抽出数などは表\ref{tab:diff}と同一である.それぞれの項目は,各現象が含まれていた文数を示している.\begin{table*}[tb]\caption{同義表現の種別とその頻度}\label{tab:para}\begin{center}\begin{tabular}{ll|rrrrrrrrrr}\hline\hline&&\multicolumn{9}{c}{類似度クラス}\\\hline類型&現象&0&1&2&3&4&5&6&7&8&9\\\hline文全体&同一&0&0&0&0&0&0&0&3&0&18\\&意訳&41&6&26&36&13&8&4&4&0&0\\&誤訳&12&3&8&6&7&1&2&2&6&0\\\hline訳語選択&名詞&0&0&30&98&110&98&70&23&15&1\\&動詞&0&0&32&112&193&186&88&37&11&2\\&疑問詞&0&0&2&11&9&10&2&4&1&0\\&その他&7&1&17&68&115&89&40&16&1&1\\\hline統語&助数詞&0&0&2&5&11&6&2&0&0&0\\&その他&0&1&20&71&109&156&96&34&15&5\\\hline正書法&表記のゆれ&0&1&0&1&7&7&0&0&0&0\\&数字&5&0&6&14&18&20&25&10&0&0\\\hline\multicolumn{2}{c|}{無作為抽出数}&58&12&78&193&290&301&243&149&64&30\\\hline\hline\end{tabular}\end{center}\end{table*}\subsection{敬語表現}\label{sec:honorific}話し手の発話の中で聞き手または話題にあがった第三者に対して,敬意を払っていることを示す表現が東洋の言語には多く見られる.韓国語ならびに日本語にもそのような敬語法が存在する.韓国語には,多段階の敬語レベルがあり,話者,聴者,第三者との間に社会的地位,年齢,グループ,親族関係,新密度などを考慮し使い分ける\cite{Sohn:1999}.以下,韓国語の敬語体系を簡単に紹介する(日本語訳を``~''で示す).\begin{description}\item[話し手と聞き手との関係]\hg{gim}\hg{giosu}(普通)vs\hg{gim}\hg{giosunim}(敬語)``キム教授''\item[名詞]\hg{bab}(普通)vs\hg{jinji}(敬語)``ご飯/食事''\item[代名詞]\hg{na}(普通)vs\hg{je}(謙譲)``私''\item[助詞]\hg{ga},\hg{'i},\hg{nyn}(普通)vs\hg{Geise},\hg{Geisenyn}(敬語)``が,は''\item[動詞]\hg{jada}(普通)vs\hg{jumusida}(敬語)``寝る/眠るvsおやすみになる''\item[動詞接辞]$\phi$(普通)vs-\hg{si}(主格敬語)(日本語には存在しない)\\$\phi$(普通)vs-\hg{b},-\hg{syb}(相手敬語\footnote{話しかける相手に対して用いる敬語.})``-られる''\item[文末表現]-\hg{(sy)bnida}(尊敬),-\hg{'eqio}/-\hg{'aqio}(丁寧),-\hg{so},\hg{'o}(対等\footnote{相手にふさわしい尊敬を表し,相手と自分の間に心理的距離を維持したい時に用いられる.}),-\hg{nei}(親密\footnote{対等,目下の者に対して使用する.}),-\hg{'e}/-\hg{'a}(懇意\footnote{対等な間柄や目下の者に対して使われるが,-\hg{so},\hg{'o}や-\hg{nei}に比べ柔らかな印象を与え,親近感を伝える場合に使われる.}),-\hg{da}(疎遠\footnote{この文末表現は前2つの``-\hg{nei},-\hg{'e}/-\hg{'a}''と同程度に丁寧だが,親密さを欠いた表現となる.})``だ,です''\end{description}日本語の敬語形式は尊敬の度合い,話者,状況によって異なる.韓国語と同じように,接辞を付加する,異なる語彙を用いるなどによって敬語形式を構成する.以下,上記の韓国語の敬語法の例に対する日本語の敬語の種類を簡単に紹介する\cite{Kaiser:2001}.\begin{description}\item[名詞]:人vs方\item[名詞接頭辞]$\phi$vs御(お,ご,み)(例:お財布,お塩,ご都合,み心)\item[代名詞]私(普通)vs私(わたくし)(謙譲)\item[形容詞]:いい/良いvs宜しい,暑いvsお暑い\item[動詞]食べるvs召しあがる\item[動詞句]:主語:尊敬:(お/ご)+動詞の連用形+になる\\話し手:謙譲:(お/ご)+動詞の連用形+する\item[文末表現]:た(普通),です,ます(丁寧)\end{description}上記のように韓国語と日本語は複雑な敬語体系を持っている.その反面,英語やその他のインド・ヨーロッパ諸語では代名詞形や敬称(たとえば,ドイツ語2人称duに対して敬称であるSieなど)に僅かに敬語の体系が残っているにすぎない.したがって,表現を体系的に変化させて尊敬を表すことができず,ほとんどの場合,全く異なる表現を用いることになる.表\ref{tab:three}に韓国語,日本語,英語の差を示す.\begin{table}[htbp]\begin{center}\caption{韓国語,日本語,英語における敬語の差}\label{tab:three}\footnotesize\begin{tabular}{l|l|l|l}\hline\hline&韓国語&日本語&英語\\\hline普通&\hg{jogym}\hg{gidarinda.}&ちょっと待つ.&``$\phi$waitamoment.”\\尊敬語&\hg{jogym}\hg{gidari{\bfsi}geiSsybniGa?}&少し{\bfお}待ち{\bfになります}か.&``Wouldyou{\bfmind}wait{\bfing}foramoment?''\\謙譲語&\hg{jogym}\hg{gidarigeiSsybnida.}&少し{\bfお}待ち{\bfします}.&``{\bfIfitisokay,}\\&&&I'd{\bfliketo}waitforamoment.''\\丁寧語&\hg{dysida,jabsusida}&召しあがる&dine(vs.eat)\\\hline\hline\end{tabular}\end{center}\end{table}表\ref{tab:three}から三つの言語がそれぞれ独特な敬語法を用いていることが分かる.韓国語の謙譲語は日本語のような文法範疇を持たないことと,談話レベルにおいて文末の語尾が非常に多様であるという点が異なる.しかし,一方で,韓国語,日本語それぞれにおいて敬語の用法に規則性があることも示されている.英語の場合は,状況に応じて語句を挿入するなどして文を換え,敬意を表したり,自分をへりくだって表現する.表\ref{tab:three}では,英語において太字で示された表現に直接的に対応する表現は韓国語と日本語には存在しない.以下,$K_E$と$K_J$における敬語表現の代表的な例を示す.\begin{exe}\ex\begin{xlist}\ex\label{hon:eng}\gll\hg{hoteir}\hg{nai'ei}\hg{'iaggug'i}\hg{\bf'iSna'io}?:$K_E$\\ホテル~内に~薬局が~ありますか。\\\trans``Doyouhaveadrugstoreinthishotel?''(原文)\ex\label{hon:ja}\gll\hg{'i}\hg{hoteir'ei}\hg{'iaggug'yn}\hg{\bf'iSsybniGa}?:$K_J$\\この~ホテルに~薬局は~ありますか。\\\trans``このホテルにドラックストアはありますか。''(原文)\hfill(類似度:0.6207)\end{xlist}\end{exe}この例では,$K_J$の文がより丁寧に翻訳されている.一方,$K_E$の原文``Doyouhaveadrugstoreinthishotel?''は丁寧さが明らかではなく,どちらにも訳せる.もし,例(\ref{hon:eng})の原文が``Excuseme,wouldyoupleasetellmeifthereisadrugstoreinthishotel?''であれば,より丁寧な表現に訳されたかも知れない.韓国語における語尾の「-\hg{'io}」は「-\hg{bniGa},-\hg{sybniGa}」に比べると丁寧ではない.これに直接対応する表現は日本語には存在しない.実際の会話においては(\ref{hon:eng})は(\ref{hon:ja})に比べ丁寧ではないが,日常会話ではよく使われる表現である.例文(\ref{hon:ja})は丁寧であるが,かしこまった場面により相応しいと言える.表\ref{tab:diff}から,$K_J$では,類似度に関係なく敬語表現を多用していることがわかり,原言語の違いが敬語表現の差異を形成している.表\ref{tab:diff-hon}は,敬語(丁寧さ)に関係する文末表現が,$K_J$と$K_E$でどの程度使用されているかを示したものである.敬語に関連する文末表現は表\ref{tab:diff-hon}に示した以外にもある(たとえば,-\hg{so},-\hg{'o},-\hg{nei},-\hg{'e}/-\hg{'a}(親密な関係を表すもの)と-\hg{da}(普通))が,本研究で用いたコーパスにはほとんど出現しない.本研究で用いたコーパスは旅行会話に関するものであり,そのほとんどがサービスを提供する側とされる側でのかしこまった会話で占められる.したがって,本研究で用いたコーパスには,親密な関係を示すようなくだけた表現はほとんど含まれない.表\ref{tab:diff-hon}の結果は,敬語に関する文末表現における原言語の差異を顕著に表している.また,参考までに,韓国語の文末表現と直接的に対応するわけではないが,日本語コーパスにおける文末表現を集計し,同じく表\ref{tab:diff-hon}にまとめた.韓国語の文末表現が日本語のそれと直接的に対応しないというのは,日本語の``です/ます''は韓国語における``-\hg{bnida},-\hg{sybnida}''と``\hg{'io}''の両方に対応する可能性があるからである.つまり,韓国語の方が敬語のレベルがより細かいため,日本語の形式と直接的に対応しない.また,韓国語の``-\hg{bnida},-\hg{sybnida}''は敬語のレベルが最高丁寧と説明されるが,日本語にはこれらの語に対応する敬語形式は存在せず,``でしょうか''や``ましょうか''といった形式でより丁寧な表現にする.このような場合はほとんど「-\hg{bniGa},-\hg{sybniGa}」で翻訳されている.\begin{table*}[htbp]\caption{韓国語と日本語コーパスにおける敬語文末表現}\label{tab:diff-hon}\begin{center}\begin{tabular}{l|rr|rr}\hline\hline&\multicolumn{4}{c}{コーパス}\\\cline{2-5}文末表現&K$_J$&K$_E$&\multicolumn{2}{c}{日本語}\\\hline\hg{nida.}(最高丁寧)&{\bf33,351}&23,316&です./ます.&18773/20373\\\hg{niGa?}(最高丁寧)&{\bf34,872}&9,970&ですか./ますか.&25759/27788\\\hline\hg{'io.}(普通丁寧)&21,922&{\bf33,617}&だ.&806\\\hg{'io?}(普通丁寧)&3,082&{\bf25,481}&か.&225\\\hline\hline\end{tabular}\end{center}\end{table*}\subsection{語彙選択}\label{sec:choice}韓国語と日本語は文法の面でも類似しているが,語彙的な面においても非常に近いと言える.ここでは,漢語と外来語に関して分析する.\subsubsection{漢語}\label{sec:lexcial}漢字は中国をはじめ,日本,韓国等で使われている.日本語と韓国語における漢語は,共通のものが多く,韓国語における漢語の約七割が日本語にも存在すると言われている\cite{Watanabe:1981}.Sohnによると,現代の韓国語の語彙は,純粋な韓国語(35\%),中国語起源の韓国語(60\%),そして外来語(5\%)で構成されている\cite{Sohn:1999}.中国語起源の語彙はさらに,3通りに分けられる.以下は文献\cite{Chang:2000}を参考にした.\begin{description}\item[中国語から輸入したもの]自然,天地,愛国,学院,英文,議事堂など\item[韓国語で作られたもの]便紙(``手紙''),福徳房(``不動産屋'')など\item[日本語から輸入したもの]飛行機,旅行,英語,開戦,改良,会員など\end{description}さらに複雑になると,日本で作られた漢語が中国に逆輸入され(例,消防車,消化器,飛行機,旅行など),その漢語が韓国に輸入されたものもある.流入の経路が複雑で起源がはっきりしないものもあるが,日本語と韓国語は漢語の7割りが共通であることは非常に興味深い現象である.実際に,表\ref{tab:diff}でも,$K_J$のほうで漢語がよく使われている.以下に例をあげる.\begin{exe}\ex\begin{xlist}\ex\label{kango:eng}\gll\hg{\bfrinein}\hg{\bfjeipum}\hg{{\bfkone}nyn}\hg{'edi'iei'io?}:$K_E$\\リネン~製品~コーナーは~どこですか。\\\trans``Whereisthe{\bflinenssection}?''(原文)\ex\label{kango:ja}\gll\hg{\bfcimgu}\hg{{\bfmaijaq}'yn}\hg{'edi'ibniGa?}:$K_J$\\寝具~売り場は~どこですか。\\\trans``{\bf寝具売り場}はどこですか。''(原文)\hfill(類似度:0.3571)\end{xlist}\ex\begin{xlist}\ex\label{bound:eng}\gll\hg{bosyten}\hg{{\bfganyn}}\hg{besynyn}\hg{'edi'eise}\hg{tabniGa?}:$K_E$\\ボストン~行きの~バスは~どこで~乗りますか。\\\trans``WherecanIcatchabus{\bftogo}toBoston?''(原文)\ex\label{yuki:ja}\gll\hg{bosyton}\hg{\bfhaiq}\hg{besynyn}\hg{'edi'eise}\hg{tar}\hg{su}\hg{'iSsybniGa?}:$K_J$\\ボストン~行き~バスは~どこで~乗る~ことが~できますか。\\\trans``ボストン{\bf行き}のバスにはどこで乗れますか。''(原文)\hfill(類似度:0.7272)\end{xlist}\end{exe}表\ref{tab:diff}で示したように漢語は$K_J$でより頻繁に使用されている.さらに,表\ref{tab:para}に示した訳語選択の項目において類似度クラス3から7まで名詞の訳語選択に違いが多く存在していることから,名詞訳語選択の違いの多くは漢語の使用にあることが推察できる.\subsubsection{外来語}\label{sec:loan_word}外来語は外国から来た語(ただし,漢語を除く)であるが,その原言語は英語だけではない.韓国語と日本語には,英語,ポルトガル語,フランス語,ドイツ語など様々な国からの外来語が多く存在する.その割合を示した研究がある.日本語で書かれた90種類の雑誌から外来語を調査した結果,合計2,964個の外来語が収集された.その中で英語からの外来語は2,395語(約80\%)という圧倒的な数を示す\cite{Shibatani:1990}.本研究の調査でも,ほとんどが英語からの外来語である.表\ref{tab:diff}に示した結果から,外来語の量に関しては,$K_J$,$K_E$両コーパスにおいて大きな差はなかった($K_J$:4.6\%(63/1358),$K_E$:3.0\%(41/1358))が,その性質は少し異なる.$K_E$で使われる外来語の中では``track,maindiningroom,avenue,check,coupon,darkbrown,rent,seat,golfround''といった韓国語の外来語としてはなじみが薄い語も含まれている.反面,$K_J$で使われる外来語は``size,center,tour,ticket,economycar,roomservice,beercan,cream,family,restaurant,platform,curl,course,music,service,counter,play''のように和製英語および韓国語における外来語としてよく用いられる語が頻繁に表れる.韓国語の外来語には漢語と同様に日本から輸入されたものが数多くある.それゆえ,$K_J$で使われた外来語がそのまま異和感なく用いられている.このような事情もあって,日本語から韓国語に翻訳された場合,韓国語を母語とする者にとって親しみのある外来語が用いられる.しかし,英語からの翻訳においては,英語の単語をそのまま翻字した(\ref{kango:eng})の``\hg{rinein}(リネン)''のような外来語が含まれる.この現象は,原言語が訳語選択に大きく影響していることを示している.また,(\ref{kango:eng}),(\ref{kango:ja})の例に示した場合のように``リネン製品''と``寝具''のような訳は広い意味では類似カテゴリーとして考えられるが,それらが与える意味は若干異なる.ひとつの原言語からの翻訳のみでは,このような2つの単語の類似関係はなかなか得られない.異なる原言語からの翻訳において,このような意味のずれが派生してくることは注目すべき点である.日本語と英語を原言語とする韓国語の翻訳においては,漢語と外来語の用いられ方に原言語の影響が明確に表れる.\subsection{統語的差異}\label{sec:syntax}言語類型論的な観点からみると,韓国語は日本語に非常に近いが英語とはかなりへだたりがある.表\ref{tab:para}の統語の「その他」には格助詞の有無,文体の変化(能動対受動),構文の違いなどがある場合を計数した.表\ref{tab:para}から全ての類似度クラスにおいて統語的な違いがあることがよく分かる.本節では,特にゼロ代名詞と助数詞の2つの統語的な差異に焦点を当てる.\subsubsection{ゼロ代名詞}\label{sec:zero}表\ref{tab:diff}から$K_J$でゼロ代名詞が頻繁に用いられていることが分かる.これは,\ref{sec:background}節で述べたように日本語では,文脈上明白な成分は明示されない事実を反映した結果である.以下に,文脈上明白な成分が明示されない場合の例を示す.\begin{exe}\ex\begin{xlist}\ex\label{e:a}\gll\hg{jei}\hg{cingu}\hg{jib'ei}\hg{memur}\hg{'ieijeq'ibnida.}:$K_E$\\私の~友達~家に~泊る~予定です.\\\trans``Iamplanningtostayatmyfriend'shouse.''(原文)\ex\label{e:b}\gll$\phi_{adn}$\hg{cingu}\hg{jib'ei}\hg{mugsybnida.}:$K_J$\\友達~家に~泊ります.\\\trans``$\phi$友達の家に滞在予定です.''(原文)\hfill(類似度:0.6429)\end{xlist}\end{exe}\begin{exe}\ex\begin{xlist}\ex\label{togo:eng}\gll$\phi_{subj}$\hg{bunmieqhi}\hg{'i}\hg{bihaiqgiryr}\hg{rikenpemhaiSnyndei'io.}:$K_E$\\確かに~この~飛行機を~リコンファームしました.\\\trans``I'msureIreconfirmedthisflight.''(原文)\ex\label{togo:ja}\gll$\phi_{subj}$\hg{hoagsirhi}$\phi_{obj}$\hg{jaihoag'in}\hg{haiSsybnida.}:$K_J$\\きちんと~再確認~しました.\\\trans``きちんと$\phi_{subj}$$\phi_{obj}$リコンファームをしました.''(原文)\hfill(類似度:0.3125)\end{xlist}\end{exe}韓国語でも日本語と同様に文脈上明らかな成分は明示されない.上記の例は,原言語が英語の場合は,文脈上明らかな成分も明示される傾向があることを示している.このことは表\ref{tab:diff}で示したゼロ代名詞の項目からも確認できる.\subsubsection{助数詞}\label{num-cl}助数詞は東アジアの言語で多く使われる.韓国語と日本語は英語のように直接物を数えることはできず,助数詞を数と共に用いる.英語の非加算名詞の数量表現に助数詞が使われるが(たとえば,twopiecesofinformation),加算名詞の場合は助数詞を用いない(たとえば,oneapple,twodogs).両言語とも約300個の助数詞を持っているといわれるが,実際に日常生活で使われている典型的な助数詞の数は韓国語の場合,50個であり\cite{Unterbeck:1994},日本語の場合,おおよそ30個から80個である\cite{Downing:1996}といわれる.以下,日本語,韓国語,英語における一例を示す.\begin{exe}\ex\begin{xlist}\ex日本語:2{\bf匹}の犬,何{\bf頭}の牛\footnote{日本語では対象とする動物により異なる助数詞が使われるが,韓国語ではほとんど「\hg{mari}」を用いる.}\ex韓国語:2\hg{{\bfmari}'yi}\hg{gai,}\hg{miec}\hg{{\bfmari}'yi}\hg{so}\ex英語:``twodogs'',``howmanycows''\end{xlist}\end{exe}2つのコーパスにおいて用いられる助数詞の種類ならびにその頻度を計数した結果を表\ref{tab:classifier}に示す.コーパス上,助数詞の面でも韓国語と日本語は類似している.表\ref{tab:classifier}から,$K_J$の方が助数詞を多く使用していることがわかる一方,その種類においては逆転しているという興味深い現象がおきている.つまり,用いられる助数詞の種類は$K_E$の方が12個も多い.この理由は,原言語において助数詞を明示するか否かによるところが大きいと考える.\begin{table}[htb]\begin{center}\caption{K$_J$とK$_E$における助数詞の使用頻度}\label{tab:classifier}\begin{tabular}{l|r|r}\hline\hline助数詞&$K_E$&$K_J$\\\hline種類&310&298\\頻度&7,076&8,307\\\hline\hline\end{tabular}\end{center}\end{table}$K_E$の原言語コーパス(英語)においては,助数詞はまれにしか使われておらず,その多くは非加算名詞を数える時に限られている.したがって助数詞が明示されていない原言語文(英文)から,助数詞を用いる言語の文(韓国語文)に翻訳する時(たとえば,例文(\ref{glass:eng})を参照),どのような助数詞を用いるかは,翻訳者に一任される.逆に助数詞が明示された原言語文(日本語文)から同じく助数詞を明示する目的言語文(韓国語文)へ翻訳する場合は,明示された助数詞の影響を受け,限定される.たとえば,英語から韓国語への翻訳では,例文(\ref{glass:eng})のように,英語の``somewater''を韓国語に訳す時``\hg{jan}(杯)''または``\hg{keb}(コップ)''どちらを用いても訳せる.一方,日本語から韓国語への翻訳は``杯''は``\hg{jan}'',``コップ''は``\hg{keb}''のように訳が限定される傾向がある.例文(\ref{beon:ja})は日本語から韓国語への翻訳の例であり,原言語の助数詞を忠実に訳した場合を示している.\begin{exe}\ex\label{glass:eng}\gll\hg{mur}\hg{han}\hg{\bfjan}/\hg{\bfkeb}\hg{jusei'io}.:$K_E$\\お水~一~杯/コップ~ください.\\\trans``Pleasegivemesomewater.''(原文)\ex\label{beon:ja}\gll\hg{miec}\hg{{\bfben}Jai}\hg{'ieg'eise}\hg{gar'atabniGa?}:$K_J$\\何~番目~駅で~乗り換えますか.\\\trans``何{\bf番}目の駅で乗り換えますか.''(原文)\end{exe}\subsection{同義表現の分類}\label{sec:sem-para}本研究では,原言語が異なる2つの韓国語コーパスを比較し,様々な面について分析した.分析対象のうち約92\%の文に不一致表現が含まれる.しかも,それらの文は同義表現であることから,そこにどのような差異が存在するかを調べることによって異表記同義表現を抽出できる.表\ref{tab:para}に示した結果から,全体的に,名詞または動詞の訳語の違いが非常に多いことがわかる.一方で,誤訳の多さも目立つ.これは,BTECの翻訳が,文脈をほとんど与えられず,一文単位で翻訳されていることに一因がある.類似度がかなり低い(類似度クラス0から2)文を分析すると,文単位の異表記同義表現が数多く得られると予想する.ただし,類似度の性質から,文が短い場合は,文単位の異表記同義表現であっても類似度が大きくなる傾向がある(例\ref{bab:eng}を参照).以下に例をあげる.\begin{exe}\ex\begin{xlist}\ex\label{yoksil:eng}\gll\hg{'iogsir}\hg{Darrin}\hg{siqgyrrum'yr}\hg{'iei'iaghago}\hg{sipsybnida.}:$K_E$\\バス~付きの~シングルルームを~予約し~たいです\\\trans``Asinglewithbath,please.''(原文)\ex\label{yoco:ja}\gll\hg{'iogjo}\hg{Darrin}\hg{siqgyr}\hg{rum'yr}\hg{butaghabnida.}:$K_J$\\バス~付き~シングル~ルームを~付託する(お願いします).\\\trans``バス付きのシングル部屋を願います.''(原文)\hfill(類似度:0.6315)\end{xlist}\ex\begin{xlist}\ex\label{paraphrase:eng}\gll\hg{jenyn}\hg{'iahaiqseq'i'ei'io.}:$K_E$\\私は~夜行性です.\\\trans``I'manightowl.''(原文)\ex\label{paraphrase:ja}\gll\hg{nanyn}\hg{bam}\hg{nyjgeiGaji}\hg{jam'yr}\hg{'an}\hg{jabnida.}:$K_J$\\私は~夜~遅くまで~眠りを~ない~眠ります.\\\trans``私は夜ふかしです.''(原文)\hfill(類似度:0.2069)\end{xlist}\ex\begin{xlist}\ex\label{bab:eng}\gll\hg{bab}\hg{saiqgag'i}\hg{'ebs'e'io}:$K_E$\\ご飯~思いが~ないです.\\\trans``Idonothaveanyappetite.''(原文)\ex\label{sikyok:ja}\gll\hg{sig'iog'i}\hg{'ebssybnida.}:$K_J$\\食欲が~ありません.\\\trans``食欲がありません.''(原文)\hfill(類似度:0.4210)\end{xlist}\end{exe}例文(\ref{yoksil:eng})と(\ref{yoco:ja})は類似度が高く,その差異を規則的に表現することが可能である.一方,例文(\ref{paraphrase:eng}),(\ref{paraphrase:ja})と(\ref{bab:eng}),(\ref{sikyok:ja})の間の差異は規則的なものではなく,熟語・慣用表現に属するものであり,規則的に変換することは非現実的である.これらは原言語である英語からの直訳ができず,熟語的,慣用的な表現を用いて翻訳されているからである.比較的単純な換言規則を用意し,それらを適用するだけでは,このような同義表現へ相互に換言することは困難である\cite{Ohtake:Yamamoto:2001}.一方で,このような同義表現は類似度が低くなるにつれて増える傾向にあり,類似度を適切に用いることによって,比較的容易にこれらの同義表現を収集することができる.\subsection{正書法}\label{sec:orthography}$K_J$と$K_E$は別々に翻訳されたものであり,外来語や固有名詞の書き方と数字の書き方等に一貫性がない.たとえば,英語の``hostess''を含む文の翻訳をみると,$K_J$では``\hg{hosyteisy}(ホステス)'',$K_E$では``\hg{hosytisy}(ホスティス)''のように表記されている.地名も同様である(たとえば,\hg{pikadirri}(pikadilli)と\hg{pikadiri}(pikadili),\hg{'aineha'im}(aeneohaim)と\hg{'eineha'im}(eneohaim)など).これらは,日本語における片仮名表記のゆれに該当する.また,数字表現では,``6\hg{si}(時)40\hg{bun}(分)''と``\hg{'iesessi}\hg{sasibbun}''のように異なる表記が用いられる場合がある.つまり,アラビア数字(1,2,3,\ldots)で記述するか韓国語(\hg{'ir,'i,sam,...})で記述するかの違いである.原理的には,数字を漢字で記述することもできるが,この現象は,本研究で用いた2つのコーパスには存在しなかった.したがって,このコーパスを用いて,同義表現獲得,あるいは換言規則の抽出などを行う際には,表記の統一を考慮する必要がある.なお,このような異表記はコーパス全体の7\%の文に存在する.また,分かち書きの問題もある.日本語は分かち書きをしないので,この問題は存在しない.しかし,韓国語では「\hg{siqgyrrum}」(シングルルーム)と「\hg{siqgyr}$_\sqcup$\hg{rum}」(シングル$_\sqcup$ルーム,例\ref{yoksil:eng}と\ref{yoco:ja}を参照)のように分かち書きがゆれる場合がある.また,我々が評価した文には含まれていなかったが,コーパス全般において句読点の使用方法,特にクエスチョンマークの使用方法に関しても若干のゆれがある.これらの正書法に関する違いを統一すると,同一と見なされる文は倍以上に増え,コーパス全体の8.3\%になる.正書法に関する違いは,重要ではないもののコーパス中のいたるところに存在する.したがって,コーパスを計算機で処理する際に,正書法に関する違いをどのように扱うかは,非常に重要である. \section{2つのコーパスと自然言語処理} \label{sec:nlp}これまで見てきたように同一言語の2つのパラレルコーパス,$K_J$と$K_E$は同一内容を示しているにもかかわらず,用いられている表現形式はかなり異なる.両コーパスともプロの翻訳家によって作成されたコーパスであるため,極端に不自然な文は存在しないといえる.そのため,この2つのパラレルコーパスは,同義表現を得るための言語資源として非常に適しているといえる.翻訳を介しての同義表現の獲得に関しては,これまで検討されており(たとえば,\cite{Barzilay2001}など),その可能性が示されている.この場合の,言語資源としては,ある言語$A$における文書$X$とそれの言語Bへの翻訳文書$Y$だけでは不十分である.この場合は,$Y$を翻訳した人間とは別の者による$X$から言語$B$への翻訳$Z$も存在してはじめて,$Y$と$Z$を比較することにより同義表現の獲得が可能となる.これに対して,本研究では,言語$A$と$B$のパラレルコーパス$C(A)$と$C(B)$をそれぞれ別の言語Kのコーパス$C(K_a)$と$C(K_b)$に翻訳しており,同一言語間の複数の翻訳を用いる状況とは異なる.しかも,翻訳の原言語が,本研究では,英語と日本語であり,その構造は大きく異なる.したがって,本研究で用いたコーパスそのものを同義表現獲得に有効に用いることができる.たとえば,図\ref{fig_para1}に示すように日本語原文に対する韓国語訳は,構文ならびに語彙の面で原文と大きな違いはない.一方,「食欲がない」に対する英訳は``Ihavenoappetite.''であり,それを韓国語に訳すと「\hg{bab}\hg{saiqgag'i}\hg{'ebs'e'io.}(ご飯の思いがない.)」となる.これは韓国語では日常よく使われる表現である.しかし,ここで韓日機械翻訳を考えると,韓国語では自然な表現であっても,その翻訳が``ご飯の思いがない.''となることは好ましくない.これは日韓の翻訳においても同様である.そこで,これらのコーパスを用いてあらかじめ換言知識を抽出しておき,換言器を構成する.この換言器を用いることによって「ご飯の思いがない.」に対応する原文を「食欲がない.」に対応する原文に換言することができる.その結果より自然な訳文を得ることができる.\begin{figure}[htb]\begin{center}\epsfile{file=fig_para1.eps,scale=0.4}\caption{同義表現を用いた換言}\label{fig_para1}\end{center}\end{figure}近年,大量の二言語パラレルコーパスを用いる統計翻訳が注目されている.本研究で用いた日本語コーパス($J$とする)と英語コーパス($E$とする)ならびにそれらの韓国語翻訳である$K_J$と$K_E$を用いると,日-英-韓の間で翻訳機を構成することができる.今,韓国語のコーパスとして$K_J$のみを用いて韓国語を目的言語とする翻訳機を考える.この場合,日-韓の翻訳機では,自然な翻訳を期待できるが,英-韓の翻訳機では,翻訳モデル内の対応付けが,より複雑になることが予想され,翻訳精度が低下する可能性がある.そのため,常に$K_J$を使用することが推奨されるわけではない.むしろ,統計翻訳のようなコーパスに基づいた機械翻訳機の場合,使用するコーパスが直訳調の対応になっている方が,計算機にとっては,対応がとりやすく処理しやすいと言える.したがって,ひとつのモデルとして,翻訳に使用するコーパスは直訳調のものを用いて(たとえば,英-韓の翻訳機の場合,$E$-$K_E$を使用する)翻訳機を構成し,翻訳前/後の文を同義表現知識を用いて換言するものが考えられる. \section{結論} \label{sec:conclusion}日英パラレルコーパスの日本語と英語それぞれを原言語として翻訳した2種類の韓国語旅行会話コーパスを用いて,原言語が翻訳に及ぼす影響についていくつかの言語現象を分析した.要約すると,文法および語彙において非常に類似している日本語と,それらが相当異なる英語それぞれからの翻訳では,原言語の違いが翻訳に多大な影響を与えている事実を示すことができた.これは人間の翻訳者においても機械翻訳においても同じことだと考える.今後はこのような言語差を利用した同義表現の抽出について詳しく検討する予定である.\subsection*{謝辞}本研究は総務省の研究委託「携帯電話等を用いた多言語自動翻訳システム」により実施したものである.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Barzilay\BBA\McKeown}{Barzilay\BBA\McKeown}{2001}]{Barzilay2001}Barzilay,R.\BBACOMMA\\BBA\McKeown,K.~R.\BBOP2001\BBCP.\newblock\BBOQExtractingParaphrasesfromaParallelCorpus\BBCQ\\newblockIn{\BemProceedingsofthe39thAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\50--57.\bibitem[\protect\BCAY{張}{張}{2000}]{Chang:2000}張元哉\BBOP2000\BBCP.\newblock\JBOQ19世紀末の韓国語における日本製漢語--日韓同形漢語の視点から--\JBCQ\\newblock\Jem{日本語科学},{\Bbf8},76--95.\bibitem[\protect\BCAY{Culy\BBA\Riehemann}{Culy\BBA\Riehemann}{2003}]{Culy:Riehemann:2003}Culy,C.\BBACOMMA\\BBA\Riehemann,S.~Z.\BBOP2003\BBCP.\newblock\BBOQThelimitsof{N}-gramtranslationevaluationmetrics\BBCQ\\newblockIn{\BemMTSummitIX}\NewOrleans.\bibitem[\protect\BCAY{Downing}{Downing}{1996}]{Downing:1996}Downing,P.\BBOP1996\BBCP.\newblock{\BemNumeralClassifierSystems,thecaseof{Japanese}}.\newblockJohnBenjamins,Amsterdam.\bibitem[\protect\BCAY{Kaiser,Ichikawa,Kobayashi,\BBA\Yamamoto}{Kaiseret~al.}{2001}]{Kaiser:2001}Kaiser,S.,Ichikawa,Y.,Kobayashi,N.,\BBA\Yamamoto,H.\BBOP2001\BBCP.\newblock{\BemJapanese:AComprehensiveGrammar}.\newblockRoutledge.\bibitem[\protect\BCAY{Lee}{Lee}{1999}]{Lee:1999}Lee,Y.-O.\BBOP1999\BBCP.\newblock\BBOQTheDifferenceinSubjectChoicebetween{Korean}and{English}\BBCQ\\newblockIn{\BemEnglishEducationintheEraofInformation}.\newblockChungnamNationalUniversity,Kwangju,Korea.\bibitem[\protect\BCAY{Lehmann}{Lehmann}{2000}]{Lehmann:2000}Lehmann,M.\BBOP2000\BBCP.\newblock\BBOQ{String::Similarity}\BBCQ\\newblockPerlModule({\tthttp://cpan.org/}).\newblock(v0.02).\bibitem[\protect\BCAY{Myers}{Myers}{1986}]{Myers:1986}Myers,E.\BBOP1986\BBCP.\newblock\BBOQAn{O}({ND})differencealgorithmanditsvariations\BBCQ\\newblock{\BemAlgorithmica},{\Bbf1}(2),251--266.\bibitem[\protect\BCAY{Ohtake\BBA\Yamamoto}{Ohtake\BBA\Yamamoto}{2001}]{Ohtake:Yamamoto:2001}Ohtake,K.\BBACOMMA\\BBA\Yamamoto,K.\BBOP2001\BBCP.\newblock\BBOQParaphrasingHonorifics\BBCQ\\newblockIn{\BemWorkshopProceedingsofAutomaticParaphrasing:TheoriesandApplications({NLPRS}2001Post-ConferenceWorkshop)},\BPGS\13--20\Tokyo.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2001}]{Papineni2001}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2001\BBCP.\newblock\BBOQBleu:aMethodforAutomaticEvaluationofMachineTranslation\BBCQ\\newblock\BTR,{IBM}ResearchDivisionTohmasJ.WatasonResearchCenter.\newblock{IBM}ResearchReport{RC22176(W0109-022)}.\bibitem[\protect\BCAY{Shibatani}{Shibatani}{1990}]{Shibatani:1990}Shibatani,M.\BBOP1990\BBCP.\newblock{\BemThelanguagesof{Japan}}.\newblockCambridgeLanguageSurveys.CambridgeUniversityPress.\bibitem[\protect\BCAY{Sohn}{Sohn}{1999}]{Sohn:1999}Sohn,H.\BBOP1999\BBCP.\newblock{\BemTheKoreanLanguage}.\newblockCambridgeLanguageSurveys.CambridgeUniversityPress.\bibitem[\protect\BCAY{Takezawa,Shirai,\BBA\Ooyama}{Takezawaet~al.}{2001}]{Takezawa:Shirai:Ooyama:2001}Takezawa,T.,Shirai,S.,\BBA\Ooyama,Y.\BBOP2001\BBCP.\newblock\BBOQCharacteristicsofColloquialExpressionsinaBilingualTravelConversationCorpus\BBCQ\\newblockIn{\Bem19thInternationalConferenceonComputerProcessingofOrientalLanguages:ICCPOL-2001},\BPGS\384--389\Seoul.\bibitem[\protect\BCAY{Unterbeck}{Unterbeck}{1994}]{Unterbeck:1994}Unterbeck,B.\BBOP1994\BBCP.\newblock\BBOQKoreanClassifiers\BBCQ\\newblockInKim-Renaud,Y.-K.\BED,{\BemTheoreticalIssuesinKoreanLinguistics},\BPGS\367--385.CSLI.\bibitem[\protect\BCAY{渡辺\JBA鈴木}{渡辺\JBA鈴木}{1981}]{Watanabe:1981}渡辺吉鎔,鈴木孝夫\BBOP1981\BBCP.\newblock\Jem{朝鮮語のすすめ}.\newblock講談社.\end{thebibliography}\newpage\appendix \section{コーパス中の例文} \label{ApendixBTEC}本研究にて使用したBTECの一部を表\ref{BTEC_example}に示す.\begin{table}[htb]\begin{center}\caption{本研究にて用いたBTECの一部}\label{BTEC_example}\begin{tabular}{lll}\hline\hline韓国語&英語/日本語&類似度\\\hline\hg{nei?}&Yes?&0.1429\\\hg{'ioqgen'yn?}&ご用向きは.&\\\hline\hg{je'eigei}\hg{jirmunhai}\hg{jusei'io.}&Askme.&0.2745\\\hg{nahantei}\hg{mur'e}\hg{boa.}&私に聞いて.&\\\hline\hg{nai}\hg{pioga}\hg{bo'iji}\hg{'anhnyngun'io.}&Ilostmyticket.&0.3438\\\hg{pioryr}\hg{'irh'e}\hg{berieSsybnida.}&切符をなくしてしまいました.&\\\hline\hg{dambai}\hg{jom}\hg{piriego}\hg{hanyndei}\hg{goaincanhgeiS'e'io?}&DoyoumindifIsmoke?&0.4156\\\hg{dambairyr}\hg{pi'uedo}\hg{doibniGa?}&たばこを吸ってもかまいませんか.&\\\hline\hg{gy}\hg{'iejanyn}\hg{'angieq'yr}\hg{Giji}\hg{'anh'aS'e'io.}&Shewasn'twearingglasses.&0.5238\\\hg{'angieq'yr}\hg{Sygo}\hg{'iSji}\hg{'anh'aSsybnida.}&眼鏡をかけていませんでした.&\\\hline\hg{gyga}\hg{meriryr}\hg{dacieS'e'io.}&Hehashurthishead.&0.6984\\\hg{gynyn}\hg{meriryr}\hg{dacieSsybnida.}&彼は頭にケガをしました.&\\\hline\hg{'ijei}\hg{doaiSsybniGa?}&IsthatOkay?&0.7907\\\hg{'iremien}\hg{doaiSsybniGa?}&これでいいですか.&\\\hline\hg{senmur}\hg{gagei}\hg{'uiciga}\hg{'edi'ibniGa?}&Whereisthegiftshop?&0.8056\\\hg{senmurgageinyn}\hg{'edi'ibniGa?}&ギフトショップはどこですか.&\\\hline\hg{byrraig'yro}\hg{jusibsi'o.}&Black,please.&0.9286\\\hg{byrraig'yro}\hg{hai}\hg{jusibsi'o.}&ブラックにしてください.&\\\hline\hline\end{tabular}\end{center}\end{table}\begin{biography}\biotitle{略歴}\bioauthor{白京姫(ペクキョンヒ)}{1993年慶應義塾大学大学院社会学研究科修士課程教育学専攻修了.1998年同大大学院社会学研究科後期博士課程教育学専攻単位取得退学.1999年CSLI,Stanford大学客員研究員.2000年〜2005年(株)国際電気通信基礎技術研究所(ATR)音声言語コミュニケーション研究所研究員.韓国語の自然言語処理,および助数詞の解析・生成等の研究に従事.2005年より翻訳業.ACL,ALS各会員.{\ttemail:paikbond@gmail.com}}\bioauthor{大竹清敬(おおたけきよのり)}{2001年豊橋技術科学大学大学院工学研究科博士後期課程電子・情報工学専攻修了.博士(工学).2001年より(株)国際電気通信基礎技術研究所(ATR)音声言語コミュニケーション研究所研究員.言語表現変換技術とその応用(要約,翻訳など),中国語処理,コーパス利用のための技術(表記のゆれ処理など),形態素解析と単語解析のための辞書構築などに興味がある.言語処理学会,人工知能学会,情報処理学会各会員.{\tte-mail:otake@fw.ipsj.or.jp}}\bioauthor{FrancisBond(フランシスボンド)}{1988年B.A.(UniversityofQueensland).1990年B.E.(Hons)(同大学).1991年日本電信電話株式会社入社.以来,計算機言語学,自然言語処理,特に機械翻訳の研究に従事.1999年CSLI,Stanford大学客員研究員.2001年Ph.D.(UniversityofQueensland).2005年3ヶ月間Oslo大学招聘研究員.現在,NTTコミュニケーション科学基礎研究所主任研究員.著書「TranslatingtheUntranslatable」,CSLIPublicationsにて日英機械翻訳における数・冠詞の問題を扱う.ACL,ALS,言語処理学会各会員.{\ttemail:bond@cslab.kecl.ntt.co.jp}}\bioauthor{山本和英(やまもとかずひで)}{1996年豊橋技術科学大学大学院工学研究科博士後期課程システム情報工学専攻修了.博士(工学).1996年〜2005年(株)国際電気通信基礎技術研究所(ATR)研究員(2002年〜2005年客員研究員).1998年中国科学院自動化研究所国外訪問学者.2002年より長岡技術科学大学電気系,現在助教授.言語表現加工技術(要約,換言,翻訳),アジア言語処理(中国語,韓国語など),言語処理技術を活用したテキストマイニングなどに興味がある.言語処理学会,人工知能学会,情報処理学会,ACL各会員.{\tte-mail:yamamoto@fw.ipsj.or.jp}}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V06N03-03
\section{はじめに} label{intro}テキストは単なる文の集まりではなく,テキスト中の各文は互いに何らかの意味的関係を持つ.特に意味的関係の強い文が集まって談話セグメントと呼ばれる単位を形成する.文が互いに意味的関係を持つように,これらの談話セグメント間にも意味的な関係が存在する.テキストの全体的な談話構造はこの談話セグメント間の関係によって形成される.そのため,テキストのセグメント境界を検出するテキストセグメンテーションの研究は,談話構造解析の第一ステップであると考えられる\cite{Grosz:86}.また,最近では,テキストセグメンテーションの研究は情報検索の分野においても応用されている.長いテキスト中には複数のサブトピックが存在しているため,テキスト全体を扱うよりも,テキストをセグメントに分けた方が検索対象として良いと考えられるためである\cite{Callan:94,Salton:93,Hearst:93}.セグメント境界の検出では,テキスト中の表層的な情報が利用されることが多い.表層的な情報は比較的容易に抽出可能であり,特別な領域知識を必要としないので一般的な利用が可能だからである.多様な表層的情報の中で,意味的に類似した単語間の表層的関係である語彙的結束性\cite{Halliday:76}が,これまで多くのテキストセグメンテーションの研究に使用されている\cite{Morris:91,Kozima:93,hearst:94b,okumura:94a,reynar:94}.OkumuraとHonda\cite{okumura:94a}は語彙的結束性の情報だけでは充分ではなく,他の表層的情報を取り入れることによって,テキストセグメンテーションの精度が向上することを報告している.本稿では,複数の表層的手がかりとして,接続詞,照応表現,省略,文のタイプ,語彙的結束性などを使用して日本語テキストのセグメント境界を検出する手法について述べる.セグメント境界の検出では,手がかりから得られるスコアを基に,各文間の境界へのなりやすさ(あるいはなり難さ)を表す文間のスコアを与えることが多い.この手がかりを複数設定し,組み合わせて使用する手法は数多く存在する\cite{McRoy:92}が,各手がかりの出現がセグメント境界の検出に影響する度合が異なるため,各手がかりのスコアをそのまま使用せず,各手がかりの重要度に応じた重みをかけ,重み付きスコアの総和を文間のスコアとする手法が比較的良く用いられる.重み付きスコアの総和を文間のスコアとして使用する手法においては,各手がかりに最適な重み付けを行うことが,検出精度向上にとって重要になる.複数の表層的手がかりを用いてセグメント境界の検出を行う過去の研究\cite{Kurohashi:94,Sumita:92,Cohen:87,Fukumoto1}では,各手がかりの重みは直観あるいは,人手による試行錯誤によって決定される傾向がある.しかし人手による重みの決定はコストが高く,決定された重みを使用することで,必ずしも最適あるいは最適に近い精度が得られるという保証がない.そのため人手による重み付けを避け,少なくとも最適に近い値を得るために,自動的に重みを決定する方が望ましいと考えられる.そこで本研究では,正しいセグメント境界位置の情報が付いた訓練テキストを用意し,統計的手法である重回帰分析を使用することで各表層的手がかりの重要度の重みを自動的に学習する.しかし,重みの自動学習手法では訓練データの数が少ない場合に学習精度が良くならないという問題がある\cite{Akiba:98}.また,訓練データに対してパラメータ(手がかり)の数が多い場合には,学習された値が過適合を起す傾向があるという問題が知られている.学習された重みが訓練データに対し過適合すると,訓練データ以外のテキストに適用した場合には良い精度が得られない.また,考えられる全ての表層的手がかりが,常にセグメンテーションにとって良い手がかりになるとは限らない.そこで,過適合の問題を解消するために,重みの学習と共に使用する手がかりの最適化も行う必要がある.有効な手がかりだけを選択することができれば,良い重みの学習ができ,セグメンテーションの精度が向上すると考えられる.本研究で重みの学習に使用する重回帰分析には,有効なパラメータを選択する手法が既にいくつか開発されている.そこで,本研究ではパラメータ選択手法の一つとして広く利用されているステップワイズ法を使用する.重回帰分析とパラメータ選択手法であるステップワイズ法を使用することにより,有効な手がかりのみを選択し,最適な重みを獲得できると考えられる.我々の主張を要約すると以下のようになる.\begin{itemize}\itemテキストセグメンテーションにおいて,複数の表層的手がかりの組み合わせは有効である.\item重回帰分析とステップワイズ法の使用によってテキストセグメンテーションにとって有効な手がかりの選択と重みの自動的な獲得が可能となる.\end{itemize}上記の主張の有効性を調べるため,いくつかの実験を行う.小規模な実験ではあるが,実験結果から我々のアプローチの有効性を示す.以下,2節では本研究でテキストセグメンテーションに使用する表層的手がかりについて説明する.3節では複数の手がかりの重みを自動的に決定する手法について述べる.4節では自動的に有効な手がかりを選択する手法について述べる.5節では,本研究のアプローチによる実験について記述する. \section{テキストセグメンテーションに使用する表層的手がかり} \label{sec:cues}テキスト中には,セグメント境界あるいは非境界の検出に使用できると考えられる多くの表層的な手がかりが存在する.しかし,良い結果を得るために,どの手がかりを使用するべきなのかは明らかでない.そのため我々はまず,使用可能な全ての表層的な手がかりを数え挙げる.次に,有効な手がかりを選択し,その手がかりを組み合わせることによってテキストセグメンテーションを行う.まず,本研究で用いるテキストセグメンテーション手法について説明する.ここで,文$n$と文$n+1$の間を$p(n,n+1)$と表わすことにする.$n$は$1$から「テキストの$文数-1$」の範囲を取る.各文間$p(n,n+1)$は,セグメント境界の候補となる.この文間ごとに,式(\ref{equ:sumscr})で表わすように,各手がかり$i$の重み付きスコア$w_{i}\timesscr_{i}(n,n+1)$の合計スコアである$scr(n,n+1)$を計算する.なお,各手がかりのスコア$scr_{i}(n,n+1)$には,初期値として0を与える.\begin{equation}\label{equ:sumscr}scr(n,n+1)=\sum_{i=1}^{I}w_{i}\timesscr_{i}(n,n+1)\end{equation}高いスコア$scr(n,n+1)$を持つ文間$p(n,n+1)$が,セグメント境界の候補として優先され,スコア順にセグメント境界として選択される.本研究では,以下の表層的手がかりを使用する.\begin{itemize}\item主語を表わす助詞の出現($i=1..4$).\\文間$p(n,n+1)$の前の文($n$)もしくは後の文($n+1$)に,副助詞「は」もしくは格助詞「が」が出現した場合,それぞれ$scr_{i}(n,n+1)$に1を加える.ただしテキスト中には「は」や「が」の出現する文が多数存在し,すべてを抽出してもあまり意味がないと考えられる.そこで後述する語彙的連鎖を構成する自立語に付属する場合だけを考慮する.\item接続詞の出現($i=5..10$).\\以下に示す6つの接続詞のどれかが文$n+1$の文頭に出現した場合,$scr_{i}(n,n+1)$に1を加える.\begin{itemize}\item「添加」型(例,しかも,そして)\item「強調」型(例,むしろ,とにかく)\item「説明」型(例,例えば,つまり)\item「順接」型(例,ゆえに,だから)\item「逆接」型(例,しかし,だが)\item「転換」型(例,ところで,それでは)\end{itemize}接続詞の分類は所\cite{tokoro},国語文法\cite{kougobunpou}を参照し,機能によって著者が行った.\item照応表現の出現($i=11..13$).\\以下に示す3つの前方照応詞のどれかが,文$n+1$の文頭に出現した場合,$scr_{i}(n,n+1)$に1を加える.\begin{itemize}\item「あ」型(例,あの,あんな)\item「こ」型(例,この,こんな)\item「そ」型(例,その,そんな)\end{itemize}\item主語の省略($i=14$).\\文$n+1$に主語が出現しない場合,$scr_{i}(n,n+1)$に1を加える.\item同一タイプの文の連続($i=15..18$).\\文$n$と$n+1$がどちらも同じタイプと判断される場合,$scr_{i}(n,n+1)$に1を加える.文のタイプは永野\cite{nagano},福本\cite{Fukumoto1}を参照し,文末表現を手がかりにして9つに分類した.このうち特に客観的な事実や事象を提示する「叙述文」および,判断や主張を強く提示する「判断文」と「断定文」の連続を特に区別し,それ以外の文タイプの連続を「その他」として以下の4種類に分ける.\begin{itemize}\item叙述文(例,〜ている,〜ません)\item判断文(例,〜に違いない,〜と判断する)\item断定文(例,〜のである,〜なのだ)\itemその他\end{itemize}\item語彙的連鎖の出現($i=19..22$).\\語彙的連鎖とは,語彙的結束性を持つ語の連続のことをいう\cite{Morris:91}.語彙的連鎖はテキスト中に存在する意味的なまとまりを示すと考えることができる\cite{Morris:91,Barzilay:97}.そこで,語彙的連鎖の情報と,連鎖の範囲内で単語が出現しない部分であるギャップの情報を使用する.語彙的連鎖のギャップは,その区間では一時的に別の話題に移っていることを示していると考えられる.文$n$で連鎖が終わっているか,ギャップが始まる場合と,文$n+1$で連鎖が始まっているか,ギャップが終わっている場合に,それぞれ$scr_{i}(n,n+1)$に1を加える.なお,ギャップ長を1文とし,連鎖の範囲内で1文以上単語が出現しない場合にすべてギャップとする.また,語彙的結束性を持つ語をシソーラス上の同一クラスに属する語として計算する.シソーラスには,角川類語新辞典\cite{kadokawa}を使用する.\item語彙的連鎖内の単語につく修飾語の変化($i=23$).\\文$n+1$で語彙的連鎖を構成する単語に付く修飾語が変化している場合,$scr_{i}(n,n+1)$に1を加える.同一の語彙的連鎖を構成する語につく修飾語が変化すると,これまで述べられていた話題の別の側面について述べていると考えることができ,新しい話題に変化していると考えられる.\end{itemize}上に挙げた手がかりのスコアは,各文間のセグメント境界への成り易さもしくは成り難さを示す文間のスコアを計算するために使用される.例えば,副助詞「は」の出現は,セグメント境界への成り易さを表わし,照応表現の出現や同じタイプの文の連続は,境界への成り難さを表わすと考えられる.各手がかりの出現がセグメント境界の検出に影響する度合が異なるため,各手がかりのスコアには重要度に応じた重みをかける必要がある.次節では,各手がかりへの重み付け手法を示す.\newpage \section{複数の手がかりへの自動的な重み付け} label{sec:weight}各手がかりに重みを付ける手法としては,少なくとも次の2つが考えられる.1つは人手による重み付けであり,もう1つは自動的な計算である.人手による重み付けの場合,各手がかりの重みは専門家による直観もしくは試行錯誤によって決定されることが多い.しかし,この作業は非常に手間がかかる上に,新しい領域のテキストをシステムが処理する場合,重みの調整を柔軟に行うことができない.また,人手によって決定された重みは客観性に欠け,最適あるいはほぼ最適な性能を引き出すという保証がない\cite{Alshawi:94,Rayner:94}.一方,自動的な計算の場合,人手による労力を省くことができ,新しい領域への適用も容易に行える.また,決定された値が客観性を持ち少なくとも最適に近い値を得られると考えられる.このようなことから,重み付けを自動化することにはメリットがあると考えられる.本研究では,自動的な重み付けのために,正解セグメント境界の情報が付加されたテキストを用意し,訓練テキストとして使用する.各手がかりの自動的な重みの推定には,統計的手法である重回帰分析\cite{Sen:90:a,Jobson:91}を使用する.重回帰分析は,ある変数(目的変数と呼ばれ,「結果」と考えられる)をもっとも良く推定あるいは予測するために役立つと考えられる複数の変数(説明変数と呼ばれ,「原因」と考えられる)の間に成り立つ関係式を求め,この関係式に基づいて説明変数の値から目的変数の値を予測したり,各説明変数の重要度を評価する分析手法である.関係式は,後述するように目的変数と説明変数の組を集めた観測データを基に計算される.本研究では,この目的変数が各文間の境界へのなりやすさを表すスコアに対応し,説明変数が各手がかりのスコアに対応する.また各説明変数の重要度の評価が各手がかりの重み付けに対応する.重回帰分析による重みの推定は以下のように行なわれる.訓練テキストの各文間$p(n,n+1)$に,次のような観測データがあるとする.\begin{table}[htbp]\begin{center}\caption{観測データ}\label{equ:kansoku}\begin{tabular}{|c|c|c|c|c|}\hline目的変数&\multicolumn{4}{|c|}{説明変数($i=1..I$)}\\\hline$S(1,2)$&$scr_{11}$&$scr_{21}$&$\cdots$&$scr_{I1}$\\$S(2,3)$&$scr_{12}$&$scr_{22}$&$\cdots$&$scr_{I2}$\\$\vdots$&$\vdots$&$\vdots$&$\ddots$&$\vdots$\\$S(N,N+1)$&$scr_{1N}$&$scr_{2N}$&$\cdots$&$scr_{IN}$\\\hline\end{tabular}\end{center}\end{table}ここで,$N$は文間の総数,$scr_{ij}$の説明変数が$I$個の手がかりから得られるスコアであり,$S(n,n+1)$の目的変数がセグメント境界へのなりやすさを表す文間のスコアである.この観測データから次の予測式$(\ref{equ:expect})$を計算する.\begin{eqnarray}\label{equ:expect}\hat{S}(1,2)=a+w_{1}scr_{11}+w_{2}scr_{21}+\cdots+w_{I}scr_{I1}\nonumber\\\hat{S}(2,3)=a+w_{1}scr_{12}+w_{2}scr_{22}+\cdots+w_{I}scr_{I2}\nonumber\\\vdots\hspace{1.0cm}\vdots\hspace{1.2cm}\vdots\hspace{1.2cm}\vdots\hspace{1.2cm}\ddots\hspace{1.0cm}\vdots\hspace{0.4cm}\nonumber\\\hat{S}(N,N+1)=a+w_{1}scr_{1N}+w_{2}scr_{2N}+\cdots+w_{I}scr_{IN}\nonumber\\\end{eqnarray}ここで$a$は定数項であり,$w_{1},\cdots,w_{I}$は回帰係数と呼ばれる.次に,予測式$(\ref{equ:expect})$の$\hat{S}(1,2),\cdots,\hat{S}(N,N+1)$と観測データ(表$\ref{equ:kansoku}$)の$S(1,2),\cdots,S(N,N+1)$との誤差を最小2乗法により最小にする.すなわち,\begin{equation}\label{equ:least_squares}Q\equiv\sum_{n=1}^N\{S(n,n+1)-(a+w_{1}scr_{1n}+\cdots+w_{I}scr_{IN})\}^2\end{equation}\noindentを計算し、式$(\ref{equ:least_squares})$が最小となる$a$および$w_{1},\cdots,{w_I}$を定め、それを推定された回帰係数とする.この回帰係数が各手がかりに対して決定された重みに対応することから,本研究でパラメータとして設定する手がかりの重み付けに重回帰分析を利用することができる.重回帰分析を使用して各手がかりに対する最適な重みを決定するためには,セグメント境界の$S(n,n+1)$には高い値を与え,逆に境界にならない文間の$S(n,n+1)$には低い値を与える必要がある.仮に各$S(n,n+1)$に実際のテキストの現象を反映した良い値を与えることができれば,より最適な性能を引き出すことができると考えられる.しかし,本研究で訓練データとして使用するテキストには正解境界位置の情報しか付加されていない.そこで正解境界の$S(n,n+1)$には$10$を与え,非境界の$S(n,n+1)$には$-1$を与えて重回帰分析を適用する.これらの値は,$S(n,n+1)$への値の与え方を4通りの組み合わせで行った予備実験の結果から選択した.関連研究として,\cite{Watanabe:96}が挙げられる.Watanabeはテキスト中の重要な文を選択することによる新聞記事の要約生成を行っている.重要文の選択のために,文の表層的特徴の重み付けを行い,重みの決定に重回帰分析を使用している.Watanabeの研究では,訓練テキストの各文の$S$に人間の被験者たちが重要であると判断した度合を与えている.本研究では$S$に対して同様の方法で値を与えることはしていない.訓練テキストの各文間について,セグメントへの成り易さ,成り難さを人間の被験者が判断することは,非常に困難でコストが高過ぎるためである. \section{有効な手がかりの自動選択} label{sec:select}セグメンテーションにとって,\ref{sec:cues}節で挙げた表層的手がかりが実際にどの程度有効かは明らかでない.有効でない手がかりを含めて重回帰分析で重みを計算すると悪影響の原因となる.そのうえ,訓練データの量に比べて,表層的手がかりが多過ぎる場合には,過適合の問題が発生する.一方,\ref{sec:cues}節で設定した手がかり全体の中から有効な手がかりだけを選択できれば,良い重みが決定できセグメンテーションの精度も向上すると考えられる.しかし,有効な手がかりを選択するには手がかりの有効度を計算する客観的な基準が必要になる.この客観的な基準の設定は難しい問題であるが,幸いにも,本研究で重みの計算に使用する重回帰分析では,多くのパラメータ選択手法が既に開発されている.そこで本研究では,パラメータ選択手法の一つで,もっとも一般的なステップワイズ法\cite{Jobson:91}と呼ばれるパラメータ選択手法を用いる.ステップワイズ法は,後述するアルゴリズムにより,重回帰モデルに加えることで良い推定ができると判断されたパラメータを加え,逆に別のパラメータが加えられたことにより,良い推定に役立たなくなったと判断されたパラメータを除去するという処理を繰り返し,最終的に有効なパラメータの組を選択する.パラメータの追加および削除の際に一般的に使用される判断基準は,各パラメータの重み$w_{i}$について個別に計算した$F$値に基づくものである.この個別の$F$統計値は以下の式で与えられる.\begin{equation}\label{equ:fvalue}\displaystyle{F_0=(\frac{w_i}{SE(w_i)})^2}\end{equation}ここで$SE(w_i)$は標準誤差と呼ばれ$w_i$の標準偏差を表す.この統計量の分布は自由度$(p,n-p-1)$のF分布に従う($p$はパラメータの数,$n$はデータの数を示す).よって$\displaystyle{F_0>=F_{(p,n-p-1)}(\alpha)}$ならば,有意水準$\alpha$でパラメータ$i$は有効であると判断される.ただし,この基準値$\displaystyle{F_{(p,n-p-1)}(\alpha)}$の計算が複雑であるため,一般的にはパラメータを追加する時の基準値を$F_{in}$とし,パラメータを除去する時の基準値を$F_{out}$として,それぞれに定数\footnote{$F_{in},F_{out}$の値は,$1.0$から$4.0$までの範囲から選んで与えるのが一般的であり,重要なパラメータを削除しないことに重点を置くなら小さい値,無駄なパラメータを取り込まないことに重点を置くなら大きな値を指定する.本研究では$F_{in},F_{out}$ともに$1.2$を与えている.}を与えてパラメータ選択を行う.ステップワイズ法のアルゴリズムは次のようになる.\begin{tabbing}ステップ1.\\\quad\=重回帰モデルに何もパラメータが含まれていない状態から開始\\ステップ2.\\\quad\={\bfif}(すべてのパラメータが含まれている)\\\>\quad\=取り込むパラメータはない.ステップ3へ\\\>{\bfelse}\\\>\quad\=残りのパラメータを1つづつ順番に採用し,F値を計算.\\\>\>F値最大のパラメータを選ぶ.\\\>\>{\bfif}($F値>F_{in}$)\\\>\>\quad\=そのパラメータを取り込む.ステップ3へ\\\>\>{\bfelse}\\\>\>\>取り込むべきパラメータはない.ステップ3へ\\ステップ3.\\\quad\=モデルに含まれているパラメータについてF値を計算.\\\>F値最小となるパラメータを選ぶ\\\>{\bfif}($F値>F_{out}$)\\\>\quad\={\bfif}(取り込むべきパラメータがない)\\\>\>\quad\=終了\\\>\>{\bfelse}\\\>\>\>ステップ4へ\\\>{\bfelse}\\\>\>そのパラメータをモデルから取り除きステップ3へ\\ステップ4.\\\quad\={\bfif}(すべてのパラメータが取り込まれている)\\\>\>終了\\\>{\bfelse}\\\>\>ステップ2へ\\\end{tabbing}ステップワイズ法以外に良く利用される手法として,変数増加法と変数減少法があるが,変数増加法では,一度採用されたパラメータは除去されることがなく,変数減少法では,一度除去されたパラメータは採用されることがないという問題がある.ステップワイズ法は両手法の問題点を改良した手法であるため,他の手法よりも良いパラメータ選択ができると考えられる. \section{実験} label{sec:experiments}これまでに述べた本研究の主張は以下のように要約できる.\begin{itemize}\itemテキストセグメンテーションにおいて,複数の表層的手がかりの組み合わせは有効である.\item重回帰分析とステップワイズ法の使用によってテキストセグメンテーションにとって有効な手がかりの選択と重みの自動的な獲得が可能となる.\end{itemize}本節では,本研究のアプローチの有効性を確かめるための実験を行う.実験には,日本語の国語の問題集から意味の切れ目を問う問題に使用された14テキストを使用する.問題は例えば,『次の文章を意味的に3つの部分に分けるとしたらどこで切れるか.境界になる個所を答えなさい』というようなものである.システムの性能はシステムの出力と問題集の解答を比較することで計算する.実験に使用する14テキストの平均境界候補数は20(12から47)であり,平均正解境界数は$3.4$(2から6)である.なお,以下の理由から,実験の正解として形式段落を使用していない.\begin{itemize}\item実験に使用する問題集のテキストのほとんどは,形式段落を示す字下げの情報をあらかじめ消してあり利用できないため.\item日本語のテキストの場合,形式段落の境界が必ずしも意味的な境界と一致するとは限らず,修辞的理由から形式段落に分けられる場合がしばしばあるため\cite{tokoro}.\end{itemize}実験では,システムは各文間のスコア$scr(n,n+1)$を値の高い順に出力する.システムの出力の上位$10\%,20\%,30\%$および$40\%$における精度を評価する.評価尺度には,再現率($Recall$)と適合率($Precision$)を使用する.$Recall$は全正解境界の内,システムによって正しく検出された境界の割合を示す.$Precision$はシステムが境界と検出した候補の内,実際に正解境界であるものの割合を示す.$Recall$と$Precision$は次式で表わされる.\begin{equation}Recall=\frac{システムにより検出された正解境界数}{全ての正解境界数}\end{equation}\begin{equation}Precision=\frac{システムにより検出された正解境界数}{システムが検出した全境界数}\end{equation}実験は以下の6通りについて行う.\begin{enumerate}\item語彙的連鎖の手がかり以外の手がかりによる実験.\\手がかり1から18および23を使用.\item語彙的連鎖の手がかりのみを使用した実験.\\手がかり19から22を使用.\item\ref{sec:cues}節で挙げた全ての手がかりを使用した実験.\\重みの決定は人手によって行う.\item\ref{sec:cues}節で挙げた全ての手がかりを使用した実験.\\重みの決定は重回帰分析によって自動的に行う.重回帰分析では,14テキストを2テキストづつ7グループに分け,6グループを訓練テキストとして使用し,残りの1グループを評価テキストとして使用する.評価用のテキストを変えることにより,7回のクロスバリデーション\cite{Weiss:91}を行い平均値で評価する.\itemステップワイズ法により選択された手がかりのみを使用した実験.\\\ref{sec:select}節で述べたように,訓練テキスト内で有効な手がかりの選択にステップワイズ法を使用する.手がかりの選択以外の手続きは全て4番目の実験と同じである.\item5人の被験者による実験.\\5人の被験者に対し,システムと同様の14テキストについて,セグメント境界位置を問う問題を解かせる.解答数は問題集の正解数を下限とし,それ以上であれば,被験者が自由に選んで良いとする.この実験により,テキストセグメンテーション実験の精度の上限の算出を試みる.この実験の結果によってセグメンテーションタスクの難易度が示されると考えられる\cite{Passonneau:93,Gale:92}.\end{enumerate}全ての実験結果を図\ref{fig:handm}と\ref{fig:regressm}および表\ref{tab:human}に示す.2つの図は14テキストに対するシステムの平均精度を示す.表\ref{tab:human}は5人の被験者によるセグメンテーション実験の結果を示す.表\ref{tab:human}がこのタスクにおける精度の上限を表すと考えられる.また,下限についても計算している(図\ref{fig:regressm}の``lowerbound'').下限はシステムがランダムにセグメント境界候補を選択した場合を考えることで計算することができる.この場合,precisionは各境界候補が正解になる平均確率と同じであり,recallは出力の割合と同じである.図\ref{fig:handm}では語彙的連鎖以外の手がかりによる実験(``ex.1''),語彙的連鎖のみの手がかりによる実験(``ex.2'')および,設定した全ての手がかりによる実験(``ex.3'')の精度を比較している.結果から複数の手がかりを組み合わせて使用した``ex.3''が良い精度を引き出すことがわかる.また,語彙的連鎖が有効な手がかりである可能性が示されているといえる.図\ref{fig:regressm}は複数の手がかりを使用し,人手によって重みを与えた実験(``ex.3'')と訓練テキストにより自動的に計算された重みを使用した実験(``ex.4.test'')との比較をしている.結果から自動的に学習された重みが概ね良い精度を出すことが示されている.人手による手間を省き,客観的な値が得られることから,自動的な重み付けは人手による重み付けよりも良い手法であるといえる.\begin{figure}[htbp]\begin{center}\epsfile{file=handmport2.ps,scale=0.5}\caption{\vspace*{-3mm}Handtuning}\label{fig:handm}\end{center}\end{figure}\begin{figure}[htbp]\begin{center}\epsfile{file=regressmport2.ps,scale=0.5}\caption{\vspace{-3mm}Automatictuning}\label{fig:regressm}\end{center}\end{figure}\begin{table}[ht]\begin{center}\caption{Theresultofthehumansubjects}\begin{tabular}{|c|c|}\hlinerecall&precision\\\hline\hline63.1\%&57.2\%\\\hline\end{tabular}\label{tab:human}\end{center}\end{table}図\ref{fig:regressm}では,全ての手がかりを使用して自動的に重みを決定した場合(``ex.4.test'')と選択された手がかりのみを使用して自動的に重みを決定した場合(``ex.5.test'')の比較も行っている.結果から有効な手がかりを選択することで良い精度を引き出していることがわかる.この結果は本研究で使用したパラメータ選択手法によって訓練テキストへの重みの過適合の問題が解消されていることも示している.実験4と実験5では訓練テキストによる結果と評価テキストによる結果の差が異なる.パラメータ選択を行う``ex.5.training''と``ex.5.test''の差は,パラメータ選択を行わない``ex.4.training''と``ex.4.test''の差よりも小さい.今回の実験(実験5)では,平均7.4の手がかりが選択され,選ばれた手がかりは訓練セットごとに異なっていた.その中で常に選択された手がかりは,逆接の接続詞(\ref{sec:cues}節の手がかり9)と語彙的連鎖の手がかり(手がかり19と20)であった.また重回帰分析のような統計的手法では,パラメータの選択で個々のパラメータ(手がかり)が有効かどうかを検定した場合と同様に,得られた重回帰式全体が実際に予測に役立っているかどうかを検定する必要がある.本研究で計算された各重回帰式について,$F$分布に基づく検定を行ったところ,有意水準$\alpha$が$0.05$から$0.1$の範囲で重みの推定に役立っているという結果を得た.さらに,同様の実験として,問題集の正解を使用せず,被験者による実験(実験6)で被験者の過半数(3人)以上がセグメント境界であると判断した位置を正解とした実験も行った.この場合正解境界数は平均で3.5(2から6)であった.実験の結果,システムはこちらの実験においても問題集の正解と同様な精度を得た.関連研究としてLitmanandPassonneau\cite{Litman:95}の研究が挙げられる.彼らも複数の手がかりを使用したテキストセグメンテーション手法を提案している.LitmanとPassonneauのモデルでは機械学習ツールを使用してspokennarrativeコーパスから訓練を行っている.彼らの研究との厳密な比較は困難であるが,本研究のタスクにおける精度の上限が彼らのタスクの場合に比べて低いことから,本研究のタスクの方がより難しいと考えられる.そのため我々のシステムの精度が彼らのものに比べて低いとは必ずしもいえない. \section{おわりに} 本稿では,複数の表層的手がかりを使用して,テキストのセグメント境界を検出する手法について述べた.複数の表層的な手がかりを組み合わせて使用し,各手がかりへの重みを自動的に決定することがテキストセグメンテーションにとって有効であると考えられる.さらに,重回帰分析とステップワイズ法を使用することで過適合を防ぎつつ,各手がかりへの自動的な重み付けをする手法を示した.本研究の実験は小規模ではあるが,主張の有効性を示す結果を得ることができた.今後大規模なデータセットを使用して実験を行う必要がある.複数の表層的手がかりを使用するテキストセグメンテーションのアプローチとしては,本研究で使用した手がかりのスコアの重み付き総和を用いる手法以外に,C4.5\cite{Quinlan:93}のような,境界/非境界をクラスとし,各手がかりから決定木を学習して分類を行う決定木学習の手法が考えられる\cite{Litman:95,Honda:96}.今後両方のアプローチの比較をしていく必要がある.今後の課題として,訓練テキストをクラスタリングし,手がかりの重み計算をテキストのグループごとに行う手法の実験を計画をしている.テキスト間にはさまざまな違いが存在する.例えば,著者の違い,文体の違い,ジャンルの違いなどである.訓練テキストをクラスタリングし,特徴の類似したテキストのクラスタごとに手がかりの重みを計算することで,訓練テキスト全体を使用する場合よりも良い重み付けが可能になると考えられる.結果としてセグメンテーションの精度向上も期待できる.音声認識の分野では,言語モデルの精度向上のために,訓練データのクラスタリングが行われ,自動学習手法における有望な手法と考えられている\cite{Carter:94,Iyer:94}.\acknowledgment本研究での「角川類語新辞典」の使用を許可して下さった(株)角川書店に感謝致します.統計解析に関して御助言を頂きました群馬大学社会情報学部の青木教授および北陸先端科学技術大学院大学情報科学研究科の松澤教授に感謝致します.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Alshawi\BBA\Carter}{Alshawi\BBA\Carter}{1994}]{Alshawi:94}Alshawi,H.\BBACOMMA\\BBA\Carter,D.\BBOP1994\BBCP.\newblock\BBOQ{Trainingandscalingpreferencefunctionsfordisambiguation}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf20}(4),635--648.\bibitem[\protect\BCAY{Barzilay\BBA\Elhadad}{Barzilay\BBA\Elhadad}{1997}]{Barzilay:97}Barzilay,R.\BBACOMMA\\BBA\Elhadad,M.\BBOP1997\BBCP.\newblock\BBOQ{Usinglexicalchainsfortextsummaryzation}\BBCQ\\newblockIn{\BemProc.oftheACLWorkshoponIntelligentScalableTextSummarization},\BPGS\10--17.\bibitem[\protect\BCAY{Callan}{Callan}{1994}]{Callan:94}Callan,J.~P.\BBOP1994\BBCP.\newblock\BBOQ{Passage-LevelEvidenceinDocumentRetrieval}\BBCQ\\newblockIn{\BemProc.of17thAnnualInternationalACMSpecialInterestGrouponInformationRetrievalConferenceonResearchandDevelopmentinInformationRetrieval},\BPGS\302--310.\bibitem[\protect\BCAY{Carter}{Carter}{1994}]{Carter:94}Carter,D.\BBOP1994\BBCP.\newblock\BBOQ{ImprovingLanguageModelsbyClusteringTrainingSentences}\BBCQ\\newblockIn{\BemProc.ofthe4thConferenceonAppliedNaturalLanguageProcessing},\BPGS\59--64.\bibitem[\protect\BCAY{Cohen}{Cohen}{1987}]{Cohen:87}Cohen,R.\BBOP1987\BBCP.\newblock\BBOQ{Analyzingthestructureofargumentativediscourse}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf13},11--24.\bibitem[\protect\BCAY{Gale\JBAChurch\BBA\Yarowsky}{Galeet~al.}{1992}]{Gale:92}Gale,W.\JBAChurch,K.\JBA\BBA\Yarowsky,D.\BBOP1992\BBCP.\newblock\BBOQ{EstimatingUpperandLowerBoundsonthePerformanceofWord-SenseDisambiguationPrograms}\BBCQ\\newblockIn{\BemProc.ofthe30thAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\249--256.\bibitem[\protect\BCAY{Grosz\BBA\Sidner}{Grosz\BBA\Sidner}{1986}]{Grosz:86}Grosz,B.\BBACOMMA\\BBA\Sidner,C.\BBOP1986\BBCP.\newblock\BBOQAttention,intention,andthestructureofdiscourse\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf12}(3),175--204.\bibitem[\protect\BCAY{Halliday\BBA\Hasan}{Halliday\BBA\Hasan}{1976}]{Halliday:76}Halliday,H.\BBACOMMA\\BBA\Hasan,R.\BBOP1976\BBCP.\newblock{\BemCohesioninEnglish}.\newblockLongman.\bibitem[\protect\BCAY{Hearst}{Hearst}{1994}]{hearst:94b}Hearst,M.\BBOP1994\BBCP.\newblock\BBOQ{Multi-ParagraphSegmentationofExpositoryTexts}\BBCQ\\newblockIn{\BemProc.ofthe32ndAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\9--16.\bibitem[\protect\BCAY{Hearst\BBA\Plaunt}{Hearst\BBA\Plaunt}{1993}]{Hearst:93}Hearst,M.\BBACOMMA\\BBA\Plaunt,C.\BBOP1993\BBCP.\newblock\BBOQ{SubtopicStructuringforFull-LengthDocumentAccess}\BBCQ\\newblockIn{\BemProc.of16thAnnualInternationalACMSpecialInterestGrouponInformationRetrievalConferenceonResearchandDevelopmentinInformationRetrieval},\BPGS\59--68.\bibitem[\protect\BCAY{Iyer\JBAOstendorf\BBA\Rohlicek}{Iyeret~al.}{1994}]{Iyer:94}Iyer,R.\JBAOstendorf,M.\JBA\BBA\Rohlicek,J.\BBOP1994\BBCP.\newblock\BBOQ{Languagemodelingwithsentence-levelmixtures}\BBCQ\\newblockIn{\BemProc.oftheHumanLanguageTechnologyWorkshop1994},\BPGS\82--87.\bibitem[\protect\BCAY{Jobson}{Jobson}{1991}]{Jobson:91}Jobson,J.\BBOP1991\BBCP.\newblock{\Bem{AppliedMultivariateDataAnalysisVolumeI:RegressionandExperimentalDesign}}.\newblockSpringer-Verlag.\bibitem[\protect\BCAY{Kozima}{Kozima}{1993}]{Kozima:93}Kozima,H.\BBOP1993\BBCP.\newblock\BBOQ{Textsegmentationbasedonsimilaritybetweenwords'}\BBCQ\\newblockIn{\BemProc.ofthe31stAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\286--288.\bibitem[\protect\BCAY{Kurohashi\BBA\Nagao}{Kurohashi\BBA\Nagao}{1994}]{Kurohashi:94}Kurohashi,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQ{AutomaticDetectionofDiscourseStructurebyCheckingSurfceInformationinSentence}\BBCQ\\newblockIn{\BemProc.ofthe15thInternationalConferenceonComputationalLinguistics},\BPGS\1123--1127.\bibitem[\protect\BCAY{Litman\BBA\Passonneau}{Litman\BBA\Passonneau}{1995}]{Litman:95}Litman,D.\BBACOMMA\\BBA\Passonneau,R.\BBOP1995\BBCP.\newblock\BBOQ{CombiningMultipleKnowledgeSourcesforDiscourse}\BBCQ\\newblockIn{\BemProc.ofthe33rdAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\108--115.\bibitem[\protect\BCAY{McRoy}{McRoy}{1992}]{McRoy:92}McRoy,S.\BBOP1992\BBCP.\newblock\BBOQUsingmultipleknowledgesourcesforwordsensediscrimination\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf18}(1),1--30.\bibitem[\protect\BCAY{Morris\BBA\Hirst}{Morris\BBA\Hirst}{1991}]{Morris:91}Morris,J.\BBACOMMA\\BBA\Hirst,G.\BBOP1991\BBCP.\newblock\BBOQ{LexicalCohesionComputedbyThesauralRelationsasanIndicatoroftheStructureofText}\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf17}(1),21--48.\bibitem[\protect\BCAY{Okumura\BBA\Honda}{Okumura\BBA\Honda}{1994}]{okumura:94a}Okumura,M.\BBACOMMA\\BBA\Honda,T.\BBOP1994\BBCP.\newblock\BBOQWordSenseDisambiguationandTextSegmentationBasedonlexicalCohesion\BBCQ\\newblockIn{\BemProc.ofthe15thInternationalConferenceonComputationalLinguistics},\BPGS\755--761.\bibitem[\protect\BCAY{Passonneau\BBA\Litman}{Passonneau\BBA\Litman}{1993}]{Passonneau:93}Passonneau,R.\BBACOMMA\\BBA\Litman,D.\BBOP1993\BBCP.\newblock\BBOQ{Intention-basedSegmentation:HumanReliabilityandCorrelationwithLinguisticCues}\BBCQ\\newblockIn{\Bem31stAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\148--155.\bibitem[\protect\BCAY{Quinlan}{Quinlan}{1993}]{Quinlan:93}Quinlan,J.\BBOP1993\BBCP.\newblock{\Bem{C4.5:ProgramsforMachineLearning}}.\newblockMorganKaufmann.\bibitem[\protect\BCAY{Rayner\JBACarter\JBADigalakis\BBA\Price}{Rayneret~al.}{1994}]{Rayner:94}Rayner,M.\JBACarter,D.\JBADigalakis,V.\JBA\BBA\Price,P.\BBOP1994\BBCP.\newblock\BBOQ{Combiningknowledgesourcestoreordern-bestspeechhypothesislists}\BBCQ\\newblockIn{\BemProc.oftheHumanLanguagetechnologyWorkshop1994},\BPGS\271--221.\bibitem[\protect\BCAY{Reynar}{Reynar}{1994}]{reynar:94}Reynar,J.\BBOP1994\BBCP.\newblock\BBOQ{Anautomaticmethodoffindingtopicboundaries}\BBCQ\\newblockIn{\BemProc.ofthe32ndAnnualMeetingoftheAssociationforComputationalLinguistics},\BPGS\331--333.\bibitem[\protect\BCAY{Salton\JBAAllan\BBA\Buckley}{Saltonet~al.}{1993}]{Salton:93}Salton,G.\JBAAllan,J.\JBA\BBA\Buckley,C.\BBOP1993\BBCP.\newblock\BBOQ{Approachestopassageretrievalinfulltextinformationsystems.}\BBCQ\\newblockIn{\BemProc.of16thAnnualInternationalACMSpecialInterestGrouponInformationRetrievalConferenceonResearchandDevelopmentinInformationRetrieval},\BPGS\49--56.\bibitem[\protect\BCAY{Sen\BBA\Srivastava}{Sen\BBA\Srivastava}{1990}]{Sen:90:a}Sen,A.\BBACOMMA\\BBA\Srivastava,M.\BBOP1990\BBCP.\newblock{\Bem{Regressionanalysis:theory,methods,andapplications}}.\newblockSpringer-Verlag.\bibitem[\protect\BCAY{Sumita\JBAOno\JBAChino\BBA\Amano}{Sumitaet~al.}{1992}]{Sumita:92}Sumita,K.\JBAOno,K.\JBAChino,T.\JBA\BBA\Amano,S.\BBOP1992\BBCP.\newblock\BBOQ{AdiscoursestructureanalyzerforJapanesetext}\BBCQ\\newblockIn{\BemProc.oftheInternationalConferenceonFifthGenerationComputerSystems1992},\BPGS\1133--1140.\bibitem[\protect\BCAY{Watanabe}{Watanabe}{1996}]{Watanabe:96}Watanabe,H.\BBOP1996\BBCP.\newblock\BBOQ{AMethodforAbstractingNewspaperArticlesbyUsingSurfaceClues}\BBCQ\\newblockIn{\BemProc.ofthe16thInternationalConferenceonComputationalLinguistics},\BPGS\974--979.\bibitem[\protect\BCAY{Weiss\BBA\Kulikowski}{Weiss\BBA\Kulikowski}{1991}]{Weiss:91}Weiss,S.\BBACOMMA\\BBA\Kulikowski,C.\BBOP1991\BBCP.\newblock{\Bem{Computersystemsthatlearn:classificationandpredictionmethodsfromstatistics,neuralnets,machinelearning,andexpertsystems}}.\newblockMorganKaufmann.\bibitem[\protect\BCAY{所}{所}{1987}]{tokoro}所一哉\BBOP1987\BBCP.\newblock\Jem{現代文レトリック読解法}.\newblock匠出版.\bibitem[\protect\BCAY{本田\JBA望月\JBABao\JBA奥村}{本田\Jetal}{1996}]{Honda:96}本田岳夫\JBA望月源\JBABaoH.T.\JBA奥村学\BBOP1996\BBCP.\newblock\JBOQ{決定木獲得アルゴリズムを用いたテキストセグメンテーション}\JBCQ\\newblock\Jem{言語処理学会第2回年次大会発表論文集},\BPGS\329--332.\bibitem[\protect\BCAY{永野}{永野}{1986}]{nagano}永野賢\BBOP1986\BBCP.\newblock\Jem{{文章論総説}}.\newblock朝倉書店.\bibitem[\protect\BCAY{福本}{福本}{1990}]{Fukumoto1}福本淳一\BBOP1990\BBCP.\newblock\JBOQ{筆者の主張に基づく日本語文章の構造化}\JBCQ\\newblock\Jem{情報処理学会研究会資料NL78-15},\BPGS\113--120.\bibitem[\protect\BCAY{秋葉\JBAフセイン\JBA金田}{秋葉\Jetal}{1998}]{Akiba:98}秋葉泰弘\JBAフセインアルモアリム\JBA金田重郎\BBOP1998\BBCP.\newblock\JBOQ{例からの学習技術の応用に向けて1,2}\JBCQ\\newblock\Jem{情報処理学会},{\Bbf39}(2),(3),145--151(2),245--251(3).\bibitem[\protect\BCAY{成田}{成田}{1980}]{kougobunpou}成田杢之助\BBOP1980\BBCP.\newblock\Jem{{口語文法表覧}}.\newblock共文社.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{望月源}{1970年生.1993年金沢大学経済学部経済学科卒業.1999年北陸先端科学技術大学院大学情報科学研究科博士後期課程修了.同年4月より,北陸先端科学技術大学院大学情報科学研究科助手.博士(情報科学).自然言語処理,知的情報検索システムの研究に従事.情報処理学会会員}\bioauthor{本田岳夫}{1968年生.1992年,東京工業大学工学部情報工学科卒業.1994年,北陸先端科学技術大学院大学情報科学研究科博士前期課程修了.1998年,同博士後期課程満期退学.同年,東京工業大学情報理工学研究科教務補佐員を経て,株式会社富士通愛知エンジニアリング勤務,現在に至る.}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,現在に至る.工学博士.自然言語処理,知的情報検索システム,語学学習支援システム,語彙知識獲得に関する研究に従事.情報処理学会,人工知能学会,AAAI,ACL,認知科学会,計量国語学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V09N04-02
\section{はじめに} 本稿では,テキスト要約の自動評価手法について述べる.テキスト自動要約に関する研究は,テキスト中の表層的な情報から重要な箇所を判断し重要な部分のみを抽出するLuhn等,Edmundson等の研究\cite{H.P.Luhn.58,H.P.Edmundson.69}に始まり,現在も様々な方法が提案されている\cite{C.D.Paice.90,C.Aone.98}.ここ数年はインターネットの急速な普及に伴って,国内外での研究活動が非常に活発になっている\cite{M.Okumura.99J,I.Mani.00}.テキスト要約の研究において,評価の重要性は言うまでもない.最も信頼性が高いのは要約の経験者が直接要約を見て評価する方法であるが,コストが非常に大きいというデメリットがある.このためより低コストで効率の良い方法として,要約の経験者によって作成された要約を正解とし,正解との一致度を機械的に評価する方法が一般によく用いられる.しかし,要約は観点や戦略などの違いから,同じテキストに対しても複数の要約者から得られる結果は多様であることが知られている\cite{G.J.Rath.61,K.S.Jones.96,H.Jing.98,K.Saito.01J}.要約タスクにおいて唯一の理想的な要約が存在するという前提は現実には成り立たず,それゆえ唯一の正解に基づく評価では,対象の評価結果が正解との相性に影響され易いという問題がある.本稿では,このような従来法の問題点を踏まえ,複数の正解に基づく信頼性の高い評価法の提案を行なう.さらに,正解として用いる要約集合の満たすべき条件について,要約の品質と網羅性の観点から検討を試みる.提案手法は重要文抽出結果を評価することを前提に定式化されているが,手法の基本的アイデアや検討内容の多くはテキスト要約一般に共通するものである. \section{唯一の理想的な要約を正解とする評価法の問題} まず,要約の自動評価に関する従来方法について検討する.従来の評価方法としては,各テキストごとに人間が{\bf唯一の理想的な要約}を作成し,これを正解とする方法が一般的である.要約システムの出力の妥当性を測る尺度は,正解からの単語や文字に基づく編集距離,単語ベクトルの内積,抽出単位(文,文節など)の適合率,再現率,F値などがタスクに応じて用いられている.テキスト要約のコンテストであるNTCIR-2TSC\cite{T.Fukusima.01}では,重要文抽出タスクの評価において,抽出文に関する再現率R(=要約中の正解文数/要約中の文数)と適合率P(=要約の正解文数/正解要約の文数)に基づく次のようなF値を用いている.\begin{equation}F=\frac{2\cdotR\cdotP}{R+P}\end{equation}この重要文抽出タスクでは,毎日新聞記事データ\footnote{毎日新聞全文記事データベースCD-毎日新聞94年版,98年版(毎日新聞社提供)}中の30記事からなる評価セットが用いられた.各記事データはヘッドライン,文,パラグラフのタグを含み,専門家が作成した要約率10\%,30\%,50\%での重要文抽出結果が正解として与えられている.この評価セットの一記事の平均文数$\bar{N}$は33.1であり,各タスクに対する実際の要約率の平均値$\bar{p}$,抽出文数の平均値$\bar{n}$,無作為な文抽出によって得られる要約のF値の期待値$E(\tildeF_{Random})$,および標準偏差$\sigma(\tildeF_{Random})$は表\ref{table-np-test}に示す通りである.\begin{table}\begin{center}\caption{評価セットの性質}\begin{tabular}{|l||c|c|c|}\hline一記事あたりの平均文数&\multicolumn{3}{c|}{要約率}\\\cline{2-4}$\bar{N}=33.1$&$10\%$&$30\%$&$50\%$\\\hline\hline実際の要約率の平均値$\bar{p}$&0.105&0.315&0.536\\\hline抽出文数の平均値$\bar{n}$&3.40&10.03&16.93\\\hline期待値$E(\tildeF_{Random})$&$0.105$&$0.315$&$0.536$\\\hline標準偏差$\sigma(\tildeF_{Random})$&0.160&0.124&0.086\\\hline\end{tabular}\label{table-np-test}\end{center}\end{table}ここで,表中のF値の期待値,分散は理論値であり,次の計算により求めた.まず$N$文からなるテキストに対し,要約率p$(0<p<1)$での重要文抽出の正解,すなわち$Np$(正の整数)文の重要文が与えられている.同じテキストから$n$文の無作為抽出により要約を作成した場合,その中に含まれる正解文の数$k$は,超幾何分布$HG(n,p;N)$に従う.正解と同じ文数$n=Np$を無作為に抽出する場合,F値($F=\frac{k}{n}$)の期待値$E(\tildeF)$と分散$V(\tildeF)$は$k$に関する確率分布$f(k|n,p,N)$を用いて次のように表される.表\ref{table-np-test}に示した無作為な文抽出によるF値の期待値$E(\tildeF)$と標準偏差$\sigma(\tildeF_{Random})$\footnote{標準偏差は関係式$\sigma(\tildeF_{Random})=\sqrt{V(\tildeF_{Random})}$に基づく.}の値は,これらの関係式に$\bar{N}$,$\bar{n}$,$\bar{p}$を適用して求めた.\begin{eqnarray}\begin{array}{lllll}E(\tildeF)&=&\sum_{k=0}^{n}F\cdotf(k|n,p,N)\;=\;p&&\\V(\tildeF)&=&\sum_{k=0}^{n}\left(F-E(\tildeF)\right)^2\cdotf(k|n,p,N)&=&\frac{p(1-p)}{n}\cdot\frac{N-n}{N-1}\\\end{array}\end{eqnarray}さて,図\ref{NTCIR-results}にNTCIR-2TSCの重要文抽出タスクでのこの評価セットにおける各参加システムの評価結果を示す\cite{T.Fukusima.01}.ここで縦軸はF値を表し,横軸上のシステム1$\sim$10およびLEAD,TFは,それぞれタスクにおける各参加システム,およびベースラインシステムの結果を表す.3種類ある棒グラフは凡例が示すように,それぞれ要約率$10\%$,$30\%$,$50\%$での結果を表している.\begin{figure}\begin{center}\epsfile{file=fig/NLP-figs-NTCIR-results.eps,scale=0.4}\caption{評価セットにおける各参加システムのF値}\label{NTCIR-results}\end{center}\end{figure}特に要約率$50\%$での各参加システムのF値に注目すると,各値は$0.58$を中心に差が$0.05$以内と,分散の小さな分布になっている.この値は,先程の表\ref{table-np-test}中の無作為な文抽出によるF値の分布$0.536\pm0.086$に非常に近いため,この結果に基づく各システムの性能比較は信頼性が低いと考えられる.一方,要約率$10\%$,$30\%$での各システムの結果は,ランダムな文抽出による分布を明らかに上回っており,各システムの性能差が評価に現れている.これらの評価結果を解釈する上で,評価の方法自体の信頼性についても検討する必要がある.上記のF値による評価結果が十分信頼できる場合,要約率50\%ではいずれのシステムも性能が低いため,有意な要約結果が得られていないという解釈になる.しかし,評価方法自体の信頼性を疑うという観点に立てば,上記の評価結果で各評価システムの評価が同様に低く有意な差が現れていないのは,要約を機械的に評価する上での本質的な困難が顕現しているためと見ることもできる.要約タスクからテキストの主題に関する理解や要約の観点といった主観的な要素を排除することは不可能であり,テキストの要約において{\bf唯一の理想的な正解}が存在するという前提は現実的とは言えない.この点において,唯一の正解に基づく評価方法では,評価結果が正解と評価対象の相性によって左右されるという問題が懸念される.すなわち,正解との類似性に基づく評価であるために,正解と要約の観点や戦略が一致していなければ有意な評価結果が得られないという問題である.この問題は,特に抽出文の組み合わせ数が最大となる要約率50\%では,異なる観点や戦略に基づく多様な要約が可能なためより顕著に現れると予想される. \section{複数の正解に基づく評価手法} \subsection{従来の評価の仕組みと問題点}\begin{figure}\begin{center}\epsfile{file=fig/NLP-figs-summary-adequacy.eps,scale=0.35}\caption{重要文抽出の評価の仕組み(概念図)}\label{summary-adequacy}\end{center}\end{figure}ここでは,まず重要文抽出における従来の評価方法の仕組みと問題点について,定性的な議論を行なう.以降では図\ref{summary-adequacy}に示すような概念図を用いる.図中の水平方向の広がりはN文のテキストからのn文の抽出によって得られる可能な要約の集合を表し,この広がり上の各点は要約集合中の各要約を表している.また説明の便宜上,要約集合の広がり上の2点が近いほど,2つの要約間の類似度は高いものとする.要約集合の広がり上の各点に対して理想的な評価を行い,その結果を数値で表現できると仮定する.これを,要約の妥当性の高さと呼ぶことにし,この数値を縦軸に取って要約集合の各点をプロットする.すると,各点を結ぶことによって図中に示すような妥当性の高さが表現された面が出来る.これを妥当性の表面と呼ぶことにする.あるテキストに対して適切な要約を求めるという問題は,この概念図においては妥当性の表面上において十分高い点を探す問題に置き換えて考えることが出来る.例えば図\ref{summary-adequacy}中では,最適な要約は要約Aと要約Bである.ここでは両者の間に距離があるため,要約Aと要約Bはある程度異なった要約でありながら,ともに適切な要約であると理解できる.あるテキストに対して,適切な要約が何通りか存在することは珍しくない.このような場合は,概念図では妥当性の表面が複数の点において高い値を持つ場合で考えることができる.このような状況において,要約の正解を一意に絞ることによって生じる評価の問題について,図\ref{problem}を用いて検討する.\begin{figure}\begin{center}\epsfile{file=fig/NLP-figs-problem.eps,scale=0.35}\caption{唯一の正解に基づく評価の問題(概念図)}\label{problem}\end{center}\end{figure}図\ref{problem}中の(a)と(b)では共に,同じテキストに対して作成された二つの要約結果,要約1と要約2を示している.要約1と要約2の評価を行なう際,用いられる正解の違いによって評価結果にどのような違いが生じるかを,(a)と(b)の比較によって検討する.この図では,(a)の正解は要約1により近く,(b)の正解は要約2により近い.正解との類似度に基づく評価では,正解により近い要約の方がより高い評価を得るので,(a)の場合には要約1がより評価が高く,(b)の場合には要約2がより評価が高くなる.以上の議論から,要約の多様性によって適切な要約が複数存在する場合には,用いられる正解との相性によって評価結果が左右されるという問題が生じることが分かる.\begin{figure}\begin{center}\epsfile{file=fig/NLP-figs-proposed-method.eps,scale=0.35}\caption{複数の正解に基づく要約評価の利点(概念図)}\label{proposed-method}\end{center}\end{figure}この問題を改善するために,複数の正解を用いる評価方法を検討する.正解とする要約を複数用意し,評価対象に最も近い正解を用いて評価することで,正解と評価対象との相性の問題は緩和される.ここでは複数要約を正解として用いる効果とともに,用いる複数要約の数や品質と評価の信頼度との関係について,図\ref{proposed-method}に基づいて検討を行なう.図の(a),(b)は共に,あるテキストに対する二つの要約,要約1と要約2を評価する場合を示している.両者の妥当性の値は要約1は十分高いが,要約2はこれに比べて低いという状態を示している.(a)では,要約1の方が要約2に比べてより近くに正解が存在する.評価対象に最も近い正解を用いて類似度で評価を行なうことにより,要約1が要約2に比べてより高い評価を得る.この結果は,本来の両者の妥当性の高さの関係を適切に反映している.一方,(b)の場合,要約1と要約2は共に近傍に正解を持つため,両者は同様に高い評価となり,両者の本来の妥当性の差が評価に現れない.この(a)と(b)の違いは,正解とする複数の要約集合の違いにある.(a)で正解に用いている要約集合は妥当性が十分に高いのに対し,(b)で用いている要約集合では妥当性の低いものが混在している.以上の議論から,正解に用いる要約集合は,{\bf(1)要約の品質が十分に高い}こと,および{\bf(2)要約タスクにおける理想的な要約を網羅している}ことが信頼性の高い評価を行なう上での必要条件となることが分かる.\subsection{複数の正解に基づく評価方法}ここで,複数の正解に基づく評価方法の具体的な定式化について述べる.ここでは,$N$文からなるテキストから$n$文の重要文抽出により作成される要約の評価を考える.まず文抽出による要約結果の表現として,ベクトル表記を導入する.ここで,$N$文のテキストから$n$文を抽出して得られる要約結果を長さ1の$N$次元ベクトル${\bfv}$によって表現する.ベクトルの第$i$成分には,テキスト中の第$i$文が要約に抽出されている場合は$1/\sqrt{n}$,抽出されていない場合は0の値を与える.例えば,5文からなるテキストの第1,3文を抽出して得られる要約のベクトル表現は${\bfv}=1/\sqrt{2}(1,0,1,0,0)$となる.まず,評価に正解を一つ用いる場合を考える.ここで正解と評価対象の要約の抽出文数は同じとする.正解のベクトル表現${\bfv}_{Ans}$と評価対象のベクトル表現${\bfv}_{Obj}$を用いると,F値は両者のベクトルの内積によって得られる.\begin{equation}F値=Sim({\bfv}_{Ans},{\bfv}_{Obj})={\bfv}_{Ans}\cdot{\bfv}_{Obj}\end{equation}このF値を,複数の正解を用いた評価尺度に拡張する.次式のような評価対象の要約と複数の正解との内積の最大値を複数の正解に基づく評価尺度として提案する.\begin{equation}F値=max_{i=1,\cdots,k}\left[{\bfv}_{Ans}\cdot{\bfv}_{Obj}\right]\label{proposed-measure-1}\end{equation}この評価尺度は最終的に正解を一つ選択して評価を行なうものであるが,複数正解において網羅性が不足している場合には,評価対象を評価するための適切な正解が存在しないために適切な評価結果が得られないといった問題が生じる.そこでさらに,網羅性の不足に対する頑健性を向上するために,式\ref{proposed-measure-1}の尺度の拡張を試みる.まず正解を複数要約の単純な集合から,各要約を基底として張られる部分空間へと拡張する.具体的には次のような疑似的な線形性\footnote{ここで仮定する線形結合によるベクトルは,要素に0,1以外の値を持つ場合は対応する要約が実在しないのでこのように呼ぶ}を導入する.すなわち,k個の正解の集合${\bfv}_{Ans_1},\ldots,{\bfv}_{Ans_k}$が与えられた場合,これらの線形結合であるベクトル${\bfV}_{Ans}(\alpha_1,\ldots,\alpha_k)$も同様に正解の一つと見なす.\begin{eqnarray}{\bfV}_{Ans}(\alpha_1,\ldots,\alpha_k)=\sum^{k}_{i}\alpha_i{\bfv}_{Ans_i}\\ただし,\sum^{k}_{i}\alpha_i^2=1\;(\alpha_i\geq0)\end{eqnarray}網羅性の不足に対する頑健性が改善された複数の正解に基づくF値を以下のように提案する.\begin{equation}F値=max_{\alpha_1,\ldots,\alpha_k}\left[{\bfV}_{Ans}(\alpha_1,\ldots,\alpha_k)\cdot{\bfv}_{Obj}\right]\label{proposed-measure-2}\end{equation}ここで結合係数$\alpha_1,\ldots,\alpha_k$は,複数正解の結合ベクトル${\bfV}_{Ans}(\alpha_1,\ldots,\alpha_k)$と評価対象${\bfv}_{Obj}$との内積を最大化するように決定する.\subsection{正解に用いる要約集合の作成方法}ここでは,前節の類似度に基づく評価の妥当性を保証するために,正解に用いる要約集合の満たすべき条件について検討する.提案手法による評価の妥当性が保証されるためには,正解とする要約集合にいて,{\bf(1)網羅性に関する条件},すなわち要約タスクにおける可能な要約を網羅していること,および{\bf(2)品質に関する条件},すなわち正解として用いるのに十分な品質であること,の二つが同時に満足される必要がある.これらは,任意の文抽出によって可能な全ての要約集合から,要約タスクに対する理想的な要約集合を抽出する際のPrecisionとRecallであると言い換えることもできる.\subsubsection*{(1)網羅性に関する条件}まず,要約者の作成する要約が{\bf(2)品質に関する条件}を十分に満足しているという状況を仮定して考えてみる.この場合,{\bf(1)の網羅性に関する条件}を満たすためには,要約者の人数を増やすなどして,可能な要約のバリエーションを尽くし切ればよい.正解の品質を高く保ちながら,同じ記事に対して作成する要約の数を増やしていくと,正解集合のバリエーションの数もそれに従い増加して行くが,要約タスクにおける理想的な要約集合が尽くされていく過程で徐々に飽和していくと予想される.理想的な要約集合が尽くされたかどうかを知るには,要約集合の数を増やして行く過程で,新たに加えられる要約とすでに存在する要約集合との一致度の最大値が飽和したかどうかを見れば良い.要約間の一致度の尺度として,ここでは$\kappa$係数\cite{J.Carletta.96}を用いる.この他の尺度としては,Marcu等の研究\cite{D.Marcu.97}で用いられているPercentAgreement\cite{W.Gale.92}や,Cochran'sQSummaryStatistic\cite{W.G.Cochran.50}などがあるが,$\kappa$係数は無作為な文抽出によって作成された二つの要約に対して0,完全に一致した要約に対して1を与えるので飽和の程度を知るのに適している.ここで$\kappa$係数の導入を行なう.N文のテキストからn文を抽出する要約タスクにおいて,k個の正解の集合${\bfv}_{Ans_1},\ldots,{\bfv}_{Ans_k}$がある時,この中の2つの要約${\bfv}_{Ans_i}$と${\bfv}_{Ans_j}$の間の類似度は次のようになる.\begin{eqnarray}Sim({\bfv}_{Ans_i},{\bfv}_{Ans_j})={\bfv}_{Ans_i}\cdot{\bfv}_{Ans_j}\end{eqnarray}この類似度から2つの要約中の抽出文の偶然一致によって生じる要約間の類似度$Sim_{Random}$を差し引く.この値はn文の無作為抽出によって作成される2つの要約間の類似度の期待値を計算すればよい.無作為抽出で作成された要約間で偶然に一致する抽出文数$k$の確率分布は超幾何分布$HG(n,p;N)$に従うので,期待値$Sim_{Random}$は$k$に関する確率分布$f(k|n,p,N)$を用いて次のように求めることができる.\begin{equation}Sim_{Random}=\sum_{k=0}^{n}\frac{k}{N}\cdotf(k|n,p,N)=p=\frac{n}{N}\end{equation}$\kappa$係数\cite{J.Carletta.96}は,この2つの要約${\bfv}_{Ans_i}$と${\bfv}_{Ans_j}$に対して次のように計算できる.\begin{equation}\begin{array}{lcl}\kappa({\bfv}_{Ans_i},{\bfv}_{Ans_j})&=&\frac{Sim({\bfv}_{Ans_i},{\bfv}_{Ans_j})-Sim_{Random}}{1-Sim_{Random}}\\&=&\frac{{\bfv}_{Ans_i}\cdot{\bfv}_{Ans_j}-\frac{n}{N}}{1-\frac{n}{N}}\end{array}\label{kappa-def}\end{equation}$\kappa$係数は,2つの要約が完全に一致する場合は1を与え,2つの要約が抽出文の偶然の一致を除いて一致しない場合は0を与える.Krippendorff等の研究\cite{K.Krippendorff.80}から,判断が一致していると結論するための基準値は$0.7$以上であることが知られている.この基準に基づくと,既に作成された要約集合${\bfv}_{Ans_1}\cdots{\bfv}_{Ans_n}$に,新たな要約${\bfv}_{Ans_{n+1}}$を加え,要約集合の要素数nが増加していく過程において,{\bf要約集合における網羅性が十分であると判断できるのはnを増やしても以下の基準が常に満たされ,異なりが飽和している場合}と言うことができる.\begin{equation}Max_{i=1\cdotsn}\kappa({\bfv}_{Ans_i},{\bfv}_{Ans_{n+1}})>0.7\label{satulation-condition}\end{equation}この条件を50文の文書に対して要約率$p=0.3$で要約集合を作成する場合にあてはめると,新たに要約を加える過程で要約集合の中で最も類似した要約との抽出文の異なりが常に3文(抽出文の20\%)以下になった時に網羅性の高い要約集合が得られたということになる.\subsubsection*{(2)品質に関する条件}品質の条件を満たすためには,要約作成の経験を積んだ専門家など,高いスキルを持つ要約者に要約を作成させればよい.しかしながら,{\bf(1)網羅性に関する条件}を同時に満たすことを考慮すると,専門家を多人数使って要約の異なりを尽くし切るような方法はあまりにもコストが膨大で現実的とは言えない.したがって実際に評価を行なう上で要約集合の網羅性と品質の条件をどの程度優先して作成するかという問題も検討する必要がある.対象とするテキストが例えば新聞記事のように,ヘッドライン,パラグラフ構造などの要約作成の指針となるような情報を多く含んでいたり,テキスト中の文数や要約の抽出文数が少ないような場合は,理想的な要約を作成する上での自由度も小さくなると期待される.このように{\bf作成される要約の多様性が比較的小さくなると予想される場合,要約スキルの高い作成者によって,ある程度の網羅性を満たす要約集合を作成するという方法が良い}と思われる.しかし,要約を作成する上での自由度が高く評価対象の多様性が大きいと期待される場合や,評価対象の要約の品質が低くそれほど品質の高い正解を基準とする必要がない場合,要約の品質の高さはそれほど高くなくても網羅性が保証された要約集合を用いるほうがより有意な評価結果が得られるという考え方もできる.後者のような大規模な要約集合を作成した例として,斎藤等による人間による要約文の多様性の研究\cite{K.Saito.01J}が挙げられる.この実験では,朝日新聞のコラム「天声人語」の原文から140名の学生によって20\%と30\%の要約率でそれぞれ70の要約文を作成し,原文から要約文への文節単位での取り込み傾向を分析している.その結果文節はその取り込み率によって,取り込まれる傾向のもの,取り込まれない傾向のもの,そのいずれにも属さないものへと分類され,6割以上の要約者が取り込んでいる文節集合(コア)を並べると,ほぼ意味が通じる要約文が完成するという結果を得ている.この結果で興味深いのは,それほど品質の高さが高くないと予想される要約集合からも,多くの要約者に共通して重要と判定される部分(コア),共通して重要でないと判断される部分,それ以外を分離することが可能で,かつコアの部分の要約の品質が元の要約集合に比べて高いという点である.\\\noindentこのことから,{\bf品質は高くないが大規模な要約集合が作成可能な場合,まず網羅性の高い大規模な要約集合を作成し,その中から品質が比較的保証されるような部分集合を切り出すといった方法が現実的である}と思われる.コアおよびその周辺の文を多く含む一致度の高い要約の抽出は,要約集合の全要約対の間の一致度に基づいて階層的クラスタ分析などの方法を適用する方法で実施できると思われる.例えば,$\kappa$係数の値の大きな要約対から順次,群平均法などの階層的クラスタ分析を適用して階層構造を作成し,これをKrippendorffの基準($\kappa>0.7$)に基づいて全体の階層構造から一致度の高い要約の部分集合を抽出する.この部分集合を正解の要約集合に用いる際に,部分集合を全て用いるのではなく,含まれる要約数の大きいものだけを正解集合に取り込むようにすれば,正解集合はよりコアに近い文を多く含んだ要約のみが残るため,網羅性に比べてより品質が重視された集合が得られる. \section{提案評価手法の予備実験} \subsection{作成した正解要約集合の品質}提案手法の検証のために,要約タスクにおいて複数要約の作成を試みた.ここでは,NTCIR-2TSCの重要文抽出タスク\cite{T.Fukusima.01}における評価セット\footnote{毎日新聞社新聞記事データより作成された要約データ(国立情報学研究所提供)}30記事中の4記事980503045,980505037,940701176,940701189を選び(1テキストあたりの平均文数は$40.8$),評価セットに付いている専門家による正解に加え,新たに要約者7名によって要約を作成した.要約は評価セットの全要約率10\%,30\%,50\%について行なった.なお,要約者は理系大学の卒業生で,要約に関連する特別な技術を持たない非専門家である.これらの要約者によって作成された4記事に対する要約の品質と網羅性について検討するために,評価セットの正解(専門家による要約)と非専門家7名による要約間の$\kappa$係数を求め,表\ref{matrix-kappa}に示した.Eは専門家による要約結果,N1$\sim$N7はそれぞれ7名の非専門家による要約を表す.表中の各値は,新聞記事4記事に対し要約率$p=0.1,0.3,0.5$で作成されたそれぞれ(計12)の要約の$\kappa$の平均値である.また"平均"は,各評価者とそれ以外の要約者7名との間の$\kappa$係数の平均値を示している.\begin{table*}\begin{center}\caption{各要約対の$\kappa$係数の値(評価セット全4記事,要約率10\%,30\%,50\%の平均値)}{\small\begin{tabular}{|c||c|c|c|c|c|c|c|c|}\hline&E&N1&N2&N3&N4&N5&N6&N7\\\hline\hlineE&-&0.32&0.42&0.31&0.26&0.28&0.34&0.29\\\hlineN1&0.32&-&0.16&0.29&0.29&0.24&0.31&0.27\\\hlineN2&0.42&0.16&-&0.29&0.29&0.25&0.22&0.12\\\hlineN3&0.31&0.29&0.29&-&0.28&0.30&0.15&0.13\\\hlineN4&0.26&0.29&0.29&0.28&-&0.22&0.22&0.01\\\hlineN5&0.28&0.24&0.25&0.30&0.22&-&0.24&0.17\\\hlineN6&0.34&0.31&0.22&0.15&0.22&0.24&-&0.30\\\hlineN7&0.29&0.27&0.12&0.13&0.01&0.17&0.30&-\\\hline\hline平均&0.32&0.27&0.25&0.25&0.22&0.24&0.25&0.18\\\hline\end{tabular}}\label{matrix-kappa}\end{center}\end{table*}すべての$\kappa$係数の値が正であることは,全要約者の間に有意な一致が見られることを示している.特に専門家と他の要約者との値が最も高い.これは専門家による要約結果が非専門家による要約結果のコア(要約者によって共通して抽出されている文集合)をより多く含んでいることを示している.このことは専門家による要約が非専門家の要約に比べて品質が高いことに起因していると理解される.品質の高い要約はコアを含んだ理想的な要約集合における抽出文から構成されるが,品質の低い要約では理想的な要約集合には含まれない文も混在するため,結果として品質の低い要約に比べると品質の高い要約の方がより多くコアを含むと考えられるからである.この要約集合における値をSalton等が報告している2人の要約者による50の文書の要約結果\cite{G.Salton.97}と比較してみる.この結果では,2人の要約者による要約の間の重なりは45.81\%,Randomによるベースラインは39.16\%であり,Salton等は得られた一致度が驚くほど低いと分析している.要約の対象は百科辞典のテキストであり要約率はおよそ$40\%$,要約者のスキルについては情報がなく,実験条件が異なるので単純に比較するには問題があるが,$\kappa$に換算すると0.1093であり我々の作成した要約の値より低い値であることが分かる.また作成された要約集合は,$\kappa$係数の平均値がいずれもKrippendorff等による基準を下回っていることから,非専門家による要約の品質の問題だけでなく網羅性の不足も懸念される.さらに詳細に要約集合の網羅性を検討するため,評価セット中の記事940701176に対して30\%と50\%の要約率で作成された要約結果を具体例として取り上げ検討する.表\ref{matrix-kappa-03}は要約率30\%での要約結果に対する値を示している.表\ref{matrix-kappa}での平均の値と異なり,各要約間の一致度の差がより明確に現れていることが分かる.この中で,要約対(E,N5)と(N2,N5)は基準値である0.7を越えていることから,要約E,N2,N5はこの集合のコアを構成していると考えられる.しかし要約集合全体では,要約Eに対して,要約N1,N2,と順次要約を追加して行く過程での$\kappa$係数の最大値の推移を見ると,0.30,0.54,0.30,$-0.16$,0.76,0.30,0.54,というように式\ref{satulation-condition}の基準を下回る低い値で振動していることが分かる.このことから,ここで作成された要約集合は,飽和するまでにまだかなり要約の数を増やす必要があることが分かる.表\ref{matrix-kappa-05}は要約率50\%での要約結果に対する値を示しているが,全体的な傾向は要約率30\%での結果と変わらない.ただ,要約率50\%では,抽出文の組み合わせの数が最大となるため,要約の可能性がより多様になる分,全体的な$\kappa$係数の値も低くなっている.これに伴って,飽和するまでに必要な要約の数もさらに大きくなると推測される.以上の議論から,作成された要約集合は専門家による要約と非専門家による要約との間に品質の差があり,また要約集合の網羅性を満たすためには要約の数が不足していることが結論出来る.\begin{table*}\begin{center}\caption{各要約対の$\kappa$係数の値(評価セット:940701176,要約率:30\%)}{\small\begin{tabular}{|c||c|c|c|c|c|c|c|}\hline&N1&N2&N3&N4&N5&N6&N7\\\hline\hlineE&0.30&0.54&0.30&-0.16&{\bf0.76}&0.30&0.30\\\hlineN1&-&-0.16&0.06&-0.40&0.06&0.30&0.54\\\hlineN2&-&-&0.30&-0.16&{\bf0.76}&0.06&0.06\\\hlineN3&-&-&-&-0.16&0.54&0.06&0.06\\\hlineN4&-&-&-&-&-0.16&0.30&-0.40\\\hlineN5&-&-&-&-&-&0.30&0.30\\\hlineN6&-&-&-&-&-&-&0.3\\\hline\hline最大値&0.30&0.54&0.30&-0.16&0.76&0.30&0.54\\\hline\end{tabular}}\label{matrix-kappa-03}\end{center}\end{table*}\begin{table*}\begin{center}\caption{各要約対の$\kappa$係数の値(評価セット:940701176,要約率:50\%)}{\small\begin{tabular}{|c||c|c|c|c|c|c|c|}\hline&N1&N2&N3&N4&N5&N6&N7\\\hline\hlineE&0.06&0.24&0.43&-0.16&0.43&0.24&0.24\\\hlineN1&-&-0.53&0.06&0.06&-0.16&0.43&0.43\\\hlineN2&-&-&0.24&0.06&0.24&-0.16&0.06\\\hlineN3&-&-&-&0.24&0.06&0.24&0.06\\\hlineN4&-&-&-&-&-0.16&0.43&-0.16\\\hlineN5&-&-&-&-&-&0.06&-0.16\\\hlineN6&-&-&-&-&-&-&0.43\\\hline\hline最大値&0.06&0.24&0.43&0.24&0.43&0.43&0.43\\\hline\end{tabular}}\label{matrix-kappa-05}\end{center}\end{table*}\subsection{各要約者の要約結果の異なりの検討}ここでは,前節で既に取り上げた評価セット中の記事940701176について,各要約者の要約結果がどのような箇所においてばらつきが生じているのかをさらに詳細に検討する.記事の本文を付録に示し,専門家および非専門家によって作成された要約結果を以下表\ref{testset-sample-sum}に示す.各行は記事中の各文番号,列は各要約率10\%,30\%,50\%における専門家E,非専門家1$\sim$7(既出のN1$\sim$N7に対応)による要約を示し,それぞれの値が1であれば重要文として要約に含まれ,0であれば要約に含まれないことを表している.\begin{table*}\begin{center}\caption{評価セット中の記事940701176に対する要約結果}{\scriptsize\begin{tabular}{|c||c||c|c|c|c|c|c|c||c||c|c|c|c|c|c|c||c||c|c|c|c|c|c|c|}\hline&\multicolumn{8}{c|}{要約率10\%}&\multicolumn{8}{c|}{要約率30\%}&\multicolumn{8}{c|}{要約率50\%}\\\cline{2-25}文&\hspace{-1.0pt}E\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}2\hspace{-1.0pt}&\hspace{-1.0pt}3\hspace{-1.0pt}&\hspace{-1.0pt}4\hspace{-1.0pt}&\hspace{-1.0pt}5\hspace{-1.0pt}&\hspace{-1.0pt}6\hspace{-1.0pt}&\hspace{-1.0pt}7\hspace{-1.0pt}&\hspace{-1.0pt}E\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}2\hspace{-1.0pt}&\hspace{-1.0pt}3\hspace{-1.0pt}&\hspace{-1.0pt}4\hspace{-1.0pt}&\hspace{-1.0pt}5\hspace{-1.0pt}&\hspace{-1.0pt}6\hspace{-1.0pt}&\hspace{-1.0pt}7\hspace{-1.0pt}&\hspace{-1.0pt}E\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}2\hspace{-1.0pt}&\hspace{-1.0pt}3\hspace{-1.0pt}&\hspace{-1.0pt}4\hspace{-1.0pt}&\hspace{-1.0pt}5\hspace{-1.0pt}&\hspace{-1.0pt}6\hspace{-1.0pt}&\hspace{-1.0pt}7\hspace{-1.0pt}\\\hline\hline\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}2\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}3\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}\\\hline\hspace{-1.0pt}4\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}5\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}6\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}7\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}\\\hline\hspace{-1.0pt}8\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}\\\hline\hspace{-1.0pt}9\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}\\\hline\hspace{-1.0pt}10\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}\\\hline\hspace{-1.0pt}11\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}\\\hline\hspace{-1.0pt}12\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}13\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}14\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}15\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}16\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}17\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}\\\hline\hspace{-1.0pt}18\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}\\\hline\hspace{-1.0pt}19\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}\\\hline\hspace{-1.0pt}20\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}1\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}\\\hline\hspace{-1.0pt}21\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}&\hspace{-1.0pt}0\hspace{-1.0pt}\\\hline\end{tabular}}\label{testset-sample-sum}\end{center}\end{table*}まず,表\ref{testset-sample-sum}の結果を見ると,要約率10\%において専門家"E"は,重要文として第4,19文を選択していることが分かる.一方,非専門家"1$\sim$7"の判断のうち過半数が一致しているのは,第1文である(第1,17,19文の3文には3人以上が集中).また,要約率30\%では,専門家が重要と判断している第1,2,4,7,8,19文の6文に対し,非専門家の過半数が一致しているのは第1,4,17,19文の4文である.要約率50\%では,専門家が重要と判断している第1,2,4,6,7,8,13,14,17,18,19文の11文に対して,非専門家の過半数が一致しているのは第1,4,5,6,10,11,12,13,14,15,17,18,19文の13文である.これらの結果から,非専門家の多数が重要と判断している文は,専門家の判断によく一致していることが分かる.さらに各要約結果の中身を詳細に検討すると,要約者が重要文を決定する際に,テキスト中での文の重要性と同時に,文間の結束性も考慮されていることが分かる.強い結束関係によって結ばれた2文の一方のみを重要文として抽出しても,要約において意味が正しく伝わらない場合が生じるためである思われる.同記事中に存在する文間の結束性のうち,指示,代用,省略に相当すると思われるものを以下に挙げる.\begin{description}\item[省略1]$第1文:"ダウレット・トルリハノフさんは"\leftarrow\{第2,3,4,5,6,8文,ヘッドライン\}$\item[省略2]$第1文:"カザフスタン"\leftarrow第4文:"独立",第6文:"最高会議議員"$\item[省略3]$第2文:"レスリング"\leftarrow第3文:"チャンピオン"$\item[省略4]$第2文:"五輪"\leftarrow第4文:"メダリスト"$\item[省略5]$第12文:"カザフスタンは"\leftarrow第13文$\item[指示1]$第4文:"褒賞金"\leftarrowヘッドライン:"褒賞金"$\item[指示2]$第4文:"実業界"\leftarrowヘッドライン:"実業界"$\item[指示3]$第5文:"スポーツジム"\leftarrow第9文:"スポーツジム"$\item[指示4]$第7文:"カザフスタンのレスリング"\leftarrow第8文:"それ"$\item[指示5]$第11文:"「奨学金」"\leftarrow第14文:"奨学金"$\item[指示6]$第13文:"給与生活者"\leftarrow第14文:"その"$\item[代用1]$第7文:"広島アジア大会"\leftarrow第19文:"広島",第20文:"アジア大会"$\item[代用2]$第10文:"有望選手六十五人"\leftarrow第15文:"選手"$\end{description}例えばテキスト中の第2,3,4,5,6,8文およびヘッドラインにおいては,"ダウレット・トルリハノフさんは"という主語が,第1文中において既出であるため省略され,省略の関係にある.また,第8文の"それ"は,第7文の"カザフスタンのレスリング"を指しており,指示の関係にあると思われる.表\ref{testset-sample-sum}の10\%の要約結果を結束性に基づいて考慮すれば,非専門家"1$\sim$7"の判断が第1文に集中したのは,第1文とそれ以降の文との間で,結束関係が多数結ばれていたためと考えられる.専門家による要約では,第4,19文が選択されているが,第4文自身は,ヘッドラインとの結束性が高いため,重要性が高いと考えられる.この場合も,"トルリハノフ"と"カザフスタン"が第19文に含まれており,第4文との間での結束性が保存される組合せとなっている.ここで,表\ref{testset-sample-sum}の要約率30\%において,専門家と非専門家の過半数が重要と判断している第1,2,4,7,8,17,19文の7文に注目して検討を行うことにする.第(1$\sim$20)文を文脈的なまとまりで分けると,(7$\sim$15),(16$\sim$17),(18$\sim$20)の3つの部分に分割することが出来る.それぞれの部分に閉じた結束関係は,まず最初の部分(1$\sim$6)については"省略1","省略2","省略3","省略4","指示1","指示2"である.これらの結束性をなるべく保存しながら文抽出を行うとすると,第1文,第2文,第4文の順に抽出することになり(ヘッドラインを重視すれば第4文はより優先される)要約率30\%において第1,2,4文が重要文と評価された結果と矛盾しない.同様に(7$\sim$15)の部分における結束関係は"省略5","指示4","指示5","指示6"であるが,第7,8文を抽出している結果はこのうち"指示4"の結束関係を保存し,構造全体においても以降に続く文の展開の起点となっているため妥当であると考えられる.さらに修辞構造もまた同様に,要約結果を大きく決定づける要因であると考えられる\cite{D.Marcu.97}.このように,複数要約者が要約作成する際,観点の違いによって要約結果の違いを生じることはあっても,結束性,照応関係,修辞構造などの要約の対象である元テキストが持っている構造をなるべく保存するような原則が働いているものと考えられる.このことは,今後より品質の高い要約の正解を作成する上で有用な知見であると思われる.\subsection{自動要約手法との比較}ここでは,要約の戦略の異なるいくつかの重要文抽出法との比較を行なう.重要文抽出法では,テキスト中の文の重要度を計算し,重要度の高い文から順に要約率に達するまで抽出する.この文の重要度の計算には,(1)キーワードの出現頻度,(2)文位置,(3)ヘッドライン,(4)文同士の関係に基づくテキスト構造,(5)手がかり表現,(6)文あるいは単語間の関係,(7)文間の類似性,などのテキスト中の情報が有用であることが知られており\cite{C.D.Paice.90,M.Okumura.99J},現在に至るまでこれらの情報にもとづく様々な要約手法が検討されてきた\cite{H.P.Edmundson.69,C.Aone.98,C.Nobata.01J,T.Yoshimi.99J,M.Utiyama.00J}.ここでは,以下に示す{\bfTF},{\bfTF+H},{\bfLEAD},{\bfHyb(rid)1},{\bfHyb(rid)2}の5つの自動要約手法\cite{K.Ishikawa.01}を用いて,これらの手法による要約結果と,先に作成した複数の正解要約との比較評価を行なう.\begin{description}\item[TF]TF法.次式の$IW_{TF}(s)$を文の重要度に用いる.$\{t\}\ins$は文$s$中に出現する単語集合,$f(t)$はキーワード$t$の文書中における出現頻度を表す.\begin{displaymath}IW_{TF}(s)=\sum_{\{t\}\ins}f(t)\end{displaymath}\item[TF+H]ヘッドライン情報を考慮したTF法,次式の$IW_{TF+H}(s)$を文の重要度に用いる.$A=20$を用いる.\begin{displaymath}IW_{TF+H}(s)=\sum_{\{t\}\ins}\alpha(t)\cdotf(t),\;\;\;\;\;\;\alpha(t)=\left\{\begin{array}{ll}A&\mbox{tがヘッドライン中に出現}\\1&\mbox{それ以外}\end{array}\right.\end{displaymath}\item[LEAD]LEAD法.記事テキストの先頭から文の並び順に要約率に達するまで文抽出を行う.\item[Hyb(rid)1]TF+HとLEADを組み合わせた手法.次式の$IW_{Hyb}(s,i)$を文の重要度に用いる.$i$は文$s$のテキスト中での先頭からの位置,$IW_{TF+H}(s)$は{\bfTF+H}で用いた文の重要度を表す.パラメータは経験的に求められた最適値$A=20$,$B=10$,$N=3$を用いる.\begin{displaymath}IW_{Hyb}(s,i)=\beta(i)\cdotIW_{TF+H}(s),\;\;\;\;\;\;\beta(i)=\left\{\begin{array}{ll}B&\mbox{if$1\leqi\leqN$}\\1&\mbox{if$i>N$}\end{array}\right.\end{displaymath}\item[Hyb(rid)2]{\bfHyb1}と同じ$IW_{Hyb}(s,i)$を文の重要度に用いる.パラメータに$A=20$,$B=100$,$N=3$を用いる.$B$が十分大きいので,先頭$N$文を無条件に抽出(LEAD法)した後に{\bfTF+H}を適用するのと同様の効果を持つ.\\\end{description}先に複数の要約正解を作成したNTCIR-2要約データ中の4記事に対し,以上の5つの自動要約手法{\bfTF},{\bfTF+H},{\bfLEAD},{\bfHyb1},{\bfHyb2}を適用し,要約結果を作成した.これらの自動要約手法による要約結果と,複数の正解要約との間の一致度を$\kappa$係数の値として求め,表\ref{kappa-human-machine}に示した.ここでは要約間の一致度の相対的な異なりを議論するために,偶然による一致度が除かれる$\kappa$係数の値を示しているが,太字で示した最大値は本質的に,先に提案した複数の正解に基づくF値(\ref{proposed-measure-1}式)に相当するものである.表中で,Eは専門家による正解要約,N1$\sim$N7はそれぞれ7名の非専門家による正解要約,TF,TF+H,LEAD,Hyb1,Hyb2,は自動要約手法を表す.各$\kappa$係数の値は,新聞記事4記事と3種類の要約率$p=0.1,0.3,0.5$に関する平均値を表している.\begin{table*}\begin{center}\caption{複数の正解要約と自動要約手法による要約結果の$\kappa$係数の値}\begin{tabular}{|c||c|c|c|c|c|c|c|c|}\hline&E&N1&N2&N3&N4&N5&N6&N7\\\hline\hlineTF&0.09&0.09&0.07&0.11&-0.01&0.03&0.06&0.01\\\hlineTF+H&0.12&0.09&0.15&{\bf0.16}&0.13&0.17&0.07&0.05\\\hlineHyb1&0.18&0.14&0.13&0.11&0.13&0.22&0.12&0.11\\\hlineHyb2&{\bf0.23}&0.18&{\bf0.16}&0.11&{\bf0.16}&0.24&0.13&0.11\\\hlineLEAD&0.08&{\bf0.26}&-0.03&-0.01&-0.03&{\bf0.25}&{\bf0.14}&{\bf0.15}\\\hline\end{tabular}\label{kappa-human-machine}\end{center}\end{table*}表を見ると,一致度の高い自動要約手法は,正解ごとで異なっていることが分かる.正解要約E,N2,N4に対しては要約手法Hyb2,正解要約N1,N5,N6,N7に対しては要約手法LEAD,正解要約N3に対しては要約手法TF+Hが最も高い値となっている.これは,正解要約の作成において,それぞれの要約者の観点や戦略が異なるためと考えられる.とくに,正解要約N1,N5,N6,N7を作成した要約者達はテキストの先頭数文を重要文として抽出するLEAD法と類似した戦略をとっているが,正解要約N2,N3,N4を作成した要約者達は全くそのような戦略をとっていないということが表から読みとれる.この結果に見られるような,要約正解の観点や戦略の違いなどによる相違は,提案手法において複数正解を用いる上で期待されていたような傾向であり,正解の品質を十分に高められた場合に,要約結果と正解の間の相性によらずに適切に評価出来るという,提案手法の目指す枠組が有効に機能することを示唆している.より品質の高い正解要約による提案手法の完全な検証は今後の課題である. \section{おわりに} 本稿では,要約手法として特に重要文抽出法に焦点を当て,複数の正解に基づく評価法の提案を行なった.従来の評価方法では,テキストの要約において唯一の正解を用いるが,テキストによっては観点の異なる正しい要約が複数存在する場合もあり,評価の信頼性が保証されないという問題がある.要約評価の例として,NTCIRWorkshop2のテキスト要約タスクの評価結果を取り上げ,特に要約率50\%において複数の要約間での有意な差が現れていないという現象に着目して議論した.我々は,この要約の自動評価の信頼性を高めるために,評価において複数の正解を用いる方法について検討を行なった.提案手法では,複数の正解要約と評価対象を共に,0,1のバイナリ値を要素とするベクトル表現で表した時,複数の正解要約のパラメータを含んだ線形結合と評価対象との内積の最大値を評価値とする.この評価値は,個々の正解要約から計算される評価値から最大のものを選ぶ方法と異なり,複数の正解要約を組み合わせたような中間的な要約を適切に評価できるという性質を持つ.提案手法の検証のために,要約タスクに対して複数の正解の作成を行なった.ここではNTCIR-2要約データ中の4記事に対して,要約者7名で正解要約の作成を行なった.適切な評価を行なう上で,作成された要約が正解として十分な品質であるかどうかを,正解の要約間の一致度$\kappa$係数で評価した.その結果,Krippendorff等による$\kappa$係数の条件をはるかに下回り,複数正解に基づく評価を行なう上で品質が不十分であることが明らかとなった.この正解の作成過程において,作業コスト,要約作成の経験,対象テキストの性質等は正解の品質に影響し,要約の品質を高めるためにはこれらの要約作成条件を注意深く管理することが重要であることが分かった.さらに,作成された複数の要約を詳細に検討した結果,観点の違いによって要約結果の違いを生じても,元テキスト中の結束性や修辞関係に基づく構造をなるべく損なわない様に要約するという共通の法則性も見出された.この知見は,今後複数の要約正解を作成する上でも有用な知見であると思われる.最後に,提案手法の有効性を検証する予備実験として,異なる幾つかの自動要約手法と複数正解との一致度に基づく評価を行なった.その結果,最も評価の高い自動要約手法は正解によって異なるという結果が得られた.この結果は,正解の品質を十分に高められた場合,要約者の観点や戦略が異なる複数正解の存在によって,要約結果と正解の間の相性によらない適切な評価を実現するという,提案手法の枠組の有効性を示唆している.より品質の高い正解要約による提案手法の完全な検証は今後の課題である.\bibliographystyle{jnlpbbl}\bibliography{346}\section*{付録評価セット(940701176)の本文(毎日新聞全文記事データベース)}{\setlength{\baselineskip}{9pt}{\footnotesize\noindentヘッドライン[ヒロシマ・熱風]/5褒賞金で実業界へ・・・後進を支援【大阪】\\1ダウレット・トルリハノフさん(30)はカザフスタンでいま,一番有名で,忙しい人物だろう.\\2九歳からレスリングを始め,ソウル五輪(一九八八年)で銀,バルセロナ五輪(九二年)で銅メダルを獲得.\\3全ソ連のチャンピオンに七回輝いた.\\4独立後の経済自由化の波に乗り,メダリストの褒賞金を元手に実業界に転身.\\5レスリングジムを手始めに現在はアルマトイでレストラン,バー,スポーツジムなどからなる複合レジャー施設「ダウリヤット」や出版社などを経営する.\\6今年三月には日本の国会議員に当たる最高会議議員に当選,どこへ行っても握手攻めに遭う国民的英雄だ.\\7カザフスタンのレスリング水準は高く,広島アジア大会でも金メダル三個は狙えるといわれる.\\8それを個人の財力で支援している.\\9トルリハノフさんのスポーツジムには,ドイツ製の最新トレーニングマシンがずらっと並ぶ.\\10レスリングのほか,ボクシング,重量挙げなどの有望選手六十五人が所属.\\11毎月一人最高で日本円二万円相当の「奨学金」をもらっている.\\12カザフスタンは天然資源が豊富なのに,精製工場が国内にない旧ソ連の分業生産体制のなごりで,エネルギー危機が続く.\\13独自通貨の導入に伴う激しいインフレで,給与生活者の大半は本業だけでは生活できず,国家公務員がアルバイトにタクシーを運転する.\\14その平均給与の約八倍にも当たる奨学金は,破格の待遇.\\15それだけに「やる気のないものは出ていけ.余分なやつの面倒はみられない」というレスリングコーチ,サプノフ・ゲナンディさん(55)のハッパは厳しく,選手たちの表情も真剣だ.\\16大理石を敷きつめた高級レストランの奥で,トルリハノフさんが力説した.\\17「経済,文化,科学は危機的状況だが,スポーツは生き残らせてみせる.わたしたちは国づくりに踏み出したばかり.国民の士気を盛り上げるためにスポーツは非常に重要だからね」\\18七月一日から,従来の「CCCP」(旧ソ連)のパスポートが,カザフスタン独自のものに切り替わり,民族意識はより高まる.\\19「カザフスタンの存在をアジアの仲間に訴えたい」と意気込むトルリハノフさん自身もコーチ兼選手として,広島に乗り込む予定だ.\\20アジア大会開幕まで,あと三カ月——.\\21(おわり)\\}}\begin{biography}\biotitle{略歴}\bioauthor{石川開}{1994年東京大学理学部物理学科卒業.1996年同大学院修士課程修了.同年,NEC入社.1997年より2年間,ATR音声翻訳通信研究所に出向.現在,NECマルチメディア研究所,研究員.自然言語処理の研究に従事.情報処理学会会員.}\bioauthor{安藤真一}{1990年大阪大学基礎工学部生物工学科卒業.1992年同大学院修士課程修了.同年,NEC入社.1995年より2年間,ATR音声翻訳通信研究所に出向.現在,NECマルチメディア研究所,主任.自然言語処理の研究に従事.情報処理学会,人工知能学会,各会員.}\bioauthor{奥村明俊}{1984年京都大学工学部精密工学科卒業.1986年同大学院工学研究科修士課程修了.同年,NEC入社.1992年10月南カリフォルニア大学客員研究員(DARPAMTプロジェクト1年半参加).1999年東京工業大学情報理工学研究科博士課程修了.現在,マルチメディア研究所,研究部長.自然言語処理の研究に従事.工学博士.情報処理学会,ヒューマンインターフェース学会などの各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V28N02-13
\section{はじめに} ユーザから情報を取得することは,対話システムの主要な用途の1つである.初期の研究であるATIS\cite{hemphill1990atis}では,出発地,目的地,希望の日時等,フライト検索に必要な情報を得ることが対話システムの目的であった.近年では,ものやサービスに対するユーザ評価や意見を収集することを目的とするインタビュー対話システムも提案されている\cite{johnston2013spoken}.しかし,対話システムとのやり取りによって,うまくユーザの嗜好や評価を聞き出すことはまだ十分に達成できていない.一方,人同士の会話に目を向けると,会話を通して客の好みをうまく聞き出していることがわかる.例えば,ソムリエは,客の嗜好を捉えて客の好みにあった料理やワインを勧めるが,その際,客の好みの料理や食味などについて質問する他にも,ワインや食べ物について,専門家としての知識を使って話題の幅を広げながら会話をしている.その結果,ユーザに負担をかけることなく,ユーザの嗜好をうまく収集している.また,商品推薦などの個人化されたサービスでは,ユーザの好みや嗜好の情報が必要であるが,アンケートで数多くの質問項目に回答するのはユーザの負担となることが問題となっている\cite{smyth2007case,lam2008addressing}.そのため,システムとの対話を楽しんでもらいながら,ユーザの嗜好を聞き出すことができれば有用性は高い.そこで本研究では,対話を通してユーザの嗜好を獲得する対話システムの実現を目指し,関連する話題を選択し,その話題を展開しながらユーザの料理や材料の好みについて尋ねるインタビュー対話システムを提案する.これを実現するために,本研究では,分野についての大規模な知識を活用することに着目し,大規模知識を利用した関連話題の選択と質問生成に焦点を当てる.これまでの大規模知識ベースを用いた対話システムの研究では,大規模知識ベースを用いて関連エンティティやその属性を推論することにより,ユーザからの質問に対して多様なシステム応答を生成すること\cite{han2015exploiting}や,雑談対話において意味のある返答を生成すること\cite{moon2019opendialkg}が主要な目的であり,ユーザ情報の取得のための質問生成については取り組まれていない.また,\citeA{lee2015conversational}は知識グラフのエンティティ間の関係を話題とみなし,話題どうしの関連の強さを大規模テキストWikipediaに基づき学習し,話題のベクトル表現(本研究では「話題埋め込み表現」と呼ぶ.)を作成している.そして,この話題埋め込み表現を用いて関連話題の選択を行うことを提案している.しかし,話題埋め込み表現を利用し関連話題を選択しても,その話題についての情報が大規模知識に登録されていなければ,応答生成ができないという問題がある.この問題を解決するために,本研究では,知識グラフのベクトル表現(本研究では「知識グラフ埋め込み表現」と呼ぶ.)を利用して,欠損した知識を補完(この手続きを本研究では「知識グラフ補完」と呼ぶ.)したうえで,関連話題を用いた質問を生成する手法を提案する.以上の議論から,本研究では,話題埋め込み表現を用いて関連話題を選択し,知識グラフ埋め込み表現を用いて知識補完を行いながら,大規模知識グラフに基づき,質問を生成することができるインタビュー対話システムを提案・実装することを目的とする.これにより,対話の中で言及される料理について多様な話題を展開しつつ,料理に関するユーザの嗜好を聞き出すための質問生成を実現する.さらに,実装したシステムを用いたユーザスタディを実施し,本研究で提案する質問生成手法の有用性を検証する.本研究の貢献を以下に示す.\noindent(1)話題埋め込み表現を用いて関連話題を選択し,知識グラフ埋め込み表現を用いて欠損している知識の補完を行うことで,多様なバリエーションの関連話題を選択し,それらについての質問を生成する手法を提案する.\noindent(2)上記(1)の提案手法を料理に関するドメインに適用し,提案手法による質問生成機能を搭載した対話システムを実装する.また,実装した対話システムを用いてユーザスタディを実施し,対話文脈の継続効果があることを示すとともに,提案手法により生成された質問の質を調査する.さらに,対話破綻が一定以下に抑えられた場合には,被験者の主観評価において話題の多様性や文脈の継続性が印象付けられることを示す.本論文は,以下のように構成される.\ref{sec:related_works}章では,関連研究について述べ,\ref{sec:tk_embed}章では大規模知識を用いた関連話題の決定と知識補完による質問生成について述べる.\ref{sec:SDS}章では,実装した対話システムについて説明し,\ref{sec:exp_results}章では,評価実験について述べ,質問生成性能について\ref{sec:eval_questions}章,対話生成性能について\ref{sec:eval_dialogues}章で述べる.最後に\ref{sec:conclusion}章では,本研究のまとめと今後の課題を述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} \label{sec:related_works}ある目的のためにユーザから情報を聞き出す対話としてインタビュー対話がある.例えば,世論調査\cite{johnston2013spoken}や授業評価\cite{stent2006dialog}を目的とした対話システムが開発されている.これらの対話システムでは,ユーザから収集するべき項目に従い,システムがあらかじめ決められた質問をし,ユーザから肯定・否定,あるいは5段階評価といった限定的な回答を得る,一問一答に近い対話を行っている.ユーザが言及した単語について,さらに詳しく尋ねることを目的とした質問生成の研究も行われている.%%%%\citeA{井上昂治2018自律型アンドロイド}はユーザ発話中のキーワードを抽出し,井上他\citeyear{井上昂治2018自律型アンドロイド}はユーザ発話中のキーワードを抽出し,テンプレート「今おっしゃった(キーワード)について,もう少し詳しく説明してください」にキーワードを埋め込み,掘り下げ質問をしている.また,疑問詞を用いた質問の生成手法として,名詞と疑問詞のN-gramを用いた方式\cite{milhorat2019conversational}や,動詞の格フレームを利用した研究がある\cite{古川智雅2018格フレームを用いた質問生成によって深掘りを行う対話システム,下岡和也2017音声対話ロボットのための傾聴システムの開発}.さらに,\citeA{片山太一2018相手の発話を深掘りするための質問生成技術}は機械学習を用いてTwitterのつぶやきから質問を生成する方法を提案している.本研究では,疑問詞を用いた質問生成機構をシステムの基本機能として実装するが,これに加えて,大規模知識を用いた質問生成手法を提案する.また,システムの質問の仕方や質問内容によって,ユーザから得られる情報が影響されることが報告されている\cite{pappu2014knowledge}.\citeA{hirano2016analyzing}は,人対人のテキストベースのチャット実験を行い,相手の発話に関連した話題選択が対話へのユーザ満足度に寄与することを報告している.このように,ユーザ応答に応じて適切に関連話題の提供や質問の変更をすることが,会話を続けることに役立ち,そして好みや嗜好といったユーザ情報を引き出すことに貢献すると考える.このような対話システムを実現するには,幅広い対象に対して,適切な話題を提供することが重要となる.非タスク指向型対話システムにおける話題の提供や応答生成として,Twitterデータを用いた応答生成\cite{稲葉通将2014twitter,higashinaka2016syntactic}や,単語分散表現を用いた話題の提供\cite{中野哲寛2015雑談対話システムにおける単語分散表現を用いた話題展開手法,mikami2018topic}が提案されている.これらの研究は様々な話題を提供するという点において,本研究と関連するが,大規模知識を用いて関連話題を選択する方法ではない点,また,質問生成を目的としていない点において本研究とは手法も目的も異なる.次に,大規模知識ベースを情報源とした応答生成に関する研究について述べる.\citeA{han2015exploiting}は大規模知識ベースFreebaseを用いて,知識ベース中に存在する対象と関連のある知識を用いて応答生成を行っている.また,\citeA{lee2015conversational}はWikipediaとFreebaseを用いて,ユーザの質問に対して関連した回答をするシステムを作成している.例えば,ビル・ゲイツの両親に関する話題から,関連話題として,ビル・ゲイツの子供へと話題を遷移する.彼らは,Wikipedia記事から複数のFreebaseの述語(親や子供のように,対象間の関係を表す)を抽出し,抽出した述語の並びをSkip-gramにより学習することにより,話題(述語)どうしの近さを表現する埋め込み表現を作成している.本研究では,\citeA{lee2015conversational}の方式を参考に話題の埋め込み表現の作成を行うが,これに加え,選択した関連話題についての知識が大規模知識に存在しない場合には,知識グラフ埋め込み表現を用いた知識グラフ補完\cite{bordes2013translating,藤岡勇真2018対話システムにおける知識グラフの埋め込み表現を用いた応答生成の試み}を用いて解決する.話題埋め込み表現による関連話題選択や,知識グラフ補完について,それぞれ手法は提案されているが,本研究の目的は,これらを統合することにより,多様な話題について質問生成する手法を提案することである.一方,料理に関連した研究では,近年,楽天レシピ\footnote{楽天レシピ:\url{https://recipe.rakuten.co.jp/}}やクックパッド\footnote{クックパッド:\url{https://cookpad.com/}}のようなユーザ投稿型の料理レシピサイトが普及し,大規模なレシピの情報を利用して,%%%%料理に対する味の推定\cite{松長大樹2014料理画像及び素材一覧に基づく料理の味推定に関する検討},料理に対する味の推定(松長他2015)\nocite{松長大樹2014料理画像及び素材一覧に基づく料理の味推定に関する検討},%%%%オノマトペを含む食味表現推定\cite{松長大樹2015料理画像及び素材一覧に基づく料理の食味表現推定},オノマトペを含む食味表現推定(松長他2015)\nocite{松長大樹2015料理画像及び素材一覧に基づく料理の食味表現推定},オノマトペによるレシピ検索\cite{渡辺知恵美2015オノマトペロリ}などの研究が行われている.また,ユーザの嗜好を推定し,ユーザに料理,レストラン,レシピなどを推薦する研究も行われている\cite{trattner2017food}.推薦によく用いられるアルゴリズムとして,内容ベースと協調フィルタリングがある.内容ベースの方式では,ユーザがレシピにつけた評価に基づき,そのレシピの材料にスコアを付与し,さらに材料のスコアを用いて未評価のレシピについても評価値を求め,推薦を行う\cite{freyne2010intelligent}.協調フィルタリングでは,アイテムへの評価の付け方,つまり嗜好が自身と似ているユーザを見つけ,そのユーザが好むアイテムを推薦する推薦方式である.しかし,これらのアルゴリズムを用いた料理推薦システムの問題点として,多数のアイテム(料理やレシピ等)に関してユーザに評価してもらう必要があり,それが容易ではないという点がある\cite{trattner2017food}.そこで,ユーザとのインタラクションの中で,料理についての嗜好や評価を含むユーザ情報を収集する技術として,本研究で提案する質問方式は役立つと考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{大規模知識を用いた関連話題の決定と知識グラフ補完による質問生成} \label{sec:tk_embed}本章では,はじめに,本研究で用いる大規模知識Freebaseについて述べ,続いて話題埋め込み表現と知識グラフ埋め込み表現の作成について述べる.最後に,質問生成における話題埋め込み表現と知識グラフ埋め込み表現の利用について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{大規模知識Freebase}\label{subsec:freebase}FreebaseはMetaweb社発のオープンな知識データベースであり,Freebaseにおける知識は,RDF(TheResourceDescriptionFramework)という構造化されたデータ形式をとり,主語(Subject,以降Sと呼ぶ),述語(Predicate,以降Pと呼ぶ),目的語(Object,以降Oと呼ぶ)というトリプル構造からなる.Freebaseは19億トリプルもの知識を持ち,多くの要素はhttp://rdf.freebase.com/ns/m.abc123(あるいは一部省略し,m.abc123)のようなURIの形式で表される\cite{chah2017freebase}.ある対象についての知識例として,「カルボナーラ」の知識トリプルの一部を表\ref{tab:triple_exp}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{12table01.tex}\caption{「カルボナーラ」が持つ知識トリプル例}\label{tab:triple_exp}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%Freebase上ではカルボナーラのエンティティには,ユニークな識別子(machineidentifier,mid)として「m.0273gv」が与えられている.ここでカルボナーラ識別子をSとした場合,このSが複数の述語Pを持ち,それぞれの目的語Oとして文字列や,数値,別の識別子を持つ.例えば,カルボナーラのPであるfood.dish.ingredientsのOを参照すると,材料の1つである「パルミジャーノ・レッジャーノ」を示す識別子m.01sbt1が得られる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{28-2ia12f1.pdf}\end{center}\caption{「カルボナーラ」記事からの述語(P)抽出例}\label{fig:Extract_p}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{話題埋め込み表現と知識グラフ埋め込み表現の作成}\label{subsec:generate_p_embed_k_embed}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{Wikipediaによる話題埋め込み表現の作成}\label{subsubsec:wiki_p_embed}関連性の高い話題を選択するために,話題の近さを扱うベクトル空間を作成する.本研究では,Freebaseの材料やジャンルなどを示す述語Pを話題とする.そして\citeA{lee2015conversational}の手法に基づき,Wikipedia文書中から,記事名の単語(e.g.カルボナーラ)をSとした場合の述語Pを抽出し,その並びを話題の流れと見なし,Skip-gramで学習を行うことで話題の近さを表すベクトル空間を作成する.以下の手順(a),(b)に詳細を示す.\noindent\underline{\textbf{(a)Wikipedia記事から述語の並びを抽出}}:まず,Wikipedia記事から述語の抽出を行う.図\ref{fig:Extract_p}に「カルボナーラ」記事からの述語抽出例を示す.「カルボナーラ」記事タイトルをSとし,Freebaseにおいてこれとの間にPリンクが定義されているエンティティ(O)を本文中から抽出する.例えば,本文中のエンティティ「グアンチャーレ」,「パンチェッタ」をOとした時に,Pとして,材料を示すfood.dish.ingredientsが得られ,「ローマ」をOとした時には,Pとしてジャンルを示すfood.dish.cuisineが得られる.これら抽出されたPの並びを,記事ごとに作成する.なお,Pの抽出は,Wikipedia英語版の料理に関係する記事を対象とする.その理由は,日本語版に比べ英語版の方が記事の内容が詳細であったからである.Wikipedia記事が料理に関係するかどうかの判定には,Wikipedia記事に記載されたカテゴリを使用する.手順としては,日本語語彙体系\cite{池原悟1997日本語語彙大系}において,食料カテゴリの下位カテゴリである食品,料理,嗜好品に分類される単語を人手で英単語に翻訳し,それらがWikipedia記事のカテゴリ記述中に含まれていれば料理に関係する記事とみなす.表\ref{tab:detail_extracted_p}に料理に関するWikipedia記事と得られた述語(P)の詳細を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{12table02.tex}\caption{料理に関係するWikipedia記事と得られた述語(P)の詳細.()内の数値は標準偏差を示す.}\label{tab:detail_extracted_p}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\underline{\textbf{(b)Skip-gramによる話題埋め込み表現の作成}}:(a)で得た料理記事ごとに抽出したPの並びを話題の系列と見なし,Skip-gramを用いて学習を行う\cite{mikolov2013distributed}.Skip-gramはPの並びに対して,あるPとその周辺のPの出現確率を高めるよう学習する.その結果として,話題間の近さをPのベクトル間の距離として計算することができる.本研究では,このベクトル空間を以降,「話題埋め込み表現」と呼ぶ.Skip-gramを用いた学習として,ライブラリのGensim\footnote{Gensim:\url{https://radimrehurek.com/gensim/}(version3.4.0)}を利用し,window幅は5とし,各話題(P)を100次元で表現するモデルの学習を行った.表\ref{tab:p_neighbors}に学習した話題埋め込み表現において,材料を示すP:food.dish.ingredientsの最近傍5つのPを示す.P:food.dish.ingredientsの最近傍として,料理のジャンルを示すfood.dish.cuisineが出現している.続いて料理のタイプを示すfood.dish.type\_of\_dish1が現われている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[b]\input{12table03.tex}\caption{話題埋め込み表現におけるP:food.dish.ingredientsの最近傍述語上位5つ}\label{tab:p_neighbors}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{話題埋め込み表現を用いた関連話題の選択}\label{subsubsec:select_relate_p}上記の話題埋め込み表現により,現在の話題であるPに関連する話題(P'と表記)を選択することができるようになる.例えば,「カルボナーラ」について図\ref{fig:Relate_p}のような話題遷移が可能となる.はじめに,カルボナーラをSとしたトリプルから,赤線で示した材料を示すP:food.dish.ingredientsとその目的語Oのパンチェッタを用いて質問したとする.その後,この話題に関連した話題を提供する際に,P:food.dish.ingredientsに近い話題P'を話題埋め込み表現により取得する.ここで表\ref{tab:p_neighbors}に示すように話題food.dish.ingredientsと最も近い話題としてP':food.dish.cuisineが選択される.その結果,図\ref{fig:Relate_p}の破線で示される,カルボナーラをS,food.dish.cuisineをP',イタリア料理をOとするトリプルを用いて,システムの次の質問を現在の話題と関連付けたものにすることが可能になる.質問生成方法については,後に\ref{subsec:qg_using_p_embed_k_embed}節で説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{28-2ia12f2.pdf}\end{center}\caption{話題埋め込み表現を利用した「カルボナーラ」についての話題遷移例}\label{fig:Relate_p}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{知識グラフ埋め込み表現を用いた知識グラフ補完}\ref{subsubsec:select_relate_p}節では話題埋め込み表現を用いた話題遷移について述べた.しかし,話題埋め込み表現のベクトル空間中で近傍として選ばれた述語P'を持つ知識トリプルがFreebase中に必ずしも存在するわけではないという問題が存在する.例えば,Freebaseにおいて,「餃子」というエンティティは,Pとしてfood.dish.cuisineを持つ.このPから,話題埋め込み表現において距離の近い関連話題として,P':food.dish.ingredientsを選んだところ,餃子をS,food.dish.ingredientsをP'とする知識トリプルは存在せず,その目的語(O)を得ることはできず,知識トリプルの利用を前提とした質問生成ができない.このような知識グラフの問題に対して,知識グラフのベクトル表現である知識グラフ埋め込み表現を利用し,明示的に与えられていないノードやリンクについて予測・補完を行う技術として知識グラフ補完(Knowledgegraphcompletion)がある.本研究では知識グラフ埋め込み表現のモデルの1つとして,TransE\cite{bordes2013translating}を用いる.TransEはトリプル構造の知識について,S,Oをベクトル空間上の点とし,それを結ぶPをベクトルとし,以下の式を満たすようにトリプル構造を空間に配置する.\pagebreak\[S+P\approxO\]これを用いることにより,所望のOが知識トリプルに存在しなくても,SとPを用いたベクトル演算により空間上での予測が可能となる.\noindent以下にTransEを用いた知識グラフ埋め込み表現の作成方法を説明する.\noindent\underline{\textbf{(i)食に関する知識トリプルの抽出}}:TransEの学習データとして,食に関する知識トリプルをFreebaseより抽出した.そのために,エンティティのカテゴリやタイプを表すP:type.object.typeに着目し,このリンクのOが料理や材料など食についての分類を示すfood.foodであるとき,そのSを取得した.つまりP:type.object.type,O:food.foodを持つエンティティ(S)を食に関連したエンティティとした.次に,このようなエンティティをSまたはOに持つすべての知識トリプルを収集した.その結果,食に関する知識トリプル数は267,019,エンティティ種類数(S,O)は127,214,P種類数は764となり,これらを学習データとした.\noindent\underline{\textbf{(ii)TransEを用いた知識グラフ埋め込み表現の作成}}:TransEの学習には,知識グラフ埋め込み表現の学習用ライブラリOpenKE\cite{han2018openke}を使用し,次元数100で学習した.また,学習された知識グラフ埋め込み表現において,学習されたパラメータを使いベクトル演算を行うと,1つの予測に30秒程度かかるため,特徴空間内での超平面による空間分割に相当する近似最近傍探索(Approximatenearestneighbor)を用いて計算を高速化した.これには近似最近傍探索を実装したライブラリAnnoy\footnote{Annoy:\url{https://github.com/spotify/annoy}(version1.15.0)}を用いた.これにより,演算処理時間は0.1秒以下に高速化することができた.以上の手順でFreebaseに存在しないトリプルについて補完を可能にした.例えば,「餃子」をSとした場合,P':food.dish.ingredientsの対象となるOが存在しない問題について,TransEによるOの予測結果を表\ref{tab:predict_o}に示す.値が小さいほど類似度が高いことを示す.表に示されるように,穀粉,ネギ,食肉など,餃子の材料と考えられるものが類似度において上位に予測されている.以上,現在の話題対象である料理や材料をSとし,話題埋め込み表現を用いてにこれに関連した話題(P')を選択することができ,さらに,選択されたP'においてその対象となるOが存在しない場合には,知識グラフ埋め込み表現を用いてOとなる対象を予測・補完することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{12table04.tex}\hangcaption{TransEによるS:餃子P':food.dish.ingredientsからのOの予測(類似度:$\sqrt{2-2*cos(v,e)}$,$v$:演算により得られた予測ベクトル,$e$:エンティティベクトル)}\label{tab:predict_o}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{話題埋め込み表現と知識グラフ埋め込み表現を用いた関連質問の生成(質問方式Rel)}\label{subsec:qg_using_p_embed_k_embed}本節では,前節までに作成した,話題埋め込み表現と知識グラフ埋め込み表現を利用した知識グラフ補完を組み合わせた関連質問(質問方式Rel)の生成方法について説明する.話題埋め込み表現と知識グラフ埋め込み表現を用い,図\ref{fig:Q3_b}に示す手順により,関連質問を生成する.はじめに,話題の遷移元として直近で使用した料理エンティティSと直近で使用したPをシステム内部状態(\ref{subsec:internal_state}節で後述)から取得する.そして,直近のPに関連する話題P'として,話題埋め込み表現における直近のPベクトルから$cos$類似度を用いて,最近傍のPを指定数取得する\footnote{$cos$類似度へのしきい値を設けた取得制限は行っていない.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{28-2ia12f3.pdf}\end{center}\caption{話題埋め込み表現と知識グラフ埋め込み表現を用いた関連質問の生成プロセス}\label{fig:Q3_b}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%さらに,これら複数の近傍P'からそれぞれに対応するOを取得し,これらSP'Oを質問トリプルの候補とする.Oは原則Freebaseから取得するが,Freebaseに存在しなければ,知識グラフ埋め込み表現を用いて予測する.得られた質問トリプル候補の中からランダムに1つ選択し,述語Pごとに用意した質問文テンプレートを使い,質問文を生成する.質問文テンプレートの例を表\ref{tab:p_templates}に示す.Freebaseの料理や材料の知識,話題埋め込み表現に出現しやすい25種類のPについて各1$\sim$2パターンのテンプレートを作成した.実装では近傍P'の取得数は10,知識グラフ補完により1組のS,PからOのベクトルを予測し,このOのベクトルから最近傍エンティティを3つ取得し,Oの候補として補完した\footnote{知識グラフ補完の計算に,$v$:予測したOのベクトル,$e$:エンティティベクトルとすると$\sqrt{2-2*cos(v,e)}$を用いた類似度計算を行うが,類似度へのしきい値を設けた取得制限は行っていない.}.テンプレートを用いた質問文生成時に知識グラフ補完を行ったOを用いる時は,「ですが」と言い切らず,「であると予想しますが」などのように不確定な表現にする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{12table05.tex}\hangcaption{述語Pとそれに対応するトリプルを用いた質問テンプレート例.質問文中の表現について複数の候補がある場合に,[]内で候補を\textbarで区切って示している.}\label{tab:p_templates}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{対話システムの実装} \label{sec:SDS}本章では,話題埋め込み表現と知識グラフ埋め込み表現を用いた質問方式を実装した対話システムについて説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{提案手法の概要}図\ref{fig:Dialog_exp}に実行例と用いる質問方式を示す.実行例に示すように,実装した対話システムでは,\ref{sec:tk_embed}章で提案した話題埋め込み表現と知識グラフ埋め込み表現を用いた関連質問(Rel)に加え,文脈初期化質問(Init),疑問詞を用いた質問(WH),Freebaseトリプルを用いた質問(Frb)の3種類の質問方式を追加した.追加した質問方式については\ref{sub:rg}節で説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{28-2ia12f4.pdf}\end{center}\caption{実行例と用いる質問方式}\label{fig:Dialog_exp}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%会話は,文脈初期化質問Init(例.図\ref{fig:Dialog_exp}【実行例】のS1:好きな食べ物は何ですか?)から開始される.この質問により,最初の話題となる料理名や材料名をユーザから聞き出す.システムは,ユーザ応答から得られた料理名または材料名に対応するエンティティ(以後,キーエンティティと呼ぶ)を抽出し,これらに関連した質問を生成する.そしてそれに対してユーザが回答する.したがって,会話はシステム主導で進行する.図\ref{fig:Dialog_exp}の実行例では,U1中の「カレーライス」がキーエンティティとして認識される.S2では,キーエンティティ「カレーライス」について深掘りする狙いで,疑問詞を用いた質問WHを行っている.S3,S4は知識を用いた質問である.S3では,「カレーライス」(S)のP:ジャンルが日本料理である,という知識をFreebase中のトリプルから得ることにより,質問を行っている(Frb).S4では,一つ前のS3で提供した話題(P:ジャンル)に関連する話題として,話題埋め込み表現を用いて,P':材料の話題が選択されている.ここで,カレーライスの材料についての知識がFreebaseには存在しないという問題が生じる.このように,Freebaseにおいて知識が欠落している場合には,\ref{subsec:qg_using_p_embed_k_embed}節の手法を使い,知識グラフ埋め込み表現により,知識を補完した上でS4が生成される(Rel).図\ref{fig:Architexture}にシステム構成図を示す.主要なモジュールとして,入力理解部,質問方式決定部,質問生成部,内部状態を持つ.おおまかには,まず,ユーザ入力文が入力理解部で処理され,キーエンティティが得られると,質問方式決定部では,そのキーエンティティについて,質問方式セット(例:Init,WH,Frb,Rel)の中から質問方式が決定され,質問生成部で決定した質問方式を用いて質問が生成される,という流れになる.以下では各モジュールについて説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{28-2ia12f5.pdf}\end{center}\caption{システム構成図}\label{fig:Architexture}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{入力理解部}\label{subsec:LU}本システムはFreebaseに存在する料理や材料のエンティティを起点に,質問を生成する.そのため,入力理解部では,料理または材料のエンティティをキーエンティティとして,ユーザ入力文から1つ抽出する.具体的には,料理エンティティはFreebaseより,P:type.object.type,O:food.dishを持つエンティティ(S)とし,材料エンティティはP:type.object.type,O:food.ingredientを持つエンティティ(S)とし,各エンティティの日本語ラベル\footnote{日本語ラベルを持つエンティティに対し,表記揺れに対処するため日本語ラベルを拡張した.例えば,エンティティの日本語ラベル「焼肉」について,ラベル「焼き肉」,「やきにく」を追加した.}に該当するものをユーザ入力文より取得する\footnote{入力文中に複数のキーエンティティが含まれる場合,料理エンティティを優先し,ランダムに1つ選択する.}.また,入力理解部では,対話をスムーズに継続することが困難な状態である対話破綻\linebreak\cite{martinovsky2006error,higashinaka2015towards}を検知するために,不明や否定を表す表現リストをあらかじめ作成し,ユーザ発話中にこれらの表現が含まれていれば対話破綻とみなし,質問方式決定部に伝え,新たな料理名や材料名を聞き出す文脈初期化質問Initを生成する.具体例として,システムは次のような場合に対話破綻と判断した:システムの質問に対し,システム発話への理解不能を表す「わかりません」が入力された場合\footnote{Freebaseのエンティティの中にはフィッシュケーキやクワハーダといった一般的に知られていない単語も存在する.このようななじみのないエンティティを用いたシステム発話に対してユーザが不明を表明し,対話破綻を招く可能性が高い.これを回避するために,日本語Wikipediaにて出現頻度が40未満である単語(エンティティ)は質問生成から除外することとした.},システム発話への否定(例えば,「〇〇は好きですか?」という質問についてユーザが「〇〇は嫌いです」と回答)が入力された場合,予測補完した知識が正しくないとユーザが判断した場合(例えば,システム発話「ラーメンの材料にジャガイモが使われていると予想しますが…」といった知識の予想による発話に対し,「ジャガイモは使われていません」と異議を示す).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{内部状態}\label{subsec:internal_state}内部状態では,以下の3種類の履歴が管理・更新される.\noindent\underline{\textbf{キーエンティティ履歴}}:ユーザ入力文から抽出した最新のキーエンティティを保持する.また,適用した質問方式を適用済み質問方式セットに保持する.\noindent\underline{\textbf{料理エンティティ履歴}}:入力理解部で抽出したキーエンティティの中で,料理エンティティであるもののみを保持する.直近の料理エンティティをSとして使用し,質問を生成する質問方式がFrbかRelの場合に,この履歴を参照する.\noindent\underline{\textbf{質問トリプル履歴}}:質問方式Frb,Relにおいて使用したトリプルを保持する.このトリプル履歴から直近のPを参照し,関連話題の遷移元として質問方式Relで使用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{質問方式決定部}\label{subsec:decide_method}質問方式決定部では,入力理解部から送信される情報と内部状態の情報を参照し,採用する質問方式を決定する.具体的には,システムが認識した最新のキーエンティティに対し,あらかじめ設定された質問方式セット\footnote{本研究では,評価実験(\ref{sec:exp_results}章)において,実験条件によって設定する質問方式セットを変更した.}に含まれる質問方式を1度ずつ適用するという制約の下で,質問方式を1つ選択する.なお,この制約は評価実験(\ref{sec:exp_results}章)において,あるキーエンティティに対して設定された各質問方式の適用回数を均一に設定し,利用可能な質問方式の違いによる効果を検証するためである.%cameraここでは,質問方式セット(Init,WH,Frb,Rel)を例に,Algorithm\ref{alg:q_algo}に質問方式決定アルゴリズムの詳細を示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%algo1\begin{algorithm}[b]\caption{質問方式決定アルゴリズム}\label{alg:q_algo}\input{12algo01.tex}\begin{flushleft}※実験条件ごとに質問方式セットは異なる.\end{flushleft}\end{algorithm}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%入力理解部が対話破綻を検知した場合には,新たなキーエンティティ入力を促す文脈初期化質問Initを適用する(アルゴリズムLine:1$\sim$2).対話破綻ではない場合には,現在のキーエンティティについての未適用の質問方式セットを,文脈初期化質問Initを除いた質問方式セットと最新キーエンティティでの適用済み質問方式セット($\mathcal{M}$)の差分より求める(アルゴリズムLine:4).未適用質問方式セットが空である場合には,現在のキーエンティティについて全ての質問方式を適用した(質問生成に必要な情報の不備により,実際には生成できなかった場合も含む)ことを意味する.この場合,新たなキーエンティティ入力を促す文脈初期化質問Initを適用する(アルゴリズムLine:5$\sim$6).アルゴリズムLine:7$\sim$8では,ユーザの発話したキーエンティティについて,直ちに知識を用いた質問方式を用いるのではなく,キーエンティティそのものへの深堀り質問として質問方式WHを優先的に適用する.上記いずれの場合にも当てはまらない場合には,未適用質問方式セットのうちランダムに1つ選択する(アルゴリズムLine:10).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{質問生成部}\label{sub:rg}質問方式決定部により決定された方式を用いて質問文を生成する.ここでは,\ref{sec:tk_embed}章で述べた方式以外の既存技術による3種類の質問方式についてのみ説明する.\noindent\textbf{■文脈初期化質問(質問方式Init)}あらたなキーエンティティを得るための5種類の文脈初期化質問テンプレートの中からランダムに選択する.例えば,「最近何を食べましたか?」「好きな食べ物はなんですか?」などがある.\noindent\textbf{■疑問詞を用いた質問(質問方式WH)}キーエンティティについて,具体的にユーザの好みやこだわりを引き出す狙いで,疑問詞「どんな」を用いたテンプレート「どんな+\$キーエンティティ+が好きですか?」の\$部分にキーエンティティの語を代入して質問文を生成する.\noindent\textbf{■Freebaseトリプルを用いた質問(質問方式Frb)}Freebaseトリプルを用いた質問(Frb)は,Freebaseに存在するキーエンティティをSとする質問生成可能なトリプルからランダムに1つ取得し,ジャンルや材料などを示す述語Pを話題とみなし,テンプレートに適用することにより質問文を生成する.これはFreebaseを用いた最もシンプルな質問文生成であり,すでに\citeA{han2015exploiting}によって提案・実装されている手法である.質問生成のテンプレートは\ref{subsec:qg_using_p_embed_k_embed}節で提案した表\ref{tab:p_templates}のテンプレートを用いる.例えばS:カルボナーラ,P:food.dish.cuisine,O:イタリア料理,のトリプルに対し,P:food.dish.cuisineの1つめの質問文テンプレートを適用すると,「カルボナーラのジャンルはイタリア料理ですが、イタリア料理で好きな料理は何ですか?」という質問文が生成される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{ユーザスタディの実施} \label{sec:exp_results}\ref{sec:tk_embed}章で質問生成手法を提案し,\ref{sec:SDS}章では,それを実装した対話システムを構築した.本章では,対話システムにおける本手法の有用性を検証することを目的とし,評価実験を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験の概要}話題埋め込み表現と知識グラフ補完を組み合わせた質問生成手法が対話システムにおいてどのような効果を持つのかを検証するために,被験者にシステムとの対話を行ってもらうユーザスタディを実施した.話題埋め込み表現の利用の有無や知識グラフ補完の有無により,利用可能な質問生成手法の異なる3つの条件を設定し(\ref{subsec:syscond}節),各被験者が3つの条件全てを実施する被験者内実験デザインを採用した.また,評価指標として,1:提案手法による質問の妥当性,2:対話文脈の継続性に加え,3:アンケートによる被験者の主観評価を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験手法}%旧section:実験の概要実験はWebアプリケーション上で行われ,システム質問に対する応答を入力欄にタイプし,送信ボタンを押すことにより,システムとの会話を行ってもらった.システムと被験者とのやりとりは対話履歴欄に表示される.すべての実験条件でユーザに50回の入力を指示し,ユーザの入力回数が50回に達し,それに続くシステム応答を表示したのち対話は停止し,対話終了ボタンを押すことで対話結果がサーバに送信される.また,各条件の対話終了後,評価アンケートのページにアクセスし,付録表\ref{tab:enquete}に示す20項目からなる5段階リッカート尺度のアンケートに回答するよう求めた.また,自由記述欄も設けた.被験者はクラウドソーシングサイトで募集した48人である.分析対象として,対話終了ボタン押し忘れにより対話履歴結果に不備が生じた1名,対話中に同一の回答を30回以上繰り返した被験者1名のデータを除いた46人のデータを使用した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験条件}\label{subsec:syscond}各被験者には以下に示す3つの実験条件(BL,TE,TE+KE)の全てを実施してもらい,条件の順序はランダムに決定した.表\ref{tab:q_set}は各実験条件でシステムが生成可能な質問方式セットを示している.この質問方式セットに含まれる各質問方式を,直近のユーザ入力文より得られたキーエンティティに対し,1度ずつ適用するよう質問方式決定アルゴリズム(\ref{subsec:decide_method}節)を設計した.この設計は同一の質問方式による質問の繰り返しを避け,あるキーエンティティに対して設定された各質問方式の適用回数を均一にするためのものである.ただし,条件BLは,他の2条件よりも生成可能な質問方式が1種類少ないため,Frb質問を2回適用することにより,質問方式適用回数を全条件で統一した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{12table06.tex}\hangcaption{各実験条件と質問方式セット.※TE,TE+KEと質問方式適用回数を統一するため,Frbを2回適用する.}\label{tab:q_set}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\noindent\textbf{■ベースライン(Baseline:BL)}インタビューシステムの基本機能として,Init,WH,Frbの質問方式のみを生成できるシステムを実装し,これをベースライン条件とする.したがって,この条件では,話題埋め込み表現と知識グラフ埋め込み表現を用いた関連質問(Rel)は行わず,大規模知識の利用については,Freebaseのトリプルを使った質問(Frb)のみが可能となる.\noindent\textbf{■話題埋め込み表現(Topic-Embedding:TE)}条件BLで利用可能な3種類の質問方式に加え,Freebaseに存在する知識の範囲内で話題埋め込み表現による関連質問Relを生成する.これは,\citeA{lee2015conversational}の手法に相当する,つまり,この条件では,知識グラフ埋め込み表現を用いた知識グラフ補完は行わず,話題埋め込み表現により選択された関連話題に関してFreebase中に知識が存在しなければ,その関連質問は生成しない.\noindent\textbf{■話題埋め込み表現+知識グラフ埋め込み表現\\(Topic-Embedding+Knowledge-Graph-Embedding:TE+KE)}条件BLで利用可能な3種類の質問方式に加え,知識グラフ補完を行いながら話題埋め込み表現による関連質問Relを行う.つまり,本条件が提案手法を実装したシステムである.条件TEでは,話題埋め込み表現による関連話題はFreebaseに存在する知識のみに限られるが,条件TE+KEでは選択する関連話題に関する知識が欠損していれば,知識グラフ補完を行う.条件TEと条件TE+KEを比較することにより,話題埋め込み表現による関連質問Relにおける知識グラフ補完の効果を検証することができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連質問(Rel)の質問生成性能評価} \label{sec:eval_questions}本章では,提案手法である関連質問(Rel)について,話題埋め込み表現から選択された関連話題についての知識がFreebaseに存在しない場合に,知識グラフ補完を行うことで,質問候補の作成可能率が向上し,話題のバリエーションが増えることを評価実験の結果から確認する.また,知識グラフ補完により得た知識トリプルの適切性,質問文の回答性の評価を行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{関連質問(Rel)の質問候補作成可能率と話題のバリエーションの比較}\label{subsec:s_rate_variation}はじめに,関連質問(Rel)について,話題埋め込み表現により選択された関連話題を用いて質問候補となりうるものを作成できた割合として質問候補作成可能率を算出した.また質問候補作成可能である時に提供可能な話題の種類数を算出した.Rel質問の質問候補作成可能率は以下の式により算出した.\[Rel質問の質問候補作成可能率=\frac{Rel質問の質問候補作成可能回数}{Rel質問の適用回数}\]Rel質問の質問候補作成可能回数は,直近の料理エンティティSと話題埋め込み表現により選択した10個の近傍話題P'を組み合わせ(\ref{subsec:qg_using_p_embed_k_embed}節),それぞれに対応するOを取得し,利用可能なSPOトリプル候補数を求め\footnote{対話システムの制約として,利用可能なSPOトリプルは以下の条件を満たすものとした.エンティティOが日本語ラベルを持ち,そのラベルが一般ユーザにとってなじみのない単語ではなく(\ref{subsec:LU}節),選択した関連話題P'の生成文テンプレートが存在し,これまでの対話に同じトリプルを用いた質問を行っていない.},その候補数が1以上であれば質問候補作成可能とみなし,その回数を表す.Rel質問を備える条件TE,TE+KEのRel質問の質問候補作成可能率の平均値を表\ref{tab:success_rate}に示す.知識グラフ補完を行わない条件TEでは,Rel質問の質問候補作成可能率は0.18であるが,補完を行うことで条件TE+KEでは,Rel質問の質問候補作成可能率は0.81に向上した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[b]\input{12table07.tex}\caption{Rel質問の質問候補作成可能率}\label{tab:success_rate}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,1回のRel質問候補作成可能時に提供可能な話題Pの種類数(最大10話題)の平均を算出した.その結果,条件TEは1.13であるのに対し,条件TE+KEでは4.56であり,提供可能な話題の種類数も増加することが確認された.次に,各条件において,知識を用いた質問が生成された回数と話題のバリエーションを算出した.知識を用いた質問の回数は,1対話当たりのFrbとRel質問の合計回数と定義した.話題のバリエーションは,各対話においてFrbもしくはRel質問の生成に用いられたPの種類数とした.どちらも対応のあるデータであり,かつ3群間で等分散性があるため,統計検定にはTukey-Kramer法を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.6and7\begin{figure}[t]\begin{minipage}{207pt}\begin{center}\includegraphics{28-2ia12f6.pdf}\end{center}\caption{知識を用いた質問の回数$(\astp<.05\;\ast\astp<.01)$}\label{fig:Spo_count}\end{minipage}\hfill\begin{minipage}{193pt}\begin{center}\includegraphics{28-2ia12f7.pdf}\end{center}\caption{話題のバリエーション$(\ast\astp<.01)$}\label{fig:P_set_len}\end{minipage}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:Spo_count}に知識を用いた質問の回数の平均を示す.条件TE+KEが条件BL,TEより有意に回数が多かった($p<.01,p<.01$)\footnote{条件TEが条件BLより知識を用いた質問の回数が有意に少ない理由として,Frb質問はユーザの言及するキーエンティティをSとし,Freebaseに存在するトリプル(質問候補)から1つ選択して質問生成するのに対し,条件TEのRel質問(知識グラフ補完なし)では,話題埋め込み表現を用いて関連話題としてPを10個(実験設定)選択し,それらのトリプルを得て,その中からランダムに1つトリプルを選び,質問生成を行うが,Freebaseに定義されているトリプル数が少ないため,関連話題を選択しても,そのトリプルを取得することができず,多くの場合Rel質問候補の作成に失敗する.そのため,質問候補の作成可能率の高いFrbのみを用いる条件BLの方が結果的に質問回数が多くなったと考えられる.}.同様に,図\ref{fig:P_set_len}の話題のバリエーションにおいても,条件TE+KEが条件BL,TEより有意に多かった($p<.01,p<.01$).以上,知識グラフ補完により,関連話題を用いた質問の質問候補作成可能率が大きく改善したことで,提案システムは知識を用いた質問をより多く生成でき,また話題のバリエーションもより豊富になっていることを確認した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{知識グラフ補完と関連質問(Rel)の評価}\label{sub:eval_rel_q}本節では,関連質問Relの中でも,特に知識グラフ補完を利用して生成された質問の質を評価するために,質問生成に用いた知識トリプル(S,P,O)の適切性と生成された質問文への回答性を調査した.評価対照データとして以下の2つの質問サンプルを作成した.\textbf{知識グラフ補完により得られた知識トリプルから生成された質問サンプル:}条件TE+KEにて知識グラフ補完を適用して生成されたRel質問100個.\textbf{Freebaseに存在する知識トリプルから生成された質問サンプル:}Freebaseに存在する知識トリプルを用いて生成されたFrb,Rel(知識グラフ補完なし)質問134個.これはすべての実験条件からサンプリングした.上記の2つの質問サンプル群について,知識トリプルの適切性と質問文の回答性の評価を行った.これら相互の影響を避けるために,2つの評価作業は独立して行った.また,この評価は\ref{sec:exp_results}章のユーザスタディに関わっていない評価者2名で行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{評価1:知識グラフ補完により得られた知識トリプルの適切性}\label{subsub:eval_triple}評価者は,知識トリプルの適切性として,あるSが与えられた場合のPとO,それぞれの適切性を評価した.Sは対話中にユーザが言及したキーエンティティである.OはSとPに対応する目的語であり,Freebase中のエンティティである場合と,知識グラフ補完により補完したエンティティである場合がある.Pの適切性は,対象(S)に対しての話題(P)として適切であるか(〇),不適切とは言えないがやや違和感を感じるか(△),あるいは不適切だと感じるか(×)で評価してもらった.また,Oの適切性は,対象(S)と話題(P)を考慮した上で,目的語(O)が適切か(○),不適切とは言えないがやや違和感を感じるか(△),不適切だと感じるか(×)を評価してもらった(付録\ref{appendix_detail_eval_triple}).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[b]\input{12table08.tex}\hangcaption{知識トリプルの適切性.()内の数値は2名の評価者から得られた評価の総数を示す.したがって,両者の評価が一致しない場合もそれぞれの評価をカウントした.}\label{tab:test_eval_po_result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:test_eval_po_result}に知識トリプルの適切性の評価結果を示す.まず,Pの適切性については,○と△を合わせて許容できる,ラベル×を許容できない,の2つに分類した場合,Freebaseに存在する知識トリプルでは,許容できるとした評価の割合が96.6\%,知識グラフ補完により得られた知識トリプルでは,許容できるとした評価の割合が87.5\%であった.知識グラフ補完により得られた知識トリプル中のPは全てRel質問の話題埋め込み表現から選択されたPである.したがって,ユーザが言及したキーエンティティ(S)に対し,知識グラフ補完によるRel質問の話題埋め込み表現から選択された話題(P)について,許容できるという評価が87.5\%であることがわかった.次に,Oの適切性の評価については,Pの適切性の評価に依存するため,Pの適切性において評価者の一方が許容できない(Pの評価が×)と評価したものを排除した.その結果,Freebaseに存在する知識トリプル中のOについて許容できるとした評価の割合は86.2\%だった.一方,知識グラフ補完により得られた知識トリプル中のOの適切性は,許容できるとした評価の割合は19.4\%であった.つまり,Oの補完を適切でないと判断した評価の割合は80.5\%と高いことを示す.例えば,知識グラフ補完を適用した知識トリプルの中で,両評価者がOの適切性に×をつけたものを表\ref{tab:test_complement_o}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{12table09.tex}\hangcaption{両評価者がOの補完を適切でないと判断した知識トリプル例.Pの()内は直前のOが表すエンティティの性質を示し,複数の性質がある場合には,$|$で区切っている.}\label{tab:test_complement_o}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%このように,知識グラフ補完によりOを正しく補完する割合は低いと言わざるを得ず,補完を用いたトリプルから構成する質問文に対する評価にも影響していると考えられる.実装に用いた知識グラフ埋め込み表現のモデルTransEについて欠点が指摘されており,改良したアルゴリズムによるモデルは他に提案されている\cite{trouillon2016complex,nguyen2017overview}.今後,新しいモデルも取り入れながら,知識グラフ補完の精度を向上させることで,不適切な補完を減らすことができると考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{評価2:知識グラフ補完を用いた関連質問(Rel)の回答性}\label{subsub:eval_triple_sysresp}評価者は知識トリプルの適切性(\ref{subsub:eval_triple}節)で使用した同じ質問サンプルの知識トリプルから,対話で実際に生成された質問文を提示し,回答可能であれば○,回答不能ではないがやや違和感を感じる場合は△,回答不能であれば×と評価してもらった.%camera%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[t]\input{12table10.tex}\hangcaption{システム質問文の回答性.()内の数値は2名の評価者から得られた評価の総数を示す.したがって,両者の評価が一致しない場合もそれぞれの評価をカウントした.}\label{tab:test_eval_resp_result}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:test_eval_resp_result}にシステム質問文の回答性の結果を示す.知識トリプルの評価と同じく,○と△を合わせて許容できる,×を許容できないとものして,2つに分類した.Freebaseに存在する知識トリプルから生成された質問では,回答可能(○)である割合が76.9\%であり,△も合わせると許容できる割合は92.9\%に上る.これは知識トリプルの適切性評価から予測できる結果である.一方,知識グラフ補完により得られたトリプルを用いたRel質問では,許容できると判断された割合は65\%であった.\ref{subsub:eval_triple}節で述べたように,補完したOにおいて,適切性が許容範囲であると判断された割合は19.4\%であったにもかかわらず,質問文の回答性についての評価では,許容できるという判断が大幅に増えた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[t]\input{12table11.tex}\caption{Oの補完が不適切でありながら,質問文の回答性は許容できると判断された例}%\label{tab:test_eval_combine_kgresp}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:test_eval_combine_kgresp}に補完したOの適切性については許容できないが,質問の回答性評価では許容できると判断された例を示す.具体的には,知識グラフ補完により得られたトリプルを用いたRel質問のうち,知識トリプルの適切性(\ref{subsub:eval_triple}節)の評価において,Pの適切性は許容でき(○か△),Oの補完は適切でない(×)と判断され,質問文の回答性の評価では許容できる(質問文の回答性の評価が○か△)と判断されたものである.各システム質問文の前半では,補完したOからなる知識トリプルが出現し,そのOについての適切性では不適切(×)と評価したものの,質問文の後半は間違いがない表現であるため,回答性という観点で評価すると回答不能から,回答不能ではないがやや違和感を感じる(△)へ許容範囲を広げたと考えられる.このように,質問文テンプレートの中で補完された知識をどう利用するのかによって,生成された質問文への評価が影響されるため,知識補完の性能向上だけでなく,質問文の表現や,その回答性についても今後さらに検討する必要がある.%camera候補2%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{対話生成性能評価} \label{sec:eval_dialogues}前章では,ユーザスタディの中でシステムから生成された個別の質問文,\pagebreak特にRel質問の質について評価した.本章では,対話全体への影響やユーザの印象評価を含め,対話システムの観点から提案手法の効果を検証する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{対話生成における仮説}提案手法による対話への効果として,対話文脈の継続性と被験者の主観評価についての仮説を設定し,検証する.\noindent\textbf{【仮説1】}%初稿:仮説2条件BLは関連話題を使った質問は行わず,条件TEは選択された関連話題についてFreebaseに存在する範囲でのみ質問するのに対し,条件TE+KEでは,Rel質問の質問候補作成可能率が上がることにより,関連話題へと展開する可能性が高い.そのため,条件TE+KEでは関連話題への展開が連鎖的に起こり,他の2条件に比べ,1つのキーエンティティから話題を展開した対話をより長く継続すると予想される.\noindent\textbf{【仮説2】}条件BL,TEはユーザの言及する料理や材料についてFreebaseに定義されている知識を使った質問に限られるのに対し,条件TE+KEでは知識グラフ補完により多くの料理や材料について多様な話題を用いた質問が対話に出現すると考える.そのため,ユーザは条件TE+KEでの対話は他の条件と比べ,ユーザの発言をシステムが理解し,話題のバリエーションが多く,関連性のある応答を行い,対話を継続させ,ユーザから会話や情報を引き出している印象をもつと予想される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文脈継続性の比較【仮説1】}\label{subsec:context_turn}仮説1を検証するために,文脈あたりのターン数に着目して分析した.ここで文脈とは,ユーザ入力から得られた1つのキーエンティティをきっかけとし,他のエンティティへと話題を派生しつつ対話を継続した区間とし,ある文脈初期化質問(Init)から次のInit質問までの対話区間と定義した.なぜなら,Init質問は対話開始時,対話破綻時,および現在のキーエンティティについての適用可能な質問方式を全て使い切ってしまった時に生成されるため,そこを文脈の区切りとみなせると考えたからである.各条件の文脈あたりの平均ターン数のグラフを図\ref{fig:Turn_context_addexp}に示す.対応のあるデータであり,かつ3群間に等分散性が認められないため,統計検定にはWilcoxon符号付き順位検定を用いた.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.8\begin{figure}[t]\begin{center}\includegraphics{28-2ia12f8.pdf}\end{center}\caption{文脈あたりの平均ターン数$(\astp<.05\;\ast\astp<.01)$}\label{fig:Turn_context_addexp}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%条件TE+KEの文脈あたりの平均ターン数が最も多く,条件BL,TEとの間に有意差($p<.01$,$p<.01$)があった.条件TEは他条件に比べ,知識を用いた質問回数が有意に少ないことから(\ref{subsec:s_rate_variation}節),ユーザから新しいキーエンティティを引き出す機会が少なく,結果として他条件に比べ,文脈あたりの平均ターン数も有意に少なくなったと考えられる.以上,「仮説1:条件TE+KEでは,他の2条件に比べ,1つのキーエンティティから話題を展開した対話をより長く継続すると予想される」は支持された.そこで,実際に実験において観察された条件TE+KEにおける対話継続の様子を説明する.図\ref{fig:bl_teke_dialogue_sample}に,条件BLとTE+KEの対話例を示す.条件BLの対話(対話例1)はFreebaseに存在する知識のみを用いて質問を行い,比較的破綻なく対話は進行している.しかし,対話例1中のキーエンティティ「青魚」に対し,「青魚」の知識トリプルからジャンル話題を用いたFrb質問(対話例1-Sys\_34)を生成するが,ユーザの応答は「イタリアンも好きです」であり,そこから新たな料理名,材料名のキーエンティティを得られない.そこでシステムは2回目のFrb質問の適用を試みるが,先ほど使用した知識トリプルが「青魚」についてFreebase中で定義されている唯一のトリプルであったため,Frb質問の生成に失敗し,結果的に初期化質問Init(対話例1-Sys\_35)が生成され,文脈がリセットされる.このような場合に,条件TE+KEでは,知識グラフ補完を用いることでFreebaseに定義されていない知識についての質問生成を可能にしている.例えば,対話例2-Sys\_26で,Frb質問をしたのち,Sys\_27では,Rel質問によりFreebaseに定義されていない材料についての話題を用いて質問している.また,対話例3-Sys\_8でFrb質問をしたのち,対話例3-Sys\_9では,料理「たこ焼き」に何を添えるかについての質問を生成している.このようにFreebaseに知識が存在しない,または少ない状況で,知識グラフ補完によるRel質問により,ユーザから幅広い情報を得る機会を増やし,また,新たな料理名をユーザから引き出し,それを種として質問をすることで対話を継続できたと考える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.9\begin{figure}[t]\begin{center}\includegraphics{28-2ia12f9.pdf}\end{center}\caption{条件BLと条件TE+KEでの対話例}\label{fig:bl_teke_dialogue_sample}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{主観評価結果}\label{sub:enq_ret_and_problems}仮説2を検証するため,実験協力者には各条件での対話終了後,付録表\ref{tab:enquete}に示したアンケートに回答してもらった.全被験者の主観評価に加えて,知識グラフ補完の失敗が原因となった対話破綻による主観評価への影響を考慮し,知識グラフ補完によるRel質問を備えた条件TE+KEにおいて,対話が他条件と同程度にうまくいった対話に限定した場合の主観評価も調査した.他条件と同程度に対話がうまくいった基準として,対話破綻回数を用いた.知識グラフ補完を行わない条件BL,TEでの対話中の対話破綻回数の中央値が2回であることから,条件TE+KEを含め全条件で対話破綻回数が2回以下であるデータ(被験者10人)を対象とし,分析した.システムの全体的な印象についての質問項目(Q1--Q7)に加え,提案手法の効果を評価するために,次に示す5つの評価指標について分析した.システムの質問はユーザの発話と関連したものであったか(関連性:Q8,11,15),システムはユーザの発話を理解して質問していたか(理解:Q9,10),話題のバリエーションは豊富であったか(バリエーション:Q12,13,14),システムはユーザから会話や情報を引き出していたか(情報引き出し:Q16,19),対話の継続性(継続性:Q17,18,20)の5つの指標について,それぞれ該当する質問項目の評価値をまとめ,条件間の評価値の差についてWilcoxon符号付き順位検定を行った.システムの全体的印象(Q1--Q7)については,全データおよび対話破綻回数が2回以下のデータともに条件に差がないことを確認した.次に,上で定義した5つの評価指標について,全被験者による主観評価結果を図\ref{fig:Enq_merge_all},対話破綻回数が2回以下の被験者による主観評価結果を図\ref{fig:Enq_merge_b2all}に示す.「関連性」と「理解」については,全被験者のデータを用いた場合と対話破綻回数が2回以下のデータのみ分析した場合のどちらにおいても,条件間に有意差は認められなかった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.10\begin{figure}[b]\begin{center}\includegraphics{28-2ia12f10.pdf}\end{center}\caption{全被験者による5つの指標に関する主観評価結果$({\dag}p<.1)$}\label{fig:Enq_merge_all}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.11\begin{figure}[b]\begin{center}\includegraphics{28-2ia12f11.pdf}\end{center}\caption{対話破綻が2回以下の被験者による5つの指標に関する主観評価結果$({\dag}p<.1\astp<.05)$}\label{fig:Enq_merge_b2all}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%一方,「バリエーション」と「継続性」については,全データを分析対象とした場合は条件間に差は認められなかったが,対話破綻回数が2回以下の場合のみを分析すると,条件TE+KEは条件BL,TEと比較して「バリエーション」の評価は有意に高かった($p<.05,p<.05$).「継続性」についても,条件TE+KEは条件BL,TEよりも評価値が高く,有意傾向が見られた($p<.1,p<.1$).「情報引き出し」については,全データでは,条件TE+KEと条件BL,TEとの間に有意傾向が見られた($p<.1,p<.1$).対話破綻回数が2回以下のデータでは,条件TE+KEと条件BLの間に有意差があったが($p<.05$),条件TEとの間には有意差は認められなかった.以上,仮説2について,全被験者のデータを使用した場合では,条件TE+KEは条件BL,TEより,「情報引き出し」の評価値が高く,その差には有意傾向がみられた.また,対話破綻回数が少ない場合には,条件TE+KEは条件BLより,「バリエーション」,「情報引き出し」の評価値は有意に高く,「継続性」の評価値でも有意傾向がみられた.条件TEとの比較では,「バリエーション」の評価値は有意に高く,「継続性」においてもTE+KEの方が評価が高く,その差には有意傾向がみられた.以上の結果は,\ref{subsec:s_rate_variation},\ref{subsec:context_turn}節で述べた客観評価の結果と一致するものであり,システムの特長がユーザの印象評価にも表れていることが確認できた.対話破綻回数が少ない場合に限定した分析では期待した結果が得られたが,全データでは効果がかなり限定的であったことから,対話破綻を防ぐことが,対話システムにおいて提案手法の長所を活かすためには不可欠であることが明らかになった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{まとめ} \label{sec:conclusion}本研究では,料理に関するユーザの嗜好を引き出すインタビュー対話に向けて,様々な料理についての関連話題を用いた質問を行う対話システムを作成した.グラフ構造を持つ大規模知識を利用し,知識グラフのエンティティ間の関係を話題とみなし,話題どうしの関連の強さを大規模テキストWikipediaより学習し,Skip-gramにより話題埋め込み表現を作成することで,関連話題の選択を可能にした.また,質問生成時に欠損している知識を知識グラフ埋め込み表現を用いて知識グラフ補完を行うことで,関連話題を用いた質問の候補作成可能率を大きく改善し,提供する話題のバリエーションを増やした.知識グラフ補完の質的な評価も行った.その結果,知識グラフ補完を行った知識トリプルにおいて,Pが適切,あるいは不適切とは言えないがやや違和感を感じると評価された場合に,Oが適切であると判断された割合は19.4\%と低い結果であったが,知識グラフ補完により得られたトリプルから構成した質問文について,回答可能,あるいは回答不能ではないがやや違和感を感じると判断された割合は65\%であった.クラウドソーシングで募集した被験者に,Web上のシステムとの対話をする評価実験を行った結果,関連話題の選択と知識グラフ補完を組み合わせた提案システムは,話題のバリエーションに富み,ユーザの言及した料理名や材料名をきっかけとした会話をより長く継続できることがわかった.また,対話破綻回数が2回以下の被験者に限り,比較的,対話がうまくいったと考えられる場合に,提案システムはバリエーション,そして,有意傾向にとどまるが継続性についても,肯定的な主観評価が得られることがわかった.今後の課題として,まず,本稿で提案した質問は不確実な知識を用いているため,対話破綻やシステムの応答に対してユーザが異論を示す状況が見られた.このような問題に対して,知識グラフ埋め込み表現を作成するモデルの改良による知識グラフ補完精度の向上や,知識トリプルを用いた質問の表現を工夫することで対話の継続が期待できる.本研究では知識トリプルのSPOが揃った前提のもとで質問を組み立てたが,「Sで好きな材料(=P')はありますか?」のように,Sについて関連述語として推定したP'だけで質問することも考えられるが,今回の実験設定では生成されないため,これらを含めた検討が今後必要である.また,対話の中でユーザから正しい知識を教えてもらうといった知識獲得を行い,対話を継続しつつ,知識ベースの更新や知識グラフ埋め込み表現を改良するなどの方向性も考えられる.その他に,関連話題選択方法の改良も必要である.本手法では,関連話題の近さを扱う目的でWikipediaからの話題の抽出を行っており,抽出した話題も,料理ドメインにおけるFreebaseの述語を対象としている.そのため,人間どうしの会話で行われるような話題のバリエーション,話題選択とは異なる可能性がある.これについては,例えば,\citeA{moon2019opendialkg}を参考にし,大規模な対話コーパスと知識グラフを結びつけたデータを使い,深層学習を用いて対話履歴を考慮した知識トリプルの選択を行うといった改良が考えられる.加えて,対話で得られた情報が,ユーザの嗜好を実際に捉えているか,料理推薦などに役立つかの調査も必要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSPS科研費19H01120,19H04159,JSTAIP日独仏AI研究JPMJCR20G6,およびJSTムーンショット型研究開発事業JPMJMS2011の助成を受けたものである.%JSTAIP%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{12refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{アンケート項目} ユーザスタディ(\ref{sec:exp_results}章)で使用したアンケート項目を表\ref{tab:enquete}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[h]\input{12table12.tex}\caption{アンケート項目}\label{tab:enquete}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{知識トリプルの適切性評価の詳細} \label{appendix_detail_eval_triple}\ref{subsub:eval_triple}節で行った知識トリプルの適切性の評価作業の詳細を示す.表\ref{tab:test_eval_kg_app_example}に知識トリプルの適切性評価作業シートと評価の例を示した.評価シートの各行には,評価対象のS,P,Oの組と,Pの適切性,およびOの適切性の評価を記入する欄が設けられている.表\ref{tab:test_eval_kg_app_example}では,評価記入欄に評価の例が記載されている.評価対象としたSPOは,補完されたOも含み,実際に質問生成に使用された知識トリプルである.Pについては,Freebaseの述語を自然言語の表現で示している.表現の候補が複数ある場合には[]内で示し,候補を\textbarで区切っている.\newpage評価者は,はじめにPの適切性を評価するよう指示された.具体的には,「評価シート中の対象(S)に対しての話題(P)の適切性を判断し,以下の3つのいずれかを選び,評価シートに記入してください」,と指示した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[t]\input{12table13.tex}\caption{知識トリプルの適切性評価作業シートと評価の例}\label{tab:test_eval_kg_app_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{oframed}\noindentPの適切性:\\○:対象(S)についての話題(P)として適切.\\△:対象(S)についての話題(P)として不適切とは言えないが,やや違和感を感じる.\\×:対象(S)についての話題(P)として不適切.\end{oframed}次に,Oの適切性を評価するよう指示した.具体的には,「対象(S)と話題(P)を考慮した上で,目的語(O)の適切性を判断し,以下の3つのいずれかを選び,評価シートに記入してください」,と指示した.\begin{oframed}\noindentOの適切性:\\○:対象(S)と話題(P)の目的語(O)として適切.\\△:対象(S)と話題(P)の目的語(O)として不適切とは言えないが,やや違和感を感じる.\\×:対象(S)と話題(P)の目的語(O)として不適切.\end{oframed}なお,評価者は,知識トリプルの適切性を評価するため,エンティティについて調べることを許可された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{曽傑}{%2017年成蹊大学理工学部情報科学科卒業.2019年同大学院理工学研究科修士課程修了.現在,同研究科博士課程在籍.自然言語処理,対話システムの研究に従事.人工知能学会学生会員.}\bioauthor{中野有紀子}{%1990東京大学大学院教育学研究科修士課程修了.同年,日本電信電話(株)入社.2002MITMediaArts\&Sciences修士課程了.2002--2005(独)科学技術振興機構社会技術研究開発センター専門研究員,2005--2008東京農工大学大学院工学府特任准教授,成蹊大学理工学部情報科学科准教授を経て,現在,成蹊大学理工学部情報科学科教授.知的で自然なユーザインタフェースの実現に向けて,人との言語・非言語コミュニケーションが可能な会話エージェントの研究に従事.博士(情報理工学).ACM,人工知能学会,電子情報通信学会,情報処理学会各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V21N03-01
\section{はじめに} 機械翻訳システムの開発過程では,システムの評価と改良を幾度も繰り返さねばならない.信頼性の高い評価を行うためには,人間による評価を採用することが理想ではあるが,時間的な制約を考えるとこれは困難である.よって,人間と同程度の質を持つ自動評価法,つまり,人間の評価と高い相関を持つ自動評価法を利用して人間の評価を代替することが実用上求められる\footnote{本稿では,100文規模程度のコーパスを用いて翻訳システムの性能を評価すること,つまり,システム間の優劣を比較することを目的とした自動評価法について議論する.}.こうした背景のもと,様々な自動評価法が提案されてきた.BLEU\cite{bleu},NIST\cite{nist},METEOR\cite{meteor},WordErrorRate(WER)\cite{WER}などが広く利用されているが,そのなかでもBLEU\cite{bleu}は,数多くの論文でシステム評価の指標として採用されているだけでなく,評価型ワークショップにおける公式指標としても用いられており,自動評価のデファクトスタンダードとなっている.その理由は,人間による評価との相関が高いと言われていること,計算法がシステム翻訳と参照翻訳(正解翻訳)との間で一致するNグラム(一般的に$\mathrm{N}=4$が用いられる)を数えあげるだけで実装も簡単なことにある.しかし,BLEUのようにNグラムという短い単語列にのみに着目してスコアを決定すると,システム翻訳が参照翻訳のNグラムを局所的に保持しているだけで,その意味が参照翻訳の意味と大きく乖離していようとも高いスコアを与えてしまう.局所的なNグラムは一致しつつも参照翻訳とは異なるような意味を持つ翻訳をシステムが生成するという現象は,翻訳時に大きな語順の入れ替えを必要としない言語間,つまり,構文が似ている言語間の翻訳ではほとんど起こらない.例えば,構文が似ている言語対である英語,仏語の間の翻訳では大きな語順の入れ替えは必要なく,BLEUと人間の評価結果との間の相関も高い\cite{bleu}.一方,日本語と英語のように翻訳時に大きな語順の入れ替えが必要となる言語対を対象とすると,先に示した問題が深刻となる.例えば,Echizen-yaらは日英翻訳において,BLEU\cite{bleu},その変種であるNIST\cite{nist}と人間の評価との間の相関が低いことを報告している\cite{echizenya-wpt09}.文全体の大局的な語順を考慮する自動評価法としては,ROUGE-L\cite{ROUGEL},IMPACT\cite{impact}がある.これらの手法は参照翻訳とシステム翻訳との間で一致する最長共通部分単語列(LongestCommonSubsequence:LCS)に基づき評価スコアを決定する.LCSという文全体での大局的な語順を考慮していることから,英日,日英翻訳システムの評価において,Nグラム一致率に基づく自動評価法よりもより良い評価ができるだろう.しかし,Nグラム一致率に基づく自動評価法と同様,訳語の違いに敏感すぎるという問題がある.後に述べるが,NTCIR-9での特許翻訳タスクにおいては,人間が高い評価を与えるルールベースの翻訳システムに高スコアを与えることができないという問題がある.本稿では日英,英日という翻訳時に大きな語順の入れ替えを必要とする言語対を対象とした翻訳システムの自動評価法を提案する.提案手法の特徴は,Nグラムという文中の局所的な単語の並びに着目するのではなく,文全体における大局的な語順に着目する点と,参照翻訳とシステム翻訳との間で一致しない単語を採点から外し,別途,ペナルティとしてそれをどの程度重要視するかを調整できるようにすることで訳語の違いに対して寛大な評価を行う点にある.より具体的には,システム翻訳と参照翻訳との間の語順の近さを測るため,両者に一致して出現する単語を同定した後,それらの出現順序の近さを順位相関係数を用いて計算し,これに重み付き単語正解率と短い翻訳に対するペナルティを乗じたものを最終的なスコアとする.近年,提案手法と同じく語順の相関に基づいた自動評価法であるLRscoreがBirchらによって独立に提案されている\cite{birch-acl}.LRscoreは,参照翻訳とシステム翻訳との間で一致する単語の語順の近さをKendall距離で表し,それをさらに低レンジでのスコアを下げるために非線形変換した後,短い翻訳に対するペナルティを乗じ,さらにBLEUスコアとの線形補間で評価スコアを決定する.提案手法とLRscoreは特殊な状況下では同一の定式化となるが,研究対象としてきた言語対が異なることから,相関係数と語彙の一致に対する考え方が大きく異なる.提案手法がどの程度人間の評価に近いかを調べるため,NTCIR-7,NTCIR-9の日英,英日,特許翻訳タスク\cite{ntcir7,ntcir9}のデータを用いて検証したところ,翻訳システムの評価という観点から,従来の自動評価法よりも人間の評価に近いことを確認した.以下,2章ではBLEUを例として,Nグラムという局所的な語順に着目してシステムを評価することの問題点,3章ではLCSを用いてシステムを評価することの問題点を指摘する.そして,4章でそれら問題点の解決法として,訳語の違いに寛大,かつ,大局的な語順の相関に基づく自動評価法を提案する.5章で実験の設定を詳述し,6章では実験結果を考察する.最後に7章でまとめ,今後の課題について述べる. \section{Nグラム一致率に基づく自動評価法の問題点} Nグラム一致率を用いてシステム翻訳を評価する際の問題点を以下に定義するBLEUを例として説明する.システム翻訳文集合を${\mathcalH}$,それに対応する参照翻訳文集合\footnote{BLEUでは,原文に対して複数の参照翻文があることを想定している.}を${\mathcalR}$とする.システム翻訳文$h_i\in\mathcalH$には,対応する参照翻訳文の集合$R_i\in\mathcalR$が割り当てられており,$R_i$の$j$番目の参照翻訳文を$r_j$とする.なお,$S=|\mathcalH|=|\mathcalR|$とする.ここで,BLEUは,以下の式で定義される.\begin{equation}\text{BLEU}(\mathcal{H},\mathcal{R})=\text{BP}\cdot\exp\left(\frac{1}{N}\sum_{n=1}^N\logP_n\right)\end{equation}$N$はNグラムの長さパラメタであり,一般的には$N=4$である.$P_n$は,Nグラム適合率であり,以下の式で定義される.\begin{equation}P_n=\frac{\displaystyle\sum_{i=1}^S\displaystyle\sum_{t_n\inh_i}\min(\text{count}(h_i,t_n),\max\_\text{count}(R_i,t_n))}{\displaystyle\sum_{i=1}^S\displaystyle\sum_{t_n\inh_i}\text{count}(h_i,t_n)}\end{equation}count($h_i$,$t_n$)は,任意のNグラム($t_n$)のシステム翻訳文$h_i$における出現頻度,max\_count($R_i$,$t_n$)は,$t_n$の参照翻訳文集合$R_i$における出現頻度の最大値,$\max_{r_j\inR_i}\text{count}(r_j,t_n)$である.BP(BrevityPenalty)は,短いシステム翻訳に対するペナルティであり,以下の式で定義される.\begin{equation}\text{BP}=\min\left(1,\exp\left(1-\frac{\text{closest}\_\text{len}(\mathcal{R})}{\text{len}(\mathcal{H})}\right)\right)\end{equation}closest\_len($\mathcalR$)は,各$h_i\in{\calH}$に対し,最も近い単語数の参照翻訳文$r_j\inR_i$を決定した後,それらの単語数を全ての$i$で合計したもの,len($\mathcal{H}$)は,$h_i$単語数を全ての$i$で合計したものを表す.いま,原文($s$),参照翻訳($r$),システム翻訳($h_1$,$h_2$)が以下の通り与えられたとしよう.\begin{description}\item[{\mdseries$s$:}]雨に濡れたので,彼は風邪をひいた.\item[{\mdseries$r$:}]Hecaughtacoldbecausehegotsoakedintherain.\item[{\mdseries$h_1$:}]Hecaughtacoldbecausehehadgottenwetintherain.\item[{\mdseries$h_2$:}]Hegotsoakedintherainbecausehecaughtacold.\end{description}$r$は原文の直訳であり,$h_1$はほぼそれと等しい訳であるが,$h_2$は「風邪をひいたので,彼は雨に濡れた」という意味であり,原文が表す因果関係が逆転している.$h_1$と$h_2$を比較すると,翻訳としての流暢さ(fluency),いわゆる言語モデル的な確からしさは同程度であるが,内容の適切性(adequacy)は,$h_1$が$h_2$よりも高くならねばならない.ここで,この2つのシステム翻訳を先に示したBLEUで評価してみよう\footnote{式(1)の定義から明らかなようにBLEUは文集合を引数として評価スコアを計算する.通常,1文を対象としてそのスコアを計算することはないが,ここでは説明のため1文でのBLEUスコアを計算する.}.$h_1$,$h_2$とも$r$よりも長いため,ともにBPは1となる.$h_1$の$P_1$〜$P_4$はそれぞれ,9/12,7/11,5/10,3/9なので,BLEUスコアは0.53となる.一方,$h_2$の$P_1$〜$P_4$はそれぞれ,11/11,9/10,6/9,4/8なので,BLEUスコアは0.74となる.この結果は,我々の直感に反しており,BLEUを最大化するようにシステムを最適化することが,良い翻訳システムの開発に結びつくかどうかは疑問である.こうした問題が起こる原因はNグラムという局所的な語の並びにのみに着目してスコアを計算することにある.短い単語列のみを評価対象とすると,先の例のように,参照翻訳の節中のNグラムを保持していれば,節の順番が入れ替わったとしても十分高いスコアを獲得する.もちろん,$h_2$のような翻訳をシステムが出力するようなことはほとんどあり得ないのではないかという疑問もあろう.確かに語順が似た言語対を対象とする場合や翻訳システムがルールベースで構築されている場合には起こりにくい問題であるが,語順が大きく異なる言語対を対象とした統計翻訳(StatisticalMachineTranslation:SMT)システムでは十分起こり得る問題である.以下にWeb上のSMTによる翻訳サービスの出力例を示す.\begin{description}\item[原文:]ボブはメアリに指輪を買うためにジョンの店に行った.\item[参照翻訳:]BobwenttoJohn'sstoretobuyaringforMary.\item[SMT出力:]Bobtobuyrings,MarywenttoJohnshop.\end{description}SMT出力をみると,訳語という観点では参照翻訳と良く合致しており,バイグラム,トライグラムでもある程度の数が一致している.しかし,原文の「店に行く」の主体が「ボブ」であるという構造を捉えることができず,その主体が「メアリ」となってしまっている.SMTシステムでは,大きな語順の入れ替えを許すと探索空間は膨大になる.よって,現実的な時間で翻訳文を生成するため,語順の入れ替えにある程度の制限を設けざるを得ない.その結果,Nグラムでは参照翻訳と良く合致するものの原文の意味とはかけ離れた翻訳を出力することがある.このような状況のもと,BLEUスコアで翻訳システムを比較すると,正しい評価ができない可能性が高い.なお,この問題はBLEUに限ったことではなく,その変種であるNISTスコア,METEORなどNグラム一致率を利用した自動評価法すべてに当てはまる問題である. \section{LCSに基づく自動評価法の問題点} ROUGE-L\cite{ROUGEL},IMPACT\cite{impact}は,参照翻訳とシステム翻訳との間の最長共通部分単語列(LCS)に基づき評価スコアを決定する.先に挙げた例で説明する.\begin{description}\item[{\mdseries$s$:}]雨に濡れたので,彼は風邪をひいた.\item[{\mdseries$r$:}]Hecaughtacoldbecausehegotsoakedintherain.\item[{\mdseries$h_1$:}]Hecaughtacoldbecausehehadgottenwetintherain.\item[{\mdseries$h_2$:}]Hegotsoakedintherainbecausehecaughtacold.\end{description}$r$と$h_1$との間のLCSは,``Hecaughtacoldbecauseheintherain''であり,その長さ(単語数)は9である.$r$の長さは11,$h_1$の長さは12であることから,LCSの適合率は9/12,再現率は9/11となる.一方,$r$と$h_2$との間のLCSは,``hegotsoakedintherain''であり,その長さは6である.$h_2$の長さは11なので,LCSの適合率は6/11,再現率は6/11となる.ROUGE-LスコアはLCS適合率と再現率の調和平均,F値なのでBLEUとは違い,$h_1$を$h_2$より高く評価することができる.IMPACTはROUGE-Lを改良したものであり,上述のLCSを一度見つけただけでやめるのではなく,見つかったLCSを削除した単語列に対し,再度LCSを探すということを繰り返す.つまり,$h_1$の例では,$r$と$h_1$から,``Hecaughtacoldbecauseheintherain''を削除し,\begin{description}\item[{\mdseries$r$:}]gotsoaked\item[{\mdseries$h_1$:}]hadgotttenwet\end{description}から,$h_2$の例では,``hegotsoakedintherain''を削除し,\begin{description}\item[{\mdseries$r$:}]caughtacoldbecausehe\item[{\mdseries$h_2$:}]becausehecaughtacold\end{description}から,再度LCSを探し出すという手順を繰り返す.これらの手法の問題点は,参照翻訳とシステム翻訳との間のLCS適合率,再現率を計算するため,それらの間で一致しなかった単語を評価の対象に含めている点にある.例えば,以下のシステム翻訳$h_3$を考えると,$r$と$h_3$との間のLCSは,``hecaughtacoldtherain''となるので,LCS適合率,再現率はそれぞれ,6/13,6/11となり,適合率が$h_2$の場合より低い値をとってしまい,ROUGE-Lスコアは$h_2$の場合よりも低くなる.\begin{description}\item[{\mdseries$h_3$:}]Hecaughtacoldasaresultofgettinghitbytherain\end{description}このように適合率,再現率といった参照翻訳とシステム翻訳との間で一致しない単語を評価に含めてしまう尺度を用いると訳語の違いに敏感になり過ぎ,システムを過小評価することがある. \section{語順の相関に基づく自動評価法} 本稿では,Nグラム一致率に基づく自動評価法の問題点を解決するため,文内の局所的な語の並びに着目するのではなく,大局的な語の並びに着目する.つまり,参照翻訳とシステム翻訳との間で一致して出現する単語の出現順の近さに基づき評価する.さらに,訳語の違いに寛大な評価をするため,システム翻訳の単語適合率の重みを調整できるようにして別途ペナルティとして用いる.\subsection{単語アラインメント}参照翻訳とシステム翻訳の語順との間の相関を計算するため,双方の翻訳に一致して出現する単語を同定しなければならない.これは,参照翻訳とシステム翻訳との間の単語アラインメントを決定する問題となる.本稿では,単語の表層での一致に基づくアラインメント法を採用した.Algorithm\ref{wordalign}にその疑似コードを示す.\begin{algorithm}[b]\caption{WordAlignmentAlgorithm}\label{wordalign}\footnotesize\begin{algorithmic}[1]\STATEReadhypothesissentence$h=w_1^h,w_2^h,\ldots,w_m^h$\STATEReadreferencesentence$r=w_1^r,w_2^r,\ldots,w_n^r$\STATEInitialize{\ttworder}withanemptylist.\FOR{eachword$w_i^h$in$h$}\IF{$w_i^h$appearsonlyonceeachin$h$and$r$}\STATEappend$j$s.t.$w_i^h=w_j^r$to{\ttworder}\ELSIF\FOR{$\ell$=2to$m-i$}\IF{$w_i^h,\ldots,w_{i+(\ell-1)}^h$appearsonlyonceeachin$h$and$r$}\STATEappend$j$s.t.$w_i^h,\ldots,w_{i+(\ell-1)}^h=w_j^r,\ldots,w_{j+(\ell-1)}^r$to{\ttworder}\STATEbreaktheloop\ENDIF\ENDFOR\ELSE\FOR{$\ell$=2to$i$}\IF{$w_{i-(\ell-1)}^h,\ldots,w_i^h$appearsonlyonceeachin$h$and$r$}\STATEappend$j$s.t.$w_{i-(\ell-1)}^h,\ldots,w_i^h=w_{j-(\ell-1)}^r,\ldots,w_{j}^r$to{\ttworder}\STATEbreaktheloop\ENDIF\ENDFOR\ENDIF\ENDFOR\STATEReturn{\ttworder}\end{algorithmic}\end{algorithm}システム翻訳を長さ$m$,参照翻訳を長さ$n$の単語リストして読み込み,アラインメントを格納する配列{\ttworder}を初期化する(1〜3行目).システム翻訳の単語リストの先頭から順に単語$w_i^h$を取り出し,その単語がシステム翻訳,参照翻訳の双方にただ1度のみ出現している場合,$i$と単語$w_i^h$の参照翻訳における出現位置$j$を対応づける(5,6行目).それ以外の場合,$w_i^h$を基準として右側にNグラムを伸長させ,システム翻訳と参照翻訳の双方における出現頻度が1となった時点で$i$と$j$を対応づける(8〜13行目).それでも対応がつかない場合,$w_i^h$を基準として左側にNグラムを伸長させ,システム翻訳と参照翻訳の双方における出現頻度が1となった時点で$i$と$j$を対応づける(15〜20行目).これでも曖昧性が残る(システム翻訳と参照翻訳での頻度が1にならない)場合,あるいは対応先が見つからない場合は単語対応付けを行わない.図\ref{figalign}に2章の例文に対する単語アラインメントを示す.上段の例から,\texttt{worder}の1番目の要素,つまり,$h_1$の1単語目が$r$の1番目の要素(単語)に対応することがわかる.下段の例から,$h_2$の1単語目が$r$の6番目の単語と対応していることがわかる.\begin{figure}[t]\begin{center}\includegraphics{21-3ia985f1.eps}\end{center}\caption{単語アラインメントの例}\label{figalign}\end{figure}\subsection{単語出現順の相関}1対1の単語アラインメントを決定することができれば,参照翻訳とシステム翻訳から単語出現位置IDを要素とするリストを得ることができる.図\ref{figalign}の例では,$r$:[1,2,3,4,5,6,9,10,11],$h_1$:[1,2,3,4,5,6,9,10,11]および$r$:[1,2,3,4,5,6,7,8,9,10,11],$h_2$:[6,7,8,9,10,11,5,1,2,3,4]という2つのリストペアを得る.こうした順序列間の順位相関係数を計算することで参照翻訳とシステム翻訳との間で一致して出現する単語の出現順の近さを測ることができる.本稿では以下に示すKendallの順位相関係数($\tau$)\cite{kendall}を採用した.順位相関係数としては,Spearmanの順位相関係数($\rho$)もよく知られている.しかし,$\tau$と比べて$\rho$は,順位の小さな入れ替わりには寛容すぎ,大きな入れ替わりには厳しすぎる.予備実験の結果では,人間の評価との間の相関が$\tau$よりも低い傾向を示したため,\pagebreak本稿では$\tau$を採用した.\begin{equation}\tau=\frac{\displaystyle\sum_{i=1}^{n-1}T_i-\displaystyle\sum_{i=1}^{n-1}U_i}{\frac{n(n-1)}{2}}\end{equation}$T_i$は,アラインメント手続きを用いてシステム翻訳から得た単語出現位置のIDリスト(\texttt{worder})について,$i$番目の要素の値よりも大きな要素が$i+1$番目から$n$番目の要素までの間に出現する数,$U_i$はその逆に,$i$番目の要素の値よりも小さな要素が$i+1$番目から$n$番目の要素までの間に出現する数を表す.表\ref{tau}に図\ref{figalign}の$h_2$から得た{\ttworder}と$T_i$,$U_i$をそれぞれ示す.この表より,$r$と$h_2$との間の語順の相関をKendallの$\tau$で計算すると,$\tau(r,{h_2})=(21-34)/((11\cdot10)/2)=-0.236$となる.同様に図\ref{figalign}の$h_1$から得た\texttt{worder}を用いて$\tau(r,{h_1})$を計算すると$\tau(r,{h_1})=(36-0)/((9\cdot8)/2)=1$となる.$\tau$は参照翻訳とシステム翻訳との語順が完全一致する場合に1,逆順の場合に$-1$をとる.\begin{table}[t]\caption{Kendallの順位相関係数の計算例}\label{tau}\input{0985table01.txt}\end{table}BLEUでは,$h_2$が$h_1$よりも高いスコアを獲得したが,文全体での語順に着目し,システム翻訳と参照翻訳との間の語順の順位相関を計算すると,$h_1$が$h_2$よりも高いスコアを獲得でき,我々の直感に合致した結果を得ることができた.ただし,$\tau$は負の値をとり得るため,従来の自動評価法が出力するスコアレンジと同様[0,1]の値をとるよう以下の式で正規化する.\begin{equation}\text{NormalizedKendall's$\tau$:NKT}=\frac{\tau+1}{2}\end{equation}\subsection{ペナルティ}参照翻訳とシステム翻訳との間の語順の相関を計算するためには,単語アラインメントを決定し,双方に一致して出現する単語のみを評価の対象としなければならない.しかし,参照翻訳とシステム翻訳との間で一致する単語のみを評価対象とすることには以下の2つ問題がある.\begin{enumerate}\itemシステム翻訳の単語数に対し,参照翻訳との間で一致する単語の割合が少ない場合,過剰に高いスコアを与える可能性がある.\itemシステム翻訳の単語数が少ない場合,過剰に高いスコアを与える可能性がある,\end{enumerate}(1)に関して,以下の例を考えよう.\begin{description}\item[{\mdseries$r$:}]Johnwenttoarestaurantyesterday\item[{\mdseries$h$:}]Johnreadabookyesterday\end{description}$h$は5単語からなる訳であり,そのうち``John'',``a'',``yesterday''のみしか参照翻訳と一致していない.しかし,その出現順が参照翻訳と一致していることからNKTは1となる.つまり,システムが出力した単語数に関係なく順位相関だけをみていると不当に高いスコアを獲得する可能性がある.次に(2)に関して,以下の例を考えよう.\begin{description}\item[{\mdseries$r$:}]Johnwenttoarestaurantyesterday\item[{\mdseries$h$:}]toa\end{description}システム翻訳は2単語しかない意味の無い訳であるにもかかわらず,単語正解率は1であり,2単語の出現順序も参照翻訳と一致していることから,NKTも1となる.つまり,単語数が少ない場合,順位相関と単語正解率だけでは不当に高いスコアを獲得する可能性がある.このように,順位相関係数を用いると,システム翻訳の2単語のみが参照翻訳と出現順まで一致すると,不当に高いスコアを獲得する可能性がある.よって,本稿では,前者に対して単語正解率($P$),後者に対してはBLEUのBPをペナルティとして導入する.それぞれの定義を以下に示す.\begin{gather}P(h_i,r_i)=\frac{\text{len(\texttt{worder})}}{\text{len}(h_i)}\\\text{BP}_s(h_i,r_i)=\min\left(1,\exp\left(1-\frac{\text{len}(r_i)}{\text{len}(h_i)}\right)\right)\end{gather}単語正解率は,システム翻訳の単語のうちアラインメントをとることができた単語数(len({\ttworder}))の割合であり,len($r$)は,参照翻訳の単語数,len($h$)はシステム翻訳の単語数である.BLEUのBPは文集合全体で計算していたが,ここでは,文単位で計算することに注意されたい.これらを用いて最終的な自動評価スコアを以下の式(\ref{ribes})で定義する.なお,{\bfこの手法をRIBES(Rank-basedIntuitiveBilingualEvaluationScore)と名付け,\url{http://www.kecl.ntt.co.jp/icl/lirg/ribes/}にてオープンソースソフトウェアとして公開している.}\begin{equation}\mbox{RIBES}(\mathcal{H},\mathcal{R})=\frac{\displaystyle\mathop\sum_{h_i\in\mathcal{H}}\max_{r_j\inR_i}\{\mbox{NKT}(h_i,r_j)\cdotP(h_i,r_j)^{\alpha}\cdot\mbox{BP}_s(h_i,r_j)^{\beta}\}}{|\mathcal{H}|}\label{ribes}\end{equation}$\alpha(\ge0)$は単語適合率の重みであり,$\alpha$が大きいほど訳語の違いに敏感になる.\begin{itemize}\item参照翻訳が1つしかない場合,参照翻訳にはない訳語をシステムが出力する可能性が高いため,$\alpha$は小さめに設定した方がよいだろう.\item参照翻訳が複数の場合,参照翻訳のいずれかに出現する単語をシステムが出力する可能性が高くなる.そこで,不適切な訳語を厳しく採点するため$\alpha$は高めに設定した方がよいだろう.\end{itemize}$\beta(\ge0)$はBPの重みであり,$\beta$が大きいほど訳文の長さに敏感になる.\begin{itemize}\item参照翻訳が1つしかない場合,それよりも短い翻訳があり得る可能性が高いので,$\beta$は小さめに設定してよいだろう.\item参照翻訳が複数ある場合,一番短い翻訳を基準にして考えれば,$\beta$を高めに設定してよいだろう.\end{itemize} \section{実験の設定} \subsection{実験データ}RIBESの有効性を示すため,NTCIR-7,NTCIR-9の特許翻訳タスク(PATMT)のデータを用いて評価実験(評価指標の評価なので,以降メタ評価と呼ぶ)を行った.言語対は英日(EJ),日英(JE)とした.それぞれのデータセットの文数,1文あたりの参照翻訳の数,評価者の数,参加システム数を表\ref{data}に示す.なお,カッコ内の数字はルールベースシステムの数を示す.\begin{table}[b]\caption{実験データの詳細}\label{data}\input{0985table02.txt}\end{table}NTCIRワークショップの事務局から公開されているデータには,EJ,JEタスクとも1つの参照翻訳しか含まれていない.そこで,NTCIR-7のデータに対してのみ,特許翻訳の専門家に依頼し,参照翻訳を独自に追加した.また,NTCIR-7のEJタスクに関しては,5システムだけにしか人間の主観評価の結果が与えられていなかったため,特許に精通した被験者5名で再度JEタスクと同様,5段階評価で主観評価を行った.さらに,評価対象とする翻訳システムに著者のグループの英日翻訳システム\cite{headfinal}を追加し,計14システムで実験を行った.全てのデータに対し,メタ評価の対象は翻訳の内容としての適切性(adequacy)のみとした.これは,翻訳の流暢さよりも内容の適切性を自動評価できた方がより良い翻訳システムの開発に貢献できると考えたからである.なお,各システム翻訳文に対し複数の人間の評価スコアが与えられている場合には,その平均値を文に対する評価スコアとした.このように各システム翻訳文に対して評価値を決定し,これを文集合全体での平均したものを人間がシステムに与えた評価スコアとした.\subsection{比較した自動評価手法}比較評価には,Nグラム一致率に基づく評価手法として先に説明したBLEU,大局的な単語列を考慮した評価法として同じく先に説明したROUGE-L\cite{ROUGEL},その改良版であるIMPACT\cite{impact}を用いた.IMPACTには,LCSの長さに応じた重みパラメタ,語順の入れ替えに応じた重みパラメタがある.詳細については文献\cite{impact}を参照されたい.なお,ROUGE-L,IMPACTとも参照翻訳が複数ある場合には個々の参照翻訳を用いて求めたスコアの最大値を評価スコアとして採用した.BLEUの計算には{\ttmteval-v13a},ROUGE-Lには,\texttt{ROUGE-1.5.5},IMPACTには\texttt{IMPACTversion4}を利用した.また,LRscore\cite{birch,birch-wmt2010,birch-acl}も比較評価の対象とした.LRscoreは,参照翻訳とシステム翻訳との間の語順の近さを表すスコアとBLEUスコアとの間の線形補間で評価スコアを決定する.語順の近さを表す尺度としては,ハミング距離$d_h(h,r)$を利用するものとKendallの$\tau$に基づく$d_k(h,r)$を利用するものがあるが,以降では,本稿との関連が深い後者について述べる.LRscoreの定義を以下に示す.\begin{equation}\mbox{LRscore}(\mathcal{H},\mathcal{R})=\gammaR(\mathcal{H},\mathcal{R})+(1-\gamma)\mbox{BLEU}(\mathcal{H},\mathcal{R})\end{equation}$R({\mathcalH},{\mathcalR})$は以下の式で定義される.\begin{equation}R(\mathcal{H},\mathcal{R})=\frac{\displaystyle\mathop\sum_{h_i\in\mathcal{H}}d(h_i,r_i)\mbox{BP}_s(h_i,r_i)}{|\mathcal{H}|}\end{equation}$d_k(h,r)$は,文献\cite{birch-acl}に従うと$d_k(h,r)=1-\sqrt{1-\mbox{NKT}(h,r)}$で定義されるが,それ以前の文献\cite{birch,birch-wmt2010}では,$d_k(h,r)=\mbox{NKT}(h,r)$も用いられている.以降,前者を${d_k}_1$,後者を${d_k}_2$とよぶ.RIBESで$\alpha=0$,$\beta=1$と設定したときと,LRscoreに${d_k}_2$を採用,$\gamma=1$と設定したとき,これら2つの手法は一致する.しかし,LRscoreは日本語,英語のような大きな語順の入れ替えがある言語対を対象として考案された手法ではなく,ヨーロッパ言語間,中英\footnote{もちろん,英語,フランス語ほど語順が近くはないが,英語も中国語もSVO型の言語であり,日本語,英語ほどの語順の違いはない.}翻訳という比較的語順が似た言語を対象として考案されたため,最終的には${d_k}_1$を採用することで順位相関の低レンジスコアの感度を下げ,さらに語順の近い言語対を対象としたときに実績のあるBLEU\footnote{実際,NTCIR-9の中英翻訳タスクにおいて,BLEUは人間の評価結果との相関が0.9以上の非常に高い値を記録している\cite{ntcir9}.}の恩恵を受けるため,それとの間の線形補間という定式化に至ったのであろう.後述するが,英日,日英翻訳の評価ではBLEUを利用するメリットは期待できない.さらに,NKTを${d_k}_1$によって非線形変換することで低レンジスコアの感度をさらに下げるメリットも元々高いNKTを得ることが難しい英日,日英翻訳タスクでは期待できない.以上より,LRscoreは確かにRIBESと良く似た手法といえるが,BLEUを補うために派生した評価指標と捉えた方が自然であり,RIBESとはその根底にある研究の動機に大きな違いがある.なお,LRscoreには,参照翻訳とシステム翻訳との間の単語アラインメントを決定する手段が提供されないため,以降の実験では本稿での単語アラインメントを利用した.\subsection{メタ評価の指標}本稿では,メタ評価の指標として広く用いられているPearsonの積率相関係数,Spearmanの順位相関係数,Kendallの順位相関係数を用いた.Pearsonの積率相関係数は人間の評価と自動評価の結果がどの程度線形の関係にあるかを評価し,Spearman,Kendallの相関係数は人間の評価と自動評価の結果の順位がどの程度近いかを評価する.SpearmanとKendallの違いは,先にも説明したように順位の差に対して重みをどのように与えるかという点にある.\subsection{実験の手順}RIBESに対してはシステム翻訳の長さに対する重みパラメタと単語正解率に対する重みパラメタ,IMPACTに対してはLCSに対する重みパラメタと語順の違いに対する重みパラメタ,LRscoreには順位相関係数とBLEUスコアの重みを調整するパラメタがある.これらの手法に対しては,以下の手順でパラメタの最適化を行い,メタ評価を行った.\begin{enumerate}\item文のIDをランダムに10個選択する.\item選択したIDによる10文の集合を用いて,文集合全体での人間の評価スコアと自動評価スコアとの間のSpearmanの順位相関係数が最大となるようパラメタを決定する.\item(2)で決定したパラメタを用いて(1)の残りの文集合全体を用いてメタ評価を行い,相関係数を記録する.\item(1)から(3)を100回繰り返し,相関係数の平均値を求める.\end{enumerate}なお,パラメタが存在しないBLEUとROUGE-Lに対しては,(2)をスキップし,同様の手順でメタ評価を行った. \section{実験結果と考察} \subsection{NTCIR-7データ}表\ref{NTCIR7-single}にオーガナイザから配布された参照翻訳のみを用いた時の相関係数の平均値,表\ref{NTCIR7-multi}に複数参照翻訳を用いた時の相関係数の平均値を示す.平均値の差の検定には,ペアワイズの比較にWilcoxonの符号順位検定\cite{wilcox}を採用し,Holm法\cite{holm}による多重比較を用いた.\begin{table}[t]\caption{メタ評価の結果(NTCIR-7データ,単一参照翻訳)}\label{NTCIR7-single}\input{0985table03.txt}\vspace{4pt}\small表中,1はRIBES,2はLRscore(${d_k}_1$),3はLRscore(${d_k}_2$),4はROUGE-L,5はIMPACT,6はBLEUに対し,有意水準5\%で有意差があることを示す.\par\end{table}\begin{table}[t]\caption{メタ評価の結果(NTCIR-7データ,複数参照翻訳)}\label{NTCIR7-multi}\input{0985table04.txt}\vspace{4pt}\small表中,1はRIBES,2はLRscore(${d_k}_1$),3はLRscore(${d_k}_2$),4はROUGE-L,5はIMPACT,6はBLEUに対し,有意水準5\%で有意差があることを示す.\par\end{table}表\ref{NTCIR7-single},\ref{NTCIR7-multi}より,どの手法に対してもSpearmanの順位相関係数の方がKendallの順位相関係数よりも高い.Kendallの順位相関係数は,2つの順序列の間で一致する半順序関係の数に基づき決定されるため,細かな順位の間違いに敏感である.一方,Spearmanの順位相関係数は順序列の間の順位の差に基づき決定されるため,細かな順位の間違いには鈍感である.本稿で用いたデータでは,自動評価法にとって,明らかに良いシステムと悪いシステムの区別が容易であったため,大きな差での順位の不一致が減少し,Spearmanの順位相関係数がKendallの順位相関係数よりも相対的に高い値を記録したのであろう.ただし,全体の傾向としては両者の間に大きな違いはない.Pearsonの積率相関係数は順位相関係数より高い値を示しており,BLEUではその差が特に大きい.たとえば,表\ref{NTCIR7-multi}の英日タスクでは,Pearsonが0.9以上であることに対し,Spearmanは0.7程度でしかない.これは,人間の評価との順位付けはやや強い程度相関でしか示していないにも関わらず,線形の相関は非常に強いことを意味する.Pearsonの積率相関係数は外れ値がある場合,その値が過剰に高く見積もられるということが知られているが,その影響が強く出ているのではないかと考える.よって,以降では主に順位相関に焦点をあてて議論する.表\ref{NTCIR7-single}より,日英翻訳に関しては,RIBESが他のすべての手法に対して統計的有意に優れている.英日翻訳に関しては,RIBESとLRscore(${d_k}_1$)が同程度で優れており,十分強い相関である.ROUGE-L,IMPACTが,RIBESほどではないものの比較的よい相関を得ていることに対し,BLEUは双方の言語対において,相関係数の平均値が他のほぼ全ての手法に対し統計的に有意な差で劣っている.さらに,順位相関係数は弱い相関程度でしかない.この結果は,英日,日英翻訳という大きな語順の入れ替えを必要とする言語対を対象とした場合,Nグラム一致率で自動評価を行うことが不適切であることを示唆している.表\ref{NTCIR7-multi}より,参照翻訳の数が増えると相関係数の平均値は上昇する傾向にある.BLEUの相関係数が他の手法よりも有意に劣っていることは単一参照翻訳の場合と同様であるが,順位相関係数はやや強い相関程度にまで上昇している.ROUGE-L,IMPACTの相関係数も上昇しており,ROUGE-Lは日英翻訳に関しては,他のすべての手法に対して,英日翻訳に関しては,RIBES以外の手法に対して統計的有意に優れている.RIBESは,日英翻訳ではROUGE-Lに次いでIMPACTと同程度,英日翻訳ではROUGE-Lと同程度であるが,十分強い相関を示している.BLEU,ROUGE-L,IMPACTの相関係数が複数参照翻訳が与えられた場合に顕著に改善される理由は,語彙のバリエーションが増えたことであろう.これらの手法は,Nグラム一致率,LCS適合率,再現率を利用しているため,参照翻訳とシステム翻訳との間で一致しない単語も評価対象となる.よって,語彙の一致判定を単に文字列としての一致だけで判定すると,意味的には一致するはずのものが一致せずに不当に低いスコアを得るという問題が起こる.しかし,複数参照翻訳の場合には,語彙のバリエーションが増えるためこうした問題は軽減されるのであろう.一方,RIBESでもシステム翻訳と参照翻訳との間の単語一致率は利用するため,一致しない単語を評価対象として用いているが,パラメタによりその影響を小さく抑えることができる.よって,単一参照翻訳でも複数参照翻訳でも安定して高い相関を示すことができた.\subsection{NTCIR-9データ}表\ref{NTCIR9}に相関係数の平均値を示す.NTCIR-7のデータとは異なり,どの手法も相関係数の平均値は大幅に低下している.特にROUGE-L,IMPACT,BLEUは,非常に弱い相関,あるいは無相関と言えるほどである.この原因は先の実験結果と同様,参照翻訳の数が1つであることに加え,評価対象となる翻訳システムの中でのルールベースの翻訳システム(SMTとのハイブリッドも含む)の占める割合が増したことにある.NTCIR-7と比較すると,日英翻訳に関してはルールベースシステムは2システムから6システムへ,英日翻訳に関しては1システムから5システムへと増えた.\begin{table}[t]\caption{メタ評価の結果(NTCIR-9データ,単一参照翻訳)}\label{NTCIR9}\input{0985table05.txt}\vspace{4pt}\small表中,1はRIBES,2はLRscore(${d_k}_1$),3はLRscore(${d_k}_2$),4はROUGE-L,5はIMPACT,6はBLEUに対し,有意水準5\%で有意差があることを示す.\par\end{table}\begin{figure}[t]\begin{center}\includegraphics{21-3ia985f2.eps}\end{center}\caption{ユニグラム適合率と人間のスコアの関係}\label{uniprec}\end{figure}図\ref{uniprec}にユニグラム適合率と人間のスコアの関係を示す.図中四角のマーカ(RBMT-1〜6,JAPIO,TORI,EIWA)がルールベースの翻訳システムである.図から明らかなように,ルールベースの翻訳システムはユニグラム適合率が低いにも関わらず人間の評価では高いスコアを獲得している.つまり,これらのシステムの翻訳は,参照翻訳と一致する単語の割合が少ないにも関わらず人間の評価では高いスコアを獲得している.ルールベースの翻訳システムは,訓練データから訳語を推定するSMTシステムほど語彙の統制がとれていない.よって,翻訳対象のドメインに合致した語彙,すなわち,特許特有の語彙を用いて翻訳できるとは限らない.しかし,SMTシステムにとって大きな問題となる語順の入れ替えに関しては,記述されたルールに当てはまる限りは問題となり得ない.よって,特許の訳語として多少おかしくとも文全体で意味が通る翻訳となり,その結果,人間が高いスコアを与えたのであろう.先にも説明した通り,BLEUは,Nグラムの適合率,ROUGE-LとIMPACTはLCSの適合率・再現率に基づきスコアを決定する.つまり,参照翻訳と一致する単語の割合が大きいシステム翻訳にしか高いスコアを与えることができない.よって,ルールベースシステムに高いスコアを与えることはできず,それらの性能を低く見積もってしまったことにより,相関が著しく低下したと考える.一方,RIBESとLRscoreはこれらの手法とは異なり,単語正解率,BLEUスコアをパラメタで軽減することで単語一致率の低いシステムであっても高いスコアを与えることができるという特徴がある.実際,日英,英日の双方においてROUGE-L,IMPACT,BLEUといった従来の自動評価法に対し,統計的有意に高い相関係数を獲得していることがそれの有効性を示唆している.ユニグラム適合率が低いところでの自動評価法の性能をより詳細に調べるため,ルールベースの翻訳システムのみを取り出し,同様の実験を行い相関係数の平均値を求めたところ,表\ref{rbmt}を得た.翻訳システム数は日英翻訳タスクで6,英日翻訳タスクで5である.サンプル数が少ないため,相関係数の値に対する信頼性がこれまでの実験よりも劣ることに注意されたい.表\ref{rbmt}より,RIBESは日英翻訳タスクでROUGE-L,IMPACTに劣るものの全体を通してみれば他の手法より良い相関を得ている.参照翻訳が1つしかないという影響もあるが,英日翻訳タスクではROUGE-L,IMPACT,BLEUは負の相関でしかない.さらに,先に示したとおり,表\ref{NTCIR9}においてRIBESがルールベースシステム,SMTシステム双方を含む場合でも良い相関を得たこともふまえると,参照翻訳とシステム翻訳との間で一致する単語が少ない場合でもRIBESは有効であると考える.\begin{table}[b]\caption{RBMTだけを用いたメタ評価の結果(NTCIR-9データ,単一参照翻訳)}\label{rbmt}\input{0985table06.txt}\vspace{4pt}\small表中,1はRIBES,2はLRscore(${d_k}_1$),3はLRscore(${d_k}_2$),4はROUGE-L,5はIMPACT,6はBLEUに対し,有意水準5\%で有意差があることを示す.\par\end{table}以上より,BLEU,ROUGE-L,IMPACTといった単語の一致に強く依存する従来の自動評価法は,単一参照翻訳時,評価対象としてルールベースシステムが多く混在する場合には著しく信頼性が低下することを示した.特に,参照翻訳は常に複数与えられるとは限らないため,自動評価法としては単一参照翻訳でも人間の評価結果との間の相関が高いことが望ましい.RIBESは,参照翻訳数,ルールベースシステムの数が変化した場合でも安定して高い相関であることから,従来の自動評価法よりも優れていると考える.ただし,RIBESには単語正解率と短い翻訳に対するペナルティを調整するための重みパラメタがある.これらパラメタを最適化するためには,いわゆる教師データが必要となることから,それを必要としないBLEU,ROUGE-Lよりもコストのかかる手法とも言える.しかし,実験結果より,各システムに対し10文を人間が評価した結果を教師データとしてパラメタを最適化できることを示した.よって,十分低いコストでパラメタの最適が可能である.\subsection{獲得されたパラメタに関する考察}\begin{figure}[b]\begin{center}\includegraphics{21-3ia985f3.eps}\end{center}\caption{獲得されたパラメタの分布(RIBES)}\label{parm}\end{figure}最後にRIBESとLRscoreについて獲得されたパラメタ,$\alpha$,$\beta$,$\gamma$の違いから考察する.図\ref{parm}に$\alpha$,$\beta$の分布,図\ref{lr-parm}に$\gamma$の分布を示す.\begin{figure}[t]\begin{center}\includegraphics{21-3ia985f4.eps}\end{center}\caption{獲得されたパラメタの分布(LRscore)}\label{lr-parm}\end{figure}図\ref{parm}より,パラメタ最適化のための訓練事例が10文と少ないことも影響してか,獲得されたパラメタにばらつきがあるが,単一参照翻訳の場合には小さな$\alpha$が選択されている割合が多く,4.3節の仮説と一致する.また,NTCIR-9のように単一参照翻訳かつルールベースシステムの数が多い場合には,$\alpha=0$の場合が非常に多い.一方,複数参照翻訳がある場合,比較的大きな$\alpha$が選択されている.$\beta$に関しては,複数参照翻訳時には高い値が選ばれている割合が高く,4.3節の仮説と一致するが,単一参照翻訳時には必ずしも低い値が選ばれておらず先の仮説と一致しない.しかし,人間の評価との間の相関をみる限り,RIBESは従来法よりも比較的高い相関を得ていることから,これは大きな問題ではないと考える.図\ref{lr-parm}より,LRscoreのNTCIR-9では,$\gamma=1$付近が多く選択されており,語順の相関に対する重みを上げ,語彙の一致(BLEUスコア)に対する重みを下げるようにパラメタを選択しており,RIBESと同様の傾向を示している.しかし,NTCIR-7では,単一参照翻訳,複数参照翻訳に関わらず0.3から0.6までの値が多く選ばれており,NTCIR-9の場合ほどBLEUスコアに対する重みを下げるようなパラメタが選択されていない.NTCIR-7ではRIBESの相関が概ねLRscoreの相関を上回っていたが,その原因はこうした語彙の一致に対する重みの違いによると考える.さらにRIBESは2つのパラメタ$\alpha$,$\beta$があることに対し,LRscoreは1つのパラメタ$\gamma$しかない.よって,RIBESはLRscoreよりもより柔軟にデータにフィットできる点が双方の手法のパラメタ選択,相関係数の差に影響を与えたとも考える.5.2節でも述べたが,$\alpha=0$,$\beta=1$,$\gamma=1$とした場合,RIBESもLRscoreも語彙の一致スコアを考慮せず順位相関と短い翻訳に対するペナルティだけを考慮することになり,両者はほぼ一致する.図\ref{lr-parm}より,LRscoreでは$\gamma=1$が試行の半数近くで選択されているが,図\ref{parm}のNTCIR-9でそうした例がみられるものの全体に占める割合は決して多くはない.また,LRscoreの語順相関の計算法として${d_k}_1$と${d_k}_2$の双方を試したが,一貫して,${d_k}_1$の方がよい相関を示した.こうしたことから,基本的にはRIBESとLRscoreは違うものと捉えて差し支えないだろう. \section{まとめと今後の課題} 本稿では,翻訳時に大きな語順の入れ替えが必要となる英日,日英翻訳システムを対象として,文全体での大局的な語順の相関をKendallの順位相関係数に基づき決定し,これと単語適合率,短い翻訳に対するペナルティを重み付きで乗じた自動評価法であるRIBES(Rank-basedIntuitiveBilingualEvaluationScore)を提案した.NTCIR-7,NTCIR-9の特許翻訳タスクのデータを用いてメタ評価を行ったところ,BLEU,ROUGE-L,IMPACTといった従来の自動評価法は,参照翻訳の数が少ない場合,評価対象システムにおけるルールベースシステムの割合が大きい場合に相関が低下することに対し,RIBESは,こうした状況でも安定して高い相関を示すことを確認した.また,RIBESと同じくKendallの順位相関係数に基づく自動評価手法であるLRscoreと比較してもRIBESが少なくとも同等以上の性能であることを確認した.評価実験では,英日,日英翻訳システムを対象としたが,これ以外にも翻訳時に大きな語順の入れ替えを必要とする言語対を対象とした翻訳システムの評価時には有効であると考える.本稿では,100文規模程度のコーパスを用いて翻訳システム間の優劣を人間と同様に自動評価すること,つまり,システム単位での人間の評価結果に対して相関が高い自動評価法を実現することを目的としたが,こうした粗い評価だけではなく,翻訳システムの特徴をより詳細に分析するため,個々の文に対して人間が与えたスコアと自動評価法が与えたスコアとの間の相関を向上させることを目的とした研究もある\cite{Kulesza04,Gamon05,echizenya:ACL2010}.機械翻訳システムが発展していくにつれ,文単位で細かな評価をしたいという要求はより増していくと考えられるので,こうした着眼点は極めて重要である.ROUGE-L,IMPACTと同様,RIBESは文単位でも自動評価スコアを計算できるので,これらの手法の文単位での自動評価スコアと人間の評価スコアとの間のSpearmanの順位相関係数を計算した.その結果を表\ref{persent}に示す.NTCIR-7データでの相関がNTCIR-9データでの相関よりも高いという傾向はシステム単位での実験結果と同様であるが,相関係数の値は大きく下がっている.この原因は,個々の文に対する人間の評価にはゆれがあることだろう.3手法とも,NTCIR-7の日英翻訳タスクではやや弱い相関,英日翻訳タスクではやや強い相関である.RIBESはROUGE-Lとほぼ同程度で,日英翻訳タスクでIMPACTに4ポイント程度劣るものの英日翻訳タスクではIMPACTに9ポイント程度勝っている.一方,NTCIR-9データの場合,もともとシステム単位での相関もNTCIR-7データほど高くはなかったが,文単位での相関は,どの手法でもほぼ無相関という結果であった.この原因には,評価のゆれに加え,各翻訳文に対する評価者が1名であることから,人間の評価の信頼性が低いこと,スコアが5段階のカテゴリカルデータになってしまったこと,参照翻訳数が1つしかないことが考えられる.今後,より良い自動評価法を開発するため,こうした文単位での相関をシステム単位での相関程度まで向上させることは自動評価法の大きな課題だと考える.\begin{table}[t]\caption{文単位でのメタ評価の結果}\label{persent}\input{0985table07.txt}\small表中の数値はSpearmanの順位相関係数を表す.\par\end{table}\acknowledgment本論文の内容の一部は,\textit{EMNLP2010:ConferenceonEmpiricalMethodsinNaturalLanguageProcessing}で発表したものである\cite{isozaki:emnlp2010}.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Banerjee\BBA\Lavie}{Banerjee\BBA\Lavie}{2005}]{meteor}Banerjee,S.\BBACOMMA\\BBA\Lavie,A.\BBOP2005\BBCP.\newblock\BBOQ{Meteor}:AnAutomaticMetricfor{MT}EvaluationwithImprovedCorrelationwithHumanJudgements.\BBCQ\\newblockIn{\BemProceedingsofACLWorkshoponIntrinsicandExtrinsicEvaluationMeasuresfor{MT}andSummarization},\mbox{\BPGS\65--72}.\bibitem[\protect\BCAY{Birch\BBA\Osborne}{Birch\BBA\Osborne}{2010}]{birch-wmt2010}Birch,A.\BBACOMMA\\BBA\Osborne,M.\BBOP2010\BBCP.\newblock\BBOQLRscoreforEvaluatingLexicalandReorderingQualityin{MT}.\BBCQ\\newblockIn{\BemProceedingsoftheJoint5thWorkshoponStatisticalMachineTranslationand{MetricsMATR}},\mbox{\BPGS\327--332}.\bibitem[\protect\BCAY{Birch\BBA\Osborne}{Birch\BBA\Osborne}{2011}]{birch-acl}Birch,A.\BBACOMMA\\BBA\Osborne,M.\BBOP2011\BBCP.\newblock\BBOQReorderingMetricsforMT.\BBCQ\\newblockIn{\BemProceedingsofthe49thAnnualMeetingoftheAssociationforComputationalLinguistics:HumanLanguageTechnologies},\mbox{\BPGS\1027--1035}.\bibitem[\protect\BCAY{Birch,Osborne,\BBA\Blunsom}{Birchet~al.}{2010}]{birch}Birch,A.,Osborne,M.,\BBA\Blunsom,P.\BBOP2010\BBCP.\newblock\BBOQMetricsfor{MT}Evaluation:EvaluatingReordering.\BBCQ\\newblock{\BemMachineTranslation},{\Bbf24}(1),\mbox{\BPGS\15--26}.\bibitem[\protect\BCAY{Doddington}{Doddington}{2002}]{nist}Doddington,G.\BBOP2002\BBCP.\newblock\BBOQAutomaticEvaluationofMachineTranslationQualityUsingN-gramCo-OccurrenceStatistics.\BBCQ\\newblockIn{\BemProceedingsofthe2ndInternationalConferenceonHumanLanguageTechnologyResearch},\mbox{\BPGS\138--145}.\bibitem[\protect\BCAY{Echizen-ya\BBA\Araki}{Echizen-ya\BBA\Araki}{2007}]{impact}Echizen-ya,H.\BBACOMMA\\BBA\Araki,K.\BBOP2007\BBCP.\newblock\BBOQAutomaticEvaluationofMachineTranslationbasedonRecursiveAcquisitionofanIntuitiveCommonPartsContinuum.\BBCQ\\newblockIn{\BemProceedingsofthe{MTSummitXII}WorkshoponPatentTranslation},\mbox{\BPGS\151--158}.\bibitem[\protect\BCAY{Echizen-ya\BBA\Araki}{Echizen-ya\BBA\Araki}{2010}]{echizenya:ACL2010}Echizen-ya,H.\BBACOMMA\\BBA\Araki,K.\BBOP2010\BBCP.\newblock\BBOQAutomaticEvaluationMethodforMachineTranslationUsingNoun-PhraseChunking.\BBCQ\\newblockIn{\BemProcessingsofthe48thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\108--117}.\bibitem[\protect\BCAY{Echizen-ya,Ehara,Shimohata,Fujii,Utiyama,Yamamoto,Utsuro,\BBA\Kando}{Echizen-yaet~al.}{2009}]{echizenya-wpt09}Echizen-ya,H.,Ehara,T.,Shimohata,S.,Fujii,A.,Utiyama,M.,Yamamoto,M.,Utsuro,T.,\BBA\Kando,N.\BBOP2009\BBCP.\newblock\BBOQMeta-EvaluationofAutomaticEvaluationMethodsforMachineTranslationusingPatentTranslationDatainNTCIR-7.\BBCQ\\newblockIn{\BemProceedingsofthe3rdWorkshoponPatentTranslation},\mbox{\BPGS\9--16}.\bibitem[\protect\BCAY{Fujii,Utiyama,Yamamoto,\BBA\Utsuro}{Fujiiet~al.}{2008}]{ntcir7}Fujii,A.,Utiyama,M.,Yamamoto,M.,\BBA\Utsuro,T.\BBOP2008\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaksattheNTCIR-7Workshop.\BBCQ\\newblockIn{\BemProceedingsofNTCIR-7WorkshopMeeting},\mbox{\BPGS\389--400}.\bibitem[\protect\BCAY{Gamon,Aue,\BBA\Smets}{Gamonet~al.}{2005}]{Gamon05}Gamon,M.,Aue,A.,\BBA\Smets,M.\BBOP2005\BBCP.\newblock\BBOQSentence-levelMTEvaluationWithoutReferenceTranslations:BeyondLanguageModeling.\BBCQ\\newblockIn{\BemProceedingsoftheEuropeanAssociationforMachineTranslation(EAMT)},\mbox{\BPGS\103--111}.\bibitem[\protect\BCAY{Goto,Lu,Chow,Sumita,\BBA\Tsou}{Gotoet~al.}{2011}]{ntcir9}Goto,I.,Lu,B.,Chow,K.~P.,Sumita,E.,\BBA\Tsou,B.~K.\BBOP2011\BBCP.\newblock\BBOQOverviewofthePatentMachineTranslationTaskattheNTCIR-9Workshop.\BBCQ\\newblockIn{\BemProceedingsofNTCIR-9WorkshopMeeting},\mbox{\BPGS\559--573}.\bibitem[\protect\BCAY{Holm}{Holm}{1979}]{holm}Holm,S.\BBOP1979\BBCP.\newblock\BBOQASimpleSequentiallyRejectiveMultipleTestProcedure.\BBCQ\\newblock{\BemScandinavianJournalofStatistics},{\Bbf6},\mbox{\BPGS\65--70}.\bibitem[\protect\BCAY{Isozaki,Hirao,Duh,Sudoh,\BBA\Tsukada}{Isozakiet~al.}{2010a}]{isozaki:emnlp2010}Isozaki,H.,Hirao,T.,Duh,K.,Sudoh,K.,\BBA\Tsukada,H.\BBOP2010a\BBCP.\newblock\BBOQAutomaticEvaluationofTranslationQualityforDistantLanguagePairs.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)-2010},\mbox{\BPGS\944--952}.\bibitem[\protect\BCAY{Isozaki,Sudoh,Tsukada,\BBA\Duh}{Isozakiet~al.}{2010b}]{headfinal}Isozaki,H.,Sudoh,K.,Tsukada,H.,\BBA\Duh,K.\BBOP2010b\BBCP.\newblock\BBOQ{HeadFinalization}:ASimpleReorderingRulefor{SOV}Languages.\BBCQ\\newblockIn{\BemProceedingsoftheJoint5thWorkshoponStatisticalMachineTranslationand{MetricsMATR}},\mbox{\BPGS\250--257}.\bibitem[\protect\BCAY{Kendall}{Kendall}{1975}]{kendall}Kendall,M.~G.\BBOP1975\BBCP.\newblock{\BemRankCorrelationMethods}.\newblockCharlesGriffin.\bibitem[\protect\BCAY{Kulesza\BBA\Shieber}{Kulesza\BBA\Shieber}{2004}]{Kulesza04}Kulesza,A.\BBACOMMA\\BBA\Shieber,S.~M.\BBOP2004\BBCP.\newblock\BBOQALearningApproachtoImprovingSentence-LevelMTEvaluation.\BBCQ\\newblockIn{\BemProceedingsofthe10thInternationalConferenceonTheoreticalandMethodologicalIssuesinMachineTranslation(TMI)},\mbox{\BPGS\75--84}.\bibitem[\protect\BCAY{Leusch,Ueffing,\BBA\Ney}{Leuschet~al.}{2003}]{WER}Leusch,G.,Ueffing,N.,\BBA\Ney,H.\BBOP2003\BBCP.\newblock\BBOQANovelString-to-StringDistanceMeasurewithApplicationtoMachineTranslationEvaluation.\BBCQ\\newblockIn{\BemProceedingsoftheMTSummitIX},\mbox{\BPGS\240--247}.\bibitem[\protect\BCAY{Lin\BBA\Och}{Lin\BBA\Och}{2004}]{ROUGEL}Lin,C.-Y.\BBACOMMA\\BBA\Och,F.~J.\BBOP2004\BBCP.\newblock\BBOQAutomaticEvaluationofMachineTranslationQualityUsingLongestCommonSubsequenceandSkip-BigramStatistics.\BBCQ\\newblockIn{\BemProceedingsofthe42ndAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{bleu}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:aMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingoftheAssociationforComputationalLinguistic(ACL)},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Wilcoxon}{Wilcoxon}{1945}]{wilcox}Wilcoxon,F.\BBOP1945\BBCP.\newblock\BBOQIndividualComparisonsbyRankingMethods.\BBCQ\\newblock{\BemBiometricsBulletin},{\Bbf1}(6),\mbox{\BPGS\80--83}.\end{thebibliography}\begin{biography}\bioauthor{平尾努}{1995年関西大学工学部電気工学科卒業.1997年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年株式会社NTTデータ入社.2000年よりNTTコミュニケーション科学基礎研究所に所属.博士(工学).自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL各会員.}\bioauthor{磯崎秀樹}{1983年東京大学工学部計数工学科卒業.1986年同大学院修士課程修了.同年日本電信電話株式会社入社.2011年より岡山県立大学情報工学部教授.博士(工学).言語処理学会,ACM,情報処理学会,人工知能学会,電子情報通信学会各会員.}\bioauthor{須藤克仁}{2000年京都大学工学部卒.2002年同大大学院情報学研究科修士課程修了.同年日本電信電話株式会社入社.現在に至る.音声言語処理,統計的機械翻訳に関する研究に従事.}\bioauthor[:]{DuhKevin}{2003年米国ライス大学工学部電気工学専攻卒業.2006年米国ワシントン大学大学院電気工学研究科修士課程修了.2009年同大学院博士後期課程修了.同年NTTコミュニケーション科学基礎研究所リサーチアソシエイト.2012年奈良先端科学技術大学院大学助教.自然言語処理に関する研究に従事.}\bioauthor{塚田元}{1987年東京工業大学理学部情報科学科卒業.1989年同大学院理工学研究科修士課程修了.同年日本電信電話株式会社入社.現在,NTTコミュニケーション科学基礎研究所に所属.統計的機械翻訳の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,日本音響学会,ACL各会員.}\bioauthor{永田昌明}{1987年京都大学大学院工学研究科修士課程修了.同年,日本電信電話株式会社入社.現在,コミュニケーション科学研究所主幹研究員(上席特別研究員).工学博士.統計的自然言語処理の研究に従事.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\end{biography}\biodate\end{document}
V09N01-05
\section{はじめに} \label{sec:intro}機械翻訳などの多言語間システムの構築において対訳辞書は必要不可欠であり,その品質がシステム全体の性能を左右する.これらに用いられる対訳辞書は現在,人手によって作成されることが多い.しかし,人手による作成には限界があり,品質を向上するためには膨大な労力が必要であること,辞書の記述の一貫性を保つことが困難であることが問題となる.このことからコーパスから自動的に対訳辞書を作成しようとする研究が近年盛んに行われている\cite{gale_91,kaji_96,kitamura_96,fung_97,melamed_97}.本論文では,最大エントロピー法を用いて対訳コーパス上に対訳単語対の確率モデルを推定し,自動的に対訳単語対を抽出する手法を提案する.本論文では対訳関係にある単語の組を対訳単語対と呼ぶ.最大エントロピー法は,与えられた制約の中でエントロピーを最大化するようなモデルを推定するという最大エントロピー原理に基づいており,未知データに対しても確率値をなるべく一様に配分するため,自然言語処理においてしばしば問題となるデータスパースネスに比較的強いという特徴を持っている.このため,構文解析\cite{ratnaparkhi_97,wojciech_98,uchimoto_99},文境界の同定\cite{reynar_97},動詞の下位範疇化モデル\cite{utsuro_97b}などに応用されている.また我々の手法は,既存の対訳辞書を必要とせず,文対応の付いた対訳コーパスさえあれば,対訳コーパスの分野を限定することなく対訳単語対を抽出できるという特徴を持つ.本論文の構成は以下の通りである.\ref{sec:ME_method}節では最大エントロピー法について説明し,\ref{sec:MEdict}節では最大エントロピー法を用いて対訳単語対を抽出する手法を述べる.\ref{sec:experiment_discussion}節では我々が提案した手法の有効性を示すために行った実験の結果とそれに対する考察を述べ,関連研究との比較を行う.\ref{sec:future}節でまとめを述べる. \section{最大エントロピー法} \label{sec:ME_method}一般に確率モデルは,履歴とその時の出力の関係を既知のデータから推定される確率分布によって表す.この際,履歴の種類を多くすればより正確に出力を予測することができるが,履歴の種類を多くしすぎるとそれぞれの履歴における既知データの数が少なくなり,データスパースネスに陥ってしまう.最大エントロピー法では履歴と出力の関係を素性関数で表し,それぞれの素性関数に関して既知データにおける確率分布の期待値と推定すべき確率分布の期待値が等しくなるという制約のもとで,確率分布のエントロピーが最大となるようなモデルを推定する.この操作は,既知データにおいて出現しなかったもの,あるいは稀であったものに対しても一様分布に近づいていくということを意味しており,このため最大エントロピー法はデータスパースネスに対して比較的強いとされている.この性質は,言語モデルのように既知データにおいて全ての事象を扱うことが難しい現象を扱うのに適したものであると言える.最大エントロピー法では,以下のように確率分布を推定する.$X$を履歴の集合,$Y$を出力の集合とする時,既知データの集合$\{(x_i,y_i)\|\x_i\inX,y_i\inY\}$から確率分布$P(y|x)$を推定することを考える.まず,求めたい確率モデルの統計的特性(素性)によって集合$X\timesY$を二つの集合に分割する2値関数$f:X\timesY\rightarrow\{0,1\}$を定義する.このような関数は素性関数と呼ばれる.この時,既知データにおける確率分布$\tilde{P}(x,y)$に関する$f$の期待値と推定すべき確率分布$P(y|x)$に関する$f$の期待値が等しくなるという制約を与える.\begin{equation}\label{eq:constraint}\sum_{x,y}\tilde{P}(x,y)f(x,y)=\sum_{x,y}P(x)P(y|x)f(x,y)\end{equation}計算量の観点から右辺の$P(x)$の代わりに$\tilde{P}(x)$で近似することが多い.ここで,$\tilde{P}(x,y)$,$\tilde{P}(x)$は既知データにおける$(x,y)$,$x$の出現頻度$c(x,y)$,$c(x)$から得られる相対頻度を用いる.\[\tilde{P}(x,y)=\frac{c(x,y)}{\sum_{v,w}c(v,w)}\]\[\tilde{P}(x)=\frac{c(x)}{\sum_vc(v)}\]モデル化の過程において重要であると思われる$n$個の素性関数$f_i$がある時,すべての$f_i$について式(\ref{eq:constraint})を満たすような確率分布は一般的には複数存在するため,これらの中から最も一様な確率分布を選択するのが自然である.条件付き確率分布$P(y|x)$の一様性の数学的な尺度としては条件付きエントロピーがよく用いられ,これを最大とする確率分布が求めるべき確率分布となる.\begin{equation}\label{eq:cond_entropy}H(P)=-\sum_{x,y}\tilde{P}(x)P(y|x)\logP(y|x)\end{equation}このような確率分布は唯一存在し,以下のような$\lambda_i$をパラメータとする形式で表すことができる.\begin{eqnarray}\label{eq:gibbs}P_\lambda(y|x)=\frac{1}{Z_\lambda(x)}\exp\left(\sum_i\lambda_if_i(x,y)\right)\\Z_\lambda(x)=\sum_y\exp\left(\sum_i\lambda_if_i(x,y)\right)\nonumber\end{eqnarray}パラメータ$\lambda_i$の推定にはImprovedIterativeScalingアルゴリズム\cite{berger_96}などが用いられる. \section{最大エントロピー法による対訳単語対の抽出} \label{sec:MEdict}本節では,最大エントロピー法を対訳単語対の抽出に適用する手法を述べる.まず,確率分布の事象の定義を行い,次に対訳単語対の確率分布を推定する際に用いる素性関数を定義する.最後に,得られた確率分布を用いて対訳単語対を抽出する手法を述べる.\subsection{事象の定義}\label{sec:problem_setting}原言語のコーパス$X$,目的言語のコーパス$Y$が対訳となっており,それらの間で単語間の対訳関係が観測されたとする.この時,観測値から得られる同時出現確率は以下の式で表される.\begin{equation}\label{eq:em_joint}\tilde{P}(x,y)=\frac{c(x,y)}{\sum_{v\inX,w\inY}c(v,w)}\end{equation}ここで$c(x,y)$は単語$x$と$y$が対訳関係で出現した回数である.しかし実際には対訳コーパスから単語間の対訳関係を計数することは膨大な労力が必要であるため,文対応があらかじめ付いている対訳コーパスを用いた場合は対訳文の単語数に応じて出現回数を均等に割り振り,式(\ref{eq:article_joint})のように出現回数を近似する.\begin{equation}\label{eq:article_joint}c(x,y)=\sum_i\frac{c'_i(x,y)}{|X_i||Y_i|}\end{equation}ここで,$X_i$は原言語のコーパス$X$の$i$番目の文,$Y_i$は目的言語のコーパス$Y$の$i$番目の文を表す.すなわち$X_i$と$Y_i$は対訳関係にあるものとする.また,$|X_i|$,$|Y_i|$はそれぞれ$X_i$,$Y_i$の文中に含まれる単語数を表し,$c'_i(x,y)$は$i$番目の文において$x$と$y$が出現した回数である.このようにして観測値から得られた$\tilde{P}(x,y)$から,原言語の中に$x$が出現した時に目的言語において$x$が$y$に翻訳される確率$P(y|x)$を推定する.\subsection{素性関数の定義}\label{sec:def_feature}どのような素性関数を定義するかという問題は最大エントロピー法によるモデル化において最も重要である.本論文では以下の4種類のモデルの素性関数を定義した.\subsubsection{対訳文中に現れる単語対の情報を用いた素性関数(素性タイプ1)}\label{sec:model1}対訳コーパスにおいて対応する文で出現したことのある単語対$x,y$は対訳関係にある可能性がある.これを確率モデルに反映させるために以下のような素性関数を定義する.\begin{equation}\label{eq:model1}f_x(x,y)=\left\{\begin{array}{ll}1&\left(\parbox{4.5cm}{\begin{flushleft}$x\inX_i$,$y\inY_i$\\を満たすような$i$が存在する\end{flushleft}}\right)\\0&{\rm(それ以外)}\end{array}\right.\end{equation}\subsubsection{原言語における共起情報を用いた素性関数(素性タイプ2)}\label{sec:model2}一般に,単語はそれと共起する単語によってある程度意味を限定することができる.このことを利用し,原言語のコーパス$X$における単語の共起情報を用いて素性関数を定義する.\begin{equation}\label{eq:model2}f_w(x,y)=\left\{\begin{array}{ll}1&\left(\parbox{5cm}{\begin{flushleft}$x,w\inX_i$,$y\inY_i$,$x\inW(d,w)$\\を満たすような$i$が存在する\end{flushleft}}\right)\\0&{\rm(それ以外)}\end{array}\right.\end{equation}ただし$W(d,w)$はコーパス中で$w\inX$から$d$語以内に出現する単語の集合である.今回の実験では$d=5$とした.$f_w(x,y)$は$x$が$y$に翻訳されることに対して$x$と共起関係にある$w$が予測力を持っているかどうかということを表す(図\ref{fig:cooccurance}).\begin{figure}[htbp]\begin{center}\atari(88,37)\caption{原言語における共起情報を用いた素性関数}\label{fig:cooccurance}\end{center}\end{figure}\subsubsection{原言語と目的言語における共起情報を用いた素性関数(素性タイプ3)}\label{sec:model3}\ref{sec:model2}節で述べた素性関数に目的言語のコーパス$Y$における共起情報を付け加えたものを定義する.\begin{equation}\label{eq:model3}f_{w,v}(x,y)=\left\{\begin{array}{ll}1&\left(\parbox{7.2cm}{\begin{flushleft}$x,w\inX_i$,$y,v\inY_i$,$x\inW(d,w)$,$y\inW(d,v)$\\を満たすような$i$が存在する\end{flushleft}}\right)\\0&{\rm(それ以外)}\end{array}\right.\end{equation}$f_{w,v}(x,y)$は$x$が$y$に翻訳されることに対して$x$と共起関係にある$w$と$y$と共起関係にある$v$が予測力を持っているかどうかということを表す(図\ref{fig:cooccurance2}).\begin{figure}[htbp]\begin{center}\atari(89,37)\caption{原言語と目的言語における共起情報を用いた素性関数}\label{fig:cooccurance2}\end{center}\end{figure}\subsubsection{品詞情報を用いた素性関数(素性タイプ4)}\label{sec:model4}対訳文において対訳関係にある単語同士は同じような形態素的意味を持つ品詞であることが望ましい.しかし,それぞれの言語における形態素解析器の品詞タグセットが全く同じであることは稀である.そこで本論文では各言語の形態素解析器が出力する品詞タグ情報をそのまま使用し,その組み合わせで素性関数を定義する.\begin{equation}\label{eq:model4}f_{t,s}(x,y)=\left\{\begin{array}{ll}1&\left(\parbox{6.5cm}{\begin{flushleft}$x\inX_i,y\inY_i$,$POS(x)=t$,$POS(y)=s$\\を満たすような$i$が存在する\end{flushleft}}\right)\\0&{\rm(それ以外)}\end{array}\right.\end{equation}ここで$POS(x)$は言語$X$における単語$x$の品詞タグ,$POS(y)$は言語$Y$における単語$y$の品詞タグである.$f_{t,s}(x,y)$は$x$が$y$に翻訳されることに対して$x$に割り当てられた品詞$t$と$y$に割り当てられた品詞$s$が予測力を持っているかどうかということを表す(図\ref{fig:morphological}).\begin{figure}[htbp]\begin{center}\atari(88,42)\caption{品詞情報を用いた素性関数}\label{fig:morphological}\end{center}\end{figure}\subsection{対訳単語対の抽出アルゴリズム}\label{sec:extracting}本節では,前節までに述べた手法によって得られた確率モデルを用いて対訳単語対を抽出する手法を述べる.本手法では1単語対1単語の対訳関係を仮定し,CompetitiveLinkingAlgorithm\cite{melamed_97}と類似した抽出アルゴリズム\footnote{CompetitiveLinkingAlgorithmとは対訳単語対の対応度の計算方法が異なる点を除き,本質的には同じアルゴリズムである.}を採用する.\begin{enumerate}\item[1.]閾値$th\in[0,1]$を決める.\item[2.]すべての$(x,y)\inX\timesY$について$P(y|x)$を計算し,$P(y|x)\geqth$となる$(x,y)$をリストに保持する.\item[3.]リストを$P(y|x)$について降順にソートする.\item[4.]\label{enum:rep}$P(y|x)$が最大となる(すなわちリストの先頭にある)$(x',y')$を対訳単語対として抽出する.\item[5.]本手法では1単語対1単語の対訳関係を仮定しているので,$x'$や$y'$を含む単語対は二度と抽出されない.したがって$\left\{(x',v)|v\inY\right\}$や$\left\{(w,y')|w\inX\right\}$に含まれるような単語対をリストから削除する.\item[6.]抽出すべき単語対がまだ存在すれば4.へ戻る.\end{enumerate} \section{実験と考察} \label{sec:experiment_discussion}本節では本論文で述べた手法による実験結果を示し,それに対する考察を述べる.最後に関連研究との比較を行う.\subsection{実験結果}\label{sec:result}本論文でここまで述べた手法を用いて英語$\cdot$日本語間の対訳単語対を抽出する実験を行った.今回の実験では対訳コーパスとして通産省電子技術総合研究所\footnote{現在は独立行政法人産業技術総合研究所}において電子化された講談社和英辞典に含まれる例文のうち30,287文を用い,原言語のコーパス$X$として英語文,目的言語のコーパス$Y$として日本語文を使用した.そのうち,学習コーパスとして27,258文,テストコーパスとして3,029文を用いた.日英対訳例文に対して日本語文は茶筌\footnote{{\tthttp://chasen.aist-nara.ac.jp/}}\cite{chasen20},英語文はBrillTagger\footnote{{\tthttp://www.cs.jhu.edu/$\sim$brill/code.html}}\cite{brill_94}を用いて形態素解析を行った.助詞,助動詞などの機能語,出現回数が極めて多い単語(出現回数1,000回以上),出現回数が極めて少ない単語(出現回数3回以下)を推定から除外した.その結果今回の実験の対象となる単語の語彙数は表\ref{tab:corpus}の通りとなった.\begin{table}[htbp]\centering\caption{コーパスの語彙数}\label{tab:corpus}\begin{tabular}{l|r|r|r}\hline&\multicolumn{1}{c|}{文数}&\multicolumn{1}{c|}{英語語彙数}&\multicolumn{1}{c}{日本語語彙数}\\\hline学習コーパス&27,258&4,664&6,796\\テストコーパス&3,029&3,540&5,753\\\hline\end{tabular}\end{table}学習コーパス中で観測された素性の総数はおよそ4,350万個であった.そのうち確率モデルの推定には学習コーパスで5回以上観測された素性12,368個を用いた.表\ref{tab:feature}にその内訳を示す.\begin{table}[htbp]\centering\caption{学習に使用した素性}\label{tab:feature}\begin{tabular}{c|l|r}\hline\multicolumn{1}{c|}{素性タイプ}&\multicolumn{1}{c|}{素性の種類}&\multicolumn{1}{c}{個数}\\\hline1&対訳文中に現れる単語対(\ref{sec:model1}節)&4,086\\2&原言語における共起情報(\ref{sec:model2}節)&3,112\\3&両言語における共起情報(\ref{sec:model3}節)&5,011\\4&品詞情報(\ref{sec:model4}節)&159\\\hline\end{tabular}\end{table}これらの素性を用いて最大エントロピー法により対訳単語対の確率分布の推定を行った.その際のパラメータ推定にはImprovedIterativeScalingを採用し,その反復回数は400回に設定した.表\ref{tab:ME_result}に本手法による対訳単語対抽出の実験結果を示す.対訳単語対の抽出の際に用いる閾値$th$は$0.5$からはじめ,$0.1$刻みに$0.1$まで下げた.閾値の段階別に対訳単語対として抽出された総抽出数,そのうちの正解数,精度($=\rm{正解数}/\rm{総抽出数}$),再現率($=\rm{正解数}/\rm{日本語語彙数}$)を記す.対訳単語対が正解であるかどうかは既存の辞書を用いて人手により判定した.表の左側は学習コーパスにおける抽出結果である.右側は学習コーパスで学習したパラメータを使用してテストコーパスに対して抽出アルゴリズムを適用したときの結果である.\begin{table}[htbp]\begin{center}\caption{最大エントロピー法による抽出結果}\label{tab:ME_result}\begin{tabular}{r|rr|rr||rr|rr}\hline&\multicolumn{4}{c||}{学習コーパス}&\multicolumn{4}{c}{テストコーパス}\\\hline\multicolumn{1}{c|}{閾値}&\multicolumn{1}{c}{正解数}&\multicolumn{1}{c|}{総抽出数}&\multicolumn{1}{c}{精度(\%)}&\multicolumn{1}{c||}{再現率(\%)}&\multicolumn{1}{c}{正解数}&\multicolumn{1}{c|}{総抽出数}&\multicolumn{1}{c}{精度(\%)}&\multicolumn{1}{c}{再現率(\%)}\\\hline0.5&4&5&80.00&0.06&33&51&64.71&0.57\\0.4&24&29&82.76&0.35&55&90&61.11&0.96\\0.3&154&181&85.08&2.27&252&387&65.12&4.38\\0.2&486&604&80.46&7.15&759&1,224&62.01&13.19\\0.1&1,481&2,011&73.64&21.79&1,397&2,329&59.98&24.28\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:correct}に本手法による対訳単語対抽出の実験によって抽出された対訳単語対の正解例を示す.\begin{table}[htbp]\centering\caption{本手法で抽出した対訳単語対の正解例}\label{tab:correct}\begin{tabular}{l|l|l||l|l|l}\hline\multicolumn{1}{c|}{英語$x$}&\multicolumn{1}{c|}{日本語$y$}&\multicolumn{1}{c||}{$P(y|x)$}&\multicolumn{1}{c|}{英語$x$}&\multicolumn{1}{c|}{日本語$y$}&\multicolumn{1}{c}{$P(y|x)$}\\\hlinesturdy&たくましい&0.6194&hat&帽子&0.4400\\snore&ねむれる&0.5128&chair&いす&0.4304\\trouser&ズボン&0.4907&ambassador&大使&0.4236\\battery&バッテリー&0.4808&library&図書館&0.4211\\negotiation&交渉&0.4634&explanation&説明&0.4209\\taxi&タクシー&0.4599&film&映画&0.4197\\fish&魚&0.4515&pneumonia&肺炎&0.4195\\rally&たちなおる&0.4195&baseball&野球&0.4068\\dog&犬&0.4134&music&音楽&0.4035\\criminal&犯人&0.4100&fuel&燃料&0.4028\\pistol&ピストル&0.4087&toy&おもちゃ&0.3975\\\hline\end{tabular}\end{table}\vspace{1em}\subsection{未知語と解析精度}\label{sec:unknown}本論文で提案した手法によるテストコーパスにおける抽出実験において,テストコーパスにのみ現れた未知の日本語単語と学習コーパスにも現れた日本語単語に分けて精度と再現率を計算した結果を表\ref{tab:test_corpus}に示す.抽出アルゴリズムにおける閾値$th$は$0.1$を用いた.未知語の場合でも,既知の単語とほぼ同等の精度と再現率が得られることが分かる.最大エントロピー法では履歴と出力の関係を素性で表すため,学習データにおいて現れなかった事象でも素性さえ観測できれば確率値を計算することができる.したがって,学習コーパスに特化しない素性を用いてパラメータ推定を行い,その結果を使って対訳単語対の抽出を行えばテストコーパスにおいてもほぼ同等の抽出結果を得ることができるということをこの結果は示している.\begin{table}[tbp]\centering\caption{テストコーパスにおける抽出結果の内訳}\label{tab:test_corpus}\begin{tabular}{l|r|rr|rr}\hline&\multicolumn{1}{c|}{\small{語彙数}}&\multicolumn{1}{c}{\small{正解数}}&\multicolumn{1}{c|}{\small{総抽出数}}&\multicolumn{1}{c}{\small{精度(\%)}}&\multicolumn{1}{c}{\small{再現率(\%)}}\\\hlineテストコーパスのみ現れた単語&2,536&595&1,010&58.91&23.46\\学習コーパスにも現れた単語&3,217&802&1,319&60.80&24.93\\\hline合計&5,737&1,397&2,329&59.98&24.28\\\hline\end{tabular}\end{table}\subsection{抽出誤りについて}\label{sec:correspondance_j_e}学習コーパスでの対訳単語対の抽出結果において誤りとなったものから無作為に100個を選び,それぞれについて誤りとなった原因を調べた.抽出アルゴリズムにおける閾値$th$は$0.1$を用いた.以下は誤った単語対の英単語側に着目した時の誤った原因の内訳である.\begin{enumerate}\item[1.]訳語が抽出対象コーパスに一回も出現しない$\cdots$10個\item[2.]訳語が抽出対象コーパスには存在するが,抽出対象には含まれない$\cdots$49個\item[3.]形態素の区切りが異なる$\cdots$15個\item[4.]形態素解析誤り$\cdots$4個\item[5.]その他$\cdots$22個\end{enumerate}1.はある英単語に対応する日本語単語が抽出対象コーパス中に一回も出現していない場合である.対訳文を見ると,以下のようないわゆる「意訳」に近いものであったり慣用句的な表現であった.\begin{flushleft}\begin{quote}$\left\{\begin{array}{l}${\rmThetaxidriverdemandedanunreasonablefare.}$\\\rm{タクシーに乗ったら法外な料金をとられた.}\\\end{array}\right.$\end{quote}\end{flushleft}この例の場合では``driver''の訳として``運転手''あるいは``ドライバー''を推定するためには意味解析などのより高度な解析が必要になることから,現時点ではこのような対訳文だけから正しい対訳単語対を抽出することは難しいと思われる.2.はある英単語に対応する日本語単語が抽出対象コーパス中には出現するが,出現回数の制限により抽出対象である$6,796$語に含まれない場合である.対訳文を見ると,日本語単語の表記の揺れにより出現回数が分散してしまうことが原因であった.例えば``solemnly''の訳語候補として``厳粛に'',``粛々と'',``荘厳に''のように複数の正しい訳語が対訳文中に現れているが,出現回数がそれぞれに分散し出現回数の閾値の下限を下回り実験対象に含まれない.これに対しては,日本語のシソーラスを利用して複数の訳語を同一視することで抽出が可能になると思われる.3.は英単語と日本語単語の形態素の区切りが異なる場合である.``shoulder''に対する訳語は``肩''となるべきであるが,日本語コーパスの形態素解析の結果には``肩''という単語は含まれていなかったため,``右肩''という単語が出力される結果となった.本手法が1単語対1単語の対訳関係を仮定していることが原因であると考えられる.\cite{kumiko_SIGNL97,yamamoto_00}では統計情報から得られる連語や係り受け解析結果から得られる文節を単位として対訳関係を推定することにより精度を上げており,統計的$\cdot$意味的にまとまりのある単位で対応付けを行う方が良いことを示している.対訳文においては,形態素単位では対応が取れない場合であっても統計的$\cdot$意味的にまとまりのある単位では対応が取れることが多いと考えられる.したがって本手法でも,単語単位でなく連語や文節を単位として推定を行うことで精度が向上すると思われる.\subsection{素性と解析精度}\label{sec:feature_accuracy}表\ref{tab:feature2}に,それぞれの素性を削除したことによる精度と再現率の増減を示した.括弧内は素性一個あたりの増減である.抽出アルゴリズムにおける閾値$th$は$0.1$を用いた.\begin{table}[htbp]\centering\caption{素性を削除したときの精度と再現率の増減}\label{tab:feature2}\begin{tabular}{c|r|rr|rr}\hline\multicolumn{1}{c|}{素性タイプ}&\multicolumn{1}{c|}{個数}&\multicolumn{2}{c|}{精度(\%)}&\multicolumn{2}{c}{再現率(\%)}\\\hline1&4,086&$-1.55$&$(-3.79\times10^{-4})$&$-0.85$&$(-2.08\times10^{-4})$\\2&3,112&$-5.03$&$(-1.62\times10^{-3})$&$-7.93$&$(-2.54\times10^{-3})$\\3&5,011&$-4.66$&$(-9.30\times10^{-4})$&$-16.23$&$(-3.24\times10^{-3})$\\4&159&$-0.50$&$(-3.14\times10^{-3})$&$-3.15$&$(-1.98\times10^{-2})$\\\hline\end{tabular}\end{table}素性一個あたりでもっとも抽出結果に影響していると考えられるのは,品詞情報を用いた素性関数(素性タイプ4)であることがこの表からわかる.このことは翻訳候補を選択する際には品詞情報が重要であるという直感的な判断と合致する.逆にもっとも影響していないと考えられるのは,対訳文中に現れる単語対のみを用いた素性(素性タイプ1)である.他の素性は共起情報や品詞情報によって単語対に対して制約を与えているのに対して,タイプ1の素性は対訳文中に現れたことがあるかどうかということのみを扱うため,翻訳候補を選択するには制約が弱いと考えられる.このことから,係り受け情報やシソーラスの情報などによる制約を素性として表し,それらを加えていくことにより抽出結果の改善を期待することができる.ただし,必要以上に素性を増やしていくことは過学習の危険があるので注意が必要である.\subsection{関連研究との比較}\label{sec:related}本手法と同様に対訳文の文対応が既に付いていることを前提にしている研究には\cite{gale_91,kitamura_96,melamed_97}があげられる.\cite{gale_91}は単語対の対応度として$\phi^2$統計を用い,相互情報量より有用であることを示している.\cite{kitamura_96}はDice係数\cite{kay_93}に対して単語対の出現頻度の対数で重み付けする重み付きDice係数を提案し,これを単語対の対応度として採用した.\cite{melamed_97}はCompetitiveLinkingAlgorithmと2つのパラメータに対する山登り法を組み合わせて単語対の対応度を求める手法を提案した.これらの研究に共通する特徴は,単語対の対応度の計算手法において単語対の共起頻度がベースになっているために未知語に弱いということである.学習コーパスと異なるコーパスでは未知語が出現するために単語対の対応度を計算することは不可能となり,対訳単語対を抽出するためには新たに学習しなおさなければならない.これに対して本論文で提案している手法では\ref{sec:unknown}節で述べたように,注目している単語対の前後の文脈や品詞情報を用いた素性を用いているため,未知語の場合にも既知の単語と同様に対応度の計算を行うことができる.本手法と異なり,対訳文の文対応が付いていることを前提としない代わりに,既存の対訳辞書を用いている研究には\cite{kaji_96,fung_97}があげられる.これらの手法は一方の言語で共起する単語の訳語は他方の言語でも共起することを仮定している.\cite{kaji_96}では既存の辞書に含まれる単語との共起集合間の共通部分の大きさで対応度を計算している.\cite{fung_97}では既存の辞書に含まれる単語との重み付き相互情報量を要素とするベクトルを計算し,その内積を対応度として採用している.現状では文対応の付いた対訳コーパスはあまり多くないため,文対応を前提としないこれらの手法は適用できる範囲は広いが,文対応が付いたコーパスを用いた手法よりも精度が劣る.一方,本手法の前提となっている文対応済の対訳コーパスは,原文に忠実に翻訳した対訳コーパスであれば,\cite{kay_93,utsuro_94,sukehiro_95}で提案されている手法により作成することができる.対応する文がなかったり,1つの文が複数の文に対応している場合には人手による後編集が必要になるが,その労力は全て人手による対応付けに比べて比較にならないほど少ないと考えられる.学習コーパスを用いて相対頻度\footnote{相対頻度は学習コーパス中における対訳単語対の出現頻度(式(\ref{eq:article_joint}))から\[\tilde{P}(y|x)=\frac{c(x,y)}{\sum_{v\inY}c(x,v)}\]と計算し,抽出アルゴリズムにおいて$P(y|x)$の代わりに$\tilde{P}(y|x)$を使用して対訳単語対の抽出を行った.}と重み付きDice係数\footnote{重み付きDice係数は以下のように計算される.\[sim(x,y)=\left(\log_2f(x,y)\right)\frac{2f(x,y)}{f_X(x)+f_Y(y)}\]ここで$f(x,y)$は$x$と$y$が対訳文中に出現した回数,$f_X(x)$,$f_Y(y)$はそれぞれコーパス$X$,$Y$内で$x$,$y$が出現した回数である.抽出アルゴリズムにおいて$P(y|x)$の代わりに$sim(x,y)$を使用して対訳単語対の抽出を行った.\cite{kitamura_96}で使用されている対訳単語対抽出アルゴリズムは本論文で示した手法とは異なるが,比較のために本論文で示した手法と同じ抽出アルゴリズムを用いた.}による比較実験を行った.図\ref{fig:compare}\begin{figure}[tbp]\begin{center}\begin{tabular}{cc}\framebox(160,115){}&\framebox(160,115){}\vspace*{1em}\end{tabular}\caption{各手法における抽出結果の比較}\label{fig:compare}\end{center}\end{figure}は,抽出アルゴリズムの閾値を徐々に下げていきながら対訳単語対を抽出した時の,抽出された対訳単語対100個ごとの精度(左)と再現率(右)を示したグラフである.重み付きDice係数は単語対の共起回数が2回以下の場合は対応度が0になってしまうため,2,700個までしか抽出することができなかった.このグラフを見ると大体の場合において本手法がもっとも良い結果となっていることがわかる.相対頻度による抽出は本手法や重み付きDice係数に比べて悪い結果となっている.対訳単語対$(x,y)$について考えた時,$x$とよく共起する単語$x'$が存在すると$(x',y)$の対応度も高くなり$(x',y)$が抽出されてしまう誤りが多く見られ,これが原因であると考えられる.この問題に対して,重み付きDice係数による抽出では単語対の出現回数の対数によって重み付けし,$(x,y)$と$(x',y)$の対応度の差をより広げることによって対処している.本論文で提案した手法では,共起情報や品詞情報を素性として用いてより多くの制約を与えることによりこの問題による誤りを減少させていると考えられる. \section{おわりに} \label{sec:future}本論文では,最大エントロピー法を用いて対訳コーパス上の対訳単語対の確率モデルを推定し,自動的にこれを抽出する手法を提案した.素性関数として共起情報を用いるモデルと品詞情報を用いるモデルを定義した.本手法の有効性を示すために日英対訳コーパスを用いた対訳単語対の抽出実験を行い,本論文で提案した手法が相対頻度や重み付きDice係数による手法よりも精度・再現率において優れた結果となった.また,テストコーパスによる実験では学習コーパスに出現しなかった単語対に関しても学習データに現れたものとほぼ同等の精度・再現率で抽出できることが分かった.しかし,対訳コーパス中に現れる意訳,単語の表記の揺れ,2言語間の形態素の分かち方の違いに対しては有効ではない.これらを克服するために,連語や係り受け解析結果から得られる文節を単位としたりシソーラスを利用して対訳関係を抽出することが今後の課題である.\acknowledgment元慶應義塾大学教授の故中西正和先生に深く感謝致します.電子化された講談社和英辞典の研究使用を許諾してくださった旧通産省電子技術総合研究所に感謝致します.\normalsize\bibliographystyle{jnlpbbl}\bibliography{jpaper}\nocite{satoken_Coling98}\newpage\normalsize\begin{biography}\biotitle{略歴}\bioauthor{佐藤健吾}{平成7年慶應義塾大学理工学部数理科学科卒業.平成9年同大学大学院理工学研究科修士課程計算機科学専攻修了.現在,同大学大学院理工学研究科後期博士課程計算機科学専攻に在学中.自然言語処理,確率的言語モデルなどに興味を持つ.情報処理学会,言語処理学会各会員.}\bioauthor{斎藤博昭}{昭和58年慶應義塾大学工学部数理工学科卒業.現在同大理工学部情報工学科専任講師.工学博士.昭和59年よりカーネギーメロン大学に訪問研究員として滞在し,機械翻訳および音声認識の研究に従事.情報処理学会,言語処理学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V20N03-07
\section{はじめに} label{sec:intro}近年,Twitter\footnote{http://twitter.com/}などのマイクロブログが急速に普及している.主に自身の状況や雑記などを短い文章で投稿するマイクロブログは,ユーザの情報発信への敷居が低く,現在,マイクロブログを用いた情報発信が活発に行われている.2011年3月11日に発生した東日本大震災においては,緊急速報や救援物資要請など,リアルタイムに様々な情報を伝える重要な情報インフラの1つとして活用された\cite{Book_Hakusho,Article_Nishitani,Book_Tachiiri}.マイクロブログは,重要な情報インフラとなっている一方で,情報漏洩や流言の拡散などの問題も抱えている.実際に,東日本大震災においても,様々な流言が拡散された\cite{Book_Ogiue}.{\bf流言}については,これまでに多くの研究が多方面からなされている.流言と関連した概念として{\bf噂},{\bf風評},{\bfデマ}といった概念がある.これらの定義の違いについては諸説あり,文献毎にゆれているのが実情である.本研究では,{\bf十分な根拠がなく,その真偽が人々に疑われている情報を流言と定義し,その発生過程(悪意をもった捏造か自然発生か)は問わない}ものとする.よって,最終的に正しい情報であっても,発言した当時に,十分な根拠がない場合は,流言とみなす.本論文では,マイクロブログの問題の1つである,流言に着目する.流言は適切な情報共有を阻害する.特に災害時には,流言が救命のための機会を損失させたり,誤った行動を取らせたりするなど,深刻な問題を引き起こす場合もある.そのため,マイクロブログ上での流言の拡散への対策を検討していく必要があると考えられる.マイクロブログの代表的なツールとして,Twitterがある.Twitterは,投稿する文章(以下,ツイート)が140字以内に制限されていることにより,一般的なブログと比較して情報発信の敷居が低く\cite{Article_Tarumi},またリツイート(RT)という情報拡散機能により,流言が拡散されやすくなっている.実際に,東日本大震災においては,Twitterでは様々な流言が拡散されていたが,同じソーシャルメディアであっても,参加者全員が同じ情報と意識を持ちやすい構造を採用しているmixi\footnote{http://mixi.jp/}やFacebook\footnote{http://www.facebook.com/}では深刻なデマの蔓延が確認されていないという指摘もある\cite{Book_Kobayashi}.マイクロブログ上での流言の拡散への対策を検討するためには,まずマイクロブログ上の流言の特徴を明らかにする必要がある.そこで本論文では,マイクロブログとして,東日本大震災時にも多くの流言が拡散されていたTwitterを材料に,そこから481件の流言テキストを抽出した.さらに,どのような流言が深刻な影響を与えるか,有害性と有用性という観点から被験者による評価を行い,何がその要因となっているか,修辞ユニット分析の観点から考察を行った.その結果,震災時の流言テキストの多くは行動を促す内容や,状況の報告,予測であること,また,情報受信者の行動に影響を与えうる表現を含む情報は,震災時に高い有用性と有害性という全く別の側面を持つ可能性があることが明らかとなった.以下,2章において関連研究について述べる.3章では分析の概要について述べる.4章で分析結果を示し,マイクロブログ上での流言について考察する.5章で将来の展望を述べ,最後に6章で本論文の結論についてまとめる. \section{関連研究} label{sec:reference}本論文では,災害時のマイクロブログ上での流言について分析を行う.そこで本章では,まず,流言に関するこれまでの定義について述べた後,災害や流言について扱ったソーシャルメディアに関する研究について述べる.\subsection{流言の定義と流言の伝達}本節では,実社会における流言の先行研究について述べる.流言の分類としては,ナップによる第2次世界大戦時の流言の分類がある\cite{ナップ1944}.ナップは,流言を「恐怖流言(不安や恐れの投影)」「願望流言(願望の投影)」「分裂流言(憎しみや反感の投影)」の3つに分類している.また,これらの流言がどのように流通するかは,例えば不景気,災害など,社会状況に依存すると述べている.また,社会状況だけでなく,流言の伝達に影響する要素として,流言の内容,特に,{\bf曖昧さ},{\bf重要さ},{\bf不安}という3つの要因が知られている\cite{Book_Kawakami}.オルポートとポストマンは,流言の流布量について,$R\simi\timesa$のように定式化し,「流言の流布量(R)は,重要さ(i)と曖昧さ(a)の積に比例する」と述べている\cite{Book_dema}.このように,流言に関しては古くから研究が行われてきたが,主に口伝えでの流言の伝達を対象としてきた.本論文では,口伝えより,より迅速に,また,広範囲に広まりうるネットワーク上での流言を扱った点が新しい.\subsection{災害,流言とソーシャルメディア}本節では,災害を扱ったTwitterをはじめとするソーシャルメディアの先行研究について概観する.災害時のソーシャルメディアの利用方法について分析した研究としては,まずLonguevilleらやQuら,Backら,Cohnら,Viewegらの研究がある\cite{Inproc_Longueville,Inproc_Qu2009,Inproc_Qu,Article_Back,Article_Cohn,Inproc_Vieweg}.Longuevilleらは,2009年にフランスで発生した森林火災に関して,Twitterに発信されたツイートの分析を行っている\cite{Inproc_Longueville}.この研究においては,ツイートの発信者の分類や,ツイートで引用されたURLの参照内容に関する分析などを行っている.Quらは四川大地震および青海地震において中国のオンラインフォーラム(BBS)がどのように利用されたのかを分析している\cite{Inproc_Qu2009,Inproc_Qu}.また,BackらやCohnらは,9.11時のブログの書き込み内容を分析し,人々の感情の変化を分析している\cite{Article_Back,Article_Cohn}.Viewegら\cite{Inproc_Vieweg}は,2009年のオクラホマの火事(OklahomaGrassfires)やレッドリバーでの洪水(RedRiverFloods)におけるTwitterの利用方法を調査している.これらの研究では発信された内容を分類し,情報の発信の方法(情報発信か返信か)や,その位置関係について議論しているが,情報が流言かどうかといった観点からの分析は行われていない.流言については,災害時に限らず,多くのソーシャルメディア上の研究がある.Qazvinianらは,マイクロブログ(Twitter)における特定の流言に関する情報を網羅的に取得することを目的とし,流言に関連するツイートを識別する手法を提案している\cite{Inproc_Qazvinian}.Mendozaらは,2010年のチリ地震におけるTwitterユーザの行動について分析を行っている\cite{Inproc_Mendoza}.この研究では,正しい情報と流言に関するツイートを,「支持」「否定」「疑問」「不明」に分類し,支持ツイート,否定ツイートの数について,正しい情報と流言との違いを分析している.分析結果として,正しい情報を否定するツイートは少ないが(0.3\%),流言を否定するツイートは約50\%に上ることを示している. \section{分析の概要} マイクロブログ上での流言拡散への対策を検討するためには,マイクロブログ上の流言の特徴を明らかにする必要がある.まず,なぜ人間は流言を拡散させるのであろうか.一般に,人々がある情報を他者に伝える場合,その情報が正しいと思って伝えていることが多く,本人がでたらめだと思う話を,悪意をもって他者に伝えることは少ない\cite{Book_Kawakami}.また,流言とは,曖昧な状況に巻き込まれた人々が,自分たちの知識や情報を寄せ集めることにより,その状況について意味のある解釈を行おうとするコミュニケーションであるという考察もある\cite{Article_Sato}.つまり,災害時の流言は,何らかの役に立ち得る(有用性のある)情報を含み,それを共有するために善意で拡散されている可能性がある.次に,流言が拡散された場合,どのような問題が起きるかという点を考えると,\ref{sec:intro}章で述べたように,情報受信者を誤った行動に導き,様々な損失を与えるということが考えられる.つまり,特に対策を講じるべき流言とは,情報受信者にとって有害性のある情報である.また,上述した何らかの役に立ち得る(有用性のある)情報は,人々の行動などに影響を与える可能性もある.すなわち,流言の内容が有用と判断される場合には,情報受信者の何らかの行動を引き起こし得ると考えられ,有用性の高さは有害性と関連する可能性がある.そこで本研究では,上述した「有害性」および「有用性」という観点に着目し,次の2つの分析を行う.\begin{enumerate}\item{\bf流言の有害性/有用性}:どのような流言が有害または有用とみなされるのかの主観評価を行う.\item{\bf流言の修辞ユニット分析}:どのような特徴が先の有害性/有用性に影響を与えているのか,後述する修辞ユニット分析という手法を用いて解析する.\end{enumerate}\subsection{材料:対象データセット}\label{sec:dataset}本研究では,分析対象のデータとして,東日本大震災ビッグデータワークショップにおいてTwitterJapan株式会社により提供された,3月11日から1週間分のツイートデータを用いた.\ref{sec:intro}章で述べたように,本論文では,十分な根拠がなく,その真偽が人々に疑われている情報を流言と定義する.そこで,ある情報の真偽について言及しているツイートが投稿されている場合,真偽を疑問視された内容は流言と見なし,それらを分析対象の流言として用いることとする.\begin{table}[b]\caption{流言抽出のパターン}\label{正規表現}\input{24table01.txt}\end{table}流言は以下の手順で抽出した.\begin{enumerate}\itemデータ全体から,情報の真偽について言及しているツイートをキーワード「デマ」をもとに抽出する\footnote{今回は,真偽を言及する際に「デマ」「流言」など特定のキーワードが用いられる可能性があると考え,表\ref{正規表現}のPTN2に相当する文字列を含むツイートを抽出した.}.\item手順(1)で抽出したツイートから,``「〜」というデマ''というパターンを用いて流言内容(「〜」部)を抽出する.用いたパターンは表\ref{正規表現}に示す.\item抽出された流言内容を人手で確認し,内容を理解可能なもののみを抽出する.\end{enumerate}上記の手順により,486件\footnote{なお,抽出した486件の流言テキストのうち,5件は分析対象外としたため,実際の分析対象となった流言テキストは481件である.詳細は\ref{sec:result}章で述べる.}の流言テキストを抽出した.抽出されたテキストの一部を表~\ref{table:example}に示す.なお,本手順では,同じ流言の異なる表現のバリエーションも抽出されうる.例を表~\ref{table:difEx}に示す.本研究では,同じ流言を意図していても,伝え方によって印象が異なる可能性があると考え,1つの流言に対する分析対象を1つのテキストとするのではなく,複数のテキストを扱うこととする.\begin{table}[t]\caption{抽出された流言の例}\label{table:example}\input{24table02.txt}\end{table}\begin{table}[t]\caption{同じ流言の表現のバリエーションの例}\label{table:difEx}\input{24table03.txt}\end{table}\subsection{分析1:流言内容の影響度に関する主観評価}前述したように,災害時の流言拡散において,実際的に問題となるのは,その流言が実際に流言(虚偽の情報)であった場合,どれくらい有害であるか,また,逆に,それが流言でなかった場合,どれくらい有用であるのかという2つの問題である.そこで,以下の2項目について主観評価を実施した.\begin{description}\item[有害性:]この情報が間違っている場合,この情報は人にとって有害である.\item[有用性:]この情報が正しい場合,この情報は人にとって有用である.\end{description}なお,本評価では,評価者自身にとって有害・有用でない情報であっても,ある人にとって有害・有用であると考えられる場合は,有害・有用と判断してもらうこととした.各項目の評価は,5段階評価(1:強く同意しない,2:同意しない,3:どちらともいえない,4:同意する,5:強く同意する)を用いることとし,共著者を含む7名の評価者により評価を行った.また,評価者が上記のいずれの評価値もつけることができないと判断した場合,評価不能($-1$)とすることとした.\subsection{分析2:流言内容の分類}分析1では,流言の有害性と有用性という2つの尺度から,流言について主観評価を行った.次に問題となるのは,流言のどのような要素が有害性や有用性に影響を与えているかである.そこで,2つ目の分析として,流言内容をいくつかの特徴から分析した.この際に,先行研究で観られた分類(行動を促進するかどうか,ネガティブな内容であるかどうか)に加え,知識伝達の分析に用いられる修辞ユニット分析を用いた.\subsubsection{従来の分類}流言内容を分類した先行研究\cite{Article_Umejima}では,「ネガティブである」「不安を煽る」「行動を促進する」といった観点により流言の分類を行っている.そこで,先行研究における分類に基づき,以下の5項目について主観評価を実施した.\begin{description}\item[ネガティブさ:]この情報はネガティブな内容である.\item[行動促進:]この情報は行動を促している.\item[不安扇動:]この情報は不安を煽る.\item[尤もらしさ:]この情報は尤もらしい.\item[伝聞情報:]この情報には伝聞情報が含まれる.\end{description}各項目の評価は,5段階評価(1:強く同意しない,2:同意しない,3:どちらともいえない,4:同意する,5:強く同意する)を用いることとし,共著者を含む7名の評価者により評価を行った.\subsubsection{修辞ユニット分析}\label{sec:rua}修辞ユニット分析(RhetoricalUnitAnalysis以下,RUA)\cite{Cloran99}は,談話分析手法の1つであり,分析の過程で,伝達される内容の{\bf修辞機能}の特定を行い,文脈化の程度を知ることができる.ここでいう文脈とは,一般的な話であるほど脱文脈化されており,個人的な話であるほど文脈化されているとみなす尺度である.例えば,「ホウ素は特殊な結晶構造をとるため放射線を吸収します。」というのは一般性を持つため脱文脈化されているとみなす.逆に,「ホウ素サプリを採りましょう」というのは聞き手に行動を促しており,文脈化されているとみなす.先行研究では,母子会話や生徒—教師の解析\cite{Cloran94,Cloran99,Cloran2010},作文指導\cite{Article_Sano},Q\&Aサイトの解析\cite{Inproc_TanakaandSano,Inproc_TanakaandSano2,Inproc_TanakaandSano3,Inproc_Tanaka}などに用いられてきた.日本語への適用については文献\cite{Web_Sano,Article_Sano2011}が詳しい.本稿では,その概要のみを述べるものとする.\begin{table}[b]\caption{修辞機能の特定と脱文脈化指数}\label{table:rua}\input{24table04.txt}\vspace{0.5zw}\small「n/a」は該当なし/太字の部分が修辞機能の種類/[]内は脱文脈化指数\par\end{table}RUAは通常次の手続きを踏む.\begin{enumerate}\item発話のメッセージ(基本的には節)の{\bf発話機能}を認定し,{\bf中核要素}と{\bf現象定位}を確認する.{\bf発話機能}は,「与える」と「要求する」の「交換における役割」と,「品物/行為」と「情報」という「交換されるもの」の二項の組み合わせで構成され,「品物/行為」の交換を「提言」,「情報」の交換を「命題」とする\cite{Book_Halliday}.{\bf中核要素}は,基本的には発話内容の主語で判断し,「状況外」など4つのカテゴリからなる.{\bf現象定位}は,発話機能が「命題」と認定されたメッセージについて,その発話内容の出来事が起こった,あるいは起こる時を,基本的にはテンスや時間を表す副詞句などから判断し,「過去」など6つのカテゴリからなる.\itemこの,発話機能と中核要素と現象定位の組み合わせから,14のレベルに細分化された修辞機能が特定され,文脈化の程度(脱文脈化指数と呼ばれる)が測られる(表\ref{table:rua}).脱文脈化指数の数値が大きいものほど脱文脈化の程度が高く一般的・汎用的で,小さいものほど脱文脈化の程度が低く個人的・特定的である.\end{enumerate}各修辞機能と脱文脈化指数へと分類されるテキストの例を以下に示す.[]内は脱文脈化指数を示す.\begin{description}\item[[01]行動]みんなで節電しましょう\\(中核要素対象:みんなで,現象定位対象:節電しましょう)\item[[02]実況]血が流れている。\\(中核要素対象:血が,現象定位対象:流れている)\item[[03]状況内回想]ラックが倒壊した。\\(中核要素対象:ラックが,現象定位対象:倒壊した)\item[[04]計画]お水買っといた方がいいんじゃない?\\(中核要素対象:$\phi$=あなたは(あるいはわたしは),現象定位対象:お水買っといた方がいいんじゃない?)\item[[05]状況内予想]もうすぐ肉不足で焼肉食べられなくなる\\(中核要素対象:$\phi$=あなたは(あるいはわたしは),現象定位対象:もうすぐ肉不足で焼肉食べられなくなる)\item[[06]状況内推測]放射能が来ても自転車のチューブがあれば助かるらしいぞ\\(中核要素対象:$\phi$=あなたは,現象定位対象:自転車のチューブがあれば助かるらしいぞ)\item[[07]自己記述]国際線で1回飛ぶと宇宙線を1ミリシーベルト近く被曝します\\(中核要素対象:$\phi$=あなたは,現象定位対象:宇宙線を1ミリシーベルト近く被曝します)\item[[08]観測]このそば屋の店主はいつも愛想がない\\(中核要素対象:このそば屋の店主,現象定位対象:いつも愛想がない)\item[[09]報告]301号にけが人がいます\\(中核要素対象:けが人が,現象定位対象:います)\item[[10]状況外回想]阪神大震災の際ははじめの地震から三時間後に一番強い地震がきた\\(中核要素対象:一番強い地震が,現象定位対象:きた)\item[[11]予測]関東の方は深夜に地震が起きる可能性があるそうです。\\(中核要素対象:地震が,現象定位対象:起きる可能性があるそうです)\item[[12]推量]首都圏で買いだめすると被災地に物資が届かなくなる\\(中核要素対象:物資が,現象定位対象:届かなくなる)\item[[13]説明]日本ユニセフ協会は募金をピンハネする\\(中核要素対象:日本ユニセフ協会は,現象定位対象:募金をピンハネする)\item[[14]一般化]ホウ素は特殊な結晶構造をとるため放射線を吸収します。\\(中核要素対象:ホウ素は,現象定位対象:特殊な結晶構造をとるため放射線を吸収します。)\end{description}なお,修辞ユニット分析については,修辞ユニット分析に精通した1名の作業者が分類作業を行った. \section{分析結果と考察} \label{sec:result}本論文では,分析1における評価結果において,評価者7名の内4名以上が判定不能と判断したもの,および分析2における修辞機能と脱文脈化指数の認定ができなかったものは分析対象から除外することとした.確認の結果,分析1において評価者4名以上が判定不能と判断したものは存在しなかったため,分析2における修辞機能と脱文脈化指数の認定ができなかった5件のみを除外した,481件の流言テキストを分析対象とした.また,分析1の評価結果については,7名の評価者による全ての評価結果(481件×7名分,3,367件)および7名による評価結果の中央値を用いて考察する\footnote{なお,評価者が「判定不能」と評価した場合,中央値の算出や頻度の計算においては,その評価値は除外する.}.\subsection{流言内容の影響度に関する主観評価結果}\label{sec:subjective}\begin{table}[b]\caption{有害性,有用性に関する分類結果}\label{table:evalRes}\input{24table05.txt}\par\vspace{0.5zw}\small・各評価値は,1:強く同意しない,2:同意しない,3:どちらともいえない,4:同意する,5:強く同意する,を意味する.\\・「判定不能」と評価した評価者がいた場合,その値は除外して中央値を取っている.表中の1.5,2.5,3.5,4.5欄は,除外後の評価結果が偶数個の場合の中央値(中央に近い2つの値の算術平均)である.\par\end{table}本節では,分析1(流言内容の影響度に関する主観評価)の結果について述べる.流言テキストの有害性,有用性に関する主観評価結果を表~\ref{table:evalRes}に示す.表~\ref{table:evalRes}より,481件に対する7名の全評価値\footnote{表中の該当数の合計が全評価結果数(3,367件)に満たないのは,「判定不能」と評価されたものは除外しているためである.}についてみると,有害性,有用性のどちらについても,「同意する」(評価値4または5)が多い傾向が見られる.また,481件の各流言テキストに対する評価値の代表値として,中央値をとった場合の分類結果を見ると,全評価値と同様に,有害性,有用性のどちらも「同意する」(評価値4または5)に分類された流言が多く,震災時に発信された流言テキストは,有害性や有用性が高い傾向が見られる.\begin{table}[b]\caption{有害性評価と有用性評価の分布(中央値を用いた場合)}\label{table:harmful_median}\input{24table06.txt}\end{table}\begin{table}[b]\caption{有害性評価と有用性評価の分布(7名の全評価結果)}\label{table:harmful_all}\input{24table07.txt}\end{table}また,481件に対する7名の有害性,有用性の評価結果ペア(3,367ペア)をもとに順位相関係数を調査した結果,順位相関係数は0.601であり,正の相関がみられた.また,流言テキスト1件毎に中央値をとった場合の,481ペアの有害性,有用性評価結果の順位相関係数は0.628となり,同様に正の相関がみられた.有害性評価と有用性評価の分布を表~\ref{table:harmful_median},\ref{table:harmful_all}に示す.表~\ref{table:harmful_median},\ref{table:harmful_all}より,一部,有害性と有用性の分類結果に相関がみられないものも見られる.例えば,「ほくでんが東京電力に電力提供する準備を始めた」という流言テキストは,有害性の評価結果(中央値)は2であったが,有用性の評価結果(中央値)は4であった.また,「韓国で日本の大地震を記念したTシャツが売られている」という流言テキストは,有害性の評価結果(中央値)は4であったが,有用性の評価結果(中央値)は2であった.これらの一部例外となる流言テキストはあるものの,大部分の流言テキストについては,有害性と有用性の分類結果は類似している.つまり,{\bf有用性と有害性は表裏一体の関係にあることが多く,情報が正しい場合に有用性の高い内容は,その情報が間違っていた場合に有害となりうると言える.}\subsection{流言内容の分類結果}\label{sec:ruaRes}\begin{table}[b]\caption{主観評価による分類結果}\label{table:evalRes2}\input{24table08.txt}\par\vspace{0.5zw}\small・各評価値は,1:強く同意しない,2:同意しない,3:どちらともいえない,4:同意する,5:強く同意する,を意味する.\\・「判定不能」と評価した評価者がいた場合,その値は除外して中央値を取っている.表中の1.5,2.5,3.5,4.5欄は,除外後の評価結果が偶数個の場合の中央値(中央に近い2つの値の算術平均)である.\par\end{table}\begin{table}[b]\caption{主観評価結果の相関係数(中央値を用いた場合)}\label{table:correl}\input{24table09.txt}\end{table}本節では,分析2(流言内容の分類)の結果について述べる.まず,先行研究に基づく流言内容の主観評価結果を表~\ref{table:evalRes2}に,各項目および有害性,有用性の評価結果の順位相関係数を表~\ref{table:correl},\ref{table:correl2}にそれぞれ示す.表~\ref{table:evalRes2}より,震災時に流れた流言内容は,ネガティブで,不安を煽るものであることがわかる.これは,先行研究における結論\cite{Book_dema}と一致する.なお,表~\ref{table:correl},\ref{table:correl2}に示した各項目と有害性,有用性の評価結果の相関を見ると,中央値を用いた場合は,行動促進と有害性,有用性との間や,不安扇動と有用性との間に相関が見られる.全評価値を用いた場合の上記の関連は,中央値を用いた場合よりも相関は弱くなるものの,同様の傾向が見られる.一方,尤もらしさや伝聞情報に関しては,上述した指標と比較して相関が弱く,これらの影響で有害性や有用性が決定されているわけでないと言える.次に,修辞ユニット分析による分類結果を表~\ref{table:ruaRes}に示す.\begin{table}[b]\caption{主観評価結果の相関係数(全評価値を用いた場合)}\label{table:correl2}\input{24table10.txt}\end{table}\begin{table}[b]\caption{修辞機能と脱文脈化指数による分類結果}\label{table:ruaRes}\input{24table11.txt}\vspace{0.5zw}\small*修辞ユニット分析は節ごとに分類を行うため,1つのツイートに複数の修辞機能が認定され,脱文脈化指数が付与される場合がある.そこで,表~\ref{table:ruaRes}には1つのツイートに付与された脱文脈化指数のうち,最大値および最小値を代表値とした場合の該当数を提示している.\par\end{table}まず,脱文脈化指数の観点から考察する.\ref{sec:rua}項で述べたように,脱文脈化指数は,数値が大きいものほど一般的・汎用的で,小さいものほど個人的・特定的であるとされる.表~\ref{table:ruaRes}を見ると,各脱文脈化指数に分類される流言テキストの数にはばらつきがみられ,発信された流言について,各脱文脈化指数の大きさとの関連は見られなかった.つまり,内容が一般的か,個人的かに関わらず,流言は発信されると考えられる.次に,修辞機能の観点から考察する.表~\ref{table:ruaRes}より,[01]行動,[09]報告,[10]状況外回想,[11]予測に分類されたものが合計397件(代表値が最大値の場合)および408件(代表値が最小値の場合)で,代表値を最大値,最小値とした場合のいずれについても,分析対象の80\%以上となる.つまり,{\bf震災時の流言のカテゴリは4つ(行動を促す内容,状況の報告,状況外回想,予測)が大部分を占めていることがわかる.}\subsection{修辞機能と脱文脈化指数による分類結果から見た有害性,有用性}\label{sec:ResTotal}本節では,修辞機能および脱文脈化指数による分類結果をもとに,有害性,有用性との関連について考察する.修辞ユニット分析は節ごとに分類を行うため,1つのツイートに複数の修辞機能が特定され脱文脈化指数が付与される場合がある.表~\ref{table:ruaRes}に示したように,代表値を最大値,最小値とした場合の分布は類似している.それぞれの結果をもとに有害性,有用性との関連を確認した結果,いずれも同様の傾向を示したが,最小値を用いた場合により顕著な傾向が見られたため,以降の分析では脱文脈化指数の最小値を代表値とした場合の分類結果をもとに議論する.\subsubsection*{有害性との関連}図~\ref{fig:bargraph_yugai}に,有害性の各評価値に分類された流言に関する,修辞機能と脱文脈化指数の割合を示す.なお,図~\ref{fig:bargraph_yugai}では,有害性の評価結果(中央値)に基づき,有害性の低いもの(評価値1,1.5,2),中程度のもの(評価値2.5,3,3.5),高いもの(評価値4,4.5,5)に分類されたものをまとめた際の修辞機能と脱文脈化指数の割合を提示している.各評価値における修辞機能と脱文脈化指数の割合については,付録における図~\ref{fig:bargraph1}として提示している.また,分類結果の例として,[01]行動と[09]報告の例を表~\ref{table:ruaRes1}に示す.図~\ref{fig:bargraph_yugai}より,有害性が高いと評価された流言(評価値4〜5)は,修辞機能と脱文脈化指数の分類結果としては,[01]行動に約30\%が,[11]予測に約25\%の流言が分類されている.ここでいう行動には注意喚起や救援要請など,情報受信者の行動を促進するものが含まれ(表~\ref{table:ruaRes1}),この結果は,\ref{sec:ruaRes}節で述べた,行動促進が有害性と相関していることを裏付けている.逆に,有害性が低いと評価された流言(評価値1〜2)の70\%程度は,修辞機能と脱文脈化指数が[09]報告や[10]状況外回想に分類されている.このように,本結果から,行動促進のみが有害性と相関するだけでなく,有害性を低くする要素として,回想や報告があることが伺える.\begin{figure}[p]\begin{center}\includegraphics{20-3ia24f1.eps}\end{center}\caption{有害性と修辞機能および脱文脈化指数}\label{fig:bargraph_yugai}\end{figure}\begin{table}[p]\caption{有害性評価結果における特徴的な分類結果の例}\label{table:ruaRes1}\input{24table12.txt}\end{table}\subsubsection*{有用性との関連}図~\ref{fig:bargraph_yuyou}に,有用性の各評価値に分類された流言に関する,修辞機能と脱文脈化指数の割合を示す.図~\ref{fig:bargraph_yuyou}についても,図~\ref{fig:bargraph_yugai}と同様に,有用性の評価結果(中央値)に基づき,有用性の低いもの(評価値1,1.5,2),中程度のもの(評価値2.5,3,3.5),高いもの(評価値4,4.5,5)に分類されたものをまとめた際の修辞機能と脱文脈化指数の割合を提示している.各評価値における修辞機能と脱文脈化指数の割合については,付録における図~\ref{fig:bargraph2}として提示する.\begin{figure}[b]\begin{center}\includegraphics{20-3ia24f2.eps}\end{center}\caption{有用性と修辞機能および脱文脈化指数}\label{fig:bargraph_yuyou}\end{figure}先の有害性と同じく,有用性が高いと評価された流言の30\%前後が[01]行動に,25\%程度が[11]予測に分類され,有用性が低いと評価された流言の74\%程度が[09]報告や[10]状況外回想に分類された.表~\ref{table:ruaRes2}に,分類結果の例として[10]状況外回想と[11]予測の例を示す.このように,有害性と有用性は基本的には同様の傾向を示すことがわかった.\subsubsection*{有害性,有用性と修辞機能との関連のまとめ}以上の有害性,有用性との関連の結果から,行動を促すテキストおよび将来発生し得る事象の予測を含むテキストは,震災時高い有用性と有害性を持つと判断される.また,回想や報告を含むテキストは,震災時の有用性と有害性が低い傾向がある.つまり,{\bf情報受信者の未来の行動に影響を与えうる表現を含む情報は,震災時に高い有用性と有害性を持ち,過去に発生したことの報告については,有用性・有害性が低いと考えられる.}\begin{table}[t]\caption{有用性評価結果における特徴的な分類結果の例}\label{table:ruaRes2}\input{24table13.txt}\vspace{0.5zw}\small*「〜と聞いた」のような形式のテキストについては,「〜」の部分が分析対象となる.\par\end{table}\subsection{表現の違いによる影響}\label{sec:diff}\ref{sec:dataset}節で述べたように,本論文における抽出手順では,同じ流言の異なる表現のバリエーションも抽出されうる.本論文では,同じ流言を意図していても,伝え方によって印象が異なる可能性があると考え,1つの流言に対する分析対象を1つのテキストに限定せず,複数のテキストを扱った.しかし,同じ流言を意図する表現が大量に含まれる場合,それらが結果に影響する可能性がある.そこで,本節では,1つの流言に対するテキストを限定した場合の結果について述べる.まず,表~\ref{table:difEx}に示したような,同じ内容を取り扱っているが異なる表現を持つものを1つの流言と見なした場合の,データセット中の流言数を確認した.流言テキストに含まれるキーワードをもとに分類し,さらに人手で内容を確認しながら流言内容毎の表現バリエーション数を調査した.確認の結果,481件の流言テキストに含まれる独立した流言内容は256件であった.表~\ref{table:variation}に,表現バリエーション数を示す.2つ以上の表現バリエーションを持つ流言内容は256件中44件であり,1つの流言内容に対する最大の表現バリエーション数は,81バリエーションであった.次に,複数の表現バリエーションを持つ流言内容から,代表となるテキストをランダムに抽出した.なお,同じ流言を意図する複数の表現が,すべて同じ修辞機能に認定されるとは限らない.修辞機能により違いがある可能性もあるため,今回はある流言に対して単純に1つのテキストを抽出するのではなく,修辞機能に違いのあるテキストが含まれる場合は,修辞機能ごとに1つずつ抽出することとした.上記の条件で抽出されたテキストは300件である.300件のテキストを用いて,\ref{sec:subjective}節〜\ref{sec:ResTotal}節と同様の分析を行った結果,\ref{sec:subjective}節〜\ref{sec:ResTotal}節で示した結果と同様の傾向が見られた\footnote{300件のテキストによる結果については,付録として提示する.}.したがって,今回の分析においては,流言における複数の表現は,分析結果に大きな影響は与えていないと考えられる.\begin{table}[t]\caption{表現バリエーション数}\label{table:variation}\input{24table14.txt}\end{table}\subsection{分析結果の限定性}本章では,震災時の流言テキストを対象として流言内容の主観評価,分類を行い,流言テキストの持ち得る性質についてまとめた.本論文で得られた結果は,流言テキストのみを対象として調査した結果得られたものであり,流言ではないものについても,今回明らかにした流言テキストと同様の性質を持つ可能性もある.つまり,本論文で得られた結論が,流言のみにあてはまるものであるかどうかという点までは,本論文では検証できていない.今後,流言以外のテキストを対象とした調査を行い,流言との違いの有無を確認し,今回得られた結論が流言のみに限定されるものか,テキスト全般に適用されるものかを明らかにする必要がある. \section{将来への展望} 本研究により,流言において,有害性と有用性に影響を与える要素として,行動の促進,予測があることが分かった.一部の行動を促す表現は「〜して下さい」「に注意!」など,典型な表現を含んでいるため,本研究の知見により,大量の流言の中から,有害または有用であるものをある程度ピックアップすることも可能だと思われる.我々は自動的に流言を収集するサービスをすでに動かしているが\cite{Article_MiyabeRakuten,Article_MiyabeDICOMO},今後,本知見による有害性,有用性推定システムを組み込む予定である. \section{おわりに} 本研究では,マイクロブログ上での流言の特徴を明らかにするために,Twitterを例とした分析を行った.分析対象として,東日本大震災時のTwitterデータから抽出した481件の流言テキストを用いた.流言テキストに対する主観評価および修辞ユニット分析を行い,震災時に発生したマイクロブログ上の流言テキストには,以下の傾向があることを明らかにした.\begin{enumerate}\item情報が正しい場合に有用性の高い内容は,その情報が間違っていた場合に有害性がある.\item震災時に拡散する流言テキストは,行動を促す内容や,状況の報告,回想,予測が大部分を占める.\item情報受信者の行動に影響を与えうる表現,または,予想を含む情報は,高い有用性と有害性を持つと考えられる.\end{enumerate}ただし,上記の結論は,流言テキストのみを対象として調査した結果得られたものであり,これらの性質が流言のみにあてはまるものであるかどうかは不明である.今後は,流言以外のテキストを対象とした調査を行い,上述した結論が流言のみに限定されるものなのかどうかの検証が必要である.また,得られた知見に基づき,流言拡散を防ぐための仕組みを検討していく必要がある.\acknowledgment本研究の一部は,JST戦略的創造研究推進事業による.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Back,Kufner,\BBA\Egloff}{Backet~al.}{2010}]{Article_Back}Back,M.~D.,Kufner,A.C.~P.,\BBA\Egloff,B.\BBOP2010\BBCP.\newblock\BBOQTheEmotionalTimelineofSeptember11,2001.\BBCQ\\newblock{\BemPsychologicalScience},{\Bbf21}(10),\mbox{\BPGS\1417--1419}.\bibitem[\protect\BCAY{Cloran}{Cloran}{1994}]{Cloran94}Cloran,C.\BBOP1994\BBCP.\newblock{\BemRhetoricalunitsanddecontextualisation:anenquiryintosomerelationsofcontext,meaningandgrammar}.\newblockPh.D.\thesis,NottinghamUniversity.\bibitem[\protect\BCAY{Cloran}{Cloran}{1999}]{Cloran99}Cloran,C.\BBOP1999\BBCP.\newblock\BBOQInstructionathomeandschool.\BBCQ\\newblockInChristie,F.\BED,{\BemPedagogyandtheshapingofconsciousness:Linguisticandsocialprocesses},\mbox{\BPGS\31--65}.Cassell,London.\bibitem[\protect\BCAY{Cloran}{Cloran}{2010}]{Cloran2010}Cloran,C.\BBOP2010\BBCP.\newblock\BBOQRhetoricalunitanalysisandBakhtin'schronotype.\BBCQ\\newblock{\BemFunctionsofLanguage},{\Bbf17}(1),\mbox{\BPGS\29--70}.\bibitem[\protect\BCAY{Cohn,Mehl,\BBA\Pennebaker}{Cohnet~al.}{2004}]{Article_Cohn}Cohn,M.~A.,Mehl,M.~R.,\BBA\Pennebaker,J.~W.\BBOP2004\BBCP.\newblock\BBOQLinguisticMarkersofPsychologicalChangeSurroundingSeptember11,2001.\BBCQ\\newblock{\BemPsychologicalScience},{\Bbf15}(10),\mbox{\BPGS\687--693}.\bibitem[\protect\BCAY{De~Longueville,Smith,\BBA\Luraschi}{De~Longuevilleet~al.}{2009}]{Inproc_Longueville}De~Longueville,B.,Smith,R.~S.,\BBA\Luraschi,G.\BBOP2009\BBCP.\newblock\BBOQ``OMG,fromhere,Icanseetheflames!'':ausecaseofmininglocationbasedsocialnetworkstoacquirespatio-temporaldataonforestfires.\BBCQ\\newblockIn{\BemProceedingsofthe2009InternationalWorkshoponLocationBasedSocialNetworks},LBSN'09,\mbox{\BPGS\73--80}.ACM.\bibitem[\protect\BCAY{G.W.オルポート\JBAL.ポストマン}{G.W.オルポート\JBAL.ポストマン}{2008}]{Book_dema}G.W.オルポート\JBAL.ポストマン\BBOP2008\BBCP.\newblock\Jem{デマの心理学}.\newblock岩波書店.\bibitem[\protect\BCAY{Halliday\BBA\Matthiessen}{Halliday\BBA\Matthiessen}{2004}]{Book_Halliday}Halliday,M.A.~K.\BBACOMMA\\BBA\Matthiessen,C.M.I.~M.\BBOP2004\BBCP.\newblock{\BemAnintroductiontofunctionalgrammar\/}(3rded\BEd).\newblockArnold,HodderEducation.\bibitem[\protect\BCAY{インプレス~R\&D}{インプレス~R\&D}{2011}]{Book_Hakusho}インプレス~R\&Dインターネットメディア総合研究所\BBOP2011\BBCP.\newblock\Jem{インターネット白書2011}.\newblockインプレスジャパン.\bibitem[\protect\BCAY{川上}{川上}{1997}]{Book_Kawakami}川上善郎\BBOP1997\BBCP.\newblock\Jem{うわさが走る情報伝搬の社会心理}.\newblockサイエンス社.\bibitem[\protect\BCAY{Knapp}{Knapp}{1944}]{ナップ1944}Knapp,R.~H.\BBOP1944\BBCP.\newblock\BBOQAPsychologyofRumor.\BBCQ\\newblock{\BemPublicOpinionQuarterly},{\Bbf8}(1),\mbox{\BPGS\22--37}.\bibitem[\protect\BCAY{小林}{小林}{2011}]{Book_Kobayashi}小林啓倫\BBOP2011\BBCP.\newblock\Jem{災害とソーシャルメディア〜混乱、そして再生へと導く人々の「つながり」〜}.\newblock毎日コミュニケーションズ.\bibitem[\protect\BCAY{Mendoza,Poblete,\BBA\Castillo}{Mendozaet~al.}{2010}]{Inproc_Mendoza}Mendoza,M.,Poblete,B.,\BBA\Castillo,C.\BBOP2010\BBCP.\newblock\BBOQTwitterundercrisis:canwetrustwhatweRT?\BBCQ\\newblockIn{\BemProceedingsoftheFirstWorkshoponSocialMediaAnalytics},SOMA'10,\mbox{\BPGS\71--79}.ACM.\bibitem[\protect\BCAY{宮部\JBA梅島\JBA灘本\JBA荒牧}{宮部\Jetal}{2011}]{Article_MiyabeRakuten}宮部真衣\JBA梅島彩奈\JBA灘本明代\JBA荒牧英治\BBOP2011\BBCP.\newblock流言訂正情報に基づいた流言情報クラウドの提案.\\newblock\Jem{第4回楽天研究開発シンポジウム},\mbox{\BPGS\1--4}.\bibitem[\protect\BCAY{宮部\JBA梅島\JBA灘本\JBA荒牧}{宮部\Jetal}{2012}]{Article_MiyabeDICOMO}宮部真衣\JBA梅島彩奈\JBA灘本明代\JBA荒牧英治\BBOP2012\BBCP.\newblock人間による訂正情報に着目した流言拡散防止サービスの構築.\\newblock\Jem{マルチメディア,分散,協調とモバイル(DICOMO2012)シンポジウム},\mbox{\BPGS\1442--1449}.\bibitem[\protect\BCAY{西谷}{西谷}{2010}]{Article_Nishitani}西谷智広\BBOP2010\BBCP.\newblockI見聞録:Twitter研究会.\\newblock\Jem{情報処理学会誌},{\Bbf51}(6),\mbox{\BPGS\719--724}.\bibitem[\protect\BCAY{荻上}{荻上}{2011}]{Book_Ogiue}荻上チキ\BBOP2011\BBCP.\newblock\Jem{検証東日本大震災の流言・デマ}.\newblock光文社新書.\bibitem[\protect\BCAY{Qazvinian,Rosengren,Radev,\BBA\Mei}{Qazvinianet~al.}{2011}]{Inproc_Qazvinian}Qazvinian,V.,Rosengren,E.,Radev,D.~R.,\BBA\Mei,Q.\BBOP2011\BBCP.\newblock\BBOQRumorhasit:IdentifyingMisinformationinMicroblogs.\BBCQ\\newblockIn{\BemEMNLP},\mbox{\BPGS\1589--1599}.ACL.\bibitem[\protect\BCAY{Qu,Huang,Zhang,\BBA\Zhang}{Quet~al.}{2011}]{Inproc_Qu}Qu,Y.,Huang,C.,Zhang,P.,\BBA\Zhang,J.\BBOP2011\BBCP.\newblock\BBOQMicrobloggingafteramajordisasterinChina:acasestudyofthe2010Yushuearthquake.\BBCQ\\newblockIn{\BemProceedingsoftheACM2011conferenceonComputersupportedcooperativework},CSCW'11,\mbox{\BPGS\25--34}.ACM.\bibitem[\protect\BCAY{Qu,Wu,\BBA\Wang}{Quet~al.}{2009}]{Inproc_Qu2009}Qu,Y.,Wu,P.~F.,\BBA\Wang,X.\BBOP2009\BBCP.\newblock\BBOQOnlineCommunityResponsetoMajorDisaster:AStudyofTianyaForuminthe2008SichuanEarthquake.\BBCQ\\newblockIn{\BemHICSS},\mbox{\BPGS\1--11}.IEEEComputerSociety.\bibitem[\protect\BCAY{佐野}{佐野}{}]{Web_Sano}佐野大樹.\newblock日本語における修辞ユニット分析の方法と手順ver.0.1.1—選択体系機能言語理論(システミック理論)における談話分析—(修辞機能編).\\newblock\Turl{http://researchmap.jp/systemists/資料公開/}.\bibitem[\protect\BCAY{佐野}{佐野}{2010}]{Article_Sano}佐野大樹\BBOP2010\BBCP.\newblock特集選択体系機能言語理論を基底とする特定目的のための作文指導方法について—修辞ユニットの概念から見たテクストの専門性.\\newblock\Jem{専門日本語教育研究},{\Bbf12},\mbox{\BPGS\19--26}.\bibitem[\protect\BCAY{佐野\JBA小磯}{佐野\JBA小磯}{2011}]{Article_Sano2011}佐野大樹\JBA小磯花絵\BBOP2011\BBCP.\newblock現代日本語書き言葉における修辞ユニット分析の適用性の検証—「書き言葉らしさ・話し言葉らしさ」と脱文脈化言語・文脈化言語の関係—.\\newblock\Jem{機能言語学研究},{\Bbf6},\mbox{\BPGS\59--81}.\bibitem[\protect\BCAY{佐藤}{佐藤}{2007}]{Article_Sato}佐藤健二\BBOP2007\BBCP.\newblock関東大震災後における社会の変容.\\newblock\Jem{立命館大学・神奈川大学21世紀COEプログラムジョイントワークショップ報告書『歴史災害と都市—京都・東京を中心に—』},\mbox{\BPGS\81--89}.\bibitem[\protect\BCAY{立入}{立入}{2011}]{Book_Tachiiri}立入勝義\BBOP2011\BBCP.\newblock\Jem{検証東日本大震災そのときソーシャルメディアは何を伝えたか?}\newblockディスカヴァー・トゥエンティワン.\bibitem[\protect\BCAY{田中\JBA佐野}{田中\JBA佐野}{2011}]{Inproc_TanakaandSano3}田中弥生\JBA佐野大樹\BBOP2011\BBCP.\newblockYahoo!知恵袋における質問と回答の分類—修辞ユニット分析を用いた脱文脈化—文脈化の程度による検討—.\\newblock\Jem{社会言語科学会第27回大会発表論文集},\mbox{\BPGS\208--211}.\bibitem[\protect\BCAY{田中}{田中}{2011}]{Inproc_Tanaka}田中弥生\BBOP2011\BBCP.\newblock修辞ユニット分析を用いたQ\&Aサイトの質問と回答における修辞機能の展開の検討.\\newblock\Jem{社会言語科学会第28回大会発表論文集},\mbox{\BPGS\226--229}.\bibitem[\protect\BCAY{田中\JBA佐野}{田中\JBA佐野}{2011a}]{Inproc_TanakaandSano}田中弥生\JBA佐野大樹\BBOP2011a\BBCP.\newblockYahoo!知恵袋における質問の修辞ユニット分析—脱文脈化—文脈化の程度による分類—.\\newblock\Jem{信学技報},{\Bbf110}(400),\mbox{\BPGS\13--18}.\bibitem[\protect\BCAY{田中\JBA佐野}{田中\JBA佐野}{2011b}]{Inproc_TanakaandSano2}田中弥生\JBA佐野大樹\BBOP2011b\BBCP.\newblock修辞ユニット分析からみたQ\&Aサイトの言語的特徴.\\newblock\Jem{言語処理学会第17回年次大会(NLP2011)論文集},\mbox{\BPGS\248--251}.\bibitem[\protect\BCAY{垂水}{垂水}{2010}]{Article_Tarumi}垂水浩幸\BBOP2010\BBCP.\newblock実世界インタフェースの新たな展開:4.ソーシャルメディアと実世界.\\newblock\Jem{情報処理学会誌},{\Bbf51}(7),\mbox{\BPGS\782--788}.\bibitem[\protect\BCAY{梅島\JBA宮部\JBA荒牧\JBA灘本}{梅島\Jetal}{2011}]{Article_Umejima}梅島彩奈\JBA宮部真衣\JBA荒牧英治\JBA灘本明代\BBOP2011\BBCP.\newblock災害時Twitterにおけるデマとデマ訂正RTの傾向.\\newblock\Jem{情報処理学会研究報告.データベース・システム研究会報告},{\Bbf2011}(4),\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Vieweg,Hughes,Starbird,\BBA\Palen}{Vieweget~al.}{2010}]{Inproc_Vieweg}Vieweg,S.,Hughes,A.~L.,Starbird,K.,\BBA\Palen,L.\BBOP2010\BBCP.\newblock\BBOQMicrobloggingduringtwonaturalhazardsevents:whattwittermaycontributetosituationalawareness.\BBCQ\\newblockIn{\BemProceedingsoftheSIGCHIConferenceonHumanFactorsinComputingSystems},CHI'10,\mbox{\BPGS\1079--1088}.ACM.\end{thebibliography}\appendix \section{各評価値における修辞機能と脱文脈化指数の割合} \label{sec:append}有害性および有用性の評価値毎に分類された流言に関する修辞機能と脱文脈化指数の割合を,図~\ref{fig:bargraph1}および図~\ref{fig:bargraph2}にそれぞれ示す.\begin{figure}[h]\begin{center}\includegraphics{20-3ia24f3.eps}\end{center}\caption{有害性(各評価値)と修辞機能および脱文脈化指数}\label{fig:bargraph1}\end{figure}\clearpage\begin{figure}[t]\begin{center}\includegraphics{20-3ia24f4.eps}\end{center}\caption{有用性(各評価値)と修辞機能および脱文脈化指数}\label{fig:bargraph2}\end{figure}\clearpage \section{1つの流言に対するテキストを限定した場合の分析結果} \ref{sec:diff}節で述べた,1つの流言に対するテキストを限定し,300件のテキストを用いた場合の分析結果として,以下のデータを提示する.\begin{enumerate}\item各主観評価結果の相関係数(表\ref{table:correl_300},\ref{table:correl2_300})\item修辞機能と脱文脈化指数による分類結果(表\ref{table:ruaRes_300})\item有害性および有用性の評価値毎に分類された流言に関する修辞機能と脱文脈化指数の割合(図\ref{fig:bargraph_yugai_300},\ref{fig:bargraph_yuyou_300})\end{enumerate}\begin{table}[h]\caption{300件のテキストにおける主観評価結果の相関係数(中央値を用いた場合)}\label{table:correl_300}\input{24table15.txt}\end{table}\begin{table}[h]\caption{300件のテキストにおける主観評価結果の相関係数(全評価値を用いた場合)}\label{table:correl2_300}\input{24table16.txt}\end{table}\clearpage\begin{table}[h]\caption{300件のテキストにおける修辞機能と脱文脈化指数による分類結果}\label{table:ruaRes_300}\input{24table17.txt}\vspace{0.5zw}\small*修辞ユニット分析は節ごとに分類を行うため,1つのツイートに複数の修辞機能が認定され,脱文脈化指数が付与される場合がある.そこで,表~\ref{table:ruaRes_300}には1つのツイートに付与された脱文脈化指数のうち,最大値および最小値を代表値とした場合の該当数を提示している.\par\end{table}\clearpage\begin{figure}[p]\begin{center}\includegraphics{20-3ia24f5.eps}\end{center}\caption{300件のテキストにおける有害性と修辞機能および脱文脈化指数}\label{fig:bargraph_yugai_300}\end{figure}\begin{figure}[p]\begin{center}\includegraphics{20-3ia24f6.eps}\end{center}\caption{300件のテキストにおける有用性と修辞機能および脱文脈化指数}\label{fig:bargraph_yuyou_300}\end{figure}\clearpage\begin{biography}\bioauthor{宮部真衣}{2006年和歌山大学システム工学部デザイン情報学科中退.2008年和歌山大学大学院システム工学研究科システム工学専攻博士前期課程修了.2011年和歌山大学大学院システム工学研究科システム工学専攻博士後期課程修了.博士(工学).現在,東京大学知の構造化センター特任研究員.コミュニケーション支援に関する研究に従事.}\bioauthor{田中弥生}{1997年青山学院大学大学文学部第二部英米文学科卒業.1999年青山学院大学大学院国際政治経済学研究科国際コミュニケーション専攻修士課程修了.修士(国際コミュニケーション学).現在,神奈川大学外国語学部,青山学院女子短期大学非常勤講師.英語およびコミュニケーション論を担当.}\bioauthor{西畑祥}{2013年甲南大学知能情報学部知能情報学科卒業.在学中は,マイクロブログ上の流言情報の特徴分析に関する研究に従事.}\bioauthor{灘本明代}{東京理科大学理工学部電気工学科卒業.2002年神戸大学大学院自然科学研究科情報メディア科学専攻後期博士課程修了.博士(工学).現在,甲南大学知能情報学部教授.Webコンピューティング,データ工学の研究に従事.ACM,IEEE,情報処理学会,電子情報通信学会会員.}\bioauthor{荒牧英治}{2000年京都大学総合人間学部卒業.2002年京都大学大学院情報学研究科修士課程修了.2005年東京大学大学院情報理工系研究科博士課程修了(情報理工学博士).以降,東京大学医学部附属病院企画情報運営部特任助教,東京大学知の構造化センター特任講師を経て,現在,京都大学デザイン学ユニット特定准教授,科学技術振興機構さきがけ研究員(兼任).自然言語処理,医療情報学の研究に従事.}\end{biography}\biodate\end{document}
V20N02-08
\section{はじめに} label{intro}述語項構造解析は,言語処理分野における挑戦的な研究分野の一つである.この解析は,自然文または自然文による文章から,「誰が,何を,誰に,どうした」というような,基本的な構造情報を抽出する.これらの情報は,文書要約や機械翻訳など,他の応用的な言語処理研究に不可欠なものであり,その他にも幅広い応用が期待されている.図\ref{example1}に,日本語の述語項構造の一例を示す.この例では,「行った」が\textbf{述語}であり,この述語が二つの\emph{項}を持っている.一つは\textbf{ガ格}の「彼」,もう一つは\textbf{ニ格}の「図書館」である.このように,述語とそれに対応する項を抽出し,\textbf{格}と呼ばれるラベルを付与するのが述語項構造解析である.それゆえに,述語項構造解析は,格解析と呼ばれることもある.本稿では,個々の述語—項の間にある関係を\emph{述語項関係},そして,文全体における述語項関係の集合を\emph{述語項構造}と呼ぶことにする.\begin{figure}[b]\begin{center}\includegraphics{20-2ia8f1.eps}\end{center}\caption{日本語述語項構造の例}\label{example1}\end{figure}尚,一般には図\ref{example1}の「昨日」という単語も時間格相当の項の対象となり得るが,本研究の述語項構造解析では限定的な述語項関係を対象としており,「昨日」はその対象としない.この対象の範囲は解析に利用するデータのアノテーション基準に依存する.本研究ではNAISTテキストコーパス~\cite{iida:2007:law}を利用しており,このデータのアノテーションに準拠した述語項関係のみの解析を行う.日本語以外の言語では,意味役割付与と呼ばれる述語項構造解析に相当する解析が行われている.特に英語では,FrameNet~\cite{fillmore:2001:paclic}やPropBank~\cite{palmer:2005:cl}など,意味役割を付与した中規模のコーパスが構築されてきた.さらに近年では,CoNLLSharedTask\footnote{CoNLLSharedTask2004,2005では意味役割付与(SemanticRoleLabeling),同2008,2009では意味論的依存構造解析(SemanticDependencyParsing)のタスクが設定された.}などの評価型ワークショップが意味役割付与をテーマとして複数行われ,盛んに研究されている.日本語の述語項構造解析はいくつかの点で英語の意味役割付与以上に困難であると考えられている.中でも特に大きな問題とされるのが,\emph{ゼロ照応}と呼ばれる現象である.この現象は,述語に対する必須格が省略される現象で,日本語では特にガ格の省略が頻繁に起きる.英語では対象となる述語の項がその述語と同一の文内に出現する上,必須格の述語項関係については,直接係り受け関係(係り受け木上の親子関係)になる場合が多い.ゆえにPropBankではタグ付与の範囲を同一文内に限定しており,解析も相対的に容易になる.ゼロ照応には分類があり,述語に対する項の出現位置によって,\emph{文内ゼロ照応},\emph{文間ゼロ照応},\emph{文章外ゼロ照応(外界照応)}の三つに大別される.述語項関係の種類は,この3種類のゼロ照応に加えて,直接係り受け関係にある場合(以下,「\emph{直接係り受け}」とする),そして同一文節内にある照応(以下,「\emph{同一文節内}」とする)がある.本研究では「直接係り受け」と「文内ゼロ照応」を対象に解析を行うものとする.日本語の述語項構造解析研究では,平ら~\cite{taira:2008:emnlp}や今村ら~\cite{imamura:2009:acl}がNAISTテキストコーパスを用いた研究を行っているが,彼らはいずれも,コーパス中に存在する3種類の格:ガ格,ヲ格,ニ格について,別々のモデルを構築して解析を行っている.また別の視点から見ると,彼らの手法は``述語毎''に解析を行っていると言える.英語における意味役割付与の手法でも,この``述語毎''の解析を行った手法が多い~\cite{toutanova:2008:cl,watanabe:2010:acl}.しかしながら,現実の文書では同じ述語に属する項の間には依存関係があると考えられる.例えば,次の文を考えてみる.\begin{enumerate}\item\textit{ライオン}$_i$が\textit{シマウマ}$_j$を\underline{食べた}$_{ガ:i,ヲ:j}$\end{enumerate}この例文の``食べた''という述語に対し,ガ格とヲ格がともに``ライオン''になることは考えにくいが,ガ格とヲ格を個別に扱う分類器で解析を行った場合,このような矛盾した結果を生んでしまうことがありうる.さらには,ある述語とその項の関係を同定する際に,文内にある他の述語との関係が同定の手がかりになることがある.次の例文を見てみよう.\begin{enumerate}\setcounter{enumi}{1}\itemライオン$_i$に\underline{追いかけ}$_{ガ:i,ヲ:j}$られたシマウマ$_j$が谷底$_k$に\underline{落ちた}$_{ガ:j,二:k}$\end{enumerate}この例文(2)において``ライオン''が項として妥当なものであり,且つ,述語``落ちた''の項が``シマウマ''と``谷底''だけであると仮定すると,``ライオン''はもう一つの述語``追いかける''の項になることが確定する.このように,同一文内に複数の述語が存在し,固有表現などを手がかりとして,項候補が絞り込まれている時には,どの項候補をどの述語に割り当てるべきかという述語間の依存関係を考慮することで,最適な述語—項の配置を得ることができるのである.本研究では日本語の述語項構造解析を扱うが,``文毎''の解析を行う手法を用い,文内に複数ある述語項関係の重要な依存関係を利用できるようにする.このような依存関係を大域的な制約として扱うために,本研究ではMarkovLogicを利用した解析器を提案する.英語の意味役割付与ではMarkovLogicによる手法が提案されており,効果的であることが示されている~\cite{meza:2009:naacl}.これは,MarkovLogicモデルが複数の述語項関係を捉え,その間の依存関係を考慮することにより,文内における論理的矛盾を軽減できるためである.さらに本研究では,述語項構造の要素として不適切な文節を効率的に削減するため,新たな大域的制約を導入する.明らかに不適切な候補を削除することは,適切な述語項構造を抽出するための探索空間を小さくすることができ,項同定を行う述語の推論をより確かなものとする.本稿の実験では,MarkovLogicを用いた日本語述語項構造解析を行い,その大域的制約が効果的に働くことを詳細に示す.従来手法の結果と比較しても,本研究の提案手法は,同等以上の結果を達成していることを示す.また,定性的な分析においても,大域的制約が効果的に働いた事例を紹介する.なお,次章以降,本稿の構成は次のようになる.まず2章では関連研究についてまとめ,3章ではMarkovLogicについて導入の説明を行う.4章では提案手法として構築されるMarkovLogicNetworkについて詳細に述べる.5章は評価実験について述べ,実験結果について考察する.6章はまとめである. \section{関連研究} label{related}日本語における述語項構造のタグ付きコーパスとして代表的なものには,京都大学テキストコーパス~\cite{kawahara:2002:jnlp}とNAISTテキストコーパス~\cite{iida:2007:law}がある.これら二つのコーパスを中心にして日本語述語項構造解析の研究は進められてきた.また,CoNLLSharedTask2009~\cite{hajivc:2009:conll}は多言語を対象にした意味役割付与のワークショップであり,日本語述語項構造解析もタスクの一つとして取り組まれた.本研究で用いたデータはNAISTテキストコーパスである.NAISTテキストコーパスは,毎日新聞から抽出された2,929記事,38,384文に対して,述語項構造及び照応・共参照のタグが付与されている.NAISTテキストコーパスでは,ガ格,ヲ格,ニ格の3種類の格のみを表層格レベルで扱っているが,格交替を考慮するなど,京都大学テキストコーパスとは異なるタグ付け基準を採用して述語項構造を付与している.NAISTテキストコーパスが付与するのは述語項構造と照応の情報だけであるが,京都大学テキストコーパスのテキストに対してアノテーションされているため,人手で整備された形態素や係り受けの情報を利用することができる.本研究でもこれらの情報については京都大学テキストコーパスのものを利用する.本研究で利用するNAISTテキストコーパスにおける日本語述語項構造解析の先行研究として代表的なものは二つある.一つは平らによるSVM分類器と決定リストの併用による述語項構造解析~\cite{taira:2008:emnlp}で,彼らの研究では動詞だけで無く,事態性名詞についても述語項構造の解析を行っている.もう一つは,最大エントロピー法に大規模データから構築した言語モデルを組み合わせることで,平らを上回る性能を達成した今村らの研究である~\cite{imamura:2009:acl}.今村らの研究では,述語項構造の解析対象を述語に限定しており事態性名詞は扱っていない.また,述語項が同一文節内にある場合は無視できる程に少ないため,直接係り受け,文内ゼロ照応,文間ゼロ照応の3種類のみの解析を行っている.本研究の解析対象は今村らの研究よりも一段狭く,述語と項が同一文内にある場合に限定される.これは文内の全体最適化を行うためだが,その従来研究手法との差異を以下で説明する.平らと今村らの手法は,ガ,ヲ,ニという3種類の格毎に別々の分類器を構築して解析するものであった(図\ref{models}左を参照).ゆえに,彼らの手法では格の間にある依存関係を無視したまま解析を行っていた.しかし,この格間の依存関係を無視することは,しばしば矛盾した解析結果を出力する危険性を孕むことになる.例えば,図\ref{models}にある左のモデルでは,ガ格と二格の両方に,同じ名詞句``NP2''を出力しているが,一般に同じ名詞句が一つの述語の二つ以上の格を占めることは起こりにくく,このような事例は矛盾していることが多い.格間の依存関係を無視したモデルでは,このような事例が起こり得るのである.\begin{figure}[b]\begin{center}\includegraphics{20-2ia8f2.eps}\end{center}\caption{本研究の提案手法と従来手法との相違}\label{models}\end{figure}本研究で提案するMarkovLogicモデルは,三つの格を同時に取扱い,格間の依存関係を考慮しながら,最適な状態を見つけ出すことができる手法である.その結果として,先に示したような矛盾を排除できるのである(図\ref{models}右).さらに,今村らのモデルとは対照的に,本研究の提案手法は大規模データを利用しない.今村らは大規模データを元に構築した言語モデルを利用することで,述語と項の間における選択選好性を考慮している.一方,本研究では,文内での全体最適化により,大規模データを利用することなく解析している.MarkovLogicモデルによる述語項構造解析の先行研究はCoNLLSharedTask2008,2009にある.また英語では特に詳しい報告がMeza-Ruizらによってなされている~\cite{meza:2009:naacl}.彼らの手法では,述語項構造解析を,述語同定,項同定,語義曖昧性解消,そして意味役割付与の四つの部分問題に分割しており,これらの部分問題を同時に解くモデルを提案している.本研究では彼らの手法を元にして日本語述語項構造解析器を構築する.実験結果を比較するため,平ら及び今村らの実験設定に合わせ,本研究では述語項構造解析問題のうち,項同定及び,意味役割付与のみを対象とする.ただし,日本語では格(ガ,ヲ,ニ)の同定が意味役割付与に代わることになる.MarkovLogicを利用しない述語項構造解析の同時推定手法も,CoNLLSharedTaskの参加者を中心に様々なモデルが提案されている.例えば,\cite{toutanova:2008:cl}と\cite{watanabe:2010:acl}は,それぞれCoNLLSharedTask2005と2009のデータを利用して同時推定モデルを提案している.ただし,彼らの手法は\emph{述語毎}の推定モデルであるのに対し,本研究やMeza-RuizらのMarkovLogicモデルが\emph{文毎}の推定を行うモデルであるのは大きな相違点である.NAISTテキストコーパスは,出現する述語の格フレーム辞書が整備されていない上に,格交替を考慮した述語項構造アノテーションを持ったデータである.特に日本語では主節と従属節とで格要素を共有する形式,ゼロ代名詞の出現が多く,このようなデータに対する述語項構造解析は,一つの述語を考慮するだけでは,その項の充足が決定できないため,文毎での解析により文全体での最適化手法が望ましいと考えられる.さらに,この最適化手法は直接係り受けの述語項関係と比較して,述語と項の統語的関係が弱い文内ゼロ照応の場合にこそ,高い効果を発揮すると期待できる. \section{MarkovLogic} \label{mln}述語項構造解析を含めて,我々が現実に遭遇する問題の多くは,局所的な分類学習だけで挑んでも十分な解決を望めないことは古くから認識されてきた.局所的な分類学習に対し,統計的な変量の間にある全体的(大域的)な相互関係をとらえながら学習を行うのが,統計的関係学習である~\cite{ng:1992}.MarkovLogicは近年急速に広まりつつある統計的関係学習法の一つであり,全体最適化を可能にする学習と推論のための統合的な枠組みである.これは一階述語論理とMarkovNetworksを組み合わせたもので,本来矛盾が許されない一階述語論理式に,ある程度の罰則を以って矛盾を許容する枠組みであると考えることができる.また,それはMarkovNetworksを一階述語論理式によって表現するテンプレート言語であるとの解釈もできる.自然言語処理の分野においても,実体解析~\cite{singla:2006:icdm},情報抽出~\cite{poon:2007:aaai},共参照解析~\cite{poon:2008:emnlp}など,大域的な制約が重要な分野において特に利用されてきた.本研究でこのMarkovLogicが日本語述語項構造解析に適した枠組みであると考える理由は三つある.一つ目は,二律背反の絶対的な制約をモデル化する\emph{hard}制約と,実数値による重みで強さを制御できる\emph{soft}制約の2種類の全体制約を利用できること,二つ目は,識別学習を利用できること,三つ目は,フリーで利用できるライブラリがあることである.統計的関係学習法としては,他にもPRM~\cite{koller:1999}や,RMN~\cite{taskar:2002:uai}があるが,上に挙げた3点を満たしてはいない.MarkovLogicでは,重み付きの論理式の集合を\emph{MarkovLogicNetworks}(MLNs)と呼ぶ.一つのMLN\emph{M}は,$(\phi,w)$の組の集合であり,$\phi$が一階述語論理式,$w$が実数値の重みとなる.定義された一階述語に対する基底述語(\emph{groundatom})の集合を,可能世界と呼び,\emph{M}は一つの可能世界に対して,次のような確率分布を定義する.\begin{equation}\prob\left(\y\right)=\frac{1}{Z}\exp\left(\sum_{\left(\phi,w\right)\inM}w\sum_{\boldc\inC^{\phi}}f_{\boldc}^{\phi}\left(\y\right)\right)\label{eq:prob}\end{equation}ここで,$\boldc$は論理式$\phi$の中にある変数に対して割り当てられる定数の組であり,論理式$\phi$に$\boldc$を割り当てた論理式を基底論理式(\emph{groundformula})と呼んでいる.$f_{\boldc}^{\phi}$は,対応する基底論理式が可能世界$\y$の中で真の場合には1,偽の場合は0となるような二値の素性関数である.$C^{\phi}$は定数組の定義域であり,$\phi$が持つ変数はこの定義域内の値により全て置き換えることができる.また$Z$は正規化定数である.この確率分布は,一つのMarkovNetwork(\emph{GroundMarkovNetwork})に対応しており,このネットワーク構造の中で,頂点が示すのは基底述語,辺を含む部分完全グラフが示すのは基底論理式である.MarkovLogicにおける論理式の設計は人手で行う必要があり,この作業は従来の機械学習器を利用する場合の素性選択に対応する.その前段階として,解くべき問題に合わせて有効な学習手法や効率的な推論手法を選択する必要があるのはMarkovLogicにおいても同様である.しかし,これらの実装については,{\itAlchemy}\footnote{http://alchemy.cs.washington.edu/}や{\itMarkovthebeast}\footnote{http://code.google.com/p/thebeast/}など,既存のツールを利用することができるので,次節以降では,述語項構造解析のために,どのような論理式を設計するかに焦点を絞って述べるものとする. \section{提案手法} \label{method}この節では日本語述語項構造解析のためのMarkovLogicモデルについて,その詳細を述べる.\subsection{述語定義}まずはMarkovLogicNetwork(MLN)の構築に必要な論理述語を定義することからはじめる.論理述語には2種類ある.一つは推定したい情報を表すもので,モデルには学習時にだけその情報を与えるため,潜在述語(\emph{hiddenpredicate})と呼ばれる.もう一つは,観測述語(\emph{observedpredicate})と呼ばれ,学習時と推定時の両方において,モデルにその情報が与えられる.表\ref{hidden}には本研究で定義した三つの潜在述語が示されている.これら三つの潜在述語が,我々の推定したい情報を定義している.即ち,文節$a$は述語の項になっているか(項同定),文節$i$は削除されるか(項候補削減),述語$p$は文節$a$を項に持ち,その意味役割が$r$になるか(意味役割付与)である.最初の二つの推定事項に対しては1変数の$\mathit{isArg}(a)$と$\mathit{delete}(i)$が対応し,残り一つに対しては$\mathit{role}(p,a,r)$という3変数の潜在述語が対応することになる.\begin{table}[b]\caption{潜在述語}\label{hidden}\input{08table01.txt}\end{table}本研究の手法はMarkovLogicによる英語意味役割付与~\cite{meza:2009:naacl}を元にしている.先に述べた通り,Meza-Ruizらは問題を四つの部分問題に分け,それに対して五つの潜在述語(\emph{isPredicate,isArgument,hasRole,role,sense})を定義している.しかし,本研究では,先行研究~\cite{taira:2008:emnlp,imamura:2009:acl}との比較のため,項同定と意味役割付与に限定して行っている.その結果,表\ref{hidden}の三つが本研究で定義する潜在述語となった.項同定を固有の推定問題として扱うことには議論の余地がある.項同定は述語との組で定義するべきで,$\mathit{isArg}$が単体で定義されるのは不自然と考えることもできる.しかし,固有表現抽出などにより同定される,「人物・組織」といった名詞は,高確率で何らかの述語の項となり,逆にどの述語とも結びつかないことが不自然である.そこで,項同定を一つの推定すべき問題として定義することで,項として同定されるものが,孤立するような事象を避けるように解析を行うのである.同様の議論はMeza-Ruizらの研究でも見られ,英語においても項同定を一つのタスクとして扱うことで,一定の性能向上が達成されることを彼らは報告している~\cite{meza:2009:naacl}.ただし,\emph{isArg}は\emph{role}や\emph{delete}と制約で結ばれるため,学習・推論時に項同定が独立して解析されるわけではなく,項から述語に対する制約を与えるために定義した潜在述語であると捉えることもできる.一方,観測述語は潜在述語の推定のために利用される手がかりとなる情報を定義する.例えば,$\mathit{form}(i,w)$は文節$i$が表層形$w$を持つことを表現する観測述語である.観測述語で表される情報には,表層形,品詞,固有表現など,様々なものが考えられるため,潜在述語に比べてその種類は多くなる.全ての観測述語は表\ref{observed}にまとめて示した.\begin{table}[t]\caption{観測述語}\label{observed}\input{08table02.txt}\end{table}潜在述語と観測述語が定義されれば,次はこれらの組み合わせによって論理式を考えていくことになる.まずは$\mathit{isArg}$と$\mathit{role}$に着目し,その局所論理式と大域論理式について,それぞれ\ref{lf}節と\ref{gf}節で述べる.$\mathit{delete}$については\ref{deletion}節でまとめて説明する.\subsection{局所論理式}\label{lf}局所論理式(\emph{localformula})とは,潜在述語をただ一つしか含まない論理式のことである.一方,観測述語については任意の数含めることができる.即ち,一つの推定事項に対して,その素性や制約の組み合わせを考える論理式となる.$\mathit{isArg}$や$\mathit{delete}$に対する局所論理式は,対象となる一つの文節について,語彙的及び構文的な特徴を捉えたものである.例えば単語表層形に対する局所的な特徴を表現した論理式は次のようになる\begin{equation}\mathit{form}(a,+w)\Rightarrow\mathit{isArg}(a).\label{word}\end{equation}これは文節$a$が表層形$w$の単語を持つならば項であるということ表している.尚,$+$という表現は,この論理式が表層形$w$によって別々に重み付けされることを示す.$\mathit{role}$に対する局所論理式は,対象とする文節が二つあり,その間の特徴を捉えることになる.例えば,\begin{equation}\mathit{ne}(a,+n)\wedge\mathit{dep}(p,a,+d)\Rightarrow\mathit{role}(p,a,+r)\label{path}\end{equation}が表すのは,文節$a$に対する固有表現と,述語$p$と文節$a$の間の係り受け関係を組み合わせた特徴である.この式(\ref{path})と同様に,表\ref{observed}にある$\mathit{goiMatch}$\footnote{$\mathit{goiMatch}$と$\mathit{goiCate}$にはシソーラスである日本語語彙大系~\cite{ikehara:1997}を利用している.},$\mathit{dep}$,$\mathit{path}$の三つの観測述語は,他の観測述語と組み合わせで論理式を構築する.式(\ref{word})や式(\ref{path})などの一階述語論理式は,MarkovNetworkの素性テンプレートと考えることができる.即ち,一つのテンプレートからは複数の基底論理式(\emph{groundformula})が生成され,別々の重みがつくことになる.式(\ref{word})が生成する基底論理式を,図\ref{example1}の例から考えてみると,\begin{gather}\mathit{form}\left(a,``\mbox{昨日''}\right)\Rightarrow\mathit{isArg}\left(a\right)\label{yesterday}\\\mathit{form}\left(a,``\mbox{図書館''}\right)\Rightarrow\mathit{isArg}\left(a\right)\label{library}\end{gather}は,学習によってそれぞれ別の重みを獲得することになる.図\ref{example1}の事例から学習すれば,``図書館''はニ格になり,``昨日''は項となっていないため,式(\ref{library})が式(\ref{yesterday})よりも大きな重みを獲得するものと考えられる.このように,論理式のもつ曖昧さは重みによって制御されるため,曖昧な制約でも記述することができるのである.\subsection{大域論理式}\label{gf}局所論理式で扱う素性は,局所的な分類器でも捉えることできるが,MarkovLogicではさらに次のような記述も可能である.\begin{equation}\mathit{isArg}\left(a\right)\Rightarrow\existsp.\exists\mathit{r.role}(p,a,r)\label{a2r}\end{equation}これはある文節$a$が項であるならば,少なくとも一つ以上の述語と関係があることを保証する論理式である.式(\ref{a2r})のように,二つ以上の潜在述語を持つ論理式のことを大域論理式と呼ぶ.この大域論理式を利用することで,本研究のモデルは複数の決定を同時に行うことができるようになる.即ち,$\mathit{isArg}$と$\mathit{role}$の依存関係まで考慮して,最適な状態を推定することが可能になるのである.このような大域的な素性は,局所的な分類器では捉えることが難しく,MarkovLogicを利用する最大の利点となる.\begin{table}[t]\centering\caption{\emph{isArg}と\emph{role}のための大域論理式}\label{global}\input{08table03.txt}\end{table}本研究で$\mathit{isArg}$と$\mathit{role}$に対して定義する大域論理式は表\ref{global}にまとめて示した.表\ref{global}にある大域論理式は全てhard制約であり,潜在述語の間の一貫性を確保するための制約である.MLNの中で,hard制約は無限の重みを持つ特別な論理式として定義されており,この制約に違反した可能世界は決して解として選択されない.例えば,式(\ref{a2r})は$\mathit{isArg}$から$\mathit{role}$への一貫性を保証している.$\mathit{role}$と$\mathit{isArg}$の一貫性を保つためにあるもう一つの論理式は,\begin{equation}\mathit{role}(p,a,r)\Rightarrow\mathit{isArg}\left(a\right)\label{r2a}\end{equation}であり,文節$a$が述語$p$の項となるならば,文節$a$は項であることを保証する.残る大域論理式は,\begin{equation}\mathit{role}(p,a,r_1)\wedger_1\neqr_2\Rightarrow\neg\mathit{role}(p,a,r_2)\label{r2r}\end{equation}のように二つ$\mathit{role}$間の関係を表現したもので,述語$p$と項$a$の間には,ただ一つの意味役割しか成立しないことを保証している.これにより,図\ref{models}で示したような論理的矛盾を回避できることになる.日本語述語項構造解析において,大きな障害となるゼロ照応に対しては,式(\ref{a2r})と式(\ref{r2r})が大きく貢献できると予想される.つまり,式(\ref{r2r})は,ある述語において格が重複することを防ぐものであり,式(\ref{a2r})は,述語との統語的な関係が弱い項候補であっても,孤立する(どの述語の格にもならない)ことが無いように,文全体の項候補に対して適切な述語と格の割り当てを行うためのものである.これにより,複数の述語に対して統語的関係の強い項候補が,他の候補との依存関係を考えずに,格を独占してしまう状態を回避できるのである.\subsection{削除論理式}\label{deletion}本節では項候補削減に関する論理式を解説する.項候補削減は,述語と項に関係のない文節を探索空間から削除することで,効率的に項の同定を行うとともに,精度の向上を狙うのが目的である.どのような考えに基づいて項候補を削減するか,その具体例を図\ref{example2}に示した.この例には,文末に``行った''という述語があり,その項候補となる文節が五つ存在する.この五つの中から,正しい項として,文節``彼は''をガ格に,``図書館に''をニ格に,それぞれ同定するのが述語項構造解析である.そして,項候補削減は,五つの候補から項を選ぶのではなく,項にならない候補を削除する.もしも``母の新しい車で''という抽出対象ではない具格を構成する句を削除できたなら,残り二つの候補から正しい項を選ぶことは容易である.この項候補削減の着想は文書自動要約の要素技術である文圧縮からきており,近年,係り受け関係を利用することによって,文の統語構造を維持したままに適切な単語の削除を行い,文を圧縮する手法が提案されている.~\cite{clarke:2008:jair,huang:2012:aaai}削除論理式のために定義された$\mathit{delete}$は,このような文圧縮の手法を利用して,述語と項にならない文節を削除するために定義されたものである.\begin{figure}[t]\begin{center}\includegraphics{20-2ia8f3.eps}\end{center}\caption{具格を持つ述語項構造の例}\label{example2}\end{figure}ただし,ここで重要なことは,本研究ではこの項候補削減を前処理として行うのではなく,項同定と同時に行っている点である.なぜなら,過剰な項候補の削減は,再現率を大幅に傷つけることになるからで,本研究ではこの現象を\emph{過剰削減}と呼んでいる.項同定,項候補削減,意味役割付与の三つを同時に行うモデルを作ることにより,過剰削減を防いだ上で述語項構造解析の性能を改善している.削除論理式にも局所論理式と大域論理式がある.まず,局所論理式として,次の式(\ref{notPred})のように,一つだけhard制約を導入する.\begin{equation}\mathit{isPred}(i)\Leftrightarrow\neg\mathit{delete}(i).\label{notPred}\end{equation}これにより,述語になる文節は削除されないということを表現している.残りの局所論理式については,全てsoft制約で,\ref{lf}節で述べた$\mathit{isArg}$と同じ素性を使って定義している.例外は,次の式(\ref{bias})で,\begin{equation}\mathit{dep}(i,j,+d)\wedge\mathit{isPred}(j)\Rightarrow\neg\mathit{delete}(i).\label{bias}\end{equation}これは述語と係り受け関係にある文節は削除しないという制約を表現している.一般に,述語項構造関係にある文節対の多くは統語構造的にも依存関係があることが知られている.表\ref{sts}にはコーパスの統計を示したが,述語項構造関係の多くが直接係り受け関係にあることが分かる.この制約もsoft制約であり,削除されないことを保証するわけではない.英語など,ラベルありの係り受け解析が行われる場合には,係り受けラベル$d$によってその制約の強弱が重み付けされる.しかし,日本語の係り受けラベルは,多くの場合``D''になるため,ラベルによる強弱の差は期待できない.しかし,局所論理式は一つの文節に対して,それを削除するか否かという視点しか持つことができず,削減による十分な性能改善は期待できない.\emph{delete}の追加により十分な効果を得るためには,大域論理式の利用が必要になる.\emph{delete}のための大域論理式は,表\ref{delFormula}に示すように,三つのhard制約と一つのsoft制約がある.この表\ref{delFormula}にある上の三つが,$\mathit{isArg}$及び$\mathit{role}$との整合性を保証するためのhard制約である.例えば,\begin{equation}\mathit{delete}(i)\Rightarrow\neg\mathit{isArg}(i)\end{equation}この論理式は削除された文節は項とならないことを保証している.\begin{table}[b]\centering\caption{大域削除論理式}\label{delFormula}\input{08table04.txt}\end{table}表\ref{delFormula}にある最後の論理式は次のsoft制約として定義している,\begin{equation}\mathit{form}(h,+w)\wedge\mathit{pos}(h,+p)\wedge\mathit{dep}(h,m,+d)\wedge\mathit{delete}(h)\Rightarrow\mathit{delete}(m)\label{del}\end{equation}これは,親(ヘッド)となる文節$h$が削除された時,それに依存した子文節$m$も同じく削除するということを表した大域論理式である.この論理式は常に成り立つものではないが,コーパスからの学習した重みによって緩和された制約となり,適切な削除が行われる.式(\ref{del})による制約の働きで,先に述べたような具格になる句の削除が実現される.図\ref{example2}の例を考えてみると,式(\ref{del})は次のように展開される.\begin{equation}\mathit{form}(4,``\mbox{車で}'')\wedge\mathit{pos}(4,\mbox{名詞+助詞—格助詞})\wedge\mathit{dep}(4,2,``D'')\wedge\mathit{delete}(4)\Rightarrow\mathit{delete}(2)\label{delGround}\end{equation}これはつまり,``車で''が削除されたならば,``母の''も同じく削除されるということを表現している.soft制約なので必ず保証される制約ではないが,割り当てられている重みに準じて削除が行われる.図\ref{tree}に示したのは,図\ref{example2}の文を解析して出力した係り受け木である.この木の中では,式(\ref{del})の制約によって,``車で''以下の部分木に属する文節が全て削除されることになる.本来,係り受け木でこのような枝刈りを行う場合,係り受けのラベルが大きな役割を果たすことが多い.英語の文圧縮では,係り受けラベルを利用した単語・句の削除が行われている~\cite{clarke:2008:jair,clarke:2010:cl}.しかし,日本語ではほとんどのラベルが``D(通常の係り受け)''であり,他の``P(並列)'',``A(同格)'',``I(部分並列)'',といったラベルは数が少なく,連用修飾や連体修飾といった係り受け関係情報を持たないため,係り受けラベル$d$によって式(\ref{del})の重みを変えることが述語項構造解析に寄与しないと考える.その代替になるものとして,表層形と品詞の組み合わせを利用している.例えば,式(\ref{delGround})のように表層形が``車で''になり,品詞が``名詞''+``助詞—格助詞''ならば,具格の可能性が高いので,重みを大きくすることになる.もし,英語に本研究の削減手法を適用するのであれば,係り受けのラベルを利用するのが単純で効果的であろう.\begin{figure}[t]\begin{center}\includegraphics{20-2ia8f4.eps}\end{center}\caption{係り受け木を利用した具格の削減}\label{tree}\end{figure} \section{実験と結果} \label{ex}\subsection{実験設定}本研究の実験は,先行研究である平ら~\cite{taira:2008:emnlp}と今村ら~\cite{imamura:2009:acl}の実験設定を元にする.まずは実験に利用したデータ及びツールについて述べる.実験データはNAISTテキストコーパスで,この最新版はバージョン$1.5$であるが,平ら及び今村らの実験設定に合わせるため,本研究ではバージョン$1.4\beta$を選択し,そのニュース記事及び社説記事の両方を利用する.実験に際してこのデータを三つに分割する.訓練データとして,1月1日から1月11日までのニュース記事と,1月から8月までの社説記事を,開発データとしては,1月12日と1月13日のニュース記事及び,9月の社説記事を,残りの1月14日から17日までのニュース記事と,10月から12月の社説記事を評価データとして利用するものとする.このデータの分割方法は,平ら~\cite{taira:2008:emnlp}の方法と同じである.次に評価データにおける統計を表\ref{sts}に示す.この表に示される通り,述語項関係の格ラベルとしては,ガ格が一番多いことが分かる.また,\ref{related}章でも述べた通り,述語項関係の種類として,直接の係り受け関係にあるもの(直接係り受け)が,文内のゼロ照応関係にあるもの(ゼロ照応(文内))よりも多い.しかしながら,日本語は英語などと比較すると,格の省略と呼ばれるゼロ照応が頻出することも確かであり,特にガ格では無視できない数となっている.述語項関係の種類について,より詳細な議論は\cite{iida:2006:acl}にある.日本語には文間の述語項関係も存在するが,本研究で扱う述語項関係は,文内のものに限られる.\ref{method}章で述べた通り,本研究で提案するMarkovLogicを利用した手法は,対象とする文全体で最適化を行うことで述語項関係を推定している.この全体最適化の枠組みは,計算量の点で,文から文章へと単純に拡張することが難しい.このことが本研究では文間の述語項関係を扱えなかった理由である.実験では,文内の最適化を正しく行うため,文間の述語項関係を含む文については省いた上で,学習・開発・評価を行うものとする.素性を抽出するため,本研究では,京都大学テキストコーパスの品詞タグ及び係り受けタグを利用する.さらに,CaboChaバージョン0.53\footnote{http:/code.google.com/p/cabocha/}を利用して,固有表現タグを付与する.平ららの研究を参考にし,本研究でも選択選好の素性を扱うために,日本語語彙大系~\cite{ikehara:1997}を利用する.学習及び推定には,自然言語処理向けのMarkovLogicエンジンであるMarkovthebeastを利用している.\begin{table}[b]\caption{評価データにおける述語項関係の統計}\label{sts}\input{08table05.txt}\end{table}\subsection{実験結果}\begin{table}[b]\caption{局所モデルvs大域モデル(潜在述語の正解率,再現率,F値)}\label{ret1}\input{08table06.txt}\end{table}まず,表\ref{ret1}に示したのは,大域的制約を利用したモデルと利用しないモデルの比較である.\textbf{大域モデル(\textit{Global})}が,大域的制約を利用したモデルであり,\textbf{局所モデル(\textit{Local})}が,大域的制約を利用していないモデルである.ここで言う大域的制約とは,\ref{method}章で示した表\ref{global}と表\ref{delFormula}の論理式のことである.表\ref{ret1}には,潜在述語それぞれについて,精度(P),再現率(R),F値(F)を示した.F値で評価すれば,局所モデルに比べて大域モデルは,全ての述語について性能が改善されている.この改善はマクネマー検定により統計的に有意であることを確認した.大域モデルが局所モデルよりも性能が良いということは,ただ大域的制約が有効というだけでなく,本研究で扱っている三つの部分問題,項同定(\emph{isArg}),項候補削減(\emph{delete}),意味役割付与(\emph{role})の間には相互関係があり,同時に解くことが述語項構造解析の性能改善に意味があるということを示している.意味役割付与の結果で特に大きく改善したのは再現率で,より多くの述語項関係を抽出できるようになったことが分かる.表\ref{ret3}には,大域モデルに対して,\emph{isArg}(項同定)を削除した時と,\emph{delete}(項候補削減)を削除した時,それぞれの意味役割付与の結果がどのように変化するかを示してある.この表\ref{ret3}から,$\mathit{delete}$の削除は$\mathit{isArg}$よりも性能の低下が大きいことが分かる.また,$\mathit{isArg}$の削除が精度を下げるのに対し,$\mathit{delete}$の削除は再現率を傷つけることも分かる.両方の潜在述語を削除した時は,局所モデルと同じである.次に,表\ref{ret2}では,意味役割付与についてより詳細な結果を示す.この表では,意味役割付与の結果をガ格,ヲ格,ニ格,それぞれに分けて示し,直接係り受けか,文内ゼロ照応か,その種類によっても分けている.示した数値は全てF値である.\begin{table}[b]\centering\caption{潜在述語($\mathit{isArg}$,$\mathit{delete}$)を削除した時の意味役割付与(role)の解析性能}\label{ret3}\input{08table07.txt}\end{table}\begin{table}[b]\centering\caption{先行研究との比較}\label{ret2}\input{08table08.txt}\end{table}大域モデルは文内ゼロ照応において,局所モデルよりも性能が高いことが分かる.特にガ格の文内ゼロ照応では,$42.1\%$から$54.1\%$に大きく改善している.この結果は,大域的制約により,文全体での最適化を行ったことから導かれたものと考察できる.即ち,直接係り受け関係に無いということは,述語項間に構文的なつながりが薄いことを意味しており,局所的な素性のみでその関係を捉えることは難しいのである.本研究の大域的制約は特にそのような場合において大きな性能改善を実現している.続いて先行研究である平ら及び今村らの結果との比較を行う.この表\ref{ret2}には,格ごとに最も高い性能の数値を太字で示してある.ガ格では,本研究の大域モデルが二つの先行研究の結果を圧倒している.一方,ヲ格とニ格では,本研究の結果は相対的に低い数値となっている.本研究の提案手法は,三つの格を一つのモデル(大域モデル)で扱うため,ヲ格とニ格よりも数の多いガ格を多く同定し,出力するのである.しかしながら,ガ格は一般に必須格と呼ばれ,述語項構造解析で最も重要な格であることが知られている.従って,先行研究に比べ,その必須格を多く正確に抽出できる本研究の提案手法の意義は大きいと考えられる.本研究では,今村らのように大規模データを利用していないが,彼らのシステムと同等以上の結果を達成している.\paragraph{誤り分析}\begin{center}\Rubyb{この}{1}\Rubyb{ため}{2},\Rubyb{灰色狼の}{3}\Rubyb{\underline{\bf米復活を}}{4}\Rubyb{\colorbox[gray]{.75}{進める}}{5}\Rubyb{\underline{\bf魚類野生動物局が}}{6}\Rubyb{カナダで}{7}\Rubyb{\colorbox[gray]{.75}{捕獲した}}{8}\Rubyb{野性の}{9}\Rubyb{\underline{\bf十二匹を}}{10}\Rubyb{\colorbox[gray]{.75}{空輸}}{11}.\end{center}ここで示した例文では,三つの述語(網掛け)と三つの項(下線付き)がある.関係節を伴うために述語項関係が複雑で,システムにとって間違い易い事例である.局所モデルでこの文を解析した場合,出力される述語項関係($\mathit{role}$)は,\begin{gather*}\{\mathit{role}(5,6,\ga),\mathit{role}(5,4,\wo),\mathit{role}(8,6,\ga),\\\underline{\mbox{$\mathit{role}(11,2,\ga)$}},\mathit{role}(11,10,\wo)\}\end{gather*}まず,誤りとして挙げられる点は,``捕獲した''のヲ格が出力されていないことである.この理由は,NAISTテキストコーパスが格フレーム辞書を持っていないため,``捕獲した''という述語が一般にヲ格を取ることが分からないからである.もう一つの誤りは,下線のついている$\mathit{role}(11,2,\ga)$のように,``空輸''という述語に対し,``ため''をガ格として出力していることである.この理由は,``ため''が``空輸''と直接係り受けの関係にあるからである.一方,大域モデルで解析した結果を見ると,次のように改善されている.\begin{gather*}\{\mathit{role}(5,6,\ga),\mathit{role}(5,4,\wo),\mathit{role}(8,6,\ga),\\\underline{\mbox{$\mathit{role}(8,10,\wo)$}},\underline{\mbox{$\mathit{role}(11,6,\ga)$}},\mathit{role}(11,10,\wo)\}.\end{gather*}大域モデルは,格フレーム情報など意味的な素性が少ないにも関わらず,``十二匹を''を``捕獲した''のヲ格として同定できている.この述語項関係は連体修飾である関係節と被修飾名詞との間に格関係が認められる「内の関係」と呼ばれるものであり,一般に同定することが難しい.阿辺川らは,連体修飾節と非修飾名詞が格関係にあるかどうかを判別するために,大規模データを利用している~\cite{abekawa:2005:ijcnlp}.しかし,MarkovLogicを利用した本研究の提案手法では,文内の全体最適化でそれを実現している.さらに言えば,大域モデルでは,$\{\mathit{delete}(1),\mathit{delete}(2),\mathit{delete}(7)\}$も出力されており,``この''と``ため''はともに項の候補になっていない.結果として,``魚類野性動物局が''を正しく``空輸''に対するガ格として抽出できているのである. \section{おわりに} \label{conclusion}本稿では,MarkovLogicを利用した日本語述語項構造解析手法を提案した.この提案手法は,複数の述語項関係の依存関係を捉える制約と,項候補削減を行う制約を組み合わせて文内最適化を行うもので,これらの大域的制約により,述語項構造解析の性能を大幅に向上させることに成功した.実験では,大規模データを利用していないにもかかわらず,先行研究と同等の性能を達成している.今後の展望としては,今村らの研究を参考に,大規模データの併用して,さらに解析性能を向上させることを考えている.大規模データから得られた選択選好性の素性は,本研究では先行研究に比べて性能が低かったヲ格,ニ格について,特に性能の改善が期待できる.また,今回は項候補を削減する際に,文内の局所的な素性・制約を考えるに留まったが,より正確に不要な項候補を削減できるようにするため,現在,文圧縮の技術についても調査を進めている.本研究の提案手法は文内最適化を主軸としたため,直接係り受けと文内ゼロ照応の2種類の述語項構造のみを扱った.つまり,文間ゼロ照応を含む一般の文書に対して解析を行った場合,本研究の手法のままでは性能が低下することが予想される.NAISTテキストコーパス中において,文間ゼロ照応が述語項関係全体に占める割合は,ヲ格及び二格では3\%未満に留まるが,ガ格の場合には15\%程度になり,無視できない数となる~\cite{iida:2007:law}.本研究の提案手法の優位性を保ったまま文間ゼロ照応を扱うために考えられる方法として,次の一つが有力だと考えている.\begin{enumerate}\item文間ゼロ照応の項候補を別システムで抽出し,その候補を含めて文内最適化を行う\item文書全体での最適化を行う\end{enumerate}まず,一つ目はゼロ照応があると仮定した時の,文外にある先行詞候補を常にリストの形式で保持しておき,文内の解析を行う際に,そのリスト内の候補を含めて解析を行う手法である.これはゼロ照応解析の先行詞同定では有効な手法~\cite{iida:2009:acl}であり,広大な先行詞の探索空間を大幅に削減して,効率的な解析を行える手段であると考える.ただし,文内の項候補に比べて,文外の項候補には利用できる素性が大幅に少なくなるため,推論時には文内と文外でバランスを取る必要があるものと考える.二つ目の手法は文内の最適化を,文書全体へと拡張する手法であるといえる.この手法の最大の問題点は文書全体が項の探索空間になることによる膨大な計算量である.現在の文書最適化手法を単純に拡張するだけでは時間・空間計算量共に実用的な範囲には収まらない.従って,この手法を実現するためには,文圧縮・文書要約の技術を併用することで,可能な限りに項の探索空間を削減すると共に,制約緩和などの近似手法を併用することも必要と考えられる.\acknowledgment本研究の一部は,国立国語研究所基幹型共同研究「コーパスアノテーションの基礎研究」および国立国語研究所「超大規模コーパス構築プロジェクト」による補助を得ています.\bibliographystyle{jnlpbbl_1.5}{\addtolength{\baselineskip}{-1pt}\begin{thebibliography}{}\bibitem[\protect\BCAY{Abekawa\BBA\Okumura}{Abekawa\BBA\Okumura}{2005}]{abekawa:2005:ijcnlp}Abekawa,T.\BBACOMMA\\BBA\Okumura,M.\BBOP2005\BBCP.\newblock\BBOQCorpus-BasedAnalysisofJapaneseRelativeClauseConstructions.\BBCQ\\newblockIn{\BemProceedingsof2ndInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP)},\mbox{\BPGS\46--57},JejuIsland,Korea.\bibitem[\protect\BCAY{Clarke\BBA\Lapata}{Clarke\BBA\Lapata}{2008}]{clarke:2008:jair}Clarke,J.\BBACOMMA\\BBA\Lapata,M.\BBOP2008\BBCP.\newblock\BBOQGlobalInferenceforSentenceCompressionAnIntegerLinearProgrammingApproach.\BBCQ\\newblock{\BemJournalofArtificialIntelligenceResearch},{\Bbf31},\mbox{\BPGS\399--429}.\bibitem[\protect\BCAY{Clarke\BBA\Lapata}{Clarke\BBA\Lapata}{2010}]{clarke:2010:cl}Clarke,J.\BBACOMMA\\BBA\Lapata,M.\BBOP2010\BBCP.\newblock\BBOQDiscourseconstraintsfordocumentcompression.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf36}(3),\mbox{\BPGS\411--441}.\bibitem[\protect\BCAY{Fillmore,Wooters,\BBA\Baker}{Fillmoreet~al.}{2001}]{fillmore:2001:paclic}Fillmore,C.~J.,Wooters,C.,\BBA\Baker,C.~F.\BBOP2001\BBCP.\newblock\BBOQBuildingaLargeLexicalDatabankWhichProvidesDeepSemantics.\BBCQ\\newblockIn{\BemProceedingsofthePacificAsianConferenceonLanguage,InformationandComputation(PACLIC)},\mbox{\BPGS\3--26},HongKong.\bibitem[\protect\BCAY{Haji\v{c},Ciaramita,Johansson,Kawahara,Mart\'{\i},M\`{a}rquez,Meyers,Nivre,Pad\'{o},\v{S}t\v{e}p\'{a}nek,Stra\v{n}\'{a}k,Surdeanu,Xue,\BBA\Zhang}{Haji\v{c}et~al.}{2009}]{hajivc:2009:conll}Haji\v{c},J.,Ciaramita,M.,Johansson,R.,Kawahara,D.,Mart\'{\i},M.~A.,M\`{a}rquez,L.,Meyers,A.,Nivre,J.,Pad\'{o},S.,\v{S}t\v{e}p\'{a}nek,J.,Stra\v{n}\'{a}k,P.,Surdeanu,M.,Xue,N.,\BBA\Zhang,Y.\BBOP2009\BBCP.\newblock\BBOQTheCoNLL-2009SharedTask:SyntacticandSemanticDependenciesinMultipleLanguages.\BBCQ\\newblockIn{\BemProceedingsoftheThirteenthConferenceonComputationalNaturalLanguageLearning(CoNLL2009):SharedTask},\mbox{\BPGS\1--18},Boulder,Colorado.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Huang,Shi,Jin,\BBA\Zhu}{Huanget~al.}{2012}]{huang:2012:aaai}Huang,M.,Shi,X.,Jin,F.,\BBA\Zhu,X.\BBOP2012\BBCP.\newblock\BBOQUsingFirst-OrderLogictoCompressSentences.\BBCQ\\newblockIn{\BemTwenty-SixthAAAIConferenceonArtificialIntelligence(AAAI'12)},\mbox{\BPGS\1657--1663}.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2006}]{iida:2006:acl}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2006\BBCP.\newblock\BBOQExploitingsyntacticpatternsascluesinzero-anaphoraresolution.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsandthe44thannualmeetingoftheAssociationforComputationalLinguistics},ACL-44,\mbox{\BPGS\625--632},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Iida,Inui,\BBA\Matsumoto}{Iidaet~al.}{2009}]{iida:2009:acl}Iida,R.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2009\BBCP.\newblock\BBOQCapturingSaliencewithaTrainableCacheModelforZero-anaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheACLandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP},\mbox{\BPGS\647--655},Suntec,Singapore.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Iida,Komachi,Inui,\BBA\Matsumoto}{Iidaet~al.}{2007}]{iida:2007:law}Iida,R.,Komachi,M.,Inui,K.,\BBA\Matsumoto,Y.\BBOP2007\BBCP.\newblock\BBOQAnnotatingaJapanesetextcorpuswithpredicate-argumentandcoreferencerelations.\BBCQ\\newblockIn{\BemProceedingsoftheLinguisticAnnotationWorkshop},LAW'07,\mbox{\BPGS\132--139},Stroudsburg,PA,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Ikehara,Miyazaki,Shirai,Yokoo,Nakaiwa,Ogura,Ooyama,\BBA\Hayashi}{Ikeharaet~al.}{1997}]{ikehara:1997}Ikehara,S.,Miyazaki,M.,Shirai,S.,Yokoo,A.,Nakaiwa,H.,Ogura,K.,Ooyama,Y.,\BBA\Hayashi,Y.\BBOP1997\BBCP.\newblock{\BemNihongoGoiTaikei,AJapaneseLexicon}.\newblockIwanamiShoten,Tokyo.\bibitem[\protect\BCAY{Imamura,Saito,\BBA\Izumi}{Imamuraet~al.}{2009}]{imamura:2009:acl}Imamura,K.,Saito,K.,\BBA\Izumi,T.\BBOP2009\BBCP.\newblock\BBOQDiscriminativeApproachtoPredicate-ArgumentStructureAnalysiswithZero-AnaphoraResolution.\BBCQ\\newblockIn{\BemProceedingsoftheJointConferenceofthe47thAnnualMeetingoftheACLandthe4thInternationalJointConferenceonNaturalLanguageProcessingoftheAFNLP(ACL-IJCNLP),ConferenceShortPapers},\mbox{\BPGS\85--88},Suntec,Singapore.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Kawahara,Kurohashi,\BBA\Hashida}{Kawaharaet~al.}{2002}]{kawahara:2002:jnlp}Kawahara,D.,Kurohashi,S.,\BBA\Hashida,K.\BBOP2002\BBCP.\newblock\BBOQConstructionofJapaneserelevance-taggedcorpus.\BBCQ\\newblockIn{\Bemthe8thAnnualMeetingoftheAssociationforNaturalLanguageProcessing},\mbox{\BPGS\495--498}.\bibitem[\protect\BCAY{Koller}{Koller}{1999}]{koller:1999}Koller,D.\BBOP1999\BBCP.\newblock{\BemProbabilisticRelationalModels},\mbox{\BPGS\3--13}.\newblockSpringer,Berlin/Heidelberg,Germany.\bibitem[\protect\BCAY{Meza-Ruiz\BBA\Riedel}{Meza-Ruiz\BBA\Riedel}{2009}]{meza:2009:naacl}Meza-Ruiz,I.\BBACOMMA\\BBA\Riedel,S.\BBOP2009\BBCP.\newblock\BBOQJointlyIdentifyingPredicates,ArgumentsandSensesusingMarkovLogic.\BBCQ\\newblockIn{\BemProceedingsofHumanLanguageTechnologies:The2009AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics},\mbox{\BPGS\155--163},Boulder,CO,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Ng\BBA\Subrahmanian}{Ng\BBA\Subrahmanian}{1992}]{ng:1992}Ng,R.\BBACOMMA\\BBA\Subrahmanian,V.~S.\BBOP1992\BBCP.\newblock\BBOQProbabilisticlogicprogramming.\BBCQ\\newblock{\BemInf.Comput.},{\Bbf101}(2),\mbox{\BPGS\150--201}.\bibitem[\protect\BCAY{Palmer,Kingsbury,\BBA\Gildea}{Palmeret~al.}{2005}]{palmer:2005:cl}Palmer,M.,Kingsbury,P.,\BBA\Gildea,D.\BBOP2005\BBCP.\newblock\BBOQThePropositionBank:AnAnnotatedCorpusofSemanticRoles.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf31},\mbox{\BPGS\71--106}.\bibitem[\protect\BCAY{Poon\BBA\Domingos}{Poon\BBA\Domingos}{2007}]{poon:2007:aaai}Poon,H.\BBACOMMA\\BBA\Domingos,P.\BBOP2007\BBCP.\newblock\BBOQJointInferenceinInformationExtraction.\BBCQ\\newblockIn{\BemProceedingsoftheTwenty-SecondNationalConferenceonArtificialIntelligence},\mbox{\BPGS\913--918},Vancouver,Canada.AAAIPress.\bibitem[\protect\BCAY{Poon\BBA\Domingos}{Poon\BBA\Domingos}{2008}]{poon:2008:emnlp}Poon,H.\BBACOMMA\\BBA\Domingos,P.\BBOP2008\BBCP.\newblock\BBOQJointUnsupervisedCoreferenceResolutionwith{MarkovLogic}.\BBCQ\\newblockIn{\BemProceedingsofthe2008ConferenceonEmpiricalMethodsinNaturalLanguageProcessing},\mbox{\BPGS\650--659},Honolulu,Hawaii.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Singla\BBA\Domingos}{Singla\BBA\Domingos}{2006}]{singla:2006:icdm}Singla,P.\BBACOMMA\\BBA\Domingos,P.\BBOP2006\BBCP.\newblock\BBOQEntityResolutionwithMarkovLogic.\BBCQ\\newblockIn{\BemProceedingsoftheSixthInternationalConferenceonDataMining(ICDM)},\mbox{\BPGS\572--582},Washington,DC,USA.IEEEComputerSociety.\bibitem[\protect\BCAY{Taira,Fujita,\BBA\Nagata}{Tairaet~al.}{2008}]{taira:2008:emnlp}Taira,H.,Fujita,S.,\BBA\Nagata,M.\BBOP2008\BBCP.\newblock\BBOQAJapanesepredicateargumentstructureanalysisusingdecisionlists.\BBCQ\\newblockIn{\BemProceedingsoftheConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP)},\mbox{\BPGS\523--532},Honolulu,HI,USA.AssociationforComputationalLinguistics.\bibitem[\protect\BCAY{Taskar,Pieter,\BBA\Koller}{Taskaret~al.}{2002}]{taskar:2002:uai}Taskar,B.,Pieter,A.,\BBA\Koller,D.\BBOP2002\BBCP.\newblock\BBOQDiscriminativeProbabilisticModelsforRelationalData.\BBCQ\\newblockIn{\BemProceedingsofthe18thAnnualConferenceonUncertaintyinArtificialIntelligence(UAI-02)},\mbox{\BPGS\485--492},SanFrancisco,CA.MorganKaufmann.\bibitem[\protect\BCAY{Toutanova,Haghighi,\BBA\Manning}{Toutanovaet~al.}{2008}]{toutanova:2008:cl}Toutanova,K.,Haghighi,A.,\BBA\Manning,C.~D.\BBOP2008\BBCP.\newblock\BBOQAglobaljointmodelforsemanticrolelabeling.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf34},\mbox{\BPGS\161--191}.\bibitem[\protect\BCAY{Watanabe,Asahara,\BBA\Matsumoto}{Watanabeet~al.}{2010}]{watanabe:2010:acl}Watanabe,Y.,Asahara,M.,\BBA\Matsumoto,Y.\BBOP2010\BBCP.\newblock\BBOQAStructuredModelforJointLearningofArgumentRolesandPredicateSenses.\BBCQ\\newblockIn{\BemProceedingsoftheACL2010ConferenceShortPapers},\mbox{\BPGS\98--102},Uppsala,Sweden.AssociationforComputationalLinguistics.\end{thebibliography}}\begin{biography}\bioauthor{吉川克正}{2005年東北大学工学部材料加工学科卒業.2006〜2007年アイダホ大学計算機科学科.2009年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.2011年同大学情報科学研究科博士後期課程修了.同年より日本学術振興会特別研究員.2011〜2012年東京工業大学精密工学研究所.2012年日本アイ・ビー・エム株式会社入社.同社東京基礎研究所にて自然言語処理の研究開発に従事.博士(工学).}\bioauthor{浅原正幸}{2003年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2004年より同大学助教.2012年より国立国語研究所コーパス開発センター特任准教授.現在に至る.博士(工学).自然言語処理・コーパス言語学の研究に従事.}\bioauthor{松本裕治}{1977年京都大学工学部情報工学科卒業.1979年同大学工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984〜1985年英国インペリアルカレッジ客員研究員.1985〜1987年財団法人新世代コンピュータ技術開発機構に出向.京都大学助教授を経て,1993年より奈良先端科学技術大学院大学教授.現在に至る.工学博士.専門は自然言語処理.}\end{biography}\biodate\end{document}
V10N02-01
\section{はじめに} 人間は言語表現から各事象間の時間関係を推定し全体的な時間関係を把握する.しかしながら言語表現上には事象間の関係を明示する情報は希薄である.このため事象間の時間構造を理解するには,各事象の時間的な局面を手がかりにする必要がある.動作が保持する時間的な情報に対し,それが動きであるのか状態であるのかなどをカテゴリー分けしたものを動詞の持つアスペクトクラスという.各事象のアスペクトクラスを決定するには,構文上の文法形態といった統語論的な情報を手がかりにすることが考えられる.しかし日本語の助詞「た」や「〜ている」などの情報だけからアスペクトクラスの決定をすることは困難であり,事象が持つ時間的な情報を考察する意味論的な手法に頼る必要がある.本稿では固有の言語に依存せず,すべての事象に共通に存在すると仮定される時間構造を考え,この時間構造のどの部位に着目したかによりアスペクトを決定する.一般にはアスペクトクラスから事象間の時間関係を特定するのは困難とされている.そこで本研究では解析するターゲットの文章を料理のレシピ文とし,レシピ文に特化したアスペクトクラスを定義することにより,事象の時間関係の特定を期待する.レシピ文は機械的に読んだだけでは効率的な調理手順を正しく理解することが困難であること,また料理分野特有の表現や料理動作特有の時間的な特徴を持つという性質があげられる.このような問題を解決するためには,各料理動作が保持している時間的な情報の特定や,複数の料理動作の関係を明確にする必要があると考える.型の分類により進行や完了の関係を見い出し,並行動作関係,終了時や開始時の前後関係,さらに背後に仮定される明に記述されていない事象の発見,導入をめざす.解析結果をタイムマップとして表示し,事象群の進行を二次元的に表示する自動生成システムの構築を目標とする.本稿は本章を含め5章で構成される.次章では,アスペクト理論と料理分野における先行研究を示す.3章では,料理レシピ文における言語表現の分析を行う.この分析より,従来研究によるアスペクトクラス分類の問題点を指摘し,日本語の料理レシピ文に特化したアスペクトクラスを定義する.また隣接する事象間に対して,アスペクトクラス間の関係を分析する.さらにレシピ文の言語省略表現について言及し,省略動作の導入処理を提案する.4章では我々が構築した自動生成システムとその考察を示す.最後に5章では,本研究のまとめと今後の課題について述べる. \section{アスペクト理論} アスペクトとはある一つの事象に対する時間的側面を述べたものである\cite{kudo,tojo11,tojo2}.アスペクトクラスとは,各々の事象内部の時間構造およびその意味を示すものである.アスペクトは事象の時間的側面を進行形や完了形等といった構文上の形態によって解析することができる.このような事象の統語論的な研究として,Vendlerは英語のアスペクト分類に`state',`activity',`achievement',`accomplishment'といった4種類の特徴を与えた.ここで`state'は状態を表し,例えば「座る」「夢中になっている」などの動詞が分類される.`activity'は動的な活動でありながら始点・終点が明示されない事象を表し「歩く」「カートを押す」等があげられる.`achievement'は瞬時的な出来事を表し「見つける」「閃く」等があげられる.`accomplishment'は「円を描く」「100\,m走る」といったようなある時間ののち,その作業の到達点が明確に定義されているような出来事を表す\cite{vendler1,vendler2}.また日本語においては,特に動詞句の特徴を四つに分類し表面的な文法形態(ル形,タ形,テイル形,テイタ形)によりアスペクトの分類をしている\cite{kindaiti,kusanagi,matida}.\cite{moriyama}は,動詞句の時間的な特徴を5つの素性に分類し,それらの組合せによって6種類のカテゴリーに分け,アスペクト的な意味を与えている.また\cite{ooisi}は,動詞のカテゴリーを決定するために,格成分,副詞,アスペクト形式の関係から動詞のカテゴリーを絞り込んでいる.中でも副詞は動きのある部分に焦点を当て,その部分をより詳細に述べる働きをするとし,副詞の分類について言及している.一方,事象を意味論的に解析することによりアスペクトを決定しようとする研究も行われている.このようなアスペクト理論研究では,すべての事象に共通に存在すると仮定する{\bf時間構造(イベント構造)}を考える.イベント構造とはアスペクトなど特定の視点を導入する以前の原始的な事象である.このイベント構造のどの部位に着目したかという{\bf着目点(レファランス)}を与えたものがアスペクトであるという立場をとる\cite{kamp,moens,tojo1,tojo11,tojo2}.\cite{tojo2}はこの立場の研究として,イベント構造を1つの点と3種類の区間に分割している.このイベント構造の関係を図\ref{ibento}に示す.ただし横軸は時間,縦軸は状態変化の度合いを表す.さらに,アスペクトとイベント構造内のレファランスについては,表\ref{asibe}にまとめる.本稿は日本語における料理レシピ文を対象とする為,最終的には構文上の特徴を用いる.しかし料理動作がどのレファランスに重きを置くかの考察に対しては言語に依存しないイベント構造の概念を用いて行う.\begin{figure}[h]\begin{center}\epsfile{file=figure/ontology.eps,scale=0.75}\caption{イベント構造}\label{ibento}\end{center}\end{figure}\begin{table}[ht]\caption{アスペクトとイベント構造内のレファランス}\label{asibe}\begin{center}\begin{tabular}{|l|l|l|l|}\hlineアスペクト&対応する動詞のアスペクトクラス&レファランスの位置\\\hline完結相(perfective)&activity,event&なし\\非完結相(imperfective)&&動作区間全体\\静止相(static)&state&維持区間内\\完成相(telic)&accomplishment&動作区間+達成点\\達成相(culmination)&achievement&達成点\\進行相(progressive)&process&動作区間内(達成点を含まない)\\完了相(perfect)&&結果区間内(達成点を含まない)\\\hline\end{tabular}\end{center}\vspace{2mm}\begin{center}\caption{各アスペクトクラスに分類される料理動作数と共起する副詞句数}\label{tab:1}\begin{tabular}{|c|c|c|}\hlineアスペクトクラス&動作数&副詞句数\\\hline\hlineCulminatedProcess&380&98\\\hlineProcess&191&68\\\hlineCulmination&7&1\\\hlinePoint&0&0\\\hline\hlineその他(動作完了)&47&0\\\hline\end{tabular}\end{center}\end{table}料理分野を扱う研究としては,Karlin\cite{karlin}や植松\cite{uematu}が料理レシピ文を入力とする調理画像システムについて言及している.Karlinは料理分野を扱ったコンピュータアニメーション生成の研究において,9冊の料理本から約110個のレシピ文の分析をし,Moensら\cite{moens}のアスペクト分類に従い料理分野に特化したアスペクトクラスについて言及している.Moensらのアスペクトは`CulminatedProcess',`Culmination',`Point',`Process'の4つに分類される.Karlinによれば,`CulminatedProcess'は,同じテンポで状態が続き,状態変化が起きる達成点が存在するとしている.この達成点が状態を変える誘因となる.また料理動作においてはどんな料理タスクも有限のプロセスが存在する為,必ず達成点をもつという特徴がある.したがって大抵の料理動作が`CulminatedProcess'に分類されるとしている.また,`Culmination'とは,話し手が新しい状態変化に伴ったと見なすことのできるイベントである.つまり時間の拡張を考えないプロセスであり,達成点のプロセスである.例えば「ポットにふたをする」等が挙げられる.さらに終点を含まない動詞は`Process'に分類され,この場合多くは副詞句によって動作期間が具体化されると論じている.例えば「かき回す」という料理動作はかき回し終わる情報がないため`Process'に分類される.ただし「10分間」といった副詞句が伴えばプロセスの終点が明確になる.このため`Process'に分類される多くは副詞句を伴うとしている.そこで本稿では,Karlinのアスペクト分類に従い料理動作を分析した.日本語料理レシピ本6冊,53個のレシピ文を対象にアスペクト分類を試みた結果を表\ref{tab:1}に示す.調査結果から大抵のアスペクトクラスはKarlinの仮説どおり`CulminatedProcess'に分類されることは明らかであるが,`Process'に分類される料理動作は多くが副詞句を伴うとは言い難い.また料理動作の特徴として,動詞自体は終点を含まなくてもすべての料理動作は必ず終点を持つ.したがって動詞が終点をもたないからといって`Process'に分類してしまうと,終点をもつ`Process'の意味と終点を含まない動作進行中の意味の2つを同一のアスペクトクラスとして扱うこととなる.これら2つの事象は時間的な内部構造が異なるため,同じアスペクトクラスとして分類するのは問題がある.さらに完了の意味をもつ料理動作は,4つのアスペクトクラスに含めることができない.そこで本稿ではアスペクトクラスに対して次章に示すようなアスペクトの分類を定義する. \section{日本語レシピ文における時間的関係構造の提案モデル} \subsection{イベント構造を用いたアスペクトクラス}本稿ではイベント構造の概念を用いて料理分野に特化したアスペクトクラスを定義する.\cite{tojo11,tojo2}のアスペクトクラスの定義に基づき,料理動作におけるアスペクトを{\bf完成相},{\bf達成相},{\bf進行相},{\bf完了相}の4つに分類する.表\ref{asibe}に示した通り,完成相のレファランスの位置は動作区間および達成点である.また料理動作は有限プロセスであるため必ず終点をもつことから,動詞が終点を含まなくてもすべて完成相に分類する.達成相は達成点にレファランスが置かれる事象をさす.すなわち調理者が達成したと見なす動作プロセスであり,時間の拡張がないプロセスを指す.達成相は動作によって状態が成立しすぐに完了する.達成相に分類される動作は完成相に比べ大変少ない.また副詞句を伴うことが少ない特徴もある.進行相のレファランスの位置は動作区間のみであり達成点は含まれない.本稿では動作進行の意味と動作プロセスの意味を別の相で扱うこととし,進行相に分類される事象は前者の意味の動作をさす.進行相の特徴は直後に位置する動作と並行動作関係が成立する.また終点が含まれないため,動作進行の終了点は動作完了の表現によって示される.最後に完了相は動作の結果区間を表す事象が分類される.既に料理動作が完了している事象が完了相となる.しかし,完了相は動作の完了を表す動詞と状態の完了を表す動詞に分類することができる.本稿では前者を{\bf動作完了相},後者を{\bf状態完了相}とする.動作完了相としては「熱した,煮込んだ」などがあげられ,状態完了相としては「香りが立ったら,透き通るまで」などがあげられる.動作完了相と状態完了相は,直後に位置する動作と前後関係が成立する.また状態完了相は,副詞句として動詞を修飾し動作期間を具体化する働きがあるとしている\cite{karlin,uematu}が,本稿では期間を表す副詞句としては取り扱わず状態に関する1つの事象として動作完了相同様に扱う.本稿では前章で利用したものと同じレシピ文53個を用いて,料理動作をここで提案するアスペクトクラスに基づき分類した.これを表\ref{tab:2}に示す.\begin{table}[t]\begin{center}\caption{(東条~2000)によるアスペクトクラスに分類した料理動作数}\label{tab:2}\begin{tabular}{|c||c|c|c|c|c|}\hlineアスペクトクラス&完成相&達成相&進行相&完了相&合計\\\hline動作数&567&7&4&47&625\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:2}においてはほとんどの事象が完成相に分類されることがわかる.したがって本稿では,各事象のアスペクトクラスに詳細な特徴を持たせることにより,事象の隣接関係が明確になることを期待し完成相の細分化を試みた.ここでは細分化に際し,動詞の素性と料理動作毎の調理者の注目度を用いる.\subsection{完成相の細分化を反映したアスペクトクラス}\cite{moriyama}によれば完成相に分類される動詞の素性とそのカテゴリーの特徴をみると2種類の分類が可能となる.1つは動作性,持続性,終結性,進展性の素性を持つ{\bf変化+結果持続動詞},もう1つは動作性,持続性,終結性のみの{\bf過程+結果持続動詞}である.変化+結果持続動詞とは,変化によってある状態が成立し,その結果が持続されるという意味の動詞をさす.このクラスに分けられる動詞は過程性がないので動作の展開や変化の過程を取り上げてはいない.また過程+結果持続動詞とは,過程によって主体あるいは客体に変化が生じ,その結果が持続されるという動詞である.また料理動作には,調理者が常に注意を払う必要のある動作,常に注意を払う必要はなく時折注目すれば他の動作を行っても構わない動作の2つが存在する.こうした分類は本来のアスペクトクラスとは無関係のものである.しかしながら本研究の目的は時間関係の導出であり,本来のアスペクト情報を補助する情報を定義できれば,それによってより良い分析結果を得られる可能性がある.したがって本稿では,{\bf主眼をおく動作},{\bf主眼をおかない動作}を区別し,完成相の分類に加えることとする.主眼をおく動作としては「切る,加える,揚げる」などがあげられ,主眼をおかない動作としては「ゆでる,加熱する,冷やす」などがあげられる.動詞の素性と調理者の注目度を考慮することにより,完成相の細分化を試みた.完成相の分類結果を表\ref{tab:5}に示す.完成相を細分化することにより,完成相Cは並行動作を示唆する可能性があるという結果が得られた.\begin{table}[hb]\begin{center}\caption{本稿で取り入れる完成相}\label{tab:5}\begin{tabular}{|c|c|c|c|l|}\hline細分化された完成相&素性による分類&調理者の注目度&料理動作例\\\hline\hline完成相A&変化+結果持続&主眼をおく&切る,加える\\\hline完成相B&過程+結果持続&主眼をおく&焼く,揚げる\\\hline完成相C&過程+結果持続&主眼をおかない&煮る,茹でる\\\hline\end{tabular}\end{center}\end{table}事象の時間的な情報を詳細に考察することによって,効果的なアスペクトクラスを定義することができた.アスペクトクラスと特徴,料理動作例を表\ref{tab:8}にまとめる.本稿で提案するアスペクトクラスはイベント構造の概念により分類されている.すなわち構文上の形態を考慮する必要はないが,日本語を対象とした自動生成システムの作成も目的としているため,語尾形式に対しても同時に注目した.\begin{table}[ht]\begin{center}\caption{提案するアスペクトクラスと承接する語尾形式の特徴}\label{tab:8}\begin{tabular}{|c|c|l|l|}\hlineアスペクトクラス&動作の特徴&語尾形式&例\\\hline\hline完成相A&変化により結果が持続&ル形&切る,加える\\完成相B&過程による結果が持続&ル形&炒める,揚げる\\完成相C&過程による結果が持続&ル形&ゆでる,煮る\\\hline達成相&材料とは関係ない動作&ル形&ふたをする\\\hline進行相&後に位置する動作と&テイル形&加熱している\\&並行動作をする&&茹でている\\\hline動作完了相&動作の完了を表す&タ形,タ系条件形&熱した,煮た\\状態完了相&材料の状態変化を表す&タ形,タ系条件形,マデ&キツネ色になるまで\\\hline\end{tabular}\end{center}\end{table}\subsection{アスペクトクラスの隣接関係}この節では前節で提案した事象のアスペクトクラス間にどのような隣接関係が導きうるかを\cite{yoav}の研究を参考に分析する.\paragraph{前後関係}~~動作完了相に分類される事象および状態完了相に分類される事象で「タ」「タラ」を承接する場合,動作完了相,状態完了相の終了点と直後に位置する完成相および達成相の開始点が一致する前後関係が成立する.事象関係の例を図\ref{fig:2}に示す.\paragraph{終点同一関係}~~状態完了相に分類される事象で「マデ」を承接する場合,状態完了相の終了点と直後に位置する完成相および達成相の終了点は同一である関係が成立する.またある事象(状態)が起っている場合,必ずそれよりも広い時間帯である別の事象が起っており並行関係も成立する.事象関係の例を図\ref{fig:3}に示す.\paragraph{並行動作関係}~~進行相とその後ろに位置する事象には並行動作関係が成立する.ただし調理者の動作と材料の形状状態に並行関係が存在する場合と調理者が並行して動作をしているという場合がある.事象間の各関係には依存関係があり明確な境界が存在するわけではなく,複数の関係をもつ事象が存在する.事象関係の例を図\ref{fig:4}に示す.\begin{figure}[htbp]\begin{center}\begin{minipage}{0.32\textwidth}\begin{center}\epsfile{file=figure/zengo.eps,scale=0.8}\caption{前後関係}\label{fig:2}\end{center}\end{minipage}\begin{minipage}{0.32\textwidth}\begin{center}\epsfile{file=figure/shuuten.eps,scale=0.8}\caption{終点同一関係}\label{fig:3}\end{center}\end{minipage}\begin{minipage}{0.33\textwidth}\begin{center}\epsfile{file=figure/heikou.eps,scale=0.8}\caption{並行動作関係}\label{fig:4}\end{center}\end{minipage}\end{center}\end{figure}\subsection{アスペクトを補助する情報の処理}本稿では事象の時間的な意味を詳細に考察することによりアスペクトクラスを定義し,それらの隣接関係を分析した.しかし料理分野における隣接関係をアスペクトクラスだけで決定するのは困難であり,アスペクトを補助する情報として副詞句,省略動作,並行動作について注目してみた.\paragraph{副詞句}料理動作は,動詞を修飾する副詞句によって具体的に状態や期間が特定される.本節ではこれらの副詞句について特徴を分類し,アスペクトクラスとの関係を考察した.本稿では植松\cite{uematu}の研究にならい状態に関する副詞句と期間に関する副詞句に分けた.ただし本稿では,材料の形状を表す表現も1つの動きと見なし事象として取扱う.本稿で提案するアスペクトクラスと副詞句の共起関係についての調査結果を表\ref{tab:9}に示す.用いた料理レシピ文は前章同様のものを対象としている.\begin{table}[b]\begin{center}\caption{副詞句とアスペクトクラスの共起関係}\label{tab:9}\begin{tabular}{|c|c|c|c|c|}\hlineアスペクト&動作数&状態の副詞句&期間の副詞句&副詞無し\\\hline\hline完成相A&380&78(21$\,\%$)&2(1$\,\%$)&300(78$\,\%$)\\\hline完成相B&145&13(9$\,\%$)&26(18$\,\%$)&106(73$\,\%$)\\\hline完成相C&42&5(12$\,\%$)&16(38$\,\%$)&21(50$\,\%$)\\\hline達成相&7&0&0&7\\\hline進行相&4&0&0&4\\\hline動作完了相&20&0&0&20\\\hline状態完了相&27&0&0&27\\\hline\hline合計&625&96&44&485\\\hline\end{tabular}\end{center}\end{table}この調査結果を基に副詞句によるアスペクトクラスの変化について考察した.その結果,完成相Bと完成相Cに対してアスペクトクラスが変化する場合が一部で存在していた.具体的には「さっと,手早く,すばやく」といったような時間の短い期間を表す表現の副詞句を伴った場合である.このような場合,アスペクトクラスが完成相Cから完成相Bへと変化する.例えば「ゆでる」は完成相Cに分類されるが「さっとゆでる」は完成相Bに分類される.\paragraph{省略動作}料理のレシピ文は動作全体を包括して指し示していることが多い.1つの表現の中に省略された複数の事象が存在する場合を本稿では{\bf動作のパッケージ化}とよぶ.例えば「茹でる」という動作には「鍋に水を入れる」「火にかける」「材料を鍋に入れる」といった動作が省略されている.我々は予めパッケージ化される動作の知識をシステムに保持させることとした.また完成相もしくは達成相としての動作がレシピ文中に書かれること無く,それらの意味を含め動作完了相によって事象の存在を表している場合がある.例えば「刻んだ葱を入れる」という表現だけがある時「入れる」前に「刻む」処理が必要であることを明示する必要がある.すなわち動作完了相の事象が存在する時点で既に動作は完了しておく必要がある.そこで本稿では,この表現されていない動作を発見し料理動作として導入する.導入箇所については動作完了相の直前に導入することとした.\paragraph{並行動作}レシピ文の中には並行的に調理を行うことを表す表現や,レシピ文中に並行動作が表現されていないけれども,実際には並行動作が可能である場合がある.並行動作を表す表現としては,語尾形式がテイル形である進行相が存在する場合,完成相Cに分類される動詞が存在する場合,電子レンジやオーブントースターといった一部の料理道具を利用する動作が存在する場合があげられる. \section{時間構造の自動生成システム} 本稿で分析した料理レシピ文の言語表現の特徴に基づき,時間構造の自動生成システムを構築した.まず入力文である料理レシピ文からタイムマップ生成に必要な情報を抽出する.本稿ではこの抽出した情報を保持したものを中間表現とよぶ.次に中間表現に含まれている情報を基に各事象にふさわしいイベント構造を呼び出しタイムマップを生成する.そして最終出力画面としてタイムマップ表示の他にレシピ本文,材料分量表,完成写真,料理動作の説明等の付加情報を添付しブラウザ上に表示する.システムの処理過程を図\ref{fig:6}に示す.\begin{figure}[htbp]\begin{center}\epsfile{file=figure/system_nagare.eps,scale=0.85}\caption{システム処理の流れ}\label{fig:6}\end{center}\end{figure}\vspace*{-10mm}\subsection{料理レシピ文から中間表現の生成}中間表現の生成は最終出力画面の基盤となる.最終出力画面を生成するにあたり必要となる情報は「材料,料理道具,料理動作,副詞句,助詞,料理動作のアスペクトクラス,調理者の注目する箇所,省略されている動作」である.材料,料理道具,料理動作,料理動作,副詞句,助詞は,料理レシピ文から直接取り出すことが可能である.それに対し各料理動作のアスペクトクラス,調理者の注目する箇所,省略されている動作に関する情報は料理レシピ文内に言語表現されていない為,直接抽出することはできない.抽出可能な情報に対しては入力文である料理レシピ文に対して,日本語形態素解析システムJUMANと日本語構文解析システムKNPにより解析を行う.解析結果から,品詞(名詞,動詞,副詞,助詞),見出し語,接尾辞の情報を取り出す.接尾辞は承接する語尾形式情報として利用する.抽出された各文節はシステム内に保持される品詞辞書と照合し「材料」「料理道具」「料理動作」「副詞句」を特定する.次に抽出不可能な情報に対しては,各事象に対し動詞と承接する語尾形式(アスペクト形式)の特徴からアスペクトクラスを特定する.その特定アルゴリズムを図\ref{fig:11}に示す.図\ref{fig:11}に示される処理1,2,3,4は予め料理動作の辞書として保持する.それに対し進行相や完了相を表す事象は辞書内に含まれていないため,処理5,6,7で示すとおり承接する語尾形式情報を基に各事象のアスペクトクラスを特定する.\begin{figure}[ht]\begin{center}\vspace*{-5mm}\epsfile{file=figure/aspect_algo.eps,scale=0.55}~\\~\\{\small\begin{tabular}{|c|l|}\hline処理番号&処理内容\\\hline\hline1&動詞が調理者の動作を表す\\\hline2&瞬時に状態が変化する動詞を表す\\\hline3&動作は変化により結果が継続されている\\\hline4&動作は過程により結果が継続されており調理者の主眼をおく動作\\\hline5&語尾形式が「テイル形」\\\hline6&語尾形式が「タ形」,「タ系条件形」\\\hline7&語尾形式が「タ系条件形」,「マデ」\\\hline\end{tabular}}\caption{アスペクトクラス決定アルゴリズム}\label{fig:11}\end{center}\vspace{2mm}\begin{center}\epsfile{file=figure/aspect_katati.eps,scale=0.7}\caption{アスペクトクラスによる出力構造}\label{fig:13}\end{center}\end{figure}\subsection{中間表現からタイムマップ生成までの処理}タイムマップは中間表現の情報に基づいて生成される.中間表現から料理動作,形状変化を取り出しアスペクトクラスの型にあった構造をタイムマップに出力する.出力する二次元表示のタイムマップはx軸が「調理者の注目箇所」y軸が「時間」である.各事象は実線で表示され事象の進行を示す.出力する形態はアスペクトクラスの型によって出力表示が異なる.各々のアスペクトクラスの型による出力構造を図\ref{fig:13}に示す.またタイムマップ上ではレシピ文に書かれる事象ばかりでなく,隣接する事象のアスペクト関係や省略されている動作に関しても表示する.{\bf事象の前後関係}~~状態完了相「〜たら」は動作の始点を示す条件である.状態完了相を表すイベント構造の終点部分と状態完了相で修飾されている動作のイベント構造の始点部分点線で結び表示する.{\bf事象の終点同一関係}~~状態完了相「〜まで」は動作の終点を示す条件である.状態完了相を表すイベント構造の終点部分と状態完了相で修飾されている動作のイベント構造の終点部分を点線で結び表示する.{\bf並行動作関係}~~進行相は後ろに位置する事象と並行関係をもつ.並行動作を表す為には,複数の動作の出力構造の動作進行部分が重なる必要がある.{\bf省略動作の導入}~~完了相のみの表現で動作を導入する場合,導入される動作は修飾されている動作の直前に位置している.しかし実際には動作完了相よりも前に位置していれば問題は無い.そこで導入された動作はイベント構造の色を変えて表示する.\subsection{最終出力画面について}ユーザーフレンドリーなタイムマップ生成を目標に,料理する上での基本情報,各料理動作における詳細な情報なども同時にブラウザ上に表示することとした.各料理動作における詳細な情報の項目はタイムマップと隣接する別のウィンドウによって表示する.タイムマップの任意のイベント構造にマウスカーソルを移動すると,隣接したウィンドウの表示が変化するようにする.以下のレシピ文に対する最終出力画面を図\ref{lastoutput}に示す.\\{\bf選定した料理レシピ文}\\(1)スパゲティーはお湯でゆでる.\\(2)ゆでている間に,ニンニクは薄くスライスする.\\(3)熱したフライパンにオリーブオイルを入れ,ニンニクのスライスと唐辛子を入れる.\\\hspace*{6mm}ニンニクがキツネ色になるまで炒める.\\(4)スパゲティーがゆであがったら,すばやくお湯をきる.\\(5)フライパンにスパゲティーを入れ,軽く炒めて,塩,こしょうで味を調えてできあがり.\begin{figure}[htbp]\begin{center}\epsfile{file=figure/timemap_output.eps,scale=0.7}\caption{最終出力画面}\label{lastoutput}\end{center}\end{figure}\begin{table}\begin{center}\caption{アスペクトアルゴリズムの分析結果}\label{bunseki}\begin{tabular}{|c|c|c|c|c|c|}\hline&人間による&プログラム&判断が一致&再現率&正解率\\&判断(a)&の出力(b)&したもの(c)&c/a($\%$)&c/b($\%$)\\\hline\hline完成相A&380&386&380&100&98\\\hline完成相B&145&147&145&100&99\\\hline完成相C&42&41&41&98&100\\\hline達成相&7&7&7&100&100\\\hline進行相&4&4&4&100&100\\\hline動作完了相&20&15&15&75&100\\\hline状態完了相&27&27&27&100&100\\\hline合計&625&627&619&99&98\\\hline\end{tabular}\end{center}\end{table}\subsection{提案アルゴリズムの妥当性}本稿で提案するアスペクトクラスに対する分析結果を表\ref{bunseki}に示す.表\ref{bunseki}によると全体の再現率,正解率は高い.これは料理レシピ文の承接するパターンが少なく,かつ動作の進行や完了の表現が限定された特徴を持つということに起因している.しかし本稿が提案したモデルにより取り出せないアスペクトクラスも存在する.この原因は料理特有の表現をもつ動詞と材料の状態を表すものに大別される.料理特有の表現をもつ動詞とは,例えば「炒め合わせる,溶き入れる,戻し入れる」などの動詞をさす.本来ならばこれは1つの動作であると考えられるが,形態素解析を行う上で2つの事象として取り上げられてしまう.したがって「回し炒める」ならば「回す」「炒める」と解析される.そこで,このような料理特有の表現をもつ動詞においては修正処理を行い2つの事象として取り出された動詞を1つの事象に修正し解決している.また材料の状態を表すものが動作完了相の再現率に影響している.例えば「ぬれたままの,丸く重ねた状態で」などの状態表現では「ぬれる」「重ねる」が動詞として取り上げられ,また「タ」形を含むため,動作完了相として誤認識してしまっている.これに関しても上記と同様,修正処理により解決をした.結果として本システムは料理レシピ本の著者による言語表現形態や形態素解析,構文解析システムの解析結果に大きく依存する性質が見られた. \section{おわりに} 本稿では自然言語文から各事象の内部的な時間構造を解析し,各事象の時間的側面や事象間の時間的関係構造の分析を行った.自然言語文として料理のレシピ文を対象とし,事象間の時間的構造を可視化したタイムマップの自動生成システムを実装した.まず料理レシピ文を分析し,料理分野における事象の型を達成相,完成相,進行相,完了相の4つに分類し完成相,完了相をさらに細分化させた.この提案したアスペクトの型から隣接する事象のアスペクト関係を分析し,事象間の前後動作関係,終点同一関係,並行動作関係を導き出した.他の文章との時間関係は表面的な情報から容易に解析できないとされているが,1つの事象を特定し隣接する事象とのアスペクト関係を分析することによって,事象間の時間的な意味を限定させる可能性が見られる.またこれらの分析に基づいて言語情報から二次元のタイムマップを自動生成した.タイムマップの生成に必要となる情報を分析し材料,料理道具,料理動作,副詞句,アスペクトクラス,注目箇所,省略動作について明示した.材料,料理道具,料理動作,副詞句といったレシピ文から抽出できる情報はシステムが保持する辞書を参照し詳細な情報をシステムに認識させた.またアスペクトクラスは,承接する語尾形式と動作の辞書内のアスペクト情報を基に決定アルゴリズムを提案した.注目箇所に関しては材料もしくは道具と承接する助詞により調理者が注目しているところを特定させた.省略動作の発見導入に関しては,3つの場合に分けることができ各々の場合に分けた導入処理を行った.これらの情報を中間表現としてまとめタイムマップを生成した.さらにユーザーを考慮したインターフェース構築として,タイムマップの他に材料分量表や料理完成写真,料理特有動作説明等の詳細な情報を付加した最終出力画面を生成した.しかし本システムは料理レシピ本の著者による言語表現形態や形態素解析,構文解析システムの解析結果に大きく依存するものとなっている.今後の課題としては,各事象の複雑な時間関係の表示に対応できるようなシステム構築である.本稿が取り上げた関係は実世界における事象関係の一部分にしかすぎないため,隣接する事象関係の分析や文脈に依存する事象関係の分析をすることにより始点や終点の曖昧性を解消する必要がある.また本稿では,タイムマップ内に表示される事象の出力形態をアスペクトの型により決定しているため事象固有の時間構造の出力を考慮する必要がある.さらに汎用性のあるシステム構築を目指すために,多くのレシピ文を分析し出力画面にアニメーションを含めるなど効果的なインターフェース構築が課題としてあげられる.\bibliographystyle{jnlpbbl}\bibliography{386}\begin{biography}\biotitle{略歴}\bioauthor{林絵梨}{2002年北陸先端科学技術大学院大学情報科学研究科修了,同年日本鋼管(株)入社.修士(情報科学).在学中は自然言語意味論の研究に従事.}\bioauthor{吉岡卓}{2001年北陸先端科学技術大学院大学情報科学研究科修了,同年同大学同学科博士課程.修士(情報科学).自然言語意味論,知識表現に興味を持ち,現在オーダーソート論理,状況意味論,論理的視覚言語の研究に従事.電子情報通信学会,人工知能学会各会員.}\bioauthor{東条敏}{1981年東京大学工学部計数工学科卒業,1983年東京大学大学院工学系研究科修了.同年三菱総合研究所入社.1986--1988年,米国カーネギー・メロン大学機械翻訳センター客員研究員.1995年北陸先端科学技術大学院大学情報科学研究所助教授,2000年同教授.1997--1998年ドイツ・シュトゥットガルト大学客員研究員.博士(工学).自然言語意味論,オーダーソート論理,マルチエージェントの研究に従事,その他人工知能一般に興味を持つ.情報処理学会,人工知能学会,ソフトウェア科学会,言語処理学会,認知学会,ACL,Folli各会員.}\bioreceived{受付}\biorevised{再受付}\biorerevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V06N01-03
\section{はじめに} \label{sec:introduction}電子化テキストの急増などに伴い,近年,テキストから要点を抜き出す重要文選択技術の必要性が高まってきている.このような要請に現状の技術レベルで応えるためには,表層的な情報を有効に利用することが必要である.これまでに提案されている表層情報に基づく手法では,文の重要度の評価が主に,1)文に占める重要語の割合,2)段落の冒頭,末尾などのテキスト中での文の出現位置,3)事実を述べた文,書き手の見解を述べた文などの文種,4)あらかじめ用意したテンプレートとの類似性などの評価基準のいずれか,またはこれらを組み合わせた基準に基づいて行なわれる\cite{Luhn58,Edmundson69,Kita87,Suzuki88,Mase89,Salton94,Brandow95,Matsuo95,Sato95,Yamamoto95,Watanabe96,Zechner96,FukumotoF97,Nakao97}.本稿では,表層的な情報を手がかりとして文と文のつながりの強さを評価し,その強さに基づいて文の重要度を決定する手法を提案する.提案する手法では文の重要度に関して次の仮定を置く.\begin{enumerate}\item表題はテキスト中で最も重要な文である.\item重要な文とのつながりが強ければ強いほど,その文は重要である.\end{enumerate}表題はテキストの最も重要な情報を伝える表現であるため,それだけで最も簡潔な抄録になりえるが,多くの場合それだけでは情報量が十分でない.従って,不足情報を補う文を選び出すことが必要となるが,そのような文は,表題への直接的なつながりまたは他の文を介しての間接的なつながりが強い文であると考えられる.このような考え方に基づいて,文から表題へのつながりの強さをその文の重要度とする.文と文のつながりの強さを評価するために次の二つの現象に着目する.\begin{enumerate}\item人称代名詞と先行(代)名詞の前方照応\item同一辞書見出し語による語彙的なつながり\end{enumerate}重要文を選択するために文間のつながりを解析する従来の手法としては,1)接続表現を手がかりとして修辞構造を解析し,その結果に基づいて文の重要度を評価する手法\cite{Mase89,Ono94}や,2)本稿と同じく,語彙的なつながりに着目した手法\cite{Hoey91,Collier94,FukumotoJ97,Sasaki93}がある.文と文をつなぐ言語的手段には,照応,代用,省略,接続表現の使用,語彙的なつながりがある\cite{Halliday76,Jelinek95}が,接続表現の使用頻度はあまり高くない\footnote{文献\cite{Halliday76}で調査された七編のテキストでは,照応,代用,省略,接続表現の使用,語彙的なつながりの割合は,それぞれ,32\%,4\%,10\%,12\%,42\%である\cite{Hoey91}.}.このため,前者の手法には,接続表現だけでは文間のつながりを解析するための手がかりとしては十分でないという問題点がある.後者の手法では,使用頻度が比較的高い照応を手がかりとして利用していない. \section{テキストの結束を維持する手段} \label{sec:coherence}適格なテキストでは通常,文と文の間につながりがある.二つの文をつなぐ言語的手段のうち照応と語彙的なつながりは,他の結束維持手段よりも頻繁に見られる.照応は,二つのテキスト構成要素が一つの事象に言及することによってテキストの結束を生む手段である.前方照応では,ある要素の解釈が,テキスト中でその要素より前方に現れる先行要素に依存して決まる.ある要素$Y$とその先行要素$X$の間で照応が成り立つためには,1)$Y$は$X$を縮約した言語形式であり,2)$Y$の意味と$X$の意味は矛盾してはならない\cite{Jelinek95}.例えば,代名詞は名詞句を,名詞句は分詞節を,分詞節は文をそれぞれ縮約した言語形式である.次のテキスト\ref{TEXT:dismiss}\,では斜体の表現の意味は互いに矛盾しないので,それらはいずれも同一事象を指しているとみなせる.\begin{TEXT}\text{\itTheSovietNationalEmergencyCommitteedismissedPresidentGorbachovfromoffice.}Aswellas{\itdismissingthePresident},theCommitteeembarkeduponchoosinghisreplacement.{\itGorbachov'sdismissal}isboundtoputWesternpoliciesvis-a-vistheSovietUnionintogreatturmoil.{\itIt}willhavegraverepercussionsontheexchangerates.\label{TEXT:dismiss}\end{TEXT}語彙的なつながりでは,照応と異なり,二つのテキスト構成要素が同一事象に言及しているとは限らない\cite{Halliday76}.次のテキスト\ref{TEXT:boy_same}\,では第二文の``boy''は先行文の``boy''と同じ少年に言及しているが,テキスト\ref{TEXT:boy_exclude}\,では別の少年に言及している.\begin{TEXT}\textThere'sa{\itboy}climbingthattree.The{\itboy}'sgoingtofallifhedoesn'ttakecare.\label{TEXT:boy_same}\textThere'sa{\itboy}climbingthattree.Andthere'sanother{\itboy}standingunderneath.\label{TEXT:boy_exclude}\end{TEXT}テキスト\ref{TEXT:boy_same}\,と\ref{TEXT:boy_exclude}\,では同一辞書見出し語が繰り返されているが,類義語や上位概念語などの使用によって語彙的なつながりが生じることもある.次のテキスト\ref{TEXT:boy_lad}\,では``boy''の類義語``lad''が用いられている.\begin{TEXT}\textThere'sa{\itboy}climbingthattree.The{\itlad}'sgoingtofallifhedoesn'ttakecare.\label{TEXT:boy_lad}\end{TEXT}\vspace{-3mm} \section{文の重要度の評価} \label{sec:importance}\subsection{テキスト構造と文の重要度に関する仮定}\label{sec:importance:assumption}本稿では,テキストを構成する文$S_1,S_2,\cdots,S_n$の間で次の条件が成り立つと仮定する.\begin{enumerate}\item冒頭文$S_1$はどの文にもつながらない.\item$S_1$以外の各文$S_j$について,$S_j$が直接つながる先行文$S_i(i<j)$が唯一つ存在する.\end{enumerate}この仮定は,二つの文(の構成要素)のつながりに,後続文(の構成要素)から先行文(の構成要素)への方向性があることを意味する.この方向性に対する反例として後方照応\cite{Hirst81}があるが,後方照応が用いられることは希である\footnote{提案手法の開発に際して訓練用に用いた英文テキスト20編では,代名詞による照応のうち後方照応は3\%に満たなかった.}.また,この仮定に従えば,文が同時に複数の先行文に直接つながることはないので,テキスト構造は,図\ref{fig:texttree}\,に示すように,冒頭文$S_1$を根節点とする木で表される.\begin{figure}[htbp]\begin{center}\epsfile{file=texttree.eps,width=0.7\columnwidth}\end{center}\caption{文の重要度の評価}\label{fig:texttree}\end{figure}\ref{sec:introduction}\,節で述べたように,本稿では,文の重要度の評価を,1)表題はテキスト中で最も重要な文であり,2)重要な文へのつながりが強い文ほど重要な文であるという仮定に基づいて行なう.この仮定は次のように具体化できる.\begin{enumerate}\itemテキストの冒頭文$S_1$は,多くの場合,そのテキストの表題であるので,$S_1$にはテキスト全体で最大の重要度を与える.\item冒頭文$S_1$以外の文$S_j$の重要度は$S_j$から先行文$S_i$へのつながりの強さ(関連度)と$S_i$の重要度によって決まると考え,文$S_j$の重要度を求める式を次のように定める.\begin{equation}S_jの重要度=\max_{i<j}\{S_iの重要度\timesS_iとS_jの関連度\}\label{eq:importance}\end{equation}\end{enumerate}文の重要度を(\ref{eq:importance})式で求めることにすると,テキストの冒頭から順に処理を行なっていけば,テキストを構成する文すべての重要度が決定できるが,そのためには,二つの文の関連度をどのようにして求めるかを定めなければならない.\subsection{二文間の関連度の評価}\label{sec:importance:relevance}提案手法への入力はテキストの形態素解析結果である.形態素解析によってテキスト中の各語の辞書見出し語と品詞が得られる.今回利用した形態素解析系からの出力では品詞は一意に決定されている.以降,品詞が名詞,人称代名詞,動詞,形容詞,副詞のいずれかである辞書見出し語を重要語と呼ぶ.文$S_j$の先行文$S_i$へのつながりの強さ(関連度)を求める式を次のように定める.\begin{equation}S_iとS_jの関連度=\frac{S_j中の重要語のうちS_iの題述中の重要語につながるものの重みの和}{S_iの題述中の重要語の数}\label{eq:relevance}\end{equation}(\ref{eq:relevance})式の意味は\ref{sec:importance:relevance:anaphora}\,節以降で説明する.二つの重要語の間につながりがあるかどうかの判定は,人称代名詞と先行(代)名詞の前方照応を検出すること(\ref{sec:importance:relevance:anaphora}\,節)と,同一辞書見出し語による語彙的なつながりを検出すること(\ref{sec:importance:relevance:lexical}\,節)によって行なう.重要語への重み付けについては\ref{sec:importance:relevance:title_weight}\,節で述べ,本稿でいう文の題述(rheme)の定義は\ref{sec:importance:relevance:rheme}\,節で与える.\vspace{-1mm}\subsubsection{人称代名詞と先行(代)名詞の照応の検出}\label{sec:importance:relevance:anaphora}\vspace{-1mm}人称代名詞と先行名詞または先行代名詞との照応を検出するためには,両者の人称,性,数,意味素性をそれぞれ照合する必要がある.しかし,今回は,名詞の性と意味素性が記述されていない辞書を用いたので,照応の検出は両者の人称,数をそれぞれ照合することによって行なった.しばしば指摘されるように,代名詞との間で照応が成り立つ先行(代)名詞は,その代名詞を含む文$S_j$あるいは$S_j$の直前の文$S_{j-1}$に現れることが多い\footnote{訓練テキスト20編では,人称代名詞による前方照応のうち96\%がこのような事例であった.}ので,先行(代)名詞の検索対象文を$S_j$と$S_{j-1}$に限定する.検索は$S_j$,$S_{j-1}$の順で行ない,$S_j$中の(代)名詞との照合が成功した場合は,$S_{j-1}$に対する処理は行なわない.\vspace{-1mm}\subsubsection{重要語の語彙的なつながりの検出}\label{sec:importance:relevance:lexical}\vspace{-1mm}二つの文に現れる重要語が文字列として一致するとき,両者の間に語彙的なつながりがあるとみなす.ここでは,\ref{sec:coherence}\,節で述べたような,二つの語が同一事象に言及しているかどうかの区別は行なわない.文字列照合において,照合対象が両方とも単語である場合は,二つの重要語が完全に文字列一致したときに限り照合成功とみなすが,照合対象の両方またはいずれか一方が辞書に登録されている連語である場合は,両者が前方一致または後方一致したときも照合成功とみなす.例えば,``putpressureon''と``put''は前方一致で,``cabinetmeeting''と``meeting''は後方一致で照合が成功する.二つの文がある一定の距離以上離れていると,それらに含まれる重要語の文字列照合が成功しても二つの文の間に直接的なつながりはないと考えられる.このため,二文間の距離に関して制限を設ける.提案手法を開発する際に訓練用として用いた英文テキスト20編において,文字列照合が成功する重要語(人称代名詞は除く)を含む二つの文の間の距離と,その重要語が二つの文を直接つなぐ役割を実際に果たしているかどうかとの関連を調べた結果に基づいて,処理対象範囲を文$S_j$から五文前までの先行文$S_i(j-5\lei<j)$とする.直観的には,単に処理対象範囲を制限するだけでなく,文字列照合が成功する重要語を含む二文間の距離に応じて照合結果に重み付けを行なう方が自然かもしれない.このため,訓練テキストを対象とした実験において,文$S_j$から五文前までの先行文$S_i$の範囲で,二つの文の距離が離れるにつれてつながりの強さが弱まるように重み付けを試みた.しかし,重み付けを行なわない場合の再現率と適合率を上回る結果は得られなかった.このため,本稿では処理範囲を制限するに留める.\vspace{-1mm}\subsubsection{表題語への重み付け}\label{sec:importance:relevance:title_weight}\vspace{-1mm}テキストの表題中に現れる重要語(以降,表題語と呼ぶ)は,そのテキストにおいて重要な情報を伝えると考えられる.従って,表題語を含む文の重要度を大きくするために,他の重要語に与える重みの値よりも大きな値を与えること\cite{Edmundson69,Mase89,Watanabe96}が適切である.本稿では,表題語への重み付けを行なう際にテキスト中での表題語の出現頻度を考慮する.すなわち次のような仮定を置く.\begin{quote}表題語を含む文の重要性は,表題語がテキスト中に頻繁に現れる場合は,表題語を含まない文の重要性に比べて特に高いわけではないが,表題語がテキスト中に希にしか現れない場合には,表題語を含まない文に比べて特に高くなる.\end{quote}訓練テキスト20編を分析した結果に基づいて,表題語を含む文の数がテキストの総文数の$1/4$以下である場合に限り,表題語の重みを$w(>1)$とする.表題語以外の重要語の重みは常に1とする.\[重要語kwの重み=\left\{\begin{array}{lp{0.6\columnwidth}}w(>1)&$kw$が表題語であり,かつ$kw$を含む文の数が総文数の1/4以下の場合\\1&その他\end{array}\right.\]重み$w$の具体的な値は,訓練テキストを対象とした実験で再現率と適合率ができるだけ高くなるように調整し,最終的に$w=5$とした.\vspace{-1mm}\subsubsection{先行文の題述へのつながり}\label{sec:importance:relevance:rheme}テキストは,通常,先行文$S_i$における題述(rheme)が文$S_j$においてその主題(theme)として受け継がれ,それに新たな情報が付け加わるという形で展開する\cite{Givon79}.従って,文$S_j$の先行文$S_i$へのつながりの強さの評価を,$S_j$が$S_i$の題述をどれだけ多く主題として受け継いでいるかに基づいて行なう.主題と題述は,文の前半部分が主題,後半部分が題述というように文中の位置で区別されることが多い\cite{Fukuchi85}が,本稿では,文中の位置ではなく,関連文とのつながりに基づいて区別する.ここで,$S_j$の関連文とは,\ref{sec:importance:assumption}\,節の(\ref{eq:importance})式において,\{$S_i$の重要度$\times$$S_i$と$S_j$の関連度\}の値が最大となるときの先行文$S_i$を意味する.この値を最大にする先行文が複数存在する場合は,$S_j$との距離が最も近いものを関連文と呼ぶ.関連文とのつながりに基づいて主題と題述を次のように定める.\begin{quote}文$S_j$の主題は,$S_j$中の重要語のうち$S_j$の関連文中の重要語につながるものから構成され,文$S_j$の題述は,つながらない重要語から構成される.ただし,関連文を持たない冒頭文$S_1$では,それに含まれる重要語すべてが題述を構成する.\end{quote}例えば,図\ref{fig:texttree}\,において,括弧\{と\}で括った英大文字を各文に現れる重要語とすると,各文の主題と題述は表\ref{tab:theme-rheme}\,のように分けられる.\begin{table}[htbp]\caption{図\protect\ref{fig:texttree}\,の各文の主題と題述}\label{tab:theme-rheme}\begin{center}\begin{tabular}{|c||c|l|l|}\hline文&関連文&\multicolumn{1}{|c}{主題}&\multicolumn{1}{|c|}{題述}\\\hline\hline$S_1$&---&\multicolumn{1}{c|}{---}&A,B,C\\$S_2$&$S_1$&A&D,E\\$S_3$&$S_2$&A,D,E&F\\$S_4$&$S_1$&B,C&G\\:&:&\multicolumn{1}{c|}{:}&\multicolumn{1}{c|}{:}\\$S_{j-1}$&$S_2$&D&H\\\hline\end{tabular}\end{center}\end{table}\subsection{重要文選択手順と処理例}\label{sec:importance:algorithm}\ref{sec:importance:assumption}\,節と\ref{sec:importance:relevance}\,節で述べた考え方に従って重要文を選ぶ処理は図\ref{fig:algorithm}\,のようにまとめられる.\begin{figure}[htbp]\samepage\begin{center}\fbox{\begin{minipage}{0.9\columnwidth}\vspace*{0.5em}\setcounter{algocounter}{0}\begin{ALGO}\step入力を形態素解析する.\step表題語への重み付け処理を行なう.\step冒頭文$S_1$の重要度を次式で求める.\[S_1の重要度=\frac{S_1中の重要語の重みの和}{S_1の重要語の数}\]\label{ALGO:init}\step各文$S_j(j=2,3,\cdots,n)$について,$S_j$から五文前までの先行文$S_i$の範囲$(j-5\lei<j)$で,\ref{sec:importance:assumption}\,節の(\ref{eq:importance})式と\ref{sec:importance:relevance}\,節の(\ref{eq:relevance})式に従って重要度を求める.\stepあらかじめ定められた数だけ文を重要度の順に選択し,それらをテキストでの出現順に出力する.\end{ALGO}\vspace*{0.5em}\end{minipage}}\end{center}\caption{重要文選択手順}\label{fig:algorithm}\end{figure}例として,図\ref{fig:example}\,のテキストを処理して得られる結果を表\ref{tab:example_result}\,に示す.このテキストでは,表題語``amorphous'',``Si'',``TFT''を含む文はそれぞれ三文,三文,五文存在し\footnote{表題も含めて数えている.},いずれもテキスト総文数10文の$1/4$を越えるので,表題語への重み付けは行なわれない.表\ref{tab:example_result}\,の「つながり語」欄に現れる記号$\phi$は,先行文の題述中の重要語につながる重要語が存在しなかったことを意味する.このテキストからは,文選択率が25\%に設定されているとき,表題$S_1$,$S_1$につながる文$S_4$,$S_4$につながる文$S_6$の三文が重要文として選び出される.\begin{figure}[htbp]\samepage\begin{center}\fbox{\begin{minipage}{0.9\columnwidth}\vspace*{0.5em}\small{\begin{NEWS}\item[$S_1$]AmorphousSiTFT\item[$S_2$]ActivematrixLCDswhicharetypicallyusedinproductssuchasLCDcolorTVsarecontrolledbyaswitchingelementknownasathin-filmtransistororthin-filmdiodeplacedateachpixel.\item[$S_3$]Thefundamentalconceptwasrevealedin1961byRCAofAmerica,aU.S.company,butbasicresearchonlybeganinthe1970's.\item[$S_4$]AmorphousSiTFTLCDsintroducedin1979and1980havebecomethemainstreamfortoday'sactivematrixdisplays.\item[$S_5$]Theseunitsplaceanactiveelementateachpixel,andtakingadvantageofthenon-linearityoftheactiveelement,areabletoapplysufficientdrive-voltagemargintotheliquidcrystalitself,evenwiththeincreaseinthenumberofscanlines.\item[$S_6$]AsshowninFigure1,TFTLCDsthatuseamorphousSithin-filmtransistors(TFTs)astheactiveelementsarebecomingthemainstreamtoday,andfull-colordisplaysachievingcontrastratiosof100:1andwhichcomparefavorablytoCRTsarebeingdeveloped.\item[$S_7$]ThedriverelectronicsforTFTLCDsconsistofdata-linedrivecircuitrythatappliesdisplaysignalstothedatalines(sourcedrivers)andscanninglinedrivecircuitrythatappliesscanningsignalstothegatelines(gatedrivers).\item[$S_8$]Asignalcontrolcircuittocontroltheseoperationsandapowersupplycircuitcompletethesystem.\item[$S_9$]LiquidcrystalmaterialsusedinTFTLCDsareTN(twistednematic)liquidcrystals,butdespitethefactthatpixelcountshaveincreasedandadriveelementisplacedateachpixel,wehavestillbeenabletorapidlyincreasethecontrast,viewingangle,andimagequalityofthesedisplays.\item[$S_{10}$]However,manufacturingtechnologiestofabricateseveralhundredthousandsuchelementsontothesurfaceofalargescreenareextremelyproblematic,andthefundamentalapproachdevelopedin1987isstillbeingusedtoday.\end{NEWS}}\vspace*{0.5em}\end{minipage}}\end{center}\caption{テキスト例}\label{fig:example}\end{figure}\begin{table}[htbp]\caption{図\protect\ref{fig:example}\,のテキストに対する処理結果}\label{tab:example_result}\begin{center}\small{\begin{tabular}{|c||c|l|c|c|c|}\hline文&関連文&\multicolumn{1}{|c|}{つながり語}&関連度&重要度&選択順位\\\hline\hline$S_1$&---&\multicolumn{1}{|c|}{---}&---&1&1\\$S_2$&---&$\phi$&0&0&---\\$S_3$&---&$\phi$&0&0&---\\$S_4$&$S_1$&amorphous,Si,TFT&3/3&1&2\\$S_5$&$S_4$&active&1/9&1/9&7\\$S_6$&$S_4$&LCD,active,become,mainstream,today,display&6/9&2/3&3\\$S_7$&$S_4$&LCD,display&2/9&2/9&4\\$S_8$&$S_7$&signal&1/13&2/117&8\\$S_9$&$S_4$&LCD,display&2/9&2/9&5\\$S_{10}$&$S_6$&element,develop,use&3/16&1/8&6\\\hline\end{tabular}}\end{center}\end{table} \section{実験と考察} \label{sec:experiment}重要文選択実験には英文報道記事100編を用いた.100編のテキストを訓練用の20編と試験用の80編に分けた.まず,訓練テキスト20編を対象として実験を繰り返し,再現率と適合率ができるだけ高くなるように,\ref{sec:importance:relevance:title_weight}\,節で述べた表題語の重みを調整した.次に,訓練テキストを対象とした実験で最も高い再現率と適合率が得られた設定で,試験テキスト80編を対象として実験を行なった.テキストの総文数は,訓練テキストの場合,最も短いもので15文,最も長いもので36文,一テキスト当たりの平均では26.2文であり,試験テキストの場合,それぞれ12文,64文,29.0文であった.各テキストについて,第三者(一名)によって重要と判断された文を,選択すべき正解文とした.人手による正解文の選択では,システムが行なっているような各文についての選択順位付けは行なわず,テキスト中の各文についてそれが重要な文であるかそうでないかを判断するに留めた.正解文の数は,訓練テキストの場合,平均で元テキストの総文数の20.8\%であり,試験テキストの場合17.9\%であった.\subsection{訓練テキストでの実験結果}\ref{sec:importance:relevance:title_weight}\,節で述べた表題語への重み付けに関して次のような三種類の設定で,各訓練テキストについて正解文と同じ数だけ文を選択した場合の平均精度(再現率と適合率は同じ値となる)を表\ref{tab:training}\,に示す.\begin{CONFIG}\config表題語を含む文の数がテキスト総文数の$1/4$以下である場合に限り,表題語の重みを5とする.表題語以外の重要語の重みは1とする.\label{CONFIG:freq}\config表題語の重みをその出現頻度に関係なく常に5とする.表題語以外の重要語の重みは1とする.\label{CONFIG:always}\config表題語の重みを他の重要語の重みと同じ1とする.\label{CONFIG:none}\end{CONFIG}\newpage\begin{table}[htbp]\caption{訓練テキスト20編での実験結果}\label{tab:training}\begin{center}\begin{tabular}{|c||c|c|c|}\hline設定&\ref{CONFIG:freq}&\ref{CONFIG:always}&\ref{CONFIG:none}\\\hline\hline精度&71.0\%&70.0\%&62.5\%\\\hline\end{tabular}\end{center}\end{table}表\ref{tab:training}\,によれば,設定\ref{CONFIG:freq}\,での精度が最も高くなっており,\ref{sec:importance:relevance:title_weight}\,節で示した,出現頻度を考慮した表題語への重み付けが有効であることがわかる.\subsection{試験テキストでの実験結果}訓練テキストを対象とした実験で最も高い再現率と適合率が得られた設定で,80編の各試験テキストについて正解文と同じ数だけ文を選択した場合の精度は,平均で72.3\%であった.各テキストごとの精度分布を図\ref{fig:distri}\,に示す.\begin{figure}[htbp]\begin{center}\input{distri.tex}\end{center}\caption{提案手法による精度分布}\label{fig:distri}\end{figure}文選択率を5\%から100\%まで五刻みで変化させたときの平均再現率と平均適合率の変化の様子を図\ref{fig:rec_pre}\,に示す.図\ref{fig:rec_pre}\,には,精度比較のために実装した重要語密度法による実験結果を併せて示す.重要語密度法に関して改良手法が提案されている\cite{Suzuki88}が,ここでは次式で文$S$の重要度を評価した.\[文Sの重要度=\frac{文S中の各重要語のテキスト全体での出現頻度の和}{文S中の重要語の数}\]図\ref{fig:rec_pre}\,によれば,一般的な抄録において適切な文選択率であるとされる20\%から30\%までの付近で,特に,提案手法の精度が重要語密度法の精度を大きく上回っている.\begin{figure}[htbp]\begin{center}\input{denst_source.tex}\end{center}\caption{提案手法と重要語密度法の精度比較}\label{fig:rec_pre}\end{figure}提案手法の精度と,インターネット上で試用可能なシステムAと,市販されている三つのシステムB,C,Dの精度を比較した.それぞれの平均再現率と平均適合率を表\ref{tab:comparison}\,に示す.システムA,B,C,Dの文選択率は,各システムの既定状態で選ばれた文の数とテキストの総文数から逆算したものである.提案手法の文選択率は,四システムの文選択率とほぼ同じである25\%とした.表\ref{tab:comparison}\,によれば,一般ユーザに利用されている実動システムの精度を提案手法の精度が上回っており,提案手法の実用的な抄録システムとしての有効性が示されている.\begin{table}[htbp]\caption{提案手法と他の実動システムの精度比較}\label{tab:comparison}\begin{center}\begin{tabular}{|c||r|r|r|}\hline&\multicolumn{1}{c}{再現率}&\multicolumn{1}{|c|}{適合率}&\multicolumn{1}{|c|}{文選択率}\\\hline\hline提案手法&78.2\%&57.7\%&25\%\\%\hlineシステムA&72.3\%&52.6\%&26\%\\%\hlineシステムB&61.7\%&39.5\%&29\%\\%\hlineシステムC&61.4\%&40.9\%&29\%\\%\hlineシステムD&57.5\%&42.2\%&27\%\\\hline\end{tabular}\end{center}\end{table}\subsection{考察}\label{sec:experiment:discussion}提案手法によって正解文に与えられた重要度が小さく,正解文が選択されなかった原因を分析した.ここでは代表的な原因を二つ挙げる.一つは,辞書見出し語の文字列照合では,語彙的なつながりが捉えられなかったことである.あるテキストでは,``shooting''と``gunfire''の類義関係が把握できないため,``gunfire''を含む正解文はどの先行文にもつながらないとみなされ,重要文として選択できなかった.このような語彙的なつながりを捉えるためにはシソーラスが必要となるが,他のテキストでは,辞書見出し語の文字列照合の代わりに語基(base)の文字列照合を行なえば,つながりが捉えられる可能性もあった.例えば,``announce''と``announcement''は,辞書見出し語としては異なるが語基は同一であるので,文字列照合が成功するだろう.本研究では,一般ユーザに利用される実動システムへの組み込みを前提として,高速な処理を実現することを目標の一つとした.実動システムでは,プロトタイプシステムと異なり,重要文選択の精度と共に処理速度も重要視される.シソーラスの検索に比べて,文字列照合は処理効率の点で有利である.正解文に十分大きい重要度が与えられなかったもう一つの原因は,テキストが複数のサブトピックから構成されていることであった.一般に,トピックが切り替わると,それまでとは異なった語彙が用いられるようになる.このため,提案手法のように同一辞書見出し語による語彙的なつながり(と人称代名詞による前方照応)に基づいて文と文のつながりを評価する手法では,トピックが切り替わる文から先行文へのつながりが弱いと判定され,トピック切り替わり文に対して与えられる重要度は小さくなる.従って,トピック切り替わり文が正解文であるようなテキストでは,高い精度を得ることが難しくなる. \section{おわりに} 本稿では,人称代名詞による前方照応と,同一辞書見出し語による語彙的なつながりを検出することによって,テキストを構成する各文と表題との直接的なつながりまたは他の文を介しての間接的なつながりの強さを評価し,その強さに基づいて各文の重要度を決定する手法を提案した.平均で29.0文から成る英文テキスト80編を対象とした実験では,文選択率を25\%に設定したとき,再現率78.2\%,適合率57.7\%の精度を得,提案手法が比較的短いテキストに対して有効であることを確認した.複数のサブトピックから成るような比較的長いテキストの扱いは今後の課題である.同一辞書見出し語の出現頻度と出現分布を利用してトピックの切り替わりを検出し\cite{Hearst97},各サブトピックごとに提案手法を適用すると,長いテキストに対してどの程度の精度が得られるかを今後検証したい.\bibliographystyle{jnlpbbl}\bibliography{v06n1_03}\begin{biography}\biotitle{略歴}\bioauthor{吉見毅彦}{1987年電気通信大学大学院計算機科学専攻修士課程修了.現在,シャープ(株)ソフト事業推進センターにて機械翻訳システムの研究開発に従事.在職のまま,1996年より神戸大学大学院自然科学研究科博士課程在学中.}\bioauthor{奥西稔幸}{1984年大阪大学基礎工学部情報工学科卒業.同年シャープ(株)に入社.1985〜89年(財)新世代コンピュータ技術開発機構に出向.現在,同社情報システム事業本部ソフト事業推進センターに勤務.機械翻訳システムの研究開発に従事.}\bioauthor{山路孝浩}{1990年大阪市立大学理学部数学科修士課程修了.同年シャープ(株)に入社.1993〜95年(財)新世代コンピュータ技術開発機構に出向.現在,同社OAシステム事業部においてワープロの開発に携わる.}\bioauthor{福持陽士}{1982年インディアナ大学言語学部応用言語学科修士課程修了.翌年,シャープ(株)に入社.現在,情報システム事業本部ソフト事業推進センター副参事.機械翻訳システムの研究開発に従事.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V09N05-04
\section{まえがき} label{intro}比喩とは,ある概念を他の概念によって説明または強調する修辞的手法の一つであり\cite{Lakoff1986,Yoshiga1990j},様々な分野で研究対象として取り上げられている\cite{Shinohara2000j}.自然言語処理の分野においても,比喩表現はしばしば問題となる.例えば,機械翻訳において,現状のシステムでは意訳や再解釈などの深い処理は行われないため,目的言語に翻訳された比喩表現は,意図した内容と異なった出力となってしまう場合がある\cite{Masui1995j}.``水のような価値''という比喩表現は,日本語では「価値が低い」という意味として理解されるが,言語によっては,「非常に価値が高い」ことを意味する場合がある.これは,``水''が持つ特徴が言語間で異なるからであり,この違いを補正するためには,原言語における「価値が低い」という特徴を保持したまま,対象言語において,同様の特徴を持った言葉を選び出す必要がある.しかし,現状の機械翻訳では,このような,言語間の意味の相違を考慮した処理は不可能である.このような場合,その表現が比喩であるかどうかを判断し,``asworthaswater''や``valuelikeaswater''と直訳されることを防ぐだけでも有効であると思われる.また,李\cite{Yoshiga1990j}によれば,新聞記事などの実用文においても,比喩表現は数多く出現し,その割合は小説や雑誌と大差はない.したがって,自然言語処理の対象を一般的な文書へ拡大し,柔軟な処理を行うたためには,比喩表現の処理は重要である.従来,比喩に関する研究は,心理学の分野において発展してきた.Ortony\cite{ortony79}やGentner\cite{gentner94}をはじめ,多くの比喩理解の理論的モデルが,提案されている.楠見\cite{Kusumi1996jb,Kusumi1996ja}は,心理学的実験手法によって,比喩理解に必要な知識を計測し,いくつかの理論的モデルの検証を行っている.しかしながら,上記で述べたような心理学実験は,被験者に対するアンケートやテストによって知識を得る手法であるため,汎用的な大規模知識ベースを構築するという目的に対しては,被験者数の確保や被験者集団の知識の偏り,個人差の是正の困難さやコストの面で大きな制限がある.比喩理解の過程を計算機上で実現するためには,比喩の理解過程を,なんらかの形でモデル化して扱う必要がある.岩山らは,プロトタイプ理論\cite{rosch75}に基づいて概念を生起確率を持った属性値集合として記述し,比喩を構成するときの特徴の移動を定量化する計算モデルを提案しており\cite{Iwayama1991j},内海も同様の計算モデルを用いて,心理学実験データに基づく知識ベースを用いた比喩理解の実験を行い,人間の判断結果と比較している\cite{Utsumi1997j}.彼らのモデルでは,比喩の理解過程は比喩表現として尤も強調される特徴(顕現特徴)が,たとえる概念(source概念)からたとえられる概念(target概念)へ移動するプロセスとして扱われている.しかしながら,楠見ら\cite{Kusumi1996ja,Iwayama1991j}が指摘するように,比喩理解において,比喩性を有する概念間の共有属性値は必ずしも一つとは限らず,複数の顕現特徴を扱う場合については議論の余地がある.また,彼らも,人手によって知識ベースを構築しており,知識の大規模化,汎用化の問題は解消されていない.そこで,本論文では,テキスト中に出現する比喩表現を認識するために,確率的な尺度を用いた比喩性検出手法を提案する.比喩性を検出するための確率的な尺度として,``顕現性落差"と``意外性"を設定する.``顕現性落差''は,概念対を比較したときに,クローズアップされる顕現特徴の強さをはかる尺度であり,概念の組合せが理解可能である否かの判断に用いる.``顕現性落差''は,確率的な概念記述を用いて,概念の共有属性値集合が持つ冗長度の差で定量化する.``意外性''は,概念の組み合わせがどれほど斬新であるかをはかる尺度であり,概念同士が例示関係であるか否かの判断に用いる.``意外性"は,単語間の意味距離を用いて定量化する.二つの尺度を併用することによって,比喩関係を持つ概念対,すなわち,比喩性の判定が可能となる.二つの尺度を計算するために,コーパス中から抽出した語の共起情報を利用して知識ベースを構築する.以下,2章で,比喩性を検出するための尺度として,``顕現性落差''と``意外性''が利用できることを示し,3章で,``顕現性落差''を,確率的概念記述モデルに基づいて定量化する方法と,計算に用いる知識ベースを,コーパス中の共起関係を利用して構築する方法について述べ,4章で,``意外性''を,単語間の意味距離を利用して定量化する方法と,コーパス中の共起情報に基づく知識ベース構築の方法について説明する.5章では,両尺度を併用した単語対の判別実験と評価を行い,6章で,評価結果について考察する. \section{比喩性の尺度} 本論文では,与えられた表現が比喩であるかを判断する基準として,「クローズアップされる特徴がいかに明確か」という点と,「与えられた表現がどの程度新鮮か」という点が重要であることに着目する.比喩表現の理解とは,概念が持つ,ある特徴を強調することによって,新たな理解を促すものであるから,強調される特徴が明確でなければならない.``顕現性落差"は,クローズアップされる特徴を抽出し,それらの特徴がいかに明確であるかをはかる尺度である.また,比喩表現として対比される概念が新鮮であることは,その表現に強い印象を与え,理解を促すことになる.``意外性"は,対比される概念の組み合わせの新鮮さをはかる尺度である.このような,二つの尺度を設定することで,その表現の比喩らしさ,すなわち,比喩性を検出できると考えられる.以下,``顕現性落差''および``意外性''について,比喩性との関係を説明し,両尺度が,比喩性検出にどのように利用できるかについて述べる.Ortny\cite{ortony79}は,比較される概念間の共有特徴が少ない場合でも,それらの類似性が認識されて比喩性が理解される点や,類似性の非対称性に着目し,相互作用モデルを示した.例えば,``卵のような車''という比喩の場合,たとえる言葉(source概念)``卵''とたとえられる言葉(target概念)``車''の共有特徴$(卵{\cap}車)=\{丸い,白い,小さい,…\}$は,``車''においては顕著な特徴ではないが,``卵''においては,これらの共有特徴は非常に顕著な特徴(顕現特徴)である.したがって,``車''に対して,``卵''のイメージを重ね合わせることによって,``車''における$\{丸い,白い,小さい,…\}$などの特徴を同時に強調し,その結果,``顕現性落差''が生じて,比喩性が検出される.``顕現性落差''からは,類似性の非対称性が生じるので,同じ概念を比較した場合でも,``車のような卵''という表現\footnote{このような表現を反転比喩という.}からは,比喩性は検出されにくい.また,source概念が顕著な特徴を持っていたとしても,対比される概念間に共有特徴が認められない場合は,``顕現性落差''が生じないため,比喩性は認識されない.例えば,``谷底のような車''という表現では,``谷底''と``車''の間には共有特徴が見つけられないので,``顕現性落差''は生じず,比喩性も生じない.``自動車のような車''では,組み合わせ概念が類似概念であるため,両者の顕現特徴もほとんど共通である.この場合も,``顕現性落差''は生じにくく,比喩性もあらわれにくいと考えられる.さらに,比喩とは,意表を突いた言葉(ここでは単語)の組合せによって,伝えたい内容をより鮮明にしたり,強調する働きを持つ.例えば,``スポーツカーのような車''という比喩の場合,``スポーツカー''と``車''の共有特徴($スポーツカー{\cap}車$)=\{速い,格好いい,燃費が悪い…\}は,``車''においては顕著な特徴ではないが,``スポーツカー''において非常に顕著である.したがって,``車''に対して,``スポーツカー''のイメージを重ね合わせることによって,``車''における\{速い,恰好いい,…\}などの特徴を同時に強調するが,比喩性は認識されにくい.この理由は,両概念が上位下位関係を持つために,重複する特徴が多く,かつ,ありふれた組み合わせであるために,表現の新鮮さに欠けるからと考えられる.本論文では,このような単語間の組合せの新鮮さの度合を``意外性''として扱う.一般に,同一話題中に頻出する単語対は,たとえ2章の``顕現性落差''の条件を満たしていても,``意外性''が低い.その結果,比喩としての「新しさ」や「意外さ」が認識されず,比喩性を高める要因とはならない.反対に,めったに同一話題中に現れない単語対は``意外性''が高く,「新鮮」で「意外」であると認識され,比喩性を高める要因となる.\begin{table}[tb]\begin{center}\caption{顕現性落差と意外性に基づく概念対の分類}\label{tbl:relation}\begin{tabular}{|c|c|c|c|c|}\hline&&\multicolumn{3}{|c|}{顕現性落差}\\\hline&&大&小&負\\\hline意&高&比喩&比喩/例示&無意味\\\cline{2-5}外&:&:&:&:\\\cline{2-5}性&小&例示&比喩/例示&無意味?\\\hline\end{tabular}\end{center}\end{table}上記の見地から,``顕現性落差''が大きく,かつ``意外性''も大きい概念対ほど,特徴が明確であり,表現も新鮮に受け取られ,比喩性も大きくなると考えられる.この考え方と,概念対(比喩・例示・無意味)の区別を対応付けると,表\ref{tbl:relation}のような関係が仮定できる.概念対において,``顕現性落差''によって,無意味な概念対(無関係対)と意味のある概念対(比喩関係対・例示関係対)が区別でき,``意外性''によって,例示関係対と非例示の概念対(比喩関係対・無関係対)が区別できる.よって,両者を統合的に利用することで,比喩関係にある概念対が区別できる\footnote{ただし,共有特徴がない場合については,本論文では議論の対象外とする.}. \section{顕現性落差の定量化} \subsection{確率的プロトタイプを用いた顕現性落差の計算}2章で述べたような共有特徴の顕現性落差を扱うために,属性値集合を用いた,確率的な概念記述を用いる.確率的な概念記述モデルでは,概念は属性値とその生起確率の集合として記述される\cite{Iwayama1990,Masui1999}.概念$\ast(W)$が属性値$w_i$をもち,その生起確率が$p_i$であるとき,$\ast(W)$は以下のように,確率的な属性値集合として記述できる(式(\ref{exp:collection})).\begin{eqnarray}\label{exp:collection}{\ast}(W)=\{p_1\#w_1,p_2\#w_2,...,p_i\#w_i,...,p_m\#w_m\}\end{eqnarray}このとき,概念の顕現性は,これらの属性値集合の冗長度(ばらつき具合)から予測可能である.(\ref{exp:collection})で示した概念${\ast}(W)$が,$m$種類の属性値から成る属性値集合として記述される場合,その冗長度$r(W)$は,式(\ref{exp:info})を用いて定量化できる\cite{Iwayama1991j}.\begin{eqnarray}\label{exp:info}r(W)=&\left\{\begin{array}{cc}1-\frac{\sum_{i=1}^{m}{p_i}\log{\frac{1}{p_i}}}{\log{m}}&(m{\neq}1)\\{1}&(m=1)\end{array}\right\}\end{eqnarray}\begin{figure}[tb]\begin{center}\epsfile{file=proto2.eps,scale=0.5}\caption{確率的な概念記述における特徴集合の顕現性落差}\label{fig:rep-kage}\end{center}\end{figure}ところで,比喩表現の顕現特徴は,比較される概念間の共有特徴から選ばれるが,同時に,source概念の顕現特徴になっているはずである.よって,source概念の属性値集合から主要な属性値を取り出し,それらと,target概念の属性値との間で共有できるものを取り出すことで,顕現性落差を考えるためにクローズアップされる共有属性値集合が取り出される\footnote{比喩表現を構成する概念の間で共有される属性値は,必ずしも一つではない\cite{Kusumi1996ja}ので,計算対象となる共有属性値は集合でもよい.もちろん,概念が共有する属性値の数が少なければ少ないほど,顕現特徴が特定しやすいため,結果として比喩として理解されやすいといえる.}.取り出された共有属性値集合について,source概念とtarget概念の各々における生起確率を用いて冗長度を計算することで,顕現性落差が予測できる.したがって,source概念${\ast}(W_s)$が,降順で整列した$m$個の属性値から成る属性値集合で記述される場合を考えると,まず,生起確率上位から,閾値$\alpha$までの範囲内に存在する$n$個の属性値(${\sum_{i=1}^{n}{p_i}>{\alpha}}$)を,その概念の主要な属性値集合とみなして取り出し(式(\ref{exp:set})),\begin{eqnarray}\label{exp:set}&{\ast}(W_s)=\{p_1\#w_1,p_2\#w_2,...,p_n\#w_n,...,p_m\#w_m\}\nonumber\\if&(p_1>p_2>...>p_n)\\cap\sum_{i=1}^{n}{p_i}>\alpha\\then&T(W_s)=\{p_1\#w_1,p_2\#w_2,...,p_n\#w_n\}\nonumber\end{eqnarray}次に,取り出した属性値集合$T(W_s)$と,target概念${\ast}(W_t)$との間で共有される属性値を探し,それらを,各々の概念における相対頻度の値とともに取り出す.(\ref{exp:set})に関して,source概念$\ast(W_s)$の主要な属性値集合$T(W_s)$と,target概念${\ast}(W_t)$の間で共有される属性値集合は,$W_{s,(T(W_s)\cap{\ast}(W_t))}$,$W_{t,(T(W_s)\cap{\ast}(W_t))}$であり,それらの主要な共有属性値集合(属性値数$x$個,$y$個)は,式(\ref{exp:set1}),(\ref{exp:set2})のように表せる.さらに,それぞれの共有属性値集合の冗長度,$r(T(W_{s,(T(W_s)\cap{\ast}(W_t))}))$,$r(T(W_{t,(T(W_s)\cap{\ast}(W_t))}))$は,式(\ref{exp:var1}),(\ref{exp:var2})のように計算できる.\begin{eqnarray}\label{exp:set1}&T(W_{s,(T(W_s)\cap{\ast}(W_t))})=\{p_{s,1}\#w_1,p_{s,2}\#w_2,...,p_{s,x}\#w_x\}\\\label{exp:set2}&T(W_{t,(T(W_s)\cap{\ast}(W_t))})=\{p_{t,1}\#w_1,p_{t,2}\#w_2,...,p_{t,y}\#w_y\}\end{eqnarray}ここで,上記の手順で求められた冗長度は,単に属性値のばらつき具合を示しているにすぎない.そのため,source概念における共有属性値集合の冗長度が,target概念のそれより小さい(ばらついている)場合でも,共有属性値の生起確率が概念記述全体に対して占める割合が大きいと,顕現特徴となる場合があり,冗長度の差のみでは,顕現性落差を正確に反映できない.そこで,顕現性落差を反映させるために,対象となる属性値がどの程度主要であるかによって冗長度に重み付けをする.例えば,図\ref{fig:rep-kage}では,属性値$\{幼い\}$の生起確率は,概念$\ast(子供)$において$0.222$であり,概念$\ast(顔)$において$0.003$である.この場合,属性値$\{幼い\}$は,概念$\ast(子供)$において最も主要な属性値であるが,概念$\ast(顔)$においてはそれほど主要ではないといえる.このように,ある属性値集合における属性値が,集合全体に対して,どの程度主要であるかということは,その属性値が集合内において保持する生起確率から把握できる.主要な属性値を用いた冗長度と,主要でない属性値を用いた冗長度を比較した場合,前者が主要であることが,顕現性の強調に影響すると考えられる.よって,各々の冗長度に対して,対象となった共有属性値集合の生起確率の総和を乗じて重み付けをし,比較した結果を顕現性落差として判断する(式(\ref{exp:dif})).比較した結果が正の場合,顕現性落差は比喩性を上げるように働き,負の場合は比喩性を下げるように働く,または生じないとみなす.\begin{eqnarray}\label{exp:var1}r(T(W_{s,(T(W_s)\cap{\ast}(W_t))}))=&\left\{\begin{array}{cc}1-\frac{\sum_{i=1}^{x}{{p_{s,i}}\log{\frac{1}{p_{s,i}}}}}{\log{x}}&(x{\neq}1)\\{1}&(x=1)\end{array}\right\}\\\label{exp:var2}r(T(W_{t,(T(W_s)\cap{\ast}(W_t))}))=&\left\{\begin{array}{cc}1-\frac{\sum_{i=1}^{y}{{p_{t,i}}\log{\frac{1}{p_{t,i}}}}}{\log{y}}&(y{\neq}1)\\{1}&(y=1)\end{array}\right\}\end{eqnarray}\begin{eqnarray}\label{exp:dif}Gap(W_s,W_t)=&r(T(W_{s,(T(W_s)\cap{\ast}(W_t))}))×\sum_{i=1}^{x}{p_{s,i}}\nonumber\\&-r(T(W_{t,(T(W_s)\cap{\ast}(W_t))}))×\sum_{i=1}^{y}{p_{t,i}}\end{eqnarray}\subsubsection*{計算例}以下に,顕現性落差の計算手法についての具体例を示す.``子供のような顔''という比喩表現に関して,二つの構成概念,${\ast}(子供)$と${\ast}(顔)$が図\ref{fig:rep-kage}のように,記述されている.仮に,主要な属性値集合を決める閾値$\alpha$を0.5とした場合,source概念${\ast}(子供)$における上位の属性値集合$T(子供)$は,$\{幼い,小さい,たくましい,可愛い,健康だ,弱い,いたいけだ\}$(合計0.505)となる.さらに,$T(子供)$と${\ast}(顔)$の共有属性値として,$\{幼い,たくましい\}$が得られるので,クローズアップされる属性値集合は以下のように表せ,\begin{eqnarray}\label{exp:int}T(子供_{T((子供)\cap\ast(顔))})=&\{幼い\#0.222,たくましい\#0.030\}\\%$,\label{exp:int2}T(顔_{T((子供)\cap\ast(顔))})=&\{幼い\#0.003,たくましい\#0.005\}\end{eqnarray}それぞれの冗長度は次のように計算できる.\begin{eqnarray}\label{exp:int1-2}r(T(子供_{T((子供)\cap\ast(顔))}))=&1-\frac{{0.222}\log{\frac{1}{0.222}}+{0.030}\log{\frac{1}{0.030}}}{\log{2}}&=0.471\\\label{exp:int2-2}r(T(顔_{T(子供)\cap\ast(顔)}))=&1-\frac{{0.003}\log{\frac{1}{0.003}}+{0.005}\log{\frac{1}{0.005}}}{\log{2}}&=0.082\end{eqnarray}共有属性値の生起確率の総和によって重み付けをして,両者を比較すると,\begin{eqnarray}Gap(子供,顔)=&0.471{\ast}0.253-0.082{\ast}0.008=&0.118\end{eqnarray}$0.118$という``顕現性落差''が得られ,この概念対は,$\{幼い,たくましい\}$という属性値に関して,比喩性を高めるようにはたらくと判断する.\subsection{顕現性落差計算のための知識ベース構築}本節では,顕現性落差の定量化に用いる知識ベースの構築について述べる.前節で説明した顕現性落差を定量化するためには,対象となる単語を表現できる属性値集合に関する知識ベースが必要である.知識ベース構築において,従来のように被験者を用いた心理学的実験に基づいた場合,妥当性の高い知識は期待できるが,同手法によって,数万,数十万と,知識を大規模化することは,極めて困難である.コンピュータを用いた汎用的な比喩性判定を考えた場合,大規模な知識ベースを効率良く構築することも非常に重要である.よって,大規模コーパスを利用した統計的なアプローチも有効な手段の一つである.そこで,我々は,従来の心理学的実験手法を用いず,統計的手法を用いて,テキストコーパスから大規模な知識を自動的に抽出し,知識ベースを構築する.具体的には,対象とするテキストコーパスを形態素解析\footnote{茶筅$version2.02$\cite{Chasen1999j}を用いた.}し,得られた結果から,``修飾語−名詞''の共起関係とその共起頻度を抽出する.抽出された共起情報は,確率的プロトタイプモデルに基づいて,知識ベース化する.\begin{itemize}\item[]例文(1){\em第一日目には,赤い花が一本売れた\cite{Dazai1947j}.}\item[]例文(2){\em二人は白い花のイバラの影から出て,水蓮の咲いている小さい沼の方へ歩いて行きます\cite{Dazai1988jb}.}\end{itemize}例えば,例文(1)を形態素解析した結果から,共起関係``花−赤い''が抽出される.この関係を共起頻度とともに,``$花=\{赤い\#1\}$''のように記録する.同様に,例文(2)を処理すると,共起関係``花−白い''と``沼−小さい''が抽出できる.その結果,知識は,``$花=\{赤い\#0.50,白い\#0.50\},沼=\{小さい\#1.0\}$''に更新される.上記の方法に従って,1年分の新聞記事コーパス\cite{Mainichi1995j}から知識ベースを構築した.知識ベース構築に際して,知識を抽出する共起範囲は1文とした\footnote{抽出される知識は名詞とその名詞にかかる修飾語である.したがって,例え頻度が少なくとも,それは偶然出現したものではなく,名詞の属性を表現するために用いられているため,属性値となる語句の範囲が正しく抽出できれば,頻度に関わりなく,属性値として適切なはずである.また,比喩的関係を考える場合には,通常は思い付きにくい属性値がクローズアップされる可能性があることから,低頻度の属性値を用いることにも意味があると判断し,頻度に対する閾値を設けなかった.}.知識として抽出された共起ペアは79,712組,属性値集合は27,958組であった.属性値集合あたりの属性値数は1〜339,平均は2.5であった.表\ref{tbl:nov-ex0}に知識ベースの例を示す.``山:高い'',``海:青い'',``学生:若い'',など,概念の顕現特徴を示す属性値が概ね上位に位置した.下位の順位においても,``山:険しい'',``海:暗い,神秘的だ'',``学生:無気力だ,忙しい'',のように,概念の特徴として連想可能な属性値を見ることができる.構築した知識ベースから,ランダムに100組を抜きだし,人手による大まかな評価を行った.評価は,(A)見出しの属性値として連想し易い,(B)見出しの属性値として連想することが可能,(C)見出しの属性値として連想不可能,の三段階に分類することで行った.その結果,(A)が85組,(B)が15組,(C)が5組となった.したがって,抽出した属性値のうち,85\%程度は顕現特徴として理解でき,95\%程度は連想可能なものであると考えられる.\begin{table}[tb]\begin{center}\caption{知識ベースの例}\label{tbl:nov-ex0}\begin{tabular}{|c|l|}\hline概念&\multicolumn{1}{|c|}{属性値集合}\\\hline山&高い\#0.111,青い\#0.063,静かだ\#0.048,小高い\#0.048,深い\#0.048,低い\#0.048,\\&なだらかだ\#0.032,丸い\#0.032,巨大だ\#0.032,厳しい\#0.032,いい\#0.016,\\&いろいろだ\#0.016,さびしい\#0.016,のどかだ\#0.016,ふしぎだ\#0.016,\\&険しい\#0.016,悪い\#0.016,遠い\#0.016,楽しい\#0.016,美しい\#0.016,...\\\hline海&青い\#0.228,きれいだ\#0.087,美しい\#0.087,豊かだ\#0.065,真っ青だ\#0.054,\\&新鮮だ\#0.054,静かだ\#0.043,穏やかだ\#0.043浅い\#0.033,暗い\#0.022,\\&黒い\#0.022,真っ暗だ\#0.022,豊富だ\#0.022,遠い\#0.011,輝かしい\#0.011,\\&広い\#0.011,新しい\#0.011,神秘的だ\#0.011,素晴らしい\#0.011,壮大だ\#0.011,...\\\hline学生&若い\#0.176,優秀だ\#0.118,高い\#0.059,困難だ\#0.059,未熟だ\#0.039,いい\#0.039,\\&近い\#0.039,まじめだ\#0.020,よい\#0.020,フレキシブルだ\#0.020,暗い\#0.020,\\&活発だ\#0.020,賢い\#0.020,厳しい\#0.020,素直だ\#0.020,貧乏だ\#0.020,\\&不自由だ\#0.020,無気力だ\#0.020,練習熱心だ\#0.020,忙しい\#0.020...\\\hline子供&幼い\#0.222,小さい\#0.162,弱い\#0.030,たくましい\#0.030,可愛い\#0.030,\\&健康だ\#0.030,いたいけだ\#0.022,愛らしい\#0.022,可愛らしい\#0.022,高い\#0.022,\\&長い\#0.022,必要だ\#0.022,未熟だ\#0.022,あやふやだ\#0.010,いい\#0.010,\\&かわいい\#0.010,ほほえましい\#0.010,やんちゃだ\#0.010,悪い\#0.010,...\\\hline米国&強い\#0.091,多い\#0.091,厳しい\#0.055,高い\#0.055,広大だ\#0.036,重要だ\#0.036,\\&積極的だ\#0.036,薄い\#0.036,必要だ\#0.036,ワイルド\#0.036,いい\#0.018,\\&さまざまだ\#0.018,一般的だ\#0.018,及び腰だ\#0.018,好きだ\#0.018,好調だ\#0.018,\\&広い\#0.018,国際的だ\#0.018,慎重だ\#0.018,新しい\#0.018,敏感だ\#0.018,...\\\hline夢&怖い\#0.061,悪い\#0.061,ささやかだ\#0.051,遠い\#0.051,壮大だ\#0.041,\\&ルナティックだ\#0.031,不思議だ\#0.031,変だ\#0.031,でかい\#0.031,\\&はかない\#0.031,ふさわしい\#0.020,いい\#0.020,こわい\#0.020,むなしい\#0.020,\\&明るい\#0.020,甘い\#0.020,恐ろしい\#0.020,嫌だ\#0.020,長い\#0.020,...\\\hline書類&必要だ\#0.464,いろいろだ\#0.107,膨大だ\#0.107,簡単だ\#0.071,高い\#0.071,\\&さまざまだ\#0.036,形式的だ\#0.036,短い\#0.036,不必要だ\#0.036,分厚い\#0.036,...\\\hlineクリスマス&寂しい\#0.222,よい\#0.111,楽しい\#0.111,巨大だ\#0.111,孤独だ\#0.111,\\&豪華だ\#0.111,神聖だ\#0.111,暖かい\#0.111\\\hlineイチゴ&甘い\#0.333,新鮮だ\#0.333,真っ赤だ\#0.333,\\\hline\end{tabular}\end{center}\end{table}上の評価結果は,個々の属性値が妥当かどうかを測るものであり,評価後の数値がそのまま属性値集合の妥当性を示すものではないが,大規模な知識を,概ね直観に合うレベルで抽出することができたといえる.一方で,以下に述べるような,方式限界の存在も明らかになった.属性値の中には,ほとんどの概念と頻繁に共起するために,概念の特徴を示す属性値とはならないケースが見られた.``よい''や``いい''がその一例である.これらの語は,概念によっては,その特徴を反映していない場合も多く,属性値集合のノイズとなってしまうことがわかった.他にも,``夢''の属性値の例があげられる.文献\cite{GJDict1996}に記載されている``夢''の語義文を参考にして属性値を考えると,``はかない'',``非現実的だ'',``実現困難だ'',``理想的だ''が得られる.上記手法によって構築された知識ベース(表\ref{tbl:nov-ex0})の``夢''の属性値集合をみると,``はかない''以外の属性値が抽出されていないことがわかる.これは,コーパス中において,``非現実的な'',``実現困難な'',``理想的な''などは,非制限的な属性であり,``夢''の属性値としては一般的過ぎるために,修飾語として出現しにくいためと考えられる.上で述べたような問題点は,以降で扱う,比喩性判定の過程に影響を与えることが予想されるが,本論文では,これを本構築手法の限界と考えている\footnote{この問題については,6章でも議論する.}.以上の見地から,本手法によって構築される知識ベースは,強調されやすい属性値の集合によって表現される,確率的な概念記述であるといえ,概念の顕現特徴やそれらの集合を近似することは可能である.したがって,比喩性の判定という目的においては,十分利用可能である.\begin{table}[tb]\begin{center}\caption{``$AのようなB$''におけるAB間の顕現性落差の例}\label{tbl:gap-ex}\begin{tabular}{|c|c|c|c|}\hline分類&A&B&顕現性落差\\\hline比喩&神様&人&0.993\\比喩&粉&骨&0.811\\比喩&影&人物&0.387\\比喩&オウム&宗教&0.231\\比喩&ジャズ&リズム&0.196\\例示&サリン&毒物&0.033\\例示&中国&国&0.008\\例示&フランス&大国&0.000\\無意味&人間&キャラクター&-0.009\\無意味&夢&馬&-0.024\\無意味&キャンペーン&形&-0.042\\例示&米国&リストラ&-0.136\\\hline\end{tabular}\end{center}\end{table}構築した知識ベースを用いて,単語間の顕現性落差を計算した例を表\ref{tbl:gap-ex}に示す.$A,B$の項の単語対は,前述のコーパスから,``$AのようなB$''というパターンで現れる表現の構成単語である.表\ref{tbl:gap-ex}から,顕現性落差が大きい単語対は,比喩または例示の組み合わせが多く,顕現性落差が小さい単語対は,例示や無意味単語対が多いことがわかる. \section{意外性の定量化} \subsection{単語間の意味距離を用いた意外性の定量化}2章で述べたように,比喩表現の``意外性''とは,構成概念の組み合わせの新鮮さである.単語同士の組み合わせがいかに新鮮かを決める要因として,それらの単語が,日常的に用いられる文章中でどれほど頻繁に共起するか,という点があげられる.よって,テキストデータ中の単語の共起情報に基づく意味距離を利用すれば,単語組み合わせの``意外性''を定量化できるはずである.大規模なテキストデータから,単語の共起頻度を用いて単語間の意味距離を定量化する手法は,これまでにも数多く提案されている\cite{Salton1989,Church1990,Smaja1993}.本論文では,計算対象となる頻度が小さい場合でも,比較的信頼できる結果が得られるdice係数を利用する.dice係数は,本来,単語間の意味距離を示す値であるため,単語間の結び付きが強い程値が小さな値をとる.これは,``意外性''の定義とは反対の概念であるため,dice係数の逆数を``意外性''の値として用いることにする.したがって,あるテキスト中において出現する二つの単語$W_s$,$W_t$が,それぞれ,$p_s$,$p_t$の頻度で出現しており,そのうち両者が共起する頻度が$p_s・p_t$である場合,``意外性''$Nov(W_s,W_t)$は,式(\ref{exp:novelty})で表される.\begin{eqnarray}\label{exp:novelty}Nov(W_s,W_t)=&\frac{p_s+p_t}{2(p_s・p_t)}\end{eqnarray}この計算方法では,dice係数の値が0となる場合,すなわち,対象とする単語間の共起頻度が0の場合は値が得られない.共起頻度が得られないということは,単語の抽出元であるコーパス中からは,意外性を判断するための基本情報が得られなかったと判断できる.したがって,単語間の共起頻度が0であった場合は,判定不能として扱う.この場合,顕現性落差の計算が可能であったとしても,比喩性の判定は不能となる.\begin{table}[tb]\begin{center}\caption{``$AのようなB$''における$AB$間の意外性の例}\label{tbl:nov-ex}\begin{tabular}{|c|c|c|c|}\hline分類&A&B&意外性\\\hline無意味&人間&キャラクター&2917\\%A比喩&神様&人&1429\\%M無意味&キャンペーン&形&837\\%A比喩&矢&パス&595\\%M比喩&少年&笑顔&308\\%M比喩&夢&存在&226\\%M例示&フランス&主張&131\\%S例示&中国&大国&94\\%S比喩&ジャズ&リズム&39\\%M例示&サリン&物質&14\\%S\hline\end{tabular}\end{center}\end{table}\subsubsection*{計算例}以下,意外性の計算手法について,具体例を示す.``山のような書類''という比喩表現に関して考える.ある新聞記事\cite{Mainichi1995j}では,二つの単語``山''および``書類''の頻度はそれぞれ,2695,1033であり,両者の共起頻度が4である.このとき``意外性''は,\begin{eqnarray}\label{calc:novelty1}Nov(山,書類)=&\frac{2695+1033}{2{\ast}4}=466\end{eqnarray}となる.同様に,``文書のような書類''という表現の場合,二つの単語``文書''および``書類''の頻度はそれぞれ,1898,1633,両者の共起頻度が20なので,``意外性''は,\begin{eqnarray}\label{calc:novelty2}Nov(文書,書類)=&\frac{1898+1633}{2{\ast}20}=88.25\end{eqnarray}となり,``山,書類''と比較して意外性が小さいことがわかる.\subsection{意外性計算のための知識ベース構築}顕現性落差同様,テキストコーパスから,統計的手法を用いて大規模な知識を取り出し,意外性の定量化に用いる知識ベースを構築する.具体的には,対象とするテキストを形態素解析\cite{Chasen1999j}し,得られたその処理結果から,全ての名詞とその出現頻度,および,1文をスコープとした場合の名詞共起とその共起頻度を抽出して構築する.例文(2)には5つの名詞``二人'',``花'',``イバラ'',``影'',``水蓮'',``沼''が存在する.共起範囲を一文として各名詞のペア組合せを考えると,14組の名詞ペアが考えられる.このとき,各名詞の出現頻度と共起頻度,それらに基づいて名詞間の意味距離が計算できる.以上の結果を知識ベースとして,$\{二人,花:29,32,4\}$のように記録する.表\ref{tbl:nov-ex}に,単語間の意外性の例を示す.これらは,1年分の新聞記事コーパス\cite{Mainichi1995j}を利用して構築した知識ベースを用いて,計算した結果である.知識ベース構築のための共起範囲は1文とし,共起頻度5以上のものを対象とした.$A,B$の項の単語対は,前述のコーパスから,``$AのようなB$''というパターンで現れる表現の構成単語である.表\ref{tbl:nov-ex}から,意外性が高い単語対は比喩または無関係の組み合わせが多く,意外性が下位のものは例示の組み合わせが多いことがわかる. \section{評価} \subsection{評価方法}3章で用いた新聞記事コーパス1年分約11万記事,436MB\cite{Mainichi1995j}から,二種類の知識ベースを構築した.知識ベース構築のための共起範囲は1文とした.顕現性落差計算用の知識ベースについては全てを,意外性計算用の知識ベースについては,共起頻度5以上のものを対象とした.検証のためのデータとして,以下のような二種類の単語対データ計100組を用意した.\begin{enumerate}\item[データ(1)]知識ベース構築に用いた新聞記事コーパス\cite{Mainichi1995j}中に現れる,``$AのようなB$''というパターンで現れる表現の構成単語のうち,知識ベースから検索可能な単語対$(A,B)$:70組\item[データ(2)]知識ベースとは関係のない新聞記事コーパス\cite{Mainichi1998ja}中に現れる,``$AのようなB$''というパターンで現れる表現の構成単語のうち,知識ベースから検索可能な単語対$(A,B)$:30組\end{enumerate}$(A,B)$の単語対は,比喩指標``ような''を含む文を取り出して形態素解析\cite{Chasen1999j}し,``ような''の両端に,名詞が位置するものを取り出し,さらに,指示語や代名詞,を取り除いて作成した.これらの単語対は,あらかじめ人手で比喩関係対・例示関係対・無意味対,の三種類の区別を行った.区別は,対象の単語対を用いて,`$AのようなB$'という表現を構成した場合に,どのように理解できるかという点を重視し,以下のように行った.\begin{itemize}\item[(a)]比喩表現として理解可能な場合…`比喩関係対',\item[(b)]例示表現として理解可能な場合…`例示関係対',\item[(c)]いずれの表現としても理解不能な場合…`無意味対'\footnote{機械的に抽出したため,複合語を構成する単語が単独で取り出された場合に,無意味な組合せとなる場合がある.},\end{itemize}以上の単語対データに対して,顕現性落差および意外性を計算し,二つの尺度値に基づいて単語対を区別した.主要な共有属性値を決める閾値$\alpha$は,属性値集合全体における過半数を占める属性値を主要であると考えて0.5とし,単語対の区別は表\ref{tbl:relation}に対応させた.分類の基準として閾値を設定した.顕現性落差については,計算結果が0未満($Gap(A,B)<0)$の場合に無意味単語対であると判定した.意外性については,データ(1)の意外性の各計算値において,例示と非例示(比喩,無意味)のカバー範囲を分析して閾値を設定した.例示と非例示の双方を網羅する平均カバー率が,最も広い値(平均カバー率が最も大きい)値は$Nov(A,B)=146$であるので(図\ref{tbl:nov-cover}),意外性の計算結果が146以下の場合($Nov(A,B){\leq}146$)に例示であると判定した.\begin{figure}[tb]\begin{center}\epsfile{file=balance.eps,scale=0.4}\caption{意外性の境界と例示・非例示単語対カバー率}\label{tbl:nov-cover}\end{center}\end{figure}次に,データ(2)に対しても顕現性落差と意外性を計算し,データ(1)で設定した閾値を適用して,その判別性能を調べた.このとき,計算過程において,クローズアップされる共有属性値やその集合が,比喩の顕現特徴として順当なものであるかどうかについては考慮しない.対照実験として,全ての単語組合せを比喩,例示,無意味のいずれか一種類と判断した場合三例の実験と,三種をランダムに判定した実験を行った.\subsection{評価結果}表\ref{tbl:eval1}は,データ(1)における評価結果であり,知識ベースと単語対が関連している可能性がある場合についての検証である.ここで,実際の比喩単語対は48組,提案手法によって比喩単語対と判別された単語対は30組,そのうち正しく判別できた数は25組であった.よって,データ(1)に対する本手法の比喩単語対の判別能力は,適合率$83.3\%$,再現率$52.1\%$となる.同様に,例示単語対の判別能力は,適合率$50.0\%$,再現率$52.2\%$,無意味単語対については,適合率$22.2\%$,再現率$80.0\%$であった.表\ref{tbl:eval2}は,データ(2)における評価結果であり,知識ベースと単語対が全く関連のない場合についての検証である.ここで,実際の比喩単語対は13組,提案手法によって比喩単語対と判別された単語対は11組,そのうち正しく判別できた数は8組であった.よって,データ(2)に対する本手法の比喩単語対の判別能力は,適合率$72.7\%$,再現率$61.5\%$となる.同様に,例示単語対の判別能力は,適合率$75.0\%$,再現率$50.0\%$,無意味単語対については,適合率$57.1\%$,再現率$80.0\%$であった.上記の結果と,四種類の対照実験結果とを比較したものを,表\ref{tbl:eval1b},\ref{tbl:eval2b}に示す.各表中では,各単語対毎の認識結果について,適合率と再現率を示している.総合的な性能\footnote{全ての単語対については結果が得られているので,適合率のみが議論の対象となる.}については,データ(1)では,提案手法の性能は54.3\%,全てを比喩と判定した結果が68.6\%,全て例示と判定した場合は,24.3\%,全て無意味と判定した場合は,7.1\%,ランダムに判定した場合は38.6\%であった.データ(2)では,提案手法の性能が60.0\%,全てを比喩と判定した結果は43.3\%,全て例示と判定した場合は40.0\%,全て無意味と判定した場合は16.7\%,ランダムに判定した場合が26.7\%であった. \section{考察} \begin{table}[tb]\begin{center}\caption{顕現性落差と意外性に基づく概念対の判別結果:(データ(1))}\label{tbl:eval1}\begin{tabular}{|c|c|c|c|c||c|}\hline&&&$Gap(A,B){\geq}0$&$Gap(A,B)<0$&\\&{顕現性落差}&{分類}&(比喩単語対&(無意味単語対)&total\\&&&・例示単語対)&&\\\hline\cline{2-6}&$Nov(A,B)>146$&比喩&{\bf25}&11&36\\\cline{3-6}意&(比喩単語対・&例示&4&3&7\\\cline{3-6}外&無意味単語対)&無意味&1&{\bf4}&5\\\cline{2-6}性&$Nov(A,B){\leq}146$&比喩&9&3&12\\\cline{3-6}&(例示単語対)&例示&{\bf9}&1&10\\\cline{3-6}&&無意味&0&0&0\\\hline\hline\multicolumn{2}{|c|}{}&比喩&34&14&48\\\cline{3-6}\multicolumn{2}{|c|}{total}&例示&13&4&17\\\cline{3-6}\multicolumn{2}{|c|}{}&無意味&1&4&5\\\hline\multicolumn{5}{l}{データ:毎日新聞1995年度CD-ROMから抽出(70組)}\\\multicolumn{5}{l}{知識ベース:毎日新聞1995年度CD-ROMから構築(約28,000組)}\\\end{tabular}\end{center}\end{table}\begin{table}[tb]\begin{center}\caption{顕現性落差と意外性に基づく概念対の判別結果(データ(2))}\label{tbl:eval2}\begin{tabular}{|c|c|c|c|c||c|}\hline&&&$Gap(A,B){\geq}0$&$Gap(A,B)<0$&\\&{顕現性落差}&{分類}&(比喩単語対&(無意味単語対)&total\\&&&・例示単語対)&&\\\hline\cline{2-6}&$Nov(A,B)>146$&比喩&{\bf8}&1&9\\\cline{3-6}意&(比喩単語対・&例示&3&2&5\\\cline{3-6}外&無意味単語対)&無意味&0&{\bf4}&4\\\cline{2-6}性&$Nov(A,B){\leq}146$&比喩&2&2&4\\\cline{3-6}&(例示単語対)&例示&{\bf6}&1&7\\\cline{3-6}&&無意味&0&1&1\\\hline\hline\multicolumn{2}{|c|}{}&比喩&10&3&13\\\cline{3-6}\multicolumn{2}{|c|}{total}&例示&9&3&12\\\cline{3-6}\multicolumn{2}{|c|}{}&無意味&0&5&5\\\hline\multicolumn{5}{l}{データ:毎日新聞1998年度(a)CD-ROMから抽出(30組)}\\\multicolumn{5}{l}{知識ベース:毎日新聞1995年度CD-ROMから構築}\\\end{tabular}\end{center}\end{table}まず,総合的な性能について考察する.表\ref{tbl:eval1}では,全てを比喩と判定した場合の性能が提案手法を上回った.これは,全てを一種類に判定する手法の性能については,正解となる単語対データ数が,全体に占める割合を反映する性質を持つことに起因する.したがって,データ(1)では,比喩単語対の割合が多いために,同手法の性能が高くなったが,データ(2)では,は43.3\%と,比喩単語対の判別能力が著しく低下しいる.これに対し,提案手法は,データ(2)においても72.7\%の比喩単語対判別能力を得ており,対照実験と比較して,安定しているといえる.適合率についてみると,表\ref{tbl:eval1b}では,比喩と例示において,表\ref{tbl:eval2b}では全てにおいて,提案手法が最も良い結果であった.再現率については,ランダムの場合との比較のみが意味を持つが,この場合,いずれの種類においても,提案手法が最も良い結果であった.比喩単語対に限って言えば,本手法の評価結果は,概ね$70\%$以上の適合率と$50\%$以上の再現率が得られており,本手法による比喩性検出は有効であると考えられる.例示関係対については,データ(1)よりもデータ(2)の結果の方が良い結果を示した.これは,データ(1)では,(a)意外性が高いと判断された例示単語対が多かったことが再現率を下げ,(b)例示単語対と判断された比喩単語対が多かったことが適合率を下げたためである.無意味単語対についても同様で,データ(2)の方が良い結果であった.再現率はどちらも80.0\%であるから,データ(1)において,他の表現を無意味単語対と誤認識した場合が多かったことが原因であるといえる.表\ref{tbl:eval1}では,比喩単語対を無意味語対とあやまって判定したものが14組(29.2\%),比喩単語対を例示単語対とあやまって判定したものが9組(18.8\%),例示単語対を比喩単語対とあやまって判定したものが4組(23.5\%),例示単語対を無意味単語対とあやまって判定したものが4組(23.5\%),無意味単語対を比喩単語対とあやまって判定したものが1組(20.0\%)あった.表\ref{tbl:eval2}では,比喩単語対を無意味語対とあやまって判定したものが3組(23.1\%),比喩単語対を例示単語対とあやまって判定したものが3組(15.4\%),例示単語対を比喩単語対とあやまって判定したものが3組(25.0\%),例示単語対を無意味単語対とあやまって判定したものが3組(25.0\%),無意味単語対を比喩単語対とあやまって判定したものはなかった.この結果からみると,比喩単語対を無意味対とあやまって判定するケースと,例示単語対を比喩単語対とあやまるケースが多いことがわかる.\begin{table}[tb]\begin{center}\caption{対象実験結果との比較:(データ(1))}\label{tbl:eval1b}\begin{tabular}{|c|c|r|r|r|r|r|}\hline\multicolumn{2}{|c|}{}&本手法&全比喩&全例示&全無意味&ランダム\\\hline比&適合率&{\bf83.3}&68.6&-&-&37.1\\喩&再現率&52.1&{\bf100}&0&0&16.7\\\hline例&適合率&{\bf50.0}&-&24.3&-&20.6\\示&再現率&52.2&0&{\bf100}&0&25.5\\\hline無&適合率&{\bf22.2}&-&-&7.1&9.5\\意味&再現率&80.0&0&0&{\bf100}&40.0\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tb]\begin{center}\caption{対象実験結果との比較:(データ(2))}\label{tbl:eval2b}\begin{tabular}{|c|c|r|r|r|r|r|}\hline\multicolumn{2}{|c|}{}&本手法&全比喩&全例示&全無意味&ランダム\\\hline比&適合率&{\bf72.7}&43.3&-&-&37.1\\喩&再現率&61.5&{\bf100}&0&0&33.3\\\hline例&適合率&{\bf75.0}&-&40.0&-&20.0\\示&再現率&50.0&0&{\bf100}&0&10.7\\\hline無&適合率&{\bf57.1}&-&-&16.7&50.0\\意味&再現率&80.0&0&0&{\bf100}&26.7\\\hline\end{tabular}\end{center}\end{table}以下,評価結果から,正解例および失敗例を,各単語対別に,表\ref{tbl:correct},表\ref{tbl:false}に示し,問題点に関して詳述する.\begin{table}[tb]\begin{center}\caption{判別結果の正解例}\label{tbl:correct}\begin{tabular}{|l|r|r|l|}\hline\multicolumn{1}{|c|}{A,B}&Nov(A,B)&Gap(A,B)&\multicolumn{1}{|c|}{クローズアップされた共有属性値}\\\hline\multicolumn{4}{|c|}{比喩単語対}\\\hline離宮,建物&1363&0.992&美しい\\友達,父&654&0.200&良い\\枝,柱&1017&0.181&黒い\\水,人間&225&0.040&冷たい\\夢,話&158&0.001&悪い,怖い,遠い,不思議だ,変だ,いい,\\&&&こわい,ふさわしい\\\hline\multicolumn{4}{|c|}{例示単語対}\\\hline惑星,星&132&0.622&美しい\\自分,人間&43&0.234&新しい,ダメだ\\インド,国&144&0.018&多い,強い,広い\\米国,国&47&0.010&強い,多い,厳しい,高い,広大だ,重要だ,\\&&&積極的だ,薄い\\米国,社会&88&0.005&多い,厳しい,高い,積極的だ\\\hline\multicolumn{4}{|c|}{無意味単語対}\\\hline青春,心&755&-0.001&ナイーブだ,懐かしい\\ゲーム,いじめ&1877&-0.007&さまざまだ,新しい\\東京,モノ&1314&-0.058&高い\\動物,脳&217&-0.059&さまざまだ\\機械,技術&73&-0.007&古い,特殊だ\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tb]\begin{center}\caption{判別結果の失敗例}\label{tbl:false}\begin{tabular}{|l|r|r|l|}\hline\multicolumn{1}{|c|}{A,B}&Nov(A,B)&Gap(A,B)&\multicolumn{1}{|c|}{クローズアップされた共有属性値}\\\hline\multicolumn{4}{|c|}{比喩単語対以外のものを比喩単語対と誤判定した例}\\\hline睡眠薬,薬&194&0.983&強力だ\\アメリカ,社会&435&0.340&良い\\遺書,地域&1101&0.293&新ただ\\清水,地域&186&0.238&悪い\\田舎,関係&2012&0.127&深い\\\hline\multicolumn{4}{|c|}{例示単語対以外のものを例示単語対と誤判定した例}\\\hline牛刀,刃物&45&0.750&鋭い\\波,流れ&506&0.483&新しい\\影,人物&25&0.118&暗い\\鬼,形相&97&0.133&恐ろしい\\報道,発言&32&0.026&冷静だ,いろいろだ\\\hline\multicolumn{4}{|c|}{無意味単語対以外のものを無意味単語対と誤判定した例}\\\hline夢,世界&94&-0.001&遠い,不思議だ,いい,ふさわしい\\少年,表情&314&-0.008&優しい,げだ\\米国,対応&65&-0.022&厳しい,積極的だ,必要だ\\小説,読み物&246&-0.155&面白い\\日本,戸籍&734&-0.924&新しい\\\hline\end{tabular}\end{center}\end{table}(1)本論文では,比喩性判定処理において,比較される概念間の共有属性値の妥当性は特に考慮していない.しかし,厳密な意味で比喩理解を考えた場合,クローズアップされる共有属性値の尤もらしさも考慮の対象となる.例えば,「枝のような柱」では,``黒い''という共有属性値が,顕現特徴としてクローズアップされている.1章で述べたように,比喩理解が,複数の顕現特徴に基づくと考えれば,``黒い''が,クローズアップされる属性値の一つであると考えることもできる.しかし,厳密には,``細い''や``長い''などの語が,より上位の共有属性値として選ばれた方が,人間の直観に合う.この問題は,2章で述べたように,極めて一般的な属性値が,コーパス中に現れにくく,結果として抽出に失敗するという知識ベース構築手法の方式限界に関連している.問題解消のためには,概念辞書や語義文から属性値を取り出すなどして,属性値を補完する必要がある.(2)総合評価で述べた例示単語対の誤認識において,(a)については,``遺書''と``文書''や``清水''と``地域''のように,上位下位関係にあるが,一方が固有名詞であったり,分野依存性が強い場合には極端な頻度差が生じ,結果として意外性の値が高くなってしまう場合や,``日本のような戸籍''のように,一方の比較対象が単語として現れていない場合であり,比較する単語と,比較する意味にズレが生じ\footnote{この場合は,``日本で採用されている戸籍制度''を``国勢管理手段''の例として取り上げている.},単語の共起を元に計算された意外性の値が,意味的な意外性と食い違ってしまったことが原因と考えられる.前者の問題に対しては,新聞記事以外のコーパスや,複数の分野に関するコーパスを知識源として知識ベースを構築することで対応できそうである.固有名詞については,形態素解析で網羅できない場合もあると思われる.よって,固有表現抽出処理を利用することによって,固有名詞の出現頻度をさらに詳細に網羅することも有効であろうと考えられる.後者については,表層に現れていない比較対象概念を導き出さなければならない.そのためには,表現が現れた箇所の文脈解析や照応解析が必要である.(3)総合評価で述べた例示単語対の誤認識において,(b)については,``ジャズのようなリズム''や,``けん銃のような音''のように,一方の比較対象が単語として現れていない場合が多い.したがって,(2)の場合と同様に,表層に現れていない比較対象概念を導き出す必要がある.この問題への対策として,中村\cite{Nakamura1977}による「比喩関係からみた言語形式の分類」と概念辞書を用いて,他の単語対と区別して処理する方法が考えられる.(4)共有属性値集合の中に,``よい''や``いい''など,ひらがなで表記される形容詞が多く見られた.これは,3章で述べた,知識ベース構築手法の方式限界に関する問題である.これらの語は,通常,様々な名詞への修飾語として数多く出現するため,多くの概念の属性値となり易いと考えられる.その結果,顕現性落差を計算する場合に,共有属性値として抽出される確率も高く,頻度が多くなるために,属性値内の順位も上位となり易い.このような,極端に高頻度であったり,多数の名詞と共起する単語については,属性値候補から削除するというような対策が必要であると思われる.(5)比喩単語対を無意味単語対とあやまって判定したものは,ほとんどが``夢''をsource概念$(A)$とした単語対であった.特にデータ(1)ではこの傾向が顕著で(14組中11組),無意味単語対の適合率低下にも大きく影響している(再現率は80\%だが,適合率が22\%にとどまった).無意味単語対と判定された原因は,``夢''という単語が,共有属性値集合において,他の単語より特徴が少ないということ,様々な単語との意味距離が近いと判断されたためである.すなわち,``夢''という語が様々な特徴を持っており,様々な場面で用いられているということになるのだが,``夢のような計画''や``夢のような世界''は,明らかに比喩であると判定されるべきである.対策として,本来比喩的な性質を持つ語というものを他と区別して定義して扱う,辞書や語義文を用いて,一般的な修飾語としては現れにくい属性値を取り出す,などが考えられる.(6)``新しい'',``あたらしい'',``新ただ''や,``美しい'',``きれいだ''は,概念の特徴としては,同じ意味を示すものであるが,異なる属性値として扱われている.これは,知識ベース構築時における単語の区別を,形態素解析結果をそのまま利用しており,同義性が考慮されていないためである.これらの,意味的に同一または類似である異表記単語を同一のものとしてクラスタリングできれば,知識ベースにおける各属性値集合を意味的な属性値集合として構成でき,各尺度に基づく計算の誤差も小さくなるはずである.そのためには,属性値となる形容詞や形容動詞について,概念辞書や語彙体系などを用いてクラス分類する必要がる.(7)顕現性値の計算結果が0となる場合があった.しかし,実際には,ある概念の特徴が全く思い付かない場合というのはいかにも不自然である.この原因は,知識ベースにおいて,属性値集合の各属性値が全て同じ頻度である場合に,「完全に発散した状態」として計算されるためである.この場合,顕現性落差計算における重み付け効果も無くなるため,正確な比較ができていなかったといえる.上記の問題に対しては,コーパスの規模を拡大することによって,全体的な属性値の頻度を増やす方法や,辞書や語彙体系を利用して,属性値に重みを付ける方法が考えられる.(8)評価結果において,``インドのような国''や,``フランスのような主張''については,単語対の共有属性値としては,$\{多い,広い\}$や,$\{強い\}$などが取り出された.これらは,一般的な概念として考えても,知識源である新聞記事内の意味においても,正しい結果であるといえる.しかし,これらの表現は,``インド''や``フランス''を,ある特徴を示す国の例として取り上げている例示の場合と,他の国を指して,``フランスの主張''や``中国''にそっくりであるとして表現する比喩の場合がある.どちらに決定されるかは,上記の表現を含む文脈に強く依存する.ところが,今回は,単語の知識のみを用いて比喩性を判断しているため,このような場合には対応できない. \section{むすび} label{conc}本論文では,一般的な文書に出現する比喩表現を認識するために,確率的な尺度を用いて,単語間の比喩性を検出する手法について述べた.比喩性を検出するための尺度として,比喩構成語が理解可能かどうかに関わる``顕現属性落差''と,語の組合せがどれ程斬新かに関わる``意外性''を定義し,確率的なプロトタイプ概念記述および単語間の意味距離を利用して定量化した.さらに,コーパス中の共起関係に基づいて構築した知識ベースを用いて比喩性判定実験評価を行った結果,提案モデルが有効であることが確認された.今後は,考察で得られた知見に基づいて,単語の同義性を考慮した知識ベースを構築した本手法の精緻化,比喩的な機能を持つ特殊な語の扱い,新聞記事以外のコーパスや概念辞書の利用,を進めていく予定である.また,今回の性能評価では,知識ベース中に共有属性値が存在しなかった場合の顕現性落差や,コーパス中から共起頻度が得られなかった単語対の意外性については,評価対象外とした.これは,それぞれ,``共有属性値が存在しない原因としては,実際に比較対象概念間に共有特徴が存在しない場合と,知識ベース中の属性値集合間に共有属性値が存在しなかった場合が考えられるが,両者の区別は簡単ではない'',``共起頻度が得られない原因としては,コーパス中に単語共起が存在しないという事実が,すなわちそれらの単語対が一般的に共起しないことを証明するものではない''という理由による.しかしながら,``共有属性値がない場合は,無意味対である可能性が高い''ということや,``個々の単語がそれぞれ有意な出現頻度を示していながら,共起が生じない場合は,意外性は非常に高い''ということは,容易に推測できる.したがって,これらの推測過程の妥当性を確認し,本手法へ適用することにより,判別性能を精緻化することを考えている.本研究の具体的な応用事例研究としては,1章で述べた機械翻訳への適用の他に,比喩表現を検索要求として扱える検索システムや,質問応答における比喩表現を用いた応答文生成などを考えている.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\newpage\begin{biography}\biotitle{略歴}\bioauthor{桝井文人}{1990年岡山大学理学部地学科卒業.同年,沖電気工業(株)入社.2000年三重大学工学部情報工学科助手.現在に至る.質問応答システム,情報抽出の研究に従事.電子情報通信学会,人工知能学会,言語処理学会各会員.}\bioauthor{福本淳一}{1984年広島大学工学部第2類卒業.1986年同大学院工学研究科博士前期課程修了.同年沖電気工業株式会社入社.1992〜1994年英国マンチェスター科学技術大学言語学部Ph.D.コース在学.Ph.D.2000年立命館大学理工学部情報学科助教授.現在に至る.質問応答システム,情報抽出,自動要約の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{椎野努}{1964年名古屋大学工学部電気学科卒業.同年沖電気工業(株)入社.1990年三重大学工学部情報工学科教授.2002年愛知工業大学工学部情報通信工学科教授.現在に至る.自然言語処理,画像処理,感性情報処理の研究に従事.工学博士.電子情報通信学会,人工知能学会,言語処理学会,IEEE各会員.}\bioauthor{河合敦夫}{1980年名古屋大学理学部化学科卒業.1985年同大学大学院工学研究科博士課程修了.工学博士.同年日本電信電話(株)入社.1992年三重大学工学部情報工学科助教授,現在に至る.自然言語処理,色画像理解の研究に従事.情報処理学会,電子情報通信学会,言語処理学会各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V04N01-05
\section{はじめに} \label{sec1}自然言語処理システムにおいては,処理する言語に関する情報をどれほど豊かにそなえているかが,そのシステムの性能に大きな影響を与える.とくに分かち書きをしない日本語では,その形態素解析だけのためにも膨大な量の辞書データをそろえる必要がある.しかし,辞書データの蓄積は,自動的に行うことが困難であり,人手による膨大な時間と労力を必要とする.幸い,最近では公開の辞書データの入手も可能となってきたが,それでもなお,新しい文法体系を試みるような場合には,その辞書を用意するのに手間がかかりすぎて,本題の研究にかかれないことがおきる.本稿では,辞書データがほとんどない状態から始めても,大量の日本語テキストを与えることで,形態素に関する辞書データを自動的に蓄積する方法を与えることを目的とする.具体的には,形態素に関する種々の規則と,統計的知識を利用して,未知の形態素の切出しとその品詞,活用種類,活用形などの推定を行う.推定するたびにその信頼性を評価し,大量のテキストを走査するうちに十分高い信頼性を得るに至ったものを,正しい形態素として辞書に登録する.現在までに,計算機によって自動的に辞書情報を獲得するいくつかの研究が行われてきている\cite{Kokuritu,Suzuki}.また,べた書き日本語文の形態素解析における曖昧さと未知語の問題を統計的手段によって解決しようとする試みもある\cite{Nagata,Simomura}.文献\cite{Nagata}では,品詞のtrigramを用いて言語を統計モデル化し,効率的な2-passN-best探索アルゴリズムを採用している.また,字種のtrigramを利用して未知語処理を行っている.文献\cite{Simomura}では,単語をノードとする木の最小コストパス探索問題として形態素解析をモデル化している.その上で,実際に単語接続確率モデルに基づいてコストを設定し形態素解析を実現している.ここでの研究の目的は,辞書データがほとんどないところから始めても未知語が獲得していける方法を提供することにある.実際に実験システムを構成して,比較的簡易な機構によって目的が達成できることを確認した.本論文の構成は次のようになっている.まず初めに,2章でシステムの概要について述べる.3章,4章では,形態素の連接関係に着目し,形態素と形態素属性を獲得する方法について説明する.5章では,獲得した情報を保管し,十分な信頼性をもつに至ったとき辞書に登録する方式を説明する.最後に,6章で,本手法による実験結果を提示し,まとめを行う. \section{システム概要と統計知識} \subsection{システム概要}\label{system_info}本システムは,日本語の形態素に関する,構成規則,連接規則および連接確率表をもって日本語の入力テキストの解析を行い,形態素とその属性を自動的に抽出する.抽出した情報は,2種類の辞書に分けて管理する.\begin{itemize}\item完全情報辞書:信頼できる情報として確定した形態素を保管する.予め,確定したものとしての形態素が登録してあってもよい.それぞれの形態素とその形態素属性(品詞,活用種類,活用形)の各項目が記録してある.完全情報辞書は,入力テキストの解析においても利用する.\item不完全情報辞書:抽出した形態素の候補を保管する.完全情報辞書と同様の項目に加えて,その信頼性を示す評価値が記録してある.\end{itemize}システムは,大きく辞書情報推定処理と辞書再構成処理とからなり,入力テキストの文ごとに解析を行う.辞書情報推定処理は,組み込みの規則・表と完全情報辞書を用いて文を形態素(候補)に分割した上で,未知(完全情報辞書にない)の形態素候補に対してその形態素属性を推定する.このとき,その推定の信頼性についての評価値も計算する.辞書再構成処理は,得られた未知の形態素についての情報と評価値を不完全情報辞書に付加する.すでに登録されている候補については,登録されている評価値を改訂する.この結果,評価値が基準値以上となった形態素は,不完全情報辞書から完全情報辞書に移動する.図\ref{fig:overview}に処理の概要を示す.\begin{figure*}[tb]\epsfile{file=park1.eps,scale=1.0}\caption{処理の概要}\label{fig:overview}\end{figure*}\subsection{形態素体系}\label{morpheme_taikei}本システムにおいては,形態素に関してつぎの体系を採用した.\begin{itemize}\item字種構成:形態素は,ひらがな,カタカナ,漢字,漢字+ひらがな\footnote{漢字の並びの後ろにひらがなの並びがくるものをいう.},英字,数字,記号のいずれかの字種だけで構成される.\item品詞分類:形態素の品詞は,動詞,形容詞,形容動詞,助動詞(活用する品詞)と,名詞,副詞,連体詞,接続詞,感動詞,助詞,接辞,特殊(活用しない品詞)に分類する.助詞は,さらに格助詞,接続助詞,副助詞,引用助詞,連用助詞,終助詞に分類する.\item活用種類:動詞の活用種類は,五段活用,上一段活用,下一段活用,カ行変格活用,サ行変格活用のいずれかとする.前3者には,活用行の別が伴う.\item活用形:活用形は,未然形,連用形,終止形,連体形,仮定形,命令形(ただし,形容詞と形容動詞は命令形をとらない.)の6種類とする.\end{itemize}この体系で日本語の形態素すべてが扱えるわけではない.たとえば,字種構成の規則からは「は握」などの混ぜ書き語が扱えない.これは,完全情報辞書にごく少数の登録しかない状態から始めて自動的に形態素情報を抽出させるという目的から,体系の完全性を期すよりも,入力テキストの解析が有効に行え,実質的に多くの形態素とその属性が自動抽出できることの方を優先させたことによる.また,形態素について,ここに示した品詞,活用に関する属性以外の属性は考えない.たとえば,名詞を固有名詞,一般名詞などに分類することはしない.同じ形態素が複数の活用形に対応することがある.\{行く\}は、終止形にも連体形にも対応する.さらに同じ形態素が複数の活用種類(活用行)に対応することもある.\{行っ\}は、\{行く\}\hspace{0.3mm}(か\hspace{0.2mm}行\hspace{0.2mm}五\hspace{0.2mm}段)にも\{行う\}(わ\hspace{0.2mm}行\hspace{0.2mm}五\hspace{0.2mm}段)\hspace{0.3mm}にも対応する.そこで,\hspace{0.2mm}本システムでは,\hspace{0.2mm}形\hspace{0.2mm}態\hspace{0.2mm}素の品\hspace{0.2mm}詞が活用するものであるときは,その活用に関する属性を集合として取り扱うことにした.辞書についても,活用に関する属性は一般に集合として登録しておく.\subsection{連接規則と初期辞書設定}\label{init_info}上で述べた形態素の体系は,形態素どうしの連接についての規則も包含する.活用形はその直後に来る形態素の品詞をある程度限定するし,助動詞や助詞はその直前に来る品詞や活用形を限定する.とくに助動詞・助詞による限定は,個々の助動詞・助詞に強く依存する.さらに助動詞の活用形は,個々の助動詞によって異なる.そこで本システムでは,初期の完全情報辞書には少なくともすべての助動詞・助詞を登録しておく\footnote{ここでいう助動詞には,\{ある\},\{なる\}などのいわゆる補助動詞を含める.助動詞・助詞を含め全部で約100語になる.}ことを前提とした.これに加えて,助動詞についてはその活用形と直前に来る品詞や活用形の制限を,助詞についてはその分類ごとに直前に来る活用形の制限を,プログラムに組み込んだ.また,他の活用語についても活用形による直後に来る品詞の部分的な制限をプログラムに組み込んだ.これらの規則の組込みだけでは尽くせない連接がある.たとえば,名詞どうしが連接しうるし,副詞と名詞が連接しうる.本システムでは,形態素レベルでの連接関係だけで辞書情報を得ることを目的とする.そこで,これらの連接関係については,日本語についての統計知識を連接確率表の形で組み込むこととした.\subsection{確率表の組込み}形態素についての統計知識は,字種構成に関するものと,連接関係に関するものを,つぎのような確率表の形にしてシステムに組み込んだ.\begin{itemize}\item形態素の字種カテゴリーからみた品詞の確率表(表\ref{tab:char_type_matrix}),\item後方の助詞からみた前方品詞の連接確率表(表\ref{tab:particle_connect_matrix}),\item後方の品詞からみた前方品詞の連接確率表(表\ref{tab:connect_matrix}),\item前方の品詞からみた後方品詞の連接確率表(表\ref{tab:connect_before_matrix})\end{itemize}前3者は属性の推定に用い,最後のものは推定結果の信頼性評価に用いる.\begin{table}\begin{center}\caption{\bf形態素を構成する字種からみた品詞の分布}\label{tab:char_type_matrix}\tiny\def\arraystretch{}\begin{tabular}{l|r|r|r|r|r|r|r|r|r|r|r|r|r}\hline\hline{構成字種}&\multicolumn{13}{c}{品詞}\\\cline{2-14}{分類}&\multicolumn{1}{c|}{名詞}&\multicolumn{1}{c|}{動詞}&\multicolumn{1}{c|}{形容詞}&\multicolumn{1}{c|}{形容動詞}&\multicolumn{1}{c|}{副詞}&\multicolumn{1}{c|}{連体詞}&\multicolumn{1}{c|}{接続詞}&\multicolumn{1}{c|}{感動詞}&\multicolumn{1}{c|}{助詞}&\multicolumn{1}{c|}{助動詞}&\multicolumn{1}{c|}{接辞}&\multicolumn{1}{c|}{特殊}&\multicolumn{1}{c}{合計2}\\\hlineひらがな&0.101&0.137&0.009&0.002&0.027&0.016&0.007&0&0.552&0.11&0.038&0&0.468\\\hlineカタカナ&1&0&0&0&0&0&0&0&0&0&0&0&0.019\\\hline漢字&0.949&0.002&0.002&0.001&0.006&0.001&0&0&0&0&0.04&0&0.293\\\hline漢字+ひらがな&0.159&0.557&0.129&0.084&0.032&0.009&0&0&0&0&0.03&0&0.083\\\hline英数字&1&0&0&0&0&0&0&0&0&0&0&0&0.017\\\hline記号&0&0&0&0&0&0&0&0&0&0&0&1&0.121\\\hline合計1&0.378&0.111&0.015&0.008&0.017&0.008&0.004&0&0.259&0.052&0.032&0.121&1\\\hline\end{tabular}\end{center}\end{table}\begin{table}\begin{center}\caption{\bf助詞と他品詞間の連接関係(後方の品詞を基準とする)}\label{tab:particle_connect_matrix}\tiny\def\arraystretch{}\begin{tabular}{l|r|r|r|r|r|r|r|r|r|r|r|r}\hline\hline{連接元助詞}&\multicolumn{12}{c}{連接元助詞の前に連接する品詞}\\\cline{2-13}&\multicolumn{1}{c|}{名詞}&\multicolumn{1}{c|}{動詞}&\multicolumn{1}{c|}{形容詞}&\multicolumn{1}{c|}{形容動詞}&\multicolumn{1}{c|}{副詞}&\multicolumn{1}{c|}{連体詞}&\multicolumn{1}{c|}{接続詞}&\multicolumn{1}{c|}{感動詞}&\multicolumn{1}{c|}{助詞}&\multicolumn{1}{c|}{助動詞}&\multicolumn{1}{c|}{接辞}&\multicolumn{1}{c}{特殊}\\\hline格助詞&0.887&0.013&0.001&0&0&0&0&0&0.023&0.005&0.037&0.034\\\hline接続助詞&0.541&0.291&0.007&0.002&0.001&0&0&0&0.061&0.036&0.038&0.023\\\hline副助詞&0.702&0.031&0.004&0.005&0.02&0&0&0&0.159&0.035&0.032&0.013\\\hline引用助詞&0&0.361&0.012&0.007&0&0&0&0&0.005&0.311&0.043&0.261\\\hline連用助詞&0.903&0.016&0&0&0&0&0&0&0.021&0&0.035&0.023\\\hline終助詞&0.35&0.157&0.035&0.01&0&0&0&0&0.031&0.205&0.211&0\\\hline\end{tabular}\end{center}\end{table}\begin{table}\begin{center}\caption{\bf品詞間の連接関係(後方の品詞を基準とする)}\label{tab:connect_matrix}\tiny\def\arraystretch{}\begin{tabular}{l|r|r|r|r|r|r|r|r|r|r|r|r}\hline\hline{連接元品詞}&\multicolumn{12}{c}{連接元品詞の前に連接する品詞}\\\cline{2-13}&\multicolumn{1}{c|}{名詞}&\multicolumn{1}{c|}{動詞}&\multicolumn{1}{c|}{形容詞}&\multicolumn{1}{c|}{形容動詞}&\multicolumn{1}{c|}{副詞}&\multicolumn{1}{c|}{連体詞}&\multicolumn{1}{c|}{接続詞}&\multicolumn{1}{c|}{感動詞}&\multicolumn{1}{c|}{助詞}&\multicolumn{1}{c|}{助動詞}&\multicolumn{1}{c|}{接辞}&\multicolumn{1}{c}{特殊}\\\hline名詞&0.315&0.064&0.018&0.013&0.02&0.022&0.002&0&0.324&0.046&0.03&0.148\\\hline動詞&0.188&0.038&0.016&0.014&0.036&0.002&0.002&0&0.636&0.033&0.011&0.024\\\hline形容詞&0.016&0.049&0.008&0.006&0.078&0.007&0.002&0&0.696&0.029&0.002&0.106\\\hline形容動詞&0.009&0.05&0.005&0.01&0.075&0.009&0.003&0&0.575&0.045&0.012&0.207\\\hline副詞&0.01&0.064&0.004&0.004&0.029&0.009&0&0&0.531&0.048&0.006&0.294\\\hline連体詞&0.002&0.027&0.006&0.003&0.043&0.004&0.004&0&0.479&0.037&0.003&0.391\\\hline接続詞&0&0&0&0&0&0&0&0&0&0&0&1\\\hline感動詞&0&0&0&0&0&0&0&0&0&0&0&1\\\hline助詞&0.748&0.095&0.003&0.002&0.004&0&0&0&0.058&0.023&0.038&0.028\\\hline助動詞&0.275&0.594&0.013&0.003&0&0&0&0&0.019&0.051&0.039&0.006\\\hline接辞&0.506&0.208&0.015&0.004&0.002&0.002&0&0&0.198&0.05&0&0.016\\\hline特殊&0.208&0.18&0.044&0.01&0.022&0.002&0.022&0&0.252&0.175&0.071&0.014\\\hline\end{tabular}\end{center}\end{table}\begin{table}\begin{center}\caption{\bf品詞間の連接関係(前方の品詞を基準とする)}\label{tab:connect_before_matrix}\tiny\def\arraystretch{}\begin{tabular}{l|r|r|r|r|r|r|r|r|r|r|r|r}\hline\hline{連接元品詞}&\multicolumn{12}{c}{連接元品詞の前に連接する品詞}\\\cline{2-13}&\multicolumn{1}{c|}{名詞}&\multicolumn{1}{c|}{動詞}&\multicolumn{1}{c|}{形容詞}&\multicolumn{1}{c|}{形容動詞}&\multicolumn{1}{c|}{副詞}&\multicolumn{1}{c|}{連体詞}&\multicolumn{1}{c|}{接続詞}&\multicolumn{1}{c|}{感動詞}&\multicolumn{1}{c|}{助詞}&\multicolumn{1}{c|}{助動詞}&\multicolumn{1}{c|}{接辞}&\multicolumn{1}{c}{特殊}\\\hline名詞&0.29&0.201&0.407&0.559&0.405&0.904&0.189&0&0.437&0.312&0.327&0.699\\\hline動詞&{\bf0.055}&{\bf0.037}&0.114&0.183&{\bf0.236}&0.025&0.066&0&0.27&0.071&0.037&0.035\\\hline形容詞&{\bf0.001}&{\bf0.006}&0.008&0.01&{\bf0.067}&0.012&0.007&0&0.039&0.008&0.001&0.021\\\hline形容動詞&0&0.003&0.003&0.009&0.034&0.008&0.006&0&0.017&0.007&0.003&0.022\\\hline副詞&0&0.008&0.004&0.006&0.024&0.015&0.004&0&0.029&0.013&0.003&0.057\\\hline連体詞&0&0.001&0.002&0.002&0.015&0.002&0.007&0&0.011&0.004&0.001&0.03\\\hline接続詞&0&0&0&0&0&0&0&0&0&0&0&0.005\\\hline感動詞&0&0&0&0&0&0&0&0&0&0&0&0\\\hline助詞&0.512&0.222&0.054&0.054&0.063&0.006&0.005&0&0.058&0.114&0.307&0.099\\\hline助動詞&0.037&{\bf0.276}&{\bf0.046}&0.021&0&0&0&0&0.004&0.051&0.063&0.004\\\hline接辞&0.04&0.057&0.031&0.014&0.003&0.005&0&0&0.023&0.029&0&0.007\\\hline特殊&0.064&0.187&0.332&0.14&0.151&0.021&0.716&1&0.112&0.391&0.259&0.021\\\hline\end{tabular}\end{center}\end{table}これらの統計知識は,入手可能であった朝日新聞の91年1月から6月までの社説\footnote{電子ブック「朝日新聞--天声人語・社説増補改訂版(英訳付)」(株)紀伊國屋書店・日本アソシエーツ(株)を用いた.}(総文字数884,696,総形態数241,573)を日本語総体とみなして我々自らで算出したものである.これは,日本語全般にわたるこれらの統計知識として確立したものを入手することができなかったことによる,止むを得ない処置であった.(確立した統計知識が得られないこともあって,先に述べたような,簡略化した形態素体系を採用することにもなった.)なお,文頭の形態素には先行する形態素がない,文末の形態素には後続する形態素がないという特殊性から,表\ref{tab:connect_matrix}と表\ref{tab:connect_before_matrix}は,たんなる転置行列にはなっていない.この統計知識の算出にあたっては,極力人手を省くため,公開されているJUMAN\footnote{京都大学・奈良先端科学技術大学院大学で開発されたものである.}を利用した.ただし,JUMANが採用している形態素体系は,本システムで想定したものとは若干異なるので,その差異を自動的に変換するプログラムを用意して算出を行った.JUMANは,また,その辞書にない形態素を未定義語と分類してしまう.そこで,JUMANの解析結果を人手によって調べ,未定義語となったものについてそれぞれその辞書に追加登録を行い,改めて統計をとった上で算出を行った.(同時に,その辞書について発見した誤りについても,訂正を行った.) \section{形態素への分割} \label{word}文を形態素に分割する処理では,辞書引きに依存するのがふつうである.しかし,本システムは,辞書がほとんど整備されていなくても使えることを目的としているから,字種によって,まず文の1次分割を行う.1次分割では,文を左から右へと走査する.得られた分割それぞれについて,辞書引きを援用しながら右から左へと走査しながら2次分割を行う.これは,辞書に助詞・助動詞が少なくとも入っているという前提を活かすためである.\subsection{分割アルゴリズム}\label{jishukiri}文の形態素(候補)への分割は,つぎの手順による.\begin{enumerate}\item1次分割:字種が変化する位置だけに着目して,文を左から右へ走査し,2度目の変化点ごとに分割していく.ただし,記号の前後では.これにかかわらず必ず分割する.また,2度目の変化点で,漢字からひらがなへと変化する場合は,その次の変化点で分割する.\item2次分割:1次分割で得た区分ごとに処理を行う.区分内を右から左に走査しながら,つぎの条件を満たす最長の部分ごとに分割していく.\begin{itemize}\item完全情報辞書に一致する形態素があれば,その最長のもの\itemなければ,字種構成の規則(~\ref{morpheme_taikei}節参照)で許される最長のもの\end{itemize}\end{enumerate}例として,「アジア外交の変革を求めた」に本アルゴリズムを適用してみる.ここでは,助詞・助動詞だけが完全情報辞書に入っていると仮定しておく.まず,1次分割によって,つぎのように分割される.$$「アジア外交の\mid変革を\mid求めた」$$区分「アジア外交の」に対する2次分割は,つぎのようになる.まず末尾からの部分列$$\{の\},\{交の\},\{外交の\},\{ア外交の\},...$$に対して辞書引きを行う.ここでは,助詞\{の\}が完全情報辞書にあるので,これを切り離す.次に$$\{交\},\{外交\},\{ア外交\},...$$に対して辞書引きを行うが,いずれも辞書にない.字種構成の規則(カタカナ+漢字の構成を認めていない)から最長の\{外交\}を切り離す.残った部分列\{アジア\}に対しても,同様に走査するが,途中での切離しは生じない.こうして,$$「アジア\mid外交\midの」$$という,形態素(候補)への分割が終わる.同様に,「変革$\mid$を」(助詞\{を\}が辞書にある),「求め$\mid$た」(助動詞\{た\}が辞書にある)という分割を得る.こうして,$$「アジア\mid外交\midの\mid変革\midを\mid求め\midた」$$の計7個の形態素(候補)が得られる.1次分割で得られる区分の末尾にはひらがなが並ぶことが多い.その部分での2次分割が円滑に行えるように助動詞・助詞の辞書登録を必須の条件にした.また,手近な例文で試行錯誤を行い,接続詞,連体詞などの,かな書きされ,1次分割結果の区分の先頭に現れやすい活用しない単語約100語を選定して,これらも完全情報辞書に最初から登録しておくこととした.\subsection{形態素の確定マーク}分割アルゴリズムによって得た形態素(候補)のうち,つぎのものだけに確定マークをつけておく.\begin{itemize}\item完全情報辞書から直接に得たもの\item字種が,カタカナ,漢字,英字,数字,記号のいずれか1つだけで構成されるもの\end{itemize}確定マークは,辞書再構成処理で不完全情報辞書から形態素候補を取り除く際に補助情報として利用する.確定マークがつかないのは,ひらがな,漢字+ひらがなの字種構成になっているものに限られる.「アジア$\mid$外交$\mid$の$\mid$変革$\mid$を$\mid$求め$\mid$た」の例では,\{求め\}だけに確定マークがつかず,他のものにはすべて確定マークがつく. \section{形態素属性の推定} \label{grammar}形態素への分割によって得られた形態素のうち,未知の(完全情報辞書になかった)ものの形態素属性を,既知の(完全情報辞書にあった)形態素の属性などから推定する.属性推定は,品詞の推定を主とし,活用に関する属性はその補助として行う.未知の形態素に対して推定される形態素情報は,ふつう何種類にも及ぶ.推定が終わると,得られた形態素情報に対して,それぞれ評価値を計算する.図\ref{fig:pers_fig}にその流れを示す.\begin{figure*}[tb]\epsfile{file=park2.eps,scale=1.0}\caption{形態素属性推定の流れ}\label{fig:pers_fig}\end{figure*}\subsection{属性推定アルゴリズム}文の分割で得られた形態素(候補)列について,文末から文頭への方向に属性推定作業を進める.推定は,既知の形態素から始めて次の既知の形態素に至るまでの,未知形態素の列ごとに行う.必要なら,文末に既知の形態素としての句点(品詞は特殊)を仮定する.推定は,つぎの手順による.\begin{enumerate}\item形態素の字種がカタカナ,英字,数字で構成されていれば,品詞を名詞として推定を終える.記号で構成されていれば,品詞を特殊として推定を終える.\itemその他の字種構成の場合は,表~\ref{tab:char_type_matrix}から確率$0$でない品詞(助詞・助動詞は除く)だけを候補とする.その上で,直後の形態素が助詞であれば,表~\ref{tab:particle_connect_matrix}を調べて確率が$0$の品詞を候補から除外する.\item品詞候補として活用するものがある場合には,形態素の語尾を調べ,活用種類・活用形を推定する.この結果と両立しえない品詞候補は除外する.\itemそれぞれの品詞候補と直後の形態素の品詞との連接を調べ,規則から許されないものは除外する.このとき,活用する品詞候補については,前段で得た活用種類・活用形も含めて調べる.とくに直後の形態素が助詞・助動詞であればその個々の規則を適用する.\item残った品詞候補について,候補3選規則(\ref{narrowing}節参照)を適用して高々3つに絞り込む.\end{enumerate}最後の2段階は,直後の形態素が未知のものであれば,そこで推定された品詞ごとに施す.それらの結果すべてを一括して推定結果とする.したがって,推定結果が4つ以上になることもありえる.\subsubsection{候補3選規則}\label{narrowing}それまでに得られた複数の品詞候補の中から,直後の形態素の品詞との連接確率(表~\ref{tab:connect_matrix})を利用して,高々3つに候補を絞り込むためのつぎの規則を候補3選規則とよぶ.\begin{itemize}\item候補3選規則:表~\ref{tab:connect_matrix}での値が高いものから順に2つを選ぶ.第3位のものの確率が$0.1$以上であれば,これも選ぶ.\end{itemize}確率が$0$のものは,対象外とする.したがって,候補3選規則を適用した結果,残る候補が1つになることもある.\subsection{属性推定の例}「事$\mid$は$\mid$少し$\mid$動き$\mid$そうだ」を例に,属性推定の様子を示す.ここで,\{は\}と\{そうだ\}は,それぞれ助詞,助動詞として既知である.推定作業は,「少し$\mid$動き」と「事」についてそれぞれ起きる.\begin{enumerate}\item\{動き\}についての推定から始める.直後の形態素が助詞でないから,その字種構成から名詞,動詞,形容詞,形容動詞などが品詞候補となる.語尾\{き\}からか行五段(連用)・か行上一段(未然,連用)・か行変格(連用)の動詞,または形容詞・形容動詞の語幹と推定できる.そこで,直後の形態素\{そうだ\}との連接を調べる.助動詞\{そうだ\}は,終止形,連用形,語幹にだけ連接するから,品詞候補は動詞(連用形),形容詞(語幹),形容動詞(語幹)だけになる.候補3選規則を適用して,動詞(連用形),形容詞(語幹)と推定する.\item\{少し\}について推定する.字種構成,語尾から候補は,名詞,動詞(さ行五段(連用)・さ行変格(連用)),形容詞(語幹),形容動詞(語幹)などとなる.直後の形態素\{動き\}を動詞とすれば,語幹には連接しないから形容詞,形容動詞は除外でき,さらに候補3選規則を適用して名詞,動詞と推定する.同様に\{動き\}を形容詞とすれば,副詞,動詞と推定することになる.一括して,名詞,動詞(連用),副詞と推定する.\item\{事\}について推定する.直後の形態素が格助詞\{は\}であることから,名詞,動詞,形容詞が候補となり,字種構成からも除外はおきない.語尾からは,動詞が除外され,形容詞(語幹)と推定できる.\{は\}は形容詞語幹に接続しないことから,形容詞が除外される.候補3選規則を適用して(するまでもないが),名詞と推定する.\end{enumerate}この例からもわかるように,活用に関する推定は,\begin{itemize}\item形態素自身の形(語尾)からの推定\itemそれに対する連接による限定\end{itemize}の2段階からなる.後者はその出現位置に依存する情報であり,前者は依存しない情報である.そこで,システム内では,前者で得た情報をそのまま保持し,その特定出現位置について除外されたものにはその旨を示す除外マークをつけておくという記録方式をとった.\subsection{評価値の算出}推定された形態素属性については,それぞれの品詞ごとにその推定の信頼性を示す評価値を算出する.切り出された形態素の字種構成が,カタカナ,英字,数字,記号の場合には,その評価値を1.0とする.残る字種構成の形態素に対する評価値の算出に当たっては,品詞$N$の直後に品詞$M$が現れる確率$T[N,M]$を与えた表\ref{tab:connect_before_matrix}を利用する.いま,切り出された形態素$A$に対して推定された品詞が$M_1,M_2,...,M_n$の$n$種類あったとする.また,$A$の後ろに一番近く位置する,完全情報辞書に登録されている形態素が$D$であり,その品詞が$M$であったとする.このとき,各品詞$M_j$に対する評価値$E_j$をつぎのようにして求める.\begin{itemize}\item$A$が$D$の直前にある場合\\$T[M_i,M]$を正規化した値を,評価値$E_i$とする.$$E_i=\frac{T[M_i,M]}{\sum_{i=1}^nT[M_i,M]}$$\item$A$が他の形態素$B$の直前にある場合\\ここで,$B$は完全情報辞書にない形態素である.$B$に対して推定された品詞が$N_1,N_2,...,N_k$であり,その評価値が$F_1,F_2,...,F_k$としてすでに計算できているとしよう.このとき,$A$の各品詞$M_i$に対して,つぎの一時値$P_i$を計算する.$$P_i=\max_{1\leqj\leqk}T[M_i,N_j]\timesF_j$$この一時値$P_i$を正規化したものを評価値$E_i$とする.$$E_i=\frac{P_i}{\sum_{i=1}^nP_i}$$\end{itemize}上の計算方法は,帰納的に与えてあることに注意する.これから,$A$と$D$の間に,複数の未知の形態素$B_1,B_2,...$が並んでいる場合にも,それぞれの推定された品詞に対する評価値を計算することができる.しかしながら,形態素候補の切り出し方からして,複数が並ぶ例には,ほどんど出会わない.「少し$\mid$動き$\mid$\そうだ」を例にとって,評価値の計算を示す.\{そうだ\}は助動詞であり,そこからの形態素情報推定によって,\{動き\}は動詞,形容詞,\{少し\}は名詞,動詞,副詞と品詞が推定されている.すると,\{動き\}についての評価値は,表\ref{tab:connect_before_matrix}からつぎのようになる.\begin{description}\item動詞:$0.276/(0.276+0.046)=0.857$\item形容詞:$0.046/(0.276+0.046)=0.143$\end{description}\{少し\}については,まず一時値がつぎのようになる.\begin{description}\item名詞:$\max(0.055\times0.857,\hspace*{0.4cm}0.001\times0.143)=0.047$\item動詞:$\max(0.037\times0.857,\hspace*{0.4cm}0.006\times0.143)=0.032$\item副詞:$\max(0.236\times0.857,\hspace*{0.4cm}0.067\times0.143)=0.202$\end{description}これから,評価値は,つぎのように求められる.\begin{description}\item名詞:$0.047/(0.047+0.032+0.202)=0.167$\item動詞:$0.032/(0.047+0.032+0.202)=0.114$\item副詞:$0.202/(0.047+0.032+0.202)=0.719$\end{description} \section{辞書再構成処理} 形態素情報推定で得られた,形態素とその形態素情報,およびその評価値は,不完全情報辞書に追加登録する(形態素に対する確定マーク,活用に対する除外マークは,無視する.).このとき,同じ形態素と形態素情報がすでに登録されているなら,評価値の改定を行う.その上で,登録された評価値を調べ,十分に高い評価値をもつ形態素と形態素情報は,完全情報辞書に移動する.逆に,あまりに低い評価値しかもたないものは,不完全情報辞書から削除する.\subsection{評価値の改定}\label{sin_hyouka}推定された形態素とその形態素情報が,すでに不完全辞書に登録されている場合には,登録されている評価値$E_{old}$を,推定から得た評価値$E_{estimate}$を用いて計算したつぎの値$E_{new}$に改定する.\begin{center}$E_{new}=E_{old}+E_{estimate}-(E_{old}\timesE_{estimate})$\end{center}ここで,$0\leqE_{new}\leq1$であり,しかも$E_{new}\geqE_{old}$かつ$E_{new}\geqE_{estimate}$となることに注意されたい.実際,\begin{center}$(1-E_{new})=(1-E_{old})\times(1-E_{estimate})$\end{center}であり,$(1-E_{old})$,$(1-E_{estimate})$がそれぞれの評価での「不確かさ」を示す.したがって,改定した評価値$E_{new}$での「不確かさ」$(1-E_{new})$は,その両者の「不確かさ」の積に減少する.\vspace{-0,5mm}\subsection{形態素の移動と削除}\vspace{-0,5mm}不完全情報辞書に登録された,形態素とその形態素情報に対する評価値が,一定の基準値$E_{upper}$に達した場合には,その形態素と形態素情報の組を完全情報辞書に移動する.このとき,同じ形態素で,異なる形態素情報と組になったものが不完全情報辞書の中にあれば,それらをすべて削除する.本システムでは,$E_{upper}=0.85$とした.この値は,少量のデータ\footnote{朝日新聞社説の1ヶ月分}について予備実験を行い,システム全体での形態素獲得の成功率がもっとも高くなるように選んだものである.一方で,システムの辞書保守の効率を高めるためには,評価値が一定の基準値$E_{lower}$に満たない形態素と形態素情報の組を不完全情報辞書から削除したい.しかしながら,その字種構成などから形態素そのものは確実だと思われるものは残したい.そこで,形態素切り出しが確定マークをもたないものを追加登録した際に,なお改定評価値が$E_{lower}$に満たない,形態素と形態素属性の組は,不完全情報辞書から削除することにした.本システムでは,$E_{lower}=0.1$とした.この値は,少量のデータ\footnote{朝日新聞社説の1ヶ月分}について予備実験を行い,システム全体での辞書保守の手間が実用的な範囲に収まり,しかも形態素獲得の成功率が高くなるように選定したものである.\vspace{-0,5mm} \section{実験結果及び考察} \label{experiment}\vspace{-0,5mm}以上のような考えに従ったシステムを実験的に試作し,その性能評価を行った.試作システムは,CとKCL(KyotoCommonLisp)を用いて,Sun4(SPARCstation2)の上に開発した.評価のための実験では,完全情報辞書を,システムの最低要件である助詞・助動詞と,約100語の活用をもたない,かながき形態素だけに初期設定した.用いたテストデータは,朝日新聞の社説6ヶ月分であり,その形態素総数は約240,000であり,異なる15,532の形態素が完全情報辞書に新たに得られた.その結果を詳細に評価するため,さらにつぎのことを行った.システムに手を加えて辞書再構成処理を取り除き,形態素の切出しとその形態素属性の推定だけを行い,その結果それぞれ(形態素に対する確定マーク,活用に関する除外マークも含む)をファイルに書き出すように改めた.この改造システムに先に獲得した完全情報辞書を与えて,同じ入力テキストのもとで走らせた.その出力ファイルの内容を,入力テキストと逐一照合して,形態素とその形態素情報が一意的に決定または推定され,しかもそれが正しいものを推定成功として数えた.このとき,活用する品詞については,その活用形が一意的に推定できていれば(活用種類が一意的になっていなくても),推定成功とした.\begin{table}\begin{center}\caption{\bf推定実験結果}\label{tab:exp_result}\begin{tabular}{l|r|r|r}\hline\hline{品詞}&\multicolumn{1}{c|}{総形態素数}&\multicolumn{1}{c|}{推定形態素数}&\multicolumn{1}{c}{推定成功率(\%)}\\\hline活用品詞&32,475&29,389&90.5\\\hlineその他&209,098&199,061&95.2\\\hline合計&241,573&228,450&94.6\\\hline\end{tabular}\end{center}\end{table}結果を表\ref{tab:exp_result}に示す.システムは,241,573形態素中228,450形態素について正しくその形態素属性を推定した(成功率94.6\%).とくに活用品詞類に対しての成功率は90.5\%であり,その他の品詞に対する成功率は95.2\%であった.日本語全般の各種確率表を算出するのに用いたのと同じデータを用いて評価を行ったのは,大量のテキストを対象としようとすると,その評価を行うのに目視によるのでは手間がかかりすぎることを恐れたためである.朝日新聞社説については,連接確率を求める際に,目視によって確認した形態素の切出しとその形態素情報がすでにファイルの形で用意できている.それを利用したのである.しかし,このために,用いた各種確率表が,よく日本語全般を代表しているかどうかの評価があいまいになってしまった.現在,UNIXのオンラインマニュアル(日本語版)を材料として比較実験を進めている.この結果については改めて報告したい.本システムの方式では,一般に形態素が長単位となり,複合語についての扱いが難しくなる.そこで,漢字が連接してできる複合語は,それ自体,1個の独立した形態素として扱った.このため,たとえば\{市街\}がすでに辞書に登録されているときに出現した\{長野市街\}が2個の形態素に切り分けられてしまうことが起きる(上の実験では,推定に失敗したとして評価した).\{長野\}が形態素として獲得できるものの,\{長野市街\}はついに形態素として獲得されることがない,という問題を抱え込んでしまった.(逆に\{長野市街\}が先に出現し,後から\{市街\}が出現した場合には,\{長野市街\},\{長野\},\{市街\}のすべてが形態素として獲得できる.)本システムでは,(切り出された)形態素をそれぞれ個別に扱い,その相互関係については属性推定に利用するだけである.このために,複合語についての問題が生じるし,活用種類の推定が十分にできないという問題も生じる.これらに対処するためには,獲得した形態素どうしについて先頭部分が共通であるものの相互の関連を調べる機能を追加する必要がある.そうすることで,\{動く\}が獲得された時点で\{動き\}の活用種類を「か行五段活用」と限定することも可能になるであろう.今回の実験システムでは,入力テキストを1回だけ走査することに終始した.これは,上の問題を解決する対策をとってからでなければ,2回3回と走査してみても大きな成果が見込めなかったからである.同じ複数回の走査を行うのであれば,まず入力テキストについての各種統計をとった上で,その結果も加味した推定を行うことでテキストの分野依存性に対処することも試みてみたい.これらは,いずれも今後の課題である.しかしながら,実験の結果は,ほとんど辞書が整備されていない環境でも形態素とその属性を自動獲得できるシステムを提供する,という目的からすると,十分に満足のいくものであった.とくに,これだけ簡易なシステム構成であっても,助詞・助動詞に着目することで多くの情報が自動的に獲得できることが示せた点に満足している.\begin{thebibliography}{10}\bibitem[\protect\BCAY{Nagata}{Nagata}{1994}]{Nagata}MasaakiNAGATA.\BBOP1994\BBCP.\newblock``AStochasticJapaneseMorphologicalAnalyzerUsingaForward-DPBackward-A$^{\ast}$N-BestSearchAlgorithm."\newblock{\emProc.ofthe15thInternationalConferenceonComputationalLinguistics},201--207.\bibitem[\protect\BCAY{Kokuritu}{Kokuritu}{1992}]{Kokuritu}国立国語研究所.\BBOP1992\BBCP.\newblock``電子計算機と国語研究."\newblock国立国語研究所.\bibitem[\protect\BCAY{Uchida}{Uchida}{1989}]{Uchida}内田裕士.\BBOP1989\BBCP.\newblock``テキストからの日本語辞書データの抽出."\newblock{人工知能学会第3回全国大会}.\bibitem[\protect\BCAY{Utsuro}{Utsuro}{1993}]{Utsuro}宇津宮武仁,松本裕治,長尾眞.\BBOP1993\BBCP.\newblock``二言語対訳コーパスからの動詞の格フレーム獲得."\newblock{\em情報処理学会論文誌},34(5),913--924.\bibitem[\protect\BCAY{Sirahi}{Sirahi}{1985}]{Sirahi}白井克彦,林良彦,平田裕一,久保田淳市.\BBOP1985\BBCP.\newblock``係り受け解析のための辞書の構成とその学習機能."\newblock{\em情報処理学会論文誌},26(4),706--714.\bibitem[\protect\BCAY{Park}{Park}{1993}]{Park}朴哲済,筧捷彦.\BBOP1993\BBCP.\newblock``接続関係を利用した辞書情報の獲得と日本語解析システムへの適用."\newblock{\em自然言語処理における実動シンポジウム論文集},電子情報通信学会及び日本ソフトウェア科学会,119--126.\bibitem[\protect\BCAY{Suzuki}{Suzuki}{1994}]{Suzuki}鈴木哲也,朴哲済,中山康徳,谷口清継,筧捷彦.\BBOP1994\BBCP.\newblock``信頼度評価に基づく活用形の推定."\newblock{日本ソフトウェア科学会第11回大会}.\bibitem[\protect\BCAY{Simomura}{Simomura}{1992}]{Simomura}下村秀樹,並木美太郎,中川正樹,高橋延匡.\BBOP1992\BBCP.\newblock``最小コストパス探索モデルの形態素解析に基づく日本語誤り検出の一方式."\newblock{\em情報処理学会論文誌},33(4),457--464.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{朴哲済}{1986年韓国延世大学校数学科卒業.1991年早稲田大学大学院理工学研究科情報科学専攻修士課程修了.1995年同大学院博士課程研究指導認定退学.同年,韓国浦項工科大学情報通信研究所研究員.1996年より現代情報技術(株)応用情報技術研究所責任研究員.人工知能,自然言語処理,機械翻訳等の研究に従事.日本情報処理学会,言語処理学会,韓国情報科学会,情報処理学会等の会員.}\newpage\bioauthor{筧捷彦}{1968年東京大学工学部計数工学科卒業.1970年同大学院修士課程修了.同大学助手,立大講師・助教授を経て,1986年より早稲田大学理工学部教授.プログラミング言語の設計・実現・環境構成等の研究に従事.情報処理学会,日本ソフトウェア科学会各理事.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V13N01-03
\section{はじめに} 人間はあいまいな情報を受け取り適宜に解釈して適切に会話を進めたり適切な行動を取ることができる.これは,人間が長年にわたって蓄積してきた,言語やその基本となる語概念に関する「常識」を持っているからである.すなわち,ある単語から概念を想起し,さらに,その概念に関連のある様々な概念を連想できる能力が重要な役割を果たしていると考えられる.ここで,ある単語に関連のある様々な単語を連想できるためには,単語間の意味的類似性だけでなく,単語間に存在する常識的な関係も含めた単語間の距離を評価できる必要がある.単語間の意味的な類似度の計算や距離計算は,自然言語処理における基本要素技術である.本稿では,単語間の距離計算法を提案している.従来,単語間の距離は,単語同士が意味的にどの程度似ているかを表すものであるとして,「類似度」と呼ばれている.単語の意味的類似性には直接的類似性や間接的類似性があり,また,間接的類似性はさらに細かく分類される\cite{Utsumi}.直接的類似性は辞書的カテゴリの類似であるのに対し,間接的類似性は辞書的カテゴリ以外の類似である.たとえば,「大人」と「子供」は同じ「人」に分類されるため意味的に似ており,類似度は高いはずであるが,「子供」と「おもちゃ」は意味的には似ていないし,同じ分類には含まれないであろうから類似度は低くなるであろう.しかし,実際には「子供」から「おもちゃ」を連想できることから,両者の距離はある程度近いものと思われる.「子供とおもちゃ」のような何らかの関連があるもの同士にも距離を定義できるようにするため,本研究では,単語間の距離のことを「関連度」と呼んでいる.もちろん,関連度には類似度の性質も含まれている.すなわち,直接的類似性が高いものも関連度は大きいと考えられる.本研究では,直接的類似性や間接的類似性を問わず,人間が常識的にイメージする単語間の距離に近いほど,その関連度計算法は優れていると判断する.このような関連度を計算するには,従来用いられてきた単語間の意味的(あるいは分類的)上位下位関係を記述したシソーラス\cite{NTT}などでは困難である.また,ある文書空間内での共起情報を用いれば関連度を計算可能と思われるが,どのような文書空間を用いるべきかが問題となる.本研究では,文書空間として概念ベースを用いる.概念ベースは(後述するが),国語辞書や大量の新聞記事を用いて構築したものであり,仮想的な文書空間と捉えることができる.以下,2章では本研究で用いる概念ベースの構造について述べる.3章では,概念間の関連性の評価法に対する既存研究についてふれ,関連度計算法自体の評価の方法を述べる.4章では,本稿の主題である関連度計算法について従来法を述べ,評価考察を行った後,5,6章で新しい計算法についての提案と評価考察を行う.なお以下では,「単語」を「概念」あるいは「概念表記」と呼ぶ.これは,「単語」と言う言葉はその表記をさす場合とその単語の意味,すなわち,その単語が指し示す概念を表す場合があるため,それらを区別するために,表記を表す場合は「概念表記」,意味を表す場合は「概念」と呼ぶ.ただし,厳密な区別が困難な場合も多いので,その場合は「単語」と呼ぶこととする. \section{概念ベース} label{BasicCB}\subsection{概念ベースの構造}概念ベースにおいて,任意の概念$A$は,概念の意味特徴を表す属性$a_i$と,この属性$a_i$が概念$A$を表す上でどれだけ重要かをあらわす重み$w_i$の対で表現される.概念$A$の属性数を$N$個とすると,概念$A$は以下のように表せる.ここで,属性$a_i$を概念$A$の一次属性と呼ぶ.\begin{eqnarray}A&=&\{(a_1,w_1),(a_2,w_2),\cdots,(a_N,w_N)\}\end{eqnarray}また,概念$A$の一次属性$a_i$は概念ベースに定義されている概念としているため,$a_i$からも同様に属性を導くことができる.$a_i$の属性$a_{ij}$を概念$A$の二次属性と呼ぶ.さらに三次属性,四次属性,...と属性展開が可能であるため,任意の概念$A$は属性(概念)の無限連鎖により定義されていることになる.概念「電車」を二次属性まで展開した様子を図\ref{Fig1}に示す.\begin{figure}[tb]\begin{center}\epsfile{file=fig01.eps,width=8.0cm}\end{center}\caption{概念「電車」(二次属性まで展開)}\label{Fig1}\end{figure}\subsection{概念ベースの構築方法}当初の概念ベースは,複数の電子化国語辞書を用いて機械的に自動構築されたものである.この概念ベース(基本CB)\cite{kasahara1,kasahara4}では,約3万4千の概念表記$A$とその属性$a_i$および重み$w_i$を複数の国語辞書の語義文から自動的に獲得している.辞書の見出し部の単語を概念表記とし,語義文に含まれる自立語を属性として抽出し,それらの重みは属性の出現頻度を基に付与している.さらに,属性の自己参照による新たな属性の追加,及び不要な属性の統計的な除去からなる精錬を行うことによって概念ベースを機械構築している.しかし,基本CBは国語辞書の語義文から機械的に構築されているため,人間の感覚では必要な属性が抜け落ちていたり,明らかにおかしな属性が雑音として含まれているといったように,必ずしも適切なデータのみで構成されているわけではない.また,直接的類似性(辞書的カテゴリの類似)を評価するには適しているが,間接的類似性(辞書的カテゴリ以外の類似,関連)を評価するには必ずしも十分ではないと思われる.そこで,本研究では,不適切なデータを削除し,必要なデータを追加する自動精練処理を行った概念ベース(概念数約9万)\cite{Hirose}を構築し利用する.この概念ベースは,基本CBの概念に加えて,新聞記事における単語(概念表記)の共起情報を元に新たな概念表記と属性を追加し,属性信頼度\cite{KKojima,KKojima2}と使用した新聞記事全体におけるidf値を元に属性の重みを付与し,重みの小さい属性は削除するといった処理を施したものである.ただし,この概念ベースもあくまで機械構築であるため,人間の感覚と一致する属性の率は(サンプル評価によると)約6割である. \section{概念間の関連性評価法} \subsection{概念間の関連度}概念間の関連度とは,2つの概念Aと概念Bの関連の強さを定量的に評価するものである.例えば,概念「電車」に対して,「汽車」,「自動車」,「馬」の関連の強さがどれほどのものかを知りたいとき,表\ref{T1}のように関連の強さを定量化(数値化)できれば,コンピュータにも判断できるようになる.この場合,概念「電車」に対しては,「汽車」が最も関連が強いということがわかり,また「汽車」,「自動車」,「馬」の順に関連が強いこともわかる.\begin{table}[tb]\caption[]{関連度の例}\label{T1}\begin{center}\begin{tabular}{|c|c|c|}\hline基準概念&対象概念&関連度\\\hline\hline&汽車&0.36\\\cline{2-3}電車&自動車&0.25\\\cline{2-3}&馬&0.09\\\hline\end{tabular}\end{center}\end{table}概念と概念の関連性(類似度または関連度)を評価する方法としては,シソーラスを用いる方法\cite{Kurohashi,Nagao,Sumita,Fujii,Uramoto,Ooi}やベクトル空間モデルによる方法\cite{salton,Schutze,Fujii,Inako,kasahara4,Kojima}等がある.ベクトル空間モデルによる方法では,単語ベクトルの表現方法が問題となる.たとえば,概念数100個の概念ベースを用いて単語ベクトルを構成する場合,もっとも単純には,100次元の単語ベクトル空間を用いることとなる.しかし,ベクトル空間モデルでは各基底ベクトルは互いに独立している必要があるのに対し,このような単純な方法では,各基底ベクトルはまったく独立していない.そこで通常は,概念数より少ない次元に次元圧縮を行い各基底ベクトル間の独立性を高める方策が採られる.\cite{kasahara4}では辞書の語義文を元に作成された概念ベース(基本CB)を利用し,各単語(概念)をシソーラスを用いて次元圧縮を行っている.すなわち,約2700のシソーラスのノードを基底ベクトルとみなすことで,約3万4千個の基本概念ベースの概念を約2700次元のベクトル空間で扱っている.また,同じく概念ベースを利用する方法として,概念の属性の一致度と重みを利用する意味関連度計算方式\cite{Izutsu,Watabe}がある.この方法では,概念をベクトルとはみなさず,重み付き属性の集合として扱う点が特徴である.詳細は4章で述べる.シソーラスを用いる方法よりも概念ベースを用いたベクトル空間モデルによる方法が優れているという報告\cite{Kawashima}があり,また,ベクトル空間モデルによる方法よりも意味関連度計算方式の方が良い評価結果が得られている\cite{Watabe}ため,本稿では意味関連度計算方式の拡張方式について報告する.すなわち,概念ベースにおける概念表記と概念表記の共起情報を用いた共起関連度計算方式を提案し,また,共起関連度計算方式と意味関連度計算方式を複合利用する関連性評価方式について提案する.なお,本論文では,既存論文でほぼ同じ状況で比較実験が行われている中で最も優れていると考えられる手法との比較実験のみを行うが,より広い意味での概念間関連度計算手法同士の比較実験は必要であり,今後の課題とする.特に,\cite{Okamoto}では,大勢の人間を使った連想実験により概念間距離の定式化を試みており,人間の感覚により近い概念間距離を算出できる可能性が高いが,概念数が少なく網羅性が低いため,本論文では比較対象にはしていない.\subsection{関連度計算法の評価方法}本研究では,直接的類似性や間接的類似性を問わず,人間が常識的にイメージする概念間の距離に近いほど,その関連度計算法は優れていると判断する.そこで,関連度計算法の評価をするために,人手によって作成した評価用データを用いて行う.\subsubsection{評価用データ}人間が任意の概念X(基準概念)に対して,高い関連を示す概念A,関連のある概念B,ほとんど関連のない概念Cと判断した4つの概念(X-A,B,C)を1セットとして大量に用意した.そして,さらにそのデータに対して作成者以外の3人に判断してもらい,3人中3人が正しいと判断したデータのみを使用する.また,評価用データの概念はすべて概念ベースで定義されている概念のみで構成されている.本稿では,このように作成した合計2370組の評価用データ(表\ref{T2})を用いて関連度計算法の評価を行う.\begin{table}[tb]\caption[]{評価用データ(一部)}\label{T2}\begin{center}\begin{tabular}{|c|c|c|c|}\hlineX&A&B&C\\\hline\hline椅子&腰掛け&机&像\\\hline医師&医者&看護婦&山\\\hline海&海洋&塩&車\\\hline病&病気&医者&勇気\\\hline$\cdots$&$\cdots$&$\cdots$&$\cdots$\\\hline\end{tabular}\end{center}\end{table}\subsubsection{評価方法}評価は概念Xと概念Aとの関連度Rel(X,A),概念Xと概念Bとの関連度Rel(X,B),概念Xと概念Cとの関連度Rel(X,C)が,\begin{eqnarray}Rel(X,A)-Rel(X,B)>AveRel(X,C)\\Rel(X,B)-Rel(X,C)>AveRel(X,C)\\AveRel(X,C)=(1/2370)\sum_{i=1}^{2370}Rel(X_i,C_i)\end{eqnarray}を満たすときを正解とする.この評価法をC平均評価法と呼ぶことにする.概念Xと無関連である概念Cとの関連度Rel(X,C)は0.0になるのが理想である.しかし実際はある程度の数値が雑音として算出される.そこで,ただ単に概念Xと概念A,B,Cとの関連度がA,B,Cの順になるだけではなく,誤差であるAveRel(X,C)の値より優位な差がありなおかつ概念Xと概念A,B,Cとの関連度がA,B,Cの順になるものだけを正解とした.関連度計算法で評価用データ全体の正解率が高ければ人間の感覚に近い判断ができていることになる.なお,評価方法についても,各論文ごとに異なっているのが現状である.本論文では,既存研究の評価方法を参考にしながら,人間の感覚により近いものをよしとし,なるべく機械的に客観的に評価したいという観点から,上記の評価方法を取っている. \section{意味関連度計算方式} \label{S4}概念ベースでは,各概念はその概念に何らかの意味で関連する概念(属性)と重みの対の集合として定義されている.この属性と重みの対の集合は,その概念の意味を近似的に表しているものととらえられる.したがって,二つの概念間の意味的な距離は,それらの属性と重みの対の集合がどの程度似ているかを評価することで得られると考える.ところで,各概念の属性はまた概念でもあるため,属性同士が完全に同じでなくとも似ている度合いを評価可能である.すなわち,二つの概念間の意味的な距離は,再帰的に,属性と重みの対の似ている度合いを評価することにより得られる.この再帰は,厳密には,無限に深いものであるが,計算効率と精度を考慮して,二次属性までを使用する.すなわち,二つの概念A,B間の意味関連度は,各概念を二次属性まで展開し,一致する属性と重みによって求める一致度を使い計算する.一致度は0〜1の実数値をとる.具体的には,一致する二次属性を調べ,その重みを使って計算する一致度の和が最大になる一次属性の組み合わせを作る.一次属性の組み合わせを作る場合には,遺伝的アルゴリズムなどを使うことによって最適な組み合わせを作ることが考えられるが,最大値を取る組み合わせを順に取ることによっても比較的良い関連度が得られることがわかっている\cite{Ukita}.以下,二つの概念A,Bの意味関連度をMR(A,B)と定義し,意味関連度の計算方法を示す.\subsection{計算方法}\subsubsection{一致度の計算方法}概念$A$,$B$をその一次属性を$a_i$,$b_j$,重みを$u_i$,$v_j$とし,属性がそれぞれ$L$個,$M$個($L\leM$)とすると,\begin{eqnarray}A&=&\{(a_1,u_1),(a_2,u_2),\cdots,(a_L,u_L)\}\\B&=&\{(b_1,v_1),(b_2,v_2),\cdots,(b_M,v_M)\}\end{eqnarray}と表現できる.このとき,概念$A$と$B$の一致度$MatchWR(A,B)$は,\begin{eqnarray}MatchWR(A,B)&=&\sum_{a_i=b_j}\min(u_i,v_j)\end{eqnarray}(各概念の重みの総和は1に正規化する)と定義する.ただし,$a_i=b_j$は属性(概念表記)$a_i$と$b_j$とが同じであることを表す.このとき,一致度は一致する属性のうち小さい方の重みとなるが,これは両方の属性に共通して存在する重み分は有効だと考えるためである.\subsubsection{意味関連度の計算方法}意味関連度は,対象となる全ての一次属性の組み合わせについて一致度を計算し,一次属性どうしの対応を決定することにより計算する.具体的には,一致する一次属性どうし($a_i=b_j$)については優先的にその対応を決定する.一致しない一次属性については,その一致度の合計が最大になるように一次属性どうしの対応を決定する.一致度を利用することによって,一致しない(概念表記が異なる)一次属性についても関連の度合いを考慮に入れることができる.一次属性どうしが一致するものがない場合,概念$A$,$B$のうち属性数の少ない概念を$A$($L\leM$)とし,概念$A$の一次属性の並びを固定する.\begin{eqnarray}A&=&((a_1,u_1),(a_2,u_2),\cdots,(a_L,u_L))\end{eqnarray}概念$B$の各一次属性を対応する概念$A$の各一次属性との一致度(MatchWR)の合計が最大になるように並べ替える.\begin{eqnarray}B_x&=&((b_{x1},v_{x1}),(b_{x2},v_{x2}),\cdots,(b_{xL},v_{xL}))\end{eqnarray}($\{b_{xL+1},\cdots,b_{xM}\}$は無視する.)このように対応を決めると,概念$A$と$B$の意味関連度$MR(A,B)$は,\begin{eqnarray}MR(A,B)&=&\sum_{i=1}^{L}MatchWR(a_i,b_{xi})(u_i+v_{xi})(\min(u_i,v_{xi})/(\max(u_i,v_{xi}))/2\end{eqnarray}となる.すなわち,意味関連度は対応する一次属性の一致度と,それらの属性の重みの平均および重みの比に比例すると考える.一次属性どうしが一致する(概念表記が同じ)ものがある場合($a_i=b_j$)は,別扱いにする.これは概念ベースには約9万の概念が存在し,属性が一致することは稀である.従って,属性の一致の扱いを別にすることにより,属性が一致した場合を大きく評価するためである.具体的には,対応する属性の重み$u_i$,$v_j$の大きさを重みの小さい方にそろえる.このとき,重みの大きい方はその値から小さい方の重みを引き,もう一度,他の属性と対応をとることにする.例えば,$a_i=b_j$で$u_i=v_j+\alpha$とすれば,対応が決定するのは$(a_i,v_j)$と$(b_j,v_j)$であり,$(a_i,\alpha)$はもう一度他の属性と対応させる.このように対応を決め,対応の取れた属性の組み合わせが$T$個の場合,\begin{eqnarray}A'&=&((a'_1,u'_1),(a'_2,u'_2),\cdots,(a'_T,u'_T))\\B'&=&((b'_1,v'_1),(b'_2,v'_2),\cdots,(b'_T,v'_T))\end{eqnarray}となる.概念$A$と$B$の意味関連度$MR(A,B)$は,\begin{eqnarray}MR(A,B)&=&\sum_{i=1}^{T}MatchWR(a'_i,b'_{i})(u'_i+v'_{i})(\min(u'_i,v'_{i})/(\max(u'_i,v'_{i}))/2\label{EMR}\end{eqnarray}となる.一致度と意味関連度の計算例を概念「机」と「椅子」を例に示す.二つの概念の一次,二次属性を表\ref{T3}に示す.\begin{table}[htb]\caption[]{一次属性と二次属性}\label{T3}\begin{center}\begin{tabular}{|c|c|}\hline概念&一次属性\\\hline机&(学校,0.6),(勉強,0.3),(本棚,0.1)\\\hline椅子&(勉強,0.5),(教室,0.3),(木,0.2)\\\hline\end{tabular}\\(a)一次属性\\\end{center}\begin{center}\begin{tabular}{|c|c|}\hline一次属性&二次属性\\\hline学校&(大学,0.4),(校舎,0.4),(木造,0.2)\\\hline勉強&(予習,0.5),(試験,0.3),(本,0.2)\\\hline本棚&(図書,0.6),(書物,0.3),(本,0.1)\\\hline教室&(教師,0.4),(校舎,0.4),(生徒,0.2)\\\hline木&(森林,0.5),(木造,0.4),(葉,0.1)\\\hline\end{tabular}\\(b)二次属性\end{center}\end{table}一次属性「勉強」と「本棚」の一致度は,属性「本」のみが一致するため,その重みの小さい方をとり,次式のように計算できる.\begin{eqnarray}MatchWR(勉強,本棚)=\min(0.2,0.1)=0.1\end{eqnarray}同様に全ての一次属性の組み合わせについて一致度を計算した結果が表\ref{T5}である.\begin{table}[tb]\caption[]{一致度マトリックス}\label{T5}\begin{center}\begin{tabular}{|c|c|c|c|}\hline&学校&勉強&本棚\\\hline勉強&0&{\bf1}&{\bf0.1}\\\hline教室&{\bf0.4}&0&0\\\hline木&0.2&0&0\\\hline\end{tabular}\end{center}\end{table}意味関連度の計算は,まず一致部分(概念表記が一致するもの)から行う.次に残りの部分について一致度の大きいところから順に対応を決めると意味関連度は次式のように計算できる.\begin{eqnarray}MR(机,椅子)&=&1\times(0.3+0.3)(0.3/0.3)/2\nonumber\\&&+0.4\times(0.6+0.3)(0.3/0.6)/2\nonumber\\&&+0.1\times(0.1+0.2)(0.1/0.2)/2\label{EEX1}\end{eqnarray}表\ref{T3}(a)より,一次属性「勉強」が一致している.そこで,重みの大きいほうの「勉強」を二つに分解し,一致度が大きい順に対応を決めると(一致度は表\ref{T5}より,MatchWR(勉強,勉強)=1,MatchWR(学校,教室)=0.4,MatchWR(本棚,勉強)=0.1)以下のようになる.\begin{tabular}{rrrrrrr}机&=&(&(勉強,0.3),&(学校,0.6),&(本棚,0.1)&)\\椅子&=&(&(勉強,0.3),&(教室,0.3),&(勉強,0.2)&)\\一致度&=&&1,&0.4,&0.1&\\\end{tabular}そして,式\ref{EMR}に代入すると(この場合$T=3$)式\ref{EEX1}となる.\subsection{評価実験}評価用データを用いて,意味関連度計算方式の評価実験を行った.評価実験の結果はC平均評価法で正解率は71.1\%であった.詳細を表\ref{T6}に示す.ただし,$a>^*b$は,$Rel(X,a)-Rel(X,b)>AveRel(X,C)$を表す.\begin{table}[tb]\caption[]{意味関連度の評価実験結果}\label{T6}\begin{center}\begin{tabular}{|c|c|}\hline判定&正解率\\\hline$A>^*B>^*C$&71.1\%\\\hline$A>^*B$&88.4\%\\\hline$B>^*C$&80.8\%\\\hline$A>^*C$&96.4\%\\\hline\end{tabular}\end{center}\end{table}表\ref{T6}の結果から概念Xに対して中程度の関連のある概念Bと関連のない概念Cの判定が上手くいっていないものが多いことがわかる.表\ref{T7}にその誤りであったものの一部を示す.この表のうち,括弧付で表している概念(B,C)の判定が誤っていた.\begin{table}[tb]\caption[]{意味関連度の誤り(一部)}\label{T7}\begin{center}\begin{tabular}{|c|c|c|c|}\hlineX&A&B&C\\\hline\hline道&道路&({\bf車})&({\bf点})\\\hline買う&購入&({\bf金})&({\bf雨})\\\hline話す&会話&({\bf人})&({\bf煉瓦})\\\hline歩く&歩行&({\bf動物})&({\bf黒板})\\\hlineフェリー&船&({\bf海})&({\bf地蔵顔})\\\hlineでぶ&肥満&({\bf脂肪})&({\bf穴居})\\\hline\end{tabular}\end{center}\end{table}評価用データの概念Aは概念Xと同義・類義といったように意味的に近い単語であるのに対して,「道−車」,「買う−金」,「でぶ−脂肪」のように概念Bは概念Xと意味的に近い単語というよりは概念Xから連想により導き出せる単語が多い.意味関連度計算方式は概念の属性の一致度合いから関連性を判断しているため,連想により導き出せるような単語の間の関連性判断は上手くできないと考えられる.(ただし,概念ベースには新聞記事における共起情報によるデータも多く含まれているため,ある程度高い正解率にはなっている.)人が「買う−金」の方が「買う−雨」よりも関連が強いと思うのは,「買う−金」が共に使われる頻度が「買う−雨」が共に使われる頻度よりも高いためであると考えられる.このように概念表記の対がよく出現する概念の間には関連があることを考慮に入れた関連度計算方式を次章で提案する. \section{共起関連度計算方式} \label{S5}人が概念間の関連性を判断する場合,「自動車−車」,「電車−汽車」といったように意味的な近さ(直接的類似性)が重要な判断基準となると考えられる.そこでこれまで概念の意味属性の一致度と重みを利用する意味関連度計算方式により,意味的にどれだけ近いかを判断することで概念間の関連性を評価してきた.ところが意味関連度計算方式では「道−車」,「買う−金」のように連想により導き出せるような単語の間の関連性の判断が十分に行えないことが評価実験によりわかった.人がこれらの単語の間に関連があると判断するのは,共に使われる頻度が他の単語と使われる頻度よりも高いためであると考えられる.そのため意味的な近さを判断するだけの意味関連度計算方式ではこのような単語の間の関連性の判断は難しい.そこで概念表記の対でよく出現する概念間には関連があることを考慮に入れた関連性評価法について考える.\subsection{表記的共起関連度計算方式}ある概念表記の対が複数の文書で共出現する頻度が高ければ高いほどその概念の間には関連があると考えられる.本稿では,これらの共起情報を求めるために概念ベースを利用し,概念を構成する属性集合の中でどれだけ共出現するかを調べる.(概念ベースは,国語辞書や新聞記事から単語を切り出して作成しているため仮想的な文書空間ととらえることができる.)\subsubsection{計算方式}概念表記の対が共出現する頻度から関連性を判断する表記的共起関連度を以下の式で定義する(図\ref{Fig2}).\begin{eqnarray}Co(A,B)&=&\left(\frac{df(A\&B)}{df(A)}+\frac{df(A\&B)}{df(B)}\right)/2\end{eqnarray}ただし,$df(A\&B)$は概念表記$A$,$B$が共に一次属性に出現する概念数,$df(A)$は概念表記$A$が一次属性に出現する概念数,$df(B)$は概念表記$B$が一次属性に出現する概念数とする.\begin{figure}[tb]\begin{center}\epsfile{file=fig2.eps,width=6.0cm}\end{center}\caption{表記的共起}\label{Fig2}\end{figure}例えば,$df(自動車\&運転)$は,「自動車」と「運転」を共に属性に持つ概念数を数えるわけであるが,「車」と「運転」を共に持つ概念は対象にならない.このように,意味的に近い単語との共起は考慮せず,「自動車−運転」という『表記』の対がどれだけ出現するかを評価するものであるので,表記的共起関連度計算方式と呼ぶことにする.\subsubsection{評価実験}評価用データを用いて,表記的共起関連度計算方式の評価実験を行った.評価実験の結果はC平均評価法で正解率は49.7\%であった.表\ref{T8}に評価実験で誤ったものの一部を示す.\begin{table}[tb]\caption[]{表記的共起関連度の誤り(一部)}\label{T8}\begin{center}\epsfile{file=table8.eps,width=12.0cm}\end{center}\end{table}表\ref{T8}の$Co(コーナー,曲がり角)=0.000$,$Co(マスタード,辛子)=0.000$,のように$Co(X,A)=0.000$となるものが2370組中354組(14.9\%),$Co(警察,拳銃)=0.000$,$Co(マスタード,香辛料)=0.000$のように$Co(X,B)=0.000$となるものが838組(35.4\%)と表記的共起関連度0が頻出した.表記的共起関連度計算方式で5割程度の正解率を得ることしかできなかったのは,概念$X$に対して高関連である概念$A$や中関連である概念$B$と共起せず表記的共起関連度が0になる評価セットが多数存在したためである.\subsection{意味的共起関連度計算方式}表記的共起関連度計算方式では,概念ベースの一次属性を用いて,概念表記が共起する率を調べている.しかし,評価結果からもわかるように,関連が強いと思われる概念同士でもその概念表記がまったく共起しない場合が多々現れる.そこで,一次属性のみではなく,二次,三次と使用する属性の範囲を広げていけば,関連の強い概念同士では共起率が高くなっていくものと思われる.(このことは,「自動車」と「運転」の共起を調べるときに,「車」と「運転」の共起も同時に調べることに相当する.)ところが,二次,三次と使用する属性の範囲を広げると,扱うべき概念表記の数が指数関数的に増大していくため計算効率が急激に悪くなる.さらには,全概念空間を探索することになるが,ほとんどは無関係の部分であり非常に無駄が多い.そこで,全概念空間を探索するのではなく,可能性の高そうな部分のみに限定して意味的な共起を調べる手法を提案する.概念$A$と概念$B$の関連が強いほど,それぞれの概念の意味特徴を表す属性集合内に対象とする概念表記が数多く出現すると考えられる.すなわち,概念$A$の$n$次属性に概念表記$B$が多数現れ,概念$B$の$n$次属性に概念表記$A$が多数出現するものと考えられる.このような性質から関連性を判断する方法を意味的共起関連度計算方式と呼ぶことにする(図\ref{Fig3}).\begin{figure}[tb]\begin{center}\epsfile{file=fig03.eps,width=6.0cm}\end{center}\caption{意味的共起}\label{Fig3}\end{figure}\subsubsection{計算方式}対象とする属性集合をどこまで広げるか,すなわち何次属性までを対象とするか,という問題がある.そこで一次,二次,三次属性まで展開した場合の意味的共起関連度を以下のように定義する.\begin{eqnarray}CoM1(A,B)&=&\left(\frac{Nb_1}{NA_1}+\frac{Na_1}{NB_1}\right)/2\\CoM2(A,B)&=&\left(\frac{Nb_2}{NA_2}+\frac{Na_2}{NB_2}\right)/2\\CoM3(A,B)&=&\left(\frac{Nb_3}{NA_3}+\frac{Na_3}{NB_3}\right)/2\end{eqnarray}ただし,$NA_n$は概念$A$の$n$次属性数,$NB_n$は概念$B$の$n$次属性数,$Na_n$は概念表記$A$が概念$B$の$n$次属性内に出現する回数,$Nb_n$は概念表記$B$が概念$A$の$n$次属性内に出現する回数とする.しかし,上記の計算方法では多少問題があるように思われる.例えば概念$A$の属性集合内に概念表記$B$が10回出現する場合と概念表記$C$が10回出現する場合を考える.出現回数が同じだからといって概念$A$に対して概念$B$と概念$C$は同じくらい関連があるとはいえないであろう.なぜなら,概念ベースの全概念の属性内に10回しか出現しない概念表記$B$が,概念$A$の属性集合内に10回出現する場合と,概念ベースの全概念の属性内に10000回出現する概念表記$C$が,概念$A$の属性集合内に10回出現する場合とでは,明らかに概念$A$にとって概念$B$の方が概念$C$よりも関連があると考えられるからである.そこで,情報検索の分野でよく用いられる稀に出現する語を重要とする$idf$値を利用して評価する方法を,以下の式で定義する.\begin{eqnarray}CoM1\_idf(A,B)&=&\left(\frac{Nb_1\timesidf(B)}{NA_1}+\frac{Na_1\timesidf(A)}{NB_1}\right)/2\\CoM2\_idf(A,B)&=&\left(\frac{Nb_2\timesidf(B)}{NA_2}+\frac{Na_2\timesidf(A)}{NB_2}\right)/2\\CoM3\_idf(A,B)&=&\left(\frac{Nb_3\timesidf(B)}{NA_3}+\frac{Na_3\timesidf(A)}{NB_3}\right)/2\\idf(t)&=&\log\frac{N_{All}}{df(t)}+1\end{eqnarray}ただし,$N_{All}$は概念総数(87242),$df(t)$は概念表記$t$を三次属性内に持つ概念の数である.ここで,$idf$値を求める際の出現頻度$df$値は三次属性を用いているが,これは,実験的に検証した\cite{Sakata}ものである.\subsubsection{評価実験}出現回数のみで評価する方法と$idf$値を用いて評価する方法で精度比較を行う.ここで属性を何次まで展開すればいいか,また属性をいくつまで使うのがいいのかを評価する必要がある.そこで,評価用データに対し,打ち切り属性数を10から100まで10間隔で変化させたものと打ち切りなし,つまりすべての属性を使う場合で,評価用データの正解率にどのような変化があるのか調査した.その結果を図\ref{Fig4}に示す.図\ref{Fig5}にはそれぞれの計算方式で最も良かった正解率のグラフを示す.\begin{figure}[tb]\begin{center}\epsfile{file=fig04.eps,width=10.0cm}\end{center}\caption{パラメータ実験結果}\label{Fig4}\end{figure}\begin{figure}[tb]\begin{center}\epsfile{file=fig5.eps,width=10.0cm}\end{center}\caption{意味的共起関連度評価結果}\label{Fig5}\end{figure}一次属性,二次属性まで展開する場合は,属性はすべて使用した場合がもっとも精度がよかった.三次属性まで展開する場合は,打ち切り属性数30のとき最も精度がよかった.また,すべての場合において,ただ単に出現回数だけで評価する方法よりもidf値を利用した方法のほうが精度がよかった.今回提案した意味的共起関連度計算方式のうち最も精度がよかったのは,それぞれ使用する属性数を30にして三次属性まで展開して$idf$値を用いる計算方式であり,正解率は68.1\%であった.\subsection{共起関連度に関する考察}概念表記の共起情報から関連性を判断する計算方法として表記的共起関連度計算方式と意味的共起関連度計算方式を提案した.評価実験の結果,表記的共起関連度計算方式より意味的共起関連度計算方式のほうが精度が良かった.意味的共起関連度計算方式で最も精度の良かった方式$CoM3\_idf$の正解率は68.1\%であった.これは意味関連度計算方式の正解率71.1\%より低い値である.しかし,意味関連度計算方式で誤った($X-A,B$)の274組,($X-B,C$)の455組,($X-A,C$)の85組に対して$CoM3\_idf$で評価したところ,($X-A,B$)で48組(正解率17.5\%),($X-B,C$)で243組(正解率53.4\%),($X-A,C$)で31組(正解率36.5\%)が正解になった.注目すべきところは,意味関連度計算方式で判断が上手くできなかった($X-B,C$)の判断が共起関連度計算方式を用いれば適切な判断ができるようになることである.このことから意味関連度計算方式と共起関連度計算方式を複合利用することで,よりよい関連性の判断ができると考えられる. \section{意味共起関連度計算方式} \ref{S4}章で述べた意味関連度計算方式と\ref{S5}章で述べた共起関連度計算方式を複合利用することで,よりよい関連性の判断の実現を目指す.\subsection{意味関連度と共起関連度の合成}意味関連度計算方式と共起関連度計算方式を合成して評価する式を以下の式で定義し,この計算方式を意味共起関連度計算方式と呼ぶことにする.\begin{eqnarray}MCR(A,B)&=&\frac{MR(A,B)+C_w\timesCR(A,B)}{1+C_w}\end{eqnarray}ただし,$MR(A,B)$は意味関連度,$CR(A,B)$は共起関連度,$C_w$は重み定数とする.意味共起関連度計算方式では,共起関連度に重み$C_w$を付与し,意味関連度に足し合わせ意味共起関連度を求める.\subsection{意味共起関連度計算方式の評価実験}評価用データを用いて,意味共起関連度計算方式の評価実験を行う.評価方法は,共起関連度に付与する重み$C_w$を0.0から10.0まで0.005間隔で変化させ,評価用データの正解率が最大になる$C_w$を調べた.その結果を表\ref{T9}と図\ref{Fig6}に示す.\begin{table}[tb]\caption[]{パラメータ実験結果}\label{T9}\begin{center}\epsfile{file=table9.eps,width=5.0cm}\end{center}\end{table}\begin{figure}[tb]\begin{center}\epsfile{file=fig6.eps,width=10.0cm}\end{center}\caption{意味共起関連度評価結果}\label{Fig6}\end{figure}表\ref{T9},図\ref{Fig6}から,最も精度が良かったのは,意味関連度計算方式と共起関連度計算方式$CoM2\_idf$に重み$C_w$=8.970を付与して組み合わせた意味共起関連度計算方式(正解率76.5\%)で,意味関連度計算方式単独の正解率71.1\%と比較して5.4\%精度向上したことがわかる.評価用データ1組に対し3回(X-A,X-B,X-C)の関連度計算を行っているので2370組では7110個の関連度の値が算出される.そこで意味関連度計算方式と共起関連度計算方式$CoM2\_idf$の関連度分布(降順)の全体を図\ref{Fig7},関連度上位20個の部分を図\ref{Fig8}に示す.図より意味関連度の値が0から1の範囲に分布しているのに対して,共起関連度が0.1より大きいのは7110個中わずか9個であり,共起関連度の値は0から0.1の範囲に分布していることがわかる.意味関連度に対して,共起関連度に付与する重みが$C_w$=8.970と大きな値になっているのはこのためである.\begin{figure}[tb]\begin{center}\epsfile{file=fig7new.eps,width=12.0cm}\end{center}\caption{関連度の分布(全体)}\label{Fig7}\end{figure}\begin{figure}[tb]\begin{center}\epsfile{file=fig8.eps,width=12.0cm}\end{center}\caption{関連度の分布(上位20)}\label{Fig8}\end{figure}意味関連度計算方式に対して共起関連度計算方式がどれだけ効果があるかを知るためには,意味関連度と共起関連度の範囲をあわせる必要がある.そこで以下の式で共起関連度$CR$の値を0から1の範囲に拡張した.\begin{equation}CR=\left\{\begin{array}{ll}1.0&\mbox{if$CoM2\_idf\ge0.10$}\\10\timesCoM2\_idf&\mbox{otherwise}\end{array}\right.\end{equation}意味関連度と拡張した共起関連度を組み合わせた意味共起関連度計算方式について同様の実験を行ったところ図\ref{Fig9}のようになり,$C_w=0.90$の場合に意味共起関連度計算方式の精度が最大の76.5\%になることがわかった.\begin{figure}[tb]\begin{center}\epsfile{file=fig9.eps,width=12.0cm}\end{center}\caption{パラメータ評価実験結果(一部)}\label{Fig9}\end{figure}\subsection{意味共起関連度計算方式の考察}意味関連度計算方式のみで概念間の関連性を評価した場合の正解率は71.1\%であった.意味関連度と重みを付与した共起関連度を加える意味共起関連度計算方式では76.5\%と意味関連度計算方式よりも5.4\%高い精度で関連性の判断を行うことができた.また,意味関連度計算方式(正解率71.1\%)と共起関連度計算方式($CoM2\_idf$,正解率62.9\%)それぞれの正解率をみると,意味関連度計算方式の方が共起関連度計算方式より正解率が高いことから,意味関連度に対して,共起関連度に付与する重み,$C_w=0.90$という値は意味関連度計算方式の誤差を共起関連度計算方式が補正するための値として適切であるといえる.表\ref{T10}に意味関連度計算方式と意味共起関連度計算方式の評価結果の詳細を示す.注目すべきところは,意味関連度計算方式で(X-B,C)の正解率が80.8\%だったのが,意味共起関連度計算方式では86.2\%と5.4\%精度向上しているところである.\begin{table}[tb]\caption[]{意味関連度と意味共起関連度の評価結果}\label{T10}\begin{center}\begin{tabular}{|c|c|c|}\hline&意味&意味共起\\\hline判定&正解率&正解率\\\hline$A>^*B>^*C$&71.1\%&76.5\%\\\hline$A>^*B$&88.4\%&88.8\%\\\hline$B>^*C$&80.8\%&86.2\%\\\hline$A>^*C$&96.4\%&97.0\%\\\hline\end{tabular}\end{center}\end{table}表\ref{T11}に意味関連度計算方式で誤って,意味共起関連度計算方式で正解した評価結果の一部を示す.これは,表\ref{T7}で示した意味関連度の誤りの評価例であり,意味共起関連度計算方式により正しく判断ができるようになった.ただし,同じく表\ref{T11}からわかるように,関連度の値そのものは人間が感覚的に抱く概念間の距離に相当するところまでは行っていない.現状では,高関連・有関連・無関連をほぼ区別できる程度であり,更なる改良が必要である.\begin{table}[tb]\caption[]{意味共起関連度評価結果(一部)}\label{T11}\begin{center}\epsfile{file=table11.eps,width=10.0cm}\end{center}\end{table} \section{おわりに} 本稿では,直接的類似性や間接的類似性を問わず,人間が常識的にイメージする概念間の距離を算出する関連度計算法を提案した.従来,主に用いられていた概念の意味属性の一致度合から関連性を判断する意味関連度計算方式では,「自動車−車」のように意味的に近い単語に対しては精度の良い関連性判断が行えた.特に,概念ベースが辞書をベースに作成されたものである場合は,辞書的意味が近いかどうかを評価する意味関連度計算方式が優れていると言える.しかし,「道−車」のように意味的に近い単語ではなく連想により導き出せるような単語の間の関連性の判断は十分な精度が得られていなかった.そこで,本稿では,概念ベースに新聞記事からの共起情報を元に抽出した概念表記と属性を加え,さらに,概念表記と概念表記の共起情報から関連性を判断する共起関連度計算方式を提案した.この共起関連度計算方式と意味関連度計算方式を複合利用する意味共起関連度計算方式により,従来,関連性評価として用いていた意味関連度計算方式よりも的確に関連性の判断ができるようになったと考えられる.もちろん,適用目的が類似度の場合には意味関連度計算方式のみを用いることになる.\acknowledgment本研究を進めるにあたって,評価実験などで適切な支援を頂いた青田正宏氏に感謝いたします.また,本研究は文部科学省からの補助を受けた同志社大学の学術フロンティア研究プロジェクトにおける研究の一環として行った.\begin{thebibliography}{}\bibitem[\protect\BCAY{Fujii,Inui,Tokunaga\BBA\Tanaka}{Fujii\Jetal}{1998}]{Fujii}Fujii,A.,Inui,K.,Tokunaga,T.\BBACOMMA\\BBA\Tanaka,H.\BBOP1998\BBCP.\newblock\JBOQSelectivesamplingforexample-basedwordsensedisambiguation\JBCQ\newblock{\BemComputationalLinguistics},{\Bbf24}(4),pp.573--597.\bibitem[\protect\BCAY{広瀬,渡部,河岡}{広瀬\Jetal}{2002}]{Hirose}広瀬幹規,渡部広一,河岡司\BBOP2002\BBCP.\newblock\JBOQ概念間ルールと属性としての出現頻度を考慮した概念ベースの自動精錬手法\JBCQ\\newblock信学技報,TL2001-49,pp.109--116.\bibitem[\protect\BCAY{井筒,渡部,河岡}{井筒\Jetal}{2002}]{Izutsu}井筒大志,渡部広一,河岡司\BBOP2002\BBCP.\newblock\JBOQ概念ベースを用いた連想機能実現のための関連度計算方式\JBCQ\\newblock情報科学技術フォーラムFIT2002,pp.159--160.\bibitem[\protect\BCAY{稲子,笠原,松澤}{稲子\Jetal}{2000}]{Inako}稲子希望,笠原要,松澤和光\BBOP2000\BBCP.\newblock\JBOQ複合語内単語共起による名詞の類似性判別\JBCQ\\newblock情報処理学会論文誌,{\Bbf41}(8),pp.2291--2298.\bibitem[\protect\BCAY{笠原,松澤,湯川,石川,河岡}{笠原\Jetal}{1993}]{kasahara1}笠原要,松澤和光,湯川高志,石川勉,河岡司\BBOP1993\BBCP.\newblock\JBOQアバウト推論のための多観点概念ベース--構築と評価\JBCQ\\newblock人工知能学会全国大会.\bibitem[\protect\BCAY{笠原,松澤,石川}{笠原\Jetal}{1997}]{kasahara4}笠原要,松澤和光,石川勉\BBOP1997\BBCP.\newblock\JBOQ国語辞書を利用した日常語の類似性判別\JBCQ\\newblock情報処理学会論文誌,{\Bbf38}(7),pp.1272--1283.\bibitem[\protect\BCAY{川島,石川}{川島\Jetal}{2003}]{Kawashima}川島貴広,石川勉\BBOP2003\BBCP.\newblock\JBOQ言葉の意味に関する類似性判別能力における概念ベースとシソーラスとの性能比較\JBCQ\\newblock情報処理学会第65回全国大会,2M-1.\bibitem[\protect\BCAY{小嶋,伊藤}{小嶋\Jetal}{1997}]{Kojima}小嶋秀樹,伊藤昭\BBOP1997\BBCP.\newblock\JBOQ文脈依存的に単語間の意味距離を計算する一手法\JBCQ\\newblock情報処理学会論文誌,{\Bbf38}(3),pp.482--489.\bibitem[\protect\BCAY{小島,渡部,河岡}{小島\Jetal}{2002}]{KKojima}小島一秀,渡部広一,河岡司\BBOP2002\BBCP.\newblock\JBOQ連想システムのための概念ベース構成法--属性信頼度の考え方に基づく属性重みの決定--\JBCQ\\newblock自然言語処理,{\Bbf9}(5),pp.93--110.\bibitem[\protect\BCAY{小島,渡部,河岡}{小島\Jetal}{2004}]{KKojima2}小島一秀,渡部広一,河岡司\BBOP2004\BBCP.\newblock\JBOQ連想システムのための概念ベース構成法--語間の論理的関係を用いた属性拡張--\JBCQ\\newblock自然言語処理,{\Bbf11}(3),pp.21--38.\bibitem[\protect\BCAY{黒橋,長尾}{黒橋\Jetal}{1992}]{Kurohashi}黒橋禎夫,長尾真\BBOP1992\BBCP.\newblock\JBOQ長い日本語文における並列構造の推定\JBCQ\\newblock情報処理学会論文誌,{\Bbf33}(8),pp.1022--1031.\bibitem[\protect\BCAY{長尾}{長尾\Jetal}{1996}]{Nagao}長尾真編\BBOP1996\BBCP.\newblock自然言語処理,\newblock岩波書店.\bibitem[\protect\BCAY{NTTコミュニケーション科学研究所}{NTTコミュニケーション科学研究所\Jetal}{1997}]{NTT}NTTコミュニケーション科学研究所\BBOP1997\BBCP.\newblock\JBOQ日本語語彙体系\JBCQ\\newblock岩波書店,1997.\bibitem[\protect\BCAY{岡本,石崎}{岡本\Jetal}{2001}]{Okamoto}岡本潤,石崎俊\BBOP2001\BBCP.\newblock\JBOQ概念間距離の定式化と電子化辞書との比較\JBCQ\\newblock自然言語処理,{\Bbf8}(4),pp.37--54.\bibitem[\protect\BCAY{大井,隅田,飯田}{大井\Jetal}{1997}]{Ooi}大井耕三,隅田英一郎,飯田仁\BBOP1997\BBCP.\newblock\JBOQ意味的類似性と多義解消を用いた文書検索手法\JBCQ\\newblock自然言語処理,{\Bbf4}(3),pp.51--70.\bibitem[\protect\BCAY{Salton\BBA\McGill}{Salton\BBA\McGill}{1993}]{salton}Salton,G.\BBACOMMA\\BBA\McGill,M.\BBOP1993\BBCP.\newblock{\BemIntroductiontomodernInformationRetrieval},\newblockMcGraw-Hill.\bibitem[\protect\BCAY{坂田,渡部,河岡}{坂田\Jetal}{2004}]{Sakata}坂田光広,渡部広一,河岡司\BBOP2004\BBCP.\newblock\JBOQ関連度と属性の情報価値を考慮した概念ベースの自動精錬手法\JBCQ\\newblock同志社大学理工学研究報告,(印刷中).\bibitem[\protect\BCAY{Schutze}{Schutze}{1998}]{Schutze}Schutze,H.\BBOP1998\BBCP.\newblock\JBOQAutomaticwordsensediscrimination\JBCQ\newblock{\BemComputationalLinguistics},{\Bbf24}(1),pp.97--123.\bibitem[\protect\BCAY{Sumita\BBA\Iida}{Sumita\Jetal}{1992}]{Sumita}Sumita,E.\BBACOMMA\\BBA\Iida,H.\BBOP1992\BBCP.\newblock\JBOQExample-basedtransferofJapaneseadnominalparticlesintoEnglish\JBCQ\newblock{\BemIEICETransactionsonInformationandSystems}\newblock,{\BbfE75-D}(4),pp.585--594.\bibitem[\protect\BCAY{浮田,渡部,河岡}{浮田\Jetal}{1998}]{Ukita}浮田知彦,渡部広一,河岡司\BBOP1998\BBCP.\newblock\JBOQ概念間の関連度計算への遺伝的アルゴリズムの適用\JBCQ\\newblock情報処理学会春期全国大会,1U-2.\bibitem[\protect\BCAY{Uramoto}{Uramoto}{1994}]{Uramoto}Uramoto,N.\BBOP1994\BBCP.\newblock\JBOQExample-basedwordsensedisambiguation\JBCQ\newblock{\BemIEICETransactionsonInformationandSystems}\newblock,{\BbfE77-D}(2),pp.240--246.\bibitem[\protect\BCAY{内海}{内海\Jetal}{2002}]{Utsumi}内海彰\BBOP2002\BBCP.\newblock\JBOQ言語と類似性\JBCQ\\newblock人工知能学会誌,{\Bbf17}(1),pp.8--13.\bibitem[\protect\BCAY{渡部,河岡}{渡部\Jetal}{2001}]{Watabe}渡部広一,河岡司\BBOP2001\BBCP.\newblock\JBOQ常識的判断のための概念間の関連度評価モデル\JBCQ\\newblock自然言語処理,{\Bbf8}(2),pp.39--54.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.工学博士.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会,日本知能情報ファジィ学会各会員.}\bioauthor{奥村紀之}{2003年同志社大学工学部知識工学科卒業.2005年同大学院工学研究科知識工学専攻博士前期課程修了.同年,同志社大学大学院工学研究科知識工学専攻博士後期課程入学.主に,概念処理の研究に従事.}\bioauthor{河岡司}{1966年大阪大学工学部通信工学科卒業.1968年同大学院修士課程修了.同年,日本電信電話公社入社,情報通信網研究所知識処理研究部長,NTTコミュニケーション科学研究所所長を経て,現在同志社大学工学部教授.工学博士.主にコンピュータネットワーク,知識情報処理の研究に従事.言語処理学会,人工知能学会,電子情報通信学会,情報処理学会,IEEE(CS)各会員.}\end{biography}\end{document}
V12N05-02
\section{はじめに} 近年,コーパスを利用した機械翻訳の研究においては,翻訳システムに不足している翻訳知識を人手で増強していく際のコストを軽減する目的で,対訳コーパスやコンパラブルコーパス等の多言語コーパスから様々な翻訳知識を獲得する手法の研究が行なわれてきた~\cite{Matsumoto00a}.これまでに研究されてきた翻訳知識獲得の手法は,大きく,対訳コーパスからの獲得手法とコンパラブルコーパスからの獲得手法に分けられる.通常,対訳コーパスからの獲得(例えば,\cite{Gale91a})においては,文の対応の情報を利用することにより,片方の言語におけるタームや表現について,もう一方の言語における訳の候補が比較的少数に絞られるため,翻訳知識の獲得は相対的には容易といえる.ただし,そのような対訳コーパスを人手で整備する必要がある点が短所である.一方,コンパラブルコーパスからの獲得(例えば,\cite{Rapp95a,Fung98a})では,各タームの周囲の文脈の類似性を言語横断して測定することにより,訳語対応の推定が行われる.情報源となるコーパスを用意するコストは小さくて済むが,対訳コーパスと比較すると,片方の言語のコーパス中のタームや表現の訳がもう一方の言語のコーパスに出現する可能性が相対的に低いため,翻訳知識の獲得は相対的に難しく,高性能に翻訳知識獲得を行うのは容易ではない.そこで,本論文では,翻訳知識獲得の目的において,人手で整備された対訳コーパスよりも利用可能性が高く,一般のコンパラブルコーパスよりも翻訳知識の獲得が容易である情報源として,日英二言語で書かれた報道記事に着目する.近年,ウェブ上の日本国内の新聞社などのサイトには,日本語だけでなく英語で書かれた報道記事も掲載されており,これらの英語記事においては,同一時期の日本語記事とほぼ同じ内容の報道が含まれている.これらの日本語および英語の報道記事のページにおいては,最新の情報が日々刻々と更新されており,分野特有の新出語(造語)や言い回しなどの翻訳知識を得るための情報源として,非常に有用である.そこで,本論文では,これらの報道記事のページから日本語および英語など,異なった言語で書かれた文書を収集し,多種多様な分野について,分野固有の人名・地名・組織名などの固有名詞(固有表現)や事象・言い回しなどの翻訳知識を自動または半自動で獲得するというアプローチをとる.本論文のアプローチは,情報源となるコーパスを用意するコストについては,コンパラブルコーパスを用いるアプローチと同等に小さく,しかも同時期の報道記事を用いるため,片方の言語におけるタームや表現の訳がもう一方の言語の記事の方に出現する可能性が高く,翻訳知識の獲得が相対的に容易になるという大きな利点がある.\begin{figure}\begin{center}\epsfile{file=FIG/pic01.ai,scale=0.6}\end{center}\vspace*{-.0cm}\caption{日英関連報道記事からの翻訳知識獲得のプロセス}\label{fig:pic01}\end{figure}本論文の翻訳知識獲得のアプローチにおいて,日英関連報道記事から翻訳知識を獲得するプロセスの一般的な流れを図~\ref{fig:pic01}に示す.まず,翻訳知識獲得のための情報源収集を目的として,同時期に日英二言語で書かれたウェブ上の新聞社やテレビ局のサイトから,報道内容がほぼ同一もしくは密接に関連した日本語記事および英語記事を検索する.この際には,既存の対訳辞書,翻訳ソフトの翻訳知識を利用することにより,日本語記事と英語記事の間の関連性を測定する.そして,取得された関連記事対に対し,内容的に対応する翻訳部分の推定を行い,その推定範囲から二言語間の訳語対応を推定し,訳語対の獲得を行う.ここで,従来のコンパラブルコーパスからの訳語対獲得のアプローチにおいては,原理的には,コンパラブルコーパスに出現する全ての日本語タームおよび英語タームの組を訳語対応の候補としていた.一方,本論文のアプローチでは,予備調査の結果~\cite{Utsuro03b,Horiuchi03aj}をふまえて,関連報道記事の組において共起した日本語ターム,および,英語タームの組を収集し,これを訳語対応の候補としており,この点が特徴的である\footnote{予備調査の結果~\cite{Utsuro03b,Horiuchi03aj}においては,関連報道記事の組において共起した日本語ターム,および,英語タームの組を訳語対応の候補とすることにより,不要な訳語対応の候補を大幅に削減できることが分かっており,本論文のアプローチが適切であることの裏付けとなっている.}.ただし,本論文で述べる手法の範囲では,現在のところ,関連記事中で内容的に対応する翻訳部分の推定は行なっておらず,関連記事対全体から訳語対応を推定している.また,訳語対応を推定する尺度としては,関連記事組における訳語候補の共起を利用する方法を適用し,評価実験を通して,この方法が有効であることを示す.特に,評価実験においては,訳語対応を推定すべき英語タームの出現頻度の分布に応じて,訳語対応推定性能がどのように変化するかを調査し,その相関を評価する.以下,\ref{sec:clir}~節では,翻訳知識獲得のための情報源収集を目的として,言語を横断して,報道内容がほぼ同一もしくは密接に関連した日本語記事および英語記事を検索する処理について述べる.次に,\ref{sec:msr}~節では,関連記事組の集合から訳語対応を推定する手法について述べる.\ref{sec:eval}~節において,実験を通して提案手法の評価を行ない,\ref{sec:related}~節において,関連研究について詳細に述べる. \section{言語横断関連報道記事検索} \label{sec:clir}\begin{figure}\begin{center}\epsfile{file=FIG/clir.ai,scale=0.5}\caption{日英関連報道記事検索のプロセス}\label{fig:clir}\end{center}\end{figure}本論文の翻訳知識獲得のアプローチにおける言語横断関連報道記事検索の流れを図~\ref{fig:clir}に示す.言語横断関連報道記事検索においては,まず,新聞社やテレビ局のサイトから英語記事$d_E$と日本語記事$d_J$を取得する.次に,内容的にほぼ同一の日英記事対は,お互いの日付が前後数日程度の範囲にあるという調査結果~\cite{Horiuchi02aj,Horiuchi02bj}に基づいて,日付の情報を用いて検索対象の記事を絞りこむ(実際に,評価実験において用いた日英記事間の日付の幅の詳細については,\ref{subsec:expr_sb}~節で述べる.).そして,取得した英語記事$d_E$と日本語記事$d_J$の間の類似性を測るために,翻訳ソフト・対訳辞書・数値表現翻訳規則などの情報源を利用して英語記事$d_E$を日本語訳に変換する.ここで,言語横断関連報道記事検索の性能において,翻訳ソフト(オムロン社製「翻訳魂」),対訳辞書(英辞郎Ver.37,85万語),および,数値表現翻訳規則(規則数約300)の三種類の情報源の性能を比較した結果においては,翻訳ソフトが最も高い検索性能を達成した~\cite{Hamamoto03aj}.そこで,本論文の評価実験においても,翻訳ソフトを用いて英語記事の日本語訳を行った後,関連記事検索を行った結果を用いる\footnote{\cite{Hino04aj}においては,訳語対応推定の性能において,翻訳ソフトを用いて日英関連報道記事を検索した結果,および,対訳辞書を用いて日英関連報道記事を検索した結果を比較しているが,ここでも,翻訳ソフトを用いた方が高い性能となっている.}.次に,英語記事$d_E$の日本語訳から日本語訳頻度ベクトル$v_{trJ}(d_E)$を,また,日本語記事$d_J$から日本語頻度ベクトル$v(d_J)$を,それぞれ作成する.ここでは,日本語形態素解析システム「茶筌」\footnote{{\tthttp://chasen.naist.jp/hiki/ChaSen/}}を用いてテキストを形態素列に分割し,平仮名語の高頻度機能的表現26語を不要語として削除した.また,頻度ベクトルにおいては,接頭詞,名詞,動詞によって構成され,形態素長が5以内の形態素列を次元とした\footnote{各記事の頻度ベクトルの次元としては,\ref{subsec:estm-cv}~節で述べる文単位の文脈頻度ベクトルの次元と同じものを用いている.予備調査の結果,文脈頻度ベクトルを用いた訳語対応推定においては,一形態素のみを次元とした文脈頻度ベクトルでは不十分であるが,5形態素長以内の形態素列を次元としておけば,周囲の文脈として必要な表現がほぼ含まれることが分かっている.これは,5形態素を越える長さの形態素列を用いないと,周囲の文脈の特性を表現しきれない,ということが極めて稀であるからである.一方,関連記事検索の性能を評価した予備調査の結果においては,名詞および動詞の一形態素のみを次元とした場合と,5形態素長以内の形態素列を次元とした場合との間の性能差はわずかであった.以上をふまえて,本論文では,頻度ベクトルの次元としては,形態素長が5以内の形態素列を用いる.}.最後に,頻度ベクトル間で余弦類似度を計算し,余弦類似度が下限値以上の記事を関連記事検索結果とする.ここで,この検索結果から,日英関連記事組を作成する場合には,英語記事を検索質問として関連日本語記事を収集する場合と,逆に,日本語記事を検索質問として関連英語記事を収集する場合の二通りが考えられる.詳細については\ref{subsec:expr_sb}~節で述べるが,本論文の評価実験において対象とした新聞社・テレビ局のサイトは日本国内のもので,掲載される報道記事数は,日本語記事数が英語記事数の4$\sim$6倍となっている.したがって,検索質問として日本語記事を用いる場合よりも,検索質問として英語記事を用いた場合の方が,関連記事組が収集できる割合が大きい.実際に,検索質問として英語記事を用いた場合には,検索質問の約半数に対して関連記事組が収集できることが分かっている~\cite{Horiuchi02aj,Horiuchi02bj}.これらの調査結果をふまえて,本論文では,英語記事を検索質問として関連日本語記事を収集することにより,日英関連記事組を作成する.ここで,検索質問となる英語記事$d_E$の日本語訳頻度ベクトル$v_{trJ}(d_E)$との間で余弦類似度の値が下限値$L_d$以上となる日本語記事の集合を$D_J$とする.{\begin{eqnarray*}D_J&=&\Bigl\{d_J\mid\cos(v_{trJ}(d_E),v(d_J))\geqL_d\Bigr\}\end{eqnarray*}}そして,$D_J$中の記事を結合することにより一つの日本語記事$D'_J$を構成し,このような英日関連記事組$\langled_E,D'_J\rangle$を集めた集合を$RC_{EJ}$とする(ここで,$D_J$中の記事を結合して一つの日本語記事$D'_J$を構成するのは,\ref{subsec:estm-cont}~節において,関連記事組の集合$RC_{EJ}$を疑似的な対訳コーパスとみなして訳語対応の推定を行なうためである.).{\begin{eqnarray}\label{eqn:RCej}RC_{EJ}&=&\Bigl\{\langled_E,D'_J\rangle\midD_J\neq\emptyset\Bigr\}\end{eqnarray}}\begin{table}\begin{center}\caption{$2\times2$分割表}\label{tab:2t2}{\begin{center}\begin{tabular}{c|cccc}\hline&$t_J$&&&$\negt_J$\\\hline$t_E$&$df(t_E,t_J)=a$&&&$df(t_E,\negt_J)=b$\\$\negt_E$&$df(\negt_E,t_J)=c$&&&$df(\negt_E,\negt_J)=d$\\\hline\end{tabular}\end{center}}\end{center}\end{table} \section{日英関連報道記事における訳語対応の推定} \label{sec:msr}\vspace*{-.0cm}本論文では,関連記事組の集合$RC_{EJ}$から訳語対応を推定する方法として,関連記事組の集合を疑似的な対訳コーパスとみなして,対訳コーパスにおける共起頻度を用いた訳語対応推定尺度を適用する方法,および,関連記事組の集合をコンパラブルコーパスとみなして,コンパラブルコーパスからの訳語対応推定手法を適用する方法の二種類を比較する.本節では,関連記事組の集合を疑似的な対訳コーパスとみなす場合の方法を\ref{subsec:estm-cont}~節で,関連記事組の集合をコンパラブルコーパスとみなす場合の方法を\ref{subsec:estm-cv}~節で,それぞれ説明する.以下,訳語対応推定の対象となる英語ターム(連語または単語)を$t_E$,日本語ターム(連語または単語)を$t_J$として,$t_E$と$t_J$の間の訳語対応推定値を$corr_{EJ}(t_E,t_J)$とする.\subsection{関連記事組における訳語候補の共起および分割表を用いた推定}\label{subsec:estm-cont}関連記事組の集合$RC_{EJ}$を疑似的な対訳コーパスとみなして訳語対応の推定を行う場合は,対訳コーパスからの訳語対応推定の場合と同様に,一般に共起推定でよく用いられる相互情報量,$\phi^2$統計,dice係数,対数尤度比などの尺度\cite{Matsumoto00a}が適用可能である.これらの尺度を比較したところ,訳語対応推定の性能としては,$\phi^2$統計,dice係数,対数尤度比がほぼ同程度の性能となり,相互情報量はやや劣るという結果が得られた.そこで,本論文では,$t_E$と$t_J$の統計的相関を測定する尺度としては,$\phi^2$統計を用いることとし,これを訳語対応推定値$corr_{EJ}(t_E,t_J)$とする.具体的には,$RC_{EJ}$中の関連記事組$\langled_E,D'_J\rangle$において$t_E$と$t_J$が共起する記事組数$df(t_E,t_J)(=aとする)$,$t_E$のみが含まれ$t_J$が含まれない記事組数$df(t_E,\negt_J)(=bとする)$,$t_J$のみが含まれ$t_E$が含まれない記事組数$df(\negt_E,t_J)(=cとする)$,$t_E$も$t_J$も含まれない記事組数$df(\negt_E,\negt_J)(=dとする)$を用いて表1の$2\times2$分割表を構成する.この$2\times2$分割表を用いると,$t_E$と$t_J$の$\phi^2$統計は以下で与えられる.{\begin{eqnarray*}\phi^2(t_E,t_J)&=&\frac{(ad-bc)^2}{(a+b)(a+c)(b+d)(c+d)}\end{eqnarray*}}\subsection{文脈の類似性を用いた推定}\label{subsec:estm-cv}関連記事組の集合$RC_{EJ}$をコンパラブルコーパスとみなして訳語対応の推定を行う場合は,$t_E$および$t_J$についての文単位の文脈頻度ベクトルを求め,これらの文脈頻度ベクトル間の類似性を用いて$t_E$と$t_J$の訳語対応を推定する.具体的には,前節で述べたように,英語記事$d_E$に対する日本語訳頻度ベクトルを$v_{trJ}(d_E)$として,$d_E$において$t_E$が出現する文の日本語訳の頻度ベクトルを$v_{trJ}(d_E)$から求め,これを加算して,$t_E$に対する文単位の文脈頻度ベクトル$cv_{trJ}(t_E)$を構成する.同様に,日本語記事$d_J$を集めた記事集合において$t_J$が出現する文について,それらの頻度ベクトルを加算することにより,$t_J$に対する文単位の文脈頻度ベクトル$cv(t_J)$を構成する.そして,この文脈頻度ベクトル間の余弦$\cos(cv_{trJ}(t_E),cv(t_J))$を$corr_{EJ}(t_E,t_J)$とする. \section{実験および評価} \label{sec:eval}\subsection{言語横断関連報道記事検索}\label{subsec:expr_sb}国内の新聞社等三社のウェブサイトから,表~\ref{tab:01}に示す日数・記事数・記事長の英語および日本語の報道記事を収集した.また,表~\ref{tab:01}には,言語横断関連報道記事検索の性能の評価のために用いる評価用日英記事対数も示す.ここで,本論文では,報道内容がほぼ同一の日英記事対のことを「同一内容」の記事対とよび,報道内容は同一ではないが,記事として密接に関連している日英記事対(例えば,事件発生に関する報道記事に対して,犯人逮捕に関する続報記事など)のことを「関連話題」の記事対とよぶ.次に,\ref{sec:clir}~節で述べたように,英語の記事に対してほぼ同一の内容の日本語記事が存在する日付の幅を設定し,その日付の幅の範囲で言語横断関連報道記事検索を行った.評価用日英記事対のうちの英語記事を検索質問として,日本語記事を検索した場合の適合率・再現率の変化をプロットしたものを図~\ref{fig:recSim}に示す.ここで,評価用(同一内容または関連話題)記事対の集合を$DP_{ref}$,記事間類似度の下限値を$L_d$とすると,この場合の適合率・再現率の定義は,{\begin{eqnarray*}適合率&=&\frac{|\{\langled_E,d_J\rangle\mid\langled_E,d_J\rangle\inDP_{ref},\cos(d_E,d_J)\geqL_d\}|}{|\{d_E\mid\existsd'_J,\langled_E,d'_J\rangle\inDP_{ref},\existsd_J\cos(d_E,d_J)\geqL_d\}|}\\&&\\再現率&=&\frac{|\{\langled_E,d_J\rangle\mid\langled_E,d_J\rangle\inDP_{ref},\cos(d_E,d_J)\geqL_d\}|}{|\{\langled_E,d_J\rangle\mid\langled_E,d_J\rangle\inDP_{ref}\}|}\end{eqnarray*}}となる.また,表~\ref{tab:acq_art}には,記事間類似度下限$L_d$を変化させた場合に検索される記事数の一覧を示す.表~\ref{tab:acq_art}においては,各サイトについて用いた日付の幅もともに示す.ここで,「日本語記事数(重複あり)」の欄には,二つ以上の英語記事に対して重複して検索された日本語記事を重複して数えた記事数を示す.この結果から,類似度下限$L_d$が0.4や0.5の場合は,利用可能な記事数が著しく減少することが分かる.また,図~\ref{fig:recSim}においても,類似度下限$L_d$が0.4や0.5の場合は,再現率が大きく低下している.ここで,予備実験において,訳語対応推定が安定して行えるためには,一定規模以上の記事が必要であるという結果が得られていたため,以降の訳語対応推定は,類似度下限$L_d=0.3$の条件のもとで行う.\begin{table}\begin{center}\caption{記事の日数・記事数・平均記事長}\label{tab:01}\newcommand{\lw}[1]{}{\begin{tabular}{|c|c||c|c|c|c|c|c|}\hline&&&&一日の平&一記事の平均&\multicolumn{2}{|c|}{評価用記事対数}\\\cline{7-8}新聞社&&総日数&総記事数&均記事数&記事長(byte)&同一内容&関連話題\\\hline\hline&英語&935&23064&24.7&3228.9&\lw{28}&\lw{31}\\\cline{2-6}サイトA&日本語&941&96688&102.8&837.7&&\\\hline&英語&935&14587&15.6&3302.6&\lw{28}&\lw{82}\\\cline{2-6}サイトB&日本語&941&81652&86.8&867.9&&\\\hline&英語&935&1553&1.6&1368.6&\lw{24}&\lw{33}\\\cline{2-6}サイトC&日本語&941&9660&10.2&774.3&&\\\hline\end{tabular}}\vspace*{.5cm}\caption{記事間類似度の下限を満たす日英報道記事の数}\label{tab:acq_art}{\begin{tabular}{|c|c||r|r|r|}\hline&\multicolumn{1}{|c||}{類似度下限$L_d$}&\multicolumn{1}{|c|}{0.3}&\multicolumn{1}{|c|}{0.4}&\multicolumn{1}{|c|}{0.5}\\\hline\hline&\multicolumn{1}{|c||}{日付幅(日)}&\multicolumn{3}{|c|}{$\pm$2}\\\cline{2-5}サイトA&英語記事数&6073&2392&701\\\cline{2-5}&日本語記事数&12367&3444&882\\\cline{2-2}\cline{3-5}&日本語記事数(重複あり)&16507&3840&918\\\hline\hline&\multicolumn{1}{|c||}{日付幅(日)}&\multicolumn{3}{|c|}{$\pm$2}\\\cline{2-5}サイトB&英語記事数&4316&1658&396\\\cline{2-5}&日本語記事数&8108&2349&499\\\cline{2-2}\cline{3-5}&日本語記事数(重複あり)&11451&2694&523\\\hline\hline&\multicolumn{1}{|c||}{日付幅(日)}&\multicolumn{3}{|c|}{$\pm$4}\\\cline{2-5}サイトC&英語記事数&765&413&159\\\cline{2-5}&日本語記事数&1918&673&192\\\cline{2-2}\cline{3-5}&日本語記事数(重複あり)&2406&766&203\\\hline\end{tabular}}\end{center}\end{table}\begin{figure*}\begin{center}\begin{tabular}{c}サイトA\\\epsfile{file=FIG/yom-pre+rec.eps,scale=0.3}\\サイトB\\\epsfile{file=FIG/asa-pre+rec.eps,scale=0.3}\\サイトC\\\epsfile{file=FIG/tbs-pre+rec.eps,scale=0.3}\end{tabular}\caption{日英関連記事検索の適合率・再現率(記事間類似度$\geq\L_d$)}\label{fig:recSim}\end{center}\end{figure*}\subsection{英語・日本語訳語組候補の条件}本論文では,実装の都合上,英語・日本語間で訳語組候補となるタームに対して,タームを構成する単語もしくは形態素の数に上限を設け,さらに,タームを構成する単語もしくは形態素の品詞にも制限を設ける.まず,タームを構成する単語もしくは形態素の数については,上限を5とする.この条件により,次節で選定される評価用英語ターム(およびその正解日本語訳語)については,構成単語数あるいは構成形態素数が5を越えるものは除外される.また,英語タームとしては名詞句を対象とすることとし,Charniakparser\footnote{\tthttp://www.cs.brown.edu/people/ec/}を用いて各英語単語の品詞付けを行い,英語単語列として以下の表現を満たすものだけを対象とする(ただし,$*$は0回以上の繰り返し,$+$は1回以上の繰り返しを表す.).\begin{itemize}\item$W_1=[形容詞|名詞|現在分詞|\hspace*{0cm}過去分詞|動名詞]*名詞$\item$W_2=([形容詞|名詞|現在分詞|過去分詞|\hspace*{0cm}動名詞]+,)\ast\\\hspace*{2cm}[形容詞|名詞|現在分詞|過去分詞|\hspace*{0cm}動名詞]+\hspace{1mm}and\hspace{2mm}\\\hspace*{2cm}[形容詞|名詞|現在分詞|過去分詞|\hspace*{0cm}動名詞]\ast名詞$\end{itemize}日本語タームについても,名詞句相当のものを対象とする.具体的には,接頭詞,名詞,動詞によって構成される形態素列を対象とする(構成要素に動詞を含めたのは,連用形の名詞用法に対応するためである.ただし,現時点では,活用形の照合は行なっていないため,日本語タームの候補として適切でないものも混入している.).さらに,\ref{sec:clir}~節の(\ref{eqn:RCej})式において,英日関連記事組を集めて構成した集合$RC_{EJ}$中の関連記事組$\langled_E,D'_J\rangle$において,英語ターム$t_E$と日本語ターム$t_J$が共起する記事組数$df(t_E,t_J)$に下限を設け,これを2以上とする.\subsection{評価用英語タームの選定}\label{subsec:perform}本論文の訳語対応推定の評価実験の範囲では,訳語対応推定の対象とする英語タームを自動抽出することは行わず,訳語対応推定の評価用英語タームを人手で選定しておき\footnote{既存のターム抽出技術を用いることにより,一定レベルの性能で英語タームを抽出することは可能である.本論文の訳語対応推定の枠組において,英語ターム自動抽出の技術を併用すれば,訳語組を全自動で獲得する一連の流れの性能を評価することができると考えられる.},これらに対して日本語訳語候補を自動抽出し,日本語訳語候補の順位付け性能の評価を行った.特に,本論文では,既存の翻訳ソフト(オムロン社製「翻訳魂」)によって翻訳することができず,対訳辞書(英辞郎Ver.37,85万語)にも存在しない英語タームを評価用英語タームとして選定した.ここで,英語ターム出現頻度の計算を効率よく行うために,PrefixSpan~\cite{Pei01a}\footnote{{\tthttp://chasen.org/\~{}taku/software/prefixspan/}}を用いて頻度5以上の単語列の頻度を測定した.そして,頻度5以上10未満,10以上20未満,20以上,の三種類の出現頻度分布(ただし,サイトCは,他のサイトに比較して記事数が少ないため,頻度5以上10未満,および,10以上,の二種類の分布とした.)で単語列集合を分割し,それぞれの集合に対して,以下の手順によって評価用英語タームを選定した.\begin{table*}\begin{center}\caption{評価用英語ターム数の分布}\label{tb:03}{\footnotesize\begin{tabular}{|c|c||c|c|c|}\multicolumn{5}{c}{(a)\\全体}\\\hlineサイト&頻度&5$\sim$10&10$\sim$20&20以上\\\hline\hline&MT&117&158&531\\\cline{2-5}&辞書&1391&1718&2507\\\cline{2-5}A&その他&4423&3483&2786\\\cline{2-5}&総数&5931&5359&5824\\\hline\hline&MT&104&214&791\\\cline{2-5}&辞書&1098&1367&1968\\\cline{2-5}B&その他&3105&2364&1868\\\cline{2-5}&総数&4292&3835&4167\\\hline\hline&MT&103&\multicolumn{2}{|c|}{164}\\\cline{2-5}&辞書&226&\multicolumn{2}{|c|}{205}\\\cline{2-5}C&その他&313&\multicolumn{2}{|c|}{152}\\\cline{2-5}&総数&585&\multicolumn{2}{|c|}{424}\\\hline\end{tabular}\vspace*{.3cm}\begin{tabular}{|c|c||c|c|c||c|c|c||c|c|c|c|c|}\multicolumn{11}{c}{(b)\\$\phi^2統計値$ごとの分布}\\\hline&&\multicolumn{3}{|c||}{$\phi^2統計値$1$\sim$0.15}&\multicolumn{3}{|c||}{$\phi^2統計値$0.15$\sim$0.07}&\multicolumn{3}{|c|}{$\phi^2統計値$上位100}\\\cline{2-11}サイト&頻度&5$\sim$10&10$\sim$20&20以上&5$\sim$10&10$\sim$20&20以上&5$\sim$10&10$\sim$20&20以上\\\hline\hline&MT&58&82&289&32&37&147&38&110&103\\\cline{2-11}&辞書&285&407&727&229&304&570&73&166&157\\\cline{2-11}A&評価用&148&116&131&51&48&56&100&100&100\\\cline{2-11}&除外&866&671&687&800&684&618&199&75&66\\\cline{2-11}&総数&1357&1276&1834&1112&1073&1391&397&381&360\\\hline\hline&MT&87&124&377&28&57&226&87&128&95\\\cline{2-11}&辞書&216&321&590&203&236&452&216&333&218\\\cline{2-11}B&評価用&104&71&102&25&45&26&100&100&100\\\cline{2-11}&除外&669&476&462&570&432&418&673&487&306\\\cline{2-11}&総数&1048&922&1298&808&740&995&1048&977&668\\\hline&MT&75&\multicolumn{2}{|c||}{114}&22&\multicolumn{2}{|c||}{43}&103&\multicolumn{2}{|c|}{164}\\\cline{2-11}&辞書&147&\multicolumn{2}{|c||}{125}&46&\multicolumn{2}{|c||}{60}&226&\multicolumn{2}{|c|}{205}\\\cline{2-11}C&評価用&43&\multicolumn{2}{|c||}{35}&10&\multicolumn{2}{|c||}{4}&57&\multicolumn{2}{|c|}{40}\\\cline{2-11}&除外&158&\multicolumn{2}{|c||}{68}&54&\multicolumn{2}{|c||}{33}&256&\multicolumn{2}{|c|}{112}\\\cline{2-11}&総数&379&\multicolumn{2}{|c||}{275}&123&\multicolumn{2}{|c||}{115}&585&\multicolumn{2}{|c|}{424}\\\hline\end{tabular}}\end{center}\end{table*}\begin{enumerate}\item英語タームグループの作成\item$\phi^2$統計値を用いた英語タームグループの整列\item評価用英語タームの選定\end{enumerate}以下,これらの手順の詳細について順に述べる.\subsubsection{英語タームグループの作成}前節で述べた通り,本論文では,英語タームとしては名詞句を対象とする.そこで,まず,前節の制限を満たす英語単語列を抽出する.次に,単語列の上で包含関係にある単語列同士をグルーピングし,英語タームグループを作成した.このとき,多くの場合,一つの英語タームグループ中において,適切な英語タームとして認定すべき単語列は高々一つ程度であるので,実質的なターム数はタームグループ数とほぼ等しい.このことをふまえて,頻度5以上10未満,10以上20未満,20以上,の三種類の出現頻度分布ごとの英語タームの内訳を表~\ref{tb:03}(a)に示す(ただし,サイトCについては,頻度5以上10未満,および,10以上,の二種類の出現頻度分布とする).英語タームの内訳は,翻訳ソフトで翻訳に成功した英語ターム数(「MT」の欄),対訳辞書に存在する英語ターム数(「辞書」の欄),および,翻訳ソフトによって翻訳することができず,対訳辞書にも存在しない英語ターム数(「その他」の欄)によって示す.ただし,翻訳ソフトで翻訳できる英語タームおよび対訳辞書に存在する英語タームの間には重複があり得る.\subsubsection{$\phi^2$統計値を用いた英語タームグループの整列}次に,ある英語タームグループについて,その要素となる英語ターム$t_E$が任意の日本語訳語候補に対して持つ$\phi^2$統計値$\phi^2(t_E,t_J)$の最大値を,そのグループの持つ$\phi^2$統計値とみなして,英語タームグループを$\phi^2$統計値の降順に整列した.なお,詳細は\ref{subsec:estm-eval}~節で述べるが,予備実験\cite{Hino04aj}において,\ref{subsec:estm-cont}~節の$\phi^2$統計を用いる方法と,\ref{subsec:estm-cv}~節の文脈ベクトルを用いる方法を比較した結果では,$\phi^2$統計を用いた方法の方が高い性能であった.そこで,本論文では,$\phi^2$統計値の降順に整列した英語タームグループを用いて評価用英語タームを選定することとした.\subsubsection{評価用英語タームの選定}この整列済み英語タームグループのうち,「その他」に分類される英語タームグループを人手で選別し,以下の個数の評価用英語タームを選定して,合計三種類の評価用英語タームセットを作成した.\begin{enumerate}\item[(i)]$\phi^2$統計値の決められた範囲($1\sim0.15$および\hspace*{0cm}$0.15\sim0.07$)から,無作為に評価用英語ターム\hspace*{0cm}を100個ずつ選定した.ただし,100個に満たない場合は可能な限り選定する.\item[(ii)]上位の英語タームグループに含まれる英語タームから順に評価用英語タームを100個選定した.\end{enumerate}ただし,選別の際には,各新聞記事を参照しながら,冗長部分を持つもの,別の単語列の断片であるもの,一般的で訳語が一意に定まらないようなもの,および,人名と地名を除外した.その上で,日本語関連記事から収集した日本語訳語候補に正解訳語が含まれている,いないに関わらず,英語タームが妥当であると判断したものを選定した\footnote{この条件により,本論文の訳語対応推定の評価は,各サイトから収集した日英関連記事組において,正解の日本語訳語がどの程度の割合で含まれているかを考慮した評価となっていると言える.実際に,正解の日本語訳語が含まれる度合はサイトによって異なっており,その詳細については,次節で考察する.}\footnote{厳密には,正解である日本語訳語が前節の日本語タームの条件(接頭詞,名詞,動詞によって構成され,形態素長が5以内の形態素列)を満たさない場合には,訳語候補の日本語タームとすることができない.このような場合には,正解日本語訳語との間の訳語対応推定が不可能であるため,評価用英語タームとしては選定しなかった.}.この手順から分かるように,「その他」に分類される英語タームは,人手による選定の際に,訳語対応推定対象としては適切でないと判断して除外したもの,訳語対応推定対象として適切であり,評価用英語タームとして選定されたもの,および,人手による選別を受けないまま残されたものの三種類のタームから構成される.この結果,サイトA,および,サイトBについては,頻度5以上10未満,10以上20未満,20以上の三通りの頻度分布ごとにこれらの評価用英語タームセットを作成したため,合計で9個のタームセットとなった.また,サイトCについては,頻度5以上10未満,10以上の二通りの頻度分布ごとにこれらの評価用英語タームセットを作成したため,合計で6個のタームセットとなった.これらのタームセットにおける英語ターム数の内訳を表~\ref{tb:03}(b)に示す\footnote{実際は,英語タームグループ数だが,上述の通り,英語ターム数と英語タームグループ数はほぼ等しい.}.英語ターム数の内訳は,各タームセットについて,翻訳ソフトで翻訳に成功した英語ターム数(「MT」の欄),対訳辞書に存在する英語ターム数(「辞書」の欄),人手で選定した英語ターム数(「評価用」の欄---ただし,100個を超える場合には,実際の評価実験において使用したのは100個のみ),および,上記の理由により除外した英語ターム数(「除外」の欄)によって示す~\footnote{具体的には,「$\phi^2統計値1\sim0.15$」および「$\phi^2統計値0.15\sim0.07$」の「評価用」の欄には,英語タームの$\phi^2統計値$について,それぞれの範囲内で無作為に評価用英語タームを選定した場合のターム数を示し,「$\phi^2$統計値上位100」の「評価用」の欄には,$\phi^2統計値$の降順に,評価用英語タームを100個選定した場合のターム数を示す.}.ただし,翻訳ソフトで翻訳できる英語タームおよび対訳辞書に存在する英語タームの間には重複があり得る.実際に選定した評価用ターム組の例を表~\ref{tab:ex}に示す.表~\ref{tb:03}(b)において,例えば,サイトAに対して$\phi^2$統計値が1$\sim$0.15,頻度分布が5以上10未満の英語タームに注目すると,総数は1,357個,対訳辞書のエントリに含まれたものが285個,翻訳ソフトで訳せたものが58個,対訳辞書のエントリに含まれず翻訳ソフトでも訳せず,訳語対応の獲得対象として判定したターム数は148個,対訳辞書のエントリに含まれず翻訳ソフトでも訳せないが,訳語対応の獲得対象とは判定されなかったターム数が866個となっている.表~\ref{tb:03}から分かるように,本論文における評価用英語タームの選定においては,「除外」と判定されるタームの割合が大きくなっている.{\begin{table}\begin{center}\caption{評価用日英ターム組の例}\label{tab:ex}\begin{tabular}{|c|c|}\hline英語ターム&日本語ターム\\\hline\hlineHighPublicProsecutorsOffice&高検\\\hlineEnvironmentMinistry&環境省\\\hlineJapaneseConsulateGeneral&日本総領事館\\\hlinediesel-poweredvehicles&ディーゼル車\\\hlineJapanCoastGuard&海上保安庁\\\hlinefertilizedeggs&受精卵\\\hlineTokyoDistrictPublicProsecutorsOffice&東京地検\\\hlineAumSupremeTruth&オウム真理教\\\hlineintellectualpropertyrights&知的財産権\\\hlinespecialstructuralreformzones&構造改革特区\\\hline\end{tabular}\end{center}\end{table}}\begin{figure}\begin{minipage}{1\hsize}\begin{center}(1)評価用英語タームのうち$\phi^2$統計値の上位100ターム\\[-.3cm]\epsfile{file=FIG/set1_context_phi2.ai,scale=1.0}\\(2)$\phi^2$統計値の上位1000タームグループから無作為に評価用英語タームを100ターム選定\\[-.3cm]\epsfile{file=FIG/set2_context_phi2.ai,scale=1.0}\end{center}\caption{訳語対応推定手法の比較(サイトA,頻度10以上の評価用英語ターム)}\label{fig:graph-cv-phi}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{1\hsize}\begin{center}\epsfile{file=FIG/yom_top100.ai,hscale=1.35,vscale=1.4}\epsfile{file=FIG/yom_1-015.ai,hscale=1.35,vscale=1.4}\epsfile{file=FIG/yom_015-007.ai,hscale=1.35,vscale=1.4}\end{center}\caption{英語タームの頻度分布及び$\phi^2統計値の分布$ごとの訳語対応推定性能(サイトA)}\label{fig:graph-A}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{1\hsize}\begin{center}\epsfile{file=FIG/asahi_top100.ai,hscale=1.35,vscale=1.4}\epsfile{file=FIG/asahi_1-015.ai,hscale=1.35,vscale=1.4}\epsfile{file=FIG/asahi_015-007.ai,hscale=1.35,vscale=1.4}\end{center}\caption{英語タームの頻度分布及び$\phi^2統計値の分布$ごとの訳語対応推定性能(サイトB)}\label{fig:graph-B}\end{minipage}\end{figure}\begin{figure}[t]\begin{minipage}{1\hsize}\begin{center}\epsfile{file=FIG/tbs_top100.ai,hscale=1.35,vscale=1.4}\epsfile{file=FIG/tbs_1-015.ai,hscale=1.35,vscale=1.4}\epsfile{file=FIG/tbs_015-007.ai,hscale=1.35,vscale=1.4}\end{center}\caption{英語タームの頻度分布及び$\phi^2統計値の分布$ごとの訳語対応推定性能(サイトC)}\label{fig:graph-C}\end{minipage}\end{figure}\subsection{訳語対応推定の性能}\label{subsec:estm-eval}\begin{table}\begin{center}\caption{訳語対応推定例({\bf太字:正解訳語})}\label{tab:est}\hspace*{.001cm}{\begin{tabular}{|c||c|c|c|}\hline英語ターム&順位&日本語訳語候補&訳語対応推定値\\\hline\hline&1&大阪高検&0.640\\\cline{2-4}&2&公安部長&0.450\\\cline{2-4}HighPublicProsecutorsOffice&2&三井環&0.450\\\cline{2-4}&4&登録免許税&0.360\\\cline{2-4}&{\bf5}&{\bf高検}&{\bf0.290}\\\hline\hline&{\bf1}&{\bf環境省}&{\bf0.542}\\\cline{2-4}EnvironmentMinistry&2&国定公園&0.099\\\cline{2-4}&3&鳥獣保護&0.079\\\hline\hline&1&連行事件&0.521\\\cline{2-4}&2&中国・瀋陽&0.507\\\cline{2-4}JapaneseConsulateGeneral&3&亡命者連行事件&0.497\\\cline{2-4}&4&亡命者&0.482\\\cline{2-4}&5&瀋陽&0.393\\\cline{2-4}&{\bf6}&{\bf日本総領事館}&{\bf0.389}\\\hline\hline&1&浄化装置&0.520\\\cline{2-4}diesel-poweredvehicles&2&粒子状物質&0.408\\\cline{2-4}&{\bf3}&{\bfディーゼル車}&{\bf0.382}\\\hline\hline&{\bf1}&{\bf海上保安庁}&{\bf0.503}\\\cline{2-4}JapanCoastGuard&2&巡視&0.394\\\cline{2-4}&3&海保&0.382\\\hline\hline&1&ES細胞&0.500\\\cline{2-4}fertilizedeggs&{\bf2}&{\bf受精卵}&{\bf0.333}\\\cline{2-4}&2&不妊治療&0.333\\\hline\hline&{\bf1}&{\bf東京地検}&0.443\\\cline{2-4}TokyoDistrictPublicProsecutorsOffice&2&東京地検特捜部&0.378\\\cline{2-4}&3&地検特捜部&0.343\\\hline\hline&{\bf1}&{\bfオウム真理教}&{\bf0.467}\\\cline{2-4}AumSupremeTruth&2&松本被告&0.432\\\cline{2-4}&3&こと松本智津夫&0.410\\\hline\hline&1&知的財産&0.095\\\cline{2-4}intellectualpropertyrights&{\bf2}&{\bf知的財産権}&{\bf0.080}\\\cline{2-4}&3&財産権&0.073\\\hline\hline&1&構造改革特区推進&0.457\\\cline{2-4}specialstructuralreformzones&{\bf2}&{\bf構造改革特区}&{\bf0.349}\\\cline{2-4}&3&構造改革特区推進本部&0.321\\\hline\end{tabular}}\end{center}\end{table}\begin{table}\begin{center}\caption{訳語候補順位付けの誤り原因の分析}\label{tab:wrong}{\begin{tabular}{|c|c|c|c|c|c|}\hline&&&\multicolumn{3}{|c|}{誤り原因の内訳(\%)}\\\cline{4-6}サイト&頻度&誤り数&\hspace*{.25cm}(1)\hspace*{.25cm}&\hspace*{.25cm}(2)\hspace*{.25cm}&\hspace*{.25cm}(3)\hspace*{.25cm}\\\hline\hline&5$\sim$10&81&30&27&43\\\cline{2-6}A&10$\sim$20&78&37&47&16\\\cline{2-6}&20以上&57&44&56&0\\\hline&5$\sim$10&84&33&44&23\\\cline{2-6}B&10$\sim$20&78&23&59&18\\\cline{2-6}&20以上&75&24&61&15\\\hline\end{tabular}}\end{center}\end{table}本節では,前節で選定した各サイトの評価用英語タームについて,訳語対応推定値の上位$n$位以内に正解訳語(本論文の実験では,各英語タームにつき一つだけ)が含まれる英語タームの割合をプロットすることにより,訳語対応推定の性能を評価する.まず,サイトAについて,頻度10以上の評価用英語タームを用いて以下の二種類のタームセットを作成し,\ref{subsec:estm-cont}~節の$\phi^2$統計を用いる方法と,\ref{subsec:estm-cv}~節の文脈ベクトルを用いる方法を比較した.\begin{enumerate}\item[i)]評価用英語タームのうち$\phi^2$統計値の上位100タームを集めたタームセット,\item[ii)]$\phi^2$統計値の上位1000タームグループから無作為に評価用英語タームを100ターム選定して作成したタームセット.\end{enumerate}セットi)の選定方法では$\phi^2$統計を用いる方法に有利になる可能性があるため,別途,セットii)を用いた評価も行なった.この結果を図~\ref{fig:graph-cv-phi}に示す.この結果から分かるように,いずれのセットにおいても,$\phi^2$統計を用いる方法の方が高い性能を示すことが分かる.次に,サイトA,B,および,Cの各サイトについて,表~\ref{tb:03}(b)の各タームセットに対する訳語対応推定性能を評価した結果を図~\ref{fig:graph-A}$\sim$図~\ref{fig:graph-C}に示す.ただし,「$\phi^2$統計値上位100」,「$\phi^2統計値1\sim0.15$」,「$\phi^2統計値0.15\sim0.07$」の各々の英語タームセットごとにプロットをまとめた.また,表~\ref{tab:ex}の評価用英語タームに対する訳語対応推定結果の抜粋を表~\ref{tab:est}に示す.表内の太字部分が正解日本語訳語である.全体としては,英語タームの頻度が大きい方が,訳語対応推定の性能が高い.ただし,「$\phi^2統計値0.15\sim0.07$」では,英語タームの頻度分布の違いの影響はかなり小さくなっている.つまり,訳語対応推定値($\phi^2統計値$)が十分大きくなければ,訳語対応推定の性能は,英語タームの頻度によらず,ほぼ同等となると言える.次に,訳語対応推定性能をサイト間で比較すると,特に,サイトCは,サイトAおよびサイトBと比較して,低頻度ターム(頻度5以上10未満)に対する訳語対応推定性能が低くなっている.サイトCの場合,サイトAおよびサイトBと比較して,報道記事の数が約10分の1と少ないために,英語記事に対応する関連日本語記事を十分収集することができず,結果的に正解訳語との共起頻度が小さくなってしまっていると考えられる.また,サイトAとサイトBを比べると,$\phi^2$統計値の上位において,頻度20以上のタームに対する訳語対応推定性能の差が顕著である.この原因を分析するために,次に,訳語対応推定値の一位が正解訳語とならない場合の誤りの内訳を調査した.誤りの原因は主に次の三種類に分類される.\begin{enumerate}\item[(1)]単語列として,正解訳語との間で包含関係にあるタームが同等もしくはそれ以上の訳語対応推定値を持つ.\item[(2)]報道記事中における関連タームが同等もしくはそれ以上の訳語対応推定値を持つ.\item[(3)]正解訳語との共起頻度が小さい.\end{enumerate}(1)の例としては,表~\ref{tab:est}の``HighPublicProsecutorsOffice''の「大阪高検」と{\bf「高検」},``intellectualpropertyrights''の「知的財産」と{\bf「知的財産権」},``specialstructuralreformzones''の「構造改革特区推進」と{\bf「構造改革特区」}などがある.(2)の例としては,``JapaneseConsulateGeneral''の「連行事件」と{\bf「日本総領事館」},``diesel-poweredvehicles''の「浄化装置」と{\bf「ディーゼル車」},``fertilizedeggs''の「ES細胞」と{\bf「受精卵」}などがある.また(3)は,関連記事対検索が失敗した場合や,もともと日本語関連記事において正解訳語が出現しない場合に起こる.さらに,サイトAおよびサイトBにおいて,「$\phi^2$統計値上位100」のタームセットにおける頻度分布ごとに誤り原因の内訳を求めた結果を表~\ref{tab:wrong}に示す.両サイト間の最も顕著な違いとしては,頻度20以上のタームセットにおいて,「正解訳語との共起頻度が小さい」が占める割合の違いが挙げられる.サイトAではこの割合が0\%となるのに対して,サイトBではこの割合が15\%と大きい.これは,サイトAとサイトBでは,特に,日本語記事の文体等の特性が異なっており,サイトBでは日本語関連記事において正解訳語が出現しないということが一定の割合で起こるためであると考えられる. \section{関連研究} \label{sec:related}本節では,コーパスを用いて訳語対応等の翻訳知識を獲得する手法に関連する研究のうち,言語横断関連報道記事検索に関する関連研究,および,訳語対応推定に関する関連研究について述べる.\subsection{言語横断関連報道記事検索}\ref{sec:clir}~節で述べた言語横断関連報道記事検索の手法に関連する研究として,内容的に対応した二言語文書を収集する手法に関する研究がいくつか行なわれている.二言語文書の種類としては,同一の期間の報道記事を対象として,内容が対応した二言語の記事を収集するという手法がいくつか提案されている.言語を横断して記事の内容の類似性を測定する手法を分類する観点としては,主として,i)言語を横断する際に用いる対訳情報の情報源の種類,ii)記事間の類似度を測定する際に,文レベルの対応まで考慮するか否か,という二点が挙げられる.i)に関しては,翻訳ソフト,既存の対訳辞書,あるいは,内容的に対応する既知の二言語文書から学習した翻訳モデル,等の情報が用いられる.また,ii)に関しては,既存の多くの研究においては,文レベルの対応までは考慮せず,文書全体での類似性を測定している.そのような事例としては,例えば,数値表現や名前等の訳語対応を情報源として用いるもの~\cite{Takahashi97a,Xu99a},翻訳システムおよび会社名の対訳辞書を情報源として用いるもの~\cite{KMatsumoto02a},翻訳システムおよび既存の対訳辞書を情報源として用い,両者の性能比較を行なったもの~\cite{Collier98a}などがある.また,\cite{Masuichi00a}は,特許文書を対象として,小規模な対訳文書を初期データとして,ブートストラップにより言語横断情報検索モデルを学習しながら,内容的に対応する二言語文書を収集する手法を提案している.一方,\cite{Hasan01a}は,日中二言語間で内容的に対応する文書を収集するタスクにおいて,翻訳ソフトおよび漢字を利用したいくつかの統計量を情報源として用いている.以上の事例においては,いずれも,文レベルの対応までは考慮せず,記事全体で類似性を測定している.それに対して,\cite{Uchiyama03aj}は,読売新聞およびTheDailyYomiuriという,完全な対訳に近い二言語文書対の収集がある程度期待できる文書集合を対象として,既存の対訳辞書を情報源として,記事中の文の対応まで考慮した日英記事間の類似度を用いて,内容的に対応する記事を収集する手法を提案している.これらの関連研究と比較すると,本論文で述べた言語横断関連報道記事検索の手法は,i)の,言語を横断する際に用いる対訳情報の情報源の種類に関しては,\ref{sec:clir}~節で述べたように,翻訳ソフト,対訳辞書,数値表現翻訳規則の三種類のうち,単独の情報源としては翻訳ソフトを用いている.また,ii)に関しては,文レベルの対応までは考慮せず,記事全体で類似性を測定している.したがって,本論文の言語横断関連報道記事検索の手法は,既存の研究事例で用いられた手法と比較すると,相対的に簡便な手法であると言える.本論文における評価実験は,言語横断関連報道記事検索の手法として,最も簡便な手法を採用した場合に,どの程度の記事検索性能,および,訳語対応推定性能が達成できるかを示しているということができる.本論文の評価実験において,関連研究で用いられた技術を導入すれば,言語横断関連報道記事検索の性能が向上することが期待できる.具体的には,i)の,言語を横断する際に用いる対訳情報の情報源の種類に関しては,複数の情報源を併用すること,また,ii)に関しては,文レベルの対応まで考慮して記事間の類似度を測定することが考えられる.ただし,本論文の手法は,厳密な文対応付けが困難であるような粗い関連記事群に対しても有効であるという点が長所の一つであると言えるので,ii)の点に関しては,綿密な分析が必要であると思われる.また,その他の関連研究として,ウェブ上の二言語文書を対象として,URLおよびHTML文書の構造における手がかりを利用することにより,対訳で書かれた文書対を収集する手法も提案されている~\cite{Resnik03a,Nie99a}.\subsection{訳語対応推定}二言語コーパスからの訳語対応推定の手法の研究においては,これまでに,様々な手法が提案されている.本節では,いくつかの観点からそれらの手法を整理するとともに,同一内容の記事組を抽出した後,何らかの形で訳語の対応を推定するという本論文の問題設定に比較的近い研究事例について,本論文の手法との比較を行なう.また,この本論文の問題設定とは独立な観点として,訳語対応を推定する際にどのような情報を用いるかという観点のもとでの整理を行ない,関連研究,および,本論文の手法の間の関係について述べる.まず,訳語対応推定において用いる要素技術は,大きく分けて,文対応がつけられた対訳コーパスからの訳語対応推定手法,および,コンパラブルコーパスからの訳語対応推定手法という二種類の技術に分けることができる.文対応がつけられた対訳コーパスからの訳語対応推定においては,訳語候補となる語の組に対して,分割表を用いて統計的な相関を測定するという手法がよく知られている\cite{Gale91a,Kumano94b,Haruno98dj,Smadja96a,Kitamura96a,Melamed00a}.一方,コンパラブルコーパスからの訳語対応推定においては,一般に,訳語候補となる語の組に対して,何らかの方法で文脈の類似性を測定し,訳語候補の順位付けを行なう.特に,初期の研究~\cite{Fung95b,Rapp95a}においては,基本的な語についての既存の対訳辞書を用いずに,文脈の類似性を測定することが試みられたが,以後の研究\cite{KTanaka96a,Fung98a,Rapp99a,Kaji01aj,Chiao02a,TTanaka02a,Gaussier04a}では,基本的な語についての既存の対訳辞書を用いて,文脈の類似性を測定している.また,訳語対応推定の研究に関連した研究としては,コンパラブルコーパスを用いて,複数の訳語を持つ語の訳語選択を行なう手法を提案しているものもある~\cite{Dagan94c,HNakagawa01a}.一方,比較的最近の研究においては,要素技術としては,特に,コンパラブルコーパスからの訳語対応推定において用いられた,文脈の類似性に基づく手法を用いるものが多いが,問題設定そのものとして,1)ウェブ上のテキストを利用する,2)訳語候補の順位付けにおいて,複数の情報源・推定尺度を併用する,といった点に重点を置いた研究事例がいくつかみられる.例えば,ウェブ上のテキストを利用する研究事例としては,ウェブ上で,他言語への翻訳が専門用語に併記されているページを利用して,訳語対応を推定するもの~\cite{Nagata01a,Cheng04a}がある.特に,\cite{Cheng04a}では,英語タームを検索質問として,ウェブ上の中国語ページを収集した結果から中国語訳語候補を生成し,中国語訳語候補と英語タームとの間の統計的相関,および,文脈ベクトルの類似性を併用して,英語・中国語間の訳語対応を推定する手法を提案している.また,\cite{Cao02a}では,基本語対訳辞書中の訳語の組合せにより,複合語の訳語候補を生成し,ウェブから訳語候補を検索したページから文脈ベクトルを生成して,訳語対応を推定する手法を提案している.また,通常の報道記事をコンパラブルコーパスとして訳語対応を推定する手法の研究においても,英語・中国語間の翻字の情報と文脈ベクトルの類似性を併用して訳語対応を推定するもの\cite{Shao04a,Huang04a}などがある.これらの最近の研究の他に,本論文の問題設定に比較的近い研究事例としては,\cite{Fung04a,Munteanu04a}がある.これらにおいては,まず,同時期の報道記事をコンパラブルコーパスとして,同一内容の記事組を抽出し,その記事組から対訳文を抽出する.そして,その結果から,統計的機械翻訳モデルを用いて訳語対応を推定する\cite{Fung04a},あるいは,統計的機械翻訳モデルの性能により,対訳文の質を評価する\cite{Munteanu04a},といったことが行なわれる.本論文の問題設定と比較すると,これらの研究事例の問題設定は,同一内容の記事組を抽出した後,何らかの形で訳語の対応を推定するという処理を行なう点が類似していると言える.ただし,最も重要な違いとして,これらの研究事例においては,対訳文を抽出する過程を経る必要があるのに対して,本論文の手法においては,記事対応を粗く推定するだけで,訳語対応の推定が可能である点が挙げられる.したがって,本論文の手法は,厳密な文対応付けが困難であるような粗い関連記事群に対しても有効であるという点が特徴であると言える.また,上で述べた本論文の問題設定とは独立な観点として,訳語対応を推定する際に用いる情報という観点から,関連研究,および,本論文の手法の間の関係を整理することができる.まず,本論文では,訳語対応を推定する際に用いる情報としては,「関連記事組における訳語候補の共起および分割表」(\ref{subsec:estm-cont}~節)を用いた場合,および,「文脈の類似性」(\ref{subsec:estm-cv}~節)を用いた場合の比較を行なった.一方,本論文の評価実験で用いなかった情報としては,その他には,複合語の構成要素の訳語対応~\cite{Cao02a,Yoshimi04aj},読み等を利用した翻字の情報~\cite{Shao04a,Huang04a,Yoshimi04aj}等がある.さらに,これらの複数の情報を併用することにより,訳語対応推定の性能が改善することが期待できる~\cite{Hino04aj,Yoshimi04aj}. \section{おわりに} 本論文では,ウェブ上の報道記事のページから,日本語で書かれた文書および英語で書かれた文書を収集し,多種多様な分野について,分野固有の固有名詞(固有表現)や事象・言い回しなどの翻訳知識を獲得する手法を提案した.翻訳知識獲得においては,まず,報道内容がほぼ同一もしくは密接に関連した日本語記事および英語記事を検索する.そして,関連記事組を用いて二言語間の訳語対応を推定する.訳語対応を推定する尺度としては,関連記事組における訳語候補の共起を利用する方法を適用し,評価実験において文脈ベクトルを用いる方法と比較し,この方法が有効であることを示した.本論文では,特に,日英関連報道記事からの訳語対応推定のタスクにおいて,英語タームの出現頻度と,訳語対応推定性能の相関を評価し,英語タームの頻度が大きいほど,高い訳語対応推定性能が達成できることが分かった.一方,この評価結果に関連して,特に,報道記事において低頻度であるタームに対しては,訳語対応推定の性能が低下することが分かっている~\cite{Hino04bj}.本論文の評価実験において対象としたタームの種類数は高々数百個程度であるが,報道記事に出現するターム全体で言えば,出現頻度が数回程度のタームが相当数あると考えられる.特に,実用的観点から言えば,これらの低頻度タームの訳語をどのようにして獲得するか,という問題を解決することが重要である.この点に関しては,報道記事における出現頻度が小さいタームについては,ウェブ検索エンジンを用いて,ウェブ上での出現文書を収集し,この文書を用いて訳語候補を順位付けることにより,訳語対応推定の性能が改善できることが分かっている~\cite{Utsuro04d,Kida04bj}.また,訳語候補の順位付けにおいて,正解訳語を必ずしも一位に順位付けすることができなくても,上位10位以内程度に正解訳語を含めることができれば,人間が訳語対応を発見する過程を比較的効率的に支援できると考えられる.この点に関しては,訳語対応推定の結果,および,各タームが出現する文書を閲覧する機能を備えた訳語対応獲得支援インタフェース~\cite{Utsuro02gs,Hino03aj}を援用できると考えている.本論文で提案した技術を利用する局面としては,直接的には,機械翻訳用の対訳辞書を強化することが挙げられるが,その他に,例えば,言語横断情報検索において,既存の対訳辞書や機械翻訳システムに未登録の訳語組を収集する場合や,人間の翻訳者が必要とする翻訳知識を収集する場合などが考えられる.\bibliographystyle{jnlpbbl}\newcommand{\gengoshori}{}\newcommand{\kokuken}{}\begin{thebibliography}{}\bibitem[\protect\BCAY{Cao\BBA\Li}{Cao\BBA\Li}{2002}]{Cao02a}Cao,Y.\BBACOMMA\\BBA\Li,H.\BBOP2002\BBCP.\newblock\BBOQBaseNounPhraseTranslationUsing{Web}Dataandthe{EM}Algorithm\BBCQ\\newblockIn{\BemProceedingsofthe19th{COLING}},\BPGS\127--133.\bibitem[\protect\BCAY{Cheng\JBALu\JBATeng\BBA\Chien}{Chenget~al.}{2004}]{Cheng04a}Cheng,P.-J.\JBALu,W.-H.\JBATeng,J.-W.\JBA\BBA\Chien,L.-F.\BBOP2004\BBCP.\newblock\BBOQCreatingMultilingualTranslationLexiconswithRegionalVariationsUsing{Web}Corpora\BBCQ\\newblockIn{\BemProceedingsofthe42nd{ACL}},\BPGS\534--541.\bibitem[\protect\BCAY{Chiao\BBA\Zweigenbaum}{Chiao\BBA\Zweigenbaum}{2002}]{Chiao02a}Chiao,Y.-C.\BBACOMMA\\BBA\Zweigenbaum,P.\BBOP2002\BBCP.\newblock\BBOQLookingforCandidateTranslationalEquivalentsinSpecialized,ComparableCorpora\BBCQ\\newblockIn{\BemProceedingsofthe19th{COLING}},\BPGS\1208--1212.\bibitem[\protect\BCAY{Collier\JBAHirakawa\BBA\Kumano}{Collieret~al.}{1998}]{Collier98a}Collier,N.\JBAHirakawa,H.\JBA\BBA\Kumano,A.\BBOP1998\BBCP.\newblock\BBOQMachineTranslationvs.DictionaryTermTranslation---AComparisonfor{English-Japanese}NewsArticleAlignment\BBCQ\\newblockIn{\BemProceedingsofthe17th{COLING}andthe36thAnnualMeetingof{ACL}},\BPGS\263--267.\bibitem[\protect\BCAY{Dagan\BBA\Itai}{Dagan\BBA\Itai}{1994}]{Dagan94c}Dagan,I.\BBACOMMA\\BBA\Itai,A.\BBOP1994\BBCP.\newblock\BBOQWordSenseDisambiguationUsingaSecondLanguageMonolingualCorpus\BBCQ\\newblock{\Bem{ComputationalLinguistics}},{\Bbf20}(4),563--596.\bibitem[\protect\BCAY{Fung}{Fung}{1995}]{Fung95b}Fung,P.\BBOP1995\BBCP.\newblock\BBOQCompilingBilingualLexiconEntriesFromaNon-Parallel{English-Chinese}Corpus\BBCQ\\newblockIn{\BemProceedingsof3rdWorkshoponVeryLargeCorpora},\BPGS\173--183.\bibitem[\protect\BCAY{Fung\BBA\Cheung}{Fung\BBA\Cheung}{2004}]{Fung04a}Fung,P.\BBACOMMA\\BBA\Cheung,P.\BBOP2004\BBCP.\newblock\BBOQMiningVery-Non-ParallelCorpora:ParallelSentenceandLexiconExtractionviaBootstrappingand{EM}\BBCQ\\newblockIn{\BemProceedingsofEMNLP},\BPGS\57--63.\bibitem[\protect\BCAY{Fung\BBA\Yee}{Fung\BBA\Yee}{1998}]{Fung98a}Fung,P.\BBACOMMA\\BBA\Yee,L.~Y.\BBOP1998\BBCP.\newblock\BBOQAn{IR}ApproachforTranslatingNewWordsfromNonparallel,ComparableTexts\BBCQ\\newblockIn{\BemProceedingsofthe17th{COLING}andthe36thAnnualMeetingof{ACL}},\BPGS\414--420.\bibitem[\protect\BCAY{Gale\BBA\Church}{Gale\BBA\Church}{1991}]{Gale91a}Gale,W.\BBACOMMA\\BBA\Church,K.\BBOP1991\BBCP.\newblock\BBOQIdentifyingWordCorrespondencesinParallelTexts\BBCQ\\newblockIn{\BemProceedingsofthe4th{DARPASpeechandNaturalLanguageWorkshop}},\BPGS\152--157.\bibitem[\protect\BCAY{Gaussier\JBARenders\JBAMatveeva\JBAGoutte\BBA\Dejean}{Gaussieret~al.}{2004}]{Gaussier04a}Gaussier,E.\JBARenders,J.\JBAMatveeva,I.\JBAGoutte,C.\JBA\BBA\Dejean,H.\BBOP2004\BBCP.\newblock\BBOQAGeometricViewonBilingualLexiconExtractionfromComparableCorpora\BBCQ\\newblockIn{\BemProceedingsofthe42nd{ACL}},\BPGS\526--533.\bibitem[\protect\BCAY{浜本\JBA中山\JBA日野\JBA堀内\JBA宇津呂}{浜本\Jetal}{2003}]{Hamamoto03aj}浜本武\JBA中山健明\JBA日野浩平\JBA堀内貴司\JBA宇津呂武仁\BBOP2003\BBCP.\newblock\JBOQ言語横断関連報道記事検索における翻訳ソフト・対訳辞書・数値表現翻訳規則の性能比較\JBCQ\\newblock\Jem{言語処理学会第9回年次大会論文集},\BPGS\425--428.\bibitem[\protect\BCAY{Haruno\BBA\Ikehara}{Haruno\BBA\Ikehara}{1998}]{Haruno98dj}Haruno,M.\BBACOMMA\\BBA\Ikehara,S.\BBOP1998\BBCP.\newblock\BBOQTwo-StepExtractionofBilingualCollocationsbyUsingWord-LevelSorting\BBCQ\\newblock\Jem{電子情報通信学会論文誌},{\BbfE81-D}(10),1103--1110.\bibitem[\protect\BCAY{Hasan\BBA\Matsumoto}{Hasan\BBA\Matsumoto}{2001}]{Hasan01a}Hasan,M.~M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2001\BBCP.\newblock\BBOQMultilingualDocumentAlignment---AStudywith{Chinese}and{Japanese}\BBCQ\\newblockIn{\BemProceedingsofthe6thNLPRS},\BPGS\617--623.\bibitem[\protect\BCAY{日野\JBA堀内\JBA浜本\JBA中山\JBA宇津呂}{日野\Jetal}{2003}]{Hino03aj}日野浩平\JBA堀内貴司\JBA浜本武\JBA中山健明\JBA宇津呂武仁\BBOP2003\BBCP.\newblock\JBOQ日英関連報道記事からの翻訳知識獲得のためのユーザインタフェースの作成\JBCQ\\newblock\Jem{言語処理学会第9回年次大会論文集},\BPGS\421--424.\bibitem[\protect\BCAY{日野\JBA宇津呂\JBA中川}{日野\Jetal}{2004a}]{Hino04bj}日野浩平\JBA宇津呂武仁\JBA中川聖一\BBOP2004a\BBCP.\newblock\JBOQ日英報道記事からの訳語対応推定:ターム頻度と訳語対応推定性能の相関の評価\JBCQ\\newblock\Jem{情報処理学会研究報告},{\Bbf2004}((2004--NL--162)),57--63.\bibitem[\protect\BCAY{日野\JBA宇津呂\JBA中川}{日野\Jetal}{2004b}]{Hino04aj}日野浩平\JBA宇津呂武仁\JBA中川聖一\BBOP2004b\BBCP.\newblock\JBOQ日英報道記事からの訳語対応推定における複数の推定尺度の利用\JBCQ\\newblock\Jem{言語処理学会第10回年次大会論文集},\BPGS\249--252.\bibitem[\protect\BCAY{堀内\JBA千葉\JBA浜本\JBA宇津呂}{堀内\Jetal}{2002a}]{Horiuchi02bj}堀内貴司\JBA千葉靖伸\JBA浜本武\JBA宇津呂武仁\BBOP2002a\BBCP.\newblock\JBOQ言語横断検索により自動収集された日英関連報道記事からの訳語対応の獲得\JBCQ\\newblock\Jem{情報処理学会研究報告},{\Bbf2002}((2002--NL--150)),191--198.\bibitem[\protect\BCAY{堀内\JBA千葉\JBA浜本\JBA宇津呂}{堀内\Jetal}{2002b}]{Horiuchi02aj}堀内貴司\JBA千葉靖伸\JBA浜本武\JBA宇津呂武仁\BBOP2002b\BBCP.\newblock\JBOQ翻訳知識獲得のための言語横断関連報道記事検索\JBCQ\\newblock\Jem{言語処理学会第8回年次大会論文集},\BPGS\303--306.\bibitem[\protect\BCAY{堀内\JBA日野\JBA浜本\JBA中山\JBA宇津呂}{堀内\Jetal}{2003}]{Horiuchi03aj}堀内貴司\JBA日野浩平\JBA浜本武\JBA中山健明\JBA宇津呂武仁\BBOP2003\BBCP.\newblock\JBOQ日英報道記事からの訳語対獲得における言語横断情報検索の有効性の評価\JBCQ\\newblock\Jem{言語処理学会第9回年次大会論文集},\BPGS\341--344.\bibitem[\protect\BCAY{Huang\JBAVogel\BBA\Waibel}{Huanget~al.}{2004}]{Huang04a}Huang,F.\JBAVogel,S.\JBA\BBA\Waibel,A.\BBOP2004\BBCP.\newblock\BBOQImprovingNamedEntityTranslationCombiningPhoneticandSemanticSimilarities\BBCQ\\newblockIn{\BemProceedingsofHLT-NAACL},\BPGS\281--288.\bibitem[\protect\BCAY{梶\JBA相薗}{梶\JBA相薗}{2001}]{Kaji01aj}梶博行\JBA相薗敏子\BBOP2001\BBCP.\newblock\JBOQ共起集合の類似度に基づく対訳コーパスからの対訳語抽出\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf42}(9),2248--2258.\bibitem[\protect\BCAY{木田\JBA宇津呂\JBA日野\JBA佐藤}{木田\Jetal}{2004}]{Kida04bj}木田充洋\JBA宇津呂武仁\JBA日野浩平\JBA佐藤理史\BBOP2004\BBCP.\newblock\JBOQ日英二言語文書を用いた訳語対応推定:ウェブ上の非対訳文書を用いた訳語候補順位付け\JBCQ\\newblock\Jem{情報処理学会研究報告},{\Bbf2004}((2004--NL--162)),65--70.\bibitem[\protect\BCAY{Kitamura\BBA\Matsumoto}{Kitamura\BBA\Matsumoto}{1996}]{Kitamura96a}Kitamura,M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP1996\BBCP.\newblock\BBOQAutomaticExtractionofWordSequenceCorrespondencesinParallelCorpora\BBCQ\\newblockIn{\BemProceedingsofthe4thWorkshoponVeryLargeCorpora},\BPGS\79--87.\bibitem[\protect\BCAY{Kumano\BBA\Hirakawa}{Kumano\BBA\Hirakawa}{1994}]{Kumano94b}Kumano,A.\BBACOMMA\\BBA\Hirakawa,H.\BBOP1994\BBCP.\newblock\BBOQBuildingan{MT}DictionaryfromParallelTextsbasedonLinguisticandStatisticalInformation\BBCQ\\newblockIn{\BemProceedingsofthe15th{COLING}},\BPGS\76--81.\bibitem[\protect\BCAY{Masuichi\JBAFlournoy\JBAKaufmann\BBA\Peters}{Masuichiet~al.}{2000}]{Masuichi00a}Masuichi,H.\JBAFlournoy,R.\JBAKaufmann,S.\JBA\BBA\Peters,S.\BBOP2000\BBCP.\newblock\BBOQABootstrappingMethodforExtractingBilingualTextPairs\BBCQ\\newblockIn{\BemProceedingsofthe18th{COLING}},\BPGS\1066--1070.\bibitem[\protect\BCAY{Matsumoto\BBA\Tanaka}{Matsumoto\BBA\Tanaka}{2002}]{KMatsumoto02a}Matsumoto,K.\BBACOMMA\\BBA\Tanaka,H.\BBOP2002\BBCP.\newblock\BBOQAutomaticAlignmentof{Japanese}and{English}NewspaperArticlesusingan{MT}SystemandaBilingualCompanyNameDictionary\BBCQ\\newblockIn{\BemProceedingsofthe3rdInternationalConferenceonLanguageResourcesandEvaluation},\lowercase{\BVOL}~2,\BPGS\480--484.\bibitem[\protect\BCAY{Matsumoto\BBA\Utsuro}{Matsumoto\BBA\Utsuro}{2000}]{Matsumoto00a}Matsumoto,Y.\BBACOMMA\\BBA\Utsuro,T.\BBOP2000\BBCP.\newblock\BBOQLexicalKnowledgeAcquisition\BBCQ\\newblockInDale,R.\JBAMoisl,H.\JBA\BBA\Somers,H.\BEDS,{\Bem{\emHandbookofNaturalLanguageProcessing}},\BCH~24,\BPGS\563--610.MarcelDekkerInc.\bibitem[\protect\BCAY{Melamed}{Melamed}{2000}]{Melamed00a}Melamed,I.~D.\BBOP2000\BBCP.\newblock\BBOQModelsofTranslationalEquivalenceamongWords\BBCQ\\newblock{\Bem{ComputationalLinguistics}},{\Bbf26}(2),221--249.\bibitem[\protect\BCAY{Munteanu\JBAFraser\BBA\Marcu}{Munteanuet~al.}{2004}]{Munteanu04a}Munteanu,D.~S.\JBAFraser,A.\JBA\BBA\Marcu,D.\BBOP2004\BBCP.\newblock\BBOQImprovedMachineTranslationPerformanceviaParallelSentenceExtractionfromComparableCorpora\BBCQ\\newblockIn{\BemProceedingsofHLT-NAACL},\BPGS\265--272.\bibitem[\protect\BCAY{Nagata\JBASaito\BBA\Suzuki}{Nagataet~al.}{2001}]{Nagata01a}Nagata,M.\JBASaito,T.\JBA\BBA\Suzuki,K.\BBOP2001\BBCP.\newblock\BBOQUsingthe{Web}asaBilingualDictionary\BBCQ\\newblockIn{\BemProceedingsoftheACL-2001WorkshoponData-drivenMethodsinMachineTranslation},\BPGS\95--102.\bibitem[\protect\BCAY{Nakagawa}{Nakagawa}{2001}]{HNakagawa01a}Nakagawa,H.\BBOP2001\BBCP.\newblock\BBOQDisambiguationofSingleNounTranslationsExtractedfromBilingualComparableCorpora\BBCQ\\newblock{\BemTerminology},{\Bbf7}(1),63--83.\bibitem[\protect\BCAY{Nie\JBASimard\JBAIsabelle\BBA\Durand}{Nieet~al.}{1999}]{Nie99a}Nie,J.-Y.\JBASimard,M.\JBAIsabelle,P.\JBA\BBA\Durand,R.\BBOP1999\BBCP.\newblock\BBOQCross-LanguageInformationRetrievalbasedonParallelTextsandAutomaticMiningofParallelTextsfromthe{Web}\BBCQ\\newblockIn{\BemProceedingsofthe22ndSIGIR},\BPGS\74--81.\bibitem[\protect\BCAY{Pei\JBAHan\JBAMortazavi-Asl\BBA\Pinto}{Peiet~al.}{2001}]{Pei01a}Pei,J.\JBAHan,J.\JBAMortazavi-Asl,B.\JBA\BBA\Pinto,H.\BBOP2001\BBCP.\newblock\BBOQPrefixSpan:MiningSequentialPatternsEfficientlybyPrefix-ProjectedPatternGrowth\BBCQ\\newblockIn{\BemProceedingsofthe17thInternationalConferenceonDataMining},\BPGS\215--224.\bibitem[\protect\BCAY{Rapp}{Rapp}{1995}]{Rapp95a}Rapp,R.\BBOP1995\BBCP.\newblock\BBOQIdentifyingWordTranslationsinNon-ParallelTexts\BBCQ\\newblockIn{\BemProceedingsofthe33rdAnnualMeetingof{ACL}},\BPGS\320--322.\bibitem[\protect\BCAY{Rapp}{Rapp}{1999}]{Rapp99a}Rapp,R.\BBOP1999\BBCP.\newblock\BBOQAutomaticIdentificationofWordTranslationsfromUnrelated{English}and{German}Corpora\BBCQ\\newblockIn{\BemProceedingsofthe37thAnnualMeetingof{ACL}},\BPGS\519--526.\bibitem[\protect\BCAY{Resnik\BBA\Smith}{Resnik\BBA\Smith}{2003}]{Resnik03a}Resnik,P.\BBACOMMA\\BBA\Smith,N.\BBOP2003\BBCP.\newblock\BBOQThe{Web}asaParallelCorpus\BBCQ\\newblock{\Bem{ComputationalLinguistics}},{\Bbf29}(3),349--380.\bibitem[\protect\BCAY{Shao\BBA\Ng}{Shao\BBA\Ng}{2004}]{Shao04a}Shao,L.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2004\BBCP.\newblock\BBOQMiningNewWordTranslationsfromComparableCorpora\BBCQ\\newblockIn{\BemProceedingsofthe20th{COLING}},\BPGS\618--624.\bibitem[\protect\BCAY{Smadja\JBAMcKeown\BBA\Hatzivassiloglou}{Smadjaet~al.}{1996}]{Smadja96a}Smadja,F.\JBAMcKeown,K.~R.\JBA\BBA\Hatzivassiloglou,V.\BBOP1996\BBCP.\newblock\BBOQTranslatingCollocationsforBilingualLexicons:AStatisticalApproach\BBCQ\\newblock{\Bem{ComputationalLinguistics}},{\Bbf22}(1),1--38.\bibitem[\protect\BCAY{Takahashi\JBAShirai\BBA\Bond}{Takahashiet~al.}{1997}]{Takahashi97a}Takahashi,Y.\JBAShirai,S.\JBA\BBA\Bond,F.\BBOP1997\BBCP.\newblock\BBOQAMethodofAutomaticallyAligning{Japanese}and{English}NewspaperArticles\BBCQ\\newblockIn{\BemProceedingsofthe4thNLPRS},\BPGS\657--660.\bibitem[\protect\BCAY{Tanaka\BBA\Iwasaki}{Tanaka\BBA\Iwasaki}{1996}]{KTanaka96a}Tanaka,K.\BBACOMMA\\BBA\Iwasaki,H.\BBOP1996\BBCP.\newblock\BBOQExtractionofLexicalTranslationsfromNon-AlignedCorpora\BBCQ\\newblockIn{\BemProceedingsofthe16th{COLING}},\BPGS\580--585.\bibitem[\protect\BCAY{Tanaka}{Tanaka}{2002}]{TTanaka02a}Tanaka,T.\BBOP2002\BBCP.\newblock\BBOQMeasuringtheSimilaritybetweenCompoundNounsinDifferentLanguagesUsingNon-ParallelCorpora\BBCQ\\newblockIn{\BemProceedingsofthe19th{COLING}},\BPGS\981--987.\bibitem[\protect\BCAY{内山\JBA井佐原}{内山\JBA井佐原}{2003}]{Uchiyama03aj}内山将夫\JBA井佐原均\BBOP2003\BBCP.\newblock\JBOQ日英新聞の記事および文を対応付けるための高信頼性尺度\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(4),201--220.\bibitem[\protect\BCAY{Utsuro\JBAHoriuchi\JBAChiba\BBA\Hamamoto}{Utsuroet~al.}{2002}]{Utsuro02gs}Utsuro,T.\JBAHoriuchi,T.\JBAChiba,Y.\JBA\BBA\Hamamoto,T.\BBOP2002\BBCP.\newblock\BBOQSemi-automaticCompilationofBilingualLexiconEntriesfromCross-LinguallyRelevantNewsArticleson{WWW}NewsSites\BBCQ\\newblockInRichardson,S.~D.\BED,{\BemMachineTranslation:FromResearchtoRealUsers},LectureNotesinArtificialIntelligence:Vol.2499,\BPGS\165--176.Springer.\bibitem[\protect\BCAY{Utsuro\JBAHoriuchi\JBAHamamoto\JBAHino\BBA\Nakayama}{Utsuroet~al.}{2003}]{Utsuro03b}Utsuro,T.\JBAHoriuchi,T.\JBAHamamoto,T.\JBAHino,K.\JBA\BBA\Nakayama,T.\BBOP2003\BBCP.\newblock\BBOQEffectofCross-Language{IR}inBilingualLexiconAcquisitionfromComparableCorpora\BBCQ\\newblockIn{\BemProceedingsofthe10th{EACL}},\BPGS\355--362.\bibitem[\protect\BCAY{Utsuro\JBAHino\JBAKida\JBANakagawa\BBA\Sato}{Utsuroet~al.}{2004}]{Utsuro04d}Utsuro,T.\JBAHino,K.\JBAKida,M.\JBANakagawa,S.\JBA\BBA\Sato,S.\BBOP2004\BBCP.\newblock\BBOQIntegratingCross-LinguallyRelevantNewsArticlesandMonolingual{Web}DocumentsinBilingualLexiconAcquisition\BBCQ\\newblockIn{\BemProceedingsofthe20th{COLING}},\BPGS\1036--1042.\bibitem[\protect\BCAY{Xu\BBA\Tan}{Xu\BBA\Tan}{1999}]{Xu99a}Xu,D.\BBACOMMA\\BBA\Tan,C.~L.\BBOP1999\BBCP.\newblock\BBOQAlignmentandMatchingofBilingual{English-Chinese}NewsTexts\BBCQ\\newblock{\BemMachineTranslation},{\Bbf14},1--33.\bibitem[\protect\BCAY{吉見\JBA九津見\JBA小谷\JBA佐田\JBA井佐原}{吉見\Jetal}{2004}]{Yoshimi04aj}吉見毅彦\JBA九津見毅\JBA小谷克則\JBA佐田いち子\JBA井佐原均\BBOP2004\BBCP.\newblock\JBOQ複合語の内部情報・外部情報を統合的に利用した訳語対の抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf11}(4),89--103.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{宇津呂武仁}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学大学院工学研究科博士課程電気工学第二専攻修了.京都大学博士(工学).奈良先端科学技術大学院大学情報科学研究科助手,豊橋技術科学大学工学部情報工学系講師を経て,2003年より京都大学情報学研究科知能情報学専攻講師.自然言語処理の研究に従事.}\bioauthor{日野浩平}{2003年豊橋技術科学大学工学部情報工学系卒業.2005年同大学大学院工学研究科修士課程情報工学専攻修了.現在,NTTデータテクノロジー株式会社に勤務.在学中は自然言語処理に関する研究に従事.}\bioauthor{堀内貴司}{2001年豊橋技術科学大学工学部情報工学系卒業.2003年同大学大学院工学研究科修士課程情報工学専攻修了.現在,日立製作所に勤務.在学中は自然言語処理に関する研究に従事.}\bioauthor{中川聖一}{1976年京都大学大学院工学研究科博士課程修了.同年京都大学工学部情報工学科助手.1980年豊橋技術科学大学工学部情報工学系講師.1990年同教授.1985$\sim$1986年カーネギーメロン大学客員研究員.音声言語情報処理,自然言語処理,人工知能の研究に従事.工学博士.1977年電子通信学会論文賞,1998年度IETE最優秀論文賞,2001年電子情報通信学会論文賞受賞.著書「確率モデルによる音声認識」(電子情報通信学会編),「音声・聴覚と神経回路網モデル」(共著,オーム社),「情報理論の基礎と応用」(近代科学社),「パターン情報処理」(丸善)など.}\bioreceived{受付}\biorevised{再受付}\biorevised{再々受付}\bioaccepted{採録}\end{biography}\end{document}
V21N01-04
\section{はじめに} 本稿では語義曖昧性解消(WordSenseDisambiguation,WSD)をタスクとした領域適応の問題が共変量シフトの問題と見なせることを示す.そして共変量シフトの解法である確率密度比を重みにしたパラメータ学習により,WSDの領域適応の解決を図る.共変量シフトの解法では確率密度比の算出が鍵となるが,ここではNaiveBayesで利用されるモデルを利用した簡易な算出法を試みた.そして素性空間拡張法により拡張されたデータに対して,共変量シフトの解法を行う.この手法を本稿の提案手法とする.自然言語処理の多くのタスクにおいて帰納学習手法が利用される.そこではコーパス\(S\)からタスクに応じた訓練データを作成し,その訓練データから分類器を学習する.そしてこの分類器を利用することで当初のタスクを解決する.このとき実際のタスクとなるデータはコーパス\(S\)とは領域が異なるコーパス\(T\)のものであることがしばしば起こる.この場合,コーパス\(S\)(ソース領域)から学習された分類器では,コーパス\(T\)(ターゲット領域)のデータを精度良く解析することができない問題が生じる.これが領域適応の問題であり\footnote{領域適応は機械学習の分野では転移学習\cite{kamishima}の一種と見なされている.},近年活発に研究が行われている\cite{da-book}.WSDは文\(\boldsymbol{x}\)内の多義語\(w\)の語義\(c\inC\)を識別する問題である.\(P(c|\boldsymbol{x})\)を文\(\boldsymbol{x}\)内の単語\(w\)の語義が\(c\)である確率とすると,確率統計的には\(\arg\max_{c\inC}P(c|\boldsymbol{x})\)を解く問題といえる.例えば単語\(w=\)「ボタン」には少なくとも\(c_1:\)服のボタン,\(c_2:\)スイッチのボタン,\(c_3:\)花のボタン(牡丹),の3つの語義がある.そして文\(\boldsymbol{x}=\)「シャツのボタンが取れた」が与えられたときに,文中の「ボタン」が\(C=\{c_1,c_2,c_3\}\)内のどれかを識別する.直接的には教師付き学習手法を用いて\(P(c|\boldsymbol{x})\)を推定して解くことになる.WSDの領域適応の問題は,前述したように,教師付き学習手法を利用する際に学習もとのソース領域のコーパス\(S\)と,分類器の適用先であるターゲット領域のコーパス\(T\)が異なる問題である.領域適応ではソース領域\(S\)から\(S\)上の条件付き分布\(P_S(c|\boldsymbol{x})\)は学習できるという設定なので,\(P_S(c|\boldsymbol{x})\)やその他の情報を利用して,ターゲット領域\(T\)上の条件付き分布\(P_T(c|\boldsymbol{x})\)を推定できれば良い.ここで「シャツのボタンが取れた」という文中の「ボタン」の語義は,この文がどのような領域のコーパスに現れても変化するとは考えづらい.つまり\(P_T(c|\boldsymbol{x})\)は領域に依存していないため,\(P_S(c|\boldsymbol{x})=P_T(c|\boldsymbol{x})\)が成立していると考えられる.今\(P_S(c|\boldsymbol{x})\)は推定できるので,\(P_S(c|\boldsymbol{x})=P_T(c|\boldsymbol{x})\)が成立していれば,\(P_T(c|\boldsymbol{x})\)を推定する必要はないように見える.ただしソース領域だけを使って推定した\(P_S(c|\boldsymbol{x})\)では,実際の識別精度は低い場合が多い.それは\(P_S(\boldsymbol{x})\neP_T(\boldsymbol{x})\)から生じている.\(P_S(c|\boldsymbol{x})=P_T(c|\boldsymbol{x})\)だが\(P_S(\boldsymbol{x})\neP_T(\boldsymbol{x})\)という仮定の下で,\(P_T(c|\boldsymbol{x})\)を推定する問題は共変量シフトの問題\cite{shimodaira2000improving,sugiyama-2006-09-05,sugiyama-book}である.本稿ではWSDの領域適応の問題を共変量シフトの問題として捉え,共変量シフトの解法を利用してWSDの領域適応を解決することを試みる.訓練データを\(D=\{(\boldsymbol{x_i},c_i)\}_{i=1}^N\)とする.共変量シフトの標準的な解法では\(P_T(c|\boldsymbol{x})\)に確率モデル\(P(c|\boldsymbol{x};\boldsymbol{\theta})\)を設定し,次に確率密度比\(r(\boldsymbol{x_i})=P_T(\boldsymbol{x_i})/P_S(\boldsymbol{x_i})\)を重みにした以下の対数尤度を最大にする\(\boldsymbol{\theta}\)を求めることで,\(P_T(c|\boldsymbol{x})\)を構築する.\[\sum_{i=1}^{N}r(\boldsymbol{x_i})\logP(c_i|\boldsymbol{x_i};\boldsymbol{\theta})\]また領域適応に対してはDaum{\'e}の手法\cite{daume0}が非常に簡易でありながら,効果が高い手法として知られている.Daum{\'e}の手法は,データの表現を領域適応に効果が出るように拡張し,拡張されたデータを用いてSVM等の学習手法を利用する手法である.ここでは拡張する手法を「素性空間拡張法(FeatureAugmentation)」と呼び,拡張されたデータを用いてSVMなどで識別までを行う手法を「Daum{\'e}の手法」と呼ぶことにする.拡張されたデータに対しては任意の学習手法が利用できる.つまり素性空間拡張法により拡張されたデータに対して,共変量シフトによる解法を利用することも可能である.本稿ではこの手法を提案手法とする.実験では現代日本語書き言葉均衡コーパス(BCCWJコーパス\cite{bccwj})における3つの領域OC(Yahoo!知恵袋),PB(書籍)及びPN(新聞)を利用する.SemEval-2の日本語WSDタスク\cite{semeval-2010}ではこれらのコーパスの一部に語義タグを付けたデータを公開しており,そのデータを利用する.すべての領域である程度の頻度が存在する多義語16単語を対象にして,WSDの領域適応の実験を行う.領域適応としてはOC→PB,PB→PN,PN→OC,OC→PN,PN→PB,PB→OCの計6通りが存在する.結果\(16\times6=96\)通りのWSDの領域適応の問題に対して実験を行った.その結果,提案手法はDaum{\'e}の手法と同等以上の正解率を出した.本稿で用いた簡易な確率密度比の算出法であっても共変量シフトの解法を利用する効果が高いことが示された.より正確な確率密度比の推定法を利用したり,SVMを利用するなどの工夫で更なる改善が可能である.また教師なし領域適応へも応用可能である.WSDの領域適応に共変量シフトの解法を利用することは有望であると考えられる. \section{関連研究} 自然言語処理における領域適応は,帰納学習手法を利用する全てのタスクで生じる問題であるために,その研究は多岐にわたる.利用手法をおおまかに分類すると,ターゲット領域のラベル付きデータを利用するかしないかで分類できる.利用する場合を教師付き領域適応手法,利用しない場合を教師なし領域適応手法と呼ぶ.本稿における手法は教師付き領域適応手法の範疇に入るので,ここでは提案手法に関連する教師付き領域適応手法の従来研究を述べる.教師付き領域適応手法においては,一般に,ターゲット領域の知識は使えるだけ使えばよいはずなので,ポイントはソース領域の知識の利用方法にある.ソース領域とターゲット領域間の距離が離れすぎている場合,ソース領域の知識を使いすぎると分類器の精度が悪化する現象がおこる.これは負の転移\cite{rosenstein2005transfer}と呼ばれている.負の転移を避けるには,本質的に,ソース領域とターゲット領域間の距離を測り,その距離を利用してソース領域の知識の利用を制御する形となる.Aschは品詞タグ付けをタスクとして領域間の類似性を測り,その類似度から領域適応を行った際に精度がどの程度悪くなるかを予測できることを示した\cite{vanasch}.張本は構文解析をタスクとしてターゲット領域を変化させたときの精度低下の要因を調査し,そこから新たな領域間の類似性の尺度を提案している\cite{harimoto}.Plankは構文解析をタスクとして領域間の類似性を測ることで,ターゲット領域を解析するのに最も適したソース領域を選んでいる\cite{plank}.Ponomareva\cite{ponomareva}やRemus\cite{rem2012}は感情極性分類をタスクとして領域間の類似度を学習中のパラメータに利用した.これらの研究はタスク毎に類似性を測るが,WSDがタスクの場合,領域間の類似性はWSDの対象単語に依存していると考えられる.古宮は対象単語毎に領域間の距離を含めた性質\footnote{これら性質を全て含めて,領域間の類似性と呼べる.}によって適用する学習手法を変化させている\cite{komiya3,komiya2,komiya-nlp2012}.上記した古宮の一連の研究は広い意味でアンサンブル学習の一種である.そこでアンサンブルされる各要素となる学習手法をみるとソース領域のデータとターゲット領域のデータへの各重みが異なるだけである.つまり領域適応においてはソース領域のデータとターゲット領域のデータへの各重みを調整して,学習手法を適用するというアプローチが有力である.Jiang\cite{jiang2007instance}は\(P_S(c|\boldsymbol{x})\)と\(P_T(c|\boldsymbol{x})\)との差が極端に大きいデータを``misleading''データとして訓練データから取り除いて学習することを試みた.これは``misleading''データの重みを0にした学習と見なせるため,この手法も重み付けの手法と見なせる.本稿で利用する共変量シフト下での学習もこの範疇の手法といえる.素性空間拡張法\cite{daume0}も重み付け手法である.ただしデータではなくデータ中の素性に重みをつける.そこではソース領域の訓練データのベクトル\(\boldsymbol{x_s}\)を\((\boldsymbol{x_s},\boldsymbol{x_s},\boldsymbol{0})\)と連結した3倍の長さのベクトルに直し,ターゲット領域の訓練データのベクトル\(\boldsymbol{x_t}\)を\((\boldsymbol{0},\boldsymbol{x_t},\boldsymbol{x_t})\)と連結した3倍の長さのベクトルに直す.ここで\(\boldsymbol{0}\)は\(\boldsymbol{x_s}\)や\(\boldsymbol{x_t}\)と同じ次元数であり,しかもすべての次元の値が0であるようなベクトルである.この3倍にしたベクトルを用いて,通常の分類問題として解く.この手法は非常に簡易でありながら,効果が高い手法として知られている.この拡張手法はソース領域とターゲット領域に共通している特徴が重なることで,結果として共通している特徴の重みがつくことで領域適応に効果が出ると考えられる.また領域適応の問題を共変量シフト下の学習を用いて解決する研究としては,Jiangの研究\cite{jiang2007instance}と齋木の研究\cite{saiki-2008-03-27}がある.Jiangは確率密度比を手動で調整し,モデルにはロジステック回帰を用いている.また齋木は\(P(\boldsymbol{x})\)をunigramでモデル化することで確率密度比を推定し,モデルには最大エントロピー法のモデルを用いている.ただしどちらの研究もタスクはWSDではない.また共変量シフト下では\(P_S(c|\boldsymbol{x})=P_T(c|\boldsymbol{x})\)を仮定するが,\(P_S(\boldsymbol{x}|c)=P_T(\boldsymbol{x}|c)\)を仮定するアプローチもある.この場合,ベイズの定理から\begin{align*}\arg\max_{c\inC}P_T(c|\boldsymbol{x})&=\arg\max_{c\inC}P_T(c)P_T(\boldsymbol{x}|c)\\&=\arg\max_{c\inC}P_T(c)P_S(\boldsymbol{x}|c)\end{align*}となるので領域適応の問題は\(P_T(c)\)の推定に帰着できる.実際,Chanらは\(P_S(\boldsymbol{x}|c)\)と\(P_T(\boldsymbol{x}|c)\)の違いの影響は非常に小さいと考え,\(P_S(\boldsymbol{x}|c)=P_T(\boldsymbol{x}|c)\)を仮定し,\(P_T(c)\)をEMアルゴリズムで推定することでWSDの領域適応を行っている\cite{chan2005word,chan2006estimating}.更に新納らは\(P_S(\boldsymbol{x}|c)=P_T(\boldsymbol{x}|c)\)の仮定があったとしても,コーパスのスパース性から単純に\(P_T(\boldsymbol{x}|c)\)を\(P_S(\boldsymbol{x}|c)\)で置き換えることはできないと考え,\(P_T(c)\)の推定の問題と\(P_T(\boldsymbol{x}|c)\)の推定の問題を個別に対処することを提案している\cite{shinnou-gengo-13}. \section{期待損失最小化からみた共変量シフト} 対象単語\(w\)の語義の集合を\(C\),また\(w\)の用例\(\boldsymbol{x}\)内の\(w\)の語義を\(c\)と識別したときの損失関数を\(l(\boldsymbol{x},c,d)\)で表す.\(d\)は\(w\)の語義を識別する分類器である.\(P_T(\boldsymbol{x},c)\)をターゲット領域上の分布とすれば,領域適応の問題における期待損失\(L_0\)は以下で表せる.\[L_0=\sum_{\boldsymbol{x},c}l(\boldsymbol{x},c,d)P_T(\boldsymbol{x},c)\]また\(P_S(\boldsymbol{x},c)\)をソース領域上の分布とすると以下が成立する.\[L_0=\sum_{\boldsymbol{x},c}l(\boldsymbol{x},c)\frac{P_T(\boldsymbol{x},c)}{P_S(\boldsymbol{x},c)}P_S(\boldsymbol{x},c)\]ここで共変量シフトの仮定から\[\frac{P_T(\boldsymbol{x},c)}{P_S(\boldsymbol{x},c)}=\frac{P_T(\boldsymbol{x})P_T(c|\boldsymbol{x})}{P_S(\boldsymbol{x})P_S(c|\boldsymbol{x})}=\frac{P_T(\boldsymbol{x})}{P_S(\boldsymbol{x})}\]となり,\(r(\boldsymbol{x})=P_T(\boldsymbol{x})/P_S(\boldsymbol{x})\)とおくと以下が成立する.\[L_0=\sum_{\boldsymbol{x},c}r(\boldsymbol{x})l(\boldsymbol{x},c,d)P_S(\boldsymbol{x},c)\]訓練データを\(D=\{(\boldsymbol{x_i},c_i)\}_{i=1}^N\)とし,\(P_S(\boldsymbol{x},c)\)を経験分布で近似すれば,\[L_0\approx\frac{1}{N}\sum_{i=1}^Nr(\boldsymbol{x_i})l(\boldsymbol{x_i},c_i,d)\]となるので,期待損失最小化の観点から考えると,共変量シフトの問題は以下の式\(L_1\)を最小にする\(d\)を求めればよいことがわかる.\begin{equation}L_1=\sum_{i=1}^Nr(\boldsymbol{x_i})l(\boldsymbol{x_i},c_i,d)\label{eq:1}\end{equation} \section{重み付き対数尤度の最大化} 分類器\(d\)として以下の事後確率最大化推定に基づく識別を考える.\[d(\boldsymbol{x})=\arg\max_{c}P_T(c|\boldsymbol{x})\]また損失関数として対数損失\(-\logP_T(c|\boldsymbol{x})\)を用いれば,\mbox{式(\ref{eq:1})}は以下となる.\[L_1=-\sum_{i=1}^Nr(\boldsymbol{x_i})\logP_T(c|\boldsymbol{x_i})\]つまり,分類問題の解決に\(P_T(c|\boldsymbol{x},\boldsymbol{\lambda})\)のモデルを導入するアプローチを取る場合,共変量シフト下での学習では,確率密度比を重みとした以下に示す重み付き対数尤度\(L(\boldsymbol{\lambda})\)を最大化するパラメータ\(\boldsymbol{\lambda}\)を求める形となる.\begin{equation}L(\boldsymbol{\lambda})=\sum_{i=1}^Nr(\boldsymbol{x_i})\logP(c_i|\boldsymbol{x_i},\boldsymbol{\lambda})\label{eq:2}\end{equation}ここではモデルとして以下の式で示される最大エントロピー法を用いる.\begin{equation}P_T(c|\boldsymbol{x},\boldsymbol{\lambda})=\frac{1}{Z(\boldsymbol{x},\boldsymbol{\lambda})}\exp\left(\sum_{j=1}^M\lambda_jf_j(\boldsymbol{x},c)\right)\label{eq:3}\end{equation}\(\boldsymbol{x}=(x_1,x_2,\cdots,x_M)\)が入力で\(c\)がクラスである.関数\(f_j(\boldsymbol{x},c)\)は素性関数であり,実質\(\boldsymbol{x}\)の真のクラスが\(c\)のときに\(x_j\)を返し,そうでないとき0を返す関数に設定される.\(Z(\boldsymbol{x},\boldsymbol{\lambda})\)は正規化項であり,以下で表せる.\begin{equation}Z(\boldsymbol{x},\boldsymbol{\lambda})=\sum_{c\inC}\exp\left(\sum_{j=1}^M\lambda_jf_j(\boldsymbol{x},c)\right)\label{eq:4}\end{equation}\noindentそして\(\boldsymbol{\lambda}=(\lambda_1,\lambda_2,\cdots,\lambda_M)\)が素性に対応する重みパラメータとなる.共変量シフト下ではない通常のケースでは,重みパラメータは最尤法から求める.つまり,訓練データ\(D=\{(\boldsymbol{x_i},c_i)\}_{i=1}^N\)とすると,以下の式\(F(\boldsymbol{\lambda})\)を最大にする\(\boldsymbol{\lambda}\)を求める.\[F(\boldsymbol{\lambda})=\sum_{i=1}^N\logP(c_i|\boldsymbol{x_i})\]これを各\(\lambda_j\)で偏微分し極値問題に直すと以下が成立する.\[\frac{\partialF(\boldsymbol{\lambda})}{\partial\lambda_j}=\sum_{i=1}^Nf_j(\boldsymbol{x_i},c_i)-\sum_{i=1}^N\sum_{c\inC}P_T(c|\boldsymbol{x_i},\boldsymbol{\lambda})f_j(\boldsymbol{x_i},c)=0\]これを勾配法などで解くことにより\(\boldsymbol{\lambda}\)が求まる.共変量シフト下の学習では\mbox{式(\ref{eq:2})}の\(L(\boldsymbol{\lambda})\)を最大にする\(\boldsymbol{\lambda}\)を求める.上記と全く同じ手順で,\[\frac{\partialL(\boldsymbol{\lambda})}{\partial\lambda_j}=\sum_{i=1}^Nr(\boldsymbol{x_i})f_j(\boldsymbol{x_i},c_i)-\sum_{i=1}^N\sum_{c\inC}P(c|\boldsymbol{x_i},\boldsymbol{\lambda})r(\boldsymbol{x_i})f_j(\boldsymbol{x_i},c)=0\]が得られる.これを勾配法などで解くことにより\(\boldsymbol{\lambda}\)が求まる.今,事例\(\boldsymbol{x_i}\)の頻度を\(h_i\)とすると,尤度は以下となる.\[\prod_{i=1}^NP(c_i|\boldsymbol{x_i})^{h_i}\]対数を取れば以下が得られる.\[\sum_{i=1}^Nh_i\logP(c_i|\boldsymbol{x_i})\]この式は重み付き対数尤度の\mbox{式(\ref{eq:2})}と同じ形なので,実際に\(\boldsymbol{\lambda}\)を求めるためには,事例\(\boldsymbol{x_i}\)の頻度\(h_i\)を\(r(\boldsymbol{x_i})\)と考えて,最大エントロピー法のツールなどを用いればよい\footnote{ただし利用できるツールは頻度を実数値として与えられるものでなくてはならない.事例の重みを頻度の拡張として実装したツールであるともいえる.本稿で用いた機械学習ツールClassias\cite{Classias}はこの条件を満たすため利用可能である.}. \section{確率密度比の算出} 共変量シフト下の学習では確率密度比の算出が鍵である.直接的には\(P_S(\boldsymbol{x})\)と\(P_T(\boldsymbol{x})\)を推定し,その比を取ればよいが,\(P_S(\boldsymbol{x})\)や\(P_T(\boldsymbol{x})\)を正確に推定することは困難であり,その比をとれば更に誤差が大きくなると予想できる.そのため確率密度比を直接モデル化して求める手法が活発に研究されている\cite{sugiyama-2010}.ただし本稿では簡易な手法を利用して確率密度比を算出することにした.本稿の目的はこのような簡易な手法による確率密度比の算出法であっても,WSDの領域適応の有力な解法になることを示すことである.対象単語\(w\)の用例\(\boldsymbol{x}\)の素性リストを\(\{f_1,f_2,\cdots,f_n\}\)とする.求めるのは領域\(R\in\{S,T\}\)上の\(\boldsymbol{x}\)の分布\(P_R(\boldsymbol{x})\)である.ここではNaiveBayesで使われるモデルを用いて算出する.NaiveBayesのモデルでは以下を仮定する.\[P_R(\boldsymbol{x})=\prod_{i=1}^{n}P_R(f_i)\]領域\(R\)のコーパス内の\(w\)の全ての用例について素性リストを作成しておく.ここで用例の数を\(N(R)\)とおく.また\(N(R)\)個の用例の中で,素性\(f\)が現れた用例数を\(n(R,f)\)とおく.MAP推定でスムージングを行い,\(P_R(f)\)を以下で定義する\cite{takamura}.\[P_R(f)=\frac{n(R,f)+1}{N(R)+2}\]以上より,ソース領域\(S\)の用例\(\boldsymbol{x}\)に対して,確率密度比\(r(\boldsymbol{x})=\frac{P_T(\boldsymbol{x})}{P_S(\boldsymbol{x})}\)が計算できる.ターゲット領域\(T\)の用例\(\boldsymbol{x}\)に対しては\(r(\boldsymbol{x})=1\)とする.また\(r_x<0.01\)となる用例\(\boldsymbol{x}\)は訓練データから削除した\footnote{この削除は処理の効率化のために行っている.また本稿の実験では削除しない場合よりもわずかによい結果となっていた.}. \section{提案手法} 「関連手法」の節で素性空間拡張法を紹介した.素性空間拡張法はデータの表現を領域適応で効果が出るように拡張する手法である.そして拡張されたデータに対しては任意の学習手法が利用できる.つまり拡張されたデータに対して,共変量シフト下の学習も可能である.本稿では,素性空間拡張法により拡張されたデータに対して,4章で説明した共変量シフト下の学習を行うことを提案手法する.具体的に示す.素性空間拡張法により,ソース領域の訓練データ\(\boldsymbol{x_s}\)は\(\boldsymbol{u_s}=(\boldsymbol{x_s},\boldsymbol{x_s},\boldsymbol{0})\)という3倍の長さのベクトルに拡張され,ターゲット領域の訓練データ\(\boldsymbol{x_t}\)は\(\boldsymbol{u_t}=(\boldsymbol{0},\boldsymbol{x_t},\boldsymbol{x_t})\)という3倍の長さのベクトルに拡張される.ここで\(\boldsymbol{u_s}\)に対しては確率密度比\(r(\boldsymbol{x_s})=P_T(\boldsymbol{x_s})/P_S(\boldsymbol{x_s})\)の重みをつけ,\(\boldsymbol{u_t}\)に対しては重み1をつける.また\(P_T(c|\boldsymbol{u})\)のモデルに最大エントロピー法を用い,重み付き対数尤度を最大化するパラメータを求めることで,\(P(c|\boldsymbol{u})\)を推定する.上記の重み付き対数尤度の式(目的関数)を示しておく.今,ソース領域の訓練データを\(D_s=\{(\boldsymbol{x_s^{(i)}},c_s^{(i)})\}_{i=1}^n\),ターゲット領域の訓練データを\(D_t=\{(\boldsymbol{x_t^{(i)}},c_t^{(i)})\}_{i=1}^m\)とおく.また\(\boldsymbol{x_s^{(i)}}\)と\(\boldsymbol{x_t^{(i)}}\)を素性空間拡張法により拡張したデータをそれぞれ\(\boldsymbol{u_s^{(i)}}\)と\(\boldsymbol{u_t^{(i)}}\)とおく.ここで\(\boldsymbol{x_s^{(i)}}\)と\(\boldsymbol{x_t^{(i)}}\)は\(M\)次元,\(\boldsymbol{u_s^{(i)}}\)と\(\boldsymbol{u_t^{(i)}}\)は\(3M\)次元のベクトルであることに注意する.提案手法の重み付き対数尤度の式は以下となる.\begin{gather*}L(\boldsymbol{\lambda})=\sum_{i=1}^nr(\boldsymbol{x_s^{(i)}})\logP(c_s^{(i)}|\boldsymbol{u_s^{(i)}},\boldsymbol{\lambda})+\sum_{i=1}^m\logP(c_t^{(i)}|\boldsymbol{u_t^{(i)}},\boldsymbol{\lambda})\\P(c|\boldsymbol{u},\boldsymbol{\lambda})=\frac{1}{Z(\boldsymbol{u},\boldsymbol{\lambda})}\exp\left(\sum_{j=1}^{3M}\lambda_jf_j(\boldsymbol{u},c)\right)\\Z(\boldsymbol{u},\boldsymbol{\lambda})=\sum_{c\inC}\exp\left(\sum_{j=1}^{3M}\lambda_jf_j(\boldsymbol{u},c)\right)\end{gather*} \section{実験} BCCWJコーパスのPB(書籍),OC(Yahoo!知恵袋)及びPN(新聞)を異なった領域として実験を行う.SemEval-2の日本語WSDタスク\cite{semeval-2010}ではこれら領域のコーパスの一部に語義タグを付けたデータを公開しており,そのデータを利用する.この3つの領域からある程度頻度のある多義語16単語をWSDの対象単語とする.これら単語と辞書上での語義数及び各コーパスでの頻度と語義数を\mbox{表\ref{tab:target-word}}に示す\footnote{語義は岩波国語辞書がもとになっている.そこでの中分類までを対象にした.また「入る」は辞書上の語義が3つだが,OCやPBでは4つの語義がある.これはSemEval-2の日本語WSDタスクでは新語義のタグも許しているからである.}.領域適応の方向としてはOC→PB,PB→PN,PN→OC,OC→PN,PN→PB,PB→OCの計6通りの方向が存在する.\begin{table}[t]\caption{対象単語}\label{tab:target-word}\input{04table01.txt}\end{table}本稿で利用した素性は以下の8種類である.(e0)\(w\)の表記,(e1)\(w\)の品詞,(e2)\(w_{-1}\)の表記,(e3)\(w_{-1}\)の品詞,(e4)\(w_1\)の表記,(e5)\(w_1\)の品詞,(e6)\(w\)の前後3単語までの自立語の表記,(e7)e6の分類語彙表の番号の4桁と5桁.なお対象単語の直前の単語を\(w_{-1}\),直後の単語を\(w_1\)としている.単語\(w_i\)についてソース領域\(S\)からターゲット領域\(T\)への領域適応の実験について説明する.まずターゲット領域\(T\)のラベル付きデータをランダムに15個取り出し,残りを評価データとする.つまり利用できる訓練データはソース領域\(S\)のラベル付きデータとターゲット領域\(T\)からランダムに取り出した15個のラベル付きデータとなる.この訓練データを用いて手法Aにより分類器を作成し,先の評価データの語義識別の正解率\(P_{i,k}\)を測る.この実験を5回行い\(P_{i,1},P_{i,2},\cdots,P_{i,5}\)を得る.それらの平均\(P_i\)を「単語\(w_i\)の\(S\)から\(T\)への領域適応における手法Aの平均正解率」とする.上記の単語\(w_i\)を16種類の各対象単語\(w_1,w_2,\cdots,w_{16}\)に変えることで,16個の平均正解率\(P_1,P_2,\cdots,P_{16}\)が得られる.それらの平均\(P\)を「\(S\)から\(T\)への領域適応における手法Aの平均正解率」とする(\mbox{図~\ref{zu1}}参照).\begin{figure}[b]\begin{center}\includegraphics{21-1ia4f1.eps}\end{center}\caption{手法の評価値(平均正解率)の算出}\label{zu1}\end{figure}\begin{table}[b]\caption{各手法の平均正解率}\label{tab:resultall}\input{04table02.txt}\end{table}上記の手法Aとしては,以下の6種類を試す.(1)ソース領域のラベル付きデータのみを用いる手法(ターゲット領域の15個のラベル付きデータの重みを0とする手法)(S-Only),(2)ターゲット領域からランダムに取り出した15個のラベル付きデータのみを用いる手法(ソース領域のラベル付きデータの重みを0とする手法)(T-Only),(3)ソース領域のラベル付きデータとターゲット領域の15個のラベル付きデータを用いる手法(S+T),(4)Daum{\'e}の手法(Daum{\'e}),(5)本稿で示した簡易手法により算出した確率密度比を用いた共変量シフトによる手法(Cov-Shift),(6)素性空間拡張法から得られた訓練データに対して,本稿で示した簡易手法により算出した確率密度比を用いた共変量シフトによる手法(提案手法)の計6種類である.またすべての手法において学習アルゴリズムとしては最大エントロピー法を用いた.またその実行にはツールのClassiasを用いた\cite{Classias}.\(S\)から\(T\)への領域適応における各手法の平均正解率を\mbox{表\ref{tab:resultall}}に示す.Daum{\'e}とCov-Shiftを比較するとDaum{\'e}の方がわずかに高い正解率を示している.この点は考察で議論する.ただし提案手法はDaum{\'e}よりも高い正解率であり,共変量シフトによる解法の効果が確認できる. \section{考察} \subsection{負の転移の有無}WSDの領域適応では,対象単語毎に領域適応の問題が生じている.実験では領域の組み合わせで6通り,対象単語が16単語あるので,合計96($=6\times16$)通りの領域適応の問題を扱ったことになる.ここでは各領域適応の問題に対して負の転移が生じているかどうかを調べ,それぞれのケースに分けて,各手法の正解率を調べた.\begin{table}[b]\caption{負の転移が生じていない領域適応}\label{tab:funoteni}\input{04table03.txt}\end{table}まず負の転移が生じているかどうかの判定には,先の実験でより得られた\verb|T-Only|,\verb|S-Only|及び\verb|S+T|の正解率を利用する.もしも正解率で以下の関係が成立しているなら,負の転移が生じていないと考えられる.\begin{center}\verb|T-Only,S-Only<S+T|\end{center}結果を\mbox{表\ref{tab:funoteni}}に示す.チェックがつけられた箇所が負の転移が生じていない領域適応の問題である.96種類の領域適応の問題の中で44種類において負の転移が生じていない.次に負の転移が生じているかいないかのケースに分けて,各手法の平均正解率を調べた.結果を\mbox{表\ref{tab:funoteni2}}に示す.\begin{table}[t]\caption{負の転移と各手法の平均正解率}\label{tab:funoteni2}\input{04table04.txt}\end{table}\mbox{表\ref{tab:funoteni2}}において領域適応に対処する3手法(Daum{\'e},Cov-Shift,提案手法)を見ると,提案手法は負の転移の有無に関わらずCov-Shiftよりも高い正解率であり,提案手法はCov-Shiftの改良になっていることがわかる.更に負の転移が生じていないケースではCov-ShiftはDaum{\'e}よりも正解率が高く,このケースでは素性に重みをつけるよりも事例に重みをつける方が効果があることがわかる.ただし負の転移が生じるケースでは,提案手法はDaum{\'e}よりも正解率が若干低い.つまり提案手法をDaum{\'e}の手法の改良と見た場合,負の転移が生じるケースでは正解率の低下を抑え,その代わりに負の転移が生じないケースで正解率を高めることで,全体的な正解率を改善する手法と見なせる.また領域適応に対処しない3手法(S-Only,T-Only,S+T)も含めて比較すると,負の転移が生じるケースでは領域適応に対処する3手法(Daum{\'e},Cov-Shift,提案手法)の正解率はかなり悪い.つまりWSDの領域適応では負の転移を検出することで大きな改善が期待できる.共変量シフト下の学習では,負の転移が生じているケースに対しては,ソース領域のデータに0に近い重みを与えられればよいはずである.より正確な確率密度比の推定法を利用することで,このような重み付けが可能だと考える.この点は今後の課題である.\subsection{確率密度比の調整}確率密度比を精度良く推定することは困難な問題である.そのために求まった確率密度比を調整することも行われている.杉山は確率密度比\(r\)に\(p\)(\(0<p<1\))乗した\(r^p\)を重みにすることを提案している\cite{sugiyama-2006-09-05}.またYamadaはrelativedensityratioとして確率密度比を以下の形で求めることを提案してる\cite{yamada2011relative}.\[\frac{P_T(\boldsymbol{x})}{\alphaP_T(\boldsymbol{x})+(1-\alpha)P_S(\boldsymbol{x})}\]ここでは\(r^{0.5}\)の重みと\(\alpha=0.5\)のrelativedensityratioを試した.結果を\mbox{表\ref{tab:mitudohi-hikaku}}に示す.\mbox{表\ref{tab:mitudohi-hikaku}}における提案手法とCov-Shiftは\mbox{表\ref{tab:resultall}}における提案手法とCov-Shiftと同じものである.\(r^{0.5}\)が\mbox{Cov-Shift}の重み\(r\)を0.5乗したものであり,RDRが\(\alpha=0.5\)のrelativedensityratioである.\mbox{表\ref{tab:mitudohi-hikaku}}をみると,\(r^{0.5}\)やrelativedensityratioの調整は一部有効な問題もあったが,全体として見ると,効果はあまりない.これも本来の確率密度値\(P_S(\boldsymbol{x})\)や\(P_T(\boldsymbol{x})\)の推定が簡易すぎるために生じていると考える.\begin{table}[b]\caption{確率密度比の調整による平均正解率}\label{tab:mitudohi-hikaku}\input{04table05.txt}\end{table}確率密度比を確率統計的により精緻に求めていくことは重要である.ただし確率密度比は事例の重み,つまり事例の重要度を意味している.事例の重要度という自然言語処理的な観点からWSDの領域適応に特化した重みの設定も可能である.\subsection{SVMの利用}本稿では学習アルゴリズムとして最大エントロピー法を用いた.共変量シフトの解法として,重み付き対数尤度を最大化する形では,\(P_T(c|\boldsymbol{x})\)をモデル化するアプローチに限られる.しかし共変量シフト下の学習では確率密度比を重みにして期待損失を最小化すれば良いので,損失関数ベースの学習手法が利用できる.例えばヒンジ損失関数に密度比で重みづけすることで共変量シフト下の学習にSVMを利用できる\cite{sugiyama-book}.ただしSVM自体の実装が容易ではないために簡単に試すことはできない.\begin{table}[b]\caption{SVMによる平均正解率}\label{tab:result-svm}\input{04table06.txt}\end{table}ここでは共変量シフト下の学習にSVMを用いるのではなく,素性空間拡張法により拡張されたデータに対して,SVMを利用してみる.実行にはツールのlibsvm\footnote{http://www.csie.ntu.edu.tw/\~{}cjlin/libsvm/}を用いた.またそこで利用したカーネルは線形カーネルである.実験結果を\mbox{表\ref{tab:result-svm}}に示す.提案手法が本稿での提案手法での平均正解率であり,D3-MEが素性空間拡張法と最大エントロピー法を利用した場合の平均正解率である.つまり提案手法とD3-MEは,\mbox{表\ref{tab:resultall}}での提案手法とDaum{\'e}に対応する.そしてD3-SVMが素性空間拡張法とSVMを利用した場合の平均正解率である.提案手法はD3-SVMよりもわずかに高い正解率となっているが,その差は小さく識別能力については,提案手法とD3-SVMは同程度と言える.またD3-SVMはD3-MEよりも正解率が高い.つまり最大エントロピー法ではなく,SVMを利用する方が正解率が高くなると予想できる.このことから共変量シフト下の学習にSVMを利用すれば,改善が可能であると考えられる.これは今後の課題である.\subsection{教師なし手法への適用}共変量シフト下での学習では訓練データの中にターゲット領域のデータが含まれる必要はない.ターゲット領域の訓練データを含めなければ,教師なし領域適応手法となるはずである.この点を確認した実験を行った.実験結果を\mbox{表\ref{tab:unsuper}}に示す.表のS-Onlyの列はソース領域の訓練データだけで学習した結果である.これは\mbox{表\ref{tab:resultall}}のS-Onlyに対応する.W-S-Onlyはソース領域の訓練データのみを使った共変量シフト下での学習手法である.また参考までに提案手法の結果も記している.\begin{table}[b]\caption{重み付き教師なし学習による平均正解率}\label{tab:unsuper}\input{04table07.txt}\end{table}確率密度比を用いるW-S-Onlyではソース領域のデータへの重みが小さくなりがちである.ここでの実験では重みが0.01未満の場合はそのデータを省いて学習させている.そのためにW-S-Onlyでは極端にラベル付きデータが減少するケースがあった.結果として精度が低くなってしまったと考えられる.また多くの単語で正解率の低下が起こっていた.この原因としては,重みのあるデータの欠如だと考える.例えば,語義\(c_1\)のデータ\(x_1\)の重みが\(0.01\),語義\(c_2\)のデータ\(x_2\)の重みが\(0.02\)である場合,どちらの重みも「小さく」,その差はほぼ等しいと見なして\(P(c_1)=P(c_2)=0.5\)と考えるのが妥当であるが,「小さい」という点を考えないと\(P(c_1)=1/3\),\(P(c_2)=2/3\)となってしまう.「小さい」という点を考えるためには比較となるある程度「大きな」データが必要である.例えば,上記の設定の上で語義\(c_1\)のデータ\(x_3\)の重みが1などというデータが存在すれば,\(P(c_1)=101/103\),\(P(c_2)=2/103\)となり,これは妥当である.つまり重みが低いデータが多数を占めるような場合,信頼性のある推定が行えない.ある程度,重みのあるデータが必要だと思われる.このため共変量シフト下での学習を教師なしの枠組みに単純に利用することは難しい.教師なしの枠組みへの利用方法の検討は今後の課題である. \section{おわりに} 本稿ではWSDの領域適応の問題が共変量シフトの問題と見なせることを示した.そして,共変量シフトの標準的な解法である確率密度比を重みにしたパラメータ学習により,WSDの領域適応の解決が図れることを示した.また素性空間拡張法により拡張されたデータに対して,共変量シフトの解法を行う手法を提案した.BCCWJコーパスの3つ領域OC(Yahoo!知恵袋),PB(書籍)及びPN(新聞)を選び,SemEval-2の日本語WSDタスクのデータを利用して,上記領域にある程度の頻度がある多義語16単語を対象に,WSDの領域適応の実験を行った.実験の結果,提案手法はDaum{\'e}の手法と同等以上の正解率を出した.共変量シフトの解法では確率密度比の算出が鍵となるが,ここではNaiveBayesで利用されるモデルを利用した簡易な算出法を試みた.このような簡易な算出法であってもWSDの領域適応に共変量シフトの解法を利用する効果が高いことが示された.より正確な確率密度比の推定法を利用したり,最大エントロピー法に代えてSVMを利用するなどの工夫で更なる改善が可能である.また教師なし領域適応へも応用可能である.WSDの領域適応に共変量シフトの解法を利用することは有望であると考えられる.\acknowledgmentClassiasの作者である岡崎直観氏に,Classiasの事例の重み付け方法について教えていただきました.また本稿の査読者殿には有益なコメントいただきました.感謝いたします.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chan\BBA\Ng}{Chan\BBA\Ng}{2005}]{chan2005word}Chan,Y.~S.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2005\BBCP.\newblock\BBOQWordSenseDisambiguationwithDistributionEstimation.\BBCQ\\newblockIn{\BemProceedingsofIJCAI-2005},\mbox{\BPGS\1010--1015}.\bibitem[\protect\BCAY{Chan\BBA\Ng}{Chan\BBA\Ng}{2006}]{chan2006estimating}Chan,Y.~S.\BBACOMMA\\BBA\Ng,H.~T.\BBOP2006\BBCP.\newblock\BBOQEstimatingclasspriorsindomainadaptationforwordsensedisambiguation.\BBCQ\\newblockIn{\BemProceedingsofCOLING-ACL-2006},\mbox{\BPGS\89--96}.\bibitem[\protect\BCAY{Daum\'{e}}{Daum\'{e}}{2007}]{daume0}Daum\'{e},H.~I.\BBOP2007\BBCP.\newblock\BBOQFrustratinglyEasyDomainAdaptation.\BBCQ\\newblockIn{\BemProceedingsofACL-2007},\mbox{\BPGS\256--263}.\bibitem[\protect\BCAY{張本\JBA宮尾\JBA辻井}{張本\Jetal}{2010}]{harimoto}張本佳子\JBA宮尾祐介\JBA辻井潤一\BBOP2010\BBCP.\newblock構文解析の分野適応における精度低下要因の分析及び分野間距離の測定手法.\\newblock\Jem{言語処理学会第16回年次大会},\mbox{\BPGS\27--30}.\bibitem[\protect\BCAY{Jiang\BBA\Zhai}{Jiang\BBA\Zhai}{2007}]{jiang2007instance}Jiang,J.\BBACOMMA\\BBA\Zhai,C.\BBOP2007\BBCP.\newblock\BBOQInstanceweightingfordomainadaptationinNLP.\BBCQ\\newblockIn{\BemProceedingsofACL-2007},\mbox{\BPGS\264--271}.\bibitem[\protect\BCAY{神嶌}{神嶌}{2010}]{kamishima}神嶌敏弘\BBOP2010\BBCP.\newblock転移学習.\\newblock\Jem{人工知能学会誌},{\Bbf25}(4),\mbox{\BPGS\572--580}.\bibitem[\protect\BCAY{古宮\JBA奥村}{古宮\JBA奥村}{2012}]{komiya-nlp2012}古宮嘉那子\JBA奥村学\BBOP2012\BBCP.\newblock語義曖昧性解消のための領域適応手法の決定木学習による自動選択.\\newblock\Jem{自然言語処理},{\Bbf19}(3),\mbox{\BPGS\143--166}.\bibitem[\protect\BCAY{Komiya\BBA\Okumura}{Komiya\BBA\Okumura}{2011}]{komiya3}Komiya,K.\BBACOMMA\\BBA\Okumura,M.\BBOP2011\BBCP.\newblock\BBOQAutomaticDeterminationofaDomainAdaptationMethodforWordSenseDisambiguationusingDecisionTreeLearning.\BBCQ\\newblockIn{\BemProceedingsofIJCNLP-2011},\mbox{\BPGS\1107--1115}.\bibitem[\protect\BCAY{Komiya\BBA\Okumura}{Komiya\BBA\Okumura}{2012}]{komiya2}Komiya,K.\BBACOMMA\\BBA\Okumura,M.\BBOP2012\BBCP.\newblock\BBOQAutomaticDomainAdaptationforWordSenseDisambiguationBasedonComparisonofMultipleClassifiers.\BBCQ\\newblockIn{\BemProceedingsofPACLIC-2012},\mbox{\BPGS\75--85}.\bibitem[\protect\BCAY{Maekawa}{Maekawa}{2007}]{bccwj}Maekawa,K.\BBOP2007\BBCP.\newblock\BBOQDesignofaBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemSymposiumonLarge-ScaleKnowledgeResources(LKR2007)},\mbox{\BPGS\55--58}.\bibitem[\protect\BCAY{Okazaki}{Okazaki}{2009}]{Classias}Okazaki,N.\BBOP2009\BBCP.\newblock\BBOQClassias:acollectionofmachine-learningalgorithmsforclassification.\BBCQ\\texttt{http://www.chokkan.org/software/classias/}.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2010}]{semeval-2010}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2010\BBCP.\newblock\BBOQSemEval-2010Task:JapaneseWSD.\BBCQ\\newblockIn{\BemProceedingsofthe5thInternationalWorkshoponSemanticEvaluation},\mbox{\BPGS\69--74}.\bibitem[\protect\BCAY{Plank\BBA\vanNoord}{Plank\BBA\vanNoord}{2011}]{plank}Plank,B.\BBACOMMA\\BBA\vanNoord,G.\BBOP2011\BBCP.\newblock\BBOQEffectivemeasuresofdomainsimilarityforparsing.\BBCQ\\newblockIn{\BemProceedingsofACL-2011},\mbox{\BPGS\1566--1576}.\bibitem[\protect\BCAY{Ponomareva\BBA\Thelwall}{Ponomareva\BBA\Thelwall}{2012}]{ponomareva}Ponomareva,N.\BBACOMMA\\BBA\Thelwall,M.\BBOP2012\BBCP.\newblock\BBOQWhichresourceisbestforcross-domainsentimentanalysis?\BBCQ\\newblockIn{\BemProceedingsofCICLing-2012},\mbox{\BPGS\488--499}.\bibitem[\protect\BCAY{Remus}{Remus}{2012}]{rem2012}Remus,R.\BBOP2012\BBCP.\newblock\BBOQDomainAdaptationUsingDomainSimilarity-andDomainComplexity-basedInstanceSelectionforCross-domainSentimentAnalysis.\BBCQ\\newblockIn{\BemProceedingsofthe2012IEEE12thInternationalConferenceonDataMiningWorkshops(ICDMW2012)WorkshoponSentimentElicitationfromNaturalTextforInformationRetrievalandExtraction(SENTIRE)},\mbox{\BPGS\717--723}.\bibitem[\protect\BCAY{Rosenstein,Marx,Kaelbling,\BBA\Dietterich}{Rosensteinet~al.}{2005}]{rosenstein2005transfer}Rosenstein,M.~T.,Marx,Z.,Kaelbling,L.~P.,\BBA\Dietterich,T.~G.\BBOP2005\BBCP.\newblock\BBOQTotransferornottotransfer.\BBCQ\\newblockIn{\BemProceedingsoftheNIPS2005WorkshoponInductiveTransfer:10YearsLater}.\bibitem[\protect\BCAY{齋木\JBA高村\JBA奥村}{齋木\Jetal}{2008}]{saiki-2008-03-27}齋木陽介\JBA高村大也\JBA奥村学\BBOP2008\BBCP.\newblock文の感情極性判定における事例重み付けによるドメイン適応.\\newblock\Jem{情報処理学会第184回自然言語処理研究会},\mbox{\BPGS\61--67}.\bibitem[\protect\BCAY{Shimodaira}{Shimodaira}{2000}]{shimodaira2000improving}Shimodaira,H.\BBOP2000\BBCP.\newblock\BBOQImprovingpredictiveinferenceundercovariateshiftbyweightingthelog-likelihoodfunction.\BBCQ\\newblock{\BemJournalofstatisticalplanningandinference},{\Bbf90}(2),\mbox{\BPGS\227--244}.\bibitem[\protect\BCAY{新納\JBA佐々木}{新納\JBA佐々木}{2013}]{shinnou-gengo-13}新納浩幸\JBA佐々木稔\BBOP2013\BBCP.\newblockk近傍法とトピックモデルを利用した語義曖昧性解消の領域適応.\\newblock\Jem{自然言語処理},{\Bbf20}(5),\mbox{\BPGS\707--726}.\bibitem[\protect\BCAY{Sogaard}{Sogaard}{2013}]{da-book}Sogaard,A.\BBOP2013\BBCP.\newblock{\BemSemi-SupervisedLearningandDomainAdaptationinNaturalLanguageProcessing}.\newblockMorgan\&Claypool.\bibitem[\protect\BCAY{杉山}{杉山}{2006}]{sugiyama-2006-09-05}杉山将\BBOP2006\BBCP.\newblock共変量シフト下での教師付き学習.\\newblock\Jem{日本神経回路学会誌},{\Bbf13}(3),\mbox{\BPGS\111--118}.\bibitem[\protect\BCAY{杉山}{杉山}{2010}]{sugiyama-2010}杉山将\BBOP2010\BBCP.\newblock密度比に基づく機械学習の新たなアプローチ.\\newblock\Jem{統計数理},{\Bbf58}(2),\mbox{\BPGS\141--155}.\bibitem[\protect\BCAY{Sugiyama\BBA\Kawanabe}{Sugiyama\BBA\Kawanabe}{2011}]{sugiyama-book}Sugiyama,M.\BBACOMMA\\BBA\Kawanabe,M.\BBOP2011\BBCP.\newblock{\BemMachineLearninginNon-StationaryEnvironments:IntroductiontoCovariateShiftAdaptation}.\newblockMITPress.\bibitem[\protect\BCAY{高村}{高村}{2010}]{takamura}高村大也\BBOP2010\BBCP.\newblock\Jem{言語処理のための機械学習入門}.\newblockコロナ社.\bibitem[\protect\BCAY{Van~Asch\BBA\Daelemans}{Van~Asch\BBA\Daelemans}{2010}]{vanasch}Van~Asch,V.\BBACOMMA\\BBA\Daelemans,W.\BBOP2010\BBCP.\newblock\BBOQUsingdomainsimilarityforperformanceestimation.\BBCQ\\newblockIn{\BemProceedingsofthe2010WorkshoponDomainAdaptationforNaturalLanguageProcessing},\mbox{\BPGS\31--36}.\bibitem[\protect\BCAY{Yamada,Suzuki,Kanamori,Hachiya,\BBA\Sugiyama}{Yamadaet~al.}{2011}]{yamada2011relative}Yamada,M.,Suzuki,T.,Kanamori,T.,Hachiya,H.,\BBA\Sugiyama,M.\BBOP2011\BBCP.\newblock\BBOQRelativedensity-ratioestimationforrobustdistributioncomparison.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf25}(5),\mbox{\BPGS\1370--1370}.\end{thebibliography}\begin{biography}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年4月茨城大学工学部システム工学科助手.1997年10月同学科講師,2001年4月同学科助教授,現在,茨城大学工学部情報工学科准教授.博士(工学).機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{佐々木稔}{1996年徳島大学工学部知能情報工学科卒業.2001年同大学大学院博士後期課程修了.博士(工学).2001年12月茨城大学工学部情報工学科助手.現在,茨城大学工学部情報工学科講師.機械学習や統計的手法による情報検索,自然言語処理等に関する研究に従事.言語処理学会,情報処理学会各会員.}\end{biography}\biodate\end{document}
V15N05-03
\section{はじめに} label{hajime}インターネットの拡大により大量の文書情報が入手可能となった現在において,ユーザが自分の望む情報を手早く手に入れるための要素技術として要約が重要となってきている.近年の自動要約の研究では新聞記事や論説文,議事録,特許文書を対象とするものが多い.こうした文書は論理的な構造を持つため,その文書構造を利用した要約手法が提案され,一定の成果が上げられている\cite{yamamoto1995,hatayama2002}.一方で,より多くの人がインターネットを使うようになり,Web上で多くの文芸作品が公開され,自由に読むことができるようになった.さらに,著作権の切れた文学作品を電子テキスト化し公開している青空文庫\footnote{http://www.aozora.gr.jp}のようなインターネット電子図書館も存在している.こうした背景から電子化された多くの文学作品や物語から好みに応じた,読みたい作品を探す手段としての要約(指示的要約)の必要性があると考えられる.また,近年``あらすじ本''と呼ばれる複数の文学作品のあらすじをまとめて紹介している本が出版されていることから,その内容を簡潔にまとめた原文書の代わりとして機能する要約(報知的要約)まで必要とされていることが伺える.物語の指示的要約には結末を含まず,物語の展開においてある程度重要な箇所を含んでいることが必要とされる.これに対して,重要な箇所の推定は物語全体の構成を把握することが必要である.よって本研究では物語に対して報知的要約を作成する手法の構築を目標とする.これにより同時に指示的要約もカバーすることができると考える.物語は登場人物が遭遇した出来事と登場人物の行動の描写で構成されている.出来事は基本的に時系列順に記述されるため,論説文に見られるような,主張する事柄を中心としてその前後に根拠や前提を配置するといった論理的な構成はほとんど存在しない.さらに,論説文では著者の主張が述べられている箇所が重要であるとされ,“〜する必要がある”や“〜すべきである”といった文末表現を手がかり語として要約作成に利用することができる.しかし,物語ではどの箇所が重要であるかは全体の流れや他の箇所との関係から決定されるため,そのような手がかり語を定義することができない.従って,新聞記事や論説文を対象としているような要約手法では物語の要約に適応しないと考えられる.また,新聞記事の要約では背景となる前提知識を読者が保有しているために文章の繋がりが悪くてもある程度は推測によって補完することができるため,要約中に記事中の重要文がいくつか存在すれば要約として機能する.これに対して物語では背景となる前提知識は物語固有であることが多いため,その要約は対象とする物語の重要な要素を含むだけでなく要約中の整合性まで考慮しなければ要約として十分に機能することができない.整合性とは文書の意味的なまとまりの良さのことであり,本稿では話題間の繋がりの良さのことを示す.本研究では話題の繋がりに焦点を置いた物語要約システムを構築する.物語は登場人物の行動を中心に展開していくことから,まず登場人物を自動抽出して,それを軸に話題にまとまりのある重要箇所(\ref{method}章参照)を取り出す.さらに重要箇所間の繋がりを補完し読みやすさを向上させるために,局所的重要度を測定し重要箇所間の連結を考慮した文抽出を提案する.本手法を評価するために物語9作品を用いた複数人による人手の要約評価を行い,ベースラインとしてtf$\cdot$idfを利用した重要文抽出手法との比較を行う. \section{関連研究} label{related}自動要約の主な手法の一つに重要文抽出がある.これはテキスト中の文に対して重要度を計算し,その上位から要約率分だけ抽出するという手法である.重要度の計算にはtf$\cdot$idfを用いる手法\cite{hirao2001}や,単語の共起を利用する手法\cite{sunayama2000}などがある.これらの手法においては重要度は文そのものにしか着目しておらず,抽出された文同士の関係については考慮されていない.そのため生成された要約には以下のような問題が生じる\cite{okumura}.\begin{enumerate}\item要約文に代名詞が含まれていても,その先行詞が要約中に存在しない場合がある.\item全体を通して首尾一貫性に欠ける要約が生成される可能性がある.\end{enumerate}1.の問題に対しては照応解析を行い,代名詞をその先行詞に置換するなどといった対応で解消できる.2.の問題は生成された要約の読みやすさにも関係している.読みやすい要約の作成は自動要約の研究において大きな課題であり,様々な研究が行われている.話題の繋がりを考慮した先行研究も存在する.市丸ら\cite{itimaru2005}は文中で共起する単語を話題と定義し,その連想による文間,段落間の繋がりに着目した手法を,館林ら\cite{tatebayasi2006}はテキストをセグメントに分割し,そのセグメント内での重要性とセグメント間の結束性に関する重要性を同時に考慮した要約手法を提案し,それぞれ一定の成果を上げている.要約全体のまとまりを考慮しているという点では,本研究はこれらの研究と関連があるが,より物語に即しており,単語の共起ではなく登場人物とその行動に着目しているという点で異なっている.自動要約を含め現在行われている言語処理の研究では新聞記事や論説文を対象としているものが多いが,物語を対象とした研究も行われている.物語の構造に関する研究として,石井ら\cite{isii2006}は登場人物に着目した事象をネットワークで繋ぐことによる構造化を,馬場ら\cite{baba2007}は物語テキストの柔軟な検索のために人物に着目したモデル化を行っている.また,小林\cite{kobayashi2007}は場所,時間,登場人物に着目した場面境界の認定手法を提案している.一方,物語を対象とした要約の研究に関して,Kazantseva~\cite{Anna}は短編小説の指示的な要約の作成を目的としたSVMによる重要文抽出を行っている.また,横野\cite{yokono2007}は登場人物の感情表現に着目した文抽出による要約を,村上ら\cite{murakami2004}は命題間の関係に着目した要約手法を,山本ら\cite{syousetu}は隣接文間の結束性に基づいた提案している.他にも,物語の登場人物に着目した手法としてLehnertの提案したplotunitによるものがある\cite{plotunit}.これは物語の構造の中心は登場人物の感情的な反応と感情の状態,それらの因果関係にあるという考えに基づいている.この要約手法では物語中の出来事に対して登場人物が良い感情を抱いたか悪い感情を抱いたかという情報を付与し,それらを組み合わせて物語の構造を組み立て,要約を作成する.しかし,実現に関しては出来事に対して登場人物がどのような感情を抱いたかと推定することは困難である.本研究は物語の登場人物に着目するという点ではLehnertと同様であるが,行動から登場人物の感情を推測するといった深い意味処理は行わない.また,整合性に焦点を当てているという点で他の物語の自動要約手法とは異なっている. \section{整合性を考慮した要約文の抽出} label{method}\ref{hajime}章で述べたように整合性とは意味的な文書のまとまりの良さのことであり,これを実現するためには適切に話題間の繋がりを扱うことが重要であると考える.ここで話題とは同じ対象について述べている一つのまとまりのことである.物語では時間の経過や舞台となる場所の移動によって区切られる場面という大きなまとまりが考えられるが,本稿では話題を場面よりも小さな単位と捉え,一つの場面は複数の話題から構成されていると考える.本稿で提案する手法の流れを図\ref{flow}に示す.\begin{figure}[b]\begin{center}\includegraphics{15-5ia3f1.eps}\end{center}\caption{提案手法の流れ}\label{flow}\end{figure}提案手法は要約生成のための3つの手順と,その手順において利用する人物辞書を構築するための登場人物抽出で構成される.登場人物抽出では人物辞書の他に未知語として出現した登場人物表現を登録した形態素辞書を作成する.この形態素辞書は要約生成の各手順で行う処理に利用する.要約生成に関する手順について説明する.まず一つ目は物語中にいくつか存在する場面内において話題が一貫した箇所(以降{\bfトピック・ブロック}と呼ぶ)があると仮定して,トピック・ブロック抽出を行う.文を単位とする既存の要約手法では文間の関係が考慮されず,そのために一連の事象が複数の文に渡って記述されている場合に正しく要約を抽出することができない.よってトピック・ブロックの導入により話題が一貫した単位を要約の最小単位として,不用意に話題を切断しないことが期待できる.二つ目としてトピック・ブロックから要約に必要となる重要なトピック・ブロック(以降{\bf重要ブロック}と呼ぶ)を選択するために,登場人物辞書を用いて登場人物を軸とした重要度を提案する.これは登場人物が物語のストーリーの理解に重要な要素である\cite{brian1981}という観点から,トピック・ブロック中に登場人物の活動が記述されている文があるものを重要とする.三つ目として重要箇所として取り出されたトピック・ブロック間の話題の整合性を補完するための文(以降{\bfブロック連結文}と呼ぶ)を抽出する.これは重要箇所の抽出というタスクは取り出した文の整合性やまとまりを求めるというタスクと直交していることが原因であり,重要ブロックのみを取り出しても,ブロック間に不整合が生じるためである.この処理は文を単位として行う.これは不整合の解消には場面の切り替えや主人公の移動などの話題間の繋がりを示唆する文が物語には存在するはずで,それらは大抵1文単位で記述されていることが期待できるからである(図\ref{segments}).\begin{figure}[b]\begin{center}\includegraphics{15-5ia3f2.eps}\end{center}\caption{重要ブロックとブロック連結文}\label{segments}\end{figure}生成する要約の要約率と重要ブロックとブロック連結文の割合はパラメータとして人手で設定する.重要ブロックの割合を大きくすれば物語に重要な文を多く含む要約を生成し,逆にブロック連結文の割合を大きくすれば,整合性のある要約を生成する.次の\ref{extract}節で登場人物抽出について述べた後,\ref{topic}節でトピック・ブロック抽出について述べる.\ref{select}節で重要ブロック抽出について説明し,\ref{connectsentence}節でブロック連結文の抽出について説明する.\subsection{登場人物抽出}\label{extract}登場人物を抽出するというタスクにおける問題は以下の2点である.\begin{list}{}{}\item[(a).]登場人物はその物語に固有の表現であるものが多く,それらは単語として一般的な辞書に登録されていない.\item[(b).](a)と関連しているが『さるかに合戦』に登場する``うす''のように人名でないものが人物化することがある.\end{list}従って,登場人物の抽出に際して人名辞書などの既存の辞書に頼った方法では抽出漏れが生じてしまう.そこで本研究では物語文から次の2段階の手法で登場人物を推定する.\begin{enumerate}\item文字列中から登場人物候補を文字種情報と形態素情報を利用して獲得し,辞書登録を行う.\item登録した辞書を用いた係り受け解析器で文を解析し,登場人物候補の単語の係り先の動詞の意味から人物表現を同定する.\end{enumerate}馬場ら\cite{baba2007}は形態素解析で得られた品詞情報を利用した人物抽出の手法を採用している.また網羅性の向上のために人名辞典から人名を収集し形態素辞書に登録している.この手法は対象とする物語のジャンルを限定すれば有効である.これに対して本研究では対象のジャンルを限定しない.そのため,辞書を利用した手法ではなく,物語における登場人物表現の出現の仕方に着目した手法を提案する.上記の2段階の手法について具体的に記述する.まず物語文から登場人物候補を取り出すために文字n-gramを利用して頻度の高い部分文字列を獲得する.n-gramの単位を形態素ではなく文字にしている理由は,登場人物表現が辞書に登録されていないために生じる形態素解析誤りの影響を抑えるためである.これによって例えば『さるかに合戦』で``〜とこがには〜''などの表記から``こがに''という正しい候補を獲得することができる.次に,得られた部分文字列に対してMeCab\footnote{http://mecab.sourceforge.net}による形態素解析を行ってから,以下のフィルタリングを行い残ったものを登場人物候補としてMeCabの辞書に登録する.\begin{itemize}\item平仮名,カタカナの小文字から始まっていない\item句読点,カギ括弧,``!'',``?''を含まない\item文字列中に接続詞,連体詞,代名詞を含まない\item複数の形態素で構成されている\item文章中に``は''を接続した形で出現する\end{itemize}上記のルールにより,単語としてあり得ない文字列や,例えば``そして杜子春'',``杜子春は''などのように人物表現の周辺でよく使われる表現を含んだ文字列を人物候補から削除できる.フィルタリングで残った候補に対して,同頻度で出現したn-gram文字列で他の文字列の部分文字列であるような候補は削除し,残った候補をMeCabの辞書に``名詞,固有名詞,一般''として追加する.これにより既に形態素辞書に登録されてある人物候補と同様に物語固有の人物表現を扱うことができる.ここで作成した形態素辞書は以降で説明する要約生成に関する処理にも利用する.ここで登場人物が現れる際の文の特徴について考える.登場人物は物語において重要な役割を担っているため,主題として取り上げられることが多い\cite{danwabunseki}.また,登場人物は意志を持つものであるため,意志性のある動作を記述している文の動作主として現れることが多い.意志性のある動作とはその動作の実現に対して動作主が能動的に関与しているとみなせる動作のことである.この傾向を利用して,文中の名詞が登場人物として出現しているかどうかを推定する.具体的には物語の地の文に対して,更新した辞書を用いたCaboCha\footnote{http://www.chasen.org/\~{}taku/software/cabocha/}による係り受け解析を行い,主題化する機能を持つ副助詞``は''を後接して複数回出現する名詞で,その文の述部となる動詞に一つでも意志性のある動作を示すものがあれば,その名詞を登場人物と推定する.意志性のある動作を示す動詞の判定には日本語和語動詞LCS\cite{ecs}を利用した.これは日本語和語動詞を中心に約1000個の動詞に関してその語彙概念構造を記述を試みたものであり,実際にLCSが付与されている延べ742項目の動詞を利用した\footnote{意志性のある動詞として,例えば``話す'',``押す'',``立つ''などがあった.}.『風の又三郎』に対する人物抽出の例を付録\ref{humanexample}に示す.人物抽出の精度を計るために\ref{eval}章の評価実験で用いた物語9編を使用した予備実験を行った.複数の被験者に登場人物を列挙してもらい,そのうち過半数の被験者が登場人物と認定したものを正解とした.部分文字列を獲得する際のnの範囲は2〜10とし,出現頻度が2以上の部分文字列のみを対象とした.実験の結果,平均の再現率は0.74,適合率は0.68となった.人手で作成した正解の例と実験の詳細な結果を付録\ref{humexp}に示す.\subsection{トピック・ブロックの抽出}\label{topic}物語文に対して話題がある程度まとまった範囲で出現する部分を仮定しトピック・ブロックとして抽出する.ある文書の話題は何か,そしてその話題の切れ目はどこかという課題は大変難しい問題であり,例えば単語の共起と単語の重要度を利用した手法\cite{hirao2000}や,語の反復距離を使用した手法\cite{nakano2006}などが提案されているが決定的な手法はまだ確立していない.本稿では作者が記した1文の表現に着目し,1文単位の主題を仮定してそれが連続する文をまとめることでトピック・ブロックを作成する.厳密な連続でトピック・ブロックを作成すると,小さなトピック・ブロックが多く作られ,本来は1つのまとまりであるべき箇所が過分割される可能性がある.これを防ぐため,ウィンドウ幅を設定し,その中での連続を見る.本稿ではこのウィンドウ幅を前2文とした.従って,別の主題の文を間に挟んで同じ主題を持つ文は同じトピック・ブロックに属する.1文の主題とは文中に出てきた単語で表現するならば主語が有力な候補であり,特に副助詞``は''は主語を取り上げて主題化する機能を有している.そこで副助詞``は''が後接する名詞を1文の主題と見なし,ない場合は助詞``が''が後接する名詞を主題とする.ただし,``今日は'',``このごろは''など``は''と接続して副詞的な働きを持つ名詞は主題とは考えにくいので,MeCabを利用して副詞可能となる名詞は排除する.また,主題は省略されやすく,同じ主題が連続する場合は後に続く文において明示的に現れないことが多い\cite{nariyama2002}.従って,文中に助詞``は''と``が''がない場合は,それが省略されているとみなし前文における主題をその文の主題とする.助詞``は'',``が''を後接している名詞が代名詞の場合,センタリング理論に基づいた単純な照応解析を行う\cite{ishizaki}.具体的には代名詞が出現した文の1つ前の文に出現する名詞を先行詞候補とし,その候補が接続する助詞について以下の優先順に従って先行詞を決定する.\makeatletter\def\footnotemark{}\def\footnotetext{}\makeatother\vspace*{0.5\baselineskip}\begin{screen}\begin{center}は>が>に>を>その他\footnotemark\end{center}\end{screen}\footnotetext[\thefootnote]{格助詞の``で''や副助詞などがこれに含まれる}\vspace*{-0.5\baselineskip}\noindent具体例を『杜子春』(芥川龍之介)の一部から示す.\vspace*{0.5\baselineskip}\begin{screen}{\smallするとどこからやって来たか、突然\underline{彼}の\underline{前}へ\underline{足}を止めた、\underline{片目眇}の\underline{老人}があります。{\bfそれ}が夕日の光を浴びて、大きな影を門へ落すと、じっと杜子春の顔を見ながら、「お前は何を考えているのだ」と、横柄に声をかけました。}\end{screen}\noindent2文目にある代名詞``それ''の先行詞の候補として1文目から下線部の5個の名詞が挙げられる.このうち上記の優先順から助詞``は''を後接している``老人''を``それ''の先行詞とみなす.センタリング理論に基づいた照応解析の精度を計るため,本稿の評価実験で用いた物語9編を対象に予備実験を行った.助詞``は'',``が''を後接する代名詞に対して出力された先行詞を人手で正否を判定した.実験の結果,照応解析の平均の精度は0.41(134/330)であった.1文ごとの主題を抽出した後,設定した幅のウィンドウの中で連続した主題の文をまとめることでトピック・ブロックを作成する.このときウィンドウ幅内で全く同じ主題が連続した文だけでなく,同じ主題に挟まれた文も同一のトピック・ブロックに含める.これは1文ごとの主題は主語を手がかりに獲得しているが,話の展開においては連続しない場合があるためである.上記の操作はすべて会話文は考慮せず,いわゆる地の文のみを対象とする.このとき会話文は直前の地の文と同じトピック・ブロックに属することとする.これは会話の途中で話題が転換することはほとんどないと考えられるからである.例えば,『赤ずきんちゃん』(グリム兄弟)において以下に示す部分では途中でおばあさんの台詞が入っているが,おおかみを中心に話が展開している.従って,この部分をひとまとまりのトピック・ブロックとみなす.\vspace*{0.5\baselineskip}\begin{screen}{\smallところが、このあいだに、すきをねらって、\underline{おおかみ}(主題)は、すたこらすたこら、おばあさんのおうちへかけていきました。そして、とんとん、戸をたたきました。\footnotemark\\「おや、どなた。」\\「赤ずきんちゃんよ。お菓子とぶどう酒を、おみまいにもって来たのよ。あけてちょうだい。」\\「とっ手をおしておくれ。おばあさんはご病気でよわっていて、おきられないのだよ。」\\\underline{おおかみ}(主題)は、とっ手をおしました。}\end{screen}\footnotetext[\thefootnote]{前処理の照応解析でこの文の主題を「おおかみ」と判定している.}\vspace*{-0.5\baselineskip}\noindentさらに1文が多重のトピック・ブロックに所属することを認める.具体的にはある文$s_i$に対してその文からウィンドウ幅分だけ前の文のトピック・ブロック中で主題が同じ文が存在すれば,その文が属するトピック・ブロックに$s_i$も属するとする.同時にその文と$s_i$間の文も同じトピック・ブロックに属する.これは,ある文が示す主題には助詞``は''や``が''によって明示的に示されるものと文脈から推定できるものの2種類が考えられ,その文はそれぞれの主題で構成される話題の一部分とみなせると考えるからである.ウィンドウ内に主題が同じ文がなければその文を新しいトピック・ブロックに加える.例をあげて説明する.文$s_0$から$s_4$があり,その主題が表\ref{example}のようであったとき,ここから抽出されるトピック・ブロックは図\ref{tbexample}のようになる.\begin{table}[b]\caption{文と推定された各文の主題の例}\label{example}\begin{center}\input{03table01.txt}\end{center}\end{table}\begin{figure}[t]\input{03fig03.txt}\caption{抽出されたトピック・ブロック}\label{tbexample}\end{figure}文$s_0$,$s_1$は前に同じ主題を持つ文が存在しないためそれぞれ新しいトピック・ブロックに割り当てる.文$s_2$はウィンドウ幅内に同じ主題を持つ文$s_0$が存在するため,その文が属するトピック・ブロック$P_0$に加える.さらにその間にある文$s_1$も$P_0$に加える.一方,文$s_4$は文$s_1$と同じ主題を持つが,$s_1$がウィンドウ幅内にないので新しいトピック・ブロックに属することになる.\subsection{重要ブロックの決定}\label{select}抽出したトピック・ブロックについて物語におけるストーリーへの関与度を評価し,関与しているものが高いものを重要ブロックとして要約に採用する.手法としてはまず重要度の評価尺度を導入し(\ref{importance}節参照),次に物語の構成や接続詞情報を考慮して重要ブロックの抽出を行う(\ref{extracttb}節参照).\subsubsection{重要度計算}\label{importance}物語においては,登場人物が行動を起こし,それによって状況が変化するような箇所が重要であると考えられる.これに基づいてトピック・ブロックの重要度を定義する.まずトピック・ブロック内の各文のスコア付けについて説明し,その後ブロック全体の重要度を求める.トピック・ブロック内を構成する文に対して,登場人物や動作主の変化に関する動詞が含まれている場合は評価が高くなるようにスコア付けを行う.具体的には以下の式で決定する.\[Score_{sentence}(s)=\sum_{w\ins}(Terms(w)\cdottw(w,s))\cdotweight(s)\]$Score_{sentence(s)}$は文$s$に対するスコアであり,$w$は$s$中に出現する単語である.$Terms(w)$は単語$w$の文書全体における重要度を示しており,$w$が登場人物である場合にその頻度を重要度とする.\[Terms(w)=\begin{cases}文書Dにおける単語wの出現頻度&(wが登場人物表現)\\0&(上記以外)\\\end{cases}\]$tw(w,s)$は単語$w$の文$s$における主題性に基づく重みである.\[tw(w,s)=\begin{cases}1.2&(単語wが文sの主題)\\1&(上記以外)\\\end{cases}\]$weight(s)$は文$s$の述部における動詞に着目して,動作主体が変化を伴うような動詞であれば重要度を高くするように設定する.この判定には竹内ら\cite{takeuti2006}の語彙概念構造辞書を利用する.この辞書では``主体の変化''という分類があり,例えば``寝る'',``振り向く''といった動詞が分類されている\footnote{この辞書には4153の動詞の動詞に対して分類が記述されており,このうち``主体の変化''の分類に属する動詞は635ある.}.\[weight(s)=\begin{cases}1.2&(文s中の動詞の意味に``主体の変化''が含まれている)\\1&(上記以外)\\\end{cases}\]トピック・ブロック$P$の重要度$Score_{tb}(P)$は上記で決めた文の重要度を利用して以下の式で求める.\[Score_{tb}(P)=\frac{\sum\limits_{s_i\inP}Score_{sentence}(s_i)}{|P|}\]ここで$|P|$は$P$中の文の数である.これにより正規化することで長さに依存しないスコアとなる.\subsubsection{重要ブロックの抽出}\label{extracttb}トピック・ブロックに対して求めた重要度に基づいて重要ブロックを決定する.基本的には要約率を満たすまで重要度の高いトピック・ブロックから選んでいくが,その前にどのような物語でも比較的重要と考えられるトピック・ブロックを重要ブロックとして選ぶ.物語では,登場人物表現が最初に出現する文はその登場人物の説明であることが多く,登場人物表現が最後に出現する文はその登場人物の最終状況を説明している文であることが多い.そこで,重要度の高いものからトピック・ブロックを選択する前に,登場人物表現が最初に出現するトピック・ブロックと最後に出現するトピック・ブロックを重要ブロックとして抽出し,残りのトピック・ブロックに対して重要度の上位から順に要約率分だけ抽出する.物語のあらすじにとって関与が低い要素を省くために,抽出した重要ブロックに対して文の連接関係に着目した要約を行う.ここで不必要な要素とは同じことを繰り返して述べていたり,補足説明をしている要素のことである.連接関係の推定には接続詞と文末表現を利用する.接続関係の分類は永野\cite{bunsyouron}による7種類の関係(表\ref{connect})を利用した.\begin{table}[t]\caption{連接関係の種類}\label{connect}\begin{center}\input{03table02.txt}\end{center}\end{table}\begin{table}[t]\caption{連接関係と対応する接続詞と文末表現の例}\label{conexample}\begin{center}\input{03table03.txt}\end{center}\end{table}具体的な手法について述べる.あらかじめ接続詞と文末表現のそれぞれに対して,それが示す連接関係との対応を作成しておく.一部の関係について対応の例を表\ref{conexample}に示す.隣接する2文に対して,後文に出現する接続詞と文末表現から作成した対応を利用し連接関係を推定する.後文に連接関係の推定に使用する接続詞や文末表現がなかった場合は2文間の連接関係は``展開''とする.推定した連接関係が``補足'',``同格''と判定されたものについて,その後文を削除する.\subsection{ブロック連結文の抽出}\label{connectsentence}隣接する重要ブロック間での整合性を保つために,その間において生じた状況の変化を示すような文を挿入する.状況の変化とは時間経過や場所移動による場面転換や,登場人物の心境や取り巻く環境の変化などのことである.物語中でこのような状況の変化が起こったとき,それを示すような文がなければ読者はそれに気付かず,読み進めていくにつれて違和感を覚えたり,物語本文を読んだときに得られる理解と異なる理解をする可能性がある.このような状況の変化を示す文をブロック連結文と呼び,要約に挿入することで重要ブロック間の整合性を損なわないようにする.本稿では重要ブロックと原文においてその間に存在するトピック・ブロックでの登場人物表現の出現を基にした局所的な重要度を定義し,これを利用してブロック連結文を抽出する.\subsubsection{局所的重要度の計算}隣接する重要ブロックにおいて片方に出現し,且つ,もう片方には出現していないような登場人物があれば,その登場人物は重要ブロック間の状況の変化に関わっていると考えられる.そのような登場人物について記述してある文をブロック連結文として抽出するために,隣接する重要ブロック間での出現の仕方によって登場人物の局所的な重要度を決定し,それを基にして重要ブロック間における文の重要度を決定する.隣接する重要ブロック$P_i=\{s_j,\dots,s_k\}$,$P_{i+1}=\{s_m,\dots,s_n\}(j<k<m<n)$に対して,この間における登場人物$t$の局所的重要度を以下の式で求める.\[Terms_{local}(t,P_i,P_{i+1})=\sum_{s_j\les\les_n}freq(t,s)\cdotlw(t,P_i,P_{i+1})\]$freq(t,s)$は文$s$における登場人物表現$t$の出現頻度であり,$lw(t,P_i,P_{i+1})$は単語$t$がセグメントの連結に対する有効性を表す重みである.$P_i$と$P_{i+1}$間の文の集合を$IP_i=\{s_{k+1},\dots,s_{m-1}\}$とする.\[lw(t,P_i,P_{i+1})=\left\{\begin{array}{lp{20zw}}1&単語tが$IP_i$で出現し,かつ,重要ブロック$P_i,P_{i+1}$のいずれか一方にのみ出現する\\0.5&単語tが重要ブロック$P_i,P_{i+1}$と$IP_i$の全てで出現する\\0&上記以外\\\end{array}\right\}\]この単語の重要度と\ref{importance}節で利用した動詞の意味分類を用いて,重要ブロック$P_i$,$P_{i+1}$間の文$s_i$の局所的重要度$Score_{local}(s_i,P_i,P_{i+1})$を以下のように定める.\[Score_{local}(s_i,P_i,P_{i+1})=\sum_{t\ins_i}Terms_{local}(t,P_i,P_{i+1})\cdotweight(s_i)\]$weight(s_i)$は重要ブロックの決定で用いた動詞の意味による重みである.これは動詞の意味分類において動作主体の変化を表す動詞として分類されているものであり,これらの動詞が出現した文には重要ブロック間で起きた状況の変化が記述されてある可能性が高いためスコアを少し上げる.\subsubsection{ブロック連結文抽出}局所的な重要度に基づいて抽出するブロック連結文を決定する.要約として抽出した隣接する重要ブロック$P_k$,$P_{k+1}$について,その間にある文の局所的重要度を上記の式$Score_{local}(s_{i},P_i,P_{i+1})$によって計算し,下記に示すブロック連結文の量$CS(IP_k)$以下で$Score_{local}(s_{i},P_i,P_{i+1})$の高いものから順にブロック連結文として抽出する.ブロック連結文は要約として抽出された重要ブロックに属していない文から選択する.生成する要約の要約率$x$とする.要約率は原文書の文字数に対する要約文書の文字数の割合で与えられ,以下の式から求める.\[要約率=\frac{要約文書の文字数}{原文書の文字数}\]要約における重要ブロックの割合を$\alpha$とすると,隣接する重要ブロック$P_k$,$P_{k+1}$間の文集合$IP_k$に対して取り出すべき文の量$CS(IP_k)$は以下のようになる.\[CS(IP_k)=\frac{(1-\alpha)x}{1-\alphax}\cdot|IP_k|\]ここで$|IP_k|$は$IP_k$に属する文の量である.割合$\alpha$を大きくすると限られた要約率の中で重要ブロックを多く抽出することを意味し,反対に$\alpha$を小さくすると整合性を重視して連結文を多く取り出すことを意味する.\begin{figure}[t]\input{03fig04.txt}\vspace{-1\baselineskip}\caption{要約に抽出されたブロック連結文の例(『雪の夜』(小林多喜二))}\label{conrei}\end{figure}本手法によって生成した要約中に出現するブロック連結文の例を図\ref{conrei}に示す.下線部が抽出したブロック連結文であり,その前後は要約として抽出した重要ブロックの一部である.図\ref{conrei}に示すように“郊外の家へ帰ろうと思った。”という部分から主人公の龍介が“通りを出た。”までに汽車に乗り損ねたことが推論できる内容が補完されている. \section{評価} label{eval}提案手法の有用性を確認するために実験を行った.報知的な要約では原文書の内容をどれだけ正確に抽出できているかということが重要となる.本稿では,要約の整合性と原文書の適切な部分が要約として抽出できているかを被験者による実験によって確認する.形態素解析器MeCabやChaSen,係り受け解析器CaboChaなどの既存の言語処理ツールは基本的に現代仮名遣いと口語文法に則って書かれた文を処理の対象としている.このため,実験の対象とする物語は,青空文庫で入手できる口語文法と現代仮名遣いで書かれている3人称視点の物語9作品とした(付録\ref{data}).3人称視点の物語に限定している理由は,1人称視点で書かれた物語では,地の文に語り手となる登場人物の心理描写が交じり,登場人物の行動を述べる文との判別が困難であると考えたためである.比較手法にはtf$\cdot$idfによる重要文抽出(以降tf$\cdot$idf法と呼ぶ)を採用した.tf$\cdot$idfは単語の重要度を決定する手法の一つであり,ある文書集合において特定の文書に出現する単語を重要であるとみなす.本稿では,文中に出現する名詞の重要度をtf$\cdot$idfによって求め,その和をその文の重要度とし,重要度の高いものから順に要約率を満たすまで文を抽出することで要約を生成する.文書$d$における名詞$t$に対する重要度$weight(t,d)$は以下の式で求める.\[weight(t,d)=tf(t,d)\cdot(log\left(\frac{N}{df(t)}\right)+1)\]$tf(t,d)$は文書$d$中の名詞$t$の出現頻度であり,$df(t)$は文書集合中で名詞$t$が出現している文書数,$N$は文書集合に含まれる文書の数である.本実験で利用する文書集合は上記で挙げた物語9作品とした(N=9).\subsection{評価方法}要約の評価でよく用いられる方法はあらかじめ人手で正解データを作成しておき,それとシステムの出力を比較するというものである.この方法は正解データとなる人手で作成された要約が個人による差異が小さければ有効である.本稿では人手による要約の個人差を計るため,3人の被験者に重要文抽出による要約率30\%の要約と要約率50\%の要約,本手法で作成したトピック・ブロック単位での重要箇所抽出による要約率30\%の要約を作成してもらい,それぞれのkappa値\cite{jean1996}を算出した.その結果を表\ref{kappa}に示す.kappa値が0.7を越えると個人差が少ない良いデータだと一般的に考えられている.これに従うと,人手による要約は個人差が大きく,唯一の正解データを作成することは困難であると言える.また,30\%要約に関して文単位での要約とトピック・ブロック単位での要約を比較すると,文単位での要約におけるkappa値に比べてトピック・ブロック単位での要約におけるkappa値の方が作品ごとの差が大きいという結果になった.\begin{table}[t]\caption{人手による要約のkappa値}\label{kappa}\begin{center}\input{03table04.txt}\end{center}\end{table}そこで本稿では正解データを利用した評価ではなく,被験者による主観的な評価を行った.実験項目は以下の通りである.\begin{itemize}\item整合性に関する評価\item内容理解に関する評価\end{itemize}本研究において整合性とは話題のまとまりの良さとみなしている.話題のまとまりの良い文書とは,読者がその文書を読んで予測できる展開と文書の実際の展開が似ているような文書だと考えられる.逆に話題のまとまりが悪い文書では読者の予測と文書の実際の展開が異なることがあり,このとき読者はその文書が読みにくいと感じることがある.そこで本稿では整合性の評価として,10人の被験者に各作品毎に提案手法による要約とtf$\cdot$idf法による要約の2種類の要約を提示し,読みやすさの評価,つまり要約文が話として繋がっているかどうかを評価し,良いと思う方を選択するよう指示した.どちらでもないという選択肢は設けず,各作品に対して必ずどちらかを選択してもらうようにした.後者の内容理解に関する評価では被験者が物語の内容を知っていると正しい評価ができないということが考えられる.そこで実験を行う際に物語の内容を知らない被験者を選び,全ての作品に対して評価を行った.また,提案手法かtf$\cdot$idf法のどちらか片方の要約を読んでから,もう片方の評価を行うと後者の評価の際に前者で読んだ要約から得られた知識を被験者が無意識に使ってしまう可能性がある.そのため,被験者にはどちらか片方の要約しか提示しない.この実験では1作品あたり提案手法による要約に対する評価とtf$\cdot$idf法による要約に対する評価のそれぞれについて8人の被験者で行っている.内容理解に関する評価は以下の手順で行った.\begin{list}{}{}\item[{\bf作業1.}]対象の作品に対する提案手法か比較手法のどちらか一方の要約を読み,そのあらすじを自由筆記で作成する.ここで被験者には要約が提案手法によるものかtf$\cdot$idf法によるものかは知らせない.\item[{\bf作業2.}]原文書を読んで,作業1で書いたあらすじを被験者が自分で修正する\end{list}これは報知的要約が理想的なものであるならば,そこから得られる理解と原文書を読んだときに得られる理解は同じであるという仮定に基づいている.上記の作業2において修正数が少なければ,その要約は良いと評価できる.自由筆記でのあらすじ作成では,単文で記述することと,名詞に関しては要約内に出現した単語のみを使用することを被験者に指示した.修正の方法は以下の3種類のどれかに従うように指示した.\begin{itemize}\item訂正(1文中の一部を追加削除)\item追加(1文を追加)\item削除(1文を削除)\end{itemize}作成するあらすじには個人差が生じるが,これは修正数をあらすじ中の文の数で正規化することで対処する.評価に使用した要約の要約率は提案手法,tf$\cdot$idf法ともに30\%に設定した.また提案手法では重要ブロックとブロック連結文の割合を設定する必要がある.本研究では物語の内容を簡単に把握できるための報知的要約の生成を目的としている.そのため要約には物語に重要な要素を多く含んでいる必要がある.しかし,重要な要素を羅列するだけでは文書としてのまとまりに欠け,それが内容の理解の妨げになる可能性がある.このことから重要な要素を中心として構成され,文書のまとまりを考慮した要約が良い要約であると考える.これを反映した要約を生成するため,本稿では生成する要約における重要ブロックの割合は0.7と設定した.\subsection{結果と考察}\label{result}整合性の評価の結果を表\ref{yomiyasusa}に示す.数字は各手法の方が読みやすいと判定した人の数である.個人差によるばらつきを考慮して,9作品の平均で整合性を評価すると提案手法がtf$\cdot$idfよりも優れた結果を示していることが分かる.『風の又三郎』では評価が良くなかったが,これは後の内容理解での考察にも関係するが会話文の中に物語の展開に関わる表現が入っているため本手法ではうまく扱うことができなかったのが原因である.\begin{table}[b]\caption{整合性の評価結果}\label{yomiyasusa}\begin{center}\input{03table05.txt}\end{center}\end{table}内容理解の評価の結果を表\ref{rikai}に示す.あらすじの平均文数は被験者が作成したあらすじの文数の平均を取ったものである.評価値は以下の式に基づいて決定した.\[評価値=\frac{(訂正数\cdot1+追加数\cdot2+削除数\cdot0.5)}{被験者が作業1で答えたあらすじの文数}\]修正の際に,新たに文を追加したということは内容の理解に必要な情報が要約には含まれていなかったことを示している.文の訂正は必要な情報は現れていたもののその解釈で誤りがあったことを示している.このことから追加が最も重大な修正といえる.これを反映するために各修正項目にペナルティをかける.上記の評価式は修正項目にペナルティをかけた値の合計を修正前のあらすじの文数で正規化したものである.評価値が小さいほど要約を読んだときに得られる理解と原文書を読んだときに得られる理解の差が小さいと考える.\begin{table}[b]\caption{内容理解の評価結果}\label{rikai}\begin{center}\input{03table06.txt}\end{center}\end{table}実験の結果,表\ref{rikai}の9作品に対する評価値の総合計から,提案手法の方がtf$\cdot$idf法よりも内容理解において原文との差異が少なく,被験者に対してよりよい理解を与えたことが示された.しかしながら,提案手法が大きく勝るというものではなく,またいくつかの作品では劣っている部分もある.これらについて考察を述べる.提案手法では重要ブロックの抽出の際に会話文の内容を考慮していない.そのため,物語の内容に対して会話文が重要である箇所があってもその部分を正しく抽出することができない.一方,tf$\cdot$idf法では地の文や会話文に関係なく,単語の重要度から抽出する文を決定しているので,会話文の中に重要度の高い語が含まれていればそれを抽出することができる.例として『風の又三郎』に対する提案手法による要約(図\ref{teianrei})と,tf$\cdot$idf法による要約(図\ref{tfidfrei})を示す.この例ではtf$\cdot$idf法の方では物語の内容にとって重要と考えられる先生の台詞を会話文から抽出している.\begin{figure}[b]\input{03fig05.txt}\vspace{-1\baselineskip}\caption{提案手法による要約の例}\label{teianrei}\end{figure}\begin{figure}[b]\input{03fig06.txt}\vspace{-1\baselineskip}\caption{tf$\cdot$idfによる要約の例}\label{tfidfrei}\end{figure}\begin{figure}[b]\input{03fig07.txt}\vspace{-1\baselineskip}\caption{提案手法による『名人伝』の要約(抜粋)}\label{meijintei}\end{figure}この他に提案手法がtf$\cdot$idf法に劣ってしまう要因として,重要箇所抽出の際に本来要約に必要とされるべき箇所が抽出できなかったということが考えられる.提案手法ではトピック・ブロックを単位として重要箇所抽出を行っている.このため,重要箇所抽出で正しく重要ブロックが抽出できなかったとき,内容理解に関する評価において被験者が該当部分に関する全ての記述を行うことになる.これに対してtf$\cdot$idf法では文を単位として抽出を行っているため,重要な箇所が全て抽出できなくてもある程度の文は抽出できることがある.この場合,内容理解の評価で被験者が追加する項目は提案手法と比べて少なくなり,結果としてtf$\cdot$idf法の方が良い評価になる.例えば,『名人伝』には主人公である紀昌とその師である飛衛が対決する場面がある.提案手法による要約(図\ref{meijintei})ではこの場面が重要箇所と見なされずに抽出できていないが,tf$\cdot$idf法では文単位で抽出されるため,ある程度は要約に出現している(図\ref{meijintf}).本稿で行った内容理解に関する実験において被験者はこの場面を重要と判断してあらすじに加えているが,提案手法による要約に対してはその場面に該当する記述を全て加筆している.一方,tf$\cdot$idf法による要約に対しては記述を補完するだけでよく,修正のために追加する文の数はtf$\cdot$idf法による要約の方が少なくなる.その結果,内容理解の評価ではtf$\cdot$idf法の方が良いという結果になったと考えられる.\begin{figure}[t]\input{03fig08.txt}\vspace{-1\baselineskip}\caption{tf$\cdot$idf法による『名人伝』の要約(抜粋)}\label{meijintf}\end{figure}しかし,整合性の評価において『名人伝』では提案手法が大きく上回っている.これはtf$\cdot$idf法による要約では細かな欠損が多く,それらが被験者に対して何度も違和感を生じさせ,結果として提案手法による要約の方が読みやすいという評価になったと考えられる.tf$\cdot$idf法では物語においてどのような単語が重要かという判断を文書集合に依存しているとみなせる.従って,一般的に使われるような語がある物語において重要な要素であった場合,tf$\cdot$idfではこれを重要な語とみなせないことがある.この点においてtf$\cdot$idf法による要約は作品によっては不安定になることが予測される.実際,表\ref{rikai}の評価値の分散をみると提案手法に比べてtf$\cdot$idf法の方が分散が大きく,内容理解に貢献できる場合と劣る場合の差が小さくない.提案手法は整合性も考慮したつなぎの文も含めて要約率を達成して出力している一方で,tf$\cdot$idf法による要約では特徴的な名詞を多く含む文を出力している.よってtf$\cdot$idfは同じ要約率という制約で読みやすさを捨てた分,内容に関する文をより多く出力していると考えられる.この点が内容理解で大きな差が出なかった原因の一つである.しかしながら,その内容理解の質は提案手法とtf$\cdot$idf法による要約手法では同じでないと考えられる.表\ref{rikai}において,被験者が作成したあらすじの文数を見ると全ての作品において提案手法の方がtf$\cdot$idf法よりも倍近く上回っている.もし物語の内容を十分理解していれば,より詳細なあらすじを作成することができる.このとき,作成されたあらすじの文の数は多くなると考えられる.従って,提案手法による要約から作成されたあらすじの文の数が多いということは,tf$\cdot$idf法による要約に比べて,提案手法による要約はあらすじの作成に貢献する文を多く含んでいるとみなすことができる.本研究では物語の内容理解のための要約の生成を目的としており,このことから提案手法の方がより質の高い要約を生成できると考えられる.物語では何を重要と見なすかは人によって異なることが多い.そのため,人手で要約を作った場合でも個人差が大きく,また物語は個々の特徴が違うため,物語による違いも大きいと考えられる.表\ref{yomiyasusa},表\ref{rikai}から複数の人間による判断である合計値の平均と,そのばらつき具合である分散のいずれにおいて提案手法の方が上回っており,このことから提案手法はtf$\cdot$idf法による要約と比べて物語の違いによる影響を受けにくく,安定した要約を生成できるという点で有効であると考えられる.本研究では重要ブロック間のつながりを補完するためにブロック連結文を導入している.その有効性を調べるため,ブロック連結文を挿入せずに重要ブロックの抽出のみで作成した要約と提案手法による要約とで整合性に関する比較評価を行った.\begin{table}[b]\caption{ブロック連結文の有無による整合性の比較評価}\label{yomiyasusaforalpha}\begin{center}\input{03table07.txt}\end{center}\end{table}表\ref{yomiyasusaforalpha}は整合性についての評価結果である.9作品を対象にした平均では有意な差は見られなかった.これは短い物語(『杜子春』,『鼻』,『名人伝』(160文前後))に対して既に重要ブロックで十分な整合性がありブロック連結文を挿入することで冗長となり評価を下げたと考えられる.よって短い物語に対してはブロック連結文を適用しないなどの手法を取り入れることができれば有意な差が得られると考えられる.一方,内容理解に対する評価では表\ref{comparerikai}に示すようにブロック連結文を適用することで評価値が0.86から0.84に減少し,向上が見られた.これは総合的にはブロック連結文が内容を補完したため内容理解に対して有効に働いたと考えられる.提案手法の性能の限界を調べるために人物を人手で抽出し,かつ,トピック・ブロックの決定のための主題を人手で特定した場合の提案手法による要約について内容理解の評価実験を行った.その結果を表\ref{comparerikai}に示す.\begin{table}[t]\caption{内容理解の評価に関する手法の比較}\label{comparerikai}\begin{center}\input{03table08.txt}\end{center}\end{table}提案手法による要約,重要ブロック抽出による要約と比較して,人手で前処理を行った場合での要約に対する評価がもっとも良かった.提案手法では照応解析をセンタリング理論に基づいた単純な方法で行っており,実験の対象の物語に対する精度が0.41と低い.従って,照応解析の精度を上げることで提案手法の性能の向上が見込める.また表\ref{yomiyasusaforalpha}においてブロック連結文の有無だけでは整合性の向上は全作品に対して明らかではなかったが表\ref{yomiyasusa}に示すとおり,重要ブロックが一貫した話題で構成されていればtf$\cdot$idf法に比べて全作品に対して整合性が勝ることを示した.よって表\ref{rikai}や表\ref{comparerikai}に示されるように内容理解において提案手法に基づく要約がtf$\cdot$idf法による要約に対して優れた結果が得られたのは結局,整合性を指向して一貫性のある要約を出力できたことが理由であると考えられる. \section{おわりに} 本稿では整合性を考慮した物語の要約手法を提案した.整合性は読者が内容を正しく把握するために重要な要素であり,特に複数の話題について述べている文書では話題間の整合性が明らかでないと読者への負担が大きくなる.物語では場面転換などで話の状況の変化が何回も発生する.この状況の変化を把握できていないと,実際に物語で述べられている状況と読者が理解している状況に差異が生じ,結果として間違った理解をしてしまう可能性がある.状況の変化には場所の移動や時間の経過などがあるが,本手法は特にその状況に登場している人物の移り変わりに着目した.従来の重要箇所抽出による要約に,隣接する抽出した箇所間での整合性を保つように,人物の移り変わりに関する文を挿入することで整合性のある読みやすい要約を作成した.tf$\cdot$idf法による要約との比較実験では,被験者の内容の理解の程度に関してわずかではあるが提案手法の方が原文から得られる内容を反映している要約を作成できることを示した.被験者による整合性の評価で行った読みやすさに関する実験では提案手法の方が読みやすいという評価が得られた.また,ブロック連結文の有無の違いに関する評価実験から,ブロック連結文だけでなく重要ブロックとの両方の効果によって要約文全体の読みやすさ(整合性)の向上に対して有効であることを示した.さらに提案手法は内容理解において整合性を考慮していないtf$\cdot$idf法に比べて優れていることが評価結果から示された.このことから整合性を考慮することでより内容を理解しやすい要約が生成できると考えられる.提案手法ではトピック・ブロックの重要度計算に登場人物とその行動を考慮したが,\ref{result}節で示したように会話文を考慮する必要がある.また,より詳細な話題間の繋がりを計算するために,場所の移動や時間経過などの場面転換表現も考慮に入れる必要がある.これらが今後の課題である.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\bibitem[\protect\BCAY{Carletta}{Carletta}{1996}]{jean1996}Carletta,J.\BBOP1996\BBCP.\newblock\BBOQAssessingAgreementonClassificationTasks:ThekappaStatistic\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf22}(2),\mbox{\BPGS\249--254}.\bibitem[\protect\BCAY{Kazantseva}{Kazantseva}{2006}]{Anna}Kazantseva,A.\BBOP2006\BBCP.\newblock\BBOQAutomaticSummarizationofShortFiction\BBCQ\\newblockIn{\BemMasterthesisOttawa-CarletonInstituteforComputerScienceSchoolofInformationTechnologyandEngineering,UniversityofOttawa}.\bibitem[\protect\BCAY{Lehnert}{Lehnert}{1981}]{plotunit}Lehnert,W.~G.\BBOP1981\BBCP.\newblock\BBOQPlotunitsandnarrativesummarization\BBCQ\\newblock{\BemCognitiveScience},{\Bbf5},\mbox{\BPGS\293--331}.\bibitem[\protect\BCAY{Nariyama}{Nariyama}{2002}]{nariyama2002}Nariyama,S.\BBOP2002\BBCP.\newblock\BBOQGrammarforellipsisresolutioninJapanese\BBCQ\\newblockIn{\Bemthe9thInternationalconferenceonTheoreticalandmethdologicalIssueinMachineTranslation}.\bibitem[\protect\BCAY{Reiser}{Reiser}{1981}]{brian1981}Reiser,B.~J.\BBOP1981\BBCP.\newblock\BBOQCharacterTrackingandtheUnderstandingofNarratives\BBCQ\\newblockIn{\Bem7thInternationalJointConferenceonArtificialIntelligence}.\bibitem[\protect\BCAY{馬場\JBA藤井}{馬場\JBA藤井}{2007}]{baba2007}馬場こづえ\JBA藤井敦\BBOP2007\BBCP.\newblock\JBOQ小説テキストを対象とした人物情報の抽出と体系化\JBCQ\\newblock\Jem{言語処理学会第13回年次報告}.\bibitem[\protect\BCAY{市丸\JBA日高}{市丸\JBA日高}{2005}]{itimaru2005}市丸夏樹\JBA日高達\BBOP2005\BBCP.\newblock\JBOQ要約文の話題の流れの最大化による自動要約\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(6),\mbox{\BPGS\45--61}.\bibitem[\protect\BCAY{石崎\JBA伝}{石崎\JBA伝}{2001}]{ishizaki}石崎雅人\JBA伝康晴\BBOP2001\BBCP.\newblock\Jem{談話と対話}.\newblock東京大学出版会.\bibitem[\protect\BCAY{奥村\JBA難波}{奥村\JBA難波}{2005}]{okumura}奥村学\JBA難波英嗣\BBOP2005\BBCP.\newblock\Jem{テキスト自動要約}.\newblockオーム社.\bibitem[\protect\BCAY{永野}{永野}{1986}]{bunsyouron}永野賢\BBOP1986\BBCP.\newblock\Jem{文章論総説}.\newblock朝倉書店.\bibitem[\protect\BCAY{横野}{横野}{2007}]{yokono2007}横野光\BBOP2007\BBCP.\newblock\JBOQ登場人物の感情表現に着目した物語要約\JBCQ\\newblock\Jem{言語処理学会第13回年次報告}.\bibitem[\protect\BCAY{竹内\JBA乾\JBA藤田}{竹内\Jetal}{2006}]{takeuti2006}竹内孔一\JBA乾健太郎\JBA藤田篤\BBOP2006\BBCP.\newblock\JBOQ語彙概念構造に基づく日本語動詞の統語・意味特性の記述\JBCQ\\newblock\Jem{レキシコンフォーラム},2.ひつじ書房.\bibitem[\protect\BCAY{加藤\JBA畠山\JBA坂本\JBA伊藤}{加藤\Jetal}{2005}]{ecs}加藤恒昭\JBA畠山真一\JBA坂本浩\JBA伊藤たかね\BBOP2005\BBCP.\newblock\JBOQ日本語和語動詞に関する語彙概念構造辞書構築の試み\JBCQ\\newblock\Jem{言語処理学会第11回年次報告}.\bibitem[\protect\BCAY{中野\JBA足立\JBA牧野}{中野\Jetal}{2006}]{nakano2006}中野滋徳\JBA足立顕\JBA牧野武則\BBOP2006\BBCP.\newblock\JBOQ語の反復距離に基づく段落境界の認定\JBCQ\\newblock\Jem{自然言語処理},{\Bbf13}(2),\mbox{\BPGS\3--26}.\bibitem[\protect\BCAY{館林\JBA原口}{館林\JBA原口}{2006}]{tatebayasi2006}館林俊平\JBA原口誠\BBOP2006\BBCP.\newblock\JBOQセグメント間の接続関係を考慮した文書要約に関する一考察\JBCQ\\newblock\Jem{情報処理学会研究報告NL-175}.\bibitem[\protect\BCAY{メイナード}{メイナード}{1997}]{danwabunseki}メイナード泉子・K.\BBOP1997\BBCP.\newblock\Jem{談話分析の可能性}.\newblockくろしお出版.\bibitem[\protect\BCAY{小林}{小林}{2007}]{kobayashi2007}小林聡\BBOP2007\BBCP.\newblock\JBOQ場・時・人に着目した物語のシーン分割手法\JBCQ\\newblock\Jem{情報処理学会研究報告NL-179}.\bibitem[\protect\BCAY{村上\JBA上之薗\JBA榎津\JBA古宮}{村上\Jetal}{2004}]{murakami2004}村上聡\JBA上之薗和宏\JBA榎津秀次\JBA古宮誠一\BBOP2004\BBCP.\newblock\JBOQ物語の自動要約\JBCQ\\newblockIn{\BemThe18thAnnualConferenceoftheJapaneseSocietyforArtificialIntelligence}.\bibitem[\protect\BCAY{砂山\JBA谷内田}{砂山\JBA谷内田}{2000}]{sunayama2000}砂山渡\JBA谷内田正彦\BBOP2000\BBCP.\newblock\JBOQ文章要約のための特徴キーワードの発見による重要文抽出法—展望台システム—\JBCQ\\newblock\Jem{情報処理学会研究報告NL-135}.\bibitem[\protect\BCAY{平尾\JBA前田\JBA松本}{平尾\Jetal}{2001}]{hirao2001}平尾努\JBA前田英作\JBA松本裕治\BBOP2001\BBCP.\newblock\JBOQSupportVectorMachineによる重要文抽出\JBCQ\\newblock\Jem{情報処理学会研究報告情報学基礎63-16}.\bibitem[\protect\BCAY{平尾\JBA北内\JBA木谷}{平尾\Jetal}{2000}]{hirao2000}平尾努\JBA北内啓\JBA木谷強\BBOP2000\BBCP.\newblock\JBOQ語彙的結束性と単語重要度に基づくテキストセグメンテーション\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf41}(SIG3),\mbox{\BPGS\24--36}.\bibitem[\protect\BCAY{畑山\JBA松尾\JBA白井}{畑山\Jetal}{2002}]{hatayama2002}畑山満美子\JBA松尾義博\JBA白井諭\BBOP2002\BBCP.\newblock\JBOQ重要語句抽出による新聞記事自動要約\JBCQ\\newblock\Jem{自然言語処理},{\Bbf9}(4).\bibitem[\protect\BCAY{山本\JBA増山\JBA酒井}{山本\Jetal}{2006}]{syousetu}山本悠二\JBA増山繁\JBA酒井浩之\BBOP2006\BBCP.\newblock\JBOQ小説自動要約のための隣接文間の結束性判定手法\JBCQ\\newblock\Jem{言語処理学会第12回年次報告}.\bibitem[\protect\BCAY{石井\JBA小方}{石井\JBA小方}{2006}]{isii2006}石井理恵\JBA小方孝\BBOP2006\BBCP.\newblock\JBOQ登場人物の履歴情報からの物語ネットワークの構成とそれを利用した物語の作成—ハイパーコミックの一般化と自動化に向けて—\JBCQ\\newblockIn{\BemThe20thAnnualConferenceoftheJapaneseSocietyforArtificialIntelligence}.\bibitem[\protect\BCAY{山本\JBA増山\JBA内藤}{山本\Jetal}{1995}]{yamamoto1995}山本和英\JBA増山繁\JBA内藤昭三\BBOP1995\BBCP.\newblock\JBOQ文章内構造を複合的に利用した論説文要約システムGREEN\JBCQ\\newblock\Jem{自然言語処理},{\Bbf1}(2).\end{thebibliography}\begin{biography}\bioauthor{横野光(正会員)}{2003年岡山大学工学部情報工学科卒.2008年同大大学院自然科学研究科産業創成工学専攻単位取得退学.同年東京工業大学精密工学研究所研究員,現在に至る.修士(工学).自然言語処理の研究に従事.情報処理学会会員.}\end{biography}\biodate\clearpage\appendix \section{実験に使用した小説} label{data}\begin{table}[H]\caption{実験に使用した小説}\begin{center}\input{03table09.txt}\end{center}\end{table}\footnotetext[\thefootnote]{台詞はカギ括弧でくくられたまとまりを1文とみなす.} \section{登場人物抽出の例} label{humanexample}\begin{figure}[H]\begin{center}\includegraphics{15-5ia3f9.eps}\end{center}\caption{人物候補辞書作成の例}\label{ngram2dic}\end{figure}\clearpage\begin{figure}[t]\begin{center}\includegraphics{15-5ia3f10.eps}\end{center}\caption{意志性による人物抽出の例}\label{volitional}\end{figure}\begin{figure}[t]\input{03fig11.txt}\vspace{-1\baselineskip}\caption{非人物と判定された候補の文の例}\label{nonvolexample}\end{figure}\begin{figure}[t]\input{03fig12.txt}\vspace{-1\baselineskip}\caption{人物と判定された候補の文の例}\label{volexample}\end{figure} \section{人物抽出の予備実験結果} label{humexp}\begin{table}[H]\caption{人物抽出の正解データの例}\begin{center}\input{03table10.txt}\end{center}\end{table}\clearpage\begin{table}[H]\caption{人物抽出の実験結果}\label{humresult}\begin{center}\input{03table11.txt}\end{center}\end{table}\end{document}
V16N01-04
\section{はじめに} label{Chapter:introduction}近年,文書情報に対するアクセス技術として,質問応答が注目されている.質問応答は,利用者が与えた自然言語の質問文に対し,その答を知識源となる大量の文書集合から見つける技術である.利用者が,ある疑問に対する解を知るために質問応答システムを単体で利用する場合には,各解候補のスコアに基づき,解候補群を順序づけて上位から提示することが多い.本稿では,この処理を優先順位型質問応答と呼ぶことにする.この場合は解答として採用するか否かは,利用者の判断に委ねられている.一方,質問応答技術は他の文書処理技術の中で活用されることも期待されている.質問応答の出力を他の文書処理技術の入力として容易に利用可能とするためには,優先順位型質問応答において利用者が行なっていた上記判断を自動的に行なう必要がある.また,「日本三景は何と何と何か」といったように複数の正解が存在する質問が存在することも考慮すべきである.これらのことより,決められた知識源の中から過不足なく与えられた質問の解を見つけ列挙する能力も重要であると考えられる.優先順位型質問応答の用件に加え,この能力を持つ仕組みをリスト型質問応答と呼ぶ\cite{Fukumoto:QAC1}\cite{加藤:リスト型質問応答の特徴付けと評価指標}.本稿では,上記の背景の下,リスト型質問応答を行なうための一手法を提案する.本手法では,優先順位型質問応答により得られた解候補の集合のスコアを基にいくつかのクラスタに分離することを考える.それぞれのクラスタを一つの確率分布とし,各確率分布のパラメタをEMアルゴリズムにより推定し,いくつかの分布に分離する.最後に,それぞれの分布を正解集合のスコアの分布と不正解集合のスコア分布のどちらであるかを判定し,各解候補がいずれの分布に由来するものなのかを推定し,最終的な正解集合を求める.質問応答システムには一般に精度が低くなりがちな質問(以下,「不得意な質問」と記す)が質問の型等に依存して存在するが\footnote{例えば,質問応答システムが採用している固有表現抽出器等のサブシステムの精度に依存する.固有表現抽出において一般に製品名は,人名や地名に比較して抽出精度が低い.},本手法では,複数の分布のパラメタを比較することにより,優先順位型質問応答により正解が適切に見つけられているか否かを判断することも可能である.ここで,正解が適切に見つけられているとは,優先順位型質問応答により正しい解が求められており,その解が上位にある(複数の場合は上位に集まっている)場合を指すこととする. \section{関連研究} リスト型質問応答については,米国における大規模検索実験プロジェクトである,TREC(TextREtrievalConference)における,QusetionAnsweringTrack(以下,TRECQAと記述)で議論されている.TRECQAでリスト型質問応答のタスクが始まったのは,2001年からである.2001年\linebreak\cite{TRECoverview01}と2002年\cite{TRECoverview02}のリスト型質問応答のタスクでは,正解の個数は質問文中に示されており,システムは示された個数の解候補を出力し,その精度で評価された.2003年\cite{TRECoverview03}では,リスト型質問応答はメインタスクに含まれる質問のうちの一種類になった.2003年からは正解数が陽に示されることはなくなり,システムは正解の個数を判定しなければならなくなった.システムの評価はF値で行なわれる.2004〜2006年\cite{TRECoverview04}\cite{TRECoverview05}\cite{TRECoverview06}のTRECQAのメインタスクの質問セットは,シリーズ型質問の集合になっている.シリーズ型質問には,初めにそのシリーズの話題が示されており,その次に何問かのfactoid質問,list質問があり,最後にother質問がある.factoid質問とlist質問では,どちらも事実を問う質問であり,要求される解の種類は同じである.factoid質問とlist質問の違いは正解の数で,正解数が一つの質問はfactoid質問,正解数が複数の質問はlist質問という様に分けられている.factoid質問ではシステムはただ一つの回答を出力し,list質問ではリスト形式で回答を出力する.other質問は,質問文は与えられておらず,そのシリーズの話題に関連することを出力することが要求される.ただし,factoid質問とlist質問で問われていないことのみを出力しなければならない.各質問がfactoid,list,otherのどれであるかは質問文と共に与えられている.list質問では,システムは与えられた質問の正解を過不足無く出力することが要求される.正解の数は明記されておらず,システム自身が判定する必要がある.2006年の質問セットでは,全質問の正解の平均数は10個であり,最小のものは2個,最大のものでは50個ある.factoid質問とlist質問は要求される回答数が違うだけであるので,参加したほとんどのチームは,そのチーム自身のfactoid質問に対するシステムと同じものを用い,出力する回答数のみを変えていた.以下に,具体例を紹介する.F値のみではリスト型処理の善し悪しが分からないため,factoid質問に対する精度(Accuracy)も併記する.Harabagiuetal\cite{Harabagiu:AnswerMiningbyCombiningExtractionTechniqueswithAbductiveReasoning}は,一位の解候補と二位以下の各解候補の間の類似度を求め,類似度に閾値を設けて回答選択をする手法を提案している.閾値は一位の解候補と最下位の解候補の類似度を基に求められる.類似度が閾値以上になる解候補のうち,最下位に順位づけされているものまでを回答リストに加えている.このシステムのlist型質問に対する精度は,F値で0.433であった.また,このシステムの基になったfactoid質問に対するシステムの精度は,0.578であった.Bos\cite{Bos:TheLaSapienzaQuestionAnsweringsystematTREC2006}は,質問文から正解の個数が推定できる場合には,上位からその個数を回答とし,それ以外の場合にはあらかじめ決められた個数の解候補を回答とする手法を用いていた.このシステムのlist型質問に対する精度は,F値で0.127であった.また,このシステムの基になったfactoid質問に対するシステムの精度は,0.15であった.Burger\cite{Burger:MITREsQandaatTREC15}は,期待されるF値を求め,それを最大化するように回答の個数を決める手法を提案している.このシステムのlist型質問に対する精度は,F値で0.208であった.また,このシステムの基になったfactoid質問に対するシステムの精度は,0.087であった.また,国立情報学研究所主催の質問応答に関する一連の評価型ワークショップであるNTCIRQACにおいても同様にリスト型質問応答について議論されている.NTCIR4QAC2のsubtask1では,システムは与えられた質問に対して,順位付けされた5つの回答を出力することが求められる.システムの精度にはMRR(MeanReciprocalRank.正解順位の逆数の各質問平均)が用いられる.正解が複数存在する質問に対しては,システムはそのうちの一つを出力できれば良いとされている.NTCIR4QAC2のsubtask2(リスト型タスク)\cite{Fukumoto:QAC2Subtask12}でもTRECQAのlist質問と同様に,システムは与えられた質問の正解を過不足無く出力することが要求される.全質問の解の平均数は3.2個であり,最小のものは1個,最大のもので15個あり,TRECQAに比べると少なくなっている.各質問に対する正解の数が与えられていないこともTRECQAと同様であるが,TRECQAでは正解数が1個のfactoid質問と2個以上のlist質問が分けられていたのに対し,NTCIR4QAC2のリスト型タスクでは分けられていないという違いがある.システムの精度には,修正F値(MF値)の全質問平均である,MMF値が用いられる.修正F値の詳しい説明は,\ref{Chapter:exp-eval}節で述べる.NTCIR4QAC2に参加したシステムはTRECQAに参加したシステムと同様に,factoid質問に対するシステムを基にしており,各解候補に付けられたスコアの値を基に上位何件を回答するかの線引きを行なっている.以下に具体例を説明する.MMF値のみでは順位付けの善し悪しが分からないため,QAC2subtask1に対する精度(MRR)も併記する.秋葉ら\cite{秋葉:質問応答における常識的な解の選択と期待効用に基づく回答群の決定}は期待効用最大化原理に基づく回答群選択手法を提案している.これは,リスト型質問応答の評価指標であるF値に着目し,その期待値を求め,期待値を最大化するように回答数を求める手法である.また,リスト内の解候補の重複を避けるために,複数の解候補が同じ内容を指していると判断される時には,スコアの高いものを残して削除するということをしている.このシステムの,QAC2subtask2のテストセットに対する精度は,MMFで0.318であった.また,このシステムの基になったfactoid質問に対するシステムの,QAC2subtask1のテストセットに対する精度は,MRRで0.495であった.福本ら\cite{Fukumoto:Rits-QA}は,スコアの差が最も開いているところよりも上位のものを回答とする手法を提案している.さらに,質問文の表層表現から解の個数を判別している(「誰と誰」なら二つ,など).このシステムのQAC2subtask2のテストセットに対する精度は,MMFで0.164であった.また,このシステムの基になったfactoid質問に対するシステムの,QAC2subtask1のテストセットに対する精度は,MRRで0.311であった.村田ら\cite{Murata:JapaneseQAsystemUsingDecreasedAddingwithMultipleAnswers}は最大スコアに対する比率に閾値を設けて回答を選択する手法を採用しており,QAC2subtask2のテストセットに対する精度は,MMFで0.321であった.また,このシステムの基になったfactoid質問に対するシステムの,QAC2subtask1のテストセットに対する精度は,MRRで0.566であった.高木ら\cite{Takaki:NTTDATA-QAatNTCIRQAC2}はn番目の解候補のスコアとn+1番目の解候補のスコアの比率を求め,それが閾値以上ならばn番目までの解候補を回答とするという手法を用いている.このシステムのQAC2subtask2のテストセットに対する精度は,MMFで0.229であった.また,このシステムの基になったfactoid質問に対するシステムの,QAC2subtask1のテストセットに対する精度は,MRRで0.335であった.上記の各手法と本論文で提案する手法でとでは,スコアの並びを見て動的に回答の数を変えるという点で類似している.しかし,スコアが複数の混合分布から生成されると仮定することにより,スコア分布のパラメタより解候補が適切に見つかっているかどうかを判定できるという付加機能を有する点において,我々の提案手法は新しい.また,精度についても他の単純な手法に対して比べて精度が高いという結果となった. \section{優先順位型質問応答システム} \subsection{システムの概要}本節では,本研究で使用している質問応答システム\cite{Mori:NTCIR4WN:JapaneseQASystemUsingA*SearchAndItsImprovement}の概要を説明する.この質問応答システムでは,利用者が自然言語で質問文を入力すると,各解候補のスコアに基づき,解候補群を順序付けて上位から利用者が指定した数だけ提示する.各解候補のスコアは,知識源の文書中の,各解候補と質問文中に含まれるキーワードとの近さなどを基にしている.本稿ではこれを優先順位型質問応答システムと呼ぶことにする.本研究で使用している質問応答システムの全体の構成を図\ref{fig:Ranking-type-QA}に示す.本システムは主に四つのモジュール,すなわち,質問文解析モジュール,文書検索モジュール,パッセージ検索モジュール,そして解抽出モジュールから構成されている.解抽出モジュールの中には,解を整形するサブモジュールもある.\begin{figure}[t]\begin{center}\includegraphics{16-1ia4f1.eps}\end{center}\caption{質問応答システム概要}\label{fig:Ranking-type-QA}\end{figure}\subsubsection{質問文解析モジュール}利用者が入力した質問文から質問応答に有用な情報を抽出するのが質問文解析モジュールの役割である.解析により得られる情報を次に示す.\begin{itemize}\item形態素解析および構文解析の結果\itemキーワード(質問文中の内容語)\item人名,地名など質問の求める回答の種類を表す質問型\item疑問詞に対応する数量表現(質問型が数量表現であった場合)\end{itemize}\subsubsection{文書検索モジュール}本モジュールは質問文解析により得られたキーワードを元に,文書検索を行う.検索エンジンには,TFIDFによる語の重みづけとベクトル空間法による類似度尺度を用いて,与えられたキーワード集合と各文書の類似度を求めるものを採用している.\subsubsection{パッセージ検索モジュール}文書検索で得られた関連文書の中でも,質問の解となる情報が書かれているのはその一部だけである.文書全体から解抽出を行なうことは計算量の面で非効率的なので,正解に関わる文脈を小さなコストで先に切り出しておいたほうがよい.これを行うのがパッセージ検索モジュールである.パッセージとは,文章における連続した一部分のことであり,パッセージ検索は文書集合から正解を含む可能性の高いパッセージを取り出すために行う.本システムのパッセージ検索では,一パッセージを三文として抽出を行なっている.パッセージを三文とした時の有効性は,村田ら\cite{Murata:DcreasedAddingJapaneseQusetionAnswering}により考察されている.それぞれのパッセージには,パッセージ中に出現するキーワードの異なり数などを基にしたスコアが付けられ,スコアが大きいパッセージが次の解抽出モジュールに渡される.\subsubsection{解抽出モジュール}\label{subsec:解生成}解抽出は,パッセージ検索までの処理で得られたパッセージから,質問の解を抜き出す処理である.パッセージを文単位に分割し,それぞれの文(これを検索文と呼ぶ)と質問文とを照合することにより,解となる形態素を決定する.スコアが高い形態素が得られたら,その形態素を中心にして最終的な解候補を生成する.本システムの文照合は2-gram照合,キーワード照合,係り受け照合,質問型照合の四種の照合からなる.それぞれの照合において照合の一致の度合に応じて検索文の文字または形態素にスコアが与えられ,全てのスコアの和がその形態素のスコアとなる.そしてスコアの高い形態素から順に解候補が生成される.2-gram照合とキーワード照合では,解を含む可能性の高い文の中で,ある形態素を解と仮定した時の質問文との照合の良さを,2-gramとキーワードの観点から測定する.一方,質問型照合は,質問型と一致する形態素にスコアを与えるために行なわれる.質問タイプには,人名,地名,組織名,その他数量表現などがある.係り受け照合では,質問文と検索文との構造の一致の度合を見る.本システムの係り受け照合では,一文対一文の照合を基本としているが,質問文の内容が検索文の二文以上にわかれて出現している場合もある.そこで,このような場合には前文の最後の文節を次文の提題の文節に仮想的に係り受けさせるという手法で複数文を連結し,仮想的に一文であるとみなして質問文との照合を行なっている.形態素$mor$の最終スコアは,2gram,キーワード,係り受け,質問型の各照合によって与えられたスコアの和$S(mor,L_i)$で表され,スコアの和の高い形態素$mor$から,解を整形するサブモジュールを用いて解が作成される.ここで,$L_i$は検索文である.\begin{gather}S(mor,L_i)=Sb(mor,L_i)+Sk(mor,L_i)+Sd(mor,L_i)+St(mor,L_i)\\\begin{split}Sb(mor,L_i)&=2gram照合でのスコア\\Sk(mor,L_i)&=キーワード照合でのスコア\\Sd(mor,L_i)&=係り受け照合でのスコア\\St(mor,L_i)&=質問型照合でのスコア\end{split}\nonumber\end{gather}解を整形するモジュールで作られた解候補$AC$のスコア$S(AC,L_i)$は,解を形成している形態素のうち,スコア$S(mor,L_i)$が最大のものとなる.複数の異なる検索文から見つかった同じ解候補に対してより高いスコアを付与する,疑似的な多数決方式がこのシステムでは採用されている.さまざまな質問応答システムにおいて,解候補の冗長性を解の選定に役立てることが有効であることが示されている\cite{Clarke:Exploitingredundancyinquestionanswering}\cite{Xu:TREC2003QAatBBN:Answeringdefinitionalquestions}.多数決方式はその一つである.一方で,我々のシステムでは,探索制御が行なわれており指定される数の解が見つかった時点で残りの解候補を調べることはせずに探索を打ち切る.そのため,探索の過程において,通常の多数決方式は採用できない.しかし,指定された求める解の数は異なり数である.そのため,指定された数になるまでにすでに求められている解と同じものが改めて見つかる可能性がある.そこで,その時にはその解のスコアを出現回数に応じて高くしている.以下では,複数回同じ解が求められた場合,その解に複数投票が入った,と表現することにする.多数決方式を用いたときのある解候補$AC$の最終スコア$score_{raw}(AC)$は,以下の式で与えられる.\begin{equation}score_{raw}(AC)=\{1+\log_{10}frec(AC,AnsList)\}\cdot\max_{L_i}S(AC,L_i)\label{Eq:多数決}\end{equation}ここで,$AnsList$は解候補のリストであり,$frec(x,L)$は$L$中の$x$の頻度である.式(\ref{Eq:多数決})に示される通り,多数決方式のスコアは単純に頻度を最大のスコアに乗じるのではなく,頻度の対数値を乗じることにより頻度に対するスコアの上がり具合が穏やかになるように調整されている.このような,頻度に対するスコアの上がり具合を調整する多数決方式の有効性は,村田ら\cite{Murata:DcreasedAddingJapaneseQusetionAnswering}により考察がなされており,この手法は,高精度の他の多数決手法と同等程度の性能を持つことが示されている.\newcommand{\InH}[1]{} \section{解スコア分布に基づくリスト型質問応答} label{Chapter:list-qa}質問応答の基本的な仕組みは,先に述べたように,\par\InH{段階1}知識源となる文書集合の中から,与えられた質問に対する解候補群を見つけること,\InH{段階2}各解候補に対し,その質問に対する答としての「良さ」を与える数値,すなわち,スコアを付与すること\noindentからなる.リスト型質問応答の基本は,上記の二段階に加え,\par\InH{段階3}優先順位型質問応答システムの出力,すなわち,スコア付きの解候補群を正解(と思しき)集合(最終的な回答群)と不正解(と思しき)集合の二つに分割する\noindentことである.これは,スコアの値に基づき,上位何件の解候補を正解と判断するかを決定することに等しい.我々はその為の手法として,解候補の集合を,そのスコアを基にいくつかのクラスタに分離することを考える.そこで,本手法では,まず,確率密度分布に基づくクラスタリングで用いられる混合分布モデルと同様に\par\InH{仮説1}あるクラスタ中の解候補のスコアの値密度分布が,ある一つの確率分布に従っており,異なるクラスタは異なるパラメタの確率分布に由来すること,そして,\InH{仮説2}解候補群全体のスコアの密度分布はこの複数の確率分布の混合分布に従っていること\noindentを仮定する.次に,各確率分布のパラメタをEMアルゴリズムにより推定し,いくつかの分布に分離する.最後に,それぞれの分布を正解集合のスコアの分布と不正解集合のスコア分布のどちらであるかを判定し,各解候補がいずれの分布に由来するものなのかを推定し,最終的な正解集合を求める.ここで,上記クラスタ数はいくつの群に分けて分析をするかを表す一種のパラメタであり,何らかの手法で決める必要がある.正解集合には何らかの共通点があり1〜2程度の少数のクラスタから構成されることが期待されるが,不正解集合にこのような性質があるとは限らない.しかし本論文では,手法の分析のしやすさから,2〜3程度のクラスタに分ける場合について検討を行なう.一方,基本となる優先順位型質問応答において,システムの求める解析精度が十分でないこともある.例えば,我々の利用しているシステム\cite{Mori:NTCIR4WN:JapaneseQASystemUsingA*SearchAndItsImprovement}では,順位づけにおいても未だ満足のいくものではない.同システムでは,MRR値が0.5程度であり,平均すると2位に正解を見つけることができるという評価であるが,実際のところは1/3程度の問題について1位に正解を返し,2〜5位に正解を返すのが1/3程度,残りの問題については全く正解を得ることが出来ていない.つまり,システムにとって得意な問題と不得意な問題が存在している.我々は,不得意な問題の場合は,各解候補に対するスコア付けがうまくいっておらず,上述の仮説1,仮説2が成立していないと考えた.そこで,推定した確率分布のパラメタに基づき,複数に分割された分布それぞれが正解集合の分布であるか,不正解集合のそれかを判定し,正解集合の分布と不正解集合の分布とが明確に分割できるか否かを調べる.これにより,正解が適切に見つかっているか否かを判断することがある程度可能であると考える.解候補のスコア分布が正解集合の分布と不正解集合の分布とに分けられるとしている本提案手法では,全ての質問対し,一つ以上の正解があることを前提としており,最低でも一つの回答を出力する.正解が全くない質問については,正解が適切に見つかっていないと判定された質問の一部ととらえることができるが,現在対応できていない.\subsection{解候補スコアの分布の計算}\label{sec:分布の計算}優先順位型質問応答システムの出力は解候補とそのスコアの組のリストであり,スコアを数直線上に示すと,図\ref{fig:ScoreDensity}(上)の様になる.それを視覚的に分かりやすくするために,一定区間で区切ってヒストグラムにしたものが,図\ref{fig:ScoreDensity}(中)である.これは説明の為に示した図であり,実際の処理ではヒストグラムは求めていない.本研究では平滑化した確率密度関数を求めるための手法として,スコア分布をいくつかの正規分布の混合分布とみなし,各分布のパラメタを求めるのにEMアルゴリズムを用いている.\begin{figure}[t]\begin{center}\includegraphics{16-1ia4f2.eps}\end{center}\caption{スコア分布の計算}\label{fig:ScoreDensity}\vspace{-1\baselineskip}\end{figure}本提案手法では,複雑な要因(本手法では,\ref{subsec:解生成}節に示す,解候補のスコア)が重なりあってできるばらつきは正規分布に近付くという,統計学における中心極限定理を基にして,仮定する分布を正規分布とした.解候補のスコアの分布が,正解集合が成すいくつかの分布と不正解集合のそれとの混合分布であること,並びにそれらの分布がいずれも正規分布であることを仮定すると,混合分布は式(\ref{Eq:MixtureDist})で与えられる.なお,本稿では,各解候補のスコアは全て,各問について各解候補のスコアを最大値で除し,[0,1]の範囲となるように正規化したものを用いる.\begin{equation}p_s(x)=\sum_{i=1}^n\xi_i\phi_i(x:\mu_i,\sigma_i^2)\label{Eq:MixtureDist}\end{equation}ここで,$x$はスコアの値に対応する確率変数,$n$は仮定する分布数,$\phi_i(x:\mu_i,\sigma_i^2)$は平均値$\mu_i$,分散$\sigma_i^2$の正規分布,$\xi_i$はそれぞれの確率分布の混合比を決めるパラメタである.解のスコア付けが正しく行なわれ,スコア分布が混合分布であるという仮説が成り立つのであれば,スコアの平均値が大きい分布が正解集合がなす分布となる.以降では,スコアの平均値の大きい方の分布から順に番号をつけ$\phi_1,\phi_2\ldots$とする.解候補スコアの観測値の集合が与えられた場合,式(\ref{Eq:MixtureDist})における各パラメタの推定は,EMアルゴリズムにより行なうことができる.これらの分布のパラメタから次節で述べる手法により正解集合の分布と不正解集合の分布とが明確に分割できると判定できる場合には,スコアにより回答候補群を正解の群と不正解の群に分けられると判断する.また,使用している優先順位型質問応答システムには,\ref{subsec:解生成}節に示すように,スコア付けに,多数決方式が採用されている.この多数決スコアがスコアの分布に大きな影響を及ぼしていると考えられる(図\ref{fig:WeightedScore}).複数回出現した解候補のスコアはその出現回数に応じて高くなり,複数回出現した解候補のグループが,スコアの高い分布を形成しやすくなり,分布が別れやすくなる.このことについては\ref{sec:問題判定}節において実験,考察する.\begin{figure}[t]\small\begin{center}\includegraphics{16-1ia4f3a.eps}\\(a)多数決方式を用いない場合(同じ表現の解候補はスコアが高いものだけを使用)\\[1\baselineskip]\includegraphics{16-1ia4f3b.eps}\\(b)多数決方式を用いた場合(出現回数が2以上の解候補のスコアが多数決方式により上昇)\\\end{center}\caption{多数決方式によるスコアの変化}\label{fig:WeightedScore}\end{figure}\subsection{解候補スコアの分布の分割の明確さの判定}\label{sec:分布の判定}スコアの降順で解候補が並んでおり,$i$番目の解候補を$AC_i$,その最終スコア$score_{raw}(AC_i)$を正規化したスコアを$score(AC_i)$とする.解候補のスコアが明確に分割できるかどうかの判定は,隣接した正規分布の平均値の差の値の最大値($\max_j\{\mu_j-\mu_{j+1}\}$),隣接解候補のスコアの差の最大値($\max_k\{score(AC_k)-score(AC_{k+1})\}$)に基づいて行なう.これは,解候補を二群に分けるという観点において,隣接した正規分布の平均値の差の値の最大値($\max_j\{\mu_j-\mu_{j+1}\}$)が大きいほど,スコア分布が大きく二つのグループに分離できると考えられるからである.また,解の分布の如何によらず,解候補をスコアにしたがって二群に分けることを考えると,最も素朴な手法は,隣接する解候補のスコアの差が最も大きい箇所で分離するものであろう.この時,その差の最大値が大きい時ほどスコアの分布が明確に二つに分かれると考えられる.本稿では,以上の二つの指標,すなわち\begin{description}\item[分離指標1]$\max_j{\mu_j-\mu_{j+1}}\geqTh_{\mu_{\mathit{diff}}}$\item[分離指標2]$\max_k\{score(AC_k)-score(AC_{k+1})\}\geqTh_{\mathit{diff}}$\end{description}を採用することとし,上記分離指標のいずれかを満たす場合を,スコアの分布が明確に分かれていると判断した.ここで,$Th_{\mu_{\mathit{diff}}}$,$Th_{\mathit{diff}}$はそれぞれスコア分布が明確に分離できると判断する閾値である.図\ref{fig:RealScore}は実際に質問応答システムが出力した解候補のスコア分布の例である.上位30件を採用した.それぞれの質問文は,図\ref{fig:RealScore}(a)では「サッカーのワールドカップフランス大会で日本が対戦した国はどこですか。」(QAC2subtask2のテストセット中の質問.IDはQAC2-20055-01)であり,知識源は毎日新聞,読売新聞それぞれの98年と99年の2年分の記事である.図\ref{fig:RealScore}(b)では「小沢征爾はいつからボストン交響楽団の音楽監督を務めていましたか。」(QAC1のテストセット中の質問.IDはQAC1-1047-01)であり,知識源は毎日新聞の98年と99年の2年分の記事である.棒グラフが実際の解の分布(ヒストグラム)を示しており,実線がEMアルゴリズムにより推定された複数の分布,破線がその混合分布である.図\ref{fig:RealScore}(a)は上位の解候補に正解が含まれている場合,図\ref{fig:RealScore}(b)は上位の解候補に正解が含まれていない場合であり,正解の位置はそれぞれの図に矢印で示してある.\begin{figure}[t]\small\begin{center}\includegraphics{16-1ia4f4a.eps}\\(a)正解が上位に含まれているもの\\[1\baselineskip]\includegraphics{16-1ia4f4b.eps}\\(b)正解が上位に含まれていないもの\\\end{center}\caption{実際のスコアの分布}\label{fig:RealScore}\vspace{-0.5\baselineskip}\end{figure}上位に正解が含まれている場合(図\ref{fig:RealScore}(a))では隣接した分布同士の平均値の差が,最大の所で0.16と大きく,いくつかの分布が独立しているように見え,スコアの大きい分布と小さい分布とに明確に分けられそうである.それに対して,上位の解候補に正解が含まれていない場合(図\ref{fig:RealScore}(b))では隣接した分布同士の平均値の差が最大の所でも0.05と小さくなっており,全体で大きな一つの分布であるかように観察される.このことから,大きく二つの分布に分けられるときには上位に正解があり,そうでないときには上位に正解が含まれていないということが期待される.\subsection{分割する分布の数の決定}\label{sec:分布数判定}分割する分布の数(以下,分布数と表記)は,スコアを正解集合と不正解集合に分けると言う観点では二つと考えられるが,二つの分布に分けた時にうまくいかない例が存在するため,二つ以上のクラスタに分けることを考える.二つの分布で分離した時にうまくいかない例を図\ref{fig:DistNum}に示す.棒グラフが実際の解の分布(ヒストグラム)を示しており,実線がEMアルゴリズムにより推定された二つ,もしくは三つの分布である.図中の破線は,スコアが一番大きい分布を正解集合の分布と考えた場合の正解分布と不正解分布の境界となるスコアの値であり,これより大きいスコアを持つ解候補が回答として選ばれる.二つの分布で分離した場合(図\ref{fig:DistNum}(a))を見ると,スコアが小さいところで一つの大きな分布が計算されており,もう一つの分布はそれ以外の部分を被覆するように,分散が大きな分布が計算されている.二つの分布で分離し,スコアの高い方の分布を正解分布として回答選択をすると,正解以外の解候補も多数回答に含まれてしまい,回答の精度が悪くなってしまう.一方,三つの分布で分離した場合(図\ref{fig:DistNum}(b))を見ると,二つの場合と比べ,スコアが大きい分布が新たに計算されている.三つの分布で分離し,スコアの最も高い分布を正解分布として回答選択をすると,余計なものを含まずに正解を精度良く回答することが可能になる.パラメタ調整用に用いた質問セット200問(QAC1の1〜50問目と101〜150問目及びQAC2の51〜150問目)では,実際に上位に正解があるかどうかに関わらず,分布の形として図\ref{fig:DistNum}と同様の傾向を持つ質問が約40問あった.この様な例は,最上位の解候補のスコアと,最下位の解候補のスコアの差が大きい時によく見られた.最上位の解候補のスコアが,他の解候補よりも格段に高いスコアであった場合,それが正解である可能性が高いと考えられる.そのため,図\ref{fig:DistNum}(a)の様に,二分布に分けた結果を用いて,多数の解候補を回答とするのは望ましくない.図\ref{fig:DistNum}の例だけでなく,パラメタ調整用の質問セット中の同様の質問においても,図\ref{fig:DistNum}(b)の様に分布数を三つにすることで,回答の数が不適当に多くなってしまうことをある程度解消できることが分かった.\begin{figure}[t]\small\begin{center}\includegraphics{16-1ia4f5a.eps}\\(a)二つの分布で分離した場合\\[1\baselineskip]\includegraphics{16-1ia4f5b.eps}\\(b)三つの分布で分離した場合\\\end{center}\caption{分離する分布の数の違い}\label{fig:DistNum}\end{figure}このため,我々は二つに分けてうまくいかない例は三つにすればカバーできると考え,混合分布の数は二つか三つに限定した.あるスコア群を二つの分布に分けるのか,三つの分布に分けるかの決定法には以下のものが考えられる.指標2,3は,EMアルゴリズムを用いて求められた分布と実際のスコアの並びを観察した結果得られたものである.\begin{description}\item[分布数決定指標1]MDL(minimumdescriptionlength)\cite{MDL}を用いて最適な分布数を決定する.MDLはパラメタで記述されたモデルのクラスからモデルを選択する基準である.MDLの値が小さくなる方の分布を適切な分布とする.MDLの値は以下のように計算する.\begin{gather}MDL=-\log\mathit{\mathit{fit}}_m+\frac{3m-1}{2}\logN\\\mathit{fit}_m=\sum^{N}_{i=1}p_s(score(AC_i))\nonumber\end{gather}ここで,$m$は仮定する分布の数,$\mathit{fit}_m$は仮定した分布の数が$m$個のときの実際のスコア分布との適合度の度合であり,Nは優先順位型質問応答システムが出力した解候補の数である.2項目の$3m-1$は,パラメタ数を表している.各分布には,混合比,平均値,分散という3つのパラメタがあるが,混合比は合計値が1と決まっているために,一つの分布については求める必要がない.そのため,パラメタ数は$3m-1$となる.MDLの値が小さい方の分布数を採用する.\item[分布数決定指標2]スコア分布を二つの分布の混合分布と仮定した時,スコアが大きい分布の分散と,小さい分布の分散の比率が閾値$Th_q$以上なら分布の数を三つに増やす.すなわち,スコア分布を二つの分布の混合分布とした時,$\sigma_1^2/\sigma_2^2\geTh_q$ならば,分布の数を三つにする.これは,図\ref{fig:DistNum}の例にあるように,二分布で分離した時にスコアの大きな分布が回答を多くとりすぎてしまう場合,スコアの小さいところで一つの大きな分布ができ,スコアの大きい方の分布はその他の部分を被覆するために,分散が大きな分布になっているという観察結果を基にしている.\item[分布数決定指標3]スコア分布を二つの分布の混合分布と仮定した時,二分布の平均値の差が閾値$Th_{\mu_r}$以上の時は,分布の数を三つにする.すなわち,スコア分布を二つの分布の混合分布とした時,$\mu_1-\mu_2\geTh_{\mu_r}$ならば,分布の数を三つにする.これは二分布の平均値の差の値が極近い分布では,全解候補中に正解があっても上位に位置していない場合が多いため,回答数が多くなる傾向にある二分布で正解判定をすると言う考えである.\end{description}\subsection{解候補の正解判定}\label{sec:回答判定}解候補の正解判断では,まず,複数に分割した分布それぞれが正解集合の分布(以下,正解分布と呼ぶ)であるか,不正解集合のそれ(以下,不正解分布と呼ぶ)であるかを判定する.その後,正解分布に含まれる解候補を回答とする.そのために,式(\ref{Eq:square})で定義される閾値$Th_s$を設け,閾値以上のスコアを持つ解候補を回答とする.\begin{gather}Th_s=\argmax_t\{S_{correct}(t)-S_{incorrect}(t)\}\label{Eq:square}\\\begin{split}{}&S_{correct}(t)=\sum_{i\inD_{correct}}\int^{\infty}_{t}\phi_i(x)dx\\{}&S_{incorrect}(t)=\sum_{j\inD_{incorrect}}\int^{\infty}_{t}\phi_j(x)dx\\{}&D_{correct}=正解分布と判定された分布の番号の集合\\{}&D_{incorrest}=不正解分布と判定された分布の番号の集合\nonumber\end{split}\end{gather}また,正解分布は以下のように決める.正解分布と判定されなかった分布は不正解分布とする.\begin{description}\item[分布数が二つの時]スコアの大きい方の分布を正解分布とする.\item[分布数が三つの時]以下のものが考えられる.\begin{itemize}\itemスコアの大きい方からいくつめの分布までを正解分布とするかあらかじめ決めておく\item隣接分布間の距離が大きいところで正解分布と不正解分布とに分ける($j=\linebreak\argmax_j\{\mu_j-\mu_{j+1}\}$となるとき,$j$番目の分布までを正解分布とする).\end{itemize}\end{description}なお,この閾値を設けて回答を決める手法は,Murataetal\cite{Murata:JapaneseQAsystemUsingDecreasedAddingwithMultipleAnswers}などで用いられている,スコアの閾値に基づく手法に似ているが,確率分布の上で閾値を設定している点が異なる.\vspace{-0.5\baselineskip} \section{実験及び評価} label{Chapter:exp-eval}NTCIR3QAC1\cite{Fukumoto:QAC1}及びNTCIR4QAC2のtask2(リスト型タスク)\cite{Fukumoto:QAC2Subtask12}のテストコレクションを用いて実験を行なった.知識源は,QAC1の質問に対しては,毎日新聞の98年と99年の2年分の記事を用い,QAC2の問いに対しては,読売新聞と毎日新聞の98年と99年の2年分の記事を用いている.また,優先順位型質問応答システムからの出力は上位10件を採用している.リスト型質問の評価は一問あたりのF値の全質問平均の平均MF値(MeanModifiedF-measure,MMF値)を用いる.なお,ここでのF値は加藤らが提案する修正F値である\cite{加藤:リスト型質問応答の特徴付けと評価指標}.すなわち,同じ解答もしくは同じものを表現する異なる表現を複数リストに含めた場合は,そのうちひとつだけを正解とし,それ以外は誤答とする.また,正解のない質問には空リストを返した時にのみ1.0が与えられ,それ以外の場合はすべて0.0とする.本節の構成は以下の通りである.\ref{sec:問題判定}節では正解が適切に見つかっている質問の判定に対する分離指標の有効性を調べる.特に,\ref{subsec:多数決}節では,多数決方式の違いによる結果の違いを見る.多数決方式の有無やその方法により,スコアの分布が違ってくることが考えられ,それにより正解が適切に見つかっている質問の判定をしたときの結果が違ってくることが考えられる.多数決方式を変えて\ref{sec:分離指標の有効性}節と同様の実験をし,その結果の違いを調べた.\ref{subsec:他のスコア付け}節では,\ref{subsec:解生成}節に示したスコア付け手法以外の手法でも,分離指標が有効かどうかを調べた.また,多数決方式の有無による結果の違いが\ref{subsec:多数決}節での結果と同様のものになるかどうかも実験した.\ref{sec:相関}節では,用いた分離指標の妥当性を見るために,スコアの分布が二つに明確に分割できると判断するための各尺度と精度であるF値との相関関係を求めた.\ref{sec:正解判断指標の有効性}節では,\ref{sec:回答判定}節に示した正解判断のための閾値決定法及び\ref{sec:分布数判定}節に示した分布数判定指標の有効性を調べるために実験を行なった.\ref{sec:問題判定}節〜\ref{sec:正解判断指標の有効性}節では,スコアの分布として正規分布を仮定して実験を行なっているが,\ref{sec:他の分布}節では,正規分布以外の分布としてポアソン分布を仮定し,\ref{sec:問題判定}節〜\ref{sec:正解判断指標の有効性}節の実験と同様の実験をし,その結果が正規分布を用いた時と同じような傾向になるかどうかを調べた.\subsection{正解が適切に見つかっている質問の判定}\label{sec:問題判定}本節では,NTCIR3QAC1\cite{Fukumoto:QAC1}及びNTCIR4QAC2のtask2(リスト型タスク)\cite{Fukumoto:QAC2Subtask12}のテストコレクションを平均正解数が同じになるように,二つの組に分け,一方をパラメタ調整用,もう一方を評価用とした.パラメタ調整用の質問は,QAC1の1〜50問目と101〜150問目及びQAC2の51〜150問目の計200問である.評価用の質問は,QAC1の51〜100問目と151〜200問目及びQAC2の1〜50問目と151〜200問目であり,うち一問が不適切な質問とされているため,計199問である.パラメタ調整用のセットの平均正解数は2.31個,評価用のセットの平均正解数は2.33個である.\subsubsection{分離指標の有効性}\label{sec:分離指標の有効性}まず,分布の分割の明確さを判定することの有効性を見るために,スコアの分布の分離が明確な場合とそうでない場合とに分割し,それぞれの場合について\ref{sec:回答判定}節の手法で解候補の正解判定を行なった.回答選択の手法は,分布数の判定を行なわない手法を用いた.\ref{sec:正解判断指標の有効性}節において,分布数の推定を行なっているが,推定が失敗する可能性を考慮にいれて,分布数は固定とした.ここでは,分布数の判定を行なわない手法の中で最もMMFが高い,すべての質問において三つの分布の混合分布であると仮定し,三つの分布のうち正解分布はスコアが一番大きい分布のみとした手法を用いている.また,スコアの分布の分離が明確かどうかの判定には,\ref{sec:分布の判定}節で述べた分離指標を用い,次のいずれかを満たすものをスコアの分布の分離が明確であると判断している.以下で示している各パラメタは予備実験の結果に基づきその値を決定した.予備実験ではパラメタ調整用の質問セットを用い,それぞれの閾値を0.01単位で動かした時に,正解が適切に求められている質問(解候補中に正解があり,かつそれらが上位に順位づけされている)とそうでない質問とを有効に分けられるかどうかの結果を基に決定した.\begin{align}Th_{\mu_{\mathit{diff}}}&=0.25\\Th_{\mathit{diff}}&=0.2\end{align}評価用の質問セットについて上記閾値に基づき\ref{sec:分布の判定}節の分離指標により,スコアの分布の分離が明確な場合とそうでない場合とに分割した時の平均回答数とMMFを表\ref{tab:分布の分割の違い}に示す.表\ref{tab:分布の分割の違い}によると,分布の分割が明確な場合と不明確な場合とでMMFに明確な差がでている.また,分布の分割が明確な場合,平均回答数を見ると正解の平均数よりも少ない傾向にあるが,MMFが高く,選んだ回答群の精度が良いことが窺える.分布の分割が不明確な場合には平均回答数が多くなっており,平均正解数に近い値ではあるが,MMFは低く,回答の精度が低いことが分かる.\begin{table}[b]\caption{スコアの分布の分離の明確さの違いによる平均回答数とMMFの違い}\label{tab:分布の分割の違い}\begin{center}\input{04table01.txt}\end{center}\end{table}このことから,提案手法により正解が見つかっており,かつそれが上位に順位づけされている質問のみを抽出することがある程度可能であることが分かる.\subsubsection{多数決方式の違いによる精度の違い}\label{subsec:多数決}多数決方式による解候補のスコア付けは,解候補のスコア分布に大きな影響を与えていると考えられる.多数決方式を用いた場合,複数投票が入った解候補はスコアが高くなり,回答として選ばれやすくなる.まず,複数投票が入った解候補の有無(多数決方式によるスコアの変化の有無)という観点で質問文を分けた時の精度の違いを求めた.結果を表\ref{tab:複数投票}に示す.\begin{table}[b]\caption{複数投票が入った解候補がある質問と無い質問とでの平均回答数とMMF}\label{tab:複数投票}\begin{center}\input{04table02.txt}\end{center}\end{table}表\ref{tab:複数投票}より,複数投票が入った解候補がある場合と無い場合とで,精度に大きな差があるのが分かる.このことより,解候補が適切に見つかっているかどうかの判定に,複数投票が入った解候補のある,なしという情報も使えるということが分かる.表\ref{tab:分布の分割の違い}と比べると,スコアの分布の分割が明確な場合と,複数投票が入った解候補がある場合とではスコアの分布の分割が明確な場合の方がMMFが高く,より正解が適切に見つかっている質問を抽出できている.スコアの分布の分割が不明確な場合と,複数投票が入った解候補がない場合とでは複数投票が入った解候補がない場合の方がMMFが低く,より正解が見つかっていない質問を抽出できると考えられる.また,多数決方式を利用したスコアの分布と多数決方式を利用しない場合のスコア分布の違いを見るために,分離指標を用いた以下の実験も行なった.多数決方式によってスコアが変化するのは,複数投票が入った質問のみであるので,表\ref{tab:複数投票}において,複数投票が入った解候補があった121問に対して,優先順位型質問応答システムの解スコアを利用してリスト型質問応答を実行した.\ref{subsec:解生成}節に示した頻度に対する上がり具合を調整する多数決方式(以後,最大値乗算方式と呼ぶ)の他に,複数投票があった場合,その解候補のスコアを単純に加算する多数決方式(以後,単純加算方式と呼ぶ)を用いた場合及び,多数決方式を用いない場合,それぞれについて,分布の分割が明確かどうかを分けたときの,平均回答数とMMFを求めた.\ref{sec:分布の判定}節で述べた,分布が明確に分離できるかどうかの各分離指標のパラメタは,\ref{sec:分離指標の有効性}節と同様の予備実験を行ない,以下のように決定した.この時に使用した質問は,質問セット中の,複数投票が入った質問のみである.\begin{itemize}\item最大値乗算方式の多数決方式を用いた場合\begin{align}Th_{\mu_{\mathit{diff}}}&=0.3\\Th_{\mathit{diff}}&=0.25\end{align}\item単純加算方式の多数決方式を用いた場合\begin{align}Th_{\mu_{\mathit{diff}}}&=0.5\\Th_{\mathit{diff}}&=0.5\end{align}\item多数決方式を用いない場合\vspace{-0.5\baselineskip}\begin{align}Th_{\mu_{\mathit{diff}}}&=0.15\\Th_{\mathit{diff}}&=0.1\end{align}\end{itemize}結果を表\ref{tab:多数決方式による結果の違い}に示す.表\ref{tab:多数決方式による結果の違い}より,どの手法においても分布の分割が明確な場合と不明確な場合で,MMFに大きく差が出ている.このことから,多数決方式の違いに関わらず,分布の分割の明確さをみることで,正解が適切に見つかっている質問を抽出することが,ある程度可能であることが分かる.また,表\ref{tab:多数決方式による結果の違い}での,121問全体のMMFの違いを見てみると,\ref{subsec:解生成}節に示した頻度に対する上がり具合を調整する最大値乗算方式を用いた場合で0.446と最も高い値となっている.最大値乗算方式を用いた場合のMF値と単純加算方式や多数決方式を用いない場合でのMF値との間に統計的有意差があるか,表\ref{tab:多数決方式による結果の違い}で用いた121問でウィルコクソンの符合付順位和検定(両側検定)によって求めた.その結果,最大値乗算方式と単純加算方式との間で有意水準5\%で統計的有意差があったが($p=0.033<0.05$),最大値乗算方式と多数決方式を用いない場合との間では,統計的有意差は認められない($p=0.23$)ということが分かった.\begin{table}[t]\caption{多数決方式の違いによる結果の違い}\label{tab:多数決方式による結果の違い}\begin{center}\input{04table03.txt}\end{center}\end{table}\subsubsection{スコア付け手法の違いによる精度の違い}\label{subsec:他のスコア付け}\ref{subsec:解生成}節で示した以外の解候補のスコア付け手法でも分離指標が有効に働くかどうかを調べるために,質問文中のキーワードと解候補との距離に基づいた単純なスコア付け方法を用いて同様の実験を行なった.この距離に基づいたスコア付け手法は,構文解析を用いずに解候補のスコアを決定する素朴な手法である.この手法では,全てのキーワードからの距離が近い解候補ほど大きなスコアが与えられる.このスコア$S_{dist}(mor)$は,式(\ref{Eq:distance})によって与えられる.ここで,$K_n$は質問文中の$n$番目のキーワードである.\begin{gather}S_{dist}(mor)=\sum_n\frac{1}{\logdist(mor,K_n)+1}\label{Eq:distance}\\\begin{split}{}&dist(mor,K_n)\\&\qquad=解候補となる形態素morとキーワードK_nとの間の距離を形態素単位で計ったもの\end{split}\nonumber\end{gather}この手法でも,探索制御において,同じ解が複数回求められた場合には\ref{subsec:解生成}節で示した多数決方式を用いて最終的なスコアを求めている.スコアの分布が明確に分離できるかどうかの各パラメタは,パラメタ調整用質問セットを用いた予備実験の結果以下のように決定した.\begin{align}Th_{\mu_{\mathit{diff}}}&=0.25\\Th_{\mathit{diff}}&=0.2\end{align}解候補のスコア分布は,\ref{sec:分離指標の有効性}節と同じく三つの分布の混合分布であると仮定し,三つの分布のうち正解分布はスコアが一番大きい分布のみとしている.スコア分布が明確に分割できる質問とそうでない質問とに分けた時の平均回答数とMMFを表\ref{tab:距離スコアでの分割},複数投票が入った解候補がある場合とない場合とで分けた時の同様の結果を表\ref{tab:距離スコアで複数投票}に示す.\begin{table}[b]\vspace{-1\baselineskip}\hangcaption{距離に基づいたスコアを使った時の,スコアの分布の分割の度合の違いによる平均回答数とMMFの違い}\label{tab:距離スコアでの分割}\begin{center}\input{04table04.txt}\end{center}\end{table}\begin{table}[b]\hangcaption{距離に基づいたスコアを使った時の,複数投票が入った解候補がある質問とない質問との結果の違い}\label{tab:距離スコアで複数投票}\begin{center}\input{04table05.txt}\end{center}\end{table}表\ref{tab:距離スコアでの分割},表\ref{tab:距離スコアで複数投票}より,分布の分割が明確な場合とそうでない場合,また複数投票が入った解候補がある場合とない場合とでMMFに明確な差がでているのが分かり,\ref{subsec:解生成}節で示した解候補のスコア付け法を用いた場合と同様の結果が得られた.分布の分割が明確な場合は正解が適切に見つかっている質問を抽出でき,複数投票が入った解候補がない場合では正解が適切に見つかっていない質問を抽出できるという傾向も同じである.距離に基づいたスコア付け方法でも\ref{subsec:多数決}節と同様に,多数決方式を利用したスコア分布と多数決方式を利用しない場合のスコア分布の違いを見るための,分離指標を用いた実験を行なった.表\ref{tab:距離スコアで複数投票}において複数投票が入った解候補があった125問に対して,リスト型質問応答を実行した.分布の分割が明確かどうかの判断のためのパラメタは,予備実験の結果,以下のように決定した.その結果を表\ref{tab:距離スコアで多数決}に示す.\begin{table}[b]\caption{距離に基づいたスコアを使った時の,多数決方式のあるなしによる精度の違い}\label{tab:距離スコアで多数決}\vspace{-0.5\baselineskip}\input{04table06.txt}\end{table}\pagebreak\begin{itemize}\item最大値乗算方式の多数決方式を用いた場合\begin{align}Th_{\mu_{\mathit{diff}}}&=0.25\\Th_{\mathit{diff}}&=0.2\end{align}\item多数決方式を用いない場合\begin{align}Th_{\mu_{\mathit{diff}}}&=0.1\\Th_{\mathit{diff}}&=0.1\end{align}\end{itemize}表\ref{tab:距離スコアで多数決}より,いずれの場合でも,ある程度正解が適切に見つかっている質問を分けることができた.また多数決方式を用いた場合とそうでない場合とではMF値について,125問全体を対象にした時のMF値にも差が出ているが,統計的有意差は認められない(ウィルコクソンの符合付順位和検定(両側検定)で,$p=0.31$).距離に基づいたスコア付け手法を利用した際にも分離指標が有効であること,複数投票が入った解候補がある質問とない質問で精度に大きく差がでることなどから本論文で提案した解候補の分割の指標及び解候補の選択手法は解候補に対するスコア付け手法が単純なものであっても,有効であると考えられる.\subsection{スコアの分布が二つに分離できると判断するための各尺度の間の相関関係}\label{sec:相関}\begin{table}[b]\vspace{-0.5\baselineskip}\caption{スコアの分布が二つに分離できると判断するための各尺度の相関関係}\label{tab:正規分布の各尺度の相関係数}\begin{center}\input{04table07.txt}\end{center}\end{table}分離指標としていた尺度の妥当性の検証のために,スコアの分布の分離指標として用いていた各尺度と回答精度であるMF値との相関関係を調べた.ここで用いた質問は,QAC1の51〜100問目と151〜200問目及びQAC2の1〜50問目と151〜200問目(うち一問が不適切な質問とされている)の計199問である.相関を求める際,MF値は質問毎に,優先順位型質問応答システムの出力のうち上位n件に対する解候補のF値をnを変化させて求め,その最大値(以後最大F値と表す)を用いている.相関を求めた結果を表\ref{tab:正規分布の各尺度の相関係数}に示す.表中の値はピアソンの相関係数である.$\mu_{\mathit{diff}}(2)$は,スコア分布を二つの分布の混合分布としたときの,二つの正規分布の平均値の差,$\mu_{\mathit{diff}}(3)$は,スコア分布を三つの分布の混合分布したときの,隣接した正規分布の平均値の差の大きい方,$max_{\mathit{diff}}$は隣接スコアの差の最大値($max_{\mathit{diff}}=\max_j\{score(AC_j)-score(AC_{j+1})\}$),を表している.以上の値に注目したのは,$\mu_{\mathit{diff}}$と$max_{\mathit{diff}}$はその値が大きいほどスコア分布は分布は明確に分離できると期待できるためである.表\ref{tab:正規分布の各尺度の相関係数}より,各尺度間には非常に強い相関があることがわかる.また,各尺度と最大MF値にも相関があることが示されている.最大F値が高い質問は上位に正解が集まっている質問といえる.各尺度と最大MF値との間に相関関係があるということから,各尺度が,正解が上位に順位付けされている質問を抽出するための分離指標として,利用可能である考えられる.\subsection{正解判断指標の有効性}\label{sec:正解判断指標の有効性}\ref{sec:回答判定}節で提案した回答選択手法の有効性を調べるために,実験を行なった.提案手法では,「分布数の決定法」ならびに「分布数が三つの場合の正解分布の決め方」に各々数種類ずつ選択肢がある.また,比較対象であるベースラインとなる手法についても様々な観点からいくつかの候補がある.そのため,QAC1及びQAC2のテストコレクションをパラメタ調整セット,開発セット,評価用セットの三つに分けた.まず,パラメタ調整セットにより各パラメタを調整する.そして,開発セットによって,有効なベースライン手法及び,提案手法における各選択肢の有効な組合せを決定した後,テストセットによって,ベースライン手法と提案手法の精度の比較を行なう.パラメタ調整用の質問セットは,QAC1の34〜66問目,167〜200問目及びQAC2の1〜33問目,134〜166問目(計133問,平均正解数2.32個),開発用の質問セットは,QAC1の67〜133問目及びQAC2の34〜66問目,167〜200問目であり,うち一問が不適切な質問とされている(計133問,平均正解数2.34個).評価用の質問セットは,QAC1の1〜33問目,134〜166問目及びQAC2の67〜133問目(計133問,平均正解数2.29個)である.\subsubsection{ベースライン手法の決定}\label{subsubsec:ベースライン}ベースライン手法の候補として,先行研究を考慮し以下のものを検討する.\begin{itemize}\itemスコアの値の上位から決まった個数の解候補を回答とする手法.\itemスコアの値に単純な閾値を設ける手法.$score(AC_i)\geTh_r$なる$AC_i$のリストを回答とする.ただし,提案手法が式(\ref{Eq:square})で求める値と違い,$Th_r$は全問に共通の一定の値である.また,$score(AC_i)$は最大値が1になるように正規化されていることに注意されたい.\item秋葉ら\cite{秋葉:質問応答における常識的な解の選択と期待効用に基づく回答群の決定}の手法を用いて回答する手法.\end{itemize}質問の正解数の平均は約2.3個であるため,決まった個数の解候補を回答とする手法では,回答とする解候補の数を1〜3個の場合それぞれについて結果を求めた.スコアの値に単純な閾値を設ける手法での閾値$Th_r$は,値を0.5から0.99まで0.01刻みで変えていき,パラメタ調整用の質問セットで最もMMFが高かった以下の値を採用した.\begin{equation}Th_r=0.78\end{equation}開発セットにおけるベースライン手法の各候補の精度を,\pagebreak表\ref{tab:ベースライン手法,開発セット}に示す.表中の再現率,適合率はそれぞれ,再現率=全質問に対する正答数/全質問の正解数の合計,適合率=全質問に対する正答数/全回答数,\\と計算した.ここで,正答数とは,回答中に現れた正解の数であり,全回答数は,全質問に対する回答数である.表中のMMFは上記の再現率,適合率から求めた値ではなく,それぞれの質問のMF値の全質問平均であることに注意されたい.\begin{table}[t]\caption{開発セットにおけるベースライン手法の精度}\label{tab:ベースライン手法,開発セット}\begin{center}\input{04table08.txt}\end{center}\end{table}表\ref{tab:ベースライン手法,開発セット}より,MMF値が最も高い秋葉らの手法を,提案手法と比較するベースライン手法として採用する.\subsubsection{提案手法における,「分布数の決定法」及び,「分布数が三つの場合の正解分布の決定法」の組合せの決定}\label{subsubsec:提案手法}提案手法では回答は\ref{sec:回答判定}節の式(\ref{Eq:square})で求められる閾値以上のスコアを持つ解候補を回答とする.ここで,「分割する分布数の決定法」及び,「分割されたいくつかの分布のうち,どこまでを正解分布とするかの決定法」についてそれぞれいくつかの候補が存在する.本節では,開発セットを用いて,「分布数の決め方」と「分布数が三つの場合の正解分布の決め方」の最も良い組合せを選ぶ.分布数が二つの時は,スコアの大きい方の分布が正解分布となる.分布数が三つの時の正解分布の決め方として,以下の三種類を検討する.\begin{description}\item[固定(1)]最もスコアが大きい分布を正解分布とする.\item[固定(2)]スコアが大きい方から二つ目の分布までを正解分布とする.\item[可変]隣接分布の平均値の差が大きいところで正解分布と不正解分布とに分ける($j=\linebreak\argmax_j\{\mu_j-\mu_{j+1}\}$となるとき,$j$番目の分布までを正解分布とする)).\end{description}また,分布数の決定法は以下の場合を検討する.\begin{itemize}\item分布数をあらかじめ決定しておく.\item\ref{sec:分布数判定}節の分布数決定指標1を用いて分布数を決定する.\item\ref{sec:分布数判定}節の分布数決定指標2を用いて分布数を決定する.\item\ref{sec:分布数判定}節の分布数決定指標3を用いて分布数を決定する.\item\ref{sec:分布数判定}節の分布数決定指標2と3の両方を用いて分布数を決定する.分布数決定指標2と同3の両方で分布数が三つと判定された質問だけを分布数が三であると仮定し,それ以外は分布数を二と仮定する.\end{itemize}各候補の組合せを表\ref{tab:設定組合せ}に示す.表\ref{tab:設定組合せ}では,それぞれの設定において,パラメタ調整用のセットで調整する必要があるパラメタ名を併せて示している.\begin{table}[b]\hangcaption{提案手法の「分布数の決定法」と「分布数が三つの場合の正解分布の決定法」のそれぞれの候補の設定の組合せ}\label{tab:設定組合せ}\begin{center}\input{04table09.txt}\end{center}\end{table}分布数決定指標2のパラメタ$Th_q$はパラメタ調整用の質問セットを用いて,値を1から10まで0.5刻みで変えて実験した結果,式(\ref{Eq:Th_q})の通りに決定した.また,分布数決定指標3のパラメタ$Th_{\mu_r}$はパラメタ調整用の質問セットを用いて,値を0.01から0.2まで0.01刻みで変えて実験した結果,式(\ref{Eq:Th_mu_r})の通りに決定した.\begin{align}Th_q&=2.5\label{Eq:Th_q}\\Th_{\mu_r}&=0.15\label{Eq:Th_mu_r}\end{align}「分布数の決定法」と「分布数が三つの場合の正解分布の決定法」のそれぞれの候補の組合せにおける求解精度を表\ref{tab:提案手法,開発セット}に示す.\begin{table}[b]\hangcaption{開発セットにおける,「分布数の決定法」と「分布数が三つの時の正解分布の決定法」のそれぞれの候補の組合せにおける求解精度}\label{tab:提案手法,開発セット}\begin{center}\input{04table10.txt}\end{center}\end{table}表\ref{tab:提案手法,開発セット}より,最もMMF値が高い,「分布数決定指標2で分布数を決定し,分布数が三つの場合には最もスコアが高い分布のみを正解分布とする手法」を最終的な提案手法とする.\subsubsection{提案手法とベースライン手法の精度比較}評価用の質問セットを用いて,\ref{subsubsec:ベースライン}節及び\ref{subsubsec:提案手法}節で\pagebreak選んだベースライン手法と提案手法の精度の比較を行なった.ベースライン手法は秋葉らの手法\cite{秋葉:質問応答における常識的な解の選択と期待効用に基づく回答群の決定}である.提案手法は,\ref{sec:分布数判定}節の分布数決定指標2で分布数を決定し,分布数が三つの場合には最もスコアが高い分布のみを正解分布とし,\ref{sec:回答判定}節の式(\ref{Eq:square})で求められる閾値以上のスコアを持つ解候補を回答とする手法である.分布数決定指標2のパラメタ$Th_q$の値は2.5である.結果を表\ref{tab:提案手法vsベースライン}に示す.\begin{table}[b]\caption{評価用セットにおける,提案手法とベースライン手法の精度比較}\label{tab:提案手法vsベースライン}\begin{center}\input{04table11.txt}\end{center}\end{table}表\ref{tab:提案手法vsベースライン}より,提案手法のMMF値がベースライン手法を若干上回っていることが分かる.ただし,この差に統計的有意差は無く(ウィルコクソンの符合付順位和検定(両側検定)でのp値=0.453),同等の精度であるといえる.一方で,再現率と適合率を見ると,再現率には大きな差がないのに対し,適合率は提案手法の方が大きく勝っている.再現率を下げずに平均回答数を少なくすることに成功していることが分かる.\subsection{スコアの分布に正規分布以外の分布を使った時の求解精度}\label{sec:他の分布}本研究では,スコアの分布として,正規分布を仮定して分布を求めていた.これは,統計学における中心極限定理に根拠をおいている.しかしながら,正規分布による近似が最適であるという保証はない.一方,言語処理において,単語の出現頻度の確率分布は,ポアソン分布に近似できるといわれている.ポアソン分布は,一定の期間や一定の大きさの空間において,ごく稀に起こる現象の確率分布であるそこで本節では,スコアの確率分布をモデル化する正規分布以外の分布として,ポアソン分布を仮定し,正規分布の場合と同様の求解手順により求められた解の精度を調べることとする.ポアソン分布は二項分布の特殊例で,二項分布の期待値と分散が等しい場合となる.ポアソン分布の式は以下のように表される.\begin{equation}p(x)=\frac{e^{-\lambda}\cdot\lambda^{x}}{x!}\hspace{20pt}x=0,1,2\cdots\end{equation}ここで,$\lambda$は平均値で,0以上の値をとる.解候補スコアの分布をポアソン分布と仮定して,同じようにEMアルゴリズムで分離した.ポアソン分布は離散分布であるので,解候補のスコアを非負の整数で表現する必要がある.そこで,最大値を100とするために正規化スコアを100倍し,小数点以下は四捨五入したものを用いた.\subsubsection{仮定する分布の違いによるスコア分布の違い}図\ref{fig:Poisson}(a)は優先順位型質問応答システムが出力した,上位30件の正規化した解候補スコアのヒストグラム(ヒストグラムのデータ区間は0.04毎)であり,実線はハニング窓関数を用いてスコアの密度分布を求めたものである(ハニング窓関数の窓幅は0.02).図\ref{fig:Poisson}(b)は正規分布,ポアソン分布それぞれの混合分布でスコア分布を近似したものである.ハニング窓関数を用いて求めた密度分布がだいたい三つの分布から成り立っているように観察できるため,分布数は三つとしている.正規分布の混合分布とポアソン分布の混合分布を比べると,ポアソン分布の混合分布の方が,なだらかに変化しており,分布の切れ目が判断しづらい.図\ref{fig:Poisson}(a)のハニング窓関数を用いて平滑化したものと図\ref{fig:Poisson}(b)の各分布を比べてみると,正規分布で近似したもののほうが類似しているのが見てとれる.このことから,正規分布の方がより正確に近似できていると言えそうである.この違いは,ポアソン分布のパラメタ数と正規分布のパラメタ数の差から来ている.ポアソン分布ではパラメタが平均値$\lambda$のみであるのに対し,正規分布では平均値$\mu$と分散$\sigma^2$があるため,実際のスコア分布に対する近似はパラメタ数の多い正規分布の方が優れていると考えられる.\begin{figure}[t]\small\begin{center}\includegraphics{16-1ia4f6a.eps}\\(a)スコアのヒストグラム\\[1\baselineskip]\includegraphics{16-1ia4f6b.eps}\\(b)混合分布\\\end{center}\caption{仮定するスコアの分布による混合分布の違い}\label{fig:Poisson}\end{figure}\subsubsection{ポアソン分布を仮定した場合のリスト型質問応答}\label{subsec:ポアソンでの精度}解候補スコアの分布として正規分布を仮定した場合とポアソン分布を仮定した場合の違いを比較する.用いた質問の内訳は\ref{sec:問題判定}節と同様で,パラメタ調整用の質問は,QAC1の1〜50問目と101〜150問目及びQAC2の51〜150問目の計200問(平均正解数2.31個)である.評価用の質問は,QAC1の51〜100問目と151〜200問目及びQAC2の1〜50問目と151〜200問目(うち一問が不適切な質問とされている)の計199問(平均正解数2.33個)である.まず,\ref{sec:分布の判定}節の分離指標を用いて,回答が適切に見つかっている質問の判定ができるかどうか実験を行なった.分離指標に関する各パラメタは予備実験の結果,以下のように決定した.予備実験ではパラメタ調整用の質問セットを用い,それぞれの閾値を0.01単位で動かした時に,正解が適切に求められている質問(解候補中に正解があり,かつそれらが上位に順位づけされている)とそうでない質問とを有効に分けられるかどうかの結果を基に決定した.\begin{align}Th_{\mu_{\mathit{diff}}}&=0.2\\Th_{\mathit{diff}}&=0.2\end{align}ここでは,すべての質問において,解候補のスコア分布は,三つの分布の混合分布であるとし,三つの分布のうち正解分布はスコアが一番大きい分布のみとしている.結果を表\ref{tab:分布の分割の違いポアソン}に示す.\begin{table}[b]\caption{ポアソン分布を仮定した時のスコアの分布の分割の度合の違いによる平均回答数とMMFの違い}\label{tab:分布の分割の違いポアソン}\begin{center}\input{04table12.txt}\end{center}\end{table}表\ref{tab:分布の分割の違いポアソン}より,分布の分割が明確な場合と不明確な場合とでMMFに差がでており,ポアソン分布を仮定した場合にも,正解が適切に見つかっている質問を判定するのに分離指標は有効であるといえる.ただし,この結果は表\ref{tab:分布の分割の違い}とは少し違い,分布の分割が不明確な質問のMMFがかなり低く,どちらかといえば,正解が適切に見つかっていない質問の判定に適しているといえる.次に,解候補スコアの分布として正規分布を仮定した場合とポアソン分布を仮定した場合の,リスト型質問応答としての精度の違いを比較する.ここでは,すべての質問において,解候補のスコア分布は,三つの分布の混合分布であるとし,三つの分布のうち正解分布はスコアが一番大きい分布のみとしている.結果を表\ref{tab:ポアソン分布を用いた場合}に示す.表中の再現率と適合率の値については\ref{sec:正解判断指標の有効性}節でのものと計算法は同じである.\begin{table}[b]\caption{スコアの分布とリスト型質問応答の精度の違い}\label{tab:ポアソン分布を用いた場合}\begin{center}\input{04table13.txt}\end{center}\end{table}表\ref{tab:ポアソン分布を用いた場合}より,MMFにやや差がでており,正規分布を仮定した場合の方が精度が良くなっている.ただし,ポアソン分布を仮定した場合と正規分布を仮定した場合とでは,MF値について,ウィルコクソンの符合付順位和検定(両側検定)を行った結果,統計的有意差は認められなかった($p=0.089$).また,ポアソン分布を仮定した場合と正規分布を仮定した場合の平均回答数は,ポアソンを仮定した場合の方が少なめである.再現率と適合率を見ても,平均回答数が少なめのポアソン分布の方は適合率が高くなっており,平均回答数が多めの正規分布ではポアソン分布を仮定した場合と比べ,再現率が高く,適合率が低くなっており,傾向が違っているのが観察される.\subsubsection{ポアソン分布を仮定した際のスコアの分布が二つに分離できると判断するための各尺度の相関関係}\ref{sec:相関}節と同様に,ポアソン分布を仮定した際のスコアの分布が二つに分離できると判断するための各尺度と最大MF値の相関係数を求めた.用いた質問は,\ref{sec:相関}節と同様,QAC1の51〜100問目と151〜200問目及びQAC2の1〜50問目と151〜200問目(うち一問が不適切な質問とされている)の計199問である.\begin{table}[t]\hangcaption{ポアソン分布を仮定した際の,スコアの分布が二つに分離できると判断するための各尺度の相関関係}\label{tab:ポアソン分布の各尺度の相関係数}\begin{center}\input{04table14.txt}\end{center}\end{table}その結果を表\ref{tab:ポアソン分布の各尺度の相関係数}に示す.表中の値はピアソンの相関係数である.$\mu_{\mathit{diff}}(2)$は,スコア分布を二つの分布の混合分布としたときの,二つの正規分布の平均値の差,$\mu_{\mathit{diff}}(3)$は,スコア分布を三つの分布の混合分布したときの,隣接した正規分布の平均値の差の大きい方,$max_{\mathit{diff}}$は隣接スコアの差の最大値($max_{\mathit{diff}}=\max_j\{score(AC_j)-score(AC_{j+1})\}$),を表している.表\ref{tab:ポアソン分布の各尺度の相関係数}より,\ref{sec:相関}節での結果と同様の傾向を持つ結果となっているのが分かる.この結果より,スコア分布を二つの分布の混合分布としたときの,二つの正規分布の平均値の差や,スコア分布を三つの分布の混合分布したときの,隣接した正規分布の平均値の差の大きい方,という尺度は,ポアソン分布,正規分布のいずれの分布を仮定した時でも有効な指標であると考えられる. \section{考察} label{Chapter:discussion}\subsection{スコアの分布の分割の有効性}\ref{sec:問題判定}節から\ref{sec:正解判断指標の有効性}節の結果より,提案手法は,ベースライン手法の候補の中で最も優れていた秋葉らの手法\cite{秋葉:質問応答における常識的な解の選択と期待効用に基づく回答群の決定}と同等以上の精度があることが分かった.さらに秋葉らの手法に対し,スコアの分布を求めることにより,正解が適切に見つかっている質問を判定できるという点で,本手法は優れている.\ref{sec:分布の判定}節で提案した分離指標を用いてスコアの分布が明確に分離できるかどうか判断し,正解が適切に見つかっているか否かの判断をすることは可能であるということが分かった.しかし,正解が適切に見つかっている質問を全て抽出できているわけではない.例えば,1位に正解があるような例でも適切に判断できないこともある.これは,解候補のスコアの分布が明確だと判断する条件をある程度厳しくしている為だと考えられる.条件を厳しくしているのは確実な質問についてのみ求解を行なうためである.判断の基準を変えることによって,より確実な質問に重点をおくのか,正解を見つけられていない質問を見つけることに重点をおくのかなどの調整は可能である.さらに,\ref{sec:分布数判定}節に示した分布数決定指標のうち,経験則である分布数決定指標2を用いた手法が最も有効であることが分かった.しかし,MDLを用いた分布数決定法は有効でないことが分かった.この理由の一つとして,MDLの計算に用いるパラメタ数がある.一つの分布につきパラメタは,混合比,平均値,分散と三つあるため,分布が一つ増えただけでパラメタ数の増大が大きく,MDL値が大きくなりやすくなるため多くの質問のスコア分布が二つと判定されてしまったと考えられる.しかし,それ以外の,精度が良くない原因については現在調査中であり,今後の課題としたい.\subsection{スコアの分布として仮定した確率分布の違いによる結果}スコアの分布としてポアソン分布として仮定した場合,正規分布を仮定した場合と比べて\ref{sec:他の分布}節の結果より以下のことが言える.\begin{enumerate}\item正規分布を仮定したときと同様に,\ref{sec:分布の判定}節で提案した分離指標を用いて,正解が適切に見つかっている質問を判定することが可能である.\item正解が適切に見つかっていると判断された質問については,正規分布を仮定した場合と同等のMMFである.\item正解が適切に見つかっていないと判断された質問については,MMFはとても低い.\item全体として,ポアソン分布を用いてリスト型質問応答を行ったときと,正規分布を用いた時では,ポアソン分布を仮定した時の方が平均回答数が少なく,MMFがやや悪くなっている.\end{enumerate} \section{おわりに} label{Chapter:conclusion}本稿では,リスト型質問応答処理にスコアの分布を用いる手法を提案した.リスト型の回答を作る際に,解候補のスコアの分布を求めることにより正解が適切に見つかっている質問の判定をする手法も提案した.我々は,優先順位型質問応答システムの出力する解候補群のスコアをまずいくつかのクラスタに分けることを考え,それぞれのクラスタを一つの確率分布と考えた.さらに,正解集合のスコア分布と不正解集合のスコア分布に明確に分割できる場合には,その質問の回答が適切に見つかっていると判断できると考えた.この考えを基に,正解集合に含まれる解候補を回答とするための正解判定法と,二つの分布が明確に分割できるかどうか判断するための分離指標を用いる手法を提案した.これらの手法は解候補の頻度情報を用いた,頻度によるスコアの上がり具合を調整する多数決方式を用いたスコアの分布に有効であることが分かった.また,スコアの分布を用いた正解判断指標は他の単純な指標に比べて精度が高かった.正解判断の指標をスコアの分布により使い分けることも有効であるということも分かったが,使い分けるための有効な手法を検討する必要がある.今後は,正解が存在しない質問への対応が課題である.また,本手法で正解が適切に求められていないと判定された質問に対して,解候補の最順位づけなどを行なうことによって,精度の向上が期待できる.Pargeretal\cite{Prager:ImprovingQAAccuracybyQuestionInversion}は,解候補を用いて質問文中のキーワードを解答とする新たな質問文を作り,解候補の検証を行なうことによって,解候補候補の再順位づけ及び正解無しの判定を行なう手法を提案している.本手法で正解が適切に求められていないと判定された質問に対して,このような手法が有効であるか検討したい.\bibliographystyle{jnlpbbl_1.3}\newcommand{\nop}[1]{}\makeatletter\@ifundefined{nop}{\def\nop#1{}}{}\makeatother\begin{thebibliography}{}\bibitem[\protect\BCAY{Bos}{Bos}{2006}]{Bos:TheLaSapienzaQuestionAnsweringsystematTREC2006}Bos,J.\BBOP2006\BBCP.\newblock\JBOQ{The“LaSapienza”QuestionAnsweringsystematTREC-2006}\JBCQ\\newblockIn{\Bem{TheFifteenthTextREtrievalConferenceProceedings}}.\bibitem[\protect\BCAY{Burger}{Burger}{2006}]{Burger:MITREsQandaatTREC15}Burger,J.~D.\BBOP2006\BBCP.\newblock\JBOQ{MITRE’sQandaatTREC-15}\JBCQ\\newblockIn{\Bem{TheFifteenthTextREtrievalConferenceProceedings}}.\bibitem[\protect\BCAY{Clarke,Cormack,\BBA\Lynam}{Clarkeet~al.}{2001}]{Clarke:Exploitingredundancyinquestionanswering}Clarke,C.~L.,Cormack,G.~V.,\BBA\Lynam,T.~R.\BBOP2001\BBCP.\newblock\BBOQ{Exploitingredundancyinquestionanswering}\BBCQ\\newblock\Jem{{ProceedingofSIGIR’01:the24thAnnualInternationalACMSIGIRConfersnceonReserchandDevelopmentinInformationRetrival}}.\bibitem[\protect\BCAY{Dong,Lin,\BBA\Kelly}{Donget~al.}{2006}]{TRECoverview06}Dong,H.~T.,Lin,J.,\BBA\Kelly,D.\BBOP2006\BBCP.\newblock\BBOQ{OverviewoftheTREC2006QuestionAnsweringTrack}\BBCQ\\newblockIn{\Bem{TheFifteenthTextREtrievalConferenceProceedings}}.\bibitem[\protect\BCAY{Fukumoto,Kato,\BBA\Masui}{Fukumotoet~al.}{2002}]{Fukumoto:QAC1}Fukumoto,J.,Kato,T.,\BBA\Masui,F.\BBOP2002\BBCP.\newblock\BBOQ{QuestionAnsweringChallenge(QAC-1)---QuestionansweringevaluationatNTCIRWorkshop3---}\BBCQ\\newblockIn{\BemProceedingsoftheThirdNTCIRWorkshopMeeting},\mbox{\BPGS\1--6}.\bibitem[\protect\BCAY{Fukumoto,Kato,\BBA\Masui}{Fukumotoet~al.}{2004a}]{Fukumoto:QAC2Subtask12}Fukumoto,J.,Kato,T.,\BBA\Masui,F.\BBOP2004a\BBCP.\newblock\BBOQ{QuestionAnsweringChallengeforFiveRankedAnswersandListAnswers-OverviewofNTCIR4QAC2Subtask1and2}\BBCQ\\newblockIn{\Bem{ProceedingsoftheFourthNTCIRWorkshopMeeting}}.\bibitem[\protect\BCAY{Fukumoto,Niwa,Itogawa,\BBA\Matsuda}{Fukumotoet~al.}{2004b}]{Fukumoto:Rits-QA}Fukumoto,J.,Niwa,T.,Itogawa,M.,\BBA\Matsuda,M.\BBOP2004b\BBCP.\newblock\BBOQ{Rits-QA:ListAnswerDetectionandContextTaskwithZeroAnaphoraHandling}\BBCQ\\newblockIn{\Bem{ProceedingsoftheFourthNTCIRWorkshopMeeting}}.\bibitem[\protect\BCAY{Harabagiu,Moldovan,Clark,Bowden,Williams,\BBA\Mensly}{Harabagiuet~al.}{2003}]{Harabagiu:AnswerMiningbyCombiningExtractionTechniqueswithAbductiveReasoning}Harabagiu,S.,Moldovan,D.,Clark,C.,Bowden,M.,Williams,J.,\BBA\Mensly,J.\BBOP2003\BBCP.\newblock\BBOQ{AnswerMiningbyCombiningExtractionTechniqueswithAbductiveReasoning}\BBCQ\\newblockIn{\Bem{TheTewlfthTextREtrievalConferenceProceedings}}.\bibitem[\protect\BCAY{Mori}{Mori}{2004}]{Mori:NTCIR4WN:JapaneseQASystemUsingA*SearchAndItsImprovement}Mori,T.\BBOP2004\BBCP.\newblock\BBOQ{JapaneseQ/ASystemusingA$^*$SearchandItsImprovement:YokohamaNationalUniversityatQAC2}\BBCQ\\newblockIn{\Bem{ProceedingsoftheFourthNTCIRWorkshopMeeting}}.\bibitem[\protect\BCAY{Murata,Utiyama,\BBA\Isahara}{Murataet~al.}{2004}]{Murata:JapaneseQAsystemUsingDecreasedAddingwithMultipleAnswers}Murata,M.,Utiyama,M.,\BBA\Isahara,H.\BBOP2004\BBCP.\newblock\BBOQ{JapaneseQuestion-AnsweringSystemUsingDecreasedAddingwithMultipleAnswers}\BBCQ\\newblockIn{\Bem{ProceedingsoftheFourthNTCIRWorkshopMeeting}}.\bibitem[\protect\BCAY{Murata,Utiyama,\BBA\Isahara}{Murataet~al.}{2005}]{Murata:DcreasedAddingJapaneseQusetionAnswering}Murata,M.,Utiyama,M.,\BBA\Isahara,H.\BBOP2005\BBCP.\newblock\BBOQ{UseofMultipleDocumentsasEvidencewithDcreasedAddinginaJapaneseQusetionAnswering}\BBCQ\\newblockIn{\Bem{JournalofNaturalLanguageProcessingVolume12Number2}}.\bibitem[\protect\BCAY{M.Voorhees}{M.Voorhees}{2001}]{TRECoverview01}M.Voorhees,E.\BBOP2001\BBCP.\newblock\BBOQ{OverviewoftheTREC2001QuestionAnsweringTrack}\BBCQ\\newblockIn{\Bem{TheTenthTextREtrievalConferenceProceedings}}.\bibitem[\protect\BCAY{M.Voorhees}{M.Voorhees}{2002}]{TRECoverview02}M.Voorhees,E.\BBOP2002\BBCP.\newblock\BBOQ{OverviewoftheTREC2002QuestionAnsweringTrack}\BBCQ\\newblockIn{\Bem{TheEleventhTextREtrievalConferenceProceedings}}.\bibitem[\protect\BCAY{M.Voorhees}{M.Voorhees}{2003}]{TRECoverview03}M.Voorhees,E.\BBOP2003\BBCP.\newblock\BBOQ{OverviewoftheTREC2003QuestionAnsweringTrack}\BBCQ\\newblockIn{\Bem{TheTewlfthTextREtrievalConferenceProceedings}}.\bibitem[\protect\BCAY{M.Voorhees}{M.Voorhees}{2004}]{TRECoverview04}M.Voorhees,E.\BBOP2004\BBCP.\newblock\BBOQ{OverviewoftheTREC2004QuestionAnsweringTrack}\BBCQ\\newblockIn{\Bem{TheThirteenthTextREtrievalConferenceProceedings}}.\bibitem[\protect\BCAY{M.Voorhees\BBA\Dong}{M.Voorhees\BBA\Dong}{2005}]{TRECoverview05}M.Voorhees,E.\BBACOMMA\\BBA\Dong,H.~T.\BBOP2005\BBCP.\newblock\BBOQ{OverviewoftheTREC2005QuestionAnsweringTrack}\BBCQ\\newblockIn{\Bem{TheFourteenthTextREtrievalConferenceProceedings}}.\bibitem[\protect\BCAY{Prager,Duboue,\BBA\Chu-Carroll}{Prageret~al.}{2006}]{Prager:ImprovingQAAccuracybyQuestionInversion}Prager,J.,Duboue,P.,\BBA\Chu-Carroll,J.\BBOP2006\BBCP.\newblock\BBOQ{ImprovingQAAccuracybyQuestionInversion}\BBCQ\\newblockIn{\Bem{Proceedingofthe21stInternationalConferenceonComoutationalLinguisticsand44thAnnualMeetingoftheACL}}.\bibitem[\protect\BCAY{Rissanen}{Rissanen}{1999}]{MDL}Rissanen,J.\BBOP1999\BBCP.\newblock\BBOQ{MDLDenoising}\BBCQ\\newblockIn{\Bem{IEEETrans.InformationTheory}}.\bibitem[\protect\BCAY{Takaki}{Takaki}{2004}]{Takaki:NTTDATA-QAatNTCIRQAC2}Takaki,T.\BBOP2004\BBCP.\newblock\BBOQ{NTTDATAQuestion-AnsweringExperimentattheNTCIR-4QAC2}\BBCQ\\newblockIn{\Bem{ProceedingsoftheFourthNTCIRWorkshopMeeting}}.\bibitem[\protect\BCAY{Xu,Licuanan,\BBA\Weischendel}{Xuet~al.}{2003}]{Xu:TREC2003QAatBBN:Answeringdefinitionalquestions}Xu,J.,Licuanan,A.,\BBA\Weischendel,R.\BBOP2003\BBCP.\newblock\BBOQ{TREC2003QAatBBN:Answeringdefinitionalquestions}\BBCQ\\newblockIn{\Bem{TheTewlfthTextREtrievalConferenceProceedings}}.\bibitem[\protect\BCAY{加藤\JBA桝井\JBA福本\JBA神門}{加藤\Jetal}{2004}]{加藤:リスト型質問応答の特徴付けと評価指標}加藤恒昭\JBA桝井文人\JBA福本淳一\JBA神門典子\BBOP2004\BBCP.\newblock\JBOQリスト型質問応答の特徴付けと評価指標\JBCQ\\newblock自然言語処理研究会報告\2004-NL-163,情報処理学会.\bibitem[\protect\BCAY{秋葉\JBA伊藤\JBA藤井}{秋葉\Jetal}{2004}]{秋葉:質問応答における常識的な解の選択と期待効用に基づく回答群の決定}秋葉友良\JBA伊藤克亘\JBA藤井敦\BBOP2004\BBCP.\newblock\JBOQ質問応答における常識的な解の選択と期待効用に基づく回答群の決定\JBCQ\\newblock自然言語処理研究会報告\2004-NL-163,情報処理学会.\end{thebibliography}\begin{biography}\bioauthor{石下円香}{2006年横浜国立大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了.同年同専攻博士課程後期進学,現在に至る.自然言語処理に関する研究に従事.}\bioauthor{森辰則}{1986年横浜国立大学工学部情報工学科卒業.1991年同大学大学院工学研究科博士課程後期修了.工学博士.同年,同大学工学部助手着任.同講師、同助教授を経て,現在,同大学大学院環境情報研究院教授.この間,1998年2月より11月までStanford大学CSLI客員研究員.自然言語処理,情報検索,情報抽出などの研究に従事.言語処理学会,情報処理学会,人工知能学会,ACM各会員.}\end{biography}\biodate\end{document}
V07N02-04
\section{はじめに} \label{sec:introduction}固有表現(NE=NamedEntity)抽出は情報抽出における基礎技術として認識されているだけでなく,形態素,構文解析の精度向上にもつながる重要な技術である.米国では1980年代からMUC(MessageUnderstandingConference)\cite{Muc:homepage}のようなコンテストが行なわれ,その技術の向上が図られてきた.日本においても1998年からコンテスト形式のプロジェクト「IREX(InformationRetrievalandExtractionExercise)」が始められ,そのタスクの一つとして固有表現抽出が盛り込まれた.このタスクで固有表現として抽出するのは,「郵政省」のように組織の名称を表すもの,「小渕恵三」のように人名を表すもの,「神戸」のように地名を表すもの,「カローラ」のように固有物の名称を表すものおよび,「9月28日」,「午後3時」,「100万円」,「10\%」のように日付,時間,金銭,割合を表す表現である.このように,固有名詞的表現だけでなく,時間表現,数値表現も抽出の対象としているため,本論文ではそれらをすべてまとめて固有表現と呼ぶ.このような固有表現は多種多様で,次々と新たに生み出されるためそのすべてを辞書に登録しておくことは不可能である.また,同じ表現でも,あるときは地名としてまたあるときは人名として使われるというようにタイプに曖昧性がある.そのため,テキストが与えられたときその中でどの部分がどのタイプの固有表現であるかを同定するのは容易ではない.固有表現を抽出する方法には大きく分けると,人手で作成した規則に基づく方法と学習に基づく方法がある.固有表現の定義は抽出したものを何に応用するかによって異なってくるものであるため,前者の方法では定義が変わるたびに規則を人手で作成し直す必要がありコストがかかる.後者の方法は学習コーパスを作る必要があるが,データスパースネスに強い学習モデルを使えばそれほど大量のコーパスがなくても高い精度が得られる.そこで我々は後者の方法をとることにした.この学習に基づく方法は英語での固有表現抽出の研究でも用いられている.例えば,HMM\cite{Bikel:97,Miller:98},決定木モデル\cite{Cowie:95},ME(最大エントロピー)モデル\cite{Borthwick:98},共起情報\cite{Lin:98},誤り駆動の書き換え規則\cite{Aberdeen:95}などに基づくシステムがある.学習に基づく方法としてMUCのコンテストで最も精度が高かったのはHMMに基づくNymbleという名のシステムである.このシステムは基本的に以下のような手法をとっている.まず学習では,MUCのNEタスクで定義された「PERSON」や「ORGANIZATION」などの固有表現およびそれ以外を表す「NOT-A-NAME」をそれぞれ状態として持つ状態遷移図を用意し,ある状態で,ある単語が入力されたときにどの状態に移るかを状態遷移確率として求める.そして,解析する際には,ビタビアルゴリズムを用いて,入力された単語列が辿り得る状態のパスうち,最適なパスを探索し,順次,辿った状態を出力することで固有表現を抽出する.他の学習手法を用いたシステムも確率の計算方法は違うが同様の手法をとっていることが多い.Borthwickらは,この学習に基づくシステムおよび人手で作成した規則に基づくシステムの中から,それぞれMUCで比較的精度の高かったシステムを選びそれらを学習に基づく方法によって統合することによってより高い精度を得ている\cite{Borthwick:98}.あるデータに対しては人間のパフォーマンスを越えるような結果も得られている\cite{Borthwick_muc:98}.学習に基づく方法は固有表現抽出の研究以外に形態素解析や構文解析においてもよく用いられている\cite{Uchimoto99_jinbun}.学習モデルとしてはMEモデルを用いたものが優れた精度を得ていることが多く\cite{ratnaparkhi:emnlp96,ratnaparkhi:emnlp97,Uchimoto:eacl99},データスパースネスに強いため,我々は固有表現抽出においてもこのMEモデルを用いることにした.さらに後処理として,誤り駆動により獲得した書き換え規則を用いる.この書き換え規則を用いる手法は形態素解析でも用いられている\cite{Brill:95,Hisamitsu:98}.固有表現の定義はIREX固有表現抽出タスク(IREX-NE)の定義\cite{irex:homepage}に基づくものとする.その定義によると,固有表現には「日本」や「国立/公文書/館」(/は形態素の区切りを表す)のように一つあるいは複数の形態素からなるもの,あるいは「在米」の「米」,「兵庫/県内」の「兵庫県」のように形態素単位より短い部分文字列を含むものの2種類がある.前者の固有表現は,固有表現の始まり,中間,終りなどを表すラベルを40個用意し,各々の形態素に対し付与すべきラベルを推定することによって抽出する.ラベルの推定にはMEモデルを用いる.このMEモデルでは学習コーパスで観測される素性と各々の形態素に付与すべきラベルとの関係を学習する.ここで素性とはラベル付与の手がかりとなる情報のことであり,我々の場合,着目している形態素を含む前後2形態素ずつ合計5形態素に関する見出し語,品詞の情報のことである.ラベルを推定する際には,入力文を形態素解析し,MEモデルを用いてそれぞれの形態素ごとにそこで観測される素性から各ラベルの尤もらしさを確率として計算し,一文全体における確率の積の値が高くなり,かつラベルとラベルの間の連接規則を満たすように各々の形態素に付与するラベルを決める.一文における最適解の探索にはビタビアルゴリズムを用いる.一方,後者の固有表現のように形態素単位より短い部分文字列を含む固有表現は上記の方法では抽出できないので,MEモデルを用いてラベルを決めた後に書き換え規則を適用することによって抽出する.書き換え規則は学習コーパスに対するシステムの解析結果とコーパスの正解データとの差異を調べることによって自動獲得することができる.一つあるいは複数の形態素からなる固有表現についても同様に書き換え規則を適用することは可能であるが,本論文ではMEモデルについてはラベル付けの精度に重点を置き,書き換え規則についてはできるだけ簡便な獲得方法を用いて効果をあげることに重点を置く.本論文ではIREX-NE本試験に用いられたデータに対し我々の手法を適用した結果を示し,さらにいくつかの比較実験からMEモデルにおける素性と精度の関係,学習コーパスの量と精度の関係,さらに簡便な方法を用いて自動獲得した書き換え規則がどの程度精度に貢献するかを明らかにする. \section{固有表現抽出アルゴリズム} \label{sec:algorithm}\subsection{アルゴリズムの概要}\label{sec:overview}固有表現はIREX-NEの定義にしたがい,表~\ref{table:tag}の8種類とする.この節ではこの表にあげたSGMLタグを付与する方法について述べる.{\scriptsize\begin{table*}[htbp]\begin{center}\caption{固有表現のタグ}\label{table:tag}\begin{tabular}[c]{|l@{}l@{}l|p{4.7cm}|}\hline&開始位置タグ&終了位置タグ&例\\\hline固有名詞的表現&&&\\\hline\p組織名,政府組織名&$<$ORGANIZATION$>$&$<$/ORGANIZATION$>$&郵政省,ニューヨーク大学,毎日新聞,IREX実行委員会\\\p人名&$<$PERSON$>$&$<$/PERSON$>$&長尾眞,グリッシュマン,若ノ花\\\p地名&$<$LOCATION$>$&$<$/LOCATION$>$&日本,神戸,井の頭線,富士山\\\p固有物名&$<$ARTIFACT$>$&$<$/ARTIFACT$>$&ノーベル賞,PL法案,特殊相対性理論,ペンティアム200MHz,カローラ\\\hline時間表現&&&\\\hline\p日付表現&$<$DATE$>$&$<$/DATE$>$&9月28日,去年,ある秋\\\p時間表現&$<$TIME$>$&$<$/TIME$>$&午後5時25分,未明,明け方\\\hline数値表現&&&\\\hline\p金額表現&$<$MONEY$>$&$<$/MONEY$>$&1ドル,数十兆円,五千から六千万円\\\p割合表現&$<$PERCENT$>$&$<$/PERCENT$>$&20%,5割,5分の1,2倍\\\hline\end{tabular}\end{center}\end{table*}}本手法では以下の手順で固有表現を抽出する.\begin{enumerate}\itemテキストを形態素解析する.実験では形態素解析にJUMAN\cite{JUMAN3.6}を用いた.例えば,``在米女性を中心に「人権を考える会」ができ,…''という部分は表~\ref{table:ex}の第1行のように形態素ごとに区切られ,それぞれの形態素ごとに第2行,第3行のような品詞の情報が得られる.{\small\begin{table*}[htbp]\begin{center}\caption{MEモデルを用いたラベル付与の例}\label{table:ex}\begin{tabular}[c]{|c|c||l@{}l@{}l@{}l@{}l@{}l@{}l}\hline\multicolumn{2}{|c||}{見出し語}&在米&女性&を&中心&に&「&人権\\\hline\multicolumn{2}{|c||}{品詞(大分類)}&名詞&名詞&助詞&名詞&助詞&特殊&名詞\\\multicolumn{2}{|c||}{品詞(細分類)}&普通名詞&普通名詞&格助詞&普通名詞&格助詞&括弧始&普通名詞\\\hlineラベル&1&OTHER&OTHER&OTHER&OTHER&OTHER&PRE&ORG:BEGIN\\の候補&2&OTHER&OTHER&OTHER&OTHER&OTHER&PRE&ART:SINGLE\\&$\cdots$&$\cdots$&$\cdots$&$\cdots$&$\cdots$&$\cdots$&$\cdots$&$\cdots$\\\hline\end{tabular}\vspace*{0.2cm}\begin{tabular}[c]{cccl@{}l@{}l@{}l@{}l@{}l@{}l|c|}\cline{4-11}&&&を&考える&会&」&が&でき&,&スコア\\\cline{4-11}&&&助詞&動詞&名詞&特殊&助詞&動詞&特殊&\\&&&格助詞&\*&普通名詞&括弧終&格助詞&\*&読点&\\\cline{4-11}&&&ORG:MIDDLE&ORG:MIDDLE&ORG:END&POST&OTHER&OTHER&OTHER&0.8\\&&&POST&OTHER&OTHER&OTHER&OTHER&OTHER&OTHER&0.7\\&&&$\cdots$&$\cdots$&$\cdots$&$\cdots$&$\cdots$&$\cdots$&$\cdots$&$\cdots$\\\cline{4-11}\end{tabular}\\\vspace*{1em}(表で「ORG」「ART」はそれぞれ「ORGANIZATION」「ARTIFACT」の略である.)\end{center}\end{table*}}\item各形態素にラベルを付与する.ラベルとしては,以下の合計40個を用意した.\begin{enumerate}\item[(a)]IREX-NEで定義されている固有表現のタグに「OPTIONAL」を加えた9種類を,固有表現の始まり,中間,終り,単独に分けた9$\times$4=36個.例えば人名のタグの場合,それぞれ「PERSON:BEGIN」「PERSON:MIDDLE」「PERSON:END」「PERSON:SINGLE」を用いる.このように分けたのは,複数の形態素が一つの固有表現を構成することがあることを考慮するためである.「OPTIONAL」のタグはタグ付けが判定者にも困難な場合のために設けたものである.これもIREX-NEにおける定義にしたがっている.固有表現の判定は人間にも難しいことが多い.例えば,「東京高裁」はLOCATIONかORGANIZATIONか,「日経平均株価」と言ったときの「日経」はORGANIZATIONとするべきかなどがそうである.このような場合,それぞれ「東京高裁」,「日経」にこのタグを付与し,固有表現としては抽出しない.この「OPTIONAL」をラベルとして考慮したのはその性質を学習することによって,例えばLOCATIONかORGANIZATIONの判定が困難なものをいずれかのタグに分類してしまうのを避けることができると考えたためである.\item[(b)]固有表現の前後の1形態素および固有表現に挟まれた1形態素を他の形態素と区別するための3個(「PRE」「POST」「MID」).例えば,``昨日大阪と神戸で…''という部分では「大阪」と「神戸」がそれぞれ地名を表す固有表現であり,その前後の形態素は次のようにラベル付けされる.\begin{flushleft}``昨日(PRE)/大阪(LOCATION:SINGLE)/と(MID)/神戸(LOCATION:SINGLE)/で(POST)…''\\(括弧内はそれぞれ前の形態素に付与されたラベルの候補)\end{flushleft}この三つのラベル「PRE」「POST」「MID」を用いたのは,固有表現の前後の形態素(接辞など)は固有表現を抽出する際に手がかりとなることが多いため,次にあげる「OTHER」と区別する方が良いと考えたからである.\item[(c)]以上のどのラベルもつかない「OTHER」.\end{enumerate}今,一文が$n$個の形態素からなるとする.手順(1)で得られた形態素解析結果を用いて,個々の形態素$m_i(1\leqi\leqn)$にそれぞれ上記のラベルのいずれかを付与する.形態素$m_i$に付与するラベルはコーパスから学習したMEモデルから各ラベルを付与したときの尤もらしさを確率として計算しそれを基に決める.詳しくは,モデルについては\ref{sec:model}節で,最適解の探索アルゴリズムについては\ref{sec:viterbi}節で述べる.\item書き換え規則による後処理JUMANの解析結果における形態素の境界とIREXで定義されている固有表現の境界は必ずしも一致しない.このような一致しない場合に対応するために書き換え規則を自動獲得し,獲得した規則を用いて後処理を行う.例えば,表~\ref{table:ex}の「在米」に対しては以下のような書き換え規則が適用される.\vspace*{1em}\begin{center}\begin{tabular}[c]{l@{}|l|}\cline{2-2}見出し語&在米\\品詞(大分類)&名詞\\品詞(細分類)&普通名詞\\ラベル&OTHER\\\cline{2-2}\end{tabular}$\Rightarrow$\begin{tabular}[c]{|l@{}l|}\hline在&米\\名詞&名詞\\普通名詞&普通名詞\\PRE&LOCATION:SINGLE\\\hline\end{tabular}\end{center}\vspace*{1em}書き換え規則の自動獲得手法については\ref{sec:post_processing}節で述べる.\itemラベルを固有表現のタグに変換すべてのラベルが決まったら,それぞれのラベルに対し手順(2)で定義したラベルの定義にしたがって,ラベルからIREX-NEで定義されたタグへと変換する.抽出したい固有表現は表~\ref{table:tag}の8種類なので,最後に解析結果から「OPTIONAL」のタグを取り除く.\end{enumerate}例えば,表~\ref{table:ex}でスコアが最大であるラベル候補1の場合,手順(3)の操作によって``在米(OTHER)''の部分が``在(PRE)米(LOCATION:SINGLE)''(括弧内はそれぞれ前の形態素に付与されたラベルの候補)に書き換えられる.そして,ラベルをタグに変換することによって次のような出力を得る.\begin{tabular}[c]{l}``在$<$LOCATION$>$米$</$LOCATION$>$女性を中心に\\「$<$ORGANIZATION$>$人権を考える会$</$ORGANIZATION$>$」ができ,''\end{tabular}\subsection{固有表現抽出に用いる確率モデル}\label{sec:model}この節では形態素に付与するラベルの尤もらしさを確率として計算するためのモデルについて述べる.モデルとしては,ME(最大エントロピー法)に基づく確率モデルを採用する.まず,MEの基本について説明し,その後,MEに基づく固有表現ラベル付与確率モデルおよびそのモデルをコーパスから統計的に学習する方法について述べる.\subsubsection{ME(最大エントロピー)モデル}\label{sec:me_model}一般に確率モデルでは,文脈(観測される情報のこと)とそのときに得られる出力値との関係は既知のデータから推定される確率分布によって表される.いろいろな状況に対してできるだけ正確に出力値を予測するためには文脈を細かく定義する必要があるが,細かくしすぎると既知のデータにおいてそれぞれの文脈に対応する事例の数が少なくなりデータスパースネスの問題が生じる.MEモデルでは,文脈は素性と呼ばれる個々の要素によって表され,確率分布は素性を引数とした関数として表される.そして,各々の素性はトレーニングデータにおける確率分布のエントロピーが最大になるように重み付けされる.このエントロピーを最大にするという操作によって,既知データに観測されなかったような素性あるいはまれにしか観測されなかった素性については,それぞれの出力値に対して確率値が等確率になるようにあるいは近付くように重み付けされる.このように未知のデータに対して考慮した重み付けがなされるため,MEモデルは比較的データスパースネスに強いとされている.このモデルは例えば言語現象などのように既知データにすべての現象が現れ得ないような現象を扱うのに適したモデルであると言える.以上のような性質を持つMEモデルでは,確率分布の式は以下のように求められる.文脈の集合を$B$,出力値の集合を$A$とするとき,文脈$b(\in$$B)$で出力値$a(\in$$A)$となる事象$(a,b)$の確率分布$p(a,b)$をMEにより推定することを考える.文脈$b$は$k$個の素性$f_j(1\leqj\leqk)$の集合で表す.そして,文脈$b$において,素性$f_j$が観測されかつ出力値が$a$となるときに1を返す以下のような関数を定義する.{\it\begin{eqnarray}\label{eq:f}g_{j}(a,b)&=&\left\{\begin{array}[c]{l}1,\{\rmif}\exist(b,f_{j})=1\\&\出力値=a\\0,\それ以外\end{array}\right.\end{eqnarray}}これを素性関数と呼ぶ.ここで,$exist(b,f_j)$は,文脈$b$において素性$f_j$が観測されるか否かによって1あるいは0の値を返す関数とする.次に,それぞれの素性が既知のデータ中に現れた割合は未知のデータも含む全データ中においても変わらないとする制約を加える.つまり,推定するべき確率分布$p(a,b)$による素性$f_j$の期待値と,既知データにおける経験確率分布$\tilde{p}(a,b)$による素性$f_j$の期待値が等しいと仮定する.これは以下の制約式で表せる.{\it\begin{eqnarray}\label{eq:constraint0}\sum_{a\inA,b\inB}p(a,b)g_{j}(a,b)\=\sum_{a\inA,b\inB}\tilde{p}(a,b)g_{j}(a,b)\\\for\\forallf_{j}\(1\leqj\leqk)\nonumber\end{eqnarray}}この式で,$p(a,b)=p(b)p(a|b)\approx\tilde{p}(b)p(a|b)$という近似を行ない以下の式を得る.{\it\begin{eqnarray}\label{eq:constraint}\sum_{a\inA,b\inB}\tilde{p}(b)p(a|b)g_{j}(a,b)\=\sum_{a\inA,b\inB}\tilde{p}(a,b)g_{j}(a,b)\\\for\\forallf_{j}\(1\leqj\leqk)\nonumber\end{eqnarray}}ここで,$\tilde{p}(b)$,$\tilde{p}(a,b)$は,$freq(b)$,$freq(a,b)$をそれぞれ既知データにおける事象$b$の出現頻度,出力値$a$と事象$b$の共起頻度として以下のように推定する.{\it\begin{eqnarray}\tilde{p}(b)&=&\frac{freq(b)}{\displaystyle\sum_{b\inB}freq(b)}\\\tilde{p}(a,b)&=&\frac{freq(a,b)}{\displaystyle\sum_{a\inA,b\inB}freq(a,b)}\end{eqnarray}}次に,式(\ref{eq:constraint})の制約を満たす確率分布$p(a,b)$のうち,エントロピー{\it\begin{eqnarray}\label{eq:entropy}H(p)&=&-\sum_{a\inA,b\inB}\tilde{p}(b)p(a|b)\log\left(p(a,b)\right)\end{eqnarray}}を最大にする確率分布を推定するべき確率分布とする.これは,式(\ref{eq:constraint})の制約を満たす確率分布のうちで最も一様な分布となる.このような確率分布は唯一存在し,以下の確率分布$p^{*}$として記述される.{\it\begin{eqnarray}\label{eq:p}p^{*}(a|b)&=&\frac{\prod_{j=1}^{k}\alpha_{a,j}^{g_{j}(a,b)}}{\sum_{a\inA}\prod_{j=1}^{k}\alpha_{a,j}^{g_{j}(a,b)}}\\&&(0\leq\alpha_{a,j}\leq\infty)\nonumber\end{eqnarray}}ただし,{\it\begin{eqnarray}\label{eq:alpha}\alpha_{a,j}&=&e^{\lambda_{a,j}}\end{eqnarray}}であり,$\lambda_{a,j}$は素性関数$g_{j}(a,b)$の重みである.この重みは文脈$b$のもとで出力値$a$となることを予測するのに素性$f_{j}$がどれだけ重要な役割を果たすかを表している.訓練集合が与えられたとき,$\lambda_{a,j}$の推定にはImprovedIterativeScaling(IIS)アルゴリズム\cite{pietra95}などが用いられる.式(\ref{eq:p})の導出については文献\cite{Jaynes:57,Jaynes:79}を参照されたい.\subsubsection{固有表現ラベル付与確率モデル}\label{sec:named_entity_extraction_model}\ref{sec:overview}節に,個々の形態素に付与すべき固有表現のラベルを定義した.以降では,形態素にそれぞれのラベルを付与したときの尤もらしさを表す確率をラベルの付与確率と呼ぶ.一文が$n$個の形態素からなるとき,形態素$m_i(1\leqi\leqn)$にラベル$l_j(0\leqj\leq39)$を付与するときの付与確率は,前節で述べたMEモデルの式(\ref{eq:p})を用いて$p^{*}(l_{j}|F_{i})$で求められる.ここ\breakで$F$は「見出し語:人権,品詞(大分類):名詞,品詞(細分類):普通名詞」などの素性の集合であり,個々の$m_i$ごとに異なるため$F_i$と表した.一文全体の付与確率は個々の確率の積で表す.\vspace{-2mm}\subsubsection{素性}\label{sec:features}基本的に学習コーパスから得られる形態素情報を素性として用いる.実験では,着目している形態素を含む前後2形態素ずつ合計5形態素に関する見出し語,品詞(大分類,細分類)とした.品詞分類はそれぞれ大分類15個,細分類48個である.これはJUMANのものにしたがった.学習コーパスに1,2回しか現れないような素性はノイズとなる可能性があるのでそれを避けるために頻度による素性選択を行なう.見出し語としては学習コーパス中に5回以上現れたものを用い,さらに式(\ref{eq:f})の素性関数としては学習コーパスに3回以上観測されたものを用いる.見出し語を5回以上現れたものとしたのはこれ以上少なくすると素性の数が増え現在のマシンパワーでは学習できなかったためである.素性としては他にもいろいろ考えられるが,今回の実験では学習コーパスから得られる情報でかつ着目している形態素の周辺の情報のみを用いた場合にどの程度の精度が得られるかを調べることに重きを置いた.さらに学習コーパス以外から得られる情報の有効性も調べるために追加実験として,固有名詞に関する辞書情報を利用しその辞書に登録されているかどうかを素性として利用した場合の実験も行なった.これについては\ref{sec:exp}節で実験結果をあげて考察する.\subsection{ビタビアルゴリズム}\label{sec:viterbi}本節ではラベル付与に用いるビタビアルゴリズムについて説明する.このアルゴリズムは,スコアが一文全体で最適値となるようにラベルを付与するものである.形態素$m_i$に対し,\ref{sec:named_entity_extraction_model}節で述べたラベル$l_{j}$の付与確率$p^{*}(l_{j}|F_{i})$の一文全体における掛け算$\sum_{i=1}^{n}p^{*}(l_{j}|F_{i})$が最大になるように各ラベルを決める.ただし,表~\ref{table:conjunction_rule}の連接規則を満たすようにする.この表で,$(文末),#(文頭)は便宜上設けたもので実際に付与するラベルとは異なる.表~\ref{table:conjunction_rule}の連接規則は人手で作成した.\begin{table*}[htbp]\begin{center}\caption{連接規則}\label{table:conjunction_rule}\begin{tabular}[c]{|l|p{4.3cm}|p{4.8cm}|}\hlineラベル&左方に接続可能なラベル&右方に接続可能なラベル\\\hline$x$&#(文頭),$x$,$y$,$x$:END,$y$:END,PRE,MID&$(文末),$x$,$y$,$x$:BEGIN,$y$:BEGIN,POST,MID\\$x$:BEGIN&#(文頭),$x$,$y$,$x$:END,$y$:END,PRE,MID&$x$:MIDDLE,$x$:END\\$x$:MIDDLE&$x$:BEGIN,$x$:MIDDLE&$x$:MIDDLE,$x$:END\\$x$:END&$x$:BEGIN,$x$:MIDDLE&$(文末),$x$,$y$,$x$:BEGIN,\\&&$y$:BEGIN,POST,MID\\MID&$x$,$x$:END&$x$,$x$:BEGIN\\PRE&#(文頭),POST,OTHER&$x$,$x$:BEGIN\\POST&$x$,$x$:END&$(文末),PRE,OTHER\\OTHER&#(文頭),POST,OTHER&$(文末),PRE,OTHER\\$(文末)&$x$,$x$:END,POST,OTHER&\\#(文頭)&&$x$,$x$:BEGIN,PRE,OTHER\\\hline\end{tabular}\\\vspace*{1em}($x$,$y$はIREX-NEで定義された8種類のタグおよび「OPTIONAL」に対応する.)\end{center}\end{table*}手順は以下の通りである.\begin{enumerate}\item文頭の形態素$m_1$に対し各ラベル$l_{j(1)}$の付与確率$p^{*}(l_{j(1)}|F_{1})$$(0\leqj(1)\leq39)$を計算し,それぞれ各ラベルごとのスコア$S_{1}(l_{j(1)})$とする.つまり,$S_{1}(l_{1})=p^{*}(l_{1}|F_{1})$,$S_{1}(l_{2})=p^{*}(l_{2}|F_{1})$,$\ldots$,$S_{1}(l_{39})=p^{*}(l_{39}|F_{1})$とする.\item次の形態素$m_2$に対し各ラベルの付与確率$p^{*}(l_{j(2)}|F_{2})$$(0\leqj(2)\leq39)$を計算し,それぞれ各ラベルごとのスコアを\begin{eqnarray*}S_{2}(l_{j(2)})&=&\mathop{max}_{l_{j(1)}}\p^{*}(l_{j(2)}|F_{2})\timesS_{1}(l_{j(1)})\end{eqnarray*}とする.ただし,$l_{j(1)}$と$l_{j(2)}$が連接規則を満たすものに限る.\itemさらに次の形態素$m_3$に対しても同様に各ラベルの付与確率$p^{*}(l_{j(3)}|F_{3})$$(0\leqj(3)\leq39)$を計算し,それぞれ各ラベルごとのスコアを\begin{eqnarray*}S_{3}(l_{j(3)})&=&\mathop{max}_{l_{j(2)}}\p^{*}(l_{j(3)}|F_{3})\timesS_{2}(l_{j(2)})\end{eqnarray*}とする.ただし,$l_{j(2)}$と$l_{j(3)}$が連接規則を満たすものに限る.\item同様のことを文末まで繰り返し,\begin{eqnarray*}S_{n}(l_{j(n)})&=&\mathop{max}_{l_{j(n-1)}}\p^{*}(l_{j(n)}|F_{n})\timesS_{n-1}(l_{j(n-1)})\end{eqnarray*}のうち最大のものを選ぶと,最適解であるラベルの並び$l_{j(1)}$,$l_{j(2)}$,$\ldots$,$l_{j(n)}$が得られる.\end{enumerate}\subsection{自動獲得した書き換え規則による後処理}\label{sec:post_processing}MEモデルを用いたラベル付けの処理が終った後で,形態素解析により得られる形態素が固有表現より長い場合に対処するため,予め用意しておいた書き換え規則を適用する.書き換え規則はBrillが品詞タグ付けに用いた\cite{Brill:95}のと同様の手法である誤り駆動で獲得する.Brillの規則獲得方法との違いはBrillがテンプレートを用いているのに対して我々は用いていない点である.我々の場合,書き換え規則は学習コーパスに対するシステムの解析結果とコーパスの正解データとの差異を調べることによって自動獲得することができる.差異の中から,コーパスでは同じ文字列に対応しているにもかかわらず形態素の数が異なる部分をすべて抽出し書き換え規則として利用する.ただし,前件部は同じであるが後件部が異なるような規則が複数獲得された場合は,最も頻度の高い規則のみを用いる.最も頻度の高い規則が複数種類ある場合,それらの規則はすべて捨てる.さらに,ここで獲得した規則を学習コーパスに対するシステムの解析結果に適用し,誤りとなる数が正解となる数以上であるものはすべて捨てる.例えば,以下のようなものが書き換え規則として獲得される.\begin{center}\begin{tabular}[c]{l@{}|l|}\multicolumn{1}{c}{}&\multicolumn{1}{c}{前件部}\\\cline{2-2}見出し語&在日\\品詞(大分類)&名詞\\品詞(細分類)&サ変名詞\\ラベル&OTHER\\\cline{2-2}\end{tabular}$\Rightarrow$\begin{tabular}[c]{|l@{}l|}\multicolumn{2}{c}{後件部}\\\hline在&日\\名詞&名詞\\普通名詞&普通名詞\\PRE&LOCATION:SINGLE\\\hline\end{tabular}\end{center} \section{実験と考察} \label{sec:exp}\subsection{実験データ}\label{sec:data}モデルの学習に用いたデータは,CRL(郵政省通信総合研究所)固有表現データ,IREX-NE予備試験トレーニングデータ,IREX-NE予備試験データ,IREX-NE本試験逮捕トレーニングデータの合計約12,000文である.試験に用いたデータはIREX-NE本試験データである\footnote{今回学習,試験に用いたデータはすべてIREXのホームページ\cite{irex:homepage}から入手可能である.}.これらはすべて毎日新聞のデータに対して固有表現のタグが付与されたものである.以下で簡単にデータの説明をする.\subsubsection{学習データ}学習コーパスの書式はSGML形式で,各固有表現には表~\ref{table:tag}のタグが付与されている.これらのタグ付コーパスからテキスト部分を取り出して形態素解析し,表~\ref{table:trans_rule2}にあげる変換規則を用いて各形態素にラベルが付与されたものに変換した後,学習に用いた.\begin{table}[htbp]\begin{center}\caption{タグからラベルへの変換規則}\label{table:trans_rule2}\begin{tabular}[c]{|llclcr@{}l|}\hline一つ前の&\multicolumn{3}{c}{形態素と}&&\multicolumn{2}{c|}{形態素(ラベル)}\\形態素のラベル&\multicolumn{3}{c}{前後のタグ}&&&\\\hline&$<x>$&$m$&$</x>$&$\Rightarrow$&$m$&($x$:SINGLE)\\&$<x>$&$m$&&$\Rightarrow$&$m$&($x$:BEGIN)\\&&$m$&$</x>$&$\Rightarrow$&$m$&($x$:END)\\&$</x>$&$m$&$<y>$&$\Rightarrow$&$m$&(MID)\\&$</x>$&$m$&&$\Rightarrow$&$m$&(POST)\\&&$m$&$<x>$&$\Rightarrow$&$m$&(PRE)\\$x$:BEGIN&&$m$&&$\Rightarrow$&$m$&($x$:MIDDLE)\\$x$:MIDDLE&&$m$&&$\Rightarrow$&$m$&($x$:MIDDLE)\\&&$m$&&$\Rightarrow$&$m$&(OTHER)\\\hline\end{tabular}\end{center}\end{table}\begin{description}\item[CRL(郵政省通信総合研究所)固有表現データ]毎日新聞1995年1月1日から10日までの全記事,約1万文に対して,固有表現をタグ付けしたデータである.固有表現はIREX-NEの1999年2月14日に更新された定義に基づいている.\item[IREX-NE予備試験トレーニングデータ]毎日新聞1994年4月13日の46記事,約500文に対して固有表現をタグ付けしたデータである.固有表現はIREX-NEの1998年10月27日に更新された定義に基づいている.\item[IREX-NE予備試験データ]毎日新聞1994年9月11日の36記事,約500文に対して固有表現をタグ付けしたデータである.固有表現はIREX-NEの1998年10月27日に更新された定義に基づいている.\end{description}IREX-NEの定義は少しずつ更新されている.しかし,それらの定義の違いによるノイズの数は人間が学習データを作成するときに生じるノイズの数とさほど違いはないと考え,すべて学習に用いた.\subsubsection{本試験データ}1999年4月14日から5月13日の毎日新聞のデータから選ばれた91記事で,ドメインを限らないもの71記事,約400文(以下,「一般ドメイン」と呼ぶ)と「逮捕」にドメインを限ったもの20記事,約100文(以下,「限定ドメイン」と呼ぶ)の2種類のデータからなる.それぞれのドメインのデータにおける固有表現の数は表~\ref{Answer}の通りである.\begin{table*}[htbp]\begin{center}\caption{IREX-NE本試験データに対する固有表現の内訳}\label{Answer}\begin{tabular}{|l|r|r|}\hline&\multicolumn{1}{c|}{ARREST}&\multicolumn{1}{c|}{GENERAL}\\\cline{2-3}固有表現(NE)&\multicolumn{1}{c|}{個数(個)}&\multicolumn{1}{c|}{個数(個)}\\\hlineORGANIZATION&74&361\\PERSON&97&338\\LOCATION&106&413\\ARTIFACT&13&48\\DATE&72&260\\TIME&19&54\\MONEY&8&15\\PERCENT&0&21\\OPTIONAL&8&86\\\hline合計&389&1510\\\hline\end{tabular}\end{center}\end{table*}\subsection{実験結果}\label{sec:experimental_results}実験に用いた素性は形態素解析結果から得られる情報であり,着目している形態素を含む前後2形態素ずつ合計5形態素に関する見出し語,品詞(大分類,細分類)である.見出し語としては学習コーパス中に5回以上現れた12,368個を用いた.品詞分類はJUMANのものにしたがった.それぞれ大分類15個,細分類48個である.このうち,式(\ref{eq:f})の素性関数としては学習コーパスに3回以上観測されたもの27,370個を用いた.モデルの重み(式(\ref{eq:alpha})の$\lambda_{a,j}$)の学習にはRistadのツール\cite{ristad98}を利用した\footnote{現在このツールは公開されていない.参考文献\cite{ristad97}を参照.}.次に我々の解析結果を表~\ref{Result}に示す.この表で第1列と第2列は書き換え規則を利用したときの限定ドメインの試験(ARREST)に対する結果とドメインを限定しない試験(GENERAL)に対する結果である.第3列と第4列は書き換え規則を利用しなかったときのそれぞれのドメインに対する結果である.どちらのドメインに対しても特別なチューニングはしなかった.精度はどちらのドメインに対しても書き換え規則を用いたときの方が良く,F-measure\footnote{F-measureとしては以下の定義のものを用いる.\begin{eqnarray*}{\rmF-measure}&=&\frac{2\times再現率\times適合率}{再現率+適合率}\end{eqnarray*}}は限定ドメインに対して83.91,一般ドメインに対して79.42であった.IREX-NEの試験では「OPTIONAL」のタグが振られたものについては,その範囲内にシステムがどのような結果を出そうとも,評価には反映されない.ただし,範囲外にずれて重なっている場合には不正解とされる.本論文においてもこの評価方法にしたがった\footnote{OPTIONALを正解とする評価もあり得るが,その場合,タスクは固有表現の抽出ではなく,人間が固有表現かどうか迷う部分の特定ということになる.したがって,その評価は他の固有表現の抽出結果の評価とは別にするべきである.本論文の目的は固有表現の抽出であるため,OPTIONALを正解とする評価は対象外とした.}.{\small\begin{table*}[htbp]\begin{center}\caption{実験結果}\label{Result}\begin{tabular}{|l|r@{}r|r@{}r||r@{}r|r@{}r|}\hline&\multicolumn{4}{c||}{書き換え規則を利用}&\multicolumn{4}{c|}{書き換え規則を利用しない}\\\hline&\multicolumn{2}{c|}{ARREST}&\multicolumn{2}{c||}{GENERAL}&\multicolumn{2}{c|}{ARREST}&\multicolumn{2}{c|}{GENERAL}\\\cline{2-9}固有表現(NE)&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c||}{適合率}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}\\&(\%)&(\%)&(\%)&(\%)&(\%)&(\%)&(\%)&(\%)\\\hlineORGANIZATION&59.46&81.48&59.28&79.55&59.46&81.48&58.73&81.85\\PERSON&84.54&84.54&76.92&83.87&84.54&84.54&76.92&83.87\\LOCATION&83.02&81.48&76.27&84.45&73.58&77.23&69.73&82.52\\ARTIFACT&61.54&66.67&35.42&50.00&61.54&66.67&35.42&50.00\\DATE&97.22&97.22&91.15&94.80&97.22&97.22&90.38&94.76\\TIME&94.74&100.00&87.04&94.00&94.74&100.00&87.04&94.00\\MONEY&100.00&100.00&93.33&93.33&100.00&100.00&93.33&93.33\\PERCENT&-&-&100.00&95.45&-&-&80.95&94.44\\\hline総合&81.75&86.18&74.50&85.03&79.18&85.08&72.19&84.96\\\hline\hlineF-measure&\multicolumn{2}{c|}{83.91}&\multicolumn{2}{c||}{79.42}&\multicolumn{2}{c|}{82.02}&\multicolumn{2}{c|}{78.05}\\\hline\end{tabular}\end{center}\end{table*}}\subsection{書き換え規則と精度}\label{sec:trans_rules_and_accuracy}書き換え規則の適用対象となる固有表現は形態素単位より短い部分文字列を含むもので,本試験データでは限定ドメインに18個,一般ドメインに79個あった.いずれも本試験データ全体の約5\%に相当する.学習コーパスから得られた書き換え規則の数は362個であり,そのうち限定ドメインの試験には9個の規則が延べ11回適用され誤りが1個(再現率$56\%(10/18)$,適合率$91\%(10/11)$),一般ドメインの試験には12個の規則が延べ42回適用され誤りが10個(再現率$41\%(32/79)$,適合率$76\%(32/42)$)であった.誤りは以下のようなものであった.\begin{itemize}\item本来抽出するべき固有表現の部分文字列を誤って抽出してしまう場合(1個).「在日米軍横田基地」から「日」だけがLOCATIONとして抽出されていた.これは,IREX-NEの定義によると「在日米軍横田基地」がLOCATIONとして抽出されるべきであるが,MEモデルを用いたラベル付けによってうまく抽出できなかった結果,書き換え規則が適用され誤って抽出されてしまった例である.このような誤りをなくすためには,MEモデルを用いたラベル付けの精度を向上する必要がある.\item学習コーパスでは固有表現となっていたが,正解データでは固有表現となっていない場合(10個).学習コーパスでは「邦人」の「邦」がLOCATION,「外相会談」の「外」がORGANIZATIONとなっていたが,本試験の正解データでは固有表現とみなされていなかった.このような誤りをなくすためには学習コーパスの整備が必要である.\end{itemize}書き換え規則を用いることにより,F-measureで2ポイント(限定ドメイン)および1.5ポイント(一般ドメイン)程度の精度向上がみられた.ここで用いた書き換え規則は形態素の境界とIREXで定義されている固有表現の境界が一致しない場合にのみ対応するために獲得したものである.一致する場合についても同様の書き換え規則を適用することは可能であるが,そうした場合の追加実験ではF-measureで72.23(限定ドメイン)および73.12(一般ドメイン)と書き換え規則を用いない場合に比べてそれぞれ10ポイントおよび5ポイント程度精度が悪くなった.これは我々の用いた簡便な獲得手法では,MEモデルにより付与したラベルを精度良く書き換えられるほどの規則を獲得できないことを示している.しかし,得られた精度向上および規則獲得の簡便さを考慮すると,MEモデルで抽出できない部分を補う方法としては有効な方法であると言える.本手法では形態素解析が終った後に固有表現のラベルを推定するが,形態素解析の段階で形態素の文法的属性(品詞など)と固有表現のラベルを同時に推定するような方法をとることも考えられる.この場合でも書き換え規則は形態素解析の後処理として利用されている久光らの研究\cite{Hisamitsu:98}と同様にして使えると考えられる.\subsection{素性と精度}\label{sec:features_and_accuracy}実験に用いた素性の有効性を調べるために,それぞれの素性を削除したときの比較実験を行なった.比較実験ではすべて書き換え規則を用いた.結果を表~\ref{Result3}にあげる.{\small\begin{table*}[thbp]\begin{center}\caption{素性と精度の関係(書き換え規則利用)}\label{Result3}\begin{tabular}{|l|r@{}rr@{}r|r@{}rr@{}r|}\hline&\multicolumn{4}{c|}{ARREST}&\multicolumn{4}{c|}{GENERAL}\\\cline{2-9}\multicolumn{1}{|c|}{素性}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c}{適合率}&\multicolumn{1}{c}{F}&\multicolumn{1}{c|}{精度の差}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c}{適合率}&\multicolumn{1}{c}{F}&\multicolumn{1}{c|}{精度の差}\\&(\%)&(\%)&&&(\%)&(\%)&&\\\hlineすべて&81.75&86.18&83.91&0&74.50&85.03&79.42&0\\見出し語のみ&73.26&80.97&76.92&-6.99&62.58&74.29&67.94&-11.48\\品詞大分類のみ&5.40&70.00&10.02&-73.89&2.85&42.16&5.33&-74.09\\品詞細分類のみ&51.41&62.50&56.42&-27.49&45.23&61.31&52.06&-27.36\\見出し語削除&51.41&63.49&56.82&-27.09&46.16&65.45&54.14&-25.28\\品詞大分類削除&80.46&85.99&83.13&-0.78&72.91&82.29&77.32&-2.10\\品詞細分類削除&76.09&87.57&81.43&-2.48&66.89&82.72&73.97&-5.45\\\hline(0)のみ&31.11&48.79&37.99&-45.92&35.56&70.57&47.29&-32.13\\(-1)(0)(1)&76.86&84.46&80.48&-3.43&72.32&85.11&78.20&-1.22\\(-2)から(2)&81.75&86.18&83.91&0&74.50&85.03&79.42&0\\(-3)から(3)&80.72&85.09&82.85&-1.06&73.38&84.19&78.41&-1.01\\\hline\end{tabular}\end{center}\end{table*}}表中のFというのはF-measureのことで,精度の差というのは,着目している形態素とその前後2形態素ずつについて,見出し語,品詞大分類,品詞細分類のすべての情報を素性として用いたときの精度と比べたときの差を意味する.どの素性を削除した場合にも精度が悪くなっており,どの素性も精度の向上に貢献していることが分かる.特に見出し語は精度向上に著しく貢献している.表~\ref{Result3}の下から三行は,前後の形態素情報の利用範囲を変更したときの結果であり,着目している形態素の情報のみ(表では「(0)のみ」と示す.),着目している形態素とその前後の形態素の情報のみ(表では「(-1)(0)(1)」と示す.),着目している形態素とその前後2形態素の情報(表では「(-2)から(2)」と示す.表~\ref{Result}に示した結果と同じ.),着目している形態素とその前後3形態素の情報(表では「(-3)から(3)」と示す.)をそれぞれ素性として用いたときの精度を表す.用いる情報が前後2形態素ずつより多くても少なくても精度が悪くなった.用いる情報を多くしたにもかかわらず精度が悪くなるのは,データスパースネスの問題が深刻になってくるためであると考えられる.\subsection{学習コーパスと精度}\label{sec:training_corpus_and_accuracy}この節では,学習コーパスと解析精度の関係について考察する.まず,図~\ref{fig:learning_curve:training},図~\ref{fig:learning_curve:test}に学習コーパスとテストコーパスのそれぞれを解析した場合の学習コーパスの量と解析精度の関係をあげる.図の横軸は学習コーパスの文数,縦軸はF-measureを表す.学習コーパスの解析には限定ドメインとしてIREX-NE本試験逮捕トレーニングデータ,一般ドメインとしてIREX-NE予備試験データを用いた.図では限定ドメイン,一般ドメインに対するグラフにはそれぞれ「arrest」,「general」,書き換え規則を用いた場合と用いなかった場合にはそれぞれ「with\_rules」,「without\_rules」という表記を用いている.テストコーパスに対する学習曲線(図~\ref{fig:learning_curve:test})を見ると,特に一般ドメインに対してはまだ精度は飽和していないようである.学習コーパスに対する学習曲線(図~\ref{fig:learning_curve:training})もわずかではあるが増加する傾向にある.したがって,少なくとも一般ドメインに対しては学習コーパスの量が増えればもう少し精度の向上が期待できそうである.\begin{figure*}[htbp]\begin{center}\leavevmode\epsfile{file=curve_training.ps,height=8cm}\caption{学習コーパスの量と精度の関係(学習コーパスに対して)}\label{fig:learning_curve:training}\end{center}\begin{center}\leavevmode\epsfile{file=curve_testing.ps,height=8cm}\caption{学習コーパスの量と精度の関係(テストコーパスに対して)}\label{fig:learning_curve:test}\end{center}\end{figure*}\subsection{関連研究との比較}\label{sec:related_work}1999年5月13日から17日にかけて,IREX-NEの本試験が行なわれた.試験は13日に実行委員長より問題が配布され,17日までに各々のシステムのタグ付け結果を電子メイルで送り返すという形式で行なわれた.IREX-NE本試験に参加したシステムは15システムであった.それらをパターン駆動型,学習型,それらの組み合わせの3種類に分類すると,我々のシステムは学習型に分類される.本節では主に他の学習型システムとの違いを説明し,そのうち重要であると思われる部分については追加実験を行なうことによりその違いがどの程度精度に影響を与えるかを調べる.学習型のシステムのアプローチは我々のものも含めて四つあり,どれも基本的に関根らのとったアプローチ\cite{Sekine98_wvlc}に類似している.関根らのシステム\cite{Sekine98_wvlc}を改良したものにはBorthwickのシステム\cite{borthwick_irex:99},野畑のシステム\cite{nova_irex:99},新納\cite{shinnou_irex:99}のシステムがあり,それらと我々のシステムの違いを表にすると表~\ref{Comparison}のようになる\footnote{表で比較としてあげた精度(F-measure)はすべてIREXワークショップ予稿集において報告されたものである.}.違いは主に学習モデル,形態素に付与するラベル(NEラベル)の定義,素性,後処理にある.{\scriptsize\begin{table*}[thbp]\begin{center}\caption{関連研究との比較}\label{Comparison}\begin{tabular}{|p{1.24cm}|p{1.55cm}|p{3.68cm}|p{2cm}|p{1cm}|p{2.3cm}|}\hline&\multicolumn{1}{c|}{学習モデル}&\multicolumn{1}{c|}{NEラベル}&\multicolumn{1}{c|}{素性}&\multicolumn{1}{c|}{後処理}&\multicolumn{1}{c|}{F-measure}\\\hline我々のシステム&MEモデル&40種類.固有表現タグにOPTIONAL,OTHERを加えた10種類のそれぞれに対し,固有名詞の始まり,中間,終り,単独を表す4種類のラベルを用意する.&着目している形態素を含む前後2形態素ずつ合計5形態素に関する見出し語,品詞(大分類,細分類)&自動獲得した書き換え規則&83.91(ARREST)\hspace{2mm},79.42(GENERAL)\\\hline\hlineBorthwickのシステム&MEモデル&(関根らのシステムと同じ)&(関根らのシステムと同じ)&人手で作成した書き換え規則&85.02(ARREST)\hspace{2mm},77.37(GENERAL)\\\hline野畑のシステム&決定木モデル&38種類.8種類の固有表現タグそれぞれに対し,固有名詞の始まり,中間,終り,単独を表す4種類のラベルを用意し,固有表現以外に対しOTHERというラベルを用意する.さらに,固有物名(ARTIFACT),地名(LOCATION),組織名(ORGANIZATION)を細分類する.&着目している形態素を含む前後1形態素ずつ合計3形態素に関する品詞(大分類,細分類),字種情報,単語リスト,統語的情報&なし&80.37(ARREST)\hspace{2mm},70.34(GENERAL)\\\hline新納のシステム&n-gramモデル&形態素ごとではなく文字ごとにラベルを付与する.36種類.固有表現タグに固有表現以外を表すOTHERを加えた9種類のそれぞれに対し,固有名詞の始まり,中間,終り,単独を表す4種類のラベルを用意する.&着目している文字を含む前後1文字ずつ合計3文字に関する文字,品詞情報&なし&58.46(ARREST)\hspace{2mm},60.36(GENERAL)\\\hline\hline関根らのシステム&決定木モデル&33種類.8種類の固有表現タグそれぞれに対し,固有名詞の始まり,中間,終り,単独を表す4種類のラベルを用意し,固有表現以外に対しOTHERというラベルを用意する.&着目している形態素を含む前後1形態素ずつ合計3形態素に関する見出し語,品詞(大分類,細分類),字種情報,辞書情報&なし&\\\hline\end{tabular}\end{center}\end{table*}}以下では主に表~\ref{Comparison}の違いに着目して考察する.\subsubsection{形態素に付与するラベル(NEラベル)の定義について}我々の定義したNEラベルは関根らのシステムに比べると7種類多い.これは,関根らのシステムよりさらにOPTIONAL(始まり,中間,終り,単独の4種類)およびPRE,POST,MIDのラベルを考慮したためである.OPTIONALはタグ付けが判定者にも困難な場合のために設けられたものであり,その性質を学習することによって,例えばLOCATIONかORGANIZATIONの判定が困難なものをいずれかのタグに分類してしまうのを避けることができると考えられる.PRE,POST,MIDのラベルは固有表現の前後および固有表現の間の形態素に付与するように設けたものである.これは見方を変えると関根らがOTHER(あるいはNONE)としていたラベルを固有表現以外の部分の始まり(POSTに対応),中間(OTHERに対応),終り(PREに対応),単独(MIDに対応)に細分類したものであるとも言える.OPTIONALに関する4種類およびPRE,POST,MIDのラベルがどの程度精度に影響しているかを調べるために,それぞれのラベルをOTHERにマージして追加実験を行なった.その結果を表~\ref{Comparison2}〜表~\ref{Comparison3}にあげる.表の括弧内の数値は表~\ref{Result}にあげた精度からの増減を表す.これらの実験ではMEモデルによるラベル付けの精度の違いを調べることを目的としているためいずれも書き換え規則は用いていない.{\scriptsize\begin{table*}[htbp]\begin{center}\caption{OPTIONALのラベルをOTHERにマージした場合(書き換え規則は用いない)}\label{Comparison2}\begin{tabular}{|l|r@{}r|r@{}r|}\hline&\multicolumn{2}{c|}{ARREST}&\multicolumn{2}{c|}{GENERAL}\\\cline{2-5}固有表現(NE)&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}\\&(\%)&(\%)&(\%)&(\%)\\\hlineORGANIZATION&58.11&81.13&59.28&82.31\\PERSON&82.47&84.21&76.33&83.50\\LOCATION&73.58&78.00&69.98&82.81\\ARTIFACT&61.54&66.67&33.33&50.00\\DATE&97.22&97.22&90.00&95.12\\TIME&94.74&100.00&87.04&94.00\\MONEY&100.00&80.00&93.33&82.35\\PERCENT&-&-&80.95&94.44\\\hline総合&78.41&84.72&72.12&85.01\\&(-0.77)&(-0.36)&(-0.07)&(+0.05)\\\hline\hlineF-measure&\multicolumn{2}{c|}{81.44(-0.58)}&\multicolumn{2}{c|}{78.04(-0.01)}\\\hline\end{tabular}\end{center}\begin{center}\caption{PRE,POST,MIDのラベルをOTHERにマージした場合(書き換え規則は用いない)}\label{Comparison1}\begin{tabular}{|l|r@{}r|r@{}r|}\hline&\multicolumn{2}{c|}{ARREST}&\multicolumn{2}{c|}{GENERAL}\\\cline{2-5}固有表現(NE)&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}\\&(\%)&(\%)&(\%)&(\%)\\\hlineORGANIZATION&58.11&79.63&57.06&78.03\\PERSON&86.60&88.42&74.26&83.39\\LOCATION&74.53&81.44&68.04&84.13\\ARTIFACT&53.85&63.64&31.25&48.39\\DATE&97.22&95.89&88.46&93.50\\TIME&94.74&100.00&94.44&98.08\\MONEY&100.00&88.89&93.33&73.68\\PERCENT&-&-&80.95&94.44\\\hline総合&79.43&86.55&70.53&84.19\\&(+0.25)&(+1.47)&(-1.66)&(-0.77)\\\hline\hlineF-measure&\multicolumn{2}{c|}{82.84(+0.82)}&\multicolumn{2}{c|}{76.76(-1.29)}\\\hline\end{tabular}\end{center}\begin{center}\caption{PRE,POST,MID,OPTIONALのラベルをOTHERにマージした場合\\(書き換え規則は用いない)}\label{Comparison3}\begin{tabular}{|l|r@{}r|r@{}r|}\hline&\multicolumn{2}{c|}{ARREST}&\multicolumn{2}{c|}{GENERAL}\\\cline{2-5}固有表現(NE)&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}\\&(\%)&(\%)&(\%)&(\%)\\\hlineORGANIZATION&58.11&81.13&56.51&78.16\\PERSON&86.60&88.42&74.56&83.44\\LOCATION&75.47&80.81&68.04&84.13\\ARTIFACT&53.85&63.64&31.25&50.00\\DATE&97.22&95.89&88.08&93.47\\TIME&94.74&100.00&94.44&98.08\\MONEY&100.00&88.89&93.33&73.68\\PERCENT&-&-&80.95&94.44\\\hline総合&79.69&86.59&70.40&84.30\\&(+0.51)&(+1.51)&(-1.79)&(-0.66)\\\hline\hlineF-measure&\multicolumn{2}{c|}{83.00(+0.98)}&\multicolumn{2}{c|}{76.72(-1.33)}\\\hline\end{tabular}\end{center}\end{table*}}表から分かるようにOPTIONALに関するラベルは期待していたほど精度に影響を与えていなかった.PRE,POST,MIDのラベルは一般ドメイン(GENERAL)に対しては精度の向上に貢献しているのに対し,限定ドメイン(ARREST)に対してはその利用がかえって精度を低下させることになっている.固有表現ごとに精度の増減を調べてみると,PRE,POST,MIDのラベルをOTHERにマージすることによって限定ドメインに対してはPERSONとLOCATIONの精度が良くなっており,他の固有表現に対しては悪くなっていることが分かる.限定ドメインの内訳(表~\ref{Answer})を見るとPERSONとLOCATIONの個数が多く,これらの固有表現に対する抽出精度が良くなったため全体の精度も良くなったと考えられる.PERSONとLOCATIONに対する精度が良くなったのはPREやPOSTなどが数の多いPERSONやLOCATIONの性質に引っ張られてPERSONやLOCATIONの前後に位置しやすいラベルとして学習されたためである可能性が高い.PERSONやLOCATIONについてはPREやPOSTなどをさらに細分類してPERSON:PREやPERSON:POSTのようなラベルを考えると良いかも知れない.このような細分類は,PERSONやLOCATION,特にPERSONは固有表現直後の形態素が「さん」や「氏」など特別な語であることが多く,他の固有表現についてそのような傾向は見られない\cite{nova_irex2:99}ことからも妥当な方法であると考えられる.しかし,抽出精度をもとに細分類を続けると本試験のデータに対しては精度が良くなるかもしれないが,他のデータに対しても良くなるとは言えなくなる.したがって,これ以上細分類して本試験のデータに対する精度を調べることはあまり意味がないと思われる.Borthwickのシステムとの精度の差(表~\ref{Comparison})は主にこのラベルの定義の違いと素性の違いから生じていると考えられる.素性の違いについては後で述べる.一方,野畑はARTIFACT,LOCATION,ORGANIZATIONを細分類してF-measureで2ポイント程度精度が向上したと報告している.我々のシステムにおいてもどの程度精度に影響するかを調べたいところであるが,学習コーパスに付与されたラベルを人手で細分類する必要があるため同じ学習コーパスを作成するのは困難であると判断し,野畑の細分類に基づいて追加実験をするのは見合わせた.新納は形態素ごとではなく文字ごとにNEラベルを付与する方法を提案した.この方法は形態素の区切りと固有表現の区切りが一致しない場合でも一つのモデルで固有表現を抽出できるという点で優れているが,精度は我々に比べてF-measureで20ポイント以上低い.この理由は,後に述べる素性に関連することであるが,新納の方法が文字3-gramという少ない情報のみを用いてNEラベルを推定しているためであると考えられる.3文字ということは多くても3形態素の情報しか用いていないということである.我々の実験では,\ref{sec:features_and_accuracy}節でも述べたように着目する形態素およびその前後2形態素ずつの情報を用いた場合が最も精度が良いことから,新納の方法で我々のシステムと同程度の精度を得るためには少なくとも文字5-gram以上の情報を用いる必要があるだろう.しかし,文字5-gramを得るには膨大な学習コーパスが必要であり,我々が実験に用いた学習コーパスだけでは我々のシステムと同程度の精度は得られないと予想される.\subsubsection{素性について}\label{sec:feature}Borthwickや野畑は我々が用いた素性に加えて字種情報,統語的情報や辞書情報などを用いて精度を向上させている.このうち字種情報については我々の素性においても形態素の品詞情報としてある程度考慮されている.統語的情報については野畑のシステムで用いられている方法では人手の介入が必要であり,同じ条件での実験は困難である.辞書情報については我々の素性に加えて追加実験を行ない,精度に与える影響を調べた.辞書情報としてはBorthwickや野畑と同様に文献\cite{sekine:homepage}で公開されているものを用いた.これは組織名,地名に関する辞書で登録数は約1,000である.それに加えて,学習コーパスに3回以上出現した固有表現約1,400個(ORGANIZATION:272個,PERSON:336個,LOCATION:339個,ARTIFACT:45個,DATE:233個,TIME:31個,MONEY:21個,PERCENT:45個,OPTIONAL:56個)を取り出しそれぞれの固有表現ごとに9種類の辞書を作成した.予めこれらの辞書に登録されている固有表現をJUMANを用いて形態素解析し,各形態素に我々の定義したNEラベルを付与しておく.素性としては,形態素の見出し語がこれらの辞書中でどのようなNEラベルが付与されているかという情報を用いた.つまり,我々が定義した40個のラベルの各々について付与されているかいないかのそれぞれを素性として用いる.辞書中の形態素の見出し語の異なり数は合計約10,000個である.この素性を,着目している形態素のみについて利用した場合,着目している形態素を含む前後1形態素ずつ合計3形態素について利用した場合,着目している形態素を含む前後2形態素ずつ合計5形態素について利用した場合それぞれについて追加実験を行なった.それぞれの実験結果を表~\ref{Comparison5}〜表~\ref{Comparison7}にあげる.結果は着目している形態素のみについて利用した場合が最も精度が良く,考慮する前後の形態素の数が増えるにつれて精度は悪くなった.これは辞書の登録数が問題になっている可能性が高い.辞書に登録されている固有名詞は高々2,400個程度であり,そのうち1形態素,2形態素,3形態素,4形態素以上からなるものはそれぞれ745個,448個,125個,60個である.例えば二つ前の形態素の見出し語が辞書にあるかないかという情報(我々が辞書情報の素性として利用したもの)が有効なのは辞書に登録されている固有名詞の約8\%,185(=125+60)個についてのみであるということになる.今回,学習コーパス以外から得た辞書情報としては一般に公開されている1,000語程度の辞書を用いたが,一般に利用可能な大規模な固有名詞辞書があれば,辞書の登録数と精度の関係も調べてみたい.{\scriptsize\begin{table*}[htbp]\begin{center}\caption{辞書情報を素性として考慮した場合((0)のみ考慮)}\label{Comparison5}\begin{tabular}{|l|r@{}r|r@{}r|}\hline&\multicolumn{2}{c|}{ARREST}&\multicolumn{2}{c|}{GENERAL}\\\cline{2-5}固有表現(NE)&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}\\&(\%)&(\%)&(\%)&(\%)\\\hlineORGANIZATION&68.92&85.00&62.33&79.79\\PERSON&83.51&85.26&77.22&83.92\\LOCATION&83.96&84.76&76.76&86.38\\ARTIFACT&61.54&80.00&35.42&48.57\\DATE&97.22&97.22&90.77&94.78\\TIME&94.74&100.00&90.74&94.23\\MONEY&100.00&88.89&93.33&82.35\\PERCENT&-&-&100.00&100.00\\\hline総合&83.55&88.08&75.89&85.20\\&(+1.80)&(+1.90)&(+1.39)&(+0.17)\\\hline\hlineF-measure&\multicolumn{2}{c|}{85.75(+1.84)}&\multicolumn{2}{c|}{80.17(+0.75)}\\\hline\end{tabular}\end{center}\begin{center}\caption{辞書情報を素性として考慮した場合\mbox{((-1)(0)(1)を考慮)}}\label{Comparison6}\begin{tabular}{|l|r@{}r|r@{}r|}\hline&\multicolumn{2}{c|}{ARREST}&\multicolumn{2}{c|}{GENERAL}\\\cline{2-5}固有表現(NE)&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}\\&(\%)&(\%)&(\%)&(\%)\\\hlineORGANIZATION&71.62&81.54&63.16&79.17\\PERSON&78.35&86.36&74.85&84.05\\LOCATION&83.02&83.81&77.24&89.36\\ARTIFACT&46.15&75.00&31.25&53.57\\DATE&95.83&95.83&90.00&92.86\\TIME&94.74&100.00&90.74&92.45\\MONEY&100.00&100.00&93.33&63.64\\PERCENT&-&-&100.00&100.00\\\hline総合&81.75&87.36&75.03&85.70\\&($\pm$0)&(+1.18)&(+0.53)&(+0.67)\\\hline\hlineF-measure&\multicolumn{2}{c|}{84.46(+0.55)}&\multicolumn{2}{c|}{80.01(+0.59)}\\\hline\end{tabular}\end{center}\begin{center}\caption{辞書情報を素性として考慮した場合\mbox{((-2)(-1)(0)(1)(2)を考慮)}}\label{Comparison7}\begin{tabular}{|l|r@{}r|r@{}r|}\hline&\multicolumn{2}{c|}{ARREST}&\multicolumn{2}{c|}{GENERAL}\\\cline{2-5}固有表現(NE)&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}\\&(\%)&(\%)&(\%)&(\%)\\\hlineORGANIZATION&68.92&79.69&62.05&78.32\\PERSON&78.35&86.36&74.85&82.95\\LOCATION&81.13&83.50&75.79&88.42\\ARTIFACT&46.15&75.00&33.33&53.33\\DATE&95.83&95.83&91.15&93.68\\TIME&94.74&100.00&90.74&94.23\\MONEY&100.00&88.89&93.33&73.68\\PERCENT&-&-&100.00&100.00\\\hline総合&80.72&86.74&74.64&85.38\\&(-1.03)&(+0.56)&(+0.14)&(+0.35)\\\hline\hlineF-measure&\multicolumn{2}{c|}{83.62(-0.29)}&\multicolumn{2}{c|}{79.65(+0.23)}\\\hline\end{tabular}\end{center}\end{table*}}次に,素性として一つ前の形態素に付与したラベルの情報を考慮したときの精度を調べた.一般に学習による形態素解析では一つあるいは二つ前の形態素に付与したラベルの情報を用いて次のラベルを決定することが多い.我々の手法においてこれと同様の情報がどの程度精度に影響を与えるかを調べることが目的である.実験結果を表~\ref{Comparison4}にあげる.表から分かるようにどちらのドメインについても精度を下げる結果となった.特に再現率の低下が著しい.これは学習コーパスではOTHERの隣はOTHERであることが多く,この連接関係が他のラベルとの連接に比べて学習されやすいためOTHERが連続する場合が最適解となることが多くなるためであると考えられる.{\scriptsize\begin{table*}[htbp]\begin{center}\caption{一つ前の形態素に付与したラベルを素性として考慮した場合}\label{Comparison4}\begin{tabular}{|l|r@{}r|r@{}r|}\hline&\multicolumn{2}{c|}{ARREST}&\multicolumn{2}{c|}{GENERAL}\\\cline{2-5}固有表現(NE)&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}&\multicolumn{1}{c}{再現率}&\multicolumn{1}{c|}{適合率}\\&(\%)&(\%)&(\%)&(\%)\\\hlineORGANIZATION&60.81&80.36&55.12&79.28\\PERSON&78.35&86.36&73.08&83.16\\LOCATION&83.96&88.12&74.33&85.28\\ARTIFACT&53.85&58.33&29.17&33.33\\DATE&95.83&95.83&85.38&94.47\\TIME&94.74&100.00&85.19&93.88\\MONEY&100.00&100.00&93.33&93.33\\PERCENT&-&-&95.24&95.24\\\hline総合&80.21&87.89&70.79&84.17\\&(-1.54)&(+1.71)&(-3.71)&(-0.86)\\\hline\hlineF-measure&\multicolumn{2}{c|}{83.87(-0.06)}&\multicolumn{2}{c|}{76.91(-2.51)}\\\hline\end{tabular}\end{center}\end{table*}}\subsubsection{後処理について}Borthwickは我々と同様に形態素解析により得られる形態素が固有表現より長い場合に対処するために書き換え規則を用いて後処理をしている.この後処理により,どちらのシステムもF-measureで2ポイント程度精度が向上している.違いはBorthwickが日本語を母語とする人が人手で作成した規則を用いているのに対し,我々は学習コーパスから誤り駆動で自動獲得した規則を用いている点にある.異なるドメインのテキストが与えられたとき,できるだけコストを少なく学習し直すためには規則を自動獲得できる方が望ましい.誤り駆動型学習を用いて固有表現を抽出するシステムには颯々野らのシステム\cite{Sassano:99}がある.このシステムは後処理として書き換え規則を適用することにより,形態素単位より短い文字列を含む固有表現だけでなく一つあるいは複数の形態素からなる固有表現も同様の手法を用いて抽出できる.彼らがベースラインとして用いているシステムの精度がF-measureで40程度であるため,我々のシステムをベースラインとして用いることによってより良い精度が得られる可能性が高いと考えられる.\subsubsection{IREX-NE本試験に参加したシステムの結果との比較}IREX-NE本試験での結果を表~\ref{table:formalrun_results}にあげる.最も良い精度を出したシステムは人手により作成された規則に基づいている.我々のシステムは本試験ではシステム番号1223であり,精度はF-measureで限定ドメインに対して74.90,一般ドメインに対して72.18であった.このように精度が悪かったのは「MIDDLE」に関するラベルの連接規則に洩れがあったためである.「MIDDLE」に関するラベル同士が連接可能であるという規則が欠如していたため,``比例(ARTIFACT:BEGIN)/代表(ARTIFACT:MIDDLE)/並立(ARTIFACT:MIDDLE)/制(ARTIFACT:END)''のように4形態素以上からなる固有表現は抽出できなくなっていた.本論文ではその洩れを埋めたときの精度を示した.その精度は最高でF-measureで85.75(限定ドメイン),80.17(一般ドメイン)であった.これはIREX-NE本試験で我々が用いた素性に加えて,\ref{sec:feature}節で述べた人名や組織名などの固有名詞辞書も利用したときの精度であり,悪くない精度であると考えている.我々の手法は学習コーパスがあれば人手のコストもかからないため,さまざまなドメインに対しても低コストでそれなりの精度が得られるものであると言える.{\scriptsize\begin{table}[htbp]\begin{center}\caption{IREX-NE本試験結果}\label{table:formalrun_results}\begin{tabular}{|c|c|c||c|c|c|}\hlineシステム&\multicolumn{2}{|c||}{F-measure}&システム&\multicolumn{2}{|c|}{F-measure}\\\cline{2-3}\cline{5-6}番号&ARR&GEN&番号&ARR&GEN\\\hline1201&54.17&57.69&1229&64.81&57.63\\1205&78.08&80.05&1231&81.94&74.82\\1213&59.87&66.60&1234&72.77&71.96\\1214&80.37&70.34&1240&58.46&60.96\\1215&74.56&66.74&1247&87.43&83.86\\1223&74.90&72.18&1250a&70.12&69.82\\1224&77.61&75.30&1250b&55.24&57.76\\1227&85.02&77.37&&&\\\hline\end{tabular}\end{center}\end{table}} \section{まとめ} 本論文ではMEモデルと書き換え規則を用いて固有表現を抽出する手法について述べた.IREX-NEの定義に基づくと固有表現には一つあるいは複数の形態素からなるものと形態素単位より短い部分文字列を含むものの2種類がある.前者の固有表現は,固有表現の始まり,中間,終りなどを表すラベルを40個用意し,それらのラベルを推定することによって抽出する.ラベルの推定にはコーパスから学習したMEモデルを用いる.後者の固有表現は書き換え規則を用いて抽出する.書き換え規則は学習コーパスに対するシステムの解析結果とコーパスの正解データとの差異を調べることによって自動獲得することができる.書き換え規則,素性,学習コーパスの量についての条件を変えた比較実験により,形態素解析により得られる形態素が固有表現より長い場合に書き換え規則が有効であること,我々が考慮した素性,つまり,着目している形態素を含む前後2形態素ずつ合計5形態素に関する見出し語,品詞の情報がIREX-NE本試験に用いられたテキストに対して有効であることを示すことができた.これらは学習コーパスのみから得られる情報であったが,それに加えて一般に公開されている人名や組織名などの固有名詞辞書も利用することにより,IREX-NE本試験のデータに対する実験で,F-measureで85.75(限定ドメイン),80.17(一般ドメイン)の精度を得ることができた.本手法の精度をさらに向上させるために必要であると考えているのは,以下の三点である.\begin{itemize}\item素性の発見今回は利用しなかったような情報,例えば,係り受けの情報や照応関係などを素性として新たに考慮することによって,ラベル推定の精度が向上することが期待される.また,解析と同時に解析の過程で得られた情報を利用することも考えられる.これは今後の重要な課題である.\itemコーパス,辞書の充実今回の実験では書き換え規則を利用したことによる誤り例を考察することで,学習コーパスの誤りが精度に影響することが分かった.また,辞書情報を考慮することで精度が向上することも分かった.コーパス修正や辞書作成にかかるコストを考えると,コーパスの誤りを自動あるいは半自動で修正する方法,辞書情報を自動あるいは半自動で獲得する方法を考案する必要がありそうである.\item特定ドメインへのチューニングドメインを限定すると,そのドメインに固有の固有表現パターンに,より特化した学習が可能であると考えられる.今回は限定ドメインに対して特にチューニングするようなことはしなかったが,限定ドメインに対しどこまでチューニングすることが可能かを調べたい.\end{itemize}\begin{flushleft}{\bf謝辞}\end{flushleft}本研究を進めるにあたって有意義なコメントを下さったニューヨーク大学の関根聡助教授に心から感謝の意を表する.また,データの利用を許可して下さった毎日新聞社に感謝する.\bibliographystyle{jnlpbbl}\bibliography{v07n2_04}\begin{biography}\biotitle{略歴}\bioauthor{内元清貴}{1994年京都大学工学部卒業.1996年同大学院修士課程修了.同年郵政省通信総合研究所入所,郵政技官.自然言語処理の研究に従事.言語処理学会,情報処理学会,ACL,各会員.}\bioauthor{馬青}{1983年北京航空航天大学自動制御学部卒業.1987年筑波大学大学院理工学研究科修士課程修了.1990年同大学院工学研究科博士課程修了.工学博士.1990$\sim$93年株式会社小野測器勤務.1993年郵政省通信総合研究所入所,主任研究官.人工神経回路網モデル,知識表現,自然言語処理の研究に従事.日本神経回路学会,言語処理学会,電子情報通信学会,各会員.}\bioauthor{村田真樹}{1993年京都大学工学部卒業.1995年同大学院修士課程修了.1997年同大学院博士課程修了,博士(工学).同年,京都大学にて日本学術振興会リサーチ・アソシエイト.1998年郵政省通信総合研究所入所.研究官.自然言語処理,機械翻訳,情報検索の研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL,各会員.}\bioauthor{小作浩美}{1985年郵政省電波研究所(現通信総合研究所)入所.研究官.自然言語処理の研究に従事.言語処理学会,情報処理学会,電子情報通信学会,各会員.}\bioauthor{内山将夫}{筑波大学第三学群情報学類卒業(1992).筑波大学大学院工学研究科博士課程修了(1997).信州大学工学部電気電子工学科助手(1997).郵政省通信総合研究所非常勤職員(1999).博士(工学).}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V29N04-08
\section{はじめに} 適切な経済政策の運営には,足もとの景気動向をできるだけ迅速かつ正確に把握することが肝要である.ところが,一国のマクロ経済活動の最も重要な指標であるGDP(国内総生産)は,3か月に1度しか観測されない四半期データであり,対象とする四半期の終了から一次速報値の公表までに約6週間を要する.景気の現状判断のための速報性を重視した景気動向指数の一致指数については,より観測頻度の高い月次データである鉱工業生産指数,有効求人倍率,全産業の営業利益,小売業や卸売業の商業販売額等,合計10個の一致系列を統合することで計算されるが,それでも対象とする月から1か月以上公表が遅れてしまう.そこで景気動向指数の採用系列のような数値による伝統的な構造化データに代わり,テキスト情報,位置情報,決済情報,衛星画像情報を含む非構造化データやオルタナティブデータを利用することによって高頻度かつ高精度に足もとの経済活動を把握する,いわゆるナウキャストの試みが近年進められている.特に,直近の新型コロナ感染症拡大に伴う景気後退局面では,位置情報のデータを用いた生産活動のナウキャストやクレジットカード決済情報のデータを用いた消費活動のナウキャストが注目を集めた\cite{Oh-etal-2021,BOJ-2020}.本稿では,テキスト情報のデータを用いた景気動向のナウキャストや将来予測に有用であると考えられるマクロ経済分野の新しい極性辞書(以下,景気単語極性辞書)の構築とその応用可能性に関する技術報告を行う.伝統的なデータでは直接観測することが困難であったマクロ経済の変動要因を,政府や民間のテキストデータから定量化する研究は,当初は英語圏の欧米経済の分析を中心に進められてきた.著名な研究例としては,新聞のニュース記事中の経済政策の不確実性に関する単語の出現頻度を数値化した経済政策の不確実性指数があり,この指数はマクロ経済活動に占める不確実性の波及効果の分析で頻繁に利用されている\cite{Baker-etal-2016}.また,中央銀行の議事録に対してトピックモデルを適用し,様々なマクロ経済現象の中から,特に中央銀行が重視するトピックを抽出することによって金融政策の要因分析を行う試みもある\cite{Hansen-etal-2016}.さらにGDP,インフレ率,失業率等の主要なマクロ経済変数の将来予測についても,伝統的なデータのみを用いる従来の方法に比べて,新聞記事等のテキストデータを活用することで予測力が改善されるという共通認識も広まっている\cite{Kalamara-etal-2022}.これらのマクロ経済分析で用いられたテキストデータの数値化では,計算言語学や自然言語処理等の分野で開発されてきた分析手法や言語資源等が重要な役割を担ってきた.このようにテキストデータを利用した分析は近年のマクロ経済研究に大きく寄与している一方で,多くの研究は英語を対象としたものであり,日本語を対象とした研究の数は相対的に少ない.この理由としては,日本語で記述されたテキストデータの分析を研究対象とするマクロ経済学者が少ないことに加えて,マクロ経済分野に適した日本語の言語資源の不足がある.例えば,前述の\cite{Kalamara-etal-2022}は,英語の新聞ニュース記事を用いた英国マクロ経済の将来予測の分析であるが,複数の極性辞書やルールからテキストデータを指数化することによって予測変数を作成している.このように,英語の分析では評価の定まった辞書やルールが利用できる一方で,マクロ経済分野で確立された日本語の極性辞書は存在しない\footnote{マクロ経済学と隣接したドメインであるファイナンス(金融)分野では\cite{Goshima-Takahashi-2017}や\cite{Ito-etal-2018}が極性辞書を構築している.また,同分野の英語の極性辞書としては\cite{Loughran-etal-2011}が広く用いられている.マクロ経済学は一国全体の財(モノ)やサービスの生産と消費の構造や貨幣の流れを解明し,国民厚生の最大化を目的としたマクロ経済政策を研究する学問分野であるのに対し,ファイナンスは資産価格決定や投資家のポートフォリオ選択,企業の資金調達等のミクロ行動を主に分析対象とする学問分野である.}.さらに,英語の先行研究と同じ一般的な手続きを採用しようとしても,経済分析に適した単語分割やストップワードの除去等の日本語の前処理方法に関する研究の蓄積も十分とはいえない.このような日本語の言語資源の不足は,テキストデータを用いたマクロ経済研究の敷居を高める要因となっている.以上の問題意識から,マクロ経済分野,特に景気動向の現状把握と将来予測に適した日本語の景気単語極性辞書の構築は,テキストデータを用いた経済研究の発展に貢献できると考えられる\footnote{本稿で構築した景気単語極性辞書は株式会社日本経済新聞社のウェブページ(\url{https://nkbb.nikkei.co.jp/alternative/service/dictionary/})から提供されている.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{関連研究} 日本語の極性辞書の構築を試みた先行研究は数多くあり,その一部では,研究成果として極性辞書が公開されている\cite{Kobayashi-etal-2005,Takamura-etal-2005,Kanayama-Nasukawa-2006,Kaji-Kitsurengawa-2007}.ただし,こうした先行研究で公開されている極性辞書は一般的な用途を想定したものが多く,特定のドメインに対してはうまく機能しない可能性がある.実際に,テキスト分析におけるドメイン考慮の重要性は周知であり,\cite{Turney-2002}や\cite{Qiu-etal-2009}では一般的な辞書で全てのドメインに対応することは難しく,ドメインごとに辞書を新たに構築する必要があると論じている.また,\cite{Liu-2012}では,センチメント分析はドメイン依存性が高いことを指摘している.以上の観点から,本稿のようにマクロ経済ドメインに特化した極性辞書の構築は重要な課題であると言える.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{景気単語極性辞書に収録する単語候補の選択} 本章では,景気単語極性辞書に収録する単語の選択手順について記述する.本稿では,マクロ経済分析,特に景気循環の分析に適した極性辞書の構築を目的としていることから,経済や景気と関連のある単語を取得するために株式会社日本経済新聞社が発行する日本経済新聞の記事データ(朝刊・夕刊・電子版)を利用する.使用する新聞記事データの期間は1981年10月から2020年12月であり,約510万記事が収録されている.また,新聞記事データに含まれる単語数については,異なり数が1,631,065語,延べ数が1,621,203,196語である.はじめに,「景気」,「経済」もしくはそれらの合成語と各単語の共起回数を算出する.具体的には,各単語について,「景気」,「経済」もしくはそれらの合成語の少なくともいずれか一つと共起した記事数を共起回数とする.さらに,共起回数による単語のランキングを作成する.ここで,考慮する単語は名詞,動詞,形容詞のみとし,またすべての単語は基本形に変換されている.単語分割,品詞推定および基本形の推定にはMeCabを利用した.また,マクロ経済に関連する新語や複合名詞を収録することが重要であるため,形態素解析辞書にはmecab-ipadic-NEologdを採用した\cite{sato-etal-2017}.次に,共起回数のランキング上位から,経済や景気と関連があり,収録の候補となる単語を,マクロ経済学及びファイナンスをそれぞれの専門分野とする筆者2人が独立に2,000語を選択した.ただし,過去の特定のイベントと関連する単語を収録してしまうと,過去に過剰適合した経済分析になってしまうことから,「リーマンショック」や「新型コロナウイルス」などの特定のイベント固有の単語は使用せず,景気に関する一般的な単語のみを選択することとした.それぞれが選択した単語の重複を排除した後,調整を行い,総単語数が3,000語となるように,候補単語のリストを作成した.この結果,単語リストの品詞の内訳は形容詞:309語,動詞:989語,名詞:1,702語となった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{アノテーションとその信頼性評価} 3章で得られた単語リストに収録されている3,000語に対して,景気動向の観点で各単語から連想される意味について,ポジティブ・ニュートラル・ネガティブの3つのクラスラベルの付与を行うアノテーションを行った.本稿のアノテーションには経済システムや景気動向に関する深い理解が必要であることから,アノテータとしてマクロ経済分析に従事する3人の専門家に依頼した.なお景気の見方については,個人の経歴や立場によって異なる可能性があるため,クラスラベルが特定の業種の意見を反映しないように,アノテータはそれぞれ別の職種の専門家(政府・中央銀行エコノミスト,民間金融機関エコノミスト,報道機関エコノミスト)を選定した.アノテータへの指示書は以下のとおりである.\vspace{0.25\Cvs}\begin{itembox}[l]{アノテータへの指示書}\setlength{\leftmargini}{1\Cwd}\setlength{\labelsep}{0.5\Cwd}\begin{itemize}\item景気動向の観点から,各単語から連想される意味について,ポジティブ/ネガティブ/ニュートラルの3つに分類してください.例:「悪化」→ネガティブ,「回復」→ポジティブ\item一般的には良い意味でも,景気の文脈では悪い意味の場合はネガティブ,どちらとも言えない場合はニュートラルとしてください.悪い意味についても同様にお願いします.\item一般的に文脈に依存する単語や係り受けによって意味が反転する単語の場合でも,可能な限り,景気が良い時期や内容に利用される場合が多い単語はポジティブ,悪い時期や内容に利用される場合が多い単語はネガティブとしてください.どちらとも言えない単語については,ニュートラルとしてください.例:「不確実」は一般的には係り受けによってどちらの意味にもなりうるが,景気の文脈だと悪い局面に使用される場合が多いのでネガティブと判断する.\itemポジティブ/ネガティブとニュートラルの境目にあると考えられる場合は,ニュートラルに分類してください.\itemひらがなについては,複数の漢字が当てはまる場合であっても,景気の文脈で最も多く使われる使用法を念頭に選んでください.\end{itemize}\end{itembox}表\ref{table_annotation}には,各アノテータによるクラス分類の結果とそれらを多数決によって集計した結果が示されている.アノテータ間で各クラスへの分類割合は多少変わるものの,ニュートラルが一番高く,次いでネガティブ,ポジティブの順に低くなる傾向が共通に観察される.分類割合が異なっている要因の一つとしては,各アノテータの判断基準の閾値の違いが想定される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{07table01.tex}\caption{アノテーションの集計結果}\label{table_annotation}\vspace{0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{07table02.tex}\caption{アノテータ間の混同行列}\label{table_confusion_matrix}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,表\ref{table_confusion_matrix}にはアノテータ間の評価に関する混同行列,表\ref{table_kappa}には評価の一致度が示されている.表\ref{table_confusion_matrix}からは,クラス分類がアノテータ間で不一致だった単語のほとんどがポジティブとニュートラルあるいはネガティブとニュートラルの間であり,ポジティブとネガティブの間で不一致だった単語はわずかであることがわかる.実際に逆のクラスラベルを付与されたのは,「カネ余り」や「過熱感」,「バブル」といった単語であり,これらは立場によって判断が分かれる可能性が高い単語であると考えられる.表\ref{table_kappa}によると,評価の一致度を測る$\kappa$係数は0.5から0.6程度であり,アノテータの立場の違いを考慮に入れた場合には十分に信頼できる水準といえる.これらの結果を踏まえて,アノテータの多数決によって3,000語に対するクラスラベルを決定した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{07table03.tex}\hangcaption{アノテータ間の一致度.\\注:各組み合わせの評価の一致度はコーエンの$\kappa$係数,3人の評価の一致度はフライスの$\kappa$係数により計算されている.}\label{table_kappa}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{収録単語の補完} 本章では,4章で得られた極性辞書への収録単語の補完を行う.現段階では,新聞記事データにおいて「景気」及び「経済」とそれらの合成語と共起した単語のみが辞書に収録されているが,これら以外の単語について取りこぼしの可能性を考慮して辞書を補完することが望ましいだろう.しかしながら,人手によって全ての追加単語を選定するのは多くの時間と労力を要する.このため本稿では単語の埋め込みベクトルと教師あり学習を導入することで単語の補完を行う\cite{Tang-etal-2014a,Tang-etal-2014b,Sato-etal-2016}.具体的な手順は以下のとおりである.\begin{enumerate}\itemはじめに,単語の埋め込みベクトルを作成する.単語ベクトルを作成する際のコーパスとしては,日本経済新聞の新聞記事データを利用している.なお,本稿では極性辞書に基本形のみを収録するため,入力テキストを形態素解析によって基本形に変換している.単語ベクトルを作成する際の手法として,Skip-gram(word2vec),GloVe,fastTextの3種類を採用した\cite{Mikolov-etal-2013,Pennington-etal-2014,Bojanowski-etal-2017}.ハイパーパラメータはデフォルトを指定しているが,ベクトルの次元は100,200,400,800の4種類を試行している.\item次に,単語リストの3,000語の単語ベクトルを入力,クラスラベルを出力として教師あり学習を行う.教師あり学習の手法としては,多項ロジスティック回帰(MLR),サポートベクトルマシン(SVM),順伝播型ニューラルネットワーク(FFNN),LightGBMを用いる.なお,SVMに関しては線形カーネル,ガウシアンカーネル,多項式カーネル,シグモイドカーネルの4つのカーネル関数を試行するとともに,one-versus-rest法によって3クラス分類を行った\footnote{なお,one-versus-one法による分類精度と比較したところ,総じてone-versus-rest法による分類精度の方が高いことを確認している.}.また,表\ref{table_annotation}が示すとおりクラスラベルの割合にばらつきがあることから,その逆数を掛けて損失関数への寄与度を調節している.\itemそれぞれの手法の組み合わせについて5分割交差検証によって分類性能の評価を行い,分類性能の最も高い組み合わせを利用して,収録単語以外の単語のラベルを推定する\footnote{ハイパーパラメータのチューニングに関しては,付録\ref{appendix_turning}に詳細を記載している.}.分類性能を測る評価基準として,F-尺度(F-measure),適合率(precision),再現率(recall)のそれぞれについて,加重平均(weightedaverage),マイクロ平均(microaverage),マクロ平均(macroaverage)の3つの方法で集計した計9個の指標を用いる\footnote{加重平均では,各クラスのサンプルサイズの逆数で重み付けしている.F-尺度の加重平均は,適合率と再現率の加重平均を用いて算出されている.}.\item推定されたラベルをもとに,再度人手で極性辞書に収録する単語を選定する.具体的には,固有名詞を除外し,経済関連単語のみを抽出する.\end{enumerate}表\ref{table_accuracy_mean}は,各組み合わせにおける分類性能の評価の結果をまとめたものであり,初期値を変えて各モデルの推定と予測を5回試行した際の平均値が示されている.また,各指標の最も高い数値は太字で表示している.なお,SVMについては,最も分類性能の高かった多項式カーネルの結果のみを記載している.表\ref{table_accuracy_mean}から,総じてSVMとSkip-gramの組み合わせの分類性能が最も高いことがわかる.また,学習モデルによって異なるものの,総じてSkip-gramとfastTextはGloVeよりも分類性能が高い傾向にあった.このほか,次元は大きいほど分類性能が高まる傾向にあるが,400次元と800次元とではほぼ同程度,もしくはわずかに800次元の方が良いことがわかる.これらの結果から,収録単語以外の単語のクラスラベル推定における組み合わせには,SVMと800次元のSkip-gramを採用する\footnote{構築時のSkip-gramの次元以外のパラメータについては,ウィンドウサイズは5,最小頻度は5,負例サンプリングは5である.}.そして,改めてアノテーション済みの3,000語を用いて学習し,新聞記事データに含まれる全単語のクラスラベルを推定する.コーパス内に極性値を持たない単語が含まれていることが想定されることから,最終的に辞書には収録されないものを除外するために,ニュートラルのクラスラベルを含めた3クラス分類の分類器を構築している.ポジティブあるいはネガティブのクラスラベルが付与された単語からアノテーション済みの単語を除外したのち,経済や景気と関連のある単語及び固有名詞を再度筆者2人によって選定した.推定された各クラスの単語と追加収録単語の内訳については,表\ref{table_additional_words}の示すとおりである.この結果,追加収録する単語数は,ポジティブが39語,ネガティブが152語の計191語となった.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[p]\input{07table04.tex}\caption{極性分類の結果}\label{table_accuracy_mean}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表1のアノテーションの多数決結果からニュートラルを除外した単語と,追加収録単語を合わせて,最終的な景気単語極性辞書の収録単語数は874語となった.その内訳は表\ref{table_dictionary}に示すとおりである\footnote{ファイナンスのドメインを対象とする\cite{Ito-etal-2018}の金融専門極性辞書は特定のイベントや人名等の固有名詞や極性が曖昧な単語が含まれることから収録単語の総数は19,630語と景気単語極性辞書の収録単語よりも大きい.このうち547語が景気単語極性辞書の収録単語と重複しており,金融専門極性辞書の収録単語総数を分母とする重複単語の比率は2.8\%となっている.}.また,表\ref{table_sample}には収録単語のサンプルとして,各品詞についてポジティブ単語とネガティブ単語がそれぞれ5語記載されている.なお追加収録された単語は(*)で示されている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{07table05.tex}\caption{推定された各クラスの単語と追加収録単語の内訳}\label{table_additional_words}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{07table06.tex}\caption{景気単語極性辞書の収録単語の内訳}\label{table_dictionary}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{07table07.tex}\caption{景気単語極性辞書の収録単語のサンプル.注:*印は追加収録単語.}\label{table_sample}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{景気単語極性辞書の応用例:経済ニュース指数の作成} 本章では,構築した景気単語極性辞書の使用例として,経済ニュース指数を作成し,その有用性を検討する\footnote{経済テキストデータを指数化する方法として,本稿のように極性辞書を利用する方法のほかに機械学習を利用する方法がある.例えば,\cite{Yamamoto-etal-2016},\cite{Kazato-etal-2019},\cite{Goshima-etal-2021}では内閣府の景気ウォッチャー調査の景気判断理由集を教師データとして機械学習によって指数を直接構築しているが,本稿では辞書に基づく指数に限定して分析を行う.}.まず1980年10月から2021年12月までの日経新聞記事の全ての朝刊記事における日ごとに出現する辞書収録単語を\begin{equation}\label{eq:NI1}{\rmScore}_{t}=\frac{Positive\,Words_{t}-Negative\,Words_{t}}{Positive\,Words_{t}+Negative\,Words_{t}}\times100\end{equation}に従って数え上げることで,(センチメント)スコアを算出する.ここで,$Positive\,Words_{t}$と$Negative\,Words_{t}$はそれぞれ,$t$日に配信された新聞記事中に出現したポジティブな単語の数とネガティブな単語の数を表す.ただし,休刊日のスコアは前日と同じ値を用いることとする.日次単位で計測したスコアは不規則変動が多く,景気の転換点を判定するような場合には平滑化が望ましい.本稿では,初期値を${\rmNews\,Index}_{1}={\rmScore}_{1}$とし,$t\geq2$について\begin{equation}\label{eq:NI2}{\rmNews\,Index}_{t}={\rmScore}_{t}×\alpha+{\rmNews\,Index}_{t-1}×(1-\alpha)\end{equation}で計算されるスコアの指数平滑移動平均を経済ニュース指数として定義した.ここで,$\alpha=2/(n+1)$は平滑化係数であり,過去1か月間の変動が特に重視されるように,$n=30$と設定した.また,特定のドメインを考慮しない一般的な極性辞書である\cite{Takamura-etal-2005}の単語感情極性値対応表を用いて,同様の経済ニュース指数を作成し,景気連動性に関して,景気単語極性辞書による経済ニュース指数との比較も行う\footnote{単語感情極性値対応表ではラベルが二値ではなく連続値で与えられているため,収録単語を用いた各営業日のスコアを以下の式から算出している.\[{\rmScore}_{t}=\frac{Labels_{t}}{Words_{t}}\times100.\]ここで,$Labels_{t}$と$Words_{t}$はそれぞれ,$t$日に配信された新聞記事中に出現した単語の極性値の総和と単語の数を表す.なお,単語を数え上げる際には,重複を許している.}.なお,単語感情極性値対応表には55,125語が収録されており,そのうちの0.72\%にあたる397語が景気単語極性辞書と重複している.図\ref{figure_NI}は,2つの辞書を用いて構築した経済ニュース指数の月末値の推移を示している.ただし実線が経済ニュース指数,灰色の領域が内閣府によって認定された景気基準日付に基づく景気後退期の期間である\footnote{景気基準日付(山と谷)については,内閣府のウェブページ(\url{https://www.esri.cao.go.jp/jp/stat/di/hiduke.html})から取得可能である.}.図\ref{figure_NI}の(a)からは,景気単語極性辞書から作成された経済ニュース指数がバブル崩壊やITバブル崩壊,世界金融危機等の景気後退期において低下した様子が観察される.また,2020年の新型感染症拡大初期においても急速に指数が低下しており,景気との連動性の高い経済ニュース指数であることが確認できる.一方で,図\ref{figure_NI}の(b)の単語感情極性値対応表から作成された経済ニュース指数については,景気後退期に低下する場合があるものの,(a)と比較して景気との連動性が総じて低いことがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{29-4ia7-2f1.pdf}\end{center}\caption{経済ニュース指数の概観}\label{figure_NI}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[b]\begin{center}\includegraphics{29-4ia7-2f2.pdf}\end{center}\caption{パターン分析}\label{figure_pattern}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,(1)パターン分析,(2)Bry-Boschan法,(3)各景気指標との時差相関の3つの手法を通じて,経済ニュース指数と景気動向との関係について考察を行う.パターン分析とBry-Boschan法は全米経済研究所(NBER)で開発された景気循環分析の標準的な手法であり,時差相関と合わせて個別系列の景気との連動性評価に用いられることが多い.例えば内閣府が公表する景気動向指数の採用系列の変更の際にもこれらの手法が利用されている\cite{Cabinet-2015}.まずパターン分析は,対象となる景気の1循環を9ステージに分割し,系列の挙動をステージごとに要約する手法であり,複数の循環の動向を比較することで,景気基準日付に対する先行遅行関係の安定性を調べることができる\footnote{パターン分析の詳細な手順については,付録\ref{appendix_pattern}を参照されたい.}.なお経済ニュース指数が計算できる標本期間と対応させるため,ここでは戦後の景気循環のうち第10循環から第16循環まで(1983年2月から2020年5月まで)の7つの景気循環を分析対象としている.図\ref{figure_pattern}は,2つの極性辞書を用いて作成したニュース指数に対して,パターン分析を適用し,7つの景気循環の各ステージ(横軸)における標準化された値(縦軸)を図示したものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{07table08.tex}\caption{各景気指標のまとめ}\label{overview_keiki_index}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{29-4ia7-2f3.pdf}\end{center}\caption{内閣府が公表する景気指標との時差相関}\label{figure_lagcor_gov}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{29-4ia7-2f4.pdf}\end{center}\caption{日本銀行が公表する景気指標との時差相関}\label{figure_lagcor_boj}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%パターン分析においては,第5ステージが景気の山に対応するが,図\ref{figure_pattern}の(a)が示すように,景気単語極性辞書による経済ニュース指数の最大値の多くは第3ステージと第4ステージに位置している.また,第9ステージが景気の谷に対応するが,同じ経済ニュース指数の最小値は概ね第8ステージに位置している.経済ニュース指数の極値が,内閣府による景気の山谷に対して1から2ステージ程度前に観察されることから,景気の拡大局面と後退局面に先行して変動していることがわかる.つまり景気単語極性辞書による経済ニュース指数には,将来の景気動向の予測に有益な情報が含まれていることを示唆している.一方,図\ref{figure_pattern}の(b)では,単語感情極性値対応表による経済ニュース指数は,景気単語極性辞書による経済ニュース指数に比べて,景気との関連性は弱く,特に景気拡大局面の先行性を見出すことはできない.Bry-Boschan法とは,山と谷との間隔を5か月以上とする,1循環の長さを15か月以上とするなどの制約を課した上で,移動平均等の変換と組み合わせて景気の山谷を判定するアルゴリズムである\cite{Bry-Boschan-1971}.Bry-Boschan法から計算された系列の山谷のタイミングと景気基準日付との先行遅行関係を調べることで,景気循環における系列の挙動の特徴を把握することができる.図\ref{figure_NI}の(a)に示されている黒丸と四角は景気単語極性辞書による経済ニュース指数にBry-Boschan法を用いることによって計算された山と谷である.図中の景気後退期は景気基準日付による山から谷までの期間として定義されているため,灰色の領域が始まる点が山,終わる点が谷に対応している.まず景気単語極性辞書による経済ニュース指数の振動回数は景気基準日付の景気循環より多いものの,そのタイミングは概ね景気基準日付と一致している.また,指数の山と谷は,両者ともに政府が認定した景気循環より早めに転換点が来ていることがわかる.一方で,図\ref{figure_NI}の(b)の単語感情極性値対応表による経済ニュース指数については特に前半の期間において,山と谷のタイミングが景気基準日付と一致していないことが多い.最後に,内閣府及び日本銀行によって公表されている各景気指標と経済ニュース指数の先行遅行関係を,時差相関係数を用いて考察する.時差相関係数は比較する2つの変数のうち,一方をラグ変数とした場合の相関係数として計算される.複数のラグについてこのような時差相関係数を計算することによって,両系列の先行遅行関係を分析することができる.比較対象となる各景気指標については表\ref{overview_keiki_index}にまとめられている.図\ref{figure_lagcor_gov}と図\ref{figure_lagcor_boj}には,経済ニュース指数と各景気指標との時差相関係数が示されている.ここで縦軸は相関係数,横軸は時差(月/四半期)であり,横軸の左方向は経済ニュース指数が先行する方向,右方向は経済ニュース指数が遅行する方向を示している.図\ref{figure_lagcor_gov}の(a)からは,景気単語極性辞書による経済ニュース指数は内閣府が公表している各景気指標と高い相関があり,景気動向を的確に捉えていることが分かる.また景気動向指数に対しては先行性が見られ,先行指数とは$-2$か月,一致指数とは$-4$カ月で相関係数が最も大きい値を取ることから,景気動向をいち早く捕捉できる可能性を示唆している.景気ウォッチャー調査に対しては,先行性は見られないものの同時点で相関係数が0.8と非常に高い値を取っており,景気との連動性が高いことがわかる.また,図\ref{figure_lagcor_boj}の(a)からは,景気単語極性辞書による経済ニュース指数は日本銀行が公表している各景気指標とも高い相関があることがわかる.特に日銀短観に対しては,$-3$四半期または$-2$四半期で相関係数が最も大きい値を取ることから,明確な先行性が観察される.生活意識に関するアンケート調査に対しては,景況感-前年比とは$-1$四半期,景況感-予想とは同時点で相関係数が最大となっている.さらに,これらの指標は集計から発表までのラグがあるため,経済ニュース指数はナウキャストの目的でも有用であるといえる.一方で,図\ref{figure_lagcor_gov}の(b)と図\ref{figure_lagcor_boj}の(b)からは,単語感情極性値対応表による経済ニュース指数は総じて各景気指標との相関が低いことがわかる.以上の結果から,本稿で構築した景気単語極性辞書のマクロ経済分析における有用性を確認することができた.特に景気単語極性辞書を用いることで,景気動向をいち早く捕捉できる経済ニュース指数が作成できる可能性が示唆された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{まとめ} 本稿では,経済研究における日本語テキスト分析に寄与することを目的として,マクロ経済分野に適した極性辞書の構築と景気動向分析への応用例を示した.具体的には,日本経済新聞の新聞記事コーパスから選択された単語について,複数人の専門家によるアノテーションを行い,景気単語極性辞書を構築した.また,景気単語極性辞書を用いて作成された経済ニュース指数は,景気動向を迅速に捕捉する上で有用であることが確認された.景気単語極性辞書の少量コーパスへの適用や景気動向分析以外への応用は今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本稿の作成に当たっては,リサーチアシスタントの上田佳祐氏には多岐にわたり助力を頂いた.ここに記して感謝したい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\bibliography{07refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix \section{ハイパーパラメータの選択} \label{appendix_turning}本稿では,FFNN以外の各モデルについて,訓練データに対する5分割交差検証とグリッドサーチによって,ハイパーパラメータを決定した後,全ての訓練データを利用してモデルを学習している.具体的には,訓練データを5分割し,そのうちの1つの副標本を検証データとし,残りのデータで学習を行う.その際,検証データを用いた分類評価指標(F-尺度の加重平均)をパラメータのグリッド上の各点で計算する.この作業を別の副標本を検証データとした場合にも繰り返し,5回の分類評価指標の平均値が最も高いパラメータの値を選択する.チューニングしたハイパーパラメータとその探索範囲は表\ref{table_tuning}のとおりである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{07table09.tex}\caption{各モデルのハイパーパラメータとその探索範囲}\label{table_tuning}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%FFNNについては隠れ層を3層とし,各層の次元数は入力ベクトルのサイズの3倍,4倍,1倍としている.加えて,各層にドロップアウトを採用している.最適化手法はAdamを採用し,訓練データのうち20\%を検証データとしたエポックの早期打ち切りを行っている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{パターン分析} \label{appendix_pattern}本稿で用いたパターン分析の手順を以下に示す.\begin{enumerate}\itemまず,景気の1循環は内閣府で定めた景気基準日付の谷から次の谷までとする.1循環の最初の谷,山,2番目の谷のそれぞれについて,該当する月とその前後1か月を合わせた計3か月を,順に第1ステージ,第5ステージ,第9ステージと定める.\item景気の拡張期である第1ステージと第5ステージの間を3等分し,第2,第3及び第4ステージに分割する.\item景気の後退期である第5ステージと第9ステージの間を3等分し,第6,第7及び第8ステージに分割する.\item9個のステージに該当する期間ごとに平均値を計算する.等分する際に割り切れなかった月については,2/3または1/3の重みを付することで調整する.\item各ステージの値を1循環分(9ステージ)の平均値で割って100を乗じることで標準化する.\item以上の計算を1循環ごとに繰り返し,ステージを横軸にした図に重ねて表示する.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{五島圭一}{%2012年慶應義塾大学経済学部卒業.2017年東京工業大学大学院総合理工学研究科知能システム科学専攻博士後期課程修了.博士(工学).日本銀行金融研究所,早稲田大学商学部講師,東京大学エコノミックコンサルティング株式会社などを経て2022年5月より株式会社三菱UFJ銀行にて産業リサーチ業務に従事.早稲田大学産業経営研究所招聘研究員を兼任.}\bioauthor{新谷元嗣}{%1991年大阪大学経済学部卒業.2000年米イェール大学で博士号(経済学)取得.慶應義塾大学商学部講師,米ヴァンダービルト大学経済学部教授,東京大学先端科学技術研究センター教授を経て,2018年より東京大学大学院経済学研究科教授,2020年より東京大学エコノミックコンサルティング株式会社アドバイザー(兼任).}\bioauthor{高村大也}{%1997年東京大学工学部計数工学科卒業.2000年同大大学院工学系研究科計数工学専攻修了(1999年はオーストリアウィーン工科大学にて研究).2003年奈良先端科学技術大学院大学情報科学研究科博士課程修了.博士(工学).2003年から2010年まで東京工業大学精密工学研究所助教.2006年にはイリノイ大学にて客員研究員.2010年から2016年まで同准教授.2017年から2021年3月まで同教授.2017年より産業技術総合研究所人工知能センター知識情報研究チーム研究チーム長.計算言語学,自然言語処理を専門とし,特に機械学習の応用に興味を持つ.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\clearpage\clearpage\end{document}
V26N01-05
\section{はじめに} \label{sec:introduction}対話システムがユーザ発話から抽出するべき情報は,背後にあるアプリケーションに依存する.対話システムをデータベース検索のための自然言語インタフェースとして用いる場合,対話システムはデータベースへのクエリを作成するために,ユーザ発話中で検索条件として指定されるデータベースフィールドとその値を抽出する必要がある.データベース検索対話において,ユーザ発話中からこのような情報を抽出する研究はこれまで多くなされてきた.例えば,\citeA{raymond2007generative,Mesnil2015,Liu2016a}は,ATIS(TheAirTravelInformationSystem)コーパス~\cite{Hemphill:1990:ASL:116580.116613,Dahl:1994:ESA:1075812.1075823}を用いて,ユーザ発話からデータベースフィールドの値を抽出する研究を行っている.ATISコーパスはWizard-of-Ozによって収集されたユーザと航空交通情報システムとの対話コーパスであり,各ユーザ発話中の表現には,出発地や到着日などのデータベースフィールドに対応するタグが付与されている.ATISコーパスを用いた研究の課題はタグの付与された情報を発話から精度よく抽出することである.これらの研究の抽出対象である出発地や到着日などの情報はユーザ発話中に明示的に出現し,直接データベースフィールドに対応するため,データベース検索のための明示的な条件となる.一方,実際の対話には,データベースフィールドには直接対応しないものの,クエリを作成するために有用な情報を含む発話が出現し,対話システムがそのような情報を利用することで,より自然で効率的なデータベース検索を行うことが可能になる.例として,不動産業者と不動産を探す客の対話を考える.不動産業者は対話を通じて客が求める不動産の要件を確認し,手元の不動産データベースから客の要件を満たす不動産を絞り込む.このとき,客の家族構成は,物件の広さを絞り込む上で有用な情報であろう.しかし,家族構成は物件の属性ではなく客の属性であるため,通常,不動産データベースには含まれない.客の家族構成のように,データベースフィールドには直接対応しないが,データベース検索を行う上で有用な情報を{\bf非明示的条件}と呼ぶ\cite{Fukunaga2018}.我々は,非明示的条件を「データベースフィールドに明示的に言及しておらず,『xならば一般的にyである』という常識や経験的な知識によってデータベースフィールドと値の組(検索条件)へ変換することができる言語表現」と定義する.例えば,「一人暮らしをします」という言語表現は,物件の属性について明示的に言及していない.しかし,『一人暮らしならば一般的に物件の間取りは1LDK以下である』という常識により,〈間取り$\leq$1LDK〉という検索条件に変換できるため,これは非明示的条件となる.一方,「賃料は9万円を希望します」や「築年数は20年未満が良いです」のような言語表現は,データベースフィールドに明示的に言及しているため,非明示的条件ではない.また,「渋谷で探しています」のようにデータベースフィールドが省略されている場合でも,省略の補完によって【エリア】というデータベースフィールドに明示的に言及する表現に言い換えることが可能である場合は非明示的条件とはみなさない.\citeA{Taylor1968}による情報要求の分類に照らすと,明示的な検索条件は,ユーザ要求をデータベースフィールドとその値という形式に具体化しているため,調整済みの要求(compromisedneed)に対応する.一方,非明示的条件は,ユーザ自身の問題を言語化しているが検索条件の形式に具体化できていないため,形式化された要求(formalisedneed)に対応する.非明示的条件を利用する対話システムを実現するためには,以下の2つの課題が考えられる.\begin{itemize}\item[(1)]非明示的条件を含むユーザ発話を,データベースフィールドとその値の組(検索条件)へ変換する.\item[(2)]ユーザ発話中から,(1)で行った検索条件への変換の根拠となる部分を抽出する.\end{itemize}課題(1)は,非明示的条件を含む発話からデータベースへのクエリを作成するために必要な処理である.図\ref{fig:dial_ex}に示す対話では,客の発話に含まれる「一人暮らし」という文言から,〈間取り$\leq$1LDK〉という検索条件へ変換できる.本論文では,課題(1)を,発話が関連するデータベースフィールドを特定し,そのフィールドの値を抽出するという2段階に分けて考え,第一段階のデータベースフィールドの特定に取り組む.1つのユーザ発話が複数のデータベースフィールドに関連することもあるので,我々はこれを発話のマルチラベル分類問題として定式化する.発話からフィールドの値を抽出する第二段階の処理は,具体的なデータベースの構造や内容が前提となるため,この論文では扱わず,今後の課題とする.\begin{figure}[b]\begin{center}\includegraphics{26-1ia5f1.eps}\end{center}\caption{対話と非明示的条件から検索条件への変換の例}\label{fig:dial_ex}\end{figure}課題(2)によって抽出された根拠はデータベースへのクエリに必須ではないが,システムがユーザへの確認発話を生成する際に役立つ.非明示的条件を検索条件へ変換する際に用いるのは常識や経験的な知識であり例外も存在するため,変換結果が常に正しいとは限らない.例えば,不動産検索対話において一人暮らしを考えている客が2LDKの物件を希望することもありうる.したがって,システムの解釈が正しいかどうかをユーザに確認する場合がある.この際,システムが行った解釈の根拠を提示することで,より自然な確認発話を生成することができる.図~\ref{fig:dial_ex}のやり取りにおいて,「一人暮らしをしたいのですが.」というユーザ発話をシステムが〈間取り$\leq$1LDK〉という検索条件へ変換したとする.このとき,単に「間取りは1LDK以下でよろしいですか?」と確認するよりも,「一人暮らしということですので,間取りは1LDK以下でよろしいですか?」とシステムが判断した理由を追加することでより自然な対話となる.また,対話として自然なだけではなく,ユーザがシステムの判断に納得するためにも根拠を提示することは重要である\cite{XAI-Gunning,XAI-Monroe}.このような確認発話を生成する際に,ユーザ発話中の「一人暮らし」という表現を〈間取り$\leq$1LDK〉の根拠として抽出することは有用である.また,非明示的条件を含むユーザ発話が与えられたとき,その非明示的条件に関連するデータベースフィールドについての質問を生成するためにも抽出した根拠を利用できる.例えば,図~\ref{fig:dial_ex}中のユーザ発話を【間取り】というデータベースフィールドへ分類し,その根拠として「一人暮らし」を抽出した場合,「一人暮らしということですが,間取りはいかがなさいますか?」という質問を生成できる.非明示的条件に対応できない対話システムでは,このようなユーザ発話に対して,ユーザ発話を理解できなかったという返答を行うか,まだ埋まっていない検索条件について質問を行うことしかできない.また,根拠を抽出し,蓄積することにより,対話中でどのような非明示的条件が出現しやすいかということを,システムの開発者が知ることができる.仮に,「一人暮らし」や「家族4人」のような客の家族構成の情報が頻繁に出現することがわかれば,システムの開発者は,家族構成に関係する情報をデータベースに新規に追加するという改良を施すことができる.本論文では,データベースフィールドへのマルチラベル分類と同時に,根拠抽出を行う.非明示的条件から検索条件への変換の根拠を各発話に対してアノテーションすることはコストが高いため,教師なし学習によって根拠抽出を行う.本論文の貢献は,データベース検索を行うタスク指向対話において,非明示的条件を含むユーザ発話をデータベースフィールドと値の組(検索条件)へ変換し,同時にその根拠をユーザ発話中から抽出する課題を提案することである.本稿では,この課題の一部であるデータベースフィールドへの分類と根拠抽出を行うために,(1)サポートベクタマシン(SVM),(2)回帰型畳込みニューラルネットワーク(RCNN),(3)注意機構を用いた系列変換による3種類の手法を実装し,その結果を報告する.本論文の構成は以下の通りである.2節では関連研究について述べ,本論文の位置付けを明らかにする.3節では本論文で利用するデータと問題設定について詳述する.4節ではデータベースフィールドへの分類とその根拠抽出手法について述べる.5節では評価実験の結果について述べ,6節で本論文をまとめる. \section{関連研究} 伝統的なタスク指向対話システムは自然言語理解,対話状態推定,方策学習,自然言語生成の4つのモジュールのパイプラインによって構成される\cite{Chen:2017:SDS:3166054.3166058}.自然言語理解はさらに,ユーザ意図推定とスロットフィリングの2つの処理に分けることができる.ユーザ意図推定はユーザ発話を意図のカテゴリに分類する処理である.一方,スロットフィリングはユーザ発話の意味的な内容をスロットと値の組として出力する処理であり,例えば「ニューヨークからシカゴまで行きます」というユーザ発話に対し,〈出発地=ニューヨーク〉,〈目的地=シカゴ〉を出力する.この一般的な枠組みから言えば,我々の取り組む課題はスロットフィリングに相当する.自然言語理解におけるスロットフィリングは,発話中の各単語に対して,意味的なスロットのIOBタグ\cite{ramshaw1995text}を付与する系列ラベリング問題として定式化されることが多い.近年では,多くの文献で,この問題を解くための手法として回帰型ニューラルネットワーク(RNN)\cite{Mesnil2013,Yao2013,Mesnil2015,Vu2016,Jaech2016,Liu2016a,Liu2016b,Bapna2017}やLongShort-TermMemory(LSTM)\cite{Yao2014,Hakkani-t2016}が用いられている.しかし,これらの文献で捉えようとしているのは発話中で明示的に言及された意味的なスロットのみであり,我々が対象としている非明示的条件はスロットフィリングの対象としていない.また,対話状態推定のシェアドタスクとしてDialogStateTrackingChallenge5(DSTC5)\cite{Kim2016_5th}がある.DSTC5は,対話中の各時点での対話状態を推定する課題であり,1つの発話のみではなく,文脈を用いてスロットフィリングを行う必要がある.そのため,各時点の発話中に明示的に現れていない値をスロットに埋めることが必要となる.例えば,\citeA{Hori2016}は,指示形容詞や指示代名詞によって参照される,発話中には明示的に現れない値を抽出することを目指している.しかし,本研究で対象とする非明示的条件は,\ref{sec:introduction}~節で述べたように推論を必要とする表現であり,DSTC5ではそのような表現からのスロットフィリングを対象としていない.タスク指向対話システムにおいて,非明示的条件からのスロットフィリングを対象とした研究はほとんど存在しない.\citeA{Celikyilmaz2012}は,映画検索を行うタスク指向対話システムにおいて,ユーザ発話から,ユーザの求めている映画のジャンルを推定する課題に取り組んでいる.彼らの目的は,ジャンルについて明示的に言及していないユーザ発話からもジャンルの推定を行うことである.例えば,彼らは``Iwannawatchamoviethatwillmakemelaugh.''というユーザ発話から,ユーザが求める映画のジャンルが{\itcomedy}であるということを推定する.彼らの研究の動機は我々とほとんど同じであるが,彼らはジャンルの推定結果だけを出力し,そのユーザ発話からそのジャンルが推定できる理由を提示していない点で,我々の目的とは異なる.また,彼らは映画のジャンルという1つの属性についてのみ推定を行っているが,我々は複数のデータベースフィールドに対する推定を行う.近年では,パイプライン処理による伝統的なタスク指向対話システムとは異なり,ひとつひとつのモジュールを明示的に作成せず,ユーザ発話から直接システム発話を生成するEnd-to-Endのタスク指向対話システムも提案されている.\citeA{Eric2017}は,知識ベースを検索するユーザ発話に対して,その検索結果を提示することが可能なEnd-to-Endの対話システムを提案している.しかし,このシステムは,与えられたユーザ発話に対して,その検索結果が得られた理由については説明しない.我々の課題では,非明示的条件が与えられた際,データベースへのクエリを作成するために変換が必要となるが,システムが必ず正しい変換を行う保証は無い.近年,「説明のできるAI」の重要性が指摘されているように\cite{XAI-Gunning,XAI-Monroe},自然で効率的な対話を実現するためには,システムによる変換理由の説明やユーザへの確認を行う発話を用意することが必要である.しかし,現在のEnd-to-Endの枠組みでは,これを実現することは難しい. \section{データと問題設定} \label{sec:data-tasksetting}本論文では,対話コーパスとして不動産検索対話コーパス~\cite{Yokono2017}を用いる.このコーパスは物件を探す客と不動産業者を演じる2名の作業者間で行われる日本語テキストチャット対話を収集したものである.対話の目的は客の物件に対する希望を不動産業者が聞き出すことである.不動産業者は実際にデータベースの検索を行うことはしないが,検索に必要な情報が十分得られたと判断した場合に対話を終了する.それぞれの対話において,客は10種類のプロファイルのうち1つが割り当てられ,そのプロファイルに合致する条件の物件を希望するよう指示されている.客のプロファイルは不動産業者には開示されない.実際のプロファイルの例として以下のようなものがある.「30代共働き夫婦、保育園児の子ども1人。新婚時代から通勤利便性重視で都心寄りの1LDKマンションに住んでいたが、2人目を考えるにあたって、少し郊外でも治安の良い地域で広めの家に引っ越したい。」コーパス中の対話数は986対話,総発話数は29,058発話であり,そのうち不動産業者の発話が14,571発話,客の発話が14,487発話である.また,1対話あたりの平均発話数は29.5発話である.我々は,このコーパス中の各発話に対し,表\ref{tab:field-tags}に示すデータベースフィールドタグをアノテーションした~\cite{Fukunaga2018}\footnote{以下,データベースフィールドタグは【】で囲んで表記する.}.これらのデータベースフィールドタグは,日本の不動産情報サイトSUUMO\footnote{http://suumo.jp}で不動産検索を行う際に指定可能な検索条件をもとに設計した.また,どのデータベースフィールドにも該当しない発話に付与する【その他】タグを定義した.これらのタグを,2名のアノテータによって986対話全てにアノテーションし,そのうち50対話については,アノテーションの一致率を調べるために両者によるアノテーションを行った.アノテータには,対象の発話とそれ以前の文脈を見て,その発話で言及されているデータベースフィールドをタグ付けするよう指示した.また,どのデータベースフィールドにも該当しない発話に非明示的条件が含まれることを期待し,【その他】タグを付与する際には,その意味内容を自由記述するよう指示した.両者がアノテーションした50対話におけるアノテータ間のCohen's$\kappa$\cite{cohen1960coefficient}は0.79であり,アノテーションは十分に一致している.ここで,【その他】タグの意味内容は自由記述でありアノテータによって表記が異なるため,意味内容の記述の一致は考慮していない.\begin{table}[t]\caption{データベースフィールドタグ}\label{tab:field-tags}\input{05table01.tex}\end{table}表~\ref{tab:annotation_example}に実際の対話とアノテーション例を示す.表中の「店」が不動産業者の発話,「客」が客の発話を表す.タグが``---''となっている発話は,対話を開始したり,客に発話を促すような,対話管理レベルの発話であるため,アノテーションの対象外とした.【その他】タグが付与された発話については,自由記述された意味内容を括弧内に示している.\begin{table}[t]\caption{対話とアノテーション例}\label{tab:annotation_example}\input{05table02.tex}\end{table}本論文では,【その他】が付与された客の発話に非明示的条件が含まれると仮定し,それらを38種類のデータベースフィールドタグに分類することと,その分類の根拠となる発話の断片を抽出することを課題とする.客の発話は,その直前の不動産業者側の発話と合わせて,ひとつのテキストとして扱う\footnote{客の発話の直前の発話が客の発話であった場合にも,それらをひとつの塊とする.}.本論文では,これを発話チャンクと呼ぶ.客の発話とその直前の不動産業者側の発話をひとつのテキストとして扱うのは,客が直前の不動産業者の問いに対する単なる肯定/否定の発話をすることがあるためである.例えば,表~\ref{tab:annotation_example}中の6発話目は「はい、そうです。」という客による単なる肯定の発話であり,この発話単体では実質的な情報は得られない.しかし,直前の不動産業者の「現在はご夫婦とお子様お一人ということですね?」という問いと組み合わせることによって家族構成の情報が得られ,【間取りタイプ】のようなデータベースフィールドへの分類が可能になる.対話コーパス中から,非明示的条件を含む(【その他】タグが付与された客の発話を含む)発話チャンクは全部で2,642個収集できた.1つの非明示的条件から複数のデータベースフィールドへ変換される場合もあるため,データベースフィールドへの分類問題は,通常のマルチラベル分類問題として定式化できる.すなわち,入力の発話チャンク$\bm{x}$に対し,データベースフィールドタグの部分集合$Y\subseteq\{【沿線】,【駅徒歩】,\cdots\}$を出力することが本研究の課題である.また,分類根拠の抽出は,入力の発話チャンク$\bm{x}$に対する分類結果中のそれぞれのデータベースフィールドタグ$y\inY$について,その根拠となる断片の集合$E_y\subseteq\mathrm{Substr}(\bm{x})$を出力する問題として定式化する.ここで,$\mathrm{Substr}(\bm{x})$は発話チャンク$\bm{x}$中に含まれるすべての部分文字列の集合を表す. \section{データベースフィールドへの分類および根拠抽出手法} \label{sec:methods}本論文では,サポートベクタマシン(SVM),回帰型畳み込みニューラルネットワーク(RCNN),注意機構を用いた系列変換による3つの手法を実装する.\subsection{SVMによる手法}それぞれのデータベースフィールドタグについて,入力の発話チャンクをそのデータベースフィールドへ変換できるか否かを分類する二値分類器を線形SVMによって作成する.すなわち,全部で38個の二値分類器を作成する.入力の発話チャンクが与えられたとき,システムの最終的な出力は分類器が正と判断したデータベースフィールドの集合となる.SVMの素性として,発話チャンクのbag-of-wordsを用いる.素性に使用する単語はコーパス中で2回以上出現する名詞,動詞,形容詞,副詞の原形である.発話チャンクの形態素解析には,MeCab\footnote{http://taku910.github.io/mecab/}を使用する.また,数と固有名詞については,抽象化のためにそれぞれ\textsc{NUM}と\textsc{PROP}という記号に置き換える.分類の根拠抽出には,各データベースフィールドタグの分類器で学習された素性の重みを用いる.入力の発話チャンク中で,あらかじめ決めた閾値以上の重みを持つ単語を全て抽出し,それらを分類の根拠とする.素性の重みは,{式~(\ref{eq:weight-normalisatoin})}によって0から1に正規化する.ここで,$w$は正規化前の重み,$w_{\min}$と$w_{\max}$はそれぞれ,学習データに含まれる単語の重みの最小値と最大値である.\begin{equation}\hat{w}=\frac{w-w_{\min}}{w_{\max}-w_{\min}}\label{eq:weight-normalisatoin}\end{equation}\subsection{RCNNによる手法}我々は,\citeA{Lei2016}が提案した手法を拡張し,我々の課題に利用する.Leiらの手法は,商品レビューのテキストが入力として与えられたとき,それぞれの評価項目についてのユーザ評価を回帰によって推定し,その結果の根拠となる部分を入力テキストから抽出するものである.彼らのシステムは,回帰問題を解くニューラルネットワーク(エンコーダ)と根拠の抽出を行うニューラルネットワーク(ジェネレータ)の2つの要素からなる.エンコーダの学習はレビューテキストに対する真のユーザ評価を用いた教師あり学習によって行われる.一方,ジェネレータの学習は教師なし学習で行われる.彼らは,より短く,より連続した単語列が根拠として好ましいと仮定し,ジェネレータがそのような根拠抽出を行うよう損失関数を設計している.また,エンコーダは,ジェネレータが正しく根拠を抽出していると仮定し,ジェネレータによって抽出された単語のみをユーザ評価の推定に用いる.彼らは,教師あり学習でエンコーダの性能を向上させることで,間接的にジェネレータの性能を向上させることを狙っている.我々の課題は,入力の発話チャンクからデータベースフィールドへのマルチラベル分類である.RCNNによる手法も,SVMによる手法と同様に,マルチラベル分類を各データベースフィールドへの二値分類として扱う.それぞれの二値分類とその根拠抽出を行うためにLeiらの手法を利用する.本論文で用いる,1つのデータベースフィールドに対するエンコーダとジェネレータのネットワークをそれぞれ図\ref{fig:encoder},図\ref{fig:generator}に示す.\begin{figure}[b]\begin{center}\includegraphics{26-1ia5f2.eps}\end{center}\caption{エンコーダ}\label{fig:encoder}\end{figure}\begin{figure}[t]\begin{center}\includegraphics{26-1ia5f3.eps}\end{center}\caption{ジェネレータ}\label{fig:generator}\end{figure}$\bm{x}_t$を入力発話チャンクの$t$番目の単語の埋め込みベクトルとすると,エンコーダは,入力発話チャンクに対するそのデータベースフィールドへの二値分類の推定結果$\tilde{y}\in[0,1]$を,\begin{align}\bm{h}_t&=\begin{dcases}f_e(\bm{x}_t,\bm{h}_{t-1})&(\tilde{z}_t=1)\label{eq:encoder_hidden}\\\bm{h}_{t-1}&(\tilde{z}_t=0)\end{dcases}\\\tilde{y}&=\sigma_e(W^e\bm{h}_m+\bm{b}^e)\end{align}によって計算する.ここで,$\bm{h}_t$は$t$番目の単語までの隠れ状態ベクトルを表し,$\tilde{z}_t\in\{0,1\}$は後述するジェネレータによって$t$番目の単語が根拠として抽出されるかどうかを表す.$f_e$は各時点の入力と直前の隠れ状態ベクトルを受け取り,次の隠れ状態ベクトルを計算する関数であり,詳細は後述する.式(\ref{eq:encoder_hidden})では,$\tilde{z}_t=1$である場合にのみ隠れ状態ベクトルを更新する.これは根拠として選択された単語のみを二値分類に使用することを意味する.最終的な出力は,最後の隠れ状態ベクトル$\bm{h}_m$をさらに,重み行列が$W^e$,バイアスが$\bm{b}^e$,活性化関数がシグモイド関数$\sigma_e$である順伝播型ニューラルネットワーク(FFNN)に入力した結果である.Leiらの手法では回帰問題を解くために損失関数として二乗損失を用いているが,我々は二値分類を解くため,代わりに以下の交差エントロピーをエンコーダの損失関数$\mathcal{L}(\tilde{y},y)$として使用する.\begin{equation}\mathcal{L}(\tilde{y},y)=-(y\log(\tilde{y})+(1-y)\log(1-\tilde{y}))\end{equation}ここで$y\in\{0,1\}$は二値分類の正解である.ジェネレータは以下の式によって,$t$番目の単語を根拠として抽出するかどうかを表す$\tilde{z}_t\in\{0,1\}$を計算する.{\allowdisplaybreaks\begin{align}\overrightarrow{\bm{h}}_t&=\overrightarrow{f}(\bm{x}_t,\overrightarrow{\bm{h}}_{t-1})\\\overleftarrow{\bm{h}}_t&=\overleftarrow{f}(\bm{x}_t,\overleftarrow{\bm{h}}_{t+1})\\p(\tilde{z}_t|\bm{x}_{1,{t-1}},\tilde{z}_{1,t-1})&=\sigma_z(W^z[\overrightarrow{\bm{h}}_t;\overleftarrow{\bm{h}}_t;\bm{s}_{t-1}]+\bm{b}^z)\\\tilde{z}_t&\simp(\tilde{z}_t|\bm{x}_{1,{t-1}},\tilde{z}_{1,t-1})\label{eq:sampling}\\\bm{s}_t&=f_z([\overrightarrow{\bm{h}}_t;\overleftarrow{\bm{h}}_t;\tilde{z}_t],\bm{s}_{t-1})\end{align}}ここで,$\overrightarrow{\bm{h}}_t,\overleftarrow{\bm{h}}_t$はそれぞれ単語列を右向き,左向きに入力したときの隠れ状態ベクトルを表し,$\overrightarrow{f},\overleftarrow{f}$はそれぞれの隠れ状態ベクトルを更新する関数である.また,隠れ状態ベクトル$\bm{s}_t$は,$t$単語目までに,どのような単語を根拠として抽出したかを保存するためのベクトルである.これらの3つの隠れ状態ベクトルを連結して,重み行列が$W^z$,バイアスが$\bm{b}^z$,活性化関数がシグモイド関数$\sigma_z$であるFFNNに入力し,$\tilde{z}_t$の確率分布$p(\tilde{z}_t|\bm{x}_{1,{t-1}},\tilde{z}_{1,t-1})$を推定する.$\bm{x}_{1,{t-1}}$は1単語目から$t$単語目までの埋め込みベクトルの列を表し,$\tilde{z}_{1,t-1}$は1単語目から$t-1$単語目までの根拠抽出の推定結果を表す.式(\ref{eq:sampling})は,推定した確率分布$p(\tilde{z}_t|\bm{x}_{1,{t-1}},\tilde{z}_{1,t-1})$からサンプリングを行い,$\tilde{z}_t$の値を決定する操作を表す.$\tilde{z}_t$は前述の通りエンコーダに入力する.また,$\tilde{z}_t$を$\overrightarrow{\bm{h}}_t,\overleftarrow{\bm{h}}_t$と連結し,関数$f_z$によって隠れ状態ベクトル$\bm{s}_t$を更新する.ジェネレータには,根拠抽出の正解を与えないが,代わりに根拠として望ましい性質を満たすよう損失関数を設計する.Leiらの手法と同様に,短く,連続した単語列が根拠として望ましいという仮定に基づき,式(\ref{eq:gen-loss})のように損失関数を定義する.\begin{equation}\Omega(\tilde{z}_{1,m})=\lambda_1\sum_{t=1}^{m}\tilde{z}_t+\lambda_2\sum_{t=1}^m|\tilde{z}_t-\tilde{z}_{t-1}|.\label{eq:gen-loss}\end{equation}ここで,$\tilde{z}_0=0$とする.式(\ref{eq:gen-loss})の第1項は根拠が短くなることを,第2項は根拠が連続することを,それぞれ促す罰則項である.これら2つの罰則項のバランスを調整するために2つのハイパーパラメータ$\lambda_1$と$\lambda_2$がある.エンコーダとジェネレータを合わせた全体の損失関数を,\begin{equation}\mathrm{cost}(\tilde{z}_{1,m},\bm{x}_{1,{m}},y)=\mathcal{L}(\tilde{y},y)+\Omega(\tilde{z}_{1,m})\label{eq:cost}\end{equation}とする.エンコーダとジェネレータにおいて,隠れ状態ベクトルの更新に用いる関数$f_e,\overrightarrow{f},\overleftarrow{f},f_z$はすべて,以下のように,入力ベクトル列のbi-gramまでの畳み込みを用いて次の時刻の状態を計算する.\begin{align}\lambda_t&=\sigma(W^\lambda\bm{x}_t+U^\lambda\bm{h}_{t-1}+\bm{b}^\lambda)\\\bm{c}_t^{(1)}&=\lambda_t\bm{c}_{t-1}^{(1)}+(1-\lambda_t)(W_1\bm{x}_t)\\\bm{c}_t^{(2)}&=\lambda_t\bm{c}_{t-1}^{(2)}+(1-\lambda_t)(\lambda_t\bm{c}_{t-1}^{(1)}+W_2\bm{x}_t)\\\bm{h}_t&=\tanh(\bm{c}_t^{(2)}+\bm{b})\end{align}$\bm{x}_t$は時刻$t$の入力ベクトル,$\bm{h}_{t-1}$は時刻$t-1$の隠れ状態ベクトルである.$\lambda_t$は忘却係数であり,$\bm{x}_t$と$\bm{h}_{t-1}$によって計算する.$\bm{c}_t^{(n)}$は$n$-gramまでの畳み込みベクトルであり,ここではbi-gramまでを使用し,次の時刻の状態$\bm{h}_{t}$を計算する.\subsection{注意機構を用いた系列変換による手法}対話データからスロットフィリングを行う手法として\citeA{Hori2016}が提案する注意機構を用いた系列変換による手法を我々の課題に適用する.この手法は,DialogStateTrackingChallenge5\cite{Kim2016_5th}のために提案された手法であり,入力として対話中の単語列を受け取ってスロットと値の組の系列を出力する.我々の課題では,出力をデータベースフィールドタグの系列とする.この手法では,SVMやRCNNによる手法とは異なり,1つのネットワークによりマルチラベル分類を行う.系列変換のネットワークは,エンコーダとデコーダの2つの部分からなる.$\bm{x}_t(1\leqt\leqm)$を入力発話チャンクの$t$番目の単語の埋め込みベクトルとすると,エンコーダでは以下の双方向LSTMを用いて,各単語に対応する隠れ状態ベクトル$\bm{h}_t$を計算する.\begin{align}\bm{h}_t&=[\bm{h}^{(f)}_t;\bm{h}^{(b)}_t],\\\bm{h}^{(f)}_t&=LSTM(\bm{x}_t,\bm{h}^{(f)}_{t-1}),\\\bm{h}^{(b)}_t&=LSTM(\bm{x}_t,\bm{h}^{(f)}_{t+1}).\end{align}また,デコーダでは,注意機構によって重み付けした各単語の隠れ状態ベクトルを用いて,データベースフィールドタグの系列を出力する.$i$番目の出力における$t$番目の単語の隠れ状態ベクトルに対する重み$\alpha_{i,t}$を,\begin{align}\alpha_{i,t}&=\frac{\exp(e_{i,t})}{\sum_{t=1}^m\exp(e_{i,t})},\\e_{i,t}&=\bm{w}^T\tanh(W\bm{s}_{i-1}+V\bm{h}_{t}+\bm{b}).\end{align}によって計算する.ここで,$\bm{w},\bm{b}$はベクトルであり,$W,V$は行列である.デコーダでは$\alpha_{i,t}$によって重み付けしたエンコーダの隠れ状態ベクトルの和$\bm{g}_i=\sum_{t=1}^m\alpha_{i,t}\bm{h}_t$をLSTMに入力し,各データベースフィールドの確率を表すベクトル$\bm{p}_i$を出力する.\begin{align}\bm{s}_{i}&=LSTM(\bm{s}_{i-1},\bm{y}_i,\bm{g}_i),\\\bm{p}_i&=\mathrm{softmax}(W_{SO}\bm{s}_{i-1}+W_{GO}\bm{g}_i+\bm{b}_{SO}).\end{align}ここで,$\bm{y}_i$は,$i$番目の出力を表すベクトルであり,学習時には正解のベクトルを与え,テスト時には以下のように$\bm{p}_i$から最も確率の高いデータベースフィールドを推定したベクトル$\tilde{\bm{y}}_i$を与える.\begin{equation}(\tilde{\bm{y}}_i)_j=\begin{dcases}1&(j=\argmax_{k}(\bm{p}_i)_k)\\0&(otherwise)\end{dcases}\end{equation}$\bm{y}_i$は出力するデータベースフィールドに対応する要素のみが1で,残りが0であるようなベクトルである.本来,各発話チャンクに付与されるデータベースフィールドタグは系列では無いが,本手法で学習データとして与える際には,対応する添字の小さい順に正解のベクトルを作成し系列として与える.学習時の損失関数には交差エントロピー損失を用いる.\citeA{Hori2016}の手法では根拠抽出を行っていないが,我々は注意機構により計算される重み$\alpha_{i,t}$が閾値よりも大きい単語を,$i$番目に出力されるデータベースフィールドの根拠として抽出する.閾値には,定数か,各発話チャンクに含まれる単語数の逆数を用いる.単語数の逆数を閾値に用いる理由は,発話チャンク中の単語数の違いを考慮するためである.注意機構による重みは各発話チャンクの単語全体で1となるため,仮に全単語に均等な重みを割り当てた場合,単語数が多いほど各単語に割り当てられる重みは小さくなる.したがって,定数の閾値を用いた場合,発話チャンク中の単語数によって閾値の価値が変わってしまう.このため,単語数の逆数を閾値とする場合の実験も行う. \section{評価実験} \subsection{データ}\label{sec:experiments-data}我々は,コーパス中の986対話を,客のプロファイルの分布を保ちながら10分割し,そのうち9つを学習データ,残り1つをテストデータとして用いた.そして,\ref{sec:data-tasksetting}節で説明したように非明示的条件を含む発話チャンクを抽出した.その際,発話チャンク内のユーザ発話が,挨拶や対話の開始,終了のような対話管理レベルの発話であるような発話チャンクは除いた.学習データは2,379個,テストデータは263個の発話チャンクからなる.それぞれの発話チャンク内のユーザ発話には,\ref{sec:data-tasksetting}節で説明したように,【その他】タグとその意味内容の記述が付与されている.我々は,意味内容の記述をデータベースフィールドタグに写像することで,分類の正解を発話チャンクに付与した.例えば,「一人暮らしをしたいのですが」という発話に付与された「住む人数」という意味内容の記述は,【間取りタイプ】と【専有面積】の2つのタグに写像される.また,分類の正解として付与されたそれぞれのデータベースフィールドに対して,発話チャンク中の各単語がそのフィールドへの分類の根拠に含まれるか否かを付与し,これを根拠抽出の正解とした.これらのアノテーションは著者のうち1人が行った.\subsection{実験設定}\label{sec:settings}データ数の制約から,本論文では【周辺環境】,【間取りタイプ】,【専有面積】,【一部屋の広さ】,【エリア】の5つのデータベースフィールドタグについてのみ評価を行う.これらは,最も多くの発話チャンクに付与された5つのタグである.学習データ中でそれぞれのタグが付与された発話チャンク数は,【周辺環境】について1,033,【間取りタイプ】について974,【専有面積】について964,【一部屋の広さ】について927,【エリア】について778である.学習データにおける38種類のデータベースフィールドタグの分布を図~\ref{fig:tag_distribution}に示す.\begin{figure}[b]\begin{center}\includegraphics{26-1ia5f4.eps}\end{center}\caption{学習データにおける各データベースフィールドタグの分布}\label{fig:tag_distribution}\end{figure}SVMによる手法には,単語を根拠として抽出するかを決定するための,素性の重みの閾値がハイパーパラメータとして存在する.このハイパーパラメータを決定するために,学習データ中から【周辺環境】が付与された発話チャンクをランダムに200個抽出し,開発データとした.そして,残りの学習データでSVMによる手法の学習を行い,開発データによって評価を行った.その結果,閾値を0.58とした場合に開発データにおいて最も良い性能を示したため,このハイパーパラメータを5つのタグについての評価実験で使用した.1つの発話チャンクに対する素性ベクトルの次元数は1,730である.また,不均衡データに対応するためにSVMの正例(負例)に対する正則化パラメータ$C$を$全事例数/(2\times正例(負例)の数)$とすることにより重み付けを行った.RCNNによる手法には,抽出する根拠の単語長と根拠の連続性のバランスを調整する2つのハイパーラパメータ$\lambda_1$,$\lambda_2$がある.SVMによる手法で使用したものと同じ開発データを用い,同様の方法で最適なパラメータを求めた結果,$\lambda_1=0.021$,$\lambda_2=0.003$であった.また,学習時の初期パラメータを,ランダムな値とする場合と,開発データで学習したネットワークのパラメータとする場合の2種類の設定で実験を行う.開発データで学習したパラメータを初期値として用いる理由は,【周辺環境】についての学習を通して,他のデータベースフィールドタグに共通の表現を学習していることを期待するためである.単語埋め込みベクトルとして,学習済みの日本語Wikipediaエンティティベクトル\footnote{http://www.cl.ecei.tohoku.ac.jp/{\textasciitilde}m-suzuki/jawiki\_vector/}を用いた.各単語ベクトルの次元数は200である.エンコーダおよびジェネレータの隠れ状態ベクトルは$\bm{s}_t$を除き200次元とし,$\bm{s}_t$は30次元とした.これらの設定は,\citeA{Lei2016}と同一である.その他の学習の設定は表~\ref{tab:settings}の通りである.ドロップアウトは,\citeA{Lei2016}による実装と同様に$\bm{s}_t$以外の全ての結合に適用した.ネットワークの総パラメータ数は694,319である.注意機構を用いた系列変換による手法においても,各単語を根拠として抽出するかどうかを決定するための,注意機構の重みの閾値がハイパーパラメータとして存在する.RCNNによる手法,SVMによる手法と同様の開発データを用い,同様の方法で最適な閾値を求めた結果,その値は0.0525であった.\citeA{Hori2016}の手法では入力の単語埋め込みの学習も行っているが,ここでは,分類・根拠抽出部分の比較を行うために,RCNNによる手法と同様の学習済みの単語埋め込みベクトルを用いる.エンコーダおよびデコーダの隠れ状態ベクトルは\citeA{Hori2016}に倣い50次元とした.その他の学習の設定は表~\ref{tab:settings}の通りである.ドロップアウトは全ての結合に適用した.ネットワークの総パラメータ数は151,889である.\begin{table}[t]\caption{ニューラルネットワーク手法の学習設定}\label{tab:settings}\input{05table03.tex}\end{table}\subsection{評価尺度}各データベースフィールドの二値分類の評価尺度として精度,再現率,F値を使用する.根拠抽出の評価は,分類に正解した事例のみに対して行い,評価尺度としてBLEU~\cite{BLEU}とROUGE~\cite{ROUGE}を用いる.また,これらの尺度の類推として,$N$-gramまでのF値の幾何平均も評価に用いる.$N$-gramまでのBLEU,ROUGE,F値の幾何平均を,それぞれBLEU-$N$,ROUGE-$N$,F-$N$とすると,これらは次のように計算できる.まず,$\tilde{\bm{z}}=(\tilde{z}_1,\tilde{z}_2,\cdots,\tilde{z}_m)$と$\bm{z}=(z_1,z_2,\cdots,z_m)$を,それぞれ推定された根拠と正解の根拠を表す二値ベクトルとする.ここで,$\tilde{z}_j,z_j\in\{0,1\}\(1\leqj\leqm)$であり,これらのベクトルの要素が1となることは,対応する位置の単語が根拠として選択されることを意味する.推定された根拠と正解の根拠に含まれる$n$-gramの集合をそれぞれ$\tilde{G}_n$,$G_n$とし,式~(\ref{eq:Gn'}),(\ref{eq:Gn})によって定義する.\begin{align}\tilde{G}_n&=\left\{\{j\}_{j=t}^{t+n-1}\middle|1\leqt\leqm-n+1\land\left(\prod_{j=t}^{t+n-1}\tilde{z}_j\right)=1\right\},\label{eq:Gn'}\\G_n&=\left\{\{j\}_{j=t}^{t+n-1}\middle|1\leqt\leqm-n+1\land\left(\prod_{j=t}^{t+n-1}z_j\right)=1\right\}\label{eq:Gn}.\end{align}ここで$\{j\}_{j=t}^{t+n-1}$は$t$から$t+n-1$までのインデックスの系列を表す.これらの集合を用いて,BLEU-$N$,ROUGE-$N$,F-$N$をそれぞれ式(\ref{eq:BLEU}),(\ref{eq:ROUGE}),(\ref{eq:F})によって計算する.\begin{align}\mathrm{BLEU\mathchar`-}N&=\left(\prod_{n=1}^NP_n\right)^{1/N},\P_n=\begin{dcases}1&(|\tilde{G}_n|=0)\\\frac{|\tilde{G}_n\capG_n|}{|\tilde{G}_n|}&(\mathrm{otherwise})\end{dcases}\label{eq:BLEU},\\\mathrm{ROUGE\mathchar`-}N&=\left(\prod_{n=1}^NR_n\right)^{1/N},\R_n=\begin{dcases}1&(|G_n|=0)\\\frac{|\tilde{G}_n\capG_n|}{|G_n|}&(\mathrm{otherwise})\end{dcases}\label{eq:ROUGE},\\\mathrm{F\mathchar`-}N&=\left(\prod_{n=1}^NF_n\right)^{1/N},\F_n=\begin{dcases}0&(P_n+R_n=0)\\\frac{2P_nR_n}{P_n+R_n}&(\mathrm{otherwise})\end{dcases}\label{eq:F}.\end{align}ROUGE-$N$は一般的に$N$-gramのみの再現率を表すが,本稿では全ての$n$-gram$(n\leqN)$の再現率の幾何平均を表す.また,BLEUには短すぎる出力に対する罰則を導入することが一般的であるが,本稿の評価では,短すぎる出力に対してはROUGEの値が小さくなるため,BLEUに対する罰則は導入していない.根拠抽出の評価における$N$の範囲を定めるために,テストデータに対して各手法によって抽出された根拠,およびテストデータに付与された根拠抽出の正解に含まれる$n$-gramの数を調査した.その結果を表~\ref{tab:distribution}に示す.表中の「ランダム」と「事前学習」の行はそれぞれ,RCNNの初期パラメータをランダムな値とした場合と,\ref{sec:settings}~項で述べた開発データによって学習したパラメータとした場合の結果である.また,「Seq2Seq」は注意機構を用いた系列変換による手法の結果を表し,「定数」と「逆数」の行はそれぞれ,根拠抽出の閾値を定数とした場合と,発話チャンク中の単語数の逆数とした場合の結果である.閾値を定数とした系列変換による手法を除いて,5-gram以上は根拠抽出結果にほとんど含まれないことから,根拠抽出の評価は4-gramまで行えば十分である.したがって,根拠抽出の評価にはBLEU-1からBLEU-4,ROUGE-1からROUGE-4,F-1からF-4を用いる.\begin{table}[t]\caption{根拠抽出結果と正解の根拠に含まれる$n$-gramの数}\label{tab:distribution}\input{05table04.tex}\end{table}また,各事例ごとに式(\ref{eq:BLEU}),(\ref{eq:ROUGE}),(\ref{eq:F})にしたがってBLEU-$N$,ROUGE-$N$,F-$N$を計算すると,各事例中のn-gramの少なさから分母が0となることが多いため,全事例での評価にはマイクロ平均を用いる.\begin{table}[b]\caption{データベースフィールドへの分類結果}\label{tab:classification}\input{05table05.tex}\end{table}\begin{table}[b]\caption{【周辺環境】に対する根拠抽出結果}\label{tab:rationale-surrounding}\input{05table06.tex}\end{table}\subsection{実験結果}データベースフィールドへの分類結果を表~\ref{tab:classification}に示す.また,【周辺環境】,【間取りタイプ】,【専有面積】,【一部屋の広さ】,【エリア】に対する根拠抽出結果をそれぞれ表~\ref{tab:rationale-surrounding}から表~\ref{tab:rationale-zone}に示す.データベースフィールドへの分類については全体的に系列変換による手法が良好な結果を示した.なお,系列変換による手法では,根拠抽出の閾値の設定によらず分類結果は同じであるため,表~\ref{tab:classification}ではまとめて記載している.根拠抽出については全体的に,BLEU-$N$においてはSVMによる手法が,ROUGE-$N$においては,定数を閾値に用いた系列変換による手法がより高い評価値を示した.また,F-$N$は,$N=1$の場合はSVMによる手法の評価が高く,それ以上では系列変換による手法の評価が高かった.また,RCNNによる手法の2通りのパラメータの初期値による結果を比較すると,分類については【周辺環境】以外ではランダムな初期値としたほうが良好な結果であり,根拠抽出についてはあまり差がないことがわかる.\begin{table}[t]\caption{【間取りタイプ】に対する根拠抽出結果}\label{tab:rationale-plan}\input{05table07.tex}\end{table}\begin{table}[t]\caption{【専有面積】に対する根拠抽出結果}\label{tab:rationale-area}\input{05table08.tex}\end{table}\begin{table}[t]\caption{【一部屋の広さ】に対する根拠抽出結果}\label{tab:rationale-size}\input{05table09.tex}\end{table}【周辺環境】タグの根拠抽出について,各手法が正しく抽出できた例と抽出を誤った例を図~\ref{fig:evidence-examples}に示す.図中の網掛けされた単語または単語列は正解の根拠を,枠で囲まれた単語または単語列は各手法で抽出した根拠を表す.図中の発話チャンクa,d,gがそれぞれの手法で正しく根拠を抽出できた例である.ここで抽出できた根拠は,ユーザ発話に関係するデータベースフィールドについて質問するシステム発話を生成することに利用できる.例えば,発話チャンクdでは「治安」という根拠を抽出できているため,「治安のいいところがいいです。」というユーザ発話に対して,「『治安』を気にされているようですが,周辺環境のご希望はございますか?」という発話が可能である.\begin{table}[t]\caption{【エリア】に対する根拠抽出結果}\label{tab:rationale-zone}\input{05table10.tex}\end{table}\begin{figure}[t]\begin{center}\includegraphics{26-1ia5f5.eps}\end{center}\caption{【周辺環境】タグに対する根拠の抽出例(網掛け部:正解,枠囲み部:システムの出力)}\label{fig:evidence-examples}\end{figure}\subsection{考察}\subsubsection{SVMによる手法}【周辺環境】への分類において,正解は負例であるにも関わらず正例だと判断した例(偽陽性の誤り)は24例存在した.これらの事例を個々に分析した結果,正例によく出現する単語,すなわち大きな重みを持つ単語が発話チャンクに含まれるために正例だと判断された誤りが,24例中12例で最も多いことがわかった.これには,分類の手がかりとなる単語と頻繁に共起するものの単独では手がかりにならない単語が含まれる場合と,発話チャンクの分割方法に問題がある場合の2種類がある.前者の場合では,例えば「面」という単語は「治安」という【周辺環境】への強力な手がかりとなる単語と共起しやすいため,大きな重みを持つ.これは,「治安面」という名詞句としてや,「立地面」への希望を尋ねる不動産業者の質問に対してユーザが「治安の良い地域」と答える形で出現するためである.しかし,「面」という単語が含まれているだけでは【周辺環境】への手がかりとはならない.例えば,以下の発話チャンクには「面」という単語が含まれているものの,【周辺環境】を推論することができないため負例である.\begin{screen}\begin{itemize}\item[店:]お部屋の階数にご希望はございますか?\item[客:]セキュリティーの\ul{面}から2階以上がいいなと思ってます\end{itemize}\end{screen}発話チャンクの分割方法に問題がある例として,以下の発話チャンクにおける「治安面ですね。」のような,不動産業者が直前のユーザ発話への確認を行う部分に分類の手がかりとなる単語が含まれる場合がある.\begin{screen}\begin{itemize}\item[店:]\ul{治安面ですね。}子供が多いエリアがいいなどのご希望はございますか?\item[客:]そうですね。子どもが多いエリアを強く希望します。\end{itemize}\end{screen}これは本来直前の発話チャンクに含まれるべき部分であるが,今回は対話コーパス中の話者交替で機械的に発話チャンクを分割したため,このような例が発生した.一方,正解は正例であるにも関わらず負例だと判断した例(偽陰性の誤り)は23例存在した.そのうち7例については,式(\ref{eq:weight-normalisatoin})による正規化前の重みが負であり,その絶対値が大きい単語を含む例であった.これらの中には,1つの発話チャンク内で,【周辺環境】に加えてそれ以外のデータベースフィールドに関する言及のある場合があった.例えば,以下の発話チャンクには,「落ち着いた地域」という【周辺環境】を推論可能な表現に加え,「練馬区周辺」という具体的なエリアに対する言及も含まれている.\begin{screen}\begin{itemize}\item[店:]最寄り駅など、場所はどのあたりでお探しでしょうか?\item[客:]\ul{練馬区周辺}で\ul{落ち着いた地域}を希望します。\end{itemize}\end{screen}このうちの「区」という単語が,絶対値の大きな負の重みを持つために,この発話チャンクは負例だと判断された.これはこの手法がデータベースフィールドへのマルチラベル分類を,各データベースフィールドへの二値分類として扱い,他のデータベースフィールドについて考慮していないために発生した誤りである.また,偽陽性の誤りの場合と同様に,直前のユーザ発話に対する確認の部分が発話チャンクに含まれてしまい,そこに絶対値の大きな負の重みを持つ単語が存在することにより分類を誤った例もあった.根拠抽出を発話チャンク中の各単語が根拠に含まれるか否かの二値分類として考え,その混同行列を作成することで,どのような単語を根拠として誤って抽出したか,あるいはどのような単語を根拠として抽出できなかったかを分析する.表~\ref{tab:confusion}は【周辺環境】タグにおけるそれぞれの手法の混同行列であり,表中の数は単語数を表す.SVMによる手法の混同行列を見ると,正解の根拠に含まれるにも関わらず根拠として抽出できなかった単語が193語と多い.これらの単語の多くは,助詞であった.例えば,図~\ref{fig:evidence-examples}の発話チャンクbでは「が」や「に」などの助詞を抽出できていない.これは,SVMによる手法が素性として用いる単語に助詞が含まれていないためである.また,SVMによる手法で用いられる発話チャンクの素性はbag-of-wordsであり,単語の隣接を無視した素性となっていることも原因である.しかし,対話システムが,後続の処理において確認発話を生成する際には,これらの助詞も分類の根拠に含まれることが望ましく,SVMによる手法が助詞を含めて根拠を抽出できるよう素性を改良することが必要である.\begin{table}[p]\caption{【周辺環境】における根拠抽出の混同行列}\label{tab:confusion}\input{05table11.tex}\end{table}\begin{table}[p]\caption{根拠として抽出される平均単語数と平均区間数,および1区間あたりの平均単語数の比較}\label{tab:span-size}\input{05table12.tex}\end{table}表~\ref{tab:span-size}にそれぞれの手法で抽出された根拠と正解の根拠における1発話チャンクあたりの平均単語数と平均区間数および区間内単語数(1区間あたりの平均単語数)の比較を示す.ここで,区間とは,連続して根拠となる単語列のことを指す.表を見ると,SVMによる手法が抽出した根拠の単語数は,正解の根拠の単語数よりも特に少ない.また,1区間あたりの平均単語数(区間内単語数)はほぼ1であり,連続した単語列を根拠として抽出できていないことを示す.これは先述のとおり,助詞を根拠として抽出できなかったためである.\begin{figure}[p]\begin{center}\includegraphics{26-1ia5f6.eps}\end{center}\caption{SVMの素性の重みの大きさと正解の根拠に含まれる割合との関係}\label{fig:correlation}\end{figure}素性の重みの大きさと分類根拠としての正しさとの関係を調べるために,各単語の素性の重みの大きさとその単語がテストデータにおいて正解の根拠に含まれる割合を分析した.5つのデータベースフィールドタグについての分析結果を図~\ref{fig:correlation}に示す.図中の横軸は式(\ref{eq:weight-normalisatoin})によって0から1に正規化した素性の重みであり,縦軸は正解の根拠に含まれる割合である.5つのタグにおける,素性の重みの大きさと正解の根拠に含まれる割合との間のピアソンの積率相関係数はそれぞれ0.39,0.36,0.36,0.39,0.32であった.いずれも弱い正の相関であり,必ずしも重みの大きい単語が正解の根拠に含まれるわけではないことを示す.これは上述のように,単独では分類の手がかりとは考えられないにも関わらず,分類の手がかりとなる単語と共起しやすいために大きな重みを持ってしまう単語が存在するためである.例えば,図~\ref{fig:evidence-examples}の発話チャンクcでは,分類の誤り分析でも述べたように「面」という単語が大きな重みを持つために根拠として抽出されているが,正解の根拠には含まれていない.\subsubsection{RCNNによる手法}初期パラメータをランダムな値にした場合と開発データによって事前学習を行った場合では,【周辺環境】タグを除いて,ランダムな値とした場合が分類においてより良好な結果であった.これは,【周辺環境】の正例のみから作成した開発データで学習されたパラメータは,他のタグへの分類には有効ではないことを示す.一方,【周辺環境】においては性能が向上していることから,他のタグについても,タグごとの開発データを用いて事前学習を行うことで性能が向上する可能性がある.RCNNによる手法は,データベースフィールドへの分類を学習する際,発話チャンク中のすべての単語ではなく,分類の根拠として抽出された単語のみを使用する.したがって,データベースフィールドへの分類の性能が根拠抽出の性能に大きく依存することが予想できる.パラメータを事前学習したRCNNによる手法において分類の性能と根拠抽出の結果との関係を分析するために,テストデータ中の事例を分類が正解したか否かと,根拠抽出結果と正解の根拠との単語の重なりの有無に基づき4種類に分類する.ここで,根拠抽出結果$\tilde{\bm{z}}=(\tilde{z}_1,\tilde{z}_2,\cdots,\tilde{z}_m)$と正解の根拠$\bm{z}=(z_1,z_2,\cdots,z_m)$との単語の重なりがあるというのは,$\tilde{z}_t=z_t=1$なる$t$が少なくとも1つ存在することである.正解の根拠がアノテーションされているのは分類の正例のみであるため,この分析は分類の正例のみについて行う.【周辺環境】,【間取りタイプ】,【専有面積】,【一部屋の広さ】,【エリア】の5つのデータベースフィールドについて,テストデータ中の分類の正例を4種類に分類し,それぞれの事例数を数えた結果を表~\ref{tab:FN_TP_rationale}に示す.【周辺環境】において,重なりがある90例のうち73例(81\%)は分類結果が正解であるのに対し,重なりが無い23例中の正解は14例(60\%)にとどまっている.この傾向は他の4つのデータベースフィールドタグについても同様である.このことから,根拠抽出の性能とデータベースフィールドへの分類性能との間には相関があることがわかる.したがって,根拠抽出の性能を向上させることで分類の性能も向上する可能性がある.\begin{table}[b]\hangcaption{各データベースフィールドタグの正例を,分類が正解したか否かと,根拠抽出結果と正解の根拠との単語の重なりの有無に基づいて分類した結果}\label{tab:FN_TP_rationale}\input{05table13.tex}\end{table}\begin{table}[b]\hangcaption{RCNNによる手法のエンコーダに,ジェネレータの出力を入力した場合と正解の根拠を入力した場合の再現率}\label{tab:upperbound}\input{05table14.tex}\end{table}しかし,表~\ref{tab:FN_TP_rationale}は,RCNNによる手法の根拠抽出が完全に誤っているにも関わらず,分類に正解している例が存在することも示している.我々は【周辺環境】タグについて,推定の根拠と正解の根拠の重なりがないものの,分類に正解している14例(表~\ref{tab:FN_TP_rationale}中の,重なりが「無し」で分類が正解である例)について分析を行った.その結果,分類の手がかりとなっているものの,根拠の正解には含まれない単語があることがわかった.例えば,図~\ref{fig:evidence-examples}中の発話チャンクeでは,「近く」という単語が抽出されているが,この単語は,【周辺環境】タグへ変換する根拠とは言えず,正解としてアノテーションされていない.しかし,RCNNによる手法はこの例を正しく【周辺環境】タグへ分類することができていた.これは,「近く」という単語が学習データ中の正例において負例よりも2倍多く出現し,【周辺環境】タグへの分類の手がかりとなったためだと考えられる.これは,発話中で人間が分類の根拠だと考える部分と,RCNNによる分類器が手がかりとして使用する部分が異なるということを意味する.この解釈を裏付ける結果として,同じパラメータのエンコーダに対し,ジェネレータで抽出した単語を入力した場合と,根拠としてアノテーションされた単語,すなわち正解の根拠を入力した場合との分類結果の比較を表~\ref{tab:upperbound}に示す.ここで,根拠がアノテーションされているのは分類の正例のみであるため,再現率のみを示している.【専有面積】,【部屋の広さ】,【エリア】については,正解の根拠を分類に使用しているにも関わらず,再現率はジェネレータの出力を入力した場合よりも低いことがわかる.このことから,エンコーダが正しい分類を行うためには,人間が根拠であると考える部分だけでは不十分であると言える.データベースフィールドへの分類性能を向上させるためには,このような,根拠としてアノテーションされていないものの,分類に役立つ情報を利用できるよう手法を拡張する必要がある.表~\ref{tab:span-size}において,RCNNによる手法で抽出された根拠と正解の根拠とを比較すると,RCNNによる手法は正解よりも少ない単語を根拠として抽出している一方,抽出された区間数は正解よりも多い.その結果1区間あたりの平均単語数は正解の半分未満となったものの,SVMによる手法のそれよりは若干多く,より長い根拠を抽出していることがわかる.これが,RCNNによる手法がSVMによる手法よりも高いROUGEを達成した要因である.また,このことは,より連続した根拠を選ぶように設計したジェネレータの損失関数が期待通りのはたらきをしていることを示している.表~\ref{tab:confusion}を見ると,正解の根拠に含まれるにも関わらずRCNNによる手法が根拠として抽出できなかった単語は165単語と多い.これらの単語には「が」や「に」のような助詞が多く含まれていた.例えば,図~\ref{fig:evidence-examples}中の発話チャンクfでは,正解の根拠が「お買い物が便利」という単語列であるのに対し,推定した根拠では助詞である「が」を抽出できなかった.助詞はどのようなデータベースフィールドにおいても出現するため分類に重要な素性ではない.そのため,根拠として抽出することが出来なかったと考えられる.また,RCNNによる手法によって出力された【周辺環境】タグに対する根拠について個々に分析を行ったところ,テストデータ中のすべての事例において疑問符「?」の直後の単語を根拠として抽出することがわかった.疑問符はほとんどの場合において不動産業者による質問の最後の単語であり,その直後の単語というのはユーザ発話の一番最初の単語である.実際に,図~\ref{fig:evidence-examples}中の発話チャンクd,e,fのいずれにおいても,ユーザ発話の一番最初の単語が根拠として抽出されている.【周辺環境】タグへの分類の強力な手がかりとなる語として「治安」という単語があるが,学習データにおける「治安」の出現のうち41.3\%が疑問符の直後であるため,RCNNによる手法のジェネレータはこの共起を学習したと考えられる.しかし,実際のテストデータにおいて,疑問符の直後の単語が根拠の正解に含まれる例は全体の40.4\%であり,これによって根拠抽出の精度が低下した.RCNNによる手法がデータベースフィールドタグへの分類とその根拠抽出の両方において性能が低かった原因として,データの不足が考えられる.本論文では,学習データに2,379個の発話チャンクのみを使用したが,RCNNによる手法の元となる論文~\cite{Lei2016}では,約8万から9万のレビューテキストを用いている.我々の課題でもデータを増やすことによってRCNNによる手法の性能を改善できる可能性がある.\subsubsection{注意機構を用いた系列変換による手法}表~\ref{tab:span-size}を見ると,定数を根拠抽出の閾値として用いた場合は,正解と比較してより多くの単語を根拠として抽出している.閾値として単語数の逆数を用いた場合も,SVMやRCNNによる手法と比較するとより多くの単語を抽出しており,正解の単語数や区間内単語数により近い.これが,注意機構を用いた系列変換による手法が根拠抽出においてSVMによる手法やRCNNによる手法よりも良好な結果となった理由だと考えられる.図~\ref{fig:evidence-examples}の発話チャンクgは閾値として単語数の逆数を用いた場合の例であるが,SVMやRCNNによる手法で正しく抽出できた例(a,d)と比較すると,より長い根拠を抽出することができている.実際,SVMやRCNNによる手法で完全に正しい根拠を抽出できた例はいずれも1単語のみの根拠であるため,この手法は他の手法と比べてより長い根拠を正しく抽出できたと言える.一方,表~\ref{tab:confusion}を見ると,注意機構を用いた系列変換による手法の根拠抽出では,偽陽性の誤りが多く,余分な単語を抽出しすぎていることがわかる.特に,定数を閾値とした場合は,この誤りが非常に多い.図~\ref{fig:evidence-examples}の発話チャンクhは,定数を閾値とした場合の例であるが,正解が「治安」のみであるのに対し,推定結果では発話チャンクのほとんどの単語を根拠として抽出してしまっていることがわかる.これは,今回閾値として用いた値が0.0525と非常に小さかったためである.また,発話チャンクiも同様に定数を閾値とした場合の例であるが,「共働きで息子が保育園」という根拠を正しく抽出することができているが,「、」や「。」という,根拠にも分類の手がかりにもならない単語が抽出されてしまっている.これは,注意機構で計算されるこれらの単語の重みが比較的大きいことを示す.したがって,このような単語を抽出しないように,閾値の設定などの抽出方法を工夫する必要がある.\subsubsection{非明示的条件を含むか否かの分類}本論文では,あらかじめ非明示的条件を含むとわかっている発話チャンクのみに焦点を当て,データベースフィールドへの分類および根拠抽出の対象とした.しかし,実際の対話では,非明示的条件を含まない発話も対話システムに入力されるため,事前に各発話チャンクが非明示的条件を含むか否かの二値分類を行う必要がある.そこで,双方向RNN(Bi-RNN)と双方向LSTM(Bi-LSTM)による2つの二値分類手法を実装し,その性能を評価する.これらの手法では入力発話チャンク中の単語列を,順方向と逆方向のRNNまたはLSTMに入力し,それぞれの最終状態を連結したベクトルをFFNNへ入力することで,正負の二値を出力する.二値分類手法の学習およびテストには,非明示的条件を含まない発話チャンクも合わせた全ての発話チャンクを用いる.学習に用いる発話チャンクは13,034個であり,そのうち2,379個(18.3\%)が非明示的条件を含む.テストに用いる発話チャンクは1,430個であり,そのうち263個(18.4\%)が非明示的条件を含む.用いる単語埋め込みベクトルは\ref{sec:settings}項で述べたものと同様である.また,双方向RNNと双方向LSTMの隠れ状態ベクトルの次元数は200とし,その他の学習の設定は表~\ref{tab:settings}と同様である.二値分類の結果を表~\ref{tab:binary}に示す.これらのナイーブな手法で77.4\%のF値を達成できているため,さらに洗練された手法を用いることでより高い性能を達成できる可能性がある.\begin{table}[t]\caption{非明示的条件を含むか否かの二値分類結果}\label{tab:binary}\input{05table15.tex}\end{table} \section{結論} 本論文は,データベース検索を行うタスク指向対話を対象として,ユーザ発話中で明示的に述べられていないユーザ要求の解釈を行う課題を提案した.我々はこのように明示的に述べられないユーザ要求を非明示的条件と呼び,その解釈を,ユーザ発話を関連するデータベースフィールドに分類し,また同時にその根拠となるユーザ発話中の文字列を抽出する課題として定式化した.この課題に対する3つの手法として,サポートベクタマシン,回帰型畳込みニューラルネットワーク,注意機構を用いた系列変換による手法を実装した.不動産に関する対話のコーパスを利用した評価実験の結果,注意機構を用いた系列変換による手法がより良好な結果を示すことがわかった.本論文では,ユーザ発話をデータベースフィールドに分類することと,発話からその根拠を抽出することにのみ焦点を当てたが,実際にユーザ発話からデータベースクエリを生成するためには,データベースフィールドの値も抽出することが必要である.また,データベースフィールドの値を抽出することができれば,「一人暮らしということですので,間取りは1LDK以下でよろしいですか?」のようなユーザへの確認発話を生成することができる.そのためには実際の値を含むデータベースが必要となるため,この問題に取り組むことは今後の課題である.また,本論文で取り組んだのは,非明示的条件を含むユーザ発話を,発話ごとに解釈する自然言語理解の課題である.発話ごとに解釈した結果は文脈を考慮していないため,それまでの対話で既に言及されたデータベースフィールドを再び抽出してしまう可能性があり,そのまま対話システムに使用することは不適切である.DialogueStateTrackingChallenge5~\cite{Kim2016_5th}で行っているように,それまでにユーザが検索条件として指定したデータベースフィールドを内部状態として記憶しておき,ユーザ発話を解釈するたびにそれを更新する対話状態推定の課題に取り組む必要がある.本論文で提案した手法による分類結果を用いて,対話状態推定を行う手法を考案し,評価することは今後の課題である.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Bapna,Tur,Hakkani-T{\"{u}}r,\BBA\Heck}{Bapnaet~al.}{2017}]{Bapna2017}Bapna,A.,Tur,G.,Hakkani-T{\"{u}}r,D.,\BBA\Heck,L.\BBOP2017\BBCP.\newblock\BBOQSequentialDialogueContextModelingforSpokenLanguageUnderstanding.\BBCQ\\newblockIn{\BemProceedingsofthe18thAnnualSIGdialMeetingonDiscourseandDialogue(SIGDIAL2017)},\mbox{\BPGS\103--114}.\bibitem[\protect\BCAY{Celikyilmaz,Hakkani-t{\"{u}}r,\BBA\Tur}{Celikyilmazet~al.}{2012}]{Celikyilmaz2012}Celikyilmaz,A.,Hakkani-t{\"{u}}r,D.,\BBA\Tur,G.\BBOP2012\BBCP.\newblock\BBOQStatisticalSemanticInterpretationModelingforSpokenLanguageUnderstandingwithEnrichedSemanticFeatures.\BBCQ\\newblockIn{\BemSpokenLanguageTechnologyWorkshop(SLT),2012IEEE},\mbox{\BPGS\216--221}.\bibitem[\protect\BCAY{Chen,Liu,Yin,\BBA\Tang}{Chenet~al.}{2017}]{Chen:2017:SDS:3166054.3166058}Chen,H.,Liu,X.,Yin,D.,\BBA\Tang,J.\BBOP2017\BBCP.\newblock\BBOQASurveyonDialogueSystems:RecentAdvancesandNewFrontiers.\BBCQ\\newblock{\BemSIGKDDExplorationsNewsletter},{\Bbf19}(2),\mbox{\BPGS\25--35}.\bibitem[\protect\BCAY{Cohen}{Cohen}{1960}]{cohen1960coefficient}Cohen,J.\BBOP1960\BBCP.\newblock\BBOQACoefficientofAgreementforNominalScales.\BBCQ\\newblock{\BemEducationalandPsychologicalMeasurement},{\Bbf20}(1),\mbox{\BPGS\37--46}.\bibitem[\protect\BCAY{Dahl,Bates,Brown,Fisher,Hunicke-Smith,Pallett,Pao,Rudnicky,\BBA\Shriberg}{Dahlet~al.}{1994}]{Dahl:1994:ESA:1075812.1075823}Dahl,D.~A.,Bates,M.,Brown,M.,Fisher,W.,Hunicke-Smith,K.,Pallett,D.,Pao,C.,Rudnicky,A.,\BBA\Shriberg,E.\BBOP1994\BBCP.\newblock\BBOQExpandingtheScopeoftheATISTask:TheATIS-3Corpus.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponHumanLanguageTechnology},HLT'94,\mbox{\BPGS\43--48}.\bibitem[\protect\BCAY{Eric,Krishnan,Charette,\BBA\Manning}{Ericet~al.}{2017}]{Eric2017}Eric,M.,Krishnan,L.,Charette,F.,\BBA\Manning,C.~D.\BBOP2017\BBCP.\newblock\BBOQKey-ValueRetrievalNetworksforTask-OrientedDialogue.\BBCQ\\newblockIn{\BemProceedingsofthe18thAnnualSIGdialMeetingonDiscourseandDialogue(SIGDIAL2017)},\mbox{\BPGS\37--49}.\bibitem[\protect\BCAY{Fukunaga,Nishikawa,Tokunaga,Yokono,\BBA\Takahashi}{Fukunagaet~al.}{2018}]{Fukunaga2018}Fukunaga,S.,Nishikawa,H.,Tokunaga,T.,Yokono,H.,\BBA\Takahashi,T.\BBOP2018\BBCP.\newblock\BBOQAnalysisofImplicitConditionsinDatabaseSearchDialogues.\BBCQ\\newblockIn{\BemProceedingsofthe11thInternationalConferenceonLanguageResourcesandEvaluation(LREC2018)},\mbox{\BPGS\2741--2745}.\bibitem[\protect\BCAY{Gunning}{Gunning}{2018}]{XAI-Gunning}Gunning,D.\BBOP2018\BBCP.\newblock\BBOQExplainableArtificialIntelligence(XAI).\BBCQ\\newblock{\hfill\hfill\linebreak\ttfamilyhttps://www.darpa.mil/program/explainable-artificial-intelligence}\2018年11月7日閲覧.\bibitem[\protect\BCAY{Hakkani-T{\"{u}}r,Tur,Celikyilmaz,Chen,Gao,Deng,\BBA\Wang}{Hakkani-T{\"{u}}ret~al.}{2016}]{Hakkani-t2016}Hakkani-T{\"{u}}r,D.,Tur,G.,Celikyilmaz,A.,Chen,Y.-n.,Gao,J.,Deng,L.,\BBA\Wang,Y.-y.\BBOP2016\BBCP.\newblock\BBOQMulti-DomainJointSemanticFrameParsingUsingBi-DirectionalRNN-LSTM.\BBCQ\\newblockIn{\BemINTERSPEECH-2016},\mbox{\BPGS\715--719}.\bibitem[\protect\BCAY{Hemphill,Godfrey,\BBA\Doddington}{Hemphillet~al.}{1990}]{Hemphill:1990:ASL:116580.116613}Hemphill,C.~T.,Godfrey,J.~J.,\BBA\Doddington,G.~R.\BBOP1990\BBCP.\newblock\BBOQTheATISSpokenLanguageSystemsPilotCorpus.\BBCQ\\newblockIn{\BemProceedingsoftheWorkshoponSpeechandNaturalLanguage},HLT'90,\mbox{\BPGS\96--101}.\bibitem[\protect\BCAY{Hori,Wang,Hori,Watanabe,Harsham,Roux,Hershey,Koji,Jing,Zhu,\BBA\Aikawa}{Horiet~al.}{2016}]{Hori2016}Hori,T.,Wang,H.,Hori,C.,Watanabe,S.,Harsham,B.,Roux,J.~L.,Hershey,J.~R.,Koji,Y.,Jing,Y.,Zhu,Z.,\BBA\Aikawa,T.\BBOP2016\BBCP.\newblock\BBOQDialogStateTrackingwithAttention-basedSequence-to-sequenceLearning.\BBCQ\\newblockIn{\Bem2016IEEESpokenLanguageTechnologyWorkshop(SLT)},\mbox{\BPGS\552--558}.\bibitem[\protect\BCAY{Jaech,Heck,\BBA\Ostendorf}{Jaechet~al.}{2016}]{Jaech2016}Jaech,A.,Heck,L.,\BBA\Ostendorf,M.\BBOP2016\BBCP.\newblock\BBOQDomainAdaptationofRecurrentNeuralNetworksforNaturalLanguageUnderstanding.\BBCQ\\newblockIn{\BemINTERSPEECH-2016},\mbox{\BPGS\690--694}.\bibitem[\protect\BCAY{Kim,D'Haro,Banchs,Williams,Henderson,\BBA\Yoshino}{Kimet~al.}{2016}]{Kim2016_5th}Kim,S.,D'Haro,L.~F.,Banchs,R.~E.,Williams,J.~D.,Henderson,M.,\BBA\Yoshino,K.\BBOP2016\BBCP.\newblock\BBOQTheFifthDialogStateTrackingChallenge.\BBCQ\\newblockIn{\BemProceedingsofthe2016IEEEWorkshoponSpokenLanguageTechnology(SLT)},\mbox{\BPGS\511--517}.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2014}]{adam}Kingma,D.~P.\BBACOMMA\\BBA\Ba,J.\BBOP2014\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblock{\BemarXivpreprintarXiv:1412.6980}.\bibitem[\protect\BCAY{Lei,Barzilay,\BBA\Jaakkola}{Leiet~al.}{2016}]{Lei2016}Lei,T.,Barzilay,R.,\BBA\Jaakkola,T.\BBOP2016\BBCP.\newblock\BBOQRationalizingNeuralPredictions.\BBCQ\\newblockIn{\BemProceedingsofthe2016ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2016)},\mbox{\BPGS\107--117}.\bibitem[\protect\BCAY{Lin\BBA\Hovy}{Lin\BBA\Hovy}{2003}]{ROUGE}Lin,C.-Y.\BBACOMMA\\BBA\Hovy,E.\BBOP2003\BBCP.\newblock\BBOQAutomaticEvaluationofSummariesusingN-gramCo-occurrenceStatistics.\BBCQ\\newblockIn{\BemProceedingsofthe2003ConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguisticsonHumanLanguageTechnology-Volume1},\mbox{\BPGS\71--78}.\bibitem[\protect\BCAY{Liu\BBA\Lane}{Liu\BBA\Lane}{2016a}]{Liu2016b}Liu,B.\BBACOMMA\\BBA\Lane,I.\BBOP2016a\BBCP.\newblock\BBOQAttention-BasedRecurrentNeuralNetworkModelsforJointIntentDetectionandSlotFilling.\BBCQ\\newblockIn{\BemINTERSPEECH-2016},\mbox{\BPGS\685--689}.\bibitem[\protect\BCAY{Liu\BBA\Lane}{Liu\BBA\Lane}{2016b}]{Liu2016a}Liu,B.\BBACOMMA\\BBA\Lane,I.\BBOP2016b\BBCP.\newblock\BBOQJointOnlineSpokenLanguageUnderstandingandLanguageModelingwithRecurrentNeuralNetworks.\BBCQ\\newblockIn{\BemProceedingsofthe17thAnnualMeetingoftheSpecialInterestGrouponDiscourseandDialogue(SIGDIAL2016)},\mbox{\BPGS\22--30}.\bibitem[\protect\BCAY{Mesnil,Dauphin,Yao,Bengio,Deng,Hakkani-T{\"{u}}r,He,Heck,Tur,Yu,\BBA\Zweig}{Mesnilet~al.}{2015}]{Mesnil2015}Mesnil,G.,Dauphin,Y.,Yao,K.,Bengio,Y.,Deng,L.,Hakkani-T{\"{u}}r,D.,He,X.,Heck,L.,Tur,G.,Yu,D.,\BBA\Zweig,G.\BBOP2015\BBCP.\newblock\BBOQUsingRecurrentNeuralNetworksforSlotFillinginSpokenLanguageUnderstanding.\BBCQ\\newblock{\BemIEEE/ACMTransactionsonAudio,Speech,andLanguageProcessing},{\Bbf23}(3),\mbox{\BPGS\530--539}.\bibitem[\protect\BCAY{Mesnil,He,Deng,\BBA\Bengio}{Mesnilet~al.}{2013}]{Mesnil2013}Mesnil,G.,He,X.,Deng,L.,\BBA\Bengio,Y.\BBOP2013\BBCP.\newblock\BBOQInvestigationofRecurrent-Neural-NetworkArchitecturesandLearningMethodsforSpokenLanguageUnderstanding.\BBCQ\\newblockIn{\BemINTERSPEECH-2013},\mbox{\BPGS\3771--3775}.\bibitem[\protect\BCAY{Monroe}{Monroe}{2018}]{XAI-Monroe}Monroe,D.\BBOP2018\BBCP.\newblock\BBOQAI,ExplainYourself.\BBCQ\\newblock{\BemCommunicationsoftheACM},{\Bbf61}(11),\mbox{\BPGS\11--13}.\bibitem[\protect\BCAY{Papineni,Roukos,Ward,\BBA\Zhu}{Papineniet~al.}{2002}]{BLEU}Papineni,K.,Roukos,S.,Ward,T.,\BBA\Zhu,W.-J.\BBOP2002\BBCP.\newblock\BBOQBLEU:AMethodforAutomaticEvaluationofMachineTranslation.\BBCQ\\newblockIn{\BemProceedingsofthe40thAnnualMeetingonAssociationforComputationalLinguistics},\mbox{\BPGS\311--318}.\bibitem[\protect\BCAY{Ramshaw\BBA\Marcus}{Ramshaw\BBA\Marcus}{1995}]{ramshaw1995text}Ramshaw,L.\BBACOMMA\\BBA\Marcus,M.\BBOP1995\BBCP.\newblock\BBOQTextChunkingusingTransformation-BasedLearning.\BBCQ\\newblockIn{\Bem3rdWorkshoponVeryLargeCorpora},\mbox{\BPGS\82--94}.\bibitem[\protect\BCAY{Raymond\BBA\Riccardi}{Raymond\BBA\Riccardi}{2007}]{raymond2007generative}Raymond,C.\BBACOMMA\\BBA\Riccardi,G.\BBOP2007\BBCP.\newblock\BBOQGenerativeandDiscriminativeAlgorithmsforSpokenLanguageUnderstanding.\BBCQ\\newblockIn{\Bem8thAnnualConferenceoftheInternationalSpeechCommunicationAssociation},\mbox{\BPGS\1605--1608}.\bibitem[\protect\BCAY{Takahashi\BBA\Yokono}{Takahashi\BBA\Yokono}{2017}]{Yokono2017}Takahashi,T.\BBACOMMA\\BBA\Yokono,H.\BBOP2017\BBCP.\newblock\BBOQTwoPersonsDialogueCorpusMadebyMultipleCrowd-workers.\BBCQ\\newblockIn{\BemProceedingsofthe8thInternationalWorkshoponSpokenDialogueSystems(IWSDS2017)}.\newblock6pages.\bibitem[\protect\BCAY{Taylor}{Taylor}{1968}]{Taylor1968}Taylor,R.~S.\BBOP1968\BBCP.\newblock\BBOQQuestion-NegotiationandInformationSeekinginLibraries.\BBCQ\\newblock{\BemCollege\&ResearchLibraries},{\Bbf29}(3),\mbox{\BPGS\178--194}.\bibitem[\protect\BCAY{Vu,Gupta,Adel,\BBA\Schutze}{Vuet~al.}{2016}]{Vu2016}Vu,N.~T.,Gupta,P.,Adel,H.,\BBA\Schutze,H.\BBOP2016\BBCP.\newblock\BBOQBi-DirectionalRecurrentNeuralNetworkwithRankingLossforSpokenLanguageUnderstanding.\BBCQ\\newblockIn{\Bem2016IEEEInternationalConferenceonAcoustics,SpeechandSignalProcessing(ICASSP)},\mbox{\BPGS\6060--6064}.\bibitem[\protect\BCAY{Yao,Peng,Zhang,Yu,Zweig,\BBA\Shi}{Yaoet~al.}{2014}]{Yao2014}Yao,K.,Peng,B.,Zhang,Y.,Yu,D.,Zweig,G.,\BBA\Shi,Y.\BBOP2014\BBCP.\newblock\BBOQSpokenLanguageUnderstandingUsingLongShort-TermMemoryNeuralNetworks.\BBCQ\\newblockIn{\BemSpokenLanguageTechnologyWorkshop(SLT)},\mbox{\BPGS\189--194}.\bibitem[\protect\BCAY{Yao,Zweig,Hwang,Shi,\BBA\Yu}{Yaoet~al.}{2013}]{Yao2013}Yao,K.,Zweig,G.,Hwang,M.-y.,Shi,Y.,\BBA\Yu,D.\BBOP2013\BBCP.\newblock\BBOQRecurrentNeuralNetworksforLanguageUnderstanding.\BBCQ\\newblockIn{\BemINTERSPEECH-2013},\mbox{\BPGS\2524--2528}.\end{thebibliography}\begin{biography}\bioauthor{福永隼也}{2017年東京工業大学工学部情報工学科卒業.同年より東京工業大学情報理工学院修士課程在学中.学士(工学).言語処理学会会員.}\bioauthor{西川仁}{2006年慶應義塾大学総合政策学部卒業.2008年同大学大学院政策・メディア研究科修士課程修了.同年,日本電信電話株式会社入社.2013年奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.NTTメディアインテリジェンス研究所研究員を経て,2015年より東京工業大学情報理工学院助教.2017年IE経営大学院修士課程修了.博士(工学).自然言語処理,特に自動要約,自然言語生成の研究に従事.TheAssociationforComputationalLinguistics,言語処理学会,人工知能学会,情報処理学会各会員.}\bioauthor{徳永健伸}{1983年東京工業大学工学部情報工学科卒業.1985年同大学院理工学研究科修士課程修了.同年(株)三菱総合研究所入社.1986年東京工業大学大学院博士課程入学.現在,東京工業大学情報理工学院教授.博士(工学).専門は自然言語処理,計算言語学.情報処理学会,人工知能学会,言語処理学会,計量国語学会,AssociationforComputationalLinguistics,ACMSIGIR,CognitiveScienceSociety,InternationalCognitiveLinguisticsAssociation各会員.}\bioauthor{横野光}{2003年岡山大学工学部情報工学科卒業.2008年同大大学院自然科学研究科産業創成工学専攻単位取得退学.東京工業大学精密工学研究所研究員,国立情報学研究所特任研究員,同研究所特任助教を経て,2016年より株式会社富士通研究所研究員.博士(工学).意味解析の研究に従事.情報処理学会,人工知能学会,言語処理学会各会員.}\bioauthor{高橋哲朗}{2005年奈良先端科学技術大学院大学博士後期課程修了.博士(工学).同年株式会社富士通研究所入社.2008年〜2010年ニフティ株式会社にてWebサービス開発,2011年〜2012年マサチューセッツ工科大学にて客員研究員を経て,現在富士通研究所にて自然言語処理およびデータ分析の研究に従事.}\end{biography}\biodate\end{document}
V08N04-03
\section{はじめに} 自然言語をコンピュータで処理するためには,言語学的情報に基づいて構文解析や表層的意味解析を行うだけではなく,われわれが言語理解に用いている一般的な知識,当該分野の背景的知識などの必要な知識(記憶)を整理し,自然言語処理技術として利用可能な形にモデル化することが重要になっている.一般性のある自然言語理解のために,現実世界で成り立つ知識を構造化した知識ベースが必要であり,そのためには人間がどのように言葉を理解しているかを調べる必要があると考えている.初期の知識に関する研究では,人間の記憶モデルの1つとして意味的に関係のある概念をリンクで結んだ意味ネットワーク・モデルが提案されている.CollinsとLoftusは,階層的ネットワークモデル\cite{Collins1969}を改良し,意味的距離の考えを取り入れ活性拡散モデルを提案した\cite{Collins1975}.意味的距離をリンクの長さで表し,概念間の関係の強いものは短いリンクで結んでいる.このモデルによって文の真偽判定に関する心理実験や典型性理論\cite{Rosch1975}について説明した.大規模な知識ベースの例として,電子化辞書があげられる.日本ではコンピュータ用電子化辞書としてEDR電子化辞書が構築されている\cite{Edr1990}.WordNetはGeorgeA.Millerが中心となって構築した電子化シソーラスで,人間の記憶に基づいて心理学的見地から構造化されている\cite{Miller1993}.EDR電子化辞書やWordNetは自然言語処理分野などでもよく参照されている.連想実験は19世紀末から被験者の精神構造の把握など,臨床検査を目的として行なわれている.被験者に刺激語を与えて語を自由に連想させ,連想語の基準の作成・分析などの研究がある.50年代から臨床診断用としてだけでなく,言語心理学などの分野も視野にいれた研究が行なわれている.梅本は210語の刺激語に対し大学生1000人の被験者に自由連想を行ない,連想基準表を作成している\cite{Umemoto1969}.選定された刺激語は,言語学習,言語心理学の研究などに役立つような基本的単語とし,また連想を用いた他の研究との比較可能性の保持も考慮にいれている.しかし連想基準表を発表してから長い年月が経っており,我々が日常的に接する基本的単語も変化している.本研究では小学生が学習する基本語彙の中で名詞を刺激語として連想実験を行い,人間が日常利用している知識を連想概念辞書として構造化した.また刺激語と連想語の2つの概念間の距離の定量化を行なった.従来の電子化辞書は木構造で表現され,概念のつながりは明示されているが距離は定量化されておらず,概念間の枝の数を合計するなどのような木構造の粒度に依存したアドホックなものであった.今後,人間の記憶に関する研究や自然言語処理,情報検索などに応用する際に,概念間の距離を定量化したデータベースが有用になってくると考えている.本論では,まず連想実験の内容,連想実験データ修正の方法,集計結果について述べる.次に実験データから得られる連想語と連想時間,連想順位,連想頻度の3つのパラメータをもとに線形計画法によって刺激語と連想語間の概念間の距離の計算式を決定する.得られた実験データから概念間の距離を計算し連想概念辞書を作成する.連想概念辞書は,刺激語と連想語をノードとした意味ネットワークの構造になっている.次に,連想概念辞書から上位/下位階層をなしている意味ネットワークの一部を抽出,二次元平面で概念を配置してその特徴について調べた.また,既存の電子化辞書であるEDR電子化辞書,WordNetと本論文で提案する連想概念辞書の間で概念間の距離の比較を行ない,連想概念辞書で求めた距離の評価を行なう. \section{連想実験システム環境} 連想概念辞書を構築するために,連想実験システム環境を使用した.これは「連想実験システム」「データ修正・集計システム」「辞書構築システム」の3つから構成されている(図1).この連想実験システムを用いることで,キャンパスネットワークのオンラインシステム上で大規模な連想実験を行うことができる.また,蓄積された実験データについてはデータ修正・集計システムによって効率よく修正作業を行ない,連想概念辞書を作成する.以下で各システムの概要を述べる.\begin{figure}[htb]\begin{center}\atari(80,60)\caption{連想概念辞書構築の流れ}\end{center}\end{figure}\subsection{連想実験の実施}従来の連想実験では,自由連想の実験を行なって得た連想語を「上位,等位,下位」「属性」「部分−全体」「機能に関する語」という内包的意味関係の例として分類したもの\cite{miller1991}や,連想語の反応型の分類\cite{Yukawa1984}などがあるが,本実験では,名詞を刺激語として「上位概念」「下位概念」「部分・材料」「属性」「類義語」「動作」「環境」の7つの課題に関して連想を行ない,連想語を抽出した.概念体系を明らかにするためには「上位概念」「下位概念」という情報が必要になる.「部分・材料」「属性」は,概念そのものの特徴を抽出するための課題である.また「動作」は,その刺激語がどのような動作をともなって普段の日常生活で用いられているかをという名詞と動詞の共起情報を得るために課題とした.「環境」は,その刺激語が用いられる環境(状況)に関する文脈情報である.従来の電子化辞書には概念に関する上位および下位概念や,部分−全体,概念の特徴や類義語などの記述,また「動作」に関して格情報を記したものはあるが,密接に関連する「環境」を記述しているものは少ない.被験者に呈示する刺激語は,光村図書出版株式会社の「語彙指導の方法」\cite{Kai1996}に記載されている小学校の学習基本語彙の名詞から「果物」「野菜」「桜」「乗り物」「家具」「人間」などを中心として3〜4階層をなす上位および下位概念の語を用いた.刺激語数は100語である.被験者は慶應義塾大学湘南藤沢キャンパスの学部生と大学院生で,実験は刺激語ごとに被験者を50人とした.被験者には刺激語と7つの課題から連想する語をかな漢字変換システム(kinput2)を用いて任意の個数を入力させる.被験者に呈示する刺激語,および刺激語に対する7つの課題はランダムに呈示される.また,一人の被験者に呈示する刺激語は意味的に類似しているものをなるべく排除した.被験者に課した刺激語の連想実験をすべて終了すると,実験データは実験者のもとに送られる.\begin{center}表1刺激語「辞書」における一人の被験者の実験結果の例\vspace*{1ex}\begin{tabular}{|l|l|}\hline上位概念&\verb+{書物7}{本12}{文献18}+\\\hline下位概念&\verb+{英語辞典6}{国語辞典12}{漢和辞典19}+\\\hline部分・材料&\verb+{見出し語18}{語釈文33}{ページ38}{表紙44}+\\\hline属性&\verb+{難しい6}{わかりやすい11}{楽しい16}+\\\hline類義語&\verb+{辞典8}{事典17}+\\\hline動作&\verb+{読む5}{調べる11}{引く15}{探す19}{買う29}+\\\hline環境&\verb+{図書館6}{本屋27}+\\\hline\end{tabular}\end{center}表1は,刺激として「辞書」を呈示したときの被験者から送られてくる実験結果の例である.被験者は,刺激語「辞書」の上位概念を「書物」「本」「文献」の順番で連想している.連想語と共に記述してある数字は連想にかかった累積時間(秒)をあらわす.\subsection{データの修正作業と集計}被験者から送られてきた実験データには,課題を誤解して連想したり,単なる勘違いや変換ミスなどの記述,かな漢字変換で生じる漢字とひらがなの表記のゆれ,また送り仮名などの違いが見受けられる.たとえば,「海」の属性に「広い」と記述する被験者と「ひろい」とする被験者がいる.送り仮名の違いとしては,「気持ちいい」「気持いい」などがあげられる.このような被験者による記述のゆれを統一する必要がある.具体的な修正作業としては,誤解や勘違いは不使用語として削除する.課題にふさわしくない連想語は適切な課題の場所へ移動する.また7つの課題に分類できない連想語がある場合は「関連語」という課題をもうけ,そこに移動する.たとえば刺激語「犬」に対しての連想語「猫」などは「関連語」に移動する.また,固有名詞は概念の範疇に入らないので固有名詞辞書として別のリストに収集する.送り仮名などの表記のゆれの修正は特定の辞書における規則\cite{Dai1995}に従って修正する.修正したデータは刺激語ごとに集計し,辞書構築システムによって連想概念辞書,固有名詞辞書を作成する. \section{連想実験の集計結果} 図2は連想実験の結果を集計して連想語延べ数と異なり語数を各課題ごとにグラフ化したものである.連想語延べ数とは連想された語のすべての合計数のことである.異なり語数とは刺激語が違っていても同じ語が連想された場合,同じ単語として数えた合計数である.「上位概念」「部分・材料」「属性」「動作」「環境」では,異なり語数は連想語数にくらべて大幅に減少している.これにより各々の課題では様々な刺激語から同一の語を連想している場合が多いと考えられる.一方,「下位概念」「類義語」では連想語数と異なり語数の差があまりない.これは,刺激語特有の語を連想しており,同一の語を連想する場合が少ないことを示す.\begin{figure}\begin{center}\vspace*{4em}\begin{tabular}{ll}\begin{minipage}{300pt}\atari(91,86)\end{minipage}&\begin{minipage}{70pt}\atari(24,6)\end{minipage}\\\end{tabular}\vspace*{1em}\caption{課題ごとの連想語数と異なり語数}\end{center}\end{figure} \section{線形計画法による概念間距離の計算式の決定} 本研究では刺激語と連想語間の概念間の距離を(1)式で表わすように,連想時間$T$,連想順位$S$,連想頻度$F$の線形結合で表現できると仮定する\cite{Okamoto2000}.\begin{center}$D=\alpha\timesF+\beta\timesS+\gamma\timesT\cdots(1)$\\\vspace*{1em}\begin{tabular}{ll}$F=\frac{N}{n+\delta}$&$n=連想人数,n≧1$\\$\delta=\frac{N}{10}-1~~~~(N≧10)$&$N=被験者数$\\$S=\frac{1}{n}\sum^{n}_{i=1}s_{i}$&$s_{i}=被験者が連想した語の順位$\\$T=\frac{1}{n}\sum^{n}_{i=1}t_{i}\times\frac{1}{60}$&$t_{i}=被験者が連想に要した時間(秒)$\\\end{tabular}\end{center}\vspace*{1em}刺激語を$a$,連想語を$b$とした時,$i$番目の被験者が$b$を連想するのに要した時間を$t_{i}$,$a$から連想した語の中で$b$を連想している順位を$s_{i}$とする.(1)式の概念間の距離において,$F$は,連想人数$n$に補正値$\delta$を加えた値で被験者数$N$を割った値.$S$は,被験者が連想した語の順位を平均した値.$T$は,被験者が連想に要した時間を平均し単位を秒から分に変換した値である.これまでの概念間の距離の定量化の研究\cite{Okamoto1998,Okamoto1999}では,10人の被験者で連想実験を行ない,連想頻度を単純に$F=\frac{N}{n}$のように定めていたが,これでは被験者数を大幅に増加させたときに連想者数が少ないと${F}$の値が極端に大きくなり,連想者数が少ない連想語は距離も極端に大きくなってしまう.そこで補正値$\delta$を簡単な$N$の式としてもうけることで被験者数の変化から受ける影響を減らすことにした.$\delta$は被験者数の変化に関係なく$F$の最大値が10になるように定めた.このように正規化した値に基づいて(1)式のような線形の定式化を行なう.次に,$(1)$式の係数$\alpha,\beta,\gamma$の値を求めるために,次のように線形計画法を用いて,最適解を求めた.\begin{center}\begin{tabular}{|ll}最小化&$Z=c_{1}\times\alpha+c_{2}\times\beta+c_{3}\times\gamma\cdots(2)$\\条件&$\left\{\begin{array}{ll}a_{11}\times\alpha+a_{12}\times\beta+a_{13}\times\gamma=D_{1}&\cdots(3)\\a_{21}\times\alpha+a_{22}\times\beta+a_{23}\times\gamma=D_{2}&\cdots(4)\\\alpha,\beta,\gamma≧0&\cdots(5)\end{array}\right.$\end{tabular}\end{center}\vspace*{1em}目的関数を(2)式で表現し,これを最小化する.ここで係数$c_{1},c_{2},c_{3}$は$c_{1}≦c_{2}≦c_{3}$とする.これは連想データを観察した結果,連想頻度,連想順位,連想時間の順でデータとしての信頼性が高いからである.次に,境界条件として(3)式,(4)式を考える.刺激語と連想語の距離が最短になる場合を(3)式で表わし,「連想時間が短く」「一番最初に連想され」「被験者全員が連想した時」と仮定する.また,距離が長くなる場合を(4)式で表わし,「連想時間がある程度長く」「連想順位が大きく」「全被験者のうち一人だけが連想した語の時」と仮定する.パラメータ$c_{1},c_{2},c_{3},a_{11},a_{12},a_{13},a_{21},a_{22},a_{23},D_{1},D_{2}$を変化させながらシンプレックス法を用いて$\alpha,\beta,\gamma$の最適解を求める.以上より,目的関数の係数($c_{1},c_{2},c_{3}$)=(-10,-8,-1),($a_{11},a_{12},a_{13},D_{1}$)=(0.9,1.0,0.1,1.0),($a_{21},a_{22},a_{23},D_{2}$)=(10.0,7.0,1.0,10.0)の時,$\alpha=0.81,\beta=0.27,\gamma=0$となり,概念間の距離は以下のようになる.\begin{center}$D=0.81\timesF+0.27\timesS\cdots(6)$\end{center}(6)式では連想頻度$F$の係数が連想順位$S$の係数より大きく,連想人数が概念間の距離に与える影響は強い.多数の被験者が同一の語を連想している場合は,その連想語は刺激語にとって連想しやすい語であると考えられ,概念間の距離も短くなる.被験者によって著しく連想時間$T$に影響する要因があるため,$T$は,あまり信頼できる値とは言えず,$\gamma=0$となるのは,妥当であると考えられる.$T$に影響する要因には,被験者による誤差要因とシステムによる誤差要因があげられる.連想時間にはキーボードの入力時間や,かな漢字変換の時間も含まれているため,被験者のキーボード操作の熟達度が連想時間に著しく影響する.また,使用したkinput2はかな漢字変換システムとしてWnnを使用しており,ユーザー辞書登録と漢字変換の候補や表示順序が個人で違う場合などが誤差要因として考えられる.精度良く連想時間を得る心理学的手法はあるが,実験に時間を必要とし,刺激語数に大きな限界が生ずるため,ここでは採用しない.\bigskip\begin{figure}[htb]\begin{center}\atari(143,49)\caption{集計データから辞書作成までの流れ}\end{center}\end{figure}「データ修正・集計システム」から得られる集計データと,used-inパラメータから連想概念辞書を作成する(図3).used-inパラメータとは,刺激語が他の刺激語の連想語となっていた場合,逆引き情報として元の刺激語と課題を記述するもので,集計データから作成する.集計データに固有名詞が含まれると固有名詞辞書として連想概念辞書とは別にまとめる.\begin{figure}[htb]\begin{center}\atari(138,69)\vspace*{1em}\caption{刺激語「いす」に関する連想概念辞書の記述フォーマット}\end{center}\end{figure}図4では刺激語「いす」についての連想概念辞書の記述の例である.「いす」の上位概念として,まず「家具」が連想されており,続く右側の4つの数字は順に頻度(連想者数を被験者数で割った値),連想順位,連想時間,「いす」と「家具」の概念間の距離((6)式)である.「上位概念」の他に「下位概念」「部分・材料」「属性」「類義語」「動作」「環境」「関連語」の課題も同じ形式で記述してある.used-inでの「(家具~~~~~下位概念)」の項目は「いす」が「家具」という刺激語の下位概念として連想されたことを,また「(学校~~~~~部分材料)」の項目は「いす」が「学校」という刺激語の部分材料として連想されたことを示す.概念間の距離は,連想順位$S$の値にもよるが,おおよそ$1$〜$10$の間にある. \section{距離情報を用いた概念階層の特徴} \subsection{二次元での概念の配置}連想実験で用いた刺激語の中から「野菜」「ぶどう」「桜」「乗り物」を中心として3〜4階層をなす刺激語を選び,各々の上位概念,下位概念として連想されている語を二次元平面上に配置してその特徴を調べた.表2は使用した語の一覧である.\begin{center}表2選択した刺激語\vspace*{1ex}\begin{tabular}{|l|llllll|}\hline野菜&植物&食べ物&ニンジン&ホウレンソウ&&\\\hlineぶどう&植物&食べ物&果物&マスカット&&\\\hline桜&植物&木&八重桜&&&\\\hline乗り物&機械&自動車&スポーツカー&電車&新幹線&地下鉄\\\hline\end{tabular}\end{center}\begin{figure}[htb]\begin{center}\atari(136,87)\vspace*{1em}\caption{「マスカット」「ぶどう」「果物」を中心とした連想語の二次元配置}\end{center}\end{figure}図5では,「ぶどう」の上位概念として「果物」「植物」「生物」「食べ物」が連想されている.概念間の距離は「ぶどう」「果物」の間が1.24,「ぶどう」「植物」の間が2.87である.「果物」「植物」はどちらとも刺激語として連想実験を行っているので,「果物」では上位概念として「植物」を,下位概念として「ぶどう」を連想している.「ぶどう」「マスカット」から「果物」「食べ物」の概念間の距離は短く,「ぶどう」「マスカット」から「生物」までの距離は長くなっている.これは「ぶどう」「マスカット」という語は日常生活において食卓の上や果物屋という状況において用いられ,「食べ物」として取り扱う機会が多いためと思われる.「マスカット」から「果物」への間の距離は1.50で,「マスカット」から「植物」までの間の距離は4.02となっており,「果物」より上位の「植物」までの距離の方が長い.このように概念間の距離は,概念階層の深さの違いを反映していると考えられる.「植物」を間に挟んだ「果物」「植物」「生物」の3階層では,「果物」「生物」までの距離は「植物」を辿った距離の合計より長い.一方,「果物」を間に挟んだ「ぶどう」「果物」「食べ物」の3階層では,「ぶどう」「食べ物」までの距離は「果物」を辿った距離の合計より短い.ある刺激語からその上位概念までの距離は,概念によっては直接辿った距離が長い場合もあれば,短い場合もある.これは,概念間の距離は,2つの概念間の階層の数よりも,上位層の抽象度の高い概念であるか,あるいは下位層の具体的な概念であるかということや,2つの概念で同一の語が「属性」「部分・材料」「動作」「環境」などにおいて連想される度合いに関連してくるのではないかと考えている.\subsection{双方向にリンクのある概念対}図5の「マスカット」「ぶどう」「果物」のように上位・下位概念の双方でお互いが連想される場合がある.その時の概念間の距離は「マスカット」「ぶどう」のように上位概念から下位概念,下位概念から上位概念までの距離が共に2.0以下で短い場合や,「植物」「果物」にように下位概念から上位概念までの距離は短いが,上位概念から下位概念までの距離は長いなどの場合,またはその逆などがある.\begin{center}表3双方向にリンクのある概念対での概念間の距離の平均と分散\vspace*{1ex}\begin{tabular}{|l|r|r|}\hline&~~~~~~~~平均&~~~~~~~~分散\\\hline下位概念から上位概念までの距離&3.35&4.69\\\hline上位概念から下位概念までの距離&4.88&5.29\\\hline\end{tabular}\end{center}\vspace*{1ex}表3では,上位概念を連想する時のほうが,下位概念を連想する時よりも平均の距離が短い.これは身近で日常的な語であっても上位概念の方が下位概念よりも連想しやすいことを示している.「桜」を例にとると,「桜」の上位概念は「植物」「木」などを真っ先にあげることができる上,上位概念として連想しうる数は限られ,被験者の多くが「植物」「木」などを連想する.逆に「木」「植物」の下位概念としてすぐに「桜」が出てくるとは限らない.被験者の生活環境や経験などによって「木」「植物」の下位概念は多岐にわたってくると考えられる.また,「マスカット」と「果物」,「鏡」と「家具」などは,上位概念から下位概念までの距離が長く,連想しにくいものとなっていると考えられる.たとえば「鏡」の上位概念は「家具」であると連想した人が多く,「家具」の連想順位も高い.つまり,すぐに連想され,概念間の距離も短い.それに対して,「家具」の下位概念は「鏡」であると連想した人は少なく,「たんす」「いす」などの概念を連想するよりも後の順番に「鏡」が連想されており,連想した人も少ない.これによって「鏡」「家具」間の距離が長くなっている.つまり,「家具」の下位概念として「鏡」は典型的な例ではないといえる.一方,双方向のリンクの距離が共に短いものには「乗り物」「自動車」などのように上位概念・下位概念が,互いの語を連想しやすい関係であるということができる.これらは上位/下位関係として互いに典型的な例といえるだろう. \section{距離を用いた既存の電子化辞書との比較} 従来の電子化辞書にはコンピュータによる言語処理のためにわが国で開発されたEDR電子化辞書\cite{Edr1990}や,Princeton大学で開発されたWordNet\cite{Fellbaum1998,LenatandGeorgeandYokoi1993}などがある.初期の連想概念辞書とEDR電子化辞書,WordNetの概念体系の比較では,連想概念辞書はEDR電子化辞書よりもWordNetに近いことが報告されている\cite{Uchiyama1997}.マルチリンガル情報アクセスのためにEDR電子化辞書,WordNetの概念体系の比較も行なわれている\cite{Muchi1997,Ogino2000}.従来の辞書は,主に木構造の概念階層を持っており,距離は定量化されておらず,概念間の枝の合計数によるものが多かった.連想概念辞書は概念が,上位/下位関係のリンクでつながっているネットワーク構造と考えることができる(図5).そこで,本論では概念間の距離の計算は連想概念辞書のネットワークを有向グラフとし,概念間の最短経路を距離とした.EDR電子化辞書,WordNetでは,2つの概念間で木構造の枝の合計数のうち最小のものを距離として採用した.図6は乗り物について「自動車」「スポーツカー」「電車」「地下鉄」ごとに,その上位概念「乗り物」「道具」「機械」「物」までの距離を連想概念辞書,EDR電子化辞書,WordNetで比較しグラフ化したものである.\bigskip\begin{figure}[htb]\begin{center}\begin{tabular}{|cc|}\hline&\\\framebox(161,79){}&\framebox(161,79){}\\\framebox(161,87){}&\framebox(161,87){}\\\hline\end{tabular}\bigskip\caption{連想概念辞書,EDR,WordNetの概念間の距離の比較(乗り物)}\end{center}\end{figure}図6において「自動車」「スポーツカー」「電車」では連想概念辞書,EDRともに「乗り物」「機械」「道具」「物」と上位語になるにしたがって距離が大きくなっており,その距離はEDRの方が長い.「地下鉄」では連想概念辞書で上位語になるにしたがって距離が大きくなるが,EDRでは逆に距離が小さくなっている.これには,EDRには「地下鉄」の上位概念に「場所」「線路」の記述しかなく「乗り物」という観点で見た概念体系の記述がなかった点で他の辞書とは異なっていることが関係する.つまり,「地下鉄」では「乗り物」「機械」という上位概念がなく,「場所」としての観点しかなかったため,距離を計算すると「静物」で折り返して「機械」「乗り物」などの概念に到達するため,下位語になるにつれ距離が大きくなる.WordNetでは「自動車−機械」「自動車−道具」「自動車−物」までの距離がほぼ等しくなっている.また,このことは「スポーツカー」「電車」「地下鉄」おいても同様である.次に,「自動車」「スポーツカー」「電車」「地下鉄」から「乗り物」「機械」「道具」「物」までの距離を変数とし,3つの辞書ごとの「自動車」「スポーツカー」「電車」「地下鉄」をサンプルとして主成分分析を適用して寄与率,主成分値を計算した.\begin{figure}[htb]\begin{center}\vspace*{3em}\atari(103,88)\vspace*{3em}\caption{乗り物の概念間距離の主成分分析}\end{center}\end{figure}図7は第1,第2主成分の主成分値をもとにサンプルを二次元平面にプロットしたものである.第2主成分までの累積寄与率は$94.3\%$になった.二次元平面上でWordNetと連想概念辞書の概念の位置は近くにまとまり,EDRは「地下鉄」とそれ以外の概念の2つに分かれる.つまり3つの辞書の概念の位置はおおよそ3つグループにまとまっている.これは3つの辞書のうち連想概念辞書とWordNetとで概念間の距離が近い値をとり,概念体系が比較的似ている部分があることを表しているといえる.一方EDRは概念体系で「機能,形,評価」といった属性でまとめる中間ノードをもうけており,概念間の距離が全体的に長くなる.このため概念の配置が他と違う結果が出たと考えられる.次にデータをサンプルごとに変数の値を最大値が1になるように正規化した.主成分分析のためのデータを正規化することで,サンプルどうしの概念間距離の変化パターンを見やすく表示でき,容易に比較することができる.しかも正規化によってデータの相対的な位置関係などは保存できる.図8に示した正規化したデータの主成分分析では,第2主成分までの累積寄与率は$82.2\%$になった.WordNetや連想概念辞書,EDRのデータがそれぞれのかたまりに分かれており,しかもかたまりの中の分布も見やすくなっている.また,EDRのなかの地下鉄のように1点だけ離れたデータもそのように保存されて表示できている.\begin{figure}[htb]\begin{center}\vspace*{3em}\atari(103,88)\vspace*{3em}\caption{データを正規化した乗り物の概念間距離の主成分分析}\end{center}\end{figure}\begin{figure}[htb]\begin{center}\begin{tabular}{|cc|}\hline&\\\framebox(161,85){}&\framebox(161,85){}\\\framebox(161,85){}&\framebox(166,85){}\\\hline\end{tabular}\vspace*{1em}\caption{連想概念辞書,EDR,WordNetの概念間の距離の比較(植物)\\※「ぶどう」ではWNと連想のグラフは近接している.}\end{center}\end{figure}図9は,「植物」について「野菜」「ニンジン」「ホウレンソウ」「果物」「ぶどう」「マスカット」「桜」ごとに,その上位概念「植物」「生物」「物」までの距離を3つの辞書で比較したものである.「乗り物」の場合と同様,主成分分析を行ない寄与率,主成分値を計算した.図10は第1,第2主成分の主成分値をもとにサンプルを二次元平面にプロットしたものである.第2主成分までの累積寄与率は$96.8\%$になった.連想概念辞書とWordNetの概念の多くは主成分2軸(横軸)上付近に集まっている.一方,連想概念辞書の「桜」,WordNetの「桜」とWordNetの「果物」は単独で比較的離れて配置され,EDRの概念は図10の第2象限に配置される結果となった.\begin{figure}[htb]\begin{center}\vspace*{3em}\atari(108,88)\vspace*{2em}\caption{植物の概念間距離の主成分分析}\begin{tabular}{l}{\small※EDRぶどうにEDRマスカットが重なっている}\\{\small※EDRホウレンソウにEDR野菜,EDRニンジンが重なっている}\\\end{tabular}\vspace*{1em}\end{center}\end{figure}連想概念辞書の「桜」が他の概念と離れて配置されるのは,「桜」は日本人にとって春を代表するなじみのある植物であるため,多くの被験者が同じ語を連想し,他の辞書の場合に比べて概念間の距離が短くなったためと考えられる.WordNetの「桜(cherrytree)」では,fruittreeの下位語とされ,またtreeの1つ下の階層に175個もの概念があり,細分化されている.このため,階層の数が多くなり距離が長くなったと考えられる.よって「桜」では連想概念辞書,EDR,WordNetで,それぞれ異なった概念体系をなしている.WordNetの「果物」は「自然物」として見ると,{\small\verb+fruit->reproductivestructure->plantorgan->plantpart->naturalobject+}のように「植物」の部分なっているためplantやlivingthingに至るにはobjectを通過するので,objectの下位語になるほど距離が長く,右下がりのグラフを示した(図9).WordNetの「植物」に関しても他と異なる概念体系をなしているといえる.連想概念辞書とWordNetは文化の違い,構築するときの概念の階層の分け方の違いが見受けられる部分も存在するが,上記の分析からある程度近い概念構造を持っているのではないかと考えられる. \section{観点の違いについて} 連想概念辞書では「食べ物」「動物」「植物」の下位概念として連想された語も連想実験における刺激語として実験を行なっている.これらの刺激語の上位概念には「食べ物」という観点でみた連想語と「動植物」という観点でみた連想語の両方が連想される場合がある.連想概念辞書で,「魚」を刺激語にしてその環境を課題にした時の連想語には「魚」が生息している場所と考えられる語や,「魚」を商品,食べ物としてとらえるような状況で連想される語などがある.「魚屋」「スーパー」「台所」など人間が関与する場所・状況には「買う」「食べる」「調理する」などの動詞が共起されやすい.また,「食べ物」を刺激語として連想される形容詞(属性)には「おいしい」など味覚に関する形容詞の連想語が多く,「うれしい」などの心情語も連想されている.概念を観点の違いでとらえるには,上位・下位関係の他に,環境,動作,属性とのつながりを調べる必要がある.これによって文脈解析など高次の自然言語処理システムが望めるのではないかと考えている. \section{おわりに} 連想実験を行ない収集したデータから連想概念辞書を構築し,刺激語と連想語の距離を定量化した.線形計画法を用いることによって概念間の距離として(6)式が得られた.また,構築した連想概念辞書をもとに,連想された語を二次元平面に配置し,その特徴を調べた.連想概念辞書では,連想しやすい語ほど近くに配置され,2つの概念間の距離は短く,同一の「属性」「部分・材料」「動作」「環境」を連想している場合が多い.双方向にリンクのある概念対では,上位概念から下位概念までの距離と,下位概念から上位概念までの距離が等しくなるとは限らない.双方向の距離が共に短い場合は,上位/下位関係としてお互いに典型的な例となる語である可能性を持つ.上位概念を連想するより,下位概念を連想する方が多くの語が連想され,距離も長くなる場合が多いことが分かった.また,連想概念辞書とEDR,WordNetで概念間の距離について比較した.文化の違いや,概念階層の分け方の違いなど見受けられるが,概念間の距離に関しては連想概念辞書はEDRよりもWordNetに近い概念構造を持つことがわかった.今回構築した連想概念辞書は記述されている語彙が少なく網羅性という面で課題が残っているが,今後,連想実験での刺激語を増やしつつ辞書の整備をしていきたいと考えている.\acknowledgment本研究を進めるにあたって,連想実験の被験者の皆様に感謝いたします.適切な支援と実験を手伝ってくださった慶應義塾大学石崎研究室の皆様に,また実験データの修正を手伝ってくださった研究室の概念辞書班のメンバーに感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{岡本潤}{1997年慶應義塾大学環境情報学部卒.1999年慶應義塾大学大学院政策メディア研究科修士課程修了.同研究科博士課程在学中.}\bioauthor{石崎俊}{1970年東京大学工学部計数工学科卒,同助手を経て1972年通産省工業技術院電子技術総合研究所勤務,1985年推論システム研究室室長,自然言語研究室長を経て1992年から慶應義塾大学環境情報学部教授,1994年から政策メディア研究科教授兼任.自然言語処理,音声情報処理,認知科学などに興味を持つ.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V23N01-03
\section{はじめに} 近年Twitterによる人間同士の短文のやりとりを始めとしたインターネット上の大量の会話データから自動知識獲得\cite{Inaba2014}が可能になったことや,高性能な音声認識機能が利用可能なスマートフォン端末を多くの利用者が所有するようになったことで,雑談対話システムへの関心が,研究者・開発者側からも利用者側からも高まっている.対話システムが扱う対話は大きく課題指向対話と非課題指向対話に分けられるが,雑談は非課題指向対話に分類される.課題指向対話との違いについていえば,課題指向対話では対話によって達成する(比較的)明確な達成目標がユーザ側にあり,一般に食事・天気など特定の閉じたドメインの中で対話が完結するのに対し,雑談では,対話をすること自体が目的となり,明確な達成目標がないなかで多様な話題を扱う必要がある.また,課題指向対話では基本的に対話時間(目標達成までの時間)が短い方が望ましいのに対し,雑談ではユーザが望む限り対話を長く楽しめることが望まれる.そのため,適切な応答を返すという点において,雑談対話システムは,課題指向対話とは異なる側面で,様々な技術的困難さを抱える.これまで,雑談対話システムの構築における最も大きな技術的障壁の1つは,多様な話題に対応する知識(応答パターン)を揃えるコストであった.上記のように,この問題はインターネットからの自動獲得によって解消されつつある.また,ユーザを楽しませる目的\cite{Wallace2004,Banchs2012,Wilcock2013}だけであれば,システムがおかしな発言をしてしまうことを逆手にとって,適切な応答を返しつづける技術的な困難さを(ある程度)回避してしまうことも可能である.その一方で,雑談対話には,ユーザを楽しませるという娯楽的な価値だけでなく,ユーザとシステムの間の信頼関係の構築\cite{Bickmore2001}や,ユーザに関する情報(ユーザの好みやユーザの知識の範囲)をシステムが取得することでユーザによりよいサービスを提供することを可能にする\cite{bang2015},遠隔地にいる老齢ユーザの認知・健康状態を測定したり認知症の進行を予防する\cite{Kobayashi2011},グループ内のコミュニケーションを活性化し人間関係を良好にする\cite{Matsuyama2013},といった工学的・社会的価値が存在する.このため,情報爆発,少子高齢化,生活様式の多様化と急激な変化による人間関係の複雑化といった諸問題を抱える現代社会において,雑談対話技術の更なる高精度化,すなわち適切な応答を返しつづける能力の向上が今まで以上に求められている.雑談対話の高精度化のためには,現状の技術の課題をエラー分析によって特定することが必要である.しかしながら,課題指向対話,特に音声対話システムにおける,主に音声誤認識に起因するエラーに関しては一定量の先行研究が存在するが,テキストのレベルでの雑談対話に関するエラーの研究はまだ少なく,エラー分析の根本となる人・機械間の雑談対話データの蓄積もなければ,そのデータに含まれるエラーを分析するための方法論・分類体系も十分でない.雑談対話システムがその内部でエラーを起こせば対話の破綻が起こり,ユーザが円滑に対話を継続することできなくなる.しかし,対話システムは,形態素解析,構文解析,意味解析,談話解析,表現生成など多くの自然言語処理技術の組み合わせによって実現され,かつシステム毎に採用している方式・構成も異なるため,システム内部のエラーを直接分析することは困難であるし,システム間で比較したり,知見を共有することも容易ではない.そこで我々はまず雑談対話の表層に注目し,破綻の類型化に取り組んだ.本論文では,対話破綻研究を目的とした雑談対話コーパスの構築,すなわち人・機械間の雑談対話データの収集と対話破綻のアノテーションについて報告する.そして,構築したコーパスを用いた分析によって得た破綻の分類体系の草案を示し,草案に認められる課題について議論する.以降,\ref{sec:data}節で対話データの収集について説明する.今回,新たに対話データ収集用の雑談対話システムを1つ用意し,1,146対話の雑談対話データを収集した.\ref{sec:annotation1}節及び\ref{sec:annotation2}節では,上記の雑談対話データに対するアノテーションについて述べる.24名のアノテータによる100対話への初期アノテーションについて\ref{sec:annotation1}節で説明し,その結果を踏まえて,残りの1,046対話について,異なりで計22名,各対話約2名のアノテータが行ったアノテーションについて\ref{sec:annotation2}節で説明する.\ref{sec:categorization}節では,\ref{sec:annotation2}節で説明した1,046対話に対するアノテーション結果の分析に基づく,雑談対話における破綻の類型について議論する.\ref{sec:relatedwork}節で関連研究について述べ,\ref{sec:summary}節でまとめ,今後の課題と展開を述べる. \section{雑談対話データの収集} label{sec:data}本研究は,ProjectNextNLPの対話タスク\cite{NextNLPWS}の活動の一部として行われた.そのため,データ収集も対話タスクの参加者を中心に行った.本タスクに参加したのは,表\ref{members}に示す大学・企業を含む15の拠点からの総勢32名である.これは,対話システムに関する国内のプロジェクトとして最大級の規模である.雑談対話の収集は,本研究のために新たに設けた専用のWebサイト\footnote{http://beta.cm.info.hiroshima-cu.ac.jp/{\textasciitilde}inaba/projectnext/}で行った.このWebサイトでは,NTTドコモが一般公開している雑談対話API\cite{oonishi}\footnote{https://www.nttdocomo.co.jp/service/developer/smart{\_}phone/analysis/chat/}を用いた雑談対話システムが稼動しており,Webブラウザでアクセスすることで,テキストでの雑談を行える.このサイトでは,ユーザが10発話を入力すると対話が終了し,対話ログが出力されるようになっている.サイト側ではユーザ管理を行っておらず,ユーザが自己の対話を纏めて後日提出することによって,ユーザと対話ログの対応が取れるようになっている.図\ref{screen}に雑談対話収集サイトのスクリーンショットを示す.\begin{table}[b]\caption{対話タスクの参加状況}\label{members}\input{03table01.txt}\end{table}\begin{figure}[b]\begin{center}\includegraphics{23-1ia3f1.eps}\end{center}\caption{雑談対話収集サイトの画面}\label{screen}\end{figure}各拠点の参加者および参加者の知人にこの雑談対話システムと対話をしてもらい,全部で1,146対話を収集した.\mod{収集は2014年8月2日から31日の間に行った.}対話をする際には,図\ref{10commandments}に示す「対話ガイドライン(10箇条)」に沿うように教示をした.これは,現状の雑談対話システム技術が成熟していないこともあって,破綻だらけの対話ばかり収集されてしまわないためである.\begin{figure}[t]\begin{center}\includegraphics{23-1ia3f2.eps}\end{center}\caption{対話ガイドライン(10箇条)}\label{10commandments}\end{figure}\begin{table}[t]\caption{収集された雑談対話データの統計情報}\label{stats}\input{03table02.txt}\vspace{4pt}\small形態素解析にはMeCabのversion0.996\mod{(辞書はipadic-2.7.0-20070801)}を使用した.システム発話数は12,606となっているが,これは最初のプロンプト発話の1,146とユーザへの返答の11,460を合わせた値である.\end{table}ユーザ毎の対話数は1から40までばらつきがあるが,全体のユーザ数は100名を超えて\mbox{いる.}表\ref{stats}は収集された雑談対話データの統計情報である.収集した雑談対話の一例を以下に示す.\linebreakSはシステム発話,Uはユーザ発話を表す.\vspace{\baselineskip}\begin{itemize}\itemsep=-1mm\item[S:]こんにちは!声かけてくれるのを待ってたんだ。\item[U:]今日は最高気温36度だって。暑いねえ\item[S:]最高気温は17度が予想されます??\item[U:]いやいや猛暑ですよ\item[S:]猛暑に備えてますか?\item[U:]うん、日傘さしたり、水飲んだり、クーラー入れたりしてる\item[S:]クーラーは快適ですね\item[U:]うん、会社だと朝はつけられないから死にそう\item[S:]会社は冷房が効きますよねえ\item[U:]昼間は効くね。ここはパソコンがいっぱいあるからないと大変\item[S:]動きが悪いです\item[U:]そうなの?こっちは快適だよ\item[S:]パソコンは使い勝手が悪いです\end{itemize} \section{初期アノテーション} label{sec:annotation1}収集した雑談対話データ全体に対して対話破綻をアノテーションする前に,その一部について初期アノテーションを行った.具体的には,1,146対話からランダムに100対話を抽出し,タスク参加者の中で全100対話のアノテーションを行える24人によってアノテーションを行った.\mod{作業期間は2014年10月7日から17日の間である.}このアノテーションの目的は,残りの1,046対話に対して,1対話あたり何人のアノテータを割り当てるのが妥当かを検討することである.ここで作成したデータセットのことを以後{\bfinit100}と呼ぶ.アノテーションについては,どのようなエラーがあるのかを網羅的に分析したいという目的に鑑み,トップダウンな破綻の分類は示さず,直感に従って\maru・\sankaku・\batsuの3分類でアノテーションするように指示した.それぞれの意味は以下の通りである.\vspace{\baselineskip}\begin{description}\setlength{\labelsep}{0.25zw}\item[\maru\破綻ではない:]当該システム発話のあと対話を問題無く継続できる.\samepage\item[\sankaku\破綻と言い切れないが,違和感を感じる発話:]当該システム発話のあと対話をスムーズに継続することが困難.\samepage\item[\textmd{\batsu}\明らかにおかしいと思う発話(破綻):]当該システム発話のあと対話を継続することが困難.\samepage\end{description}\vspace{\baselineskip}多人数でアノテーションする場合には,\maru\batsuの判断の分布によりそれらの中間状態を表現できるため,必ずしも\sankakuのような中間レベルを表すカテゴリを用意する必要はないが,アノテータが\maruか\batsuかを迷うケースで判断に時間がかからないようにする目的で\sankakuを導入した.アノテーションには,図\ref{tool}に示す専用のツールを使用した.ツールでは,非文のチェックの他に,各発話に対してコメントを記入できるようになっている.また,先行する文脈のみに基づいて対話破綻のアノテーションが出来るように,1発話アノテーションする毎に,次のユーザ発話とシステム発話が表示されるようになっている.なお,破綻(\sankakuあるいは\batsu)とタグをつけた後の発話をどうアノテーションするかについては,対話の先頭から,破綻とタグ付けされた発話を含むこれまでの文脈を「ありき(与えられたもの)」として,アノテーションするように教示した.すなわちアノテータは,破綻があったところで対話がリセットされたとはせず,破綻も含めて先行文脈として作業を行った.\begin{figure}[b]\begin{center}\includegraphics{23-1ia3f3.eps}\end{center}\caption{雑談データ用破綻アノテーションツール}\label{tool}\end{figure}非文の定義は,「文法エラーなどにより日本語としての意味をなさない文」とし,会話体で許容される程度の「助詞落ち」や「ら抜き」は非文に該当しないとした.また,全く意味が通らない発話であれば当然\batsuを付けることになるが,非文であっても発話意図が汲み取れるのであれば,\maruや\sankakuを付けてもよいとした.\subsection{非文の割合}使用した対話システム\cite{oonishi}の応答生成は,人がすべて確認したテンプレートによるものではないので,非文の発生を完全に無くすことはできない.そこで,アノテーション時の非文のチェックの結果に基づき,文法レベルでの対話コーパスの品質を確認しておく.\begin{table}[b]\caption{init100における非文の分布}\label{nonsentence}\input{03table03.txt}\end{table}最初のプロンプトを除くシステム発話全1,000発話において非文のチェックが付けられた発話の分布を表\ref{nonsentence}に示す.表\ref{nonsentence}の1行目は,ある発話に対して非文と判断したアノテータの数を表す.2行目は各人数のアノテータに非文と判断された発話の数を表す.1人でも非文と付けた発話は1,000発話中127あったが,過半数(13人以上)が非文と付けたものはわずか7発話しかなかった.実際のデータを見ると,非文と判定したのが数名である発話はどれもアノテーション指示者からみて非文と判断するようなものではなかった.(「ルールは多いです」「価値観は欲しいです」「話し相手に飢えます」など,不自然ではあるが『日本語としての意味をなさない文』とまでいえない発話であった).仮に過半数以上が非文としたものを真の非文とし,それ以外をアノテーションの誤りとすれば,init100での非文の発生率は1\%未満である.今回の初期アノテーションでは,24人全員が100対話を同じ順序でアノテーションしている.その中で最も非文であると判定したアノテータが多いシステム発話は「熱中症に気をつけか??」というものであった.この発話は100対話中で4回発生しており,4発話に対して非文とチェックした人数は,出現順で19人,17人,13人,9人であった.つまり過半数が破綻と付与した7発話のうち3発話は同一の発話であった.同一内容の発話に対して「非文」とアノテーションした人数が大きくばらついているのは,既に非文と付けた発話に対する非文のチェックをアノテータが省略したことが原因と思われる.非文のチェックは,任意とも指示していないが,厳守するようにも指示しなかった.また,非文のチェックボックスは任意入力のフィールドであったコメント欄の直前に置かれていた(図\ref{tool}参照).このため,非文のチェックがアノテーションの主たる目的ではなく補助的な作業であったことから,後の方になるほどチェックを省略されてしまった可能性が高い.その事を考慮して,仮に四半(7人)以上が非文と判定したものを「真の非文」と考えても,非文の発生率はおよそ2\%である.このことから,今回のデータ中のシステム発話の品質は,個々の発話の日本語文法のレベルでは,当面の研究に必要なレベルが担保されていると考える.\subsection{アノテータ間の一致度の分析}init100に対して,24人のアノテータが付与したラベル\maru,\sankaku,\batsuの割合を表\ref{distribution}に示す.24人のアノテータ間の一致の程度を測るためにFleissの$\kappa$を算出すると,$0.276$であった.\cite{Landis77}も参考にすると,この値の解釈は「ランダムではないが,よく一致しているともいえない」とするのが妥当である.\sankakuを\batsuに含めて,2値のアノテーションとして計算すると,$0.396$とやや一致の具合が高まる.\sankakuを\maruに含めると$\kappa$は0.277にしか改善されないため,\sankakuは\batsuにより近いことが分かる.\begin{table}[b]\caption{init100中の\maru\sankaku\batsuの発生割合(発生数)}\label{distribution}\input{03table04.txt}\end{table}24人のアノテータをCohenの$\kappa$値をもとにWard法で階層クラスタリングを行うと,図\ref{cluster}のようになった.距離の定義やクラスタリングの手法を変えると,2つのクラスタの中でのまとまり方は細かく変わるものの,大きな2つのクラスタ間での移動はほとんど見られなかった.図~\ref{wariai_distribution2}に示す24人のアノテータの分布を見ると,\maruをつける傾向の大小で,前述の2クラスタが分かれていることが見て取れる.2つのクラスタの中でのFleissの$\kappa$を求めると,それぞれ$0.414$(11人)と$0.474$(13人)であり,これらの値は「適度に一致している」と解釈できる.前者,図\ref{cluster}の左側のクラスタ,をC1と呼ぶ.このクラスタは\maruを多く付けるアノテータのクラスタである.後者,同右側のクラスタ,をC2と呼ぶ.このクラスタは\maruを少なく付ける破綻に厳しいアノテータのクラスタである.\begin{figure}[b]\begin{center}\includegraphics{23-1ia3f4.eps}\end{center}\caption{アノテータのクラスタリング結果(番号はアノテータID)}\label{cluster}\end{figure}\begin{figure}[b]\begin{center}\includegraphics{23-1ia3f5.eps}\end{center}\caption{アノテータ毎の\maru\sankaku\batsuを付与した割合(横軸はアノテータID)}\label{wariai_distribution2}\end{figure}表\ref{annotators_attributes}に,24人のアノテータの属性(性別,年齢層,職業,関係性)の分布を示す.職業の「学生」は大学生および大学院生,教員は大学教員を指す.関係性の「当事者」は,対話タスクに参加している研究者(会社員,教員,学生)のことで,関係者は,対話タスクには直接参加していないが,前述の当事者と同じグループで対話システムに普段から関わりのある仕事をしていることを意味する.無関係は,当事者と知己であるが,対話システムの研究開発とは普段関わりがないことを指す.性別・年齢層には,C1とC2の間に目立った違いは見て取れない.職業・関係性をみると,教員・当事者がC1側にやや多い印象を受けるが,Fisherの正確確率検定ではC1,C2間に統計的に優位な差はない(いずれも$p>.2$).従って,表\ref{annotators_attributes}に示した属性だけでは,新規のアノテータがどちらのグループに属するかを予測することは難しく,実際にアノテーションを行ってもらって傾向を把握するしかない.\begin{table}[b]\caption{アノテータの属性分布}\label{annotators_attributes}\input{03table05.txt}\end{table}24人のアノテータからランダムに$N$人を選び出したとき,ラベルの分布がどれだけ全体の分布から離れているのかを表したグラフを図\ref{plot}に示す.横軸は$N$の数で,縦軸はKullback-Leiblerdivergenceの対称平均の値である.黒丸が1,000回サンプリングした際の平均値を示す.下向き三角は1,000回中の最大値,上向き三角は1,000回中の最小値を表す.アノテータが1人から2人になる段階で,平均値からの乖離は半分近く縮まり,あとは,なだらかに24人の分布に近寄っていくことが分かる.\begin{figure}[b]\begin{center}\includegraphics{23-1ia3f6.eps}\end{center}\caption{24人のラベル分布とランダムサンプリングした$N$人のラベル分布の異なり}\label{plot}\end{figure}図\ref{hist}に,\maru\sankaku\batsuの各ラベルを付与された数毎の発話数のグラフを示す.左側のグラフは集計結果をそのまま示したもので,横軸が,ある発話について付与された特定のラベルの数(0から24)を表し,縦軸が,そのような発話の度数を表す.右側のグラフは,解り易さのため,左側のグラフを加工したものである.0から24までのラベルの数を5区間に区切り,各区間の積算値をプロットしてある.このグラフから,破綻ラベル\batsuが過半数以上に付与されてる発話の数は少なく,人により揺れが大きいことが読み取れる.また過半数以上が\sankakuを付与している発話はほとんどないことも分かる.\maruについては一致し易いが,\sankaku\batsuについて一致しにくいということを表している.\sankakuと\batsuを併せて計数した場合のグラフは,図中の\maruのグラフを左右反転させたものに等しくなる.\begin{figure}[t]\begin{center}\includegraphics{23-1ia3f7.eps}\end{center}\caption{各ラベルを付与された数毎の発話数(横軸:付与されたラベルの数,縦軸:発話の度数)}\begin{center}\small左図:元データ,右図:5区間に集約した結果\end{center}\label{hist}\end{figure}\maruの数と,\sankakuと\batsuを併せた数とが12対12で半分に割れた発話の分析も行った.すると,表面的には間違ってるとは言えないけれども,違和感がありそうな応答が多かった.「こういうことは普通ここでは言わない」という印象は持つものの,なぜそれを言わないかの説明が難しいものが多い.また,発言の意図が読みにくそうな発話,ユーザの話を聞いていないと感じられる発話,社会的に問題がある発話,ふざけているようにも見える発話なども判断が割れていた.これらの判定を分析することは,対話における認知の研究として学術的に面白い課題となり得る.以下は,評価が半分に割れた発話(下線部)を含む対話の例である.\begin{itemize}\itemsep=-1mm\item[U:]他に好きな楽器はありますか?\item[S:]サックスがいいですね\item[U:]サックスは木管楽器なんですよね\item[S:]相性がいいですね\item[U:]台風は大丈夫でしたか\item[S:]台風は必要です\item[U:]雨は必要ですよね\item[S:]\underline{朝から雨が降るのです}\end{itemize}\noindentこれは発話の意図が読みにくいため,「それがどうしたのか」という印象を受ける発話である.\vspace{\lineskip}\begin{itemize}\itemsep=-1mm\item[U:]夏って感じがします\samepage\item[S:]海は騒がしいですよねえ\samepage\item[U:]海に行くと盛り上がりますもんね\samepage\item[S:]海は静かなんですよねー\samepage\item[U:]騒がしいのか静かなのかどっちですか\samepage\item[S:]\underline{海はサイコーですよねえ}\samepage\item[U:]サイコーですねえ\samepage\end{itemize}\noindentこれは人によっては,質問に答えずにごまかしているように感じられるだろう発話である.\subsection{コメントに基づく破綻の分類}\label{commentcats}init100中の一部の対話について,アノテータによって対話破綻箇所に付与されたコメントを人手で分類したところ,大きく「同じ内容の繰り返し」「矛盾した内容」「発話として唐突」「ユーザ発言内容の無視」「質問に答えていない」に分類できることが分かった.\begin{description}\item[同じ内容の繰り返し]{表層としては少し異なっていたとしても内容として同じものを繰り返す場合,破綻とアノテーションされることが多かった.たとえば,「美味しいですね」「いいですね」などと同じような発話を繰り返す場合である.}\item[矛盾した内容]{システム発話間で矛盾が見られる場合は破綻とされることが多かった.たとえば,「イチゴが好き」という発言の直後に「リンゴが好き」と発言するなど,一貫性を欠く発話は問題視された.}\item[発話として唐突]{「おはようございます」に対して「明けましておめでとうございます」のように,文脈とは関係のない発言を突然行うことがあり,このような発話は破綻とされていた.}\item[ユーザ発言内容の無視]{対話はお互いが協調して進めていくものであるので,ユーザ発話を全く受けずにシステムが発話を行った場合には対話の破綻とみなされることが多かった.たとえば,旅行の話をしていて「車で行きましょう」とユーザが話しかけたのに「車はかっこいいですね」と車そのものについて言及したりする場合である.}\item[質問に答えていない]{ユーザ発言内容の無視に近いが,特に質問に答えていないものが破綻とされていた.たとえば,「チワワは欲しいですね」とシステムが話し,それに応じてユーザが「飼う予定はあるの?」と質問したが,システムは「チワワはいいらしいですよ」と答えたような場合である.}\end{description}\noindent上記以外にも口調の唐突な変化などが,問題のある現象として観察された.さらに詳しい分類については\ref{sec:categorization}節で述べる. \section{残りの対話へのアノテーション} \label{sec:annotation2}init100に対するアノテーション結果について,タスク参加者で議論を行った結果,残りの1,046対話(以後,\textbf{rest1046}と呼ぶ)のアノテーションについては,1対話につき2人で実施するという結論に至った.2名とした理由は以下の通りである.\begin{itemize}\item人的・経済的コストの面から,アノテーションにかかる作業量は最小限が望ましい.\itemアノテーションのコストを最小化できるのは1名でアノテーションを行う場合であるが,この場合,アノテータ間の揺れのために,破綻とされるべき発話が見逃されてしまう可能性がある.よって,複数名が望ましい.\item前述の分析でアノテータは大きく2つのクラスタに分かれることが分かっている.これらの2つのクラスタから1名ずつ割り当てることで,見逃しを最も効率的に減らせる可能性がある.\end{itemize}実際に,init100にアノテーションをした24人からランダムに$N$人をランダムに選んだ場合と,C1とC2の両クラスタから$N/2$人ずつ選び出した場合とで,図\ref{plot}と同じ方法でラベル分布の距離を比較すると,図\ref{cluster_vs_random}に示す結果になる.C1,C2のクラスタから1人ずつ,計2名選んだ場合の結果は,全体からランダムに3人選んだ場合と4人選んだ場合の中間程度になっており,より少ない人数で全体での分布に近い結果を得られることが分かる.\begin{figure}[b]\begin{center}\includegraphics{23-1ia3f8.eps}\end{center}\hangcaption{24人のラベル分布とランダムサンプリングした$N$人のラベル分布の異なりの比較:完全にランダムな場合(random)と,クラスタC1・C2を考慮した場合(cluster)}\label{cluster_vs_random}\end{figure}1,046対話をランダムに11個のサブセット(a--k)に分割した.a--jの10個のサブセットはそれぞれ100対話を含み,最後のサブセットkだけが46対話を含む.アノテーションには,22名のアノテータの協力が得られることになった.22名のうち19名が,init100に対するアノテーションに参加していたアノテータである.まずこの19名について,図\ref{cluster}のクラスタに基づき,2つの大クラスタC1およびC2からなるべく1名ずつのアノテータが割り当てられるように,サブセットkを除く10サブセットに割り当てた.その後残りの3名を同10サブセットに割り当てた.1名当りの分担量を2サブセットと固定して22名を10サブセットに割り当てたので,i,jの2つのサブセットだけ3名のアノテータを割り当てた.サブセットkについては,余力のある2名に割り当てた.アノテータが各対話にアノテーションを行う方法は,init100の場合(\ref{sec:annotation1}節)と同じである.アノテーションの結果の分布を表\ref{distribution2}に示す.init100よりも,\sankakuの割合が増えているが,\sankakuと\batsuを併せて見た場合には,init100のときとほぼ同じ分布と考えられる.また,各サブセット毎のFleissの$\kappa$値を表\ref{11kappa}に示す.\mod{2名のアノテータが同じ判断傾向を持つかどうかによって,サブセット間で$\kappa$値にばらつきが生じているが,全体平均としてはinit100とほぼ同じ値になっている.}\begin{table}[b]\caption{rest1046中の\maru\sankaku\batsuの発生割合(発生数)}\label{distribution2}\input{03table06.txt}\end{table}\begin{table}[b]\caption{サブセットa--k毎のFleissの$\kappa$値(i,jのみ3名でのアノテーション,その他は2名ずつ)}\label{11kappa}\input{03table07.txt}\vspace{4pt}\small\hfill(*マクロ平均)\end{table}rest1046全体について,2名のアノテータが付けたラベルの組み合わせ毎の頻度と割合を\mod{図\ref{confusion}に示す}(計算にあたりサブセットi,jの3人目のアノテーションは利用していない).先に述べたように,アノテータは\maruを多く付ける傾向のクラスタC1と,そうでないクラスタC2とに大きく分かれており,各サブセットに割り当てるアノテータは,なるべく2つのクラスタから1名ずつ選ぶようにした.\mod{図\ref{confusion}}では,整合した判定である(\batsu,\batsu)の組よりも,矛盾した判定である(\maru,\batsu)の方が数が多くなってしまっているが,これは上記の割当の結果を反映しているもので想定内の結果であると同時に,破綻の捉え方が人によって異なることを改めて示している.rest1046のアノテーションに際しては,担当する対話の最初の5対話と最後の5対話,計10対話だけ,\sankaku,\batsuをつけた箇所には,必ずその判断理由をコメントとして書くことを求めた.\pagebreakこれにより,総数で3,748個,異なりで2,468個のコメントを得た.\mod{アノテーション作業は2014年12月2日から20日の間に行った.}\begin{figure}[t]\begin{center}\includegraphics{23-1ia3f9.eps}\end{center}\caption{2名のアノテータによるラベルの組み合わせの頻度と割合}\label{confusion}\end{figure} \section{対話破綻の類型化} label{sec:categorization}本節では,収集したデータを基に策定を進めている対話破綻の分類体系の,現時点での案と課題について議論する.\ref{sec:annotation1}節ではinit100に対して付与された\sankaku,\batsuの破綻アノテーションに付随するコメントを大まかに分類した結果を示したが,ここではそれを土台としつつ,rest1046に対して付与されたコメントを分析し,雑談対話における対話破綻の類型化を行った結果を示す.対話が,ある発話によって破綻するとき,原因はその発話だけにあるとは限らない.もちろん,その発話が文法的におかしなものであったり,意味がわからなかったりする場合もある.しかし,その発話が文として正しいものであったとしても,「相手の発話に対して,このように応答するのはおかしい」場合や,「前に言ったことと矛盾している」という場合においても,対話の継続が困難となる.このように,対話の破綻を分析するに当たっては,当該発話そのものに原因があるのか,または広い意味での文脈(直前の発話,対話履歴,状況なども含む)に原因があるのかを特定する必要がある.また,破綻が生じた原因が存在する範囲が同じであっても,その内容は様々である.必要な情報の欠落や曖昧性のために意味が特定出来ない場合や,意味が特定できても文脈と矛盾する場合,矛盾はしなくても冗長な場合などがある.そこでまず,破綻の根拠となっている情報に基づき大分類を決定し,その後,破綻の種類を表す小分類を決定した.大分類は,破綻を認定する際にどの範囲に関連した破綻であるかという基準で,以下の4つに決定した(図\ref{wg2}参照).\clearpage\begin{figure}[t]\begin{center}\includegraphics{23-1ia3f10.eps}\end{center}\hangcaption{大分類を決める基準(範囲の違いを模式化した図であり,図中の発話は必ずしも各ケースに実際に該当する発話ではない).太字は破綻と認定された発話.}\label{wg2}\end{figure}\begin{itemize}\item発話\\当該システム発話のみから破綻が認定できるケース.典型的には非文が該当する.「意味不明」というコメントの場合でも,この発話単独で意味がわからないのではなく,前の発話や文脈との関係で意味が取れない,というケースがあるので注意した.\item応答\\直前のユーザ発話と当該システム発話から破綻が認定できるケース.典型的には,発話対制約違反や,前発話の話題を無視した応答などが該当する.あくまでもそれまでの対話の流れは無視して,1つ前の発話との関係だけで判断した.\item文脈\\対話開始時点から当該システム発話までの情報から破綻が認定できるケース.典型的には,対話の流れから判断できる不適切な発話・矛盾する情報の提供・不要な繰り返しなどが該当する.\item環境\\破綻原因が,「環境」すなわち「外部要因」にあり,上記の3分類には当てはまらないケース.典型的には,一般常識に反するシステム発話が該当する.\end{itemize}\subsection{対話破綻の分類体系案}表\ref{wg4}に示す対話破綻の分類体系案を考案した.「発話」・「環境」の大分類については,検討の段階で多数を占めた「誤り」と分類される発話に対して,より分解能が高まるようにそれぞれ小分類を設定した.\begin{table}[t]\caption{分類体系草案}\label{wg4}\input{03table08.txt}\end{table}一方,「応答」・「文脈」の大分類においては,\cite{bernsen1996principles,dybkjaer1996grice}に倣い,対話における協調の原則であるGriceの公準\cite{gri:log}に基づき小分類を設定した.\mod{Griceの公準は,量・質・関係・様態の各公準からなるもので,対話において参与者が遵守するように期待されている原則である.つまり,ユーザの直前の発話あるいはこれまでの対話履歴を受けてなされるシステム発話が守ると期待されている原則であるので,一般的にはこの原則が守られていないと,ユーザはシステムの発話意図を推測することができずに,対話が破綻すると考えられる.}\cite{bernsen1996principles,dybkjaer1996grice}は,課題指向対話のエラー分析にGriceの公準を用いて,一定の成果を得ている.アノテータのコメントに「答えていない」「無視しすぎ」「唐突すぎる」といった「違反」を示唆するものが多かったことも,対話の「規範」であるGriceの公準を用いた理由の1つである.破綻を分類することの一義的な目的は,ユーザが破綻であると考えた箇所で,システム内部のどこに問題(エラー)があったのかを探ることであり,それを知ることによって,システムの改善が可能になる.しかしながら,一般にシステム内部でおきたエラーを対話の表面から直接特定することは難しい.\mod{そこで,システムが何をしてしまったのか(どういう問題行動をしたか)をGriceの公準に基づいて分類することを基本とした.ただし,問題行動の原因が比較的解り易いエラーについては,「応答」大分類中の「誤解」および「文脈」大分類中の「不追随」として追加した.}以下で,大分類毎に,小分類について事例を基に説明する.\subsubsection{「発話」の小分類}基本的に,システム発話の生成過程に問題がある場合が該当する.「非文」の概念に近い.\begin{itemize}\item構文制約違反(構文制約違反)\\必須格の欠如や助詞の誤りなどが原因で,発話内容が理解できないもの.\\例)「S:熱中症に気をつけか??」\item意味制約違反(意味制約違反)\\意味素性の異なる語の組合せなどが原因で,発話内容が理解できないもの.\\例)「S:便乗に重ねますよねえ」\item不適切発話(不適切発話)\\発話として機能を果たさないもの.\\例)「S:ちゅっちゅ」\end{itemize}\subsubsection{「応答」の小分類}前発話との関係において協調の原則が守られていない破綻を,Griceの公準に基づいて分類する.誤解は内部的なエラーであり,対話行動自体の問題ではないが,比較的解り易いので小分類として加えた.\begin{itemize}\item量の公準違反(情報過不足)\\前発話に対して,応答に含むべき内容が欠落している,あるいは,不要な内容が含まれており,これが会話の進行を阻害する場合.\\例)「U:ラーメンが好きです」→「S:豚骨で有名ですね」\item質の公準違反(不理解)\\前発話と矛盾する内容の発話.前発話の話題に追随しながらも,前発話で示された命題内容と矛盾する命題内容を含む場合.なお,意味理解の失敗などによって生じる「ずれ」を含む発話は,関係の公準違反とする.\\例)「U:最近,山登りを始めました」→「S:山登りが出来ないのですか?」\item関係の公準違反(無関係)\\発話対として不自然な発話で,これによって会話の継続ができなくなっている状況.あるいは,前発話の意味内容と関係しない内容の発話を行った場合.相手の発話を無視している状況を含む.\\例)「U:それでは,趣味はなんですか?」→「S:最後に旅行されたのはいつですか?」\item様態の公準違反(意図不明)\\発話意図の曖昧性のため,会話の継続ができなくなっている状況.\\例)「U:退屈は嫌いですか?」→「S:退屈は心ですね」\item誤解(誤解)\\内容の解釈エラーによって,不適当な発話になっている状況.多義語の意味の取り違いなどが該当する.\\例)「U:スイカを食べたらお腹を壊します」→「S:スイカで買い物できてるのですか?」\end{itemize}\subsubsection{「文脈」の小分類}基本的には,「応答」の小分類と同様の考え方で,協調の原則に対する違反で分類する.\begin{itemize}\item量の公準違反(不要情報)\\与える情報が何もない無情報発話,あるいは,これまでの文脈に出現した発話の不要な繰り返し.\\例)海に行っていないという文脈において:「S:海に行かないなあ」\item質の公準違反(矛盾)\\これまでの文脈と矛盾する内容の発話.また,これまでの話題に対する態度(Positive/Negativeの極性)が急に転換する発話.\\例)人間関係が薄いという文脈において:「S:人間関係は深いです」\item関係の公準違反(無関係話題)\\これまでの文脈における話題から逸脱する発話.話の主たる話題ではなく,直前のユーザ発話中の話題語でない単語から話を展開させてしまうような場合が典型例.\\例)定期券を無くすという文脈において:「U:首からかけておくとか?」→「S:左右に振りますよねえ」\item様態の公準違反(関連性不明)\\話題は継続しており,直前発話との関係だけで見ると意味が通るように見えるが,それ以前の文脈を踏まえると,その発話の意図が理解できない状況.\\例)薬の話題において:「S:薬は大丈夫ですね」\item話題展開への不追随(不追随)\\ユーザからの話題の展開が起こっているにも関わらず,それに追随できていない状況.\\例)ドイツの話題の後:「U:あなたは海外経験ありますか?」→「S:ドイツは小売価格が高いです」\end{itemize}\subsubsection{「環境」の小分類}会話の文脈以外の原因で生じた破綻を分類する.\begin{itemize}\item無根拠(共通基盤欠如)\\根拠のない,一方的な主張.\\例)「S:マグロは鮮度が悪いですよねえ」\item矛盾(一般常識欠如)\\一般的に正しいと信じられている常識と矛盾する発話.\\例)「S:熱中症はいいですね」\item非常識(社会性欠如)\\罵詈雑言など,対話相手との社会的関係を破壊する発話.あるいは口調(人格や社会的属性)が突然変化する発話.\\例)「S:プールはいいですね」→「U:探しとくね」→「S:知らんのかい」\end{itemize}\subsection{分類体系草案の課題}考案した分類体系は一見よく纏まっており,それなりの一致度で分類を行えることが期待できた.そこで,破綻アノテータが付けたコメントを参考にしながら,タスク参加者で予備的に破綻の分類を行ってみた.しかしながら,予想以上にアノテータ間で一致しないことがわかった($\kappa$値で0.1から0.3程度の範囲).個々人の主観に任せた破綻アノテーションでは低めの一致度でもよいが,破綻の分類についてはなるべく客観性の高い分類ができることが望ましい.破綻の分類においてアノテータ間の不一致が大きい原因が,主にアノテーションの手順や教示,アノテータの訓練不足などにあるのか,それとも分類体系自体にあるのか,まだはっきりしていないが,少なくとも以下のような課題が分かっている.\begin{itemize}\item検討に際しての分類作業は排他的に一発話・一分類で行ったが,複数の大分類に渡ると思われる破綻がいくつか見られた.例えば,非文・発話対制約違反・話題からの逸脱のように,複数の大分類に渡る破綻が同時に起こることがあり得る.\item発話の意味制約違反については,典型的な例は「発話」レベルのものと判断しやすいが,解釈次第であることも多い.例えば,「仕事は真面目ですね」という発話は,「仕事」を一般的な概念として捉えれば意味制約違反と判断できるが,ある個人の「業績・仕事ぶり」を意味すると解釈すれば,発話のレベルでは問題がないことになる.「文脈という概念を持ち込むと,文の意味と発話(話し手)の意味を区別することはもはやできない\cite{Levinson00}」という見方に立てば,そもそも意味制約違反の小分類を「発話」のレベルに設けることが不適切かもしれない.\item誤解は,直前の発話に対するものという定義から「応答」の大分類に含めていたが,実際には文脈まで見ないと誤解とは言えない場合も見つかった.これも「応答」でなく「文脈」に含めるか,あるいは「応答」「文脈」の両方に設ける必要があると思われる.\item分類の問題というよりは,多分に破綻の認定自体の問題であるが,読み手側の知識不足や,表現に対する不慣れによって解釈できなかったため,破綻とされていることもある.例えば,「みんっ」という発話は,意味のある表現に解釈できない人と,「見ない」という意味に解釈できる人がいる.この場合,結果的に,破綻の分類も人により異なってくる.\item「応答」「文脈」のレベルに導入したGriceの公準に基づく分類は,特に一致率が低かった.これは現状のシステムが出力する発話が,自分のことなのに伝聞で話すなどの不自然な様態や,対話相手のキャラクタが突然変わるなど,通常の人同士の対話で見られないようなものであるために,解釈が難しいことも一因であると考えている.Griceの公準に基づく類型化は,典型例の整理・説明には有用であっても,あまり典型的ではない破綻の分類には適していない可能性がある.そうだとすれば,小分類のレベルで,各公準違反を事例別にさらに細分化するか,あるいは別の視点での分類を用意する必要がある.\end{itemize} \section{関連研究} \label{sec:relatedwork}本研究では,非課題指向型対話(雑談対話)に焦点を絞っているが,課題指向型対話システムの文脈では対話システムのエラー分析は活発に行われてきており,いくつものエラーの分類体系が提案されている.まず,Clarkの提案するコミュニケーション階層モデルに基づくエラーの分類体系\cite{clark1996using}が挙げられる.Clarkによれば,コミュニケーションのエラーは4つのレベルからなっている.チャネルレベル,信号レベル,意図レベル,会話レベルである.チャネルレベルとはやり取りが開始されているかどうかに関わる.信号レベルとはシンボルのやり取りに関わり,意図レベルは対話相手の意図の認識に関わる.会話レベルは,共同行為に関わるものである.下位レベルのエラーが起きていれば,上位レベルでもエラーとなり(upwardcausality),上位レベルにエラーがなければ,下位レベルにエラーがないとされる(downwardevidence).このような階層に基づいて,会議室予約システムの不理解によるエラーを分析するという研究がなされている\cite{bohus2005sorry}.また,スマートホームとレストラン情報案内というドメインにおいて,同様の分析もなされている\cite{moller2007analysis}.PaekはClarkの4つの階層が対話システムのエラー分析に一般性を持っているということを,教育や医療といった複数分野での対話分析の事例から議論している\cite{paek2003toward}.本論文ではGriceの公準\cite{gri:log}をエラーの類型化に用いているが,課題指向型対話システムのエラー分析においてもGriceの公準は利用されてきた.Dybkj{\ae}retal.\shortcite{dybkjaer1996grice}およびBernsenetal.\shortcite{bernsen1996principles}はフライト情報案内システムのエラー分析をGriceの公準および独自の対話分析から得られた知見をもとにエラーの類型化を行っている.たとえば,Griceの公準以外の要素として,対話の非対称性,背景知識,メタ対話能力に関わるエラーが挙げられている.電話応答システムにおける対話評価の観点として,Griceの公準に基づく要素を導入することも提案されている\cite{moller2005parameters}.特定のモデルや理論をベースにするのではなく,特定のシステムや対話ドメインの対話を綿密に分析することによりエラーを類型化した例も多い.AberdeenandFerroはフライト情報案内システムの分析により,命令に応答しない,何度も同じプロンプトを表示するなどのエラーに類型化している\cite{aberdeen2003}.また,Greenらによって対話機能を持つサービスロボットについてもエラー分析がされており,ロボットに特有のエラーとして,動作と発話のタイミングがずれるというエラーや,指さしなどのポインティング動作のエラーなどが独自のカテゴリとして分類されている\cite{green2006integrating}.Dzikovskaらは,教育対話システム(tutoringsystem)のエラーの類型化を行っている\cite{dzikovska2009dealing}.対話システムはいくつかのモジュールから構成される.このため,エラーの類型化の一つの方法として,エラーを起こしたモジュールがどれかによって分類する研究もある\cite{ward2005root}.たとえば,音声認識,音声理解,発話生成,音声合成といった単位でエラーを類型化する.音声認識によるエラーが多ければ,音声認識モジュールを改善すればよいという方針に繋がる.モジュール構成が明確で,各モジュールのエラーが比較的独立と考えられるのであれば,このような類型化の手法は有効である.本研究の類型化の手順は\cite{dybkjaer1996grice}のものに近い.Griceの公準を用いながら,対話コーパスについて独自の分析を行いエラーを類型化しているからである.本研究とDybkj{\ae}rらのものとの違いは,本研究が雑談対話システムを扱っていることである.課題指向型対話システムに比べタスクやドメインの制約が少ない雑談対話において,エラーの定義,どのようなエラーが起こりうるかは把握されてこなかった.本研究は,そのような背景に基づき,雑談対話コーパスの作成およびその類型化を行ったものである.なお,本研究ではClarkの階層モデルは用いていない.これは,主にテキスト対話を扱っていることによる.テキストのやり取りであれば,チャネルレベルと信号レベルのやり取りは基本的に担保されており,残りの二つの階層のみに基づいて分類をすることになる.雑談対話の内容の複雑さを鑑みればこの粒度は粗い.また,モジュールごとにエラーを分析する方法論についてであるが,雑談対話システムの構成は複雑であり,単体のモジュールにエラーの分析を起因させることは難しい.また,エラー分析として対話システムの内部構造に立ち入らない方が,システムに依らないエラー分析が可能であり,特定のシステムに依存しない,汎用性の高いエラーの類型化が期待できる.なお,雑談対話システムのエラー分析は,対話破綻の自動検出につながるものとして期待されている.自動検出ができれば,対話システムが自身の発話を行う前に,その発話に問題があれば,別の発話候補に切り替えるといったことが可能になる.また,何らかのエラーを伴う発話をしてしまった後に,自身の誤りに気づいて,それを訂正するといったことも可能となる.課題指向型の音声対話対話システムの文脈では,音声認識,発話理解,対話管理などの各モジュールから得られる特徴量から対話に破綻が起きているかどうかを判定する手法がいくつか提案されている.たとえば,Walkerら\cite{walker2000}やHermら\cite{herm2008calls}は,コールセンタにおける通話について,問題が起こっているかどうかを数ターンで判定する判定器を機械学習の手法で構築している.対話中のユーザの満足度の遷移を推定する研究もされている\cite{schmitt2011modeling}.これらは雑談対話を扱ってはいないが,目的意識は本論文での取り組みと近い.雑談対話においては,Chaiらがユーザの対話行為の系列の情報を用いて,問題のある質問応答ペアかどうかの判別を行っている\cite{chai2006towards}.Xiangらは,対話行為に加え,感情の系列を用いることで,雑談対話における問題発話の検出を行っている\cite{xiang2014problematic}.Higashinakaらも,雑談対話システムの発話の結束性をさまざまな素性から推定する手法を提案している\cite{higashinaka2014evaluating}.しかしながら,これらの研究は精度がいまだ高いとは言えず,また,対話破綻の類型化なども行われていない.今後エラー分析を詳細に行うことで,対話破綻の原因を明らかにし,高精度な破綻検出を実現したいと考えている. \section{おわりに} label{sec:summary}本論文では,雑談対話におけるエラー分析にむけた人・機械間の雑談対話コーパスの構築\mod{と対話破綻のアノテーションについて}報告した.そして,構築したコーパスに含まれる破綻を分析し,考案した破綻の分類体系について議論した.\mod{アノテーション方法の開発にあたっては,破綻の認定における主観性の高さを認めつつ,許容可能な範囲のコストで,客観的な分析の対象となりうる有用なデータを得られるように,著者らを含む15拠点からの研究者で議論・試行し,工夫を施した.今回報告した方法と結果は,破綻に関する今後のコーパス構築に限らず,同じように主観性の高い別種の言語現象についてのコーパス構築においても手法開発の参考として寄与するものと考える.}構築したコーパスでは,対話を破綻させているシステムの発話に対して,複数の作業者によってラベルとコメントが付与されている.破綻の判断については,事細かなガイドライン・判定方法は示さず,各個の主観に基づいたアノテーションを行った.このためアノテーションの一致率はそれほど高くないが,システムとの対話に対して人間が不満を持つ点,持たない点,その個人差について,興味深いデータを収集できた.\mod{また,アノテータ間の一致についての分析からは,破綻でない発話よりも破綻発話のほうが判定が揺らぎがちであること,アノテータが大きな傾向の違いを持つグループに分かれる可能性があること,などが明らかになった.}\mod{一方で,今回のコーパス構築手法には,改善の余地があることも確かである.}破綻の判定が揺らぐ要因の1つとして,ユーザが想定した対話相手のイメージの違いが存在する.今回は「待合室や飛行機などで隣り合った見知らぬ人」とだけ指定したが,性別・年齢・性格など,ユーザができる想定には依然大きな自由度があった.例えば,子供染みた発言や冗談は,想定する相手によって許容できる範囲が変わってくる.今後のデータ収集においては,対話相手のイメージをもっと細かくユーザに指定する,あるいは対話前にユーザが想定した相手のイメージ,対話後に残った相手のイメージを,対話データと同時に収集すると,より踏み込んだ分析が可能になるだろう.\mod{アノテーションにおける,破綻を含む先行文脈の扱いについても,さらなる検討が望まれる.例えば,今回は破綻があったところで対話がリセットされたとはせず,破綻も含めて先行文脈として作業を行うように指示をした.これにより,会話が進んでいけばいくほど破綻が認定されやすくなった可能性があるが,一度破綻したことで文脈上の制約が減り破綻が認定されにくくなっていた可能性もある.}これまで人・機械の雑談対話を体系的に収集し,整備したコーパスは存在せず,今回の収集は初の試みである.今回構築したコーパス中の雑談対話は,1つの雑談システムだけを用いて収集したものであるので,破綻の種類の網羅性やその分布の普遍性について言えることには限りがあるが,システム構築に使用した雑談APIは\cite{higashinaka-EtAl:2014:Coling}に基づく,現時点で最も複雑な雑談システムの1つであり,少なくとも網羅性については他のシステムを利用した場合と同等かそれ以上,確保できていると考えている.今後,他の雑談システムを使い,本論文で示した方法でデータの収集とアノテーション・分析を行っていくことで,破綻の分布の普遍性を高め,現在の雑談技術・自然言語処理技術が抱える課題により深くアプローチできると期待している.本稿で示した破綻の分類体系の草案にはまだ改善しなければならない点があるが,破綻の種類を事例的に整理したことで,雑談対話で起こりうる問題について一定の見通しを示すことができた.雑談対話において破綻の種類を分類しようする際に何が問題となるのかを明らかにしたことも,今回の取り組みで得た成果の1つである.今回構築したコーパスは,破綻検出技術の開発・評価データとして利用することができる\footnote{本論文掲載時点で,コーパスは次のURLで公開されている:\\https://sites.google.com/site/dialoguebreakdowndetection/chat-dialogue-corpus\\また,本コーパスの公開にあわせて開催された破綻検出チャレンジの結果が,\cite{higashinaka-EtAl:2015:DBD}にまとめられている.}.雑談システム自体はそれぞれの目的や利用状況,対象ユーザの想定などが異なるため,直接に比較することが難しく,システム内部の技術的課題について研究者間で議論することが難しい.しかし,雑談システムの入出力であるテキストだけを対象とし,複数の機関が並行して共通のデータで破綻検出技術について開発とエラー分析を進めれば,より一般性の高い議論ができるし,そこから各々の雑談システム自体の技術課題に対しても知見を得られるだろう.また開発された破綻検出技術は,それ自体,多くの研究者・開発者にとって有用なツールを提供できるだろう.今後は,別システムでのデータの収集や破綻の分類体系の改良を行いながら,破綻検出技術の研究を進めていきたい.\acknowledgment対話データの収集,および,対話破綻アノテーションにご協力頂いたProjectNextNLP対話タスクの拠点参加者とその関係者の皆さま,対話データ収集のためのシステム構築とサーバ運営にご協力いただいた広島市立大の稲葉通将氏に感謝いたします.\mod{システム構築には株式会社NTTドコモの雑談対話APIを使わせていただきました.}本稿の著者は,タスク共同リーダ2名と,\ref{sec:categorization}節の類型化に直接的に貢献したワーキンググループのメンバに限っていますが,その他の拠点参加者の方々におかれても,電話会議やメーリングリストでの議論を通じて本稿の執筆に様々に貢献していただきました.一人一人お名前を挙げるのは控えさせていただきますが,改めて拠点参加者の皆さまのご協力にお礼申し上げます.最後になりますが,有益なコメントをいただいた\mod{編集委員・査読者}の皆さまにお礼申し上げます.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aberdeen\BBA\Ferro}{Aberdeen\BBA\Ferro}{2003}]{aberdeen2003}Aberdeen,J.\BBACOMMA\\BBA\Ferro,L.\BBOP2003\BBCP.\newblock\BBOQDialoguePatternsandMisunderstandings.\BBCQ\\newblockIn{\BemProceedingsofISCAWorkshoponErrorHandlinginSpokenDialogueSystems},\mbox{\BPGS\17--21}.\bibitem[\protect\BCAY{Banchs\BBA\Li}{Banchs\BBA\Li}{2012}]{Banchs2012}Banchs,R.~E.\BBACOMMA\\BBA\Li,H.\BBOP2012\BBCP.\newblock\BBOQIRIS:AChat-orientedDialogueSystemBasedontheVectorSpaceModel.\BBCQ\\newblockIn{\BemProceedingsoftheACL2012SystemDemonstrations},\mbox{\BPGS\37--42}.\bibitem[\protect\BCAY{Bang,Noh,Kim,\BBA\Lee}{Banget~al.}{2015}]{bang2015}Bang,J.,Noh,H.,Kim,Y.,\BBA\Lee,G.~G.\BBOP2015\BBCP.\newblock\BBOQExample-basedChat-orientedDialogueSystemwithPersonalizedLong-termMemory.\BBCQ\\newblockIn{\BemProceedingsofBigComp},\mbox{\BPGS\238--243}.\bibitem[\protect\BCAY{Bernsen,Dybkj{\ae}r,\BBA\Dybkj{\ae}r}{Bernsenet~al.}{1996}]{bernsen1996principles}Bernsen,N.~O.,Dybkj{\ae}r,H.,\BBA\Dybkj{\ae}r,L.\BBOP1996\BBCP.\newblock\BBOQPrinciplesforthedesignofcooperativespokenhuman-machinedialogue.\BBCQ\\newblockIn{\BemProceedingsofICSLP},\lowercase{\BVOL}~2,\mbox{\BPGS\729--732}.\bibitem[\protect\BCAY{Bickmore\BBA\Cassell}{Bickmore\BBA\Cassell}{2001}]{Bickmore2001}Bickmore,T.~W.\BBACOMMA\\BBA\Cassell,J.\BBOP2001\BBCP.\newblock\BBOQRelationalAgents:AModelandImplementationofBulidingUserTrust.\BBCQ\\newblockIn{\BemProceedingsofCHI},\mbox{\BPGS\396--403}.\bibitem[\protect\BCAY{Bohus\BBA\Rudnicky}{Bohus\BBA\Rudnicky}{2005}]{bohus2005sorry}Bohus,D.\BBACOMMA\\BBA\Rudnicky,A.~I.\BBOP2005\BBCP.\newblock\BBOQSorry,IDidn'tCatchThat!---AnInvestigationofNon-understandingErrorsandRecoveryStrategies.\BBCQ\\newblockIn{\BemProceedingsofSIGDIAL},\mbox{\BPGS\128--143}.\bibitem[\protect\BCAY{Chai,Zhang,\BBA\Baldwin}{Chaiet~al.}{2006}]{chai2006towards}Chai,J.~Y.,Zhang,C.,\BBA\Baldwin,T.\BBOP2006\BBCP.\newblock\BBOQTowardsConversationalQA:AutomaticIdentificationofProblematicSituationsandUserIntent.\BBCQ\\newblockIn{\BemProceedingsofCOLING/ACL},\mbox{\BPGS\57--64}.\bibitem[\protect\BCAY{Clark}{Clark}{1996}]{clark1996using}Clark,H.~H.\BBOP1996\BBCP.\newblock{\BemUsingLanguage}.\newblockCambridgeUniversityPress.\bibitem[\protect\BCAY{Dybkj{\ae}r,Bernsen,\BBA\Dybkj{\ae}r}{Dybkj{\ae}ret~al.}{1996}]{dybkjaer1996grice}Dybkj{\ae}r,L.,Bernsen,N.~O.,\BBA\Dybkj{\ae}r,H.\BBOP1996\BBCP.\newblock\BBOQGriceIncorporated:CooperativityinSpokenDialogue.\BBCQ\\newblockIn{\BemProceedingsofCOLING},\lowercase{\BVOL}~1,\mbox{\BPGS\328--333}.\bibitem[\protect\BCAY{Dzikovska,Callaway,Farrow,Moore,Steinhauser,\BBA\Campbell}{Dzikovskaet~al.}{2009}]{dzikovska2009dealing}Dzikovska,M.~O.,Callaway,C.~B.,Farrow,E.,Moore,J.~D.,Steinhauser,N.,\BBA\Campbell,G.\BBOP2009\BBCP.\newblock\BBOQDealingwithInterpretationErrorsinTutorialDialogue.\BBCQ\\newblockIn{\BemProceedingsofSIGDIAL},\mbox{\BPGS\38--45}.\bibitem[\protect\BCAY{Green,Eklundh,Wrede,\BBA\Li}{Greenet~al.}{2006}]{green2006integrating}Green,A.,Eklundh,K.~S.,Wrede,B.,\BBA\Li,S.\BBOP2006\BBCP.\newblock\BBOQIntegratingMiscommunicationAnalysisinNaturalLanguageInterfaceDesignforaServiceRobot.\BBCQ\\newblockIn{\BemProceedingsofIEEE/RSJ},\mbox{\BPGS\4678--4683}.\bibitem[\protect\BCAY{Grice}{Grice}{1975}]{gri:log}Grice,H.~P.\BBOP1975\BBCP.\newblock\BBOQLogicandConversation.\BBCQ\\newblockInCole,P.\BBACOMMA\\BBA\Morgan,J.\BEDS,{\BemSyntaxandSemantics3:SpeechActs},\mbox{\BPGS\41--58}.NewYork:AcademicPress.\bibitem[\protect\BCAY{Herm,Schmitt,\BBA\Liscombe}{Hermet~al.}{2008}]{herm2008calls}Herm,O.,Schmitt,A.,\BBA\Liscombe,J.\BBOP2008\BBCP.\newblock\BBOQWhenCallsGoWrong:HowtoDetectProblematicCallsBasedonLog-filesandEmotions?\BBCQ\\newblockIn{\BemProceedingsofINTERSPEECH},\mbox{\BPGS\463--466}.\bibitem[\protect\BCAY{東中\JBA船越\JBA小林\JBA稲葉}{東中\Jetal}{2015}]{higashinaka-EtAl:2015:DBD}東中竜一郎\JBA船越孝太郎\JBA小林優佳\JBA稲葉通将\BBOP2015\BBCP.\newblock対話破綻検出チャレンジ.\\newblock\Jem{言語・音声理解と対話処理研究会第75回研究会(第6回対話システムシンポジウム)},人工知能学会研究会資料SIG-SLUD-75-B502\JVOL,\mbox{\BPGS\27--32}.\bibitem[\protect\BCAY{Higashinaka,Imamura,Meguro,Miyazaki,Kobayashi,Sugiyama,Hirano,Makino,\BBA\Matsuo}{Higashinakaet~al.}{2014a}]{higashinaka-EtAl:2014:Coling}Higashinaka,R.,Imamura,K.,Meguro,T.,Miyazaki,C.,Kobayashi,N.,Sugiyama,H.,Hirano,T.,Makino,T.,\BBA\Matsuo,Y.\BBOP2014a\BBCP.\newblock\BBOQTowardsanOpen-domainConversationalSystemFullyBasedonNaturalLanguageProcessing.\BBCQ\\newblockIn{\BemProceedingsofCOLING},\mbox{\BPGS\928--939}.\bibitem[\protect\BCAY{Higashinaka,Meguro,Imamura,Sugiyama,Makino,\BBA\Matsuo}{Higashinakaet~al.}{2014b}]{higashinaka2014evaluating}Higashinaka,R.,Meguro,T.,Imamura,K.,Sugiyama,H.,Makino,T.,\BBA\Matsuo,Y.\BBOP2014b\BBCP.\newblock\BBOQEvaluatingCoherenceinOpenDomainConversationalSystems.\BBCQ\\newblockIn{\BemProceedingsof\mbox{INTERSPEECH}},\mbox{\BPGS\130--133}.\bibitem[\protect\BCAY{稲葉\JBA神園\JBA高橋}{稲葉\Jetal}{2014}]{Inaba2014}稲葉通将\JBA神園彩香\JBA高橋健一\BBOP2014\BBCP.\newblockTwitterを用いた非タスク指向型対話システムのための発話候補文獲得.\\newblock\Jem{人工知能学会論文誌},{\Bbf29}(1),\mbox{\BPGS\21--31}.\bibitem[\protect\BCAY{小林\JBA山本\JBA大内\JBA長\JBA瀬戸口\JBA土井}{小林\Jetal}{2011}]{Kobayashi2011}小林優佳\JBA山本大介\JBA大内一成\JBA長健太\JBA瀬戸口久雄\JBA土井美和子\BBOP2011\BBCP.\newblock安心でワクワクさせるロボット対話インタフェースを目指して:対話とセンサによる高齢者の健康情報収集.\\newblock\Jem{電子情報通信学会技術研究報告クラウドネットワークロボット},111\JVOL,\mbox{\BPGS\11--16}.\bibitem[\protect\BCAY{Landis\BBA\Koch}{Landis\BBA\Koch}{1977}]{Landis77}Landis,J.~R.\BBACOMMA\\BBA\Koch,G.~G.\BBOP1977\BBCP.\newblock\BBOQTheMeasurementofObserverAgreementforCategoricalData.\BBCQ\\newblock{\BemBiometrics},{\Bbf33},\mbox{\BPGS\159--174}.\bibitem[\protect\BCAY{Levinson}{Levinson}{2000}]{Levinson00}Levinson,S.~C.\BBOP2000\BBCP.\newblock{\BemPresumptiveMeaning:TheTheoryofGeneralziedConversationalImplicature}.\newblockMIT.\newblock(邦訳:「意味の推定:新グライス学派の語用論」,研究社,2007).\bibitem[\protect\BCAY{Matsuyama,Akiba,Saito,\BBA\Kobayashi}{Matsuyamaet~al.}{2013}]{Matsuyama2013}Matsuyama,Y.,Akiba,I.,Saito,A.,\BBA\Kobayashi,T.\BBOP2013\BBCP.\newblock\BBOQAFour-ParticipantGroupFacilitationFrameworkforConversationalRobots.\BBCQ\\newblockIn{\BemProceedingsofSIGDIAL},\mbox{\BPGS\284--293}.\bibitem[\protect\BCAY{M{\"o}ller}{M{\"o}ller}{2005}]{moller2005parameters}M{\"o}ller,S.\BBOP2005\BBCP.\newblock\BBOQParametersforQuantifyingtheInteractionwithSpokenDialogueTelephoneServices.\BBCQ\\newblockIn{\BemProceedingsofSIGDIAL},\mbox{\BPGS\166--177}.\bibitem[\protect\BCAY{M{\"o}ller,Engelbrecht,\BBA\Oulasvirta}{M{\"o}lleret~al.}{2007}]{moller2007analysis}M{\"o}ller,S.,Engelbrecht,K.-P.,\BBA\Oulasvirta,A.\BBOP2007\BBCP.\newblock\BBOQAnalysisofCommunicationFailuresforSpokenDialogueSystems.\BBCQ\\newblockIn{\BemProceedingsofINTERSPEECH},\mbox{\BPGS\134--137}.\bibitem[\protect\BCAY{大西\JBA吉村}{大西\JBA吉村}{2014}]{oonishi}大西可奈子\JBA吉村健\BBOP2014\BBCP.\newblockコンピュータとの自然な会話を実現する雑談対話技術.\\newblock\Jem{NTTDoCoMoテクニカル・ジャーナル},{\Bbf21}(4),\mbox{\BPGS\17--21}.\bibitem[\protect\BCAY{Paek}{Paek}{2003}]{paek2003toward}Paek,T.\BBOP2003\BBCP.\newblock\BBOQTowardaTaxonomyofCommunicationErrors.\BBCQ\\newblockIn{\BemProceedingsofISCAWorkshoponErrorHandlinginSpokenDialogueSystems},\mbox{\BPGS\53--58}.\bibitem[\protect\BCAY{Schmitt,Schatz,\BBA\Minker}{Schmittet~al.}{2011}]{schmitt2011modeling}Schmitt,A.,Schatz,B.,\BBA\Minker,W.\BBOP2011\BBCP.\newblock\BBOQModelingandPredictingQualityinSpokenHuman-computerInteraction.\BBCQ\\newblockIn{\BemProceedingsofSIGDIAL},\mbox{\BPGS\173--184}.\bibitem[\protect\BCAY{関根}{関根}{2015}]{NextNLPWS}関根聡\BBOP2015\BBCP.\newblockProjectNextNLP概要(2014/3-2015/2).\\newblock\Jem{言語処理学会第21回年次大会ワークショップ:自然言語処理におけるエラー分析}.\bibitem[\protect\BCAY{Walker,Langkilde,Wright,Gorin,\BBA\Litman}{Walkeret~al.}{2000}]{walker2000}Walker,M.,Langkilde,I.,Wright,J.,Gorin,A.,\BBA\Litman,D.\BBOP2000\BBCP.\newblock\BBOQLearningtoPredictProblematicSituationsinaSpokenDialogueSystem:ExperimentswithHowMayIHelpYou?\BBCQ\\newblockIn{\BemProceedingsofNAACL},\mbox{\BPGS\210--217}.\bibitem[\protect\BCAY{Wallace}{Wallace}{2004}]{Wallace2004}Wallace,R.~S.\BBOP2004\BBCP.\newblock\BBOQTheAnatomyofA.L.I.C.E.\BBCQ\\newblock\BTR,A.L.I.C.EArtificialIntelligenceFoundation,Inc.\bibitem[\protect\BCAY{Ward,Rivera,Ward,\BBA\Novick}{Wardet~al.}{2005}]{ward2005root}Ward,N.~G.,Rivera,A.~G.,Ward,K.,\BBA\Novick,D.~G.\BBOP2005\BBCP.\newblock\BBOQRootCausesofLostTimeandUserStressinaSimpleDialogSystem.\BBCQ\\newblockIn{\BemProceedingsofINTERSPEECH},\mbox{\BPGS\1565--1568}.\bibitem[\protect\BCAY{Wilcock\BBA\Jokinen}{Wilcock\BBA\Jokinen}{2013}]{Wilcock2013}Wilcock,G.\BBACOMMA\\BBA\Jokinen,K.\BBOP2013\BBCP.\newblock\BBOQWikitalkHuman-robotInteracitons.\BBCQ\\newblockIn{\BemProceedingsofICMI},\mbox{\BPGS\73--74}.\bibitem[\protect\BCAY{Xiang,Zhang,Zhou,Wang,\BBA\Qin}{Xianget~al.}{2014}]{xiang2014problematic}Xiang,Y.,Zhang,Y.,Zhou,X.,Wang,X.,\BBA\Qin,Y.\BBOP2014\BBCP.\newblock\BBOQProblematicSituationAnalysisandAutomaticRecognitionforChineseOnlineConversationalSystem.\BBCQ\\newblockIn{\BemProceedingsofCLP},\mbox{\BPGS\43--51}.\end{thebibliography}\begin{biography}\bioauthor{東中竜一郎}{1999年慶應義塾大学環境情報学部卒業,2001年同大学大学院政策・メディア研究科修士課程,2008年博士課程修了.2001年日本電信電話株式会社入社.現在,NTTメディアインテリジェンス研究所に所属.質問応答システム・音声対話システムの研究開発に従事.博士(学術).言語処理学会,人工知能学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{船越孝太郎}{2000年東京工業大学工学部情報工学科卒業.2002年同大学大学院情報理工学研究科計算工学専攻修士課程修了.2005年同博士課程修了.同年同大学院特別研究員.2006年より株式会社ホンダ・リサーチ・インスティチュート・ジャパン入社.2013年より同シニア・リサーチャ.博士(工学).自然言語理解,マルチモーダル対話に関する研究に従事.情報処理学会,人工知能学会,言語処理学会,ヒューマンインタフェース学会,ACMSIGCHI各会員.}\bioauthor{荒木雅弘}{1988年京都大学工学部卒業.1993年京都大学大学院工学研究科博士課程研究指導認定退学.京都大学工学部助手,同総合情報メディアセンター講師を経て,現在京都工芸繊維大学大学院工芸科学研究科准教授.音声対話システムおよびマルチモーダル対話記述言語の研究に従事.ACL,ISCA,情報処理学会等各会員.博士(工学).}\bioauthor{小林優佳}{2004年東京工業大学大学院理工学研究科修士課程終了(機械制御システム専攻).同年東芝家電製造株式会社(現東芝ライフスタイル株式会社)入社.2008年株式会社東芝研究開発センター入社.音声対話システムの研究開発に従事.電子情報通信学会,情報処理学会,人工知能学会各会員.}\bioauthor{塚原裕史}{1994年中央大学理工学部物理学科卒業.1996年同大学大学院博士課程前期修了.1999年同大学院博士課程後期修了.博士(理学).2000年日立ソフトウェアエンジニアリング株式会社入社.分散オブジェクト地理情報システムの研究・開発に従事.2005年株式会社デンソーアイティーラボラトリ入社.現在同社研究開発グループ勤務.自動車向け人工知能応用システムに関する研究・開発に従事.日本物理学会,情報処理学会各会員.}\bioauthor{水上雅博}{2012年同志社大学理工学部卒業.2014年奈良先端科学技術大学院大学情報科学研究科修士課程修了.同年より同大学院博士後期課程在学.自然言語処理および音声対話システムに関する研究に従事.人工知能学会,音響学会,言語処理学会各会員.}\end{biography}\biodate\end{document}
V13N01-06
\section{はじめに} 近年,ロボットは様々な性能において躍進を遂げてきた.例えば四足で移動するペット用ロボット,ダンスを踊るロボット,走るロボット,人の顔を認識しいくつかの命令を受理できるロボットなどが挙げられる.それらに共通する未来像は「人と共存する機械」であると言えるだろう.人と共存するためには「会話」という大きなコミュニケーション要素が重要となってくると考えられる.また,ロボットが行う会話には,対人関係を円滑にし,利用者に対する精神的サポートを行うという目的が挙げられる.会話において,まず行われるのが挨拶である.挨拶は会話によるコミュニケーションを円滑にする一端を担っている.コンピュータやロボットに対しても,挨拶を行うことから次に会話が広がり人間とのコミュニケーションが円滑に行われると考える.本研究では会話処理の中でも特に挨拶処理についての仕組みを提案する.挨拶処理は従来テンプレートを適用するのみであり,あまり研究は行われていない.しかし,単に用意されたテンプレートだけを用いると応答が画一化され,設計者の作成した文章のみが出現するという問題点がある.挨拶に限らず,対話システムの多くはテンプレートを用いることが多い.対話システムの一つにEliza\cite{J.Weizenbaum1966}が挙げられる.このシステムは自然言語による対話システムであり,擬人化されたセラピストエージェントによって,カウンセリングを代行させる.Elizaでは相手の応答に対して答えを評価して返すということはせず,過去に発言した内容の一部分だけを覚えてその単語を組み込む.また,話題に関しては数種類のパターンを用意している,聞き手としてのシステムである.また,今日の対話システムに関する研究は,ある一定のタスク(達成目標)を満たすために行われる,タスク指向型対話\cite{douzaka2001}\cite{Kanda2004}\cite{Sugimoto2002}に関するものが多くを占めている.これらはテンプレートとその一部に変数となる予約語を用意しておき,ある条件が満たされるとそれに適当な文章を出力する.この様にある一定の状況下における制約条件の下,相手の応答に応じたテンプレートを導出し,テンプレート内の変数を予約語に変換する研究\cite{douzaka2001}\cite{Kanda2004}\cite{Sugimoto2002}は多数報告されている.しかし,これらはテンプレートの文章数及び予約語数に依って,出現する文章数が決定される.会話文の中でも特に挨拶文は設計者の作成した文章がそのまま使われることが多い.そこで,本稿で提案する挨拶処理システムの文章は,設計者が用意した挨拶知識ベースに存在しない新たな文章も作りだす.このことで多種多様な会話が生み出されると考えられる. \section{挨拶処理システムの構成} 「挨拶」とは,日常会話の中において質問の応答や問題の提起を行わない「主張のない会話」だと定義する.本稿で提案する挨拶処理は相手に対する応答のみならず自ら起こす発話も対象とする.つまり,入力変数として現在状態を保持しており,入力文がある場合はその現在状態と入力文,ない場合は現在状態のみを入力変数として挨拶文を作り出す.本挨拶処理システムでは挨拶として二文を返す.一文目として返答する定型の挨拶を第一会話文,二文目として話題をふる挨拶を第二会話文とする.この例を図\ref{fig:systemoutou}に示す.\begin{figure}[htbp]\begin{center}\epsfxsize=10cm\epsfbox{./fig/systemoutou.eps}\caption{挨拶処理システムの応答例}\label{fig:systemoutou}\end{center}\end{figure}挨拶文となる文章として,第一会話文のための定型文と,第二会話文のための可変な文章のテンプレートからなる挨拶知識ベースを作成する.ある程度の基本的なテンプレートの文章知識を,第\ref{riyouchishiki}節で後述する概念ベースと,語種リスト(同義語・類義語・反語リスト),及び常識判断メカニズムによって大規模に拡張する.また,概念間の関連度を評価する関連度計算\cite{idutsu2002}\cite{watabe2001}・シソーラス\cite{NttThesaurus1997}・概念ベースIDF値\cite{okumura2005}を用いて精錬する.このことによって文章は人手によってテンプレートを増やすことなく機械的に大規模に拡張される.このシステム構成の概要を図\ref{fig:aisatsuSystem}に示す.\begin{figure}[htbp]\begin{center}\epsfxsize=8cm\epsfbox{./fig/aisatsuSystem.eps}\caption{挨拶処理システムの概略}\label{fig:aisatsuSystem}\end{center}\end{figure}また,このシステムを使った例として図\ref{fig:aisatsuSystemExam}を示す.入力文「おはよう」に対し,意図理解システムは挨拶であると判断し,現在状態「12月25日,午前7時,気温-2℃,晴れ」といった入力からは状態語「クリスマス,朝,冬,寒い,晴れ」を導く.これを用いて定型の挨拶文(第一会話文)と話題を続ける挨拶文(第二会話文)を出力する.\begin{figure}[htbp]\begin{center}\epsfxsize=10cm\epsfbox{./fig/aisatsuSystemExam.eps}\caption{挨拶処理システム利用例}\label{fig:aisatsuSystemExam}\end{center}\end{figure} \section{連想知識メカニズム} \label{riyouchishiki}人間は言葉に関する汎用的な知識を覚え,その言葉に関する常識を持った上で会話を行っている.これと同じように,挨拶処理において,様々な連想知識メカニズムを用いる.連想知識メカニズムは大きく,概念連想メカニズムと常識判断メカニズムにわかれる.これはシステムが持つ汎用的知識と常識にあたるものである.図\ref{fig:aisatsuSystem}に示すように,概念連想メカニズムはシソーラス,語種リスト(同義語・類義語・反語リスト),概念ベース,それを用いた概念ベースIDF,関連度計算などから成る.概念連想メカニズムは語と語の関係を汎用的な知識として持つ.また,常識判断メカニズムは時間判断システム,感覚判断システム等から成り,時間や感覚の観点から語を連想,判断する.本節ではこれらの連想知識メカニズムについて述べる.\subsection{概念ベース}概念ベースにおいて,任意の概念$A$は,概念の意味特徴を表す属性$a_i$とこの属性$a_i$が概念$A$を表す上でどれだけ重要かを表す重み$w_i$の対の集合として定義する.(式\ref{gainenbase})\begin{equation}A=\{(a_1,w_1),(a_2,w_2),\cdots,(a_n,w_n)\}\label{gainenbase}\end{equation}ここで,$a_i$を一次属性と呼ぶ.また便宜上,$A$を概念表記と呼ぶ.このような属性の定義された語(概念)を大量に集めたものを概念ベースと呼ぶ.だたし,任意の一次属性は,その概念ベース中の概念表記の集合に含まれているものとする.すなわち,属性を表す語もまた概念として定義されている.したがって,一次属性は必ずある概念表記に一致するので,さらにその一次属性を抽出することができる.これを二次属性と呼ぶ.概念ベースにおいて「概念」は$n$次までの属性の連鎖集合により定義されている.また,各概念表記に対し平均30属性が付与され,属性に付与される重みは,その概念表記に対する重要度であり,各概念表記について,その総和が1.0となるように正規化されている.初期の概念ベース(基本CB)\cite{Kasahara1997}は,約3万4千の概念表記$A$とその属性$a_i$及び重み$w_i$を複数の国語辞書の語義文から自動的に獲得した.これは辞書の見出し部の単語を概念表記,語義文に含まれる自立語を属性として抽出し,それらの属性の重みはその属性の出現頻度を基に付与する.さらに,属性の自己参照による新たな属性の追加,及び不要な属性の統計的な除去からなる精錬を行うことによって概念ベースを機械構築している.本論文で用いる概念ベースは基本CB\cite{Kasahara1997}に加え,新聞記事から新たな概念表記と属性を取得し,属性の精錬と適切な重み付け手法を施し,電子化辞書から抽出した概念を加えた約9万概念を有する概念ベース\cite{okumura2005}を用いる.\subsection{関連度計算方式}\label{keisan}関連度とは,概念と概念の関連の強さを定量的に評価するものである.概念ベースを利用した概念と概念の間にある関連性を定量的に評価する手法として,ベクトル空間モデルが広く用いられている.しかし,本稿では,概念を定義する属性集合の重みを含めた一致度を基本とした関連度計算方式を利用し,概念間の関連性評価を行っている.これは,関連度計算方式が有限ベクトル空間によるベクトル空間モデルよりも良好な結果が得られるという報告がなされているためである\cite{watabe2001}.本稿では重み比率付き関連度計算方式を使用し,実験を行う.任意の概念$A$,$B$について,それぞれ一次属性を$a_i$,$b_j$とし,対応する重みを$u_i$,$v_j$とする.また,概念$A$,$B$の属性数を$L$個,$M$個$(L<M)$とする.\begin{center}$A=\{(a_i,u_i)|i=1〜L\}$\\$B=\{(b_j,v_j)|j=1〜M\}$\end{center}このとき,概念$A$,$B$の重み比率付き一致度$MatchWR(A,B)$を以下の式で定義する.\begin{eqnarray}MatchWR(A,B)=\sum_{a_i=b_j}min(u_i,v_j)\end{eqnarray}\begin{equation}min(\alpha,\beta)=\left\{\begin{array}{ll}\alpha&(\beta>\alpha)\\\beta&(\alpha>\beta)\end{array}\right.\end{equation}このように一致度を定義するのは,$a_i=b_j$となる属性に対し,互いの属性の重みの共通部分が有意に一致すると考えるからである.次に属性の少ない方の概念を$A$とし$(L≦M)$,概念$A$の属性を基準とする.\begin{center}$A=\{(a_1,u_1),(a_2,u_2),\cdots,(a_L,u_L)\}$\end{center}そして概念$B$の属性を,概念$A$の各属性との重み比率付一致度$MatchWR(a_i,b_{xi})$の和が最大になるように並び替える.\begin{center}$B_x=\{(b_{x1},v_{x1}),(b_{x2},v_{x2}),\dots,(b_{xL},v_{xL})\}$\end{center}これによって,概念$A$の一次属性と概念$B$の一次属性の対応する組を決める.対応にあふれた概念$B$の属性は無視する(この時点では組み合わせは$L$個).但し,一次属性どうしが一致する(概念表記が同じ)ものがある場合($a_i=b_j$)は,別扱いにする.これは概念ベースには約9万の概念が存在し,属性が一致することは稀であるという考えに基づく.従って,属性の一致の扱いを別にすることにより,属性が一致した場合を大きく評価する.具体的には,対応する属性の重み$u_i$,$v_j$の大きさを重みの小さい方にそろえる.このとき,重みの大きい方はその値から小さい方の重みを引き,もう一度,他の属性と対応をとることにする.例えば,$a_i=b_j$で$u_i=v_j+\alpha$とすれば,対応が決定するのは$(a_i,v_j)$と$(b_j,v_j)$であり,$(a_i,\alpha)$はもう一度他の属性と対応させる.このように対応を決めて,対応の取れた属性の組み合わせ数を$T$個とする.重み比率付き関連度とは,重み比率付き一致度を比較する概念の各属性間で算出し,その和の最大値を求めることで計算する.これを以下の数式により定義する.\begin{eqnarray}Rel(A,B)=&&\sum_{i=1}^TMatchWR(a_i,b_{xi})\\\nonumber&&\times(u_i+v_{xi})\\\nonumber&&\times(min(u_i,v_{xi})/max(u_i,v_{xi}))/2\end{eqnarray}以下,重み比率付き関連度を関連度と略し,この関連度\cite{idutsu2002}\cite{watabe2001}を用いる.関連度の値は0〜1の連続値をとり,1に近づくほど概念間の関連性が高い.概念$A$と概念$B$に対して関連度計算を行った例を表\ref{tb:kanrendoExam}に挙げる.\begin{table}[htbp]\begin{center}\caption{関連度計算の例}\label{tb:kanrendoExam}\begin{tabular}{clclc}\hline概念$A$&概念$B$&関連度の値\\\hline花&桜&0.224\\花&車&0.001\\天気&晴れ&0.446\\天気&学校&0.002\\\hline\end{tabular}\end{center}\end{table}\subsection{感覚判断システム}感覚判断システムとは名詞に対して,人間が常識的に想起でき,特徴付けられる感覚に関する語を取得するシステムである\cite{watabe2004}.この「感覚」とは五感(視覚・聴覚・嗅覚・味覚・触覚)の刺激によって得られる感覚を指す.以降,全ての形容詞,形容動詞から五感に関するものを人手で抽出した98語を感覚語と呼ぶ.感覚判断システムは名詞とその特徴である「感覚」の関係を日常的な名詞の知識ベース(感覚判断知識ベース)を構築することによって明確にし,必要な感覚語を取得する.感覚判断知識ベースはシソーラス構造をとる.感覚に関する語という観点で見た場合,名詞にはその名詞のグループが持つ感覚とその名詞固有の感覚の2種類がある.感覚判断知識ベースはこの2種類の感覚を継承できるようにするためにシソーラスのリーフとノードの関係を用いて構築されている.具体的には,日常よく使用される680語をシソーラスのリーフ(代表語)として登録し,それぞれにその語固有の感覚を付与している.また,それらをグループ化しシソーラス構造をとるための語をノード(分類語)として153語登録し,そのグループが持つ感覚を付与している.この感覚判断知識ベースのイメージ図を図\ref{fig:kankakuDB}に示す.\begin{figure}[htbp]\begin{center}\epsfxsize=8cm\epsfbox{./fig/koyukankakuExam.eps}\caption{感覚判断知識ベースのイメージ図}\label{fig:kankakuDB}\end{center}\end{figure}また汎用知識である概念ベースとシソーラスを用いることで,構築した感覚判断知識ベースにない語(未知語)に対しても「感覚」を想起することができる.未知語に対して感覚を付与する場合,分類語としての感覚とその未知語固有の感覚を付与する処理を行う.これは未知語に対して,関連度計算を用いて感覚判断知識ベース内に含まれる高い関連度を持つ代表語を取得し,その語群の属するシソーラスのノードから分類語としての感覚を取得する.また,概念ベースを用い,未知語の一次属性に現れる感覚語を,概念ベースの特徴を利用した自動精錬法(詳細は文献\cite{watabe2004}を参照されたい)を行った後,未知語固有の感覚として取得する.表\ref{tb:koyukankakuExam}に未知語固有の感覚取得の例を示す.表\ref{tb:koyukankakuExam}の未知語「パンダ」の例では,その属性から「白・黒・大きい」などを未知語固有の感覚として取得することができる.\begin{table}[htbp]\begin{center}\caption{未知語固有の感覚取得の例}\label{tb:koyukankakuExam}\begin{tabular}{c|clc}\hline概念&属性\\\hlineパンダ&熊,動物,{\bf白},ライオン,自然,生きる,チベット,\\&ぬいぐるみ,足,{\bf黒},山,中国,{\bf大きい},林,竹,・・・\\\hline\end{tabular}\end{center}\end{table}感覚判断システムを用いた例を表\ref{tb:kankakuExam}に示す.\begin{table}[htbp]\begin{center}\caption{感覚判断システムの使用例}\label{tb:kankakuExam}\begin{tabular}{c|clc}\hline概念&感覚語\\\hline林檎&赤い,甘い,丸い\\夕焼け&眩しい,赤い,美しい\\騒音&煩い&\\\hline\end{tabular}\end{center}\end{table}\subsection{時間判断システム}時間判断システムとは時間を表す言葉(時語)の知識ベース(時間判断知識ベース)を用いて名詞から季節や時刻などの時間を判断するシステム\cite{kobata2001}\cite{nomura2003}である.また時間判断知識ベースにない時語(未知語)に対しても,汎用知識である概念ベースを利用して補完する.時間判断知識ベースにおいて時語は大きく明示的時語と暗示的時語の二種類に分類される.明示的時語とは「クリスマス」のように明らかな時間を指す語であり,暗示的時語とは「スキー」のように暗黙に時間を連想する言葉である.前者に関して156語,後者に関しては187語格納されている.特に明示的時語の中で基本的な「春,夏,秋,冬,梅雨,朝,昼,夕方,夜」を代表語とし,全ての格納された時語に対し代表語を付加する.このシステムの使用例を表\ref{tb:timeExam}に示す.\begin{table}[htbp]\caption{時間判断システムの使用例}\begin{center}\begin{tabular}{c|clclclc}\hline概念&時語&開始時間&終了時間\\\hline桜&春&3月&5月\\西瓜&夏&6月&9月\\夕焼け&夕方&16時&18時\\\hline\end{tabular}\end{center}\label{tb:timeExam}\end{table} \section{挨拶処理システムのための知識ベース} 挨拶処理システムは最初に入力として,入力文と現在状態を取得する.現在状態は年・月・日・時間・温度・天候を取得する.現在状態のうち,時間についてはコンピュータの内部時計を利用し,天候と気温に関しては数時間毎にWEBより取得する.入力文が意図理解システムによって挨拶と判断された場合及び空欄の場合,挨拶処理システムに応答処理を渡す.挨拶処理システムはこれに対し,二文を応答として生成する.一文目は会話の導入部となる定型の挨拶文,二文目は以降の会話展開への話題提供のための挨拶文である.この二文目はテンプレートではなく,それを元に大規模に拡張された文である.以降,一文目を第一会話文,二文目を第二会話文とする.そこで,挨拶のための知識ベースとして,第一会話文知識ベースと第二会話文知識ベースを整理・構築した.本節では挨拶処理システムで利用するために構築された挨拶知識ベースについて述べる.\subsection{第一会話文知識ベース}第一会話文知識ベースは状態語・挨拶入力文に対する定型の応答文を格納した.作成にあたっては,挨拶であると考える語とその状態を5名のアンケートによって調査した.状態語とは現在状態から連想・取得されうる「朝」「寒い」などの単語群である.これにより挨拶である文章(入力文),及び状態語の双方から定型応答語を取得することができる.状態語・入力文を応答語に対するグループに分け,グループIDを付与した.そのグループIDはそれぞれ応答語のグループIDに対応する.以下にその一部を示す.状態語とそのグループIDの格納数は25語(表\ref{tb:zyoutaigo}),入力文とそのグループIDのテーブルには182語(表\ref{tb:nyuryoku}),それらに対するグループIDと応答語を格納したテーブルには46語(表\ref{tb:outougo})を格納した.その一部を以下に示す.\begin{table}[htbp]\begin{minipage}{.48\linewidth}\begin{center}\caption{状態語テーブルの一部}\label{tb:zyoutaigo}\begin{tabular}{clc}\hline状態語&グループID\\\hline時間:朝&0001\\時間:昼&0002\\イベント:正月&0010\\\hline\end{tabular}\end{center}\end{minipage}\begin{minipage}{.48\linewidth}\begin{center}\caption{入力文テーブルの一部}\label{tb:nyuryoku}\begin{tabular}{clc}\hline入力文&グループID\\\hlineおはよう&0001\\おはよ&0001\\こんにちは&0002\\あけましておめでとう&0010\\\hline\end{tabular}\end{center}\end{minipage}\end{table}\begin{table}[htbp]\begin{center}\caption{応答語テーブルの一部}\label{tb:outougo}\begin{tabular}{clc}\hlineグループID&応答語\\\hline0001&おはようございます\\0002&こんにちは\\0010&あけましておめでとうございます\\\hline\end{tabular}\end{center}\end{table}\subsection{第二会話文知識ベース}第二会話文知識ベースは話題を広げる可変な応答文のテンプレートを格納している.テンプレートを要素語・修飾語・程度修飾語・限定修飾語に分割し,同じ修飾語に繋がる単語群をグループ化した.全単語で92語格納し,この単語群から生成されるテンプレートは803文となる.「要素語」は拡張される基本単語となる.「要素語」はグループIDとテーマを伴う.テーマは要素語のシソーラス\cite{NttThesaurus1997}の上位ノードのうち,要素語のグループを特徴付けられるノードを選んだものである.このテーマにより,そのテンプレートの話題を大別することが可能である.このテーブルには54語を格納した.この例を表\ref{tb:youso}に示す.「修飾語」は要素語を直接修飾する語群,「程度修飾語」はその程度を強調する語群,「限定修飾語」は限定された現在の時間・空間を指し示す語群である.これらにはそれぞれグループ化するためのIDがある.修飾語テーブル(表\ref{tb:syusyokugo})は24語,程度修飾語テーブル(表\ref{tb:teidosyusyokugo})は8語,限定修飾語テーブル(表\ref{tb:genteisyusyokugo})は6語それぞれ格納している.また,これらのグループIDを連結させて文章化するためのルールもまた格納した.この連結ルールは30ルール格納し,この一部を表\ref{tb:renketu}に示す.\begin{table}[htbp]\begin{minipage}{.48\linewidth}\begin{center}\caption{要素知識テーブルの一部}\label{tb:youso}\begin{tabular}{clclc}\hline要素語&グループID&テーマ\\\hline天気&Y0001&気象\\晴れ&Y0001&気象\\雷&Y0002&気象\\嵐&Y0002&気象\\朝&Y0003&時間\\夕暮れ&Y0003&時間\\\hline\end{tabular}\end{center}\end{minipage}\begin{minipage}{.48\linewidth}\begin{center}\caption{修飾語テーブルの一部}\label{tb:syusyokugo}\begin{tabular}{clc}\hline修飾語&グループID\\\hlineいい&S0001\\穏やかな&S0001\\激しい&S0005\\凄い&S0005\\暑い&S0011\\涼しい&S0011\\\hline\end{tabular}\end{center}\end{minipage}\end{table}\begin{table}[htbp]\begin{minipage}{.48\linewidth}\begin{center}\caption{程度修飾語テーブルの一部}\label{tb:teidosyusyokugo}\begin{tabular}{clc}\hline程度修飾語&グループID\\\hlineかなり&T0001\\本当に&T0001\\とても&T0001\\\hline\end{tabular}\end{center}\end{minipage}\begin{minipage}{.48\linewidth}\begin{center}\caption{限定修飾語テーブルの一部}\label{tb:genteisyusyokugo}\begin{tabular}{clc}\hline限定修飾語&グループID\\\hline今朝は&G0001\\今夜は&G0002\\\hline\end{tabular}\end{center}\end{minipage}\end{table}\begin{table}[htbp]\begin{center}\caption{連結ルールの一部}\label{tb:renketu}\begin{tabular}{clc}\hlineグループID&上位連結ID\\\hlineY0001&S0001/T0001/G0000\\Y0002&S0005/T0001/G0000\\Y0003&S0011\\S0001&T0001/G0000\\S0005&T0001/G0000\\S0011&T0001/G0000\\\hline\end{tabular}\end{center}\end{table}要素知識テーブル,修飾語テーブル,程度修飾語テーブル,限定修飾語テーブルを連結ルールを用いて結合させる.この第二会話文知識ベースのイメージ図を図\ref{fig:kaiwaDB2img}に示す.それぞれの語はグループ化され,要素語にはテーマを付加している.また,連結ルールによって各々の語はつながり,テンプレートとなる.\begin{figure}[htbp]\begin{center}\epsfxsize=8cm\epsfbox{./fig/kaiwaDB2img.eps}\caption{第二会話文知識ベースイメージ}\label{fig:kaiwaDB2img}\end{center}\end{figure} \section{挨拶文の生成} 本節では挨拶処理システムの仕組みについて述べる.挨拶処理システムはまず入力文と現在状態を取得する.入力文が存在する場合は入力文を挨拶知識ベースから参照し,第一会話文を決定する.入力文が存在しない場合は,現在状態から情報を取得し,その情報から挨拶知識ベースを参照し,第一会話文を決定する.その後,第二会話文を第二会話文知識ベースより拡張された文章群を用いて決定する.第二会話文はテンプレート内に存在する基本単語群(挨拶に関係する語群)を概念ベースの一次属性・関係辞書・常識判断メカニズムによって拡張し,その後,品詞・シソーラス・関連度計算・概念ベースIDF・常識判断メカニズムによって精錬する.この具体的な手法を第\ref{kakucho}節,第\ref{seidoup}節で述べる.図\ref{fig:no2kaiwa}に第二会話文拡張方法の概要を示す.\begin{figure}[htbp]\begin{center}\epsfxsize=9cm\epsfbox{./fig/no2kaiwa.eps}\caption{第二会話文拡張方法の概要}\label{fig:no2kaiwa}\end{center}\end{figure}\subsection{意図理解システム}意図理解システムとは入力文に対する応答方法の違いを区分するため,入力文をそれぞれ「挨拶」「命令」「疑問」「情報」という意図に分類するシステム\cite{ooi2002}である.このシステムは意図理解判断のために必要な知識ベースをもつ.入力文を形態素解析し,この知識ベースを参照することでそれぞれの意図に分類する.この意図理解システムによって挨拶と判断された文章は挨拶処理,命令文と判断された文章は命令解釈,疑問文と判断された文章は問題解釈,情報文と判断された文章は応答処理のための意味理解へ処理を渡す.意図理解システムの概要を図\ref{fig:itorikaiSystem}に示す.\begin{figure}[htbp]\begin{center}\epsfxsize=8cm\epsfbox{./fig/itorikaiSystem.eps}\caption{意図理解システム概要}\label{fig:itorikaiSystem}\end{center}\end{figure}\subsection{現在状態からの状態語の取得}人間は五感から様々な情報を得て,その情報を基に挨拶を行うことが多い.「なんて暑いのだろう」「騒がしい」と感じるとその状態を話題に上らせやすい.つまり,思考に上らせやすい状態が現在状態に存在するとより話題にしやすいと考えられる.この思考に上らせやすい“状態の単語”を以降,状態語と呼ぶ.この状態語を$A$として,現在状態から時間,気温,天候に関する状態語を取得する.天候に関してはその取得した語をそのまま用いるが,数値入力される時間と気温に関して$A$を取得する方法を次に示す.\subsubsection{時間}時間の状態語として年を表す明示的時語,日を表す明示的時語,特定の日を表す明示的時語を取得する.これらは時間判断システムで利用している時間知識ベース内の時語の始点時間と終点時間を時間軸(月,時,月日)と共に格納した明示的時語知識ベースを参考にして状態語を取得した.年を表す明示的時語とは春,夏,秋,冬などの季節を表す語である.これは時語知識ベース内の時間軸「月」に類別されている.また,日を表す明示的時語は朝,昼,夕方,夜,午前,午後などの昼夜を表す語であり,時語知識ベース内では「時」に類別される.特定の日を表す明示的時語はクリスマス,七夕などの年内イベントを表す語であり,時語知識ベース内では「月日」に類別される.時語知識ベースの一部を表\ref{tb:zigochishiki}に示す.現在状態の時間を表す月,日,時間と知識ベース内の始点時間,終点時間を比較し,時間に関する$A_{time}$を取得し,取得した語群を時間軸によって季節,昼夜,イベントに類別して保存する.これを用いることにより,月日が12月25日であれば「クリスマス」,月が6月から9月の間は「夏」といった状態語を取得することができる.\begin{table}[htbp]\begin{center}\caption{時語知識ベースの一部}\label{tb:zigochishiki}\begin{tabular}{c|clclclclc}\hline名称&ふりがな&時間軸&始&終&属性\\\hlineクリスマス&くりすます&月日&12/25&12/25&point\\夏&なつ&月&6&9&period\\午後&ごご&時&12&23&period\\\hline\end{tabular}\end{center}\end{table}\subsubsection{気温}気温の平年値を用いて気温に関する$A_{temp}$を求める.平年値とは平均的な気候の状態を表す指標である.その求め方は世界気象機関(WMO)が定めており,西暦の一位が1の年から数えて連続する30年間について累年平均値を算出したものである.2000年からは気象庁が作成・提供している1971年から2000年までの平年値が指標となっている.気温の平年値を$T_{ave}$,現在の気温を$T_{now}$とし,$A_{temp}$を以下の図\ref{fig:tempzyotai}のように定める.\begin{figure}[htbp]\begin{center}\epsfxsize=10cm\epsfbox{./fig/tempzyotai.eps}\caption{気温に関する状態語の取得}\label{fig:tempzyotai}\end{center}\end{figure}\subsection{第一会話文の取得}第一会話文を契機に会話は始まる.この文章は総じて定型の挨拶文であり,以降の会話を円滑にする導入部の役割を果たす.これを第一会話文知識ベース及び入力文,状態語を用いて取得する.本稿で提案する会話システムでは相手の応答に限らず,自発的に会話を作成するため,入力文が存在する場合と存在しない場合がある.入力文がある場合,これを意図理解システムに渡す.意図理解システムによって「挨拶」と判定された場合,第一会話文知識ベースの入力文テーブルを参照し,応答語テーブルから第一会話文を取得する.入力文が存在しない場合,現在状態から状態語を取得する.これを第一会話文知識ベースの状態語テーブルを参照し,応答語テーブルから第一会話文を取得する.例えば,現在状態が夜の場合,入力文がないと「こんばんは」と応答するが,対話者が「おはよう」と入力すれば「おはようございます」と応答する.相手に合わせた挨拶がコミュニケーションを円滑にする役割を果たすと考えられる.\\\subsection{第二会話文の拡張}\label{kakucho}第二会話文は話題を提供する挨拶文である.この話題は日常会話の中において質問の応答や問題の提起を行わない.話題として多く用いられるのは現在状態から連想される事柄である.例えば,気象,季節,朝夕,体感温度などが挙げられる.しかし,第二会話文を人手で作成すると,手間がかかり,設計者が設定した応答しかできない.そこである程度のテンプレートを用意し,そこから汎用知識ベースを用いて機械自身の手で連想を広げる.但し,ここでは文章を拡張することが目的であり,最終的には現在状態にマッチングする文章を応答として返すことを目指しているが,本論文では現在状態を用いて文章を選定する所までは範囲としない.本章では文章を大規模に拡張し,その文章が挨拶において文章単独として常識的であるように,文章の精錬を行う.\\\subsubsection{状態語からの拡張}現在状態から取得した状態語のうち,時間に関する状態語から時間判断システムを利用して連想し,要素語を拡張する.例えば,現在時間が“12月25日/午前7時”とした例を表\ref{tb:timekakucho}に示す.ここから状態語として“季節/冬”,“昼夜/朝”,“イベント/クリスマス”が取得できる.この状態語それぞれを時間判断システムによって連想する.冬からは“蟹”,朝からは“出勤”等の連想語が派生する.これを要素語として,それぞれのテンプレートの可変部に戻し,“蟹の季節ですね”“出勤の時間ですね”といった文章拡張を行うことができる.本論文では文章拡張の有効性を調べるため,現在状態を定めて文章を拡張するのではなく,全ての状態語を用いてそこから想起できる文章拡張を行った.\begin{table}[htbp]\caption{現在時間:12月25日/午前7時の場合の例}\begin{center}\begin{tabular}{|c|c|c|c|}\hline&状態語&連想語&テンプレート\\\hline季節&冬&蟹,暖房,ソリ,炬燵,スキー,…&〜の季節ですね\\\hline昼夜&朝&出勤,開店,覚醒,鶏鳴,…&〜の時間ですね\\\hlineイベント&クリスマス&トナカイ,サンタクロース,…&〜の時期ですね\\\hline\end{tabular}\end{center}\label{tb:timekakucho}\end{table}\\\subsubsection{連想による修飾語の拡張}人は話題の言葉に対して想起した感覚を加えて会話にする.そこで感覚判断システムの連想によって修飾語を拡張する.ここで用いる要素語は第二会話文知識ベースの要素知識テーブルに存在するものを用いる.これらの要素語に対し,連結する基本的な修飾語は第二会話文知識ベースの修飾語テーブルに用意しているが,さらに感覚判断システムによって修飾語を拡張する.この例を表\ref{tb:kankakukakucho}に示す.まず,要素語を感覚判断システムにかけ,感覚想起を行う.感覚想起された修飾語が修飾語テーブルになかった場合,その修飾語をその要素語に対する修飾語として追加・拡張する.\begin{table}[htbp]\caption{感覚想起の例}\begin{center}\begin{tabular}{c|c}\hline要素語&感覚想起\\\hline夕焼け&眩しい,赤い,美しい\\\hline春&爽やかな,待ち遠しい,暖かい\\\hline\end{tabular}\end{center}\label{tb:kankakukakucho}\end{table}\\\paragraph{連想による要素語の拡張}汎用的な知識ベースである概念ベース及び語種リスト(反対語・同義語)を用いて要素語の連想を行う.ここで用いる要素語とは,第二会話文知識ベースの要素知識テーブルに存在する要素語54語のことである.語種リストは国語辞書等から自動構築された反対語リスト,同義語リストを持つ.反対語リストとは反対の意味を持つ語のセットを約1万6000語登録したデータベースである.同義語リストとは同義の意味を持つ語のセットを約20万セット登録したデータベースである.\\\paragraph{反対語による拡張}要素語と同系列の単語群を取得するため反対語リストを利用することによって拡張する.要素語に対する反対語とそれに対する反対語を取り続けることにより,同系列の単語群の取得が可能となる.以下のアルゴリズムで反対語による拡張語群$E$を取得する.\begin{enumerate}\item要素語$Y$の反対語群$Y_i$を取得する.$Y$と$Y_i$を語群$E$とする.\item\label{hantaigotwo}語群$E$の全ての反対語群$E_i$を取得する.\item$E_i$と$E$を比較する.$E_i$の中で$E$に含まれていない語を$N$とする.\item$N$が無ければ,$E$を反対語による拡張語群$E$として取得する.$N$が存在すれば,$E$に$N$を加えたものを新たな$E$として(\ref{hantaigotwo})を行う.\end{enumerate}\paragraph{同義語・一次属性による拡張}要素語とその反対語による拡張語群$E$を,同義語と概念ベースによってさらに拡張する.以下のアルゴリズムで同義語・一次属性による拡張語群$E$を取得する.\begin{enumerate}\item拡張語群$E$の全ての単語の同義語群$E_s$を取得する.\item拡張語群$E$の全ての単語の一次属性$E_c$を概念ベースより取得する.\item\label{dougizokuseithree}拡張語群$E$に$E_s$と$E_c$を加え,同じ語を削除する.\item(\ref{dougizokuseithree})で取得した語群を同義語・一次属性による拡張語群$E$として取得する.\end{enumerate}\subsection{精度向上}\label{seidoup}会話文が常識的に正しい文章になるように要素語の拡張語群に対し精錬を行う.\subsubsection{品詞による精錬}拡張語群$E$に対し,品詞による精錬を行う.本来の要素語$Y$が収まるようにテンプレートは作られているため,要素語$Y$と品詞が異なるものは収まりにくいからである.よって,拡張語群$E$内において要素語$Y$と同じ品詞の語を,品詞による精錬語群$S_h$として取得する.\subsubsection{シソーラスによる精錬}品詞による精錬語群$S_h$に対し,シソーラス\cite{NttThesaurus1997}による精錬を行う.語群$S_h$内には様々な多義語が含まれていることが多い.例えば要素語「山」に対して「山岳」「山鉾」「クライマックス」等の多義語が含まれる.これに対し,挨拶文として利用したいものは視界に入る自然物としての「山岳」という意味の語群である.このため,シソーラスを用いて自然物としての意味を持つものだけを取得する.このようにシソーラスによる精錬語群$S_t$を以下のアルゴリズムによって実現する.\begin{enumerate}\item要素知識ベースより,要素語$Y$のテーマ語Tを取得する.\item語群$S_h$の各単語に対し,シソーラスの全親ノードを取得する.\itemシソーラスの全親ノードとテーマ語$T$を比較し,一致するノードが存在する単語を取得し,これをシソーラスによる精錬語群$S_t$とする.\end{enumerate}\subsubsection{関連度による精錬}\label{kanrendoseiren}シソーラスによる精錬語群$S_t$に対し,関連度計算による精錬を行う.これは,テンプレートの可変部に入れるために人手で用意した適切な語群との関連度を用いる.適切な語群との関連が高ければ適切だと考えたためである.次のアルゴリズムによって適切な要素語群との関連度による精錬語群$S_r$を取得する.\begin{enumerate}\item要素語$Y$と同じグループIDを持つ語群$Y_g$を第二会話文知識ベース内要素知識ベースより取得する.\item\label{kanrendoseirentwo}語群$Y_g$と語群$Y_g$の全単語間で関連度計算を行う.\item\label{kanrendoseirenthree}(\ref{kanrendoseirentwo})の平均値を求める.これを要素語$Y$の閾値とする.\item\label{kanrendoseirenfour}語群$S_t$の各単語と語群$Y_g$の関連度計算を行う.\item\label{kanrendoseirenfive}(\ref{kanrendoseirenfour})の平均値を求める.\item(\ref{kanrendoseirenfive})と(\ref{kanrendoseirenthree})で求めた閾値を比較し,閾値以上の単語群を取得する.これを適切な要素語群との関連度による精錬語群$S_r$とする.\end{enumerate}\subsubsection{IDF値による精錬}IDF値は情報検索の分野で用いられる単語重み付け手法であり,稀に出現する語は重要であるという観点から重み付けされた対数文書頻度である.ここでは以下の方法で概念ベースIDF値を求める.\begin{enumerate}\item概念ベース内の属性全てを対象とし,概念連鎖によって三次まで展開する.\item全概念数(87242)を$N_{All}$とする.また,全概念を三次まで展開した属性群(文書空間)内での概念$t$の出現概念数を$df(t)$とし,$idf(t)$を以下の式で計算する.\begin{eqnarray}idf(t)=log\frac{N_{All}}{df(t)}\end{eqnarray}\end{enumerate}関連度による精錬語群$S_r$に対し,概念ベースのIDF値を用いて精錬を行う.汎用的な辞書の知識である概念ベース内で使用頻度の低い語は日常会話でもあまり使用されない.そこで,IDF値を用いると,概念ベース内で使用頻度の低い語として雑音を除くことができる.本来,IDF値とは出現頻度の低い語の値が大きく,重要である,という観点で重み付けされるものであるが,ここでは,「稀に出現する語は一般的でない」という観点で,そのような語を抽出するための単なる「計算式」として用いる.閾値は実験によって適切な値を求め,IDF値が閾値以下の語を語群$S_r$から抽出し,これをIDFによる精錬語群$S_i$とする.実験は閾値をIDF値0.2〜3まで0.2毎に変化させて取得した精錬語群$S_r$を用いた.$S_r$を文章化し,ランダムに100文抽出する.それを3人の目視によって常識的に正しいか否かを評価した.100文に対して常識的に正しいとした割合を算出し,その3人の平均値を精度とした.また拡張語から表現できる全文章数をその文章数とする.このときの精度と文章数のグラフを図\ref{fig:idfResult}に示す.図\ref{fig:idfResult}よりIDF値が小さくなれば精度は上がり,文章数は減少する.また,IDF値が0.8〜1.4の間,あまり精度が変わらないことがわかった.そこで,その間で最も文章数が多くなるIDF値1.4が閾値として適当であると考えられる.これをIDFによる精錬を行う際に用いる閾値とした.\begin{figure}[htbp]\begin{center}\epsfxsize=10cm\epsfbox{./fig/idfResult.eps}\caption{idf値の変化に伴う精度と文章数}\label{fig:idfResult}\end{center}\end{figure}\subsubsection{時間判断システムによる文章の妥当性}精錬語群$S_i$から第二会話文知識ベースを用いて文章化する.拡張前の要素語のもつ修飾語の上位IDから文章を作成する.このとき,限定修飾語と要素語の状況が全く異なることがある.例えば「今朝はきれいな夕焼けですね」「今夜は涼しい昼ですね」等である.このような文章はどのような状況であっても正しくない.時間判断システムを用いてこれらの文章を削除する.具体的には,文章化する際に,限定修飾語と拡張要素語の双方を時間判断システムにかける.限定修飾語「今朝」と要素語「夕焼け」を時間判断システムにかけた場合の例を表\ref{tb:timejudgekekka}に示す.ここで時間軸が一致(月日,月,時)し,かつ同じ時語を含まない場合,その文章を削除する.\begin{table}[htbp]\caption{時間判断システム結果の例}\begin{center}\begin{tabular}{|c|c|c|}\hline&時間判断結果(時間軸)&時間判断結果(時語)\\\hline今朝&時&今日,朝\\\hline夕焼け&時&夕方\\\hline\end{tabular}\end{center}\label{tb:timejudgekekka}\end{table}\subsection{実験結果と考察}\label{kosatsu}精錬結果と拡張された文章数について調査を行う.調査方法は,以下のとおりである.まず,精錬語群を文章化し,ランダムに300文章抽出する.それを3人の目視によって挨拶において文章単独として常識的に正しいか否かを評価した.300文に対して常識的に正しいとした割合を算出し,その3人の平均値を精度とした.また拡張語から表現できる全文章数を文章個数とする.挨拶において文章単独として常識的である,というのは,あらゆる状況下で第一会話文(おはよう,こんにちは,など)の後に続いて発する可能性のある文章を意味する.元のテンプレートも関係がないため,実験時には元になったテンプレートは被験者に提示せずに行った.拡張した文章300文のみに対し,文章として非常識でないか,及び挨拶として適当か(状況を限定せず,第一会話文の後に続いて発することが妥当か)を判断基準として評価した.\subsubsection{ここまでの実験結果と考察}\label{seidoA}第\ref{kakucho}節の拡張を行った場合(拡張のみ),第\ref{seidoup}節の精錬(品詞,シソーラス,適切な要素語群との関連度,概念ベースIDF,時間判断)を行った場合のそれぞれの精度を図\ref{fig:seido1}に,文章個数を対数グラフで表したものを図\ref{fig:number}に示す.\begin{figure}[htbp]\begin{center}\epsfxsize=8cm\epsfbox{./fig/seido1.eps}\caption{本手法の精度}\label{fig:seido1}\end{center}\end{figure}\begin{figure}[htbp]\begin{center}\epsfxsize=8cm\epsfbox{./fig/number.eps}\caption{本手法の文章数}\label{fig:number}\end{center}\end{figure}拡張のみの精度は38%と非常に低かったにもかかわらず,精錬を経て,78%に精度向上した.また,最初のテンプレート数が803文であったのに対し,拡張と精錬によって17878文が自動拡張された.ここで不適切とされた例には,次の図\ref{fig:wrong}のようなものがあった.\begin{figure}[htbp]\begin{center}\epsfxsize=8cm\epsfbox{./fig/wrong.eps}\caption{不適切な文章例}\label{fig:wrong}\end{center}\end{figure}これらは修飾語と要素語が意味として連結しない形をとっている.このため,修飾語と要素語との関係を加味する必要があると考えられる.\subsubsection{新たな関連度計算の提案}上記実験結果から,修飾語と要素語との関係性を加えることの必要性が感じられたため,関連度を用いることにより,その関係性を追加する.次のアルゴリズムによってこれを実現する.\begin{enumerate}\item\label{newkanrendoseirenone}作成された文章の修飾語と同じグループ内(第二会話文知識ベースより)の語の一次属性を取得\item\label{newkanrendoseirentwo}要素語と(\ref{newkanrendoseirenone})の語の関連度計算を行い,平均値を求める\item\label{newkanrendoseirenthree}要素語が含まれるグループ全てに(\ref{newkanrendoseirentwo})を行い,最低平均値を導出\item\label{newkanrendoseirenfour}(\ref{newkanrendoseirenthree})をその要素語グループの閾値とする\item\label{newkanrendoseirenfive}拡張した単語と(\ref{newkanrendoseirenone})の語の関連度計算を行い,平均値を求める\item(\ref{newkanrendoseirenfive})が(\ref{newkanrendoseirenfour})の閾値以下なら削除する\itemこれを,修飾語の属性との関係を加味した関連度による精錬語群とする\end{enumerate}テンプレート「うっとうしい雨ですね」を用いた際の例を図\ref{fig:newRelExam}に示す.まず,修飾語「うっとうしい」と同グループに属する「うっとうしい,嫌な」の一次属性を取得する.これとテンプレートの要素語「雨」と同グループに属する「天気,曇り,雨」との関連度の平均値を計算する.「天気,曇り,雨」は人間によって修飾語との関連があると判断されたものなので,ここで最も低い値を出した関連度を必要最低限の値と考え,閾値とする.図\ref{fig:newRelExam}の場合は「雨」との関連度0.1136が最も低いため,これが閾値となる.「雨」から拡張された語群と「うっとうしい,嫌な」の一次属性との関連度の平均値がこの閾値よりも低い場合,これを削除する.図\ref{fig:newRelExam}の場合は「快晴」と「晴れ間」が除去される.このことにより,少なくとも修飾語との関連がないと考えられる語を除くことができる.\begin{figure}[htbp]\begin{center}\epsfxsize=10cm\epsfbox{./fig/newRelExam.eps}\caption{修飾語の属性との関係を加味した関連度による精錬方法の例}\label{fig:newRelExam}\end{center}\end{figure}ここで,第\ref{kanrendoseiren}節で行った“適切な要素語群との関連度による精錬手法”と“修飾語の属性との関係を加味した関連度による精錬手法”を入れ替えて,精度と文章個数を求めた.これを図\ref{fig:changeseido}に示す.前者の手法を使ったものを関連度1,後者の手法を使ったものを関連度2とする.すると関連度1を使った手法の精度は77%,関連度2を使った手法の精度は84%となり,関連度2の手法を用いた方が7%の向上が見られた.また,全文章個数も約18000個から約24000個に増加することがわかり,“修飾語の属性との関係を加味した関連度による精錬手法”の方がより有効であった.\begin{figure}[htbp]\begin{center}\epsfxsize=8cm\epsfbox{./fig/changeseido.eps}\caption{関連度1(旧手法)と関連度2(新手法)の精度と文章個数}\label{fig:changeseido}\end{center}\end{figure}次に,“適切な要素語群との関連度による精錬手法”と“修飾語の属性との関係を加味した関連度による精錬手法”の双方を行った場合の精度と文章個数を求めた.これを図\ref{fig:changeseido2}に示す.順序を入れ替えても,“修飾語の属性との関係を加味した関連度による精錬手法”だけの場合と比較して大きな差異はなく,文章個数のみが大きく減少した.このため,両方を行うのではなく,関連度による精錬を“修飾語の属性との関係を加味した関連度による精錬手法”にすることが適切であると考えられる.\begin{figure}[htbp]\begin{center}\epsfxsize=8cm\epsfbox{./fig/changeseido2.eps}\caption{関連度1と関連度2の両方を用いた場合の精度と文章個数}\label{fig:changeseido2}\end{center}\end{figure}この手法によってある一文のテンプレートから拡張された文章の例を表\ref{tb:kekkaExam}に示す.表\ref{tb:kekkaExam}に示した例において,「精錬文章群」が「テンプレート」に対し本提案手法を用いたシステム出力例である.また,評価実験において,評価者全員が常識的であると判断した文章例を○,常識的ではないと判断した文章例を×として示す.\ref{kakucho}節「第二会話文の拡張」において,テンプレートを拡張した当初は「精錬文章群」と「削除された文章群」の両方が混在している.これに対し,\ref{seidoup}節で提案した精度向上方法を用いることで,文章は精錬される.このときに削除された文章の例を「削除された文章群」に記載する.例えば「きれいな川ですね」というテンプレートに対し,様々な文章(拡張文章群)が生成される.しかし,提案手法によって,常識的でない(非常識な)文章が大きく削除された.挨拶として(第一会話文に続く文章として)「きれいな流れですね」「きれいな景観ですね」という文章はある状況下で可能であるのに対し,「きれいな河童ですね」「きれいな濁流ですね」といった文章は非常識である.このような文章を自動的に削除することで拡張文章群を精錬し,本提案の有効性を示すことができた.\begin{table}[htbp]\caption{一文から拡張した文章例}\begin{center}\begin{tabular}{|c|c|c|c|c|}\hline&\multicolumn{4}{|c|}{拡張文章群}\\\cline{2-5}\raisebox{1.5ex}[0cm][0cm]{テンプレート}&\multicolumn{2}{|c|}{精錬文章群}&\multicolumn{2}{|c|}{削除された文章群}\\\hline\hline&きれいな流れですね&○&きれいな河童ですね&×\\&きれいな景観ですね&○&きれいな背水の陣ですね&×\\きれいな川ですね&きれいな清流ですね&○&きれいな濁流ですね&×\\&きれいな山水ですね&○&きれいな犯罪事件ですね&×\\&きれいな風光ですね&○&きれいな小川ですね&○\\\hline&美しい夕焼けですね&○&電磁波ですね&×\\&赤い夕日ですね&○&空虚ですね&×\\夕焼けですね&空模様ですね&×&赤色ですね&×\\&日没ですね&○&沈没ですね&×\\&光ですね&×&夕映えですね&○\\\hline\end{tabular}\end{center}\label{tb:kekkaExam}\end{table} \section{おわりに} 本稿では,日常会話の中において質問の応答や問題の提起を行わない「主張のない会話」である「挨拶」の処理手法を構築した.また,話題の展開に繋がる第二会話文をテンプレートだけではなく,汎用知識ベースである概念ベースや常識判断メカニズムを用いて文章拡張し,品詞,シソーラス,関連度計算,概念ベースIDF,時間判断システムによって精錬する手法を考案し,その有効性を実験によって検証した.また,第\ref{kosatsu}節までの操作を行うことによってテンプレートは自動的に大きく拡張・精錬された.この文章群を用いて現在状態に即した第二会話文を取得することが次の課題となる.この挨拶処理手法を用いることにより,少数のテンプレートを連想により拡張し,挨拶を膨大な文章から選択することが可能となる.このことで,単調となりがちなテンプレートの会話に効果をもたらすと期待される.\acknowledgment本研究は文部科学省からの補助を受けた同志社大学の学術フロンティア研究プロジェクトにおける研究の一環として行った.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{堂坂}{堂坂}{2001}]{douzaka2001}堂坂浩二\BBOP2001\BBCP.\newblock\JBOQタスク指向型対話における漸次的発話生成モデル\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf37}(12),2190--2200.\bibitem[\protect\BCAY{井筒,東村,渡部,河岡}{井筒\Jetal}{2002}]{idutsu2002}井筒大志,東村貴裕,渡部広一,河岡司\BBOP2002\BBCP.\newblock\JBOQ概念ベースを用いた関連度計算方式の精度評価\JBCQ\\newblock\Jem{信学技報,NCL2001-94},117--122.\bibitem[\protect\BCAY{池原,宮崎,白井,横尾,中岩,小倉,大山,林}{池原\Jetal}{1997}]{NttThesaurus1997}池原悟,宮崎正弘,白井諭,横尾昭男,中岩浩巳,小倉健太郎,大山芳史,林良彦\JEDS\\BBOP1997\BBCP.\newblock\Jem{日本語語彙体系}.\newblock岩波書店.\bibitem[\protect\BCAY{J.Weizenbaum}{J.Weizenbaum}{1965}]{J.Weizenbaum1966}J.Weizenbaum\BBOP1965\BBCP.\newblock\JBOQELIZA−AComputerProgramFortheStudyofNaturalLanguageCommunicationBetweenManandMachine\JBCQ\\newblock{\BemCommunicationsoftheAssociationForComputingMachinery},{\Bbf9}(1),36--45.\bibitem[\protect\BCAY{神田,駒谷,尾形,奥乃}{神田\Jetal}{2004}]{Kanda2004}神田直之,駒谷和範,尾形哲也,奥乃博\BBOP2004\BBCP.\newblock\JBOQデータベース検索音声対話システムにおける履歴を考慮した検索条件の管理\JBCQ\\newblock{\BemFIT2004},LG--001,131--132.\bibitem[\protect\BCAY{笠原,松澤,石川}{笠原\Jetal}{1997}]{Kasahara1997}笠原要,松澤和光,石川勉\BBOP1997\BBCP.\newblock\JBOQ国語辞書を利用した日常語の類似性判別\JBCQ\\newblock\Jem{情報処理学会論文誌},{\Bbf38}(7),1272--1283.\bibitem[\protect\BCAY{小畑,渡部,河岡}{小畑\Jetal}{2001}]{kobata2001}小畑陽一,渡部広一,河岡司\BBOP2001\BBCP.\newblock\JBOQ短文の名詞と動詞から時間/季節を判断するメカニズム\JBCQ\\newblock\Jem{信学技報,AI2000-56},1--6.\bibitem[\protect\BCAY{野村,渡部,河岡}{野村\Jetal}{2003}]{nomura2003}野村理樹,渡部広一,河岡司\BBOP2003\BBCP.\newblock\JBOQ時間の常識的判断システムにおける未知語処理方式の検討\JBCQ\\newblock\Jem{情報科学技術フォーラム2003,E-047},191--193.\bibitem[\protect\BCAY{奥村,渡部,河岡}{奥村\Jetal}{2005}]{okumura2005}奥村紀之,渡部広一,河岡司\BBOP2005\BBCP.\newblock\JBOQ電子化新聞を用いた概念ベースの拡張と属性重み付与方式\JBCQ\\newblock\Jem{情報処理学会研究報告,2005-NL-166},55--62.\bibitem[\protect\BCAY{大井,渡部,河岡}{大井\Jetal}{2002}]{ooi2002}大井健治,渡部広一,河岡司\BBOP2002\BBCP.\newblock\JBOQ知能ロボットの意図理解と応答制御方式\JBCQ\\newblock\Jem{言語処理学会第8回年次大会発表論文集,A2-9},275--278.\bibitem[\protect\BCAY{杉本,岩爪,小林,岩下,菅野}{杉本\Jetal}{2002}]{Sugimoto2002}杉本徹,岩爪道昭,小林一郎,岩下志乃,菅野道夫\BBOP2002\BBCP.\newblock\JBOQ秘書エージェントのための対話管理とその適応機能\JBCQ\\newblock\Jem{人工知能学会第16回全国大会,2B3-02},131--132.\bibitem[\protect\BCAY{渡部河岡}{渡部\JBA河岡}{2001}]{watabe2001}渡部広一\BBACOMMA\河岡司\BBOP2001\BBCP.\newblock\JBOQ常識的判断のための概念間の関連度評価モデル\JBCQ\\newblock\Jem{自然言語処理},{\Bbf8}(2),39--54.\bibitem[\protect\BCAY{渡部,堀口,河岡}{渡部\Jetal}{2004}]{watabe2004}渡部広一,堀口敦史,河岡司\BBOP2004\BBCP.\newblock\JBOQ常識的感覚判断システムにおける名詞からの感覚想起手法\JBCQ\\newblock\Jem{人工知能学会論文誌},{\Bbf19}(2),73--82.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{吉村枝里子}{2004年同志社大学工学部知識工学科卒業.同大学院工学研究科知識工学専攻博士前期課程在学.知識情報処理の研究に従事.}\bioauthor{土屋誠司}{2000年同志社大学工学部知識工学科卒業.2002年同大学院工学研究科知識工学専攻博士前期課程修了.同年,三洋電機株式会社入社.2004年同志社大学大学院工学研究科知識工学専攻博士後期課程入学.主に,常識的判断システムの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{渡部広一}{1983年北海道大学工学部精密工学科卒業.1985年同大学院工学研究科情報工学専攻修士課程修了.1987年同精密工学専攻博士後期課程中途退学.同年,京都大学工学部助手.1994年同志社大学工学部専任講師.1998年同助教授.工学博士.主に,進化的計算法,コンピュータビジョン,概念処理などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,システム制御情報学会,精密工学会各会員.}\bioauthor{河岡司}{1966年大阪大学工学部通信工学科卒業.1968年同大学院修士課程修了.同年,日本電信電話公社入社,情報通信網研究所知識処理研究部長,NTTコミュニケーション科学研究所所長を経て,現在同志社大学工学部教授.工学博士.主にコンピュータネットワーク,知識情報処理の研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,IEEE(CS)各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V04N04-05
\section{はじめに} 話し言葉や対話における特徴として,旧情報や述語の一部が省略されるなど,断片的で不完全な発話が多く現れるという点をあげることができる.このような断片的あるいは不完全な発話を正しく認識/理解するためには,対話に対する適切なモデルが必要となる.また,話し言葉や対話の音声認識を考えた場合,認識候補の中には統語的にも意味的にも正しいが,対話の文脈の中では不適切な認識候補が存在する場合もある.例えば,文末の述語「〜ですか」と「〜ですが」は,お互いに誤認識されやすいが,対話モデルを用いることにより,このような誤認識を避けられたり,あるいは誤り訂正が可能となることが期待できる.文献\cite{Nagata92,Nagata94}では,発話行為タイプ(IllocutionaryForceType;IFT)のラベルが付いたコーパスから,IFTのマルコフモデルを学習し,このモデルが対話のエントロピーを大きく減少させることを示している.我々は,同様のIFT付きコーパスを用いて,対話構造を表す確率モデルを自動生成する研究を行なった.我々の研究においては,確率的対話モデルの生成に2種類の独立な方法を用いた.最初の方法では,IFT付きコーパスの話者ラベルおよび発話行為タイプの系列を,エルゴードHMM(HiddenMarkovModel)を用いてモデル化した.この方法では,モデルの構造(状態数)をあらかじめ定めておき,次にモデルのパラメータ(状態遷移確率,シンボル出力確率,および初期状態確率分布)を学習データから推定した.2番目の方法では,状態の統合化を繰り返すことにより,最適な状態数を持つモデルを自動的に生成することのできる状態マージング手法を用いた.近年,状態マージング手法に基づく確率モデルの学習アルゴリズムがいくつか提案されているが\cite{Stolcke94a,Stolcke94b},我々はCarrascoらによるALERGIAアルゴリズム\cite{Carrasco94}を用いた.以下では,2節でIFT付きコーパスの概要について説明する.3節でエルゴードHMMによる対話構造のモデル化について述べ,4節で状態マージング手法による対話構造のモデル化について述べる. \section{IFT付きコーパス} 対話モデル作成のための基礎データとして,発話行為タイプ(IllocutionaryForceType;IFT)付きコーパス\cite{Nagata92,Nagata94,Suzuki93}を用いた.これは,ATR対話データベース中の「国際会議参加登録のタスク」の対話の各発話について,その発語内行為を分析し,陳述・命令・約束などの発話のタイプが付けられたコーパスである.このコーパスで用いられているIFTは,表層の統語的パターンと比較的直接的な対応がとれる表層IFT(SurfaceIllocutionaryForceType)と呼ばれるものである.また,各発話文には,発話者(事務局または質問者)を示すラベルが付与されている.IFT付きコーパスで用いられている表層IFTの種類および各IFTに属する例文を表\ref{Tab:IFTdef}に,IFT付きコーパスの例を図\ref{Fig:IFT-Corpus}に示す.本研究における評価実験では,IFT付きコーパスの中から,モデル会話10対話(222文)とキーボード会話50対話(1686文)を用いた.\begin{table}[p]\caption{表層IFTの分類および例}\label{Tab:IFTdef}\begin{center}\begin{tabular}{@{$\;$}l|p{6cm}|p{5.5cm}@{$\;$}}\hline表層IFT&定義&例文\\\hline\hlinephatic&挨拶などで用いられるイディオム的な表現&もしもし,\newline失礼します\\\hlineexpressive&話者の感情表現に関するイディオム的な表現&ありがとうございます,\newlineよろしくお願いします\\\hlineresponse&質問などに対する応答や合いづち&はい,\newlineわかりました\\\hlinepromise&話し手がある行為をすることを約束する表現&登録用紙を送らせていただきます\\\hlinerequest&話し手が聞き手に行為をすることを依頼する表現&地下鉄で北大路駅まで行って下さい\\\hlineinform&情報の伝達&今回は割り引きを行なっておりません\\\hlinequestionif&真偽疑問文&会議の案内書はお持ちですか\\\hlinequestionref&疑問語疑問文&どうすればよろしいですか\\\hlinequestionconf&確認&既に登録料を振り込まれておられますね\\\hline\end{tabular}\end{center}\end{table}\begin{figure}[p]\begin{verbatim}質問者phatic:もしもしquestionif:そちらは会議事務局ですか事務局response:はいresponse:そうですquestionref:どのようなご用件でしょうか質問者inform:会議に申し込みたいのですがquestionref:どのような手続きをすればよろしいのでしょうか事務局request:登録用紙で手続きをして下さいquestionif:登録用紙は既にお持ちでしょうか質問者response:いいえinform:まだです\end{verbatim}\caption{IFT付き対話コーパスの例}\label{Fig:IFT-Corpus}\end{figure} \section{エルゴードHMMによる対話構造のモデル化} IFT付きコーパスの各発話には,話者ラベルおよびIFTが付与されている.話者の交替や質問・応答・確認のような対話の基本的な構造を確率・統計的にモデル化するために,コーパス中の話者ラベルおよびIFTの系列をエルゴードHMMによりモデル化することを試みた.なお,エルゴードHMMとは,自己遷移も含めすべての状態間の遷移を許す全遷移型のHMMである.本実験では,あらかじめHMMの状態数を決めておき,Baum-Welchの再推定アルゴリズムにより,エルゴードHMMの学習を行なった.初期モデルとしては,初期状態分布確率を均等確率に,また状態遷移確率および出力確率は確率値の総計が1になるようなランダムな値で初期化した.エルゴードHMMの学習データとして,モデル会話およびキーボード会話中から,以下の2つの系列を抽出した.\begin{itemize}\item[(1)]IFTのみの系列\item[(2)]話者ラベルとIFTを組み合わせたラベルの系列\end{itemize}IFTの総数は9個であり,対話コーパス中の発話者は2名(事務局あるいは質問者)であるので,上記(2)の場合のシンボル数は18個である.実験では,エルゴードHMMの構造として状態数2〜14のものを用いて学習を行なった.表\ref{Tab:HMMEntropy}に,状態数2,4,6,8,10,12,14の場合のモデルのエントロピーを示す.表\ref{Tab:HMMEntropy}で,IFTと示されているのはIFTのみの系列を用いたときの結果であり,SP-IFTは話者ラベルとIFTを組み合わせたラベルの系列を用いたときの結果である.一般的な傾向として,状態数が増えるに従いエントロピーが小さくなり,同じ状態数では話者ラベルを併用したものの方がエントロピー値が大きくなっている.\begin{table}\caption{ErgodicHMMのエントロピー}\label{Tab:HMMEntropy}\begin{center}\begin{tabular}{c|cc|cc}\hlineHMMの&\multicolumn{2}{c|}{モデル会話}&\multicolumn{2}{c}{キーボード会話}\\\cline{2-3}\cline{4-5}状態数&IFT&SP-IFT&IFT&SP-IFT\\\hline2&2.12&2.72&2.38&3.02\\\hline4&1.86&2.27&1.89&2.78\\\hline6&1.17&1.81&1.91&2.49\\\hline8&1.35&1.64&1.88&2.40\\\hline10&1.21&1.60&1.60&2.27\\\hline12&0.91&1.29&1.63&1.95\\\hline14&0.92&1.24&1.72&2.11\\\hline\end{tabular}\end{center}\end{table}文献\cite{Nagata94}の結果では,trigramモデルを使った場合,モデル会話でのSP-IFTのエントロピー値は1.26,キーボード会話でのSP-IFTの値は2.19と報告している.本実験では,12〜14状態のエルゴードHMMの場合が,trigramのエントロピー値とほぼ同等になっている.学習後のHMMの構造(状態数5の場合)を図\ref{Fig:HMM-IFT}および図\ref{Fig:HMM-IFT-SP}に示す.図\ref{Fig:HMM-IFT}はIFTのみの系列から得られたモデルであり,図\ref{Fig:HMM-IFT-SP}は話者ラベルとIFTを組み合わせたラベルの系列から得られたモデルである.図には,遷移確率および出力確率が0.1以上のもののみを記しており,矢印の太いものほど大きな遷移確率を持っていることを示している.状態遷移の一番上に書かれている確率が遷移確率であり,その下に各シンボル(IFT)の出力確率が記されている.図\ref{Fig:HMM-IFT-SP}で,Sで始まるシンボルは事務局側の発話であることを,またQで始まるシンボルは質問者側の発話であることを示している.例えば,図\ref{Fig:HMM-IFT-SP}では,状態1が初期状態であり,質問者が最初の発話「もしもし」を発話するとQphaticを出力する遷移をたどることになる.これは,状態1での自己ループあるいは状態1から状態2への遷移に対応している.「国際会議参加登録のタスク」では,事務局の「こちらは会議事務局です」という発話により対話が始まる場合もある.この場合にはSinformを出力する遷移である状態1での自己ループとなる.また,図\ref{Fig:HMM-IFT-SP}では,状態遷移が事務局側の発話と質問者側の発話で比較的きれいに分かれている.例えば,状態3から状態2への遷移は質問者側の発話によって起こり,しかもこの遷移は事務局に対する質問や依頼に対応していることが分かる.この質問や依頼に対し,状態2から状態0の遷移で事務局が応答(Sresponse,Sinform)する確率が非常に高いことも読みとることができる.以上のように,発話行為タイプ付きコーパスから得られたエルゴードHMMは,質問・応答といった基本的な構造を抽出しているということができる.\begin{figure}\begin{center}\epsfile{file=fig1.eps,width=100mm}\end{center}\caption{IFTのみの系列から得られた5状態エルゴードHMM}\label{Fig:HMM-IFT}\end{figure}\begin{figure}\begin{center}\epsfile{file=fig2.eps,width=100mm}\end{center}\caption{話者ラベルとIFTを組み合わせたラベルの系列から得られた5状態エルゴードHMM}\label{Fig:HMM-IFT-SP}\end{figure} \section{状態マージング手法による対話構造のモデル化} エルゴードHMMによるモデル化では,確率モデルの学習に先立ち,モデルの構造(状態数)をあらかじめ決めておく必要がある.これに対し,近年,状態マージング手法を用いて,学習データに対し最適な構造を持つモデルを自動的に構築する研究がいくつか行なわれている\cite{Stolcke94a,Stolcke94b}.我々は,CarrascoらによるALERGIAアルゴリズム\cite{Carrasco94}を用いて,対話構造のモデルを構築することを試みた.\subsection{ALERGIAアルゴリズム}ALERGIAアルゴリズムは,与えられた学習データを受理する確率決定性有限オートマトンを構成するアルゴリズムである.詳細なアルゴリズムは,文献\cite{Carrasco94}に説明されている.以下では,ALERGIAアルゴリズムの概要について述べる.\subsubsection*{(1)接頭木アクセプタの作成}学習データから接頭木アクセプタ(PrefixTreeAcceptor;PTA)を作る.なお,接頭木アクセプタとは,学習データ中のシンボル列を受理する決定性有限オートマトンであり,トライのようにシンボル系列の接頭部分が同じものを共通の状態によって表現したものである.例えば,学習データ$S=\{\lambda,00,10,110\}$($\lambda$は空列)に対するPTAは,図\ref{Fig:PTA}のようになる.\begin{figure}[h]\begin{center}\epsfile{file=fig3.eps,width=70mm}\end{center}\caption{接頭木アクセプタの例}\label{Fig:PTA}\end{figure}\subsubsection*{(2)状態遷移確率の計算}$n_{i}$を学習データが接頭木アクセプタの各状態$q_{i}$を訪れた回数とする.もし学習データが状態$q_{i}$で受理されれば,受理されたデータの個数を$f_{i}(\#)$とする.状態$q_{i}$で受理されなければ,次の状態へ遷移するが,このとき状態遷移$\delta_{i}(a)$(状態$q_{i}$でシンボル$a$がきたときの遷移)をたどった回数を$f_{i}(a)$とする.状態遷移$\delta_{i}(a)$の遷移確率は,次のようにして求められる.\begin{equation}P_{i}(a)=\frac{f_{i}(a)}{n_{i}}\end{equation}なお,$P_{i}(\#)$は,データが状態$q_{i}$で受理される確率を表している.\subsubsection*{(3)状態のマージ}接頭木アクセプタの状態$q_{i}$と$q_{j}$が等価($q_{i}\equivq_{j}$)であれば,これら2つの状態をマージする.ここで,状態$q_{i}$と$q_{j}$が等価であるとは,すべてのシンボル$a\in\Sigma$について,遷移確率$P_{i}(a)$と$P_{j}(a)$が等しく,遷移後の状態も等価であるときをいう.即ち,状態$q_{i}$と$q_{j}$が等価であれば,次が成り立つ.\begin{equation}q_{i}\equivq_{j}\Longrightarrow\foralla\in\Sigma\left\{\begin{array}{l}P_{i}(a)=P_{j}(a)\\\delta_{i}(a)\equiv\delta_{j}(a)\end{array}\right.\end{equation}なお,状態の等価性を判断する場合,学習データに対する統計的な揺れを伴うので,2つの遷移確率の差が許容範囲にあるときに等価であるとする.ALERGIAアルゴリズムでは,以下のようにして状態の等価性を決めている.確率$p$のベルヌイ確率変数があり,$n$回の試行のうち$f$回この事象が起こったとすると,次式が成り立つ.\begin{equation}P\left(\left|p-\frac{f}{n}\right|<\sqrt{\frac{1}{2n}\log\frac{2}{\alpha}}\right)\geq1-\alpha\end{equation}ALERGIAアルゴリズムでは,学習データから推定された2つの遷移確率の差が,信頼範囲$\sqrt{\frac{1}{2n}\log\frac{2}{\alpha}}$の和の範囲内にあるときに,2つの状態を等価であるとしている.即ち,状態$i$と状態$j$が等価であるとは,すべてのシンボル$a\in\Sigma$について,次式が成り立つことである.\begin{equation}\left|\frac{f_{i}(a)}{n_{i}}-\frac{f_{j}(a)}{n_{j}}\right|\leq\sqrt{\frac{1}{2}\log\frac{2}{\alpha}}\left(\frac{1}{\sqrt{n_{i}}}+\frac{1}{\sqrt{n_{j}}}\right)\label{Eq:AlergiaStateEq}\end{equation}\subsection{ALERGIAアルゴリズムの動作例}\begin{figure}\begin{center}\epsfile{file=fig4.eps,width=130mm}\end{center}\caption{ALERGIAアルゴリズムの動作例}\label{Fig:ExampleAlergia}\end{figure}ALERGIAアルゴリズムの動作を,簡単な例で説明する\cite{Carrasco94}.いま,学習データとして,次の集合$S$が与えられたとする.\begin{equation}S=\{110,\lambda,\lambda,\lambda,0,\lambda,00,00,\lambda,\lambda,\lambda,10110,\lambda,\lambda,100\}\end{equation}また,$\alpha=0.8$と仮定する.\subsubsection*{(1)PTAの作成}学習データから,図\ref{Fig:ExampleAlergia}(a)のPTAを作成する.図\ref{Fig:ExampleAlergia}では,各状態の下に,その状態に到達したデータの個数およびその状態で受理されたデータの個数が示されている.また,各状態遷移には,その遷移を引き起こしたシンボル(0あるいは1)とデータ数が示されている.\subsubsection*{(2)状態$(2,1)$の等価性チェック}まず,状態2と状態1の等価性について考える.2つの状態での受理確率の差は,\begin{equation}\left|\frac{1}{3}-\frac{9}{15}\right|=0.26<\sqrt{\frac{1}{2}\log\frac{2}{\alpha}}\left(\frac{1}{\sqrt{3}}+\frac{1}{\sqrt{15}}\right)=0.55\end{equation}また,シンボル0による遷移確率についても,\begin{equation}\left|\frac{2}{3}-\frac{3}{15}\right|=0.46<0.55\end{equation}となる.状態2と状態1が等価であるためには,更にこれらの状態の遷移先である状態4と状態2も等価である必要があるが,同様の計算により,状態4と状態2の等価性も示すことができる.状態4と状態2をマージし,更に状態2と状態1をマージすると,図(b)のオートマトンを得る.\subsubsection*{(3)状態$(3,1)$の等価性チェック}次に,状態3と状態1について考えると,両者の受理確率の差は,\begin{equation}\left|\frac{0}{3}-\frac{12}{20}\right|=0.6>\sqrt{\frac{1}{2}\log\frac{2}{\alpha}}\left(\frac{1}{\sqrt{3}}+\frac{1}{\sqrt{20}}\right)=0.53\end{equation}となり,等価でないことが分かる.従って,状態3と状態1をマージすることはできない.\subsubsection*{(4)状態$(5,1)$の等価性チェック}以上の計算と同様にして,状態5と状態1の等価性も示すことができる.また,状態$(5,1)$の等価性を調べる過程において,状態$(7,1)$,$(8,3)$,$(10,6)$,$(11,9)$の等価性も同時に示される.これらの状態をマージすると,図(c)のオートマトンを得る.\subsubsection*{(5)状態$(6,3)$の等価性チェック}同様にして,状態6と状態3の等価性も示すことができる.状態$(6,3)$をマージすると,図(d)のオートマトンを得る.受理確率および遷移確率を計算して,最終的に図(e)のオートマトンを得る.\subsection{対話構造のモデル化}\begin{figure}\begin{center}\epsfile{file=fig5.eps,width=104mm}\end{center}\caption{状態数とパープレキシティの関係}\label{Fig:ALERGIA-STATE-ENTROPY}\end{figure}\begin{figure}\begin{center}\epsfile{file=fig6.eps,width=140mm}\end{center}\caption{ALERGIAアルゴリズムにより得られたオートマトンの一部}\label{Fig:ALERGIA-IFT}\end{figure}上述のALERGIAアルゴリズムを用いて,IFT付きコーパスから対話構造をモデル化する実験を行なった.学習データとしては,キーボード会話50対話(1686文)を用いた.ALERGIAアルゴリズムでは,状態の等価性は式(\ref{Eq:AlergiaStateEq})により判定されるが,式(\ref{Eq:AlergiaStateEq})の右辺の値(定数$\alpha$の値)を変えることにより,様々な状態数を持つオートマトンを学習データから構成することができる.図\ref{Fig:ALERGIA-STATE-ENTROPY}に,ALERGIAアルゴリズムにより得られたオートマトンの状態数とパープレキシティの関係を示す.パープレキシティの値は,学習データに対するテストセット・パープレキシティを用いている.状態数の増加にともないパープレキシティは減少している.パープレキシティ$P$とエントロピー$H$の間には,\begin{equation}P=2^{H}\label{Eq:PerpEnt}\end{equation}なる関係があるが,式(\ref{Eq:PerpEnt})より,ALERGIAアルゴリズムで得られたモデルのエントロピーを算出してみると,エルゴードHMMと同程度の精度を達成するためには,エルゴードHMMの場合よりもはるかに多くの状態が必要となることが分かる.これは,HMMが非決定性の有限オートマトンと等価であるのに対し,ALERGIAアルゴリズムにより得られるモデルが決定性の有限オートマトンであるためである.図\ref{Fig:ALERGIA-IFT}は,話者ラベルとIFTを組み合わせたラベルの系列から得られた30状態のオートマトンの一部(16個の状態)である.このオートマトンの初期状態は状態0であり,最終状態は状態22である.図の左側には,初期状態0から状態遷移する確率の高い11個の状態(状態0,4,7,9,10,11,12,17,20,27,28)が示されている.状態0から始まり再び状態0に至る状態遷移系列(例えば,0→7→4や0→7→27→28など)が,質問・応答・確認などの対話の基本サイクルを表していると考えることができる.また,図の右側に,最終状態22に状態遷移する確率の高い5個の状態(状態1,16,21,22,23)が示されている.例えば,状態27あるいは28で,expressive(例:「ありがとうございました」)に対応する発話が現れると,最終状態へ向かう状態遷移が選択されるということが分かる.しかし,国際会議参加登録のタスクでは,expressiveやphaticというIFTの出現頻度はIFT全体の数パーセントにしか過ぎないので,状態27あるいは28から状態21へ遷移する確率は低くなっている(図中,遷移確率の小さいものは破線で示されている).\vspace*{-3mm} \section{おわりに} \vspace*{-2mm}本技術資料では,コーパスからの確率的対話モデルの自動生成に関する研究として,エルゴードHMMによる対話構造のモデル化とALERGIAアルゴリズムによる対話構造のモデル化の2種類の方法について述べた.モデル化実験では,ATR対話データベース中の「国際会議参加登録」に関する対話データの各発話文に発話者のラベルおよび陳述・命令・約束などの発話行為タイプを付与したものを用いた.エルゴードHMMおよびALERIGIAアルゴリズムを用いて,上記コーパス中の発話者のラベルおよび発話行為タイプの時系列のモデル化を行なうことにより,話者の交替や質問・応答・確認といった会話の基本的な構造を確率・統計的に反映した確率的対話モデルを構築した.今後は,同様の手法を用いて,対話における話題の遷移等をモデル化するための研究を行ないたいと考えている.\vspace*{-2mm}\bibliographystyle{jnlpbbl}\bibliography{kita}\begin{biography}\biotitle{略歴}\bioauthor{北研二}{1981年早稲田大学理工学部数学科卒業.1983年から1992年まで沖電気工業(株)勤務.この間,1987年から1992年までATR自動翻訳電話研究所に出向.1992年9月から徳島大学工学部勤務.現在,同助教授.工学博士.確率・統計的自然言語処理,音声認識等の研究に従事.情報処理学会,電子情報通信学会,日本音響学会,日本言語学会,計量国語学会,ACL各会員.}\bioauthor{福井義和}{1994年徳島大学工学部知能情報工学科卒業.1996年同大学院博士前期課程修了.在学中,確率・統計的自然言語処理の研究に従事.現在,富士通徳島システムエンジニアリング勤務.}\bioauthor{永田昌明}{1985年京都大学工学部情報工学科卒業.1987年同大学院修士課程修了.同年,日本電信電話株式会社入社.1989年ATR自動翻訳電話研究所へ出向.1993年日本電信電話株式会社へ復帰.現在,情報通信研究所勤務.音声翻訳,統計的自然言語処理の研究に従事.平成7年度情報処理学会論文賞受賞.情報処理学会,電子情報通信学会,人工知能学会,ACL各会員.}\bioauthor{森元逞}{1968年九州大学工学部電子工学科卒業.1970年同大大学院修士課程修了.同年,日本電信電話公社に入社.以来,同社電気通信研究所にて,オペレーティングシステム等の研究開発に従事.1987年よりATR自動翻訳電話研究所へ出向.音声言語翻訳システム,特に,音声言語統合方式,音声言語翻訳方式の研究に従事.現在,ATR音声翻訳通信研究所,第4研究室室長.電子情報通信学会,情報処理学会,人工知能学会,各会員.工博.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V03N04-07
\section{まえがき} 自然言語の機械による処理方法の一つに,人間が与えた規則を用いて解析する方法がある.この方法では,一般に知識が複雑になるほど精密な解析ができるが,この複雑化に伴い知識獲得が難しくなるため,解析の対象となる話題を限定することがほぼ必須となる.この点において,人間により与えられた規則にのみ基づく解析は,限界にきているとの見方もある.これに対して,自然言語に関する統計的情報を自然言語処理に利用する研究が盛んに行われている\cite{utsu,kudo,mich}.人間によって与えられた規則を元に解析を行う方法においても,規則の適用される確率を統計的に調べておくことにより良い結果が得られることが多く,統計的な情報を自然言語処理に用いることは処理の効率化に効果があるとみられる.筆者らは既に,統計情報を自然言語処理に利用する方式の一つとして,コーパスに基づいて日本語文法を自動獲得する方法を提案している\cite{yoko2}.この獲得法は,まず構文木情報の付加されたコーパスから多数の文の構文木を作成し,それぞれの節点にランダムに非終端記号を割り当て,その後この割当てをエントロピーにより評価し,エントロピーが最小となるようシミュレーテッド・アニーリング法により割り当てを変更するものである\cite{shan,asai,patr}.この方法を新聞記事の文法の獲得に適用した所,得られた文法は終端記号と非終端記号との間の置き換え規則のエントロピーが比較的高いことがわかった.従って,この獲得法の単位として形態素より長い単位---認知単位---を利用することによりエントロピーを下げれば,パーザの動作効率を高めることができると期待される.本論文ではこのような知見に基づき,形態素より長い単位を人間による知覚実験の結果から定義し,文法の自動獲得に応用した,新しい方法を提案する. \section{文法の自動獲得法} 今,図\ref{zu1}(a)のように例文と構文木が与えられていると仮定する.この場合,文脈自由文法における終端記号の集合は$T=\{東,日本,では,晴れて,い,ます\}$と書ける.非終端記号の集合を$N=\{n_1,n_2,n_3,n_4\}$,\hspace*{-1mm}初期記号を$n_1$として,\hspace*{-1mm}この構文木を同図(b)のように変形し,各節点に非終端記号を割り当てたとする.すると,各節点の上下関係から次のshift-reduceパーザの規則を得ることができる\cite{yoko2}.\newpage\begin{figure}\begin{center}\epsfile{file=7-1.eps,width=90mm}\end{center}\caption{構文木の各節点に対する非終端記号の割り当て}\label{zu1}\end{figure}\begin{center}\begin{minipage}[t]{6cm}\begin{flushleft}\baselineskip=15pt\smallskip$R1$:東$\rightarrow$$n_2$\\$R2$:日本$\rightarrow$$n_3$\\$R3$:では$\rightarrow$$n_3$\\$R4$:晴れ$\rightarrow$$n_4$\\$R5$:て$\rightarrow$$n_3$\\$R6$:い$\rightarrow$$n_2$\\$R7$:ます$\rightarrow$$n_4$\\$R8$:$n_2$,$n_3$$\rightarrow$$n_4$\\$R9$:$n_4$,$n_3$$\rightarrow$$n_2$\\$R10$:$n_2$,$n_4$$\rightarrow$shift\\$R11$:$n_4$,$n_3$$\rightarrow$$n_2$\\$R12$:$n_2$,$n_2$$\rightarrow$shift\\$R13$:$n_2$,$n_2$$\rightarrow$shift\\$R14$:$n_2$,$n_4$$\rightarrow$$n_3$\\$R15$:$n_2$,$n_3$$\rightarrow$$n_4$\\$R16$:$n_2$,$n_4$$\rightarrow$$n_1$\\\end{flushleft}\end{minipage}\end{center}この規則の中には$R10$,$R14$,$R16$のように左辺が等しく右辺が異なるものが存在する.このような規則は,shift-reduceパーザの探索空間を広げ,処理速度を低下させる.先の規則において左辺が$n_i,n_j$の時,右辺が$n_k$となる条件つき確率を$P_{n_in_j}(n_k)$,右辺がshiftとなる条件つき確率を$P_{\mbox{\footnotesizeShift}n_in_j}$とする.同様に,左辺が終端記号$t_i$の時,右辺が$n_j$となる条件つき確率を$P_{t_i}(n_j)$で表す.更に規則$n_i,n_j\rightarrown_k$の出現確率を$P(n_i,n_j,n_k)$,規則$n_i,n_j\rightarrow$shiftの出現確率を$P_{\mbox{\footnotesizeshift}}(n_i,n_j)$とする.また規則$t_i\rightarrown_j$の出現確率を$P(t_i,n_j)$とする.すると,上記のshift-reduceパーザの規則はこれらの確率を用いて次のように書き直すことができる.\[\begin{array}{ll}P(東,n_2)=0.06,&P_{東}(n_2)=1.00\\P(日本,n_3)=0.06,&P_{日本}(n_3)=1.00\\P(では,n_3)=0.06,&P_{では}(n_3)=1.00\\P(晴れ,n_4)=0.06,&P_{晴れ}(n_4)=1.00\\P(て,n_3)=0.06,&P_{て}(n_3)=1.00\\P(い,n_2)=0.06,&P_{い}(n_2)=1.00\\P(ます,n_4)=0.06,&P_{ます}(n_4)=1.00\\P(n_2,n_3,n_4)=0.13,&P_{n_2n_3}(n_4)=1.00\\P(n_4,n_3,n_2)=0.13,&P_{n_4n_3}(n_2)=1.00\\P_{\mbox{\footnotesizeshift}}(n_2,n_4)=0.06,&P_{\mbox{\footnotesizeshift}n_2n_4}=0.33\\P_{\mbox{\footnotesizeshift}}(n_2,n_2)=0.13,&P_{\mbox{\footnotesizeshift}n_2n_2}=1.00\\P(n_2,n_4,n_3)=0.06,&P_{n_2n_4}(n_3)=0.33\\P(n_2,n_3,n_4)=0.13,&P_{n_2n_3}(n_4)=1.00\\P(n_2,n_4,n_1)=0.06,&P_{n_2n_4}(n_1)=0.33\\\end{array}\]$R1\cdotsR16$において左辺が等しく右辺が異なるような規則を減らすということは,上記の条件つき確率のすべてを1または0に近づけるということに対応する.これは更に次の(\ref{eq5})式で定義されるエントロピー$H$を減少させることに等しい\cite{shan}.\vspace*{-2mm}\begin{eqnarray}H&=&\sum_{i,j}P_{\mbox{\footnotesizeshift}}(n_i,n_j)\logP_{\mbox{\footnotesizeshift}n_in_j}\nonumber\\&&-\sum_{i,j,k}P(n_i,n_j,n_k)\logP_{n_in_j}(n_k)\nonumber\\&&-\sum_{i,j}P(t_i,n_j)\logP_{t_i}(n_j)\label{eq5}\end{eqnarray}従って,構文木の各節点に対する非終端記号の割当てを,\hspace*{-1mm}$H$が最小となるように変更すれば,shift-reduceパーザの動作に最適な規則を得ることができる.\hspace*{-2mm}この最小化は組合わせ最適化問題に対応する.この場合,組合せ空間にはいくつもの極小値が存在する.よって,この方法ではシミュレーテッド・アニーリング法を用いて$H$の最小化を行う\cite{patr}.こうして獲得したshift-reduceパーザの動作規則からは,容易に文脈自由文法を作り出すことができる.すなわちこの方法は,文法を獲得する方法であるとみなせる.また,$H$を用いてperplexity$Q$を次のように計算できる.\vspace*{-2mm}\begin{equation}Q=\exp(H)\label{eq6}\end{equation}$Q$は物理的には,一つの左辺に対して平均いくつの右辺が存在するかを示す値となる.新聞記事7500文を対象として,この方法により解析を行った結果,左辺が形態素である規則の条件つき生起確率$P_{t_i}(n_j)$は,左辺が非終端記号2個の規則の条件つき生起確率$P_{n_in_j}(n_k)$と比べて,値が小さくなることが示された\cite{yoko2}.これは,一つの形態素が多数の用法を持っていることを示している.従って複数の形態素を組合わせたより長い文字列を,この解析の単位として用いることにより,shift-reduceパーザの解析効率をより高めることができると予想される. \section{認知単位の知覚実験} 機械による文解析は,専ら形態素を単位として行われている\cite{taka}.しかし,人間では果たしてどのような単位が用いられているのだろうか.これを確かめるため,知覚実験を行った.この実験では,コンピュータのディスプレイ上に30字程度の漢字かな混じり文を短時間表示し,被験者に口頭で読んでもらう.使用したディスプレイは,640$\times$400ピクセルの15インチディスプレイで,被験者から約1mの距離に配置してあり,16$\times$16ピクセルの白いフォントで文が提示される.被験者は成人男子大学生4名である.まず,表示時間を50msとして1文を提示し,被験者に直ちに口頭で再生してもらう.文は24用意してあり,この実験を全文につき行なう.24文の実験が終了すると,提示時間を100msとして再度24文の実験を行なう.ただし,次に現れる文が予測できないよう文を提示する順序を変える.表示時間を50ms刻みで1sまで長くしながらこの実験を繰り返し,表示時間と,被験者が読むことのできた文字数との関係を調べる.画面上には,文の開始位置が常に示されており,被験者には提示の前に視点をその位置に移動しておくように指示してある.従って,被験者は文を文頭から認識することになる.被験者にはあらかじめ文を覚えないよう伝えてあるが,実験を繰り返すうちに文頭付近を覚えることは避けられない.しかし,提示時間は徐々に長くなるため,被験者が再生できた文字列の末尾付近については認識経験が少なく,記憶による影響は小さい.実験結果を図\ref{zu2}に示す.\hspace*{-2mm}この例では,\hspace*{-2mm}「この問題は解決ずみというつもりなのかもしれないが私はそうは思わない.」という文を表示している.結果は図のような階段状になり,人間が文字単位で文を処理しているのではないことは明らかである.また,読めた部分の最後に着目すると,それはすべて文節境界となりうる形態素で終っている.更に,「$\cdots$というつもり」\hspace*{-1mm}や\hspace*{-1mm}「$\cdots$かもしれないが」などのように,複数の文節にまたがる句が一度に検出されているケースもある.従って,人間は文節よりも長い句を一度に検出していることが分かる.「$\cdots$は」,「$\cdots$している」,「$\cdots$というつもり」,「$\cdots$かもしれないが」のように,それだけでは意味をなさず,先行する句の後について補助的な意味を表すような句は,先行する句の一部として先行する句とともに一度に検出されている.この結果から,人間の場合,まずこのような補助的な句を含めた長い句を一度に検出する処理を行い,この処理の後,検出された長い句を組合わせて文を処理していると考えられる.24文の実験結果から,人間は,次のような句を一度に検出していることが分かった.\begin{figure}\begin{flushleft}\small\makebox[30mm][r]{50ms:}この\\\makebox[30mm][r]{100ms:}この問題は\\\makebox[30mm][r]{150ms:}この問題は\\\makebox[30mm][r]{200ms:}この問題は解決\\\makebox[30mm][r]{250ms:}この問題は解決\\\makebox[30mm][r]{300ms:}この問題は解決\\\makebox[30mm][r]{350ms:}この問題は解決ずみ\\\makebox[30mm][r]{400ms:}この問題は解決ずみ\\\makebox[30mm][r]{450ms:}この問題は解決ずみと\\\makebox[30mm][r]{500ms:}この問題は解決ずみと\\\makebox[30mm][r]{550ms:}この問題は解決ずみ\\\makebox[30mm][r]{600ms:}この問題は解決ずみというつもりなのか\\\makebox[30mm][r]{650ms:}この問題は解決ずみというつもりなのか\\\makebox[30mm][r]{700ms:}この問題は解決ずみというつもりなのか\\\makebox[30mm][r]{750ms:}この問題は解決ずみというつもりなのかもしれないが私は\\\makebox[30mm][r]{800ms:}この問題は解決ずみというつもりなのか\\\makebox[30mm][r]{850ms:}この問題は解決ずみというつもりなのかもしれないが\\\makebox[30mm][r]{900ms:}この問題は解決ずみというつもりなのかもしれないが私は\\\makebox[30mm][r]{950ms:}この問題は解決ずみというつもりなのかもしれないが私はそう思わない.\\\makebox[30mm][r]{1000ms:}この問題は解決ずみというつもりなのかもしれないが私はそう思わない.\\\makebox[30mm][r]{stimulus}この問題は解決ずみというつもりなのかもしれないが私はそうは思わない.\\\end{flushleft}\caption{認知単位知覚実験の結果例}\label{zu2}\vspace*{5mm}\end{figure}\begin{enumerate}\item文節\item「〜かもしれない」などの慣用句\item「〜している」などの補助用言を含んだ句\end{enumerate}このような句を,本論文は認知単位と呼ぶことにする\cite{yoko}. \section{認知単位を用いた文法の獲得法} \subsection{認知単位を用いた文法の獲得法の概要}2節で述べた獲得法により獲得した文法を用いるshift-reduceパーザは,認知単位の内部まで係受けを調べるため,探索空間は膨大なものとなる.しかし,前節の考察から,人間においては,認知単位の内部については,通常解析は行っていないと考えられる.よって,2節の解析方法の単位として,3節で述べた認知単位を用いれば,探索空間は大きく狭まり検索効率は向上すると考えられる.本研究では,図{\ref{zu3a}}のように,認知単位を用いた構文木を作り文法を獲得するものとした.\begin{figure}[htb]\begin{center}\epsfile{file=7-3.eps,width=82mm}\end{center}\caption{認知単位を用いた構文木}\label{zu3a}\end{figure}\subsection{天気概況文における機械処理用の認知単位}この文法獲得を行うにあたり,NHKの気象通報の始めに放送される天気概況文1000文を,構文木情報を含めて手入力し,コーパスとして用いた.使用した天気概況文の例を図\ref{zu3}に示す.人間の認知単位は知覚実験により得られるもので,人間における認知単位をすべて明らかにして辞書を作成するためには膨大な知覚実験が必要となる.従って,本研究では簡単のため,人間同様と思われる単位を新たに定義し,機械処理用の認知単位として解析に利用することとした.以下,本論文ではこの機械処理用の認知単位を,単に認知単位と呼ぶ.本論文では,天気概況文における機械処理用の認知単位を次のように定義する.\subsection*{[天気概況文における機械処理用の認知単位の定義]}\begin{quotation}\[認知単位=\left\{\begin{array}{l}自立語\\自立語+補助的な語\\\end{array}\right.\]ただし,複合語は1つの自立語として扱う.また,活用する語については活用語尾も含めて1つの自立語とする.補助的な語は,以下の形態素もしくはその組み合わせとする.\begin{enumerate}\item「が」,「は」,「です」,「ます」のような付属語列\item継続,状態を示す「いる」,「おる」\item状態を示す「なる」\end{enumerate}\end{quotation}\begin{figure}[t]\scriptsizeオホーツク海には,発達中の低気圧があって,北北東へ進んでいます.一方,中国東北部には高気圧があって,ほとんど停滞しています.西日本は晴れ,東日本はくもりで,北日本では所々で雨が降っています.尚,北海道周辺海域と三陸沖では所々濃い霧の為見通しが悪くなっています.日本近海は,北海道東方海上から関東海域北部にかけて,シケています.気温は,北海道,北陸,東海で,平年より1度高い他は,平年並か,1度から2度低くなっています.\caption{天気概況文の例}\label{zu3}\end{figure}\newpage\subsection{認知単位を用いた文法の獲得実験}\vspace{4mm}\begin{figure}[b]\begin{center}\epsfile{file=7-5.eps,width=110mm}\end{center}\caption{認知単位を用いた文法の自動獲得の様子}\label{zu4}\end{figure}前節に示したコーパスを用いて実際に文法の自動獲得を行なった.非終端記号数$N_n=\hspace*{1mm}20,40,60,80$における,シミュレーテッド・アニーリング法による文法獲得の様子を図\ref{zu4}に示す.$C_p$は温度パラメータであり,初期値を経験的に定め,項比0.98の等比数列に従い減少させた.\hspace*{-2mm}各$C_p$について,各節点とも$2N_n$回の非終端記号の更新を行った.この結果得られた$Q$の最終値を表\ref{hyo1}に示す.獲得の結果は,すべて$Q$が$1.3$以下になった.これは動作規則の左辺1つに対して,右辺が$1.3$以下となる規則が得られたことを示している.\vfill\begin{table}\caption{獲得により得られた$Q$の最終値}\label{hyo1}\begin{center}\begin{tabular}{c|c}\hline\hline非終端記号数$N_n$&最終値\\\hline\hline20&1.21\\40&1.06\\60&1.09\\80&1.10\\\hline\hline\end{tabular}\end{center}\end{table} \section{未知の認知単位の自動獲得法} 前節に述べた方法により,認知単位を基本とした文法を獲得することができる.従って,コーパスに出現した認知単位のすべてを辞書に納めておけば,前節で獲得した動作規則に基づいて構文解析を行うことができる.しかし,認知単位は形態素を複数組合わせたものであるため,認知単位の中には極めて出現率が低いものがいくつも存在し,これらの認知単位は限られたコーパス中においては,一度も出現しない可能性がある.従って収録文数が限られたコーパスでは,形態素を単位とした解析法よりも,認知単位を単位とした解析法の方が未知語の比率が高くなる.このようなコーパスの場合,2節の方法の単位として単に認知単位を用いただけでは,未知の認知単位を含む文が解析不能となり,結果的に解析効率が低下する.この現象を抑えるためには,未知の認知単位に関する知識を,既知の認知単位に関する知識から推定する必要がある.本研究ではこの推定を行うため,認知単位を,形態素を基本とする状態遷移図で表現できると仮定する.すると,例えば「東日本では」という認知単位が「東」,「日本」,「では」という3つの形態素からなり,shift-reduceパーザの動作規則または文脈自由文法の生成規則によって,非終端記号$n_1$に置き換え可能であるとすると,この認知単位を図\ref{zu5}のように,隠れ状態$u_1\ldotsu_4$を持つ状態遷移図モデルで表現し,取り扱うことができる.\begin{figure}[b]\begin{center}\epsfile{file=7-6.eps,width=71mm}\end{center}\caption{認知単位の状態遷移図モデル}\label{zu5}\end{figure}同図における各状態に対して更に,\hspace*{-1mm}$u_1$を初期状態,$u_2$,$u_3$を中間状態,$u_4$を受理状態と呼ぶ\\ことにし,この受理状態$u_4$が非終端記号$n_1$に対応しているものと考える.コーパスに出現するすべての認知単位に対しこのモデルを適用し,各認知単位についてすべて異なる隠れ状態$u_i$を生成すると,おびただしい数の隠れ状態が必要となる.このため,隠れ状態の総数$N_u$より小さい$N_s$を考え,\hspace*{-2mm}$u_1$のような初期状態を初期状態記号$s_1$に写像し,\hspace*{-1mm}$u_2$,\hspace*{-1mm}$u_3$のような中間状態を中間状態記号$s_2\ldotss_{N_s}$のいずれかに写像する写像$s_y=T_{us}(u_x)$を考え,状\\態を統一化する.写像$T_{us}$を決めると,コーパスより,状態$s_i$から単語$w_j$を通って$s_k$に移る確率$P_s(s_i,w_j,s_k)$と条件つき確率$P_{ss_i}(w_j,s_k)$を調べることができる.同様に状態$s_i$から単語$w_j$を通って$n_k$に移る確率$P_s(s_i,w_j,n_k)$と条件つき確率$P_{ss_i}(w_j,n_k)$も調べることができる.これらの確率を用いて,状態遷移図のエントロピーは次のように表現される.\begin{eqnarray}H_s&=&-\sum_{i,j,k}P_s(s_i,w_j,s_k)\logP_{ss_i}(w_j,s_k)\nonumber\\&&-\sum_{i,j,k}P_s(s_i,w_j,n_k)\logP_{ss_i}(w_j,n_k)\label{eq7}\end{eqnarray}このエントロピー$H_s$を用いて,状態遷移図における平均分岐数は次のように求まる.\begin{equation}Q_s=\exp(H_s)\label{eq8}\end{equation}$Q_s$は物理的には,一つの状態から平均いくつの枝が出ているかを示している.この方法で得られた状態遷移図を用いて,有限オートマトンで認知単位を検出するとすれば,この分岐数$Q_s$が小さい程オートマトンの決定性が高まり,動作が効率的になる.$Q_s$が最小となるよう$T_{us}$を求める問題は,組合わせ最適化問題となる.この組合わせ空間に\\はやはり多数の極小値が存在するため,本研究ではシミュレーテッド・アニーリング法により$Q_s$を最小化する.$T_{us}$による状態の統一化により,ある認知単位に関する状態遷移図と,その認知単位に近い用法を持つ別の認知単位に関する状態遷移図は交差する.この交差により,認知単位に関する知識は統一化され,未知の認知単位も受理できるようになる.従って,こうして得た状態遷移図は未知の認知単位を含めた状態遷移図となる.$T_{us}$の最適化は,エントロピー$H_s$を基準としてこの交差を最適化することになる.本研究では,この最適化により未知の認知単位に関する状態遷移図も最適化されると仮定し,最適化により得た状態遷移図に基づき認知単位を受理する.このように形態素を基本とした状態遷移図を用いる方法では,最終的には辞書としては形態素の辞書を持つことになる.しかし,有限オートマトンによる解析は,shift-reduceパーザのようなより高次の解析方法に比べて動作が直線的であるため一般に高速である.従って,認知単位内の解析に状態遷移図と有限オートマトンを用いる方法は,文全体をshift-reduceパーザで処理する方法に比べ高速となる利点がある. \section{未知の認知単位の自動獲得実験} \begin{figure}[b]\begin{center}\epsfile{file=7-7.eps,width=126mm}\end{center}\caption{認知単位を表現する状態遷移図の獲得}\label{zu6}\end{figure}4節で獲得した認知単位に関する知識に基づき,5節で述べた方法により未知の認知単位も含めた状態遷移図を獲得する実験を行った.状態記号数$N_u$は20とした.この獲得の様子を図\ref{zu6}に示す.この結果,最終的に得られた$Q_s$はほぼ9程度となった.$Q_s$の最終値を表\ref{hyo2}に示す.非終端記号数$N_n=20$として獲得した場合の,状態遷移図における遷移確率の高い枝の一部を表\ref{hyo3}に示す.状態遷移図の獲得により,形態素は自動的にクラスタリングされるが,このクラスタリングは人間のクラスタリングに類似していることが分かる.\begin{table}[htb]\caption{獲得により得られた$Q_s$の最終値}\label{hyo2}\begin{center}\begin{tabular}{c|c}\hline\hline非終端記号数$N_n$&最終値\\\hline\hline20&9.02\\40&8.71\\60&9.23\\80&9.36\\\hline\hline\end{tabular}\end{center}\end{table}\begin{table}[htb]\begin{center}\caption{獲得により得られた状態遷移表(部分)}\label{hyo3}\scriptsize\begin{tabular}{c|c|ccc}\hline\hline前状態&次状態&&主な形態素\\\hline\hline1&2&一部&西&北\\&3&シケて&進んで&停滞して\\&4&父島&別&霧\\&5&移動して&降って&晴れて\\&6&6&他&\\&7&黄海&気温&三陸沖\\&8&1&2&3\\&9&千島&日本&発達中\\&10&前線&東北&平年並\\&11&低気圧\\&12&悪く&高く&大シケと\\&13&サハリン&沖縄&九州\\&14&かけて&西日本&南\\&15&九州&オホーツク海&沖縄\\&16&見通し&高気圧&波\\&17&東&東シナ海&東北東\\&18&沖縄&関東&東海\\&19&シケて&見込み&中\\&20&平年\\&$n_2$&一方&尚&又\\&$n_4$&ため&為\\&$n_5$&共に&所々&伴った\\&$n_6$&かけて&高い\\&$n_7$&あって\\&$n_{10}$&あって&大体&低い\\&$n_{13}$&ほとんど&ほぼ&大体\\&$n_{15}$&濃い&発達した&ほとんど\\&$n_{16}$&あって\\&$n_{18}$&次第に&伴った\\&$n_{19}$&今後&日本海\\\hline\hline\end{tabular}\end{center}\end{table} \section{獲得した知識に基づく構文解析} 以上の議論に基づき,(A)形態素を基本として文法を獲得する方法,(B)認知単位を基本として文法を獲得し,認知単位をそのまま辞書に登録する方法,(C)認知単位を基本として文法を獲得し,認知単位を受理する状態遷移図を獲得する方法の3つの評価を行った.評価は,獲得した文法に基づき,別に用意した100文を構文解析することによって行った.計算はSUNのSPARCStation20モデル612を用いた.この結果を表\ref{hyo4}に示す.表中において正解率はこの結果,最も確からしいと判断された構文木が,コーパスに与えられている構文木と等しい確率を示す.探索はbest-firstsearch法を用いているため,既存の知識では最終的に構文木が生成できない文があると,その文の処理に極端に時間がかかる.その一方で,解に容易に到達できる場合もあり,文によって処理時間のばらつきが大きい.非終端記号20では,このように探索に時間がかかる文が多く,(A)(B)(C)ともに長い時間を要している.特に認知単位を用いた(B)および(C)では,表\ref{hyo1}における$Q$が,他に比べて大きく,この結果長い時間がかかっているものと思われる.従って,認知単位を用いた方法では,非終端記号20では十分に整理された文法が得られないものと考えられる.しかし,非終端記号数が$40$以上になると(B)(C),特に(B)は,処理速度が著しく高速になる.これは,認知単位を用いる方が,構文木を構成する葉の候補の数が少ないため,構文解析での探索経路が少なくなることに起因する.\begin{table}\caption{獲得した知識に基づく構文解析結果}\label{hyo4}\begin{center}\begin{tabular}{c|c|cc}\hline\hline方法&$非終端記号数N_n$[個]&時間[s]&正解率[\%]\\\hline\hline(A)&20&1156&47\\&40&347&43\\&60&181&44\\&80&267&40\\\hline(B)&20&1877&44\\&40&3&42\\&60&4&35\\&80&4&38\\\hline(C)&20&2799&49\\&40&226&44\\&60&95&44\\&80&9&43\\\hline\hline\end{tabular}\vspace*{-4mm}\end{center}\end{table}正解率でみると,(C)が最も良く,ついで(A)(B)の順となっている.(B)が(A)に比べて劣るのは未知認知単位があるためであると考えられる.(C)において未知認知単位の自動獲得が有効に機能しているのが分かる. \section{むすび} 以上,認知単位を用いた文法の自動獲得法を提案した.認知単位を基本とした文法を用いる解析法は,形態素を基本とした文法を用いる解析法に比べ効率が高い.一般に自然言語の文法は多重折込み要素が存在するため,文全体の解析に状態遷移図を利用するのは適当ではないが,認知単位のような狭い範囲に状態遷移図を利用するのは有効であることが明らかとなった.本方法以外の文解析方法においても,認知単位を利用することにより処理を効率化することができるものと考えられる.\acknowledgment本研究を進めるにあたり,データ入力やプログラミングに協力してくれた東京理科大学藤崎研究室の阿部賢司氏並びに青島直哉氏に深く感謝する.\bibliographystyle{jnlpbbl}\bibliography{nlp002t}\begin{biography}\biotitle{略歴}\bioauthor{横田和章}{1989年東京理科大学基礎工学部電子応用工学科卒業.1993年同大学大学院修士課程了.1996年同大学大学院博士後期課程了.現在,(株)東芝青梅工場所属.}\bioauthor{亀田弘之}{1982年東京大学工学部電子工学科卒業.1984年同大学大学院修士課程了.1987年同大学大学院博士課程了.工学博士.現在,東京工科大学工学部助教授.自然言語処理の研究に従事.}\bioauthor{藤崎博也}{1954年東京大学工学部電気工学科卒業.MIT・KTH(1958--1961).1962年東京大学大学院博士課程了.工学博士.同年東京大学工学部専任講師.1963年同助教授.1973年同教授.1991年東京大学名誉教授,東京理科大学基礎工学部教授.音声生成・知覚・情報処理,自然言語処理等の研究に従事.昭和38年度電気通信学会稲田賞,昭和42年度同学会論文賞,昭和42年度電気学会論文賞,昭和47年度電子通信学会業績賞,1987年IEEE音響・音声・信号処理学会功績賞,1988年米国音響学会特別功績賞,1989年東京都科学技術功労表彰受賞.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V05N01-05
\section{はじめに} コロケーション(Collocation)の知識は,単語間の共起情報を与える言語学的に重要な知識源であり,機械翻訳をはじめとする自然言語処理において,重要な意味をもっている.コロケーションとは,テキスト中に頻繁に出現する単語の組み合わせであり,言語的あるいは慣用的な表現であることから,様々な形態が考えられる.その例として,``{\itThankyouverymuch}''や``{\itIwouldliketo}''のような単語が連続している表現と,``{\itnotonly〜but(also)〜}''や``{\itnotsomuch〜as〜}''のように単語間にギャップを持つ不連続な表現が存在する.これらの表現はそれを一つのまとまった単位として処理する必要があり,その知識は機械翻訳への適用をはじめとして,音声・文字認識における認識結果の誤り訂正\cite{Omoto96}や,第二外国語を学習する際の手助けとするような言語学習や言語教育の分野にも適用できる\cite{Kita94a,Kita97}.以上のように,コロケーションの収集・整理は言語学的にも機械処理の面からも有益であるため,その収集の仕方は自然言語処理における重要な課題である.しかし,人手による収集では膨大な時間と手間が必要となり,かつコロケーションの定義が曖昧であるためにその網羅性・一貫性にも問題が生じる.これらの点から,コロケーションを自動的に抽出・収集する方法として,相互情報量を用いた方法\cite{Church90},仕事量基準を用いた方法\cite{Kita93,Kita94b},$n$-gramを用いた方法\cite{Nagao94},2つの単語の位置関係の分布を考慮する方法\cite{Smadja93}をはじめとして様々な方法が提案されている\cite{Shinnou94,Shinnou95a,Shinnou95b}.しかし,従来の方法の多くは連続したコロケーションを抽出の対象としており,不連続なコロケーションの抽出に関する研究はごく少数であった\cite{Omoto96,Ikehara95}.本論文では,単語の位置情報に基づき,連続型および不連続型の二種類のコロケーションをコーパスから自動的に抽出する方法を提案する.提案する手法は,コーパス全体からコロケーションを抽出するだけではなく,指定された任意の範囲(たとえば,何番目の文,または何番目から何番目の文の中)にあるコロケーションを同定することができる.また,提案する手法は,言語に依存しない(言語独立の)方法であり,機械翻訳等への様々な活用が期待できる.以下,本論文の第\ref{Sec:extract_abstract}節では,提案する手法の基本的な考え方とその特徴について述べる.本手法では,単語の位置情報をとらえるために,コーパス・データを受理する有限オートマトンを用いるが,第\ref{Sec:alergia_algorithm}節では,我々の用いたオートマトン学習アルゴリズムであるALERGIAアルゴリズムについて概略を述べる.第\ref{Sec:extract_algorithm}節では,第\ref{Sec:extract_abstract}節で述べた考えに基づく位置情報を用いた自動抽出アルゴリズムを提案する.第\ref{Sec:experiment}節では,本手法をATR対話コーパスに適用した結果を示し評価を行う. \section{コロケーションの自動抽出の考え方と特徴} \label{Sec:extract_abstract}従来,コロケーションは人手によって収集・整理されてきており,自動的に抽出する方法についての研究も,その多くは連続したコロケーションの抽出に限定されていた.そこで本論文では,そのような限定をせずにすべてのコロケーションを自動的に抽出する手法として,コーパス中の単語の位置情報を用いる方法を提案する.\subsection{コロケーションとは}\label{Subsec:def_collocation}コロケーションは,一般には,任意の再現する単語の組み合わせ(arbitraryandrecurrentwordcombination)として定義される\cite{Benson90,Benson86,Smadja93}.しかし,この定義だけでは余りに漠然としているため,本論文では,コロケーションを以下のようにとらえる.\begin{itemize}\item[1.]コロケーションは,テキスト中で頻繁に出現する(繰り返し使われる)単語の組み合わせで,同一文中に共起し,複数文にまたがらないものである.\item[2.]コロケーションは,単語間の結び付きが強い単語の組み合わせであり,これらは意味的なまとまりを構成する.また,コロケーションは,形態的な面から,次の二つのタイプに分類することができる\cite{Abe97}.\begin{itemize}\item[(a)]単語が隣接して強く結合して,他語の挿入や語の交換が通常なされない表現.\item[(b)]隣接の度合が弱く,表現中に他語の挿入も許される表現.\end{itemize}本論文では,(a)のタイプのコロケーションを連続型コロケーション,(b)のタイプのコロケーションを不連続型コロケーションと呼ぶ.\end{itemize}\subsection{コロケーションの自動抽出}\label{Subsec:auto_extract}\ref{Subsec:def_collocation}節の条件を満たすコロケーションを自動的に抽出するために,本論文では,まずコーパス中での出現頻度の高い単語列に着目する.しかし,単に出現頻度の高い単語列を抽出するだけでは,意味的にまとまりのない断片的な単語列が多く抽出されるので,最長一致の原則\cite{Ikehara95}を用いて,一度,コロケーションとみなされた単語の組み合わせが,それ以後に分割されて処理されることを避ける.また,以下のように,連続型コロケーションと不連続型コロケーションは,別々に抽出する.\begin{itemize}\item[1.]コーパス中に複数回出現する単語列(連続型コロケーション)と,複数回出現し,かつ出現ごとに隣接する単語が異なる単語を抽出する.\item[2.]上記1の単語列または単語がギャップを持って(離れて)複数回共起する組み合わせが不連続型コロケーションである.\end{itemize}上の集計方法は,不連続型コロケーションが連続型コロケーションに比べて,その存在数(出現回数)が少ないため,出現回数をスコアとしてコロケーションを抽出した場合,不連続型コロケーションは連続型コロケーションよりも,はるかに低いスコアとなり,スコアのみにより,不連続なコロケーションを抽出するのは困難である\cite{Omoto96}ことから,現実的な方法であると考える.\subsection{単語の位置情報}\label{Subsec:based}まず,本手法の基礎となる,単語の``位置情報''について説明する.コーパス中のある特定の場所にある単語$w$の位置を,2項組\hspace{-0.2mm}$(i,j)$\hspace{-0.2mm}によって表す.ここで,$i$は文番号(コーパス中の何番目の文であるか)を,また$j$は単語番号(文中の何番目の単語であるか)を示している.単語$w$はコーパス中の複数箇所に出現しえるので,このような2項組のリストを考えることにより,単語$w$がコーパス中のどこに出現するかを把握することができる.以下では,2項組\hspace{-0.2mm}$(i,j)$\hspace{-0.2mm}のリストのことを,単語$w$の出現位置表と呼ぶことにする.一つ注意すべきことは,ある単語\hspace{-0.2mm}$w$\hspace{-0.2mm}に対し,必ずしも出現位置表を一つだけ考える必要はないという点である.もし,単語$w$が異なったコンテキストで用いられていれば,コンテキストごとに単語$w$の出現位置表を用意してもよい.従って,同じ単語$w$であっても,異なった出現位置表を持つ場合がある.本論文では,単語$w$の出現するコンテキストをとらえるために,有限オートマトンを用いる.まず,コーパス中のすべての文を受理するような有限オートマトンを構成する.このような有限オートマトンにおいて,単語$w$による状態遷移はオートマトン中の複数箇所に現れる可能性があるので,各状態遷移ごとに単語$w$の出現位置表を作成する.なお,本論文では,コーパスから有限オートマトンを構成するために,ALERGIAアルゴリズム\cite{Carrasco94}を用いる(\ref{Sec:alergia_algorithm}節参照).本論文における自動抽出法では,ある文中の単語の組み合わせが他の文にも出現するものをその文に含まれるコロケーション(の候補)とみなす.単語の出現位置表を用いることにより,単語間の位置関係をとらえることができるので,ある単語がコーパス中の複数の文に出現している場合,その各々の文の中での組み合わせを考慮するだけで,複数の文に対して同じ組み合わせで出現しているものを知ることができる. \section{ALERGIAアルゴリズムによる決定性確率有限オートマトンの構成} \label{Sec:alergia_algorithm}\ref{Subsec:based}節で述べたように,単語の出現するコンテキストをとらえるために,本論文では有限オートマトンを用いる.我々は,コーパス・テキストを受理するような有限オートマトンを構成するために,ALERGIAアルゴリズム\cite{Carrasco94}を用いた.ALERGIAアルゴリズムは,状態マージング手法を用いて,学習データに対し最適な構造を持つオートマトンを自動的に構成する.また,ALERGIAアルゴリズムでは,本節(3)で述べるように,状態の等価判定を行い,等価な状態をマージすることで,オートマトンを構成する.等価判定を変化させることで,本手法で抽出される単語の組み合わせの結び付きの強さを考慮できるのではないかと考える.以下で,ALERGIAアルゴリズムの概要を述べる.また,図\ref{Fig:pta2dsfa}に,ALERGIAアルゴリズムを用いて,学習データ\(S=\{110,\lambda,\lambda,\lambda,0,\lambda,00,00,\lambda,\lambda,\lambda,10110,\lambda,\lambda,100\}\)($\lambda$は空列)に対する決定性確率有限オートマトンを構成する例を示す.図\ref{Fig:pta2dsfa}(a)から(d)までの各状態の中には状態番号を記載し,各状態の下には入力記号列がその状態をたどった回数(左)とその状態で受理された回数(右)を付与している.また,各状態遷移には``遷移記号[状態遷移を行った回数]''を付与した.\begin{figure}[hbt]\begin{center}\epsfile{file=kita1.eps,width=0.80\textwidth}\end{center}\caption{ALERGIAアルゴリズムによる決定性確率有限オートマトンの構成}\label{Fig:pta2dsfa}\end{figure}\subsubsection*{(1)接頭木アクセプタの作成}学習データから接頭木アクセプタ(PrefixTreeAcceptor;PTA)を作成する.ここで,接頭木アクセプタとは,学習データ中の入力記号列のみを受理することが可能な決定性有限オートマトンであり,初期状態を根とした木構造となる(図\ref{Fig:pta2dsfa}(a)参照).\subsubsection*{(2)状態遷移確率の計算}\hspace{-0.2mm}$n_{i}$\hspace{-0.2mm}を学習データが接頭木アクセプタの状態\hspace{-0.2mm}$q_{i}$\hspace{-0.2mm}を訪れた回数とする.もし学習データが状態\hspace{-0.2mm}$q_{i}$\hspace{-0.2mm}で受理されれば,受理されたデータの個数を\hspace{-0.2mm}$f_{i}(\sharp)$\hspace{-0.2mm}とする.状態\hspace{-0.2mm}$q_{i}$\hspace{-0.2mm}で受理されなければ,次の状態へ遷移するが,このとき状態遷移\hspace{-0.2mm}$\delta_{i}(a)$\hspace{-0.2mm}(状態\hspace{-0.2mm}$q_{i}$\hspace{-0.2mm}で入力記号$a$がきたときの遷移)をたどった回数を\hspace{-0.2mm}$f_{i}(a)$\hspace{-0.2mm}とする.状態遷移\hspace{-0.2mm}$\delta_{i}(a)$\hspace{-0.2mm}の遷移確率\hspace{-0.2mm}$P_{i}(a)$\hspace{-0.2mm}は,次のようにして求められる.\vspace{-0.5mm}\begin{equation}P_{i}(a)=\frac{f_{i}(a)}{n_{i}}\end{equation}\vspace{-0.5mm}なお,\hspace{-0.2mm}$P_{i}(\sharp)$\hspace{-0.2mm}は,入力記号列が状態\hspace{-0.2mm}$q_{i}$\hspace{-0.2mm}で受理される確率を表している.\subsubsection*{(3)状態のマージ}接頭木アクセプタの状態$q_{i}$と状態$q_{j}$が等価(\(q_{i}\equivq_{j}\))であれば,これら2つの状態をマージする.ここで,状態$q_{i}$\hspace{-0.2mm}と状態$q_{j}$\hspace{-0.2mm}が等価であるとは,すべての入力記号\(a\in\Sigma\)($\Sigma$は入力記号の集合)について,遷移確率$P_{i}(a)$と$P_{j}(a)$が等しく,遷移後の状態も等価であるときをいう.すなわち,\begin{equation}q_{i}\equivq_{j}\Longleftrightarrow\foralla\in\Sigma\left\{\begin{array}{l}P_{i}(a)=P_{j}(a)\\\delta_{i}(a)\equiv\delta_{j}(a)\end{array}\right.\end{equation}状態の等価性を判断する場合,学習データに対する統計的な揺れを伴うので,二つの遷移確率の差が許容範囲にあるときに等価であるとする.いま,確率$p$のベルヌイ確率変数があり,$n$回の試行のうち$f$回この事象が起こったとすると,次式が成り立つ.\begin{equation}P\left(\left|p-\frac{f}{n}\right|<\sqrt{\frac{1}{2n}\log\frac{2}{\alpha}}\right)\geq1-\alpha\end{equation}ALERGIAアルゴリズムでは,学習データから推定された二つの遷移確率の差が信頼範囲\(\sqrt{\frac{1}{2n}\log\frac{2}{\alpha}}\)の和の範囲内にあるときに,二つの状態を確率的に等価であるとしている.すなわち,状態$q_{i}$\hspace{-0.2mm}と状態$q_{j}$\hspace{-0.2mm}が等価であるとは,すべての入力記号\(a\in\Sigma\)について,次式が成り立つことである.\begin{equation}\left|\frac{f_{i}(a)}{n_{i}}-\frac{f_{j}(a)}{n_{j}}\right|\leq\sqrt{\frac{1}{2}\log\frac{2}{\alpha}}\left(\frac{1}{\sqrt{n_{i}}}+\frac{1}{\sqrt{n_{j}}}\right)\label{Eq:eq_state}\end{equation}図\ref{Fig:pta2dsfa}(b)は図\ref{Fig:pta2dsfa}(a)の状態$q_1$\hspace{-0.2mm}と状態$q_2$\hspace{-0.2mm}をマージした後のオートマトンである.その後,順に状態をマージして,最終的に図\ref{Fig:pta2dsfa}(e)の決定性確率有限オートマトンが得られる.図\ref{Fig:pta2dsfa}(e)の状態の中にはその状態の受理確率を記載し,各状態遷移には``遷移記号[遷移確率]''を付与している. \section{単語位置情報に基づく自動抽出アルゴリズム} \label{Sec:extract_algorithm}\ref{Sec:extract_abstract}節で述べた考えに基づいた,コロケーションの自動抽出アルゴリズムを,以下で説明する.まず,コーパスを\(W=s_0s_1\ldotss_N\)と表す.$s_n$はコーパス中の$n$番目の文であり,$N+1$がコーパス中の文の総数である.また,コーパス中の文$s_n$は,\(s_n=w_n^0\ldotsw_n^{T(n)}\)と表す.ここで,$w_n^t$は,文$s_n$中の$t$番目の単語であり,\hspace{-0.2mm}$T(n)+1$\hspace{-0.2mm}が文の長さ(単語長)である.以下では,コーパス中の単語の位置を表すのに,``文番号''および``単語番号''という用語を用いる.文番号とはコーパス中の文に対して先頭から順に付けた番号であり,単語番号とは各々の文の中で先頭から順に付けた単語の出現番号である.すなわち,文\hspace{-0.2mm}$s_n$\hspace{-0.2mm}中の単語$w_n^t$に対しては,文番号は$n$,単語番号は$t$となる.\subsection*{手順(1):単語の出現位置表の作成}\hspace{0.5mm}ALERGIA\hspace{0.5mm}アルゴリズムを用いて,コーパス\(W=\{s_n;0\len\leN\}\)を受理する決定性確率有限オートマトンを構成する.決定性確率有限オートマトンでは,各文\hspace{-0.2mm}$s_n$\hspace{-0.2mm}に対して状態遷移が一意に定まる.各状態遷移に対して,単語の出現位置表を作成する(図\ref{Fig:inlearn}参照).なお,出現位置表とは,すでに\ref{Subsec:based}節で述べたように,各単語のコーパス中の出現位置をまとめたものであり,出現位置は文番号と単語番号の2項組で表される.位置情報は\(n=0,1,\ldotsN\),\(t(n)=0,\ldotsT(n)\)の順に記録する.\begin{figure}[hbt]\begin{center}\epsfile{file=kita2.eps,width=0.60\textwidth}\end{center}\caption{コーパス$W$中の各単語の出現位置の記録}\label{Fig:inlearn}\end{figure}図\ref{Fig:edgeattr}は,図\ref{Fig:inlearn}の処理によって作成された($W$中の)単語の出現位置表を示している.各表は文$s_0$の単語``もしもし'',``通訳国際会議事務局'',``です'',``か''に対応している.\begin{figure}[hbt]\begin{center}\begin{footnotesize}\begin{minipage}[t]{3cm}\begin{tabular}[t]{|r|r|}\multicolumn{2}{c}{\bfもしもし}\\\hline\multicolumn{1}{|c|}{\bf文}&\multicolumn{1}{c|}{\bf単語}\\\multicolumn{1}{|c|}{\bf番号}&\multicolumn{1}{c|}{\bf番号}\\\hline0&0\\73&0\\116&0\\169&0\\236&0\\270&0\\353&0\\429&0\\484&0\\512&0\\\end{tabular}\end{minipage}\quad\begin{minipage}[t]{3cm}\begin{tabular}[t]{|r|r|}\multicolumn{2}{c}{\bf通訳国際会議}\\\multicolumn{2}{c}{\bf事務局}\\\hline\multicolumn{1}{|c|}{\bf文}&\multicolumn{1}{c|}{\bf単語}\\\multicolumn{1}{|c|}{\bf番号}&\multicolumn{1}{c|}{\bf番号}\\\hline0&1\\\hline\end{tabular}\end{minipage}\quad\begin{minipage}[t]{3cm}\begin{tabular}[t]{|r|r|}\multicolumn{2}{c}{\bfです}\\\hline\multicolumn{1}{|c|}{\bf文}&\multicolumn{1}{c|}{\bf単語}\\\multicolumn{1}{|c|}{\bf番号}&\multicolumn{1}{c|}{\bf番号}\\\hline0&2\\1&2\\2&5\\4&2\\7&8\\13&9\\14&8\\15&3\\16&22\\17&4\\18&9\\19&9\\22&10\\23&27\\31&6\\33&6\\33&12\\\multicolumn{2}{|c|}{$\vdots$}\\73&2\\\multicolumn{2}{|c|}{$\vdots$}\\\end{tabular}\end{minipage}\quad\begin{minipage}[t]{3cm}\begin{tabular}[t]{|r|r|}\multicolumn{2}{c}{\bfか}\\\hline\multicolumn{1}{|c|}{\bf文}&\multicolumn{1}{c|}{\bf単語}\\\multicolumn{1}{|c|}{\bf番号}&\multicolumn{1}{c|}{\bf番号}\\\hline0&3\\3&9\\6&19\\10&2\\12&7\\14&9\\15&4\\18&10\\21&33\\22&19\\27&15\\31&7\\33&13\\\multicolumn{2}{|c|}{$\vdots$}\\73&3\\\multicolumn{2}{|c|}{$\vdots$}\\\end{tabular}\end{minipage}\end{footnotesize}\end{center}\caption{$W$中の文$s_0$の単語に関する出現位置表}\label{Fig:edgeattr}\end{figure}なお,ALERGIAアルゴリズムの等価判定の信頼範囲を決定する\hspace{-0.2mm}$\alpha$\hspace{-0.2mm}の値によって,構築されるオートマトンの規模は変化する.様々な\hspace{-0.2mm}$\alpha$\hspace{-0.2mm}の値に対するオートマトンによって,上の手順で作成される出現位置表の総数\((=状態遷移の総数)\)と各表の内容が異なる.各表に記録される出現位置の2項組の数は状態遷移の回数である.\subsection*{手順(2):単語共有表の作成}手順(2)から手順(6)にかけて,コーパス中の文$s_n$中のコロケーションを同定・抽出する処理を行う.手順\hspace{0.6mm}(1)で\hspace{0.6mm}作成された,単語の出現位置表から,文$s_n$の単語共有表を作成する(図4参照).\begin{figure}[hbt]\begin{center}\begin{footnotesize}\begin{minipage}[t]{5cm}\begin{tabular}[t]{|c|c|c|}\multicolumn{3}{c}{\bf文$s_0$の単語共有表}\\\hline\multicolumn{1}{|c|}{\bf文番号}&\multicolumn{1}{c|}{\bf単語番号}&\multicolumn{1}{c|}{\bf位置番号}\\\hline14&8&2\\14&9&3\\15&3&2\\15&4&3\\18&9&2\\18&10&3\\31&6&2\\31&7&3\\33&6&2\\33&12&2\\33&13&3\\\multicolumn{3}{|c|}{$\vdots$}\\73&0&0\\73&2&2\\73&3&3\\\multicolumn{3}{|c|}{$\vdots$}\\\end{tabular}\end{minipage}\quad\begin{minipage}[t]{5cm}\begin{tabular}[t]{|c|c|c|}\multicolumn{3}{c}{\bf下記のものは単語共有表には}\\\multicolumn{3}{c}{\bf含めない}\\\hline\multicolumn{1}{|c|}{\bf文番号}&\multicolumn{1}{c|}{\bf単語番号}&\multicolumn{1}{c|}{\bf位置番号}\\\hline0&0&0\\0&1&1\\0&2&2\\0&3&3\\1&2&2\\2&5&2\\3&9&3\\4&2&2\\6&19&3\\7&8&2\\10&2&3\\12&7&3\\13&9&2\\16&22&2\\17&4&2\\19&9&2\\21&33&3\\22&10&2\\23&27&2\\\end{tabular}\end{minipage}\end{footnotesize}\end{center}\caption{コーパス$W$中の文$s_0$の単語共有表(左表)と単語共有表には含めない出現位置(右表)}\label{Fig:wordkyofile}\end{figure}文$s_n$の単語共有表とは,文$s_n$中のすべての単語\hspace{-0.2mm}\(w_n^0,\ldotsw_n^{T(n)}\)\hspace{-0.2mm}(の状態遷移)の出現位置表を文番号の小さい順にマージして一つの表にまとめた(文$s_n$に対して固有の)ものである.なお,図\ref{Fig:wordkyofile}において\hspace{-0.2mm}``位置番号''\hspace{-0.2mm}とあるものは,マージする前に,各単語の出現位置表に文$s_n$の単語番号$t(n)$を付けて,文$s_n$の単語共有表の情報として付加したものである.つまり,文$s_n$の単語共有表の中の情報は``文番号(出現する文の番号$m$)'',``単語番号(文$s_m$中の単語位置)'',``位置番号(文$s_n$中の単語位置)''の3項組となる.以下では,単語共有表の一行(3項組)を出現位置レコードと呼ぶ.ただし,次のものは文$s_n$の単語共有表に含めない.\begin{itemize}\item[1.]文番号が$n$である出現位置レコード.\item[2.]マージしたときにその文番号を持つ出現位置が一つしかない出現位置レコード.たとえば,図\ref{Fig:edgeattr}の出現位置表において,文番号$1$や$2$を持つ出現位置レコードがこれに該当する.\end{itemize}上記のものを含めない理由は,手順(3)と手順(5)で,文$s_n$の単語共有表を参照して,他の文にも出現する文$s_n$\hspace{-0.2mm}中の単語の組み合わせを探すために,文$s_n$\hspace{-0.2mm}中の単語が複数個出現する他の文番号を持つ出現位置レコードのみを,文$s_n$の単語共有表に残せばよいからである.\subsection*{手順(3):二文中に共通して出現するパターンの抽出}手順(3)から手順(6)では,他の文にも出現する文$s_n$\hspace{-0.2mm}中のパターンを抽出するために,二文(文$s_n$と\hspace{-0.2mm}他の文)中で共通して現れるパターンを抽出する処理(手順(3),手順(5))を繰り返し,抽出されるパターンを収集する(手順(4),手順(6)).手順(3)と手順(4)では,抽出・収集するパターンは単語または単語列であり,手順(5)と手順(6)では,抽出・収集するパターンはギャップを持った単語の組み合わせである(\ref{Subsec:auto_extract}節参照).手順(2)で作成した文$s_n$の単語共有表を,同一文番号を持つ出現位置レコードごとにまとめ,分割する(図\ref{Fig:tst2sp}参照).\begin{figure}[hbt]\begin{center}\epsfile{file=kita5.eps,width=0.70\textwidth}\end{center}\caption{コーパス$W$中の文$s_0$から抽出された出現パターン}\label{Fig:tst2sp}\end{figure}こうして得られた分割表のうち,文番号が$m$であるものをとりだし,次の抽出規則を用いて出現パターンを抽出する.ここで抽出される出現パターンは,文$s_n$と文$s_m$の両者に現れるパターンとなる.\begin{itemize}\item[{\bf抽出規則1~:~}]二つの出現位置レコード$r_1$と$r_2$($\neqr_1$)の位置番号(文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}中の単語位置)を${\calP}_1$,${\calP}_2$と表し,単語番号(文$s_m$中の単語位置)を${\calW}_1$,${\calW}_2$と表すと,\begin{itemize}\item[1.]\({\calP}_1+1={\calP}_2\)かつ\({\calW}_1+1={\calW}_2\)のとき,``[$r_1$の単語][$r_2$の単語]''\item[2.]\({\calP}_2+1={\calP}_1\)かつ\({\calW}_2+1={\calW}_1\)のとき,``[$r_2$の単語][$r_1$の単語]''\end{itemize}のように前後に単語を結び付け,結び付いた単語列(二単語以上のパターン)を一つの出現パターンとする.\item[{\bf抽出規則2~:~}]抽出規則1を満たす$r_2$がない場合,``[$r_1$の単語]''を一つの出現パターンとする.\end{itemize}上記の抽出規則により得られる出現パターンはコーパス中に最低でも2回出現するために,文$s_n$に含まれるコロケーション(またはその要素)となる可能性がある.以上の処理を,文$s_n$の単語共有表のすべての分割表に対して行い,出現パターンをすべて抽出する.\subsection*{手順(4):単語パターンの収集と連続型コロケーションの抽出}手順(3)で抽出された出現パターン群から,位置番号の値のみの比較処理で,文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}の単語パターンを収集する(図\ref{Fig:subpdel}参照).ここで,単語パターンとは,文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}中の単語(列)が一つのまとまりとして他の文にも出現するものである.\begin{figure}[hbt]\begin{center}\epsfile{file=kita6.eps,width=0.70\textwidth}\end{center}\vspace{-3mm}\caption{コーパス$W$中の文$s_0$の部分パターンの削除}\label{Fig:subpdel}\vspace{-2mm}\end{figure}抽出された出現パターン群から,次の収集規則により,既に抽出されたパターンに包含される断片的なパターンを削除する.\begin{itemize}\item[{\bf収集規則~:~}]文$s_n$中で,あるパターンが抽出された場所からは,その部分パターンを抽出しないとし,部分パターンを削除する.\end{itemize}上の収集規則を満たすために問題となるのは,出現パターンが複数個抽出されたときに,複数の出現パターンが同じ位置番号の値の単語を持つ場合である.その場合,出現パターン$a$の最小の位置番号を${\calP}_{min}(a)$,最大の位置番号を${\calP}_{max}(a)$とすると,もし$a$の位置番号(列)が最大値・最小値の比較によって出現パターン$b$(\(\neqa\))の位置番号列に包含される(\({\calP}_{min}(b)\leq{\calP}_{min}(a)\)かつ\({\calP}_{max}(a)\leq{\calP}_{max}(b)\))ならば$a$を削除する.単語パターンは文$s_n$中のパターンの位置のみで判定して収集し,以後,位置番号の情報のみを必要とする.たとえば,複数の出現パターンの位置番号列が全く一致する場合(\({\calP}_{min}(a)={\calP}_{min}(b)\)かつ\({\calP}_{max}(a)={\calP}_{max}(b)\))は,同一単語パターンであるので,どれか一つを残し,削除すればよい(図\ref{Fig:subpdel}(1)(3)(5)).収集規則で削除されずに残された出現パターンを文$s_n$の単語パターンとし,単語パターンの集合を$P_{s_n}$とする.$P_{s_n}$中の単語列(二単語以上のパターン)を文$s_n$中の連続型コロケーションとして抽出する.たとえば,コーパス$W$の文$s_0$の\hspace{-0.1mm}$P_{s_0}$\hspace{-0.1mm}からは``ですか''が抽出される.また,$P_{s_n}$中の単語パターンは,文$s_n$中の不連続型コロケーションの構成要素となる.\subsection*{手順(5):二文中に共通して出現する不連続型コロケーションの抽出}手順(4)で作られた集合\hspace{-0.1mm}$P_{s_n}$\hspace{-0.1mm}中の単語パターンは,文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}中の単語(列)が,コーパス中の他の文にも出現するパターンであり,文$s_n$における単語のまとまりと考えることができる.\ref{Subsec:auto_extract}節で述べたように,文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}に含まれる不連続型コロケーションは,集合$P_{s_n}$中の単語パターンが,文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}の中と同じ組み合わせ(同順)で他の文中でもギャップを持って共起するものである.文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}中のどのような不連続な単語の組み合わせが他の文に出現しているかを知るために,再度,文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}中と同じ単語の組み合わせが出現している他の文に対して処理を行う.文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}の単語共有表の分割表で,文番号が\hspace{-0.1mm}$m'$\hspace{-0.1mm}であるものをとりだす.文番号\hspace{-0.1mm}$m'$\hspace{-0.1mm}の分割表から,手順(3)と同様の処理で抽出される二文中に共通する出現パターンが,位置番号列の比較によって,$P_{s_n}$中の単語パターンと一致するかどうかを調べる.もし,文$s_{m'}$との間で複数の($P_{s_n}$中の)単語パターンが共通して出現していて,かつ両方の文で同順でギャップを持って現れている場合,その単語パターンの組み合わせが文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}と文$s_{m'}$に共通して現れる不連続型コロケーションである.以下で,処理の詳細な説明を述べる.\subsubsection*{手順(5.1):要素の認定}手順(3)で作成された文$s_n$の単語共有表の分割表のうち,文番号が$m'$であるものをとりだし,二文(文$s_n$と文$s_{m'}$)中に共通して出現するパターンを抽出する.ただし,この手順では,抽出された出現パターンから,次の条件を満たさないパターンを削除する(図\ref{Fig:idenexam}参照.ただし,$P_{s_0}$は図\ref{Fig:subpdel}のものを用いている).\begin{itemize}\item[{\bf条件1~:~}]$P_{s_n}$中にある単語パターンと位置番号(列)が一致するパターンであること.\item[{\bf条件2~:~}]条件1を満たさない出現パターンをすべて削除した後,出現パターンが,``位置番号(文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}中の位置)''と``単語番号(文$s_{m'}$中の位置)''ともに不連続な関係が成立する他の出現パターンを持つものであること.\end{itemize}\begin{figure}[hbt]\begin{center}\epsfile{file=kita7.eps,width=0.90\textwidth}\end{center}\caption{コーパス$W$中の文$s_0$に含まれる不連続型コロケーションの要素の認定}\label{Fig:idenexam}\end{figure}条件1は,出現パターンの最小位置番号と最大位置番号が,$P_{s_n}$中にある単語パターンの最小位置番号と最大位置番号と完全に一致する場合のみ成立する.たとえば,図\ref{Fig:idenexam}(a)の出現パターン2と図\ref{Fig:idenexam}(b)の出現パターン2は,図\ref{Fig:subpdel}の$P_{s_0}$中の単語パターン1と一致し,図\ref{Fig:idenexam}(b)の出現パターン1は図\ref{Fig:subpdel}の$P_{s_0}$中の単語パターン2と一致するため,条件1を満たす.しかし,図\ref{Fig:idenexam}(a)の出現パターン1は条件1を満たさない.次に,条件1を満たす出現パターンが一つしか存在しない場合は,条件2で比較対象となる他の出現パターンがないため,このパターンは削除する(図\ref{Fig:idenexam}(a)の出現パターン2).もし条件1を満たす出現パターンが複数ある場合,ある出現パターンに対して,位置番号と単語番号が共に不連続な関係が成立する他の出現パターンを探す.なお,条件2の不連続な関係は,次の不連続条件により判定できる.ここで,条件2の判定の対象となる出現パターンを$a$,比較対象の他の出現パターンを$b$とする.また,${\calW}_{min}(a)$を$a$の最小単語番号,${\calW}_{max}(a)$を$a$の最大単語番号とする.最小位置番号と最大位置番号は,手順(4)と同様,${\calP}_{min}(a)$と${\calP}_{max}(a)$で表す.\begin{itemize}\item[{\bf不連続条件A~:~}]\({\calP}_{min}(a)-1>{\calP}_{max}(b)\)かつ\({\calW}_{min}(a)-1>{\calW}_{max}(b)\)\item[{\bf不連続条件B~:~}]\({\calP}_{max}(a)+1<{\calP}_{min}(b)\)かつ\({\calW}_{max}(a)+1<{\calW}_{min}(b)\)\end{itemize}不連続条件Aまたは不連続条件Bの一方を満たす場合,パターン$a$とパターン$b$の間に位置番号と単語番号とで共に不連続な関係が成立する.二つの不連続条件を用いて条件2を満たさない出現パターンを削除する.図\ref{Fig:idenexam}(b)の場合,出現パターン1と出現パターン2の間には,位置番号(文$s_0$中の位置)と単語番号(文$s_{73}$中の位置)共に不連続な関係が成立する(不連続条件を満たす)ため,二つのパターンはともに条件2を満たす.条件1と条件2を共に満たす出現パターン($P_{s_n}$中の単語パターン)が,文$s_n$に含まれる不連続型コロケーションの要素となる.つまり,そのパターンを共有する文$s_{m'}$(図\ref{Fig:idenexam}(b)の場合は\(m'=73\))と,文$s_n$には同じ不連続な単語の組み合わせが出現する.条件1と条件2を共に満たす出現パターンがある場合,次の手順(5.2)の処理を行い,二文中で共通する不連続型コロケーションを抽出する.\subsubsection*{手順(5.2):多分木の構築}手順(5.1)で抽出された文$s_n$と文$s_{m'}$で共通して出現する出現パターンのうちの一つを$a$としたときに,不連続条件Aを満たす$b$を持たない(両方の文で,その出現パターンより前の位置には他の出現パターンが出現していない)出現パターンが,文$s_n$と文$s_{m'}$との間で共通して現れる不連続型コロケーションの先頭の要素である.先頭の要素である出現パターンすべてに対して,先頭の要素ではない(両方の文で,ある出現パターンの後に出現している)出現パターンをつないで,先頭の出現パターンを根とした多分木を構成する.以下にその多分木の構築について述べる.最初に,先頭の要素である出現パターンを各々別の木構造の根とする.各々の根に対してつなぐことのできる出現パターンは,根を$a$としたときに不連続条件Bが成立する出現パターン$b$のみである.このとき,$b$は根$a$の子孫となる.つまり,木構造の各々の節の出現パターンを$a$としたときに,\begin{itemize}\item不連続条件Bを満たす出現パターン$b$が節$a$の子孫である.\itemあるいは,不連続条件Aを満たす出現パターン$b$が節$a$の祖先である.\end{itemize}という条件を満たし,木構造が根のみである場合は単純に根の子として直接つなげればよい.しかし,既に根以外の節がある場合は,次のようにしてパターンを多分木につなげていく(図\ref{Fig:ctree}参照).\begin{itemize}\item[1.]節$X$の子孫であり,かつ節$X$が子パターンを持っていない場合,節$X$の子としてつなげる.\item[2.]節$X$\hspace{-0.1mm}の子孫であり,かつ節$X$\hspace{-0.1mm}の子の祖先でもある場合,節$X$\hspace{-0.1mm}と節$X$\hspace{-0.1mm}の子の間に挿入する.\item[3.]節$X$\hspace{-0.1mm}の子孫であり,かつ節$X$\hspace{-0.1mm}の子すべてに対して子孫でも祖先でもない場合,節$X\hspace{-0.1mm}$の子としてつなげる.\end{itemize}上の条件を,1,2,3の順に適用して多分木を構築する.\begin{figure}[hbt]\begin{center}\epsfile{file=kita8.eps,width=0.50\textwidth}\end{center}\caption{多分木による不連続型コロケーションの抽出}\label{Fig:ctree}\vspace{4mm}\end{figure}以上の処理に基づいて,すべての出現パターンを各々多分木につなげる.構成されたすべての多分木を根からすべての葉までたどった各々の出現パターン($P_{s_n}$中の単語パターン)の組み合わせが,文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}と文$s_{m'}$の間で共通して出現する文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}中の不連続型コロケーションである.たとえば,図\ref{Fig:idenexam}(b)の場合,文$s_0$と文$s_{73}$との間では,出現パターン1``もしもし''が根となり,残る出現パターン2``ですか''を根につなぐことになる.``ですか''は葉となるので,根からたどったパターン``もしもし〜ですか''が文$s_0$と文$s_{73}$で共通して出現する不連続型コロケーションとして抽出される.\subsection*{手順(6):不連続型コロケーションの収集}手順(5)を文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}の単語共有表のすべての分割表に対して行い,抽出される二文(文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}と他の文)中で共通して出現する$P_{s_n}$中の単語パターンの組み合わせ(不連続型コロケーション)から,文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}中の不連続型コロケーションを重複しないように収集する.まず,抽出された各々の不連続型コロケーション$\alpha$の先頭の要素である単語パターンと,不連続型コロケーション$\beta$\((\neq\alpha)\)の先頭の要素である単語パターンの位置番号列を比較する.位置番号列が一致した場合は,次の要素同士を比較するという処理を繰り返す.すべての単語パターンが一致すれば,\hspace{-0.2mm}$\alpha$\hspace{-0.1mm}と\hspace{-0.1mm}$\beta$\hspace{-0.1mm}を文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}の同じ不連続型コロケーションとし,一致しない要素が一つでもあれば,$\alpha$と$\beta$は文\hspace{-0.1mm}$s_n$\hspace{-0.1mm}中の異なる不連続型コロケーションとする.\vspace{-2mm}\subsection*{手順(7):コロケーションの集計}コーパス中のすべての文に対して手順(2)から手順(6)の処理を行い,各文に含まれる連続型および不連続型コロケーション(の候補)を手順(4)と手順(6)で抽出する.コーパス全体でのコロケーションを集計するために,抽出された連続型および不連続型コロケーションを,各々単語の組み合わせそのもの(文字列)の比較により,同じものが抽出された回数を求める.\vspace{1zh}以上,手順(1)から手順(7)で,コロケーションの抽出法を述べてきた.手順(1)と手順(7)のみで若干の文字列処理を必要とするほかは,すべて整数(位置情報)の比較演算のみで行うことができる.また,各文$s_n$\((0\len\leN)\)が含むコロケーションの抽出処理は,各々独立したものであり,分割処理を行うことで,計算機の負荷を軽くすることができる.本手法の処理の特徴を次に示す.\begin{itemize}\item[1.]各単語間の距離値そのものを扱うのではなく,各単語の関係を``連続''か``不連続''かのみとして考える.\item[2.]意味的にまとまりのない断片的な単語列の抽出を防ぐために,池原ら\cite{Ikehara95}のように最長一致の原則により単語列の長いものだけを抽出する.\item[3.]多分木を構築することで一度の処理で,すべての任意の長さの不連続型コロケーションを抽出する.\item[4.]コーパス全体に含まれるコロケーションだけではなく,任意の文(または任意の範囲の文)に含まれるコロケーションを知りたい場合にも適する.\item[5.]処理するコーパスを大きくしたい場合,位置情報を追加または新規作成するだけでよい.\end{itemize} \section{コロケーションの抽出実験} \label{Sec:experiment}\subsection{言語データ}前節で述べた抽出法を用いて,コロケーションの抽出実験を行った.実験で使用したデータはATR自動翻訳電話研究所で作成されたATR対話データベース(ATRDialogueDatabase;ADD)から抜き出した.ADDは主に電話またはキーボードを介した目的指向型の対話に基づいて作成された話し言葉ないしは疑似話し言葉に関する言語データベースであり,ADD中の各単語には形態素解析等の様々な事前分析により,表記,ひらがなによる読み,標準表現,品詞,活用型,音便等の属性が付与されている.本実験では,単語の表記の部分のみを用いた.なお,ADDには会話属性として領域(国際会議,旅行等)とメディア(電話,キーボード等)がある.本実験では,国際会議に関するキーボード会話データを用いた.キーボード会話とは,キーボードを使って入力し,計算機を介してコミュニケーションを行う会話で,話し言葉に近い言い回しを含んでいる.使用したデータの大きさを表\ref{Tab:sourcedata}に示す.\begin{table}[hbt]\begin{center}\caption{抽出実験に用いたデータの大きさ}\label{Tab:sourcedata}\begin{tabular}{lccc}\hline言語&文の数&異なり単語数&延べ単語数\\\hline日本語&6,025&3,799&71,780\\\hline英語&5,984&3,158&64,088\\\hline\end{tabular}\end{center}\end{table}\subsection{実験結果}実験結果を,表\ref{Tab:jcolalphaht209}(日本語データ)および表\ref{Tab:ecolalphaht209}(英語データ)に示す(式(\ref{Eq:eq_state})で,$\alpha\approx1^{-10}$程度).実験結果より,連続型コロケーションと不連続型コロケーションともに意味的にまとまりのある単語の組み合わせを抽出している.また,名詞間の共起関係(複合名詞句等)よりも,述語型の定型表現や慣用表現を多く抽出している.一方,従来の手法で抽出される連続型コロケーションは,相互情報量を用いた方法では,主に複合語やコーパスのドメインに依存した複合名詞句であり,仕事量基準を用いた方法では,主に述語型の定型表現や慣用句である\cite{Kita94a,Kita94b}.本手法は,出現頻度をスコアとして抽出したために,同じく出現頻度に着目した仕事量基準を用いた方法と同じ傾向の表現を抽出し,従来法に相当する結果を得た.ただし,不連続型コロケーションは,全体として出現回数が少ないために,一部にノイズ的なものを含んでいる.この原因の一つとして,今回の実験で使用した言語データの規模が小さかったことがあげられる.抽出された不連続型コロケーションの出現回数は,連続型コロケーションの出現回数に比べ圧倒的に少なく,最も多い場合でも,日本語の場合に13回,英語の場合に5回に過ぎない.このため,偶然共起したような単語の組み合わせが,ノイズとして混入してしまった.より大規模の言語データを用いれば,ノイズ的な単語の組み合わせの混入を抑えることができると考えられる.不連続型コロケーションの出現回数が少ないという点に関しては,今回実験に用いた言語データの性質も関係していると思われる.抽出実験に用いた言語データは会話,すなわち話し言葉であり,話し言葉の性質として,断片的で不完全な表現や省略が多いことをあげることができる.その結果として,話し言葉中には不連続型コロケーションの絶対数が少ないのではないかと考えられる.この点に関しては,新聞記事等の言語データを対象とした抽出実験を行い,今回の結果と比較してみる必要があるだろう.これは,今後の課題である.\begin{table}[hbt]\begin{center}\caption{実験結果(日本語)}\label{Tab:jcolalphaht209}\begin{footnotesize}\begin{tabular}{|lr||lr|}\hline\multicolumn{2}{|c||}{連続型コロケーション}&\multicolumn{2}{c|}{不連続型コロケーション}\\\hline\multicolumn{2}{|c||}{種類数10,994}&\multicolumn{2}{c|}{種類数8,293}\\\hline\multicolumn{2}{|c||}{延べ出現回数26,308}&\multicolumn{2}{c|}{延べ出現回数9,139}\\\hline\multicolumn{2}{|c||}{コロケーションと出現回数}&\multicolumn{2}{c|}{コロケーションと出現回数}\\\hlineそうですか&111&はい〜ですね&13\\ですか&95&はい〜です&13\\わかりました&81&の〜です&10\\そうですね&81&の〜が&7\\ですね&73&はい〜が&7\\には&46&の〜の&6\\はいわかりました&46&を〜に&6\\あそうですか&43&もしもし〜ですか&5\\ですから&43&はい〜でございます&5\\はいかしこまりました&34&はい〜に&5\\失礼します&32&ええ〜が&5\\はい第13回コンピュータ国際会議事務局です&32&え〜ですか&4\\でしょうか&32&も〜に&4\\はいでは&30&は〜を&4\\それは&29&あと〜の&4\\ですが&29&を〜の&4\\失礼いたします&26&ええ〜で&4\\はい第13回コンピュータ国際会議事務局でございます&25&ええ〜に&4\\お世話になっております&25&で〜を&4\\それと&25&と〜ですね&4\\なんですが&25&表〜で&4\\はい失礼いたします&24&普通ページ〜表&4\\ですので&24&表〜ページ&4\\私は&23&2〜で&4\\どうもありがとうございました&23&が〜です&4\\でございます&23&の〜を&4\\にも&23&はい〜には&4\\はい失礼します&22&はい〜ておりまして&4\\でしたら&21&の〜から&4\\はいでは失礼いたします&21&の〜と&4\\では&21&あ〜ですか&3\\よろしくお願いします&20&ああ〜ですか&3\\ああそうですか&20&の方も〜の方も&3\\と申します&20&現在〜中です&3\\はいそうです&19&失礼ですが〜ですか&3\\\hline\end{tabular}\end{footnotesize}\end{center}\end{table}\begin{table}[hbt]\begin{center}\caption{実験結果(英語)}\label{Tab:ecolalphaht209}\begin{footnotesize}\begin{tabular}{|lr||lr|}\hline\multicolumn{2}{|c||}{連続型コロケーション}&\multicolumn{2}{c|}{不連続型コロケーション}\\\hline\multicolumn{2}{|c||}{種類数10,127}&\multicolumn{2}{c|}{種類数5,910}\\\hline\multicolumn{2}{|c||}{延べ出現回数24,692}&\multicolumn{2}{c|}{延べ出現回数6,414}\\\hline\multicolumn{2}{|c||}{コロケーションと出現回数}&\multicolumn{2}{c|}{コロケーションと出現回数}\\\hlineisthatso&82&isee〜right&5\\isee&70&from〜to&4\\andthe&62&and〜are&4\\thankyouverymuch&58&asfarasthe〜isconcerned&4\\ohisthatso&53&of〜and&4\\okaygoodbye&52&professor〜professor&4\\forthe&46&whetherthe〜ornot&3\\yesgoodbye&43&mr〜right&3\\tothe&38&professor〜oftokyouniversityand&3\\ofthe&36&professor〜and&3\\fromthe&31&yourapplicationis〜10th&3\\thankyou&31&fromthe〜ofthe&3\\willbe&31&the〜are&3\\yesitis&30&theslides〜theohp&3\\onthe&29&directly〜hecomes&3\\it's&29&yes〜speaking&3\\inthe&28&professor〜professor〜and&3\\withthe&28&the〜one&3\\isthe&25&yesthe〜andthe&3\\yesplease&25&the〜and&3\\mayihelpyou&23&out〜for&3\\isthat&23&forthe〜of&3\\sothe&22&of〜our&3\\thisis&22&ofthe〜ofthe&3\\allright&22&onthe〜and&3\\noproblem&22&inthe〜no&3\\itis&22&in〜and&3\\wehave&19&dr〜of&3\\yesthe&19&andthe〜are&3\\thistime&19&yes〜are&3\\atthe&19&iwillshow〜by&2\\isit&19&howmany〜willtherebe&2\\iunderstand&19&feeof〜perperson&2\\yesiwill&19&iwouldliketotake〜withme&2\\ohisee&19&fromthe〜tothe&2\\\hline\end{tabular}\end{footnotesize}\end{center}\end{table}\subsection{位置情報の変化によるコロケーションの違い}\ref{Sec:extract_algorithm}節で述べた抽出方法では,コーパス・データを受理する有限オートマトンを用いて単語の出現位置表を作成した.しかし,単語の出現位置表を作成する方法は,他にも色々と考えられる.本論文では有限オートマトンを用いた理由は,\ref{Subsec:based}節で述べたように,有限オートマトンより単語の出現するコンテキストをとらえるためである.また,本論文では有限オートマトンの作成にALERGIAアルゴリズムを用いたが,ALERGIAアルゴリズムの信頼範囲(式(\ref{Eq:eq_state})における$\alpha$の値)を変化させることにより,異なった出現位置表が作られる.追加実験として,ALERGIAアルゴリズムの信頼範囲を変化させた場合に抽出されるコロケーションの違いを調べた.結果として,状態の等価判定を厳しくする(式(\ref{Eq:eq_state})の\hspace{-0.2mm}$\alpha$の\hspace{-0.2mm}値が大きい)ほど,出現回数の多い単語同士の共起関係が強調される傾向にあり,出現回数の少ない長い表現の抽出は抑制された.これにより,単語数の少ないコロケーションが多く抽出された.特に,上位に抽出されたものの多くは2単語のみの表現であった.たとえば,日本語の場合には,格助詞間の共起(``〜の〜に'',``〜を〜に''等)が上位に抽出され,英語の場合には,前置詞と冠詞などの共起が上位に抽出された.上位の表現の出現回数は等価判定を緩くした場合に比べて多くなった.逆に,等価判定を緩くする($\alpha$の値が小さい)ほど短い表現の抽出が抑制され,単語数の多い長い表現が優先して抽出された.等価判定が厳しかった場合に抽出されていた短い表現は,より単語数の多い表現に吸収され,抽出されるコロケーションの種類が多くなった.我々の実験より,式(\ref{Eq:eq_state})の$\alpha$の値は0から0.1の範囲が適当であると考えられる.以上のように抽出されるコロケーションが変化する理由として次のことが考えられる.ALERGIAアルゴリズムでは,状態をマージする際の等価判定は,ある状態から遷移する単語とその遷移確率の類似判定をどれほど厳しく(または緩く)するかを意味している.したがって,等価判定を操作することにより,疑似的に,単語の結び付きの強さを考慮することができる.単語自身の出現回数が多い単語ほど,その単語に比べ,前後の単語が原文中で珍しい(出現回数が少ない)単語であることが増える.結果として,コーパス中で滅多に出現しないような単語が前後に結び付く(出現する)ことがあっても,結び付くことが少ない(珍しい)ために,単語間の関係が認められなくなる.ただし,あまりに等価判定が厳しすぎる場合は,接頭木アクセプタ(木構造)に近いものとなるために,各文での先頭からの距離値に左右されやすく,また,出現回数の多い単語が,その前後の単語を無視して共起することが増える.このため,\ref{Subsec:def_collocation}節での定義に対して,コロケーションとして不適切なものが上位に抽出される場合がある. \section{おわりに} \label{Sec:conclusion}本論文では,連続型および不連続型コロケーションの自動抽出法として,単語の出現位置表を用いて,単語の連続・不連続の関係により,出現頻度の高い単語の組み合わせを長さ優先の条件で抽出する方法を提案した.また,ATR対話データベースを用いた実験を行い,提案した方法の有効性を示した.本手法はコーパス中の各々の文に対する処理であることから,任意の文(またはコーパスの一部分)に含まれるコロケーションを知りたい場合にも有効である.今後の課題として,有限オートマトン以外の方法による出現位置表の作成や,抽出されたコロケーションの定量的な評価方法について研究を行いたいと考えている.\bibliographystyle{jnlpbbl}\bibliography{paper}\begin{biography}\biotitle{略歴}\bioauthor{小田裕樹}{1975年生.1997年徳島大学工学部知能情報工学科卒業.同年,同大学院博士前期課程入学,現在に至る.確率・統計的自然言語処理の研究に従事.情報処理学会学生会員.}\bioauthor{北研二}{1957年生.1981年早稲田大学理工学部数学科卒業.1983年から1992年まで沖電気工業(株)勤務.この間,1987年から1992年までATR自動翻訳電話研究所に出向.1992年9月から徳島大学工学部勤務.現在,同助教授.工学博士.確率・統計的自然言語処理,音声認識等の研究に従事.情報処理学会,電子情報通信学会,日本音響学会,日本言語学会,計量国語学会,ACL各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V21N02-02
\section{はじめに} 平成11年から政府主導で行われた平成の大合併や,平成19年より施行された地方分権改革推進法など,地方政治を重視する取り組みが盛んに行われていたのは記憶に新しい.一方で,有権者の政治離れが深刻な問題となって久しく,平成25年7月21日の第23回参議院議員通常選挙における選挙区選挙では52.61\%の投票率\footnote{http://www.soumu.go.jp/senkyo/senkyo\_s/data/sangiin23/index.html}となり,参議院議員通常選挙において過去3番目に低い値となった.地方政治の場合,平成23年4月の第17回統一地方選挙の投票率は,48.15\%\footnote{http://www.soumu.go.jp/senkyo/senkyo\_s/data/chihou/ichiran.html}であり,さらに低い値となっている.地方政治に対する有権者の政治離れの原因には幾つか考えられるが,その一因に地方議会議員およびその活動の認知度の低さがあげられる.現状では,政治情報を入手するソースとしてテレビや新聞などのマスメディアが占める割合が大きいが,このようなマスメディアに首長以外の地方議会議員が取り上げられることはほとんどない.地方議会議員は国会議員と同様に住民による選挙によって選ばれ,かつ,国政よりも身近な存在であるべきであるにもかかわらず,その活動に関する認知度が低いのは大きな問題であると考える.そこで,住民に提供される地方政治の情報,特に地方議会議員に関する情報量の不足を解決するための方法の一つとして,Web上の情報を有効に利用することを考える.Web上に存在する議員の情報には,議員や政党のホームページ,ニュースサイトの政治ニュース,議員のブログやTwitterなどのSNS,マニフェスト,議会の会議録などがある.このうち会議録には,議員からの一方的な情報発信ではなく,議論や反対意見などのやりとりが含まれ,公の場における各議員の活動や考え方を知ることができる.また,研究対象として会議録を見た場合,会議録は,首長や議員の議論が書き起こされた話し言葉のデータであり,長い年月の議論が記録された通時的なデータであることから,政治学,経済学,言語学,情報工学等の様々な分野における研究対象のデータとして利用されている.例えば,政治学の分野では,平成の大合併前後に行われた市長選挙についての分析を行い,合併を行った市と行わなかった市の違いを当選者の属性から比較した平野\cite{hrn}の研究,合併が地方議会や議員の活動に対して与えた影響を856議員にアンケート調査することで分析を行った森脇\cite{mrwk}の研究などがある.また,経済学の分野では,「小規模自治体の多選首長は合併に消極的」という仮説を検証するために,全国の地方議員,首長の情報を人手で調査した川浦\cite{kwur,kwur2}の研究など,言語学の分野では,「去った○日」という表現(「去る○日」の意)が那覇市の会議録に見られることを指摘した井上\cite{inue},「めっちゃんこ」が名古屋市の会議録に見られることを指摘した山下\footnote{http://dictionary.sanseido-publ.co.jp/wp/2012/07/07/},形態素N-gramを用いて地方議会会議録の地域差を捉える方法について検討した高丸ら\cite{tkmr,tkmr1,tkmr2},発言者の出身地域とオノマトペの使用頻度についての分析を行った平田ら\cite{hrt}などの研究が存在する.情報工学の分野においても,特徴的な表層表現を手掛かりに国会会議録を対象とした自動要約を行った川端ら\cite{kwbt}や山本ら\cite{ymmt}の研究,住民の潜在的な関心を明確化するための能動的質問生成手法を提案した木村ら\cite{kim3}の研究などが存在し,海外でも,会議録中の発言を元にイデオロギーを分類するYuetal.\cite{bei}や,会議録で用いられている語句を可視化するGeodeetal.\cite{bart}などの研究が行われている.これらの研究を行う上で基礎となる会議録のデータであるが,国会の場合,国立国会図書館により会議録サイト\footnote{http://kokkai.ndl.go.jp/}が整備されており,第1回国会(昭和22年)以降のすべての会議録がテキストデータとして公開され,検索システムによって検索を行うことができる.一方で,地方議会会議録の場合,全ての自治体の会議録をまとめているサイトは存在せず,自治体ごとに参照する必要がある.加えて,自治体によりWeb上で公開されている形式が異なることが多いため,統一的に各自治体の会議録を扱おうとすれば収集作業や整形作業に労力がかかる.また,各研究者が重複するデータの電子化作業を個別に行っているといった非効率な状況も招いている.このような背景から,我々は地方政治に関する研究の活性化・学際的応用を目指して,研究者が利用可能な{\bf地方議会会議録コーパス}の構築を行っている.コーパスの構築にあたっては,木村ら\cite{kim1}や乙武ら\cite{ottk}において行われた,北海道の地方議会会議録データの自動収集や加工の技術を参考にし,全国の市町村の議会会議録を対象としたコーパス構築を行うこととした.地方議会会議録コーパスは,Web上で公開されている全国の地方議会会議録を対象として,「いつ」「どの会議で」「どの議員が」「何を発言したのか」を,発言に対して市町村や議会種別,年度や発言者名などの各種情報を付与することで構築し,検索可能な形式で収録する.また,近年,ヨーロッパではVoteMatch\footnote{http://www.votematch.net}と呼ばれる投票支援ツールが多くの利用者を獲得しており\cite{uekm,uekm2,kgm},日本でも「投票ぴったん\footnote{http://www.votematch.jpn.org/}」などの日本語版ボートマッチシステムが利用されていること,さらに平成25年4月19日から公職選挙法が一部改正され\footnote{http://http://www.soumu.go.jp/senkyo/senkyo\_s/naruhodo/naruhodo10.html},インターネットなどを利用した選挙運動のうち一定のものが解禁されたことなどから,我々は,地方議会会議録コーパスを用いて,会議録における発言を基に利用者と政治的に近い考えをもつ議員を判断して提示するシステムを最終的な目的としている.さて,地方議会会議録コーパスを構築すると,会議録を文字列や単語で検索することができるようになる.さらに,会議録の書誌情報や議員情報に基づいて簡単な注釈付けを行うことにより,年度や地域をまたいだ比較検討や,地域ごとの表現の差の分析などを行うことが可能となる.その一方で,我々が構築を目指しているシステムは利用者と政治的に近い議員を判断し利用者に提示するものであるため,会議録の書誌情報や発言議員名といった簡単な注釈付けのみでは議員の施策や事業に対する意見の判別を行うことができず不十分である.すなわち,議員の発言の中にある施策や事業に対する意見のように,下位構造が存在し,それらが結び付くことで一つの情報となるものに対しての分析を行うことは,会議録の文字列検索のみでは難しい.政治的な考えの近さは,一般に,施策や事業などへの賛否の一致度合いにより推測できると考えられ,上神ら\cite{uekm,uekm2,kgm}などのボートマッチシステムでも,この考え方に基づいている.さらに,議員の施策や事業に関する賛否の意見には,同じ賛成の立場をとる議員の間でもその賛成の度合いには差が存在している.例えば,「昨年度は○○などの事業に取り組んできた」と発言した議員と,「○○などの事業を行うのもやむを得ない」と発言した議員では,前者の方が既に自らが取り組んでいることを表明していることから,より積極的に賛成であると考えられる.積極的に賛成である議員の方が,消極的に賛成である議員よりも,彼らが賛成する施策や事業の実現に向けて尽力すると考えられるため,当該の施策や事業を実現してほしい利用者には,積極的に賛成である議員の方を提示することが望ましい.また,消極的に反対の意見を示している議員よりも,積極的に反対の意見を示している議員の方が,彼らが反対する施策や事業を廃止することに注力すると考えられるため,反対の立場を取る議員に対しても同様の考えが成り立つ.このように賛否に加えて積極性を考慮して,利用者と近い考えをもつ議員を判断する必要がある.以上の背景から,我々は,比較的簡単な処理により自動的に付与できるタグを地方議会会議録コーパス全体に付与するとともに,上記の政治情報システムの検討のために,会議録の一部に対して,議員の施策・事業に対する賛否とその積極性に関連する情報の注釈付けを行うこととした.本稿ではまず2節で関連研究について述べ,3節では地方議会会議録の収集及び地方議会会議録コーパスの構築について説明する.次に,4節では地方議会会議録コーパスの一部に対して我々が付与したタグの仕様や注釈結果の統計とその分析及び残された課題について述べる.最後に5節でまとめる. \section{関連研究} 本節では,本稿に関連する各種研究について説明する.\subsection{会議録を対象とした研究}会議録を対象とした研究としては,以前より国会会議録を対象とした研究が行われてきた.川端ら\cite{kwbt}や山本ら\cite{ymmt}は特徴的な表層表現を手掛かりに国会会議録を対象とした自動要約を行っている.平田ら\cite{hrt}は,発言者の出身地域とオノマトペの使用頻度についての分析を行っている.また,国会会議録検索システムというシステムが公開されており,国会の会議録を自由に検索・閲覧することができる.これに対し,地方議会会議録のもつ会議録検索システムは,市町村ごとに様式が異なっているため,複数の市町村の会議録を対象に研究を行おうとした場合にそのまま利用することは難しい.そこで,地方議会会議録を収集して統一された書式に整形する必要がある.これに関連し,木村ら\cite{kim1}や乙武ら\cite{ottk}は北海道内の各市町村を対象に地方議会会議録の自動収集に向けた公開パタンの分析を行っている.51種類の収集パタンによる自動収集プログラムを用いて約94\%の自治体から会議録の収集に成功している.この成果を参考にしつつ,我々は,各自治体が会議録を公開している形式を分析し,全国規模の会議録の収集を行った.\subsection{コーパス構築に関する研究}Web文書を対象としコーパスを構築する研究では,以下の研究が存在する.関口ら\cite{skgc}はWeb文書を収集し,HTMLタグや日本語文章の書法を用い,質の面での改善を行うことでWebコーパスを作成した.橋本ら\cite{hsmt}は,ブログを対象とした自然言語処理の高精度化への寄与を目的とし,81名の大学生に4つのテーマで執筆させた249記事のブログに,文境界,形態素,係り受け,格・省略・照応,固有表現,評価表現に関する注釈付けを行った.Ptaszynskietal.\cite{ptas}は,日本語のブログを自動収集して構築した,3.5億文からなるコーパスYACISに対して自動的に感情情報を付与した.また,飯田ら\cite{iid}は新聞記事を対象とし,述語項構造・共参照タグを付与する基準について報告し,事態性名詞のタグ付与において,具体物のタグ付与と項のタグ付与を独立に行うことで作業品質を向上させている.しかしながら,本研究でコーパス構築の対象としたデータは地方議会会議録であり,これらのコーパス構築の手法とは対象とするデータが異なる.\subsection{主観的な情報の注釈付けに関する研究}本研究は政治的課題に対する賛否と積極性に関する注釈付けを行っており,主観的な注釈付けの一つである.主観的な注釈付けとしては,以下の研究がある.Weibeetal.\cite{wb}は,意見などのprivatestateをニュース記事の句に対して注釈付けを行っている.松吉ら\cite{mtys}は,書き手が表明する真偽判断,価値判断などの事象に対する総合的な情報を表すタグの体系を提案し,これに基づくコーパスを基礎とした解析システムを提案した.また,評判情報に関する研究では,小林ら\cite{kbys}は主観的評価の構成要素を「根拠」「評価」「態度」の3つの要素に分類したうえでの注釈付きコーパスの作成を行っている.宮崎ら\cite{myzk}は,Web文書を対象に,製品の様態と評価とを分離した評判情報のモデルを提案し,評判情報コーパス構築の際の注釈者間の注釈揺れを削減する方法を論じている.大城ら\cite{osr}は,施策や事業に対する賛否の意見を,構造的に捉えるための注釈付けタグセットを提案し,その有効性を確認した.我々の提案する注釈付けは,意見や評判情報の注釈付けと同様に文中のある部分に対して極性を付与するという点で共通しているが,極性に加えて程度を表す積極性の情報を注釈付けしている点でこれらの研究と異なる.積極性の情報を注釈付けすることの有用性については,次節で説明する.\subsection{ボートマッチに関する研究}ボートマッチは選挙に関するインターネットサービスの一種で,有権者と立候補者,または有権者と政党の考え方の一致度を測定することができるシステムである.上神ら\cite{uekm,uekm2,kgm}はコンピュータによりコーディングを自動化する手法を提案しマニフェストの分析の自動化を行い,それを用いてボートマッチシステム「投票ぴったん」を作成した.また,毎日新聞の「えらぼーと」{\kern-0.5zw}\footnote{http://vote.mainichi.jp/}などが公開されている.木村ら(木村他2011)は意思決定の際に用いられる決定木を用い,「決定木において同じ経路を選択する相手は同じ考え方をする相手とみなすことができる」という仮説のもとに,利用者の政治的興味や関心を同定するための質問生成手法を提案している.我々の場合,賛否に加え積極性についても考慮し注釈付けを行うため,既存のボートマッチシステムでは比較を行うのが難しいある施策や事業に対し同意見の議員を積極性という尺度を用いて分類することが可能となる.それにより,「昨年度は○○などの事業に取り組んできた」と発言した議員と,「○○などの事業を行うのもやむを得ない」と発言した議員のように,どちらも賛成の意思を示しているが積極性の度合いが異なる場合に,我々の提案する注釈付け手法を用いれば,前者の議員がより積極的に賛成であると注釈付けることが可能である.これにより,当該の施策や事業を実現してほしい利用者に対し,その意見により近い前者の議員を提示することが可能となる. \section{地方議会会議録コーパス} \label{sec:aboutcgkc}本節では,地方議会会議録の収集および地方議会会議録コーパスを構築するプロジェクトの概要及び,構築された地方議会会議録コーパスについて説明する.\subsection{プロジェクトの目的}本プロジェクトは,地方政治に関する研究の活性化・学際的応用を目指して,研究者が利用可能な地方議会会議録コーパスを全国規模で構築しWeb上で提供することを目的とする.また,そのコーパスを利用した政治学,社会言語学,情報工学の研究を行い,その成果を学際的に応用した政治情報システムの開発を行う.プロジェクトの全体像を図\ref{zent}に示す.\clearpage\subsection{地方議会会議録の収集}\begin{figure}[b]\vspace{-0.8\Cvs}\begin{center}\includegraphics{21-2iaCA2f1.eps}\end{center}\caption{プロジェクトの全体像}\label{zent}\end{figure}\begin{table}[b]\caption{51市町村の会議録検索システム}\label{syst}\input{ca02table01.txt}\vspace*{-0.5\Cvs}\end{table}全都道府県の県庁所在地と政令指定都市の計51市町村の会議録について平成17年から平成22年を対象に収集を行った.市町村の会議録の多くは,Web上で専用の会議録検索システムを通して公開されている.その会議録システムは表\ref{syst}に示すように大きく分けて4つの会社が会議録検索システムを提供しており,それぞれ付録Aに示すクロールプログラムを構築し収集を行った.なお,その他に該当するのは秋田市のみで,独自の会議録検索システムを作っていたため人手により会議録を収集した.\subsection{地方議会会議録コーパスの構築}\begin{table}[b]\caption{発言に付与する項目}\label{huyo1}\input{ca02table02.txt}\end{table}利用者の利便性を考慮し,付録Aの方法により収集した会議録に対し表\ref{huyo1}に示す付随情報を付与し,データベース化を行った.その際には必要な発言のみを簡単に参照できるように会議録を発言単位に分割した.発言単位の分割については,句点や括弧などを区切りにしており,その際にHTMLタグはすべて取り除いている.以下,発言に付与する項目について説明する.「発言ID」は各発言の識別を行うため,「市町村コード」は市町村ごとの検索のため,「議会名」は議会ごとの検索のため,「議会種別コード」市町村によって名称の違う議会名を分類するためにそれぞれ必要となる.「年度」,「回」,「月」,「号」,「日付」については時間情報として重要なため必要である.「表題」はページのタイトルとして,「段落番号」は段落ごとの抽出を容易にするため,「役職名」は会議によって議員の役職が変わることがあるため,「発言者名」は会議録中の文字列をそのまま保持するため,また,発言者が議員であるとは限らないため,「議員ID」は議員の識別のためにそれぞれ必要である.「ファイルのパス」は元ファイルを参照することを容易にするため,「その他」は発言とそれ以外の内容を区別するためにそれぞれ必要となる.例えば,図\ref{egko}のような会議録が与えられたとき,下線部の発言に対して表\ref{eghuyo1}のように情報が付与され,図\ref{fig:huyoo}の様になる.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA2f2.eps}\end{center}\caption{甲府市議会会議録の例}\label{egko}\end{figure}\begin{table}[t]\caption{発言に対する情報付与の例}\label{eghuyo1}\input{ca02table03.txt}\end{table}「発言ID」は会議録では2番目の発言であることを表している.「市町村コード」は総務省により割り当てられた地方公共団体コードを指す.「議会種別コード」は定例会と臨時会には個別のコードが割り当てられているが,その他の委員会は市町村によって異なるためその他と一括りにしている.「年度」は表題に含まれる和暦を西暦に直している.「回」は表題に「第○回定例会」のように書かれているものもあるが,例のように「○月定例会」と書かれているものは,元ファイルが配置されていた同一ディレクトリ内の定例会の開催月を比較して何回目であるかを推定している.「議会名」は表題から日付や回などを省くことで生成される.「号」はファイル名より会議が1日目であることを表している.「日付」はこの例の中には現れていないが,会議録のHTMLタグの中に現れるものを抽出している.「表題」は会議録のHTMLファイルにあるtitle要素であるが,titleがない場合はファイル名から「平成〜年○○会」までを抽出している.「段落番号」は2番目の段落であることを表している.なお,段落の区切りはbrタグにより判別される.「役職名」と「発言者名」は,発言者の発言の最初に,「○役職名(発言者名君)」のような表現で現れるものを抽出している.「議員ID」は全国の地方議員の一覧を別途用意し,すべての議員に割り振った.「ファイルのパス」は収集したファイルの保存場所を示している.「発言」には,該当する1文の発言を文字列で保存している.「その他」には発言以外の会議録の内容,例えば「(市長宮島雅展君登壇)」のような記述が入れられる.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA2f3.eps}\end{center}\caption{図\ref{egko}中の下線部に対して付与を行った結果}\label{fig:huyoo}\end{figure}\subsection{地方議会会議録コーパスを用いた研究}前節の手法により構築した地方議会会議録コーパス及びそのデータベースにより,全国の地方議会会議録に対し,「いつ」,「どの会議で」,「どの議員が」,「何を発言したのか」について検索を行うことが可能となる.これを受けて,今後,政治学,社会言語学,情報工学といった各分野での研究が期待されるが,以下では現時点で行われている,地方議会会議録コーパスを用いた情報工学と社会言語学の研究について紹介する.\subsubsection{情報工学の研究}情報工学の分野では,会議録に含まれるテキストから,政治的課題の表現や要求表現の自動抽出,抽出データの関係推定などを用いて,住民,自治体職員,政治家などに有益な情報を提供する研究が行われている.会議録は定例会だけでも膨大な量であり,北海道小樽市の市議会会議録の場合,定例会1回分の会議録だけでA4判にすると200ページを超える.木村ら\cite{kim3}は,大量のテキストデータに対して能動的にアクセスし,これらのデータを読む住民が少ないと考え政治的課題の関心を明確にするための質問をシステムから利用者に行うことで,利用者の考えに近い議員を提示する方法を提案している.会議録に含まれる重要部分を抽出する研究も行われている.葦原ら\cite{ashr}は,会議録に含まれる重要な内容が議員からの質問に含まれることが多いことに着目し,議員の質問から要求表現を抽出する研究を行っている.他には,大城ら\cite{osr}は施策や事業に対する賛否の意見を,構造的にとらえるための注釈付けタグセットを提案している.議員の施策や事業の意見について注釈付けを行うという点では共通しているが,同じ賛成(もしくは反対)を示す議員に対しその積極性を考慮するという点で本研究とは異なっている.\subsubsection{言語学の研究}地方議会会議録は,社会言語学,日本語学,方言学などの研究に寄与する言語資源であると考えられる.しかし,会議録は議会における発言を一字一句厳密に記録しているわけではなく,文章としての読みやすさを考慮して,意味内容が大きく変わらない範囲で修正(整文)が加えられている.高丸ら\cite{tkmr,tkmr1,tkmr2}は地方議会会議録の言語資源としての性質を明らかにするための基礎研究として,複数の地方議会会議録における整文の状況を分析し,実態を比較した.整文の過程において,冗長な表現の削除や言い間違いや方言語彙の修正などが行われているため,地方議会会議録コーパスを用い話し言葉などに含まれる非流暢性を分析することは困難であると考えられるが,本コーパスは通時性・共時性を併せ持つ言語資源であるため,新しい文法表現の需要の実態や議会用語の変遷等を分析することが可能である.さらに,整文の担当者がある表現が方言であることに気付かないことや,発言者の口調を維持するために,方言であっても整文されずに残されることがあることといった理由により,会議録に現れる方言等を分析することが可能である.現在これらの観点に基づく研究への本コーパスの活用が進められている. \section{賛否の積極性に関する注釈付け} \ref{sec:aboutcgkc}節で説明した地方議会会議録コーパスにより,発言(文)や方言のような表層的な表現の検索や分析は可能となった.しかし,我々が開発を目指している,利用者の考えに近い議員を提示するシステムを構築するためには,ある議員の施策や事業に対する意見,例えばその賛否や積極性を判定する必要がある.意見は複数の形態素等の要素を組み合わせることにより表されるものであると考えられるため,先に述べたプレインテキストに基づくコーパスの構築のみでは不十分であると考え,会議録中に表れる政治的課題や政策に対する賛否およびその積極性に関する注釈付けを行うこととした.本節では,まず賛否の積極性に関する情報に関して考察し,注釈すべき情報の定義を行う.付与したXML形式のタグの仕様と付与の基準について説明した後,注釈付け結果の統計を示す.最後に,タグに関する課題について述べる.\subsection{賛否の積極性に関する情報}\label{ssec:info}賛否の積極性について考えるにあたり,会議録中の賛否を表明する発言を観察し,それらについて分析を行った.図\ref{fig:eg_bamen}に,会議録の構成を5つの場面の観点から例文とともに示す.\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA2f4.eps}\end{center}\caption{会議録の場面構成}\label{fig:eg_bamen}\end{figure}図\ref{fig:eg_bamen}に示した5つの場面の内,(i)から(iv)の場面において施策や事業およびそれに関する賛否を表す文や表現が現れることが多く,一方で(v)の場面ではほとんど現れなかった.次に,議員が施策や事業に関する意見を述べる際の発言の例を図\ref{fig:eg_sentence}に示す.施策や事業に関する意見を表す文は,例文(1)の下線部(a)のように施策や事業そのものを表す表現と,下線部(b)のように発言者の施策や事業に関する意見の表現の2つから構成されると考えることができる.なお,発言者としては,一般の議員に加えて,自治体の首長及び部局長,委員長,議長なども現れる.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA2f5.eps}\end{center}\caption{施策や事業に関する意見を含む文の例}\label{fig:eg_sentence}\end{figure}まず,施策や事業の表現についての分析結果について述べる.例文(2)では,施策や事業は下線部(c)の複合名詞1語で表されているが,例文(1)の下線部(a)や例文(3)の下線部(e),例文(7)の下線部(m)のようにより大きな名詞句で1つの施策や事業が表現されているものも多く存在しており,いずれの場合も連続する文字列で現れていることが多かった.また,例文(4)のように,施策や事業は現れていないが,その実施の度合いのみを述べている文も多く存在していた.次に,施策や事業に対する賛否の表現についての分析結果を述べる.例文(1)から例文(5)までのように,施策や事業に関して賛成を述べる表現と,例文(6),(7)のような施策や事業に対して反対を述べる表現がある.その比率としては賛成が非常に多かった.これは自分の関心のある施策や事業と,行政側に実現させたい施策や事業について言及することが非常に多く見られたことによるものであると思われる.賛成を述べる際には,例文(1)の下線部(b)や,例文(5)の下線部(h)のように明確に賛成の意思を表す文が非常に多く見られた.下線部(d)のように「積極的に」などの言葉が入り,積極的な意思を示す表現も見られた.反対を述べる際には,賛成の場合と同様に例文(6)の下線部(k)と(l)のように明確に反対の意思を表明する文も存在するが,例文(7)のように,現状で十分であり,新たな行動を起こす必要がないため,下線部(m)の施策や事業には賛成ではないというように,消極的に反対を述べる文も存在していた.また,例文(5)の下線部(h)と(i)のように,施策や事業を表す表現が意見を表明する文以降の文で発言され,それ以前の文にその施策や事業に対する説明があり,それが施策や事業に対する意見の理由となるような文も存在していた.他にも例文(9)のように,自らの意見ではなく市民の声として施策や事業に対して意見を述べる文も見られた.\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA2f6.eps}\end{center}\caption{施策や事業の実現の度合い}\label{fig:jit}\end{figure}さらに,同じように賛成の立場(もしくは,反対の立場)を表明していても,言及する施策や事業がどのくらい実現されているかの度合いにも差が見られた.その度合いは図\ref{fig:jit}に示す4つに大別することができた.ここで,議員の施策や事業に関する意見を表明する発言を読み,その賛否への積極性を判断する場合を内省すると,積極性を判断するための手掛かりとして,少なくとも以下の3点があった.1点目は,発言中の「やむを得ない」などのほかに手立てがないことを示す表現である.この表現がある場合,消極的な賛成(もしくは,反対)であることが読み取れる.しかしながら,会議録の場合,一般的には積極性を示すはずの表現の存在が必ずしも字義通りの積極性を示すとは限らない.例えば,「取り組まねばならないと考えている」という表現の場合,一般的には積極的な賛成を示していると考えられるが,会議録における議員の発言においては,この表現だけをもって,積極的な賛成であると判断することは不適切である.なぜなら,会議録には特有の表現や言い回しがあり,議員は施策や事業に積極的に取り組むことが当然として捉えられているため,積極的であることを示す表現が常時の表現となっていることが多い.一方,消極的であることを示す表現に関しては,例えば「大幅な繰り入れについてはおのずから限界があると考えるので,値上げについては賛成とは言えないが,やむを得ないと考える」のように,現状が非常に厳しいため本心では実施したくないのだが現状を鑑みると実施せざるを得ないという意図で発言したと読み取れ,消極性が感じられる.すなわち,積極的であることを示す表現が常時の表現のため,表現が積極的なものに偏っており,積極的か消極的かを示す表現で,非対称性があるように思われる.2点目は,言及された施策や事業の具体性である.積極的であるように読み取れる場合,その施策や事業への言及が具体的であることが多い.例えば,単に「取り組まねばならない」という発言よりも,「○○といった理由により△月までに取り組まねばならない」という発言の方が,積極的に取り組むという意思を読み取ることができる.具体性の有無を判断する手掛かりとして,実現したい施策や事業の詳細な内容や,現状を数値などを踏まえて言及するような構造等が考えられるが,本稿では施策や事業に対する意見の根拠となる理由に着目し,理由が述べられている文には具体性があると考えた.3点目は,言及された施策や事業の実現度合いである.すなわち,これから取り組みたいという意思を表明しているだけなのか,それとも,既に施策や事業の一部に着手しているのか,といった違いにより,賛否の積極性を読み取ることができると考えられる.施策や事業に対する賛否の積極性を判断する上で,上記の3点が手がかりになるということは仮説であるが,賛否の積極性に対する人間の判断結果と共に,これらの手がかりに関する表現の注釈付けを行うことにより,その仮説の分析,および,その分析結果に基づいて構築された積極性判断のための仕組みが正しく動作しうるかどうかの確認が可能となる.\subsection{賛否の積極性に関する注釈付け}\label{ssec:huyo}本稿では,地方議会会議録コーパスに収録されている,札幌市,横浜市,京都市,北九州市の4市の2010年の第2回定例会を対象に注釈付けを行った.この4市を対象とした理由は,政令指定都市であること,全国に散らばっていること,同一の記述形式の会議録を採用していることの3点による.注釈付けを行う単位として,「発話」,「段落」,「文」,「文字列」の4つの単位を用い,「文」,「段落」,「発話」を以下のように定義した.まず,4市の会議録の記述形式では,全ての文の最後が句点で終わっていることから,句点を「文」の境界とした.次に,同一の話題に関する文は1つの段落にまとめて記述されており,全ての段落の最初には空白が存在することから,行頭の空白を「段落」の境界とした.最後に,文の発言者に関する情報がコーパス中に収録されているため,発言者が同一人物である文の連続を1つの「発話」とした.\ref{ssec:info}節での議論を基に,表\ref{tb:tag}に示す11種類のタグに関して注釈付けを行うこととした.先に述べた4つの都市に対して,8人の注釈者が1人2都市ずつ担当し注釈付けを行い,1都市につき4つのコーパスを作成することとした.注釈者の育った言語環境は全員日本語で,出身地は神奈川県が3人,静岡県が2人,愛知県が1人,岡山県が1人,佐賀県が1人であった.注釈作業にかかった時間は,おおむね1都市につき15時間から20時間程度であった.各注釈の説明を以下に述べる.\begin{table}[b]\caption{注釈の一覧}\label{tb:tag}\input{ca02table04.txt}\end{table}(1)番目は,発言がどのようなシーンでなされたかの注釈であり,発話単位で付与する.議員が意見を述べることが多いシーンについて,発言が行われる場面ごとの比較や分析を行えるよう「質問」,「回答」,「討論」,「説明」の4シーンを想定し,各シーンを以下のように定義した.\begin{itemize}\item「質問」:発言中に他者に対して回答を求める文が存在している.\item「回答」:発言中に他者からの質問に対する回答となる文が存在している.\item「討論」:自分の意見を一方的に表明している文が存在している.\item「説明」:議案等の内容を説明する文が存在している.\end{itemize}上記の4シーンに当てはまらないシーンは「その他」として注釈づけを行った.シーンは排他的に注釈付けられる.すなわち,注釈者は上記の4シーンに「その他」を加えた5つのうちから1つを選ぶ.作業効率の観点から,「その他」のシーンにおける発言には(2)以降の注釈付けを行わなかった.(2)番目は,発言者の関心がある施策や事業に関する注釈であり,文字列単位で付与する.発言中に含まれる施策や事業を示す文字列を同定するとともに,これに対し,「賛成(推進)」,「反対(廃止)」,「その他」の何れかの極性を付与する.これにより,発言に対する賛否の自動判定を行うための機械学習の教師情報として,注釈付けを行ったコーパスを利用できる.極性の判断は前後の文脈に現れる記述により,作業者の主観に基づいて行われた.施策や事業に関する注釈付けは次のような形で行われる.\begin{quote}\texttt{<}PolicyPolarity=\verb/"/賛成\verb/"/\texttt{>}ANA5路線の存続\texttt{<}/Policy\texttt{>}\end{quote}この例では,「ANA5路線の存続」という施策に対し,発言者は賛成の意思を立場を示している.(3)番目は,発言内容のカテゴリーに関する注釈であり,段落単位で付与する.カテゴリーは,木村ら\cite{kim2}の政治的カテゴリーを参考に,比較的議題に挙げられることが多い,「医療」,「教育」,「環境」,「観光」,「防災」,「公共」の6カテゴリーを対象とした.1つの段落に複数のカテゴリーを付与することを許可している.また,発言内容がどのカテゴリーにも属さない場合には「その他」として注釈付けを行った.(4)番目は,質問と回答の対応付けに関する注釈であり,段落単位で付与する.質問の段落から回答の段落へと1対1で対応付けており,もしも,回答が複数の段落にまたがっている場合は最初の段落に対応付けを行った.段落に対する注釈付けは次のような形で行われる.これにより,ある議員の質問とそれに対する行政側の回答が結び付き,施策・事業ごとの議員の意見と行政側の意見を1つの組として分析が可能となる.\begin{quote}\texttt{<}ParagraphId=\verb/"/P338\verb/"/CorrespondingAnswerParagraphID=\verb/"/P438\verb/"/Category=\verb/"/医療\verb/"/\texttt{>}\end{quote}この例では,338番目の段落は医療のカテゴリーについて発言しており,その段落の中で現れた質問は,438段落で回答されていることを表している.(5)番目は,疑問文かどうかを判断した結果の注釈であり,文単位で付与する.本稿での疑問文とは,他者の回答を要求する文と定義しており,「○○についてお聞かせ願いたい」といった表現であっても疑問文とした.(6)番目は,意見性がある文かどうかを判断した結果の注釈であり,文単位で付与する.本稿での意見性がある文とは,「○○すべきだ」,「△△の方が良いと考えられる」といった意見であることが明確に示されている文と定義している.(7)番目は,発言者本人の意見である文かどうかを判断した結果の注釈であり,文単位で付与する.(8)番目は,発言内容の中核となる文に関する注釈である.本稿での中核となる文とは,発言内容を端的に述べている文と定義している.我々は,システムが利用者に発言内容を提示する際には,発言内容の整理・要約を行う必要があると考えており,整理・要約を行うための情報として利用することを想定している.(2)の施策・事業を注釈を含む文,または,(6)の意見性があると判断された文を含む段落には,最低でも1文は中核となる文を選定し注釈付けを行うこととした.(9)番目は,(2)の施策・事業の極性または(6)の意見性がある文と,その理由となる文との対応付けに関する注釈である.理由となる文から,(2)で選択された施策・事業または(6)の意見性がある文へと1対多で対応付けを行っている.これらが複数存在することにより,理由となる文の集合と,(2)ならびに(6)に属する文の集合の間に多対多の関係が成り立つ.これにより,施策や事業に対する賛否の現れ方や,どのような発言が賛否の理由となるのかについての分析が可能となる.(10)番目は,発言時点で文中の意見がどの程度実現されているかの注釈であり,文単位で付与する.実現の程度として,「表明」,「着手」,「完了」,「拡大」の4つの状態を以下のように定義した.\begin{itemize}\item「表明」:何も実現できていない状態.やるべきという意思を表明しただけの状態.\item「着手」:実現のために行動を開始した状態.現在進行中であり,目標は達成されていない.\item「完了」:すでに目標を達成した状態.現在は行動していない.\item「拡大」:すでに目標を達成しており,{\kern-0.5zw}さらなる成果を求めて行動したい{\kern-0.5zw}(している){\kern-0.5zw}状態.\end{itemize}(2)の施策・事業を注釈した文には必ず付与することとした.(11)番目は,総合的に見て,文中の意見がどの程度説得性がありそうか(目標を実現できそうか)に関する注釈であり,文単位で付与する.説得性の判断は前後の文脈を考慮した作業者の主観に基づいて行われ,(2)の施策・事業に関する注釈付けを行った文には必ず付与することとした.前述の理由の対応付けや意見性の有無と合わせて,発言中のどの要素が意見の積極性を表すかについての考察が可能となる.文に関する注釈付けは以下のように行われる.\begin{quote}\texttt{<}SentenceId=\verb/"/S346\verb/"/Member=\verb/"/(小川直人議員)\verb/"/IsQuestion=\verb/"/False\verb/"/IsOpinion=\verb/"/True\verb/"/IsPrincipal=\verb/"/True\verb/"/Actualization=\verb/"/不明\verb/"/CorrespondingConclusive=\verb/"/P:352\_11\_9:ANA5路線の存続\verb/"/IsPersuasive=\verb/"/True\verb/"/IsCoreSentence=\verb/"/False\verb/"/\texttt{>}丘珠5路線は、道内主要都市を結び、ビジネスマンや観光客、さらには札幌市内医療機関への通院など、多くの人がさまざまな目的を持ち札幌と各地を往来しており、移転することで年間37万人の利用者の利便性や経済活動を著しく損なうことになるのは明らかであります。\texttt{<}/Sentence\texttt{>}\\\texttt{<}SentenceId=\verb/"/S352\verb/"/Member=\verb/"/(小川直人議員)\verb/"/IsQuestion=\verb/"/True\verb/"/IsOpinion=\verb/"/True\verb/"/IsPrincipal=\verb/"/True\verb/"/Actualization=\verb/"/表明\verb/"/CorrespondingConclusive=\verb/"/None\verb/"/IsPersuasive=\linebreak\verb/"/True\verb/"/IsCoreSentence=\verb/"/True\verb/"/\texttt{>}そこで、質問ですが、\texttt{<}PolicyPolarity=\verb/"/賛成\verb/"/\texttt{>}ANA5路線の存続\texttt{<}/Policy\texttt{>}に向けては、道、経済界、関係自治体が一体となった活動が求められ、さらには、道民、市民に大きく運動を広げていくことも視野に入れた取り組みが必要と考えますが、今後、市長はどのように対応しようとされているのか、お伺いいたします。\texttt{<}/Sentence\texttt{>}\end{quote}表\ref{tb:tag}中の各注釈は(5)から順に,「IsQuestion」,「IsOpinion」,「IsPrincipal」,「IsCoreSentence」,「CorrespondingConclusive」,「Actualization」,「IsPersuasive」と表され,この例では,2文目に現れている「ANA5路線の存続」という施策に対し,1文目がその理由として結びついている.注釈者の注釈付けの際の誤りを軽減するために,図\ref{fg:tool}に示す,専用のタグ付けツールを開発し,ツールを通して上記の注釈付けを行った.注釈情報は,図\ref{fg:xml}に示すようなXML形式で付与される.\begin{figure}[t]\begin{center}\includegraphics{21-2iaCA2f7.eps}\end{center}\caption{タグ付けツール}\label{fg:tool}\end{figure}\begin{figure}[p]\begin{center}\includegraphics{21-2iaCA2f8.eps}\end{center}\caption{XMLデータの例}\label{fg:xml}\end{figure}\subsection{注釈結果の統計および分析}\begin{table}[p]\caption{総発話数とシーンごとの内訳}\label{tb:utterance}\input{ca02table05.txt}\end{table}\begin{table}[p]\caption{段落とカテゴリーごとの内訳}\label{tb:paragraph}\input{ca02table06.txt}\end{table}\begin{table}[p]\caption{文単位の注釈結果}\label{tb:sentence}\input{ca02table07.txt}\end{table}\begin{table}[p]\caption{施策・事業の注釈結果}\label{tb:policy}\input{ca02table08.txt}\end{table}\begin{table}[p]\caption{実現度と説得性の内訳}\label{tb:jitset}\input{ca02table09.txt}\end{table}\ref{ssec:huyo}節で述べた4都市の当該会議録に対する注釈付けを行った結果の傾向を分析するために,各統計量を調査した.その結果を表\ref{tb:utterance}から表\ref{tb:reaper}に示す.以下の(1)などの数字は,\ref{ssec:info}節の\mbox{表\ref{tb:tag}}中の注釈の種類番号である.表\ref{tb:utterance}に,会議録中の発話の数と(1)で付与されたシーンの内訳を示す.表\ref{tb:paragraph}には,会議録中の段落の数,(3)のカテゴリーが付与された段落の数およびその内訳を示す.各段落には複数のカテゴリーの付与を許可していることと,ならびに「その他」のシーンの段落にはカテゴリーが付与されていないことに注意されたい.表\ref{tb:sentence}に,会議録中の文の数,(1)で付与されたシーンの文の数とその内訳,(3)で付与されたカテゴリーの文の数とその内訳,(5)の疑問文の数,(6)の意見性のある文の数,(7)の本人の意見である文の数,(8)の中核となる文の数,(9)の理由となる文の数,(10)の実現度を有する文の数とその内訳,(11)の説得性がある文の数を示す.表\ref{tb:policy}には,(2)の抽出された施策や事業及び極性の内訳を示す.各表中の括弧内の値は割合を示している.表\ref{tb:jitset}に,各実現度と説得性の関係を示しており,括弧内の数はそれぞれ表明の文の中で説得性のあるものの割合と,着手・完了・拡大の文の中で説得性のあるものの割合を示している.表\ref{tb:reaper}に,意見文および施策や事業に対して理由が結びつくかどうか,それらが説得性を持つかどうかを示している.なお,表中の数値は4都市の注釈結果を合計したものである.\begin{table}[t]\caption{理由と説得性の関係}\label{tb:reaper}\input{ca02table10.txt}\end{table}まず,4都市間で注釈結果を比較すると,表\ref{tb:utterance}から表\ref{tb:policy}に関しては注釈の数の分布に大きな差は見られない.次に,表\ref{tb:utterance}から順に統計量からわかったことについて述べる.表\ref{tb:utterance}の総発話数とシーンごとの内訳を見ると,いずれの市においても「その他」のシーンが一番多く,「回答」,「質問」のシーンが残りの大部分を占めている.「その他」のシーンは,図\ref{fig:eg_bamen}の(5)に示したとおり,議長の挨拶や議決,予算などの各種報告に対して注釈されるものであり,施策や事業に対し意見を述べる発言はほぼ存在しない.そのため,施策や事業に対する賛否を判定する際には不要であり,シーンに関する注釈付けをおこなうことにより,これらを省いたデータを作成することが可能になると考えられる.また,「回答」のシーンの注釈数を4都市間で比較すると,北九州市のみ他の都市より多くなっていた.4都市とも質問者の多数の質問に対し,市長及び関係部署の議員が答える形式をとっているが,北九州市は部署の区切りが「建設都市局長」「建設局長」というように役職が細かく設定されているため,回答者が増える傾向にあるからではないかと思われる.このように,各シーンの分布の違いから各都市の議会の傾向について分析することも可能であることがわかった.表\ref{tb:paragraph}の段落とカテゴリーごとの内訳を見ると,いずれの都市においても「その他」が一番多く,「医療」が次に続き「教育」,「公共」が残りの多くを占めている.今回注釈付けを行ったのは2010年の会議録であり,その前年の2009年に新型インフルエンザが世界的に流行していたため,それに対しての対策等について述べる議員が多く,「医療」のカテゴリーであると注釈された段落の数が他の物に比べて多くなったものと考えられる.この結果から,議会の話題は時事的な問題に影響を受け得るということがわかった.表\ref{tb:sentence}の文単位の注釈結果を見ると,カテゴリーの分布は特に変わらないが,シーンの分布は大きく変化し,「質問」のシーンと注釈された発話に含まれる文が一番多くなっている.これは4都市の議会の質問応答形式が一括質疑・一括答弁であり,発話者が交代する場面が少ないことによる.このように,発話単位でのシーンと各シーンの発話に含まれる文の数を比較することで,議会の質問形式の傾向を知ることができる.表\ref{tb:policy}の施策や事業の極性の内訳をみると,賛成の割合が横浜市,札幌市においては約9割,北九州市,京都市においては約8割をそれぞれ占めていた.これにより,会議録中の発言では賛成意見が常時の表現となっているという\ref{ssec:info}節における1点目の観察について裏付けることができた.また,賛否の判定を二値分類で行う際には否定の判定精度が重要になると考えられる.表\ref{tb:jitset}の実現度と説得性の関係を見ると,実現度に関する注釈付けのある文に関して説得性があると判断された文の割合が約4割から5割となっており,実現度に関する注釈付けのない文に関して説得性があると判断された文の割合を大きく上回っている.これにより,度合いにかかわらず実現度を含む文,すなわち施策や事業を実現したいという発言や,既に実施しているという発言は積極性に寄与すると考えることができそうである.最後に,意見文および施策や事業に対して,それらに理由が結びついているか,説得性を持つかに関しての統計を示した表\ref{tb:reaper}を見ると,理由が結びついている文や施策は説得性があると判断されることが多い傾向にあり,理由を持つ文は積極性の手がかりになるという\ref{ssec:info}節における2点目の観察を裏付けることができた.\subsection{付与したタグの課題}\label{ssec:mondai}本小節では地方議会会議録コーパスに我々が提案したタグを付与した際に明らかになった課題を,「タグの仕様」と「注釈付けにおける主観的判断」の2つの観点から説明する.\subsubsection{タグの仕様策定に関わる課題}「理由の対応付け」のタグは施策や事業に関する賛否の理由となる文に対して付与され,その理由と施策や事業とを結びつけるものであるが,その付与単位を「文」としている.また,会議録では「○○してまいります」や「○○と考えます」等のような文末表現が常態となっており,「××を行うことは大きな利益を生むため,推進していこうと考えております」といった,理由を含む複文においても文末表現として現れることが多い.そのため,理由を表す表現について分析を行いたい時には,単に理由を含むと注釈づけられた文全体に注目するだけでは正しくないという問題がある.理由に纏わる分析を簡単に行えるようにするためには,「理由の対応付け」のタグの注釈単位を文字列とし,先述の例の「××を行うことは大きな利益を生むため」にのような従属節等に注釈付けを行えるような仕様とすれば,この問題は解決できると考えられる.\subsubsection{注釈付けにおける主観的判断}\begin{figure}[b]\begin{center}\includegraphics{21-2iaCA2f9.eps}\end{center}\caption{施策や事業の認定に関する判断に生じた揺れの例}\label{fig:yure}\end{figure}テキストに対する注釈付けにおいて,一般的に,注釈者間の判断が必ずしも一致しないことが問題となる.本稿における注釈付けにおいては,特に「施策・事業」の認定に関する判断に揺れが見られた.「施策・事業」のタグは文字列に対し付与されるものであるが,議員の発言中に必ずしも施策や事業がひとつの連続した文字列や名詞句の形で出現するわけではなく,図\ref{fig:yure}のように,注釈者によりどの範囲を施策や事業として捉えるのかが異なってしまうことがあった.いずれの例もどの範囲を施策や事業として注釈付けるかで揺れが生じているのだが,下の例に関してはある注釈者は2つの施策があると注釈し,別の注釈者は纏めて1つの施策として注釈付けている.これにより施策や事業とそれに関する賛否の分析を行う際にばらつきが生じてしまう.解決策としては施策や事業のみ範囲をあらかじめ決めておくという仕様にすることが考えられる.\subsubsection{提案した注釈付け手法に追加して必要であると考えられる情報}本稿では議員の施策や事業に関する賛否と積極性に関する注釈付け手法を提案したが,積極性は必ずしもその有無といった二値の値で判断される情報ではなく,例えば「やや積極的」「かなり積極的」というように,積極的な場合と消極的な場合のいずれにおいても複数の段階が存在することがある.このような場合において,より詳細に注釈付けを行うためには,積極性に関する度合いを表現する手段が追加される必要がある. \section{おわりに} 本稿では,地方政治に関する研究の活性化・学際的応用を目指して,全都道府県の県庁所在地および政令指定都市の計51市町村について会議録の収集とコーパスの構築を行った.51市町村の会議録はWeb上で主に4社の会議録検索システムにより提供されており,ページに張られたリンクをたどっていく方法とCGIのパラメータを変えていく方法などにより,会議録を自動的に収集することを行った.地方議会会議録コーパスには17項目の情報を付与しており,また,発言単位に分割してデータベース化を行っている.また,我々が目的とする会議録における発言を基に利用者と政治的に近い考えをもつ議員を判断して提示するシステムの開発に向け,地方議会会議録コーパスの分析・評価用のデータ作成のために,会議録中の議員の,施策や事業に対する賛否とその積極性に関する注釈付けを行う手法について提案をした.注釈結果の統計および課題について論じた.今後,本稿での分析により得られた知見を基に,各発言に対して,賛否とその積極性を自動判定する手法を開発したいと考えている.\acknowledgment本研究の一部は,JSPS科研費22300086の助成を受けたものである.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{葦原\JBA木村\JBA荒木}{葦原\Jetal}{2012}]{ashr}葦原史敏\JBA木村泰知\JBA荒木健治\BBOP2012\BBCP.\newblock地方議会会議録における要求・要望表現抽出の提案.\\newblock\Jem{言語処理学会第18回年次大会論文集},\mbox{\BPGS\1--27}.\bibitem[\protect\BCAY{de~Goede,vanWees,Marx,\BBA\Reinanda}{de~Goedeet~al.}{2013}]{bart}de~Goede,B.,vanWees,J.,Marx,M.,\BBA\Reinanda,R.\BBOP2013\BBCP.\newblock\BBOQPoliticalMashupNgramviewerTrackingWhoSaidWhatandWheninParliament.\BBCQ\\newblock{\BemResearchandAdvancedTechnologyforDigitalLibraries},\mbox{\BPGS\446--449}.\bibitem[\protect\BCAY{橋本\JBA黒橋\JBA河原\JBA新里\JBA永田}{橋本\Jetal}{2011}]{hsmt}橋本力\JBA黒橋禎夫\JBA河原大輔\JBA新里圭司\JBA永田昌明\BBOP2011\BBCP.\newblock構文・照応・評価情報つきブログコーパスの構築.\\newblock\Jem{自然言語処理},{\Bbf18}(2),\mbox{\BPGS\175--201}.\bibitem[\protect\BCAY{平田\JBA中村\JBA小松\JBA秋田}{平田\Jetal}{2012}]{hrt}平田佐智子\JBA中村聡史\JBA小松孝徳\JBA秋田喜美\BBOP2012\BBCP.\newblock国会会議録コーパスを用いたオノマトペ使用の地域比較.\\newblock\Jem{第27回人工知能学会全国大会論文集,3N4-OS-01c-2},{\Bbf31}(10).\bibitem[\protect\BCAY{飯田\JBA小町\JBA乾\JBA松本}{飯田\Jetal}{2008}]{iid}飯田龍\JBA小町守\JBA乾健太郎\JBA松本裕治\BBOP2008\BBCP.\newblock述語項構造と照応関係のアノテーション:NAISTテキストコーパス構築の経験から.\\newblock\Jem{自然言語処理},{\Bbf17}(2),\mbox{\BPGS\25--50}.\bibitem[\protect\BCAY{井上}{井上}{2013}]{inue}井上史雄\BBOP2013\BBCP.\newblock[ことばの散歩道]171去った○日.\\newblock\Jem{日本語学},{\Bbf31-10}.\bibitem[\protect\BCAY{川端\JBA山本}{川端\JBA山本}{2007}]{kwbt}川端正法\JBA山本和英\BBOP2007\BBCP.\newblock話題の継続に着目した国会会議録要約.\\newblock\Jem{言語処理学会第13回年度大会},\mbox{\BPGS\696--699}.\bibitem[\protect\BCAY{川浦}{川浦}{2009}]{kwur}川浦昭彦\BBOP2009\BBCP.\newblock\BBOQSelf-ServingMayorsandLocalGovernmentConsolidationsinHokkaido.\BBCQ\\newblock\Jem{日本経済学会春季大会研究報告}.\bibitem[\protect\BCAY{Kawaura}{Kawaura}{2010}]{kwur2}Kawaura,A.\BBOP2010\BBCP.\newblock\BBOQSelf-ServingMayorsandLocalGovernmentConsolidationsinJapan.\BBCQ\\newblockIn{\BemUniversityofHawaiiDepartmentofEconomicsWorkingPaper}.\bibitem[\protect\BCAY{木村\JBA渋木\JBA高丸}{木村\Jetal}{2009}]{kim1}木村泰知\JBA渋木英潔\JBA高丸圭一\BBOP2009\BBCP.\newblock地方議員と住民間の共同支援に向けたウェブの利用.\\newblock\Jem{選挙研究},{\Bbf25}(1),\mbox{\BPGS\110--118}.\bibitem[\protect\BCAY{木村\JBA渋木\JBA高丸\JBA小林\JBA森}{木村\Jetal}{2010}]{kim2}木村泰知\JBA渋木英潔\JBA高丸圭一\JBA小林哲郎\JBA森辰則\BBOP2010\BBCP.\newblock北海道を対象とした地方議員と住民間の共同支援システムのユーザインターフェース評価.\\newblock\Jem{第24回人工知能学会全国大会論文集,2J2-NFC2-3}.\bibitem[\protect\BCAY{木村\JBA渋木\JBA高丸\JBA乙武\JBA小林\JBA森}{木村\Jetal}{2011}]{kim3}木村泰知\JBA渋木英潔\JBA高丸圭一\JBA乙武北斗\JBA小林哲郎\JBA森辰則\BBOP2011\BBCP.\newblock地方議員マッチングシステムにおける能動的質問のための質問生成手法.\\newblock\Jem{第24回人工知能学会全国大会論文集},{\Bbf26}(5),\mbox{\BPGS\580--593}.\bibitem[\protect\BCAY{小林\JBA乾\JBA松本}{小林\Jetal}{2006}]{kbys}小林のぞみ\JBA乾健太郎\JBA松本裕治\BBOP2006\BBCP.\newblock意見情報の抽出/構造化のタスク使用に関する考察.\\newblock\Jem{自然言語処理研究会報告2006-NL-171}.\bibitem[\protect\BCAY{松吉\JBA江口\JBA佐尾\JBA村上\JBA乾\JBA松本}{松吉\Jetal}{2010}]{mtys}松吉俊\JBA江口萌\JBA佐尾ちとせ\JBA村上浩司\JBA乾健太郎\JBA松本裕治\BBOP2010\BBCP.\newblockテキスト情報分析のための判断情報アノテーション.\\newblock\Jem{電子情報通信学会論文誌},{\BbfJ93-D}(6),\mbox{\BPGS\705--713}.\bibitem[\protect\BCAY{宮崎\JBA森}{宮崎\JBA森}{2010}]{myzk}宮崎林太郎\JBA森辰則\BBOP2010\BBCP.\newblock注釈事例参照を用いた複数注釈者による評判情報コーパスの作成.\\newblock\Jem{自然言語処理},{\Bbf17}(5),\mbox{\BPGS\3--50}.\bibitem[\protect\BCAY{森脇}{森脇}{2008}]{mrwk}森脇俊雅\BBOP2008\BBCP.\newblock合併と地方議会活動:議員アンケートの分析を中心にして.\\newblock\Jem{選挙研究},{\Bbf23},\mbox{\BPGS\82--90}.\bibitem[\protect\BCAY{大城\JBA渡邊\JBA渋木\JBA木村\JBA森}{大城\Jetal}{2012}]{osr}大城卓\JBA渡邊裕斗\JBA渋木英潔\JBA木村泰知\JBA森辰則\BBOP2012\BBCP.\newblock地方政治情報システムのための地方議会会議録への注釈付けタグセットの提案.\\newblock\Jem{言語処理学会第18回年次大会発表論文集},\mbox{\BPGS\3--9}.\bibitem[\protect\BCAY{乙武\JBA高丸\JBA渋木\JBA木村\JBA荒木}{乙武\Jetal}{2009}]{ottk}乙武北斗\JBA高丸圭一\JBA渋木英潔\JBA木村泰知\JBA荒木健治\BBOP2009\BBCP.\newblock地方議会会議録の自動収集に向けた公開パタンの分析.\\newblock\Jem{言語処理学会第15回年次大会},\mbox{\BPGS\192--195}.\bibitem[\protect\BCAY{Ptaszynski,Rzepka,Araki,\BBA\Momouchi}{Ptaszynskiet~al.}{2012}]{ptas}Ptaszynski,M.,Rzepka,R.,Araki,K.,\BBA\Momouchi,Y.\BBOP2012\BBCP.\newblock\BBOQAutomaticallyAnnotatingAFive-Billion-WordCorpusofJapaneseBlogsforAffectandSentimentAnalysis.\BBCQ\\newblockIn{\BemProseedingsofthe3rdWorkshoponComputationalApproachestoSubjectivityandSentimentAnalysis},\mbox{\BPGS\123--130}.\bibitem[\protect\BCAY{関口\JBA山本}{関口\JBA山本}{2003}]{skgc}関口洋一\JBA山本和英\BBOP2003\BBCP.\newblockWebコーパスの提案.\\newblock\Jem{情報処理学会研究報告.情報学基礎研究会報告},{\Bbf2003}(98),\mbox{\BPGS\123--130}.\bibitem[\protect\BCAY{高丸\JBA木村}{高丸\JBA木村}{2010}]{tkmr}高丸圭一\JBA木村泰知\BBOP2010\BBCP.\newblock栃木県の地方議会会議録における整文についての基礎分析—本会議のウェブ配信と会議録の比較—.\\newblock\Jem{都市経済研究年報},\mbox{\BPGS\74--86}.\bibitem[\protect\BCAY{高丸}{高丸}{2011}]{tkmr1}高丸圭一\BBOP2011\BBCP.\newblock規模の異なる自治体における地方議会会議録の整文の比較.\\newblock\Jem{社会言語科学会第27回研究大会},\mbox{\BPGS\256--259}.\bibitem[\protect\BCAY{高丸}{高丸}{2013}]{tkmr2}高丸圭一\BBOP2013\BBCP.\newblock形態素N-gramを用いた地方議会会議録における地域差の分析手法の検討—ひらがなで構成された文末の4-gramに着目して—.\\newblock\Jem{明海日本語},\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{上神}{上神}{2006}]{uekm}上神貴佳\BBOP2006\BBCP.\newblock投票支援ツールと『政策中心の選挙』の実現—オランダの実践と日本における展望—.\\newblock\Jem{選挙学会紀要},{\Bbf6},\mbox{\BPGS\43--64}.\bibitem[\protect\BCAY{上神\JBA堤}{上神\JBA堤}{2008}]{uekm2}上神貴佳\JBA堤英敬\BBOP2008\BBCP.\newblock投票支援のためのインターネット・ツール—日本版ボートマッチの作成プロセスについて—.\\newblock\Jem{選挙学会紀要},{\Bbf10},\mbox{\BPGS\39--80}.\bibitem[\protect\BCAY{上神\JBA佐藤}{上神\JBA佐藤}{2009}]{kgm}上神貴佳\JBA佐藤哲也\BBOP2009\BBCP.\newblock政党や政治家の政策的な立場を推定する—コンピュータによる自動コーディングの試み—.\\newblock\Jem{選挙研究},{\Bbf25}(1),\mbox{\BPGS\61--73}.\bibitem[\protect\BCAY{Weibe,Wilson,\BBA\Cardie}{Weibeet~al.}{2005}]{wb}Weibe,J.,Wilson,T.,\BBA\Cardie,C.\BBOP2005\BBCP.\newblock\BBOQAnnotatingExpressionsofOpinionsandEmotionsinLanguage.\BBCQ\\newblock{\BemLanguageResourcesandEvaluation},{\Bbf39}(2--3),\mbox{\BPGS\165--210}.\bibitem[\protect\BCAY{山本\JBA安達}{山本\JBA安達}{2005}]{ymmt}山本和英\JBA安達康昭\BBOP2005\BBCP.\newblock国会会議録を対象とする話し言葉要約.\\newblock\Jem{自然言語処理},{\Bbf12}(1),\mbox{\BPGS\51--78}.\bibitem[\protect\BCAY{Yu,Kaufmann,\BBA\Diermeier}{Yuet~al.}{2008}]{bei}Yu,B.,Kaufmann,S.,\BBA\Diermeier,D.\BBOP2008\BBCP.\newblock\BBOQClassifyingPartyAffiliationfromPoliticalSpeech.\BBCQ\\newblock{\BemJournalofInformationTechnology\&Politics},{\Bbf5}(1),\mbox{\BPGS\33--48}.\bibitem[\protect\BCAY{平野}{平野}{2008}]{hrn}平野淳一\BBOP2008\BBCP.\newblock「平成の大合併」と市長選挙.\\newblock\Jem{選挙研究},{\Bbf24}(1),\mbox{\BPGS\32--39}.\end{thebibliography}\appendix\vspace*{-1\Cvs} \section{各会議録検索システムのクロールプログラムの仕様} 表\ref{syst}に示した4つの会社が提供する会議録検索システムのそれぞれに収録された会議録を収集するためのクロールプログラムの仕様は以下のとおりである.\\\begin{itemize}\item大和速記情報センター・会議録研究所:大和速記情報センターおよび会議録研究所の会議録検索システムを導入している市町村のWebページでは,トップページもしくはトップページから直接リンクが張られているページに,各年度の会議録へのリンク一覧が存在するものがほとんどである.リンク一覧が存在しない場合,検索用の入力フォームに未記入で検索を実行することで全会議録の検索結果がリンク情報として表示される.これらのリンクをクロールプログラムが辿ることで会議録のページを自動的に取得する.\itemフューチャーイン:フューチャーインの会議録検索システムを導入している市町村のWebページでは,会議録検索システムの出力がCGIプログラムにより自動生成されていて,そのCGIプログラムに渡すパラメタにより出力内容を制御できる.例えば,会議録の検索は,以下のようなパラメタを渡すことで行われている.\\[0.5\Cvs]ACT=100\&KENSAKU=0\&SORT=0\&KTYP=0,1,2,3,4\&KGTP=0,1,2,3,4\&PAGE=1\\[0.5\Cvs]CGIプログラムに渡すパラメタPAGEの値を順次変えることですべての検索結果を得ることができる.パラメタACT,KTYPの値はそれぞれ,ページの表示方法,会議種別に対応する.また,会議録は発言ごとに分割されており,同じCGIプログラムにおいて,次のようなパラメタを渡すことで各発言を取得できる.\\[0.5\Cvs]ACT=203\&KENSAKU=0\&SORT=0\&KTYP=2,3\&KGTP=1,2\&TITL\_SUBT=\%95\%BD\\\%90\%AC\%82Q\%82Q\%94N\%81@\%82Q\%8C\%8E\%92\%E8\%97\%E1\%89\%EF\%81\%7C03\%8\\C\%8E03\%93\%FA-04\%8D\%86\&HUID=46845\&FINO=655\&HATUGENMODE=0\&HYOU\\JIMODE=0\&STYLE=0\\[0.5\Cvs]パラメタTITL\_SUBT,HUIDの値はそれぞれ,URIエンコードされた表題,発言IDに対応する.パラメタACTは,この例の「203」では「発言」,ひとつ前の例の「100」では「検索結果」を指している.パラメタTITL\_SUBTの値は,この例では「平成22年2月定例会03月03日--04号」を指している.クロールプログラムは,これらパラメタの値を順次変えることでCGIプログラムを経由して会議録を自動的に取得する.\item神戸綜合速記:神戸綜合速記の会議録検索システムを導入している市町村のWebページでは,会議録検索システムの検索結果の出力がCGIプログラムにより自動生成されており,そのCGIプログラムに渡すパラメタにより出力内容を制御できる.例えば,会議録の検索は,CGIプログラムに以下のようなパラメタを渡すことで行われている.\\[0.5\Cvs]treedepth=\%95\%BD\%90\%AC22\%94N\%20\%95\%BD\%90\%AC22\%94N\%203\%8C\%8E\%92\\\%E8\%97\%E1\%89\%EF\%20\\[0.5\Cvs]パラメタtreedepthの値はURIエンコードされた和暦と表題に対応する.この例では「平成22年3月定例会」を指している.クロールプログラムは,このパラメタの値を変え,CGIプログラムが生成したページに張られたリンクをたどることで会議録のページを自動的に取得する.\end{itemize}\begin{biography}\bioauthor{筒井貴士}{2013年横浜国立大学工学部電子情報工学科卒業.現在,同大学大学院環境情報学府情報メディア環境学専攻博士課程前期在学中.自然言語処理に関する研究に従事.}\bioauthor{我満拓弥}{2013年横浜国立大学工学部電子情報工学科卒業.現在,東京大学大学院工学系研究科電気系工学専攻博士課程前期在学中.数理生命情報学に関する研究に従事.}\bioauthor{大城卓}{2010年横浜国立大学工学部電子情報工学科卒業.2012年同大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了.修士(情報学).在学中は自然言語処理に関する研究に従事.}\bioauthor{菅原晃平}{2010年横浜国立大学工学部電子情報工学科卒業.2012年同大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了.修士(情報学).在学中は自然言語処理に関する研究に従事.}\bioauthor{永井隆広}{2010年横浜国立大学工学部電子情報工学科卒業.2012年同大学大学院環境情報学府情報メディア環境学専攻博士課程前期修了.修士(情報学).在学中は自然言語処理に関する研究に従事.}\bioauthor{渋木英潔}{1997年小樽商科大学商学部商学部商業教員養成課程卒業.1999年同大学大学院商学研究科修士課程修了.2002年北海道大学大学院工学研究科博士後期課程修了.博士(工学).2006年北海学園大学大学院経営学研究科博士後期課程修了.博士(経営学).現在,横浜国立大学環境情報研究院科学研究費研究員.自然言語に関する研究に従事.言語処理学会,情報処理学会,電子情報通信学会,日本認知科学学会各会員.}\bioauthor{木村泰知}{2004年北海道大学大学院工学研究科電子情報工学専攻博士後期課程修了.博士(工学).2005年,小樽商科大学商学部助教授着任.2007年,同准教授,現在に至る.この間,2010年10月より2011年9月までNewYork大学客員研究員.自然言語処理,情報抽出などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会各会員.}\bioauthor{森辰則}{1991年横浜国立大学大学院工学研究科博士課程後期修了.工学博士.同年,同大学工学部助手着任.同講師,同助教授を経て,現在,同大学大学院環境情報研究院教授.この間,1998年2月より11月までStanford大学CSLI客員研究員.自然言語処理,情報抽出,情報検索などの研究に従事.言語処理学会,人工知能学会,情報処理学会,電子情報通信学会,ACM各会員.}\end{biography}\biodate\end{document}
V07N03-02
\section{はじめに} \label{sec:Introduction}自然言語処理は文中の多義の要素の曖昧性を解消する過程といえる.高品質の自然言語処理システムの実現には,辞書中に曖昧性解消のために必要な情報を適切に記述しておくことが必須である.本論文は,どのようにして異なった構文構造から同じ意味表現を生成するか,また,どのようにして意味的に曖昧な文から,それぞれの曖昧性に対応する意味表現を生成するかに焦点を当てて,日本語の連体修飾要素の振る舞いの取り扱いを論ずる.これらの問題の解決に向けて,連体修飾要素の形式的記述法を確立するために,生成的辞書の理論\cite{Pustejovsky95,Bouillon96}を採用し,拡張する\cite{Isahara99}.我々は日本語の連体修飾要素の意味的曖昧性の解消を,「静的な曖昧性解消(staticdisambiguation)」と「動的な曖昧性解消(dynamicdisambiguation)」の二つに分類した.静的な曖昧性解消が辞書中の語彙情報を用いて行えるのに対し,動的な曖昧性解消は,知識表現レベルでの推論を必要とする.本論文は主として,動的な曖昧性解消を論ずる.形容詞を中心とする日本語の連体修飾要素の分類については,語の用法の違いに着目して,IPAL辞書の記述結果から,連体,連用,終止といった用法の分布特性を述べた研究\cite{Hashimoto92j}や,統語構造の分析という観点から連体と連用の対応関係を分析した研究\cite{Okutsu97}などがある.また,連体修飾の意味関係という点からは,松本が分析を行って\cite{matsumoto93j}おり,被修飾名詞の連体修飾節との関係は,単に埋め込み文になるような関係だけではなくて,意味論的語用論的な要因が関係する場合があることを示した.本研究で用いている分類は,それぞれの用法の下での語の意味的なふるまいを分析し,そこで見られる多様な意味関係を体系的に整理したものである\cite{Kanzaki99}.Pustejovskyは,松本が論じたような語用論的な要素など,語の意味が実現する文脈をも語の意味記述として辞書中で形式的に取り扱おうとしている\cite{Pustejovsky95}.この理論を英語やフランス語の形容詞に適用した研究がいくつかなされている\cite{Bouillon96,Bouillon99,Saint98}が,これらは対象が感情を表す形容詞等に限定されている.本研究では,日本語の連体修飾要素を,上に述べたような分類の中に位置づけて,形式的な意味の取り扱いを試みている. \section{日本語連体修飾要素の用法の分類} \label{sec:classification}連体修飾要素とその主名詞との構文的関係について,ある種の連体修飾要素は,限定の位置(attributiveposition)と叙述の位置(predicativeposition)の双方に現れうることが知られている\cite{Sakuma67j,Martin75,Makino86}.しかしながら,別の形容詞群は現れる位置によって異なった意味になり,また,ある種の形容詞はこれら二つの位置のうちの片方にしか現れることができない\cite{Hashimoto92j}.我々は連体修飾要素とその被修飾名詞との間の意味的関係を,限定の位置から叙述の位置への言い換えが可能かどうかに基づいて,3つのタイプに分類した.\vspace*{5mm}\begin{description}\item[(TypeA)]意味的な修飾関係を変更することなく,言い換えが可能な場合.{\bfAd.+N$\rightarrow$NがAd.}\\(例:緩やかな傾斜$\rightarrow$傾斜が緩やかだ)\begin{tabular}[c]{llp{10cm}}Ad.&=&連体修飾要素\\N&=&連体修飾要素によって修飾される名詞句の主名詞\end{tabular}\normalsize\item[(TypeB)]名詞が文脈によって制約される場合(たとえば,連体詞などの修飾語あるいは限定語が存在する場合)にのみ言い換えが可能な場合.{\bfAd.+N$\rightarrow$そのNはAd.}\\(例:大柄な少年$\rightarrow$その少年は大柄だ)\clearpage\item[(TypeC)]言い換えが全くできない(限定の位置だけが可能な)場合.{\bfAd.+N$\rightarrow$$*$none$*$}\\(例:悲しい思い$\rightarrow$*思いが悲しい)\vspace*{5mm}\end{description}タイプAとタイプBでは言い換えは成立するが,タイプCにおいては全く成立しない.この違いはタイプAとBにおいては連体修飾要素が被修飾名詞の指示対象を意味的にも修飾するのに対し,タイプCの連体修飾要素がその主名詞を直接には修飾しないという事実に基づく.タイプCの連体修飾要素は,(a)被修飾名詞が示す対象の一部だけをか,(b)被修飾名詞の指示対象の内容をか,(c)被修飾名詞の指示対象の在り方を修飾する.本論文では,(b)には深入りせず,主として(a)と(c)の意味関係について論じる.なお,連体修飾要素と連用修飾要素の双方の機能を持つ連体修飾要素がある\cite{Kanzaki99}が,(c)の中には連体修飾要素とその主名詞との間にある連用的意味関係を含んでいる. \section{日本語の連体修飾要素の役割の分類} \label{sec:classification2}連体修飾要素の解析のためには,その主名詞が文中で何を意味しているかを考慮し\cite{Bouillon96},さらには,文脈と世界知識を考慮にいれることが重要である\cite{Pustejovsky95,Lascarides98}.この節では,日本語連体修飾要素の振る舞いを,名詞句の意味表現が辞書中の情報からどのようにして作られるかに基づいて3つのタイプに分類する\cite{Kanzaki97,Kanzaki98}.3つのタイプとは,(1)連体修飾要素が被修飾名詞のどの属性に情報を与えているのかを推論しなくてはならない場合,(2)解析にあたって,語の意味表現構造を変更するような推論が必要とされる場合,(3)連体修飾要素が被修飾名詞自体に情報を付与するのではなく,文中に現れる構成要素間の関係を制約する場合,である.この節では,これらのタイプについて説明する.既に述べた構文タイプAとBは,意味タイプ1と2に対応する.タイプCはタイプ3と対応する.\subsection{被修飾名詞の属性を表現する連体修飾要素[Staticdisambiguation]}\label{sec:Static_disambiguation}これは,連体修飾要素が,その被修飾名詞句中の主名詞を意味的にも修飾している場合である.連体修飾要素は構文的には名詞を修飾し,そのほとんどは主名詞を意味的にも修飾する.ここでは,連体修飾要素とその主名詞との間の関係の「解析」は,被修飾名詞のどの属性に対して連体修飾要素が情報を付加しているかを決定する問題である.曖昧性解消には二つのタイプの推論が存在する.\subsubsection{被修飾名詞の唯一の主要な属性を表現する連体修飾要素}これは,連体修飾要素とその主名詞の間の関係,すなわち被修飾名詞のどの属性(slot)を連体修飾要素が埋めるか,が予測できる場合である.例\ref{ex:yuruyaka_na_keisya}において,「ゆるやかな」は,概念「傾斜」のインスタンスの属性値である.「傾斜」のインスタンスは,唯一の主要な属性「傾斜の角度(程度)」を持つので,「ゆるやかな」は傾斜の程度に関する値であると見なされる.この例では,名詞はその値が数値あるいは程度であるような唯一の主要な属性を持っている.\begin{exx}\rm\label{ex:yuruyaka_na_keisya}\hspace*{.5cm}ゆるやかな傾斜\vspace*{3mm}\begin{center}\epsfile{file=fig/isa1.eps.unix,scale=0.7}\end{center}\end{exx}\subsubsection{被修飾名詞の主要な属性の内の一つを表現する連体修飾要素}この場合は,自然言語処理システムは修飾語が埋める被修飾名詞の属性を特定しなくてはならない.ほとんどの名詞は唯一の主要な属性といったものは持たず,いくつかの属性が連体修飾要素が情報を付加する候補となる.例\ref{ex:oogara_na_shonen}においては,「男」は,名前,年齢,性格,体格といったいくつかの主要な属性を持ち,言語理解システムはこれらの属性の中から,情報を埋め込むべき適切な属性(すなわち,この例の場合は体格)を選択しなくてはならない.\begin{exx}\rm\label{ex:oogara_na_shonen}\hspace*{.5cm}大柄な男\vspace*{3mm}\begin{center}\epsfile{file=fig/isa2.eps.unix,scale=0.7}\end{center}\end{exx}これらのタイプの形容詞は意味を変える事なく叙述の位置にも制限の位置にも現れうる\cite{Sakuma67j,Teramura91j,Hashimoto92j}.たとえば,例\ref{ex:oogara_na_shonen}における「大柄な」は,「その男は大柄だ」といった叙述の位置にも「男が大きな体格をしている」という同じ意味で現れることができる.適切な意味的情報がなければ,主名詞の属性から一つの適切な属性を選択することはできない.また,ここには,文が総称的な読みを要求するものか,ある概念の一つのインスタンスを示しているのかを決定するという問題もある.\subsection{被修飾名詞から推論される状況に関する属性を表現する連体修飾要素[Dynamicdisambiguation1]}\label{sec:Dynamic_disambigation1}連体修飾要素は被修飾名詞の指示対象のインスタンスそのものを修飾するのではなく,被修飾名詞(の存在する文脈)から推論される事象や状況あるいは知識のインスタンスを修飾する場合がある.\subsubsection{意味表現中で新しい要素を推論する必要がある場合}連体修飾要素と被修飾名詞との間の意味的関係を表現するために,意味表現中に新しい要素を推論しなくてはならないような場合がある.例\ref{ex:hayai_ie}において,連体修飾要素「早い」は意味的には,家を構成するメンバーが参加する何らかの事象を修飾する.家はその属性として時間に関する尺度を持てないが,ある事象(この場合は大掃除)が文脈から推論できれば,「早い」はその事象の持つ属性(この場合は大掃除の開始時間)を修飾することができる.しかしながら,この例の場合は,換喩表現の処理が必要となるから,計算機上での実装はそれほど簡単ではない.たとえシステムが,その「開始時刻」が「早い」事象として文脈中で「大掃除」を見つけ出すことができるにせよ,システムは「家」から,そこに住む人を推論し,その人が大掃除の行為者であることを推論しなくてはならない.英語においては,このような推論のあるものは構文構造を用いてなされる.日本語ではこの種の推論は困難であるが,換喩表現の処理は日本語における,修飾・被修飾関係の本質を決定するためには必須である\cite{matsumoto93j}.\begin{exx}\rm\label{ex:hayai_ie}\hspace*{.5cm}\underline{早い家}は12月に入ると,計画的に少しずつ片付け始める.\begin{center}\epsfile{file=fig/isa3.eps.unix,scale=0.7}\end{center}\end{exx}\subsubsection{一つの概念を概念の集合に変換しなくてはならない場合}連体修飾要素が名詞を全体として修飾するのではなく,名詞の特定の特徴だけを修飾する場合がある.例えば,例\ref{ex:ijouna1}は曖昧である.「全体(asawhole)」解釈は,この人は何かを愛好していて,その人は全体として異常である.「特定(specific)」解釈は,この人は何かを異常に愛好している,つまり,この人が何かを愛好している方法が異常である,つまり,この人は何かに熱狂している\footnote{もう一つ,「異常な占星術」を愛好する人という解釈もありうるが,その解釈は,ここで論じている「異常な」と「愛好者」の関係ではなくなる.}というものである.例\ref{ex:ijouna1}における「異常な」の曖昧性は,以下で形式的に議論される.\begin{exx}\rm\label{ex:ijouna1}\hspace*{.5cm}異常な占星術の愛好者\vspace*{3mm}\begin{center}\epsfile{file=fig/isa4.eps.unix,scale=0.7}\end{center}\end{exx}「特定」解釈を取り扱うためには,システムは図\ref{fig:Concept_Conversion}に示されるような概念変換\cite{Isahara95e}を実行する必要がある.\begin{figure}[htb]\begin{center}\epsfile{file=fig/isa5.eps.unix,scale=0.7}\label{fig:isahara3}\caption{概念変換}\label{fig:Concept_Conversion}\end{center}\end{figure}「全体」解釈では,連体修飾要素は被修飾要素の外延を修飾している(例えば,異常であるのは占星術愛好者である).したがって,「異常」(のインスタンス)のobjectslotは,「愛好者」(のインスタンス)で埋められる.しかしながら,「特定」解釈では,連体修飾要素は被修飾語が参照する内包の一部を修飾する(たとえば,異常であるのは,その人が何かを愛好する方法である).解析モジュールは意味構造を変換し(図\ref{fig:Concept_Conversion}),「異常」(のインスタンス)のobjectslotは,概念変換によって抽出された「愛好する」(のインスタンス)によって埋められる.概念変換は,意味表現上での,元の表現の言い換えであるといえる.概念変換は例\ref{ex:ijouna2}の解析にも有効である.\begin{exx}\rm\label{ex:ijouna2}\hspace*{.5cm}占星術の異常な愛好者\end{exx}例\ref{ex:ijouna2}は曖昧ではない.「全体」解釈が可能ではないので,「占星術の愛好の仕方が異常な人」が唯一の解釈である.何故かというと,例\ref{ex:ijouna2}は,例\ref{ex:ijouna3}に示されるような句に言い換えることができる.もし,「占星術」が「愛好する」を修飾した場合,係り受け関係が交差してしまうので,「異常に」は「者」を修飾することはできない.\begin{exx}\rm\label{ex:ijouna3}\hspace*{.5cm}占星術を異常に愛好する者\end{exx}例\ref{ex:ijouna4}は連体修飾要素「異常」が叙述の位置にある場合を示している.このような場合,一般には例\ref{ex:ijouna3}のような言い換えが可能となるが,「もし,文法規則と一致するなら,それぞれの入力語を現時点で解析されている句に結び付ける.」というLateClosureまたはRightAssociation\cite{Kimball73,Frazier79}の考え方を援用して,「全体」解釈を優先することが可能となる.\begin{exx}\rm\label{ex:ijouna4}\hspace*{.5cm}愛好者が異常だ.\end{exx}\subsection{テキスト中の構成要素間の関係を制約する連体修飾要素[Dynamicdisambiguation2]}\label{sec:Dynamic_disambiguation2}\subsubsection{被修飾名詞に直接情報を付加しない連体修飾要素}\label{sec:Dynamic_disambiguation2_1}連体修飾要素は多くの場合,名詞を構文的にも意味的にも修飾する.しかしながら,一部の連体修飾要素は異なった働きをする.すなわち,構文的には名詞を修飾するが意味的には修飾しない.日本語の形容動詞「純粋な」「完全な」「全く」などはこの種の振る舞いを典型的に行う.ここ示す,例\ref{ex:junsui1}-\ref{ex:junsui3}の「純粋な」と例\ref{ex:kanzen1}-\ref{ex:kanzen3}の「完全な」は,それぞれ異なった意味役割を果たす.\begin{exx}\rm\label{ex:junsui1}\hspace*{.5cm}純粋な水\end{exx}\begin{exx}\rm\label{ex:junsui2}\hspace*{.5cm}越境は\underline{純粋な政治亡命}だった.\end{exx}\begin{exx}\rm\label{ex:junsui3}\hspace*{.5cm}\underline{純粋な中立}は難しい.\end{exx}\begin{exx}\rm\label{ex:kanzen1}\hspace*{.5cm}\underline{完全なシステム}ではない.\end{exx}\begin{exx}\rm\label{ex:kanzen2}\hspace*{.5cm}農作物は\underline{完全な消費財}である.\end{exx}\begin{exx}\rm\label{ex:kanzen3}\hspace*{.5cm}完全な無人の館\end{exx}例\ref{ex:junsui1}において,「純粋な」は水の純粋性について述べている.すなわち,「水」概念(のインスタンス)の中の何かについて述べている.例\ref{ex:oogara_na_shonen}における連体修飾要素「大柄な」は,被修飾名詞,つまり「男」の属性の値を表現しているが,例\ref{ex:junsui1}における連体修飾要素「純粋な」は,被修飾名詞(すなわち「水」)の属性の値を表現しているのではなく,この被修飾名詞の属性をある値が占める,その方法を表現している.すなわち,「水以外のものは,その参照物の属性のフィラーではない.」ということを表現している.例\ref{ex:kanzen1}においても同様に,「完全な」は,システムの完全性(の程度)について述べている.すなわち,「システム」概念中の何か(例えばシステムの機能)について述べている{\bf(Case~1)}.例\ref{ex:junsui2}において,「純粋な」は,政治亡命そのものの純粋性に関して情報を付与しているのではなく,この「越境」には政治亡命という,ただ一つの目的(あるいは動機)しかないということを記述している.言い換えると,この行為を説明する他の動機(例えば観光とか経済的理由とかいったもの)はないことを示している.つまり「純粋な」は何かしら「政治亡命」概念の外にあるものについて記述している.例\ref{ex:kanzen2}において,「完全な」は,例\ref{ex:junsui2}における「純粋な」と非常に似た役割を果たしている.つまり,「農作物」には,消費財というただ一つの目的しかないことを記述している.すなわち,農作物には,原材料などの別の利用法はない{\bf(Case2)}.例\ref{ex:junsui1}と\ref{ex:junsui2}において対象とされているものは,たとえそれらが「純粋」でなかったとしても,依然として,「水」や「政治亡命」である.一方,例\ref{ex:junsui3}は,厳密な中立は難しいということを意味しているが,「純粋でない」中立は,厳密な意味では中立ではない.「純粋な」は「中立」という概念そのものについて記述している.例\ref{ex:kanzen3}についても同様に,「完全でない」無人は厳密な意味では無人ではない{\bf(Case3)}.日本語において,「純粋な」や「完全な」以外の多くの連体修飾要素による同様の現象がある.このような現象の形式的取り扱いは\ref{sec:Hypothesis_and_Difinition}節で論じる.\subsubsection{存在の在り方を表す連体修飾要素}\label{sec:state_of_being}「立派な」のような連体修飾要素は限定の位置にあって被修飾名詞の在り方を表すことができる.例\ref{ex:rippa}において,連体修飾要素「立派な」は島自体の様子(aspect)を記述しているのではなく,それが島だと認識されるために必要なものの本質(nature)について記述している.言い換えると,「これはまさに,大きな岩ではなく島である.」ということを表しているのである.\begin{exx}\rm\label{ex:rippa}\hspace*{.4cm}この海山がさらに隆起したり,前述のように海面低下で海上に顔を出したりす\\\q\q\qれば\underline{立派な島}となる.\end{exx}\newpage例\ref{ex:junsui1}や\ref{ex:kanzen1}の連体修飾要素がその意味を変える事なく,限定の位置にも叙述の位置にも現れうるのに対し,例\ref{ex:junsui2},\ref{ex:junsui3},\ref{ex:kanzen2},\ref{ex:kanzen3}では,その意味を変えずには叙述の位置には現れることはできない.もし「立派な」が叙述の位置に現れて,「島が立派だ」となると,これは「その島の状況が立派だ」というように島の在り方を表すことになる\footnote{英語では,``real''が同様の例として存在する.``arealfriend''は「親友」を意味し,``hisfriendisreal''は「彼の友人が想像上の存在ではないことを意味している.}.「立派な島」は文脈がないと二つの解釈がありうる.すなわち,「その島が立派だ」というように島自体の様子を記述している場合と,それが島であると認識されるために必要とされるものの本性を記述している場合である.自然言語処理システムがこの名詞句を解析する場合には,文脈中で,連体修飾要素とその被修飾名詞の間の意味関係を用いて,これら二つの可能性のうちで適切な方の解釈を選択しなくてはならない.さらに,連体修飾要素とその被修飾名詞との意味的関係を解釈するためには,時には文脈や世界知識を用いて新たに導入される概念のインスタンスを推論する必要がある場合がある.\ref{sec:Dynamic_disambigation1}節の例\ref{ex:hayai_ie}の「早い家」はこのような状況を示している.語彙意味論の体系においては,文脈と我々の持つ世界知識とを考慮にいれることが重要である.語彙項目の意味的機能はいくつかの観点から解析するべきである. \section{日本語連体修飾要素の形式的取り扱い} この節では,これまで述べてきた連体修飾要素の振る舞いのうち,構文的な被修飾名詞を意味的には修飾しないため,取り扱いが複雑になるものとして,\ref{sec:Dynamic_disambiguation2}節で述べたcase1から3の言語現象を取り上げ,その形式的取り扱いについて,「純粋な」を例に論ずる.この議論は「完全な」「全く」といった同種の形容詞の取り扱いにも直接適用できる.また,第3節で分類した連体修飾要素の振る舞いの内で,3.1節で述べたStaticdisambiguationは,被修飾要素中に既に存在する属性に対して情報を付加する操作であり,その論理操作は単純である.3.2節で述べたDynamicdisambiguation1も,連体修飾要素自体の役割を越えた一般的な意味表現のレベルでの変換が要求されるが,一旦変換された後の操作はStaticdisambiguationと同じである.case1の「純粋な水」において,水の純度が高いことを意味するのは「純粋な」固有のことであるが,被修飾語の名詞の内部的な属性を表すという点では,3.1節,3.2節に示したものと同様の処理となる.また,case2の「純粋な政治亡命」において,目的を唯一とするということを意味するのは「純粋な」固有のことであるが,被修飾語の名詞の在り方を修飾している連用的な振る舞いは,広く他の形容詞にもみられる.このように,ここで示す取り扱いのそれぞれは,他の形容詞においても成り立つものである.\subsection{仮説と定義}\label{sec:Hypothesis_and_Difinition}これらの現象を取り扱うため,次の仮説を立て,定義を定めた.\begin{flushleft}{\bf[仮説]}\end{flushleft}\begin{description}\item[(a)]複数の要素によって共有される何かが存在する.たとえば,いくつかの要素を含んだり,表したり,具体化したり,参照したりできる何らかの意味的定義など.\item[(b)]「純粋な」は,その要素数を1に制限する働きをする.\end{description}生成的辞書\cite{Pustejovsky95}の考え方を拡張することにより「純粋なもの」は,次のように表される.\begin{eqnarray*}\lambdax[stg(x)\\wedge\Telic\=~!1~\\lambdae[\varphia,\varphib,\varphic,\ldots]]\end{eqnarray*}ここで,$Telic$とは,生成的辞書(generativelexicon)において,語に関する知識を構造化したり,文脈の中での語の解釈を提案するための中心的構造であるQualiastructureの一部であり,対象物の持つ目的や機能を表す.上式においては$\varphia$,$\varphib$,$\varphic$,$\ldots$といった関数の組で表されている.「!1」は,その要素の数を1に制限する関数であり,上式は全体として,「純粋なもの」とは「(考察されるべき)Telic役割を1つだけに限定したなにか(something,{\itstg}({\itx}))」であるということを表している.\vspace{0.5cm}\begin{flushleft}{\bf[定義]}\end{flushleft}「純粋な」は以下のような式で表される.\begin{eqnarray}pure&\Rightarrow&\lambdaSemN.\lambdaNewArg.[p(SemN,NewArg)]\end{eqnarray}ここで,$SemN$は被修飾名詞の意味を表し,$NewArg$は解釈にあたって,新たに導入された変数(「文中の主体」を表す)である.$SemN$と$NewArg$は,この定義の段階では特定の事物を表すのではなく(underspecifiedtype),実際の解釈の時点で詳細化が行われる.構文的には,連体修飾要素はその引数として,一つの名詞を取り,同じ品詞(この場合,名詞)を返す.意味的には,名詞の意味記述を引数に取り,1項関数の意味記述を返す.すなわち,名詞の意味定義を限定(縮小)させることになる.(1)式から始めて,以下のように「$p$」を定義することを考える.\begin{description}\item[Case1]($SemN$は構成的あるいは集合的なものであり,$NewArg$も同じである.):\begin{eqnarray}p&\Rightarrow&\forally.[¬(SemN(y))\\rightarrow\¬(y\inNewArg)]\end{eqnarray}この式は,論理的には以下の式と等価である.\begin{eqnarray}p&\Rightarrow&¬\existsy.[¬(SemN(y))\\wedge\(y\inNewArg)]\end{eqnarray}例\ref{ex:junsui1}の「純粋な水」の場合,$SemN$は水であり,$NewArg$は,この言語表現が参照する液体である.すなわち「水でないものは,この液体中には存在しない」ということを意味している.\item[Case2]($SemN$は個々の実体あるいは事象である.):\begin{eqnarray}p&\Rightarrow&\forally.[¬(y=SemN)\\rightarrow\¬(view(NewArg,y))]\end{eqnarray}例\ref{ex:junsui2}の「越境は純粋な政治亡命だった.」の場合,$SemN$は政治亡命であり,$NewArg$は越境である.ここでは「純粋な」は$NewArg$の解釈に関わっている.すなわち,この行為(越境)にはただ一つの見方(政治亡命)しかない(経済的理由などという側面はない)ということを表している.(2)と(4)の類似性から分かるように,Case1とCase2においては,「純粋な」の意味的役割は何らかの基礎的な論理構造を共有しているように思われる.しかしながらCase3は異なった取り扱いを必要とする.\item[Case3]($SemN$は述語あるいは状態である.):$SemN$を述語あるいは状態$P$であるとすると,元来$P$か¬$P$で表される2値述語であった$NewArg$が極性を持った述語に強制変換(coerce)される.例\ref{ex:junsui3}の「純粋な中立」の場合,「中立」は元来,次式に示すように中立であるか無いかの2値である.\begin{eqnarray*}\forallP[neutrality(P)\\vee\neutrality(¬P)].\end{eqnarray*}この例の場合,「中立」は厳密な意味での中立を表す$\alpha$と,厳密な意味での非中立を表す$\beta$という二つの極性述語に強制変換される.「¬$\alpha$かつ¬$\beta$」は「厳密な意味ではない」中立を表す.別の言い方をすれば,中立であると見なすことができる状況の範囲にあることを表している.\end{description}\subsection{連体修飾要素と連用修飾要素}\label{sec:Adnominal_Constituents_and_Adverbal_Constituents}「純粋」などの日本語の形容動詞は,以下のように活用する.\begin{center}\begin{tabular}[c]{ll}「純粋な」&$\longleftarrow$連体修飾要素\\「純粋に」&$\longleftarrow$連用修飾要素\\「純粋さ」&$\longleftarrow$体言\end{tabular}\end{center}形容動詞「純粋」は例\ref{ex:junsui4}においては「政治亡命」を構文的に修飾(連体修飾)し,例\ref{ex:junsui5}においては「だった」を構文的に修飾(連用修飾)する.これら二つの文は構文的には異なった構造を持つが,意味的にはほとんど同じことがらを示している\footnote{「だった」のような日本語のcopulaは一般に構文的には名詞を取り,一種の動詞句を返す.したがって,英語のcopulaと同様に,日本語でもcopulaは意味的には「透明(transparent)」であり,連体形であれ連用形であれ,「純粋」の機能は一般名詞の意味記述に適用され,他の1項の動詞と区別ができないという意見もあろう.しかしながら,例えば「赤い」といった日本語の形容詞は,連体修飾要素としてしか用いることができない.\begin{tabular}[c]{r@{}l}&赤い箱だ\\$*$&赤く箱だ\\\end{tabular}\vspace*{2mm}例15から17の中のcopulaは動詞「存在する」と類似の意味を持っており,「透明」ではない.したがって,これらの文を一般の動詞を用いた文と同様に,それぞれ異なった形で解析する必要がある.}.「純粋」などの形容動詞の辞書記述はこの種の言語現象を説明できなくてはならない.\begin{exx}\rm\label{ex:junsui4}\hspace*{.5cm}純粋な政治亡命だった.\end{exx}\begin{exx}\rm\label{ex:junsui5}\hspace*{.5cm}純粋に政治亡命だった.\end{exx}\begin{exx}\rm\label{ex:junsui6}\hspace*{.5cm}政治亡命だった.\end{exx}体言はひとつないし複数の内包(intension)を持った事物の外延(extension)を参照する.copulaは「事象」の下位概念である「状態」のインスタンスを参照する.この「状態」もまた,「事象」のひとつないし複数の外延を持つ.例\ref{ex:junsui4},\ref{ex:junsui5},\ref{ex:junsui6}の意味とは,外延「越境」から内包「ある事象についてのいくつかの視点」への関数(あるいはマッピング)である.たとえば,例\ref{ex:junsui6}に示す「純粋」のない「越境は政治亡命である」は「越境」についてのいずれかの視点への関数である.ここで,「政治亡命(politicalflight)」という特定の視点は陽に言明されているが,他の視点は明示されないままである.したがって,例\ref{ex:junsui6}は,以下のように表しうる.\begin{verbatim}state1(views=extension1(views=politicalflight,intension12,...),extension2(views=intension21,intension22,...),extension3(views=intension31,intension32,...),...)\end{verbatim}連体用法の「純粋」(例\ref{ex:junsui4})は,一つの外延の複数の視点に関するもので,\ref{sec:Hypothesis_and_Difinition}節で導入された関数「!1」を用いて,内包の数を1に制限する.これは次のように示すことができる.\begin{verbatim}extension1(views=intension1,intension2,...)↓!1extension1(views=intension1)\end{verbatim}\noindentしたがって,例\ref{ex:junsui4}は,次のように表現できる.\begin{verbatim}state1(views=extension1(views=politicalflight),extension2(views=intension21,intension22,...),extension3(views=intension31,intension32,...),...)\end{verbatim}連用用法の「純粋」(例\ref{ex:junsui5})は,一つの「状態」に関するもので,関数「!1」を用いて,以下のように外延の数を1に制限する.\begin{verbatim}state1(views=extension1,extension2,...)↓!1state1(views=extension1)\end{verbatim}\noindentしたがって,例\ref{ex:junsui5}は,次のように表現できる.\begin{verbatim}state1(views=extension1(views=politicalflight,intension12,...))\end{verbatim}厳密に言えば,これら3つの例は異なった意味を表している.しかしながら,日常会話においてはこの差異に注意を払わないことが多い.ここで,これらの表現の類似性を説明する新しい仮説を導入しよう.\vspace{0.5cm}\begin{flushleft}{\bf[仮説]}\end{flushleft}明示的に表現されていない外延や内包は文脈上で強調されていない.それらは文の解釈には,ほとんど寄与しない.したがって,例\ref{ex:junsui4},\ref{ex:junsui5},\ref{ex:junsui6}は,共に,以下のように表現することができる.\begin{verbatim}state1(views=extension1(views=politicalflight))\end{verbatim}上に示した例\ref{ex:junsui6}についての単純化は,全て,この仮説に基づいている.しかしながら,例\ref{ex:junsui4}と\ref{ex:junsui5}についての単純化の一部は「純粋」の存在に依存している.したがって,これらの単純化の信頼性はそれぞれ異なっている.しかしながら,この興味深い事実をさらに議論することは本論文の目的ではない. \section{おわりに} \label{sec:Conclusion}本論文は,どのようにして異なった構文構造から同じ意味表現を生成するか,また,どのようにして意味的に曖昧な文から,それぞれの曖昧性に対応する意味表現を生成するかに焦点を当てて,日本語の連体修飾要素の振る舞いの取り扱いを論じた.本論文では,まず,連体修飾要素の特性を分類した.すなわち,(1)被修飾語のどの属性が連体修飾要素によって表現されているのかを推論しなくてはならないもの,(2)意味表現の構造を変更するような推論が必要なもの,(3)連体修飾要素が被修飾語自体に情報を付与するのではなく,文章中の要素間の関係を制約するもの,である.高品位の機械翻訳など,自然言語処理において良い成果を出すには,詳細な概念表現に基づく辞書情報を利用することが必要となろう.したがって,我々は生成的辞書理論に基づく概念表現法と概念変換モジュールを利用している.これらの技術を用いることにより,連体修飾要素の意味的曖昧性を,連体修飾要素と被修飾名詞との間の修飾関係を解析することによって取り扱えることを示した.本研究の枠組みのなかで,連体表現をより詳細に記述するためには,(1)否定のスコープ,(2)否定と連体修飾要素の位置(制限の位置と叙述の位置),(3)文脈と連体修飾要素の位置の情報を用いた曖昧性解消,等が必要となろう.\begin{flushleft}{\bf謝辞}\end{flushleft}本論文で取り扱った言語現象の形式的取り扱いについて,充実した討論をしていただいたDr.JamesPustejovsky(BrandeisUniversity)とDr.AnnCopestake(CSLI)に感謝致します.\bibliographystyle{jnlpbbl}\bibliography{v07n3_02}\begin{biography}\biotitle{略歴}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).同年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所関西支所知的機能研究室室長.自然言語処理,機械翻訳の研究に従事.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,ACL,各会員.}\bioauthor{神崎享子}{1992年早稲田大学第二文学部西洋文化専修卒業.1995年同大学院文学研究科日本語日本文化専攻修士課程修了.1998年同大学院文学研究科日本語日本文化専攻博士課程(後期)満期退学.同年郵政省通信総合研究所関西支所知的機能研究室特別研究員.言語学,語彙意味論の研究に従事.言語処理学会,計量国語学会,ACL,日本言語学会,国語学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}
V13N03-07
\section{はじめに} 「ある用語を知る」ということは,その用語が何を意味し,どのような概念を表すかを知ることである.それと同時に,その用語が他のどのような用語と関連があるのかを知ることは非常に重要である.特定の専門分野で使われる用語---{\bf専門用語}---は,その分野内で孤立した用語として存在することはない.その分野で使われる他の用語に支えられ,その関連を土台として,はじめて意味を持つ.それらの用語間の関連を把握することは,「その専門分野について知る」ことでもある.例えば,「自然言語処理」について知りたい場合を考えよう.まずは,「自然言語処理」という用語が表す意味,すなわち,「自然言語---人間が使っていることば---を計算機で処理すること」を知ることが,その第一歩となる.それと同時に,「自然言語処理」に関連する用語にはどのような用語があり,それらがどのような意味を持つかを知ることは,「自然言語処理」という分野を知るよい方法である.用語の意味を調べる方法は自明である.百科辞典や専門用語辞典を引くことによって,あるいは,ウェブのサーチエンジン等を利用することによって,比較的容易に達成できる場合が多い.それに対して,ある用語に関連する用語集合を調べる方法は,それほど自明ではない.上記の例の場合,好運にも「自然言語処理」用語集のようなものが見つかれば達成できるが,そのような用語集が多くの専門分野に対して存在するわけではない.関連用語を知ることが専門分野の理解につながるということは,逆に言えば,適切な関連用語集を作成するためには,その分野に関する専門知識が必要であるということである.事実,一つの専門分野が形成され成熟すると,しばしば,その分野の専門用語集・辞典が編纂されるが,その編纂作業は,その分野の専門家によって行なわれるのが普通である.その作業には,かなりの労力と時間が必要であるため,商業的に成立しうる場合にしか専門用語集は作成されないとともに,分野の進展に追従して頻繁に改定されることはまれである.このような現状を補完する形で,色々な分野に対する色々なサイズの私家版的用語集が作られ,ウェブ上に公開されている.このような現象は,相互に関連する専門用語群を知りたいというニーズが存在し,かつ,専門用語集が表す総体---分野---を知る手段として,実際に機能していることを示唆する.関連する専門用語群を集めるという作業は,これまで,その分野の専門家が行なうのが常であったわけであるが,この作業を機械化することはできないであろうか.我々が頭に描くのは,例えば,「自然言語処理」という用語を入力すると,「形態素解析」や「構文解析」,あるいは「機械翻訳」といった,「自然言語処理」の関連用語を出力するシステムである.このようなシステムが実現できれば,ある用語に対する関連用語が容易に得られるようになるだけでなく,その分野で使われる専門用語の集合を収集することが可能になると考えられる.このような背景から,本論文では,与えられた専門用語から,それに関連する専門用語を自動的に収集する方法について検討する.まず,第\ref{chap2}章で,本論文が対象とする問題---{\bf関連用語収集問題}---を定式化し,その解法について検討する.第\ref{sec:system}章では,実際に作成した関連用語収集システムについて述べ,第\ref{chap4}章で,そのシステムを用いて行なった実験とその結果について述べる.第\ref{chap5}章では,関連研究について述べ,最後に,第\ref{chap6}章で,結論を述べる. \section{関連用語収集問題} \label{chap2}\subsection{関連用語収集問題の定式化}先に述べたように,我々が実現したいシステムは,例えば,「自然言語処理」を入力すると,「形態素解析」,「構文解析」,「機械翻訳」などの「自然言語処理」に関連する専門用語を出力するシステムである.このシステムが持つべき機能は,与えられた専門用語に対して,それと強く関連する専門用語を収集・出力することであり,これは,以下のような問題として定式化することができる.\vspace{2mm}\begin{quote}\framebox{\parbox{0.6\textwidth}{{\bf入力:}専門用語$s$\\{\bf出力:}$s$に強く関連する専門用語の集合\\\hspace{2cm}$T=\{t_1,t_2,...,t_n\}$}}\end{quote}\vspace{2mm}以下では,入力の専門用語$s$を{\bfシードワード}と呼び,$t_i$を$s$の関連用語と呼ぶ.問題をこのように定式化すると,収集すべき用語$t$は,次の2つの条件を満たものであることが明確となる.\begin{enumerate}\item用語$t$は,専門用語である.\item用語$t$は,シードワード$s$と強く関連する.\end{enumerate}以下では,これらの条件とその判定法について検討する.\subsection{「専門用語」とは}\label{sec:term}「専門用語とは何か」ということは,ターミノロジーの中心的問いの一つである.KageuraとUmino\cite{kageura96atr_review}は,重要語抽出(automatictermrecognition;ATR)の手法を整理するために,専門用語を特徴づけるunithoodとtermhoodという2つの概念を提示している.\begin{description}\item[unithood]thedegreeofstrengthorstabilityofsyntagmaticcombinationsorcollocations\item[termhood]thedegreethatalinguisticunitisrelatedtodomain-specificconcepts\end{description}しかし,その後,影浦は,「専門用語とは何か」をより直接的に議論した論文\cite{kageura02terminology}において,次のような定義を与えている.\begin{itemize}\item専門用語とは専門用語として使われるものである(p.~3)\item専門用語は,もっぱら/特権的に/主に,特定の専門分野で使われる語彙的単位である(p.~6)\end{itemize}我々は,影浦の説得力あるこの論文に同意し,専門用語の定義としてこの定義を採用する.この定義を採用すると,「ある用語$t$が{\bf専門用語であるか}どうか」は,「用語$t$が{\bf専門用語として使われているか}どうか」を判定することに帰着される.より具体的に言えば,どのような現象が観察されれば「専門用語として使われている」とみなすかを決めれば,この問題は決着することになる.ある用語が「専門用語として使われている」とは,「ある集団の人々が,ある分野の特定の意味内容を表すために,その用語を実際に使っていること」と考える.このことは,特定分野のテキストに,その用語がしばしば現れることを要請する.そこで,\begin{enumerate}\itemある特定の分野のテキストにおいて,一定数以上の使用が観察されることを,その用語をその分野の専門用語とみなすための必要条件とする.\end{enumerate}ただし,上記の条件を満たす語がすべて,その分野の専門用語となるとは限らない.なぜならば,多くの分野で広く用いられる語(一般語)も上記の条件を満たすからである.十分に大きいテキストコーパスを用意すれば,分野の数は十分に多くなるため,このような一般語のコーパス全体における頻度は,特定の分野にしか現れない専門用語より大きくなるとともに,その分布は,分野に依存せずほぼ一様になることが期待できる.そこで,\begin{enumerate}\setcounter{enumi}{1}\itemコーパス全体における高頻度語,あるいは,分野に依存せず一様に分布する語は,一般語とみなす.(専門用語とはみなさない.)\end{enumerate}逆に言うならば,専門用語は,ある特定の分野に偏って出現する用語であり,コーパス全体における出現頻度は,それほど高くないということである.さて,ある分野のテキストにある用語がほとんど現れないからといって,その用語を専門用語ではないと判断することはできない.なぜならば,他の分野の専門用語である可能性が残されているからである.これに対して,コーパス全体における出現頻度が極めて低い用語は,専門用語である可能性がない\footnote{これらの用語は,十分な使用例が観察されない用語---臨時的に用いられた用語,用語として定着しなかった用語,あるいは誤植---と考えるのが適切である.}.そこで,\begin{enumerate}\setcounter{enumi}{2}\itemコーパス全体における出現頻度が極めて低い用語は,専門用語とはみなさない.\end{enumerate}以上をまとめると,本研究では\mbox{表\ref{tbl:term_class}}に示す3種類の用語クラスを導入し,テキストコーパス全体および特定分野のテキストにおける出現傾向を観察して,それぞれの用語の用語クラスを推定するということになる.\begin{table}\begin{center}\small\caption{本研究における用語の分類}\label{tbl:term_class}\begin{tabular}{|l|p{16zw}|p{18zw}|}\hline&使われ方&観察される現象\\\hline専門用語&ある集団の人々が,ある分野の特定の意味内容を表すために,実際に使っている&特定の分野のテキストにおいて一定数の使用が観察される\\\hline一般語&分野を問わず広く一般に使われている&テキストコーパス全体における出現頻度が高い,あるいは,出現頻度は,分野に依存せず,ほぼ一定である\\\hlineその他の語&あまり使われていない&テキストコーパス全体における出現頻度が極めて低い\\\hline\end{tabular}\end{center}\end{table}本研究では,テキストコーパスとして,ウェブを採用する.ウェブは,現時点で利用可能な,最も大きなテキストコーパスであり,さまざまな分野の情報が,さまざまな専門レベルで記述されている.それゆえ,ウェブは,テキストにおける用語の出現傾向を観察するテキストとして,最も適切であると考える.\subsection{「関連する」とは}\label{sec:rel}次の問題は,「関連する」をどのように捉えるかという問題である.これには,大きく2つのアプローチがある.第一のアプローチは,2つの用語間に,シンボリックな関連性の種類---いわゆる{\bf関係}---を設定し,そのような関係があると考えられる用語対を,「関連する」と考えるアプローチである.用語間あるいは概念間の関係としてどのようなものを設定すべきかということは,古くから多くの議論があったわけであるが,いくつかの基本的な関係を除いては,いまだに決着を見ていない.おおよそ合意できる範囲は,情報検索用のシソーラス\cite{thesaurus}で用いられる等価関係(同義・類義関係)と階層関係(上位・下位関係)であろう.しかしながら,我々は,このアプローチを採用しない.なぜならば,我々が考慮の対象としたい専門用語間の関連をカバーする,適切な関係の集合を前もって定義することは困難だと考えるからである.例えば,「形態素解析」と「形態素」は,我々が対象としたい関連の一例であるが,この2つの用語間の関係は,等価関係でも階層関係でもない.敢えて言うならば,形態素解析という解析処理を行なう際の処理単位が形態素であるので,これらの用語間の関係は,「処理と処理単位の関係」と考えるのが適切であろう.この例は一例にすぎないが,関連する用語間の関係には多くの種類が存在し,それらを前もってすべて列挙できると仮定することは,現実的ではない.第二のアプローチは,「関連の強さ」という概念を持ち込み,それをアナログ値として表現し,その値がある一定の閾値以上となる場合に2つの用語は強く関連する,と考えるアプローチである.ここで,「関連の強さ」は,我々が持っている用語間の親密度・関連度を数値化したものである.もちろん,これを直接測ることはできないので,テキストから実際に値を計算できる何らかの尺度を利用することになる.このような尺度として,これまでに相互情報量\cite{church89word_association}や対数尤度比\cite{dunning93accurate_methods}など数多くの尺度が提案されている\cite{manning99fsnlp}.これらの尺度は,「与えられたテキストコーパスにおいて,2つの用語が強く共起するならば,それらの用語は関連する」という仮定に基づいている.我々は,この第二のアプローチを採用し,関連度を推定するためのテキストコーパスとしてウェブを採用する.\subsection{候補語の収集}\label{sec:candidate}ここまでの議論で,収集すべき用語$t$の条件と判定方法の基本方針が定まった.しかしながら,これらから導けることは,2つの用語$s$と$t$が与えられたとき,$t$が$s$の関連用語となっているかどうかを判定する方法だけである.言い換えるならば,関連用語の候補となる集合が与えられれば,それらの候補のうち,どの用語が関連用語であるかを判定することは可能であるが,そのためには,関連用語の候補集合をどこからか持ってこなければならない.理論的には,その集合は,日本語のあらゆる用語を集めた集合で良い.しかしながら,この解は明らかに現実的ではない.関連用語の候補集合の数を限定し,実際的な時間で前節の条件チェックを実行できるようにする必要がある.我々は,次のような集合を,関連用語の候補集合の要素として採用する.\begin{quote}ウェブにおいて,シードワード$s$の周囲に現れる単名詞および複合名詞\end{quote}これは,次のような経験的事実に基づいている.\begin{itemize}\item日本語の専門用語のほとんどは,単名詞,あるいは,複合名詞である.\item関連用語は,シードワードの周辺に現れることが多い.\end{itemize}具体的な候補語収集手順については,\mbox{\ref{sec:cand_collect}節}で述べる. \section{関連用語収集システム} label{sec:system}前章の考えに基づき,関連用語収集システムを作成した.作成したシステムの構成を\mbox{図\ref{fig:system}}に示す.本システムは,(1)候補語収集,(2)関連用語選択,の2つのモジュールから構成される.\begin{figure}\begin{center}\small\begin{picture}(380,110)\qbezier(150,20)(150,40)(190,40)\qbezier(230,20)(230,40)(190,40)\qbezier(150,20)(150,0)(190,0)\qbezier(230,20)(230,0)(190,0)\put(190,20){\makebox(0,0){ウェブ}}\put(30,50){\makebox(0,0){入力}}\put(350,50){\makebox(0,0){出力}}\put(30,70){\oval(60,20)}\put(30,70){\makebox(0,0){用語$s$}}\put(60,70){\vector(1,0){20}}\put(80,60){\framebox(60,20)}\put(110,70){\makebox(0,0){候補語収集}}\put(140,70){\vector(1,0){20}}\put(190,70){\oval(60,20)}\put(190,70){\makebox(0,0){候補語集合$X$}}\put(220,70){\vector(1,0){20}}\put(240,60){\framebox(60,20)}\put(270,70){\makebox(0,0){関連用語選択}}\put(300,70){\vector(1,0){20}}\put(350,70){\oval(60,20)}\put(350,69){\makebox(0,0)[b]{関連用語集合}}\put(350,68){\makebox(0,0)[t]{$T$}}\put(190,100){\makebox(0,0){関連用語収集システム}}\put(70,50){\dashbox{5}(240,40)}\put(110,20){\vector(0,1){40}}\put(110,20){\vector(1,0){40}}\put(270,20){\vector(0,1){40}}\put(270,20){\vector(-1,0){40}}\end{picture}\end{center}\caption{関連用語収集システムの構成}\label{fig:system}\end{figure}\subsection{候補語収集}\label{sec:cand_collect}\mbox{\ref{sec:candidate}}節で述べたように,ウェブにおいてシードワード$s$の周辺に現れる単名詞および複合名詞を,関連用語の候補語とする.具体的手順を以下に示す.\begin{enumerate}\item{\bfウェブページの収集:}シードワード$s$に対して,「$s$とは」「$s$という」「$s$は」「$s$の」「$s$」という5種類のクエリをサーチエンジンに入力し,得られたURLのそれぞれ上位$l$ページを取得する.さらに,それらのページに,シードワード$s$がアンカーテキストとなっているアンカーが存在する場合は,そのアンカー先ページも取得する.\item{\bf文の抽出:}それぞれのページを整形して文に分割し,用語$s$を含む文およびその前後$m$文を抽出する.\item{\bf名詞・複合名詞の抽出:}それぞれの文をJUMAN5.0\footnote{http://www.kc.t.u-tokyo.ac.jp/nl-resource/juman.html}を用いて形態素解析し,以下のパターンにマッチする単語列を名詞・複合名詞として抽出する.\begin{align*}&[noun|adj\_stem|adv\_kanji|pre|suf\_noun|suf\_stem]+\\&\quadnoun:\textrm{名詞,}adj\_stem:\textrm{形容詞語幹,}adv\_kanji:\textrm{漢字のみからなる副詞,}\\&\quadpre:\textrm{接頭辞,}suf\_noun:\textrm{名詞性接尾辞,}suf\_stem:\textrm{形容詞性名詞接尾辞語幹}\end{align*}\end{enumerate}この手順のステップ(1)で,「とは」,「という」,「は」,「の」という4つの付属語を付加したクエリを用いるのは,単純に「$s$」のみをクエリとするよりも,多様なウェブページを収集できるのではないか,という考えに基づいている.また,ステップ(3)において,「漢字のみからなる副詞」を複合名詞の構成要素に含めているのは,形態素解析器JUMANにおいて,ナ形容詞語幹(例えば,「自然言語処理」の「自然」)を副詞と解析する例が多く見られたためである.なお,上記の手順には,収集するページ数$l$と抽出する文数$m$の2つのパラメータが存在する.これらのパラメータを大きくすれば,収集される関連用語の候補集合は大きくなり,最終的に得られる関連用語も増加する一方,計算に要する時間は長くなる.現在は,予備的な実験に基づいて,$l=100$,$m=2$を採用している.\subsection{関連用語選択}\label{sec:select}次に,こうして収集した候補集合$X$の中から,$s$の関連用語を選択する.具体的には,ある尺度を用いてシードワード$s$と候補語$x\inX$の関連度を計算し,その値が大きなものを関連用語として選択する.この選択を行なうための尺度として,我々は{\bfJaccard係数}と{\bf$\chi^2$統計量}に着目する.なぜなら,この2つの尺度は,関連の強さを表す尺度であると同時に,用語$x$が専門用語であるかどうか(専門用語性)を測る尺度とみなすことができるからである.まず,シードワード$s$と候補語$x$が出現するか否かによって,ウェブページ集合全体を\mbox{表\ref{tbl:2by2}}のように4つの部分集合に分割する.それぞれの部分集合のページ数を,それぞれ$a,b,c,d$で表すとき,Jaccard係数と$\chi^2$統計量は,次の式で与えられる.\noindent{\bfJaccard係数}\begin{align}Jac(s,x)=\frac{a}{a+b+c}\label{eq:jac}\end{align}\noindent{\bf$\chi^2$統計量}\begin{align}\chi^2(s,x)=\frac{n(ad-bc)^2}{(a+b)(c+d)(a+c)(b+d)}\label{eq:chi2}\end{align}ここで,$n$は全ウェブページ数($n=a+b+c+d$)である.\begin{table}\begin{center}\caption{用語$s$と$x$の出現に対する,ウェブページの2$\times$2分割表}\label{tbl:2by2}\begin{tabular}{r|c|c}&$x$が現れる&$x$が現れない\\\hline$s$が現れる&a&b\\\hline$s$が現れない&c&d\\\end{tabular}\end{center}\end{table}これらの尺度は,用語$s$と$x$が共起すればするほど値が大きくなるため,「用語$x$が$s$と関連するか」を測る尺度と考えることができる.同時に,以下に述べる理由により,「用語$x$が専門用語であるか」を測る尺度にもなっている.ここで,重要な点は,「シードワード$s$は専門用語である」という前提が存在する点である.\noindent{\bfJaccard係数}Jaccard係数は,2つの用語が共起する回数を,2つの用語の出現数で正規化した尺度である.用語$s$が出現するウェブページは,近似的に,(用語$s$で表現できるような)ある特定の分野のテキストとみなすことができるので,Jaccard係数が大きい場合は,それらのテキストに$x$が多数出現するという現象が観察されたと判断してよい.さて,$x$の出現頻度($a+c$)が非常に高い場合を考えよう.シードワード$s$は専門用語であるので,sが現れるページ数($a+b$)はそれほど多くない.そのため,$s$と$x$が共起するページ数$a$は,それほど大きくなることはない.この結果,$x$の出現頻度($a+c$)が非常に高い場合は,$Jac(s,x)$の値は小さくなることになる.次に,$x$の出現頻度($a+c$)が非常に低い場合を考えよう.$s$は専門用語であるため,$s$が現れるページ数($a+b$)は,それなりの大きさであることが保証されている.このため,\mbox{式(\ref{eq:jac})}の分母は,$c$の値が小さくなっても一定の大きさを維持するのに対し,分子は,$x$が現れるページ数($a+c$)が小さければ小さいほど,小さくなる.故に,$x$の出現頻度($a+c$)が非常に低い場合は,$Jac(s,x)$の値は小さくなることになる.\newpage\noindent{\bf$\chi^2$統計量}$\chi^2$統計量は,用語の出現分布が$\chi^2$分布に従うと仮定したときに,2つの用語が互いに独立である(関連しない)という仮説を棄却することが可能かどうかを検定する統計量である.この値が大きいということは,$s$と$x$の出現分布が独立ではないということを意味する.つまり,特定の分野のテキスト($s$が出現するテキスト)に偏って出現している証拠となる.逆に,$x$が,特定の分野に依存せず広くテキストコーパス全体に一様に出現する場合は,$\chi^2$統計量は小さくなる.次に,$x$が現れるページ数($a+c$)が小さい場合を考えよう.$x$が現れるページに$s$が現れる割合($\frac{a}{a+c}$)が一定だと仮定し,$d$が$a,b,c$のいずれよりも十分に大きいと仮定する\footnote{シードワード$s$は固定されているので,$s$が現れるページ数($a+b$)は,$x$にかかわらず一定である.}.このとき,$x$が現れるページ数($a+c$)が小さくなるにつれて,$\chi^2(s,x)$の値は小さくなる.すなわち,用語$x$の出現頻度が極めて小さいとき,$\chi^2$統計量は小さい値をとる.これらを総合すると,$\chi^2$統計量が大きい値をとるとき,$x$は特定の分野のテキストに偏って出現しており,かつ,コーパス全体に対する出現頻度は極めて低いということはない.つまり,特定の分野のテキストに,一定数の使用が観察されたと判断してよい.\bigskip以上のように,Jaccard係数と$\chi^2$統計量の特性より,これらの尺度が大きい場合,専門用語に対して観察される現象が観察され,かつ,一般語およびその他の語に対して観察される現象が観察されなかったことを意味する.つまり,これらの尺度は,専門用語性を測る尺度としても使用できる\footnote{これらの尺度の値が小さいからといって,「$x$は専門用語ではない」と断定することはできない.シードワード$s$との関連度が低い他の専門分野の用語である可能性もあるからである.}.よって,本研究では,Jaccard係数と$\chi^2$統計量を,候補集合から関連用語を選択する尺度として採用する.ある用語が現れるウェブページの数は,その用語をウェブのサーチエンジンのクエリとして入力したときに得られる検索結果のヒット数から,簡単に求めることができる.用語$s$および$x$をクエリとしたときのサーチエンジンのヒット数を$hits(s)$および$hits(x)$,$s$と$x$のAND検索のヒット数を$hits(s\&x)$で表すとすると,\mbox{表\ref{tbl:2by2}}の$a,b,c$は以下のように求めることができる.\begin{align*}a&=hits(s\&x)\\b&=hits(s)-hits(s\&x)\\c&=hits(x)-hits(s\&x)\end{align*}\mbox{表\ref{tbl:2by2}}の$d$は,$s$も$x$も共に現れないウェブページの数であり,サーチエンジンを用いて直接測定することはできない.そこで,本研究では,サーチエンジンで検索可能な日本語ウェブページをウェブ全体と考え,ウェブ全体のページ数$n$を,いくつかの助詞(「に」,「を」,「は」,「も」,「が」)のヒット数に基づいて見積もる.こうして得られた$n$から,$d$の値を計算する. \section{実験と検討} \label{chap4}作成した関連用語収集システムの性能を評価する実験を行なった.まず最初に,システムの評価に使用する参照セットを作成した.次に,この参照セットを利用して,関連用語選択モジュールと候補語収集モジュールの評価実験を行なった.最後に,システム全体の性能を評価する実験を行なった.なお,すべての実験において,サーチエンジンとしてgoo\footnote{http://www.goo.ne.jp/}を用いた.\subsection{参照セット}\label{sec:reference}ある一定の条件を満たす用語を抽出するタスクでは,出力すべき用語のセット(正解セット)を準備し,システムの出力結果と正解セットを比較して,システムの評価を行なうのが一般的である.用語を抽出する対象となるコーパスがあらかじめ与えられている場合には,そのコーパスからある基準(例えば,人間の判断)に従って収集した用語を正解用語とすることにより,正解セットを作成することが可能である.しかし,本研究の場合,あらかじめ与えられているコーパスはウェブということになるが,ウェブ全体からシードワードの関連用語を人手で収集することは非現実的であるため,網羅的な正解セットを準備することは事実上不可能である.システムを評価するもう一つの方法として,システムの出力結果を一つ一つ人手でチェックするという方法も考えられる\footnote{この場合,再現率を評価することはできない.}.しかし,本研究で正解とする用語は,特定の専門分野においてシードワードと関連する専門用語であるため,正解か否かの判断にはその分野の専門知識が不可欠である.このため,多くの分野に対して実験を行なおうとすれば,多数の専門家の協力を仰ぐ必要があり,非常にコストがかかる.そこで,我々は,専門家の知識の代替として,専門家の手によって書かれた書籍から参照セットと呼ぶ用語集を作成し,これを用いてシステムの評価を行なうことにした.作成した参照セットの概要を\mbox{表\ref{tbl:ref}}に示す.参照セットは,6つの専門分野に対してそれぞれ3つと,一般語に対する1つの,計19セットからなる.\begin{table}\begin{center}\footnotesize\caption{作成した参照セット}\label{tbl:ref}\begin{tabular}{|l|rrr|l|}\hline分野&$|R_3|$&$|R_2|$&$|R_1|$&使用した書籍\\\hline自然言語処理&17&143&1337&\shortcite{nagao96nlp},\shortcite{nagao98nlp},\shortcite{tanaka99nlp}\\情報理論&33&108&744&\shortcite{hirasawa00it},\shortcite{hirata03it},\shortcite{yokoo04it}\\パターン認識&17&120&1352&\shortcite{toriwaki93pr},\shortcite{ishii98pr},\shortcite{nakagawa99pr}\\バイオインフォマティクス&23&101&1077&\shortcite{mitaku03bio},\shortcite{murakami03bio},\shortcite{gojohbori03bio}\\マクロ経済学&63&244&1805&\shortcite{akashi03macro},\shortcite{wakita04macro},\shortcite{fukuda05macro}\\ミクロ経済学&59&206&1076&\shortcite{asada02micro},\shortcite{yogo02micro},\shortcite{ibori04micro}\\\hline一般語&50&&&\shortcite{RSK}\\\hline合計&262&922&7391&\\\hline\end{tabular}\end{center}\end{table}各専門分野の参照セットは,次の方法で作成した.\begin{enumerate}\itemその分野の書籍を3冊用意する.\itemそれぞれの書籍から巻末の索引語をすべて収集し,それぞれ索引語リストを作成する.\itemこうして得られた3つの索引語リストから,次の3つの用語集合を作成する.\begin{description}\item[$R_3$]3冊の書籍で索引語となっている用語の集合.\item[$R_2$]2冊以上の書籍で索引語となっている用語の集合.\item[$R_1$]いずれかの書籍で索引語となっている用語の集合.\end{description}\end{enumerate}この手順から明らかなように,それぞれの分野の3つの参照セット間には,次の関係が成り立つ.\begin{equation}R_3\subseteqR_2\subseteqR_1\end{equation}$R_3$に含まれる用語は,3冊の書籍すべてで索引語となっていた用語であり,その分野の代表的な専門用語とみなすことができるだろう.これに対して,条件を緩めた$R_2$,$R_1$は,その信頼度は下がるものの,すくなくとも,その分野の専門用語の候補集合と考えてもよいであろう.このような考えに基づき,これらの集合は,システムの性能を見積もるための参照解として使用できると考えた.ただし,これらの集合を参照解として使用するということは,「特定の分野の専門用語は,その分野の他の専門用語と必ず強く関連する」と仮定している点に注意する必要がある.また,作成した参照セットは,その分野の専門用語を網羅しているわけではない点にも注意が必要である.一般語の参照セットは,小学生向けの国語辞典\cite{RSK}から,名詞50語をランダムに選択することによって作成した.以下では,これを一般語$R_3$と表記する.なお,これらの参照セットに含まれる用語を,以下では参照用語と呼ぶ.\subsection{関連用語選択モジュールの評価}\label{sec:ex_rel}ここでは,参照セットを用いた人工的な設定下において,関連用語選択モジュールが適切に機能するかどうかを調べた.参照セットとしては,6つの専門分野の$R_3$と一般語$R_3$を用いた.具体的には,以下の手順で行なった.\begin{enumerate}\item1つの専門分野の$R_3$を選ぶ.そこから専門用語を1つ選び,シードワード$s$とする.その残りを$R_3^{-}$とする.\item$R_3^{-}$,上記で選択した専門分野以外の$R_3$,および,一般語$R_3$に含まれる用語をすべて集め,これを関連用語の候補語集合$X$とする.($|X|=261$である.\unskip)\itemすべての$x\inX$に対して,$s$との関連度を計算し,関連度の大きい順に,$X$の要素を並べる.最後に,上位20位までを取り出し,これを$T$とする.\item$|T\capR_3^{-}|$を求める.この数は,集合$T$に$s$と同じ分野の参照用語がいくつ含まれるかを表す.\end{enumerate}すなわち,ここでは,$s$と同じ分野の参照用語を仮想的な正解(関連用語)とみなし,採用した尺度が,上位20位までに正解をどの程度出力するかを調べた.シードワードとしては,6つの専門分野からそれぞれ4用語ずつ,計24用語を使用した.また,関連度を測る尺度としては,3.2節で述べたJaccard係数と$\chi^2$統計量の2つの尺度の他に,比較のために,他の4つの尺度(共起頻度,Dice係数,相互情報量,対数尤度比)に対しても結果を求めた.これらの尺度とその計算式を\mbox{表\ref{tbl:relatedness}}に示す.この表の「略記」は,本論文におけるそれぞれの尺度の略記法を示す.計算式の$a$,$b$,$c$,$d$は\mbox{表\ref{tbl:2by2}}に示したウェブページ数であり,$n$はウェブ全体のページ数である.実験では,$n=13600000$を用いた\footnote{この値は,助詞「に」,「を」,「は」,「も」,「が」のいずれのヒット数よりも大きい値である.}.\begin{table}\begin{center}\footnotesize\caption{比較尺度}\label{tbl:relatedness}\begin{tabular}{|l|l|l|}\hline尺度&略記&計算式\\\hlineJaccard係数&jac&$\frac{a}{a+b+c}$\\$\chi^2$統計量&chi2&$\frac{n(ad-bc)^2}{(a+b)(c+d)(a+c)(b+d)}$\\\hline共起頻度&cooc&$a$\\Dice係数&dice&$\frac{2a}{2a+b+c}$\\相互情報量&pmi&$\log\frac{an}{(a+b)(a+c)}$\\対数尤度比&llr&$a\log\frac{an}{(a+b)(a+c)}+b\log\frac{bn}{(a+b)(b+d)}+c\log\frac{cn}{(a+c)(c+d)}+d\log\frac{dn}{(b+d)(c+d)}$\\\hline\end{tabular}\end{center}\end{table}実験結果を\mbox{表\ref{tbl:rel_result}}に示す.この表において,$|R_3^{-}|$は,候補語集合に含まれる仮想的な正解の数を表す.\begin{table}\begin{center}\footnotesize\caption{関連度上位20語に含まれる$R_3$の参照用語数}\label{tbl:rel_result}\begin{tabular}{|l|rr|rrrr|}\multicolumn{7}{l}{「自然言語処理」($|R_3^{-}|=16$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{cooc}&\multicolumn{1}{c}{dice}&\multicolumn{1}{c}{pmi}&\multicolumn{1}{c|}{llr}\\\hline自然言語処理&10&{\bf12}&6&10&11&9\\意味解析&12&{\bf14}&7&12&12&10\\形態素解析&11&{\bf14}&6&11&13&10\\構文解析&11&{\bf14}&7&11&{\bf14}&10\\\hline\multicolumn{7}{l}{\tiny}\\[-5pt]\multicolumn{7}{l}{「情報理論」($|R_3^{-}|=32$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{cooc}&\multicolumn{1}{c}{dice}&\multicolumn{1}{c}{pmi}&\multicolumn{1}{c|}{llr}\\\hline情報理論&13&19&7&13&{\bf20}&15\\通信路容量&{\bf20}&{\bf20}&17&{\bf20}&{\bf20}&{\bf20}\\情報源符号化&{\bf20}&{\bf20}&15&{\bf20}&{\bf20}&{\bf20}\\エントロピー&10&{\bf20}&3&10&{\bf20}&12\\\hline\multicolumn{7}{l}{\tiny}\\[-5pt]\multicolumn{7}{l}{「パターン認識」($|R_3^{-}|=16$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{cooc}&\multicolumn{1}{c}{dice}&\multicolumn{1}{c}{pmi}&\multicolumn{1}{c|}{llr}\\\hlineパターン認識&12&{\bf13}&5&12&8&10\\線形識別関数&10&{\bf14}&13&10&10&13\\部分空間法&11&{\bf13}&11&11&10&11\\特徴抽出&11&{\bf13}&6&11&9&10\\\hline\multicolumn{7}{l}{\tiny}\\[-5pt]\multicolumn{7}{l}{「バイオインフォマティクス」($|R_3^{-}|=22$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{cooc}&\multicolumn{1}{c}{dice}&\multicolumn{1}{c}{pmi}&\multicolumn{1}{c|}{llr}\\\hlineバイオインフォマティクス&{\bf16}&15&8&{\bf16}&15&14\\相同性&{\bf18}&{\bf18}&16&{\bf18}&17&{\bf18}\\スプライシング&{\bf17}&{\bf17}&12&{\bf17}&{\bf17}&15\\GenBank&{\bf19}&{\bf19}&15&{\bf19}&{\bf19}&{\bf19}\\\hline\multicolumn{7}{l}{\tiny}\\[-5pt]\multicolumn{7}{l}{「マクロ経済学」($|R_3^{-}|=62$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{cooc}&\multicolumn{1}{c}{dice}&\multicolumn{1}{c}{pmi}&\multicolumn{1}{c|}{llr}\\\hlineマクロ経済学&14&16&14&14&{\bf17}&14\\投資関数&15&{\bf17}&15&15&{\bf17}&15\\有効需要&15&{\bf19}&14&15&17&17\\マネーサプライ&{\bf20}&19&17&{\bf20}&18&18\\\hline\multicolumn{7}{l}{\tiny}\\[-5pt]\multicolumn{7}{l}{「ミクロ経済学」($|R_3^{-}|=58$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{cooc}&\multicolumn{1}{c}{dice}&\multicolumn{1}{c}{pmi}&\multicolumn{1}{c|}{llr}\\\hlineミクロ経済学&15&{\bf19}&7&15&{\bf19}&13\\無差別曲線&{\bf20}&{\bf20}&13&{\bf20}&18&18\\限界効用&{\bf20}&{\bf20}&11&{\bf20}&16&17\\需要曲線&19&{\bf20}&11&19&{\bf20}&18\\\hline\end{tabular}\end{center}\end{table}\mbox{表\ref{tbl:rel_result}}から,次のことが観察される.\begin{enumerate}\itemJaccard係数(jac)と$\chi^2$統計量(chi2)のどちらの尺度を用いた場合でも,シードワードと同じ専門分野の専門用語が上位に集まっている.\end{enumerate}このことから,これらの尺度は関連用語選択の尺度として適切であり,これらの尺度を用いた関連用語選択モジュールは適切に機能することが確認できた.しかしながら,同時に,次の事実が観察される.\begin{enumerate}\setcounter{enumi}{1}\itemシードワードと同じ専門分野の専門用語のすべてが,上位に集まるわけではない.\end{enumerate}例えば,「バイオインフォマティクス」の分野では,それぞれのシードワードに対して,同じ専門分野の用語が22個,候補語集合(261個)の中に含まれているのだが,上位20位に入らない語が存在した.このことは,本システムは,一つのシードワードから,それが属す専門分野の専門用語を網羅的に収集する能力を持たないことを意味する.参照セットによる評価が拠り所にしている仮定「特定の分野の専門用語は,その分野の他の専門用語と必ず強く関連する」は,現実には強すぎる仮定である.そのため,参照セットによる評価は,あくまでもシステムの性能の目安を知るためのものであり,万能ではない点に注意する必要がある.一方,使用した6つの尺度に対しては,以下のような事実が観察される.\begin{enumerate}\setcounter{enumi}{2}\item$\chi^2$統計量(chi2)が最も安定して良い結果を示している.\item相互情報量(pmi),Jaccard係数(jac)およびDice係数(dice),対数尤度比(llr)も比較的良い結果を示している.これらの尺度と$\chi^2$統計量との差は,それほど大きくない.\item共起頻度(cooc)は他の5つの尺度と比較して,明らかに性能が劣っている.\end{enumerate}上記の結果は,Jaccard係数と$\chi^2$統計量の2つの尺度以外に,比較のために用いた3つの尺度,すなわち,Dice係数,相互情報量,対数尤度比も,関連用語選択の尺度となり得る可能性を持つことを示唆する.このうち,Dice係数は,Jaccard係数とほとんど同じ尺度のため,考慮の対象から除外する.また,相互情報量は,2つの用語の共起の割合が等しい場合,用語の出現頻度が低ければ低いほど関連度が高くなるという性質をもつ\cite[pp.~182]{manning99fsnlp}ため,専門用語性を測る尺度として不適切である\footnote{\mbox{\ref{sec:term}節}および\mbox{\ref{sec:select}節}で述べたように,本研究では,極めて頻度が低い用語は専門用語とは見なさない.}.対数尤度比は,専門用語性を判定するという意味づけが難しく,かつ,計算式が複雑なので,特にこの尺度を採用すべきだという積極性に欠ける.以上の理由により,我々は,関連用語選択の尺度として,Jaccard係数と$\chi^2$統計量の2つの尺度を採用するという方針を堅持することとし,以降の実験では,この2つの尺度のみを用いることにした.\subsection{候補語収集モジュールの評価}\label{sec:ex_cand}次に,参照セットを用いて候補語収集モジュールの性能を評価する実験を行なった.実験の手順は次のとおりである.\begin{enumerate}\item1つの専門分野の$R_3$を選ぶ.その中から専門用語を1つ選び,シードワード$s$とする.その残りを$R_3^{-}$とする.\item(1)で選択した専門分野と同じ専門分野の$R_2$,$R_1$から,それぞれシードワード$s$を除去した集合$R_2^{-}$,$R_1^{-}$を作成する.\itemシードワード$s$を候補語収集モジュールに与え,候補語集合$X$を得る.\item$|X\capR_3^{-}|$,$|X\capR_2^{-}|$,$|X\capR_1^{-}|$を計算する.これらの値は,3つの参照セットのそれぞれに対して,候補語集合$X$に,シードワードと同じ分野の参照用語がどれだけ含まれているかを表す.\end{enumerate}前節と同じ入力用語24語に対して,上記の手順を適用した結果を\mbox{表\ref{tbl:cand_result}}に示す.この表では,$R_3^{-}$,$R_2^{-}$,$R_1^{-}$に対する結果を$R_3^{-}/R_2^{-}/R_1^{-}$という形式で示している.\begin{table}\begin{center}\footnotesize\caption{候補語に含まれる参照用語数}\label{tbl:cand_result}\begin{tabular}{|l|rr|cc|}\multicolumn{5}{l}{「自然言語処理」($|R_i^{-}|=16/142/1336$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{$|X|$}&\multicolumn{1}{c|}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{$\frac{|X\capR_i^{-}|}{|R_i^{-}|}$}&\multicolumn{1}{c|}{$\frac{|X\capR_i^{-}|}{|X|}$}\\\hline自然言語処理&2250&7/22/87&.44/.15/.07&.00/.01/.04\\意味解析&1408&11/27/100&.69/.19/.07&.00/.02/.07\\形態素解析&2022&6/24/87&.38/.17/.07&.00/.01/.04\\構文解析&2726&12/30/114&.75/.21/.09&.00/.01/.04\\\hline\multicolumn{5}{l}{\tiny}\\[-5pt]\multicolumn{5}{l}{「情報理論」($|R_i^{-}|=32/107/743$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{$|X|$}&\multicolumn{1}{c|}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{$\frac{|X\capR_i^{-}|}{|R_i^{-}|}$}&\multicolumn{1}{c|}{$\frac{|X\capR_i^{-}|}{|X|}$}\\\hline情報理論&2677&14/28/64&.44/.26/.09&.01/.01/.02\\通信路容量&835&9/17/40&.28/.16/.05&.01/.02/.05\\情報源符号化&843&15/27/55&.47/.25/.07&.02/.03/.07\\エントロピー&4176&5/17/40&.16/.16/.05&.00/.00/.01\\\hline\multicolumn{5}{l}{\tiny}\\[-5pt]\multicolumn{5}{l}{「パターン認識」($|R_i^{-}|=16/119/1351$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{$|X|$}&\multicolumn{1}{c|}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{$\frac{|X\capR_i^{-}|}{|R_i^{-}|}$}&\multicolumn{1}{c|}{$\frac{|X\capR_i^{-}|}{|X|}$}\\\hlineパターン認識&2354&8/33/95&.50/.28/.07&.00/.01/.04\\線形識別関数&252&7/17/40&.44/.14/.03&.03/.07/.16\\部分空間法&537&7/11/23&.44/.09/.02&.01/.02/.04\\特徴抽出&1658&6/24/66&.38/.20/.05&.00/.01/.04\\\hline\multicolumn{5}{l}{\tiny}\\[-5pt]\multicolumn{5}{l}{「バイオインフォマティクス」($|R_i^{-}|=22/100/1076$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{$|X|$}&\multicolumn{1}{c|}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{$\frac{|X\capR_i^{-}|}{|R_i^{-}|}$}&\multicolumn{1}{c|}{$\frac{|X\capR_i^{-}|}{|X|}$}\\\hline{\footnotesizeバイオインフォマティクス}&5037&10/34/130&.45/.34/.12&.00/.00/.03\\相同性&3139&14/41/122&.64/.41/.11&.00/.01/.04\\スプライシング&3216&12/31/99&.55/.31/.09&.00/.01/.03\\GenBank&1355&13/31/75&.59/.31/.07&.01/.02/.06\\\hline\multicolumn{5}{l}{\tiny}\\[-5pt]\multicolumn{5}{l}{「マクロ経済学」($|R_i^{-}|=62/243/1804$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{$|X|$}&\multicolumn{1}{c|}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{$\frac{|X\capR_i^{-}|}{|R_i^{-}|}$}&\multicolumn{1}{c|}{$\frac{|X\capR_i^{-}|}{|X|}$}\\\hlineマクロ経済学&1872&22/55/116&.35/.27/.06&.01/.03/.06\\投資関数&1142&16/41/100&.26/.17/.06&.01/.04/.09\\有効需要&3243&33/88/200&.53/.36/.11&.01/.03/.06\\マネーサプライ&1872&29/84/207&.47/.35/.11&.02/.04/.11\\\hline\multicolumn{5}{l}{\tiny}\\[-5pt]\multicolumn{5}{l}{「ミクロ経済学」($|R_i^{-}|=58/205/1075$)}\\\hline\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{|c}{$|X|$}&\multicolumn{1}{c|}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{$\frac{|X\capR_i^{-}|}{|R_i^{-}|}$}&\multicolumn{1}{c|}{$\frac{|X\capR_i^{-}|}{|X|}$}\\\hlineミクロ経済学&1934&19/51/105&.33/.25/.10&.01/.03/.05\\無差別曲線&864&18/46/80&.31/.22/.07&.02/.05/.09\\限界効用&1628&27/57/112&.47/.28/.10&.02/.04/.07\\需要曲線&1411&20/60/108&.34/.29/.10&.01/.04/.08\\\hline\end{tabular}\end{center}\end{table}この結果から,次のことが観察される.\begin{enumerate}\item本モジュールで収集される候補語の数は,おおよそ800〜3000である.ただし,800未満の場合も存在する.\end{enumerate}収集された候補語の数が特に少なかったシードワードは,「線形識別関数(252個)」である.この語は,そもそもウェブでのヒット数が少なく($hits(\text{`線形識別関数'})=130$),収集されるウェブページ数が少ない.このことが,少数の候補語しか得られない原因となっている.経験的には,収集される候補語の数は,シードワードのヒット数と正の相関がある.\begin{enumerate}\setcounter{enumi}{1}\item本モジュールが収集した候補語集合の中には,シードワードと同じ専門分野の参照用語が含まれている.参照セット$R_3$を用いた評価では,平均的に14語程度,$R_3$の4割強が候補語集合に含まれている.\end{enumerate}本モジュールが候補語を収集する範囲は,非常に限定されている(シードワードを中心とした前後2文)にもかかわらず,一定量の参照用語を収集することに成功している.これは,本モジュールが有効に機能していることを示している.\begin{enumerate}\setcounter{enumi}{2}\item参照セットを$R_2$,$R_1$に変更して参照用語数を拡大すると,候補集合に含まれる参照用語の数は増加し,$R_1$では,数十から百を越える参照用語を含むようになる.しかしながら,参照用語全体に対する比率($\frac{|X\capR_i^{-}|}{|R_i^{-}|}$)は減少する.\end{enumerate}このことは,候補語集合には,その分野の代表的な専門用語以外の専門用語も含まれていることを示している.これは望ましい性質である.しかし同時に,候補語集合は,その分野の専門用語を網羅的に含んでいるわけではないことを示している.つまり,候補語収集モジュールも,関連用語選択モジュールと同様,一つのシードワードから当該分野の専門用語を網羅的に収集する能力はないということである.\begin{enumerate}\setcounter{enumi}{3}\item参照セット$R_1$を用いた場合,収集した候補語に対する参照用語の割合(参照用語の「密度」)は,平均的に6\%程度である.\end{enumerate}この「密度」は十分に高いとは言えない.システムの効率化のためには,この密度を高めることが必要である.候補語集合には多数の一般語が含まれるため,既存の国語辞書等を用いて一般語を排除する方法が有効だと考えられる.\subsection{システム全体の評価}\label{sec:ex_total}\subsubsection{参照セットを用いた評価}ここでは,実際にシステム全体を動作させ,適切な関連用語が収集できるかどうかを参照セットを利用して調べた.具体的には,前節の実験で収集した候補語とシードワードとの関連度(Jaccard係数,$\chi^2$統計量)を計算し,関連度上位$N(=10,20,30)$語に,シードワードと同じ分野の参照用語がどれだけ含まれるかを,$R_3$,$R_2$,$R_1$のそれぞれの参照セットに対して調べた.その結果を\mbox{表\ref{tbl:total_result}}に示す.\begin{table}\begin{center}\scriptsize\caption{システム全体での評価}\label{tbl:total_result}\begin{tabular}{|l|c||cc|cc|cc|}\multicolumn{8}{l}{「自然言語処理」}\\\hline\multicolumn{2}{|c||}{}&\multicolumn{2}{c}{$N=10$}&\multicolumn{2}{|c}{$N=20$}&\multicolumn{2}{|c|}{$N=30$}\\\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{c||}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c|}{chi2}\\\hline自然言語処理&7/22/87&{\bf3}/{\bf4}/{\bf6}&2/2/3&{\bf4}/{\bf7}/{\bf11}&{\bf4}/5/6&{\bf4}/{\bf8}/{\bf13}&{\bf4}/5/9\\意味解析&11/27/100&{\bf4}/{\bf5}/{\bf8}&2/3/4&{\bf5}/{\bf7}/{\bf11}&{\bf5}/6/{\bf11}&{\bf6}/{\bf8}/{\bf14}&5/6/12\\形態素解析&6/24/87&{\bf2}/{\bf2}/{\bf2}&1/1/1&{\bf4}/{\bf5}/{\bf8}&2/3/4&{\bf4}/{\bf5}/{\bf8}&{\bf4}/{\bf5}/{\bf8}\\構文解析&12/30/114&{\bf4}/{\bf4}/{\bf7}&1/1/4&{\bf5}/{\bf5}/{\bf9}&2/2/5&{\bf5}/{\bf6}/{\bf10}&{\bf5}/{\bf6}/9\\\hline\multicolumn{8}{c}{\tiny}\\[-5pt]\multicolumn{8}{l}{「情報理論」}\\\hline\multicolumn{2}{|c||}{}&\multicolumn{2}{c}{$N=10$}&\multicolumn{2}{|c}{$N=20$}&\multicolumn{2}{|c|}{$N=30$}\\\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{c||}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c|}{chi2}\\\hline情報理論&14/28/64&2/5/5&{\bf5}/{\bf6}/{\bf6}&4/7/9&{\bf7}/{\bf9}/{\bf10}&6/9/11&{\bf8}/{\bf12}/{\bf14}\\通信路容量&9/17/40&{\bf5}/5/6&{\bf5}/{\bf6}/{\bf7}&{\bf6}/{\bf7}/{\bf9}&{\bf6}/{\bf7}/8&{\bf7}/{\bf8}/{\bf14}&{\bf7}/{\bf8}/11\\情報源符号化&15/27/55&{\bf6}/{\bf7}/{\bf9}&5/{\bf7}/8&{\bf7}/{\bf10}/{\bf14}&{\bf7}/{\bf10}/13&8/{\bf13}/{\bf19}&{\bf9}/{\bf13}/18\\エントロピー&5/17/40&0/0/{\bf1}&0/0/0&{\bf1}/{\bf1}/{\bf2}&0/0/0&{\bf1}/{\bf1}/{\bf2}&0/0/1\\\hline\multicolumn{8}{c}{\tiny}\\[-5pt]\multicolumn{8}{l}{「パターン認識」}\\\hline\multicolumn{2}{|c||}{}&\multicolumn{2}{c}{$N=10$}&\multicolumn{2}{|c}{$N=20$}&\multicolumn{2}{|c|}{$N=30$}\\\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{c||}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c|}{chi2}\\\hlineパターン認識&8/33/95&{\bf2}/{\bf3}/{\bf6}&0/2/3&{\bf3}/{\bf4}/{\bf11}&1/3/7&{\bf3}/5/{\bf15}&2/{\bf6}/11\\線形識別関数&7/17/40&1/4/{\bf9}&{\bf2}/{\bf5}/{\bf9}&{\bf3}/{\bf6}/{\bf12}&{\bf3}/{\bf6}/11&{\bf3}/{\bf6}/{\bf14}&{\bf3}/{\bf6}/13\\部分空間法&7/11/23&{\bf1}/{\bf1}/{\bf2}&{\bf1}/{\bf1}/{\bf2}&{\bf1}/{\bf1}/{\bf3}&{\bf1}/{\bf1}/2&{\bf1}/{\bf1}/{\bf3}&{\bf1}/{\bf1}/{\bf3}\\特徴抽出&6/24/66&{\bf1}/{\bf3}/{\bf6}&1/2/3&{\bf1}/{\bf3}/{\bf8}&{\bf1}/{\bf3}/{\bf8}&{\bf1}/3/10&{\bf1}/{\bf4}/{\bf11}\\\hline\multicolumn{8}{c}{\tiny}\\[-5pt]\multicolumn{8}{l}{「バイオインフォマティクス」}\\\hline\multicolumn{2}{|c||}{}&\multicolumn{2}{c}{$N=10$}&\multicolumn{2}{|c}{$N=20$}&\multicolumn{2}{|c|}{$N=30$}\\\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{c||}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c|}{chi2}\\\hline{\tinyバイオインフォマティクス}&10/34/130&0/0/{\bf2}&0/0/{\bf2}&0/{\bf2}/{\bf7}&0/0/3&{\bf1}/{\bf3}/{\bf10}&0/2/6\\相同性&14/41/122&{\bf2}/{\bf4}/{\bf6}&1/1/4&{\bf2}/4/8&{\bf2}/{\bf5}/{\bf9}&{\bf2}/{\bf5}/{\bf12}&{\bf2}/{\bf5}/{\bf12}\\スプライシング&12/31/99&{\bf3}/{\bf5}/{\bf8}&1/1/2&{\bf3}/{\bf5}/{\bf10}&{\bf3}/4/6&{\bf3}/{\bf6}/{\bf11}&{\bf3}/5/8\\GenBank&13/31/75&{\bf3}/4/4&{\bf3}/{\bf5}/{\bf6}&{\bf4}/{\bf8}/{\bf11}&{\bf4}/{\bf8}/10&{\bf6}/{\bf12}/{\bf17}&4/8/12\\\hline\multicolumn{8}{c}{\tiny}\\[-5pt]\multicolumn{8}{l}{「マクロ経済学」}\\\hline\multicolumn{2}{|c||}{}&\multicolumn{2}{c}{$N=10$}&\multicolumn{2}{|c}{$N=20$}&\multicolumn{2}{|c|}{$N=30$}\\\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{c||}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c|}{chi2}\\\hlineマクロ経済学&22/55/116&0/{\bf1}/{\bf2}&0/0/1&{\bf1}/{\bf2}/{\bf4}&0/1/2&{\bf2}/{\bf4}/{\bf7}&0/1/3\\投資関数&16/41/100&{\bf5}/{\bf6}/{\bf7}&4/5/5&5/{\bf8}/{\bf13}&{\bf6}/{\bf8}/{\bf13}&{\bf6}/{\bf10}/18&{\bf6}/{\bf10}/{\bf19}\\有効需要&33/88/200&{\bf3}/{\bf4}/{\bf7}&2/3/3&{\bf5}/{\bf9}/{\bf14}&4/6/9&{\bf9}/{\bf17}/{\bf23}&6/12/17\\マネーサプライ&29/84/207&{\bf3}/{\bf3}/{\bf8}&2/2/6&{\bf5}/{\bf6}/{\bf11}&4/5/9&{\bf5}/{\bf9}/{\bf15}&{\bf5}/8/{\bf15}\\\hline\multicolumn{8}{c}{\tiny}\\[-5pt]\multicolumn{8}{l}{「ミクロ経済学」}\\\hline\multicolumn{2}{|c||}{}&\multicolumn{2}{c}{$N=10$}&\multicolumn{2}{|c}{$N=20$}&\multicolumn{2}{|c|}{$N=30$}\\\multicolumn{1}{|c}{入力用語}&\multicolumn{1}{c||}{$|X\capR_i^{-}|$}&\multicolumn{1}{c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c|}{chi2}\\\hlineミクロ経済学&19/51/105&0/{\bf2}/{\bf3}&0/1/1&1/6/8&{\bf2}/{\bf7}/{\bf9}&2/7/{\bf12}&{\bf3}/{\bf9}/11\\無差別曲線&18/46/80&{\bf6}/{\bf6}/{\bf8}&5/5/6&{\bf10}/{\bf13}/{\bf16}&9/10/14&10/{\bf14}/{\bf20}&{\bf11}/{\bf14}/{\bf20}\\限界効用&27/57/112&{\bf7}/{\bf7}/{\bf9}&4/4/6&{\bf12}/{\bf13}/{\bf17}&8/9/12&{\bf13}/{\bf16}/{\bf22}&11/15/20\\需要曲線&20/60/108&{\bf5}/{\bf8}/{\bf9}&{\bf5}/{\bf8}/{\bf9}&{\bf10}/{\bf16}/{\bf17}&7/11/14&{\bf10}/18/21&{\bf10}/{\bf19}/{\bf22}\\\hline\end{tabular}\end{center}\end{table}この結果から,次のことが観察される.\begin{enumerate}\item参照セット$R_3$を用いた場合,候補語集合に平均的に14個程度の参照用語が含まれているが,そのうち関連度上位10位に含まれるのは,2〜3個程度である.\item参照セット$R_1$を用いた場合,候補語集合に平均的に100個弱の参照用語が含まれおり,関連度上位10位に6個程度,上位20位に10個程度,上位30位に13個程度の参照用語が含まれている.\end{enumerate}厳しい条件(参照セット$R_3$)ではそれほど性能が出ていないが,制限を緩めた参照セット($R_1$)では,上位30位の半数程度が参照用語となっている.このことは,本システムは,「ある分野の代表的な用語から,同じ分野の専門用語を収集する」のではなく,「ある専門用語から,それと強く関連する比較的狭い範囲の専門用語を収集する」ことに長けていることを示唆する.本システムは,このようなタスクにおいては,有効に機能していると考えられる.この点については,次の主観的評価のところで再度確認する.\begin{enumerate}\setcounter{enumi}{2}\item与えるシードワードによっては,参照用語をほとんど収集することができない場合が存在する.\end{enumerate}本実験で極端に性能が悪かったのは,「エントロピー」と「部分空間法」をシードワードとした場合である.エントロピーは「情報理論」分野以外(例えば「熱力学」)でも用いられる専門用語である.本システムは,シードワードのみを入力とするため,複数の分野で使われる専門用語に対して,関連用語を分野毎に出力する能力を持たない.そのため,システムが出力する用語に,複数の分野の専門用語が混在することになる.本実験では,「エントロピー」に対する参照用語は「情報理論」の用語に限られるため,システムの出力に含まれる参照用語数は相対的に小さくなる.一方,「部分空間法」は比較的広がりを持たない専門用語であり,それに強く関連する専門用語が,そもそも参照セットにあまり存在していない.このことが上記の結果をもたらしていると考えられる.\begin{enumerate}\setcounter{enumi}{3}\itemJaccard係数と$\chi^2$統計量の2つの尺度では,使用する参照セットや$N$の大小にかかわらず,大半のシードワードにおいて,Jaccard係数の方が良い結果が得られている.\end{enumerate}つまり,Jaccard係数と$\chi^2$統計量の優劣が,\mbox{\ref{sec:ex_rel}節}の実験と逆転している.この点についても,主観的評価のところで考察する.\subsubsection{主観的評価}最後に,「自然言語処理」分野について,主観的評価を行なった.具体的には,それぞれのシードワードに対して得られた関連度上位30位までの用語を,\begin{description}\item[専門用語性]該当用語は専門用語として適切か\item[関連性]該当用語はシードワードと強く関連しているか\end{description}という2つの観点でそれぞれ3段階の評点を付与した.\begin{description}\item[A]専門用語として適切である/シードワードと強く関連している\item[B]どちらともいえない(判断しかねる)\item[C]専門用語として不適切である/シードワードと強く関連していない\end{description}2名の評価者(著者のうちの2名)が独立にこの評価を行ない,最終的に,2名の評価者が専門用語性と関連性の両方でいずれもAと判定した用語を,シードワードの関連用語(正解)とみなした.上記の主観的評価の結果を\mbox{表\ref{tbl:subjective_evl}}に示す.この表では,参照セットを用いた場合の結果も併せ,それぞれの正解の数を「$R_3/R_2/R_1/\mbox{主観的評価}$」の形式で示した.\begin{table}\begin{center}\scriptsize\caption{「自然言語処理」分野に対する主観的評価}\label{tbl:subjective_evl}\begin{tabular}{|l||rr|rr|rr|}\hline\multicolumn{1}{|c||}{}&\multicolumn{2}{c}{$N=10$}&\multicolumn{2}{|c}{$N=20$}&\multicolumn{2}{|c|}{$N=30$}\\\multicolumn{1}{|c||}{入力用語}&\multicolumn{1}{c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c}{chi2}&\multicolumn{1}{|c}{jac}&\multicolumn{1}{c|}{chi2}\\\hline自然言語処理&{\bf3}/{\bf4}/{\bf6}/{\bf7}&2/2/3/{\bf7}&{\bf4}/{\bf7}/{\bf11}/{\bf16}&{\bf4}/5/6/14&{\bf4}/{\bf8}/{\bf13}/{\bf24}&{\bf4}/5/9/20\\意味解析&{\bf4}/{\bf5}/{\bf8}/{\bf10}&2/3/4/6&{\bf5}/{\bf7}/{\bf11}/{\bf18}&{\bf5}/6/{\bf11}/14&{\bf6}/{\bf8}/{\bf14}/{\bf25}&5/6/12/17\\形態素解析&{\bf2}/{\bf2}/{\bf2}/{\bf9}&1/1/1/7&{\bf4}/{\bf5}/{\bf8}/{\bf17}&2/3/4/11&{\bf4}/{\bf5}/{\bf8}/{\bf20}&{\bf4}/{\bf5}/{\bf8}/16\\構文解析&{\bf4}/{\bf4}/{\bf7}/{\bf8}&1/1/4/7&{\bf5}/{\bf5}/{\bf9}/{\bf12}&2/2/5/{\bf12}&{\bf5}/{\bf6}/{\bf10}/{\bf17}&{\bf5}/{\bf6}/9/{\bf17}\\\hline\end{tabular}\end{center}\end{table}この結果から,次のことが観察される.\begin{enumerate}\item主観的評価で正解と判定された用語数は,参照セット$R_1$を正解とした場合の用語数より,いずれの場合も多い.\itemJaccard係数を用いた場合,上位10位では8〜9個程度,上位20位では16個程度,上位30位では22個程度の正解が含まれている.\end{enumerate}これらの事実は,参照セットを用いたシステムの評価は,過小評価となっていることを示している.\mbox{\ref{sec:reference}節}で述べたように,参照セットはその分野の専門用語を網羅的に集めたものではない.そのため,参照セットに含まれなくてもその分野の専門用語として認められ,かつ,シードワードと強く関連するような用語が数多く存在する.上記の結果は,これらの用語を関連度上位に収集できているということを意味し,システムが有効に機能していることを示している.\begin{enumerate}\setcounter{enumi}{2}\itemすべての場合において,Jaccard係数を用いた方が,$\chi^2$統計量を用いた場合より同等か良い結果を示している.\end{enumerate}この点については,最後に考察する.\begin{table}\begin{center}\scriptsize\caption{「自然言語処理」に対するシステムの出力}\label{tbl:nlp_result}\begin{tabular}{|l|rr|rr|rr|cc|}\hline\multicolumn{1}{|c|}{}&\multicolumn{2}{c|}{}&\multicolumn{2}{c|}{$Jac(s,t)$}&\multicolumn{2}{c|}{$\chi^2(s,t)$}&\multicolumn{2}{c|}{評価}\\\multicolumn{1}{|c|}{$t$}&\multicolumn{1}{c}{$hits(t)$}&\multicolumn{1}{c|}{$hits(s\&t)$}&\multicolumn{1}{c}{順位}&\multicolumn{1}{c|}{スコア}&\multicolumn{1}{c}{順位}&\multicolumn{1}{c|}{スコア}&\multicolumn{1}{c}{参照}&\multicolumn{1}{c|}{主観}\\\hline言語処理&19700&9950&1&0.505&1&$6.86\times10^6$&&$\surd$\\自然言語&20300&9950&2&0.490&2&$6.66\times10^6$&1&$\surd$\\自然言語処理技術&1020&1020&3&0.103&3&$1.39\times10^6$&&\\形態素解析&5570&1270&4&0.089&7&$3.94\times10^5$&3&$\surd$\\形態素&8440&1460&5&0.086&9&$3.43\times10^5$&3&$\surd$\\コーパス&15400&1740&6&0.074&12&$2.66\times10^5$&2&$\surd$\\構文解析&8190&1220&7&0.072&13&$2.46\times10^5$&3&$\surd$\\言語処理学会&1500&734&8&0.069&5&$4.90\times10^5$&&$\surd$\\音声言語&9490&892&9&0.048&26&$1.13\times10^5$&1&\\言語情報&9200&859&10&0.047&27&$1.08\times10^5$&&\\\hline機械学習&3750&612&11&0.047&21&$1.35\times10^5$&&$\surd$\\言語理解&3550&595&12&0.046&22&$1.35\times10^5$&1&$\surd$\\自然言語処理研究会&406&406&13&0.041&4&$5.55\times10^5$&&$\surd$\\意味解析&1610&430&14&0.039&16&$1.56\times10^5$&3&$\surd$\\知識表現&2190&440&15&0.038&24&$1.20\times10^5$&1&$\surd$\\パターン認識&9370&699&16&0.038&&&&\\情報抽出&3110&462&17&0.037&&&2&$\surd$\\意味論&13900&799&18&0.035&&&&$\surd$\\人工知能&60100&2330&19&0.034&25&$1.20\times10^5$&&$\surd$\\機械翻訳&29500&1290&20&0.034&&&2&$\surd$\\\hline知識処理&2640&406&21&0.033&&&&$\surd$\\自動要約&1110&355&22&0.033&17&$1.55\times10^5$&&$\surd$\\知識ベース&6310&520&23&0.033&&&&$\surd$\\言語理論&3450&425&24&0.033&&&1&$\surd$\\自然言語処理学&305&305&25&0.031&6&$4.17\times10^5$&&\\人工知能学会誌&1750&334&26&0.029&&&&\\長尾真&2480&351&27&0.029&&&&$\surd$\\認知科学&17000&759&28&0.029&&&&$\surd$\\曖昧性&3210&365&29&0.029&&&2&$\surd$\\対話システム&2370&341&30&0.028&&&&$\surd$\\\hline自然言語処理学講座&266&266&&&8&$3.63\times10^5$&&\\自然言語処理システム&237&236&&&10&$3.21\times10^5$&&$\surd$\\自然言語処理研究&213&213&&&11&$2.91\times10^5$&&\\自然言語処理入門&123&123&&&14&$1.68\times10^5$&&\\計算言語学&461&234&&&15&$1.62\times10^5$&&$\surd$\\言語資源&438&222&&&18&$1.54\times10^5$&&$\surd$\\JAIST&265&170&&&19&$1.49\times10^5$&&\\音声言語処理&621&253&&&20&$1.41\times10^5$&&$\surd$\\自然言語処理研究室&95&95&&&23&$1.30\times10^5$&&\\奥村学&473&189&&&28&$1.03\times10^5$&&$\surd$\\アルゴリズム&127000&3080&&&29&$9.70\times10^4$&&\\テキスト自動要約&221&124&&&30&$9.49\times10^4$&&$\surd$\\\hline\end{tabular}\end{center}\end{table}「自然言語処理」をシードワードとしたときのシステムの出力(上位30語)とその評価を\mbox{表\ref{tbl:nlp_result}}に示す.この表において,「$Jac(s,t)$順位」は,Jaccard係数を用いた場合の用語$t$の順位,「$\chi^2(s,t)$順位」は,$\chi^2$統計量を用いた場合の用語$t$の順位である.順位の空欄は,その尺度でその用語が上位30語に入らなかったことを示す.また,「参照」の数字は参照セット$R_i$に含まれる場合の$i$の最大値を示す.「主観」欄のチェックは,主観的評価において関連用語と判定されたことを示す.この結果からも,本システムが得意とするのは,「ある専門用語(シードターム)から,それと強く関連する比較的狭い範囲の専門用語を収集する」というタスクであることが確認できる.「自然言語処理」はひとつの分野を統括する用語であるため,「形態素解析」や「構文解析」といった代表的用語が得られているが,「茶筌」や「文脈自由文法」といった,それぞれのサブ分野の専門用語は得ることができない.我々は,このようなシステムの特性を問題視しない.逆に,好ましい特性と考える.なぜならば,狭い範囲でも強く関連する用語を得ることができるのであれば,それを再帰的に適用することによって,関連用語集合を段階的に拡大していくことができるからである.事実,「茶筌」や「文脈自由文法」といった専門用語は,それぞれ「形態素解析」や「構文解析」をシードワードとしたとき,本システムは,これらの用語をその関連用語として出力することができる.\mbox{表\ref{tbl:nlp_result}}において,$\chi^2$統計量の上位30位以内に含まれ,かつ,Jaccard係数では30位以内に含まれなかった用語に見られる特徴として,「自然言語処理学講座」や「自然言語処理研究」などの用語内にシードワードを含む用語がある.これらの用語は,シードワードを含むため,サーチエンジンによるAND検索では,シードワードと100\%共起するが,用語自身のヒット数$hits(t)$はやや小さい用語である.既に述べたように,Jaccard係数も$\chi^2$統計量も,共起の割合が同じであれば,頻度が低い用語ほどスコアは小さくなるが,両者を比較すると,$\chi^2$統計量の方が,低頻度語に高いスコアを与える傾向がある.この差が,現実の状況において,2つの尺度の優劣の逆転現象をもたらす要因となっている.しかしながら,その差はそれほど大きくないため,どちらの尺度を用いるかはシステムの利用者に委ねるという立場を結論とした. \section{関連研究} \label{chap5}本研究は,一つの用語から,それに関連する用語集合を収集するという問題を扱っている.これを,特定分野の用語集合を収集する方法とみなせば,その関連研究は{\bf重要語抽出}となる.また,これを,用語間の関連性の推定とみなせば,{\bfトピックワードグラフ生成}や{\bf特定の関係を持つ用語対の自動獲得}と関連する.\subsection{重要語抽出}重要語抽出は,与えられた文書(または文書集合)から,その文書の内容を代表するような重要語を抽出・列挙する技術である.その最も重要な要素は,用語の重要性を測る尺度であり,tf.idf,C-value\shortcite{frantzi98cvalue_ncvalue},FLR\shortcite{nakagawa03flr}やTermRepresentativeness\shortcite{hisamitsu00representativeness}などの尺度が提案されている.重要語抽出の技術の主な応用は,情報検索のための索引語の抽出である.しかし,ある特定の分野を代表するような文書集合を集め,この文書集合に重要語抽出を適用すれば,そこで得られる重要語集合は,その分野の専門用語集合の候補と考えることができる.このような見方においては,重要語抽出の研究と本研究は,強く関連する.重要語抽出技術を用いた専門用語抽出と,本研究の大きな違いは,入出力の違いである.前者の入出力は,文書集合と専門用語集合(多数)であるのに対し,後者の入出力は,専門用語と専門用語集合(少数)である.この違いは,出力する用語の選択に用いる尺度の違いをもたらす.すなわち,前者は,特定の文書集合における用語の重要度を測る尺度を使用するのに対し,後者は,2つの用語間の関連度を測る尺度を使用する.重要語抽出技術を用いた専門用語抽出の大きな問題点は,特定の分野を代表するような文書集合を作成することが難しいという点にある.本研究では,入力を一つの専門用語(シードワード)に限定することによって,この問題を回避している.しかしながら,その代償として,1回の収集ではそれほど多くの関連用語(専門用語)を収集することはできない.この新たな問題は,収集された用語をシードワードとして,再帰的に関連用語を収集する方法によりある程度解決できると考えられる.\subsection{トピックワードグラフ生成}検索システムDualNAVI\shortcite{niwa99dualnavi}におけるトピックワードグラフは,検索文書集合を代表するトピックワード集合をユーザーに提示する方法として提案されたもので,トピックワードを節点,2つのトピックワード間の関連をリンクとするグラフである.このグラフの生成過程のうち,グラフのリンクの作成,すなわち,関連するトピックワードの決定は,ある用語に対して関連する用語を決定するという側面において,本研究と強く関連する.上記のリンク作成は,与えられたトピックワード集合の各要素に対して,最も強く関連するトピックワードを決定することによって行なわれる.このとき使われる関連性の尺度は,$\frac{a}{a+c}$に相当するような用語の共起に基づいている.ただし,$a$や$c$を計算する対象は,検索された文書集合である.このことから分かるように,トピックワード間の関連推定と本研究の大きな違いは,前者が,ある特定の文書集合(検索された文書集合)における関連性の推定問題を対象としているのに対し,後者は,文書集合に依存しない,より一般的な(辞書的な)関連性の推定問題を対象としている点である.この違いは,前者の目的が文書検索支援であるのに対し,我々の最終目的は特定分野の用語集の自動編纂であるという違いから来ている.\subsection{特定の関係を持つ用語対の自動獲得}与えられたコーパスから,ある特定の関係を持つ語のペアを抽出することは,上位・下位関係,類義関係などを対象として,比較的よく研究されてきている.例えば,上位・下位関係の獲得では,上位・下位関係を表す特定の文型パターンを用いる方法\cite{hearst92acquisition_hyponyms}や,HTML文書のリスト構造を利用する方法\cite{shinzato05html}などが提案されている.また,類義関係の獲得では,それぞれの語に対して,特定の文脈情報をコーパスから抽出し,それらをクラスタリングすることによって,類義語を発見する方法などが提案されている\cite{hindle90noun_classification,lin98automatic_retrieval}.これらの方法で得られる「関係」は,特定の文書に依存しない(辞書やシソーラスに記述すべきような)一般的な「関係」であり,そのような関係にある語の組を求めるという側面において,本研究と共通の側面を持つ.ただし,これらの研究が主に対象としているのは,一般語や固有名詞であり,専門用語ではない.また,使用している技法も大きく異なる. \section{おわりに} \label{chap6}本論文では,従来,専門家の手によって行なわれていた「特定の専門分野で用いられる専門用語群を収集する」という作業を機械化するための方法として,入力として与えられた専門用語(シードワード)に強く関連する用語をウェブから自動的に収集する手法を提案した.これを実現するために,まず,関連用語収集問題を定式化し,この問題を解くためには,ある用語が,(1)専門用語であり,(2)シードワードと関連すること,を判定する必要があることを論じた.本研究では,専門用語が特定の専門文書には数多く現れるが,その他の文書にはほとんど現れないこと,および,関連する2つの用語は,文書において強く共起することに着目し,このような条件を満たす用語を関連用語として収集することとした.具体的には,Jaccard係数と$\chi^2$統計量が,これらの条件判定に利用できることを定性的に示し,ウェブのサーチエンジンのヒット数からこれらの尺度を計算し,関連用語を収集するシステムを構築した.参照セットを用いた評価,および,主観的な評価により,本システムが入力の専門用語に強く関連する十数語の専門用語を収集できることを示した.ある分野の専門用語を収集することは,専門用語集の編纂の第1ステップである.本研究で提案した方法は,一つのシードワードから少数の関連用語を出力する能力しか持たないが,これを再帰的に適用することによって,多くの関連用語を収集することが可能である.こうして得られる専門用語集合から,最終的に見出しとすべき用語の集合を決定すれば,専門用語集の自動編纂が達成できると考えられる.本論文では,日本語を対象とした関連用語収集システムについてのみ述べたが,既に,フランス語\shortcite{xavier05french_rtc},英語を対象とした同様のシステムが実現されている.これらのシステムと日本語関連用語収集システムを組み合わることによって,特定分野の対訳用語集の自動編纂を実現することが可能となる\shortcite{EACL06}.\medskip\acknowledgment本研究に対して,多くの有益なコメントを下さった,東京大学大学院教育学研究科の影浦峡助教授に深く感謝する.\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aitchison\BBA\Gilchrist}{Aitchison\BBA\Gilchrist}{1987}]{thesaurus}Aitchison,J.\BBACOMMA\\BBA\Gilchrist,A.\BBOP1987\BBCP.\newblock{\BemThesaurusConstruction:APracticalManual\/}(2nd\BEd).\newblockAslib.\bibitem[\protect\BCAY{明石}{明石}{2003}]{akashi03macro}明石茂生\BBOP2003\BBCP.\newblock\Jem{マクロ経済学}.\newblock中央経済社.\bibitem[\protect\BCAY{浅田}{浅田}{2002}]{asada02micro}浅田統一郎\BBOP2002\BBCP.\newblock\Jem{ミクロ経済学の基礎}.\newblock中央経済社.\bibitem[\protect\BCAY{Church\BBA\Hanks}{Church\BBA\Hanks}{1990}]{church89word_association}Church,K.~W.\BBACOMMA\\BBA\Hanks,P.\BBOP1990\BBCP.\newblock\BBOQWordAssociationNorms,MutualInformation,andLexicography\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf16}(1),pp.~22--29.\bibitem[\protect\BCAY{Dunning}{Dunning}{1993}]{dunning93accurate_methods}Dunning,T.\BBOP1993\BBCP.\newblock\BBOQAccurateMethodsfortheStatisticsofSurpriseandCoincidence\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf19}(1),pp.~61--74.\bibitem[\protect\BCAY{Frantzi,Ananiadou,\BBA\Tsujii}{Frantziet~al.}{1998}]{frantzi98cvalue_ncvalue}Frantzi,K.~T.,Ananiadou,S.,\BBA\Tsujii,J.\BBOP1998\BBCP.\newblock\BBOQTheC-value/NC-valueMethodofAutomaticRecognitionforMulti-wordTerms\BBCQ\\newblockIn{\BemProceedingsoftheResearchandAdvancedTechnologyforDigitalLibraries,SecondEuropeanConference(ECDL'98)},\BPGS\585--604.\bibitem[\protect\BCAY{福田照山}{福田\JBA照山}{2005}]{fukuda05macro}福田慎一,照山博司\BBOP2005\BBCP.\newblock\Jem{マクロ経済学・入門}(3\JEd).\newblock有斐閣.\bibitem[\protect\BCAY{五條堀}{五條堀}{2003}]{gojohbori03bio}五條堀孝\JED\\BBOP2003\BBCP.\newblock\Jem{生命情報学}.\newblockシュプリンガー・フェアラーク東京.\bibitem[\protect\BCAY{Hearst}{Hearst}{1992}]{hearst92acquisition_hyponyms}Hearst,M.~A.\BBOP1992\BBCP.\newblock\BBOQAutomaticAcquisitionofHyponymsfromLargeTextCorpora\BBCQ\\newblockIn{\BemProceedingsofthe14thInternationalConferenceonComputationalLinguistics(COLING'92)},\BPGS\539--545.\bibitem[\protect\BCAY{Hindle}{Hindle}{1990}]{hindle90noun_classification}Hindle,D.\BBOP1990\BBCP.\newblock\BBOQNounClassificationfromPredicateArgumentStructures\BBCQ\\newblockIn{\BemProceedingsofthe28thAnnualMeetingoftheAssociationforComputationalLinguistics(ACL'90)},\BPGS\268--275.\bibitem[\protect\BCAY{平澤}{平澤}{2000}]{hirasawa00it}平澤茂一\BBOP2000\BBCP.\newblock\Jem{{\small情報数理シリーズA-6}情報理論入門}.\newblock培風館.\bibitem[\protect\BCAY{平田}{平田}{2003}]{hirata03it}平田廣則\BBOP2003\BBCP.\newblock\Jem{情報理論のエッセンス}.\newblock昭晃堂.\bibitem[\protect\BCAY{Hisamitsu,Niwa,\BBA\Tsujii}{Hisamitsuet~al.}{2000}]{hisamitsu00representativeness}Hisamitsu,T.,Niwa,Y.,\BBA\Tsujii,J.\BBOP2000\BBCP.\newblock\BBOQAMethodofMeasuringTermRepresentativeness\BBCQ\\newblockIn{\BemProceedingsof18thInternationalConferenceonComputationalLinguistics(COLING-2000)},\BPGS\320--326.\bibitem[\protect\BCAY{井堀}{井堀}{2004}]{ibori04micro}井堀利宏\BBOP2004\BBCP.\newblock\Jem{入門ミクロ経済学}(2\JEd).\newblockサイエンス社.\bibitem[\protect\BCAY{石井,上田,前田,村瀬}{石井\Jetal}{1998}]{ishii98pr}石井健一郎,上田修功,前田英作,村瀬洋\BBOP1998\BBCP.\newblock\Jem{わかりやすいパターン認識}.\newblockオーム社.\bibitem[\protect\BCAY{Kageura\BBA\Umino}{Kageura\BBA\Umino}{1996}]{kageura96atr_review}Kageura,K.\BBACOMMA\\BBA\Umino,B.\BBOP1996\BBCP.\newblock\BBOQMethodsofAutomaticTermRecognition:AReview\BBCQ\\newblock{\BemTerminology},{\Bbf3}(2),pp.~259--289.\bibitem[\protect\BCAY{影浦}{影浦}{2002}]{kageura02terminology}影浦峡\BBOP2002\BBCP.\newblock\JBOQ「専門用語の理論」に関する一考察\JBCQ\\newblock\Jem{情報知識学会誌},{\Bbf12}(1),pp.~3--12.\bibitem[\protect\BCAY{Lin}{Lin}{1998}]{lin98automatic_retrieval}Lin,D.\BBOP1998\BBCP.\newblock\BBOQAutomaticRetrievalandClusteringofSimilarWords\BBCQ\\newblockIn{\BemProceedingsofCOLING/ACL-98},\BPGS\768--774.\bibitem[\protect\BCAY{Manning\BBA\Sch\"utze}{Manning\BBA\Sch\"utze}{1999}]{manning99fsnlp}Manning,C.~D.\BBACOMMA\\BBA\Sch\"utze,H.\BBOP1999\BBCP.\newblock{\BemFoundationsofStatisticalNaturalLanguageProcessing}.\newblockTheMITPress.\bibitem[\protect\BCAY{美宅榊}{美宅\JBA榊}{2003}]{mitaku03bio}美宅成樹,榊佳之\JEDS\\BBOP2003\BBCP.\newblock\Jem{{\small応用生命科学シリーズ9}バイオインフォマティクス}.\newblock東京化学同人.\bibitem[\protect\BCAY{村上古谷}{村上\JBA古谷}{2003}]{murakami03bio}村上康文,古谷利夫\JEDS\\BBOP2003\BBCP.\newblock\Jem{バイオインフォマティクスの実際}.\newblock講談社.\bibitem[\protect\BCAY{長尾,佐藤,黒橋,角田}{長尾\Jetal}{1996}]{nagao96nlp}長尾真,佐藤理史,黒橋禎夫,角田達彦\BBOP1996\BBCP.\newblock\Jem{{\small岩波講座ソフトウェア科学15}自然言語処理}.\newblock岩波書店.\bibitem[\protect\BCAY{長尾,黒橋,佐藤,池原,中野}{長尾\Jetal}{1998}]{nagao98nlp}長尾真,黒橋禎夫,佐藤理史,池原悟,中野洋\BBOP1998\BBCP.\newblock\Jem{{\small岩波講座言語の科学9}言語情報処理}.\newblock岩波書店.\bibitem[\protect\BCAY{中川,森,湯本}{中川\Jetal}{2003}]{nakagawa03flr}中川裕志,森辰則,湯本紘彰\BBOP2003\BBCP.\newblock\JBOQ出現頻度と連接頻度に基づく専門用語抽出\JBCQ\\newblock\Jem{自然言語処理},{\Bbf10}(1),pp.~27--45.\bibitem[\protect\BCAY{中川}{中川}{1999}]{nakagawa99pr}中川聖一\BBOP1999\BBCP.\newblock\Jem{{\small情報科学コアカリキュラム講座}パターン情報処理}.\newblock丸善.\bibitem[\protect\BCAY{Niwa,Iwayama,Hisamitsu,Nishioka,Takano,Sakurai,\BBA\Imaichi}{Niwaet~al.}{1999}]{niwa99dualnavi}Niwa,Y.,Iwayama,M.,Hisamitsu,T.,Nishioka,S.,Takano,A.,Sakurai,H.,\BBA\Imaichi,O.\BBOP1999\BBCP.\newblock\BBOQInteractiveDocumentSearchwith{\itDualNAVI}\BBCQ\\newblockIn{\BemProceedingsofthe1stNTCIRWorkshoponResearchinJapaneseTextRetrievalandTermRecognition},\BPGS\123--130.\bibitem[\protect\BCAY{Robitaille,Sasaki,Tonoike,Sato,\BBA\Utsuro}{Robitailleet~al.}{2006}]{EACL06}Robitaille,X.,Sasaki,Y.,Tonoike,M.,Sato,S.,\BBA\Utsuro,T.\BBOP2006\BBCP.\newblock\BBOQCompilingFrench-JapaneseTerminologiesfromtheWeb\BBCQ\\newblockIn{\BemProceedingsofthe11thConferenceoftheEuropeanChapteroftheAssociationforComputationalLinguistics(EACL-06)},\BPGS\225--232.\bibitem[\protect\BCAY{Robitaille,Sato,\BBA\Utsuro}{Robitailleet~al.}{2005}]{xavier05french_rtc}Robitaille,X.,Sato,S.,\BBA\Utsuro,T.\BBOP2005\BBCP.\newblock\BBOQAutomaticCollectionofRelatedTermsinFrench\BBCQ\\newblock\Jem{言語処理学会第11回年次大会発表論文集},\BPGS\891--894.\bibitem[\protect\BCAY{新里,鳥澤}{新里,鳥澤}{2005}]{shinzato05html}新里圭司,鳥澤健太郎\BBOP2005\BBCP.\newblock\JBOQHTML文書からの単語間の上位下位関係の自動獲得\JBCQ\\newblock\Jem{自然言語処理},{\Bbf12}(1),pp.~125--150.\bibitem[\protect\BCAY{田中}{田中}{1999}]{tanaka99nlp}田中穂積(監修)\BBOP1999\BBCP.\newblock\Jem{自然言語処理—基礎と応用—}.\newblock電子情報通信学会.\bibitem[\protect\BCAY{田近}{田近}{2001}]{RSK}田近洵一\JED\\BBOP2001\BBCP.\newblock\Jem{例解小学国語辞典〈ワイド版〉}.\newblock三省堂.\bibitem[\protect\BCAY{鳥脇}{鳥脇}{1993}]{toriwaki93pr}鳥脇純一郎\BBOP1993\BBCP.\newblock\Jem{認識工学—パターン認識とその応用—}.\newblockコロナ社.\bibitem[\protect\BCAY{脇田}{脇田}{2004}]{wakita04macro}脇田成\BBOP2004\BBCP.\newblock\Jem{マクロ経済学のナビゲーター}(2\JEd).\newblock日本評論社.\bibitem[\protect\BCAY{余語}{余語}{2002}]{yogo02micro}余語將尊\BBOP2002\BBCP.\newblock\Jem{現代ミクロ経済学}.\newblock慶應義塾大学出版会.\bibitem[\protect\BCAY{横尾}{横尾}{2004}]{yokoo04it}横尾英俊\BBOP2004\BBCP.\newblock\Jem{情報理論の基礎}.\newblock共立出版.\end{thebibliography}\newpage\begin{biography}\biotitle{略歴}\bioauthor{佐々木靖弘}{2003年京都大学工学部電気電子工学科卒業.2005年同大学大学院情報学研究科修士課程知能情報学専攻修了.2006年同博士課程退学.}\bioauthor{佐藤理史}{1983年京都大学工学部電気工学第二学科卒業.1988年同大学院工学研究科博士課程電気工学第二専攻研究指導認定退学.京都大学工学部助手,北陸先端科学技術大学院大学情報科学研究科助教授,京都大学大学院情報学研究科助教授を経て,2005年より名古屋大学大学院工学研究科教授.工学博士.自然言語処理,情報の自動編集等の研究に従事.}\bioauthor{宇津呂武仁}{1989年京都大学工学部電気工学第二学科卒業.1994年同大学大学院工学研究科博士課程電気工学第二専攻修了.京都大学博士(工学).奈良先端科学技術大学院大学情報科学研究科助手,豊橋技術科学大学工学部情報工学系講師,京都大学大学院情報学研究科講師を経て,2006年より筑波大学大学院システム情報工学研究科助教授.自然言語処理の研究に従事.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V15N01-03
\section{まえがき} 日本語文のムードについて,いくつかの体系が提示されている(益岡,田窪1999;仁田1999;加藤,福地1989)\footnote{益岡ら(益岡,田窪1999)および加藤ら(加藤,福地1989)はムードという用語を用いているのに対して,仁田(仁田1999)はモダリティという用語を用いている.彼らによるムードあるいはモダリティの概念規定は表面的には異なるが,本質的には同様であると考えてよい.}.益岡ら(益岡,田窪1999)は,述語の活用形,助動詞,終助詞などの様々な文末の形式を対象にして,「確言」,「命令」,「禁止」,「許可」,「依頼」などからなるムード体系を提示している.仁田(仁田1999)は,述語を有するいわゆる述語文を中心に,日本語のモダリティを提示している.仁田の研究成果は益岡らによって参考にされており,仁田が提示しているモダリティのほとんどは益岡らのムード体系に取り込まれている.加藤ら(加藤,福地1989)は,助動詞的表現(助動詞およびそれに準じる表現)に限定して,各表現が表出するムードを提示している.提示されているムードには,益岡らのムード体系に属するものもあるが,「ふさわしさ」,「継続」など属さないものもある.既知のムード体系がどのような方法によって構成されたかは明確に示されてはいない.また,どのようなテキスト群を分析対象にしてムード体系を構成したかが明確ではない.おそらく,多種多様な文を分析対象にしたとは考えられるが,多種多様な日本語ウェブページに含まれるような文を対象にして,ムード体系を構成しているとは思われない.そのため,情報検索,評判分析(乾,奥村2006),機械翻訳などウェブページを対象にした言語情報処理がますます重要になっていくなか,既知のムード体系は網羅性という点で不十分である可能性が高い.本論文では,多種多様な日本語ウェブページに含まれる文を分析して標準的な既知のムードとともに新しいムードを収集するために用いた系統的方法について詳述し,新しいムードの収集結果を示す.また,収集したムードとその他の既知ムードとの比較を行い,収集できなかったムードは何か,新しく収集したムードのうちすでに提示されているものは何か,を明らかにする.そして,より網羅性のあるムード体系の構成について,ひとつの案を与える.ここで,ムードの収集にあたって本論文で用いる重要な用語について説明を与えておく.文末という用語は,文終了表示記号(句点など)の直前の単語が現れる位置を意味する.文末語という用語は文末に現れる単語を意味する.POSという用語は単語の品詞を意味する.例えば,「我が家へ\ul{ようこそ}。」という文において,文終了表示記号は「。」である.文末は下線部の位置であり,文末語は「ようこそ」であり,そのPOSは感動詞である.また,ムードの概念規定としては益岡ら(益岡,田窪1999)のものを採用する.彼らによれば「話し手が,文をコミュニケーションの道具として使う場合,ある特定の事態の表現だけではなく,その事態や相手に対する話し手の様々な判断・態度が同時に表現される」.この場合,事態や相手に対する話し手の判断・態度がムードである.ただし,本論文ではウェブページに記述された文を対象にすることから,文の書き手も話し手と見なすこととする.例えば,「毎日,研究室に来い.」という文は,相手に対して命令する態度を表現しており,「命令」というムードを表出している.また,「妻にはいつまでも綺麗でいて欲しい.」という文は,「妻がいつまでも綺麗である」という事態の実現を望む態度を表現しており,「願望」というムードを表出している.以下,2節では日本語ウェブページからムードを収集する際の基本的方針について述べる.3節ではムードを収集する具体的方法を与える.4節ではムード収集において分析対象とした文末語の網羅性について議論する.5節ではムードの収集結果を示す.6節では収集したムードと既知ムードとの比較を行う.7節では,より網羅性のあるムード体系の構成について一案を示す.8節では本論文のまとめと今後の課題について述べる. \section{ムード収集の基本的方針} 本節では,日本語ウェブページに含まれる文を分析して,文が表出するムードを収集するにあたっての基本的な方針について述べる.具体的には,文が表出するムードを収集する際に,どのような日本語ウェブページを利用して,どのような文を分析対象とするのか,文中のどのような単語に着目するのか,どのようなムード体系を標準として利用するのか,について述べる.\subsection{分析対象}ムードを収集するにあたって,本論文ではNTCIRプロジェクトによって収集された11,034,409件の日本語ウェブページ(以下,NTCIR日本語ウェブページと呼ぶ)から成るデータセットであるNTCIR-3WEB\footnote{NTCIR-3WEBについては以下のURLを参照.\hfill\breakhttp://research.nii.ac.jp/ntcir/permission/perm-ja.html{\#}ntcir-3-web/}を利用する.これは,各ウェブページを,HTMLタグを取り除いたプレーンテキストとして提供している.データセットの規模から,多種多様なウェブページを網羅し,それ故に多種多様な文を網羅していると考えられる.\begin{figure}[t]\input{02fig1.txt}\caption{NTCIR日本語ウェブページの一例}\end{figure}ムード収集のために分析対象とする文は,NTCIR日本語ウェブページに含まれる文のうち,文終了表示記号として全角の「。」,「.」,「!」,「?」,あるいは半角の「!」,「?」を有するものである.例えば,NTCIR日本語ウェブページには,図1に示すようなプレーンテキストが含まれる.このテキストでは改行は1行目,2行目および5行目にある.これらは不可視であるため,図中では(改行)として明示してある.この場合,「……に100\,Mbpsで接続。」という文字列は分析対象となる文である.しかしながら,「無停電……ご提供いたします」という文字列は,所望の文終了表示記号が無いことから,分析対象から除外される.分析対象とする文をこのように限定するにしても,NTCIR日本語ウェブページからは多種多様な文を得られると期待でき,それ故に新しいムードを発見する可能性は高いと期待できる.この意味で,NTCIR日本語ウェブページは,日本語ウェブページに含まれる文が表出するムードを収集する対象として適したデータセットであると言える.\subsection{着目する単語}日本語文では,文末語が様々な種類のムードを表出すると予想できる.もちろん,文末以外に出現する単語がムードを表出する場合もある.しかしながら,そのような場合を扱うと,文の非常に複雑な解析が必要になる.本論文では,原則として文末語のみに着目する.文末語のみに着目してムードを研究することにも,それなりの意義があることを以下に述べる.乾ら(乾,内元,村田,井佐原1998)は,アンケート調査における自由回答文の自動分類を試みている.自動分類の目的は回答者の意図\footnote{本論文におけるムードに相当する.}(賛成,反対,要望・提案など)を把握することであり,機械学習において自由回答文の文末表現\footnote{本論文における文末語に相当する.}を素性として重要視している点が,彼らの研究において特徴的である.結果として,彼らは文末表現が自由回答文の意図を分類することに貢献し得ることを示している.一方,人間との円滑なコミュニケーションを図るシステムの構築において,発話文における話し手の情緒を理解する機構を実現することは重要な問題である.横野(横野2005)は,発話文における述語に加えて,話し手の発話内容に対する態度が表現される文末に着目した情緒推定法を提案している.彼は情緒推定のために文末表現\footnote{本論文における文末語に相当する.}をいくつかの情緒カテゴリ\footnote{本論文におけるムードに相当する.}に分類している.そして,文末表現に着目した情緒推定法が有効であり得ることを示している.これらの研究は,一般的な視点から捉えなおすと,文が表出するムードを分類する際に文末語が有用になり得ることを示唆している.したがって本論文は,文末語のみに着目してムードを研究するものではあるが,工学的に意義のある研究を行うための基礎になると考える.\subsection{標準とするムード体系}NTCIR日本語ウェブページに出現する文を分析して文が表出するムードを収集する際に,言い換えれば,文中の文末語にムードを割り当てる際に標準とするムード体系として,益岡ら(益岡,田窪1999)が提示しているムード体系を利用する.理由は,比較的うまく整理されているムード体系であると考えられるからである.彼らのムード体系は以下の通りである.各ムードについての簡単な説明と文例を付録に示す.(a)確言,(b)命令,(c)禁止,(d)許可,(e)依頼,(f)当為,(g)意志,(h)申し出,\par(i)勧誘,(j)願望,(k)概言,(l)説明,(m)比況,(n)疑問,(o)否定.なお,これらのムードは意味的に必ずしも独立しているわけではない.益岡らによれば,例えば,「禁止」には「ある動作をしないことを命令する場合と,ある事態が生じないように努力することを命令する場合」がある.いずれの場合でも,「禁止」は「命令」のムードを含意する. \section{ムードの収集方法} NTCIR日本語ウェブページを利用する場合,非常に多くの文を分析対象にしなければならない.ムード収集においては,文から文末語を抽出し,文末語にムードを割り当てるという作業が必要である.その際,文末語の抽出は自動化できるが,文末語にムードを割り当てる作業は人間の手作業に頼らざるを得ない.本論文では,まず暫定的に,文末語へのムード割り当てを3人の作業者X,Y,Zによる議論と合意に基づいて行うこととし,作業の大きな流れを以下のように計画し,実行することとした.\InHone{(1)}作業者XとYがムード割り当て案を作成する.作成中,新しいムードを設定する必要があるかどうか,設定するとすればどんな名称,意味が適切かなど,疑問点があれば作業者3人で議論し,合意によって疑問点を解消する.\InHone{(2)}ムード割り当て案を作業者Zがレビューし,割り当てられたムードの不適切さなどの問題点があれば,作業者3人で議論し,合意によって問題点を解消する.\InHone{(3)}3人の合意によってムード割り当て案を承認し,それを暫定的ムード割り当て結果とする.また,文末語へのムード割り当て手続きは以下のように設定し,実行することとした.\InHone{(a)}文末語へムードを割り当てる際には,第一に2.3節で示した益岡ら(益岡,田窪1999)のムード体系を標準として利用し,適当なムードを割り当てる.\InHone{(b)}標準としたムードを割り当てるのは適当ではないが,文末語がなんらかのムードを表出していると考えられる場合には,独自に新しい暫定的ムードの名称と意味を設定し,それを割り当てる.\InHone{(c)}新たに設定した暫定的ムードは,標準としたムードと併せて,その後のムード割り当て作業で利用する.\InHone{(d)}標準としたムードあるいはすでに設定してある暫定的ムードを割り当てることが明らかに不適切であるような文末語に直面した場合には,さらに暫定的に新しいムードを設定し,それを割り当てる.\InHone{(e)}すでに設定してある暫定的ムードに類似するが,そのムードを割り当てるには若干不適切であるような文末語に直面した場合には,可能な限り,ムードの意味をそれまでの意味を包含するように文末語にあわせて変更し,必要があればムードの名称を意味にあわせて変更し,それを割り当てる.\InHone{(f)}ムード名称を変更した場合には,変更前のムード名称が割り当てられている文末語に対して,変更後のムード名称を改めて割り当てる.そして,最終的には,できるだけ妥当なムード割り当て結果を得るために,作業者X,Y,Zが承認した暫定的ムード割り当て結果を,作業者Wがレビューし,問題点がある場合にはそれを解消することとした.その実行内容の詳細については3.4節で述べる.以上のような手作業によるムード割り当ての負荷が大きいと,不適切なムードの割り当てが起こる可能性が高くなる.したがって,文末語にムードを割り当てるという手作業の負荷をできるだけ軽減する必要がある.負荷を軽減するために作業者の数を増やし,抽出した文末語を例えばPOSごとにグループ分けし,文末語のグループごとにムード割り当て作業を分担するという案もあるが,これは適当ではない.なぜならば,割り当てるムードが異なるグループを担当する作業者の間で大きくゆれる可能性が高く,ムード割り当てが混乱し,後で調整するにしても,それが大変な作業になることが容易に予想できるからである.負荷の軽減は,ムードを収集する方法を工夫することによって行うのが適当であると考える.以下3.1節で示す「基本的な方法」では,2節で述べたムード収集の基本的方針に従ってムードを収集するために一般に必要と考えられるステップを与えている.この方法の実行途中で,POSが名詞である文末語(言い換えれば,体言止めの文)がかなり多く抽出されていることが分かった.これらの文末語へのムード割り当て作業の負荷を軽減するために実行したのが,3.2節で示す「名詞に特化した方法」である.一方,POSが助詞または助動詞である文末語の場合,助詞・助動詞の接続関係が複雑であることから,文末語の1語(助詞あるいは助動詞)だけに着目してムードを収集することは適切でないと考えた.また,「基本的な方法」の実行途中でPOSが助詞あるいは助動詞である文末語が非常に多く抽出されていることが分かった.このことから,POSが助詞あるいは助動詞である文末語からムードを収集する負荷を軽減するとともに,適切にムードの収集を行えるような別の系統的方法が必要であった.そのような方法として実行したのが,3.3節で示す「助詞と助動詞に特化した方法」である.\subsection{基本的な方法}まず,2節で述べたムード収集の基本的方針に従って日本語文が表出するムードを収集するために一般に必要と考えられる以下のステップを実行した.\InHone{(1)}NTCIR日本語ウェブページの各々に含まれる各文について,形態素解析システムChaSen\footnote{形態素解析システムであるChaSen(chasen-2.3.3)については以下のURLを参照.\hfill\breakhttp://chasen.naist.jp/hiki/ChaSen/}を利用して,その文を単語に分割するとともに,各単語にPOSを割り当てた.つまり,各文を2項組(単語,POS)の系列に変換した.以下,そのような2項組の系列をChaSen出力\footnote{ChaSenによる解析結果を全面的に信用するわけではないが,形態素解析システムとしてある程度実用的な水準にあるものと考え,本論文ではChaSen出力に基づいたムード収集方法を採用した.}と呼ぶ.ここで,ChaSenが解析対象とする文について注意を要する.ChaSenは,テキストにおける1行(改行で区切られた文字列)を1つの文として解析する.例えば,図1に示したテキストについて言えば,ChaSenにとっての文は「インターネットのバックボーンである、」,「NSPIXP2,NSPIXP3,GlobalCrossong,JPI」,「Xなどに直結するMEX(メディアエクスチェンジ)に100\,Mbpsで接続。無停電電源装置・室温制御・自動消火設備安定した運用環境をご提供いたします」である.そのため,ChaSen出力が不可解な解析結果を含む可能性はある.しかしながら,次のステップ(2)で述べるように,我々は所望の文終了表示記号の直前にある単語(文末語)のみに着目するため,文全体として正しいChaSen出力を必ずしも必要としない.これは通常の形態素解析では好ましいことではないが,文末語のみに着目したムード収集を目的とする場合には大きな問題にはならないと考えられる.\InHone{(2)}文終了表示記号として全角の「。」,「.」,「!」,「?」,あるいは半角の「!」,「?」を有する各文について,その文末語に着目した.そして,文末語と,そのPOSを2項組(文末語,POS)として収集した.結果として,2項組(文末語,POS)のバッグ(bag)を作成した.ここで,バッグという用語は要素の重複が許されるものの集まりという意味で用いている.例えば,図1に示したテキストについて言えば,「Xなどに直結するMEX(メディアエクスチェンジ)に100\,Mbpsで接続。無停電電源装置・室温制御・自動消火設備安定した運用環境をご提供いたします」という文が,所望の文終了表示記号「。」を有しており,文末語として「接続」(POSは名詞—サ変接続)に着目することになる.この場合,人間にとっては文として認識できる「無停電電源装置・室温制御・自動消火設備安定した運用環境をご提供いたします」という文字列は,実質的には,ムード収集のための分析対象からは除外されることになる.\InHone{(3)}ChaSen文法\footnote{ChaSenのための日本語辞書IPADICで用いられている品詞体系であり以下のURLを参照.\par\noindenthttp://hal.yh.land.to/manual/ipadic/ipadic-ja.html{\#}SECTop/}で用いられる以下のような12種類のPOSに基づいて,上記で作成したバッグから12種類のサブバッグを構成した.{\setlength{\leftskip}{3zw}\noindent1.名詞,2.助詞,3.助動詞,4.副詞,5.感動詞,6.形容詞,7.動詞,8.連体詞,9.接頭詞,10.接続詞,11.フィラー,12.その他.\par}\InHone{(4)}各サブ・バッグについて,その要素である各2項組(文末語,POS)の出現頻度を計数しつつ,当該サブ・バッグを,3項組(文末語,POS,頻度)を要素とする集合に変換し,さらに頻度に基づいて降順にソートし,ソート済み集合を作成した.このステップが終了するまでは,POSごとに分析対象となる文末語の数は不明であった.POSによっては,非常に多くの文末語を分析対象としなければならない状況が生じる可能性があった.そのような状況が生じた場合,手作業の負荷を考慮して,頻度の小さい文末語を分析対象から容易に一括除外できるようにするために,このステップで頻度に基づくソートが必要であった\footnote{結果論ではあるが,ソート結果を役立てられたのはPOSを名詞とする文末語を分析対象とした場合(3.2節)である.}.\InHone{(5)}上記で作成したソート済み集合の各々について,その要素である3項組(文末語,POS,頻度)すべての文末語に,可能である場合に限りムードを手作業で割り当て,4項組(文末語,POS,頻度,ムード)を作成した.ここで,同じ3項組(文末語,POS,頻度)の文末語に複数のムードを割り当てることができる場合には,すべての場合について4項組(文末語,POS,頻度,ムード)を作成した.文末語だけを見てムード割り当てが可能であると判断できるような文末語に対してムードを割り当てる場合,当該POSを有する文末語が文末に位置するような典型的と考えられる文例を書き手/話し手の立場になって内省によって検討し,その文末語が表出し得るムードを割り当てた.例えば,文末語「下され」(POSは動詞—非自立)について言えば,相手の動作に関連して「……して下され.」(例えば,「結婚して下され.」)など,ある事態に関連して「……であって下され.」(例えば,「健康であって下され.」)などの文例を検討した.そして,ムードとして「依頼」と「願望」を割り当てた.ムード割り当てに際して,文末語に対応する元の文をNTCIR日本語ウェブページに遡って参照し,その文末語が本来表出するムードを割り当てるという方法ではなく,内省による文例検討に基づくムード割り当て法を採用したのは,作業者による手作業の負荷をできるだけ軽減するためである.また,内省による文例検討に基づくムード割り当て法には,文末語が表出する本来のムードを見逃す可能性はあるが,大きなメリットもあるためである.文末語に対応して元の文をNTCIR日本語ウェブページに遡って参照すれば,その文末語が本来表出するムードを割り当てることはできるが,それ以外のムードを割り当てない可能性が出てくる.例えば,前述した文末語「下され」(動詞—非自立)に対応する元の文が「結婚して下され.」といった相手に動作を頼むようなものだけである場合には,ムード「依頼」のみが割り当てられ,ムード「願望」を割り当てる機会を失う.さらに,この方法は作業者による手作業の負荷を非常に大きくする.内省による文例検討に基づくムード割り当て法は,手作業の負荷を軽減するだけでなく,それを注意深く実行すれば,ムードを収集する機会を失うという問題を起こしにくく,網羅的にムードを収集する方法としては比較的良いと考えられる.文末語のなかには,ムードの割り当てが可能であるかどうかの判断に困るものがあった.例えば「さ」(副詞—助詞類接続),「う」(感動詞),「よぅ」(形容詞—非自立),「す」(動詞—自立),「この」(連体詞),「ノン」(接頭詞—名詞接続),「ァ」(その他—間投)のような,1文字あるいは2文字からなる文末語が特にそうであった.このような文末語については,安易に切り捨てることはせず,可能な限り網羅的にムードを収集するために,元の文をNTCIR日本語ウェブページに遡って明らかにし,ムードの割り当て可否を判断し,可能な場合にはムードを割り当てた.標準としたムードを割り当てればよい場合もあれば,新たに暫定的ムードを設定し,それを割り当てるのが適当な場合もあった.例えば,「この」(連体詞)は「なんだって,この!」のように使われ,その暫定的ムードとして「失礼」(無礼な気持ちを表す)\footnote{暫定的にムード「失礼」を割り当てたが,3.4節で分かるように,最終的にはこのムードは「非難」(過失,欠点などを責めとがめる気持ちを表す)に変更される.}を割り当てた.また,「ノン」(接頭詞—名詞接続)は「正直高Lvになればなるほどモラルやマナーなんてノンノンノン。」のように使われ,その暫定的ムードとして「肯否」(ある動作や事態を肯定するか否定するかを伝える)を割り当てた.「ァ」(その他—間投)は「おばちゃん、教えてあげなさいよおおおお({\#}゜д゜)ドルァ!!」のように使われ,怒りの叫び声に匹敵する顔文字「({\#}゜д゜)ドルァ!!」の文末語となっている.そのため,暫定的ムード「叫声」(叫び声に匹敵する言葉を述べる)を割り当てるのが適当であった.その他,「う」(感動詞)と「よぅ」(形容詞—非自立)には暫定的ムード「強調」(伝えたいことに,強い調子を加味する)を割り当てるのが適当であった.\vspace{1\baselineskip}なお,POSを名詞とする3項組み,つまり(文末語,POS=名詞,頻度),を要素とするソート済み集合(以下,$S_{n}$と表記する)については,ステップ5を実行しなかった.$S_{n}$の要素数は80,200であり,手続き的に何も工夫しないで80,200個の文末語に手作業でムードを割り当てることは,非常に困難な作業と思われた.$S_{n}$からムードを収集する別の方法については,3.2節で述べる.また,以下の2つのサブ・バッグについてはステップ4を含めて,それ以降を実行しなかった.これらのサブ・バッグからムードを収集する別の方法については,別法が必要である理由も含めて,3.3節で述べる.\InHone{(a)}POSを助詞とする2項組,つまり(文末語,POS=助詞),を要素とするサブ・バッグ(以下,$B_{p1}$と表記する).\InHone{(b)}POSを助動詞とする2項組,つまり(文末語,POS=助動詞),を要素とするサブ・バッグ(以下,$B_{p2}$と表記する).\subsection{名詞に特化した方法}前節で述べたように,POSを名詞とする文末語(言い換えれば,体言止めの文)が非常に多く抽出された.以下に体言止めの文例を示す.\InHone{(1)}「これは私たちの仕事。」\InHone{(2)}「うふふ、から、へ。」\InHone{(3)}「(鼻。華。洟。)花。」\InHone{(4)}「とにかく、一心不乱!」\InHone{(5)}「南無阿弥陀仏……南無阿弥陀仏。」一般に,体言止めの文は話し手の主観を抑えて,ただ単に情報を伝えるだけである.この「ただ単に情報を伝えるだけ」を,本論文では「陳述」のムードとする.上記5つの文では,それぞれ「仕事」,「へ」,「花」,「一心不乱」,「南無阿弥陀仏」を文末語としており,これらは陳述のムードを表出する.なお,第1の文例は,益岡らによる「確言」のムードを表出すると考えられるかもしれない.しかしながら,「仕事です」とは断定していないので,「話し手が真であると信じていることを相手に知らせる」という「確言」のムードを表出すると考えるのは適当でない.以上から,POSを名詞とする文末語には「陳述」のムードを割り当てることができ,そうすることが適当であると考えられる.しかしながら,「陳述」のムードを割り当てることは可能であるが,その他のムードを割り当てる方が適当である場合がある.例えば,「なんとまー、久し振り。」の文末語は「久し振り」(名詞—一般)である.「陳述」のムードを割り当てることは可能であるが,むしろムード「挨拶」(友好的な気持ちを表す)を割り当てる方が,ムードを網羅的に収集するためには適当と考える.そこで,POSを名詞とする文末語へのムード割り当てについては,最初に以下の手続きAを実行した.\InH{(A-1)}集合$S_{n}$から,「陳述」のムードを割り当てるのが適当である可能性が高い文末語を有する3項組(文末語,POS,頻度)を自動的に抽出した.これを実行するにあたり,分類語彙表(国立国語研究所2004)を利用した.分類語彙表は,ある種の日本語シソーラスであり,単語は以下の4つのカテゴリに分類されている\footnote{ひとつの単語が必ずただひとつのカテゴリに分類されているわけではなく,複数のカテゴリに分類されている単語もある.}.(a)体の類:POSが名詞である単語を主として含む.(b)用の類:POSが動詞である単語を主として含む.(c)相の類:POSが形容詞あるいは副詞である単語を主として含む.(d)その他の類:POSが上記以外の単語を主として含む.文末語が「体の類」のみに属する場合,それに「陳述」のムードを割り当てるのが適当である可能性が高いと予想できた.そこで,集合$S_{n}$の要素と分類語彙表を照合し,「体の類」のみに属する文末語を有する3項組(文末語,POS,頻度)を抽出した.その数は32,538個であった.\InH{(A-2)}抽出した3項組(文末語,POS,頻度)のすべてに対して自動的に,とりあえずのムードとして「陳述」を割り当て,4項組(文末語,POS,頻度,ムード=陳述)を作成した.\InH{(A-3)}「陳述」以外のムードを割り当てる方が適当である文末語を有する4項組(文末語,POS,頻度,ムード=陳述)を見つけ出し,適当なムードを割り当て直した.ムードを割り当て直す対象になった4項組は199個であった.このことは,「体の類」のみに属する文末語に「陳述」のムードを割り当てるのが適当である可能性が高いと予想したことが,結果としてかなり的確であったことを意味している.上記手続きAの実行において,最終的には32,538個の文末語に割り当てられたムード「陳述」の適否を手作業で確認する必要があり,手作業の負荷は大きかった.しかしながら,この手作業の負荷は,最初から個々の文末語に適当なムードを割り当てる手作業の負荷に比べると,かなり軽減されたものと考えられる.続いて,「相の類」と「その他の類」に名詞として利用可能な単語が登録されていることに着目して,以下の手続きBを実行した.\InH{(B-1)}分類語彙表の「相の類」と「その他の類」から名詞として利用可能な単語を手作業で選定した.\InH{(B-2)}集合$S_{n}$の要素と選定した単語とを照合し,自動的に,当該単語を文末語として有する3項組(文末語,POS,頻度)を抽出し,とりあえずのムードとして「陳述」を割り当てた4項組(文末語,POS,頻度,ムード=陳述)を作成した.その数は2,945個であった.\InH{(B-3)}手続きAの(A-3)と同様のことを行った.ムードを割り当て直す対象になった4項組は402個であった.ここでも,手続きAと同様,手作業の負荷はある程度軽減されたものと考えられる.以上のように,集合$S_{n}$の3項組のうち,分類語彙表を利用して,その文末語に「陳述」あるいは「陳述」以外のムードを割り当てたのは35,483個であった.最後に,集合$S_{n}$においてまだムードを割り当てていない文末語を有する3項組が44,717個残っており,これらについては,その文末語に手作業でムードを割り当てた.ただし,小さい頻度(頻度の範囲が1〜5)を有する3項組は除外した.結果として,「陳述」あるいは「陳述」以外の何らかのムードを割り当てることが出来る文末語を有する250個の3項組を得た.それらについては,4項組(文末語,POS,頻度,ムード)を作成した.内訳として,ムードを「陳述」とする11個の4項組と,ムードを「陳述」以外とする239個の4項組を作成した.なお,「陳述」のムードを割り当てた文末語のなかに,他のムードも割り当てることができるものが明らかに幾つか存在していた.それらは,POSが名詞—非自立—一般である文末語「こと」と「事」であり,POSが名詞—一般である文末語「こと」である.POSが名詞—非自立—一般である文末語「こと」(あるいは「事」)については,「勉強をすること.」というような文が考えられる.この文における「こと」には「陳述」のムードを割り当てることもできるし,「命令」のムードを割り当てることもできる.また,POSが名詞—一般である文末語「こと」については,「苦しいっていう,こと!」,「すぐに行けって,こと!」のような文が考えられる.前者の文における「こと」には「陳述」のムードを,後者の文における「こと」には「命令」のムードを割り当てることができる.このように,「陳述」のムードを表出する文末語には,「事」と「こと」のように例外的に「命令」のムードを表出し得るものもあり,それらに対しては「命令」のムードも割り当てた.\subsection{助詞と助動詞に特化した方法}3.1節後半で言及したサブ・バッグ$B_{p1}$と$B_{p2}$に含まれる2項組(文末語,POS)のすべての集まりであるサブ・バッグを,$B_{p}$と表記する.本節では,このサブ・バッグ$B_{p}$からムードを収集する方法を述べる.\begin{table}[b]\caption{日本語における助詞,助動詞の系列}\input{02table1.txt}\end{table}助詞,助動詞の接続関係は複雑である.その複雑さは,表1を使って説明できる(野田1995).表1に示した日本語表現「かけられてなかったみたいだね」(句点は省略)を構成する単語には連番を付与してある.各単語の役割は,付与された連番に応じて,以下に示す通りである.なお,括弧内にはChaSen文法によるPOSを示してある.(1)活用語幹(動詞)(2)受動表現(動詞)(3)進行表現(動詞)(4)否定表現(助動詞)(5)過去表現(助動詞)(6)事態に対する話し手の判断・態度(助動詞)(7)相手に対する話し手の判断・態度(助詞)この日本語表現の場合,7番目の単語(つまり,文末語)だけでなく6番目の単語もムードを表出している.ムードの収集という観点から,6番目の単語(助動詞)と7番目の単語(助詞)に着目する必要がある.言い換えれば,サブ・バッグ$B_{p1}$と$B_{p2}$の各々から,別々にムードを収集することは適切でないと言える.そのため,サブ・バッグ$B_{p1}$と$B_{p2}$からムードを収集するために,以下のような方法を採用した.\InHone{(1)}サブ・バッグ$B_{p}$に含まれる2項組(文末語,POS)の各々について,その生成に利用した元の文を,NTCIR日本語ウェブページに遡って明らかにした.\InHone{(2)}上記で明らかにした元の文の各々について,ChaSen出力すなわち2項組(単語,POS)の系列を分析し,ChaSen出力から以下の条件を満たすようなサブ系列(以下,$q$と表記する)を生成した.\begin{figure}[b]\input{02fig2.txt}\caption{サブ系列$q$の例}\end{figure}\InHtwo{(a)}その最後に位置する2項組の単語が,ChaSen出力における文末語(文終了表示記号の直前にある単語)に対応する.\InHtwo{(b)}ChaSen出力における連続した2項組から成る.\InHtwo{(c)}ChaSen出力において助詞または助動詞が連続して出現する部分をすべて含む.図2に,このようなサブ系列の例を示した.サブ系列$q$がサブ・バッグ$B_{p}$の要素,つまり2項組(文末語,POS)を含むことは明らかである.しかしながら,サブ系列$q$に含まれる単語の系列(以下,$q-$単語系列と呼ぶ)には,文末語ではない単語が含まれる場合もある.これは用語上の問題を引き起こす.本論文では便宜上,$q-$単語系列を文末語と見なすことにした.\InHone{(3)}サブ系列$q$を要素とするバッグを作成し,そのバッグを集合$Q$に変換した.\InHone{(4)}集合$Q$に含まれるサブ系列$q$の各々について,$q-$単語系列のムードが確定できるかどうかを手作業で分析した.確定できる場合には$q-$単語系列にムードを割り当て,確定できない場合にはムードの割り当てを次のステップまで保留した.\InHone{(5)}残ったサブ系列$q$の各々について,その生成に利用した元の文を,NTCIR日本語ウェブページに遡って明らかにした.そして,その文の文脈を手作業で分析し,可能である場合に限り$q-$単語系列にムードを割り当てた.\subsection{暫定的ムード割り当て結果のレビュー}以上の3つの方法を利用して,3人の作業者の合意に基づいて承認された暫定的ムード割り当て結果を得た.最終的にできるだけ妥当なムード割り当て結果を得るために,その暫定的ムード割り当て結果を,作業者Wが以下の3点についてレビューした.\InHone{(1)}標準としたムードの割り当てが妥当であるか?ムード「申し出」あるいは「否定」を割り当てることができる文末語があるにも関わらず,まったくそれらのムードが割り当てられていなかった.文末語全件をチェックし,こうしたムードの割り当て漏れの問題を可能な限り解消した.この作業の過程で,標準とした他のムードの割り当てについても,その妥当性について可能な限り確認した.\InHone{(2)}新しく設定した暫定的ムードの名称と意味が妥当であるか?ムード自体の意味が文脈によって変わるという点で適当とは考えられないものが,3種類設定されていた.ムード名称も「〜?」,「〜!」,「〜が」と設定されており,不適当と思われた.そこで,暫定的ムード「〜?」と「〜!」は除外した.一方,暫定的ムード「〜が」の主たる意味はすでに設定されていた暫定的ムード「逆接」(先行する言明について,それとの対比,それへの反対,それの否定,それから予想される事態や動作の否定,あるいはその話題に関連した対比的な評価というような,対立する何かを述べたいことを伝える)に相当するため,ムード「〜が」をムード「逆接」に吸収した.その他の暫定的ムードについては,ムードが割り当てられている文末語に照らして,その名称と意味が妥当であるかどうかを吟味した.結果として,暫定的ムード「失礼」(無礼な気持ちを表す)はその意味が理解しにくく,ムード「失礼」が割り当てられている文末語は相手あるいは事態を非難する語であることから,ムード「失礼」をムード「非難」(過失,欠点などを責めとがめる気持ちを表す)に変更した.\InHone{(3)}暫定的ムードの割り当てが妥当であるか?この点に関するレビューは,第二点目に関するレビューと同時に行い,暫定的ムードの割り当てが妥当であることを可能な限り確認した.また,除外した暫定的ムード「〜?」と「〜!」が割り当てられていた文末語のムードを再考し,適切なムードを割り当てた.さらに,暫定的ムード「〜が」が割り当てられていた文末語に対してムード「逆接」を割り当て直し,暫定的ムード「失礼」が割り当てられていた文末語に対してムード「非難」を割り当て直した.以上のようなレビューを通じて,暫定的ムード割り当て結果よりも妥当と考えられる最終的ムード割り当て結果を得た. \section{文末語の網羅性} 本論文で分析対象にした文末語は,NTCIR日本語ウェブページ(11,034,409件の日本語ウェブページ)に含まれる文のうち,文終了表示記号として全角の「。」,「.」,「!」,「?」,あるいは半角の「!」,「?」を有する文から抽出したものである.表2に,POSごとに文末語に関する3種類の数値情報を示す.各欄A,B,Cは以下を意味している.A:分析対象とした文末語の延べ数.B:分析対象とした文末語の異なり数\footnote{字面が同じ文末語であっても,POSが異なれば異なる文末語として計数している.}.C:ムードが割り当てられた文末語の異なり数.例えば動詞について言えば,延べ数で22,314,847個の文末語を抽出し,そのうち相異なる文末語が17,881個あり,最終的に何らかのムードを割り当てることができた文末語は2,820個であるということが読み取れる.表2から,分析対象として抽出した文末語の延べ数は120,885,370個である.この数値は,文末語の抽出対象とした文の数が120,885,370個であることを意味している.言い換えれば,膨大な数の文から文末語を抽出したことになる.また,分析対象とした文末語の異なり数は164,575個であり,極めて多くの種類の文末語を分析したことになる.さらに,ムードが割り当てられた文末語の異なり数は41,291個であり,ムードを表出する多くの文末語を得たことになる\footnote{41,291個中,「陳述」のムードを表出するものが34,895個ある(表3を参照).これは日本語ウェブページの特徴のひとつであると考えられる.残りの6,396個は「陳述」以外のムードを表出する.}.一方,NTCIR日本語ウェブページは,主として.jpドメインから広範囲に収集されたもので,我々の調査によれば批評,解説,報道,感想,Q{\&}A,記録,商品広告,マニュアル,用語説明,案内・紹介など,様々なジャンルに属するウェブページを含んでいる.このように,NTCIR日本語ウェブページに含まれるテキストの多様性は極めて高く,極めて多様な文から文末語を抽出したと言える.\begin{table}[t]\caption{文末語の数}\input{02table2.txt}\end{table}以上のことから,本論文で分析対象とした文末語について以下の4点を主張することができ,日本語文に現れる文末語を,多様性と数の両面から相当程度に網羅していると言ってよかろう.(1)極めて多様な文から文末語を抽出した.(2)膨大な数の文から文末語を抽出した.(3)極めて多くの種類の文末語を分析した.(4)ムードを表出する多くの文末語を得た. \section{ムードの収集結果} 2.3節で示した標準とするムード体系に含まれない23種類の新しいムードを収集することができた.標準としたムードとともに,それらを表3に示す.「ムード」の欄では,標準としたムードには付録で用いたアルファベット記号をつけ,新しいムードには連番をつけた.「例」の欄には,当該ムードを表出する文末語の例を示した.「数」の欄には,当該ムードを表出する文末語の異なり数を示した.\begin{table}[t]\caption{標準としたムードと新しいムード}\input{02table3.txt}\end{table}なお,新しいムード「可能」を表出する文末語の異なり数は4であり,他のムードに比べてかなり小さい.この場合,「可能」を意味のあるムードとして取り上げる価値はないのではないか,という疑問が生じるかもしれない.ムード「可能」を表出する文末語は以下の4種類である.括弧内数値は出現頻度を示す.さすがに接頭詞として出現する頻度は小さいが,他の場合の出現頻度は大きい.文末語の種類は現段階では少ないが,「可能」を新しいムードとして取り上げる価値は十分にある.(1)「可」(名詞—接尾—一般)[19,229].(2)「可」(名詞—一般)[14,747].(3)「可」(接頭詞—名詞接続)\footnote{文例「登校は可.」(ただし「.」は全角)に対して,ChaSenは「可」を接頭詞—名詞接続,句点「.」を名詞—数として解析する.これは人間にとっては不可解な解析結果である.しかしながら,ChaSenを利用して,機械処理によって文末語のムードを推定しようとする場合には,このことは問題にはならない.}[38].(4)「可能」(名詞—形容動詞語幹)[155,637].以下では,新しいムードの意味を簡潔に述べる.また,新しいムードの理解を助けるために,文末語を文例とともに示す.文例中の下線付き単語が文末語である.文末語は,本論文で実際に分析対象としたものである.\InHone{(1)}\textgt{陳述}:ただ単に情報を伝えるだけ.〈文例1〉これが私の\ul{青写真}.〈文例2〉信号は,あのとき\ul{赤}.〈文例3〉大事なのは勉強する\ul{こと}.\InHone{(2)}\textgt{肯否}:ある動作や事態を肯定するか否定するかを伝える.〈文例1〉それは\ul{あかん}.〈文例2〉サボリも\ul{ありあり}.〈文例3〉卒業は\ul{無理}.\InHone{(3)}\textgt{挨拶}:友好的な気持ちを表す.〈文例1〉\ul{メリークリスマス}.〈文例2〉かっちゃん,\ul{久し振り}.〈文例3〉みんな,\ul{おす}.\InHone{(4)}\textgt{残念}:悔しい気持ちを表す.〈文例1〉失敗したとは,\ul{あいた}.〈文例2〉2着とは\ul{惜しい}.〈文例3〉まじ,\ul{凹む}.\InHone{(5)}\textgt{非難}:過失,欠点などを責めとがめる気持ちを表す.〈文例1〉あいつは\ul{浅はか}.〈文例2〉とっちゃん,\ul{おもろない}.〈文例3〉やっぱり奴は\ul{みっともない}.\InHone{(6)}\textgt{賛辞}:褒め言葉を述べる.〈文例1〉めでたし,\ul{めでたし}.〈文例2〉合格するとは\ul{立派}.〈文例3〉おかんは,\ul{すっごい}.\InHone{(7)}\textgt{謝罪}:罪や過ちを詫びる気持ちを表す.〈文例1〉なんとも,\ul{かたじけない}.〈文例2〉まだ生きてます,\ul{恥ずかしながら}.〈文例3〉ほんとに,\ul{悪しからず}.\InHone{(8)}\textgt{感謝}:ありがたく感じる気持ちを表す.〈文例1〉皆様に\ul{多謝}.〈文例2〉皆さんの\ul{お陰さま}.〈文例3〉どうも,\ul{おおきに}.\InHone{(9)}\textgt{可能}:ある動作の実行が可能であること,あるいは,ある事態の成立が可能であることを伝える.〈文例1〉入ることは\ul{可能}.〈文例2〉入室\ul{可}.〈文例3〉登校は\ul{可}。\InH{(10)}\textgt{歓喜}:喜びの気持ちを表す.〈文例1〉くじやって,なんと\ul{大当たり}.〈文例2〉今日の気分は\ul{上々}.〈文例3〉採用だ,\ul{よっしゃ}.\InH{(11)}\textgt{感心}:深く感じて心を動かされたということを伝える.〈文例1〉満点をとったとは,\ul{さすが}.〈文例2〉合格したのか,\ul{ふうん}.〈文例3〉一人でやったなんて,\ul{へええ}.\InH{(12)}\textgt{叫声}(きょうせい):叫び声に匹敵する言葉を述べる.〈文例1〉蜘蛛がいたんだ,\ul{ワーッ}.〈文例2〉財布落としちまった,\ul{ガーン}.〈文例3〉明日までにやるのか,\ul{ひゃー}.\InH{(13)}\textgt{自聞}(じぶん):自分自身への疑いの気持ちを表したり,ある動作を開始する時に自分に言い聞かせる言葉を述べる.〈文例1〉こんな時間に腹がすくなんて,\ul{はて}.〈文例2〉起きる時刻だし,\ul{さて}.〈文例3〉\ul{よっこらしょ}.\InH{(14)}\textgt{擬音擬態}:擬音語や擬態語を述べる.〈文例1〉最近仲良しこよしで\ul{ウキウキ}.〈文例2〉なんと仕事中に\ul{うとうと}.〈文例3〉とにかく部屋は,\ul{がらん}.\InH{(15)}\textgt{逆接}:先行する言明について,それとの対比,それへの反対,それの否定,それから予想される事態や動作の否定,あるいはその話題に関連した対比的な評価というような,対立する何かを述べたいことを伝える.対比的な評価の例は,「彼女は綺麗だが.」における文末語「だが」が,彼女という話題に関連して「おっちょこちょいでもある.」などの発言を予想させる場合である.〈文例1〉みんな,勉強はする\ul{が}.〈文例2〉あいつ,バカはする\ul{まいが}.〈文例3〉あいつ,今夜はここにい\ul{ねーずが}.\InH{(16)}\textgt{順接}:先行する言明を前提にして何かを続けて述べたいことを伝える.〈文例1〉ノートをコピ\ul{るなら}.〈文例2〉リハビリする\ul{につれて}.〈文例3〉私はもう若くはなく,\ul{したがって}.\InH{(17)}\textgt{並立}:先行する言明に並立させて何かを述べたいことを伝える\footnote{「並立」のムードは通常の文には現れにくいが,日記などの表題において出現する.}.〈文例1〉祝卒業\ul{および}...〈文例2〉彼はカツ丼を,\ul{一方}...〈文例3〉参院選圧勝\ul{ならびに}...\InH{(18)}\textgt{選択}:明示した選択肢以外にも選択肢があることを伝える.〈文例1〉生きるべきか,\ul{それとも}.〈文例2〉飲み物はコーヒーでもよし,\ul{何でも}.〈文例3〉デートの時は,映画\ul{など}.\InH{(19)}添加:先行する言明に続いて,それに関連する何かを付け加えたいことを伝える.〈文例1〉ドアを開けてもいいよ,\ul{ただし}.〈文例2〉あそこに行けば星が見える,\ul{しかも}.〈文例3〉君が悪いと思うんだよね,\ul{なぜなら}.\InH{(20)}転換:話題を変更したいことを伝える.〈文例1〉今食べたとこ,\ul{そういえば}.〈文例2〉別れる気はないし,\ul{てか}.〈文例3〉それはいいとして,\ul{取りあえず}.\InH{(21)}意外:期待したことが達成されなかったことに対する不満,期待していなかったことが達成されたことに対する驚き・喜びの気持ちを表す.〈文例1〉君がいるとは\ul{もっけの幸い}.〈文例2〉今日は誕生日だっけか,\ul{あれれ}.〈文例3〉なんとなんと,\ul{あんぐり}.\InH{(22)}強調:伝えたいことに,強い調子を加味する.〈文例1〉受付\ul{を通してね}.〈文例2〉そのうちミス\ul{るだろ}.〈文例3〉なん\ul{でやねん}.\InH{(23)}確認:伝えたいことを相手が理解していることを確かめる.〈文例1〉ビールが飲みたいもんだよ,\ul{おい}.〈文例2〉それはさっき言っ\ul{たろ}.〈文例3〉学校へ行く\ul{よね}. \section{既知ムードとの比較} 本節では,標準とした益岡ら(益岡,田窪1999)によるムードおよび以上のように収集した新しいムード(以下しばしば,単に「新しいムード」と略称する)と,加藤ら(加藤,福地1989)および仁田(仁田1999)によって提示されている既知ムードとの比較を行う.比較によって,加藤らによるムード,および仁田によるムードのなかから,本論文では収集できなかったムード\footnote{益岡らによるムードと新しいムードが本論文で収集したムードであり,それ以外は本論文で収集できなかったムードである.なお,益岡らによる「概言」というムードにはいくつかの下位ムードがある.それら下位ムードは明示的に収集してはいないが,「概言」として一括して収集したものとする.}を明らかにする.また,新しいムードのうち,すでに提示されているものを明らかにする.加藤らはまず,ムードを表出する助動詞的表現(助動詞およびそれに準じる表現)に限定し,それらを大きく「主観的推量」(自分自身の経験,直観あるいは他から得た情報に基づいて,話し手が推量した結果を主観的に述べるムード)と「推論ないしは背景の説明」(ある事柄の背景やその意義づけ,評価などを示し,相手に理解させることを主眼とするムード)という2つの類に分けている.そして各類に含まれる助動詞的表現の意味を説明している.我々は,加藤らが取り上げた助動詞的表現の類ごとに,各表現に対して彼らが与えている意味説明を解釈し,各表現が本論文で収集したムードのどれに相当するかを考察した.その結果,以下のような知見を得た.\InHone{(1)}\textgt{主観的推量}:この類に含まれる助動詞的表現に関する知見を以下に示す.本論文で収集できなかったムードはあるが,新しいムードに相当するものはない.\InH{(1-1)}「ダロウ」:これは益岡らによる「概言」の下位ムード「断定保留」に相当する.\InH{(1-2)}「ソウダ」:これは益岡らによる「概言」の下位ムード「伝聞」あるいは「様態」に相当する.\InH{(1-3)}「ヨウダ」:これは益岡らによる「比況」,あるいは「概言」の下位ムード「証拠のある推定」に相当する.\InH{(1-4)}「ラシイ」:これは益岡らによる「概言」の下位ムード「証拠のある推定」に相当する.加藤らは,この表現が「彼の態度は,いかにも教師らしい」というように「ふさわしさ」も表出すると指摘している.「ふさわしさ」というムードは本論文では収集できなかったものである.\InH{(1-5)}「マイ」:これは益岡らによる「意志」,あるいは「概言」の下位ムード「断定保留」に相当する.\InH{(1-6)}「カモシレナイ」:これは益岡らによる「概言」の下位ムード「可能性」に相当する.\InH{(1-7)}「ニチガイナイ」:これは益岡らによる「概言」の下位ムード「直感的確信」に相当する.\InHone{(2)}\textgt{推論ないしは背景の説明}:この類に含まれる助動詞的表現に関する知見を以下に示す.本論文で収集できなかったムードがあり,さらに新しいムードに相当するものもある.\InH{(2-1)}「ハズダ」:これは益岡らによる「概言」の下位ムード「証拠のある推定」に相当する.\InH{(2-2)}「コトニナル」:これは益岡らによる「概言」の下位ムード「証拠のある推定」に相当する.\InH{(2-3)}「ワケダ」:これは益岡らによる「説明」に相当する.\InH{(2-4)}「モノダ」:これは益岡らによる「当為」あるいは「説明」だけでなく,新しいムード「感心」あるいは「意外」に相当する.加藤らは,例えば「子供というのは,(中略),急に熱を出したりするものだ」のように,この表現が「ものの本来の性質・一般的性向」も表出すると指摘している.「ものの本来の性質・一般的性向」というムードは本論文では収集できなかったものである.\InH{(2-5)}「コトダ」:これは益岡らによる「当為」,あるいは新しいムード「意外」に相当する.\InH{(2-6)}「ノダ」:これは益岡らによる「説明」に相当する.\InH{(2-7)}「トコロダ」:加藤らは,継続中の動作・出来事について,直前にくる動詞の形により,この表現が「継続」,「未然」,「既然」を表出すると指摘している.これらは本論文では収集できなかったムードである.一方,仁田は述語を有するいわゆる述語文を中心に,日本語のモダリティを考察している.彼は,文は大きく質的に異なった2つの層,つまり「言表事態」(話し手が現実との関わりにおいて描き取った一片の世界,文の意味内容のうち客体的な出来事や事柄を表した部分)と「言表態度」(話し手の言表事態を巡っての把握の仕方や発話・伝達的な態度のあり方を表した部分)から成り立っているとし,モダリティを大きく「言表事態めあてのモダリティ」(発話時における話し手の言表事態に対する把握の仕方の表し分けに関わる文法表現)と「発話・伝達のモダリティ」(発話時における話し手の発話・伝達的態度のあり方の表し分けに関わる文法表現)の2種に分けている.そして,それぞれのモダリティについて,下位のモダリティを提示している.我々は,それらのモダリティに関する記述内容を解釈し,各モダリティが本論文で収集したムードのどれに相当するかを考察した.その結果,以下のような知見を得た.\InHone{(a)}\textgt{発話・伝達のモダリティ}:この種の下位モダリティに関する知見を以下に示す.本論文で収集できなかったムードはあるが,新しいムードに相当}するものはない.\InH{(a-1)}「命令」:これは益岡らによる「命令」に相当する.\InH{(a-2)}「依頼」:これは益岡らによる「依頼」に相当する.\InH{(a-3)}「禁止」:これは益岡らによる「禁止」に相当する.\InH{(a-4)}「誘いかけ」:これは益岡らによる「勧誘」に相当する.\InH{(a-5)}「意志」:これは益岡らによる「意志」に相当する.\InH{(a-6)}「希望」:これは話し手の話し手自身あるいは聞き手への願いであり,益岡らによる「願望」(自分自身の動作・状態を望む場合,他人の動作・状態を望む場合)に相当する.\InH{(a-7)}「願望」:これも話し手の願いであり,その願いを遂行する聞き手が不在である点で希望と区別されているに過ぎず,益岡らによる「願望」(特に,「早く月が出てほしい.」のような,ある事態の成立を望む場合)に相当する.\InH{(a-8)}「現象描写」:これは,話し手の感覚を通して捉えられたある時空のもとに存在する現象を,主観を加えないで述べるものである.「主観を加えない」ということから新しいムード「陳述」に相当しそうであるが,「信号が赤だ(である,です)。」のような述語文に対して,仁田はこのムードを提示している.したがって,この「現象描写」は文末語の表現形式からすれば,益岡らによる「確言」に相当すると考えるのが妥当である.\InH{(a-9)}「判定」:これは,益岡らによる「確言」と「概言」を内包し,双方とは異なるムードである.ただし,ムードとして未分化であり有用とは考えられないため,このムードを,本論文で収集できなかったムードとしては取り上げないこととする.\InH{(a-10)}「疑い」:これは,益岡らによる「疑問」(特に,「自問型の疑問」)に相当する.\InH{(a-11)}「判断の問いかけ」:これは,言表事態の成立について判定を下せないため,判定を下すために必要な情報を聞き手に問いかけるもので,益岡らによる「疑問」(特に,相手に未知の部分の情報を求める「質問型の疑問」)に相当する.ここで,「未知の部分の情報」を「判定を下すために必要な情報」と具体化しているという点で,これは「質問型の疑問」に内包される下位ムードであるとも考えられる.「判断の問いかけ」については,益岡らによる「疑問」の説明において具体的に言及されていないことから,本論文で収集できなかったムードであると言える.\InH{(a-12)}「情意の問いかけ」:これは,言表事態に対する聞き手の心的態度が不明であることから,それを問いかけるもので,益岡らによる「疑問」(特に,相手に未知の部分の情報を求める「質問型の疑問」)に相当する.ただし「情意の問いかけ」についても,「判断の問いかけ」と同様の理由から,本論文で収集できなかったムードであると言える.\InHone{(b)}\textgt{言表事態めあてのモダリティ}:この種の下位モダリティとして,「意志」,「希望」,「願望」,「話し手の把握・推し量り作用を表すもの」,「推し量りの確からしさを表すもの」,「徴候の存在のもとでの推し量りを表すもの」,「推論の様態に関わるもの」が提示されている.「意志」,「希望」,「願望」に関する知見についてはすでに言及した.その他の下位モダリティについては以下の通りであり,本論文で収集できなかったムードも,新しいムードに相当するものもない.\InH{(b-1)}「話し手の把握・推し量り作用を表すもの」:これは,言表事態に対する話し手の把握・推し量り作用を表すもので,「〜スル」形の「断定」,「〜スルダロウ」形,「〜スルマイ」形の「推量」がある.「断定」は益岡らによる「確言」に相当し,「推量」は「概言」(特に,その下位ムードである「断定保留」)に相当する.このことから,これは益岡らによる「確言」と「概言」を内包し,双方とは異なるムードである.ただし,ムードとして未分化であり有用とは考えられないため,このムードを,本論文で収集できなかったムードとしては取り上げないこととする.\InH{(b-2)}「推し量りの確からしさを表すもの」:これは,言表事態がどれ位の確からしさもって成立するのかを表すもので,「〜ニチガイナイ」形の「必然性」,「〜カモシレナイ」形の「可能性」がある.「必然性」は益岡らによる「概言」の下位ムード「直感的確信」に相当し,「可能性」は「概言」の下位ムード「可能性」に相当する.いずれにしても「概言」に相当する.\InH{(b-3)}「徴候の存在のもとでの推し量りを表すもの」:これは存在する徴候から引き出された推し量りを表すもので,代表的な表現形式として「ラシイ」,「ヨウダ」,「ミタイダ」,「ソウダ」がある.これらは益岡らによる「概言」の下位ムード「証拠のある推定」に相当する.\InH{(b-4)}「推論の様態に関わるもの」:これは言表事態がある推論によって引き出されたものであることを表すもので,代表的な表現形式として「ハズダ」がある.これは益岡らによる「概言」の下位ムード「証拠のある推定」に相当する.以上をまとめると,加藤らの「ふさわしさ」,「ものの本来の性質・一般的性向」,「継続」,「未然」,「既然」というムード,仁田の「判断の問いかけ」,「情意の問いかけ」というムードは,本論文では収集できなかった.一方,益岡らのムード体系を標準にして本論文で新しいムードとして収集した「感心」と「意外」は,加藤らによってすでに提示されていた.この結果,本論文で新しいムードとして収集した23種類のムードのうち,本当の意味で新しいと言えるムードは「感心」と「意外」を除く21種類であることが分かった. \section{ムード体系の拡充} 本節では,より網羅性のあるムード体系の構成について,ひとつの案を示す.それは,益岡ら(益岡,田窪1999)のムード体系を,本論文で収集した新しいムードと,加藤ら(加藤,福地1989)のムード,仁田(仁田1999)のムードのうち本論文では収集できなかったムードを加えて拡充したものである.拡充したムード体系を表4に示す.\begin{table}[b]\caption{拡充したムード体系}\input{02table4.txt}\end{table}ここで,本論文で収集できなかった加藤らの「ふさわしさ」,「ものの本来の性質・一般的性向」,「継続」,「未然」,「既然」というムードは,本論文で収集したムードと比べて明らかに異質であることから,拡充したムード体系に採用した.一方,本論文で収集できなかった仁田の「判断の問いかけ」,「情意の問いかけ」というムードは,益岡らによるムード「疑問」の下位ムードとして位置づけられる.これらについては,拡充したムード体系に明示的に採用するよりも,益岡らによるムード「概言」の説明と同様に,ムード「疑問」の説明に下位ムードとして明記する方が適当と考えた.結果として,43種類のムードからなる拡充したムード体系を構成した.言うまでもなく,この拡充したムード体系は,既知のムードだけでなく,多種多様な日本語ウェブページを網羅し,それ故に多種多様な文を網羅していると考えられるNTCIR日本語ウェブページから収集した本当の意味での新しいムードを21種類含んでいる.それらは全体のほぼ半分を占める.そのため,拡充したムード体系は日本語ウェブページをも対象にした今後の言語情報処理の基礎として役立つものと考えられる. \section{むすび} 本論文では,極めて多様性の高いNTCIR日本語ウェブページに含まれる多数の日本語文から,ムードを収集する方法を詳説した.収集方法の基本的な手順は,(1)日本語文をChaSenによって単語に分割し,(2)様々な種類のムードを表出すると予想される文末語に着目し,(3)益岡ら(益岡,田窪1999)のムード体系を標準として利用し,文末語に手作業でムードを割り当てる,というものである.20種類程度の新しいムードを収集することができたという点で,その方法は効果的であったと考えられる.また,収集したムードと,加藤ら(加藤,福地1989)および仁田(仁田1999)によって提示されている既知ムードとの比較を行った.これによって,NTCIR日本語ウェブページからは収集できなかった既知ムードがいくつか存在していること,新しく収集した23種類のムードのうち2種類は既知ムードとして存在していること,を明らかにした.そして,比較によって得た知見をもとに,より網羅性のあるムード体系の構成について一案を示した.それは,既知ムードと新しいムードとを併せて43種類のムードから構成したものである.約半分が,NTCIR日本語ウェブページから収集した既知ではないムードであり,日本語ウェブページをも対象にした今後の言語情報処理の基礎として役立つものと考えられる.本論文は,日本語ムード辞書を整備するための基礎を与えているとも言える.工学的に望まれる日本語ムード辞書にはいろいろな様式が考えられる.もっとも簡潔な辞書は,実際の日本語ウェブページに出現する文末語とそのPOS,それが表出し得るムードを1つのレコードとしてエントリしたものである.これにより,分析対象とするテキスト内の各文から文末語とそのPOSを抽出し,辞書を参照して,その文末語が表出し得るムードを分析できる.あるいは,所望のムードを表出し得る文末語を有する文の抽出も可能であろう.このような辞書を整備するための基礎として,できるだけ網羅性の高いムード体系が必須である.7節で提案したムード体系はそうしたものとして役立つと考えられる.そのようなムード体系を利用して,なんらかの日本語ムード辞書を整備していくことは今後の課題である.\acknowledgmentNTCIR-3WEBは国立情報学研究所の許諾を得て使用させて頂きました.この場を借りて深謝いたします.また,ムード収集方法について有益な助言をして頂いた土井晃一工学博士に感謝します.さらに本論文の完成度を高めるために非常に参考となるコメントを,査読者から多く頂きました.この場を借りてお礼申し上げます.\bibliographystyle{jnlpbbl_1.3}\begin{thebibliography}{}\item{}乾孝司,奥村学(2006).``テキストを対象とした評価情報の分析に関する研究動向.''自然言語処理,{\Bbf13}(3),pp.\201--241.\item{}乾裕子,内元清貴,村田真樹,井佐原均(1998).``文末表現に着目した自由回答アンケートの分類.''情報処理学会自然言語処理研究会報告,{\Bbf98}(99),pp.\181--188.\item{}加藤泰彦,福地務(1989).テンス・アスペクト・ムード.荒竹出版.\item{}国立国語研究所(2004).分類語彙表増補改訂版—データベース.国立国語研究所.\item{}仁田義雄(1999).日本語のモダリティと人称.ひつじ書房.\item{}野田尚史(1995).``文の階層構造からみた主題ととりたて.''益岡隆志,野田尚史,沼田善子(編)「日本語の主題と取り立て」,pp.\1--35,くろしお出版.\item{}益岡隆志,田窪行則(1999).基礎日本語文法.くろしお出版.\item{}横野光(2005).``情緒推定のための発話文の文末表現の分類.''情報処理学会自然言語処理研究会報告,{\Bbf2005}(117),pp.\1--6.\end{thebibliography}\section*{付録:益岡らのムード体系}益岡ら(益岡,田窪1999)のムード体系について,以下に簡単な説明を示すとともに,括弧内に文例を示す.文例は,概ね彼らが用いているものを参考にした.\InHone{(a)}\textgt{確言}:話し手が真であると信じていることを相手に知らせたり,同意を求めたりする.(変な音がする.)\InHone{(b)}\textgt{命令}:相手が意志的に制御できる動作を,相手に強制する.(早く勉強すること.)\InHone{(c)}\textgt{禁止}:ある動作をしないこと,ある事態が生じないように努力することを命令する.(こっちに来るな.)\InHone{(d)}\textgt{許可}:ある動作が他の動作と同じく容認可能であることを相手に指摘する.(食べてもいいよ.)\InHone{(e)}\textgt{依頼}:相手の意志を尊重して,ある動作をするよう頼む.(水をまいておいてちょうだい.)\InHone{(f)}\textgt{当為}:ある事態が望ましいとか,必要だ,というように事態の当否を述べる.(貿易黒字を減らすべきだ.)\InHone{(g)}\textgt{意志}:ある動作を行う意志を表す.(先に行きます.)\InHone{(h)}\textgt{申し出}:相手に対する自分の動作を申し出る.(荷物を持ちましょう.)\InHone{(i)}\textgt{勧誘}:共同動作の申し出を表す.(出かけましょう.)\InHone{(j)}\textgt{願望}:事態の実現を望んでいることを表す.このムードには,自分自身の動作・状態を望む場合,他人の動作・状態を望む場合,ある事態の成立を望む場合がある.(宇宙飛行士になりたい.)\InHone{(k)}\textgt{概言}:真とは断定できない知識を述べる.概言は下位ムードとして,「断定保留」(「だろう,まい」),「証拠のある推定」(「らしい,ようだ,みたいだ,はずだ」),「可能性」(「かもしれない」),「直感的確信」(「にちがいない」),「様態」(「そうだ」),「伝聞」(「そうだ,という,とのことだ」)を内包するが\footnote{「断定保留」など下位ムード名称の後に,括弧つきで代表的な表現形式を例示した.},本論文ではこれらを一括して「概言」としている.(来年はきっと不景気になるだろう.)\InHone{(l)}\textgt{説明}:ある事態の説明として,別の事態を述べる.((遅かったじゃないですか.)渋滞に巻き込まれたんです.)\InHone{(m)}\textgt{比況}:ある事態を性質の類似した別の事態で特徴づける.(この絵は写実的で,写真のようだ.)\InHone{(n)}\textgt{疑問}:話し手が相手に未知の部分の情報を求めたり(質問型の疑問),自分自身に問いかけたりする(自問型の疑問).本論文では,質問型も自問型も一括して「疑問」としている.(きのう,誰に会ったのですか.)\InHone{(o)}\textgt{否定}:対応する肯定の事態や判断が成り立たないことを意味する.(雨が降らなかった.)\begin{biography}\bioauthor{大森晃}{1985年広島大学大学院工学研究科博士課程後期修了(システム工学専攻).工学博士.1982年9月より1年間ケースウェスタンリザーブ大学客員研究員.1985年4月より富士通国際情報社会科学研究所に勤務.1993年10月より東京理科大学工学部第二部経営工学科助教授(現在,准教授).ソフトウェア工学,品質管理,言語情報処理,教育工学などの研究に従事.IEEEComputerSociety,ACM,日本品質管理学会,情報処理学会,電子情報通信学会,言語処理学会各会員.}\end{biography}\biodate\end{document}
V21N06-04
\section{はじめに} 日本語形態素解析における誤り要因の1つに辞書に含まれない語・表記の存在がある.本論文では形態素解析で使用する辞書に含まれない語・表記をまとめて未知語と呼ぶ.形態素解析における未知語は表\ref{Table::UnknownWordClassification}に示すようにいくつかのタイプに分類することができる.まず,未知語は既知語から派生したものと,既知語と直接関連を持たない純粋な未知語の2つに大きく分けられる.従来の日本語形態素解析における未知語処理に関する研究は,事前に未知語をコーパスから自動獲得する手法\cite{Mori1996s,Murawaki2008}と,未知語を形態素解析時に自動認識する手法\cite{Nagata1999,Uchimoto2001,Asahara2004c,Azuma2006,Nakagawa2007a}の2つに大きく分けることができるが,いずれの場合も網羅的な未知語処理が目的とされる場合が多く,特定の未知語のタイプに特化した処理が行われることは稀であった.\begin{table}[t]\caption{形態素解析における未知語の分類}\label{Table::UnknownWordClassification}\input{04table01.txt}\end{table}しかし,未知語はタイプにより適切な処理方法や解析の難しさは異なっていると考えられる.たとえば既知語から派生した表記であれば,それを純粋な未知語として扱うのではなく既知語と関連付けて解析を行うことで純粋な未知語よりも容易に処理することが可能である.また,一般的に純粋な未知語の処理は,単独の出現から正確に単語境界を推定するのは容易ではないことから,コーパス中の複数の用例を考慮し判断する手法が適していると考えられるが,オノマトペのように語の生成に一定のパターンがある語は,生成パターンを考慮することで形態素解析時に効率的に自動認識することが可能である.さらに,\ref{SEC::RECALL}節で示すように,解析済みブログコーパス\cite{Hashimoto2011}で複数回出現した未知語で,先行手法\cite{Murawaki2008}やWikipediaから得た語彙知識でカバーされないものを分析した結果,既知語から派生した未知表記,および,未知オノマトペに対する処理を行うことで対応できるものは異なり数で88個中27個,出現数で289個中129個存在しており,辞書の拡張などで対応することが難しい未知語の出現数の4割程度を占めていることが分かった.そこで本論文では既知表記から派生した未知表記,および,未知オノマトペに焦点を当て,既知語からの派生ルールと未知オノマトペ認識のためのパターンを形態素解析時に考慮することで,これらの未知語を効率的に解析する手法を提案する. \section{日本語形態素解析} \subsection{日本語形態素解析の一般的な流れ}日本語形態素解析では,形態素辞書の存在を前提とした手法が一般的に用いられてきた.以下に一般的な日本語形態素解析の手順を示す.\begin{description}\item[手順1]文中の各位置から始まる可能性のある形態素を事前に準備した辞書から検索\item[手順2]形態素の候補を列挙した形態素ラティスを作成\item[手順3]形態素ラティスから文として最も確からしい形態素の並びを決定\end{description}たとえば以下の文が入力された場合,図\ref{Figure::lattice}に示す形態素ラティスが作られ,最終的に太線で記されている組合せに決定される.\begin{figure}[b]\begin{center}\includegraphics{21-6ia4f1.eps}\end{center}\caption{形態素ラティスの例}\label{Figure::lattice}\end{figure}\begin{exe}\ex{父は日本人。}\end{exe}手順1において,文中の各位置から始まる可能性のある形態素を探索する際にはトライ木に基づく高速な探索手法が一般的に用いられる.また,手順3における最尤パスの選択は各形態素ごとに定義された生起コスト,および,各連接ごとに定義された連接コストに基づいて行われる.パス全体のコストは,パスに含まれる形態素の生起コスト,および,それらの連接コストを加算することにより計算され,コストが小さいほど確からしい形態素の並びであることを意味する.コストの設定方法としては人手で行う方法\cite{Juman1994}や,機械学習に基づく手法\cite{Asahara2000,Kudo2004}があるが,最尤パスの探索にはいずれもViterbiアルゴリズムが用いられる.\subsection{形態素解析における未知語処理}日本語形態素解析における未知語処理に関する研究は多く行われてきた.代表的な手法として,事前に未知語をコーパスから自動獲得する手法\cite{Mori1996s,Murawaki2008}と,未知語を形態素解析時に自動認識する手法\cite{Nagata1999,Uchimoto2001,Asahara2004c,Azuma2006,Nakagawa2007a}の2つが挙げられる.前者の手法は後者の手法と比べ,ある1つの未知語候補に対しコーパス中での複数の用例を考慮することができるため,単独の用例では判別の難しい未知語にも対処できるという特長がある.一方,後者の手法は字種や前後の形態素候補を手掛かりとして統計や機械学習に基づく未知語モデルを構築する手法であり,コーパス中に出現しなかった未知語についても認識が可能という特長がある.しかしながら,これらの研究はいずれも基本的に網羅的な未知語処理を目的としており,未知語タイプごとの特徴はあまり考慮されていない.特定の未知語,特にくだけたテキストに出現する未知語に特化した研究としては,風間ら\cite{Kazama1999},Kacmarcikら\cite{Kacmarcik2000},池田ら\cite{Ikeda2010},工藤ら\cite{Kudo2012},斉藤ら\cite{Saito2013,Saito2014}の研究がある.風間ら\citeyear{Kazama1999}は,Web上のチャットで使用されるようなくだけたテキストの解析を目的とし,品詞bi-gramモデルに基づく確率的形態素解析器をベースとし,文字の挿入や置換が直前の文字や元の文字に依存していると仮定しそれを考慮に入れるように拡張することで,文字の挿入や置換に対して頑健な形態素解析システムの構築を行っている.しかし,池田ら\citeyear{Ikeda2010}が,風間らの手法を参考に辞書拡張ルールを作成し,200万文のブログ文書に適用して単語区切りに変化が見られた53,488文をサンプリングし評価したところ,37.2\%の文はルール適用前と比べて単語区切りが悪化したと報告していることから,風間らの手法はオンラインチャット,および,それに類するテキストにのみ有効な手法であると推察される.本研究で提案する既知語から派生した未知語処理手法も,基本的に風間らと同じくルールに基づくものであるが,未知語のタイプに応じた効率的な辞書の検索を行うことで,高い精度を保ちつつ高速な解析を実現している点に特長がある.Kacmarcikら\citeyear{Kacmarcik2000}は形態素解析の前処理としてテキスト正規化ルールを適用する手法を提案している.池田ら\citeyear{Ikeda2010}はくだけた表現を多く含むブログなどの文書を入力とし,くだけた表現の少ない新聞などの文書からくだけた表現の修正候補を検索することで修正ルールを自動的に生成し,さらに生成した修正ルールを3つの言語的な指標によりスコアリングすることで文脈に適した修正ルールを選択する手法を提案している.これらの研究ではいずれも前処理として入力テキストを正規化・修正しているのに対し,本研究では形態素解析と並行して未知語処理のためのルール・パターンを適用する.このような設計により,従来手法では処理が難しかった連濁化現象により初音が濁音化した語の認識も可能となる.工藤ら\citeyear{Kudo2012}は,ひらがな交じり文が生成される過程を生成モデルでモデル化し,そのパラメータを大規模WebコーパスおよびEMアルゴリズムで推定することで,Web上のくだけたテキストに頻出するひらがな交じり文に頑健な形態素解析手法を提案している.工藤らの手法は必ずしもひらがな交じり文にのみ有効な手法ではなく,本研究で対象とする小書き文字や長音記号を用いた表現に適用することも可能であると考えられるが,本研究ではこれらの表現に対してはコーパスを用いた学習を行わなくても十分に実用的な精度で処理を行うことが可能であることを示す.斉藤ら\citeyear{Saito2013,Saito2014}はソーシャルメディア上のテキストから抽出した崩れ表記に対し正規表記を付与した正解データを用いて文字列レベルの表記の崩れパターンを自動抽出する手法を提案している.これに対し,本研究では人手でパターンを与える.正解データを用いてパターンを自動抽出する手法の利点としてはパターンを人手で作成する必要がないことが挙げられるが,人が見た場合に明らかなパターンがあった場合でも一定規模の正解データを作成する必要があり,どちらの手法が優れているかは崩れ表記のタイプにより異なると考えられる.教師なし単語分割\cite{Goldwater2006}や形態素解析\cite{Mochihashi2009}に関する研究もテキストに出現する未知語処理の1つのアプローチとみなすことができる.また,くだけたテキストに出現する表記バリエーションに対処する方法として,形態素解析に使用する辞書にこれらの表記バリエーションを追加するという方法も考えられる.たとえば,連濁による濁音化も含む多くの表記バリエーションに対応した形態素解析用の辞書としてUniDic\cite{Den2007}があり,このような辞書を用いることで未知語の数を減らすことが可能であると考えられる.しかし,長音記号は任意の数を挿入することが可能であることからも明らかなように,表記バリエーションの種類は無数に考えられ,すべてを辞書に含めることは不可能である.また,連濁により濁音化した形態素を高精度に認識するためには,直前の形態素の品詞等を考慮する必要があることから,連濁の認識を辞書の改良だけで行うことは難しいと考えられる. \section{提案手法} \label{SEC::PRO}\subsection{提案手法の概要}本論文では主に形態素ラティスの生成方法の改良により,形態素解析で使用する辞書に含まれる語から派生した未知表記,および,未知オノマトペを対象とした日本語形態素解析における効率的な未知語処理手法を提案する.具体的には既存の形態素解析システムに,既知語から派生した未知表記に相当する形態素ノードを生成するためのルール,および,未知オノマトペに相当する形態素ノードを生成するためのパターンを導入することで,これらのタイプの未知語の自動認識を行う.たとえば,下記のような文が入力された場合,図\ref{Figure::oisii}で実線で示したノード・経路に加え,新たに破線で示した未知語に相当するノード,および,それを経由する経路を追加し,新たに生成された形態素ラティスから最適な経路を探索することで,下記の文の正しい形態素解析を実現する.\begin{figure}[t]\begin{center}\includegraphics{21-6ia4f2.eps}\end{center}\caption{提案システムの概要}\label{Figure::oisii}\end{figure}\begin{exe}\ex{ぉぃしかったでーーす。}\end{exe}本研究では,比較的単純なルールおよびパターンのみを考慮し,さらに,辞書を用いた形態素検索の方法を工夫することで,解析速度を大きく低下させることなく,高精度に一部の未知語の処理が可能であることを示すことを主な目的とする.このため,本研究で使用するルールやパターン,および,置換ルールやオノマトペ認識の対象とする文字種の範囲は,現象ごとにコーパスを分析した結果に基づき,解析結果に大きな悪影響が出ない範囲で出来る限り多くの未知語を解析できるよう人手で定めたものを使用する\footnote{具体的には,タイプごとに10程度の代表的な表現を列挙し,それらの用例を検索エンジン基盤TSUBAKI\cite{Shinzato2008}で使用されているWebページから数例ずつ収集した上で,できるだけ多くの用例が正しく解析できるように使用するルール,パターン,文字種の調整を行った.}.同様に,各ルールやパターンを適用するためのコストに関しても,機械学習等により最適な値を求めることは行わず,人手で調整した値を使用し,ベースラインとする形態素解析システムには,各形態素の生起コストや連接コストの調整を人手で行っているJUMAN\footnote{JUMANVer.~5.1:http://nlp.ist.i.kyoto-u.ac.jp/nl-resource/juman/juman-5.1.tar.gz}を用いる.\subsection{既知形態素から派生した未知語の自動認識}\label{SUBSEC::PRO}\subsubsection{対象とする未知語}本研究では既知形態素から派生した未知語として以下の5つのタイプの未知語を扱う.\begin{enumerate}\item連濁により濁音化した語\item長音記号による置換を含む語\item小書き文字による置換を含む語\item長音記号の挿入を含む語\item小書き文字の挿入を含む語\end{enumerate}以下では,連濁による濁音化,長音記号および小書き文字による置換,長音記号および小書き文字の挿入の3つに分けて,対象とする未知語の詳細,および,それぞれどのようにノードを追加するかについて詳述する.\subsubsection{連濁による濁音化}連濁とは複合語の後部要素の初頭にある清音が濁音に変化する現象のことを指す.連濁現象により濁音化した形態素表記の多くは辞書に登録されていないため,形態素解析において未知語として扱われる場合が多い.たとえば以下のような文が入力された場合,「こたつ」という表記が辞書に含まれていたとしても,「ごたつ」が辞書に登録されていないと「ごたつ」を1形態素として正しく認識することができない.\begin{exe}\ex{掘りごたつ。}\end{exe}そこで,初頭が清音である名詞については,初頭の清音が濁音化したものも形態素候補として形態素ラティスに追加する.この際,1つの元となる形態素に対し濁音化した形態素はたかだか1つであることから,濁音化した形態素をあらかじめ形態素辞書に追加することにより,通常のトライ木に基づく形態素の探索の枠組みで濁音化した形態素候補をラティスに追加する.ただし,連濁は複合語の後部要素にのみ生じる現象であり,さらに,連濁は複合語の後部要素であれば必ず起こるわけではなく表\ref{Table::Stop_Rendaku}に示すような連濁の発生を抑制する要因が知られていることから以下の制約を課す.\begin{table}[b]\caption{連濁の発生を抑制する要因}\label{Table::Stop_Rendaku}\input{04table02.txt}\end{table}\begin{itemize}\item直前の形態素が名詞,動詞の連用形,名詞性接尾辞の場合のみ濁音化したノードを使用\footnote{ただし,直前の形態素が接尾辞以外で平仮名1文字の場合は解析に悪影響を与えることが多かったため,直前の形態素が名詞または動詞連用形であった場合も平仮名1文字である場合は濁音化したノードを使用しないようにした.}\item代表的な表記がカタカナを含む形態素は濁音化の対象としない\footnote{本論文における実験では使用する形態素解析システムJUMANの辞書に含まれている代表表記\cite{Okabe2007}を使用し判定した.ここで代表表記とは,表記揺れに対応するために各語に対して与えられた代表的な表記方法とその読みのペアであり,多くの場合,代表的な表記方法は和語に対しては漢字および平仮名を,漢語に対しては漢字を,外来語に対しては片仮名を用いて表される.}\item形態素がもともと濁音を含んでいる場合は濁音化の対象としない\footnote{ただし,例外である「はしご」については辞書中に濁音化できることを記述し濁音化の対象とした.}\end{itemize}新たに生成された濁音化した形態素の生起コストは,その元となった形態素の生起コストよりも大きく設定した.具体的なコストの設定方法については付録\ref{APPEND::A}に記載した.本研究では,濁音化した形態素をはじめとする未知語の生起コストを通常の形態素の生起コストよりも意図的に大きめに設定している.これは未知語を含む文が新たに正しく解析できるようになることによるユーザの形態素解析システムへの評価の上昇幅よりも,通常解析できることが期待される文が正しく解析できない場合の評価の下落幅の方が大きいと考えたためである.\subsubsection{長音記号・小書き文字による置換}くだけたテキストでは,「おはよー」,「うらやまし〜」や「ぁなた」などのように形態素辞書中に含まれる語表記の一部が長音記号や小書き文字に置換された表現が出現する.このうち長音記号に置換される文字の多くは,「おはよう」の「う」や,「うらやましい」の「い」などのように直前の文字を伸ばした音に類似していると考えられる.そこで長音記号があった場合,入力文字に対し行う通常の形態素の検索に加え,長音記号をその直前の文字に応じて表\ref{Table::ProlongRule}に示す母音文字に置き換えた文字列に対しても形態素の検索を行い,検索された形態素を形態素ラティスに追加する.本研究では長音記号として「ー」と「〜」の2つを扱う.小書き文字があった場合も同様に対応する通常の文字に置き換えた文字列を作成し形態素の検索を行う.本研究では,「ぁ」,「ぃ」,「ぅ」,「ぇ」,「ぉ」,「ヵ」,および「ゎ」を置換対象とし,それぞれ「あ」,「い」,「う」,「え」,「お」,「か」,「わ」に置換する.たとえば「ぉぃしー。」という文があった場合,「おいしい。」という文字列に対しても形態素の検索を行い,新たに検索された形態素を「ぉぃしー」から生成された形態素ラティスに追加する.\begin{table}[b]\caption{直前の文字ごとの長音記号を置き換える母音文字}\label{Table::ProlongRule}\input{04table03.txt}\end{table}この際,長音記号および小書き文字は何らかの文字の置換により出現した場合だけでなく,以下で述べるように挿入された場合もあると考えられる.しかし,事前の分析の結果,同一形態素内で置換されたものと挿入されたものが混じって出現することは相対的に少ないことが分かったため\footnote{解析済みブログコーパス\cite{Hashimoto2011}では,置換と挿入が混在していると考えられる未知語は「あぁー」の1例のみであった.},解析速度への影響を考慮し,これらの未知語は本研究では扱わない.また,長音記号・小書き文字の置換により新たに生成された形態素の生起コストの設定方法は,長音記号・小書き文字の挿入により生成された形態素の生起コストとともに付録\ref{APPEND::B}に記載した.\subsubsection{長音記号・小書き文字の挿入}くだけたテキストでは,「冷たーーーい」や「冷たぁぁぁい」などのように形態素辞書中に含まれる語に長音記号や小書き文字が挿入された表現が出現する.これらの表記において,挿入される文字数は任意であることからこれらの表現をすべて辞書に登録することは難しい.そこで本研究では,長音記号・小書き文字の置換に対する処理と同様に,入力文字列に対し一定の処理を行った文字列に対し形態素の検索を行い,その結果を形態素ラティスに追加することにより,長音記号および小書き文字の挿入に対応する.具体的には,「ー」および「〜」が出現した場合,または,「ぁ」,「ぃ」,「ぅ」,「ぇ」,「ぉ」が出現し,かつ,その直前の文字が小書き文字と同一の母音をもつ平仮名\footnote{本研究では特に断りがない場合,平仮名としてUnicodeの3040〜309Fの範囲を,また,片仮名としてUnicodeの30A0〜30FFの範囲を使用する.}であった場合に,それらを削除した文字列を作成する.たとえば「冷たぁぁーーい。」という文があった場合,「冷たい。」という文字列に対しても形態素の検索を行い,新たに検索された形態素を「冷たぁぁーーい。」から生成された形態素ラティスに追加する.\subsection{未知オノマトペの自動認識}\subsubsection{未知オノマトペのタイプ}オノマトペとは「わくわく」,「しっかり」などのような擬音語・擬声語のことである.日本語では比較的自由にオノマトペを生成できることから特にくだけたテキストでは「ぐじょぐじょ」や「ぐっちょり」などのような辞書に含まれないオノマトペが多く出現する.本研究では多くの未知オノマトペが一定のパターンに従っていることを利用し,特定のパターンに従う文字列をオノマトペの候補とすることで未知オノマトペの自動認識を行う.ここで,オノマトペの品詞としては,副詞,サ変名詞,形容詞などが考えられるが,本研究ではオノマトペが必要以上に細かく分割されるのを防ぐことを主な目的とし,すべて副詞として処理する.以下では「ぐじょぐじょ」などのように反復を含むタイプと,「ぐっちょり」などのように反復を含まないものの2つに分け,それぞれどのようにノードを追加するか詳述する.\subsubsection{反復型オノマトペ}オノマトペの代表的なパターンの1つに「ぐじょぐじょ」や「うはうは」などのように,同じ音が2度反復されるパターンがある\cite{Kakai1993}.そこで本研究では2文字から4文字までの平仮名または片仮名が反復されている場合,それらを未知オノマトペの候補として形態素ラティスに追加する.これらのオノマトペは入力文の各位置において,そこから始まる平仮名または片仮名$n$文字とその直後の$n$文字が一致しているかどうかを調べることで効率的に探索することが可能である.ただし,「むかしむかし」や「ぜひぜひ」などのように同音が反復された場合でもオノマトペではない表現も存在する.このため,追加された未知オノマトペノードが必要な場合にのみ選択されるように,追加したノードのコストを適切に設定する必要がある.本研究では,基本的に反復文字数ごとにコストを設定し,さらに濁音・半濁音や開拗音を含む表現はオノマトペである場合が多いこと,また,平仮名よりも片仮名の場合の方がオノマトペである場合が多いことを考慮し,コストを人手で設定した.実際に使用したコストは付録\ref{APPEND::C}に記載した.\subsubsection{非反復型オノマトペ}\begin{table}[b]\caption{非反復型オノマトペのパターンとコスト}\label{Table::OnoPattern}\input{04table04.txt}\end{table}反復を含まない場合もオノマトペは一定のパターンに従うものが多い\cite{Kakai1993}.そこで本研究ではオノマトペを認識するためのパターンを導入し,導入したパターンに従う文字列を形態素候補として形態素ラティスに追加する.本研究で使用したパターンを表\ref{Table::OnoPattern}に示す.パターン中のH,K,{\scriptsizeH},{\scriptsizeK}はそれぞれ平仮名,片仮名\footnote{本研究で平仮名,片仮名として使用したそれぞれ69文字の一覧は付録\ref{APPEND::D}に記載した.},平仮名の開拗音字(「ゃ」,「ゅ」,「ょ」),および,片仮名の開拗音字(「ャ」,「ュ」,「ョ」)を表す.これらは事前にコーパスを分析した結果,出現頻度が高く,かつ,悪影響の少ないパターンである.いずれも2音節の語基を持ち,先頭の4つは2音節の間に促音を持ち「り」語尾が付いたもの,残りの3つは2音節に促音および「と」が付いたものとなっている.本論文ではパターンを導入することの有効性を確認することを目的とし,実験には表\ref{Table::OnoPattern}に示した7つのパターンのみを使用したが,さらに多くのパターンを導入することで,より多くのオノマトペを認識できると考えられる.また,コストは本研究で使用する形態素解析システムJUMANにおけるコストであり,一般的な副詞のコストを100とした場合の形態素生起コストを表している\footnote{JUMANでは単語の生起コストを,辞書に付与された形態素の各表記のコストに,品詞コストを乗じることにより算出している.一般的な副詞の場合,表記のコストが1.0,副詞の品詞コストが100であることから,一般的な副詞の生起コストは100となる.}.非反復型オノマトペを含む形態素ラティスの生成にあたり,入力文の各位置から始まる文字列が表\ref{Table::OnoPattern}に示すパターンに一致するかどうか検索すると,形態素ラティスの生成速度が大きく低下する可能性が考えられる.そこで本研究では,表\ref{Table::OnoPattern}に示す各パターンから生成されうる形態素の数はたかだか4,761ないしは14,283である\footnote{非反復型オノマトペの生成に使用した平仮名,片仮名の種類は69,開拗音字の種類は3であることから,2つの任意の平仮名,または,片仮名のみを含むパターンの場合は4,761,拗音も含むパターンの場合は14,283の形態素候補が生成される.}ことに着目し,これらの候補をすべて事前に辞書に追加することで,通常のトライ木に基づく辞書検索により未知オノマトペのノードを形態素ラティスに追加できるようにした.\subsection{未知語処理の流れ}表\ref{Table::Summary}に本研究で扱う未知語のタイプと,各未知語に相当するノードをどのように形態素ラティスに追加するかをまとめる.これらの未知語処理をすべて行った場合の形態素ラティスの作成手順は以下のようになる.\begin{table}[b]\caption{提案手法で扱う未知語のタイプと未知語ノードの形態素ラティスへの追加方法}\label{Table::Summary}\input{04table05.txt}\end{table}\begin{enumerate}\item形態素解析に先立ち,連濁により濁音化した形態素,および,非反復型オノマトペの候補を形態素解析辞書に追加\item入力文に対し,形態素の検索を行い形態素ラティスを作成\item入力文中に出現した長音記号・小書き文字を\ref{SUBSEC::PRO}節で述べたルールに基づき置換した文字列に対し形態素の検索を行い,新たに検索された形態素を形態素ラティスに追加\item入力文中に出現した長音記号・小書き文字を\ref{SUBSEC::PRO}節で述べたルールに基づき削除した文字列に対し形態素の検索を行い,新たに検索された形態素を形態素ラティスに追加\item文字列比較により,入力文に含まれる平仮名または片仮名の2文字から4文字までの反復を探し,存在した場合は形態素ラティスに追加\end{enumerate} \section{実験と考察} \subsection{提案手法の再現率}\label{SEC::RECALL}提案手法の有効性を確認するため,まず,再現率,すなわち対象の未知語のうち正しく解析できる語の割合の調査を行った.すべての未知語をタグ付けした大規模なデータを作成するためには大きなコストが必要となることから,本研究では未知語のタイプごとに個別に対象の未知語を含むデータを作成し再現率の調査を行った.未知語のタイプを限定することで,正規表現等により対象の未知語を含む可能性のある文を絞り込むことができ,効率的にデータを作成できるようになる.具体的には,検索エンジン基盤TSUBAKI\cite{Shinzato2008}で使用されているWebページから,各未知語タイプごとに正規表現を用いて未知語を含む文の候補を収集し,そこから未知語を100個含む文集合を作成し,再現率の評価を行った.ただし,ここで使用した文集合には\ref{SEC::PRO}節で説明したルール・パターンの作成の際に参考にした文は含まれていない.結果をUniDic\cite{Den2007}によるカバー率とともに表\ref{Table::Recall}に示す.ここで,UniDicによるカバー率とは対象の未知語100個のうちUniDicに含まれている語の数を表している.実際にUniDicを用いたシステムにおいて対象の未知語を正しく解析できるかどうかは考慮していないため,UniDicによるカバー率はUniDicを用いたシステムが達成できる再現率の上限とみなせる.\begin{table}[b]\caption{未知語タイプごとの再現率とUniDicによるカバー率}\label{Table::Recall}\input{04table06.txt}\end{table}表\ref{Table::Recall}に示した結果から,すべての未知語タイプに対し提案手法は高い再現率を達成できることが確認できる.連濁を除く未知語タイプにおいてはUniDicによるカバー率よりも高い再現率を達成していることから,考えうる多くの未知語を人手で登録するアプローチに比べ,既知語からの派生ルールと未知オノマトペ認識のためのパターンを用いる提案手法のアプローチは,低コストで多くの未知語に対応できると言える.一方,連濁により濁音化した語については正しく認識できた語の数はUniDicでカバーされている語の数よりも少なかった.たとえば以下の文に含まれている「がわら」は正しく認識することができなかった.\begin{exe}\ex{赤\underline{がわら}の民家です。}\end{exe}これは連濁と関係ない表現を連濁により濁音化したものであると認識しないように,連濁により濁音化した形態素のノードに大きなコストを与えているためである.たとえば以下のような文があった場合,連濁により濁音化した形態素のコストを元の形態素のコストと同程度に設定した場合は「でまわり」を「手回り」が濁音化したものと解析してしまうため,濁音化した形態素のノードには大きめのコストを与える必要がある.\begin{exe}\ex{笑顔\underline{でまわり}の人たちを幸せにする。\label{EX::DEMAWARI}}\end{exe}\begin{table}[t]\caption{解析済みブログコーパスにおいて2回以上出現した未知語の分類}\label{Table::Coverage}\input{04table07.txt}\end{table}続いて,実コーパスにおける再現率の評価を行うため,解析済みブログコーパス\cite{Hashimoto2011}\footnote{Kyoto-UniversityandNTTBlogコーパスhttp://nlp.ist.i.kyoto-u.ac.jp/kuntt/}を用いた評価を行った.具体的には解析済みブログコーパスで1形態素としてタグ付けされている語のうち,2回以上出現し,かつ,JUMAN5.1の辞書に含まれていない230語を,村脇らによりコーパスから自動生成された辞書\cite{Murawaki2008}でカバーされているもの,それ以外でWikipediaにエントリを持つもの,それ以外で提案手法によりカバーされるもの,その他の4つに分類した.結果を表\ref{Table::Coverage}に示す.村脇らによる辞書,および,Wikipediaのエントリでもカバーされない未知語のうち異なり数でおよそ30\%,出現数でおよそ45\%が提案手法により解析できており,提案手法による未知語処理が実コーパスに対しても有用であることが確認できる.また,提案手法により解析できた未知語には,連濁による濁音化を除くすべての未知語タイプが含まれており,様々な未知語タイプが実コーパスにおいて出現することが確認できた.\subsection{解析精度・速度の評価}本論文で導入したルール・パターンを用いることで新たに認識された未知語の精度,および,解析速度の変化を調べるため,これらのルール・パターンを用いないベースラインモデルと提案手法を用いたモデルを以下の7つの観点から比較することにより提案手法の評価を行った.本節の実験ではJUMAN5.1をデフォルトのコスト設定のまま使用したものをベースラインモデルとした.\begin{enumerate}\item解析結果が変化した100箇所中,解析結果が改善した箇所の数:$P_{100D}$\item解析結果が変化した100箇所中,解析結果が悪化した箇所の数:$N_{100D}$\item10万文あたりの解析結果が変化した箇所の数:$D_{100kS}$\item10万文あたりの解析結果が改善した箇所の推定数:$P^{*}_{100kS}$\item10万文あたりの解析結果が悪化した箇所の推定数:$N^{*}_{100kS}$\item形態素ラティスにおけるノードの増加率:$N\!ode_{inc.}$\item解析速度の低下率:$SP_{loss}$\end{enumerate}実験には検索エンジン基盤TSUBAKI\cite{Shinzato2008}で使用されているWebページから収集した10万文を使用した.これらの文は平仮名を1字以上含み,かつ,全体で20文字以上で構成される文であり,\ref{SEC::PRO}節で説明したルール・パターンの作成の際に参考にした文は含まれていない.まず,$P_{100D}$と$N_{100D}$を算出するため,各ルール・パターンを用いた場合と用いなかった場合で解析結果が変化した箇所を100箇所抽出し,それらを改善,悪化,その他の3クラスに分類した.この際,基本的に分割箇所が変化した場合は分割箇所の優劣を比較し,分割箇所に優劣がない場合で品詞が変化した場合はその品詞の優劣を比較した.ただし,形態素区切りが改善した場合であっても,名詞であるべき品詞が副詞となっている場合など,明らかに正しい解析と言えない場合はその他に分類した.たとえば「面白がれる」という表現は,JUMANでは子音動詞の可能形は可能動詞として登録されていることから,JUMANの辞書登録基準では1語となるべきである.しかし,連濁ルールを用いなかった場合は下記の例(\ref{EX::OMOSHIRO})aのように,連濁ルールを用いた場合は下記の例(\ref{EX::OMOSHIRO})bのように,解析結果は異なるものの,いずれの場合も過分割されてしまうことから,このような場合はその他に分類した.\begin{exe}\ex\label{EX::OMOSHIRO}\begin{xlist}\ex面/白/が/れ/る\ex面/白/がれる\end{xlist}\end{exe}また,$P^{*}_{100kS}$,および,$N^{*}_{100kS}$は,10万文あたりの解析結果が変化した箇所の数$D_{100kS}$を用いて,それぞれ以下の式により算出した.\begin{align*}P^{*}_{100kS}&=D_{100kS}\timesP_{100D}/100\notag\\N^{*}_{100kS}&=D_{100kS}\timesN_{100D}/100\notag\end{align*}ここで,各未知語タイプごとに推定誤差は異なっていることに注意が必要である.特に解析が悪化した箇所の数は少なことから$N^{*}_{100kS}$の推定誤差は大きいと考えられる.しかしながら,各未知語タイプごとに大規模な評価を行うコストは大きいことから本論文では上記の式から算出された推定数に基づいて考察を行う.解析精度の評価に加えて,最適解の探索時間に影響を与えると考えられることから形態素ラティスにおけるノードの増加率$N\!ode_{inc.}$,および,全体の解析速度への影響を調べるため速度の低下率$SP_{loss}$の計測も行った.これらの評価結果を表\ref{Table::ResultAll}に示す.\begin{table}[t]\caption{各ルール・パターンを使用した場合の精度と速度}\label{Table::ResultAll}\input{04table08.txt}\end{table}表\ref{Table::ResultAll}に示す結果から提案手法を用いることで,ほとんど解析結果を悪化させることなく,また,解析速度を大きく下げることなく,多くの未知語を正しく処理できるようになることが確認できる.具体的には,すべてのルール・パターンを用いることで10万文あたり4,500個以上の未知語処理が改善するのに対し,悪化する解析は80個程度であると推定でき,速度の低下率は6.2\%であった.速度の低下率に関してはベースラインとした形態素解析器の実装に大きく依存するため,具体的な数値に大きな意味はないと言えるものの,少なくとも提案手法は大幅な速度低下は引き起こさないと考えられる.また,ノードの増加率に対し解析速度の低下率が大きいことから,速度低下は最適パスの探索ではなく,主に形態素ラティスの生成の時間の増加により引き起されていると考えられる.以下ではルール・パターンごとの解析の変化について詳述する.\subsubsection{連濁による濁音化}表\ref{Table::ResultAll}に示したとおり,連濁パターンを導入した場合,新たに正しく解析できるような表現がある一方で,解析結果が悪化する表現が長音文字や小書き文字の置換・挿入ルールと比べ多く存在する.これは,長音文字や小書き文字を含む形態素はもともと非常に少ないのに対し,濁音を含む形態素は多く存在しているため,濁音が含まれているからといって連濁による濁音化であるケースが限定的であるためと考えられる.表\ref{Table::Rendaku}に連濁ルールを導入することにより解析結果が変化した例を示す.解析結果の変化を示した表において`/'は形態素区切りを,太字は解析結果が正解と一致していることを表す.「はさみ」が濁音化した形態素「ばさみ」や「ためし」が濁音化した形態素「だめし」など正しく認識できるようになった表現がある一方で,本来,格助詞「が」と形容詞「ない」から構成される「がない」という文字列を「かない」が濁音化した表現であると誤って解析されてしまうような表現が8例存在した.このような例を改善するためには,連濁化に関する静的な情報を活用して連濁処理の対象を制限することが考えられる.たとえばUniDicには連濁によって濁音化する語の情報が登録されておりこれを利用することが考えられる.\begin{table}[b]\caption{連濁ルールを導入することで解析結果が変化した例}\label{Table::Rendaku}\input{04table09.txt}\end{table}\subsubsection{長音文字の置換}長音文字を置換するルールを導入することで解析結果が変化した例を表\ref{Table::MacronR}に示す.もともと正しく解析できていた表現がルールを導入することにより解析できなくなった例は存在せず,周辺の解析結果が悪化したものが「OKだよ〜ん」の1例のみ存在した.この例ではいずれも形態素区切りは誤っているものの,ベースラインモデルでは「だ」を判定詞であると解析できていたものが,提案手法を用いた場合は普通名詞であると解析されたため,解析結果が悪化したと判定した.\begin{table}[b]\caption{長音文字を置換するルールを導入することで解析結果が変化した例}\label{Table::MacronR}\input{04table10.txt}\end{table}\subsubsection{小書き文字の置換}小書き文字を置換するルールを導入することで解析結果が変化した例を表\ref{Table::KogakiR}に示す.長音記号の場合と同様にもともと正しく解析できていた表現がルールを導入することにより解析できなくなった例は存在せず,周辺の解析結果が悪化したものが「ゆみぃの布団」の1例のみ存在した.この例でベースラインモデルでは格助詞であると正しく解析できていた「の」が,「いの」という地名の一部であると解析されたため,解析結果が悪化したと判定した.また,小書き文字を置換するルールを導入することで解析結果が改善した箇所の推定数は10万文あたり1,374箇所であり,全未知語タイプの中でもっとも多く,ほぼ悪影響もないことから,非常に有用なルールであると言える.\begin{table}[b]\caption{小書き文字を置換するルールを導入することで解析結果が変化した例}\label{Table::KogakiR}\input{04table11.txt}\end{table}\subsubsection{長音文字の挿入}挿入されたと考えられる長音文字を削除するルールを導入することで解析結果が変化した例を表\ref{Table::MacronI}に示す.長音文字の挿入に対処することで解析が悪化した例は存在せず,「苦〜い」や「ぜーんぶ」など多くの表現が正しく解析できるようになった.長音文字を削除するルールを導入することで解析結果が改善した箇所の推定数は10万文あたり1,093箇所であり,小書き文字の置換ルールに次いで多かった.解析結果が悪化した事例は確認できなかったことから,非常に有用性の高いルールであると言える.\begin{table}[b]\caption{長音文字を削除するルールを導入することで解析結果が変化した例}\label{Table::MacronI}\input{04table12.txt}\end{table}\subsubsection{小書き文字の挿入}\begin{table}[b]\caption{小書き文字を削除するルールを導入することで解析結果が変化した例}\label{Table::KogakiI}\input{04table13.txt}\end{table}挿入されたと考えられる小書き文字を削除するルールを導入することで解析結果が変化した例を表\ref{Table::KogakiI}に示す.長音文字の挿入の場合と同様に小書き文字に対処することで解析が悪化した例は存在せず,「さぁん」や「でしたぁぁぁ」など小書き文字の挿入を含む表現が正しく解析できるようになった.\subsubsection{反復型オノマトペ}反復型オノマトペの認識パターンを導入することで解析結果が変化した例を表\ref{Table::OnoR}に示す.解析結果に変化があった100箇所中,感動詞の反復である「あらあら」と「うんうん」の2例は誤ってオノマトペであると解析されたものであったが,この2例以外には解析が悪化した事例はなかった.反復型オノマトペの認識パターンを導入することで解析結果が改善した箇所の推定数は10万文あたり860箇所であり,小書き文字の置換ルール,長音文字の削除ルールに次いで多かった.\begin{table}[b]\caption{反復型オノマトペパターンを導入することで解析結果が変化した例}\label{Table::OnoR}\input{04table14.txt}\end{table}\subsubsection{非反復型オノマトペ}非反復型オノマトペの認識パターンを導入することで解析結果が変化した例を表\ref{Table::OnoP}に示す.解析結果が悪化した例は存在せず,「のっちょり」などのように本来オノマトペではない表現を誤ってオノマトペであると解析した例は存在したが,それらはいずれもベースライン手法でも正しく解析できない表現であった.また,非反復型オノマトペの処理を行うことによる速度の低下は確認できなかった.生成される形態素ラティスのノード数の増加率が0.008\%にとどまっていることから,正しいオノマトペ以外にはほとんどパターンに該当する文字列が存在しなかったためであると考えられる.\begin{table}[b]\caption{非反復型オノマトペパターンを導入することで解析結果が変化した例}\label{Table::OnoP}\input{04table15.txt}\end{table} \section{まとめ} 本論文では,形態素解析で使用する辞書に含まれる語から派生した未知表記,および,未知オノマトペを対象とした日本語形態素解析における効率的な未知語処理手法を提案した.Webから収集した10万文を対象とした実験の結果,既存の形態素解析システムに提案手法を導入することにより,解析が悪化した箇所は80箇所程度,速度低下は6\%のみであったのに対し,新たに約4,500個程度の未知語を正しく認識できることを確認した.特に,長音文字・小書き文字の置換・挿入に関するルールのみを導入した場合,10万文あたり推定3,327個の未知語を新たに解析できるようになるのに対し,悪化する箇所は推定27個であり,ほとんど解析結果に悪影響を与えることなく多くの未知語を解析できることが確認できた.今後の展望としては,各形態素の生起コストや連接コストを機械学習を用いて推定した形態素解析システムへの応用や,特に連濁現象への対処としてUniDicなどのように多くの表記バリエーションの情報が付与された辞書と組み合わせることなどが考えられる.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Asahara\BBA\Matsumoto}{Asahara\BBA\Matsumoto}{2000}]{Asahara2000}Asahara,M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2000\BBCP.\newblock\BBOQExtendedModelsandToolsforHigh-performancePart-of-speechTagger.\BBCQ\\newblockIn{\BemProceedigsofCOLING'00},\mbox{\BPGS\21--27}.\bibitem[\protect\BCAY{Asahara\BBA\Matsumoto}{Asahara\BBA\Matsumoto}{2004}]{Asahara2004c}Asahara,M.\BBACOMMA\\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQJapaneseUnknownWordIdentificationbyCharacter-basedChunking.\BBCQ\\newblockIn{\BemProceedigsofCOLING'04},\mbox{\BPGS\459--465}.\bibitem[\protect\BCAY{東\JBA浅原\JBA松本}{東\Jetal}{2006}]{Azuma2006}東藍\JBA浅原正幸\JBA松本裕治\BBOP2006\BBCP.\newblock条件付確率場による日本語未知語処理.\\newblock\Jem{情報処理学会研究報告,自然言語処理研究会報告2006-NL-173},\mbox{\BPGS\67--74}.\bibitem[\protect\BCAY{伝\JBA小木曽\JBA小椋\JBA山田\JBA峯松\JBA内元\JBA小磯}{伝\Jetal}{2007}]{Den2007}伝康晴\JBA小木曽智信\JBA小椋秀樹\JBA山田篤\JBA峯松信明\JBA内元清貴\JBA小磯花絵\BBOP2007\BBCP.\newblockコーパス日本語学のための言語資源:形態素解析用電子化辞書の開発とその応用.\\newblock\Jem{日本語科学},{\Bbf22},\mbox{\BPGS\101--122}.\bibitem[\protect\BCAY{Goldwater,Griffiths,\BBA\Johnson}{Goldwateret~al.}{2006}]{Goldwater2006}Goldwater,S.,Griffiths,T.~L.,\BBA\Johnson,M.\BBOP2006\BBCP.\newblock\BBOQContextualDependenciesinUnsupervisedWordSegmentation.\BBCQ\\newblockIn{\BemProceedingsofthe21stInternationalConferenceonComputationalLinguisticsand44thAnnualMeetingoftheAssociationforComputationalLinguistics},\mbox{\BPGS\673--680}.\bibitem[\protect\BCAY{橋本\JBA黒橋\JBA河原\JBA新里\JBA永田}{橋本\Jetal}{2011}]{Hashimoto2011}橋本力\JBA黒橋禎夫\JBA河原大輔\JBA新里圭司\JBA永田昌明\BBOP2011\BBCP.\newblock構文・照応・評判情報つきブログコーパスの構築.\\newblock\Jem{自然言語処理},{\Bbf18}(2),\mbox{\BPGS\175--201}.\bibitem[\protect\BCAY{池田\JBA柳原\JBA松本\JBA滝嶋}{池田\Jetal}{2010}]{Ikeda2010}池田和史\JBA柳原正\JBA松本一則\JBA滝嶋康弘\BBOP2010\BBCP.\newblockくだけた表現を高精度に解析するための正規化ルール自動生成手法.\\newblock\Jem{情報処理学会論文誌データベース},{\Bbf3}(3),\mbox{\BPGS\68--77}.\bibitem[\protect\BCAY{Kacmarcik,Brockett,\BBA\Suzuki}{Kacmarciket~al.}{2000}]{Kacmarcik2000}Kacmarcik,G.,Brockett,C.,\BBA\Suzuki,H.\BBOP2000\BBCP.\newblock\BBOQRobustSegmentationofJapaneseTextintoaLatticeforParsing.\BBCQ\\newblockIn{\BemProceedigsofCOLING'00},\mbox{\BPGS\390--396}.\bibitem[\protect\BCAY{筧\JBA田守}{筧\JBA田守}{1993}]{Kakai1993}筧寿雄\JBA田守育啓\BBOP1993\BBCP.\newblock\Jem{オノマトピア—擬音・擬態語の楽園}.\newblock勁草書房.\bibitem[\protect\BCAY{風間\JBA光石\JBA牧野\JBA鳥澤\JBA松田\JBA辻井}{風間\Jetal}{1999}]{Kazama1999}風間淳一\JBA光石豊\JBA牧野貴樹\JBA鳥澤健太郎\JBA松田晃一\JBA辻井潤一\BBOP1999\BBCP.\newblockチャットのための日本語形態素解析.\\newblock\Jem{言語処理学会第5回年次大会発表論文集},\mbox{\BPGS\509--512}.\bibitem[\protect\BCAY{工藤\JBA市川\JBATalbot\JBA賀沢}{工藤\Jetal}{2012}]{Kudo2012}工藤拓\JBA市川宙\JBATalbot,D.,賀沢秀人\BBOP2012\BBCP.\newblockWeb上のひらがな交じり文に頑健な形態素解析.\\newblock\Jem{言語処理学会第18回年次大会発表論文集},\mbox{\BPGS\1272--1275}.\bibitem[\protect\BCAY{Kudo,Yamamoto,\BBA\Matsumoto}{Kudoet~al.}{2004}]{Kudo2004}Kudo,T.,Yamamoto,K.,\BBA\Matsumoto,Y.\BBOP2004\BBCP.\newblock\BBOQApplyingConditionalRandomFieldstoJapaneseMorphologicalAnalysis.\BBCQ\\newblockIn{\BemProceedigsofEMNLP'04},\mbox{\BPGS\230--237}.\bibitem[\protect\BCAY{Kurohashi,Nakamura,Matsumoto,\BBA\Nagao}{Kurohashiet~al.}{1994}]{Juman1994}Kurohashi,S.,Nakamura,T.,Matsumoto,Y.,\BBA\Nagao,M.\BBOP1994\BBCP.\newblock\BBOQImprovementsof{J}apaneseMorphologicalAnalyzer{JUMAN}.\BBCQ\\newblockIn{\BemProceedigsofTheInternationalWorkshoponSharableNaturalLanguageResources},\mbox{\BPGS\22--38}.\bibitem[\protect\BCAY{Lyman}{Lyman}{1894}]{Lyman1894}Lyman,B.~S.\BBOP1894\BBCP.\newblock{\BemTheChangefromSurdtoSonantinJapaneseCompounds}.\newblockPhiladelphia:OrientalClubofPhiladelphia.\bibitem[\protect\BCAY{Mochihashi,\mbox{Yamada,}\BBA\Ueda}{Mochihashiet~al.}{2009}]{Mochihashi2009}Mochihashi,D.,Yamada,T.,\BBA\Ueda,N.\BBOP2009\BBCP.\newblock\BBOQBayesianUnsupervisedWordSegmentationwithNestedPitman-YorLanguageModeling.\BBCQ\\newblockIn{\BemProceedigsofACL-IJCNLP'09},\mbox{\BPGS\100--108}.\bibitem[\protect\BCAY{Mori\BBA\Nagao}{Mori\BBA\Nagao}{1996}]{Mori1996s}Mori,S.\BBACOMMA\\BBA\Nagao,M.\BBOP1996\BBCP.\newblock\BBOQWordExtractionfromCorporaandItsPart-of-SpeechEstimationUsingDistributionalAnalysis.\BBCQ\\newblockIn{\BemProceedigsofCOLING'96},\mbox{\BPGS\1119--1122}.\bibitem[\protect\BCAY{Murawaki\BBA\Kurohashi}{Murawaki\BBA\Kurohashi}{2008}]{Murawaki2008}Murawaki,Y.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQOnlineAcquisitionof{J}apaneseUnknownMorphemesusingMorphologicalConstraints.\BBCQ\\newblockIn{\BemProceedigsofEMNLP'08},\mbox{\BPGS\429--437}.\bibitem[\protect\BCAY{Nagata}{Nagata}{1999}]{Nagata1999}Nagata,M.\BBOP1999\BBCP.\newblock\BBOQAPartofSpeechEstimationMethodforJapaneseUnknownWordsusingaStatisticalModelofMorphologyandContext.\BBCQ\\newblockIn{\BemProceedigsofACL'99},\mbox{\BPGS\277--284}.\bibitem[\protect\BCAY{Nakagawa\BBA\Uchimoto}{Nakagawa\BBA\Uchimoto}{2007}]{Nakagawa2007a}Nakagawa,T.\BBACOMMA\\BBA\Uchimoto,K.\BBOP2007\BBCP.\newblock\BBOQAHybridApproachtoWordSegmentationandPOSTagging.\BBCQ\\newblockIn{\BemProceedigsofACL'07},\mbox{\BPGS\217--220}.\bibitem[\protect\BCAY{岡部\JBA河原\JBA黒橋}{岡部\Jetal}{2007}]{Okabe2007}岡部浩司\JBA河原大輔\JBA黒橋禎夫\BBOP2007\BBCP.\newblock代表表記による自然言語リソースの整備.\\newblock\Jem{言語処理学会第13回年次大会},\mbox{\BPGS\606--609}.\bibitem[\protect\BCAY{斉藤\JBA貞光\JBA浅野\JBA松尾}{斉藤\Jetal}{2013}]{Saito2013}斉藤いつみ\JBA貞光九月\JBA浅野久子\JBA松尾義博\BBOP2013\BBCP.\newblock正規-崩れ表記のアライメントに基づく表記崩れパタンの抽出と形態素解析への導入.\\newblock\Jem{情報処理学会研究報告,自然言語処理研究会報告2013-NL-214},\mbox{\BPGS\1--9}.\bibitem[\protect\BCAY{斉藤\JBA貞光\JBA浅野\JBA松尾}{斉藤\Jetal}{2014}]{Saito2014}斉藤いつみ\JBA貞光九月\JBA浅野久子\JBA松尾義博\BBOP2014\BBCP.\newblock正規-崩れ文字列アライメントと文字種変換を用いた崩れ表記正規化に基づく日本語形態素解析.\\newblock\Jem{言語処理学会第18回年次大会発表論文集},\mbox{\BPGS\777--780}.\bibitem[\protect\BCAY{Shinzato,Shibata,Kawahara,Hashimoto,\BBA\Kurohashi}{Shinzatoet~al.}{2008}]{Shinzato2008}Shinzato,K.,Shibata,T.,Kawahara,D.,Hashimoto,C.,\BBA\Kurohashi,S.\BBOP2008\BBCP.\newblock\BBOQTSUBAKI:AnOpenSearchEngineInfrastructureforDevelopingNewInformationAccessMethodology.\BBCQ\\newblockIn{\BemProceedigsofIJCNLP'08},\mbox{\BPGS\189--196}.\bibitem[\protect\BCAY{Uchimoto,Sekine,\BBA\Isahara}{Uchimotoet~al.}{2001}]{Uchimoto2001}Uchimoto,K.,Sekine,S.,\BBA\Isahara,H.\BBOP2001\BBCP.\newblock\BBOQTheUnknownWordProblem:AMorphologicalAnalysisofJapaneseusingMaximumEntropyAidedbyaDictionary.\BBCQ\\newblockIn{\BemProceedigsofEMNLP'01},\mbox{\BPGS\91--99}.\end{thebibliography}\appendix \section{濁音化した形態素の生起コスト} \label{APPEND::A}濁音化した形態素の生起コストは,濁音化する前の形態素に付与されているコストに,次表に示すコストを加算することにより与える.\begin{table}[h]\input{04tableA1.txt}\end{table}濁音化する前の形態素のコストは表記ごとに与えられ,JUMAN5.1では名詞,動詞などといった内容語の多くは100,または,160のコストが付与されている.たとえば,動詞「座る」の平仮名表記である「すわる」のコストは100であるので,その連用形が濁音化した「ずわり」のコストは170,名詞「蚕」の平仮名表記である「かいこ」のコストは160であるので,「がいこ」のコストは270となる.ここで,``が''から始まる語に大きな加算コストを与えているのは,格助詞「が」を誤って濁音化した形態素の先頭であると解析されないようにするためである. \section{長音記号・小書き文字が置換・挿入された形態素の生起コスト} \label{APPEND::B}長音記号・小書き文字を置換・挿入することにより生成された形態素の生起コストは,置換・挿入前の形態素に付与されている生起コストに,次表に示すコストを加算することにより与える.\begin{table}[h]\input{04tableB1.txt}\end{table}ここで品詞コストとは,品詞ごとに定義されたコストであり,対象の品詞に属する形態素の標準的な生起コストを表している.JUMAN5.1のデフォルトでは判定詞の場合には11,感動詞の場合には110,動詞,普通名詞,形容詞,副詞には100,副詞的名詞には70などのコストが与えられている.たとえば,普通名詞「あなた」の生起コストが100,普通名詞の品詞コストが100であることから,「ぁなた」という形態素の生起コストは160,感動詞「もしもし」の生起コストは110,感動詞の品詞コストは110であることから,「もしも〜し」という形態素の生起コストは176となる. \section{反復型オノマトペの生起コスト} \label{APPEND::C}反復型オノマトペ$w$の生起コストは以下の式により与える.\[cost=LEN(w)\times130-f_v(w)\times10-f_p(w)\times40-f_k(w)\times20\]ただし,\begin{tabular}{r@{\}p{360pt}}$LEN(w)$:&$w$に含まれる繰り返し文字数(ただし,ここでは「きゃ」などの開拗音は全体で1文字として扱う)\\$f_v(w)$:&$w$の先頭の文字が濁点または半濁点を含むなら2,それ以外の文字が濁点または半濁点を含むなら1,それ以外は0となる関数\\$f_p(w)$:&$w$が開拗音を含むなら1,それ以外は0となる関数\\$f_k(w)$:&$w$が片仮名であるなら1,それ以外は0となる関数\end{tabular}\noindentとする.すなわち,基本的に繰り返し文字数1つにつき130のコストを与えるが,先頭の文字が濁点・半濁点を含む場合は20,それ以外の文字が濁点・半濁点を含む場合は10,開拗音を含む場合は40,片仮名である場合は20,それぞれコストを小さくする.これは,オノマトペは濁点・半濁点,開拗音を含む場合が多く,また,片仮名で表記されることが多いためである.たとえば,「ぐちょぐちょ」という形態素であれば,繰り返し音数は2で最初の文字が濁点を含みで,かつ,開拗音を含むので,生起コストは260から20と40を引いた200となる.\clearpage \section{非反復型オノマトペの生成に使用した平仮名,片仮名の一覧} \label{APPEND::D}\begin{table}[h]\input{04tableD1.txt}\end{table}\begin{biography}\bioauthor{笹野遼平}{2009年東京大学大学院情報理工学系研究科博士課程修了.博士(情報理工学).京都大学大学院情報学研究科特定研究員を経て2010年より東京工業大学精密工学研究所助教.自然言語処理,特に照応解析,述語項構造解析の研究に従事.言語処理学会,情報処理学会,人工知能学会,ACL各会員.}\bioauthor{黒橋禎夫}{1994年京都大学大学院工学研究科電気工学第二専攻博士課程修了.博士(工学).2006年4月より京都大学大学院情報学研究科教授.自然言語処理,知識情報処理の研究に従事.言語処理学会10周年記念論文賞,同20周年記念論文賞,第8回船井情報科学振興賞,2009IBMFacultyAward等を受賞.2014年より日本学術会議連携会員.}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在に至る.工学博士.自然言語処理,知的情報提示技術,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会,AAAI,言語処理学会,ACL,認知科学会,計量国語学会各会員.}\end{biography}\biodate\end{document}
V29N02-03
\section{はじめに} 文法誤り訂正は言語学習者の書いた文法誤りを含む文を文法的に正しい文に訂正するタスクである.これまで文法誤り訂正では主に大規模なデータが存在する英語に焦点を当てて研究が行われており,数多くの有効な手法が提案されている\cite{zhaoetal2019improving,grundkiewiczetal2019neural,kiyonoetal2019empirical,Kaneko2020GEC,omelianchuk-etal-2020-gector,stahlberg-kumar-2021-synthetic}.近年,英語以外のロシア語やチェコ語などの言語においても文法誤り訂正の研究が行われ始めている\cite{rozovskayaroth2019grammar,naplavastraka2019grammatical,katsumata-komachi-2020-stronger,rothe-etal-2021-simple}.しかし,これらの言語の文法誤り訂正モデルを訓練するための人手で訂正を施した学習者データは小規模でしか存在しないという問題がある.小規模なデータしか存在しない問題に対処するために,様々なタスクで多言語のデータを活用する研究が進められている\cite{johnsonetal2017googles,Ruder2019ASO,Dabre2020}.そのような研究の一つに,対象とする言語のモデルの性能向上のために他言語のデータで学習したモデルの知識を用いる転移学習が存在する\cite{zophetal2016transfer}.先行研究においては,このような言語間での転移学習の性能について,言語間での類似度が大きく影響していることが示されている\cite{cotterellheigold2017cross,johnsonetal2017googles,martinez-garcia-etal-2021-evaluating}.例えば,同じ語族に属する言語は類似した文法規則や語彙を共有していることが多く,これらの言語間での類似性が対象となる言語のモデルを学習する際に有効だと考えられている.一方で,これまで文法誤り訂正において多言語の学習者データを用いて言語間での転移学習を試みた研究は少なく,格変化や単語の活用などのような文法誤りに関する知識が言語間で転移可能であるかは明らかになっていない.しかし,ある程度類似した言語,例えば同じ語族に属する言語であるロシア語やチェコ語のような言語間では文法的な正誤が転移可能なのではないかと考えられる.表\ref{tab:example}に示すのは「妹」を示す単語の日本語,ロシア語,チェコ語での格変化の一部である.日本語では主格と属格の変化を単語の変化ではなく,別に助詞を用いることで行っているのに対し,ロシア語とチェコ語は単語の活用で行っていることがわかる.この例はロシア語とチェコ語の格変化の類似性を示しており,このような言語間の類似した文法規則については言語間で転移させることが可能なのではないかと考えられる.そこで我々は,文法誤り訂正において事前学習モデルと多言語の学習者データを用いて,言語間での転移学習を行い,言語間での文法知識の転移が可能であるかを調査する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\input{02table01.tex}\caption{チェコ語とロシア語で類似した格変化.}\label{tab:example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本研究の主な貢献は以下の4つである.\begin{itemize}\item文法誤り訂正において事前学習モデルと多言語の学習者データを用い,言語間での転移学習が可能であることを示した.\item転移学習に用いる事前学習モデルの構造が,多言語の学習者データを用いた文法誤り訂正の学習に大きく影響していることを示した.\item文法知識の転移には対象とする言語に近い言語の方が有効であり,言語間で類似した文法項目に関する知識の転移が行われていることを示した.\item言語間で類似した文法項目に関する知識の転移は転移元・転移先の言語のデータのサイズに関わらず起こることを示した.\end{itemize}本稿の構成を示す.2章では,既存の文法誤り訂正の研究や多言語の言語知識を考慮した先行研究について紹介する.3章では,本研究で行う言語間での転移学習を用いた文法誤り訂正の手法についての詳細を述べる.4章では,3章で述べた手法に対して複数の言語間で実験を行い評価する.5章では実験結果について事前学習モデルの構造や誤りタイプごとの訂正性能についての分析,疑似誤りデータによるデータ拡張との比較を行う.最後に6章で,本研究のまとめを述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{先行研究} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文法誤り訂正に関する関連研究}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{大規模データを用いた文法誤り訂正}文法誤り訂正は文法的に誤った文から正しい文への機械翻訳タスクとして捉えられ,一般にニューラルネットワークを用いた機械翻訳モデルを文法誤り訂正モデルとして扱うことが多く,性能向上のために多くのデータを必要としている\cite{zhaoetal2019improving,grundkiewiczetal2019neural}.そのためにいくつかの研究では疑似データを人工的に作ることでデータを増やし性能向上を図っている\cite{naplavastraka2019grammatical,awasthi-etal-2019-parallel,omelianchuk-etal-2020-gector}.文法的に正しい文から文法的に誤った文を生成することは比較的に容易なため,大規模な単言語コーパスから疑似データを生成する手法についても広範な研究が行われている\cite{xieetal2018noising,kiyonoetal2019empirical,takahashi-etal-2020-grammatical,stahlberg-kumar-2021-synthetic}.また,文法誤りの訂正情報が付与されていない大規模なテキストデータ(以下,ラベルなしデータと言及する)で学習した事前学習モデルを用いることが文法誤り訂正に対して有効であることも示されている\cite{Kaneko2020GEC,katsumata-komachi-2020-stronger}.これらの研究は大規模な訓練データを用意して文法誤り訂正の性能向上を図る研究である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{多言語の学習者データを用いた文法誤り訂正}多言語の学習者データを用いた文法誤り訂正の研究として,\citeA{rothe-etal-2021-simple}はmultilingualT5(mT5)\cite{xue-etal-2021-mt5}を用いて初期化した文法誤り訂正モデルを多言語の学習者データで学習することで多言語文法誤り訂正モデルを構築する研究を行っている.この研究は,本研究で明らかにしている文法誤り訂正における言語間での転移学習について,より大きなモデルとより大量のデータを用いることで性能向上に活かしたものである.本研究は\citeA{rothe-etal-2021-simple}とは異なり,小さなモデルにおいて複数の設定の比較を行い,\citeA{rothe-etal-2021-simple}における性能向上の要因の一つとなっている,文法誤り訂正において言語間で文法知識の転移が可能であることについて明らかにしている.また,多言語の学習者データを有効に用いるための設定がどのようなものになるのか,についての分析に焦点を当てている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{学習者の第一言語を考慮した文法誤り訂正}他言語について考慮した文法誤り訂正の研究として,学習者の第一言語に焦点を当てた文法誤り訂正の研究が行われている.\citeA{10.5555/2002472.2002589}は単純ベイズ分類器を用いた前置詞誤り訂正に対して異なる5つの第一言語からの情報を適用する手法を提案し,その後\citeA{rozovskaya-etal-2017-adapting}は同様の手法を11の第一言語,3つの誤りタイプに拡張した.\citeA{mizumoto-etal-2011-mining}は統計的機械翻訳モデルをベースにした文法誤り訂正モデルにおいて,評価データと訓練データで同じ第一言語を持つ学習者のデータを用いることで性能が向上することを示した.その後,\citeA{chollampatt-etal-2016-adapting}はこの手法を拡張し,統計的機械翻訳モデルをベースにした文法誤り訂正モデルの素性として,各データの学習者の第一言語に対応したニューラル言語モデルを用いる手法を提案した.これらの研究は学習者の第一言語を考慮した文法誤り訂正の研究ではあるが,我々の研究とは異なり言語間での文法知識の転移については焦点を当てていない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{多言語の知識を用いた関連研究}多言語の言語知識を用いる研究は文法誤り訂正とは異なる分野で盛んに行われている.機械翻訳では,\citeA{zophetal2016transfer}が大規模なデータが存在する言語対で学習したモデルを対象とする言語対のデータでファインチューニングを行うことで性能向上を図る手法を提案し,\citeA{johnsonetal2017googles}は複数の言語のデータで一つのモデルを学習することで,訓練データが存在しない言語についても翻訳が可能であることを示しており,どちらの研究でも本研究と同じく,より類似した言語対を用いることが翻訳性能の向上につながることを明らかにしている.また,\citeA{kim-etal-2019-effective}は言語間でモデルのパラメータの転移を行う際に,転移元の言語と転移先の言語間で言語表現の対応をとることによって翻訳性能の向上につなげており,\citeA{lin-etal-2021-learning}は言語固有のサブネットワークを学習することで言語同士の不要な干渉を抑える手法を提案している.より良い多言語翻訳のための言語表現の獲得の研究もなされており,\citeA{Ji_Zhang_Duan_Zhang_Chen_Luo_2020}は言語間をよりうまく関連づけるための事前学習手法を,\citeA{pan-etal-2021-contrastive}は対照学習を用いた学習手法を,\citeA{yang-etal-2021-multilingual}は学習文中の単語を別言語の対応する単語に置き換えるコードスイッチングを用いた手法を,それぞれ提案している.対話生成では,\citeA{Schuster2018CrosslingualTL}が言語間にまたがった表現の獲得のために機械翻訳モデルのエンコーダ部分を用いた研究を行っている.また,質問応答の分野では,\citeA{Lee2019CrossLingualTL}が敵対的生成ネットワークを用いた言語間での転移学習の手法を,\citeA{zhou-etal-2021-improving}が多言語の事前学習モデルと転移元言語の訓練データを用いたデータ拡張の2つを組み合わせた手法を提案している.言語間で構文知識を転移する研究も複数行われている.\citeA{kimetal2017cross}は品詞タグ付けにおいて,言語に依存しない表現と言語特有の表現を学習する2つのモデルを組み合わせることによって言語間で構文知識を転移可能にする手法を提案している.\citeA{Ahmad2019CrosslingualDP}は敵対的な学習を利用することで言語間にまたがる表現を生成するエンコーダを学習し,これを用いることで係り受け解析においての言語間での転移を可能にしている.また,\citeA{xu-koehn-2021-zero}は係り受け解析において,転移元言語の文脈を考慮した言語表現を評価対象の言語の表現空間に適切に対応づけることで性能向上を図っている.\citeA{wu-dredze-2019-beto}は品詞タグ付けや係り受け解析などの5つのタスクでmultilingualBERTを用いた多言語知識の活用が有効であることを示している.さらに,\citeA{ahmad-etal-2021-syntax}はmultilingualBERTに対して構文知識を明示的に学習に組み込むことで,構文解析など4つのタスクで性能が向上することを示した.これらの研究は我々と同じように異なる言語間での転移学習を行っているが,我々が文法誤りに関する知識の転移に焦点を当てているのに対し,構文知識の転移に焦点を当てている点で我々の研究とは異なる.一方で,品詞タグ付けに関する\citeA{kimetal2017cross}の研究では,上述の機械翻訳での転移学習の研究や,本研究で示す文法誤り訂正における言語間での転移学習と同様に,より類似した言語から転移学習を行うことで性能が向上することを報告しており,それぞれの研究において言語間で転移させている知識は異なるものの同様の傾向を示している.また,本研究ではこれらの関連研究では議論されることの少なかった,転移元言語と転移先言語のそれぞれのデータ量を変化させた際の結果に関する分析についても議論を行っている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{言語間での転移学習を用いた文法誤り訂正} 本研究では,3.1節で示す事前学習モデルと,3.2節で示す多言語学習者データを用いた文法誤り訂正の学習手順を用いて文法誤り訂正モデルを学習し,言語間での転移学習を行う.図\ref{fig:learning_steps}に学習全体の概要を示す.我々は,まず転移元言語と転移先言語のラベルなしデータを用いて事前学習モデルの学習を行う\footnote{本研究では公開されている事前学習済モデルを用いず,事前学習から行う.これは本研究の目的が二つの言語間で文法知識の転移がどのように行われるのかを分析することであり,そのために公開されている事前学習モデルに含まれるその他の言語による影響を排除するためである.}.次に,その事前学習モデルによって初期化した文法誤り訂正モデルを,転移元言語と転移先言語の学習者データを用いて学習を行う(fine-tuning1).最後に,転移先の言語の学習者データのみで文法誤り訂正モデルの学習を行う(fine-tuning2).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{29-2ia2f1.pdf}\end{center}\hangcaption{言語間での転移学習のための事前学習モデルと多言語学習者データを用いた文法誤り訂正モデルの学習の概要.}\label{fig:learning_steps}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{多言語事前学習モデル}我々は,言語間での転移学習を行う際に,学習者データからのみでは得られない言語間にまたがった言語表現を獲得するために事前学習モデルを用いる.具体的には,MaskedLanguageModeling(MLM)/TranslationLanguageModeling(TLM)\cite{NIPS2019_8928},そして,multilingualBART(mBART)\cite{liu-etal-2020-multilingual-denoising}の3種類の事前学習モデルを使用する.各モデルの事前学習の概要を図\ref{fig:mlm_tlm}に示す.MLM/TLMはBidirectionalEncoderRepresentationsfromTransformers(BERT)\cite{devlin-etal-2019-bert}の構造を元に提案された,Transformer\cite{NIPS2017_3f5ee243}のエンコーダ部分を用いたモデルである.MLMは転移元言語と転移先言語の単言語データを用いて事前学習を行う.学習の際には幾つかのトークンがマスクされた文が入力され,マスクされたトークンを予測することで言語表現の学習が行われる(図\ref{fig:mlm_tlm}上段左側).TLMはMLMを対訳データでも学習できるように拡張したモデルである.対訳データが入力として与えられる際に,文のペアを連結することで一つの文とし,幾つかのトークンをマスクする.それ以外の学習や推論はMLMと同様に行われる(図\ref{fig:mlm_tlm}上段右側).また,TLMはそれ単体で用いることはなくMLMと組み合わせて用いる,すなわち,学習の際には二つの学習を交互に行う.この論文ではこれ以降,MLMとTLMを組み合わせたモデルを簡潔な区別のためにTLMと表記する.TLMは対訳データを学習に用いているためMLMと比較して言語間にまたがるより良い言語表現が得られることが期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{29-2ia2f2.pdf}\end{center}\caption{MLM,TLM,mBARTの事前学習の概要.}\label{fig:mlm_tlm}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%mBARTはBART\cite{lewis-etal-2020-bart}をもとに多言語に拡張したTransformerのエンコーダとデコーダを用いるエンコーダ・デコーダの構造の事前学習モデルである.学習方法はBARTのものを踏襲しており,入力としてトークンやスパンのマスク,単語の順番の変更などの複数のノイズの入った文が与えられ,そこから元の正しい文を復元し出力することで学習が行われる(図\ref{fig:mlm_tlm}下段).mBARTと上述のMLM/TLMの大きな違いはデコーダが事前学習時に存在するか否か,という点であり,本研究ではこの違いが文法誤り訂正における言語間での転移学習に対してどのような影響を与えるのかについて比較・分析を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{多言語の学習者データを用いた学習の手順}本研究では,多言語の学習者データを用いて文法誤り訂正モデルの学習を行う.第2章で説明した通り言語間での転移学習には様々な手法が存在しているが,我々はその中からエンコーダ・デコーダモデルを学習し転移させる手法を用いる.ニューラル機械翻訳において,対象とする言語とは異なる言語対のデータで学習したモデルを対象とする言語対のデータでファインチューニングすることが有効であることが示されている\cite{imankulova-etal-2019-exploiting,dabre2019exploiting}.また,文法誤り訂正モデルの学習において,2段階でのファインチューニングを行うことが性能向上に効果的であることが知られており\cite{TACL2047,omelianchuk-etal-2020-gector,stahlberg-kumar-2021-synthetic},特に\citeA{omelianchuk-etal-2020-gector}は,最終的な学習の対象となるデータセットとその他のデータセットが存在する際に,1段階目に最終的に対象とするデータとその他の学習者データを組み合わせて学習を行い,その後2段階目に対象とするデータのみでもう一度ファインチューニングを行う,という形の二段階でのファインチューニングを用いて性能向上を達成している.そこで,我々はこれらの先行研究に従って,文法誤り訂正モデルを転移元言語と転移先言語の学習者データを結合したデータで学習(図\ref{fig:learning_steps}中のfine-tuning1)を行い,その後,転移先言語の学習者データのみでファインチューニング(図\ref{fig:learning_steps}中のfine-tuning2)を行うことで最終的な文法誤り訂正モデルを得る\footnote{予備実験としてfine-tuning1を転移元言語の学習者データのみで,fine-tuning2を転移先言語の学習者データのみでそれぞれ学習を行う手法も試したが,今回用いている手法の方が性能が高かった.}.なお,fine-tuning1とfine-tuning2で用いる転移先言語の学習者データはどちらも同じものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{実験} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験に用いた言語}本研究では,転移先の言語(文法誤り訂正の対象とする言語)としてロシア語,チェコ語,英語の3つの言語について実験を行う.また,各転移先言語に対してそれぞれ,類似度の高い言語,類似度が中程度の言語,類似度の低い言語の3つの転移元の言語を用意する.用いる言語間の類似度についてまとめたものを図~\ref{fig:lang}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{29-2ia2f3.pdf}\end{center}\hangcaption{実験に用いる言語間の関係の概略図.語族などの情報はASJPdatabase\protect\cite{ASJP-2020}を基にしている.}\label{fig:lang}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ロシア語の文法誤り訂正に対しては,チェコ語,英語,日本語を転移元言語として用いる.ここでロシア語とチェコ語は同じスラヴ語族に属する言語であり,形容詞や名詞の格変化など数多くの類似した文法項目が存在する.英語とロシア語については語族や使用している文字は異なるが,主語によって動詞の形が変わるなど幾つかの共通点が存在する.日本語は本研究で扱う言語の中で最もロシア語から遠い言語であり,語族だけでなく使用する文字や文法構造なども異なる言語である.チェコ語の文法誤り訂正に対しては,ロシア語,英語,日本語を転移元言語として用いる.ロシア語とチェコ語の類似性については既に述べた通りであり,チェコ語と英語・日本語の関係はロシア語と同様である.英語の文法誤り訂正に対しては,ドイツ語,ロシア語,日本語を転移元言語として用いる.英語とドイツ語は同じゲルマン語族に属しており,非常によく類似した言語である.また,英語とロシア語の関係は上述の通りであり,日本語はこれまでの設定と同様に今回用いる言語の中で最も転移先の言語である英語と類似していない言語である.なお,英語の文法誤り訂正は5.5節の転移先言語の学習者データのサイズに関する分析で扱う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}我々は文法誤り訂正モデルとして,\citeA{NIPS2019_8928}や\citeA{liu-etal-2020-multilingual-denoising}が機械翻訳に用いたものと同様のTransformerモデルを用いる.MLM/TLMを事前学習モデルとして用いる際は,エンコーダとデコーダをどちらもMLM/TLMで初期化する.モデルの構造はエンコーダとデコーダがそれぞれ6層,埋め込み層と隠れ層の次元数は1024とし\footnote{モデルの構造は\citeA{junczys-dowmunt-etal-2018-approaching}や\citeA{naplavastraka2019grammatical},\citeA{takahashi-etal-2020-grammatical}などの文法誤り訂正にTransformerを用いた近年の先行研究の設定に準拠している.},バッチサイズは32,ドロップアウトは確率0.1で学習を行う.最適なモデルの選択は開発データに対するパープレキシティが最も低いものを選択して行う.また,学習後に各モデルの出力を12-bestで行い,\citeA{chollampatt2018mlconv}と同様に5-gram言語モデルを用いたリランキングを行って最終的な出力を得る.モデルの評価は文法誤り訂正の評価として広く用いられているMaxMatch(M$^2$)score\cite{dahlmeierng2012better}を用いて,評価データに対するPrecision,Recall,$\mathrm{F_{0.5}}$で行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{データの詳細}実験に用いたデータの概要を表~\ref{tab:data}に示す.本研究では,事前学習モデルを学習するための単言語データとして,ロシア語,チェコ語,英語,ドイツ語はWMT-2019で配布されたNewsCrawl\footnote{\url{http://www.statmt.org/wmt19/translation-task.html}}を,日本語はWikipedia\footnote{\url{https://dumps.wikimedia.org/jawiki/}}のデータから必要な文数を抽出して用いた.また,TLMの学習に用いる対訳データとしてTEDtalks\cite{TEDtalks}\footnote{\url{https://wit3.fbk.eu/}}を用いた.TEDtalksの公開されているデータは英語と各言語間での翻訳の形であり,本研究では各言語について英語側の文が同一のものを抽出してペアにすることで英語以外の各言語間での翻訳データを再構築している.それぞれの開発データは同じコーパスから学習に用いるデータを除いた状態で表に示す文数をランダムに抽出した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\input{02table02.tex}\caption{実験に用いたデータの概要(単位は文).}\label{tab:data}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%文法誤り訂正モデルの学習に用いる学習者データとして,ロシア語はRULEC-GEC\cite{rozovskayaroth2019grammar}\footnote{\url{https://github.com/arozovskaya/RULEC-GEC}}及びLang-8コーパス\footnote{\url{https://sites.google.com/site/naistlang8corpora/}}のロシア語データ,英語はNUSCorpusofLearnerEnglish(NUCLE)\cite{dahlmeieretal2013building}\footnote{\url{https://www.comp.nus.edu.sg/~nlp/corpora.html}}及びLang-8コーパスの英語データ,チェコ語はAKCES-GEC\cite{naplavastraka2019grammatical}\footnote{\url{https://lindat.mff.cuni.cz/repository/xmlui/handle/11234/1-3057}},ドイツ語はFalko-MERLIN-GEC\cite{boyd2018using}\footnote{\url{https://github.com/adrianeboyd/boyd-wnut2018}}及びLang-8コーパスのドイツ語データ,をそれぞれ用いた\footnote{英語を転移元言語として用いる際にはNUCLEのデータのみを用いた.}.開発と評価のデータには,ロシア語,チェコ語,ドイツ語についてはコーパスに付随しているデータをそのまま用いた.英語では開発データとしてCoNLL2013\cite{ngetal2013conll}のデータを,評価データとしてCoNLL2014のデータを用い,日本語の開発データにはNAIST誤用コーパス\cite{oyama}を用いた\footnote{英語の評価データからはm2scorerを用いた評価の際に30分以上かかってしまう文を除いた.}.また,実際に実験を行うときは各言語間で実験設定を揃えるために,転移元言語のデータのサイズを転移元言語の中で最も学習者データの少ない言語に合わせて用いる\footnote{ロシア語の文法誤り訂正の際には約4万文,チェコ語と英語の文法誤り訂正の際には約5万4千文である.}.日本語の分かち書きには辞書としてUniDic(v.2.1.1)を用いた\texttt{MeCab}\footnote{\url{https://taku910.github.io/mecab},v.0.996.}を使用し,その他の言語のトークナイズにはNLTK\footnote{\url{https://www.nltk.org/}}を使用した.また,転移先言語の学習者データにはpyspellchecker\footnote{\url{https://github.com/barrust/pyspellchecker}}によるスペルチェックを前処理として行った.その後,fastBPE\footnote{\url{https://github.com/glample/fastBPE}}を用いたバイト対符号化\cite{sennrichetal2016neural}を語彙数が20,000になるように行い最終的なデータを得た.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\begin{table}[t]\input{02table03.tex}\hangcaption{ロシア語文法誤り訂正の結果.事前学習モデルは初期化に用いた事前学習モデルを,学習者データは文法誤り訂正モデル学習の際に用いた学習者データの言語と学習の手順を示す.$\cup$はデータの結合を表し,$\rightarrow$はファインチューニングを表す(例えば(Cs$\cup$Ru)$\rightarrow$Ruは,チェコ語とロシア語の結合データに対して学習を行った後に,ロシア語の学習者データのみで学習を行ったことを表す).}\label{tab:F_result_ru}\vspace{0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}表\ref{tab:F_result_ru}にロシア語の文法誤り訂正の結果を示す.(6)から(11)のMLMやTLMを用いて転移学習を行ったモデルが,(1)から(4)の事前学習モデルを用いないモデルや,(5)のロシア語のみで事前学習を行ったMLMで初期化しロシア語の学習者データのみで文法誤り訂正の学習を行ったモデルと比較して高い$\rmF_{0.5}$スコアを達成しており,転移学習が効果的に機能していることがわかる.また,最も$\rmF_{0.5}$スコアの高いモデルは(9)のTLMを用いてチェコ語からの転移学習を行ったモデルである.一方で,(13)から(15)のmBARTを用いて転移学習を行ったモデルは,(1)から(4)の事前学習モデルを用いないモデルや(12)のロシア語のみで事前学習を行ったBARTで初期化しロシア語の学習者データのみで文法誤り訂正の学習を行ったモデルとほとんど変わらない,もしくは低い$\rmF_{0.5}$スコアであり,転移学習がうまくいっていないことが読み取れる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\begin{table}[t]\input{02table04.tex}\hangcaption{チェコ語文法誤り訂正の結果.表\ref{tab:F_result_ru}と同様に,事前学習モデルは初期化に用いた事前学習モデルを,学習者データは文法誤り訂正モデル学習の際に用いた学習者データの言語と学習の手順を示す.$\cup$はデータの結合を表し,$\rightarrow$はファインチューニングを表す.}\label{tab:F_result_cs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%次に,表\ref{tab:F_result_cs}にチェコ語の文法誤り訂正の結果を示す.チェコ語の文法誤り訂正ではロシア語の文法誤り訂正と似たような傾向が見られる.すなわち,(6)から(11)のMLMやTLMを用いて転移学習を行ったモデルの$\rmF_{0.5}$スコアが,(1)から(4)の事前学習モデルを用いないモデルや(5)のチェコ語のみで事前学習を行ったMLMで初期化しチェコ語の学習者データのみで文法誤り訂正の学習を行ったモデルのスコアよりも高く,転移学習が有効であることが示されており,最も$\rmF_{0.5}$スコアが高いのは(9)のTLMを用いてロシア語からの転移学習を行ったモデルである.また,(13)から(15)のmBARTを用いたモデルの結果もロシア語の文法誤り訂正と同様の傾向で,(1)から(4)の事前学習モデルを用いないモデルや(12)のチェコ語のみで事前学習を行ったBARTで初期化しチェコ語の学習者データのみで文法誤り訂正の学習を行ったモデルとほとんど同程度の$\rmF_{0.5}$スコアであり,転移学習がうまくできていないことがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{分析} %%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文法誤り訂正における言語間での転移学習}この節では,表\ref{tab:F_result_ru},表\ref{tab:F_result_cs}の2つの結果から共通して読み取れる言語間での転移学習を用いた文法誤り訂正における転移の傾向について分析を行う.それぞれの表の結果を見ると,2つの言語の結果で共通して各言語対においてMLMやTLMを用いて転移学習を行ったモデル(表\ref{tab:F_result_ru},表\ref{tab:F_result_cs}それぞれの(6)から(11)のモデル)の$\rmF_{0.5}$スコアは,MLMやTLMを用いずに転移学習を試みた各言語対のモデル(表\ref{tab:F_result_ru},表\ref{tab:F_result_cs}それぞれの(2)から(4)のモデル)の$\rmF_{0.5}$スコアよりも高いことが示されている.これは,言語対によらずどの言語でも,多言語の学習者データをただ用いるだけではうまく知識を活かすことができず,MLMやTLMを用いることが転移学習に有効であることを示している.また,MLMやTLMを用いて最も類似した転移元言語からの転移学習を行ったモデル(表\ref{tab:F_result_ru},表\ref{tab:F_result_cs}それぞれの(6)と(9)のモデル)は,転移学習を用いずにMLMを用いて評価対象の言語のデータのみで学習したモデル(表\ref{tab:F_result_ru},表\ref{tab:F_result_cs}それぞれの(5)のモデル)よりも$\rmF_{0.5}$スコアが高いこともわかる.これは,誤り訂正の対象とする言語のデータのみで文法誤り訂正を学習するよりも適切な設定で多言語の知識を入れることが有効であるということを示している.加えて,どちらの言語の文法誤り訂正でも,TLMを用いて最も類似した言語から転移を行ったモデル(表\ref{tab:F_result_ru},表\ref{tab:F_result_cs}それぞれの(9)のモデル)の$\rmF_{0.5}$スコアが最も高く,他言語の文法知識を転移させる場合は言語の近さが重要になることを示唆している.一方で,MLM/TLMを用いたモデル(表\ref{tab:F_result_ru},表\ref{tab:F_result_cs}それぞれの(6)から(11)のモデル)と同様に事前学習モデルを用いているのにも関わらず,mBARTを用いて転移学習を行ったモデル(表\ref{tab:F_result_ru},表\ref{tab:F_result_cs}それぞれの(13)から(15)のモデル)は,どの転移元の言語を用いたモデルでも評価対象の言語の単言語データのみで学習したモデル(表\ref{tab:F_result_ru},表\ref{tab:F_result_cs}それぞれの(5)と(12)のモデル)よりも$\rmF_{0.5}$スコアが低いもしくは同程度であり,転移がうまくいっていないことがわかる.これは事前学習モデルの構造の違い(エンコーダのみのモデルとエンコーダ・デコーダモデルの違い)によるものではないかと考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{事前学習モデルの構造の影響}この節では前節で示された,用いる事前学習モデルによる結果の差について,単言語の文法誤り訂正の学習を行う追加の実験と,文法誤り訂正の学習前後でのモデルの類似度の観点から分析を行う.また,この節での分析を行う前の予備実験として,mBARTのファインチューニングが適切に行えていることを学習時のlossやパープレキシティから検証し,ファインチューニングが適切に行われている上で結果の差が生まれていることを確認した.予備実験の結果と議論については付録Aに示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{単言語と多言語の学習者データ}4.5節で述べたように,MLM/TLMを用いて転移学習を行ったモデル(表\ref{tab:F_result_ru},表\ref{tab:F_result_cs}それぞれの(9)から(11)のモデル)は事前学習モデルを用いずに転移学習を行ったモデル(表\ref{tab:F_result_ru},表\ref{tab:F_result_cs}それぞれの(2)から(4)のモデル)と比較して$\rmF_{0.5}$スコアが高いのに対し,mBARTを用いて転移学習を行ったモデル(表\ref{tab:F_result_ru},表\ref{tab:F_result_cs}それぞれの(13)から(15)のモデル)は事前学習モデルを用いずに転移学習を行ったモデルとほとんど$\rmF_{0.5}$スコアが変わらない結果となっている.一方で,転移学習を用いず対象の言語の学習者データのみで学習を行ったモデルについては,表\ref{tab:F_result_ru},表\ref{tab:F_result_cs}それぞれの(5)に示すMLMを用いたモデルと表\ref{tab:F_result_ru},表\ref{tab:F_result_cs}それぞれの(12)に示すBARTを用いたモデルで大きな変化は見られない.これはエンコーダ・デコーダの構造の事前学習モデルで初期化された文法誤り訂正モデルが文法誤り訂正に有効ではないというわけではなく,``多言語の学習者データを扱う''という設定においてのみうまく学習ができない可能性を示唆している.我々はこの仮説を確かめるために,ロシア語とチェコ語で事前学習を行ったmBARTモデルに対して,転移元言語の学習者データを用いるfine-tuning1を行わずに転移先言語(評価対象の言語)の学習者データのみを用いるfine-tuning2を直接行い,結果を比較した.それぞれの結果を表\ref{tab:F_result_with_or_without_transfer}に示す.転移元ありと書かれたモデルがこれまでの結果で示した,転移元言語の学習者データと転移先言語の学習者データを用いるfine-tuning1と転移先言語の学習者データのみを用いるfine-tuning2を通して転移学習を行ったモデルであり,転移元なしと書かれたモデルがfine-tuning1を行わず評価対象の言語の学習者データでのfine-tuning2のみで文法誤り訂正を学習したモデルである.結果を見ると,転移元言語の学習者データなしで学習したモデルの方がPrecision,Recall,$\rmF_{0.5}$の全てで高くなっており,mBARTを用いたモデルは単言語の学習者データでの学習はうまくいくものの,多言語の学習者データを使った転移学習がうまくできていないことがわかる.これはmBARTを用いて単言語の文法誤り訂正モデルの学習を行い性能向上を確認した\citeA{katsumata-komachi-2020-stronger}の結果と矛盾しないものである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\input{02table05.tex}\hangcaption{ロシア語とチェコ語で事前学習されたmBARTで初期化した文法誤り訂正モデルに対して,転移元言語の学習者データを用いる場合と用いない場合の実験結果.}\label{tab:F_result_with_or_without_transfer}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.4\begin{figure}[t]\begin{center}\includegraphics{29-2ia2f4.pdf}\end{center}\hangcaption{ロシア語文法誤り訂正モデルとチェコ語文法誤り訂正モデルの文法誤り訂正学習前後でのCKAによる各層の類似度.各行はそれぞれ,Embは埋め込み層,E\_L0からE\_L1はエンコーダの各層,D\_L0からD\_L5はデコーダの各層,Avgは全体の平均,E\_Avgはエンコーダの平均,D\_Avgはデコーダの平均を示している.}\label{fig:cka}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection{文法誤り訂正の学習前後でのモデルの変化}我々はこれらのエンコーダのみの構造の事前学習モデルとエンコーダ・デコーダの構造の事前学習モデルを用いた場合の多言語学習者データでの文法誤り訂正モデルの学習の差について,モデルのデコーダ部分に原因があるのではないかと考え,より詳しく分析するために,ニューラルネットワークの類似度を測る手法であるCenteredKernelAlignment(CKA)\cite{pmlr-v97-kornblith19a}を用いて,文法誤り訂正学習前の事前学習モデルと文法誤り訂正学習後の最終的なモデルの各層の類似度を計算した.CKAはフロベニウスノルムを用いて以下の式に示すような定義で与えられる.\[\mathrm{CKA}(X,Y)=\frac{||Y^TX||^2_\mathrm{F}}{(||X^TX||_\mathrm{F}||Y^TY||_\mathrm{F})}\]ここで,$X$と$Y$はそれぞれ文法誤り訂正の評価データ全文に対する各層の各サブワードトークンの表現の平均をとった隠れ層の次元サイズの行列である.結果を図\ref{fig:cka}に示す.結果を見るとTLMを用いたモデルは文法誤り訂正の学習前後でのデコーダの類似度が低いのに対し,mBARTを用いたモデルではエンコーダとデコーダが共に文法誤り訂正の学習前後で類似度が高いことがわかる.すなわち,エンコーダのみの構造の事前学習モデルで初期化した文法誤り訂正モデルは,事前学習したエンコーダを保持しながらデコーダをほぼ一から学習している一方で,エンコーダ・デコーダの構造の事前学習モデルで初期化した文法誤り訂正モデルは,事前学習時のエンコーダとデコーダを双方ともほぼ引き継ぐような形で文法誤り訂正の学習を行っていると考えられる.これらの結果から,エンコーダ・デコーダの構造の事前学習モデルをもとに多言語の学習者データを用いて文法誤り訂正の学習を行う際に,大きく次の2つの可能性が示唆される.一つ目は,デコーダも含めて事前学習することが有効ではない可能性である.実際,機械翻訳分野において\citeA{rothe-etal-2020-leveraging}が,デコーダのみの構造の事前学習モデルで初期化した機械翻訳モデルの性能が,エンコーダのみの構造の事前学習モデルで初期化した機械翻訳モデルの性能よりも低下することを報告している.二つ目は,エンコーダ・デコーダの双方を事前学習した場合にはエンコーダのみの構造の事前学習モデルを用いる場合とは異なる工夫が必要な可能性である.例えば,\citeA{rothe-etal-2021-simple}はmT5で多言語の学習者データを用いて文法誤り訂正の学習を行う際に,事前学習時のタスクは文法誤り訂正とは異なるため,文法誤り訂正に近い事前学習を再度行ってから実際の学習データで文法誤り訂正の学習を行うことが必要だと述べている.また\citeA{PAJAK2022116948}は25言語や50言語のよりサイズの大きい単言語データで事前学習の行われたmBARTをfine-tuningすることで多言語文法誤り訂正モデルの構築が可能であることを示している.文法誤り訂正に限らず,このような事前学習モデルと下流タスクとの関係は未だ明らかになっていないことも多く,今後より詳しい分析が必要になってくると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{誤りタイプごとの訂正性能}ここからは転移学習が有効であったMLM/TLMを用いた文法誤り訂正モデルに対して分析・考察を行う.この節では言語間で類似した誤りが転移しているかどうかについての分析を行う\footnote{チェコ語は言語的にはロシア語に類似するものの,チェコ語学習者のデータに付与されている誤りタイプはその他の言語に付与されている誤りタイプとは大きく異なる方針で付与されており,言語間で類似した誤りについての分析が困難であるため,本研究ではチェコ語の文法誤り訂正について誤りタイプごとの転移の分析は行わない.}.表~\ref{tab:error_recall}に各ロシア語文法誤り訂正モデルのRULEC-GEC中の出現頻度が上位10件の誤りタイプに対するRecallを示す.結果から,チェコ語を転移元言語としたモデルはほとんどの誤りにおいてベースラインモデルのRecallを上回っていることがわかる.加えて,ロシア語とチェコ語で類似した誤りタイプ(Spelling,Lexicalchoice(語彙の選択についての誤り),Adj:Case(形容詞の格変化についての誤り),Noun:Case(名詞の格変化についての誤り))について,TLMを用いてチェコ語から転移を行ったモデルが最も高いスコアを得ている.これらの結果は言語間で類似した文法項目の誤りの知識について,言語間での転移学習を用いることで転移が可能であることを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\input{02table06.tex}\hangcaption{RULEC-GEC中で頻度上位10件の誤りタイプに対する各モデルのRecall.(No-LMのモデルは事前学習モデルを用いていない表\ref{tab:F_result_ru}の(1)のモデル,MLMのモデルはロシア語のみのMLMで初期化した表\ref{tab:F_result_ru}の(5)のモデル,TLMのモデルはそれぞれ左から表\ref{tab:F_result_ru}の(9),(10),(11)のモデルに対応している.)}\label{tab:error_recall}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\input{02table07.tex}\hangcaption{Adj:CaseとNoun:Caseの誤りタイプに対する各モデルの出力例.赤色の単語は誤りを含む単語であり,青色の単語は正しく訂正された単語である.中括弧の中に示されているのは詳しい誤りタイプである.前半の文字は品詞を示しており,``A''は形容詞,``N''は名詞を表す.後半はその単語の格を示しており,``Nom''は主格,``Gen''は属格,``Pre''は前置詞格,``Inst''は具格である.}\label{tab:out_error}\vspace{-0.5\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:out_error}に各ロシア語文法誤り訂正モデルのAdj:Case,Noun:Caseの誤りを含む文に対する出力例を示す.下線の引かれている単語がそれぞれAdj:CaseとNoun:Caseの誤りである.原文と参照文を比較するとそれぞれの誤った単語について活用が変化し,正しい格への訂正が行われていることがわかる.各モデルの結果を見ると,まず転移学習を行わずロシア語のみで学習を行ったモデルは正しい文への訂正ができていないことがわかる.これは訓練データが少ないことによる影響だと考えられる.日本語を転移元言語としたモデルは,名詞の誤りに対して正しい格への訂正を行うのではなく,別の単語への編集を行ってしまっている.また,英語は前置詞関係を別の単語を用いて表現する言語であり,前置詞格を持ち単語の活用で表現するロシア語とは異なるため,\pagebreak英語を転移元言語としたモデルでは前置詞格への訂正ができていないこともわかる.チェコ語を転移元としたモデルはこの中で唯一正しい訂正ができている.これは,チェコ語が持つ7つの格のうちの6つがロシア語と共通しており類似しているため,ロシア語の形容詞と名詞の格変化に関する誤り訂正に必要な文法知識が,チェコ語の学習者データから転移できているためであると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{転移元言語の学習者データサイズに対する分析}ここまでは文法誤り訂正においてエンコーダモデルの事前学習モデルと多言語の学習者データを用いることで,言語間で類似した文法知識の転移が可能であり,その際により近い言語を用いることで転移学習が効果的に行われることを示した.この節では転移元言語の学習者データが増加した際にどのような影響が出るかについて分析を行う.転移元言語のデータサイズに関する分析を行うために,ロシア語とチェコ語の文法誤り訂正それぞれで,英語を転移元とする設定において英語の学習者データにLang-8コーパスも含めることでデータサイズを大きくして実験を行った.TLMを用いたモデルの各データサイズに対する結果の比較を表\ref{tab:source_data_size}に示す.結果を見ると,ロシア語とチェコ語でともに転移元の学習者データが増えたモデルの方が$\rmF_{0.5}$スコアが高いことがわかる.これは転移元の言語の学習者データを増やすことで,転移元の言語と転移先の言語の学習者データのバランスが変化するにもかかわらず転移学習の効果があり,さらに転移元言語のデータが少ない時に比べてより誤り訂正の性能は向上することを示している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\input{02table08.tex}\hangcaption{転移元の英語の学習者データのサイズを変えた時のTLMを用いたロシア語・チェコ語文法誤り訂正の結果.small-Enは表\ref{tab:F_result_ru},表\ref{tab:F_result_cs}と同様の設定であり,large-Enは英語の学習者データにLang-8の英語データ約130万文を追加した設定である.}\label{tab:source_data_size}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{転移先言語の学習者データサイズに対する分析}この節では5.4節とは逆に転移先言語のデータが転移元言語よりも多い場合についての実験を行う.我々は,転移先言語のデータサイズによる転移学習への影響を調査するために,新たに英語の文法誤り訂正について2つのデータサイズの設定で実験を行った.1つ目の設定ではNUCLEのみを訓練データとして用いる,すなわち,英語の訓練データの総文数は約5万7千文であり,この設定を``NUCLEonly''と呼ぶ.2つ目の設定ではNUCLEと英語のLang-8のデータを訓練データとして用いる,すなわち,英語の訓練データの総文数は約130万文+約5万7千文であり,この設定を``NUCLE+Lang-8-En''と呼ぶ.表\ref{tab:en_F_result}に英語の文法誤り訂正の結果を示す.``NUCLEonly''の設定では各モデルの結果はロシア語やチェコ語と似たような傾向となっており,(6)から(11)のMLM/TLMを用いて転移学習を行ったモデルの$\rmF_{0.5}$スコアが(1)から(4)のMLM/TLMを用いていないモデルのスコアよりも高く,最も英語に近いドイツ語からの転移をTLMを用いて行った(9)のモデルの$\rmF_{0.5}$スコアが最も高いことがわかる.対して,``NUCLE+Lang-8-En''の設定では(6)から(11)のMLM/TLMを用いて転移学習を行ったモデルの$\rmF_{0.5}$スコアが(1)から(4)のMLM/TLMを用いなかったモデルよりは高いものの,(5)の英語のみで事前学習を行ったMLMで初期化し英語の学習者データのみで文法誤り訂正の学習を行ったモデルの$\rmF_{0.5}$スコアとはほとんど差がないことがわかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\input{02table09.tex}\hangcaption{英語の文法誤り訂正の結果.``NUCLEonly''の設定の英語の学習者データの文数は約5万7千文であり,``NUCLE+Lang-8-En''の設定の英語の学習者データの文数は約130万文+5万7千文である.$\cup$はデータの結合を表し,$\rightarrow$はファインチューニングを表す.}\label{tab:en_F_result}\vspace{-1\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%より詳細な分析を行うために,ロシア語の文法誤り訂正の際と同様に誤りタイプごとの訂正性能について調査した.具体的には,grammaticalERRorANnotationToolkit(ERRANT)\cite{bryant-etal-2017-automatic}\footnote{\url{https://github.com/chrisjbryant/errant}}を用いてLang-8の英語データに誤りタイプを付与し,頻度上位5件(determiner,preposition,punctuation,verb,verbtense)と下位5件(spelling,pronoun,verbform,morphology,subject-verbagreement)の誤りタイプについて各モデルのRecallを計算した.それぞれの設定に対する結果を表\ref{tab:error_recall_en_nucleonly}と表\ref{tab:error_recall_en_nucle_lang8}に示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table10\begin{table}[p]\input{02table10.tex}\hangcaption{評価データでの出現回数が50件以下である誤りタイプを除いたもののうち,Lang-8の英語データ中の出現回数が上位5件と下位5件の誤りタイプに対する``NUCLEonly''の設定の各文法誤り訂正モデルのRecall.(No-LMのモデルは事前学習モデルを用いていない表\ref{tab:en_F_result}の(1)のモデル,MLMのモデルは英語のみのMLMで初期化した表\ref{tab:en_F_result}の(5)のモデル,TLMのモデルはそれぞれ左から表\ref{tab:en_F_result}の(9),(10),(11)のモデルに対応している.)}\label{tab:error_recall_en_nucleonly}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table11\begin{table}[p]\input{02table11.tex}\hangcaption{評価データでの出現回数が50件以下である誤りタイプを除いたもののうち,Lang-8の英語データ中の出現回数が上位5件と下位5件の誤りタイプに対する``NUCLE+Lang-8-En''の設定の各文法誤り訂正モデルのRecall.(各モデルと表\ref{tab:en_F_result}との対応は表\ref{tab:error_recall_en_nucleonly}と同様である.)}\label{tab:error_recall_en_nucle_lang8}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:error_recall_en_nucleonly}に示す``NUCLEonly''の設定に対する結果を見ると,ほとんどの誤りタイプで最も近い言語であるドイツ語から転移を行ったモデルが最も高いRecallを示していることがわかる.これはロシア語やチェコ語の結果と同様に,言語によらず転移元の言語と転移先の言語のデータサイズに大きな差がない場合は,言語間での転移学習により文法知識の転移が可能であり,特により近い言語の学習者データを用いることが有効であることを示している.対して,表\ref{tab:error_recall_en_nucle_lang8}に示す``NUCLE+Lang-8-En''の設定の結果を見ると,頻度上位5件の誤りタイプについてはどの言語から転移したモデルでも性能の向上は見られないことがわかる一方で,下位5件の誤りタイプについては少し異なる傾向が見られる.日本語から転移したモデルはpronoun,verbform,subject-verbagreementの誤りタイプについて単言語のデータを用いたモデルよりも性能が下がっており,これは日本語と英語の間でこれらの誤りに関しての類似点が存在しないためだと考えられる.対して,ドイツ語から転移したモデルはpronoun,morphology,subject-verbagreementという英語とドイツ語間で類似した誤りについてベースラインモデルよりも高いRecallを達成していることがわかる.このことから,転移先の言語のデータサイズが転移元言語のデータサイズに比べて非常に大きい場合において,転移学習を用いることによる全体の訂正性能の改善は見られないが,頻度が少なくかつ言語間で類似した誤りの知識については転移がなされていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{疑似誤りデータによるデータ拡張との比較}この節では,近年文法誤り訂正の学習において一般的なデータ拡張である疑似誤り生成と,本研究で扱っている他言語のデータを用いた言語間での転移学習について比較を行い,文法知識が転移可能であることが既存手法と比較してどのような新しい効果をもたらすかについて,ロシア語とチェコ語の誤り訂正を例に議論を行う.現在疑似誤り生成の手法には\citeA{kiyonoetal2019empirical}で紹介されているように,文法誤り訂正と同様に人手で訂正を施されたデータを用いて,通常の文法誤り訂正とは逆に誤りを生成するような学習を行う逆翻訳モデルを用いる手法(B{\footnotesizeACKTRANS})と,確率的に単語の順序の入れ替えなどの操作を行い文法的に正しい文に対して直接誤りを生成する手法(D{\footnotesizeIRECT}N{\footnotesizeOISE})の大きく2つが存在する.我々は今回比較する疑似誤り生成手法として,B{\footnotesizeACKTRANS}の手法ではなく,D{\footnotesizeIRECT}N{\footnotesizeOISE}の手法の1つである,\citeA{zhaoetal2019improving}の手法を用いた.これは,今回比較の対象としているロシア語とチェコ語は英語とは異なり人手で訂正を施された学習者データが少なく,実用上逆翻訳モデルの学習が難しいと考えられ,加えて,ロシア語とチェコ語に対してD{\footnotesizeIRECT}N{\footnotesizeOISE}の手法を用いて性能向上を報告した先行研究\cite{naplavastraka2019grammatical}が存在しているためである.疑似誤りを生成するためのデータには,MLM/TLMとmBARTを事前学習する際に用いた文を除いたNewsCrawlのデータを用い,最終的に生成された文数は,ロシア語が約750万文,チェコ語が約550万文となった.疑似誤りを用いた学習の際には,まず対象とする言語のラベルなしデータで事前学習を行ったMLMで文法誤り訂正モデル初期化し,その後既存研究\cite{kiyonoetal2019empirical,grundkiewicz-junczys-dowmunt-2019-minimally,grundkiewiczetal2019neural}に従い,生成した疑似誤りデータで文法誤り訂正の学習を行い,最後に人手で訂正を施された学習者データでファインチューニングを行うという手順で行った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table12\begin{table}[t]\input{02table12.tex}\hangcaption{ロシア語文法誤り訂正における疑似誤り生成を用いたモデルと言語間転移学習を用いたモデルの比較.学習者データの列中のpseudo\_Ruはロシア語の擬似誤りを示す.}\label{tab:F_result_pseudo_ru}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table13\begin{table}[t]\input{02table13.tex}\hangcaption{チェコ語文法誤り訂正における疑似誤り生成を用いたモデルと言語間転移学習を用いたモデルの比較.学習者データの列中のpseudo\_Csはチェコ語の擬似誤りを示す.}\label{tab:F_result_pseudo_cs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%表\ref{tab:F_result_pseudo_ru},表\ref{tab:F_result_pseudo_cs}にロシア語とチェコ語の文法誤り訂正における,言語間での転移学習を用いたモデルと疑似誤りを用いたモデルとの比較結果を示す.結果を見ると,ロシア語・チェコ語ともに数百万文の疑似誤りデータを用いているにもかかわらず,データ量の少ない転移学習を用いたモデルのスコアの方が高いことがわかる.一方で\citeA{naplavastraka2019grammatical}は,\citeA{zhaoetal2019improving}の疑似誤り生成手法を改善した\citeA{grundkiewiczetal2019neural}の手法を用いて,ロシア語とチェコ語の文法誤り訂正を行っており,疑似誤り生成に際して各言語に合わせたパラメータのチューニングや,ルールの追加による手法の改善,また,疑似誤りデータでの事前学習後のファインチューニングの際に疑似誤りデータと学習者データを言語ごとに一定の比で組み合わせて学習する,などの誤り訂正の対象となる言語のデータに特化した調整を数多く行うことで,本研究の結果よりも大幅な性能の向上を報告している.これらの結果から,D{\footnotesizeIRECT}N{\footnotesizeOISE}によって生成された疑似誤りデータによる性能改善のためには,単にデータを増やすだけでなく,対象とする言語に合わせた調整が重要であると考えられる.このような言語固有の調整は,文法誤り訂正に関して詳しいだけでなく,対象とする言語に対しての知識も重要であり,顕著に性能を改善させるためには多くの労力が必要となる.また,B{\footnotesizeACKTRANS}の手法については上述の通り,人手での訂正が施されたデータの少ない言語では用いることが難しい.対して,本研究で示す他言語の学習者データを用いて転移学習を行うことで性能向上を図る手法は,言語固有の調整は必要なく,より少ないデータで容易に性能向上が可能である.加えて,ここまでは単純なデータ拡張の手法の一つとしての本研究の意義について議論を行ってきたが,言語間での転移学習は疑似誤りによるデータ拡張と対立する手法ではなく,例えば,\citeA{rothe-etal-2021-simple}のようにより大きな疑似誤りデータによる学習と組み合わせることも可能であり,その他のデータ拡張とともに用いることでの性能向上も考えられる.また,本研究で明らかにしている言語間での文法知識の転移は,言語間での類似度などを考慮したより性能の高い多言語文法誤り訂正モデルの学習や,データの全く存在しない言語や少ない言語に対しての類似した言語のデータを用いるzero-shotやfew-shotでの文法誤り訂正の研究など,今後の様々な研究の余地が残されており,データ拡張の手法以外の観点での発展も期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{おわりに} 本研究では,文法誤り訂正において言語間での転移学習により文法知識の転移が可能であるかを調査した.我々は文法誤り訂正モデルの学習に際し,まず事前学習モデルの学習を行い,その後事前学習モデルで初期化した文法誤り訂正モデルを転移元の言語の学習者データと転移先言語の学習者データを用いて学習し,最後に転移先の言語の学習者データのみでfine-tuningを行うことで言語間での転移学習を行った.実験の結果,エンコーダのみの構造を用いた事前学習モデルと多言語の学習者データを用いて言語間での転移学習が可能である,すなわち言語間で文法知識の転移が可能であることを明らかにし,より近い言語間を用いることで類似した文法項目の転移が行われることも示した.また,転移元の言語と転移先の言語の学習者データのサイズに関わらず,類似した言語間での共通した文法項目の転移は行われていることも併せて示した.一方で,エンコーダ・デコーダの構造の事前学習モデルを用いた実験では,事前学習されたデコーダが多言語の学習者データを扱う際に悪影響を及ぼしている可能性を示した.この結果については様々な先行研究との関連が考えれるため今後の研究の余地があり,事前学習されたデコーダの挙動についてはさらに詳細な分析を行っていきたい.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgmentLang-8のデータ使用にあたり,データを共有して頂きました株式会社Lang-8の喜洋洋様に感謝申し上げます.本研究の一部はJSPS科研費19KK0286の助成を受けたものです.本論文の一部の内容は,The28thInternationalConferenceonComputationalLinguisticsにて発表したものである\cite{yamashita-etal-2020-cross}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.6}\begingroup%%%%\addtolength{\baselineskip}{-0.5pt}\bibliography{02refs}\endgroup%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\appendix%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%% \section{mBARTで初期化したモデルの学習の推移} 図\ref{fig:CsRu_finetuning_graph}にチェコ語とロシア語で事前学習を行ったmBARTをロシア語文法誤り訂正のためにfine-tuning1とfine-tuning2でそれぞれ50エポック続けて学習した際の訓練データと開発データに対するlossとパープレキシティを示す.まず,fine-tuning1の際のlossとパープレキシティの動きを見ると,最初の10エポック程度までにどちらも順調に下がり,その後は収束していることがわかる.これは学習しているモデルが事前学習されたモデルで初期化されていることと,訓練データの規模が小さいことが理由であり,問題なく学習が行われていると思われる.次に,fine-tuning2の際のlossとパープレキシティの動きを見ると,先ほどのfine-tuning1の際よりもさらに収束が早くなっていることがわかる.これは事前学習に加えて文法誤り訂正による学習がすでに一度行われていること,加えて,fine-tuning1と比較して言語が一つに絞られたことでデータが少なくなり,タスクの難易度も低下したことが原因だと考えられる.また,fine-tuning2の際の学習の収束の早さはMLM/TLMを用いたモデルでも同様の傾向が確認されており,これらの理由からfine-tuning2に関してもfine-tuning1と同様に問題なく学習が行われていると思われる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.5\begin{figure}[t]\begin{center}\includegraphics{29-2ia2f5.pdf}\end{center}\hangcaption{mBARTCs$\rightarrow$Ruのfine-tuning1,fine-tuning2それぞれの学習時のlossとパープレキシティ(pplはパープレキシティを示す).}\label{fig:CsRu_finetuning_graph}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{山下郁海}{%2020年首都大学東京(現東京都立大学)システムデザイン学部システムデザイン学科情報通信システムコース卒業.2022年東京都立大学システムデザイン研究科情報科学域博士前期課程修了.同年よりヤフー株式会社入社.現在に至る.}\bioauthor{金子正弘}{2016年北見工業大学工学部情報システム工学科卒業.同年,首都大学東京(現東京都立大学)システムデザイン研究科博士前期課程に進学.2018年博士前期課程修了.同年,東京都立大学システムデザイン研究科博士後期課程に進学.2019年より日本学術振興会特別研究員(DC2)を経て,2021年博士後期課程修了.博士(情報科学).同年より東京工業大学情報理工学院研究員.}\bioauthor{三田雅人}{理化学研究所革新知能統合研究センター自然言語理解チームテクニカルスタッフ.2016年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.日本マイクロソフト株式会社のエンジニアを経て.2018年より現職.2021年に東北大学大学院情報科学研究科博士後期課程を修了.同年より,東京都立大学特任助教を兼任.文法誤り訂正を中心とした自然言語処理による言語学習/教育支援に関心がある.言語処理学会,ACL各会員.}\bioauthor{勝又智}{2018年首都大学東京システムデザイン学部情報通信システムコース卒業.2020年同大学大学院システムデザイン研究科情報科学域博士前期課程修了.同年株式会社レトリバ入社.現在に至る.自然言語処理分野の研究に従事.}\bioauthor{ImankulovaAizhan}{%2011年サトバイエフカザフ国立工科大学オートメーションおよび制御学部卒業.2014年国際情報技術大学情報システム研究課博士前期課程卒業.2017年首都大学東京システムデザイン研究科研究生卒業.同年,首都大学東京システムデザイン研究科博士後期課程に進学.2021年博士後期課程修了.博士(工学).同年より株式会社CogSmart入社.}\bioauthor{小町守}{2005年東京大学教養学部基礎科学科科学史・科学哲学分科卒業.2008年より日本学術振興会特別研究員(DC2)を経て,2010年奈良先端科学技術大学院大学情報科学研究科修了.博士(工学).同年より奈良先端科学技術大学院大学情報科学研究科助教を経て,2013年より首都大学東京(現東京都立大学)システムデザイン学部准教授.2022年より同教授.大規模なコーパスを用いた意味解析及び統計的自然言語処理に関心がある.言語処理学会20周年記念論文賞,言語処理学会第14回年次大会最優秀発表賞,情報処理学会平成22年度山下記念研究賞,2010年度本学会論文賞等を受賞.情報処理学会,言語処理学会,ACL各会員.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
V19N04-03
\section{はじめに} 本論文では対象単語の用例集合から,その単語の語義が新語義(辞書に未記載の語義)となっている用例を検出する手法を提案する.新語義の検出は語義曖昧性解消の問題に対する訓練データを作成したり,辞書を構築する際に有用である.また新語義の検出は意味解析の精度を向上させる\cite{erk}.また新語義の用例はしばしば書き誤りとなっているので,誤り検出としても利用できる.新語義検出は一般にWordSenseDisambiguation(WSD)の一種として行う方法,新語義の用例をクラスターとして集めるWordSenseInduction(WSI)のアプローチで行う方法\cite{denkowski},及び新語義の用例を用例集合中の外れ値とみなし,外れ値検出の手法を用いる方法\cite{erk}がある.ここでは外れ値検出の手法のアプローチを取る.ただしデータマイニングで用いられる外れ値検出の手法は教師なしであるが,本タスクの場合,少量の用例に語義のラベルが付いているという教師付きの枠組みで行う方が自然であり,ここでは教師付き外れ値検出の手法を提案する.提案手法は2つの検出手法を組み合わせたものである.第1の手法は代表的な外れ値検出手法であるLocalOutlierFactor(LOF)\cite{lof}を教師付きの枠組みに拡張したものである.第2の手法は,対象単語の用例(データ)の生成モデルを用いたものである.一般に外れ値検出はデータの生成モデルを構築することで解決できる.提案手法では第1の手法と第2の手法の出力の積集合を取ることで,最終の出力を行う.提案手法の有効性を確認するために,SemEval-2の日本語WSDタスク\cite{semeval-2010}のデータを利用した.従来の外れ値検出の手法と比較することで提案手法の有効性を示す.実験を通して,外れ値検出に教師データを利用する効果も確認する.またSVMによるWSDの信頼度を利用した外れ値検出も行い,WSDシステム単独では新語義の検出は困難であることも示す. \section{従来の新語義検出手法} \subsection{WSDの信頼度の利用}WSDは語義を識別するタスクなので,WSDシステムを利用すれば新語義を検出できると考えるのは自然である.WSDの対象単語\(w\)の語義のクラスを\(C\)とする.関数\(f(x,c)\)はあるWSDシステムが出力する用例\(x\)中の\(w\)の語義が\(c\inC\)となる信頼度とする.このWSDシステムは\(argmax_{c\inC}f(x,c)\)により語義を識別する.新語義の検出はある閾値\(\alpha\)を定め,\begin{equation}\forallc\inC\\\\f(x,c)<\alpha\label{eq:1}\end{equation}のときに\(x\)を新語義の用例と判定することで,新語義を検出できる.ただし適切な\(\alpha\)の値は単語毎に異なるはずであり,その設定は困難である.またWSDは識別のタスクであり,一般にWSDシステムはSVMのような識別モデルをもとに構築される.そのためシステムは語義の識別精度が上がるように最適化されており,\(f(x,c_i)\)の値は\(f(x,c_j)\)との相対的なものである.つまり\mbox{式(\ref{eq:1})}により新語義が検出できる保証はない.例えば図\ref{fig1}のような状況を考えてみる.図\ref{fig1}のクラス1とクラス2を分離する直線が,分類器に対応する識別境界とする.データがクラスに属する信頼度は,一般に,識別境界までの距離で測るので,図\ref{fig1}のデータaとデータbはクラス1と識別され,その信頼度は等しくなる.識別の場合はデータが識別境界のどちら側に属するかだけが重要なので,それで十分であるが,データaとデータbを比べると,明らかにデータbの方がクラス1に属する信頼度が低い\footnote{分類器がSVMの場合,データを高次元に写すので図\ref{fig1}の例は特殊であるが,SVMでも同じ問題は内在する.また査読者から図\ref{fig1}の例には問題があり削除するよう指示があったが,何が問題かが理解できなかったので,あえて本例は削除していない.}.\begin{figure}[t]\begin{center}\includegraphics{19-4ia3f1.eps}\end{center}\caption{識別の信頼度と外れ値の度合い}\label{fig1}\end{figure}\subsection{WSIによる検出}従来,新語義の検出はWordSenseInduction(WSI)というタスクの一部として行われてきた\cite{shutze,stefan,kuoka}.WSIは本質的には対象単語の用例を語義に基づいてクラスタリングするタスクである\cite{denkowski}.用例集合中に新語義の用例があれば,それらも語義のクラスターとして出現するために新語義の検出として利用できる.ただし陽に新語義を検出するには,得られたクラスターに語義のラベルを付与する必要がある\cite{tanaka-h}.Shiraiは辞書に記述された語義の定義文を利用して,得られたクラスターに語義のラベルを付けることで新語義を検出しようとしている\cite{shirai-semeval2}.またSugiyamaは既存語義の用例を種用例として,用例集合を半教師なしクラスタリングによりクラスタリングした\cite{sugiyama}.種用例のないクラスターが新語義のクラスターとなる.ただしどちらもクラスタリング自体の精度が悪く,新語義の検出までには至っていない.本来,クラスターに語義のラベルを付けるためには,語義のラベル集合が必要である.語義のラベル集合を定めた場合に,WSIとWSDとの違いはほとんどなくなる.WSDを行う前に教師なし学習であるクラスタリングを行うアプローチが,新語義の検出に有効かどうかは不明である.また用例を語義に基づいてクラスタリングする場合,クラスターの数の決め方が大きな問題になる\cite{agirre}.また新語義がクラスターを形成するという仮定は,多くの新語義に対して当てはまらない.クラスターを形成するくらいに,その語義の用例が存在するのであれば,その語義は新語義ではなく既に一般的な語義と考えられる.\subsection{外れ値検出による検出}新語義の用例を用例集合内の外れ値と見なし,外れ値検出の手法を利用して新語義を検出するアプローチがある.\begin{figure}[b]\begin{center}\includegraphics{19-4ia3f2.eps}\end{center}\caption{外れ値検出手法の最近傍法}\label{fig-erk}\end{figure}Erkは外れ値検出手法の最近傍法を利用して新語義の検出を試みた\cite{erk}.対象単語\(w\)の語義が付与された用例集を\(D\)とし,用例\(x\)の外れ値の度合い\(out(x)\)を\mbox{式(\ref{eq:siki1})}で測り,この値が1以上の\(x\)を新語義の用例とした.ここで\(d(x,y)\)は用例\(x\)と用例\(y\)間の距離である.\begin{equation}out(x)=\frac{d(x,y)}{\min_{z\inD}d(y,z)}\qquad\text{where}\quady=argmin_{y'\inD}d(x,y')\label{eq:siki1}\end{equation}この式は\(D\)の中で\(x\)と最も距離が近いデータ\(y\)を選び,更にその\(y\)と最も距離が近い\(D\)内のデータ\(z\)を選んで,\(d(x,y)\)と\(d(y,z)\)の比を取ったものである(図\ref{fig-erk}参照).ただし最近傍法が妥当な精度を出すには,大量の訓練データを必要とするという問題がある. \section{外れ値検出手法} データマイニング分野の外れ値検出手法は非常に多岐にわたるが,その多くは変化点検出の手法に位置づけられる\cite{yamanishi}.つまり時系列的にデータが生起するオンラインでのタスクに対する手法が中心である.新語義検出のようなバッチ的なタスクに対する手法としては,密度ベースの手法,OneClassSVM,生成モデルによる手法が代表的な手法である.ここではこの3つの手法を本論文の提案手法との比較手法とする.\subsection{密度ベースの手法}外れ値検出は古典的にはマハラノビス距離を用いた距離ベースの手法が中心だが,それを改良したのが密度ベースの手法であり,密度ベースの代表的な手法がLOFである.LOFは,データの近傍の密度を利用することで,そのデータの外れ値の度合いを測り,その値によって外れ値を検出する.LOFにおけるデータ\(x\inD\)における外れ値の度合いを\(LOF(x)\)と表記する.ここで\(D\)はデータ全体の集合である.\(LOF(x)\)を定義するために,いくつかの式を定義しておく.まず\(kdist(x)\)は\(x\)に対する\(k\)距離と呼ばれる値で,以下の条件を満たすデータ\(o\inD\)との距離\(d(x,o)\)として定義される.\begin{enumerate}\item少なくとも\(k\)個のデータ\(o'\inD\setminus\{x\}\)に対して\(d(x,o')\leqd(x,o)\)が成立する.\item高々\(k-1\)個のデータ\(o'\inD\setminus\{x\}\)に対してのみ\(d(x,o')<d(x,o)\)が成立する.\end{enumerate}直感的には,上記のデータ\(o\)はデータ\(x\)からの\(k\)番目に近いデータとなる.データ\(x\)から同じ距離を持つデータが複数存在する場合を考慮して,上記のようなテクニカルな定義になっている.次に\(kdist(x)\)を利用して,\(N_{k}(x)\),\(rd_{k}(x,y)\)及び\(lrd_{k}(x)\)を定義してゆく.\[N_{k}(x)=\{y\inD\setminus\{x\}|d(x,y)\leqkdist(x)\}\]これは\(x\)の\(k\)近傍と呼ばれる集合であり,\(x\)との距離が\(kdist(x)\)以下になるようなデータの集合である.\[rd_{k}(x,y)=\max\{d(x,y),kdist(y)\}\]これは\(x\)から\(y\)への距離を表すが,\(x\)が\(y\)の\(k\)近傍内に入る場合に,その距離を\(kdist(y)\)で置き換えている.直感的にはデータ間の距離が近い場合に,\(k\)距離で補正している.\[lrd_{k}(x)=\frac{|N_{k}(x)|}{\sum_{y\inN_{k}(x)}rd_{k}(x,y)}.\]これは\(x\)の\(k\)近傍内のデータ\(y\)の\(rd_{k}(x,y)\)の平均の逆数であり,これが\(x\)の密度を表している.これらの式を用いて,\(LOF(x)\)は以下で定義される.\[LOF(x)=\frac{1}{|N_{k}(x)|}\sum_{y\inN_{k}(x)}\frac{lrd_{k}(y)}{lrd_{k}(x)}\]つまり\(x\)の\(k\)近傍内のデータの密度と\(x\)の密度の比の平均を外れ値の度合いとしている.直感的には近くのデータの密度は高く,自身の密度が低い場合に外れ値の度合いが高くなる.また「近くのデータの密度は高く,自身の密度が低い」というのは,ある密度の高いクラスターがあり,そこから離れている独立のデータであるような場合である.例えば図\ref{lof-ex}では,データaとデータbが外れ値である.距離ベースの手法では,データbは外れ値として検出できるが,データaはクラスターAとの距離が近いために検出できない.一方LOFでは,クラスターAの密度が高く,データaの近辺にはデータがなく孤立しているので,外れ値として検出できる.\begin{figure}[t]\begin{center}\includegraphics{19-4ia3f3.eps}\end{center}\caption{LOFによる外れ値検出}\label{lof-ex}\end{figure}またLOFではパラメータとして\(k\)が存在する.本論文では\(k=5\)としている.\subsection{OneClassSVM}OneClassSVMは\(\nu-\)SVM\cite{oc-svm}を利用した外れ値検出の手法である\cite{akaho}.すべてのデータは\(+1\)のクラスに属し,原点のみが\(-1\)のクラスに属するとして,\(\nu-\)SVMを使って2つのクラスを分離する超平面を求める.原点はすべての点に対して類似度が0となるために,外れ値とみなせる.また\(\nu-\)SVMはソフトマージンを利用するので,\(-1\)のクラス側に属するデータを外れ値と判定する.\begin{figure}[t]\begin{center}\includegraphics{19-4ia3f4.eps}\end{center}\caption{OneClassSVMによる外れ値の検出}\label{ocs-ex}\end{figure}図\ref{ocs-ex}で概略を説明する.図の星形の点が外れ値である.原点は全ての点と内積が0となる,つまり類似度が0であるために外れ値と考える.図の星形の点(外れ値)も含め,原点以外のすべての点を正常値と考え,外れ値と正常値を分離する超平面を\(\nu-\)SVMで求める.\(\nu-\)SVMはソフトSVMであり,教師データのすべての点を正確に分離するわけではなく,少数の誤りを認める.図では原点付近に超平面(この場合,直線)を近づければ,識別の精度は向上するが,その場合,最大マージンが小さくなる.最大マージンを大きくしようとすると,識別の精度は下がる.このバランスをうまくとるような超平面を求めるのが\(\nu-\)SVMである.最終的に原点側に属するデータが外れ値と判断される.OneClassSVMを利用する際には,用いるカーネル関数やどの程度のマージンの誤りを認めるかのパラメータの設定が結果に大きく影響する.本論文の実験ではOneClassSVMのプログラムとしてLIBSVM\footnote{http://www.csie.ntu.edu.tw/\~{}cjlin/libsvm/}を用いた.カーネルは線形カーネルを利用し,マージンの誤りはパラメータ\(n\)に対応するが,\(n=0.02\)で固定した.\subsection{生成モデルによる手法}データ\(x\)の生成過程を確率モデル\(P(x)\)でモデル化したものを生成モデルと呼ぶ.一般に潜在変数\(z_i\)を導入し,ある確率モデル\(P_i(x)\)の混合分布により\(P(x)\)をモデル化する.\[P(x)=\sum_{i}z_iP_i(x)\\\\s.t.\\\0\lez_i\le1,\\\sum_iz_i=1\]モデル化の後に,与えられたデータからEM法などを利用して,\(z_i\)と\(P_i(x)\)のパラメータを推定することで\(P(x)\)を構成する.データ\(x\)の外れ値の度合いとしては\(-\logP(x)\)が用いられる.この値が大きいほど外れ値と見なせる. \section{提案手法} \subsection{教師付き外れ値検出}一般に外れ値検出のタスクでは外れ値の定義が不可能である\footnote{もし定義できるのであれば,その定義にあったデータを取り出せばよいだけなので,タスクとしての意味はなくなる.}.これは外れ値にラベルをつける意味がないことを示している.なぜなら仮にあるデータが外れ値であり,その外れ値にラベルをつけることができたとしても,他の外れ値がそのラベル付きの外れ値と類似している保証がないからである.また検出元となるデータ集合は,ほぼすべて正常値である.仮にデータにラベルをつけるとすれば,正常値のラベルだけになり,教師データに意味はない.これらのことから外れ値検出の手法は教師なしの枠組みにならざるをえない.しかし新語義の用例を外れ値と見なした新語義検出のタスクの場合,一般の外れ値検出とは異なった2つの特徴がある.1つは外れ値の定義が明確という点である.ここでの外れ値は新語義の用例であるが,新語義とは「辞書に記載されていない語義」というように明確に定義できる.もう1つは正常値のデータは語義のクラスターに分割されるという点である.しかもクラスターの数も明確である.一方,通常の外れ値検出では正常値の集合がクラスターに分割されるのか,されるとしてもいくつのクラスターに分割されるのかは不明である.ここではこれらの特徴を利用して外れ値検出を行う.つまり,検出元となる対象単語の用例集の一部に,対象単語の語義のラベルを付与し,その設定のもとで外れ値検出を行う.\subsection{教師付きLOF}教師データをLOFで利用するには単純に教師データをテストデータに加えればよい.しかしその場合,教師データからも外れ値が検出される可能性がある.ここでは教師データを\(k+1\)倍してからテストデータに加えてデータセットを作り,そのデータセットに対してLOFを適用する.ただし\(k\)はLOFにおける\(kdist\)で使われる\(k\)である.LOFの場合,教師データ\(x\)を\(k+1\)倍すると\(kdist(x)=0\)となり,教師データ\(x\)が外れ値として検出されることはなくなる.教師データを\(k+1\)倍することで,テストデータに対して,外れ値検出の精度が高まるという保証はないが,いくつかの予備実験により経験的に精度が向上することは確認している.一般に教師データを増やせば検出の精度は高まる.また,教師データを増やせば既存の教師データに対する密度が高まるはずなので,教師データを\(k+1\)倍することは精度を高める方向に作用する.またLOFは確率的な手法ではないので,明確には教師データの独立同一性分布を仮定していない.この点で同じデータを増やしても精度を落とす方向へ作用しないと考える.また注記として,教師なしのLOFも教師付きLOFも\(k\)の値が特に精度に影響を与えている.この点は考察の章で述べる.本論文では教師なしのLOFにおいて\(k=5\)としたが,教師付きのLOFでも\(k=5\)とする.\subsection{教師データを利用した生成モデルの構築}対象単語\(w\)の用例\(x\)に対する生成モデル\(P(x)\)を教師データを利用して構成する.\(w\)の語義を\(z_i\)(\(i=1\simK\))としたとき,全確率の公式から以下が成立する.\[P(x)=\sum_{i=1}^KP(z_i)P(x|z_i)\]\(w\)の教師データが\(N\)個あり,その中で語義\(z_i\)のデータが\(n_i\)個あれば,\(\sum_{i=1}^Kn_i=N\)であり,\begin{equation}P(z_i)=\frac{n_i}{N}\label{eq:seisei1}\end{equation}と推定できる.問題は\(P(x|z_i)\)の推定である.\(x\)は以下のような素性リストで表現されている.\[x=\{f_1,f_2,\cdots,f_m\}\]ここではNaiveBayesで使われる素性間の独立性を仮定して,\[P(x|z_i)\approx\prod_{j=1}^mP(f_j|z_i)\]と近似する.教師データの中の語義が\(z_i\)となっているデータの中で\(f_j\)が出現した個数を\(n(z_i,f_j)\)と書くことにする.このとき,\begin{equation}P(f_j|z_i)=\frac{n(z_i,f_j)}{n_i}\label{eq:seisei2}\end{equation}と推定できる.ただし式(\ref{eq:seisei1})や式(\ref{eq:seisei2})は頻度が0の部分があると不具合が生じる.そこでMAP推定でスムージングを行い,以下の補正式を用いる\cite{takamura}.\begin{gather}P(z_i)=\frac{n_i+1}{N+K}\\[0.5em]P(f_j|z_i)=\frac{n(z_i,f_j)+1}{n_i+2}\end{gather}以上より\(P(x)\)の値が求まる.外れ値の度合いは\(-\logP(x)\)で測り,この値の大きなものを外れ値の候補とする.ここである閾値を定めて外れ値を検出することも考えられるが,単語毎に\(-\logP(x)\)の値は大きく異なるために,固定した閾値を定めることはできない.そこでここでは単語毎に,検出対象のデータ(テストデータ)に対して\(-\logP(x)\)を計算し,それらの値に対する平均\(\mu\)と分散\(\sigma^2\)を求める.\(-\logP(x)\)の分布を正規分布と考え,以下の式の値(正規化した値)に対して閾値\(\theta\)を設けることにした.\begin{equation}\frac{-\logP(x)-\mu}{\sigma}\label{gtheta}\end{equation}上記の正規化した値が\(\theta\)以上の\(x\)を外れ値とする.ここでは予備実験を行い\(\theta=1.1\)とした.\subsection{教師付きLOFと生成モデルの積集合}本論文の提案手法は,前述した教師付きLOFによる出力と,教師データを利用して構築した生成モデルの出力の共通部分(積集合)を出力するものである.一般に外れ値検出のタスクは難しく,単一の手法ではなかなか高い検出能力が得られない.その1つの原因は誤検出が多いことである.提案手法の狙いは,異なったタイプの手法の出力の積集合を取ることで,誤検出を減らし,全体の検出能力を向上させることである.LOFと生成モデルは外れ値の捉え方が異なるために,出力の積集合を取る効果が期待できる. \section{実験} \subsection{実験データ}SemEval-2は語義曖昧性解消に関する評価型の国際会議であり,いくつかのタスクが設定されている.日本語WSDはその中の1つである.通常の日本語の語義曖昧性解消のタスクであるが,最も特徴的な点は識別結果に新語義というカテゴリを含めている点である.つまりテストデータの中には設定された語義のどれでもないという答えがありえる.そのため,このタスクで用意された教師データとテストデータを用いることで,教師付きの枠組みでの新語義の検出手法の評価が可能である.日本語WSDの対象単語は50単語である.この中で「可能」「入る」は教師データ内に新語義の用例があるので,それらを外して残り48単語を実験対象とした.各単語を以下に示す.\vspace{1\Cvs}\small\begin{boxedminipage}{140mm}\begin{verbatim}名詞21単語相手,意味,関係,技術,経済,現場,子供,時間,市場,社会,情報,手,電話,場合,はじめ,場所,一,文化,ほか,前,もの動詞22単語会う,あげる,与える,生きる,入れる,教える,考える,勧める,する,出す,立つ,出る,とる,乗る,始める,開く,見える,認める,見る,持つ,求める,やる形容詞5単語大きい,高い,強い,早い,良い\end{verbatim}\end{boxedminipage}\normalsize\vspace{1\Cvs}新語義は「意味」で1用例,「手」で3用例,「前」で7用例,「求める」で1用例,「あげる」で2用例,「はじめる」で2用例の計16用例存在する.これらが検出の正解となる.正解の用例を以下に示す.下線の単語が対象単語である.\small\noindent\hspace{10mm}1.…の開きが,ある\underline{意味}で,科学技術と社会に…\\\hspace{10mm}2.…医業収益等は\underline{手}入力…\\\hspace{10mm}3.…本部での集約も\underline{手}入力,…\\\hspace{10mm}4.…経理コンピュータへの予算入力も\underline{手}入力で…\\\hspace{10mm}5.…ランチ=\underline{前}十一時半〜後3時.\\\hspace{10mm}6.…二十四日火,\underline{前}十時〜後7時…\\\hspace{10mm}7.…来年3月二十日木までの\underline{前}十時〜後十時,…\\\hspace{10mm}8.…ゆうゆうワイド(TBS=\underline{前}8・三十)…\\\hspace{10mm}9.…三十日水までの\underline{前}十一時半〜後2時半,…\\\hspace{10mm}10.…,\underline{前}十一時半〜後2時半,…\\\hspace{10mm}11.…\underline{前}十時半と後6時,本館1階正面口で…\\\hspace{10mm}12.…インフラ不安に要因を\underline{求め},その強化対策を…\\\hspace{10mm}13.…国を\underline{挙げて}緑化を進めた.\\\hspace{10mm}14.…国を\underline{あげて}緑化に取り組んだシンガポールは,…\\\hspace{10mm}15.16.…「\underline{はじめる}・はじまる」は「初」でなく,「\underline{始める}・始まる」と書きます.\\\normalsize\subsection{素性の設定}本手法を利用するためには,用例を素性ベクトルで表現しなくてはならない.そのために以下の8種類の素性を利用した.基本的WSDで利用する素性である.なお対象単語の直前の単語を\(w_{-1}\),直後の単語を\(w_1\)としている.{\setlength{\leftskip}{4zw}\noindente0\(w\)の表記\\e1\(w\)の品詞\\e2\(w_{-1}\)の表記\\e3\(w_{-1}\)の品詞\\e4\(w_1\)の表記\\e5\(w_1\)の品詞\\e6\(w\)の前後3つまでの自立語の表記\\e7e6の分類語彙表の番号の4桁と5桁\par}例えば以下はWSDの対象単語が16単語目の\mbox{``経済''}である文の形態素解析結果である\footnote{SemEval-2の日本語WSDタスクのデータはこの例のように,形態素解析済みのデータである.}.\small\begin{verbatim}<sentence><morpos="名詞-固有名詞-組織名"rd="デンツー">電通</mor><morpos="補助記号-読点"rd=",">,</mor><morpos="名詞-固有名詞-組織名"rd="ハクホー">博報</mor><morpos="接尾辞-名詞的-一般"rd="ドー">堂</mor><morpos="助詞-格助詞"rd="オ">を</mor><morpos="名詞-普通名詞-副詞可能"rd="ハジメ">はじめ</mor><morpos="名詞-普通名詞-一般"rd="ジョーイ">上位</mor><morpos="名詞-数詞"rd="ゴ">五</mor><morpos="接尾辞-名詞的-助数詞"rd="シャ">社</mor><morpos="助詞-副助詞"rd="クライ">くらい</mor><morpos="助動詞"rd="ナラ"bfm="ダ">なら</mor><morpos="名詞-普通名詞-一般"rd="エイチピー">HP</mor><morpos="助詞-格助詞"rd="オ">を</mor><morpos="動詞-一般"rd="ツクル"bfm="ツクル">作る</mor><morpos="形状詞-一般"rd="ジンテキ">人的</mor><morpos="名詞-普通名詞-一般"rd="ケーザイ"sense="X">経済</mor><morpos="接尾辞-形状詞的"rd="テキ">的</mor><morpos="名詞-普通名詞-一般"rd="ヨユー">余裕</mor><morpos="助詞-係助詞"rd="モ">も</mor><morpos="動詞-非自立可能"rd="アル"bfm="アル">ある</mor><morpos="助動詞"rd="デショー"bfm="デス">でしょう</mor><morpos="助詞-接続助詞"rd="ガ">が</mor><morpos="補助記号-読点"rd=",">,</mor><morpos="名詞-普通名詞-一般"rd="チューショー">中小</mor><morpos="助詞-格助詞"rd="ノ">の</mor><morpos="名詞-普通名詞-サ変可能"rd="ダイリ">代理</mor><morpos="接尾辞-名詞的-一般"rd="テン">店</mor><morpos="助詞-格助詞"rd="デ">で</mor><morpos="助詞-係助詞"rd="ワ">は</mor><morpos="連体詞"rd="ソンナ">そんな</mor><morpos="名詞-普通名詞-一般"rd="ヨユー">余裕</mor><morpos="助詞-係助詞"rd="ワ">は</mor><morpos="動詞-非自立可能"rd="アリ"bfm="アル">あり</mor><morpos="助動詞"rd="マセ"bfm="マス">ませ</mor><morpos="助動詞"rd="ン"bfm="ヌ">ん</mor><morpos="補助記号-句点"rd=".">.</mor></sentence>\end{verbatim}\normalsize上記の用例から以下の素性リストが作成される.全体の素性リストが得られれば,全リストの各要素(素性)=(素性値)を各次元に設定することで,素性リストを素性ベクトル(実数値ベクトル)に変換できる.またここでは作成した素性ベクトルの大きさを1に正規化した.\begin{verbatim}e0=経済,e1=名詞-普通名詞-一般,e2=人的,e3=形状詞,e4=的,e5=接尾辞,e6=人的,e6=作る,e6=HP,e6=余裕,e6=ある,e6=中小,e7=2386,e7=1197,e7=11972\end{verbatim}素性e7について注記しておく.上記例の場合,素性e6の値としては,「人的」「作る」「HP」「余裕」「ある」「中小」の6つ存在する.各々の分類語彙表の番号を調べると,以下のようになっている\footnote{下位分類の番号は省略している.}.\begin{verbatim}作る==>2.386余裕==>1.1972ある==>2.1203.100\end{verbatim}「人的」「HP」「中小」については分類語彙表に記載はない.「作る」の\verb|2.386|から上位4桁を取り\verb|e7=2386|が作成される.また「余裕」の\verb|1.1972|から上位4桁と5桁を取り\verb|e7=1197|と\verb|e7=11972|が作成される.最後に「ある」に関してだが,この単語からは素性e7は作成しない.本論文では全てひらがな文字からなる単語は多義語になっている場合が多い.そのため分類語彙表の番号を素性リストに含めてもノイズの方が多いと考え,そのような処理をしている.\subsection{実験結果}\subsubsection{F値による評価}まずF値による評価実験の結果を表\ref{tab:jikken2}に示す.LOFではLOF値の大きなもの上位3つを取り出すことにする.3つというのは,上位1つ,上位2つ,…,上位5つと各実験を行い,最も検出能力が高かった(F値が高かった)ものである.OCSはOneClassSVMの意味である.$\text{OCS}\cap\text{LOF}$はLOFの出力とOCSの出力の積集合をとったものである\cite{shinnou-lrec2010}.この3つが教師なしの外れ値検出に相当する.LOF-eは教師データを除いてLOF値の高い上位3つをとったたもの,OCS-eはOCSの出力から教師データを除いたもの,$\text{OCS}\cap\text{LOF-e}$はLOF-eとOCS-eの出力の積集合を取ったものである.またNNは\cite{erk}で用いられた最近傍法であり式(\ref{eq:siki1})が1.12以上のものを取り出している.1.12という閾値は出力結果からF値が最も高くなるように設定した値である\footnote{論文\cite{erk}で用いられている閾値は1である.}.S-LOFは本論文で提案した教師付きLOFを指す.S-LOFでは,LOFと同様,LOF値の高い上位3つを取り出すことにする.またG-modelは本論文で説明した生成モデルによるものである.この6つとS-LOFとG-modelの出力の積集合を出力とする本手法の7つが教師付きの外れ値検出に相当する.\begin{table}[t]\caption{実験結果(F値)}\label{tab:jikken2}\input{03table01.txt}\end{table}教師ラベルを全く使わない場合,教師データからも外れ値が検出されるので,F値は低くなる.また単純に通常の検出を行った後に教師データを除く方法(表\ref{tab:jikken2}の*-eの手法)よりも,積極的に教師データを利用したS-LOFの方がF値が高い.またS-LOFとG-modelは検出の手法が異なるために,検出結果の重なりが少なく,結果的に両者の積集合を取る本手法のF値が最も高かった.\subsubsection{平均適合率による評価}前節では手法の評価をF値で行った.本節では全データに対して外れ値の度合いの順位を出力し,平均適合率を求めることで手法の評価を行う.NNとG-modelでは出力の値(外れ値の度合い)をソートすることで,全データに対する外れ値の度合いの順位が得られる.LOFやS-LOFの場合は,単語毎に出力の値のスケールが異なるために,まずG-modelで行ったような正規化を行い,単語毎の出力値のスケールを揃える.次に単語毎の出力値の上位3位までの出力値に100を加えた後に,全体をソートすることで,全データに対する外れ値の度合いの順位を得る.「上位3位までの出力値に100を加える」意味は,単語毎の出力値の上位3位までを優先して出力することに対応する\footnote{理論的には順位1位の出力値+1で十分だが,本論文で扱う手法は全て順位1位の出力値が100よりもかなり小さいので,100を加えるという単純な処理にしている.}.これは本来LOFやS-LOFは単語毎に上位数件を外れ値として出力する手法であり,取り出さないデータの順位に意味があるかどうかは不明であるために導入した処理である.実際,この処理を行った方が,行わなかった場合よりも平均適合率は高かった.OCSの場合は,外れ値と判定したデータ群の重心を求め,その重心との距離によって,全データに対する外れ値の度合いの順位を得た.本手法$(\text{G-model}\cap\text{S-LOF})$の場合,基本的にG-modelの出力の値を外れ値の度合いとするが,本来のS-LOFにおける出力のデータ(単語毎のLOF値の上位3件)に対しては,G-modelでの出力の値に100を加えた後に,全体をソートした.$\text{OCS}\cap\text{LOF}$などのLOF類と積集合を取る手法も本手法と同様に,LOFと組み合わせる方の手法のみで,まず外れ値の度合いを得て,次に本来のLOFにおける出力のデータ(単語毎のLOF値の上位3件)に対して100を加えた後に全体をソートした.\begin{table}[b]\caption{実験結果(平均適合率)}\label{tab:ap}\input{03table02.txt}\end{table}実験の結果を表\ref{tab:ap}に示す.表の1行目は手法名である.紙面の都合上$\text{OCS}\cap\text{LOF}$,$\text{OCS}\cap\text{LOF-e}$,G-modelは,それぞれ$\text{O}\cap\text{L}$,$\text{O}\cap\text{L-e}$,G-mdlと略記している.表の1列目は新語義の現れた個数,表内の数値はその個数の時点での適合率である.例えば,本手法の場合,1番目に新語義の現れた順位は7であり,その時点での適合率は$1/7=0.14286$であり,2番目に新語義の現れた順位は13であり,その時点での適合率は$2/13=0.15385$である.これを全ての新語義の個数16個まで調べ,各適合率の平均が平均適合率(AveragePresision=AP)である.そして各手法に対する平均適合率をグラフ化したものが図\ref{fig-ap}である.\begin{figure}[t]\begin{center}\includegraphics{19-4ia3f5.eps}\end{center}\caption{平均適合率}\label{fig-ap}\end{figure}表\ref{tab:ap}及び図\ref{fig-ap}より,本手法が最も平均適合率が高いことが確認できる.また教師なしの手法にあたるLOF,OCS,$\text{OCS}\cap\text{LOF}$の3つは0.005前後の値となり,教師ラベルを使わずに単純に出力結果から教師データを除く手法LOF-e,OCS-e,$\text{OCS}\cap\text{LOF-e}$の3つは0.010弱の値になり,教師付き外れ値検出手法にあたるNN,S-LOF,G-modelの3つは0.010強の値になる.これらのことから教師データを外れ値検出に積極的に利用する効果も確認できる. \section{考察} \subsection{教師データを$k+1$倍する効果}S-LOFは教師データを\(k+1\)倍したLOFであるが,この倍率を1から\(k+1\)まで変化させた結果を表\ref{tab:jikken2-tuika}に示す.なお倍率1倍は通常のLOFである.正解の検出数及び教師データからの検出(誤検出)は\(k\)倍まではほぼ変化ないが,\(k+1\)倍することで急激に改善される.これにより教師データを\(k+1\)倍する効果が確認できる.\begin{table}[b]\caption{S-LOFにおける教師データの倍率の変化}\label{tab:jikken2-tuika}\input{03table03.txt}\end{table}\subsection{WSDによる新語義検出}WSDの教師データが利用できるのであれば,WSDの分類器を学習し,その識別の信頼度を利用して新語義が検出できると考えるのは自然である.ただし単純にそのアプローチだけでは新語義の検出は困難である.前述した素性を使いSVMを学習し,SemEval-2日本語WSDタスクのテストデータ50単語全てを対象に語義の曖昧性解消を行ったところ,平均正解率は0.7664であった.上記タスクの参加システム中最高の正解率はRALI-2の0.7636であり\cite{semeval-2010},ここで学習できたSVMは十分能力が高いことがわかる.上記SVMの学習にはLIBSVMを用いたが,そこでは\verb|-b|のオプションで識別の信頼度(その語義に属する確率値)を求めることができる.このオプションを用いて,閾値\(\theta\)以下の信頼度のときに,その用例を新語義の用例とすることで新語義の検出を試みた.\begin{figure}[b]\begin{center}\includegraphics{19-4ia3f6.eps}\end{center}\caption{閾値とF値}\label{k-zettai}\end{figure}閾値\(\theta\)の設定であるが,まず単純に0.51から0.99までの値を0.01刻みで設定し,その値を用いた場合の検出結果に対するF値を求めた.そのグラフを図\ref{k-zettai}に示す.\(\theta=0.73\)のときに検出数388正解数4となりF値が最大の0.0198を取る.また語義数が\(K\)の場合,SVMが出力する識別の信頼度は明らかに\(1/K\)以上の値になるので,語義数の影響を受けている可能性がある.そこで閾値を\(\theta=(1+\alpha)/K\)と設定し,\(\alpha\)を0.01刻みで0.99まで試したときのグラフを図\ref{k-soutai}に示す.\(\alpha=0.17\)のときに検出数39正解数2となりF値が最大の0.0727を取る.\begin{figure}[b]\begin{center}\includegraphics{19-4ia3f7.eps}\end{center}\caption{語義数を考慮した閾値とF値}\label{k-soutai}\end{figure}F値0.0727は表\ref{tab:jikken2}で示された外れ値検出手法と比較すると,それほど悪いとも言えないが,WSDシステム単独では新語義の検出が困難であることがわかる.また平均適合率の評価も行っておく.システムが識別した語義の信頼度によって,全体のデータを(昇順に)ソートすることで,平均適合率を調べたところ0.00638となった.この値は表\ref{tab:ap}に示した外れ値検出手法による平均適合率と比べると高い値とは言えない.平均適合率の観点からも,WSDシステム単独では新語義の検出が困難であることがわかる.上記では語義の識別の信頼度により新語義を検出するアプローチであったが,ここではSVMを利用しているので,one-vs-rest法を利用して,語義毎にSVMを学習し,すべての語義について否と判定されたものを新語義とするアプローチも考えられる.このアプローチによる評価も行っておく.語義毎にSVMを学習する際にもLIBSVMの\verb|-b|のオプションを用いる.語義毎の各SVMが否と識別した信頼度を集め,その最小値\(\gamma\)をそのデータの新語義の度合いとする.\(\gamma\)が閾値\(\theta\)よりも大きい場合に,新語義と判定する.\(\theta=0.5\)は語義毎のSVM全てが否と判定したものを新語義と判定することを意味する.出力結果の分析から\(\theta=0.6996\)のときに検出数33正解数1となりF値が最大の0.0408を取る.またone-vs-rest法を利用した場合の平均適合率も調べた.\(\gamma\)の値を新語義の度合いとし,全データに対して新語義の度合いの順位を出力することで平均適合率が求まる.結果,平均適合率は0.0132であった.F値にしても平均適合率にしても,表\ref{tab:jikken2}や図\ref{fig-ap}と比較すると,通常の教師付きの外れ値検出手法と同程度である.one-vs-rest法を利用した場合でも,WSDシステム単独では新語義の検出が困難であることがわかる.\subsection{未出現語義を含めた評価}SemEval-2日本語WSDタスクでは,教師データ中には現れないが,テストデータには出現する語義が存在する.このような教師データ中の未出現語義は,新語義と見なすこともできる.このような用例は「あう」で1用例,「すすめる」で1用例,「出す」で3用例,「立つ」で1用例,「とる」で3用例,「ひとつ」で1用例,「見る」で6用例,「持つ」で1用例,「大きい」で2用例,「与える」で1用例の合計20用例存在する.これらも新語義の用例と見なした場合の検出結果を表\ref{tab:jikken3}に示す.F値の括弧内の数値は正解を新語義のみにした場合の正解数とF値(表\ref{tab:jikken2}の値)である.\begin{table}[b]\caption{未出現語義を含めた評価(F値)}\label{tab:jikken3}\input{03table04.txt}\end{table}\begin{table}[b]\caption{未出現語義を含めた評価(平均適合率)}\label{tab:ap2}\input{03table05.txt}\end{table}また平均適合率の評価も行っておく.各手法の平均適合率の求め方は前述した方法で行う.結果を表\ref{tab:ap2}に示す.表\ref{tab:ap2}の「新語義のみ」の列は正解を新語義のみにした場合であり,「未出現語義を含む」の列は正解を新語義と未出現語義を合わせたものにした場合である.F値の評価でも平均適合率の評価でも本手法が最も高い値を出しており,本手法の効果は確認できる.ただし全体的な傾向として,未出現語義を正解に含めた場合の方が,F値も平均適合率も若干高くなるが,本手法に関しては値が下がっている.S-LOFやG-modelは未出現語義を正解に含めると,検出できる正解数は増えるが,共通して検出できる部分がなかったために,このような結果になった.この対策としては,後述するアンサンブル手法の導入により改良していきたい.また,前節のWSDシステムを用いた場合の評価を表\ref{tab:wsd+}に示す.F値と平均適合率の括弧内の数値は正解を「新語義のみ」にしたものである.\begin{table}[t]\caption{未出現語義を含めたWSDの評価}\label{tab:wsd+}\input{03table06.txt}\end{table}未出現語義を正解に含めた場合でも,前節同様,WSDシステム単独では新語義の検出が困難であるといえる.\subsection{誤検出・未検出の原因}本手法の誤検出の原因について述べる.1つは固有表現や熟語内の単語である.例えば以下のような表現が検出されている.\begin{itemize}\item[(a)]未来科学\underline{技術}共同研究センターの中の研究施設\item[(b)]昔話の「千代ごこ\underline{出}やっせ」のように\item[(c)]中小零細企業の取材は数多く\underline{手}がかかる割りに\end{itemize}固有表現や熟語内の単語に通常の意味があるとは考えづらく,新語義の検出という観点では,このような表現を抽出しても完全に誤りとは言えない.本来,新語義の検出するためには,固有表現や熟語を予め抽出しておくことが必要だと考える.また誤検出のその他の原因は多様であるが,全体として,対象単語の直前や直後に自立語が現れる複合語の用法や動詞の連体形の用法などが目立った.\begin{itemize}\item[(d)]わが国が最も重要な貿易\underline{相手}国の一つ\item[(e)]人間性を疑ってしまう人とは男女\underline{関係}なく,\item[(f)]夏休み等に行って来た時の経験=古き\underline{良き}時代を,\end{itemize}複合語が専門性の高い用語である場合は意味のある検出とも見なせるが,ここでは複合語を単なる名詞連続で認識しているために,専門用語との区別は付けられない.新語義の検出に関しては,熟語や固有表現と同様,専門用語も通常の表現とは,区別した方がよいと考える.本手法の未検出の原因としては,突き詰めれば,用例間の距離の測定方法に帰着される.ある新語義の用例と他の正常値の用例との距離がある程度,離れていたとしても,正常値の用例間の距離も同程度は離れているという状況である.これは動詞や形容詞における検出では顕著である.この問題に注目して距離学習を新語義発見に応用した研究も存在する\cite{msasaki}.ただしこの問題は本質的に語義曖昧性解消の場合と同じであり,語義曖昧性解消の精度向上の試みが本研究に応用できる.\subsection{教師付きLOFとパラメータ\(k\)}オリジナルのLOFではパラメータ\(k\)が存在し,この値が精度に大きく影響することが指摘されている.ここで提案した教師付きLOFでは更に\(k\)の設定はシビアである.教師付きLOFでは,テストデータ\(y\)と最も近い点が教師データ\(x\)であった場合,\(x\)の密度が非常に高いために\(LOF(y)\)の値も高くなり,一見,不都合に感じる.ただしテストデータ\(z\)の場合も,最も近い点が教師データ\(x\)であり,\(d(x,y)<d(x,z)\)となっている場合は,\(LOF(y)<LOF(z)\)となるために,\(y\)の外れ値の程度は\(z\)よりも下がる(図\ref{kou1}参照).\begin{figure}[b]\begin{center}\includegraphics{19-4ia3f8.eps}\end{center}\caption{教師データとの位置関係による外れ値の度合い1}\label{kou1}\end{figure}つまり極端に言えば,教師付きLOFは,最も近い点が教師データであり,しかもその点までの距離が大きい場合に外れ値の程度が大きくなる.これは外れ値の性質としては妥当である.現実的にはテストデータ\(y\)の\(k\)近傍\(N_{k}(y)\)の中に教師データ\(x\)が入るかどうか,\(y\)から\(x\)までの距離\(d(x,y)\),\(N_{k}(y)\)の中にテストデータがいくつ入るか及びそれらの位置関係が\(LOF(y)\)の値に影響している.もしも\(N_{k}(y)\)の中に教師データが入らない場合は,入る場合と比較して極端に\(LOF(y)\)の値は小さいので,\(y\)が外れ値として検出されることはない(図\ref{kou2}参照).\begin{figure}[t]\begin{center}\includegraphics{19-4ia3f9.eps}\end{center}\caption{教師データとの位置関係による外れ値の度合い2}\label{kou2}\vspace{-1\Cvs}\end{figure}「\(k\)近傍内に教師データが入らない場合は外れ値ではない」という設定が妥当かどうかは不明である.当然,そうではない場合も想定することは可能だが,実験結果をみると本タスクにおいては上記設定が有効に機能していた.おそらく\(k\)近傍内に教師データが入らない場合は,そのデータ近辺の密度が低いためだと考えられる.ここで提案した教師付きLOFでは,\(k\)近傍内に教師データが入るかどうかで,外れ値かどうかの最初の判定がされていると見なすこともできるので,パラメータ\(k\)の値は,通常のLOFよりも更に精度に影響を与えていると言える.\subsection{外れ値検出手法のアンサンブル}外れ値検出手法は数多く提案されており,本論文で利用したLOFについてもいくつかの改良手法が提案されている\cite{jin,papadimitriou}.これらの手法をどのようにして教師付きの枠組みへ拡張するかは不明であるが,これらを利用することで本手法の改善も可能である.また,新たに外れ値検出手法を考案するのではなく,既存の手法を組み合わせる戦略も有効である.Lazavicは複数の外れ値検出の手法を適用して,それら出力結果を総合的に判断して最終的に外れ値候補を出力するという外れ値検出手法のアンサンブル(ensemble)を提案した\cite{lazavic}.ここで提案したLOFと生成モデルの組み合わせも,外れ値検出手法のアンサンブルの一種と考えられる.ここでは単純に出力の積により最終の出力を決めたが,重みを付けて判断するなどの工夫も考えられる.あるいは他の外れ値検出の手法の組み合わせることも有効であろう.表\ref{tab:jikken3}からもわかるとおり,LOFの出力と生成モデルの出力はかなり異なる.単純に出力の和を取ると,検出数が多くなりすぎてF値の評価は下がってしまうが,第1段目の候補としては取り出せているので,そこからの選別に工夫することで改善が可能である.ここらが今後の課題である.また,本論文ではS-LOFとG-modelのアンサンブルを提案したが,実験の結果をみるとNNとG-modelのアンサンブルやS-LOFとNNのアンサンブルも有望に見える.それらの実験結果を表7に示す\footnote{$\text{G-model}\cap\text{NN}$の平均適合率の測り方は$\text{G-model}\cap\text{S-LOF}$(本手法)と同様である.つまり,G-modelの出力の値を外れ値の度合いとし,本来のNNにおける出力のデータに対しては,G-modelでの出力の値に100を加えた後に,全体をソートした.}.\begin{table}[t]\caption{手法の組み合わせの評価}\label{tab:nncombi}\input{03table07.txt}\end{table}表7が示すとおり,提案手法のS-LOFとG-modelのアンサンブルが最も優れている.また組み合わせる手法によっては,個々の手法よりも精度が劣化することもありえるので,アンサンブルに用いる手法の選択も重要であることがわかる. \section{おわりに} 本論文では対象単語の用例集合から,その単語の語義が新語義となっている用例を検出する手法を提案した.基本的に新語義の用例を用例集合中の外れ値と考え,外れ値検出の手法を利用する.ただし従来の外れ値検出では教師なしの枠組みであるが,ここではタスクの性質を考慮し,教師付きの枠組みで行った.まずLOFを教師データを利用する形に改良した教師付きLOFを提案し,次に教師データを利用することで生成モデルを構築した.提案手法は上記2つの手法それぞれの出力の共通部分(積集合)を取るものである.これは2つの異なったタイプの外れ値検出の手法の積集合を取ることで誤検出を減らし,結果的に検出能力を高めることを狙いとしている.タスクの一部として新語義識別を含むSemEval-2の日本語WSDタスクのデータを利用して,LOF,OneClassSVM,最近傍法,教師付きLOF,生成モデルおよび提案手法による新語義の検出実験を行った.それぞれの手法のF値と平均適合率を求めることで,提案手法の有効性を示した.また教師なしの手法(LOF,OCS,$\text{OCS}\cap\text{LOF}$),単純に教師データを検出結果から除く手法(LOF-e,OCS-e,$\text{OCS}\cap\text{LOF-e}$)及び教師付きの手法(NN,S-LOF,G-model)のF値と平均適合率を比較することで,新語義検出を目的とした外れ値検出では,教師データを積極的に利用することが精度向上に効果があることが確認できた.またWSDシステムの識別の信頼度を利用した新語義を検出実験も行った.十分なパフォーマンスを示すWSDシステムを用いても,WSDシステム単独では新語義の検出が困難であることも示した.提案手法は外れ値検出手法のアンサンブルの手法と位置づけられる.提案手法における出力結果のアンサンブルは,積集合をとるという単純なものであるため,この部分に工夫を入れることで更に検出能力が高まると予想している.出力結果の統合方法を工夫することが今後の課題である.\begin{thebibliography}{}\bibitem[\protect\BCAY{Agirre\BBA\Soroa}{Agirre\BBA\Soroa}{2007}]{agirre}Agirre,E.\BBACOMMA\\BBA\Soroa,A.\BBOP2007\BBCP.\newblock\BBOQ{Semeval-2007task02:Evaluatingwordsenseinductionanddiscriminationsystems}.\BBCQ\\newblockIn{\BemSemEval-2007}.\bibitem[\protect\BCAY{赤穂}{赤穂}{2008}]{akaho}赤穂昭太郎\BBOP2008\BBCP.\newblock\Jem{カーネル多変量解析}.\newblock岩波書店.\bibitem[\protect\BCAY{Bordag}{Bordag}{2006}]{stefan}Bordag,S.\BBOP2006\BBCP.\newblock\BBOQ{Wordsenseinduction:Triplet-basedclusteringandautomaticevaluation}.\BBCQ\\newblockIn{\Bem{EACL-2006}},\mbox{\BPGS\137--144}.\bibitem[\protect\BCAY{Breuning,Kriegel,Ng,\BBA\Sander}{Breuninget~al.}{2000}]{lof}Breuning,M.~M.,Kriegel,H.-P.,Ng,R.~T.,\BBA\Sander,J.\BBOP2000\BBCP.\newblock\BBOQ{LOF:IdentifyingDensity-BasedLocalOutliers}.\BBCQ\\newblockIn{\Bem{ACMSIGMOD2000}},\mbox{\BPGS\93--104}.\bibitem[\protect\BCAY{Denkowski}{Denkowski}{2009}]{denkowski}Denkowski,M.\BBOP2009\BBCP.\newblock\BBOQ{SurveyofTechniquesforUnsupervisedWordSenseInduction}.\BBCQ\bibitem[\protect\BCAY{Erk}{Erk}{2006}]{erk}Erk,K.\BBOP2006\BBCP.\newblock\BBOQ{Unknownwordsensedetectionasoutlierdetection}.\BBCQ\\newblockIn{\Bem{NAACL-2006}},\mbox{\BPGS\128--135}.\bibitem[\protect\BCAY{Jin,Tung,Han,\BBA\Wang}{Jinet~al.}{2006}]{jin}Jin,W.,Tung,A.K.~H.,Han,J.,\BBA\Wang,W.\BBOP2006\BBCP.\newblock\BBOQ{Rankingoutliersusingsymmetricneighborhoodrelationship}.\BBCQ\\newblockIn{\BemThe10thPacific-AsiaconferenceonAdvancesinKnowledgeDiscoveryandDataMining(PAKDD'06)},\mbox{\BPGS\577--593}.\bibitem[\protect\BCAY{九岡\JBA白井\JBA中村}{九岡\Jetal}{2008}]{kuoka}九岡佑介\JBA白井清昭\JBA中村誠\BBOP2008\BBCP.\newblock複数の特徴ベクトルのクラスタリングに基づく単語の意味の弁別.\\newblock\Jem{第14回言語処理学会年次大会},\mbox{\BPGS\572--575}.\bibitem[\protect\BCAY{Lazarevic\BBA\Kumar}{Lazarevic\BBA\Kumar}{2005}]{lazavic}Lazarevic,A.\BBACOMMA\\BBA\Kumar,V.\BBOP2005\BBCP.\newblock\BBOQFeaturebaggingforoutlierdetection.\BBCQ\\newblockIn{\BemTheeleventhACMSIGKDDinternationalconferenceonKnowledgediscoveryindatamining(KDD'05)},\mbox{\BPGS\157--166}.\bibitem[\protect\BCAY{Okumura,Shirai,Komiya,\BBA\Yokono}{Okumuraet~al.}{2010}]{semeval-2010}Okumura,M.,Shirai,K.,Komiya,K.,\BBA\Yokono,H.\BBOP2010\BBCP.\newblock\BBOQ{SemEval-2010Task:JapaneseWSD}.\BBCQ\\newblockIn{\Bem{The5thInternationalWorkshoponSemanticEvaluation}},\mbox{\BPGS\69--74}.\bibitem[\protect\BCAY{Papadimitriou,Kitagawa,Gibbons,\BBA\Faloutsos}{Papadimitriouet~al.}{2003}]{papadimitriou}Papadimitriou,S.,Kitagawa,H.,Gibbons,P.~B.,\BBA\Faloutsos,C.\BBOP2003\BBCP.\newblock\BBOQ{LOCI:FastOutlierDetectionUsingtheLocalCorrelationIntegral}.\BBCQ\\newblockIn{\BemICDE-2003},\mbox{\BPGS\315--326}.\bibitem[\protect\BCAY{Sasaki\BBA\Shinnou}{Sasaki\BBA\Shinnou}{2012}]{msasaki}Sasaki,M.\BBACOMMA\\BBA\Shinnou,H.\BBOP2012\BBCP.\newblock\BBOQ{DetectionofPeculiarWordSensebyDistanceMetricLearningwithLabeledExamples}.\BBCQ\\newblockIn{\BemLREC-2012},\mbox{\BPGS\Session--P6}.\bibitem[\protect\BCAY{Sch\"{o}lkopf,Platt,Shawe-Taylor,Smola,\BBA\Williamson}{Sch\"{o}lkopfet~al.}{2001}]{oc-svm}Sch\"{o}lkopf,B.,Platt,J.~C.,Shawe-Taylor,J.,Smola,A.~J.,\BBA\Williamson,R.~C.\BBOP2001\BBCP.\newblock\BBOQEstimatingthesupportofahigh-dimensionaldistribution.\BBCQ\\newblock{\BemNeuralComputation},{\Bbf13}(7),\mbox{\BPGS\1443--1471}.\bibitem[\protect\BCAY{Sch\"{u}tze}{Sch\"{u}tze}{1998}]{shutze}Sch\"{u}tze,H.\BBOP1998\BBCP.\newblock\BBOQAutomaticwordsensediscrimination.\BBCQ\\newblock{\BemComputationalLinguistics},{\Bbf24}(1),\mbox{\BPGS\97--123}.\bibitem[\protect\BCAY{Shinnou\BBA\Sasaki}{Shinnou\BBA\Sasaki}{2010}]{shinnou-lrec2010}Shinnou,H.\BBACOMMA\\BBA\Sasaki,M.\BBOP2010\BBCP.\newblock\BBOQ{DetectionofPeculiarExamplesusingLOFandOneClassSVM}.\BBCQ\\newblockIn{\Bem{LREC-2010}}.\bibitem[\protect\BCAY{Shirai\BBA\Nakamura}{Shirai\BBA\Nakamura}{2010}]{shirai-semeval2}Shirai,K.\BBACOMMA\\BBA\Nakamura,M.\BBOP2010\BBCP.\newblock\BBOQ{JAIST:ClusteringandClassificationBasedApproachesforJapaneseWSD}.\BBCQ\\newblockIn{\Bem{The5thInternationalWorkshoponSemanticEvaluation}},\mbox{\BPGS\379--382}.\bibitem[\protect\BCAY{Sugiyama\BBA\Okumura}{Sugiyama\BBA\Okumura}{2009}]{sugiyama}Sugiyama,K.\BBACOMMA\\BBA\Okumura,M.\BBOP2009\BBCP.\newblock\BBOQ{Semi-supervisedClusteringforWordInstancesandItsEffectonWordSenseDisambiguation}.\BBCQ\\newblockIn{\Bem{The10thInternationalConferenceonIntelligentTextProcessingandComputationalLinguistics(CICLing2009)}},\mbox{\BPGS\266--279}.\bibitem[\protect\BCAY{高村}{高村}{2010}]{takamura}高村大也\BBOP2010\BBCP.\newblock\Jem{言語処理のための機械学習入門}.\newblockコロナ社.\bibitem[\protect\BCAY{田中\JBA中村\JBA白井}{田中\Jetal}{2009}]{tanaka-h}田中博貴\JBA中村誠\JBA白井清昭\BBOP2009\BBCP.\newblock新語義発見のための用例クラスタと辞書定義文の対応付け.\\newblock\Jem{第15回言語処理学会年次大会},\mbox{\BPGS\590--593}.\bibitem[\protect\BCAY{山西}{山西}{2009}]{yamanishi}山西健司\BBOP2009\BBCP.\newblock\Jem{データマイニングによる異常検知}.\newblock共立出版.\end{thebibliography}\begin{biography}\bioauthor{新納浩幸}{1985年東京工業大学理学部情報科学科卒業.1987年同大学大学院理工学研究科情報科学専攻修士課程修了.同年富士ゼロックス,翌年松下電器を経て,1993年4月茨城大学工学部システム工学科助手.1997年10月同学科講師,2001年4月同学科助教授,現在,茨城大学工学部情報工学科准教授.博士(工学).機械学習や統計的手法による自然言語処理の研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{佐々木稔}{1996年徳島大学工学部知能情報工学科卒業.2001年同大学大学院博士後期課程修了.博士(工学).2001年12月茨城大学工学部情報工学科助手.現在,茨城大学工学部情報工学科講師.機械学習や統計的手法による情報検索,自然言語処理等に関する研究に従事.言語処理学会,情報処理学会各会員.}\end{biography}\biodate\end{document}
V14N02-03
\section{はじめに} 従来の中国語構文解析では,文脈自由型句構造文法CFG(ContextFreePhraseStructureGrammar)で文の構造を取り扱うことが一般的となっている.しかし,句構造文法PSG(PhraseStructureGrammar)\footnote[1]{通常,句構造文法という用語は生成文法(変形文法),依存構造文法などと並べれて論じられ,GPSG,HPSG等の単一化文法理論を含む文法記述の枠組み,もしくは形式言語におけるチョムスキーの階層に関する文法記述の枠組みを表す.本論文では,句構造文法という用語を,「文を逐次的に句などの小さい単位に分割し,文を階層的な句構造によって再帰的な構造上の関係に還元して説明する考え方」の意味で用いる.}により構築した文法体系では,規則の衝突による不整合が避けられず,曖昧性は大きな問題となっている.中国語構文解析に関する研究はチョムスキーの文脈自由文法CFGを取り入れて始められた.しかし,中国語には次の特徴があり,CFGで中国語文構造を取り扱うと,曖昧性が顕著である.\begin{itemize}\item文はそのまま主部,述部,目的語になれる\cite{zhu1}.\item動詞や形容詞は英語のような動詞や形容詞の語尾変化などの形態的変化がない\cite{zhu1}.\item動詞など複数の品詞を持つ単語が多く,しかも頻繁に使用される\cite{zhou2}.\end{itemize}そのため,文脈自由文法で記述した規則は再帰性が強く,しかも構文的制限が非常に緩やかであり,文脈自由文法に基づいたパーザを用いて構文解析を行なうと,動詞や形容詞の数が増えるにつれて,曖昧性は爆発的に増大するという問題がある\cite{masterpaper}\cite{yang}.構文解析部の実装に関しては,コーパスに基づく手法と規則に基づく手法とがあるが,中国語処理においては,コーパスに基づく手法が主流となっている\cite{huang}.なかでも,確率文脈自由文法PCFG(ProbabilisticContextFreeGrammar)がよく用いられている\cite{ictprop1}\cite{xiong}\cite{linying}\cite{chenxiaohui}.しかし,確率的手法に基づく解析では,分野依存性が強く,精度上の限界がある.一方,規則に基づく手法では,西欧言語を対象とする解析手法を直接中国語に使用するのは問題があるため,中国語に適応した方法が模索されている段階にある\cite{zhang}.このような中国語構文解析における課題を解決することが中国語処理の発展に必要である.そのため,中国語において,コンピュータにより効率的に処理できる構文解析用の文法体系を構築することは大きな意義がある.本論文では,文構造において述語動詞(または形容詞)を中心とし,すべての構文要素を文のレベルで取り扱う{\bf文構造文法}{\bfSSG}(\underline{S}entence\underline{S}tructure\underline{G}rammar)を提案する.そして,SSGの考え方に基づき中国語におけるSSG文法規則体系を構築し,それを構造化チャートパーザSchart~\cite{schart}上に実装し,評価実験を行った.SSG規則は互いに整合性がよく,品詞情報と文法規則のみで解析の曖昧性を効果的に抑止し,PCFGに基づく構文解析より高い正解率が得られた. \section{PSG文法規則体系に基づく構文解析の問題点} \subsection{PSG文法規則の特徴}PSG文法の方法論は,文法事実を句構造(階層構造)に基づく構造上の関係に還元して説明することである.すなわち,文という単位は主語と述語からなり,主語や述語はさらに名詞句や動詞句などからなるというように,文の構造を全体から細部まで句の形で順次規定していく.この方法論では文レベルの規則は少なく,荒く,言語現象をカバーしていくのに,主に句レベルの規則を拡張することになる.以下に中国語におけるPSG文法規則の例をあげる.規則に現れるシンボルの意味を表~\ref{tab:cpos}に示す.例えば文(1A)を解析するには,規則(1a),(1b),(1c),(1d)の4つのPSG規則が必要である.\begin{table}[b]\centering\caption{記号とその意味の対応表}\begin{tabular}{|l|l|}\hline\multicolumn{1}{|c|}{品詞の表示}&\multicolumn{1}{|c|}{対応品詞}\\\hlines&文\\np&名詞句\\vp&動詞句\\sp&場所詞句\\pp&介詞句\\n&名詞\\v&動詞\\r&人称代名詞\\a&形容詞\\d&副詞\\p&介詞\\zv&助動詞\\sq&場所詞\\y&語気詞\\\hline\end{tabular}\label{tab:cpos}\end{table}文(1B)と文(1C)を解析するには規則(1e)と規則(1f)を加える必要があり,動詞句の規則を拡張することになる.\def\ya{}\def\文(#1){}\def\規則(#1){}\def\インデント{}\begin{quotation}\noindent\文(1A)小王/n出来/v了/y(王さんは出た)\\\文(1B)小王/n走/v出来/v了/y(王さんは歩いて出た)\\\文(1C)小王/n也/d走/v出来/v了/y(王さんも歩いて出た)\\\規則(1a)s\yanpvp\\\規則(1b)s\yasy\\\規則(1c)np\yan\\\規則(1d)vp\yav\\\規則(1e)vp\yavpvp\\\規則(1f)vp\yadvp\\\end{quotation}そのため,PSG文法規則体系では,文規則(文sを生成する規則)の数はわずかであり,文規則の数と句規則(動詞句vpなどの句を生成する規則)の数の分布は図\ref{fig:psgpyra}のようなピラミッド型になっている.\begin{figure}[t]\begin{center}\includegraphics[width=4cm]{1.eps}\caption{PSG文法規則体系における規則の分布}\label{fig:psgpyra}\end{center}\end{figure}\subsection{PSGによる構文解析の問題点}構文解析を行なう際,文脈自由文法CFGが最もよく使われてきた.CFG文法に基づく構文解析における最も大きな問題点は,文法規則を拡張することで他の規則との衝突を引き起し,解析の曖昧性を増大させることである.しかも入力文が長くなるにつれて,規則間の不整合は顕著となり,曖昧性は爆発的に増大する.PSG文法規則における規則の特徴に注目すると,その必然性が分かる.PSGの方法論で構築した文法規則体系においては,文法現象をさらにカバーしていくために,主に句規則を増やすことになり,文規則の数はあまり変わらない.したがって,文規則の数は句規則に比べると,図~\ref{fig:psgpyra}に示すようにわずかしかない.そのため句レベルではその単語間の組み合わせは多種多様になるのにもかかわらず,文レベルでは相変わらずそれをわずかな文規則で解釈することになる.言い替えれば,1つの入力文において,句のレベルでは多くの句規則で解析され多数の解釈があるのにもかかわらず,文のレベルでは,わずかな文規則でそれをまとめている.PSGによる文法記述体系のこのような特徴が,曖昧性の原因となっている.具体例を以下にあげる.文(1C)「小王/n也/d走/v出来/v了/y(王さんも歩いて出た)」を解析するために,規則(1e)と規則(1f)を加えなければならないが,図~\ref{fig:amb}に示すように,曖昧性が生じてしまう.\begin{figure}[t]\begin{center}\includegraphics[width=11cm]{2.eps}\caption{PSG文法規則における文(1C)の構文解析結果}\label{fig:amb}\end{center}\end{figure} \section{文構造文法規則体系SSGの基本的考え方} 本章では,文構造文法SSG(SentenceStructureGrammar)を提案する.SSGの基本的な考え方は以下の2点である.\begin{itemize}\item自然言語において文表現は無限であるが,それを有限な文構造規則で記述できる.\item文構造規則は述語動詞または形容詞を中心とし,すべての構文要素を文構造規則内に記述する.\end{itemize}SSGでは,文(1A)を解析する文法規則を(2a),(2b),(2c)のように記述する.さらに文(1B),文(1C)を解析するために,規則(2d),規則(2e)をそれぞれ加える.\begin{quotation}\noindent\文(1A)小王/n出来/v了/y(王さんは出た)\\\文(1B)小王/n走/v出来/v了/y(王さんは歩いて出た)\\\文(1C)小王/n也/d走/v出来/v了/y(王さんも歩いて出た)\\\規則(2a)s\yanpv\\\規則(2b)s\yasy\\\規則(2c)np\yan\\\規則(2d)s\yanpvv\\\規則(2e)s\yanpdvv\\\end{quotation}PSG規則(1a),(1b),(1c),(1d),(1e),(1f)とSSG規則(2a),(2b),(2c),(2d),(2e)を比較してみると,以下の違いがある.\begin{itemize}\item文規則の記述形式が異なる.\item文を拡張するのに,PSG規則は動詞句規則を増やすのに対して,SSG規則では文規則を増やす.\itemPSG規則では動詞句規則が多く,文規則が少ない.一方,SSG規則では,動詞句規則が少なく,文規則が多い.\itemPSG規則は互いに整合が悪く,曖昧性が生じる.SSG規則は規則間で整合性がよく,曖昧性が生じない.\end{itemize}文(1C)をSSG規則(2b),(2c),(2e)で解析した場合,図~\ref{fig:ssgres}のように1つの構文木しか生成されず,規則の拡張によって引き起こされる曖昧性を抑制することができる.SSGによって,規則間で整合性のよい文法規則体系を構築することが期待される.\begin{figure}[t]\begin{center}\includegraphics[width=6cm]{3.eps}\caption{SSG文法規則における文(1C)の構文解析結果}\label{fig:ssgres}\end{center}\end{figure} \section{中国語におけるSSG文法規則体系の設計} 本章では,SSGの基本的な考え方に基づいて,どのような点を考慮して,中国語におけるSSG規則体系を設計したかについて述べる.\subsection{中国語の文表現モデル}\begin{figure}[b]\centering\includegraphics[width=8cm]{4.eps}\caption{中国語における文表現モデル}\label{fig:cmodel}\end{figure}中国語の文表現を図~\ref{fig:cmodel}のようにモデル化した.まず,文を{\bf主部Subj},{\bf述部Pred},{\bf状態部Z},{\bf語気詞部Y}に分ける.主部Subjは{\bf主語S}から,述部Predは{\bf補語C},{\bf目的語O},{\bf述語P}から構成される.状態部Zは{\bf時間詞句tp},{\bf介詞句pp},{\bf《地》字句dp},{\bf助動詞zv},{\bf副詞d},{\bf否定判断辞jf}から,語気詞部Yは{\bf語気詞y}から構成される.主部は文の前方,述部は文の後方,状態部は述部の直前に位置する.語気詞は文末に置かれ,語気詞を除く文全体を受ける.さらにこれらの要素を,{\bf骨格部}と{\bf非骨格部}にわける.骨格部とは文が成り立つために欠かすことのできない部分であり,主部Sと述部Pがこれにあたる.非骨格部とはなくても文が成り立つ部分であり,状態部Zと語気詞部Yがこれにあたる.\subsection{構文要素の定義}構文要素は文を構成する成分であり,ここでは,構文要素をさらに必須構文要素と自由構文要素に分ける.必須構文要素は骨格部(主部と述部)となる構文要素であり,主語S,述語P(動詞または形容詞),補語C,目的語Oの4つである.自由構文要素は非骨格部(状態部と語気詞部)となる構文要素である.\begin{itemize}\item{\bf主語S}\\主語Sは主語となる句の性質によって以下の5種類に分類している.\begin{description}\item[名詞句主語Sn]名詞句からなる主語\\例:「車修了(車は修理された)」という文の主語「車」は名詞句である.\item[動詞句主語Sv]動詞句からなる主語\\例:「開車応守規則(運転する際,規則を守るべきだ)」という文の主語「開車(車を運転する)」は動詞句である.\item[形容詞主語Sa]形容詞からなる主語\\例:「謙虚是一種美徳(謙虚は美徳である)」という文の主語「謙虚」は形容詞である.\item[場所主語Ssp]場所詞句からなる主語\\例:「我家来人了(我が家に誰かが来た)」という文の主語「我家(我が家)」は場所詞句である.\item[文主語Ss]文からなる主語\\例:「他現在去也不晩(彼が今行っても遅くない)」という文の主語「他現在去(彼が今行く)」は文である.\end{description}\item{\bf述語P}\\述語は述語動詞と述語形容詞の2種類に分類している.\begin{description}\item[述語動詞v]動詞である述語\item[述語形容詞a]形容詞である述語\end{description}\item{\bf補語C}\\補語は5種類に分類している.\begin{description}\item[結果補語Cj]動作または変化によって生じた結果\\動詞及び形容詞が結果補語になることができる.\\例:「論文写完了(論文は書き終った)」という文のなかで,「完(終る)」という動詞は「写(書く)」という動作によって生じた結果を表し,結果補語である.\item[方向補語Cf]方向を表す動詞などからなる補語\\「上(上がる)」,「下(下がる)」,「来(くる)」,「去(行く)」などがある.\\例:「他買東西去了(彼は買物をしに行った)」という文の場合,「去(行く)」という動詞は「買(買う)」という動詞の方向補語である.\item[可能補語Ck]結果補語または方向補語に「得」,「不」を前置したもの\\例:「論文写不完(論文は書き終わらない)」という文の「不完(終わらない)」は可能補語である.\item[様態補語Cq]動詞または形容詞に「得」が後置され,文などが導かれるもの\\すべて動作や状態の結果または程度を表す.\\例:「他急得出汗了(彼は汗をかくくらい焦っている)」という文では,「出汗了(汗をかく)」は様態補語である.\item[介詞句補語Cp]介詞句が動詞または形容詞の後に用いられたもの\\例:「他来自中国(彼は中国から来た)」という文の場合,介詞句「自中国(中国から)」は動詞「来(来る)」の後に位置し,介詞句補語である.\end{description}\item{\bf目的語O}\\目的語は5種類に分類している.\begin{description}\item[名詞性目的語On]名詞句からなる目的語\\例:「他写論文(彼は論文を書く)」という文では,「論文」は名詞句目的語である.\item[場所目的語Osp]場所詞句からなる目的語\\例:「他去学校(彼は学校へ行く)」という文では,「学校」は場所を表す場所目的語である.\item[時間目的語Otp]時間詞句からなる目的語\\例:「他喜歓春天(彼は春が好きだ)」という文の中では,「春天(春)」が時間詞からなる時間目的語である.\item[動詞句目的語Ov]動詞句からなる目的語\\例:「他忘記買票了(彼はチケットを買うのを忘れた)」という文では,「買票(チケットを買う)」という動詞句が動詞「忘記(忘れる)」の目的語である.\item[文目的語Os]文からなる目的語\\例:「我想他一定走了(私は彼がきっと行ったと思う)」という文では,「他一定走了(彼がきっと行った)」という文は動詞「想(思う)」の目的語となる.\end{description}\item{\bf自由構文要素}\\自由構文要素には以下のものがある.\begin{description}\item[時間詞句tp]主語と述語の間に位置する時間詞句\\例:「他今天回国(彼は今日帰国する)」という文では,「今天(今日)」は時間詞句である.\item[介詞句pp]主語と述語の間に位置する介詞句\\例:「他在新潟住(彼は新潟に住んでいる)」という文の中で,「在新潟(新潟に)」は介詞句である.\item[《地》字句dp]主語と述語の間に位置する「地」字句\\例:「他静静地看着書(彼は静かに本を読んでいる)」という文では,「静静地(静かに)」は《地》字句である.\item[助動詞zv]主語と述語の間に位置する助動詞\\例:「他能説日語(彼は日本語をしゃべれる)」という文では,「能(できる)」は助動詞である.\item[否定判断辞jf]主語と述語の間に位置する否定判断辞\\例:「他不能説日語(彼は日本語をしゃべれない)」という文では,「不(ない)」は否定判断辞である.\item[副詞d]主語と述語の間に位置する副詞\\例:「他也不能説日語(彼も日本語をしゃべれない)」という文では,「也(も)」は副詞である.\item[語気詞y]語気詞を除いた文全体を受ける語気詞\\例:「他去中国了(彼は中国に行った)」という文では,「了」は語気詞で,文末に位置して,文全体を受ける.\end{description}\end{itemize}\subsection{文構造規則基本形式とその拡張}文構造規則は述語を中心とし,すべての構文要素を記述する.その基本形式は以下の3つである.疑問符「?」は選択要素であることを意味し,省略可能である.\begin{quotation}\noindent基本形式1:文s\ya主語S\状態部Z?述語動詞v補語C?目的語O?目的語O?\\基本形式2:文s\ya主語S\状態部Z?述語形容詞a補語C?\\基本形式3:文s\ya文s\語気詞部Y?\end{quotation}文構造規則の基本形式から,さらに以下の8つの基本の文構造に分けられる.\begin{quotation}\noindents\yaSv\\s\yaSvC\\s\yaSvO\\s\yaSvOO\\s\yaSvCO\\s\yaSvCOO\\s\yaSa\\s\yaSaC\end{quotation}主語S,補語C,目的語Oをさらに詳細化することで,この8つの基本構造が,多数の文構造に分けられている.例えば,\begin{quotation}\noindents\yaSvC\end{quotation}という構造は\begin{quotation}\noindents\yaSnvCj\\s\yaSnvCf\\s\yaSnvCk\\s\yaSnvCq\\s\yaSnvCp\end{quotation}の5つの文構造に詳細化されている.また,必須構文要素と自由構文要素の組合せによって,文構造規則を適宜追加する.たとえば,以下に示す文(3A)は主語S,述語v,目的語Oからなる単純な文であり,規則(3a)に対応する.この文に時間に関する情報(時間詞句tp)をいれたものが文(3B)である.これを解析するために規則(3b)を追加する.同様に介詞句,《地》字句,助動詞,否定判断辞,副詞,語気詞を1つずつ文(3A)に加えることで文(3C),(3D),(3E),(3F),(3G),(3H)が生成されるが,これらを解析するために規則(3c),(3d),(3e),(3f),(3g),(3h)の文規則を追加する.文(3I)のような複数の自由構文要素を持つ文を解析するために,規則(3i)のように文構造規則を記述する.\begin{quotation}\noindent\文(3A)我/r写/v字/n(わたしは字を書く)\\\文(3B)我/r晩上/t写/v字/n(わたしは夜に字を書く)\\\文(3C)我/r用/p筆/n写/v字/n(わたしは筆で字を書く)\\\文(3D)我/r静静/z地/uv写/v字/n(わたしは静かに字を書く)\\\文(3E)我/r会/zv写/v字/n(わたしは字を書くことができる)\\\文(3F)我/r不/jf写/v字/n(わたしは字を書かない)\\\文(3G)我/r也/d写/v字/n(わたしも字を書く)\\\文(3H)我/r写/v字/n了/y(わたしは字を書いた)\\\文(3I)~我/r也/d会/zv用/p筆/n写/v字/n了/y(わたしも筆で字を書くことがで\hspace*{4zw}~きた)\\\規則(3a)s\yaSnvOn\\\規則(3b)s\yaSntpvOn\\\規則(3c)s\yaSnppvOn\\\規則(3d)s\yaSndpvOn\\\規則(3e)s\yaSnzvvOn\\\規則(3f)s\yaSnjfvOn\\\規則(3g)s\yaSndvOn\\\規則(3h)s\yasy\\\規則(3i)s\yaSndzvppvOn\end{quotation}このように,文を構成する構文要素に応じて文規則を適宜拡張していく.\subsection{文構造規則体系}中国語のSSG文法規則は文構造規則,構文要素規則,句構造規則の3階層で構成される.例えば以下に示す文(4A)は,文構造規則(4a),構文要素規則(4b),(4c),句構造規則(4d),(4e),(4f),(4g)によって解析される.文法中の記号の意味は表~\ref{tab:cpos}に示す.\begin{quotation}\noindent\文(4A)我/r在/p家/sq看/v電視/n(わたしは家でテレビを見る)\\\規則(4a)s\yaSnppvOn\\\規則(4b)Sn\yanp\\\規則(4c)On\yanp\\\規則(4d)np\yan\\\規則(4e)np\yar\\\規則(4f)pp\yapsp\\\規則(4g)sp\yasq\end{quotation}\begin{figure}[t]\begin{center}\includegraphics[width=5cm]{5.eps}\caption{「我/r在/p家/sq看/v電視/n」の解析結果}\label{fig:wotv}\end{center}\end{figure}SSG文法規則に階層を持たせることで,文法規則の見通しがよくなり,規則の管理が容易になるといった利点がある.また図~\ref{fig:wotv}に示すように構文木の構成が分かりやすく,意味解析との整合性もよい.\subsection{SSGとPSGとの比較}SSGとPSGの比較を以下にまとめる.\subsubsection{方法論の違い}PSGでは,文を逐次的に小さい単位に分割し,それを還元する.SSGでは,述語を中心に構文要素を文構造規則内に記述する.\subsubsection{規則の拡張}PSGでは,句規則を拡張することによって,言語現象をカバーして行く.SSGでは,動詞句規則の代わりに主に文構造規則を増やすことで文法規則を拡張する.\subsubsection{規則の分布}PSGでは,名詞句規則と動詞句規則などの句規則は圧倒的多く,文規則が少ない.規則の分布は図~\ref{fig:psgpyra}のようになる.SSGでは,表~\ref{tab:nrule}に示すように文構造規則が中心となっており,動詞句規則は少ない.規則の分布は図~\ref{fig:ssgpyra}のようになる.\begin{table}[b]\begin{center}\caption{中国語SSG規則体系における規則の分布}\begin{tabular}{|c|c|c|c|c|}\hline総規則数&文構造規則数&動詞句規則数&その他\\\hline807&565&24&218\\\hline\end{tabular}\label{tab:nrule}\end{center}\end{table}\begin{figure}[b]\begin{center}\includegraphics[width=4cm]{6.eps}\caption{SSG文法規則体系における規則の分布}\label{fig:ssgpyra}\end{center}\end{figure}\subsubsection{規則間の整合性}PSGでは,規則は互いに衝突し,曖昧性の発生が顕著である.SSGでは,規則は互いに整合性がよく,曖昧性の発生が少ない.以下に例をあげる.PSG規則で文(5A)を解析するには,規則(5a),(5b),(5c),(5d)が必要である.介詞句を含む文(5B)を解析するためには,さらに動詞句規則(5e)が必要になる.\begin{quotation}\noindent\文(5A)論文/n写/v完/v了/y(論文を書き終った)\\\文(5B)論文/n在/p学校/sq写/v完/v了/y(論文を学校で書き終った)\\\規則(5a)s\yanpvp\\\規則(5b)s\yasy\\\規則(5c)np\yan\\\規則(5d)vp\yavv\\\規則(5e)vp\yappvp\end{quotation}SSG規則で文(5A)を解析するには,文規則(5f),(5g),(5h)が必要である.介詞句を含む文(5B)を解析するためには,さらに文規則(5i)が必要になる.PSGの場合は拡張された規則が元の規則と衝突し,曖昧性が生じた.一方SSGでは,拡張された規則は元の規則との整合性がよく,曖昧性が生じない.\begin{quotation}\noindent\規則(5f)s\yanpvv\\\規則(5g)s\yasy\\\規則(5h)np\yan\\\規則(5i)s\yanpppvv\end{quotation}\subsection{動詞の分類とその曖昧性解消効果}中国語では,動詞句が異なる統語構造を持っていても,動詞の形態は変わらない.例えば,以下に示す文(6A)と文(6B)はいずれも[nvnvn]と品詞から構成されており,文の統語構造も異なるが,動詞の形態的変化はない.文(6A)は「教(教える)」が述語動詞で,「小王(王さん)」は述語動詞「教(教える)」の対象を表す名詞目的語,「唱歌(うたを歌う)」は述語動詞「教(教える)」の内容を表す動詞目的語であり,その文構造規則が規則(6a)である.一方で,文(6B)では「小王(王さん)」は述語動詞「選(選ぶ)」目的語でありながら,後ろの「当代表(代表となる)」の主語でもある.文構造規則では,「小王当代表(王さんが代表となる)」は文であり,「小王当代表」という文全体を述語動詞「選(選ぶ)」の目的語とした.文(6B)に対応する文構造規則が規則(6b)である.この場合文(6A),(6B)は規則(6a),(6b)の両方に適合し,2つの構文木を生成して曖昧性が生じる.\begin{quotation}\noindent\文(6A)小李/n教/v小王/n唱/v歌/n\\\インデント(李さんは王さんに歌を唱うことを教える)\\\文(6B)小李/n選/v小王/n当/v代表/n\\\インデント(李さんは王さんを代表として選ぶ)\\\規則(6a)s\yaSnvOnOv\\\規則(6b)s\yaSnvOs\\\end{quotation}2つの文の述語動詞を注目すると,以下のことが分かる.すなわち,文(6A)の述語動詞「教(教える)」は2つの目的語,名詞性目的語Onと動詞性目的語Ovをとれるが,文目的語Osをとれない.文(6B)の述語動詞「選(選ぶ)」は文目的語Osをとれるが,2つの目的語,名詞性目的語Onと動詞性目的語Ovをとれない.したがって,動詞「選」の品詞をv\_Osに,「教」の品詞をv\_On\_Ovに詳細化し,規則(6a),(6b)を規則(6a'),(6b')に書き換えることによって,この種の曖昧性を解消できる.\begin{quotation}\noindent\規則(6a')s\yaSnv\_OsOs\\\規則(6b')s\yaSnv\_On\_OvOnOv\end{quotation}動詞を詳細化しない場合,文(6A),(6B)からは図~\ref{fig:amb2}に示す2つの構文木が得られたが,動詞を詳細化した場合は図~\ref{fig:disamb}に示すように文(6A),(6B)からそれぞれ1つずつの構文木が得られ,曖昧性が解消された.\begin{figure}[b]\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics[width=5.5cm]{7.eps}\caption{動詞分類前の構文木}\label{fig:amb2}\end{center}\end{minipage}\hfill\begin{minipage}{0.45\textwidth}\begin{center}\includegraphics[width=5.5cm]{8.eps}\caption{動詞分類後の構文木}\label{fig:disamb}\end{center}\end{minipage}\end{figure}中国語SSG文法では,ここにあげた文構造規則(6a'),(6b')のように,文の中心となる述語動詞や述語形容詞に必須構文要素(主語S,補語C,目的語O)を加えた規則を,文構造規則として記述した.さらに文構造を細分化するため,動詞を文型情報によって分類した.たとえば動詞「選(選ぶ)」には,以下に示す文型の文を解析できるように,[vv\_Cjv\_Cfv\_Ckv\_Onv\_Cj\_Onv\_Cf\_Onv\_Ck\_Onv\_Os]の9種類の品詞を与えた.\begin{quotation}\noindent\文(7A)代表/n選/v了/y(代表は選ばれた)\\\文(7B)代表/n選/v\_Cj完/vb了/y(代表は選び終った)\\\文(7C)代表/n選/v\_Cf出来/vf了/y(代表は選び出した)\\\文(7D)代表/n選/v\_Ck不/jf出来/vf了/y(代表は選び出せなかった)\\\文(7E)大家/n選/v\_On代表/n(みんなは代表を選ぶ)\\\文(7F)大家/n選/v\_Cj\_On完代表/n了/y(みんなは代表を選び終った)\\\文(7G)大家/n選/v\_Cf\_On出来代表/n了/y(みんなは代表を選び出した)\\\文(7H)~大家/n選/v\_Ck\_On不/jf出来/vf代表/n了/y(みんなは代表を選び出せな\hspace*{4zw}~かった)\\\規則(7a)s\yaSnvy\\\規則(7b)s\yaSnv\_CjCjy\\\規則(7c)s\yaSnv\_CfCjy\\\規則(7d)s\yaSnv\_CkCky\\\規則(7e)s\yaSnv\_OnOny\\\規則(7f)s\yaSnv\_Cj\_OnCjOny\\\規則(7g)s\yaSnv\_Cf\_OnCfOny\\\規則(7h)s\yaSnv\_Ck\_OnCkOny\end{quotation}中国語SSGでは,動詞をそのとりうる文構造によって33種に分類した.また,方向補語や結果補語になれる動詞,名詞と複合名詞になれる動詞は一部しかないため,それぞれにvf,vb,vmの品詞をつけた.表~\ref{tab:vsys}に中国語SSGにおける動詞の分類を示す.\begin{table}[t]\centering\caption{述語動詞の分類}\footnotesize\begin{tabular}{|l|l|l|}\hline\multicolumn{1}{|c|}{述語動詞}&\multicolumn{1}{|c|}{取れる構文要素}&\multicolumn{1}{|c|}{文構造規則}\\\hlinev&名詞性主語&s\yaSnv\\v\_Cj&名詞性主語,結果補語&s\yaSnv\_Cj\\v\_Cf&名詞性主語,方向補語&s\yaSnv\_CfCf\\v\_Ck&名詞性主語,可能補語&s\yaSnv\_CkCk\\v\_Cq&名詞性主語,状態補語&s\yaSnv\_CqCq\\v\_Cp&名詞性主語,介詞句補語&s\yaSnv\_CpCp\\v\_On&名詞性主語,名詞句目的語&s\yaSnv\_OnOn\\v\_Ov&名詞性主語,動詞句目的語&s\yaSnv\_OvOv\\v\_Os&名詞性主語,文目的語&s\yaSnv\_OsOs\\v\_Osp&名詞性主語,場所目的語&s\yaSnv\_OspOsp\\v\_Otp&名詞性主語,時間目的語&s\yaSnv\_OtpOtp\\v\_On\_On&名詞性主語,名詞句目的語,名詞句目的語&s\yaSnv\_On\_OnOnOn\\v\_On\_Ov&名詞性主語,名詞句目的語,動詞句目的語&s\yaSnv\_On\_OvOnOv\\v\_Cj\_On&名詞性主語,結果補語,名詞句目的語&s\yaSnv\_Cj\_OnCjOn\\v\_Cf\_On&名詞性主語,方向補語,名詞句目的語&s\yaSnv\_Cf\_OnCfOn\\v\_Ck\_On&名詞性主語,可能補語,名詞句目的語&s\yaSnv\_Ck\_OnCkOn\\v\_Cj\_Ov&名詞性主語,結果補語,動詞句目的語&s\yaSnv\_Cj\_OvCjOv\\v\_Cf\_Ov&名詞性主語,方向補語,動詞句目的語&s\yaSnv\_Cf\_OvCfOv\\v\_Ck\_Ov&名詞性主語,可能補語,動詞句目的語&s\yaSnv\_Ck\_OvCkOv\\v\_Cj\_Osp&名詞性主語,結果補語,場所目的語&s\yaSnv\_Cj\_OspCjOsp\\v\_Cf\_Osp&名詞性主語,方向補語,場所目的語&s\yaSnv\_Cf\_OspCfOsp\\v\_Ck\_Osp&名詞性主語,可能補語,場所目的語&s\yaSnv\_Ck\_OspCkOsp\\v\_Cj\_Otp&名詞性主語,結果補語,時間目的語&s\yaSnv\_Cj\_OtpCjOtp\\v\_Cf\_Otp&名詞性主語,方向補語,時間目的語&s\yaSnv\_Cf\_OtpCfOtp\\v\_Ck\_Otp&名詞性主語,可能補語,時間目的語&s\yaSnv\_Ck\_OtpCkOtp\\v\_Cj\_On\_On&名詞性主語,結果補語,名詞句目的語,名詞句目的語&s\yaSnv\_Cj\_On\_OnCjOnOn\\v\_Cf\_On\_On&名詞性主語,方向補語,名詞句目的語,名詞句目的語&s\yaSnv\_Cf\_On\_OnCfOnOn\\v\_Ck\_On\_On&名詞性主語,可能補語,名詞句目的語,名詞句目的語&s\yaSnv\_Ck\_On\_OnCkOnOn\\v\_Cj\_On\_Ov&名詞性主語,結果補語,名詞句目的語,動詞句目的語&s\yaSnv\_Cj\_On\_OvCjOnOv\\v\_Cf\_On\_Ov&名詞性主語,方向補語,名詞句目的語,動詞句目的語&s\yaSnv\_Cf\_On\_OvCfOnOv\\v\_Ck\_On\_Ov&名詞性主語,可能補語,名詞句目的語,動詞句目的語&s\yaSnv\_Ck\_On\_OvCkOnOv\\v\_Ss\_Os&文主語,文目的語&s\yaSsv\_Ss\_OsOs\\v\_Sv\_Os&動詞句主語,文目的語&s\yaSvv\_Sv\_OsOs\\\hline\end{tabular}\label{tab:vsys}\end{table}中国語SSGにおける構文木は,文の表層的構造を示すものである.例えば,「車/n修理/v了/y(車は修理された)」という文では,「車」は意味的には「修理」の対象格(目的格)であるが,述語動詞の前に位置することから主語として解析されている.また動詞の分類に関しては,単語間の意味的関係を考慮せずに,表層的な構造だけを考慮した.例えば,文(8A),(8B)は表層的には同じ文構造であるが,単語の意味的関係を考えた場合,文(8A)では主語「車」は述語動詞「修理」の対象格(目的格)であるが,文(8B)では主語「他」は述語動詞「走」の動作主格である.ここでは,単語の意味的関係を考えずに,両方の文が文構造規則(8a)に対応するようにしている.\begin{quotation}\noindent\文(8A)車/n修理/v了/y(車は修理された)\\\文(8B)他/n走/n了/y(彼は行った)\\\規則(8a)s\yaSnv\end{quotation}\subsection{SSG文法規則体系による中国語の多品詞性の扱い}中国語では,多品詞現象が顕著である.例えば使用頻度の高い機能語である介詞は,動詞から転成したものが多い.そのため,ほとんどの介詞は動詞の品詞多義を持っている~\cite{zhu1}.これらの多品詞語は,品詞によって構文上の特徴も異なっている.例えば,「用」という単語は介詞pと動詞vとの2つの品詞を持っているが,介詞としている「用/p」は文(3I)のように,述語動詞の前に位置し,述語動詞を修飾する.一方,動詞として用いられる「用/v」は,一般的に文(9A)のように文の述語となる.SSGは,述語動詞を中心とした文全体を文法規則として記述するため,このような構文上の特徴を規則として記述することができ,多品詞の絞り込みに有効である.例えば,介詞「用」を用いた文(3I)は規則(3i)で,動詞「用」を用いた文(9A)は規則(9a)で解析することができる.規則(9b)によって介詞句pp「用/p餐/n」が生成されるが,文構造規則(9c)は構文的に正しくないためにSSG文法規則体系には記述されていない.そのために介詞「用/p」を用いた解は生成されない.このように品詞多義を持つ単語に関して,品詞ごとの構文上の特徴をSSG文法規則体系に記述することによって,品詞多義を抑制することができる.\begin{quotation}\noindent\文(3I)~我/r也/d会/zv用/p筆/n写/v字/n了/y(わたしも筆で字を書くことがで\hspace*{4zw}~きた)\\\文(9A)我/r正在/d用/v餐/n(私はご飯を食べている)\\\規則(3i)s\yaSndzvppvOn\\\規則(9a)s\yaSndvOn\\\規則(9b)pp\yapnp\\\llap{*\}\規則(9c)s\yaSndpp\end{quotation} \section{評価実験} \subsection{実験設定}設計した中国語SSG文法規則体系の網羅性と曖昧性解消の有効性を検証するため,それをSchartパーザ\cite{schart}に実装し評価実験を行った.SSG文法規則体系に基づく中国語パーザを以下SSGパーザと呼ぶ.辞書についてはインターネットで公開された中国の北京大学で開発した「現代漢語句法信息詞典(現代漢語文法情報辞書)」\cite{yu}の10,000語をベースとして,それを修正し,作成したものを用いた.従来のCFGに基づいた中国語構文解析においては,単語の多品詞性によって構造多義が爆発的に引き起こされるため,形態素解析の段階で統計的手法を用いて多品詞を絞り込むことが一般的である\cite{ictclas}.SSGパーザは,これらの多品詞を構文解析の段階で文法規則を適用することによって絞り込む.評価実験ではSSGパーザの入力として,中国科学院が開発した形態素解析パーザICTCLAS\cite{ictclas}の単語分割の結果を利用した.各単語の品詞多義については,すべての品詞を入力として与えた.\subsection{評価実験データ}\begin{table}[t]\centering\caption{実験データの内容(1)}\begin{tabular}{|c|c|c|c|c|c|}\hline\multicolumn{2}{|c|}{文構造の類型}&章節&文数&\multicolumn{2}{|c|}{1文あたりの単語数}\\\cline{5-6}\multicolumn{2}{|c|}{}&&&最大単語長&最小単語長\\\hline&単動詞述語文&第二章&10&7&3\\&動詞目的語述語文&第三章&10&9&5\\&動詞補語述語文&第四章&10&12&4\\&多数動詞述語文&第五章&10&12&4\\&兼語述語文&第六章&10&9&4\\\shortstack{単}&形容詞述語文&第七章&10&8&3\\&名詞述語文&第八章&10&8&2\\&「是」字文&第九章&10&8&3\\&「有」字文&第十章&10&8&3\\&「把」字文&第十一章&10&20&6\\&「被」字文&第十二章&10&9&4\\\shortstack{文}&「使」字文&第十三章&10&15&5\\&「比」字文&第十四章&10&10&5\\&非主述文&第十五章&10&4&1\\&存現文&第十六章&10&11&3\\&疑問文&第十七章&10&6&3\\&祈使文&第十八章&10&7&1\\&評議文&第十九章&10&10&4\\\hline&並列重文&第二十六章一節&5&21&8\\&連貫重文&第二十六章二節&5&26&13\\&推進重文&第二十六章三節&5&28&10\\\shortstack{重}&選択重文&第二十六章四節&5&14&9\\&因果重文&第二十七章一節&5&22&9\\&転折重文&第二十七章二節&5&16&11\\&条件重文&第二十七章三節&5&28&12\\\shortstack{文}&譲歩重文&第二十七章四節&5&16&11\\&注釈重文&第二十八章一節&5&17&9\\&総分重文&第二十八章二節&5&33&23\\&記述重文&第二十八章三節&5&22&10\\&表相重文&第二十八章四節&5&17&14\\\hline\end{tabular}\label{tab:data1}\end{table}中国語の基本の文型をそろえるために,文法書「漢語的句子類型(中国語における文型)」\cite{fanxiao}中の例文を,評価用データとして用いた.データは文法書で解説されているすべての文型をカバーしたものである.データの客観性を保つために,単文は各章の例文の先頭10文まで,重文は各節の例文の先頭5文までを,修正せずに用いることにした.単文は第1章から第19章の各章から抽出したもので,文法書で解説されている全ての単文構造が含まれており,全部で180文である.重文は第26章,27章,28章中の各節から抽出したもので,文法書で解説されている全ての重文構造が含まれており,全部で60文である.単文と重文合わせて,240文である.表~\ref{tab:data1},\ref{tab:data2},\ref{tab:data3}は実験データの内容を示している.\subsection{網羅性に関する評価}形態素パーザICTCLASで単語を分割したところ,240文の実験データのうち12文は正しく分割されなかった(表~\ref{tab:resict2}).単語分割に成功した228文をSSGパーザの入力として与えて解析したところ,225文は木が出力された.これらには正解の構文木が含まれている.解析率は98.68\%に達した(表~\ref{tab:resssg0}).解析できない3文はいずれも名詞述語文(名詞句が述部になる文)である.中国語では名詞述語文は口語で用いられる簡潔な文型で,書面語や正式な場面ではあまり用いられない\cite{zonglan}.そのため,名詞述語文に対応する文構造規則は作成していない.\begin{table}[t]\centering\begin{minipage}{120pt}\caption{実験データの内容(2)}\begin{tabular}{|c|c|c|c|c|}\hline総文数&単文数&重文数\\\hline240&180&60\\\hline\end{tabular}\label{tab:data2}\end{minipage}\hfill\begin{minipage}{270pt}\centering\caption{実験データの内容(3)}\begin{tabular}{|c|c|c|c|c|}\hline試験文数&総単語数&最大単語長&最小単語長&平均単語長\\\hline240&2073&33&1&8.64\\\hline\end{tabular}\label{tab:data3}\end{minipage}\par\vspace{\baselineskip}\begin{minipage}{160pt}\centering\caption{ICTCLASの単語分割の正解率}\begin{tabular}{|c|c|c|c|}\hline文数&成功&失敗&正解率\\\hline240&228&12&95\%\\\hline\end{tabular}\label{tab:resict2}\end{minipage}\hfill\begin{minipage}{230pt}\caption{SSGパーザの解析率}\begin{tabular}{|c|c|c|c|}\hline試験文数&解析可の文数&解析不可の文数&解析率\\\hline228&225&3&98.68\%\\\hline\end{tabular}\label{tab:resssg0}\end{minipage}\end{table}\begin{table}[b]\centering\caption{SSG手法における平均構文多義数}\begin{tabular}{|c|c|c|c|c|}\hline試験文数&総構文木数&最大構文木数&最小構文木数&平均構文木数\\\hline225&405&23&1&1.80\\\hline\end{tabular}\label{tab:resssg1}\vspace{\baselineskip}\caption{SSG手法における平均構文多義数の分布}\begin{tabular}{|c|c|c|}\hline解の数&文の数&割合\\\hline1&141&62.67\%\\2&50&22.22\%\\3&19&8.44\%\\4以上&15&6.67\%\\\hline合計&225&100\%\\\hline\end{tabular}\label{tab:resssg2}\end{table}\subsection{曖昧性に関する評価}曖昧性の様子を表~\ref{tab:resssg1},\ref{tab:resssg2},\ref{tab:resssg3}に示す.表\ref{tab:resssg1}は平均構文多義数である.解析できた225文において,全部で405個構文木を得,一文当たりの構文木数は1.80である.表\ref{tab:resssg2}は平均構文多義数の分布である.225文のうち,構文木数が1である文は6割を占め,構文木が3つ以下の文は全体の文の9割以上である.CFGに基づく中国語構文解析では,構文木は爆発的に増えて何千何万になることは普通である\cite{yang}\cite{liuqun}.それに比べると,SSG手法は有効に曖昧性の発生を抑止している.表\ref{tab:resssg3}は文型ごとの解析結果である.\begin{table}[t]\centering\caption{SSG手法における文型ごとの解析結果}\footnotesize\begin{tabular}{|c|c|c|c|c|c|c|c|}\hline\multicolumn{2}{|c|}{文構造の類型}&文数&解析成功の文数&解析失敗した文数&\multicolumn{3}{|c|}{構文木数}\\\cline{6-8}\multicolumn{2}{|c|}{}&&&&最多&最少&平均\\\hline&単動詞述語文&10&10&0&2&1&1.1\\&動詞目的語述語文&10&10&0&1&1&1.0\\&動詞補語述語文&10&10&0&4&1&2.0\\&多数動詞述語文&10&10&0&4&1&1.6\\&兼語述語文&10&10&0&4&1&1.7\\\shortstack{単}&形容詞述語文&10&9&1&1&0&1.4\\&名詞述語文&10&7&3&1&0&0.8\\&「是」字文&10&9&1&3&0&1.5\\&「有」字文&10&10&0&3&1&1.6\\&「把」字文&10&9&1&3&0&1.9\\&「被」字文&10&9&1&4&0&1.3\\\shortstack{文}&「使」字文&10&9&1&3&0&1.6\\&「比」字文&10&9&1&13&0&2.5\\&非主述文&10&9&1&3&0&1.1\\&存現文&10&10&0&6&1&2.0\\&疑問文&10&10&0&2&1&1.5\\&祈使文&10&10&0&6&1&1.6\\&評議文&10&9&1&5&0&1.6\\\hline&並列重文&5&4&1&12&0&3.0\\&継起重文&5&5&0&3&1&1.8\\&推進重文&5&3&2&2&0&0.8\\\shortstack{重}&選択重文&5&5&0&1&1&1.0\\&因果重文&5&5&0&2&1&1.2\\&転折重文&5&5&0&6&1&2.6\\&条件重文&5&5&0&3&1&1.6\\\shortstack{文}&譲歩重文&5&5&0&3&1&1.6\\&注釈重文&5&5&0&3&1&1.8\\&総分重文&5&4&1&2&0&1.0\\&記述重文&5&5&0&2&1&1.4\\&表相重文&5&5&0&23&2&7.6\\\hline\end{tabular}\label{tab:resssg3}\end{table}\subsection{PCFG手法との比較評価}PSG文法規則の不整合性を克服するために,コーパスを利用する方法が盛んに研究されている.なかでも確率文脈自由型句構造文法PCFGはよく用いられる手法である.PCFGはCFGの規則$A\rightarrow\alpha$に対して,左辺$A$が与えられたとき,それが右辺の記号列$\alpha$に書き換えられる条件付確率$P(\alpha|A)$を付与したものである.規則の適用確率は構文木が例文に付与された構文構造付コーパスによって学習する.構文木の生成確率は,構文木の生成に用いられた規則の適用確率の積として計算される.生成確率によって,構文木に優先順位を付け,優先解を選ぶ.しかし,PCFGが与える優先順位はいつも正しいとは限らない.正解が出ない文に対して,精度をあげることが困難である.ここでは,曖昧性に対する有効性を比較するために,PCFG手法を用いたパーザICTPROP\cite{ictprop1}との比較を行なった.ICTPROPパーザは中国科学院の開発した中国語文パーザであり,意味知識を融合できるサブモデルを埋め込んだ,語彙化したPCFGモデルを用いている\cite{xiong}.われわれは240文のデータを,インターネット上で公開されているICTPROPパーザ~\cite{ictprop2}で解析した.公開されたICTPROPパーザは形態素解析パーザICTCLAS\cite{ictclas}の解析結果を用いており,2つのパーザを分離することができない.そのため,形態素解析の結果は誤っている12文を除外し,残った228文の構文解析の結果に対して評価を行なった.評価結果を表~\ref{tab:resict2},\ref{tab:resict1},\ref{tab:resict3}に示す.\begin{table}[t]\centering\caption{PCFG手法における解析の状況}\footnotesize\begin{tabular}{|c|c|c|c|c|c|}\hline\multicolumn{2}{|c|}{文構造の類型}&文数&\parbox[c]{7zw}{形態素区切りが失敗した文数}&\parbox[c]{8zw}{構成要素区切りが失敗した文数}&解析成功文数\\\hline&単動詞述語文&10&0&2&8\\&動詞目的語述語文&10&0&2&8\\&動詞補語述語文&10&0&4&6\\&多数動詞述語文&10&0&6&4\\&兼語述語文&10&0&4&6\\\shortstack{単}&形容詞述語文&10&1&4&5\\&名詞述語文&10&1&2&7\\&「是」字文&10&1&1&8\\&「有」字文&10&0&3&7\\&「把」字文&10&1&5&4\\&「被」字文&10&1&2&7\\\shortstack{文}&「使」字文&10&1&4&5\\&「比」字文&10&1&4&5\\&非主述文&10&0&1&9\\&存現文&10&0&2&8\\&疑問文&10&0&1&9\\&祈使文&10&0&2&8\\&評議文&10&1&1&8\\\hline&並列重文&5&1&3&1\\&継起重文&5&0&5&0\\&推進重文&5&2&3&0\\\shortstack{重}&選択重文&5&0&4&1\\&因果重文&5&0&4&1\\&転折重文&5&0&3&2\\&条件重文&5&0&2&3\\\shortstack{文}&譲歩重文&5&0&2&3\\&注釈重文&5&0&0&5\\&総分重文&5&1&3&1\\&記述重文&5&0&5&0\\&表相重文&5&0&5&0\\\hline\end{tabular}\label{tab:resict1}\end{table}\begin{table}[t]\centering\caption{構成要素区切りの正解率}\begin{tabular}{|c|c|c|}\hline文数&構成要素区切りの失敗した文数&構成要素区切りの正解率\\\hline228&89&60.96\%\\\hline\end{tabular}\label{tab:resict3}\end{table}\subsubsection{構文解析結果の判断基準}ICTPROPパーザの解析結果の評価基準については,構成要素の境界が誤って区切られたことより,構造が明らかに間違っている文は正しくないと判断した.構成要素は名詞句の構成要素,単文の構成要素,重文の構文要素の3つのレベルに分けられる.以下は不正解と判断したものの例である.\begin{quotation}\noindent【名詞句の例】\\「人類霊魂的工程師(人類の魂のエンジニア)」\\正解:[人類霊魂]/np的工程師\\ICTPROPの解:人類[霊魂的]/np工程師\\【単文の例】\\「張老師病了(張先生は病気になった)」\\正解:[張老師]/np病了\\ICTPROPの解:[張老師病]/np了\\【重文の例】\\「只有参加社会実践,才能獲得真正的知識(ただ社会実践に参加してこそ,真の知識を獲得できる)」\\正解:[只有参加社会実践,]/s才能獲得真正的知識\\ICTPROPの解:只有[参加社会実践,才能獲得真正的知識]/s\\\end{quotation}\subsection{SSGとPCFGとの比較}\begin{table}[b]\centering\begin{minipage}{200pt}\caption{情報資源の比較}\begin{tabular}{|c|c|c|}\hline情報資源&PCFG&SSG\\\hline品詞情報&使用する&使用する\\文法規則情報&使用する&使用する\\構文木コーパス情報&使用する&使用しない\\意味情報&使用する&使用しない\\\hline\end{tabular}\label{tab:resrc}\end{minipage}\hfill\begin{minipage}{200pt}\centering\caption{正解率の比較}\begin{tabular}{|c|c|c|}\hline手法&PCFG&SSG\\\hline正解率&60.96\%&62.67\%\\\hline\multicolumn{3}{c}{}\\\multicolumn{3}{c}{}\\\multicolumn{3}{c}{}\end{tabular}\label{tab:resfinal}\end{minipage}\end{table}表~\ref{tab:resrc}はSSGパーザとICTPROPパーザの情報資源の比較である.SSGパーザは品詞情報と文法規則だけを用いているのに対し,PCFGに基づくICTPROPパーザは,品詞情報や文法規則に加えて構文木コーパスや意味情報を用いている.表~\ref{tab:resfinal}に示すように,情報資源が少ないSSG法のほうが正解率が高いことが分かった.SSG法では,構文木を1つに絞り込んでいない文でも,正解の構文木がその解析結果に含まれる.表~\ref{tab:resssg2}によると,225の試験データのうち,構文木が2個以下の文は191であり,全体の84.89\%を占め,3つ以下の文は210あり,全体の93.33\%である.規則に優先度をつけたり,意味情報を導入することより,正解率をさらにあげることが期待される.その一方,PCFG法では,これ以上精度をあげることが困難である.正解が出ない文の正解を得るために,システムに多数の解析結果を出力させるようにしなければならず,そのことによって構文木が1つに絞り込まれなくなる.また多数の構文木を出力しても,正解が必ず含まれるとは限らないといった問題がある. \section{おわりに} 本論文では,文構造文法SSGを提案した.それに基づき,中国語におけるSSG文法規則体系を構築し,Schartパーザ上に実装した.従来のPSG文法体系に基づく構文解析では,規則間の不整合により,曖昧性は大きな問題となる.我々が設計した中国語SSG規則体系を用いた構文解析では,規則間の整合性がよく,曖昧性の解決に有効であり,本手法によって品詞情報と文法規則といった情報資源だけで,PCFGに基づく構文解析器より高い正解率が得られた.今後,規則に優先度を付ける,意味情報を導入するなどして,正解率を向上させる必要がある.さらに,英語などのほかの言語においても,SSGの考えに基づき,整合性のよい文法規則体系を設計することにも検討している.\acknowledgment本研究を進めるにあたって討論していただいた川辺諭氏(元JST研究員),新潟大学宮崎研究室の武本裕氏及び他の学生諸君に心から感謝いたします.\bibliographystyle{jnlpbbl_1.2}\begin{thebibliography}{}\bibitem[\protect\BCAY{Chen,Zhou,Yuan,\BBA\Wu}{Chenet~al.}{2006}]{chenxiaohui}Chen,X.,Zhou,Y.,Yuan,C.,\BBA\Wu,G.\BBOP2006\BBCP.\newblock\BBOQAnEfficientProbabilisticSyntacticAnalysisAlgorithmforChinese\BBCQ\\newblock{\BemApplicationReseachofComputers},{\Bbf23}(1),\mbox{\BPGS\141--143}.\bibitem[\protect\BCAY{Lin,Shi,\BBA\Guo}{Linet~al.}{2006}]{linying}Lin,Y.,Shi,X.,\BBA\Guo,F.\BBOP2006\BBCP.\newblock\BBOQAChineseParserBasedonProbabilisticContextFreeGrammar\BBCQ\\newblock{\BemJournalofChineseInformationProcessing},{\Bbf20}(2),\mbox{\BPGS\1--7}.\bibitem[\protect\BCAY{Xiong,Li,Liu,Lin,\BBA\Qian}{Xionget~al.}{2005}]{xiong}Xiong,D.,Li,S.,Liu,Q.,Lin,S.,\BBA\Qian,Y.\BBOP2005\BBCP.\newblock\BBOQParsingthePennChineseTreebankwithSemanticKnowledge\BBCQ\\newblockIn{\BemTheSecondInternationalJointConferenceonNaturalLanguageProcessing(IJCNLP05)}.\bibitem[\protect\BCAY{Zhang,Liu,Zhang,Zou,\BBA\Bai}{Zhanget~al.}{2003a}]{ictprop1}Zhang,H.,Liu,Q.,Zhang,K.,Zou,G.,\BBA\Bai,S.\BBOP2003a\BBCP.\newblock\BBOQStatisticalChineseParserICTPROP\BBCQ.\bibitem[\protect\BCAY{Zhang,Yu,Xiong,\BBA\Liu}{Zhanget~al.}{2003b}]{ictclas}Zhang,H.,Yu,H.,Xiong,D.,\BBA\Liu,Q.\BBOP2003b\BBCP.\newblock\BBOQHHMM-basedChieseLexicalAnalyzerICTCLAS\BBCQ\\newblockIn{\BemProceedingsoftheSecondSIGHANWorkshoponChineseLanguageProcessing},\mbox{\BPGS\184--187}.\bibitem[\protect\BCAY{王向莉\JBA宮崎正弘}{王向莉\JBA宮崎正弘}{2003}]{masterpaper}王向莉\JBA宮崎正弘\BBOP2003\BBCP.\newblock\JBOQ話者の認識構造を抽出する中国語文パーザ\JBCQ\\newblock\Jem{電子情報通信学会信越支部大会I1},\mbox{\BPGS\181--182}.\bibitem[\protect\BCAY{黄昌寧}{黄昌寧}{2002}]{huang}黄昌寧\BBOP2002\BBCP.\newblock\JBOQ中文信息処理的主流技術是什麼\JBCQ\\newblock計算機世界報,24.\bibitem[\protect\BCAY{朱徳煕}{朱徳煕}{1982}]{zhu1}朱徳煕\BBOP1982\BBCP.\newblock\Jem{語法講義}.\newblock商務印書館.\bibitem[\protect\BCAY{周強}{周強}{1995}]{zhou2}周強\BBOP1995\BBCP.\newblock\JBOQ規則和統計相結合的漢語詞類標注方法\JBCQ\\newblock\Jem{中文信息学報},{\Bbf9}(2),\mbox{\BPGS\1--10}.\bibitem[\protect\BCAY{川辺諭\JBA宮崎正弘}{川辺諭\JBA宮崎正弘}{2005}]{schart}川辺諭\JBA宮崎正弘\BBOP2005\BBCP.\newblock\JBOQ構造を含む生成規則を扱える拡張型チャートパーザ\JBCQ\\newblock\Jem{言語処理学会第11回年次発表論文集},\mbox{\BPGS\911--914}.\bibitem[\protect\BCAY{中国科学院パーザICTPROP}{中国科学院パーザICTPROP}{}]{ictprop2}中国科学院パーザICTPROP.\newblockhttp://mtgroup.ict.ac.cn/ictparser/parser\_1.php.\bibitem[\protect\BCAY{張玉潔\JBA山本和英}{張玉潔\JBA山本和英}{2005}]{zhang}張玉潔\JBA山本和英\BBOP2005\BBCP.\newblock\JBOQ中国語のコンピュータ処理について\JBCQ\\newblock漢字文献情報処理研究,6.\newblockpp.~102--109.\bibitem[\protect\BCAY{範暁}{範暁}{1998}]{fanxiao}範暁\BBOP1998\BBCP.\newblock\Jem{漢語的句子類型}.\newblock書海出版社.\bibitem[\protect\BCAY{楊頤明\JBA堂下修司\JBA西田豊明}{楊頤明\Jetal}{1984}]{yang}楊頤明\JBA堂下修司\JBA西田豊明\BBOP1984\BBCP.\newblock\JBOQ中国語解析システムにおけるヒューリスティックな知識の利用\JBCQ\\newblock\Jem{情報処理論文誌},{\Bbf25}(6),\mbox{\BPGS\1044--1054}.\bibitem[\protect\BCAY{劉\JBA潘\JBA故}{劉\Jetal}{1996}]{zonglan}劉\JBA潘\JBA故\BBOP1996\BBCP.\newblock\Jem{現代中国語文法総覧}.\newblockくろしお出版.\bibitem[\protect\BCAY{劉群}{劉群}{2002}]{liuqun}劉群\BBOP2002\BBCP.\newblock\JBOQ漢語詞法分析和句法分析技術綜述\JBCQ\\newblock第一届学生計算語言学研討会(SWCL2002)専題講座.\bibitem[\protect\BCAY{兪\JBA朱\JBA王\JBA張}{兪\Jetal}{1997}]{yu}兪\JBA朱\JBA王\JBA張\BBOP1997\BBCP.\newblock\Jem{現代漢語信息辞典}.\newblock清華大学出版社.\end{thebibliography}\begin{biography}\bioauthor{王向莉}{1992年中国内蒙古工業大学機械工程学部卒業.2002年新潟大学経済学部卒業.同年新潟大学大学院自然科学研究科博士前期課程入学.2004年新潟大学大学院自然科学研究科博士後期課程入学.現在に至る.中国語構文解析・意味解析などの自然言語処理の研究に従事.自然言語の意味処理・機械翻訳に興味を持つ.}\bioauthor{宮崎正弘}{1969年東京工業大学工学部電気工学科卒業.同年日本電信電話公社に入社.以来,電気通信研究所においてコンピュータシステムの性能評価法,日本文音声出力システムや機械翻訳などの研究に従事.1989年より新潟大学工学部情報工学科教授.自然言語処理とその応用システムの研究に従事.2006年5月,宮崎研究室の研究成果を活用して自然言語処理応用システムの製品開発を行う大学発ベンチャー企業「(株)ラングテック」を設立,代表取締役社長を兼務.工学博士.1995年日本科学技術情報センター賞(学術賞)受賞.2002年電気通信普及財団賞(テレコム・システム技術賞)受賞.電子情報通信学会,情報処理学会,人工知能学会,言語処理学会,各会員.}\end{biography}\biodate\end{document}
V07N04-12
\section{はじめに} 手話言語は,主に手指動作表現により単語を表出するため,手指動作特徴の類似性が意味の類似性を反映している場合がある.例えば,図\ref{amandpm}に示した「午前」と「午後」という日本語ラベルに対応する二つの手話単語の手話表現を比較すると,手の動きが逆方向,すなわち,線対称な関係にあることが分かる.ここで,手話単語の手指動作特徴を手の形,手の位置,手の動きとした場合\cite{Stokoe1976},この単語対は,手の動きに関する手指動作特徴だけが異なる手話の単語対である.また,意味的には対義を構成し,動作特徴の類似性が意味の類似性を反映している単語対と捉えることができる.なお,手指動作特徴の一つだけが異なる単語対を特に,{\gt手話単語の最小対}と呼ぶ\cite{Deuchar1984}.明らかに,図\ref{amandpm}に示した単語対は,手の動きを対立観点とする手話単語の最小対を構成している.\begin{figure}[htbp]\begin{center}\begin{epsf}\epsfile{file=gozen.ps,scale=0.4}\end{epsf}\begin{draft}\atari(102.38094,79.09428,1pt)\end{draft}\begin{epsf}\epsfile{file=gogo.ps,scale=0.4}\end{epsf}\begin{draft}\atari(102.38094,79.09428,1pt)\end{draft}\end{center}\caption{手の動きを対立観点とする手話単語の最小対(午前,午後)}\label{amandpm}\end{figure}このように,類似した動作特徴を含む手話の単語対の抽出と収集は,言語学分野における,手話単語の構造と造語法を解明する手がかりとして,重要であるばかりでなく,手話言語を対象とする計算機処理にも有益な知識データの一つとなる.例えば,計算機による手話単語の認識処理においては,認識誤りを生ずる可能性が高い単語対の一つと捉えることができる.一般に,人間の認識過程においても非常に類似している(差異が小さい)二つのオブジェクトを認識する際に,何の情報トリガも無ければ,同一のオブジェクトとして認識してしまう傾向がある.しかし,「このペアは似ているけど違うよ」というような情報トリガが与えられると,認識をより精密に行おうと(差異を検出)する傾向が見られる.一方,手話表現の生成処理においては,ある手話単語の手指動作特徴パラメータの一部を変更することで,別の手話表現を生成できることを意味する.また,日本語と手話単語との対訳電子化辞書システムを核とする学習支援システムの検索処理においては,類似の動作特徴を含む他の手話単語と関連付けて検索できるなど,学習効果の向上に貢献できるものと考える.本論文では,類似した手指動作特徴を含む手話言語の単語対(以後,本論文では,{\gt類似手話単語対}と略記する.)を与えられた単語集合から抽出する方法を提案し,その有効性を検証するために行った実験結果について述べる.本手法の特徴は,市販の手話辞典に記述されている手指動作記述文を手指動作の特徴構造を自然言語文に写像した手指動作パターンの特徴系列と捉え,手指動作記述文間の類似度計算に基づき,類似手話単語対を抽出する点にある.なお,関連する研究として,音声言語\footnote{本論文では,手話言語と対比させる意味で書記言語としての特徴を持つ日本語や英語などを総称して,音声言語と呼ぶことにする.}を対象とした同様なアプローチとして,市販の国語辞典や英語辞書に記述されている語義文(あるいは定義文)の情報を利用した単語間の意味関係や階層関係を抽出する研究\cite[など]{Nakamura1987,Tomiura1991,Tsurumaru1992,Niwa1993}が報告されている.以下,2章では,本研究の対象言語データである手指動作記述文の特徴と,その特徴から導出される特徴ベクトル表現について,3章では,手指動作記述文間の類似性に基づく手話単語間の類似度の計算方法について,4章では,本提案手法の有効性を検証するために行った実験結果を示し,5章で考察を行う. \section{手指動作記述文の特徴とベクトル表現} 本研究で使用する手話辞典\cite{MaruyamaKoji1984}は,図\ref{amandpm}に示したように,手話単語見出しに対して,その手指動作手続きをイラストで表現する部分と,自然言語文で表現する手指動作記述文の部分で構成されている.前章で説明したように,図\ref{amandpm}の手話イラストの比較から,手話単語対(午前,午後)は,手の形,手の位置に関する手指動作特徴が共通で,手の動き(右に倒すか左に倒すか\footnote{辞書に記述されている手指記述文では,手話を行う動作主体から見た場合の方向で記述されている.})に関する手指動作特徴だけが異なる手話単語の最小対を構成していることが分かる.ここで,手話辞典に記述されている手指動作記述文を以下に示す.\begin{itemize}\item{\gt午前}右手の人差指と中指を立てて額の中央にあて、\underline{右に倒す}\item{\gt午後}右手の人差指と中指を立てて額の中央にあて、\underline{そのまま左に倒す}\end{itemize}明らかに,手指動作記述文の比較からも同様に,手の動きを示す部分だけが異なることが容易に理解できる.このように,手指動作記述文は,手話単語の動画像の特徴構造を,構造を持つ1次元の記号系列(日本語文)に写像した特徴系列と捉えることができる.すなわち,手話単語の手指動作表現を生成するための手続きを記述したプログラム(手続き)文と捉えることができる.また,手指動作記述文は一般の自然言語文と比べて,使用される語彙(単語集合)は,手や顔の部位を表す名詞や手指の動きを表現する動詞が制限され,動作の手続き文としての特徴から,文中での単語の配列(文形式)に制約がある.これらの特徴から,手指動作記述文は言語の使用環境が,一般の自然言語文に比べて,語彙的にも構文的にも強い制約を受けた文集合と捉えることができる.\subsection{手指動作記述文のベクトル表現}日本語文の形態素解析規則は,原則として,正規文法で記述できることが知られている\cite{MaruyamaHiroshi1994}.さらに,前節で議論した特徴から,手指動作記述文は構文的にも語彙的にも非常に限定された文集合である.一般に,ある範囲の限定された文集合を認識する有限オートマトンは比較的簡単に構成することができる\cite{Nagao1983}.議論を明確にするため,以下に示す例では,与えられた三つの手指動作記述文の文集合を認識する有限オートマトンの状態遷移図を示し,そこから導出される正規表現の文字列に基づく$n$次元の特徴ベクトル表現について述べる.\begin{description}\item[例]手話単語$A,B,C$に対する手指動作記述文を,$A=右手の親指を上げる$,$B=左手の小指を下げる$,$C=両手の小指を曲げる$とする.図\ref{FSTD}は,この三つの手指動作記述文を受理する有限状態遷移図を示す\footnote{文生成の観点からは非文を生成する可能性があるが,認識の観点ではこのままで十分である.}.\end{description}\begin{figure}[htbp]\begin{center}\unitlength=1mm\begin{picture}(65,11)\put(5,11){\vector(2,-1){10}}\put(18,5){\circle{3}}\put(21,5){\vector(1,0){10}}\put(21,6){左手の}\put(25,7){\oval(15,10)[t]}\put(21,13){右手の}\put(33,5){\circle{3}}\put(25,3){\oval(15,10)[b]}\put(21,-1){両手の}\put(36,5){\vector(1,0){10}}\put(36,6){小指を}\put(48,5){\circle{3}}\put(40,3){\oval(15,10)[b]}\put(36,-1){親指を}\put(51,5){\vector(1,0){10}}\put(51,6){下げる}\put(55,7){\oval(15,10)[t]}\put(51,13){上げる}\put(55,3){\oval(15,10)[b]}\put(51,-1){曲げる}\put(63,5){\circle{3}}\put(63,5){\circle{2}}\end{picture}\end{center}\caption{有限状態遷移図}\label{FSTD}\end{figure}次に,図\ref{FSTD}に示した有限状態遷移図から導出される文節単位の正規表現と文字連接に基づく正規表現を以下に示す.\begin{itemize}\item{\gt文節単位の正規表現}$(右手|左手|両手)の+(親指|小指)を+(上げる|下げる|曲げる)$\item{\gt文字連接に基づく正規表現}$(右|左|両)+手+の+(親|小)+指+を+(上|下|曲)+げ+る$\end{itemize}ここで,文字の連接関係を保持した形で,正規表現の各文字を手話単語(すなわち,手指動作記述文)の特徴観点と定義し,この特徴観点の有無を2値\{0,1\}で表現すると,表\ref{vector}に示したように,手話単語$A,B,C$は,上記の手続きにより,手指動作記述文から導出される14次元の特徴ビット・ベクトルで表現することができる.このように,与えられた手指動作記述文の有限集合を受理する有限オートマトンを構成し,正規表現による文字系列の各文字を特徴観点とする$n$次元の特徴ビット・ベクトルで手話単語を表現することができる.\begin{table}[htbp]\tabcolsep=3pt\footnotesize\caption{手指動作記述文の特徴ビット・ベクトル}\label{vector}\begin{center}\begin{tabular}{l|llllllllllllll}\hline&右&左&両&手&の&親&小&指&を&上&下&曲&げ&る\\\hline\hlineA&1&0&0&1&1&1&0&1&1&1&0&0&1&1\\B&0&1&0&1&1&0&1&1&1&0&1&0&1&1\\C&0&0&1&1&1&0&1&1&1&0&0&1&1&1\\\hline\end{tabular}\end{center}\end{table} \section{手話単語間の類似度の考え方} パターン認識においては,一般に,二つのパターン間の関係を計算するために,パターン空間上での距離あるいは類似度を定義する必要がある\cite[など]{Iijima1989,Tanaka1990}.例えば,\cite{MaruyamaHiroshi1989}は,単語の意味関係を計算する方法として,各単語を$n$次元のユークリッド意味空間上の点と見なし,点の座標を計算する代わりに各単語に多くの特徴観点を独立に収集し,大数の法則に基づき$n$次元の特徴ベクトルを与え,二つの単語間の意味の類似度を対応する特徴ベクトル間のなす角として定義している.本研究では,手話単語を手指動作特徴の$n$次元の特徴パターン空間上の点とみなし,$n$次元の特徴ベクトルのなす角を用いて,手話単語間の類似度を近似する.手話単語とそれに対応する手指動作記述文は,原則として1対1対応である.すなわち,{\gt手話単語間の類似度問題は対応する手指動作記述文間の類似度問題}と捉えることができる.また,この手指動作記述文は,前章で示したように,$n$次元の特徴ビットベクトルで表現できる.\subsection{手指動作記述文間の類似度の計算方法}任意に与えられた二つの手話単語$A,B$に対する手指動作記述文の文字系列から導出された,$n$次元の特徴ベクトルを\mbox{\boldmath$A$}$=(a_1,a_2,\cdots,a_n)$,\mbox{\boldmath$B$}$=(b_1,b_2,\cdots,b_n)$とし,二つの手指動作記述文間の類似度を$S(\mbox{\boldmath$A$,$B$})$と表記するとき,類似度を次式で定義する.\begin{equation}\label{eq:one}S(\mbox{\boldmath$A$,$B$})=\cos^2\theta=\frac{(\mbox{\boldmath$A$,$B$})^2}{\|\mbox{\boldmath$A$}\|^2\|\mbox{\boldmath$B$}\|^2}(0\leS(\mbox{\boldmath$A$,$B$})\le1)\end{equation}ここで,$(\mbox{\boldmath$A$,$B$})$は二つのベクトルの内積を表わし,$\|\mbox{\boldmath$A$}\|$は,ベクトル\mbox{\boldmath$A$}のノルムを表わし,次式で計算される.\begin{equation}(\mbox{\boldmath$A$,$B$})=\sum_{k=1}^na_kb_k\end{equation}\begin{equation}\|\mbox{\boldmath$A$}\|^2=\Bigl(\sqrt{(\mbox{\boldmath$A$,$A$})}\Bigl)^2\\=\Bigg(\sqrt{\sum_{k=1}^na_k^2}\Bigg)^2\\=\sum_{k=1}^na_k^2\end{equation}ここで,計算対象となる特徴ベクトルは,表\ref{vector}に示したように,要素成分の値が2値$\{0,1\}$で表現されるビットベクトルであるため,ベクトルのノルムの自乗は,特徴ベクトルの要素成分の値が1である要素の総数で計算できる.すなわち,特徴ベクトルに対応する{\gt手指動作記述文の長さ}\footnote{手指動作記述文の長さとは,文を構成する文字数を意味する.}と等しくなる.同様に,ベクトルの内積の自乗は,二つの特徴ベクトルの各要素成分の値が共に1である要素の総数で計算できる.これは,特徴ベクトルに対応する手指動作記述文間の{\gt最長共有部分列の長さ}と等しくなることを次節で述べる.\subsection{最長共有部分列の長さの計算}一般に,与えられた記号列の部分列とは,与えられた記号列から0個以上の記号を削除することにより得られる任意の記号列のことである.また,二つの文字列の最長共有部分列(longestcommonsubsequence)とは,記号の出現順序(連接関係)を保存した形で,双方に共通の部分列のうち,最長の部分列のことである\cite{Thomas1990}.例えば,二つの記号列を,$X=abcbdab,Y=bdcaba$とすると,$X$と$Y$の最長共有部分列の一つは$bcba$であり,その長さは4となる.一般に,最長共有部分列は一つとは限らず複数存在する可能性がある.実際,$X$と$Y$の最長共有部分列は,他に$bdab$と$bcab$がある.しかし,その長さは一意に決定される.以下では,最長共有部分列の長さを計算する方法について述べる.与えられた一つの系列$X=x_1x_2\cdotsx_l$に対して,$i$番目($i=0,1,\cdots,l$)までの部分列を$X_i=x_1x_2\cdotsx_i$と表記する.例えば,$X=abcde$なら$X_3=abc$であり,$X_0$は空列を意味する.二つの系列を,$A=a_1a_2\cdotsa_m$と$B=b_1b_2\cdotsb_n$とする.また,二つの系列$A$と$B$の最長共有部分列の長さを$LCS(A,B)$で表記すると,動的計画法を利用し,次式で計算される.\begin{equation}LCS(A,B)=LCS(A_m,B_n)\end{equation}\[LCS(A_i,B_j)=\left\{\begin{array}{@{\,}ll}LCS(A_{i-1},B_{j-1})+1&\mbox{if$a_i=b_j$,}\\\max\{LCS(A_i,B_{j-1}),LCS(A_{i-1},B_j)\}&\mbox{if$a_i\neqb_j$}\end{array}\right.\]ここで,$LCS(A_i,B_j)$は部分列$A_i$と$B_j$の最長共有部分列の長さを表わす.また,$1\lei\lem,1\lej\len$であり,$LCS(A_i,B_0)=LCS(A_0,B_j)=0$とする.なお,\cite{SatoSatoshi1992}は,複数存在する最長共有部分列を絞り込むため,この最長共有部分列の長さを求める計算式に,文字連接の制約を考慮した関数を新たに導入し,類似例文の最適照合計算に利用している.\subsection{文字列照合に基づく類似度の計算}これまでの議論をまとめると,手話単語間の類似度は,対応する手指動作記述文間の類似度とみなし,二つの手話単語$A,B$に対する手指動作記述文の文字列を$A=a_1a_2\cdotsa_m,B=b_1b_2\cdotsb_n$とすると,(\ref{eq:one})で定義した特徴ベクトルに基づく手指動作記述文間の類似度$S(\mbox{\boldmath$A$,$B$})$は、次式で表現できる.\begin{equation}\label{sim}S(\mbox{\boldmath$A$,$B$})=\frac{LCS(A,B)^2}{mn}\end{equation}これにより,有限オートマトンを求め,$n$次元の特徴ベクトルによるベクトル計算をする代わりに,与えられた二つの手指動作記述文間の文字列照合により類似度が計算できることが導ける. \section{実験と考察} \subsection{実験方法と結果}実験には,手話辞典\cite{MaruyamaKoji1984}に記述されている手指動作記述文の中から,二つの文字列(「両手」,「掌」)を両方含み,かつ複合語\footnote{例えば,手話単語見出し【青森】は【青い】と【森】で複合語を構成し,それぞれの手指動作記述文が記述されている.}を構成していない手話単語とその手指動作記述文(142文)を選定し,計算機に人手で入力したものを用いた\footnote{手指動作記述文中の句読点は,挿入位置のゆらぎが文字列照合に影響を与えるため,入力の段階で削除した.}.なお,上記の選定条件に適合するが,一つの手指動作記述文中に括弧書きで説明あるいは、別の手話表現が併記されている17文(手話単語)は実験対象外とした.実験方法は,手指動作記述文間の類似度を式(\ref{sim})に基づいて求め,類似度が0.6以上の手話単語対を抽出した.なお,本論文で定義した類似度の計算式(\ref{sim})は反射律($S(A,A)=1$)と対称律($S(A,B)=S(B,A)$)を満たすため,例えば,S(休む,閉める)とS(閉める,休む)は,片方のみを計算した.評価方法としては,抽出された手話単語対を正解/不正解というような二義的に判定することは適切でないと考え,共通の手指動作特徴は何か,また異なる手指動作特徴は何かを明らかにし,手話単語の電子化辞書システムを構築する上で有用な情報が得られたか否かで評価を行う.実験の結果,表\ref{kekka.1}に示すように類似度が0.6以上の手話単語対として,36組の単語対が抽出された.ここで,表中の単語見出しの添字は,同一の単語見出しに別の手話表現すなわち,異なる手指動作記述文が手話辞典\cite{MaruyamaKoji1984}に登録されていることを意味する.\begin{table}[htbp]\caption{類似度0.6以上で抽出された手話単語対}\label{kekka.1}\begin{center}\tabcolsep=3pt\footnotesize\begin{tabular}{c|l|l||c|l|l}\hline類似度&手話単語(1)&手話単語(2)&類似度&手話単語(1)&手話単語(2)\\\hline\hline1.00&働く&仕事&0.64&陳列&豊か\\1.00&鮮やか&濃い&0.64&忙しいA&状態\\0.96&嬉しい&楽しい&0.63&終るA&廃れる\\0.93&明るい&晴れ&0.61&守るA&気を付ける\\0.87&バランスB&比べる&0.61&いよいよ&対応\\0.83&動揺&迷う&0.60&贈る&届ける\\0.74&休む&閉める&0.60&勉強&比べる\\0.74&すべて&だいたい&0.60&届く&届ける\\0.72&楽しい&喜ぶ&0.60&慌てる&育てる\\0.70&会舘&センター&0.60&比べる&状態\\0.69&今&重い&0.60&忙しいA&比べる\\0.69&終るA&〜でしたA&0.60&林&バランスB\\0.68&一途&専念&0.60&与える&発行\\0.67&林&比べる&0.60&陳列&森\\0.67&嬉しい&喜ぶ&0.60&間A&贈る\\0.67&遠慮&届く&0.60&頂く&届く\\0.66&重い&暇&0.60&慌てる&豊か\\0.65&戸&閉める&0.60&多いA&陳列\\\hline\end{tabular}\end{center}\end{table}次に,抽出された各単語対の手指動作特徴の類似性を評価するため,対応する二つの手指動作記述文間の共有部分列と差異部分列を分析し,手指動作特徴の共通属性と差異属性は何かを明らかにする.分析の結果,表\ref{kekka.2}に示す14組の単語対は,{\bf同一の手話表現}であることが分かった.なお,同一の手話表現でありながら,類似度の値にばらつきが生じた原因については\ref{kousatu}章で議論する.\begin{table}[htbp]\caption{同一の手話表現である手話単語対}\label{kekka.2}\begin{center}\tabcolsep=3pt\footnotesize\begin{tabular}{c|l|l||c|l|l}\hline類似度&手話単語(1)&手話単語(2)&類似度&手話単語(1)&手話単語(2)\\\hline\hline1.00&働く&仕事&0.70&会舘&センター\\1.00&鮮やか&濃い&0.69&終るA&〜でしたA\\0.96&嬉しい&楽しい&0.68&一途&専念\\0.93&明るい&晴れ&0.67&嬉しい&喜ぶ\\0.91&バランスB&比べる&0.65&戸&閉める\\0.83&動揺&迷う&0.63&終るA&廃れる\\0.72&楽しい&喜ぶ&0.61&守るA&気を付ける\\\hline\end{tabular}\end{center}\end{table}また,表\ref{kekka.31}に示す7組の単語対は,{\bf掌の向き}を対立観点とする手話単語の最小対である.同様に,表\ref{kekka.32}に示す6組の単語対は,{\gt手の動き}を対立観点とする最小対である.なお,単語対(間A,贈る)は「間A」の手指動作記述文が「贈る」の手指動作記述文に含まれる関係を示している.すなわち,「間A」の手話表現が「贈る」の手話表現の初期状態と捉えることができる.\begin{table}[htbp]\caption{掌の向きを対立観点とする手話単語対}\label{kekka.31}\begin{center}\tabcolsep=3pt\footnotesize\begin{tabular}{l|l||l|l}\hline手話単語(1)&手話単語(2)&手話単語(1)の特徴&手話単語(2)の特徴\\\hline\hline休む&閉める&下に向ける&前方に向ける\\林&比べる&左右に向かい合わせる&上に向ける\\遠慮&届く&左右に向かい合わせる&上下に向かい合わせる\\贈る&届ける&左右に向かい合わせる&上下に向かい合わせる\\慌てる&育てる&(上に向ける)&左右に向かい合わせる\\林&バランスB&左右に向かい合わせる&上に向ける\\頂く&届く&上に向ける&上下に向かい合わせる\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{手の動きを対立観点とする手話単語対}\label{kekka.32}\begin{center}\tabcolsep=3pt\footnotesize\begin{tabular}{l|l||l|l}\hline手話単語(1)&手話単語(2)&手話単語(1)の特徴&手話単語(2)の特徴\\\hline\hlineすべて&だいたい&両手を接触させる&両手を接触させない\\重い&暇&動作の移動量が多い&動作の移動量が少ない\\いよいよ&対応&片手を近付ける&両手を近付ける\\届く&届ける&手前に動かす&前方に動かす\\与える&発行&前方に弧を描く&左右に広げる\\間A&贈る&\multicolumn{2}{c}{包含関係}\\\hline\end{tabular}\end{center}\end{table}表\ref{kekka.33}に示す2組の単語対は,{\gt手の位置}を対立観点とする最小対である.さらに,表\ref{kekka.34}に示した単語対は,{\bf指先の向き}を対立観点とする最小対である.ここで,今回の実験に使用した手指動作記述文では,指先の向きに関する情報の記述は明示されておらず,手指動作記述文間の比較だけではこの関係は抽出できない.\begin{table}[htbp]\caption{手の位置を対立観点とする手話単語対}\label{kekka.33}\begin{center}\tabcolsep=3pt\footnotesize\begin{tabular}{l|l||l|l}\hline手話単語(1)&手話単語(2)&手話単語(1)の特徴&手話単語(2)の特徴\\\hline\hline陳列&豊か&腹の前&胸の前\\多いA&陳列&胸の前&腹の前\\\hline\end{tabular}\end{center}\end{table}\begin{table}[htbp]\caption{指先の向きを対立観点とする手話単語対}\label{kekka.34}\begin{center}\tabcolsep=3pt\footnotesize\begin{tabular}{l|l||l|l}\hline手話単語(1)&手話単語(2)&手話単語(1)の特徴&手話単語(2)の特徴\\\hline\hline忙しいA&比べる&中央に向ける&前方に向ける\\\hline\end{tabular}\end{center}\end{table}このように,今回の実験に用いた手話辞典\cite{MaruyamaKoji1984}では,イラストと手指動作記述文が相互に情報を補完している.すなわち,指先の向きに関する情報はイラスト情報で提示されているため,本実験の類似度の計算には直接,反映されていないことが明らかとなった.また,実験対象の手指動作記述文を抽出する際に指定した「両手」と「掌」を両方とも含む手話単語は,結果として,手の形に関しては「五指を広げた形」の手指動作特徴を共通の属性とする単語群の一つであり,手の形を対立観点とする単語対は抽出されないことが分かった.なお,指先の向きに関しては,例えば,「掌を上に」の場合と「掌を前方に」の場合とでは,指先の向きはそれぞれ,前方と上方を指しているという違いはあるが,掌の向きと連動して変化することに着目すると,指先の向きに関する動作特徴は掌の向きに関する動作特徴に吸収されているとみなして分析を行った.残りの6組の単語対については,表\ref{kekka.35}に示すように,基本となる動作を交互(点対称)に行うか同時(線対称)に行うか,掌の向き,手の位置,指先の向きなど複数の特徴観点の違いが見られる.ここで,二つの単語対(勉強,比べる)と(慌てる,豊か)は,手指動作記述文間の文字列の比較を基準とする本提案手法の問題点を示している.これについては,\ref{kousatu}章で議論する.\begin{table}[htbp]\caption{複数の特徴観点で異なる手話単語対}\label{kekka.35}\begin{center}\tabcolsep=3pt\footnotesize\begin{tabular}{l|l|l|l|l}\hline手話単語&手の位置&掌の向き&手の動き&指先の向き\\\hline\hline今&---&下に向ける&二度程下におろす&---\\重い&---&上に向ける&下におろす&---\\\hline勉強&---&顔に向ける&同時に上下させる&---\\比べる&---&上に向ける&交互に上下させる&---\\\hline陳列&---&上に向ける&同時に上下させながら左右に広げる&---\\森&---&手前に向ける&交互に上下させながら左右に広げる&---\\\hline忙しいA&胸の前&上に向ける&---&中央に向ける\\状態&顔の前&前に向ける&---&上に向ける\\\hline比べる&胸の前&上に向ける&---&---\\状態&顔の前&前に向ける&---&---\\\hline慌てる&腹の前&---&交互に上下させながら上にあげる&中央に向ける\\豊か&胸の前&---&同時に上下させながら左右に広げる&前方に向ける\\\hline\end{tabular}\end{center}\end{table}次に,これらの分析結果を基に,抽出された手話単語対が手話単語の電子化辞書の構築(計算機処理)に有用な情報が抽出できたか否かについて,利用方法の例を示しながら評価を行う.\begin{itemize}\item同一の手話表現である単語対市販の手話辞書を基に,機械可読形式に変換する場合,同一の手話表現を持つ単語見出しを抽出することは,対応する手話画像データとのリンクを効率的に関係付ける上で重要であり,手話表現から対応する日本語の単語見出しを検索する機能を実現する上でも重要な知識源の一つと捉えることができる.また,手話を日本語に変換する手話通訳システムにおける訳語選択において,有効利用できると考える.例えば,「明るい」と「晴れ」,「迷う」と「動揺」などは文脈に応じて適切な日本語単語見出しを選択する必要がある.このように,従来の手話電子化辞書の多くが,ある一つの日本語単語見出しに対して,複数の手話表現が対応する訳し分け\footnote{例えば,「あがる」に対して,雨があがる,成績があがる,階段をあがるなど.}に重点をおき構成されていたものを,ある手話表現に対して,複数の日本語単語見出しが対応する点を考慮して,再構成する必要性を示唆するものと考える.\item最小対手話単語の最小対は,手話単語の造語法の解明に重要な知識データの一つとなる.一方,掌の向き,手の位置,手の動き,指先の向きを対立観点としているため,手話表現をアニメーションで表現する際に,両者の差異となる手指動作特徴項目のみを変更することで,生成できる可能性がある.例えば,複数の画像フレームを連続的に表示して,動画アニメーションを生成する場合に、表示する配列順序を逆転させることで「届く」と「届ける」の両方を同一の画像フレーム集合で生成できる.また,学習支援システムとしての電子化辞書の場合には,ある手話単語を検索した場合に,手指動作特徴の一部だけが異なる他の手話単語を提示し,両者間の差異を認識させることで,学習効果が向上できると考える.\end{itemize}このように,今回の実験で抽出された単語対を分析した結果,抽出された36組の単語対の中で30組は,非常に類似した手指動作特徴を含む単語対である.また,手話単語の計算機処理に有用な単語対と捉えることができ,本提案手法の有効性を示す結果が得られたと考える.しかし,分析の結果,幾つかの問題点も明らかになった.これらの問題点と今後の課題について,次章で詳細に議論する. \section{考察} label{kousatu}まず最初に,同一の手話表現でありながら,類似度の値にばらつきが生じた原因について,以下に手指動作記述文間の差異を明示しながら分析を行う.例として,類似度が0.6の(守るA,気を付ける)の手話単語対の手指動作記述文間の差分を以下に示す.ここで,文中の記号``【''と``】''でくくられた部分が相違部分文字列を示す.\begin{center}\begin{tabular}{ll}守るA&掌を手前に向けた両手を【胸の前に上下にして】おき手前\\&に引き寄せ【ると同時に拳をさっと】重ねて胸にあてる\\気を付ける&掌を手前に向けた両手を【上下にして胸の前に】おき手前\\&に引き寄せ【ながらさっと拳を】重ねて胸にあてる\\\end{tabular}\end{center}\bigskip明らかに,二つの手指動作記述文は同一の手指動作を表現している.しかしながら,文字列【胸の前に】と【上下にして】が双方の手指動作記述文間で逆転している.このような関係は,文字の出現順序を考慮しながら照合を行う,最長共有部分文字列検索を基本とする類似度の計算方法では,類似度の値が低下する要因として働く.この場合には、文字数の多い【上下にして】が共有部分列として計算される.同様に,【さっと】は副詞であり,その挿入位置は日本語文中では比較的自由度が大きく,【さっと拳を】も【拳をさっと】も日本語文としては正しい.次に,類似度が低下する他の要因について分析する.表\ref{kekka.2}に示した中で,(明るい,晴れ),(動揺,迷う)の手話単語対は片方の手指動作記述文が両者の最長共有部分文字列に相当し,それぞれ,【同時】,【揺らすように】が付加されている違いがある.従って,類似度計算では,この差分の文字数により類似度の値が変動している.このように,同一の動作表現を別の表現方法を用いて記述されている等の要因が複合化され,結果として,同一の手話表現であるにもかかわらず、類似度が低下する要因として働いている.上記の問題を解決する方法の一つとして,与えられた手指動作記述文を認識の観点ではなく,生成の観点から有限オートマトンを再構成するなどの正規化手法を検討することが考えられる.この正規化手法については今後の課題である.次に,表\ref{kekka.35}中の単語対(勉強,比べる)と(慌てる,豊か)は,文字列の照合法に基づく本手法の限界を示している.例えば,(勉強,比べる)における,手の動きに関する記述文間の差異は,上下の動作を同時に行うか交互に行うかの違いがある.また,掌の向きの差異は,顔に向けるか上に向けるかの違いと判断できる.しかし,「顔に向ける」の意味するところは,本を読むしぐさを表現しており,手話表現では斜めに両手を構えて,斜めに上下する動作を表現している.また,(慌てる,豊か)は,複合動作を表現しているため,「慌てる」が上方に両手を上げてゆく動作に対して,「豊か」が左右に広げてゆく動作である.しかし,これらの動作表現を示す文形式の共有部分が動作の差異を表現する部分より極端に大きいため,本論文の類似度の計算では,高い類似度となる.このように,手指動作記述文間の比較だけから手話単語対の詳細な分析は困難であるが,本論文で提案した手法を用い,与えられた単語集合の膨大な組合せの中から,分析対象となる類似の手話単語対の候補を適切な閾値を設定することで容易に抽出し,収集することができると考える. \section{むすび} 本論文では,与えられた手話単語集合から類似の動作特徴を含む手話単語対を抽出する方法として,市販の手話辞典に記述されている手指動作記述文間の類似性に着目した手法を提案した.本手法の特徴は,手話単語間の動作特徴の類似関係を対応する手指動作記述文間の類似関係と捉え,手話単語間の類似度を手指動作記述文間の類似度で計算する点にある.類似度が0.6以上の手話単語対を抽出する実験の結果,手話単語の認識や生成,検索処理に有用な手話単語の最小対や類似の動作特徴を含む手話単語対を抽出できることを確認した.今後の課題として,与えられた手指動作記述文を正規化する手法の検討と手指動作特徴の類似性に基づく手話単語の体系化を試みる予定である.\acknowledgment本研究を進めるにあたり有益なご示唆,ご討論を頂いた宇都宮大学鎌田一雄教授,熊谷毅助教授に感謝する.また,データ整理,実験等にご協力頂いた研究室の学生諸氏に感謝する.なお,本研究の一部は文部省科研費,厚生省科研費,実吉奨学会,電気通信普及財団,放送文化基金,トヨタ自動車,栢森情報科学振興財団,大川情報通信基金の援助によった.\bibliographystyle{jnlpbbl}\bibliography{adachi}\begin{biography}\biotitle{略歴}\bioauthor{安達久博}{1981年宇都宮大学工学部情報工学科卒業.1983年同大学院工学研究科修士課程修了.同年,東京芝浦電気(現.東芝)入社.同社総合研究所情報システム研究所研究員を経て,1992年宇都宮大学工学部助手.現在に至る.この間,科学技術庁の機械翻訳プロジェクトに従事のため京都大学(1983.10--1984.10)に滞在.通産省主導による自然言語処理用大規模電子化辞書プロジェクトに従事のため日本電子化辞書研究所(1985.5--1989.5)に出向(第五研究室室長代理).現在,聴覚障害者の情報獲得を支援する手話通訳システムに関する研究に従事.言語処理学会,情報処理学会,電子情報通信学会,人工知能学会,日本認知科学会,計量国語学会,各会員.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\newpage\\end{document}
V10N05-08
\section{はじめに} 大量の文書情報の中から必要な部分を抽出するために,自動要約技術などによって文書の量を制御し,短い時間で適確に内容を把握する必要性が高くなってきている.自動要約には,文書中の文を単位とし,なんらかの情報をもとに重要語を定義して各文の重要度を計算する方法がある.たとえば,文書中の出現頻度が高い単語は重要語になる可能性が高いという仮定のもとに,単語の重要度を計算する方法({\ittfidf}法)\cite{salton1989},自立語の個数を考慮して単語の重要度を計算する方法\cite{robertson1997},語彙的連鎖を用い重要度を計算する方法\cite{mochizuki2000}がある.新聞など文書の構造上の特徴から重要文を抽出する方法や,主張,結論,評価などの特別な語を含む文を重要文とする方法など,文書の重要な記述部分を示す語を含む文や,その文に含まれる単語の重要度を他の単語より上げる方法がある\cite{watanabe1996}.その他にも,接続詞,照応関係などから文間・単語間のつながりを解析し要約する方法,文書を意味ネットワーク化して,その上でコネクショニスト・モデルを用いて,接点の活性値の収束値を重要度として計算する要約方法\cite{Hasida1987,Nagao1998}などがある.要約文の表示には文書中の文単位で重要度を計算し,文書中での出現順にあわせて重要な文を提示していくという方法をとるものや,重要な語句・文・パラグラフなどの単位で抽出・表示するものが多い.複数の文を接続詞などでつなげてまったく新しい要約文書を生成するものは少ないが,文脈,文の重要部分,または構造を考慮して,重要文をさらに小さい単位で表示するシステムも出てきている\cite{nomura1999}.システムが抽出した要約文を評価する方法には,人間の被験者の要約と{\ittfidf}法などでシステムが抽出した要約とを再現率/適合率によって比較する方法\cite{Zechner1996},様々な手法で抽出された要約文を利用して,ある種のタスクを行ないその達成率で間接的に評価を行なう方法\cite{mochizukiLREC2000},要約は読み手の観点によって変化することに着目して複数の正解に基づいて評価する方法\cite{ishikawa2002}などがある.本論では,連想概念辞書をもとに,単語と単語の連想関係とその距離情報を使って文書中の単語の重要度を計算し,各文ごとの重要度を求め重要文の抽出を行なう.連想概念辞書は,小学校の学習基本語彙の名詞を刺激語とし,「上位概念」「下位概念」「部分・材料概念」「属性概念」「類義概念」「動作概念」「環境概念」の7つの課題に関して,大量の連想語を収集して構造化すると同時に,刺激語と連想語との距離が定量化されている\cite{Okamoto2001}.連想概念辞書の規模は見出し語が約660語,連想語が延べで約16万語である.単語の重要度の計算は,その単語の連想語もしくはその単語を連想する刺激語が文書中にあれば,二つの単語の距離から得られる値を使用して重要度を計算する.たとえば,「ガラパゴスには巨大な\underline{ゾウガメ}がいる.この\underline{カメ}は,島の中を悠然と歩いている.」のように「ゾウガメ」の上位概念である「カメ」を用いて言い換えている場合,「カメ」「ゾウガメ」の重要度を二つの単語間の距離に基づいて計算する.これによって,表層的に文書中の単語の出現頻度をもとにした重要度の計算では別の単語として処理されるが,本手法では上位/下位概念や部分・材料概念,属性概念,動作概念,環境概念などの連想関係も用いているので関連する単語の重要度を精密に計量することができる.次に人間を被験者として重要文を抽出する実験を行なう.被験者の観点によって抽出される重要文が違ってくる場合があるが,40人の被験者で実験を実施し,多くの被験者が上位に抽出している順番を重視して重要度を決定した.本論文では,既存の重要語抽出法と本手法での抽出結果とを,被験者による実験結果との一致度を比較することによって評価した. \section{連想概念辞書の使用} 本論文では,人間を被験者として大規模な連想実験を行ない,実験より得られたデータをもとに構築した連想概念辞書\cite{Okamoto1998,Okamoto1999,Okamoto2001}を使用した.\subsection{連想実験}連想実験は自由連想ではなく,被験者に名詞を刺激語として呈示して,「上位概念」「下位概念」「部分・材料概念」「属性概念」「類義概念」「動作概念」「環境概念」の7つ課題に関して連想させ,任意の個数の連想語をキーボード入力させる.刺激語として小学校の国語の教科書から学習基本語彙の名詞を選択し,さらに学習基本語彙以外の実験に用いる名詞の計約660語を刺激語セットとした.被験者数は1刺激語に対し50人である.刺激語と連想語との概念間の距離$D$は連想実験から得られる連想頻度$F$,連想順位$S$のパラメータによる線形結合で表現し,線形計画法を用いて(1)式のように最適解が求められている\cite{Okamoto2001}.ここではパラメータをもとに境界条件を距離$D$の値が最大で10.0程度,最小で1.0程度になるように定め,シンプレックス法で計算している.\begin{equation}\label{D2}D=0.81\timesF+0.27\timesS,\end{equation}\begin{center}\begin{tabular}{l}$F=\frac{N}{n+\delta}$,\\$\delta=\frac{N}{10}-1~~~~(N\geq10)$,\\$S=\frac{1}{n}\sum^{n}_{i=1}s_{i}$,\\\end{tabular}\end{center}ここで刺激語をA,連想語をBとした時,$F$は連想語Bを連想した被験者の割合,$S$は連想語Bが連想された順位の平均した値,$n$は連想人数(n$\geq$1),$N$は被験者数,$s_{i}$は被験者$i$が連想した語の順位である.(\ref{D2})式では連想頻度$F$の係数が連想順位$S$の係数より大きく,連想人数が概念間の距離に与える影響は大きい.多くの被験者が同一の語を連想している場合は,その連想語は刺激語にとって連想しやすい語であると考えられ,概念間の距離も短くなる.\subsection{連想概念辞書の記述形式}\begin{figure}[htb]\begin{center}\epsfile{file=okamoto_graph2.eps,width=138mm,height=69mm}\caption{刺激語「いす」に関する連想概念辞書の記述例(連想語は一部のみ表示)}\label{isu}\end{center}\end{figure}図\ref{isu}は刺激語「いす」についての連想概念辞書の記述例である.「いす」の上位概念として,まず「家具」が連想されており,続く右側の4つの数字は順に頻度(連想者数を被験者数で割った値),連想順位,正規化された連想時間,「いす」と「家具」の概念間の距離である.「上位概念」の他に「下位概念」「部分・材料概念」「属性概念」「類義概念」「動作概念」「環境概念」「関連語」の課題も同じ形式で記述してある.「関連語」は7つの課題に分類できない連想語がある場合にもうけた課題である.たとえば刺激語「犬」に対しての連想語「猫」などは「関連語」とする.used-inとは刺激語が他の刺激語の連想語となっていた場合,逆引き情報として元の刺激語と課題を記述するものである.概念間の距離は,連想順位$S$の値にもよるが,おおよそ$1$〜$10$の間にある\cite{Okamoto2001}. \section{単語の重要度による重要文抽出} \subsection{単語の出現頻度に基づく主な重要文抽出手法}文書中で出現頻度が高い単語はその文書を特徴づける重要な単語であるという仮定により,単語の出現頻度や出現文書の数をもとに各単語の重要度を計算\cite{salton1989}し,重要文を抽出する方法などがある.また,タイトルも文書の内容に大きく関連しているとし,{\ittfidf}法にタイトルに含まれる単語に重み$\alpha_{i}$を加えて重要度を計算する方法も考えられる.ここでは本論文の抽出手法と比較するために{\ittfidf}法と,タイトルも考慮に入れた${\ittfidf}+\alpha_{i}$を用いて単語の重要度に基づく重要文抽出を行なう.\begin{itemize}\item[{\bf(1)}]{\bf{\ittfidf}法を用いた単語の重要度の計算}\end{itemize}タイトルを考慮しない場合で単語の重要度$P_{ijk}$を以下の式で計算する.\begin{equation}\label{tfidf}P_{ijk}=\sum_{k=1}^{L_{ij}}\sum_{j=1}^{M_{i}}F_{ijk}*log\frac{N}{n_{ijk}}\end{equation}\begin{center}\begin{tabular}{l}$i=1,2,\cdotsN$,\hspace*{1em}$N$は文書の数.\\$j=1,2,\cdotsM_{i}$,\hspace*{1em}$M_{i}$は文書$i$中の文の数.\\$k=1,2,\cdotsL_{ij}$,\hspace*{1em}$L_{ij}$は文書$i$中の文$j$の単語数.\\\end{tabular}\end{center}単語$w_{ijk}$を,文書$i$中の$j$番目の文中の$k$番目の単語として,$P_{ijk}$は単語$w_{ijk}$の重要度,$F_{ijk}$は,ある単語$w_{ijk}$がその文書$i$中に現れる頻度,$n_{ijk}$は単語$w_{ijk}$が一つでも現れる文書の数である.\begin{itemize}\item[{\bf(2)}]{\bfタイトルを考慮に入れ,{\ittfidf}法を用いた単語の重要度の計算}\end{itemize}文書のタイトルを考慮に入れて,{\ittfidf}に重み$\alpha_{i}$を加えて単語の重要度$P_{ijk}$を計算する.重み$\alpha_{i}$は,タイトルに含まれる単語のうち一番高い重要度の数値とした.\begin{equation}\label{tfidf2}P_{ijk}=\left\{\begin{array}{ll}\sum_{k=1}^{L_{ij}}\sum_{j=1}^{M}F_{ijk}*log\frac{N}{n_{ijk}}&タイトルに含まれない単語の場合\\\sum_{k=1}^{L_{ij}}\sum_{j=1}^{M}[F_{ijk}*log\frac{N}{n_{ijk}}+\alpha_{i}]&タイトルに含まれる単語の場合\\\end{array}\right.\end{equation}\begin{center}\begin{tabular}{l}$i=1,2,\cdotsN$,\hspace*{1em}$N$は文書の数.\\$j=1,2,\cdotsM_{i}$,\hspace*{1em}$M_{i}$は文書$i$中の文の数.\\$k=1,2,\cdotsL_{ij}$,\hspace*{1em}$L_{ij}$は文書$i$中の文$j$の単語数.\\\end{tabular}\end{center}$\alpha_{i}$は文書$i$におけるタイトルを考慮する場合の重要度の付加部分である.次に,(\ref{tfidf})または(\ref{tfidf2})式により得られた重要度の総和を次式で計算し,重要度の高い文の抽出を行なう.\begin{equation}T_{ij}=\sum_{k=1}^{L_{ij}}P_{ijk}\end{equation}\begin{center}\begin{tabular}{l}$i=1,2,\cdotsN$,\hspace*{1em}$N$は文書の数.\\$j=1,2,\cdotsM_{i}$,\hspace*{1em}$M_{i}$は文書$i$中の文の数.\\$k=1,2,\cdotsL_{ij}$,\hspace*{1em}$L_{ij}$は文書$i$中の文$j$の単語数.\\\end{tabular}\end{center}$T_{ij}$は,文書$i$における文$j$の重要度,$P_{ijk}$は,単語$w_{ijk}$の重要度,$L_{ij}$は文書$i$中の文$j$の単語数である.\subsection{単語の連想関係とその距離情報を用いた重要文抽出法}本論文では,単語の頻度などによって単語の重要度を計算する手法に加えて連想概念辞書の刺激語と連想語の関係を使用してそれらの間の距離情報を用いて単語の重要度を計算する\cite{Okamoto2002}.具体的には,以下のような方針で単語の重要度を計算し,重要文を抽出する.\begin{enumerate}\item{茶筅\cite{chasen1999}を用いて文書の形態素解析を行ない修正を加え,単語ごとに基本形,品詞などの情報を得る.}\item{文書中の単語が名詞,形容詞,副詞,動詞ならば,その頻度を単語の重要度$w_{ijk}$として計算する.ただし名詞のうち茶筅の出力結果で名詞-代名詞,名詞-接尾,名詞-非自立,名詞-特殊(茶筅の品詞名による)とあるものは除く.}\item{文書中の単語が名詞で,連想概念辞書の刺激語の場合.ただし名詞のうち茶筅の出力結果で上記のものは同様に除く.次に,単語を刺激語として,その連想語が文書中にあれば,刺激語−連想語間の距離の逆数を単語の重要度として加算する.}\item{文書中の単語が名詞,形容詞,副詞,動詞で,連想概念辞書の連想語の場合.ただし名詞のうち茶筅の出力結果で上記のものは同様に除く.次に,単語を連想する刺激語が文書中にあれば,刺激語−連想語間の距離の逆数を単語の重要度として加算する.}\item{タイトルに含まれる単語の場合は重み$\alpha_{i}$を加算する.重み$\alpha_{i}$は,タイトルに含まれる単語のうち一番高い重要度の数値とした.}\begin{equation}P_{ijk}=\left\{\begin{array}{l}\sum_{k=1}^{L_{ij}}\sum_{j=1}^{M_{i}}[F_{ijk}+1/dist(w_{ijk},a_{ijk})+1/dist(s_{ijk},w_{ijk})]\\\hspace*{5cm}\cdotsタイトルに含まれない単語の場合\\\sum_{k=1}^{L_{ij}}\sum_{j=1}^{M_{i}}[F_{ijk}+1/dist(w_{ijk},a_{ijk})+1/dist(s_{ijk},w_{ijk})+\alpha_{i}]\\\hspace*{5cm}\cdotsタイトルに含まれる単語の場合\\\end{array}\right.\end{equation}\begin{center}\begin{tabular}{l}$i=1,2,\cdotsN$,\hspace*{1em}$N$は文書の数.\\$j=1,2,\cdotsM_{i}$,\hspace*{1em}$M_{i}$は文書$i$中の文の数.\\$k=1,2,\cdotsL_{ij}$,\hspace*{1em}$L_{ij}$は文書$i$中の文$j$の単語数.\\\end{tabular}\end{center}ここで,$F_{ijk}$は文書中の単語$w_{ijk}$の頻度,$dist(w_{ijk},a_{ijk})$は単語$w_{ijk}$を刺激語として,その連想語$a_{ijk}$が文書中にある場合の刺激語−連想語間の距離,$dist(s_{ijk},w_{ijk})$は単語$w_{ijk}$を連想する刺激語$s_{ijk}$が文書中にある場合の刺激語−連想語間の距離である.\newpage\item{各文での単語$w_{ijk}$の重要度$P_{ijk}$の合計をその単語を含む文の単語数$L_{ij}$で割ることで,文の重要度$T_{ij}$を計算する.}\end{enumerate}\begin{equation}T_{ij}=\frac{\sum_{i}P_{ijk}}{L_{ij}}\end{equation}\begin{center}\begin{tabular}{l}$i=1,2,\cdotsN$,\hspace*{1em}$N$は文書の数.\\$j=1,2,\cdotsM_{i}$,\hspace*{1em}$M_{i}$は文書$i$中の文の数.\\$k=1,2,\cdotsL_{ij}$,\hspace*{1em}$L_{ij}$は文書$i$中の文$j$の単語数.\\\end{tabular}\end{center}たとえば「ガラパゴスには,巨大な\underline{ゾウガメ}がいる.この\underline{カメ}は,島の中を悠然と歩いている.」のように「ゾウガメ」の上位概念である「カメ」で言い換えている場合,「カメ」「ゾウガメ」に二つの単語間の距離に基づいた値を使用して単語の重要度を計算する.これによって,表層的に文書中の単語の出現頻度をもとにした重要度の計算では別の単語として処理されるが,本手法では連想関係も用いているので関連する単語の重要度を上げることができる.同様に「ゾウガメ」の環境概念である「ガラパゴス」や「ゾウガメ」「カメ」の動作概念である「歩く」などの連想関係も使用して重要度を計算する.連想概念辞書は連想実験を用いて抽出した人間の知識をもとに構築しているので,規模は小さいが人間の直感に近い単語間の連想関係が抽出できていると考えている. \section{本手法の評価} 連想概念辞書は小学校の基本語彙をもとに構築している.そこで重要文抽出の対象として小学校の国語の教科書から自然科学に関する説明文として扱われている8文書を選択した.使用した8文書はタイトルを含み本文は平均17文からなり,最短9文,最長22文の文書である.また,8文書中の約7割の名詞は連想概念辞書に刺激語として含まれている語である.残りの約3割は名詞-代名詞,名詞-接尾,名詞-非自立,名詞-特殊,名詞-固有名詞(茶筅の品詞名による)などである.本章では,単語の連想関係と距離情報を使い重要度を計算する本手法での抽出結果と既存の重要語抽出法とを,被験者による要約の実験結果と比較することによって評価した.\subsection{人間の被験者による重要文抽出実験}\label{human_subject_extraction}重要文抽出の対象とする8文書について,40人の被験者を用いて重要文抽出実験を行なった.被験者には各文書と回答欄を一目で見渡せるようにした回答用紙を配布し,「タイトル」以外の本文のうち,最も重要な文だとする順に5つの文を選択させ,文番号を記述させた.被験者によって抽出される重要文は異なると予想されるが,文書ごとに各被験者が最も重要だとした文に5点,順に2番目には4点とし,5番目に重要だとした文に1点を与え,各文ごとの合計点数が高い順に重要文の順位を決定する.また,ケンドールの一致係数を用いて,各文書において被験間の順位付けの一致度を計算した.ケンドールの一致係数はある対象に対して順位づけがされているときに順位の一致度を表す指標である.値が高いほど順位が一致していることを示す.\begin{table}[htb]\begin{center}\caption{各文書における被験者間の順位づけに対するケンドールの一致係数}\label{kendole}\vspace*{1ex}\begin{tabular}{|r||r|r|r|r|r|r|r|r|}\hline文書番号&D1&D2&D3&D4&D5&D6&D7&D8\\\hline文の数&15&18&22&21&9&9&19&18\\\hline一致係数&0.44&0.45&0.35&0.38&0.57&0.54&0.37&0.48\\\hline有意水準$1$\,$\%$&***&***&***&***&***&***&***&***\\\hline\end{tabular}\end{center}\end{table}表\ref{kendole}は40人の被験者による順位づけに関するのケンドールの一致係数と本文の文の文書ごとに総数を示したものである.被験者が一人も選ばなかった文は省き,1〜5番以外の順位に関しては加重平均し同順位として,一致係数を計算した.D3,D4,D7の3文書は他の5文書より被験者間のケンドールの一致係数が比較的低い.これはD1,D2,D5,D6,D8の5文書の重要文の順位付けより,D3,D4,D7の3文書の順位付けの方が,被験者によって比較的ばらついた傾向にあることを示す.しかし,文書ごとの一致係数に関して$\chi^2$検定を行なうと$1$\,$\%$有意水準ですべての文書で有意な結果が得られ,被験者間の順位付けの一致度は比較的高いことがわかった.\subsection{人間による重要文抽出結果を用いた既存の抽出法と本手法との比較}連想概念辞書の距離情報を用いる本手法と,{\ittfidf},${\ittfidf}+\alpha_{i}$の2つの手法を用いて各文書で上位5番目までに抽出された文について被験者による結果との一致度を(\ref{c})式を用いることによって比較した.\begin{equation}\label{c}C=\sum^{5}_{i=1}[R_{i}(hs,m)-\Deltar_{i}(hs,m)]\end{equation}$R_{i}(hs,m)$は,各々の手法で上位5文に選択された文と被験者が選択した上位5文が一致する程度を表す関数で点数で表現される.被験者による実験で1番目に重要された文を10点,2番目以下順に1点減らしていき,5番目に重要された文を6点とする.$\Deltar_{i}(hs,m)$は被験者が選んだ文の順位と,各手法で選ばれた文の順位との差である.$C$は被験者による実験結果と各々の手法との一致度を点数で表したもので被験者と全く同じ結果の場合40点に,被験者が選択した上位5文と同一の文を抽出しなかった場合は0点となる.たとえば,被験者による文番号の抽出結果が(15,10,2,6,8)に,ある手法による文番号の抽出結果が(15,8,10,14,5)となった時は,(\ref{c})式の計算から表\ref{c-example}のような結果が得られる.\begin{table}[htb]\begin{center}\caption{重要文の抽出結果と被験者による抽出結果に対する一致点数の計算例}\label{c-example}\vspace*{1ex}\begin{tabular}{|r||r|r|r|r|r||r|}\hline順位&1&2&3&4&5&一致点数($C$)\\\hline被験者による結果&\underline{15}&\underline{10}&2&6&\underline{8}&-\\\hline抽出手法による結果&\underline{15}&\underline{8}&\underline{10}&14&5&21\\\hline\end{tabular}\begin{tabular}{l}$C=10+(9-1)+(6-3)=21$となる.\\一致する文数は3となる.\\\end{tabular}\end{center}\end{table}\begin{table}[htb]\begin{center}\caption{文書ごとの被験者による抽出結果に対する一致点数と文の数}\label{result}\vspace*{1ex}\label{c-all}\begin{tabular}{|r|r||r|r|r|r|r|r|r|r||r|}\hline&文書番号&D1&D2&D3&D4&D5&D6&D7&D8&平均\\\hline{\small本手法による結果}&C&{\bf30}&22&{\bf15}&{\bf18}&{\bf32}&27&{\bf21}&{\bf24}&{\bf23.6}\\\cline{2-11}&一致する文数&{\bf4}&3&{\bf2}&{\bf3}&{\bf5}&{\bf4}&{\bf3}&{\bf3}&{\bf3.6}\\\hline{\small${\ittfidf}+\alpha_{i}$による結果}&C&29&{\bf30}&{\bf15}&13&28&{\bf29}&13&17&21.8\\\cline{2-11}&一致する文数&{\bf4}&{\bf4}&{\bf2}&2&4&{\bf4}&2&2&3.0\\\hline{\small{\ittfidf}による結果}&C&29&24&7&13&28&{\bf29}&10&17&20.5\\\cline{2-11}&一致する文数&{\bf4}&3&1&2&4&{\bf4}&2&2&2.8\\\hline\end{tabular}\end{center}\end{table}表\ref{c-all}は各手法ごとに(\ref{c})式で計算した一致点数と,被験者が抽出した上位5文に一致する文の数である.8文書で一致点数($C$)と抽出率を平均すると,タイトルを考慮した${\ittfidf}+\alpha_{i}$法やタイトルを考慮しない{\ittfidf}法よりもよい結果を得た.個々に見るとD2を除いた文書については本手法は他の手法と同等か,もしくはより良い結果が得られた.D2では「自然」「生物」といった抽象度の高い語や固有名詞の出現頻度が高かった.連想概念辞書では固有名詞を刺激語として扱っていないため,固有名詞が本文やタイトルに含まれていても,高い重要度を得られない.D6には「地球」といった自然物の環境概念と被験者による重要文抽出実験においてケンドールの一致係数が比較的低かったD3,D4,D7(第\ref{human_subject_extraction}節)はタイトルを考慮した${\ittfidf}+\alpha_{i}$法やタイトルを考慮しない{\ittfidf}法での被験者の抽出結果に対する一致点数や一致する文の数が他の文書と比べて低かったが,本手法では同等か,もしくはより良い結果が得られている.単語の出現頻度だけで重要度を計算するより,単語の連想関係を考慮に入れて計算する本手法の方が一致点数でも,被験者が抽出した上位5文に一致する文の数でも良い結果を得た.図\ref{document}は,重要文抽出の対象とした文書の例である.文番号1の「動物の赤ちゃん」は文書のタイトルである.この文書に出現する単語は比較的平易で連想しやすい語が多く,また刺激語とその連想語が文書中に含まれる可能性が高い.そこで単語の連想関係と距離情報を用いる本手法の特徴を反映していると考えられる.図\ref{document}の文書での被験者の抽出結果に対する各手法の一致点数と一致する文の数は,表\ref{result}のD7の文書にあたる.図\ref{human}は図\ref{document}の文書において,40人の被験者による重要文抽出実験から得られた上位5文である.また,図\ref{new-method}は本手法での重要文抽出結果,図\ref{tfidf+a}はタイトルを考慮に入れた{\ittfidf}法での重要文抽出結果である.図\ref{human}と図\ref{new-method}から式\ref{c}によって被験者の抽出結果に対する本手法の一致点数と一致する文の数を計算する(表\ref{result}中のD7の「本手法による結果」).同様に,図\ref{human}と図\ref{tfidf+a}からタイトルを考慮に入れた{\ittfidf}法の一致点数と一致する文の数を計算する(表\ref{result}中のD7の「${\ittfidf}+\alpha_{i}$による結果」).タイトルを考慮に入れた{\ittfidf}法では,「お母さん」「赤ちゃん」など文書中に数多く出現する語を含み比較的長い文を重要文とする傾向にある.本手法では,「赤ちゃん」から連想される動作概念である「生まれる」という語の重要度が高くなっていた.\begin{figure}[htb]\begin{small}\begin{tabular}{|r|p{350pt}|}\hline文番号&本文\\\hline1&動物の赤ちゃん。\\2&動物の赤ちゃんは生まれたばかりのときは、どんな様子をしているのでしょう。\\3&そして、どのようにして大きくなっていくのでしょう。\\4&ライオンの赤ちゃんは、生まれたときには、子猫ぐらいの大きさです。\\5&目や、耳は、閉じたままです。\\6&ライオンは動物の王様、といわれます。\\7&けれども、赤ちゃんは、弱々しくて、お母さんにあまり似ていません。\\8&ライオンの赤ちゃんは自分で歩くことができません。\\9&よそへ行くときは、お母さんに、口にくわえて運んでもらうのです。\\10&ライオンの赤ちゃんは、生まれて二ヶ月くらいは、お乳だけ飲んでいますが、やがてお母さんのとった獲物を食べ始めます。\\11&一年くらい経つと、お母さんがするのを見て、獲物のとり方を覚えます。\\12&そして、自分で捕まえて食べるようになります。\\13&シマウマの赤ちゃんは、生まれたときに、もうヤギくらいの大きさがあります。\\14&目は開いていて、耳のピンと立っています。\\15&縞の模様もついていて、お母さんにそっくりです。\\16&シマウマの赤ちゃんは、生まれて、三十分も経たないうちに、自分で立ち上がります。\\17&そして、次の日には走るようになります。\\18&だから、強い動物に襲われても、お母さんと一緒に逃げることができるのです。\\19&シマウマの赤ちゃんが、お母さんのお乳だけ飲んでいるのはたったの七日ぐらいの間です。\\20&その後は、お乳も飲みますが、自分で草も食べるようになります。\\\hline\end{tabular}\end{small}\caption{重要文抽出の対象とした文書の例}\label{document}\end{figure}※文番号1の「動物の赤ちゃん」は本文書のタイトル※参考:38光村124国語小学校国語科用,光村図書出版株式会社,平成8年.\begin{figure}[htb]\begin{small}\begin{tabular}{|r|p{350pt}|}\hline文番号&重要な文の順に表示\\\hline2&動物の赤ちゃんは生まれたばかりのときは、どんな様子をしているのでしょう。\\4&ライオンの赤ちゃんは、生まれたときには、子猫ぐらいの大きさです。\\3&そして、どのようにして大きくなっていくのでしょう。\\13&シマウマの赤ちゃんは、生まれたときに、もうヤギくらいの大きさがあります。\\16&シマウマの赤ちゃんは、生まれて、三十分も経たないうちに、自分で立ち上がります。\\\hline\end{tabular}\end{small}\caption{人間による重要文抽出結果}\label{human}\end{figure}\begin{figure}[htb]\begin{small}\begin{tabular}{|r|p{350pt}|}\hline文番号&重要な文の順に表示\\\hline6&ライオンは動物の王様、といわれます。\\8&ライオンの赤ちゃんは自分で歩くことができません。\\2&動物の赤ちゃんは生まれたばかりのときは、どんな様子をしているのでしょう。\\13&シマウマの赤ちゃんは、生まれたときに、もうヤギくらいの大きさがあります。\\4&ライオンの赤ちゃんは、生まれたときには、子猫ぐらいの大きさです。\\\hline\end{tabular}\end{small}\caption{本手法での重要文抽出結果}\label{new-method}\end{figure}\begin{figure}[htb]\begin{small}\begin{tabular}{|r|p{350pt}|}\hline文番号&重要な文の順に表示\\\hline10&ライオンの赤ちゃんは、生まれて二ヶ月くらいは、お乳だけ飲んでいますが、やがてお母さんのとった獲物を食べ始めます。\\19&シマウマの赤ちゃんが、お母さんのお乳だけ飲んでいるのはたったの七日ぐらいの間です。\\2&動物の赤ちゃんは生まれたばかりのときは、どんな様子をしているのでしょう。\\16&シマウマの赤ちゃんは、生まれて、三十分も経たないうちに、自分で立ち上がります。\\7&けれども、赤ちゃんは、弱々しくて、お母さんにあまり似ていません。\\\hline\end{tabular}\end{small}\caption{タイトルを考慮に入れた{\ittfidf}法での重要文抽出結果}\label{tfidf+a}\end{figure} \section{今後の課題} 文書中で得られた二つの単語の連想関係は「上位概念」「下位概念」「部分・材料概念」「環境概念」が多く,「類義語」「属性概念」「動作概念」「関連語」は少なかった.「属性概念」「動作概念」は文,パラグラフをまたがって様々な刺激語(名詞)と関連づけてよいとは限らない.文や文書の構造も考慮した上で重要度の計算をする必要があると考えられる.たとえば「ガラパゴスは火山で出来た島である.大きなゾウガメがその島には住んでいる.」という文では,「大きい」という属性概念が「ゾウガメ」だけでなく「火山」でも連想されている.また,連想関係使った単語の重要度の計算方法では,8つ連想関係で同じ計算式を使うのではなく,各々でその特徴にあった計算式を考える必要がある.連想概念辞書は刺激語−連想語の一対の対応関係ではなく連想語(名詞のみ)も刺激語として実験している場合もあるので,刺激語・連想語をノードとした大きな意味ネットワークの構造になっている\cite{Okamoto2001}.本手法のように刺激語−連想語の関係だけでなく,ネットワークの経路を辿って連想関係と概念間の距離を導き出す方法も考慮に入れる必要性があると考えている.一般に単語や重要文だけを並べるのでは理解しにくい.たとえば,重要文に照応詞が含まれていた場合,それが何を指しているのかわからない場合がある.その時は照応詞が指している内容に置き換える作業が必要になってくる.また,文単位の要約ではなく,単語や句レベルで要約する場合は,文生成の技術に関するさまざまな課題が残っている.\vspace*{1.8cm} \section{おわりに} 本研究では,連想概念辞書の連想関係や距離情報を用い,文書中の単語の重要度を計算することによって,重要文の抽出を行なった.小学校の教科書のテキストに対して既存の重要語抽出法と本手法での抽出結果とを,人間が行なった抽出結果と比較することによって評価した.単語の出現頻度のみよりも連想関係を計算に含めることによって改良されることがわかった.\acknowledgment本研究を進めるにあたって,連想実験の被験者の皆様に感謝いたします.適切な支援と実験を手伝ってくださった慶應義塾大学石崎研究室の皆様に,また実験データの修正を手伝ってくださった研究室の概念辞書班のメンバーに感謝いたします.\bibliographystyle{jnlpbbl}\bibliography{jpaper}\begin{biography}\biotitle{略歴}\bioauthor{岡本潤}{1997年慶應義塾大学環境情報学部卒.1999年慶應義塾大学大学院政策メディア研究科修士課程修了.同研究科博士課程在学中.}\bioauthor{石崎俊}{1970年東京大学工学部計数工学科卒,同助手を経て1972年通産省工業技術院電子技術総合研究所勤務,1985年推論システム研究室室長,自然言語研究室長を経て1992年から慶應義塾大学環境情報学部教授,1994年から政策メディア研究科教授兼任.自然言語処理,音声情報処理,認知科学などに興味を持つ.}\bioreceived{受付}\bioaccepted{採録}\end{biography}\end{document}
V10N05-06
\section{はじめに} 我々はこれまで,多様なテキストを要約することのできる頑健な自動要約システムの開発をめざして,重要文抽出を基にした要約システムを作成・拡張してきた.その過程で,作成したシステムを用いて日本語・英語双方において新聞記事などの書き言葉を対象にした要約評価ワークショップに参加し,良好な評価結果を得た\cite{nobata:tsc2001,sekine:duc2001}.また,日本語の講演録を対象として重要文抽出データを人手によって作成し,そのデータに対して要約システムの実験・評価を行った\cite{nobata:orc2002}.日本語と英語など異なる言語や,書き言葉と話し言葉など異なる性質をもつテキストを要約するためには,どのような点が共通化できてどのような点を個別に対応する必要があるのかを,実際に要約データにあたって要約手法を適用し,その結果を検討する必要がある.本論文の目的は,これまで行ってきた日本語と英語,また書き言葉と話し言葉のデータそれぞれについて,共通の素性を用いた重要文抽出の結果について示すことと,それらのデータ間での各素性の分布がどのように共通しているか,異なるかを示すことである.我々のシステムは,重要文抽出をベースにして自動要約を行っている.これは,文章全体を1〜2割程度縮める要約ではなく文章を大きく縮めて要約するためには,重要文抽出もしくはそれに類する手法を用いることが必要であると考えたためである.重要文抽出は自動要約に用いられる主要な手法の一つである\cite{mani:aats,okumura:nlp1999-07}.文章から重要文を抽出するためには,各文がどの程度重要であるかを示す素性を用意する必要がある.文の位置情報,たとえば文章の先頭にあるものほど重要だとみなす手法は,単純ではあるが現在でも自動要約の主要な手法である.他にも記事中の単語の頻度などの統計的な情報や,文書構造を示す表現などの手がかりなどが用いられている.これらの素性を統合的に用いる手法も研究されており,例えば\cite{edmundson:acm1969}は人手で重み付けの値を与えることによって,\cite{watanabe:coling1996}は回帰分析,\cite{kupiec:sigir1995-s}や\cite{aone:colingacl1998}はベイズの規則,また\cite{nomoto:ipsj1997},\cite{lin:cikm1999}らは決定木学習を用いて複数の情報を統合している.本論文では,これらの論文で示されているように素性を統合的に用いた要約システムの評価結果を示すだけでなく,自動要約に用いられる主な素性の振舞い・素性の組合せによる重要文の分布の違いなどを,性質の異なる3種類の要約データにおいて比較・分析した点に特徴がある.以下では,\ref{section:data}章において各要約データについて説明し,\ref{section:system}章において重要文抽出システムの概要を述べ,\ref{section:evaluation}章において各要約データにシステムを適用した結果の評価を示す.さらに,\ref{section:analysis}章においてシステムが用いた素性の各データにおける分布について考察する. \section{要約データ} \label{section:data}本研究で用いた要約データは,日本語新聞記事・英語新聞記事・日本語講演録の3種類のテキストデータを対象として作成されたものである.日本語新聞記事の要約データ,英語新聞記事の要約データは,ともに評価コンテストのために作成された公式のデータである.この2種類のデータを対象とすることで,異なる言語に対して用いることのできる要約システムを構築することを意図している.日本語講演録の要約データは,講演音声についての大規模なコーパスを構築するプロジェクトの中で作成された,学会講演の書き起しデータに対して作成されたものである.このようなデータを対象とすることによって,書き言葉と話し言葉それぞれに対応できる要約システムを構築することを意図している.以下,本研究で用いた3種類の要約データそれぞれについて説明する.\subsection{日本語新聞記事の要約データ}\label{section:data_tsc}TSC(TextSummarizationChallenge)は,自動要約の研究の発展を目的として2001年に開始された自動要約の評価プロジェクトであり,国立情報学研究所によって主催されている評価ワークショップNTCIRのタスクの一つである\cite{TSC1}.TSCは,複数の要約課題を提示して参加者を募り,参加者が作成した個々の自動要約システムを同一のデータに基づいて評価を行い,また自動要約の評価基準自体についての議論,さらに研究者間で共有できる要約データの作成・公開を行ってきている.第1回にあたるTSC2001では,日本語の新聞記事を対象として,A1:重要文抽出型要約,A2:人間の自由作成要約と比較可能な要約,B:IRタスク用要約の3種類の課題が提示された.本論文ではこのうち課題A1で用いられた重要文データを実験に用いた.予備試験,本試験データはそれぞれ30記事あり,ともに社説15記事と報道記事15記事で構成されている.この課題では,予備試験,本試験ともに3種類の要約率(10\,\%,30\,\%,50\,\%)に応じて重要文抽出を行うことが課された.本論文では,TSCで用いられた要約データを「TSCデータ」と呼ぶ.TSCデータは課題で用いられた新聞記事と,要約率ごとに作成されたそれらの記事の要約とから成る.TSCデータは日本語書き言葉要約データの例として\ref{section:evaluation}章に示す評価結果,\ref{section:analysis}章に示す分析で用いられる.\subsection{英語新聞記事の要約データ}\label{section:data_duc}DocumentUnderstandingConference(DUC)は,米国DARPAの支援の下にNationalInstituteofStandardsandTechnology(NIST)によって実施されている,自動要約の評価プロジェクトである\cite{DUC:2001}.DUCは日本におけるTSCと同様に,同一のデータに基づく複数の要約システムの評価,要約データの作成・公開を行うことで自動要約の研究の発展を図って行われているプロジェクトであり,2000年に最初のワークショップが行われた後,2001年から本格的に要約課題の提示,自動要約システムの評価が開始され,その結果に対する議論を経て課題内容や評価基準の改良が施されてきている.DUC2001では,英語新聞記事を対象として単一文書の要約・複数文書の要約の2種類の課題が出された.対象とするデータは両課題において共通であり,トレーニングデータとして30記事セット,テストデータとして新たに30記事セットが主催者から配布された.各記事セットには約10記事ずつ含まれており,それらの記事はAP通信やFinancialTimes,LosAngelsTimes,WallStreatJounalなどの新聞から取られている.各記事セットは,例えば「最高裁判事に任命されたトーマス氏についての記事」「ピナツボ火山の噴火についての記事」などの主題ごとに集められた記事から成っている.DUCでは,要約率ではなく語数によって作成する要約の長さが制限された.単一文書の要約では,各記事を100語以内に要約して出力することが課された.複数文書の要約では,各記事セットごとに50語,100語,200語,400語の4種類の要約が課された.DUC2001で用いられたデータのうち,本論文で示す実験では単一文書要約課題のデータを用いた.ただし主催者側から与えられた正解データは,文抽出(extract)データではなく人間が作成した要約(abstract)データであったので,我々はこのabstractデータをもとに記事セット中の対応する文を抜き出し,重要文抽出の正解データを作成した.本論文では,DUCで用いられた要約データを「DUCデータ」と呼ぶ.DUCデータは英語書き言葉要約データの例として\ref{section:evaluation}章に示す評価結果,\ref{section:analysis}章に示す分析で用いられる.\subsection{日本語話し言葉の要約データ}\label{section:data_csj}話し言葉の要約データとして本研究の実験に用いたコーパスは,国立国語研究所,東京工業大学,通信総合研究所の3団体が共同で構築作業をすすめているCSJコーパス(CorpusofSpontaneousJapanese)\cite{furui:asj2000}から得たものである.CSJコーパスは,学会講演などのモノローグを中心に収集・構築されているコーパスである.本論文では,このCSJコーパスのうち,1999年日本音響学会秋季研究発表会(AS99)の講演から35講演,2000年言語処理学会年次大会(NL00)の講演から25講演の計60講演を取り出して用いた.重要文抽出の実験では,60講演のうち50講演(AS99から30講演,NL00から20講演)をトレーニングデータとし,10講演(AS99から5講演,NL00から5講演)をテストデータとして用いた.重要文抽出を適用するには文境界が与えられている必要があるが,講演の書き起しデータは話し言葉の特性上,書き言葉のようには文の境界が予め与えられていない.このため,三人の被験者(論文の著者は含まない)が全60講演について文境界の検出と重要文抽出のデータ作成をともに行った.文境界においては,さらに各被験者の結果を言語学の専門家が統合して単一の文境界データを作成した.文境界データにおける各講演の平均文数は68.7文であった.一方重要文抽出においては,各被験者における重要文の判断の揺れが大きく,正解データを統一することは困難であったので,\ref{section:evaluation}章で示す評価結果では被験者の抽出結果を個々に正解とみなして評価している.なお,重要文抽出の要約率は10\,\%に設定した.本来のCSJコーパスはここで用いたものよりも大規模なコーパスであるが,本論文ではCSJコーパスを用いて作成された要約データを「CSJデータ」と呼ぶ.CSJデータは,日本語話し言葉要約データの例として\ref{section:evaluation}章に示す評価結果,\ref{section:analysis}章に示す分析で用いられる. \section{重要文抽出手法の概要} \label{section:system}自動要約では,文章中で重要な文を選択するために有効と思われる素性を考案し,それを用いた評価尺度を関数の形で表現し,その評価値の高い文を抽出するという重要文抽出の手法が主に用いられており,本システムでもこの手法を採用している.本章ではこの重要文抽出で用いた評価尺度について説明し,次にしきい値・重み付けなどその他の部分について説明する.TSC,CSJ,DUC各データに特化した部分については,個々に特化した項目を明記する.それ以外で特に対象データについて限定していない記述は,各データに対して共通して用いられた部分である.\subsection{評価尺度}本システムでは,個々の素性についてそれを基にした評価尺度を与える関数を予め定義している.それぞれの情報に対しては,複数の関数を用意しているものがある.それらの関数の選択も,各評価尺度に対する重みと同様,トレーニングデータを用いて行なう.使用した評価尺度は,文の位置情報・文の長さ・単語のtf*idf値・記事の見出し,そして言語的パタンである.各関数の出力したスコアに重みを掛け合せたものの和が,各文の重要度となる.\subsubsection{文の位置}本システムでは,文の位置情報に基づく関数を3種類用意した.重要文を抽出する際には,この三つのうちの一つが用いられる.1つ目の関数は,出力すべき文が\(N\)文であると指定されたときに,記事の先頭から\(N\)文目までにスコア1をつけ,それ以外は0とするものである:\begin{eqnarray*}\mbox{P1.}Score_{\mbox{pst}}(S_i)(1\lei\len)&=&1\quad(i<N\quadのとき)\\[-1mm]&=&0\quad(\mbox{それ以外})\end{eqnarray*}ここで\(n\)は記事中の文の数を示す.この関数は,最初の\(N\)文を要約結果とする単純な重要文選択の方法が好成績を納めてきているという事実に基いたものである.2つ目の関数は文の位置の逆数を与えるものである.つまり\(i\)番目の文に対するスコアは,\begin{eqnarray*}\mbox{P2.}Score_{\mbox{pst}}(S_i)&=&\frac{1}{i}\end{eqnarray*}となる.この2つ目の関数は先頭に近い程重要であるという点では1つ目の関数と同じであるが,他の評価尺度と組み合わせた際に両者の差が出てくることを意図して定義されたものである.3つ目の関数は,2つ目の関数に手を加え,先頭からの文の位置と末尾からの文の位置を共に用いるものである.つまり,全文数が\(n\)である記事において,\(i\)番目の文に対するスコアは以下のようになる.\begin{eqnarray*}\mbox{P3.}Score_{\mbox{pst}}(S_i)&=&\max(\frac{1}{i},\frac{1}{n-i+1})\end{eqnarray*}この関数は,先頭か末尾に近い文ほど重要であるという仮定を表現したものである.\subsubsection{文の長さ}各文の長さに基づく評価尺度については,以下の3種類の関数を用意した.1つ目の関数は,文の長さをそのままスコアとして与えるものである:\begin{eqnarray*}\mbox{L1.}Score_{\mbox{len}}(S_i)&=&L_i\end{eqnarray*}これは,「長い文ほど重要である」という仮定を表現したものである.2つ目の関数は,長さ\(L_i\)が一定の値\(C\)より短い文にはペナルティとして負の値を与えるものである:\begin{eqnarray*}\mbox{L2.}Score_{\mbox{len}}(S_i)&=&0\quad(L_i\geC\quadのとき)\\[-1mm]&=&L_i-C\quad(\mbox{それ以外})\nonumber\end{eqnarray*}このペナルティは,極端に短い文は重要文として選択されることが非常に稀であるという観測事実に基いている.3つ目の関数は,1つ目と2つ目の関数を組み合わせたもので,各文の長さをスコアとして与えるが,一定値\(C\)より短ければペナルティとして負の値を与えるものである:\begin{eqnarray*}\mbox{L3.}Score_{\mbox{len}}(S_i)&=&L_i\quad(L_i\geC\quadのとき)\\[-1mm]&=&L_i-C\quad(\mbox{それ以外})\nonumber\end{eqnarray*}この関数は先に挙げた両者の関数の長所を組み合わせることを意図している.TSCデータ・CSJデータにおける評価の際には,文の長さを文字数で表し,トレーニングデータを用いた実験の結果から一定値\(C\)を20(文字)とした.DUCデータにおける評価の際には,文の長さを単語数で表し,同様にトレーニングデータを用いた実験の結果から一定値\(C\)を10(単語)とした.\subsubsection{tf*idf値}\label{section:system_tfidf}この評価尺度は,各文中の単語についてtf*idf値を計算し文のスコア付けを行うものである.tf*idf値は,各記事中の単語\(w\)の頻度{\ittf}\((w)\)と,その単語がある記事群の中で現れた記事の数,すなわち記事頻度{\itdf}\((w)\)とを組み合わせて計算される値で,記事中のある単語がどの程度その記事特有の単語であるかを示す.記事数{\itDN}個の記事群が与えられたとき,最も単純なtf*idf値の計算式は以下のようになる:\begin{eqnarray*}\mbox{T1.}\mbox{tf*idf}(w)&=&\mbox{\ittf(w)}\log\frac{\mbox{\itDN}}{\mbox{\itdf(w)}}\\\end{eqnarray*}右辺第二項は特にinversedocumentfrequency(idf)と呼ばれる値である.tf*idf値は,与えられた検索要求に関連する記事をデータベースから検索する情報検索の分野において,記事の特徴を示すための指標として用いられるものであり,検索の精度を向上させるためにいくつか異なるtf*idf値の計算手法が提案されている.その一つは以下のようなものである:\begin{eqnarray*}\mbox{T2.}\mbox{tf*idf}(w)&=&\frac{\mbox{{\ittf(w)}}-1}{\mbox{\ittf(w)}}\log\frac{\mbox{\itDN}}{\mbox{\itdf(w)}}\\\end{eqnarray*}また,特に情報検索の分野において効果を挙げている\cite{2poisson}の定義に基づく式は以下のものである:\begin{eqnarray*}\mbox{T3.}\mbox{tf*idf}(w)&=&\frac{\mbox{\ittf}(w)}{1+\mbox{\ittf(w)}}\log\frac{\mbox{\itDN}}{\mbox{\itdf(w)}}\end{eqnarray*}tf*idf値を重要文抽出に用いる意図は,「その記事に特有な単語をより多く含む文は,その記事においてより重要である」という仮定を表現することである.各文のスコアは,文中の各単語に対するtf*idf値の和によって与えられる:\begin{eqnarray*}\mbox{\itScore}_{\mbox{tf*idf}}(S_i)&=&\sum_{w\inS_i}\mbox{tf*idf}(w)\end{eqnarray*}なお\ref{section:analysis}章で示す結果では,tf*idf値を用いた文のスコアから文の長さによる影響を避けるため,以下の式のようにtf*idf値の和を文の長さ\(\vertS_i\vert\)で割って正規化した値を文のスコアとしている:\begin{eqnarray*}\mbox{\itScore}_{\mbox{tf*idf}}(S_i)&=&\frac{1}{\vertS_i\vert}\sum_{w\inS_i}\mbox{tf*idf}(w)\end{eqnarray*}TSCデータ,CSJデータに対しては単語の切り分けにJUMANver.3.61\cite{juman361}を用い,tf*idf値を与える単語を時相名詞や副詞的名詞を除いた名詞に限定した.記事頻度を求めるための記事群には,1994年と1995年の毎日新聞の記事を用いた.DUCデータに対しては,品詞による単語の選別は行わず,ストップワードのリストを作成し,そのリストに含まれない単語についてtf*idf値を求めた.記事頻度を求めるための記事群としては,1994年と1995年のWallStreetJournalの記事を用いた.TSCデータ,CSJデータにおいては,各単語のtf*idf値を求める際に関数T3を用いた.DUCデータにおいては,T1〜T3の3つの関数のうち一つをトレーニングデータを用いて選択するようにした結果,T1が選択された.\subsubsection{見出し}この評価尺度は,対象記事の見出しに含まれる単語に対するtf*idf値を用いて文のスコア付けを行うものである.これは「見出しと類似している文は重要である」という仮定に基いている.類似度を求める際に対象とする単語は,前節のtf*idf値を用いた関数と同様に,日本語であるTSCデータ,CSJデータでは時相名詞や副詞的名詞を除いた名詞,英語であるDUCデータではストップワードのリストに含まれない単語である.文(\(S_i\))中の対象単語について,その名詞が見出し(\(H\))に含まれていれば,そのtf*idf値を文のスコアに加算する.文のスコアを与える式を以下に示す:\begin{eqnarray*}\mbox{H1.}\mbox{\itScore}_{\mbox{hl}}(S_i)=\frac{\displaystyle{\sum_{w\inH\capS_i}}\mbox{tf*idf}(w)}{\displaystyle{\sum_{w\inH}}\mbox{tf*idf}(w)}\end{eqnarray*}CSJデータにおいては,講演録そのものには見出しは存在しないが,それに対応する予稿から見出しを取り出して用いた.TSCデータ,DUCデータについては,さらに名詞の代わりに固有表現(NamedEntity:NE)を用いて見出しとの類似度を計算する関数も定義した.TSCデータに対する日本語の固有表現抽出には,最大エントロピー法を用いたシステムを使用した\cite{uchimoto:acl2000}.抽出する日本語固有表現の定義はIREXワークショップ\cite{IREX}で用いられたものに拠っている.DUCデータに対する英語の固有表現抽出には,パターンベースの固有表現抽出システムを用いた.このシステムは,拡張された固有表現の定義150クラスを抽出の対象とするものである\cite{sekine:lrec2002}.固有表現を用いる際には,簡便性のため,tf*idf値ではなく頻度のみを用いた.すなわち,各記事中の固有表現\(e\)に対する頻度\(\mbox{\ittf}(e)\)を用いれば,関数の式は以下のように示される:\begin{eqnarray*}\mbox{TF}(e)&=&\frac{\mbox{\ittf}(e)}{1+\mbox{\ittf}(e)}\\[1mm]\mbox{H2.}\mbox{\itScore}_{\mbox{hl\_{\scne}}}(S_i)&=&\frac{\displaystyle{\sum_{e\inH\capS_i}}\mbox{TF}(e)}{\displaystyle{\sum_{e\inH}}\mbox{TF}(e)}\end{eqnarray*}\subsubsection{言語的パタン}DUCデータに対しては,言語的パタンの獲得方法とそれを用いた評価尺度を導入した.ここで用いているパタンの獲得手法は,日本語情報抽出において提案された手法に基づいている\cite{sudo:hlt2001}.この手法は,例えば地震の発生を報道する記事には「○月×日x時y分ごろ,△□で地震があった」といった表現がよく現われるように,「分野(domain)を特定したときに,記事によく現れる表現はその分野において重要だ」という仮定に基づいてパタンを自動的に獲得するものである.DUC2001においては,約10記事ずつを1セットとして30記事セットのデータが配布されたので,この各記事セットを情報抽出における一つの分野とみなし,各セットごとにパタンの自動獲得を行った.パタンの獲得方法は以下の過程に従って行われる:\begin{enumerate}\item文の解析:\\与えられた記事セット中の記事全文について品詞・固有表現のタグづけ,係り受け解析を行う.\item部分木の抽出:\\係り受け木中の部分木を全て取り出す.\item固有表現による抽象化:\\部分木中に固有表現があった場合には,その固有表現を対応するクラスに置き換えたものと,元の表現のままの二通りの部分木をパタンとして用意する.複数の固有表現がある場合は,各置換操作の組み合わせだけ部分木を生成する.\item部分木のスコア付け:\\木全体の頻度と,部分木中の各単語の記事頻度から部分木のスコアを求める.このスコアの定義は,その記事セットに特有な部分木を取り出すという意図に基づいており,スコアが高い部分木ほど重要なパタンであると仮定することになる.\end{enumerate}パタンは重要文抽出を行う前に取り出され,スコアとともにシステムに格納される.実際に重要文抽出を行うときには,システムは各文\(S_i\)について品詞・固有表現のタグづけや係り受け解析を行って係り受け木を作成し,次いで格納されたパタンとの比較を行う.パタン\(P_j\)のスコアと文\(S_i\)の評価尺度をそれぞれ式に表わすと以下のようになる:\begin{eqnarray*}\mbox{\ita\_idf}_j&=&\displaystyle{\frac{1}{\vertP_j\vert}\sum_{w\inP_j}\log\frac{\mbox{\itDN}}{\mbox{\itdf(w)}}}\\\mbox{\itPatScore}(S_i)&=&\displaystyle{\sum_{j}F_{P_{j}}\mbox{\ita\_idf}_j}\mbox{(}P_j\mbox{が}S_i\mbox{の一部に一致)}\\&=&0\mbox{(それ以外)}\\\mbox{\itScore}_{\mbox{pat}}(S_i)&=&\log(\mbox{\itPatScore}(S_i)+1)\end{eqnarray*}ここで,\(F_{P_{j}}\)はパタン\(P_{j}\)の記事セット中の頻度,\(\vertP_j\vert\)は\(P_{j}\)中の単語数を示す.{\itDN}は予め与えられた記事群中の記事数,{\itdf}\((w)\)はその記事群の中で単語\(w\)が現れる記事の数である.すなわち,\(a\_idf\)は,パタン\(P_{j}\)中の単語の平均idf値であり,これとパタンの頻度\(F_{P_{j}}\)を用いて\ref{section:system_tfidf}節で述べたtf*idf値のような値を各パタンに与えることが,パタンのスコアを表す式の意図するところである.あるパタン\(P_j\)が文\(S_i\)の係り受け木の一部と一致した場合には,そのパタンのスコアが文の評価尺度として加算される.さらに各文について一致した全パタンのスコアを加算し,その値の対数をとったものを最終的な文の評価尺度\(\mbox{\itScore}_{\mbox{pat}}\)としている.\subsection{重み付け}本システムでは,各評価尺度の値({\itScore}\(_j()\))に重み(\(\alpha_j\))を掛け合わせたものの総和をとり,各文(\(S_i\))のスコアを与える:\begin{eqnarray}\label{eq:weight}\mbox{TotalScore}(S_i)=\sum_{j}\alpha_j\mbox{\itScore}_j(S_i)\end{eqnarray}この重み付けの最適値は,トレーニングデータを用いて求めた.具体的には,予め設定した値域内で,重みの値を変化させながらトレーニングデータに対する実験・評価を繰り返し,最も良い値を与える重みづけの値を求めた.複数の関数が定義されている評価尺度においては,その関数の選択も重み付けとともに行なわれた.TSCデータ,DUCデータにおいては,それぞれ予備試験のデータをトレーニングデータとして用いた.TSCデータにおいては,30の新聞記事を更に社説15記事とそれ以外の報道記事15記事とに分けてそれぞれについて最適な重み付けを求めた\footnotemark.\footnotetext{要約の対象となる各記事には,{\tt{}<SECTION>}社説{\tt{}</SECTION>}のようにセクションが明示されており,社説とその他の記事とを分類することは容易に行うことができた.}CSJデータでは,60講演のうち,テストデータとして残した10講演を除く50講演をトレーニングデータとして用いた.\ref{section:evaluation}章に示す実験結果では,各情報においてどの関数が選ばれたか,重みの程度がどのくらいだったかを報告する.\subsection{しきい値}本システムでは,重要文抽出を行う際に記事中の全文にスコア付けを行い,その結果を元にスコアの良い順に各文を順位付けする.これらの文のうち何文まで出力するかを決定するのに,本システムでは文数・文字数(単語数)・スコアの3種類のしきい値を用いることができる.どのしきい値を用いても,出力される文の順番は元の記事のまま保たれる.文の数\(N\)がしきい値として与えられたならば,システムは順位付けされた文の上位\(N\)文までを重要文として抽出する.文字数または単語数が与えられたときには,システムはこれを文数のしきい値に変換する.スコアがしきい値として与えられたならば,システムはそのしきい値より大きい値をもつ文のみを出力する.TSCデータ,CSJデータについては,文の数\(N\)をしきい値として用いた.DUCデータについては,DUC2001において100語前後の要約を出力することが課題に指定されていたので,単語数をしきい値として用いた. \section{各タスクの評価結果} \label{section:evaluation}本章では,前章で述べた重要文抽出システムをTSC,DUC,CSJの3種類のデータそれぞれに適用した結果を示す.\subsection{TSCデータでの評価結果}TSC2001の重要文抽出課題においては,人手で作成された重要文抽出の正解データとシステムの出力した重要文抽出結果との間で,どのくらい抽出された重要文が一致するかの度合に基づいた評価が行われた.評価の指標としては,再現率・精度・F値の3種類\footnotemark{}が用いられた.\footnotetext{再現率・精度・F値の定義は以下のように与えられる:\begin{quote}再現率(REC)=COR/GLD\\精度(PRE)=COR/SYS\\F値=2*REC*PRE/(REC+PRE)\end{quote}ここで,CORはシステムが出力した文のうち正解である文の数,GLDは正解データに含まれる重要文の数,SYSはシステムが出力した全文数を示す.各記事についてこれらの値を計算したあと,全記事の平均をとったものが最終的な評価値となった.}表\ref{table:result_tsc}は,本システムの重要文抽出での評価結果を,二種類のベースラインシステムの結果とともに示したものである.ベースラインシステムのうち,Lead-basedは常に記事の先頭から指定された文数まで出力するものであり,TF-basedは各文ごとに記事中の語(名詞,動詞,形容詞,未定義語)のTF値の和を計算し,そのスコアの高い順に文を選択する手法である.このとき選択された文の順序は,元記事の順序のものを保つ.表内の数値はF値を示す.また,表内の本システムの評価値に添えた括弧内の数字は,参加した10システム中の本システムの順位である.本システムは,平均・各要約率の各評価においてベースラインシステムの結果を上回る成果を得た.また,参加システム中でも,全体で2位の評価であった.社説と報道記事とでは,文の位置情報を用いる評価尺度において,異なる関数が選択されており,この選択が重要文抽出の評価向上に意味があったと考えられる.このことをより明確に示すために,文の位置情報のみを用いたときの,記事の種類別に見た評価結果を表\ref{table:result_tsc_location}に示す.P1とP2は,文の位置情報を単独で用いたときには同じ値を返すので,ここでは一つにまとめた.表\ref{table:result_tsc_location}に示されるように,P1,P2は社説以外の報道記事でP3より高い結果を示し,P3は社説においてP1,P2より高い結果を示した.すなわち,社説においては記事の前の方と後の方の両方に重要文として選択されたものが多く,社説以外では前の方だけに重要文として選択されたものが多いということを示している.本システムにおける文の位置を用いた評価尺度では,用いる関数を対象記事の種類に応じて適切に使い分けることで,どれか一つの関数に固定した場合の評価結果を上回ることができている.\begin{table}[t]\caption{TSCデータにおける重要文抽出の評価結果}\begin{center}\label{table:result_tsc}\begin{tabular}{l|lll|l}\hline要約率&10\,\%&30\,\%&50\,\%&平均\\\hline本システム~(順位)&0.363(1)&0.435(5)&0.589(2)&0.463(2)\\ベースライン1:~Lead-based&0.284&0.432&0.586&0.434\\ベースライン2:~TF-based&0.276&0.367&0.530&0.391\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{TSCデータの記事の種類別に見た文の位置情報の評価結果}\begin{center}\label{table:result_tsc_location}\begin{tabular}{c|ccc|c}\hline\multicolumn{5}{l}{P1,P2}\\\hline要約率&10\,\%&30\,\%&50\,\%&平均\\\hline社説&0.158&0.256&0.474&0.293\\その他&0.394&0.478&0.586&0.486\\全体&0.276&0.367&0.530&0.391\\\hline\multicolumn{5}{l}{P3}\\\hline社説&0.323&0.360&0.557&0.413\\その他&0.356&0.436&0.544&0.445\\全体&0.339&0.398&0.550&0.429\\\hline\multicolumn{5}{l}{本システムでの文の位置を用いた評価尺度}\\\hline全体&0.359&0.419&0.572&0.450\\\hline\end{tabular}\end{center}\end{table}各評価尺度がどの程度結果に寄与しているかをみるために,表\ref{table:optimal_weight_tsc}に各評価尺度の標準偏差とそれに対する重みを掛け合わせたものを示した.標準偏差が大きいほど各文に対する評価尺度の変化の度合が大きくなり,また各評価尺度の値には与えられた重みが掛け合わされて用いられるので,表に示した値によって各評価尺度が最終的な文のスコアにどの程度大きな影響を及ぼすかが分かる.表中の値は,各評価尺度の寄与する度合を正規化したものを示している.すなわち,各評価尺度についての値を要素とするベクトルについて,そのノルムが1になるように値を変換している.表\ref{table:optimal_weight_tsc}から,文の位置に基づく評価尺度はどの区分においても寄与している評価尺度であり,特に社説においてその値が大きいことが分かる.それ以外の評価尺度は,対象とする記事の分野や要約率によってその寄与する度合が大きく変化している.しかし,\ref{section:analysis}章で示す分析からは,文の位置を除く評価尺度間の相関が有意に存在することから,文の位置とそれ以外の評価尺度のどれかを使うということがより重要であって,文の位置以外のどの評価尺度を使うかによる差は,それほど重要でなかったと考えられる.\begin{table}[t]\small\caption{TSCデータにおける各評価尺度の重み×標準偏差,及び選択された関数の種類}\label{table:optimal_weight_tsc}\begin{center}\begin{tabular}{l|l|lr|lr|lr}\hline&&\multicolumn{6}{|c}{要約率}\\\cline{3-8}対象記事&評価尺度&\multicolumn{2}{|c|}{10\,\%}&\multicolumn{2}{|c|}{30\,\%}&\multicolumn{2}{|c}{50\,\%}\\\hline社説&文の位置&P3&0.811&P3&0.533&P3&0.788\\&文長&L2&0.000&L2&0.000&L2&0.000\\&tf*idf&T3&0.306&T3&0.503&T3&0.298\\&見出し(単語)&&0.311&&0.681&&0.504\\&見出し(NE)&&0.389&&0.000&&0.189\\[2mm]\hline報道&文の位置&P1&0.501&P1&0.464&P1&0.278\\&文長&L2&0.000&L2&0.870&L2&0.957\\&tf*idf&T3&0.365&T3&0.146&T3&0.080\\&見出し(単語)&&0.578&&0.058&&0.000\\&見出し(NE)&&0.531&&0.053&&0.029\\\hline\end{tabular}\end{center}\end{table}\subsection{DUCデータでの評価結果}表\ref{table:optimal_weight_duc}に,DUCデータにおける各評価尺度の標準偏差とそれに対する重みを掛け合わせたものを示す.TSCデータにおける値と同様に,これらの値は各評価尺度についての値を要素とするベクトルについて,そのノルムが1になるように値を変換している.結果から,最も文のスコアに対する影響が大きい評価尺度は文の位置であり,次いでtf*idf値であった.見出しや言語的パタンに基づく評価尺度は,それらに比較して結果に寄与する割合が小さかった.\begin{table}[t]\caption{DUCデータにおける各評価尺度の重み×標準偏差}\label{table:optimal_weight_duc}\begin{center}\begin{tabular}{l|l|r}\hline評価尺度&関数&重み×S.D.\\\hline文の位置&P1&0.943\\文の長さ&L2&0.027\\tf*idf&T1&0.327\\見出し&H2&0.061\\パタン&-&0.007\\\hline\end{tabular}\end{center}\end{table}DUC2001における要約結果の評価は主観評価によって行なわれた.すなわち,システムによって生成された要約と人間が作成した要約とを被験者が比較してその質を判定した.主観評価は,Grammaticality(文法性),Cohesion(結束性),Organization/coherence(一貫性)の3つの基準について行われ,10人の被験者が各基準について5段階(4が最も高く,0が最も低い)の評価を与えた.各被験者の評価結果の平均を表\ref{table:eval_result}に示す.全システムの結果は,参加した11システムとベースラインの結果の平均値である.ベースラインの要約は,各記事について先頭から100語ずつ出力したものである.本システムの結果は,どの評価基準においてもベースライン,全システムの平均を上回っている.また,システム全体での順位も,文法性では5位であったが,それ以外の評価では1位であり,全体でも1位であった.\begin{table}[t]\caption{DUCデータでの評価結果(主観評価:被験者の評価の平均)}\label{table:eval_result}\begin{center}\begin{tabular}{l|lll|l}\hline評価基準&文法性&結束性&一貫性&全体\\\hline本システム~(順位)&3.711~(5)&3.054~(1)&3.215~(1)&9.980~(1)\\ベースライン&3.236&2.926&3.081&9.243\\全参加者の平均&3.580&2.676&2.870&9.126\\\hline\end{tabular}\end{center}\end{table}\subsection{CSJデータでの評価結果}CSJデータにおける各評価尺度の標準偏差とそれに対する重みを掛け合わせたものを,表\ref{table:optimal_weight_csj}に示す.TSCデータにおける値と同様,これらの値は各評価尺度についての値を要素とするベクトルについて,そのノルムが1になるように値を変換している.結果から,最も文のスコアに対する影響が大きい評価尺度は文の長さであり,次いで文の位置,tf*idf値であった.CSJデータに対する要約の評価結果を表\ref{table:performance_csj}に示す.ここでは,文境界をパタンに基いたシステムによって自動的に検出した場合と,正しい文境界を予め与えた場合の双方について重要文抽出結果の評価を行った.また,\ref{section:data_csj}節で述べたように,3人の被験者がそれぞれ作成した重要文抽出の結果は判断の揺れが大きく,それらを統合して正解データを作成することは困難であったので,この表では,各被験者(それぞれA,B,Cとする)の重要文抽出結果を個々に正解とみなしてシステムの出力を評価した値と,それらの平均値とをともに示した.文境界を自動的に検出した場合の評価結果の平均は30\,\%を超えない.一方,正しい文境界を予め与えた場合の重要文抽出結果はF値で36.8\,\%という評価を得た.CSJデータについてはコンテストによる結果は存在しないため,同一データによる他のシステムとの評価結果の比較は行っていないが,TSC,CSJ両データに対する重要文抽出の結果を比較すると,10\,\%という小さい要約率においては文境界が正しく検出できれば,話し言葉に対する重要文抽出は新聞記事に対する重要文抽出に匹敵しうることを示しているといえる.\begin{table}[t]\caption{CSJデータにおける各評価尺度の重み×標準偏差}\label{table:optimal_weight_csj}\begin{center}\begin{tabular}{l|l|r}\hline評価尺度&関数&重み×S.D.\\\hline文の位置&P3&0.248\\文の長さ&L2&0.948\\tf*idf&T3&0.198\\見出し(単語)&-&0.028\\\hline\end{tabular}\end{center}\end{table}\begin{table}[t]\caption{CSJデータでの評価結果}\label{table:performance_csj}\begin{center}\begin{tabular}{l|llll}\hline文境界\被験者&A&B&C&平均\\\hline自動&0.352&0.297&0.250&0.300\\正解&0.411&0.359&0.334&0.368\\\hline\end{tabular}\end{center}\end{table} \section{要約データの分析} \label{section:analysis}\ref{section:evaluation}章では,複数の素性を用いた重要文抽出システムが,TSC,DUC,CSJの各データについて良好な結果を得たことを示した.しかしながら,評価結果だけでは,各データにおいて有効な素性に違いはあるのか,複数の素性を組み合わせて用いたことにどのような効果があったのかという点についてはっきり示されていない.そこで本章では,まず各素性についてその値の変化に対応する重要文の分布を図示し,どのような素性の用い方が効果的であるかを調べた.次に,有効な素性の組み合わせを調べるため,二つの素性間の相関と素性の組み合わせによる重要文の数・割合の分布を示した.\subsection{素性に対応する重要文の分布}本節では,重み付けの値を得たトレーニングデータにおいて重要と判断された文と素性との関連を調べ,素性を用いた評価尺度のうちどのようなものが有効であるかを考察する.具体的には,文の位置・文の長さ・tf*idf値・見出しの4種類の素性について,その評価尺度の値に対応する記事全体の文数・重要文の文数を調べた.文の位置・tf*idf値・見出しについてのグラフでは,各素性ごとにそれに基づく評価尺度の値の昇順に文を順位付けしてその順位を5\,\%または10\,\%ごとに区分し,各区分ごとに重要文の占める割合を示した.一方,文の長さについてのグラフでは,傾向をより見やすくするために,文の長さの値そのものに対して記事中の文数とそれに含まれる重要文の数とを示した.TSCデータにおいては,さらに記事の種類を社説と報道記事に分け,個々の要約率における正解要約(10\,\%,30\,\%,50\,\%)に含まれる重要文の割合をグラフによって示した.なおCSJデータについては,重要文の数・割合として3人の被験者による抽出結果の平均値を用いている.データ全体の文数・重要文の数を示すため,表\ref{table:training_num_of_sent}に各トレーニングデータの記事数と文数・重要文の数・要約率を掲げる.DUCデータにおいては,要約の制限は要約率ではなく語数(100語)であったため,全データにおける重要文の割合を要約率として示した.\begin{table}[t]\caption{各トレーニングデータの記事数と文数}\label{table:training_num_of_sent}\begin{center}\begin{tabular}{l|rrl}\hlineデータの種類&記事数&文数&重要文の数(要約率)\\\hlineTSCデータ:報道&15&257&34(10\,\%),86(30\,\%),118(50\,\%)\\TSCデータ:社説&15&459&51(10\,\%),143(30\,\%),225(50\,\%)\\DUCデータ&299&13988&3299(23.5\,\%)\\CSJデータ&50&3428&333.3(10\,\%:被験者間の平均)\\\hline\end{tabular}\end{center}\end{table}\clearpage\subsubsection{文の位置}\begin{figure*}[t]\begin{center}\begin{tabular}{ll}\epsfile{file=tsc_ratio_position_report_train.eps,width=.47\columnwidth}&\epsfile{file=tsc_ratio_position_editorial_train.eps,width=.47\columnwidth}\\\epsfile{file=duc_ratio_position_train.eps,width=.47\columnwidth}&\epsfile{file=csj_ratio_position_train.eps,width=.47\columnwidth}\end{tabular}\end{center}\caption{各データにおける文の位置と重要文との関係}\label{figure:position_train}\end{figure*}各データ中の文の位置と重要文との関係を図\ref{figure:position_train}に示す.グラフ中の横軸は各記事中の文の位置であり,先頭を0,末尾を1として正規化した値を表している.TSC報道記事データ(Report)では,先頭に近いところに一番大きなピークがあり,「先頭の方ほど重要な文が多い」という仮定は当たっているようである.一方,社説データ(Editorial)では,先頭に重要な文がある割合は報道記事に比べて小さいが,末尾からの文の位置と文数の関係を見ると,末尾に近いところにも大きなピークがある.社説においては,先頭だけでなく末尾の部分にも被験者に選択された文が多かったということになる.DUCデータにおいては,末尾よりも先頭からの文の位置と重要文数の関係が比較的強く,DUCデータにおける文の位置と重要文との関係はTSC報道記事データに近い.一方CSJデータにおいては,先頭よりも末尾の方に被験者に選択された文がより多く,CSJデータにおける文の位置と重要文との関係はTSC社説データに近いことがグラフから分かる.CSJデータは学会講演から取られたものであるので,最後に発表をまとめる表現が重要文とされることが多いことがその要因として考えられる.\clearpage\subsubsection{文の長さ}\begin{figure*}[t]\begin{center}\begin{tabular}{ll}\epsfile{file=tsc_total_length_report_train.eps,width=.47\columnwidth}&\epsfile{file=tsc_total_length_editorial_train.eps,width=.47\columnwidth}\\\epsfile{file=duc_total_length_train.eps,width=.47\columnwidth}&\epsfile{file=csj_total_length_train.eps,width=.47\columnwidth}\end{tabular}\end{center}\caption{各データにおける文の長さと文の数・重要文の数との関係}\label{figure:length_train}\end{figure*}文の長さと文の数・重要文の数との関係を図\ref{figure:length_train}に示す.TSCデータ,CSJデータでは文の長さを文字数で,DUCデータでは文の長さを単語数で示している.どのデータにおいても,短い文に対しては記事全体の文数に比べて重要文の文の割合が小さい.一定の長さ以下の文にペナルティを与える関数は重要でない文を除く上で有効であったといえる.また非常に長い文は,その数は少ないが重要文である割合が高く,一定の長さ以上の文を重要文とみなすような関数を用いることも考えられる.\clearpage\subsubsection{tf*idf値}\begin{figure*}[t]\begin{center}\begin{tabular}{ll}\epsfile{file=tsc_ratio_tfidf1_report_train.eps,width=.47\columnwidth}&\epsfile{file=tsc_ratio_tfidf1_editorial_train.eps,width=.47\columnwidth}\\\epsfile{file=duc_ratio_tfidf1_train.eps,width=.47\columnwidth}&\epsfile{file=csj_ratio_tfidf1_train.eps,width=.47\columnwidth}\end{tabular}\end{center}\caption{各データにおけるtf*idf値を用いた評価尺度と重要文との関係}\label{figure:tfidf_train}\end{figure*}tf*idf値を用いた評価尺度と重要文との関係を図\ref{figure:tfidf_train}に示す.ここでは各単語ごとのtf*idf値の計算には式T1を用い,また文の長さによる影響を避けるため,各文ごとにtf*idf値の和を文長によって正規化している.横軸に示している値は,tf*idf値を用いた評価尺度の値そのものではなく,評価尺度の値によって各文を順序付けした相対順位である.TSC報道記事データでは,tf*idf値が大きくなるにつれて,特に30\,\%,50\,\%の要約率において正解要約に含まれる文の割合が大きくなる.tf*idf値の高い文は重要であると見なすことは報道記事において効果があったと考えられる.DUCデータ,CSJデータにおいては,tf*idf値が大きくなるに従って緩やかに重要文である割合が増しているが,際立った特徴は見られなかった.TSCデータにおいても10\,\%におけるグラフは,報道記事データ・社説データの双方においてほぼ同様の傾向を示しており,CSJデータの要約率は10\,\%であり,DUCデータにおける要約率の平均は23.5\,\%であることを考慮すると,要約率が小さい場合には,tf*idf値はどのデータにおいてもとくに目立った特徴は示していないといえる.\subsubsection{見出し}\begin{figure*}[t]\begin{center}\begin{tabular}{ll}\epsfile{file=tsc_ratio_hl_noun_report_train.eps,width=.47\columnwidth}&\epsfile{file=tsc_ratio_hl_noun_editorial_train.eps,width=.47\columnwidth}\\\epsfile{file=duc_ratio_hl_noun_train.eps,width=.47\columnwidth}&\epsfile{file=csj_ratio_hl_noun_train.eps,width=.47\columnwidth}\end{tabular}\end{center}\caption{各データにおける見出しを用いた評価尺度(単語単位)と重要文との関係}\label{figure:hl_noun_train}\end{figure*}\begin{figure*}[t]\begin{center}\begin{tabular}{ll}\epsfile{file=tsc_ratio_hl_ne_report_train.eps,width=.47\columnwidth}&\epsfile{file=tsc_ratio_hl_ne_editorial_train.eps,width=.47\columnwidth}\\\epsfile{file=duc_ratio_hl_ne_train.eps,width=.47\columnwidth}&\\\end{tabular}\end{center}\caption{各データにおける見出しを用いた評価尺度(固有表現単位)と重要文との関係}\label{figure:hl_ne_train}\end{figure*}見出しを用いた評価尺度と重要文との関係を図\ref{figure:hl_noun_train},図\ref{figure:hl_ne_train}に示す.図\ref{figure:hl_noun_train}は単語を単位とした見出しと文との類似度に基づくグラフ,図\ref{figure:hl_ne_train}は固有表現を単位とした見出しと文との類似度に基づくグラフである.CSJデータに対しては固有表現を単位とした評価尺度を適用していないので,図\ref{figure:hl_ne_train}のグラフはTSCデータとDUCデータのもののみ掲げてある.横軸に示している値は,tf*idf値におけるグラフと同様に,見出しを用いた評価尺度の値によって各文を順序付けした相対順位である.tf*idf値を用いた評価尺度とTSC報道記事データとの関連と同様に,TSC社説データにおいて見出しを用いた評価尺度による順位が大きくなるにつれて,特に30\,\%,50\,\%の要約率において正解要約に含まれる文の割合が大きくなる.見出しを用いた評価尺度の値が高い文を重要であると見なすことは,社説において効果があったと考えられる.DUCデータ,CSJデータにおいては,tf*idf値に比べると評価尺度による順位が90\,\%以上のときの重要文の増加の割合がより大きい.見出しを用いた評価尺度の値が大きい文は,数としては少ないが重要文である割合が高いことが分かる.固有表現を単位とした評価尺度においては,グラフ全体の傾きは単語を単位とした評価尺度よりも小さく,重要文の割合と評価尺度の値との関連はあまり見られないが,評価尺度による順位が90\,\%以上のときには,単語を単位とした評価尺度と同様に重要文の割合が増加している.\subsection{素性間の関係}\begin{table}[t]\small\caption{各データにおける素性間の順位相関係数}\label{rank_cc_results}\begin{center}\begin{tabular}{l|rrrrr}\hline\hline\multicolumn{6}{c}{TSC報道記事データ}\\\hline&文の位置&文の長さ&tf*idf値&見出し(単語)&見出し(NE)\\\hline文の位置&--&0.019&$-$0.095&$-$0.139&$-$0.137\\文の長さ&0.019&--&0.546&0.338&0.272\\tf*idf値&$-$0.095&0.546&--&0.696&0.312\\見出し(単語)&$-$0.139&0.338&0.696&--&0.399\\見出し(NE)&$-$0.137&0.272&0.312&0.399&--\\\hline\hline\multicolumn{6}{c}{TSC社説データ}\\\hline&文の位置&文の長さ&tf*idf値&見出し(単語)&見出し(NE)\\\hline文の位置&--&$-$0.047&$-$0.099&0.046&0.023\\文の長さ&$-$0.047&--&0.532&0.289&0.209\\tf*idf値&$-$0.099&0.532&--&0.658&0.371\\見出し(単語)&0.046&0.289&0.658&--&0.517\\見出し(NE)&0.023&0.209&0.371&0.517&--\\\hline\hline\multicolumn{6}{c}{DUCデータ}\\\hline&文の位置&文の長さ&tf*idf値&見出し(単語)&見出し(NE)\\\hline文の位置&--&$-$0.130&$-$0.108&$-$0.134&$-$0.062\\文の長さ&$-$0.130&--&0.471&0.293&0.186\\tf*idf値&$-$0.108&0.471&--&0.526&0.269\\見出し(単語)&$-$0.134&0.293&0.526&--&0.493\\見出し(NE)&$-$0.062&0.186&0.269&0.493&--\\\hline\hline\multicolumn{6}{c}{CSJデータ}\\\hline&文の位置&文の長さ&tf*idf値&見出し(単語)&--\\\hline文の位置&--&$-$0.092&$-$0.069&$-$0.106&--\\文の長さ&$-$0.092&--&0.460&0.224&--\\tf*idf値&$-$0.069&0.460&--&0.533&--\\見出し(単語)&$-$0.106&0.224&0.533&--&--\\\hline\end{tabular}\end{center}\end{table}複数の素性を用いて重要文抽出を行うには,素性間の独立性が高いことと,素性を組み合わせたときに重要文が多い値域を絞り込めることが重要である.本節では,まず素性間の独立性を調べるために,各素性による文のスコアの順序に基づく順位相関係数を求め,素性間の独立性を調べた結果を示す.次に,独立性が比較的高い素性同士のいくつかの組み合わせについて,その組み合わせによる重要文の数・割合の分布を示した.\subsubsection{素性間の相関}各要約データにおける文の位置・文の長さ・tf*idf値・見出しの4種類の素性について,その評価尺度の値に基づく順位相関係数(Spearman)を求めた.各素性の組ごとの順位相関係数の値を表\ref{rank_cc_results}に示す.結果からは,どのデータにおいても\begin{itemize}\item文の位置は他のどの素性とも相関が低く,比較的独立であること\item文の長さとtf*idf値との相関が高いこと\footnotemark\itemTF*idf値と見出し(単語)との相関が高いこと\end{itemize}が分かる.\footnotetext{ここでは,前節と同様に各単語ごとのtf*idf値の計算には式T1を用い,また文の長さによる影響を避けるため,各文のスコアは,tf*idf値の和を文の長さで割って正規化している.従って「文の長さ」と「tf*idf値」との相関が高いことは自明な結果ではない.}これら4種類の素性は重要文抽出に用いられる典型的な素性であり,\ref{section:evaluation}章ではこれらの素性を組合せて重要文抽出を行い日本語・英語双方のコンテストにおいて良好な結果を得たことを示したが,順位相関係数の値からはこれらの素性は必ずしも相互に独立ではないことが分かった.\subsubsection{素性の組み合わせ}前節の結果から,4種類の素性は互いに独立であるとはいえないが,文の位置と他の素性との組み合わせはどのデータにおいても他の組み合わせと比較して独立性が高いことが分かった.本節では,これらの素性の組み合わせにおいて重要文の分布とどのように関連しているかを調べる.TSCデータについては,素性の組み合わせについて示すにはデータ中の文数が少ないため,ここではDUCデータとCSJデータについて調べた結果のみを示している.前節の結果独立性の高かった文の位置と他の素性の組み合わせについて,重要文の分布がどう変化するかを示す.表\ref{table:diagram_pst_len},\ref{table:diagram_pst_tfidf},\ref{table:diagram_pst_hlnoun}は,二つの素性の組み合わせによって重要文の数・割合がどう変化するかを示したものである.これらの表では各素性ごとにその評価尺度の値の昇順に文を順位付けし,その順位を10\,\%ごとに区分して各区分ごとに重要文の数と割合を文字によって段階分けして示した.各区分中の文字は,重要文が各区分に均一に分布している場合に比べて,どのくらい偏りがあるかを示すものである.左側の文字は重要文の数の偏りを示すもので,具体的には,データ中の全重要文の数を\(T\)としたときに各区分中の重要文の数\(T_{i,j}\)が重要文の各区分に対する平均値\(M(=\frac{T}{100})\)からどのくらい離れているかを,以下のような範囲ごとに示している.ここで\(S\)は各区分に対する重要文数の標準偏差である.\begin{quote}\begin{tabular}{ll}A:&\(T_{i,j}\geM+2S\)\\B:&\(M+S\leT_{i,j}<M+2S\)\\C:&\(M-S\leT_{i,j}<M+S\)\\D:&\(M-2S\leT_{i,j}<M-S\)\\E:&\(T_{i,j}<M-2S\)\\O:&\(T_{i,j}=0\)\\{\tt-}:&その区分に対応する文が存在しない\end{tabular}\end{quote}同様に,各区分の右側の文字は,重要文の全文数に対する割合が均一に分布している場合と比較して,どのくらい偏りがあるかを示すものである.全文数\(N\)に占める重要文の割合を\(m(=\frac{T}{N})\)としたときに,各区分中の重要文の割合\(t_{i,j}\)が以下の範囲にあることを示している.ここで\(s\)は各区分に対する重要文の割合の標準偏差である.\begin{quote}\begin{tabular}{ll}a:&\(t_{i,j}\gem+2s\)\\b:&\(m+s\let_{i,j}<m+2s\)\\c:&\(m-s\let_{i,j}<m+s\)\\d:&\(m-2s\let_{i,j}<m-s\)\\e:&\(t_{i,j}<m-2s\)\\o:&\(t_{i,j}=0\)\\{\tt-}:&その区分に対応する文が存在しない\end{tabular}\end{quote}すなわち,重要文が素性に関係なく均一に分布している状態ならば,全ての区分がCcとなる.重要文の数が多くてもその割合が小さければ,単にその区分に含まれる文の数が多いだけで,重要文の抽出に有効な区分ではない.逆に重要文の割合が大きくてもその数が小さければ,その区分は重要文抽出の性能向上に有効ではあるが,寄与する度合は小さい.\begin{table}[tb]\small\caption{文の位置と文長を組み合わせたときの重要文の分布}\label{table:diagram_pst_len}\begin{center}\begin{tabular}{c|cccccccccc}\hline\hline\multicolumn{11}{c}{DUCデータ}\\\hline&\multicolumn{10}{c}{文の長さ}\\\cline{2-11}文の位置&0.1&0.2&0.3&0.4&0.5&0.6&0.7&0.8&0.9&1.0\\\hline0.1&Cc&Cc&Cc&Cb&Bb&Ba&Ba&Aa&Aa&Aa\\0.2&Cd&Cc&Cc&Cc&Cc&Cc&Cb&Bb&Bb&Aa\\0.3&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Bc&Cc&Cb\\0.4&Cd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cb&Cc\\0.5&Cd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.6&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.7&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.8&Cd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.9&Dd&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\1.0&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\\hline\hline\multicolumn{11}{c}{CSJデータ}\\\hline&\multicolumn{10}{c}{文の長さ}\\\cline{2-11}文の位置&0.1&0.2&0.3&0.4&0.5&0.6&0.7&0.8&0.9&1.0\\\hline0.1&Cc&Cc&Cc&Ab&Bc&Cc&Cc&Cc&Bc&Ab\\0.2&Cc&Cc&Cc&Cc&Cc&Bc&Cc&Cc&Cc&Cc\\0.3&Oo&Oo&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.4&Cc&Cc&Cc&Oo&Cc&Cc&Cc&Cc&Cc&Cc\\0.5&Oo&Oo&Oo&Cc&Oo&Cc&Oo&Cc&Cc&Cc\\0.6&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.7&Cc&Oo&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.8&Oo&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.9&Cc&Cc&Cc&Cc&Bb&Cc&Cc&Cc&Cc&Cc\\1.0&Cc&Cc&Aa&Aa&Aa&Ba&Aa&Aa&Aa&Aa\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tb]\small\caption{文の位置とtf*idf値を組み合わせたときの重要文の分布}\label{table:diagram_pst_tfidf}\begin{center}\begin{tabular}{c|cccccccccc}\hline\hline\multicolumn{11}{c}{DUCデータ}\\\hline&\multicolumn{10}{c}{tf*idf値}\\\cline{2-11}文の位置&0.1&0.2&0.3&0.4&0.5&0.6&0.7&0.8&0.9&1.0\\\hline0.1&Cc&Cc&Cc&Cb&Ba&Ba&Aa&Aa&Aa&Aa\\0.2&Cd&Cc&Cc&Cc&Cc&Cc&Bb&Bb&Bb&Bb\\0.3&Cd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.4&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.5&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.6&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.7&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.8&Cd&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.9&Dd&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\1.0&Dd&Dd&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\\hline\hline\multicolumn{11}{c}{CSJデータ}\\\hline&\multicolumn{10}{c}{tf*idf値}\\\cline{2-11}文の位置&0.1&0.2&0.3&0.4&0.5&0.6&0.7&0.8&0.9&1.0\\\hline0.1&Cc&Cc&Cc&Cc&Bc&Cc&Ab&Bb&Bb&Bb\\0.2&Oo&Oo&Cc&Cc&Cc&Cc&Cc&Bb&Bc&Cc\\0.3&Oo&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.4&Cc&Cc&Cc&Cc&Oo&Cc&Cc&Cc&Cc&Cc\\0.5&Oo&Cc&Oo&Oo&Cc&Oo&Cc&Cc&Cc&Cc\\0.6&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.7&Oo&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc\\0.8&Oo&Cc&Cc&Oo&Oo&Cc&Cc&Cc&Cc&Cc\\0.9&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Cc&Bb\\1.0&Cc&Cc&Ba&Bb&Bb&Aa&Aa&Bb&Aa&Aa\\\hline\end{tabular}\end{center}\end{table}\begin{table}[tb]\small\caption{文の位置と見出しを組み合わせたときの重要文の分布}\label{table:diagram_pst_hlnoun}\begin{center}\begin{tabular}{c|cccccccccc}\hline\hline\multicolumn{11}{c}{DUCデータ}\\\hline&\multicolumn{10}{c}{見出し}\\\cline{2-11}文の位置&0.1&0.2&0.3&0.4&0.5&0.6&0.7&0.8&0.9&1.0\\\hline0.1&Ab&{\tt--}&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Ca&Ba&Ba&Aa\\0.2&Ac&{\tt--}&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cb&Cc&Ca&Ca\\0.3&Ac&{\tt--}&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cc&Cc&Cb&Cb\\0.4&Ac&{\tt--}&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cc&Cc&Cc&Cb\\0.5&Ac&{\tt--}&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cc&Cc&Cc&Cc\\0.6&Bc&{\tt--}&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cc&Cc&Cc&Cc\\0.7&Bc&{\tt--}&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cc&Cc&Cc&Cc\\0.8&Ac&{\tt--}&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cd&Cc&Cc&Cc\\0.9&Bd&{\tt--}&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cd&Cc&Cc&Cc\\1.0&Bd&{\tt--}&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cd&Cc&Cc&Cc\\\hline\hline\multicolumn{11}{c}{CSJデータ}\\\hline&\multicolumn{10}{c}{見出し}\\\cline{2-11}文の位置&0.1&0.2&0.3&0.4&0.5&0.6&0.7&0.8&0.9&1.0\\\hline0.1&Bc&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cc&Cc&Bb&Cc&Aa\\0.2&Bc&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cc&Cb&Cc&Cc&Bb\\0.3&Cc&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cc&Cc&Cc&Cc&Cc\\0.4&Cc&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Oo&Cc&Cc&Cc&Cc\\0.5&Cc&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Oo&Cc&Oo&Cc&Cc\\0.6&Cc&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cc&Cc&Cc&Cc&Cc\\0.7&Cc&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Oo&Cc&Cc&Cc&Cc\\0.8&Cc&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Cc&Cc&Cc&Cc&Cc\\0.9&Ac&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Ca&Cc&Cc&Cc&Cb\\1.0&Ab&{\tt--}&{\tt--}&{\tt--}&{\tt--}&Ca&Aa&Ba&Ba&Ba\\\hline\end{tabular}\end{center}\end{table}まず,表\ref{table:diagram_pst_len}に示した文の位置と文長の組み合わせについて調べてみると,DUCデータでは文の位置が先頭から20\,\%以内で,かつ文長による順位が50\,\%以降の場合(文の位置\(\le\)0.2,文長\(\ge\)0.5)において重要文の数,割合とも大きいことが分かる.一方CSJデータでは文の位置が末尾から10\,\%以内で,かつ文長による順位が30\,\%以降の場合(文の位置=1.0,文長\(\ge\)0.3)に重要文の数,割合とも大きい.次に,文の位置とtf*idf値の組み合わせについての結果を表\ref{table:diagram_pst_tfidf}に示す.CSJデータにおいて文の位置が先頭から20\,\%以内のところに重要文の割合が大きい区分が若干増えたこと以外は,文長との組み合わせとほぼ同様の結果になっている.これらの結果から,文の位置と組み合わせて文長またはtf*idf値を用いた際には,ともにそのスコアが低い文を除くことで文の位置による重要文抽出の精度をより向上させていることが分かる.最後に,文の位置と見出しの組み合わせについての結果を表\ref{table:diagram_pst_hlnoun}に示す.見出しを用いた評価尺度の場合,ほぼ半数の文が見出しと共通する語を持たないため,スコアが0になる.このため,対応する文が存在しない区分が中間に現われている.見出しを用いた評価尺度においては,そのスコアが0であるような文においても重要文の数が多く,文長またはtf*idf値のような効果は得られていない.しかし,DUCデータにおいて文の位置が先頭から20\,\%以内で見出しによる順位が70\,\%以降の場合(文の位置\(\le\)0.2,見出し\(\ge\)0.7),重要文の割合は大きくなっている.また,CSJデータにおいては,文の位置が末尾から10\,\%以内(文の位置=1.0)の場合に加えて,文の位置=0.1,見出し=1.0の区分においても重要文の数,割合が大きくなっている.従って,文の位置と組み合わせて見出しの情報を用いた場合には,文長やtf*idf値とは逆に,そのスコアが高い文を優先することで文の位置単独の場合よりも重要文抽出の精度が向上するといえる.これらの実験結果をまとめると「重要文抽出に用いた素性を組み合わせたときに,その値の増減に応じて連続的に重要文の数・割合が増えるのではなく,組み合わせによってできる一定の境界があって,その内外で重要文の数・割合が大きく異なることがある」ということになる.つまり,重要文抽出を行う際には,式\ref{eq:weight}のように素性を用いた評価尺度を線型に組み合わせる方法ではなく,ここで発見された特徴を生かすような非線型の評価尺度を導入することで,同じ素性を用いても精度向上の可能性があるということである.また,DUCデータとCSJデータの双方において素性の組み合わせによる非線型な重要文の数・割合の変化がみられたことは,英語新聞記事と日本語講演録という異なる種類のデータにおいても,非線型な素性の組み合わせが重要文抽出に有効であることを示唆しているといえる.日本語新聞記事においても,\cite{hirao:phdthesis}はSVMを用いた重要文抽出を行う際に連続値を持つ素性を一定の値域に区切って二値素性に変換して用いているが,その分析において報告されている有効な二値素性の組み合わせからも,同様に非線型な素性の組み合わせが有効であることが推測される. \section{おわりに} 本論文では,重要文抽出に基いた要約システムの評価結果を日本語新聞記事,英語新聞記事,日本語話し言葉コーパスの3種類のデータそれぞれについて示した.本システムは,日本語新聞記事の要約評価ワークショップTSC(2001),英語新聞記事の要約評価ワークショップDUC(2001)の各々において,単一文書の要約課題において良好な成績をおさめた.また要約率が10\,\%程度と小さいときには,文境界が正しく検出できれば,講演録などの話し言葉に対する重要文抽出は新聞記事に対する重要文抽出に匹敵しうることを示した.要約データの分析においては,トレーニングデータにおいて各素性に基づく評価尺度の値と重要文の分布を示し,各素性の重要文抽出における有効性を3種類のデータ間で比較した.また,素性間の順位相関係数を求め,用いたどのデータにおいても,文の位置とその他の素性との相関に比べて文の位置以外の素性間の相関が高く,重要文抽出に用いられるこれらの代表的な素性が必ずしも相互に独立ではないことを示した.さらに,比較的独立性の高い文の位置とそれ以外の素性との組み合わせについて重要文の分布を調べ,文の位置と組み合わせて文長またはtf*idf値を用いた際には,ともにそのスコアが低い文を除くことで文の位置による重要文抽出の精度が向上し,文の位置と組み合わせて見出しの情報を用いた場合には,逆にそのスコアが高い文を優先することで文の位置単独の場合よりも重要文抽出の精度が向上していることを示した.今後の課題としては,今回の実験で用いた素性と独立性の高い新たな素性を導入し,それによって重要文抽出の精度を上げることを考えている.本論文では,異なる言語・種類のコーパス間での比較を主眼としたため素性については重要文抽出において代表的な素性のみを対象としたが,例えば構文情報や,\cite{hirao:phdthesis}が用いたような機能語・モダリティを示す表現など,新たな素性についてもその独立性や組み合わせによる有効性を調べ,重要文抽出に有用で特定のコーパスに依存しないような素性を見出していきたい.\begin{acknowledgment}本研究を進めるにあたっては,通信総合研究所の自然言語グループのメンバーとの討論が参考になりました.特に内元清貴氏には有益な助言をいただき感謝します.\end{acknowledgment}\bibliographystyle{jnlpbbl}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aone,Okurowski\BBA\Gorlinsky}{Aoneet~al.}{1998}]{aone:colingacl1998}Aone,C.,Okurowski,M.~E.,\BBA\Gorlinsky,J.\BBOP1998\BBCP.\newblock\BBOQ{Trainable,ScalableSummarizationUsingRobustNLPandMachineLearning}\BBCQ\\newblockIn{\BemProc.ofthe17thInternationalConferenceonComputationalLinguisticsand36thAnnualMeetingoftheAssociationforComputationalLinguistics},pp.~62--66.\bibitem[\protect\BCAY{DUC}{DUC}{2001}]{DUC:2001}DUC\BBOP2001\BBCP.\newblock\BBOQDocumentUnderstandingConference\BBCQ\newblock\slashbr{http://duc.nist.gov/}.\bibitem[\protect\BCAY{Edmundson}{Edmundson}{1969}]{edmundson:acm1969}Edmundson,H.\BBOP1969\BBCP.\newblock\BBOQNewmethodsinautomaticabstracting\BBCQ\\newblock{\BemJournalofACM},{\Bbf16}(2),pp.~264--285.\bibitem[\protect\BCAY{古井,前川,井佐原}{古井\Jetal}{2000}]{furui:asj2000}古井貞煕,前川喜久雄,井佐原均\BBOP2000\BBCP.\newblock\JBOQ科学技術振興調整費開放的融合研究推進制度—大規模コーパスに基づく「話し言葉工学」の構築—\JBCQ\\newblock\Jem{日本音響学会誌},{\Bbf56}(11),pp.~752--755.\bibitem[\protect\BCAY{Hirao}{Hirao}{2002}]{hirao:phdthesis}Hirao,T.\BBOP2002\BBCP.\newblock{\Bem{AStudyonGenericandUser-FocusedAutomaticSummarization}}.\newblockPh.D.\thesis,NaraInstituteofScienceandTechnology.\bibitem[\protect\BCAY{IREX}{IREX}{1999}]{IREX}IREX\BBOP1999\BBCP.\newblock\BBOQInformationRetrievalandExtractionExercise\BBCQ\\\newblock\slashbr{http://cs.nyu.edu/cs/projects/proteus/irex}.\bibitem[\protect\BCAY{Kupiec,Pedersen\BBA\Chen}{Kupiecet~al.}{1995}]{kupiec:sigir1995-s}Kupiec,J.,Pedersen,J.,\BBA\Chen,F.\BBOP1995\BBCP.\newblock\BBOQ{ATrainableDocumentSummarizaer}\BBCQ\\newblockIn{\BemProc.ofSIGIR'95},pp.~68--73.\bibitem[\protect\BCAY{黒橋,長尾}{黒橋,長尾}{1999}]{juman361}黒橋禎夫,長尾真\BBOP1999\BBCP.\newblock\Jem{日本語形態素解析システム{JUMAN}version3.61}.\newblock京都大学.\bibitem[\protect\BCAY{Lin}{Lin}{1999}]{lin:cikm1999}Lin,C.-Y.\BBOP1999\BBCP.\newblock\BBOQTrainingaSelectionFunctionforExtraction\BBCQ\\newblockIn{\BemProc.oftheCIKM'99}.\bibitem[\protect\BCAY{Mani\BBA\Maybury}{Mani\BBA\Maybury}{1999}]{mani:aats}Mani,I.\BBA\Maybury,M.\BBOP1999\BBCP.\newblock{\Bem{AdvancesinAutomaticTextSummarization}}.\newblockTheMITPress,Cambridge,MA.\bibitem[\protect\BCAY{Nobata,Sekine,Murata,Uchimoto,Utiyama\BBA\Isahara}{Nobataet~al.}{2001}]{nobata:tsc2001}Nobata,C.,Sekine,S.,Murata,M.,Uchimoto,K.,Utiyama,M.,\BBA\Isahara,H.\BBOP2001\BBCP.\newblock\BBOQSentenceExtractionSystemAssemblingMultipleEvidence\BBCQ\\newblockIn{\BemProceedingsoftheSecondNTCIRWorkshop},pp.~319--324.\bibitem[\protect\BCAY{野畑,関根,内元,井佐原}{野畑\Jetal}{2002}]{nobata:orc2002}野畑周,関根聡,内元清貴,井佐原均\BBOP2002\BBCP.\newblock\JBOQ話し言葉コーパスにおける文の切り分けと重要文抽出\JBCQ\\newblock\Jem{第2回話し言葉の科学と工学ワークショップ},pp.~93--100.\bibitem[\protect\BCAY{野本,松本}{野本,松本}{1997}]{nomoto:ipsj1997}野本忠司,松本祐治\BBOP1997\BBCP.\newblock\JBOQ人間の重要文判定に基づいた自動要約の試み\JBCQ\\newblockIn{\BemIPSJ-NL120-11},pp.~71--76.\bibitem[\protect\BCAY{奥村,難波}{奥村,難波}{1999}]{okumura:nlp1999-07}奥村学,難波英嗣\BBOP1999\BBCP.\newblock\JBOQテキスト自動要約に関する研究動向(巻頭言に代えて)\JBCQ\\newblock\Jem{自然言語処理},{\Bbf6}(6),pp.~1--26.\bibitem[\protect\BCAY{Robertson\BBA\Walker}{Robertson\BBA\Walker}{1994}]{2poisson}Robertson,S.~E.\BBA\Walker,S.\BBOP1994\BBCP.\newblock\BBOQSomeSimpleEffectiveApproximationstothe2-PoissonModelforProbabilisticWeightedRetreival\BBCQ\\newblockIn{\BemProc.oftheSeventeenthAnnualInternationalACMSIGIRConferenceonResearchandDevelopmentinInformationRetrieval}.\bibitem[\protect\BCAY{Sekine\BBA\Nobata}{Sekine\BBA\Nobata}{2001}]{sekine:duc2001}Sekine,S.\BBA\Nobata,C.\BBOP2001\BBCP.\newblock\BBOQ{SentenceExtractionwithInformationExtractionTechnique}\BBCQ\\newblockIn{\BemOnlineProceedingsoftheDocumentUnderstandingConference:http://www.itl.nist.gov/iaui/894.02/projects/duc/duc2001/agenda\_duc2001.html}\NewOrleans,LA.\bibitem[\protect\BCAY{Sekine,Sudo\BBA\Nobata}{Sekineet~al.}{2002}]{sekine:lrec2002}Sekine,S.,Sudo,K.,\BBA\Nobata,C.\BBOP2002\BBCP.\newblock\BBOQ{ExtendedNamedEntityHierarchy}\BBCQ\\newblockIn{\BemProceedingsoftheLREC-2002Conference},pp.~1818--1824.\bibitem[\protect\BCAY{Sudo,Sekine\BBA\Grishman}{Sudoet~al.}{2001}]{sudo:hlt2001}Sudo,K.,Sekine,S.,\BBA\Grishman,R.\BBOP2001\BBCP.\newblock\BBOQAutomaticPatternAcquisitionforJapaneseInformationExtraction\BBCQ\\newblockIn{\BemProc.ofHumanLanguageTechnologyConference}\SanDiego,California,USA.\bibitem[\protect\BCAY{TSC}{TSC}{2001}]{TSC1}TSC\BBOP2001\BBCP.\newblock\BBOQ{ProceedingsoftheSecondNTCIRWorkshoponResearchinChinese\&JapaneseTextRetrievalandTextSummarization(NTCIR2)}\BBCQ.\newblockNationalInstituteofInformatics.\bibitem[\protect\BCAY{Uchimoto,Ma,Murata,Ozaku\BBA\Isahara}{Uchimotoet~al.}{2000}]{uchimoto:acl2000}Uchimoto,K.,Ma,Q.,Murata,M.,Ozaku,H.,\BBA\Isahara,H.\BBOP2000\BBCP.\newblock\BBOQ{NamedEntityExtractionBasedonAMaximumEntropyModelandTransformationRules}\BBCQ\\newblockIn{\BemProc.ofthe38thAnnualMeetingofAssociationforComputationalLinguistics(ACL2000)},pp.~326--335.\bibitem[\protect\BCAY{Watanabe}{Watanabe}{1996}]{watanabe:coling1996}Watanabe,H.\BBOP1996\BBCP.\newblock\BBOQ{AMethodforAbstractingNewspaperArticlesbyUsingSurfaceClues}\BBCQ\\newblockIn{\BemProc.ofthe16thInternationalConferenceonComputationalLinguistics},pp.~974--979.\end{thebibliography}\begin{biography}\biotitle{略歴}\bioauthor{野畑周}{1995年東京大学理学部情報科学科卒業.2000年東京大学大学院理学系研究科博士課程修了.博士(理学).同年郵政省通信総合研究所非常勤研究職員.現在,独立行政法人通信総合研究所けいはんな情報通信融合研究センター自然言語グループ専攻研究員.言語処理学会,情報処理学会,ACL各会員.}\bioauthor{関根聡}{AssistantResearchProfessor,NewYorkUniversity.1987年東京工業大学応用物理学科卒業.同年松下電器東京研究所に入社.1990年〜1992年UMIST客員研究員.1992年UMIST計算言語学科修士.1994年からNYU,ComputerScienceDepartment,AssitantResearchScientist.1998年Ph.D..同年から現職.自然言語処理の研究に従事.コーパスベース,パーザー,分野依存性,情報抽出,情報検索等に興味を持つ.言語処理学会,人工知能学会,ACL各会員.}\bioauthor{井佐原均}{1978年京都大学工学部電気工学第二学科卒業.1980年同大学院修士課程修了.博士(工学).1980年通商産業省電子技術総合研究所入所.1995年郵政省通信総合研究所.現在,独立行政法人通信総合研究所けいはんな情報通信融合研究センター自然言語グループリーダー.言語処理学会,情報処理学会,人工知能学会,日本認知科学会,各会員.}\bioreceived{受付}\biorevised{再受付}\bioaccepted{採録}\end{biography}\end{document}