Datasets:
id
stringlengths 9
9
| text
stringlengths 8.54k
92.7k
| title
stringclasses 1
value |
---|---|---|
V27N04-02
|
\section{はじめに}
\label{sec:intro}並列構造とは等位接続詞が結びつける句(並列句)から成る構造である.並列句の範囲の解釈には曖昧性があり,しばしば人間にとっても同定することが難しい.例えば,``{\itToshiba'slineofportables,forexample,featurestheT-1000,whichisinthesameweightclass\underline{but}ismuchslower\underline{and}haslessmemory,\underline{and}theT-1600,whichalsousesa286microprocessor,\underline{but}whichweighsalmosttwiceasmuch\underline{and}isthreetimesthesize}.''という文を一目見て,各等位接続詞に対する並列句を全て見つけることは困難である.並列構造の存在は文を長くし,解釈を曖昧にするため,構文解析において誤りの要因となっている.等位接続詞に対する並列句を同定する方法として,先行研究は並列句の二つの性質を利用してきた.(1)類似性-並列句は類似した言語表現となる傾向がある.(2)可換性-並列句を入れ替えても文全体が文法的に適格である.\citeA{ficler-goldberg:2016:EMNLP}は並列句ペアの類似性と可換性の特徴に基づいた計算を行うニューラルネットワークと構文解析器を組み合わせる方法を提案した.\citeA{teranishi-EtAl:2017:IJCNLP}もこれらの二つの特徴を取り入れているが,構文解析の結果を用いずに最高精度の性能を達成している.どちらのアプローチも\citeA{shimbo-hara:2007:EMNLP-CoNLL}や\citeA{hara-EtAl:2009:ACL-IJCNLP}の類似性に基づく手法と比べて高い性能を得ているが,三つ以上の並列句を持つ並列構造や文中の複数の並列構造をうまく取り扱うことができない.特に文中に複数の並列構造が存在する場合には,並列構造の範囲が不整合に重なり合う状況が生じ得るという問題がある.対して,\citeA{hara-EtAl:2009:ACL-IJCNLP}は並列構造の範囲に不整合が生じることなく並列構造を導出できる生成規則を用いている.本論文では,並列構造解析における新しいフレームワークを提案する.このフレームワークでは等位接続詞と語系列上の二つの範囲(スパン)を取るスコア関数を用いる.スコア関数は二つのスパンが並列となる場合に高いスコアを返す働きを持つ.この関数を並列構造の導出規則に基づくCKYアルゴリズムと組み合わせることで,システムは入力文に対する並列構造の集合を範囲の競合なく出力する.このようなスコア関数を得るために,並列構造解析のタスクを等位接続詞の同定,並列句ペアの内側境界の同定,外側境界の同定の三つのサブタスクに分解し,それぞれに異なるニューラルネットワークを用いる.各ニューラルネットワークは並列構造の構成要素に対して局所的に学習を行うが,CKYアルゴリズムによる構文解析時に協調して働く.英語における評価実験の結果,我々のモデルは並列構造を範囲の競合なく導出できることを保証しつつ,\citeA{teranishi-EtAl:2017:IJCNLP}の手法の拡張や先行研究と比較して高い精度を達成していることが示された.本研究の貢献は以下のとおりである.\begin{itemize}\setlength{\parskip}{0cm}\setlength{\itemsep}{0cm}\item並列句ペアに対するスコア関数の学習・適用によって並列構造を解析するというフレームワークを提案した.\item並列構造解析を三つのサブタスクに分解し,CKYアルゴリズムによる構文解析において協調して働くモデルを開発した.\item三つ以上の並列句を含む並列構造や文中の複数の並列構造を範囲の競合なく導出可能なシステムを確立し,既存手法を上回る解析精度を達成した.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{並列構造解析}
\label{sec:coord}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{並列構造}並列構造(coordinatestructure)とは,等位接続詞(coordinator)が結びつける複数の句から成る統語構造である\footnote{並列句は句構造文法における句(phrase)と必ずしも一致しないが,ここでは便宜上``句''という表現を用いる.}.等位接続詞によって結び付けられた句は並列句(conjunct)と呼ばれる.英語において,andやor,butなどの等位接続詞によって形成される並列構造に連接して,カンマ(,)やセミコロン(;)なども等位接続の働きを持って並列句をさらに連結させる場合がある.本論文では,このように等位接続詞と協調して等位接続の役割を果たす語を準等位接続詞と呼ぶ.準等位接続詞は等位接続詞に付随せずに単体で並列構造を形成することができない.並列構造は多くの場合,等位接続詞の出現によって検出されるが,butが前置詞として働く場合があるように,語の表層形のみから並列構造の有無を判定することはできない.本論文では,等位接続詞・準等位接続詞となり得る語をそれぞれ並列キー・準並列キーと呼ぶ.英語においてはaswellasなどの複数の語から成る表現が等位接続の働きをする場合があるが,本研究では一語から成る等位接続詞を解析の対象とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{タスク定義と困難さ}並列構造解析とは,文に現れる並列キーに対して並列句を同定するタスクである.より具体的には,並列キーが並列構造を形成する場合は,その並列構造に含まれる全ての並列句の範囲(スパン)を$[始点,終点]$の形式で同定する.反対に並列キーが並列構造を形成しない場合は,並列構造の不在を表す{\scNone}を返す.並列キーと見なされる語は解析に先立って定義されるものとする.並列構造解析のタスクの難しさは複雑な並列構造の取扱いにくさから生じており,代表的には二つのケースが挙げられる.一つは並列構造が三つ以上の並列句を含む場合であり,もう一つは文中に複数の並列構造が存在する場合である.並列構造は準等位接続詞を伴って三つ以上の並列句を持つ可能性があるため,カンマに代表される準並列キーが実際に等位接続の役割を果たしているかを判定し,どの並列構造に属して並列句を連結しているのかを突き止めなければならない.文中に複数の並列構造が存在する場合,各並列構造は別の並列構造に包含されて入れ子の形で出現するか,もしくは他の並列構造と範囲が全く重なり合うことなく独立して出現する.言い換えると,二つの並列構造の範囲が部分的に重なり合うことはない.したがって,並列構造解析のタスクでは,各並列構造がいくつの並列句を含んでいるか知ることができない状態で,複数の並列構造の範囲の制約を満たしながら個々の並列句を同定しなければならない.並列構造解析のタスクは句構造解析や依存構造解析などの構文解析によって必ずしも解くことができない点でも困難である.例えば,``Imet[BobonSunday]and[AliceonWednesday].''という文では,``BobonSunday''と``AliceonWednesday''が並列となっているが,これらはふつう句構造文法の句と対応しない.また,``Wesawanold[man]and[woman].''と``Wesawa[beautifulwoman]and[man].''という二つの文では,前者はoldの主辞がmanであり後者はbeautifulの主辞はwomanであり,どちらも同一の依存構造を持ち,Stanford/UniversalDependencies\cite{de-marneffe-EtAl:2006:LREC,nivre-EtAl:2016:LREC}のアノテーションでは二つの文の並列構造の範囲の違いを表すことができない.さらに,``[Maryalwaysorderswine],and[Sallybeer].''という文において,andに後続する並列句では``alwaysorders''が省略されているように,空所化(gapping)という現象が生じる場合がある.このような空所化を句構造や依存構造では適切に表現することができず,文の統語構造がしばしば不自然な構文木で表されるため,構文解析の障害になるという問題がある.したがって,句構造や依存構造などを対象にした構文解析の枠組みで並列構造を解析することは容易ではなく,並列構造解析に特化した手法の研究がなされている\footnote{組合せ範疇文法など,複雑な並列構造を説明できる文法も存在するが,それらの文法における統計的構文解析によって必ずしも並列構造を精度良く解析できるわけではない.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{並列構造の木構造による表現}並列構造の階層関係や並列構造に含まれる複数の並列句の関係は木構造として表現することができる.本論文では並列構造の木構造による表現を並列構造木と呼ぶ.\figref{tree}は並列構造木の例である.木構造による並列構造の表現は,複数の並列構造の範囲が競合しない(部分的に重なり合う状態とならない)点,並列句の数を二つに限定せず制限なく表せる点で適している.言い換えれば,文に含まれる並列構造を木構造として出力することで,並列構造の範囲の制約は必然的に満たされる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{並列構造の範囲の組み合わせ}並列構造解析の一つの障害となる点として,並列構造に含まれる並列句の範囲の組み合わせ数が膨大になることが挙げられる.文の長さを$N$,等位接続詞の出現位置を$k$とする.並列句の数を二つに限定し,並列句が等位接続詞に隣接すると仮定した場合,並列句範囲の組み合わせ数は$(k-1)\times(N-k)$通りである.等位接続詞が文のほぼ中心位置に出現するとき,その組み合わせ数はたかだか$(N/2)^2$通りである.しかし実際には並列句は必ずしも等位接続詞に隣接せず,``[A]and,ontheotherhand,[B]''のように等位接続詞と並列句の間に挿入句が出現する場合がある.このような場合を考慮すると並列句範囲の組み合わせ数は$k(k-1)/2\,\times\,(N-k)(N-k+1)/2$通りとなり,等位接続詞が文のほぼ中心位置に出現するとき,その組み合わせ数はたかだか$(N/2)^4/4$通りである.これらの組み合わせ全てについて句のペアがどの程度並列になっているかを計算する場合,時間計算量$\mathcal{O}(N^4)$を要し,計算方法によっては膨大な時間がかかる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{27-4ia1f1.eps}\end{center}\hangcaption{並列構造木の例.coordは並列構造,conjは並列句,ccは等位接続詞,cc-subは準等位接続詞を表す.}\label{fig:tree}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%実際には,準等位接続詞の出現により三つ以上の並列句が出現する場合や文中に複数の並列構造が出現する場合を考慮すると,それらの組み合わせの総当たり数は爆発的に増加するため,並列構造の範囲の組み合わせ全てについて範囲の妥当性を検証・比較することは現実的ではない.本研究では局所的な評価・比較を帰納的に適用することにより,計算量を抑えながら並列構造の範囲の組み合わせ全てについて考慮する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{並列句の特徴と従来研究}
\label{sec:rwork}並列構造解析,すなわち等位接続詞が結びつける並列句の範囲同定において,有用な二つの特徴がある\cite{ficler-goldberg:2016:EMNLP,teranishi-EtAl:2017:IJCNLP}.\begin{itemize}\item{\bf類似性}:同一の並列構造に属する並列句は,句の構文構造・意味の点で類似する.\item{\bf可換性}:同一の並列構造に属する並列句は,互いに入れ替えても文の流暢性が保たれる.\end{itemize}\pagebreak例として,``{\itTheTassnewsagencysaidthe1990budgetanticipatesincomeof429.9billionrubles(US\$693.4billion)andexpendituresof489.9billionrubles(US\$790.2billion).}''という文を挙げる.等位接続詞andに対する二つの並列句,``incomeof429.9billionrubles(US\$693.4billion)''と``expendituresof489.9billionrubles(US\$790.2billion)''はともに名詞句であり,ほぼ同一の品詞系列・句構造を持つ(類似性,%%%%\figref{characteristics-sim}).\figref{characteristics}a).また,これらの並列句を互いに入れ替えた場合であっても文法性を損なうことなく,構文的に正しい文が成立する(可換性,%%%%\figref{characteristics-repl}).\figref{characteristics}b).%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.2\begin{figure}[t]\begin{center}\includegraphics{27-4ia1f2.eps}\end{center}%%%%\subcaption{構文構造・意味の点で類似する並列句の対.}%%%%\label{fig:characteristics-sim}%%%%\subcaption{並列句の対を互いに入れ替えた文.}%%%%\label{fig:characteristics-repl}\caption{並列句の特徴.}\label{fig:characteristics}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{並列句の類似性に基づく従来手法}並列構造解析のタスクにおいて,これまで並列句の類似性に基づく手法が盛んに研究されてきた.まず並列句が共通して持つ品詞タグ・意味ラベル・形態情報・構文構造に基づいてスコアを計算することによって,並列する名詞句ペアを同定する手法が開発された\cite{agarwal-boggess:1992:ACL,kurohashi-nagao:1994:CL,resnik:1999:JAIR,hogan:2007:ACL}.これらの研究に対し,\citeA{shimbo-hara:2007:EMNLP-CoNLL}は並列句の類似度に基づく識別モデルを提案した.Shimboらの手法において,並列句の類似度は系列アラインメントのノードとエッジに割り当てられた統語・形態情報の特徴の重み付き和として計算され,そのパラメータは機械学習手法であるパーセプトロンによって調整される.\citeA{hara-EtAl:2009:ACL-IJCNLP}はShimboらの手法を発展させ,並列構造に特化した文脈自由文法規則と組み合わせ,三つ以上の並列句を持つ並列構造や文中の複数の並列構造を範囲が競合することなく導出可能にした.\citeA{hanamoto-EtAl:2012:EACL}はHaraらの手法による解析結果と主辞駆動句構造文法の解析器の出力を双対分解によって一致させることで精度を向上させた.並列句の類似性に基づく並列構造の解析手法の発展により,名詞句の並列などの類似度が大きい並列句に対しては解析精度が向上してきた.しかしながら,動詞句や節の並列,形容詞・動詞など異なる統語範疇を持つ句の並列など,類似度が必ずしも高くない並列句の同定には課題が残った.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{並列句の類似性に依存しない手法}非類似となる並列句をとらえる方法として,\citeA{kawahara-kurohashi:2008:COLING}は類似性の素性を用いずに依存構造と格フレームに基づいて並列句の生成確率を学習し,範囲同定を行う手法を開発した.\citeA{yoshimoto-EtAl:2015:IWPT}はEisnerアルゴリズム\cite{eisner:1996:COLING}の規則を拡張し,依存構造とともに並列構造を同定する手法を提案している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ニューラルネットワークを用いた並列構造解析}近年,並列句の類似性・可換性に基づいたニューラルネットワークによるスコア計算を取り入れた並列構造解析の手法が研究されている.\citeA{ficler-goldberg:2016:EMNLP}は句の類似性のみならず可換性についても並列句ペアのスコア計算の素性として用いている.Ficlerらの手法は三つのコンポーネントから成り立っている.まず始めに二値分類器を用いて等位接続の働きをし得る語が実際に並列構造を持つか否かを予測する.次に並列構造を持つと予測された等位接続詞に対して,BerkeleyParser\cite{petrov-EtAl:2006:COL-ACL}を用いて並列句ペアの候補を抽出する.最後にニューラルネットワークを用いて並列句ペアの候補に対してスコア付けをし,最もスコアの高いペアをシステムの予測として出力する.Ficlerらの手法は従来の非ニューラルネットワークによる手法と比較して高い精度で並列句の範囲を同定することができるが,並列句ペアの候補抽出やスコア計算の過程において構文解析器の結果を用いており,構文解析の結果に強く依存しているという欠点がある.パイプライン的なアプローチに対し,\citeA{teranishi-EtAl:2017:IJCNLP}はニューラルネットワークによるエンドツーエンドの解析手法を開発した.Teranishiらの手法は直接的に個々の並列句を求めるのではなく,並列構造全体の始点・終点を予測した後に,並列構造を個々の並列句に分割するというトップダウンなアルゴリズムを採用している.並列句の類似性・可換性を考慮したニューラルネットワークによって並列構造の始点・終点が決定されるが,構文解析の結果を用いないという点でFiclerらの手法と異なる.Teranishiらの手法はFiclerらの手法よりも高い解析精度を達成したが,\citeA{hara-EtAl:2009:ACL-IJCNLP}の手法のように複数の並列構造を同時に考慮して,範囲の競合なく並列構造を導出することができていない.本研究は,(1)\,Haraらの手法のように並列構造の範囲が文全体として整合性を保つように制約を与える,(2)\,Teranishiらの手法のように並列となる語系列のペアに対して高いスコアを割り当てられるモデルを導入する,という二点を組み合わせる試みとして位置づけられる.Haraらの手法は動的計画法によりボトムアップに並列構造を導出しているのに対して,Teranishiらの手法はトップダウンに並列句を同定しているという違いがある.また,動的計画法の過程で並列句ペアの候補を比較する際に,逐一ニューラルネットワークによってスコア計算を行うことは計算量・解析速度の点で現実的なアプローチではない.本研究は並列句ペア候補のスコア計算を分割することで,ニューラルネットワークを用いながら動的計画法を適用可能にし,並列構造を範囲の競合なく導出できるようにしたことで,従来研究より優れた解析性能を達成している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{文脈自由文法規則を用いた構文解析}
\label{sec:parsing}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{並列構造の構文解析}本節では並列構造を構文木として出力する方法について述べる\footnote{提案手法は任意の言語に適用できるが,本節以降は英語を対象として手法の説明および実装・評価を行い,英語以外の言語への適用については\secref{analysis}で議論する.}.並列構造を包含する文の構文木は\tabref{cfg}の文脈自由文法(CFG)規則から導出され,並列構造木と一対一に対応付けすることができる.並列構造を木として表現する利点については\secref{coord}で述べたが,CFG規則を用いる利点として,(1)\,並列構造の範囲が競合するような候補を排除し,並列構造木を導出できる組み合わせのみを探索できる,(2)\,CKYアルゴリズムの適用により効率的に並列構造木を導出できる,点が挙げられる.\tabref{cfg}のCFG規則は\citeA{hara-EtAl:2009:ACL-IJCNLP}が開発した規則をもとに作られているが,我々の規則が等位接続詞と並列句の間に任意の句が挿入された並列構造であっても導出できるのに対し,Haraらの規則は等位接続詞に隣接する並列句しか導出できないという違いがある.本規則を用いることで,並列構造のアノテーションが付与されたPennTreebankコーパス\cite{ficler-goldberg:2016:ACL}において,99.5\%の並列構造を構文木として導出することができる\footnote{導出不可能な並列構造は``[A]and[B]and[C]''のような等位接続詞の一つが準等位接続詞のように働く場合がほとんどであるが,このような表現であっても入れ子になった二つの並列構造として導出することができる.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[t]\caption{並列構造木の導出規則}\label{tab:cfg}\input{01table01.tex}\vspace{4pt}\small(\ldots$|$\ldots)は括弧内のいずれかの語に,``*''は任意の語にマッチし,``?''は直前の要素の0または1回の出現を表す.\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tabref{cfg}の規則の適用により,同じ文から異なる構文木が複数導出され得る.そこで構文木に対してスコアを割り当てることで,最もスコアの高い構文木をシステムの出力とする.\begin{equation}\label{eq:parsing}\hat{T}=\argmax_{T\in\mathcal{T}_{G}(s)}(score(T))\end{equation}ここで,$\mathcal{T}_{G}(s)$は文脈自由文法$G$によって文$s$から導出可能な構文木の集合である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{スコア計算とCKYアルゴリズムの適用}本研究では並列構造の構文木に対して,非終端記号であるCOORDのノードと前終端記号のノードのみにスコアを割り当てる.COORDが付与されたノードに対するスコアは,関数$score_{coord}$によって与えられる.前終端記号について,その終端記号である語が並列キーとして定義された語の集合$\mathbb{S}_{cc}$または準並列キーとして定義された語の集合$\mathbb{S}_{sub{\text-}cc}$に属するとき,そのノードのスコアは関数$score_{ckey}$により計算される.終端記号の語が$\mathbb{S}_{cc}$または$\mathbb{S}_{sub{\text-}cc}$のいずれにも属さない場合,前終端記号はWに一意に決まり,そのノードのスコアは0とする.以上を整理して,スコア関数$score(T)$は次のように表される.\begin{align}\label{eq:scoring}score(T)&=\sum_{\langle[i,j],\ell\rangle\inT}score_{node}([i,j],\ell)\\score_{node}([i,j],\ell)&=\begin{cases}score_{coord}(i,j)&(\ell={\rmCOORD})\\score_{ckey}(i,\ell)&(\ell\in\{{\rmCC},{\rmCC{\text-}SUB},{\rmW}\},i=j,w_i\in\mathbb{S}_{cc}\cup\mathbb{S}_{sub{\text-}cc})\\0&(otherwise)\end{cases}\end{align}ここで$\langle[i,j],\ell\rangle$は構文木$T$に含まれるノードであり,ノードのスパン$[i,j]$とそのラベル$\ell$を表している.また,$w_i$は入力文の$i$番目に出現する語を表す.並列構造のノード$\langle[i,j],{\rmCOORD}\rangle$に対するスコア関数$score_{coord}$と,並列キーまたは準並列キーに該当する語の前終端ノードに対するスコア関数$score_{ckey}$の定義については次節にて述べる.本研究では,CFG規則の適用による並列構造の構文木の導出のためにCKYアルゴリズムを用いる.CKYアルゴリズムを適用するために,CFG規則はチョムスキー標準形に変換される\footnote{右辺が三項以上の規則について,本研究では右から順にバイナリ規則に変換する.}.CKYアルゴリズムを用いたCFG構文解析では,動的計画法により\eqref{parsing}の結果$\hat{T}$を時間計算量$\mathcal{O}(N^3)$($N$は入力文の単語数)によって効率良く求めることができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{文の前処理・後処理法}\label{sec:prepostproc}アメリカ英語において,引用のあとに続くピリオドやカンマは引用符の内側に置かれる.引用符で囲まれた句が三つ以上並列する場合に,並列句の区切りとなる準等位接続詞が引用符内で閉じてしまう(例:``associations,''``societies''and``councils'').このような並列構造は\tabref{cfg}の規則(2)から正しく導出することができず,規則(2)の適用によって準等位接続詞直後の並列句が閉じ引用符から開始してしまう.そこで引用符の内側に置かれた句読点を取り扱う方法について示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{引用符の削除・復元による方法}引用符の削除・復元による方法では,文の構文解析に先立って引用符を削除する.その後構文解析によって並列句の範囲を同定したあとに引用符を挿入する.例えば,``A,''``B''and``C,''という並列構造を持つ文に対して,システムが並列句の境界を[A],[B]and[C],と予測した場合,後処理によって``[A],''``[B]''and``[C],''と復元される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{引用符と句読点のスワップによる方法}引用符と句読点のスワップによる方法では,カンマと閉じ引用符がこの並び順で出現した場合に,構文解析に先立って位置を入れ替える.その際にスワップ位置を保持しておき,その後構文解析によって並列句の範囲を同定したあとに再びスワップすることで元の語順に戻す.例えば,``A,''``B''and``C,''という文に対して,システムが前処理後の並列句の境界を``[A]'',``[B]''and``[C]'',と予測した場合,後処理によって``[A],''``[B]''and``[C],''と復元される.\vspace{\baselineskip}本研究ではスワップによる前処理・後処理法を採用する\footnote{前処理・後処理を加える方法の他に,単に引用符を考慮したCFG規則を追加することもできるが,CFG規則を不用意に複雑にしてしまうため,本研究では採用していない.}.理由として,スワップによる方法では引用符を手がかりとして並列句の範囲を決定することができる点が挙げられる.また,イギリス英語のように閉じ引用符のあとにカンマが出現する場合,スワップによる方法では単に前処理・後処理が適用されずにそのままシステムによる予測ができるが,削除・復元による方法ではそのような場合であっても引用符が削除されてしまい,システムの予測時に引用符を手がかりとして役立てることができない.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{構文解析モデル}
\label{sec:models}本節では\secref{parsing}で示した構文解析アルゴリズムに用いるスコア関数$score_{coord}$,$score_{ckey}$の定義と学習方法について示す.提案手法ではスコア関数を,{\bf等位接続詞分類モデル},{\bf内側境界スコア付与モデル},{\bf外側境界スコア付与モデル}の三つのモデルにより構成する.\figref{overview}は本手法のフレームワークの概要図である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.3\begin{figure}[t]\begin{center}\includegraphics{27-4ia1f3.eps}\end{center}\hangcaption{並列構造解析のフレームワークの概観.CKYアルゴリズムの適用において,前終端記号の四角形ノードは等位接続詞分類モデルによって,COORDノードは内側・外側境界スコア付与モデルによってそれぞれスコア付けされる.}\label{fig:overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{モデル定義}$N$語の系列${w_{1:N}=w_1,\ldots,w_N}$と対応する品詞タグ系列${p_{1:N}=p_1,\ldots,p_N}$を入力として,我々のシステムは並列構造の集合${\{\langlet,\{[b^{(1)}_t,e^{(1)}_t],\ldots,[b^{(n)}_t,e^{(n)}_t]\}\rangle\}\;(n\geq2,b^{(i)}_t\leqe^{(i)}_t)}$を出力する.ここで$t$は等位接続詞の出現位置を表し,$[b^{(k)}_t,e^{(k)}_t]$は等位接続詞$w_t$によって形成される並列構造に含まれる並列句のうち先頭から$k$番目に出現する並列句であり,その開始位置が$b^{(k)}_t$,終了位置が$e^{(k)}_t$であることを表す.ここで並列構造に含まれる並列句の数$n$が$n\geq2$となっている理由は,並列構造に含まれる並列句の数をあらかじめ知ることができないためである.しかし,並列キーと準並列キーに対する並列句ペアの同定として,以下のようにタスクを定式化することができる.\begin{equation}\label{eq:problem}\begin{split}X&=\{w_{1:N},p_{1:N},C\}\\C&=\{t\,|\,w_t\in\mathbb{S}_{cc}\cup\mathbb{S}_{sub{\text-}cc}\}\\Y&=\{\langley^{ckey}_t,y^{pair}_t\rangle\,|\,t\inC\}\end{split}\end{equation}ここで$y^{ckey}_t$は語$w_t$が実際に等位接続の役割を果たしているか(${y^{ckey}_t=1}$),または果たしていないか(${y^{ckey}_t=0}$)を表す二値のラベルであり,$y^{pair}_t$は並列句スパンのペアである.また,${y^{ckey}_t=0}$のとき,対応する並列句ペアが存在しないことから${y^{pair}_t=\varnothing}$となる.${t=1}$または${t=N}$の場合について,語$w_t$は文内に並列構造を形成することができないため${y^{ckey}_t=0}$となる.本論文では,等位接続詞と成り得る語の集合$\mathbb{S}_{cc}$と準等位接続詞と成り得る語の集合$\mathbb{S}_{sub{\text-}cc}$をそれぞれ\{``and'',``or'',``but'',``nor'',``and/or''\}と\{``,'',``;'',``:''\}と定義する.提案手法では,$y^{pair}_t$の四つの境界―(準)等位接続詞の左側に出現する並列句の始点・終点,右側の並列句の始点・終点―に対して,内側境界(左側並列句の終点・右側並列句の始点)を同定するモデルと外側境界(左側並列句の始点・右側並列句の終点)を同定するモデルの二つを用いる\footnote{四つの境界の分割方法として,「句のペアの``二つの始点''と``二つの終点''」や「``左側並列句の始点・終点''と\mbox{``右側並列句の始点・終点''}」のような分割も考えられる.しかし予備実験の結果,「左側並列句の始点・終点と右側並列句の始点・終点」による分割は,一方の並列句を決定するときに他方の並列句を考慮しないため,並列句の類似性や可換性のような並列句ペアの特徴を用いることができず,十分な解析性能が得られなかった.「句のペアの二つの始点と二つの終点」による分割は,並列句ペアの始点同士・終点同士の類似性や境界前後の文脈との整合性を考慮できるものの,左側並列句の終点と右側並列句の始点がほとんどの場合に等位接続詞と隣接することから,モデルの訓練時に左側並列句の始点と右側並列句の終点を独立に学習している状態に陥り,提案手法の分割と比較して高い精度が得られなかった.}.四つの境界の組み合わせを列挙する場合の時間計算量は$\mathcal{O}(N^4)$であるが,内側・外側境界に分割して数え上げた場合は$\mathcal{O}(N^2)+\mathcal{O}(N^2)=\mathcal{O}(N^2)$となり,計算量を抑えることができる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{等位接続詞分類モデル}等位接続詞分類モデルは並列キーおよび準並列キーのラベルを予測する二値分類器である.\begin{equation}P_{\theta}(y^{ckey}_t\,|\,t)={\rmsoftmax}(f_{ckey}(t))\end{equation}ここで$\theta$はモデルのパラメータ集合である.二値分類の損失関数は以下のとおりに計算される.\begin{equation}\label{eq:coord-loss}\ell^{ckey}_{\theta}(X,Y)=-\sum_{\langley^{ckey}_t,y^{pair}_t\rangle\inY}\logP_{\theta}(y^{ckey}_t\,|\,t)\end{equation}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{内側境界スコア付与モデル}内側境界スコア付与モデルは並列句のペアに対し,その内側境界に基づいてスコアを付与するモデルである.本論文では,左側並列句の始点,終点,右側並列句の始点,終点をそれぞれ$b^l,e^l,b^r,e^r$と表す.並列キー$w_t$に対する内側境界$(e^l,b^r)$のスコアは以下のように計算される.\begin{equation}\label{eq:inner-scores}{\textsc{Score}}^{inner}_{\theta}(e^l,b^r,t)=f_{inner}(e^l,b^r,t)\end{equation}内側境界の確率値は全ての可能な内側境界の組み合わせにおけるスコアを正規化することで計算される.\begin{gather}\label{eq:inner-pairs}I_{t}=\{(1,t+1),(1,t+2),\ldots,(1,N),(2,t+1),\ldots,(t-1,N)\}\\[1ex]\label{eq:inner-probability}P_{\theta}(y^{pair}_t=([*,e^l],[b^r,*])\,|\,t)=\frac{\exp{({\textsc{Score}}^{inner}_{\theta}(e^l,b^r,t))}}{\sum\limits_{(e^{\primel},b^{\primer})\inI_{t}}\exp{({\textsc{Score}}^{inner}_{\theta}(e^{\primel},b^{\primer},t))}}\\[1ex]\label{eq:inner-loss}\ell^{inner}_{\theta}(X,Y)=-\sum_{\langley^{ckey}_t,y^{pair}_t\rangle\inY}y^{ckey}_t\logP_{\theta}(y^{pair}_t\,|\,t)\end{gather}ここで項$y^{ckey}_t\logP_{\theta}(y^{pair}_t\,|\,t)$は,(準)並列キーが等位接続となる場合(${y^{ckey}_t=1}$)のみ交差エントロピー損失が計算され,等位接続とならない場合(${y^{ckey}_t=0}$)は0となることを意味する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{外側境界スコア付与モデル}内側境界スコア付与モデルと同様に外側境界$b^l,e^r$の確率$P_{\theta}(y^{pair}_t=([b^l,*],[*,e^r])\,|\,t)$は外側境界の全ての可能な組み合わせ$O_{t}$から計算される.同様に,損失関数$\ell^{outer}_{\theta}$はスコア関数${\textsc{Score}}^{outer}_{\theta}$$(b^l,e^r,t)=f_{outer}(b^l,e^r,t)$を用いて定義される.ここで内側境界の集合$I_{t}$と外側境界の集合$O_{t}$は,境界の可能な組み合わせが同じであるため等しい.内側境界の確率${P_{\theta}(y^{pair}_t=([*,e^l],[b^r,*])\,|\,t)}$と外側境界の確率${P_{\theta}(y^{pair}_t=([b^l,*],[*,e^r])\,|\,t)}$を用いて,最も確率の高い並列句ペアは以下のように求められる.\begin{equation}\label{eq:pair}\begin{split}y^{pair}_t&=\argmax_{(\hat{e}^l,\hat{b}^r)}P_{\theta}(([*,\hat{e}^l],[\hat{b}^r,*])\,|\,t)\\&\cup\argmax_{(\hat{b}^l,\hat{e}^r)}P_{\theta}(([\hat{b}^l,*],[*,\hat{e}^r])\,|\,t)\end{split}\end{equation}ただし,\eqref{pair}によって個々の(準)等位接続詞について並列句ペアを決定すると範囲に不整合が生じる可能性があるため,並列構造の解析時には\secref{parsing}で示したとおり,CFG規則によって導出される構文木のスコアが最大となるように並列構造が決定される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{スコア関数の構成}本小節では\secref{parsing}で示したスコア関数$score_{coord}$,$score_{ckey}$の具体的な定義について説明する.並列キーまたは準並列キーに該当する語$w_i\in\mathbb{S}_{cc}\cup\mathbb{S}_{sub{\text-}cc}$の前終端ノードに対するスコアは,(準)並列キーの有無を表す二値のラベル$y^{ckey}_i$の対数確率から割り当てられる.\begin{equation}\label{eq:score-ckey}score_{ckey}(i,\ell)=\begin{cases}\log{P(y^{ckey}_i=1\,|\,i)}\;\;\;\;(\ell\in\{{\rmCC},{\rmCC{\text-}SUB}\})\\\log{P(y^{ckey}_i=0\,|\,i)}\;\;\;\;(\ell={\rmW})\end{cases}\end{equation}並列構造を表すCOORDノードのスコアは(準)等位接続詞が結びつける二つの並列句に基づいて計算される.等位接続詞の出現位置を$k$,左側並列句のスパンを$[i,l]$,右側並列句のスパンを$[m,j]$とすると,語$w_k$によって結びつけられた二つの並列句から成る並列構造$[i,j]$のスコアは,内側境界$(l,m)$の対数確率と外側境界$(i,j)$の対数確率の和として計算される.\begin{equation}\label{eq:score-coord}\begin{split}score_{coord}(i,j)&=\log{P(y^{pair}_k=([i,l],[m,j])\,|\,k)}\\&=\log{P(([*,l],[m,*])\,|\,k)}+\log{P(([i,*],[*,j])\,|\,k)}\end{split}\end{equation}\eqref{score-coord}の計算と\tabref{cfg}の規則(1)を対応づけると,規則(1)は以下のように表される.\[{\rmCOORD}_{i,j}\rightarrow~{\rmCONJ}_{i,l}~\,{\rmN}_{l+1,k-1}?~\,{\rmCC}_{k,k}~\,{\rmN}_{k+1,m-1}?~\,{\rmCONJ}_{m,j}\]準等位接続詞によって並列句が結びつけられる場合は,準等位接続詞$w_k$が結びつける左側並列句$[i,l]$と右側並列句$[m,j]$を用いて,\eqref{score-coord}と同様の計算を適用することでCOORDノードのスコアが割り当てられる.\eqref{score-coord}の計算を\tabref{cfg}の規則(2)に当てはめた場合,規則(2)の右辺を展開して以下のように表される.\begin{align*}{\rmCOORD}_{i,j}\rightarrow~&{\rmCONJ}_{i,l}~\,{\rmCC{\text-}SUB}_{k,k}~\,{\rmCONJ}_{m,j}~\,\ldots~\,{\rmN}?~\,{\rmCC}~\,{\rmN}?~\,{\rmCONJ}\\&(ただし,l=k-1,m=k+1)\end{align*}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{ニューラルネットワーク}本小節では関数$f_{ckey}$,$f_{inner}$,$f_{outer}$のニューラルネットワークによる構成について説明する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{エンコーダ}単語・品詞タグの系列の文レベルのベクトル表現を得るために,本研究では双方向型LongShort-TermMemory(BiLSTMs)\cite{hochreiter-schmidhuber:1997:NC}を用いる.\begin{equation}\label{eq:encoder}{\bfh}_{1:N}={\rmBiLSTMs}(f_{input}(w_{1:N},p_{1:N}))\end{equation}ここでLSTMの隠れ状態ベクトルの次元を$d^{hidden}$とすると,エンコーダから出力される系列の各ベクトル${\bfh}_t$の次元は$2d^{hidden}$となる.BiLSTMsの入力として,単語・品詞タグを各ベクトル表現にマッピングする関数$f_{input}$が出力するベクトル系列を用いる.$f_{input}$内での具体的なマッピング方法として,事前学習したベクトル表現のほか,ELMo\cite{peters-EtAl:2018:NAACL}やBERT\cite{devlin-EtAl:2019:NAACL}などの文脈を考慮した単語分散表現,文字レベルでの演算を行うLSTMや畳み込みニューラルネットワークの出力ベクトルなどを用いることができる.これらの選択による性能差は\secref{exp}で示す.$f_{input}$とBiLSTMsから成るモデルを本論文ではエンコーダと呼び,エンコーダは等位接続詞分類モデル,内側境界スコア付与モデル,外側境界スコア付与モデルの三つのネットワークの共通の下層部分として共有される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{等位接続詞分類モデル}$f_{ckey}$には並列キーの文レベルベクトル表現の線形変換を用いる.\begin{equation}\label{eq:ckey-model}f_{ckey}(t)={\bfW}^{ckey}{\bfh}_t+{\bfb}^{ckey}\end{equation}ここで${\bfW}^{ckey}\in\mathbb{R}^{2\times2d^{hidden}}$と${\bfb}^{ckey}\in\mathbb{R}^{2}$は等位接続詞分類モデルのパラメータである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{内側境界スコア付与モデル}エンコーダが出力した文レベルベクトル表現を用いて,内側境界スコア付与モデルは内側境界に位置する二つのベクトル表現を連結し,\pagebreak多層パーセプトロン(MLP)に入力することでスカラー値を出力する.\begin{equation}\label{eq:inner-model}f_{inner}(e^l,b^r,t)={\bfw}^{in}_{2}\:{\rmReLU}({\bfW}^{in}_{1}[{\bfh}_{e^l};{\bfh}_{b^r}]+{\bfb}^{in}_{1})+{\rmb}^{in}_{2}\end{equation}ここで${\bfW}^{in}_1\in\mathbb{R}^{d^{in}\times4d^{hidden}}$,${\bfb}^{in}_1\in\mathbb{R}^{d^{in}}$,${\bfw}^{in}_2\in\mathbb{R}^{d^{in}}$,${\rmb}^{in}_2\in\mathbb{R}$は内側境界スコア付与モデルのパラメータである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{外側境界スコア付与モデル}外側境界スコア付与モデルは外側境界のベクトル表現と並列キー前後のベクトル表現の差を用いてスコア計算を行う.減算は二つのスパンの意味的な距離や関連性をとらえる意図で導入している\cite{teranishi-EtAl:2017:IJCNLP}.演算によって得られたベクトル表現をMLPに入力することでスカラー値を得る.\begin{gather}\label{eq:feature}f_{feature}(b^l,e^r,t,{\bfh}_{1:N})=\bigl[{\bfh}_{b^l}-{\bfh}_{t+1};{\bfh}_{e^r}-{\bfh}_{t-1}\bigr]\\\begin{split}f_{outer}(b^l,e^r,t)&={\bfw}^{out}_{2}\:{\rmReLU}({\bfW}^{out}_{1}\:{\bfr}+{\bfb}^{out}_{1})+{\rmb}^{out}_{2}\\{\bfr}&=f_{feature}(b^l,e^r,t,{\bfh}_{1:N})\end{split}\label{eq:outer-model}\end{gather}ここで${\bfW}^{out}_1\in\mathbb{R}^{d^{out}\times4d^{hidden}}$,${\bfb}^{out}_1\in\mathbb{R}^{d^{out}}$,${\bfw}^{out}_2\in\mathbb{R}^{d^{out}}$,${\rmb}^{out}_2\in\mathbb{R}$は外側境界スコア付与モデルのパラメータである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{学習}ニューラルネットワークモデルのパラメータ集合$\theta$は以下の損失関数を最小化することによって最適化される.\begin{equation}\label{eq:loss}L(\theta)=\sum_{(X,Y)\inD}\bigl(\ell^{ckey}_{\theta}(X,Y)+\ell^{inner}_{\theta}(X,Y)+\ell^{outer}_{\theta}(X,Y)\bigr)\end{equation}ここで$D$は学習データに含まれる文$X$とその文に含まれる並列構造$Y$の対の集合である.\eqref{loss}で計算される損失は三つのサブモデルの損失の和であり,したがって三つのサブモデルのパラメータは同時に学習される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{なぜ局所的な学習を行うか}各サブモデルの局所的な決定に基づいてスコア関数を学習する代わりに,モデルを統合してCKYアルゴリズムによって導出された構文木のスコアと正解の構文木のスコアを最大マージン法などによって直接的に学習することができる\cite{stern-EtAl:2017:ACL}.しかしながら,このような大域最適の学習には非常に多くの時間を要し,またハイパーパラメータの注意深い設定が必要なうえ,予備実験の範囲では\citeA{teranishi-EtAl:2017:IJCNLP}の手法をわずかに上回る程度の精度しか得られなかった.内側・外側境界の局所的な学習の成功は,交差エントロピー損失を用いて学習を行ったことが要因であると分析する.最大マージン損失を最小化する大域的な学習の場合,スコア最大の構文木と正解の構文木に含まれる並列句の境界についてモデルのパラメータが調整される.対して交差エントロピー損失を用いた内側・外側境界の局所的な学習の場合,正解の境界だけでなく全境界についてパラメータの調整が行われ,不正解の境界全てのスコアが押し下げられるよう学習が進む.そこで交差エントロピー損失最小化による局所的な学習と類似の学習方法として,入力文$s$に対する構文木$T\in\mathcal{T}_{G}(s)$の条件付き確率$P(T|s)$を次式のようにモデル化することを考える.\begin{equation}P_{\theta}(T|s)=\frac{\exp(score_{\theta}(T))}{Z_{\theta}(s)}\;,\;\;\;Z_{\theta}(s)=\sum_{T^{\prime}\in\mathcal{T}_{G}(s)}\exp(score_{\theta}(T^{\prime}))\end{equation}この条件付き確率に対して最尤推定によってパラメータ集合$\theta$を調整することで,局所的な学習による方法と同等以上の解析精度が期待できるが,分配関数$Z$において文脈自由文法$G$によって文$s$から導出可能な構文木の全てについてスコア計算をする必要があり,現実的には計算が困難である.そこで分配関数$Z$を何らかの方法により近似することで,このような大域的な学習を実行する方法も考えられる\cite{andor-EtAl:2016:ACL}.しかし近年,\citeA{teng-zhang:2018:COLING}や\citeA{dozat-manning:2017:ICLR}の手法に見られるように,構文解析のタスクにおいて局所的な決定をニューラルネットワークによって高精度に学習し,解析時に大域最適解を求めることで,大域的な目的関数によって学習したモデルの解析結果と遜色ない精度が実現できている.提案手法において並列句ペアの内側・外側境界は局所的に学習されるが,並列構造の同定時にはCKYアルゴリズムを用いた構文解析によって両境界の整合性を考慮して大域最適解を求めている.このことから,各サブタスクを高い精度で学習できれば大域的な目的関数を用いた学習との解析精度の差は縮まると推測され,本研究でも局所的な学習による方法を採用する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{実験}
\label{sec:exp}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験設定}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{データセット}本研究では並列構造のアノテーションが付与されたPennTreebank\cite{ficler-goldberg:2016:ACL}(PTB)とGENIATreebankbeta\cite{Kim-EtAL:2003:BioInfo}(GENIA)を用いて評価実験を行う.実験の前処理・後処理には\secref{prepostproc}で示したスワップによる方法を用いる.PTBでの実験では,コーパスのWallStreetJournalのパートのうち,セクション2から21を訓練データ,セクション22を開発データ,セクション23をテストデータとして用いる.GENIAでの実験では,\citeA{hara-EtAl:2009:ACL-IJCNLP}と同様に5分割交差検定によって評価を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{モデル}エンコーダ内の関数$f_{input}$として,単語を事前学習済みの単語ベクトルに,単語を構成する文字列を文字ベースの畳み込みニューラルネットワーク\cite{ma-hovy:2016:ACL}(CharCNNs)の出力ベクトルに,品詞タグを品詞タグの表現ベクトルにマッピングし,それらの三つのベクトル表現を連結したベクトルを出力する関数を用い,この設定を本論文では{\itdefault}と呼ぶ.事前学習済みの単語ベクトルとして,PTBでの実験にはGloVe\cite{pennington-EtAl:2014:EMNLP}を,GENIAでの実験にはBioASQ\cite{tsatsaronis-EtAl:2012:AAAI}を初期値として用いる\footnote{それぞれ\url{http://nlp.stanford.edu/data/glove.6B.zip}(glove.6B.100d.txt),\url{http://bioasq.lip6.fr/tools/BioASQword2vec/}(vectors.txt)を使用した.}.PTBでの実験において,品詞タグはStanfordPOSTagger\cite{toutanova-EtAl:2003:NAACL}を用いて10分割ジャックナイフ法により付与し,GENIAでの実験では先行研究\cite{hara-EtAl:2009:ACL-IJCNLP,ficler-goldberg:2016:EMNLP,teranishi-EtAl:2017:IJCNLP}に従って,コーパスに付与されている品詞を用いた.モデルのパラメータの最適化はAdam\cite{kingma-ba:2015:ICLR}を用いて確率的勾配降下法によって行った.その他のハイパーパラメータについては\tabref{hyperparams}のとおりである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[t]\caption{実験に用いたハイパーパラメータの設定.}\label{tab:hyperparams}\input{01table02.tex}\vspace{1\Cvs}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{ベースライン}評価実験のベースラインとして\citeA{teranishi-EtAl:2017:IJCNLP}の手法を再実装したものを用いる.Teranishiらの手法は,並列構造全体の始点・終点を予測したあとに,等位接続詞とカンマによって並列構造を個々の並列句に分割している.しかし個々の並列構造に対して独立に始点・終点を決めているため,文中の他の並列構造と範囲が競合し得る.そこでTeranishiらの手法を拡張し,複数の並列構造の範囲が部分的に重なり合わないという制約のなかで,並列構造の範囲のスコアの合計が最も高くなる組み合わせを探索して決定する.ベースラインのモデルで使われるエンコーダについては,上述のdefaultの設定と同様の構成を用いる.本論文では以降,この拡張を施したベースラインモデルを{\itTeranishi+17:+ext}として参照する.またPTBでの実験では,\citeA{stern-EtAl:2017:ACL}の句構造構文解析器を用いて,並列構造の構文木表現を直接学習・予測した結果とも比較する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{評価}PTBでの実験では,並列キーに対する並列句スパンの予測に基づいて,\pagebreak適合率(P),再現率(R),それらの調和平均であるF1値(F)によってシステムの評価を行う.\citeA{teranishi-EtAl:2017:IJCNLP}の評価実験に則って,並列句の一致について以下四つの基準で評価する\footnote{並列構造が二つの並列句から成る場合はinnerとouterの一致基準は同一である.}.\begin{itemize}\setlength{\parskip}{0cm}\setlength{\itemsep}{0cm}\item{\bfwhole}:最初の並列句の始点と最後の並列句の終点の一致.\item{\bfouter}:最初の並列句の始点・終点の一致かつ最後の並列句の始点・終点の一致.\item{\bfinner}:等位接続詞前後の並列句それぞれの始点・終点の一致.\item{\bfexact}:全ての並列句の始点・終点の一致.\end{itemize}また,評価に際して特に名詞句の並列構造のみを対象にした解析性能についても調べる\footnote{\citeA{ficler-goldberg:2016:EMNLP}と同様に,NPに加えてNXの並列構造も名詞句の並列構造と見なす.}.GENIAでの実験では,上述の一致基準に基づいて再現率によって評価する.ただし,先行研究ではwholeの一致基準についてのみ評価を行っている.また,並列構造の統語範疇ごとに対象を絞って性能を評価する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table3\newcolumntype{C}[1]{>{\centering\arraybackslash}p{#1}}\begin{table}[t]\caption{比較手法で用いられる外部資源}\label{tab:resource-diff}\input{01table03.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{先行研究との実験設定の違い}提案手法と先行研究の実験設定の違いについて整理する.各手法が利用している外部資源について\tabref{resource-diff}に示す.提案手法,ベースラインおよび\citeA{teranishi-EtAl:2017:IJCNLP}のモデルは,PTBとGENIAのいずれにおいてもコーパス外のテキストで事前に学習した単語ベクトル表現を用いているのに対し,\citeA{stern-EtAl:2017:ACL}の構文解析器ではランダムに初期化した単語ベクトルを,\citeA{ficler-goldberg:2016:EMNLP}のモデルはPTB・GENIAのそれぞれで事前学習したベクトル表現を用いている.PTBでの評価実験において,FiclerらはBerkeleyParserによって付与された品詞タグを用いているのに対し,その他のモデルはStanfordPOSTaggerで付与した品詞タグを用いている.GENIAにおいてはいずれもコーパスに付与されている品詞タグを用いている.また,FiclerらはPTB・GENIAのいずれにおいてもBerkeleyParserが付与した句構造の構文木を用いており,品詞タグのベクトル表現についてはWord2Vec\cite{mikolov-EtAl:2013:ICLR}を用いてそれぞれのコーパスで事前学習している.外部資源の利用における差異は並列構造の解析性能に影響を及ぼすため,本節の評価実験は厳密に同条件下での比較ではない\footnote{FiclerらはBerkeleyParserを改変して用いており,改変部分や手法の実装についての詳細は得られなかった.}.しかしながら,本節では提案手法における外部資源の利用の有無による性能差を提示することで,設定の違いを考慮したうえでの優位点を示す.外部資源の利用以外の差異として,\secref{prepostproc}に示した引用符によるイレギュラーな並列構造に対する取扱いが挙げられる.Ficlerらの手法ではBerkeleyParserを用いて並列句ペアの候補を抽出しており,イレギュラーな並列構造を同定できるかどうかは構文解析の結果に依存する.ベースラインおよびTeranishiらの手法は,引用符による変則的な並列構造を導出できないという制限はない.対して提案手法は\tabref{cfg}で示した文脈自由文法規則からイレギュラーな並列構造を導出できないため,\secref{prepostproc}で提案したスワップによる前・後処理と組み合わせることで対応する.\tabref{cfg}の規則によって変換された正解の構文木をSternらの構文解析器によって直接的に学習する方法においても,同様の理由で学習用の構文木を構築する前に前処理を行い,解析器による構文木の出力後に後処理を行って評価をしている.このように,スワップによる前・後処理は\tabref{cfg}の規則を引用符によるイレギュラーな並列構造に対応させる目的で導入されており,提案手法のシステムの一部に組み込まれたものである.したがって,タスク評価の入出力時点では提案手法と他の手法で単語系列や並列構造範囲に差異はない.しかしながら,スワップによって単語系列が操作されることで引用符とカンマの語順が正規化され,BiLSTMsを用いた本手法にとってより有効な語順に変化している可能性がある.最後に本論文で提案する文脈自由文法規則と\citeA{hara-EtAl:2009:ACL-IJCNLP}の規則の違いによる性能差について述べる.Haraらの規則は等位接続詞の前後の並列句が等位接続詞に隣接すると仮定しており,``[A]\ldotsand[B]''のような,等位接続詞に隣接しない並列句を導出することができない.ただし,Haraらは``[A],and[B]''のような,等位接続詞とその前に出現する並列句とのあいだにカンマが出現することを許容し,規則を追加している.対して我々は\tabref{cfg}の規則(1)によって,等位接続詞と並列句のあいだに任意の句が出現するような並列構造を導出可能にしている.このような並列構造はPTBに実際に存在するが,GENIAにおいては等位接続詞と並列句のあいだにカンマ以外の任意の句が出現せず,アノテーションされた全ての並列構造がHaraらの規則により導出可能である.したがってGENIAでの評価実験において,規則の違いによる性能差は生じない\footnote{我々の構文解析器においてHaraらの規則を用いることで,正解の並列構造を候補から落とすことなく並列句の探索範囲を絞り込める点で,提案規則を用いる場合と比べて優位な設定で評価実験を行えるが,本節では\tabref{cfg}の提案規則を用いて実験を行う.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table4\newcolumntype{M}{C{7.125mm}}\begin{table}[t]\caption{PTBでの実験結果}\label{tab:ptb-results}\input{01table04.tex}\par\vspace{4pt}\smallTeranishi+17およびFicler+16の数値は論文で報告されている結果より抜粋.\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{実験結果}PTBとGENIAの実験結果をそれぞれ\tabref{ptb-results}と\tabref{genia-results}に示す.PTBにおいて,提案手法(Ours)は並列構造の全ての一致基準において既存手法の精度を大幅に上回った.提案手法が並列句ペアの内側・外側境界について学習しているのに対し,ベースラインは並列構造全体の境界のみを学習しているため,whole以外の基準では提案手法がより正確に境界を予測できている.次に\citeA{stern-EtAl:2017:ACL}の句構造構文解析器による解析では,いずれの一致基準についても並列構造に特化した解析器と比べて並列構造の同定精度が低いことが確認された.しかし並列構造の構文木表現の構文解析精度について評価したところ,句構造のラベル付きスパンの一致についてのF1値が開発データで97.88\%,テストデータで97.63\%という結果となった.この精度の高さは,\tabref{cfg}のCFG規則で導出される構文木の大部分がWとNのノードによって右辺に展開される二分木であるためだと考えられる.しかし並列構造について高い精度で同定できていないことから,WやNのノードと比較して出現数が少ないCOORDのノードについては句構造構文解析によって高い精度でスパンを予測できていないと推測される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table5\begin{table}[t]\caption{GENIAでの実験結果}\label{tab:genia-results}\input{01table05.tex}\par\vspace{4pt}\smallTeranishi+17,Ficler+16,Hara+09の数値は論文で報告されている結果より抜粋.\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%GENIAにおいて,提案手法はexactの基準でベースラインを上回る精度を達成した.我々のモデルはベースラインと比較して,並列構造全体の始点・終点を予測する能力について劣っているものの,innerの基準では高い性能を発揮している.対して,ベースラインはwholeの基準で高い性能を示しており,他の基準では精度が相対的に低い.この性能差は二つの手法のアルゴリズムの違いを反映している.提案手法はボトムアップに並列句ペアから並列構造を導出しているのに対し,ベースラインは並列構造全体の範囲を予測してから個々の並列句に分割するというトップダウンの解析を行っている.そのためベースラインの手法では,文や節などの長い並列構造を非準等位接続詞であるカンマによって誤って分割し,解析精度が低下してしまう.提案手法の欠点はCKYアルゴリズムの初期段階の誤りが後段のステップまで伝搬することであり,そのためinner以外の基準では誤りの影響を受けて精度が低下していると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{考察}\label{sec:analysis}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{文単位での完全一致}並列構造単位での評価に加えて,文単位での全並列構造の完全一致について評価した.評価に際して,文が持つ並列構造に応じて文を次の五つに分類する.\begin{itemize}\setlength{\parskip}{0cm}\setlength{\itemsep}{0cm}\setlength{\itemindent}{-1.0cm}\item[]{\bfAll}:並列構造を持つ全ての文.\setlength{\itemindent}{0cm}\item{\bfSimple}:二つの並列句から成るただ一つの並列構造を持つ文.\item{\bfComplex}:ConsecutiveまたはMultipleに該当する文.\begin{itemize}\setlength{\itemindent}{-0.4cm}\item{\bfConsecutive}:三つ以上の並列句から成る並列構造を少なくとも一つ持つ文.\item{\bfMultiple}:複数の並列構造を持つ文.\end{itemize}\end{itemize}なお,SimpleとComplexにそれぞれ該当する文の集合は互いに素であり,Allはそれらの和集合であるが,ConsecutiveとMultipleの文集合には一部重複がある.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table6\begin{table}[t]\caption{文単位での並列構造の完全一致率}\label{tab:ptb-complete}\input{01table06.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\tabref{ptb-complete}はPTBとGENIAにおける完全一致率の評価結果である.いずれのデータセットにおいても,Simpleの文において提案手法はベースラインと比較して高い性能を得ている.このパフォーマンスの差は二つのシステムが学習している境界の違いに由来するものだと考えられる.Simpleの文の場合,提案手法は等位接続詞の前後に出現する二つの並列句の内側・外側境界を学習しているのに対し,ベースラインのシステムは並列構造の外側境界のみを学習・予測している.しかし,同格や副詞句表現が等位接続詞と並列句の間に出現し得る場合があり,二つの並列句が等位接続詞に隣接するという仮定は必ずしも成立しない.提案手法はPTBにおいて,ConsecutiveとMultipleの文についてもベースラインの精度を上回っている.ベースラインの手法は並列構造全体のスパンを予測してから個々の並列句に分割しているため,準等位接続詞とならないようなカンマの出現により,誤って並列構造を分割し得る.対して提案手法はカンマなどの準並列キーが,実際に準等位接続詞として働いているかどうかについて予測しており,Consecutiveの文をより高い精度で導出することができている.しかしGENIAでは並列構造全体に占める名詞句の並列構造の割合が高く,かつ複合名詞が羅列するような単純な並列が多いため,カンマによる並列構造の分割が機能し,結果としてベースラインの手法がConsecutiveの文において精度高く解析できていると推測される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table7\begin{table}[t]\caption{異なる設定によるモデルの性能の違い(PTB,開発)}\label{tab:ptb-comparison}\input{01table07.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{並列構造解析に有効な情報}並列構造解析に有効なベクトル表現・特徴計算について分析するため,異なる設定によって評価実験を行った.\tabref{ptb-comparison}はその結果を示している.品詞タグがない場合にモデルの性能は顕著に低下した.また品詞の他に,文字(形態)情報が有効な素性であることも確認できた.これらが有効な情報である理由として,特に名詞句の並列など類似度の高い並列句ペアにおいては,品詞や接頭辞・接尾辞の一致が並列句の範囲同定の手がかりになるからだと推測している.また,事前学習された単語の埋め込み表現がこのタスクにおいて有益であることも確認された.近年広く利用されている文脈を考慮した単語分散表現を用いた場合,ELMo\cite{peters-EtAl:2018:NAACL}では性能がわずかに上昇し,BERT\cite{devlin-EtAl:2019:NAACL}では大幅に向上した\footnote{ELMoの設定では{\itOriginal}のモデル(\url{https://s3-us-west-2.amazonaws.com/allennlp/models/elmo/2x4096_512_2048cnn_2xhighway/elmo_2x4096_512_2048cnn_2xhighway_weights.hdf5})を使用した.\newlineBERTの設定ではBERT-Large,uncasedのモデル(\url{https://storage.googleapis.com/bert_models/2018_10_18/uncased_L-24_H-1024_A-16.zip})を使用した.どちらのベクトル表現も次元数は1024次元である.}.ELMoは双方向型LSTMにより学習されており,LSTMの層ごとに前方向・後方向の文脈について独立に計算しているのに対し,BERTではTransformer\cite{vaswani-EtAl:2017:NIPS}が用いられており,アテンションによって両方向の文脈を同時に見ているという違いがある.我々のモデルではすでにエンコーダ内に双方向型LSTMが用いられているが,アテンションのような単語対単語の関係を考慮するようなモデルは組み込まれていないため,\citeA{kurohashi-nagao:1994:CL}や\citeA{shimbo-hara:2007:EMNLP-CoNLL}の手法で用いられているアラインメントと同様の働きをTransformerによって獲得できた可能性がある.今後はエンコーダにTransformerを用いるなど,アーキテクチャによる性能差をより細かく調査したい.また外側境界スコア付与モデル内での特徴計算において,内側境界スコア付与モデルと同様の特徴関数(\tabref{ptb-comparison}では{\itconcat}featureとして表記)を用いた場合,性能が低下した.\eqref{feature}は並列句ペアの類似性・可換性をとらえる目的で設計されており,単に$b^l,e^r$の二点だけを計算の考慮に入れた{\itconcat}featureでは,外側境界のそのような特徴をとらえられていないと分析する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table8\begin{table}[t]\caption{ベースライン+BERTと提案手法の解析結果の違い}\label{tab:analysis2}\input{01table08.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%ベースラインのモデルにELMoやBERTによるベクトル表現を用いた場合,提案手法のdefaultの設定を上回る性能が得られた.ベースラインのモデルにELMo・BERTを用いることで解けるようになった並列構造と,ベースラインの手法から提案手法に変更することで解けるようになった並列構造が仮に同一であった場合,提案手法にELMo・BERTを用いることによる改善は小さいはずである.しかしながら提案手法においてもELMo・BERTのベクトル表現を使用することによる性能改善は大きい.このことから,手法の改善によって解けるようになった並列構造と,ELMo・BERTを使って解けるようになった並列構造は性質が異なると推測される.各モデルによって解決された並列構造を\tabref{analysis2}に具体的に示す.\tabref{analysis2}より,提案手法で用いるアルゴリズムによって並列キーや準並列キーが複数出現する文において,複雑な並列構造をより頑健に同定できるようになったのに対し,文脈を考慮したベクトル表現は``NPandNPPP\ldots''や``VPandVPADVP\ldots''のような系列に対して,PPやADVPが後ろの並列句に含まれるかどうかといった前後文脈により依存するような曖昧な並列構造を同定するのに有効に働いていると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table9\begin{table}[t]\caption{提案手法の並列構造解析器による出力例}\label{tab:analysis}\input{01table09.tex}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{解析結果の定性的分析}\tabref{analysis}に提案手法による並列構造の解析結果の例を示す.例1は二つの独立した並列構造を正しく解析できており,特に後者の並列構造ではtheretailandfinancialsectorsという名詞句に対し,theretailとfinancialsectorsという二つの名詞句の並列ではなく,retailとfinancialの二つの形容詞の並列として解析に成功している.例2は自動詞と他動詞の二つの動詞句による不均衡な並列構造の範囲を正確にとらえられている.例3は三つの平叙節の並列を解析できており,またそのうち一つの並列句内に埋め込まれている並列構造の解析にも成功している.対して例4では,atprevailingmarketpricesという前置詞句がorの直後の並列句に含まれるものとして解析している.解析結果の境界は句の切れ目として不自然ではないが,前置詞句の主辞(buy)をとらえることができていない.例5では入れ子となっている並列構造は解析できているが,that節のthatが省略されているために,Dealerssaid\ldotssecuritiesを一つの平叙節として認識してしまっている.このように,提案手法によって出力された並列句は句の境界については不自然ではないものの,並列構造の前後の句が並列句によって共有されるか否かの曖昧性を十分に解消できていない.並列となる句が前後の句に対して共通の関係を持つかどうかを判別することが提案手法の今後の課題である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsubsection*{他言語への適用可能性}本節では評価実験により提案手法の英語における有効性を示した.\secref{parsing}で示した構文解析を用いる本手法は,解析対象のテキストに対して以下の要件を前提としている.\begin{enumerate}\setlength{\parskip}{0cm}\setlength{\itemsep}{0cm}\renewcommand{\labelenumi}{\arabic{enumi}.}\itemテキストが文単位に分けられ,入力文は単語分割が完了したものとして単語から構成される.\item(準)等位接続詞となり得る語が定義されている.\item(準)等位接続詞が形成する並列構造のパターンが,文脈自由文法の規則として定義されている.\end{enumerate}これらの前提条件が満たされる限り,CKYアルゴリズムによる構文解析の過程において,並列キーに対する並列構造の有無が判定され,並列句の開始・終了位置となるあらゆる単語の組み合わせが精査され,並列構造の組み合わせが木として導出される,という一連のプロセスが言語やドメインに依存することなく機能する.また\secref{models}で提案したニューラルネットワークのモデルは,単語に対する品詞タグや事前学習されたベクトル表現を必須としていないが,高精度な解析のためにはそれらのリソースが利用できることが望ましい.さらにニューラルネットワークの学習のためには,並列句の範囲が明示的に付与された文が大量に利用できることが想定される\footnote{本実験で用いたGENIATreebankbetaでは,並列構造を持つ2,508の文のなかに3,598の並列構造が出現していることから,学習のためには少なく見積もっても数千以上のオーダーでアノテーション済みの文が必要であろう.}.以上の条件について,提案手法の日本語への適用を例に具体的に考える.『現代日本語書き言葉均衡コーパス』\cite{BCCWJ:2011}(BCCWJ)は,新聞,書籍,雑誌,白書,ブログ,掲示板など,様々なジャンルにまたがって収集されたテキストから成るコーパスであり,このコーパスでは一部のデータに対して並列構造の範囲が付与されている\cite{asahara-matsumoto:2018:ANLP}.並列構造の範囲は国語研短単位形態素境界に基づいて分割された文の構成要素を基準にして付与されており,六つのジャンルから成るコアデータでは総数57,109の文に14,368の並列構造が出現している.したがって前提条件1は解決され,学習に必要なアノテーションについても入手が可能であり,単語に対する品詞タグやベクトル表現もツールを使って付与することができる.また並列構造や品詞情報のアノテーションから,(準)等位接続詞となり得る語を定義することができ,前提条件2も満たされる.前提条件3について,例えば,``本物ならではの[風合い],[風格]そして[高級感あふれる質感]は''という並列構造が\tabref{cfg}の規則から導出できるように,提案規則を用いることで大部分の並列構造を導出することができると見込まれる.ただし,前終端記号に対する規則(11)\,(12)については,条件2で設定した(準)等位接続詞から定義される必要がある.日本語では``[A]と[B]と[C]''という並列構造のように,複数の等位接続詞から成る並列構造が頻出するが,例えば規則(2)に類似した規則,``COORD$\rightarrow$CONJ~\,CC~\,COORD''を追加することで,そのような並列構造を導出できる.また日本語の法令文においては,「並びに」と「及び」から成る並列構造が``[A]並びに[[B]及び[C]]''と一意に解釈できるように上位・下位の階層関係が定められており,このようなドメインや文書に固有のルールも文脈自由文法規則として取り入れることが可能である.以上を踏まえて,本手法を日本語に適用できる見込みは高く,本手法の提案規則に基づいていくつかの拡張を伴うことで,英語や日本語に類似した他言語においても本手法が適用可能であると期待される.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
\section{おわりに}
\label{sec:conc}本論文では,並列構造解析のためのシンプルでより正確なフレームワークを提案した.提案手法は並列構造解析のタスクを三つのサブタスクに分解し,それぞれに異なるニューラルネットワークを用いる.並列構造を範囲の競合なく導出できる文脈自由文法規則を定義し,CKYアルゴリズムによる構文解析とニューラルネットワークを組み合わせることで,我々のシステムは入力文に対する並列構造の集合を出力する.英語における評価実験の結果,並列構造の最適な組み合わせの導出のために三つのニューラルネットワークが協調して働いており,既存のシステムやその拡張を上回る解析精度を達成していることが示された.また分析により,提案手法はベースライン手法と比較して複雑な並列構造を文レベルで正確に解析できることが分かった.我々のシステムは並列構造の範囲同定に誤る場合であっても,並列句の境界は句の区切りと一致している傾向にあり,範囲の候補として有力である.今後の課題として,CKYアルゴリズムによる構文解析を拡張し,スコアが高いものから順に複数個の構文木を取り出し,並列構造の前後の文脈を考慮した構文木候補のリランキング手法を開発することによって,解析精度をより向上させることが挙げられる.また日本語を含む他言語に本手法を適用し,評価実験を行うことも課題とする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\acknowledgment本研究はJSTCREST(課題番号:JPMJCR1513)の助成を受けて行った.また本研究の一部は,The2019AnnualConferenceoftheNorthAmericanChapteroftheAssociationforComputationalLinguistics:HumanLanguageTechnologiesで発表したものである\cite{teranishi-EtAl:2019:NAACL}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\bibliographystyle{jnlpbbl_1.5}\bibliography{01refs}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{biography}\bioauthor{寺西裕紀}{%2014年慶應義塾大学商学部卒.同年,株式会社アイスリーデザイン入社.Web・モバイルアプリケーションの開発・運用に従事.2018年奈良先端科学技術大学院大学情報科学研究科博士前期課程修了.同年,同大学院先端科学技術研究科情報科学領域博士後期課程入学.自然言語処理の研究に従事.}\bioauthor{進藤裕之}{%2009年,早稲田大学先進理工学研究科博士前期課程修了.同年NTTコミュニケーション科学基礎研究所入所.2013年,奈良先端科学技術大学院大学情報科学研究科博士後期課程修了.2014年より現在まで,奈良先端科学技術大学院大学情報科学研究科助教.これまで,主に自然言語処理の研究に従事.情報処理学会,人工知能学会,言語処理学会,ACL各会員.}\bioauthor{渡辺太郎}{%1994年京都大学工学部情報工学科卒業.1997年京都大学大学院工学研究科情報工学専攻修士課程修了.2000年LanguageandInformationTechnologies,SchoolofComputerScience,CarnegieMellonUniversity,MasterofScience取得.2004年京都大学博士(情報学).ATRおよびNTT,NICTにて研究員,また,グーグルでソフトウェアエンジニアとして勤めた後,2020年より奈良先端科学技術大学院大学教授.自然言語処理や機械学習,機械翻訳の研究に従事.}\bioauthor{松本裕治}{%1977年京都大学工学部情報工学科卒.1979年同大学大学院工学研究科修士課程情報工学専攻修了.同年電子技術総合研究所入所.1984~85年英国インペリアルカレッジ客員研究員.1985~87年(財)新世代コンピュータ技術開発機構に出向.1988年京都大学助教授,1993年奈良先端科学技術大学院大学教授.2020年理研AIP知識獲得チームリーダ,現在に至る.工学博士.専門は自然言語処理.情報処理学会,人工知能学会,言語処理学会,AAAI,ACL,ACM各会員.情報処理学会フェロー.ACLFellow.}\end{biography}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\biodate\end{document}
| |
V26N02-05
|
\section{はじめに}
Twitterに代表されるソーシャルメディアにおいては,辞書に掲載されていない意味で使用されている語がしばしば出現する.例として,Twitterから抜粋した以下の文における単語「鯖」の使われ方に着目する.\quad(1)\space今日、久々に{\bf鯖$_1$}の塩焼き食べたよとても美味しかった\quad(2)\spaceなんで、急に{\bf鯖$_2$}落ちしてるのかと思ったらスマップだったのか(^q^)\noindent文(1)と文(2)には,いずれも鯖という単語が出現しているが,その意味は異なり,文(1)における鯖$_1$は,青魚に分類される魚の鯖を示しているのに対し,文(2)における鯖$_2$は,コンピュータサーバのことを意味している.ここで,「鯖」という語がコンピュータサーバの意味で使用されているのは,「鯖」が「サーバ」と関連した意味を持っているからではなく,単に「鯖」と「サーバ」の読み方が似ているためである.このように,ソーシャルメディアにおいては,既存の意味から派生したと考えられる用法ではなく,鯖のような音から連想される用法,チートを意味する升のような既存の単語に対する当て字などの処理を経て使用されるようになった用法,企業名AppleInc.を意味する林檎など本来の単語を直訳することで使用されるようになった用法などが見られ,これらの用法は一般的な辞書に掲載されていないことが多い.文(2)における鯖$_2$のように,文中のある単語が辞書に掲載されていない意味で使用されていた場合,多くの人は文脈から辞書に載っている用法\footnote{本研究では,一般的な辞書に採録されている単語の用法を一般的,そうでないものを一般的ではないとする.}と異なる用法で使用されていることには気付くことができるが,その意味を特定するためには,なんらかの事前情報が必要であることが多い.特に,インターネットの掲示板では,援助交際や危険ドラッグなどの犯罪に関連する情報は隠語や俗語を用いて表現される傾向にある\cite{yamada}.しかし,全体として,どのような単語が一般的ではない意味で使われているかということを把握することは難しい.本研究では,このような性質を持つ単語の解析の手始めとして,ソーシャルメディアにおいて辞書に掲載されていない意味で使用される場合があることが分かっている単語を対象に,ソーシャルメディア中の文に出現する単語の一般的ではない用例の検出に取り組む.ここで,単語の用法が一般的かそうでないかというような情報を多くの語に対し大量にアノテーションするコストは非常に大きいと考えられることから,本研究では教師なし学習の枠組みでこの問題に取り組む.検出の手がかりとして,まず,非一般的用法で使用されている単語は,その単語が一般的用法で使用されている場合と周辺文脈が異なるであろうことに着目する.具体的には,単語の用法を判断する上で基準とするテキスト集合における単語の用法と,着目している文中での用法の差異を計算し,これが大きい場合に非一般的用法と判断する.以下,本稿では単語の用法を判断する上で基準とするテキスト集合のことを学習コーパスと呼ぶ.非一般的用法を適切に検出するためには,学習コーパスとして,一般的用法で使用される場合が多いと考えられるテキスト集合を用いることが重要であると考えられることから,提案手法では,学習コーパスとして,新聞やインターネットを始めとする様々な分野から偏りなくサンプリングされたテキストの集合である均衡コーパスを使用する.また,提案手法における,学習コーパスと評価用データにおける単語の使われ方の差異の計算には,Skip-gramNegativeSampling\cite{Mikolov2013nips}によって学習された単語ベクトルを使用する.
\section{評価データの作成}
本研究では,一般的ではない用法が存在する単語を対象として,文中における対象単語が一般的な用法かそうでないかをアノテートしたデータセットを新たに作成した.作成したデータセットは,コンピュータ,企業・サービス名,ネットスラングのドメインに出現した語から,非一般的用法として使用されることのある40語を含んだデータセットである.データのソースとしてTwitterを使用し,2016年1月1日から2016年1月31日に投稿されたツイートを対象としてデータセットを作成した.Twitterをデータのソースとして選択した理由は,Twitterにおいては,ある語が一般的な用法として使われる場合とそうでない場合が混在していると考えたためである.データセットの作成に先立ち,以下の条件を全て満たす語を対象語を選定した.\begin{enumerate}\itemコンピュータ,企業・サービス名,ネットスラングのドメインにおいて一般的ではない用法として使用される場合があることが分かっている語\itemウェブ上に一般的ではない用法の説明が存在している語\item均衡コーパスにおける出現頻度が100以上の語\end{enumerate}本研究では,コンピュータ,企業・サービス名からそれぞれ10語ずつ,ネットスラングから20語,合計40語を対象語として選定した.選定した40語の一覧を表\ref{tb:word_list}に示す.\begin{table}[p]\caption{選定した40語とその一般的ではない用法の説明}\label{tb:word_list}\input{05table01.tex}\end{table}データセットの作成においては,まず,選定した40語が含まれるツイートに対して形態素解析を行い,選定した単語が一般名詞であると解析されたツイートを無作為に100ツイート選択した.形態素解析には,MeCab\footnote{http://taku910.github.io/mecab/}を使用し,IPA辞書\footnote{http://ipadic.osdn.jp/}を用いた.次に,選択したツイートにおいて,選定した単語が一般的な用法として用いられているか,固有表現の一部となっているか,一般的ではない用法として用いられているかという判断を2人のアノテータによって人手で行った.固有表現の一部となっている事例というのは,例えば「井ノ尻」の中の「尻」のような事例を示す.また,いずれかのアノテータが,与えられた情報だけからはツイート中で使用されている対象語の用法を決定できないと判断したツイート(96ツイート)\footnote{「(*´茸`*)」の中の「茸」のような,顔文字の一部となっている事例などが含まれる.}は,データセットから除外した.アノテーションが一致したツイートのうち,2人のアノテータが一般的な用法として用いられていると判断した事例と,一般的ではない用法として用いられている判断した事例の集合を最終的なデータセットとした\footnote{固有表現の一部となっている事例を除いたのは,将来的に固有表現認識を行うことにより機械的に除外できると考えたためである.}.本アノテーションにおけるカッパ係数は0.808であった.表\ref{tb:dataset}に,作成したデータセットの概要を示す.\begin{table}[b]\caption{作成したデータセットの概要}\label{tb:dataset}\input{05table02.tex}\end{table}作成したデータセットでは,単語ごとにラベルの偏りが見られた.アノテーションの結果に基づいて,40語を,一般的な用法の事例が多い単語,非一般的用法として用いられている事例が多い単語,それ以外の単語の3つに分類した.具体的には,7割以上が一般的用法としてアノテーションされた単語を一般的ラベル優勢,7割以上が非一般的用法としてアノテーションされた単語を非一般的ラベル優勢,それ以外をラベル偏りなしとしてクラス分けを行った.表\ref{tb:dataset_annotation}に,アノテーション対象とした語の一覧をクラスごとに示す.また,表\ref{tb:dataset_class}に,各クラスごとにアノテーションされた一般的用法,非一般的用法の内訳を示す.\begin{table}[b]\caption{アノテーション対象とした40語の内訳}\label{tb:dataset_annotation}\input{05table03.tex}\end{table}作成したデータセットは各単語に対する学習データ数が少ないため,教師あり学習のための学習コーパスとして使用するには,データ量の観点から適切ではないと考える.そのため,本研究では,教師なし学習に基づいた単語の一般的ではない用法の検出手法を提案し,本データセットを評価用のデータセットとして用いる.\label{seq:dataset}\begin{table}[t]\caption{クラスごとのデータセット内訳}\label{tb:dataset_class}\input{05table04.tex}\end{table}
\section{単語の一般的ではない用法の検出}
提案手法では,もしある単語が一般的ではない用法として使われた場合,その周辺単語は一般的な用法として使われた場合の周辺単語と異なるという考えに基づき,単語の一般的ではない用法の検出を行う.提案手法は単語の分散表現を活用したものであるため,本節では,まず,単語の分散表現を学習する手法として広く使われているSkip-gramの説明を行い,その後に提案手法の具体的なモデルの説明を行う.\subsection{Skip-gramwithNegativeSampling(SGNS)}Skip-gram\cite{Mikolov2013nips}とは,単語の分散表現を学習する手法の一つとして広く使われており,学習コーパスから主に単語の共起情報を学習し,学習コーパス内に出現した単語をベクトルとして表現する手法である.\label{seq:skipgram}Skip-gramでは,訓練データにおける単語列を$w_1$,$w_2$,...,$w_T$,窓幅を$m$とした時,$\frac{1}{T}\sum^T_{t=1}\sum_{-m\leqi\leqm,i\neq0}\logp(w_{t+i}|w_t)$が大きくなるように学習される.{\itW}を訓練データにおける語彙とした時,$p(w_k|w_t)$は次の式によって表される:\[p(w_k|w_t)=\frac{\exp(v_{w_t}^{IN}\cdot{v_{w_k}^{OUT}})}{\sum^{}_{w\inW}\exp(v_{w_t}^{IN}\cdot{v_{w}^{OUT}})}.\]Skip-gramは,着目単語の周辺単語を予測するモデルである.各単語は入力側の単語ベクトル$v^{IN}$と出力側の単語ベクトル$v^{OUT}$で表現され,確率値の計算には,これらが使用される.\citeA{Mikolov2013nips}は,Skip-gramの学習時における計算コストを削減するためにSkip-gramwithNegativeSampling(SGNS)を提案した.SGNSでは,学習コーパス内で単語$w_t$が$w_k$の近くに出現していた場合,$\log{\sigma({v_{w_t}^{IN}}\cdot{v_{w_k}^{OUT}})}+\sum^{N}_{n=1}\mathbb{E}_{w_n\simZ(w)}\log{\sigma({v_{w_t}^{IN}}\cdot{-v_{w_n}^{OUT}}})$が大きくなるようにそれぞれの単語に対応するベクトルが学習される.ただし,$\sigma$はシグモイド関数を表す.SGNSでは,$N$個の単語を確率分布$Z$から抽出し,これらを学習における負例単語として扱う.その結果,単語$w_t$と単語$w_t$の近くに出現した単語$w_k$については,$\log{\sigma(v_{w_t}^{IN}\cdot{v_{w_k}^{OUT}})}$の値が大きくなるようにそれぞれのベクトルが学習され,単語$w_t$と負例単語$w_n$については,$\log{\sigma({v_{w_t}^{IN}}\cdot{v_{w_n}^{OUT}}})$が小さくなるように学習される.単語間の類似度を測定するのにあたっては,入力側の単語ベクトル$v^{IN}$間における類似度を測る手法が広く用いられている.入力側の単語ベクトル$v^{IN}$は多くの研究で広く活用されているのに対して,\citeA{DBLP:journals/corr/MitraNCC16}や\citeA{eacl17oflr}などのように,出力側の単語ベクトル$v^{OUT}$を効果的に活用している研究は少ない.一方で,Levyら\cite{NIPS2014_5477}は,ShiftedPositivePointwiseMutualInformation(SPPMI)とSGNSの等価性を示しており,これによると,SGNSにおいて$v^{IN}$と$v^{OUT}$を使用することは,SPPMIを学習した際の単語の共起情報を参照することに関連し,これはある着目単語とその周辺単語のつながりの強さを計算することを意味する.以上より,これまで述べたような入出力単語ベクトルの学習過程およびSPPMIとSGNSの等価性を考慮すると,ある単語$w_t$が訓練データ内で単語$w_k$が共起されやすいかどうかを測るためには,従来の研究で多く見られるような$v_{w_t}^{IN}$と${v_{w_k}^{IN}}$を用いた余弦類似度を用いる手法だけではなく,入力側と出力側の単語ベクトルを用いた${\sigma(v_{w_t}^{IN}\cdotv_{w_k}^{OUT})}$を活用する手法も,単語間の類似度を計算する上では考慮するべきであると考えられる.\subsection{提案手法}本研究では,SGNSの学習メカニズムを考慮して,非一般的用法の検出を試みる.具体的には,まずSGNSを用いて均衡コーパスから単語の分散表現を学習し,続いて学習したベクトルを用いて着目単語とその周辺単語のベクトル間の内積値を算出し,その値が小さい場合,その着目単語の用法は一般的ではないと判断する.均衡コーパスは,言語全体を把握するために偏りなくサンプリングされたテキストの集合であることから,均衡コーパスを用いることで,単語の用法の一般性がより反映された単語ベクトルの学習が行われると考えられ,上述の内積値が高い事例は一般的,低い事例は一般的ではない用法と判断することができると考えられる.図~\ref{fig:method}に提案手法の概要を示す.\begin{figure}[t]\begin{center}\includegraphics{26-2ia5f1.eps}\end{center}\caption{提案手法の概要}\label{fig:method}\end{figure}提案手法では,SGNSによって単語ベクトルを学習し,学習された着目単語の入力側の単語ベクトル$v^{IN}$と,周辺単語の出力側の単語ベクトル$v^{OUT}$の類似度の加重平均に基づいて,単語の非一般的な用法を検出する.この過程で計算される類似度の加重平均を,単語の使われ方に対する一般性スコアと定義する.一般性スコアとして,着目単語とその周辺単語との類似度の加重平均を採用している理由は,本研究で使用したSGNSの学習過程では,着目している単語と距離の近い単語に重みを付けた学習が行われているためである\cite{levy2015}.窓幅を$m$,着目単語との距離を$d$と定義すると,加重平均の重み$\alpha$は,$\alpha=m+1-d$によって計算される整数値とする.ただし,$d$は,着目単語を基準として,何単語離れているかを表す整数値である.文中の着目単語を${w_t}$とし,着目単語の入力側の単語ベクトルを${v_{w_t}^{IN}}$,$w_t$を基準として前後$m$単語の単語集合を${\bfw_c}$,各周辺単語${w_j\in{\bfw_c}}$の出力側の単語ベクトルを$v_{w_j}^{OUT}$,その重みを$\alpha_{w_j}$と表すと,提案手法では,次の式(1)で計算されるスコアによって,着目単語$w_t$が一般的な使われ方かどうかを判断する:\begin{equation}\frac{\sum_{w_j\in{\bfw}_c}\sigma({v_{w_t}^{IN}}\cdotv_{w_j}^{OUT})\times\alpha_{w_j}}{\sum_{w_j\in{\bfw}_c}\alpha_{w_j}},\end{equation}ただし,式(1)における$\sigma$はシグモイド関数を表す.窓幅内に出現した未知語に対しては,未知語のトークンに対応する単語ベクトル$v_{unk}^{OUT}$を用いる.なお,この$v_{unk}$は,単語ベクトルの学習に使用したコーパス内における低頻度語に対応する単語ベクトルである.式(1)において,シグモイド関数を使用している理由は,SGNSの学習過程における非線形関数としてシグモイド関数が使用されていたためである\footnote{https://code.google.com/archive/p/word2vec/}.算出された一般性スコアが小さい場合,着目単語の使われ方は非一般的であり,また反対に大きい時には,その使われ方は一般的であるとみなす.\label{seq:method}\subsection{比較手法}本研究における提案手法には,3つの特徴がある.一つ目は単語ベクトルを学習する際に均衡コーパスを使用する点,二つ目は一般性スコアを計算する際に使用する単語ベクトルとして$v^{IN}$だけではなく$v^{OUT}$も使用する点,三つ目は一般性スコアの計算に加重平均を採用している点である.これらの特徴が非一般的な用法を検出するにあたり有用であるかを,比較実験を通して検証する.提案手法では,学習コーパスの用法と評価用データセットにおける用法との差異を一般性スコアとして計算している.この学習コーパスに含まれる単語の用法が非一般的用法検出を行う際の基準となるため,検出精度に大きく影響すると考えられる.そこで,本研究では,4種類の異なる性質のコーパスを用意し,どのコーパスで単語ベクトルを学習するのが本タスクにより適しているかを調査する.表\ref{tb:corpus}に,各コーパスの内容を示す\footnote{Webコーパスの収集には,\citeA{WEBcrawl}の手法を用いた.Wikipediaは,2016年7月時点でのWikipediaの記事を{https://dumps.wikimedia.org/jawiki/}からダウンロードしたものである.新聞については,毎日新聞,日経新聞,読売新聞を対象とした.}.\begin{table}[b]\caption{学習に使用したコーパスの内容}\label{tb:corpus}\input{05table05.tex}\end{table}提案手法は,一般的に使用される$v^{IN}$だけではなく,$v^{OUT}$も使用している.$v^{OUT}$の有用性を検証するため,従来研究\cite{neelakantan-EtAl:2014:EMNLP2014,MWEemb}で用いられている手法と同様に,$v^{IN}$のみを用いた手法との比較を行った.この比較手法では,式(1)における$\sigma(v_{w_t}^{IN}\cdotv_{w_j}^{OUT})$を,余弦類似度$\frac{{v_{w_t}^{IN}}^\topv_{w_j}^{IN}}{||{v_{w_t}^{IN}}||\times||v_{w_j}^{IN}||}$として一般性スコアを計算した.さらに,SGNS以外の手法で学習した単語ベクトルでの実験結果を比較するために,相互情報量を用いて学習した単語ベクトルに対して,特異値分解(SVD)によって次元削減を行った単語ベクトルを使用した手法\cite{levy2015,hamilton-EtAl:2016:EMNLP2016}による実験も行った.この時,式(1)における$v_{w_t}^{IN}$,$v_{w_j}^{OUT}$は,それぞれ,SVDによって特異値分解されたあとの$t$成分,$j$成分の値とする.相互情報量には,PositivePointwiseMutualInformation(PPMI)を使用した.また,SVDを用いた手法においても,一般性スコアの計算には余弦類似度を用いた\footnote{$v^{IN}$のみを用いた手法およびSVDを用いた手法において,類似度関数として余弦類似度の代わりにシグモイド関数を使用した場合においても実験を行ったが,この時の評価値は余弦類似度を用いた場合よりも低い値となった.}.\ref{seq:method}節で述べたように,式(1)の$\alpha$は,着目単語を基準とした時の,周辺単語との距離に対する重みである.この重み付けの有効性を調査するため,重み付けを行わず,式(1)において$\alpha=1$とした場合との比較実験を行った.これらに加えて,式(1)における周辺単語$\bfw_c$から,機能語である助詞,助動詞,接続詞として使われている単語を除いた条件での実験も行った.図\ref{fig:method}にも示した通り,実際のテキストにおける周辺単語$w_j$は,助詞をはじめとする機能語にもなり得る.しかし,機能語の単語ベクトルと着目単語の単語ベクトルとの類似度は,着目単語の用法の判断において効果的な要素ではない可能性が考えられる.そこで,周辺単語${w_j\in{\bfw_c}}$から機能語を排除した時の部分集合${{\bfw_{c^{'}}}\subseteq{\bfw_c}}$を用いて式(1)を計算するモデルにおいても実験を行った.\cite{Mikolov2013nips}は,高頻度語のもつ情報量は低頻度語のもつ情報量よりも少ないという仮定に基づき,Skip-gramの学習時にサブサンプリングによって学習コーパス中に出現する単語の出現頻度に応じて文中からコーパス内の単語それぞれを確率的に除外した上で学習を行っているが\footnote{\citeA{Mikolov2013nips}における2.3節に詳細が記述されている.},多くの機能語は高頻度語に該当することから類似した処理であると言える.さらに,ニューラルネットの層の深さが検出精度に関係するか調査するため,文脈をベクトル化する手法として提案されているcontext2vec\cite{context2vec}との比較も行う.提案モデルが1層の浅いニューラルネットモデルであるのに対して,context2vecはBi-directionalLSTM(Bi-LSTM)を活用した多層のモデルである.また,Skip-gramが,着目単語の前後窓幅分の周辺単語を用いて着目単語を予測するのに対して,context2vecでは,入力文の左から着目単語まで,および右から着目単語までを使用して予測を行うという違いがある.context2vecでは,文全体の単語埋め込みをBi-LSTMに入力し,着目単語の左側,および右側のBi-LSTMの出力層を結合し,2層の多層パーセプトロンに入力し,その出力層(文脈ベクトル)を用いて,着目単語を予測するモデルである.本タスクにおいては,文脈ベクトルと着目単語の単語ベクトルの内積に対してシグモイド関数を適用した値を一般性スコアとして扱う.
\section{実験}
\subsection{実験設定}単語ベクトルの学習にあたっては,次元を300とした.また,各コーパスにおいて,出現頻度が5回未満の単語は,$<$unk$>$に置き換えて学習を行った.SGNSによる単語ベクトルの学習には,Pythonライブラリの一つである{\small\verb|gensim|}\cite{rehurek_lrec}による実装を使用し,ネガティブサンプリングの数を10とした.SVDによる単語ベクトルの学習には,\citeA{levy2015}の実装\footnote{https://bitbucket.org/omerlevy/hyperwords}を使用した.学習epoch数は5とした.また,単語ベクトルを学習する際の窓幅は2,5,10としてそれぞれ実験を行った.context2vecの学習にあたっては,ネガティブサンプリング数を10,最適化手法にはAdam\cite{adam}を使用した.学習率は$10^{-3}$として学習を行った.その他の隠れ層や単語ベクトルの次元などの詳細なパラメータを表\ref{tb:c2v_param}に示す.また,学習の効率化のため,実験に使用するコーパスのうち,BCCWJとWebは中規模,WikipediaとNewspaperは大規模なコーパスであるとみなし,中規模コーパスで学習する際には,ミニバッチ数100,学習epoch数10,5回未満の出現頻度の単語を$<$unk$>$と置き換えて学習を行い,大規模コーパスで学習する際には,ミニバッチ数500,学習epoch数5,10回未満の出現頻度の単語を$<$unk$>$と置き換えて学習を行った.\begin{table}[t]\caption{context2vecのパラメータ}\label{tb:c2v_param}\input{05table06.tex}\end{table}評価には,テストセットの各事例で計算された一般性スコアを昇順にソートし,一般性スコアが低い順に非一般的用法として分類した時の平均適合率を使用する.さらに,これらの実験に加えて,3.3節に示した機能語を使用しない場合における実験も行う.また,誤り分析を行うため,任意の値を閾値として設定し,計算された一般性スコアが閾値を下回った場合には非一般的用法,それ以外は一般的用法と分類する実験を行った.閾値には,分類時に非一般的用法を正例とした時に計算されるF値が最も大きくとなるような閾値を使用した.\subsection{結果}表\ref{tb:res}に実験結果を示す.表\ref{tb:res}におけるweightedおよびuniformは,それぞれ,着目単語の周辺単語に対する重み付けを行った場合,行わない場合に対応する.また,ダガー($\dagger$)は,提案手法であるBCCWJを用いた時のSGNSIN-OUTweightedモデルによる実験結果と,有意水準5$\%$で並べ替え検定を行った際に,統計的有意差が確認できたことを示している.太字は,SGNSIN-OUT,SGNSIN-IN,SVDモデルによって得られた平均適合率のうち,設定された各窓幅2,5,10ごとでの実験結果を比較した際に最も平均適合率が高いことを示す.\begin{table}[t]\caption{各モデルによる平均適合率}\label{tb:res}\input{05table07.tex}\end{table}\subsubsection{各モデルごとの実験結果の比較}表\ref{tb:res}より,最も高い平均適合率を達成したモデルは,学習コーパスとしてWikipediaを使用した時のcontext2vecであり,その値は0.845であった.提案手法であるSGNSIN-OUTweightedモデルは,学習コーパスとしてBCCWJを使用し,窓幅を5と設定した時に最も高い平均適合率を達成し,その値は0.839であった.context2vecを用いた場合の平均適合率は0.803から0.845と高い値で安定していることがわかるため,ニューラルネットの層の深さは検出精度に貢献すると考えられる.実験結果から,提案手法であるSGNSIN-OUTのような層が浅いモデルでも,単語ベクトルの学習手法,学習された単語ベクトルの扱い方,学習コーパスを適切に選択することで,層が深いモデルと同等の性能を達成できることがわかった.次に,設定された各窓幅ごとでの性能を比較する.表\ref{tb:res}において,各モデルによって得られた平均適合率のうち,窓幅2,5,10ごとでの実験結果を比較すると,それぞれで最も平均適合率が高かったモデルは,全てBCCWJを学習コーパスとして使用した際のSGNSIN-OUTモデルであった.これより,BCCWJとSGNSIN-OUTを用いることによって,単語ベクトルの学習に使用する窓幅に関わらず高い平均適合率を達成する傾向があるといえる.また,窓幅を2と設定した場合の実験結果では,全12モデル中11モデルにおいて,重み付けによる平均適合率の減少が見られた.モデルが参照できる周辺単語が少ない場合では,重み付けによって着目単語周辺の機能語が強調されてしまい,これが悪影響となって平均適合率が減少した可能性が高い.この点は,後述の機能語を使用しないモデルにおける実験結果との関連があると考えられる.\label{seq:main_res}\subsubsection{機能語を使用しないモデルにおける実験結果}表\ref{tb:res_filter}に,一般性スコアの計算時に機能語を使用しないモデルにおける平均適合率を示す.ダガー($\dagger$)は,提案手法であるBCCWJを用いた時のSGNSIN-OUTweightedモデルによる実験結果と,有意水準5$\%$で並べ替え検定を行った際に,統計的有意差が確認できたことを示している.表\ref{tb:res_filter}より,機能語を使用しない場合においては,提案手法であるSGNSIN-OUTweightedモデルが最も高い平均適合率を達成した.これは,窓幅を5と設定し,学習コーパスとしてBCCWJ使用したモデルであり,平均適合率は0.857であった.\begin{table}[b]\caption{機能語を使用しないモデルにおける平均適合率}\label{tb:res_filter}\input{05table08.tex}\end{table}\begin{table}[b]\caption{機能語を使用するモデルと使用しないモデルでの平均適合率に統計的有意差が見られたモデル}\label{tb:filter_test}\input{05table09.tex}\end{table}表\ref{tb:res},表\ref{tb:res_filter}より,一般性スコアの計算時に機能語を使用しないことで,全76モデル中48モデルにおいて,平均適合率の向上が確認された.このうち,12モデルにおいて,機能語を使用しない場合の平均適合率と,機能語を使用した場合の平均適合率との間に統計的有意差が確認された.この有意差が確認されたモデルを表\ref{tb:filter_test}に示す.なお,26モデルでは,機能語を使用しないことで平均適合率の値が減少し,2つのモデルでは,平均適合率に変化がなかった.特に,context2vecを用いた4モデルでは機能語を使用しないことで平均適合率が減少する傾向にある.context2vecは,単語埋め込みを行った後,その情報をBi-LSTM,多層パーセプトロンに入力し着目単語の予測を行うモデルである.この時に,機能語を使用しないことによって,Bi-LSTMの言語モデルとしての働きを弱め,結果として予測がうまくいかなかったと考えられる.最もスコアが向上したモデルは,窓幅を10と設定し,学習コーパスとしてWebを用いた時のSVDweightedモデルであり,0.144ポイントの向上が見られた.また,最もスコアが減少したモデルは,学習コーパスとしてWebを用いた時のcontext2vecで,0.414ポイントの減少が見られた.以上の実験結果より,機能語の扱い方を考慮することが平均適合率の向上に貢献する可能性が高いと考えられる.次に,設定された各窓幅ごとでの性能を比較する.表\ref{tb:res_filter}において,各モデルで得られた平均適合率のうち,窓幅2,5,10ごとでの実験結果を比較した際に,最も平均適合率が高かったモデルは,それぞれBCCWJを学習コーパスとして使用した際のSGNSIN-OUTモデルであり,実験結果の大まかな傾向は\ref{seq:main_res}項にあるものと同様であることがわかる.また,窓幅を2と設定した場合の実験結果に着目すると,重み付けによる平均適合率の減少が見られたモデルは,全12モデル中3モデルであり,\ref{seq:main_res}項で見られた重み付けによる悪影響が軽減していることがわかる.これは,窓幅が小さい設定においては,機能語による悪影響があったことを示唆している.\subsubsection{重み付けの有無に関する実験結果の比較}表\ref{tb:res}より,重み付けを行うモデル(weighted)と行わないモデル(uniform)間における平均適合率の変化を調査すると,36モデル中22モデルが重み付けを行うことによって平均適合率が向上している.また,13モデルでは平均適合率が減少し,1つのモデルでは平均適合率の変化が見られなかった.表\ref{tb:res_filter}に示した機能語を使用しない条件での実験結果では,重み付けを行うことによって36モデル中30モデルにおいて平均適合率が向上した.4モデルにおいては平均適合率が減少し,2つのモデルでは平均適合率の変化が見られなかった.重み付けの有意性を調査するため,これらの実験結果に対して検定を行ったところ,重み付けを行うモデルによって得られた平均適合率と,行わないモデルによって得られた平均適合率との間に統計的有意差が確認されたのは,72ペアのうち36ペアだった.検定結果を表\ref{tb:weight}に示す\footnote{表\ref{tb:weight}における「w/機能語」は機能語を使用するモデル,「w/o機能語」は機能語を使用しないモデルに該当する.チェックマーク(\checkmark)は,重み付けを行うモデルによって得られた平均適合率が,行わないモデルによって得られた平均適合率よりも統計的に有意であることを表す.ただし,ダブルダガー($\ddagger$)は,重み付けを行わないモデルによって得られた平均適合率が,重み付けを行うモデルによって得られた平均適合率よりも統計的に有意であることを示す.}.全てのパターンで統計的な有意差は見られなかったものの,提案手法を使用するにあたっては,着目単語からより近い周辺単語が本タスクを解く上での手がかりとなっていることがわかった.\begin{table}[b]\caption{重み付けによる統計的有意性の調査}\label{tb:weight}\input{05table10.tex}\end{table}\subsubsection{各モデルにおける平均適合率の最高値の比較}表\ref{tb:best_results}に,これまでの実験において各モデルで達成した平均適合率の最高値と実験設定をまとめる.ダガー($\dagger$)は,提案手法であるSGNSIN-OUTによって得られた実験結果と,有意水準5$\%$で並べ替え検定を行った際に,統計的有意差が確認できたことを示している.提案手法であるSGNSIN-OUTモデルで得られた平均適合率と比較手法で得られた平均適合率との間に,統計的有意差が確認されたのはSVDモデルとSGNSIN-INモデルであった.これらの結果から,本タスクにおいては,$v^{IN}$だけではなく$v^{OUT}$も使用することが平均適合率の向上に寄与していることがわかる.また,SGNSIN-INモデルとSVDモデルにおける平均適合率の間で検定を行ったところp値は0.089であった.実験結果では,SGNSを用いた手法の方がより高い平均適合率を達成する傾向にあるが,その差は有意なものではなかった.\begin{table}[b]\caption{各モデルにおいて平均適合率が最も高かった時の実験設定}\label{tb:best_results}\input{05table11.tex}\end{table}続いて,各手法ごとでの実験設定に着目する.SGNSを用いる手法では,学習コーパスとしてBCCWJを使用,重み付けを適用し,機能語を使用しないことで,高い平均適合率を達成する傾向にある.また,SVDおよびcontext2vecを用いる手法ではWikipediaを学習コーパスとして使用し,機能語を使用することで最も高い平均適合率を達成している.より高い平均適合率が達成することができる学習コーパスは,単語ベクトルの学習手法ごとに異なることから,各手法に適した学習コーパスを選択することが必要であると考えられる.\subsection{誤り傾向と正解例・誤り例の分析}これまでの実験では,評価データ中の文書に対して,各手法によって計算された一般性スコアを用いてソートした時のランキングに対する評価を行った.本節では,誤り分析のため,ある閾値を設定し,計算された一般性スコアが閾値を下回った場合には非一般的用法,それ以外は一般的用法と分類する実験を行った.本実験では,閾値を0.001から1.000の範囲で0.001刻みで設定し,それぞれの値をもって分類を行った時,分類時に計算されるF値が最も大きくとなるような閾値を使用した.表\ref{tb:classification}に,各モデルごとで上述の閾値を用いた場合に計算される適合率,再現率,F値を示す.太字は,各評価指標において最も性能が高いことを示し,ダガー($\dagger$)は,提案手法であるSGNSIN-OUTモデルによる実験結果と,有意水準5$\%$で並べ替え検定を行った際に,統計的有意差が確認できたことを示している.なお,実験には表\ref{tb:best_results}に示したモデルを使用した.実験結果から,提案手法によって得られたF値が,各モデルによって得られたF値の中で最も高く,その値は0.796であった.また,適合率が最高値となったモデルは,提案手法であるSGNSIN-OUTであり,再現率が最高値となったモデルはcontext2vecを用いた手法であった.\begin{table}[b]\caption{各モデルによって計算された非一般的ラベルに対する適合率・再現率・F値}\label{tb:classification}\input{05table12.tex}\end{table}次に,表\ref{tb:dataset_annotation}に示したそれぞれのクラスごとに対する評価値を調査する.作成したデータセットでは,単語ごとにラベルの偏りが見られ,表\ref{tb:dataset_annotation}では,アノテーション対象とした40語がどちらのラベルに偏りがあったか,もしくは偏りがなかったかの3クラスを示した.クラスごとでの各評価値の変化を調査するため,各クラスごとでの適合率,再現率,F値を計算した.なお,実験に使用した閾値は上述の実験と同値である.これらの結果を表\ref{tb:results_for_each_label}に示す.ダガー($\dagger$)は,提案手法であるSGNSIN-OUTモデルによる実験結果と,有意水準5$\%$で並べ替え検定を行った際に,統計的有意差が確認できたことを示している.非一般的ラベル優勢クラスにおける適合率はそれぞれのモデルにおいて高い傾向にある一方で,一般的ラベル優勢クラスにおける適合率は低い傾向にあり,評価値の偏りが見られた.これらの結果より,全体のF値が大きくなるような閾値を設定すると,多くの人が一般的ではない用法として扱うような単語に対する検出はうまくいくものの,少数の人のみが使用しているような用法を持つ単語については,誤検出が多いということがわかった.\begin{table}[t]\caption{各クラスごとの適合率・再現率・F値}\label{tb:results_for_each_label}\input{05table13.tex}\end{table}続いて,提案手法による実験結果に対する定性的評価を行う.提案手法によって検出できた一般的ではない用法の例を次に示す.\quad(i)\spaceうちの場合\textbf{\underline{林檎}}は父が触ったことないし、Android端末いっぱい買って...\quad(ii)\space...国立\textbf{\underline{駅弁}}よりすこし高いくらいかなでもそこにいったって好きな研究室いけるとも...\quad(iii)\space光村雨チケ今回何枚取れるかなー久しぶりだから\textbf{\underline{泥}}率上げてくれるよね…?\quad(iv)...やっぱりLTで他全員でガン\textbf{\underline{芋}}してるのが一番強いんじゃないかな\quad(v)\space\textbf{\underline{鯖}}落ちだあああああああああああああああガチマに潜るなああああああああああ\\(i),(ii)の中の「林檎」や「駅弁」は,一般的ラベル優勢の単語に対しても一般的ではない用法を検出することができた例である.また,(iii),(iv)中の「泥」や「芋」のように,表\ref{tb:dataset}に示したような用法とは異なる一般的ではない用法に対しても,これを正しく検出することができた\footnote{この時の「泥」は,主にソーシャルゲームにおける「ドロップ」,「芋」は主にオンラインゲームにおける「スナイパー」を意味する.}.(v)の例は,context2vecを用いた手法で検出できなかったが,提案手法において検出が成功した事例である.context2vecは入力文全体を考慮する手法であるが,この事例は,全体を考慮することによって誤りとなった事例だと考えられる.一方で,提案手法は,着目単語の前後窓幅分の周辺単語に着目するため,周辺単語以外の情報に影響されずに,正しく検出することができたと考えられる.次に,提案手法によって検出できなかった一般的ではない用法を示す.\quad(vi)\spaceニコ動で実況者がワードバスケットやってて\textbf{\underline{草}}\quad(vii)\space55連でテレーゼ、エクセ、ユイ、\textbf{\underline{虹}}星1。引きは微妙だけど一番欲しかった...\quad(viii)\spaceあ〜、なんだこの気持ち。変なの\textbf{\underline{藁}}藁。醜い感情は押し殺せばいいか\quad(ix)\space零十サンの規制してしまった時用\textbf{\underline{垢}}。本垢フォローもよろしくでっす!!\quad(x)\space\textbf{\underline{養分}}辞めたい吸収される側から…する側になるためには…カネが…カネが必要…!\\(vi)の例のように,着目単語の周辺単語が少ない場合において,検出できなかった事例を確認した.しかし,(v)の例のように,周辺単語が少ないにも関わらず検出できた例も確認されているため,周辺単語の情報が少ない場合には,モデルの出力が不安定となると考えられる.次に,(vii)中の,「ユイ」,「エクセ」などのように,着目単語の近くの周辺単語が低頻度語・未知語に該当する場合において,検出できない事例を確認した.提案手法では,未知語が出現した場合には,予め学習された未知語に該当する単語ベクトルを使用しているが,このような事例に対応するためには,未知語の性質を考慮した個別な処理等が必要とされる.続いて,(viii),(ix)の例のように,着目単語の周辺単語として着目単語そのものが出現していた場合に,検出に失敗する傾向が見られた.これは,SGNSの学習過程より,着目単語自身の$v^{IN}$と$v^{OUT}$の内積値が高く計算される傾向にあることから\footnote{ランダムにサンプリングした10,000語を対象として,学習した単語ベクトルを用いて$v^{IN}$と$v^{OUT}$の内積値を計算したところ,ある着目単語自身の$v^{IN}$と$v^{OUT}$の内積値は,着目単語の$v^{IN}$とそれ以外の単語の$v^{OUT}$の内積値の平均値よりも高い傾向にあった.該当した事例は,10,000件中9,997件であった.なお,任意の単語自身の$v^{IN}$と$v^{IN}$の余弦類似度は常に1であるため,SGNSIN-INモデルにおいても本文中と同様の問題がある.},全体的な一般性スコアが高く計算され,これが要因となって検出に失敗したと考えられる.また,(x)の例は,提案手法で検出できなかったが,context2vecを用いた手法において検出が成功した事例である.提案手法は着目単語から固定窓幅分の周辺単語しか考慮しない手法である.そのため,(x)の例のように,着目単語と離れた位置にある「カネ」のような,単語の用法を判断する上で手がかりとなる要素を考慮することができず,検出に失敗したと考えられる.一方で,context2vecは,文脈全体を考慮するモデルであるため,検出に成功したと考えられる.\begin{table}[b]\begin{minipage}[t]{.45\textwidth}\caption{提案手法における混同行列}\label{tb:confusion_proposed}\input{05table14.tex}\end{minipage}\hfill\begin{minipage}[t]{.45\textwidth}\caption{context2vecにおける混同行列}\label{tb:confusion_context2vec}\input{05table15.tex}\end{minipage}\end{table}\subsection{混同行列による誤りの傾向分析}本節では,表\ref{tb:classification}に示した実験結果に対して,混同行列を用いた誤りの傾向分析を行う.ここでは,提案手法に加えて,表\ref{tb:best_results},\ref{tb:classification}より,これまでの実験で性能が高かったcontext2vecにおける分析も行う.表\ref{tb:confusion_proposed},\ref{tb:confusion_context2vec}に,それぞれの実験結果に対する混同行列を示す.本タスクにおける誤りとしては,表中の右上に該当する非一般的用法であるにも関わらずこれを検出できないような「見逃し」と,表中の左下に該当する一般的用法であるにも関わらず非一般的用法として判断してしまう「誤検出」の2パターンが存在する.表\ref{tb:confusion_proposed}より,提案手法では,見逃しが220件,誤検出が332件であった.また,表\ref{tb:confusion_context2vec}より,比較手法であるcontext2vecを用いた手法では,見逃しが192件,誤検出が384件であった.これらを比較すると,提案手法は,見逃しが多く誤検出が少ない手法,context2vecを用いた手法は,反対に,誤検出が多く見逃しが少ない手法であると言える.本タスクにおける誤りパターンである「見逃し」と「誤検出」のどちらがリスクとみなすかは,本研究を適用するアプリケーションに依存する.例として,本研究を一般的ではない用法の辞書の作成に応用した場合を考える.このような辞書の作成においては,見逃された用法をコーパスから探すことは難しい一方で,誤って一般的ではないと判断された語を人手で確認することは容易である.したがって,本研究を一般的ではない用法の辞書作成に応用した場合には,相対的に「見逃し」が少ない手法が望ましいと考えられる.次に,本研究を一般的ではない用法も解釈するような対話システムの作成に応用した場合を考える.このような対話システムでは,一般的ではない用法を検出できなかった場合と比べ,一般的な用法を誤って解釈した場合の方が,システムへの信頼性が低下しやすいと考えられる.したがって,対話システムに応用した場合には「誤検出」の少ない手法の方が望ましいと考えられる.\subsection{提案手法・context2vecにおいてともに誤りを出力した事例}本節では,4.3節で行った実験結果のうち,提案手法およびcontext2vecを用いた手法において,両方のモデルで共通した誤り事例に対する分析を行う.両モデルにおける共通の誤り事例は235件あり,そのうち,「見逃し」に該当するものが84件,「誤検出」に該当するものが151件であった.例として,表\ref{tb:false_all}に,誤りを出力した20件を示す.\begin{table}[t]\caption{提案手法およびcontext2vecを用いた手法において誤りを出力した事例}\label{tb:false_all}\input{05table16.tex}\end{table}まず,表中において「見逃し」に該当する(1)〜(10)に着目する.(1)〜(3)は,着目単語が文の後半に位置していた事例である.このような事例に対して,提案手法においては,扱える周辺単語の情報が少ないため,モデルの出力が不安定となることが検出失敗の要因であると推測される.context2vecを用いた手法では,入力ツイート中の文脈を考慮することができると考えられるが,周辺単語の情報量の不足による影響が少なからずあったと推測される.また,(4)〜(6)中の「シャロン」,「ノンノ」,「グラブル」など,着目単語の周辺単語として,学習コーパス中における未知語または低頻度語に該当する単語が出現した場合に,モデルが正しく検出できない傾向が見られた.これは,提案手法およびcontext2vecに限らず,機械学習を用いた手法における未知語の扱い方に関連する問題だと考えられる.この点については,例えば固有表現解析,係り受け解析,形態素解析などによって得られた結果を追加情報を活用することで,未知語による悪影響を軽減できる可能性がある.さらに,(7)〜(8)のように,着目単語の周辺単語として,着目単語自身が出現している場合にも検出に失敗しやすいことがわかった.このような場合において,4.3節の実験結果では,提案手法による一般性スコアが高く計算される傾向にあることを示したが,context2vecを用いた手法においても同様の問題があった.また,評価データ中のアノテーションにはミスが見られ,これによって誤りと判定される事例が確認された.(9)中の「尼」は固有表現の一部であり,(10)中の「安価」は一般的用法として扱われていると考えられる.次に,「誤検出」に該当する(11)〜(20)に着目する.(11)〜(13)は,「見逃し」のパターンと同様に,着目単語の周辺単語の情報が少ない場合において誤りとなった事例であり,このような場合には,モデルの出力が不安定となることがわかった.(14)〜(18)のように,着目単語の周辺単語として,人名や地名などの固有表現が出現した際に,モデルが誤りを出力する事例を確認した.これは,学習モデルにおける未知語や低頻度語の扱い方に関連する問題であると考えられる.この点については,文脈中に出現する固有表現に関する知識など,何らかの追加情報を活用することで,このような事例を正しく判断することができると考えられる.また,(9),(10)の事例と同様に,アノテーションのミスによって誤りと判定されている事例が確認された.(19)中の「蔵」は固有表現の一部であり,(20)中の「草」は非一般的用法として扱われていると考えられる.
\section{関連研究}
本研究と関連している自然言語処理の研究分野として,新語義検出\cite{sinnou:2012}や新語義の用例のクラスタリング\cite{lau-EtAl:2012:EACL2012}が挙げられる.しかし,本研究で扱う表現は,特定のドメインにおいて語義が変化するという性質を持つため,これらの一般的な語義に着目した研究とは枠組みが異なる.また,\citeA{bamman-dyer-smith:2014:P14-2}は,話者の地域によって,語の持つ意味が異なるという点に着目し,状況に応じた語の意味表現ベクトルを獲得する手法を提案している.本研究も同様に,同一語の用法の違いに着目しているが,Bammanらが地域ごとの語の使われ方の違いに着目しているのに対し,本研究では語の使われ方が一般的であるかそうでないかに着目する.また,Multi-WordExpressionやイディオムのような形で表される単語の用法分類も行われてきた\cite{kiela-clark:2013:EMNLP,salehi-cook-baldwin:2015:NAACL-HLT,li2010}.本研究では,単語の用法の一般性という点に着目しているため,対象としている現象の性質という点で,これらは本研究とは異なる.Web上で使用される単語の一般的ではない用法に関する研究もいくつか存在する.\citeA{cook-EtAl:2014:Coling}は,辞書に採録されていないような単語の用法の検出を行っている.CookらがWeb上のテキストを対象としているのに対して,本研究では,ソーシャルメディアにおける単語の非一般的用法に着目している.\citeA{sboev:2016}は,インターネットにおいてのみ使われる中国語の俗語表現の分析を行った.\citeA{yamada}は,有害情報を表す隠語に焦点を当てて,隠語を概念化するフレームワークを提案し,隠語表現の分類を行った.山田らは,隠語の知識を含んだ辞書を作成し,分類タスクを解いたが,作成した辞書のみでは隠語表現の多様性の対応に不十分であったと報告している.本研究は,単語の一般的ではない用法の検出を行うことに主眼をおいているため,表現の分析に重きをおいているSboevの研究とは目的が異なる.また,山田らが有害情報を表す隠語に着目しているのに対して,本研究では,隠語のみならず,俗語や若者言葉のような,本来の単語の意味が変化して使われるようになった表現に着目している.加えて,山田らがドメインに特化した知識を用いているのに対し,本研究で提案する手法ではそのような知識を必要としないという違いがある.\citeA{matsumoto2017WII-A}は,若者言葉を代表とする俗語を対象として,それを感性評価軸とその俗語が持っている意味ベクトルを用いることによって,俗語を標準語へ変換する手法を提案した.松本らが着目している単語は,臆病の意味で使用される「チキン」というように,その表現の意味する概念に対して感性的要素が含まれるような単語であった.しかし,本研究で着目している単語については,「サーバ」の意味で使用される場合の「鯖」など,必ずしも感性的な印象が付与されるとは限らないため,この点で松本らの研究と着目対象とする単語の性質が異なる.また,近年,単語の分散表現を活用した研究は多肢に渡っており,時間変化による意味変化や地域による単語の使われ方の変化,単語の持つ感情極性の変化を分析するような研究でも広く使われている技術である\cite{mitra-EtAl:2014:P14-1,kulkarni2015statistically,TACL796,eisenstein-EtAl:2010:EMNLP,hamilton-EtAl:2016:EMNLP2016,yang2016sentiment}.さらに,一般的な多義性を扱うための分散表現\cite{neelakantan-EtAl:2014:EMNLP2014,gaussian_emb_1,gaussian_emb_2,topic_emb}や文脈をうまく表現するための分散表現\cite{context2vec,elmo}なども研究されてきたが,本研究の目的は,ある特定領域で別の意味を持つ単語の検出であるため,これらの研究とは目的が異なる.本研究で着目する出力側の単語ベクトル$v^{OUT}$を活用した研究は少ないが,$v^{OUT}$を効果的に使うことで,文書のランキングや\cite{DBLP:journals/corr/MitraNCC16}言語モデルの改善\cite{eacl17oflr,kobayashi-okazaki-inui:2017:I17-1}に有効だったと報告されている.また,\citeA{TACL1065}は本研究で用いたSGNSを単語に対する知識表現も学習できるように拡張し,$v^{IN}$は単語ベクトルを,$v^{OUT}$は$v^{IN}$に対応する単語の知識表現を学習することによって,SemanticTextualSimilarity,EntityLinking,そしてFactoid型質問応答の3つのタスクにおいてState-of-the-artを達成している.
\section{まとめ}
本研究では,ソーシャルメディアにおいて辞書に掲載されていない意味で使用される場合があることが分かっている単語を対象に,単語の一般的ではない用法の自動検出を行った.提案手法では,Skip-gramwithNegativeSamplingを用いて均衡コーパスから学習した単語ベクトルを用いて,着目単語の単語ベクトルと着目単語の周辺単語の単語ベクトルの内積に対してシグモイド関数を適用した値の加重平均を,着目単語の用法の一般性スコアとして扱い,一般性スコアが高い場合に一般的,低い場合に非一般的と判断する.この際,従来の研究で一般的に用いられている$v^{IN}$だけではなく,$v^{OUT}$を組み合わせて使用した.事前に選定した40語を対象に,与えられた文における用法が一般的であるかそうでないかアノテーションしたデータセットを用いた評価実験の結果,均衡コーパスから学習されたベクトルを使用し,さらに$v^{OUT}$ベクトルと加重平均を一般性スコアの計算に活用することで,高い精度を達成できることを示した.この結果,出力側単語ベクトル$v^{OUT}$が,文中のある単語とその周辺単語を参照するようなタスクにおいて有用であることを可能性を示している.また,着目単語の周辺単語に対して,それらと着目単語との距離に応じて,単語ベクトルの重み付けを行うことによって評価値の向上が見られたことから,着目単語と距離の近い周辺単語が一般的ではない用法の検出において,より重要な手がかりとなっていると考えられる.さらに,提案手法においては,一般性スコアの計算時に機能語を使用しないことで評価値の向上が見られたから,機能語が持つ情報は一般的ではない用法の検出においては重要ではない可能性があると思われる.本研究は,ソーシャルメディア上で一般的ではない使われ方がされている語の分析の手始めとして取り組んだ.本研究で提案した手法を拡張することにより,ソーシャルメディアにおける単語の用法の分析に貢献できると期待される.本研究における評価実験は,作成したデータセットを用いたクローズドな問題設定だったが,提案手法によって計算された一般性スコアに対して閾値推定を施すことにより,未知のデータから一般的ではない用法を抽出するなど,オープンな問題設定に対しても適用可能だと考えられる.ソーシャルメディアにおいて,どのくらいの語が非一般的用法で用いられているかの分析や,単語の一般的ではない用法の検出だけではなく,その意味の自動獲得などが,本研究のさらなる発展として考えられる.\acknowledgment本論文の一部は,The2017ConferenceonEmpiricalMethodsinNaturalLanguageProcessing(EMNLP2017)で発表したものです\cite{tatsuo}.\bibliographystyle{jnlpbbl_1.5}\begin{thebibliography}{}\bibitem[\protect\BCAY{Aoki,Sasano,Takamura,\BBA\Okumura}{Aokiet~al.}{2017}]{tatsuo}Aoki,T.,Sasano,R.,Takamura,H.,\BBA\Okumura,M.\BBOP2017\BBCP.\newblock\BBOQDistinguishingJapaneseNon-standardUsagesfromStandardOnes.\BBCQ\\newblockIn{\BemProceedingsofEMNLP'17},\mbox{\BPGS\2323--2328}.\bibitem[\protect\BCAY{Athiwaratkun\BBA\Wilson}{Athiwaratkun\BBA\Wilson}{2017}]{gaussian_emb_2}Athiwaratkun,B.\BBACOMMA\\BBA\Wilson,A.\BBOP2017\BBCP.\newblock\BBOQMultimodalWordDistributions.\BBCQ\\newblockIn{\BemProceedingsofACL'17},\mbox{\BPGS\1645--1656}.\bibitem[\protect\BCAY{Bamman,Dyer,\BBA\Smith}{Bammanet~al.}{2014}]{bamman-dyer-smith:2014:P14-2}Bamman,D.,Dyer,C.,\BBA\Smith,N.~A.\BBOP2014\BBCP.\newblock\BBOQDistributedRepresentationsofGeographicallySituatedLanguage.\BBCQ\\newblockIn{\BemProceedingsofACL'14},\mbox{\BPGS\828--834}.\bibitem[\protect\BCAY{Cook,Lau,McCarthy,\BBA\Baldwin}{Cooket~al.}{2014}]{cook-EtAl:2014:Coling}Cook,P.,Lau,J.~H.,McCarthy,D.,\BBA\Baldwin,T.\BBOP2014\BBCP.\newblock\BBOQNovelWord-senseIdentification.\BBCQ\\newblockIn{\BemProceedingsofCOLING'14},\mbox{\BPGS\1624--1635}.\bibitem[\protect\BCAY{Eisenstein,O'Connor,Smith,\BBA\Xing}{Eisensteinet~al.}{2010}]{eisenstein-EtAl:2010:EMNLP}Eisenstein,J.,O'Connor,B.,Smith,N.~A.,\BBA\Xing,E.~P.\BBOP2010\BBCP.\newblock\BBOQALatentVariableModelforGeographicLexicalVariation.\BBCQ\\newblockIn{\BemProceedingsofEMNLP'10},\mbox{\BPGS\1277--1287}.\bibitem[\protect\BCAY{Fadaee,Bisazza,\BBA\Monz}{Fadaeeet~al.}{2017}]{topic_emb}Fadaee,M.,Bisazza,A.,\BBA\Monz,C.\BBOP2017\BBCP.\newblock\BBOQLearningTopic-SensitiveWordRepresentations.\BBCQ\\newblockIn{\BemProceedingsofACL'17},\mbox{\BPGS\441--447}.\bibitem[\protect\BCAY{Frermann\BBA\Lapata}{Frermann\BBA\Lapata}{2016}]{TACL796}Frermann,L.\BBACOMMA\\BBA\Lapata,M.\BBOP2016\BBCP.\newblock\BBOQABayesianModelofDiachronicMeaningChange.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf4},\mbox{\BPGS\31--45}.\bibitem[\protect\BCAY{Gharbieh,Virendra,\BBA\Cook}{Gharbiehet~al.}{2016}]{MWEemb}Gharbieh,W.,Virendra,B.,\BBA\Cook,P.\BBOP2016\BBCP.\newblock\BBOQAWordEmbeddingApproachtoIdentifyingVerb-NounIdiomaticCombinations.\BBCQ\\newblockIn{\BemProceedingsofthe12thWorkshoponMultiwordExpressions},\mbox{\BPGS\112--118}.\bibitem[\protect\BCAY{Hamilton,Clark,Leskovec,\BBA\Jurafsky}{Hamiltonet~al.}{2016}]{hamilton-EtAl:2016:EMNLP2016}Hamilton,W.~L.,Clark,K.,Leskovec,J.,\BBA\Jurafsky,D.\BBOP2016\BBCP.\newblock\BBOQInducingDomain-SpecificSentimentLexiconsfromUnlabeledCorpora.\BBCQ\\newblockIn{\BemProceedingsofEMNLP'16},\mbox{\BPGS\595--605}.\bibitem[\protect\BCAY{Kawahara\BBA\Kurohashi}{Kawahara\BBA\Kurohashi}{2006}]{WEBcrawl}Kawahara,D.\BBACOMMA\\BBA\Kurohashi,S.\BBOP2006\BBCP.\newblock\BBOQCaseFrameCompilationfromtheWebusingHighPerformanceComputing.\BBCQ\\newblockIn{\BemProceedingsofLREC'06},\mbox{\BPGS\1344--1347}.\bibitem[\protect\BCAY{Kiela\BBA\Clark}{Kiela\BBA\Clark}{2013}]{kiela-clark:2013:EMNLP}Kiela,D.\BBACOMMA\\BBA\Clark,S.\BBOP2013\BBCP.\newblock\BBOQDetectingCompositionalityofMulti-WordExpressionsusingNearestNeighboursinVectorSpaceModels.\BBCQ\\newblockIn{\BemProceedingsofEMNLP'13},\mbox{\BPGS\1427--1432}.\bibitem[\protect\BCAY{Kingma\BBA\Ba}{Kingma\BBA\Ba}{2015}]{adam}Kingma,D.~P.\BBACOMMA\\BBA\Ba,J.\BBOP2015\BBCP.\newblock\BBOQAdam:AMethodforStochasticOptimization.\BBCQ\\newblockIn{\BemProceedingsofICLR'15}.\bibitem[\protect\BCAY{Kobayashi,Okazaki,\BBA\Inui}{Kobayashiet~al.}{2017}]{kobayashi-okazaki-inui:2017:I17-1}Kobayashi,S.,Okazaki,N.,\BBA\Inui,K.\BBOP2017\BBCP.\newblock\BBOQANeuralLanguageModelforDynamicallyRepresentingtheMeaningsofUnknownWordsandEntitiesinaDiscourse.\BBCQ\\newblockIn{\BemProceedingsofIJCNLP'17},\mbox{\BPGS\473--483}.\bibitem[\protect\BCAY{Kulkarni,Al-Rfou,Perozzi,\BBA\Skiena}{Kulkarniet~al.}{2015}]{kulkarni2015statistically}Kulkarni,V.,Al-Rfou,R.,Perozzi,B.,\BBA\Skiena,S.\BBOP2015\BBCP.\newblock\BBOQStatisticallySignificantDetectionofLinguisticChange.\BBCQ\\newblockIn{\BemProceedingsofWWW'15},\mbox{\BPGS\625--635}.\bibitem[\protect\BCAY{Lau,Cook,McCarthy,Newman,\BBA\Baldwin}{Lauet~al.}{2012}]{lau-EtAl:2012:EACL2012}Lau,J.~H.,Cook,P.,McCarthy,D.,Newman,D.,\BBA\Baldwin,T.\BBOP2012\BBCP.\newblock\BBOQWordSenseInductionforNovelSenseDetection.\BBCQ\\newblockIn{\BemProceedingsofEACL'12},\mbox{\BPGS\591--601}.\bibitem[\protect\BCAY{Levy\BBA\Goldberg}{Levy\BBA\Goldberg}{2014}]{NIPS2014_5477}Levy,O.\BBACOMMA\\BBA\Goldberg,Y.\BBOP2014\BBCP.\newblock\BBOQNeuralWordEmbeddingasImplicitMatrixFactorization.\BBCQ\\newblockIn{\BemProceedingsofNIPS'14},\mbox{\BPGS\2177--2185}.\bibitem[\protect\BCAY{Levy,Goldberg,\BBA\Dagan}{Levyet~al.}{2015}]{levy2015}Levy,O.,Goldberg,Y.,\BBA\Dagan,I.\BBOP2015\BBCP.\newblock\BBOQImprovingDistributionalSimilaritywithLessonsLearnedfromWordEmbeddings.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf3},\mbox{\BPGS\211--225}.\bibitem[\protect\BCAY{Li\BBA\Sporleder}{Li\BBA\Sporleder}{2010}]{li2010}Li,L.\BBACOMMA\\BBA\Sporleder,C.\BBOP2010\BBCP.\newblock\BBOQLinguisticCuesforDistinguishingLiteralandNon-LiteralUsages.\BBCQ\\newblockIn{\BemProceedingsofCOLING'10},\mbox{\BPGS\683--691}.\bibitem[\protect\BCAY{Maekawa,Yamazaki,Maruyama,Yamaguchi,Ogura,Kashino,Ogiso,Koiso,\BBA\Den}{Maekawaet~al.}{2010}]{BCCWJ}Maekawa,K.,Yamazaki,M.,Maruyama,T.,Yamaguchi,M.,Ogura,H.,Kashino,W.,Ogiso,T.,Koiso,H.,\BBA\Den,Y.\BBOP2010\BBCP.\newblock\BBOQDesign,Compilation,andPreliminaryAnalysesofBalancedCorpusofContemporaryWrittenJapanese.\BBCQ\\newblockIn{\BemProceedingsofLREC'10},\mbox{\BPGS\1483--1486}.\bibitem[\protect\BCAY{松本\JBA土屋\JBA芋野\JBA吉田\JBA北}{松本\Jetal}{2017}]{matsumoto2017WII-A}松本和幸\JBA土屋誠司\JBA芋野美紗子\JBA吉田稔\JBA北研二\BBOP2017\BBCP.\newblock感性を考慮した日本語俗語の標準語変換.\\newblock\Jem{人工知能学会論文誌},{\Bbf32}(1),\mbox{\BPG\WII{\Hy}A\_1{\Hy}12}.\bibitem[\protect\BCAY{Melamud,Goldberger,\BBA\Dagan}{Melamudet~al.}{2016}]{context2vec}Melamud,O.,Goldberger,J.,\BBA\Dagan,I.\BBOP2016\BBCP.\newblock\BBOQcontext2vec:LearningGenericContextEmbeddingwithBidirectionalLSTM.\BBCQ\\newblockIn{\BemProceedingsofCoNLL'16},\mbox{\BPGS\51--61}.\bibitem[\protect\BCAY{Mikolov,Sutskever,Chen,Corrado,\BBA\Dean}{Mikolovet~al.}{2013}]{Mikolov2013nips}Mikolov,T.,Sutskever,I.,Chen,K.,Corrado,G.~S.,\BBA\Dean,J.\BBOP2013\BBCP.\newblock\BBOQDistributedRepresentationsofWordsandPhrasesandtheirCompositionality.\BBCQ\\newblockIn{\BemProceedingsofNIPS'13},\mbox{\BPGS\3111--3119}.\bibitem[\protect\BCAY{Mitra,Nalisnick,Craswell,\BBA\Caruana}{Mitraet~al.}{2016}]{DBLP:journals/corr/MitraNCC16}Mitra,B.,Nalisnick,E.~T.,Craswell,N.,\BBA\Caruana,R.\BBOP2016\BBCP.\newblock\BBOQADualEmbeddingSpaceModelforDocumentRanking.\BBCQ\\newblock{\BemarXiv:1602.01137}.\bibitem[\protect\BCAY{Mitra,Mitra,Riedl,Biemann,Mukherjee,\BBA\Goyal}{Mitraet~al.}{2014}]{mitra-EtAl:2014:P14-1}Mitra,S.,Mitra,R.,Riedl,M.,Biemann,C.,Mukherjee,A.,\BBA\Goyal,P.\BBOP2014\BBCP.\newblock\BBOQThat'sSickDude!:AutomaticIdentificationofWordSenseChangeAcrossDifferentTimescales.\BBCQ\\newblockIn{\BemProceedingsofACL'14},\mbox{\BPGS\1020--1029}.\bibitem[\protect\BCAY{Neelakantan,Shankar,Passos,\BBA\McCallum}{Neelakantanet~al.}{2014}]{neelakantan-EtAl:2014:EMNLP2014}Neelakantan,A.,Shankar,J.,Passos,A.,\BBA\McCallum,A.\BBOP2014\BBCP.\newblock\BBOQEfficientNon-parametricEstimationofMultipleEmbeddingsperWordinVectorSpace.\BBCQ\\newblockIn{\BemProceedingsofEMNLP'14},\mbox{\BPGS\1059--1069}.\bibitem[\protect\BCAY{Peters,Neumann,Iyyer,Gardner,Clark,Lee,\BBA\Zettlemoyer}{Peterset~al.}{2018}]{elmo}Peters,M.~E.,Neumann,M.,Iyyer,M.,Gardner,M.,Clark,C.,Lee,K.,\BBA\Zettlemoyer,L.\BBOP2018\BBCP.\newblock\BBOQDeepContextualizedWordRepresentations.\BBCQ\\newblockIn{\BemProceedingsofNAACL:HLT'18},\mbox{\BPGS\2227--2237}.\bibitem[\protect\BCAY{Press\BBA\Wolf}{Press\BBA\Wolf}{2017}]{eacl17oflr}Press,O.\BBACOMMA\\BBA\Wolf,L.\BBOP2017\BBCP.\newblock\BBOQUsingtheOutputEmbeddingtoImproveLanguageModels.\BBCQ\\newblockIn{\BemProceedingsofEACL'17},\mbox{\BPGS\157--163}.\bibitem[\protect\BCAY{{\v{R}}eh{\r{u}}{\v{r}}ek\BBA\Sojka}{{\v{R}}eh{\r{u}}{\v{r}}ek\BBA\Sojka}{2010}]{rehurek_lrec}{\v{R}}eh{\r{u}}{\v{r}}ek,R.\BBACOMMA\\BBA\Sojka,P.\BBOP2010\BBCP.\newblock\BBOQSoftwareFrameworkforTopicModellingwithLargeCorpora.\BBCQ\\newblockIn{\BemProceedingsofWorkshoponNewChallengesforNLPFrameworks},\mbox{\BPGS\45--50}.\bibitem[\protect\BCAY{Salehi,Cook,\BBA\Baldwin}{Salehiet~al.}{2015}]{salehi-cook-baldwin:2015:NAACL-HLT}Salehi,B.,Cook,P.,\BBA\Baldwin,T.\BBOP2015\BBCP.\newblock\BBOQAWordEmbeddingApproachtoPredictingtheCompositionalityofMultiwordExpressions.\BBCQ\\newblockIn{\BemProceedingsofNAACL-HLT'15},\mbox{\BPGS\977--983}.\bibitem[\protect\BCAY{Sboev}{Sboev}{2016}]{sboev:2016}Sboev,A.\BBOP2016\BBCP.\newblock\BBOQTheSourcesofNewWordsandExpressionsintheChineseInternetLanguageandtheWaysbyWhichTheyEntertheInternetLanguage.\BBCQ\\newblockIn{\BemProceedingsofPACLIC'16},\mbox{\BPGS\355--361}.\bibitem[\protect\BCAY{新納\JBA佐々木}{新納\JBA佐々木}{2012}]{sinnou:2012}新納浩幸\JBA佐々木稔\BBOP2012\BBCP.\newblock外れ値検出手法を利用した新語義の検出.\\newblock\Jem{自然言語処理},{\Bbf19},\mbox{\BPGS\303--327}.\bibitem[\protect\BCAY{Vilnis\BBA\McCallum}{Vilnis\BBA\McCallum}{2015}]{gaussian_emb_1}Vilnis,L.\BBACOMMA\\BBA\McCallum,A.\BBOP2015\BBCP.\newblock\BBOQWordRepresentationsviaGaussianEmbedding.\BBCQ\\newblockIn{\BemProceedingsofICLR'15}.\bibitem[\protect\BCAY{山田\JBA安彦\JBA長谷川\JBAMichal\JBA中村\JBA佐久田}{山田\Jetal}{2016}]{yamada}山田大\JBA安彦智史\JBA長谷川大\JBAMichalPtaszynski\JBA中村健二\JBA佐久田博司\BBOP2016\BBCP.\newblockID交換掲示板における書き込み有害性評価に向けた隠語概念化手法の提案.\\newblock\Jem{言語処理学会第22回年次大会発表論文集},\mbox{\BPGS\49--50}.\bibitem[\protect\BCAY{Yamada,Shindo,Takeda,\BBA\Takefuji}{Yamadaet~al.}{2017}]{TACL1065}Yamada,I.,Shindo,H.,Takeda,H.,\BBA\Takefuji,Y.\BBOP2017\BBCP.\newblock\BBOQLearningDistributedRepresentationsofTextsandEntitiesfromKnowledgeBase.\BBCQ\\newblock{\BemTransactionsoftheAssociationforComputationalLinguistics},{\Bbf5},\mbox{\BPGS\397--411}.\bibitem[\protect\BCAY{Yang\BBA\Eisenstein}{Yang\BBA\Eisenstein}{2016}]{yang2016sentiment}Yang,Y.\BBACOMMA\\BBA\Eisenstein,J.\BBOP2016\BBCP.\newblock\BBOQOvercomingLanguageVariationinSentimentAnalysiswithSocialAttention.\BBCQ\\newblock{\BemarXiv:1511.06052}.\end{thebibliography}\clearpage\begin{biography}\bioauthor{青木竜哉}{2016年筑波大学情報学群情報メディア創成学類卒業.2018年東京工業大学工学院博士前期課程修了.同年より,同大学院博士後期課程に在籍.}\bioauthor{笹野遼平}{2009年東京大学大学院情報理工学系研究科博士課程修了.京都大学特定研究員,東京工業大学助教を経て,2017年より名古屋大学准教授.博士(情報理工学).自然言語処理,特に述語項構造解析に関する研究に従事.言語処理学会,情報処理学会,人工知能学会各会員.}\bioauthor{高村大也}{1997年東京大学工学部計数工学科卒業.2000年同大大学院工学系研究科計数工学専攻修了(1999年はオーストリアウィーン工科大学にて研究).2003年奈良先端科学技術大学院大学情報科学研究科博士課程修了.博士(工学).2003年から2010年まで東京工業大学精密工学研究所助教.2006年にはイリノイ大学にて客員研究員.2010年から2016年まで同准教授.2017年より同教授および産業技術総合研究所人工知能センター知識情報研究チーム研究チーム長.計算言語学,自然言語処理を専門とし,特に機械学習の応用に興味を持つ.}\bioauthor{奥村学}{1962年生.1984年東京工業大学工学部情報工学科卒業.1989年同大学院博士課程修了.同年,東京工業大学工学部情報工学科助手.1992年北陸先端科学技術大学院大学情報科学研究科助教授,2000年東京工業大学精密工学研究所助教授,2009年同教授,現在は,科学技術創成研究院教授.2017年より,理化学研究所革新知能統合研究センター(AIP)客員研究員を兼務.工学博士.自然言語処理,テキスト要約,語学学習支援,テキスト評価分析,テキストマイニングに関する研究に従事.情報処理学会,電子情報通信学会,人工知能学会,AAAI,ACL,認知科学会,計量国語学会各会員.}\end{biography}\biodate\end{document}
| |
V27N01-01
| "\\section{はじめに}\n機械学習に基づく言語処理システムは,一般に,訓練(...TRUNCATED) | |
V13N03-04
| "\\section{はじめに}\n\\label{sec:intro}スライドを用いたプレゼンテーションは(...TRUNCATED) | |
V29N04-02
| "\\section{はじめに}\n語彙制約付き機械翻訳は,翻訳文に含まれてほしいフ(...TRUNCATED) | |
V31N04-04
| "\\section{はじめに}\n単語の意味は時代とともに変化することがある.単語(...TRUNCATED) | |
V22N05-02
| "\\section{はじめに}\n2000年以降の自然言語処理(NLP)の発展の一翼を担ったの(...TRUNCATED) | |
V12N04-03
| "\\section{はじめに}\n本論文では,構造化された言語資料の検索・閲覧を指(...TRUNCATED) | |
V29N02-08
| "\\section{はじめに}\n\\label{sec:intro}近年,社会的側面から雑談対話システム(...TRUNCATED) | |
V09N01-04
| "\\section{はじめに}\n\\label{sec:intro}これまで,機械学習などの分野を中心と(...TRUNCATED) |
This dataset was created from the Japanese NLP Journal LaTeX Corpus. The titles, abstracts and introductions of the academic papers were shuffled. The goal is to find the corresponding full article with the given abstract. This is the V2 dataset (last updated 2025-06-15).
Task category | t2c |
Domains | Academic, Written |
Reference | https://huggingface.co/datasets/sbintuitions/JMTEB |
Source datasets:
How to evaluate on this task
You can evaluate an embedding model on this dataset using the following code:
import mteb
task = mteb.get_task("NLPJournalAbsArticleRetrieval.V2")
evaluator = mteb.MTEB([task])
model = mteb.get_model(YOUR_MODEL)
evaluator.run(model)
To learn more about how to run models on mteb
task check out the GitHub repository.
Citation
If you use this dataset, please cite the dataset as well as mteb, as this dataset likely includes additional processing as a part of the MMTEB Contribution.
@misc{jmteb,
author = {Li, Shengzhe and Ohagi, Masaya and Ri, Ryokan},
howpublished = {\url{https://huggingface.co/datasets/sbintuitions/JMTEB}},
title = {{J}{M}{T}{E}{B}: {J}apanese {M}assive {T}ext {E}mbedding {B}enchmark},
year = {2024},
}
@article{enevoldsen2025mmtebmassivemultilingualtext,
title={MMTEB: Massive Multilingual Text Embedding Benchmark},
author={Kenneth Enevoldsen and Isaac Chung and Imene Kerboua and Márton Kardos and Ashwin Mathur and David Stap and Jay Gala and Wissam Siblini and Dominik Krzemiński and Genta Indra Winata and Saba Sturua and Saiteja Utpala and Mathieu Ciancone and Marion Schaeffer and Gabriel Sequeira and Diganta Misra and Shreeya Dhakal and Jonathan Rystrøm and Roman Solomatin and Ömer Çağatan and Akash Kundu and Martin Bernstorff and Shitao Xiao and Akshita Sukhlecha and Bhavish Pahwa and Rafał Poświata and Kranthi Kiran GV and Shawon Ashraf and Daniel Auras and Björn Plüster and Jan Philipp Harries and Loïc Magne and Isabelle Mohr and Mariya Hendriksen and Dawei Zhu and Hippolyte Gisserot-Boukhlef and Tom Aarsen and Jan Kostkan and Konrad Wojtasik and Taemin Lee and Marek Šuppa and Crystina Zhang and Roberta Rocca and Mohammed Hamdy and Andrianos Michail and John Yang and Manuel Faysse and Aleksei Vatolin and Nandan Thakur and Manan Dey and Dipam Vasani and Pranjal Chitale and Simone Tedeschi and Nguyen Tai and Artem Snegirev and Michael Günther and Mengzhou Xia and Weijia Shi and Xing Han Lù and Jordan Clive and Gayatri Krishnakumar and Anna Maksimova and Silvan Wehrli and Maria Tikhonova and Henil Panchal and Aleksandr Abramov and Malte Ostendorff and Zheng Liu and Simon Clematide and Lester James Miranda and Alena Fenogenova and Guangyu Song and Ruqiya Bin Safi and Wen-Ding Li and Alessia Borghini and Federico Cassano and Hongjin Su and Jimmy Lin and Howard Yen and Lasse Hansen and Sara Hooker and Chenghao Xiao and Vaibhav Adlakha and Orion Weller and Siva Reddy and Niklas Muennighoff},
publisher = {arXiv},
journal={arXiv preprint arXiv:2502.13595},
year={2025},
url={https://arxiv.org/abs/2502.13595},
doi = {10.48550/arXiv.2502.13595},
}
@article{muennighoff2022mteb,
author = {Muennighoff, Niklas and Tazi, Nouamane and Magne, Loïc and Reimers, Nils},
title = {MTEB: Massive Text Embedding Benchmark},
publisher = {arXiv},
journal={arXiv preprint arXiv:2210.07316},
year = {2022}
url = {https://arxiv.org/abs/2210.07316},
doi = {10.48550/ARXIV.2210.07316},
}
Dataset Statistics
Dataset Statistics
The following code contains the descriptive statistics from the task. These can also be obtained using:
import mteb
task = mteb.get_task("NLPJournalAbsArticleRetrieval.V2")
desc_stats = task.metadata.descriptive_stats
{
"test": {
"num_samples": 1147,
"number_of_characters": 18284492,
"documents_statistics": {
"total_text_length": 18046459,
"min_text_length": 8537,
"average_text_length": 28330.390894819466,
"max_text_length": 92725,
"unique_texts": 637
},
"queries_statistics": {
"total_text_length": 238033,
"min_text_length": 18,
"average_text_length": 466.7313725490196,
"max_text_length": 1290,
"unique_texts": 510
},
"relevant_docs_statistics": {
"num_relevant_docs": 510,
"min_relevant_docs_per_query": 1,
"average_relevant_docs_per_query": 1.0,
"max_relevant_docs_per_query": 1,
"unique_relevant_docs": 510
},
"instructions_statistics": null,
"top_ranked_statistics": null
}
}
This dataset card was automatically generated using MTEB
- Downloads last month
- 60