_id
stringlengths
9
9
text
stringlengths
304
9.57k
title
stringclasses
1 value
V31N04-03
\label{instruction}言い換え生成\cite{zhou-bhat-2021-paraphrase}は入力文の意味を保持しながら表現が異なる文を生成するタスクである.言い換え生成は様々なdownstreamtaskに貢献する.特に,生成した言い換えにより疑似的に訓練データを増やすデータ拡張は,主要なアプリケーションの$1$つである\cite{wei2018fast,jolly-etal-2020-data,gao-etal-2020-paraphrase,effendi-etal-2018-multi}.表層が大きく異なる言い換えは,データ拡張において重要である\cite{qian-etal-2019-exploring}一方,表層を大きく変化させることで文の意味的な類似性が損なわれやすいため,その生成は困難である\cite{bandel-etal-2022-quality}.図\ref{similarity}は,疑似言い換え生成手法のひとつである折り返し翻訳\cite{mallinson-etal-2017-paraphrasing,Kajiwara_Miura_Arase_2020}で生成した文対\footnote{\ref{simcse_chapter}節で用いる,英語版Wikipediaを折り返し翻訳し生成した文対に対して測定.}と既存の言い換えコーパスであるParaNMT-50M\cite{wieting-gimpel-2018-paranmt}およびParaCotta\cite{aji-etal-2021-paracotta}に含まれる言い換え文対の意味類似度と表層類似度の分布\footnote{記号を除去したのちに$4$語以上からなる文対を$5$万文対ずつランダムサンプリングした.意味・表層類似度の測定方法の詳細は,\ref{sim_bleu_metric}節で説明.}をヒートマップで可視化したものである.図\ref{similarity}から,折り返し翻訳およびParaCottaでは,意味類似度は高いが,表層も近い文対が多くを占めることが分かる.ParaNMT-50Mでは,表層が大きく異なるが,意味的に乖離しており言い換えとみなせないものも多い.これらの既存手法では,表層が大きく異なる言い換え生成は難しいといえる.さらに,本論文では\ref{simcse_chapter}節および\ref{stilts_chapter}節で,データ拡張に適する意味・表層の類似度はタスクに依存し,様々な類似度の言い換えが混在するとデータ拡張に悪影響を及ぼすことを実験的に示した.これらの実験結果は,言い換え生成における類似度制御が重要であることを示している.しかし,意味的類似度と表層的類似度の直接的な制御が可能である言い換え生成の先行研究は存在しない.そこで本研究では英語を対象とし,(1)表層が大きく異なる言い換えを実現し,かつその生成において(2)ユーザが意味と表層の類似度を直接的に制御できる手法を提案する.具体的には,サンプリングに基づくデコードによる折り返し翻訳を用いて大量に生成した文対から,意味類似度が高く表層類似度が低い文対を抽出することで,言い換え生成モデルの訓練コーパスを構築する.そして言い換え文対の意味・表層類似度を示すタグ\cite{johnson-etal-2017-googles}を用い,事前学習済み系列変換モデルをfine-tuningすることにより類似度制御可能な言い換え生成を実現する.本モデルでは推論時に,言い換えの類似度をタグを用いて容易に指定できる.%%%%図\ref{sim95bleu05}は提案手法が高い意味類似度かつ,図\ref{similarity}(d)は提案手法が高い意味類似度かつ,低い表層類似度の言い換えを生成できることを示している.また,本論文では提案手法の内的評価と外的評価を行った.内的評価では,指定したタグに合致した意味・表層の類似度の言い換えが出力できるかを確認した.また,タグの埋め込み表現に関する分析により,$2$種類のタグが表す意味・表層の類似度の差が大きいほどタグの埋め込み表現間のユークリッド距離も大きくなることを明らかにした.外的評価では,対照学習\cite{gao-etal-2021-simcse,liu-etal-2021-fast},事前学習済み言語モデルのpre-fine-tuning\cite{DBLP:journals/corr/abs-1811-01088,arase-tsujii-2019-transfer}に対するデータ拡張の効果を検証した.結果,提案手法によるデータ拡張がdownstreamtaskの性能を向上させた.さらに,訓練済みモデルおよびモデルによって生成した$8,700$万文対の表層が大きく異なる言い換えコーパスを公開した\footnote{\url{https://github.com/Ogamon958/ConPGS}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V03N04-03
自然言語では通常,相手(読み手もしくは聞き手)に容易に判断できる要素は,文章上表現しない場合が多い.この現象は,機械翻訳システムや対話処理システム等の自然言語処理システムにおいて大きな問題となる.例えば,機械翻訳システムにおいては,原言語では陽に示されていない要素が目的言語で必須要素になる場合,陽に示されていない要素の同定が必要となる.特に日英機械翻訳システムにおいては,日本語の格要素が省略される傾向が強いのに対し,英語では訳出上必須要素となるため,この省略された格要素(ゼロ代名詞と呼ばれる)の照応解析技術は重要となる.従来からこのゼロ代名詞の照応解析に関して,様々な手法が提案されている.KameyamaやWalkerらは,Centeringアルゴリズムに基づき助詞の種類や共感動詞の有無により文章中に現われる照応要素を決定する手法を提案した\cite{Kameyama1986,WalkerIidaCote1990}.また,Yoshimotoは,対話文に対して文章中にあらわれる照応要素については主題をベースとして照応要素を同定し,文章中に現われないゼロ代名詞については敬語表現やspeechactに基づき照応要素を同定する手法を提案した\cite{Yoshimoto1988}.堂坂は,日本語対話における対話登場人物間の待遇関係,話者の視点,情報のなわばりに関わる言語外情報の発話環境を用いて,ゼロ代名詞が照応する対話登場人物を同定するモデルを提案した\cite{Dousaka1994}.Nakagawaらは,複文中にあらわれるゼロ代名詞の照応解析に,動機保持者という新たに定義した語用論的役割を導入して,従属節と主節それぞれの意味的役割と語用論的役割の間の関係を制約として用いることで解析するモデルを提案した\cite{NakagawaNishizawa1994}.これらの手法は,翻訳対象分野を限定しない機械翻訳システムに応用することを考えると,解析精度の点や対象とする言語現象が限られる点,また,必要となる知識量が膨大となる点で問題があり,実現は困難である.ところで,照応される側の要素から見ると,機械翻訳システムで解析が必要となるゼロ代名詞は次のような3種類に分類できる.\begin{enumerate}\item[(a)]照応要素が同一文内に存在するゼロ代名詞(文内照応)\item[(b)]照応要素が文章中の他の文に存在するゼロ代名詞(文間照応)\item[(c)]照応要素が文章中に存在しないゼロ代名詞(文章外照応)\end{enumerate}\noindentこれら3種類のゼロ代名詞を精度良く解析するためには,個々のゼロ代名詞の種類に応じた照応解析条件を用いる必要がある.また,これら3種類のゼロ代名詞を解析するための解析ルールは,相互矛盾が起きないように,ルールの適用順序を考慮する必要がある.この3種類のうち,(b)タイプに関しては,既に,知識量の爆発を避けるための手段として,用言のもつ意味を分類して,その語のもつ代表的属性値によって,語と語や文と文の意味的関係を決定し,文章中の他の文内に現われる照応要素を決定する手法をが提案されている\cite{NakaiwaIkehara1993}.また,(c)タイプに関しては,語用論的・意味論的制約を用いることによって,文章中に存在しない照応要素を決定する手法が提案されている\cite{NakaiwaShiraiIkehara1994,NakaiwaShiraiIkeharaKawaoka1995}本稿では,照応要素が同一文内に存在するゼロ代名詞((a)タイプ)に対して,接続語のタイプや用言意味属性や様相表現の語用論的・意味論的制約を用いた照応解析を行なう汎用的な手法を提案する.
V27N02-12
プログラムによる小説自動制作の実現を目指す過程\cite{Sato2016}で,私が直面した問題の一つは,次のような問題である.\begin{quote}\bf日本語の文を合成するために,どのようなソフトウェアシステムを用意すればよいか.\end{quote}小説はテキストであり,テキストは文の並びである.ゆえに,文を作れなければ,小説は作れない.小説には,ありとあらゆる文が出現しうる.任意の日本語文を作ることができるようなソフトウェアシステムを実現できるだろうか.もし,それが可能ならば,どのようなシステムとして具現化されうるだろうか.本論文では,そのような問題意識の下で開発してきた羽織シリーズ($\rightarrow$付録\ref{sec:変遷})の最新版であるHaoriBricks3(HB3)の概要を示す.私は,HB3を「日本語の文を合成するためのドメイン特化言語(domain-specificlangauge)」と位置づける.HB3では,\textbf{ブリックコード}(brickcode,BC)と呼ぶ記述形式で,どのような日本語文を合成するかを記述する.そして,記述したブリックコードを実行(評価)すると,表層文字列が得られる.ブリックコードは,あくまでも文を合成するためのコードであり,\underline{文の意味表現ではない}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[p]\begin{center}\includegraphics{27-2ia11f1.eps}\end{center}\caption{ブリックコードからの表層文字列生成}\label{fig:process}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:process}に,ブリックコードから表層文字列を生成する過程の概略を示す.ブリックコードはRubyコードそのものであり,これをRubyコードとして評価すると,\textbf{ブリック構造}(brickstructure,BS)と呼ぶ内部構造(Rubyオブジェクト)が生成される.このブリック構造に,表層文字列を生成するためのメソッド\texttt{to\_ss}を適用すると,\textbf{羽織構造}(Haoristructure,HS),および,\textbf{境界・ユニット列}(boundary-unitsequence,BUS)という2つのデータ構造を経由して,最終的に表層文字列が生成される.本論文では,HB3の設計思想,および,実現・実装のための工夫について説明し,HB3で何ができるのかを示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V04N01-05
\label{sec1}自然言語処理システムにおいては,処理する言語に関する情報をどれほど豊かにそなえているかが,そのシステムの性能に大きな影響を与える.とくに分かち書きをしない日本語では,その形態素解析だけのためにも膨大な量の辞書データをそろえる必要がある.しかし,辞書データの蓄積は,自動的に行うことが困難であり,人手による膨大な時間と労力を必要とする.幸い,最近では公開の辞書データの入手も可能となってきたが,それでもなお,新しい文法体系を試みるような場合には,その辞書を用意するのに手間がかかりすぎて,本題の研究にかかれないことがおきる.本稿では,辞書データがほとんどない状態から始めても,大量の日本語テキストを与えることで,形態素に関する辞書データを自動的に蓄積する方法を与えることを目的とする.具体的には,形態素に関する種々の規則と,統計的知識を利用して,未知の形態素の切出しとその品詞,活用種類,活用形などの推定を行う.推定するたびにその信頼性を評価し,大量のテキストを走査するうちに十分高い信頼性を得るに至ったものを,正しい形態素として辞書に登録する.現在までに,計算機によって自動的に辞書情報を獲得するいくつかの研究が行われてきている\cite{Kokuritu,Suzuki}.また,べた書き日本語文の形態素解析における曖昧さと未知語の問題を統計的手段によって解決しようとする試みもある\cite{Nagata,Simomura}.文献\cite{Nagata}では,品詞のtrigramを用いて言語を統計モデル化し,効率的な2-passN-best探索アルゴリズムを採用している.また,字種のtrigramを利用して未知語処理を行っている.文献\cite{Simomura}では,単語をノードとする木の最小コストパス探索問題として形態素解析をモデル化している.その上で,実際に単語接続確率モデルに基づいてコストを設定し形態素解析を実現している.ここでの研究の目的は,辞書データがほとんどないところから始めても未知語が獲得していける方法を提供することにある.実際に実験システムを構成して,比較的簡易な機構によって目的が達成できることを確認した.本論文の構成は次のようになっている.まず初めに,2章でシステムの概要について述べる.3章,4章では,形態素の連接関係に着目し,形態素と形態素属性を獲得する方法について説明する.5章では,獲得した情報を保管し,十分な信頼性をもつに至ったとき辞書に登録する方式を説明する.最後に,6章で,本手法による実験結果を提示し,まとめを行う.
V20N02-08
label{intro}述語項構造解析は,言語処理分野における挑戦的な研究分野の一つである.この解析は,自然文または自然文による文章から,「誰が,何を,誰に,どうした」というような,基本的な構造情報を抽出する.これらの情報は,文書要約や機械翻訳など,他の応用的な言語処理研究に不可欠なものであり,その他にも幅広い応用が期待されている.図\ref{example1}に,日本語の述語項構造の一例を示す.この例では,「行った」が\textbf{述語}であり,この述語が二つの\emph{項}を持っている.一つは\textbf{ガ格}の「彼」,もう一つは\textbf{ニ格}の「図書館」である.このように,述語とそれに対応する項を抽出し,\textbf{格}と呼ばれるラベルを付与するのが述語項構造解析である.それゆえに,述語項構造解析は,格解析と呼ばれることもある.本稿では,個々の述語—項の間にある関係を\emph{述語項関係},そして,文全体における述語項関係の集合を\emph{述語項構造}と呼ぶことにする.\begin{figure}[b]\begin{center}\includegraphics{20-2ia8f1.eps}\end{center}\caption{日本語述語項構造の例}\label{example1}\end{figure}尚,一般には図\ref{example1}の「昨日」という単語も時間格相当の項の対象となり得るが,本研究の述語項構造解析では限定的な述語項関係を対象としており,「昨日」はその対象としない.この対象の範囲は解析に利用するデータのアノテーション基準に依存する.本研究ではNAISTテキストコーパス~\cite{iida:2007:law}を利用しており,このデータのアノテーションに準拠した述語項関係のみの解析を行う.日本語以外の言語では,意味役割付与と呼ばれる述語項構造解析に相当する解析が行われている.特に英語では,FrameNet~\cite{fillmore:2001:paclic}やPropBank~\cite{palmer:2005:cl}など,意味役割を付与した中規模のコーパスが構築されてきた.さらに近年では,CoNLLSharedTask\footnote{CoNLLSharedTask2004,2005では意味役割付与(SemanticRoleLabeling),同2008,2009では意味論的依存構造解析(SemanticDependencyParsing)のタスクが設定された.}などの評価型ワークショップが意味役割付与をテーマとして複数行われ,盛んに研究されている.日本語の述語項構造解析はいくつかの点で英語の意味役割付与以上に困難であると考えられている.中でも特に大きな問題とされるのが,\emph{ゼロ照応}と呼ばれる現象である.この現象は,述語に対する必須格が省略される現象で,日本語では特にガ格の省略が頻繁に起きる.英語では対象となる述語の項がその述語と同一の文内に出現する上,必須格の述語項関係については,直接係り受け関係(係り受け木上の親子関係)になる場合が多い.ゆえにPropBankではタグ付与の範囲を同一文内に限定しており,解析も相対的に容易になる.ゼロ照応には分類があり,述語に対する項の出現位置によって,\emph{文内ゼロ照応},\emph{文間ゼロ照応},\emph{文章外ゼロ照応(外界照応)}の三つに大別される.述語項関係の種類は,この3種類のゼロ照応に加えて,直接係り受け関係にある場合(以下,「\emph{直接係り受け}」とする),そして同一文節内にある照応(以下,「\emph{同一文節内}」とする)がある.本研究では「直接係り受け」と「文内ゼロ照応」を対象に解析を行うものとする.日本語の述語項構造解析研究では,平ら~\cite{taira:2008:emnlp}や今村ら~\cite{imamura:2009:acl}がNAISTテキストコーパスを用いた研究を行っているが,彼らはいずれも,コーパス中に存在する3種類の格:ガ格,ヲ格,ニ格について,別々のモデルを構築して解析を行っている.また別の視点から見ると,彼らの手法は``述語毎''に解析を行っていると言える.英語における意味役割付与の手法でも,この``述語毎''の解析を行った手法が多い~\cite{toutanova:2008:cl,watanabe:2010:acl}.しかしながら,現実の文書では同じ述語に属する項の間には依存関係があると考えられる.例えば,次の文を考えてみる.\begin{enumerate}\item\textit{ライオン}$_i$が\textit{シマウマ}$_j$を\underline{食べた}$_{ガ:i,ヲ:j}$\end{enumerate}この例文の``食べた''という述語に対し,ガ格とヲ格がともに``ライオン''になることは考えにくいが,ガ格とヲ格を個別に扱う分類器で解析を行った場合,このような矛盾した結果を生んでしまうことがありうる.さらには,ある述語とその項の関係を同定する際に,文内にある他の述語との関係が同定の手がかりになることがある.次の例文を見てみよう.\begin{enumerate}\setcounter{enumi}{1}\itemライオン$_i$に\underline{追いかけ}$_{ガ:i,ヲ:j}$られたシマウマ$_j$が谷底$_k$に\underline{落ちた}$_{ガ:j,二:k}$\end{enumerate}この例文(2)において``ライオン''が項として妥当なものであり,且つ,述語``落ちた''の項が``シマウマ''と``谷底''だけであると仮定すると,``ライオン''はもう一つの述語``追いかける''の項になることが確定する.このように,同一文内に複数の述語が存在し,固有表現などを手がかりとして,項候補が絞り込まれている時には,どの項候補をどの述語に割り当てるべきかという述語間の依存関係を考慮することで,最適な述語—項の配置を得ることができるのである.本研究では日本語の述語項構造解析を扱うが,``文毎''の解析を行う手法を用い,文内に複数ある述語項関係の重要な依存関係を利用できるようにする.このような依存関係を大域的な制約として扱うために,本研究ではMarkovLogicを利用した解析器を提案する.英語の意味役割付与ではMarkovLogicによる手法が提案されており,効果的であることが示されている~\cite{meza:2009:naacl}.これは,MarkovLogicモデルが複数の述語項関係を捉え,その間の依存関係を考慮することにより,文内における論理的矛盾を軽減できるためである.さらに本研究では,述語項構造の要素として不適切な文節を効率的に削減するため,新たな大域的制約を導入する.明らかに不適切な候補を削除することは,適切な述語項構造を抽出するための探索空間を小さくすることができ,項同定を行う述語の推論をより確かなものとする.本稿の実験では,MarkovLogicを用いた日本語述語項構造解析を行い,その大域的制約が効果的に働くことを詳細に示す.従来手法の結果と比較しても,本研究の提案手法は,同等以上の結果を達成していることを示す.また,定性的な分析においても,大域的制約が効果的に働いた事例を紹介する.なお,次章以降,本稿の構成は次のようになる.まず2章では関連研究についてまとめ,3章ではMarkovLogicについて導入の説明を行う.4章では提案手法として構築されるMarkovLogicNetworkについて詳細に述べる.5章は評価実験について述べ,実験結果について考察する.6章はまとめである.
V06N03-04
係り受け解析は日本語文解析の基本的な方法として認識されている.日本語係り受けには,主に以下の特徴があるとされている\footnote{もちろん,例外は存在するが\cite{sshirai:jnlp98},その頻度は現在の解析精度を下回り,現状では無視して構わないと考える.つまり,これらの仮定の基に解析精度を向上させた後に,そのような例外に対し対処する手法を考えればよいのではないかと思う.また,(4)の特徴はあまり議論されてはいないが,我々が行なった人間に対する実験で90\%以上の割合で成立する事が確認された.}.我々はこれらの特徴を仮定として採用し,解析手法を作成した.\begin{itemize}\item[(1)]係り受けは前方から後方に向いている.(後方修飾)\item[(2)]係り受け関係は交差しない.(非交差条件)\item[(3)]係り要素は受け要素を一つだけ持つ.\item[(4)]ほとんどの場合,係り先決定には前方の文脈を必要としない.\end{itemize}このような特徴を仮定した場合,解析は文末から文頭に向けて行なえば効率良く解析ができると考えられる.以下に述べる二つの利点が考えられるためである.今,文節長Nの文の解析においてM+1番目の文節まで解析が終了していると仮定し,現在M番目の文節の係り先を決定しようとしているとする(M$<$N).まず,一つ目の利点は,M番目の文節の係り先は,すでに解析を終了しているM+1番目からN番目の文節のいずれかであるという事である.したがって,未解決な解析状態を積み上げておく必要はないため,チャートパーザーのように活性弧を不必要に多く作る必要はないし,一般的なLRパーザー等で利用されているようなスタックにそれまでの解析結果を積んで後の解析に依存させるという事をしなくて済む.別の利点は,M番目の文節の解析を開始する時点には,M+1番目からN番目の係り受け解析はなんらかの形式において終了しており,可能な係り先は,非交差条件を満足する文節だけに絞られるという事である.実験では,この絞り込みは50\%以下になり,非常に有効である.また,この論文で述べる統計的手法と文末からの解析手法を組み合せると,ビームサーチが非常に簡単に実現できる.ビームサーチは解析候補の数を絞りながら解析を進めていく手法である.ビーム幅は自由に設定でき,サーチのための格納領域はビーム幅と文長の積に比例したサイズしか必要としない.これまでにも,文末からの解析手法はルールベースの係り受け解析において利用されてきた.例えば\cite{fujita:ai88}.しかし,ルールベースの解析では,規則を人間が作成するため,網羅性,一貫性,ドメイン移植性という点で難がある.また,ルールベースでは優先度を組み入れる事が難しく,ヒューリスティックによる決定的な手法として利用せざるを得なかった.しかし,本論文で述べるように,文末から解析を行なうという手法と統計的解析を組み合せる事により解析速度を落す事なく,高い精度の係り受け解析を実現する事ができた.統計的な構文解析手法については,英語,日本語等言語によらず,色々な提案が80年代から数多くあり\cite{fujisaki:coling84}\cite{magerman:acl95}\cite{sekine:iwpt95}\cite{collins:acl97}\cite{ratnaparkhi:emnlp97}\cite{shirai:emnlp98}\cite{fujio:emnlp98}\cite{sekine:nlprs97}\cite{haruno:nlpsympo97}\cite{ehara:nlp98},現在,英語についてはRatnaparkhiのME(最大エントロピー法)を利用した解析が,精度,速度の両方の点で最も進んでいる手法の一つと考えられている.我々も統計的手法のツールとしてMEを利用する.次の節でMEの簡単な説明を行ない,その後,解析アルゴリズム,実験結果の説明を行なう.
V08N01-08
最近様々な音声翻訳が提案されている\cite{Bub:1997,Kurematsu:1996,Rayner:1997b,Rose:1998,Sumita:1999,Yang:1997,Vidal:1997}.これらの音声翻訳を使って対話を自然に進めるためには,原言語を解析して得られる言語情報の他に言語外情報も使う必要がある.例えば,対話者\footnote{本論文では,2者間で会話をすることを対話と呼び,その対話に参加する者を対話者と呼ぶ.すなわち,対話者は話し手と聞き手の両者のことを指す.}に関する情報(社会的役割や性別等)は,原言語を解析するだけでは取得困難な情報であるが,これらの情報を使うことによって,より自然な対話が可能となる.言語外情報を利用する翻訳手法は幾つか提案されている.例えば,文献\cite{Horiguchi:1997}では,「spokenlanguagepragmaticinformation」を使った翻訳手法を,また,文献\cite{Mima:1997a}では,「situationalinformation」を使った手法を提案している.両文献とも言語外情報を利用した手法であり,文献\cite{Mima:1997a}では机上評価もしているが,実際の翻訳システムには適用していない.言語外情報である「pragmaticadaptation」を実際に人と機械とのインターフェースへの利用に試みている文献\cite{LuperFoy:1998}もあるが,これも音声翻訳には適用していない.これら提案の全ての言語外情報を実際の音声翻訳上で利用するには課題が多くあり,解決するのは時間がかかると考えられる.そこで,本論文では,以下の理由により,上記言語外情報の中でも特に話し手の役割(以降,本論文では社会的役割のことを役割と記述する)に着目し,実際の音声翻訳に容易に適用可能な手法について述べる.\begin{itemize}\item音声翻訳において,話し手の役割にふさわしい表現で喋ったほうが対話は違和感なく進む.例えば,受付業務で音声翻訳を利用した場合,「受付」\footnote{本論文では,対話者の役割である「受付」をサービス提供者,すなわち,銀行の窓口,旅行会社の受付,ホテルのフロント等のことを意味し,「客」はサービス享受者を意味している.}が『丁寧』に喋ったほうが「客」には自然に聞こえる.\item音声翻訳では,そのインターフェース(例えば,マイク)によって,対話者が「受付」か否かの情報が容易に誤りなく入手できる.\end{itemize}本論文では,変換ルールと対訳辞書に,話し手の役割に応じたルールや辞書エントリーを追加することによって,翻訳結果を制御する手法を提案する.英日翻訳において,旅行会話の未訓練(ルール作成時に参照していない)23会話(344発声\footnote{一度に喋った単位を発声と呼び,一文で完結することもあり,複数の文となることもある.})を対象に実験し,『丁寧』表現にすべきかどうかという観点で評価した.その結果,丁寧表現にすべき発声に対して,再現率が65\%,適合率が86\%となった.さらに,再現率と適合率を下げた原因のうち簡単な問題を解決すれば,再現率が86\%,適合率が96\%になることを机上で確認した.したがって,本手法は,音声翻訳を使って自然な対話を行うためには効果的であり実現性が高いと言える.以下,2章で『話し手の役割』と『丁寧さ』についての調査,3章で本手法の詳細について説明し,4章で『話し手の役割』が「受付」の場合に関する実験とその結果について述べ,本手法が音声翻訳において有効であることを示す.5章で,音声翻訳における言語外情報の利用について,また,他の言語対への適用について考察し,最後に6章でまとめる.なお,本論文は,文献\cite{Yamada:2000}をもとにさらに調査検討し,まとめたものである.
V15N03-01
今日,大学は社会に貢献することが求められているようになっている.特に,産業界と関係の深い学部においては産学連携が強く求められるようになってきている.そのような産学連携を活性化するためには大学側のシーズを専門用語によって簡単に検索できるシステムが望まれる.そこで,著者らは産学連携マッチングを支援する研究情報検索システムの研究を開始した.本研究では研究情報検索システムの主要要素である専門用語の抽出に取り組んでいる.対象分野としては専門用語による研究情報検索システムのニーズが高く,これまで研究がなされていない分野の1つである看護学分野を選択した.専門用語抽出の研究は情報処理分野を対象にした研究は盛んに行われている.しかしながら,一部の医学・基礎医学分野以外には他分野の専門用語抽出の研究は見当たらない.予備研究によって,病気の症状や治療法を表す専門用語が情報検索分野における代表的な専門用語の抽出方法では抽出が難しいことが判明した.そこで,専門用語になりうる品詞の組合せの拡張と一般的な語を除去することで専門用語抽出の性能改善を図った.以下,2章で従来研究とアプローチについて述べ,3章で提案手法,4章で実験及び評価,5章で考察と今後の課題について述べる.
V29N04-04
\label{sec:introduction}科学は再現性の危機に瀕している.生化学や生命科学などの薬品を用いた化学実験を行う研究分野においては,75\%から80\%以上の研究者が他の研究者の実験結果を再現することができなかった経験があると報告している\cite{baker2016nature}.化学実験で再現性を担保する上で鍵となるのがプロトコルである.プロトコルは人がある実験を再現するために必要な操作を時系列順に記述した文書である(\figref{fig:overview}).プロトコルには,試薬や装置などの操作対象の物体名と,対応する操作方法が動詞で,実験を再現するのに必要十分な記述がされている\footnote{自明である物体名に関しては省略されることもある.例えば,\figref{fig:overview}の手順2では手順1の成果物を指しているが,明示的に記述してはいない.}.加えて,必要であれば物体の量や,操作する時間,あるいは操作の様態が副詞で記述されていることもある.例えば,\figref{fig:overview}の手順3の``Thoroughlyresuspendpelletwith250$\mu$LofCellResuspensionSolution''では,pellet,CellResuspensionSolutionという物体名の記述があり,resuspendという操作方法が動詞で記述されている.加えて,Thoroughlyという副詞や250$\mu$Lという量に関する記述もある.こうしたプロトコルに従って実行することで,理想的には実験を再現することができるはずだが,操作に抜け漏れがあったり,操作の詳細が記述されていなかったりといった問題があると,他の研究者が実験を再現することが困難になる.こうした再現性の危機に関する問題に対する有望な解決となりうるのが,視覚と言語の融合研究である.例えば,撮影した実験映像とプロトコルの組から,映像の操作シーンとプロトコルの各手順の対応関係を推定できれば,手順ごとに視覚的に操作を確認できる.あるいは,作業映像を入力としてプロトコルを自動生成できれば研究者がプロトコルを書く負担を軽減することができる.このように,化学実験を対象とした視覚と言語の融合研究は実験プロトコルの参照時と作成時の両方の負担を軽減し,実験再現性の向上に資するであろう.こうした有用性はあるものの,実験映像を対象とした視覚と言語の融合研究の数は多くない\cite{naim2014aaai,naim2015naacl}.その原因の1つに,実験映像を撮影し公開することが困難な点にある.現に,Naimらの研究で利用しているデータセットは公開されていない.そのため,我々はこの目標に向けた第一歩として,生化学分野を対象として実験映像を収集し,言語アノテーションを付与したBioVL2データセットを構築し研究コミュニティに公開する(\figref{fig:overview}).具体的には以下の2種類のアノテーションを作業映像に付与する.\begin{enumerate}\item\textbf{視覚と言語の対応関係のアノテーション.}プロトコルを動詞ごとに分割した文のそれぞれに対して(本論文ではこれを特に\textbf{手順}と呼ぶ),映像の中で手順が実施されている区間(以下,\textbf{イベント}と呼ぶ)を付与する.このアノテーションは従来の視覚と言語の融合研究\cite{zhou2018aaai,krishna2017iccv}と同様であり,映像キャプショニング\cite{xu2016cvpr,nishimura2021acmmm}や映像と視覚の対応関係の推定\cite{naim2014aaai,naim2015naacl}などの応用研究に活用できる.\item\textbf{プロトコル内に現れる物体の矩形アノテーション.}映像中の各フレームごとに,プロトコル中の物体が写っていて,かつ実験者の手と接触があった場合に物体の矩形情報を付与する.これにより,映像中の空間的な分析(例:何が写っているか,どういう状態か)や実験者の動作分析が可能になる.また,前述のアノテーションと合わせてプロトコル中の物体名と映像中の物体との対応関係の推定\cite{zhou2018bmvc}などの応用研究にも利用できる.\end{enumerate}これらのアノテーションの付与を行うことで,映像からのプロトコル生成や手順を入力としたシーン検索が可能となる.こうした検索が行えると,初学者に対する教育効果や作業補助が期待でき,実験の再現性の向上につながる.また,データがさらに集まるようになれば,最終的にはプロトコルからのロボット操作などのより挑戦的,かつ有用性が高い課題にも取り組むことが可能になる.本研究で提案するBioVL2データセットはこうした生化学実験を対象とした言語と視覚の融合研究への第一歩である.BioVL2データセットの収集において意識した設計は,一人称視点のカメラを用いることで,研究者への撮影の負担を最小限にしたことである.実験の度に大掛かりな撮影環境を構築していては,日々実験を行う研究者らは撮影に負担を感じ,結果データセットのサイズはスケールしない.研究者らが自ら撮影に取り組めるように,できるだけ研究者への負担が少ない設計を考える必要がある.この点で,三人称カメラは撮影の度に広範な実験空間をカバーするのに複数台の設置が必要で,故障のリスクが高くなる他,同時撮影などの手間が発生する.一人称カメラは広範な実験空間をカバーしつつも,生化学分野の研究者が手軽に撮影可能である.これが一人称カメラを用いた理由である.こうして撮影を行った結果,全32の実験映像とそのアノテーションからなるデータセットを構築した.得られたBioVL2データセットを用いて,その応用として本論文では実験映像からプロトコルを生成する課題に取り組む.実験映像の数は他の映像キャプショニングのデータセット\cite{krishna2017iccv,zhou2018aaai,xu2016cvpr}と比較すると少なく,こうした課題で提案されているEnd-to-endな深層学習モデルを本課題に直接適用することは困難である.そのため,本研究では,Ushikuら\cite{ushiku2017ijcnlp}によって提案された手順書生成モデルを活用する.このモデルは本研究と同様,少量の料理映像(20映像)に対して適用できるように外部リソースを活用しながら学習できるよう設計されている.このモデルにいくつかの改良を施し,BioVL2データセットの実験映像からプロトコル生成を生成する課題に取り組む.定量的,定性的評価の結果,モデルは弱いベースラインと比較して,適切なプロトコルを生成できることを確認する.本論文で述べるBioVL2データセットは\cite{nishimura2021iccvw}にて発表したBioVLデータセットの拡張である.具体的には,(1)映像の数を16から倍の32へ増加させたこと,(2)映像への矩形アノテーションを追加で行ったことの2点の拡張を行った.さらに,\cite{nishimura2021iccvw}では行わなかった,実験映像からプロトコルを生成する課題に取り組んだことも本研究の追加の貢献である.BioVLデータセットと同様,BioVL2データセットは研究用途に限り公開する予定である\footnote{\url{https://github.com/misogil0116/BioVL2}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V26N01-05
\label{sec:introduction}対話システムがユーザ発話から抽出するべき情報は,背後にあるアプリケーションに依存する.対話システムをデータベース検索のための自然言語インタフェースとして用いる場合,対話システムはデータベースへのクエリを作成するために,ユーザ発話中で検索条件として指定されるデータベースフィールドとその値を抽出する必要がある.データベース検索対話において,ユーザ発話中からこのような情報を抽出する研究はこれまで多くなされてきた.例えば,\citeA{raymond2007generative,Mesnil2015,Liu2016a}は,ATIS(TheAirTravelInformationSystem)コーパス~\cite{Hemphill:1990:ASL:116580.116613,Dahl:1994:ESA:1075812.1075823}を用いて,ユーザ発話からデータベースフィールドの値を抽出する研究を行っている.ATISコーパスはWizard-of-Ozによって収集されたユーザと航空交通情報システムとの対話コーパスであり,各ユーザ発話中の表現には,出発地や到着日などのデータベースフィールドに対応するタグが付与されている.ATISコーパスを用いた研究の課題はタグの付与された情報を発話から精度よく抽出することである.これらの研究の抽出対象である出発地や到着日などの情報はユーザ発話中に明示的に出現し,直接データベースフィールドに対応するため,データベース検索のための明示的な条件となる.一方,実際の対話には,データベースフィールドには直接対応しないものの,クエリを作成するために有用な情報を含む発話が出現し,対話システムがそのような情報を利用することで,より自然で効率的なデータベース検索を行うことが可能になる.例として,不動産業者と不動産を探す客の対話を考える.不動産業者は対話を通じて客が求める不動産の要件を確認し,手元の不動産データベースから客の要件を満たす不動産を絞り込む.このとき,客の家族構成は,物件の広さを絞り込む上で有用な情報であろう.しかし,家族構成は物件の属性ではなく客の属性であるため,通常,不動産データベースには含まれない.客の家族構成のように,データベースフィールドには直接対応しないが,データベース検索を行う上で有用な情報を{\bf非明示的条件}と呼ぶ\cite{Fukunaga2018}.我々は,非明示的条件を「データベースフィールドに明示的に言及しておらず,『xならば一般的にyである』という常識や経験的な知識によってデータベースフィールドと値の組(検索条件)へ変換することができる言語表現」と定義する.例えば,「一人暮らしをします」という言語表現は,物件の属性について明示的に言及していない.しかし,『一人暮らしならば一般的に物件の間取りは1LDK以下である』という常識により,〈間取り$\leq$1LDK〉という検索条件に変換できるため,これは非明示的条件となる.一方,「賃料は9万円を希望します」や「築年数は20年未満が良いです」のような言語表現は,データベースフィールドに明示的に言及しているため,非明示的条件ではない.また,「渋谷で探しています」のようにデータベースフィールドが省略されている場合でも,省略の補完によって【エリア】というデータベースフィールドに明示的に言及する表現に言い換えることが可能である場合は非明示的条件とはみなさない.\citeA{Taylor1968}による情報要求の分類に照らすと,明示的な検索条件は,ユーザ要求をデータベースフィールドとその値という形式に具体化しているため,調整済みの要求(compromisedneed)に対応する.一方,非明示的条件は,ユーザ自身の問題を言語化しているが検索条件の形式に具体化できていないため,形式化された要求(formalisedneed)に対応する.非明示的条件を利用する対話システムを実現するためには,以下の2つの課題が考えられる.\begin{itemize}\item[(1)]非明示的条件を含むユーザ発話を,データベースフィールドとその値の組(検索条件)へ変換する.\item[(2)]ユーザ発話中から,(1)で行った検索条件への変換の根拠となる部分を抽出する.\end{itemize}課題(1)は,非明示的条件を含む発話からデータベースへのクエリを作成するために必要な処理である.図\ref{fig:dial_ex}に示す対話では,客の発話に含まれる「一人暮らし」という文言から,〈間取り$\leq$1LDK〉という検索条件へ変換できる.本論文では,課題(1)を,発話が関連するデータベースフィールドを特定し,そのフィールドの値を抽出するという2段階に分けて考え,第一段階のデータベースフィールドの特定に取り組む.1つのユーザ発話が複数のデータベースフィールドに関連することもあるので,我々はこれを発話のマルチラベル分類問題として定式化する.発話からフィールドの値を抽出する第二段階の処理は,具体的なデータベースの構造や内容が前提となるため,この論文では扱わず,今後の課題とする.\begin{figure}[b]\begin{center}\includegraphics{26-1ia5f1.eps}\end{center}\caption{対話と非明示的条件から検索条件への変換の例}\label{fig:dial_ex}\end{figure}課題(2)によって抽出された根拠はデータベースへのクエリに必須ではないが,システムがユーザへの確認発話を生成する際に役立つ.非明示的条件を検索条件へ変換する際に用いるのは常識や経験的な知識であり例外も存在するため,変換結果が常に正しいとは限らない.例えば,不動産検索対話において一人暮らしを考えている客が2LDKの物件を希望することもありうる.したがって,システムの解釈が正しいかどうかをユーザに確認する場合がある.この際,システムが行った解釈の根拠を提示することで,より自然な確認発話を生成することができる.図~\ref{fig:dial_ex}のやり取りにおいて,「一人暮らしをしたいのですが.」というユーザ発話をシステムが〈間取り$\leq$1LDK〉という検索条件へ変換したとする.このとき,単に「間取りは1LDK以下でよろしいですか?」と確認するよりも,「一人暮らしということですので,間取りは1LDK以下でよろしいですか?」とシステムが判断した理由を追加することでより自然な対話となる.また,対話として自然なだけではなく,ユーザがシステムの判断に納得するためにも根拠を提示することは重要である\cite{XAI-Gunning,XAI-Monroe}.このような確認発話を生成する際に,ユーザ発話中の「一人暮らし」という表現を〈間取り$\leq$1LDK〉の根拠として抽出することは有用である.また,非明示的条件を含むユーザ発話が与えられたとき,その非明示的条件に関連するデータベースフィールドについての質問を生成するためにも抽出した根拠を利用できる.例えば,図~\ref{fig:dial_ex}中のユーザ発話を【間取り】というデータベースフィールドへ分類し,その根拠として「一人暮らし」を抽出した場合,「一人暮らしということですが,間取りはいかがなさいますか?」という質問を生成できる.非明示的条件に対応できない対話システムでは,このようなユーザ発話に対して,ユーザ発話を理解できなかったという返答を行うか,まだ埋まっていない検索条件について質問を行うことしかできない.また,根拠を抽出し,蓄積することにより,対話中でどのような非明示的条件が出現しやすいかということを,システムの開発者が知ることができる.仮に,「一人暮らし」や「家族4人」のような客の家族構成の情報が頻繁に出現することがわかれば,システムの開発者は,家族構成に関係する情報をデータベースに新規に追加するという改良を施すことができる.本論文では,データベースフィールドへのマルチラベル分類と同時に,根拠抽出を行う.非明示的条件から検索条件への変換の根拠を各発話に対してアノテーションすることはコストが高いため,教師なし学習によって根拠抽出を行う.本論文の貢献は,データベース検索を行うタスク指向対話において,非明示的条件を含むユーザ発話をデータベースフィールドと値の組(検索条件)へ変換し,同時にその根拠をユーザ発話中から抽出する課題を提案することである.本稿では,この課題の一部であるデータベースフィールドへの分類と根拠抽出を行うために,(1)サポートベクタマシン(SVM),(2)回帰型畳込みニューラルネットワーク(RCNN),(3)注意機構を用いた系列変換による3種類の手法を実装し,その結果を報告する.本論文の構成は以下の通りである.2節では関連研究について述べ,本論文の位置付けを明らかにする.3節では本論文で利用するデータと問題設定について詳述する.4節ではデータベースフィールドへの分類とその根拠抽出手法について述べる.5節では評価実験の結果について述べ,6節で本論文をまとめる.
V25N04-01
文節係り受け解析は情報抽出・機械翻訳などの言語処理の実応用の前処理として用いられている.文節係り受け解析器の構成手法として,規則に基づく手法とともに,アノテーションを正解ラベルとしたコーパスに基づく機械学習に基づく手法が数多く提案されている\cite{Uchimoto-1999,Kudo-2002,Sassano-2004,Iwatate-2008,Yoshinaga-2010,Yoshinaga-2014}.文節係り受け情報は,新聞記事\cite{KC}・話し言葉\cite{CSJ}・ブログ\cite{KNBC}などにアノテーションされているが,使用域(register)横断的にアノテーションされたデータは存在しない.我々は『現代日本語書き言葉均衡コーパス』(以下BCCWJ)に対する文節係り受け・並列構造アノテーションを整備した.\modified{対象はBCCWJのコアデータ}で新聞・書籍・雑誌・白書・ウェブデータ(Yahoo!知恵袋・Yahoo!ブログ)の6種類からの使用域からなる.\modified{これらに対して係り受け・並列構造を付与したものをBCCWJ-DepParaとして公開した.}本稿では,アノテーション作業における既存の基準上と工程上の問題について議論し,どのように問題を解決したかについて解説する.既存の基準上の問題については,主に二つの問題を扱う.一つ目は,並列構造・同格構造の問題である.係り受け構造と並列構造は親和性が悪い.本研究では,アノテーションの抽象化としてセグメントとそのグループ(同値類)を新たに定義し,係り受け構造と独立して並列構造と同格構造を付与する基準を示し,アノテーションを行った.二つ目は,節間の関係である.\modified{我々は,}節境界を越える係り受け関係に対する判断基準を示し,アノテーションを行った.工程上の問題においては,文節係り受けアノテーションのために必要な先行工程との関係について述べ,作業順と基準により解決を行ったことを示す.本論文の貢献は以下のとおりである.\begin{itemize}\item使用域横断的に130万語規模のコーパスにアノテーションを行い,アノテーションデータを公開した.\item係り受けと並列・同格構造の分離したアノテーション基準を策定した.\item節境界を越える係り受け関係に対する判断基準を明示した.\item実アノテーション問題における工程上の問題を示した.\end{itemize}\modified{2節では『現代日本語書き言葉均衡コーパス』の概要について述べる.3節ではアノテーション作業で扱った問題について紹介する.4節では先行研究である京都大学テキストコーパスのアノテーション基準\cite{KC}や日本語話し言葉コーパス\cite{CSJ}のアノテーション基準と対比しながら基準を示す.5節では基準の各論について示す.6節ではまとめと今後の課題について述べる.}また,以下では二文節間に係り受け関係を付与することを便宜上「かける」と表現する.
V04N01-02
label{sec:Intro}自然言語処理では,これまで書き言葉を対象として,さまざまな理論や技術が開発されてきたが,話し言葉に関しては,ほとんど何もなされてこなかった.しかし,近年の音声認識技術の進歩によって,話し言葉の解析は自然言語処理の中心的なテーマの1つになりつつある.音声翻訳,音声対話システム,マルチモーダル・インターフェースなどの領域で,自然な発話を扱うための手法が研究され出している.話し言葉の特徴は,言い淀み,言い直し,省略などのさまざまな{\bf不適格性}\,(ill-formedness)である.例えば,(\ref{eq:Sentence1})には,(i)\,言い直し(「ほん」が「翻訳」に言い直されている),(ii)\,助詞省略(「翻訳」の後の格助詞「を」が省略されている)の2つの不適格性がある.\enumsentence{\label{eq:Sentence1}ほん,翻訳入れます.}書き言葉には見られないこれらの現象のために,従来の適格文の解析手法はそのままでは話し言葉の解析には適用できない.したがって,不適格性を扱うための手法を確立することが,話し言葉を対象とした自然言語処理研究にとって必須である.特に,不適格性を扱うための手法をその他の言語解析過程の中にどのように組み込むかが,重要な課題となる.本稿では,テキスト(漢字仮名混じり文)に書き起こされた日本語の話し言葉の文からその文の格構造を取り出す構文・意味解析処理の中で,言い淀み,言い直しなどの不適格性を適切に扱う手法について述べる.不適格文を扱う手法の研究は,以下の3つのアプローチに大別できる.\begin{description}\item[A.不適格性を扱う個別的な手法]話し言葉に特有の不適格性を個別的な手法で扱う.言い直しを扱う手法\cite{Hindle:ACL83-123,Bear:ACL92-56,Nakatani:ACL93-46,佐川:情処論-35-1-46}や助詞省略を扱う手法\cite{山本:情処論-33-11-1322}がある.\item[B.不適格性を扱う一般的な手法]さまざまな不適格性を一般的なモデルに基づいて扱う.以下の2つのモデルに大別される.\begin{description}\item[B-1.二段階モデル(two-stagemodel)に基づく手法]まず,通常の適格文の解析手法で入力文を解析し,それが失敗した場合に,不適格性を扱うための処理を起動する.{\bf部分解析法}\cite{Jensen:CL-9-3-147,McDonald:ANLP92-193}や{\bf制約緩和法}\cite{Weischedel:CL-9-3-161,Mellish:ACL89-102}がある.\item[B-2.統一モデル(uniformmodel)に基づく手法]適格文と不適格文との間に明確な区別をおかず,両者を連続的なものととらえ統一的に扱う.{\bf優先意味論}に基づく手法\cite{Fass:CL-9-3-178}や{\bfアブダクション}に基づく手法\cite{Hobbs:AI-63-69}がある.\end{description}\end{description}本稿では,以下にあげる理由により,統一モデルに基づく手法を用いる.\begin{enumerate}\renewcommand{\theenumi}{}\renewcommand{\labelenumi}{}\item不適格文の処理はしばしば,適格文の処理と同等な能力を必要とする.例えば,言い直しを含む文において修復対象(言い直された部分)の範囲を同定するのは,適格文において従属節の範囲を決めるのと同じ難しさがある.したがって,不適格文を扱うために,従来適格文の処理に使われてきた手法を拡張して使えることが望ましい.\item不適格文と適格文が曖昧な場合がある.例えば,(\ref{eq:Sentence1})の「ほん」はたまたま「本」と同じ字面であるため,「本(に)翻訳(を)入れます」のような適格文としての解釈が可能になる.適格文と不適格文が統一的に扱えないと,このような曖昧性は解消できない.\item話し言葉(特に音声言語)の解析に必要な実時間処理は,不適格文を処理するのに二段階の過程を経る二段階モデルでは実現できない.これに対して,統一モデルでは,漸時的な処理が可能なので,実時間処理を実現しやすい.\item統一モデルは人間の言語処理モデルとしても妥当である.人間はしばしば,文の途中であっても不適格性が生じたことに気がつく.このことは,人間が適格文の処理と並行して,不適格性の検出のための処理を行なっていることを示唆する.\end{enumerate}統一モデルを採用することにより,適格文におけるさまざまな問題(構造の決定や文法・意味関係の付与といった問題)を解決するための手法を拡張することで,不適格性の問題も同じ枠組の中で扱える.より具体的には,言い淀み,言い直しなどを語と語の間のある種の依存関係と考えることにより,{\bf係り受け解析}の拡張として,適格性と不適格性を統一的に扱う手法が実現される.以下,まず\ref{sec:Ill-formed}\,節では,日本語の話し言葉におけるさまざまな不適格性を,音声対話コーパスからの実例をあげながら説明し,統一モデルの必要性を述べる.次に\ref{sec:Uniform}\,節で,本稿で提案する統一モデルに基づく話し言葉の解析手法を説明する.\ref{sec:Evaluation}\,節では,解析の実例をあげるとともに実験システムの性能を評価することで本手法の有効性を検討する.さらに,その適用範囲についても明らかにする.\ref{sec:Comparison}\,節では,従来の手法との比較を述べ,最後に,\ref{sec:Conclude}\,節でまとめを述べる.なお,話し言葉の解析を考える上で,音声情報の果たす役割は重要であるが,本稿では音声処理の問題には立ち入らない.
V05N04-03
label{はじめに}\subsection{複合名詞解析とは}\label{複合名詞解析とは}複合名詞とは,名詞の列であって,全体で文法的に一つの名詞として振る舞うものを指す.そして,複合名詞解析とは,複合名詞を構成する名詞の間の依存関係を尤度の高い順に導出することである.複合名詞は情報をコンパクトに伝達できるため重要な役割を果たしており,簡潔な表現が要求される新聞記事等ではとりわけ多用される.そして,記事中の重要語から構成される複合名詞は,記事内容を凝縮することさえ可能である.例えば,「改正大店法施行」という見出しは,「改正された大店法(=大規模小売店舗法)が施行される」ことを述べた記事の内容を一つの名詞に縮約したものである.そして,このことを理解するためには,{大店法,改正,施行}が掛かり受けの構成要素となる単位であることと,これら3単語間に[[大店法改正]施行]という依存関係があることを理解する必要がある.複合名詞解析の確立は,機械翻訳のみでなく,インデキシングやフィルタリングを通して,情報抽出・情報検索等の高度化に貢献することが期待される.\subsection{従来の手法}\label{従来の手法}日本語の複合名詞解析の枠組みは,基本的に,\begin{itemize}\item[(1)]入力された文字列を形態素解析により構成単語列に分解する.\item[(2)]構成単語列間の可能な依存構造の中から尤度の高いものを選択する.\end{itemize}の二つの過程からなり,この限りでは通常の掛かり受け解析と同一である.異なる点は,品詞情報だけでは解析の手がかりとならないため,品詞以外の情報を利用せざるを得ない点である.品詞以外の手がかりを導入する方法としては,まず人手により記述したルールを主体とする手法が用いられ,大規模なコーパスが利用可能になるにつれ,コーパスから自動的に抽出した知識を利用する手法が主流となってきた.第一の段階である語分割の過程は,通常の形態素解析の一環でもあるが,特に複合名詞の分割を意識して行われたものとして,長尾らの研究\cite{長尾1978}がある.そこでは,各漢字の接頭辞・接尾辞らしさを利用したルールに基づく複合名詞の分割法が提案され\breakており,例えば長さ8の複合名詞の分割精度は84.9\%と報告されている.複合名詞の構造決定に\breakついては述べられていないが,長さ3,4,5,6の複合名詞について深さ2までの構造が人手で調べられている.それによれば,調べられた240個の長さ5の複合名詞については接辞を含んだ構\break造が完全に示されており,その59\%は左分岐構造をとっている.その後宮崎により、数詞の処理,固有名詞処理,動詞の格パターンと名詞の意味を用いた掛かり受け判定等に関する14種類のルールを導入する等、ルールを精緻化し,更に,「分割数が少なく掛かり受け数が多い分割ほど優先する」等のヒューリスティクスを導入することにより,未登録語が無いという条件の下で,99.8\%の精度で複合語の分割を行う手法が提案された\cite{宮崎1984}.コーパスに基づく統計的な手法では,分かち書きの一般的な手法として確率文節文法に基づく形態素解析が提案され\cite{松延1986},ついで漢字複合語の分割に特化して,短単\break位造語モデル(漢字複合語の基本単位を,長さ2の語基の前後に長さ1の接頭辞・接尾辞がそれ\breakぞれ0個以上連接したものとする)と呼ばれるマルコフモデルに基づく漢字複合語分割手法が提案された\cite{武田1987}.確率パラメータは,技術論文の抄録から抽出した長さ2,3,4の連続漢字列を用いて繰り返し法により推定し,頻出語について正解パターンを与える等の改良により,97\%の分割精度を達成している(全体の平均文字長は不明).次の段階である分割された単語の間の掛かり受けの解析についても,ルールに基づく枠組みと,コーパスに基づく枠組み双方で研究されてきた.前者の枠組みとして,宮崎は語分割に関する研究を発展させ,掛かり受けルールの拡充とこれらの適用順序の考慮により,限定された領域については,未知語を含まない平均語基数3.4の複合名詞167個について94.6\%の精度を達成している\cite{宮崎1993}.なお,英語圏でのルールに基づく研究としてはFinin\cite{Finin1980},McDonald\cite{McDonald1982},Isabelle\cite{Isabelle1984}等の研究があるが,シソーラス等の知識に基づくルールを用いる点は同様である.ルールに基づく手法の利点は,対象領域を特化した場合,人手による精密なルールの記述が可能となるため,高精度な解析が可能になることである.しかし,ルール作成・維持にコストがかかることと,一般に移植性に劣る点で,大規模で開いたテキストの取り扱いには向かないといえる.コーパスに基づく手法では,人手によるルール作成・メンテナンスのコストは削減できるが,名詞間の共起のしやすさを評価するために,単語間の共起情報を獲得する必要がある.しかし,共起情報の信頼性と獲得量が両立するデータ獲得手法の実現は容易ではなく,さまざまな研究が行われている.一般には,共起情報を抽出する対象として,何らかの固定したトレーニングコーパスを用意し,適当な共起条件に基づいて自動的に名詞対を取り出す.そのままでは一般に名詞対のデータが不足するので,観測されない名詞対の掛かり受け尤度を仮想的に得るため,名詞をシソーラス上の概念や,共起解析により自動的に生成したクラスタに写像し,観測された名詞間の共起を,そのようなクラス間共起として評価する.例えば,西野は共起単語ベクトルを用いて名詞をクラスタリングし,名詞間の掛かり受けの尤度をクラス間の掛かり受け尤度として捉えた\cite{西野1988}.小林は分類語彙表\cite{林1966}中の概念を利用して,名詞間の掛かり受けの尤度を概念間の掛かり受け尤度により評価した\cite{小林1996}.これらを掛かり受け解析に適用するためには,一般に,複合名詞の掛かり受け構造を二分木で記述し,統計的に求めた名詞間の掛かり受けのしやすさを,掛かり受け構造の各分岐における主辞間の掛かり受けのしやすさとみなし,それらの積算によって掛かり受け構造全体の確からしさを評価する手法が取られる.西野の手法では,平均4.2文字の複合名詞について73.6\%の精度で正しい掛かり受け構造が特定できたと報告されている.小林は,名詞間の距離に関するヒューリスティクスと併用することにより,シソーラス未登録語を含まない,例えば長さ6文字の複合名詞について,73\%の解析精度を得ている.なお英語圏では,Lauerが小林とほとんど同じ枠組みで3語からなる複合名詞解析の研究を行っており\cite{Lauer1995},Rogetのシソーラス(1911年版)を用いて,Gloria'sencyclopediaに出現する,シソーラス未登録語を含まない3語よりなる複合名詞について,81\%の解析精度を得ている.(ただし,小林,Lauerとも,概念間の共起尤度に加え,主辞間の距離や左分岐構造を優先するヒューリスティクスを併用している).以上を総括すると,従来のコーパスに基づく複合名詞解析の枠組みは,固定したトレーニングコーパスを用い,クラス間共起という形で間接的に名詞の共起情報を抽出することにより,掛かり受け構造の推定を行っていたといえる.この場合に生じる問題は,クラスへの所属が不明な単語を扱うことができないことである.例えば新聞記事のような開いたデータを扱う場合には,形態素解析辞書への未登録単語が頻出するばかりでなく(この場合,形態素解析の段階で誤りが発生するため,正解は得られない),形態素解析辞書へ登録されていてもシソーラスに登録されていない単語が出現する可能性があり,解析の際には問題となる.実際,我々が実験に用いた400個の複合名詞中,形態素解析用の辞書または分類語彙表に登録されていない単語を含むものは120個に上った(うち形態素解析辞書未登録語は48個).未登録語の問題は,未登録語の語境界,品詞,所属クラスを正しく推定することができれば解決可能であるが,現時点では,これらについて確立した手法は無い.特に,語の所属クラス推定のためには,与えられたコーパス中でのその語の出現環境を得ることが必要となるため,なんらかの形でコンテクストの参照が必要となる.すなわち,あらかじめ固定したデータのみを用いて解析を行う枠組みでは,開いたコーパスを扱うには限界がある.\subsection{本論文の目的}\label{本論文の目的}本論文では,「あらかじめ固定されたデータのみを用いて解析する」という従来の枠組に対して,「必要な情報をオン・デマンドで対象コーパスから取得しながら解析する」という枠組を提唱し,その枠組における複合名詞解析の能力を検証する.文字インデキシングされた大規模なコーパスを主記憶内に置くことが仮想的ではない現在,本論文で提示する枠組には検討の価値があると考える.十分な大きさのコーパスの任意の場所を参照できれば,複合名詞に含まれる辞書未登録語の発見や,それらを含めた複合名詞を構成する諸単語に関する,様々な共起情報が取得できると思われるが,実際に我々は,テンプレートを用いたパターン照合によりこれらが実現できることを示す.このような手法においては,未登録語の発見はパターン照合の問題へ統合されるうえ,発見された未登録語の共起情報を文字列のレベルで直接参照するため,クラス推定の問題も生じない.データスパースネスの問題については,テンプレートの拡充による共起情報抽出能力の強化と,複合名詞を構成する単語対のうち,一部の共起情報しか観測されない場合に,それらをできるだけ尊重して掛かり受け構造を選択するためのヒューリスティクスを整備する.これらにより,シソーラス等の知識源に依存せず,純粋に表層情報のみを利用した場合の解析精度の一つの限界を目指す.本論文では,長さ5,6,7,8の複合名詞各100個,計400個について,新聞2ヵ月分,1年分\breakを用いて実験を行い,提案する枠組みで,高い精度の複合名詞解析が可能なことを示す.複合名詞解析の精度評価に関しては,パターン照合による未登録語の発見やヒューリスティクスの寄与も明らかにする.\subsection{本論文の構成}\label{本論文の構成}以下{\bf\ref{複合名詞解析の構成}節}では,複合名詞解析の構成の概略を述べ,{\bf\ref{従来手法と問題点の分析}節}では,クラス間共起を用いる手法のうち,クラスとしてシソーラス上の概念を用いる「概念依存法」の概括と,その問題点を整理する.{\bf\ref{文書走査による複合名詞解析}節}では提案手法の詳細を示し,共起データ抽出と構造解析について例を用いて述べる.{\bf\ref{実験結果}節}では,{\bf\ref{文書走査による複合名詞解析}節}で述べた複合名詞の解析実験の結果について示す.{\bf\ref{本論文の目的}}で述べた分析の他,ベースラインとの比較等を行う.最後に,今後の課題について述べる.
V17N05-01
label{Chapter:introduction}近年,Webを介したユーザの情報流通が盛んになっている.それに伴い,CGM(ConsumerGeneratedMedia)が広く利用されるようになってきている.CGMのひとつである口コミサイトには個人のユーザから寄せられた大量のレビューが蓄積されている.その中には製品の仕様や数値情報等の客観的な情報に加え,組織や個人に対する評判や,製品またはサービスに関する評判等のレビューの著者による主観的な見解が多く含まれている.また,WeblogもCGMのひとつである.Weblogにはその時々に書き手が関心を持っている事柄についての記述が存在し,その中には評判情報も多数存在している.これらのWeb上の情報源から,評判情報を抽出し,収集することができれば,ユーザはある対象に関する特徴や評価を容易に知ることができ,商品の購入を検討する際などに意思決定支援が可能になる.また,製品を販売する企業にとっても商品開発や企業活動などに消費者の生の声を反映させることができ,消費者・企業の双方にとって,有益であると考えられる.そのため,この考えに沿って,文書中から筆者の主観的な記述を抽出し,解析する試みが行われている.本研究の目的は評判情報抽出タスクに関する研究を推進するにあたって,必要不可欠と考えられる評判情報コーパスを効率的に,かつ精度良く作成すると共に,テキストに現れる評判情報をより精密に捉えることにある.既存研究においても,機械学習手法における学習データや評価データに評判情報コーパスが利用されているが,そのほとんどが独自に作成された物であるために共有されることがなく,コーパスの質に言及しているものは少ない.また,コーパスの作成過程においても評価表現辞書を作成支援に用いるなど,あらかじめ用意された知識を用いているものが多い.本研究においては「注釈者への指示が十分であれば注釈付けについて高い一致が見られる」という仮説が最初に存在した.その仮説を検証するため,注釈者へ作業前の指示を行った場合の注釈揺れの分析と注釈揺れの調査を行う.\ref{sec:予備実験1の結果}節で述べるように,注釈者間の注釈付けの一致率が十分では無いと判断されたが,注釈揺れの主要な原因の一つとして省略された要素の存在があることがわかった.そのため,省略されている要素を注釈者が補完しながら注釈付けを行うことで注釈付けの一致率を向上できるという仮説を立てた.\ref{sec:予備実験2の結果}節で述べるように,この仮説を検証するために行った実験から,省略の補完という手法は,ある程度効果があるものの,十分に有用であったとはいえないという結果が得られた.そこで,たくさんの注釈事例の中から,当該文と類似する事例を検索し提示することが,注釈揺れの削減に効果があるのではないかという仮説を立てた.この仮説に基づき,注釈事例の参照を行いながら注釈付けが可能なツールを試作した.ツールを用いて,注釈事例を参照した場合には,注釈事例を参照しない場合に比べて,高い一致率で注釈付けを行うことが出来ると期待される.また,評判情報のモデルについて,既存研究においては製品の様態と評価を混在した状態で扱っており,評価対象—属性—評価値の3つ組等で評判情報を捉えていた.本研究では,同一の様態に対してレビュアーにより評価が異なる場合にも評判情報を正確に捉えるために,製品の様態と評価を分離して扱うことを考える.そのために,項目—属性—属性値—評価の4つの構成要素からなる評判情報モデルを提案する.なお,本研究で作成する評判情報コーパスの利用目的は次の3つである.\begin{itemize}\item評判情報を構成要素に分けて考え,機械学習手法にて自動抽出するための学習データを作成する\item属性—属性値を表す様態と,その評価の出現を統計的に調査する\item将来的には抽出した評判情報の構成要素の組において,必ずしも評価が明示されていない場合にも,評価極性の自動推定を目指す\end{itemize}上記の手法により10名の注釈者が作成した1万文のコーパスについて,注釈付けされた部分を統計的に分析し,提案した評判情報モデルの特徴について実例により確認する.また,提案モデルを用いることでより正確に評判を捉えられることを示す.
V20N03-02
\begin{figure}[b]\begin{center}\includegraphics{20-3ia2f1.eps}\end{center}\caption{情報抽出器作成までの流れ}\end{figure}震災時にツイッターではどのようなことがつぶやかれるのか,どのように用いられるのか,また震災時にツイッターはどのように役立つ可能性があるのか.震災当日から1週間分で1.7億にのぼるツイートに対し,短時間で概観を把握し,今後の震災に活用するためにはどうすればよいかを考えた.全体像を得た上で,将来震災が発生した際に,ツイッターなどのSNSを利用し,いち早く災害の状況把握を行うための,情報(を含むツイート)抽出器を作成することを最終目標とし,その方法を探った.この最終目標に至るまでの流れと,各局面における課題および採用した解決策を図1に示した.図1に課題として箇条書きしたものは,そのまま第3章以降の節見出しとなっている.信号処理や統計学の分野において多用される特異値分解は,例えばベクトルで表現される空間を寄与度の高い軸に回転する数学的な処理であり,値の大きな特異値に対応する軸を選択的に用いる方法は,次元圧縮の一手法としてよく知られている.機械学習において,教師データから特徴量の重みを学習することが可能な場合には,その学習によって重みの最適値が求められるが,教師なしのクラスタリングではこの学習過程が存在しないため,特徴量の重みづけに他の方法が必要となることが予想される.筆者らは,本研究の過程に現れるクラスタリングと分類において,古典的な類義語処理および次元圧縮のひとつとしての文書‐単語行列の特異値分解に加え,特異値の大きさを,特徴量に対する重みとして積極的に用いることを試した.現実のデータに対し,現象の分析や,知見を得るに耐えるクラスタリングを行うには,最終的に``確認・修正''という人手の介在を許さざるを得ない.この過程で,従来からのクラスタリング指標であるエントロピーや純度とは別の観点からも,文書‐単語行列に対して特異値分解や特異値による重みづけをすることに一定の効果があることを筆者らは感じた.クラスタリングに多かれ少なかれ見られるチェイニング現象(3.1.3節で詳細を述べる)を激しく伴うクラスタリング結果は,人手による確認・修正作業に多大な負担をもたらすのだが,このチェイニング現象は特異値分解に加えて特異値で重みづけを行うことで緩和される傾向にあることがわかったのである.そこで本研究では,人手による作業の負担を考慮した作業容易度(Easiness)というクラスタリング指標を提案し,人手による作業にとって好ましいクラスタリング結果とはどういうものか探究しつつ,文書‐単語行列の特異値分解と,特異値分解に加えて特異値で重みづけする提案手法の効果,および,従来の指標には表れない要素を数値化した提案指標の妥当性を検証することとする.以下,第2章では,テキストマイニングにおけるクラスタリング,分類,情報抽出の関連研究を述べる.第3章では,情報抽出器作成までの手順の詳細を,途中に現れた課題とそれに対する解決策とともに述べる.第4章ではクラスタリングの新しい指標として作業容易度(Easiness)を提案し,それを用いて,クラスタリングや分類を行う際に,特異値分解あるいは特異値分解に加えて特異値で特徴量の重みづけを行うことの有効性を検証する.第5章では,「拡散希望」ツイートの1\%サンプリングを全分類して得られた社会現象としての知見と,情報抽出器の抽出精度を上げるために行った試行の詳細およびそれに対する考察を述べる.尚,本論文の新規性は,タイトルにあるように「文書‐単語行列の特異値分解と特異値による重み付けの有効性」を示すことであり,関連する記述は3.1.3節および第4章で行っている.ただし,東日本大震災ビッグデータワークショップに参加して実際の震災時のツイートを解析したこと,すなわち研究用データセットではなく,事後ではあるが,現実のデータを現実の要請に従って解析したこと,によって得られた知見を残すことも本稿執筆の目的の一つであるため,情報抽出器作成の過程全てを記してある.
V07N02-03
語彙とは“ある言語に関し(その一定範囲の)あらゆる語を一まとめにして考えた総体”(水谷,1983,p.1)のことである.したがって,日本語なら日本語という特定の1言語に限っても,その内容は一まとめにくくる際の観点をどのように設定するかによって変化しうる.大きく見れば,語彙は時代の進行にそって変化するし,同時代の語彙にも地域,職業,社会階層などによって集団としての差異が存在する.細かく見てゆくならば,個人によっても語彙は違うであろうし,特定の書籍,新聞,雑誌等,言語テキストそれぞれに独自の語彙が存在すると言ってよい.さらに,個人で見ても,その語彙のシステム(心内語彙=mentallexicon)は,発達・学習によって大きく変化し,さらに特定の時点における特定の状況に対応した微妙な調整によって,常に変化しつづけていると考えることができる.こうした語彙の多様性は,ごく簡単に整理すれば,経時的な変動と,それと連動しつつ,表現の主体,内容,形式のバラエティに主に関わる共時的な変動という,縦横の軸からとらえることができる.本研究では,新聞という一般的な言語テキストを対象に,経時的,共時的の両面に関して語彙の系統的な変動を抽出することを試みる.具体的には1991年から1997年までの毎日新聞7年分の電子化テキストを用いて,そこで使われている全文字種の使用状況の変動について,面種と時系列の2つの面から調べる.毎日新聞を対象にしたのは,紙面に含まれる記事の内容が広く,難度も標準的であり,現代日本の一般的な言語表現を観察するのに適していると考えられること,面種等のタグ付けが施されたテキストファイルが利用できること,研究利用条件が整っていて,実際に多くの自然言語処理研究で利用されているため,知見の蓄積があることなどによる.語彙について調べることを目標に掲げる研究で,文字を分析単位としている理由は,日本語の場合,文字が意味情報を多く含んでいて単語レベルに近いこと(特に漢字の場合),単語と違って単位が明確なために処理が容易であること,異なり数(タイプ)が多すぎないので悉皆的な調査も可能であることである.目標と方法の折り合うところとして,文字という単位にまず焦点を当てたのである(電子テキストを用いて,日本語の文字頻度の本格的な計量を行った例としては,横山,笹原,野崎,ロング,1998がある).面種による変動を調べるのは,1種類の新聞の紙面で,どの程度,語彙(本研究では実際には文字)の内容に揺れ(変位)があるかを吟味することをねらいとする.全体で一まとめにして“毎日新聞の語彙”とくくれる語彙の集合を紙面の種類によって下位カテゴリに分割しようとする試みであるとも言える.経済面とスポーツ面とで,使われている語彙に差異があるだろうということ自体は,容易に想像がつくが,本研究では,こうした差異がどの程度まで広範に確認されるかを検討する.テキストのジャンルによる使用語彙の差を分析したものとして,国立国語研究所(1962),Ku\v{c}era\&Francis(1967)を挙げることができる.前者は,1956年に刊行された90の雑誌から抽出した50万語の標本に対して評論・芸文,庶民,実用・通俗科学,生活・婦人,娯楽・趣味の5カテゴリを設定し,後者は1961年にアメリカ合衆国で出版された本,新聞,雑誌等から抽出した100万語のコーパスに報道記事,宗教,恋愛小説等の15カテゴリを設定している.ただし,いずれも対象としているテキストの種類が多岐にわたるだけに語彙の差が検出しやすい条件にあると見ることができるが,カテゴリ間に見られる差についての検討は十分なものではない.本研究の場合,新聞1紙の中でどの程度の内容差を検出できるかを,文字という単位で悉皆的に分析するところに特色がある.語彙の時系列的な変動に関しては,世代,時代といった長い時間幅であれば,様々に研究されているが,7年間という,この種の分析としては短い時間幅で,どのような変動が観察されるかを詳細に分析するところに本研究の独自性がある.本研究では,7年全体での変動としてのトレンドに加えて,循環性のある変動として月次変動(季節変動)も調べる.時系列的な微細な分析は,経済,自然の分野では多くの実例があるものの,言語現象への適用は未開拓である.実際,言語テキストの月単位,年単位でのミクロな分析は,近年の大規模電子コーパスの整備によってようやく現実的なものとなったという段階にあるにすぎない.新聞での用字パタンに時系列な変動が存在すること自体は予想できる.たとえば,“春”という文字は春に,“夏”という文字は夏に多用されそうである.しかし,そもそも,“春”なら“春”の字がある時期に多用されるといっても,実際のパタンがどうであるのか,また,こうした季節変動が他の文字種を含めてどの程度一般的な現象であるのかというのは調べてみなければわからない.時系列変動の中でも,月次変動に関しては,筆者らは既に新聞のカタカナ綴りを対象とした分析(久野,野崎,横山,1998;野崎,久野,横山,1998),新聞の文字を対象とした分析(久野,横山,野崎,1998)を報告している.そこでは,月ごとの頻度プロフィールの相関をベースに,隣接月次の単語・文字の使用パタンが類似したものとなり,12ヵ月がほぼ四季と対応する形でグルーピングできることを示したが,本報告では,個々の文字をターゲットとして時系列的変動の検出を試みる.この時系列変動の調査は,トレンドに関しては,近年における日本語の変化の大きさについて考えるための基礎資料となるという点からも意味が大きい.また,月次変動,季節変動については,日本の場合,風土的に四季の変化が明確であり,その変化をめでる文化をもち,様々な生活の営みが1年の特定時期と結びついているという点から,分析の観点として有効性が高いことが期待される.以下では,面種変動,時系列変動という順序で,分析結果を報告する.実際の分析は,両方を行き来し,重ね合せながら進めたが,面種変動の方が結果が単純であり,また,時系列変動の分析では面種要因を考慮に入れる操作をしているという事情による.
V31N03-04
人間は,小説を読む際,そこに出てくるセリフが誰のセリフなのかを理解しながら読み進めることができる.これは,テキスト中に,話者を特定する手がかりが十分に与えられているからである.代表的な手がかりとして,次のものがある.\begin{enumerate}\itemセリフの前後の地の文において,『Aは言った』のような形式で,話者が明記される\item連続するセリフでは,話者が交替する(話者交替)\itemセリフの口調や発話内容から,話者が特定できる\end{enumerate}これらの手がかりのうち,どの手がかりが多く与えられるかは,個々の小説によって異なる.たとえば,英語の小説\textit{PrideandPrejudice}では,前後の地の文で話者が明記されるセリフが,全体の約25\%を占めると報告されており\cite{He},コンピュータによる話者の自動推定の研究でも,話者の明記や話者交替を主な手がかりとして利用する方法が主流である\cite{He,Muzny}.一方,日本語のライトノベル\cite{Ohmori2004,Ishii2022}では,話者が明記されるセリフは比較的少ない.さらに,話者候補が明記されていても話者を特定できない場合もある.次の例におけるセリフ$U_3$と$U_4$が,その一例である\footnote{$N_i$は地の文を,$U_j$はセリフを表す.}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{screen}$N_1$:そう即答したステフに。\\$N_2$:しかし兄妹は、対照的にうつむく。\\$U_3$:「……いい、な……」\\$U_4$:「……ああ、そう言い切れるのは、ホントに羨ましいよ」\\$N_5$:だが------兄は静かな声で、しかし問答無用に。\\$N_6$:ステファニー・ドーラの、その希望を切り捨てる。\\$U_7$:「だがその願いは叶わない」\\\rightline{『ノーゲーム・ノーライフ』\cite{ノーゲーム・ノーライフ}pp.~143--144より}\end{screen}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%この例のセリフ$U_3$と$U_4$は,兄妹のいずれかのセリフであることが文$N_2$から推測できる.しかし,どちらが兄で,どちらが妹のセリフであるかは,周辺の地の文だけからでは判定できない.この2つのセリフの話者を推定する主要な手がかりは,セリフの口調にある.読者は,この場面に至るまでに,兄妹がそれぞれどのような口調を使うかを無意識に学習しており,それに基づいてセリフの話者を同定する.ライトノベルではこのようなセリフが多いため,ライトノベルを対象とした話者の自動推定では,セリフの口調に基づいて話者を推定することが必要になると考えられる.なお,本研究では,口調を,セリフの表記に現れるスタイル的特徴を包括する概念と定義する.すなわち,口調とは文末表現などの特定の要素を指し示すものではなく,文末表現や一人称,語彙,セリフの長さなど多様な特徴の複合体と捉える.与えられたセリフの話者を推定する方法としてすぐに思い付くのが,話者をクラスとして,セリフを話者クラスに分類する分類器を実現する方法である.しかし,登場人物は個々の小説で異なるため,このような分類器の学習には,対象小説の登場人物のセリフを集め,それに話者ラベルを付与した学習データが必要となる.話者の明記などの手がかりを用いて話者が確定するセリフを自動収集することは可能であるが,分類器の学習に十分な量の学習データを集めるのは難しい.そこで本研究では,多くの小説に横断的に見られる口調に着目し,セリフと話者を直接結びつけるのではなく,口調を介してセリフと話者を結びつける方法を採用する.具体的には,対象小説以外の小説のセリフデータを利用して,セリフを口調の特徴を埋め込んだベクトルに変換する\textbf{口調エンコーダ}を実現する.そして,口調エンコーダによってもたらされるベクトル(口調ベクトル)を用いて,少量のラベル付きセリフデータから話者を推定する方法を実現する.本研究の目的は,このような,口調を手がかりに利用した話者推定システムを実現し,日本語のライトノベルの話者推定に対する口調の有効性を確かめることである.話者の自動推定とは,セリフに対する話者ラベルの自動付与を意味する.つまり,話者の自動推定が実現できれば,各セリフに話者ラベルを付与した小説テキストデータの作成が容易となる.このようなテキストは,発話の理解や小説の理解を目指す研究のための基礎資料となる.同時に,特定のキャラクターを模した対話システム\cite{なりきりAI,なりきりAI2,なりきり対話}の実現のために必要な,対象のキャラクターのセリフの収集を容易にする.本論文の貢献は次の通りである.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\begin{enumerate}\itemセリフの口調をベクトル化する方法として,文エンコーダと分類器を組み合わせた口調エンコーダの基本構成を提案した.さらに,口調エンコーダの実装として80種類の構成を検討し,どのような構成が優れているかを実験的に明らかにした.\item口調ベクトルを利用した話者推定法として,\textbf{口調に基づく話者同定}を提案した.この手法では,セリフ実例から話者の口調を表すベクトル(代表口調ベクトル)を算出し,話者を同定したいセリフの口調ベクトルと各話者候補の代表口調ベクトルの距離に基づき,話者を同定する.この手法が必要とするセリフ実例の数は,各話者に対して10件程度であり,大量のセリフ実例を必要としない点に特徴がある.さらに,口調に基づく話者同定では,あらかじめ話者候補を絞り込んでおくことが効果的であることを確かめた.\item日本語のライトノベルを対象とした話者推定システムとして,口調に基づく話者同定の前段に,話者候補生成モジュールを配置したシステムを提案した.このシステムでは,前段のモジュールで話者が確定したセリフを代表口調ベクトルの算出に使用するため,あらかじめセリフ実例を準備する必要がない.\item上記の話者推定システムを5つの作品に実際に適用し,口調エンコーダで生成した口調ベクトルが,話者推定に活用できることを実験的に明らかにした.\end{enumerate}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%S2
V27N04-07
比喩表現は,意味解釈の構成性の要請を満たさない事例の代表である.\citeA{Lakoff-1980}(日本語訳\cite{Lakoff-1986})は「思考過程の大部分が比喩によって成り立つ」と言及している.言語学においても,そもそも形態や語彙,辞書構造,文法をはじめ,言語の大部分が比喩的な性質に\fixed{基づくとされ},比喩研究は「言語の伝達のメカニズムを理解していくための基礎的な研究」と位置づけられる\cite{山梨-1988}.また,言語処理においても基本義からの転換という現象が意味処理の技術的障壁になっている.比喩表現データベースは,言語学・言語処理の双方で求められている重要な言語資源である.そこで我々は,『現代日本語書き言葉コーパス』\cite{Maekawa-2014-LRE}(以下BCCWJと呼ぶ)コアデータ1,290,060語57,256文に基づく大規模比喩表現データベースを構築した.比喩性の判断は,受容主体の主観によ\fixed{るものであ}り,形式意味論的な妥当性・健全性を保持しうるものではない.我々は,\fixed{研究対象となる比喩表現が適切に含まれるような}作業手順としてMIP(MetaphorIdentificationProcedure)\cite{Pragglejaz-2007}を拡張したMIPVU(MetaphorIdentificationProcedureVUUniversityAmsterdam)\cite{steen-2010}を取り入れる.さらに,\fixed{安定的に一貫して抽出する}ため,先行研究の中でもより形式的に比喩を捉える\citeA{中村-1977}の研究に倣い,\fixed{\underline{喩辞(喩える表現)の}}\underline{\bf基本義からの語義の転換・}\underline{逸脱と\fixed{喩辞に関連する}要素の結合}に着目する.\fixed{喩辞の}語義の転換・逸脱の判断には,『分類語彙表』\cite{WLSP}に基づいた語義を用い,\fixed{被喩辞(喩えられる表現)との語義の差異を検討する\footnote{本稿では,喩える表現・語を「喩辞」,喩えられる表現・語を「被喩辞」と呼ぶ.それぞれ,「喩詞」と「被喩詞」,「ソース(source)」と「ターゲット(target)」,「サキ」と「モト」,「媒体(vehicle)」と「主題(topic)」と呼ばれるものに相当する.}.}\fixed{さらに,被喩辞相当の語義があるべき箇所に喩辞の語義が現れる}表現中の要素の結合における比喩的な転換・逸脱の有無を確認する.\fixed{比喩表現と考えられる部分について,喩辞相当の出現箇所を同定するともに,比喩関連情報をアノテーションする.}但し,非専門家が比喩表現と認識しない表現を多く含む結果となるため,非専門家の判断としてクラウドソーシングによる比喩性の判断を収集する.我々が構築した指標比喩データベースは,以下のもので構成される:\begin{itemize}\item比喩表現該当部(\ref{subsec:db:extract}節)\item比喩指標要素とその類型\cite{中村-1977}(\ref{subsec:db:nakamura}節),その分類語彙表番号(\ref{subsec:db:nakamura}節,\ref{subsec:db:wlsp}節)\item比喩的転換に関わる要素の結合とその類型(\ref{subsec:db:nakamura}節),その分類語彙表番号(\ref{subsec:db:wlsp}節)\item概念マッピングにおける喩辞・被喩辞(\ref{subsec:db:anno}節),その分類語彙表番号(\ref{subsec:db:wlsp}節)\item概念マッピングに基づく比喩種別(擬人・擬生など)(\ref{subsec:db:anno}節)\item非専門家の評定値(比喩性・新奇性・わかりやすさ・擬人化・具体化)(\ref{subsec:db:crowd}節).\end{itemize}本稿では,そのデータ整備作業の概要を示すとともに構築したデータベースの基礎統計や用例を示す.\fixed{本研究の貢献は次の通りである.まず,BCCWJコアデータ6レジスタ(Yahoo!知恵袋・白書・Yahoo!ブログ・書籍・雑誌・新聞)1,290,060語57,256文に基づく,日本語の大規模指標比喩データベースを構築した.この指標比喩データベース構築において,まず英語で実施された比喩用例収集手法であるMIP,MIPVUに対して『分類語彙表』の語義に基づく手法を提案し,日本語の比喩用例収集作業手順を整理した.本作業に必要な比喩用例収集の手掛かりとなる\citeA{中村-1977}の比喩指標要素(359種類)を電子化し,新たに分類語彙表番号を付与し,再利用可能な比喩指標要素データベースを整備した.また,収集した比喩表現に対し,喩辞・被喩辞・分類語彙表番号・比喩種別などをアノテーションした.さらに,収集した指標比喩を刺激としてクラウドソーシングによる質問紙調査を実施し,非専門家の比喩性判断を収集した.構築した大規模指標比喩データベースに基づく調査が可能となったため,比喩表現の遍在性を確認し,非専門家の比喩性判断の実態を明らかにした.}本稿の構成は次のとおりである.\ref{sec:related}節に関連研究を示す.\ref{sec:db}節ではデータ整備の概要について解説する.\ref{sec:eval}節ではデータの集計を行い,指標比喩の分布を概観する.\ref{sec:final}節にまとめと今後の方向性について示す.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V26N01-06
フレーズベースの統計的機械翻訳\cite{Koehn:2003:SPT:1073445.1073462}は,フレーズを翻訳単位として機械翻訳を行う手法である.この手法では局所的な文脈を考慮して翻訳を行うため,英語とフランス語のように,語順が似ている言語対や短い文においては高品質な翻訳を行えることが知られている.しかし,英語と日本語のように,語順が大きく異なる言語対では,局所的な文脈を考慮するだけでは原言語のフレーズを目的言語のどのフレーズに翻訳するかを正しく選択することは難しいため,翻訳精度が低い.このような語順の問題に対し,翻訳器のデコーダで並び替えを考慮しつつ翻訳する手法\linebreak\cite{Tillmann:2004:UOM:1613984.1614010},翻訳器に入力する前に原言語文の語順を目的言語文の語順に近づくよう並び替える事前並び替え\cite{nakagawa2015},原言語文をそのまま翻訳した目的言語文を並び替える事後並び替えが提案されている\cite{hayashi-EtAl:2013:EMNLP}.特に事前並び替え手法は,長距離の並び替えを効果的かつ効率的に行える\cite{E14-1026,nakagawa2015}.先行研究として,Nakagawa\cite{nakagawa2015}はBracketingTransductionGrammar(BTG)\cite{Wu:1997:SIT:972705.972707}にしたがって構文解析を行いつつ事前並び替えを行う手法を提案している.この手法は事前並び替えにおいて最高性能を達成しているが,並び替えの学習のために人手による素性テンプレートの設計が必要である.そこで,本稿では統計的機械翻訳のためのRecursiveNeuralNetwork(RvNN)\cite{GollerandKuchler,Socher:2011:PNS:3104482.3104499}を用いた事前並び替え手法を提案する.ニューラルネットワークによる学習の特徴として,人手による素性テンプレートの設計が不要であり,訓練データから直接素性ベクトルを学習できるという利点がある.また,RvNNは木構造の再帰的ニューラルネットワークであり,長距離の並び替えが容易に行える.提案手法では与えられた構文木にしたがってRvNNを構築し,葉ノードからボトムアップに計算を行っていくことで,各節ノードにおいて,並び替えに対して重要であると考えられる部分木の単語や品詞・構文タグを考慮した並び替えを行う.統計的機械翻訳をベースにすることで,事前並び替えのような中間プロセスに注目した手法の性能が翻訳全体に与える影響について明らかにできる利点がある.また統計的機械翻訳のようにホワイトボックス的なアプローチは,商用翻訳においてシステムの修正やアップデートが容易であるという利点もある.さらに現在主流のニューラル機械翻訳\cite{D15-1166}でも,統計的機械翻訳とニューラル機械翻訳を組み合わせることで性能を向上するモデルが先行研究\cite{D17-1149}により提案されており,統計的機械翻訳の性能を向上させることは有益である.英日・英仏・英中の言語対を用いた評価実験の結果,英日翻訳において,提案手法はNakagawaの手法と遜色ない精度を達成した.また詳細な分析を実施し,英仏,英中における事前並び替えの性能,また事前並び替えに影響を与える要因を調査した.さらに近年,機械翻訳の主流となっているニューラル機械翻訳\cite{D15-1166}において事前並び替えが与える影響についても実験を行い検証した.
V16N03-03
\subsection{背景\label{haikei}}事物の数量的側面を表現するとき,「三人」,「5個」,「八つ」のように,「人」,「個」,「つ」という付属語を数詞の後に連接する.これらの語を一般に助数詞と呼ぶ.英語などでは``3students'',``5oranges''のように名詞に直接数詞が係って名詞の数が表現されるが,日本語では「3人の学生」,「みかん五個」のように数詞だけでなく助数詞も併せて用いなければならない.形態的には助数詞はすべて自律的な名詞である数詞に付属する接尾語とされる.しかし,助数詞の性質は多様であり,一律に扱ってしまうことは統語意味的見地からも計算機による処理においても問題がある.また構文中の出現位置や統語構造によって,連接する数詞との関係は異なる.つまり,数詞と助数詞の関係を正しく解析するためには1)助数詞が本来持つ語彙としての性質,そして2)構文中に現れる際の文法的な性質について考慮する必要がある.KNP~\cite{Kurohashi}やcabocha~\cite{cabocha}などを代表とする文節単位の係り受け解析では,上記のような数詞と助数詞の関係は同じ文節内に含まれるため,両者の関係は係り受け解析の対象にならない.ところが,単なる係り受け以上の解析,例えばLexicalFunctionalGrammar(以下,LFG)やHead-drivenPhraseStructureGrammar(以下,HPSG)のような句構造文法による解析では,主辞の文法的役割を規程する必要がある.つまり文節よりも細かい単位を対象に解析を行うため,名詞と助数詞の関係や数詞と助数詞の関係をきちんと定義しなければならない.上記のような解析システムだけでなく,解析結果を用いた応用アプリケーションにおいても助数詞の処理は重要である.\cite{UmemotoNL}で紹介されている検索システムにおける含意関係の判定では数量,価格,順番などを正しく扱うことが必要とされる.\subsection{\label{mokuteki}本研究の目的}本稿では,数詞と助数詞によって表現される構文\footnote{但し,「3年」,「17時」など日付や時間に関する表現は\cite{Bender}と同様にこの対象範囲から除く.}を解析するLFGの語彙規則と文法規則を提案し,計算機上で実装することによってその規則の妥当性と解析能力について検証する.これらのLFG規則によって出力された解析結果(f-structure)の妥当性については,下記の二つの基準を設ける.\begin{enumerate}\item{他表現との整合}\\統語的に同一の構造を持つ別の表現と比較して,f-structureが同じ構造になっている.\item{他言語との整合}\\他の言語において同じ表現のf-structureが同じ構造になっている.\end{enumerate}\ref{senkou}章では助数詞に関する従来研究を概観し,特に関連のある研究と本稿の差異について述べる.\ref{rule}章では助数詞のためのLFG語彙規則と助数詞や数詞を解析するためのLFG文法規則を提案する.\ref{fstr}章では\ref{rule}章で提案したLFG規則を\cite{Masuichi2003}の日本語LFGシステム上で実装し,システムによって出力されるf-structureの妥当性を上記の二つの基準に照らして検証する.日本語と同様にベトナム語や韓国にも日本語のそれとは違う性質をもった固有の数詞と助数詞が存在する\cite{yazaki}.また,日本語の助数詞は一部の語源が中国語にあるという説もあり,その共通性と差異が\cite{watanabe}などで論じられている.そこで,ParallelGrammarProject\cite{Butt02}(以下,ParGram)においてLFG文法を研究開発している中国語LFG文法\cite{ji}で導出されたf-structureを対象にして,基準2を満たしているかを確認するために比較を行う.``3~kg''の`kg'や,``10dollars''の`dollar'など,英語にも数字の後に連接する日本語の助数詞相当の語が存在する.また,日本語においても英語のように助数詞なしに数詞が直接連接して名詞の数量を表現する場合もある.ParGramにおいて英語は最初に開発されたLFG文法であり,その性能は極めて高い\cite{Riezler}.ParGramに参加する他の言語は必ず英語のf-structureとの比較を行いながら研究を進める.以上のことから,中国語だけではなく\cite{Riezler}の英語LFGシステムで出力されたf-structureとの比較を行う.\ref{hyouka}章では精度評価実験を行って,解析性能を検証する.数詞と助数詞によって形成される統語をLFG理論の枠組みで解析し,適切なf-structureを得ることが本研究の目的である.
V28N03-08
アイヌとは北海道・樺太・千島列島に住む民族であり,独自の文化と言語を持っているが,これらは19世紀後半から行われた同化政策の影響で急速に失われていった.これに対して,20世紀後半からアイヌ文化保護活動が活発に行われており,その過程で多くの口頭伝承の音声が収録されてきた.このような録音資料はアイヌ文化を理解するうえで重要な役割を果たすものであるが,アイヌ語に関する専門知識を持った人材の不足からその大半は未だ書き起こされておらず,十分に活用されていないというのが現状である.そこで,アイヌ語に対する音声認識システムを構築することが強く求められているが,これまで本格的な研究は行われていない.近年,音声認識技術は大規模コーパスと深層学習の導入によって劇的な進歩を遂げ,実用的な水準に達している\cite{conformer,sota_dnn_hmm}.その代表的なもので,現在最も用いられているDNN-HMMハイブリッドモデル\cite{dnn_hmm}は,音響モデル,言語モデル,発音辞書からなる階層構造を持っている.一方で,音響特徴量列から直接ラベル列へと変換するEnd-to-Endモデル\cite{attn}がその単純な構造と応用の容易さから活発に研究されており,ハイブリッドモデルと同等以上の性能を達成しつつある.しかしながら,これらの深層学習を適用するためにはかなり大規模な学習データが必要となるため,低資源言語において実現することは難しい.本研究で構成するアイヌ語音声コーパスは40時間の音声データからなるが,これは『日本語話し言葉コーパス(CSJ)』\cite{csj}や英語のLibriSpeechコーパス\cite{libri}などと比較して10分の1以下であり,アイヌ語もまた低資源言語に分類される.低資源言語の音声認識のために,表現学習\cite{feature_learning1,cross_language_feature_learning2}やマルチリンガル学習\cite{multi_3_1,multi_3_2,multi_3_3}が検討されている.表現学習では,主要言語の大規模コーパスで学習された多層パーセプトロンを特徴抽出器として使用する.マルチリンガル学習では,認識対象でない言語のデータで学習データの量を補完して音声認識モデルを学習させる.これらの手法はアイヌ語音声認識においても有用であることが予想されるが,アイヌ語音声コーパスは話者数の少なさと話者毎のデータ量の偏りという特徴を持っており,上記の手法を単純に適用できない.また,アイヌに関する一次資料は日本語とアイヌ語が混合した音声であるが,高い音声認識性能を得るためにはアイヌ語の発話区間をあらかじめ抽出しておく必要がある.音声データにおける言語識別の従来手法として,フォルマントに基づくもの\cite{lid_proto1},音素認識モデルと言語モデルを組み合わせたもの\cite{lid_hmm1},音響特徴量列から直接言語ラベルを出力するもの\cite{cai2019}などが存在するが,日本語アイヌ語混合音声には一人の話者が複数の言語を流暢に話すという点で上記の研究対象より難度が高い.本稿の構成を以下に記す.まず,我々は白老町アイヌ民族博物館と平取町アイヌ文化博物館から提供されたアイヌ語アーカイブのデータを元にアイヌ語音声コーパスを構成する.次に,本コーパスを用いたアイヌ語音声認識において,音素・音節・ワードピース・単語の4つの認識単位を比較する.実験は,学習セットと評価セットで話者が同一である話者クローズド条件と,話者が異なる話者オープン条件で行う.話者オープン条件での認識性能の低下を緩和するために,CycleGANを用いた声質変換技術による教師なし話者適応を提案する.最後に,日本語とアイヌ語が混合した音声における言語識別について検討を行う.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V15N04-03
\label{hajimeni}近年,統計的言語処理技術の発展によりテキスト中の人名や地名,組織名といった固有表現(NamedEntity)を高精度で抽出できるようになってきた.これを更に進めて,「福田康夫(人名)」は「日本(地名)」の「首相(関係ラベル)」であるといった固有表現間の関係を抽出する研究が注目されている\cite{brin1998epa,agichtein2000ser,hasegawa2004dra,zelenko2003kmr}.固有表現間の関係が抽出できれば,テキストからRDF(ResourceDescriptionFramework)で表現される様な構造化データを構築することが可能となる.この構造化データを用いれば,例えば「大阪に本社がある会社の社長」といった「地名⇔組織名」と「組織名⇔人名」の関係を辿るような「推論」を行なうことができ,より複雑な情報検索,質問応答や要約に有益である.我々は,入力されたテキストから関係3つ組である[固有表現$_{1}$,固有表現$_{2}$,関係ラベル]を抽出する研究を進めている.例えば,「福田康夫氏は日本の首相です。」というテキストから[福田康夫,日本,首相]の関係3つ組を抽出する.この関係3つ組をテキストから抽出するには,(a)テキストにおける固有表現の組の意味的関係の有無を判定({\bf関係性判定})する技術と,(b)固有表現の組の関係ラベルを同定する技術が必要である.本論文では,(a)のテキスト内で共起する固有表現の組が,そのテキストの文脈において意味的な関係を有するか否かを判定する手法を提案する.ここでは,英語での関係抽出の研究であるACE\footnote{http://projects.ldc.upenn.edu/ace}のRelationDetectionandCharacterizationの指針に準じて,固有表現間の意味的関係について以下のように定義する.\vspace{1\baselineskip}\begin{itemize}\item次の2種類の単位文,(1)『固有表現$_{1}$が固有表現$_{2}$を〜する』もしくは(2)『固有表現$_{1}$の〜は固有表現$_{2}$だ』で表現しうる関係が,テキストにおいて言及,または含意されている場合,単位文の要素となる二つの固有表現は意味的関係を有する.\end{itemize}\vspace{1\baselineskip}ここで,単位文(1)『固有表現$_{1}$が固有表現$_{2}$を〜する』においては,格助詞を「が」「を」に固定しているわけでなく,任意の格助詞,『固有表現$_{1}$が固有表現$_{2}$で〜する』や『固有表現$_{1}$を固有表現$_{2}$に〜する』,でも良い.意味的関係を有する固有表現の組について例を示す.例えば「温家宝首相は人民大会堂で日本の福田康夫首相と会談した。」というテキストでは,『温家宝が福田康夫と会談した』,『温家宝が人民大会堂で会談した』,『福田康夫が人民大会堂で会談した』,『日本の首相は福田康夫だ』が言及されているため,「温家宝⇔福田康夫」,「温家宝⇔人民大会堂」,「福田康夫⇔人民大会堂」,「日本⇔福田康夫」の組が意味的関係を有する.また,「山田さんが横浜を歩いていると,鈴木さんと遭遇した。」というテキストでは,『山田が横浜を歩いていた』,『山田が鈴木と遭遇した』が言及されており,また『鈴木が横浜にいた』が含意されているため,「山田⇔横浜」,「山田⇔鈴木」,「鈴木⇔横浜」の組が意味的関係を有する.固有表現間の関係性判定の従来研究は,単語や品詞,係り受けなどの素性を用いた機械学習の研究が多い\cite{culotta2004dtk,kambhatla2004cls,zelenko2003kmr}.例えば,\citeA{kambhatla2004cls}らの研究では,与えられた二つの固有表現の関係の有無を判断するのに,係り受け木における二つの固有表現の最短パスと,二つの固有表現の間の単語とその品詞を素性として利用した手法を提案している.特に,係り受け木における二つの固有表現の最短パスを素性として利用することが,固有表現間の関係性判定に有効であることを報告している.しかし,{\ref{method}}で後述するように,実データ中に存在する意味的関係を有する固有表現の組のうち,異なる文に出現する固有表現の組は全体の約43.6\%を占めるにも関わらず,従来手法では,係り受けなどの文に閉じた素性だけを用いている.この文に閉じた素性は,異なる文に出現する固有表現間の組には利用できず,従来手法では,二つの固有表現の間の単語とその品詞だけを素性として利用するため,適切に意味的関係の有無を判別することができない.本論文では,係り受けなどの文に閉じた素性だけでなく,文脈的情報などの複数の文をまたぐ素性を導入した機械学習に基づく関係性判定手法を提案し,その有効性について議論する.
V27N02-06
言語による指示に加えて,その指示内容を示す動作途中の写真があれば,その写真を参考にして調理を行いやすくなる.したがって,各手順に写真が付与された「写真付きレシピ」により作業内容を示すことは有益である.しかし,写真付きレシピを作成するためには,写真を撮影しながら手順を実施し,実施後に各写真に対応する手順を記述する必要があり,作者にとって負担である.本研究の目的は,写真列を入力としてレシピを自動生成することで,写真付きレシピの作成を容易にすることである.この目的を達成するために,本論文では,写真列を入力として与え,システムは各写真ごとに手順を生成する問題として定式化した課題と,この課題を解決する手法を提案する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{27-2ia5f1.eps}\end{center}\hangcaption{写真列からのレシピの自動生成.入力が写真列であり(左),出力が複文からなる手順である(右).手順は写真列の各写真ごとに生成する.}\label{fig:task_overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%図\ref{fig:task_overview}に本論文で対象とする課題の概要を示す.入力の写真列の各写真に対し,複数の文からなる手順が対応している.これらの手順全体を本論文ではレシピと呼ぶ.本論文で取り上げる写真列の各写真は手順実施の上で重要な場面で写真を撮影したものであり,手順途中の情報が十分に含まれている.また,各写真に対して1つの手順が対応するため,生成すべき手順数が既知である.システムはこの写真列を受け取り,写真列の各写真に対応する手順を生成し,それらをまとめて写真付きレシピとして出力する.この課題設定は入出力が共通しているという点で,Visualstorytelling\cite{visualstorytelling}に類似している.Visualstorytellingでは,図\ref{fig:task_overview}と同様に写真列を入力としてシステムが各写真に対応する文章を出力する.この課題では写真から説明文を生成するキャプション生成\cite{you2016cvpr,biten2019cvpr}と違い,出力の文章は写真列の時系列を考慮した一貫性があることが要求される.本論文で取り扱う課題はVisualstorytellingと比較して,出力のレシピは読者が読んで実行できるように,簡潔で具体的な記述であることが求められる.つまり,レシピにおける重要な物体や動作である食材,道具,調理者の動作を表す重要語と,それ含む表現が正しく生成されなければならない.例えば,図\ref{fig:task_overview}の工程1においては,「ちくわ」や「切り」が重要語であるが,写真を説明するためには「1/3の大きさに」といった表現も重要語に添えて生成する必要がある.これらをまとめて本論文では重要語を過不足なく含む表現と呼ぶ.これらの重要語を過不足なく含む表現は,手順を記述する上で必要不可欠である.そのため,これらの表現は,手順に付与している写真の内容を大きく反映しているものと言える.この性質をもとに,料理ドメインでは完成写真に適したレシピを得る課題が検索課題として提案され,その解法として完成写真とレシピの間で共有された潜在的な意味に基づく特徴空間を学習する共有潜在空間モデルが高い性能を発揮してきた\cite{im2recipe,R2GAN,chen2016deep}.しかしながら,完成写真とレシピの組ではなく,レシピの実行途中の写真と手順の組での共有潜在空間モデルは未だ提案されていない.この課題を解く場合,MSCOCO\cite{lin2014mscoco}やFlickr30k\cite{young2014tacl}などの一般的なドメインにおける写真とその説明文を対象とする既存の共有潜在空間モデル\cite{wang2017learning}で写真と手順の組を用いて学習しても高い性能を得ることは難しい.これは次の手順で何を記述するか,またその際に特に言及する必要がある前の手順からの差分は何かといった文脈に大きく影響を受けるためであると考えられる.これらを考慮するために,写真に対応する手順だけでなく,レシピ全体を考慮できるように既存の共有潜在空間モデルの手順側のエンコーダに工夫を加える.この工夫によって,このモデルに写真を入力した時,近傍の手順には重要語を過不足なく含む表現の情報が含まれていると期待できる.これにより,各入力写真に対応する共有潜在空間上のベクトルは重要語を過不足なく含む表現が強調されたものとなることが期待できる.提案手法では,このような共有潜在空間を用いて写真の埋め込みベクトルを獲得した後,その空間中での近傍点を利用しながら文生成を行うことで,これらの表現を正しく生成する.本手法を実装し,日本語のレシピを用いて評価実験を行った.その結果,提案した共有潜在空間モデルは既存のモデルと比較して高い検索性能を得られた.また,レシピ生成の点においても,提案手法はBLEU,ROUGE-L,CIDEr-Dといった生成文の自動評価尺度だけでなく,重要語を正しく生成できているかを測定した重要語生成の評価もVisualstorytellingの標準的なベースラインを上回ることを実験的に確認した.そして,提案手法は写真に適した重要語を正しく生成していることを実例により確認した.考察では,提案手法が入力写真列に適したレシピを生成することに成功したケースと失敗したケースを確認した.また,提案手法の重要な要素である,共有潜在空間についてのパラメータや,訓練データ量を変更した時の性能の変化を確認し,提案手法が性能を発揮する上で適当なパラメータやデータ量について検証した.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V07N01-04
本稿では単語の羅列を意味でソートするといろいろなときに効率的でありかつ便利であるということについて記述する\footnote{筆者は過去に間接照応の際に必要となる名詞意味関係辞書の構築にこの意味ソートという考え方を利用すれば効率良く作成できるであろうことを述べている\cite{murata_indian_nlp}.}.本稿ではこの単語を意味でソートするという考え方を示すと同時に,この考え方と辞書,階層シソーラスとの関係,さらには多観点シソーラスについても論じる.そこでは単語を複数の属性で表現するという考え方も示し,今後の言語処理のためにその考え方に基づく辞書が必要であることについても述べている.また,単語を意味でソートすると便利になるであろう主要な三つの例についても述べる.
V29N01-07
\label{sec:intro}ニューラルネットワークを利用したSequence-to-sequenceモデルの発展により,生成型自動要約の性能は飛躍的に向上した.Sequence-to-sequence要約モデルの学習においては,新聞記事\cite{nallapati-etal-2016-abstractive}であれば見出し,ソーシャルメディア\cite{kim-etal-2019-abstractive}やレビュー\cite{DBLP:conf/aaai/LiLZ19}であればタイトル,メール\cite{zhang-tetreault-2019-email}であれば件名を要約とみなして使用する.これらの要約は本文に書かれた内容の重要な箇所を適切かつ簡潔に記述していることが望ましい.しかしながら,過去の多くの研究が要約モデルの学習データセットには不適切な本文−要約ペアが多く含まれることを報告している\cite{zhang-tetreault-2019-email,DBLP:conf/aaai/LiLZ19,kryscinski-etal-2019-neural,matsumaru-etal-2020-improving}.具体例を表\ref{tab:inappropriate_example}に示す.例はRedditTitleデータ\cite{kim-etal-2019-abstractive},EnronSubjectデータ\cite{zhang-tetreault-2019-email}から引用したものである.表の上段の例では本文にはタイトルの続きが書かれており,タイトルは本文に書かれている内容を反映していない.下段の例では,件名は簡潔すぎて情報不足であり,要約としての体裁を成していない.こうしたノイズを含むデータセットに対処する方法が求められている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[h]\input{06table01.tex}\caption{タイトル,件名が本文の要約として不適切な例}\label{tab:inappropriate_example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\newpageノイズを含むデータから効率的にモデルを学習させる方法の1つとしてカリキュラムラーニング\cite{10.1145/1553374.1553380}が用いられている.カリキュラムラーニングは元来,学習データの順序を変えることで,収束速度やモデルの性能を上げる手法であるが,ノイズを含むデータでモデルを学習させる際にも有効性が示されている\cite{wang-etal-2018-denoising,wang-etal-2019-dynamically,kumar-etal-2019-reinforcement}.しかしながら,これまでカリキュラムラーニングは要約タスクに応用されてこなかった.本研究の目的の1つはカリキュラムラーニングの要約タスクへの有効性を検証することである.カリキュラムラーニングにおける学習データの順序の変更には,ノイズの量や難易度を表す指標が通常用いられる.学習はノイズの多いデータ群あるいは難易度の低いデータ群から始まり,徐々にノイズの少ないものあるいは難易度の高いものに移行する.ソートの際に使用する指標として,文生成タスク\cite{Cirik2016VisualizingAU}や翻訳タスク\cite{kocmi-bojar-2017-curriculum,platanios-etal-2019-competence,zhou-etal-2020-uncertainty}においては,出力文の長さが難易度の指標として用いられている.ノイズを表す指標として,翻訳タスクにおいて2つの生成モデルの尤度差を用いて,カリキュラムラーニングに適用した研究がある\cite{wang-etal-2018-denoising,wang-etal-2019-dynamically,kumar-etal-2019-reinforcement}.2つの生成モデルはノイズの少ないコーパスとノイズの多いコーパスでそれぞれ学習したSequence-to-sequenceモデルである.ここではノイズは翻訳元の文章と翻訳先の文章で対応の取れない情報を指している.要約分野においては,新聞記事などのデータセットはソーシャルメディアやメールのデータセットに比べてノイズが少ないと考えられる.しかし,要約データは要約の長さ,Density(要約箇所が本文の全体か,一部分かを示す指標),圧縮率,抽出率(要約の単語が本文に含まれる割合)などの性質がデータセットによって大きく異なる\cite{zhong-etal-2019-closer}.異なるデータセットで学習したモデルは,ノイズのみでなく,こうした性質を考慮したモデルになってしまう問題がある.そのため,先行研究\cite{wang-etal-2018-denoising,wang-etal-2019-dynamically,kumar-etal-2019-reinforcement}を要約モデルに適用する場合,同じドメインでノイズの多寡のみが異なるデータセットが必要になるが,こうしたデータセットは存在しない.そこで本研究のもう1つの目的として,ノイズを含む単一コーパスからノイズを定量化してカリキュラムラーニングに適用する手法を提案する.本研究では,ノイズを含む単一コーパスからノイズを定量化できるモデルAppropriatenessEstimatorを提案する.本モデルは本文−要約の正しいペアと,ランダムに組み合わせたペアを分類する.ランダムに組み合わせたペアの要約は本文の内容を反映していない不適切なものである.不適切なペアと実際のペアを分類するように学習することで,AppropriatenessEstimatorは本文−要約ペアの“適切性”が判別可能になる.この適切性をカリキュラムラーニングに適用する.すなわち,適切性をデータのソートに使用し,要約モデルの学習時,学習データを不適切なペアから適切なペアへと徐々に変化させる.本研究ではノイズを多く含む要約のデータセットとして,2つのデータセットで実験を行った.EnronSubjectデータセット\cite{zhang-tetreault-2019-email}とRedditTitleデータセット\cite{kim-etal-2019-abstractive}である.両者とも学習データにはノイズが多く含まれるが,EnronSubjectデータセットの開発データセットと評価データセットは,人手により整理されたものである.一方RedditTitleデータセットの開発データセット,評価データセットはノイズを含む生のデータセットである.本研究では,要約タスクに対するカリキュラムラーニングの有効性と,提案手法の効果を検証するため,3つの要約モデルと3つのカリキュラムで実験を行う.要約モデルには,事前学習要約モデルと非事前学習要約モデルを用いる.事前学習モデルとしてBART\cite{lewis-etal-2020-bart},非事前学習モデルとしてTransformer\cite{NIPS2017_7181}とSeq2seqWithAttention\cite{DBLP:journals/corr/BahdanauCB14}を採用する.実験において,カリキュラムラーニングおよび提案手法であるAppropriatenessEstimatorは事前学習モデル,および非事前学習モデル両方の性能を改善した.カリキュラムラーニングに用いられるカリキュラムにはいくつかの種類が存在する.学習データを徐々に変更するもの,学習データを徐々に増やしていくもの,学習データを徐々に減らしていくものなどがある.実験結果から,事前学習モデルに有効なカリキュラムと非事前学習モデルに有効なカリキュラムが異なることが判明した.事前学習モデルにとっては,終盤に少数のデータでFine-tuningを行うカリキュラムが有効であり,非事前学習モデルにとっては序盤に多数のデータで汎化を行うことが有効であった.また,人手による評価を行い,提案手法であるAppropriatenessEstimatorをカリキュラムラーニングに適用した方法が要約モデルの性能を向上させることを示した.要約のデータの性質の評価に,抽出率(要約の単語が本文に含まれる割合)\cite{kim-etal-2019-abstractive}や,含意判定確率\cite{matsumaru-etal-2020-improving}がこれまで用いられてきた.本研究で提案した適切性をこれらの性質や入力長,出力長などの統計量と比較し,適切性の性質を議論する.加えてこれまでカリキュラムラーニングに用いられてこなかった上記抽出率や含意判定確率が要約タスクにおけるカリキュラムラーニングに対して有効であることを示す.本論文の貢献は以下である.\begin{itemize}\item3つの要約モデルでカリキュラムラーニングの実験を行い,カリキュラムラーニングの要約タスクに対する有効性を示した.\item単一のノイズを含む学習データから学習可能な,入力文と出力文の適切性を計算するモデル\textit{AppropriatenessEstimator}を提案し,実験により要約モデルの性能を向上させることを確認した.\item異なるカリキュラムが事前学習モデル,非事前学習モデルの性能にどのような影響を与えるかを分析した.\end{itemize}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V19N03-02
自然言語処理で使われる帰納学習では,新聞データを用いて新聞用の分類器を学習するなど,ドメインAのデータを用いてドメインA用の分類器を学習することが一般的である.しかし一方,ドメインBについての分類器を学習したいのに,ドメインAのデータにしかラベルがついていないことがあり得る.このとき,ドメインA(ソースドメイン)のデータによって分類器を学習し,ドメインB(ターゲットドメイン)のデータに適応することを考える.これが領域適応であり,様々な手法が研究されている.しかし,語義曖昧性解消(WordSenseDisambiguation,WSD)について領域適応を行った場合,最も効果的な領域適応手法は,ソースドメインのデータ(ソースデータ)とターゲットドメインのデータ(ターゲットデータ)の性質により異なる.SVM等の分類器を利用してWSDを行う際にモデルを作る単位である,WSDの対象単語タイプ,ソースドメイン,ターゲットドメインの三つ組を1ケースとして数えるとする.本稿では,このケースごとに,データの性質から,最も効果的な領域適応手法を,決定木学習を用いて自動的に選択する手法について述べるとともに,どのような性質が効果的な領域適応手法の決定に影響を与えたかについて考察する.本稿の構成は以下のようになっている.まず\ref{Sec:関連研究}節で領域適応の関連研究について紹介する.\ref{Sec:領域適応手法の自動選択}節では領域適応手法をどのように自動選択するかについて述べる.\ref{Sec:データ}節では本研究で用いたデータについて説明する.\ref{sec:決定木学習におけるラベル付きデータの作成方法と学習方法}節では決定木学習におけるラベル付きデータの作成方法と学習方法について述べ,\ref{Sec:結果}節に結果を,\ref{Sec:考察}節に考察を,\ref{Sec:まとめ}節にまとめを述べる.
V19N02-01
\subsection{片仮名語と複合名詞分割}外国語からの借用(borrowing)は,日本語における代表的な語形成の1つとして知られている\cite{Tsujimura06}.特に英語からの借用によって,新造語や専門用語など,多くの言葉が日々日本語に取り込まれている.そうした借用語は,主に片仮名を使って表記されることから片仮名語とも呼ばれる.日本語におけるもう1つの代表的な語形成として,単語の複合(compounding)を挙げることができる\cite{Tsujimura06}.日本語は複合語が豊富な言語として知られており,とりわけ複合名詞にその数が多い.これら2つの語形成は,日本語における片仮名複合語を非常に生産性の高いものとしている.日本語を含めたアジアおよびヨーロッパ系言語においては,複合語を分かち書きせずに表記するものが多数存在する(ドイツ語,オランダ語,韓国語など).そのような言語で記述されたテキストを処理対象とする場合,複合語を単語に分割する処理は,統計的機械翻訳,情報検索,略語認識などを実現する上で重要な基礎技術となる.例えば,統計的機械翻訳システムにおいては,複合語が構成語に分割されていれば,その複合語自体が翻訳表に登録されていなかったとしても,逐語的に翻訳を生成することが可能となる\cite{Koehn03}.情報検索においては,複合語を適切に分割することによって検索精度が向上することがBraschlerらの実験によって示されている\cite{Braschler04}.また,複合語内部の単語境界の情報は,その複合語の省略表現を生成または認識するための手がかりとして広く用いられている\cite{Schwartz03,Okazaki08}.高い精度での複合語分割処理を実現するためには,言語資源を有効的に活用することが重要となる.例えば,Alfonsecaら\citeyear{AlfonsecaCICLing08}は単語辞書を学習器の素性として利用しているが,これが分割精度の向上に寄与することは直感的に明白である.これに加えて,対訳コーパスや対訳辞書といった対訳資源の有用性も,これまでの研究において指摘されている\cite{Brown02,Koehn03,Nakazawa05}.英語表記において複合語は分かち書きされるため,複合語に対応する英訳表現を対訳資源から発見することができれば,その対応関係に基づいて複合語の分割規則を学習することが可能になる.複合語分割処理の精度低下を引き起こす大きな要因は,言語資源に登録されていない未知語の存在である.特に日本語の場合においては,片仮名語が未知語の中の大きな割合を占めていることが,これまでにも多くの研究者によって指摘されている\cite{Brill01,Nakazawa05,Breen09}.冒頭でも述べたように,片仮名語は生産性が非常に高いため,既存の言語資源に登録されていないものが多い.例えばBreen\citeyear{Breen09}らによると,新聞記事から抽出した片仮名語のうち,およそ20\%は既存の言語資源に登録されていなかったことが報告されている.こうした片仮名語から構成される複合名詞は,分割処理を行うことがとりわけ困難となっている\cite{Nakazawa05}.分割が難しい片仮名複合名詞として,例えば「モンスターペアレント」がある.この複合名詞を「モンスター」と「ペアレント」に分割することは一見容易なタスクに見えるが,一般的な形態素解析辞書\footnote{ここではJUMAN辞書ver.~6.0とNAIST-jdicver.~0.6.0を調べた.}には「ペアレント」が登録されていないことから,既存の形態素解析器にとっては困難な処理となっている.実際に,MeCabver.~0.98を用いて解析を行ったところ(解析辞書はNAIST-jdicver.~0.6.0を用いた),正しく分割することはできなかった.\subsection{言い換えと逆翻字の利用}こうした未知語の問題に対処するため,本論文では,大規模なラベルなしテキストを用いることによって,片仮名複合名詞の分割精度を向上させる方法を提案する.近年では特にウェブの発達によって,極めて大量のラベルなしテキストが容易に入手可能となっている.そうしたラベルなしテキストを有効活用することが可能になれば,辞書や対訳コーパスなどの高価で小規模な言語資源に依存した手法と比べ,未知語の問題が大幅に緩和されることが期待できる.これまでにも,ラベルなしテキストを複合名詞分割のために利用する方法はいくつか提案されているが,いずれも十分な精度は実現されていない.こうした関連研究については\ref{sec:prev}節において改めて議論を行う.提案手法の基本的な考え方は,片仮名複合名詞の言い換えを利用するというものである.一般的に,複合名詞は様々な形態・統語構造へと言い換えることが可能であるが,それらの中には,元の複合名詞内の単語境界の場所を強く示唆するものが存在する.そのため,そうした言い換え表現をラベルなしテキストから抽出し,その情報を機械学習の素性として利用することによって,分割精度の向上が可能となる.これと同様のことは,片仮名語から英語への言い換え,すなわち逆翻字に対しても言うことができる.基本的に片仮名語は英語を翻字したものであるため,単語境界が自明な元の英語表現を復元することができれば,その情報を分割処理に利用することが可能となる.提案手法の有効性を検証するための実験を行ったところ,言い換えと逆翻字のいずれを用いた場合においても,それらを用いなかった場合と比較して,F値において統計的に有意な改善が見られた.また,これまでに提案されている複合語分割手法との比較を行ったところ,提案手法の精度はそれらを大幅に上回っていることも確認することができた.これらの実験結果から,片仮名複合名詞の分割処理における,言い換えと逆翻字の有効性を実証的に確認することができた.本論文の構成は以下の通りである.まず\ref{sec:prev}節において,複合名詞分割に関する従来研究,およびその周辺分野における研究状況を概観する.次に\ref{sec:approach}節では,教師あり学習を用いて片仮名複合名詞の分割処理を行う枠組みを説明する.続いて\ref{sec:para}節と\ref{sec:trans}節においては,言い換えと逆翻字を学習素性として使う手法について説明する.\ref{sec:exp}節では分割実験の結果を報告し,それに関する議論を行う.最後に\ref{sec:conclude}節においてまとめを行う.
V03N02-04
日本語の理解において省略された部分の指示対象を同定することは必須である.特に,日本語においては主語が頻繁に省略されるため,省略された主語の指示対象同定が重要である.省略された述語の必須格をゼロ代名詞と呼ぶ.主語は多くの場合,述語の必須格であるから,ここでは省略された主語をゼロ主語と呼ぶことにする.ここでは特に,日本語の複文におけるゼロ主語の指示対象同定の問題を扱う.日本語の談話における省略現象については久野の分析\cite{久野:日本文法研究,久野78}以来,言語学や自然言語処理の分野で様々な提案がなされている.この中でも実際の計算モデルという点では,centeringに関連するもの\cite{Kameyama88,WIC90}が重要である.しかし,これらは主として談話についての分析やモデルである.したがって,複文に固有のゼロ主語の指示対象同定という観点からすればきめの粗い点もある\cite{中川動機95,中川ので95}.したがって,本論文では主としてノデ,カラで接続される順接複文について,複文のゼロ主語に固有の問題について扱う.ノデ文については,既に\cite{中川動機95,中川ので95}において,構文的ないしは語用論的な観点から分析している.そこで,ここでは意味論的観点からの分析について述べる.複文は従属節と主節からなるので,主節主語と従属節主語がある.複文の理解に不可欠なゼロ主語の指示対象同定の問題は,2段階に分けて考えるべきである.第一の段階では,主節主語と従属節主語が同じ指示対象を持つかどうか,すなわち共参照関係にあるかどうかの分析である.第二の段階では,第一段階で得られた共参照関係を利用して,実際のゼロ主語の指示対象同定を行なう.このうち,第一の共参照関係の有無は,複文のゼロ主語の扱いにおいて固有の問題であり,本論文ではこの問題について考察していく.さて,主語という概念は一見極めて構文的なものであるが,久野の視点論\cite{久野78}で述べられているように実は語用論的に強い制限を受けるものである.例えば,授受補助動詞ヤル,クレルや,受身文における主語などは視点に関する制約を受けている.このような制約が複文とりわけノデ文においてどのように影響するかについては\cite{中川動機95}で詳しく述べている.ここでは,見方を変えて,意味論的な観点から分析するので,ゼロ主語の問題のうち視点に係わる部分を排除しなければならない.そこで,能動文においては直接主語を扱うが,受身文においては対応する能動文の主語を考察対象とする.また,授受補助動詞の影響については,ここでの意味論的分析と抵触する場合については例外として扱うことにする.なお,ここでの意味論的分析の結果は必ずしも構文的制約のように例外を許さない固いものではない.文脈などの影響により覆されうるものであり,その意味ではデフォールト規則である.ただし,その場合でも文の第一の読みの候補を与える点では実質的に役立つものであろう.さて,この論文での分析の対象とする文は,主として小説に現れる順接複文(一部,週刊誌から採取)である.具体的には以下の週刊誌,小説に記載されていた全ての順接複文を対象とした.\noindent週間朝日1994年6月17日号,6月24日号,7月1日号\noindent三島由紀夫,鹿鳴館,新潮文庫,1984\noindent星新一,ようこそ地球さん,新潮文庫,1992\noindent夏目漱石,三四郎,角川文庫,1951\noindent吉本ばなな,うたかた,福武文庫,1991\noindentカフカ/高橋義孝訳,変身,新潮文庫,1952\noindent宗田理,殺人コンテクスト,角川文庫,1985\noindent宮本輝,優駿(上),新潮文庫,1988\bigskipこのような対象を選んだ理由は,物理的な世界の記述を行なう文ばかりでなく,人間の心理などを記述した文をも分析の対象としたいからである.実際週刊誌よりは小説の方が人間の心理を表現した文が多い傾向がある.ただし,週刊誌においても人間心理を記述した文もあるし,逆に小説でも物理的世界の因果関係を記述した文も多い.次に,分析の方法論について述べる.分析の方法の一方の極は,全て論文著者の言語的直観に基づいて作例を主体にして考察する方法である.ただし,この場合非文性の判断や指示対象に関して客観的なデータであるかどうか疑問が残ってしまう可能性もないではない.もう一方の極は,大規模なコーパスに対して人間の言語的直観に頼らず統計的処理の方法で統計的性質を抽出するものである.後者の方法はいろいろな分野に関する十分な量のデータがあればある程度の結果を出すことは可能であろう.ただし,通常,文は対象領域や(小説,新聞,論文,技術文書などという)ジャンルによって性質を異にする.そこで,コーパスから得られた結果はそのコーパスの採取元になるジャンルに依存した結果になる.これらの問題点に加え,単なる統計的結果だけでは,その結果の応用範囲の可能性や,結果の拡張性などについては何も分からない.そこでここでは,両極の中間を採る.すなわち,まず第一に筆者らが収録した小規模なコーパスに対してその分布状況を調べることにより何らかの傾向を見い出す.次に,このようにして得られた傾向に対して言語学的な説明を試みる.これによって,見い出された傾向の妥当性,応用や拡張の可能性が推測できる.具体的には,従属節と主節の述語の性質を基礎に,主節主語と従属節主語の一致,不一致という共参照関係を調べる.このような述語の性質として,動詞に関しては,IPAL動詞辞書~\cite{IPALverb}にある意味的分類,ヴォイスによる分類,ムード(意志性)による分類を利用する.形容詞,形容動詞に関してはIPAL形容詞辞書~\cite{IPALadj}にある分類,とりわけIPAL形容詞辞書~\cite{IPALadj}にある意味分類のうち心理,感情,感覚を表すものに関しては快不快の素性を,属性の評価に関しては良否の素性を利用する.例えば,\enumsentence{淋しいので,電話をかける.}という文では,従属節に「感情-不快」という性質を与え,主節に「意志的な能動の動詞」という性質を与える.また,主節主語と従属節主語の一致,不一致については人手で判断する.このようにして与える従属節と主節の性質および主語の一致不一致の組合せが実例文においてどのように分布するかを調べ,そこに何か特徴的な分布が見い出されれば,その原因について考察するという方法を採る.
V31N01-03
質問応答は,自然言語処理における重要な研究テーマの一つである.質問応答の研究は,自然言語処理研究の黎明期である1960年代から継続的に取り組まれてきた\cite{green-1961,simmons-1964}.どのような質問に対しても的確に答えられるシステムを実現することは,多くの自然言語処理研究者が目指す究極的なゴールの一つと言える.質問応答研究は,深層学習技術の進展と言語資源の充実により世界的に盛り上がりを見せている.特に,SQuAD\cite{rajpurkar-etal-2016-squad}のような大規模な質問応答データセットや,BERT\cite{devlin-etal-2019-bert}に代表される大規模言語モデルの登場は,ここ数年の質問応答研究の飛躍的な進展を後押ししている.実際に,自然言語処理および人工知能分野の難関国際会議では,毎年質問応答に関する研究成果が多数報告されており,そのほぼ全てで大規模言語モデルや質問応答データセットがシステムの構築や評価に利用されている.ただし,これらの研究の多くは英語で作成されたデータを用いて実施されており,日本語での質問応答の評価はほとんどなされていない.そのため,日本語での質問応答技術がどの程度発展しているのか,その到達点は明らかになっていない.昨今の深層学習技術を質問応答に適用する方法では,言語の違いによる達成度の差異はあまり着目されてこなかったが,扱える言語表現の違い,学習データなどの知識源の質や量の違いなど,言語が異なることによる影響は十分に考慮すべき課題と考えられる.また,近年では汎用大規模言語モデルが登場しており,このようなモデルの中には日本語での質問応答が可能なものも存在する.しかし,これらのモデルのほとんどは,その大部分が英語で書かれた学習データを用いて事前学習が行われている.言語にはその言語を用いる文化圏の内容が色濃く反映されていると考えられるため,学習に用いる言語によってモデルが獲得する知識に含まれる文化的な内容は大きく異なると考えられる.従って,日本語を用いた質問応答タスクに取り組むことは,日本語圏の文化に関する内容に通じている質問応答システムを作ることに繋がると考えられる.実用的な観点からも,日常的に日本語を使用する人にとって,日本語を用いたやりとりが可能かつ,日本に関する内容について精度の高い回答を行うことができる質問応答システムの実現は望ましいことである.このような背景のもと,日本語での質問応答技術が今後発達していくためには,まず日本語を用いた質問応答技術の現状を明らかにした上で,解決するべき課題を明確にすることが必要である.そこで本論文では,日本語による質問応答技術の現在の到達点と課題を明らかにし,その上で日本語質問応答システムの今後の改善の方向性を示すことを目的とする.これまで日本語の質問応答技術を評価するための評価データは整備されてこなかったが,本論文では評価のための日本語の質問応答のデータセットとして,著者らが企画しこれまで運営してきた日本語質問応答のコンペティション「AI王~クイズAI日本一決定戦~」\footnote{\url{https://sites.google.com/view/project-aio/home}}のために作成したデータセットを用いる.このデータセットに含まれるクイズ問題には,人名や場所名を問う基本的な問題の他,数量推論や計算を必要とする問題や日本語版Wikipediaに記述が無いような言葉が正解となる問題などが含まれており,それら問題文の多様性は,日本語を用いた質問応答タスクを検証するために相応しいものと考えられる.なお,「AI王」とは,日本語を用いた質問応答研究を促進させるという目的のもと,日本語のクイズを題材とした質問応答データセットを用いてクイズの正解率の高い質問応答システムを作成するコンペティションである.また,評価対象の質問応答システムとしては,過去に実施されたAI王のコンペティションのうち,第2回および第3回に提出されたシステムと,汎用の質問応答システムとして利用できるChatGPTおよびGPT-4を用いる.これらのシステムが出力した全解答に対して,それぞれのシステムの特徴と,正解した問題文または不正解の問題文の中に共通した傾向があるかといった全数チェックを人手にて行い,現在の質問応答技術でどのような問題が正答できてどのような問題は正答できていないかを検証する.同様に,問題文の特性に基づいて問題を分類し,それぞれのカテゴリに属する問題をどの程度正解しているかで達成度を分析する.また,システムの特徴に応じた正解の傾向なども調査し,そこから一般化できる知見がないか考察する.以上の分析や考察を踏まえた上で,日本語質問応答システムの改善の方向性を示す.これらの人手分析の結果,質問応答システムの構成にはRetriever-Reader方式と呼ばれる形式が多く採用されていることや,正解率の高いシステムにはRerankerという構成要素が使われている傾向があることが分かった.また,問題文の特性については,正答するために数量推論や計算を必要とするような問題にはうまく解答できない場合が多いことが明らかになり,今後の質問応答技術の課題の一つと考えられる.本論文の主な貢献は以下のとおりである.\begin{itemize}\item日本語質問応答システムの構成やその構成要素を分析し,クイズ問題の正解率が高いシステムの理由を明らかにした\item現状の質問応答システムにとって課題となっている,難易度が高い問題の特性を明らかにした\itemそれら難易度が高い問題を正答できるようにするための,質問応答システムの改善の方向性を示した\item汎用の質問応答システムとして利用可能な大規模言語モデルが,どの程度日本語のクイズ問題を解くことができるのかを調査した\end{itemize}本論文の構成は以下の通りである:第2章にて日本語を対象とした質問応答研究や,コンペティションに対する分析についての関連研究を,第3章にてAI王プロジェクトの概要を述べる.第4章では,本論文で用いる評価データの詳細を述べる.その後,第5章にて検証対象となる質問応答システムの詳細,およびシステムとクイズ問題の分析方法を述べ,第6章にて分析結果を述べる.最後に,第7章にて本論文で得られた知見や考察をまとめ,今後の展望について述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V02N04-01
今日,家庭向けの電化製品から,ビジネス向けの専門的な機器まであらゆる製品にマニュアルが付属している.これらの機器は,複雑な操作手順を必要とするものが多い.これを曖昧性なく記述することが,マニュアルには求められている.また,海外向けの製品などのマニュアルで,このような複雑な操作手順を適切に翻訳することも困難である.そこで,本稿は,上記のような問題の解決の基礎となるマニュアル文を計算機で理解する手法について検討するが,その前に日本語マニュアル文の理解システムが実現した際に期待される効果について述べておく.\begin{itemize}\item日本語マニュアル文の機械翻訳において言語-知識間の関係の基礎を与える.\item自然言語で書かれたマニュアル文の表す知識の論理構造を明らかにし,これをマニュアル文作成者にフィードバックすることによってより質の良いマニュアル文作成の援助を行なえる.\itemマニュアル文理解を通して抽出されたマニュアルが記述している機械操作に関する知識を知識ベース化できる.この知識ベースは,知的操作システムや自動運転システムにおいて役立つ.\end{itemize}さて,一般的な文理解は,おおむね次の手順で行なわれると考えられる.\begin{enumerate}\item文の表層表現を意味表現に変換する.\label{変換}\itemこの意味表現の未決定部分を決定する.\label{決定}\end{enumerate}\ref{変換}は,一般的に「文法の最小関与アプローチ」\cite{kame}といわれる考え方に則って行なわれる.この考え方は,文を形態素解析や構文解析などを用いて論理式などの意味表現へ翻訳する際,統語的知識や一部の意味的知識だけを利用し,以後の処理において覆されない意味表現を得るというものである.よって,得られた意味表現は一般に曖昧であり,文脈などにより決定されると考えられる未決定部分が含まれる.従来の\ref{決定}に関する研究は,記述対象や事象に関する領域知識を利用して,意味表現の表す物事に関する推論をして,意味表現の未決定部分を決定するという方向であった(\cite{abe}など).これは,知識表現レベルでの曖昧性解消と考えることができる.領域知識を用いる方法は,広範な知識を用いるため,曖昧性解消においては有用である.しかし,この方法を用いるには,大規模な領域知識ないし常識知識をあらかじめ備えておく必要があるが,現在そのような常識・知識ベースは存在していない点が問題である.したがって,この問題に対処するためは,個別の領域知識にほとんど依存しない情報を用いることが必要となる.さて,本稿では,対象を日本語マニュアル文に限定して考えている.そして,\cite{mori}に基づき,上記の個別の領域知識にほとんど依存しない情報として,言語表現自体が持っている意味によって,その言語表現がマニュアル文に使用される際に顕在化する制約について考察する.ここで重要な点は,以下での考察が個別のマニュアルが記述している個別領域(例えば、ワープロのマニュアルならワープロ操作固有の知識)を問題にしているのではなく,マニュアル文でありさえすれば,分野や製品を問わずいかなるマニュアル文にも通用する制約について考察しようとしている点である.しかし,領域知識にほとんど依存しないとはいえ,言語的な制約を適用する話し手,聞き手などの対象が,解析しようとしているマニュアル文では何に対応しているかなどの,言語的対象とマニュアルで述べられている世界における対象物の間の関係に関する知識は必要である.以下では,この知識を言語・マニュアル対応関係知識と呼ぶ.ここでは,対象としているのが日本語マニュアル文であるから,言語学的な対象と記述対象の間の関係に関する情報などこの種の情報は「解析中の文章が日本語で書かれたマニュアルに現れる文である」ということ自身から導く.よって以上の手順をまとめると,本稿で想定している日本語マニュアル文の理解システムでは,「文法の最小関与アプローチ」による構文解析と,言語表現自身が持つ語用論的制約と,言語・マニュアル対応関係知識に基づいて,マニュアル文を理解することとなろう.さて,意味表現の未決定部分を決定する問題に関しては,ゼロ代名詞の照応,限量子の作用範囲の決定や,もともと曖昧な語の曖昧性解消など,さまざまな問題がある.日本語では主語が頻繁に省略されるため,意味表現の未決定部分にはゼロ代名詞が多く存在する.そのため,ゼロ代名詞の適切な指示対象を同定することは日本語マニュアル文の理解における重要な要素技術である.そこで,本稿では,ゼロ代名詞の指示対象同定問題に対して,マニュアル文の操作手順においてしばしば現れる条件表現の性質を利用することを提案する.というのは,システムの操作に関しては,今のところ基本的に利用者とのインタラクションなしで完全に動くものはない.そこで,ある条件の時はこういう動作が起きるなどという人間とシステムのインタラクションをマニュアルで正確に記述しなければならない.そして,その記述方法として,条件表現がしばしば用いられているからである.一般に,マニュアル文の読者,つまり利用者の関心は,自分が行なう動作,システムが行なう動作が何であるか,自分の動作の結果システムはどうなるかなどを知ることなので,条件表現における動作主の決定が不可欠である.従って,本稿では,マニュアルの操作手順に現れる条件表現についてその語用論的制約を定式化し,主に主語に対応するゼロ代名詞の指示対象同定に応用することについて述べる.もちろん,本稿で提案する制約だけでゼロ代名詞の指示対象同定問題が全て解決するわけではないが,条件表現が使われている文においては有力な制約となることが多くのマニュアル文を分析した結果分かった.さて,本稿で問題にするのは,操作手順を記述する文であり,多くの場合主語は動作の主体すなわち動作主である.ただし,無意志の動作や,状態を記述している文あるいは節もあるので,ここでは,動作主の代わりに\cite{仁田:日本語の格を求めて}のいう「主(ぬし)」という概念を用いる.すなわち,仁田の分類ではより広く(a)対象に変化を与える主体,(b)知覚,認知,思考などの主体,(c)事象発生の起因的な引き起こし手,(d)発生物,現象,(e)属性,性質の持ち主を含む.したがって,場合によってはカラやデでマークされることもありうる.若干,複雑になったが非常に大雑把に言えば,能動文の場合は主語であり,受身文の場合は対応する能動文の主語になるものと考えられる.以下ではこれを{\dg主}と呼ぶことにする.そして,省略されている場合に{\dg主}になれる可能性のあるものを考える場合には、この考え方を基準とした.以下,第2節では,マニュアル文に現れる対象物と,依頼勧誘表現,可能義務表現が使用される場合に言語学的に導かれる制約について記す.第3節では,マニュアル文において条件表現が使用される場合に,言語学的に導かれる制約を説明し,さらに実際のマニュアル文において,その制約がどの程度成立しているかを示す.第4節は,まとめである.
V11N04-04
\label{sec:intro}機械翻訳システムの辞書は質,量ともに拡充が進み,最近では200万見出し以上の辞書を持つシステムも実用化されている.ただし,このような大規模辞書にも登録されていない語が現実のテキストに出現することも皆無ではない.辞書がこのように大規模化していることから,辞書に登録されていない語は,コーパスにおいても出現頻度が低い語である可能性が高い.ところで,文同士が対応付けられた対訳コーパスから訳語対を抽出する研究はこれまでに数多く行なわれ\cite{Eijk93,Kupiec93,Dekai94,Smadja96,Ker97,Le99},抽出方法がほぼ確立されたかのように考えられている.しかし,コーパスにおける出現頻度が低い語とその訳語の対を抽出することを目的とした場合,語の出現頻度などの統計情報に基づく方法では抽出が困難であることが指摘されている\cite{Tsuji00}.以上のような状況を考えると,対訳コーパスからの訳語対抽出においては,機械翻訳システムの辞書に登録されていない,出現頻度の低い語を対象とした方法の開発が重要な課題の一つである.しかしながら,現状では,低出現頻度語を対象とした方法の先行研究としては文献\cite{Tsuji01b}などがあるが,検討すべき余地は残されている.すなわち,利用可能な言語情報のうちどのような情報に着目し,それらをどのように組み合わせて利用すれば低出現頻度語の抽出に有効に働くのかを明らかにする必要がある.本研究では,実用化されている英日機械翻訳システムの辞書に登録されていないと考えられ,かつ対訳コーパス\footnote{本研究で用いたコーパスは,文対応の付いた対訳コーパスであるが,機械処理により対応付けられたものであるため,対応付けの誤りが含まれている可能性がある.}において出現頻度が低い複合語とその訳語との対を抽出する方法を提案する.提案方法は,複合語あるいはその訳語候補の内部の情報と,複合語あるいはその訳語候補の外部の情報とを統合的に利用して訳語対候補にスコアを付け,全体スコアが最も高いものから順に必要なだけ訳語対候補を出力する.全体スコアは,複合語あるいはその訳語候補の内部情報と外部情報に基づく各スコアの加重和を計算することによって求めるが,各スコアに対する重みを回帰分析によって決定する\footnote{回帰分析を自然言語処理で利用した研究としては,重要文抽出への適用例\cite{Watanabe96}などがある}.本稿では,英日機械翻訳システムの辞書に登録されていないと考えられる複合語とその訳語候補のうち,機械翻訳文コーパス(後述)における出現頻度,それに対応する和文コーパスにおける出現頻度,訳文対における同時出現頻度がすべて1であるものを対象として行なった訳語対抽出実験の結果に基づいて,複合語あるいはその訳語候補の内部情報,外部情報に基づく各条件の有効性と,加重和計算式における重みを回帰分析によって決定する方法の有効性を検証する.
V20N02-07
\label{sec:introduction}文字による記述だけでなく,画像も付与された辞書は,教育分野\cite{Popescu:Millet:etc:2006}や言語\linebreak横断検索\cite{Hayashi:Bora:Nagata:2012j}での利用,子供や異なる言語の話者\cite{Suwa:Miyabe:Yoshino:2012j},文字の認識に困難を\linebreak伴うような人とのコミュニケーションを助けるツール\cite{Mihalcea:Leong:2008,Goldberg:Rosin:Zhu:Dyer:2009}の構築に使うことができるなど,様々な潜在的な可能性を持っている.そのため,本稿では,できるだけ広範な語義に対して画像が付与された辞書を構築することを第一目標とする.辞書やシソーラスに画像を付与する研究はこれまでにもいくつか存在する.特に,見出し語を含む検索語を用いて画像検索を行ない,インターネットから画像を獲得する研究は複数存在する.\PN\cite{PicNet}や\IN\cite{ImageNet}といったプロジェクトでは,\WN{}\cite{_Fellbaum:1998}のsynsetに対し,画像検索で獲得した候補画像の中から適切な画像を人手で選択して付与している.\PN{}や\IN{}では,近年発達してきたAmazonMechanicalTurkサービス\footnote{http://www.mturk.com/}を始めとする,データ作成を行なう参加者をインターネット上で募り,大量のデータに対して人手でタグを付与する仕組みを用いて大量の画像の収集とタグ付けを行なっている.これらの手法は,大量のデータを精度良く集めることができるため有望である.しかし,現在は対象synsetが限定されているため,辞書全体に対するカバー率や,多義語の複数語義に対する網羅性には疑問が残る\footnote{\IN{}の場合,HP(http://www.image-net.org/)によると,2010年4月30日時点で,\WN{}の約100,000synsetsのうち,21,841synsetには画像が付与されているとしている.多義性に関する報告はない.}.また,\PN{}や\IN{}では,上位語や同義語にあたる語で検索語を拡張して用いているが,どのような語による拡張がより有効かといった調査は報告されていない.また,\IO{}\cite{Popescu:Millet:etc:2006,Popescu:Millet:etc:2007,Zinger:Millet:etc:2006}でも,\WN{}のsynsetに対してインターネットから獲得した画像を付与している.\IO{}では,不適切な画像を取り除くために,人の顔が含まれるかどうかによる自動的フィルタリングや,画素情報による分類などを用いている.この手法は,自動的に大量のデータを集めることができるため有望である.しかし,\PN{}や\IN{}と同様,現在は対象synsetが具体物などに限定されているため,辞書全体に対するカバー率や,多義語の複数語義に対する網羅性には疑問が残る\footnote{\cite{Popescu:Millet:etc:2007}は実験対象を\WN{}の\textit{placental}配下の1,113synsetsに限定しており,多義性に関する報告はない.}.一方,語の多義性に着目し,多義のある語に対しても語義毎に適切な画像を付与する研究として,\cite{Bond:Isahara:Fujita:Uchimoto:Kuribayashi:Kanzaki:2009}や\cite{Fujii:Ishikawa:2005a}がある.\cite{Bond:Isahara:Fujita:Uchimoto:Kuribayashi:Kanzaki:2009}では,日本語\WN\footnote{http://nlpwww.nict.go.jp/wn-ja/}のsynsetに対し,OpenClipArtLibrary(\OCAL)\footnote{http://openclipart.org/}から獲得した画像を付与している.彼らは,\OCAL{}と\WN{}の階層構造を比較し,両方の上位階層で同じ語が出現する画像のみを候補として残すことで,多義性に対応している.さらに,候補の画像の中から各synsetの画像として適切な画像を人手で選択している.\OCAL{}は著作権フリーで再配布可能という利点があるが,含まれる画像が限られるため,画像を付与できる語義も限られている.\cite{Fujii:Ishikawa:2005a}では,インターネットから収集した画像を事典検索システム\CL\footnote{http://cyclone.cl.cs.titech.ac.jp/}における語義と対応付ける実験を行なっている.彼らは,辞書の見出し語を検索語として用い,インターネットから候補となる画像とそのリンク元テキストを収集し,テキストの曖昧性解消をおこなうことによって,画像の意味を推定している.これは,多義性に対応できる手法であるが,出現頻度の低い語義の画像収集は困難だという問題がある.なぜなら,見出し語のみを検索語としてインターネット検索を行なった場合,得られる画像のほとんどは,最も出現頻度の高い語義に関連する画像になるからである.例えば,「アーチ」という語には,“上部を弓の形にして支えやすくした建物.”や,“野球で,本塁打.”などの語義があるが,見出し語である「アーチ」を検索語とした場合に得られた画像のうち,上位500画像には後者の語義に対応する画像はない\footnote{Google画像検索の結果(2009年12月実施)}.本稿の第一目標は,できるだけ広範な語義に対して画像が付与された辞書を構築することである.本稿では,基本語データベース\lxd{}\cite{Amano:Kobayashi:2008j}の内容語(一般名詞,サ変名詞,動詞,形容詞類,副詞類)を対象に画像付与を試みる.幅広い語義に画像を付与するため,インターネットから画像検索によって画像を獲得する.また,多義性のある語にも語義毎に適切な画像を付与するため,語義毎に検索語セットを用意する.第二の目標は,画像検索を行なう時に重要な問題である検索語の設定方法についての知見を得ることである.本稿では,作業者が対象語義に画像が付与できるかどうかという判断を行なった後,用意した検索語セットの中から適切な検索語セットを選択・修正して画像検索に用いる.最終的に利用された検索語セットを分析することで知見を得たい.第三の目標は,提案する検索語セットの優先順位,特に,最も優先順位が高い検索語セットをデフォルトの検索語セットとして利用することの妥当性を示すことである.今後の作成・維持コストや,新しい辞書への適用を考えると,人手による画像付与ができない場合でも,優先順位の高い検索語セットによる検索結果が利用できれば,有用だと考えられるからである.以降,\ref{sec:resource}章では画像付与の対象である\lxd{}について紹介する.\ref{sec:make-query}章では,まず,200語義を対象として行なった予備実験\cite{Fujita:Nagata:2010}を紹介する(\refsec{sec:pre-exp}).その結果を踏まえた上で,画像検索に用いる検索語セットの作成方法を紹介し(\refsec{sec:queryset}),検索語セットの優先順位の決定方法を提案する(\refsec{sec:query-order}).\ref{sec:all-lxd-exp}章では,作成した検索語セットを用いた画像獲得方法,および,評価方法について述べる.\ref{sec:ana-rand-best}章では,第三の目標である提案した優先順位の決定方法の妥当性を示す.\ref{sec:all-lxd-analysis}章では,第二の目標である最終的に利用された検索語に関する分析と,改良点の調査を行なう.ここまでの実験で,第一の目標である\lxd{}の広範な語義に対する画像付与を行ない,\ref{sec:ana-cannot}章では,構築した辞書を用いて画像付与可能/不可能な語義について,意味クラスや品詞などの特徴から分析を行なう.最後に,\ref{sec:conclusion}章で本稿の実験と分析をまとめる.
V19N03-01
\label{sec:introduction}検索エンジンの主な目的は,ユーザの情報要求に適合する文書をランキング形式でユーザに提供することである.しかし,情報要求に見合うランキングを実現するのは容易ではない.これは,ユーザが入力するクエリが一般的に,短く,曖昧であり\cite{Jansen2000},ユーザの情報要求を推定するのが困難であることに起因する.例えば「マック\textvisiblespace\hspace{0.1zw}価格」というクエリは,「Mac(コンピュータ)」の価格とも,「マクドナルド」の価格とも,もしくは他の「マック」の価格とも解釈できる.そのため,どの「マック」に関する文書が求められているのか分からなければ,ユーザの情報要求に見合うランキングを実現するのは難しい.このような問題を解決する方法の一つとして,適合性フィードバック\cite{Rocchio1971}がある.適合性フィードバックでは,ユーザから明示的(もしくは擬似的)に得られるフィードバックを利用することで,検索結果のランキングを修正する.具体的には,次のような手続きに従ってランキングの修正を行う.\begin{enumerate}\itemクエリに対する初期検索結果をユーザに提示する.\item初期検索結果中から,情報要求に適合する文書をユーザに選択させる.\item選択された文書(フィードバック)を利用して,初期検索結果のランキングを修正する.\end{enumerate}例えば,「Mac(コンピュータ)」の価格に関する文書がフィードバックとして得られれば,ユーザがこの話題に関心を持っていると推測できる.そして,この情報を基に検索結果のランキングを修正することができる.適合性フィードバックには,ベースとするランキングアルゴリズムに応じて,様々な手法がある.Rocchioの手法\cite{Rocchio1971}やIdeの手法\cite{Ide1971}は,ベクトル空間モデルに基づくランキングアルゴリズム\cite{Salton1975}に対する適合性フィードバックの手法として有名である.確率モデルに基づくランキングアルゴリズム\cite{SparckJones2000}においては,フィードバックを用いて,クエリ中の単語の重みを修正したり,クエリを拡張することができる.言語モデルに基づくランキングアルゴリズム\cite{Ponte1998}に対しては,Zhaiらの手法\cite{Zhai2001}が代表的である.このように適合性フィードバックには様々な手法があるが,それらの根底にあるアイディアは同じである.すなわち,適合性フィードバックでは,フィードバックと類似する文書を検索結果の上位にリランキングする.ここで,既存の手法の多くは,テキスト(フィードバック及び検索結果中の各文書)に表層的に出現する単語の情報だけを用いて類似度を算出している.すなわち,テキストに含まれていない単語の情報は利用していない.しかし,表層的には出現していなくても,そのテキストに潜在的に現れうる単語の情報は,リランキングに役に立ちうると考えられる.上の「マック」の例であれば,仮にフィードバック(この例では「Mac(コンピュータ)」の価格に関する文書)に「CPU」や「ハードディスク」などの単語が含まれていなくても,これらの単語はフィードバックとよく関連しており,潜在的にはフィードバックに現れうる.検索結果中の適合文書(i.e.,「Mac(コンピュータ)」の価格に関する文書)についても同様のことが言える.仮にある適合文書にこれらの単語が含まれていなくても,これらの単語は適合文書によく関連しており,潜在的にはその文書に現れうる.このように,テキストに現れうる単語の情報があれば,フィードバックと検索結果中の各文書との類似度を算出する際に有用であると考えられる.そこで,本稿では,テキストに表層的に存在する単語の情報だけでなく,テキストに潜在的に現れうる単語の情報も利用する適合性フィードバックの手法を提案する.提案手法では,まずLatentDirichletAllocation(LDA)\cite{Blei2003}を用いて,テキストに潜在するトピックの分布を推定する.次に,推定された潜在トピックの分布を基に,各テキストに潜在的に現れうる単語の分布を推定する.そして,推定された潜在的な単語の分布とテキストの表層的な単語の分布の両方を用いて,フィードバックと検索結果中の各文書との類似度を算出し,これを基に検索結果をリランキングする.実験の結果,$2$文書(合計$3,589$単語)から成るフィードバックが与えられたとき,提案手法が初期検索結果のPrecisionat$10$(P@10)を$27.6\%$改善することが示された.また,提案手法が,フィードバックが少ない状況でも,初期検索結果のランキング精度を改善する特性を持つことが示された(e.g.,フィードバックに$57$単語しか含まれていなくても,P@10で$5.3\%$の改善が見られた).以降,本稿では,次の構成に従って議論を進める.\ref{sec:lm_approaches}章では,提案手法の基礎をなす,言語モデルに基づくランキングアルゴリズムについて概説する.\ref{sec:lda}章では,提案手法で使用するLDAについて解説する.\ref{sec:proposed_method}章では,提案手法について説明する.\ref{sec:experiments}章では,提案手法の有効性を調査するために行った実験と,その結果について報告する.最後に,\ref{sec:conclusion}章で,本稿の結論を述べる.
V15N02-05
近年,Webの普及や様々なコンテンツの増加に代表される不特定多数の情報の取得や不特定多数への情報の発信が容易になったことで,個人が取得できる情報の量が急激に増大してきている.個人が取得できる情報量は今後さらに増え続けるだろう.このような状況は,必要な情報を簡単に得られるようにする一方で不必要な情報も集めてしまう原因になっている.この問題を解決する方法として大量の情報の中から必要な情報だけを選択する技術が必要で,これを実現する手段として検索,フィルタリング,テキストマイニングが挙げられる.このような技術はスパムメールの排除やWebのショッピングサイトの推薦システム等で実際に使われている.本論文では大量の情報の中から必要な情報を取得する手段として人間の興味に着目し,文書に含まれる語句及び文書自体に興味の強弱を値として付与することを提案する.本論文では,不特定多数の人がどの程度興味を持つかに注目した.すなわち不特定多数を全体とした大衆に対する興味の程度である.興味の強弱を語句及び文書自体に付与することにより人間の興味(文書の面白さ,文書の注目度)の観点で情報を選別することが可能となるだけではなく,興味の強弱を値として与えることで興味がある・ないの関係ではなく興味の強さの程度を知ることができる.また,文書に含まれる語句に与えた興味の強弱の値から文書のどの部分が最も興味が強いか明らかになるため,文書のどの部分が興味の要因となるのか分析を行うことが可能である.このように語句の興味の強弱自体を明らかにすることは,例えばタイトル作成や広告等において同一の意味を示す複数の語句の中から興味が強い語句を選択する際の基準として利用できるため,興味を持ってもらえるように文書を作成する支援となることが期待できる.さらに,Web上でのアクセスランキングなどはアクセス数の集計後に知ることのできる事後の情報である.本論文の文書自体に付与する興味の強弱の値を利用することでこの順位を事前に予測することが可能となり,提示する文書の選択や表示順の変更などをアクセス集計前に利用することが期待できる.大衆の興味が反映されているデータに注目することでこのような大衆の興味を捉えることが出来ると考える.また興味を持つことになった原因と持たれない原因を分析する手がかりになると期待できる.本論文では,多くの人が興味を持つ文書を判断するため,まず興味の判断に必要な素性を文書から抽出する.次に抽出した素性に興味の強弱を値で推定して付与する.さらに興味の強弱の値が付与された素性から文書自体の興味の強弱を推定する.\ref{sec_興味}章にて本論文で対象とする興味,\ref{sec_関連}章にて関連研究,\ref{sec_rank}章で順位情報の詳細,\ref{sec_method}章で提案手法について述べ,\ref{sec_expeval}章で評価実験及び考察を行う.さらに\ref{sec_method2}章で提案手法の拡張について述べ,その評価を\ref{sec_evalexp2}章にて行う.
V16N03-01
本稿では,大量の上位下位関係をWikipediaから効率的に自動獲得する手法を提案する.ここで「単語Aが単語Bの上位語である(または,単語Bが単語Aの下位語である)」とは,Millerの定義\cite{wordnet-book_1998}に従い,「AはBの一種,あるいは一つである(Bisa(kindof)A)」とネイティブスピーカーがいえるときであると定義する.例えば,「邦画」は「映画」の,また「イチロー」は「野球選手」のそれぞれ下位語であるといえ,「映画/邦画」,「野球選手/イチロー」はそれぞれ一つの上位下位関係である.以降,「A/B」はAを上位語,Bを下位語とする上位下位関係(候補)を示す.一般的に上位下位関係獲得タスクは,上位下位関係にある表現のペアをどちらが上位語でどちらが下位語かという区別も行った上で獲得するタスクであり,本稿でもそれに従う.本稿では概念—具体物関係(ex.野球選手/イチロー)を概念間の上位下位関係(ex.スポーツ選手/野球選手)と区別せず,合わせて上位下位関係として獲得する.上位下位関係は様々な自然言語処理アプリケーションでより知的な処理を行うために利用されている\cite{Fleischman_2003,Torisawa_2008}.例えば,Fleischmanらは質問文中の語句の上位語を解答とするシステムを構築した\cite{Fleischman_2003}.また鳥澤らはキーワード想起支援を目的としたWebディレクトリを上位下位関係をもとに構築した\cite{Torisawa_2008}.しかしながら,このような知的なアプリケーションを実現するためには,人手で書き尽くすことが困難な具体物を下位語とする上位下位関係を網羅的に収集することが重要になってくる.そこで本稿では,Wikipediaの記事中の節や箇条書き表現の見出しをノードとするグラフ構造(以降,\textbf{記事構造}とよぶ)から大量の上位下位関係を効率的に獲得する手法を提案する.具体的には,まず記事構造上でノードを上位語候補,子孫関係にある全てのノードをそれぞれ下位語候補とみなし,上位下位関係候補{を}抽出する.例えば,図~\ref{fig:wiki}(b)のWikipediaの記事からは~\ref{sec:wikipedia}節で述べる手続きにより,図~\ref{fig:wiki}(c)のような記事構造が抽出できる.この記事構造上のノード「紅茶ブランド」には,その子孫ノードとして「Lipton」,「Wedgwood」,「Fauchon」,「イギリス」,「フランス」が列挙されている.提案手法をこの記事構造に適用すると,「紅茶ブランド」を上位語候補として,その子孫ノードを下位語候補群とする上位下位関係候補を獲得できる.しかしながら獲得した下位語候補には,「Wedgwood」,「Fauchon」のように下位語として適切な語が存在する一方,「イギリス」,「フランス」のような誤りも存在する.この例のように,記事構造は適切な上位下位関係を多く含む一方,誤りの関係も含むため,機械学習を用いて不適切な上位下位関係を取り除く.\begin{figure}[t]\begin{center}\includegraphics{16-3ia1f1.eps}\end{center}\caption{「紅茶」に関するWikipediaの記事の例}\label{fig:wiki}\end{figure}以下,\ref{sec:bib}節で関連研究と本研究とを比較する.\ref{sec:wikipedia}節で提案手法で入力源とするWikipediaの記事構造に触れ,\ref{sec:method}節で提案手法について詳細に述べる.\ref{sec:exp}節では提案手法を日本語版Wikpediaに適用し,獲得された上位下位関係の評価を行う.最後に\ref{sec:matome}節で本稿のまとめと今後の展望について述べる.
V06N07-02
日本語の長文で一文中に従属節が複数個存在する場合,それらの節の間の係り受け関係を一意に認定することは非常に困難である.また,このことは,日本語の長文を構文解析する際の最大のボトルネックの一つとなっている.一方,これまで,日本語の従属節の間の依存関係に関する研究としては,\cite{Minami73aj,Minami93aj}による従属節の三階層の分類がよく知られている.\cite{Minami73aj,Minami93aj}は,スコープの包含関係の狭い順に従属節を三階層に分類し,スコープの広い従属節は,よりスコープの狭い従属節をその中に含むことができるが,逆に,スコープの狭い従属節が,よりスコープの広い従属節をその中に含むことはできないという傾向について述べている.さらに,\cite{FFukumoto92aj,SShirai95bj}は,計算機による係り受け解析において\cite{Minami73aj,Minami93aj}の従属節の分類が有用であるとし,その利用法について提案している.特に,\cite{SShirai95bj}は,計算機による係り受け解析における有効性の観点から,\cite{Minami73aj,Minami93aj}の従属節の三階層の分類を再構成・詳細化し,また,この詳細な従属節の分類を用いた従属節係り受け判定規則を提案している.これらの研究においては,人手で例文を分析することにより従属節の節末表現を抽出し,例文における従属節の係り受け関係の傾向から,従属節の節末表現を階層的に分類している.しかし,人手で分析できる例文の量には限りがあるため,このようにして抽出された従属節節末表現は網羅性に欠けるおそれがある.また,人手で従属節節末表現の階層的分類を行う際にも,分類そのものの網羅性に欠ける,あるいは分類が恣意性の影響を受けるおそれが多分にある\footnote{実際に,EDR日本語コーパス\cite{EDR95aj-nlp}(約21万文)に対して,\cite{SShirai95bj}の従属節係り受け判定規則のうち,表層的形態素情報の部分を用いて従属節の係り受け関係の判定を行った結果,約30\%のカバレージ,約80\%の適合率という結果を得ている\cite{Nishiokayama98aj}.}.そこで,本論文では,大量の構文解析済コーパスから,統計的手法により,従属節節末表現の間の係り受け関係を判定する規則を自動抽出する手法を提案する.まず,大量の構文解析済コーパスを分析し,そこに含まれる従属節節末表現を網羅するように,従属節の素性を設定する.この段階で,人手による例文の分析では洩れがあった従属節節末表現についても,これを網羅的に収集することができる.また,統計的手法として,決定リストの学習の手法~\cite{Yarowsky94a}を用いることにより,係り側・受け側の従属節の形態素上の特徴と,二つの従属節のスコープが包含関係にあるか否かの間の因果関係を分析し,この因果関係を考慮して,従属節節末表現の間の係り受け関係判定規則を学習する.そこでは,従属節のスコープの包含関係の傾向に応じて従属節節末表現を階層的に分類するのではなく,個々の従属節節末表現の間に,スコープの包含関係,言い換えれば,係り受け関係の傾向が強く見られるか否かを統計的に判定している.また,人手によって係り受け関係の傾向を規則化するのではなく,大量の係り受けデータから自動的に学習を行っているので,抽出された係り受け判定規則に恣意性が含まれることはない.本論文では,実際に,EDR日本語コーパス\cite{EDR95aj-nlp}(構文解析済,約21万文)から従属節係り受け判定規則を抽出し,これを用いて従属節の係り受け関係を判定する評価実験を行った結果について示す.また,関連手法との実験的比較として,従来の統計的係り受け解析モデル\cite{Collins96a,Fujio97aj,Ehara98aj,Haruno98cj,Uchimoto98aj}と本論文のモデルとの違いについて説明し,従属節間の係り受け解析においては,従来の統計的係り受け解析モデルに比べて本論文のモデルの方が優れていることを示す.同様に,従属節間の係り受けの判定に有効な属性を選択する方法として,決定木学習\cite{Quinlan93a}により属性選択を行う手法\cite{Haruno98cj}と,本論文で採用した決定リスト学習の手法\cite{Yarowsky94a}を比較し,本論文の手法の優位性を示す.さらに,推定された従属節間の係り受け関係を,\cite{Fujio97aj,Fujio99aj}の統計的文係り受け解析において利用することにより,統計的文係り受け解析の精度が向上することを示す.
V29N04-07
\label{sec:intro}言語と画像という二つの異なるモダリティを橋渡しする技術を確立することは,自然言語処理および画像処理の両分野において重要な目標の一つである.この目標に向けて,これまで複数のマルチモーダルタスクにおいて大きな進歩を遂げてきた.例えば,画像のキャプション生成タスク\cite{lin2014microsoft}や画像の質問応答タスク\cite{antol2015vqa,agrawal2017vqa}は,盛んに研究が行われている代表的なマルチモーダルタスクである\cite{hossain2019comprehensive,kafle2017visual,wu2017visual}.画像のキャプション生成タスクでは,入力画像の内容を短く簡潔な自然言語(キャプション)で記述することを目的とし,画像の質問応答タスクでは,自然言語で問われた画像に関する質問(文)に自然言語で回答することがタスクのゴールである.しかしながら,普段我々人間が目にする実際のマルチモーダル文書\footnote{本研究では,文書に画像が付随するデータをマルチモーダル文書と呼称する.}は,複数文および複数画像から成る場合がある.ニュース記事には取り上げている事件・イベントに関連する写真が含まれるし,料理のレシピには途中の各工程の様子が描かれた画像を載せることがある.また,Wikipedia\footnote{\url{https://www.wikipedia.org/}}の記事には人物,各国の建造物・街並み,電化製品や自動車などの人工物,草花,鉱物,化学物質など,ありとあらゆる物事が詳しく記述され,それらに関連する画像が付随する.この時,文書の適切な位置に画像が配置されることで,画像は我々人間が文書理解することを助けている.言い換えれば,我々人間は,画像と文書内の(多くの場合はその近辺の)テキストの関連性や対応関係を自然に読み取りながら文書を理解している.一方,画像のキャプション生成タスクや質問応答タスクを含む既存の多くのマルチモーダルタスクでは,タスクの定義上1事例が短文と1画像のペアで構成されるため,複数画像の対応関係や,文書レベルの長いテキスト,および,データセットのアノテーションコストの都合上多種多様な視覚的概念を扱っていない.これは,既存のマルチモーダルタスクからでは上述した人間が行う文書理解の仕方を明示的に学習させたり,既存のタスク上で学習されたモデルをそのまま上述した我々が普段目にする多様なマルチモーダル文書に適用できないことを示唆している.この問題に対処するため,我々は実際にWeb上に存在するマルチモーダル文書を対象とした新しいタスク,Image-to-TextMatching(ITeM)を提案する\footnote{本研究の内容の一部はLREC2020に採択されたものである\cite{muraoka-lrec-2020}.}.これにより実応用可能なマルチモーダルシステムを構築するための新たな研究の方向性を切り開くことが本研究の目的である.図~\ref{fig:task_overview}に提案タスクの概要を示す\footnote{\url{https://en.wikipedia.org/w/index.php?title=Headset_(audio)&oldid=899726384}}.このタスクの目標は,ある1つの入力文書と入力画像集合が与えられた時,読者の文書理解を助けるような画像の文書内における配置位置,すなわち,関連度の高い部分テキストを予測することである.このタスクを解くためには,複数文および複数画像を考慮することが要求される.それに加え,このタスクには既存のマルチモーダルタスクでは扱われていない次の3つの技術課題が含まれる.(i)文書レベルの長いテキスト,および,内在する文書構造を考慮すること.(ii)複数の画像を関連づけること.例えば,図~\ref{fig:task_overview}の最初の2つの画像は,対比しながら見ることで視覚的形状の違いを強調させつつ,対応するテキスト(``Bluetooth''セクション)を補完している.(iii)既存のマルチモーダルタスクで扱われる事前に定義された限られた種類の視覚的概念だけでなく,固有名詞を含む幅広いドメインで扱われる多様な語彙知識に対処すること.これらの技術課題を含む提案タスクによって,新聞記事の見出し生成や適切な画像選定,物語からの自動絵本生成,イベント写真からのアルバム生成など,マルチモーダル文書に関する新たな研究や応用を期待できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics[height=245.6pt,clip]{29-4ia6f1_org.pdf}\end{center}\caption{提案タスクの概要.英語版Wikipedia``Headset(audio)''より引用,一部改変.}\label{fig:task_overview}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%また,ITeMタスクを提案するにあたり,我々はWikipediadumpから66,947文書および320,200画像からなる大規模なデータセットを低コストで機械的に構築する.Wikipediaに着目したのは,1つの記事ページを1つのマルチモーダル文書とみなすことができ,また,タスクのゴールである文書内のテキストと画像の対応関係がマークアップファイルに明示的に記述されているためである.それに加え,Wikipediaでは,様々なトピック・事柄について扱われており,さらにWikipediaのセクション構造を擬似的な文書構造(段落構造)とみなすことができる.従って,Wikipediaは上述した3つの技術課題を全て満たす言語資源である.また,構築したデータセットは,既存の単一言語からなるマルチモーダルデータセットと比べ,画像数,文書数,語彙数の観点で大規模であることを\ref{sec:dataset}節で示す.提案タスクの妥当性と難易度を調査するため,過去に既存のマルチモーダルタスクで最高精度を達成した手法(Pythia\cite{jiang2018pythia},OSCAR\cite{li2020oscar})を本タスク向けに改良を行い,評価実験を行う.実験結果から,改良した既存手法はベースラインを大幅に上回り,提案タスクを解くことができる可能性を示したものの,人間の精度に到達するには改良の余地があることも確認された.また,提案タスクを事前学習の一種とみなし,提案タスクで学習させたモデルを既存のマルチモーダルタスクでfine-tuningし,性能評価を行った.その結果,提案タスクで学習を行わなかったモデルとの明らかな差は見られなかった一方で,定量分析および定性分析により,記事内の画像数が多くなるほど,また,画像が分散して配置されている記事ほどタスクが難しくなる傾向にあることや,タスクを解くためには複数画像を同時に考慮したり画像中の物体情報を抽象化しなければならないなど,既存のタスクとは異なる側面の画像理解・言語理解能力を提案タスクによって学習・評価していることが示唆された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V13N01-05
\label{sec:introduction}英日機械翻訳システムなどの対訳辞書を拡張するための手段の一つとして,対訳コーパスなどから語彙知識を自動的に獲得する方法が有望である.適切な語彙知識を獲得するためには,(1)対訳コーパスにおいて英語表現と日本語表現を正しく対応付ける処理と,(2)対応付けられた{\EJP}を辞書に登録するか否かを判定する処理の二つが必要である.後者の処理が必要な理由は,対応付けられた{\EJP}には,辞書に登録することによって翻訳品質が向上することがほぼ確実なものとそうでないものがあるため,これらを選別する必要があるからである.例えば,対訳コーパスから次のような{\EJP}の対応付けが得られたとする.\begin{center}\begin{tabular}{ll}CustomsandTariffBureau&関税局\\MinshutoandNewKomeito&民主党や公明党\\MiyagiandYamagata&宮城,山形両県\\\end{tabular}\end{center}これらのうち第一の{\EJP}は辞書に登録すべきであるが,第二,第三の{\EJP}はそうではない.なぜならば,``MinshutoandNewKomeito''を我々の機械翻訳システムで処理すると「民主党,及び,公明党」という翻訳が得られるが,この翻訳と「民主党や公明党」とでは翻訳品質に大きな差はないと判断できるからである.また,第三の{\EJP}は,``Miyagi''と``Yamagata''が県名を表わしていない文脈では不適切となり,文脈依存性が高いからである.このように,翻訳品質が変化しなかったり,低下することが予想されたりする{\EJP}はふるい落とさなければならない.我々が{\EJP}の対応付けと選別を分けて考えるもう一つの理由は,前者はシステム依存性が低いのに対して,後者は依存性が高いという違いがあるからである.対応付けが正しいか否かは個々の機械翻訳システムにほとんど依存しない.このため,正しい対応付けを得るための判定基準を設定する際には特定のシステムを想定する必要がない.これに対して,対応付けられた{\EJP}(辞書登録候補)を登録するべきか否かは個々の機械翻訳システムに依存するため,選別は,特定の機械翻訳システムを想定した判定基準に基づいて行なわれなければならない.例えば,我々の機械翻訳システムには``theBankfor$ABC$''を「$ABC$銀行」のように訳す(前置詞``for''を訳出しない)規則が存在しない.このため,``theBankforInternationalSettlements''が「国際決済のための銀行」と訳されてしまう.従って,我々のシステムの場合はこの{\ENP}と「国際決済銀行」の対を辞書に登録すると判定するのが妥当である.しかし,もし前置詞``for''を訳出しないという規則を持つシステムが存在すれば,そのシステムにとっては登録する必要がないと判定するのが妥当であろう.従って,対応付けと選別とでは異なる正解判定基準を導入する必要がある.従来の研究では,異なる言語の表現同士を正しく対応付けることに焦点が当てられていることが多く\cite{Smadja96,Melamed99,Le00,Mcewan02,Tufis02,Utsuro02,Sadat03,Sato03,Yamamoto03,Ayan04,Izuha04,Sahlgren04},(正しく)対応付けられた表現対を辞書に登録するか否かを判定する処理について,選別のシステム依存性を認識した上で明確に議論した研究はほとんど見当たらない.専門用語とその対訳を獲得することを目的とした場合\cite{Dagan94,Resnik97,Tiedemann00}は,表現がある程度定式化していることが多いため,選別の必要性は低いかもしれない\footnote{(単言語の)専門用語の収集においても選別が必要であることを指摘した文献もある\cite{Sasaki05}.}.しかし,本稿では``NationalInstituteofInformationandCommunicationsTechnology''(情報通信研究機構)のような前置詞句と等位構造の両方または一方を持つ英語固有名詞句とそれに対応する日本語名詞句を対象とするが,このような英日表現対の場合には,選別処理は重要である.本稿では,対訳辞書に登録する目的で収集された英日表現対のうち,前置詞句と等位構造の両方または一方を持つ英語固有名詞句(以下では単に{\ENP}と呼ぶ)とそれに対応する日本語名詞句を辞書登録候補とし,この辞書登録候補を自動的に選別して適切な語彙知識を獲得する方法を提案する.辞書登録候補を正しく選別するという課題の解決策としては,(1)人間の辞書開発者が候補を選別する作業過程を分析し,その知見に基づいて選別規則を人手で記述する方法と,(2)機械学習手法を利用して,人間の辞書開発者が選別した事例集から選別器を自動的に作成する方法とがある.候補を登録するか否かは様々な要因によって決まるため,複雑に関連し合う要因を人手で整理し,その結果に基づいて規則を記述するより,機械学習手法を利用するほうが実現が容易であると考えられる.このようなことから本稿では機械学習を利用した方法を採る.辞書登録候補は,翻訳品質の観点から,登録すれば翻訳品質が向上するものと,登録しても変化しないものと,登録によって低下するものの三種類に分けられる.このように分けた場合,翻訳品質が向上する候補は登録すべきものであり,翻訳品質に変化がない候補は登録する必要がないものであり,翻訳品質が低下する候補は登録すべきでないものであると言える.しかし,実際には,登録する必要がない場合と登録すべきでない場合はまとめて考えることができるので,行なうべき判定は登録するか否かの二値となる.この二値判定を行なうために{\SVM}を利用する.
V22N04-01
Googleに代表される現在の検索エンジンはその性能が非常によくなってきており,適切な検索用語(キーワード)さえ与えてやればおおむね期待通りの検索結果が得られる.しかし一方,多くのユーザ,特に子どもや高齢者,外国人などにとって検索対象を表す適切な検索用語(特に専門用語など)を見つけることは往々にしてそう簡単ではない.マイクロソフトの「現在の検索で不満に思う点」に関する調査\footnote{http://www.garbagenews.net/archives/1466626.htmlまたはhttp://news.mynavi.jp/news/2010/07/05/028/}によれば,57.6\%の人が適切なキーワード探しの難しさに不満を感じている.また,「何か欲しい情報を求めて検索エンジンを利用しているのに,それを利用するための適切なキーワードをまた別のところで探さねばならないという,堂々巡りをした経験を持つ人も多いはず」とも指摘されている.これは2010年の調査ではあるが,現在においてもこれらの不満点が大方解消されたとは言い難い.そこで,関連語・周辺語(たとえば「コンピュータ」,「前の状態」,「戻す」)またはそれらの語から構成される文を手掛かりに適切な検索用語(この場合「システム復元」)を予測・提示する検索支援システムがあればより快適な検索ができるのではないかと考えられる.本研究では,ITや医療など様々な分野において,これらの分野の関連語・周辺語またはそれらの語から構成される文を入力とし,機械学習を用いて適切な検索用語を予測・提示する検索支援システムの開発を目標としている.このような研究は,すくなくとも日本語においては我々が調べた限りではこれまでなされていなかった\footnote{類似研究として,「意味的逆引き辞書」に関する研究\cite{Aihara}や「クロスワードを解く」に関する研究\cite{Uchiki}がある.しかしこれらは分野ごとの検索用語の予測・提示に基づく検索支援を第一の目的としておらず,それゆえに,精度(正解率)は本研究で得られたものよりはるかに低かった.また,手法もLSIを利用した情報検索技術やエキスパートなどに基づくアプローチを取っており,本研究が取っている機械学習のアプローチとは異なる.}.本稿ではその第一歩として,分野をコンピュータ関連に限定し,深層学習(DeepLearning)の一種であるDeepBeliefNetwork(DBN)を用いた予測手法を提案する.近年,深層学習は様々な分野で注目され,音声認識~\cite{Li}や画像認識~\cite{Krizhevsky}のみならず,自然言語処理の諸課題への応用にも優れた性能を出している.それらの諸課題は,形態素・構文解析~\cite{Billingsley,Hermann,Luong,Socher:13a},意味処理~\cite{Hashimoto,Srivastava,Tsubaki},言い換え~\cite{Socher:11},機械翻訳~\cite{Auli,Liu,Kalchbrenner,Zou},文書分類~\cite{Glorot},情報検索~\cite{Salakhutdinov},その他~\cite{Seide,Socher:13b}を含む.さらに,統一した枠組みで品詞タグ付け・チャンキング・固有表現認識・意味役割のラベル付けを含む各種の言語処理課題を取り扱えるニューラルネットおよび学習アルゴリズムも提案されている~\cite{Collobert}.しかしながら,われわれの知っている限りでは,前に述べたような情報検索支援に関する課題に深層学習を用いた研究はこれまでなされていない.したがって,本稿で述べる研究は主に二つの目的を持っている.一つは,関連語・周辺語などから適切な検索用語を正確に予測する手法を提案することである.もう一つは,深層学習がこのような言語処理課題において,従来の機械学習手法である多層パーセプトロン(MLP)やサポートベクトルマシン(SVM)より優れているか否かを確かめることである.本研究に用いたデータはインターネットから精度保証がある程度できる手動収集と,ノイズ\footnote{ここのノイズとは,関係のない単語が含まれている,または必要な単語が欠落していることを指す.}は含まれるが規模の大きいデータの収集が可能な自動収集との2通りの方法で収集した.加えて,ある程度規模が大きく精度もよい疑似データも自動生成して用いた.機械学習のパラメータチューニングはグリッドサーチと交差検証を用いて行った.実験の結果,まず,学習データとして手動収集データのみを用いても自動収集データと疑似データを加えてもDBNの予測精度は用例に基づくベースライン手法よりははるかに高くMLPとSVMのいずれよりも高いことが確認できた.また,いずれの機械学習手法も,手動収集データにノイズの多い自動収集データとノイズの少ない疑似データを加えて学習することにより予測精度が向上した.さらに,手動収集データにノイズの多い自動収集データのみを加えて学習した場合,DBNとSVMには予測精度の向上が見られたがMLPにはみられなかった.この結果から,MLPよりもDBNとSVMのほうがノイズに強くノイズの多い学習データも有効利用できる可能性が高いと言えよう.
V20N05-04
自然言語処理のタスクにおいて帰納学習手法を用いる際,訓練データとテストデータは同じ領域のコーパスから得ていることが通常である.ただし実際には異なる領域である場合も存在する.そこである領域(ソース領域)の訓練データから学習された分類器を,別の領域(ターゲット領域)のテストデータに合うようにチューニングすることを領域適応という\footnote{領域適応は機械学習の分野では転移学習\cite{kamishima}の一種と見なされている.}.本論文では語義曖昧性解消(WordSenseDisambiguation,WSD)のタスクでの領域適応に対する手法を提案する.まず本論文における「領域」の定義について述べる.「領域」の正確な定義は困難であるが,本論文では現代日本語書き言葉均衡コーパス(BCCWJコーパス)\cite{bccwj}におけるコーパスの「ジャンル」を「領域」としている.コーパスの「ジャンル」とは,概略,そのコーパスの基になった文書が属していた形態の分類であり,書籍,雑誌,新聞,白書,ブログ,ネット掲示板,教科書などがある.つまり本論文における「領域」とは,書籍,新聞,ブログ等のコーパスの種類を意味する.領域適応の手法はターゲット領域のラベル付きデータを利用するかしないかという観点で分類できる.利用する場合を教師付き手法,利用しない場合を教師なし手法と呼ぶ.教師付き手法については多くの研究がある\footnote{例えばDaum{\'e}の研究(Daum\'{e}2007)\nocite{daume0}はその簡易性と有効性から広く知られている.}.また能動学習\cite{settles2010active}や半教師あり学習\cite{chapelle2006semi}は,領域適応の問題に直接利用できるために,それらのアプローチをとる研究も多い.これらに対して教師なし手法の従来研究は少ない.教師なし手法は教師付き手法に比べパフォーマンスが悪いが,ラベル付けが必要ないという大きな長所がある.また領域適応は転移学習と呼ばれることからも明らかなように,ソース領域の知識(例えば,ラベル付きデータからの知識)をどのように利用するか(ターゲット領域に転移させるか)が解決の鍵であり,領域適応の手法はターゲット領域のラベル付きデータを利用しないことで,その効果が明確になる.このため教師なし手法を研究することで,領域適応の問題が明確になると考えている.この点から本論文では教師なし手法を試みる.\newpage本論文の特徴はWSDの領域適応の問題を以下の2点に分割したことである.\begin{enumerate}\item[(1)]領域間で語義の分布が異なる\item[(2)]領域の変化によりデータスパースネスが生じる\end{enumerate}領域適応の手法は上記2つの問題を同時に解決しているものが多いために,このような捉え方をしていないが,WSDの領域適応の場合,上記2つの問題を分けて考えた方が,何を解決しようとしているのかが明確になる.本論文では上記2点の問題に対して,ターゲット領域のラベル付きデータを必要としない各々の対策案を提示する.具体的に,(1)に対してはk~近傍法を補助的に利用し,(2)に対しては領域毎のトピックモデル\cite{blei}を利用する.実際の処理は,ターゲット領域から構築できるトピックモデルによって,ソース領域の訓練データとターゲット領域のテストデータにトピック素性を追加する.拡張された素性ベクトルからSVMを用いて語義識別を行うが,識別の信頼性が低いものにはk~近傍法の識別結果を用いる.上記の処理を本論文の提案手法とする.提案手法の大きな特徴は,トピックモデルをWSDに利用していることである.トピックモデルの構築には語義のラベル情報を必要としないために,領域適応の教師なし手法が実現される.トピックモデルをWSDに利用した従来の研究\cite{li,boyd1,boyd2}はいくつかあるため,それらとの差異を述べておく.まずトピックモデルをWSDに利用するにしても,その利用法は様々であり確立された有効な手法が存在するわけではなく,ここで利用した手法も1つの提案と見なせる.また従来のトピックモデルを利用したWSDの研究では,語義識別の精度改善が目的であり,領域適応の教師なし手法に利用することを意図していない.そのためトピックモデルを構築する際に,もとになるコーパスに何を使えば有効かは深くは議論されていない.しかし領域適応ではソース領域のコーパスを単純に利用すると,精度低下を起こす可能性もあるため,本論文ではソース領域のコーパスを利用せず,ターゲット領域のコーパスのみを用いてトピックモデルを構築するアプローチをとることを明確にしている.この点が大きな差異である.実験ではBCCWJコーパス\cite{bccwj}の2つ領域PB(書籍)とOC(Yahoo!知恵袋)から共に頻度が50以上の多義語17単語を対象にして,WSDの領域適応の実験を行った.単純にSVMを利用した手法と提案手法とをマクロ平均により比較した場合,OCをソースデータにして,PBをターゲットデータにした場合には有意水準0.05で,ソースデータとターゲットデータを逆にした場合には有意水準0.10で提案手法の有効性があることが分かった.
V26N01-08
近年,ニューラルネットワークに基づく機械翻訳(ニューラル機械翻訳;NMT)は,単純な構造で高い精度の翻訳を実現できることが知られており,注目を集めている.NMTの中でも,特に,エンコーダデコーダモデルと呼ばれる,エンコーダ用とデコーダ用の2種類のリカレントニューラルネットワーク(RNN)を用いる方式が盛んに研究されている\cite{sutskever2014sequence}.エンコーダデコーダモデルは,まず,エンコーダ用のRNNにより原言語の文を固定長のベクトルに変換し,その後,デコーダ用のRNNにより変換されたベクトルから目的言語の文を生成する.通常,RNNには,GatedRecurrentUnits(GRU)\cite{cho-EtAl:2014:EMNLP2014}やLongShort-TermMemoryLSTM)\cite{hochreiter1997long,gers2000learning}が用いられる.このエンコーダデコーダモデルは,アテンション構造を導入することで飛躍的な精度改善を実現した\cite{bahdanau2015,luong-pham-manning:2015:EMNLP}.この拡張したエンコーダデコーダモデルをアテンションに基づくNMT(ANMT)と呼ぶ.ANMTでは,デコーダは,デコード時にエンコーダの隠れ層の各状態を参照し,原言語文の中で注目すべき単語を絞り込みながら目的言語文を生成する.NMTが出現するまで主流であった統計的機械翻訳など,機械翻訳の分野では,原言語の文,目的言語の文,またはその両方の文構造を活用することで性能改善が行われてきた\cite{lin2004path,DingP05-1067,QuirkP05-1034,LiuP06-1077,huang2006statistical}.ANMTにおいても,その他の機械翻訳の枠組み同様,文の構造を利用することで性能改善が実現されている.例えば,Eriguchiら\cite{eriguchi-hashimoto-tsuruoka:2016:P16-1}は,NMTによる英日機械翻訳において原言語側の文構造が有用であることを示している.従来の文構造に基づくNMTのほとんどは,事前に構文解析器により解析された文構造を活用する.そのため,構文解析器により解析誤りが生じた場合,その構造を利用する翻訳に悪影響を及ぼしかねない.また,必ずしも構文解析器で解析される構文情報が翻訳に最適とは限らない.そこで本論文では,予め構文解析を行うことなく原言語の文の構造を活用することでNMTの性能を改善することを目指し,CKYアルゴリズム\cite{Kasami65,Younger67}を模倣したCNNに基づく畳み込みアテンション構造を提案する.CKYアルゴリズムは,構文解析の有名なアルゴリズムの一つであり,文構造をボトムアップに解析する.CKYアルゴリズムでは,CKYテーブルを用いて,動的計画法により効率的に全ての可能な隣接する単語/句の組み合わせを考慮して文構造を表現している.提案手法は,このCKYアルゴリズムを参考にし,CKYテーブルを模倣したCNNをアテンション構造に組み込むことで,原言語文中の全ての可能な隣接する単語/句の組み合わせに対するアテンションスコアを考慮した翻訳を可能とする.具体的には,提案のアテンション構造は,CKYテーブルの計算手順と同様の順序でCNNを構築し,提案のアテンション構造を組み込んだANMTは,デコード時に,CKYテーブルの各セルに対応するCNNの隠れ層の各状態を参照することにより,注目すべき原言語の文の構造(隣接する単語/句の組み合わせ)を絞り込みながら目的言語の文を生成する.したがって,提案のアテンション構造を組み込んだANMTは,事前に構文解析器による構文解析を行うことなく,目的言語の各単語を予測するために有用な原言語の構造を捉えることが可能である.ASPECの英日翻訳タスク\cite{NAKAZAWA16.621}の評価実験において,提案のアテンション構造を用いることで従来のANMTと比較して,1.43ポイントBLEUスコアが上昇することを示す.また,FBISコーパスにおける中英翻訳タスクの評価実験において,提案手法は従来のANMTと同等もしくはそれ以上の精度を達成できることを示す.
V08N04-01
本論文では,{\bf了解}の語用論的な分析を行う.語用論的な分析を可能にするために言語行為論の拡張を行い,それに基づいて{\bf了解}の分析を行う.了解の類義語として理解・納得などがある.理解は比較的浅い了解,納得は比較的深い了解を指すものであり,これらは了解の一形態である.本論文では,\begin{enumerate}\item一般に使われている了解\item理解\item納得\end{enumerate}\noindentのすべてを包含する用語として,{\bf了解}を用いることとする.了解は,様々な形態で顕現しうる.我々は,了解の顕現形態を図\ref{response}のように分類・定義する.すなわち,主として言語一文節による了解の顕現形態(例えば「はい」)を「あいづち」と呼び,「あいづち」および,「あいづち」以外の言語による了解の顕現形態(例えば「私もそう思います」)の双方を総括して「了解応答言語表現」と呼び,「了解応答言語表現」および言語によらない了解の顕現形態(例えば,うなずき)の双方を総括して「了解応答」と呼ぶ.図\ref{response}における実線矢印は包含関係を,破線矢印は例をそれぞれ示している.\begin{figure}[htbp]\begin{center}\atari(92,67)\caption{了解の顕現形態(Figure\ref{response}TheRepresentationofthe``Uptake'')}\label{response}\end{center}\end{figure}なお,あいづちの具体例としては,「はい」以外にも以下のものがある.\begin{quote}はーい,ええ,はあ,はー,そう,そうですね,そうですよね,そうそう,そうだね,そうよねー,なるほどね,うん,うーん,ふん,ふーん,ああ\end{quote}\noindentこれらは,実際の会話で具体的に観察されたものであり,頻繁に出現したものである.島津ら\cite{shimazu}は,会話における了解の顕現形態として「はい」を典型とする「間投詞的応答表現」を挙げている.彼らの研究では,非対面的会話を対象にしており,了解の顕現形態を図\ref{response}の「あいづち」(彼らの言うところの「間投詞的応答表現」)に限定している.しかし,対面的会話を対象にすると,了解の顕現形態は「間投詞的応答表現」を含む図\ref{response}のようになる.本論文では,了解応答の分析を通じて,了解の程度と過程を明らかにすることを目的とする.その際,分析対象とする了解応答は,あいづちである「はい」に限定する.従来,あいづちの分析では,国語学的あるいは文法的な分析が行われていた(例えば島津ら\cite{shimazu}による).本論文では,拡張言語行為論を用いて語用論的な分析を行う.ここでいう拡張言語行為論は,Searle\cite{searle}の言語行為論にいくつかの概念要素を追加し,既存の概念要素のいくつかを詳細化したものである.また,語用論の分野で周知の間接発話行為を詳細化したものでもある.まず第2節では,関連研究の概要を述べる.第3節ではSearleの言語行為論を概説し,第4節では拡張言語行為論の枠組みを与える.第5節では,拡張言語行為論の枠組みを用いて,あいづち「はい」による了解応答を分析し,さらに「はい」による了解の程度と過程を明らかにする.第6節では,本論文のまとめと発展的研究の可能性について述べる.
V20N03-06
2011年3月に発生した東日本大震災では,ソーシャルメディアは有益な情報源として大活躍した~\cite{nomura201103}.震災に関する情報源として,ソーシャルメディアを挙げたネットユーザーは18.3\%で,インターネットの新聞社(18.6\%),インターネットの政府・自治体のサイト(23.1\%)と同程度である.ニールセン社の調査~\cite{netrating201103}によると,2011年3月のmixiの利用者は前月比124\%,Twitterは同137\%,Facebook同127\%であり,利用者の大幅な伸びを示した.東日本大震災後のTwitterの利用動向,交換された情報の内容,情報の伝搬・拡散状況などの分析・研究も進められている~\cite{Acar:11,Doan:11,Sakaki:11,Miyabe:11}.Doanら~\cite{Doan:11}は,大震災後のツイートの中で地震,津波,放射能,心配に関するキーワードが多くつぶやかれたと報告している.宮部ら~\cite{Miyabe:11}は,震災発生後のTwitterの地域別の利用動向,情報の伝搬・拡散状況を分析した.Sakakiら~\cite{Sakaki:11}は,地震や計画停電などの緊急事態が発生したときのツイッターの地域別の利用状況を分析・報告している.AcarとMurakiは~\cite{Acar:11},震災後にツイッターで交換された情報の内容を分類(警告,救助要請,状況の報告:自身の安否情報,周りの状況,心配)している.一方で,3月11日の「コスモ石油のコンビナート火災に伴う有害物質の雨」に代表されるように,インターネットやソーシャルメディアがいわゆるデマ情報の流通を加速させたという指摘もある.東日本大震災とそれに関連する福島第一原子力発電所の事故では,多くの国民の生命が脅かされる事態となったため,人間の安全・危険に関する誤情報(例えば「放射性物質から甲状腺を守るにはイソジンを飲め」)が拡散した.東日本大震災に関するデマをまとめたツイート\footnote{https://twitter.com/\#!/jishin\_dema}では,2012年1月時点でも月に十数件のペースでデマ情報が掲載されている.このように,Twitter上の情報の信憑性の確保は,災害発生時だけではなく,平時においても急務である.我々は,誤情報(例えば「放射性物質から甲状腺を守るためにイソジンを飲め」)に対してその訂正情報(例えば「放射性物質から甲状腺を守るためにイソジンを飲め\ulinej{というのはデマ}」)を提示することで,人間に対してある種のアラートを与え,情報の信憑性判断を支援できるのではないかと考えている.訂正情報に基づく信憑性判断支援に向けて,本論文では以下に挙げる3つの課題に取り組む.\begin{description}\item[東日本大震災時に拡散した誤情報の網羅的な収集:]「○○というのはデマ」「○○という事実は無い」など,誤情報を訂正する表現(以下,訂正パターン)に着目し,誤情報を自動的に収集する手法を提案する.震災時に拡散した誤情報を人手でまとめたウェブサイトはいくつか存在するが,東日本大震災発生後の大量のツイートデータから誤情報を自動的,かつ網羅的に掘り起こすのは,今回が初めての試みである.評価実験では,まとめサイトから取り出した誤情報のリストを正解データと見なし,提案手法の精度や網羅性に関して議論する.\item[東日本大震災時に拡散した誤情報の発生から収束までの過程の分析:]東日本大震災時の大量のツイートデータから自動抽出された誤情報に対し,誤情報の出現とその拡散状況,その訂正情報の出現とその拡散状況を時系列で可視化することで,誤情報の発生から収束までの過程をモデル化する.\item[誤情報と訂正情報の識別の自動化:]誤情報を訂正している情報を自然言語処理技術で自動的に認識する手法を提案し,その認識精度を報告する.提案手法の失敗解析などを通じて,誤情報と訂正情報を対応づける際の技術的課題を明らかにする.また,本研究の評価に用いたデータは,ツイートIDと\{誤情報拡散,訂正,その他\}のラベルの組として公開を予定しており,誤情報とその訂正情報の拡散に関する研究の基礎データとして,貴重な言語資源になると考えている.\end{description}なお,ツイートのデータとしては,東日本大震災ワークショップ\footnote{https://sites.google.com/site/prj311/}においてTwitterJapan株式会社から提供されていた震災後1週間の全ツイートデータ(179,286,297ツイート)を用いる.本論文の構成は以下の通りである.まず,第2節では誤情報の検出に関する関連研究を概観し,本研究との差異を述べる.第3節では誤情報を網羅的に収集する手法を提案する.第4節では提案手法の評価実験,結果,及びその考察を行う.第5節では,収集した誤情報の一部について,誤情報とその訂正情報の拡散状況の分析を行い,自動処理による訂正情報と誤情報の対応付けの可能性について議論する.最後に,第6節で全体のまとめと今後の課題を述べる.
V10N02-06
近年,情報化社会の進展と共に大量の電子化された文書情報の中から,自分が必要とする文書情報を効率良く検索することの必要性が高まり,従来のKW検索に加えて,全文検索,ベクトル空間法による検索,内容検索,意味的類似性検索など,さまざまな文書検索技術の研究が盛んである.その中で,文書中の単語を基底とする特性ベクトルによって文書の意味的類似性を表現するベクトル空間法は,利用者が検索要求を例文で与える方法であり,KW検索方式に比べて検索条件が具体的に表現されるため,検索精度が良い方法として注目されている.しかし,従来のベクトル空間法は,多数の単語を基底に用いるため,類似度計算にコストがかかることや,検索要求文に含まれる単語数が少ないとベクトルがスパースになり,検索漏れが多発する恐れのあることなどが問題とされている.これらの問題を解決するため,さまざまな研究が行われてきた.例えば,簡単な方法としては,$tf\cdotidf$法\cite{Salton}などによって,文書データベース中での各単語の重要度を判定し,重要と判定された語のみをベクトルの基底に使用する方法が提案されている.また,ベクトル空間法では,ベクトルの基底に使用される単語は,互いに意味的に独立であることが仮定されているのに対して,現実の言語では,この仮定は成り立たない.そこで,基底の一次結合によって,新たに独立性の高い基底を作成すると同時に,基底数を減少させる方法として,KL法\cite{Borko}やLSI法\cite{Golub},\cite{Faloutsos},\cite{Deerwester}が提案されている.KL法は,単語間の意味的類似性を評価する方法で,クラスタリングの結果得られた各クラスターの代表ベクトルを基底に使用する試みなどが行われている.これに対して,LSI法は,複数の単語の背後に潜在的に存在する意味を発見しようとする方法で,具体的には,データベース内の記事の特性ベクトル全体からなるマトリックスに対して,特異値分解(SVD)の方法\cite{Golub}を応用して,互いに独立性の高い基底を求めるものである.この方法は,検索精度をあまり低下させることなく基底数の削減が可能な方法として着目され,数値データベースへの適用\cite{Jiang}も試みられている.しかし,ベクトルの基底軸を変換するための計算コストが大きいことが問題で,規模の大きいデータベースでは,あらかじめ,サンプリングによって得られた一定数の記事のみからベクトルの基底を作成する方法\cite{Deerwester}などが提案されている.このほか,単語の共起情報のスパース性の問題を避ける方法としては,擬似的なフィードバック法(2段階検索法とも呼ばれる)\cite{Burkley},\cite{Kwok}なども試みられている.また,ベクトルの基底とする単語の意味的関係を学習する方法としては,従来から,MiningTermAssociationと呼ばれる方法があり,最近,インターネット文書から体系的な知識を抽出するのに応用されている\cite{Lin}.しかし,現実には,単語間の意味的関係を自動的に精度良く決定することは容易でない.これに対して,本論文では,ベクトル空間法において,検索精度をあまり低下させることなく,基底数を容易に削減できることを期待して,単語の意味属性をベクトルの基底として使用する方法を提案する.この方法は,従来の特性ベクトルにおいて基底に使用されている単語を,その意味属性に置き換えるものである.単語意味属性としては,日本語語彙大系\cite{池原}に定義された意味属性体系を使用する.この意味属性体系は,日本語の名詞の意味的用法を約2,710種類に分類したもので,属性間の意味的関係(is-a関係とhas-a関係)が12段の木構造によって表現されている.また,日本語の単語30万語に対して,どの意味属性(1つ以上)に属す単語であるかが指定されている.従って,本方式では,意味属性相互の意味的上下関係を利用すれば,検索精度をあまり落とさずにベクトルの基底数を削減できる.同時に基底として使用すべき必要最低限の意味属性の組を容易に決定できることが期待される.また,本方式では,検索要求文に使用された単語とデータベース内の記事中の単語の意味的な類似性が,単語意味属性を介して評価されるため,再現率の向上が期待できる.すなわち,従来の単語を基底とした文書ベクトル空間法では,ベクトルの基底として使用された単語間のみでの一致性が評価されるのに対して,本方式では,すべての単語(30万語)が検索に寄与するため,検索漏れの防止に役立つと期待される.本論文では,TRECに登録された情報検索テストコレクションBMIR-J2\cite{木谷}を検索対象とした検索実験によって,従来の単語を用いた文書ベクトル空間法と比較し,本方式の有効性を評価する.
V31N01-05
\label{sec:intro}関係抽出はテキストにおけるエンティティ(実体)の関係を認識するタスクである.従来の関係抽出は,文内に閉じて関係を認識するタスク設定の研究が多く\cite{doddington-etal-2004-automatic,han-etal-2018-fewrel,hendrickx-etal-2010-semeval,zhang-etal-2017-position,alt-etal-2020-tacred},テキスト中で複数の文にまたがって表現される関係は対象外となってしまうため,適用範囲が狭いという課題があった\cite{yao-etal-2019-docred}.これに対して,複数の文で言及される関係にも対応したタスク,すなわち\textbf{文書レベル関係抽出}(\textbf{DocRE}:\textbf{Doc}ument-level\textbf{R}elation\textbf{E}xtraction)が提案された\cite{yao-etal-2019-docred,li-etal-2016-cdr,verga-etal-2018-simultaneously}.DocREでは,複数の文における情報の取捨選択や統合をしながら,エンティティ間の関係を推定する必要がある\cite{huang-etal-2021-three,xie-etal-2022-eider,xu-etal-2022-document}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{31-1ia4f1.pdf}\end{center}\hangcaption{DocREDのアノテーションの例.斜体は関係を予測したいエンティティの言及(メンション)であり,下線はその他のエンティティの言及である.}\label{fig:example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%DocREにおいて情報の取捨選択に用いられるのが\textbf{根拠}(evidence)である.根拠はDocREで広く用いられるデータセットDocRED\cite{yao-etal-2019-docred}で初めて定義され,関係を推定するために必要最小限な情報を含む文の集合としてラベル付けされた.図~\ref{fig:example}の例では,\textit{PrinceEdmund}と\textit{Blackadder}における関係\textit{presentinwork}を認識するための必要最小限な情報は文1と2であるため,この関係の根拠は文1と2とラベル付けされる.既存研究では,DocREのサブタスクとして\textbf{根拠認識}に取り組み,エンティティ組の関係を推定する際に必要な情報の取捨選択を行うことが多かった\cite{yao-etal-2019-docred,huang-etal-2021-three,xie-etal-2022-eider,xiao-etal-2022-sais}.ただし,これらの研究は,DocREと根拠認識を別々のタスクとしてモデル化しているため\cite{huang-etal-2021-three,xie-etal-2022-eider,xiao-etal-2022-sais},両タスクの関連性を考慮できない.これに対し,本稿ではDocREと根拠認識のモデルを統合した新手法として,\textbf{D}ocument-level\textbf{R}elation\textbf{E}xtractionwith\textbf{E}vidence-guided\textbf{A}ttention\textbf{M}echanism(DREEAM)を提案する.DREEAMでは,根拠を単語(トークン)や文の重要度に関する情報としてテキストのエンコーダに統合する.具体的には,BERT\cite{devlin-etal-2019-bert}などの事前学習済み言語モデルのエンコーダにおける自己注意機構\cite{NIPS2017attention}への教師信号として根拠を導入し,根拠に高い重みを配分するように誘導しながらDocREのモデルを学習する.これにより,根拠認識に特化したモデルが不要となり,パラメータ数の削減や推論時のメモリ使用量の低減も実現できる.なお,文書レベルの関係アノテーションはコストが高いため,学習データが不足しがちな状況にある.表~\ref{tab:dataset}に示すように,現時点で最大規模のデータセットであるDocREDでも,人手でラベルが付与された文書は5,051件しかない.DocREDではデータ不足を緩和するため,遠距離教師あり学習(DistantSupervision,\citeA{mintz-etal-2009-distant})を用いて関係ラベルを自動付与しているが,根拠ラベルの自動付与は行われていない.本研究では,提案手法であるDREEAMを用いて根拠の疑似的な教師信号を自動的に付与し,大量の自動関係ラベル付けデータに根拠の疑似ラベルを追加する.これにより,大量の自動ラベル付けデータを関係抽出及び根拠認識双方の学習に活用できる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{04table01.tex}%\caption{DocREDデータセットの統計情報}\label{tab:dataset}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%提案手法の有効性を検証するため,DocREDベンチマークで実験を行った結果,提案手法は関係抽出と根拠認識の双方において,現時点の世界最高性能を達成した.DocREDを改良したベンチマークRe-DocREDで実験を行っても,提案手法は既存手法を上回る性能を示した.また,推論時では,提案手法のメモリ使用量は既存手法の30\%以下であり,根拠の予測におけるメモリ効率を大幅に改善できた.提案手法の実装を\url{https://github.com/YoumiMa/dreeam}で公開している.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V21N02-04
現在,自然言語処理では意味解析の本格的な取り組みが始まりつつある.意味解析には様々なタスクがあるが,その中でも文書中の要素間の関係性を明らかにする述語項構造解析と照応解析は最も基本的かつ重要なタスクである.本稿ではこの両者をまとめて意味関係解析と呼ぶこととする.述語項構造解析では用言とそれが取る項の関係を明らかにすることで,表層の係り受けより深い関係を扱う.照応解析では文章中の表現間の関係を明らかにすることで,係り受け関係にない表現間の関係を扱う.意味関係解析の研究では,意味関係を人手で付与したタグ付きコーパスが評価およびその分析において必要不可欠といえる.意味関係およびそのタグ付けを以下の例\ref{意味・談話関係のタグ付け例}で説明する.\ex.\let\oldalph\let\alph\label{意味・談話関係のタグ付け例}今日はソフマップ京都に行きました。\\\label{意味・談話関係のタグ付け例a}\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}行きました$\leftarrow$ガ:[著者],ニ:ソフマップ京都\\\end{tabular}\right)$\\時計を買いたかったのですが、この店舗は扱っていませんでした。\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}買いたかった$\leftarrow$ガ:[著者],ヲ:時計\\店舗$\leftarrow$=:ソフマップ京都\\扱っていませんでした$\leftarrow$ガ:店舗,ヲ:時計\label{意味・談話関係のタグ付け例b}\end{tabular}\right)$\\時計を売っているお店をコメントで教えてください。\\\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}時計$\leftarrow$=:時計\\売っている$\leftarrow$ガ:お店,ヲ:時計\\教えてください$\leftarrow$ガ:[読者],ヲ:お店,ニ:[著者]\label{意味・談話関係のタグ付け例c}\end{tabular}\right)$\global\let\alphここでA$\leftarrow${\textitrel}:BはAに{\textitrel}という関係でBというタグを付与することを表す.{\textitrel}が「ガ」「ヲ」「ニ」などの場合はAが述語項構造の{\textitrel}格の項としてBをとることを表わし,「=」はAがBと照応関係にあることを表す.また以降の例では議論に関係しないタグについては省略する場合がある.照応関係とは談話中のある表現(照応詞)が別の表現(照応先)を指す現象である\footnote{照応に類似した概念として共参照が存在する.共参照とは複数の表現が同じ実体を指す現象であるが,照応として表現できるものがほとんどなので,本論文では特に断りがない限り照応として扱う.}.ここでは,「店舗」に「=:ソフマップ京都」というタグを付与することで,この照応関係を表現している.述語項構造は述語とその項の関係を表したもので,例\ref{意味・談話関係のタグ付け例b}の「扱っていませんでした」に対してガ格の項が「店舗」,ヲ格の項が「時計」という関係である.ここで,ヲ格の「時計」は省略されており,一般に{\bfゼロ照応}と呼ばれる関係にあるが,ゼロ照応も述語項構造の一部として扱う.またゼロ照応では照応先が文章中に出現しない{\bf外界ゼロ照応}と呼ばれる現象がある.例えば,例\ref{意味・談話関係のタグ付け例a}の「行きました」や「買いたかった」のガ格の項はこの文章の著者であるが,この著者を指す表現は文章中には出現しない.外界の照応先として[著者],[読者],[不特定-人]\footnote{以降,外界の照応先は[]で囲う.}などを設定することで,外界ゼロ照応を含めた述語項構造のタグ付けを行う.これまでの日本語の意味関係解析の研究で主に用いられてきたのは意味関係を付与した新聞記事コーパスであった\cite{KTC,NTC}.しかし,テキストには新聞記事以外にも百科事典や日記,小説など多様なジャンルがある.これらの多様なテキストの中には依頼表現,敬語表現など新聞記事ではあまり出現しない言語現象も出現し,意味関係と密接に関係している.例えば例\ref{意味・談話関係のタグ付け例}の「買いたかった」のガ格が[著者]となることは意志表現に,「教えてください」のガ格が[読者],ニ格が[著者]になることは依頼表現に密接に関係している.このような言語現象と意味関係の関係を明らかにするためには,多様なテキストからなるタグ付きコーパスの構築とその分析が必要となる.そこで本研究ではニュース記事,百科事典記事,blog,商用ページなどを含むWebページをタグ付け対象として利用することで,多様なジャンル,文体の文書からなる意味関係タグ付きコーパスの作成を行う.上述のように,本研究のタグ付け対象には新聞記事ではあまり出現しない言語現象が含まれる.その中でも特に大きなものとして文章の著者・読者の存在が挙げられる.著者や読者は,省略されやすい,モダリティや敬語などと密接に関係するなど,他の談話要素とは異なった振る舞いをする.新聞記事では,客観的事実を報じる内容がほとんどのため,社説を除くと記事の著者や読者が談話中に出現することはほとんどない.そのため,従来のタグ付け基準では[著者]や[読者]などを外界の照応先として定義していたが,具体的なタグ付け基準についてはあまり議論されてこなかった.一方,本研究で扱うWebではblog記事や通販ページ,マニュアルなど著者や読者が談話中に出現する文書が多く含まれ,その中には従来のタグ付け基準では想定していなかった言語現象および意味関係が出現する.そのため,著者・読者が出現する文書でのタグ付け上の問題点を分析し,タグ付け基準を設けることが重要となる.著者・読者が出現する文書へのタグ付けでの1つ目の問題は,文章中で著者・読者に対応する表現である.\ex.\underline{僕}は京都に行きたいのですが,\underline{皆さん}のお勧めの場所があったら\underline{教えてください}。\\\label{例:著者・読者表現}\hspace*{4ex}$\left(\begin{tabular}{@{}l@{}}僕$\leftarrow$=:[著者]\\皆さん$\leftarrow$=:[読者]\\教えてください$\leftarrow$ガ:皆さん,ヲ:場所,ニ:僕\end{tabular}\right)$例\ref{例:著者・読者表現}では,「僕」は著者に対応し,「皆さん」は読者に対応した表現となっている.本研究ではこのような著者や読者に対応する表現を{\bf著者表現},{\bf読者表現}と呼ぶこととする.著者表現,読者表現は外界ゼロ照応における[著者]や[読者]と同様に談話中で特別な振る舞いをする.例えば例\ref{例:著者・読者表現}の「教えてください」のように,依頼表現の動作主は読者表現に,依頼表現の受け手は著者表現になりやすい.本研究で扱う文書は多様な著者,読者からなり,著者読者,読者表現も人称代名詞だけでなく,固有表現や役割表現など様々な表現で言及され,語の表層的な情報だけからは簡単に判別できない.そこで本研究では著者表現,読者表現をタグ付けし,著者・読者の談話中での振る舞いについて調査した.2つ目の問題は項を明示していない表現に対する述語項構造のタグ付けである.日本語では一般的な事柄に対して述べる場合には,動作主や受け手などを明示しない表現が用いられることが多い.従来の新聞記事を対象としたタグ付けでは,[不特定-人]を動作主などとすることでタグ付けを行ってきた.一方,著者・読者が談話中に出現する場合には,一般的な事項について述べる場合でも動作主などを著者や読者と解釈できる場合が存在する.\ex.ブログに記事を書き込んで、インターネット上で\underline{公開する}のはとても簡単です。\label{曖昧性}\\\hspace*{4ex}(公開する$\leftarrow$ガ:[著者]?[読者]?[不特定-人],ヲ:記事)例\ref{曖昧性}の「公開する」の動作主であるガ格は,不特定の人が行える一般論であるが,著者自身の経験とも読者が将来する行為とも解釈することができ,作業者の解釈によりタグ付けに一貫性を欠くこととなる.本研究ではこのような曖昧性が生じる表現を分類し,タグ付けの基準を設定した.本研究の目的である多様な文書を含むタグ付きコーパスの構築を行うためには,多数の文書に対してタグ付け作業を行う必要がある.この際,1文書あたりの作業量が問題となる.形態素,構文関係のタグ付けは文単位で独立であり,文書が長くなっても作業量は文数に対して線形にしか増加しない.一方,意味関係のタグ付けでは文をまたぐ関係を扱うため,文書が長くなると作業者が考慮すべき要素が組み合わせ的に増加する.このため1文書あたりの作業時間が長くなり,文書全体にタグ付けを行うと,タグ付けできる文書数が限られてしまう.そこで,先頭の数文に限定してタグ付けを行うことで1文書あたりの作業量を抑える.意味関係解析では既に解析した前方の文の解析結果を利用する場合があり,先頭の解析誤りが後続文の解析に悪影響を与える.先頭数文に限定したコーパスを作ることで,文書の先頭の解析精度を上げることが期待でき,全体での精度向上にも寄与できると考えられる.本論文では,2節でコーパスを構成する文書の収集について述べ,3節で一般的な意味関係のタグ付けについて述べる.4節では著者・読者表現に対するタグ付け,5節では複数の解釈が可能な表現に対するタグ付けについて述べる.6節でタグ付けされたコーパスの性質について議論し,7節で関連研究について述べ,8節でまとめとする.
V14N04-01
\label{intro}近年,自然言語処理の分野では,大規模な言語資源を利用した統計的手法が研究の中心となっている.特に,構文木付きコーパスは,統計的手法に基づく言語処理の高性能化のためだけでなく,言語学や言語処理研究の基本データとしても貴重な資源である.そのため,大規模な構文木付きコーパスの作成が必要となっている.しかし,大規模な構文木付きコーパスを全て人手により作成することは,多大なコストを必要とするため困難である.一方,現在の構文解析の精度では,構文木の付与を完全に自動化することが難しい.現実的には,構文解析器の出力から人手によって正しい構文木を選択し,それを文に付与することが望ましい.コーパス作成中には,文法や品詞体系の変更など,コーパス作成方針の変更により,コーパスへの修正が必要になることもあり,継続的な修正作業や不整合の除去などの機能を持った構文木付きコーパスの作成を支援するシステムが必要になる\cite{cunningham:2003:a}\cite{plaehn:2000:a}.このようなシステムの多くは,GUIツールを用いて,構文木付けをするコーパスのファイル形式や品詞ラベルの不整合を防ぐことにより,コーパス作成者を支援するのが主な機能である.しかし,それだけでは,正しい構文木付きコーパスの作成には,不十分であり,構文木の一貫性を保つための支援が必要となる.構文木の一貫性を保つための支援として,過去の事例を参照することは有効である.複数の構文木候補のうち,正しい木の選択を迷った場合に,すでに構文木を付与されたコーパス中から,作業中の構文木と類似した部分を持つ構文木を参照できれば,正しい構文木付けが容易になり,一貫性を保つための支援ができる.このためには,構文木付きコーパスを検索対象とし,木構造の検索が可能な構文木付きコーパス検索システムが必要となる.構文木付きコーパス検索システムは,木構造検索を行うことになるため,UNIXの文字列検索コマンド$grep$などの文字列検索よりも検索に時間を要することが多い.既存の構文木付きコーパス検索システム\cite{randall:2000:a,rohde:2001:a,konig:2003:a,bird:2004:a}においても,主な課題として,検索時間の高速化が挙げられているが,検索時間を高速化する優れた手法はまだ提案されていない.今後,コーパスの規模が更に大きくなると,検索時間の高速化は不可欠な技術となる.本論文では,高速な構文木付きコーパス検索手法を提案する.本論文で提案する検索手法は,構文木付きコーパスを関係データベースに格納し,検索にはSQLを用いる.部分木を検索のクエリとして与え,クエリと同じ構造を含む構文木を検索結果として出力する.クエリの節点数が多い場合,クエリを分割し,それぞれのクエリを別のSQL文で漸進的に検索する.クエリを分割すべきかどうか,分割するクエリの大きさや検索順序は,構文木付きコーパス中の規則の出現頻度を用いて自動的に決定する.6言語,7種類のコーパスを用いて評価実験を行い,4種類のコーパスにおいて,漸進的に検索を行う本手法により検索時間が短縮され,本手法の有効性を確認した.また,残りの3種類のコーパスにおいては,漸進的に検索を行わなくても多大な検索時間を要しないことを本手法で判定することができた.そして,クエリの分割が検索時間の短縮に効果があった4種類のコーパスと分割の効果がなかった3種類のコーパスの違いについて,コーパスに含まれる文数,ラベルの頻度,節点の平均分岐数の観点から考察を行い,節点の平均分岐数がその一因であることを確認した.
V31N02-15
\label{sec:intro}言語生成における最も一般的な解の探索手法としてビームサーチが挙げられる.ビーム幅を大きくすることでより広範囲の解候補探索が可能となるが,ビーム幅を大きくすると生成品質が低下するという問題が知られている\cite{koehn-knowles-2017-six,yang-etal-2018-breaking,pmlr-v80-ott18a,stahlberg-byrne-2019-nmt}.この問題への対処法として,$N$ベスト出力のリランキングや最小ベイズ復号法\cite{muller-sennrich-2021-understanding,eikema-aziz-2022-sampling}が研究されてきた\cite{fernandes-etal-2022-quality}.リランキング手法はデコード方法のみを変更するため,最小ベイズ復号法のようなモデル学習を伴う方法と比べ学習コストが低く,学習済みモデルに容易に適用できる.リランキング手法は$N$ベスト出力の中により品質の高い仮説が存在することを前提とし,品質が高いと推定された仮説を選択している.そのため,リランキング手法は部分的に高品質であるが文全体としては不完全な仮説を活用することが困難である.提案手法では,このような高品質な断片を識別し,語彙制約付きデコーディング手法により統合することで高品質な出力を生成する.具体的には,まず言語生成モデルにビームサーチを適用することで$N$ベストの出力文を生成した後,$N$ベスト出力に含まれる各トークンが最終出力に含まれるべきか否かの正誤予測を行い,誤りと予測されたトークンを負の制約,正しいと予測されたトークンを正の制約とする.そして,入力文を再度言語生成モデルに入力し,語彙制約を適用したデコードを行うことで,予測された誤りを含まず,正解と期待されるトークンを含んだ出力文を得る.提案手法は言語生成モデルの訓練用コーパスが存在するあらゆる言語生成タスクに適用でき,高い汎用性を持つ.提案手法の有効性を検証するために,言い換え生成タスク\cite{takayama-etal-2021-direct-direct},要約タスク\cite{see-etal-2017-get,hermann-etal-cnndm,narayan-etal-2018-dont},翻訳タスク\cite{kocmi-etal-2022-findings},制約付きテキスト生成タスク\cite{lin-etal-2020-commongen}という$4$つの言語生成タスクにおける評価実験を実施した.その結果,言い換え生成,要約,翻訳において,$N$ベスト出力の中には文全体としては不完全であっても,部分的に品質の高い断片が存在するという我々の仮定が成立することが確認された.さらに,妥当な出力が定まりやすい,言い換え生成,要約において提案手法が強力なリランキング手法を上回ることが確認された\footnote{実験に用いたコードは以下で公開している.\url{https://github.com/mr0223/self-ensemble}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V17N02-01
科学技術や文化の発展に伴い,新しい用語が次々と作られインターネットによって世界中に発信される.外国の技術や文化を取り入れるために,これらの用語を迅速に母国語へ翻訳する必要性が高まっている.外国語を翻訳する方法には「意味訳」と「翻字」がある.意味訳は原言語の意味を翻訳先の言語で表記し,翻字は原言語の発音を翻訳先の言語における音韻体系で表記する.専門用語や固有名詞は翻字されることが多い.日本語や韓国語はカタカナやハングルなどの表音文字を用いて外国語を翻字する.それに対して,中国語は漢字を用いて翻字する.しかし,漢字は表意文字であるため,同じ発音に複数の文字が対応し,文字によって意味や印象が異なる.その結果,同音異義の問題が発生する.すなわち,翻字に使用する漢字によって,翻字された用語に対する意味や印象が変わってしまう.例えば,飲料水の名称である「コカコーラ(Coca-Cola)」に対して様々な漢字列で発音を表記することができる.公式の表記は「\UTFC{53EF}\UTFC{53E3}\UTFC{53EF}\UTFC{4E50}/ke--ko--ke--le/」であり,原言語と発音が近い.さらに,「\UTFC{53EF}\UTFC{53E3}」には「美味しい」,「\UTFC{53EF}\UTFC{4E50}」には「楽しい」という意味があり,飲料水として良い印象を与える.「Coca-Cola」の発音に近い漢字列として「\UTFC{53E3}\UTFC{5361}\UTFC{53E3}\UTFC{62C9}/ko--ka--ko--la/」もある.しかし,「\UTFC{53E3}\UTFC{5361}」には「喉に詰まる」という意味があり,飲料水の名称として不適切である.また,「人名」や「地名」といった翻字対象の種別によっても使用される漢字の傾向が異なる.例えば,「\UTFC{5B9D}」と「\UTFC{5821}」の発音はどちらも/bao/である.「\UTFC{5B9D}」には「貴重」や「宝物」などの意味があり中国語で人名や商品名によく使われるのに対して,「\UTFC{5821}」には「砦」や「小さい城」などの意味があり中国語で地名によく使われる.以上の例より,中国語への翻字においては,発音だけではなく,漢字が持つ意味や印象,さらに翻字対象の種別も考慮して漢字を選択する必要がある.この点は,企業名や商品名を中国に普及させてブランドイメージを高めたい企業にとって特に重要である.翻字に関する既存の手法は,「狭義の翻字」と「逆翻字」に大別することができる.「狭義の翻字」は,外国語を移入して新しい用語を生成する処理である\cite{Article_10,Article_11,Article_16,Article_18}.「逆翻字」は既に翻字された用語に対する元の用語を特定する処理である\cite{Article_01,Article_02,Article_04,Article_05,Article_06,Article_07,Article_08,Article_09,Article_12,Article_14}.逆翻字は主に言語横断検索や機械翻訳に応用されている.どちらの翻字も発音をモデル化して音訳を行う点は共通している.しかし,逆翻字は新しい用語を生成しないため,本研究とは目的が異なる.本研究の目的は狭義の翻字であり,以降,本論文では「翻字」を「狭義の翻字」の意味で使う.中国語を対象とした翻字の研究において,\cite{Article_10,Article_16,Article_18}は人名や地名などの外来語に対して,発音モデルと言語モデルを単独または組み合わせて使用した.それに対して,\cite{Article_11,Article_19,Article_21}は翻字対象語の意味や印象も使用した.\cite{Article_11}は,外国人名を翻字する際に,対象人名の言語(日本語や韓国語など),性別,姓名を考慮した.しかし,この手法は人名のみを対象としているので企業名や商品名などには利用できない.\cite{Article_19}は翻字対象語の発音と印象を考慮し,\cite{Article_21}は翻字対象語の種別も考慮した.\cite{Article_19}と\cite{Article_21}では,翻字対象の印象を表す「印象キーワード」に基づいて,翻字に使用する漢字を選択する.しかし,印象キーワードはユーザが中国語で与える必要がある.本研究は,\cite{Article_19}と\cite{Article_21}の手法に基づいて,さらに印象キーワードを人手で与える代わりにWorldWideWebから自動的に抽出して中国語への翻字に使用する手法を提案する.以下,\ref{sec:method}で本研究で提案する手法について説明し,\ref{sec:exp}で提案手法を評価する.
V08N01-03
\label{sec:intro}現在,統計的言語モデルの一クラスとして確率文脈自由文法(probabilisticcontext-freegrammar;以下PCFG)が広く知られている.PCFGは文脈自由文法(context-freegrammar;以下CFG)の生成規則に確率パラメタが付与されたものと見ることができ,それらのパラメタによって生成される文の確率が規定される.しかし,すべてのパラメタを人手で付けるのはコストと客観性の点で問題がある.そこで,計算機によるコーパスからのPCFGのパラメタ推定,すなわちPCFGの訓練(training)が広く行なわれている.現在,構造つきコーパス中の規則出現の相対頻度に基づきPCFGを訓練する方法(以下,相対頻度法と呼ぶ)が広く行なわれているが,我々はより安価な訓練データとして,分かち書きされている(形態素解析済みの)括弧なしコーパスを用いる.括弧なしコーパスからのPCFGの訓練法としては,Inside-Outsideアルゴリズム\cite{Baker79,Lari90}が広く知られている(以下,I-Oアルゴリズムと略す).I-OアルゴリズムはCYK(Cocke-Younger-Kasami)パーザで用いられる三角行列の上に構築された,PCFG用のEM(expectation-maximization)アルゴリズム\cite{Dempster77}と特徴づけることができる.I-Oアルゴリズムは多項式オーダのEMアルゴリズムであり,効率的とされているが,訓練コーパスの文の長さに対し3乗の計算時間を要するため,大規模な文法・コーパスからの訓練は困難であった.また,基になるCFGがChomsky標準形でなければならないという制約をもっている.一方,本論文では,PCFGの文法構造(基になるCFG)が所与であるときの効率的なEM学習法を提案する.提案手法はwell-formedsubstringtable(以下WFST)と呼ばれるデータ構造を利用しており,全体の訓練過程を次の2段階に分離してPCFGを訓練する.\begin{description}\item\underline{\bf構文解析}:\\はじめにパーザによって与えられたテキストコーパスもしくはタグ付きコーパス中の各文に構文解析を施し,その文の構文木すべてを得る.ただし,構文木は実際に構築せずに途中で構築されるWFSTのままでとどめておく.\item\underline{\bfEM学習}:\\上で得られたWFSTから支持グラフと呼ばれるデータ構造を抽出し,新たに導出されたグラフィカルEM(graphicalEM;以下gEMと略記)アルゴリズムを支持グラフ上で走らせる.\end{description}WFSTは構文解析途中の部分的な解析結果(部分構文木)を格納するデータ構造の総称であり~\cite{Tanaka88,Nagata99},パーザはWFSTを参照することにより再計算を防いでいる.また,最終的にWFSTに格納されている部分構文木を組み合わせて構文木を出力する.表~\ref{tab:WFST}に各構文解析手法におけるWFSTを掲げる.なお,Fujisakiらも文法が所与であるとして,上の2段階でPCFGを訓練する方法を提案しているが\cite{Fujisaki89},その方法ではWFSTは活用されていない.\begin{table}[b]\caption{各パーザにおけるWFST.}\label{tab:WFST}\begin{center}\begin{tabular}{|l||l|l|}\hlineパーザ&\multicolumn{1}{c|}{WFST}\\\hlineCYK法&三角行列\\Earley法&アイテム集合(Earleyチャート)の集まり\\GLR法&圧縮共有構文森(packedsharedparseforest)\\\hline\end{tabular}\end{center}\end{table}提案手法の特長は従来法であるI-Oアルゴリズムの一般化と高速化が同時に実現された点,すなわち\begin{description}\item{\bf特長1:}従来のPCFGのEM学習法の一般化となっている,\item{\bf特長2:}現実的な文法に対してはI-Oアルゴリズムに比べてEM学習が大幅に高速化される,\item{\bf特長3:}提案手法が,PCFGに文脈依存性を導入した確率言語モデル(PCFGの拡張文法\footnote{Magermanらが\cite{Magerman92}で述べている``Context-freegrammarwithcontext-sensitiveprobability(CFGwithCSP)''を指す.具体的にはCharniakらの疑似確率文脈依存文法\cite{Charniak94b}や北らの規則バイグラムモデル\cite{Kita94}が挙げられる.}と呼ぶ)に対する多項式オーダのEMアルゴリズムを包含する\end{description}点にある.先述したように,I-OアルゴリズムはCYK法のWFSTである三角行列を利用して効率的に訓練を行なう手法と捉えることができ,提案手法のCYK法とgEMアルゴリズムを組み合わせた場合がI-Oアルゴリズムに対応する.一方,提案手法でEarleyパーザや一般化LR(以下GLR)パーザと組み合わせる場合,文法構造にChomsky標準形を前提としないため,本手法はI-Oアルゴリズムの一般化となっている({\bf特長1}).加えて,本論文ではStolckeの確率的Earleyパーザ\cite{Stolcke95}や,PereiraとSchabesによって提案された括弧なしコーパスからの学習法\cite{Pereira92}も提案手法の枠組で扱うことができる\footnote{より正確には,文法構造が与えられている場合のPereiraとSchabesの学習法を扱う.}ことを示す.また,{\bf特長2}が得られるのは,提案手法ではがWFSTというコンパクトなデータ構造のみを走査するためである.そして,LR表へのコンパイル・ボトムアップ解析といった特長により実用的には最も効率的とされる一般化LR法~\cite{Tomita91}(以下GLR法)を利用できる点も訓練時間の軽減に効果があると考えられる.そして{\bf特長3}は提案手法の汎用性を示すものであり,本論文では北らの規則バイグラムモデル\cite{Kita94}の多項式オーダのEMアルゴリズムを提示する.本論文の構成は次の通りである.まず節~\ref{sec:PCFG}でPCFG,CYKパーザ,I-Oアルゴリズム,およびそれらの関連事項の導入を行なう.I-Oアルゴリズムと対比させるため,提案手法をCYKパーザと\gEMアルゴリズムの組合せを対象にした場合を節~\ref{sec:GEM}で記述した.{\bf特長2}を検証するため,GLRパーザとgEMアルゴリズムを組み合わせた場合の訓練時間をATR対話コーパス(SLDB)を用いて計測した.その結果を節~\ref{sec:experiment}に示す.また,{\bf特長3}を具体的に示すため,節~\ref{sec:extensions}ではPCFGの拡張文法に対する多項式オーダのEMアルゴリズムを提示する.最後に節~\ref{sec:related-work}で関連研究について述べ,{\bf特長1}について考察する.本論文で用いる例文法,例文,およびそれらに基づく構文解析結果の多くは\cite{Nagata99}のもの,もしくはそれに手を加えたものである.以降では$A,B,\ldots$を非終端記号を表すメタ記号,$a,b,\ldots$を終端記号を表すメタ記号,$\rho$を一つの終端または非終端記号を表すメタ記号,$\zeta$,$\xi$,$\nu$を空列もしくは終端記号または非終端記号から成る記号列を表すメタ記号とする.空列は$\varepsilon$と書く.一方,一部の図を除き,具体的な文法記号を$\sym{S},\sym{NP},\ldots$などタイプライタ書体で表す.また,$y_n$を第$n$要素とするリストを\$\tuple{y_1,y_2,\ldots}$で表現する.またリスト$Y=\tuple{\ldots,y,\ldots}$であるとき,$y\inY$と書く.集合$X$の要素数,記号列$\zeta$に含まれる記号数,リスト$Y$の要素数をそれぞれ$|X|$,$|\zeta|$,$|Y|$で表す.これらはどれも見た目は同じだが文脈で違いを判断できる.
V10N01-01
本研究の目的は,情報抽出のサブタスクである固有表現抽出(NamedEntityTask)の難易度の指標を定義することである.情報抽出とは,与えられた文章の集合から,「人事異動」や「会社合併」など,特定の出来事に関する情報を抜き出し,データベースなど予め定められた形式に変換して格納することであり,米国のワークショップMessageUnderstandingConference(MUC)でタスクの定義・評価が行われてきた.固有表現(NamedEntity)とは,情報抽出の要素となる表現のことである.固有表現抽出(NamedEntityTask)はMUC-6\cite{MUC6}において初めて定義され,組織名(Organization),人名(Person),地名(Location),日付表現(Date),時間表現(Time),金額表現(Money),割合表現(Percent)という7種類の表現が抽出すべき対象とされた.これらは,三つに分類されており,前の三つがentitynames(ENAMEX),日付表現・時間表現がtemporalexpressions(TIMEX),金額表現・割合表現がnumberexpressions(NUMEX)となっている.1999年に開かれたIREXワークショップ\cite{IREXproc}では,MUC-6で定義された7つに加えて製品名や法律名などを含む固有物名(Artifact)というクラスが抽出対象として加えられた.固有表現抽出システムの性能は,再現率(Recall)や適合率(Precision),そしてその両者の調和平均であるF-measureといった客観的な指標\footnotemark{}によって評価されてきた.\footnotetext{再現率は,正解データ中の固有表現の数(G)のうち,正しく認識された固有表現表現の数(C)がどれだけであったかを示す.適合率は,固有表現とみなされたものの数(S)のうち,正しく認識された固有表現の数(C)がどれだけであったかを示す.F-measureは,両者の調和平均である.それぞれの評価基準を式で示せば以下のようになる.\begin{quote}再現率(R)=C/G\\適合率(P)=C/S\\F-measure=2PR/(P+R)\end{quote}}しかし,単一システムの出力に対する評価だけでは,あるコーパスに対する固有表現抽出がどのように難しいのか,どのような情報がそのコーパスに対して固有表現抽出を行なう際に有効なのかを知ることは難しい.例えば,あるコーパスについて,あるシステムが固有表現抽出を行い,それらの結果をある指標で評価したとする.得られた評価結果が良いときに,そのシステムが良いシステムなのか,あるいはコーパスが易しいのかを判断することはできない.評価コンテストを行い,単一のシステムでなく複数のシステムが同一のコーパスについて固有表現抽出を行い,それらの結果を同一の指標で評価することで,システムを評価する基準を作成することはできる.しかしながら,異なるコーパスについて,複数の固有表現抽出システムの評価結果を蓄積していくことは大きなコストがかかる.また,継続して評価を行なっていったとしても,評価に参加するシステムは同一であるとは限らない.異なるコーパスについて,個別のシステムとは独立に固有表現抽出の難易度を測る指標があれば,コーパス間の評価,また固有表現抽出システム間の評価がより容易になると考えられる.本研究は,このような指標を定義することを目指すものである.\subsection{固有表現抽出の難易度における前提}異なる分野における情報抽出タスクの難易度を比較することは,複数の分野に適用可能な情報抽出システムを作成するためにも有用であり,実際複数のコーパスに対して情報抽出タスクの難易度を推定する研究が行われてきている.Baggaet.al~\cite{bagga:97}は,MUCで用いられたテストコーパスから意味ネットワークを作成し,それを用いてMUCに参加した情報抽出システムの性能を評価している.固有表現抽出タスクに関しては,Palmeret.al~\cite{palmer:anlp97}がMultilingualEntityTask~\cite{MUC7}で用いられた6カ国語のテストコーパスから,各言語における固有表現抽出技術の性能の下限を推定している.本研究では,固有表現抽出の難易度を,テストコーパス内に現れる固有表現,またはその周囲の表現に基づいて推定する指標を提案する.指標の定義は,「表現の多様性が抽出を難しくする」という考えに基づいている.文章中の固有表現を正しく認識するために必要な知識の量に着目すると,あるクラスに含まれる固有表現の種類が多ければ多いほど,また固有表現の前後の表現の多様性が大きいほど,固有表現を認識するために要求される知識の量は大きくなると考えられる.あらゆるコーパスを統一的に評価できるような,固有表現抽出の真の難易度は,現在存在しないので,今回提案した難易度の指標がどれほど真の難易度に近いのかを評価することはできない.本論文では,先に述べた,「複数のシステムが同一のコーパスについて固有表現抽出を行った結果の評価」を真の難易度の近似と見なし,これと提案した指標とを比較することによって,指標の評価を行うことにする.具体的には,1999年に開かれたIREXワークショップ\cite{IREXproc}で行われた固有表現抽出課題のテストコーパスについて提案した指標の値を求め,それらとIREXワークショップに参加した全システムの結果の平均値との相関を調べ,指標の結果の有効性を検証する.このような指標の評価方法を行うためには,できるだけ性質の異なる数多くのシステムによる結果を得る必要がある.IREXワークショップでは,15システムが参加しており,システムの種類も,明示的なパタンを用いたものやパタンを用いず機械学習を行ったもの,またパタンと機械学習をともに用いたものなどがあり,機械学習の手法も最大エントロピーやHMM,決定木,判別分析などいくつかバラエティがあるので,これらのシステムの結果を難易度を示す指標の評価に用いることには一定の妥当性があると考えている.\subsection{\label{section:IREX_NE}IREXワークショップの固有表現抽出課題}\begin{table}[t]\small\caption{\label{table:preliminary_comparison}IREX固有表現抽出のテストコーパス}\begin{center}\begin{tabular}{|l||r|r|r|}\hline&&\multicolumn{2}{|c|}{本試験}\\\cline{3-4}&予備試験&総合課題&限定課題\\\hline記事数&36&72&20\\単語数&11173&21321&4892\\文字数&20712&39205&8990\\\hline\end{tabular}\end{center}\end{table}IREXワークショップの固有表現抽出課題では,予備試験を含め,3種類のテストコーパスが評価に用いられた.表\ref{table:preliminary_comparison}に各々の記事数,単語数,文字数を示す.単語の切り分けにはJUMAN3.3~\cite{JUMAN33}を用い,単語の切り分けが固有表現の開始位置・終了位置と異なる場合には,その位置でさらに単語を分割した.IREXワークショップに参加した固有表現抽出システムの性能評価はF-measureで示されている.表\ref{table:F-measures}に各課題におけるF-measureの値を示す.本試験の評価値は,IREXワークショップに参加した全15システムの平均値である.一方,予備試験においては,全システムの評価は利用できなかったため,一つのシステム\cite{nobata:irex1}の出力結果を評価した値を用いている.このシステムは,決定木を生成するプログラム\cite{quinlan:93}を用いた固有表現抽出システム\cite{sekine:wvlc98}をIREXワークショップに向けて拡張したものである.IREXでは,8つの固有表現クラスが定義された.表\ref{table:F-measures}から,最初の4つの固有表現クラス(組織名,人名,地名,固有物名)は残り4つの固有表現クラス(日付表現,時間表現,金額表現,割合表現)よりも難しかったことが分かる.以下では,両者を区別して議論したいときには,MUCでの用語に基づき前者の4クラスを「ENAMEXグループ」と呼び,後者の4クラスを「TIMEX-NUMEXグループ」と呼ぶことにする.\begin{table}[t]\small\caption{\label{table:F-measures}IREX固有表現抽出の性能評価}\begin{center}\begin{tabular}{|l||r|r|r|}\hline&&\multicolumn{2}{|c|}{本試験}\\\cline{3-4}クラス&予備試験&総合課題&限定課題\\\hline\hline組織名&55.6&57.3&55.2\\\hline人名&71.3&67.8&68.8\\\hline地名&65.7&69.8&68.1\\\hline固有物名&18.8&25.5&57.9\\\hline日付表現&83.6&86.5&89.4\\\hline時間表現&69.4&83.0&89.8\\\hline金額表現&90.9&86.4&91.4\\\hline割合表現&100.0&86.4&---\\\hline\hline全表現&66.5&69.5&71.7\\\hline\end{tabular}\end{center}\end{table}\subsection{指標の概要}以下,本稿では,まず固有表現内の文字列に基いて,固有表現抽出の難易度を示す指標を提案する.ここで提案する指標は2種類ある.\begin{itemize}\itemFrequencyoftokens:各固有表現クラスの頻度と異なり数を用いた指標(\ref{section:FT}節)\itemTokenindex:固有表現内の個々の表現について,その表現のクラス内における頻度とコーパス全体における頻度を用いた指標(\ref{section:TI}節)\end{itemize}これらの指標の値を示し,それらと実際のシステムの評価結果との相関を調べた結果について述べる.次に,固有表現の周囲の文字列に基いた指標についても,固有表現内の文字列に基いた指標と同様に2種類の指標を定義し,それらの値とシステムの評価結果との相関の度合を示す(\ref{section:CW}節).
V14N03-15
近年,Webが爆発的に普及し,掲示板等のコミュニティにおいて誰もが容易に情報交換をすることが可能になった.このようなコミュニティには様々な人の多様な評判情報(意見)が多く存在している.これらの情報は企業のマーケティングや個人が商品を購入する際の意思決定などに利用されている.このため,このような製品などに対する評判情報を,Web上に存在するレビューあるいはブログなどから,自動的に収集・解析する技術への期待が高まっている.このため,従来このような評判情報の抽出に関して研究されてきた\cite{morinaga,iida,dave,kaji,yano,suzuki}.これらの研究では,製品などに関する評価文書から自然言語処理技術を用いて評判情報を抽出する.また,評判情報を含む評価文書を,ポジティヴ(おすすめ)とネガティヴ(おすすめしない)という2つの極性値に分類し,その結果をユーザに提示する.提示された情報を基にユーザは様々な意思決定を行う.評価文書を2つの極性値に分類する手法に関して,これまで多くの研究が行われてきた.\cite{turney}では,フレーズの極性値に基づく教師なし学習によって評価文書を分類している.\cite{chaovalit}では,映画のレビューを対象に教師なし学習\cite{turney}と教師あり学習を比較している.ここでは,教師あり学習としてN-gramを用いている.実験の結果,分類精度は教師あり学習の方が高かったと報告している.教師あり学習を用いたものとして\cite{dave}では,ナイーブベイズを用いて評判情報の分類学習を行っている.これらの研究では,文書中に含まれている単語や評判情報をすべて同等に扱っている.しかし,評価文書には,全体評判情報と部分評判情報という2つのレベルの評判情報が含まれていると考えられる.全体評判情報とは,評価文書の対象全般に関わる評価表現のことを指す.例えば,映画のレビューにおいて「この映画はおもしろい」という評価表現は対象全般に関わる評価表現であり,この表現がある場合はその極性値が評価文書の極値にほぼ一致する.一方,部分評判情報とは,対象の一属性に関わる評価表現のことを指す.例えば,映画のレビューにおいて「映像がきれい」という評価表現は映画の一属性である映像に関する評価表現であり,この表現があったとしてもその極性値が評価文書の極性値と一致するわけではない.したがって,これら2つのレベルを考慮することで評価文書の分類精度の向上が期待できる.そこで本論文では,評判情報を全体評判情報と部分評判情報という2つのレベルに分け,その極性値を基に評価文書を分類する手法を提案する.本手法では,まず評価文書から全体評判情報を抽出し,その極性値を判定する.この極性値は評価文書の極性値とほぼ一致するため,この極性値を評価文書の極性値とする.評価文書に全体評判情報が含まれない場合は,部分評判情報の極性値の割合から評価文書の極性値を決定する.さらに,この2つのレベルの評判情報を用いて,評判情報の信頼性を評価するための一手法を提案する.評判情報は主観的な情報のため,信頼性が低いという問題点がある.このため,その信頼性を評価できれば有益な情報となる.信頼性を評価する手法は多くのことが考えられるが,ここではその1つとして,評価文書の極値と異なる極性値を持つ部分評判情報は信頼性の高い情報と捉えることを提案する.例えば,「すごく面白い映画だった.映像も素晴らしかった」と「はっきりいって最低の映画でした.でも映像だけは良かったです」という評価文書があるとする.前者のように,映画全体をポジティブに評価している人が映像に関してもポジティブに評価することはあまり情報としての価値はない.悪意のある見方をすると宣伝ともとれる.一方,後者は映画全体としてはネガティブな評価であるが,映像に関してはポジティブに評価している.このような評価は客観的でフェアである可能性が高いため,信頼性が高い評価情報であるとする.このような信頼性は,評判情報の2つのレベルを用いることで評価できる.
V07N03-04
日本語とウイグル語は言語学上の区分において,共に膠着語に分類され,両言語の間には語順がほぼ同じであるなどの様々な構文的類似点が見られる.そのため,日本語--ウイグル語機械翻訳では,形態素解析が終了した段階で各単語を対応するウイグル語に置き換える,いわゆる逐語翻訳によって,ある程度の翻訳が可能となる\cite{MUHTAR}.ところで,学校文法をはじめとする多くの日本語文法では,文の中心的役割を果たす動詞が活用することを前提としている.しかし,ウイグル語の動詞は活用しないと考えられてきたため,両言語間の翻訳の際には,活用の有無の違いを考慮する必要があった.それに対して,\cite{MUHTAR}は推移グラフの利用を提案したが,実際の処理の際には扱いにくいという問題がある.一方,Bloch\cite{BLOCH}を源流とする音韻論に基づく文法は,活用を用いることなく日本語の動詞の語形変化を表現することが可能である.本論文では,それらの中でも,動詞の語形変化を体系的に記述することに成功している派生文法\cite{KIYOSE1}\cite{KIYOSE2}を使用する.派生文法は,日本語の膠着語としての性質に着目した文法であり,動詞の語形変化を語幹への接尾辞の接続として表現する.さらに,ウイグル語も同じ膠着語であるので,その語形変化も派生文法で記述可能であると考えられる.原言語である日本語と目標言語であるウイグル語の双方を共に派生文法で記述することができれば,その結果,両言語間の形態論的類似性がより明確になり,単純でかつ精度の高い機械翻訳の実現が期待できる.特に,本論文で扱う動詞句の翻訳においては,複雑な活用処理をすることなく,語幹と接尾辞をそれぞれ対応する訳語に置き換えることにより,翻訳が可能になると考えられる.そこで,本論文ではウイグル語の動詞句も派生文法に基づいて記述することにより,活用処理を行うことなく,簡潔にかつ体系的に日本語からウイグル語への動詞句の機械翻訳を実現する手法を提案する.膠着語間の機械翻訳に関する研究としては,日本語と韓国語との間の研究\cite{H_LEE1990}\cite{S_LEE1992}\cite{J_KIM1996_2}\cite{J_KIM1998}が多くなされている.それらでは,日本語および韓国語の動詞がともに活用することを前提に翻訳が行われているが,両言語において活用変化の仕方が異なる点が問題とされている.例えば,日本語の学校文法においては,活用形が未然形,連用形,終止形,連体形,仮定形,命令形の6つに分類されるが,これは日本語独自の分類であり,韓国語の活用形の分類とは一致しない.そのため,両言語の活用形の間で対応をとる必要があるが,日本語の連用形は文中における機能が多岐に渡るため,韓国語の活用形と1対1に対応させることは困難である.また,日本語の学校文法が用言の活用を五段活用および上下一段活用の2種類の規則活用とカ変およびサ変の不規則活用に分類しているのに対して,韓国語には種々の不規則動詞が存在し,その変化の仕方は日本語と異なる.そうした日本語と韓国語の比較については,文献\cite{J_KIM1996_2}が詳しい.そのため,これまでの日本語--韓国語機械翻訳の研究においては,日本語の語形変化の処理と韓国語の語形変化の処理を別々に行っている.それに対して本研究では,日本語およびウイグル語の動詞は共に活用しないとしているため,活用形の不一致は問題とならない.また,動詞句の形成には派生文法に基づく同一の規則を用いるため,日本語とウイグル語の語形生成を同じ規則で扱うことが可能である.また,日本語と韓国語との間の翻訳においては,もう一つの問題として様相表現の違いが指摘されてきた.これは,様相表現を表わす接尾辞の接続順序が日本語と韓国語で異なるために生じる問題であり,この問題を解決するために,意味接続関係によって記述された翻訳テーブルを使用する方式\cite{J_KIM1996_2}や,様相情報の意味をテーブル化し,PIVOTとして用いる方式\cite{J_KIM1998}などが提案されている.日本語とウイグル語では,様相表現を表す接尾辞の接続順序は同じであるため,そうした点も問題とはならない.しかし,日本語とウイグル語には,同じ意味役割を果していても,互いに品詞の異なる単語が存在する.そのため,それらの単語の翻訳においては,単純に置き換えただけでは不自然な翻訳文が生成される.本論文では,この問題はウイグル語の語形成の性質を利用することによって解決できることを示す.具体的には,日本語形態素解析の結果を逐語翻訳した後,ウイグル語単語の接続情報を用い,不自然な並びとなる単語列を他の訳語に置き換えることによって,より自然なウイグル語文を生成する.さらに,本研究では形態素解析システムMAJO\cite{OGAWA1999}を利用して日本語--ウイグル語機械翻訳システムを作成した.MAJOは派生文法に基づいて日本語の形態素解析を行うシステムである.MAJOの辞書は,本来,日本語単語とその品詞および意味情報の3項組で構成されているが,この機械翻訳システムでは,意味情報の代わりにウイグル語訳語を与え,日本語--ウイグル語対訳辞書として利用した.その結果,MAJOの出力結果は,そのまま日本語からウイグル語への逐語翻訳となっている.さらに,このMAJOの出力結果に前述の訳語置換を適用するモジュール,および,ウイグル語特有の性質に合わせて,最終的な出力文を整形するモジュールをそれぞれ作成した.このように,機械翻訳システムを独立のモジュールから構成する設計としたが,これにより派生文法で記述された他の膠着語との間の機械翻訳システムの実現にも応用可能であると考えられる.なお,本論文で使用する派生文法は音韻論的手法の一種であり,入力文を音素単位で解析するため,日本語の表記の一部にローマ字を用いる.また,ウイグル語の表記においても,計算機上で扱うときの簡便さから,本来のウイグル文字ではなく,そのローマ字表記を用いる.そこで,日本語とウイグル語との混同を避けるため,以下では,日本語の単語は「」,ウイグル語の単語は``''で囲んで区別する.本論文の構成は以下の通りである.まず2章では,学校文法に基づく日本語--ウイグル語逐語翻訳の例とその問題点を指摘する.3章と4章では,派生文法に基づいて日本語とウイグル語の動詞句をそれぞれ記述し,5章で派生文法に基づく日本語--ウイグル語逐語翻訳手法を示す.6章では,単純な逐語翻訳だけでは不自然な翻訳文が生成される問題を取り上げ,7章で,その問題に対する解決法である訳語置換表を提示する.また,8章で日本語--ウイグル語機械翻訳システムの実現について述べ,9章では,実験によるそのシステムの性能評価について述べる.10章は本論文のまとめである.
V31N04-12
BERT\cite{devlin-etal-2019-bert}に代表される\emph{事前学習済みモデル(Pre-trainedModels)}の躍進は,自然言語処理領域に大規模なコーパスでの事前学習と下流タスクでのファインチューニングからなる新しい枠組みをもたらしている\cite{Zhou2023-en,Zhao2023-hy}.BERTの後続として,異なるアーキテクチャ(GPT-2\cite{Radford2019LanguageMA}やT5\cite{JMLR:v21:20-074})や事前学習手法の改善({RoBERTa}\cite{Liu2019-vu}や{DeBERTa}\cite{he2021deberta})などが次々と提案された.{GPT-3}\cite{NEURIPS2020_1457c0d6}など,より大規模に事前学習された言語モデルは大規模言語モデル(LargeLanguageModels;LLMs)とも呼ばれ,パラメータ更新なしでも多種多様なタスクに対応できると報告されている.ChatGPT\footnote{\url{https://openai.com/blog/chatgpt}}の登場を一つの契機に,社会的な認知や実応用の拡大も急速に進んでいる.事前学習済みモデルの重要性にもかかわらず,産業応用で重要となる個別ドメインへの特化に関する議論は未成熟である.既存の文献\cite{araci2019finbert,kim-etal-2021-changes,Wu2023-mb,SUZUKI2023103194}では,ドメイン特化事前学習済みモデルの構築方法と,時に大規模な一般モデルを凌駕する固有タスクでの性能向上が報告されている.しかしこれらの研究は,実際の産業応用の事例を十分に提示しておらず,ドメイン特化事前学習済みモデルに対する研究者・実務家の見積もりや期待を曖昧にしてしまう.本稿ではドメイン特化事前学習済みモデルの産業応用として,日本語金融ニュース記事を要約する編集支援システムの開発事例を報告する.ここでは日本語金融ニュース記事をドメインとして定義した.日本語金融ニュース記事の要約の自動生成は,ニュースメディアにおける編集者の労働負荷の軽減に寄与する.ニュースメディアには独自の表記規定が数多く存在するため,汎用的なモデルによる出力では不十分な場合がある.ドメイン特化事前学習済みモデルを構築し利用することで,より用途に適したシステムを実現できる可能性があると考えた.この編集支援システムは日本語の文章(記事の本文)を入力とし,20文字程度の\emph{見出し}と,3文からなる\textbf{3行まとめ}の2種類の要約を出力する.要約を生成するのは日本語金融ニュース記事で事前学習されたT5で,2種類の要約それぞれに対してファインチューニングされている.事前学習とファインチューニングには,日本語金融ニュース記事が掲載されている「日経電子版」\footnote{\url{https://www.nikkei.com/}}のデータセットを用いた.表\ref{tab:example}に示す通り,このデータセットの一部の記事には本文・見出し・3行まとめが含まれている\footnote{\ref{tab:example}に示す例は\url{https://www.nikkei.com/article/DGXMZO55567600T10C20A2TL1000/}から引用した.}.編集支援システムでは,入力に忠実ではない出力が生成される\emph{幻覚}\cite{10.1145/3571730}への対応として,編集者による選択や後処理を想定している\cite{Ishihara2021-tw}.複数候補の生成も可能で,それぞれの生成結果のクリック率を予測する機能を備えている.クリック率予測のためには,日経電子版のデータセットで事前学習・ファインチューニングされたBERTを構築した\cite{ishihara2022ctr}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table1\begin{table}[b]\input{21table01.tex}%\caption{日本語金融ニュース記事の例.本文から,見出しと3行まとめの2種類の要約を生成する.}\label{tab:example}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%table2\begin{table}[b]\input{21table02.tex}%\caption{本研究におけるシステム要件,実装と有用性を評価するための検証項目,検証方法の対応表.}\label{tab:implementation}\end{table}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%本稿の主要な貢献の一つは,日本語金融ニュース記事の要約に焦点を当て,ドメイン特化事前学習済みモデルが優れた価値を発揮する具体的な事例を提示することである.最初に,実際の編集現場の要請に基づくシステム要件を整理した上で,既存技術を組み合わせて開発した編集支援システムの全体像と4つの検証項目を示す(\ref{sec:implementation}節).続く4~6節では,表\ref{tab:implementation}に示す通り,システム要件に紐づく検証項目を調査する.第1に,日本語金融ニュース記事で事前学習・ファインチューニングされたT5が,事前学習コーパスのサイズが小さいにもかかわらず,2種類の要約で一般的な日本語T5より優れた性能を発揮すると報告する(\ref{sec:experiments}節).第2に,3行まとめ生成にファインチューニングしたT5の出力を定性・定量的に分析し,発生する幻覚の特徴を明らかにする(\ref{sec:discussion}節).第3に,開発した編集支援システム全体の有用性の一端を示すため,クリック率予測の定量評価と,後編集を含む機能への定性評価について述べる(\ref{sec:overall}節).なおクリック率予測に向けたBERTの開発については\cite{石原2022,ishihara2022ctr}の内容を含んでいる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V28N04-12
\label{sec:intro}近年の天気予報は,ある時点の気象観測データと大気の状態に基づいて,風や気温などの時間変化を数理モデルによりコンピュータで計算し,将来の大気の状態を予測する数値気象予報(NumericalWeatherPrediction;NWP)が主流となっている.ウェザーニュース\footnote{\url{https://weathernews.jp/}}やYahoo!天気\footnote{\url{https://weather.yahoo.co.jp/weather/}}の天気予報サイトでは,数値気象予報に基づき作成された天気図や表データと共に,気象情報をユーザーに分かりやすく伝えるための天気予報コメントが配信されている.これらの天気予報コメントは,数値気象予報や過去の気象観測データ,専門知識に基づいて気象の専門家により記述されている.また,天気予報サイトでは,特定のエリアや施設周辺に限定して天気予報を伝えるピンポイント天気予報が一般的になっている.一方で,全国の天気予報コメントを作成するのは手間がかかる上に,専門的な知識を要するため作業コストが高い.そのため,自然言語生成の分野では,天気予報コメントの自動生成タスクについて長年取り組まれている\cite{goldberg1994using,belz2007probabilistic}.本論文では,数値気象予報のシミュレーション結果から天気予報コメントを生成するタスクに取り組む.これまで取り組まれてきた天気予報コメント生成の研究では,数値気象予報のシミュレーション結果から気象の専門家の知識と経験に基づき作成した構造化データを用いた研究が中心であったが\cite{reiter2005choosing,sripada2004sumtime-mousam,liang-jordan-klein:2009:ACLIJCNLP},本研究では,数値気象予報の生のシミュレーション結果を用いる.これは,気象の専門家が数値気象予報から天気予報コメントを記述する実際のシナリオに近い設定であり,天気予報コメントの作成作業の自動化においても有用であると考える.ここで,図\ref{fig:example_comment_tokyo}を用いて,天気予報コメントの生成における特徴的な3つの問題について説明する.まず,第一の問題は,コメントを記述する際に降水量や海面更正気圧等の複数の物理量とそれぞれの時間変化を考慮しなければならないことである.例えば,図\ref{fig:example_comment_tokyo}では,降水量や雲量といった複数の物理量の時間変化に応じて,日差しが出た後に雲が広がり雨が降ることについて言及されている.次に,第二の問題は,天気予報コメントは,対象となる地域やコメントの配信時刻,日付といったメタ情報に基づいて記述されることである.例えば,午前中に配信される天気予報コメントでは,図\ref{fig:example_comment_tokyo}のように,配信日当日の日中から夕方にかけた天気に言及することが多く,夕方以降に配信される天気予報コメントでは,配信日当日の夜から翌日の日中の天気に言及する傾向がある.最後に,第三の問題は,天気予報サイトのユーザーは天気予報コメントの情報の有用性(以降では,{\bf情報性}と呼称する)を重要視している点である.特に,「晴れ」「雨」「曇り」「雪」といった気象情報は,ユーザーの服装や予定に大きな影響を与えることから明示的に記載する必要がある.例えば,図\ref{fig:example_comment_tokyo}では,降水量,雲量,気圧など,記述すべき内容はいくつか考えられるが,雨や傘の情報はユーザーの行動に大きな影響を与えるため,主に雨や傘の情報に焦点を当てている.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{28-4ia11f1.pdf}\end{center}\caption{数値気象予報のシミュレーション結果と天気予報コメントの例}\label{fig:example_comment_tokyo}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%これらの問題に対して,本研究では数値気象予報のシミュレーション結果から天気予報コメントを生成するためのData-to-Textモデルを提案する.第一の問題に対しては,多層パーセプトロン(Multi-LayerPerceptron;MLP)や畳み込みニューラルネットワーク(ConvolutionalNeuralNetwork;CNN)を用いて様々な物理量を捉え,それらの時間変化を双方向リカレントニューラルネットワーク(BidirectionalRecurrentNeuralNetwork;Bi-RNN)を用いて考慮する.第二の問題については,エリア情報やコメントの配信時刻,日付などのメタ情報を生成モデルへ取り入れることでこれらの情報を考慮する.第三の問題について,本研究では「晴れ」「雨」「曇り」「雪」に関する気象情報をユーザーにとって重要な情報と定義し,これらを適切に言及するための機構を提案する.具体的には,言及すべき重要な情報を明示的に記述するために,数値気象予報のシミュレーション結果から「晴れ」「雨」「曇り」「雪」の気象情報を表す「天気ラベル」を予測する内容選択モデルを導入し,予測結果をテキスト生成時に考慮することで,生成テキストの情報性の向上に取り組む.実験では,数値気象予報のシミュレーション結果,気象観測データ,および,人手で書かれた天気予報コメントを用いて提案手法の評価を行った.自動評価では,人手で書かれた天気予報コメントと生成テキストの単語の一致度合いを評価するためのBLEUおよびROUGE,また,生成テキストにおいて天気ラベルが正確に反映されているかを評価するためのF値を使用し,提案手法がベースライン手法に比べて性能が改善することを確認した.さらに,人手評価では,提案手法はベースライン手法と比較して,天気予報コメントの情報性が向上していることが示された.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V10N03-07
われわれは2001年に行なわれたSENSEVAL2\cite{senseval2}の日本語辞書タスクのコンテストに参加した.このコンテストでは,日本語多義性の解消の問題を扱っており,高い精度で日本語多義性の解消を実現するほどよいとされる.われわれは機械学習手法を用いるアプローチを採用した.機械学習手法としては多くのものを調査した方がよいと考え,予備調査として先行研究\cite{murata_nlc2001_wsd}においてシンプルベイズ法,決定リスト法,サポートベクトルマシン法などの手法を比較検討した.その結果,シンプルベイズ法とサポートベクトルマシン法が比較的よい精度を出したのでその二つの機械学習手法を基本とすることにした.また,学習に用いる素性は,豊富なほどよいと考え,文字列素性,形態素素性,構文素性,共起素性,UDC素性(図書館などで用いられる国際十進分類を利用した素性)と,非常に多くの素性を利用した.コンテストには,シンプルベイズ法,サポートベクトルマシン法,またそれらの組み合わせのシステム二つの合計四つのシステムをコンテストに提出した.その結果,組合わせシステムが参加システム中もっとも高い精度(0.786)を得た.コンテストの後,シンプルベイズ法で用いていたパラメータを調節したところさらに高い精度を得た.また,解析に用いる情報(素性)を変更する追加実験も行ない,各素性の有効性,特徴を調査した.本稿では,これらのシステムの説明と結果を述べる.以降,\ref{sec:imp}節で多義解消の重要性を述べ,\ref{sec:mondai_settei}節で本コンテストの問題設定を述べる.\ref{sec:ml_method}節でわれわれが利用した機械学習手法について述べ,\ref{sec:sosei}節でその機械学習手法で用いる素性について述べ,\ref{sec:experiment}節でその機械学習手法と素性を用いた実験とその考察について述べる.\ref{ref:kanren}節では関連文献について述べる.
V09N02-01
\subsection{研究背景}今日ある検索システムは,索引語を用いたキーワード検索が主流となっている.検索漏れを防ぐために,キーワードに指定した語の同意語や関連語も自動的に検索対象にするといった工夫が凝らされているものも幾つか存在する.しかし,一般にキーワードによる絞込みは難しく,検索結果からまさに必要とする情報に絞り込むには,その内容についての説明文などを検索要求と比べる必要があった.例えば,判例検索システムで今担当している事件に似ている状況で起こった過去の事件の判例を調査するとき,当該事件を記述する適切な5つ位のキーワードを指定してand検索をしても,該当して表示される判例数は100件程度になり,この中から当該事件の当事者の関係や諸事実の時間的・因果的関係などが最も類似している事件の判例を人手で探すには大変な労力が必要となる.検索システムが有能な秘書のように,必要な情報の説明を文章で与えるだけで検索対象の要約などの解説文の内容を考慮して最適な情報を掲示してくれると,ユーザの検索労力は大幅に軽減される.この検索を支援する研究のポイントは,2つの文章に記述されている内容の類似性を如何に機械的に計算するかである.本研究の詳細に入る前に,文章の類似性を評価することを要素として含むこれまでの研究についてまず述べることにする.篠原\cite{sinohara}らは,一文ごとの要約を行う目的で,コーパスから類似した文を検索しこれとの対比において省略可能な格要素を認定する手法を提案している.ここでの文章間の類似性の計算方法は,2文間に共通する述語列を求め,これに係っている格要素について,それらが名詞である場合,その意味属性を元に対応関係を,同一関係,同義関係,類似関係に分け,類似度の算出式を設定し,総合的な文間の類似度を求めている.ただし,ここでは,格が表層格であり,文間の関係や述語間(用言間)の格(時間的順序,論理関係,条件関係など)についての類似性は考慮されていない.黒橋ら\cite{kurohashi}は,係り受け構造解析における並列構造の範囲の同定において,キー文節前後の文節列同士の類似性を,自立語の一致,自立語の品詞の一致,自立語の意味的類似度,付属語の一致を元に計算し,類似度最大の文節列の組を求める方法を提案している.宇津呂ら\cite{uturo}は,用例間の類似度を用いて構造化された用例空間中を効率よく探索することにより,全用例探索を行わずに類似用例を高速に検索する手法について提案している.ここでは類似度テンプレートを用いた用例高速化に重きを置いている.この研究においては文章間の類似度を対応する語同士の表層格の対応および格要素の名詞の意味カテゴリの類似度をもとに計算している.兵藤ら\cite{hyoudo}は,表層的情報のみを用いて安定的かつ高精度に構文解析を行う骨格構造解析を用いて辞典の8万用例文について構文付きコーパスを作成し,これを対象として類似用例文検索システムを構築している.ここでの類似用例文検索では,入力された検索対象文を構文解析し,自立語,意味分類コード,機能語を対象とした索引表を作成し,それを用いて検索の絞込みを行い,次に索引表にコード化されている構造コード中の文節番号,係り受け文節番号,文節カテゴリコードを参照して用例文との構造一致があるかを検査している.田中ら\cite{tanaka}は,用例提示型の日英翻訳支援システムにおける検索手法として入力キーワードの語順とその出現位置の感覚を考慮した手法を提案している.検索手法としては,入力文字列を形態素解析して自立語を抽出し,これをキーワードとしAND検索を行っている.この際,AND検索だけでは不必要な文を拾いやすいので語順と変異を考慮した検索を行っている.これにより構文解析した結果と同じような効果を得ることができるとしている.村田ら\cite{murata}は,自然言語でかかれた知識データと質問文を,類似度に基づいて照合することにより,全自動で解を取り出すシステムを開発している.ここでの文間の類似度計算には,自立語同士の類似度については基本的にIDFの値を用い,同義語の場合はEDRの概念辞書などを用い,質問側の文節が疑問詞などを含む文節の場合は意味制約や選考に従った類似性を用いている.日本語文章を検索インタフェースに用いている研究には,京都大学総合情報メディアセンターで公開されているUnixの利用方法に関する藤井ら\cite{kyoudai}のアドバイスシステムがある.このシステムは質問文の構文木と解説文の条件部の構文木を比較し,一致点に対して重みを付けて合計することによって類似度を求め,最も類似する解説文の結果部を表示するというものである.一方,法律文を対象とした自然言語処理の研究としては,平松ら\cite{hiramatu}の要件効果構造に基づいた統語構造の解析や高尾ら\cite{takao}の並列構造の解析の研究がある.前者では,法律文の論理構造を的確に捉えるために,条文中の要件・効果などを表す表層要素を特定し,これを用いた制限言語モデルを単一化文法として記述し,これに基づく法律文の構文解析を行い,解析木と素性構造を出力している.後者では,前者の研究を受けて,係り受け解析時の並列構造の同定において,経験則に基づく制約を用いて間違った構文構造を除去し,次に並列要素の長さ,表層的・深層的類似性などに基づく評価を行い,並列構造の範囲を推定している.なお,ここでの並列構造の類似性判定においては黒橋らの方法を用いている.このように,これまでの研究における文の類似性は,述語を中心として,それに構文的に係っている語についてその表層格と意味素を基に計算しているものである.これらでは,2つの文章中の対応する語間の論理的や時系列的やその他の意味的な関係による結合の類似性については比較の対象外になっており,本研究の目的とする文章に記述されている事実の内容的な類似性を評価するには十分でない.\subsection{研究目的}本研究では,意味解析を用いた情報検索の一手法を提案する.具体的には「判例」を検索対象とし,自然言語で記述された「問い合わせ文」を検索質問とした判例検索システムJCare(JudicialCAseREtrieverbasedonsemanticgraphmatching)を開発する.判例検索は社会的にも有用性が高いので,これを検索対象とした.本システムでは,自然語意味解析により「問い合わせ文」と「判例」の双方を意味グラフに展開し,意味的に同型な部分グラフを求めることで類似度を算出する.これにより両者の内容にまで踏み込んだ検索を実現する.検索対象は「判例」の中でも「交通事故関連の判例」に絞り込む.「交通事故」の判例には,被告,原告,被害者などの``当事者''が存在し,それぞれの``当事者''が相互に「関係」を持つという特徴がある.この特徴により,照合時における比較基準が設定しやすくなる.
V23N02-01
\textbf{系列アラインメント}とは,2つの系列が与えられたときに,その構成要素間の対応関係を求めることをいう.系列アラインメントは特にバイオインフォマティクスにおいてDNAやRNAの解析のために広く用いられているが,自然言語処理においてもさまざまな課題が系列アラインメントに帰着することで解かれている.代表的な課題として\textbf{対訳文アラインメント}\cite{moore02:_fast,braune10:_improv,quan-kit-song:2013:ACL2013}があげられる.対訳文アラインメントは対訳関係にある文書対が与えられたときに,文書対の中から対訳関係にある文のペアをすべて見つけるタスクである.統計的機械翻訳においては,対訳コーパスにおいてどの文がどの文と対訳関係にあるかという文対文での対応関係が与えられているという前提のもとで学習処理が実行されるが,実際の対訳コーパスでは文書対文書での対応付けは得られていても文対文の対応付けは不明なものも多い.そのため,対訳文書間での正しい対訳文アラインメントを求めることは精度のよいモデルを推定するための重要な前処理として位置づけられる.統計的機械翻訳以外の,例えば言語横断的な情報検索~\cite{nie1999cross}などの課題においても対訳文書間の正しい文アラインメントを求めることは重要な前処理として位置づけられる.また,対訳文アラインメントのほかにも,対訳文書に限定されない文書間の対応付けタスクも系列アラインメントとして解かれている~\cite{qu-liu:2012:ACL2012,孝昭15,要一12}.自然言語処理のタスクにおける系列アラインメント問題を解く手法は,対応付けの\textbf{単調性}を仮定する方法とそうでない方法とに大別される.単調性を仮定する系列アラインメント法は特に対訳文アラインメントにおいて広く用いられる方法であり,対訳関係にある二つの文章における対応する文の出現順序が大きく違わないことを前提として対応付けを行う.すなわち,対訳関係にある文書のペア$F$,$E$に対し,$F$の$i$番目の文$f_i$に$E$の$j$番目の文$e_j$が対応するとしたら,$F$の$i+1$番目の文に対応する$E$の文は,(存在するならば)$j+1$番目以降であるという前提のもとで対応付けを行っていた.この前提は,例えば小説のように文の順序が大きく変動すると内容が損なわれてしまうような文書に対しては妥当なものである.一方で単調性を仮定しない方法は~\cite{qu-liu:2012:ACL2012,孝昭15,要一12}などで用いられており,文間の対応付けの順序に特に制約を課さずに系列アラインメントを求める.図~\ref{fig:prevwork}は,それぞれ単調性を仮定した系列アラインメント,仮定しない系列アラインメントの例を表している.白丸が系列中のある要素を表現しており,要素の列として系列が表現されている.図では2つの系列の要素間で対応付けがとられていることを線で示している.単調性を仮定した対応付け手法では,対応関係を表す線は交差しない.一方で仮定しない手法では交差することが分かる.\begin{figure}[t]\begin{center}\includegraphics{23-2ia1f1.eps}\end{center}\caption{既存の系列アラインメント法によるアラインメント例}\label{fig:prevwork}\end{figure}系列アラインメントにおいて単調性を仮定することは,可能なアラインメントの種類数を大きく減少させる一方で,動的計画法による効率的な対応付けを可能とする.先述したように,対訳文アラインメントを行う際に単調性を仮定することは多くの対訳文書に対しては妥当な仮定である.しかし,単調性を仮定することが妥当でない対訳文書も存在する.例えば文献~\cite{quan-kit-song:2013:ACL2013}では,単調性が成り立たない文書の例として法令文書を挙げている.そのほかにも例えば百科事典やWikipediaの記事のように一つの文書が独立な複数の文のまとまりからなる場合には,文のまとまりの出現順序が大きく変動しても内容が損なわれないことがある.このような文書においては,文の順序が大きく変動しないという前提は必ずしも正しいものではないため,既存の単調性を仮定した系列アラインメント法では正しい対訳文アラインメントが行えない可能性が高い.一方で,単調性を仮定しない既存のアラインメント法では非単調な対応付けを実現できるものの,対応付けの\textbf{連続性}を考慮することが難しいという問題がある.対応付けの連続性とは,$f_i$が$e_j$と対応付けられているならば,$f_{i+1}$は$e_j$の近傍の要素と対応付けられる可能性が高いとする性質のことである\footnote{\ref{sec:setpart}節以降の提案手法の説明では,説明を簡単にするために,対応付けに順方向の連続性がある場合,すなわち$f_i$と$e_j$が対応付けられているならば$f_{i+1}$は$e_{j}$より後ろにある近傍の要素と対応付けられやすい場合のみを扱っている.しかし,実際には提案法は順方向に連続性がある場合と同様に逆方向の連続性がある場合の対応付けを行うこともできる.逆方向の連続性とは,$f_i$と$e_j$が対応付けられているならば,$f_{i+1}$は$e_{j}$以前の近傍の要素と対応付けられる可能性が高いとする性質のことである.}.もし対応付けにおいて連続性を考慮しないとすると,系列$F$中のある要素$f_i$とそれに隣接する要素$f_{i+1}$とが,それぞれ$E$中で離れた要素と対応付けられてもよいとすることに相当する.対応付けの単調性を仮定できるような対訳文書の対訳文アラインメントについては,明らかに対応付けの連続性を考慮する必要がある.さらに,単調性が仮定できないような文書のペアに対する対訳文アラインメントにおいても,ある文とその近傍の文が常に無関係であるとは考えにくい.以上より,文アラインメントにおいては連続性を考慮することが不可欠である.また,対訳文アラインメント以外の系列アラインメントを用いるタスクにおいても,対応付けの対象となる系列は時系列に並んだ文書等,何らかの前後のつながりを仮定できるものが多いことから,連続性を考慮する必要がある.単調性を仮定できない文アラインメントの例を示す.図\ref{fig:hourei}は,文献~\cite{quan-kit-song:2013:ACL2013}の検証で用いられているBilingualLawsInformationSystem(BLIS)\footnote{http://www.legistlation.gov.hk}コーパスに含まれる対訳文書における文アラインメントの例である.BLISは香港の法令文書の電子データベースであり,対訳関係にある英語・中国語の文書を保持している.図に示す対訳文は用語の定義を行っている箇所である.両言語の文を比べると,定義する用語の順番が英語と中国語とで異なっており,結果として,局所的には連続なアラインメントが非単調に出現する対訳文書となっている.\begin{figure}[t]\begin{center}\includegraphics{23-2ia1f2.eps}\end{center}\caption{法令文書における非単調な対訳文アラインメントの例}\label{fig:hourei}\end{figure}本論文では系列の連続性を考慮しつつ,かつ非単調な系列アラインメントを求めるための手法を提案する.このような系列アラインメント法は,単調性を仮定できない文書対の対訳文アラインメントを求める際に特に有効であると考える.仮に文書$F$の文が$E$の任意の文と対応してもよいとすれば,ある文のペアの良さを評価するスコアを適切に設定することによって,問題を二部グラフにおける最大重みマッチング問題\cite{korte08:_combin_optim}として定式化して解くことができる.しかし,$F$のある文が$E$の任意の文と対応してもよいという前提では,近傍の文間のつながりを無視して対応付けを行うことになる.実際の文書ではすべての文がその近傍の文と無関係であるとは考えにくいため,正しい対応付けが行えない可能性が高い.そこで,提案手法では対訳文アラインメントを組合せ最適化の問題の一つである\textbf{集合分割問題}として定式化して解く.集合分割問題は,ある集合$S$とその部分集合族$S_1,\ldots,S_N$が与えられたときに,スコアの和が最大となるような$S$の分割$\mathcal{D}\subseteq\{S_1,\ldots,S_N\}$を見つける問題である.ここで$\mathcal{D}$が$S$の分割であるとは,$S=\cup_{S_i\in\mathcal{D}}S_i$かつ$i\neqj$ならば任意の$S_i,S_j\in\mathcal{D}$について$S_i\capS_j=\emptyset$となることをいう.2つの系列$F$,$E$のある部分列に対する単調な系列アラインメントの集合を$S_1,\ldots,S_N$として表現することで,部分列に対するアラインメントの集合$S_1,\ldots,S_N$から系列全体の分割となるような部分集合を選択する問題として$F$,$E$全体に対する系列アラインメントを求めることができる.また,本論文では集合分割問題としての系列アラインメントの定式化とともに,その高速な求解法も同時に示す.提案する集合分割問題に基づく定式化を用いると,系列$F$,$E$に含まれる要素の数が増加するに伴い,急激に厳密解の求解に時間がかかるようになるという課題がある.これは,それぞれの系列に含まれる要素の総数を$|F|$,$|E|$とすると,集合分割問題に出現する変数の数\footnote{集合分割問題における変数の数は,可能な$F$,$E$の部分系列のペアの総数と等しい.詳細は\ref{sec:setpart}章を参照.}が$O(|F|^{2}|E|^{2})$となるためである.集合分割問題はNP困難であり,変数の数が増加すると各変数に対応する重みの計算および整数線形計画法ソルバを用いた求解に時間がかかるようになる.本論文ではこの課題に対処するために,多くの変数が問題中に出現する大規模な線形計画問題を解く際に用いられる,\textbf{列生成法}\cite{lubbecke05:_selec_topic_colum_gener}を用いることで高速な系列アラインメントを実現する近似解法も同時に提案する.列生成法は大規模な問題の解を,出現する変数の個数を制限した小さな問題を繰り返し解くことによって求める手法である.列生成法を用いることによって,そのままでは変数の数が膨大となり解くことができなかった問題を解くことができる.なお,列生成法を用いることで線形計画問題の最適解を得られることは保証されているが,整数線形計画問題については解を得られることは必ずしも保証されていない.そこで本論文では列生成法で得られた近似解を実験によって最適解と比較し,よい近似解が得られていることを確認する.なお,以下では説明を簡単にするために特に対訳文書の対訳文アラインメントに話題を限定して説明を進める.ただし,系列の要素間のスコアさえ定まれば提案法を用いて任意の系列のペアに対する系列アラインメントを行うことが可能である.
V08N03-01
電子化テキストの爆発的増加に伴って文書要約技術の必要性が高まり,この分野の研究が盛んになっている\cite{okumura}.自動要約技術を使うことにより,読み手の負担を軽減し,短時間で必要な情報を獲得できる可能性があるからである.従来の要約技術は,文書全体もしくは段落のような複数の文の中から,重要度の高い文を抽出することにより文書全体の要約を行うものが多い.このような方法で出力される個々の文は,原文書中の文そのものであるため,文間の結束性に関してはともかく,各文の正しさが問題になることはない.しかし,選択された文の中には冗長語や不要語が含まれることもあり,またそうでなくとも目的によっては個々の文を簡約することが必要になる.そのため,特にニュース字幕作成を目的として,表層文字列の変換\cite{tao,kato}を行ない,1文の文字数を減らすなどの研究が行われている.また,重要度の低い文節や単語を削除することによって文を簡約する手法も研究されており,単語重要度と言語的な尤度の総和が最大となる部分単語列を動的計画法によって求める方法\cite{hori}が提案されている.しかし,この方法ではtrigramに基づいた局所的な言語制約しか用いていないので,得られた簡約文が構造的に不自然となる可能性がある.削除文節の選択に係り受け関係を考慮することで,原文の部分的な係り受け構造の保存を図る方法\cite{mikami}も研究されているが,この方法ではまず一文全体の係り受け解析を行い,次に得られた構文木の中の冗長と考えられる枝を刈り取るという,二段階の処理が必要である.そのため,一つの文の係り受け解析が終了しなければ枝刈りが開始できず,枝刈りの際に多くの情報を用いて複雑な処理を行うと,文の入力が終了してから簡約された文が出力されるまでの遅延時間が長くなる可能性がある.本論文では,文の簡約を「原文から,文節重要度と文節間係り受け整合度の総和が最大になる部分文節列を選択する」問題として定式化し,それを解くための効率の良いアルゴリズムを提案する.この問題は,原理的には枚挙法で解くことが可能であるが,計算量の点で実現が困難である.本論文ではこの問題を動的計画法によって効率よく解くことができることを示す\cite{oguro,oguro2}.文の簡約は,与えられた文から何らかの意味で``良い''部分単語列あるいは部分文節列を選択することに尽きる.そのとき,削除/選択の単位として何を選ぶか,選ばれる部分単語列あるいは部分文節列の``良さ''をどのように定義するか,そして実際の計算をどのように行うか,などの違いにより,種々の方式が考えられる.本論文では,削除/選択の単位として文節を採用している.この点は,三上らの方法と同じであるが,一文を文末まで構文解析した後で枝刈りを行うという考え方ではなく,部分文節列の``良さ''を定量的に計るための評価関数を予め定義しておき,その基準の下で最適な部分文節列を選択するという考え方を採る.その点では堀らの方法に近いが,削除/選択の単位がそれとは異なる.また評価関数の中に二文節間の係り受け整合度が含まれているので,実際の計算は係り受け解析に近いものになり,その点で堀らの方法とは非常に異なったものとなる.さらに,このアルゴリズムでは文頭から係り受け解析と部分文節列の選択が同時に進行するので,一つの文の入力が終了してから,その文の簡約文が出力されるまでの遅延時間を非常に短くできる可能性がある.オンラインの字幕生成のような応用では,この遅延時間はできるだけ短い方が良い.以下では,あらためて文簡約問題の定式化を行い,それを解くための再帰式とアルゴリズム,および計算量について述べる.そして,最後に文の簡約例を掲げ,このアルゴリズムによって自然な簡約文が得られることを示す.
V04N03-02
\label{sec:introduction}単語の多義性を解消するための技術は,機械翻訳における訳語の選択や仮名漢字変換における同音異義語の選択などに応用できる.そのため,さまざまな手法\cite{Nagao96}が研究されているが,最近の傾向ではコーパスに基づいて多義性を解消するものが多い.コーパスに基づく手法では,単語と単語や語義と語義との共起関係をコーパスから抽出し,抽出した共起関係に基づいて入力単語の語義を決める.しかし,抽出した共起関係のみでは全ての入力には対応できないというスパース性の問題がある.スパース性に対処するための一つの方法は,シソーラスを利用することである.シソーラスを使う従来手法には,クラスベースの手法\cite{Yarowsky92,Resnik92,Nomiyama93,Tanaka95a}や事例ベースの手法\cite{Kurohashi92,Iida95,Fujii96a}がある.クラスベースの手法では,システムに入力された単語(入力単語)の代りに,その上位にある,より抽象的な節点を利用する\footnote{本章では単語と語義と節点とを特には区別しない.}.一方,事例ベースの手法では,このような抽象化は行わない.すなわち,入力単語がコーパスに出現していない場合には,出現している単語(出現単語)のうちで,入力単語に対して,シソーラス上での距離が最短の単語を利用する.ところで,シソーラス上では,2単語間の距離は,それらに共通の上位節点\footnote{「二つの節点に共通の上位節点」といった場合には,共通の上位節点のうちで最も深い節点,すなわち,根から最も遠い節点を指す.}の深さにより決まる.つまり,共通の上位節点の深さが深いほど,2単語間の距離は短くなる.したがって,事例ベースの手法では,シソーラス上における最短距離の出現単語ではなくて,最短距離の出現単語と入力単語とに共通の上位節点を利用しているとも考えられる.こう考えると,どちらの手法も,入力単語よりも抽象度の高い節点を利用している点では,共通である.二つの手法の相違は,上位節点の決め方とその振舞いの解釈である.まず,上位節点の決め方については,クラスベースの手法が,当該の入力単語とは独立に設定した上位節点を利用するのに対して,事例ベースの手法では,入力単語に応じて,それに最短距離の出現単語から動的に決まる上位節点を利用する.次に,上位節点の振舞いについては,クラスベースの手法では,上位節点の振舞いは,その下位にある節点の振舞いを平均化したものである.一方,事例ベースの手法では,上位節点の振舞いは,入力単語と最短距離にある出現単語と同じである.このため,クラスベースの手法では,クラス内にある単語同士の差異を記述できないし,事例ベースの手法では,最短距離にある出現単語の振舞いが入力単語の振舞いと異なる場合には,当該の入力の処理に失敗することになる.これは,一方では平均化により情報が失なわれ\cite{Dagan93},他方では個別化によりノイズに弱くなる\cite{Nomiyama93}という二律排反な状況である.クラスベースの手法でこの状況に対処するためには,クラスの抽象化の度合を下げればよい.しかし,それには大規模なコーパスが必要である.一方,事例ベースの手法では,最短距離の出現単語だけではなくて,適当な距離にある幾つかの出現単語を選び,それらの振舞いを平均化して入力単語の振舞いとすればよい.しかし,幾つ出現単語を選べば良いかの指針は,従来の研究では提案されていない.本稿では,平均化による情報の損失や個別化によるノイズを避けて,適当な抽象度の節点により動詞の多義性を解消する手法を提案する.多義性は,与えられた語義の集合から,尤度が1位の語義を選択することにより解消される.それぞれの語義の尤度は,まず,動詞と係り受け関係にある単語に基づいて計算される.このとき,尤度が1位の語義と2位の語義との尤度差について,その信頼下限\footnote{確率変数の信頼下限というときには,その推定値の信頼下限を意味する.確率変数$X$の(推定値の)信頼下限とは,$X$の期待値を$\langleX\rangle$,分散を$var(X)$とすると$\langleX\rangle-\alpha\sqrt{var(X)}$である.また,信頼上限は$\langleX\rangle+\alpha\sqrt{var(X)}$である.$\alpha$は推定の精度を左右するパラメータであり,$\alpha$が大きいと$X$の値が実際に信頼下限と信頼上限からなる区間にあることが多くなる.}が閾値以下の場合には語義を判定しないで,信頼下限が閾値よりも大きいときにのみ語義を判定する.語義が判定できないときには,シソーラスを一段上った節点を利用して多義性の解消を試みる.この過程を根に至るまで繰り返す.根においても多義性が解消できないときには,その係り受け関係においては語義は判定されない.提案手法の要点は,従来の研究では固定的に選ばれていた上位節点を,入力に応じて統計的に動的に選択するという点である.尤度差の信頼下限は,事例ベースの手法において,「幾つ出現単語を選べば良いか」を決めるための指標と考えることができる.あるいは,クラスベースの手法において,「平均化による情報の損失を最小にするクラス」を,入力に応じて設定するための規準と考えることができる.以下,\ref{sec:model}章では動詞の多義性の解消法について述べ,\ref{sec:experiment}章では提案手法の有効性を実験により示す.実験では,主に,提案手法とクラスベースの手法とを比較する.\ref{sec:discussion}章では提案手法とクラスベースの手法や事例ベースの手法との関係などを述べ,\ref{sec:conclusion}章で結論を述べる.
V06N02-06
近年の著しい計算機速度の向上,及び,音声処理技術/自然言語処理技術の向上により,音声ディクテーションシステムやパソコンで動作する連続音声認識のフリーソフトウェアの公開など,音声認識技術が実用的なアプリケーションとして社会に受け入れられる可能性がでてきた\cite{test1,test2}.我が国では,大量のテキストデータベースや音声データベースの未整備のため欧米と比べてディクテーションシステムの研究は遅れていたが,最近になって新聞テキストデータやその読み上げ文のデータが整備され\cite{test3},ようやく研究基盤が整った状況である.このような背景を踏まえ,本研究では大規模コーパスが利用可能な新聞の読み上げ音声の精度の良い言語モデルの構築を実験的に検討した.音声認識のためのN-gram言語モデルでは,N=3$\sim$4で十分であると考えられる\hspace{-0.05mm}\cite{test4,test5,test25}.しかし,N=3ではパラメータの数が多くなり,音声認識時の負荷が大きい.そこで,大語彙連続音声認識では,第1パス目はN=2のbigramモデルで複数候補の認識結果を出力し,N=3のtrigramで後処理を行なう方法が一般的である.\mbox{本研究では,第2パスのtrigramの改善}ばかりでなく,第1パス目の\hspace{-0.05mm}bigram\hspace{-0.05mm}言語モデルの改善を目指し,以下の3つの点に注目した.まずタスクについて注目する.言語モデルをN-gram\mbox{ベースで構築する場合(ルールベースで}記述するのとは異なり),大量の学習データが必要となる.最近では各種データベースが幅広く構築され,言語モデルの作成に新聞記事などの大規模なデータベースを利用した研究が行なわれている\cite{test6}.しかしN-gramはタスクに依存するのでタスクに関する大量のデータベースを用いて構築される必要がある.例えば,観光案内対話タスクを想定し,既存の大量の言語データに特定タスクの言語データを少量混合することによって,N-gram言語モデルの性能の改善が行なわれている\cite{test7}.また,複数のトピックに関する言語モデルの線形補間で適応化する方法が試みられている\cite{test8}.本研究ではタスクへの適応化のために,同一ジャンルの過去の記事を用いる方法とその有効性を示す.次に言語モデルの経時変化について注目する.例えば新聞記事などでは話題が経時的に変化し,新しい固有名詞が短期的に集中的に出現する場合が多い.以前の研究では、\mbox{直前の数百単}\mbox{語による言語モデルの適応化(キャッシュ法)が試}みられ\cite{test20},\mbox{小さいタスクでは}その有効性が示されてはいるが,本論文では直前の数万〜数十万語に拡大する.つまり,直前の数日間〜数週間の記事内容で言語モデルを適応化する方法を検討し,その有効性を示す.最後に認識単位に注目する.音声認識において,\mbox{認識単位が短い場合認識誤りを生じやすく,}付属語においてその影響は大きいと考えられ,小林らは,付属語列を新たな認識単位とした場\mbox{合の効果の検証をしている\cite{test9}}.\mbox{また高木らは,高頻度の付属語連鎖,}関連率の高い複合名詞などを新しい認識単位とし,\mbox{これらを語彙に加えることによる言語モデ}ルの性能に与える影響を検討している\cite{test10}.なお,連続する単語クラスを連結して一つの単語クラスとする方法や句を一つの単位とする方法は以前から試みられているが,いずれも適用されたデータベースの規模が小さい\cite{test11,test12}.同じような効果を狙った方法として,N-gramのNを可変にする方法も試みられている\cite{test8}.なお,定型表現の抽出に関する研究は,テキスト処理分野では多くが試みられている(例えば,新納,井佐原1995;北,小倉,森本,矢野1995).新聞テキストには,使用頻度の高い(特殊)表現や,固定的な言い回しなどの表現(以下,定型表現と呼ぶ)が非常に多いと思われる.定型表現は,音声認識用の言語モデルや音声認識結果の誤り訂正のための後処理に適用できる.そこでまず,定型表現を抽出した.次に,これらの(複数形態素から成る)定型表現を1形態素として捉えた上で,N-gram言語モデルを構築する方法を検討する.評価実験の結果,長さ2および3以下である定型表現を1形態素化してbigram,trigram言語モデルを作成することで,bigramに関しては,エントロピーが小さくなり,言語モデルとして有効であることを示す.なお,これらの手法に関しては様々な方法が提案されているが,大規模のテキストデータを用いて,タスクの適応化と定型表現の導入の有効性を統一的に評価した研究は報告されていない.\vspace*{-3mm}
V20N03-05
近年,TwitterやFacebookなどのソーシャルメディアが社会において大きな存在感を示している.特に,Twitterは情報発信の手軽さやリアルタイム性が魅力であり,有名人のニュース,スポーツなどの国際試合の勝利,災害の発生などの速報,アメリカ大統領選挙に代表される選挙活動,アラブの春(2010年,2011年)やイギリスの暴動(2011年)など,社会に大きな影響を与えるメディアになっている.2011年3月に発生した東日本大震災においても,安否確認や被災者支援のために,ソーシャルメディアが活躍した.Twitter上ではリアルタイムな情報交換が行われているが,誤った情報や噂も故意に,あるいは故意ではなくとも広まってしまうことがある.東日本大震災での有名な例としては,「コスモ石油の火災に伴い有害物質の雨が降る」や「地震で孤立している宮城県花山村に救助が来ず,赤ちゃんや老人が餓死している」などの誤情報の拡散が挙げられる.このような誤情報の拡散は無用な混乱を招くだけでなく,健康被害や風評被害などの2次的な損害をもたらす.1923年に発生した関東大震災の時も,根拠のない風説や流言が広まったと言われているが,科学技術がこれほど進歩した2011年でも,流言を防げなかった.このような反省から,Twitter上の情報の\addspan{信憑性}を判断する技術に注目が集まっている.しかしながら,情報の\addspan{信憑性}をコンピュータが自動的に判断するのは,技術面および実用面において困難が伴う.コンピュータが情報の\addspan{信憑性}を推定するには,大量の知識を使って自動推論を行う必要があるが,実用に耐えうる知識獲得や推論手法はまだ確立できていない.また,情報の\addspan{信憑性}は人間にも分からないことが多い.例えば,「ひまわりは土壌の放射性セシウムの除去に効果がある」という情報が間違いであることは,震災後に実際にひまわりを植えて実験するまで検証できなかった.さらに,我々は情報の\addspan{信憑性}と効用のトレードオフを考えて行動決定している.ある情報の\addspan{信憑性}が低くても,その情報を信じなかったことによるリスクが高ければ,その情報を信じて行動するのは妥当な選択と言える.そこで,我々はツイートの\addspan{信憑性}を直接判断するのではなく,そのツイートの情報の「裏」を取るようなツイートを提示することで,情報の価値判断を支援することを考えている.図\ref{fig:map}に「イソジンを飲めば甲状腺がんを防げる」という内容のツイート(中心)に対する,周囲の反応の例を示した.このツイートに対して,同意する意見,反対する意見などを提示することで,この情報の根拠や問題点,他人の判断などが明らかになる.例えば,図\ref{fig:map}左上のツイート「これって本当???」は,中心のツイートに対して疑問を呈しており,図\ref{fig:map}左下のツイート「これデマです.RT@ttaro:イソジンを飲めば甲状腺がんを防げるよ.」は,中心のツイートに対して反論を行っている.これらのツイート間の関係情報を用いれば,中心のツイートに対して多くの反論・疑問が寄せられているため,中心のツイートの信憑性は怪しいと判断したり,右下のツイートのURLの情報を読むことで,追加情報を得ることができる.\begin{figure}[t]\begin{center}\includegraphics{20-3ia16f1.eps}\end{center}\caption{返信・非公式リツイート,もしくは内容に基づくツイート間の論述関係}\label{fig:map}\vspace{-0.5\Cvs}\end{figure}Twitterにおいて特徴的なのは,ツイート間に返信\footnote{メールで返信を行うときに,返信元の内容を消去してから返信内容を書く状況に相当する.Twitterのメタデータ上では,どのツイートに対して返信を行ったのかという情報が残されている.}や非公式リツイート\footnote{メールで返信を行うときに,返信元の内容を引用したままにしておく状況に相当する.\addspan{元のツイートをそのままの形でフォロワーに送る(公式)リツイートとは異なりTwitterが提供している機能ではないが,サードパーティ製のクライアントでサポートされており頻繁に利用されている.}}などの\addspan{形式を取った投稿が可能な}点である.例えば,図\ref{fig:map}左上のツイートは中心のツイートに対する発言であること,図\ref{fig:map}左下と右上のツイートは中心のツイートを引用したことが記されている.これに対し,図\ref{fig:map}右下のツイートは,返信や非公式リツイートの\addspan{形式を取っていないため,中心のツイートを見て投稿されたものかは不明である.}本研究では,返信や非公式リツイートの形式を取ったツイート(返信ツイート)に着目し,ツイート間の論述的な関係を認識する手法を提案する.具体的には,返信ツイートによって,投稿者の「同意」「反論」「疑問」などの態度が表明されると考え,これらの態度を推定する分類器を教師有り学習で構築する.評価実験では,返信で表明される態度の推定性能を報告する.さらに,既存の含意関係認識器をこのタスクに適用し,直接的に返信関係のないツイート間の論述的な関係の推定を行い,その実験結果を報告する.
V04N04-01
連接関係の関係的意味は,接続詞,助詞等により一意に決まるものもあるが,一般的には曖昧性を含む場合が多い.一般的には,複文の連接関係の関係的意味は,従属節や主節の表している事象の意味,およびそれらの事象の相互関係によって決まってくる.しかし,各々の単文の意味とそれらの間の関係を理解するためには広範囲の知識が必要になる.それらの背景知識を記述して,談話理解に利用する研究\cite[など]{ZadroznyAndJensen1991,Dalgren1988}も行われているが,現状では,非常に範囲を限定したモデルでなければ実現できない.従って,連接関係を解析するためには,少なくともどのような知識が必要になり,それを用いてどのように解析するのかが問題になる.シテ型接続に関する研究\cite{Jinta1995}では,助詞「て」による連接関係を解析し,「時間的継起」のほかに「方法」,「付帯状態」,「理由」,「目的」,「並列」などの意味があることを述べている.これらの関係的意味は,動詞の意志性,意味分類,アスペクト,慣用的な表現,同一主体,無生物主体などによって決まることを解析している.しかし,動詞の意志性自体が,動詞の語義や文脈によって決まる場合が多い.また,主体が省略されていることも多い.さらに,「て」以外の接続の表現に対して,同じ属性で識別できるかどうかも不明である.表層表現中の情報に基づいて,文章構造を理解しようとする研究\cite{KurohasiAndNagao1994}では,種々の手掛かり表現,同一/同種の語/句の出現,2文間の類似性を利用することによって連接関係を推定している.しかし,手掛かり表現に多義のある時は,ある程度の意味情報を用いる必要がある.日本語マニュアル文においてアスペクトにより省略された主語を推定する研究\cite{NakagawaAndMori1995}や,知覚思考,心理,言語活動,感情,動きなど述語の意味分類を用いて,「ので」順接複文における意味解析を行う研究\cite{KimuraAndNisizawaAndNakagawa1996}などがあり,アスペクトや動詞の意味分類が連接関係の意味解析に有効なことが分かる.しかし,連接関係全般について,動詞と主体のどのような属性を用いて,どの程度まで解析できるかが分からない.本論文では,「て」以外の曖昧性の多い接続の表現についても,その意味を識別するために必要な属性を調べ,曖昧性を解消するモデルを作成した.動詞の意志性については,予め単文で動詞の格パターンを適用して解析して,できるだけ曖昧性を無くすようにした.省略された主体については,技術論文,解説書,マニュアルなどの技術文書を前提にして,必要な属性を復元するようにした.
V02N04-04
本論文では,話者の対象認識過程に基づく日本語助詞「が」と「は」の意味分類を行ない,これを,一般化LR法に基づいて構文解析するSGLRパーザ(沼崎,田中1991)の上に実装する.さらに,助詞「を」と「に」についても意味分類を行ない,パーザに実装する.そして,これらの意味分類の有用性を実験により確認した結果について述べる.話者の対象認識過程とは,話者が対象を認識し,それを言語として表現する際に,対象を概念化し,対象に対する話者の見方や捉え方,判断等を加える過程のことをいう.本研究の新規性は,次の3点である.1.三浦文法に基づいて,日本語の助詞「が」と「は」の意味規則,及び,「を」と「に」についての意味分類を考案したこと.2.この規則の動作機構をPrologの述語として記述し,日本語DCGの補強項に組み込んだこと.3.その規則をSGLRパーザに載せ,構文解析と意味解析の融合を図り,それにより,構文的曖昧性を著しく削減できることを示したことである.関連する研究としては,(野口,鈴木1990)がある.そこでは,「が」と「は」の用法の分類を,その語用論的機能と,聴者の解釈過程の特徴とによって整理している.本研究との相違は,(野口,鈴木1990)が聴者の解釈過程を考慮した分類であるのに対し,本研究では,話者の対象認識過程を考慮した分類である点,および,本研究がパーザへの実装を行なっているのに対し,(野口,鈴木1990)は,これを行なっていない点である.以後,2章では言語の過程的構造,3章では助詞「が」と「は」の意味分析,4章では助詞「が」と「は」のコア概念について述べる.5章では,助詞「が」と「は」の意味規則,および,助詞「を」と「に」の意味規則について述べる.6章ではパーザの基本的枠組,7章では試作した文法と辞書について述べる.8章ではSGLRパーザの実装について述べ,実験結果を示す.そして,9章では結論を述べる.
V16N05-02
\label{sec:Intro}検索エンジン\textit{ALLTheWeb}\footnote{http://www.alltheweb.com/}において,英語の検索語の約1割が人名を含むという報告\footnote{http://tap.stanford.edu/PeopleSearch.pdf}があるように,人名は検索語として検索エンジンにしばしば入力される.しかし,その検索結果としては,その人名を有する同姓同名人物についてのWebページを含む長いリストが返されるのみである.例えば,ユーザが検索エンジンGoogle\footnote{http://www.google.com/}に``WilliamCohen''という人名を入力すると,その検索結果には,この名前を有する情報科学の教授,アメリカ合衆国の政治家,外科医,歴史家などのWebページが,各人物の実体ごとに分類されておらず,混在している.こうしたWeb検索結果における人名の曖昧性を解消する従来研究の多くは,凝集型クラスタリングを利用している\cite{Mann03},\cite{Pedersen05},\cite{Bekkerman-ICML05},\cite{Bollegala06}.しかし,一般に人名の検索結果では,その上位に,少数の同姓同名だが異なる人物のページが集中する傾向にある.したがって,上位に順位付けされたページを種文書として,クラスタリングを行えば,各人物ごとに検索結果が集まりやすくなり,より正確にクラスタリングができると期待される.以下,本論文では,このような種文書となるWebページを「seedページ」と呼ぶことにする.本研究では,このseedページを用いた半教師有りクラスタリングを,Web検索結果における人名の曖昧性解消のために適用する.これまでの半教師有りクラスタリングの手法は,(1)制約に基づいた手法,(2)距離に基づいた手法,の二つに分類することができる.制約に基づいた手法は,ユーザが付与したラベルや制約を利用し,より正確なクラスタリングを可能にする.例えば,Wagstaffら\cite{Wagstaff00},\cite{Wagstaff01}の半教師有り$K$-meansアルゴリズムでは,``must-link''(2つの事例が同じクラスタに属さなければならない)と,``cannot-link''(2つの事例が異なるクラスタに属さなければならない)という2種類の制約を導入して,データのクラスタリングを行なう.Basuら\cite{Basu02}もまた,ラベルの付与されたデータから初期の種クラスタを生成し,これらの間に制約を導入する半教師有り$K$-meansアルゴリズムを提案している.また,距離に基づいた手法では,教師付きデータとして付与されたラベルや制約を満たすための学習を必要とする.例えば,Kleinら\cite{Klein02}の研究では,類似した2点$(x_{i},x_{j})$間には``0'',類似していない2点間には$(\max_{i,j}D_{ij})+1$と設定した隣接行列を作成して,クラスタリングを行なう.また,Xingら\cite{Xing03}の研究では,特徴空間を変換することで,マハラノビス距離の最適化を行う.さらに,Bar-Hillelら\cite{Bar-Hillel03}の研究では,適切な特徴には大きな重みを,そうでない特徴には小さな重みを与えるRCA(RelevantComponentAnalysis)\cite{Shental02}により,特徴空間を変換する.一方,我々の提案する半教師有りクラスタリングでは,seedページを含むクラスタの重心の変動を抑える点において,新規性がある.本論文の構成は次のとおりである.\ref{sec:ProposedMethod}章では,我々の提案する新たな半教師有りクラスタリングの手法について説明する.\ref{sec:Experiments}章では,提案手法を評価するための実験結果を示し,その結果について考察する.最後に\ref{sec:Conclusion}章では,本論文のまとめと今後の課題について述べる.
V23N01-02
場所や時間を気にすることなく買い物可能なオンラインショッピングサイトは重要なライフラインになりつつある.オンラインショッピングサイトでは商品に関する説明はテキスト形式で提供されるため,この商品説明文から商品の属性-属性値を抽出し構造化された商品データを作成する属性値抽出技術は実世界でのニーズが高い.ここで「商品説明文から商品の属性値を抽出する」とは,例えばワインに関係した以下の文が入力された時,(生産地,フランス),(ぶどう品種,シャルドネ),(タイプ,辛口)といった属性と属性値の組を抽出することを指す.\begin{itemize}\itemフランス産のシャルドネを配した辛口ワイン.\end{itemize}\noindentこのような商品の属性値抽出が実現できれば,他の商品のレコメンドやファセット検索での利用,詳細なマーケティング分析\footnote{商品を購入したユーザの属性情報と組み合わせることで「30代女性にフランス産の辛口ワインが売れている」といった分析ができる.}等が可能になる.商品の属性値抽出タスクは従来より多くの研究がなされており,少数のパターンにより属性値の獲得を試みる手法\cite{mauge2012},事前に人手または自動で構築した属性値辞書に基づいて属性値抽出モデルを学習する手法\cite{ghani2006,probst2007,putthividhya2011,bing2012,shinzato2013},トピックモデルにより属性値を獲得する手法\cite{wong2008}など様々な手法が提案されている.本研究の目的は商品属性値抽出タスクに内在している研究課題を洗い出し,抽出システムを構築する上でどのような点を考慮すべきか,またどの部分に注力するべきかという点を明らかにすることである.タスクに内在する研究課題を洗い出すため,属性-属性値辞書に基づく単純なシステムを実装し,このシステムが抽出した結果のFalse-positve,False-negative事例の分析を行った.エラー分析という観点では,Shinzatoらがワインとシャンプーカテゴリに対して得られた結果から無作為に50件ずつFalse-positive事例を抽出し,エラーの原因を調査している\cite{shinzato2013}.これに対し本研究では5つの商品カテゴリから20件ずつ商品ページを選びだして作成した100件のデータ(2,381文)を対象に分析を行い,分析を通してボトムアップ的に各事例の分類を行ってエラーのカテゴリ化を試みた.システムのエラー分析を行い,システム固有の問題点を明らかにすることはこれまでも行われてきたが,この規模のデータに対して商品属性値抽出タスクに内在するエラーのタイプを調査し,カテゴリ化を行った研究は筆者らの知る限りない.後述するように,今回分析対象としたデータは属性-属性値辞書に基づく単純な抽出システムの出力結果であるが,これはDistantsupervision\cite{mintz2009}に基づく情報抽出手法で行われるタグ付きコーパス作成処理と見なすことができる.したがって,本研究で得られた知見は商品属性値抽出タスクだけでなく,一般のドメインにおける情報抽出タスクにおいても有用であると考えられる.
V21N02-06
ここ数年,Webなどの大量の電子化テキストに現れる他者が発信した意見情報を抽出し,集約や可視化を行うことで,世論調査や評判分析といった応用を実現する研究が進んでいる\cite{pang2008,liu2010,otsuka2007,inui2006}.これらの研究を総称して,意見分析({\itSentimentAnalysis})あるいは意見マイニング({\itOpinionMining})と呼ぶ\cite{pang2008}.対象となる文書ジャンルは,報道機関が配信するニュース,Web上のレビューサイト,個人が自身の体験や意見を記述するブログやマイクロブログなどであり,政策や選挙のための情報分析,世論調査,商品や映画やレストラン・ホテルなどのサービスの評判分析,トレンド分析,などについて実用化が進められている.現在の意見分析の研究は,技術は洗練され,応用範囲は広がりつつあるものの,ここ数年,従来のやり方を大きく変えるような提案は著者の知る限りではあまり見当たらない.その結果,意見質問応答や,ドメインを横断した意見分析といった難易度の高い応用は,技術の壁にぶつかっている印象を持っている.意見質問応答は,factoid型,すなわち従来の質問応答技術に比べて,回答が長くなる傾向があり,また,質問に対する正答は,1つだけではなく,複数の意見を集約したほうが適切である場合が多い.初期の研究\cite{stoyanov2005emnlp}では,文や節などの単位を主観性などの情報に基づきフィルタリングすることで,回答が得られる可能性が増すことが指摘されていた.その後の研究\cite{balahur2010ecai}によると,評価型会議TAC(TextAnalysisConference)で提供されたブログからの意見質問応答・要約のデータセット\cite{dang2008tac}\footnote{http://www.nist.gov/tac/data/past/2008/OpSummQA08.html}を用いた実験では,ブログを対象として,特定の事柄に対する意見を問い合わせ,回答を得るというタスクについて,質問,回答を同一の極性や話題によりフィルタリングすることが有効であり,また複数の連続する文を抽出することが効果的であるが,意味役割付与などに基づくフィルタリングは必ずしも有効な結果が得られていない.さらに,さまざまな識者や組織により表明されている意見を話題別に集約するタスク\cite{stoy2011ranlp}などの提案もある.本研究では,複数の個人的な意見や体験が含まれる情報を集約して,回答として適切に構成するためには,従来の意見の属性,主観性,極性,意見保有者などにとどまらず,意見の詳細なタイプをアノテートし,質問と回答の構造について分析を進める必要があると考える.これにより,複数の個人的な意見や体験を,詳細なタイプに基づき,適切な順序で配置することにより,文章として自然な回答を提供できると考えている.また,質問と回答を含む文書ジャンルとして,Yahoo!知恵袋\footnote{http://chiebukuro.yahoo.co.jp/}などのコミュニティQAサイトがあり,意見質問の判別のために利用されている.具体的には,質問について主観性を判別するためには,質問と回答中の手がかりを区別して利用することが有効という研究\cite{li2008sigir}や,主観を伴う回答を求める質問を厳密に定義し,そのような質問は人間に対して回答を求めるという応用を目指している研究が存在する\cite{aikawa2011tod}.これらの研究は,主観性を判別する特徴が,質問と回答との間で明確ではないが関連があることと,意見を問う質問が判別できたとしても,適切な回答を自動的に構成することが難しいことを示唆している.一般に,質問に対する回答を検索するためには,質問に出現しやすい語彙と回答に出現しやすい語彙とのギャップを解消するために,その対応関係をコーパスから学習することにより,解決するための研究が行われている\cite{abe2011yans,berger2000sigir}.一方で,意見分析の研究は,文書ジャンル\footnote{文書ジャンルとは,文書の書き手と読み手との間で,読む行為を通じたコミュニケーションの共通パタンを想定できる文書群を指す概念と位置づけることができる\cite{bazerman2004}.}に応じて要求されるタスクが異なり,文書に現れる意見の性質も異なる.したがって,意見分析の研究にはコーパスが欠かせないが,現状では,ニュース,レビュー,ブログなどの文書ジャンルが主な対象となっている\cite{seki2013tod}.本研究では,従来の研究とは異なり,質問と回答を含む対話型の文書ジャンル,具体的には,国立国語研究所の『現代日本語書き言葉均衡コーパス』(BCCWJ)\cite{maekawa2011bccwj,yamasaki2011bccwj,bccwj2012}\footnote{http://www.ninjal.ac.jp/corpus\_center/bccwj/}中のYahoo!知恵袋\footnote{http://chiebukuro.yahoo.co.jp/}を対象として,質問とそれに対する回答に詳細な意見情報のアノテーションを行うことにより,質問と回答中の意見の構造やその対応関係を明らかにするための,基盤となるコーパスの提供を目指している.ただし,一口に意見といっても,その特徴はさまざまである.意見の定義の範囲は広く,主観性などの広い概念を対象とした場合,評価,感情,意見,態度,推測などの何を対象とするかを決定することも重要である\cite{wiebe2005lre,koba2006signl}.本研究では,態度の詳細分類であるアプレイザル理論\cite{martin2005}を参考に,詳細な分類体系に基づく意見情報をアノテートすることにより,質問に対する回答として出現する意見の傾向を,意見の性質の違いから明らかにすることを目指す.一方で,従来の意見分析では,単一のドメインを対象として研究がなされてきた.それは,ドメインに応じて,主観性,極性を判別したり,意見の対象やそのアスペクトを抽出するための教師あり学習に用いる素性が異なるからである.しかし,現実社会では,複数のドメインを横断して,意見分析を行うことが求められる場面が少なくない.この課題に向けた解決のための研究として,複数のドメインを対象とした意見分析に関する研究\cite{blit2007acl,pono2012emnlp,he2011acl,bolle2011acl,li2012acl}がある.これは,複数ドメインにおいて共通に出現する意見表現や,意見表現間あるいは意見の対象間の類似性を手がかりとして,訓練データと評価データとの不整合を緩和させようという試みである.英語については,Amazonレビューを対象としたコーパス\footnote{http://www.cs.jhu.edu/$\sim$mdredze/datasets/sentiment/}が公開されており,一連の関連研究ではこのコーパスを使用した研究が行われているが,日本語で同様のコーパスは流通していない\cite{seki2013tod}.したがって,こうした研究を促進するためには,日本語で同様のコーパスを開発する必要がある.また,レビューにとどまらない広い範囲のドメインを対象とした意見の違いなども明らかにする必要がある.本研究が対象とするコミュニティQAは,ブログなどと比較して,カテゴリに対して投稿内容が適合しているという特徴がある.具体的には,コミュニティQAサービスにおいて,ユーザは,適切な回答を得る必要性から,提供している質問カテゴリ\footnote{http://list.chiebukuro.yahoo.co.jp/dir/dir\_list.php?fr=common-navi}に対して適合した投稿を行う.これは,さまざまな話題を投稿するため,必ずしも事前に設定したカテゴリにはそぐわない話題を投稿する傾向のあるブログとの大きな違いである.また,ニュースやレビューと比べると,生活に密着した多様な話題が投稿される.これらを踏まえ,Yahoo!知恵袋の複数の質問カテゴリを対象としたコーパスを開発し,詳細な分類体系に基づく意見情報を重ね合わせて分析することにより,ドメインごとの意見の傾向の違いを明らかにすることを目指す.本論文の構成は以下のとおりである.\ref{sec:related}節では,関連研究を紹介する.\ref{sec:corpus}節では,コミュニティQAを対象とした意見分析のためのアノテーションの方針について述べる.\ref{sec:communityQA_annotation}節では,コミュニティQAを対象とした意見情報のアノテーション作業の特徴について議論する.\ref{sec:analysis}節では,Yahoo!知恵袋を対象として構築した意見分析コーパスを使用して,質問と回答や,ドメインあるいはコミュニケーションの目的に応じて出現する意見の性質の違いを明らかにする.最後に,\ref{sec:conclusion}節で結論をまとめる.
V06N07-06
機械翻訳等の自然言語処理システムでの品質向上におけるボトルネックとして構文解析の問題があり,解析する文が長くなると係り受け処理で解析を誤る場合がある.このため,長文を意識した構文解析の品質向上に向け各種研究が行われているが,依然として未解決のまま残されている課題がある.そのような課題の一つに連体形形容詞に関する係りがある.この課題に対し,我々は,連体形形容詞周りの「が」格,「の」格の係り決定ルールを提案し,技術文でよく利用される形容詞に対して約97%の精度で係りを特定できることを示した(菊池,伊東~1999).しかし,そこで対象とした形容詞は技術文での出現頻度を考慮して選択したので,抽出したルールが形容詞全般に対しても有効かどうか,また,同様な考え方が形容詞全般に対しても成り立つのかどうかについては検証できていなかった.そこで,本論文では,分析対象を広げ,抽出済みルールが形容詞全般に対して妥当なものであるかどうかを検証し,必要に応じてルールの拡張を行う.用語のスパース性のため形容詞全般にルールが適用可能かどうかを調べることは\mbox{困難である.}そのため,分析対象語のカバー範囲を明確にする必要がある.そこで,国立国語研究所で行われた分析体系(西尾~1972)に基づいて,形容詞を分類し,その分類体系を網羅するように各形容詞を選び,その係りの振る舞いを調べることとした.このような分析を通し,若干のルール拡張を行い,最終的に今回拡張した形容詞群に対しても,約95%という高い精度で係りを特定できることを示す.第2章では,我々がこれまでに提案した係りに関するルールを概説し,その問題点を\mbox{整理する.}第3章では,国立国語研究所での研究に基づき形容詞全体を分類整理する尺度を定め,多様なタイプの形容詞を分析対象として抽出可能とする.また,本論文で利用するコーパスについても説明する.第4章では形容詞無依存ルールと形容詞依存ルールに分けて検証し,その精度とルールの拡張について述べる.また,今回までに,7000件を越えるデータが蓄積されたので,直感的に決定していた形容詞無依存ルールのルール間の適用順位についても検証する.第5章では,対象語の拡張に伴い,新たに検出できたルールについて説明を行い,全ルールを適用した後に得られる各形容詞の係りのDefault属性について説明する.第6章では,それらを適用した結果の係り解釈の精度と現行システムとの比較を行う.
V06N06-01
電子化されたテキストが世の中に満ち溢れ,情報洪水という言葉が使われるようになってからかなりの歳月を経ている.しかし,残念ながら,我々の情報処理能力は,たとえ処理しなければならない情報が増えたとしても,それほど向上はしない.そのため,自動要約技術などにより,読み手が読むテキストの量を制御できることが求められている.また,近年情報検索システムを利用する機会も増えているが,システムの精度の現状を考慮すると,ユーザは,システムの提示した候補が適切なものであるかどうかをテキストを見て判断せざるを得ない.このような場合,要約をユーザに提示し,それを見て判断を求めるようにすると,ユーザの負荷を減らす支援が行なえる.自然言語処理の分野では,近年頑健な解析手法の開発が進み,これと,上に述べたような,自動要約技術の必要性の増大が重なり,自動要約に関連した研究は,90年代の中頃になって,再び脚光を集め始めている.市販ソフトウェアも続々と発売されており,アメリカではDARPA支援のTipsterプロジェクトで要約が新しい研究課題とされたり\cite{hand:97:a},また,ACL,AAAIなどで要約に関するワークショップ,シンポジウムが相次いで開催され,盛況で活発な議論が交わされた.日本でも,98年3月の言語処理学会年次大会に併設して,要約に関するワークショップが開催され,それを機会に本特集号の編集が企画された.本稿では,このような現状を鑑み,これまでの(主に領域に依存しない)テキスト自動要約手法を概観する.また,これまでの手法の問題点を上げるとともに,最近自動要約に関する研究で注目を集めつつある,いくつかのトピックについてもふれる.本特集号の各論文が,テキスト自動要約研究として,どのような位置付けにあるかを知る上で,本稿が参考になれば幸いである\footnote{各論文の個別の紹介は,増山氏の編集後記を参照して頂きたい.}.要約研究は時に,情報抽出(InformationExtraction)研究と対で(あるいは,対比して)述べられることがある.どちらも,テキスト中の重要な情報を抜き出すという点では共通するが,情報抽出は,あらかじめ決められた「枠」を埋める形で必要な情報を抜き出す.そのため,領域に依存してあらかじめ枠を用意する必要があったり,また,領域に依存したテキストの特徴を利用した抽出手法を用いたりするため,領域を限定することが不可欠となる\footnote{情報抽出研究に関する解説としては,\cite{cowie:96:a,sekine:99:a}を参照されたい.また,DARPAが支援する情報抽出のプロジェクトであるMUC(MessageUnderstandingConference)に関しては,若尾の解説\cite{wakao:96:a}を参照して頂きたい.}.要約は,原文の大意を保持したまま,テキストの長さ,複雑さを減らす処理とも言えるが,その過程は,大きく次の3つのステップに分けられるとされる:テキストの解釈(文の解析とテキストの解析結果の生成),テキスト解析結果の,要約の内部表現への変形(解析結果中の重要部分の抽出),要約の内部表現の要約文としての生成.しかし,これまでの研究では,これらのステップは,テキスト中の重要箇所(段落,文,節,など)の抽出およびその連結による生成として実現されることが多かった.そのため,本稿では以後重要箇所の抽出を中心に解説する.2節では,まず重要箇所抽出に基づく要約手法について述べる.2.1節で重要箇所抽出に用いられてきた,さまざまな情報を取り上げ,それぞれを用いた要約手法について述べる.2.2節では,それらの情報を統合して用いることで,重要箇所を抽出する研究について概観する.2.3節では,重要箇所抽出に基づく要約手法の問題点について述べる.このようなテキスト要約手法が伝統的に研究されてきた一方で,近年要約を研究するに当たって考慮するべき要因として,以下の3つが提示されている\cite{sparck:98:a}.\begin{enumerate}\item入力の性質--テキストの長さ,ジャンル,分野,単一/複数テキストのどちらであるか,など\item要約の目的--どういう人が(ユーザはどういう人か),どういう風に(要約の利用目的は何か)\footnote{要約は一般に,その利用目的に応じて,次の2つのタイプに分けられることが多い\cite{hand:97:a}.\begin{description}\item[indicative:]原文の適切性を判断するなど,原文を参照する前の段階で用いる\item[informative:]原文の代わりとして用いる\end{description}},など\item出力の仕方\end{enumerate}たとえば,入力テキストのジャンルによっては,重要箇所抽出による要約が難しいものも考えられるし,また,要約というもの自体が考えにくいものもあり得る.ユーザの持つ予備知識の程度に応じて,要約に含める情報量は変えるべきであると考えられるし,また,利用目的が異なれば,その目的に応じた適切な要約が必要と考えられる.これまでの伝統的な要約研究は,このような要因に関して十分な考慮をしたものとは必ずしも言えない.しかし,これらの要因を考慮して,入力の性質,要約の目的に応じた適切な要約手法を開発する動きが活発になってきている.このような,自動要約に関する研究で最近注目を集めつつある,いくつかのトピックについても本稿ではふれる.3,4,5節ではそれぞれ,抽象化,言い換えによる要約,ユーザに適応した要約,複数テキストを対象にした要約に言及する.6,7節ではそれぞれ,文中の重要箇所抽出による要約,要約の表示方法について述べる.8節では,要約の評価方法について説明する.
V22N05-01
ProjectNextNLP\footnote{https://sites.google.com/site/projectnextnlp/}は自然言語処理(NLP)の様々なタスクの横断的な誤り分析により,今後のNLPで必要となる技術を明らかにしようとするプロジェクトである.プロジェクトでは誤り分析の対象のタスクが18個設定され,「語義曖昧性解消」はその中の1つである.プロジェクトではタスク毎にチームが形成され,チーム単位でタスクの誤り分析を行った.本論文では,我々のチーム(「語義曖昧性解消」のチーム)で行われた語義曖昧性解消の誤り分析について述べる.特に,誤り分析の初期の段階で必要となる誤り原因のタイプ分けに対して,我々がとったアプローチと作成できた誤り原因のタイプ分類について述べる.なお本論文では複数の誤り原因が同じと考えられる事例をグループ化し,各グループにタイプ名を付ける処理を「誤り原因のタイプ分け」と呼び,その結果作成できたタイプ名の一覧を「誤り原因のタイプ分類」と呼ぶことにする.誤り分析を行う場合,(1)分析対象のデータを定める,(2)その分析対象データを各人が分析する,(3)各人の分析結果を統合し,各人が同意できる誤り原因のタイプ分類を作成する,という手順が必要である.我々もこの手順で誤り分析を行ったが,各人の分析結果を統合することが予想以上に負荷の高い作業であった.統合作業では分析対象の誤り事例一つ一つに対して,各分析者が与えた誤り原因を持ち寄って議論し,統合版の誤り原因を決定しなければならない.しかし,誤りの原因は一意に特定できるものではなく,しかもそれを各自が独自の視点でタイプ分けしているため,名称や意味がばらばらな誤り原因が持ち寄られてしまい議論がなかなか収束しないためであった.そこで我々は「各人が同意できる誤り原因のタイプ分類」を各分析者のどの誤り原因のタイプ分類とも類似している誤り原因のタイプ分類であると考え,この統合をある程度機械的に行うために,各自が設定した誤り原因をクラスタリングすることを試みた.また,本論文では「各分析者のどのタイプ分類とも類似している」ことに対し,「代表」という用語を用いることにした.つまり,我々が設定した目標は「各分析者の誤り原因のタイプ分類を代表する誤り原因のタイプ分類の作成」である.クラスタリングを行っても,目標とするタイプ分類を自動で作成できるわけではないが,ある程度共通している誤り原因を特定でき,それらを元にクラスタリング結果を調整することで目標とする誤り原因のタイプ分類が作成できると考えた.具体的には,各自の設定した誤り原因を対応する事例を用いてベクトル化し,それらのクラスタリングを行った.そのクラスタリング結果から統合版の誤り原因を設定し,クラスタリング結果の微調整によって最終的に9種類の誤り原因を持つ統合版の誤り原因のタイプ分類を作成した.この9種類の中の主要な3つの誤り原因により,語義曖昧性解消の誤りの9割が生じていることが判明した.考察では誤り原因のタイプ分類間の類似度を定義することで,各分析者の作成した誤り原因のタイプ分類と統合して作成した誤り原因のタイプ分類が,各分析者の視点から似ていることを確認した.これは作成した誤り原因のタイプ分類が分析者7名のタイプ分類を代表していることを示している.また統合した誤り原因のタイプ分類と各自の誤り原因のタイプ分類を比較し,ここで得られた誤り原因のタイプ分類が標準的であることも示した.
V03N03-02
\label{sec:introduction}比喩は自然言語に遍在する.たとえば,李\cite{Yi82}によると,小説と新聞の社説とにおいて比喩表現の出現率に大差はない.また,比喩を表現する者(話し手)は,比喩により言いたいことを端的に表現する.したがって,自然言語処理の対象を科学技術文から評論や小説に拡大するためには,比喩の処理が必要である.比喩表現は,喩える言葉(喩詞)と喩えられる言葉(被喩詞)とからなる.話し手は,それを伝達か強意かに用いる\cite{Nakamura77a}.伝達のために比喩を用いるときは,伝達したい事柄が相手(聞き手)にとって未知であると話し手が判断したときである.たとえば,「湖」は知っているが「海」は知らない聞き手にたいして,「海というのは大きい湖のようなものだ」と言う場合である.強意のために比喩を用いるときは,伝達したい事柄の一つの側面を強調したいときである.たとえば,「雪のような肌」により「肌」の白さを強調する場合である.山梨\cite{Yamanashi88}は,(1)認定(2)再構成(3)再解釈の3段階により比喩が理解されると述べている.認定とは,ある言語表現が文字通りの意味ではない(比喩的意味である)ことに聞き手が気づくことをいう.再構成とは,喩詞と被喩詞と文脈とから比喩表現の意味を構成することである.再解釈とは,比喩表現の意味を被喩詞に対する新たな視点として認識し,被喩詞に対する考え方を聞き手が改めることである.本稿では,強意の比喩に対しての,聞き手の再解釈を考察の対象とする.ただし,再解釈を\begin{quote}\begin{description}\item[(3a)]被喩詞の意味と比喩表現の意味との$\dot{\mbox{ず}}\dot{\mbox{れ}}$を聞き手が認識する,\item[(3b)]その$\dot{\mbox{ず}}\dot{\mbox{れ}}$が聞き手の考え方に反映する\end{description}\end{quote}という2段階に分け,(3a)を対象にする.なお,対象とする比喩が強意の比喩であるので,聞き手にとって,喩詞の意味と被喩詞の意味とは既知である.本稿では,「AのようなB」という形の比喩表現を考察の対象とする.また,比喩表現が使われる文脈については考慮しない.第\ref{sec:formulation}章において,名詞の意味を確率により表現する.そして,比喩表現を捉える指標として明瞭性と新奇性とを定義する.これらは情報量に基づく指標である.明瞭性は比喩表現における属性の不確定さを示す指標であり,新奇性は比喩表現の示す事象の希少さに関する指標である.第\ref{sec:sd}章では,これら評価関数の妥当性を実験により示す.3種類の値,\begin{quote}\begin{description}\item[(1)]喩詞・被喩詞・比喩表現の属性集合(SD法による\cite{Osgood57})\item[(2)]喩詞・被喩詞・比喩表現における,属性の顕著性\item[(3)]比喩表現の理解容易性\end{description}\end{quote}を測定する.(1)から明瞭性と新奇性とを計算し,それらが属性の顕著性と比喩表現の理解容易性とを捉える指標として適当であることを示す.第\ref{sec:summary}章は結びである.
V07N04-04
label{hajimeni}本論文では,表現``$N_1のN_2$''が多様な意味構造を持つことを利用して,動詞を含む連体修飾節を表現``$N_1のN_2$''に言い換える手法を提案する.自然言語では,一つの事象を表すために多様な表現を用いることが可能であり,人間は,ある表現を,同じ意味を持つ別の表現に言い換えることが,しばしばある.言い換えは,自然言語を巧みに操るために不可欠な処理であり\cite{sato99},それを機械によって実現することは有用であると考えられる.例えば,文書要約において,意味を変えずに字数を削減するためや,文章の推敲を支援するシステムにおいて,同一の表現が繰り返し出現するのを避けるために必要な技術である.また,ある事象が様々な表現で表されているとき,それらの指示対象が同一であると判定するためにも必要である.{}\ref{kanren}節で述べるように,近年,言い換え処理の重要性はかなり認識されてきたと考えられるが,適切な問題の設定を行うことが比較的困難なため,言い換え処理の研究はそれほど進んでいない.佐藤\cite{sato99}は,「構文的予測の分析」から「構文的予測を分析する」への言い換えのように,動詞を含む名詞句を述語の形式に言い換える問題を設定している。また近藤ら\cite{kondo99}は,「桜が開花する」から「桜が咲く」への言い換えのように,サ変動詞を和語動詞に言い換える問題設定をしている.この他,「〜を発表しました.」から「〜を発表.」のような文末表現の言い換えや,「総理大臣」から「首相」のような省略形への言い換えなどを,言い換えテーブルを用意することによって実現している研究もある\cite{wakao97,yamasaki98}.これに対し我々は,名詞とそれに係る修飾語,すなわち連体修飾表現を異形式の連体修飾表現に言い換えるという問題設定を提案する.\ref{taishou}節に述べるように,我々は連体修飾表現を言語処理の観点から3分類し,これらの相互の変換処理を計算機上で実現することを研究の最終目標として設定し,このうち本論文において動詞型から名詞型へ変換する手法を議論する.連体修飾表現を対象にした本論文のような問題設定は従来見られないが,表現が短縮される場合は要約などに,また逆に言い換えの結果長い表現になる場合は機械翻訳などの処理に必要な処理であると考える.本問題においても,従来研究と同様言い換えテーブルを用意することで言い換え処理を実現する.しかし本論文では,その言い換えテーブルを如何にして作成するかについて具体的に述べる.連体修飾表現の言い換え可能な表現は非常に多く存在することが容易に想像でき,これらをすべて手作業で作成することは現時点においては困難である.このため,現実的な作業コストをかけることで言い換えテーブルを作成する手法を示す.本提案処理の一部にはヒューリスティックスが含まれているが,これらについても一部を提示するにとどめず,具体例をすべて開示する.本論文で言い換えの対象とする表現``$N_1のN_2$''は,2つの語$N_1$,$N_2$が連体助詞`の'によって結ばれた表現である.表現``$N_1のN_2$''は,多様な意味構造を持ち,さまざまな表現をそれに言い換えることが可能である.また,動詞を含む連体修飾節は,各文を短縮する要約手法\cite{mikami99,yamamoto95}において削除対象とされている.しかし,連体修飾節すべてを削除することにより,その名詞句の指す対象を読み手が同定できなくなる場合がある.このとき,それを``$N_1のN_2$''という表現に言い換えることができれば,名詞句の指示対象を限定し,かつ,字数を削減することが可能となる.表現``$N_1のN_2$''は多様な意味を持ちうるため,たとえ適切な言い換えがされたとしても,曖昧性が増す場合がある.しかしながら,言い換えが適切であれば,読み手は文脈や知識などを用いて理解が可能であると考えられる.以下,\ref{taishou}~節で,連体修飾表現を分類し,本論文で対象とする言い換えについて述べる.\ref{kousei}~節から\ref{NNpair}節で本手法について述べ,\ref{hyouka}~節では主観的に本手法を評価する.\ref{kousatsu}~節では,評価実験の際に明らかになった問題点などを考察する.また\ref{kanren}~節では,本論文の関連研究について論じる.
V21N02-05
label{sec:intro}自然言語処理の分野において,文章を解析するための技術は古くから研究されており,これまでに様々な解析ツールが開発されてきた.例えば,形態素解析器や構文解析器は,その最も基礎的なものであり,現在,誰もが自由に利用することができるこれらの解析器が存在する.形態素解析器としては,MeCab\footnote{http://mecab.googlecode.com/svn/trunk/mecab/doc/index.html}やJUMAN\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?JUMAN}などが,構文解析器としては,CaboCha\footnote{http://code.google.com/p/cabocha/}やKNP\footnote{http://nlp.ist.i.kyoto-u.ac.jp/index.php?KNP}などが利用可能である.近年,テキストに存在する動詞や形容詞などの述語に対してその項構造を特定する技術,すなわち,「誰がいつどこで何をするのか」という\textbf{事象}\footnote{この論文では,動作,出来事,状態などを包括して事象と呼ぶ.}を認識する技術が盛んに研究されている.日本語においては,KNPやSynCha\footnote{https://www.cl.cs.titech.ac.jp/{\textasciitilde}ryu-i/syncha/}などの解析ツールが公開され,その利用を前提とした研究を進めることが可能になってきた.自然言語処理の応用分野において,述語項構造解析の次のステップとして,文の意味を適切に解析するシステムの開発,および,その性能向上が望まれている.意味解析に関する強固な基盤を作るために,次のステップとして対象とすべき言語現象を見定め,言語学的観点および統計学的観点から具にその言語データを分析する過程が必要である.主に述語項構造で表現される事象の末尾に,「ない」や「ん」,「ず」などの語が付くと,いわゆる否定文となる.否定文では,一般に,その事象が成立しないことが表現される.否定文において,否定の働きが及ぶ範囲を\textbf{スコープ},その中で特に否定される部分を\textbf{焦点}(フォーカス)と呼ぶ\cite{neg2007}.否定のスコープと焦点の例を以下に示す.ここでは,注目している否定を表す表現を太字にしており,そのスコープを角括弧で囲み,焦点の語句に下線を付している.\begin{enumerate}\item雪が降っていたので、[ここに\underline{車では}来ませ]\textbf{ん}でした。\item別に[\underline{入りたくて}入った]\textbf{のではない}。\end{enumerate}文(1)において,否定の助動詞「ん」のスコープは,「ここに車では来ませ」で表現される事象である.文(1)からは,この場所に来たが,車を使っては来なかったことが読み取れるので,否定の焦点は,「車では」である.文(2)において,否定の複合辞「のではない」のスコープは,「入りたくて入った」であり,否定の焦点は,「入りたくて」であると解釈できる.文(1)も文(2)もいずれも否定文であるが,成立しない事象のみが述べられているわけではない.文(1)からは,書き手がここに来たことが成立することが読み取れ,文(2)からは,書き手がある団体や部活などに入ったことが事実であることが読み取れる.一般に,否定文に対して,スコープの事象が成立しないことが理解できるだけでなく,焦点の部分を除いた事象は成立することを推測することができる\cite{neg2007,EduardoMoldo2011b}.ゆえに,自然言語処理において,否定の焦点を的確に特定することができれば,否定文を含むテキストの意味を計算機がより正確に把握することができる.このような技術は,事実性解析や含意認識,情報検索・情報抽出などの応用処理の高度化に必須の技術である.しかしながら,現在のところ,日本語において,実際に否定の焦点をラベル付けしたコーパスや,否定の焦点を自動的に特定する解析システムは,利用可能ではない.そこで,本論文では,否定の焦点検出システムを構築するための基盤として,日本語における否定の焦点に関する情報をテキストにアノテーションする枠組みを提案する.提案するアノテーション体系に基づいて,既存の2種類のコーパスに対して否定の焦点の情報をアノテーションした結果についても報告する.日本語において焦点の存在を明確に表現する時に,しばしば,「のではない」や「わけではない」といった複合辞が用いられる.また,「は」や「も」,「しか」などに代表されるとりたて詞\cite{toritate2009}は,否定の焦点となりやすい.我々のアノテーション体系では,前後の文脈に存在する判断の手がかりとなった語句とともに,これらの情報を明確にアノテーションする.本論文は,以下のように構成される.まず,2章において,否定のスコープおよび否定の焦点を扱った関連研究について紹介する.次に,3章で,否定の焦点アノテーションの基本指針について述べる.続く4章で,与えられた日本語文章に否定の焦点をアノテーションする枠組みを説明する.5章で,既存の2種類のコーパスにアノテーションした結果について報告する.6章はまとめである.
V15N04-04
計算機科学でいう「オントロジー」とは,ある行為者や行為者のコミュニティーに対して存在しうる概念と関係の記述であり「概念」というのは,何らかの目的のために表現したいと思う抽象的で単純化した世界観である(Gruber1992).認知科学では,「概念」について外延的意味(事例集合で定義された意味)と内包的意味(属性の集合から定義された意味)の見方があるとする\cite{Book_02}.我々の認知活動の中で,概念化は,語,文,文脈,動作の仕方,事柄,場面など,様々なレベルで行われている.では,なぜ対象の概念化が必要かというと,河原では,MedinandGoldstone\nocite{book_24}を引用して「概念」の機能を次のように述べている(MedinandGoldstone1990;河原2001)「現在の経験を,あるカテゴリの成員とみなす(分類)ことで,その経験を意味のあるまとまりとして解釈し(理解と説明),そこから将来に何がおきるか(予測)や関連する別の知識(推論)を引き出すことが可能になる(コミュニケーション).その他,複数の概念を表す語を組み合わせて新たな概念を生成したり,新たな概念の記述を生成してから,その記述にあう事例を検索することもできる」.つまり,人間や計算機が効率的に柔軟な活動をするために,概念と,(言語化する・しないにかかわらず)概念の具体化された表現(あるいは事例)の総体である「オントロジー」は重要な役割を担っているといえる.我々が対象とする言語的オントロジー,特に,語彙の概念を体系化したオントロジーは,概念体系や意味体系と呼ばれ10年以上前から人手で構築されてきた(EDR電子化辞書(日本電子化辞書研究所1995)や分類語彙表\cite{book_16}など).その目的は,ある特定のアプリケーションでの利用ではなく,我々の言語知識を体系化することであり,その知識体系を利用して計算機に予測・推論・事例の検索・新たな概念の理解など,深い意味処理をさせることを目的としている.本研究がめざす「形容詞のオントロジー」の目的も,従来の語彙的なオントロジーの目的と同様に,計算機や人間が,形容詞を使って表現する知識の体系化をはかるものである.ここで本研究の「形容詞」とは,形容詞と形容動詞を含むものとする.従来のものと異なる点は,実データからの獲得を図るため,運用の実態を反映したオントロジーを得ようとすることである.人間の内省による分析の場合,概念記述を行う個々人の言語的経験から,概念体系の粒度や概念記述に差異がでてくる.心理実験のように,複数の人が同じタスクをすれば共通の傾向もとれるが,通常のプロジェクトでは同じ個所に多くの人を投入することは不可能である.自動獲得の目的は,できるだけ実際の言語データから言語事実を反映した結果を得ることである.一つ一つのテキストは個々人の記述だが,それを量的に集めれば,複数の人のバリエーションを拾うことができ,結果的に多くの人の言語運用の実態をとることができる.言語データから意味関係を反映した概念体系を捉えられれば,人間の内省によって作られたオントロジーや言語学的知見,意味分類などと比較することは意義があるのではないかと考える.ところで,コーパスからの語彙のクラスタリングや上位下位関係の自動構築などについては,Webの自動アノテーションやインデックス,情報検索など,その目的は様々であるが,そのほとんどが,名詞や動詞を対象にした分類や関係抽出である.形容詞や副詞に関する研究はまだ少ない.しかし,形容詞や副詞が語彙のオントロジーにとって重要でないわけではなく,たとえば,WordNetで形容詞の意味情報が手薄であることを指摘し,イタリア語形容詞の意味情報を導入することで,ヨーロッパの複数言語で共同開発しているEuroWordNetの抽象レベルの高い概念体系(EuroWordNetTopOntology)に変更を加えることを試みている研究がある\cite{Inproc_01}.オントロジーの主要な関係の一つに,類義関係と階層関係がある.形容詞概念を表すような抽象的な名詞の類義関係については,馬らなどの研究がある\cite{Article_21}.しかし,形容詞概念の階層関係については,まだ研究が進んでいない.本研究では,形容詞概念の階層関係に着目し,コーパスから取得した概念から階層を構築する方法と,妥当そうな階層を得るための評価について述べる.本研究で扱う概念数は約365概念であり,それに対しEDR電子化辞書の形容詞の概念数が約2000概念ほどと考えると取り扱うべき概念はさらに増える可能性があるが,本研究は,現時点よりも多くの概念数を扱うために,まず,現段階での概念数で,階層構築とその評価方法について実験および考察を行ったものである.我々は,第2節でオントロジーのタイプの中で本研究がめざすオントロジーについて述べ,第3節で先行研究の言語学的考察から,形容詞の概念を語彙化したような表現があることを述べ,形容詞の概念をコーパスから抽出する.第4節では第3節で抽出したデータをもとに複数の尺度での階層構築と,得られた階層のうち,妥当そうな階層を判別するための条件を述べ,第5節で心理実験によってEDRの形容詞概念階層と比較評価を行う.第6節でオントロジー構築に向けての今後の展望をのべ,第7節でまとめを行う.
V06N06-03
複数の関連記事に対する要約手法について述べる.近年,新聞記事は機械可読の形でも提供され,容易に検索することができるようになった.その一方で,検索の対象が長期に及ぶ事件などの場合,検索結果が膨大となり,全ての記事に目を通すためには多大な時間を要する.そのため,これら複数の関連記事から要約を自動生成する手法は重要である.そこで,本研究では複数の関連記事を自動要約することを目的とする.自動要約・抄録に関する研究は古くから存在する\cite{Okumura98}が,それらの多くは単一の文書を対象としている.要約対象の文書が複数存在し,対象文書間で重複した記述がある場合,単一文書を対象とした要約を各々の文書に適用しただけでは重複した内容を持つ可能性があり,これに対処しなければならない.対象とする新聞記事は特殊な表現上の構成をもっており\cite{Hirai84},各記事の見出しを並べると一連の記事の概要をある程度把握することができる.さらに詳細な情報を得るためには,記事の本文に目を通さなければならない.ところが,新聞記事の構成から,各記事の第一段落には記事の要約が記述されていることが多い.これを並べると一連の記事の十分な要約になる可能性がある.しかし,各記事は単独で読まれることを想定して記述されているため,各記事の第一段落の羅列は,重複部分が多くなり,冗長な印象を与えるため読みにくい.そこで,複数の記事を1つの対象とし,その中で重複した部分を特定,削除し,要約を生成する必要がある.本論文で提案する手法は複数関連記事全体から判断して,重要性が低い部分を削除することによって要約を作成する.重要性が低い部分を以下に示す冗長部と重複部の2つに分けて考える.なお,本論文で述べる手法が取り扱う具体的な冗長部,重複部は\ref{要約手法}節にて説明する.\begin{description}\item[冗長部:]単一記事内で重要でないと考えられる部分.\item[重複部:]記事間で重複した内容となっている部分.\end{description}従来の単一文書を対象とした削除による要約手法は,換言すると冗長部を削除する手法であるといえる.重複部は,複数文書をまとめて要約する場合に考慮すべき部分である.本研究において目標とする要約が満たすべき要件は\begin{itemize}\itemそれぞれの単一記事において冗長部を含まないこと,\item記事全体を通して重複部を含まないこと,\item要約を読むだけで一連の記事の概要を理解できること,\itemそのために各記事の要約は時間順に並べられていること,\itemただし,各記事の要約は見出しの羅列より詳しい情報を持つこと,\end{itemize}である.本研究では,時間順に並べた各記事の第一段落に対して要約手法を適用し,記事全体の要約を生成する.したがって,本手法により生成される要約は,見出しの羅列よりも詳しいが第一段落の羅列よりは短かい要約である.以上により,事件等の出来事に関する一連の流れが読みとれると考える.具体的な要約例として付録\ref{ex_summary}を挙げる.この要約例は本論文の\ref{要約手法}節で説明する手法を適用して作成した.この要約例には重複部が多く存在し,それらが本要約手法によって削除された.重複部の削除は,それが正しく特定されている限り適切であると考えることができる.なぜならば,重複部分が既知の情報しか持たず,重要性が低いことは明らかだからである.また,実際の評価においても,要約例\ref{ex_summary}について本手法による削除が不適切とされた部分はなかった.冗長部の特定は重要性の指針を含むことであり,要約に対する視点,要求する要約率などにより変化するので,評価もゆれることが考えられる.これは従来の単一文書に対する要約評価においても同様に問題とされていることである.したがって,付録\ref{ex_summary}に挙げた要約例も重複部の削除に関しては妥当であると言えるが,冗長部の削除については,その特定が不十分であり,削除が不適切である部分が存在すると言える.しかしながら,付録\ref{ex_summary}に挙げた要約例は,実際のところ,記事の概要を把握するためには十分な要約になっている.評価においても,削除が不適切であると指摘された部分はなく,冗長であると指摘された部分を数ヶ所含んだ要約である.新聞記事検索時などにおいて,利用者が関連する一連の記事の要約を求めることは,関連記事数が多ければ多いほど頻繁に起こると想定できる.このとき,本研究が目的とする要約によって,関連記事群全体の概要を知ることができれば,次の検索への重要な情報提供が可能となる.また,見出しの羅列のみでは情報量として不十分であるが,第一段落の羅列では文書量が多すぎる場合に,適切な情報を適切な文書量で提供できると考えられる.換言すれば,段階的情報(要約)提示の一部を担うことが可能となる.したがって,本研究において目標とする要約が満たすべき要件として,重複部・冗長部を含まないのみならず,一連の記事を時間順に並べることが挙げられていることは妥当である.冗長部はどのような記事にも含まれる可能性があるが,重複部は記事の文体によっては特定することが困難となる場合がある.逆に,重複部が存在する場合,複数関連記事要約の観点からそれを削除することは妥当である.一般的に新聞記事の記述の方法から,長い時間経過を伴う一連の関連記事の場合には重複部が多く存在することが予想できる.そのような記事群は一連の事件や政治的出来事に関する場合が多い.また,このような関連記事に対する要約の需要は多く,本論文で示す重複部・冗長部の削除による要約は十分に実用性があると考える.実際に,要約例\ref{ex_summary}はある事件について述べられている一連の記事群であるが,これは既に述べた効果を持ち,おおむね本研究の目指す要約であると言える.本論文では上記の処理がヒューリスティックスにより実現可能であることを示し,そのための手法を提案する.そしてこの手法を実装し,評価実験を通して手法の有効性を確認する.以下では,\ref{関連研究}節にて本研究に関連する研究について触れ,\ref{要約手法}節では,本論文で提案する要約手法について述べる.\ref{評価実験}節では\ref{要約手法}節で述べた手法を用いて行った実験とアンケート評価について示す.そして,\ref{議論}節で評価結果について議論し,最後に本論文のまとめを示す.
V12N04-03
本論文では,構造化された言語資料の検索・閲覧を指向した全文検索システムである『ひまわり』の設計,および,その実現方法を示す。ここで言う「構造化された言語資料」とは,コーパスや辞書のように,言語に関する調査,研究などに利用することを目的として,一定の構造で記述された資料一般を指す。近年,さまざまな言語資料を計算機で利用できるようになってきた。例えば,新聞,雑誌,文学作品などのテキストデータベース(例:『毎日新聞テキストデータベース』\shortcite{mainichi})やコーパス(例:『京都大学テキストコーパス』\shortcite{kyodai_corpus},『太陽コーパス』\shortcite{tanaka2001}),シソーラスなどの辞書的なデータ(例:『分類語彙表』\shortcite{bunrui})がある。また,音声情報や画像情報などのテキスト以外の情報をも含有するコーパス(例:『日本語話し言葉コーパス』\shortcite{maekawa2004}など)も現れている。言語資料には,書名や著者名などの書誌情報や,形態素情報,構文情報といった言語学的な情報が付与されており,言語に関する調査,研究における有力な基礎資料としての役割が期待されている。このような言語資料に対して検索を行うには,二つの「多様性」に対応する必要があると考える。一つは,構造化形式の多様性である。構造化された言語資料は,一般的に固有の形式を持つことが多い。したがって,検索システムは,検索の高速性を維持しつつ,多様な形式を解釈し,言語資料に付与されている書誌情報や,形態素情報や構文情報などの言語学的情報を抽出したり,検索条件として利用したりできる必要がある。もう一つの多様性は,利用目的の多様性である。ここで言う「利用目的の多様性」とは,検索対象の言語資料の種類や利用目的の違いにより,資料に適した検索条件や閲覧形式,さらには検索時に抽出する情報が異なってくることを指す。例えば,辞書を検索する場合は,見出し語や代表表記に対して検索を行い,単一の語の単位で情報を閲覧するのが一般的である。一方,新聞記事の場合は,記事本文やタイトルに含まれる文字列をキーとして,発行年などを制約条件としつつ検索し,前後文脈や記事全体を閲覧するのが一般的であろう。このように,言語資料を対象とした検索システムは,言語資料の性質と利用目的にあった検索式や閲覧形式を柔軟に定義できる必要がある。以上のような背景のもと,構造化された言語資料に対する全文検索システム『ひまわり』の設計と実現を行う。構造化形式の多様性に対しては,現在,広範に利用されているマークアップ言語であるXMLで記述された言語資料を検索対象と想定し,XML文書に対する全文検索機能を実現する。この際,検索対象とすることのできるXML文書の形式は,XML文書全体の構造で規定するのではなく,検索対象の文字列とそれに対して付与されている情報との文書構造上の関係により規定する。また,検索の高速化を図るため,SuffixArray方式など,いくつかの索引を利用する。次に,利用目的の多様性に関しては,検索式と閲覧方式を柔軟に設定できるよう設計する。まず,検索式を柔軟に設定するために,言語資料の検索にとって必要な要素を,検索対象の文字列とそれに対して付与されている情報との構造上の関係に基づいて選定する。一方,閲覧形式については,KWIC表示機能を備えた表形式での閲覧を基本とする。それに付け加えて,フォントサイズやフォント種,文字色などの表示スタイルの変更や音声,画像の閲覧に対応するために,外部の閲覧システムへデータを受け渡す方法を用いる。本論文の構成は,次のようになっている。まず,2節では,『ひまわり』を設計する上で前提となる条件を述べる。3節では,システムの全体的な構造と各部の説明を行う。4節では,言語資料の構造に対する検討を元にした検索方式について詳説する。5節では,『分類語彙表』と『日本語話し言葉コーパス』に本システムを適用し,言語資料と利用目的の多様性に対応できるか定性的に検証するとともに,検索速度の面から定量的な評価も行う。6節で関連研究と本研究とを比較することにより,本研究の位置づけと有用性を確認し,最後に,7節でまとめを行う。
V03N02-01
\label{haji}終助詞は,日本語の会話文において頻繁に用いられるが,新聞のような書き言葉の文には殆んど用いられない要素である.日本語文を構造的に見ると,終助詞は文の終りに位置し,その前にある全ての部分を従要素として支配し,その有り方を規定している.そして,例えば「学生だ」「学生だよ」「学生だね」という三つの文が伝える情報が直観的に全く異なることから分かるように,文の持つ情報に与える終助詞の影響は大きい.そのため,会話文を扱う自然言語処理システムの構築には,終助詞の機能の研究は不可欠である.そこで,本稿では,終助詞の機能について考える.\subsection{終助詞の「よ」「ね」「な」の用法}まずは,終助詞「よ」「ね」「な」の用法を把握しておく必要がある.終助詞「よ」「ね」については,\cite{kinsui93-3}で述べられている.それによると,まず,終助詞「よ」には以下の二つの用法がある.\begin{description}\item[教示用法]聞き手が知らないと思われる情報を聞き手に告げ知らせる用法\item[注意用法]聞き手は知っているとしても目下の状況に関与的であると気付いていないと思われる情報について,聞き手の注意を喚起する用法\end{description}\res{teach}の終助詞「よ」は教示用法,\rep{remind}のそれは注意用法である.\enumsentence{あ,ハンカチが落ちました{\dgよ}.}\label{teach}\enumsentence{お前は受験生だ{\dgよ}.テレビを消して,勉強しなさい.}\label{remind}以上が\cite{kinsui93-3}に述べられている終助詞「よ」の用法であるが,漫画の中で用いられている終助詞を含む文を集めて検討した結果,さらに,以下のような,聞き手を想定しない用法があった.\enumsentence{「あーあまた放浪だ{\dgよ}」\cite{themegami}一巻P.50}\label{hitori1}\enumsentence{「先輩もいい趣味してる{\dgよ}」\cite{themegami}一巻P.114}\label{hitori2}本稿ではこの用法を「{\dg独り言用法}」と呼び,終助詞「よ」には,「教示」「注意」「独り言」の三用法がある,とする.次に,終助詞「ね」について,\cite{kinsui93-3}には以下の三種類の用法が述べられている.\begin{description}\item[確認用法]話し手にとって不確かな情報を聞き手に確かめる用法\item[同意要求用法]話し手・聞き手ともに共有されていると目される情報について,聞き手に同意を求める用法\item[自己確認用法]話し手の発話が正しいかどうか自分で確かめていることを表す用法\end{description}\rep{confirm}の終助詞「ね」は確認用法,\rep{agree}Aのそれは同意要求用法,\rep{selfconfirm}Bのそれは自己確認用法である.\enumsentence{\label{confirm}\begin{tabular}[t]{ll}\multicolumn{2}{l}{(面接会場で)}\\面接官:&鈴木太郎君です{\dgね}.\\応募者:&はい,そうです.\end{tabular}}\enumsentence{\label{agree}\begin{tabular}[t]{ll}A:&今日はいい天気です{\dgね}.\\B:&ええ.\end{tabular}}\enumsentence{\label{selfconfirm}\begin{tabular}[t]{ll}A:&今何時ですか.\\B:&(腕時計を見ながら)ええと,3時です{\dgね}.\end{tabular}}以上が,\cite{kinsui93-3}で述べられている終助詞「ね」の用法であるが,本稿でもこれに従う.\rep{confirm},\rep{agree}A,\rep{selfconfirm}Bの終助詞の「ね」を「な」に代えてもほぼ同じような文意がとれるので,終助詞「な」は,終助詞「ね」と同じ三つの用法を持っている,と考える.ところで,発話には,聞き手を想定する発話と,聞き手を想定しない発話があるが,自己確認用法としての終助詞「ね」は主に聞き手を想定する発話で,自己確認用法としての終助詞「な」は主に聞き手を想定しない発話である.さらに,\res{megane}のような,終助詞「よ」と「ね/な」を組み合わせた「よね/よな」という形式があるが,これらにも,終助詞「ね」「な」と同様に,確認,同意要求,自己確認用法がある.\enumsentence{(眼鏡を探しながら)私,眼鏡ここに置いた{\dgよね}/{\dgよな}.}\label{megane}\subsection{従来の終助詞の機能の研究}さて,以上のような用法の一部を説明する,計算言語学的な終助詞の機能の研究は,過去に,人称的分析によるもの\cite{kawamori91,kamio90},談話管理理論によるもの\cite{kinsui93,kinsui93-3},Dialoguecoordinationの観点から捉えるもの\cite{katagiri93},の三種類が提案されている.以下に,これらを説明する.ところで,\cite{kawamori91}では終助詞の表す情報を「意味」と呼び,これに関する主張を「意味論」と呼んでいる.\cite{kinsui93,kinsui93-3}では,それぞれ,「(手続き)意味」「(手続き)意味論」と呼んでいる.\cite{katagiri93}では,終助詞はなにがしかの情報を表す「機能(function)」があるという言い方をしている.本論文では,\cite{katagiri93}と同様に,「意味」という言葉は用いずに,終助詞の「機能」を主張するという形を取る.ただし,\cite{kawamori91},\cite{kinsui93,kinsui93-3}の主張を引用する時は,原典に従い,「意味」「意味論」という言葉を用いることもある.\begin{flushleft}{\dg人称的分析による意味論}\cite{kawamori91,kamio90}\end{flushleft}この意味論では,終助詞「よ」「ね」の意味は,「従要素の内容について,終助詞『よ』は話し手は知っているが聞き手は知らなそうなことを表し,終助詞『ね』は話し手は知らないが聞き手は知っていそうなことを表す」となる.この意味論では,終助詞「よ」の三用法(教示,注意,独り言)のうち教示用法のみ,終助詞「ね」の三用法(確認,同意要求,自己確認)のうち確認用法のみ説明できる.終助詞「よ」と「ね」の意味が同時に当てはまる「従要素の内容」はあり得ないので,「よね」という形式があることを説明出来ない.また,聞き手が終助詞の意味の中に存在するため,聞き手を想定しない終助詞「よ」「ね」の用法を説明できない.この二つの問題点(とその原因となる特徴)は,後で述べる\cite{katagiri93}の主張する終助詞の機能でも同様に存在する.\begin{flushleft}{\dg談話管理理論による意味論}\cite{kinsui93,kinsui93-3}\end{flushleft}この意味論では,「日本語会話文は,『命題+モダリティ』という形で分析され,この構造は『データ部+データ管理部』と読み替えることが出来る」,という前提の元に,以下のように主張している.終助詞は,データ管理部の要素で,当該データに対する話し手の心的データベース内における処理をモニターする機能を持っている.この意味論は,一応,前述した全用法を説明しているが,終助詞「よ」に関して,後に\ref{semyo}節で述べるような問題点がある.終助詞「ね」「な」に関しても,「終助詞『ね』と『な』の意味は同じ」と主張していて,これらの終助詞の性質の差を説明していない点が問題点である.\begin{flushleft}{\bfDialoguecoordination}{\dgの観点から捉えた終助詞の機能}\cite{katagiri93}\end{flushleft}\cite{katagiri93}では,以下のように主張している.終助詞「よ」「ね」は,話し手の聞き手に対する共有信念の形成の提案を表し,さらに,終助詞「よ」は話し手が従要素の内容を既に信念としてアクセプトしていることを,終助詞「ね」は話し手が従要素の内容をまだ信念としてアクセプトしていないことを,表す.これらの終助詞の機能は,終助詞「よ」の三用法(教示,注意,独り言)のうち独り言用法以外,終助詞「ね」の三用法(確認,同意要求,自己確認)のうち,自己確認用法以外を説明できる.この終助詞の機能の問題点は,\cite{kawamori91,kamio90}の意味論の説明の終りで述べた通りである.\subsection{本論文で提案する終助詞の機能の概要}本論文では,日本語会話文の命題がデータ部に対応しモダリティがデータ管理部に対応するという\cite{kinsui93-3}の意味論と同様の枠組を用いて,以下のように終助詞の機能を提案する.ただし,文のデータ部の表すデータを,簡単に,「文のデータ」と呼ぶことにする.終助詞「よ」は,データ管理部の構成要素で,「文のデータは,発話直前に判断したことではなく,発話時より前から記憶にあった」という,文のデータの由来を表す.終助詞「ね」「な」も,データ管理部の構成要素で,発話時における話し手による,文のデータを長期的に保存するかどうか,するとしたらどう保存するかを検討する処理をモニターする.さて,本稿では,終助詞を含む文の,発話全体の表す情報と終助詞の表す情報を明確に区別する.つまり,終助詞を含む文によって伝えられる情報に,文のデータと話し手との関係があるが,それは,終助詞で表されるものと語用論的制約で表されるものに分けることができる.そこで,どこまでが終助詞で表されるものかを明確にする.ただし,本稿では,活用形が基本形(終止形)または過去形の語で終る平叙文を従要素とする用法の終助詞を対象とし,名詞や動詞のテ形に直接付加する終助詞については,扱わない(活用形の呼び方については\cite{katsuyou}に従っている).また,上向きイントネーションのような,特殊なイントネーションの文も扱わない.さらに,終助詞「な」は,辞書的には,命令の「な」,禁止の「な」,感動の「な」があるが,本稿では,これらはそれぞれ別な語と考え,感動の「な」だけ扱う.以下,本論文では,\ref{bconcept}節で,我々の提案する終助詞の機能を表現するための認知主体の記憶モデルを示し,これを用いて\ref{sem}節で終助詞の機能を提案し,終助詞の各用法を説明する.\ref{conclusion}節は結論である.
V09N03-07
近年,テキスト自動要約の研究が活発化するとともに,要約の評価方法が研究分野内の重要な検討課題の一つとして認識されてきている.これまで提案されてきた要約の評価方法は,内的な(intrinsic)評価と外的な(extrinsic)評価の2種類に分けることができる\cite{Sparck-Jones:1996}.内的な評価とは,システムの出力した要約そのものを,主に内容と読みやすさの2つの側面から評価する方法である.一方,外的な評価とは,要約を利用して人間がタスクを行う場合の,タスクの達成率が間接的に要約の評価となるという考え方に基づいて評価を行う方法である.本研究では,近年活発にその評価方法が議論され,改良が試みられている内的な評価,特に内容に関する評価方法に焦点を当てる.これまでの要約の内容に関する評価は,人手で作成した抜粋と要約システムの出力との一致の度合を,F-measure等の尺度を用いて測るのが典型的な方法であった.しかし,Jingら\cite{jing:98:a}は,要約のF-measureによる評価と外的な評価を分析し,F-measureには「テキスト中に類似の内容を含む文が複数存在する場合,どちらの文が正解として選択されるかにより,システムの評価は大きく変化する」という問題があることを指摘している.この問題点を解決する方法がこれまでにいくつか提案されている.Radevら\cite{radev:00:a}は,文のutilityという概念を用いた評価方法を示している.文のutilityとは,そのテキストの話題に対する各文の適合度(重要度)を10段階で表したものであり,正解の文のutilityにどのくらい近いutilityの文を選択できるかで評価を行なう.しかし,このような適合性の評価は被験者への作業負荷が大きいという問題がある.Donawayら\cite{Donaway:2000}は,人間の作成した正解要約の単語頻度ベクトルとシステムの要約の単語頻度ベクトルの間のコサイン距離で評価するcontent-basedな評価を提案している.content-basedな評価では,指定された要約率の正解要約を一つだけ用意すれば評価可能であるため,utilityに基づく評価に比べ,被験者への負荷が少ない.しかし,この評価方法で2つの要約を比較する場合,どの程度意味があるのかについては,これまで十分な議論がなされていない.そこで,本研究では,まず,utilityに基づく評価の問題点を改良する新しい評価方法を提案する.一般に低い要約率の抜粋に含まれる文は高い要約率の抜粋中の文よりも重要であると考えられる.このような考えに基づけば,あるテキストに関して複数の要約率のデータが存在する場合,テキスト中の各文に重要度を割り振ることが可能であるため,utilityに基づく評価を疑似的に実現することができる.これまでの要約研究において,1テキストにつき複数の要約率で正解要約が作成されたデータは数多く存在する(例えば,\cite{jing:98:a})ことから,提案する評価方法に用いるデータの作成にかかる負荷は決して非現実的なものではなく,utilityを直接被験者が付与するより負荷は小さいと考えられる.本研究では,評価型ワークショップNTCIR2の要約サブタスクTSC(TextSummarizationChallenge)\cite{Fukushima:2001a,Fukushima:2001b}で作成された10\%,30\%,50\%の3種類の要約率の正解データを用いて,提案方法により評価を行う.この評価結果をF-measureによる結果と比較し,提案方法がF-measureによる評価を改善できることを示す.次に,本研究では,content-basedな評価を取り上げる.同様にTSCのデータを用いて,人間の主観評価の結果と比較し,これまで十分議論されていないその有用性に関する議論を行う.本論文の構成は以下のとおりである.次節では,まず,これまで提案されてきた内的な評価方法,特にF-measureの問題点の解消方法について述べる.3節では,本研究で提案する評価方法について説明する.4節では,F-measureと提案する評価方法を比較し,結果を報告する.また,content-basedな評価に関する調査についても述べる.最後に結論と今後の課題について述べる.
V10N01-05
大量の電子化文書が氾濫する情報の洪水という状況に我々は直面している.こうした状況を背景として,情報の取捨選択を効率的に行うための様々な手法が研究されている.近年,それらの研究の一つとして文書要約技術が注目を集めている.特にある話題に関連する複数の文書をまとめて要約する複数文書要約といわれる技術が関心を集めており,検索技術などと組み合わせることにより効率的に情報を得ることが期待できる.DocumentUnderstandingConference(DUC)\footnote{http://duc.nist.gov}や,TextSummarizationChallenge(TSC)\footnote{http://lr-www.pi.titech.ac.jp/tsc}\cite{article32}といった評価型ワークショップにおいても複数文書要約タスクが設定されており,その注目度は高い.複数文書要約も含め自動要約では,文書中から重要な情報を持つ文を抽出する重要文抽出技術用いて,その出力をそのまま要約とする手法\cite{article25,article38,article39}や,その出力から不要な表現の削除や置換,あるいは,新たな表現の挿入を行い,より自然な要約にする手法がある\cite{article47,article40}.いずれの場合にも,重要文抽出は中心的な役割を担っている.そこで本稿では,複数文書を対象とした重要文抽出に着目する.複数文書からの重要文抽出も,単一文書からの重要文抽出と同様に,ある手がかりに基いて文の重要度を決定し,重要度の高い文から順に,要約率で指定された文数までを重要文として抽出する.この際,複数の手がかりを扱うことが効果的であるが,手がかりの数が多くなると,人手によって適切な重みを見つけることが難しいという問題がある.本稿では,汎化能力が高いとされる機械学習手法の一種であるSupportVectorMachineを用いて,複数の手がかりを効率的に扱い,特定の話題に関連する複数文書から重要文を抽出する手法を提案する.評価用のテストセットとして12話題に関する文書集合を用意し,文書集合の総文数に対して10\,\%,30\,\%,50\,\%の要約率で重要文抽出による要約の正解データを作成した.人間による重要文の選択の揺れを考慮するため,1話題に対し3名が独立に正解データを作成した.このデータセットを用いた評価実験の結果,提案手法は,Lead手法,TF$\cdot$IDF手法よりも性能が高いことがわかった.さらに,文を単位とした冗長性の削減は,情報源が一つである場合の複数文書からの重要文抽出には,必ずしも有効でないことを確認した.以下,2章では本稿における重要文抽出の対象となる複数文書の性質について説明し,3章ではSupportVectorMachineを用いた複数文書からの重要文抽出手法を説明する.4章では評価実験の結果を示し,考察を行う.5章ではMaximumMarginalRelevance(MMR)\cite{article48}を用いて抽出された文集合から冗長性を削減することの効果について議論する.
V14N02-01
シソーラスは,機械翻訳や情報検索のクエリー拡張,語の曖昧性の解消など,言語処理のさまざまな場面で用いられる.シソーラスは,WordNet\cite{Miller90}やEDR電子化辞書\cite{EDR},日本語語彙大系\cite{goitaikei}など,人手で長い年月をかけて作られたものがよく用いられている\footnote{2003年からはWordNetだけに焦点を当てたInternationalWordNetconferenceも開催されている.}.しかし,こういったシソーラスを作成するのは手間がかかり,また日々現れる新しい語に対応するのも大変である.一方で,シソーラスを自動的に構築する研究が以前から行われている\cite{Crouch92,Grefenstette94}.Webページをはじめとする大規模で多様な文書を扱うには,シソーラスを自動で構築する,もしくは既存のシソーラスを自動で追加修正する手段が有効である.シソーラスの自動構築は,語の関連度の算出と,その関連度を使った関連語の同定という段階に分けられる\cite{Curran02-2}.2語の関連度は,コーパス中の共起頻度を用いて求めることができる\cite{Church90}.これまでの研究では,コーパスとして新聞記事や学術文書が用いられることが多かった.それに対し,近年ではWebをコーパスとして用いる手法が提案されている.Kilgarriffらは,Webをコーパスとして用いるための手法やそれに当たっての調査を詳細に行っている\cite{Kilgarriff03}.佐々木らはWebを用いた関連度の指標を提案している\cite{Sasaki05}.Webには,新聞記事や論文といった従来からある整形された文書のみならず,日記や掲示板,ブログなど,よりユーザの日常生活に関連したテキストも数多く存在している.世界全体で80億ページを超えるWebは,間違いなく現時点で手に入る最大のコーパスであり,今後も増え続けるだろう.Kilgarriffらが議論しているように,Webの文書が代表性を持つのかといった議論はこれからも重要になるが,Webはコーパスとしての大きな可能性を秘めていると著者らは考えている.Webをコーパスとして扱う際にひとつの重要な手段になるのが,検索エンジンである.これまでに多くの研究が検索エンジンを用いて,Web上の文書を収集したり,Webにおける語の頻度情報を得ている\cite{Turney01,Heylighen01}.しかし検索エンジンを用いる手法とコーパスを直接解析する手法には違いがあるため,従来使われてきた計算指標がそのまま有効に働くとは限らない.本論文では,Webを対象とし,検索エンジンを用いて関連語のシソーラスを構築する手法を提案する.特に,検索エンジンを大量に使用すること,統計的な処理を行うこと,スケーラブルなクラスタリング手法を用いていることが特徴である.ただし,類義・同義語に加え,上位・下位語や連想語など,より広い意味である語に関連した語を関連語とする.まず,2章で関連研究について述べる.そして,3章で検索エンジンを用いた関連度の指標を提案し,さらに4章では関連語ネットワークをクラスタリングする手法について紹介する.そして,5章では評価実験を行い,この手法の効果について議論を行う.
V24N03-06
近年,インターネットなどからテキストとそれに紐づけられた非テキスト情報を大量に得ることができ,画像とそのキャプションや経済の解説記事とその株価チャートなどはwebなどから比較的容易に入手することができる.しかし,テキストと非テキスト情報を対応させる研究の多くは,画像から自然言語を出力する手法\cite{Farhadi:2010:PTS:1888089.1888092,Yang:2011:CSG:2145432.2145484,rohrbach13iccv}のように非テキスト情報から自然言語を出力することを目的としている.Kirosらは非テキスト情報を用いることにより言語モデルの性能向上を示した\cite{icml2014c2_kiros14}.本稿では,非テキスト情報を用いた自動単語分割について述べる.本稿では,日本語の単語分割を題材とする.単語分割は単語の境界が曖昧な言語においてよく用いられる最初の処理であり,英語では品詞推定と同等に重要な処理である.情報源として非テキスト情報とテキストが対応したデータが大量に必要になるため,本研究では将棋のプロの試合から作られた将棋の局面と将棋解説文がペアになったデータ\cite{A.Japanese.Chess.Commentary.Corpus}を用いて実験を行う.似た局面からは類似した解説文が生成されると仮定し,非テキスト情報である将棋の局面からその局面に対応した解説文の部分文字列をニューラルネットワークモデルを用いて予測し,その局面から生成されやすい単語を列挙する.列挙された単語を辞書に追加することで単語分割の精度を向上させる.\begin{figure}[b]\begin{center}\includegraphics{24-3ia6f1.eps}\end{center}\caption{提案手法の概観}\label{fig-overview}\end{figure}本手法は3つのステップから構成される(図\ref{fig-overview}).まず,将棋の局面と単語候補を対応させるために生テキストから単語候補を生成する.単語候補は将棋解説文を擬似確率的分割コーパスを用いて部分単語列に分割することで得られる.次に,生成した単語候補と将棋の局面をニューラルネットワークを用いて対応させることでシンボルグラウンディングを行う.最後にシンボルグラウンディングの結果を用いて将棋解説文専用の辞書を生成し,自動単語分割の手法に取り入れる.本稿の構成は以下の通りである.まず2章で単語の候補を取り出すために確率的単語分割コーパスを用いる手法について述べる.3章で将棋解説文と局面が対応しているデータセットのゲーム解説コーパスについて触れ,シンボルグラウンディングとして単語候補と将棋局面を対応させる手法の説明を行う.4章ではベースラインとなる自動単語分割器について述べたあと,非テキスト情報を用いた単語分割として,シンボルグラウンディングの結果を用いて辞書を生成し,単語分割器を構築する手法を述べる.5章で実験設定と実験結果の評価と考察を行い,6章で本手法と他の単語分割の手法を比較する.最後に7章で本稿をまとめる.
V17N04-08
現在,機械翻訳システムの分野において,対訳データから自動的に翻訳モデルと言語モデルを獲得し統計的に翻訳を行う,統計翻訳が注目されている.翻訳モデルは,原言語の単語列から目的言語の単語列への翻訳を確率的に表現するモデルである.言語モデルは,目的言語の単語列に対して,それらが起こる確率を与えるモデルである.翻訳モデルには,大きくわけて語に基づく翻訳モデルと句に基づく翻訳モデルがある.初期の統計翻訳は,語に基づく翻訳モデルであった.語に基づく翻訳モデルでは,原言語の単語から目的言語の単語の対応表を作成する.対応する単語が無い場合はNULLMODELに対応させる~\cite{IBM}.しかし,翻訳文を生成する時,NULLMODELに対して,全ての単語の出現を仮定する必要がある.これが翻訳精度が低下する原因の一つになっていた.そのため現在では句に基づく翻訳モデルが主流になっている~\cite{PSMT}.句に基づく翻訳モデルは,原言語の単語列から目的言語の単語列の翻訳に対して確率を付与する.また,NULLMODELは使用しない.そして,原言語の単語列から目的言語の単語列への翻訳を,フレーズテーブルで管理する.しかし,フレーズテーブルのフレーズ対はヒューリスティクを用いて自動作成されるため,一般にカバー率は高いが信頼性は低いと考えられる.また,フレーズテーブルのフレーズ対は,確率値の信頼性を高めるため,短いフレーズ対に分割される.そのため,長いフレーズ対は少ない.ところで,日英翻訳では,過去に手作業で作成した日本語の単語列から英語の単語列への翻訳対が大量に作成されている.この翻訳対の信頼性は高いと考えられる.しかし自動作成されたフレーズ対と比較すると,カバー率は低い.そこで,本研究では,それぞれの長所を生かすために,プログラムで自動作成したフレーズ対に手作業で作成された翻訳対を追加することで翻訳精度の向上を目指した.本研究では,手作業で作成した原言語の単語列から目的言語の単語列への翻訳対を,自動的に作成したフレーズテーブルに追加する.この追加されたフレーズテーブルを利用して日英翻訳の精度向上を試みる.実験では,日英重複文文型パターン辞書~\cite{tori}の対訳文対から得られた翻訳対を利用する.手作業で作成された約13万の翻訳対に翻訳確率を与え,プログラムで自動作成したフレーズテーブルに追加する.この結果,BLEUスコアが,単文では12.5\%から13.4\%に0.9\%向上した.また重複文では7.7\%から8.5\%に0.8\%向上した.また得られた英文100文に対し,人間による対比較実験を行ったところ,単文では,従来法が5文であるのに対し提案法では23文,また重複文では,従来法が15文であるのに対し提案法では35文,翻訳精度が良いと判断された.これらの結果から,自動作成されたフレーズテーブルに手作業で作成された翻訳対を追加する,提案手法の有効性が示された.
V29N03-09
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{本解説論文の背景}ニューラル機械翻訳(NMT)技術の急速な発展により,機械翻訳の応用が次々に拡がっていることは論を俟たない.近年では新聞記事等の幅広い話題を扱う機械翻訳研究が加速しつつあり,一部の文では人手の翻訳と遜色ない水準の翻訳結果が得られるとも言われている.ここに至るまでの機械翻訳の研究開発や実用化において,特許文書はその対象として重要な役割を担ってきた,そして現在も担っていると言える.特許の審査においては各国の特許文書あるいは様々な技術文書を参照することが不可欠であり,審査官による公正かつ迅速な審査のために機械翻訳の活用について積極的な取り組みが続けられている.こうした取り組みは日本国特許庁(JPO)をはじめ,世界知的所有権機関(WIPO)や,米国特許商標庁(USPTO),欧州特許庁(EPO)等国際的に行われているものであり,中国を筆頭に特許出願数が増加を続ける中での業務改善を目的に,機械翻訳の活用を公的機関で大規模に行っていることは注目に値する.WIPOでは独自の機械翻訳サービスWIPOTranslate\footnote{\url{https://www.wipo.int/wipo-translate/}}を開発,提供しており,EPOではGoogleとの連携による機械翻訳サービス\footnote{\url{https://www.epo.org/searching-for-patents/helpful-resources/patent-translate.html}}を提供している.JPOでも長年にわたり機械翻訳が活用されており,統計的機械翻訳,NMTへの技術トレンドの変化に合わせた調査事業が継続的に実施され\footnote{\url{https://www.jpo.go.jp/system/laws/sesaku/kikaihonyaku/kikai_honyaku.html}},またそうした新しい機械翻訳技術の導入による特許情報プラットフォームの機能改善が進められている.一方の学術研究においては,特許が公開の文書であること,また国際出願のために同一の出願内容が複数言語に翻訳された形で存在することを背景に,コーパスベース機械翻訳の研究用リソースとして広く使われてきた経緯がある.特に日本語では2000年代の統計的機械翻訳(SMT)技術の伸長期に百万文規模の大規模な機械翻訳研究用対訳コーパスが広く利用できなかったこともあり,2008年のNTCIR-7PATMT\cite{NTCIR7PATMT}以降,NTCIR-8\cite{NTCIR8PATMT},NTCIR-9\cite{NTCIR9PatentMT},NTCIR-10\cite{NTCIR10PatentMT}で利用された日英,日中対訳コーパスは多くの機械翻訳研究で活用された.近年では特許庁が提供する,アジア言語翻訳ワークショップ(WorkshoponAsianTranslation)の共通タスクで利用されているJPOPatentCorpus\footnote{\url{http://lotus.kuee.kyoto-u.ac.jp/WAT/patent/}},また,高度言語情報融合(ALAGIN)フォーラムから提供されているJPO・NICT対訳コーパス\footnote{\url{https://alaginrc.nict.go.jp/jpo-outline.html}}が存在する.こうした研究用リソースの存在は特許機械翻訳の研究開発に非常に有益であると言えるが,NTCIR以後の日本の機械翻訳研究でよく用いられた論文抄録の対訳コーパスASPEC\cite{NAKAZAWA16.621},多くの機械翻訳研究においてベンチマークとして用いられるWMTNewsTaskデータ\cite{akhbardeh-etal-2021-findings}と比べて,特許のデータを扱う機械翻訳研究の発表は少なくなってきていることは否定できない.こうした背景から,本解説論文では実用的な特許機械翻訳に向けた諸課題に着目し,それらに関係する現在の技術をNMTを中心に概観する.そして,特許機械翻訳とその他の一般的機械翻訳の現状の課題の類似点と相違点,現状の到達点と実用とのギャップ,また今後の方向性について論じる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%\subsection{本解説論文で扱う特許機械翻訳の課題}上述の通り,本解説論文では特許機械翻訳において特徴的と考えられる以下の諸課題に着目し,それぞれの課題に関係する研究を示した上で技術の現状と将来について論じる.\begin{description}\item[訳抜け・過剰訳への対策(2節)]NMTにおいて顕著な問題としてよく挙げられるのが,入力文中の情報が訳出されない「訳抜け」,同じ内容を繰り返し出力してしまう「過剰訳」である.それ以前の統計的機械翻訳においてはあまり問題視されていなかった点でもあり,近年様々な対策が試みられている.\item[用語訳の統一(3節)]特許のような技術文書においては,同一の事物や概念を表す用語は翻訳においても統一して同一の用語で訳出しなければならないが,機械翻訳では言葉の多義性とのトレードオフがありしばしば異なる訳語を選択してしまうという深刻な問題が生じることがある.NMTでは厳密な訳語の指定は翻訳処理の柔軟性を損なう懸念もあり,工夫が必要である.\item[長文対策(4節)]特許文書では請求項を代表に長文による記述が多用される.長文の翻訳は,入力文の解析や訳語の選択,訳文の構成について膨大な候補の中からの選択を余儀なくされ,探索誤りが生じやすい.特にNMTにおいては訳抜け・過剰訳の問題が重なることがあり重要な課題であるが,実際に長文に焦点を当てた研究はあまり多くない.\item[低リソース言語対対策(5節)]英語を中心とする代表的な言語については大規模な対訳コーパス・単言語コーパスの蓄積が進みコーパスベース機械翻訳が有効に機能する状況となりつつあるが,今後の成長が予想される東南アジア諸国等における現地語文書については依然としてコーパスが不足しており翻訳が難しい.近年の機械翻訳研究でも非常に重視されている課題でもある.\item[評価(6節)]機械翻訳の精度が向上したことにより,機械翻訳の品質評価の重要性がより増していると言える.従来の表層的な自動評価手法の限界は広く知られるようになり,評価手法の研究が再び盛んになってきている.また,人手評価についても方法が変化しつつある.特許庁が独自に機械翻訳評価のマニュアルを公開している等の背景もあり,特許機械翻訳の評価は注目に値する.\item[翻訳高速化・省メモリ化(7節)]国際出願特許の審査,技術動向の調査等,特許文献に対する言語横断情報アクセスの重要性は飛躍的に増大してきており,日々大量の特許文書・技術文書の翻訳が求められる状況である.そうした中で計算効率は非常に重要な要因であり,大規模化が続くNMTモデルをそのまま実用に供することは容易ではない.モデルや計算の工夫による様々な対策が試みられている.\end{description}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V27N03-04
近年,自然言語処理の多くのタスクにおいて,ニューラルネットワークが活用されている.機械翻訳の分野においてもその有効性が示されており,その中でも,Transformer\cite{transformer}というモデルがリカレントニューラルネットワーク(RNN)を用いたモデルや畳み込みニューラルネットワーク(CNN)を用いたモデルの翻訳性能を上回り,注目を浴びている.これまでに,統計的機械翻訳やニューラル機械翻訳では原言語や目的言語の文構造を考慮することで翻訳性能が改善されており\cite{pathbased_smt,sdrnmt,rnng_nmt},TransformerNMTにおいても文構造の有用性が示されている\cite{dep2dep}.そこで本研究では,Transformerモデルで係り受け構造を考慮することで翻訳性能の改善を試みる.Transformerの特徴の一つであるself-attentionは文内における単語間の関連の強さを考慮することができ,機械翻訳のみならず,言語モデルの獲得や意味役割付与など,様々なタスクにおいて精度の向上に寄与してきた.Strubellらは意味役割付与の性能を向上させるため,Transformerエンコーダのself-attentionで文の係り受け構造を捉える,linguistically-informedself-attention(LISA)と呼ばれるモデルを提案している\cite{lisa}.LISAでは,multi-headself-attentionのうちの1つのヘッドを,各単語が係り先の単語を指すように,係り受け関係に基づいた制約を与えて学習させている.本研究は,Transformerエンコーダとデコーダのself-attentionで,それぞれ,原言語の文と目的言語の文の係り受け構造を捉えるTransformerNMTモデルを提案する.以降,この係り受け関係を捉えるself-attentionをdependency-basedself-attentionと呼ぶ.具体的には,NMTモデルの訓練時に,エンコーダとデコーダのself-attentionの一部を,各単語が係り先の単語を指すように,原言語の文や目的言語の文の係り受け関係に基づいた制約を与えて学習させる.そして,推論時には制約を与えて学習したself-attentionが文の係り受け関係を捉えながら翻訳する.ただし,推論時には目的言語文が明らかでないため,LISAの手法を直接TransformerNMTモデルのデコーダに適用することはできない.そこで,提案のdependency-basedself-attentionでは,まだ予測していない単語に対してアテンションを向けないように,デコーダ側のself-attentionを学習する際は,自身の単語より後方に係る係り受け関係にマスクをかけた制約を用いる.また,近年のニューラル機械翻訳モデルの多くは,文を単語列ではなくサブワード列として扱うことで低頻度語の翻訳に対応している\cite{subword}.そこで,本研究では,dependency-basedself-attentionをbytepairencoding(BPE)などによるサブワード列に対しても適用できるように拡張する.AsianScientificPaperExcerptCorpus\(ASPEC)\データ\\cite{aspec}を用いた日英・英日翻訳の評価実験において,提案のTransformerモデルと従来の係り受け構造を考慮しないTransformerモデルを比較し,dependency-basedself-attentionを組み込むことでBLEUがそれぞれ1.04ポイント・0.30ポイント向上することを確認した.また,実験では,原言語側のdependency-basedself-attentionと目的言語側のdependency-basedself-attentionのそれぞれの有効性とBPEに拡張したときの有効性も確認した.本稿の構成は以下の通りである.まず2章で提案手法が前提とするTransformerモデルについて説明したのち,3章で提案手法であるdependency-basedself-attentionを示す.4章で提案手法を組み込んだモデルの翻訳性能を評価することで手法の有効性を示す.5章で提案手法の拡張であるsubworddependency-basedself-attentionの有効性,提案手法のdependency-basedself-attentionが捉える係り受け構造,従来モデルと提案モデルの翻訳文の違い,提案モデルの設定に関する比較実験をそれぞれ示す.6章で関連研究の文構造を考慮したニューラル機械翻訳モデルについて議論し,7章で本稿のまとめとする.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V03N03-01
自然言語処理技術は,単一文の解析等に関しては一定の水準に到達し,文の生成技術を統合して幾つかの機械翻訳システムが商用化されて久しい.このような段階に達した現在においては,従来,問題とされてきた形態素解析や構文解析とは異なる以下のような課題が現れてきている.自然言語処理システムは求められる分析性能が向上するにつれて,そのシステムで用いる言語知識ベース(文法規則や辞書データ)も次第に複雑化,巨大化してきた.ひとたび実働したシステムも,利用者が使い込むことによって既存の分析性能では扱えない言語現象への対応に迫られる.利用者が増えるに従って新たな分析性能が要求される.一方,自然言語処理システムを用いる応用分野はますます多様化することが予想され,応用分野ごとにも新たな分析性能が要求される.言語知識ベースにおいても機能の更新が求められ,追加と修正の作業が発生する.しかし,一般に言語知識ベースの開発には多数の人員と多くの時間を必要とするため,その再構築にも手間を要する.応用分野に適合するシステムを効率的に開発するためには,融通性を持ち容易に修正できる文法規則や辞書データの作成技法と,作成された言語知識ベースの保守性の向上を図る必要がある.この課題は,応用分野の多様化に伴う需要と規模が増大する中でますます重要となっている.言語知識をコンピュータへ実装する過程での技術的な課題を論じた研究~\cite{吉村,神岡,奥}がある.しかし,文法規則の記述の方法やノウハウの開示が見られない.どのようにして規則が見つけだされたのかという言語知識の構成過程の研究は少なかった.前述のように,適用分野の多様化に応じて,文法規則の追加や修正を整然と実現するには,文法規則の開発手続きを整理することから取り組むべきである.具体的には個々の文法規則がどのような言語現象に着目して作成されたのか,そして,その記述の手段,すなわちどのような手続きで規則化されたのかのノウハウを方法論的に明らかにすることである.本稿では,この課題への一解決策として,文法規則の系統だった記述の方法を提案する.さらに,我々が提案した方法に従って作成した文法規則について説明する.まず,形態素と表層形態の概念区分をした上で,日本語の持つ階層構造に注目した.形態素の述部階層位置との関係から,表層での形態の現れ方を構文構造に結び付ける形態構文論的な文法作成のアプローチを採用し,文法規則の開発手続きを確立した.この文法規則は機械処理に適合した文法体系の一つとなっている.その特徴は,(1)系統だった記述法に則り作成されたものであること,(2)そのため,工学上,文法規則の開発作業手順に一般性が備わり,誰がどのように文法規則を作成するにせよ,ある条件を満たすだけの言語の分析能力を持った文法規則を記述することができる.なお,もう一方の言語知識である辞書データについても,その知識構成過程の把握が必要であるが,本稿では,特に文法規則についてのみ着目する.以下の第\ref{文法規則の体系だった記述法}章では,文法体系と文法規則の具体化の方法について述べ,文法規則を体系的に記述してゆくための記述指針を提案する.第\ref{文法規則の記述の手順}章では,提案した手続きに従って記述した文法規則例を示す.新聞テキストを用いた分析実験を通して,文法規則の記述の手続きの一貫性を評価した.第\ref{記述手続きの評価}章では,その詳細を報告する.
V16N05-01
一般的な分野において精度の高い単語分割済みコーパスが利用可能になってきた現在,言語モデルの課題は,言語モデルを利用する分野への適応,すなわち,適応対象分野に特有の単語や表現の統計的振る舞いを的確に捉えることに移ってきている.この際の標準的な方法では,適応対象のコーパスを自動的に単語分割し,単語$n$-gram頻度などが計数される.この際に用いられる自動単語分割器は,一般分野の単語分割済みコーパスから構築されており,分割誤りの混入が避けられない.特に,適切に単語分割される必要がある適応対象分野に特有の単語や表現やその近辺において誤る傾向があり,単語$n$-gram頻度などの信頼性を著しく損なう結果となる.上述の単語分割誤りの問題に対処するため,確率的単語分割コーパスという概念が提案されている\cite{確率的単語分割コーパスからの単語N-gram確率の計算}.この枠組では,適応対象の生コーパスは,各文字の間に単語境界が存在する確率が付与された確率的単語分割コーパスとみなされ,単語$n$-gram確率が計算される.従来の決定的に自動単語分割された結果を用いるより予測力の高い言語モデルが構築できることが確認されている.また,仮名漢字変換\cite{無限語彙の仮名漢字変換}や音声認識\cite{Unsupervised.Adaptation.Of.A.Stochastic.Language.Model.Using.A.Japanese.Raw.Corpus}においても,従来手法に対する優位性が示されている.確率的単語分割コーパスの初期の論文では,単語境界確率は,自動分割により単語境界と推定された箇所で単語分割の精度$\alpha$(例えば0.95)とし,そうでない箇所で$1-\alpha$とする単純な方法により与えられている\footnote{前後の文字種(漢字,平仮名,片仮名,記号,アラビア数字,西洋文字)によって場合分けし,単語境界確率を学習コーパスから最尤推定しておく方法\cite{生コーパスからの単語N-gram確率の推定}も提案されているが,構築されるモデルの予測力は単語分割の精度を用いる場合よりも有意に低い.後述する実験条件では,文字種を用いる方法によって構築されたモデルと単語分割の精度を用いる方法によって構築されたモデルによるエントロピーはそれぞれ4.723[bit]と3.986[bit]であった.}.実際には,単語境界が存在すると推定される確率は,文脈に応じて幅広い値を取ると考えられる.例えば,学習コーパスからはどちらとも判断できない箇所では1/2に近い値となるべきであるが,既存手法では1に近い$\alpha$か,0に近い$1-\alpha$とする他ない.この問題に加えて,既存の決定的に単語分割する手法よりも計算コスト(計算時間,記憶領域)が高いことが挙げられる.その要因は2つある.1つ目は,期待頻度の計算に要する演算の種類と回数である.通常の手法では,学習コーパスは単語に分割されており,これを先頭から単語毎に順に読み込んで単語辞書を検索して番号に変換し,対応する単語$n$-gram頻度をインクリメントする.単語辞書の検索は,辞書をオートマトンにしておくことで,コーパスの読み込みと比較して僅かなオーバーヘッドで行える\cite{DFAによる形態素解析の高速辞書検索}.これに対して,確率的単語分割コーパスにおいては,全ての連続する$n$個の部分文字列($L$文字)に対して,$L+1$回の浮動小数点数の積を実行して期待頻度を計算し,さらに1回の加算を実行する必要がある(\subref{subsection:EF}参照).2つ目の要因は,学習コーパスのほとんど全ての部分文字列が単語候補になるため,語彙サイズが非常に大きくなることである.この結果,単語$n$-gramの頻度や確率の記憶領域が膨大となり,個人向けの計算機では動作しなくなるなどの重大な制限が発生する.例えば,本論文で実験に用いた44,915文の学習コーパスに出現する句読点を含まない16文字以下の部分文字列は9,379,799種類あった.このうち,期待頻度が0より大きい部分文字列と既存の語彙を加えて重複を除いた結果を語彙とすると,そのサイズは9,383,985語となり,この語彙に対する単語2-gram頻度のハッシュによる記憶容量は10.0~GBとなった.このような時間的あるいは空間的な計算コストにより,確率的単語分割コーパスからの言語モデル構築は実用性が高いとは言えない.このことに加えて,単語クラスタリング\cite{Class-Based.n-gram.Models.of.Natural.Language}や文脈に応じた参照履歴の伸長\cite{The.Power.of.Amnesia:.Learning.Probabilistic.Automata.with.Variable.Memory.Length}などのすでに提案されている様々な言語モデルの改良を試みることが困難になっている.本論文では,まず,確率的単語分割コーパスにおける新しい単語境界確率の推定方法を提案する.さらに,確率的単語分割コーパスを通常の決定的に単語に分割されたコーパスにより模擬する方法を提案する.最後に,実験の結果,言語モデルの能力を下げることなく,確率的単語分割コーパスの利用において必要となる計算コストが大幅に削減可能であることを示す.これにより,高い性能の言語モデルを基礎として,既存の言語モデルの改良法を試みることが容易になる.
V08N02-03
人間はあいまいな情報を受け取り適宜に解釈して適切に会話を進めることができる.これは,人間が長年にわたって蓄積してきた,言語やその基本となる語概念に関する「常識」を持っているからである.すなわち,ある単語から概念を想起し,さらに,その概念に関係のある様々な概念を連想できる能力が重要な役割を果たしていると考えられる.本研究の前提とする「常識的判断」とは,「女性−婦人」,「山−丘」などは同義・類義の関係,「山−川」,「夕焼け−赤い」などは密な関係,「山−机」,「電車−空」などは疎な関係であると判断するなど,語と語の意味的関係について,コンピュータにも人間の常識的な感覚に近い判断をさせることをねらうものである.このような常識的判断を可能とするメカニズムは,利用者の意図を汲み取ることのできる人間的な情報処理システムの開発基盤として役立つと考えている.我々が開発を進めている常識的判断システム全体は,日常的な事項,すなわち,大きさ,重さ,速さ,時間,場所等に関する基本的な知識\cite{Kikuyama,Obata}と感覚や感情に関する知識\cite{Baba,Hanada,Tsutiya}で構成する判断知識ベースサブシステムと本論文で対象とする語概念間の関連度を評価する概念連鎖メカニズムで構成している.判断知識ベースを構成する知識は少数(約5千語)の代表的な語(代表語)の間の常識的な関係(事物の大小関係,夕焼け−赤いなど)を定義したものである.常識的判断システムに入力される多くの語は代表語ではなく,知識ベースには陽に表現されていない未知語となるため概念連鎖メカニズムは,これらの未知語について,意味的関係やその強さの度合いを評価し,最も関連の強い代表語を決定する.本稿では,この概念連鎖メカニズムの基盤となる概念ベースの構造,すなわち,語とその意味を表す属性(関連の強い語)の集合の構成とそれを用いた概念間の関連度の定量化方式について提案している.従来は一般に,概念間の類似性に重点が置かれ類似度として評価されているが,本稿では類似性のみならず「山と川」,「電車と駅」,「川と水」など概念間の幅広い関係の評価を対象とするため関連度として評価している.例えば,類似性の評価において「車と馬」は乗り物という観点において類似しているという考え方がとられているが,本稿の関連度評価では,両者の概念は乗り物という共通の属性をもっているに過ぎないと考え,全体としての関連度はかなり低いものとなる.当然,観点として乗り物が設定された場合の関連度は高くなる.観点となる概念のもつ属性の範囲に限定した関連度を評価する\cite{Irie2}ことにより,類似や相対,反意などにも対応可能である.概念間の類似度に関するテーマについては,幾つかの研究成果が報告されているが\cite{okada,oosuga,suzuki},多くは,連想に関する理論,あるいは,自然言語処理における類似語の処理などの研究であり,本研究で対象とするような常識的判断のための概念ベースや概念関連度とは異なる.概念ベースの構造や必要とされる正確さは目的により異なったものとなる.我々の対象とする常識的判断システムの概念ベースは自動学習や利用者の教示による継続的な改善(成長)が前提となる.常識的判断の適切さは概念ベースの内容と関連度計算方式に左右されるため,利用を通じた概念ベースの恒常的な成長の容易性は極めて重要な評価要因となる.\cite{kasahara4}では,概念構造の定義と概念ベースの機械構築および概念類似度の計算方式について興味深い報告がなされている.そこでは,一つの概念を,「意味特徴を表す属性」と「概念と属性の関連の深さを表す重み」で表現された$m$次元ベクトルとして取り扱い,2つの概念間の類似度は正規化された2ベクトルの内積として計算している.このベクトル空間モデルでは,約4万の概念を約3千の独立性の高い属性で表現することによりベクトル表現のための直交性の問題に対処しているが,必ずしも直交性が保証されているとは言えない.また,属性の重みの問題として,出現頻度に基づき重みが付与されているが,属性の追加/修正が発生した時,新しい属性の重みをどのように決定するのか,既に存在する属性の重みはどのように変更するのか,という問題が生じ,概念ベースの継続的な成長を前提とすることは難しい.本稿では,これらの問題を考慮した上で,継続的な成長を容易とするような新たな概念ベースを構築し,常識的判断として適切な関連度を計算できるような関連度評価方式を提案し,実験により評価する.以下,2章で,まず,概念連鎖メカニズムの実現に必要となる概念ベースの構造について述べ,より単純な構造の概念ベースを提案する.3章では,本稿の主題である概念関連度の定量化の問題を定式化し,概念の$n$次属性までの論理関係を考慮する新方式の提案を行う.4章では,2,3章で提案した概念ベースと概念関連度計算方式の各組合わせについて評価実験を行い,人間の常識的判断により近いかという観点と,概念ベースの継続的な成長の容易性の観点において従来法との比較検討を行う.
V09N03-03
近年,テキスト自動要約の必要性が高まってきており,自動要約に関する研究が盛んに行なわれてきている\cite{okumura}.要約とは,人間がテキストの内容の理解,取捨選択をより容易にできるようにするために,元のテキストを短く表し直したものをいう.これまでの研究で提案されてきた要約手法は,主に次の3つに分類される.\begin{itemize}\item文書を対象とした,重要文抽出による要約\item文を対象とした,不要個所削除(重要個所抽出)による要約\item文を対象とした,語句の言い換えによる要約\end{itemize}どのような使用目的の要約でも作成できる万能な要約手法は存在しないため,要約の使用目的に応じた手法を選択し,時には複数の手法を併用して要約を作成することが必要となる\cite{yamamoto}.要約技術の応用はいくつか考えられている.例えば,「WWW上の検索エンジンの検索結果を一覧するための要約」を作成する場合には,元の文書にアクセスするかどうかを判断するための手掛りとしての役割から,ユーザに読むことの負担を与えないために,簡潔で自然な文が必要となる.したがって,重要文抽出によって作成した要約結果に対し,必要に応じて不要個所削除と語句の言い換えによる要約手法を用いるという方法が適切であると考えられる.また「ニュース番組の字幕生成,及び文字放送のための要約」を作成する場合には,重要文抽出による要約では文書の自然さが損なわれやすいことと情報の欠落が大きすぎること,そしてテキストをそれほど短くする必要がないことなどから,不要個所削除と語句の言い換えによる要約手法を用いることが適切だと考えられる.このように,要約の使用目的に応じて,それに適した要約手法を用いることで,より効果の高い要約を作成することができる.また,テキストの種類に応じて適切な要約手法もあると考えられる.将来,テキストの種類を自動判別し,ユーザの要求に応じられる要約手法を選択し,テキストを要約するといった要約システムを実現するためには,様々な要約手法が利用可能であることが望まれる.本論文で提案するのは,不要個所削除による要約を実現するための要素技術である,文中の省略可能な連用修飾表現を認定するために必要な知識を獲得する手法である.不要個所省略による要約手法として,山本ら\cite{yamamoto}は,一文ごとの要約ヒューリスティックスに基づいた連体修飾節などの削除を提案している.この手法は,重要文抽出による要約結果をさらに要約するという位置付けで提案されているが,単独で用いることも可能である.若尾ら\cite{wakao}や山崎ら\cite{yamasaki}は,人手で作成された字幕とその元となったニュース原稿とを人手で比較し,それによって作成した言い換え規則を用いた要約手法を提案している.また,加藤ら\cite{kato}は記事ごとに対応のとれたニュース原稿と字幕放送の原稿を用いて,言い換えに関する要約知識を自動獲得する研究を行なっている.ところが,これらの手法には次のような問題点がある.まず,不要箇所の削除や言い換えに関する規則を人手で作成するには多大な労力が掛かり,網羅性などの問題も残ることが挙げられる.また,加藤らが使用したような原文と要約文との対応がとれたコーパスは要約のための言語知識を得る対象として有用であるのは明らかであるが,一般には存在しておらず,入手するのが困難である.また,そのようなコーパスを人手で作成するには多大な作業量が必要であると予想される.このような理由から,本論文では,原文と要約文との対応がとれていない一般のコーパスから,不要個所省略による要約において利用できる言語知識を自動獲得し,獲得した言語知識を用いて要約を行なう手法を提案する.ここで不要箇所の単位として連用修飾表現に注目する.連用修飾表現の中には,いわゆる格要素が含まれている.格要素の省略は日本語の文に頻出する言語現象である.格要素が省略される現象には次の2つの原因がある.\begin{enumerate}\item格要素の必須性・任意性\item文脈の影響\end{enumerate}(1):動詞と共起する格要素には,その動詞と共起することが不可欠である必須格と,そうではない任意格があるとされている\cite{IPAL}.必須格は,主格,目的格,間接目的格など,動詞が表現する事象の内部構造を記述するものであり,任意格は,手段や理由,時間,場所などを記述するものである場合が多い.必須格がないことは読み手に文が不自然であると感じさせる.ただし,必須格でも文脈によって省略可能となる場合があり,任意格についても動詞と共起するのが任意的であるというだけで,文中の任意格が必ず省略可能となるとは限らない.(2):本論文における文脈とは,読み手が当該文を読む直前までに得ている情報のことを指す.文脈の影響により省略可能となるのは,読み手にとって新しい情報を与えない格要素,または文脈から読み手が補完するのが容易な格要素である.なお,文脈から省略可能となるのは格要素だけに限らず,格助詞を持たない連用修飾表現においても,文脈から省略可能となる可能性がある.したがって,上で述べたように必須格の格要素でも,それが読み手にとって旧情報であれば省略可能となる場合があり,任意格の格要素でも,読み手にとって新情報であれば,省略することは重要な情報の欠落につながる場合がある.格要素の必須性・任意性を求めることで,省略可能な格要素を認定する手法として,格フレーム辞書を用いた手法を挙げることができる.現在,利用できる格フレーム辞書としては,IPALの基本動詞辞書\cite{IPAL}や日本語語彙大系\cite{goi}の構文意味辞書といった人手により収集されたものがある.また,格フレームの自動獲得に関する研究も数多く行なわれてきている.例えば,用言とその直前の格要素の組を単位として,コーパスから用例を収集し,それらのクラスタリングを行なうことによって,格フレーム辞書を自動的に構築する手法\cite{kawahara}がある.この手法は,用言と格要素の組合せをコーパスから取得し,頻度情報などを用いて格フレームを生成する.その他には,対訳コーパスからの動詞の格フレーム獲得\cite{utsuro1}等がある.本論文で提案する手法は,格要素も含めた省略可能な連用修飾表現を認定する手法であり,その点が格フレーム生成の研究とは異なる.だが,これらの研究で提案されている手法により獲得した格フレームを用いても,省略可能な格要素の認定が実現可能であると考えられる.しかし,格フレームを用いた格要素の省略には次のような問題点がある.\begin{enumerate}\item格要素以外の省略可能な連用修飾表現に対応できない.例えば,節「そのために必要な措置として二百八十二の指令・規則案を定めた.」の動詞「定めた」に対する連用修飾表現「そのために必要な措置として」は文脈から省略可能だが,格要素ではないので格フレーム辞書では対応できない.特に,我々の調査の結果,格要素ではない連用修飾表現で省略可能な表現は多数(後述の実験では,省略可能な連用修飾表現のうち,約55\%が格要素ではない連用修飾表現であった)存在する.\item格フレーム辞書に記載されていない動詞に関しては,省略可能な格要素が認定できない.\item動詞の必須格,任意格は,その格の格成分によって変化する.例えば,IPAL基本動詞辞書において,動詞「進める」の格フレームに関する記述は表\ref{SUSUMERU}のようになっている.この情報からN3が「大学」である場合のみニ格が必須格になる.このように,たとえ大規模な辞書が構築できたとしても,用例によっては任意格が必須格に変化する場合があり,辞書のような静的な情報では対応できない場合がある.\begin{table}[bt]\begin{center}\caption{動詞「進める」の格フレーム}\label{SUSUMERU}\begin{tabular}{r|l|l}\hlineNo.&格フレーム&文例\\\hline\hline1&N1ガN2ヲ(N3ニ/ヘ)&彼は船を沖へ進めた.\\2&N1ガN2ヲN3ニ&彼は娘を大学に進めた.\\3&N1ガN2ヲ&彼は会の準備を進めている.\\4&N1ガN2ヲ&政府は国の産業を進めている.\\\hline\end{tabular}\end{center}\end{table}\item格要素を省略可能と認定する場合,読み手が当該文を読む直前までに得ている情報から,省略可能と認定できる場合がある.しかし,格フレーム辞書では静的であるため,文脈を考慮した省略可能な格要素の認定ができない.\item認定対象としている連用修飾表現に重要な情報が含まれていれば,任意格であっても,そのような連用修飾表現を省略してしまえば情報欠落が大きくなる.しかし,格フレーム辞書では情報の重要度を考慮して認定することができない.\end{enumerate}そこで,本論文では,対応する要約文,もしくは格フレーム等を用いない省略可能な連用修飾表現の認定を行なう教師なしの手法を提案する.具体的には,省略できる可能性のある連用修飾表現を含む節に対して同一の動詞をもち,かつ,格助詞出現の差異が認められる節をコーパスから検索し,検索された節対から省略可能な連用修飾表現を認定する.そのため,格フレームでは対処できない格要素以外の連用修飾表現に対しても省略可能かどうかの判定が可能である.また,ある連用修飾表現が省略可能かどうかの判定の際に,その内容および前後の文脈を考慮して,その連用修飾表現に含まれている情報が以前の文にも含まれている情報である場合には,省略可能と認定されやすくなる.逆に,その情報が以降の文に含まれている場合や,重要な情報が含まれている場合には省略可能と認定されにくくなるような工夫を行なっている.本手法によって抽出された省略可能と認定された連用修飾表現は,その内容および前後の文脈を考慮している上に,格要素以外の連用修飾表現も含まれている.これらは現状の格フレーム辞書にはない知識であり,要約のみならず換言や文生成にも有用であると考える.本研究でコーパスとして想定するのは,形態素情報などの付与されていない一般のコーパスである.したがってCD-ROMなどで提供されている新聞記事のバックナンバーや電子辞書,WWW上で公開されている文書などを利用することができ,コーパスの大規模化も比較的容易に実現可能である.以下,第2章では,本論文で提案する手法を説明する.第3章では,手法を実装して,それによって省略可能と認定される連用修飾表現を示す.第4章では,本手法の性能を評価し,評価結果の考察を示す.第5章では,格フレーム辞書を用いた手法と本手法によって省略可能と認定された連用修飾表現を比較した実験について述べ,実験結果について考察する.
V04N02-06
自然言語処理技術の一つに,文書の自動抄録がある.従来から行なわれている自動抄録は大きく分けて2つの手法,すなわち,1.文書の構造解析を行なう手法,2.文書の統計情報を用いた手法とに分類できる.1はスクリプトなどを使用して重要箇所を抽出する方法や,テキストの構文・意味解析を行なって談話構造を作成し,この構造から重要箇所を抽出する方法である\cite{Reimer1988},\cite{Tamura1989},\cite{Jacobs1990},\cite{Inagaki1991}.しかし,これらの方法では,ある特定の分野について書かれたテキストのみを対象としている場合が多いため,結果的に汎用性に欠けることが指摘されている\cite{Paice1990},\cite{Zechner1996}.2は電子化されたコーパスに対し統計手法を適用することで重要箇所を抽出する方法である.この場合,文に出現する各語に重み付けを行ない,そのスコアの高い文を重要箇所とする手法が多く用いられている.重み付けには,(a)ヒューリスティックスを用いたもの,(b)単語頻度などの情報を用いたもの(c)シソーラスなどの意味情報を用いたものなどがある.(a)は文書から得られるヒューリスティックスを用いて文の重み付けを行ない重要箇所を抽出する手法である.\cite{Paice1990},\cite{Paice1993},\cite{Kupiec1995}.ヒューリスティックスとしては,修辞関係\cite{Miike1994},タイトルに出現する語の情報\cite{Edmundson1969},文の出現位置\cite{Baxendale1958}などがある.これらは,分野を限定し特別に用意された知識を用いて重要箇所を抽出する研究と比べると汎用性があると言えるが,対象分野の変更に対しどの程度適用できるかは調査の余地がある.(b)はLuhnらにより提唱されたキーワード密度方式に代表される手法である\cite{Luhn1958}.Luhnらは,「一つの文献において,その主題と関係の深い語は概して文献中に繰り返し出現する」という前提に基づき,文献の内容に関係の深い数語のキーワードを抽出し,これらの語を高頻度で含む文を文献中から選定して抄録とした\cite{Luhn1958}.しかし,文献中どこにでも現れる一般語との区別がつきにくく,文献中におけるキーワード分布の偏りが小さくなってしまうことが指摘されている\cite{Suzuki1988}.鈴木らはこの問題に対処するため,文章中で隣接または近接している語の組のうち,出現頻度の高い組を高頻度隣接語と呼び,キーワード密度法により得られたキーワードと高頻度隣接語を共に多く含む文を抄録文の候補とする手法を提案した\cite{Suzuki1988}.しかし,キーワード及び隣接語の決定は人手により行なわれているため恣意的であり,また抄録を行なおうとするテキストごとにキーワードと隣接語を決定しなければならない.SaltonやZechnerらは,単語の頻度を基に計算されたTF$\ast$IDFを用いて語に重み付けを行なうことで重要箇所を抽出する手法を提案した\cite{Salton1993},\cite{Salton1994},\cite{Zechner1996}.これらの手法は,表記の統計情報だけを用いているため,鈴木らの手法と比べると重要箇所を抽出する際,人間の介在を必要としない.しかし,人間が対象とする記事のみから重要箇所を抽出できるのは,記事に関する様々な知識を用いているからであり,対象となる記事の頻度を基にした単語の機械的な処理による重み付けだけで重要箇所を適切に抽出できるかどうかは不明である.また,(c)は意味に関する統計情報を用いた手法である.佐々木らは,段落内,又は,段落間に跨る意味分類の出現パターンをシソーラスを用いて分析し,その結果をチャート形式で表現する結束チャートを提案した\cite{Sasaki1993}.鈴木らは,佐々木らの提案した結束チャートを利用することでキーワードを自動的に抽出する手法を提案している\cite{Suzuki1993}.鈴木らの手法では,文中に現れる語が多義語である場合には,それまでに現れた文中の語の累積頻度が最も高い意味コードをその語に割り当てている.しかし,佐々木,及び鈴木らのシソーラスを用いる手法の問題として,データスパースネスの問題がある.すなわち,シソーラスのカテゴリー自身が抽象的な語で定義されているため,文書の種類によっては,その語が文書に出現しない場合がある\cite{Niwa1995}.さらに,各段落のキーワード候補は,各段落に2回以上出現した語をその段落におけるキーワード候補としているが,{\itWallStreetJournal}のように経済が主となる報道の新聞記事では,評論や科学文献などと比べると,一つのパラグラフの語数が少ないため,一つのパラグラフ内で同一表層語が2回以上出現する現象は少なく,結果的に文書の種類によっては手法が適用できない場合がある.実際,今回の実験で使用した50記事に出現するパラグラフ数395のうち,一つのパラグラフ内で同一表層語が2回以上出現したパラグラフ数は168(42.5\%)であり,半数以上のパラグラフに対して佐々木らの手法が適用できなかった.本稿では,文脈依存の度合に注目した重要パラグラフの抽出手法を提案する.本稿の基本的なアイデアは,文書の重要箇所を適切に抽出するため,その文書がどの分野に属しているかという情報を利用するということである.例えば,ある記事に`株'が高頻度で出現したとする.その記事が`事件'の分野に属する一つの記事である場合には,`株'に関する事件の可能性が高いことから重要度の度合は強い.一方,`株式市場'の分野に属する一つの記事である場合には,この分野に属する他の記事にも`株'が高頻度で現れることから重要度は下がる.つまり`株'がある記事にとって重要であるかどうかは,その記事が設定された分野にどのくらい深く関わっているかに依存し,これは予め設定された分野に属する他の記事における`株'の頻度と比較することで判定が可能となる.我々は,分野固有の重要語の選定を行なうため,記事中の任意の語が,設定された文脈にどのくらい深く関わっているかという度合いの強さを用いることで,語に対する重み付けを行なった.先ず,佐々木らがシソーラスを用いて語の意味を決定しているのに対し,我々は辞書の語義文を用いることで文書中の多義語の意味を自動的に決定する.次に主題に関連する単語の低頻度数の問題に対処するため,名詞同士のリンク付けを行なう.この結果に対し,文脈依存の度合を利用する.すなわち,我々はZechnerらがTF$\ast$IDFを用いて重み付けを行なっているのに対し,記事中の任意の語が,設定された文脈にどのくらい深く関わっているかという度合いの強さを用いることで,語に対して重み付けを行なう.その際,鈴木らのように重要語を抽出する過程で人間の介在を必要としない.以下,2章では,文脈依存の度合いについて述べ,3章では語の重み付け手法を示す.4章では重み付けされた語を用いてパラグラフごとに文書のクラスタリングを行ない,重要パラグラフを抽出する手法について述べる.5章では実験について報告し,6章で実験結果に関する考察を行なう.
V05N03-05
\label{sec:intro}コーパス,辞書,シソーラスなどの機械可読な言語データの整備が進んだことから,自然言語処理における様々な問題の解決に何らかの統計情報を利用した研究が盛んに行われている.特に構文解析の分野においては,構文的な統計情報だけでなく,単語の出現頻度や単語の共起関係といった語彙的な統計情報を利用して解析精度を向上させた研究例が数多く報告されている\cite{schabes:92:a,magerman:95:a,hogenout:96:a,li:96:a,charniak:97:a,collins:97:a}.ここで問題となるのは,このような語彙的な統計情報を構文的な統計情報とどのように組み合わせるかということである.このとき,我々は以下の2つの点が重要であると考える.\begin{itemize}\item解析結果の候補に与えるスコアが,構文的な統計情報のみを反映したスコアと語彙的な統計情報のみを反映したスコアから構成的に計算できることこのことによる利点を以下に挙げる.\begin{itemize}\item個々の統計情報を個別に学習できる構文的な統計情報を学習する際には,学習用言語資源として比較的作成コストの高い構文構造が付加されたコーパスが必要となる\footnote{Inside-Outsideアルゴリズム\cite{lari:90:a}に代表されるようなEMアルゴリズムを用いて,構文構造が付加されていないコーパスから構文的な統計情報を学習する研究も行われている.しかしながら,このような教師なしの学習は一般に精度が悪く,現時点では構文構造が付加されたコーパスを利用した方が品質の良い統計情報を学習できると考えられる.}.しかしながら,推定パラメタの数はそれほど多くはないので,比較的少ないデータ量で学習することができる.これに対して,語彙的な統計情報は,単語の共起に関する統計情報を学習しなければならないために大量の学習用データを必要とするが,構文構造付きコーパスに比べて作成コストの低い品詞付きコーパスを用いても学習することが十分可能である.このように,統計情報の種類によって学習に要する言語資源の質・量は大きく異なる.そこで,構文的な統計情報と語彙的な統計情報を異なる言語資源を用いて個別に学習できるように,それぞれの統計情報の独立性を保持しておくことが望ましい.\item曖昧性解消時における個々の統計情報の働きを容易に理解することができる例えば,曖昧性解消に失敗した場合には,構文的な統計情報と語彙的な統計情報を独立に取り扱うことにより,どちらの統計情報が不適切であるかを容易に判断することができる.\end{itemize}\item個々の統計情報を反映したスコアが確率的意味を持っていること構文的な統計情報を反映したスコアと語彙的な統計情報を反映したスコアを組み合わせて全体のスコアとする場合,両者のスコアの和を計算すればいいのか,積を計算すればいいのか,またどちらか片方に重みを置かなければならないのかなど,その最適な組み合わせ方は自明ではない.このとき,個々のスコアが確率的意味を持つように学習することにより,確率の積としてそれらを自然に組み合わせることができる.\end{itemize}ところが,語彙的な統計情報を利用して構文解析の精度を向上させる過去の研究の多くは以上の条件を満たしていない.例えば田辺らは,確率文脈自由文法(ProbabilisticContextFreeGrammar,以下PCFG)における書き換え規則の非終端記号に,その非終端記号が支配する句の主辞となる単語を付加すること(以下,これをPCFGの語彙化と呼ぶ)によって語彙的従属関係をPCFGの確率モデルに反映させる方法を提案している~\cite{tanabe:95:a}.一方,英語を対象にPCFGを語彙化した研究としてはHogenoutら~\cite{hogenout:96:a},Charniak~\cite{charniak:97:a},Collins~\cite{collins:97:a}によるものがある.しかしながら,PCFGの語彙化によって構文的な統計情報と語彙的な統計情報を組み合わせる方法は,非終端記号に単語を付加することによって規則数が組み合わせ的に増大し,推定するパラメタ数も非常に多くなるといった問題点がある.また,構文的な統計情報と語彙的な統計情報を同時に学習するモデルとなっているが,先ほど述べたように両者は独立に学習できることが望ましい.PCFGをベースとしないSPATTERパーザ~\cite{magerman:95:a}やSLTAG~\cite{schabes:92:a,resnik:92:b}にも同様の問題が存在する.これらの研究は語彙的な統計情報を利用して解析精度の向上を図ってはいるが,構文的な統計情報と独立に学習する枠組にはなっていない.構文的な統計情報と語彙的な統計情報を独立に学習する枠組としてはLiによるものが挙げられる~\cite{li:96:a,li:96:b}.Liは,解析結果の候補$I$に対して,構文的な統計情報を反映させた確率モデル$P_{syn}(I)$と単語の共起関係を反映させた確率モデル$P_{lex}(I)$を別々に学習する方法を提案している.そして,語彙的な制約は構文的な制約に優先するといった心理言語学原理に基づき,まず$P_{lex}(I)$を$I$のスコアとして用い,一位とそれ以外の候補のスコアの差が十分に大きくなかった場合に限り$P_{syn}(I)$をスコアとして用いている.すなわち,構文的な統計情報と語彙的な統計情報をそれぞれ独立に学習してはいるが,これらを同時に利用して曖昧性解消を行っているわけではない.また,この2つのスコアの持つ確率的意味が不明確であり\footnote{$P_{syn}(I)$,$P_{lex}(I)$は確率と呼ばれてはいるが,どのような事象に対する確率なのかは不明である.},その最適な組み合わせ方は自明ではない.本研究では,構文的な統計情報と語彙的な統計情報を組み合わせる一方法として,統合的確率言語モデルを提案する~\cite{inui:97:b,inui:97:e,sirai:96:a}.この統合的確率言語モデルの特徴は,単語の出現頻度,および単語の共起関係といった2つの語彙的な統計情報を局所化し,構文的な統計情報と独立に取り扱う点にある.また,構文的な統計情報を構文構造の生成確率として,語彙的な統計情報を単語列の生成確率としてそれぞれ学習し,これらの積を解析結果の候補に対するスコアとすることにより,曖昧性解消に両者を同時に利用することができる.この統合的確率言語モデルの詳細については\ref{sec:model}節で述べる.\ref{sec:exp-stat}節ではこの統合的確率言語モデルの学習,およびそれを用いた日本語文の文節の係り受け解析実験について述べる.最後に\ref{sec:conclusion}節で結論と今後の課題について述べる.
V08N04-03
自然言語をコンピュータで処理するためには,言語学的情報に基づいて構文解析や表層的意味解析を行うだけではなく,われわれが言語理解に用いている一般的な知識,当該分野の背景的知識などの必要な知識(記憶)を整理し,自然言語処理技術として利用可能な形にモデル化することが重要になっている.一般性のある自然言語理解のために,現実世界で成り立つ知識を構造化した知識ベースが必要であり,そのためには人間がどのように言葉を理解しているかを調べる必要があると考えている.初期の知識に関する研究では,人間の記憶モデルの1つとして意味的に関係のある概念をリンクで結んだ意味ネットワーク・モデルが提案されている.CollinsとLoftusは,階層的ネットワークモデル\cite{Collins1969}を改良し,意味的距離の考えを取り入れ活性拡散モデルを提案した\cite{Collins1975}.意味的距離をリンクの長さで表し,概念間の関係の強いものは短いリンクで結んでいる.このモデルによって文の真偽判定に関する心理実験や典型性理論\cite{Rosch1975}について説明した.大規模な知識ベースの例として,電子化辞書があげられる.日本ではコンピュータ用電子化辞書としてEDR電子化辞書が構築されている\cite{Edr1990}.WordNetはGeorgeA.Millerが中心となって構築した電子化シソーラスで,人間の記憶に基づいて心理学的見地から構造化されている\cite{Miller1993}.EDR電子化辞書やWordNetは自然言語処理分野などでもよく参照されている.連想実験は19世紀末から被験者の精神構造の把握など,臨床検査を目的として行なわれている.被験者に刺激語を与えて語を自由に連想させ,連想語の基準の作成・分析などの研究がある.50年代から臨床診断用としてだけでなく,言語心理学などの分野も視野にいれた研究が行なわれている.梅本は210語の刺激語に対し大学生1000人の被験者に自由連想を行ない,連想基準表を作成している\cite{Umemoto1969}.選定された刺激語は,言語学習,言語心理学の研究などに役立つような基本的単語とし,また連想を用いた他の研究との比較可能性の保持も考慮にいれている.しかし連想基準表を発表してから長い年月が経っており,我々が日常的に接する基本的単語も変化している.本研究では小学生が学習する基本語彙の中で名詞を刺激語として連想実験を行い,人間が日常利用している知識を連想概念辞書として構造化した.また刺激語と連想語の2つの概念間の距離の定量化を行なった.従来の電子化辞書は木構造で表現され,概念のつながりは明示されているが距離は定量化されておらず,概念間の枝の数を合計するなどのような木構造の粒度に依存したアドホックなものであった.今後,人間の記憶に関する研究や自然言語処理,情報検索などに応用する際に,概念間の距離を定量化したデータベースが有用になってくると考えている.本論では,まず連想実験の内容,連想実験データ修正の方法,集計結果について述べる.次に実験データから得られる連想語と連想時間,連想順位,連想頻度の3つのパラメータをもとに線形計画法によって刺激語と連想語間の概念間の距離の計算式を決定する.得られた実験データから概念間の距離を計算し連想概念辞書を作成する.連想概念辞書は,刺激語と連想語をノードとした意味ネットワークの構造になっている.次に,連想概念辞書から上位/下位階層をなしている意味ネットワークの一部を抽出,二次元平面で概念を配置してその特徴について調べた.また,既存の電子化辞書であるEDR電子化辞書,WordNetと本論文で提案する連想概念辞書の間で概念間の距離の比較を行ない,連想概念辞書で求めた距離の評価を行なう.
V03N04-02
label{intro}機械翻訳システムには,少し微妙だが重要な問題として冠詞の問題がある.例えば,\vspace*{5mm}\begin{equation}\mbox{\underline{本}\.と\.い\.う\.の\.は人間の成長に欠かせません.}\label{eqn:book_hito}\end{equation}の「本」は総称的な使われ方で,英語では``abook''にも``books''にも``thebook''にも訳される.これに対して,\begin{equation}\mbox{\.昨\.日\.僕\.が\.貸\.し\.た\underline{本}は読みましたか.}\label{eqn:book_boku}\end{equation}の「本」は英語では``thebook''と訳される.冠詞の問題は,多くの場合,名詞句の{\bf指示性}と{\bf数}を明らかにすることによって解決できる.文(\ref{eqn:book_hito})の「本」は総称名詞句で数は未定であり,``abook''にも``books''にも``thebook''にも訳される.また,文(\ref{eqn:book_boku})の「本」は定名詞句でほとんどの場合単数と解釈してよい.よって,英語では``thebook''となる.名詞句の指示性と数は日本語の表層表現から得られることが多い.例えば,文(\ref{eqn:book_hito})では「\.と\.い\.う\.の\.は」という表現から「本」が総称名詞句とわかる.文(\ref{eqn:book_boku})では修飾節「昨日僕が貸した」が限定していることから「本」が定名詞句とわかる.そこで,本研究では名詞句の指示性と数を日本語文中にあるこのような表層表現を手がかりとして推定することを試みた.名詞句の指示性と数の推定は文脈依存性の高い問題であり,本来文脈処理などを行なって解決すべき問題である.しかし,現時点での自然言語処理の技術では文脈処理を他の解析に役立てるところまでは来ていない.また,近年コーパスベースの研究が盛んであるが,指示性と数の正解の情報が付与されているコーパスがなく,タグなしコーパスから指示性と数の問題を解決することはほとんど不可能であるので,コーパスベースでこの問題を解決することはできない.そういう状況の中で,本論文は表層の手がかりを利用するだけでも指示性や数の問題をかなりの程度解決することができることを示すものである.本論文は文献\cite{Murata1993B}を詳しくしたものである.近年,本研究は,文献\cite{Bond1994,Murata1995}などにおいて引用され,具体的に重要性が明らかになりつつある.\cite{Bond1994}においては,日本語から英語への翻訳における数の決定に利用され,また,\cite{Murata1995}においては,同一名詞の指示対象の推定に利用されている.そこで,本論文は本研究を論文としてまとめることにしたものである.以前の文献ではあげられなかった規則も若干付け加えている.
V17N04-06
近年の音声合成技術の進歩により合成音声によるカーナビのガイダンスやパソコンによるテキストの読み上げなど様々な場面で合成音声が聞かれるようになった.また,Webを読み上げるための取り組みが進められており,Webコンテンツを音声に変換するための議論がなされている\cite{SOUMU,Guidance,Dialogue}.音声合成の分野においては従来からTTS(Text-to-Speech)\cite{MITalk,TTS}により電子化されたテキストを音声に変換する試みがなされてきた.メール,電子図書,Webページに至るまで様々なテキストを合成音声によって流暢に朗読する仕組みが検討されている.そして近年では,テキストに制御タグを挿入して音声合成の韻律パラメータを制御するアプローチ(VoiceXML;RamanandGries1997;SSML)がなされている.\nocite{VoiceXML,Raman,SSML}韻律パラメータの制御により,従来の朗読調をベースとした合成音声をより表情豊かな音声に変えられることが分かっている.合成音声を音声対話など様々な分野で利用するためには音声に含まれる表現力を高めることが重要であり,そのために韻律パラメータの制御を行うための仕組みづくりが重要になってきている.我々は,韻律パラメータの制御を行うための記述言語MSCL(Multi-layeredSpeech/SoundSynthesisControlLanguage)\cite{MSCL}を開発し,記述による柔軟な韻律制御を実現した.読み上げ用の電子テキストに直接韻律制御コマンドを記述することで韻律制御が可能となった.本研究では,MSCLをより効果的に利用するための韻律制御コマンドの作成方法について述べ,専門的な知識がなくとも新たな韻律制御規則を作成可能にするアプローチについて1つの方向性を提案する.\subsection{記述言語による韻律制御}PML\cite{Ramming}から発展したVoiceXML\citeauthor{VoiceXML}は記述というスタイルにより,音声対話システムの制御を行うフレームワークであり,音声合成から音声認識に至るまでの制御を一元的に行うことで,電話の音声ガイダンスや自動応答を可能にしている.VoiceXMLのように制御タグにより音声合成の制御を行うことの利点は,テキスト処理の範疇で編集作業や情報の伝送が可能になることである.また,Webコンテンツなどの豊富な電子テキスト情報に制御コマンドを付与し読み上げを行うことが容易になる.インターネット上の豊富なテキスト情報を取り込み,テキスト処理と制御タグの挿入により柔軟な音声ガイダンスシステムが可能になる.しかし,従来の音声合成の記述言語では音声合成で用いる韻律パラメータの制御(以下,韻律制御)をするための制御タグを新たに定義することはできず,利用できるタグの数も限られている.例えば,SSMLなどでは\begin{verbatim}<voicegender="female">天気は晴れです</voice><prosodyrate="-10\end{verbatim}のように,声質の変更(gender)や話速(rate)などのパラメータの変更を行うことは可能であるが,複数のパラメータを同時に変更する場合は,タグの記述が膨大になり可読性が損なわれる可能性もある.韻律パラメータを直接指定する制御タグが主体であるためにタグの名称から韻律制御によって期待しうる効果(印象)を予測することができない.このように,従来法ではきめ細かな韻律制御や直感的な制御ができないといった問題があった.MSCLはきめ細かな韻律制御を行うコマンド群の層と直感的な韻律制御が可能になるコマンド群の層に分離し,韻律制御の自由度や使いやすさを高めている.次節においてMSCLについて述べる.\subsection{MSCLによるアプローチ}利用者が簡単に制作を行えるインタフェースの原則として以下の3点\cite{Stgif}にまとめられている.\begin{itemize}\item[ア.]初心者保護の原則:レポートとは何か\item[イ.]熟練者優遇の原則:レポートの必要十分条件\item[ウ.]上級利用移行支援の原則:利用者に対して特化手段を用意し利用を促進する枠組み\end{itemize}\begin{figure}[b]\begin{center}\includegraphics{17-4ia7f1.eps}\end{center}\caption{MSCLの階層構造}\end{figure}MSCLは,音声合成で必要となるピッチやパワーなどの韻律パラメータ群であるP層と,その韻律パラメータを制御するためのコマンド群であるI層と韻律パラメータに1つの解釈を与えるコマンド群であるS層の3つの階層(図1)がある.I層のコマンドは韻律パラメータを直接指定可能であるため,熟練者はより詳細な音声合成の韻律制御が可能になる.S層のコマンドは効果を直感的に理解した上での韻律制御が可能になり,初学者でも利用可能になる.MSCLの利点をまとめると以下の通りである.\begin{itemize}\item記述というスタイルで合成音声に様々な表現力を与える\item階層構造の記述体系を持つことで,初学者から専門的知識を持つ利用者までの様々なレベルへの対応が可能になる\item新たなコマンドを定義し,利用者独自の韻律制御方法を生み出せる\end{itemize}図1中の韻律制御のための記述がそのまま制御コマンド名になっている.特にS層コマンドであれば直感的な利用が可能となり,I層のコマンドの組み合わせにより利用者が定義した新たな制御コマンドを作成することが可能になる.例えば,以下のように記述できる.\begin{verbatim}[duration](0.8){[〜\](20Hz){はい}}@define:相槌=duration,〜\(0.8,20Hz){}@相槌{はい}\end{verbatim}1行目は,I層コマンド“〜\”により最終母音「い」のピッチを20~Hz降下させており,さらに,``duration''より継続時間長を0.8倍して話速を上げている.この韻律制御をまとめて,「相槌」というS層のコマンド名に置き換えているのが2行目である.そして,3行目からは「相槌」というコマンド名を使うことで韻律制御可能となる.これらの利点により,MSCLはロボットを使った対話システム\cite{Yamato},メール読み上げシステム\cite{Nakayama},など多種多様な音声表現が必要な場面で利用されている.\subsection{MSCLにおける課題}これらの利点に対しMSCLの課題は,新たな韻律制御コマンドの作成が容易ではないことにある.韻律制御という営みは,Sesign\cite{Sesign}が示すように韻律パラメータの操作により合成音声の音程を上げたり,継続時間長を伸縮させたりすることである.例えば“疑問”であれば,最終母音のイントネーションを上昇パターンにさせることは良く知られている.また,文中のある単語について“目立たせる”合成音声を生成するためには,対象となる単語のピッチパターンのダイナミックレンジを広くすることが1つの方法\cite{Iwata}とされる.このようにSesignでは合成音声から目的とする印象を想起できるようになるまで韻律パラメータの操作を繰り返した後に韻律制御方法が決定されるため,利用者が効率的に編集作業を行うには韻律制御による効果を習熟する必要がある.MSCLにおいても韻律制御を行うには,韻律パラメータをどのように制御すれば良いか予め知る必要がある.韻律制御と印象の変化に関する知識を容易に獲得できれば編集の時間を短縮することが可能になる.特に制御コマンド名として効果が表現されていれば便利である.これまで韻律制御と印象の関連性については,感情音声と呼ばれる喜怒哀楽をイメージしながらサンプルテキストを読み上げた音声と平常時に読み上げた音声との韻律パラメータの違いを比較するものが多い\cite{Hirose,Arimoto}.しかし,韻律制御を行った合成音声に対しどのような印象が得られるかを検討した報告はあまりない.そこで,合成音声の韻律制御によって音声の印象がどのように変化するかを調べ,MSCLのS層のコマンドとして利用者に提供する.本研究では,韻律制御方法の提案と韻律制御と印象との関係を明らかにするとともに,効果的に韻律制御を行うための方法について述べる.\subsection{本研究のアプローチ}本研究は,韻律制御と印象との関係について明らかにすることで,音声学的な知識をあまり有さない利用者でもMSCLのコマンド作成が可能になるための1つの方向性を与えるものである.音声合成のための韻律制御という観点で言えば,大きく2つのアプローチが考えられる.\begin{itemize}\item[ア.]コーパスベースのアプローチ:コーパス毎に韻律パターンを保持し,適切なパターンを選択する\cite{Corpus}\item[イ.]韻律生成規則ベースのアプローチ:朗読調の韻律生成規則をベースに,新たな規則を加えることで物理パラメータを制御する\end{itemize}ア.はプリミティブな韻律制御規則を組み合わせて新たな制御コマンドを作るというMSCLのアプローチに適用することが困難である.イ.は物理パラメータの制御規則を制御コマンドとして置き換えることで,値の変更や組み合わせが可能になる.従って,ここではイ.のアプローチで進めていくことにする.まず,従来の音声合成の韻律生成規則によって生成された韻律パラメータに対し,一定の変化を与える制御規則を規定することで新たな韻律制御規則を作成する.次に韻律制御と印象の関係について聴取実験を行う.韻律パラメータを変化させることによって,聴取者が合成音声に対しどのような印象を持つかを連想法により分析する.また,韻律制御と言葉の意味の影響により印象がどのように変化するかを調べる.
V10N05-05
インターネットが急速に広まり,その社会における重要性が急速に高まりつつある現在,他言語のウェブ情報を閲覧したり,多言語で情報を発信するなど,機械翻訳の需要は一層高まっている.これまで,機械翻訳の様々な手法が提案されてきたが,大量のコーパスが利用可能となってきたことにともない用例ベース翻訳\cite{Nagao1984}や統計ベース翻訳\cite{Brown1990}が主な研究対象となってきている.本稿は前者の用例ベース翻訳に注目する.用例ベース翻訳とは,翻訳すべき入力文に対して,それと類似した翻訳用例をもとに翻訳を行なう方式である.経験豊かな人間が翻訳を行う場合でも用例を利用して翻訳を行っており,この方式は他の手法よりも自然な翻訳文の生成が可能だと考えられる.また,用例の追加により容易にシステムを改善可能である.以上のような利点を持つものの,用例ベース方式は翻訳対象領域をマニュアルや旅行会話などに限定して研究されている段階であり,ウェブドキュメント等を翻訳できるような一般的な翻訳システムは実現されていない.その実現が困難な理由の一つに,用例の不足が挙げられる.用例ベース翻訳は入力文とできるだけ近い文脈をもつ用例を使うため,用例は対訳辞書のように独立した翻訳ペアではなく,まわりに文脈を持つことが必要である.つまり,用例中のある句が相手側言語のある句と対応するというような対応関係が必要となる.用例ベース翻訳を実現するためには大量の用例が必要だが,人手でこのような用例を作成するのは大量のコストがかかる.そこで,対訳文に対して句アライメントを行い用例として利用できるように変換する研究が90年代初頭から行われてきた.当初は,依存構造や句構造を用いた研究が中心であったが\cite{Sadler1990,Matsumoto1993,Kaji1992},構文解析の精度が低いために実証的な成果が上がらなかった.その後には,構造を用いず用例を単なる語列として扱った統計的手法が研究の中心となっている\cite{北村1997,Sato2002}.統計的手法によって対応関係を高精度に得ることは可能だが,そのためには大量の対訳コーパスが必要となる.近年は構文解析の精度が日英両言語で飛躍的に向上し,再び構造的な対応付けが試みられている.Menezes等\cite{Menezes2001}は,マニュアルというドメインで依存構造上の句アライメントを行なっている.今村\cite{今村2002}は,旅行会話というドメインで句構造的上の句アライメントを行なっている.これらの先行研究は,限定されたドメインのパラレリズムが高いコーパスを扱っており,一般的なコーパスが用いられていない.本稿はコーパスに依存しない対応付けを実現するために依存構造上の位置関係を一般的に扱い,対応全体の整合性を考慮することにより対応関係を推定する.これは,\cite{Watanabe2000}を基本句の概念を導入して発展させたものである.本稿の構成は以下のとおりである.2章で提案手法について述べる.3章で実験と考察を述べ,4章にまとめを付す.
V29N03-06
構文解析とは句同士の係り受け関係を明らかにするタスクのことである.従来より研究が盛んな分野であり,日本語構文解析ツールのKNP\footnote{\url{https://nlp.ist.i.kyoto-u.ac.jp/?KNP}}\cite{KNP1}\cite{KNP2}が有名であるが,近年,BERTを利用することで,従来のKNPよりも高い正解率を出すことが示されている\cite{shibata}.BERT\cite{bert}はfine-tuningすることで様々なNLPタスクに対して高い性能を示した事前学習済みモデルである.BERTを利用した構文解析では,BERTからの出力ベクトルを順伝播型ニューラルネットワーク(FFNN)に入力しfine-tuningすることで構文解析を行う.ただし,BERTには多くのパラメータを調整する必要があるため学習や推論に時間がかかるという問題がある.そこで本研究では,構文解析において事前学習済みBERTの一部の層を削除した簡易小型化BERTの利用を提案する.ここでいう層とは,BERTを構成しているtransformerのエンコーダーのことであり,$\rm{BERT_{BASE}}$の場合,12層のtransformerのエンコーダーから成っている.このうちの何層かを削除し,層数が減った新しいBERTモデルを作成するという簡易な処理で小型化したBERTを,以降,簡易小型化BERTと呼ぶ.実験では,京都大学ウェブ文書リードコーパス\cite{Webcorpus}と京都大学テキストコーパス\cite{textcorpus}を混合したデータを用いて,京大版のBERT\footnote{\url{https://github.com/google-research/bert}}$^{,}$\footnote{\url{https://nlp.ist.i.kyoto-u.ac.jp/?ku_bert_japanese}}とそれを簡易小型化したBERTの正解率と処理時間を比較した.提案する簡易小型化BERTでは,3~10層目を削除した合計4層のモデルが,京大版のBERTからの正解率の劣化をウェブコーパスで0.87ポイント,テキストコーパスで0.91ポイントに押さえる結果となり,層を削除した後でも高い正解率を維持していることが分かった.また学習・推論時間は削除する層を増やすほど速くなり,合計4層モデルでは学習時間は83\%,推論時間はウェブコーパスで65\%,テキストコーパスで85\%まで削減することができた.またBERTのどの位置の層が構文情報を捉えているかを,12層のうち1層のみをfine-tuningに使用し,テストを行うことで調査した.その結果,新聞コーパスは上位・下位層が高い正解率を出したが,Webコーパスにおいてはどの層も大きな変化は出なかった.これらの結果からBERTはコーパスの特性や文に含まれるトークン数,未知語の割合などによって,構文解析の正解率に変化が出ると考えられる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V29N01-05
対話において人間はしばしば自身の要求や意図を直接的に言及せず,間接発話行為と呼ばれる,言外に意図を含んだ間接的な発話によって表現することがある\cite{searle}.人間は対話相手から間接的な応答を受け取ったとき,これまでの対話履歴などの文脈に基づいて言外の意図を推測できる.図~\ref{figure:example}に,レストランの予約に関する対話における間接的な応答と直接的な応答の例を示す.この例ではオペレータの「Aレストランを予約しますか?」という質問に対してユーザは「予算が少ないのですが」と応答している(図中の「間接的な応答」).この応答は字義通りの意味だけを考慮するとオペレータの質問への直接的な回答にはなっていない.しかし,オペレータは対話履歴を考慮してユーザがAレストランよりも安いレストランを探していると推論し,新たにAレストランよりも安いBレストランを提案している.対話におけるユーザの間接的な発話とそれに示唆された意図(直接的な発話)の関係は,語用論的言い換えの一種である\cite{Fujita-paraphrase}.人間と自然なコミュニケーションを行う対話システムの実現のためには,ユーザの間接的な発話に暗示された意図を推定する語用論的言い換え技術の実現が重要である.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{29-1ia4f1.pdf}\end{center}\hangcaption{対話における間接的応答と直接的応答の例.これらの応答は字義通りに解釈すると異なる意味を持つが,この対話履歴上においては言い換え可能な関係にある.}\label{figure:example}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%大規模な対話コーパス\cite{li-etal-2017-dailydialog,MultiWoZ2.0,MultiWoZ2.1}と深層学習技術により,近年では対話応答生成\cite{zhao-etal-2020-learning-simple,zhang-etal-2020-dialogpt}や対話状態追跡\cite{SimpleTOD,minTL}など様々なタスクにおいて高い性能を誇るモデルや手法が提案されている.また,最近では語用論的言い換えに関するコーパスもいくつか存在する\cite{Pragst,Louis}.しかし,\citeA{Pragst}らは人工的に生成したコーパスを用いており,多様性や自然さに欠ける.また,\citeA{Louis}の構築したコーパスではYes/No型かつ一問一答型の質問応答対のみを扱うため,それ以外の間接的発話には対応できない.対話応答生成等の対話システム関連技術の分野においては,ユーザの間接的応答に着目した研究は未だに行われていない.語用論的言い換え技術の対話システムへの適用のためには,より複雑かつ自然な語用論的言い換えを含む対話コーパスの構築が必要である.本研究ではより高度な語用論的言い換え技術の開発のために,$71,498$の間接的な応答と直接的な応答の対からなる,対話履歴付きの英語言い換えコーパスDIRECT(DirectandIndirectREsponsesinConversationalText)\footnote{\url{https://github.com/junya-takayama/DIRECT/}}を構築する.間接的な応答は対話履歴のような文脈を伴うことで初めてその意図が解釈できるような応答である.そこで本コーパスは既存のマルチドメイン・マルチターンのタスク指向対話コーパスMultiWoZ\cite{MultiWoZ2.1}を拡張して作成した.我々はMultiWoZの各ユーザ発話に対してクラウドソーシングを用いて「ユーザ発話をより間接的に言い換えた発話」と「ユーザ発話をより直接的に言い換えた発話」の対を収集する.そのため,DIRECTコーパスには元の発話・間接的な発話・直接的な発話の$3$つ組が収録される.本研究ではDIRECTコーパスを用いて,語用論的言い換えの生成・認識能力を評価するための$3$つのベンチマークタスクを設計する.ベースラインとして,最先端の事前学習済み言語モデルであるBERT\cite{BERT}とBART\cite{BART}を用いた性能調査も行う.また,言い換え生成モデルを用いてユーザの入力発話を事前により直接的に言い換えることで,MultiWoZコーパスにおいて対話応答生成の性能が向上することを確認する.本稿の構成を記す.第~\ref{section:related}~章では本研究の関連研究を紹介する.第~\ref{section:direct_corpus}~章ではDIRECTコーパスの構築方法について述べたのち,データ例や統計的な分析結果を基にコーパスの特徴について説明する.第~\ref{section:benchmark}~章ではDIRECTコーパスを用いた$3$つのベンチマークタスクを導入する.第~\ref{section:response_generation}~章では,語用論的言い換えを考慮した対話応答生成モデルを構築し,その性能を評価する.最後に,本研究のまとめを第~\ref{section:conclusion}~章にて述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V09N03-05
計算機による要約の試みでは,文章中の重要と思われる部分を抽出することを中心に研究されてきた.しかし,要約は人間の高度に知的な作業であるため,計算機により重要と認定された部分を列挙するだけではなく,要約文章の結束性,構成などの点で課題があることが認識されてきている\cite{Namba00,Mani99revise}.人間が作成するような要約は,結束性,構成などが適切で,要点を適正に網羅しているといった高度な要件を満たしていると考えられるが,このような要件を計算機で満たすためにはどのような要素技術が必要であるかが明らかになっているとはいえない.我々は,このような現状に対し,どのような要約文章なら読みやすく適切であるかを,人間が実際にどのような要約を作成するかを調査した上で,計算機でも実現が可能なレベルの要約操作に細分化し,整理することが必要であると考える.しかし,人間が行う要約の操作はそれほど単純ではなく,表層的な表現の言い換え,構文的言い換えといった様々なレベルの操作が考えられる.このような多様なレベルの言い換えを考慮した上で,要約文が生成される元になった文を,要約元文章から選びだす作業は,人手により対応づけするしかないようにもみえるが,人手による対応付けは,客観的な対応基準や作業コストの両面からみて問題がある.このような流れの中で,例えば,Marcu\cite{MarcuPair}は論文とそのアブストラクトのように,要約とその元文章が組になっている文章集合から,要約の各文が要約元文章のどの文から生成されたかを,コサイン類似度を用いて自動的に対応付ける手法を提案している.また,日本語の自動要約の研究では加藤らがDPマッチングの手法を用いて,局所的な要約知識を自動的に抽出する研究を行っている\cite{kato99}.彼らの研究では,放送原稿とその要約を使用しているため,要約文書は元文原文の残存率が高く,語や文節レベルの言い換えといった局所的な要約知識の獲得に限定して効果をあげているが,人間が行う,より一般的な要約作成に必要な知識獲得を行うためには,その手法の拡張が必要となってくる.本研究では,このような背景から,要約元文章中における文の統語的な依存関係を手がかりに要約文との文・文節対応付けを行い,その結果に基づいて要約操作に関連する言い換え事例を収集し,要約で行われている文再構成操作がどのようなものであるかを調査した.
V30N02-02
label{sec:introduction}単語は異なる時期間や分野間で異なる意味や用法を持つことがある.例えば,\textit{meat}は古英語で「食べ物全般」を意味していたが,近代英語では「動物の肉」という狭い意味で使われるようになった.また,\textit{interface}は一般的に「物体の表面」という意味で使われるが,情報科学の分野では「利用者とコンピュータを結びつけるシステム」という意味で使われている.上記のような時期間や分野間で意味や用法の変わる単語を自動で検出する手法は,言語学・社会学や辞書学だけでなく,情報検索においても有用である\cite{kutuzov-etal-2018-diachronic}.本稿ではこれ以降,時期の違いによる意味の変化に焦点を絞って言及する.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[b]\begin{center}\includegraphics{30-2ia1f1.pdf}\end{center}\hangcaption{1900年代から1990年代にかけて,学習した単語\textit{coach}のベクトルとその周辺単語のベクトルが変化する様子.}\label{fig:difference}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%近年,このような変化を検出する方法として,単語を周辺単語との共起情報を基にベクトルで表現する単語分散表現が広く用いられている.例として,1900年代と1990年代における単語\textit{coach}の単語ベクトルとその周辺単語ベクトルを図\ref{fig:difference}に示す.図より,\textit{coach}の周辺単語が乗り物関連からスポーツ関連に変化していることがわかる.最終的な意味変化の度合いについては,学習した単語ベクトル$\overrightarrow{coach}_{1900s}$と$\overrightarrow{coach}_{1990s}$のユークリッド距離や余弦類似度などの尺度を用いられることが多い.上記のように異なる時期の文書情報を考慮した単語分散表現は,各時期で独立に訓練した単語分散表現に対応づけを行うなどをして獲得する\cite{kim-etal-2014-temporal,kulkarni-etal-2015-statistically,hamilton-etal-2016-diachronic}.対応づけによる手法は主にWord2Vec\cite{mikolov-etal-2013-efficient}などの文脈を考慮しない単語分散表現を対象としているため,実装が容易で計算コストも低いことから,大規模な計算資源を持たない研究者でも導入することができる\cite{sommerauer-fokkens-2019-conceptual,zimmermann-2019-studying}.しかし,対応づけによる手法は「各文書で学習したベクトル空間を線形変換で対応づけできる」という強い仮定をおいている.そこで近年,対応づけを回避する2つの手法が提案された\cite{yao-etal-2018-dynamic,dubossarsky-etal-2019-time}.%が,現在も以下の問題が残されている.まず,\citeA{yao-etal-2018-dynamic}は各時期の単語分散表現を同時に学習するDynamicWordEmbeddingsを提案した.この手法は回転行列などによる対応づけが不要だが,%後\ref{subsubsec:non-contextual-word-embed}節式\eqref{eqn:dynamic-embed}に示すように,設定に敏感な3つのハイパーパラメータが存在するため,膨大な組み合わせ数の設定から最適なハイパーパラメータを探索する必要がある.次に,\citeA{dubossarsky-etal-2019-time}は全ての時期の文書をただ1つの文書とみなし,事前に用意したリストに載っている単語だけ時期を区別してベクトルを学習するTemporalReferencingを提案した.この手法は1つに結合した文書で単語分散表現を学習すれば良いことから非常に導入しやすいが,リストに載っていない単語は文書間で変化しないと仮定しているため,事前によく選定された対象単語のリストを用意する必要がある.また,時期を考慮した単語分散表現を獲得する手法だけでなく,それらを用いた分析においてもいくつかの問題がある.1つ目は,時期を考慮した単語分散表現を獲得する手法が数多く提案されているにも関わらず,それらの性能の定量的な比較があまり行われていないことである\cite{schlechtweg-etal-2019-wind,shoemark-etal-2019-room,tsakalidis-liakata-2020-sequential,schlechtweg-etal-2020-semeval}.これは主に評価で対象の文書間で意味の変化した単語を用意する必要があるためである.比較が行われていても,多くが英語やドイツ語などのヨーロッパ圏の言語を対象としており,複数の言語での比較は少ない\cite{schlechtweg-etal-2020-semeval}.2つ目は,意味変化が自明な単語に絞った定性的な分析が多いことである.特に英語においては,「陽気な」という意味から「同性愛者」という意味を持つようになった\textit{gay}という単語についての分析が多く\cite{kim-etal-2014-temporal,kulkarni-etal-2015-statistically,hamilton-etal-2016-diachronic,hu-etal-2019-diachronic},意味の変化が自明でない単語に注目されることは少ない\cite{gonen-etal-2020-simple}.そこで本研究では,これらの問題に対して以下のように取り組む.まず,手法の問題を解消するために,\citeA{dubossarsky-etal-2019-time}のTemporalReferencingに対して2つの拡張を行う.1つ目は,単語ベクトルの学習の際に選定した語彙に含まれるすべての単語を対象単語とすることである.このように拡張することで,対象単語のリストを事前に用意する必要が無くなり,リストに載っていない単語の意味が変化することによる分析漏れなども避けることができる.また,単語ベクトルの変化量から,自明でない単語の意味変化を検出することが可能になる.2つ目は,周辺単語ベクトルも文書間での変化を考慮することである.一般的に動的な単語分散表現\cite{yao-etal-2018-dynamic}でない限り,学習した単語分散表現の対象単語ベクトルは文書間で獲得されるが,一緒に学習される周辺単語ベクトルは文書間で固定されているか,対応が取れていないことが多い\cite{kim-etal-2014-temporal,kulkarni-etal-2015-statistically,hamilton-etal-2016-diachronic,dubossarsky-etal-2019-time}.そこで,DynamicWordEmbeddingsのように周辺単語ベクトルも文書間での変化を考慮するような拡張を行う.次に,実験において,複数の言語での性能比較および網羅的な分析を行った.定量的な分析においては,各手法で意味変化した単語の検出性能を評価した.SemEval-2020Task1\cite{schlechtweg-etal-2020-semeval}で4つの言語において提案した拡張方法による効果を検証した後に,英語と日本語の2つの言語において先行研究と提案した拡張手法の性能を比較した.先行研究との比較の際には,意味変化を検出する性能だけでなく,単語分散表現の学習に要する計算時間も比較した.定性的な分析においては,先行研究によって意味の変化が報告されている単語だけでなく,意味の変化が自明でない単語についても,網羅的な分析を行った.本稿の構成を示す.第\ref{sec:relatedwork}節では時期を考慮した単語分散表現を獲得するための先行研究および既存手法の問題点について述べる.第\ref{sec:proposal}節では既存手法の問題点を解消するための拡張方法を提案する.第\ref{sec:preexperiment}節と第\ref{sec:experiment}節では提案手法と既存手法について,意味変化した単語の検出性能を比較する.第\ref{sec:qualitative}節では各手法が検出した単語や,意味変化の種類・傾向について分析を行う.最後に,第\ref{sec:conclusion}節で本研究の結論を述べる\footnote{実験に使用したコードは以下で公開している.\url{https://github.com/a1da4/pmi-semantic-difference}}.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%
V27N04-05
label{sec:intro}%=====================================================近年,言語学習者\cite{petersen-2007}や子ども\cite{belder-2010}を対象に,テキストを平易に書き換えるテキスト平易化\cite{shardlow-2014,alva-2020}の研究が注目を集めており,特に難解な語句を平易な語句に言い換える語彙平易化\cite{paetzold-2017b}が英語を中心に研究されている.語彙平易化では,入力文の文法構造を保持したまま,難解な語句を文脈に応じて平易な語句に言い換える.この技術は,言語学習者や子どもの文章読解支援に応用されるだけでなく,機械翻訳\cite{stajner-2016}をはじめとする他の自然言語処理応用タスクの前処理としても有用である.本タスクは,平易に書かれたコーパス(SimpleEnglishWikipedia\footnote{http://simple.wikipedia.org/}),難解な文と平易な文のパラレルコーパス\cite{zhu-2010},難解な語句から平易な語句への言い換え辞書\cite{pavlick-2016},評価用データセット\cite{specia-2012}やツールキット\cite{paetzold-2015}など,言語資源が豊富な英語を中心に研究されてきた.しかし,日本語ではこれらの語彙平易化のための言語資源が充分に整備されていない.語彙平易化は,以下の4つのサブタスク\cite{shardlow-2014}を通して実現される.\begin{itemize}\item難解語の検出:入力文中のどの単語が難解かを判定し,語彙平易化の対象単語を決定する.\item言い換え候補の生成:対象単語の同義語を文脈を考慮せずに広く収集する.\item言い換え候補の選択:文脈を考慮して,対象単語の言い換えを選択する.\item難易度に基づく並び替え:候補を平易な順に並び替え,最も平易な言い換えを出力する.\end{itemize}\figref{fig:pipeline}に示すように,これらは単語の難易度推定に関するタスクと語彙的換言に関するタスクに大別できる.本研究では,単語の難易度推定に関する「難解語の検出」および「難易度に基づく並び替え」のサブタスクに焦点を当て,日本語の語彙平易化のための言語資源\footnote{https://sites.google.com/site/moguranosenshi/projects/lexical-simplification}を構築する.本研究の貢献は次の3つである.\begin{itemize}\item日本語の語彙平易化のための評価用データセットを改良した.\item大規模な日本語の単語難易度辞書および難解→平易の言い換え辞書を構築した.\item日本語の語彙平易化システムを構築するためのツールキットを公開した.\end{itemize}本稿の構成を示す.2\hl{章}では,言語資源を中心に語彙平易化の関連研究を紹介する.3\hl{章}では,先行研究\cite{kajiwara-2015}で構築した日本語の語彙平易化のための評価用データセットを改良する.4\hl{章}では,単語の難易度を推定する分類器を訓練し,大規模な日本語の単語難易度辞書を構築する.また,この分類器をもとに,難解な単語と平易な単語の言い換え辞書も構築する.5\hl{章}では,3\hl{章}で構築した評価用データセットの上で,4\hl{章}で構築した辞書に基づく語彙平易化システムの性能を評価する.最後に6\hl{章}で,本研究のまとめを述べる.%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%fig.1\begin{figure}[t]\begin{center}\includegraphics{27-4ia4f1.eps}\end{center}\caption{語彙平易化の流れ}\label{fig:pipeline}\end{figure}%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%=====================================================
V10N01-03
文書データベースから必要な文書を検索する場合,対象となる文書を正確に表現する検索式を作成する必要がある.しかし正確な検索式を作成するためには,検索対象となる文書の内容について十分な知識が必要であり,必要な文書を入手する前の検索者にとって適切な検索式を作成するのは難しい.レレバンスフィードバックはこの問題を解決する手法であり,システムと検索者が協調して検索式を作成することで,検索者にとって容易かつ高い精度で文書検索を行う手段である.検索者はまず初期の検索条件を与え,この検索条件により検索される文書からシステムが特定のアルゴリズムに従ってサンプル文書を選択する(本稿ではこの選択アルゴリズムをサンプリングと呼ぶ).サンプル文書から検索者が必要文書と不要文書を選択すると,選択された文書からシステムが自動的に検索条件を更新し,検索を行う.この検索結果に対してシステムによるサンプリング,検索者による選択,再検索が繰り返される.この選択による検索条件の更新がレレバンスフィードバックであり,検索結果について必要文書と不要文書を選択することで,利用者は容易に必要文書を収集することができる.また,この選択--検索のプロセスを繰り返すことで,検索条件がより検索者のニーズを反映したものとなるとともに,検索者は検索要求に適合する文書をより多く入手することができる.レレバンスフィードバックの検索精度はサンプリング手法によって異なる.通常のレレバンスフィードバックでは最も検索条件に適合すると考えられる文書をサンプル文書とする(本稿ではこの手法を「レレバンスサンプリング」と呼ぶ).これに対してLewisらはuncertaintyサンプリングを提案している\cite{bib:DLewis}.これは文書のうち必要であるか不要であるかを最も判定しにくいものをサンプルとする手法で,レレバンスサンプリングよりも高い検索精度が得られると報告されている.これらサンプリング手法は検索結果の上位から順に(レレバンスサンプリング),ないし必要文書と不要文書の境界と推定される文書,およびその前後の順位の文書(uncertaintyサンプリング)をサンプル文書として選択する.このため検索条件との適合度により順位付けされた検索結果のうち,適合度がある範囲にある文書からサンプルが選択される.比較的類似した文書は同じ検索条件との適合度が類似した値となる傾向があることから,これらサンプリング手法は複数の類似した文書をサンプルとして選択する可能性が高い.この問題点に対処するため,筆者はunfamiliarサンプリングを提案する.unfamiliarサンプリングはレレバンスサンプリングおよびuncertaintyサンプリングを改良する手法であり,既存のサンプル文書と類似した文書がサンプルとして追加されないように,サンプル選択の際に既存のサンプルと文書間距離が近いサンプルを排除する.この改良により,選択されるサンプル文書はよりバラエティに富んだものとなり,複数の類似した文書がサンプルとして用いられる場合に比べて検索精度の向上が期待できる.レレバンスフィードバックを用いた文書検索を行う場合,検索者が多くの文書について必要ないし不要の判定をすることは考えにくいので,少数のサンプル文書で高い精度を得ることが重要になる.近年,文書検索や文書分類を高い精度で実現する手法としてAdaBoostがよく用いられる\cite{bib:Boost}.AdaBoostは既存の分類アルゴリズム(弱学習アルゴリズム)を組合せることでより精度の高いアルゴリズムを生成する手法であるが,決定株,ベイズ推定法を弱学習アルゴリズムとして用いる場合,サンプル文書が少ない場合にはRocchioフィードバックに劣る精度となることが知られている\cite{bib:Boost_and_Rocchio,bib:Yu}.本稿ではRocchioフィードバックを弱学習アルゴリズムとして用いる例(Rocchio-Boost)を示し,実験により少数のサンプル文書でも高い検索精度を実現することを示す.次章以降の本稿の構成は次の通りである.2章で既存のレレバンスフィードバック技術であるRocchioフィードバックについて述べ,3章ではAdaBoostのRocchioフィードバックへの適用について述べる.4章で既存のサンプリング手法であるレレバンスサンプリング,uncertaintyサンプリングについて述べ,5章で提案手法であるunfamiliarサンプリングについて述べる.6章で実験に用いたNPLテストコレクションおよび実験手法について述べる.7章で実験結果とその考察について述べ,8章で本稿のまとめを述べる.