Datasets:
id
stringlengths 9
9
| text
stringlengths 304
9.57k
| title
stringclasses 1
value |
|---|---|---|
V24N01-05
|
製品やサービスを提供する多くの企業は顧客の問い合わせに対応するために,コールセンターを運営している.コールセンターでは,オペレータが電話やメールによる顧客問い合わせに対応する際や,顧客自身が答えを探す際の支援のために,FrequentlyAskedQuestion(FAQ)の整備および,FAQ検索システムを導入していることが多い.FAQ検索の利用者は,自然文や単語の集合を検索クエリとして,検索を実施するのが一般的である.しかし,FAQは過去の問い合わせ履歴の中から,同様の質問をまとめ,それらを代表するような抽象的な表現で作成されることが多いため,類義語や同義語,表記の揺れといった問題により,正しく検索できない場合がある.たとえば,以下の例のように入力の問い合わせと対応するFAQで語彙が一致しないことがある.\begin{itemize}\item問い合わせ:○○カードの再度発行をしたい.今から出張だが、カードが見当たらない.どうしたらよいか.\item正解のFAQの質問部分:○○カードを紛失・盗難・破損した場合の手続き方法\item不正解のFAQの質問部分:○○カードを新規発行する方法\end{itemize}\noindentこの例では,正解のFAQへの語彙の一致は「○○カード」のみである.一方,不正解のFAQには,「○○カード」に加え,「発行」も一致するため,不正解のFAQが上位にランクされてしまう.このような問題に対して,たとえば,Yahoo!知恵袋などのコミュニティ型質問応答サイトにおける類似質問検索では,統計的機械翻訳で用いられるアライメントモデルを適用する方法が提案されている\cite{riezler:07,soricut:04,xue:08}.また,Web検索においては,ユーザのクエリに対して得られた検索結果の上位の文書集合を適合文書とみなしてクエリを拡張するpseudo-relevancefeedbackといった手法も用いられている.しかし,アライメントモデルが学習しているのは,単語と単語の対応確率であり,FAQを特定するために有効な語を学習しているとは言えない.また,Webやコミュニティ型質問応答サイトなど複数の適合文書が得られる可能性がある場合に用いられるpseudo-relevancefeedbackは,適合するFAQが複数存在することがWeb検索ほど期待できないFAQ検索では十分な効果が得られない可能性がある.本論文では,問い合わせを対応するFAQに分類する文書分類器を利用したFAQ検索システムを提案する.本システムでは,機械学習を基に各FAQに関連のある単語を学習することで,問い合わせ中の単語が検索対象のFAQに一致していなくてもFAQを精度良く検索することを目指す.しかし,FAQだけを文書分類器のための学習データとして用いる場合は,FAQに出現する単語だけの判別しかできないという問題が残る.そこで,文書分類器を学習するために,コールセンターにて蓄積されている顧客からの問い合わせとオペレータの対応内容である問い合わせ履歴から自動生成した学習データを用いる.問い合わせ履歴には,問い合わせに対するオペレータの対応内容は記入されているものの,明示的にどのFAQが対応するという情報は付与されていない場合がある.そのため,本論文では,Jeonらの\cite{jeon:05}「似た意味の質問には似た回答がされる」という仮定に基づき,FAQの回答部分と問い合わせ履歴の対応内容の表層的類似度を計算し,閾値以上となった対応内容と対になっている問い合わせをそのFAQに対応するものとみなして学習データとする方法を用いる.さらに,本論文では,文書分類器の判別結果に加え,問い合わせと検索対象のコサイン類似度といった多くの手法で用いられている特徴を考慮するために,教師有り学習に基づくランキングモデルの適用を提案する.素性には,問い合わせとFAQの単語ベクトル間のコサイン類似度などに加えて,文書分類器が出力するスコアを用いる.ある企業のコールセンターのFAQおよび問い合わせ履歴を用いて提案手法を評価をした.提案手法は,pseudo-relevancefeedbackおよび統計的機械翻訳のアライメント手法を用いて得られる語彙知識によるクエリ拡張手法と比較して,高いランキング性能を示した.
| |
V06N01-03
|
\label{sec:introduction}電子化テキストの急増などに伴い,近年,テキストから要点を抜き出す重要文選択技術の必要性が高まってきている.このような要請に現状の技術レベルで応えるためには,表層的な情報を有効に利用することが必要である.これまでに提案されている表層情報に基づく手法では,文の重要度の評価が主に,1)文に占める重要語の割合,2)段落の冒頭,末尾などのテキスト中での文の出現位置,3)事実を述べた文,書き手の見解を述べた文などの文種,4)あらかじめ用意したテンプレートとの類似性などの評価基準のいずれか,またはこれらを組み合わせた基準に基づいて行なわれる\cite{Luhn58,Edmundson69,Kita87,Suzuki88,Mase89,Salton94,Brandow95,Matsuo95,Sato95,Yamamoto95,Watanabe96,Zechner96,FukumotoF97,Nakao97}.本稿では,表層的な情報を手がかりとして文と文のつながりの強さを評価し,その強さに基づいて文の重要度を決定する手法を提案する.提案する手法では文の重要度に関して次の仮定を置く.\begin{enumerate}\item表題はテキスト中で最も重要な文である.\item重要な文とのつながりが強ければ強いほど,その文は重要である.\end{enumerate}表題はテキストの最も重要な情報を伝える表現であるため,それだけで最も簡潔な抄録になりえるが,多くの場合それだけでは情報量が十分でない.従って,不足情報を補う文を選び出すことが必要となるが,そのような文は,表題への直接的なつながりまたは他の文を介しての間接的なつながりが強い文であると考えられる.このような考え方に基づいて,文から表題へのつながりの強さをその文の重要度とする.文と文のつながりの強さを評価するために次の二つの現象に着目する.\begin{enumerate}\item人称代名詞と先行(代)名詞の前方照応\item同一辞書見出し語による語彙的なつながり\end{enumerate}重要文を選択するために文間のつながりを解析する従来の手法としては,1)接続表現を手がかりとして修辞構造を解析し,その結果に基づいて文の重要度を評価する手法\cite{Mase89,Ono94}や,2)本稿と同じく,語彙的なつながりに着目した手法\cite{Hoey91,Collier94,FukumotoJ97,Sasaki93}がある.文と文をつなぐ言語的手段には,照応,代用,省略,接続表現の使用,語彙的なつながりがある\cite{Halliday76,Jelinek95}が,接続表現の使用頻度はあまり高くない\footnote{文献\cite{Halliday76}で調査された七編のテキストでは,照応,代用,省略,接続表現の使用,語彙的なつながりの割合は,それぞれ,32\%,4\%,10\%,12\%,42\%である\cite{Hoey91}.}.このため,前者の手法には,接続表現だけでは文間のつながりを解析するための手がかりとしては十分でないという問題点がある.後者の手法では,使用頻度が比較的高い照応を手がかりとして利用していない.
| |
V21N03-03
|
日本において,大学入試問題は,学力(知力および知識力)を問う問題として定着している.この大学入試問題を計算機に解かせようという試みが,国立情報学研究所のグランドチャレンジ「ロボットは東大に入れるか」というプロジェクトとして2011年に開始された\cite{Arai2012}.このプロジェクトの中間目標は,2016年までに大学入試センター試験で,東京大学の二次試験に進めるような高得点を取ることである.我々は,このプロジェクトに参画し,2013年度より,大学入試センター試験の『国語』現代文の問題を解くシステムの開発に取り組んでいる.次章で述べるように,『国語』の現代文の設問の過半は,{\bf傍線部問題}とよばれる設問である.船口\cite{Funaguchi}が暗に指摘しているように,『国語』の現代文の「攻略」の中心は,傍線部問題の「攻略」にある.我々の知る限り,大学入試の『国語』の傍線部問題を計算機に解かせる試みは,これまでに存在しない\footnote{CLEF2013では,QA4MREのサブタスクの一つとして,EntranceExamsが実施され,そこでは,センター試験の『英語』の問題が使用された.}.そのため,この種の問題が,計算機にとってどの程度むずかしいものであるかさえ,不明である.このような状況においては,色々な方法を試すまえに,まずは,比較的単純な方法で,どのぐらいの正解率が得られるのかを明らかにしておくことが重要である.本論文では,このような背景に基づいて実施した,表層的な手がかりに基づく解法の定式化・実装・評価について報告する.我々が実装したシステムの性能は,我々の当初の予想を大幅に上回り,「評論」の傍線部問題の約半分を正しく解くことができた.以下,本稿は,次のように構成されている.まず,2章で,大学入試センター試験の『国語』の構成と,それに含まれる傍線部問題について説明する.3章では,我々が採用した定式化について述べ,4章ではその実装について述べる.5章では,実施した実験の結果を示し,その結果について検討する.最後に,6章で結論を述べる.
| |
V07N01-04
|
本稿では単語の羅列を意味でソートするといろいろなときに効率的でありかつ便利であるということについて記述する\footnote{筆者は過去に間接照応の際に必要となる名詞意味関係辞書の構築にこの意味ソートという考え方を利用すれば効率良く作成できるであろうことを述べている\cite{murata_indian_nlp}.}.本稿ではこの単語を意味でソートするという考え方を示すと同時に,この考え方と辞書,階層シソーラスとの関係,さらには多観点シソーラスについても論じる.そこでは単語を複数の属性で表現するという考え方も示し,今後の言語処理のためにその考え方に基づく辞書が必要であることについても述べている.また,単語を意味でソートすると便利になるであろう主要な三つの例についても述べる.
| |
V06N05-04
|
多言語話し言葉翻訳システムの処理には,文法から逸脱した表現などを含めた多様な表現を扱える頑健性,円滑なコミュニケーションのための実時間性,原言語と目的言語の様々なペアに適用できる汎用性,が必要である.多様な話し言葉表現をカバーするために詳細な構文意味規則を大量に記述する規則利用型(rule-based)処理は,多言語翻訳にとっては経済的な手法でない.一方,用例利用型(example-based)処理は,翻訳例の追加により翻訳性能を向上させていく汎用性の高い手法である.ただし,生データに近い状態の翻訳例をそのまま使うと,入力文に類似する翻訳例が存在しない場合が多くなる,翻訳例を組み合わせて翻訳結果を作り上げるには高度な処理が必要になる,などの問題が起こり,多様な表現に対して高精度の翻訳を実現することが困難になる.そこで,単純な構文構造や意味構造へ加工した用例を組み合わせて利用すれば,単純な解析を使うことによって頑健性も汎用性も高い翻訳処理が実現できる.筆者らは,パタン照合(patternmatching)による構文解析と用例利用型処理を用いた変換主導型機械翻訳(Transfer-DrivenMachineTranslation,以下,TDMTと呼ぶ)を話し言葉の翻訳手法として提案し,「国際会議に関する問い合わせ会話」を対象とする日英翻訳にTDMTを適用した~\cite{Furuse}.しかし,この時点のTDMTは,頑健性,実時間性,汎用性においてまだ問題があった.文献\cite{Furuse}では,多様な表現をカバーするために,表層パタンと品詞列パタンの使い分け,パタンを適用するための入力文の修正,などを行なっていた.例えば,名詞列について,ある場合は複合名詞を表すのに品詞列パタンを照合させ,別の場合は助詞を補完して表層パタンを照合させていた.しかし,どのようにパタンを記述すべきか,どのような場合にどのように入力文を修正すべきか,などの基準が不明瞭であった.そのため,誤った助詞を補完したり,補完の必要性を正確に判別できなかったりする場合があり,多言語翻訳へ展開するための汎用性に問題を残していた.また,限られた長さの複合名詞を品詞列パタンにより記述していたため,任意の長さの複合名詞を扱うことができないなど,頑健性にも問題があった.さらに,解析途中で構文構造候補を絞り込むことができない構文解析アルゴリズムを採用していたため,構文的な曖昧性の多い複文などに対して処理時間が増大するという実時間性の問題もあった.本論文では,これらの問題を解決するために,表層パタンのみを用いた統一的な枠組で,パタンの記述や照合,入力文の修正を行なう構成素境界解析(constituentboundaryparsing)を提案し,構成素境界解析を導入した新しいTDMTが多言語話し言葉翻訳~\cite{Furuse95,Yamamoto96}に対して有効な手法であることを評価実験結果により示す.また,構成素境界解析では,チャート法に基づくアルゴリズムで逐次的(left-to-right)に入力文の語を読み込んで,解析途中で候補を絞り込みながらボトムアップに構文構造を作り上げることにより,効率的な構文解析が行なえることも示す.現在は,「国際会議に関する問い合わせ会話」よりも場面状況が多様である「旅行会話」を翻訳対象とし,日英双方向,日韓双方向などの多言語話し言葉翻訳システムを構築している.システムは,構成素境界解析と用例利用型処理を組み合わせた新しいTDMTの枠組により,多様な表現の旅行会話文を話し手の意図が理解可能な結果へ実時間で翻訳することができる.パタンや用例を利用する頑健な翻訳手法として,原言語と目的言語のCFG規則を対応させたパタンを入力文に照合させる手法~\cite{Watanabe},詳細な構文意味規則を利用する翻訳を併用する手法なども提案されている~\cite{Brown,Kato,Shirai}.前者は,表層語句だけでなく細かい属性を使ってパタンを記述することがあり,パタンの記述は必ずしも容易でない.また,解析中で競合するCFG規則が多くなり処理時間が増大しやすい.後者は,入力文がパタンや用例にヒットすれば高品質の翻訳結果を得られるが,多様な入力文に対して高いヒット率を実現するのは容易ではない.また,多言語翻訳へ展開する際に,様々な言語ペアの翻訳に対して詳細な構文意味規則をそれぞれ用意するのも容易でない.これらの手法に比べて,TDMTは,表層パタンのみの照合を行なうので,実時間性の点で有利である.パタンの記述も容易であり,パタンを組み合わせることにより,他の翻訳手法を併用しなくても多様な入力文に対応でき,頑健性においても,多言語翻訳を実現する汎用性においても有利である.以下,2節で構成素境界解析と用例利用型処理を組み合わせたTDMTの枠組,3節でパタンによる構文構造の記述,4節で構成素境界解析による構文構造の導出,5節で用例利用型処理による最尤の原言語構文構造の決定法と目的言語への変換,6節で解析途中での構文構造候補の絞り込み,について説明し,7節で日英双方向と日韓双方向の話し言葉翻訳の評価実験結果により,本論文で提案するTDMTの有効性を示す.
| |
V22N05-01
|
ProjectNextNLP\footnote{https://sites.google.com/site/projectnextnlp/}は自然言語処理(NLP)の様々なタスクの横断的な誤り分析により,今後のNLPで必要となる技術を明らかにしようとするプロジェクトである.プロジェクトでは誤り分析の対象のタスクが18個設定され,「語義曖昧性解消」はその中の1つである.プロジェクトではタスク毎にチームが形成され,チーム単位でタスクの誤り分析を行った.本論文では,我々のチーム(「語義曖昧性解消」のチーム)で行われた語義曖昧性解消の誤り分析について述べる.特に,誤り分析の初期の段階で必要となる誤り原因のタイプ分けに対して,我々がとったアプローチと作成できた誤り原因のタイプ分類について述べる.なお本論文では複数の誤り原因が同じと考えられる事例をグループ化し,各グループにタイプ名を付ける処理を「誤り原因のタイプ分け」と呼び,その結果作成できたタイプ名の一覧を「誤り原因のタイプ分類」と呼ぶことにする.誤り分析を行う場合,(1)分析対象のデータを定める,(2)その分析対象データを各人が分析する,(3)各人の分析結果を統合し,各人が同意できる誤り原因のタイプ分類を作成する,という手順が必要である.我々もこの手順で誤り分析を行ったが,各人の分析結果を統合することが予想以上に負荷の高い作業であった.統合作業では分析対象の誤り事例一つ一つに対して,各分析者が与えた誤り原因を持ち寄って議論し,統合版の誤り原因を決定しなければならない.しかし,誤りの原因は一意に特定できるものではなく,しかもそれを各自が独自の視点でタイプ分けしているため,名称や意味がばらばらな誤り原因が持ち寄られてしまい議論がなかなか収束しないためであった.そこで我々は「各人が同意できる誤り原因のタイプ分類」を各分析者のどの誤り原因のタイプ分類とも類似している誤り原因のタイプ分類であると考え,この統合をある程度機械的に行うために,各自が設定した誤り原因をクラスタリングすることを試みた.また,本論文では「各分析者のどのタイプ分類とも類似している」ことに対し,「代表」という用語を用いることにした.つまり,我々が設定した目標は「各分析者の誤り原因のタイプ分類を代表する誤り原因のタイプ分類の作成」である.クラスタリングを行っても,目標とするタイプ分類を自動で作成できるわけではないが,ある程度共通している誤り原因を特定でき,それらを元にクラスタリング結果を調整することで目標とする誤り原因のタイプ分類が作成できると考えた.具体的には,各自の設定した誤り原因を対応する事例を用いてベクトル化し,それらのクラスタリングを行った.そのクラスタリング結果から統合版の誤り原因を設定し,クラスタリング結果の微調整によって最終的に9種類の誤り原因を持つ統合版の誤り原因のタイプ分類を作成した.この9種類の中の主要な3つの誤り原因により,語義曖昧性解消の誤りの9割が生じていることが判明した.考察では誤り原因のタイプ分類間の類似度を定義することで,各分析者の作成した誤り原因のタイプ分類と統合して作成した誤り原因のタイプ分類が,各分析者の視点から似ていることを確認した.これは作成した誤り原因のタイプ分類が分析者7名のタイプ分類を代表していることを示している.また統合した誤り原因のタイプ分類と各自の誤り原因のタイプ分類を比較し,ここで得られた誤り原因のタイプ分類が標準的であることも示した.
| |
V09N01-06
|
自然言語処理の最大の問題点は,言語表現の構造と意味の多様性にある.機械翻訳の品質に関する分析結果(麻野間ほか1999)によれば,従来の機械翻訳において,期待されるほどの翻訳品質が得られない最大の原因は,第1に,動詞や名詞に対する訳語選択が適切でないこと,第2に,文の構造が正しく解析できないことであると言われている.ところで,日本語表現で,訳語選択と文の構造解析を共に難しくしている問題の一つとして,「もの」,「こと」,「の」などの抽象名詞の意味と用法の問題がある.抽象名詞は,高度に抽象化された実体概念を表す言葉で,話者が,対象を具体的な名詞で表現できないような場合や明確にしたくないような場合にも使用される傾向を持ち,その意味と用法は多彩である.そのため,従来の機械翻訳において,これらの抽象名詞が適切に訳される例は,むしろ少ない.学校文法では,これらの語の一部を形式名詞と呼んでいるが,これは,それらの語が,実体概念を表すという名詞本来の機能を越えて,対象に対して話者の抱いた微妙なニュアンスを伝えるような機能を持ち,文法上,他の名詞とは異なる用法を有することを意味している.訳語選択の観点から見ると,従来,動詞の訳し分けでは,結合価文法が有効であることが知られており,大規模な結合価パターン辞書(池原ほか1997)が開発されたことによって,その翻訳精度は大幅に向上した.これに対して,名詞の訳し分けの研究としては,結合価文法で定義された名詞の意味属性を用いることの有効性を検証した研究(桐澤ほか1997)や形容詞に修飾された名詞についての訳し分けなどがあるが,動詞の場合に比べて得られる効果は小さい.名詞は動詞に比べてその種類も多く意味が多彩である(笠原ほか1997).なかでも,抽象名詞は本来の名詞としての機能のほか,文法的にも多彩な機能を持つため,個別に検討する必要があると考えられる.従来の抽象名詞の研究としては,形式名詞「もの」の語彙的意味と文法的意味の連続性を明らかにする目的で,これを他の抽象名詞「こと」と「ところ」を対比した研究(佐々ほか1997)がある.また,抽象名詞「こと」が,「名詞+の+こと」の形式で使用された場合を対象に,「こと」が意味的に省略可能であるか否かを述語の種類によって判定する研究(笹栗,金城1998)等もある.しかし,これらの研究では,文中での意味的役割については検討されておらず,従って,また,英語表現との対応関係も明らかでない.そこで,本検討では,抽象度の高い6種類の名詞「の」,「こと」,「もの」,「ところ」,「とき」,「わけ」を対象に,文法的,意味的用法を分類し,英語表現との対応関係を調べる.このうち,名詞「の」は,多くの場合,その意味を変えることなくより抽象度の低い名詞「こと」,「もの」,「ところ」,「とき」,「わけ」,「ひと」に置き換えられることが知られている.これに着目して,本稿では,以下の2段階に分けて検討を行う.まず,単語「の」を対象に,それが,抽象名詞であるか否かを判定するための条件を示し,抽象名詞である場合について,他のどの抽象名詞に交替可能であるかを判定する方法を検討する.次に,5種類の抽象名詞「こと」,「もの」,「ところ」,「とき」,「わけ」を対象に,文中での役割に着目して,用法を「語彙的意味の用法」と「文法的意味の用法」に分け,「文法的意味の用法」をさらに,「補助動詞的用法」と「非補助動詞的用法」に分類する.その後,表現形式と意味の違いに着目して,文法的,意味的用法と英語表現形式との対応表を作成する.また,得られた対応表を新聞記事の標本データに適用し,その適用範囲と適用精度を評価する.
| |
V26N01-08
|
近年,ニューラルネットワークに基づく機械翻訳(ニューラル機械翻訳;NMT)は,単純な構造で高い精度の翻訳を実現できることが知られており,注目を集めている.NMTの中でも,特に,エンコーダデコーダモデルと呼ばれる,エンコーダ用とデコーダ用の2種類のリカレントニューラルネットワーク(RNN)を用いる方式が盛んに研究されている\cite{sutskever2014sequence}.エンコーダデコーダモデルは,まず,エンコーダ用のRNNにより原言語の文を固定長のベクトルに変換し,その後,デコーダ用のRNNにより変換されたベクトルから目的言語の文を生成する.通常,RNNには,GatedRecurrentUnits(GRU)\cite{cho-EtAl:2014:EMNLP2014}やLongShort-TermMemoryLSTM)\cite{hochreiter1997long,gers2000learning}が用いられる.このエンコーダデコーダモデルは,アテンション構造を導入することで飛躍的な精度改善を実現した\cite{bahdanau2015,luong-pham-manning:2015:EMNLP}.この拡張したエンコーダデコーダモデルをアテンションに基づくNMT(ANMT)と呼ぶ.ANMTでは,デコーダは,デコード時にエンコーダの隠れ層の各状態を参照し,原言語文の中で注目すべき単語を絞り込みながら目的言語文を生成する.NMTが出現するまで主流であった統計的機械翻訳など,機械翻訳の分野では,原言語の文,目的言語の文,またはその両方の文構造を活用することで性能改善が行われてきた\cite{lin2004path,DingP05-1067,QuirkP05-1034,LiuP06-1077,huang2006statistical}.ANMTにおいても,その他の機械翻訳の枠組み同様,文の構造を利用することで性能改善が実現されている.例えば,Eriguchiら\cite{eriguchi-hashimoto-tsuruoka:2016:P16-1}は,NMTによる英日機械翻訳において原言語側の文構造が有用であることを示している.従来の文構造に基づくNMTのほとんどは,事前に構文解析器により解析された文構造を活用する.そのため,構文解析器により解析誤りが生じた場合,その構造を利用する翻訳に悪影響を及ぼしかねない.また,必ずしも構文解析器で解析される構文情報が翻訳に最適とは限らない.そこで本論文では,予め構文解析を行うことなく原言語の文の構造を活用することでNMTの性能を改善することを目指し,CKYアルゴリズム\cite{Kasami65,Younger67}を模倣したCNNに基づく畳み込みアテンション構造を提案する.CKYアルゴリズムは,構文解析の有名なアルゴリズムの一つであり,文構造をボトムアップに解析する.CKYアルゴリズムでは,CKYテーブルを用いて,動的計画法により効率的に全ての可能な隣接する単語/句の組み合わせを考慮して文構造を表現している.提案手法は,このCKYアルゴリズムを参考にし,CKYテーブルを模倣したCNNをアテンション構造に組み込むことで,原言語文中の全ての可能な隣接する単語/句の組み合わせに対するアテンションスコアを考慮した翻訳を可能とする.具体的には,提案のアテンション構造は,CKYテーブルの計算手順と同様の順序でCNNを構築し,提案のアテンション構造を組み込んだANMTは,デコード時に,CKYテーブルの各セルに対応するCNNの隠れ層の各状態を参照することにより,注目すべき原言語の文の構造(隣接する単語/句の組み合わせ)を絞り込みながら目的言語の文を生成する.したがって,提案のアテンション構造を組み込んだANMTは,事前に構文解析器による構文解析を行うことなく,目的言語の各単語を予測するために有用な原言語の構造を捉えることが可能である.ASPECの英日翻訳タスク\cite{NAKAZAWA16.621}の評価実験において,提案のアテンション構造を用いることで従来のANMTと比較して,1.43ポイントBLEUスコアが上昇することを示す.また,FBISコーパスにおける中英翻訳タスクの評価実験において,提案手法は従来のANMTと同等もしくはそれ以上の精度を達成できることを示す.
| |
V25N04-04
|
作文中における誤りの存在や位置を示すことができる文法誤り検出は,第二言語学習者の自己学習と語学教師の自動採点支援において有用である.一般的に文法誤り検出は典型的な教師あり学習のアプローチによって解決可能な系列ラベリングのタスクとして定式化できる.例えば,BidirectionalLongShort-TermMemory(Bi-LSTM)を用いて英語の文法誤り検出の世界最高精度を達成している研究\cite{rei-yannakoudakis:2016:P16-1}がある.彼らの手法は,言語学習者コーパスがネイティブが書いた生コーパスと比較してスパースである問題に対処するために,事前に単語分散表現を大規模なネイティブコーパスで学習している.しかし,ReiとYannakoudakisの研究を含む多くの文法誤り検出の研究において用いられている分散表現学習のアルゴリズムのほとんどは,ネイティブコーパスにおける単語の文脈をモデル化するだけであり,言語学習者に特有の文法誤りを考慮していない.一方で,単語分散表現に言語学習者に特有の文法誤りを考慮することは,より文法誤り検出に特化した単語分散表現を作成可能であり有用であると考えられる.そこで,我々は文法誤り検出における単語分散表現の学習に正誤情報と文法誤りパターンを考慮する3つの手法を示す.ただし,3つ目の手法は最初に提案する2つの手法を組み合わせたものである.1つ目の手法は,学習者の誤りパターンを用いて単語分散表現を学習する\textbf{Errorspecificwordembedding}(EWE)である.具体的には,単語列中のターゲット単語と学習者がターゲット単語に対して誤りやすい単語を入れ替え負例を作成することで,正しい表現と学習者の誤りやすい表現が区別されるように学習する.2つ目の手法は,正誤情報を考慮した単語分散表現を学習する\textbf{Grammaticalityspecificwordembedding}(GWE)である.単語分散表現の学習の際に,n-gramの正誤ラベルの予測を行うことで,正文に含まれる単語と誤文に含まれる単語を区別するように学習する.この研究において,正誤情報とは周囲の文脈に照らしてターゲット単語が正しいまたは間違っているというラベルとする.3つ目の手法は,EWEとGWEを組み合わせた\textbf{Error\&grammaticalityspecificwordembedding}(E\&GWE)である.E\&GWEは正誤情報と誤りパターンの両方を考慮することが可能である.本研究における実験では,英語学習者作文の文法誤り検出タスクにおいて,E\&GWEで学習した単語分散表現で初期化したBi-LSTMを用いた結果,世界最高精度を達成した.さらに,我々は大規模な英語学習者コーパスであるLang-8\cite{mizumoto-EtAl:2011:IJCNLP-2011}を使った実験も行った.その結果,文法誤り検出においてノイズを含むコーパスからは誤りパターンを抽出して学習することが有効であることが示された.本研究の主要な貢献は以下の通りである.\begin{itemize}\item正誤情報と文法誤りパターンを考慮する提案手法で単語分散表現を初期化したBi-LSTMを使い,FirstCertificateinEnglish(FCE-public)コーパス\cite{yannakoudakis-briscoe-medlock:2011:ACL-HLT2011}において世界最高精度を達成した.\itemFCE-publicとNUCLEデータ\cite{dahlmeier2013building}にLang-8から抽出した誤りパターンを追加し,単語分散表現を学習することで文法誤り検出の精度が大幅に向上することを示した.\item実験で使用したコードと提案手法で学習された単語分散表現を公開した\footnote{https://github.com/kanekomasahiro/grammatical-error-detection}.\end{itemize}本稿ではまず第2章で英語学習者作文における文法誤り検出に関する先行研究を紹介する.第3章では従来の単語分散表現の学習方法について述べる.次に,第4章では提案手法である正誤情報と誤りパターンを考慮した単語分散表現の学習モデルについて説明する.そして第5章ではFCE-publicとNUCLEの評価データであるCoNLLデータセットを使い提案手法を評価する.第6章では文法誤り検出モデルと学習された単語分散表現における分析を行い,最後に第7章でまとめる.
| |
V16N05-02
|
\label{sec:Intro}検索エンジン\textit{ALLTheWeb}\footnote{http://www.alltheweb.com/}において,英語の検索語の約1割が人名を含むという報告\footnote{http://tap.stanford.edu/PeopleSearch.pdf}があるように,人名は検索語として検索エンジンにしばしば入力される.しかし,その検索結果としては,その人名を有する同姓同名人物についてのWebページを含む長いリストが返されるのみである.例えば,ユーザが検索エンジンGoogle\footnote{http://www.google.com/}に``WilliamCohen''という人名を入力すると,その検索結果には,この名前を有する情報科学の教授,アメリカ合衆国の政治家,外科医,歴史家などのWebページが,各人物の実体ごとに分類されておらず,混在している.こうしたWeb検索結果における人名の曖昧性を解消する従来研究の多くは,凝集型クラスタリングを利用している\cite{Mann03},\cite{Pedersen05},\cite{Bekkerman-ICML05},\cite{Bollegala06}.しかし,一般に人名の検索結果では,その上位に,少数の同姓同名だが異なる人物のページが集中する傾向にある.したがって,上位に順位付けされたページを種文書として,クラスタリングを行えば,各人物ごとに検索結果が集まりやすくなり,より正確にクラスタリングができると期待される.以下,本論文では,このような種文書となるWebページを「seedページ」と呼ぶことにする.本研究では,このseedページを用いた半教師有りクラスタリングを,Web検索結果における人名の曖昧性解消のために適用する.これまでの半教師有りクラスタリングの手法は,(1)制約に基づいた手法,(2)距離に基づいた手法,の二つに分類することができる.制約に基づいた手法は,ユーザが付与したラベルや制約を利用し,より正確なクラスタリングを可能にする.例えば,Wagstaffら\cite{Wagstaff00},\cite{Wagstaff01}の半教師有り$K$-meansアルゴリズムでは,``must-link''(2つの事例が同じクラスタに属さなければならない)と,``cannot-link''(2つの事例が異なるクラスタに属さなければならない)という2種類の制約を導入して,データのクラスタリングを行なう.Basuら\cite{Basu02}もまた,ラベルの付与されたデータから初期の種クラスタを生成し,これらの間に制約を導入する半教師有り$K$-meansアルゴリズムを提案している.また,距離に基づいた手法では,教師付きデータとして付与されたラベルや制約を満たすための学習を必要とする.例えば,Kleinら\cite{Klein02}の研究では,類似した2点$(x_{i},x_{j})$間には``0'',類似していない2点間には$(\max_{i,j}D_{ij})+1$と設定した隣接行列を作成して,クラスタリングを行なう.また,Xingら\cite{Xing03}の研究では,特徴空間を変換することで,マハラノビス距離の最適化を行う.さらに,Bar-Hillelら\cite{Bar-Hillel03}の研究では,適切な特徴には大きな重みを,そうでない特徴には小さな重みを与えるRCA(RelevantComponentAnalysis)\cite{Shental02}により,特徴空間を変換する.一方,我々の提案する半教師有りクラスタリングでは,seedページを含むクラスタの重心の変動を抑える点において,新規性がある.本論文の構成は次のとおりである.\ref{sec:ProposedMethod}章では,我々の提案する新たな半教師有りクラスタリングの手法について説明する.\ref{sec:Experiments}章では,提案手法を評価するための実験結果を示し,その結果について考察する.最後に\ref{sec:Conclusion}章では,本論文のまとめと今後の課題について述べる.
| |
V09N05-06
|
「も,さえ,でも$\cdots$」などのとりたて詞による表現は日本語の機能語の中でも特有な一族である.言語学の角度から,この種類の品詞の意味,構文の特徴について,~\cite{teramura91,kinsui00,okutsu86,miyajima95}などの全般的な分析がある.また,日中両言語の対照の角度から,文献~\cite{wu87,ohkouchi77,yamanaka85}のような,個別のとりたて詞に関する分析もある.しかしながら,日中機械翻訳の角度からは,格助詞を対象とする研究はあるが~\cite{ren91a},とりたて詞に関する研究は,見当たらない.とりたて詞は,その意味上と構文上の多様さのために,更には中国語との対応関係の複雑さのために,日中機械翻訳において,曖昧さを引き起こしやすい.現在の日中市販翻訳ソフトでは,取立て表現に起因する誤訳(訳語選択,語順)が多く見られる.本論文は,言語学の側の文献を参考にしながらとりたて詞に関する日中機械翻訳の方法について考察したものである.すなわち,とりたて詞により取り立てられる部分と述語部の統語的,意味的な特徴によってとりたて詞の意味の曖昧さを解消する方法を示し,さらに同じ意味的な用法でも,対応する中訳語が状況により異なる可能性があることを考慮し,中国語側で取り立てられる部分の統語的,意味的な特徴及び関係する構文特徴によって,訳語を特定するための意味解析を行った.また,とりたて詞に対応する中訳語の位置を,その訳語の文法上の位置の約束と,取り立てられる部分の構文上の成分などから特定する規則を提案した.また,これらの翻訳規則を手作業により評価した.なお,本論文では,とりたて詞として,文献~\cite{kinsui00}が挙げている「も,でも,すら,さえ,まで,だって,だけ,のみ,ばかり,しか,こそ,など,なんか,なんて,なんぞ,くらい,は」の17個のうちの「も」,「さえ」,「でも」の三つを検討の対象とした.論文の構成は次の通りである.第2章ではとりたて表現の特徴と中国語との対応関係を述べ,第3章ではとりたて表現の中国語への翻訳方式とその方式の構成の主要な内容---意味解析と語順規則を説明する.第4章では,「さえ」,「も」,「でも」の翻訳の手順を例文を用いて示す.第5章では,手作業による翻訳の評価実験と問題点の分析について述べ,第6章では論文のまとめを述べる.
| |
V21N02-09
|
label{intro}近年,言語研究において,言語現象を統計的に捉えるため,コーパスを用いた研究が盛んに行われている.コーパスを用いた研究は,語法,文法,文体に関する研究\cite{oishi2009,koiso2009},語彙に関する研究\cite{tanomura2010},時代ごとの言語変化を調査する通時的な研究\cite{kondo2012},外国語教育へ適用する研究\cite{nakajo2006}など多岐にわたる.コーパスを用いる研究では,新しい言語現象を調査するには新しいコーパスの構築が必要となる.大規模なコーパスを構築する場合,人手でのアノテーションには限界があるため,自動でアノテーションをする必要がある.既存の言語単位や品詞体系を利用できる場合は,既存のコーパスや解析器を利用することにより,他分野のコーパスに対するアノテーション作業を軽減できる\cite{kazama2004}.また,対象分野のアノテーション済みコーパスがある程度必要なものの,分野適応により,解析器の統計モデルを対象分野に適合するように調整することで,他分野のコーパスに対しても既存のコーパスに対するものと同程度の性能でアノテーションが可能となる\cite{jing2007,neubig2011}.しかし,研究目的によっては適切な言語単位や品詞体系が異なるため,既存の言語単位や品詞体系が利用できないこともある.例えば,国立国語研究所の語彙調査では,雑誌の語彙調査には$\beta$単位,教科書の語彙調査にはM単位というように,どちらも形態素相当の単位ではあるが,調査目的に応じて設計し用いている.これらの単位の概略は\cite{hayashi1982,nakano1998}に基づいている.また,言語現象に応じて異なる場合もあり,日本語話し言葉コーパス\cite{csj}(以下,CSJ)と現代日本語書き言葉均衡コーパス\cite{bccwj}(以下,BCCWJ)では異なる言語単位や品詞体系が定義されている.新しい言語単位や品詞体系を用いる場合,分野適応の利用は難しく,辞書やコーパス,解析器を再構築する必要がある.これらのうち,辞書とコーパスは再利用できることが少なく,新たに構築する必要がある.解析器に関しては,既存のものを改良することで対応できることが多いものの,どのような改良が必要かは明らかではない.本論文では,言語単位や品詞体系の異なるコーパスの解析に必要となる解析器の改良点を明らかにするためのケーススタディとして,品詞体系の異なるCSJとBCCWJを利用して長単位解析器を改良する.CSJとBCCWJには,いずれも短単位と長単位という2種類の言語単位がアノテーションされている.本論文ではこのうち長単位解析特有の誤りに着目して改善点を明らかにする.そのため,短単位情報は適切にアノテーションされているものと仮定し,その上で長単位情報を自動でアノテーションした場合に生じる誤りを軽減する方策について述べる.評価実験により提案手法の有効性を示し,提案手法の異なる品詞体系への適用可能性について考察する.本論文の構成は以下の通りである.まず,\ref{csj_bccwj_diff}章で長単位解析器を改良するために重要となるCSJとBCCWJの形態論情報における相違点について述べ,\ref{luw_analysis}章ではCSJに基づいた長単位解析手法を説明し,CSJとBCCWJの形態論情報における相違点に基づいた長単位解析手法の改良点について述べる.\ref{exp}章では,長単位解析手法の改良点の妥当性を検証し,改良した長単位解析手法を評価する.\ref{comainu}章では,\ref{luw_analysis}章で述べた長単位解析手法を実装した長単位解析システムComainuについて述べ,\ref{conclusion}章で本論文をまとめる.
| |
V10N02-04
|
\label{sec:hajime}実際に使用された文例を集めたコーパスは,コンピュータによって検索できる形で準備されることにより,自然言語の研究者にとって便利で重要な資料として利用価値が高まっている.コーパスの種類としては,文例のみを集めた生コーパス(新聞記事など多数がある),文例を単語分けして品詞情報などを付加したタグ付きコーパス(ここでは{\bf品詞タグ付きコーパス}と呼ぶ),さらに文の構文情報を付加した解析済みコーパス\cite{EDR2001}\cite{KyouDai1997}の三種類に分類される.付加情報を持つコーパスは,特にコンピュータによる自然語情報処理において重視されている.しかし,その作成には,対象言語の知識を持つ専門家を含む作成者の多大の時間と手間を要し,作成を容易にして量を揃えることが一つの課題である.最近,日本語の古典をCD-ROMなどに収容する「電子化」の動きが盛んである.これらの提供する古典テキストは生コーパスとして利用できる.さらに単語や品詞の条件による対話検索機能を含むものがあるが,通常は,品詞タグ付きコーパスとして利用することができない.つまり,古典文の品詞タグ付きコーパスはほとんど公開されていない.日本の古典の研究者が従来使用してきた研究補助手段として索引資料がある.特に,いわゆる{\bf総索引}は,「ある文献に出てくるすべての事項・字句とその所在箇所を示す索引」\cite{Nikkoku2001}であり,多数の古典に対して作成され利用されている\cite{Kobayashi2000}.総索引の多くは,単語とその品詞の組からそれを含む文を参照できるなど,言語の研究に必要な情報を含み,その情報内容は品詞タグ付きコーパスに匹敵する.しかし,品詞タグ付きコーパスは,単語・品詞などによる検索機能\cite{Oota1997}\cite{EDR1999}\cite{Suzuki1999}の実現が可能なほかに,単語の列,品詞の列,単語と品詞の対応などを網羅的に調べて統計的に処理する統計的(確率的)言語処理\cite{Kita1996}に利用することができることが重要である.総索引は単語と品詞からその本文での出現箇所を与えるが,単語や品詞の系列に関する情報を与えることはできない.そこで,古典の総索引を変換し品詞タグ付きコーパスを作成する方法を実現し,実際に,平安時代の歌物語三篇\cite{UTA1994}と日記五篇\cite{NIKKI1996}について実験した.品詞タグ付きコーパスの形式は,基本的には,{\bfEDR電子化辞書}の{\bf日本語コーパス}\cite{EDR2001}の形式に従った.使用した総索引資料は,本文編と索引編とから成り,後者は,単語の仮名表記・漢字表記・品詞情報を見出しとして,その単語の本文での出現位置の全てを行番号のリストとして与えている.索引語は,自立語・付属語を問わず全単語である.変換処理の条件と考慮事項は次の通りである.総索引の活用語の見出し表記は終止形で与えられ,その品詞情報として活用型と活用形の名称(ここでは,未然形などを「活用形の名称」と呼び,「活用形」は活用語が活用した具体的な文字列を示すものとする)が与えられるので,変換機能には活用表の知識を保持した.しかし,処理を簡単にするため,単語辞書や単語間の接続可能性などの文法知識は保持しないこととした.総索引は単語の出現位置情報を本文の行番号で与えるが,品詞タグ付きコーパスでは行内の単語位置にタグを付ける必要がある.そこで,ある単語の部分文字列が他の単語の文字列と一致することがあり,これらが同一行に出現する場合の行内の位置決めの問題が生ずる.これに対処するため一種の最長一致法を用いた.総索引の見出しの漢字表記が,まさに漢字のみの表現であり,送り仮名等の単語を構成する仮名文字部分を含んでいないため,本文との照合が完全には行なえないという問題に対しては,照合条件を緩める一種の先読み処理法を用いた.これらの対処によっても照合が完全でない部分については,変換途中に人手によるチェックと修正を行なうこととした.この作業を容易にするため,照合の不完全の部分を示す中間結果を出力した.総索引情報自体に誤りが皆無ではなく,そのための照合失敗もあり得るが,これも人手修正の対象である.この人手作業の結果を取入れて,最終的なコーパス形式の出力を行なう.タグ付きの日本語コーパスの作成例には,EDR電子化辞書の日本語コーパス\cite{EDR2001}や京大コーパス\cite{KyouDai1997}がある.これらは品詞タグの他に構文情報を含む.総索引からの品詞タグ付きコーパスの作成については発表を見ない.欧州では,{\bfコンコーダンス}(concordance)と呼ばれる索引資料が聖書や古典作品に対して作成されており,KWIC(KeyWordInContext)形式で単語の使用例と所在を示している.ただし,単語の品詞などの文法情報は与えられていない\cite{Witten1999}.そのため品詞タグ付きコーパスの変換には用いられないと考えられる.以下,まず\ref{sec:Conc&Corpus}節で総索引と品詞タグ付きコーパスの概要を記し,\ref{sec:trans}節で,実験に用いた総索引と品詞タグ付きコーパスの内容・形式と前者から後者への変換方法を示し,\ref{sec:result&}節で変換実験の結果とその検討を記す.最後に\ref{sec:musubi}節で,まとめと課題を記す.
| |
V09N03-02
|
辞書ベースの自然言語処理ツールは高い精度が期待できる反面,辞書未登録語の問題があるため,統計情報を利用して辞書未登録語の抽出を行なう研究が盛んに行なわれている.辞書未登録語はドメイン固有の語句と考えることができ,対象ドメインの統計情報の利用が有効である.本稿ではドメイン固有の文字列の自動抽出で問題となるノイズを2方向のアプローチで解決する手法を提案する.本手法は辞書ベースのツールに付加的な情報を半自動的に与えて辞書未登録語の抽出を行なうことで処理精度の向上を図るものである.本稿では形態素解析ツールについて実験を行なったが,本手法は処理内容やツールに特化したものではなく,ツールの改変を伴うものではない.
| |
V18N03-02
|
\label{sec:intro}語義曖昧性解消は古典的な自然言語処理の課題の一つであり,先行研究の多くは教師あり学習により成果を挙げてきた\cite{Marquez04,Navigli09}.しかし,教師あり学習による語義曖昧性解消においてはデータスパースネスが大きな問題となる.多義語の語義がその共起語より定まるという仮定に基づけば,一つの多義語と共起し得る単語の種類が数万を超えることは珍しくなく,この数万種類のパターンに対応するために充分な語義ラベル付きデータを人手で確保し,教師あり手法を適用するのは現実的でない.一方で語義ラベルが付与されていない,いわゆるラベルなしのデータを大量に用意することは,ウェブの発展,学術研究用のコーパスの整備などにより比較的容易である.このような背景から,訓練データと大量のラベルなしデータを併用してクラス分類精度を向上させる半教師あり学習,または訓練データを必要としない教師なし学習による効果的な語義曖昧性解消手法の確立は重要であると言える.本稿では半教師あり手法の一つであるブートストラッピング法を取り上げ,従来のブートストラッピング法による語義曖昧性解消手法の欠点に対処した手法を提案する.ブートストラッピング法による語義曖昧性解消においては主にSelf-training(自己訓練)\cite{Nigam00b}とCo-training(共訓練)\cite{Blum98}の二つのアプローチがある\cite{Navigli09}.まずこれらの手法に共通する手順を述べると次のようになる.\vspace{0.5\baselineskip}\begin{center}\begin{minipage}{0.85\hsize}\underline{一般的ブートストラッピング手順}\begin{description}\item[Step1]ラベルなしデータ$U$から事例$P$個をランダムに取り出し$U'$を作る.\item[Step2]ラベル付きデータ$L$を用いて一つまたは二つの分類器に学習させ$U'$の事例を分類する.\item[Step3]Step2で分類した事例より分類器毎に信頼性の高いものから順に$G$個を選び,$L$に加える.\item[Step4]Step1から$R$回繰り返す.\end{description}\end{minipage}\end{center}\vspace{0.5\baselineskip}Self-trainingとCo-trainingの違いは,前者はStep2で用いる分類器は一つであるのに対し,後者は二つ用いる点にある.またCo-trainingにおいては二つの独立した素性集合を設定し,各分類器を一方の素性集合のみを用いて作成する.Co-trainingにおいてこのように設定するのは,Step3において追加する事例を一方の素性のみから決定することから,追加事例のもう一方の素性を見たとき新しい規則の獲得が期待できるためである.Self-trainingとCo-trainingの欠点はいずれも性能に影響するパラメータが多数存在し,かつこれらのパラメータを最適化する手段がないことである.具体的にはStep1のプールサイズ$P$,Step3の$L$に加える事例の個数$G$,手順の反復回数$R$は全てパラメータであり,タスクに合わせた調整を必要とする.本稿では,ラベル付きデータとラベルなしデータを同時に活用しつつも,パラメータ設定をほとんど不要とする新しい手法を提案する.本手法はまずヒューリスティックと教師あり学習で構築した分類器によるラベルなしデータの二段階の「分類」を行う.ここで「分類」とは語義曖昧性解消を行い,語義ラベルを付与することを意味する.本稿では以後特に断りがない限り,分類とはこの語義ラベル付与のことを指す.二段階分類したラベルなしデータの中で条件を満たすデータはオリジナルのラベル付きデータに加えられる.その結果,パラメータ設定がほぼ不要なブートストラッピング的半教師あり手法による語義曖昧性解消を実現する.さらに追加するラベルなしデータの条件を変えることで複数の分類器を作成し,アンサンブル学習することで,パラメータの変化に頑健な分類器を生成する.本稿の構成は以下の通りである.\ref{sec:work}節にて関連研究および本研究の位置付けを述べる.\ref{sec:method}節にて提案手法およびその原理を並行して述べる.\ref{sec:exp}節にてSemEval-2日本語タスク\cite{Okumura10}のデータセットに提案手法を適用した実験の結果を示す.\ref{sec:conc}節にて結論を述べる.
| |
V08N04-03
|
自然言語をコンピュータで処理するためには,言語学的情報に基づいて構文解析や表層的意味解析を行うだけではなく,われわれが言語理解に用いている一般的な知識,当該分野の背景的知識などの必要な知識(記憶)を整理し,自然言語処理技術として利用可能な形にモデル化することが重要になっている.一般性のある自然言語理解のために,現実世界で成り立つ知識を構造化した知識ベースが必要であり,そのためには人間がどのように言葉を理解しているかを調べる必要があると考えている.初期の知識に関する研究では,人間の記憶モデルの1つとして意味的に関係のある概念をリンクで結んだ意味ネットワーク・モデルが提案されている.CollinsとLoftusは,階層的ネットワークモデル\cite{Collins1969}を改良し,意味的距離の考えを取り入れ活性拡散モデルを提案した\cite{Collins1975}.意味的距離をリンクの長さで表し,概念間の関係の強いものは短いリンクで結んでいる.このモデルによって文の真偽判定に関する心理実験や典型性理論\cite{Rosch1975}について説明した.大規模な知識ベースの例として,電子化辞書があげられる.日本ではコンピュータ用電子化辞書としてEDR電子化辞書が構築されている\cite{Edr1990}.WordNetはGeorgeA.Millerが中心となって構築した電子化シソーラスで,人間の記憶に基づいて心理学的見地から構造化されている\cite{Miller1993}.EDR電子化辞書やWordNetは自然言語処理分野などでもよく参照されている.連想実験は19世紀末から被験者の精神構造の把握など,臨床検査を目的として行なわれている.被験者に刺激語を与えて語を自由に連想させ,連想語の基準の作成・分析などの研究がある.50年代から臨床診断用としてだけでなく,言語心理学などの分野も視野にいれた研究が行なわれている.梅本は210語の刺激語に対し大学生1000人の被験者に自由連想を行ない,連想基準表を作成している\cite{Umemoto1969}.選定された刺激語は,言語学習,言語心理学の研究などに役立つような基本的単語とし,また連想を用いた他の研究との比較可能性の保持も考慮にいれている.しかし連想基準表を発表してから長い年月が経っており,我々が日常的に接する基本的単語も変化している.本研究では小学生が学習する基本語彙の中で名詞を刺激語として連想実験を行い,人間が日常利用している知識を連想概念辞書として構造化した.また刺激語と連想語の2つの概念間の距離の定量化を行なった.従来の電子化辞書は木構造で表現され,概念のつながりは明示されているが距離は定量化されておらず,概念間の枝の数を合計するなどのような木構造の粒度に依存したアドホックなものであった.今後,人間の記憶に関する研究や自然言語処理,情報検索などに応用する際に,概念間の距離を定量化したデータベースが有用になってくると考えている.本論では,まず連想実験の内容,連想実験データ修正の方法,集計結果について述べる.次に実験データから得られる連想語と連想時間,連想順位,連想頻度の3つのパラメータをもとに線形計画法によって刺激語と連想語間の概念間の距離の計算式を決定する.得られた実験データから概念間の距離を計算し連想概念辞書を作成する.連想概念辞書は,刺激語と連想語をノードとした意味ネットワークの構造になっている.次に,連想概念辞書から上位/下位階層をなしている意味ネットワークの一部を抽出,二次元平面で概念を配置してその特徴について調べた.また,既存の電子化辞書であるEDR電子化辞書,WordNetと本論文で提案する連想概念辞書の間で概念間の距離の比較を行ない,連想概念辞書で求めた距離の評価を行なう.
| |
V20N05-05
|
『現代日本語書き言葉均衡コーパス(BCCWJ)』(国立国語研究所2011)\nocite{NINJAL2011}の完成を受けて,国立国語研究所では日本語の歴史をたどることのできる「通時コーパス」の構築が進められている\footnote{NINJAL通時コーパスプロジェクトhttp://www.historicalcorpus.jp/}\cite{近藤2012}.コーパスの高度な活用のために,通時コーパスに収録されるテキストにもBCCWJと同等の形態論情報を付与することが期待される.しかし,従来は十分な精度で古文\footnote{本稿では,様々な時代・文体・ジャンルの歴史的な日本語資料を総称して「古文」と呼ぶ.}の形態素解析を行うことができなかった.残された歴史的資料は有限であるとはいえ,その量は多く,主要な文学作品に限っても手作業で整備できる量を大きく超えている.また,均質なタグ付けのためには機械処理が必須である.本研究の目的は,通時コーパス構築の基盤として活用することのできるような,歴史的資料の形態素解析を実現することである.通時コーパスに収録されるテキストは時代・ジャンルが幅広いため,必要性の高い分野から解析に着手する必要がある.明治時代の文語論説文と平安時代の仮名文学作品は,残されたテキスト量が多いうえ,日本語史研究の上でも価値が高いことから,これらを対象に,96\%以上の精度での形態素解析を実現することを目指す.そして,他の時代・分野の資料の解析に活かすために,各種条件下での解析精度の比較を行い,歴史的資料を日本語研究用に十分な精度で解析するために必要な学習用コーパスの量を確認し,エラーの傾向を調査する.本研究の主要な貢献は以下の通りである.\begin{itemize}\item現代語用のUniDicをベースに見出し語の追加を行って古文用の辞書データを作成した.\item新たに古文のコーパスを作成し,既公開のコーパスとともに学習用コーパスとして,MeCabを用いたパラメータ学習を行い形態素解析用のモデルを作成した.\item同辞書を単語境界・品詞認定・語彙素認定の各レベルで評価し,語彙素認定のF値で0.96以上の実用的な精度を得た.また,同辞書について未知語が存在する場合の解析精度を実験により推測し,その場合でも実用的な精度が得られることを確認した.\item同辞書の学習曲線を描き,古文を対象とした形態素解析に必要なコーパス量が5〜10万語であること,5,000語程度の少量であっても専用の学習用コーパスを作成することが有効であることを確認した.\item高頻度エラーの分析を行い,特に係り結びに起因するものは現状の解析器で用いている局所的な素性では対処できないものであることを確認した.\end{itemize}
| |
V08N01-08
|
最近様々な音声翻訳が提案されている\cite{Bub:1997,Kurematsu:1996,Rayner:1997b,Rose:1998,Sumita:1999,Yang:1997,Vidal:1997}.これらの音声翻訳を使って対話を自然に進めるためには,原言語を解析して得られる言語情報の他に言語外情報も使う必要がある.例えば,対話者\footnote{本論文では,2者間で会話をすることを対話と呼び,その対話に参加する者を対話者と呼ぶ.すなわち,対話者は話し手と聞き手の両者のことを指す.}に関する情報(社会的役割や性別等)は,原言語を解析するだけでは取得困難な情報であるが,これらの情報を使うことによって,より自然な対話が可能となる.言語外情報を利用する翻訳手法は幾つか提案されている.例えば,文献\cite{Horiguchi:1997}では,「spokenlanguagepragmaticinformation」を使った翻訳手法を,また,文献\cite{Mima:1997a}では,「situationalinformation」を使った手法を提案している.両文献とも言語外情報を利用した手法であり,文献\cite{Mima:1997a}では机上評価もしているが,実際の翻訳システムには適用していない.言語外情報である「pragmaticadaptation」を実際に人と機械とのインターフェースへの利用に試みている文献\cite{LuperFoy:1998}もあるが,これも音声翻訳には適用していない.これら提案の全ての言語外情報を実際の音声翻訳上で利用するには課題が多くあり,解決するのは時間がかかると考えられる.そこで,本論文では,以下の理由により,上記言語外情報の中でも特に話し手の役割(以降,本論文では社会的役割のことを役割と記述する)に着目し,実際の音声翻訳に容易に適用可能な手法について述べる.\begin{itemize}\item音声翻訳において,話し手の役割にふさわしい表現で喋ったほうが対話は違和感なく進む.例えば,受付業務で音声翻訳を利用した場合,「受付」\footnote{本論文では,対話者の役割である「受付」をサービス提供者,すなわち,銀行の窓口,旅行会社の受付,ホテルのフロント等のことを意味し,「客」はサービス享受者を意味している.}が『丁寧』に喋ったほうが「客」には自然に聞こえる.\item音声翻訳では,そのインターフェース(例えば,マイク)によって,対話者が「受付」か否かの情報が容易に誤りなく入手できる.\end{itemize}本論文では,変換ルールと対訳辞書に,話し手の役割に応じたルールや辞書エントリーを追加することによって,翻訳結果を制御する手法を提案する.英日翻訳において,旅行会話の未訓練(ルール作成時に参照していない)23会話(344発声\footnote{一度に喋った単位を発声と呼び,一文で完結することもあり,複数の文となることもある.})を対象に実験し,『丁寧』表現にすべきかどうかという観点で評価した.その結果,丁寧表現にすべき発声に対して,再現率が65\%,適合率が86\%となった.さらに,再現率と適合率を下げた原因のうち簡単な問題を解決すれば,再現率が86\%,適合率が96\%になることを机上で確認した.したがって,本手法は,音声翻訳を使って自然な対話を行うためには効果的であり実現性が高いと言える.以下,2章で『話し手の役割』と『丁寧さ』についての調査,3章で本手法の詳細について説明し,4章で『話し手の役割』が「受付」の場合に関する実験とその結果について述べ,本手法が音声翻訳において有効であることを示す.5章で,音声翻訳における言語外情報の利用について,また,他の言語対への適用について考察し,最後に6章でまとめる.なお,本論文は,文献\cite{Yamada:2000}をもとにさらに調査検討し,まとめたものである.
| |
V22N05-02
|
2000年以降の自然言語処理(NLP)の発展の一翼を担ったのはWorldWideWeb(以降,Webとする)である.Webを大規模テキストコーパスと見なし,そこから知識や統計量を抽出することで,形態素解析~\cite{Kaji:2009,sato2015mecabipadicneologd},構文解析~\cite{Kawahara:05},固有表現抽出~\cite{Kazama:07},述語項構造解析~\cite{Komachi:10,Sasano:10},機械翻訳~\cite{Munteanu:06}など,様々なタスクで精度の向上が報告されている.これらは,WebがNLPを高度化した事例と言える.同時に,誰もが発信できるメディアという特性を活かし,Webならではの新しい研究分野も形成された.評判情報抽出~\cite{Pang:2002}がその代表例である.さらに,近年では,TwitterやFacebookなどのソーシャルメディアが爆発的に普及したことで,自然言語処理技術をWebデータに応用し,人間や社会をWebを通して「知ろう」とする試みにも関心が集まっている.ソーシャルメディアのデータには,(1)大規模,(2)即時性,(3)個人の経験や主観に基づく情報など,これまでの言語データには見られなかった特徴がある.例えば,「熱が出たので病院で検査をしてもらったらインフルエンザA型だった」という投稿から,この投稿時点(即時性)で発言者は「インフルエンザに罹った」という個人の経験を抽出し,大規模な投稿の中からこのような情報を集約できれば,インフルエンザの流行状況を調べることができる.このように,NLPでWeb上の情報をセンシングするという研究は,地震検知~\cite{Sakaki:10},疾病サーベイランス~\cite{Culotta:2010}を初めとして,選挙結果予測,株価予測など応用領域が広がっている.大規模なウェブデータに対して自然言語処理技術を適用し,社会の動向を迅速かつ大規模に把握しようという取り組みは,対象とするデータの性質に強く依拠する.そのため,より一般的な他の自然言語処理課題に転用できる知見や要素技術を抽出することが難しい.そこで,ProjectNextNLP\footnote{https://sites.google.com/site/projectnextnlp/}ではNLPのWeb応用タスク(WebNLP)を立ち上げ,次のゴールの達成に向けて研究・議論を行った.\begin{enumerate}\itemソーシャルメディア上のテキストの蓄積を自然言語処理の方法論で分析し,人々の行動,意見,感情,状況を把握しようとするとき,現状の自然言語処理技術が抱えている問題を認識すること\item応用事例(例えば疾患状況把握)の誤り事例の分析から,自然言語処理で解くべき一般的な(複数の応用事例にまたがって適用できる)課題を整理すること.ある応用事例の解析精度を向上させるには,その応用における個別の事例・言語現象に対応することが近道かもしれない.しかし,本研究では複数の応用事例に適用できる課題を見出し,その課題を新しいタスクとして切り出すことで,ソーシャルメディア応用の解析技術のモジュール化を目指す.\item(2)で見出した個別の課題に対して,最先端の自然言語処理技術を適用し,新しいタスクに取り組むことで,自然言語処理のソーシャルメディア応用に関する基盤技術を発展させること\end{enumerate}本論文では,NLPによるソーシャルリスニングを実用化した事例の1つである,ツイートからインフルエンザや風邪などの疾患・症状を認識するタスク(第\ref{sec:used-corpus}章)を題材に,現状の自然言語処理技術の問題点を検討する.第\ref{sec:analysis}章では,既存手法の誤りを分析・体系化し,この結果から事実性の解析,状態を保有する主体の判定が重要かつ一般的な課題として切り出せることを説明する.第\ref{sec:factuality}章では,事実性解析の本タスクへの貢献を実験的に調査し,その分析から事実性解析の課題を議論する.第\ref{sec:subject}章では,疾患・症状を保有する主体を同定するサブタスクに対する取り組みを紹介する.さらに第\ref{sec:factandsub}章では,事実性解析と主体解析を組み合わせた結果を示す.その後,第\ref{sec:relatedworks}章で関連研究を紹介し,最後に,第\ref{sec:conclusion}章で本論文の結論を述べる.
| |
V07N04-03
|
近年の電子化テキストの増大にともない,テキスト自動要約技術の重要性が高まっている.要約を利用することで,より少ない労力や時間で,テキストの内容を把握したり,そのテキストの全文を参照する必要があるかどうかを判定できるようになるため,テキスト処理にかかる人間の負担を軽減させることができる.要約は一般に,その利用目的に応じて,元テキストの代わりとなるような要約(informativeな要約)と,テキストの全文を参照するかどうかの判定等,全文を参照する前の段階で利用する要約(indicativeな要約)に分けられることが多い\cite{Oku:99:a}.このうち,indicativeな要約については,近年情報検索システムが広く普及したことにより,検索結果を提示する際に利用することが,利用法として注目されるようになってきている.要約を利用することで,ユーザは,検索結果のテキストが検索要求に対して適合しているかどうかを,テキスト全文を見ることなく,素早く,正確に判定できるようになる.一般に情報検索システムを利用する際には,ユーザは,自分の関心を検索要求という形で表わしているため,提示される要約も,元テキストの内容のみから作成されるgenericな要約より,検索要求を反映して作成されるものの方が良いと考えられる.本稿では,我々が以前提案した語彙的連鎖に基づくパッセージ抽出手法\cite{Mochizuki:99:a}が,情報検索システムでの利用を想定した,検索要求を考慮した要約作成手法として利用できることを示す.語彙的連鎖\cite{Morris:91}とは,語彙的結束性\cite{Halliday:76}を持つ語の連続のことである.語彙的連鎖はテキスト中に複数存在し,各連鎖の範囲では,その連鎖の概念に関連する話題が述べられている\cite{okumura:94a,Barzilay:97}.我々の手法では,この語彙的連鎖の情報を利用することで,検索要求と強く関連したテキスト中の部分を抽出できるため,情報検索システムでの利用に適した要約が作成できる.また,検索要求と関連する部分を一まとまりのパッセージとして得るため,連続性のある要約が作成できる.我々の手法によって作成される要約の有効性を確かめるために,情報検索タスクに基づいた要約の評価方法\cite{Miike:94,Hand:97,Jing:98,Mani:98:a,tombros:98:b,Oku:99:a}を採用し実験を行なう.実験では,複数の被験者に要約と検索要求を提示し,被験者は,要約を元に,各テキストが検索要求に適合するかどうかを判定する.要約は,被験者の適合性判定の精度,タスクにかかった時間および判定に迷った際に全文を参照した回数などに基づいて評価される.また,要約の読み易さに関する評価も合わせて行なう.我々の要約作成手法と,検索要求を考慮した,いくつかの従来の要約作成手法\cite{tombros:98:b,shiomi:98:a,hasui:98:a},検索要求を考慮しない,いくつかの要約作成手法および,全文,タイトルのみの,合わせて10種類の手法を比較する実験を行なう.また,タスクに基づく要約の評価は,最近になって採用され始めた新しい評価方法であり,試行錯誤の段階にある.そのため,今回の評価実験の過程で観察された,タスクに基づく評価方法に関する問題点や留意すべき点についても,いくつかのポイントから分析し,報告する.以下,\ref{sec:sumpas}節では,我々の語彙的連鎖型パッセージ抽出法に基づく要約作成について述べ,\ref{sec:examination}節では実験方法について説明し,\ref{sec:kekkakousatsu}節で結果の考察をする.最後に\ref{sec:conc}節でタスクに基づく評価方法に関する問題点や留意すべき点について述べる.
| |
V13N03-03
|
自然言語は,多様性・曖昧性,規則性と例外性,広範性・大規模性,語彙・文法の経時変化などの性質を持っている.自然言語解析システムは,これらの性質をアプリケーションが要求するレベルで旨く扱う必要がある.なかでも多様性・曖昧性への対応,すなわち,形態素,構文,意味,文脈などの各種レベルにおける組合せ的な数の曖昧性の中からいかにして正しい解釈を認識するかがシステム構築上,最も重要な課題である.\begin{figure}[b]\begin{center}\epsfile{file=\myfigdir/COM自然言語解析システムのモデル.eps,scale=0.7}\end{center}\myfiglabelskip\caption{自然言語解析システムのモデル}\label{fig:NLAnalysisModel}\end{figure}一般に自然言語解析システム(以下システムと省略する)は,入力文に対して可能な解釈の仮説を生成し({\bf仮説生成知識}の適用),ありえない仮説を棄却したり({\bf制約知識}の適用),仮説に対する順位付けを行ったり({\bf選好知識}の適用)することで,入力文に対する解析結果(文解釈となる構造)を求める.図\ref{fig:NLAnalysisModel}がこのモデルを示している.文の解釈は,仮説記述体系により規定される仮説空間に存在し,それぞれが実世界において,正解解釈(◎:correct),可能解釈(○:plausible),不可能解釈(×:implausible)に分類できる.仮説生成知識が可能な仮説集合を生成する.制約知識は仮説空間内の仮説が可能か不可能かを弁別し,選好知識は仮説空間内の仮説の順位付けを行う\footnote{制約知識は可能性ゼロの選好知識ともいえる.但し,制約知識の適用は解釈の枝仮りであり計算機処理の観点からは大きな差異がある.}.仮説生成・制約知識は,システムが受理可能な文の範囲,すなわち,システムの対象文カバレッジを規定する.仮説生成・制約・選好知識は,形態素,構文,意味といった各レベルにおいて存在し,システムの性能はこれらの総合として決定されると考えられる.例えば,各レベルの選好知識がそれぞれ異なった解釈を支持するという競合が生じるため,精度良く文解釈を行うにはこれらを総合的に判断する必要がある\cite{Hirakawa89a}.このように,システム設計においては,「生成\footnote{簡略のため「仮説生成知識」を単に「生成知識」と表現する.}・制約・選好知識をどのように扱うか」({\bf知識適用の課題}),「多レベルの知識をどのように融合するか」({\bf多レベル知識の課題})という2つの課題が存在する.生成・制約知識は,正文と非文とを弁別(あるいは,正文のみを生成)する,いわゆる,言語学の文法知識に相当する.従来,言語学からの知見を活用しながら計算機処理を前提とした各種の文法フレームワークが研究されてきている.文法フレームワークは,文の構造解釈を記述する解釈構造記述体系を基盤として構築されるが,これらには,句構造,依存構造,意味グラフ,論理式など様々ものが提案されている.一方,選好知識については意味プリファレンスの扱い\cite{Wilks75}を始めとして古くから多くの研究がなされているが,音声認識処理から自然言語処理への導入が始まった統計的手法が,単語系列から文脈自由文法,依存文法などへと適用範囲(解釈記述空間)を拡大・発展させ,広くシステムに利用されるようになってきている.例えば,句構造をベースの枠組みとして,文脈自由文法,LFG\cite{Kaplan89,Riezler02},HPSG\cite{Pollard94,Tsuruoka04},CCG\cite{Steedman00,Clark03}など\footnote{解析結果として依存構造を出力したりする場合もあるが,ここでは解析のベースとなっている解釈記述空間で分類している.},また依存構造をベースとした枠組みとして,確率依存文法\cite{Lee97},係り受け解析\cite{Shudo80,Ozeki94,Hirakawa01,Kudo05_j},制約依存文法(以降CDGと記述する)\cite{Maruyama90,Wang04},LinkGrammar\cite{Sleator91,Lafferty92}など文法フレームワークと統計手法の融合が広範に行われている.このように,文法フレームワークの研究は,生成・制約知識を対象とした研究から統計ベースの選好知識の扱いへと進展し,統計的手法は語系列,句構造,依存構造へと適用範囲を拡大し融合され,生成・制約・選好知識全体の統合のベースが整ってきている.多レベルの知識の融合という観点では,基本的に単一の解釈記述空間に基づくアプローチと複数の解釈記述空間に基づくアプローチがある.単一の文脈自由文法,依存文法などは前者の典型である.DCG\cite{Pereira80}やBUP\cite{Matsumoto83}などは文脈自由文法をベースにしているが,拡張条件が記述可能であり,例えば意味的な制約といった異レベルの知識を句構造という1つの解釈記述空間をベースとしながら融合することができる.CDGでは依存構造をベースにして構文的な制約を含む任意の制約条件を単項制約,2項制約という枠組みで記述できるようにしている\cite{Maruyama90}.LFGは,c-structure(句構造)とf-structure(機能構造)の2種類のレイヤを有し機能スキーマにより機能構造に関する制約条件が記述可能である\cite{Kaplan89}.また,統計ベースのアプローチにおいては,句構造情報だけではなく句のヘッドやその依存関係情報の利用が有効であることが判明し,句構造情報と依存構造情報を統合判断するモデルが利用されている\cite{Carroll92,Eisner96b,Collins99,Charniak00,Bikel04}.PDGは,複数の解釈記述空間に基づくアプローチを取っており,後に述べるように複数の解釈記述空間で対応付けられた圧縮共有データ構造をベースに多レベルの知識の融合を行っている.本稿では,PDGのモデル・概要について述べた後,PDGで採用している句構造と依存構造という2種類の中心的共有データ構造であるヘッド付き統語森(HPF:HeadedParseForest),依存森(DF:DependencyForest)について構築法を示し,それらに完全性と健全性が成立することを示す.また,例文解析実験により,PDGの振る舞いや特徴についても考察を加える.
| |
V17N04-04
|
\label{section:introduction}近年,FrameNet~\shortcite{Baker:98}やPropBank~\shortcite{Palmer:05}などの意味役割付与コーパスの登場と共に,意味役割付与に関する統計的なアプローチが数多く研究されてきた~\shortcite{marquez2008srl}.意味役割付与問題は,述語—項構造解析の一種であり,文中の述語と,それらの項となる句を特定し,それぞれの項のための適切な意味タグ(意味役割)を付与する問題である.述語と項の間の意味的関係を解析する技術は,質問応答,機械翻訳,情報抽出などの様々な自然言語処理の応用分野で重要な課題となっており,近年の意味役割付与システムの発展は多くの研究者から注目を受けている~\shortcite{narayanan-harabagiu:2004:COLING,shen-lapata:2007:EMNLP-CoNLL2007,moschitti2007esa,Surdeanu2003}.\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f1.eps}\end{center}\caption{PropBankとFrameNetにおける動詞{\itsell},{\itbuy}に対するフレーム定義の比較}\label{framenet-propbank}\end{figure}これらのコーパスは,文中の単語(主に動詞)が{\bfフレーム}と呼ばれる特定の項構造を持つという考えに基づく.図~\ref{framenet-propbank}に,例として,FrameNetとPropBankにおける{\itsell}と{\itbuy}の二つの動詞に関するフレーム定義を示す.各フレームはそれぞれのコーパスで特定の名前を持ち,その項としていくつかの意味役割を持つ.また,意味役割は,それぞれのフレームに固有の役割として定義される.例えば,PropBankのsell.01フレームの役割{\itsell.01::0}と,buy.01フレームの役割{\itbuy.01::0}は別の意味役割であり,また一見同じ記述(Seller)のついた{\itsell.01::0}と{\itbuy.01::2}もまた,別の役割ということになる.これはFrameNetについても同様である.意味役割がフレームごとに独立に定義されている理由は,各フレームの意味役割が厳密には異なる意味を帯びているからである.しかし,この定義は自動意味役割付与の方法論にとってやや問題である.一般的に,意味役割付与システムは教師付き学習の枠組みで設計されるが,意味役割をフレームごとに細分化して用意することは,コーパス中に事例の少ない役割が大量に存在する状況を招き,学習時の疎データ問題を引き起こす.実際に,PropBankには4,659個のフレーム,11,500個以上の意味役割が存在し,フレームあたりの事例数は平均12個となっている.FrameNetでは,795個のフレーム,7,124個の異なった意味役割が存在し,役割の約半数が10個以下の事例しか持たない.この問題を解決するには,類似する意味役割を何らかの指標で汎化し,共通点のある役割の事例を共有する手法が必要となる.従来研究においても,フレーム間で意味役割を汎化するためのいくつかの指標が試されてきた.例えば,PropBank上の意味役割付与に関する多くの研究では,意味役割に付加されている数字タグ({\itARG0-5})が汎化ラベルとして利用されてきた.しかし,{\itARG2}--{\itARG5}でまとめられる意味役割は統語的,意味的に一貫性がなく,これらのタグは汎化指標として適さない,という指摘もある\shortcite{yi-loper-palmer:2007:main}.そこで近年では,主題役割,統語構造の類似性などの異なる指標を利用した意味役割の汎化が研究されている~\shortcite{gordon-swanson:2007:ACLMain,zapirain-agirre-marquez:2008:ACLMain}.FrameNetでは,意味役割はフレーム固有のものであるが,同時にこれらの意味役割の間には型付きの階層関係が定義されている.図\ref{fig:frame-hierarchy}にその抜粋を示す.ここでは例えば,{\itGiving}フレームと{\itCommerce\_sell}フレームは継承関係にあり,またこれらのフレームに含まれる役割には,どの役割がどの役割の継承を受けているかを示す対応関係が定義されている.この階層関係は意味役割の汎化に利用できると期待できるが,これまでの研究では肯定的な結果が得られていない~\shortcite{Baldewein2004}.したがって,FrameNetにおける役割の汎化も重要な課題として持ち上がっている~\shortcite{Gildea2002,Shi2005ppt,Giuglea2006}.\begin{figure}[b]\begin{center}\includegraphics{17-4ia5f2.eps}\caption{FrameNetのフレーム階層の抜粋}\label{fig:frame-hierarchy}\end{center}\end{figure}意味役割の汎化を考える際の重要な点は,我々が意味役割と呼んでいるものが,種類の異なるいくつかの性質を持ち合わせているということである.例えば,図~\ref{framenet-propbank}におけるFrameNetの役割{\itCommerce\_sell::Seller}と,{\itCommerce\_buy::Seller}を考えてみたとき,これらは「販売者」という同一語彙で説明出来るという点では同じ意味的性質を持ち合わせているが,一方で,動作主性という観点でみると,{\itCommerce\_sell::Seller}は動作主であるが,{\itCommerce\_buy::Seller}は動作主性を持っていない.このように,意味役割はその特徴を単に一つの観点から纏めあげられるものではなく,いくつかの指標によって異なる説明がされるものである.しかし,これまでに提案されてきた汎化手法では,一つの識別モデルの中で異なる指標を同時に用いてこなかった.また,もう一つの重要なことは,これまでに利用されてきたそれぞれの汎化指標が,意味役割のどのような性質を捉え,その結果として,どの程度正確な役割付与に結びついているかを明らかにすべきだということである.そこで本研究では,FrameNet,PropBankの二つの意味役割付与コーパスについて,異なる言語学的観点に基づく新たな汎化指標を提案し,それらの汎化指標を一つのモデルの中に統合出来る分類モデルを提案する.また,既存の汎化指標及び新たな汎化指標に対して実験に基づいた細かな分析を与え,各汎化指標の特徴的効果を明らかにする.FrameNetにおける実験では,FrameNetが持つフレームの階層関係,役割の記述子,句の意味型,さらにVerbNetの主題役割を利用した汎化手法を提案し,これらの指標が意味役割分類の精度向上に貢献することを示す.PropBankにおける実験では,従来より汎化手法として議論の中心にあったARGタグと主題役割の効果の違いを,エラー分析に基づいて正確に分析する.また,より頑健な意味役割の汎化のために,VerbNetの動詞クラス,選択制限,意味述語を利用した三つの新しい汎化手法を提案し,その効果について検証する.実験では,我々の提案する全ての汎化指標について,それぞれが低頻度或いは未知フレームに対する頑健性を向上させることを確認した.また,複数の汎化指標の混合モデルが意味役割分類の精度向上に貢献することを確認した.全指標の混合モデルは,FrameNetにおいて全体の精度で$19.16\%$のエラー削減,F1Macro平均で$7.42\%$の向上を達成し,PropBankにおいて全体の精度で$24.07\%$のエラー削減,未知動詞に対するテストで$26.39\%$のエラー削減を達成した.
| |
V15N02-01
|
label{sec:hajime}自然言語処理においては,タグ付けや文書分類をはじめとするさまざまな分類タスクにおいて,分類器が出力するクラスに確信度すなわちクラス所属確率を付与することは有用である.例えば,自動分類システムがより大きなシステムの一部を構成し,自動分類結果が別のシステムに自動入力されるような場合に,クラス所属確率は重要な役割を果たす.この例として,ブログ記事に対してさまざまな観点から付けられたタグ(複数)をユーザに表示するシステムにおいて,タグを自動的に付与する際に,クラス所属確率が閾値より低いタグについては排除することが有効な場合がある~\cite{Ohkura06}.同様に,手書き文字認識システムによる分類結果が,言語モデルのようなドメイン知識を組み込んだシステムの入力である場合も,クラス所属確率が用いられている~\cite{Zadrozny02}.また,自動的にタグ付けされた事例のうち誤分類されたものを人手により訂正したい場合に,すべての事例をチェックするのは大きなコストがかかるが,クラス所属確率が低いものほど不正解である可能性が高いと仮定し,クラス所属確率が閾値を下回る事例のみを訂正することにすれば,効率的な作業が行える.さらに,自動分類結果が人間の意思決定を支援する場合においては,クラス所属確率は判断の根拠を与える.例えば,高橋らは,社会調査において自由回答で収集される職業データを該当する職業コードに自動分類し~\cite{Takahashi05a,Takahashi05c},上位5位までに予測されたクラスを候補として画面に提示するシステム(NANACOシステム)を開発した~\cite{Takahashi05b}.NANACOシステムは,我が国の主要な社会調査であるJGSS(JapaneseGeneralSocialSurveys;日本版総合的社会調査)\kern-0.5zw\footnote{\texttt{http://jgss.daishodai.ac.jp/}.JGSSプロジェクトは,シカゴ大学NORC(theNationalOpinionResearchCenter)におけるGSSプロジェクトの日本版であり,国際比較分析を可能にするために,日本の社会や態度,行動に関する調査項目を有する.}や,SSM調査(SocialStratificationandSocialMobilitySurvey;社会階層と社会移動調査)\kern-0.5zw\footnote{\texttt{http://www.sal.tohoku.ac.jp/coe/ssm/index.html}.1995年から10年ごとに実施されている「仕事と暮らしに関する」全国調査である.}などに利用されているが,システムを利用したコーダから,提示された各クラスについてどの程度確からしいかを示すクラス所属確率を付与してほしいという要望が出されている\footnote{NANACOシステムが適用されるたびに,コーダによるシステム評価を行っている.}.最後に,クラス所属確率はEMアルゴリズムにおいても有用である.例えば,語の曖昧性解消において,あるドメインで訓練された分類器を,別のドメインのコーパス用に調整するために用いられたEMアルゴリズムにおいて,クラス所属確率は精度の向上に役立つことが報告されている~\cite{Chan06}.事例$x$があるクラス$c$に所属するクラス所属確率$P$は,2値分類,多値分類のいずれにおいても$P(x\in{c}|x)$で表される\footnote{クラス所属確率$P$の別の定義として,$P(\overrightarrow{\rmX}_{i},X_{i}\in{C_{j}}|\overrightarrow{\rmV}_{j},T_{j},S,I)$で表される場合もある.ただし,$\overrightarrow{\rmX}_{i}$は事例$X_{i}$を記述する属性のベクトル,$C_{j}$はクラス$j$,$\overrightarrow{\rmV}_{j}$は確率密度関数を具体化するパラメータ集合,$T_{j}$は確率密度関数の数式,$S$は許容される確率密度関数$\overrightarrow{\rmV}_{j}$,$T$の空間,$I$は明確には表現されない暗黙の情報を表す~\cite{Cheeseman96}.}.このようなクラス所属確率の意味からは,1つの事例が複数のクラスに所属するマルチラベル分類の可能性があってもよく~\cite{erosheva05},またある事例の全クラスに対するクラス所属確率の推定値の総和が$1$である必要もない~\cite{Canters02}\footnote{さらに,Carreiras(2005)らにおいては,$n$個の分類器のバギングにより生成された分類器において,クラス所属確率の推定値として,それぞれのクラスごとに各分類器におけるクラス所属確率の推定値の平均をそのまま用いている~\cite{Carreiras05}.}.しかし,もし,シングルラベル分類で,全クラスに対するクラス所属確率の推定値を求めることができれば,その総和が$1$になるように正規化することが可能である.このようなクラス所属確率は「正規化されたクラス所属確率」とよばれ~\cite{Cheeseman96},事後確率と考えることができる.対象とする分類問題をシングルラベルとして扱う場合,本来は正規化されたクラス所属確率を用いる必要があると考えられる.しかし,本稿においては,事例が注目するクラスに所属するか否かという問題に対する関心により,それぞれのクラスを独立に扱うため,一部の実験を除き基本的には正規化されたクラス所属確率を用いない.実際には,今回の実験では,正規化を行わないクラス所属確率の推定値の総和の平均はほぼ1に等しく,また限定された実験の結果ではあるが\footnote{3.2.2節および4.2.2節において報告を行う.},本稿における提案手法に関しては,正規化を行わない場合は正規化された場合とほぼ同様かやや劣る結果であるため,本稿における結論は,正規化されたクラス所属確率を用いた場合には,さらなる説得性をもつと考えられる\footnote{この理由は,既存の方法に関しては,正規化を行う場合の方が正規化を行わない場合より結果が悪いためである.ただし,一般化するにはさらなる実験が必要である.}.クラス所属確率の推定は,分類器が出力するスコア(分類スコア)に基づいて行われる.非常に単純には,例えばナイーブベイズ分類器や決定木では分類スコアが$[0,1]$の値をとるために,分類スコアをそのまま用いることができる.また,サポートベクターマシン(SVM)のように分類スコアが$[0,1]$の値をとらない場合でも,最大値や最小値を利用して確率値に変換することは容易である\footnote{例えば分類スコアが$f$の場合,$(f-min)/(max-min)$~\cite{Mizil05}または$(f+max)/2*max$~\cite{Zadrozny02}により$[0,1]$の値に変換することが可能である.ここで,$max$,$min$はそれぞれ分類スコアの最大値,最小値を表す.}.しかし,このようにして得られた推定値は実際の値から乖離することが多い.この理由は,例えば,ナイーブベイズ分類器が出力する確率値は,0または1に近い極端な値をとることが多いために,この値をそのままクラス所属確率とすると不正確になるためである\footnote{Zadroznyらによれば,ナイーブベイズ分類器が出力する確率は,その大小関係を用いた事例のランキングをうまく行うことはできる.}~\cite{Zadrozny02}.また,決定木においては,少なくとも,ナイーブベイズ分類器の場合と同様の確率値の偏りおよび,リーフに関連する訓練事例数が少ない場合に分散が大きいという2つの問題\footnote{度数が少ないことによる信頼性の低さが原因である.}があるが,刈り込みによっても確率値の改善は期待できないため,クラス所属確率の推定値としては使えない~\cite{Zadrozny01b}.SVMにおいても,分類スコアとして用いられる分離平面からの距離が,事例がクラスに所属する程度に正確には比例しない~\cite{Zadrozny02}ために,単純な変換では正確な値を推定しにくい.したがって,クラス所属確率の正確な値を推定する方法についての研究が必要である.\begin{table}[b]\begin{center}\caption{ビニングによる方法において参照される正解率の例}\raisebox{1zw}[0pt][0pt]{(ナイーブベイズ分類器を利用しビンが3個の場合)}\par\label{bining1}\input{01table01.txt}\end{center}\end{table}これまでにいくつかの方法が提案されているが,代表的なものに,Plattの方法~\cite{Platt99}やZadroznyらにより提案された方法~\cite{Zadrozny01a,Zadrozny01b,Zadrozny02,Zadrozny05}がある.Plattの方法では,SVMにおける分離平面からの距離を分類スコアとし,この値をシグモイド関数を利用して$[0,1]$区間の値に変換してクラス所属確率値の推定値とする(図~\ref{Platt}における実線).例えば,訓練事例により図~\ref{Platt}の実線で表されるような変換式が得られている場合に,ある事例の分類スコアが1.5であれば,この事例のクラス所属確率は0.9であると計算される.しかし,Plattの方法では分類器やデータセットによってはうまく推定できない場合があるとして~\cite{Bennett00,Zadrozny01b},Zadroznyらは決定木やナイーブベイズ分類器に対していくつかの方法を提案した~\cite{Zadrozny01a,Zadrozny01b}.このうち,ナイーブベイズ分類器に適用した「ビニングによる方法」は注目に値する.ビニングによる方法は,訓練事例を分類スコアの順にソートして等サンプルごとに「ビン」にまとめ,各ビンごとに正解率を計算しておいたものをクラス所属確率として利用する(表~\ref{bining1}を参照のこと.表の上段の数値(斜体)は各ビンにおける分類スコアの範囲,下段の数値は各ビンの正解率を表す).すなわち,評価事例の分類スコアから該当するビンを参照し,そのビンの正解率を評価事例のクラス所属確率の推定値とする.例えば,訓練事例により表~\ref{bining1}が作成されている場合に,未知の事例の分類スコアが0.6であれば,この事例のクラス所属確率は0.46であると推定される.Zadroznyらは,ビニングによる方法には最適なビンの個数を決定するのが困難であるという問題があるとして,次にIsotonic回帰による方法を提案した~\cite{Zadrozny02}.Isotonic回帰による方法もビニングによる方法と同様に,訓練事例を分類スコアの順にソートすることが前提条件であるが,ビンとしてまとめずに事例ごとに確率(正解の場合1,不正解の場合0)を付ける点が異なる.確率値は初期値1または0で開始されるが,分類スコアと単調関係を保つようになるまで修正が繰り返され,最終的に定まった値を正解率とする(表~\ref{Isotonic1}を参照のこと.表の上段の数値(斜体)は各事例の分類スコア,下段の数値は各事例の正解率を表す).評価事例のクラス所属確率は,評価事例の分類スコアと等しい分類スコアをもつ事例の正解率を参照し,この値を推定値とする.例えば,訓練事例により表~\ref{Isotonic1}が作成されている場合に,未知の事例の分類スコアが0.8であれば,この事例のクラス所属確率は0.5であると推定される.\begin{table}[b]\begin{center}\caption{Isotonic回帰による方法において参照される正解率の例(SVMを利用し事例数が10の場合)}\label{Isotonic1}\input{01table02.txt}\end{center}\end{table}これまでに提案された方法\footnote{これらの方法についての詳しい解説はこの後2節で行う.}はいずれも2値分類を想定しているために,クラス所属確率の推定には推定したいクラスの分類スコアのみを用いる.したがって,文書分類でしばしば用いられる多値分類に対しても,分類スコアを単独に用いて推定する2値分類に分解する方法が検討された~\cite{Zadrozny02,Zadrozny05}.すなわち,多値分類をいったん2値分類の組に分解し,それぞれの組で2値分類として推定したクラス所属確率の値を最後に統合(調整)する.多値分類を2値分類に分解するには,all-pairs(one-versus-one)およびone-against-all(one-versus-rest)の2つの方法があるが,Zadroznyらは,分解する方法そのものに精度の違いがないことを実験により示した上で,実験においてはいずれの場合もone-against-allを用いた.各組の2値分類における推定値を統合する方法としては,one-against-allにより分解した各組(クラスの数と等しい)において推定した値の合計が1になるようにそれぞれの推定値を正規化する方法がよい結果を示したことを報告した\footnote{Zadroznyらが推定値を統合する方法として提案した他の方法については,2.3節で述べる.}~\cite{Zadrozny02}.また,Zadroznyらによる最新の統合方法はさらに単純で,one-against-allにより分解した2値分類の各組において推定したクラス所属確率をそのままそのクラスについての推定値とする\footnote{ただし,この推定は($\text{分類クラスの数}-{1}$)個に対して行い,残りの1クラスについては,これらの推定値を合計したものを1から引いた値を推定値とする.}~\cite{Zadrozny05}.多値分類についての推定方法についてはZadroznyらの研究以外になく,例えば,Caruanaらによるクラス所属確率の推定方法の比較~\cite{Mizil05}においても,2値分類を対象としており,多値分類に対しては,Zadroznyらの文献~\cite{Zadrozny02}の紹介にとどまっている.しかし,多値分類は2値分類の場合と異なり,予測されるクラスは分類スコアの絶対的な大きさではなく相対的な大きさにより決定されるために,クラス所属確率は推定したいクラスの分類スコアだけでなく他のクラスの分類スコアにも依存すると考えられる.したがって,多値分類においては,推定したいクラス以外のクラスの分類スコアも用いることが有効であると思われる.本稿は,多値分類における任意のクラスについてのクラス所属確率を,複数の分類スコア,特に推定したいクラスと第1位のクラスの分類スコアを用いて,ロジスティック回帰により高精度に推定する方法を提案する.本稿ではまた,複数の分類スコアを用いてクラス所属確率を推定する別の方法として,「正解率表」(表~\ref{accuracy_table1}を参照のこと.表の最左列と最上段の数値(斜体)はそれぞれ第1位と第2位に予測されたクラスに対する分類スコアの範囲,それ以外の数値は、第1位のクラスについての正解率を表す.)を利用する方法も提案する.正解率表を利用する方法とは,各分類スコアのなす空間を等区間(例えば0.5)に区切って「セル」\footnote{正解率表は多次元を想定するために,ビンではなくセルの語を用いることにする.}を作成し,各セルについて正解率を計算した表を用意して参照する方法である.例えば,「正解率表」を利用する方法において,訓練事例により表~\ref{accuracy_table1}が作成されている場合,未知の事例において第1位に予測されたクラスの分類スコアが0.8,第2位に予測されたクラスの分類スコアが$-0.6$であれば,この事例の第1位のクラスに対するクラス所属確率は0.67であると推定される.しかし,もし第2位に予測されたクラスの分類スコアが$-0.2$または0.3であれば,第1位のクラスについてのクラス所属確率の推定値は,それぞれ0.53または0.38のようにより小さな値になる.このように,提案手法は既存の方法と異なり,推定したいクラス所属確率に関連すると思われる別のクラス(例えば第2位のクラス)の分類スコアを直接利用することで,より正確な推定を行うことが可能になる.\begin{table}[b]\begin{center}\hangcaption{複数の分類スコアを用いた正解率表の例(SVMを利用し,第1位と第2位のクラスの分類スコアを用いた場合)}\label{accuracy_table1}\input{01table03.txt}\end{center}\end{table}以下,次節で関連研究について述べた後,3節では,まず第1位に予測されたクラスのクラス所属確率を複数の分類スコアを用いて推定する方法を提案し,実験を行う.4節では3節で得られた結論を第2位以下の任意のクラスに対して拡張する方法を提案し,実験を行う.最後にまとめと今後の課題について述べる.
| |
V24N01-01
|
日本は,2007年に高齢化率が21.5\%となり「超高齢社会」になった\cite{no1}.世界的に見ても,高齢者人口は今後も増加すると予想されており,認知症治療や独居高齢者の孤独死が大きな問題となっている.また,若い世代においても,学校でのいじめや会社でのストレスなどにより精神状態を崩すといった問題が起きている.このような問題を防ぐ手段として,カウンセリングや傾聴が有効であると言われている\cite{no2}.しかし,高齢者の介護職は人手不足であり,また,家庭内においても,身近に,かつ,気軽に傾聴してもらえる人がいるとは限らない.このような背景のもと,本論文では,音声対話ロボットのための傾聴対話システムを提案する.我々は,介護施設や病院,あるいは,家庭に存在する音声対話ロボットが傾聴機能を有することにより,上記の問題の解決に貢献できると考えている.傾聴とは,話を聴いていることを伝え,相手の気持ちになって共感を示しつつ,より多くのことを話せるように支援する行為であり,聴き手は,表1に挙げる話し方をすることが重要であるとされる\cite{no3,no4,no5}.また,傾聴行為の一つとして回想法が普及している.回想法とは,アメリカの精神科医Butlerによって1963年に提唱されたものであり\cite{no6},過去の思い出に,受容的共感的に聞き入ることで高齢者が自分自身の人生を再評価し,心理的な安定や記憶力の改善をはかるための心理療法である\cite{no7}.本論文は,この回想法による傾聴を行う音声対話システムの実現を目指す.\begin{table}[b]\caption{傾聴において重要とされる話し方}\label{table:1}\input{01table01.txt}\end{table}音声対話システムとして,音声認識率の向上やスマートフォンの普及などを背景に,AppleのSiri\cite{no8}やYahoo!の音声アシスト\cite{no9},NTTドコモのしゃべってコンシェル\cite{no10}といった様々な音声アプリケーションが登場し,一般のユーザにも身近なものになってきた.単語単位の音声入力や一問一答型の音声対話によって情報検索を行うタスク指向型対話システムに関しては,ある一定の性能に達したと考えられる\cite{no11}.しかしながら,これらの音声対話システムは,音声認識率を高く保つために,ユーザが話す内容や発声の仕方(単語に区切るなど)を制限している.一方で,雑談対話のような達成すべきタスクを設定しない非タスク指向型対話システムも多く提案されており(Tokuhisa,Inui,andMatsumoto2008;BanchsandLi2012;Higashinaka,\linebreakImamura,Meguro,Miyazaki,Kobayashi,Sugiyama,Hirano,Makino,andMatsuo2014;\linebreakHigashinaka,Funakoshi,Araki,Tsukahara,Kobayashi,andMizukami2015)\nocite{no12,no13,no14,no15},傾聴対話システムも提案されている.傾聴対話システムの先行研究として,Hanらの研究\cite{no16,no17},および,大竹らの研究がある\cite{no18,no19}.これらの研究は,いずれも対話システムによる傾聴の実現を目的としており,5W1H型の疑問文による問い返し(e.g.,Usr:とっても美味しかったよ.⇒Sys:何が美味しかったの?)や,固有名詞に関する知識ベースに基づく問い返し(e.g.,Usr:ILikeMessi.⇒Sys:WhatisMessi'sPosition?),あるいは,評価表現辞書を用いた印象推定法による共感応答(e.g.,Usr:寒いしあまり炬燵から出たくないね.⇒Sys:炬燵は暖かいよね.)などの生成手法が提案されている.Hanら,大竹らの研究は傾聴対話システムの実現を目的としている点において,我々と同様である.しかしながら,これらの研究はテキスト入力を前提としているため,音声入力による対話システムへ適用する際には,音声認識誤りへの対応という課題が残る.傾聴のような聞き役対話システムの先行研究としては,目黒らの研究がある\cite{no20,no21,no22}.この研究では,人同士の聞き役対話と雑談を収集し,それぞれの対話における対話行為の頻度を比較・分析し,さらに,聞き役対話の流れをユーザ満足度に基づいて制御する手法を提案している.ただし,この研究の目的は,人と同様の対話制御の実現であり,また,カウンセリングの側面を持つ傾聴ではなく,日常会話においてユーザが話しやすいシステムの実現を目指している点で,我々と異なる.また,山本,横山,小林らの研究\cite{no23,no24,no25,no26,no27}は,対話相手の画像や音声から会話への関心度を推定し,関心度が低い場合は話題提示に,関心度が高い場合は傾聴に切り替えることで雑談を継続させる.発話間の共起性を用いて,音声の誤認識による不適切な応答を低減する工夫も導入している.さらに,病院のスタッフと患者間の対話から対話モデル(隣接ペア)を用いた病院での実証実験を行っており,ロボットとの対話の一定の有効性を示している.しかしながら,傾聴時において生成される応答は「単純相槌」「反復相槌」「質問」の3種類であり,ユーザ発話中のキーワードを抽出して生成されるため,ユーザ発話中に感情表現がない場合に(e.g.,Usr:混雑していたよ),傾聴において重要とされる「共感応答」(e.g.,Sys:それは残念でしたね)は扱っていない.同様に,戦場の兵士らの心のケアを目的とした傾聴対話システムSimCoachや,意思決定のサポートをするSimSenseiという対話システムも構築されている\cite{no28,no29}.SimCoachやSimSenseiはCGによるAgent対話システムで,発話内容に合わせた豊かな表情や頷きを表現することで,人間とのより自然な対話を実現している点も特徴である.我々は,対話システムの機能を,回想法をベースとした傾聴に特化することにより,音声認識や応答生成のアルゴリズムをシンプル化し,対話が破綻することなく継続し,高齢者から若者まで満足感を感じさせるシステムの実現を目指す.Yamaguchiら,Kawaharaらは,傾聴対話システムがユーザ発話に対して傾聴に適した相槌を生成する手法とその有効性について報告している\cite{no30,no34}.具体的には,人同士の傾聴時の対話で生じる相槌を対象として相槌が持つ先行発話との関係を分析し,それに基づいて相槌生成の形態,韻律を決定する手法を検討した.結果として,先行発話の境界のタイプや構文の複雑さに応じて相槌を変えることや,先行発話の韻律的特徴と同調するように韻律的特徴を制御することの有効性を述べている.相槌の生成ではタイミング,形態,韻律が重要であるが,今回のシステムでは,適切な内容の応答生成による対話の継続と満足感の評価を目的としている.本論文の貢献は,音声認識誤りを考慮した上で,傾聴時に重要な応答の生成を可能にする手法の提案,および,提案手法が実装されたシステムの有効性を,応答正解率の観点と,100人規模の被験者実験による対話継続時間と主観評価による満足度の観点で評価した点である.本論文の構成は,次のようになっている.第2章で本傾聴対話システムの概要を述べる.第3,4,5章は,本対話システムの機能である音声認識,および,認識信頼度判定部,問い返し応答生成部,共感応答生成部に関する実装に関して,第6章で評価実験と結果について説明し,第7章でまとめる.
| |
V26N01-02
|
学会での質疑応答や電子メールによる問い合わせなどの場面において,質問は広く用いられている.このような質問には,核となる質問文以外にも補足的な情報も含まれる.補足的な情報は質問の詳細な理解を助けるためには有益であるが,要旨を素早く把握したい状況においては必ずしも必要でない.そこで,本研究では要旨の把握が難しい複数文質問を入力とし,その内容を端的に表現する単一質問文を出力する“質問要約”課題を新たに提案する.コミュニティ質問応答サイトであるYahoo!Answers\footnote{https://answers.yahoo.com/}から抜粋した質問の例を表\ref{example_long_question}に示す.{この質問のフォーカスは}“頭髪の染料は塩素によって落ちるか否か”である.しかし,質問者が水泳をする頻度や現在の頭髪の色などが補足的な情報として付与される.このような補足的な情報は正確な回答を得るためには必要であるが,質問内容をおおまかに素早く把握したいといった状況においては,必ずしも必要でない.{このような質問を表\ref{example_long_question}に例示するような単一質問文に要約することにより,質問の受け手の理解を助けることが出来る.本研究では,質問要約課題の一事例としてコミュニティQAサイトに投稿される質問を対象テキストとし,質問への回答候補者を要約の対象読者と想定する.}\begin{table}[b]\caption{複数文質問とその要約}\label{example_long_question}\input{02table01.tex}\end{table}テキスト要約課題自体は自然言語処理分野で長く研究されている課題の一つである.既存研究は要約手法の観点からは,大きく抽出型手法と生成型手法に分けることができる.抽出型手法は入力文書に含まれる文や単語のうち,要約に含める部分を同定することで要約を出力する.生成型手法は入力文書には含まれない表現も用いて要約を生成する.一方で,要約対象とするテキストも多様化している.既存研究の対象とするテキストは,従来の新聞記事や科学論文から,最近では電子メールスレッドや会話ログなどに広がり,それらの特徴を考慮した要約モデルが提案されている.\cite{pablo2012inlg,oya2014sigdial,oya2014inlg}質問を対象とする要約研究としては\citeA{tamura2005}の質問応答システムの性能向上を指向した研究が存在する.この研究では質問応答システムの構成要素である質問タイプ同定器へ入力する質問文を入力文書から抽出する.本研究では,彼らの研究とは異なり,ユーザに直接提示するために必要な情報を含んだ要約の出力を目指す.ユーザに直接提示するための質問要約課題については,既存研究では取り組まれておらず,既存要約モデルを質問{テキスト}に適用した場合の性能や,質問が抽出型手法で要約可能であるか,生成型の手法が必要であるか明らかでない.そこで,本研究ではコミュニティ質問応答サイトに投稿される質問{テキスト}とそのタイトルの対(以後,質問{テキスト}−タイトル対と呼ぶ)を,規則を用いてフィルタリングし,質問{テキスト}とその要約の対(以後,質問{テキスト}−要約対と呼ぶ)を獲得する.獲得した質問{テキスト}−要約対を分析し,抽出型および生成型の観点から質問がどのような手法を用いて要約可能であるか明らかにする.また,質問要約課題のために,ルールに基づく手法,抽出型要約手法,生成型要約手法をいくつか構築し性能を比較する.ROUGE~\cite{rouge2004aclworkshop}を用いた自動評価実験および人手評価において,生成型手法であるコピー機構付きエンコーダ・デコーダモデルがより良い性能を示した.
| |
V12N05-04
|
\label{sec:intro}機械翻訳システムなどで利用される対訳辞書に登録すべき表現を対訳コーパスから自動的に獲得する方法の処理対象は,固有表現と非固有表現に分けて考えることができる.固有表現と非固有表現を比べた場合,固有表現は,既存の辞書に登録されていないものが比較的多く,辞書未登録表現が機械翻訳システムなどの品質低下の大きな原因の一つになっていることなどを考慮すると,優先的に獲得すべき対象である.このようなことから,我々は,英日機械翻訳システムの対訳辞書に登録すべき英語固有表現とそれに対応する日本語表現との対を対訳コーパスから獲得する方法の研究を行なっている.固有表現とその対訳を獲得することを目的とした研究は,単一言語内での固有表現の認識を目的とした研究に比べるとあまり多くないが,文献\cite{Al-Onaizan02,Huang02,Huang03,Moore03}などに見られる.これらの従来研究では,抽出対象の英語固有表現は前置修飾句のみを伴う{\BPNP}に限定されており,前置詞句を伴う名詞句や等位構造を持つ名詞句についての議論は行なわれていない.しかし,実際には,``theU.N.InternationalConferenceonPopulationandDevelopment''のように前置詞句による後置修飾と等位構造の両方または一方を持つ固有表現も少なくない.そこで本稿では,前置詞句と等位構造の両方または一方を持つ英語の固有名詞句を抽出することを目指す.このような英語の固有名詞句には様々な複雑さを持つものがあるが,できるだけ長い固有名詞句を登録することにする.このような方針をとると副作用が生じる恐れもあるが,翻訳品質が向上することが多いというこれまでのシステム開発の経験に基づいて,最も長い名詞句を抽出対象とする.以下では,このような英語の固有名詞句を単に{\CPNP}と呼ぶ.{\CPNP}を処理対象にすると,前置修飾のみを伴う{\BPNP}を処理対象としていたときには生じなかった課題として,前置詞句の係り先や等位構造の範囲が誤っている英語固有表現を抽出しないようにすることが必要になる.例えば次の英文(E\ref{SENT:pp_ok0})に現れる``JapaneseEmbassyinMoscow''という表現は意味的に適格で一つの{\CPNP}であるが,英文(E\ref{SENT:pp_ng0})に現れる``theUnitedStatesintoWorldWarII''は意味的に不適格で一つの{\CPNP}ではない.\begin{SENT}\sentETheministryquicklyinstructedtheJapaneseEmbassyinMoscowto$\ldots$.\label{SENT:pp_ok0}\end{SENT}\begin{SENT}\sentETheattackonPearlHarborwasthetriggerthatdrewtheUnitedStatesintoWorldWarII.\label{SENT:pp_ng0}\end{SENT}従って,英文から抽出される表現の意味的適格性を判断し,適格な表現についてはその対訳と共に出力し,不適格な表現については何も出力しないようにする必要がある.本稿ではこのような課題に対する一つの解決策を示す.なお,本稿での意味的に不適格な表現とは,前置詞句の係り先や等位構造の範囲が誤っている表現を指す.{\CPNP}は句レベルの表現であるため,提案方法は一般の句アライメント手法\cite{Meyers96,Watanabe00,Menezes01,Imamura02,Aramaki03}の一種であると捉えることもできる.しかし,一般の句アライメント手法では構文解析により生成した構文木(二次元構造)の照合によって句レベルの表現とその対訳を獲得するのに対して,提案方法では文献\cite{Kitamura97}などの方法と同様に構文解析を行なわずに単語列(一次元構造)の照合によって{\CPNP}とその対訳を獲得する点で両者は異なる.すなわち,本稿の目的は,これまであまり扱われてこなかった,複雑な構造を持つ{\CPNP}とその対訳をコーパスから抽出するという課題において,構文解析系に代わる手段を導入することによってどの程度の性能が得られるかを検証することにある.
| |
V22N01-02
|
今日までに,人間による言語使用の仕組みを解明する試みが単語・文・発話・文書など様々な単位に注目して行われて来た.特に,これらの種類や相互関係(例えば単語であれば品詞や係り受け関係,文であれば文役割や修辞構造など)にどのようなものがあるか,どのように利用されているかを明らかにする研究が精力的になされて来た.計算機が普及した現代では,これらを数理モデル化して考えることで自動推定を実現する研究も広く行われており,言語学的な有用性にとどまらず様々な工学的応用を可能にしている.例えば,ある一文書内に登場する節という単位に注目すると,主な研究としてMann\&Thompsonによる修辞構造理論(RhetoricalStructureTheory;RST)がある\cite{Mann1987,Mann1992}.修辞構造理論では文書中の各節が核(nucleus)と衛星(satelite)の2種類に分類できるとし,さらに核と衛星の間にみられる関係を21種類に,核と核の間にみられる関係(多核関係)を3種類に分類している.このような分類を用いて,節同士の関係を自動推定する研究も古くから行われている\cite{Marcu1997a,田村直良:1998-01-10}.さらに,推定した関係を別タスクに利用する研究も盛んに行われている\cite{Marcu99discoursetrees,比留間正樹:1999-07-10,Marcu2000,平尾:2013,tu-zhou-zong:2013:Short}.例えば,Marcu\citeyear{Marcu99discoursetrees}・比留間ら\citeyear{比留間正樹:1999-07-10}・平尾ら\citeyear{平尾:2013}は,節の種類や節同士の関係を手がかりに重要と考えられる文のみを選択することで自動要約への応用を示している.また,Marcuら\citeyear{Marcu2000}・Tuら\citeyear{tu-zhou-zong:2013:Short}は,機械翻訳においてこれらの情報を考慮することで性能向上を実現している.一方,我々は従来研究の主な対象であった一文書や対話ではなく,ある文書(往信文書)とそれに呼応して書かれた文書(返信文書)の対を対象とし,往信文書中のある文と返信文書中のある文との間における文レベルでの呼応関係(以下,\textbf{文対応}と呼ぶ)に注目する.このような文書対の例として「電子メールと返信」,「電子掲示板の投稿と返信」,「ブログコメントの投稿と返信」,「質問応答ウェブサイトの質問投稿と応答投稿」,「サービスや商品に対するレビュー投稿とサービス提供者の返答投稿」などがあり,様々な文書対が存在する(なお,本論文において文書対は異なる書き手によって書かれたものとする).具体的に文書対として最も典型的な例であるメール文書と返信文書における実際の文対応の例を図\ref{fig:ex-dependency}に示す.図中の文同士を結ぶ直線が文対応を示しており,例えば返信文「講義を楽しんで頂けて何よりです。」は往信文「本日の講義も楽しく拝聴させて頂きました。」を受けて書かれた文である.同様に,返信文「まず、課題提出日ですが…」と「失礼しました。」はいずれも往信文「また、課題提出日が…」を受けて書かれた文である.\begin{figure}[t]\begin{center}\includegraphics{22-1ia2f1.eps}\end{center}\caption{メール文書における文対応の例.文同士を結ぶ直線が文対応を示している.}\label{fig:ex-dependency}\vspace{-0.5\Cvs}\end{figure}本論文では,文書レベルで往信・返信の対応が予め分かっている文書対を入力とし,以上に述べたような文対応を自動で推定する課題を新たに提案し,解決方法について検討する.これら文書対における文対応の自動推定が実現すれば,様々な応用が期待できる点で有用である.応用例について,本研究の実験では「サービスに対するレビュー投稿とサービス提供者の返答投稿」を文書対として用いているため,レビュー文書・返答文書対における文対応推定の応用例を中心に説明する.\begin{enumerate}\renewcommand{\labelenumi}{}\item\textbf{文書対群の情報整理}:複数の文書対から,文対応が存在する文対のみを抽出することでこれら文書対の情報整理が可能になる.例えば,「このサービス提供者は(または要望,苦情など)に対してこのように対応しています」といった一覧を提示できる.これを更に応用すれば,将来的にはFAQの(半)自動生成や,要望・苦情への対応率・対応傾向の提示などへ繋げられると考えている.\item\textbf{未対応文の検出による返信文書作成の支援}:往信文書と返信文書を入力して自動で文対応を特定できるということは,逆に考えると往信文書の中で対応が存在しない文が発見できることでもある.この推定結果を利用し,ユーザが返信文書を作成している際に「往信文書中の対応がない文」を提示することで,返信すべき事項に漏れがないかを確認できる文書作成支援システムが実現できる.このシステムは,レビュー文書・返答文書対に適用した場合は顧客への質問・クレームへの対応支援に活用できる他,例えば質問応答サイトのデータに適用した場合は応答作成支援などにも利用できる.\item\textbf{定型的返信文の自動生成}:(2)の考えを更に推し進めると,文対応を大量に収集したデータを用いることで,将来的には定型的な返信文の自動生成が可能になると期待できる.大規模な文対応データを利用した自動生成手法は,例えばRitterら・長谷川らが提案している\cite{Ritter2011,長谷川貴之:2013}が,いずれも文対応が既知のデータ(これらの研究の場合はマイクロブログの投稿と返信)の存在が前提である.しかし,実際には文対応が既知のデータは限られており,未知のデータに対して自動生成が可能となるだけの分量を人手でタグ付けするのは非常に高いコストを要する.これに対し,本研究が完成すればレビュー文書・返答文書対をはじめとした文対応が未知のデータに対しても自動で文対応を付与できるため,先に挙げた様々な文書において往信文からの定型的な返信文の自動生成システムが実現できる.定型的な返信文には,挨拶などに加え,同一の書き手が過去に類似した質問や要望に対して繰り返し同様の返信をしている場合などが含まれる.\item\textbf{非定形的返信文の返答例提示}:(3)の手法の場合,自動生成できるのは定型的な文に限られる.一方,例えば要望や苦情などの個別案件に対する返答文作成の支援は,完全な自動生成の代わりに複数の返答例を提示することで実現できると考えている.これを実現する方法として,現在返答しようとしている往信文に類似した往信文を文書対のデータベースから検索し,類似往信文と対応している返信文を複数提示する手法がある.返信文の書き手は,返答文例の中から書き手の方針と合致したものを利用ないし参考にすることで返信文作成の労力を削減できる.\end{enumerate}一方で,文書対における文対応の自動推定課題は以下のような特徴を持つ.\begin{enumerate}\renewcommand{\labelenumi}{}\item\textbf{対応する文同士は必ずしも類似しない}:例えば図\ref{fig:ex-dependency}の例で,往信文「本日の講義も楽しく拝聴させて頂きました。」と返信文「講義を楽しんで頂けて何よりです。」は「講義」という単語を共有しているが,往信文「また、課題提出日が…」と返信文「失礼しました。」は共有する単語を一つも持たないにも関わらず文対応が存在する.このように,文対応がある文同士は必ずしも類似の表現を用いているとは限らない.そのため,単純な文の類似度によらない推定手法が必要となる.\item\textbf{文の出現順序と文対応の出現位置は必ずしも一致しない}:例えば図\ref{fig:ex-dependency}の例で対応が逆転している(文対応を示す直線が交差している)ように,返信文書の書き手は往信文書の並びと対応させて返信文書を書くとは限らない.そのため,文書中の出現位置に依存しない推定手法が必要となる.\end{enumerate}我々は,以上の特徴を踏まえて文対応の自動推定を実現するために,本課題を文対応の有無を判定する二値分類問題と考える.すなわち,存在しうる全ての文対応(例えば図\ref{fig:ex-dependency}であれば$6\times6=36$通り)のそれぞれについて文対応が存在するかを判定する分類器を作成する.本論文では,最初にQu\&Liuの対話における発話の対応関係を推定する手法\cite{Zhonghua2012}を本課題に適用する.彼らは文種類(対象が質問応答なので「挨拶」「質問」「回答」など)を推定した後に,この文種類推定結果を発話文対応推定の素性として用いることで高い性能で文対応推定が実現したことを報告している.本論文ではこれに倣って文種類の推定結果を利用した文対応の推定を行うが,我々の対象とする文書対とは次のような点で異なっているため文種類・文対応の推定手法に多少の変更を加える.すなわち,彼らが対象とする対話では対応関係が有向性を持つが,我々が対象とする文書対では返信文から往信文へ向かう一方向のみである.また,対話は発話の連鎖で構成されているが,文書対は一組の往信文書・返信文書の対で構成されている点でも異なる.更に,我々は文対応の推定性能をより向上させるために,彼らの手法を発展させた新たな推定モデルを提案する.彼らの手法では,文対応の素性に推定された文種類を利用しているが,文種類推定に誤りが含まれていた場合に文対応推定結果がその誤りに影響されてしまう問題がある.そこで,我々は文種類と文対応を同時に推定するモデルを提案し,より高い性能で文対応の推定が実現できることを示す.本論文の構成は次の通りである.まず,2章で関連研究について概観する.次に,3章で文対応の自動推定を行う提案手法について述べる.4章では評価実験について述べる.5章で本論文のまとめを行う.
| |
V03N02-01
|
\label{haji}終助詞は,日本語の会話文において頻繁に用いられるが,新聞のような書き言葉の文には殆んど用いられない要素である.日本語文を構造的に見ると,終助詞は文の終りに位置し,その前にある全ての部分を従要素として支配し,その有り方を規定している.そして,例えば「学生だ」「学生だよ」「学生だね」という三つの文が伝える情報が直観的に全く異なることから分かるように,文の持つ情報に与える終助詞の影響は大きい.そのため,会話文を扱う自然言語処理システムの構築には,終助詞の機能の研究は不可欠である.そこで,本稿では,終助詞の機能について考える.\subsection{終助詞の「よ」「ね」「な」の用法}まずは,終助詞「よ」「ね」「な」の用法を把握しておく必要がある.終助詞「よ」「ね」については,\cite{kinsui93-3}で述べられている.それによると,まず,終助詞「よ」には以下の二つの用法がある.\begin{description}\item[教示用法]聞き手が知らないと思われる情報を聞き手に告げ知らせる用法\item[注意用法]聞き手は知っているとしても目下の状況に関与的であると気付いていないと思われる情報について,聞き手の注意を喚起する用法\end{description}\res{teach}の終助詞「よ」は教示用法,\rep{remind}のそれは注意用法である.\enumsentence{あ,ハンカチが落ちました{\dgよ}.}\label{teach}\enumsentence{お前は受験生だ{\dgよ}.テレビを消して,勉強しなさい.}\label{remind}以上が\cite{kinsui93-3}に述べられている終助詞「よ」の用法であるが,漫画の中で用いられている終助詞を含む文を集めて検討した結果,さらに,以下のような,聞き手を想定しない用法があった.\enumsentence{「あーあまた放浪だ{\dgよ}」\cite{themegami}一巻P.50}\label{hitori1}\enumsentence{「先輩もいい趣味してる{\dgよ}」\cite{themegami}一巻P.114}\label{hitori2}本稿ではこの用法を「{\dg独り言用法}」と呼び,終助詞「よ」には,「教示」「注意」「独り言」の三用法がある,とする.次に,終助詞「ね」について,\cite{kinsui93-3}には以下の三種類の用法が述べられている.\begin{description}\item[確認用法]話し手にとって不確かな情報を聞き手に確かめる用法\item[同意要求用法]話し手・聞き手ともに共有されていると目される情報について,聞き手に同意を求める用法\item[自己確認用法]話し手の発話が正しいかどうか自分で確かめていることを表す用法\end{description}\rep{confirm}の終助詞「ね」は確認用法,\rep{agree}Aのそれは同意要求用法,\rep{selfconfirm}Bのそれは自己確認用法である.\enumsentence{\label{confirm}\begin{tabular}[t]{ll}\multicolumn{2}{l}{(面接会場で)}\\面接官:&鈴木太郎君です{\dgね}.\\応募者:&はい,そうです.\end{tabular}}\enumsentence{\label{agree}\begin{tabular}[t]{ll}A:&今日はいい天気です{\dgね}.\\B:&ええ.\end{tabular}}\enumsentence{\label{selfconfirm}\begin{tabular}[t]{ll}A:&今何時ですか.\\B:&(腕時計を見ながら)ええと,3時です{\dgね}.\end{tabular}}以上が,\cite{kinsui93-3}で述べられている終助詞「ね」の用法であるが,本稿でもこれに従う.\rep{confirm},\rep{agree}A,\rep{selfconfirm}Bの終助詞の「ね」を「な」に代えてもほぼ同じような文意がとれるので,終助詞「な」は,終助詞「ね」と同じ三つの用法を持っている,と考える.ところで,発話には,聞き手を想定する発話と,聞き手を想定しない発話があるが,自己確認用法としての終助詞「ね」は主に聞き手を想定する発話で,自己確認用法としての終助詞「な」は主に聞き手を想定しない発話である.さらに,\res{megane}のような,終助詞「よ」と「ね/な」を組み合わせた「よね/よな」という形式があるが,これらにも,終助詞「ね」「な」と同様に,確認,同意要求,自己確認用法がある.\enumsentence{(眼鏡を探しながら)私,眼鏡ここに置いた{\dgよね}/{\dgよな}.}\label{megane}\subsection{従来の終助詞の機能の研究}さて,以上のような用法の一部を説明する,計算言語学的な終助詞の機能の研究は,過去に,人称的分析によるもの\cite{kawamori91,kamio90},談話管理理論によるもの\cite{kinsui93,kinsui93-3},Dialoguecoordinationの観点から捉えるもの\cite{katagiri93},の三種類が提案されている.以下に,これらを説明する.ところで,\cite{kawamori91}では終助詞の表す情報を「意味」と呼び,これに関する主張を「意味論」と呼んでいる.\cite{kinsui93,kinsui93-3}では,それぞれ,「(手続き)意味」「(手続き)意味論」と呼んでいる.\cite{katagiri93}では,終助詞はなにがしかの情報を表す「機能(function)」があるという言い方をしている.本論文では,\cite{katagiri93}と同様に,「意味」という言葉は用いずに,終助詞の「機能」を主張するという形を取る.ただし,\cite{kawamori91},\cite{kinsui93,kinsui93-3}の主張を引用する時は,原典に従い,「意味」「意味論」という言葉を用いることもある.\begin{flushleft}{\dg人称的分析による意味論}\cite{kawamori91,kamio90}\end{flushleft}この意味論では,終助詞「よ」「ね」の意味は,「従要素の内容について,終助詞『よ』は話し手は知っているが聞き手は知らなそうなことを表し,終助詞『ね』は話し手は知らないが聞き手は知っていそうなことを表す」となる.この意味論では,終助詞「よ」の三用法(教示,注意,独り言)のうち教示用法のみ,終助詞「ね」の三用法(確認,同意要求,自己確認)のうち確認用法のみ説明できる.終助詞「よ」と「ね」の意味が同時に当てはまる「従要素の内容」はあり得ないので,「よね」という形式があることを説明出来ない.また,聞き手が終助詞の意味の中に存在するため,聞き手を想定しない終助詞「よ」「ね」の用法を説明できない.この二つの問題点(とその原因となる特徴)は,後で述べる\cite{katagiri93}の主張する終助詞の機能でも同様に存在する.\begin{flushleft}{\dg談話管理理論による意味論}\cite{kinsui93,kinsui93-3}\end{flushleft}この意味論では,「日本語会話文は,『命題+モダリティ』という形で分析され,この構造は『データ部+データ管理部』と読み替えることが出来る」,という前提の元に,以下のように主張している.終助詞は,データ管理部の要素で,当該データに対する話し手の心的データベース内における処理をモニターする機能を持っている.この意味論は,一応,前述した全用法を説明しているが,終助詞「よ」に関して,後に\ref{semyo}節で述べるような問題点がある.終助詞「ね」「な」に関しても,「終助詞『ね』と『な』の意味は同じ」と主張していて,これらの終助詞の性質の差を説明していない点が問題点である.\begin{flushleft}{\bfDialoguecoordination}{\dgの観点から捉えた終助詞の機能}\cite{katagiri93}\end{flushleft}\cite{katagiri93}では,以下のように主張している.終助詞「よ」「ね」は,話し手の聞き手に対する共有信念の形成の提案を表し,さらに,終助詞「よ」は話し手が従要素の内容を既に信念としてアクセプトしていることを,終助詞「ね」は話し手が従要素の内容をまだ信念としてアクセプトしていないことを,表す.これらの終助詞の機能は,終助詞「よ」の三用法(教示,注意,独り言)のうち独り言用法以外,終助詞「ね」の三用法(確認,同意要求,自己確認)のうち,自己確認用法以外を説明できる.この終助詞の機能の問題点は,\cite{kawamori91,kamio90}の意味論の説明の終りで述べた通りである.\subsection{本論文で提案する終助詞の機能の概要}本論文では,日本語会話文の命題がデータ部に対応しモダリティがデータ管理部に対応するという\cite{kinsui93-3}の意味論と同様の枠組を用いて,以下のように終助詞の機能を提案する.ただし,文のデータ部の表すデータを,簡単に,「文のデータ」と呼ぶことにする.終助詞「よ」は,データ管理部の構成要素で,「文のデータは,発話直前に判断したことではなく,発話時より前から記憶にあった」という,文のデータの由来を表す.終助詞「ね」「な」も,データ管理部の構成要素で,発話時における話し手による,文のデータを長期的に保存するかどうか,するとしたらどう保存するかを検討する処理をモニターする.さて,本稿では,終助詞を含む文の,発話全体の表す情報と終助詞の表す情報を明確に区別する.つまり,終助詞を含む文によって伝えられる情報に,文のデータと話し手との関係があるが,それは,終助詞で表されるものと語用論的制約で表されるものに分けることができる.そこで,どこまでが終助詞で表されるものかを明確にする.ただし,本稿では,活用形が基本形(終止形)または過去形の語で終る平叙文を従要素とする用法の終助詞を対象とし,名詞や動詞のテ形に直接付加する終助詞については,扱わない(活用形の呼び方については\cite{katsuyou}に従っている).また,上向きイントネーションのような,特殊なイントネーションの文も扱わない.さらに,終助詞「な」は,辞書的には,命令の「な」,禁止の「な」,感動の「な」があるが,本稿では,これらはそれぞれ別な語と考え,感動の「な」だけ扱う.以下,本論文では,\ref{bconcept}節で,我々の提案する終助詞の機能を表現するための認知主体の記憶モデルを示し,これを用いて\ref{sem}節で終助詞の機能を提案し,終助詞の各用法を説明する.\ref{conclusion}節は結論である.
| |
V11N02-03
|
音声認識研究の対象は、読み上げ音声から講演や会議などの話し言葉に移行している。このような話し言葉は日本語では特に、文章に用いる書き言葉と大きく異なり可読性がよくない。そのため、書き起こしや音声認識結果を講演録や議事録などのアーカイブとして二次利用する際には、文章として適切な形態に整形する必要がある。実際に講演録や議事録の作成の際には、人手によりそのような整形が行われている。これまでに、放送ニュースなどを対象とした自動要約の研究が行われている\cite{98-NL-126-10,98-NL-126-9,SP96-28,99-SLP-29-18,SP2000-116}。これらは主に、頻出区間や重要語句の抽出といった処理、つまり発話された表現をそのまま用いることによって要約を作成している。しかし、話し言葉表現が多く含まれる場合には、要約を作成する際にまず話し言葉から書き言葉へ変換する必要がある。実際に人間が要約を作成する際には、このような書き言葉表現への変換に加えて、不必要な部分の削除や必要な語の挿入、さらに1つの文書内での「ですます」調/「である」調などの文体の統一といった処理も行っている。本研究では講演の書き起こしに対してこのような整形を自動的に行うことを考える。現在、文章を整形するソフトウェアも存在しているが、これらはパターンマッチング的に規則ベースで変換を行っており、言語的な妥当性や前後との整合性はあまり考慮されていない。また、基本的に1対1の変換を行っているので、変換の候補が複数ある場合への対処が容易ではない。学会講演とその予稿集との差分をとることで書き言葉と話し言葉の変換規則を自動抽出する研究が村田らにより行われている\cite{murata_nl2002_diff,murata_nl2001_henkei}が、変換の際の枠組みは本質的に同じと考えられ、また実際に変換を行い文章を整形する処理は実現されていない。これに対して本研究では、規則に基づいて1対1の変換を行うのではなく、話し言葉と書き言葉を別の言語とみなした上で統計的な機械翻訳の手法を適用し、確率モデルによりもっともらしい表現に変換し実際に文章を整形することをめざす。
| |
V02N04-02
|
\label{intro}日本語マニュアル文では,次のような文をしばしば見かける.\enumsentence{\label{10}長期間留守をするときは,必ず電源を切っておきます.}この文では,主節の主語が省略されているが,その指示対象はこの機械の利用者であると読める.この読みにはアスペクト辞テオク(実際は「ておきます」)が関与している.なぜなら,主節のアスペクト辞をテオクからテイルに変えてみると,\enumsentence{\label{20}長期間留守をするときは,必ず電源を切っています.}マニュアルの文としては既に少し違和感があるが,少なくとも主節の省略された主語は利用者とは解釈しにくくなっているからである.もう少し別の例として,\enumsentence{\label{30}それでもうまく動かないときは,別のドライブから立ち上げてみます.}では,主節の省略されている主語は,その機械の利用者であると読める.このように解釈できるのは,主節のアスペクト辞テミルが影響している.仮に,「みます」を「います」や「あります」にすると,マニュアルの文としてはおかしな文になってしまう.これらの例文で示したように,まず第一にマニュアル文においても,主語は頻繁に省略されていること,第二に省略された主語の指示対象が利用者なのかメーカーなのか,対象の機械やシステムなのかは,テイル,テアルなどのアスペクト辞の意味のうち,時間的アスペクトではないモダリティの意味に依存する度合が高いことが分かる.後の節で述べることを少し先取りしていうと,a.利用者,メーカー,機械などの動作が通常,意志的になされるかどうかと,b.文に記述されている動作が意志性を持つかどうか,のマッチングによって,省略されている主語が誰であるかが制約されている,というのが本論文の主な主張である.このようなモダリティの意味として,意志性の他に準備性,試行性などが考えられる.そして,意志性などとアスペクト辞の間に密接な関係があることが,主語とアスペクト辞の間の依存性として立ち現れてくる,という筋立てになる.なお,受身文まで考えると,このような考え方はむしろ動作などの主体に対して適用されるものである.そこで,以下では考察の対象を主語ではなく\cite{仁田:日本語の格を求めて}のいう「主(ぬし)」とする.すなわち,仁田の分類ではより広く(a)対象に変化を与える主体,(b)知覚,認知,思考などの主体,(c)事象発生の起因的な引き起こし手,(d)発生物,現象,(e)属性,性質の持ち主を含む.したがって,場合によってはカラやデでマークされることもありうる.若干,複雑になったが簡単に言えば,能動文の場合は主語であり,受身文の場合は対応する能動文の主語になるものと考えられる.以下ではこれを{\dg主}と呼ぶことにする.そして,省略されている場合に{\dg主}になれる可能性のあるものを考える場合には、この考え方を基準とした.マニュアル文の機械翻訳などの処理においては,省略された{\dg主}の指示対象の同定は重要な作業である.したがって,そのためには本論文で展開するような分析が重要になる.具体的には,本論文では,マニュアル文において,省略された{\dg主}の指示対象とアスペクト辞の関係を分析することによって,両者の間にある語用論的な制約を明らかにする.さて,このような制約は,省略された{\dg主}などの推定に役立ち,マニュアル文からの知識抽出や機械翻訳の基礎になる知見を与えるものである.さらに,実際にマニュアル文から例文を集め,提案する制約を検証する.なお,本論文で対象としているマニュアル文は,機械やシステムの操作手順を記述する文で,特にif-then型のルールや利用者がすべき,ないしは,してはいけない動作や利用者にできる動作などを表現するような文である.したがって,「ひとことで言ってしまえば」のような記述法についての記述はここでは扱わない.
| |
V06N06-03
|
複数の関連記事に対する要約手法について述べる.近年,新聞記事は機械可読の形でも提供され,容易に検索することができるようになった.その一方で,検索の対象が長期に及ぶ事件などの場合,検索結果が膨大となり,全ての記事に目を通すためには多大な時間を要する.そのため,これら複数の関連記事から要約を自動生成する手法は重要である.そこで,本研究では複数の関連記事を自動要約することを目的とする.自動要約・抄録に関する研究は古くから存在する\cite{Okumura98}が,それらの多くは単一の文書を対象としている.要約対象の文書が複数存在し,対象文書間で重複した記述がある場合,単一文書を対象とした要約を各々の文書に適用しただけでは重複した内容を持つ可能性があり,これに対処しなければならない.対象とする新聞記事は特殊な表現上の構成をもっており\cite{Hirai84},各記事の見出しを並べると一連の記事の概要をある程度把握することができる.さらに詳細な情報を得るためには,記事の本文に目を通さなければならない.ところが,新聞記事の構成から,各記事の第一段落には記事の要約が記述されていることが多い.これを並べると一連の記事の十分な要約になる可能性がある.しかし,各記事は単独で読まれることを想定して記述されているため,各記事の第一段落の羅列は,重複部分が多くなり,冗長な印象を与えるため読みにくい.そこで,複数の記事を1つの対象とし,その中で重複した部分を特定,削除し,要約を生成する必要がある.本論文で提案する手法は複数関連記事全体から判断して,重要性が低い部分を削除することによって要約を作成する.重要性が低い部分を以下に示す冗長部と重複部の2つに分けて考える.なお,本論文で述べる手法が取り扱う具体的な冗長部,重複部は\ref{要約手法}節にて説明する.\begin{description}\item[冗長部:]単一記事内で重要でないと考えられる部分.\item[重複部:]記事間で重複した内容となっている部分.\end{description}従来の単一文書を対象とした削除による要約手法は,換言すると冗長部を削除する手法であるといえる.重複部は,複数文書をまとめて要約する場合に考慮すべき部分である.本研究において目標とする要約が満たすべき要件は\begin{itemize}\itemそれぞれの単一記事において冗長部を含まないこと,\item記事全体を通して重複部を含まないこと,\item要約を読むだけで一連の記事の概要を理解できること,\itemそのために各記事の要約は時間順に並べられていること,\itemただし,各記事の要約は見出しの羅列より詳しい情報を持つこと,\end{itemize}である.本研究では,時間順に並べた各記事の第一段落に対して要約手法を適用し,記事全体の要約を生成する.したがって,本手法により生成される要約は,見出しの羅列よりも詳しいが第一段落の羅列よりは短かい要約である.以上により,事件等の出来事に関する一連の流れが読みとれると考える.具体的な要約例として付録\ref{ex_summary}を挙げる.この要約例は本論文の\ref{要約手法}節で説明する手法を適用して作成した.この要約例には重複部が多く存在し,それらが本要約手法によって削除された.重複部の削除は,それが正しく特定されている限り適切であると考えることができる.なぜならば,重複部分が既知の情報しか持たず,重要性が低いことは明らかだからである.また,実際の評価においても,要約例\ref{ex_summary}について本手法による削除が不適切とされた部分はなかった.冗長部の特定は重要性の指針を含むことであり,要約に対する視点,要求する要約率などにより変化するので,評価もゆれることが考えられる.これは従来の単一文書に対する要約評価においても同様に問題とされていることである.したがって,付録\ref{ex_summary}に挙げた要約例も重複部の削除に関しては妥当であると言えるが,冗長部の削除については,その特定が不十分であり,削除が不適切である部分が存在すると言える.しかしながら,付録\ref{ex_summary}に挙げた要約例は,実際のところ,記事の概要を把握するためには十分な要約になっている.評価においても,削除が不適切であると指摘された部分はなく,冗長であると指摘された部分を数ヶ所含んだ要約である.新聞記事検索時などにおいて,利用者が関連する一連の記事の要約を求めることは,関連記事数が多ければ多いほど頻繁に起こると想定できる.このとき,本研究が目的とする要約によって,関連記事群全体の概要を知ることができれば,次の検索への重要な情報提供が可能となる.また,見出しの羅列のみでは情報量として不十分であるが,第一段落の羅列では文書量が多すぎる場合に,適切な情報を適切な文書量で提供できると考えられる.換言すれば,段階的情報(要約)提示の一部を担うことが可能となる.したがって,本研究において目標とする要約が満たすべき要件として,重複部・冗長部を含まないのみならず,一連の記事を時間順に並べることが挙げられていることは妥当である.冗長部はどのような記事にも含まれる可能性があるが,重複部は記事の文体によっては特定することが困難となる場合がある.逆に,重複部が存在する場合,複数関連記事要約の観点からそれを削除することは妥当である.一般的に新聞記事の記述の方法から,長い時間経過を伴う一連の関連記事の場合には重複部が多く存在することが予想できる.そのような記事群は一連の事件や政治的出来事に関する場合が多い.また,このような関連記事に対する要約の需要は多く,本論文で示す重複部・冗長部の削除による要約は十分に実用性があると考える.実際に,要約例\ref{ex_summary}はある事件について述べられている一連の記事群であるが,これは既に述べた効果を持ち,おおむね本研究の目指す要約であると言える.本論文では上記の処理がヒューリスティックスにより実現可能であることを示し,そのための手法を提案する.そしてこの手法を実装し,評価実験を通して手法の有効性を確認する.以下では,\ref{関連研究}節にて本研究に関連する研究について触れ,\ref{要約手法}節では,本論文で提案する要約手法について述べる.\ref{評価実験}節では\ref{要約手法}節で述べた手法を用いて行った実験とアンケート評価について示す.そして,\ref{議論}節で評価結果について議論し,最後に本論文のまとめを示す.
| |
V10N05-01
|
LR構文解析法は,構文解析アルゴリズムとして最も効率の良い手法の一つである.LR構文解析法の中でも,横型探索で非決定的解析を行うことにより文脈自由言語の扱いを可能にした方法は一般化LR法(GLR法)と呼ばれ,自然言語処理および,音声認識で利用されている.また,LR法の構文解析過程に確率を割り当てることで,確率言語モデルを得ることができる.確率一般化LR(PGLR)モデル\cite{inui1998},およびその一般化であるAPGLRモデル\cite{akiba2001}は,構文解析結果の構文木の曖昧性解消や,音声認識の確率言語モデル\cite{nagai1994,imai1999,akiba2001}として利用されている.LR構文解析法では,文法が与えられた時点であらかじめ計算できる解析過程を先に求め,LR解析表(以下,LR表)で表しておき,文解析時に利用する.LR法は,言わば,空間効率を犠牲にする(LR表を作成する)ことによって,解析時間の効率化を実現する手法である.LR法を実際の問題に適用する場合の問題点の一つは,文法の規則数増加に伴うLR表のサイズの増大である.計算機言語の解析\cite{aho1986},自然言語の解析\cite{luk2000},音声認識\cite{nagai1994},それぞれの立場からこの問題点が指摘されている.LR表のサイズを押えるひとつの方法は,解析効率を犠牲にして空間効率をある程度に押える方法である.本来LR法が利用されていた計算機言語用の構文解析においては,LR法は決定的解析器として利用されてきた.決定的解析としてのLR法が扱える文法は,文脈自由文法のサブセットである.LR表は,その作り方から幾つかの種類に分類されるが,それらは決定的解析で扱える言語に違いがある.単純LR(SimpleLR;SLR)表は,作り方が単純で表サイズを小さく押えられるが扱える文法の範囲が狭い.正準LR(CannonicalLR;CLR)表は,サイズは非常に大きくなるが扱える文法の範囲は最も広い.両者のバランスを取るLR表として,サイズを小さく押えつつ扱える文法の範囲をそこそこ広くとれる,LALR(LookAheadLR)表が提案されている.一方,文脈自由文法を扱う自然言語処理でLR表を利用する場合は,非決定的解析として利用するのが普通である.決定的解析で扱える言語の大きさは,非決定的解析での解析効率に相当する.すなわち,SLR,LALR,CLRの順に効率は良くなるが,それに伴い表のサイズは増大する.また,計算機言語に用いるLR表のサイズ圧縮手法には,2次元配列としてのスパースな表をいかに効率よく圧縮するかという視点のものも多い.これらは,作成後の表を表現するデータ構造に工夫を行ったもので,表自体が運ぶ情報には違いがない.自然言語処理の分野でも,解析表縮小の手法が提案されている.田中らは,文脈自由文法と単語連接の制約を切り放して記述しておき,LRテーブル作成時に2つの制約を導入する手法(MSLR法)\cite{tanaka1995}を用いることで,単独の文脈自由文法を記述するより解析表のサイズを小さくすることができたと報告している\cite{tanaka1997}.Lukらは,文法を小さな部分に分割して,それぞれを扱うパーザを組み合わせることで,解析表のサイズを押える方法を提案している\cite{luk2000}.以上の従来手法をまとめると,次の3つの手法に分類できる.\begin{enumerate}\item処理効率を犠牲にして空間効率を稼ぐ方法.\item表のデータ構造を工夫して記憶量を引き下げる方法.\item文法の記述方法を工夫してより小さな表を導出する方法.\end{enumerate}本稿では,LR表のサイズを圧縮する,上記の3分類には当てはまらない新規の手法を提案する.提案法は従来の手法と異なり,LR表作成アルゴリズムの再検討を行い,解析に不要な情報を捨象することによって,表の圧縮を実現する.本手法は,次のような特徴を持つ.(1)上記の従来の縮小手法とは手法の軸が異なるため,どの手法とも同時に適用可能である\footnote{ただし,MSLR法\cite{tanaka1995}との同時適用には,表作成に若干の修正が必要である.MSLR法では,提案法で解析に不要とする情報の一部を利用しているためである.MSLR法への対応方法ついては,付録.Bで述べる.}.(2)入力文の構文木を得るという自然言語処理用途において,提案法は解析時の効率に影響をあたえることはない\footnote{計算機言語の構文解析では,解析時に規則に付随するアクション(プログラム)を実行することが要求される.提案法による圧縮LR表では適用されるCFG規則は解析時に動的に求まるので,規則から付随するアクションを検索する処理の分オーバーヘッドが生じる.入力文から構文木を得ることを目的とする自然言語処理用途では,このオーバーヘッドは生じない.}.(3)従来の表作成および解析アルゴリズムへの変更個所は小さく,プログラムの軽微な修正で適用可能である.特に,提案法によって作成された圧縮LR表は,既存のLR構文解析プログラムでほぼそのまま利用可能である.本稿の構成は以下の通りである.まず\ref{ss:base}節で,提案法の基本原理を説明する.また,提案法の性質を考察する.続く\ref{ss:experiment}節では,提案法の実装方法と,実際の文法に提案手法を適用した実験結果を示す.\ref{ss:extension}節では,提案手法の限界を克服するための拡張方法について述べ,実際の文法に適用した結果を報告する.\ref{ss:related}節では,関連研究について述べる.
| |
V23N01-02
|
場所や時間を気にすることなく買い物可能なオンラインショッピングサイトは重要なライフラインになりつつある.オンラインショッピングサイトでは商品に関する説明はテキスト形式で提供されるため,この商品説明文から商品の属性-属性値を抽出し構造化された商品データを作成する属性値抽出技術は実世界でのニーズが高い.ここで「商品説明文から商品の属性値を抽出する」とは,例えばワインに関係した以下の文が入力された時,(生産地,フランス),(ぶどう品種,シャルドネ),(タイプ,辛口)といった属性と属性値の組を抽出することを指す.\begin{itemize}\itemフランス産のシャルドネを配した辛口ワイン.\end{itemize}\noindentこのような商品の属性値抽出が実現できれば,他の商品のレコメンドやファセット検索での利用,詳細なマーケティング分析\footnote{商品を購入したユーザの属性情報と組み合わせることで「30代女性にフランス産の辛口ワインが売れている」といった分析ができる.}等が可能になる.商品の属性値抽出タスクは従来より多くの研究がなされており,少数のパターンにより属性値の獲得を試みる手法\cite{mauge2012},事前に人手または自動で構築した属性値辞書に基づいて属性値抽出モデルを学習する手法\cite{ghani2006,probst2007,putthividhya2011,bing2012,shinzato2013},トピックモデルにより属性値を獲得する手法\cite{wong2008}など様々な手法が提案されている.本研究の目的は商品属性値抽出タスクに内在している研究課題を洗い出し,抽出システムを構築する上でどのような点を考慮すべきか,またどの部分に注力するべきかという点を明らかにすることである.タスクに内在する研究課題を洗い出すため,属性-属性値辞書に基づく単純なシステムを実装し,このシステムが抽出した結果のFalse-positve,False-negative事例の分析を行った.エラー分析という観点では,Shinzatoらがワインとシャンプーカテゴリに対して得られた結果から無作為に50件ずつFalse-positive事例を抽出し,エラーの原因を調査している\cite{shinzato2013}.これに対し本研究では5つの商品カテゴリから20件ずつ商品ページを選びだして作成した100件のデータ(2,381文)を対象に分析を行い,分析を通してボトムアップ的に各事例の分類を行ってエラーのカテゴリ化を試みた.システムのエラー分析を行い,システム固有の問題点を明らかにすることはこれまでも行われてきたが,この規模のデータに対して商品属性値抽出タスクに内在するエラーのタイプを調査し,カテゴリ化を行った研究は筆者らの知る限りない.後述するように,今回分析対象としたデータは属性-属性値辞書に基づく単純な抽出システムの出力結果であるが,これはDistantsupervision\cite{mintz2009}に基づく情報抽出手法で行われるタグ付きコーパス作成処理と見なすことができる.したがって,本研究で得られた知見は商品属性値抽出タスクだけでなく,一般のドメインにおける情報抽出タスクにおいても有用であると考えられる.
| |
V06N05-02
|
コンピュータの自然言語理解機能は柔軟性を高めて向上しているが,字義通りでない文に対する理解機能については,人間と比較してまだ十分に備わっていない.例えば,慣用的でない比喩表現に出会ったとき,人間はそこに用いられている概念から連想されるイメージによって意味をとらえることができる.そこでは,いくつかの共通の属性が組み合わされて比喩表現の意味が成り立っていると考えられる.したがって,属性が見立ての対象となる比喩の理解をコンピュータによって実現するためには,属性を表す多数の状態概念の中から,与えられた二つの名詞概念に共通の顕著な属性を自動的に発見する技術が重要な要素になると考えられる.本論文では,任意に与えられた二つの名詞概念で「TはVだ」と比喩的に表現するときの共通の顕著な属性を自動的に発見する手法について述べる.ここで比喩文「TはVだ」において,T(Topic)を被喩辞,V(Vehicle)を喩辞と呼ぶ.本論文で扱う比喩はこの形の隠喩である.具体的には,連想実験に基づいて構成される属性の束を用いてSD法(SemanticDifferentialMethod)の実験を行い,その結果を入力データとして用いるニューラルネットワークの計算モデルによって行う.以下では,2章で比喩理解に関する最近の研究について述べる.次に,3章で比喩の特徴発見の準備として認知心理実験について述べ,4章で比喩の特徴発見手法について説明する.そして5章で,4章で説明した手法による具体例な実行例を示し,その考察を行う.最後に6章でまとめと今後の課題について述べる.
| |
V06N02-01
|
音声認識技術はその発達にともなって,その適用分野を広げ,日本語においても新聞など一般の文章を認識対象とした研究が行なわれるようになった\cite{MATSUOKA,NISIMURA4}.この要因として,音素環境依存型HMMによる音響モデルの高精度化に加え,多量の言語コーパスが入手可能になった結果,文の出現確率を単語{\itN}個組の生起確率から推定する{\itN}-gramモデルが実現できるようになったことが挙げられる.日本語をはじ\breakめとして単語の概念が明確ではない言語における音声認識を実現する場合,どのような単位を認識単位として採用するかが大きな問題の1つとなる.この問題はユーザーの発声単位に制約を課す離散発声の認識システムの場合に限らない.連続音声の認識においても,ユーザーが適\break時ポーズを置くことを許容しなければならないため,やはり発声単位を考慮して認識単位を決\breakめる必要がある.従来日本語を対象とした自然言語処理では形態素単位に分割することが一般\break的であり,またその解析ツールが比較的\mbox{よく整備されていたことから{\itN}-gramモデル作成におい}ても「形態素」を単位として採用したものがほとんどである\cite{MATSUOKA,ITOHK}.しかしながら,音声認識という立場からあらためてその処理単位に要請される条件を考えなおしてみると,以下のことが考えられる.\begin{itemize}\item認識単位は発声単位と同じか,より細かい単位でなければならない.形態素はその本来の定義から言えば必ずこの条件を満たしているが,実際の形態素解析システムにおいては,複合名詞も1つの単位として登録することが普通であるし,解析上の都合から連続した付属語列のような長い単位も採用している場合があるためこの要請が満たされているとは限らない.\item長い認識単位を採用する方が,音響上の識別能力という観点からは望ましい.つまり連続して発声される可能性が高い部分については,それ自身を認識単位としてもっておく方がよい.\item言語モデルを構築するためには,多量のテキストを認識単位に分割する必要があり,処理の多くが自動化できなければ実用的ではない.\end{itemize}これらは,言い換えれば人間が発声のさいに分割する(可能性がある)単位のMinimumCoverSetを求めることに帰着する.人が感覚的にある単位だと判断する\mbox{日本語トークンについて考}察した研究は過去にも存在する.原田\cite{HARADA}は人が文節という単位について一貫した概念を持っているかについて調査し,区切られた箇所の平均一致率が76\%であり付属語については多くの揺れがあったと報告している.また横田,藤崎\cite{YOKOTA}は人が短時間に認識できる文字数とその時間との関係から人の認知単位を求め,その単位を解析にも用いることを提案している.しかしながら,これらの研究はいずれも目的が異なり,音声認識を考慮したものではない.そこで,われわれは,人が潜在意識としてもつ単語単位を形態素レベルのパラメータでモデル化するとともに,そのモデルに基づいて文を分割,{\itN}-gramモデルを作成する手法を提案し,認識率の観点からみて有効であることを示した\cite{NISIMURA3}.本論文では主として言語処理上の観点からこの単語単位{\itN}-gramモデルを考察し,必要な語彙数,コーパスの量とパープレキシティの関係を明らかにする.とくに新聞よりも「話し言葉」に近いと考えられるパソコン通信の電子会議室から収集した文章を対象に加え,新聞との違いについて実験結果を述べる.
| |
V10N04-09
|
日本語のテンス・アスペクトは,助動詞「タ/テイル/テアル/シツツアル/シテイク/…」などを付属させることによって表現される.中国語では「了/着/\kanji{001}(過)/在」などの助字がテンス・アスペクトの標識として用いられるが,テンス・アスペクトを明示的に表示しない場合も多い.言語学の側からの両言語のテンス・アスペクトに関する比較対照の先行研究においては,次のような文献がある.\begin{enumerater}\renewcommand{\labelenumi}{}\renewcommand{\theenumi}{}\item\cite{Ryu1987}は両言語の動詞を完成と未完成に分類しながら,「タ」と「了」の意味用法を対比した.\item\cite{Cho1985}は,「了」と「た」の対応関係を描き,その微妙に似通ったり,食い違ったりする原因,理由を探している.\item\cite{Shu1989}は,「タ」と「了」のテンス・アスペクトの性格について論じている.\item\cite{Oh1996}は,「シテイル」形の意味用法を基本にして,日本語動詞の種別に対する中国語の対応方法を考察している.\item\cite{Ryu2000}は,中国語の動詞分類によって,意味用法上で日本語のテンス・アスペクトと中国語のアスペクト助字との対照関係を述べている.\\\end{enumerater}これらの言語学側の先行研究では,日中両言語間のテンス・アスペクト表現の対応の多様性(すなわち曖昧性)を示すと同時に,動詞の時間的な性格や文法特徴の角度から曖昧性を解消する方法も論じている.しかしながらこれらの先行研究では,例えば「回想を表す場合」や「動作が完了或いは実現したことを表す場合」などといった表現での判断基準を用いており,そのまま計算機に導入することは難しい.すなわち,これらの判断基準は人間には了解できても,機械にとっては「どのような場合が回想を表す場合であるのか」「どのような場合が完了あるいは実現したことを表す場合であるのか」は分からない.本論文では,機械翻訳の立場から,日本語のテンス・アスペクト助辞である「タ/ル/テイル/テイタ」に対して,中国語側で中国語のテンス・アスペクト用助字である「了/着/\kanji{001}(過)/在」を付属させるか否かについてのアルゴリズムを考案した.その際,\maru{4}では日本語述語の時間的性格を分析して中国語への対応を論じているが,我々は日中機械翻訳においては対応する中国語の述語はすでに得られていると考えてよいから,中国語の述語の時間的性格も同時に判断の材料としてアルゴリズムに組み込んだ.そのほか両言語における述語のいくつかの文法特徴や共起情報も用いた.以下,第2章で両言語におけるテンス・アスペクト表現の意味用法およびその間の対応関係についてまとめ,第3章で,「タ/ル/テイル/テイタ」と中国語アスペクト助字の対応関係を定めるアルゴリズムについて述べた.さらに第4章で,作成した翻訳アルゴリズムの評価を手作業で行った結果を説明し,誤った箇所について分析も行った.評価の結果は約8割の正解率であった.
| |
V15N01-03
|
日本語文のムードについて,いくつかの体系が提示されている(益岡,田窪1999;仁田1999;加藤,福地1989)\footnote{益岡ら(益岡,田窪1999)および加藤ら(加藤,福地1989)はムードという用語を用いているのに対して,仁田(仁田1999)はモダリティという用語を用いている.彼らによるムードあるいはモダリティの概念規定は表面的には異なるが,本質的には同様であると考えてよい.}.益岡ら(益岡,田窪1999)は,述語の活用形,助動詞,終助詞などの様々な文末の形式を対象にして,「確言」,「命令」,「禁止」,「許可」,「依頼」などからなるムード体系を提示している.仁田(仁田1999)は,述語を有するいわゆる述語文を中心に,日本語のモダリティを提示している.仁田の研究成果は益岡らによって参考にされており,仁田が提示しているモダリティのほとんどは益岡らのムード体系に取り込まれている.加藤ら(加藤,福地1989)は,助動詞的表現(助動詞およびそれに準じる表現)に限定して,各表現が表出するムードを提示している.提示されているムードには,益岡らのムード体系に属するものもあるが,「ふさわしさ」,「継続」など属さないものもある.既知のムード体系がどのような方法によって構成されたかは明確に示されてはいない.また,どのようなテキスト群を分析対象にしてムード体系を構成したかが明確ではない.おそらく,多種多様な文を分析対象にしたとは考えられるが,多種多様な日本語ウェブページに含まれるような文を対象にして,ムード体系を構成しているとは思われない.そのため,情報検索,評判分析(乾,奥村2006),機械翻訳などウェブページを対象にした言語情報処理がますます重要になっていくなか,既知のムード体系は網羅性という点で不十分である可能性が高い.本論文では,多種多様な日本語ウェブページに含まれる文を分析して標準的な既知のムードとともに新しいムードを収集するために用いた系統的方法について詳述し,新しいムードの収集結果を示す.また,収集したムードとその他の既知ムードとの比較を行い,収集できなかったムードは何か,新しく収集したムードのうちすでに提示されているものは何か,を明らかにする.そして,より網羅性のあるムード体系の構成について,ひとつの案を与える.ここで,ムードの収集にあたって本論文で用いる重要な用語について説明を与えておく.文末という用語は,文終了表示記号(句点など)の直前の単語が現れる位置を意味する.文末語という用語は文末に現れる単語を意味する.POSという用語は単語の品詞を意味する.例えば,「我が家へ\ul{ようこそ}。」という文において,文終了表示記号は「。」である.文末は下線部の位置であり,文末語は「ようこそ」であり,そのPOSは感動詞である.また,ムードの概念規定としては益岡ら(益岡,田窪1999)のものを採用する.彼らによれば「話し手が,文をコミュニケーションの道具として使う場合,ある特定の事態の表現だけではなく,その事態や相手に対する話し手の様々な判断・態度が同時に表現される」.この場合,事態や相手に対する話し手の判断・態度がムードである.ただし,本論文ではウェブページに記述された文を対象にすることから,文の書き手も話し手と見なすこととする.例えば,「毎日,研究室に来い.」という文は,相手に対して命令する態度を表現しており,「命令」というムードを表出している.また,「妻にはいつまでも綺麗でいて欲しい.」という文は,「妻がいつまでも綺麗である」という事態の実現を望む態度を表現しており,「願望」というムードを表出している.以下,2節では日本語ウェブページからムードを収集する際の基本的方針について述べる.3節ではムードを収集する具体的方法を与える.4節ではムード収集において分析対象とした文末語の網羅性について議論する.5節ではムードの収集結果を示す.6節では収集したムードと既知ムードとの比較を行う.7節では,より網羅性のあるムード体系の構成について一案を示す.8節では本論文のまとめと今後の課題について述べる.
|
This dataset was created from the Japanese NLP Journal LaTeX Corpus. The titles, abstracts and introductions of the academic papers were shuffled. The goal is to find the corresponding introduction with the given abstract. This is the V1 dataset (last update 2020-06-15).
| Task category | t2t |
| Domains | Academic, Written |
| Reference | https://huggingface.co/datasets/sbintuitions/JMTEB |
Source datasets:
How to evaluate on this task
You can evaluate an embedding model on this dataset using the following code:
import mteb
task = mteb.get_task("NLPJournalAbsIntroRetrieval")
evaluator = mteb.MTEB([task])
model = mteb.get_model(YOUR_MODEL)
evaluator.run(model)
To learn more about how to run models on mteb task check out the GitHub repository.
Citation
If you use this dataset, please cite the dataset as well as mteb, as this dataset likely includes additional processing as a part of the MMTEB Contribution.
@misc{jmteb,
author = {Li, Shengzhe and Ohagi, Masaya and Ri, Ryokan},
howpublished = {\url{https://huggingface.co/datasets/sbintuitions/JMTEB}},
title = {{J}{M}{T}{E}{B}: {J}apanese {M}assive {T}ext {E}mbedding {B}enchmark},
year = {2024},
}
@article{enevoldsen2025mmtebmassivemultilingualtext,
title={MMTEB: Massive Multilingual Text Embedding Benchmark},
author={Kenneth Enevoldsen and Isaac Chung and Imene Kerboua and Márton Kardos and Ashwin Mathur and David Stap and Jay Gala and Wissam Siblini and Dominik Krzemiński and Genta Indra Winata and Saba Sturua and Saiteja Utpala and Mathieu Ciancone and Marion Schaeffer and Gabriel Sequeira and Diganta Misra and Shreeya Dhakal and Jonathan Rystrøm and Roman Solomatin and Ömer Çağatan and Akash Kundu and Martin Bernstorff and Shitao Xiao and Akshita Sukhlecha and Bhavish Pahwa and Rafał Poświata and Kranthi Kiran GV and Shawon Ashraf and Daniel Auras and Björn Plüster and Jan Philipp Harries and Loïc Magne and Isabelle Mohr and Mariya Hendriksen and Dawei Zhu and Hippolyte Gisserot-Boukhlef and Tom Aarsen and Jan Kostkan and Konrad Wojtasik and Taemin Lee and Marek Šuppa and Crystina Zhang and Roberta Rocca and Mohammed Hamdy and Andrianos Michail and John Yang and Manuel Faysse and Aleksei Vatolin and Nandan Thakur and Manan Dey and Dipam Vasani and Pranjal Chitale and Simone Tedeschi and Nguyen Tai and Artem Snegirev and Michael Günther and Mengzhou Xia and Weijia Shi and Xing Han Lù and Jordan Clive and Gayatri Krishnakumar and Anna Maksimova and Silvan Wehrli and Maria Tikhonova and Henil Panchal and Aleksandr Abramov and Malte Ostendorff and Zheng Liu and Simon Clematide and Lester James Miranda and Alena Fenogenova and Guangyu Song and Ruqiya Bin Safi and Wen-Ding Li and Alessia Borghini and Federico Cassano and Hongjin Su and Jimmy Lin and Howard Yen and Lasse Hansen and Sara Hooker and Chenghao Xiao and Vaibhav Adlakha and Orion Weller and Siva Reddy and Niklas Muennighoff},
publisher = {arXiv},
journal={arXiv preprint arXiv:2502.13595},
year={2025},
url={https://arxiv.org/abs/2502.13595},
doi = {10.48550/arXiv.2502.13595},
}
@article{muennighoff2022mteb,
author = {Muennighoff, Niklas and Tazi, Nouamane and Magne, Loïc and Reimers, Nils},
title = {MTEB: Massive Text Embedding Benchmark},
publisher = {arXiv},
journal={arXiv preprint arXiv:2210.07316},
year = {2022}
url = {https://arxiv.org/abs/2210.07316},
doi = {10.48550/ARXIV.2210.07316},
}
Dataset Statistics
Dataset Statistics
The following code contains the descriptive statistics from the task. These can also be obtained using:
import mteb
task = mteb.get_task("NLPJournalAbsIntroRetrieval")
desc_stats = task.metadata.descriptive_stats
{
"test": {
"num_samples": 908,
"number_of_characters": 1214218,
"num_documents": 504,
"min_document_length": 304,
"average_document_length": 2052.8611111111113,
"max_document_length": 9565,
"unique_documents": 504,
"num_queries": 404,
"min_query_length": 120,
"average_query_length": 444.4950495049505,
"max_query_length": 1290,
"unique_queries": 404,
"none_queries": 0,
"num_relevant_docs": 404,
"min_relevant_docs_per_query": 1,
"average_relevant_docs_per_query": 1.0,
"max_relevant_docs_per_query": 1,
"unique_relevant_docs": 404,
"num_instructions": null,
"min_instruction_length": null,
"average_instruction_length": null,
"max_instruction_length": null,
"unique_instructions": null,
"num_top_ranked": null,
"min_top_ranked_per_query": null,
"average_top_ranked_per_query": null,
"max_top_ranked_per_query": null
}
}
This dataset card was automatically generated using MTEB
- Downloads last month
- 403