_id
stringlengths
9
9
text
stringlengths
18
1.29k
title
stringclasses
1 value
V17N01-08
本論文ではentitygridを用いたテキストの局所的な一貫性モデルに対する改善について述べる.entitygridベースの既存モデルに対して,テキスト結束性に寄与する要素である接続関係,参照表現,語彙的結束性,また,より詳細な構文役割の分類を組み込んだモデルを提案し,その性能を検証する.語彙的結束性に関しては,語彙的連鎖を用いたクラスタリングを行う.テキスト中の文の並びに対して,より一貫性のある文の順番の判定と,人手による評価に基づいた要約テキストの比較の2種類の実験を行い,その結果,本論文で提案する要素がentitygridモデルの性能の改善に寄与することが明らかになった.
V10N05-04
本稿では,ニュース記事から無作為抽出した英文を英日機械翻訳システムで翻訳した結果と,これらの英文を人間が翻訳した結果を照らし合わせ,両者の間にどのような違いがあるのかを計量的に分析した.その結果,次のような量的な傾向があることが明らかになった.(1)人間による翻訳に比べ,システムによる翻訳では,英文一文が複数の訳文に分割されにくい傾向が見られる.(2)システムによる翻訳と人間による翻訳の間で訳文の長さの分布に統計的有意差が認められる.(3)用言の連用形と連体形の分布に有意差が認められ,システムによる翻訳のほうが人間による翻訳よりも複雑な構造をした文が多いことが示唆される.(4)体言と用言の分布には有意差は認められない.\\さらに,動詞と名詞に関して比較検討を行ない,システムによる翻訳を人間による翻訳に近づけるために解決すべき課題をいくつか指摘した.
V10N01-06
現在入手可能な解析器と言語資源を用いて中国語解析を行った場合にどの程度の精度が得られるかを報告する.解析器としては,サポートベクトルマシン(SupportVectorMachine)を用いたYamChaを使用し,中国語構文木コーパスとしては,最も一般的なPennChineseTreebankを使用した.この両者を組み合わせて,形態素解析と基本句同定解析(basephrasechunking)の2種類の解析実験を行った.形態素解析実験の際には,一般公開されている統計的モデルに基づく形態素解析器MOZとの比較実験も行った.この結果,YamChaによる形態素解析精度は約88\%でMOZよりも4\%以上高いが,実用的には計算時間に問題があることが分かった.また基本句同定解析精度は約93\%であった.
V14N05-07
日本語には,「にあたって」や「をめぐって」のように,2つ以上の語から構成され,全体として1つの機能的な意味をもつ機能表現という表現が存在する.一方,この機能表現に対して,それと同一表記をとり,内容的な意味をもつ表現が存在することがある.そして,この表現が存在することによって,機能表現の検出は困難であり,機能表現を正しく検出できる機能表現検出器が必要とされている.そこで,本論文では,日本語機能表現を機械学習を用いて検出する手法を提案する.提案手法では,SupportVectorMachine(SVM)を用いたチャンカーYamChaを利用して,形態素解析結果を入力とする機能表現検出器を構築する.具体的には,形態素解析によって得られる形態素の情報と,機能表現を構成している形態素の数の情報,機能表現中における形態素の位置情報,機能表現の前後の文脈の情報を学習・解析に使用することにより,F値で約93\%という高精度の検出器を実現した.さらに,本論文では,機能表現検出器の解析結果を入力として,機能表現を考慮した係り受け解析器を提案する.提案手法では,SupportVectorMachine(SVM)に基づく統計的係り受け解析手法を利用して,機能表現を考慮した係り受け解析器を構築する.具体的には,京都テキストコーパスに対して,機能表現の情報を人手で付与し,機能表現の情報を基に文節の区切りや係り先の情報を機能表現を考慮したものに変換した.そして,SVMに基づく統計的係り受け解析の学習・解析ツールCaboChaを用いて,変換したデータを学習し,機能表現を考慮した係り受け解析を実現した.評価実験では,従来の係り受け解析手法よりもよい性能を示すことができた.
V09N03-02
辞書ベースの自然言語処理システムでは辞書未登録語の問題が避けられない.本稿では訓練コーパスから得た文字の共起情報を利用する手法で辞書未登録語の抽出を実現し,辞書ベースのシステムの精度を向上させた.本稿では形態素解析ツールをアプリケーションとして採用し,処理時に統計情報を動的に利用することによって形態素の切り分けの精度を上げる手法と,統計情報を利用して事前に辞書登録文字列を選別し必要なコスト情報を補って辞書登録を行なう手法との2つのアプローチを提案し,さらにこの2つの手法を組み合わせてそれぞれの欠点を補う手法を提案する.どちらも元のツールの改変を行なうものではなく,統計情報の付加的な利用を半自動的に実現するもので,元のツールでは利用できない辞書未登録語の抽出に対象を絞ることで精度の向上を図る.実験の結果,動的な統計情報の利用のシステムが未知語の認識に,辞書登録システムが切り分け精度の向上に有効であることが示され,2つのシステムを適切に組み合わせることによって訓練コーパスのデータで認識可能な辞書未登録語をほぼ完全に解決できた.さらに複合語の認識も高い精度で実現することができた.
V06N07-01
本稿では,形態素解析の結果から過分割(正解が分割していないところを形態素解析システムが分割している個所)を検出するための統計的尺度を提案する.もし,形態素解析の結果から過分割を検出できれば,それを利用して形態素解析結果の過分割を訂正する規則を作成できるし,人手修正済みのコーパスで除去しきれていない過分割を発見し取り除くこともできるため,そのような尺度は有用である.本稿で提案する尺度は文字列に関する尺度であり,文字列が分割される確率と分割されない確率との比に基づいていて,分割されにくい文字列ほど大きな値となる.したがって,この値が大きい文字列は過分割されている可能性が高い.本稿の実験では,この尺度を使うことにより,規則に基づく形態素解析システムの解析結果から,高精度で過分割を検出できた.また,人手で修正されたコーパスに残る過分割も検出できた.これらのことは,提案尺度が,形態素解析システムの高精度化に役立つこと,及び,コーパス作成・整備の際の補助ツールとして役立つことを示している.
V21N01-01
一般に,項は述語に近いところにあるという特性がある.そのため,従来の述語項構造解析の研究では,候補を述語との位置関係でグループ分けし,あらかじめ求めておいたグループ間の優先順序に従って正解項を探索してきた.しかしながら,その方法には異なるグループに属する候補同士の比較ができないという問題がある.そこで我々は,異なるグループごとに最尤候補を選出し,それらの中から最終的な出力を決めるモデルを提案する.このモデルは優先度の高いグループに属する候補以外も参照することによって最終的な決定を行うことができ,全体的な最適化が可能である.実験では,提案手法は優先順序に従う解析よりも精度が向上することを確認した.
V17N04-05
発話文を感情ごとに分類したコーパスを構築し,入力文と最も類似度が高い発話文を含むコーパスの感情を推定結果として出力する用例ベースの感情推定手法が提案されている.従来手法ではコーパスを構築する際,発話テキストの収集者が個人個人で発話文の分類先を決定しているため,分類先を決定する基準が個々によってぶれてしまう.これにより,例えば``希望''のコーパスの中に喜びの発話文が混じるといったことが起こり,推定成功率を下げてしまう.本稿ではこの問題を解決するため,コーパスごとにおける入力文の形態素列の出現回数を用いて,入力文とコーパスの類似度を定義する.そしてこの類似度を従来手法に導入した新たな類似度計算式を提案する.これにより,誤って分類されてしまった発話文の影響を緩和することができる.評価実験では従来手法と比べて成功率が\resp{21.5}ポイント向上し,提案手法の有効性が確認できた.
V20N04-01
大量のテキストから有益な情報を抽出するテキストマイニング技術では,ユーザの苦情や要望を表す述部表現の多様性が大きな問題となる.本稿では,同じ出来事を表している述部表現をまとめ上げるため,「メモリを消費している」と「メモリを食っている」の「消費している」と「食っている」のような述部表現を対象に,異なる2つの述部が同義か否かを認識する同義判定を行う.述部の言語構造分析をもとに,「辞書定義文」,「用言属性」,「分布類似度」,「機能表現」という複数の言語知識を用い,それらを素性とした識別学習で同義判定を行った.実験の結果,既存手法に比べ,高い精度で述部の同義性を判定することが可能になった.
V05N01-06
本論文では,指定した文書と類似する文書を検索する文書連想検索のための確率的クラスタリングHBC(HierarchicalBayesianClustering)を提案する.文書連想検索を実現する際の問題点は,類似文書の検索に時間がかかることである.単純な網羅検索では,比較対象の大きさ$N$に比例した$O(N)$の検索時間を要する.本論文では,クラスタ検索と呼ばれる検索手法を用いることでこの問題を解決する.クラスタ検索では,通常,クラスタリングによりクラスタの二分木をあらかじめ構築しておき,その上でトップダウンに二分木検索を行うため,検索時間を$O(\log_2N)$に抑えることができる.ところが,従来のクラスタ検索では,検索時に使う距離尺度とクラスタリング時に使う距離尺度が直接関係ないため,単純な二分木検索では十分な検索精度が得られなかった.それに対しHBCは,クラスタリングの対象文書を自己検索した際の精度を最大化するため,検索により適したクラスタリングである.実験では,「現代用語の基礎知識」を用いて,HBCを用いたクラスタ検索がWard法を用いた従来のクラスタ検索よりも優れていることを実証する.また,「WallStreetJournal」を用いて,HBCを用いたクラスタ検索が網羅検索に比べノイズ頑健性に優れていることを実証する.
V24N03-07
能動学習は機械学習において,逐次的に選択されたデータに対してのみ正解ラベルを付与してモデルの更新を繰り返すことで,少量のコストで効率的に学習を行う枠組みである.この枠組みを機械翻訳に適用することで,人手翻訳のコストを抑えつつ高精度な翻訳モデルを学習可能である.機械翻訳のための能動学習では,人手翻訳の対象となる文またはフレーズをどのように選択するかが学習効率に大きな影響を与える要因となる.既存研究による代表的な手法として,原言語コーパスの単語$n$-gram頻度に基づき$n$-gramカバレッジを向上させる手法の有効性が知られている.この手法は一方で,フレーズの最大長が制限されることにより,句範疇の断片のみが提示されて,人手翻訳が困難になる場合がある.また,能動学習の過程で選択されるフレーズには,共通の部分単語列が繰り返し出現するため,単語数あたりの精度向上率を損なう問題も考えられる.本研究では原言語コーパスの句構造解析結果を用いて句範疇を保存しつつ,包含関係にある極大長のフレーズのみを人手翻訳の候補とするフレーズ選択手法を提案する.本研究の提案手法の有効性を調査するため,機械翻訳による擬似対訳を用いたシミュレーション実験および専門の翻訳者による人手翻訳と主観評価を用いた実験を実施した.その結果,提案手法によって従来よりも少ない単語数の翻訳で高い翻訳精度を達成できることや,人手翻訳時の対訳の品質向上に有効であることが示された.
V31N03-15
%文章中の固有表現の言及を検出し,人名や地名といったクラスへの分類を行う固有表現抽出は自然言語処理の基礎技術である.近年ではより細分化されたクラスへの分類が求められている.固有表現抽出器の構築には一般的に学習データが必要であるが,特に細分化されたクラスを対象とする場合,人手による学習データ作成は非常にコストが高い.先行研究はWikipediaのリンク構造を活用して学習データを自動作成することを提案している.Wikipediaのリンクは固有表現抽出器の学習には不十分であるため,先行研究では,固有表現の先頭を大文字にする等の英語等の特徴を活用してリンクを拡張している.しかし,これらの手法は言語依存であり日本語には適用できない.本研究では,Wikipediaのリンク付与ガイドラインの定義を活用することでリンク拡張を行う手法を提案する.加えて,Wikipedia記事中のエンティティ率を推定する手法を提案し,推定値により学習時に制約をかけることで前者では拡張できないリンクの影響を軽減する.本研究では,拡張固有表現階層の200カテゴリーを対象に実際に日本語の固有表現抽出器を構築する.提案手法の評価のため,ウェブニュース記事に対して人手によるラベル付けで評価データを作成し,実験により先行研究より高品質な固有表現抽出器が学習できることを示した.
V10N03-05
本論文では,SENSEVAL2の日本語翻訳タスクに対して帰納論理プログラミング(InductiveLogicProgramming,ILP)を適用する.翻訳タスクは分類問題として定式化できるため,帰納学習の手法を利用して解決できる.しかし翻訳タスクは新たに訓練データを作るのが困難という特異なタスクになっており,単純に確率統計的な帰納学習手法を適用することはできない.TranslationMemoryの例文だけ,つまり少ない訓練データのみを用いて,どのように分類規則を学習すれば良いかが,翻訳タスク解決の1つの鍵である.このために本論文ではILPを用いる.ILPは確率統計的な帰納学習手法にはない特徴を有する.それは背景知識を容易に利用可能である点である.背景知識とは訓練データには明示されない問題固有の知識である.この背景知識によって訓練データが少ない場合の学習が可能となる.ここではILPの実装システムとしてProgol,背景知識として分類語彙表を利用することで,翻訳タスクに対して正解率54.0\,\%を達成した.この値は,付加的な訓練データを用いないSENSEVAL2参加の他システムと比較して優れている.
V17N01-11
従来の情報検索に特化されたシソーラスではなく,構文解析や用語標準化などの自然言語処理を目的とする420,000語規模のシソーラスを開発した.各用語の持つ関係語の数が膨大なため,観点(ファセット)を導入して分類し,探しやすくしたシソーラスである.さらに,差別語,表記の揺れなども区別できる.シソーラスを作成する際の留意点・課題もまとめた.パッケージソフトのカスタマイズ機能およびインターネットや他の辞書との連動機能,用語の標準化などについても紹介した.