2 知能と情報(日本知能情報ファジィ学会誌) 知能と情報(日本知能情報ファジィ学会誌)Vol.25, No.6, pp.174− 183(2013) 日本語形態素解析とその周辺領域における 最近の研究動向† 鍜治 伸裕 * る.そのため,自然言語処理をウェブマイニングなど 1.はじめに 形態素解析とは,テキストを単語に分割し,各単語 に応用する場合には,未知語を高い精度で解析できる 形態素解析技術が重要となる. に品詞を割り当てる処理のことである[60,62].形態 このような背景を受けて,この数年の間,形態素解 素解析は,日本語や中国語など,分かち書きの習慣が 析に関する技術は大きな進歩を遂げつつある.このこ ない言語で記述されたテキストを計算処理するために とを踏まえて,本稿では,日本語形態素解析とその周 は必要不可欠な技術であり,これまで盛んに研究が行 辺領域における研究成果から,未知語の扱いに関する われてきた. 最近の取り組みを紹介する.ただし,最新の研究動向 日本語形態素解析の研究は,コスト最小法などの規 を伝えることに主眼を置いて話を進め,入門的な解説 則ベースの手法に端を発し,主にそれを確率モデル化 は省略をする.形態素解析技術に関する基本知識に関 するという方向で発展を遂げてきた[3,26,27,33,35, しては,教科書[60,62]やウェブに公開されている資 46].現在では,ラベル付きコーパスを用いる教師有 料[55,56]などを参照されたい. り学習に基づくアプローチが主流となっており,単語 本稿の構成は以下のようになっている.まず,2節 単位の適合率と再現率が共に95%を越えるという,高 では,導入として,日本語形態素解析とその周辺課題 い精度での解析が実現されている [26].一方,中国語 を整理する.3節では,ラベル無しコーパスから未知 などの他言語においても,同様に教師有り学習に基づ 語の解析に有効な情報を学習する,半教師有り学習に くアプローチが広く用いられている[19,25,42,43,44, 基づく形態素解析手法を紹介する.次に,4節と5節 51,52].こうした研究成果の一部は,ソフトウェアと では,未知語の生成過程を考慮することによって,未 して公開されており,自然言語処理を始めとする多く 知語に頑健な解析処理を実現するアプローチを紹介す の研究活動を下支えしている[62]. る.最後に6節では,まとめを行うとともに,本稿で このように,形態素解析は成熟した技術であると言 えるが,依然として課題も残されている.なかでも, は詳しく取り上げることができなかった話題を概観す る. 従来の形態素解析モデルが未知語(ラベル付きコーパ スにも辞書にも出現しない単語)をうまく扱えないと 2.日本語形態素解析とその周辺 いう問題[9]は,以前から研究者によって指摘されて まず始めに本稿が扱う対象を明確にするため,日本 きたことであり,未知語に対して頑健な解析モデルを 語形態素解析というタスクと,その周辺にある研究課 構築することは,現在,形態素解析の研究における主 題について整理を行う. 要な目標となっている. 形態素解析というタスクはそもそも厳密に定義する それと同時に,近年,ウェブの拡大と普及により, ことが難しいが,本稿では,テキストを単語に分割す 未知語に頑健な形態素解析の実現に対する要求が急速 る処理(単語分割)と,各単語に適切な品詞タグを割り に高まりつつある.ウェブテキスト上では,多種多様 当てる処理 (品詞タグ付与)の2つをまとめたものを形 な話題に関する言及が行われるため,辞書に登録され 態素解析と呼ぶ.分割された単位のことを単語と呼ぶ ていない固有名詞や新語など,未知語が頻繁に使われ のか,それとも形態素と呼ぶのかなど,上記の定義に † は議論の余地が残されているが[60,62],本稿の主旨 * Recent Research Trends in Japanese Morphological Analysis and Its Related Areas Nobuhiro KAJI 東京大学 生産技術研究所 Institute of Industrial Science, The University of Tokyo 174 から外れるため,これ以上の深い議論は行わない. 日本語形態素解析の研究においては,単語分割と品 詞タグ付与を同時に解くモデルが広く用いられている Vol.25 No.6 日本語形態素解析とその周辺領域における最近の研究動向 3 [26].しかし,2つのタスクは必ずしも同時に解く必 ており,精度の向上が報告されている[15,39].日本 要はなく,実際,それらを順番に解くような方法も提 語における類似の試みとしては,複合名詞の単語分割 案されている[37].そのため,本稿では,単語分割と と係り受け解析を同時に行うモデルが提案されている 品詞タグ付与という一連の処理のことを,同時に解く 解かないに関わらず形態素解析と呼ぶ. 以下では,日本語単語分割や中国語形態素解析など, [59]. 形態素解析と係り受け解析の同時解析が有効である のは,孤立語という中国語の特徴に依存する部分が大 日本語形態素解析と関わりが深い周辺領域を言語ごと きいと考えられる.膠着語である日本語の場合は,線 に分類して概観する. 形連鎖モデルやセミマルコフモデルでも,助詞や助動 詞などを手がかりとして十分に活用できる.そのた 2.1 日本語 日本語における形態素解析の周辺研究としては,そ め,長い複合名詞などの特別な場合を除いて,係り受 け構造を考慮する利点は小さいと考えられる. の部分問題である単語分割がある[13,30].単語分割 に関する研究成果は,単語分割と品詞タグ付与を順次 行うような形態素解析モデルを前提とすれば,そのま ま形態素解析に応用することができる. 2.3 英語 英語の場合,テキストは分かち書きされるため,単 語分割を行う必要はなく,品詞タグ付与のみが研究対 さらに,単語分割の中でも,特に複合名詞に焦点を 象となる.英語において単語分割と言った場合には, 当てた研究が存在する[2,22,36,59].このような特 テキストではなく,音素列を単語に分割するという別 殊なタスクが設定されている背景には,複合名詞は従 のタスクを指すことが多い[4,12]. 来の単語分割モデルによる解析が困難であるため,そ このように,英語における単語分割と品詞タグ付与 こに焦点をあてて問題解決が試みられてきたという経 は,タスク設定や位置付けが日本語とは大きく異なっ 緯がある.複合名詞の単語分割が困難な理由として ている.しかし,それらは本質的には類似したタスク は,ドメイン依存の用語(domain terms)など,未知 であるため,独立して研究が行われているわけではな 語が多く出現するということが指摘できる[2,22].こ く,提案されている解析モデルには関連性が見られる. れに加えて,複合名詞の単語分割には品詞情報が効き 例えば,Mochihashiら[30]の提案する単語分割モデ にくいため,単語分割と品詞タグ付与を同時に行って ルは,英語の単語分割のために提案されたモデル[12] 分割精度を向上させるというアプローチの効果が薄い を拡張したものであるが,英語だけでなく日本語と中 ことも,複合名詞の単語分割が困難な理由と言える 国語にも適用されている. [2,22,36,59]. 従来,複合名詞の単語分割に関する研究は,一般的 2.4 独語 な単語分割や形態素解析とは独立に進められてきた. 独語は,英語と同様,テキストを分かち書きする言 しかし,最近では,複合名詞の単語分割に関する研究 語であるが,複合名詞だけは例外的に分かち書きが行 成果を取り込んだ形態素解析モデルが提案されるなど われない.そのため,独語においても複合名詞の単語 [13],両者には融合の兆しが見られる. 分割に関する研究が行われており [5,24],日本語にお ける研究状況との間に類似性が見られる. 2.2 中国語 日本語と同様,中国語もテキストを分かち書きする 3.半教師有り学習 習慣がないため,形態素解析や単語分割に関する研究 1節でも触れたように,現在の形態素解析は,ラベ が盛んに行われている[19,25,42,43,44,51,52].提 ル付きコーパスから統計モデルを学習するという,教 案されている解析モデルは,大半が日本語にも適用可 師有り学習に基づくアプローチが主流となっている. 能なものであり,日本語と中国語で方法論に大きな差 そうした枠組みにおいて未知語の数を削減するために はないと言えるだろう.実際,日本語と中国語の両言 は,より大規模なラベル付きコーパスを用意しなくて 語で実験を行っているような研究も見られる[13,30, はならない.しかし,ラベル付きコーパスは手作業で 34]. 作成する必要があるため,大規模化することは現実問 中国語の場合,形態素解析と係り受け解析は,完全 題として容易ではない. に独立したタスクではなく,一方の解析結果がもう一 こうした問題意識から,ラベル付きコーパスだけで 方の解析結果に大きな影響を与える.そのため,形態 なくラベル無しコーパスも学習に利用するという,半 素解析と係り受け解析を同時に行うモデルが提案され 教師有り学習に基づく形態素解析の研究が進められて 2013/12 175 4 知能と情報(日本知能情報ファジィ学会誌) いる.ラベル無しコーパスは,ラベル付きコーパスと 素性駆動型自己学習において重要なのは,大規模な 比べてはるかに大量に入手可能である.そうした大規 ラベル無しコーパスを利用して,新しい素性を導出し 模なラベル無しコーパスから,未知語の解析に有効な ている点である.これによって,ラベル付きコーパス 情報をうまく取り出すことによって,未知語に頑健な に出現する単語と出現しない単語の間で,より多くの モデルを学習することが,半教師有り学習に基づく形 素性が共有されるようになり,モデルの汎化能力が高 態素解析の狙いである. められていると考えられる.ラベル無しコーパスを素 性導出に利用するというタイプの半教師有り学習手法 3.1 素性駆動型自己学習 近年,自然言語処理においては,自己学習(s e l f - は,ここで紹介した素性駆動型自己学習の他にも多く 提案されており,単語分割や形態素解析における適用 training) [1]の亜種とでも言うべき半教師有り学習ア 事例としては,風間ら [63] ,Sunら [44] ,持橋ら [58] , ルゴリズムが,単語分割や形態素解析などのタスクに Zengら[49]などの研究がある. おいて成功を収めている[7,38,47,48,61].これは, ラベル付きコーパスの代わりに,素性集合を拡張する 方法であるため,ここでは素性駆動型自己学習と呼ぶ. 3.2 自然注釈 一方,アルゴリズム上の工夫を行うのではなく,タ まず始めに,普通の自己学習について簡単に説明 スクに固有のヒューリスティクスを駆使することに を行う.一般的な自己学習の手続きは以下の通りであ よって,ラベル無しコーパスを学習に利用するアプ る(アルゴリズム1) [1].まず,入力として,ラベル ローチも提案されている.そうした方法は,一般的に 付きコーパス ,ラベル無しコーパス ,特徴量抽出 は半教師有り学習と呼ばないのかもしれないが,ラベ に用いる素性関数の集合 f が与えられる.そして,ラ ル付きコーパスとラベル無しコーパスの両方を使って ベル付きコーパス と素性集合 f を用いてモデル m を モデル学習を行っていることには変わりないため,本 学習する(1行目).次に,そのモデルを用いてラベル 稿では半教師有り学習の1つとして扱う. 無しコーパス を解析し,その結果から信頼度の高い 日本語や中国語のように分かち書きを行う習慣のな 部分だけを選択することによって,新たなラベル付き い言語においても,句読点やマークアップを擬似的な コーパス ’ を作成する(2行目).そして,最後に, 単語区切りとみなせば,ラベル無しコーパスから,部 と ’ の両方を用いてモデルを学習する(3行目). 分的に単語境界の情報が付与されたコーパスを作成す 自己学習は有名なアルゴリズムであるが,少なくと ることができる[21,50].例えば,テキストが下記の も自然言語処理の分野においては,いくつかの例外的 ようにマークアップされていれば「形」と「解」の直前に な場合[16,29]を除いて,有効性が低いことが経験的 単語境界が存在すると考えることができる. に知られている[8].実際,文献[48]では,自己学習 を中国語の形態素解析に適用した結果,効果がなかっ たことが報告されている. 次に,素性駆動型自己学習の手続きをアルゴリズム 2に示す[38,48,61].自己学習との違いは,ラベル 無しコーパスの解析結果から新たな素性集合 f ’ を導 頑健な<a>形態素</a>解析を行う このようなマークアップなどの擬似的な注釈情報のこ とを自然注釈(natural annoation)と呼ぶ[21]. 自然注釈付きコーパスからは,通常のラベル付き コーパスと違って,完全な単語分割結果を得ることは 出し,最終的には,ラベル付きコーパス と,拡張さ れた素性集合 f ∪ f ’ を用いてモデル学習を行う点であ できない.例えば,上記の文の場合であれば「態」の直 前に単語境界が存在しないことや「を」の直前に単語境 る.f ’ の例としては,解析済みのラベル無しコーパス 界が存在することは分からない.そのため,このよう から抽出された,文字列の分割パターン[48]や単語リ な不完全な情報をどうモデル学習に利用するかが問題 スト[38,48,61]に基づく素性が提案されている. となる. Jiangら[21]は,ウィキペディアのマークアップを 基にして390万文の自然注釈付きコーパスを作成し, それを用いて自己学習を行うことによって,単語分割 モデルの精度を向上させることに成功している.自然 注釈付きコーパスが与えられたとき,自然注釈に違反 しないように制約を加えながら解析を行えば,普通に 解析を行うよりも精度の高い分割結果が得られると考 えられる.Jiangらの提案は,このような直感に基づ 176 Vol.25 No.6 日本語形態素解析とその周辺領域における最近の研究動向 5 4.異表記のモデル化 従来,学習時に観測されない単語は,全て未知語と して一括りに扱われてきた.しかし,未知語は,固有 名詞のように完全に新規な単語と,既知語の異表記と して捉えるのが自然なものに分けて考えることができ る [57] .近年では,後者のような未知語を扱うために, 異表記の生成過程を考慮した手法が提案されている. 異表記とは,例えば 「コンピューター」 と 「コンピュー いて,アルゴリズム1におけるS ELECT 関数を設計す タ」のように,同一の単語に対する異なる文字列表記 るというものである. のことを指す.よく使われる異表記は,ほとんどが辞 Jiangらの提案する学習方法をアルゴリズム3に示 書に登録されているため,これまで異表記が未知語と す(アルゴリズム1とは若干表記方法が異なる).ま して問題になることは稀であった.しかし,近年,く ず,ラベル付きコーパス を用いてモデル m を学習 だけたウェブテキストの普及によって,小書き(例: する(1行目) .そして,自然注釈付きコーパス の各 おいしぃ),長音化(例:すごーい),過剰なひらがな 文 x に対して,普通に解析した結果 y と,自然注釈 化(例:らーめん)など,極めて多様な異表記を扱うこ ∼ に違反しないように制約を加えて解析した結果 y を取 とが必要となっている.しかし,そうした異表記の多 ∼ ∼ 得する(3,4行目).このとき,y ≠ y であれば,y を 正解だとみなして新たなラベル付きコーパス ’ を作 成する(5から7行目).最後に, ∪ ’ から最終的な モデルを学習する(8行目). くは未知語であり,解析に失敗してしまうことが問題 となっている[41,57]. 異表記の大半は,単純な編集操作によって,辞書に 登録されている正規形から自動生成することができる [41,64].このことに着目し,単語の正規形から出現 3.3 議論 形(正規形と異表記が混在したもの) が生成される過程 本節では,半教師有り学習に基づく形態素解析の研 を確率モデルの枠組みで捉えようとする試みや,前処 究として,素性駆動型自己学習と自然注釈を紹介し 理によって辞書を自動拡張する試みが行われている. た.紹介した手法は,2つとも自己学習に基づくもの であるが,自己学習という枠組み自体が本質的に重要 4.1 拡張品詞 n −gram なわけではない.それぞれ,ラベル無しコーパスから 筆者の知る限り,形態素解析において最初に異表記 の素性導出,単語分割というタスクに固有のヒューリ のモデル化を行ったのは風間ら[64]である.彼らは, スティクスの利用,という点が精度向上に寄与してい 品詞2−gramモデル[3]を拡張することによって,単語 る本質的な要因と考えられる. の出現形と正規形を同時に生成する確率モデルを提案 従来,形態素解析におけるラベル無しコーパスの利 している(拡張品詞2−gramと呼ぶ).拡張品詞2−gram 用と言えば,未知語の抽出が主流であった [31,32,65] . においては,単語の出現形 w =(w 1,w 2,… w n),正 抽出した未知語のリストは,教師有り学習に基づくア 規形 v =(v1,v2,… vn),品詞タグ t =(t 1,t 2,… t n)の 同時生成確率が以下のように定義される. プローチを前提とした場合,素性導出に使うのが一般 的であると考えられる.そのため,現在では,未知語 抽出もラベル無しコーパスから素性導出を行う方法の (1) 1つと位置付けることができるであろう. 自然注釈は,タスクに固有のヒューリスティクスに これと同一の生成モデルは,工藤ら [57]によっても独 基づく手法であるため,ナイーブな印象を受けるかも 立に提案されている.また,英語の単語分割において しれない.しかし,実用的には大きな効果が期待でき も,出現形と正規形を生成する確率モデルが提案され ることから,手段にこだわることなく,こうした方向 ている[4]. 性も今後大いに研究されるべきであろう.例えば, 拡張品詞2−gramを用いて形態素解析を行うには, Tsuboiら [45] の提案するようなアルゴリズムを使って, 正規形 v を消去した確率 p( w,t)= 自然注釈付きコーパスからモデル学習を行うなど, えて,入力文 x に対して確率最大となる(w,t)を求め 様々な展開が考えられる. れば良い. 2013/12 ( w,v,t)を考 vp 177 6 知能と情報(日本知能情報ファジィ学会誌) 析モデルと全く同じ方法で学習を行うことができる [53] . (2) 4.3 議論 もしくは,(w,v,t)の確率を最大化すれば,形態素解 本節では,形態素解析において異表記をモデル化す 析と同時にテキスト正規化 (text normalization)を行う るためのアプローチとして,拡張品詞 n − gramと辞書 こともできる. 拡張を紹介した. 拡張品詞 n − gram は,多様な異表記をエレガント (3) に扱うことのできる魅力的な枠組みであり,今後の発 展が大いに期待できる.しかし,最先端の統計モデル ’ 上記の式において, (x)と (x) は,入力文 x に対し [26,37]との比較が行われていないなど,有効性が不 て考えられる全ての(w,t)および(w,v,t)の集合を生 ’ 成する関数である. (x)と (x) の与え方に関する詳 明確な部分も残されており,これからの研究の進展が 待たれる. 細な議論は見られないが,異表記を考慮しながら辞書 一方,辞書拡張は,考え方や実装がシンプルである 引きを行うことによって,候補を生成しているものと ことが大きな利点となる.拡張品詞2− gramのよう 推測できる(文献[64]の3節などを参照). な,異表記を取り込んだモデルがまだ未成熟であるこ 拡張品詞2−gramに基づく形態素解析を実現するう とを考慮すると,形態素解析において異表記を扱うた えで技術的に問題となるのは,モデルの学習方法であ めの方法として,現時点ではベストプラクティスと言 る.既存のラベル付きコーパスを用いる場合,p(t| i ti−1) える.しかし,このような単純な方法で,ひらがな化 と p(v| は容易に推定可能であるが,p(w| の推 i t i) i vi ) のような副作用の多い異表記をうまく扱うことができ 定は難しい.少なくとも現時点において,ウェブのよ るのか[57],拡張品詞2−gramと精度にどの位の差が うなくだけたテキストに対して,単語の出現形と正規 生じるのかなど,解消されていない疑問も多く,引き 形をアノテートしているような大規模コーパスは存在 続いての研究調査が望まれる. していない. 異表記をモデル化するというアプローチは,テキス 風間らは,文字単位の生成モデルを使って確率 p ト正規化[14]やスペル誤り訂正[17]とも深く関連す (w| を定義し,最終的には人手で確率値の調整を i vi ) る.これらの研究との関連性についても,今後の研究 行っている.一方,工藤らはEMアルゴリズムを用い の中で議論が深まることを期待したい. て,ウェブコーパスから確率値 p( t | , p( v i|t i ) , i t i−1 ) p( w| を直接推定することを提案している. i vi ) 5.言語投影 4.2 辞書拡張 れる代表的な要因の1つとなっている[22,36].借用 英語からの借用は,日本語において未知語が形成さ 拡張品詞2−gramのような生成モデルに代わる簡便 語は片仮名を使って表記されることが多いため,片仮 なアプローチとして,前処理によって辞書を拡張する 名語とも呼ばれる.本節では,この片仮名語という未 方法が提案されている[41,53].この方法では,辞書 知語に着目した研究を紹介する. 登録語の異表記を機械的に生成することによって辞書 片仮名語は複合名詞(例:パセリソース,ジャンク を拡張し,拡張された辞書と既存の形態素解析モデル フード,ブラキッシュレッド)を形成しやすいことが を用いることによって解析を行う.これを辞書拡張と 知られているが,これは従来の単語分割モデルによる 呼ぶ. 解析が困難となっている[22,36].その理由として, このような方法で長音化を扱おうとした場合,任意 上記のように片仮名語には未知語が多いことや,2節 の数の長音記号が挿入される可能性があることから, で説明したように,品詞情報が利用できないことなど あらゆる異表記を事前に全て列挙しておくことは不可 が挙げられる. 能となる.そのため,辞書を拡張するのではなく,テ 一方,英語は,日本語と異なり,単語を分かち書き キストを正規化しながら辞書引きを行うという実装が して表記する.このことに着目し,何らかの方法で片 提案されている[41]が,本質的には辞書の拡張を行っ 仮名複合名詞を英語に変換して,英語と片仮名語の対 ているのと同じことである. 応関係を利用することによって,片仮名複合名詞の単 辞書拡張においては,拡張品詞2−gramと異なり, 語分割を行うという手法が提案されている[13,22, ほぼ自明なモデル学習の方法が存在する.すなわち, 36].そうしたアプローチのことを言語投影 (language 既存のラベル付きコーパスを用いて,従来の形態素解 projection)と呼ぶ. 178 Vol.25 No.6 日本語形態素解析とその周辺領域における最近の研究動向 表1 「パセリソース」に対する分割候補,対訳辞書を 7 表2 括弧表現から抽出された英語と片仮名語の例. 用いた各候補の英訳,英語コーパスにおける英 片仮名語と英語の単語対応に基づいて認識され 訳の頻度[36] . た単語境界は / で表現されている. 5.1 対訳資源に基づく手法 Nakazawaら[36]は,対訳辞書を利用して単語分割 候補を英語に翻訳し,得られた英語表現の自然さに基 なる.そのため,単語分割とは独立に,翻字処理に関 づいて適切な単語分割候補を選択する方法を提案して する研究が進められている.例えば Jiampojamarnら いる. 以下では具体例を用いてNakazawaら[36]の方法を 説明する.説明を簡単にするため,複合名詞「パセリ [18]は,英語 e とその翻字 f の組(例:e =computer, f =コンピュータ)を同時に生成する確率モデルを提案 している: ソース」の分割候補として「パセリ/ソース」と「パセ/ リソース」の2つが与えられたと仮定し,そのどちら (4) か一方を選択するという問題設定を考える.ただし,/ は単語境界を表す. − − ただし(e, f )は対応関係にある文字列(例:e− = com, − 対訳辞書を使って2つの分割候補を英語に変換する f =コン)であり,どの文字列が対応関係にあるのかと と「parsely sauce」と「pase resource」という英訳が得 いう情報は潜在変数として扱われる.以下ではこのよ られる.そして,大規模な英語コーパスを使ってそれ うな確率モデルのことを翻字モデルと呼ぶ. らの出現頻度を調べると,どちらが英語として自然な 翻字モデルを利用すれば,例えば f に対して同時確 表現であるかが分かり,その結果として,どちらの分 率を最大化する e を求めることによって,任意の片仮 割候補が適切であるのかを判断することができる.こ 名語を英語に逆翻字することが可能となる.そこで, の例の場合であれば「parsely sauce」の方が頻度が大き Kajiら[22]は,対訳辞書のような高価な言語資源の代 くなるため 「パセリ/ソース」 が正しい分割結果である わりに,翻字モデルを使うことを提案している.Kaji と判断できる(表1). らの提案する方法では,まずウェブ上の括弧表現[28] 同様に対訳資源を用いるアプローチとしては,対訳 から対訳関係にある片仮名語と英語の対を抽出し,翻 コーパスから単語対応(word alignment)を発見するこ 字モデル [18]に基づいて片仮名語と英語の単語対応を とにより,独語複合名詞の分割規則を学習する試みが 発見することによって,片仮名語内部の単語境界を認 報告されている[6,24]. 識する(表2).このようにして,分かち書きされた片 仮名語のリストを大量に獲得し,これを分割処理に利 5.2 翻字モデルに基づく手法 対訳辞書を使うというアプローチは,高い精度で英 訳を得ることができることが利点となる.しかし,対 用する.具体的には,分割候補に含まれる片仮名語 n − gram(n =1,2)に対して,それが獲得されたリストに 出現するか否かという2値素性を用いる. 訳辞書は高価な言語資源であるため,対応できる片仮 Hagiwaraら[13]も同様のアプローチを提案してい 名語が限られてしまうことが問題となる.これと同様 るが,いくつかの拡張が行われている.まず,従来の のことは,対訳コーパスを用いたアプローチにも当て 研究[22,36]のように片仮名複合名詞の単語分割だけ はまる.このような問題意識から,最近では,翻字モ を個別に扱うのではなく,言語投影の仕組みを形態素 デルに基づく手法が提案されている[13,22]. 解析モデルの中に組み込んでいる.また,解析時にオ 翻字とは文字の置き換えに基づく翻訳のことであり ンラインで逆翻字を行うことによって,リストを事前 (例:computerに対するコンピュータ),片仮名語は に作成するような方法 [22]よりも,多くの片仮名語に 基本的には英語の翻字となっている.また,これとは 逆に,片仮名語を元の英語に戻す操作のことを逆翻字 と呼ぶ. 対応できるよう工夫をしている. Hagiwaraらの手法は具体的には次のようになって いる.まず,通常の形態素解析と同様に単語ラティス 英語を片仮名語に翻字したり,片仮名語を英語に逆 を構築する.そして,ラティスの経路探索を行うが, 翻字したりする処理は,機械翻訳などにおいて必要と その時,経路上に片仮名語の n −gram(n=1,2)が出現 2013/12 179 8 知能と情報(日本知能情報ファジィ学会誌) した場合,翻字モデルを用いて逆翻字する.そして, 量が必要となるため,解析速度が大きく低下する.こ 英語コーパスを用いて,得られた英語 n −gramの出現 の問題に対しては,探索アルゴリズムの改良や再順位 確率を計算し,その対数値を素性として用いる. 付け(reranking)など,高速化に関する取り組みが行 われている[20,23,51,52,54]. 5.3 議論 本節は,英語からの借用によって生成される未知語 大域モデル 多くの形態素解析モデルは局所的な素性 に対応するためのアプローチである言語投影を紹介し のみを使用して解析を行っているが,大域的な情報を た.言語投影においては,片仮名語の英語訳を取得す モデル化することによって,解析精度の向上を実現し ることが技術課題となるが,対訳辞書を利用する方法 ようとする研究も存在する[34,40].典型的には,同 と,翻字モデルを用いる方法の2つがこれまでに提案 じ表層形の単語には同じ品詞タグが割り当てられやす されている. いなど,一貫性がモデル化されており,未知語の解析 言語投影の利点は,例えば「パセリ/ソース」という に有効であると考えられる. 単語の並びは意味が通るが「パセ/リソース」は意味が 通らないというような違いを,容易に認識できる点で 教師無し形態素解析 未知語に頑健な形態素解析を実 ある.同様の認識処理は,既存の教師有り学習でも原 現するための枠組みとしては,教師無し学習に基づく 理的には実現可能であるが,疎データ問題が発生する 形態素解析モデルが提案されている [30].しかし,教 ため,現実的には実現困難であると考えられる. 師無し形態素解析は,人間の直感に合う結果を出力す もう1つの利点は,単語分割と多義性解消を結合処 ることが保証されていないため,今すぐ(半)教師有り 理として扱うことが可能な点である.5.1節の議論で 学習に基づく既存手法に取って代わる可能性は低いだ は省略したが「ソース」 の語義には曖昧性があるため, ろう.今後は,半教師有り学習におけるコンポーネン その英訳には「sauce」以外に「source」も考えられる. トとして利用するなどなど,その応用方法に関する研 しかし,この曖昧性も英語コーパスでの頻度を求める 究が重要になると考えられる[58]. ことによって解消できる.つまり「parsely source」の 頻度は「parsely sauce」より小さくなるので,この場合 言語資源の整備 ここまで紹介をしてきた研究は,基 の「ソース」の意味は「sauce」であることが分かる. 本的には解析モデル(または,モデルが用いる素性)の 言語投影は,対応先として英語以外の言語を考える 改良に関するものであった.しかし,形態素解析の性 こともできる.また,特殊な形として,日本語同士の 能を向上させるという目的を実現させるためには,辞 対応関係 (言い換え) を利用することもできる[22].こ 書やラベル付きコーパスといった言語資源を整備する のように,英語以外の言語表現との対応関係を利用す ことも重要である[10,11,37].どの問題を解析モデ ることは,今後の研究の方向性として興味深い. ルの改良によって解消し,どの問題を言語資源の拡充 によって解消するのかという,システム設計に関して 6.おわりに も今後の研究において議論されるべきであろう. 本稿では,半教師有り学習,異表記のモデル化,言 語投影,という3つの話題を取り上げて,形態素解析 謝辞 における最近の研究動向の紹介を行った.いずれも歴 本稿を執筆する際には,東京大学の吉永直樹氏から 史が浅い方法論であるため,評価が定まっていないも は有益なコメントを多数頂きました.また,東京工業 のも多いが,形態素解析という技術が今も活発に進化 大学の笹野遼平氏からは,本稿執筆時には未発表で を続けている様子を感じ取って頂ければ幸いである. あった論文情報を提供して頂きました.記して感謝致 本稿では,紙面の都合があり,最近の研究を網羅的 します. に紹介することはできなかった.そこで,最後に,今 回取り上げることができなかった話題を概観すること によって,本稿の結びとしたい. 高速化 一般的に形態素解析は高速な処理として知ら れているが,これは未知語を考慮しない場合の話であ る.未知語の可能性を考慮して形態素解析を行う場合 は,入力文の長さ(文字数)に対して2乗オーダの計算 180 参 考 文 献 [1] Steven Abney. Semisupervised Learning for Computational Linguistics. Chapman and Hall/CRC, 2007. [2] Rie Kubota Ando and Lillian Lee. Mostly − unsupervised statistical segmentation of Japanese Kanji sequences. Natural Language Engeering, Vol.9, No.2, pp.127 − 149, 2003. [3] Masayuki Asahara and Yuji Matsumoto. Extended Vol.25 No.6 日本語形態素解析とその周辺領域における最近の研究動向 [4] [5] [6] [7] [8] [9] [10] [11] [12] [13] [14] [15] [16] [17] [18] models and tools for high − performance part − of − speech tagger. In Proceedings of COLING, pp.21 − 27, 2000. ・・ Benjamin Borschinger, Mark Johnson, and Katherine Demuth. A joint model of word segmentation and phonological variation for English word − final /t/ − deletion. In Proceedings of ACL, pp.1508 − 1516, 2013. ・・ Martin Braschler and Barbel Ripplinger. How effective is stemming and decompounding for German text retrieval? Information Retrieval, Vol.7, pp.291− 316, 2004. Ralf D. Brown. Corpus− driven splitting of compound words. In Proceedings of TMI, 2002. Wenliang Chen, Daisuke Kawahara, Kiyotaka Uchimoto, Yujie Zhang, and Hitoshi Isahara. Dependency parsing with short dependency relations in unlabeled data. In Proceedings of IJCNLP, pp.88 − 94, 2008. Stephen Clark, James Curran, and Miles Osborne. Bootstrapping POS−taggers using unlabelled data. In Proceedings of CoNLL, pp.49 − 55, 2003. Thomas Emerson. The second international Chinese word segmentation bakeoff. In Proceedings of SIGHAN, pp.123 − 133, 2005. Dan Garrette and Jason Baldridge. Learning a part − of − speech tagger from two hours of annotation. In Proceedings of NAACL, pp.138 − 147, 2013. Kevin Gimpel, Nathan Schneider, Brendan O’ Connor, Dipanjan Das, Daniel Mills, Jacob Eisenstein, Michael Heilman, Dani Yogatama, Jeffery Flanigan, and Noah A. Smith. Part−of−speech tagging for Twitter: Annotation, features, and experiments. In Proceedings of ACL (Short papers ), pp.42 − 47, 2011. Sharon Goldwater, Thomas L. Griffiths, and Mark Johnson. Contextual dependencies in unsupervised word segmentation. In Proceedings of COLING−ACL, pp.673 − 680, 2006. Makoto Hagiwara and Satoshi Sekine. Accurate word segmentation using transliteration and language model projection. In Proceedings of ACL( Short Papers), pp.183 − 189, 2013. Bo Han and Timothy Baldwin. Lexical normalization of short text messages: Makin sens a # twitter. In Proceedings of ACL, pp.368 − 378, 2011. Jun Hatori, Takuya Matsuzaki, Yusuke Miyao, and Jun’ ichi Tsujii. Incremental joint approach to word segmentation, POS tagging, and dependency parsing in Chinese. In Proceedings of ACL, pp.1045 − 1053, 2012. Zhongqiang Huang, Vladimir Eidelman, and Mary Harper. Improving a simple bigram HMM part − of − speech tagger by latent annotation and self−training. In Proceedings of NAACL( Short Paper ), pp.213 − 216, 2009. Zhongye Jia, Peilu Wang, and Hai Zhao. Graph model for Chinese spell checking. In Proceedings of SIGHAN, pp.88 − 92, 2013. Sittichai Jiampojamarn, Grzegorz Kondrak, and Tarek Sherif. Applying many − to − many alignment and hid- 2013/12 [19] [20] [21] [22] [23] [24] [25] [26] [27] [28] [29] [30] [31] [32] [33] 9 den Markov models to letter − to − phoneme conversion. In HLT − NAACL, pp.372 − 379, 2007. Wenbin Jiang, Liang Huang, and Qun Liu. Automatic adaptation of annotation standards: Chinese word segmentation and POS tagging − a case study. In Proceedings of ACL − IJCNLP, pp.522 − 530, 2009. Wenbin Jiang, Haitao Mi, and Qun Liu. Word lattice reranking for Chinese word segmentation and part − of− speech tagging. In Proceedings of Coling, pp.385− 392, 2008. Wenbin Jiang, Meng Sun, Yajuan Lii, Yating Yang, and Qun Liu. Discriminative learning with natural annotations: Word segmentation as a case study. In Proceedings of ACL, pp.761 − 769, 2013. Nobuhiro Kaji and Masaru Kitsuregawa. Splitting noun compounds via monolingual and bilingual paraphrasing: A study on Japanese katakana words. In Proceedings of EMNLP, pp.959 − 969, 2011. Nobuhiro Kaji and Masaru Kitsuregawa. Efficient word lattice generation for joint word segmentation and POS tagging in Japanese. In Proceedings of IJCNLP, pp.153 − 161, 2013. Philip Koehn and Kevin Knight. Empirical methods for compound splitting. In Proceedings of EACL, pp.187 − 193, 2003. Canasai Kruegkrak, Kiyotaka Uchimoto, Jun’ ichi Kazama, Yiou Wang, Ketaro Torisawa, and Hitoshi Iahara. An error − driven word − character hybrid model for joint Chinese word segmentation and POS tagging. In Proceedings of ACL, pp.513−521, 2009. Taku Kudo, Kaoru Yamamoto, and Yuji Matsumoto. Applying conditional random fields to Japanese morphological analysis. In Proceedings of EMNLP, pp.230 − 237, 2004. Sadao Kurohashi and Makoto Nagao. Improvements of Japanese morphological analyzer JUMAN. In Proceedings of the International Workshop on Sharable Natural Language Resources, pp.22 − 38, 1994. Dekang Lin, Shaojun Zhao, Benjamin Van Durme, and Marius Pa ca. Mining parenthetical translation from the Web by word alignment. In Proceedings of ACL, pp.994 − 1002, 2008. David McClosky, Eugene Charniak, and Mark Johnson. Effective self− training for parsing. In Proceedings of NAACL, pp.152 − 159, 2006. Daichi Mochihashi, Takeshi Yamada, and Naonori Ueda. Bayesian unsupervised word segmentation with nested Pitman − Yor language modeling. In Proceedings of ACL, pp.100 − 108, 2009. Shinsuke Mori and Makoto Nagao. Word extraction from corpora and its part − of − speech estimation using distributional analysis. In Proceedings of Coling, pp.1119 − 1122, 1996. Yugo Murawaki and Sadao Kurohashi. Online acquisition of Japanese unknown morphemes using morphological constraints. In Proceedings of EMNLP, pp.429 − 437, 2008. Masaki Nagata. A part of speech estimation method for Japanese unknown words using a statistical model 181 10 [34] [35] [36] [37] [38] [39] [40] [41] [42] [43] [44] [45] [46] [47] [48] 182 知能と情報(日本知能情報ファジィ学会誌) of morphology and context. In Proceedings of ACL, pp.277 − 284, 1999. Tetsuji Nakagawa and Yuji Matsumoto. Guessing parts − of − speech of unknown words using global information. In Proceedings of COLINGACL, pp.705 − 712, 2006. Tetsuji Nakagawa and Kiyotaka Uchimoto. A hybrid approach to word segmentation and postagging. In Proceedings of ACL Demo and Poster Sessions, pp.217− 220, 2007. Toshiaki Nakazawa, Daisuke Kawahara, and Sadao Kurohashi. Automatic acquisition of basic Katakana lexicon from a given corpus. In Proceedings of IJCNLP, pp.682 − 693, 2005. Graham Neubig, Yosuke Nakata, and Shinsuke Mori. Pointwise prediction for robust, adaptable Japanese morphological analysis. In Proceedings of ACL(Short Papers ), pp.529 − 533, 2011. Fuchun Peng, Fangfang Feng, and Andrew McCallum. Chinese segmentation and new word detection using conditional random fields. In Proceedings of COLING, pp.562 − 568, 2004. Xian Qian and Yang Liu. Joint Chinese word segmentation, pos tagging and parsing. In Proceedings of the EMNLP − CoNLL, pp.501 − 511, 2012. Alexander Rush, Roi Reichart, Michael Collins, and Amir Globerson. Improved parsing and POS tagging using inter − sentence consistency constraints. In Proceedings of EMNLP, pp.1434 − 1444, 2012. Ryohei Sasano, Sadao Kurohashi, and Manabu Okumura. A simple approach to unknown word processing in Japanese morphological analysis. In Proceedings of IJCNLP, pp.162 − 170, 2013. Weiwei Sun. A stacked sub − word model for joint chinese word segmentation and part − of − speech tagging. In Proceedings of ACL, pp.1385 − 1394, 2011. Weiwei Sun and Xiaojun Wan. Reducing approximation and estimation errors for Chinese lexical processing with heterogeneous annotations. In Proceedings of ACL, pp.232 − 241, 2012. Weiwei Sun and Jia Xu. Enhancing chinese word segmentation using unlabeled data. In Proceedings of EMNLP, pp.970 − 979, 2011. Yuta Tsuboi, Hisashi Kashima, Shinsuke Mori, Hiroki Oda, and Yuji Matsumoto. Training conditional random fields using incomplete annotations. In Proceedings of Coling, pp.897 − 904, 2008. Kiyotaka Uchimoto, Chikashi Nobata, Atsushi Yamada, Satoshi Sekine, and Hitoshi Isahara. Morphological analysis of a large spontaneous corpus in Japanese. In Proceedings of ACL, pp.479 − 488, 2003. Gertjan van Noord. Using self−trained bilexical preferences to improve disambiguation accuracy. In Proceedings of IWPT, pp.1 − 10, 2007. Yiou Wang, Jun’ ichi Kazama, Yoshimasa Tsuruoka, Wenliang Chen, Yujie Zhang, and Ken−taro Torisawa. Improving Chinese word segmentation and POS tagging with semi−supervised methods using large autoanalyzed data. In Proceedings of IJCNLP, pp.309 − 317, 2011. [49] Xiaodong Zeng, Derek F. Wong, Lidia S. Chao, and Isabel Trancoso. Graph − based semi − supervised model for joint Chinese word segmentation and part− of−speech tagging. In Proceedings of ACL, pp.770− 779, 2013. [50] Longkai Zhang, Li Li, Zhengyan He, Houfeng Wang, and Ni Sun. Improving Chinese word segmentation on micro − blog using rich punctuations. In Proceedings of ACL ( Short Papers), pp.177 − 182, 2013. [51] Yue Zhang and Stephen Clark. Joint word segmentation and POS tagging using a single perceptron. In Proceedings of ACL, pp.888 − 896, 2008. [52] Yue Zhang and Stephen Clark. A fast decoder for joint word segmentation and POS tagging using a single discriminative model. In Proceedings of EMNLP, pp.843 − 8526, 2010. [53] 岡部晃,小町守,小木曽智信,松本裕治.表記のバリ エーションを考慮した近代日本語の形態素解析.人工 知能学会全国大会,2013. [54] 岡野原大輔,辻井潤一.Shift − Reduce 操作に基づく 未知語を考慮した形態素解析.言語処理学会第 14 回 年次大会発表論文集,2008. [55] 海野裕也.形態素解析の過去・現在・未来. http://www.slideshare.net/pfi/ss − 9805912. [56] 工藤拓.M e c a b 汎用日本語形態素解析エンジン. http://www.jtpa.org/files/MeCab.pdf. [57] 工藤拓,市川宙,David Talbot,賀沢秀人.Web 上 のひらがな交じり文に頑健な形態素解析.言語処理学 会第 18 回年次大会論文集,pp.1272 − 1275,2012. [58] 持橋大地,鈴木潤,藤野昭典.条件付確率場とベイズ 階層言語モデルの統合による半教師あり形態素解析. 言語処理学会第 17 回年次大会発表論文集,pp.1071 − 1074,2011. [59] 小林義行,徳永健伸,田中穂積.名詞間の意味的共起 情報を用いた複合名詞の解析.自然言語処理,Vol.3, No.1,pp.29 − 43,1996. [60] 長尾真(編).自然言語処理.岩波書店,1996. [61] 萩原正人,関根聡.半教師あり学習に基づく大規模語 彙に対応した日本語単語分割.言語処理学会第 18 回 年次大会論文集,pp.1280 − 1283,2012. [62] 萩原正人,中山敬広,水野貴明(訳).入門自然言語 処理.オライリー・ジャパン,2010. [63] 風間淳一,宮尾祐介,辻井潤一.教師なし隠れマルコ フモデルを利用した最大エントロピータグ付けモデ ル.自然言語処理,Vol.11,No.4,pp.3 − 23,2003. [64] 風間淳一,光石豊,牧野貴樹,鳥澤健太郎,松田晃一, 辻井潤一.チャットのための日本語形態素解析.言語 処理学会年次大会論文集,pp.590 − 512,1999. [65] 鍜治伸裕,福島健一,喜連川優.大規模ウェブテキスト からの片仮名用言の自動獲得.電気情報通信学会論文 誌 D(データ工学特集号),Vol.J92− D,No.3,pp.293− 300,2009. (2013年10月14日 受付) Vol.25 No.6 日本語形態素解析とその周辺領域における最近の研究動向 11 [問い合わせ先] 〒 153− 8505 東京都目黒区駒場4−6−1 東京大学 生産技術研究所 鍜治 伸裕 TEL: 03− 5452− 6098 FAX: 03− 5452− 6457 E−mail:kaji@tkl.iis.u-tokyo.ac.jp 著 者 紹 介 か じ のぶひろ 鍜治 伸裕[非会員] 2005年東京大学情報理工学系研究 科博士後期課程修了.博士(情報理工 学).同年東京大学生産技術研究所産 学官連携研究員.特任助手,特任助教 を経て,現在,同大学生産技術研究所 特任准教授.自然言語処理に関する研 究に興味を持つ. 2013/12 183
© Copyright 2024 Paperzz