Upload
marujirou
View
308
Download
2
Embed Size (px)
Citation preview
Komachi Lab
M1 Ryosuke Miyazaki
2015/10/02
Learning Tag Embeddings and Tag-specific Composition Functions in Recursive Neural Network ACL-IJCNLP 2015 Qiao Qian, Bo Tian, Minlie Huang, Yang Liu, Xuan Zhu and Xiaoyan Zhu
ACL 2015 reading group
※このスライド内の図は論文内のものです
Komachi Lab
Abstract
✤ VPを構成するcomposition functionと
NPを構成するcomposition functionは 本当に一緒?タグごとに違うのでは?!
✤ 句構造タグも構成に利用しよう!
✤ Tag Guided RNNとTag Embedded RNN/RNTNを提案
3
Komachi Lab
Tag Guided RNN✤ 親ノードのタグ毎にcomposition functionを変える!✤ すべてのタグを区別すると頻度の低いタグに関するパラメータが学習しきれない
4
➡Top k 個とその他で
k+1 の composition function
Komachi Lab
Tag Embedded RNN✤ 親のタグが同じでも子のタグが違う場合
(VP→V NP と VP→V Advは同じcomposition?)!
✤ 子ノードのタグ情報も使いたいけど
Tag Guidedでやるとcomposition functionがk × k個もパラメータが多すぎる!
➡ タグをベクトルに埋め込んでスパースネス解消
(1000回未満の出現頻度のタグは無視)
5
Komachi Lab
Tag Embedded RNTN
7
✤ RNTN(Recursive Neural Tensor Network)と同様!
✤ テンソルTを使って, 子ベクトルの相互作用を考慮する
Komachi Lab
Experiments Settings
✤ Sentiment Tree Bankを使用
すべての部分木に極性ラベルがついている (5値)
(train: 8544, dev: 1101, test:2210)!
✤ Stanford Parserを使って句構造タグを付与(Sentiment Tree BankもStanford Parserを使ってるが
ver違いによる木構造の違いでtrain:74, dev:11,test11 の文を無視)
9
Komachi Lab
Experiments Settings
✤ 単語ベクトルはword2vecでpre-train(100,000 movie reviews)
RNN:d=25, RNTN: d=20!
✤ その他のベクトルは[-0.01, 0.01]の一様分布からサンプル!
✤ 構成されたフレーズベクトルにはベクトルの正規化を施す
10
Komachi Lab
Experiments Settings✤ ハイパーパラメータ
batch size 30, momentum 0.9, L2 reg 0.0001, Learning rate 0.005
11
TG-RNNのタグの数k: 6 TE-RNNのタグの次元数 de: 8, TE-RNTN : 6
Komachi Lab
Results
12
✤ Fine-grainedではDRNNの次によい!
✤ RNN → TG-RNN (+3.8)!
✤ RNN → TE-RNN (+4.8)!
✤ RNTN → TE-RNTN (+3.2)