リカレントネットを用いたオートマトンの学習
概要:
リカレントネット(RNN)による
有限状態オートマトン(FSA)の事例データからの学習において、
安定したオートマトン的挙動を学習するための学習方法を考案した。
複数組の入出力事例から、
それを生成したFSAを同定することは難しい。
RNNに入出力事例を学習させてFSAを推定する方法は、
この問題に対する一つのアプローチである。
RNNがFSAをうまく学習した時、
中間層の軌道はクラスターを形成する。
これらのクラスターはFSAの状態に対応しているので、
軌道がクラスター間を遷移することで
RNNはFSAとして振舞うことができる。
しかし、学習後のRNNは軌道のクラスター間遷移が不安定になることが多いため、
入力データが長くなるとその状態空間の軌道がクラスターからはみ出す。
このため、
学習データより長い未知データに対して
RNNはクラスター間遷移が正しく行われず、
本来のFSAと違った振舞いをする。
我々は、軌道移の安定性に関する定理を示し[1]、
それに基づいて学習方法を考案した[2]。
ニューロン活性化関数がステップ関数であるRNNは任意のFSAを実現できる。
ステップ関数は活性化パラメータ
が無限大の
シグモイド関数と等価であるが、
通常の学習では
は有限であり、
その計算能力は保証されない。
が有限であっても臨界値以上であれば、
任意の長さの入力データに対して、
RNNが学習で獲得した状態遷移を
維持し続けられることを証明した。
これは、
有限の
のRNNが
任意のFSAを模倣できることを意味している。
違う見方をすれば、どのようなRNNであっても
ニューロン活性化パラメータを十分大きくすれば、
その振る舞いはFSAと等価になることを意味する。
十分大きな
を用いると
安定したクラスター間遷移が期待できる。
しかし、大きい
の値の学習では、
誤差曲面が急峻な階段状となり学習は進みにくい。
そこで、学習の進捗度合によって
の値が次第に増大するよう更新する
学習方法を提案した。
学習がある程度進み
もある程度大きくなった後では、
やはり誤差曲面は、谷が狭く急峻な構造となり、
安定した学習が困難になる。
学習により谷から飛び出すことのないよう、
の値の増大幅、
さらに学習率(
)を
適応的に制御しながら学習を行うように改善した。
この結果、入出力事例から
安定クラスター遷移をするRNNを
高速にかつ安定に得られるようになった
(図1)。
図 1:
学習の比較
(左図:安定性の比較、
右図:学習速度の比較
)
|
連絡先: 新井 賢一, Email: ken@cslab.kecl.ntt.co.jp
- 1
-
Arai, K. and Nakano, R.:
Annealed RNN learning of finite state automata,
Proc. of the 6th International Conference
on Artificial Neural Networks (ICANN'96),
pp. 519-524 (1996).
- 2
-
Arai, K. and Nakano, R.:
Adaptive
scheduling method of finite state automata
by recurrent neural networks,
Proc. of the 4th International Conference
on Neural Information Processing(ICONIP'97),
pp. 351-354 (1997).
This page is assembled by Takeshi Yamada