next up previous


リカレントネットを用いたオートマトンの学習

概要:

リカレントネット(RNN)による 有限状態オートマトン(FSA)の事例データからの学習において、 安定したオートマトン的挙動を学習するための学習方法を考案した。

はじめに

複数組の入出力事例から、 それを生成したFSAを同定することは難しい。 RNNに入出力事例を学習させてFSAを推定する方法は、 この問題に対する一つのアプローチである。

RNNがFSAをうまく学習した時、 中間層の軌道はクラスターを形成する。 これらのクラスターはFSAの状態に対応しているので、 軌道がクラスター間を遷移することで RNNはFSAとして振舞うことができる。 しかし、学習後のRNNは軌道のクラスター間遷移が不安定になることが多いため、 入力データが長くなるとその状態空間の軌道がクラスターからはみ出す。 このため、 学習データより長い未知データに対して RNNはクラスター間遷移が正しく行われず、 本来のFSAと違った振舞いをする。 我々は、軌道移の安定性に関する定理を示し[1]、 それに基づいて学習方法を考案した[2]。

軌道の安定性を保証する臨界ニューロン活性化パラメータの存在

ニューロン活性化関数がステップ関数であるRNNは任意のFSAを実現できる。 ステップ関数は活性化パラメータ$\beta$が無限大の シグモイド関数と等価であるが、 通常の学習では$\beta$は有限であり、 その計算能力は保証されない。

$\beta$が有限であっても臨界値以上であれば、 任意の長さの入力データに対して、 RNNが学習で獲得した状態遷移を 維持し続けられることを証明した。 これは、 有限の$\beta$のRNNが 任意のFSAを模倣できることを意味している。 違う見方をすれば、どのようなRNNであっても ニューロン活性化パラメータを十分大きくすれば、 その振る舞いはFSAと等価になることを意味する。

適応的アニーリングを用いた学習アルゴリズム

十分大きな$\beta$を用いると 安定したクラスター間遷移が期待できる。 しかし、大きい$\beta$の値の学習では、 誤差曲面が急峻な階段状となり学習は進みにくい。 そこで、学習の進捗度合によって $\beta$の値が次第に増大するよう更新する 学習方法を提案した。 学習がある程度進み$\beta$もある程度大きくなった後では、 やはり誤差曲面は、谷が狭く急峻な構造となり、 安定した学習が困難になる。 学習により谷から飛び出すことのないよう、 $\beta$の値の増大幅、 さらに学習率($\eta$)を 適応的に制御しながら学習を行うように改善した。 この結果、入出力事例から 安定クラスター遷移をするRNNを 高速にかつ安定に得られるようになった (図1)。


  
図 1: 学習の比較 (左図:安定性の比較、 右図:学習速度の比較 )
\includegraphics[width=6cm,height=5cm]{arai-1.ps} \includegraphics[width=6cm,height=5cm]{arai-2.ps}

連絡先: 新井 賢一, Email: ken@cslab.kecl.ntt.co.jp

参考文献

1
Arai, K. and Nakano, R.: Annealed RNN learning of finite state automata, Proc. of the 6th International Conference on Artificial Neural Networks (ICANN'96), pp. 519-524 (1996).

2
Arai, K. and Nakano, R.: Adaptive $\beta$ scheduling method of finite state automata by recurrent neural networks, Proc. of the 4th International Conference on Neural Information Processing(ICONIP'97), pp. 351-354 (1997).



next up previous


This page is assembled by Takeshi Yamada