川村正樹, 山名美智子, 岡田真人, 信学技報 (ニューロコンピューティング研究会), NC-2003, 103, No.733, pp.127-132, 2004-03

相関ノイズを持つリカレント型ニューラルネットワークの理論

リカレント型連想記憶モデルにおいて,シナプス結合に共通入力を導入した場合 の影響を議論する.共通入力の影響により,ニューロン間の相関は無視できず, サンプル依存性が現れる.これまでに,階層型のネットワークにおいて,このよ うな場合が議論されてきた.しかしながら,リカレント型のネットワークでは, 系の持つフィードバックにより,その理論的な扱いが難しいため,十分に扱われ ていない.我々はリカレントネットワークの一つである系列想起型連想記憶モデ ルを取り上げ,その確率密度関数の発展方程式の導出に成功した.


Theory of recurrent neural network with correlated noise

We discuss effects of common synaptic inputs in a recurrent neural network. Because of the effects of these common synaptic inputs, the correlation between neural inputs cannot be ignored, and then behavior of the network has sample dependence. While the effects of the common synaptic inputs has been analyzed in layered neural networks, it seemed to have been difficult to analyze those in recurrent neural networks, because of the recurrent connections. We investigated a sequential associative memory model as an example of recurrent networks, and succeeded in deriving a macroscopic dynamical description as a recurrence relation form of a probability density function.


kawamura
Last modified: Tue Jun 29 12:29:27 JST 2004