Download(PostScript)


川村正樹 & 岡田 真人

日本物理学会 第54回年会, Vol.54, Issue 1, Part 3, pp.697

スパースコーディングされた連想記憶モデルのダイナミクス

連想記憶モデルにおいて,スパース符号化したパターンを記憶させたとき には,記憶容量が大幅に増大することが知られている.これまでに,平衡状態 の理論を用いて記憶容量は求められているが,想起過程について十分には議論 されていない.統計神経力学は Amari(1988)によって提案され,Okada(1995)によってほぼ定量的に想起過程を 議論できるように改良された.しかしながら,統計神経力学が適用される条件 は明確にされていない.これまでに,我々は非単調な出力関数を用いた場合に 統計神経力学を適用し,その有効性を検証した.その結果,統計神経力学では 無視されている実効的な自己結合の項($\Gamma$項)の影響によって,記憶率 $\alpha$が大きな領域において,理論と計算機シミュレーションの結果に差異 があることがわかった.本研究では,統計神経力学を用いて,スパース符号化 された連想記憶モデルの引き込み領域を議論する.

離散時間同期型ダイナミクスを用い,$\alpha N$個のスパース・パターン を記憶する.各パターン $\mbox{$\boldmath \xi$}^{\mu}$は $\pm1$の値を確 率 $\mbox{Prob}[\xi_i^{\mu}=\pm1]=(1\pm a)/2$でとり,$a$が$-1$に近い領 域を議論する.出力関数 $F(u)$には $\mbox{sgn}(u)-b$を用いる.但し,$b$ はシフトの大きさを表す.$b=a$であるときに,クロストークノイズの分散が 最小になることが知られている.ここでは,統計神経力学の近似能力を評価す るために,次の場合について検討を行なった.

  1. ランダム・パターン ($a=0$)で,出力関数をシフトさせる場合 ($F(u)=2\Theta(u), \; b=-1$).
  2. スパース・パターン ($a\to-1$)で,出力関数をシフトさせない場合 ($F(u)=\mbox{sgn}(u), \; b=0$).
  3. スパース・パターン ($a\to-1$)で,出力関数をシフトさせる場合 ($F(u)=\mbox{sgn}(u)-a, \; b=a$).
その結果,いずれの場合においても,引き込み領域はほぼ定量的に求めること ができることがわかった.しかしながら,3.の場合においては,記憶容量が SCSNAで求めた場合と異なった.ここで,SCSNAにおいて $\Gamma=0$とおいて 記憶容量を求めると,統計神経力学によって得た記憶容量と同様の値を得るこ とができる.従って,記憶容量の差異は統計神経力学では無視している $\Gamma$項の影響であると考えられる.


M. Kawamura & M. Okada

Meeting Abstracts of the Physical Society of Japan, Vol. 54, Issue 1, Part 3, pp.697, 1999-03

Dynamics of Sparsely Encoded Associative Memory Model


kawamura@ic.sci.yamaguchi-u.ac.jp
Last modified: Sun Nov 7 17:25:42 JST 1999