Download(PostScript)
川村正樹 & 岡田 真人
日本物理学会 第54回年会, Vol.54, Issue 1, Part 3,
pp.697
スパースコーディングされた連想記憶モデルのダイナミクス
連想記憶モデルにおいて,スパース符号化したパターンを記憶させたとき
には,記憶容量が大幅に増大することが知られている.これまでに,平衡状態
の理論を用いて記憶容量は求められているが,想起過程について十分には議論
されていない.統計神経力学は
Amari(1988)によって提案され,Okada(1995)によってほぼ定量的に想起過程を
議論できるように改良された.しかしながら,統計神経力学が適用される条件
は明確にされていない.これまでに,我々は非単調な出力関数を用いた場合に
統計神経力学を適用し,その有効性を検証した.その結果,統計神経力学では
無視されている実効的な自己結合の項($\Gamma$項)の影響によって,記憶率
$\alpha$が大きな領域において,理論と計算機シミュレーションの結果に差異
があることがわかった.本研究では,統計神経力学を用いて,スパース符号化
された連想記憶モデルの引き込み領域を議論する.
離散時間同期型ダイナミクスを用い,$\alpha N$個のスパース・パターン
を記憶する.各パターン $\mbox{$\boldmath \xi$}^{\mu}$は $\pm1$の値を確
率 $\mbox{Prob}[\xi_i^{\mu}=\pm1]=(1\pm a)/2$でとり,$a$が$-1$に近い領
域を議論する.出力関数 $F(u)$には $\mbox{sgn}(u)-b$を用いる.但し,$b$
はシフトの大きさを表す.$b=a$であるときに,クロストークノイズの分散が
最小になることが知られている.ここでは,統計神経力学の近似能力を評価す
るために,次の場合について検討を行なった.
- ランダム・パターン ($a=0$)で,出力関数をシフトさせる場合
($F(u)=2\Theta(u), \; b=-1$).
- スパース・パターン ($a\to-1$)で,出力関数をシフトさせない場合
($F(u)=\mbox{sgn}(u), \; b=0$).
- スパース・パターン ($a\to-1$)で,出力関数をシフトさせる場合
($F(u)=\mbox{sgn}(u)-a, \; b=a$).
その結果,いずれの場合においても,引き込み領域はほぼ定量的に求めること
ができることがわかった.しかしながら,3.の場合においては,記憶容量が
SCSNAで求めた場合と異なった.ここで,SCSNAにおいて $\Gamma=0$とおいて
記憶容量を求めると,統計神経力学によって得た記憶容量と同様の値を得るこ
とができる.従って,記憶容量の差異は統計神経力学では無視している
$\Gamma$項の影響であると考えられる.
M. Kawamura & M. Okada
Meeting Abstracts of the Physical Society of Japan,
Vol. 54, Issue 1, Part 3, pp.697, 1999-03
Dynamics of Sparsely Encoded Associative Memory Model
kawamura@ic.sci.yamaguchi-u.ac.jp
Last modified: Sun Nov 7 17:25:42 JST 1999