相互結合型ニューラルネットワーク
Hopfield Neural Network
HNNのダイナミクスは次のとおりである.
.
ここに,
は時間
におけるニューロン
の状態である;
はニューロンの出力である;
は入出力関数(シグモイド関数)
のゲインを決定するパラメータである.
は状態
のダイナミックレンジを制限するため(発散を防ぐため)にある.
HNNをオイラー法によって時間離散化すると発展方程式は次のようになる.
.
ここで
である.時間離散化したHNNをDiscrete Time Hopfield Neural Network(DT-HNN)という.
HNNのリアプノフ関数は次のとおりである.
.
−−−−−−これから先は間違えているかも−−−−−−
が十分ちいさいとき,もしくは
が十分おおきいときとき,第1項は無視できる:
.
特に
ならば(
でもそう??),
が保証される.
この性質を利用すると,2次形式の組合せ最適化問題を解くことができる.ただし,
を大きくすると,状態
のダイナミックレンジが広がってしまうことに注意すること.
−−−−−−−−−−−−−ここまで−−−−−−−−−−−−−
HNNは,入出力関数が連続値(中間値)を採ることで様々な状態を同時に考慮しているため,最適化問題を解く際に2値状態のみのニューラルネットワークよりも良質な解を導くのだという意見もある.この意見が正しいならば,はじめはゲインを低くとり,時間とともにゲインを上げることで,最終的に2値の出力を得る方が良いのかもしれない(アニーリング?).これに関連して,Hopfieldの論文ではスピングラスの平均場近似とHNNとの類似性についても少し議論している.
Cellular Neural Network
ここでは
のCNNを想定する;
行
列目のセルを
,
とその近傍のセルとの集合を
と表現する.CNNのダイナミクスは次のとおりである.
.
ここに,
は
への入力である;
は時間
におけるセルの状態である;
はセルの出力である.
は状態
のダイナミックレンジを制限するためにある.
CNNをオイラー法によって時間離散化すると発展方程式は次のようになる.
.
ここで
である.時間離散化したCNNをDiscrete Time Cellular Neural Network(DT-CNN)という.
CNNのリアプノフ関数は
で表される.
が十分大きいときとき,第1項は無視できる.ただし,上記の関数がリアプノフ関数として成立するのは,
テンプレートが対称性:
を満たすときのみである.
リアプノフ関数を見るとわかるように,CNNは上下限制約つきの2次関数を最小化するように状態を変化させていく.
そのため,リアプノフ関数が上に凸:
ならば,CNNの出力
は,時間∞で-1か1に収束する:
.
CNNを用いても二次形式の組合せ最適化問題を解くことができる.CNNはHNNとは違って2通りの方法が考えられる.
- HNNと同様に,を十分大きくして,リアプノフ関数の第1項を無視する.この場合,のダイナミックレンジが広がってしまうという問題も残る.
- CNNのリアプノフ関数は2次関数であるため,リアプノフ関数自体を目的関数とみなす.この方法ならば,を無理に大きくする必要がないため,ダイナミックレンジが小さくて済む.
2番目の方法をとれることが,HNNに対するCNNの利点である.
HNNとCNNとの相違点
- 出力関数
- HNN:.
- CNN:.
↑ 難しい非線形演算が含まれていないため,集積回路として実現しやすい.
- リアプノフ関数
- HNN:.
- CNN:.
↑ リアプノフ関数が2次形式なので,リアプノフ関数自体を目的関数にできる.(リアプノフ関数の第1項を無視するために,のダイナミックレンジを広げなければならないという問題を気にする必要がない.)
- or を保証する条件
- HNN:シグモイド関数ののとき,(も関係ある??)
- CNN:1次関数が上に凸であること.のとき,.
- セルフフィードバックの有無
- HNN:セルフフィードバックなし.
- CNN:セルフフィードバックあり.(CNNでを保証するためには,セルフフィードバックが必要.)
- セルの結合範囲
- HNN:すべてのセル.
- CNN:近傍のセルの集合.
- 入力信号の有無
- HNN:入力信号としきい値信号は区別されておらず,どちらも入力電流によって表現する.
- CNN:入力信号としきい値信号が区別されている.はテンプレートによって近傍セルにも影響を与える.
※1〜4までには一連の繋がりがある.
HNNやCNNの利点
- アナログ回路で構成すれば,A/D変換器が要らない.(HNNやCNNがA/D変換と情報処理を兼ねている.)
- HNNやCNNは,すべてのセルが並列で計算されるため,NN単体で高い処理能力をもっている.
HNNやCNNの応用例
(ブラケット内はNN-UMに求められる機能)
- MRFを利用した二値化処理 [大域的な解の探索]
- 二値の領域分割※
- 多値の領域分割 [位置可変なテンプレート]※
- 巡回セールスマン問題 [大域的な解の探索]
- スピングラス [大域的な解の探索]
- 既知の関数で定式化できる最適化問題
- 論理演算
- エッジ検出
- 膨張
※複雑な条件を取り入れたラベリングをしたい場合は,入力
を画像の濃度値
の関数
としなければならない(HNNでも同様).そのための計算ユニットがNN-UMに必要となる.
カオスアニーリング
:Transiently Chaos Neural Network (TC-NN)
|Chen, Aiharaが提案している相互結合型のニューラルネットワークがTransiently Chaos Neural Networkである.TC-NNの土台はDiscrete Time Hopfield Neural Networkである.HNNに負のセルフフィードバックを加えることで,ネットワークの振る舞いをカオス的に動作させ,この項を少しずつ小さくすることで,解の候補に収束させる.得られる解は,フィードバックを加えない場合よりも良い可能性が高い.良い解の得られる理由は未だ解明されていないが,多くの研究者は負のフィードバックによって引き起こされるカオス的な状態遷移が,大域的な解の探索に役立っているのではないかと考えている.TC-NNの欠点は,カオス的な動作をさせるためのパラメーターの設定が難しいことである.
:Chaotic Simulated Annealing with Decaying Chaotic Noise
|Heの提案している,相互結合型のニューラルネットワークがChaotic Simulated Annealing with Decaying Chaotic Noiseである.
のDiscrete Time Hopfield Neural Networkにロジスティック写像から生成したカオスノイズを加えることで,大域的な解の探索を可能にしている.
:On Chaotic Simulated Annealing
|Wangらが提案した,大域的な最適化のできる相互結合型ニューラルネットワークがOn Chaotic Simulated Annealingである.DT-HNNの刻み時間を大きくすることで,カオス的な状態変化を引き起こし,大域的な最適解の探索をおこなう.TC-CNNと同じ欠点を持ち,パラメーターの設定は難しい.
:Noisy Chaotic Neural Network
|同じくWangらが提案した,大域的な最適化を可能にしたHNNである.TC-NNと同様に負のセルフフィードバックに加え,さらにランダムノイズを各セルに供給することで,大域的な最適化を可能としている.TC-NNのパラメーター依存性を低減したモデル(??)
:Cellular Neural Networks with Transient Chaos(CNN-TC)
|同じくWangらが提案している,大域的な最適化が可能なニューラルネットワークである.CNN-TCは,CNNを基礎にし,TC-NNと同様に負のセルフフィードバックを加えることでカオス的な状態遷移を引き起こしている.TC-NNのCNNバージョンともいえる.
階層型ニューラルネットワーク
パーセプトロン
標準デルタ則
パーセプトロンでは,中間層のニューロン(
個)と出力層のニューロン(1個)の間のシナプス結合荷重
が学習の対象となる.
は,中間層の
番目のニューロンと出力層のニューロンとの結合荷重を表している.
中間層のニューロンの出力を
とすると,出力層のニューロンの出力は
で計算される.
は出力関数と呼ばれ,標準デルタ則ではステップ関数である.
標準デルタ則では,次式を用いて,シナプス結合荷重の修正量
を計算する.
標準デルタ則
と
は,それぞれ学習用データセットとその教師信号である.
は学習効率と呼ばれ,大きいほど学習は速く進むが,発散や振動してしまう恐れもある.
標準デルタ則の意味を考えてみよう.
時間ステップ
におけるシナプス結合荷重
が,学習データセット
にて誤識別を生じさせたとする.
このとき,正しい識別をおこなうためには,
を超平面
の向こう側に移動させると良い.
(∵超平面上に
をとると,
となる.)
を超平面の向こう側に移動させる場合,修正の方向としては超平面に垂直な向き,つまり
とすべきである.
これが,標準デルタ則の一番右の項
の意味である.
真ん中の項
は,学習が,ニューラルネットワークの出力
と教師信号
がずれたとき,つまりニューラルネットワークが誤った答えを出力した場合に進められることを表している.
一般化デルタ則(B. Widrow)
パーセプトロンの限界
多層型ニューラルネットワーク
誤差逆伝搬法
最終更新:2008年12月16日 13:37