270 likes | 393 Views
Chapter 7. Content-Addressable Memory. 知的ロボティクス. 知的計測クラスタ 聴覚メディア研究室 傳田 遊亀. Chapter 7. 7.1 INTRODUCTION 7.2 HOPFIELD MEMORIES 7.2.1 Stability 7.2.2 Lyapunov Stability Example: CAM for a Small Phone Book 7.3 KANERVA MEMORIES 7.3.1 Implementation 7.3.2 Performance of Kanerva Memories
E N D
Chapter 7.Content-Addressable Memory 知的ロボティクス 知的計測クラスタ 聴覚メディア研究室 傳田 遊亀
Chapter 7. • 7.1 INTRODUCTION • 7.2 HOPFIELD MEMORIES • 7.2.1 Stability • 7.2.2 Lyapunov Stability • Example: CAM for a Small Phone Book • 7.3 KANERVA MEMORIES • 7.3.1 Implementation • 7.3.2 Performance ofKanerva Memories • 7.3.3 Implementation of Kanerva Memories • 7.4 RADIAL BASIS FUNCTIONS • 7.5 KALMAN FILTERING
7.1 INTRODUCTION • CAM(Content-Addressble Memory) • データの情報の一部から関連した情報を連想して探す • Hopfield memories (Autoassociative) • Kanerva memories (Heteroassociative)
7.1 INTRODUCTION • 抽象化されたneuron(unit)がmemory bitを表現 • Unitは-1 or 1の離散状態を取る • Weightは0~1の実数
X h W X 7.2HOPFIELD MEMORIES • Autoassociative memories • Weightを のように対称になるように制限することでweightの決定が比較的容易 • 2層型ネットワーク • ある時刻の出力は次の状態の入力になる • Attractors(安定した平衡点)だけが存在する
7.2HOPFIELD MEMORIES • Hebbian Rule • Q個のパターン に適したweightを決定する • Weightのupdate rule
7.2.1Stability • Weightの対称性から状態ベクトルはhypercube(n次元の立方体)の頂点の状態のみを取る
7.2.1Stability • Hopfield memoriesがある状態ベクトルで安定 • パターンの各成分が1 or-1に等確率で分布・独立である場合noise成分の分散は独立項の分散の和
7.2.1Stability • Noise成分の分散は の二項分布 • Bit error rateはNから∞までの積分で求められる • パターン数が増えるとBit error rateは増加 • Unit数が減るとBit error rateは低下
7.2.1Stability • 平均と標準偏差の比 は SNR(Signal to Noise Ratio)とみなせる • Bit errorの起きる確率 • N=1000, Q=100の場合 • CAMの記憶容量は非常に小さい
7.2.2Lyapunov Stability • Lyapunov関数V(x)を用いてシステムの安定性を調べる • V(x)が単調減少する場合CAMは常にlocal minimaになる • V(x)をシステムのエネルギーとみなせる
Exmaple: CAM for a Small Phone Book • 各エントリー25文字の電話帳 • 1文字/5bit, ±1 で符号化 • ex.) a・・・(-1,-1,-1,-1,1),b・・・(-1,-1,-1,1,-1) • 各エントリーは125次元のベクトルで表現
Exmaple: CAM for a Small Phone Book • Memoryパターンに近い状態で始まった場合 • Vは単調減少 • 格納パターンに十分近づく
Exmaple: CAM for a Small Phone Book • Memoryパターンから遠い状態で始まった場合 • Vは単調減少するがattractorは偽のlocal minimaになる
7.3 KANERVAMEMORIES • Heteroassociative • Q個のメモリ(n bit/memory)がアドレス空間( )に無相関に分布 • M個のペア(x, y), x・・・アドレス, y ・・・データ • ベクトルを格納するためにはxのHamming距離Dの全ベクトルdにyを加える • ベクトルを修正するためにはdの総和を閾値処理する
7.3 KANERVAMEMORIES • 単一のベクトルのみを処理する場合は正確にベクトルを修正できる • 一般的には複数のベクトルを扱う必要がある • 総和をとることで影響が出る可能性がある • データの各成分が±1の範囲でランダムに分布すると仮定 • 他のベクトルの要素は打ち消しあう • 入力ベクトルが主な成分を占める
7.3 KANERVAMEMORIES • Conventional computer memory • 密なアドレス空間(ex. 20 bit)を持ち全てのアドレス( )を使用
7.3 KANERVAMEMORIES • 疎なアドレス空間(ex. 1000 bit)を持つ • ものアドレスを確保することは物理的に不可能
7.3.1Implementation • M×N(M << アドレスス空間)のアドレス行列AとM×Nデータ行列C • xから距離D内のベクトルをセレクトベクトルsを用いて表す • 実際に使用するベクトルの割合をpとすると使用されるベクトル数はpMになる
Y h C d A X 7.3.1Implementation • ベクトルを格納することでデータを得られる • Kanerva memoriesは3層ネットワークで表現できる
7.3.2Performance of Kanerva Memories • 第一項の期待値・・・ • ベクトルをランダムに選んだ場合のnoise成分
7.3.2Performance of Kanerva Memories • 第1項の期待値・・・pM • 第2項の期待値・・・pM • 合計確率はポアソン分布でモデル化可能
7.3.2Performance of Kanerva Memories • 合計の各要素が独立であると仮定した場合正規分布で近似できる • Error rate・・・ • Example of a Kanerva Memory • Q=100,p=0.1,M=10,000
7.3.3Implementation of Kanerva Memories • Content-addressable性 • 16×16 = 256次元のベクトル
7.3.3Implementation of Kanerva Memories • Heteroassociative性
7.4RADIAL BASIS FUNCTIONS • Kanerva memoriesではアドレス空間を大きく取ることでerror rateを下げることが可能 • データがアドレスの関数として表現可能 • 内挿によって関数近似を行う • Radial basis functionsを使用
7.5KALMAN FILTERING • Kanerva memoriesの拡張 • Noiseの影響を抑える • コストを最小化する