5.5.4 接線伝播法
やること
誤差関数に正則化項を加えて入力の変換に対する不変性をモデルに持たせる。正則化関数として、入力ベクトルを変換をした場合出力ベクトルに及ぼす影響を利用する。
詳細
変換が1つのパラメータで支配される場合、 入力ベクトルを変換を作用させて得られる新たな入力ベクトルをと表す。変換しない場合()は。における変換の方向のベクトルは(5.125)。
入力ベクトルをで変換したとき出力ベクトルに及ぶ影響は(5.126)。
データ点の近傍において局所的に不変性を持つように これを正則化関数(5.128)として、もとの誤差関数に加える(5.127)。
で訓練データに対するフィッティングと不変性の学習のバランスを決定する
図5.16について
(b)=s(a,)
(c)=(a)+(b)/*15度
(d)=s(a,15度)
5.5.5 変換されたデータを用いた訓練
もとの入力パターンを変換して訓練集合を拡大する方法が、接線伝播法と関連があることを示す。
詳細
もとの入力パターンを変換して訓練集合を拡大する方法の誤差関数が 接線伝播法の誤差関数と等しくなることを示す
- 入力パターンを変換していない誤差関数は(5.129)。
- 入力パターンを変換して訓練集合を拡大した場合の誤差関数は(5.130)。
- を展開して(5.130)に代入すると(5.131)、(5.132)を得る。
- (5.131)より(5.133)であるため正則化項は(5.134)となる。
これは接線伝播法における正則化項(5.128)と等価である。
のテイラー展開について
$$
y(s(x,\xi))=y(s(x,0))+(s(x,\xi)-s(x,0))^{T}
\left. \frac{\partial y}{\partial s} \right|_{\xi=0}\\ \hspace{40pt}+
\frac{1}{2}(s(x,\xi)-s(x,0))^{T}\left. \frac{\partial^{2} y}{\partial^{2} s}
\right|_{\xi=0}(s(x,\xi)-s(x,0))
$$
ここで
より
(5.130)から(5.132)
を展開した(5.130)の
第二項:]
第三項:] 、、
]
5.5.6 たたき込みニューラルネットワーク
ニューラルネットワークの構造そのものに不変性を構築する
画像の性質を利用する
近くにある画素同士は遠く離れた画素同士よりも強い相関を持っ。現代的なアプローチの多くは次のようにしてこの性質を利用している。
- 画像の小さな部分領域だけに依存する局所的な特徴を抽出
- 抽出した特徴を統合して高次の特徴を検出
- 画像全体に関する情報をもたらす
また、画像のある領域において有用な局所的な特徴は、画像の別の領域においても有用である可能性が高い(検出の対象が平行している場合など)
たたみ込みニューラルネットワークでは次の3つの機構により上記の性質を利用している
(i) 局所的受容野
(ii) 重み共有
(iii) 部分サンプリング
特徴マップ
たたみ込み層ではユニットが並んだ平面が複数あり、平面それぞれを特徴マップと呼ぶ。各ユニットは画像の小さな部分領域だけから入力を受ける。同じ特徴マップに属するユニットは同一の重みの値を共有するように制約される。
入力画像と特徴マップ(ずれは一マスじゃなくてもよい)
入力画像が平行移動した場合、特徴マップの活性も同じだけ平行移動する。これを利用すればネットワークに入力画像の平行移動に対して不変性を持たせることができる。
複数の特徴を検出する場合はそれぞれが独自の重みとバイアスを持つ複数の特徴マップを使う。
部分サンプリング
入力はたたみ込みユニットの出力。 それぞれの特徴マップに対して、ユニットが並んだ平面が一つある。それぞれのユニットは、対応する特徴マップにある小さな受容野から入力を受ける。
次図のように対応する特徴マップの2x2のユニット領域から入力を受けると、たたみ込み層の半分のサイズになり、少々の平行移動に対しては比較的鈍感になる。
※完全結合(fully connected):自分より小さい番号が振られたすべてのノードから向かってくるリンクを持つ(8.1参照)