演習問題
5.38 の周辺ガウス分布 と が与えられた時のの条件付きガウス分布 より として(2.115)より 5.39 ラプラス近似により よって ※について これと(4.132)よりは(5.166) 5.40 Kクラスニューラルネットワークに対して、尤度関数は $$ \prod_{n}^{N}\prod_{k}^{K}y_…
5.33 関節の位置 関節の位置から見た先端の位置 先端の位置 5.34 より 5.35 式変形に を用いた。 5.36 式変形に を用いた。 5.37 (5.158) (5.160) (2.62)より であることに注意すると (5.160)はLが抜けてるような
5.27 をのまわりでテイラー展開すると これを に注意して(5.130)に代入すると 5.28 修正は畳み込み層の重みに関する導関数にのみ作用する。 特徴マップ(インデックス)中のユニットへの入力はそれぞれ異なるが、共通する重みベクトルを持つ。 したがって、特…
5.24 重みとバイアスを(5.116),(5.117)と線形変換したものに(5.115)を入力すると、 (5.113)と比較すれば同じであることがわかる (5.119),(5.120)の変換を行うと出力は 5.25 まず、 よって(5.196)は のとき (5.197)が成り立つ。 のとき(5.197)が成り立つとし…
5.21 出力ユニットがK>1のとき、演習5.16から ここで、 とおけば 5.22 (5.55),(5.56)に注意して計算する (5.93)を導く (5.94)を導く (5.95)を導く 5.23 層を飛び越えた結合の重みをとする。 両方の重みが層を飛び越えた結合の場合 2層と層を飛び越えた結合の…
5.16 複数の出力を持つ場合の誤差関数は 勾配は ヘッセ行列は 近似すると 5.17 ※(1.89)から 5.18 入力から出力へ直接つながる結合に相当するパラメータをと置くと(5.64)より 誤差関数の追加されたパラメータに関する微分の方程式は 5.19 あるデータに対して…
演習5.14 をある点でテイラー展開すると $$ E_{n}(w)\simeq E_{n}(\hat{w_{ji}})+(w-\hat{w_{ji}})^{T}E'(\hat{w_{ji}})+\frac{1}{2}(w-\hat{w_{ji}})^{T}E''(\hat{w_{ji}})(w-\hat{w_{ji}})+O(|w-\hat{w_{ji}}|^{3}) $$ (成分のみだけ変動)とすると $$ E_{n…
5.8 より 5.9 (5.20)の形式にするためにはy,nともに1足して2で割ればよいので よって誤差関数は 出力ユニットのの活性化関数は2倍して1引けばよいので 。 5.10 とおく。このとき。 ・すべての固有値が正ならは正定値 すべての固有値が正なら>となりは正定値…
5.1 演習問題3.1(3.100)を参照 5.2 5.3 に関する最尤推定解を見つけるための最小化すべき誤差関数 の最尤推定解 ※ $$ \frac{\partial \ln|X|}{\partial X}=(X^{^1})^{T},\,\frac{\partial a^{T}X^{-1}b}{\partial X}=-(X^{-1})^{T}ab^{T}(X^{-1})^{-T} $$ を…
4.23 (4.138)より $$ A=-\nabla\nabla\ln p(D|\theta_{MAP})p(\theta_{MAP})=-\nabla\nabla(\ln p(D|\theta_{MAP})+p(\theta_{MAP}))=H-\nabla\nabla\ln p(\theta_{MAP}) $$ より $$ A=H+V_{0}^{-1} $$ 事前確率が広い幅を持っている(が大きい)、もしくはデ…
4.19 解答だとですね…。わからん。 4.20 解答見ながら。自分の理解しやすい形にしたけどあってんのか・・・? 4.21 4.22 として、(4.136)に(4.135)を適用して対数を取るだけ?Aについても(4.132)。
4.12 4.13 4.14 線形分離可能であれば、 のとき、それ以外では<。よってベクトルは決定境界を満足する。 (4.90)より負の対数尤度はすべてのに対してのとき最小化される。より最小化するには。よっては無限となる。 解答見ながら。わかるようなわからないよう…
4.8 ・(4.57),(4.58)を使って(4.65)の結果を導出せよ。 4.9 クラスの事前確率と一般的なクラス条件付の確率密度によって定義されるKクラス分類問題の生成モデルを考える。 学習データ{}が与えられたとする。データがこのモデルから独立に抽出されると仮定す…
4.3 わからん 4.4 クラス分離基準(4.22)をに関して最大化すればとなること示せ。 4.5 (4.20),(4.23),(4.24)を使って(4.25)が(4.26)の形で書けることを示せ。 4.6 (4.27),(4.28),(4.34),(4.36)および4.1.5節で述べた目的値を使って(4.33)が(4.37)の形で書ける…
4.1 データの集合との集合がある。凸包が重なる場合、2つのデータの集合は線形分離可能ではないことを示せ。 2つのデータの集合が線形分離可能な場合、それらの凸包が重ならないことを示せ。 4.2 (4.15)に対して線形制約 を満たすと仮定すると、 を満たすこ…