trsing’s diary

勉強、読んだ本、仕事で調べたこととかのメモ。

2019-01-01から1ヶ月間の記事一覧

PRML 5.3.2~5.3.4

5.3.2 単純な例 誤差逆伝播の例を示す。 ・2層ネットワーク(図5.1) ・2乗和誤差関数(5.61) ・出力ユニットは線形活性化関数 ・隠れユニットはシグモイド活性化関数(5.58) ※シグモイド関数の微分は(5.60)。演習5.8参照 1.順伝播を実行する。(5.62)(5.63)(5.6…

今年の目標

すでに1月後半と今更?という時期ですが。 年末年始は忙しかったのです。実家に顔出して艦これJazzフェス行って艦これイベントして(掘り完了ならず)古戦場と大忙しだったのです…。 艦これJazzフェス大変良かったですね。交通宿泊飲食費含めて6万近くかかった…

PRML 5.3~5.3.1

5.3 誤差逆伝播 本節での目標:フィードフォワードニューラルネットワークについて誤差関数の勾配を効率よく評価するテクニック(誤差逆伝播)を見つけること。 ほとんどの訓練アルゴリズムでは誤差関数を最小化するための反復手続きがある。次の2つの手続きを…

PRML 5章演習問題 5.8~5.13

5.8 より 5.9 (5.20)の形式にするためにはy,nともに1足して2で割ればよいので よって誤差関数は 出力ユニットのの活性化関数は2倍して1引けばよいので 。 5.10 とおく。このとき。 ・すべての固有値が正ならは正定値 すべての固有値が正なら>となりは正定値…

PRML 5.2.1~5.2.4

5.2.1 パラメータ最適化 課題 誤差関数を最小にする重みベクトルを見つける。 結論 方程式の解を見つければよい。 しかし、解析的な解を見つけるのはほぼ無理なため数値的な反復手段により解を見つける。 理由 誤差関数の勾配が0になる点が最小値になる(勾配…

PRML 5章演習問題 5.1~5.7

5.1 演習問題3.1(3.100)を参照 5.2 5.3 に関する最尤推定解を見つけるための最小化すべき誤差関数 の最尤推定解 ※ $$ \frac{\partial \ln|X|}{\partial X}=(X^{^1})^{T},\,\frac{\partial a^{T}X^{-1}b}{\partial X}=-(X^{-1})^{T}ab^{T}(X^{-1})^{-T} $$ を…

PRML 5.2

5.2 ネットワーク訓練 ニューラルネットワークの出力を確率的に解釈すると、出力ユニットの非線形活性化関数の選択と誤差関数により明確な理由付けができるようになる。 それぞれの問題と、問題に対応する非線形活性化関数と誤差関数 問題 出力ユニットの活…

Visual Studioにてテストエクスプローラにテストが表示されない場合の解決方法

現象 Visual Studioにてテストエクスプローラにテストが表示されない。 解決方法 テスト→テスト設定→既定のプロセッサアーキテクチャ→X64 としてリビルド 環境 Visual Studio Professional 2015 C# NUNIT Windows10 Pro 64bit 参考 blog.house-soft.info 備…

PRML 5~5.1.1

第五章 ニューラルネットワーク ・固定された基底関数の線形和で表されるモデルだと、次元の呪いのため実際的な応用可能性は限られる ・大規模な問題に適用するためには、基底関数をデータに適応させる必要がある 基底関数群を定義し、その一部を訓練中に選…