チラ裏備忘録

情報整理

機械学習

【内部処理】畳み込みの高速処理を実現する方法

畳み込みをforループを用いずにどのように実装されているのかが気になっていたのですが,調べてみると,どうやらnn.Unfoldというメソッドを使うことで行列演算へと帰着させる方法が存在するようです.そこでnn.Unfoldを用いて畳み込みを実装してみました. …

活性化関数と重みの初期値の関係

『ゼロから作るDeep Learning』を久々に読み返すと,活性化関数と重みの初期値の関係についての記載がありました. 恥ずかしながら初期値についてはあまり意識せず適当に決めていたので,意識付けのためにも,これらの関係について検証を行ってみました(n番…

PyTorchで線形回帰(二次関数)

はじめに PyTorchで単純な線形回帰を行いたいと思います. nn.Linear()を使ってやるのもいいのですが,今回は,重みとバイアス用のTensorを自分で定義する方針で行いました. 色々読み込み import torch import torch.nn as nn import matplotlib.pyplot as …

PyTorchでMNIST

はじめに PyTorchを触ってみました. 試しに,単純なパーセプトロンのみでMNIST分類をやってみます.すべてGoogle Colabの環境で実行しました. Python: 3.6.9 PyTorch: 1.6.0+cu101 色々読み込み import torch, torch.nn as nn, torchvision from torchvisi…

クロスエントロピー誤差【損失関数】

『TensorflowとKerasで動かしながら学ぶディープラーニングの仕組み』から引用・抜粋しました. 概要 2つの値を元に,ウイルスに感染しているか,そうでないかを判定するネットワークを作りたい. この時,横軸に,縦軸にを取る散布図を考え,感染と非感染を…

機械学習関連 小さなメモ

書籍やウェブサイトで読んだ内容を随時メモ. 訓練データ,テストデータ,検証データの違い 訓練データ パラメータ(重みやバイアス)の学習に利用 テストデータ 汎化性能をチェックするために,最後に(理想的には一度だけ)利用 検証データ ハイパーパラメ…

微分の連鎖律(チェインルール)

機械学習の誤差逆伝播法に出てくる微分の連鎖律が多変数になるとイメージしづらくなるので適当メモ。 1変数の場合 の時、 と置き換え、以下のように微分する。 多変数の場合(長くなるので具体的な計算は省略) である時、をで偏微分すると、 となる。 一般化…