ソニックの部屋

主にプログラミングに関する記事を投稿します

「最短コースでわかる ディープラーニングの数学」を読む

気になった用語等をまとめる

第1章_機械学習入門

学んだこと

第2章_微分積分

学んだこと

  • 微分とは「関数のグラフ上のある点を中心にグラフを無限に拡大していくとグラフは限りなく直線に近づく。この時の直線の傾き」(つまり接線の傾き)のこと
  • 微分とは「xを少し増やした時のyの増える量を比で表したもの」(dy/dx)
  • 勾配降下法の根本原理は微分f'(x)(傾き)が0になるxの時に関数は極大又は極小になる
  • 連鎖律とは合成関数の微分のこと
  • 導関数とは微分した結果のこと
  • 積分とは「関数のグラフと直線y=0の間にできる図形の面積」(=積分すると面積が求まる)
  • 面積を表すS(x)の微分が元の関数f(x)になっている

第3章_ベクトル・行列

学んだこと

  • ベクトルは向きと大きさを持つ量(ex. 南西に4km)
  • スカラーは単なる数値(向きを持たない)
  • 内積はベクトル間の掛け算
θ ベクトルaとbの関係 内積の値
0 同方向 最大値
90 直交 0
180 逆向き 最小値
  • ベクトル・行列を線形代数という
  • 行列とベクトルの積
# wの固まりが行列、xの固まりがベクトル
# ポイントは横(行列)✖️縦(ベクトル)の内積の計算
(w11 w12)  (x1) = (w11x1 + w12x2)
(w21 w22) (x2)    (w21x1 + w22x2)
(w31 w32)            (w31x1 + w32x2)

第4章_多変数関数の微分

学んだこと

  • 多変数関数の微分は分解して1つの変数に着目して微分していく、これを偏微分という
  • 勾配降下法で移動量を出す計算は損失関数の偏微分の計算

第5章_指数関数・対数関数

学んだこと

  • 指数関数はf(x)=ax
  • 指数関数の逆関数が対数関数
  • 対数関数はx=logaf(x)
  • 自然体数はeを底とする対数関数
  • eを底とする対数関数を微分すると1/x、eを底とする指数関数を微分するとex

第6章_確率・統計

学んだこと

  • 尤度関数はモデルの特徴を表す変数を式に含んでいる確率式のこと
  • 最尤推定は尤度関数をパラメータで微分してゼロになる時のパラメータを求めること

第7章_線形回帰モデル

学んだこと

  • 入力変数1つが単回帰、2つ以上が重回帰
  • 勾配降下法の式の中で学習率αが非常に重要なパラメータとなる
  • αが大きすぎると正しい方向(谷底)を目指してはいるが一歩が大きすぎて谷底を通り過ぎてしまい何度も行ったり来たりする
  • αが小さすぎると谷底に着くのに何度も回数を繰り返す必要がある
  • 実務では学習率の設定は1/10ずつ小さくしていって微調整していく (0.01-0.001くらいに設定し明確な決め方はない)

第8章_ロジスティック回帰モデル(2値分類)

学んだこと

  • 回帰の直線は処理対象の点を全て直線に近づけるように使う
  • 分類の直線はグループ分けのための境界線(決定境界)として使う
  • 予測関数はシグモイド関数の利用

第9章_ロジスティック回帰モデル(多値分類)

学んだこと

  • アルゴリズムの流れは変わらず、1. 予測関数の作成、2. 評価関数の作成、3. 勾配降下法による最適なパラメータ値探索
  • 並列の分類器の中で確率値の最も高い分類器のクラスを予測値とする
  • 予測関数はソフトマックス関数の利用

第10章_ディープラーニングモデル

学んだこと

  • 予測フェーズは入力層から出力層に向けて順方向に計算処理が進む(順伝播)
  • 学習フェーズは出力層から入力層に向けて逆方向に 誤差計算 が進む(誤差逆伝播)
  • 件数が多い場合は学習データ全体からランダムに一部のデータを取りそのデータで学習する(ミニバッチ学習法)

第11章_実用的なディープラーニング

学んだこと

参考文献
最短コースでわかる ディープラーニングの数学
赤石 雅典 (著)/日経BP/2023