読者です 読者をやめる 読者になる 読者になる

"機械学習","信号解析","ディープラーニング"の勉強

"機械学習","信号解析","ディープラーニング"について、それぞれ勉強しながらブログにまとめていきます。テーマは気分によってバラバラかもしれません。

確率の基本の基本

はじめに 機械学習での確率 今回のテーマ 確率・統計の基本 確率と統計の考え 確率の基本 離散確率 連続確率 多次元の確率 期待値

ラプラス変換とフーリエ変換

はじめに ラプラス変換とフーリエ変換 フーリエ変換 ラプラス変換 線形性

法律を使うために、まず憲法を学ぶか

はじめに 結論 数学と法 憲法と法律 公理と定理 数学と法の共通点 数学と法の差異 裁判をする 法の下の裁判 数学の下の裁判 学び方 分野を特化して学ぶ 個別の手法から学ぶ 根本を知る意義 記事の動機

機械学習の重要なアプローチ:ベイズ理論

はじめに 記事を書いた動機 ベイズを意識する理由 ベイズ推定と正則化 ベイズ統計と伝統的統計 過学習という事実 ノイズへの対策 最大事後確率推定 最適化の立場 ベイズ推定について 正則化の試行錯誤 完全なるベイズの枠組み ベイズの枠組みを勉強できる本 …

最大事後確率推定(MAP推定)の基本

はじめに MAP推定とは どちらが優れているか 尤度、事後分布、事前分布 ベルヌーイ分布 パラメータの推定方法の違い 最尤推定と尤度 MAP推定と事後分布 事後分布を見てみる 事前分布 MAP推定 事後分布の最大化 対数を取る 求めたいパラメータで微分する 追加…

ニューラルネットのための最適化数学

はじめに 最適化数学 最適化問題の簡単な例 例題の解法 微分による解法の注意点 凸最適化問題 凸関数 凸関数の定義 ニューラルネットの学習 ニューラルネットの目的関数 ニューラルネットの勾配降下法 パラメータを求める戦略 勾配降下法 ニューラルネットの…

知っておくべき特殊な行列と便利な性質 (大学学部生の方にもおすすめ)

はじめに 基礎編:特殊な行列 対称行列 直交行列 一般の行列 基礎編:逆行列と行列式 逆行列とは 行列式とは ランク落ち 応用編:固有値問題 固有値と固有ベクトルと固有値問題 固有値問題 表記整える 対角化 応用編:対称行列と直交行列での対角化 対称行列…

TensorFlowを始める前に知っておくべきテンソルのこと(追記:より一般的な話題へ)

TensorFlowとは Googleが開発したライブラリ Tensorとは Tensorとは多次元配列のこと Tensorの名前を与える 数式に落としこむ データとテンソル グレースケール画像は2階テンソル RGB画像は3階テンソル インデックスは人間が決めていい 注意点 余談 1階のテ…

ダイバージェンス関数を数学の立場から概観

機械学習で現れるダイバージェンスといえばご存知KLダイバージェンスがあります。 KLダイバージェンスは学習をする際の評価関数として用いられることもありますが、二乗誤差などに比べ、なぜにこの関数が評価関数として妥当なのか納得しづらいところです。 …

見たら瞬時に理解すべき数式

機械学習で現れる数式に関して、これを見たら瞬時に理解すべきものを載せておきます。 機械学習で現れる数式には大量の添字があり、それらのせいで一体どのような計算が行われているのかを瞬時に把握するのが難しくなっています。しかしもはやこれは慣れの問…

機械学習を学ぶ上で抑えておきたい数学2

機械学習や深層学習を学ぶ上で、数学は言語である 線形代数学 行列とベクトルは連立方程式を解くための記法 機械学習での活躍 どこまで学ぶか 最適化数学 学習とは 教師あり学習 教師なし学習 最適化を行う際の重要ワード「正則化」 どこまで学ぶ必要がある…

一次元の正規分布から多次元正規分布へ

確率・統計の基礎的な数式・統計量が分かるようになったところで、機械学習に進もうと思ってぶつかるのが多次元の壁です。一次元なら分かるんだけども、多次元になるとサッパリわからないというのは、線形代数の数式がわからないからに他ならないのですが、…

機械学習のための確率基礎とベイズの定理

今回は機械学習の数式を追えるようになるために必要と思われ確率の基礎を記事にします。数式を追うための講座なので、確率がなんたるものなのかはある程度知っている前提とし、様々な確率の公式や定理がどのように使われるのかを見て行きたいと思います。 複…

機械学習の初心者が数式に困惑したら。解決への指針

前回機械学習を学ぶなら数学が必要だという話をしました。 s0sem0y.hatenablog.com それと同時に、数学を極めてから機械学習をやるのではなく、機械学習をやりながら必要に応じて数学を学んでいくというスタイルをオススメしました。しかし、今から機械学習…

機械学習を学ぶ上で抑えておきたい数学

機械学習を勉強する際にぶつかる最大の壁は数学です。 機械学習に必要な数学をリストアップし、いつでも参照できるようにまとめておきたいと思います。 数学の必要性と手順 数学は世界共通の言語 機械学習をやる上で厳密な数学は必要なし レベル別、必要な数…

指数型分布族について

確率分布にも種類は色々ありますが、その中でも指数型分布族と呼ばれる種類のものは良い性質を持っており、学習に用いやすいです。今回は指数分布族がどういう種類のものであるか、そしてどういう性質を持っているのかを解説していきたいと思います。 指数型…

ノーフリーランチ定理

ノーフリーランチ定理というのを聞いたことがあるでしょうか。 汎用的な人工知能が研究される中、この定理についてもう一度見つめなおす意義は大きいと思います。ノーフリーランチ定理とは非常に簡単に言えば、全て問題に対して高性能なアルゴリズムは存在し…

機械学習の数学基礎

機械学習関連の勉強を始めようと思うときに必ず立ちはだかるのが数学の壁です。いまや機械学習は理系のみならず、数学にさほど関わりがなかった文系の人たちにとっても興味のある話題となっています。 そこで機械学習で必要な数学の基礎をまとめてみたいと思…

MAP推定は最尤推定と何が違うのか

最も単純な思想である最小二乗誤差推定があります。 これは多変量解析や機械学習でも最も最初に学ぶであろう内容です。次には過学習を防ぐために正則化を用いることを学ぶかと思います。 これらが、確率論の導入によって最尤推定とMAP推定に含まれることを見…

エントロピーからKLダイバージェンスまでの話

情報理論でエントロピーなる概念を導入し、情報量を定式化したことを前回の記事で紹介しました。 s0sem0y.hatenablog.com 機械学習ではパラメトリックな推定を行う際に真の確率分布p(x)をq(x|θ)で表現するために、KLダイバージェンスKL(p(x)||q(x|θ))を最小…

情報で出てくるエントロピーとは

情報理論は現代のコンピュータが実現されるよりも前からシャノンによって提唱され、そして実際に情報通信技術(符号化や暗号化)の基礎を築いてきました。今回はそんな情報理論のエントロピーにまつわる話です。 機械学習を少し勉強したことがある人にとって…

ベイズ理論の概要

近年の機械学習でもベイズ理論に恩恵を受けている部分は多いです。ここではベイズ理論の概要を紹介していきます。 主観確率と客観確率 具体例1:判断装置 具体例2:代表選手選出 主観確率の乱用はご法度! パラメータ推定に関する違い 伝統的統計学の考え ベイ…