"機械学習","信号解析","ディープラーニング"の勉強

読者です 読者をやめる 読者になる 読者になる

"機械学習","信号解析","ディープラーニング"の勉強

"機械学習","信号解析","ディープラーニング"について、それぞれ勉強しながらブログにまとめていきます。テーマは気分によってバラバラかもしれません。

ディープラーニングは動的ネットワーク構築が主流になるか? TensorFlow Fold登場

動的ネットワーク構築と静的ネットワーク構築 静的ネットワーク構築 動的ネットワーク構築 動的なTensorFlowが登場 動的なネットワーク構築を行うライブラリ TensorFlow Foldの登場 どれがいいのか

誤差逆伝搬法(バックプロパゲーション)とは

はじめに ニューラルネットの基礎 ニューラルネットの順伝搬 1つの層での処理 多層での処理 順伝搬のまとめ ニューラルネットワークの学習 勾配法 微分の難しさ 誤差逆伝搬法 問題 誤差逆伝搬法 まずは損失の和を計算する 微分の連鎖律 出力での損失の微分 …

ニューラルネットワークの学習の工夫

はじめに 伝統的な学習の工夫 正規化、標準化、無相関化、白色化 正規化 標準化 無相関化 白色化 正則化 正則化 正則化 elastic net 伝統的な工夫について ニューラルネットワークの学習の工夫 バッチ正規化 ドロップアウト ノイズ混入 勾配ノイズ ニューラ…

Deep learningに必須なハード:GPU

はじめに 計算性能は必須 CPUとGPU CPU GPU GPGPU ベンチマーク 様々な環境での実験 ニューラルネットの構造を変えた実験 GPUの情報 ディープラーニングのGPU TensorFlowが認識するGPUの性能 2017年GPUの早見表(デスクトップ向け) 紹介

自動機械学習の登場。深層学習システムを開発する学習ソフトウェア

自動機械学習 発端 機械学習の設計と試験に飽き飽きした 能力 自動機械学習のコスト 自動機械学習の狙い 論文

ニューラルネットのための最適化数学

はじめに 最適化数学 最適化問題の簡単な例 例題の解法 微分による解法の注意点 凸最適化問題 凸関数 凸関数の定義 ニューラルネットの学習 ニューラルネットの目的関数 ニューラルネットの勾配降下法 パラメータを求める戦略 勾配降下法 ニューラルネットの…

時系列データ:隠れマルコフモデルの基礎と、リカレントネットの台等

はじめに 隠れマルコフモデル 確率分布として考える 隠れていないマルコフモデル 隠れマルコフモデル 隠れマルコフモデルの学習 隠れマルコフモデルでの予測 隠れマルコフモデルで何ができるか リカレントネット リカレントネットの構造 時間方向への展開 深…

畳み込みニューラルネットワークの基礎

事前知識 テンソルで理解しておくべきことは意外と少ない 畳み込みとは 畳み込み 畳み込みニューラルネット 畳み込みニューラルネットの畳み込み処理 空間フィルタ 畳み込み層 RGB画像を扱う場合 畳み込み層まとめ 分類の方法について プーリング層 活性化関…

ニューラルネットワークの中間層の働き、その他脳のモデル

ニューラルネットワーク 脳のモデルとしての構造 連合層(中間層)の役割とは ニューラルネットの特徴抽出 ニューラルネットワークは本質的に教師あり学習 強化学習 強化学習の概要 Q学習 深層強化学習:Deep Q Network 脳との関連 その他 連想記憶ネットワ…

現在の人工知能開発

人工知能の歴史の全体像を簡単に概観した以下の記事が多くの人に見られるようになりました(大変うれしいことです)。 s0sem0y.hatenablog.com これを見て非常に多くの人が人工知能に関心を寄せていることを再確認いたしましたので、人工知能開発における別…

出力層で使うソフトマックス関数

ニューラルネットの分類問題 分類するクラスの数=出力層のユニットの数 ラベルデータ 現実の出力 ソフトマックス関数 確率を出力している 交差エントロピー 損失関数 交差エントロピーを用いる理由

自己符号化器(オートエンコーダ)と主成分分析との関係

自己符号化器の役割 自己符号化器の構成方法 数式を見る 損失関数を見る 主成分分析の復習 主成分分析の復習 主成分分析の次元削減 自己符号化器と主成分分析 損失関数の書き換え 主成分分析との比較 自己符号化器の価値 非線形性を容易に表現 雑音に対する…

深層学習:ハイパーパラメータの設定に迷っている人へ

既に深層学習は、chainerやtensorflowなどのフレームワークを通して誰の手にも届くようになっています。機械学習も深層学習も、あまりよくわからないが試してみたいなという人が数多くいるように思います。そして、実際に試している人たちもたくさん居るでし…

ニューラルネットワークによる学習の停滞はどこから生ずるか

現在機械学習ではディープラーニングの活躍が目立っています。 その基礎はニューラルネットワークの学習にあり、この学習を知っているのとそうでないのとでは、各手法に関する理解度が大きく異なってくるものと思います。 今回はニューラルネットワークの学…

現代のニューラルネットワーク描像

ニューラルネットワークは深層学習(ディープラーニング)によって復活し、多層化されるにつれ、ネットワークのユニット1つ1つに関して注目する機会はさほど多くなくなりました。 元々はニューロン同士の結合を表現したモデルであったため、その繋がりを意…

ディープラーニング最適化の有用記事

ディープラーニングの勉強を進める中で有用だった記事を載せておきます。 勾配法のまとめ記事 最適化から見たディープラーニングの考え方 通常の機械学習における最適化の視点

ここからはじめるディープラーニングの主流手法まとめ【保存版】

ディープラーニングは2006年にトロント大学のHinton氏が考案したDeep Belief Networkから始まりました。このとき考案されたのが事前学習という手法で、一層ずつ層を学習させてから繋げていくことで、一気に深い構造を学習させる際に生じていた勾配消失問題を…

ディープラーニングでの学習収束技術

ディープラーニングでは多くの層とユニットを用いて、非常に高い表現力を持ったネットワーク構造を作り出します。その高い表現力が包含する様々な実現可能な変換の中から、如何にして望む変換を獲得するかが学習のフェイズになります。 この学習では、表現力…

フィードフォワードニューラルネットワークの基本

今回はニューラルネットワークの話をします。 僕のブログに行き着く人の多くは「ニューラルネットワーク」とか「ディープラーニング」とかで検索している人が多いみたいなので、きっと最も需要がある項目なのでしょう。 ディープラーニングをやるにしても、…

パーセプトロンの概観とディープラーニングへ

パーセプトロンとサポートベクターマシンの考え方の違いをまとめます。 いずれも線形分離を達成するための手法ですが、線形分離ができない場合はそれぞれ違った手法で線形分離ができそうな問題へと変換していきます。実を言うと幾何的には両方とも同じ処理方…