"機械学習","信号解析","ディープラーニング"の勉強

HELLO CYBERNETICS

深層学習、機械学習、強化学習、信号処理、制御工学などをテーマに扱っていきます

人工知能

機械学習で抑えておくべき損失関数(分類編)

機械学習で抑えておくべき損失関数(回帰編)

ニューラルネットワークの線形変換と活性化関数について

ディープラーニングの理論的な側面についてメモ

【ただのボヤキ】統計学と機械学習とディープラーニングと

識別関数、識別モデル、生成モデルの違いを解説

Chainer2.0がリリース【今後の安定版】とりあえず抑えておきたい変更点

Chainer2.0がリリースされ、今後の安定版として使われることになりました。以後、これからChainerを本格的に使っていく場合はこちらを利用していくことになります。

ディープラーニングを更に深くすることを可能にするか?Highway Networksのメモ

今更聞けないディープラーニングの話【ユニット・層・正則化・ドロップアウト】

ディープラーニングを手軽に始められるようにはなったものの、実際に学習を上手く進めるにはチューニングという作業が欠かせません。ここではチューニングの際に気をつけることをサラっとまとめておきます。

Chainerで勾配法の基礎の基礎を確認【ニューラルネット入門】

勾配法はニューラルネットワークの学習の基礎になります。基本的な問題を見て、勾配法を確認してみましょう。

【Chainer、Keras、TensorFlow】ディープラーニングのフレームワークの利点・欠点

ディープラーニングの大流行の中、様々なフレームワークが登場し、気軽にプログラミングができるようになりました。しかし、そんな中どのフレームワークを選べば良いかわからないという人も多いと思います。そんな人に少しでも参考になればと思い記事を書き…

脳から直接司令を出す【次世代技術Brain Computer Interface】

Brain Computer Interface(以下BCI)とは脳活動を直接用いて外部機器との通信を可能にする技術の総称です。

今更聞けないLSTMの基本

ディープラーニングで畳込みニューラルネットに並ぶ重要な要素のであるLong Short-Term Memoryについて、その基本を解説します。

【ここまで分かれば概要を理解できる】強化学習問題の基本的考え方

強化学習の基本、行動価値関数について

深層学習と並ぶ人工知能の巨塔、強化学習とは一体何か

またもやTensorFlowが強化!!深層学習ライブラリ「sonnet」の登場【使ってみた記事紹介を追加】

SVM、ニューラルネットなどに共通する分類問題における考え方

TensorFlowの強さはコミュニティの大きさ。参加者の人数とレベルがすごい!

中間表現の変化:生データ→自己符号化→ファインチューニングまで

ディープラーニングは動的ネットワーク構築が主流になるか? TensorFlow Fold登場

Chainerが大幅にアップデート!深層学習フレームワークの地位確立なるか?

抑えておきたい評価指標「正解率」「精度」「再現率」

誤差逆伝搬法(バックプロパゲーション)とは

ニューラルネットワークの学習の工夫

Deep learningに必須なハード:GPU

機械学習の重要なアプローチ:ベイズ理論

サポートベクターマシンを手計算して理解する

バイアス-バリアンス分解:機械学習の性能評価

自動機械学習の登場。深層学習システムを開発する学習ソフトウェア

線形回帰モデルと最小二乗法

深層学習のフレームワーク「dynet」

TensorFlowを始める知識準備の手順

はじめに 始める前の準備 プログラミング ニューラルネットワーク テンソルのこと 動かしながら検討 様々なタイプのニューラルネット 更に理解を深める

ニューラルネットのための最適化数学

はじめに 最適化数学 最適化問題の簡単な例 例題の解法 微分による解法の注意点 凸最適化問題 凸関数 凸関数の定義 ニューラルネットの学習 ニューラルネットの目的関数 ニューラルネットの勾配降下法 パラメータを求める戦略 勾配降下法 ニューラルネットの…

本格的に深層学習をやりたい人はTensorFlowがいいのか?

なぜTensorFlow Google発である もともとテンソル計算と計算グラフを記述するもの 利用者が多い TensorFlowの弱点 ネットワークを動的に書き換えられない 対応GPUが高価 64bitにのみ対応 私自身

時系列データ:隠れマルコフモデルの基礎と、リカレントネットの台等

はじめに 隠れマルコフモデル 確率分布として考える 隠れていないマルコフモデル 隠れマルコフモデル 隠れマルコフモデルの学習 隠れマルコフモデルでの予測 隠れマルコフモデルで何ができるか リカレントネット リカレントネットの構造 時間方向への展開 深…

ChainerのDefine by Runとは?

Define by Run Define by Run Define and Run 具体例を見る 上記のコードのネットワークにおける動作

chainer記事のメモ

はじめに 記事のまとめ chainer導入 Pythonの導入 chainer導入 chainer入門 chainer公式ドキュメントのIntroduction 英語ができない場合のintroduction chainerの理解を深める chainer応用 正則化やドロップアウト 独自データを用いる 画像データ テキストデ…

kerasとchainerの違い

KerasとChainer Keras Chainer 比較 Kerasの役割 Chainerの役割 Kerasでの実装 Chainerでの実装 使い分け Chainerがいいなあ Googleの強さ 使い分け

ささっと使ってみたい人にオススメ、深層学習ライブラリ「Keras」

Kerasとは? TensorFlowを使うのと何が違うのか インストールの方法 TensorFlowの場合 Theanoの場合 Chainerに比べたアドバンテージ Kerasは最初の一歩にオススメ

機械学習手法を理解する手順

はじめに プログラムへの理解度 機械学習への理解度 何が重要か アルゴリズムとしての理解 アルゴリズムとプログラム プログラムの理解 アルゴリズムとしての理解 機械学習手法を理解する方法 機械学習を抑えるためのポイント 更新式を理解すること 判別も回…

クラスタリングの基本

はじめに クラスタリングと教師なし学習 教師なし学習 クラスタリング クラスタリングの手法 凝集型クラスタリング 重心法 単連結法 完全連結法 まとめ k-means 発展的話題

畳み込みニューラルネットワークの基礎

事前知識 テンソルで理解しておくべきことは意外と少ない 畳み込みとは 畳み込み 畳み込みニューラルネット 畳み込みニューラルネットの畳み込み処理 空間フィルタ 畳み込み層 RGB画像を扱う場合 畳み込み層まとめ 分類の方法について プーリング層 活性化関…

Irisデータを使ってChainerを試してみましょう

Chainer Chainerの基本的な使い方 まず使ってみましょう IRISデータの分類問題を対象とした全体コード 試してみること 学習中に見るべきところ

ニューラルネットワークの中間層の働き、その他脳のモデル

ニューラルネットワーク 脳のモデルとしての構造 連合層(中間層)の役割とは ニューラルネットの特徴抽出 ニューラルネットワークは本質的に教師あり学習 強化学習 強化学習の概要 Q学習 深層強化学習:Deep Q Network 脳との関連 その他 連想記憶ネットワ…

現在の人工知能開発

人工知能の歴史の全体像を簡単に概観した以下の記事が多くの人に見られるようになりました(大変うれしいことです)。 s0sem0y.hatenablog.com これを見て非常に多くの人が人工知能に関心を寄せていることを再確認いたしましたので、人工知能開発における別…

TensorFlowのtutorial:MNIST For Beginners解説

事前知識 ニューラルネットワークの構造 出力層は何を出力するのか ニューラルネットワークの学習 ミニバッチ学習 まとめ MNIST For Begginers はじめに MNISTとは Bigginersで使うニューラルネット ニューラルネットワークの数式 Tutorialのコードの解説 全…

出力層で使うソフトマックス関数

ニューラルネットの分類問題 分類するクラスの数=出力層のユニットの数 ラベルデータ 現実の出力 ソフトマックス関数 確率を出力している 交差エントロピー 損失関数 交差エントロピーを用いる理由

自己符号化器(オートエンコーダ)と主成分分析との関係

自己符号化器の役割 自己符号化器の構成方法 数式を見る 損失関数を見る 主成分分析の復習 主成分分析の復習 主成分分析の次元削減 自己符号化器と主成分分析 損失関数の書き換え 主成分分析との比較 自己符号化器の価値 非線形性を容易に表現 雑音に対する…

深層学習:ハイパーパラメータの設定に迷っている人へ

既に深層学習は、chainerやtensorflowなどのフレームワークを通して誰の手にも届くようになっています。機械学習も深層学習も、あまりよくわからないが試してみたいなという人が数多くいるように思います。そして、実際に試している人たちもたくさん居るでし…