"機械学習","信号解析","ディープラーニング"の勉強

HELLO CYBERNETICS

深層学習、機械学習、強化学習、信号処理、制御工学などをテーマに扱っていきます

人工知能

【ただのボヤキ】統計学と機械学習とディープラーニングと

識別関数、識別モデル、生成モデルの違いを解説

Chainer2.0がリリース【今後の安定版】とりあえず抑えておきたい変更点

Chainer2.0がリリースされ、今後の安定版として使われることになりました。以後、これからChainerを本格的に使っていく場合はこちらを利用していくことになります。

ディープラーニングを更に深くすることを可能にするか?Highway Networksのメモ

今更聞けないディープラーニングの話【ユニット・層・正則化・ドロップアウト】

ディープラーニングを手軽に始められるようにはなったものの、実際に学習を上手く進めるにはチューニングという作業が欠かせません。ここではチューニングの際に気をつけることをサラっとまとめておきます。

Chainerで勾配法の基礎の基礎を確認【ニューラルネット入門】

勾配法はニューラルネットワークの学習の基礎になります。基本的な問題を見て、勾配法を確認してみましょう。

【Chainer、Keras、TensorFlow】ディープラーニングのフレームワークの利点・欠点

ディープラーニングの大流行の中、様々なフレームワークが登場し、気軽にプログラミングができるようになりました。しかし、そんな中どのフレームワークを選べば良いかわからないという人も多いと思います。そんな人に少しでも参考になればと思い記事を書き…

脳から直接司令を出す【次世代技術Brain Computer Interface】

Brain Computer Interface(以下BCI)とは脳活動を直接用いて外部機器との通信を可能にする技術の総称です。

今更聞けないLSTMの基本

ディープラーニングで畳込みニューラルネットに並ぶ重要な要素のであるLong Short-Term Memoryについて、その基本を解説します。

【ここまで分かれば概要を理解できる】強化学習問題の基本的考え方

強化学習の基本、行動価値関数について

深層学習と並ぶ人工知能の巨塔、強化学習とは一体何か

またもやTensorFlowが強化!!深層学習ライブラリ「sonnet」の登場【使ってみた記事紹介を追加】

SVM、ニューラルネットなどに共通する分類問題における考え方

TensorFlowの強さはコミュニティの大きさ。参加者の人数とレベルがすごい!

中間表現の変化:生データ→自己符号化→ファインチューニングまで

ディープラーニングは動的ネットワーク構築が主流になるか? TensorFlow Fold登場

Chainerが大幅にアップデート!深層学習フレームワークの地位確立なるか?

抑えておきたい評価指標「正解率」「精度」「再現率」

誤差逆伝搬法(バックプロパゲーション)とは

ニューラルネットワークの学習の工夫

Deep learningに必須なハード:GPU

機械学習の重要なアプローチ:ベイズ理論

サポートベクターマシンを手計算して理解する

バイアス-バリアンス分解:機械学習の性能評価

自動機械学習の登場。深層学習システムを開発する学習ソフトウェア

線形回帰モデルと最小二乗法

深層学習のフレームワーク「dynet」

TensorFlowを始める知識準備の手順

はじめに 始める前の準備 プログラミング ニューラルネットワーク テンソルのこと 動かしながら検討 様々なタイプのニューラルネット 更に理解を深める

ニューラルネットのための最適化数学

はじめに 最適化数学 最適化問題の簡単な例 例題の解法 微分による解法の注意点 凸最適化問題 凸関数 凸関数の定義 ニューラルネットの学習 ニューラルネットの目的関数 ニューラルネットの勾配降下法 パラメータを求める戦略 勾配降下法 ニューラルネットの…