"機械学習","信号解析","ディープラーニング"の勉強

読者です 読者をやめる 読者になる 読者になる

HELLO CYBERNETICS

深層学習、機械学習、強化学習、信号処理、制御工学などをテーマに扱っていきます

今更聞けないディープラーニングの話【ユニット・層・正則化・ドロップアウト】

ディープラーニングを手軽に始められるようにはなったものの、実際に学習を上手く進めるにはチューニングという作業が欠かせません。ここではチューニングの際に気をつけることをサラっとまとめておきます。

【声でグラスを割る!】共振現象と固有振動数

Chainerで勾配法の基礎の基礎を確認【ニューラルネット入門】

勾配法はニューラルネットワークの学習の基礎になります。基本的な問題を見て、勾配法を確認してみましょう。

【Chainer、Keras、TensorFlow】ディープラーニングのフレームワークの利点・欠点

ディープラーニングの大流行の中、様々なフレームワークが登場し、気軽にプログラミングができるようになりました。しかし、そんな中どのフレームワークを選べば良いかわからないという人も多いと思います。そんな人に少しでも参考になればと思い記事を書き…

脳から直接司令を出す【次世代技術Brain Computer Interface】

Brain Computer Interface(以下BCI)とは脳活動を直接用いて外部機器との通信を可能にする技術の総称です。

今更聞けないLSTMの基本

ディープラーニングで畳込みニューラルネットに並ぶ重要な要素のであるLong Short-Term Memoryについて、その基本を解説します。

パネル型のホームがイカした「ZENO-TEAL」にテーマを変換。いろいろと行ったカスタマイズについても解説

新しいテーマに対応させるべく、ここに記事紹介文を書いていきます。 現在かなりの突貫工事中。

【ここまで分かれば概要を理解できる】強化学習問題の基本的考え方

理系大学入学後にどん詰まる「ε-δ論法」について

はてなブログのタイトルを変更しました「HELLO CYBERNETICS」

強化学習の基本、行動価値関数について

深層学習と並ぶ人工知能の巨塔、強化学習とは一体何か

自己啓発本やビジネス本を食わず嫌いしていた私が【7つの習慣】を読んで

またもやTensorFlowが強化!!深層学習ライブラリ「sonnet」の登場【使ってみた記事紹介を追加】

統計学の神の指紋【経済数学の直感的方法】

【書籍紹介】IPythonデータサイエンスクックブック(jupyter notebookを用いた対話型コンピューティングと可視化のレシピ)(2017/04/04 線形回帰の例追記)

状態空間表現と現代制御について基本的な考えを抑える

統計学の考え方を抑えて機械学習との関連と相違を整理

FFTとは何か、フーリエ変換との関連と絶対抑えるべき注意点

PID制御の基本的な考え方

プログラムの実行方法「インタプリタ」と「コンパイラ」簡単にまとめ

1年間ブログを継続して思ったこと。感想や収益に関して

SVM、ニューラルネットなどに共通する分類問題における考え方

TensorFlowの強さはコミュニティの大きさ。参加者の人数とレベルがすごい!

中間表現の変化:生データ→自己符号化→ファインチューニングまで

Jupyter notebook の進化版!? JupyterLab

ディープラーニングは動的ネットワーク構築が主流になるか? TensorFlow Fold登場

Chainerが大幅にアップデート!深層学習フレームワークの地位確立なるか?

抑えておきたい評価指標「正解率」「精度」「再現率」

科学技術計算に向いている言語?Julia記事のまとめ

プリンシプル・オブ・プログラミング

誤差逆伝搬法(バックプロパゲーション)とは

IPA:システム監査の受験を目指して

ユーザーローカルのテキストマイニングツール

32bitのノートにAtomを入れてPythonを始める

確率の基本の基本

ラプラス変換とフーリエ変換

法律を使うために、まず憲法を学ぶか

本ブログの記事まとめ

記念すべき(?)100記事目ということで、ブログの記事を見直し、まとめました。 はじめに ニューラルネットワーク関連 ニューラルネットの学習 ニューラルネットの基礎 深層学習への発展 機械学習の基礎数学関連 機械学習と数学の勉強 機械学習に現れる…

ニューラルネットワークの学習の工夫

量子コンピュータとは一体?量子論の基礎

Deep learningに必須なハード:GPU

機械学習の重要なアプローチ:ベイズ理論

サポートベクターマシンを手計算して理解する

バイアス-バリアンス分解:機械学習の性能評価

自動機械学習の登場。深層学習システムを開発する学習ソフトウェア

線形回帰モデルと最小二乗法

はじめに 線形回帰 線形関数 線形回帰の目的 ガウスノイズモデル 最尤推定法 対数尤度 最小二乗法との関係 最小二乗法はどんなときに使えるか 次に読む記事 最尤推定より更に実用上強力なMAP推定 分類問題では最小二乗法は用いない

深層学習のフレームワーク「dynet」

dynet 特徴 Define by Runの方 Chainerよりはモジュールの粒度は低い コードの例 パラメータの準備 計算グラフ構築 学習部分 Define by Runを支えているのは結局ここ 動的にネットワークを変える まとめ dynetドキュメント ドキュメント 技術論文

最大事後確率推定(MAP推定)の基本

はじめに MAP推定とは どちらが優れているか 尤度、事後分布、事前分布 ベルヌーイ分布 パラメータの推定方法の違い 最尤推定と尤度 MAP推定と事後分布 事後分布を見てみる 事前分布 MAP推定 事後分布の最大化 対数を取る 求めたいパラメータで微分する 追加…

TensorFlowを始める知識準備の手順

はじめに 始める前の準備 プログラミング ニューラルネットワーク テンソルのこと 動かしながら検討 様々なタイプのニューラルネット 更に理解を深める