Youtubeでビデオ・レッスン


Googleのビデオレッスンはこちら


機械学習を始めよう

1:AIとは? | 機械学習とAIの関係/機械学習入門

2:機械学習入門 / k最近傍法 | 機械学習の手順と基本的なアルゴリズム

3:線形回帰(前編)| 線形回帰の理論

4:線形回帰(後編)| 重回帰と正則化

5:ロジスティック回帰(前編)| ロジスティック回帰の理論と実装

6:ロジスティック回帰(後編)| 多項ロジスティック回帰

7:サポートベクトルマシン(前編)| SVMの理論、ハードマージンとソフトマージン

8:サポートベクトルマシン(中編)| ラグランジュの未定乗数法、双体問題

9:サポートベクトルマシン(後編)| カーネル法、多クラス分類・回帰問題

10:決定木(CART)| 決定木の理論と実装

11:アンサンブル学習(前編)| バギング・スタッキング・バンピング、ランダムフォレスト

12:アンサンブル学習(後編)| AdaBoost、勾配ブースティング

13:モデルの評価と選択 | 交差検証、さまざまな評価基準

14:モデルの改良と前処理 |スケーリング、グリッドサーチ

15:次元削減|教師なし学習、主成分分析

16:クラスター分析|階層的クラスタリング、k-meansクラスタリング

 


始めて学ぶ深層学習

1:深層学習とは?|ディープラーニングの意味、ニューラルネットワーク

2:活性化関数|ReLU、シグモイド関数、ソフトマックス関数

3:損失関数_勾配降下法|交差エントロピー誤差、ミニバッチ勾配降下法

4:誤差逆伝播法|バックプロパゲーション

5:深層学習の実装|深層学習フレームワーク、Keras

 


【強化学習入門】

Pythonで実装しながら強化学習を学ぶ〜前編〜【機械学習】

Pythonで実装しながら強化学習を学ぶ〜後編〜【機械学習】

PFIセミナー2016_05_19 – A3Cという強化学習アルゴリズムで遊んでみた話


統計

回帰分析 1/4

回帰分析 2/4

回帰分析 3/4

回帰分析 4/4

 

主成分分析 1/3

主成分分析 2/3

主成分分析 3/3


Excelで学ぶ

重回帰分析

 


Youtubeじゃないけど、無料のビデオレッスン

 


Neural Network Console (SONY)

Deep Learning入門:今Deep Learningに取り組むべき理由

Deep Learning入門:Deep Learningとは?

Deep Learning入門:Deep Learningでできること

Deep Learning入門:ニューラルネットワーク設計の基礎

Deep Learning入門:層数、ニューロン数を決める指針

Deep Learning入門:ニューラルネットワークの多層化テクニック

Deep Learning入門:ニューラルネットワーク学習の仕組み

Deep Learning入門:Recurrent Neural Networksとは?

Deep Learning入門:Generative Adversarial Networks (GAN)とは?

Deep Learning入門:数式なしで理解するLSTM (Long short-term memory)

Deep Learning入門:Transfer Learning(転移学習)

量子化によるニューラルネットワークのコンパクト化

Deep Learning入門:Attention(注意)

Deep Learning入門:マルチタスク学習

 

Deep Learning習得と人材育成のコツ(初学者向け)

ニューラルネットワークの学習に用いるデータの集め方(企業、研究開発機関向け)

 

Deep Learning精度向上テクニック:様々な活性化関数

Deep Learning精度向上テクニック:様々なCNN #1

Deep Learning精度向上テクニック:様々なCNN #2

Deep Learning精度向上テクニック:様々な CNN #3~複数の解像度を扱う~ 

Deep Learning精度向上テクニック:様々なCNN #4

Deep Learning精度向上テクニック:様々な最適化手法 #1

Deep Learning精度向上テクニック:Data Augmentation

 

実践Deep Learning:Autoencoderを用いた教師なし異常検知

実践Deep Learning:物体検出

実践Deep Learning:Deep Learningで行う予測

実践Deep Learning:セマンティックセグメンテーション

 

 

NNCチュートリアル:学習・評価・推論用ネットワークを自在に定義する

NNCチュートリアル:テンソルを自在に操る

NNCチュートリアル:画像認識用データセットを作成するには

NNCチュートリアル:作成した認識機をPythonから利用する方法

NNCチュートリアル:Image Augmentationレイヤーによる画像データの水増し

NNCチュートリアル:Autoencoderによる異常検知

NNCチュートリアル:Cutoutによる画像データの水増し

NNCチュートリアル:ベクトルの分類

NNCチュートリアル:アンサンブル学習や複数回評価による手軽な精度向上テクニック

NNCチュートリアル:Exif情報を利用し簡単にオリジナルデータセットを用いた実験を行う

 


ディープラーニングの世界(AIcia Solid Project)

 

【深層学習】ディープラーニングとは関数近似器である【ディープラーニングの世界 vol. 1 】

【深層学習】学習 – なぜ必要なのか?何をするのか?【ディープラーニングの世界 vol. 2 】

【深層学習】関数 – なぜ「深さ」が AI を生み出しているのか?【ディープラーニングの世界 vol. 3 】

【深層学習】全結合層 – それはいちばん大事な部品のお話【ディープラーニングの世界 vol. 4 】

【深層学習】畳み込み層の本当の意味、あなたは説明できますか?【ディープラーニングの世界 vol. 5 】

【深層学習】プーリング層 – シンプルだけど大きな役割を担う層【ディープラーニングの世界 vol. 6 】

【深層学習】CNN 実装してみた【ディープラーニングの世界 vol. 7 】

【深層学習】RNN の意味を徹底解説!【ディープラーニングの世界 vol. 8 】

【深層学習】RNN の3通りの使い方 – RNN の混乱ポイントを倒す!【ディープラーニングの世界 vol. 9 】

【深層学習】GRU – RNN に記憶をもたせる試みその1【ディープラーニングの世界 vol. 10 】

【深層学習】LSTM – RNN に記憶をもたせる試みその2【ディープラーニングの世界 vol. 11 】

【深層学習】bi-LSTM – 前後の文脈を利用する Recurrent layer【ディープラーニングの世界 vol. 12 】

【深層学習】CNN紹介 “LeNet” 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】

【深層学習】CNN紹介 “AlexNet” 2012年に登場し、画像処理に革命を起こしたモデル【ディープラーニングの世界 vol. 14 】

【深層学習】CNN紹介 “GoogLeNet” ILSVRC2014ををInceptionで制したモデル【ディープラーニングの世界 vol. 15】

【深層学習】 CNN 紹介 “VGGNet” シンプルで強い転移学習の味方【ディープラーニングの世界 vol. 16】

【深層学習】 CNN 紹介 “ResNet” 言わずとしれた CNNの標準技術が登場!【ディープラーニングの世界 vol. 17】

【深層学習】 CNN 紹介 “Xception” 大胆仮説でパラメタ削減と汎化を達成【ディープラーニングの世界 vol. 18】

【深層学習】SENet – 「圧縮興奮機構」による性能向上【ディープラーニングの世界 vol. 19】

【深層学習】RNNLM – 自然言語処理に革命を起こした RNN について【ディープラーニングの世界 vol. 20】

【深層学習】word2vec – 単語の意味を機械が理解する仕組み【ディープラーニングの世界 vol. 21】

【深層学習】word2vec の数理 – なぜ単語の計算が可能なのか【ディープラーニングの世界 vol. 22】

【深層学習】doc2vec – 文章の意味を機械が理解する仕組み【ディープラーニングの世界 vol. 23】

【深層学習】Attention – 全領域に応用され最高精度を叩き出す注意機構の仕組み【ディープラーニングの世界 vol. 24】

【深層学習】fasttext – 単語の内部構造を利用した版 word2vec 【ディープラーニングの世界 vol. 25】

【深層学習】GNMT – Google翻訳の中身を解説!(2016)【ディープラーニングの世界 vol. 26】

【深層学習】SCDV – 文章ベクトルをソフトクラスタとスパース化で精度アップ!【ディープラーニングの世界 vol. 27】

【深層学習】Transformer – Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】

【深層学習】忙しい人のための Transformer と Multi-Head Attention【ディープラーニングの世界 vol.29 】

 

Addition

【機械学習に取り組むあなたにささげる】softmax function について語るよ!【関数がたり】

【相関で情報を圧縮】主成分分析の気持ちを理解する【いろんな分析 vol. 2 】

【もう二度と迷わない】因子分析と主成分分析は何が違うの?【いろんな分析 vol. 3 】

【時系列分析①】漸化式と線型代数その1【特性方程式の謎を解く!】

 

【ベイズ統計その①】条件付き確率と Bayes の定理【時間の流れを意識せよ!】

【ベイズ統計その②】この推定、もっとももっともらしいってよ…!【最尤推定のお話だよ!】

【ベイズ統計その③】宇宙一わかりやすいベイズ推定【本気の解説】

【ベイズ統計④】ベイズ推定の気持ちと、指数型分布族と、共役事前分布【本気の解説】

【ベイズ統計⑤】ベイズの定理とベイズ統計の気持ち【ベイズってるー?】

 

【自然言語処理】BLEU – 定義は?どういう意味?何で利用されてるの?【機械翻訳の評価指標】#105 #VRアカデミア

 

Appendix

内積とは?

 


 

Be the first to comment

Leave a Reply

Your email address will not be published.


*