【機械学習を始めよう】
2:機械学習入門 / k最近傍法 | 機械学習の手順と基本的なアルゴリズム
5:ロジスティック回帰(前編)| ロジスティック回帰の理論と実装
7:サポートベクトルマシン(前編)| SVMの理論、ハードマージンとソフトマージン
8:サポートベクトルマシン(中編)| ラグランジュの未定乗数法、双体問題
9:サポートベクトルマシン(後編)| カーネル法、多クラス分類・回帰問題
11:アンサンブル学習(前編)| バギング・スタッキング・バンピング、ランダムフォレスト
12:アンサンブル学習(後編)| AdaBoost、勾配ブースティング
16:クラスター分析|階層的クラスタリング、k-meansクラスタリング
【始めて学ぶ深層学習】
1:深層学習とは?|ディープラーニングの意味、ニューラルネットワーク
2:活性化関数|ReLU、シグモイド関数、ソフトマックス関数
3:損失関数_勾配降下法|交差エントロピー誤差、ミニバッチ勾配降下法
【強化学習入門】
Pythonで実装しながら強化学習を学ぶ〜前編〜【機械学習】
Pythonで実装しながら強化学習を学ぶ〜後編〜【機械学習】
PFIセミナー2016_05_19 – A3Cという強化学習アルゴリズムで遊んでみた話
【統計】
【Excelで学ぶ】
Youtubeじゃないけど、無料のビデオレッスン
Neural Network Console (SONY)
Deep Learning入門:今Deep Learningに取り組むべき理由
Deep Learning入門:Deep Learningとは?
Deep Learning入門:Deep Learningでできること
Deep Learning入門:ニューラルネットワーク設計の基礎
Deep Learning入門:層数、ニューロン数を決める指針
Deep Learning入門:ニューラルネットワークの多層化テクニック
Deep Learning入門:ニューラルネットワーク学習の仕組み
Deep Learning入門:Recurrent Neural Networksとは?
Deep Learning入門:Generative Adversarial Networks (GAN)とは?
Deep Learning入門:数式なしで理解するLSTM (Long short-term memory)
Deep Learning入門:Transfer Learning(転移学習)
Deep Learning習得と人材育成のコツ(初学者向け)
ニューラルネットワークの学習に用いるデータの集め方(企業、研究開発機関向け)
Deep Learning精度向上テクニック:様々な活性化関数
Deep Learning精度向上テクニック:様々なCNN #1
Deep Learning精度向上テクニック:様々なCNN #2
Deep Learning精度向上テクニック:様々な CNN #3~複数の解像度を扱う~
Deep Learning精度向上テクニック:様々なCNN #4
Deep Learning精度向上テクニック:様々な最適化手法 #1
Deep Learning精度向上テクニック:Data Augmentation
実践Deep Learning:Autoencoderを用いた教師なし異常検知
実践Deep Learning:Deep Learningで行う予測
実践Deep Learning:セマンティックセグメンテーション
NNCチュートリアル:学習・評価・推論用ネットワークを自在に定義する
NNCチュートリアル:作成した認識機をPythonから利用する方法
NNCチュートリアル:Image Augmentationレイヤーによる画像データの水増し
NNCチュートリアル:アンサンブル学習や複数回評価による手軽な精度向上テクニック
NNCチュートリアル:Exif情報を利用し簡単にオリジナルデータセットを用いた実験を行う
ディープラーニングの世界(AIcia Solid Project)
【深層学習】ディープラーニングとは関数近似器である【ディープラーニングの世界 vol. 1 】
【深層学習】学習 – なぜ必要なのか?何をするのか?【ディープラーニングの世界 vol. 2 】
【深層学習】関数 – なぜ「深さ」が AI を生み出しているのか?【ディープラーニングの世界 vol. 3 】
【深層学習】全結合層 – それはいちばん大事な部品のお話【ディープラーニングの世界 vol. 4 】
【深層学習】畳み込み層の本当の意味、あなたは説明できますか?【ディープラーニングの世界 vol. 5 】
【深層学習】プーリング層 – シンプルだけど大きな役割を担う層【ディープラーニングの世界 vol. 6 】
【深層学習】CNN 実装してみた【ディープラーニングの世界 vol. 7 】
【深層学習】RNN の意味を徹底解説!【ディープラーニングの世界 vol. 8 】
【深層学習】RNN の3通りの使い方 – RNN の混乱ポイントを倒す!【ディープラーニングの世界 vol. 9 】
【深層学習】GRU – RNN に記憶をもたせる試みその1【ディープラーニングの世界 vol. 10 】
【深層学習】LSTM – RNN に記憶をもたせる試みその2【ディープラーニングの世界 vol. 11 】
【深層学習】bi-LSTM – 前後の文脈を利用する Recurrent layer【ディープラーニングの世界 vol. 12 】
【深層学習】CNN紹介 “LeNet” 1990年代に活躍したCNN【ディープラーニングの世界 vol. 13 】
【深層学習】CNN紹介 “AlexNet” 2012年に登場し、画像処理に革命を起こしたモデル【ディープラーニングの世界 vol. 14 】
【深層学習】CNN紹介 “GoogLeNet” ILSVRC2014ををInceptionで制したモデル【ディープラーニングの世界 vol. 15】
【深層学習】 CNN 紹介 “VGGNet” シンプルで強い転移学習の味方【ディープラーニングの世界 vol. 16】
【深層学習】 CNN 紹介 “ResNet” 言わずとしれた CNNの標準技術が登場!【ディープラーニングの世界 vol. 17】
【深層学習】 CNN 紹介 “Xception” 大胆仮説でパラメタ削減と汎化を達成【ディープラーニングの世界 vol. 18】
【深層学習】SENet – 「圧縮興奮機構」による性能向上【ディープラーニングの世界 vol. 19】
【深層学習】RNNLM – 自然言語処理に革命を起こした RNN について【ディープラーニングの世界 vol. 20】
【深層学習】word2vec – 単語の意味を機械が理解する仕組み【ディープラーニングの世界 vol. 21】
【深層学習】word2vec の数理 – なぜ単語の計算が可能なのか【ディープラーニングの世界 vol. 22】
【深層学習】doc2vec – 文章の意味を機械が理解する仕組み【ディープラーニングの世界 vol. 23】
【深層学習】Attention – 全領域に応用され最高精度を叩き出す注意機構の仕組み【ディープラーニングの世界 vol. 24】
【深層学習】fasttext – 単語の内部構造を利用した版 word2vec 【ディープラーニングの世界 vol. 25】
【深層学習】GNMT – Google翻訳の中身を解説!(2016)【ディープラーニングの世界 vol. 26】
【深層学習】SCDV – 文章ベクトルをソフトクラスタとスパース化で精度アップ!【ディープラーニングの世界 vol. 27】
【深層学習】Transformer – Multi-Head Attentionを理解してやろうじゃないの【ディープラーニングの世界vol.28】
【深層学習】忙しい人のための Transformer と Multi-Head Attention【ディープラーニングの世界 vol.29 】
Addition
【機械学習に取り組むあなたにささげる】softmax function について語るよ!【関数がたり】
【相関で情報を圧縮】主成分分析の気持ちを理解する【いろんな分析 vol. 2 】
【もう二度と迷わない】因子分析と主成分分析は何が違うの?【いろんな分析 vol. 3 】
【時系列分析①】漸化式と線型代数その1【特性方程式の謎を解く!】
【ベイズ統計その①】条件付き確率と Bayes の定理【時間の流れを意識せよ!】
【ベイズ統計その②】この推定、もっとももっともらしいってよ…!【最尤推定のお話だよ!】
【ベイズ統計その③】宇宙一わかりやすいベイズ推定【本気の解説】
【ベイズ統計④】ベイズ推定の気持ちと、指数型分布族と、共役事前分布【本気の解説】
【ベイズ統計⑤】ベイズの定理とベイズ統計の気持ち【ベイズってるー?】
【自然言語処理】BLEU – 定義は?どういう意味?何で利用されてるの?【機械翻訳の評価指標】#105 #VRアカデミア
Appendix
Leave a Reply