コース概要

DAY 1 - ARTIFICIAL NEURAL NETWORKS

導入とANNの構造。

  • 生体ニューロンと人工ニューロン。
  • ANNのモデル。
  • ANNで使用される活性化関数。
  • 典型的なネットワークアーキテクチャのクラス。

数学的基礎と学習メカニズム。

  • ベクトルと行列代数の再確認。
  • 状態空間概念。
  • 最適化の概念。
  • 誤差訂正学習。
  • 記憶ベースの学習。
  • ヒーブ学習。
  • 競合学習。

単層パーセプトロン。

  • パーセプトロンの構造と学習。
  • パターン分類器 - 導入とベイズ分類器。
  • パーセプトロンとしてのパターン分類器。
  • パーセプトロンの収束性。
  • パーセプトロンの制限。

フィードフォワードANN。

  • マルチレイヤーフィードフォワードネットワークの構造。
  • バックプロパゲーションアルゴリズム。
  • バックプロパゲーション - 学習と収束。
  • バックプロパゲーションによる関数近似。
  • バックプロパゲーション学習の実践的および設計上の問題。

ラジアルベース関数ネットワーク。

  • パターン分離と補間。
  • 正則化理論。
  • 正則化とRBFネットワーク。
  • RBFネットワークの設計と学習。
  • RBFの近似特性。

競合学習と自己組織化ANN。

  • 一般的なクラスタリング手順。
  • ベクトル量子化(LVQ)。
  • 競合学習アルゴリズムとアーキテクチャ。
  • 自己組織化特徴マップ。
  • 特徴マップの特性。

ファジィニューラルネットワーク。

  • ニューファジー・システム。
  • ファジィ集合と論理の背景。
  • ファジィステムの設計。
  • ファジィANNの設計。

アプリケーション

  • ニューラルネットワークのいくつかの応用例、その利点と問題について議論します。

DAY -2 MACHINE LEARNING

  • PAC学習フレームワーク
    • 有限な仮説集合 - 一貫性がある場合の保証
    • 有限な仮説集合 - 一貫性がない場合の保証
    • 一般的な事項
      • 確定的なシナリオと確率的なシナリオ
      • ベイズ誤差ノイズ
      • 推定誤差と近似誤差
      • モデル選択
  • ラドマッチャー複雑さとVC次元
  • Bias - Varianceトレードオフ
  • 正則化
  • 過学習
  • 検証
  • サポートベクターマシン
  • Kriging(ガウス過程回帰)
  • PCAとカーネルPCA
  • 自己組織化マップ(SOM)
  • カーネル誘導ベクトル空間
    • Mercerカーネルとカーネル誘導の類似性指標
  • 強化学習

DAY 3 - DEEP LEARNING

これは1日目と2日目に扱われたトピックに関連して教えられます。

  • ロジスティック回帰とソフトマックス回帰
  • 疎結合オートエンコーダー
  • ベクトル化、PCA、ホワイトニング
  • 自己教師学習
  • 深層ネットワーク
  • 線形デコーダー
  • 畳み込みとプーリング
  • 疎結合符号化
  • 独立成分分析
  • 正準相関分析
  • デモとアプリケーション

要求

数学の理解力。

基本統計の理解力。

プログラミングスキルは必須ではありませんが、推奨されます。

 21 時間

参加者の人数


参加者1人当たりの料金

お客様の声 (2)

今後のコース

関連カテゴリー