Course Outline

DAG 1 - KUNSTMATIGE NEURALE NETWERKEN

Inleiding en ANN-structuur.

    Biologische neuronen en kunstmatige neuronen. Model van een ANN. Activeringsfuncties gebruikt in ANN's. Typische klassen van netwerkarchitecturen.

Mathematical Grondslagen en leermechanismen.

    Opnieuw bezoeken van vector- en matrixalgebra. Concepten van staatsruimte. Concepten van optimalisatie. Foutcorrectie leren. Op geheugen gebaseerd leren. Hebbisch leren. Competitief leren.

Perceptronen met één laag.

    Structuur en leren van perceptrons. Patroonclassificator - introductie en de classificatoren van Bayes. Perceptron als patroonclassificator. Perceptron-convergentie. Beperkingen van een perceptron.

Feedforward ANN.

    Structuren van meerlaagse feedforward-netwerken. Algoritme voor terugpropagatie. Rugvoortplanting - training en convergentie. Functionele benadering met achterwaartse voortplanting. Praktische en ontwerpkwesties van achterwaarts propagatieleren.

Radiale basisfunctienetwerken.

    Patroonscheidbaarheid en interpolatie. Regularisatietheorie. Regularisatie en RBF-netwerken. RBF netwerkontwerp en training. Benaderingseigenschappen van RBF.

Competitief leren en zelforganiserend ANN.

    Algemene clusteringprocedures. Vectorkwantisering (LVQ) leren. Competitieve leeralgoritmen en architecturen. Zelforganiserende functiekaarten. Eigenschappen van featurekaarten.

Wazig Neural Networks.

    Neuro-fuzzy systemen. Achtergrond van vage sets en logica. Ontwerp van pluizige stengels. Ontwerp van vage ANN's.

Toepassingen

    Een paar voorbeelden van Neural Network-toepassingen, hun voordelen en problemen zullen worden besproken.

DAG -2 MACHINELEREN

    Het PAC Learning Framework Garanties voor een eindige hypotheseset – consistent geval Garanties voor een eindige hypotheseset – inconsistent geval Algemeenheden Deterministisch cv. Stochastische scenario's Bayes-foutruis Schattings- en benaderingsfouten Modelselectie
Radmeacher Complexiteit en VC – DimensieBias - Variantie-afweging
  • Regularisatie
  • Overpassend
  • Geldigmaking
  • Ondersteuning van vectormachines
  • Kriging (Gaussiaanse procesregressie)
  • PCA en Kernel-PCA
  • Zelforganisatiekaarten (SOM)
  • Kernel-geïnduceerde vectorruimte Mercer Kernels en Kernel-geïnduceerde gelijkenismetrieken
  • Reinforcement Learning
  • DAG 3 - DIEP LEREN
  • Dit wordt onderwezen in relatie tot de onderwerpen die op dag 1 en dag 2 aan bod komen
  • Logistieke en Softmax-regressie Sparse auto-encoders Vectorisatie, PCA en whitening Autodidactisch leren Diepe netwerken Lineaire decoders Convolutie en pooling Sparse codering Onafhankelijke componentanalyse Canonieke correlatieanalyse Demo's en toepassingen
  • Requirements

    Goed inzicht in wiskunde.

    Gogoed begrip van basisstatistieken.

    Basis programmeervaardigheden zijn niet vereist, maar wel aanbevolen.

      21 Hours

    Getuigenissen (2)

    Related Courses

    Related Categories