Course Outline

Invoering

In dit gedeelte vindt u een algemene introductie over wanneer u 'machine learning' moet gebruiken, waar u rekening mee moet houden en wat het allemaal betekent, inclusief de voor- en nadelen. Datatypen (gestructureerd/ongestructureerd/statisch/gestreamd), datavaliditeit/volume, datagestuurde vs. gebruikersgestuurde analyses, statistische modellen vs. machine learning-modellen/uitdagingen van onbewaakt leren, afweging van bias en variantie, iteratie/evaluatie, kruisvalidatiebenaderingen , onder toezicht/zonder toezicht/versterking.

BELANGRIJKE ONDERWERPEN

1. Naïeve Bayes begrijpen

  • Basisconcepten van Bayesiaanse methoden
  • Waarschijnlijkheid
  • Gezamenlijke waarschijnlijkheid
  • Voorwaardelijke waarschijnlijkheid met de stelling van Bayes
  • Het naïeve Bayes-algoritme
  • De naïeve Bayes-classificatie
  • De Laplace-schatter
  • Numerieke functies gebruiken met naïeve Bayes

2. Beslisbomen begrijpen

  • Verdeel en heers
  • Het C5.0-beslissingsboomalgoritme
  • Het kiezen van de beste splitsing
  • Het snoeien van de beslisboom

3. Neurale netwerken begrijpen

  • Van biologische tot kunstmatige neuronen
  • Activeringsfuncties
  • Netwerk topologie
  • Het aantal lagen
  • De richting waarin de informatie zich verplaatst
  • Het aantal knooppunten in elke laag
  • Trainen van neurale netwerken met backpropagatie
  • Deep Learning

4. Ondersteuningsvectormachines begrijpen

  • Classificatie met hypervlakken
  • Het vinden van de maximale marge
  • Het geval van lineair scheidbare gegevens
  • Het geval van niet-lineair scheidbare gegevens
  • Kernels gebruiken voor niet-lineaire ruimtes

5. Clustering begrijpen

  • Clustering als een machine learning-taak
  • Het k-means-algoritme voor clustering
  • Afstand gebruiken om clusters toe te wijzen en bij te werken
  • Het juiste aantal clusters kiezen

6. Prestaties meten voor classificatie

  • Werken met classificatievoorspellingsgegevens
  • Een nadere blik op verwarringsmatrices
  • Gebruik van verwarringsmatrices om de prestaties te meten
  • Naast nauwkeurigheid: andere prestatiemaatstaven
  • De kappa-statistiek
  • Gevoeligheid en specificiteit
  • Precisie en herinnering
  • De F-maat
  • Prestatieafwegingen visualiseren
  • ROC-curven
  • Toekomstige prestaties inschatten
  • De holdout-methode
  • Kruisvalidatie
  • Bootstrap bemonstering

7. Standaardmodellen afstemmen voor betere prestaties

  • Gebruik van caret voor automatische parameterafstemming
  • Een eenvoudig afgestemd model maken
  • Het afstemmingsproces aanpassen
  • Modelprestaties verbeteren met meta-learning
  • Ensembles begrijpen
  • Opzakken
  • Stimuleren
  • Willekeurige bossen
  • Willekeurige bossen trainen
  • Evaluatie van willekeurige bosprestaties

KLEINE ONDERWERPEN

8. Classificatie begrijpen met behulp van de dichtstbijzijnde buren

  • Het kNN-algoritme
  • Afstand berekenen
  • Het kiezen van een geschikte k
  • Gegevens voorbereiden voor gebruik met kNN
  • Waarom is het kNN-algoritme lui?

9. Classificatieregels begrijpen

  • Scheid en verover
  • Het One Rule-algoritme
  • Het RIPPER-algoritme
  • Regels uit beslisbomen

10. Regressie begrijpen

  • Eenvoudige lineaire regressie
  • Gewone schatting van de kleinste kwadraten
  • Correlaties
  • Meerdere lineaire regressie

11. Inzicht in regressiebomen en modelbomen

  • Regressie toevoegen aan bomen

12. Verenigingsregels begrijpen

  • Het Apriori-algoritme voor het leren van associatieregels
  • Het meten van regelinteresse – steun en vertrouwen
  • Het bouwen van een set regels volgens het Apriori-principe

Extra's

  • Spark/PySpark/MLlib en meerarmige bandieten
 21 Hours

Getuigenissen (5)

Related Courses

Related Categories