Cursusaanbod

Introductie

  • Kunstmatige neurale netwerken versus op beslissingsbomen gebaseerde algoritmen

Overzicht van XGBoost-functies

  • Elements van een Gradient Boosting algoritme
  • Focus op rekensnelheid en modelprestaties
  • XGBoost vs Logistic Regression, Random Forest, en standaard Gradient Boosting

De evolutie van op bomen gebaseerde algoritmen

  • Beslissingsbomen, Zakken, Random Forest, Boosting, Gradient Boosting
  • Systeem optimalisatie
  • Algoritmische verbeteringen

Voorbereiding van de omgeving

  • Installeren SciPy en scikit-learn

Een XGBoost-model maken

  • Een dataset downloaden
  • Een veelvoorkomend classificatieprobleem oplossen
  • Het XGBoost model trainen voor classificatie
  • Een veelvoorkomende regressietaak oplossen

Prestaties bewaken

  • Prestaties evalueren en rapporteren
  • Vroeg stoppen

Objecten plotten op belangrijkheid

  • Het belang van een functie berekenen
  • Beslissen welke invoervariabelen moeten worden behouden of weggegooid

Gradiëntversterking configureren

  • Bekijk de leercurves voor trainings- en validatiedatasets
  • Het leertempo aanpassen
  • Aantal bomen aanpassen

Hyperparameter-afstemming

  • De prestaties van een XGBoost-model verbeteren
  • Het ontwerpen van een gecontroleerd experiment om hyperparameters af te stemmen
  • Zoeken naar combinaties van parameters

Een pijplijn maken

  • Een XGBoost-model opnemen in een end-to-end machine learning-pijplijn
  • Hyperparameters afstemmen binnen de pijplijn
  • Geavanceerde voorbewerkingstechnieken

Probleemoplossing

Samenvatting en conclusie

Requirements

  • Ervaring met het schrijven van machine learning-modellen

Audiëntie

  • Datawetenschappers
  • Ingenieurs voor machine learning
 14 Hours

Voorlopige Aankomende Cursussen