Course Outline

Introductie

  • Kunstmatige neurale netwerken versus op beslissingsbomen gebaseerde algoritmen

Overzicht van XGBoost-functies

  • Elements van een Gradient Boosting algoritme
  • Focus op rekensnelheid en modelprestaties
  • XGBoost vs Logistic Regression, Random Forest, en standaard Gradient Boosting

De evolutie van op bomen gebaseerde algoritmen

  • Beslissingsbomen, Zakken, Random Forest, Boosten, Gradiënt Boosting
  • Systeem optimalisatie
  • Algoritmische verbeteringen

Voorbereiding van de omgeving

  • Installeren SciPy en scikit-learn

Een XGBoost-model maken

  • Een dataset downloaden
  • Een veelvoorkomend classificatieprobleem oplossen
  • Het XGBoost-model trainen voor classificatie
  • Een veelvoorkomende regressietaak oplossen

Prestaties bewaken

  • Evalueren en rapporteren van prestaties
  • Vroeg stoppen

Objecten plotten op belangrijkheid

  • Functiebelang berekenen
  • Beslissen welke invoervariabelen moeten worden behouden of weggegooid

Gradiëntversterking configureren

  • Bekijk de leercurves voor trainings- en validatiedatasets
  • Het leertempo aanpassen
  • Aantal bomen aanpassen

Hyperparameter-afstemming

  • De prestaties van een XGBoost-model verbeteren
  • Het ontwerpen van een gecontroleerd experiment om hyperparameters af te stemmen
  • SearchCombinaties van parameters

Een pijplijn maken

  • Een XGBoost-model opnemen in een end-to-end machine learning-pijplijn
  • Hyperparameters binnen de pijplijn afstemmen
  • Geavanceerde voorbewerkingstechnieken

Probleemoplossing

Samenvatting en conclusie

Requirements

  • Ervaring met het schrijven van machine learning-modellen

Publiek

  • Datawetenschappers
  • Machine learning-ingenieurs
 14 Hours

Related Courses

Related Categories