Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Cursusaanbod
Introductie
- Kunstmatige neurale netwerken versus op beslissingsbomen gebaseerde algoritmen
Overzicht van XGBoost-functies
- Elements van een Gradient Boosting algoritme
- Focus op rekensnelheid en modelprestaties
- XGBoost vs Logistic Regression, Random Forest, en standaard Gradient Boosting
De evolutie van op bomen gebaseerde algoritmen
- Beslissingsbomen, Zakken, Random Forest, Boosting, Gradient Boosting
- Systeem optimalisatie
- Algoritmische verbeteringen
Voorbereiding van de omgeving
- Installeren SciPy en scikit-learn
Een XGBoost-model maken
- Een dataset downloaden
- Een veelvoorkomend classificatieprobleem oplossen
- Het XGBoost model trainen voor classificatie
- Een veelvoorkomende regressietaak oplossen
Prestaties bewaken
- Prestaties evalueren en rapporteren
- Vroeg stoppen
Objecten plotten op belangrijkheid
- Het belang van een functie berekenen
- Beslissen welke invoervariabelen moeten worden behouden of weggegooid
Gradiëntversterking configureren
- Bekijk de leercurves voor trainings- en validatiedatasets
- Het leertempo aanpassen
- Aantal bomen aanpassen
Hyperparameter-afstemming
- De prestaties van een XGBoost-model verbeteren
- Het ontwerpen van een gecontroleerd experiment om hyperparameters af te stemmen
- Zoeken naar combinaties van parameters
Een pijplijn maken
- Een XGBoost-model opnemen in een end-to-end machine learning-pijplijn
- Hyperparameters afstemmen binnen de pijplijn
- Geavanceerde voorbewerkingstechnieken
Probleemoplossing
Samenvatting en conclusie
Requirements
- Ervaring met het schrijven van machine learning-modellen
Audiëntie
- Datawetenschappers
- Ingenieurs voor machine learning
14 Hours