Thank you for sending your enquiry! One of our team members will contact you shortly.
Thank you for sending your booking! One of our team members will contact you shortly.
Course Outline
Introductie
- Kunstmatige neurale netwerken versus op beslissingsbomen gebaseerde algoritmen
Overzicht van XGBoost-functies
- Elements van een Gradient Boosting algoritme
- Focus op rekensnelheid en modelprestaties
- XGBoost vs Logistic Regression, Random Forest, en standaard Gradient Boosting
De evolutie van op bomen gebaseerde algoritmen
- Beslissingsbomen, Zakken, Random Forest, Boosten, Gradiënt Boosting
- Systeem optimalisatie
- Algoritmische verbeteringen
Voorbereiding van de omgeving
- Installeren SciPy en scikit-learn
Een XGBoost-model maken
- Een dataset downloaden
- Een veelvoorkomend classificatieprobleem oplossen
- Het XGBoost-model trainen voor classificatie
- Een veelvoorkomende regressietaak oplossen
Prestaties bewaken
- Evalueren en rapporteren van prestaties
- Vroeg stoppen
Objecten plotten op belangrijkheid
- Functiebelang berekenen
- Beslissen welke invoervariabelen moeten worden behouden of weggegooid
Gradiëntversterking configureren
- Bekijk de leercurves voor trainings- en validatiedatasets
- Het leertempo aanpassen
- Aantal bomen aanpassen
Hyperparameter-afstemming
- De prestaties van een XGBoost-model verbeteren
- Het ontwerpen van een gecontroleerd experiment om hyperparameters af te stemmen
- SearchCombinaties van parameters
Een pijplijn maken
- Een XGBoost-model opnemen in een end-to-end machine learning-pijplijn
- Hyperparameters binnen de pijplijn afstemmen
- Geavanceerde voorbewerkingstechnieken
Probleemoplossing
Samenvatting en conclusie
Requirements
- Ervaring met het schrijven van machine learning-modellen
Publiek
- Datawetenschappers
- Machine learning-ingenieurs
14 Hours