Cursusaanbod
Module 1: Core Python voor ML Workflows
• Cursus start en omgevingsopzet
Doelstellingen alignen en een reproducerbare Python ML-werkomgeving opzetten
• Python-taalessenties (snelbaan)
Syntaxis, controlestructuren, functies en patronen die vaak in ML-codebases worden gebruikt bekijken
• Gegevensstructuren voor ML
Lijsten, dictionaries, sets en tuples voor kenmerken, labels en metadata
• Comprehensions en functionele tools
Transformaties met comprehensions en hogere-ordefuncties uiten
• Objectgeoriënteerde Python voor ML-ontwikkelaars
Klassen, methoden, compositie en praktische ontwerpbeslissingen
• dataclasses en lichtgewicht modellering
Getypte containers voor configuratie, voorbeelden en resultaten
• Decorators en contextmanagers
Timing, caching, logging en resource-safe uitvoeringspatronen
• Werken met bestanden en paden
Robuuste datasetbehandeling en serialisatieformaten
• Exceptions en defensieve programmering
ML-scripts schrijven die veilig en transparant mislukken
• Modules, packages en projectstructuur
Herbruikbare ML-codebases organiseren
• Typing en codekwaliteit
Type hints, documentatie en lint-friendly structuur
Module 2: Numerieke Python, SciPy en Data Handling
• NumPy-grondslagen voor vectorisatie
Efficiënte array-operaties en performance-aware codering
• Indexeren, slicen, broadcasting en vormen
Veilige tensormanipulatie en vormredenering
• Lineaire algebra essenties met NumPy en SciPy
Stabiele matrixoperaties en decomposities die in ML worden gebruikt
• SciPy-deep dive
Statistiek, optimalisatie, curve fitting en sparse matrices
• Pandas voor tabulaire ML-data
Schoonmaken, joinen, aggregeren en datasets voorbereiden
• scikit-learn-deep dive
Estimator interface, pipelines en reproduceerbare workflows
• Visualisatie essenties
Diagnostische plots voor dataexploratie en modelgedrag
Module 3: Programmeringspatronen voor het bouwen van ML-applicaties
• Van notitieboek naar onderhoudbaar project
Exploratieve code omzetten in gestructureerde pakketten
• Configuratiebeheer
Externe parameters en opstartvalidatie
• Logging, waarschuwingen en observabiliteit
Gestructureerde logging voor debugbare ML-systemen
• Herbruikbare componenten met OOP en compositie
Uitbreidbare transformers en predictors ontwerpen
• Praktische ontwerppatronen
Pipeline, Factory of Registry, Strategy en Adapter patronen
• Data-validatie en schemacontroles
Stilzwijgende data-problemen voorkomen
• Prestatie en profiling
Flessenhalzen identificeren en optimalisatietechnieken toepassen
• Model I/O en inferentieinterfaces
Veilige persistente en schone voorspellingsinterfaces
• End-to-end mini-build
Production-stijl ML-pipeline met configuratie en logging
Module 4: Statistisch leren voor tabulaire, tekst en afbeelding
• Evaluatiegrondslagen
Train- en validatiesplitsen, eerlijke cross-validatie en business-georiënteerde metrieken
• Geavanceerd tabulair ML
Geregulariseerde GLMs, tree ensembles en lekfreie preprocessing
• Calibration en onzekerheid
Platt scaling, isotone regressie, bootstrap en conformal prediction
• Klassieke NLP-methoden
Tokenisatie trade-offs, TF-IDF, lineaire modellen en Naive Bayes
• Topic modelling
LDA-grondslagen en praktische beperkingen
• Klassieke computer vision
HOG, PCA en feature-based pipelines
• Foutanalyse
Bias-detectie, label noise en spurious correlations
• Hands-on labs
Lekfreie tabulaire pipeline
Tekst-baseline vergelijking en interpretatie
Klassieke visie-baseline met gestructureerde foutanalyse
Module 5: Neuraal netwerken voor tabulaire, tekst en afbeelding
• Training loop beheersing
Schone PyTorch-lussen met AMP, clipping en reproduceerbaarheid
• Optimalisatie en regularisatie
Initialisatie, normalisatie, optimalisatoren en planners
• Mixed precision en schaling
Gradient accumulation en checkpointing-strategieën
• Tabulaire neurale netwerken
Categorische embeddings, feature crosses en ablatiestudies
• Tekstuele neurale netwerken
Embeddings, CNNs, BiLSTM of GRU en sequence handling
• Vision neurale netwerken
CNN-grondslagen en ResNet-stijl architecturen
• Hands-on labs
Herbruikbare training framework
Tabulaire NN vs boosting vergelijking
CNN met augmentatie en scheduling experiments
Module 6: Geavanceerde neurale architecturen
• Transfer learning strategieën
Freeze en unfreeze patronen, discriminatieve leersnelheden
• Transformer-architecturen voor tekst
Self-attention interne werking en fine-tuning aanpakken
• Vision backbones en dense prediction
ResNet, EfficientNet, Vision Transformers en U-Net concepten
• Geavanceerde tabulaire architecturen
TabTransformer, FT-Transformer en Deep and Cross networks
• Time series overwegingen
Tijdlijke splitsen en covariate shift detectie
• PEFT en efficiency technieken
LoRA, distillatie en quantisatie trade-offs
• Hands-on labs
Fine-tuning van pretrained text transformer
Fine-tuning van pretrained vision model
Tabulaire transformer vs GBDT vergelijking
Module 7: Generatieve AI-systeem
• Prompting-grondslagen
Gestructureerd prompting en beheersbare generatie
• LLM-grondslagen
Tokenisatie, instructie tuning en hallucinatie mitigatie
• Retrieval-Augmented Generation
Chunking, embeddings, hybrid search en evaluatie-metrieken
• Fine-tuning strategieën
LoRA en QLoRA met datakwaliteitscontroles
• Diffusion modellen
Latent diffusion intuïtie en praktische aanpassing
• Synthetische tabulaire data
CTGAN en privacyoverwegingen
• Hands-on labs
Production-stijl RAG mini-applicatie
Gestructureerde outputvalidatie met schemaenforcement
Optioneel diffusion experiment
Module 8: AI-agents en MCP
• Agent loop design
Observeren, plannen, handelen, reflecteren en behouden
• Agent-architecturen
ReAct, plan-and-execute en multi-agent coordinatie
• Geheugenbeheer
Episodisch, semantisch en scratchpad benaderingen
• Tool-integratie en veiligheid
Tool contracts, sandboxing en prompt injection verdedigingen
• Evaluatieframeworks
Replayable traces, task suites en regression testing
• MCP en protocolgebaseerde interoperabiliteit
MCP-servers ontwerpen met beveiligde tool-exposities
• Hands-on labs
Bouw een agent vanaf scratch
Expose tools via MCP-stijl server
Maak evaluatieharness met veiligheidsbeperkingen
Vereisten
Deelnemers moeten een werkend kennis van Python-programmering hebben.
Dit programma is bedoeld voor technische professionals op middelvorderige tot gevorderde niveau.
Aangepaste bedrijfsopleiding
Opleidingsoplossingen ontworpen exclusief voor bedrijven.
- Aangepaste inhoud: We passen de syllabus en praktijkopdrachten aan naar de echte doelen en behoeften van uw project.
- Voor flexibel schema: Datums en tijden aangepast aan het rooster van uw team.
- Formaat: Online (live), In-company (bij uw kantoren) of Hybride.
Prijs per privégroep, online live training, startend vanaf 8000 € + BTW*
Neem contact met ons op voor een exacte offerte en om onze laatste promoties te horen
Reviews (2)
het ML-ecosysteem niet alleen MLFlow, maar ook Optuna, Hyperopt, Docker en Docker Compose
Guillaume GAUTIER - OLEA MEDICAL
Cursus - MLflow
Automatisch vertaald
Ik vond het leuk om deel te nemen aan het Kubeflow-trainingprogramma dat op afstand plaatsvond. Deze training heeft me geholpen mijn kennis van AWS-services, K8s en alle DevOps-hulpmiddelen rondom Kubeflow te consolideren, die de noodzakelijke basis vormen om het onderwerp adequaat aan te pakken. Ik wil Malawski Marcin bedanken voor zijn geduld en professionaliteit bij het geven van training en advies over beste praktijken. Malawski benadert het onderwerp vanuit verschillende invalshoeken, met verschillende implementatietools zoals Ansible, EKS kubectl en Terraform. Nu ben ik absoluut overtuigd dat ik me in het juiste toepassingsgebied bevind.
Guillaume Gautier - OLEA MEDICAL | Improved diagnosis for life TM
Cursus - Kubeflow
Automatisch vertaald