Lokale, door instructeurs geleide live GPU (Graphics Processing Unit) trainingscursussen demonstreren door middel van interactieve discussie en hands-on praktijk de grondbeginselen van GPU en hoe GPU's te programmeren. GPU-training is beschikbaar als 'live training op afstand' of 'live training op locatie'. Online live training (ook bekend als "live training op afstand") wordt uitgevoerd via een interactieve, externe desktop . Live training op locatie kan lokaal worden uitgevoerd op het terrein van de klant in Amsterdam of in NobleProg bedrijfstrainingscentra in Amsterdam. NobleProg -- Uw lokale trainingsaanbieder
Amsterdam
The Office Operators, Piet Heinkade 55, Amsterdam, Nederland, 1019 GM
UP Office Building is gelegen in het centrum van Amsterdam aan de zuidelijke IJ-oever nabij het centraal station. Het UP Office Building maakt onderdeel uit van een multifunctioneel complex waarin onder meer de Passenger Terminal Amsterdam (PTA), het Mövenpick Hotel en het Muziekgebouw zijn ondergebracht. Onder het complex is een openbare parkeergarage met ruim voldoende voor de verhuur beschikbare plaatsen. Vanuit de garage is een directe ingang naar het kantoorgebouw. Met 21 bouwlagen is het UP Office Building het hoogste gebouw in de omgeving en fungeert daarmee als een 'landmark'.
Trainingen bijwonen in Amsterdam Centrum aan de IJ-oever is vergaderen op een super centrale en goed bereikbare locatie. Ons gebouw ligt namelijk op loopafstand – maar gelukkig niet op gehoorafstand -van Amsterdam CS
Openbaar Vervoer
UP Office Building ligt op 12 minuten lopen vanaf Amsterdam Centraal Station. Of neem tram 26, deze stopt voor het gebouw en brengt u in enkele maten naar het station.
Met de auto
Met de auto is het slechts 1 km via A10 afslag S114. Parkeren kan in the Piet Hein garage.
WTC Zuidas
The Office Operators - Amsterdam Zuidas - UN Studio, Parnassusweg 819, Amsterdam, Nederland, 1082 LZ
Ons trainingslocatie in Amsterdam Zuidas WTC heeft 10 verschillende ruimtes en zalen beschikbaar.
Vergaderlocatie Amsterdam ZuidAs WTC is uitstekend bereikbaar met het openbaar vervoer en ligt op loopafstand van trein-, bus- en metrostation ‘Amsterdam Zuid’. Ook met de auto is het WTC Amsterdam perfect bereikbaar. Het meeting- & conference center ligt op een steenworp afstand van de ringweg A10 en de parkeergarage van het WTC Amsterdam biedt ruim voldoende parkeerplaatsen voor u en uw gasten.
De nabij gelegen Station Amsterdam WTC biedt ook direct connecties naar België, Frankrijk en Duitsland.
Sloterdijk
The Office Operators - Amsterdam Sloterdijk - De Millennium Toren, Radarweg 29, 1043 NX Amsterdam, Amsterdam, Nederland, 1043 NX
De Millennium Toren is een absoluut icoon middenin het business district van Amsterdam Sloterdijk. Het op Mondriaans’ Victory Boogiewoogie geïnspireerde gebouw torent boven vele andere uit en is dan ook één van de hoogste gebouwen van Amsterdam. Hierdoor heeft u vanuit uw kantoor een schitterend weids uitzicht over de stad!
Op de begane grond van de Millennium Toren bevindt zich een groot restaurant waar u heerlijk kunt lunchen, een flex area waar u kunt werken in een informele sfeer én heeft u de mogelijkheid om gebruik te maken van de inpandige gym!
De bereikbaarheid van de Millennium Toren is uitstekend, op slechts 500 meter afstand ligt station Amsterdam Sloterdijk en het pand is direct gelegen aan de A5 en de A10. Wanneer u graag buiten de deur eet zijn er meerdere lunchmogelijkheden rondom de Millennium Toren zoals Grand Café Hermes en restaurant en lunchroom Wissekerke.
Amstelveen
Amstelveen NEST, Laan van Kronenburg 14, Amstelveen, Nederland, 1183 AS
In het begin van de 20e eeuw was Amstelveen een eenvoudig landelijk dorp waar de tijd stilstond. Het dorp was enigermate afgelegen, omdat het geen enkele belangrijke spoorweg- of waterverbinding had. De belangrijkste bron van inkomsten was de veeteelt met wat akkerbouw, maar ook de tuinbouw en de bloementeelt waren toen al in opkomst.
In 1852 werd de Haarlemmermeerpolder drooggemalen en is het 'Fort aan het Schiphol' aangelegd als verdedigingswerk voor de hoofdstad Amsterdam. Bij Fort Schiphol, zoals het later werd genoemd, werd in 1916 een militair vliegveld gesticht, Schiphol, dat vier jaar later een burgerluchthaven werd. Fort Schiphol werd in 1934 gesloopt, de ligging is nog zichtbaar in de wijde kom van de Ringvaart onder het viaduct van de A-9. De ontwikkeling van Schiphol trok veel mensen, waarvan velen zich vestigden in Amstelveen. Ook het hoofdkantoor van de KLM werd hier gevestigd. Amstelveen werd de snelst groeiende gemeente van Nederland.
Na de Tweede Wereldoorlog ving Amstelveen een deel van de Amsterdamse woningnood op en werd tevens officieel één van de woongemeenten van Schiphol. Behalve woningen werden de laatste decennia ook veel kantoren; met name voor het handels-, bank- en verzekeringswezen gebouwd. Het telt grote computercentra en hoofdkantoren voor nationale en internationale instellingen. Hier wonen velen die werkzaam zijn op de luchthaven Schiphol. Nest Amstelveen bruist! Maar liefst 260 verschillende bedrijven en ondernemers hebben hier hun intrek genomen.
Nest creëert plekken die mensen en bedrijven helpen om succesvol te kunnen ondernemen en te ontwikkelen. NobleProg maakt dankbaar gebruik van deze dynamische omgeving.
Trainingen op op slechts 5 minuten afstand van de aankomst- en vertrekhal! WTC Schiphol is de meest internationale trainingsplek voor zowel binnenlands al;s buitenlandse deelnemers.
WTC Schiphol Airport is de vestigingslocatie voor grote merken, internationaal georienteerde bedrijven en gedreven ondernemers en biedt directe toegang tot de luchthaven.
Binnen enkele minuten loopt u van uw trainingslocatie naar de Terminal van luchthaven Schiphol, de tweede hub-luchthaven van de wereld.
Schiphol airport is makkelijk bereikbaar zowel met de auto als me het openbaar vervoer en kent volop gelegenheid tot parkeren.
.
Huawei Ascend is een familie van AI-processors ontworpen voor hoogpresterende inferentie en training.
Dit door een instructeur geleide live training (online of op locatie) is bedoeld voor AI-engineers en datawetenschappers op intermiddelair niveau die neural networkmodellen willen ontwikkelen en optimaliseren met behulp van de Huawei Ascend-platform en het CANN toolkit.
Na afloop van deze training kunnen de deelnemers:
De CANN ontwikkelomgeving instellen en configureren.
AI-applicaties ontwikkelen met behulp van MindSpore en CloudMatrix workflows.
Prestatie optimaliseren op Ascend NPUs met behulp van aangepaste operators en tiling.
Modellen implementeren in rand- of cloudomgevingen.
Opzet van de cursus
Interactieve lezingen en discussies.
Praktijkervaring met Huawei Ascend en het CANN toolkit in voorbeeldapplicaties.
Geleid oefenen gericht op modelbouw, training en implementatie.
Aanpasbare opties voor de cursus
Om een aangepaste training voor deze cursus aan te vragen op basis van uw infrastructuur of datasets, neem dan contact met ons op om dit te regelen.
De AI-stack van Huawei — van de laaggeniveau CANN SDK tot het hooggeniveau MindSpore-framework — biedt een strak geïntegreerde AI-ontwikkel- en implementatieomgeving die is geoptimaliseerd voor Ascend-hardware.
Deze door een instructeur geleide live-training (online of ter plaatse) is bedoeld voor technische professionals op beginner- tot gemiddeld niveau die willen begrijpen hoe de CANN en MindSpore-componenten samenwerken om AI-lifecyclebeheer en infrastructuurbeslissingen te ondersteunen.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
Het gelaagde architectuur van de AI-rekenstack van Huawei te begrijpen.
Inzicht te krijgen in hoe CANN modeloptimalisatie en implementatie op hardware-niveau ondersteunt.
Het MindSpore-framework en de toolchain te evalueren in vergelijking met industrie-alternatieven.
De AI-stack van Huawei te positioneren binnen ondernemings- of cloud/ter-plaatse-omgevingen.
Formaat van de cursus
Interactieve lezing en discussie.
Live systeemdemonstraties en gevalsgebaseerde walkthroughs.
Optionele begeleide labs over modelstroom van MindSpore naar CANN.
Opties voor aanpassing van de cursus
Om een aangepaste training voor deze cursus aan te vragen, neem dan contact met ons op om dit te regelen.
Deze live training onder leiding van een instructeur in Amsterdam (online of op locatie) is bedoeld voor ontwikkelaars van beginners tot gemiddeld niveau die OpenACC willen gebruiken om heterogene apparaten te programmeren en hun parallellisme te benutten.
Aan het einde van deze training zijn de deelnemers in staat om:
Stel een ontwikkelomgeving in met OpenACC SDK, een apparaat dat OpenACC ondersteunt, en Visual Studio Code.
Maak een eenvoudig OpenACC-programma dat vectoroptelling uitvoert op het apparaat en de resultaten ophaalt uit het geheugen van het apparaat.
Gebruik OpenACC-richtlijnen en -clausules om de code te annoteren en de parallelle regio's, gegevensverplaatsing en optimalisatieopties op te geven.
Gebruik de OpenACC-API om apparaatgegevens op te vragen, het apparaatnummer in te stellen, fouten af te handelen en gebeurtenissen te synchroniseren.
Gebruik OpenACC-bibliotheken en interoperabiliteitsfuncties om OpenACC te integreren met andere programmeermodellen, zoals CUDA, OpenMP en MPI.
Gebruik OpenACC-tools om OpenACC-programma's te profileren en fouten op te sporen en te identificeren en knelpunten en kansen op het gebied van prestaties te identificeren.
Optimaliseer OpenACC-programma's met behulp van technieken zoals datalokalisatie, lusfusie, kernelfusie en auto-tuning.
Het CANN SDK (Compute Architecture for Neural Networks) biedt krachtige implementatie- en optimalisatiegereedschappen voor real-time AI-applicaties in computer vision en NLP, vooral op Huawei Ascend hardware.
Deze door een instructeur geleide live training (online of op locatie) is gericht op AI-practitioners op intermediair niveau die vision- en taalmodellen willen bouwen, implementeren en optimaliseren met behulp van het CANN SDK voor productiegebruiksscenario’s.
Aan het einde van deze training kunnen de deelnemers:
CV- en NLP-modellen implementeren en optimaliseren met CANN en AscendCL.
CANN gereedschappen gebruiken om modellen te converteren en te integreren in live-pijplijnen.
De inferentieprestaties optimaliseren voor taken zoals detectie, classificatie en sentimentanalyse.
Real-time CV/NLP-pijplijnen bouwen voor edge- of cloudgebaseerde implementatiescenario’s.
Opbouw van de cursus
Interactieve lezing en demonstratie.
Handson lab met modelimplementatie en prestatieprofiling.
Live-pijplijndesign met behulp van echte CV- en NLP-gebruiksscenario’s.
Opties voor cursusaanpassing
Voor een aangepaste training voor deze cursus, neem contact met ons op om dit te regelen.
Deze door een instructeur geleide, live training in Amsterdam (op locatie of op afstand) is gericht op ontwikkelaars op beginners- tot gemiddeld niveau die de basisprincipes van GPU programmeren willen leren en de belangrijkste raamwerken en hulpmiddelen voor het ontwikkelen van GPU applicaties. .
Aan het einde van deze training kunnen deelnemers: Begrijp het verschil tussen CPU en GPU computergebruik en de voordelen en uitdagingen van GPU programmeren.
Kies het juiste raamwerk en de juiste tool voor hun GPU toepassing.
Maak een basisprogramma GPU dat vectoroptelling uitvoert met behulp van een of meer van de raamwerken en hulpmiddelen.
Gebruik de respectievelijke API's, talen en bibliotheken om apparaatinformatie op te vragen, apparaatgeheugen toe te wijzen en de toewijzing daarvan ongedaan te maken, gegevens tussen host en apparaat te kopiëren, kernels te starten en threads te synchroniseren.
Gebruik de respectieve geheugenruimten, zoals globaal, lokaal, constant en privé, om gegevensoverdrachten en geheugentoegang te optimaliseren.
Gebruik de respectieve uitvoeringsmodellen, zoals werkitems, werkgroepen, threads, blokken en rasters, om de parallelliteit te controleren.
Debug en test GPU programma's met behulp van tools zoals CodeXL, CUDA-GDB, CUDA-MEMCHECK en NVIDIA Nsight.
Optimaliseer GPU programma's met behulp van technieken zoals coalescentie, caching, prefetching en profilering.
CANN TIK (Tensor Instruction Kernel) en Apache TVM bieden geavanceerde optimalisatie en aanpassing van AI-modeloperators voor Huawei Ascend hardware.
Deze instructeurgeleide live training (online of op locatie) is gericht op systeembouwers op geavanceerd niveau die custom operators willen bouwen, implementeren en afstellen voor AI-modellen met behulp van het TIK-programmeermodel van CANN en de TVM-compilerintegratie.
Aan het einde van deze training kunnen de deelnemers:
Custom AI-operators schrijven en testen met behulp van de TIK DSL voor Ascend-processoren.
Custom ops integreren in de CANN runtime en uitvoeringsgrafiek.
TVM gebruiken voor operatorplanning, auto-tuning en benchmarking.
Debuggen en optimaliseren van instructieniveauprestaties voor custom berekeningspatronen.
Formaat van de cursus
Interactieve lezing en demonstratie.
Hands-on codering van operators met behulp van TIK- en TVM-pipelines.
Testen en afstellen op Ascend-hardware of simulators.
Opties voor cursusaanpassing
Voor het aanvragen van een aangepaste training voor deze cursus, neem contact met ons op om dit te regelen.
Deze door een instructeur geleide live-training (online of op locatie) is bedoeld voor beginners tot gemiddelde ontwikkelaars die verschillende frameworks willen gebruiken voor GPU programmeren en hun functies, prestaties en compatibiliteit willen vergelijken.
Aan het einde van deze training kunnen de deelnemers:
Een ontwikkelomgeving instellen die OpenCL SDK, CUDA Toolkit, ROCm Platform, een apparaat dat OpenCL, CUDA of ROCm ondersteunt en Visual Studio Code omvat.
Een basis-GPU programma maken dat vectoradditie uitvoert met behulp van OpenCL, CUDA en ROCm, en de syntaxis, structuur en uitvoering van elk framework vergelijken.
De respectieve APIs gebruiken om apparaatinformatie op te vragen, apparaatgeheugen toe te wijzen en vrij te geven, gegevens tussen host en apparaat te kopiëren, kernels te starten en threads te synchroniseren.
De respectieve talen gebruiken om kernels te schrijven die op het apparaat worden uitgevoerd en gegevens manipuleren.
De respectieve ingebouwde functies, variabelen en bibliotheken gebruiken om veelvoorkomende taken en bewerkingen uit te voeren.
De respectieve geheugenruimtes, zoals globaal, lokaal, constant en privé, gebruiken om gegevensoverdrachten en geheugentoegangen te optimaliseren.
De respectieve uitvoeringmodellen gebruiken om de threads, blokken en roosters te controleren die de parallelisme definiëren.
GPU programma's debuggen en testen met behulp van tools zoals CodeXL, CUDA-GDB, CUDA-MEMCHECK en NVIDIA Nsight.
GPU programma's optimaliseren met behulp van technieken zoals samenvoegen, cachen, vooraf laden en profielen.
CloudMatrix is Huawei’s geünificeerde AI-ontwikkelings- en implementatieplatform dat is ontworpen om schaalbare, productie-gerichte inferentie-pipelines te ondersteunen.
Deze door een instructeur geleide live-training (online of op locatie) is bedoeld voor AI-professionals op beginnend tot intermediair niveau die AI-modellen willen implementeren en monitoren met behulp van de CloudMatrix platform met CANN en MindSpore integratie.
Aan het einde van deze training kunnen de deelnemers:
CloudMatrix gebruiken voor modelpakkaging, implementatie en servering.
Modellen converteren en optimaliseren voor Ascend-chipsets.
Pipelines instellen voor real-time en batch-inferentietaken.
Implementaties monitoren en de prestaties aanpassen in productieomgevingen.
Formaat van de cursus
Interactieve lezingen en discussies.
Handsongebruik van CloudMatrix met echte implementatiescenario's.
Geleide oefeningen gericht op conversie, optimalisatie en schaling.
Opties voor cursusaanpassing
Om een aangepaste training voor deze cursus aan te vragen op basis van uw AI-infrastructuur of cloudomgeving, neem dan contact met ons op om dit te regelen.
Het Huawei Ascend CANN toolkit maakt krachtige AI-inferentie mogelijk op randapparaten zoals de Ascend 310. CANN biedt essentiële hulpmiddelen voor het compileren, optimaliseren en implementeren van modellen waar berekenings- en geheugenbeperkingen bestaan.
Deze door een instructeur geleide live-training (online of op locatie) is gericht op AI-ontwikkelaars en integrators op intermiddelair niveau die modellen willen implementeren en optimaliseren op Ascend-randapparaten met behulp van de CANN toolchain.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
AI-modellen voorbereiden en converteren voor Ascend 310 met behulp van CANN hulpmiddelen.
Lichtgewicht inferentie-pijplijnen bouwen met MindSpore Lite en AscendCL.
De prestaties van modellen optimaliseren voor beperkte berekenings- en geheugenomgevingen.
AI-toepassingen implementeren en monitoren in echte randgebruiksgevallen.
Opzet van de cursus
Interactieve lezing en demonstratie.
Handen-aan-praktijkwerk met rand-specifieke modellen en scenario's.
Leefde implementatievoorbeelden op virtuele of fysieke randhardware.
Opties voor cursusaanpassing
Neem contact met ons op om een aangepaste training voor deze cursus aan te vragen.
Deze door een instructeur geleide, live training (op locatie of op afstand) is gericht op ontwikkelaars op beginnersniveau tot op gemiddeld niveau die ROCm op Windows willen installeren en gebruiken om AMD GPU's te programmeren en hun parallellisme te exploiteren.
Aan het einde van deze training kunnen deelnemers:
Zet een ontwikkelomgeving op met ROCm Platform, een AMD GPU en Visual Studio Code op Windows.
Creëer een basis ROCm-programma dat vectoroptelling uitvoert op de GPU en de resultaten ophaalt uit het GPU-geheugen.
Gebruik de ROCm API om apparaatinformatie op te vragen, apparaatgeheugen toe te wijzen en de toewijzing ervan ongedaan te maken, gegevens tussen host en apparaat te kopiëren, kernels te starten en threads te synchroniseren.
Gebruik HIP-taal om kernels te schrijven die worden uitgevoerd op de GPU en gegevens manipuleren.
Gebruik de ingebouwde functies, variabelen en bibliotheken van HIP om algemene taken en bewerkingen uit te voeren.
Gebruik ROCm- en HIP-geheugenruimten, zoals globaal, gedeeld, constant en lokaal, om gegevensoverdracht en geheugentoegang te optimaliseren.
Gebruik ROCm- en HIP-uitvoeringsmodellen om de threads, blokken en rasters te besturen die het parallellisme definiëren.
Debug en test ROCm- en HIP-programma's met behulp van tools zoals ROCm Debugger en ROCm Profiler.
Optimaliseer ROCm- en HIP-programma's met behulp van technieken zoals coalescing, caching, prefetching en profilering.
Deze door een instructeur geleide, live training (op locatie of op afstand) is gericht op ontwikkelaars op beginnersniveau tot op gemiddeld niveau die ROCm en HIP willen gebruiken om AMD GPU's te programmeren en hun parallellisme te exploiteren.
Aan het einde van deze training kunnen deelnemers:
Zet een ontwikkelomgeving op met het ROCm-platform, een AMD GPU en Visual Studio code.
Creëer een basis ROCm-programma dat vectoroptelling uitvoert op de GPU en de resultaten ophaalt uit het GPU-geheugen.
Gebruik de ROCm API om apparaatinformatie op te vragen, apparaatgeheugen toe te wijzen en de toewijzing ervan ongedaan te maken, gegevens tussen host en apparaat te kopiëren, kernels te starten en threads te synchroniseren.
Gebruik HIP-taal om kernels te schrijven die worden uitgevoerd op de GPU en gegevens manipuleren.
Gebruik de ingebouwde functies, variabelen en bibliotheken van HIP om algemene taken en bewerkingen uit te voeren.
Gebruik ROCm- en HIP-geheugenruimten, zoals globaal, gedeeld, constant en lokaal, om gegevensoverdracht en geheugentoegang te optimaliseren.
Gebruik ROCm- en HIP-uitvoeringsmodellen om de threads, blokken en rasters te besturen die het parallellisme definiëren.
Debug en test ROCm- en HIP-programma's met behulp van tools zoals ROCm Debugger en ROCm Profiler.
Optimaliseer ROCm- en HIP-programma's met behulp van technieken zoals coalescing, caching, prefetching en profilering.
CANN (Compute Architecture for Neural Networks) is Huawei’s AI computing toolkit gebruikt om AI-modellen te compileren, te optimaliseren en te implementeren op Ascend AI-processoren.
Dit door een instructeur geleide, live training (online of op locatie) is bedoeld voor beginnende AI-ontwikkelaars die willen begrijpen hoe CANN past in de modellevenscyclus van training tot implementatie en hoe het werkt met frameworks zoals MindSpore, TensorFlow en PyTorch.
Aan het einde van deze training kunnen deelnemers:
Het doel en de architectuur van de CANN toolkit begrijpen.
Een ontwikkelomgeving instellen met CANN en MindSpore.
Een eenvoudig AI-model converteren en implementeren op Ascend-hardware.
Fundamentele kennis opdoen voor toekomstige CANN optimalisatie- of integratieprojecten.
Indeling van de cursus
Interactieve lezingen en discussies.
Handson-labs met eenvoudige modelimplementatie.
Stapsgewijze begeleiding door de CANN toolchain en integratiepunten.
Opties voor cursusaanpassing
Neem contact met ons op om een aangepaste training voor deze cursus aan te vragen.
Ascend, Biren en Cambricon zijn leidende AI-hardwareplatformen in China, elk biedend unieke versnellings- en profieltools voor productieschaal AI-werkbelastingen.
Deze door een docent geleide, live-training (online of op locatie) is gericht op geavanceerde AI-infrastructuur- en prestatie-engineers die modelinferentie- en trainingswerkstromen willen optimaliseren op meerdere Chinese AI-chipplatformen.
Na afloop van deze training kunnen de deelnemers:
Modellen bencheren op Ascend, Biren en Cambricon-platformen.
Systembottleneks en geheugen/verwerkingsinefficiënties identificeren.
Optimisaties op grafiekniveau, kernelniveau en operatorkniveau toepassen.
Implementatiepijplijnen afstellen om doorvoer en latentie te verbeteren.
Formaat van de cursus
Interactieve lezing en discussie.
Handen aan het werk met profiel- en optimalisatietools op elk platform.
Geleide oefeningen gericht op praktische afstellingscenario's.
Opties voor cursusanpassing
Voor een aangepaste training voor deze cursus op basis van uw prestatieomgeving of modeltype, neem dan contact met ons op om dit te regelen.
CANN SDK (Compute Architecture for Neural Networks) is Huawei’s AI compute foundation dat ontwikkelaars in staat stelt om de prestaties van uitgevoerde neurale netwerken op Ascend AI-processoren te verfijnen en te optimaliseren.
Deze door instructeurs geleide live-training (online of op locatie) is bedoeld voor geavanceerde AI-ontwikkelaars en systeemingenieurs die de inferentieprestaties willen optimaliseren met behulp van het geavanceerde gereedschapspakket van CANN, waaronder de Graph Engine, TIK en de ontwikkeling van aangepaste operators.
Na afloop van deze training kunnen de deelnemers:
De runtime-architectuur en prestatiecyclus van CANN begrijpen.
Profileringsinstrumenten en de Graph Engine gebruiken voor prestatieanalyse en optimalisatie.
Aangepaste operators maken en optimaliseren met behulp van TIK en TVM.
Geheugenflessenhalsen oplossen en de modeldoorvoer verbeteren.
Formaat van de cursus
Interactieve lezing en discussie.
Praktijklaboratoria met realtime profileren en operatorafstelling.
Optimalisatieoefeningen met behulp van voorbeelden van randgevallen-implementatie.
Opties voor cursusaanpassing
Neem contact met ons op om een aangepaste training voor deze cursus aan te vragen.
Chinese GPU-architecturen zoals Huawei Ascend, Biren en Cambricon MLU's bieden CUDA-alternatieven die zijn afgestemd op de lokale AI- en HPC-markten.
Deze door een instructeur geleide, live training (online of op locatie) is bedoeld voor geavanceerde GPU-programmeurs en infrastructurspecialisten die bestaande CUDA-toepassingen willen migreren en optimaliseren voor implementatie op Chinese hardwareplatforms.
Aan het einde van deze training zullen de deelnemers in staat zijn om:
De compatibiliteit van bestaande CUDA-werkbelastingen met Chinese chipalternatieven te evalueren.
CUDA-codebases te porten naar Huawei CANN, Biren SDK en Cambricon BANGPy-omgevingen.
De prestaties te vergelijken en optimalisatiepunten te identificeren op verschillende platforms.
Praktische uitdagingen in het ondersteunen en implementeren van cross-architecture te aanpakken.
Formaat van de cursus
Interactieve lezingen en discussies.
Hands-on codevertalings- en prestatievergelingslabs.
Geleide oefeningen met als focus multi-GPU-adaptatiestrategieën.
Cursusaangepaste opties
Om een aangepaste training voor deze cursus aan te vragen op basis van uw platform of CUDA-project, neem dan contact met ons op om dit te regelen.
Deze live training onder leiding van een instructeur in Amsterdam (online of ter plaatse) is bedoeld voor ontwikkelaars van beginners tot gemiddeld niveau die CUDA willen gebruiken om NVIDIA GPUs te programmeren en hun parallellisme te benutten.
Aan het einde van deze training zijn de deelnemers in staat om:
Zet een ontwikkelomgeving op die CUDA Toolkit, een NVIDIA GPU en Visual Studio Code bevat.
Maak een eenvoudig CUDA-programma dat vectoroptelling uitvoert op de GPU en de resultaten uit het GPU-geheugen ophaalt.
Gebruik de CUDA API om apparaatinformatie op te vragen, apparaatgeheugen toe te wijzen en toe te wijzen, gegevens tussen host en apparaat te kopiëren, kernels te starten en threads te synchroniseren.
Gebruik de CUDA C/C++-taal om kernels te schrijven die op de GPU worden uitgevoerd en gegevens te manipuleren.
Gebruik de ingebouwde functies, variabelen en bibliotheken van CUDA om algemene taken en bewerkingen uit te voeren.
Gebruik CUDA-geheugenruimten, zoals globaal, gedeeld, constant en lokaal, om gegevensoverdracht en geheugentoegang te optimaliseren.
Gebruik het CUDA-uitvoeringsmodel om de threads, blokken en rasters te beheren die het parallellisme definiëren.
Fouten opsporen en testen van CUDA-programma's met behulp van hulpprogramma's zoals CUDA-GDB, CUDA-MEMCHECK en NVIDIA Nsight.
Optimaliseer CUDA-programma's met behulp van technieken zoals coalescing, caching, prefetching en profiling.
CANN (Compute Architecture for Neural Networks) is Huawei’s AI-compute stack for deploying and optimizing AI models on Ascend AI processors.
Deze door een instructeur geleide live training (online of op locatie) is bedoeld voor AI-ontwikkelaars en ingenieurs op intermediëren niveau die getrainde AI-modellen efficiënt willen inzetten op Huawei Ascend hardware met behulp van de CANN toolkit en tools zoals MindSpore, TensorFlow, of PyTorch.
Aan het einde van deze training kunnen de deelnemers:
De CANN architectuur en zijn rol in de AI-inzetpijplijn begrijpen.
Modellen van populaire frameworks converteren en aanpassen aan Ascend-compatibele indelingen.
Gebruik maken van tools zoals ATC, OM-modelconversie en MindSpore voor edge- en cloudinferentie.
Inzetproblemen diagnosticeren en de prestaties op Ascend-hardware optimaliseren.
Opzet van de cursus
Interactieve les en demonstratie.
Praktische laboratoriumwerkzaamheden met CANN tools en Ascend-simulators of apparaten.
Praktische inzetscenario’s op basis van echte AI-modellen.
Opties voor cursusaanpassing
Om een aangepaste training voor deze cursus aan te vragen, neem contact met ons op om dit te regelen.
Biren AI Accelerators zijn hoogprestatieapparaten die zijn ontworpen voor AI- en HPC-workloads met ondersteuning voor grootschalig trainen en infereren.
Deze door een instructeur geleide live-training (online of ter plekke) is bedoeld voor ontwikkelaars met een tussen- tot geavanceerd niveau die wensen om applicaties te programmeren en te optimaliseren met behulp van de eigen Biren GPU stack, met praktische vergelijkingen met CUDA-omgevingen.
Aan het einde van deze training zullen deelnemers in staat zijn om:
De Biren GPU architectuur en geheugenhiërarchie te begrijpen.
De ontwikkelomgeving in te stellen en het Biren-programmeringsmodel te gebruiken.
CUDA-stijl code te vertalen en te optimaliseren voor Biren platforms.
Technieken voor prestatie optimalisatie en foutopsporing toe te passen.
Opzet van de cursus
Interactieve les en discussie.
Hands-on gebruik van de Biren SDK in voorbeeld-GPU workloads.
Begeleide oefeningen gericht op porting en prestatie optimalisatie.
Opties voor cursusaanpassing
Om een aangepaste training voor deze cursus aan te vragen op basis van uw applicatiestack of integratiebehoeften, neem dan contact met ons op om te regelen.
Cambricon MLUs (Machine Learning Units) zijn gespecialiseerde AI-chips geoptimaliseerd voor inferentie en training in edge- en datacenterscenario's.
Deze door een instructeur geleide, live training (online of ter plaatse) is gericht op ontwikkelaars op intermediair niveau die AI-modellen willen bouwen en implementeren met behulp van het BANGPy-framework en de Neuware SDK op Cambricon MLU-hardware.
Na afloop van deze training zullen de deelnemers in staat zijn om:
De BANGPy- en Neuware-ontwikkelomgevingen te installeren en configureren.
Python- en C++-gebaseerde modellen te ontwikkelen en te optimaliseren voor Cambricon MLUs.
Modellen te implementeren op edge- en datacenterapparaten die de Neuware-runtime uitvoeren.
ML-workflows te integreren met MLU-specifieke versnellingseigenschappen.
Formaat van de cursus
Interactieve lezingen en discussies.
Handmatige gebruik van BANGPy en Neuware voor ontwikkeling en implementatie.
Geleide oefeningen gericht op optimalisatie, integratie en testen.
Opties voor cursusanpassing
Om een aangepaste training voor deze cursus aan te vragen op basis van uw Cambricon-apparaatmodel of gebruiksscenario, neem dan contact met ons op om dit te regelen.
Deze live training onder leiding van een instructeur in Amsterdam (online of op locatie) is bedoeld voor systeembeheerders en IT-professionals op beginnersniveau die CUDA-omgevingen willen installeren, configureren, beheren en problemen willen oplossen.
Aan het einde van deze training zijn de deelnemers in staat om:
Begrijp de architectuur, componenten en mogelijkheden van CUDA.
Installeer en configureer CUDA-omgevingen.
Beheer en optimaliseer CUDA-bronnen.
Veelvoorkomende CUDA-problemen opsporen en oplossen.
Deze door een instructeur geleide, live training (online of op locatie) is gericht op ontwikkelaars van beginnend tot gemiddeld niveau die OpenCL willen gebruiken om heterogene apparaten te programmeren en hun parallelisme te benutten.
Aan het einde van deze training zullen de deelnemers in staat zijn:
Een ontwikkelomgeving opzetten die de OpenCL SDK, een apparaat dat OpenCL ondersteunt en Visual Studio Code bevat.
Een basis-OpenCLprogramma maken dat vectoradditie op het apparaat uitvoert en de resultaten uit het apparaatgeheugen ophaalt.
De OpenCL API gebruiken om apparaatinformatie op te vragen, contexten, opdrachtwachtrijen, buffers, kernels en gebeurtenissen te creëren.
De OpenCL C-taal gebruiken om kernels te schrijven die op het apparaat worden uitgevoerd en gegevens manipuleren.
De ingebouwde functies, extensies en bibliotheken van OpenCL gebruiken om veelvoorkomende taken en operaties uit te voeren.
De host- en apparaatgeheugenmodellen van OpenCL gebruiken om gegevensoverdrachten en geheugentoegang te optimaliseren.
Het uitvoeringsmodel van OpenCL gebruiken om de werk-items, werkgroepen en ND-ranges te beheersen.
OpenCL-programma's debuggen en testen met behulp van hulpmiddelen zoals CodeXL, Intel VTune en NVIDIA Nsight.
OpenCL-programma's optimaliseren met behulp van technieken zoals vectorisatie, lus-ontwikkeling, lokale geheugen en profileren.
Dit door een instructeur geleide live training in Amsterdam (online of op locatie) is gericht op ontwikkelaars met middelmatige vaardigheden die CUDA willen gebruiken om Python toepassingen te bouwen die parallel op NVIDIA GPUs lopen.
Aan het einde van deze training kunnen deelnemers:
De Numba compiler gebruiken om Python applicaties die draaien op NVIDIA GPUs te versnellen.
Aangepaste CUDA kernels maken, compileren en lanceren.
Het geheugen van GPU beheren.
Een CPU-gebaseerde applicatie omzetten in een GPU-versnelde applicatie.
Deze door een instructeur geleide, live training cursus in Amsterdam behandelt hoe u GPUs programmeert voor parallel computergebruik, hoe u verschillende platforms gebruikt, hoe u met het CUDA-platform en zijn functies werkt, en hoe u verschillende optimalisatietechnieken uitvoert met behulp van CUDA . Enkele van de toepassingen omvatten deep learning, analyses, beeldverwerking en technische toepassingen.
Lees meer...
Laatst bijgewerkt:
Reviews (2)
Zeer interactief met diverse voorbeelden, met een goede progressie in complexiteit tussen start en einde van de training.
Jenny - Andheo
Cursus - GPU Programming with CUDA and Python
Automatisch vertaald
Trainers, energie en humor.
Tadeusz Kaluba - Nokia Solutions and Networks Sp. z o.o.
GPU (Graphics Processing Unit) training cursus in Amsterdam, Graphics Processing Unit opleiding cursus in Amsterdam, Weekend GPU (Graphics Processing Unit) cursus in Amsterdam, Avond GPU training in Amsterdam, Graphics Processing Unit (GPU) instructeur geleid Amsterdam, GPU (Graphics Processing Unit) instructeur in Amsterdam, Graphics Processing Unit (GPU) een op een opleiding in Amsterdam, Weekend Graphics Processing Unit (GPU) training in Amsterdam, GPU privé cursus in Amsterdam, Graphics Processing Unit (GPU) instructeur geleid in Amsterdam,GPU lessen in Amsterdam, GPU (Graphics Processing Unit) coaching in Amsterdam, Graphics Processing Unit (GPU) een op een training in Amsterdam, Graphics Processing Unit (GPU) on-site in Amsterdam, Graphics Processing Unit (GPU) op locatie in Amsterdam, GPU (Graphics Processing Unit) boot camp in Amsterdam, GPU trainer in Amsterdam, Avond Graphics Processing Unit cursus in Amsterdam