Hadoop Training Courses

Hadoop Training Courses

Lokale, door instructeurs geleide live Apache Hadoop-trainingen demonstreren door middel van interactieve hands-on de kerncomponenten van het Hadoop-ecosysteem en hoe deze technologieën kunnen worden gebruikt om grootschalige problemen op te lossen. Hadoop-training is beschikbaar als 'live training op locatie' of 'live training op afstand'. Onsite live training kan lokaal worden uitgevoerd op het terrein van de klant in Nederland of in NobleProg bedrijfsopleidingscentra in Nederland . Live-training op afstand wordt uitgevoerd via een interactieve, externe desktop. NobleProg - uw lokale trainingsaanbieder

Machine Translated

Getuigenissen

★★★★★
★★★★★

Hadoop Cursusoverzicht

Course Name
Duration
Overview
Course Name
Duration
Overview
21 hours
Python is een schaalbare, flexibele en veelgebruikte programmeringsspraak voor data wetenschap en machine learning. Spark is een gegevensverwerkingsmachine die wordt gebruikt bij het zoeken, analyseren en transformeren van grote gegevens, terwijl Hadoop een software bibliotheek framework is voor grootschalige gegevensopslag en verwerking. Deze instructeur geleide, live training (online of on-site) is gericht op ontwikkelaars die Spark, Hadoop en Python willen gebruiken en integreren om grote en complexe data sets te verwerken, te analyseren en te transformeren. Aan het einde van deze training zullen de deelnemers in staat zijn:
    Stel de nodige omgeving op om te beginnen met het verwerken van grote gegevens met Spark, Hadoop, en Python. Begrijp de kenmerken, kerncomponenten en architectuur van Spark en Hadoop. Leer hoe je Spark, Hadoop, en Python kunt integreren voor big data verwerking. Ontdek de tools in het Spark-ecosysteem (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka en Flume). Maak samenwerkingsfilter aanbevelingssystemen vergelijkbaar met Netflix, YouTube, Amazon, Spotify en Google. Gebruik Apache Mahout om machine learning-algoritmen te scalen.
Format van de cursus
    Interactieve lezingen en discussie. Veel oefeningen en oefeningen. Hand-on implementatie in een live-lab-omgeving.
Cursus aanpassingsopties
    Om een aangepaste training voor deze cursus te vragen, neem dan contact met ons op om te organiseren.
7 hours
This course covers how to use Hive SQL language (AKA: Hive HQL, SQL on Hive, HiveQL) for people who extract data from Hive
14 hours
Datameer is een business intelligence en analytics-platform gebouwd op Hadoop Het stelt eindgebruikers in staat om op grote schaal gemakkelijk toegang te krijgen tot grootschalige, gestructureerde, semigestructureerde en ongestructureerde gegevens, deze te verkennen en te correleren Tijdens deze live training met instructeur leren deelnemers Datameer te gebruiken om de steile leercurve van Hadoop te overwinnen terwijl ze de opstelling en analyse van een reeks big data-bronnen doorlopen Aan het einde van deze training kunnen deelnemers: Creëer, ontwikkel en exploreer interactief een datameer voor bedrijven Toegang tot datawarehouses voor business intelligence, transactiedatabases en andere analytische winkels Gebruik een spreadsheetgebruikersinterface om endtoend gegevensverwerkingspijplijnen te ontwerpen Toegang tot vooraf gebouwde functies om complexe gegevensrelaties te verkennen Gebruik draganddrop-wizards om gegevens te visualiseren en dashboards te maken Gebruik tabellen, grafieken, grafieken en kaarten om queryresultaten te analyseren Publiek Data-analisten Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
21 hours
The course is dedicated to IT specialists that are looking for a solution to store and process large data sets in distributed system environment Course goal: Getting knowledge regarding Hadoop cluster administration
35 hours
Publiek: De cursus is bedoeld voor IT-specialisten die op zoek zijn naar een oplossing voor het opslaan en verwerken van grote gegevenssets in een gedistribueerde systeemomgeving Go al: Diepe kennis van Hadoop clusterbeheer.
28 hours
Audience: This course is intended to demystify big data/hadoop technology and to show it is not difficult to understand.
28 hours
Apache Hadoop is the most popular framework for processing Big Data on clusters of servers. This course will introduce a developer to various components (HDFS, MapReduce, Pig, Hive and HBase) Hadoop ecosystem.  
21 hours
Apache Hadoop is een van de populairste kaders voor het verwerken van Big Data op clusters van servers. Deze cursus gaat in op gegevensbeheer in HDFS, geavanceerde Pig, Hive en HBase. Deze geavanceerde programmeertechnieken zullen voordelig zijn voor ervaren Hadoop ontwikkelaars. Publiek : ontwikkelaars Duur: drie dagen Formaat: hoorcolleges (50%) en hands-on labs (50%).
21 hours
This course introduces HBase – a NoSQL store on top of Hadoop.  The course is intended for developers who will be using HBase to develop applications,  and administrators who will manage HBase clusters. We will walk a developer through HBase architecture and data modelling and application development on HBase. It will also discuss using MapReduce with HBase, and some administration topics, related to performance optimization. The course  is very  hands-on with lots of lab exercises.
Duration : 3 days Audience : Developers  & Administrators
21 hours
Apache Hadoop is het populairste framework voor het verwerken van Big Data op clusters van servers. In deze drie (eventueel vier) dagen cursus, zullen de deelnemers leren over de zakelijke voordelen en use cases voor Hadoop en zijn ecosysteem, hoe cluster inzet en groei plannen, hoe te installeren, onderhouden, monitor, problemen oplossen en optimaliseren van Hadoop . Ze zullen ook oefenen met het bulksgewijs laden van gegevens, vertrouwd Hadoop met verschillende Hadoop distributies en oefenen met het installeren en beheren van Hadoop ecosysteemtools. De cursus eindigt met een bespreking van het beveiligen van cluster met Kerberos. “… De materialen waren zeer goed voorbereid en grondig bedekt. Het lab was erg behulpzaam en goed georganiseerd ”
- Andrew Nguyen, hoofdintegratie DW Engineer, Microsoft Online Advertising Publiek Hadoop beheerders Formaat Lezingen en hands-on labs, bij benadering evenwicht 60% lezingen, 40% labs.
21 hours
Apache Hadoop is the most popular framework for processing Big Data. Hadoop provides rich and deep analytics capability, and it is making in-roads in to tradional BI analytics world. This course will introduce an analyst to the core components of Hadoop eco system and its analytics Audience Business Analysts Duration three days Format Lectures and hands on labs.
21 hours
Hadoop is het meest populaire framework voor Big Data-verwerking .
14 hours
Audience
  • Developers
Format of the Course
  • Lectures, hands-on practice, small tests along the way to gauge understanding
21 hours

Deze cursus is bedoeld voor ontwikkelaars, architecten, datawetenschappers of elk profiel dat intensieve of regelmatige toegang tot gegevens vereist. De belangrijkste focus van de cursus ligt op gegevensmanipulatie en transformatie. Onder de tools in het Hadoop ecosysteem omvat deze cursus het gebruik van Pig en Hive beide veel worden gebruikt voor gegevenstransformatie en -manipulatie. Deze training behandelt ook prestatiestatistieken en prestatie-optimalisatie. De cursus is volledig praktisch en wordt onderbroken door presentaties van de theoretische aspecten.
14 hours
In this instructor-led training in Nederland, participants will learn the core components of the Hadoop ecosystem and how these technologies can be used to solve large-scale problems. By learning these foundations, participants will  improve their ability to communicate with the developers and implementers of these systems as well as the data scientists and analysts that many IT projects involve. Audience
  • Project Managers wishing to implement Hadoop into their existing development or IT infrastructure
  • Project Managers needing to communicate with cross-functional teams that include big data engineers, data scientists and business analysts
14 hours
Apache Samza is een open-source bijna realtime, asynchroon computationeel raamwerk voor stroomverwerking. Het maakt gebruik van Apache Kafka voor berichten en Apache Hadoop YARN voor fouttolerantie, processorisolatie, beveiliging en bronbeheer. Deze instructeur-geleide, live training introduceert de principes achter berichtensystemen en gedistribueerde streamverwerking, terwijl deelnemers worden begeleid door het maken van een voorbeeld van een Samza-gebaseerd project en taakuitvoering. Aan het einde van deze training kunnen deelnemers:
  • Gebruik Samza om de code te vereenvoudigen die nodig is om berichten te produceren en te consumeren.
  • Koppel de afhandeling van berichten van een applicatie los.
  • Gebruik Samza om asynchrone berekening in bijna realtime te implementeren.
  • Gebruik stroomverwerking om een hoger abstractieniveau te bieden dan berichtensystemen.
Publiek
  • ontwikkelaars
Formaat van de cursus
  • Deelcollege, deelbespreking, oefeningen en zware praktijkoefeningen
7 hours
Alluxio is een open-source virtueel gedistribueerd opslagssysteem dat verschillende opslagssystemen verenigt en toepassingen in staat stelt om met gegevens op geheugen snelheid te communiceren. Het wordt gebruikt door bedrijven zoals Intel, Baidu en Alibaba. In deze instructeur geleide, live training, zullen de deelnemers leren hoe te gebruiken Alluxio om verschillende computationele kaders te branden met opslagssystemen en efficiënt te beheren multi-petabyte scale gegevens terwijl ze door de creatie van een applicatie met Alluxio stappen. Aan het einde van deze training zullen de deelnemers in staat zijn:
    Ontwikkelen van een applicatie met Alluxio Connect big data-systemen en applicaties terwijl één naamruimte wordt bewaard Efficiënt waarde extraheren van big data in elk opslagformaat Verbetering van de werkbelastingprestaties Ontwikkelen en beheren Alluxio afzonderlijk of geclassificeerd
Het publiek
    Data wetenschapper Ontwikkelaar Systemadministratie
Format van de cursus
    Deel lezing, deel discussie, oefeningen en zware praktijken
14 hours
Tigon is een opensource, realtime, lowlatency, highthroughput, native YARN, stream processing framework dat bovenop HDFS en HBase voor persistentie zit Tigon-applicaties richten zich op use-cases zoals detectie en analyse van netwerkintrus- sies, marktanalyses van sociale media, locatieanalyses en realtime aanbevelingen aan gebruikers Deze instructieve, live training introduceert Tigon's benadering van het mengen van realtime en batchverwerking terwijl het deelnemers door de creatie van een voorbeeldtoepassing leidt Aan het einde van deze training kunnen deelnemers: Maak krachtige, stroomverwerkingsprogramma's voor het verwerken van grote hoeveelheden gegevens Processtroombronnen zoals Twitter en Webserver Logs Gebruik Tigon voor snel samenvoegen, filteren en aggregeren van streams Publiek ontwikkelaars Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
21 hours
Apache NiFi (Hortonworks DataFlow) is een realtime geïntegreerde datalogistiek en een eenvoudig platform voor gebeurtenisverwerking waarmee gegevens tussen systemen kunnen worden verplaatst, gevolgd en geautomatiseerd. Het is geschreven met behulp van flow-based programmeren en biedt een webgebaseerde gebruikersinterface om gegevensstromen in realtime te beheren. In deze door een instructeur geleide, live training (op locatie of op afstand), leren deelnemers hoe ze Apache NiFi kunnen implementeren en beheren in een live labomgeving. Aan het einde van deze training kunnen deelnemers:
  • Installeer en configureer Apachi NiFi.
  • Bron, transformeer en beheer gegevens uit ongelijksoortige, gedistribueerde gegevensbronnen, waaronder databases en grote gegevensmeren.
  • Automatiseer gegevensstromen.
  • Schakel streaming-analyse in.
  • Pas verschillende benaderingen toe voor gegevensopname.
  • Transformeer Big Data naar zakelijke inzichten.
Indeling van de cursus
  • Interactieve lezing en discussie.
  • Veel oefeningen en oefenen.
  • Praktische implementatie in een live-labomgeving.
Cursusaanpassingsopties
  • Neem contact met ons op om een aangepaste training voor deze cursus aan te vragen.
7 hours
Apache NiFi (Hortonworks DataFlow) is een realtime geïntegreerde datalogistiek en een eenvoudig platform voor gebeurtenisverwerking waarmee gegevens tussen systemen kunnen worden verplaatst, gevolgd en geautomatiseerd. Het is geschreven met behulp van flow-based programmeren en biedt een webgebaseerde gebruikersinterface om gegevensstromen in realtime te beheren. In deze door een instructeur geleide, live training leren deelnemers de basisprincipes van flow-based programmeren bij het ontwikkelen van een aantal demo-extensies, componenten en processors met Apache NiFi . Aan het einde van deze training kunnen deelnemers:
  • Begrijp de architectuur en dataflow-concepten van NiFi.
  • Ontwikkel extensies met behulp van NiFi en API's van derden.
  • Aangepaste ontwikkeling van hun eigen Apache Nifi-processor.
  • Inname en verwerk realtime gegevens uit ongelijksoortige en ongewone bestandsindelingen en gegevensbronnen.
Indeling van de cursus
  • Interactieve lezing en discussie.
  • Veel oefeningen en oefenen.
  • Praktische implementatie in een live-labomgeving.
Cursusaanpassingsopties
  • Neem contact met ons op om een aangepaste training voor deze cursus aan te vragen.
28 hours
Hadoop is een populair Big Data verwerkingskader. Python is een high-level programmering taal beroemd om zijn duidelijke syntax en code leesbaarheid. In deze instructeur geleide, live training, zullen de deelnemers leren hoe te werken met Hadoop, MapReduce, Pig, en Spark met behulp van Python als ze stappen door meerdere voorbeelden en gebruik gevallen. Aan het einde van deze training zullen de deelnemers in staat zijn:
    Begrijp de basisbegrippen achter Hadoop, MapReduce, Pig en Spark Gebruik Python met Hadoop Distributed File System (HDFS), MapReduce, Pig en Spark Gebruik Snakebite om programmatisch toegang te krijgen tot HDFS binnen Python Gebruik mrjob om MapReduce banen te schrijven in Python Schrijf Spark programma's met Python Uitbreid de functionaliteit van varkens met Python UDF's Manage MapReduce banen en Pig scripts met behulp van Luigi
Het publiek
    Ontwikkelaars IT Professionals
Format van de cursus
    Deel lezing, deel discussie, oefeningen en zware praktijken
14 hours
Sqoop is een open source softwaretool voor het overbrengen van gegevens tussen Hadoop en relationele databases of mainframes. Het kan worden gebruikt om gegevens van een relationeel databasebeheersysteem (RDBMS) zoals My SQL of Oracle of een mainframe in het Hadoop Distributed File System (HDFS) te importeren. Daarna kunnen de gegevens worden omgezet in Hadoop MapReduce en vervolgens opnieuw worden geëxporteerd naar een RDBMS. In deze door een instructeur geleide, live training leren deelnemers hoe ze Sqoop kunnen gebruiken om gegevens uit een traditionele relationele database te importeren in Hadoop opslag zoals HDFS of Hive en vice versa. Aan het einde van deze training kunnen deelnemers:
  • Installeer en configureer Sqoop
  • Gegevens importeren uit My SQL naar HDFS en Hive
  • Gegevens importeren uit HDFS en Hive naar My SQL
Publiek
  • Systeembeheerders
  • Data-ingenieurs
Indeling van de cursus
  • Deelcollege, deelbespreking, oefeningen en zware praktijkoefeningen
Notitie
  • Neem contact met ons op om een aangepaste training voor deze cursus aan te vragen.
21 hours
Big data-analyse omvat het proces van het onderzoeken van grote hoeveelheden gevarieerde gegevenssets om correlaties, verborgen patronen en andere nuttige inzichten te ontdekken. De gezondheidsindustrie heeft enorme hoeveelheden complexe heterogene medische en klinische gegevens. Het toepassen van big data-analyses op gezondheidsgegevens biedt een enorm potentieel voor het verkrijgen van inzichten voor het verbeteren van de gezondheidszorg. De enorme omvang van deze datasets vormt echter grote uitdagingen bij analyses en praktische toepassingen in een klinische omgeving. In deze door een instructeur geleide, live training (op afstand), leren deelnemers hoe ze big data-analyses in gezondheid kunnen uitvoeren terwijl ze een reeks praktische live-laboefeningen doorlopen. Aan het einde van deze training kunnen deelnemers:
  • Installeer en configureer big data-analysehulpmiddelen zoals Hadoop MapReduce en Spark
  • Begrijp de kenmerken van medische gegevens
  • Pas big data-technieken toe om met medische gegevens om te gaan
  • Bestudeer big data-systemen en algoritmen in het kader van gezondheidstoepassingen
Publiek
  • ontwikkelaars
  • Data Scientists
Indeling van de cursus
  • Deelcollege, deelbespreking, oefeningen en zware praktijkoefeningen.
Notitie
  • Neem contact met ons op om een aangepaste training voor deze cursus aan te vragen.
35 hours
Apache Hadoop is een populaire gegevensverwerkingskader voor het verwerken van grote dataset over veel computers. Deze instructeur geleide, live training (online of on-site) is gericht op systeemadministratoren die willen leren hoe te installeren, implementeren en beheren Hadoop clusters binnen hun organisatie. Aan het einde van deze training zullen de deelnemers in staat zijn:
    Installeren en configureren van Apache Hadoop. Begrijp de vier belangrijke componenten van het Hadoop ecosysteem: HDFS, MapReduce, YARN en Hadoop Common. Gebruik het Distributed File System (HDFS) om een cluster te scalen tot honderden of duizenden knooppunten.   Installeer HDFS om te werken als opslagmachine voor on-premise Spark deployments. Installeer Spark om toegang te krijgen tot alternatieve opslagoplossingen zoals Amazon S3 en NoSQL databasesystemen zoals Redis, Elasticsearch, Couchbase, Aerospike, etc. Het uitvoeren van administratieve taken zoals het verstrekken, beheren, monitoren en beveiligen van een Apache Hadoop cluster.
Format van de cursus
    Interactieve lezingen en discussie. Veel oefeningen en oefeningen. Hand-on implementatie in een live-lab-omgeving.
Cursus aanpassingsopties
    Om een aangepaste training voor deze cursus te vragen, neem dan contact met ons op om te organiseren.
21 hours
Cloudera Impala is een open source MPP-query-engine (Massively Parallel Processing) SQL voor Apache-clusters Hadoop.Impala stelt gebruikers in staat query's met lage latentie SQL uit te voeren naar gegevens die zijn opgeslagen in Hadoop Distributed File System en Apache Hbase zonder dat gegevensverplaatsing of -transformatie nodig is.PubliekDeze cursus is bedoeld voor analisten en datawetenschappers die analyses uitvoeren op gegevens die zijn opgeslagen in Hadoop via Business Intelligence of SQL tools.Na deze cursus zullen afgevaardigden in staat zijn om
    Extraheer betekenisvolle informatie uit Hadoop clusters met Impala. Schrijf specifieke programma's om Business Intelligence in Impala SQL Dialect te vergemakkelijken. Problemen oplossen Impala.
21 hours
Apache Ambari is een open-source beheerplatform voor het Apache Ambari , beheren, bewaken en beveiligen van Apache Hadoop clusters. In deze door een instructeur geleide live training leren deelnemers de managementtools en -praktijken die Ambari biedt om met succes Hadoop clusters te beheren. Aan het einde van deze training kunnen deelnemers:
  • Zet een live Big Data cluster op met Ambari
  • Pas de geavanceerde functies en functionaliteiten van Ambari toe op verschillende gebruikssituaties
  • Voeg indien nodig naadloos knooppunten toe en verwijder deze
  • Verbeter de prestaties van een Hadoop cluster door afstemmen en tweaken
Publiek
  • DevOps
  • Systeembeheerders
  • DBA
  • Hadoop testprofessionals
Formaat van de cursus
  • Deelcollege, deelbespreking, oefeningen en zware praktijkoefeningen
21 hours
Hortonworks Data Platform (HDP) is een open-source Apache Hadoop ondersteuningsplatform dat een stabiele basis biedt voor het ontwikkelen van big data-oplossingen op het Apache Hadoop ecosysteem. Deze instructeur-geleide, live training (op locatie of op afstand) introduceert Hortonworks Data Platform (HDP) en Hortonworks Data Platform (HDP) deelnemers door de implementatie van de Spark + Hadoop oplossing. Aan het einde van deze training kunnen deelnemers:
  • Gebruik Hortonworks om Hadoop op grote schaal betrouwbaar te runnen.
  • Breng de capaciteiten van Hadoop van beveiliging, beheer en operaties samen met de agile analytische workflows van Spark.
  • Gebruik Hortonworks om alle componenten in een Spark-project te onderzoeken, valideren, certificeren en ondersteunen.
  • Verwerk verschillende soorten gegevens, waaronder gestructureerd, ongestructureerd, in beweging en in rust.
Indeling van de cursus
  • Interactieve lezing en discussie.
  • Veel oefeningen en oefenen.
  • Praktische implementatie in een live-labomgeving.
Cursusaanpassingsopties
  • Neem contact met ons op om een aangepaste training voor deze cursus aan te vragen.

Last Updated:

Aankomende Apache Hadoop cursussen

Weekend Apache Hadoop cursus, Avond Apache Hadoop training, Avond Apache Hadoop opleiding Hadoop boot camp, Apache Hadoop instructeur geleid, Weekend Hadoop training, Avond Apache Hadoop cursus, Hadoop coaching, Apache Hadoop instructeur, Hadoop trainer, Hadoop training cursus, Hadoop lessen, Hadoop on-site, Hadoop privé cursus, Hadoop een op een training, Apache Hadoop op locatie, Weekend Hadoop opleiding

Cursussen met korting

No course discounts for now.

Course Discounts Newsletter

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

Een aantal van onze klanten

This site in other countries/regions