Big Data Training Courses

Big Data Training Courses

Lokale, door een instructeur geleide, live Big Data-trainingen beginnen met een inleiding tot elementaire concepten van Big Data en vervolgens de voortgang in de programmeertalen en -methodieken die worden gebruikt om gegevensanalyse uit te voeren. Tools en infrastructuur voor het inschakelen van Big Data-opslag, gedistribueerde verwerking en schaalbaarheid worden besproken, vergeleken en geïmplementeerd in demo-oefensessies. Big Data-training is beschikbaar als 'live training op locatie' of 'live training op afstand'. Onsite live training kan lokaal worden uitgevoerd op het terrein van de klant in Nederland of in NobleProg bedrijfsopleidingscentra in Nederland . Live-training op afstand wordt uitgevoerd via een interactieve, externe desktop. NobleProg - uw lokale trainingsaanbieder

Getuigenissen

★★★★★
★★★★★

Big Data Cursusoverzicht

CodeNaamTijdsduurOverzicht
smtwebintSemantic Web Overview7 uurThe Semantic Web is een samenwerkingsverband onder leiding van het World Wide Web Consortium (W3C) dat veelgebruikte formaten voor gegevens op het World Wide Web promoot. Het Semantic Web biedt een gemeenschappelijk raamwerk waarmee gegevens kunnen worden gedeeld en hergebruikt over grenzen van toepassingen, ondernemingen en gemeenschappen.
tigonTigon: Real-time Streaming for the Real World14 uurTigon is een opensource, realtime, lowlatency, highthroughput, native YARN, stream processing framework dat bovenop HDFS en HBase voor persistentie zit Tigon-applicaties richten zich op use-cases zoals detectie en analyse van netwerkintrus- sies, marktanalyses van sociale media, locatieanalyses en realtime aanbevelingen aan gebruikers Deze instructieve, live training introduceert Tigon's benadering van het mengen van realtime en batchverwerking terwijl het deelnemers door de creatie van een voorbeeldtoepassing leidt Aan het einde van deze training kunnen deelnemers: Maak krachtige, stroomverwerkingsprogramma's voor het verwerken van grote hoeveelheden gegevens Processtroombronnen zoals Twitter en Webserver Logs Gebruik Tigon voor snel samenvoegen, filteren en aggregeren van streams Publiek ontwikkelaars Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
BDATRBig Data Analytics for Telecom Regulators16 uurOm te voldoen aan de voorschriften van de regulatoren, kunnen CSP's (Communication Service Providers) gebruikmaken van Big Data-analyse die hen niet alleen helpt om aan de compliantie te voldoen, maar ook binnen de reikwijdte daarvan valt project kunnen ze de klanttevredenheid verhogen en zo de churn verminderen Eigenlijk sindsdien naleving is gerelateerd aan Quality of Service gebonden aan een contract, elk initiatief om de naleving, zal het "concurrentievoordeel" van de CSP's verbeteren Daarom is het belangrijk dat Regelgevende instanties moeten in staat zijn om een ​​aantal Big Data-analysepraktijken voor CSP's te adviseren / begeleiden die dat wel zullen doen van wederzijds voordeel zijn tussen de regelgevende instanties en de CSP's 2 dagen natuurlijk: 8 modules, 2 uur elk = 16 uur .
graphcomputingIntroduction to Graph Computing28 uurEen groot aantal echte wereldproblemen kan worden beschreven in termen van grafieken Bijvoorbeeld de webgrafiek, de sociale netwerkgrafiek, de treinnetwerkgrafiek en de taalgrafiek Deze grafieken zijn over het algemeen extreem groot; de verwerking ervan vereist een gespecialiseerde set van tools en processen Deze tools en processen kunnen worden aangeduid als Graph Computing (ook bekend als Graph Analytics) Tijdens deze live training met instructeur leren deelnemers over het technologische aanbod en de implementatiebenaderingen voor het verwerken van grafiekgegevens Het doel is om realworld-objecten, hun kenmerken en relaties te identificeren, vervolgens deze relaties te modelleren en ze als gegevens te verwerken met behulp van een grafische computing-aanpak We beginnen met een breed overzicht en beperken ons tot specifieke tools terwijl we een reeks casestudy's, handsonoefeningen en live-implementaties doorlopen Aan het einde van deze training kunnen deelnemers: Begrijp hoe grafiekgegevens worden behouden en doorlopen Selecteer het beste raamwerk voor een bepaalde taak (van grafiedatabases tot kaders voor batchverwerking) Implementeer Hadoop, Spark, GraphX ​​en Pregel voor het tegelijkertijd uitvoeren van graafcomputers op veel verschillende machines Bekijk realworld big data-problemen in termen van grafieken, processen en traversalen Publiek ontwikkelaars Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
matlabpredanalyticsMatlab for Predictive Analytics21 uurVoorspellende analyses zijn het gebruik van gegevensanalyses om voorspellingen over de toekomst te doen Dit proces gebruikt gegevens samen met datamining, statistieken en machinale leertechnieken om een ​​voorspellend model te maken voor het voorspellen van toekomstige gebeurtenissen Tijdens deze live training met instructeur leren deelnemers Matlab te gebruiken om voorspellende modellen te bouwen en deze toe te passen op grote voorbeeldgegevenssets om toekomstige gebeurtenissen te voorspellen op basis van de gegevens Aan het einde van deze training kunnen deelnemers: Creëer voorspellende modellen om patronen in historische en transactionele gegevens te analyseren Gebruik voorspellende modellering om risico's en kansen te identificeren Bouw wiskundige modellen die belangrijke trends vastleggen Gebruik gegevens van apparaten en bedrijfssystemen om afval te verminderen, tijd te besparen of kosten te besparen Publiek ontwikkelaars ingenieurs Domein experts Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
nifidevApache NiFi for Developers7 uurApache NiFi (Hortonworks DataFlow) is een realtime geïntegreerde datalogistiek en een eenvoudig platform voor evenementverwerking dat het verplaatsen, volgen en automatiseren van gegevens tussen systemen mogelijk maakt Het is geschreven met behulp van flowbased programmering en biedt een webgebaseerde gebruikersinterface om dataflows in realtime te beheren In deze live training met instructeur leren deelnemers de basisbeginselen van flowbased programmeren bij het ontwikkelen van een aantal demo-uitbreidingen, componenten en processors met Apache NiFi Aan het einde van deze training kunnen deelnemers: De architectuur- en dataflowconcepten van NiFi begrijpen Ontwikkel uitbreidingen met behulp van NiFi en thirdparty API's Op maat ontwikkelen van hun eigen Apache Nifi-processor In realtime gegevens opnemen en verwerken van ongelijksoortige en ongebruikelijke bestandsindelingen en gegevensbronnen Publiek ontwikkelaars Gegevensingenieurs Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
nifiApache NiFi for Administrators21 uurApache NiFi (Hortonworks DataFlow) is een realtime geïntegreerde datalogistiek en een eenvoudig platform voor evenementverwerking dat het verplaatsen, volgen en automatiseren van gegevens tussen systemen mogelijk maakt Het is geschreven met behulp van flowbased programmering en biedt een webgebaseerde gebruikersinterface om dataflows in realtime te beheren Tijdens deze live training met instructeur leren deelnemers hoe ze Apache NiFi kunnen inzetten en beheren in een live-laboratoriumomgeving Aan het einde van deze training kunnen deelnemers: Installeer en configureer Apachi NiFi Bronnen, transformeren en beheren van gegevens uit ongelijksoortige, gedistribueerde gegevensbronnen, inclusief databases en big data-meren Automatiseer dataflows Schakel streaming-analyse in Pas verschillende benaderingen toe voor data-inname Transformeer Big Data en naar zakelijke inzichten Publiek Systeembeheerders Gegevensingenieurs ontwikkelaars DevOps Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
solrcloudSolrCloud14 uurApache SolrCloud is een gedistribueerde gegevensverwerkingsengine die het zoeken en indexeren van bestanden op een gedistribueerd netwerk mogelijk maakt In deze live training met instructeur leren deelnemers hoe ze een SolrCloud-instantie kunnen opzetten op Amazon AWS Aan het einde van deze training kunnen deelnemers: De functies van SolCloud begrijpen en hoe ze zich verhouden tot die van conventionele masterslave-clusters Configureer een SolCloud gecentraliseerde cluster Automatiseer processen zoals communiceren met scherven, documenten toevoegen aan de scherven, enz Gebruik Zookeeper in combinatie met SolrCloud om processen verder te automatiseren Gebruik de interface om foutrapportage te beheren Load-balans van een SolrCloud-installatie Configureer SolrCloud voor continue verwerking en failover Publiek Solr-ontwikkelaars Project managers Systeembeheerders Zoek analisten Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
datavaultData Vault: Building a Scalable Data Warehouse28 uurModellering van gegevenskluizen is een techniek voor databasemodellering die historische gegevensopslag op lange termijn mogelijk maakt die afkomstig is van meerdere bronnen Een gegevenskluis slaat één enkele versie van de feiten op, of "alle gegevens, de hele tijd" Het flexibele, schaalbare, consistente en aanpasbare ontwerp omvat de beste aspecten van 3rd normal form (3NF) en star schema In deze live training met instructeur leren deelnemers hoe ze een Data Vault kunnen bouwen Aan het einde van deze training kunnen deelnemers: Begrijp de architectuur- en ontwerpconcepten achter Data Vault 20 en de interactie met Big Data, NoSQL en AI Gebruik technieken voor gegevensgewelven om auditing, tracing en inspectie van historische gegevens in een datawarehouse in te schakelen Ontwikkel een consistent en herhaalbaar ETL-proces (Extract, Transform, Load) Bouw en implementeer zeer schaalbare en herhaalbare magazijnen Publiek Datamodellen Data warehousing specialist Business Intelligence-specialisten Gegevensingenieurs Databasebeheerders Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
datameerDatameer for Data Analysts14 uurDatameer is een business intelligence en analytics-platform gebouwd op Hadoop Het stelt eindgebruikers in staat om op grote schaal gemakkelijk toegang te krijgen tot grootschalige, gestructureerde, semigestructureerde en ongestructureerde gegevens, deze te verkennen en te correleren Tijdens deze live training met instructeur leren deelnemers Datameer te gebruiken om de steile leercurve van Hadoop te overwinnen terwijl ze de opstelling en analyse van een reeks big data-bronnen doorlopen Aan het einde van deze training kunnen deelnemers: Creëer, ontwikkel en exploreer interactief een datameer voor bedrijven Toegang tot datawarehouses voor business intelligence, transactiedatabases en andere analytische winkels Gebruik een spreadsheetgebruikersinterface om endtoend gegevensverwerkingspijplijnen te ontwerpen Toegang tot vooraf gebouwde functies om complexe gegevensrelaties te verkennen Gebruik draganddrop-wizards om gegevens te visualiseren en dashboards te maken Gebruik tabellen, grafieken, grafieken en kaarten om queryresultaten te analyseren Publiek Data-analisten Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
ApacheIgniteApache Ignite: Improve Speed, Scale and Availability with In-Memory Computing14 uurApache Ignite is an in-memory computing platform that sits between the application and data layer to improve speed, scale, and availability.

In this instructor-led, live training, participants will learn the principles behind persistent and pure in-memory storage as they step through the creation of a sample in-memory computing project.

By the end of this training, participants will be able to:

- Use Ignite for in-memory, on-disk persistence as well as a purely distributed in-memory database.
- Achieve persistence without syncing data back to a relational database.
- Use Ignite to carry out SQL and distributed joins.
- Improve performance by moving data closer to the CPU, using RAM as a storage.
- Spread data sets across a cluster to achieve horizontal scalability.
- Integrate Ignite with RDBMS, NoSQL, Hadoop and machine learning processors.

Audience

- Developers

Format of the course

- Part lecture, part discussion, exercises and heavy hands-on practice
sparkpythonPython and Spark for Big Data (PySpark)21 uurPython is een programmeertaal op hoog niveau die bekend staat om zijn duidelijke syntaxis en codele leesbaarheid Spark is een gegevensverwerkingsengine die wordt gebruikt voor het opvragen, analyseren en transformeren van big data Met PySpark kunnen gebruikers Spark met Python verbinden In deze live training met instructeur leren deelnemers hoe ze Python en Spark samen kunnen gebruiken om big data te analyseren terwijl ze aan handsonoefeningen werken Aan het einde van deze training kunnen deelnemers: Leer hoe u Spark met Python kunt gebruiken om Big Data te analyseren Werk aan oefeningen die de omstandigheden in de echte wereld nabootsen Gebruik verschillende hulpmiddelen en technieken voor big data-analyse met PySpark Publiek ontwikkelaars IT-professionals Data-wetenschappers Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
vespaVespa: Serving Large-Scale Data in Real-Time14 uurVespa en opensource big data processing and serving engine gemaakt door Yahoo Het wordt gebruikt om te reageren op vragen van gebruikers, aanbevelingen te doen en in realtime gepersonaliseerde inhoud en advertenties te bieden Deze instructieve, live training introduceert de uitdagingen van het bedienen van grootschalige gegevens en wandelt deelnemers door het creëren van een applicatie die antwoorden op gebruikersaanvragen kan berekenen, over grote datasets in realtime Aan het einde van deze training kunnen deelnemers: Gebruik Vespa om snel gegevens te berekenen (opslaan, zoeken, rangschikken, organiseren) tijdens het gebruik van de tijd terwijl een gebruiker wacht Implementeer Vespa in bestaande applicaties met functies zoeken, aanbevelingen en personalisatie Integreer en implementeer Vespa met bestaande big data-systemen zoals Hadoop en Storm Publiek ontwikkelaars Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
apexApache Apex: Processing Big Data-in-Motion21 uurApache Apex is een YARNnative-platform dat stream- en batchverwerking combineert Het verwerkt grote datainmotion op een manier die schaalbaar, performant, faulttolerant, stateful, veilig, gedistribueerd en eenvoudig te bedienen is Deze geinspireerde live training introduceert de uniforme stream-processingarchitectuur van Apache Apex en leidt deelnemers door de creatie van een gedistribueerde applicatie met Apex op Hadoop Aan het einde van deze training kunnen deelnemers: Begrijp gegevensverwerkingspijplijnconcepten zoals aansluitingen voor bronnen en putten, algemene gegevenstransformaties, enz Bouw, schaal en optimaliseer een Apex-applicatie Verwerk realtime datastreams betrouwbaar en met minimale latency Gebruik Apex Core en de Apex Malhar-bibliotheek om snelle applicatie-ontwikkeling mogelijk te maken Gebruik de Apex API om bestaande Java-code te schrijven en opnieuw te gebruiken Integreer Apex in andere applicaties als een verwerkingsengine Stem, test en schaal Apex-toepassingen Publiek ontwikkelaars Enterprise architecten Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
alluxioAlluxio: Unifying Disparate Storage Systems7 uurAlexio is een open source virtueel gedistribueerd opslagsysteem dat ongelijksoortige opslagsystemen verenigt en applicaties in staat stelt om te communiceren met gegevens op geheugensnelheid Het wordt gebruikt door bedrijven zoals Intel, Baidu en Alibaba In deze live training met instructeur leren deelnemers Alexio te gebruiken om verschillende berekeningsraamwerken met opslagsystemen te overbruggen en op een efficiënte manier multipetabyte schaalgegevens te beheren terwijl ze een Alluxio-toepassing maken Aan het einde van deze training kunnen deelnemers: Ontwikkel een applicatie met Alluxio Verbind big data-systemen en applicaties met behoud van één naamruimte Haal op efficiënte wijze waarde uit big data in elk opslagformaat Verbeter de prestaties van de workloads Implementeer en beheer Alluxio standalone of geclusterd Publiek Data scientist Ontwikkelaar Systeem administrator Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
flinkFlink for Scalable Stream and Batch Data Processing28 uurApache Flink is een opensource-raamwerk voor schaalbare gegevensverwerking van gegevensstromen en batches Deze instructieve, live training introduceert de principes en benaderingen achter gedistribueerde stream- en batchgegevensverwerking en leidt deelnemers door het creëren van een realtime applicatie voor datastreaming Aan het einde van deze training kunnen deelnemers: Een omgeving opzetten voor het ontwikkelen van gegevensanalysetoepassingen Pakketteer, voer uit en monitor Flinkbased, faulttolerant, data streaming-applicaties Beheer verschillende workloads Voer geavanceerde analyses uit met Flink ML Stel een multinode Flink-cluster in Meet en optimaliseer de prestaties Integreer Flink met verschillende Big Data-systemen Vergelijk Flink-mogelijkheden met die van andere grote gegevensverwerkingskaders Publiek ontwikkelaars architecten Gegevensingenieurs Analytics-professionals Technische managers Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
samzaSamza for Stream Processing14 uurApache Samza is een opensource nearrealtime, asynchroon computationeel framework voor stream processing Het gebruikt Apache Kafka voor berichten en Apache Hadoop YARN voor fouttolerantie, processorisolatie, beveiliging en resourcebeheer Deze instructieve, live training introduceert de principes achter berichtensystemen en gedistribueerde streamverwerking, terwijl deelnemers wandelen door het creëren van een voorbeeldproject in Samzabased en het uitvoeren van opdrachten Aan het einde van deze training kunnen deelnemers: Gebruik Samza om de code te vereenvoudigen die nodig is om berichten te produceren en te consumeren Ontkoppel de afhandeling van berichten van een applicatie Gebruik Samza om asynchrone berekeningen in de nabije omgeving te implementeren Gebruik stream-processing om een ​​hoger niveau van abstractie over berichtensystemen te bieden Publiek ontwikkelaars Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
zeppelinZeppelin for Interactive Data Analytics14 uurApache Zeppelin is een webbased notebook voor het vastleggen, onderzoeken, visualiseren en delen van Hadoop- en Spark-data Deze instructieve, live training introduceert de concepten achter interactieve data-analyse en leidt deelnemers door de inzet en het gebruik van Zeppelin in een omgeving met één gebruiker of meerdere gebruikers Aan het einde van deze training kunnen deelnemers: Installeer en configureer Zeppelin Ontwikkelen, organiseren, uitvoeren en delen van gegevens in een browsergebaseerde interface Visualiseer resultaten zonder naar de opdrachtregel of clusterdetails te verwijzen Uitvoeren en samenwerken aan lange workflows Werk met een van een aantal plugin-taal / dataprocessing-backends, zoals Scala (met Apache Spark), Python (met Apache Spark), Spark SQL, JDBC, Markdown en Shell Integreer Zeppelin met Spark, Flink en Map Reduce Beveiligde multi-user-instanties van Zeppelin met Apache Shiro Publiek Gegevensingenieurs Data-analisten Datawetenschappers Software ontwikkelaars Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
magellanMagellan: Geospatial Analytics on Spark14 uurMagellan is een opensource gedistribueerde uitvoeringsengine voor georuimtelijke analyses van big data Het wordt bovenop Apache Spark geïmplementeerd en breidt Spark SQL uit en biedt een relationele abstractie voor georuimtelijke analyses Deze instructieve live training introduceert de concepten en benaderingen voor het implementeren van geospaciale analyses en leidt deelnemers door het maken van een voorspellende analysetoepassing met Magellan on Spark Aan het einde van deze training kunnen deelnemers: Efficiënt query's, parseren en samenvoegen van georuimtelijke datasets op schaal Geospatiale gegevens implementeren in toepassingen voor bedrijfsinformatie en voorspellende analyse Gebruik ruimtelijke context om de mogelijkheden van mobiele apparaten, sensoren, logboeken en wearables uit te breiden Publiek Applicatie-ontwikkelaars Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
hdpHortonworks Data Platform (HDP) for Administrators21 uurHortonworks Data Platform is een opensource Apache Hadoop-ondersteuningsplatform dat een stabiele basis biedt voor het ontwikkelen van big data-oplossingen op het Apache Hadoop-ecosysteem Deze instructieve live training introduceert Hortonworks en wandelt deelnemers door de inzet van de Spark + Hadoop-oplossing Aan het einde van deze training kunnen deelnemers: Gebruik Hortonworks om Hadoop betrouwbaar op grote schaal te gebruiken Verenig Hadoop's beveiligings-, besturings- en bewerkingsmogelijkheden met Spark's agile analytische workflows Gebruik Hortonworks om elk onderdeel van een Spark-project te onderzoeken, te valideren, te certificeren en te ondersteunen Verwerk verschillende soorten gegevens, waaronder gestructureerd, ongestructureerd, in beweging en onrustig Publiek Hadoop-beheerders Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
PentahoDIPentaho Data Integration Fundamentals21 uurPentaho Data Integration is een opensource data-integratietool voor het definiëren van banen en datatransformaties Tijdens deze live training met instructeur leren deelnemers hoe gebruik te maken van de krachtige ETL-mogelijkheden en rijke GUI van Pentaho Data Integration om een ​​hele big data lifecycle te beheren, waarbij de waarde van data voor de organisatie wordt gemaximaliseerd Aan het einde van deze training kunnen deelnemers: Basisdatatransformaties met stappen en hops maken, voorvertonen en uitvoeren Configureer en beveilig de Pentaho Enterprise Repository Gebruik verschillende gegevensbronnen en genereer een enkele, uniforme versie van de waarheid in een analyticsready-indeling Geef resultaten aan derde-deeltoepassingen voor verdere verwerking Publiek Data-analist ETL-ontwikkelaars Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
bigdatabicriminalBig Data Business Intelligence for Criminal Intelligence Analysis35 uurVooruitgang in technologieën en de toenemende hoeveelheid informatie veranderen de manier waarop wetshandhaving wordt uitgevoerd De uitdagingen die Big Data vormen zijn bijna net zo ontmoedigend als de belofte van Big Data Efficiënt gegevens opslaan is een van deze uitdagingen; effectief analyseren is een andere Tijdens deze live training met instructeur leren deelnemers de denkwijze om Big Data-technologieën te benaderen, beoordelen ze hun impact op bestaande processen en beleid en implementeren ze deze technologieën om criminele activiteiten te identificeren en criminaliteit te voorkomen Case studies van wetshandhavingsorganisaties over de hele wereld zullen worden onderzocht om inzicht te krijgen in hun adoptiebenaderingen, uitdagingen en resultaten Aan het einde van deze training kunnen deelnemers: Combineer Big Data-technologie met traditionele gegevensverzamelingsprocessen om een ​​verhaal samen te stellen tijdens een onderzoek Implementeer industriële big data opslag- en verwerkingsoplossingen voor data-analyse Een voorstel voorbereiden voor de goedkeuring van de meest geschikte hulpmiddelen en processen om een ​​datadriven aanpak van strafrechtelijk onderzoek mogelijk te maken Publiek Law Enforcement-specialisten met een technische achtergrond Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
hadooppythonHadoop with Python28 uurHadoop is een populair kader voor verwerking van Big Data Python is een programmeertaal op hoog niveau die bekend staat om zijn duidelijke syntaxis en codele leesbaarheid In deze live training met instructeur leren deelnemers hoe met Hadoop, MapReduce, Pig en Spark te werken met Python terwijl ze door meerdere voorbeelden stappen en cases gebruiken Aan het einde van deze training kunnen deelnemers: Begrijp de basisbegrippen achter Hadoop, MapReduce, Pig en Spark Gebruik Python met Hadoop Distributed File System (HDFS), MapReduce, Pig en Spark Gebruik Snakebite om binnen Python programmatisch toegang te krijgen tot HDFS Gebruik mrjob om MapReduce-taken in Python te schrijven Schrijf Spark-programma's met Python Breid de functionaliteit van varken uit met Python UDF's Beheer MapReduce-taken en Pig-scripts met Luigi Publiek ontwikkelaars IT-professionals Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
kylinApache Kylin: From Classic OLAP to Real-Time Data Warehouse14 uurApache Kylin is een extreme, gedistribueerde analyse-engine voor big data In deze live training met instructeurs leren deelnemers hoe ze Apache Kylin kunnen gebruiken om een ​​realtime datawarehouse op te zetten Aan het einde van deze training kunnen deelnemers: Gebruik realtime streaming data met Kylin Gebruik de krachtige functies van Apache Kylin, waaronder ondersteuning voor sneeuwvlokschema's, een uitgebreide SQL-interface, vonkverslindende en subseconte querylatentie Notitie We gebruiken de nieuwste versie van Kylin (vanaf dit moment, Apache Kylin v20) Publiek Big data-engineers Big Data-analisten Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
sparksqlApache Spark SQL7 uurSpark SQL is de module van Apache Spark voor het werken met gestructureerde en ongestructureerde gegevens Spark SQL biedt informatie over de structuur van de gegevens en de berekening die wordt uitgevoerd Deze informatie kan worden gebruikt om optimalisaties uit te voeren Twee veelgebruikte toepassingen voor Spark SQL zijn: om SQL-query's uit te voeren om gegevens te lezen van een bestaande Hive-installatie In deze live training met instructor (op locatie of op afstand) leren deelnemers verschillende soorten gegevenssets te analyseren met behulp van Spark SQL Aan het einde van deze training kunnen deelnemers: Installeer en configureer Spark SQL Voer gegevensanalyse uit met behulp van Spark SQL Query-gegevenssets in verschillende indelingen Gegevens en queryresultaten visualiseren Publiek Data-analisten Datawetenschappers Gegevensingenieurs Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen Notes Om een ​​aangepaste training aan te vragen voor deze cursus, neem dan contact met ons op om dit te regelen .
sparkcloudApache Spark in the Cloud21 uurApache Spark's learning curve is slowly increasing at the begining, it needs a lot of effort to get the first return. This course aims to jump through the first tough part. After taking this course the participants will understand the basics of Apache Spark , they will clearly differentiate RDD from DataFrame, they will learn Python and Scala API, they will understand executors and tasks, etc. Also following the best practices, this course strongly focuses on cloud deployment, Databricks and AWS. The students will also understand the differences between AWS EMR and AWS Glue, one of the lastest Spark service of AWS.

AUDIENCE:

Data Engineer, DevOps, Data Scientist
bigdataanahealthBig Data Analytics in Health21 uurBig data-analyse omvat het proces van het onderzoeken van grote hoeveelheden gevarieerde datasets om correlaties, verborgen patronen en andere nuttige inzichten bloot te leggen De gezondheidsindustrie heeft enorme hoeveelheden complexe heterogene medische en klinische gegevens Het toepassen van big data-analyse op gezondheidsgegevens biedt enorm veel potentieel om inzichten te verkrijgen voor het verbeteren van de levering van gezondheidszorg De enorme omvang van deze datasets vormt echter een grote uitdaging voor analyses en praktische toepassingen in een klinische omgeving In deze live training (op afstand) met instructor leren deelnemers hoe ze big data-analyse in gezondheid kunnen uitvoeren terwijl ze een reeks handson-oefeningen doorlopen Aan het einde van deze training kunnen deelnemers: Analysehulpmiddelen voor big data installeren en configureren, zoals Hadoop MapReduce en Spark Begrijp de kenmerken van medische gegevens Big Data-technieken toepassen om met medische gegevens om te gaan Bestudeer big data-systemen en algoritmen in de context van gezondheidstoepassingen Publiek ontwikkelaars Data-wetenschappers Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen Notitie Om een ​​aangepaste training aan te vragen voor deze cursus, neem dan contact met ons op om dit te regelen .
arrowApache Arrow for Data Analysis across Disparate Data Sources14 uurApache Arrow is een opensource inmemorieel gegevensverwerkingsraamwerk Het wordt vaak samen met andere data science-tools gebruikt voor toegang tot ongelijksoortige datastores voor analyse Het kan goed worden geïntegreerd met andere technologieën zoals GPU-databases, machine-learningbibliotheken en -hulpmiddelen, uitvoeringsengines en datavisualisatiekaders In deze onsite training, live training, leren deelnemers om Apache Arrow te integreren met verschillende Data Science-frameworks om toegang te krijgen tot gegevens uit ongelijksoortige gegevensbronnen Aan het einde van deze training kunnen deelnemers: Installeer en configureer Apache Arrow in een gedistribueerde geclusterde omgeving Gebruik Apache Arrow om toegang te krijgen tot gegevens uit ongelijksoortige gegevensbronnen Gebruik Apache Arrow om de noodzaak voor het bouwen en onderhouden van complexe ETL-pijpleidingen te omzeilen Analyseer gegevens over ongelijksoortige gegevensbronnen zonder deze te consolideren in een gecentraliseerde opslagplaats Publiek Datawetenschappers Gegevensingenieurs Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen Notitie Om een ​​aangepaste training aan te vragen voor deze cursus, neem dan contact met ons op om dit te regelen .
sqoopMoving Data from MySQL to Hadoop with Sqoop14 uurSqoop is een open source softwaretool voor het overbrengen van gegevens tussen Hadoop en relationele databases of mainframes Het kan worden gebruikt om gegevens uit een relationeel databasebeheersysteem (RDBMS) zoals MySQL of Oracle of een mainframe in het Hadoop Distributed File System (HDFS) te importeren Daarna kunnen de gegevens worden omgezet in Hadoop MapReduce en vervolgens opnieuw worden geëxporteerd in een RDBMS Tijdens deze live training met instructeur leren deelnemers Sqoop te gebruiken om gegevens uit een traditionele relationele database te importeren naar Hadoop-opslag zoals HDFS of Hive en omgekeerd Aan het einde van deze training kunnen deelnemers: Installeer en configureer Sqoop Gegevens importeren uit MySQL naar HDFS en Hive Importeer gegevens van HDFS en Hive naar MySQL Publiek Systeembeheerders Gegevensingenieurs Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen Notitie Om een ​​aangepaste training aan te vragen voor deze cursus, neem dan contact met ons op om dit te regelen .
beamUnified Batch and Stream Processing with Apache Beam14 uurApache Beam is een open source, uniform programmeermodel voor het definiëren en uitvoeren van parallelle pijplijnen voor gegevensverwerking De kracht zit hem in de mogelijkheid om zowel batch- als streamingpijplijnen uit te voeren, waarbij de uitvoering wordt uitgevoerd door een van Beam's ondersteunde backends voor gedistribueerde verwerking: Apache Apex, Apache Flink, Apache Spark en Google Cloud Dataflow Apache Beam is nuttig voor ETL-taken (Extract, Transform en Load), zoals het verplaatsen van gegevens tussen verschillende opslagmedia en gegevensbronnen, het transformeren van gegevens in een meer wenselijk formaat en het laden van gegevens op een nieuw systeem In deze live training met instructor (op locatie of op afstand) leren deelnemers hoe de Apache Beam SDK's in een Java- of Python-toepassing kunnen worden geïmplementeerd die een gegevensverwerkingspijplijn definieert voor het decomposeren van een grote dataset in kleinere chunks voor onafhankelijke, parallelle verwerking Aan het einde van deze training kunnen deelnemers: Installeer en configureer Apache Beam Gebruik een enkel programmeermodel om zowel batch- als streamverwerking uit te voeren met behulp van hun Java- of Python-toepassing Voer pijpleidingen uit in meerdere omgevingen Publiek ontwikkelaars Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen Notitie Deze cursus zal in de toekomst beschikbaar zijn voor Scala Neem contact met ons op om dit te regelen .

Aankomende Big Data cursussen

CursusCursusdatumCursus Kosten [Op Afstand / Klas]
From Data to Decision with Big Data and Predictive Analytics - Zwolle Business Parkdi, 2019-01-01 09:304500EUR / 6050EUR
From Data to Decision with Big Data and Predictive Analytics - Den Haag Centraal Stationdi, 2019-01-08 09:304500EUR / 6950EUR
From Data to Decision with Big Data and Predictive Analytics - Nijmegen City Centrewo, 2019-01-09 09:304500EUR / 6350EUR
From Data to Decision with Big Data and Predictive Analytics - Maastricht City Centrewo, 2019-01-16 09:304500EUR / 7070EUR
From Data to Decision with Big Data and Predictive Analytics - Groningen Martiniwo, 2019-01-16 09:304500EUR / 5780EUR
Weekend Big Data cursus, Avond Big Data training, Avond Big Data opleiding Big Data boot camp, Big Data instructeur geleid, Weekend Big Data training, Avond Big Data cursus, Big Data coaching, Big Data instructeur, Big Data trainer, Big Data training cursus, Big Data lessen, Big Data on-site, Big Data privé cursus, Big Data een op een training, Big Data op locatie, Weekend Big Data opleiding

Cursussen met korting

CursusLocatieCursusdatumCursus Kosten [Op Afstand / Klas]
Linux LPI LPIC-1 Exam 101 PreparationEvoluon Eindhovenwo, 2018-12-19 09:302287EUR / 3687EUR
Computer Vision with SimpleCVGolden Tulip Leidenma, 2019-02-25 09:302700EUR / 4000EUR
Jupyter for Data Science TeamsDen Haag Centraal Stationma, 2019-04-29 09:301350EUR / 2300EUR
Big Data - Data ScienceEvoluon Eindhovenwo, 2019-05-08 09:302700EUR / 4100EUR

Course Discounts Newsletter

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

Een aantal van onze klanten

is growing fast!

We are looking to expand our presence in the Netherlands!

As a Business Development Manager you will:

  • expand business in the Netherlands
  • recruit local talent (sales, agents, trainers, consultants)
  • recruit local trainers and consultants

We offer:

  • Artificial Intelligence and Big Data systems to support your local operation
  • high-tech automation
  • continuously upgraded course catalogue and content
  • good fun in international team

If you are interested in running a high-tech, high-quality training and consulting business.

Apply now!