Big Data Training Courses

Big Data Training Courses

Lokale, door een instructeur geleide, live Big Data-trainingen beginnen met een inleiding tot elementaire concepten van Big Data en vervolgens de voortgang in de programmeertalen en -methodieken die worden gebruikt om gegevensanalyse uit te voeren. Tools en infrastructuur voor het inschakelen van Big Data-opslag, gedistribueerde verwerking en schaalbaarheid worden besproken, vergeleken en geïmplementeerd in demo-oefensessies. Big Data-training is beschikbaar als 'live training op locatie' of 'live training op afstand'. Onsite live training kan lokaal worden uitgevoerd op het terrein van de klant in Nederland of in NobleProg bedrijfsopleidingscentra in Nederland . Live-training op afstand wordt uitgevoerd via een interactieve, externe desktop. NobleProg - uw lokale trainingsaanbieder

Machine Translated

Getuigenissen

★★★★★
★★★★★

Big Data Cursusoverzicht

Course Name
Duration
Overview
Course Name
Duration
Overview
21 hours
Python is een schaalbare, flexibele en veelgebruikte programmeringsspraak voor data wetenschap en machine learning. Spark is een gegevensverwerkingsmachine die wordt gebruikt bij het zoeken, analyseren en transformeren van grote gegevens, terwijl Hadoop een software bibliotheek framework is voor grootschalige gegevensopslag en verwerking.

Deze instructeur geleide, live training (online of on-site) is gericht op ontwikkelaars die Spark, Hadoop en Python willen gebruiken en integreren om grote en complexe data sets te verwerken, te analyseren en te transformeren.

Aan het einde van deze training zullen de deelnemers in staat zijn:

Stel de nodige omgeving op om te beginnen met het verwerken van grote gegevens met Spark, Hadoop, en Python. Begrijp de kenmerken, kerncomponenten en architectuur van Spark en Hadoop. Leer hoe je Spark, Hadoop, en Python kunt integreren voor big data verwerking. Ontdek de tools in het Spark-ecosysteem (Spark MlLib, Spark Streaming, Kafka, Sqoop, Kafka en Flume). Maak samenwerkingsfilter aanbevelingssystemen vergelijkbaar met Netflix, YouTube, Amazon, Spotify en Google. Gebruik Apache Mahout om machine learning-algoritmen te scalen.

Format van de cursus

Interactieve lezingen en discussie. Veel oefeningen en oefeningen. Hand-on implementatie in een live-lab-omgeving.

Cursus aanpassingsopties

Om een aangepaste training voor deze cursus te vragen, neem dan contact met ons op om te organiseren.
14 hours
Waikato Environment for Knowledge Analysis (Weka) is een open source data mining visualisatie software. Het biedt een verzameling van machine learning-algoritmen voor gegevensvoorbereiding, classificatie, clustering en andere data mining activiteiten.

Deze instructeur geleide, live training (online of on-site) is gericht op gegevensanalisten en gegevenswetenschappers die Weka willen gebruiken om gegevens mijnwerkzaamheden uit te voeren.

Aan het einde van deze training zullen de deelnemers in staat zijn:

Installeer en installeer Weka Begrijp de Weka omgeving en werkbank. Het uitvoeren van data mining taken met behulp van Weka.

Format van de cursus

Interactieve lezingen en discussie. Veel oefeningen en oefeningen. Hand-on implementatie in een live-lab-omgeving.

Cursus aanpassingsopties

Om een aangepaste training voor deze cursus te vragen, neem dan contact met ons op om te organiseren.
14 hours
IBM SPSS Modeler is een software die wordt gebruikt voor data mining en tekstanalyse. Het biedt een set van data mining tools die voorspellende modellen kunnen bouwen en gegevensanalyse taken kunnen uitvoeren.

Deze instructeur geleide, live training (online of on-site) is gericht op data analisten of iedereen die wil gebruiken SPSS Modeler om data mining activiteiten uit te voeren.

Aan het einde van deze training zullen de deelnemers in staat zijn:

Begrijp de fundamenten van data mining. Leer hoe u gegevenskwaliteit kunt importeren en evalueren met de Modeller. Het ontwikkelen, implementeren en evalueren van gegevensmodellen efficiënt.

Format van de cursus

Interactieve lezingen en discussie. Veel oefeningen en oefeningen. Hand-on implementatie in een live-lab-omgeving.

Cursus aanpassingsopties

Om een aangepaste training voor deze cursus te vragen, neem dan contact met ons op om te organiseren.
35 hours
Deelnemers die deze instructeur geleide, live training voltooien, krijgen een praktische, werkelijke kennis van Big Data en de gerelateerde technologieën, methodologieën en hulpmiddelen.

Deelnemers zullen de mogelijkheid hebben om deze kennis in de praktijk te brengen door middel van praktische oefeningen. Groep interactie en instructeur feedback vormen een belangrijk onderdeel van de klas.

De cursus begint met een inleiding tot elementaire concepten van Big Data, vervolgens vooruitgang in de programmeringsspraken en methoden die worden gebruikt om uit te voeren Data Analysis. Ten slotte bespreken we de hulpmiddelen en infrastructuur die Big Data opslag, gedistribueerde verwerking en Scalacapaciteit mogelijk maken.

Format van de cursus

Deel lezing, deel discussie, praktische praktijk en implementatie, tijdelijke quizing om vooruitgang te meten.
21 hours
In this instructor-led, live training in Nederland, participants will learn how to use Python and Spark together to analyze big data as they work on hands-on exercises.

By the end of this training, participants will be able to:

- Learn how to use Spark with Python to analyze Big Data.
- Work on exercises that mimic real world cases.
- Use different tools and techniques for big data analysis using PySpark.
7 hours
Deze cursus behandelt het gebruik van Hive SQL taal (AKA: Hive HQL, SQL on Hive , Hive QL) voor mensen die gegevens uit Hive
21 hours
Kennisontdekking in databases (KDD) is het proces van het ontdekken van nuttige kennis uit een verzameling van gegevens. Real-life toepassingen voor deze data mining techniek omvatten marketing, fraude detectie, telecommunicatie en productie.

In deze instructeur geleide, live cursus introduceren we de processen die betrokken zijn bij KDD en voeren we een reeks oefeningen uit om de implementatie van die processen te beoefenen.

Het publiek

Data-analisten of iemand die geïnteresseerd is in het leren hoe gegevens te interpreteren om problemen op te lossen

Format van de cursus

Na een theoretische discussie over KDD zal de instructeur real-life gevallen presenteren die de toepassing van KDD vragen om een probleem op te lossen. Deelnemers bereiden, selecteren en schoonmaken samengestelde gegevens en gebruiken hun voorafgaande kennis van de gegevens om oplossingen te voorstellen op basis van de resultaten van hun waarnemingen.
14 hours
Apache Kylin is een extreme, gedistribueerde analytische motor voor big data.

In deze instructeur geleide live training zullen de deelnemers leren hoe te gebruiken Apache Kylin om een real-time data warehouse te installeren.

Aan het einde van deze training zullen de deelnemers in staat zijn:

Gebruik realtime streaminggegevens met behulp van Kylin Gebruik Apache Kylin's krachtige functies, rijke SQL interface, spark cubing en subsecond query latency

Opmerking

We gebruiken de nieuwste versie van Kylin (op basis van dit schrijven, Apache Kylin v2.0)

Het publiek

Big Data ingenieurs Big Data De analisten

Format van de cursus

Deel lezing, deel discussie, oefeningen en zware praktijken
14 hours
Datameer is een business intelligence en analytics-platform gebouwd op Hadoop Het stelt eindgebruikers in staat om op grote schaal gemakkelijk toegang te krijgen tot grootschalige, gestructureerde, semigestructureerde en ongestructureerde gegevens, deze te verkennen en te correleren Tijdens deze live training met instructeur leren deelnemers Datameer te gebruiken om de steile leercurve van Hadoop te overwinnen terwijl ze de opstelling en analyse van een reeks big data-bronnen doorlopen Aan het einde van deze training kunnen deelnemers: Creëer, ontwikkel en exploreer interactief een datameer voor bedrijven Toegang tot datawarehouses voor business intelligence, transactiedatabases en andere analytische winkels Gebruik een spreadsheetgebruikersinterface om endtoend gegevensverwerkingspijplijnen te ontwerpen Toegang tot vooraf gebouwde functies om complexe gegevensrelaties te verkennen Gebruik draganddrop-wizards om gegevens te visualiseren en dashboards te maken Gebruik tabellen, grafieken, grafieken en kaarten om queryresultaten te analyseren Publiek Data-analisten Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
14 hours
Datamining is het proces van het identificeren van patronen in big data met data science-methoden zoals machine learning. Met Excel als data-analysepakket kunnen gebruikers datamining en -analyse uitvoeren.

Deze instructeur-geleide, live training (op locatie of op afstand) is gericht op datawetenschappers die Excel willen gebruiken voor datamining.

Aan het einde van deze training kunnen deelnemers:

- Verken gegevens met Excel om datamining en -analyse uit te voeren.
- Gebruik Microsoft-algoritmen voor datamining.
- Begrijp concepten in Excel -datamining.

Indeling van de cursus

- Interactieve lezing en discussie.
- Veel oefeningen en oefenen.
- Praktische implementatie in een live-labomgeving.

Cursusaanpassingsopties

- Neem contact met ons op om een aangepaste training voor deze cursus aan te vragen.
21 hours
Dremio is een open-source "self-service data platform" die de zoekopdracht van verschillende soorten gegevensbronnen versnelt. Dremio wordt geïntegreerd met relatieve databases, Apache Hadoop, MongoDB, Amazon S3, ElasticSearch, en andere gegevensbronnen. Het ondersteunt SQL en biedt een web-UI voor bouwvragen.

In deze instructeur geleide, live training leren de deelnemers hoe te installeren, configureren en gebruiken Dremio als een verenigende laag voor data-analyse-tools en de onderliggende data-opslagruimten.

Aan het einde van deze training zullen de deelnemers in staat zijn:

Installeer en installeer Dremio Uitvoeren van vragen tegen meerdere gegevensbronnen, ongeacht locatie, grootte of structuur Integreren Dremio met BI en gegevensbronnen zoals Tableau en Elasticsearch

Het publiek

Data wetenschappers Business De analisten Data ingenieurs

Format van de cursus

Deel lezing, deel discussie, oefeningen en zware praktijken

Nootjes

Om een aangepaste training voor deze cursus te vragen, neem dan contact met ons op om te organiseren.
14 hours
Het doel van de cursus is om deelnemers in staat te stellen om de beheersing van de SQL taal in Oracle database te beheersen voor data-extractie op intermediair niveau.
21 hours
Apache Drill is een schemavrije, gedistribueerde, SQL query-engine in het geheugen voor Hadoop , No SQL en andere cloud- en bestandsopslagsystemen. De kracht van Apache Drill ligt in de mogelijkheid om gegevens uit meerdere datastores samen te voegen met behulp van een enkele query. Apache Drill ondersteunt talloze No SQL databases en bestandssystemen, waaronder HBase, MongoDB , MapR-DB, HDFS, MapR-FS, Amazon S3, Azure Blob Storage, Go ogle Cloud Storage, Swift , NAS en lokale bestanden. Apache Drill is de open source-versie van het Dremel-systeem van Go ogle die beschikbaar is als een infrastructuurdienst genaamd Go ogle BigQuery.

In deze door een instructeur geleide, live training leren deelnemers de basisprincipes van Apache Drill en benutten ze vervolgens de kracht en het gemak van SQL om interactief big data te bevragen over meerdere databronnen, zonder code te hoeven schrijven. Deelnemers leren ook hoe ze hun Drill-query's kunnen optimaliseren voor gedistribueerde SQL uitvoering.

Aan het einde van deze training kunnen deelnemers:

- Voer "selfservice" -verkenning uit op gestructureerde en semi-gestructureerde gegevens op Hadoop
- Query bekend evenals onbekende gegevens met behulp van SQL query's
- Begrijp hoe Apache Drill Drills vragen ontvangt en uitvoert
- Schrijf SQL query's om verschillende soorten gegevens te analyseren, waaronder gestructureerde gegevens in Hive , semi-gestructureerde gegevens in HBase- of MapR-DB-tabellen en gegevens die zijn opgeslagen in bestanden zoals Parket en JSON.
- Gebruik Apache Drill om on-the-fly schemadetectie uit te voeren en de noodzaak van complexe ETL- en schemabewerkingen te omzeilen
- Integreer Apache Drill met BI ( Business Intelligence ) tools zoals Tableau , Qlikview, MicroStrategy en Excel

Publiek

- Data-analisten
- Data wetenschappers
- SQL programmeurs

Formaat van de cursus

- Deelcollege, deelbespreking, oefeningen en zware praktijkoefeningen
14 hours
Apache Arrow is een open-source framework voor gegevensverwerking. Het wordt vaak gebruikt in combinatie met andere data science-tools voor toegang tot ongelijksoortige gegevensopslag voor analyse. Het integreert goed met andere technologieën zoals GPU databases, machine learning-bibliotheken en tools, uitvoeringsengines en datavisualisatiekaders.

In deze on-site instructeur geleide, live training, leren deelnemers hoe ze Apache Arrow kunnen integreren met verschillende Data Science frameworks om toegang te krijgen tot gegevens uit verschillende gegevensbronnen.

Aan het einde van deze training kunnen deelnemers:

- Installeer en configureer Apache Arrow in een gedistribueerde geclusterde omgeving
- Gebruik Apache Arrow om toegang te krijgen tot gegevens uit verschillende gegevensbronnen
- Gebruik Apache Arrow om de noodzaak voor het bouwen en onderhouden van complexe ETL-pijpleidingen te omzeilen
- Analyseer gegevens over verschillende gegevensbronnen zonder deze te consolideren in een gecentraliseerde repository

Publiek

- Data wetenschappers
- Data-ingenieurs

Indeling van de cursus

- Deelcollege, deelbespreking, oefeningen en zware praktijkoefeningen

Notitie

- Neem contact met ons op om een aangepaste training voor deze cursus aan te vragen.
14 hours
Deze instructeur-geleide, live training (op locatie of op afstand) is gericht op softwareontwikkelaars, managers en bedrijfsanalisten die big data-systemen willen gebruiken om grote hoeveelheden data op te slaan en op te halen.

Aan het einde van deze training kunnen deelnemers:

- Vraag grote hoeveelheden gegevens efficiënt op.
- Begrijp hoe Big Data systeem Big Data opslaat en ophaalt
- Gebruik de nieuwste beschikbare big data-systemen
- Wrangle data van datasystemen naar rapportagesystemen
- Leer SQL vragen te schrijven in:

- My SQL
- postgres
- Hive Query Language ( Hive QL / HQL)
- Redshift

Indeling van de cursus

- Interactieve lezing en discussie.
- Veel oefeningen en oefenen.
- Praktische implementatie in een live-labomgeving.

Cursusaanpassingsopties

- Neem contact met ons op om een aangepaste training voor deze cursus aan te vragen.
35 hours
Advances in technologies and the increasing amount of information are transforming how business is conducted in many industries, including government. Government data generation and digital archiving rates are on the rise due to the rapid growth of mobile devices and applications, smart sensors and devices, cloud computing solutions, and citizen-facing portals. As digital information expands and becomes more complex, information management, processing, storage, security, and disposition become more complex as well. New capture, search, discovery, and analysis tools are helping organizations gain insights from their unstructured data. The government market is at a tipping point, realizing that information is a strategic asset, and government needs to protect, leverage, and analyze both structured and unstructured information to better serve and meet mission requirements. As government leaders strive to evolve data-driven organizations to successfully accomplish mission, they are laying the groundwork to correlate dependencies across events, people, processes, and information.

High-value government solutions will be created from a mashup of the most disruptive technologies:

- Mobile devices and applications
- Cloud services
- Social business technologies and networking
- Big Data and analytics

IDC predicts that by 2020, the IT industry will reach $5 trillion, approximately $1.7 trillion larger than today, and that 80% of the industry's growth will be driven by these 3rd Platform technologies. In the long term, these technologies will be key tools for dealing with the complexity of increased digital information. Big Data is one of the intelligent industry solutions and allows government to make better decisions by taking action based on patterns revealed by analyzing large volumes of data — related and unrelated, structured and unstructured.

But accomplishing these feats takes far more than simply accumulating massive quantities of data.“Making sense of thesevolumes of Big Datarequires cutting-edge tools and technologies that can analyze and extract useful knowledge from vast and diverse streams of information,” Tom Kalil and Fen Zhao of the White House Office of Science and Technology Policy wrote in a post on the OSTP Blog.

The White House took a step toward helping agencies find these technologies when it established the National Big Data Research and Development Initiative in 2012. The initiative included more than $200 million to make the most of the explosion of Big Data and the tools needed to analyze it.

The challenges that Big Data poses are nearly as daunting as its promise is encouraging. Storing data efficiently is one of these challenges. As always, budgets are tight, so agencies must minimize the per-megabyte price of storage and keep the data within easy access so that users can get it when they want it and how they need it. Backing up massive quantities of data heightens the challenge.

Analyzing the data effectively is another major challenge. Many agencies employ commercial tools that enable them to sift through the mountains of data, spotting trends that can help them operate more efficiently. (A recent study by MeriTalk found that federal IT executives think Big Data could help agencies save more than $500 billion while also fulfilling mission objectives.).

Custom-developed Big Data tools also are allowing agencies to address the need to analyze their data. For example, the Oak Ridge National Laboratory’s Computational Data Analytics Group has made its Piranha data analytics system available to other agencies. The system has helped medical researchers find a link that can alert doctors to aortic aneurysms before they strike. It’s also used for more mundane tasks, such as sifting through résumés to connect job candidates with hiring managers.
21 hours
Publiek

Als u de gegevens waartoe u toegang heeft, wilt begrijpen of ongestructureerde gegevens op het internet wilt analyseren (zoals Twitter, Linked in, enz ...), is deze cursus iets voor u.

Het is vooral bedoeld voor besluitvormers en mensen die moeten kiezen welke gegevens het verzamelen waard zijn en wat het analyseren waard is.

Het is niet gericht op mensen die de oplossing configureren, die mensen zullen echter profiteren van het grote geheel.

Bezorgingsmodus

Tijdens de cursus krijgen de deelnemers werkvoorbeelden van voornamelijk open source-technologieën.

Korte lezingen worden gevolgd door een presentatie en eenvoudige oefeningen door de deelnemers

Gebruikte inhoud en software

Alle gebruikte software wordt elke keer dat de cursus wordt uitgevoerd bijgewerkt, dus we controleren de nieuwste versies mogelijk.

Het omvat het proces van het verkrijgen, formatteren, verwerken en analyseren van de gegevens, om uit te leggen hoe het besluitvormingsproces kan worden geautomatiseerd met machine learning.
35 hours
Dag 1 - biedt een overzicht op hoog niveau van essentiële Big Data onderwerpgebieden. De module is verdeeld in een reeks secties, die elk vergezeld gaan van een praktische oefening.

Dag 2 - onderzoekt een reeks onderwerpen die betrekking hebben op analysepraktijken en hulpmiddelen voor Big Data omgevingen. Het gaat niet over implementatie- of programmadetails, maar houdt in plaats daarvan dekking op een conceptueel niveau, gericht op onderwerpen die deelnemers in staat stellen een uitgebreid begrip te ontwikkelen van de gemeenschappelijke analysefuncties en functies die door Big Data oplossingen worden aangeboden.

Dag 3 - biedt een overzicht van de fundamentele en essentiële onderwerpgebieden met betrekking tot de platformarchitectuur voor Big Data oplossingen. Het omvat Big Data mechanismen die nodig zijn voor de ontwikkeling van een Big Data oplossingsplatform en architecturale opties voor het samenstellen van een gegevensverwerkingsplatform. Er worden ook algemene scenario's gepresenteerd om een basiskennis te geven van hoe een Big Data oplossingsplatform in het algemeen wordt gebruikt.

Dag 4 - bouwt voort op dag 3 door geavanceerde onderwerpen te verkennen die betrekking hebben op de platformarchitectuur voor Big Data oplossingen. In het bijzonder worden verschillende architecturale lagen die deel uitmaken van het Big Data oplossingsplatform geïntroduceerd en besproken, waaronder gegevensbronnen, gegevensinvoer, gegevensopslag, gegevensverwerking en beveiliging.

Dag 5 - behandelt een aantal oefeningen en problemen die zijn ontworpen om het vermogen van de afgevaardigden om kennis van onderwerpen die op dag 3 en 4 zijn behandeld toe te passen, te testen.
21 hours
Big Data is een term die verwijst naar oplossingen die zijn bedoeld voor het opslaan en verwerken van grote gegevenssets. Go eerste instantie ontwikkeld door Go ogle, hebben deze Big Data oplossingen andere vergelijkbare projecten ontwikkeld en geïnspireerd, waarvan vele beschikbaar zijn als open-source. R is een populaire programmeertaal in de financiële sector.
14 hours
Wanneer traditionele opslagtechnologieën niet omgaan met de hoeveelheid gegevens die u moet opslaan, zijn er honderden alternatieven. Deze cursus probeert de deelnemers te begeleiden wat alternatieven zijn voor het opslaan en analyseren van Big Data en wat hun voor- en nadelen zijn.

Deze cursus is vooral gericht op discussie en presentatie van oplossingen, hoewel praktische oefeningen op aanvraag beschikbaar zijn.
14 hours
De cursus maakt deel uit van de vaardigheden van Data Scientist (Domain: Data and Technology).
35 hours
Big data zijn datasets die zo omvangrijk en complex zijn dat traditionele applicatiesoftware voor gegevensverwerking onvoldoende is om hiermee om te gaan. Big data-uitdagingen zijn onder meer het vastleggen van gegevens, gegevensopslag, gegevensanalyse, zoeken, delen, overdragen, visualiseren, opvragen, bijwerken en informatieprivacy.
14 hours
Vespa en opensource big data processing and serving engine gemaakt door Yahoo Het wordt gebruikt om te reageren op vragen van gebruikers, aanbevelingen te doen en in realtime gepersonaliseerde inhoud en advertenties te bieden Deze instructieve, live training introduceert de uitdagingen van het bedienen van grootschalige gegevens en wandelt deelnemers door het creëren van een applicatie die antwoorden op gebruikersaanvragen kan berekenen, over grote datasets in realtime Aan het einde van deze training kunnen deelnemers: Gebruik Vespa om snel gegevens te berekenen (opslaan, zoeken, rangschikken, organiseren) tijdens het gebruik van de tijd terwijl een gebruiker wacht Implementeer Vespa in bestaande applicaties met functies zoeken, aanbevelingen en personalisatie Integreer en implementeer Vespa met bestaande big data-systemen zoals Hadoop en Storm Publiek ontwikkelaars Formaat van de cursus Gedeeltelijke lezing, deelbespreking, oefeningen en zware handsonoefeningen .
14 hours
Om te voldoen aan de regelgeving, kunnen CSP's ( Communication ) gebruikmaken van Big Data Analytics die hen niet alleen helpt om aan de compliance te voldoen, maar in het kader van hetzelfde project kunnen ze de klanttevredenheid verhogen en daarmee het verloop verminderen. Omdat compliance gerelateerd is aan de servicekwaliteit die verbonden is aan een contract, zal elk initiatief om aan de compliance te voldoen het "concurrentievoordeel" van de CSP's verbeteren. Daarom is het belangrijk dat regelgevers een reeks Big Data analysepraktijken voor CSP's kunnen adviseren / begeleiden die van wederzijds voordeel zullen zijn tussen de regelgevers en CSP's.

De cursus bestaat uit 8 modules (4 op dag 1 en 4 op dag 2)
35 hours
Vooruitgang in technologieën en de toenemende hoeveelheid informatie transformeert de manier waarop wetshandhaving wordt uitgevoerd. De uitdagingen die Big Data meebrengen zijn bijna net zo ontmoedigend als de belofte van Big Data . Gegevens efficiënt opslaan is een van deze uitdagingen; effectief analyseren is een andere.

In deze door een instructeur geleide, live training leren deelnemers de mentaliteit om Big Data technologieën te benaderen, hun impact op bestaande processen en beleidsmaatregelen te beoordelen en deze technologieën te implementeren om criminele activiteiten te identificeren en criminaliteit te voorkomen. Casestudies van wetshandhavingsorganisaties over de hele wereld zullen worden onderzocht om inzicht te krijgen in hun aanpak, uitdagingen en resultaten van adoptie.

Aan het einde van deze training kunnen deelnemers:

- Combineer Big Data technologie met traditionele gegevensverzamelingsprocessen om een verhaal samen te stellen tijdens een onderzoek
- Implementeer industriële big data-opslag- en verwerkingsoplossingen voor data-analyse
- Een voorstel opstellen voor de goedkeuring van de meest adequate hulpmiddelen en processen om een gegevensgestuurde aanpak van strafrechtelijk onderzoek mogelijk te maken

Publiek

- Specialisten in rechtshandhaving met een technische achtergrond

Formaat van de cursus

- Deelcollege, deelbespreking, oefeningen en zware praktijkoefeningen
14 hours
Deze klassikale trainingssessie zal Big Data verkennen. Afgevaardigden zullen computergebaseerde voorbeelden en casestudyoefeningen uitvoeren met relevante big data-tools
14 hours
Doel : deze training is bedoeld om bezoekers te helpen begrijpen waarom Big Data ons leven verandert en hoe het de manier verandert waarop bedrijven ons als consumenten zien. Gebruikers van big data in bedrijven vinden inderdaad dat big data een schat aan informatie en inzichten ontketenen die zich vertalen in hogere winsten, lagere kosten en minder risico. Het nadeel was echter soms frustratie bij het leggen van te veel nadruk op individuele technologieën en te weinig aandacht voor de pijlers van big data management.

Deelnemers leren tijdens deze cursus hoe ze big data kunnen beheren met behulp van de drie pijlers van data-integratie, data governance en databeveiliging om big data om te zetten in echte bedrijfswaarde. Verschillende oefeningen uitgevoerd op een case study van klantbeheer zullen deelnemers helpen de onderliggende processen beter te begrijpen.
7 hours
Deze door een instructeur geleide, live training (ter plaatse of op afstand) is gericht op technische personen die willen leren hoe een machine learning-strategie te implementeren en tegelijkertijd het gebruik van big data te maximaliseren.

Aan het einde van deze training zullen de deelnemers:

- Begrijp de evolutie en trends voor machine learning.
- Weet hoe machine learning wordt gebruikt in verschillende industrieën.
- Raak vertrouwd met de tools, vaardigheden en services die beschikbaar zijn om machine learning in een organisatie te implementeren.
- Begrijp hoe machine learning kan worden gebruikt om datamining en -analyse te verbeteren.
- Ontdek wat een data-backend in het midden is en hoe deze door bedrijven wordt gebruikt.
- Begrijp de rol die big data en intelligente applicaties spelen in verschillende industrieën.

Indeling van de cursus

- Interactieve lezing en discussie.
- Veel oefeningen en oefenen.
- Praktische implementatie in een live-labomgeving.

Cursusaanpassingsopties

- Neem contact met ons op om een aangepaste training voor deze cursus aan te vragen.
7 hours
Apache Sqoop is een opdrachtregelinterface voor het verplaatsen van gegevens uit relationele databases en Hadoop. Apache Flume is een gedistribueerde software voor het beheer van big data. Met Behulp van Sqoop en Flume kunnen gebruikers gegevens tussen systemen overbrengen en big data importeren in opslagarchitecturen zoals Hadoop.

Deze door een instructeur geleide, live training (on-site of remote) is gericht op software engineers die Sqoop en Flume willen gebruiken voor het overbrengen van gegevens tussen systemen.

Tegen het einde van deze training kunnen de deelnemers:

- Big data innemen met Sqoop en Flume.
- Gegevens uit meerdere gegevensbronnen opnemen.
- Gegevens verplaatsen van relationele databases naar HDFS en Hive.
- Gegevens exporteren van HDFS naar een relationele database.

Indeling van de cursus

- Interactieve lezing en discussie.
- Veel oefeningen en oefening.
- Hands-on implementatie in een live-lab omgeving.

Opties voor het aanpassen van cursussen

- Om een training op maat aan te vragen voor deze cursus, neem dan contact met ons op om te regelen.
28 hours
Talend Open Studio voor Big Data is een open source ETL-tool voor het verwerken van grote gegevens. Het omvat een ontwikkelingsomgeving om te interageren met Big Data bronnen en doelen, en werk te doen zonder te moeten schrijven code.

Deze instructeur geleide, live training (online of on-site) is gericht op technische personen die Open Studio voor Big Data willen implementeren om het proces van lezen en crunching door Big Data te vereenvoudigen.

Aan het einde van deze training zullen de deelnemers in staat zijn:

Installeer en installeer Talend Open Studio voor Big Data. Verbinden met Big Data systemen zoals Cloudera, HortonWorks, MapR, Amazon EMR en Apache. Begrijp en installeer Open Studio's big data componenten en verbinders. Configureer parameters om automatisch MapReduce-code te genereren. Gebruik Open Studio's drag-and-drop interface om Hadoop werkzaamheden uit te voeren. Prototype big data pipelines. Automatische big data integratieprojecten.

Format van de cursus

Interactieve lezingen en discussie. Veel oefeningen en oefeningen. Hand-on implementatie in een live-lab-omgeving.

Cursus aanpassingsopties

Om een aangepaste training voor deze cursus te vragen, neem dan contact met ons op om te organiseren.

Last Updated:

Aankomende Big Data cursussen

Weekend Big Data cursus, Avond Big Data training, Avond Big Data opleiding Big Data boot camp, Big Data instructeur geleid, Weekend Big Data training, Avond Big Data cursus, Big Data coaching, Big Data instructeur, Big Data trainer, Big Data training cursus, Big Data lessen, Big Data on-site, Big Data privé cursus, Big Data een op een training, Big Data op locatie, Weekend Big Data opleiding

Cursussen met korting

Course Discounts Newsletter

We respect the privacy of your email address. We will not pass on or sell your address to others.
You can always change your preferences or unsubscribe completely.

Een aantal van onze klanten

This site in other countries/regions