Formation Apache SPARK
Apache Spark est le moteur de traitement de données Big Data le plus rapide : il permet de diviser par 100 le temps d’exécution en maximisant le travail “in-memory”. Spark s’appuie sur plusieurs types de clusters dont YARN et le négociateur de ressources intégré à Hadoop.
Au terme de cette formation, vous saurez concevoir une application avec Spark, comprendre le principe de distribution des traitements ou encore positionner SparkML dans un contexte de Data Science !
%
À qui s’adresse cette formation Apache SPARK ?

Architectes

Développeurs

Chefs de projet

Data Miners
Description de la formation
Apache SPARK
Présentation
Souvent mis en opposition au modèle mapreduce implémenté dans Hadoop, il en est en fait une extension qui peut en diviser les temps d’exécution jusqu’à un facteur de 100 en maximisant le travail « in-memory ».
Spark exploite les principes de programmation fonctionnelle afin d’optimiser l’empreinte mémoire nécessaire à son exécution. Conçu pour mettre en œuvre des traitements distribués, Spark peut s’appuyer sur plusieurs types de clusters, dont YARN le négociateur de ressources intégré à Hadoop.
Méthode pédagogique
Une évaluation quotidienne de l’acquisition des connaissances de la veille est effectuée.
Une synthèse est proposée en fin de formation. Une évaluation à chaud sera proposée au stagiaire à la fin du cours.
Un support de cours sera remis à chaque participant comprenant les slides sur la théorie, les exercices et les corrigés de ces derniers. Une feuille d’émargement par demi-journée de présence est fournie en fin de formation ainsi qu’une attestation de fin de formation si le stagiaire a bien assisté à la totalité de la session.
Objectifs
- Concevoir une application avec Spark
- Comprendre le principe de distribution des traitements
- Maîtriser les concepts fondamentaux des et des Resilient Distributed Dataset
- Utiliser les dataframes via Spark SQL
- Utiliser SparkUI afin d’analyser les jobs et tâches de Spark
- Positionner SparkML dans un contexte de data science
- Traiter des données en continu avec Spark Streaming
Audience
- Architectes
- Développeurs
- Chefs de projet
- Dataminer
Pré-requis
Le formateur
Doté d’une grande qualité d’écoute, sa pédagogie et sa compétence technique vous permettront d’acquérir les compétences sur SPARK.
Il saura alterner entre théorie, pratique, et retours d’expérience.
Le programme
Présentation de Spark
- Spark : un besoin de distribuer vos traitements
- Architecture de Spark runtime : driver, executor, master
- Positionner Spark vs Hadoop
- Les langages du framework : Java | Scala | Python | R
RDD : Resilient Distributed Dataset
- RDD : Le composant fondateur du fonctionnement de Spark
- Les partitions : la base de la distribution
- Transformations, actions et directed acyclic Graph
- Manipuler un RDD : Une API riche
- Le cas particulier des Pairs RDD
SparkSQL, Dataframes et Datasets
- Un modèle de programmation haut niveau
Initialisation d’un dataframe - Manipulation : sélection, tri et fonctions d’agrégation.
- Dataset : une surcouche typée des dataframes
- Comprendre le plan d’exécution d’une requête
- Bonnes et mauvaises pratiques avec SparkSQL
Mise en cluster : Les infrastructures de déploiement
- Les composants d’une exécution Spark : Jobs, stages et tasks
- Un principe important : Data locality
- Distribution des données dans le cadre d’un cluster : les partitions
- Redistribution des données : le shuffle
- Bonnes pratiques et performance
Machine Learning
- Comprendre les principes fondamentaux du Machine Learning
- Apprentissage et création d’un modèle avec SparkML
Spark streaming
- Collecte et traitement des données en continu
- Stream processing avec Spark
- Comprendre le principe du micro-batching
Tarif
1980 € HT
Formation à distance
Retengr vous permet aussi de suivre cette formation à distance, sous forme de classe virtuelle (6 participants maximum), avec un formateur expert sur le sujet. La formation se déroule via une connexion en visio conférence (ZOOM, GoogleMeet, Teams ou autres) et vous permet d’alterner théorie et pratique de façon accompagnée ou autonome, le tout dans le respect des objectifs pédagogiques et des évaluations des acquis.
Les émargements, évaluations, attestation de formation, remises des supports de cours et autres documents se feront en ligne.
En ce qui concerne le matériel informatique du participant, il est seulement préconisé un ordinateur et une connexion internet. Nous nous chargeons du reste.
Chaque participant se verra attribuer une Machine Virtuelle qui sera exécutée dans le Cloud d’Amazon. Il disposera alors de la puissance et des outils nécessaires pour le bon déroulement de la formation. Aucune installation de la part du participant n’est requise avant la formation.
Une journée type de formation à distance se décompose de la façon suivante :
Matin :
- 2h de théorie en visioconférence
- 10 à 15 minutes de présentation d’exercices en visio
- 1h de TP en autonomie avec possibilité de solliciter le formateur (partage d’écran à distance pour une assistance efficace).
Après-midi :
- 2h de théorie en visioconférence
- 10 à 15 minutes de présentation d’exercices en visio
- 1h de TP en autonomie avec possibilité de solliciter le formateur (partage d’écran à distance pour une assistance efficace).
Les prochaines dates pour cette formation
Nos clients parlent de nous
Nos autres formations en hautes technologies

Architecture

Data

DevOps

Agilité

Web client

Web mobile
Prêt(e) à vous former en Data ?
Envoyez-nous un message !
Vous remplissez ce formulaire
Nous vous recontactons sous 48h
Nous finalisons ensemble votre inscription