Baptisée Hortonworks Data Platform (HDP), la distribution Hadoop proposée par Hortonworks est la seule qui reprend intégralement le projet Open Source Apache Hadoop. Ce choix a su séduire des éditeurs de renom tels que Microsoft ou IBM qui ont intégré HDP à certaines de leurs solutions comme SQL Server 2014 ou IBM InfoSphere. HDP reste toutefois une solution à part entière dont il convient de maitriser les différentes briques pour mettre en oeuvre une solution de stockage réparti. Les administrateurs et exploitants de cluster Hadoop disposeront à l’issue de cette formation de 3 jours de toutes les connaissances nécessaires pour mener à bien leurs missions respectives.
PROGRAMME PEDAGOGIQUE
OBJECTIFS
PUBLIC CONCERNE
HORAIRES
TARIFS
PROGRAMME PEDAGOGIQUE
PROGRAMME DE FORMATION
Introduction
- Présentation générale d’Hadoop
- Exemples d’utilisation dans différents secteurs
- Historique et chiffres clés : Quand parle-t-on de Big Data ?
- Les possibilités d’implantation de l’infrastructure et les coûts
L’écosystème d’Hadoop
- Le système de fichier HDFS
- Le paradigme MapReduce et l’utilisation à travers YARN
- Le garant des informations : Zookeeper
- Le système de stockage de la donnée basé sur le socle : HBase
- La présentation de l’architecture globale : où installer les services ?
- La définition du dimensionnement pour un cluster Hadoop
- Les particularités de MapR
Installation du socle Hadoop
- Installation et configuration manuelle pas-à-pas sur plusieurs machines de : HDFS, YARN, Zookeeper, HBase
Manipulation de données dans un cluster Hadoop
- Architecture, objectif et fonctionnement du Manager : MapR Control System
- Mise en pratique
Concepts d’architecture complexes
- Architecture en rack : les avantages et fonctionnement et paramétrage du rack awareness
- Scalabilité et performances : le Namenode Federation
- High Availability des serveurs maitres
- Utilisation des snapshots : sauvegarde et restauration
OBJECTIFS
Objectifs pédagogiques
- Acquérir les meilleurs pratiques pour l’administration d’Apache Hadoop 2.0
- Être en mesure de définir la taille d’un cluster et de savoir le déployer
- Savoir installer et configurer Hadoop Hortonworks
- Comprendre comment gérer et maintenir des noeuds dans le cluster
- Être capable d’optimiser la performance d’un cluster
- Savoir déplacer et gérer les données dans le cluster ou encore ajouter et enlever des noeuds de données
- Être en mesure de surveiller les statuts et l’état de santé du cluster dans un outil de monitoring
- Comprendre comment mettre en place une solution de haute disponibilité
PUBLIC CONCERNE
Participants
- Administrateurs systèmes et personnes qui gèrent et maintiennent les clusters Apache Hadoop en production ou qui évoluent dans un environnement de développement
Prérequis
- La plate-forme reposant sur une architecture Linux, il est demandé aux participants de savoir naviguer et modifier des fichiers dans cet environnement
- Une connaissance préliminaire d’Hadoop n’est pas exigée
HORAIRES
Les cours ont lieu de 9h à 12h30 et de 14h à 17h30
Les participants sont accueillis à partir de 8h45
TARIFS
Durée : 3 jours
Réf : SUR
Prix 2020 : 1930 € H.T.
Pauses et déjeuners offerts
Cette formation vous intéresse
Notre équipe est à votre écoute pour étudier vos besoins en formation et vous proposer les meilleures solutions.
Contactez-nous pour fixer un rendez-vous ou décrivez-nous votre projet. Nous prendrons contact avec vous rapidement.