Nous sommes des passionés du Big Data et nous savons partager cela avec vous

Nous avons la formation Big Data qu’il vous faut

Le Big Data est notre passion, votre succès est notre objectif !!

Nous sommes une équipe d’experts en Big Data, BI et Data Science dont chacun des membres a plus de 20 années d’expérience professionnelle de mise en place de solutions BI puis Big Data chez des clients de renommée mondiale.

Nos formations sont dispensées par des formateurs professionnels ayant une grande expérience dans l’enseignement et aussi auteurs de plusieurs livres pour certains. Nous pouvons vous accompagner et vous encadrer dans l’apprentissage des différentes technologies Big Data. Nos formations vous permettrons d’appréhender et de comprendre les enjeux et les besoins adressés notamment par les bases de données NoSQl, les langages de programmations (Java, Python) et l’écosystème Hadoop (HDFS, MapReduce, Tez, Yarn, HBase, Hive, Pig, Kafka, Flume, Sqoop, Oozie, Spark, Storm, etc…)

Nous intervenons en Entreprises , à l’Université et les Ecoles publiques

A la pointe des technologies Big Data et Hadoop

Nos Formations Big Data

Trouver des spécialistes du Big Data à embaucher… c’est le problème de beaucoup de cabinets de recrutement ces derniers mois. Nous pouvons former et faire monter en compétences vos équipes avec plusieurs types de formations en adéquation avec chaque profil et objectifs à atteindre.

Nos formations sont dispensées par des formateurs experts ayant une grande expérience à la fois dans l’enseignement et le Big Data.

Pour les Managers (Gestionnaires)
Le Big Data par la pratique
Les Fondamentaux du Big Data
Formation Big Data sur mesure
Developpeur Hadoop Big Data
Administrateur Hadoop Big Data
Spark et son écosystème
Les bases de données NoSQL
Introduction à la Data Science
Plus d'information

Pour les Managers

Vous êtes Manager (gestionnaire) et vous souhaitez disposer d’un panorama de l’état de l’art du Big Data avant de vous engager ?
Cette formation en une ou deux demis journées est faite pour vous.

Cette formation vous donnera le recul nécessaire pour comprendre comment ces technologies sont apparues et vous présentera les derniers outils de stockage et de traitement distribués sans s’appesantir sur les aspects techniques.

Cette formation comprend une importante partie théorique, des analyses de cas et des retours d’expérience du formateur.

Objectifs

Vous souhaitez comprendre concrètement

  • Ce qui se cache derrière le terme à la mode “Big Data”
  • Quelles sont les briques techniques qui le composent
  • Comment exploiter les technologies Big Data pour proposer/découvrir de nouveaux usages.

1ère demi-journée

  • Définition, usages et impacts du Big Data
  • Les solutions de stockage pour le Big Data : les bases NoSQL
  • Les solution du traitement pour le Big Data : Écosystème Hadoop (Pig, Hive, Spark, …)

2ème demi-journée

  • Big Data vs BI traditionnelle
  • Le processus Big Data
  • Comment initialiser une démarche Big Data ?
  • Introduction aux “Data Lake”

Contactez-nous

Le Big Data par la pratique

Vous êtes développeur et vous souhaitez souhaitez ajouter le Big Data à vos compétences ?
Cette formation de trois jours est faite pour vous, elle vous donnera le recul nécessaire pour comprendre comment ces technologies sont apparues et vous initiera aux derniers outils de stockage et de traitement distribués.

Durant cette formation plusieurs exercices vous permettront d’assimiler par la pratique les concepts présentés.

Objectifs

Après avoir analyser l’origine, les usages et les impacts du phénomène Big Data, vous apprendrez :

  • Les systèmes de stockage distribué (NoSQL, HDFS, …)
  • Les systèmes de traitements distribués (Hadoop, MapReduce, Pig, Hive, Spark, …).

1ère journée

  • Définition, usages et impacts du Big Data
  • Solutions de stockage pour le Big Data
    • Systèmes clé valeur : Redis
    • Systèmes orientés documents : MongoDB
    • Systèmes à famille de colonnes : Cassandra
    • Systèmes orientés graphe : Neo4j

2ème journée

  • Hadoop et HDFS
  • Hadoop v2 (Yarn)
  • Pig, Hive, Impala
  • Flume, Sqoop

3ème journée

  • Spark
  • Spark SQL
  • Le Machine Learning (Spark MLLib)
  • Spark Streaming

Pré-requis

  • Les exercices utilisent les langages propres à chaque système étudié. Il n’est bien sûr pas nécessaire de les connaître préalablement. Par contre, une culture de la programmation et la capacité à transposer ses concepts dans ces nouveaux environnements est nécessaire. La connaissance de Python ou Scala est un plus.
  • Les environnements des exercices sont sur exécutés sur une machine virtuelle en local sur votre ordinateur portable. Si vous ne pouvez pas venir avec votre machine, merci de nous prévenir au préalable pour que nous trouvions une solution alternative.

Contactez-nous

Les Fondamentaux du Big Data

Le Big Data, littéralement « grosses données », ou mégadonnées, parfois appelées données massives, désignent des ensembles de données qui deviennent tellement volumineux qu’ils en deviennent difficiles à travailler avec des outils classiques de gestion de base de données ou de gestion de l’information.

Le Big Data est essentiel pour répondre aux nouveaux enjeux de traitement de très hautes volumétries de données qu’elles soient structurées et non sturctuées à grande vitesse afin de créer de la valeur pour l’entreprise.

Plus d'information

Big Data sur mesure

S’adapter aux besoins en dispensant la formation utile.
L’objectif de cette formation est de co-construire son programme en adéquation avec les besoins de l’entreprise. Ceci en sélectionnant uniquement les modules nécessaires qui permettent d’adapter le curseur de la double compétence technique et business en fonction de la population à former.

Cette formation permet de combiner l’apprentissage de compétences généralistes fonctionnelles et/ou des compétences techniques plus pointues en matière d’acquisition, de stockage, d’analyse et d’interprétation des données.
Aussi, cette formation inclut à la fois des enseignements théoriques et des cas pratiques.

Plus d'information

Developpeur Hadoop

Hadoop est un framework libre et open source écrit en Java destiné à faciliter la création d’applications distribuées (au niveau du stockage des données et de leurs traitements) et échelonnables (scalables) permettant aux applications de travailler avec des milliers de nœuds et des pétaoctets de données.

Ainsi chaque nœud est constitué de machines standard regroupées en grappe. Tous les modules de Hadoop sont conçus dans l’idée fondamentale que les pannes matérielles sont fréquentes et qu’en conséquence elles doivent être gérés automatiquement par le framework.

Hadoop a été inspiré par la publication de MapReduce, GoogleFS et BigTable de Google. Hadoop a été créé par Doug Cutting et fait partie des projets de la fondation logicielle Apache depuis 2009.

Aussi, cette formation inclut à la fois des enseignements théoriques et des cas pratiques.

Plus d'information

Administrateur Hadoop

Hadoop est un framework libre et open source écrit en Java destiné à faciliter la création d’applications distribuées (au niveau du stockage des données et de leurs traitements) et échelonnables (scalables) permettant aux applications de travailler avec des milliers de nœuds et des pétaoctets de données.

Ainsi chaque nœud est constitué de machines standard regroupées en grappe. Tous les modules de Hadoop sont conçus dans l’idée fondamentale que les pannes matérielles sont fréquentes et qu’en conséquence elles doivent être gérés automatiquement par le framework.

Hadoop a été inspiré par la publication de MapReduce, GoogleFS et BigTable de Google. Hadoop a été créé par Doug Cutting et fait partie des projets de la fondation logicielle Apache depuis 2009.

Cette formation vise à apprendre à créer l’architecture d’une solution Hadoop au niveau de l’infrastructure pour répondre aux besoins de l’entreprise. Toutes les procédures pour installer, surveiller et configurer un cluster Hadoop qui gère des ensembles de données volumineux sont expliquées en détail.

Aussi vous apprendrez à personnaliser un environnement Hadoop pour optimiser la disponibilité et le débit des données.

Cette formation inclut à la fois des enseignements théoriques et des cas pratiques

Plus d'information

Spark Ecosystème

La quantité de données disponible ne cesse de croître depuis l’émergence du Web et la réduction des coûts de stockage. Aussi le traitement de ces données volumineuses, leur analyse et leur interprétation devient de plus en plus difficile avec les méthodes séquentielles classiques.

De ce fait, le traitement parallèle et distribué s’avère la solution la plus intéressante et la plus pertinente. Dans cette optique, plusieurs travaux de recherches et d’outils Open Source ont vu le jour et parmi eux Apache Spark qui est considéré comme le framework le plus abouti et maintenant le plus utilisé pour les problématiques d’analyse des données à large échelle, dans le monde.

Plus d'information

Les bases de données NoSQL

Les bases de données NoSQL constituent la pierre angulaire d’un environnement Big Data. En effet, les bases de données NoSQL ont émergé pour traiter des problématiques liées à de fortes volumétries issues de sources hétérogènes.

Cette formation vise à expliquer les différents concepts des bases NoSQL afin de savoir quelle catégorie de base NoSQL (clé/valeur, document,colonne, graphe) choisir en fonction des cas d’usages.

Vous apprendrez les avantages et les limites des bases de données NoSQL par rapports aux bases de données relationnelles en terme de performance et de qualité de données.
Plusieurs ateliers pratiques vous aiderons à savoir créer, manipuler et interroger les bases de données dans NoSQL.

Plus d'information

Introduction à la Science des Données (Data Science)

Cette formation a pour but de permettre d’acquérir les méthodes de base des statistiques qu’un Big Data Scientist sera amené à rencontrer dans sa vie professionnelle pour gérer les masses de données complexes auxquelles il sera confronté.

Ces méthodes statistiques seront introduites et illustrées sur des cas réels. Les sujets abordés iront des problématiques de description des données jusqu’aux tests statistiques en passant par la régression. A chaque fois il s’agira à partir de vraies données d’étudier comment développer un modèle mathématique adapté et de montrer comment il est mis en œuvre informatiquement (en utilisant des langages tels que R ou Python).

Plus d'information

Ce que disent nos élèves

Un simple coup de téléphone pourrait faire basculer votre carrière !