DÉVELOPPEMENT, BASES DE DONNÉES, BIG DATA ET BI Ingénierie logicielle Big Data - L’essentiel De la technologie aux usages du Big Data Pour qui Programme 4/ Introduction aux n Déploiement sur site en version n Responsables de la DSI s’interrogeant sur 1/ Exemples d’usage pertinent architectures des solutions distribuée les apports et le déploiement du Big Data du Big Data de calcul distribué n Déploiement dans les plates- n Chefsde projets, Responsablesde métiers n Réseaux sociaux n Stockage objets - Serveurs formes Cloud Big Data et les et consultants souhaitant aborder les projets n Gestion des clients NoSQL et HDFS précautions à prendre n Toute personne impliquée dans la réflexion n Sécurité informatiques n Scalabilité horizontale 7/ Qualité des données et l’étude du Big Data 2/ Définition commune du n Limitations en termes d’usages nLes 11 principales étapes de Enjeu : Se perfectionner Big Data selon les grands 5/ Plates-formes Cloud public traitement des données selon les acteurs du marché Big Data aPaaS à exploiter organismes internationaux Prérequis 3/ Technologies de référence nIBM Analytics de la plate-forme 8/ Sécurité des données et du Big Data àconnaître Bluemix confidentialité du Big Data n Connaissances sommaires en informatique nStockage des données à traiter : n Amazone Web Services - Google9/ Impacts du Big Data à Objectifs fichiers, blocs et objets Platform Big Data - Microsoft anticiper n Différents types de base des Azure Big Data n Comprendre le concept du Big Data données NoSQL n Points communs et différents n Être capable d’identifier l’écosystème et n Architecture de cluster et entre les plates-formes Big Data comprendre les technologies associées composants économiques 6/ 3 approches de déploiement n Savoir anticiper son intégration dans les n Hadoop - Principaux du Big Data activités informatiques de l’entreprise n 3 approches de déploiement n Être en mesure de l’exploiter dans le respect composants d’Hadoop des règles de sécurité et de confidentialité n Ecosystème et technologies "sur site" associées à Hadoop n Déploiement sur site Points forts / Moyens pédagogiques n Un panorama détaillé des acteurs et solutions du marché. n L’expertise d’un consultant en avance de phase sur le sujet. n Une vision objective des apports et limites du Big Data. 2jours (14h présentiel ) Paris Réf. SEM34 17 jan> 18 jan Formation organisée sur demande en interentreprises à 1 530 €HT 27mai > 28 mai Lyon, Aix-en-Provence, Toulouse, Bordeaux, Nantes, 46 € ParisHT 5sep >6 sep Rennes, Lille et Strasbourg 5 déc >6 déc 44 € RégionsHT Big Data - Les fondamentaux de l’analyse des données Acquérir une première expérience du Big Data MIXTE Pour qui Programme n Particularités liées au stockage 5/ L’analyse de données n MOA, Chef de projet, Analystes, PARTIE 1 : EN PRÉSENTIEL des données non-structurées n Comment requêter les données ? Développeurs, Data Miners … 1/ Introduction 4/ L’écosystèmeHadoop n Analyser et comprendre la n Futurs Data Scientists, Data Analysts et Data 2/ La collecte de données nPrésentation des principaux signification des données Stewards n Où et comment collecter des modules de la distribution extraites données ? Apache Hadoop n Particularités liées à l’analyse des Enjeu : Se perfectionner n Les sources de données, n L’infrastructure matérielle données non structurées les API, les fournisseurs, les et logicielle nécessaire au n Analyse prédictive Prérequis agrégateurs... fonctionnement de Hadoop nCalculer des tendances n Avoir suivi le module BD500 pour suivre Les principaux outils de collecte nServeur local ou cloud n Machine Learning/Deep Learning n cette formation dans des conditions etde traitement de l’information nLes concepts de base de 6/ Transformer les données en optimales 3/Le stockage des données l’architecture Hadoop décisions Objectifs Les différentes et nouvelles nPrésentation de HDFS n Comprendre les besoins et les n nPrésentation de MapReduce attentes des utilisateurs business n Comprendre le rôle stratégique de la gestion formes de stockage des données nLes commandes exécutées au nTraduire les demandes des des données pour l’entreprise n rise en main d’une base deP travers de PIG utilisateurs en requêtes n I dentifier ce qu’est la donnée, et en quoi données OLAP nPrésentation de HIVE pour PARTIE 2 : APRÈS LE consiste le fait d’assurer la qualité de n anorama des bases de donnéesP transformer du SQL en PRÉSENTIEL données NoSQL MapReduce nSynthétiser le cycle de vie de la donnée Retrouvez sur le Learning Hub n Découvrir les bonnes pratiques en matière Points forts / Moyens pédagogiques ib : de contrôle de qualité des données n Une formation très opérationnelle durant laquelle s’alternent les phases nUn vidéocast : "L’écosystème n Assurer lamise enœuvre de la gouvernance d’apports théoriques, d’échanges, de partage d’expériences. Hadoop" de la donnée n Un panorama exhaustif des outils du Big Data. n Deux vidéo-tutos : "Installation n L’apprentissage par la pratique : les ateliers proposés permettent aux d’un environnement Hadoop de participants d’acquérir une première expérience. base" et "Développement d’un n Les retours d’expérience et conseils de consultants experts. premier MapReduce" 3jours (21hprésentiel ) Paris Réf. BD540 28 jan> 30 jan Formation organisée sur demande en interentreprises à 1 970 €HT 27mai>29 mai Lyon, Aix-en-Provence, Toulouse, Bordeaux, Nantes, 69 € ParisHT 23 sep >25 sep Rennes, Lille et Strasbourg 12nov>14 nov 1114 Toutes nos formations sont réalisables dans votre entreprise à la date qui vous convient.© Cegos 2019