MIAGE Informatique Décisionnelle - 2ème année de Master

L'année de formation

UE fondamentales

  • Mise à niveau Bases de données

    Array

    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :

  • Mise à niveau Java

    Array

    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :

  • Mise à niveau Maths finance

    Array

    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :

  • Mise à niveau UML

    Array

    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :

  • Mise à niveau Statistiques

    Array

    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :

  • Entrepôts de données

    Array

    Ects : 4
    Coefficient : Array
    Compétence à acquérir :
    Modélisation et manipulation de données multidimensionnelles

    Description du contenu de l'enseignement :
    Acquérir les notions de base relatives à l'acquisition, l'intégration, la modélisation et au traitement de données multidimensionnelles.
    Introduction et définition d'un entrepôt de données, Architecture fonctionnelle, Modélisation conceptuelle, Alimentation, Stockage, gestion et exploitation de l'entrepôt. Utilisation de l’ETL Talend en TP.
    TP1 : Introduction talend
    TP2 : Business Modeler et construction des premiers jobs
    TP3 : Découverte d'autres connecteurs talend
    TP4 : Déploiement des jobs talend pour Mise en production

  • Sécurité dans les SI

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :
    Initiation à la sécurité des systèmes d'information : menaces et recommandations

    Description du contenu de l'enseignement :
    La plupart des politiques de sécurité des systèmes d’information reposent sur une vision négativiste de l’action humaine : dissuader, bloquer, détecter, etc. Ce cours vise à installer les basiques de la sécurité pour permettre à chacun de poser les bonnes questions et de devenir un acteur engagé de la politique de sécurité des systèmes d’information de son entreprise. Les fondamentaux aussi bien qu’une vision prospective et innovante de la sécurité des systèmes d’information sont abordés dans ce cours.
    - Techniques d'attaque, de défense, de persuasion
    - Contexte législatif et réglementaire (CNIL, RGPD, NIST, etc.)
    - Éthique sécurisée, lanceurs d'alerte
    - Menaces ciblant l'humain, ingénierie sociale et manipulation

  • Outils d'optimisation pour les sciences des données et de la décision

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    L’Optimisation Mathématique est un outil très puissant pour modéliser des problèmes décisionnels se présentant dans de nombreuses matières de la data science, l'ingénierie et l'industrie. Dans toutes ces applications, des décisions doivent être prises en partant de données complexes et structurées. Le but de ce cours est de décrire les outils nécessaires pour résoudre les problèmes d'optimisation associés à l'apprentissage de modèles de machine learning et data science. Cela donne les outils mathématiques basiques de l'optimisation convexe et décrit différentes approches permettant de construire des algorithmes efficients d'optimisation convexe. Différents cas pratiques portant sur le machine learning illustreront l'utilisation de ces algorithmes pour l'apprentissage de datasets.
    Plus en détails, la première partie du cours couvre les aspects de modélisation du champ, fournissant les outils pour construire des modèles mathématiques effectifs, c'est-à-dire des modèles qui peuvent être résolus en pratique. La seconde partie est consacrée aux aspects algorithmiques : des algorithmes de base sont traités ainsi que d'autres plus avancés, utiles pour ces modèles caractérisés par un nombre exponentiel de variables et/ou contraintes, qui seront présentés en détail. Enfin, la troisième partie du cours aborde les applications réelles.

  • Data Mining/Machine learning

    Array

    Ects : 4
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Il s'agit d'initier les étudiants à l’apprentissage automatique (machine learning) et à la pratique de la fouille (data mining) et l’extraction de connaissances à partir des grandes masses de données. Il sera illustré par des cas concrets des exemples réalisés en session avec le logiciel R. L’évaluation se fait par examen et par un challenge Kaggle (kaggle.com)
    - Introduction
    - Objectifs et panorama du datamining et du Machine learning
    - Méthodes non supervisées :
    Réduction de dimensionnalité
    Clustering :
    K-means, CAH
    Approches probabilistes : EA
    Approches spectrales
    Application à une segmentation marketing
    Application au Text Mining
    Règles d’association
    -Méthodes supervisées :
    Régression logistique
    Arbre de Décision
    Méthodes à Noyaux
    Approches neuronales
    Application au scoring

  • Systèmes, Langages et Paradigmes pour le Big Data

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Le cours a pour objectif d'apprendre aux étudiants les aspects fondamentaux des technologies Big Data pour la gestion et analyse de données massives.
    Le cours s’articule en trois parties.
    Dans la première, l’accent est sur le paradigme MapReduce et le système Hadoop, avec un focus sur son système de fichiers HDFS. Le cours illustrera les mécanismes de base de Hadoop pour le support de l'exécution parallèle de ‘dataflow’ MapReduce sur des clusters de machines. Une attention particulière sera donnée aux aspects algorithmiques et d’optimisation de dataflow MapReduce.
    La deuxième partie présentera des langages de requête et d’analyse de données caractérisés par des mécanismes de haut niveau et qui sont compilé sur MapReduce. Le focus sera sur les langages Pig Latin et Hive, des langages incluant des mécanismes à la SQL. Les techniques de compilation vers MapReduce seront présentées.
    La troisième partie sera consacrée à des évolutions de Hadoop, et en particulier au système Spark et au langage de support Scala. Le focus sera sur l’architecture de Spark, la notion de RDD, l'évaluation lazy de transformations et actions sur des collections distribuées RDD.
    Les notions apprises seront mises en pratique dans un projet où les étudiants devront concevoir un dataflow pour l’analyse de grands volumes de données. L'implémentation sera faite tant en MapReduce qu’en Spark, et une analyse expérimentale sera effectuée pour comparer les performances des deux implémentations.

UE Optionnelles

  • Transparence des algorithmes pour la décision

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Les algorithmes jouent un rôle de plus en plus fondamental dans tous les aspects de notre vie. Une des principales craintes soulevées par les algorithmes est leur manque de transparence de leur fonctionnement, ce qui pourrait amener à l’avènement d’une « société boîte noire ». De plus, cette transparence est un prérequis pour pouvoir analyser et expliquer les décisions prises par les utilisateurs ou des entreprises.
    Le but de ce cours est de discuter et de sensibiliser les étudiants aux questions soulevées par la transparence et la responsabilité des algorithmes telles que par exemple :
    Quelles sont les situations où la transparence et l’explicabilité sont nécessaires et comment les implémenter en pratique ?
    Comment réconcilier le besoin des entreprises de protéger leur propriété intellectuelle avec le besoin des citoyens de pouvoir comprendre la logique derrière les algorithmes qu’ils utilisent ou qui produisent un effet sur leurs vies ?
    Comment améliorer la transparence, la responsabilité ainsi que l’équité des décisions prises par des systèmes algorithmiques sans pour autant compromettre leur utilité.
    On s’intéressera ici à une catégorie particulière d’algorithmes, ceux qui sont utilisés pour l’aide à la décision ou dans des traitements qui ont des incidences sur les comportements individuels, qui ont donc un effet normatif. A titre d’exemples, on peut citer :
    Les algorithmes de classement, qui établissent des priorités, des recommandations : on pense évidemment aux algorithmes de présentation des résultats des moteurs de recherche, mais aussi à ceux qui sont utilisés pour classer les candidats à un poste, etc.
    Les algorithmes de catégorisation, de classification, de profilage comme ceux qu’on met en œuvre pour détecter des profils de potentiels terroristes, de fraudeurs, etc.

    Ce cours abordera les points suivants :
    Rappels de notions du langage Python
    Transparence, explicabilité et responsabilité des algorithmes : définitions, liens, avantages et limites.
    Le bien-fondé de la transparence des algorithmes pour l’informatique décisionnelle. Aspects juridiques.
    Cas d’étude 1 : Transparence des algorithmes dans le cadre des systèmes de recommandation : le cas du filtrage collaboratif
    Cas d’étude 2 : Transparence des algorithmes dans le cadre de la classification : classification ordonnée et arbre de décision.
    Cas d’étude 3 : Transparence des algorithmes dans le cadre de l’élaboration des classements ou palmarès : prise en compte simultanée des préférences des utilisateurs et des données statistiques

    Mise en œuvre en langage python, à travers un mini-projet, d’un algorithme transparent pour la résolution d’un problème, à partir de données réelles disponibles sur des plateformes comme https://www.data.gouv.fr ou https://www.kaggle.com/

  • Méthodes Agiles d'Ingénieurie Logicielle

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    La nouvelle économie met à rude épreuve les équipes des projets informatiques. L'instabilité notoire des spécifications et le raccourcissement des délais de livraison imposent une amélioration drastique de la réactivité et de la productivité du développement, sans tolérer pour autant une quelconque négligence en matière de stabilité et d'évolutivité des applications déployées. Les méthodologies dites "agiles" tentent de répondre à ces exigences, en adoptant un investissement minimaliste et prônant des résultats tangibles et fréquents, par opposition aux méthodologies classiques qui - tout en imposant des organisations coûteuses - n'arrivent plus à prouver leur efficacité dans ces conditions extrêmement dynamiques. Ce cours propose un panorama des méthodes et techniques efficaces applicables dès les projets de petite taille. Les étudiants pourront les mettre en œuvre avantageusement, aussi bien pour leurs projets pédagogiques qu'industriels, une fois dans l'entreprise.
    Introduction. Evolution des modèles du cycle de vie des projets.
    Offre des méthodologies agiles : XP, FDD, Scrum, Kanban, Lean, etc.
    eXtremeProgramming : cycle de négociation, développement piloté par les tests, refactoring permanent, etc.
    Du code au modèle UML. Modélisation, stratégies et patterns agiles. Design Patterns, Analysis Patterns et Metapatterns.
    Techniques encourageant l'agilité : RAD, AOP, Assemblage de composants, MDA, etc.
    Illustrations en Java, tout au long du cours

  • Optimisation en Finance

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Le but de ce module est d'introduire certaines techniques d'optimisation pour résoudre des problèmes en finance moderne, comme les problèmes de gestion de portefeuilles, de gestion de risques ou d’évaluation de prix d’option. L’accent sera mis sur les modèles stochastiques en finance.
    Introduction :Rappel de quelques techniques et modèles d’optimisation : modèles linéaires, mixtes, quadratiques, Problèmes de gestion de portefeuilles, d’évaluation de prix d’options et d’arbitrage. Modèle de Markowitz.
    Gestion de risque : Valeur en risque, valeur en risque conditionnelle, Optimisation de la valeur en risque conditionnelle.
    Optimisation robuste en finance : Sélection de portefeuille robuste sur plusieurs périodes, Profit robuste dans un portefeuille risqué, Sélection de portefeuille robuste, Robustesse relative dans la sélection d’un portefeuille.
    Modèles stochastiques : Gestion actif-passif, Gestion des dettes, Evaluation des prix d’options, Estimation de la volatilité.

  • Gouvernance des Systèmes d'Information

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Presenter les principes de la gouvernance des SI.
    Description : J1 : Introduction - concepts
    Entreprise et système d'information
    · Définition du système d'informations
    · Les composantes clés du SI
    Gouvernance : définition et enjeux
    · La gouvernance : pourquoi, à quoi cela sert-il ?
    · Gouvernance au niveau de l’entreprise
    15.doc 10
    · Gouvernance des SI : pour leur pilotage interne
    · SI et entreprise : alignement du SI sur la stratégie et la politique de l’entreprise
    360° de la gouvernance
    · La gouvernance à mettre en œuvre dépend de comment l’organisation entend piloter son
    activité et se contrôler
    · La gouvernance dépend de l’organisation voire de l’environnement socio-économique
    · Notion de « Compliance » : empilage des législations, réglementations, bonnes pratiques et
    procédures qui conditionnent la gouvernance
    J2 : Les référentiels
    Les grands standards :
    · Spice, CMMi, Itil, Cobit, …
    · Orientations plus particulières de certains référentiels : développement logiciel, mode projet,
    exploitation, etc.
    Focus sur ITIL
    · Applications types intérêts et limites
    · Limites par rapport à la gouvernance de l’entreprise sur son SI
    J3 : Les référentiels - Suite
    Focus sur CoBit
    · Applications types, intérêts et limites
    · Limites par rapport à la gouvernance de l’entreprise sur son SI
    Modèle d’organisation : la matrice des fonctions du département informatique.
    J4 : Les référentiels - Etude de cas
    Exemple de mise en place d'une démarche ITIL
    J5 : Organisation de la DSI - gouvernance des systèmes d'information-gouvernance d'entreprise
    · Comment s’articulent la gouvernance interne du SI et le niveau de gouvernance du SI requis
    pour le pilotage de l’entreprise ?
    · Quel recours pertinent aux référentiels métiers SI, quelles autres leviers et indicateurs pour
    répondre à toutes les exigences de gouvernance au niveau de l’entreprise
    · Et si la Direction de l’entreprise n’envisage même pas le SI comme objet/sujet de la
    gouvernance d’entreprise ?
    J6 : Les indicateurs de la Direction des Systèmes d'informations
    Ce qui se mesure s'améliore
    · Des indicateurs, pourquoi faire ?
    · Quelques indicateurs incontournables
    J7 : Etude de cas - Elaboration d'un Plan Directeur Informatique
    · Le plan directeur
    · Exemple d'élaboration du Plan Directeur Informatique d'une PME Français
    J8 : Tendances
    Cloud - Digital Marketing et BYOD … quel impact sur la gouvernance et le contrôle de risque ?

  • Capitalisation et management des connaissances

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :
    Concepts et enjeux du management des connaissances dans les entreprises

    Description du contenu de l'enseignement :
    Le cours de capitalisation sur les connaissances de l'entreprise est une introduction au Knowledge Management (KM). Il prodigue les concepts académiques fondamentaux aussi bien que des études de cas réelles permettant d'apprécier les enjeux du management des connaissances dans les entreprises.
    - Interprétations divergentes dans une entreprise étendue : contextes, cultures, intentions
    - Cadre académique de l'ingénierie des connaissances, outils de cartographies cognitives
    - Expertise, pouvoir, partage et rétention de connaissances
    - Devenir des métiers, design thinking

  • Programmation Back-end et Front-end

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Introduction aux techniques de programmation back/front-end.
    L’objectif de ce cours est d’introduire les technologies utilisés dans les développement des applications Web du coté front, en utilisant des technologies telles Angular, mais aussi du coté serveur (back-end), en utilisant des tecknologies telles NodeJS.

  • Data Science

    Array

    Ects : 2
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    L’objectif de ce cours est de vous former aux principaux modèles, architectures et outils utilisés dans l’ingénierie de Data Science pour gérer de grand volumes de données.
    La richesse et l'importance de l'information véhiculée par les données a conduit à une augmentation rapide de l'influence des données sur les individus et la société. Les données de toutes sortes, tels que les énormes collections de données sur l'internet, sont devenues omniprésentes dans pratiquement tous les aspects de notre société. Les données numériques sont à présent des ingrédients clés des innovations dans divers domaines, tels que l'énergie, l'économie, la santé ou le climat, ainsi que dans la science, du web, les entreprises doivent relever le défi de capturer, stocker, rechercher, partager et visualiser les données pour faciliter la prise de décision à tous les niveaux (politique, économique, scientifique, social, etc.). L’objectif de ce cours est de vous former aux principaux modèles, architectures et outils utilisés dans l’ingénierie de Data Science pour gérer de grand volumes de données.
    L’objectif de ce cours est de vous former aux principaux modèles, architectures et outils utilisés dans l’ingénierie de Data Science pour gérer de grand volumes de données. En particulier :
    • Les clusters
    • Le modèle de programmation MapReduce
    • L’écosystème Hadoop
    • SPARK
    • Les base de données NoSQL,

    Pré-requis : Connaissances des bases de données relationnelles.

  • Serveurs d'application JAVA

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Le terme "Serveur d'applications" est un intitulé général pour un objectif commun: la prise en charge de la complexité du développement d'applications pour l'entreprise actuelle. Ces applications se doivent d'être multi-tier, fiables et sécurisées, tolérantes aux pannes, transactionnelles, « scalables », interopérables, extensibles et réutilisables.Dans ce contexte, les serveurs d'applications fournissent un ensemble de services technologiques (middleware SOA ou ORB, serveur et services web, persistance, transactions, clustering etc.) au sein duquel interagissent les composants métiers d'une application répartie. La plateforme Java Entreprise Edition a pour vocation de répondre à ce challenge en offrant, à travers des spécifications ouvertes, un ensemble d'API ainsi qu'un modèle de composants.

    Introduction
    Concepts fondamentaux : objets répartis ORB (RMI\CORBA), moniteurs transactionnels, architecture à composants répartis, services web, SOA
    Présentation générale de Java EE : différentes technologies, généralités sur la spécification, modèle d'assemblage et de déploiement.
    Composants EJB 3, Persistance JPA, JMS, SOA
    API client : interfaces distantes, interface locales, JNDI
    Services avancés : clustering, transactions...
    Mise en pratique dans le cadre d’un projet (Eclipse/ JBoss /Hibernate / MySQL)

UE fondamentales

  • Management de projet informatique

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Ce cours vise à développer les compétences nécessaires en matière de lancement, planification, et gestion de projets de manière efficace ainsi qu’à la consolidation des notions de conception et de modélisation et de leur intégration dans une démarche agile.
    - Les différents processus qui accompagnent les méthodes de conduite de projet informatique
    - Rôle de la maîtrise d'ouvrage et de la maîtrise d'œuvre
    - Les activités de support
    - Exposer et développer les méthodologies de conduite de projet informatique
    - Conception agile : Lean, Scrum et Kanban
    - Rétro-conception outillée d'un système existant : impact mapping, story mapping et backlog prêt
    - Rétrospective méthodologique
    - Définition et domaines d'usage d'un ERP
    - Pourquoi un ERP ? Les enjeux Business
    - Fonctionnement d'un ERP,
    - Analyse et Stratégie de l'Entreprise
    - Critères de choix d'un ERP,
    - Organisation du projet et facteurs clés du succès
    - Développement de la solution, test de la solution, mise en production de la solution
    - Évaluation de la solution.

    Prérequis : UML

  • Droit, Données et Ethique

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    La profonde transformation numérique de nos sociétés rend nécessaire comme l’a encore récemment rappelé la CNIL de « former à l’éthique tous les maillons de la chaîne algorithmique, concepteurs, professionnels, citoyens ». La création de ce nouveau cours Données et Ethique s’inscrit dans cette optique. Il s’agit de permettre aux informaticiens de prendre conscience des implications éthiques et sociales du traitement des données qu’ils opèrent. Il s’agit aussi les informer sur l’évolution du cadre dans lesquels ils vont pouvoir ou devoir mettre en œuvre le traitement de leurs données tant à titre personnel que professionnel. L’éthique est une notion souvent difficile à cerner. Elle repose sur un ensemble de règles morales susceptibles d’orienter le comportement des individus voire des entreprises. Ces règles qu’ils s’imposent à eux-mêmes peuvent soit préfigurer, soit en réalité se superposer ou se confondre avec des règles juridiques contraignantes. Ainsi, l’éthique des données se développe à titre collectif qu’à titre individuel notamment avec la figure des lanceurs d’alerte. En outre, l’éthique des données peut varier en fonction de la catégorie de données en cause (données personnelles, non personnelles, données dite d’intérêt général etc.). Ces prémisses sont importantes pour comprendre les enjeux économiques et sociétaux autour de l’émergence actuelle des principes éthiques des données.
    Introduction :
    - Qu’est-ce que l’éthique (distinction, articulation entre éthique, droit, morale).
    - De quelles données parle-t-on ?
    - Pourquoi une éthique des données aujourd’hui ? Les principaux enjeux : le développement de l’Intelligence artificielle et la question du respect de dignité humaine, dépersonnalisation, déresponsabilisation, encadrement nécessaire de la gouvernance algorithmique (Cambridge Analytica)
    Partie 1 : Les différentes formes d’encadrement de l’éthique des données
    - L’encadrement collectif
    Des obligations actuelles fixées par les Etats et l’UE (RGDP)
    Des tentatives de régulation à l’échelle internationale
    Une forme de responsabilité sociétale des entreprises (développement de code de conduite, d’outils de privacy by design ou by default)
    - Une responsabilité individuelle : Du cas de conscience à la revendication du statut de lanceur d’alerte
    Partie 2 : L’émergence de principes éthiques des données
    - Les initiatives en cours :
    Les recommandations de la CNIL : Vers la concrétisation d’un principe de loyauté des algorithmes et d’un principe de précaution en matière d’Intelligence Artificielle ?
    Le projet de lignes directrices en matière d’éthique dans le domaine de l’IA développée par la Commission européenne
    Vers une charte constitutionnelle française du numérique ?
    - Les questionnements éthiques spécifiques :
    La revendication d’un droit des robots
    Vers la création de biens communs numériques ?
    - Les bonnes pratiques sectorielles : Ethique des données dans le domaine de la finance, de l’éducation, de la santé etc.

  • Le décisionnel en entreprise, Cas pratiques

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Donner une visibilité concrète de l'utilisation des applications décisionnelles en entreprise : Qu'apporte un logiciel décisionnel à un PDG, à un Directeur Marketing, à un Directeur commercial ? Quelles formes prennent les outils de l'informatique décisionnelle en entreprise ? Comment transformer un entrepôt de données en tableau de bord fonctionnel permettant d'expliquer le passé et d'anticiper l'avenir ? Ce cours vous donnera les réponses à ces questions à travers la présentation de projets concrets mis en place récemment dans de grands groupes.
    - Acquérir les concepts de l'analyse décisionnelle.
    - Comprendre l'apport d'un logiciel décisionnel aux différents acteurs de l'entreprise.
    - Typologie d'applications
    - Démarche et présentation de projets décisionnels concrets
    - Initiation sur un outil décisionnel
    - Mise en forme d'un reporting standard & création d'un cube d'analyse multidimensionnelle
    - Réalisation d'un cas pratique

  • Projet en Business Intelligence

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Mener de bout en bout un projet d’informatique décisionnelle sur la plateforme SAS
    Conceptualiser la chaine ce création de valeur de l’exploitation des données afin d’extraire des informations stratégiques.
    Conceptualiser l’industrialisation de l’analytique des Big Data dans la mise en production de projets.
    Analyser des données et construire des rapports avec un outil de Data Viz.
    Réaliser des modélisations de Machine Learning et de recherche opérationnelle et les mettre en production.
    Créer le lien entre la théorie et la pratique, l'informatique et l'analytique, les autres cours, afin de gérer une orchestration opérationnelle.

    Présentation de différents points de vue des Big Data sur plusieurs secteurs d’activité, avec des retours d’expérience, afin de prendre du recul sur des définitions parfois contradictoires.
    Prise en main de SAS Viya sur des petits cas simples afin d’avoir tous les éléments pour réaliser un projet transversale, intégrant Data Viz, Machine Learning et recherche opérationnelle.

  • Visualisation de données

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Représenter des données de manière visuelle permet de tirer parti des capacités humaines en termes de perception et de cognition pour identifier des motifs particuliers, des éléments singuliers ou encore des anomalies dans ces données. . La visualisation permet aux utilisateurs de systèmes d'information d'explorer leurs données de manière interactive, d'en avoir une vue d'ensemble, d'en extraire de l'information qui pourrait difficilement être obtenue à travers des processus d'analyse automatique (fouille, apprentissage), de formuler de nouvelles hypothèses qui pourront ensuite être vérifiées, par exemple, au moyen de tests statistiques. Au-delà de ces aspects exploratoires, la visualisation de données sert aussi d'aide à la prise de décisions, et de support à la communication entre individus des résultats d'analyses effectuées sur ces données. Le but de ce cours est de donner une vision d'ensemble du domaine, des principes fondamentaux de la perception visuelle humaine aux techniques de visualisation adaptées aux différentes structures de données (données multivariées, arbres, graphes, séries temporelles, etc.). Les travaux pratiques seront réalisés au moyen de la bibliothèque D3 (Data-Driven Documents).
    - Vue d'ensemble du domaine de la visualisation de données
    - Perception visuelle
    - Visualisation de données multivariées
    - Visualisation de structures arborescentes
    - Visualisation de graphes et réseaux
    - Visualisation de données temporelles
    - Visualisation multi-échelle
    - Systèmes et boîtes à outils pour la visualisation

  • Anglais

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :
    L'étudiant doit acquérir une autonomie langagière pour être capable de travailler dans un contexte international, à l'écrit comme à l'oral. A l'issu du cours, il maîtrisera en anglais les prises de parole dans différents contextes professionnels tout comme la rédaction de documents et l'interaction avec des partenaires.

    Description du contenu de l'enseignement :
    Cours par niveau (selon la taille de la promotion). Une sélection de domaines liés au monde du travail, à son évolution et ses enjeux, est abordée par le biais de lectures, d'exercices apprentissage de lexique spécialisé, de présentations orales, de synthèses écrites et de participation à des débats.

UE Optionnelles

  • Création d'entreprise

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Ce cours permet de se familiariser avec les problématiques d’entrepreneuriat et d’appréhender les fondamentaux nécessaires à la création d’une entreprise ou startup. Les étudiants développent des connaissances, compétences essentielles pour entreprendre grâce à une méthodologie basée sur l’apprentissage par l’action. Un savoir-faire et savoir-être entrepreneurial est développé permettant aux étudiants à la fin du cours de présenter leur projet à un jury d’experts en entrepreneuriat et d’investisseurs potentiels.
    Processus entrepreneurial et Lean Start-up
    - Les fondamentaux de l’étude de marché
    - Définir un business model pertinent et une stratégie adaptée
    - Démarches juridiques et administratives (statut, propriété intellectuelle)
    - Réaliser et construire un Business Plan et un Executive Summary
    - Apprendre à présenter son projet : Construire un argumentaire, l’art du « pitch » et du « storytelling »
    - Panorama des sources de financement et présentation de l’écosystème startup

  • Qualité des données

    Array

    Ects : 2
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Le cours a pour objectif d’introduire les caractéristiques principaux liés à la qualité des données ainsi que de presenter les algorithmes pour leur traitement.
    La qualité de l'information a de graves répercussions sur l'efficience et l'efficacité des organisations et des entreprises. Par exemple, dans les organisations privées, telles que les sociétés de marketing ou les banques, il n'est pas surprenant d'avoir plusieurs registres de clients, mis à jour par différentes procédures organisationnelles, ce qui entraîne des informations contradictoires et en double. Ce cours vise à présenter les problèmes liés à la qualité de données, et de présenter les solutions qui peuvent être utilisées pour les résoudre. En particulier, il a pour objectif d’examiner les trois points suivants :
    · Dimensions de la qualité de données. Le terme « qualité de données » est assez vague et englobe plusieurs facettes. Dans cette partie, nous allons examiner les différents dimensions de la qualité de données, allant de l’exactitude, complétude, jusqu’au la consistance et la confiance.
    · Algorithme et solutions théoriques. Dans cette partie nous allons examiner en détails quelques solutions théoriques proposées pour résoudre certains problèmes de qualité de données, en particulier celles liées à l’identification d’objet.
    · Outils et solutions pratiques. Dans cette partie, nous allons utiliser des outils, et montrer comment ils peuvent être utilisés pour améliorer la qualité de données.

  • Large scale machine learning in Spark

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :
    Savoir concevoir des applications efficaces pour l'apprentissage machine sur les données massives.

    Description du contenu de l'enseignement :
    Les algorithmes d'apprentissage automatique sont de plus en plus utilisés de nos jours, et il existe une demande croissante d'algorithmes d'apprentissage qui sont capable de passer à l'échelle et de traiter des données massives.
    Plutôt qu'offrir une introduction exhaustive à l'apprentissage automatique, ce cours se concentre sur les aspects typiques qui doivent être traités dans la conception d'algorithmes distribués pour l'apprentissage, et qui peuvent être exécutés sur les clusters Hadoop, afin d'analyser des grands jeux de données, en tenant compte l'adaptabilité à la croissance du volume des données ainsi que la robustesse en cas de pannes.

    Le focus sera sur des algorithmes de réduction de dimension, de clustering et de classification, en tenant compte les aspects suivants. Le premier est la conception d'algorithmes en s'appuyant sur des paradigmes basés sur map-reduce, à cette fin Spark sera utilisé. Le second aspect est l'analyse expérimentale des algorithmes implémentés en Spark, afin de tester leur capacité de passer à l'échelle (scalabilité). Le troisième aspect concerne l'étude et l'application de techniques d'optimisation afin de pallier le manque éventuel de scalabilité.
    Bien que le cours se focalise sur certains algorithmes d'apprentissage, les techniques étudiées sont transversales et trouvent application dans un large éventail d'algorithmes d'apprentissage automatique. Pour certains des algorithmes étudiés le cours présentera des techniques pour une implémentation à partir de zéro en Spark-core, tandis que pour d'autres algorithmes Spark ML sera utilisé, et des pipelines de bout en bout seront conçus. Dans les deux cas, les algorithmes seront analysés et optimisés sur des jeux de données réels, sur un cluster Hadoop local, ainsi que sur un cluster sur le cloud Amazon WS.

  • C++

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Le langage C++ est actuellement le 3e langage de programmation le plus utilisé au monde(TIOBE Programming Community Index).
    Ce cours a pour objectif de former les étudiants à la programmation orientée-objet en C++.
    Ce cours est destiné en priorité aux étudiants débutants en programmation C++.

    Classes et objets (constructeurs/destructeur, Propriétés des méthodes, Surcharge des opérateurs, Objet membre)
    Héritage (simple, multiple, virtuel)
    Patron de fonctions et Patron de classes Pré requis : Langage C et programmation orientée-objet

  • Applications Web Orientées Services

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Introduction aux microservices, constituant un paradigme d'architecture logicielle visant décomposer une système applicatif en une suite de services indépendants et découplés. Ce type d'architecture a émergé de la nécessité de construire des systèmes applicatifs à l’échelle du Web, c'est à dire continuellement évolutifs avec des niveaux de performance et de résilience jamais atteints.
    - Les concepts et les enjeux des architectures microservices :
    * Enterprise-scale IT à Web-scale IT (Cloud : IaaS, Paas, Saas, agilité, scalabilité horizontale, "design for failure"....)
    * Architectures SOA traditionnelle versus Microservices
    * Décomposition d'une application monolithique en microservices
    - Les technologies et les pratiques de développements associées
    * Architecture REST, API
    * Microservices patterns
    * Conteneurisation des applications (Docker, Kubernetes,...)
    * Supervision et traces (Elastic Stack,...)

    Mise en oeuvre dans le cadre d'un projet Java avec Spring Boot, Spring Cloud

  • Management des Organisations

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Ce cours vise à faire comprendre le contexte de management dans les organisations, et favoriser l'intégration des futurs diplômés dans toute organisation avec des outils concrets et ayant fait leur preuve. Travailler le savoir-être qui est un vernis indispensable pour réussir dans le monde du travail.
    Comprendre le contexte de management des organisations
    Préparer les futurs diplômés à la prise de fonction d’un poste en management
    Acquérir des outils concrets pour animer une équipe
    Introduire les notions de gestion du changement
    Travailler la prise de parole et les présentations

  • Négociation

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    L’objectif du cours est une initiation théorique et pratique à la négociation.
    La méthode du cours est de relier constamment les résultats des simulations auxquelles participent activement les étudiants avec les éléments fondamentaux de toutes négociations, objets d’acquisition du cours. Le séminaire est aussi rythmé par un ensemble de vidéos d'acteurs de la sphère publique et privée qui témoignent de leurs expériences et proposent des idées. Ces vidéos sont aussi des objets d'analyses et de débats. Le séminaire se termine par une grande négociation multilatérale qui permet la mise en pratique immédiate des théories et techniques vues, tout en permettant de prendre mieux conscience de ses forces et faiblesses individuelles en négociation. Un focus est proposé sur les conditions particulières d'une négociation de recrutement, notamment en ce qui concerne le droit du travail, les clauses d'un contrat et l'ensemble des informations nécessaires afin de renforcer sa capacité à négocier.

  • Architecture des Entreprises

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    L'objectif de ce cours est d'enseigner de l'architecture d'entreprise depuis les besoins métier jusqu'à l'architecture technique et aux solutions à mettre en oeuvre, au travers de bonnes pratiques et de travaux réalisés en groupes sur des études de cas issues de problèmes réels.
    Les entreprises vivent des changements importants (nouveaux produits-services, relations avec leurs clients, réglementations, fusions, internationalisation, contraintes financières…). Ils touchent aussi bien leur modèle économique, leur stratégie, leur valeur ajoutée, leurs organisations, leurs modes de fonctionnement et bien sur leurs relations à l’écosystème (marchés, clients, fournisseurs, …). Et dans ce contexte « chahuté », les changements liés aux opportunités du numérique sont un facteur clé de l’évolution des entreprises et de leur écosystème.
    En réponse, les entreprises mènent en parallèle des transformations multiples et rapides, de leur environnement, de leur stratégie, de leurs métiers, des relations avec leurs clients…. Les Systèmes d’Information (SI) sont au cœur de ces transformations.
    Le SI de l’entreprise doit répondre à toutes ces évolutions des activités métiers, mais aussi créer de nouvelles opportunités pour les métiers. Il permet de tirer parti des technologies numériques et des nouveaux modes de production (virtualisation, externalisation, cloud…), ou de prendre en compte les nouveaux modes d’accès (mobilité….) et les nouveaux usages (réseaux sociaux…).
    L’Architecture d’Entreprise (AE) est un levier majeur pour définir ces transformations du SI et pour les piloter. „
    L'objectif de ce cours est d'enseigner de l'architecture d'entreprise depuis les besoins métier jusqu'à l'architecture technique et aux solutions à mettre en oeuvre, au travers de bonnes pratiques et de travaux réalisés en groupes sur des études de cas issues de problèmes réels.

    Pré-requis : le language UML est supposé maitrisé. Notions suffisantes d'informatique et de systèmes d'information

  • Aide à la Décision : construction d’indicateur

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Fournir les fondements mathématiques et les outils de gestion nécessaires pour la conception et la mise en place des indicateurs composites.
    Modélisation (définir les composants de l’indicateur) : techniques de travail collectif pour la structuration du problème : carte cognitives, focus groupe, etc.
    Choix des fonctions d'agrégation : présentation de différents types d’agrégation (additive, ordinale). Analyse de leurs propriétés mathématiques
    Mise ensemble des différents types de données venant de différentes sources avec différents niveaux de qualités (avec une approche de "théorie de mesurage" et analyse de signifiance)
    Etude de cas avec une présentation d'un cas d'application industriel avec un intervenant industriel

  • LV2 - Espagnol

    Array

    Ects : 1
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Cours par niveau

  • LV2 - FLE

    Array

    Ects : 1
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :

  • LV2 - Allemand

    Array

    Ects : 1
    Coefficient : Array
    Compétence à acquérir :
    En fonction des promotions, le niveau sera soit intermédiaire, soit avancé.
    Niveau intermédiaire : approfondissement des moyens linguistiques permettant de bien communiquer dans un pays germanophone, voire de pouvoir s’intégrer dans un milieu professionnel germanophone (niveau B1-B2 du CECRL).
    Niveau avancé : acquisition du niveau B2-C1+ du CECRL, garantissant une très bonne intégration sur le marché du travail des pays germanophones.

    Description du contenu de l'enseignement :
    Niveau intermédiaire : revoir les règles grammaticales et le lexique de base de la langue allemande – ce qui pourra faciliter un apprentissage plus approfondi si cela s’avère nécessaire pour des raisons professionnelles – et découvrir une autre culture (vie quotidienne, vie politique et sociale, vie professionnelle). Les compétences orales et écrites sont travaillées; des exposés sont consacrés aux sujets économiques et culturels.
    Niveau avancé: étude des grandes questions de société et de l'actualité politique, du fonctionnement de l'économie sociale de marché, approfondissement des compétences linguistiques. Les étudiants seront capables de s'intégrer rapidement à un milieu professionnel germanophone, non pas nécessairement en maîtrisant une langue très technique, mais en ayant acquis une certaine fluidité dans l’expression et approfondi leur connaissance des pays de culture germanique.

UE Stage

  • Stage

    Array

    Ects : 9
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :

Formation année universitaire 2020 - 2021 - sous réserve de modification

Modalités pédagogiques

La formation démarre en septembre, dont la présence en cours est obligatoire.
Les enseignements sont organisés en semestre 3 et semestre 4. Chaque semestre est constitué d'UE fondamentales et d'UE optionnelles auxquels s'ajoute un bloc stage pour le semestre 4.

La note finale de première session d'une UE est obtenue par pondération entre des notes de contrôle continu, de projets, d'examens partiels et terminaux. La note de contrôle continu peut faire intervenir plusieurs éléments : projets, devoirs, interrogations écrites ou orales, et note de participation... Toute UE pour laquelle l'étudiant a obtenu une note finale supérieure ou égale à 10/20 est définitivement acquis ainsi que les ECTS associés.
Chaque semestre est composé d'UE fondamentales et d'UE optionnelles, ainsi que d'une UE stage pour le semestre 4. La note finale d'un semestre est calculée comme somme pondérée des notes finales de toutes les UE constituant le semestre hors UE stage, le poids de la note finale d'une UE étant égal aux ECTS associés à l'UE. Un semestre est définitivement acquis si toutes les conditions suivantes sont vérifiées :

  • Il est constitué d'au moins 30 ECTS
  • La note finale du semestre est supérieure ou égale à 10/20
  • La note finale de chaque UE composant le semestre est supérieure ou égale à 8/20 sauf pour l'UE d'anglais dont la note finale doit-être supérieure ou égale à 6/20
  • La note finale de l'UE stage pour la validation du semestre 4 est supérieure ou égale à 10/20

La validation d'un semestre implique la validation de chaque UE de ce semestre et des ECTS associés.

La validation d'une année entraîne la validation de chacun des deux semestres et de toutes les UE les composant ainsi que tous les ECTS associés.
Une année est définitivement acquise (ainsi que les 60 ECTS associés) si toutes les conditions suivantes sont vérifiées :

  • Elle est constituée d'au moins 60 ECTS et la note finale de l'année est supérieure ou égale à 10/20
  • La note finale de chaque semestre de l'année est supérieure ou égale à 10/20
  • La note finale de chaque UE de chaque semestre de l'année est supérieure ou égale à 8/20 sauf pour l'UE d'anglais dont la note finale doit-être supérieure ou égale à 6/20
  • La note finale de l'UE stage est supérieur ou égale à 10/20

UE Obligatoires

  • Création d'entreprise

    Array

    Ects : 2
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Ce cours permet de se familiariser avec les problématiques d’entrepreneuriat et d’appréhender les fondamentaux nécessaires à la création d’une entreprise ou startup. Les étudiants développent des connaissances, compétences essentielles pour entreprendre grâce à une méthodologie basée sur l’apprentissage par l’action. Un savoir-faire et savoir-être entrepreneurial est développé permettant aux étudiants à la fin du cours de présenter leur projet à un jury d’experts en entrepreneuriat et d’investisseurs potentiels.

    - Processus entrepreneurial et Lean Start-up
    - Les fondamentaux de l’étude de marché
    - Définir un business model pertinent et une stratégie adaptée
    - Démarches juridiques et administratives (statut, propriété intellectuelle)
    - Réaliser et construire un Business Plan et un Executive Summary
    - Apprendre à présenter son projet : Construire un argumentaire, l’art du « pitch » et du « storytelling »
    - Panorama des sources de financement et présentation de l’écosystème startup

  • Décisionnel en Entreprise

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Donner une visibilité concrète de l'utilisation des applications décisionnelles en entreprise : Qu'apporte un logiciel décisionnel à un PDG, à un Directeur Marketing, à un Directeur commercial ? Quelles formes prennent les outils de l'informatique décisionnelle en entreprise ? Comment transformer un entrepôt de données en tableau de bord fonctionnel permettant d'expliquer le passé et d'anticiper l'avenir ? Ce cours vous donnera les réponses à ces questions à travers la présentation de projets concrets mis en place récemment dans de grands groupes.
    - Acquérir les concepts de l'analyse décisionnelle.
    - Comprendre l'apport d'un logiciel décisionnel aux différents acteurs de l'entreprise.
    - Typologie d'applications
    - Démarche et présentation de projets décisionnels concrets
    - Initiation sur un outil décisionnel
    - Mise en forme d'un reporting standard & création d'un cube d'analyse multidimensionnelle
    - Réalisation d'un cas pratique

  • Entrepôts de données

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :
    Modélisation et manipulation de données multidimensionnelles

    Description du contenu de l'enseignement :
    Acquérir les notions de base relatives à l'acquisition, l'intégration, la modélisation et au traitement de données multidimensionnelles.
    Introduction et définition d'un entrepôt de données, Architecture fonctionnelle, Modélisation conceptuelle, Alimentation, Stockage, gestion et exploitation de l'entrepôt. Utilisation de l’ETL Talend en TP.
    TP1 : Introduction talend
    TP2 : Business Modeler et construction des premiers jobs
    TP3 : Découverte d'autres connecteurs talend
    TP4 : Déploiement des jobs talend pour Mise en production

  • Marketing et stratégie digitale

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Ce cours a pour objectif de vous faire acquérir les bases du marketing de l’internet et de la communication sur le web. Les différentes techniques permettant de recruter et de fidéliser le e-consommateur seront étudiés.
    1. Comprendre la révolution numérique
    Le marketing à l’ère numérique
    L’économie numérique
    Le e-consommateur
    2. Définir la stratégie digitale
    Marché, concurrence, compétences, organisation
    Proposition de valeur, mix-marketing
    Business model
    3. Mettre en œuvre la stratégie digitale
    Les acteurs de l’écosystème publicitaire
    Créer du trafic vers son site, les leviers du e-marketing
    Ergonomie, design, expérience client, parcours clients, cross-canal
    Créer et gérer son site internet et mobile
    Gérer les moyens de paiement
    Fidéliser ses clients internautes
    Gérer le cycle de vie client
    4. Le marketing des réseaux sociaux
    Panorama des médias sociaux
    Présence de l’entreprise sur les réseaux sociaux
    Animer des campagnes sur les réseaux sociaux
    5. Le marketing mobile
    L’équipement et les usages des consommateurs
    Les stratégies publicitaires sur le mobile
    Les applications stores
    6. Les tendances, les opportunités du digital
    Le brand content, le storytelling, l’UGC
    L’économie collaborative et participative
    Les objets connectés, le big data

  • Modélisation en Aide à la décision

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Le cours vise à présenter des modélisations originales de différents problèmes concrets de décision. Il s'agit de développer les aptitudes des étudiants à élaborer et mettre en œuvre des modèles pertinents face à une situation de décision.
    Concept de modèle en aide à la décision. Modèle des solutions et modèle des préférences.
    Description du processus de modélisation et de ses différentes phases.
    Présentation de modélisations non triviales de problèmes de décision utilisant divers cadres de modélisation (graphes, programmation linéaire, multicritère,...).
    Utilisation de variables 0-1 en programmation linéaire
    Présentation d'outils de modélisation et de résolution (modeleurs et solveurs).

  • Optimisation pour l'apprentissage automatique

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :
    - Identify the characteristics of an optimization problem given its formulation.
    - Know the theoretical and practical properties of the most popular optimization techniques.
    - Find the best optimization algorithm to handle a particular feature of a machine learning problem.

    Description du contenu de l'enseignement :
    Optimization is at the heart of most recent advances in machine learning. Indeed, it not only plays a major role in linear regression, SVM and kernel methods, but it is also the key to the recent explosion of deep learning for supervised and unsupervised problems in imaging, vision and natural language processing. This course will review the mathematical foundations, the underlying algorithmic methods and showcase modern applications of a broad range of optimization techniques.
    The course will be composed of classical lectures and numerical sessions in Python. It will begin with the basic components of smooth optimization (optimality conditions, gradient-type methods), then move to methods that are particularly relevant in a machine learning setting such as the celebrated stochastic gradient descent algorithm and its variants. More advanced algorithms related to non-smooth and constrained optimization, that encompass known characteristics of learning problems such as the presence of regularizing terms, will also be described. During lab sessions, the various algorithms studied during the lectures will be implemented and tested on real and synthetic datasets: these sessions will also address several practical features of optimization codes such as automatic differentiation, and built-in optimization routines within popular machine learning libraries such as PyTorch.

  • Programmation par contraintes et ses applications

    Array

    Ects : 2
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Ce cours vise à introduire les concepts fondamentaux de la programmation par contraintes et à étudier la modélisation et la résolution de problèmes à l'aide de la programmation par contraintes.
    - Modélisation et résolution de problèmes à l'aide de la programmation par contraintes : intérêt de la programmation par contraintes, exemples,
    - Types de contraintes, principaux algorithmes et heuristiques de résolution
    - Utilisation du logiciel professionnel OPL Studio

  • Qualité des données

    Array

    Ects : 2
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    La qualité de l'information a de graves répercussions sur l'efficience et l'efficacité des organisations et des entreprises. Par exemple, dans les organisations privées, telles que les sociétés de marketing ou les banques, il n'est pas surprenant d'avoir plusieurs registres de clients, mis à jour par différentes procédures organisationnelles, ce qui entraîne des informations contradictoires et en double. Ce cours vise à présenter les problèmes liés à la qualité de données, et de présenter les solutions qui peuvent être utilisées pour les résoudre.
    En particulier, le cours a pour objectif d’examiner les trois points suivants :
    · Dimensions de la qualité de données. Le terme « qualité de données » est assez vague et englobe plusieurs facettes. Dans cette partie, nous allons examiner les différents dimensions de la qualité de données, allant de l’exactitude, complétude, jusqu’au la consistance et la confiance.
    · Algorithme et solutions théoriques. Dans cette partie nous allons examiner en détails quelques solutions théoriques proposées pour résoudre certains problèmes de qualité de données, en particulier celles liées à l’identification d’objet.
    · Outils et solutions pratiques. Dans cette partie, nous allons utiliser des outils, et montrer comment ils peuvent être utilisés pour améliorer la qualité de données.

  • Systèmes, Langages et Paradigmes pour le Big Data

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Le cours a pour objectif d'apprendre aux étudiants les aspects fondamentaux des technologies Big Data pour la gestion et analyse de données massives.
    Le cours s’articule en trois parties.
    Dans la première, l’accent est sur le paradigme MapReduce et le système Hadoop, avec un focus sur son système de fichiers HDFS. Le cours illustrera les mécanismes de base de Hadoop pour le support de l'exécution parallèle de ‘dataflow’ MapReduce sur des clusters de machines. Une attention particulière sera donnée aux aspects algorithmiques et d’optimisation de dataflow MapReduce.
    La deuxième partie présentera des langages de requête et d’analyse de données caractérisés par des mécanismes de haut niveau et qui sont compilé sur MapReduce. Le focus sera sur les langages Pig Latin et Hive, des langages incluant des mécanismes à la SQL. Les techniques de compilation vers MapReduce seront présentées.
    La troisième partie sera consacrée à des évolutions de Hadoop, et en particulier au système Spark et au langage de support Scala. Le focus sera sur l’architecture de Spark, la notion de RDD, l'évaluation lazy de transformations et actions sur des collections distribuées RDD.
    Les notions apprises seront mises en pratique dans un projet où les étudiants devront concevoir un dataflow pour l’analyse de grands volumes de données. L'implémentation sera faite tant en MapReduce qu’en Spark, et une analyse expérimentale sera effectuée pour comparer les performances des deux implémentations.

  • Visualisation de données

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Représenter des données de manière visuelle permet de tirer parti des capacités humaines en termes de perception et de cognition pour identifier des motifs particuliers, des éléments singuliers ou encore des anomalies dans ces données. . La visualisation permet aux utilisateurs de systèmes d'information d'explorer leurs données de manière interactive, d'en avoir une vue d'ensemble, d'en extraire de l'information qui pourrait difficilement être obtenue à travers des processus d'analyse automatique (fouille, apprentissage), de formuler de nouvelles hypothèses qui pourront ensuite être vérifiées, par exemple, au moyen de tests statistiques. Au-delà de ces aspects exploratoires, la visualisation de données sert aussi d'aide à la prise de décisions, et de support à la communication entre individus des résultats d'analyses effectuées sur ces données. Le but de ce cours est de donner une vision d'ensemble du domaine, des principes fondamentaux de la perception visuelle humaine aux techniques de visualisation adaptées aux différentes structures de données (données multivariées, arbres, graphes, séries temporelles, etc.). Les travaux pratiques seront réalisés au moyen de la bibliothèque D3 (Data-Driven Documents).
    - Vue d'ensemble du domaine de la visualisation de données
    - Perception visuelle
    - Visualisation de données multivariées
    - Visualisation de structures arborescentes
    - Visualisation de graphes et réseaux
    - Visualisation de données temporelles
    - Visualisation multi-échelle
    - Systèmes et boîtes à outils pour la visualisation

  • Web des données

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Former les étudiants aux standards du Web de données et du Web sémantique. Dans le contexte du web sémantique, les ontologies jouent un rôle prépondérant dans la spécification des connaissances de manière standard afin de permettre l’interopérabilité entre différents systèmes. Une ontologie correspond à un vocabulaire contrôlé et organisé et à la formalisation explicite des relations créées entre les différents termes du vocabulaire. Elle permet de préciser formellement un vocabulaire commun dans une perspective de partage. Les ontologies informatiques permettent de représenter un corpus de connaissances sous une forme utilisable par une machine. Ainsi, une ontologie avec un ensemble de règles constitue une base de connaissance permettant de développer un système d’aide à la décision.
    Contrôle de connaissance : se décompose en deux parties, la première est un contrôle continu comprenant des TD notés, et la deuxième est un projet où les étudiants en groupe de 2 ou 3 font un exposé sur des Applications ou nouvelles technologies autour du WEB.

    Langage dédié à la transformation de données XML (XSLT). Ce langage est utilisé par les WEBMASTER pour l’automatisation de la production des sites WEB et par les développeurs pour la création et la mise à jour automatique de tout document. L’accent est mis sur les concepts XSLT pour la visualisation des documents et des images.
    Langage permettant de garantir la conformité de documents en fonction d’une définition de type de documents (Langage XML schema). Ce langage peut être utilise pour créer des documents XML pour une large variété d’applications telles que la syndication, les échanges de documents et le stockage de données dans un format standard. Cet apprentissage permettra l’étude d’un schéma XML sur les documents juridique (legifrance)
    WEB sémantique en quatre parties : le processus de développement d’une ontologie, les Langages permettant la définition d’ontologies RDF, OWL 2, et l’interrogation de documents à partir d’une ontologie SPARQL, et le développement collaboratif d’une ontologie. Cet apprentissage permettra de traiter de manière détaillée des exemples de descriptions ontologiques existantes comme l'ontologie ELI qui fournit un cadre de description pour structurer les métadonnées des ressources législatives nationales et européennes, et les publier sur le web de données ou l’ontologie. De manière applicative, il commence par l’exploration, sous le logiciel Protégé 5.2 de l’université de Sandford, d’une ontologie existante, puis par la modélisation et définition d’une ontologie de domaine sous le logiciel Protégé.

  • Outils d'optimisation pour les sciences des données et de la décision

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    L’Optimisation Mathématique est un outil très puissant pour modéliser des problèmes décisionnels se présentant dans de nombreuses matières de la data science, l'ingénierie et l'industrie. Dans toutes ces applications, des décisions doivent être prises en partant de données complexes et structurées. Le but de ce cours est de décrire les outils nécessaires pour résoudre les problèmes d'optimisation associés à l'apprentissage de modèles de machine learning et data science. Cela donne les outils mathématiques basiques de l'optimisation convexe et décrit différentes approches permettant de construire des algorithmes efficients d'optimisation convexe. Différents cas pratiques portant sur le machine learning illustreront l'utilisation de ces algorithmes pour l'apprentissage de datasets.
    Plus en détails, la première partie du cours couvre les aspects de modélisation du champ, fournissant les outils pour construire des modèles mathématiques effectifs, c'est-à-dire des modèles qui peuvent être résolus en pratique. La seconde partie est consacrée aux aspects algorithmiques : des algorithmes de base sont traités ainsi que d'autres plus avancés, utiles pour ces modèles caractérisés par un nombre exponentiel de variables et/ou contraintes, qui seront présentés en détail. Enfin, la troisième partie du cours aborde les applications réelles.

UE Obligatoires

  • Anglais

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Cours par niveau

  • Data Mining/Machine learning

    Array

    Ects : 4
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Il s'agit d'initier les étudiants à l’apprentissage automatique (machine learning) et à la pratique de la fouille (data mining) et l’extraction de connaissances à partir des grandes masses de données. Il sera illustré par des cas concrets des exemples réalisés en session avec le logiciel R. L’évaluation se fait par examen et par un challenge Kaggle (kaggle.com)
    - Introduction
    - Objectifs et panorama du datamining et du Machine learning
    - Méthodes non supervisées :
    Réduction de dimensionnalité
    Clustering :
    K-means, CAH
    Approches probabilistes : EA
    Approches spectrales
    Application à une segmentation marketing
    Application au Text Mining
    Règles d’association
    -Méthodes supervisées :
    Régression logistique
    Arbre de Décision
    Méthodes à Noyaux
    Approches neuronales
    Application au scoring

  • Données et Ethique

    Array

    Ects : 2
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    La profonde transformation numérique de nos sociétés rend nécessaire comme l’a encore récemment rappelé la CNIL de « former à l’éthique tous les maillons de la chaîne algorithmique, concepteurs, professionnels, citoyens ». La création de ce nouveau cours Données et Ethique s’inscrit dans cette optique. Il s’agit de permettre aux informaticiens de prendre conscience des implications éthiques et sociales du traitement des données qu’ils opèrent. Il s’agit aussi les informer sur l’évolution du cadre dans lesquels ils vont pouvoir ou devoir mettre en œuvre le traitement de leurs données tant à titre personnel que professionnel. L’éthique est une notion souvent difficile à cerner. Elle repose sur un ensemble de règles morales susceptibles d’orienter le comportement des individus voire des entreprises. Ces règles qu’ils s’imposent à eux-mêmes peuvent soit préfigurer, soit en réalité se superposer ou se confondre avec des règles juridiques contraignantes. Ainsi, l’éthique des données se développe à titre collectif qu’à titre individuel notamment avec la figure des lanceurs d’alerte. En outre, l’éthique des données peut varier en fonction de la catégorie de données en cause (données personnelles, non personnelles, données dite d’intérêt général etc.). Ces prémisses sont importantes pour comprendre les enjeux économiques et sociétaux autour de l’émergence actuelle des principes éthiques des données.

    Introduction :
    - Qu’est-ce que l’éthique (distinction, articulation entre éthique, droit, morale).
    - De quelles données parle-t-on ?
    - Pourquoi une éthique des données aujourd’hui ? Les principaux enjeux : le développement de l’Intelligence artificielle et la question du respect de dignité humaine, dépersonnalisation, déresponsabilisation, encadrement nécessaire de la gouvernance algorithmique (Cambridge Analytica)
    Partie 1 : Les différentes formes d’encadrement de l’éthique des données
    - L’encadrement collectif
    Des obligations actuelles fixées par les Etats et l’UE (RGDP)
    Des tentatives de régulation à l’échelle internationale
    Une forme de responsabilité sociétale des entreprises (développement de code de conduite, d’outils de privacy by design ou by default)
    - Une responsabilité individuelle : Du cas de conscience à la revendication du statut de lanceur d’alerte
    Partie 2 : L’émergence de principes éthiques des données
    - Les initiatives en cours :
    Les recommandations de la CNIL : Vers la concrétisation d’un principe de loyauté des algorithmes et d’un principe de précaution en matière d’Intelligence Artificielle ?
    Le projet de lignes directrices en matière d’éthique dans le domaine de l’IA développée par la Commission européenne
    Vers une charte constitutionnelle française du numérique ?
    - Les questionnements éthiques spécifiques :
    La revendication d’un droit des robots
    Vers la création de biens communs numériques ?
    - Les bonnes pratiques sectorielles : Ethique des données dans le domaine de la finance, de l’éducation, de la santé etc.

  • Données, modèles et décisions

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Les problèmes rencontrés en pratique sont souvent complexes et mal définis à cause en partie des données incertaines ou imprécises. Les modèles et techniques mathématiques jouent un rôle important pour appréhender une réalité complexe et proposer de bonnes décisions. Le but de ce cours est de montrer comment utiliser les données afin de bâtir des modèles et améliorer les décisions. Des études de cas pratiques seront étudiées en utilisant le modeleur OPL de CPLEX ainsi qu’Excel.

    1. Décision dans l’incertain : optimisation linéaire robuste et modèles de simulation.
    2. Optimisation multi objectifs : concepts fondamentaux, méthodes d’énumération de l’ensemble des solutions efficaces.
    3. Optimisation non-linéaire : formulation de problèmes par des modèles non-linéaires, analyse graphique, résolution informatique.

  • Négociation

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    L’objectif du cours est une initiation théorique et pratique à la négociation.
    La méthode du cours est de relier constamment les résultats des simulations auxquelles participent activement les étudiants avec les éléments fondamentaux de toutes négociations, objets d’acquisition du cours. Le séminaire est aussi rythmé par un ensemble de vidéos d'acteurs de la sphère publique et privée qui témoignent de leurs expériences et proposent des idées. Ces vidéos sont aussi des objets d'analyses et de débats. Le séminaire se termine par une grande négociation multilatérale qui permet la mise en pratique immédiate des théories et techniques vues, tout en permettant de prendre mieux conscience de ses forces et faiblesses individuelles en négociation. Un focus est proposé sur les conditions particulières d'une négociation de recrutement, notamment en ce qui concerne le droit du travail, les clauses d'un contrat et l'ensemble des informations nécessaires afin de renforcer sa capacité à négocier.

  • Projet en Business Intelligence - Big Data

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :
    Mener de bout en bout un projet d’informatique décisionnelle sur la plateforme SAS
    Conceptualiser la chaine ce création de valeur de l’exploitation des données afin d’extraire des informations stratégiques.
    Conceptualiser l’industrialisation de l’analytique des Big Data dans la mise en production de projets.
    Analyser des données et construire des rapports avec un outil de Data Viz.
    Réaliser des modélisations de Machine Learning et de recherche opérationnelle et les mettre en production.
    Créer le lien entre la théorie et la pratique, l'informatique et l'analytique, les autres cours, afin de gérer une orchestration opérationnelle.

    Présentation de différents points de vue des Big Data sur plusieurs secteurs d’activité, avec des retours d’expérience, afin de prendre du recul sur des définitions parfois contradictoires.
    Prise en main de SAS Viya sur des petits cas simples afin d’avoir tous les éléments pour réaliser un projet transversale, intégrant Data Viz, Machine Learning et recherche opérationnelle.

  • Systèmes intelligents en aide à la décision

    Array

    Ects : 3
    Coefficient : Array
    Compétence à acquérir :
    programmation multi agents, protocoles FIPA, actes de langages FIPA, modèle décisionnel

    Description du contenu de l'enseignement :
    Les problèmes de décision impliquant plusieurs intervenants font l’objet de nombreux travaux, aussi bien en informatique (systèmes d’aide à la décision collective, systèmes multi-agents, systèmes répartis, systèmes de diagnostic...) qu’en économie et en théorie de la décision (choix social, théorie des jeux...). Avec le développement d’applications réparties coopératives (nécessitant des mécanismes de décision collective, de vote ou de consensus) ou d’applications multi-utilisateurs pour le web (commerce électronique, partage de compétences...), le domaine de la décision collective est en plein essor. Aussi devient-il nécessaire de concevoir des systèmes efficaces de décision collective.
    L’objectif du cours est l’étude de systèmes complexes de résolution de problèmes pour l'aide à la décision de groupe et plus précisément, l’étude de systèmes intelligents destinés à automatiser, à diagnostiquer ou à aider la prise de décision de groupe.

    Le cours vise à présenter différents modèles, outils et méthodologie pour le développement de tels systèmes. Le fil rouge de ce cours s’appuie sur le concept d'agent intelligent, et se positionne assez largement dans le domaine de l'intelligence artificielle distribuée. Les agents intelligents peuvent présenter une certaine autonomie, ont des croyances et des préférences qui leur sont propres, ainsi que des capacités de raisonnement, de communication, et de prise de décision.
    Contenu : Parmi les thèmes étudies, citons :
    - Diagnostic à base de modèles et diagnostic à base d’agents
    - Négociation entre agents,
    - Enchères électroniques et détermination du gagnant
    - Business Intelligence et intégration de données hétérogènes
    - Simulation des processus de décision collectifs
    Les domaines d’applications privilégies sont : les systèmes d’aide à la décision dans le transport (transport intelligent), les systèmes d’aide à la décision dans la gestion de l’environnement : aide aux agriculteurs (gestion de parcelles), aide aux organisations territoriales (gestion de l’eau, gestion des crues des rivières), commerce électronique et négociation automatique, gestion automatique de l’énergie domestique (domotique).

UE Obligatoires

  • Mémoire de master

    Array

    Ects : 9
    Coefficient : Array
    Compétence à acquérir :

    Description du contenu de l'enseignement :

Formation année universitaire 2020 - 2021 - sous réserve de modification

Modalités pédagogiques

La formation démarre en septembre, dont la présence en cours est obligatoire. Le rythme d'alternance du parcours MIAGE Informatique Décisionnelle en apprentissage est de : quatre semaines en entreprise / deux - trois semaines à l'université.
Les enseignements de la 2ème année de master mention Informatique parcours MIAGE Informatique Décisionnelle formation en apprentissage sont organisés en semestre 3 et semestre 4. Chaque semestre est constitué d'UE auxquelles s'ajoute un mémoire pour le semestre 4.

La note finale d'une UE est obtenue par pondération entre des notes de contrôle continu, de projets, d'examens partiels et terminaux. La note de contrôle continu peut faire intervenir plusieurs éléments : projet, devoirs, interrogations écrites ou orales, et note de participation...
En cas de session d'appel, la note finale d'une UE est obtenue par examen terminal. Elle se subtitue à la note finale de première session de l'UE.
Toute UE pour laquelle l'étudiant a obtenu une note finale supérieure ou égale à 10/20 est définitivement acquise ainsi que les ECTS associés.

Chaque semestre est composé d’UE, ainsi que d’une UE mémoire pour le semestre 4. La note finale d’un semestre est calculée comme somme pondérée des notes finales de toutes les UE constituant le semestre hors mémoire, le poids de la note finale d’une UE étant égal aux ECTS associés à l’UE.
Un semestre est définitivement acquis si toutes les conditions suivantes sont vérifiées :

  • Il est constitué d’au moins 30 ECTS
  • La note finale du semestre est supérieure ou égale à 10/20
  • La note finale de chaque UE composant le semestre est supérieure ou égale à 6/20
  • La note finale du mémoire pour la validation du semestre 4 est supérieure ou égale à 10/20

La validation d’un semestre implique la validation de chaque UE de ce semestre et des ECTS associés.

La validation d’une année entraîne la validation de chacun des deux semestres et de toutes les UE les composant ainsi que de tous les ECTS associés. La note finale d’une année se calcule par une moyenne pondérée des notes finales de toutes les UE constituant l’année, le poids de la note finale d’une UE étant égal aux ECTS associés à l’UE.


Stages et projets tutorés

Le stage se déroule sur une durée de cinq à six mois. Le sujet du stage doit être validé par le responsable de la formation avant le début du stage. A l'issue du stage, l'étudiant dépose une version électronique du rapport et remet deux exemplaires papier du rapport signés par le tuteur entreprise au secrétariat de la formation. Le rapport doit-être remis au plus tard quinze jours avant la date de la soutenance définie par le secrétariat de la formation.


 

 

Des programmes nourris par la recherche

Les formations sont construites au contact des programmes de recherche de niveau international de Dauphine, qui leur assure exigence et innovation.
La recherche est organisée autour de 6 disciplines toutes centrées sur les sciences des organisations et de la décision.

En savoir plus sur la recherche à Dauphine