MIAGE Informatique Décisionnelle - 2ème année de Master

L'année de formation

Cours de mise à niveau

UE fondamentales

  • Entrepôts de données

    Entrepôts de données

    Ects : 4
    Compétence à acquérir :
    Modélisation et manipulation de données multidimensionnelles
    Pré-requis recommandés :
    Modélisation (UML, Merise) et Bases de données relationnelles
    Pré-requis obligatoires :
    Bases de données relationnelles

    Description du contenu de l'enseignement :
    Acquérir les notions de base relatives à l'acquisition, l'intégration, la modélisation et au traitement de données multidimensionnelles.
    Introduction et définition d'un entrepôt de données, Architecture fonctionnelle, Modélisation conceptuelle, Alimentation, Stockage, gestion et exploitation de l'entrepôt. Utilisation de l’ETL Talend en TP.
    TP1 : Introduction talend
    TP2 : Business Modeler et construction des premiers jobs
    TP3 : Découverte d'autres connecteurs talend
    TP4 : Déploiement des jobs talend pour Mise en production

  • Sécurité dans les SI

    Sécurité dans les SI

    Ects : 3
    Compétence à acquérir :
    Initiation à la sécurité des systèmes d'information : menaces et recommandations

    Description du contenu de l'enseignement :
    La plupart des politiques de sécurité des systèmes d’information reposent sur une vision négativiste de l’action humaine : dissuader, bloquer, détecter, etc. Ce cours vise à installer les basiques de la sécurité pour permettre à chacun de poser les bonnes questions et de devenir un acteur engagé de la politique de sécurité des systèmes d’information de son entreprise. Les fondamentaux aussi bien qu’une vision prospective et innovante de la sécurité des systèmes d’information sont abordés dans ce cours.
    - Techniques d'attaque, de défense, de persuasion
    - Contexte législatif et réglementaire (CNIL, RGPD, NIST, etc.)
    - Éthique sécurisée, lanceurs d'alerte
    - Menaces ciblant l'humain, ingénierie sociale et manipulation

  • Outils d'optimisation pour les sciences des données et de la décision

    Outils d'optimisation pour les sciences des données et de la décision

    Ects : 3

    Description du contenu de l'enseignement :
    L’Optimisation Mathématique est un outil très puissant pour modéliser des problèmes décisionnels se présentant dans de nombreuses matières de la data science, l'ingénierie et l'industrie. Dans toutes ces applications, des décisions doivent être prises en partant de données complexes et structurées. Le but de ce cours est de décrire les outils nécessaires pour résoudre les problèmes d'optimisation associés à l'apprentissage de modèles de machine learning et data science. Cela donne les outils mathématiques basiques de l'optimisation convexe et décrit différentes approches permettant de construire des algorithmes efficients d'optimisation convexe. Différents cas pratiques portant sur le machine learning illustreront l'utilisation de ces algorithmes pour l'apprentissage de datasets.
    Plus en détails, la première partie du cours couvre les aspects de modélisation du champ, fournissant les outils pour construire des modèles mathématiques effectifs, c'est-à-dire des modèles qui peuvent être résolus en pratique. La seconde partie est consacrée aux aspects algorithmiques : des algorithmes de base sont traités ainsi que d'autres plus avancés, utiles pour ces modèles caractérisés par un nombre exponentiel de variables et/ou contraintes, qui seront présentés en détail. Enfin, la troisième partie du cours aborde les applications réelles.

  • Data Mining/Machine learning

    Data Mining/Machine learning

    Ects : 4

    Description du contenu de l'enseignement :
    Il s'agit d'initier les étudiants à l’apprentissage automatique (machine learning) et à la pratique de la fouille (data mining) et l’extraction de connaissances à partir des grandes masses de données. Il sera illustré par des cas concrets des exemples réalisés en session avec le logiciel R. L’évaluation se fait par examen et par un challenge Kaggle (kaggle.com)
    - Introduction
    - Objectifs et panorama du datamining et du Machine learning
    - Méthodes non supervisées :
    Réduction de dimensionnalité
    Clustering :
    K-means, CAH
    Approches probabilistes : EA
    Approches spectrales
    Application à une segmentation marketing
    Application au Text Mining
    Règles d’association
    -Méthodes supervisées :
    Régression logistique
    Arbre de Décision
    Méthodes à Noyaux
    Approches neuronales
    Application au scoring

  • Systèmes, Langages et Paradigmes pour le Big Data

    Systèmes, Langages et Paradigmes pour le Big Data

    Ects : 3

    Description du contenu de l'enseignement :
    Le cours a pour objectif d'apprendre aux étudiants les aspects fondamentaux des technologies Big Data pour la gestion et analyse de données massives.
    Le cours s’articule en trois parties.
    Dans la première, l’accent est sur le paradigme MapReduce et le système Hadoop, avec un focus sur son système de fichiers HDFS. Le cours illustrera les mécanismes de base de Hadoop pour le support de l'exécution parallèle de ‘dataflow’ MapReduce sur des clusters de machines. Une attention particulière sera donnée aux aspects algorithmiques et d’optimisation de dataflow MapReduce.
    La deuxième partie présentera des langages de requête et d’analyse de données caractérisés par des mécanismes de haut niveau et qui sont compilé sur MapReduce. Le focus sera sur les langages Pig Latin et Hive, des langages incluant des mécanismes à la SQL. Les techniques de compilation vers MapReduce seront présentées.
    La troisième partie sera consacrée à des évolutions de Hadoop, et en particulier au système Spark et au langage de support Scala. Le focus sera sur l’architecture de Spark, la notion de RDD, l'évaluation lazy de transformations et actions sur des collections distribuées RDD.
    Les notions apprises seront mises en pratique dans un projet où les étudiants devront concevoir un dataflow pour l’analyse de grands volumes de données. L'implémentation sera faite tant en MapReduce qu’en Spark, et une analyse expérimentale sera effectuée pour comparer les performances des deux implémentations.

UE Optionnelles

  • Transparence des algorithmes pour la décision

    Transparence des algorithmes pour la décision

    Ects : 3

    Description du contenu de l'enseignement :
    Les algorithmes jouent un rôle de plus en plus fondamental dans tous les aspects de notre vie. Une des principales craintes soulevées par les algorithmes est leur manque de transparence de leur fonctionnement, ce qui pourrait amener à l’avènement d’une « société boîte noire ». De plus, cette transparence est un prérequis pour pouvoir analyser et expliquer les décisions prises par les utilisateurs ou des entreprises.
    Le but de ce cours est de discuter et de sensibiliser les étudiants aux questions soulevées par la transparence et la responsabilité des algorithmes telles que par exemple :
    Quelles sont les situations où la transparence et l’explicabilité sont nécessaires et comment les implémenter en pratique ?
    Comment réconcilier le besoin des entreprises de protéger leur propriété intellectuelle avec le besoin des citoyens de pouvoir comprendre la logique derrière les algorithmes qu’ils utilisent ou qui produisent un effet sur leurs vies ?
    Comment améliorer la transparence, la responsabilité ainsi que l’équité des décisions prises par des systèmes algorithmiques sans pour autant compromettre leur utilité.
    On s’intéressera ici à une catégorie particulière d’algorithmes, ceux qui sont utilisés pour l’aide à la décision ou dans des traitements qui ont des incidences sur les comportements individuels, qui ont donc un effet normatif. A titre d’exemples, on peut citer :
    Les algorithmes de classement, qui établissent des priorités, des recommandations : on pense évidemment aux algorithmes de présentation des résultats des moteurs de recherche, mais aussi à ceux qui sont utilisés pour classer les candidats à un poste, etc.
    Les algorithmes de catégorisation, de classification, de profilage comme ceux qu’on met en œuvre pour détecter des profils de potentiels terroristes, de fraudeurs, etc.

    Ce cours abordera les points suivants :
    Rappels de notions du langage Python
    Transparence, explicabilité et responsabilité des algorithmes : définitions, liens, avantages et limites.
    Le bien-fondé de la transparence des algorithmes pour l’informatique décisionnelle. Aspects juridiques.
    Cas d’étude 1 : Transparence des algorithmes dans le cadre des systèmes de recommandation : le cas du filtrage collaboratif
    Cas d’étude 2 : Transparence des algorithmes dans le cadre de la classification : classification ordonnée et arbre de décision.
    Cas d’étude 3 : Transparence des algorithmes dans le cadre de l’élaboration des classements ou palmarès : prise en compte simultanée des préférences des utilisateurs et des données statistiques

    Mise en œuvre en langage python, à travers un mini-projet, d’un algorithme transparent pour la résolution d’un problème, à partir de données réelles disponibles sur des plateformes comme https://www.data.gouv.fr ou https://www.kaggle.com/

  • Méthodes Agiles d'Ingénieurie Logicielle

    Méthodes Agiles d'Ingénieurie Logicielle

    Ects : 3

    Description du contenu de l'enseignement :
    La nouvelle économie met à rude épreuve les équipes des projets informatiques. L'instabilité notoire des spécifications et le raccourcissement des délais de livraison imposent une amélioration drastique de la réactivité et de la productivité du développement, sans tolérer pour autant une quelconque négligence en matière de stabilité et d'évolutivité des applications déployées. Les méthodologies dites "agiles" tentent de répondre à ces exigences, en adoptant un investissement minimaliste et prônant des résultats tangibles et fréquents, par opposition aux méthodologies classiques qui - tout en imposant des organisations coûteuses - n'arrivent plus à prouver leur efficacité dans ces conditions extrêmement dynamiques. Ce cours propose un panorama des méthodes et techniques efficaces applicables dès les projets de petite taille. Les étudiants pourront les mettre en œuvre avantageusement, aussi bien pour leurs projets pédagogiques qu'industriels, une fois dans l'entreprise.
    Introduction. Evolution des modèles du cycle de vie des projets.
    Offre des méthodologies agiles : XP, FDD, Scrum, Kanban, Lean, etc.
    eXtremeProgramming : cycle de négociation, développement piloté par les tests, refactoring permanent, etc.
    Du code au modèle UML. Modélisation, stratégies et patterns agiles. Design Patterns, Analysis Patterns et Metapatterns.
    Techniques encourageant l'agilité : RAD, AOP, Assemblage de composants, MDA, etc.
    Illustrations en Java, tout au long du cours

  • Optimisation en Finance

    Optimisation en Finance

    Ects : 3

    Description du contenu de l'enseignement :
    Le but de ce module est d'introduire certaines techniques d'optimisation pour résoudre des problèmes en finance moderne, comme les problèmes de gestion de portefeuilles, de gestion de risques ou d’évaluation de prix d’option. L’accent sera mis sur les modèles stochastiques en finance.
    Introduction :Rappel de quelques techniques et modèles d’optimisation : modèles linéaires, mixtes, quadratiques, Problèmes de gestion de portefeuilles, d’évaluation de prix d’options et d’arbitrage. Modèle de Markowitz.
    Gestion de risque : Valeur en risque, valeur en risque conditionnelle, Optimisation de la valeur en risque conditionnelle.
    Optimisation robuste en finance : Sélection de portefeuille robuste sur plusieurs périodes, Profit robuste dans un portefeuille risqué, Sélection de portefeuille robuste, Robustesse relative dans la sélection d’un portefeuille.
    Modèles stochastiques : Gestion actif-passif, Gestion des dettes, Evaluation des prix d’options, Estimation de la volatilité.

  • Gouvernance des Systèmes d'Information

    Gouvernance des Systèmes d'Information

    Ects : 3

    Description du contenu de l'enseignement :
    Presenter les principes de la gouvernance des SI.
    Description : J1 : Introduction - concepts
    Entreprise et système d'information
    · Définition du système d'informations
    · Les composantes clés du SI
    Gouvernance : définition et enjeux
    · La gouvernance : pourquoi, à quoi cela sert-il ?
    · Gouvernance au niveau de l’entreprise
    15.doc 10
    · Gouvernance des SI : pour leur pilotage interne
    · SI et entreprise : alignement du SI sur la stratégie et la politique de l’entreprise
    360° de la gouvernance
    · La gouvernance à mettre en œuvre dépend de comment l’organisation entend piloter son
    activité et se contrôler
    · La gouvernance dépend de l’organisation voire de l’environnement socio-économique
    · Notion de « Compliance » : empilage des législations, réglementations, bonnes pratiques et
    procédures qui conditionnent la gouvernance
    J2 : Les référentiels
    Les grands standards :
    · Spice, CMMi, Itil, Cobit, …
    · Orientations plus particulières de certains référentiels : développement logiciel, mode projet,
    exploitation, etc.
    Focus sur ITIL
    · Applications types intérêts et limites
    · Limites par rapport à la gouvernance de l’entreprise sur son SI
    J3 : Les référentiels - Suite
    Focus sur CoBit
    · Applications types, intérêts et limites
    · Limites par rapport à la gouvernance de l’entreprise sur son SI
    Modèle d’organisation : la matrice des fonctions du département informatique.
    J4 : Les référentiels - Etude de cas
    Exemple de mise en place d'une démarche ITIL
    J5 : Organisation de la DSI - gouvernance des systèmes d'information-gouvernance d'entreprise
    · Comment s’articulent la gouvernance interne du SI et le niveau de gouvernance du SI requis
    pour le pilotage de l’entreprise ?
    · Quel recours pertinent aux référentiels métiers SI, quelles autres leviers et indicateurs pour
    répondre à toutes les exigences de gouvernance au niveau de l’entreprise
    · Et si la Direction de l’entreprise n’envisage même pas le SI comme objet/sujet de la
    gouvernance d’entreprise ?
    J6 : Les indicateurs de la Direction des Systèmes d'informations
    Ce qui se mesure s'améliore
    · Des indicateurs, pourquoi faire ?
    · Quelques indicateurs incontournables
    J7 : Etude de cas - Elaboration d'un Plan Directeur Informatique
    · Le plan directeur
    · Exemple d'élaboration du Plan Directeur Informatique d'une PME Français
    J8 : Tendances
    Cloud - Digital Marketing et BYOD … quel impact sur la gouvernance et le contrôle de risque ?

  • Capitalisation et management des connaissances

    Capitalisation et management des connaissances

    Ects : 3
    Compétence à acquérir :
    Concepts et enjeux du management des connaissances dans les entreprises

    Description du contenu de l'enseignement :
    Le cours de capitalisation sur les connaissances de l'entreprise est une introduction au Knowledge Management (KM). Il prodigue les concepts académiques fondamentaux aussi bien que des études de cas réelles permettant d'apprécier les enjeux du management des connaissances dans les entreprises.
    - Interprétations divergentes dans une entreprise étendue : contextes, cultures, intentions
    - Cadre académique de l'ingénierie des connaissances, outils de cartographies cognitives
    - Expertise, pouvoir, partage et rétention de connaissances
    - Devenir des métiers, design thinking

  • Programmation Back-end et Front-end

    Programmation Back-end et Front-end

    Ects : 3

    Description du contenu de l'enseignement :
    Introduction aux techniques de programmation back/front-end.
    L’objectif de ce cours est d’introduire les technologies utilisés dans les développement des applications Web du coté front, en utilisant des technologies telles Angular, mais aussi du coté serveur (back-end), en utilisant des tecknologies telles NodeJS.

  • Data Science

    Data Science

    Ects : 2

    Description du contenu de l'enseignement :
    L’objectif de ce cours est de vous former aux principaux modèles, architectures et outils utilisés dans l’ingénierie de Data Science pour gérer de grand volumes de données.
    La richesse et l'importance de l'information véhiculée par les données a conduit à une augmentation rapide de l'influence des données sur les individus et la société. Les données de toutes sortes, tels que les énormes collections de données sur l'internet, sont devenues omniprésentes dans pratiquement tous les aspects de notre société. Les données numériques sont à présent des ingrédients clés des innovations dans divers domaines, tels que l'énergie, l'économie, la santé ou le climat, ainsi que dans la science, du web, les entreprises doivent relever le défi de capturer, stocker, rechercher, partager et visualiser les données pour faciliter la prise de décision à tous les niveaux (politique, économique, scientifique, social, etc.). L’objectif de ce cours est de vous former aux principaux modèles, architectures et outils utilisés dans l’ingénierie de Data Science pour gérer de grand volumes de données.
    L’objectif de ce cours est de vous former aux principaux modèles, architectures et outils utilisés dans l’ingénierie de Data Science pour gérer de grand volumes de données. En particulier :
    • Les clusters
    • Le modèle de programmation MapReduce
    • L’écosystème Hadoop
    • SPARK
    • Les base de données NoSQL,

    Pré-requis : Connaissances des bases de données relationnelles.

  • Serveurs d'application JAVA

    Serveurs d'application JAVA

    Ects : 3

    Description du contenu de l'enseignement :
    Le terme "Serveur d'applications" est un intitulé général pour un objectif commun: la prise en charge de la complexité du développement d'applications pour l'entreprise actuelle. Ces applications se doivent d'être multi-tier, fiables et sécurisées, tolérantes aux pannes, transactionnelles, « scalables », interopérables, extensibles et réutilisables.Dans ce contexte, les serveurs d'applications fournissent un ensemble de services technologiques (middleware SOA ou ORB, serveur et services web, persistance, transactions, clustering etc.) au sein duquel interagissent les composants métiers d'une application répartie. La plateforme Java Entreprise Edition a pour vocation de répondre à ce challenge en offrant, à travers des spécifications ouvertes, un ensemble d'API ainsi qu'un modèle de composants.

    Introduction
    Concepts fondamentaux : objets répartis ORB (RMI\CORBA), moniteurs transactionnels, architecture à composants répartis, services web, SOA
    Présentation générale de Java EE : différentes technologies, généralités sur la spécification, modèle d'assemblage et de déploiement.
    Composants EJB 3, Persistance JPA, JMS, SOA
    API client : interfaces distantes, interface locales, JNDI
    Services avancés : clustering, transactions...
    Mise en pratique dans le cadre d’un projet (Eclipse/ JBoss /Hibernate / MySQL)

  • Qualité des données

    Qualité des données

    Ects : 2

    Description du contenu de l'enseignement :
    Le cours a pour objectif d’introduire les caractéristiques principaux liés à la qualité des données ainsi que de presenter les algorithmes pour leur traitement.
    La qualité de l'information a de graves répercussions sur l'efficience et l'efficacité des organisations et des entreprises. Par exemple, dans les organisations privées, telles que les sociétés de marketing ou les banques, il n'est pas surprenant d'avoir plusieurs registres de clients, mis à jour par différentes procédures organisationnelles, ce qui entraîne des informations contradictoires et en double. Ce cours vise à présenter les problèmes liés à la qualité de données, et de présenter les solutions qui peuvent être utilisées pour les résoudre. En particulier, il a pour objectif d’examiner les trois points suivants :
    · Dimensions de la qualité de données. Le terme « qualité de données » est assez vague et englobe plusieurs facettes. Dans cette partie, nous allons examiner les différents dimensions de la qualité de données, allant de l’exactitude, complétude, jusqu’au la consistance et la confiance.
    · Algorithme et solutions théoriques. Dans cette partie nous allons examiner en détails quelques solutions théoriques proposées pour résoudre certains problèmes de qualité de données, en particulier celles liées à l’identification d’objet.
    · Outils et solutions pratiques. Dans cette partie, nous allons utiliser des outils, et montrer comment ils peuvent être utilisés pour améliorer la qualité de données.

  • Aide à la Décision : construction d’indicateur

    Aide à la Décision : construction d’indicateur

    Ects : 3

    Description du contenu de l'enseignement :
    Fournir les fondements mathématiques et les outils de gestion nécessaires pour la conception et la mise en place des indicateurs composites.
    Modélisation (définir les composants de l’indicateur) : techniques de travail collectif pour la structuration du problème : carte cognitives, focus groupe, etc.
    Choix des fonctions d'agrégation : présentation de différents types d’agrégation (additive, ordinale). Analyse de leurs propriétés mathématiques
    Mise ensemble des différents types de données venant de différentes sources avec différents niveaux de qualités (avec une approche de "théorie de mesurage" et analyse de signifiance)
    Etude de cas avec une présentation d'un cas d'application industriel avec un intervenant industriel

UE fondamentales

  • Management de projet informatique

    Management de projet informatique

    Ects : 3

    Description du contenu de l'enseignement :
    Ce cours vise à développer les compétences nécessaires en matière de lancement, planification, et gestion de projets de manière efficace ainsi qu’à la consolidation des notions de conception et de modélisation et de leur intégration dans une démarche agile.
    - Les différents processus qui accompagnent les méthodes de conduite de projet informatique
    - Rôle de la maîtrise d'ouvrage et de la maîtrise d'œuvre
    - Les activités de support
    - Exposer et développer les méthodologies de conduite de projet informatique
    - Conception agile : Lean, Scrum et Kanban
    - Rétro-conception outillée d'un système existant : impact mapping, story mapping et backlog prêt
    - Rétrospective méthodologique
    - Définition et domaines d'usage d'un ERP
    - Pourquoi un ERP ? Les enjeux Business
    - Fonctionnement d'un ERP,
    - Analyse et Stratégie de l'Entreprise
    - Critères de choix d'un ERP,
    - Organisation du projet et facteurs clés du succès
    - Développement de la solution, test de la solution, mise en production de la solution
    - Évaluation de la solution.

    Prérequis : UML

  • Droit, Données et Ethique

    Droit, Données et Ethique

    Ects : 3

    Description du contenu de l'enseignement :
    La profonde transformation numérique de nos sociétés rend nécessaire comme l’a encore récemment rappelé la CNIL de « former à l’éthique tous les maillons de la chaîne algorithmique, concepteurs, professionnels, citoyens ». La création de ce nouveau cours Données et Ethique s’inscrit dans cette optique. Il s’agit de permettre aux informaticiens de prendre conscience des implications éthiques et sociales du traitement des données qu’ils opèrent. Il s’agit aussi les informer sur l’évolution du cadre dans lesquels ils vont pouvoir ou devoir mettre en œuvre le traitement de leurs données tant à titre personnel que professionnel. L’éthique est une notion souvent difficile à cerner. Elle repose sur un ensemble de règles morales susceptibles d’orienter le comportement des individus voire des entreprises. Ces règles qu’ils s’imposent à eux-mêmes peuvent soit préfigurer, soit en réalité se superposer ou se confondre avec des règles juridiques contraignantes. Ainsi, l’éthique des données se développe à titre collectif qu’à titre individuel notamment avec la figure des lanceurs d’alerte. En outre, l’éthique des données peut varier en fonction de la catégorie de données en cause (données personnelles, non personnelles, données dite d’intérêt général etc.). Ces prémisses sont importantes pour comprendre les enjeux économiques et sociétaux autour de l’émergence actuelle des principes éthiques des données.
    Introduction :
    - Qu’est-ce que l’éthique (distinction, articulation entre éthique, droit, morale).
    - De quelles données parle-t-on ?
    - Pourquoi une éthique des données aujourd’hui ? Les principaux enjeux : le développement de l’Intelligence artificielle et la question du respect de dignité humaine, dépersonnalisation, déresponsabilisation, encadrement nécessaire de la gouvernance algorithmique (Cambridge Analytica)
    Partie 1 : Les différentes formes d’encadrement de l’éthique des données
    - L’encadrement collectif
    Des obligations actuelles fixées par les Etats et l’UE (RGDP)
    Des tentatives de régulation à l’échelle internationale
    Une forme de responsabilité sociétale des entreprises (développement de code de conduite, d’outils de privacy by design ou by default)
    - Une responsabilité individuelle : Du cas de conscience à la revendication du statut de lanceur d’alerte
    Partie 2 : L’émergence de principes éthiques des données
    - Les initiatives en cours :
    Les recommandations de la CNIL : Vers la concrétisation d’un principe de loyauté des algorithmes et d’un principe de précaution en matière d’Intelligence Artificielle ?
    Le projet de lignes directrices en matière d’éthique dans le domaine de l’IA développée par la Commission européenne
    Vers une charte constitutionnelle française du numérique ?
    - Les questionnements éthiques spécifiques :
    La revendication d’un droit des robots
    Vers la création de biens communs numériques ?
    - Les bonnes pratiques sectorielles : Ethique des données dans le domaine de la finance, de l’éducation, de la santé etc.

  • Le décisionnel en entreprise, Cas pratiques

    Le décisionnel en entreprise, Cas pratiques

    Ects : 3

    Description du contenu de l'enseignement :
    Donner une visibilité concrète de l'utilisation des applications décisionnelles en entreprise : Qu'apporte un logiciel décisionnel à un PDG, à un Directeur Marketing, à un Directeur commercial ? Quelles formes prennent les outils de l'informatique décisionnelle en entreprise ? Comment transformer un entrepôt de données en tableau de bord fonctionnel permettant d'expliquer le passé et d'anticiper l'avenir ? Ce cours vous donnera les réponses à ces questions à travers la présentation de projets concrets mis en place récemment dans de grands groupes.
    - Acquérir les concepts de l'analyse décisionnelle.
    - Comprendre l'apport d'un logiciel décisionnel aux différents acteurs de l'entreprise.
    - Typologie d'applications
    - Démarche et présentation de projets décisionnels concrets
    - Initiation sur un outil décisionnel
    - Mise en forme d'un reporting standard & création d'un cube d'analyse multidimensionnelle
    - Réalisation d'un cas pratique

  • Projet en Business Intelligence

    Projet en Business Intelligence

    Ects : 3

    Description du contenu de l'enseignement :
    Mener de bout en bout un projet d’informatique décisionnelle sur la plateforme SAS
    Conceptualiser la chaine ce création de valeur de l’exploitation des données afin d’extraire des informations stratégiques.
    Conceptualiser l’industrialisation de l’analytique des Big Data dans la mise en production de projets.
    Analyser des données et construire des rapports avec un outil de Data Viz.
    Réaliser des modélisations de Machine Learning et de recherche opérationnelle et les mettre en production.
    Créer le lien entre la théorie et la pratique, l'informatique et l'analytique, les autres cours, afin de gérer une orchestration opérationnelle.

    Présentation de différents points de vue des Big Data sur plusieurs secteurs d’activité, avec des retours d’expérience, afin de prendre du recul sur des définitions parfois contradictoires.
    Prise en main de SAS Viya sur des petits cas simples afin d’avoir tous les éléments pour réaliser un projet transversale, intégrant Data Viz, Machine Learning et recherche opérationnelle.

  • Visualisation de données

    Visualisation de données

    Ects : 3

    Description du contenu de l'enseignement :
    Représenter des données de manière visuelle permet de tirer parti des capacités humaines en termes de perception et de cognition pour identifier des motifs particuliers, des éléments singuliers ou encore des anomalies dans ces données. . La visualisation permet aux utilisateurs de systèmes d'information d'explorer leurs données de manière interactive, d'en avoir une vue d'ensemble, d'en extraire de l'information qui pourrait difficilement être obtenue à travers des processus d'analyse automatique (fouille, apprentissage), de formuler de nouvelles hypothèses qui pourront ensuite être vérifiées, par exemple, au moyen de tests statistiques. Au-delà de ces aspects exploratoires, la visualisation de données sert aussi d'aide à la prise de décisions, et de support à la communication entre individus des résultats d'analyses effectuées sur ces données. Le but de ce cours est de donner une vision d'ensemble du domaine, des principes fondamentaux de la perception visuelle humaine aux techniques de visualisation adaptées aux différentes structures de données (données multivariées, arbres, graphes, séries temporelles, etc.). Les travaux pratiques seront réalisés au moyen de la bibliothèque D3 (Data-Driven Documents).
    - Vue d'ensemble du domaine de la visualisation de données
    - Perception visuelle
    - Visualisation de données multivariées
    - Visualisation de structures arborescentes
    - Visualisation de graphes et réseaux
    - Visualisation de données temporelles
    - Visualisation multi-échelle
    - Systèmes et boîtes à outils pour la visualisation

  • Anglais

    Anglais

    Ects : 3
    Compétence à acquérir :
    L'étudiant doit acquérir une autonomie langagière pour être capable de travailler dans un contexte international, à l'écrit comme à l'oral. A l'issu du cours, il maîtrisera en anglais les prises de parole dans différents contextes professionnels tout comme la rédaction de documents et l'interaction avec des partenaires.
    Mode de contrôle des connaissances :
    Des travaux à l'écrit et à l'oral sont requis tout au long du cours.
    Pré-requis recommandés :
    Les étudiants doivent avoir un niveau B2 au minimum et/ou d'une certification internationale correspondant au moins au niveau B2.
    Pré-requis obligatoires :
    Les étudiants doivent pouvoir justifier d'un niveau B2 au minimum et/ou d'une certification internationale correspondant au moins au niveau B2.

    Description du contenu de l'enseignement :
    Cours par niveau (selon la taille de la promotion). Une sélection de domaines liés au monde du travail, à son évolution et ses enjeux, est abordée par le biais de lectures, d'exercices apprentissage de lexique spécialisé, de présentations orales, de synthèses écrites et de participation à des débats.

    Bibliographie, lectures recommandées
    Lecture régulière de la presse anglophone

UE Optionnelles

  • Initiation à l'entrepreneuriat

    Initiation à l'entrepreneuriat

    Ects : 3

    Description du contenu de l'enseignement :
    Ce cours permet de se familiariser avec les problématiques d’entrepreneuriat et d’appréhender les fondamentaux nécessaires à la création d’une entreprise ou startup. Les étudiants développent des connaissances, compétences essentielles pour entreprendre grâce à une méthodologie basée sur l’apprentissage par l’action. Un savoir-faire et savoir-être entrepreneurial est développé permettant aux étudiants à la fin du cours de présenter leur projet à un jury d’experts en entrepreneuriat et d’investisseurs potentiels.
    Processus entrepreneurial et Lean Start-up
    - Les fondamentaux de l’étude de marché
    - Définir un business model pertinent et une stratégie adaptée
    - Démarches juridiques et administratives (statut, propriété intellectuelle)
    - Réaliser et construire un Business Plan et un Executive Summary
    - Apprendre à présenter son projet : Construire un argumentaire, l’art du « pitch » et du « storytelling »
    - Panorama des sources de financement et présentation de l’écosystème startup

  • Large scale machine learning in Spark

    Large scale machine learning in Spark

    Ects : 3
    Compétence à acquérir :
    Savoir concevoir des applications efficaces pour l'apprentissage machine sur les données massives.
    Mode de contrôle des connaissances :
    CC et Projet

    Description du contenu de l'enseignement :
    Les algorithmes d'apprentissage automatique sont de plus en plus utilisés de nos jours, et il existe une demande croissante d'algorithmes d'apprentissage qui sont capable de passer à l'échelle et de traiter des données massives.
    Plutôt qu'offrir une introduction exhaustive à l'apprentissage automatique, ce cours se concentre sur les aspects typiques qui doivent être traités dans la conception d'algorithmes distribués pour l'apprentissage, et qui peuvent être exécutés sur les clusters Hadoop, afin d'analyser des grands jeux de données, en tenant compte l'adaptabilité à la croissance du volume des données ainsi que la robustesse en cas de pannes.

    Le focus sera sur des algorithmes de réduction de dimension, de clustering et de classification, en tenant compte les aspects suivants. Le premier est la conception d'algorithmes en s'appuyant sur des paradigmes basés sur map-reduce, à cette fin Spark sera utilisé. Le second aspect est l'analyse expérimentale des algorithmes implémentés en Spark, afin de tester leur capacité de passer à l'échelle (scalabilité). Le troisième aspect concerne l'étude et l'application de techniques d'optimisation afin de pallier le manque éventuel de scalabilité.
    Bien que le cours se focalise sur certains algorithmes d'apprentissage, les techniques étudiées sont transversales et trouvent application dans un large éventail d'algorithmes d'apprentissage automatique. Pour certains des algorithmes étudiés le cours présentera des techniques pour une implémentation à partir de zéro en Spark-core, tandis que pour d'autres algorithmes Spark ML sera utilisé, et des pipelines de bout en bout seront conçus. Dans les deux cas, les algorithmes seront analysés et optimisés sur des jeux de données réels, sur un cluster Hadoop local, ainsi que sur un cluster sur le cloud Amazon WS.

  • C++

    C++

    Ects : 3

    Description du contenu de l'enseignement :
    Le langage C++ est actuellement le 3e langage de programmation le plus utilisé au monde(TIOBE Programming Community Index).
    Ce cours a pour objectif de former les étudiants à la programmation orientée-objet en C++.
    Ce cours est destiné en priorité aux étudiants débutants en programmation C++.

    Classes et objets (constructeurs/destructeur, Propriétés des méthodes, Surcharge des opérateurs, Objet membre)
    Héritage (simple, multiple, virtuel)
    Patron de fonctions et Patron de classes Pré requis : Langage C et programmation orientée-objet

  • Management des Organisations

    Management des Organisations

    Ects : 3

    Description du contenu de l'enseignement :
    Ce cours vise à faire comprendre le contexte de management dans les organisations, et favoriser l'intégration des futurs diplômés dans toute organisation avec des outils concrets et ayant fait leur preuve. Travailler le savoir-être qui est un vernis indispensable pour réussir dans le monde du travail.
    Comprendre le contexte de management des organisations
    Préparer les futurs diplômés à la prise de fonction d’un poste en management
    Acquérir des outils concrets pour animer une équipe
    Introduire les notions de gestion du changement
    Travailler la prise de parole et les présentations

  • Transition Numérique des Systèmes d'Information

    Transition Numérique des Systèmes d'Information

    Ects : 3
  • LV2 - Espagnol

    LV2 - Espagnol

    Ects : 1

    Description du contenu de l'enseignement :
    Cours par niveau

  • LV2 - FLE

    LV2 - FLE

    Ects : 1
  • LV2 - Allemand

    LV2 - Allemand

    Ects : 1
    Compétence à acquérir :
    En fonction des promotions, le niveau sera soit intermédiaire, soit avancé.
    Niveau intermédiaire : approfondissement des moyens linguistiques permettant de bien communiquer dans un pays germanophone, voire de pouvoir s’intégrer dans un milieu professionnel germanophone (niveau B1-B2 du CECRL).
    Niveau avancé : acquisition du niveau B2-C1+ du CECRL, garantissant une très bonne intégration sur le marché du travail des pays germanophones.
    Pré-requis obligatoires :
    Avoir au moins un niveau B1 (niveau bac).

    Description du contenu de l'enseignement :
    Niveau intermédiaire : revoir les règles grammaticales et le lexique de base de la langue allemande – ce qui pourra faciliter un apprentissage plus approfondi si cela s’avère nécessaire pour des raisons professionnelles – et découvrir une autre culture (vie quotidienne, vie politique et sociale, vie professionnelle). Les compétences orales et écrites sont travaillées; des exposés sont consacrés aux sujets économiques et culturels.
    Niveau avancé: étude des grandes questions de société et de l'actualité politique, du fonctionnement de l'économie sociale de marché, approfondissement des compétences linguistiques. Les étudiants seront capables de s'intégrer rapidement à un milieu professionnel germanophone, non pas nécessairement en maîtrisant une langue très technique, mais en ayant acquis une certaine fluidité dans l’expression et approfondi leur connaissance des pays de culture germanique.

    Bibliographie, lectures recommandées
    La bibliographie est fournie à la rentrée par l'enseignant, mais les étudiants sont invités dès maintenant à s'exercer régulièrement en consultant, par exemple, les documents dédiés sur le site de la Deutsche Welle: https://www.dw.com/de/deutsch-lernen/s-2055

UE Stage

Formation année universitaire 2020 - 2021 - sous réserve de modification

Modalités pédagogiques

La formation démarre en septembre, dont la présence en cours est obligatoire.
Les enseignements sont organisés en semestre 3 et semestre 4. Chaque semestre est constitué d'UE fondamentales et d'UE optionnelles auxquels s'ajoute un bloc stage pour le semestre 4.

La note finale de première session d'une UE est obtenue par pondération entre des notes de contrôle continu, de projets, d'examens partiels et terminaux. La note de contrôle continu peut faire intervenir plusieurs éléments : projets, devoirs, interrogations écrites ou orales, et note de participation... Toute UE pour laquelle l'étudiant a obtenu une note finale supérieure ou égale à 10/20 est définitivement acquis ainsi que les ECTS associés.
Chaque semestre est composé d'UE fondamentales et d'UE optionnelles, ainsi que d'une UE stage pour le semestre 4. La note finale d'un semestre est calculée comme somme pondérée des notes finales de toutes les UE constituant le semestre hors UE stage, le poids de la note finale d'une UE étant égal aux ECTS associés à l'UE. Un semestre est définitivement acquis si toutes les conditions suivantes sont vérifiées :

  • Il est constitué d'au moins 30 ECTS
  • La note finale du semestre est supérieure ou égale à 10/20
  • La note finale de chaque UE composant le semestre est supérieure ou égale à 8/20 sauf pour l'UE d'anglais dont la note finale doit-être supérieure ou égale à 6/20
  • La note finale de l'UE stage pour la validation du semestre 4 est supérieure ou égale à 10/20

La validation d'un semestre implique la validation de chaque UE de ce semestre et des ECTS associés.

La validation d'une année entraîne la validation de chacun des deux semestres et de toutes les UE les composant ainsi que tous les ECTS associés.
Une année est définitivement acquise (ainsi que les 60 ECTS associés) si toutes les conditions suivantes sont vérifiées :

  • Elle est constituée d'au moins 60 ECTS et la note finale de l'année est supérieure ou égale à 10/20
  • La note finale de chaque semestre de l'année est supérieure ou égale à 10/20
  • La note finale de chaque UE de chaque semestre de l'année est supérieure ou égale à 8/20 sauf pour l'UE d'anglais dont la note finale doit-être supérieure ou égale à 6/20
  • La note finale de l'UE stage est supérieur ou égale à 10/20

UE Obligatoires

  • Création d'entreprise

    Création d'entreprise

    Ects : 2

    Description du contenu de l'enseignement :
    Ce cours permet de se familiariser avec les problématiques d’entrepreneuriat et d’appréhender les fondamentaux nécessaires à la création d’une entreprise ou startup. Les étudiants développent des connaissances, compétences essentielles pour entreprendre grâce à une méthodologie basée sur l’apprentissage par l’action. Un savoir-faire et savoir-être entrepreneurial est développé permettant aux étudiants à la fin du cours de présenter leur projet à un jury d’experts en entrepreneuriat et d’investisseurs potentiels.

    - Processus entrepreneurial et Lean Start-up
    - Les fondamentaux de l’étude de marché
    - Définir un business model pertinent et une stratégie adaptée
    - Démarches juridiques et administratives (statut, propriété intellectuelle)
    - Réaliser et construire un Business Plan et un Executive Summary
    - Apprendre à présenter son projet : Construire un argumentaire, l’art du « pitch » et du « storytelling »
    - Panorama des sources de financement et présentation de l’écosystème startup

    Bibliographie, lectures recommandées
    Référence(s) :
    - Catherine Léger-Jarniou, Georges Kalousis, La Boîte à outils de la Création d’entreprise. Dunod 2016 4ème édition
    - Catherine Léger-Jarniou, Georges Kalousis, Construire son Business Plan. Collection: Entrepreneurs, Dunod 2014 - 3ème édition
    - Eric Ries, Lean Startup : Adoptez l'innovation continue. Pearson 2015
    - Oren Staff, Pitch anything : An Innovative Method for Presenting, Persuading, and Winning the Deal. 2011
  • Décisionnel en Entreprise

    Décisionnel en Entreprise

    Ects : 3

    Description du contenu de l'enseignement :
    Donner une visibilité concrète de l'utilisation des applications décisionnelles en entreprise : Qu'apporte un logiciel décisionnel à un PDG, à un Directeur Marketing, à un Directeur commercial ? Quelles formes prennent les outils de l'informatique décisionnelle en entreprise ? Comment transformer un entrepôt de données en tableau de bord fonctionnel permettant d'expliquer le passé et d'anticiper l'avenir ? Ce cours vous donnera les réponses à ces questions à travers la présentation de projets concrets mis en place récemment dans de grands groupes.
    - Acquérir les concepts de l'analyse décisionnelle.
    - Comprendre l'apport d'un logiciel décisionnel aux différents acteurs de l'entreprise.
    - Typologie d'applications
    - Démarche et présentation de projets décisionnels concrets
    - Initiation sur un outil décisionnel
    - Mise en forme d'un reporting standard & création d'un cube d'analyse multidimensionnelle
    - Réalisation d'un cas pratique

  • Entrepôts de données

    Entrepôts de données

    Ects : 3
    Compétence à acquérir :
    Modélisation et manipulation de données multidimensionnelles
    Pré-requis recommandés :
    Modélisation (UML, Merise) et Bases de données relationnelles
    Pré-requis obligatoires :
    Bases de données relationnelles

    Description du contenu de l'enseignement :
    Acquérir les notions de base relatives à l'acquisition, l'intégration, la modélisation et au traitement de données multidimensionnelles.
    Introduction et définition d'un entrepôt de données, Architecture fonctionnelle, Modélisation conceptuelle, Alimentation, Stockage, gestion et exploitation de l'entrepôt. Utilisation de l’ETL Talend en TP.
    TP1 : Introduction talend
    TP2 : Business Modeler et construction des premiers jobs
    TP3 : Découverte d'autres connecteurs talend
    TP4 : Déploiement des jobs talend pour Mise en production

  • Marketing et stratégie digitale

    Marketing et stratégie digitale

    Ects : 3

    Description du contenu de l'enseignement :
    Ce cours a pour objectif de vous faire acquérir les bases du marketing de l’internet et de la communication sur le web. Les différentes techniques permettant de recruter et de fidéliser le e-consommateur seront étudiés.
    1. Comprendre la révolution numérique
    Le marketing à l’ère numérique
    L’économie numérique
    Le e-consommateur
    2. Définir la stratégie digitale
    Marché, concurrence, compétences, organisation
    Proposition de valeur, mix-marketing
    Business model
    3. Mettre en œuvre la stratégie digitale
    Les acteurs de l’écosystème publicitaire
    Créer du trafic vers son site, les leviers du e-marketing
    Ergonomie, design, expérience client, parcours clients, cross-canal
    Créer et gérer son site internet et mobile
    Gérer les moyens de paiement
    Fidéliser ses clients internautes
    Gérer le cycle de vie client
    4. Le marketing des réseaux sociaux
    Panorama des médias sociaux
    Présence de l’entreprise sur les réseaux sociaux
    Animer des campagnes sur les réseaux sociaux
    5. Le marketing mobile
    L’équipement et les usages des consommateurs
    Les stratégies publicitaires sur le mobile
    Les applications stores
    6. Les tendances, les opportunités du digital
    Le brand content, le storytelling, l’UGC
    L’économie collaborative et participative
    Les objets connectés, le big data

  • Modélisation en Aide à la décision

    Modélisation en Aide à la décision

    Ects : 3

    Description du contenu de l'enseignement :
    Le cours vise à présenter des modélisations originales de différents problèmes concrets de décision. Il s'agit de développer les aptitudes des étudiants à élaborer et mettre en œuvre des modèles pertinents face à une situation de décision.
    Concept de modèle en aide à la décision. Modèle des solutions et modèle des préférences.
    Description du processus de modélisation et de ses différentes phases.
    Présentation de modélisations non triviales de problèmes de décision utilisant divers cadres de modélisation (graphes, programmation linéaire, multicritère,...).
    Utilisation de variables 0-1 en programmation linéaire
    Présentation d'outils de modélisation et de résolution (modeleurs et solveurs).

    Bibliographie, lectures recommandées
    Référence(s) :
    H.P. Williams. Model building in mathematical programming. J. Wiley, New York, 1999. 4ème edition

    Ph. Vallin et D. Vanderpooten. Aide à la décision : une approche par les cas. Ellipses, Paris, 2002., 2ème édition
    D. Vanderpooten « Modelling in decision aiding ». In D. Bouyssou, E. Jacquet-Lagrèze, P. Perny, R. Slowinski, D. Vanderpooten, and Ph. Vincke (eds), Aiding Decisions with Multiple Criteria: Essays in Honour of Bernard Roy, pages 195–210. Kluwer, 2001.
  • Optimisation pour l'apprentissage automatique

    Optimisation pour l'apprentissage automatique

    Ects : 3
    Compétence à acquérir :
    - Identify the characteristics of an optimization problem given its formulation.
    - Know the theoretical and practical properties of the most popular optimization techniques.
    - Find the best optimization algorithm to handle a particular feature of a machine learning problem.
    Mode de contrôle des connaissances :
    Written exam.
    Pré-requis recommandés :
    Fundamentals of linear algebra and real analysis. Experience with Python programming.

    Description du contenu de l'enseignement :
    Optimization is at the heart of most recent advances in machine learning. Indeed, it not only plays a major role in linear regression, SVM and kernel methods, but it is also the key to the recent explosion of deep learning for supervised and unsupervised problems in imaging, vision and natural language processing. This course will review the mathematical foundations, the underlying algorithmic methods and showcase modern applications of a broad range of optimization techniques.
    The course will be composed of classical lectures and numerical sessions in Python. It will begin with the basic components of smooth optimization (optimality conditions, gradient-type methods), then move to methods that are particularly relevant in a machine learning setting such as the celebrated stochastic gradient descent algorithm and its variants. More advanced algorithms related to non-smooth and constrained optimization, that encompass known characteristics of learning problems such as the presence of regularizing terms, will also be described. During lab sessions, the various algorithms studied during the lectures will be implemented and tested on real and synthetic datasets: these sessions will also address several practical features of optimization codes such as automatic differentiation, and built-in optimization routines within popular machine learning libraries such as PyTorch.

    Bibliographie, lectures recommandées
    Bibliography:
    Theory and algorithms:
    Convex Optimization, Boyd and Vandenberghe
    Introduction to matrix numerical analysis and optimization, Philippe Ciarlet
    Proximal algorithms, N. Parikh and S. Boyd
    Introduction to Nonlinear Optimization - Theory, Algorithms and Applications, Amir Beck
    Numerics:
    Pyrthon and Jupyter installation: use only Python 3 with Anaconda distribution.
    The Numerical Tours of Signal Processing, Gabriel Peyré
    Scikitlearn tutorial #1 and Scikitlearn tutorial #2, Fabian Pedregosa, Jake VanderPlas
    Reverse-mode automatic differentiation: a tutorial
    Convolutional Neural Networks for Visual Recognition
    Christopher Olah, Blog
  • Programmation par contraintes et ses applications

    Programmation par contraintes et ses applications

    Ects : 2

    Description du contenu de l'enseignement :
    Ce cours vise à introduire les concepts fondamentaux de la programmation par contraintes et à étudier la modélisation et la résolution de problèmes à l'aide de la programmation par contraintes.
    - Modélisation et résolution de problèmes à l'aide de la programmation par contraintes : intérêt de la programmation par contraintes, exemples,
    - Types de contraintes, principaux algorithmes et heuristiques de résolution
    - Utilisation du logiciel professionnel OPL Studio

    Bibliographie, lectures recommandées
    Référence(s) :
    K. Apt, Principles of Constraint Programming, Cambridge University Press, 2009.
    K. Marriott and P.J. Stuckey, Programming with Constraints: An Introduction, The MIT Press, 1998.
    E. Tsang, Foundations of Constraint Satisfaction, Academic Press, 1993.
  • Qualité des données

    Qualité des données

    Ects : 2

    Description du contenu de l'enseignement :
    La qualité de l'information a de graves répercussions sur l'efficience et l'efficacité des organisations et des entreprises. Par exemple, dans les organisations privées, telles que les sociétés de marketing ou les banques, il n'est pas surprenant d'avoir plusieurs registres de clients, mis à jour par différentes procédures organisationnelles, ce qui entraîne des informations contradictoires et en double. Ce cours vise à présenter les problèmes liés à la qualité de données, et de présenter les solutions qui peuvent être utilisées pour les résoudre.
    En particulier, le cours a pour objectif d’examiner les trois points suivants :
    · Dimensions de la qualité de données. Le terme « qualité de données » est assez vague et englobe plusieurs facettes. Dans cette partie, nous allons examiner les différents dimensions de la qualité de données, allant de l’exactitude, complétude, jusqu’au la consistance et la confiance.
    · Algorithme et solutions théoriques. Dans cette partie nous allons examiner en détails quelques solutions théoriques proposées pour résoudre certains problèmes de qualité de données, en particulier celles liées à l’identification d’objet.
    · Outils et solutions pratiques. Dans cette partie, nous allons utiliser des outils, et montrer comment ils peuvent être utilisés pour améliorer la qualité de données.

  • Systèmes, Langages et Paradigmes pour le Big Data

    Systèmes, Langages et Paradigmes pour le Big Data

    Ects : 3

    Description du contenu de l'enseignement :
    Le cours a pour objectif d'apprendre aux étudiants les aspects fondamentaux des technologies Big Data pour la gestion et analyse de données massives.
    Le cours s’articule en trois parties.
    Dans la première, l’accent est sur le paradigme MapReduce et le système Hadoop, avec un focus sur son système de fichiers HDFS. Le cours illustrera les mécanismes de base de Hadoop pour le support de l'exécution parallèle de ‘dataflow’ MapReduce sur des clusters de machines. Une attention particulière sera donnée aux aspects algorithmiques et d’optimisation de dataflow MapReduce.
    La deuxième partie présentera des langages de requête et d’analyse de données caractérisés par des mécanismes de haut niveau et qui sont compilé sur MapReduce. Le focus sera sur les langages Pig Latin et Hive, des langages incluant des mécanismes à la SQL. Les techniques de compilation vers MapReduce seront présentées.
    La troisième partie sera consacrée à des évolutions de Hadoop, et en particulier au système Spark et au langage de support Scala. Le focus sera sur l’architecture de Spark, la notion de RDD, l'évaluation lazy de transformations et actions sur des collections distribuées RDD.
    Les notions apprises seront mises en pratique dans un projet où les étudiants devront concevoir un dataflow pour l’analyse de grands volumes de données. L'implémentation sera faite tant en MapReduce qu’en Spark, et une analyse expérimentale sera effectuée pour comparer les performances des deux implémentations.

  • Visualisation de données

    Visualisation de données

    Ects : 3

    Description du contenu de l'enseignement :
    Représenter des données de manière visuelle permet de tirer parti des capacités humaines en termes de perception et de cognition pour identifier des motifs particuliers, des éléments singuliers ou encore des anomalies dans ces données. . La visualisation permet aux utilisateurs de systèmes d'information d'explorer leurs données de manière interactive, d'en avoir une vue d'ensemble, d'en extraire de l'information qui pourrait difficilement être obtenue à travers des processus d'analyse automatique (fouille, apprentissage), de formuler de nouvelles hypothèses qui pourront ensuite être vérifiées, par exemple, au moyen de tests statistiques. Au-delà de ces aspects exploratoires, la visualisation de données sert aussi d'aide à la prise de décisions, et de support à la communication entre individus des résultats d'analyses effectuées sur ces données. Le but de ce cours est de donner une vision d'ensemble du domaine, des principes fondamentaux de la perception visuelle humaine aux techniques de visualisation adaptées aux différentes structures de données (données multivariées, arbres, graphes, séries temporelles, etc.). Les travaux pratiques seront réalisés au moyen de la bibliothèque D3 (Data-Driven Documents).
    - Vue d'ensemble du domaine de la visualisation de données
    - Perception visuelle
    - Visualisation de données multivariées
    - Visualisation de structures arborescentes
    - Visualisation de graphes et réseaux
    - Visualisation de données temporelles
    - Visualisation multi-échelle
    - Systèmes et boîtes à outils pour la visualisation

  • Web des données

    Web des données

    Ects : 3

    Description du contenu de l'enseignement :
    Former les étudiants aux standards du Web de données et du Web sémantique. Dans le contexte du web sémantique, les ontologies jouent un rôle prépondérant dans la spécification des connaissances de manière standard afin de permettre l’interopérabilité entre différents systèmes. Une ontologie correspond à un vocabulaire contrôlé et organisé et à la formalisation explicite des relations créées entre les différents termes du vocabulaire. Elle permet de préciser formellement un vocabulaire commun dans une perspective de partage. Les ontologies informatiques permettent de représenter un corpus de connaissances sous une forme utilisable par une machine. Ainsi, une ontologie avec un ensemble de règles constitue une base de connaissance permettant de développer un système d’aide à la décision.
    Contrôle de connaissance : se décompose en deux parties, la première est un contrôle continu comprenant des TD notés, et la deuxième est un projet où les étudiants en groupe de 2 ou 3 font un exposé sur des Applications ou nouvelles technologies autour du WEB.

    Langage dédié à la transformation de données XML (XSLT). Ce langage est utilisé par les WEBMASTER pour l’automatisation de la production des sites WEB et par les développeurs pour la création et la mise à jour automatique de tout document. L’accent est mis sur les concepts XSLT pour la visualisation des documents et des images.
    Langage permettant de garantir la conformité de documents en fonction d’une définition de type de documents (Langage XML schema). Ce langage peut être utilise pour créer des documents XML pour une large variété d’applications telles que la syndication, les échanges de documents et le stockage de données dans un format standard. Cet apprentissage permettra l’étude d’un schéma XML sur les documents juridique (legifrance)
    WEB sémantique en quatre parties : le processus de développement d’une ontologie, les Langages permettant la définition d’ontologies RDF, OWL 2, et l’interrogation de documents à partir d’une ontologie SPARQL, et le développement collaboratif d’une ontologie. Cet apprentissage permettra de traiter de manière détaillée des exemples de descriptions ontologiques existantes comme l'ontologie ELI qui fournit un cadre de description pour structurer les métadonnées des ressources législatives nationales et européennes, et les publier sur le web de données ou l’ontologie. De manière applicative, il commence par l’exploration, sous le logiciel Protégé 5.2 de l’université de Sandford, d’une ontologie existante, puis par la modélisation et définition d’une ontologie de domaine sous le logiciel Protégé.

    Bibliographie, lectures recommandées
    Référence(s) :
    Semantic Web Programming, John Hebeler, Matthew Fisher, Ryan Blace, Andrew Perez-Lopez, Édition : O'Reilly - 304 pages , 1re édition, 1er juillet 2009
    Semantic Web for the Working Ontologist, Second Edition: Effective Modeling in RDFS and OWL 2nd Edition, Dean Allemang (Author), James Hendler (Author) 2011.
    XSLT 2.0 and XPATH 2.0, programmer’s reference, Mickael Kay, 4ième édition, Wiley Publishin Inc., 2008,
    XML Schema, The W3C's Object-Oriented Descriptions for XML, Eric van der Vlist, Publisher O'Reilly Media, 2002 .
  • Outils d'optimisation pour les sciences des données et de la décision

    Outils d'optimisation pour les sciences des données et de la décision

    Ects : 3

    Description du contenu de l'enseignement :
    L’Optimisation Mathématique est un outil très puissant pour modéliser des problèmes décisionnels se présentant dans de nombreuses matières de la data science, l'ingénierie et l'industrie. Dans toutes ces applications, des décisions doivent être prises en partant de données complexes et structurées. Le but de ce cours est de décrire les outils nécessaires pour résoudre les problèmes d'optimisation associés à l'apprentissage de modèles de machine learning et data science. Cela donne les outils mathématiques basiques de l'optimisation convexe et décrit différentes approches permettant de construire des algorithmes efficients d'optimisation convexe. Différents cas pratiques portant sur le machine learning illustreront l'utilisation de ces algorithmes pour l'apprentissage de datasets.
    Plus en détails, la première partie du cours couvre les aspects de modélisation du champ, fournissant les outils pour construire des modèles mathématiques effectifs, c'est-à-dire des modèles qui peuvent être résolus en pratique. La seconde partie est consacrée aux aspects algorithmiques : des algorithmes de base sont traités ainsi que d'autres plus avancés, utiles pour ces modèles caractérisés par un nombre exponentiel de variables et/ou contraintes, qui seront présentés en détail. Enfin, la troisième partie du cours aborde les applications réelles.

UE Obligatoires

  • Anglais

    Anglais

    Ects : 3

    Description du contenu de l'enseignement :
    Cours par niveau

  • Data Mining/Machine learning

    Data Mining/Machine learning

    Ects : 4

    Description du contenu de l'enseignement :
    Il s'agit d'initier les étudiants à l’apprentissage automatique (machine learning) et à la pratique de la fouille (data mining) et l’extraction de connaissances à partir des grandes masses de données. Il sera illustré par des cas concrets des exemples réalisés en session avec le logiciel R. L’évaluation se fait par examen et par un challenge Kaggle (kaggle.com)
    - Introduction
    - Objectifs et panorama du datamining et du Machine learning
    - Méthodes non supervisées :
    Réduction de dimensionnalité
    Clustering :
    K-means, CAH
    Approches probabilistes : EA
    Approches spectrales
    Application à une segmentation marketing
    Application au Text Mining
    Règles d’association
    -Méthodes supervisées :
    Régression logistique
    Arbre de Décision
    Méthodes à Noyaux
    Approches neuronales
    Application au scoring

  • Données et Ethique

    Données et Ethique

    Ects : 2

    Description du contenu de l'enseignement :
    La profonde transformation numérique de nos sociétés rend nécessaire comme l’a encore récemment rappelé la CNIL de « former à l’éthique tous les maillons de la chaîne algorithmique, concepteurs, professionnels, citoyens ». La création de ce nouveau cours Données et Ethique s’inscrit dans cette optique. Il s’agit de permettre aux informaticiens de prendre conscience des implications éthiques et sociales du traitement des données qu’ils opèrent. Il s’agit aussi les informer sur l’évolution du cadre dans lesquels ils vont pouvoir ou devoir mettre en œuvre le traitement de leurs données tant à titre personnel que professionnel. L’éthique est une notion souvent difficile à cerner. Elle repose sur un ensemble de règles morales susceptibles d’orienter le comportement des individus voire des entreprises. Ces règles qu’ils s’imposent à eux-mêmes peuvent soit préfigurer, soit en réalité se superposer ou se confondre avec des règles juridiques contraignantes. Ainsi, l’éthique des données se développe à titre collectif qu’à titre individuel notamment avec la figure des lanceurs d’alerte. En outre, l’éthique des données peut varier en fonction de la catégorie de données en cause (données personnelles, non personnelles, données dite d’intérêt général etc.). Ces prémisses sont importantes pour comprendre les enjeux économiques et sociétaux autour de l’émergence actuelle des principes éthiques des données.

    Introduction :
    - Qu’est-ce que l’éthique (distinction, articulation entre éthique, droit, morale).
    - De quelles données parle-t-on ?
    - Pourquoi une éthique des données aujourd’hui ? Les principaux enjeux : le développement de l’Intelligence artificielle et la question du respect de dignité humaine, dépersonnalisation, déresponsabilisation, encadrement nécessaire de la gouvernance algorithmique (Cambridge Analytica)
    Partie 1 : Les différentes formes d’encadrement de l’éthique des données
    - L’encadrement collectif
    Des obligations actuelles fixées par les Etats et l’UE (RGDP)
    Des tentatives de régulation à l’échelle internationale
    Une forme de responsabilité sociétale des entreprises (développement de code de conduite, d’outils de privacy by design ou by default)
    - Une responsabilité individuelle : Du cas de conscience à la revendication du statut de lanceur d’alerte
    Partie 2 : L’émergence de principes éthiques des données
    - Les initiatives en cours :
    Les recommandations de la CNIL : Vers la concrétisation d’un principe de loyauté des algorithmes et d’un principe de précaution en matière d’Intelligence Artificielle ?
    Le projet de lignes directrices en matière d’éthique dans le domaine de l’IA développée par la Commission européenne
    Vers une charte constitutionnelle française du numérique ?
    - Les questionnements éthiques spécifiques :
    La revendication d’un droit des robots
    Vers la création de biens communs numériques ?
    - Les bonnes pratiques sectorielles : Ethique des données dans le domaine de la finance, de l’éducation, de la santé etc.

  • Données, modèles et décisions

    Données, modèles et décisions

    Ects : 3

    Description du contenu de l'enseignement :
    Les problèmes rencontrés en pratique sont souvent complexes et mal définis à cause en partie des données incertaines ou imprécises. Les modèles et techniques mathématiques jouent un rôle important pour appréhender une réalité complexe et proposer de bonnes décisions. Le but de ce cours est de montrer comment utiliser les données afin de bâtir des modèles et améliorer les décisions. Des études de cas pratiques seront étudiées en utilisant le modeleur OPL de CPLEX ainsi qu’Excel.

    1. Décision dans l’incertain : optimisation linéaire robuste et modèles de simulation.
    2. Optimisation multi objectifs : concepts fondamentaux, méthodes d’énumération de l’ensemble des solutions efficaces.
    3. Optimisation non-linéaire : formulation de problèmes par des modèles non-linéaires, analyse graphique, résolution informatique.

    Bibliographie, lectures recommandées
    Référence(s) :
    Bertsimas, Dimitris, and Robert Freund. Data, Models, and Decisions: The Fundamentals
    of Management Science. Dynamic Ideas, 2004.
  • Négociation

    Négociation

    Ects : 3

    Description du contenu de l'enseignement :
    L’objectif du cours est une initiation théorique et pratique à la négociation.
    La méthode du cours est de relier constamment les résultats des simulations auxquelles participent activement les étudiants avec les éléments fondamentaux de toutes négociations, objets d’acquisition du cours. Le séminaire est aussi rythmé par un ensemble de vidéos d'acteurs de la sphère publique et privée qui témoignent de leurs expériences et proposent des idées. Ces vidéos sont aussi des objets d'analyses et de débats. Le séminaire se termine par une grande négociation multilatérale qui permet la mise en pratique immédiate des théories et techniques vues, tout en permettant de prendre mieux conscience de ses forces et faiblesses individuelles en négociation. Un focus est proposé sur les conditions particulières d'une négociation de recrutement, notamment en ce qui concerne le droit du travail, les clauses d'un contrat et l'ensemble des informations nécessaires afin de renforcer sa capacité à négocier.

  • Projet en Business Intelligence - Big Data

    Projet en Business Intelligence - Big Data

    Ects : 3

    Description du contenu de l'enseignement :
    Mener de bout en bout un projet d’informatique décisionnelle sur la plateforme SAS
    Conceptualiser la chaine ce création de valeur de l’exploitation des données afin d’extraire des informations stratégiques.
    Conceptualiser l’industrialisation de l’analytique des Big Data dans la mise en production de projets.
    Analyser des données et construire des rapports avec un outil de Data Viz.
    Réaliser des modélisations de Machine Learning et de recherche opérationnelle et les mettre en production.
    Créer le lien entre la théorie et la pratique, l'informatique et l'analytique, les autres cours, afin de gérer une orchestration opérationnelle.

    Présentation de différents points de vue des Big Data sur plusieurs secteurs d’activité, avec des retours d’expérience, afin de prendre du recul sur des définitions parfois contradictoires.
    Prise en main de SAS Viya sur des petits cas simples afin d’avoir tous les éléments pour réaliser un projet transversale, intégrant Data Viz, Machine Learning et recherche opérationnelle.

  • Systèmes intelligents en aide à la décision

    Systèmes intelligents en aide à la décision

    Ects : 3
    Compétence à acquérir :
    programmation multi agents, protocoles FIPA, actes de langages FIPA, modèle décisionnel
    Mode de contrôle des connaissances :
    50%CC + 50% examen
    Pré-requis obligatoires :
    Programmation java

    Description du contenu de l'enseignement :
    Les problèmes de décision impliquant plusieurs intervenants font l’objet de nombreux travaux, aussi bien en informatique (systèmes d’aide à la décision collective, systèmes multi-agents, systèmes répartis, systèmes de diagnostic...) qu’en économie et en théorie de la décision (choix social, théorie des jeux...). Avec le développement d’applications réparties coopératives (nécessitant des mécanismes de décision collective, de vote ou de consensus) ou d’applications multi-utilisateurs pour le web (commerce électronique, partage de compétences...), le domaine de la décision collective est en plein essor. Aussi devient-il nécessaire de concevoir des systèmes efficaces de décision collective.
    L’objectif du cours est l’étude de systèmes complexes de résolution de problèmes pour l'aide à la décision de groupe et plus précisément, l’étude de systèmes intelligents destinés à automatiser, à diagnostiquer ou à aider la prise de décision de groupe.

    Le cours vise à présenter différents modèles, outils et méthodologie pour le développement de tels systèmes. Le fil rouge de ce cours s’appuie sur le concept d'agent intelligent, et se positionne assez largement dans le domaine de l'intelligence artificielle distribuée. Les agents intelligents peuvent présenter une certaine autonomie, ont des croyances et des préférences qui leur sont propres, ainsi que des capacités de raisonnement, de communication, et de prise de décision.
    Contenu : Parmi les thèmes étudies, citons :
    - Diagnostic à base de modèles et diagnostic à base d’agents
    - Négociation entre agents,
    - Enchères électroniques et détermination du gagnant
    - Business Intelligence et intégration de données hétérogènes
    - Simulation des processus de décision collectifs
    Les domaines d’applications privilégies sont : les systèmes d’aide à la décision dans le transport (transport intelligent), les systèmes d’aide à la décision dans la gestion de l’environnement : aide aux agriculteurs (gestion de parcelles), aide aux organisations territoriales (gestion de l’eau, gestion des crues des rivières), commerce électronique et négociation automatique, gestion automatique de l’énergie domestique (domotique).

    Bibliographie, lectures recommandées
    Bibliographie :
    Intelligent Agent-Based Business Intelligence, Samo Bobek , Igor Perko
    Entreprise Integration using the agent paradigm: foundations of multi-agent based integrative business information systems. Decision Support Systems (2006) by R.Kishore, H.Zhang, R.Ramesh

UE Obligatoires

Formation année universitaire 2020 - 2021 - sous réserve de modification

Modalités pédagogiques

La formation démarre en septembre, dont la présence en cours est obligatoire. Le rythme d'alternance du parcours MIAGE Informatique Décisionnelle en apprentissage est de : quatre semaines en entreprise / deux - trois semaines à l'université.
Les enseignements de la 2ème année de master mention Informatique parcours MIAGE Informatique Décisionnelle formation en apprentissage sont organisés en semestre 3 et semestre 4. Chaque semestre est constitué d'UE auxquelles s'ajoute un mémoire pour le semestre 4.

La note finale d'une UE est obtenue par pondération entre des notes de contrôle continu, de projets, d'examens partiels et terminaux. La note de contrôle continu peut faire intervenir plusieurs éléments : projet, devoirs, interrogations écrites ou orales, et note de participation...
En cas de session d'appel, la note finale d'une UE est obtenue par examen terminal. Elle se subtitue à la note finale de première session de l'UE.
Toute UE pour laquelle l'étudiant a obtenu une note finale supérieure ou égale à 10/20 est définitivement acquise ainsi que les ECTS associés.

Chaque semestre est composé d’UE, ainsi que d’une UE mémoire pour le semestre 4. La note finale d’un semestre est calculée comme somme pondérée des notes finales de toutes les UE constituant le semestre hors mémoire, le poids de la note finale d’une UE étant égal aux ECTS associés à l’UE.
Un semestre est définitivement acquis si toutes les conditions suivantes sont vérifiées :

  • Il est constitué d’au moins 30 ECTS
  • La note finale du semestre est supérieure ou égale à 10/20
  • La note finale de chaque UE composant le semestre est supérieure ou égale à 6/20
  • La note finale du mémoire pour la validation du semestre 4 est supérieure ou égale à 10/20

La validation d’un semestre implique la validation de chaque UE de ce semestre et des ECTS associés.

La validation d’une année entraîne la validation de chacun des deux semestres et de toutes les UE les composant ainsi que de tous les ECTS associés. La note finale d’une année se calcule par une moyenne pondérée des notes finales de toutes les UE constituant l’année, le poids de la note finale d’une UE étant égal aux ECTS associés à l’UE.


Stages et projets tutorés

Le stage se déroule sur une durée de cinq à six mois. Le sujet du stage doit être validé par le responsable de la formation avant le début du stage. A l'issue du stage, l'étudiant dépose une version électronique du rapport et remet deux exemplaires papier du rapport signés par le tuteur entreprise au secrétariat de la formation. Le rapport doit-être remis au plus tard quinze jours avant la date de la soutenance définie par le secrétariat de la formation.