L'année de formation
Cours de mise à niveau
-
Bases de données
Bases de données
-
Java
Java
-
UML
UML
-
Maths finance
Maths finance
-
Statistiques
Statistiques
UE fondamentales
-
Entrepôts de données
Entrepôts de données
Ects : 4
Volume horaire : 18
Compétence à acquérir :
Modélisation et manipulation de données multidimensionnelles
Pré-requis recommandés :
Modélisation (UML, Merise) et Bases de données relationnelles
Pré-requis obligatoires :
Bases de données relationnelles
Description du contenu de l'enseignement :
Acquérir les notions de base relatives à l'acquisition, l'intégration, la modélisation et au traitement de données multidimensionnelles.
Introduction et définition d'un entrepôt de données, Architecture fonctionnelle, Modélisation conceptuelle, Alimentation, Stockage, gestion et exploitation de l'entrepôt. Utilisation de l’ETL Talend en TP.
TP1 : Introduction talend
TP2 : Business Modeler et construction des premiers jobs
TP3 : Découverte d'autres connecteurs talend
TP4 : Déploiement des jobs talend pour Mise en productionEnseignant responsable :
- ELSA NEGRE
- BENOIT DELPLACE
-
Sécurité dans les SI
Sécurité dans les SI
Ects : 3
Volume horaire : 24
Compétence à acquérir :
Initiation à la sécurité des systèmes d'information : menaces et recommandations
Description du contenu de l'enseignement :
La plupart des politiques de sécurité des systèmes d’information reposent sur une vision négativiste de l’action humaine : dissuader, bloquer, détecter, etc. Ce cours vise à installer les basiques de la sécurité pour permettre à chacun de poser les bonnes questions et de devenir un acteur engagé de la politique de sécurité des systèmes d’information de son entreprise. Les fondamentaux aussi bien qu’une vision prospective et innovante de la sécurité des systèmes d’information sont abordés dans ce cours.
- Techniques d'attaque, de défense, de persuasion
- Contexte législatif et réglementaire (CNIL, RGPD, NIST, etc.)
- Éthique sécurisée, lanceurs d'alerte
- Menaces ciblant l'humain, ingénierie sociale et manipulationEnseignant responsable :
- PIERRE-EMMANUEL ARDUIN
-
Outils d'optimisation pour les sciences des données et de la décision
Outils d'optimisation pour les sciences des données et de la décision
Ects : 3
Volume horaire : 24
Description du contenu de l'enseignement :
L’Optimisation Mathématique est un outil très puissant pour modéliser des problèmes décisionnels se présentant dans de nombreuses matières de la data science, l'ingénierie et l'industrie. Dans toutes ces applications, des décisions doivent être prises en partant de données complexes et structurées. Le but de ce cours est de décrire les outils nécessaires pour résoudre les problèmes d'optimisation associés à l'apprentissage de modèles de machine learning et data science. Cela donne les outils mathématiques basiques de l'optimisation convexe et décrit différentes approches permettant de construire des algorithmes efficients d'optimisation convexe. Différents cas pratiques portant sur le machine learning illustreront l'utilisation de ces algorithmes pour l'apprentissage de datasets.
Plus en détails, la première partie du cours couvre les aspects de modélisation du champ, fournissant les outils pour construire des modèles mathématiques effectifs, c'est-à-dire des modèles qui peuvent être résolus en pratique. La seconde partie est consacrée aux aspects algorithmiques : des algorithmes de base sont traités ainsi que d'autres plus avancés, utiles pour ces modèles caractérisés par un nombre exponentiel de variables et/ou contraintes, qui seront présentés en détail. Enfin, la troisième partie du cours aborde les applications réelles.Enseignant responsable :
- CLEMENT ROYER
-
Data Mining/Machine learning
Data Mining/Machine learning
Ects : 4
Volume horaire : 36
Description du contenu de l'enseignement :
Il s'agit d'initier les étudiants à l’apprentissage automatique (machine learning) et à la pratique de la fouille (data mining) et l’extraction de connaissances à partir des grandes masses de données. Il sera illustré par des cas concrets des exemples réalisés en session avec le logiciel R. L’évaluation se fait par examen et par un challenge Kaggle (kaggle.com)
- Introduction
- Objectifs et panorama du datamining et du Machine learning
- Méthodes non supervisées :
Réduction de dimensionnalité
Clustering :
K-means, CAH
Approches probabilistes : EA
Approches spectrales
Application à une segmentation marketing
Application au Text Mining
Règles d’association
-Méthodes supervisées :
Régression logistique
Arbre de Décision
Méthodes à Noyaux
Approches neuronales
Application au scoringEnseignant responsable :
- GEOVANI RIZK
-
Systèmes, Langages et Paradigmes pour le Big Data
Systèmes, Langages et Paradigmes pour le Big Data
Ects : 3
Volume horaire : 12
Description du contenu de l'enseignement :
Le cours a pour objectif d'apprendre aux étudiants les aspects fondamentaux des technologies Big Data pour la gestion et analyse de données massives.
Le cours s’articule en trois parties.
Dans la première, l’accent est sur le paradigme MapReduce et le système Hadoop, avec un focus sur son système de fichiers HDFS. Le cours illustrera les mécanismes de base de Hadoop pour le support de l'exécution parallèle de ‘dataflow’ MapReduce sur des clusters de machines. Une attention particulière sera donnée aux aspects algorithmiques et d’optimisation de dataflow MapReduce.
La deuxième partie présentera des langages de requête et d’analyse de données caractérisés par des mécanismes de haut niveau et qui sont compilé sur MapReduce. Le focus sera sur les langages Pig Latin et Hive, des langages incluant des mécanismes à la SQL. Les techniques de compilation vers MapReduce seront présentées.
La troisième partie sera consacrée à des évolutions de Hadoop, et en particulier au système Spark et au langage de support Scala. Le focus sera sur l’architecture de Spark, la notion de RDD, l'évaluation lazy de transformations et actions sur des collections distribuées RDD.
Les notions apprises seront mises en pratique dans un projet où les étudiants devront concevoir un dataflow pour l’analyse de grands volumes de données. L'implémentation sera faite tant en MapReduce qu’en Spark, et une analyse expérimentale sera effectuée pour comparer les performances des deux implémentations.Enseignant responsable :
- DARIO COLAZZO
UE Optionnelles
-
Transparence des algorithmes pour la décision
Transparence des algorithmes pour la décision
Ects : 3
Volume horaire : 24
Description du contenu de l'enseignement :
Les algorithmes jouent un rôle de plus en plus fondamental dans tous les aspects de notre vie. Une des principales craintes soulevées par les algorithmes est leur manque de transparence de leur fonctionnement, ce qui pourrait amener à l’avènement d’une « société boîte noire ». De plus, cette transparence est un prérequis pour pouvoir analyser et expliquer les décisions prises par les utilisateurs ou des entreprises.
Le but de ce cours est de discuter et de sensibiliser les étudiants aux questions soulevées par la transparence et la responsabilité des algorithmes telles que par exemple :
Quelles sont les situations où la transparence et l’explicabilité sont nécessaires et comment les implémenter en pratique ?
Comment réconcilier le besoin des entreprises de protéger leur propriété intellectuelle avec le besoin des citoyens de pouvoir comprendre la logique derrière les algorithmes qu’ils utilisent ou qui produisent un effet sur leurs vies ?
Comment améliorer la transparence, la responsabilité ainsi que l’équité des décisions prises par des systèmes algorithmiques sans pour autant compromettre leur utilité.
On s’intéressera ici à une catégorie particulière d’algorithmes, ceux qui sont utilisés pour l’aide à la décision ou dans des traitements qui ont des incidences sur les comportements individuels, qui ont donc un effet normatif. A titre d’exemples, on peut citer :
Les algorithmes de classement, qui établissent des priorités, des recommandations : on pense évidemment aux algorithmes de présentation des résultats des moteurs de recherche, mais aussi à ceux qui sont utilisés pour classer les candidats à un poste, etc.
Les algorithmes de catégorisation, de classification, de profilage comme ceux qu’on met en œuvre pour détecter des profils de potentiels terroristes, de fraudeurs, etc.
Ce cours abordera les points suivants :
Rappels de notions du langage Python
Transparence, explicabilité et responsabilité des algorithmes : définitions, liens, avantages et limites.
Le bien-fondé de la transparence des algorithmes pour l’informatique décisionnelle. Aspects juridiques.
Cas d’étude 1 : Transparence des algorithmes dans le cadre des systèmes de recommandation : le cas du filtrage collaboratif
Cas d’étude 2 : Transparence des algorithmes dans le cadre de la classification : classification ordonnée et arbre de décision.
Cas d’étude 3 : Transparence des algorithmes dans le cadre de l’élaboration des classements ou palmarès : prise en compte simultanée des préférences des utilisateurs et des données statistiques
Mise en œuvre en langage python, à travers un mini-projet, d’un algorithme transparent pour la résolution d’un problème, à partir de données réelles disponibles sur des plateformes comme https://www.data.gouv.fr ou https://www.kaggle.com/Enseignant responsable :
- BRICE MAYAG
-
Méthodes Agiles d'Ingénieurie Logicielle
Méthodes Agiles d'Ingénieurie Logicielle
Ects : 3
Volume horaire : 24
Description du contenu de l'enseignement :
La nouvelle économie met à rude épreuve les équipes des projets informatiques. L'instabilité notoire des spécifications et le raccourcissement des délais de livraison imposent une amélioration drastique de la réactivité et de la productivité du développement, sans tolérer pour autant une quelconque négligence en matière de stabilité et d'évolutivité des applications déployées. Les méthodologies dites "agiles" tentent de répondre à ces exigences, en adoptant un investissement minimaliste et prônant des résultats tangibles et fréquents, par opposition aux méthodologies classiques qui - tout en imposant des organisations coûteuses - n'arrivent plus à prouver leur efficacité dans ces conditions extrêmement dynamiques. Ce cours propose un panorama des méthodes et techniques efficaces applicables dès les projets de petite taille. Les étudiants pourront les mettre en œuvre avantageusement, aussi bien pour leurs projets pédagogiques qu'industriels, une fois dans l'entreprise.
Introduction. Evolution des modèles du cycle de vie des projets.
Offre des méthodologies agiles : XP, FDD, Scrum, Kanban, Lean, etc.
eXtremeProgramming : cycle de négociation, développement piloté par les tests, refactoring permanent, etc.
Du code au modèle UML. Modélisation, stratégies et patterns agiles. Design Patterns, Analysis Patterns et Metapatterns.
Techniques encourageant l'agilité : RAD, AOP, Assemblage de composants, MDA, etc.
Illustrations en Java, tout au long du coursEnseignant responsable :
- MICHEL ZAMFIROIU
-
Optimisation en Finance
Optimisation en Finance
Ects : 3
Volume horaire : 24
Description du contenu de l'enseignement :
Le but de ce module est d'introduire certaines techniques d'optimisation pour résoudre des problèmes en finance moderne, comme les problèmes de gestion de portefeuilles, de gestion de risques ou d’évaluation de prix d’option. L’accent sera mis sur les modèles stochastiques en finance.
Introduction :Rappel de quelques techniques et modèles d’optimisation : modèles linéaires, mixtes, quadratiques, Problèmes de gestion de portefeuilles, d’évaluation de prix d’options et d’arbitrage. Modèle de Markowitz.
Gestion de risque : Valeur en risque, valeur en risque conditionnelle, Optimisation de la valeur en risque conditionnelle.
Optimisation robuste en finance : Sélection de portefeuille robuste sur plusieurs périodes, Profit robuste dans un portefeuille risqué, Sélection de portefeuille robuste, Robustesse relative dans la sélection d’un portefeuille.
Modèles stochastiques : Gestion actif-passif, Gestion des dettes, Evaluation des prix d’options, Estimation de la volatilité.Enseignant responsable :
- FABIO FURINI
-
Gouvernance des Systèmes d'Information
Gouvernance des Systèmes d'Information
Ects : 3
Volume horaire : 24
Description du contenu de l'enseignement :
Presenter les principes de la gouvernance des SI.
Description : J1 : Introduction - concepts
Entreprise et système d'information
· Définition du système d'informations
· Les composantes clés du SI
Gouvernance : définition et enjeux
· La gouvernance : pourquoi, à quoi cela sert-il ?
· Gouvernance au niveau de l’entreprise
15.doc 10
· Gouvernance des SI : pour leur pilotage interne
· SI et entreprise : alignement du SI sur la stratégie et la politique de l’entreprise
360° de la gouvernance
· La gouvernance à mettre en œuvre dépend de comment l’organisation entend piloter son
activité et se contrôler
· La gouvernance dépend de l’organisation voire de l’environnement socio-économique
· Notion de « Compliance » : empilage des législations, réglementations, bonnes pratiques et
procédures qui conditionnent la gouvernance
J2 : Les référentiels
Les grands standards :
· Spice, CMMi, Itil, Cobit, …
· Orientations plus particulières de certains référentiels : développement logiciel, mode projet,
exploitation, etc.
Focus sur ITIL
· Applications types intérêts et limites
· Limites par rapport à la gouvernance de l’entreprise sur son SI
J3 : Les référentiels - Suite
Focus sur CoBit
· Applications types, intérêts et limites
· Limites par rapport à la gouvernance de l’entreprise sur son SI
Modèle d’organisation : la matrice des fonctions du département informatique.
J4 : Les référentiels - Etude de cas
Exemple de mise en place d'une démarche ITIL
J5 : Organisation de la DSI - gouvernance des systèmes d'information-gouvernance d'entreprise
· Comment s’articulent la gouvernance interne du SI et le niveau de gouvernance du SI requis
pour le pilotage de l’entreprise ?
· Quel recours pertinent aux référentiels métiers SI, quelles autres leviers et indicateurs pour
répondre à toutes les exigences de gouvernance au niveau de l’entreprise
· Et si la Direction de l’entreprise n’envisage même pas le SI comme objet/sujet de la
gouvernance d’entreprise ?
J6 : Les indicateurs de la Direction des Systèmes d'informations
Ce qui se mesure s'améliore
· Des indicateurs, pourquoi faire ?
· Quelques indicateurs incontournables
J7 : Etude de cas - Elaboration d'un Plan Directeur Informatique
· Le plan directeur
· Exemple d'élaboration du Plan Directeur Informatique d'une PME Français
J8 : Tendances
Cloud - Digital Marketing et BYOD … quel impact sur la gouvernance et le contrôle de risque ?Enseignant responsable :
- FRANCK WULFOWICZ
-
Capitalisation et management des connaissances
Capitalisation et management des connaissances
Ects : 3
Volume horaire : 24
Compétence à acquérir :
Concepts et enjeux du management des connaissances dans les entreprises
Description du contenu de l'enseignement :
Le cours de capitalisation sur les connaissances de l'entreprise est une introduction au Knowledge Management (KM). Il prodigue les concepts académiques fondamentaux aussi bien que des études de cas réelles permettant d'apprécier les enjeux du management des connaissances dans les entreprises.
- Interprétations divergentes dans une entreprise étendue : contextes, cultures, intentions
- Cadre académique de l'ingénierie des connaissances, outils de cartographies cognitives
- Expertise, pouvoir, partage et rétention de connaissances
- Devenir des métiers, design thinking -
Programmation Back-end et Front-end
Programmation Back-end et Front-end
Ects : 3
Volume horaire : 24
Description du contenu de l'enseignement :
Introduction aux techniques de programmation back/front-end.
L’objectif de ce cours est d’introduire les technologies utilisés dans les développement des applications Web du coté front, en utilisant des technologies telles Angular, mais aussi du coté serveur (back-end), en utilisant des tecknologies telles NodeJS.Enseignant responsable :
- AVRAAM MAKHMUDOV
-
Data Science
Data Science
Ects : 2
Description du contenu de l'enseignement :
L’objectif de ce cours est de vous former aux principaux modèles, architectures et outils utilisés dans l’ingénierie de Data Science pour gérer de grand volumes de données.
La richesse et l'importance de l'information véhiculée par les données a conduit à une augmentation rapide de l'influence des données sur les individus et la société. Les données de toutes sortes, tels que les énormes collections de données sur l'internet, sont devenues omniprésentes dans pratiquement tous les aspects de notre société. Les données numériques sont à présent des ingrédients clés des innovations dans divers domaines, tels que l'énergie, l'économie, la santé ou le climat, ainsi que dans la science, du web, les entreprises doivent relever le défi de capturer, stocker, rechercher, partager et visualiser les données pour faciliter la prise de décision à tous les niveaux (politique, économique, scientifique, social, etc.). L’objectif de ce cours est de vous former aux principaux modèles, architectures et outils utilisés dans l’ingénierie de Data Science pour gérer de grand volumes de données.
L’objectif de ce cours est de vous former aux principaux modèles, architectures et outils utilisés dans l’ingénierie de Data Science pour gérer de grand volumes de données. En particulier :
• Les clusters
• Le modèle de programmation MapReduce
• L’écosystème Hadoop
• SPARK
• Les base de données NoSQL,
Pré-requis : Connaissances des bases de données relationnelles. -
Serveurs d'application JAVA
Serveurs d'application JAVA
Ects : 3
Volume horaire : 27
Description du contenu de l'enseignement :
Le terme "Serveur d'applications" est un intitulé général pour un objectif commun: la prise en charge de la complexité du développement d'applications pour l'entreprise actuelle. Ces applications se doivent d'être multi-tier, fiables et sécurisées, tolérantes aux pannes, transactionnelles, « scalables », interopérables, extensibles et réutilisables.Dans ce contexte, les serveurs d'applications fournissent un ensemble de services technologiques (middleware SOA ou ORB, serveur et services web, persistance, transactions, clustering etc.) au sein duquel interagissent les composants métiers d'une application répartie. La plateforme Java Entreprise Edition a pour vocation de répondre à ce challenge en offrant, à travers des spécifications ouvertes, un ensemble d'API ainsi qu'un modèle de composants.
Introduction
Concepts fondamentaux : objets répartis ORB (RMI\CORBA), moniteurs transactionnels, architecture à composants répartis, services web, SOA
Présentation générale de Java EE : différentes technologies, généralités sur la spécification, modèle d'assemblage et de déploiement.
Composants EJB 3, Persistance JPA, JMS, SOA
API client : interfaces distantes, interface locales, JNDI
Services avancés : clustering, transactions...
Mise en pratique dans le cadre d’un projet (Eclipse/ JBoss /Hibernate / MySQL)Enseignant responsable :
- DAN DIMCEA
-
Qualité des données
Qualité des données
Ects : 2
Volume horaire : 18
Description du contenu de l'enseignement :
Le cours a pour objectif d’introduire les caractéristiques principaux liés à la qualité des données ainsi que de presenter les algorithmes pour leur traitement.
La qualité de l'information a de graves répercussions sur l'efficience et l'efficacité des organisations et des entreprises. Par exemple, dans les organisations privées, telles que les sociétés de marketing ou les banques, il n'est pas surprenant d'avoir plusieurs registres de clients, mis à jour par différentes procédures organisationnelles, ce qui entraîne des informations contradictoires et en double. Ce cours vise à présenter les problèmes liés à la qualité de données, et de présenter les solutions qui peuvent être utilisées pour les résoudre. En particulier, il a pour objectif d’examiner les trois points suivants :
· Dimensions de la qualité de données. Le terme « qualité de données » est assez vague et englobe plusieurs facettes. Dans cette partie, nous allons examiner les différents dimensions de la qualité de données, allant de l’exactitude, complétude, jusqu’au la consistance et la confiance.
· Algorithme et solutions théoriques. Dans cette partie nous allons examiner en détails quelques solutions théoriques proposées pour résoudre certains problèmes de qualité de données, en particulier celles liées à l’identification d’objet.
· Outils et solutions pratiques. Dans cette partie, nous allons utiliser des outils, et montrer comment ils peuvent être utilisés pour améliorer la qualité de données.Enseignant responsable :
- KHALID BELHAJJAME
-
Aide à la Décision : construction d’indicateur
Aide à la Décision : construction d’indicateur
Ects : 3
Description du contenu de l'enseignement :
Fournir les fondements mathématiques et les outils de gestion nécessaires pour la conception et la mise en place des indicateurs composites.
Modélisation (définir les composants de l’indicateur) : techniques de travail collectif pour la structuration du problème : carte cognitives, focus groupe, etc.
Choix des fonctions d'agrégation : présentation de différents types d’agrégation (additive, ordinale). Analyse de leurs propriétés mathématiques
Mise ensemble des différents types de données venant de différentes sources avec différents niveaux de qualités (avec une approche de "théorie de mesurage" et analyse de signifiance)
Etude de cas avec une présentation d'un cas d'application industriel avec un intervenant industrielEnseignant responsable :
- SEBASTIEN DAMART
- BRICE MAYAG
UE fondamentales
-
Management de projet informatique
Management de projet informatique
Ects : 3
Volume horaire : 30
Description du contenu de l'enseignement :
Ce cours vise à développer les compétences nécessaires en matière de lancement, planification, et gestion de projets de manière efficace ainsi qu’à la consolidation des notions de conception et de modélisation et de leur intégration dans une démarche agile.
- Les différents processus qui accompagnent les méthodes de conduite de projet informatique
- Rôle de la maîtrise d'ouvrage et de la maîtrise d'œuvre
- Les activités de support
- Exposer et développer les méthodologies de conduite de projet informatique
- Conception agile : Lean, Scrum et Kanban
- Rétro-conception outillée d'un système existant : impact mapping, story mapping et backlog prêt
- Rétrospective méthodologique
- Définition et domaines d'usage d'un ERP
- Pourquoi un ERP ? Les enjeux Business
- Fonctionnement d'un ERP,
- Analyse et Stratégie de l'Entreprise
- Critères de choix d'un ERP,
- Organisation du projet et facteurs clés du succès
- Développement de la solution, test de la solution, mise en production de la solution
- Évaluation de la solution.
Prérequis : UMLEnseignant responsable :
- PHILIPPE ELBAZ
- PATRICK GOURDON
-
Droit, Données et Ethique
Droit, Données et Ethique
Ects : 3
Volume horaire : 36
Description du contenu de l'enseignement :
La profonde transformation numérique de nos sociétés rend nécessaire comme l’a encore récemment rappelé la CNIL de « former à l’éthique tous les maillons de la chaîne algorithmique, concepteurs, professionnels, citoyens ». La création de ce nouveau cours Données et Ethique s’inscrit dans cette optique. Il s’agit de permettre aux informaticiens de prendre conscience des implications éthiques et sociales du traitement des données qu’ils opèrent. Il s’agit aussi les informer sur l’évolution du cadre dans lesquels ils vont pouvoir ou devoir mettre en œuvre le traitement de leurs données tant à titre personnel que professionnel. L’éthique est une notion souvent difficile à cerner. Elle repose sur un ensemble de règles morales susceptibles d’orienter le comportement des individus voire des entreprises. Ces règles qu’ils s’imposent à eux-mêmes peuvent soit préfigurer, soit en réalité se superposer ou se confondre avec des règles juridiques contraignantes. Ainsi, l’éthique des données se développe à titre collectif qu’à titre individuel notamment avec la figure des lanceurs d’alerte. En outre, l’éthique des données peut varier en fonction de la catégorie de données en cause (données personnelles, non personnelles, données dite d’intérêt général etc.). Ces prémisses sont importantes pour comprendre les enjeux économiques et sociétaux autour de l’émergence actuelle des principes éthiques des données.
Introduction :
- Qu’est-ce que l’éthique (distinction, articulation entre éthique, droit, morale).
- De quelles données parle-t-on ?
- Pourquoi une éthique des données aujourd’hui ? Les principaux enjeux : le développement de l’Intelligence artificielle et la question du respect de dignité humaine, dépersonnalisation, déresponsabilisation, encadrement nécessaire de la gouvernance algorithmique (Cambridge Analytica)
Partie 1 : Les différentes formes d’encadrement de l’éthique des données
- L’encadrement collectif
Des obligations actuelles fixées par les Etats et l’UE (RGDP)
Des tentatives de régulation à l’échelle internationale
Une forme de responsabilité sociétale des entreprises (développement de code de conduite, d’outils de privacy by design ou by default)
- Une responsabilité individuelle : Du cas de conscience à la revendication du statut de lanceur d’alerte
Partie 2 : L’émergence de principes éthiques des données
- Les initiatives en cours :
Les recommandations de la CNIL : Vers la concrétisation d’un principe de loyauté des algorithmes et d’un principe de précaution en matière d’Intelligence Artificielle ?
Le projet de lignes directrices en matière d’éthique dans le domaine de l’IA développée par la Commission européenne
Vers une charte constitutionnelle française du numérique ?
- Les questionnements éthiques spécifiques :
La revendication d’un droit des robots
Vers la création de biens communs numériques ?
- Les bonnes pratiques sectorielles : Ethique des données dans le domaine de la finance, de l’éducation, de la santé etc.Enseignant responsable :
- OLIVIA TAMBOU
- AMANDINE PEPERS
-
Le décisionnel en entreprise, Cas pratiques
Le décisionnel en entreprise, Cas pratiques
Ects : 3
Volume horaire : 12
Description du contenu de l'enseignement :
Donner une visibilité concrète de l'utilisation des applications décisionnelles en entreprise : Qu'apporte un logiciel décisionnel à un PDG, à un Directeur Marketing, à un Directeur commercial ? Quelles formes prennent les outils de l'informatique décisionnelle en entreprise ? Comment transformer un entrepôt de données en tableau de bord fonctionnel permettant d'expliquer le passé et d'anticiper l'avenir ? Ce cours vous donnera les réponses à ces questions à travers la présentation de projets concrets mis en place récemment dans de grands groupes.
- Acquérir les concepts de l'analyse décisionnelle.
- Comprendre l'apport d'un logiciel décisionnel aux différents acteurs de l'entreprise.
- Typologie d'applications
- Démarche et présentation de projets décisionnels concrets
- Initiation sur un outil décisionnel
- Mise en forme d'un reporting standard & création d'un cube d'analyse multidimensionnelle
- Réalisation d'un cas pratiqueEnseignant responsable :
- MOHAMED ISMAIL BEN LAMINE
- THIBAULT TRINH VAN DAM
-
Projet en Business Intelligence
Projet en Business Intelligence
Ects : 3
Volume horaire : 6
Description du contenu de l'enseignement :
Mener de bout en bout un projet d’informatique décisionnelle sur la plateforme SAS
Conceptualiser la chaine ce création de valeur de l’exploitation des données afin d’extraire des informations stratégiques.
Conceptualiser l’industrialisation de l’analytique des Big Data dans la mise en production de projets.
Analyser des données et construire des rapports avec un outil de Data Viz.
Réaliser des modélisations de Machine Learning et de recherche opérationnelle et les mettre en production.
Créer le lien entre la théorie et la pratique, l'informatique et l'analytique, les autres cours, afin de gérer une orchestration opérationnelle.
Présentation de différents points de vue des Big Data sur plusieurs secteurs d’activité, avec des retours d’expérience, afin de prendre du recul sur des définitions parfois contradictoires.
Prise en main de SAS Viya sur des petits cas simples afin d’avoir tous les éléments pour réaliser un projet transversale, intégrant Data Viz, Machine Learning et recherche opérationnelle.Enseignant responsable :
- GREGOIRE DE LASSENCE
-
Visualisation de données
Visualisation de données
Ects : 3
Description du contenu de l'enseignement :
Représenter des données de manière visuelle permet de tirer parti des capacités humaines en termes de perception et de cognition pour identifier des motifs particuliers, des éléments singuliers ou encore des anomalies dans ces données. . La visualisation permet aux utilisateurs de systèmes d'information d'explorer leurs données de manière interactive, d'en avoir une vue d'ensemble, d'en extraire de l'information qui pourrait difficilement être obtenue à travers des processus d'analyse automatique (fouille, apprentissage), de formuler de nouvelles hypothèses qui pourront ensuite être vérifiées, par exemple, au moyen de tests statistiques. Au-delà de ces aspects exploratoires, la visualisation de données sert aussi d'aide à la prise de décisions, et de support à la communication entre individus des résultats d'analyses effectuées sur ces données. Le but de ce cours est de donner une vision d'ensemble du domaine, des principes fondamentaux de la perception visuelle humaine aux techniques de visualisation adaptées aux différentes structures de données (données multivariées, arbres, graphes, séries temporelles, etc.). Les travaux pratiques seront réalisés au moyen de la bibliothèque D3 (Data-Driven Documents).
- Vue d'ensemble du domaine de la visualisation de données
- Perception visuelle
- Visualisation de données multivariées
- Visualisation de structures arborescentes
- Visualisation de graphes et réseaux
- Visualisation de données temporelles
- Visualisation multi-échelle
- Systèmes et boîtes à outils pour la visualisationEnseignant responsable :
- EMMANUEL PIETRIGA
-
Anglais
Anglais
Ects : 3
Volume horaire : 43.5
Compétence à acquérir :
L'étudiant doit acquérir une autonomie langagière pour être capable de travailler dans un contexte international, à l'écrit comme à l'oral. A l'issu du cours, il maîtrisera en anglais les prises de parole dans différents contextes professionnels tout comme la rédaction de documents et l'interaction avec des partenaires.
Mode de contrôle des connaissances :
Des travaux à l'écrit et à l'oral sont requis tout au long du cours.
Pré-requis recommandés :
Les étudiants doivent avoir un niveau B2 au minimum et/ou d'une certification internationale correspondant au moins au niveau B2.
Pré-requis obligatoires :
Les étudiants doivent pouvoir justifier d'un niveau B2 au minimum et/ou d'une certification internationale correspondant au moins au niveau B2.
Description du contenu de l'enseignement :
Bibliographie, lectures recommandées
Cours par niveau (selon la taille de la promotion). Une sélection de domaines liés au monde du travail, à son évolution et ses enjeux, est abordée par le biais de lectures, d'exercices apprentissage de lexique spécialisé, de présentations orales, de synthèses écrites et de participation à des débats.
Lecture régulière de la presse anglophone
Enseignant responsable :
- VANESSA HOPE
- RICHARD SMITH
- CATHERINE PIOLA
UE Optionnelles
-
Initiation à l'entrepreneuriat
Initiation à l'entrepreneuriat
Ects : 3
Volume horaire : 24
Description du contenu de l'enseignement :
Ce cours permet de se familiariser avec les problématiques d’entrepreneuriat et d’appréhender les fondamentaux nécessaires à la création d’une entreprise ou startup. Les étudiants développent des connaissances, compétences essentielles pour entreprendre grâce à une méthodologie basée sur l’apprentissage par l’action. Un savoir-faire et savoir-être entrepreneurial est développé permettant aux étudiants à la fin du cours de présenter leur projet à un jury d’experts en entrepreneuriat et d’investisseurs potentiels.
Processus entrepreneurial et Lean Start-up
- Les fondamentaux de l’étude de marché
- Définir un business model pertinent et une stratégie adaptée
- Démarches juridiques et administratives (statut, propriété intellectuelle)
- Réaliser et construire un Business Plan et un Executive Summary
- Apprendre à présenter son projet : Construire un argumentaire, l’art du « pitch » et du « storytelling »
- Panorama des sources de financement et présentation de l’écosystème startupEnseignant responsable :
- MATHIEU CATTENOZ
-
Large scale machine learning in Spark
Large scale machine learning in Spark
Ects : 3
Compétence à acquérir :
Savoir concevoir des applications efficaces pour l'apprentissage machine sur les données massives.
Mode de contrôle des connaissances :
CC et Projet
Description du contenu de l'enseignement :
Les algorithmes d'apprentissage automatique sont de plus en plus utilisés de nos jours, et il existe une demande croissante d'algorithmes d'apprentissage qui sont capable de passer à l'échelle et de traiter des données massives.
Plutôt qu'offrir une introduction exhaustive à l'apprentissage automatique, ce cours se concentre sur les aspects typiques qui doivent être traités dans la conception d'algorithmes distribués pour l'apprentissage, et qui peuvent être exécutés sur les clusters Hadoop, afin d'analyser des grands jeux de données, en tenant compte l'adaptabilité à la croissance du volume des données ainsi que la robustesse en cas de pannes.
Le focus sera sur des algorithmes de réduction de dimension, de clustering et de classification, en tenant compte les aspects suivants. Le premier est la conception d'algorithmes en s'appuyant sur des paradigmes basés sur map-reduce, à cette fin Spark sera utilisé. Le second aspect est l'analyse expérimentale des algorithmes implémentés en Spark, afin de tester leur capacité de passer à l'échelle (scalabilité). Le troisième aspect concerne l'étude et l'application de techniques d'optimisation afin de pallier le manque éventuel de scalabilité.
Bien que le cours se focalise sur certains algorithmes d'apprentissage, les techniques étudiées sont transversales et trouvent application dans un large éventail d'algorithmes d'apprentissage automatique. Pour certains des algorithmes étudiés le cours présentera des techniques pour une implémentation à partir de zéro en Spark-core, tandis que pour d'autres algorithmes Spark ML sera utilisé, et des pipelines de bout en bout seront conçus. Dans les deux cas, les algorithmes seront analysés et optimisés sur des jeux de données réels, sur un cluster Hadoop local, ainsi que sur un cluster sur le cloud Amazon WS.Enseignant responsable :
- DARIO COLAZZO
-
C++
C++
Ects : 3
Volume horaire : 24
Description du contenu de l'enseignement :
Le langage C++ est actuellement le 3e langage de programmation le plus utilisé au monde(TIOBE Programming Community Index).
Ce cours a pour objectif de former les étudiants à la programmation orientée-objet en C++.
Ce cours est destiné en priorité aux étudiants débutants en programmation C++.
Classes et objets (constructeurs/destructeur, Propriétés des méthodes, Surcharge des opérateurs, Objet membre)
Héritage (simple, multiple, virtuel)
Patron de fonctions et Patron de classes Pré requis : Langage C et programmation orientée-objetEnseignant responsable :
- JULIEN LESCA
-
Management des Organisations
Management des Organisations
Ects : 3
Volume horaire : 24
Description du contenu de l'enseignement :
Ce cours vise à faire comprendre le contexte de management dans les organisations, et favoriser l'intégration des futurs diplômés dans toute organisation avec des outils concrets et ayant fait leur preuve. Travailler le savoir-être qui est un vernis indispensable pour réussir dans le monde du travail.
Comprendre le contexte de management des organisations
Préparer les futurs diplômés à la prise de fonction d’un poste en management
Acquérir des outils concrets pour animer une équipe
Introduire les notions de gestion du changement
Travailler la prise de parole et les présentationsEnseignant responsable :
- SAMY RAHMANI
-
Transition Numérique des Systèmes d'Information
Transition Numérique des Systèmes d'Information
Ects : 3
Volume horaire : 24
Enseignant responsable :
- LEO CROTET
-
LV2 - Espagnol
LV2 - Espagnol
Ects : 1
Volume horaire : 12
Description du contenu de l'enseignement :
Cours par niveau -
LV2 - FLE
LV2 - FLE
Ects : 1
-
LV2 - Allemand
LV2 - Allemand
Ects : 1
Volume horaire : 12
Compétence à acquérir :
En fonction des promotions, le niveau sera soit intermédiaire, soit avancé.
Niveau intermédiaire : approfondissement des moyens linguistiques permettant de bien communiquer dans un pays germanophone, voire de pouvoir s’intégrer dans un milieu professionnel germanophone (niveau B1-B2 du CECRL).
Niveau avancé : acquisition du niveau B2-C1+ du CECRL, garantissant une très bonne intégration sur le marché du travail des pays germanophones.
Pré-requis obligatoires :
Avoir au moins un niveau B1 (niveau bac).
Description du contenu de l'enseignement :
Bibliographie, lectures recommandées
Niveau intermédiaire : revoir les règles grammaticales et le lexique de base de la langue allemande – ce qui pourra faciliter un apprentissage plus approfondi si cela s’avère nécessaire pour des raisons professionnelles – et découvrir une autre culture (vie quotidienne, vie politique et sociale, vie professionnelle). Les compétences orales et écrites sont travaillées; des exposés sont consacrés aux sujets économiques et culturels.
Niveau avancé: étude des grandes questions de société et de l'actualité politique, du fonctionnement de l'économie sociale de marché, approfondissement des compétences linguistiques. Les étudiants seront capables de s'intégrer rapidement à un milieu professionnel germanophone, non pas nécessairement en maîtrisant une langue très technique, mais en ayant acquis une certaine fluidité dans l’expression et approfondi leur connaissance des pays de culture germanique.
La bibliographie est fournie à la rentrée par l'enseignant, mais les étudiants sont invités dès maintenant à s'exercer régulièrement en consultant, par exemple, les documents dédiés sur le site de la Deutsche Welle: https://www.dw.com/de/deutsch-lernen/s-2055
UE Stage
-
Stage
Stage
Ects : 9
Formation année universitaire 2021 - 2022 - sous réserve de modification
Modalités pédagogiques
La formation démarre en septembre, dont la présence en cours est obligatoire.
Les enseignements sont organisés en semestre 3 et semestre 4. Chaque semestre est constitué d'UE fondamentales et d'UE optionnelles auxquels s'ajoute un bloc stage pour le semestre 4.
La note finale de première session d'une UE est obtenue par pondération entre des notes de contrôle continu, de projets, d'examens partiels et terminaux. La note de contrôle continu peut faire intervenir plusieurs éléments : projets, devoirs, interrogations écrites ou orales, et note de participation... Toute UE pour laquelle l'étudiant a obtenu une note finale supérieure ou égale à 10/20 est définitivement acquis ainsi que les ECTS associés.
Chaque semestre est composé d'UE fondamentales et d'UE optionnelles, ainsi que d'une UE stage pour le semestre 4. La note finale d'un semestre est calculée comme somme pondérée des notes finales de toutes les UE constituant le semestre hors UE stage, le poids de la note finale d'une UE étant égal aux ECTS associés à l'UE. Un semestre est définitivement acquis si toutes les conditions suivantes sont vérifiées :
- Il est constitué d'au moins 30 ECTS
- La note finale du semestre est supérieure ou égale à 10/20
- La note finale de chaque UE composant le semestre est supérieure ou égale à 8/20 sauf pour l'UE d'anglais dont la note finale doit-être supérieure ou égale à 6/20
- La note finale de l'UE stage pour la validation du semestre 4 est supérieure ou égale à 10/20
La validation d'un semestre implique la validation de chaque UE de ce semestre et des ECTS associés.
La validation d'une année entraîne la validation de chacun des deux semestres et de toutes les UE les composant ainsi que tous les ECTS associés.
Une année est définitivement acquise (ainsi que les 60 ECTS associés) si toutes les conditions suivantes sont vérifiées :
- Elle est constituée d'au moins 60 ECTS et la note finale de l'année est supérieure ou égale à 10/20
- La note finale de chaque semestre de l'année est supérieure ou égale à 10/20
- La note finale de chaque UE de chaque semestre de l'année est supérieure ou égale à 8/20 sauf pour l'UE d'anglais dont la note finale doit-être supérieure ou égale à 6/20
- La note finale de l'UE stage est supérieur ou égale à 10/20
UE Obligatoires
-
Création d'entreprise
Création d'entreprise
Ects : 2
Volume horaire : 18
Description du contenu de l'enseignement :
Bibliographie, lectures recommandées
Ce cours permet de se familiariser avec les problématiques d’entrepreneuriat et d’appréhender les fondamentaux nécessaires à la création d’une entreprise ou startup. Les étudiants développent des connaissances, compétences essentielles pour entreprendre grâce à une méthodologie basée sur l’apprentissage par l’action. Un savoir-faire et savoir-être entrepreneurial est développé permettant aux étudiants à la fin du cours de présenter leur projet à un jury d’experts en entrepreneuriat et d’investisseurs potentiels.
- Processus entrepreneurial et Lean Start-up
- Les fondamentaux de l’étude de marché
- Définir un business model pertinent et une stratégie adaptée
- Démarches juridiques et administratives (statut, propriété intellectuelle)
- Réaliser et construire un Business Plan et un Executive Summary
- Apprendre à présenter son projet : Construire un argumentaire, l’art du « pitch » et du « storytelling »
- Panorama des sources de financement et présentation de l’écosystème startup
Référence(s) :
- Catherine Léger-Jarniou, Georges Kalousis, La Boîte à outils de la Création d’entreprise. Dunod 2016 4ème édition
- Catherine Léger-Jarniou, Georges Kalousis, Construire son Business Plan. Collection: Entrepreneurs, Dunod 2014 - 3ème édition
- Eric Ries, Lean Startup : Adoptez l'innovation continue. Pearson 2015
- Oren Staff, Pitch anything : An Innovative Method for Presenting, Persuading, and Winning the Deal. 2011
Enseignant responsable :
- Olivier BORCK
-
Décisionnel en Entreprise
Décisionnel en Entreprise
Ects : 3
Volume horaire : 24
Description du contenu de l'enseignement :
Donner une visibilité concrète de l'utilisation des applications décisionnelles en entreprise : Qu'apporte un logiciel décisionnel à un PDG, à un Directeur Marketing, à un Directeur commercial ? Quelles formes prennent les outils de l'informatique décisionnelle en entreprise ? Comment transformer un entrepôt de données en tableau de bord fonctionnel permettant d'expliquer le passé et d'anticiper l'avenir ? Ce cours vous donnera les réponses à ces questions à travers la présentation de projets concrets mis en place récemment dans de grands groupes.
- Acquérir les concepts de l'analyse décisionnelle.
- Comprendre l'apport d'un logiciel décisionnel aux différents acteurs de l'entreprise.
- Typologie d'applications
- Démarche et présentation de projets décisionnels concrets
- Initiation sur un outil décisionnel
- Mise en forme d'un reporting standard & création d'un cube d'analyse multidimensionnelle
- Réalisation d'un cas pratique -
Entrepôts de données
Entrepôts de données
Ects : 3
Volume horaire : 12
Compétence à acquérir :
Modélisation et manipulation de données multidimensionnelles
Pré-requis recommandés :
Modélisation (UML, Merise) et Bases de données relationnelles
Pré-requis obligatoires :
Bases de données relationnelles
Description du contenu de l'enseignement :
Acquérir les notions de base relatives à l'acquisition, l'intégration, la modélisation et au traitement de données multidimensionnelles.
Introduction et définition d'un entrepôt de données, Architecture fonctionnelle, Modélisation conceptuelle, Alimentation, Stockage, gestion et exploitation de l'entrepôt. Utilisation de l’ETL Talend en TP.
TP1 : Introduction talend
TP2 : Business Modeler et construction des premiers jobs
TP3 : Découverte d'autres connecteurs talend
TP4 : Déploiement des jobs talend pour Mise en productionEnseignant responsable :
- ELSA NEGRE
- BENOIT DELPLACE
-
Marketing et stratégie digitale
Marketing et stratégie digitale
Ects : 3
Volume horaire : 24
Description du contenu de l'enseignement :
Ce cours a pour objectif de vous faire acquérir les bases du marketing de l’internet et de la communication sur le web. Les différentes techniques permettant de recruter et de fidéliser le e-consommateur seront étudiés.
1. Comprendre la révolution numérique
Le marketing à l’ère numérique
L’économie numérique
Le e-consommateur
2. Définir la stratégie digitale
Marché, concurrence, compétences, organisation
Proposition de valeur, mix-marketing
Business model
3. Mettre en œuvre la stratégie digitale
Les acteurs de l’écosystème publicitaire
Créer du trafic vers son site, les leviers du e-marketing
Ergonomie, design, expérience client, parcours clients, cross-canal
Créer et gérer son site internet et mobile
Gérer les moyens de paiement
Fidéliser ses clients internautes
Gérer le cycle de vie client
4. Le marketing des réseaux sociaux
Panorama des médias sociaux
Présence de l’entreprise sur les réseaux sociaux
Animer des campagnes sur les réseaux sociaux
5. Le marketing mobile
L’équipement et les usages des consommateurs
Les stratégies publicitaires sur le mobile
Les applications stores
6. Les tendances, les opportunités du digital
Le brand content, le storytelling, l’UGC
L’économie collaborative et participative
Les objets connectés, le big dataEnseignant responsable :
- GUILLAUME BROGGIO
-
Modélisation en Aide à la décision
Modélisation en Aide à la décision
Ects : 3
Volume horaire : 24
Description du contenu de l'enseignement :
Bibliographie, lectures recommandées
Le cours vise à présenter des modélisations originales de différents problèmes concrets de décision. Il s'agit de développer les aptitudes des étudiants à élaborer et mettre en œuvre des modèles pertinents face à une situation de décision.
Concept de modèle en aide à la décision. Modèle des solutions et modèle des préférences.
Description du processus de modélisation et de ses différentes phases.
Présentation de modélisations non triviales de problèmes de décision utilisant divers cadres de modélisation (graphes, programmation linéaire, multicritère,...).
Utilisation de variables 0-1 en programmation linéaire
Présentation d'outils de modélisation et de résolution (modeleurs et solveurs).
Référence(s) :
H.P. Williams. Model building in mathematical programming. J. Wiley, New York, 1999. 4ème edition
Ph. Vallin et D. Vanderpooten. Aide à la décision : une approche par les cas. Ellipses, Paris, 2002., 2ème édition
D. Vanderpooten « Modelling in decision aiding ». In D. Bouyssou, E. Jacquet-Lagrèze, P. Perny, R. Slowinski, D. Vanderpooten, and Ph. Vincke (eds), Aiding Decisions with Multiple Criteria: Essays in Honour of Bernard Roy, pages 195–210. Kluwer, 2001.
Enseignant responsable :
- CECILE MURAT
-
Optimisation pour l'apprentissage automatique
Optimisation pour l'apprentissage automatique
Ects : 3
Volume horaire : 18
Compétence à acquérir :
- Identify the characteristics of an optimization problem given its formulation.
- Know the theoretical and practical properties of the most popular optimization techniques.
- Find the best optimization algorithm to handle a particular feature of a machine learning problem.
Mode de contrôle des connaissances :
Written exam.
Pré-requis recommandés :
Fundamentals of linear algebra and real analysis. Experience with Python programming.
Description du contenu de l'enseignement :
Bibliographie, lectures recommandées
Optimization is at the heart of most recent advances in machine learning. Indeed, it not only plays a major role in linear regression, SVM and kernel methods, but it is also the key to the recent explosion of deep learning for supervised and unsupervised problems in imaging, vision and natural language processing. This course will review the mathematical foundations, the underlying algorithmic methods and showcase modern applications of a broad range of optimization techniques.
The course will be composed of classical lectures and numerical sessions in Python. It will begin with the basic components of smooth optimization (optimality conditions, gradient-type methods), then move to methods that are particularly relevant in a machine learning setting such as the celebrated stochastic gradient descent algorithm and its variants. More advanced algorithms related to non-smooth and constrained optimization, that encompass known characteristics of learning problems such as the presence of regularizing terms, will also be described. During lab sessions, the various algorithms studied during the lectures will be implemented and tested on real and synthetic datasets: these sessions will also address several practical features of optimization codes such as automatic differentiation, and built-in optimization routines within popular machine learning libraries such as PyTorch.
Bibliography:
Theory and algorithms:
Convex Optimization, Boyd and Vandenberghe
Introduction to matrix numerical analysis and optimization, Philippe Ciarlet
Proximal algorithms, N. Parikh and S. Boyd
Introduction to Nonlinear Optimization - Theory, Algorithms and Applications, Amir Beck
Numerics:
Pyrthon and Jupyter installation: use only Python 3 with Anaconda distribution.
The Numerical Tours of Signal Processing, Gabriel Peyré
Scikitlearn tutorial #1 and Scikitlearn tutorial #2, Fabian Pedregosa, Jake VanderPlas
Reverse-mode automatic differentiation: a tutorial
Convolutional Neural Networks for Visual Recognition
Christopher Olah, Blog
Enseignant responsable :
- Clement ROYER
-
Programmation par contraintes et ses applications
Programmation par contraintes et ses applications
Ects : 2
Volume horaire : 18
Description du contenu de l'enseignement :
Bibliographie, lectures recommandées
Ce cours vise à introduire les concepts fondamentaux de la programmation par contraintes et à étudier la modélisation et la résolution de problèmes à l'aide de la programmation par contraintes.
- Modélisation et résolution de problèmes à l'aide de la programmation par contraintes : intérêt de la programmation par contraintes, exemples,
- Types de contraintes, principaux algorithmes et heuristiques de résolution
- Utilisation du logiciel professionnel OPL Studio
Référence(s) :
K. Apt, Principles of Constraint Programming, Cambridge University Press, 2009.
K. Marriott and P.J. Stuckey, Programming with Constraints: An Introduction, The MIT Press, 1998.
E. Tsang, Foundations of Constraint Satisfaction, Academic Press, 1993.
Enseignant responsable :
- CRISTINA BAZGAN
-
Qualité des données
Qualité des données
Ects : 2
Volume horaire : 18
Description du contenu de l'enseignement :
La qualité de l'information a de graves répercussions sur l'efficience et l'efficacité des organisations et des entreprises. Par exemple, dans les organisations privées, telles que les sociétés de marketing ou les banques, il n'est pas surprenant d'avoir plusieurs registres de clients, mis à jour par différentes procédures organisationnelles, ce qui entraîne des informations contradictoires et en double. Ce cours vise à présenter les problèmes liés à la qualité de données, et de présenter les solutions qui peuvent être utilisées pour les résoudre.
En particulier, le cours a pour objectif d’examiner les trois points suivants :
· Dimensions de la qualité de données. Le terme « qualité de données » est assez vague et englobe plusieurs facettes. Dans cette partie, nous allons examiner les différents dimensions de la qualité de données, allant de l’exactitude, complétude, jusqu’au la consistance et la confiance.
· Algorithme et solutions théoriques. Dans cette partie nous allons examiner en détails quelques solutions théoriques proposées pour résoudre certains problèmes de qualité de données, en particulier celles liées à l’identification d’objet.
· Outils et solutions pratiques. Dans cette partie, nous allons utiliser des outils, et montrer comment ils peuvent être utilisés pour améliorer la qualité de données.Enseignant responsable :
- Veronique FOURNEL
-
Systèmes, Langages et Paradigmes pour le Big Data
Systèmes, Langages et Paradigmes pour le Big Data
Ects : 3
Volume horaire : 24
Description du contenu de l'enseignement :
Le cours a pour objectif d'apprendre aux étudiants les aspects fondamentaux des technologies Big Data pour la gestion et analyse de données massives.
Le cours s’articule en trois parties.
Dans la première, l’accent est sur le paradigme MapReduce et le système Hadoop, avec un focus sur son système de fichiers HDFS. Le cours illustrera les mécanismes de base de Hadoop pour le support de l'exécution parallèle de ‘dataflow’ MapReduce sur des clusters de machines. Une attention particulière sera donnée aux aspects algorithmiques et d’optimisation de dataflow MapReduce.
La deuxième partie présentera des langages de requête et d’analyse de données caractérisés par des mécanismes de haut niveau et qui sont compilé sur MapReduce. Le focus sera sur les langages Pig Latin et Hive, des langages incluant des mécanismes à la SQL. Les techniques de compilation vers MapReduce seront présentées.
La troisième partie sera consacrée à des évolutions de Hadoop, et en particulier au système Spark et au langage de support Scala. Le focus sera sur l’architecture de Spark, la notion de RDD, l'évaluation lazy de transformations et actions sur des collections distribuées RDD.
Les notions apprises seront mises en pratique dans un projet où les étudiants devront concevoir un dataflow pour l’analyse de grands volumes de données. L'implémentation sera faite tant en MapReduce qu’en Spark, et une analyse expérimentale sera effectuée pour comparer les performances des deux implémentations.Enseignant responsable :
- BENJAMIN NEGREVERGNE
- MOHAMMAD AMIN FARVARDIN
- DARIO COLAZZO
-
Visualisation de données
Visualisation de données
Ects : 3
Volume horaire : 24
Description du contenu de l'enseignement :
Représenter des données de manière visuelle permet de tirer parti des capacités humaines en termes de perception et de cognition pour identifier des motifs particuliers, des éléments singuliers ou encore des anomalies dans ces données. . La visualisation permet aux utilisateurs de systèmes d'information d'explorer leurs données de manière interactive, d'en avoir une vue d'ensemble, d'en extraire de l'information qui pourrait difficilement être obtenue à travers des processus d'analyse automatique (fouille, apprentissage), de formuler de nouvelles hypothèses qui pourront ensuite être vérifiées, par exemple, au moyen de tests statistiques. Au-delà de ces aspects exploratoires, la visualisation de données sert aussi d'aide à la prise de décisions, et de support à la communication entre individus des résultats d'analyses effectuées sur ces données. Le but de ce cours est de donner une vision d'ensemble du domaine, des principes fondamentaux de la perception visuelle humaine aux techniques de visualisation adaptées aux différentes structures de données (données multivariées, arbres, graphes, séries temporelles, etc.). Les travaux pratiques seront réalisés au moyen de la bibliothèque D3 (Data-Driven Documents).
- Vue d'ensemble du domaine de la visualisation de données
- Perception visuelle
- Visualisation de données multivariées
- Visualisation de structures arborescentes
- Visualisation de graphes et réseaux
- Visualisation de données temporelles
- Visualisation multi-échelle
- Systèmes et boîtes à outils pour la visualisationEnseignant responsable :
- Franklin CABREJOS
-
Web des données
Web des données
Ects : 3
Volume horaire : 24
Description du contenu de l'enseignement :
Bibliographie, lectures recommandées
Former les étudiants aux standards du Web de données et du Web sémantique. Dans le contexte du web sémantique, les ontologies jouent un rôle prépondérant dans la spécification des connaissances de manière standard afin de permettre l’interopérabilité entre différents systèmes. Une ontologie correspond à un vocabulaire contrôlé et organisé et à la formalisation explicite des relations créées entre les différents termes du vocabulaire. Elle permet de préciser formellement un vocabulaire commun dans une perspective de partage. Les ontologies informatiques permettent de représenter un corpus de connaissances sous une forme utilisable par une machine. Ainsi, une ontologie avec un ensemble de règles constitue une base de connaissance permettant de développer un système d’aide à la décision.
Contrôle de connaissance : se décompose en deux parties, la première est un contrôle continu comprenant des TD notés, et la deuxième est un projet où les étudiants en groupe de 2 ou 3 font un exposé sur des Applications ou nouvelles technologies autour du WEB.
Langage dédié à la transformation de données XML (XSLT). Ce langage est utilisé par les WEBMASTER pour l’automatisation de la production des sites WEB et par les développeurs pour la création et la mise à jour automatique de tout document. L’accent est mis sur les concepts XSLT pour la visualisation des documents et des images.
Langage permettant de garantir la conformité de documents en fonction d’une définition de type de documents (Langage XML schema). Ce langage peut être utilise pour créer des documents XML pour une large variété d’applications telles que la syndication, les échanges de documents et le stockage de données dans un format standard. Cet apprentissage permettra l’étude d’un schéma XML sur les documents juridique (legifrance)
WEB sémantique en quatre parties : le processus de développement d’une ontologie, les Langages permettant la définition d’ontologies RDF, OWL 2, et l’interrogation de documents à partir d’une ontologie SPARQL, et le développement collaboratif d’une ontologie. Cet apprentissage permettra de traiter de manière détaillée des exemples de descriptions ontologiques existantes comme l'ontologie ELI qui fournit un cadre de description pour structurer les métadonnées des ressources législatives nationales et européennes, et les publier sur le web de données ou l’ontologie. De manière applicative, il commence par l’exploration, sous le logiciel Protégé 5.2 de l’université de Sandford, d’une ontologie existante, puis par la modélisation et définition d’une ontologie de domaine sous le logiciel Protégé.
Référence(s) :
Semantic Web Programming, John Hebeler, Matthew Fisher, Ryan Blace, Andrew Perez-Lopez, Édition : O'Reilly - 304 pages , 1re édition, 1er juillet 2009
Semantic Web for the Working Ontologist, Second Edition: Effective Modeling in RDFS and OWL 2nd Edition, Dean Allemang (Author), James Hendler (Author) 2011.
XSLT 2.0 and XPATH 2.0, programmer’s reference, Mickael Kay, 4ième édition, Wiley Publishin Inc., 2008,
XML Schema, The W3C's Object-Oriented Descriptions for XML, Eric van der Vlist, Publisher O'Reilly Media, 2002 .
Enseignant responsable :
- MARIE-JOSE BELLOSTA
-
Outils d'optimisation pour les sciences des données et de la décision
Outils d'optimisation pour les sciences des données et de la décision
Ects : 3
Description du contenu de l'enseignement :
L’Optimisation Mathématique est un outil très puissant pour modéliser des problèmes décisionnels se présentant dans de nombreuses matières de la data science, l'ingénierie et l'industrie. Dans toutes ces applications, des décisions doivent être prises en partant de données complexes et structurées. Le but de ce cours est de décrire les outils nécessaires pour résoudre les problèmes d'optimisation associés à l'apprentissage de modèles de machine learning et data science. Cela donne les outils mathématiques basiques de l'optimisation convexe et décrit différentes approches permettant de construire des algorithmes efficients d'optimisation convexe. Différents cas pratiques portant sur le machine learning illustreront l'utilisation de ces algorithmes pour l'apprentissage de datasets.
Plus en détails, la première partie du cours couvre les aspects de modélisation du champ, fournissant les outils pour construire des modèles mathématiques effectifs, c'est-à-dire des modèles qui peuvent être résolus en pratique. La seconde partie est consacrée aux aspects algorithmiques : des algorithmes de base sont traités ainsi que d'autres plus avancés, utiles pour ces modèles caractérisés par un nombre exponentiel de variables et/ou contraintes, qui seront présentés en détail. Enfin, la troisième partie du cours aborde les applications réelles.
UE Obligatoires
-
Anglais
Anglais
Ects : 3
Volume horaire : 36
Description du contenu de l'enseignement :
Cours par niveauEnseignant responsable :
- VERONIQUE BOURREL
-
Data Mining/Machine learning
Data Mining/Machine learning
Ects : 4
Description du contenu de l'enseignement :
Il s'agit d'initier les étudiants à l’apprentissage automatique (machine learning) et à la pratique de la fouille (data mining) et l’extraction de connaissances à partir des grandes masses de données. Il sera illustré par des cas concrets des exemples réalisés en session avec le logiciel R. L’évaluation se fait par examen et par un challenge Kaggle (kaggle.com)
- Introduction
- Objectifs et panorama du datamining et du Machine learning
- Méthodes non supervisées :
Réduction de dimensionnalité
Clustering :
K-means, CAH
Approches probabilistes : EA
Approches spectrales
Application à une segmentation marketing
Application au Text Mining
Règles d’association
-Méthodes supervisées :
Régression logistique
Arbre de Décision
Méthodes à Noyaux
Approches neuronales
Application au scoring -
Données et Ethique
Données et Ethique
Ects : 2
Volume horaire : 18
Description du contenu de l'enseignement :
La profonde transformation numérique de nos sociétés rend nécessaire comme l’a encore récemment rappelé la CNIL de « former à l’éthique tous les maillons de la chaîne algorithmique, concepteurs, professionnels, citoyens ». La création de ce nouveau cours Données et Ethique s’inscrit dans cette optique. Il s’agit de permettre aux informaticiens de prendre conscience des implications éthiques et sociales du traitement des données qu’ils opèrent. Il s’agit aussi les informer sur l’évolution du cadre dans lesquels ils vont pouvoir ou devoir mettre en œuvre le traitement de leurs données tant à titre personnel que professionnel. L’éthique est une notion souvent difficile à cerner. Elle repose sur un ensemble de règles morales susceptibles d’orienter le comportement des individus voire des entreprises. Ces règles qu’ils s’imposent à eux-mêmes peuvent soit préfigurer, soit en réalité se superposer ou se confondre avec des règles juridiques contraignantes. Ainsi, l’éthique des données se développe à titre collectif qu’à titre individuel notamment avec la figure des lanceurs d’alerte. En outre, l’éthique des données peut varier en fonction de la catégorie de données en cause (données personnelles, non personnelles, données dite d’intérêt général etc.). Ces prémisses sont importantes pour comprendre les enjeux économiques et sociétaux autour de l’émergence actuelle des principes éthiques des données.
Introduction :
- Qu’est-ce que l’éthique (distinction, articulation entre éthique, droit, morale).
- De quelles données parle-t-on ?
- Pourquoi une éthique des données aujourd’hui ? Les principaux enjeux : le développement de l’Intelligence artificielle et la question du respect de dignité humaine, dépersonnalisation, déresponsabilisation, encadrement nécessaire de la gouvernance algorithmique (Cambridge Analytica)
Partie 1 : Les différentes formes d’encadrement de l’éthique des données
- L’encadrement collectif
Des obligations actuelles fixées par les Etats et l’UE (RGDP)
Des tentatives de régulation à l’échelle internationale
Une forme de responsabilité sociétale des entreprises (développement de code de conduite, d’outils de privacy by design ou by default)
- Une responsabilité individuelle : Du cas de conscience à la revendication du statut de lanceur d’alerte
Partie 2 : L’émergence de principes éthiques des données
- Les initiatives en cours :
Les recommandations de la CNIL : Vers la concrétisation d’un principe de loyauté des algorithmes et d’un principe de précaution en matière d’Intelligence Artificielle ?
Le projet de lignes directrices en matière d’éthique dans le domaine de l’IA développée par la Commission européenne
Vers une charte constitutionnelle française du numérique ?
- Les questionnements éthiques spécifiques :
La revendication d’un droit des robots
Vers la création de biens communs numériques ?
- Les bonnes pratiques sectorielles : Ethique des données dans le domaine de la finance, de l’éducation, de la santé etc.Enseignant responsable :
- OLIVIA TAMBOU
-
Données, modèles et décisions
Données, modèles et décisions
Ects : 3
Volume horaire : 24
Description du contenu de l'enseignement :
Bibliographie, lectures recommandées
Les problèmes rencontrés en pratique sont souvent complexes et mal définis à cause en partie des données incertaines ou imprécises. Les modèles et techniques mathématiques jouent un rôle important pour appréhender une réalité complexe et proposer de bonnes décisions. Le but de ce cours est de montrer comment utiliser les données afin de bâtir des modèles et améliorer les décisions. Des études de cas pratiques seront étudiées en utilisant le modeleur OPL de CPLEX ainsi qu’Excel.
1. Décision dans l’incertain : optimisation linéaire robuste et modèles de simulation.
2. Optimisation multi objectifs : concepts fondamentaux, méthodes d’énumération de l’ensemble des solutions efficaces.
3. Optimisation non-linéaire : formulation de problèmes par des modèles non-linéaires, analyse graphique, résolution informatique.
Référence(s) :
Bertsimas, Dimitris, and Robert Freund. Data, Models, and Decisions: The Fundamentals
of Management Science. Dynamic Ideas, 2004.
Enseignant responsable :
- HASSAN AISSI
-
Négociation
Négociation
Ects : 3
Volume horaire : 24
Description du contenu de l'enseignement :
L’objectif du cours est une initiation théorique et pratique à la négociation.
La méthode du cours est de relier constamment les résultats des simulations auxquelles participent activement les étudiants avec les éléments fondamentaux de toutes négociations, objets d’acquisition du cours. Le séminaire est aussi rythmé par un ensemble de vidéos d'acteurs de la sphère publique et privée qui témoignent de leurs expériences et proposent des idées. Ces vidéos sont aussi des objets d'analyses et de débats. Le séminaire se termine par une grande négociation multilatérale qui permet la mise en pratique immédiate des théories et techniques vues, tout en permettant de prendre mieux conscience de ses forces et faiblesses individuelles en négociation. Un focus est proposé sur les conditions particulières d'une négociation de recrutement, notamment en ce qui concerne le droit du travail, les clauses d'un contrat et l'ensemble des informations nécessaires afin de renforcer sa capacité à négocier.Enseignant responsable :
- BRUNO GIRAUDON
- PATRICK DELEMME
-
Projet en Business Intelligence - Big Data
Projet en Business Intelligence - Big Data
Ects : 3
Volume horaire : 24
Description du contenu de l'enseignement :
Mener de bout en bout un projet d’informatique décisionnelle sur la plateforme SAS
Conceptualiser la chaine ce création de valeur de l’exploitation des données afin d’extraire des informations stratégiques.
Conceptualiser l’industrialisation de l’analytique des Big Data dans la mise en production de projets.
Analyser des données et construire des rapports avec un outil de Data Viz.
Réaliser des modélisations de Machine Learning et de recherche opérationnelle et les mettre en production.
Créer le lien entre la théorie et la pratique, l'informatique et l'analytique, les autres cours, afin de gérer une orchestration opérationnelle.
Présentation de différents points de vue des Big Data sur plusieurs secteurs d’activité, avec des retours d’expérience, afin de prendre du recul sur des définitions parfois contradictoires.
Prise en main de SAS Viya sur des petits cas simples afin d’avoir tous les éléments pour réaliser un projet transversale, intégrant Data Viz, Machine Learning et recherche opérationnelle.Enseignant responsable :
- GREGOIRE DE LASSENCE
-
Systèmes intelligents en aide à la décision
Systèmes intelligents en aide à la décision
Ects : 3
Volume horaire : 24
Compétence à acquérir :
programmation multi agents, protocoles FIPA, actes de langages FIPA, modèle décisionnel
Mode de contrôle des connaissances :
50%CC + 50% examen
Pré-requis obligatoires :
Programmation java
Description du contenu de l'enseignement :
Bibliographie, lectures recommandées
Les problèmes de décision impliquant plusieurs intervenants font l’objet de nombreux travaux, aussi bien en informatique (systèmes d’aide à la décision collective, systèmes multi-agents, systèmes répartis, systèmes de diagnostic...) qu’en économie et en théorie de la décision (choix social, théorie des jeux...). Avec le développement d’applications réparties coopératives (nécessitant des mécanismes de décision collective, de vote ou de consensus) ou d’applications multi-utilisateurs pour le web (commerce électronique, partage de compétences...), le domaine de la décision collective est en plein essor. Aussi devient-il nécessaire de concevoir des systèmes efficaces de décision collective.
L’objectif du cours est l’étude de systèmes complexes de résolution de problèmes pour l'aide à la décision de groupe et plus précisément, l’étude de systèmes intelligents destinés à automatiser, à diagnostiquer ou à aider la prise de décision de groupe.
Le cours vise à présenter différents modèles, outils et méthodologie pour le développement de tels systèmes. Le fil rouge de ce cours s’appuie sur le concept d'agent intelligent, et se positionne assez largement dans le domaine de l'intelligence artificielle distribuée. Les agents intelligents peuvent présenter une certaine autonomie, ont des croyances et des préférences qui leur sont propres, ainsi que des capacités de raisonnement, de communication, et de prise de décision.
Contenu : Parmi les thèmes étudies, citons :
- Diagnostic à base de modèles et diagnostic à base d’agents
- Négociation entre agents,
- Enchères électroniques et détermination du gagnant
- Business Intelligence et intégration de données hétérogènes
- Simulation des processus de décision collectifs
Les domaines d’applications privilégies sont : les systèmes d’aide à la décision dans le transport (transport intelligent), les systèmes d’aide à la décision dans la gestion de l’environnement : aide aux agriculteurs (gestion de parcelles), aide aux organisations territoriales (gestion de l’eau, gestion des crues des rivières), commerce électronique et négociation automatique, gestion automatique de l’énergie domestique (domotique).
Bibliographie :
Intelligent Agent-Based Business Intelligence, Samo Bobek , Igor Perko
Entreprise Integration using the agent paradigm: foundations of multi-agent based integrative business information systems. Decision Support Systems (2006) by R.Kishore, H.Zhang, R.Ramesh
Enseignant responsable :
- MARIE-JOSE BELLOSTA
UE Obligatoires
-
Mémoire de master
Mémoire de master
Ects : 9
Formation année universitaire 2021 - 2022 - sous réserve de modification
Modalités pédagogiques
La formation démarre en septembre, dont la présence en cours est obligatoire. Le rythme d'alternance du parcours MIAGE Informatique Décisionnelle en apprentissage est de : quatre semaines en entreprise / deux - trois semaines à l'université.
Les enseignements de la 2ème année de master mention Informatique parcours MIAGE Informatique Décisionnelle formation en apprentissage sont organisés en semestre 3 et semestre 4. Chaque semestre est constitué d'UE auxquelles s'ajoute un mémoire pour le semestre 4.
La note finale d'une UE est obtenue par pondération entre des notes de contrôle continu, de projets, d'examens partiels et terminaux. La note de contrôle continu peut faire intervenir plusieurs éléments : projet, devoirs, interrogations écrites ou orales, et note de participation...
En cas de session d'appel, la note finale d'une UE est obtenue par examen terminal. Elle se subtitue à la note finale de première session de l'UE.
Toute UE pour laquelle l'étudiant a obtenu une note finale supérieure ou égale à 10/20 est définitivement acquise ainsi que les ECTS associés.
Chaque semestre est composé d’UE, ainsi que d’une UE mémoire pour le semestre 4. La note finale d’un semestre est calculée comme somme pondérée des notes finales de toutes les UE constituant le semestre hors mémoire, le poids de la note finale d’une UE étant égal aux ECTS associés à l’UE.
Un semestre est définitivement acquis si toutes les conditions suivantes sont vérifiées :
- Il est constitué d’au moins 30 ECTS
- La note finale du semestre est supérieure ou égale à 10/20
- La note finale de chaque UE composant le semestre est supérieure ou égale à 6/20
- La note finale du mémoire pour la validation du semestre 4 est supérieure ou égale à 10/20
La validation d’un semestre implique la validation de chaque UE de ce semestre et des ECTS associés.
La validation d’une année entraîne la validation de chacun des deux semestres et de toutes les UE les composant ainsi que de tous les ECTS associés. La note finale d’une année se calcule par une moyenne pondérée des notes finales de toutes les UE constituant l’année, le poids de la note finale d’une UE étant égal aux ECTS associés à l’UE.
Stages et projets tutorés
Le stage se déroule sur une durée de cinq à six mois. Le sujet du stage doit être validé par le responsable de la formation avant le début du stage. A l'issue du stage, l'étudiant dépose une version électronique du rapport et remet deux exemplaires papier du rapport signés par le tuteur entreprise au secrétariat de la formation. Le rapport doit-être remis au plus tard quinze jours avant la date de la soutenance définie par le secrétariat de la formation.
Des programmes nourris par la recherche
Les formations sont construites au contact des programmes de recherche de niveau international de Dauphine, qui leur assure exigence et innovation.
La recherche est organisée autour de 6 disciplines toutes centrées sur les sciences des organisations et de la décision.
En savoir plus sur la recherche à Dauphine