Premier semestre

Bloc de base

UE - Ingénierie 1 6

  • Méthodes Numériques IFMA IMPE
    • Cindy Guichard
    • 21h
    • Ce cours traite de la discrétisation des EDP en 1D notamment par la méthode des différences finies. Des notions d’algèbre linéaire numérique seront également abordées en fin de cours. En fonction du parcours de l’étudiant.e, ce contenu pourra être vu comme des rappels de M1.

  • Fondamentaux du C/C++ IFMA IMPE
    • Guillaume Delay
    • 21h
    • Ce cours traite la syntaxe et les outils fondamentaux du langage C++. On aborde notamment l’allocation dynamique, la programmation orientée objet (classes, héritage, polymorphisme dynamique) et la programmation générique (templates, STL, polymorphisme statique). Chaque séance de cours magistral est suivie d’une séance de mise en pratique sur machine. L’évaluation consiste en un DM et une épreuve de programmation en temps limité.

  • Modèles aléatoires markoviens IFMA IMPE
    • Vincent Lemaire
    • 21h
    • Cours d’introduction aux processus de Markov: chaînes de Markov à temps discret et à temps continu (processus de sauts markoviens), comportement en temps long (résultats d’ergodicité), applications aux files d’attentes, processus de Markov à valeurs dans un espace d’état continu (notion de semi-groupe).

UE - Mathématiques et modélisation 6

  • Calcul stochastique IFMA
    • Camille Tardif
    • 21h
    • Martingales à temps discret, martingales à temps continu, convergences et théorème d’arrêt. Mouvement brownien, propriété de Markov et propriété de martingale. Intégrale stochastique par rapport au mouvement brownien, formule d’Itô, théorème de Girsanov. Introduction aux équations différentielles stochastiques, équations à coefficients lipschitziens, diffusions et propriété de Markov.

  • Apprentissage statistique
    • Ismael Castillo et Erwan Scornet
    • 42h
    • Dans ce cours, nous explorerons différents algorithmes d’apprentissage supervisés, par le prisme de la théorie statistique et des implémentations sur machine. La théorie générale de l’apprentissage statistique nous permettra de comprendre le rôle des différents hyperparamètres sur les performances des méthodes. Les algorithmes les plus classiques pour des problèmes de régression et de classification seront décrits et étudiés (analyse discriminante, support vector machines, plus proches voisins, méthodes d’ensembles basées sur les arbres). Certaines séances donneront lieu à des implémentations sur machine permettant de comparer les performances des différentes méthodes.

Bloc fondamental

UE - Informatique pour l'ingénierie 6

  • Apprentissage séquentiel pour la prévision de séries temporelles
    • Margaux Brégère
    • 36h
    • L’ensemble des cours s’appuyera sur des TP en R et/ou Python appliqués à la prévision de consommation électrique. L’évaluation se fera sous forme de projet.

      Les thématiques abordées sont :

      • Analyse de séries temporelles et modèles ARMA
      • Régression, régularisation et approches en ligne
      • Modèles additifs généralisés
      • Forêts aléatoires, boosting et approches en ligne
      • Réseaux de neurones récurrents et variations (LTSM, GRU)
      • Agrégation d’expert en ligne
      • Interprétabilité des modèles d’apprentissate automatique
  • Apprentissage statistique
    • Ismael Castillo et Erwan Scornet
    • 12h
    • Compléments au cours de l’UE MU5MAI02 du bloc de base.

  • Contrôle qualité
    • Mitra Fouladirad
    • 12h
    • Thèmes abordés:

      • Tests statistiques
      • Introduction des outils de Contrôle Statistique des procédés (histogramme et arbre d’événement, feuille de contrôle, diagramme de Pareto)
      • Cartes de contrôles (les cartes R, S, p, np, c, etc)
      • Cartes de contrôle en présence de données corrélées.
      • Méthodes d’échantillonnage pour le contrôle de qualité.
  • Introduction au CUDA (GPU) IFMA IMPE
    • Lokmane Abbas-Turki
    • 12h
    • Ce cours introduit de façon simple et efficace à la simulation sur GPU (Graphics Processing Units). Il est agencé autour de la simulation Monte Carlo fortement adaptée à la parallélisation. Il permet ainsi de se concentrer sur les optimisations permises par l’architecture du GPU.

UE - Ingénierie 2 6

  • Réseaux Neuronaux
    • Annick Valibouze
    • 24h
    • Fondements et principes des réseaux neuronaux jusqu’à l’apprentissage automatique. Etude et description des principaux réseaux : modèles historiques, à compétitions, réseaux profonds (Deep learning) : Perceptron Multi-Couches, PMC, (DNN), convolutionnels (CNN) et DBN. Pratique logicielle précisée plus bas. S’appuyant sur les projets individuels, une partie du cours se réalise en pédagogie inversée. De par la remise d’un projet individuel et de sa présentation orale, l’étudiant.e acquiert à la fois la compétence orientée statistique dans l’usage des réseaux neuronaux pour le traitement des grandes masses de données (Big Data) ainsi qu’une autonomie (pédagogie inversée) et un savoir faire dans la présentation d’exposés scientifiques.

      Evaluation: Un devoir logiciel, un projet individuel (parties théorique et logicielle), exposé avec démos interactives. La présence est obligatoire à tous les cours.

  • Optimisation convexe séquentielle
    • Pierre Gaillard et Joseph de Vilmarest
    • 24h
    • L’objectif de ce cours est d’étudier la convergence de nombreux algorithmes en ligne, d’abord dans un cadre déterministe puis aléatoire. Il sera démontré que l’apprentissage séquentiel fournit des solutions adaptatives et robustes à de nombreux problèmes d’optimisations convexes sous contraintes. La conver- gence des algorithmes étudiés sera illustrée sous R dans le cadre de la classification des données MNIST.

      Thèmes abordés — Introduction à l’optimisation convexe dans un cadre séquentiel — Projection sur le simplexe, parcimonie — Algorithmes du premier et du second ordre — Régularisation et algorithmes libres de projection — Problème du bandit — Apprentissage dans un cadre stochastique

  • Modèles à structure latente
    • Jean-Patrick Baudry
    • 24h
    • Classification non supervisée ; Approches algorithmiques : K-means, classification hiérarchique ; Approche probabiliste basée sur les modèles de mélange ; Algorithme EM ; Approche bayésienne ; Algorithmes de Gibbs, Metropolis-Hastings.

Formation complémentaire

UE - Anglais 3

  • Anglais IFMA IMPE
    • H. Chapman
      • Remise à niveau en anglais
      • Préparation au TOEIC

UE - Insertion Professionnelle 3

  • Insertion professionnelle pour les non apprentis IFMA IMPE
    • Nathalie Obert-Ben Taieb

Second semestre

Bloc de spécialisation

UE - Spécialisation 1 6

  • Modèles statistiques pour l'écologie
    • Stéphane Robin
    • 30h
    • L’écologie s’intéresse aux relations que les espèces vivantes entretiennent entre elles et avec leur milieu. L’analyse et la compréhension de ces interactions passe fréquemment par une modélisation statistique impliquant des variables latentes (c’est-à-dire non observées) visant à décrire les structures et les processus qui sous-tendent ces interactions.

      L’objectif de ce cours est de présenter certains de ces modèles comme les modèles de distributions (jointes) d’espèces ou les modèles de réseaux écologiques. Les modèles les plus simples sont des modèles linéaires généralisés, éventuellement mixtes. Les modèles plus complexes posent des problèmes d’inférence spécifiques qui peuvent être surmontées grâce à des généralisations de l’algorithme EM reposant sur des approximations variationnelles. Un des objectifs principaux de ce cours est la bonne compréhension de tels modèles et la définition d’un algorithme permettant d’en inférer les paramètres.

  • Méthodes de simulation pour les modèles génératifs
    • Sylvain Le Corff
    • 30h
    • La simulation de variables aléatoires en grande dimension est un véritable défi pour de nombreux problèmes de machine learning récents et pour l’apprentissage de modèles génératifs profonds. Ce problème se rencontre par exemple dans un contexte bayésien lorsque la loi a posteriori n’est connue qu’à une constante de normalisation près, dans le cadre des auto encodeurs variationnels ou encore pour la métamodélisation de systèmes dynamiques complexes.

      De nombreuses méthodes sont basées sur des approches de type “Importance Sampling” ou “Sequential Monte Carlo” dont nous rappelerons les éléments principaux. Pour surmonter les faiblesses inhérentes à ces méthodologies en grande dimension ou pour les modèles génératifs profonds (à base de réseaux récurrents, réseaux denses ou convolutifs), nous étudierons dans ce cours de récentes solutions en mettant l’accent sur les aspects méthodologiques. Le fonctionnement de ces méthodes sera illustré à l’aide de jeux de données publics pour des problématiques de “computer vision” et de prédictions de séries temporelles.

UE - Spécialisation 2 6

  • Statistiques industrielles: plans d'expériences
    • Marc Joncour et Céline Berthou (SAFRAN)
    • 15h
    • Dans un contexte industriel où les essais peuvent être coûteux, il est impossible de couvrir toutes les combinaisons de paramètres pour optimiser les performances d’un produit. Ce cours vous familiarisera avec les principes théoriques et pratiques de la planification expérimentale pour sélectionner les paramètres les plus pertinents et modéliser le problème à résoudre.

      Nous aborderons les méthodes de planification expérimentale telles que les plans factoriels, ou de surface de réponse et vous appliquerez ces concepts via un projet où vous concevrez et analyserez un plan d’expérience afin d’améliorer les performances d’une problème physique concret.

  • Pratique de la fiabilite
    • Emmanuel Rémy (EDF R&D)
    • 15h
    • Assurer la sûreté et la performance des systèmes et limiter leur impact sur l’environnement sont des enjeux majeurs pour tous les industriels, quel que soit le secteur d’activités (agroalimentaire, armement, aéronautique, automobile, chimie, énergie, ferroviaire, métallurgie, pharmaceutique…). Ces objectifs passent nécessairement par une évaluation précise de la fiabilité des équipements, c’est-à-dire leur aptitude à ne pas tomber en panne. Les méthodes probabilistes et statistiques sont des outils bien adaptés pour quantifier ces risques de défaillance.

      En fonction des connaissances disponibles, différentes approches sont envisageables : fréquentistes pour traiter les données de retour d’expérience d’exploitation et de maintenance des matériels, bayésiennes pour tirer profit de dires de spécialistes métier, ou structurelles pour manipuler les résultats de calculs de modèles ou de codes de simulation numérique de phénomènes physiques.

      Le cours visera à introduire ces trois grandes familles d’approches, en présentant pour chacune d’elles les concepts, modèles, méthodes et outils de base et en illustrant leur application à des vrais cas d’études industriels.

  • Calcul parallèle IMPE
    • Xavier Juvigny (Onera)
    • 30h
    • Présentation des architectures parallèles, architecture de la mémoire (partagée, hiérarchique, distribuée, hybride, etc.). Modèles de programmation : OpenMP (mémoire partagé ) MPI (mémoire distribuée).

      Algorithmes parallèles distribués dans le contexte de résolution de grands systèmes linéaires pleins ou creux, par méthodes directes ou itératives. Approches de découpage par blocs pour des matrices pleines ou par décomposition de graphe (de la matrice ou du maillage) pour des matrices creuses. TD en Python avec MPI et projets.

Stage

UE - Stage 18

  • Stage en entreprise IFMA IMPE

Validation et Diplôme

La validation des semestres du Master 2 (semestres S3 et S4 du Master) se fait selon la règle suivante:

A la fin d’une année réussie vous serez diplômé de Sorbonne Université

Master de Sciences et Technologies de la Faculté des Sciences de Sorbonne Université
Mention Mathématiques et Applications
Spécialité Ingénierie mathématique
Majeure Ingénierie Statistique et Data Science