v2.11.0 (5686)

Cours scientifiques - IA306 : Apprentissage profond

Descriptif

Ce cours est une introduction aux méthodes d'apprentissage profond ("deep learning" en anglais). D'abord, on passera en revue la notion de réseau de neurones, dont l'exemple le plus simple est le "Multi-Layer Perceptron" (MPL). On regardera ensuite comment ces réseaux peuvent être entraînés sur une base de données, en particulier les techniques d'optimisation d'une fonction de coût (backpropagation, descente de gradient stochastique etc.). Ensuite, on introduira plusieurs techniques de régularisation couramment utilisées dans l'entraînement. On introduira les réseaux de neurones convolutionnels, ainsi que quelques réseaux connus utilisés pour la classification des objets dans les images. Enfin, on regardera quelques exemples plus récents de réseaux de neurones spécialisés pour certaines tâches ou problèmes, comme les réseaux récurrents, les autoencodeurs ou les generative adversarial networks (et autres modèles génératifs).

Objectifs pédagogiques

- Connaître les différents types de réseaux de neurones

- Maitriser les méthodes d'entrainement des réseaux de neurones

28 heures en présentiel (7 blocs ou créneaux)

effectifs minimal / maximal:

10/30

Diplôme(s) concerné(s)

Format des notes

Numérique sur 20

Littérale/grade européen

Pour les étudiants du diplôme Master 2 Energie

Pour les étudiants du diplôme Diplôme d'Ingénieur de l'Ecole Nationale Supérieure de Techniques Avancées

Vos modalités d'acquisition :

Examen

Le rattrapage est autorisé (Max entre les deux notes écrêté à une note seuil)
  • le rattrapage est obligatoire si :
    Note initiale < 6
  • le rattrapage peut être demandé par l'étudiant si :
    6 ≤ note initiale < 10
L'UE est acquise si Note finale >= 10
  • Crédits ECTS acquis : 2 ECTS

Le coefficient de l'UE est : 1

La note obtenue rentre dans le calcul de votre GPA.

L'UE est évaluée par les étudiants.

Programme détaillé

Séance 01: Cours
    Contenu: Introduction + Multi-Layer-Perceptron (backpropagation, regularization, adam, bacth-normalization ...) + DL frameworks (tensorflow, keras, pytorch)
Séance 02: TP 
    sur Multi-Layer-Perceptron
Séance 03: Cours
    Contenu: Convolutional Neural Network + Auto-Encoder + Réseaux génératifs
Séance 04: TP
    sur Convolutional Neural Network
Séance 05: Cours
    Contenu: Sequence Model (Recurrent Neural Network, LSTM,n GRU, Seq2seq, Attention Mechanism) + NLP
Séance 06 TP
    sur Sequence Model + RNN

Séance 7 (cours + TP) Generative models (VAE, GAN)

Séance 08 : Examen

 

Mots clés

Apprentissage profond, réseaux de neurones convolutionnels, optimisation stochastique, classification
Veuillez patienter