Passer au contenu
30 h

Gestion de données

2$/h – Deep Learning et intelligence artificielle

Contenu du cours

Cours 1 : Introduction à l’intelligence artificielle
1.1 Définition de l’intelligence artificielle

1.2 Différentes approches de l’apprentissage automatique

  • Apprentissage supervisé : classification et régression
  • Apprentissage non supervisé : partitionnement des données et détection des anomalies
  • Apprentissage semi supervisé

1.3 Les étapes suivies dans les systèmes d’apprentissage automatique

  • Collection des données, prétraitement, choix du modèle, entrainement, évaluation, réglage des paramètres prédiction.

1.4 Données, matériels, plateformes et logiciels spécialisés

  • Collection des données, prétraitement, choix du modèle, entrainement, évaluation
  • Matériels : CPU vs GPU
  • Logiciels spécialisés : Cuda, cuDNN, Python, Pucharm

1.5 Bibliothèque Open Source disponible

  • Tensorflow, Keras, PyTorch, Microsoft Cognitive Toolkit, DeepLeanring4j

1.6 Application de l’intelligence artificielle

  • Vision par ordinateur : reconnaissance faciale, analyse d’images médicale, télédétection
  • Traitement naturel du langage
  • Reconnaissance automatique de la parole
  • Robotique

Cours 2 : Apprentissage profond

2.1 Intelligence artificielle vs apprentissage machine vs apprentissage profond

2.2 Préparation des données pour l’apprentissage

  • Intégration, nettoyage, réduction et transformation des données

2.3 Structure d’un neurone artificiel

  • Neurones biologiques vs neurones artificiels

2.4 Les fonctions d’activation

  • Sigmoid, tanh, ReLU, ELU, Leaky ReLU

2.5 Le perceptron

  • Structure du perceptron à une couche
  • Structure du perceptron à multicouche

2.6 Illustration

Cours 3 : Apprentissage profond
3.1 Comment fonctionnent les réseaux de neurones

  • Les données utilisées, couches cachées et prédiction des résultats

3.2 Comment apprennent les réseaux de neurones

  • Codage en dur vs réseau de neurones

 

3.3 Descente du gradient

  • Principe, avantage et limitation
  • Règle de la chaine

3.4 Descente stochastique du gradient

  • Principe, avantage et limitation

3.5 Rétropropagation

  • Les différentes étapes de l’algorithme de rétropropagation

3.6 Illustration

Cours 4 : Optimisation des réseaux de neurones

4.1 Transfert d’apprentissage
4.2 CPU vs GPU

4.3 Optimisation des hyperparamètres

  • Les hyperparamètres reliés à la structure du réseau
  • Les hyperparamètres reliés à la phase d’entrainement

4.4 Recherche de grille vs recherche aléatoire

  • Principe de la recherche de grille
  • Principe de la recherche aléatoire

4.5 Régularisation

  • Problème de surajustement (overfitting)
  • Régularisation L1 et L2
  • Décrochage

Cours 5 : Réseau à convolution (CNN)

5.1 Présentation des réseaux de neurones à convolution

  • Différence entre l’intelligence artificielle, apprentissage machine,

       l’apprentissage profond et les réseaux à convolution

5.2 Architecture des réseaux de neurones à convolution

5.3 Les étapes de conception d’un réseau à convolution

  • La couche de convolution
  • La couche de pooling
  • La couche flatten
  • La couche entièrement connectée

5.4 Architectures existantes inspirées des réseaux à convolution

  • VGG 16
  • ResNet 50
  • U-Net

Cours 6 :  Réseau de neurones récurrents (RNN)

6.1 Présentation des réseaux de neurones récurrents

  • Méthodes supervisées : Réseaux de neurones artificielles, réseaux de neurones à convolution et réseaux récurrent
  • Méthode non supervisée : Autoencoders, carte auto adaptative, machine de Boltzmann

6.2 Application des réseaux de neurones récurrents

  • Analyse automatique du langage, analyse du sentiment, conversion image à texte, transcription

6.3 Le problème de la disparition du gradient

6.4 Les cellules Long Short Term Memory (LSTM)

  • Introduction au LSTM et limitations des RNN
  • Structure des LSTM

6.5 Les cellules Gated Recurrent Unit (GRU)

  • Introduction au GRU et limitations des LSTM
  • Structure des GRU

6.6 Le LSTM bidirectionel

6.7 Le mécanisme d’attention

Cours 7 : Traitement automatique du langage naturel

7.1 Introduction au traitement automatique du langage naturel

7.2 Techniques de prétraitement

  • Suppression des mots d’arrêt
  • Division en jetons
  • Réduction des mots à leurs formes racines

7.3 Vectorisation des mots (word embedding)

  • Vectorisation des mots (CBOW vs Skip-gram)
  • Google Wold2Vec et Glove
  • Vectorisation de mots en utilisant BERT

7.4 Applications du traitement automatique du langage naturel

  • Analyse des sentiments
  • Inférence en langage naturel
  • Étiquetage morpho-syntaxique
  • Synthèse de textes automatisée
  • Traduction du texte

Cours 8 : Auto-encoder (AE)

8.1 Introduction aux auto-encoders

8.2 Entrainement des auto-encoders

8.3 Différents variants des auto-encoders

  • Auto-encodeurs sur-complet
  • Auto-encodeurs sparse
  • Auto-encodeurs débruiteur
  • Auto-encodeurs contractifs
  • Auto-encodeurs empilés

8.4 Application des auto-encoders

  • Détection des anomalies
  • Réduction de la dimensionalité et compression de l’information
  • Réseau de type séquence à séquence
  • Débruiteur d’images

8.5 Bonus : Variational auto-encoders (VAE)

Cours 9:  Réseau antagoniste génératif (GAN)

9.1 : Modèles discriminatifs vs génératifs

9.2 : Introduction aux réseaux antagonistes génératifs

9.3 : Structure des réseaux antagonistes génératifs

  • Structure du discriminateur
  • Structure du générateur

9.4 : Entrainement des réseaux antagonistes génératifs

  • Entrainement du discriminateur
  • Entrainement du générateur

9.5 : Types des réseaux antagonistes génératifs

  • DCGAN
  • Conversion image à image
  • GAN cyclique

Cours 10 : Apprentissage par renforcement (RL)

10.1 : Introduction à l’apprentissage par renforcement

  • Éléments essentiels d’un apprentissage par renforcement : Agent, environnement, action, récompense.

10.2 Application de l’apprentissage par renforcement

  • Jeu vidéo
  • Robotique
  • Véhicule intelligent

10.3 Différence entre apprentissage supervisé, non supervisé et par renforcement

  • Environnement statique vs dynamique
  • Stratégie d’exploration
  • Processus à décisions multiples

10.4 Les différentes familles d’approches pour l’apprentissage par renforcement

  • Q-apprentissage et Q-apprentissage profond
  • Modèle A3C : Asynchrone Avantage Acteur Critique
  • Politique du gradient déterministe profond

 

 

Préalables

Connaissances de base en programmation et mathématiques de base.
Avoir suivi un cours d’initiation à la science des données.