Sélectionner une page

Objectifs de la formation

  • Comprendre l'évolution des réseaux de neurones et les raisons du succès actuel du Deep Learning
  • Utiliser les bibliothèques de Deep Learning les plus populaires
  • Comprendre les principes de conception, les outils de diagnostic et les effets des différents verrous et leviers
  • Acquérir de l'expérience pratique sur plusieurs problèmes réels

Participants / Pré-requis

Ingénieurs/Chefs de projet IA, consultants IA et toute personne souhaitant découvrir les techniques Deep Learning

  • Bonnes connaissances en statistiques
  • Bonnes connaissances du Machine Learning

Moyens pédagogiques

  • Formation avec un formateur, dans une salle dédiée à la formation, équipée d'un vidéoprojecteur, d'un tableau blanc ou à distance dans le cas de solutions de Digital Learning
  • 1 poste de travail par stagiaire adapté aux besoins de la formation + 1 support de cours et/ou un manuel de référence au format numérique ou papier
  • Modalités pédagogiques : Exposés – Cas pratiques – Synthèse

Programme

1. Introduction

  • Créer un premier graphe et l’exécuter dans une session.
  • Cycle de vie de la valeur d’un nœud.
  • Manipuler des matrices.
  • Régression linéaire.
  • Descente de gradient.
  • Fournir des données à l’algorithme d’entraînement.
  • Enregistrer et restaurer des modèles.
  • Visualiser le graphe et les courbes d’apprentissage.
  • Portées de noms. Partage des variables.

2. Introduction aux réseaux de neurones artificiels

  • Du biologique à l’artificiel.
  • Entraîner un PMC (perceptron multicouche) avec une API TensorFlow de haut niveau.
  • Entraîner un PMC (perceptron multicouche) avec TensorFlow de base.
  • Régler précisément les hyperparamètres d’un réseau de neurones.

3. Entraînement de réseaux de neurones profonds

  • Problèmes de disparition et d’explosion des gradients.
  • Réutiliser des couches pré-entraînées.
  • Optimiseurs plus rapides.
  • Éviter le sur-ajustement grâce à la régularisation.
  • Recommandations pratiques.

4. Réseaux de neurones convolutifs

  • L’architecture du cortex visuel.
  • Couche de convolution.
  • Couche de pooling.
  • Architectures de CNN.

5. Deep Learning avec Keras

  • Régression logistique avec Keras.
  • Perceptron avec Keras.
  • Réseaux de neurones convolutifs avec Keras.

6. Réseaux de neurones récurrents

  • Neurones récurrents.
  • RNR de base avec TensorFlow.
  • Entraîner des RNR. RNR profonds.
  • Cellule LSTM. Cellule GRU.
  • Traitement automatique du langage naturel.

7. Autoencodeurs

  • Représentations efficaces des données.
  • ACP avec un autoencodeur linéaire sous-complet.
  • Autoencodeurs empilés.
  • Pré-entraînement non supervisé avec des autoencodeurs empilés.
  • Autoencodeurs débruiteurs. Autoencodeurs épars. Autoencodeurs variationnels. Autres autoencodeurs.

Intéressé par une de nos formation ? Inscrivez-vous ou contactez votre conseiller AFIB !

Intéressé par une de nos formations ? Inscrivez-vous ou contactez votre conseiller AFIB !