Logo de la rubrique ATELIER : Apprentissage automatique et Machine Learning pour le traitement d’image avec OpenCV

ATELIER : Apprentissage automatique et Machine Learning pour le traitement d’image avec OpenCV

Du 16 au 17 octobre Toulouse (31)

Durant cette formation, nous verrons comment associer les fonctions de traitement d’images fournies par la librairie OpenCV avec des techniques d’apprentissage automatique (- machine learning -) dans le but de réaliser des algorithmes de détection / classi-cation fonctionnant pour des objets complexes.

Intervenant : Mr Julien ARZI

PROGRAMME

PREMIÈRE DEMI-JOURNÉE : Concepts fondamentaux de l’apprentissage automatique (M.L.)

Nous allons commencer par voir quelques types de problèmes qui peuvent être traités avec les techniques de M.L., comment on peut formuler ces problèmes, et ce qu’on attend d’un système d’apprentissage.

- Notions de classi-cation, régression
Exemples : régression linéaire, régression logistique.
- Evaluation d’un classifieur :
Comment quantifier les performances d’un classifieur ? Notions de sensibilité / spécificité, matrice de confusion, MSE.
Méthodologie de mesure (jeux d’apprentissage / jeux de test).
- Exemple de classifieur trivial :
K plus proche voisins.
- Problèmes de sous / sur-apprentissage :
Pouvoir de représentation d’un modèle, capacité de généralisation.
- Un classifieur plus complexe :
SVM / machines à vecteurs de supports (avec noyaux RBF).
- Apprentissage non supervisé :
Segmentation K-means. Modèle GMM (Gaussian Mixture Model) et algorithme EM (Expectation Maximization).
Méthodes d’apprentissages hybrides.
- Travaux pratiques :
Exemples simples [ADU], à traiter avec le module ML d’OpenCV.

DEUXIÈME DEMI-JOURNÉE : M.L. & Traitement d’image

Durant cette après-midi, nous allons nous essayer de mettre en pratique les concepts génériques de ML vu le matin sur un problème classique de traitement d’image.

- Approche traditionnelle :
Calculs de traits + ML
- Exemples de traits :
ACP (Analyse en Composantes Principales), HOG (Histogram of Oriented
Gradient), LBP (Local Binary Patterns), etc.
- Travaux pratiques :
Décodage de chiffres manuscrits (base de données MNIST), avec différentes techniques. L’objectif est d’avoir une bonne intuition des avantages / inconvénients de chacune (temps d’apprentissage, temps d’exécution, capacité de généralisation, etc.).

TROISIÈME DEMI-JOURNÉE : Apprentissage profond (D.L.) - Généralités

Durant cette matinée, nous allons faire un tour d’horizon de la technologie appelée Deep Learning.
- Réseaux de neurones classiques :
Définition du perceptron, les fonctions d’activation classiques (sigmoide, ReLu, etc.). Apprentissage MSE par descente de gradient.
- Fonctions de coûts :
Les différentes fonctions de coût suivant l’objectif (régression / MSE, classi-cation / softmax), etc.
- Appr. sur des grandes bases de données :
Descente de gradient aléatoire (SGD / Stochastic Gradient Descent), batchs, inertie, etc.
- Techniques de régularisation :
Régularition L2, dropout, augmentation de la base d’entraînement.
- Travaux pratiques :
Apprentissage sur des exemples simples [ADU]. Visualisation de l’évolution des coefficients / de l’erreur. Réglages des paramètres. Le but est d’en retirer une bonne intuition sur les différents concepts et paramètres.

QUATRIÈME DEMI-JOURNÉE : Apprentissage profond - Mise en pratique avec OpenCV

Durant cet après-midi, nous allons essayer d’appliquer le D.L. au traitement d’image, en utilisant OpenCV.
- Réseaux convolutifs :
Rappel sur le produit de convolution, spécificités dans le cadre des réseaux de neurones.
- Réseaux pré-entrainés sous OpenCV :
Blob detector, etc [ADU].
- Apprentissage par transfert :
Adaptation d’un réseau pré entrainé sur une nouvelle tâche.
- Présentation de la librairie TinyDNN (librairie très facile d’utilisation pour le DL en C++ :
Aucune installation requise, aucune dépendance, code très lisible).
- Travaux pratiques :
Détecteur générique de [ADU] sur des photos (exemple pré-traitements avec OpenCV, premières couches d’un réseau pré-entrainé (ex. AlexNet), apprentissage par transfert (ex. tinyDNN).
- Perspective :
Limites des réseaux profonds classiques pour le traitement d’image et présentation d’un domaine prometteur, les réseaux de capsules.

INFORMATIONS PRATIQUES

Public visé et prérequis :

  • Ingénieurs en traitement du signal, informatique
  • Notions de base en traitement d’image, notions de C++

Date et lieu :

  • Du 16 et 17 octobre 2019 de 09h00 à 12h30 et de 13h30 à 17h00
  • LAAS/CNRS - 7 avenue Colonel Roche - 31000 TOULOUSE

Participation aux frais :

Pour les PME adhérentes CAP’TRONIC : prise en charge totale du coût de l’inscription dans la limite de 10 hommes/jour de formation dans l’année d’adhésion, pour les ateliers traitant de logiciel embarqué.
L’inscription sera validée à réception d’un chèque de caution de 100 €TTC par personne, qui sera renvoyé au participant après l’atelier. En cas d’absence non remplacée à l’atelier, la caution sera encaissée et une facture sera établie.
Chèque de caution à retourner par courrier à :
JESSICA FRANCE – 7, avenue du Colonel Roche – BP54200 – 31031 TOULOUSE Cedex
Si vous êtes une PME non adhérente :
Pour les grandes entreprises et les PME qui ne souhaitent pas adhérer : 1 100,00 € HT (TVA 20 %) soit 1 320 € TTC pour les 2 journées par personne.

Remarque : Jessica France est titulaire d’un numéro d’agrément de formation continue et est référencé DATADOCK depuis le 1er juillet 2017. Cette formation est éligible au financement par votre Opérateur de Compétences (OPCO) hors CPF mais attention, l’étude de votre dossier peut prendre plusieurs semaines, renseignez-vous dès maintenant et inscrivez-vous au plus tôt.

Contact et inscription : Richard SALVETAT - 06 86 40 94 52 – Inscrivez-vous par email au plus tôt : salvetat@captronic.fr

Les déjeuners seront pris en commun et sont à la charge du participant.