Download presentation
Presentation is loading. Please wait.
Published byBouslama Sirine Modified over 8 years ago
1
Reconnaissance du visage Réalisé par : Sirine Bouslama Encadré par : Mr Anis Kricha
2
2 Etat de l’art Méthode de la reconnaissance du visage Extraction des caractéristiques Apprentissage Automatique SVM : machine à vecteur de support automatique Conclusion et perspectives
3
Reconnaissance de visage Reconnaissance de visage 2D Reconnaissance de visage 3D Approches globales Approches Locales Approches Hybrides 2D HMM SVM LDA PCA EBGM Méthode Optiques Etat de l’art 3
4
Méthode de la reconnaissance du visage Base de données Extraction des caractéristiques Apprentissage Classification Image d’entréeDétection visage Extraction des caractéristiques Model 4
5
Extraction des caractéristiques (HOG) HOG : Histogram of oriented Gradients : distribution de l'intensité du gradient ou la direction des contours Calculer le vecteur gradient Généralement, Dx=[-1 0 1] et Dy= [−1 0 1] Ix= I*Dx et Iy=I * Dy et θ=arct(Ix/Iy) fenêtre de détection : 64*128 pixels 9-bin histogramme qui s’étends de [0..180°] Dx =94-56=38 Dy=93-55=38 Mag²=38²+38² Θ =arctan(38/38)=45° 5 64 vecteurs de gradient
6
Normalisation du vecteur gradient On concatène les histogrammes de 4 cellules et ensuite on les normalise pour que le descripteur de chaque cellule apparait plusieurs fois mais normalisé avec les cellules voisines 7 blocs verticales et 15 blocs Horizontales Donc 105 blocs 4 cellules et 9-bin histogramme donc 36 valeurs/bloc 3780 valeurs dans un descripteurs de type HOG 6
7
7 Schéma HOG
8
Apprentissage Automatique Types d’apprentissage : Apprentissage supervisé : il y a une cible à prédire D={(x1,t1), (x2,t2)…. (xn,tn) } avec x:entrée et t: réponse désiré Apprentissage non supervisé D={x1,x2…. Xn } 8
9
Classification linéaire 9
10
Analyse discriminante linéaire 10
11
11
12
Méthode à Noyau 12 Espace représenté par xEspace représenté par (x)
13
13
14
SVM : machine à vecteur de support Le problème : comment maximiser la marge ? 14
15
15 Le problème devient un problème quadratique Représentation Duale
16
16
17
Conclusion et perspectives Les SVMs présentent un alternatif utile aux différentes méthodes de classification classique. Ils permettent de réaliser des taux de classification très importants. Inconvénients : Demande des données négatives & positives en même temps. Besoin d’une bonne fonction Kernel. Problèmes de stabilité des calculs dans la résolution de certains programme quadratique a contraintes 17
18
18
Similar presentations
© 2024 SlidePlayer.com. Inc.
All rights reserved.