AffectNet est une base de données créée en 2017 par des chercheurs de l'université de Denver, dédiée à l'entraînement des intelligences artificielles, pour la reconnaissance automatique des expressions faciales, et pour l'analyse automatique des émotions. C'est l'une des bases les plus larges du domaine de l'informatique affective.
Historique
La base a été créée et développée par Ali Mollahosseini, Behzad Hasani et Mohammad H. Mahoor dont le travail a notamment été publié dans un article de la revue IEEE Transactions on Affective Computing[1].
Contenu
AffectNet contient environ un million d'images faciales collectées sur Internet. Parmi celles-ci, 440 000 ont été annotées manuellement selon :
- sept émotions discrètes : joie, tristesse, colère, surprise, peur, dégoût, mépris ;
- deux dimensions continues : valence (positivité ou négativité) et arousal (intensité émotionnelle).
Les images sont représentatives de situations réelles (in the wild), ce qui permet d'entraîner des modèles dans des conditions non contrôlées.
Applications
AffectNet est utilisée dans plusieurs domaines :
- interfaces homme-machine ;
- analyse du comportement et marketing émotionnel ;
- santé mentale et outils de bien-être numérique ;
- entraînement et validation de réseaux neuronaux profonds pour la détection émotionnelle.
Version étendue
Une version avancée[2], AffectNet+, introduit :
- des étiquettes probabilistes (soft-labels) ;
- des métadonnées supplémentaires : âge, genre, origine ethnique, posture de la tête, points de repère faciaux.
Références
- ↑ (en) Ali Mollahosseini, Behzad Hasani et Mohammad H. Mahoor, « AffectNet: A Database for Facial Expression, Valence, and Arousal Computing in the Wild », IEEE Transactions on Affective Computing, vol. 10, no 1, , p. 18–31 (ISSN 1949-3045 et 2371-9850, DOI 10.1109/taffc.2017.2740923, lire en ligne, consulté le ).
- ↑ (en) Ali Pourramezan Fard, Mohammad Mehdi Hosseini, Timothy D. Sweeny et Mohammad H. Mahoor, « AffectNet+: A Database for Enhancing Facial Expression Recognition with Soft-Labels », .
Voir aussi
Bibliographie
- Présentation sur IEEE Xplore : AffectNet sur IEEE.
- Mariana-Iuliana Georgescu, Radu Tudor Ionescu et Marius Popescu, « Local Learning With Deep and Handcrafted Features for Facial Expression Recognition », IEEE Access, vol. 7, , p. 64827–64836 (ISSN 2169-3536, DOI 10.1109/access.2019.2917266, lire en ligne, consulté le ).
- (en) Maksat Kanatov, Lyazzat Atymtayeva et Mateus Mendes, « Improved Facial Expression Recognition with Xception Deep Net and Preprocessed Images », Applied Mathematics & Information Sciences, vol. 13, no 5, , p. 859–865 (ISSN 1935-0090 et 2325-0399, DOI 10.18576/amis/130520, lire en ligne, consulté le ).
- Fuyan Ma, Bin Sun et Shutao Li, « Facial Expression Recognition With Visual Transformers and Attentional Selective Fusion », IEEE Transactions on Affective Computing, vol. 14, no 2, , p. 1236–1248 (ISSN 1949-3045 et 2371-9850, DOI 10.1109/taffc.2021.3122146, lire en ligne, consulté le ).
- Zengqun Zhao, Qingshan Liu et Feng Zhou, « Robust Lightweight Facial Expression Recognition Network with Label Distribution Training », Proceedings of the AAAI Conference on Artificial Intelligence, vol. 35, no 4, , p. 3510–3519 (ISSN 2374-3468 et 2159-5399, DOI 10.1609/aaai.v35i4.16465, lire en ligne, consulté le ).
Articles connexes
- Informatique affective
- Langage de balisage des émotions
- Visage
- Intelligence émotionnelle
- Caméra de surveillance
- Traitement d'images
- EmoDB (autre grande base de données de visages avec émotions)
Liens externes
- « Page officielle de la base AffectNet », sur University of Denver (consulté le ).
Conditions d'utilisation
- « AffectNet Academic Use License Agreement », sur University of Denver (consulté le )