UIBAIFED: Un dataset de expresiones faciales generado por IA para visibilizar la diversidad

Autores/as

Palabras clave:

Interacción persona-ordenador , IPO, aprendizaje profundo, conjunto de datos de expresiones faciales, FER

Resumen

Este artículo presenta UIBAIFED, un nuevo conjunto de datos de expresiones faciales compuesto por imágenes realistas y de alta calidad, etiquetadas con grupo de edad, género, etnia y 22 microexpresiones basadas en las expresiones universales de Ekman y la taxonomía de Gary Faigin. El conjunto de datos fue generado mediante modelos de difusión y está diseñado para mejorar la investigación en reconocimiento de expresiones faciales, aumentado la representación étnica, generacional y de complexión física, visibilizando la diversidad existente en el mundo real. La validación inicial mediante una red neuronal convolucional (CNN) alcanzó una precisión del 80% en la clasificación de microexpresiones. Además, se realizó un experimento con participantes humanos con un subconjunto de datos formado por imágenes del grupo de edad de personas mayores (85 años), colectivo tradicionalmente marginado en los conjuntos de datos existentes. Los mejores resultados de clasificación fueron para las emociones de tristeza (94.6%), neutral (92.8%) y alegría (83.8%), mientras que las peores emociones identificadas fueron las emociones de miedo (33.9%) y asco (34.7%), con una precisión global del 74%. UIBAIFED ofrece un nivel de etiquetado más detallado que los conjuntos de datos existentes, lo que facilita el análisis del rendimiento en sistemas de reconocimiento de expresiones faciales en distintos grupos demográficos y contribuye al desarrollo de modelos más robustos y generalizables.

Abstract

This article presents UIBAIFED, a new facial expression dataset composed of high-quality, realistic images labelled with age group, ethnicity, and 22 micro-expressions based on Ekman’s universal expressions and Gary Faigin’s taxonomy. The dataset was generated using diffusion models and is designed to support advanced research in Facial Expression Recognitions (FER), increasing ethnical, generational and complexity representativity, enhancing real world diversity. The initial validation using a Convolutional Neural Network (CNN) achieved an accuracy of 80% in micro-expression classification. To complement this automatic evaluation, an experiment with human participants was conducted using a subset of data composed by images corresponding to elder adults (85 years old), a group traditionally underrepresented in existing datasets. The best results were obtained when classifying sadness (94.6%), neutral (92.8%) and joy (83.8%) emotions. We got the worst results when classifying fear (33.9%) and disgust (34.7%) emotions. The overall accuracy was of 74%. UIBAIFED provides a more detailed annotation level than existing facial expression datasets, enabling performance analysis of FER systems across different demographic groups and contributing to the development of more robust and generalizable models.

 

Descargas

Publicado

2025-12-23