La selección de características es un paso importante en el preprocesamiento de datos y en la ingeniería de características. En muchos conjuntos de datos, puede haber cientos o incluso miles de características predictivas, lo que puede ser un desafío para los algoritmos de aprendizaje automático y aumentar el riesgo de overfitting. La selección de características hace referencia a la identificación y selección de las características más importantes para el problema que se está abordando. De esta forma mejoramos el coste de cálculo necesario, reducimos la complejidad del modelo y mejoramos la precisión del modelo.
Existen diferentes técnicas para la selección de características, que van desde métodos estadísticos hasta enfoques basados en modelos de aprendizaje automático. Algunas técnicas evalúan la relevancia de las características de manera individual, mientras que otras consideran interacciones entre ellas. Además, la selección de características también puede variar según el tipo de datos que se estén utilizando (imágenes, texto, series temporales...).