SVM en análisis de regresión

En 1996, tres años después de la formulación del "kernel trick", se propuso un método para aplicar esta familia de algoritmos en escenarios de regresión. La idea detrás de este enfoque sigue siendo semejante: transformar los datos a un espacio de mayor dimensionalidad en el que poder realizar un análisis de regresión lineal.

En este caso el espacio limitado por los márgenes impuestos por los vectores de soporte viene controlado por el parámetro  ϵ (epsilon en las algoritmos ofrecidos por Scikit-learn).

Las clases ofrecidas en Scikit-learn son equivalentes a las vistas para clasificación:

SVR

Implementación realizada sobre la ya mencionada librería libsvm. Acepta los mismos kernels que SVC. Controla la penalización de los errores con el también mencionado parámetro epsilon.

NuSRV

Semejante a SVR pero sustituyendo el parámetro epsilon por nu, que controla el número de vectores de soporte.

LinearSVR

Equivalente a SVR con el parámetro kernel="linear" (único kernel soportado). Al igual que ocurría con su equivalente para clasificación, LinearSVR está implementado sobre la librería liblinear, con las mismas ventajas que se mencionaron en su momento.