Otro ejemplo de recall

Hagamos otro ejemplo. Partimos de los siguientes valores reales y la siguiente predicción:

y_real = [1, 1, 1, 1, 1, 1, 1, 0, 0, 0]
y_pred = [1, 1, 1, 1, 0, 0, 0, 0, 1, 1]

En este caso tenemos 10 elementos de los que 7 son positivos y 3 son negativos. Hemos marcado en nuestra predicción como positivos 6 elementos, de los que 4 son verdaderos positivos y 2 son falsos positivos. De forma semejante, hemos marcado 4 negativos, de los que 1 es un verdadero negativo y los otros 3 son falsos negativos.

La matriz de confusión devuelta por sklearn es:

confusion_matrix(y_real, y_pred)

array([[1, 2],
       [3, 4]], dtype=int64)

En este caso, el recall o True Positive Rate vendría dado por el ratio mostrado en el siguiente esquema (matriz de confusión mostrada según el criterio más habitual):

True Positive Rate o Recall

Es decir, TPR = 4/7