Ahora que sabemos cómo obtener la salida de una capa a partir de las matrices formadas por los valores de entrada, los pesos y los bias, podríamos plantearnos la forma de aplicar este método a una red neuronal formada por más de una capa.
Consideremos, por ejemplo, la siguiente red en la que se ha indicado el valor de los pesos y bias de todas las capas (menos de la capa de entrada, obviamente):
Obtengamos las matrices de cada una de las capas. Para la primera capa tendríamos la siguiente matriz de pesos (a la que vamos a llamar W1):
![Matriz de pesos de la primera capa oculta](/sites/default/files/styles/max_800_px/public/2020-10/tutdl_0099.jpg)
...y la siguiente matriz de bias (a la que llamamos b1):
![Matriz de bias de la primera capa oculta](/sites/default/files/styles/max_800_px/public/2020-10/tutdl_0100.jpg)
Para la segunda capa, las matrices (W2 y b2) serían las siguientes:
![Matrices de pesos y bias de la segunda capa oculta](/sites/default/files/styles/max_800_px/public/2020-10/tutdl_0101.jpg)
Y para la tercera capa, serían:
![Matrices de pesos y bias de la capa de salida](/sites/default/files/styles/max_800_px/public/2020-10/tutdl_0102.jpg)