El boosting es una técnica de aprendizaje automático que involucra una familia de "meta-algoritmos" de ensamblado de modelos débiles que tienen como objetivo convertirlos en modelos fuertes. Para ello se entrenan de forma recursiva, asignándoles un peso en función de su eficiencia. Además, los datos analizados reciben también un peso: cada vez que se entrena un modelo, los pesos de los datos se modifican de forma que aquellos que han recibido una predicción incorrecta ven aumentada su importancia relativa. De esta forma, el siguiente modelo puede concentrarse en ellos con el objeto de minimizar el error global.
Existen muchos algoritmos de boosting, siendo AdaBoost el más conocido históricamente, pero en la actualidad la familia de algoritmos Gradient Boosting es la más utilizada y potente, familia que incluye modelos tan conocidos y utilizados como XGBoost y LightGBM.