Como hemos visto en varios posts, en un algoritmo de machine learning tenemos varios tipos de parámetros que es necesario configurar para realizar una tarea óptima. Por un lado tenemos los parámetros (p.e. los pesos de una red neuronal) que se aprenden directamente usando un algoritmo de optimización como descenso por gradiente y los metaparámetros,... Seguir leyendo →
Teorema NFL y meta-learning
El teorema No-Free-Lunch (NFL) de optimización nos dice que no existe un algoritmo de aprendizaje universal. En tareas de clasificación, para cada algoritmo de aprendizaje, siempre existirá una distribución de probabilidad (que genera los datos entrada-salida) en la que falle. Una definición intuitiva, como la aportada en el libro de Shalev-Shwartz y Ben-David, establece que... Seguir leyendo →