En un post pasado analizamos las relaciones entre el campo del machine learning y las neurociencias. Vimos, que de las relaciones existentes, un área bastante productiva y prometedora es el desarrollo de algoritmos de machine learning inspirados en el procesamiento de información en el cerebro.
En la actualidad existe un debate sobre si hace falta más estructura innata en los algoritmos de machine learning. La estructura innata es la arquitectura y las hipótesis asumidas previamente en el algoritmo como por ejemplo la recursividad, la invariancia traslacional, la composición jerárquica, etc.
De manera similar a los humanos, que nacen con una estructura base para aprender, incorporando más estructura a los algoritmos sería posible aprender de una manera más intuitiva y eficiente (con menos datos).
Desde el comienzo, el machine learning y la inteligencia artificial han estado influenciados por los procesos biológicos que ocurren en el cerebro:
- Las redes neuronales artificiales, inspiradas en el funcionamiento de las neuronas y las sinapsis, han sido la base del progreso reciente del machine learning.
- El deep learning emplea múltiples niveles de representación, transformando la representación de un nivel en una representación más abstracta de un nivel superior. Estos modelos emulan la actividad en las capas neuronales del neocórtex, una parte del cerebro de los mamíferos involucrada en funciones de orden superior.
- Las redes neuronales convolucionales, con su invariancia traslacional, emulan el procesamiento visual jerárquico en la corteza visual.
- El éxito de las LSTM (long short-term memories) viene de modelar las dependencias y estructura temporal de la entrada (p.e. sonidos, palabras, etc.), de manera similar a como el cerebro procesa el lenguaje.
- El aprendizaje reforzado es una técnica inspirada en la psicología conductual en la que un agente interacciona con el entorno para maximizar una recompensa o retorno. En los últimos años ha visto un importante progreso con el uso de las redes neuronales profundas para aproximar la recompensa en función del estado actual y las acciones a emprender.
- Las Capsules Networks, uno de los últimos avances en redes neuronales, también están inspiradas en como el cerebro extrae las representaciones jerárquicas de los objetos visuales cumpliendo con la equivarianza. Mediante esta propiedad, se detectan cambios en el ángulo del objeto, cambios de las posiciones de sus componentes internos, etc. que no son detectados por las redes neuronales convolucionales.
Como se ve en estos ejemplos, inspirarse en el cerebro e incorporar estructura previa en los algoritmos de machine learning ha proporcionado grandes resultados. En el futuro es clave seguir potenciando este camino con los siguientes pasos:
- Para las diferentes funciones implementadas en el cerebro analizar qué arquitecturas, restricciones e hipótesis facilitan el proceso de aprendizaje.
- Intentar incorporar esta estructura en algoritmos de machine learning que realizan funciones similares.
- En general, intentar usar el procesamiento de la información en el cerebro como guía para el desarrollo del machine learning.
De esta forma, un mayor entendimiento de la estructura y los mecanismos de procesamiento de información en el cerebro puede guiar el desarrollo de nuevos algoritmos y modelos de machine learning. Y es que la evolución ha hecho que muchos procesos biológicos sean ejemplo de eficiencia y robustez.
Deja una respuesta