¿Una burbuja en la IA generativa?

En los últimos meses hemos visto mucha discusión sobre si la IA generativa es una burbuja económica o no. Ahora parece que todas las startups tienen algún componente de IA generativa. Recientemente, Financial Times nos dio su visión escéptica. Bank of America primero dijo que era una burbuja y luego se desdijo. Goldman Sachs a... Seguir leyendo →

Creando nuevas funciones en PyTorch

En este post de nuestro tutorial de deep learning con PyToch vamos a ver como extender PyTorch. Si quieremos implementar un nuevo módulo o función no disponible en las librerías de PyTorch tenemos varias opciones dependiendo del caso: Si queremos añadir primitivas clásicas (if, while,...) en un módulo, simplemente insertaremos las primitivas en el método... Seguir leyendo →

Reproducibilidad de los modelos en deep learning

En los modelos de deep learning puede haber varias fuentes de aleatoriedad. Los parámetros del modelo, algunos vectores iniciales y algunas variables auxiliares pueden requerir un valor inicial aleatorio. Por ello, es necesario realizar ciertas acciones para que los modelos tengan la máxima reproducibilidad y el modelo se comporte igual en diferentes ejecuciones. Lo primero... Seguir leyendo →

Graph Neural Networks con PyTorch Geometric

En este post vamos a ver una introducción a las Graph Neural Networks (GNNs) y la librería PyTorch Geometric, que nos permite aplicar el deep learning a datos no estructurados, como grafos, empleando este tipo de modelos. Las GNNs permiten aplicar redes neuronales a grafos, teniendo en cuenta su estructura basada en nodos conectados entre... Seguir leyendo →

Mecanismos de atención y sistemas complejos

En posts pasados hemos visto cómo funcionan los mecanismos de atención y como han supuesto un fuerte avance en el campo del deep learning. En el cerebro, los mecanismos de atención permiten al cerebro centrarse en una parte de la entrada (imagen, texto, cualquier percepción) y darle menos atención a otras. Esta es una función muy importante... Seguir leyendo →

Nuevo libro de dinámica no-lineal y complejidad

La editorial Springer acaba de publicar un nuevo libro de dinámica no-lineal, caos y complejidad en memoria del Profesor Valentin Affraimovich. Valentin Affraimovich fue un gran matemático ruso que hizo grandes contribuciones a los sistemas dinámicos, teoría de bifurcaciones y sistemas caóticos con especial énfasis en sus aplicaciones a la biología. El libro presenta los... Seguir leyendo →

Servicio de entrenamiento en Google AI Platform

En un post pasado vimos como Google AutoML Tables permite implementar modelos de machine learning de manera automática y transparente sobre datos estructurados. En este post vamos a ver el servicio de entrenamiento de Google AI Platform, que permite seleccionar diferentes modelos para los trabajos de entrenamiento, habilitar el entrenamiento distribuido, ajustar hiperparámetros y acelerar... Seguir leyendo →

Google AutoML Tables

Desde hace años, Google lleva trabajando en la automatización del diseño de modelos de machine learning. Como describimos en un post anterior, primero automatizando la búsqueda de los meta-parámetros (modelo a usar, número de capas, función de optimización) y después empleando únicamente operaciones matemáticas simples como bloques para diseñar el modelo. Fruto de esos trabajos... Seguir leyendo →

Orgullosamente ofrecido por WordPress | Tema: Baskerville 2 por Anders Noren.

Subir ↑