Blog

Algoritmos cuánticos y la estructura necesaria

En post forma parte de una serie de posts que describen los algoritmos cuánticos, su diferencia con los clásicos y qué estructura deben tener los problemas para que estos algoritmos puedan conseguir una mejora exponencial. ALGORITMOS CUÁNTICOS Y DIFERENCIA CON LOS CLÁSICOS Un algoritmo es una serie finita de instrucciones realizadas para resolver un problema... Seguir leyendo →

Introducción a los algoritmos cuánticos

En post forma parte de una serie de posts en la que vamos a ir comentando los algoritmos cuánticos, su diferencia con los clásicos y qué estructura deben tener los problemas para que estos algoritmos puedan conseguir una mejora exponencial. INTRODUCCIÓN A LA COMPUTACIÓN CUÁNTICA A continuación mostramos una serie de cuadernos sencillos (en inglés)... Seguir leyendo →

Almacenamiento de tensores en PyTorch

Como hemos visto, los tensores son un elemento básico en PyTorch. Son los elementos de diferente rango (escalares, vectores, matrics, etc.) que contienen la información en PyTorch y sobre los que actúan los modelos. Sin embargo, a pesar de su rango y dimensiones, los tensores se almacenan en memoria en un array unidimensional de elementos... Seguir leyendo →

Hooks en PyTorch

En programación, nos referimos a un hook como el conjunto de técnicas que modifican o aumentan el comportamiento de un programa ante un evento. Esto suele usarse para depurar un programa o ampliar su funcionalidad. En PyTorch, un hook se puede registrar para el objeto tensor o para el objeto nn.module y los eventos que... Seguir leyendo →

Creando nuevas funciones en PyTorch

En este post de nuestro tutorial de deep learning con PyToch vamos a ver como extender PyTorch. Si quieremos implementar un nuevo módulo o función no disponible en las librerías de PyTorch tenemos varias opciones dependiendo del caso: Si queremos añadir primitivas clásicas (if, while,...) en un módulo, simplemente insertaremos las primitivas en el método... Seguir leyendo →

Reproducibilidad de los modelos en deep learning

En los modelos de deep learning puede haber varias fuentes de aleatoriedad. Los parámetros del modelo, algunos vectores iniciales y algunas variables auxiliares pueden requerir un valor inicial aleatorio. Por ello, es necesario realizar ciertas acciones para que los modelos tengan la máxima reproducibilidad y el modelo se comporte igual en diferentes ejecuciones. Lo primero... Seguir leyendo →

Graph Neural Networks con PyTorch Geometric

En este post vamos a ver una introducción a las Graph Neural Networks (GNNs) y la librería PyTorch Geometric, que nos permite aplicar el deep learning a datos no estructurados, como grafos, empleando este tipo de modelos. Las GNNs permiten aplicar redes neuronales a grafos, teniendo en cuenta su estructura basada en nodos conectados entre... Seguir leyendo →

Mecanismos de atención y sistemas complejos

En posts pasados hemos visto cómo funcionan los mecanismos de atención y como han supuesto un fuerte avance en el campo del deep learning. En el cerebro, los mecanismos de atención permiten al cerebro centrarse en una parte de la entrada (imagen, texto, cualquier percepción) y darle menos atención a otras. Esta es una función muy importante... Seguir leyendo →

Nuevo libro de dinámica no-lineal y complejidad

La editorial Springer acaba de publicar un nuevo libro de dinámica no-lineal, caos y complejidad en memoria del Profesor Valentin Affraimovich. Valentin Affraimovich fue un gran matemático ruso que hizo grandes contribuciones a los sistemas dinámicos, teoría de bifurcaciones y sistemas caóticos con especial énfasis en sus aplicaciones a la biología. El libro presenta los... Seguir leyendo →

Orgullosamente ofrecido por WordPress | Tema: Baskerville 2 por Anders Noren.

Subir ↑