Computación y algoritmos cuánticos

En los últimos años hemos visto un gran avance en la computación cuántica, tanto en la parte hardware con nuevos procesadores basados en iones atrapados, superconductores o fotónica, como en la parte software con nuevos algoritmos que intentar mejorar en eficiencia a los clásicos. Este avance ha llevado a que exista un elevado optimismo sobre... Seguir leyendo →

Algoritmos cuánticos y la estructura necesaria

En post forma parte de una serie de posts que describen los algoritmos cuánticos, su diferencia con los clásicos y qué estructura deben tener los problemas para que estos algoritmos puedan conseguir una mejora exponencial. ALGORITMOS CUÁNTICOS Y DIFERENCIA CON LOS CLÁSICOS Un algoritmo es una serie finita de instrucciones realizadas para resolver un problema... Seguir leyendo →

Introducción a los algoritmos cuánticos

En post forma parte de una serie de posts en la que vamos a ir comentando los algoritmos cuánticos, su diferencia con los clásicos y qué estructura deben tener los problemas para que estos algoritmos puedan conseguir una mejora exponencial. INTRODUCCIÓN A LA COMPUTACIÓN CUÁNTICA A continuación mostramos una serie de cuadernos sencillos (en inglés)... Seguir leyendo →

Curso Deep learning con PyTorch

Con el objetivo de divulgar el uso de PyTorch como herramienta de deep learning, hemos creado una serie de tutoriales para introducir PyTorch y sus principales módulos. A continuación se puede ver un listado con las partes del curso: Programación orientada a objetos en PyTorch.Tensores en PyTorch.Almacenamiento de tensores en PyTorch.Módulo de redes neuronales.Optimización en... Seguir leyendo →

Almacenamiento de tensores en PyTorch

Como hemos visto, los tensores son un elemento básico en PyTorch. Son los elementos de diferente rango (escalares, vectores, matrics, etc.) que contienen la información en PyTorch y sobre los que actúan los modelos. Sin embargo, a pesar de su rango y dimensiones, los tensores se almacenan en memoria en un array unidimensional de elementos... Seguir leyendo →

Hooks en PyTorch

En programación, nos referimos a un hook como el conjunto de técnicas que modifican o aumentan el comportamiento de un programa ante un evento. Esto suele usarse para depurar un programa o ampliar su funcionalidad. En PyTorch, un hook se puede registrar para el objeto tensor o para el objeto nn.module y los eventos que... Seguir leyendo →

Creando nuevas funciones en PyTorch

En este post de nuestro tutorial de deep learning con PyToch vamos a ver como extender PyTorch. Si quieremos implementar un nuevo módulo o función no disponible en las librerías de PyTorch tenemos varias opciones dependiendo del caso: Si queremos añadir primitivas clásicas (if, while,...) en un módulo, simplemente insertaremos las primitivas en el método... Seguir leyendo →

Reproducibilidad de los modelos en deep learning

En los modelos de deep learning puede haber varias fuentes de aleatoriedad. Los parámetros del modelo, algunos vectores iniciales y algunas variables auxiliares pueden requerir un valor inicial aleatorio. Por ello, es necesario realizar ciertas acciones para que los modelos tengan la máxima reproducibilidad y el modelo se comporte igual en diferentes ejecuciones. Lo primero... Seguir leyendo →

Orgullosamente ofrecido por WordPress | Tema: Baskerville 2 por Anders Noren.

Subir ↑