Programación orientada a objetos en PyTorch

En este post vamos a repasar algunos conceptos de programación orientada a objetos que son necesarios para comprender el funcionamiento de PyTorch. Recordemos que Python es un lenguaje orientado a objetos y que PyTorch hace uso de esta capacidad para hacer más fácil su uso. La programación orientada a objetos es un paradigma de programación... Seguir leyendo →

TensorBoard con PyTorch

Esta entrada es parte del curso de Deep learning con PyTorch. TensorBoard es una de las herramientas más potentes de visualización en machine learning. Permite realizar funciones interesantes como: Visualizar métricas como la pérdida y la exactitud.Visualizar los grafos creados por el modelo.Ver histógramas de los parámetros y como cambian en el tiempo.Ver imágenes y... Seguir leyendo →

Librería PyTorch-NLP para procesamiento de lenguaje

Esta entrada es parte del curso de Deep learning con PyTorch. En este post vamos a ver la librería PyTorch-NLP, una librería abierta para procesamiento de lenguaje natural basada en PyTorch y que viene con módulos interesantes de datasets, embeddings preentrenados, codificadores de texto, redes neuronales, etc. El paquete torchnlp.datasets tiene módulos para descargar, almacenar... Seguir leyendo →

Datasets y Dataloaders en PyTorch

Esta entrada es parte del curso de Deep learning con PyTorch. El módulo torch.utils.data de PyTorh tiene clases muy útiles para la carga de datos necesaria en los procesos de entrenamiento y validación. En este post vamos a ver dos de las clases más importantes, torch.utils.data.Dataset para albergar los datos y torch.utils.data.DataLoader para cargar los... Seguir leyendo →

Captum. Librería para interpretabilidad en PyTorch

Esta entrada es parte del curso de Deep learning con PyTorch. Captum es una librería de PyTorch para proporcionar interpretabilidad a los modelos de deep learning. Con la complejidad de los actuales modelos de deep learning, la interpretabilidad y explicabilidad de los modelos es clave. Los algoritmos de interpretabilidad de Captum se separan en tres... Seguir leyendo →

Fundamentos de PyTorch. LSTMs

Esta entrada es parte del curso de Deep learning con PyTorch. Una LSTM (Long short-term memory) es un tipo de red neuronal recurrente (RNN) muy usada en problemas con dependencia temporal, que se compone de una unidad de memoria y tres reguladores que controlan el flujo de información a la unidad de memoria, "input gate",... Seguir leyendo →

Curso Deep learning con PyTorch

PyTorch se está convirtiendo en un framework de referencia para la investigación, desarrollo e implementación de modelos de deep learning. Ofrece una serie de beneficios que lo convierten en un framework muy ágil, flexible y potente: Fácil de implementar, programar y depurar.Permite controlar al detalle las computaciones realizadas.Eficiencia en ejecución.Es imperativo, realizando las computaciones de... Seguir leyendo →

Fundamentos de PyTorch. Optimización

Esta entrada es parte del curso de Deep learning con PyTorch. En posts pasados hemos visto los tensores en PyTorch y el módulo de redes neuronales nn.module. En este vamos a ver todo el proceso de entrenamiento de una red neuronal: creación del modelo, procesamiento de la entrada a través del modelo, computar la pérdida... Seguir leyendo →

Fundamentos de PyTorch. Tensores

Esta entrada es parte del curso de Deep learning con PyTorch. Uno de los conceptos más frecuentes en machine learning es el de tensor. Un tensor es la generalización del concepto de vector utilizando el rango para definir el número de indices del tensor. Por ejemplo, un vector es un tensor de rango 1, una... Seguir leyendo →

Orgullosamente ofrecido por WordPress | Tema: Baskerville 2 por Anders Noren.

Subir ↑