Autograd, clave de la flexibilidad de PyTorch

En los últimos dos años hemos visto como PyTorch, el framework basado en Torch para Deep Learning creado por Facebook, está siendo una alternativa potente a Tensorflow. Una de las principales ventajas de PyTorch es que es un framework imperativo, en el que las operaciones/computaciones se van realizando conforme se ejecuta el programa. Tensorflow es... Seguir leyendo →

Spark para Machine learning en Google Colab

Con el incremento en la cantidad de datos y procesamiento en los últimos años, se ha hecho necesario disponer de nuevos paradigmas de computación paralela que permitan repartir la carga de procesamiento en múltiples máquinas mejorando así la eficiencia del proceso. Fruto de esta necesidad surgió MapReduce y Apache Spark, una extensión de este. Spark... Seguir leyendo →

Las GPUs y el machine learning

Uno de los factores que más ha impulsado el deep learning en los últimos años ha sido el uso de las GPUs (graphics processing unit) para acelerar el entrenamiento y despliegue de los algoritmos. Las GPUs son circuitos electrónicos, popularizadas por Nvidia y especializadas en procesado de imágenes y gráficos. Cuentan con una estructura paralela... Seguir leyendo →

Solución al problema P vs NP?

La complejidad computacional es la rama de la computación que estudia la clasificación de los problemas computacionales de acuerdo a su dificultad y los recursos necesarios para resolverlos. Trata de clasificar los problemas que pueden o no pueden ser resueltos con una cantidad determinada de recursos. Los recursos computacionales más utilzados son cuántos pasos y... Seguir leyendo →

Orgullosamente ofrecido por WordPress | Tema: Baskerville 2 por Anders Noren.

Subir ↑