En posts anteriores vimos como las representaciones distribuidas permiten extraer mucha información de las palabras y mejorar el rendimiento de las aplicaciones de procesamiento de lenguaje natural. Uno de los modelos más usados es Word2vec, creado en 2013 por Tomas Mikolov en Google, que se basa en redes neuronales de varias capas y tiene dos... Seguir leyendo →
Word2vec, representaciones distribuidas en procesamiento de lenguaje
En un post anterior vimos como el uso de representaciones distribuidas en procesamiento de lenguaje natural permite extraer mucha más información y realizar un procesado más eficiente que las representaciones locales. El objetivo de las representaciones distribuidas del lenguaje es encontrar una función f que sea capaz de convertir cada palabra en un vector de... Seguir leyendo →
Representaciones distribuidas para procesamiento de lenguaje natural
En un post anterior vimos la importancia de las representaciones distribuidas en machine learning y cómo permiten captar la estructura estadística y los factores que explican la variación de los datos. En el procesamiento del lenguaje natural también es muy importante cómo representemos el texto ya que nos condicionará el proceso de aprendizaje. La representación... Seguir leyendo →
Importancia de las representaciones distribuidas
Una de las claves del éxito del Deep Learning ha sido la capacidad de las redes neuronales con muchas capas de extraer representaciones distribuidas de los datos y de esa forma facilitar el proceso de entrenamiento y aprendizaje. Estas representaciones distribuidas permiten captar la estructura estadística y los factores que explican la variación de los... Seguir leyendo →