Investigación sobre Redes Neuronales Recurrentes, LSTM y Series Temporales - GRUPO 05

Docente: Guerra Grados Luis Angel

Curso: Inteligencia Artificial

Logo UNMSM Placeholder

UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS

(Universidad del Perú, DECANA DE AMÉRICA)


FACULTAD DE INGENIERÍA DE SISTEMAS E INFORMÁTICA

E.A.P DE INGENIERÍA DE SISTEMAS

Redes Neuronales Recurrentes, LSTM y Series Temporales

Integrantes del Equipo

  • Chilon Monica
  • Gomez Cayo David Junior
  • Lanazca Saya Alex
  • Sanchez Uribe Pedro Fernando

Lima, Perú -

1. Limitaciones de las ANN para secuencias

Las Redes Neuronales Artificiales (ANN) tradicionales, como los Perceptrones Multicapa (MLP), procesan cada entrada de forma independiente. Esto significa que no tienen memoria de entradas pasadas, lo cual es una limitación fundamental cuando se trabaja con datos secuenciales como series temporales, texto o audio, donde el contexto y el orden son cruciales.

  • No pueden capturar dependencias temporales.
  • La longitud de entrada debe ser fija.
  • No comparten parámetros aprendidos a través de diferentes posiciones en la secuencia.
Diagrama ilustrando limitaciones de ANN para secuencias

Estas limitaciones hacen que las ANN no sean la arquitectura ideal para tareas como la predicción del próximo valor en una serie, la traducción automática o el modelado del lenguaje.

2. Introducción a las RNN y su funcionamiento

Las Redes Neuronales Recurrentes (RNN) están diseñadas específicamente para procesar secuencias de datos. A diferencia de las ANN, las RNN tienen conexiones recurrentes que les permiten mantener una "memoria" o estado interno que captura información sobre lo que ha sido procesado previamente en la secuencia.

Diagrama del funcionamiento de una RNN

En cada paso de tiempo (t), la RNN recibe una entrada (x_t) y el estado oculto del paso anterior (h_t-1). Con esta información, calcula la salida actual (o_t) y actualiza su estado oculto (h_t). Este estado oculto se pasa al siguiente paso de tiempo, permitiendo que la información fluya a través de la secuencia.

3. Aplicaciones y limitaciones de las RNN

Las RNN han demostrado ser muy efectivas en una amplia gama de aplicaciones que involucran datos secuenciales:

  • Procesamiento del Lenguaje Natural (NLP): Traducción automática, modelado del lenguaje, generación de texto, análisis de sentimientos.
  • Reconocimiento de Voz: Conversión de audio a texto.
  • Análisis de Series Temporales: Predicción de precios de acciones, pronóstico del clima.
  • Generación de Música y Video.
Ejemplos de aplicaciones de RNN

Sin embargo, las RNN simples (Vanilla RNNs) tienen limitaciones importantes:

  • Problema del Gradiente Evanescente/Explosivo: Dificultad para aprender dependencias a largo plazo.
  • Dificultad para capturar contextos largos.

4. Arquitectura de LSTM y GRU

Para abordar las limitaciones de las RNNs tradicionales, se desarrollaron arquitecturas como las Long Short-Term Memory (LSTM) y las Gated Recurrent Units (GRU).

Long Short-Term Memory (LSTM):

Las LSTMs introducen una celda de memoria y tres "compuertas" (gates) que regulan el flujo de información.

Diagrama de la arquitectura LSTM

Gated Recurrent Unit (GRU):

Las GRUs son una variante más simple, a menudo con rendimiento comparable y mayor eficiencia computacional.

Diagrama de la arquitectura GRU

5. Red LSTM para predicción de series temporales

Las redes LSTM son poderosas para la predicción de series temporales. El proceso incluye:

  1. Preparación de datos.
  2. Definición del modelo LSTM.
  3. Compilación y Entrenamiento.
  4. Evaluación y Predicción.
Ejemplo de Red LSTM para predicción

6. Informe Completo (PDF)

Aquí puedes obtener una vista previa de nuestro informe completo. Para una lectura más detallada, descarga el documento.

Si la vista previa no carga, puedes descargar el informe directamente.

7. Informe en Presentación (PPT)

Aquí puedes acceder a nuestra presentación en PowerPoint que resume los conceptos clave de nuestro proyecto:

Presentación PowerPoint

Resumen visual de nuestro proyecto sobre RNN, LSTM y Series Temporales

Ver Presentación

Tamaño: ~5MB | Formato: PPTX

8. Implementación Práctica

A continuación presentamos dos implementaciones prácticas de análisis de sentimientos utilizando redes neuronales recurrentes:

Análisis de Sentimientos LTS

Implementación de un modelo LSTM para análisis de sentimientos en series temporales de datos.

Abrir en Colab

Análisis de Sentimiento en Reseñas

Notebook de Google Colab que implementa una RNN para análisis de sentimientos en reseñas de películas.

Abrir en Colab

Nota sobre las implementaciones

Estas implementaciones demuestran aplicaciones prácticas de RNN y LSTM en el análisis de sentimientos. El primer caso utiliza series temporales, mientras que el segundo se enfoca en texto (reseñas de películas).