Introducción
La presente investigación se enfoca en el tema de la inflación y el crecimiento económico y su modelo a través de técnicas de Machine Learning, este es un tema de interés dado que la inflación es un indicador de los caminos en los precios de los bienes y servicios que en el caso de México se mide a través de la variación que presenta el Índice de Precios al Consumidor (INPC); mientras que el crecimiento económico se puede medir a través del aumento en la producción de bienes y servicios (Mendoza, 2019), que es la variación del Producto Interno Bruto (PIB) a través del tiempo, ambos aspectos influyen de manera considerable en el proceso de desarrollo económico dada su influencia que adquieren en la determinación del nivel de vida de la población (mayor empleo, salarios más altos y un mayor poder adquisitivo), en cada país.
En este sentido, se plantea la siguiente pregunta: ¿Qué relación existe entre estas variables? Empíricamente se puede mostrar que la inflación y el crecimiento económico están relacionados de varias maneras. En general se espera que una economía en crecimiento experimente una mayor inflación debido a una mayor demanda de los bienes y servicios (Sánchez, 1997). Sin embargo, también existe la posibilidad de que una inflación muy alta puede desacelerar el crecimiento económico, ya que puede disuadir a las empresas de invertir a las personas de gastar, lo que puede llevar a una contradicción entre el consumo y la producción.
Por otro lado, una inflación baja o controlada puede ser beneficiosa para el crecimiento económico, ya que puede fomentar la confianza de los consumidores y las empresas, promover la inversión el consumo (Harnecker, 1987). Sin embargo, es importante tener en cuenta que el crecimiento económico y la inflación son dos factores deben equilibrarse adecuadamente. Un crecimiento económico demasiado lento puede dificultar el aumento de los salarios y el bienestar de la población.
En relación con lo anterior, la hipótesis de la investigación es: que el modelo de LSTM, al tener una mayor capacidad de capturar relaciones no lineales y patrones de largo plazo, por lo que superar al modelo ARIMA en la presión de la predicción. Por lo que se espera que la capacidad del modelo de red neuronal LSTM pueda aprender de mejor manera las secuencias temporales que presentan las series y esto impacte de manera significativa el resultado de la predicción en comparación del enfoque tradicional, específicamente en los modelos ARIMA para este caso de estudio.
La investigación plantea utilizar como método de análisis los modelos de redes neuronales, específicamente la Red de Memoria a Corto Plazo LSTM (por sus siglas en ingles Long Short - Term Memory) para la predicción de series de tiempo y adicionalmente se busca comparar los resultados con un modelo ARIMA (Promedio Móvil Integrado Regresivo Automático), el cual dentro de la presente investigación se le denominara un modelo clásico.
La economía que se estudia es la mexicana en el periodo de 1990 a 2020, dado que en este periodo de tiempo ocurrieron diversos acontecimientos que tuvieron impacto dentro de la economía antes mencionada.
La inflación es un fenómeno que se presenta en todos los países y se define como el aumento generalizado de precios de los bienes y servicios de una economía (Phelps, 1968). Los bancos centrales se encargan de monitorear el comportamiento de las tasas de inflación, bajo el argumento de que, aumentos considerables del nivel general de precios pueden tener efectos negativos, como la disminución del poder adquisitivo, reducción del consumo y la inversión, entre otros.
Existen diferentes teorías sobre la inflación, con posturas sobre las causas y consecuencias de la inflación que en algunos casos coinciden y en otros divergen. Entre las teorías más destacadas se encuentran la teoría monetaria o cuantitativa del dinero, la teoría keynesiana y el planteamiento conocido como la curva de Philips.
La teoría cuantitativa del dinero desarrollada por Irving Fisher establece la existencia de una relación entre la cantidad de dinero y los precios, expresada matemáticamente: ecuación 1
El planteamiento establece que la cantidad de dinero, M, multiplicada por la velocidad de circulación del dinero, que se asume constante, es igual al producto nominal, es decir, al producto real,
(o al volumen de transacciones, que también se asume constante, multiplicado por el nivel de precios, P (Argandoña, 2020).
En su teoría general, Keynes (2003) plantea que la inflación obedece a la existencia de un exceso de demanda agregada en la economía (área sombreada en color azul, en la figura 1).
Dentro de la teoría keynesiana se encuentra el Aspa Keynesiana la cual Mankiw (2014) menciona que, en la Teoría General, Keynes propuso que la renta total de una economía era determinada a corto plazo principalmente por el deseo de gastar de los hogares, las empresas y el Estado. El aspa keynesiana es un intento de plasmar esta idea en un modelo.
El gasto planeado EP se compone del Consumo (C), Inversión (I) y comparas del Estado (G). Matemáticamente la identidad se plantea ecuación 2:
La función el consumo depende del nivel de ingresos, es decir el ingreso disponible (Y-T), donde Y es el ingreso y T son los impuestos. Dentro del modelo del Aspa las demás variables permanecen constantes y la identidad queda de la siguiente manera: ecuación 3
La situación de equilibrio se da cuando el gasto planeado es igual al gasto efectivo: Y= EP Gráficamente el gasto efectivo se representa con una recta de 45 grados, donde cortan la curva de gasto planeado con el gasto efectivo se localiza el punto de equilibrio (Z * ). Ver figura 1.
El modelo IS-LM se compone de dos curvas: IS representa el equilibrio en el mercado de bienes y servicios y la LM representa el equilibrio en el mercado de dinero.
La curva LM representa las combinaciones de tasas de interés y niveles de la producción, de tal modo que la demanda de dinero sea igual a su oferta (Dornbush et al., 2018). Para entender esta relación es necesario entender la teoría de preferencia por la liquidez.
La teoría de la preferencia por la liquidez postula que la tasa de interés se ajusta para equilibrar la oferta y demanda de dinero. Si, en principio, se plantea que la oferta de saldos monetarios reales como M/P (donde M representa la oferta monetaria y P el nivel de precios), la teoría de la preferencia por la liquidez supone que hay una oferta fija de saldos reales: ecuación 4
La curva LM resume esta relación entre el nivel de renta y el tipo de interés. Cada punto de la curva LM representa el equilibrio del mercado de dinero y la curva muestra que el tipo de interés de equilibrio depende del nivel de renta. Cuanto más alto es el nivel de renta, más elevada es la demanda de saldos monetarios reales y más alto es el tipo de interés de equilibrio. Por este motivo, la curva LM tiene pendiente positiva (Mankiw, 2014).
La teoría cuantitativa del dinero muestra la relación directa entre la oferta de dinero y los niveles de precios, sin embargo, esta explicación es parcial, pues bien es verdad que el aumento en la oferta monetaria genera un incremento en los precios, pero también se deben a otros factores como se explica en la teoría keynesiana donde las presiones inflacionarias se originan por el exceso en la demanda agregada derivada de cambios en la política fiscal.
En segundo lugar, la curva de Philips describe la relación entre la inflación y desempleo, sin embargo, esta relación no siempre se cumple y puede ser diferente para ciertos periodos y países, lo que muestra que hay más factores que influyen en la inflación.
En cuanto a los modelos de crecimiento el modelo de Solow-Swan resalta la importancia de acumulación de capital y el progreso tecnológico como factores del crecimiento económico. En cambio, el modelo de Harrod-Domar se enfoca en la inversión como factor del crecimiento.
El análisis del modelo de la balanza comercial revela la importancia de las exportaciones y las importaciones en la economía de un país. Donde un signo positivo en las exportaciones netas, es decir, un superávit tiene efectos positivos para la economía estimulando el crecimiento, caso contrario cuando el signo es negativo, es decir, un déficit la economía desestimula el crecimiento.
Por último, el análisis y estudio de las diferentes teorías y modelos planteados en este capítulo proporciona las herramientas teóricas para comprender y analizar los diferentes factores influyen dentro de una economía.
Materiales y métodos
El estudio es descriptivo y analítico, que se sustentan métodos estadísticos del modelo de ARIMA. Se entiende como redes neuronales artificiales las redes computacionales que intentan simular, de manera agresiva, las redes de células nerviosas (neuronas) del sistema nervioso central biológico (humano, animal). Esta simulación es una simulación global célula por célula (neurona por neurona, elemento por elemento) (Graupe, 2007).
Las redes neuronales son herramientas novedosas porque intentan simular el comportamiento del cerebro humano, estos nuevos mecanismos ofrecen “una amplia gama de problemas permitiendo tratar problemas difíciles o imposibles de resolver mediante métodos tradicionales su aplicación se ha extendido a problemas de predicción, clasificación reconocimiento y, en general, a problemas que no pueden ser descritos de forma exacta” (Gómez, 2011).
Dentro de las arquitecturas de redes neuronales existen diferentes, los cuales buscan adaptarse a problemas específicos dependiendo su arquitectura. Por mencionar algunas están las redes neuronales artificiales que son “sistemas de procesamiento de información inspirados en la construcción matemática de las neuronas humanas” (Sánchez Zurdo, 2022). Las redes neuronales convolucionales las cuales “han tratado de implementarse en el ámbito financiero a pesar de que normalmente se empleen para tareas como el reconocimiento facial o la conducción autónoma” (Sánchez Zurdo, 2022). Las redes neuronales recurrentes RNN por sus siglas en ingles Recurrent Neural Networks que son “ampliamente consideradas como la arquitectura óptima en problemas relacionados con series temporales como la cotización de las acciones” (Sánchez Zurdo, 2022).
Para fines de este trabajo en la arquitectura de redes neuronales recurrentes, en adelante RNN, los cuales tienen a su vez diferentes topologías.
Arana (2021) define a las RNN como “una clase de aprendizaje profundo basada en los trabajos de David Rumelhart en 1986. Las RNN son conocidas por su capacidad para procesar y obtener información de datos secuenciales”. Martínez (2021) menciona que las RNN “abordan el problema de la perdida de conceptos a lo largo de un entrenamiento prolongado, creando una cierta persistencia en el modelo”.
En la Figura 2 se puede apreciar el bucle que genera una entrada de x t al generar una salida de h t .
Las diferentes topologías con las que cuentas las RNN se definen del problema que trata de resolver. Long-Short Term Memory (LSTM) son una extensión de las redes neuronales recurrentes, que básicamente amplían su memoria para aprender de experiencias importantes que han pasado hace mucho tiempo (Torres, 2019).
Este modelo tiene en vez de tener una sola celda de red neuronal cuenta con cuatro celdas las cuales interactúan.
La puerta llamada forget gate la cual se representa bajo la siguiente ecuación 5,
la puerta input gate la cual se escribe bajo la siguiente
, la puerta tan h la cual crea nuevos valores
bajo la siguiente formula
y por último la puerta output gate la cual se representa bajo la siguiente formula
Las puertas en una LSTM son análogas a una forma sigmoide, lo que significa que van de 0 a 1 en la forma que hemos visto en capítulos anteriores. El hecho de que sean análogas a una función de activación sigmoidal como las vistas anteriormente, permite incorporarlas (matemáticamente hablando) al proceso de Back propagation (Torres, 2019).
El modelo ARIMA es la abreviatura de (Promedio Móvil Integrado Regresivo Automático), este modelo se caracteriza porque explica a la serie de tiempo con sus valores pasados.
Un modelo ARIMA se compone de tres términos p, d, q en donde 𝑝 es el orden del término AR; q es el orden del término MA; d es el número de diferencias para que la serie sea estacionaria. Cuando las series presentan patrones estacionales, podemos emplear modelos SARIMA, que es modelo ARIMA Estacional.
El modelo autorregresivo de orden p es el que se determina “de la observación inmediatamente anterior (modelo autorregresivo de primer orden) o a partir de las observaciones que le preceden (modelo autorregresivo de segundo orden)” (UNAM, s.f), expresándolo matemáticamente (ecuación 9):
En donde Yt-1 es el valor de rezagó y el coeficiente de los rezagos.
El modelo de medias móviles de orden q está determinado por “observaciones conocidas por los impulsos aleatorios de las observaciones anteriores” (UNAM, s.f), al expresarlo matemáticamente (ecuación 10):
Donde los términos de error son los provenientes de los errores de los modelos autorregresivos.
El modelo autorregresivo de medias móviles ARMA es la combinación de las dos estructuras anteriores modelo autorregresivo y de medias móviles, por lo que tenemos una ecuación 11 de la siguiente manera (Torres, 2019):
Para el modelo autorregresivo integrado de medias móviles ARIMA la expresión matemática (ecuación 12) se puede describir de la siguiente manera:
Para identificar los componentes que conforman al modelo ARIMA, se realizan diferentes pruebas. Y la estacionariedad con la prueba Dickey Fuller Aumentada en la cual mediante las pruebas de hipótesis se busca rechazar la hipótesis nula la cual señala que la serie presenta raíz unitaria y no es estacionaria, la hipótesis es rechazada cuando el valor de P es menor que 0.05. En caso de que sea mayor se debe aplicar diferenciaciones hasta encontrar la estacionariedad. Para identificar los términos AR y MA uno se debe apoyar del grafico de Autocorrelación Parcial y del grafico de Autocorrelación, respectivamente.
Resultados y discusión
Para la construcción y aplicación de los modelos se utilizó el lenguaje de programación Python a través del entorno de programación de Visual Studio Code.
Los datos que se utilizaran en el presente estudio fueron obtenidos de fuentes confiables. Los datos de la inflación y crecimiento económico se obtuvieron del Banco de Información Económica del INEGI (2023), la inflación cuanta con una periodicidad mensual, mientras que el crecimiento económico tiene una periodicidad trimestral. Los datos de inflación y crecimiento se encuentran reportados en porcentajes.
En cuanto a las demás variables que son tipo de cambio, tasa de interés, y cuenta corriente se obtuvieron del Sistema de Información Económica del Banco de México (2013), el tipo de cambio y la tasa de interés presentan una periodicidad diaria, en cuanto a los datos de cuenta corriente presentan una periodicidad trimestral. Los datos de tipo de cambio se encuentran en unidades de peso por dólar, la tasa de interés se encuentra reportada en porcentaje, en cuanto a la cuenta corriente está en millones de dólares.
Para poder trabajar de manera adecuada con todos los datos se realizaron transformaciones a los datos de inflación, tipo de cambio y tasa de interés que originalmente tenían una frecuencia mensual y diaria respectivamente. Este proceso se realizó utilizando código de Python para hacer las transformaciones. Por su parte se generó la variación en que incrementa la cuenta corriente con el objetivo de tener los datos en una misma unidad de medida.
Los datos transformados y aquellos que no presentaron transformaciones abarcan el mismo periodo de tiempo de 1990 a 2021. La tabla 1 muestra la descripción del conjunto de datos y la figura 3 muestra el comportamiento de las variables.
Modelo ARIMA. Para la construcción de este modelo se utilizó una función de denominada autoarima, que permite identificar el mejor AIC para las diferentes combinaciones posibles, cabe resaltar que el modelo se hizo para cada variable, los cuales se muestran en las figuras 4 y 5.
Modelo LSTM. Para la construcción de este modelo se inició con una llamada a los datos y preparándolos para los primeros procesos que se utilizaron para el modelo.
Como primer punto se tiene que dar un preprocesamiento en los datos una etapa fundamental en la minería de datos que cosiste en diferentes técnicas como son la limpieza de datos, transformación en los datos, estandarización y normalización, entre otras. Estos procesos se realizaron con anterioridad, la siguiente parte dentro de este preprocesamiento, está la división de los datos.
Esta división cosiste en crear subconjuntos para entrenar y validar el modelo los cuales se identifican como train, y test respectivamente. Este proceso se realiza con la intención de medir el desempeño del modelo con datos que no ha visto (test) durante su entrenamiento (train). La proporción de esta división suele ser entre un 70-30 o 80-20, donde la parte grande corresponde al entrenamiento y la pequeña a la prueba.
Dadas las características de las series con las que contamos se construyó una función para realizar dicho proceso dividiendo la serie en 80-20 quedando de la siguiente manera:
Donde los primeros números 96 y 25 indican la cantidad de datos que contiene las variables haber sido divididas y el número 5 la cantidad de variables con las que se cuenta.
Lo siguiente es crear un data set supervisado la cual genera arreglos para X y Y que se presentaran al modelo para el entrenamiento y validación de los datos, este set datos se genera para las dos particiones antes mencionadas que son train y test.
El set de entrada se compone de la dimensión batches x input_length x features, donde batches es la cantidad de lotes los cuales se ha dividido la serie, input_length es la cantidad de datos consecutivos que es este caso es de 4, features que es la cantidad de variables que se presentan. El set de salida se compone de la dimensión batches x output_length x features, donde batches es la cantidad de lotes los cuales se ha dividido la serie y debe ser igual al de entrada, output_length es la cantidad de instantes a predecir que se ha definido como 10, features en este caso es la cantidad de variables a predecir.
El escalamiento de datos es un paso importante para la construcción del modelo lo cual busca generar que los brincos para así denotarlos no sean tan grandes, es decir, que, si presenta un dato de 5 y el siguiente inmediato es de 2, puede generar que el modelo mal interprete esta diferencia que hay entre estos dos datos de ejemplo, por lo que al escalar los datos en un rango siguen conservando el tamaño original solo que ahora se representa en otra escala.
Por lo cual derivado de lo anterior se genera una función que nos permitirá escalar los datos al buscar los valores máximos y mínimos y tenerlos en una escala de -1 a 1, esto se debe de generar para cada variable que vayamos a predecir.
Con esto último se prepara el código que genera el modelo.
A través del entorno de programación se utiliza un código que crea y entrena un modelo de red neuronal recurrente (LSTM) para realizar una regresión que consiste en predecir los valores, a continuación, se explica la funcionabilidad del código, cabe señalar que el proceso para cada variable es igual, donde se hace la modificación a la variable a predecir es en la función de escalamiento.
Primero: Se establecen parámetros para la reproducibilidad en el entrenamiento de la red utilizando Tensor Flow.
Segundo: Se definen constantes que se utilizaran en el modelo con la variable “N_UNITS” donde se establece tamaño del estado oculto y la celda de memoria de la capa LSTM, y “INPUT_SHAPE” establece las dimensiones de datos de entada de 4 X 5 donde 4 números consecutivos y 5 las variables a utilizar.
Tercero: Se construye el modelo donde con la función “Sequential” la cual permite apilar capas de manera lineal, utilizando las variables definidas en el paso anterior.
Cuarto: Se le agrega una capa densa al modelo con la función “Dense” con la variable “OUTPUT_LENGTH” que se había definido anteriormente, y la activación “linear” la que hace que el modelo se optimo para una regresión.
Quinto: Se genera una función la cual calcula la raíz del RMSE entre las predicciones, la función sirve para definir la perdida durante el entrenamiento.
Sexto: Se compila el modelo, para lo cual se optimizador “RMSprop” con una tasa de aprendizaje de “5e-4”, se establece la perdida con la función generada en el paso anterior.
Séptimo: Se definen los hiperparametros “EPOCHS” y “BATCH_SIZE” que representan el número de épocas y el tamaño del lote respectivamente.
Octavo: Se entrena al modelo “modelo”, “modelo1” los cuales son para cada variable que intentamos predecir, es decir, inflación y crecimiento respetivamente, para dicho entrenamiento se utilizan los datos de entrenamiento en “x_tr_s” y “y_tr_s” así como los hiperparametros establecidos en el paso anterior. Se validan con los datos de prueba “x_ts_s” y “y_ts_s”. Los resultados se almacenan en el objeto “historia” que se estableció.
Para los modelos ARIMA se utilizó una función de AutoARIMA la cual permite identificar el mejor AIC después de probar diferentes combinaciones en los diferentes términos que conforman al modelo ARIMA, los resultados se muestran en las figuras 4 y 5.
En esta figura todos los parámetros son significativos por lo que el modelo tiene mejor aceptación para la inflación es el modelo ARIMA (2,1,0). Para la variable de crecimiento económico y se puede identificar que el modelo optimo es (1,0,0).
En base a que ya se tienen los resultados del modelo ARIMA se elabora el pronóstico, el cual contempla dos gráficas, la primera una para ver cómo se ajusta el modelo con respecto a los valores reales y una segunda que nos da la proyección para la cual se está elaborando el pronóstico las cuales se pueden apreciar en las figuras 6, 7, 8 y 9.

Fig. 6 - Comparación de la serie original y la serie ajustada Auto ARIMA para la inflación.

Fig. 7 - Comparación de la serie original y la serie ajustada Auto ARIMA para el crecimiento económico.

Fig. 8 - Pronóstico de crecimiento económico con Auto ARIMA Tendencia al 2030.
Para el caso del modelo LSTM su construcción implico programarlo dentro del entorno antes mencionado, del cual se obtuvo en las figuras 10, 11, 12 y 13.

Fig. 10 - Comparación de la serie original y la serie ajustada por LSTM para la inflación.

Fig. 11 - Comparación de la serie original y la serie ajustada por LSTM para el crecimiento económico.

Fig. 13 - Pronóstico del crecimiento económico con LSTM tendencia al 2030
Por último, se realizan gráficas (figura 14 y 15) en donde se comparan las proyecciones de los resultados obtenidos por el pronóstico.

Fig. 14 - Comparación de los pronósticos ARIMA y LSTM para la inflación Tendencia al 2030.

Fig. 15 - Comparación de los pronósticos ARIMA y LSTM para el crecimiento económico Tendencia al 2030.
Es importante recordar que el nivel de RMSE para los modelos de LSTM es 0.159 para ambos casos inflación y crecimiento de train, y 0.234 para la inflación y 0.230 para el crecimiento, cuando para los modelos de ARIMA se tiene un 0.557 para la inflación y para el crecimiento es de 3.417.
Esto indica que el modelo LSTM, presenta un mayor grado de aceptación al momento del pronóstico.
La presente investigación ha considerado diversos aspectos, como son la revisión teórica e histórica, implementación de modelos con los cuales se tiene una visión sobre la tendencia que se espera para el país.
De las diversas teorías que se analizaron en cuanto la inflación y el crecimiento económico para entender sus factores que las determinan se tiene en primer lugar, que la inflación no solo se ve relacionada con los cambios en la política monetaria, esto como nos los explican la teoría cuantitativa del dinero, sino que también contribuyen otros factores como se menciona en la teoría keynesiana, donde se argumenta que estos factores se deben al exceso de demanda agregada derivada de los cambios en la política fiscal. En segundo lugar, la revisión sobre el crecimiento económico centra dos factores importantes dentro de los determinantes de este, la importancia de la acumulación de capital y progreso técnico, la inversión tal y como se describen en los modelos de Solow-Swan y Harrod-Domar, otro de los factores importantes es la importancia de la apertura comercial, es decir, como influyen las exportaciones netas al crecimiento económico. Estos resultados se relacionan con la descentralización de recursos (Ugarte y Bolivar, 2018) en este contexto, y la atención específica a áreas rurales remotas son elementos esenciales para fomentar un desarrollo inclusivo y sostenible en todo el país.
En este sentido se observa que las diversas teorías y modelos brindan herramientas que permiten entender cómo funcionan, sin embargo, estos postulados son incompletos o solo observan una parte del problema y no lo general, por lo que es reiterativo entender que, aunque cada postulado teórico tiene fortalezas y debilidades en su conjunto muestran el panorama más completo sobre los procesos económico y como sus interacciones entre estas influyen más en unas variables que en otras.
Pero el panorama general, no siempre se adapta a lo que se escriben en estos postulados, por lo que entender cómo se relaciona la inflación y crecimiento económico, también debe incluir una revisión histórica que permita ver como se comportaron estas variables, dado que la situación para cada país puede ser diversa para cada caso específico. Particularmente se estudió el caso de México en un periodo que abarca de 1982 al 2021, donde ocurrieron diversos eventos y cambios que han dado forma al desarrollo económico de la nación, la evidencia emperica que se tiene mostro que las variables objeto de estudio se ven afectadas específicamente en el mayor de los casos por factores externos e internos, es decir, que al ver los datos en una gráfica su comportamiento se da en momentos específicos de crisis eventos, que toman un lugar en diferentes partes del tiempo a lo largo de la historia, esto dentro del periodo antes señalado.
En general la historia económica de México dentro del periodo de 1980 al 2021 ofrece diferentes lecciones sobre logros, desafíos y perspectivas de desarrollo económico para el país. Donde la política económica futura deberá considerar diversos aspectos como lo son el crecimiento inclusivo y sustentable, para mejorar la dinámica del país.
En este contexto el análisis de estos dos puntos fue indispensable para poder considerar más variables en el estudio del modelo, para poder tener mayor precisión en el modelo LSTM, que una de sus fortalezas es que puede incluir más variables que permitan entender mejor a la variable que se considerada para la proyección.
También es importante mencionar, que las proyecciones pueden diferir de la realidad al futuro, dado que la situación actual global presenta demasiados cambios e incertidumbre que puede impactar de manera negativa o positiva, esto se señala dado que los factores externos son clave en el comportamiento de las variables, como se observa a través de la historia.
Las observaciones antes señaladas podrían explorarse o investigarse más afondo para investigaciones futuras, partiendo del mismo tema de investigación, también se puede señalar que el modelo LSTM tiene mayores capacidades por lo que puede ser utilizado en otras áreas para predecir valores sobre otros datos, como lo son en las finanzas, climatología, esto por mencionar algunas, lo cual contrasta con los resultados de la investigación de Baena (2023) donde la elección de la arquitectura LSTM y el uso del error cuadrático medio (MSE) demostraron ser herramientas efectivas en la evaluación de las predicciones generadas.
Conclusiones
La hipótesis planteada en la investigación fue aceptada, dado que los modelos de LSTM obtuvieron un mejor desempeño en comparación a los modelos ARIMA, esto se puede observar en las gráficas, dado que la proyección del modelo ARIMA al ser trazado es una línea recta donde la variación es mínima sin ningún cambio, y en el modelo LSTM su comportamiento fue más adecuado dado que si capta el patrón estacional de las series.
Dentro del modelo ARIMA faltó considerar en el modelo los valores estacionales, es decir hacer la transformación aun modelos SARIMAX, el cual contempla estas trasformaciones a la serie. Por el otro lado el modelo LSTM para mejorar su desempeño, pueden tenerse varias consideraciones, primero el contemplar más variables que pueden repercutir en las fluctuaciones de la inflación y el crecimiento económico, segundo es el contemplar la variable de tiempo, es decir escalar y transformar la columna donde se contiene la fecha, tercero modificar los hiperparámetros del modelo al aumentarlos o disminuirlos, para encontrar donde se obtiene un mejor desempeño.