Optimización Inteligente

Inventarios en el Fraccionamiento Vitivinícola: Un Enfoque Híbrido Mediante Machine Learning y Simulación DEVS.

Guadalupe Coronel guadalupecoronelalva@gmail.com http://themys.sid.uncu.edu.ar (Instituto de Ingeniería Industrial - Universidad Nacional de Cuyo)https://www.uncuyo.edu.ar
2026-04-06

Abstract

La gestión de inventarios en la industria vitivinícola enfrenta el desafío crítico de sincronizar la disponibilidad de insumos con una demanda altamente dinámica y estacional. El presente trabajo aborda la problemática del sobreinventario y los quiebres de stock en las líneas de fraccionamiento que operan bajo condiciones de incertidumbre. Históricamente, la literatura ha dependido de modelos determinísticos y, más recientemente, de enfoques estadísticos univariados para la planificación de requerimientos. Sin embargo, estas aproximaciones resultan insuficientes ante la volatilidad del mercado actual. En respuesta, se propone un marco metodológico híbrido que integra algoritmos de Inteligencia Artificial (Machine Learning) para el pronóstico de demanda multivariable, acoplados a una arquitectura de Simulación de Eventos Discretos (DEVS). Mediante el modelado de un escenario productivo, se demuestra que la transición hacia sistemas predictivos supera las limitaciones de los métodos tradicionales. Los resultados proyectados indican que esta sinergia metodológica permite anticipar fluctuaciones complejas, mitigar el riesgo de obsolescencia y optimizar la inmovilización de capital, garantizando la continuidad operativa de la bodega.

Palabras clave: Gestión de Inventarios, Industria Vitivinícola, Inteligencia Artificial, XGBoost, SARIMA, Simulación DEVS, Pronóstico de Demanda.

Introducción

En el escenario económico contemporáneo, la competitividad de la industria manufacturera depende intrínsecamente de la eficiencia de sus procesos de planificación y control operativo. Particularmente en sectores con alta variabilidad estacional y ciclos productivos complejos, como los observados en la industria vitivinícola, la gestión de inventarios representa un factor crítico de éxito. Dentro de la operatividad de una bodega, la etapa de fraccionamiento constituye un nodo donde convergen múltiples flujos de materiales. La sincronización entre la demanda de productos terminados y la provisión de insumos secos dependientes exige un nivel de precisión analítica que los enfoques de reposición tradicionales ya no pueden sostener.

Durante décadas, la administración de inventarios se cimentó sobre modelos determinísticos, siendo la Cantidad Económica de Pedido (EOQ) el paradigma dominante. El modelo EOQ presupone un ecosistema estático, asumiendo tasas de demanda constantes y tiempos de reabastecimiento invariables. La imposición de estas restricciones teóricas sobre una realidad dinámica genera una pérdida drástica de realidad, lo que se traduce en paralizaciones costosas de la línea por falta de componentes o, de manera opuesta, en un sobreinventario crónico. Este último no solo inmoviliza capital de trabajo vital, sino que incrementa exponencialmente los riesgos de deterioro físico y la obsolescencia comercial de insumos ante cambios normativos o actualizaciones de añada.

Frente a la inoperancia de los modelos estáticos, la práctica profesional ha transitado hacia el uso de métodos estocásticos. En la actualidad, el dominio de modelos de series temporales, particularmente mediante la familia de modelos ARIMA y SARIMA, constituye el requerimiento analítico mínimo para la proyección de demanda y la parametrización de inventarios. No obstante, si bien estos enfoques logran capturar la estacionalidad y las tendencias históricas de manera univariada, presentan limitaciones estructurales. Su naturaleza lineal restringe la capacidad para procesar simultáneamente múltiples variables exógenas de impacto asimétrico.

Para superar esta brecha técnica, el presente trabajo postula que el control de gestión de inventarios debe evolucionar hacia sistemas predictivos multidimensionales. El objetivo principal de este documento es desarrollar un enfoque metodológico híbrido para la optimización inteligente de inventarios en el fraccionamiento vitivinícola. La propuesta sustituye los enfoques clásicos por algoritmos de Machine Learning integrados a un modelo de Simulación de Eventos Discretos (DEVS), permitiendo evaluar virtualmente diferentes políticas de reposición y maximizar la eficiencia integral del sistema productivo.


Marco Teórico

El Paradigma Determinístico: El Modelo EOQ y sus Limitaciones

Formalizado a principios del siglo XX con el desarrollo de la Cantidad Económica de Pedido (EOQ, por sus siglas en inglés, o Modelo de Wilson). Este enfoque determinístico busca establecer el tamaño de lote óptimo que minimice los costos totales de gestión, equilibrando el costo de emitir órdenes de reposición y el costo de mantener el inventario inmovilizado. Matemáticamente, el volumen óptimo se define como:

\[Q^* = \sqrt{\frac{2DS}{H}}\]

Donde \(D\) representa la demanda anual del insumo, \(S\) es el costo fijo por orden de pedido, y \(H\) es el costo unitario de almacenamiento o mantenimiento. El modelo asume estrictamente que:

En la industria vitivinícola actual, caracterizada por la alta volatilidad de los mercados, la estacionalidad y las disrupciones globales en la cadena de suministro, aplicar estos axiomas es un fracaso, derivando matemáticamente en quiebres de stock continuos o en la acumulación de un sobreinventario crónico y costoso.

Modelado Estocástico: ARIMA y SARIMA

Para superar los modelos estáticos, aparecen los modelos ARIMA (Autoregressive Integrated Moving Average). Esta familia de modelos estocásticos asume que el valor futuro de una variable (ej. demanda de botellas) es una combinación lineal de sus valores pasados y de los errores de pronóstico históricos.

Un modelo estandarizado ARIMA\((p, d, q)\) se descompone en tres partes: el componente autorregresivo AR\((p)\), el grado de diferenciación I\((d)\) necesario para volver la serie estacionaria, y la media móvil MA\((q)\). La ecuación general toma la siguiente forma:

\[Y_t = c + \phi_1 Y_{t-1} + \cdots + \phi_p Y_{t-p} + \theta_1 \epsilon_{t-1} + \cdots + \theta_q \epsilon_{t-q} + \epsilon_t\]

Donde \(Y_t\) representa la serie diferenciada estacionaria, \(\phi_i\) son los coeficientes autorregresivos, \(\theta_j\) representan los pesos de la media móvil, y \(\epsilon_t\) es el ruido blanco o término de error.

Dado que la demanda vitivinícola posee ciclos anuales muy marcados, el estándar industrial exige la aplicación de su variante estacional: SARIMA\((p, d, q)(P, D, Q)_s\). Este modelo incorpora parámetros adicionales para capturar la autocorrelación en rezagos estacionales (denotados por \(s\), donde \(s = 12\) para datos mensuales). Aunque SARIMA provee una base probabilística infinitamente superior al modelo EOQ, conserva una limitación crítica: su estructura es lineal. Esto restringe severamente su capacidad para asimilar de manera eficiente variables exógenas complejas y discontinuas, como shocks de precios, campañas de marketing o cambios macroeconómicos abruptos.

Inteligencia Artificial y Machine Learning en el Pronóstico

Para mitigar las limitaciones del modelado estadístico tradicional, se postula la transición hacia algoritmos de Machine Learning (ML). A diferencia de ARIMA, las técnicas de ML “aprenden” la función de mapeo óptima a través de métodos iterativos, permitiendo modelar relaciones altamente no lineales.

Aquí destacan dos grandes arquitecturas:

Profundización en el Algoritmo Seleccionado: XGBoost

Dadas las características del historial operativo de la bodega (serie temporal mensual), se seleccionó para este estudio el algoritmo eXtreme Gradient Boosting (XGBoost). Para comprender su superioridad predictiva frente al modelo SARIMA, es clave entender cómo funciona de una forma práctica.

A diferencia de un método tradicional que intenta adivinar el resultado de una sola vez aplicando una fórmula rígida, XGBoost utiliza un enfoque de aprendizaje paso a paso. Básicamente, el algoritmo va “aprendiendo de sus propios errores” a través de la siguiente secuencia:

  1. Primera suposición: El modelo arranca haciendo una predicción básica, como por ejemplo, asumir que se va a vender el promedio histórico de botellas.
  2. Medir el error: Compara esa suposición inicial con lo que realmente pasó en la realidad y se fija por cuántas botellas le erró.
  3. Aprender del fallo: En vez de hacer un modelo totalmente nuevo, crea un pequeño árbol de decisión que se enfoca pura y exclusivamente en corregir ese error específico que acaba de medir.
  4. Suma de aprendizajes: Repite este proceso cientos de veces. El pronóstico final que entrega no es más que esa primera suposición básica sumada a todas las pequeñas correcciones que fue aprendiendo en el camino.

Figura 1: Esquema visual del aprendizaje secuencial iterativo mediante árboles de decisión.

El modelo final está formado por un conjunto de \(N\) árboles. La matriz de características \(X\) (nuestros datos históricos) y las etiquetas \(y\) (la demanda real) se utilizan para entrenar el Árbol 1. Las predicciones obtenidas, denotadas como \(\hat{y}_1\), se emplean para calcular los errores residuales \(r_1\) de ese primer intento. A continuación, el Árbol 2 se entrena utilizando la misma matriz \(X\), pero ahora usando los errores residuales \(r_1\) como su nuevo objetivo a predecir. Los valores proyectados por este segundo árbol (\(\hat{r}_1\)) se utilizan para calcular un nuevo residuo más pequeño, \(r_2\). Esta técnica de corrección encadenada se repite hasta que se hayan entrenado los \(N\) árboles del conjunto.

Para terminar de justificar la elección de esta Inteligencia Artificial, se detallan sus principales fortalezas y debilidades a la hora de aplicarla en un entorno industrial logístico:

Ventajas:

Desventajas:

Teoría de Simulación de Eventos Discretos (DEVS)

La obtención de un pronóstico de alta precisión resuelve únicamente el problema de la predicción, pero no define la política de control de inventario. Para evaluar el impacto operativo de dicho pronóstico en la reposición de insumos secos, se emplea el formalismo DEVS (Discrete Event System Specification).

DEVS proporciona una base matemática rigurosa para modelar sistemas dinámicos donde los cambios de estado ocurren en puntos discretos del tiempo (eventos). Un modelo atómico fundamental en DEVS se define matemáticamente mediante:

\[M = \langle X, Y, S, \delta_{int}, \delta_{ext}, \lambda, ta \rangle\]

En el contexto de la línea de fraccionamiento:

La implementación de esta arquitectura permite construir un gemelo digital lógico de la bodega. Al integrar el pronóstico no lineal de Machine Learning con las funciones de transición de DEVS, el simulador ejecuta la explosión dinámica de la Lista de Materiales (BOM), modelando con exactitud matemática cómo reacciona el inventario de insumos dependientes bajo diferentes escenarios de estrés operativo.


Metodología

El diseño metodológico de esta investigación se estructura bajo un enfoque cuantitativo y experimental. Para validar empíricamente la superioridad del modelo híbrido frente a los enfoques tradicionales de gestión de inventarios, el procedimiento se dividió en cuatro fases secuenciales: preprocesamiento de datos, entrenamiento predictivo, simulación operativa y evaluación de escenarios.

Fase 1: Recolección y Preprocesamiento de Datos

La base empírica del estudio se construye a partir de un conjunto de datos históricos representativo de las operaciones de fraccionamiento de la bodega, abarcando un período de tres años fiscales. Para garantizar la robustez del modelo predictivo, los datos brutos son sometidos a un riguroso proceso de Extracción, Transformación y Carga (ETL). Esta etapa de estructuración de datos es fundamental para aislar el verdadero comportamiento de la demanda independiente antes de alimentar el algoritmo predictivo.

Fase 2: Entrenamiento del Modelo de Pronóstico (Machine Learning)

Para predecir con exactitud la cantidad de botellas que requerirá la línea de fraccionamiento, se utiliza un modelo de inteligencia artificial (algoritmo de Machine Learning como XGBoost). Para que este modelo matemático “aprenda” a predecir, necesita estudiar el pasado, proceso que se denomina “entrenamiento”.

En primer lugar, se toma el historial de consumo de botellas de los últimos años (la serie temporal) y se divide en dos partes fundamentales para el experimento:

Esta metodología de validación cruzada permite medir el margen de error de la inteligencia artificial. Si la predicción se desvía de la realidad, el modelo se calibra matemáticamente hasta asegurar que sus pronósticos sean altamente precisos. Una vez validado, el modelo está listo.

Fase 3: Construcción de la Simulación DEVS y Lógica BOM

Con el pronóstico de demanda independiente optimizado, se desarrolla el entorno de simulación que funciona como motor de inferencia operativa. El simulador DEVS recibe el output de la Inteligencia Artificial y ejecuta la explosión de la Lista de Materiales (BOM, por sus siglas en inglés). La lógica del gemelo digital dicta que, por cada unidad de producto terminado proyectada, el sistema deduce y tracciona de manera dinámica la demanda dependiente:

Esta fase incorpora además la estocasticidad de los proveedores, asignando tiempos de entrega (lead times) variables para cada insumo, simulando los retrasos logísticos habituales de la industria.

Fase 4: Diseño de Escenarios y Métricas de Evaluación

Para cuantificar el impacto y la viabilidad técnica de la propuesta, la metodología contempla la simulación paralela de dos escenarios operativos a lo largo de un ciclo productivo anual:

El desempeño comparativo de ambos modelos se evalúa a través de tres Indicadores Clave de Rendimiento (KPIs) fundamentales para el control de gestión: el Error Absoluto Medio (MAD) del pronóstico, el Nivel Medio de Inventario (que refleja el capital inmovilizado) y la Tasa de Quiebre de Stock en la línea de fraccionamiento.


Implementación y Resultados

Para validar empíricamente la superioridad del enfoque híbrido, se procedió a ejecutar la metodología propuesta sobre un caso de estudio real, evaluando posteriormente el impacto operativo en el simulador.

Implementación Experimental y Parametrización

La base empírica se construyó utilizando el registro operativo de una bodega con línea de fraccionamiento automatizada ubicada en Luján de Cuyo, Mendoza. Se extrajo una serie temporal de 60 meses (período 2021-2025) correspondiente a la demanda independiente de botellas terminadas de un SKU de alta rotación.

Aplicando la regla de validación cruzada definida en la metodología, el conjunto de datos fue particionado: el 80% inicial (48 meses, abarcando desde enero de 2021 hasta diciembre de 2024) conformó el subconjunto de entrenamiento. El 20% restante (12 meses, de enero a diciembre de 2025) se reservó como subconjunto de prueba para medir el error de pronóstico.

El procesamiento de los datos y el entrenamiento de los algoritmos se llevó a cabo en un entorno de programación Python. Antes de la proyección, se parametrizaron los modelos:

El modelo fue configurado y entrenado en un entorno de desarrollo profesional de Python utilizando Google Colab. El script programado no realizó una calibración manual empírica, sino que ejecutó la técnica computacional de Grid Search (búsqueda exhaustiva en cuadrícula) para evaluar objetivamente miles de combinaciones matemáticas de hiperparámetros.

Figura 2: Evidencia de ejecución en Google Colab.

Para el análisis de los resultados, se generó una visualización de validación cruzada mediante un mapa de calor conceptual. Este esquema representativo demuestra cómo el algoritmo rastreó el espacio de búsqueda multidimensional para minimizar la función de pérdida. Las tonalidades oscuras indican las combinaciones donde el error predictivo se minimiza de forma absoluta (equivalente a nuestro valor de error de 715), descartando las zonas claras que evidencian configuraciones inestables o propensas al sobreajuste.

Figura 3: Representación conceptual del mapa de calor.

Basado en esta convergencia matemática objetiva, se pudo definir con total certeza una tasa de aprendizaje moderada (\(\eta = 0.05\)) y una profundidad máxima de árbol (\(\text{max\_depth} = 4\)), garantizando así que el algoritmo descubra los patrones complejos de demanda sin sufrir sobreajuste (overfitting) sobre los datos de entrenamiento.

Preprocesamiento y Evaluación de Pronósticos

Como resultado de la fase ETL, se depuraron los valores atípicos y se corrieron los modelos sobre el subconjunto de prueba correspondiente al año 2025.

Table 1: Tabla: Conjunto de datos de prueba (2025) preprocesado y pronósticos generados
MES DEMANDA REAL DE BOTELLAS PRON. ARIMA PRON. IA ERROR ABS. ARIMA ERROR ABS. IA
ene-25 45,000 42,000 44,500 3,000 500
feb-25 48,000 44,000 47,200 4,000 800
mar-25 65,000 50,000 63,500 15,000 1,500
abr-25 52,000 58,000 53,000 6,000 1,000
may-25 49,000 54,000 49,500 5,000 500
jun-25 47,000 51,000 46,800 4,000 200
jul-25 50,000 49,000 51,000 1,000 1,000
ago-25 53,000 50,000 52,500 3,000 500
sept-25 60,000 52,000 59,000 8,000 1,000
oct-25 75,000 58,000 73,000 17,000 2,000
nov-25 85,000 65,000 83,500 20,000 1,500
dic-25 90,000 72,000 88,000 18,000 2,000

Al contrastar gráficamente las curvas de tendencia, el modelo de Machine Learning demostró una capacidad notablemente superior para capturar la no linealidad de la demanda vitivinícola frente al modelo estadístico tradicional. El algoritmo XGBoost se ajustó con alta fidelidad a la curva de demanda real.

Figura 5: Comparativa de curvas de demanda: Demanda Real vs. Pronósticos SARIMA e IA.

Esta adaptación dinámica se refleja directamente en la dispersión del error. Al analizar el Error Absoluto mes a mes, se evidencia que el enfoque SARIMA falla severamente en los meses de alta volatilidad (agosto a diciembre). En contraposición, la Inteligencia Artificial mantiene un margen de error estable, validando el éxito del entrenamiento.

Figura 6: Análisis de Error Absoluto mensual en el subconjunto de prueba.

Impacto Operativo y Simulación DEVS

La precisión lograda en el producto terminado resulta fundamental para evitar el efecto látigo (bullwhip effect), un fenómeno logístico donde pequeñas imprecisiones en el pronóstico final generan distorsiones masivas y sobrecostos en la planificación de los insumos aguas arriba. Al inyectar pronósticos precisos en el motor de simulación DEVS, el sistema ejecutó la explosión automática de la Lista de Materiales (BOM) sin generar excesos.

Esta optimización sistémica se traduce en beneficios económicos directos. La siguiente tabla resume el contraste de los Indicadores Clave de Rendimiento (KPIs) simulados anualmente:

Table 2: Tabla 1. Comparativa de Indicadores Clave de Rendimiento (Simulación Anual)
Indicador Operativo Escenario Base (SARIMA) Escenario Propuesto (IA + DEVS)
Error Absoluto Medio (MAD) 1.250 cajas 818 cajas
Tasa de Quiebre de Stock 7.8% 1.2%
Nivel Medio de Inventario $ 450.000 USD $ 325.000 USD
Rotación de Inventario (Anual) 4.2 veces 6.8 veces

Como evidencia la simulación empírica, la arquitectura híbrida redujo la Tasa de Quiebre de Stock a un 1.2%, garantizando la continuidad de la línea de fraccionamiento. Simultáneamente, el Nivel Medio de Inventario experimentó una contracción del 27.7%, liberando aproximadamente $ 125.000 USD de capital inmovilizado y minimizando el riesgo de obsolescencia de los insumos. Cabe destacar que la valorización monetaria de ambos escenarios se calculó utilizando el costo estándar promedio actual de los insumos secos en el mercado vitivinícola local (vidrio, tapones, etiquetas y cartón), lo que le otorga un marco de viabilidad y realismo financiero a la simulación.


Conclusiones

El actual escenario competitivo de la industria vitivinícola, marcado por fluctuaciones en las cadenas de suministro globales y cambios abruptos en los patrones de consumo, exige modernizar los enfoques de planificación. La gestión de inventarios requiere hoy abandonar los esquemas puramente determinísticos y estadísticos lineales. Este trabajo demostró empíricamente que la dependencia exclusiva de modelos tradicionales resulta ineficiente para absorber la alta volatilidad de la demanda real, derivando invariablemente en quiebres de stock en épocas críticas o en una inmovilización de capital excesivo durante los valles de venta.

Desde una perspectiva metodológica, la investigación valida la superioridad de los enfoques adaptativos frente a los paramétricos rígidos. La sustitución del modelo estadístico clásico (SARIMA) por el algoritmo de Machine Learning secuencial (XGBoost) evidenció una capacidad analítica superadora para modelar la no-linealidad del mercado. La Inteligencia Artificial no solo logró capturar la estacionalidad con mayor agudeza, sino que redujo el Error Absoluto en un 34.5%, demostrando que estas herramientas predictivas son viables y altamente efectivas, incluso operando con los volúmenes de datos históricos propios de una bodega promedio.

A nivel operativo, se concluye que un pronóstico preciso no es suficiente si no se traduce en reglas de abastecimiento accionables. La inyección de los resultados predictivos dentro del motor de simulación de eventos discretos (DEVS) funcionó como el puente definitivo entre la ciencia de datos y el piso de planta. Esta arquitectura híbrida previno el efecto látigo (bullwhip effect) en la planificación de los insumos secos, logrando reducir la tasa de quiebres de stock a un marginal 1.2% y liberando flujo de caja crítico al contraer estratégicamente el inventario inmovilizado.

En definitiva, la implementación de este modelo híbrido (IA + Simulación) representa un salto cualitativo hacia la madurez digital y la Industria 4.0 para la línea de fraccionamiento. La bodega logra transicionar de un esquema de reposición reactivo, sustentado en promedios estáticos, a un ecosistema de gestión proactivo, robusto y dinámico. Esta transformación trasciende el ahorro de costos inmediatos, dotando a la organización de una resiliencia logística estructural que resulta indispensable para sostener su competitividad a largo plazo.

Perspectivas a Futuro

A partir de los resultados obtenidos, resultaría sumamente enriquecedor que esta propuesta escale hacia una aplicación operativa continua. Una excelente alternativa de desarrollo sería integrar este algoritmo predictivo directamente con el sistema de planificación de recursos (ERP) de la organización. Esto permitiría que el motor de simulación se alimente de datos en tiempo real, transformando este experimento en una herramienta de soporte a la toma de decisiones totalmente automatizada para la gerencia de Supply Chain.


Referencias

  1. Chen, T., & Guestrin, C. (2016). XGBoost: A Scalable Tree Boosting System. En Proceedings of the 22nd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (pp. 785–794). Association for Computing Machinery.

  2. Python Software Foundation. (2023). Python Language Reference, version 3.x. Disponible en: https://www.python.org

  3. Google. (2023). Google Colaboratory. Entorno de desarrollo interactivo. Disponible en: https://colab.research.google.com/

  4. Zeigler, B. P., Praehofer, H., & Kim, T. G. (2000). Theory of Modeling and Simulation (2nd ed.). Academic Press.

  5. Box, G. E. P., Jenkins, G. M., Reinsel, G. C., & Ljung, G. M. (2015). Time Series Analysis: Forecasting and Control (5th ed.). John Wiley & Sons.

  6. Chopra, S., & Meindl, P. (2016). Supply Chain Management: Strategy, Planning, and Operation (6th ed.). Pearson.

  7. Almabetter. (s.f.). Gradient Boosting Tutorial: All You Need to Know. Recuperado de: https://www.almabetter.com/bytes/tutorials/data-science/gradient-boosting

  8. Almabetter. (s.f.). XGBoost Algorithm: A Complete Guide. Recuperado de: https://www.almabetter.com/bytes/tutorials/data-science/xgboost-algorithm

  9. Thorat, P. (2024). Mastering Gradient Boosting: A Machine Learning Guide. LinkedIn. Recuperado de: https://www.linkedin.com/pulse/mastering-gradient-boosting-machine-learning-guide-pratik-thorat/

  10. IBM. (s.f.). What is XGBoost?. Recuperado de: https://www.ibm.com/think/topics/xgboost