А.С. Пазинін, аспірант
Інститут телекомунікацій і глобального
інформаційного простору НАН України
Україна, 03186, Київ, Чоколівський бульвар, 13
e-mail:
https://orcid.org/0009-0002-9506-953
Èlektron. model. 2026, 48(2):69-86
Cтаття надійшла до редакції / Received 01.08.2025 (після доопрацювання / after revision 27.12.2025)
Прийнята до друку / Accepted 17.04.2026
Опубліковано / Published 05.05.2026
© А.С. Пазинін, 2026
Стаття поширюється на умовах ліцензії відкритого доступу CC BY 4.0
АНОТАЦІЯ
Розглянуто реактивні та проактивні підходи до автомасштабування сервісів у Kubernetes з метою оптимізації використання обчислювальних ресурсів: стандартний реактивний Horizontal Pod Autoscaler (HPA) та проактивний ML-масштабувальник на основі LSTM. Розроблено та запропоновано контролер, який збирає метрики CPU з Prometheus, навчає та оновлює модель, прогнозує короткострокову динаміку навантаження і коригує кількість реплік через API Kubernetes. Метрики прогнозів та рішень подано у Pushgateway та візуалізовано в Grafana. Експериментальні дослідження в кластері Azure Kubernetes Service з контрольованим навантаженням контейнерів показали 30 % зниження загального використання vCPU у порівнянні з HPA при збереженні того ж рівня обслуговування, зменшенні затримки масштабування (збільшення масштабу 30—60 с проти 75—90 с; зменшення масштабу 60—90 с проти 90—150 с) та усуненні «джиттера». Отримані результати підтверджують ефективність застосування проактивного автомасштабування сервісів Kubernetes на основі методів машинного навчання для служб зі стабільними або сезонними моделями трафіку.
КЛЮЧОВІ СЛОВА:
Kubernetes, автоскейлінг, HPA, LSTM, Prometheus, Pushgateway, Grafana.
СПИСОК ЛІТЕРАТУРИ
- Horizontal Pod autoscaling. Kubernetes. URL: https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale/ (date of access: 22.02.2026).
- Lorido-Botran T., Miguel-Alonso J., Lozano J.A. A review of auto-scaling techniques for elastic applications in cloud environments. Journal of grid computing. 2014. Vol. 12, no. 4. P. 559—592. URL: https://doi.org/10.1007/s10723-014-9314-7 (date of access: 22.02.2026).
- Managing power consumption and performance of computing systems using reinforcement learning. / G. Tesauro et al. Advances in neural information processing systems. 2007. P. 1497—1504. URL: https://papers.nips.cc/paper/3251-managing-power-consumption-and-performance-of-computing-systems-using-reinforcement-learning?utm_source=chatgpt. com (date of access: 22.02.2026).
- Horizontal Pod Autoscaler walkthrough. Kubernetes. URL: https://kubernetes.io/docs/tasks/run-application/horizontal-pod-autoscale-walkthrough/ (date of access: 22.02.2026).
- LSTM: a search space odyssey. / K. Greff et al. IEEE transactions on neural networks and learning systems. Vol. 28, no. 10. P. 2222—2232. URL: https://doi.org/10.1109/TNNLS.2016.2582924 (date of access: 22.02.2026).
- Dang-Quang N.-M., Yoo M. Deep learning-based autoscaling using bidirectional long short-term memory for kubernetes. Applied Sciences. Vol. 11, no. 9. 3835. URL: https://www.mdpi.com/2076-3417/11/9/3835 (date of access: 22.02.2026).
- Imdoukh M., Ahmad I., Alfailakawi M. Machine learning-based auto-scaling for containerized applications. Neural computing and applications. No. 32. P. 9745—9760. URL: https://link.springer.com/article/10.1007/s00521-019-04507-z.
- Rolik O., Volkov V. Method of horizontal pod scaling in kubernetes to omit overregulation. Information, computing and intelligent systems (journal abbreviation: inf. comput. and intell. syst. j.) No. 5. P. 55—67. URL: https://doi.org/10.20535/2786-8729.5.2024.315877 (date of access: 22.02.2026).
- Боярчук С., Тищенко І. Моделі прогнозування часових рядів ARIMA та LSTM в економіці та фінансах. Компʼютерні системи проєктування. Теорія і практика. 2025. Т. 7, № 1. С. 172—180. URL: https://doi.org/10.23939/cds2025.01.172 (дата звернення: 22.02.2026).
- What is azure kubernetes service (AKS)? — azure kubernetes service. Microsoft Learn: Build skills that open doors in your career. URL: https://learn.microsoft.com/azure/aks/what-is-aks (date of access: 22.02.2026).
- Data model | Prometheus. Prometheus — Monitoring system & time series database. URL: https://prometheus.io/docs/concepts/data_model/ (date of access: 22.02.2026).
- Metrics for kubernetes object states. Kubernetes. URL: https://kubernetes.io/docs/concepts/cluster-administration/kube-state-metrics/ (date of access: 22.02.2026).
- Pushing metrics | Prometheus. Prometheus — Monitoring system & time series database. URL: https://prometheus.io/docs/instrumenting/pushing/ (date of access: 22.02.2026).
- Time series | Grafana documentation. Grafana Labs. URL: https://grafana.com/docs/grafana/latest/panels-visualizations/visualizations/time-series/ (date of access: 22.02.2026).
- Hochreiter S., Schmidhuber J. Long Short-Term Memory. Neural computation. 1997. Vol. 9, no. 8. P. 1735—1780. URL: https://doi.org/10.1162/neco.1997.9.8.1735 (date of access: 22.02.2026).
- Федоришин Б., Красько О. Міграція сервісів в кластері kubernetes на основі прогнозування навантаження. Інформаційно-комунікаційні технології та електронна інженерія. 2024. Т. 4, № 2. С. 82—92. URL: https://doi.org/10.23939/ictee2024.02.082 (дата звернення: 22.02.2026).
- Маєвський Я., Праворська Н. Підвищення ефективності автоматизації масштабування мікросервісів у системі керування контейнеризованими застосунками kubernetes. Вісник Хмельницького національного університету. Серія: технічні науки. 2022. Т. 313, № 5. С. 260—264. URL: https://doi.org/10.31891/2307-5732-2022-313-5-260-264
- Empirical prediction models for adaptive resource provisioning in the cloud / S. Islam et al. Future generation computer systems. 2012. No. 1. P. 155—162. URL: https://doi.org/1016/j.future.2011.05.027 (date of access: 22.02.2026).
- Resource metrics pipeline. Kubernetes. URL: https://kubernetes.io/docs/tasks/debug/debug-cluster/resource-metrics-pipeline/ (date of access: 22.02.2026).
- Гутман Д., Сирота О. Проактивне автоматичне масштабування вверх для Kuberneters. Адаптивні системи автоматичного управління. 2023. Т. 1, № 42. С. 32—38. URL: https://doi.org/10.20535/1560-8956.42.2023.278925 (дата звернення: 22.02.2026).
ПАЗИНІН Андрій Сергійович, аспірант інституту телекомунікацій і глобального інформаційного простору Національної академії наук України. В 2018 р. закінчив магістратуру державного університету інформаційно-комунікаційних технологій. Область наукових досліджень — компʼютерні науки, інформаційні технології (машинне навчання, хмарні обчислення, системи автоматичного масштабування).