Pradhana Hartono, Lendy (2026) Pengembangan Metode Alokasi Pod Dengan Algoritma EMD-LSTM dan Attention Mechanism Untuk Meningkatkan Efektivitas Web Service Serta Penggunaannya Pada Lingkungan Cloud. Masters thesis, Institut Teknologi Sepuluh Nopember.
|
Text
6025221023-Master_Thesis.pdf - Accepted Version Restricted to Repository staff only Download (5MB) | Request a copy |
Abstract
Perencanaan kapasitas sumber daya dalam cloud computing adalah strategi yang dapat membantu para tenant untuk menggunakan sumber daya cloud secara efisien agar terhindar dari pelanggaran SLA yang dapat menganggu kinerja aplikasi yang dijalankan serta risiko overbooked atau memesan lebih dari yang seharusnya yang menyebabkan membengkaknya tagihan atas sumber daya yang tidak pernah digunakan. Hal ini menimbulkan antitesis dari tujuan cloud computing itu sendiri dimana tenant hanya membayar atas seberapa banyak sumber daya komputasi yang digunakan. Masalah tersebut pada awalnya dapat diselesaikan dengan suatu sistem autoscaler yang dapat secara otomatis menyesuaikan kapasitas sumber daya berdasarkan demand yang ada. Namun, sistem autoscaler pada umumnya bersifat reaktif di mana penyesuaian sumber daya baru dilakukan setelah beban kerja meningkat dan hanya terdefinisikan oleh dua variabel yang statis (RAM dan CPU). Hal tersebut menjadi tantangan yang nyata bagi beberapa jenis layanan, salah satunya web service yang pada dasarnya memiliki sifat non-linier dan sangat fluktuatif. Terdapat beberapa penelitian yang bertujuan untuk mengubah sifat reaktif pada sistem autoscaler menjadi proaktif sehingga sistem dapat secara prediktif menyesuaikan beban komputasi, diantaranya menggunakan metode LSTM. Namun LSTM dalam konteks memprediksi beban komputasi memiliki beberapa keterbatasan, terutama dalam menghadapi karakteristik data yang non-stationary seperti data RPS. Penelitian ini mengembangkan model tambahan berbasis EMD-LSTM dengan attention mechanism untuk memprediksi fluktuasi RPS yang berkorelasi pada penggunaan beban komputasi dengan cara mengurai data menjadi satuan IMF yang lebih mudah diprediksi oleh LSTM. Berdasarkan hasil penelitian yang didapatkan, model prediksi berbasis EMD-LSTM dengan attention mechanism meningkatkan akurasi prediksi beban trafik web service lebih baik dibandingkan dengan model LSTM konvensional maupun metode prediktif lainnya. Model ini menunjukkan kemampuan yang lebih baik dalam mengenali pola non-stasioner pada RPS dengan nilai RMSE sebesar 2,39 rps dan R² sebesar 0,991. Implementasi model ini pada sistem autoscaler terbukti mampu menurunkan lost request ratio hingga lebih dari 98% dibandingkan autoscaler HPA bawaan Kubernetes, sekaligus meningkatkan efisiensi sumber daya hingga 79% dilihat dari rasio cumulative pod-minutes. Hasil ini membuktikan bahwa pendekatan EMD-LSTM dengan attention mechanism efektif dalam menyeimbangkan antara akurasi prediksi, efisiensi penggunaan sumber daya, dan keandalan sistem autoscaler dalam menangani fluktuasi beban trafik secara adaptif di lingkungan cloud berbasis container.
=======================================================================================================================================
Resource capacity planning in cloud computing is a strategy that can help tenants use cloud resources efficiently, avoiding SLA violations that can disrupt application performance. It also mitigates the risk of overbooking or ordering more resources than necessary, which can lead to inflated bills for unused resources. This creates the antithesis of the purpose of cloud computing itself, where tenants only pay for the computing resources they use. This problem can initially be solved with an autoscaler system that can automatically adjust resource capacity based on existing demand. However, autoscaler systems are generally reactive, where new resource adjustments are made after the workload increases and are only defined by two static variables (RAM and CPU). This is a real challenge for several types of services, one of which is web services which are basically non-linear and very fluctuating. There are several studies that aim to change the reactive nature of the autoscaler system to become proactive so that the system can predictively adjust the computing load, including using the LSTM method. However, LSTM in the context of predicting computational load has several limitations, especially in dealing with nonstationary data characteristics such as RPS data. This research develops an additional model based on EMD-LSTM with attention mechanism to predict RPS fluctuations that are correlated with the use of computing load by decomposing the data into IMF units, which are more easily predicted by LSTM. Experiment results suggested that EMD-LSTM with attention mechanism increases the model's prediction of web service load traffic significantly compared to the other predictive models, including traditional LSTM. It shows outstanding ability to capture non-stationer pattern of the RPS with RMSE of 2,39 rps and R² of 0,991. Thus, it developed into an autoscaler system running in the Kubernetes cluster to challenge HPA. The autoscaler has clear advantage with 98% lower lost request ratio and 79% more resource efficient as indicated by cumulative-pod minutes ratio compared to HPA. This result clearly stated that the EMD-LSTM approach is tremendously effective to balance prediction accuracy, resources efficiency, and reliability of autoscaler. It also proved its superiority on managing traffic load fluctuation adaptively in the cloud environment.
| Item Type: | Thesis (Masters) |
|---|---|
| Uncontrolled Keywords: | Cloud computing, Machine learning, Autoscaler, Web service. |
| Subjects: | Q Science > QA Mathematics > QA76.585 Cloud computing. Mobile computing. |
| Divisions: | Faculty of Intelligent Electrical and Informatics Technology (ELECTICS) > Informatics Engineering > 55101-(S2) Master Thesis |
| Depositing User: | Lendy Pradhana Hartono |
| Date Deposited: | 27 Jan 2026 06:55 |
| Last Modified: | 27 Jan 2026 06:55 |
| URI: | http://repository.its.ac.id/id/eprint/130438 |
Actions (login required)
![]() |
View Item |
