Rumala, Dewinda Julianensi (2024) Brain Disease Classification in MRI Images Using Deep Learning Based on Deep-Stacked Models and Enhanced Feature Representation. Doctoral thesis, Institut Teknologi Sepuluh Nopember.
Text
7022201024-Dissertation.pdf - Accepted Version Restricted to Repository staff only until 1 April 2030. Download (26MB) | Request a copy |
Abstract
Accurate and efficient computer-aided diagnosis (CAD) of brain diseases using Magnetic Resonance Imaging (MRI) is essential for timely medical intervention. However, deep learning-based approaches for CAD face significant challenges in advancing toward clinical application, particularly in terms of robustness, generalizability, and interpretability. This thesis aims to address these challenges by developing advanced deep learning frameworks for MRI-based brain disease classification, focusing on enhancing feature representation and improving model reliability. In this research, innovative feature representation enhancement techniques are explored to extract more discriminative and high-dimensional features from MRI data, enabling the model to capture subtle variations in brain diseases with greater accuracy. One of the key contributions is the introduction of advanced pooling strategies, which significantly improve the ability of deep learning models to learn richer representations of brain MRI and balance computational efficiency. The thesis also presents a deep-stacked ensemble framework, which mimics the collaborative decision-making process of clinicians. This ensemble approach combines multiple models to improve classification performance and increase diagnostic confidence, particularly in cases with limited or imbalanced data. The thesis also examines the practical challenges of applying deep learning to brain MRI classification, focusing on data handling and model training optimization. Data handling challenges include issues related to the presence of confounding factors, such as variability across MRI sequences, inconsistencies in data quality, and subject-specific characteristics, particularly in longitudinal datasets or when employing data augmentation techniques to increase the size and diversity of training data. These challenges are critically analyzed to propose best practices for model training and optimization, ensuring that deep learning models perform reliably on real-world clinical datasets. In addition to addressing these challenges, this thesis emphasizes the importance of validating model performance and ensuring trustworthiness through interpretability. By applying visual Explainable AI (XAI) techniques, such as Gradient-weighted Class Activation Mapping (Grad-CAM), the thesis provides a visual representation of the model's decision-making process. These visualizations enable end-users to validate the model's predictions and identify potential biases, thereby improving the reliability and clinical utility of AI-driven CAD system.
================================================================================================================================
Diagnosis berbasis bantuan komputer (CAD) yang akurat dan efisien untuk penyakit otak dengan menggunakan Magnetic Resonance Imaging (MRI) sangat bermanfaat untuk intervensi medis yang tepat waktu. Namun, pengaplikasian deep learning untuk CAD menghadapi tantangan signifikan untuk dimanfaatkan dalam aplikasi klinis, terutama dalam hal ketahanan, generalisasi, dan interpretabilitas. Tesis ini bertujuan untuk mengatasi tantangan-tantangan yang disebutkan dengan mengembangkan kerangka kerja deep learning yang canggih untuk klasifikasi penyakit otak berbasis MRI, khususnya dengan peningkatan representasi fitur dan penguatan keandalan model. Dalam penelitian ini, teknik inovatif dalam peningkatkan representasi fitur dieksplorasi dengan tujuan mengekstraksi fitur yang lebih diskriminatif dan berdimensi tinggi pada data MRI, sehingga memungkinkan model untuk menangkap variasi tak kasat pada penyakit otak dengan akurasi yang lebih tinggi. Salah satu kontribusi utama adalah pengenalan strategi pooling lanjutan, yang secara signifikan meningkatkan kemampuan model deep learning untuk mempelajari representasi otak MRI yang lebih beragam dan menyeimbangkan efisiensi komputasi. Tesis ini juga menyajikan kerangka deep-stacked ensemble, yang meniru proses pengambilan keputusan kolaboratif para klinisi. Pendekatan ensemble ini menggabungkan beberapa model untuk memperkuat kinerja klasifikasi dan meningkatkan ketepatan diagnosis, terutama pada kasus dengan data terbatas atau tidak seimbang. Tesis ini juga mengobservasi tantangan praktis dalam menerapkan deep learning untuk klasifikasi MRI otak, berfokus pada penanganan data dan optimisasi pelatihan model. Tantangan dalam penanganan data mencakup masalah terkait dengan adanya faktor penyebab bias, seperti variabilitas antar MRI sequence, inkonsistensi dalam kualitas data, dan karakteristik terkait dengan subjek, khususnya pada dataset longitudinal atau ketika dipergunakannya teknik augmentasi data untuk menambah ukuran beserta keragaman data pelatihan. Tantangan-tantangan ini dianalisis secara kritis untuk mengusulkan praktik terbaik dalam pelatihan dan optimisasi model, memastikan bahwa model deep learning dapat berkinerja dengan andal pada dataset klinis dunia nyata. Selain mengatasi tantangan-tantangan ini, tesis ini juga menekankan pentingnya memvalidasi kinerja model dan memastikan kepercayaan melalui interpretabilitas. Dengan menerapkan teknik Visual Explainable AI (XAI), seperti Gradient-weighted Class Activation Mapping (Grad-CAM), tesis ini menghasilkan representasi visual dari proses pengambilan keputusan model. Visualisasi ini memungkinkan end-user untuk memvalidasi prediksi model dan mengidentifikasi potensi bias, sehingga meningkatkan keandalan dan kegunaan klinis daripada sistem CAD berbasis AI.
Item Type: | Thesis (Doctoral) |
---|---|
Uncontrolled Keywords: | Brain Disease Classification, Computer-Aided Diagnosis, Deep Learning, Ensemble Learning, Explainable AI (XAI), Klasifikasi Penyakit Otak, Diagnosis Berbantuan Komputer, Deep Learning, Ensemble Learning, Explainable AI (XAI) |
Subjects: | T Technology > T Technology (General) > T385 Visualization--Technique T Technology > T Technology (General) > T57.5 Data Processing T Technology > T Technology (General) > T58.62 Decision support systems |
Divisions: | Faculty of Intelligent Electrical and Informatics Technology (ELECTICS) > Electrical Engineering > 20001-(S3) PhD Thesis |
Depositing User: | Dewinda Julianensi Rumala |
Date Deposited: | 23 Jan 2025 05:28 |
Last Modified: | 23 Jan 2025 05:28 |
URI: | http://repository.its.ac.id/id/eprint/116254 |
Actions (login required)
View Item |