Semantic Segmentation Of Satellite Images For Rice Production Estimation Based On Rice Growth Phases Classification Using Deep Learning

Mubarok, Moh. Jabir (2025) Semantic Segmentation Of Satellite Images For Rice Production Estimation Based On Rice Growth Phases Classification Using Deep Learning. Masters thesis, Institut Teknologi Sepuluh Nopember.

[thumbnail of 6022231058_Master_Thesis.pdf] Text
6022231058_Master_Thesis.pdf - Accepted Version
Restricted to Repository staff only until 1 April 2027.

Download (24MB) | Request a copy

Abstract

The Sentinel-2 satellite image provides an invaluable dataset for remote sensing. This study explores the practical use of deep learning methods, particularly the U-Net architecture for semantic segmentation and the CNN framework for classification, to estimate rice production using Sentinel-2 L2A satellite imagery. This study focused on segmenting rice fields and classifying rice growth phases. The U-net model successfully segmented rice fields, achieving an accuracy of 0.97 and an Intersection over Union (IoU) score of 0.66. The CNN model classified the rice growth phases with an accuracy of 0.89, specificity of 0.96, and sensitivity of 0.81. This research proposes to determine the feasibility of the system and allow for future studies on rice field extraction and rice growth phase classification using satellite imagery. The segmentation and classification model has shown excellent performance. However, the model seems to have issues accurately identifying the correct pixels related to a specific mask for segmentation or correctly classifying the right class for a particular region based on the spectral indices, as evidenced by a few samples in the results. These methods demonstrate the potential for enhancing the accuracy of rice production estimation and support the feasibility of applying these models for agricultural monitoring and food security policies.
=================================================================================================================================
Citra satelit Sentinel-2 menyediakan sekumpulan data yang sangat berharga untuk penginderaan jauh. Penelitian ini mengeksplorasi penggunaan dari metode deep learning, khususnya arsitektur U-Net untuk segmentasi semantik dan model CNN untuk klasifikasi, untuk memperkirakan produksi padi dengan menggunakan citra satelit Sentinel-2 L2A. Penelitian ini fokus pada segmentasi sawah dan klasifikasi fase pertumbuhan padi. Model U-net berhasil melakukan segmentasi lahan sawah dengan tingkat akurasi sebesar 0,97 dan nilai Intersection over Union (IoU) sebesar 0,66. Model CNN mengklasifikasikan fase pertumbuhan padi dengan akurasi 0,89, spesifisitas 0,96, dan sensitivitas 0,81. Penelitian ini mengusulkan untuk penelitian di masa depan tentang ekstraksi sawah dan klasifikasi fase pertumbuhan padi
menggunakan citra satelit. Model segmentasi dan klasifikasi telah menunjukkan kinerja yang sangat baik. Namun, model tersebut masih memiliki masalah dalam mengidentifikasi secara akurat piksel yang benar terkait dengan mask tertentu untuk segmentasi atau mengklasifikasikan dengan benar kelas yang tepat untuk wilayah tertentu berdasarkan indeks spektral, sebagaimana dibuktikan oleh beberapa sampel dalam hasil. Metode-metode ini menunjukkan potensi untuk meningkatkan akurasi estimasi produksi padi dan mendukung kelayakan penerapan model-model ini untuk pemantauan pertanian dan kebijakan ketahanan pangan.

Item Type: Thesis (Masters)
Uncontrolled Keywords: Segmentasi Semantik, Citra Satelit, U-Net, Fase Pertumbuhan Padi, Model CNN, Estimasi Produksi Padi, Satellite Image, Semantic Segmentation, Classification, Rice Growth Phase, CNN Model, Rice Production Estimation.
Subjects: T Technology > TR Photography > TR267.733.M85 Multispectral imaging
Divisions: Faculty of Intelligent Electrical and Informatics Technology (ELECTICS) > Electrical Engineering > 20101-(S2) Master Thesis
Depositing User: Moh. Jabir Mubarok
Date Deposited: 17 Jan 2025 08:18
Last Modified: 17 Jan 2025 08:18
URI: http://repository.its.ac.id/id/eprint/116385

Actions (login required)

View Item View Item