`Ainia, Arifah Nur (2026) Pengenalan Karakter Tulisan Tangan pada Dokumen Berita Acara Bimbingan Skripsi Menggunakan Preprocessing dan YOLOv8. Masters thesis, Institut Teknologi Sepuluh Nopember.
|
Text
6025221061-Master_Thesis.pdf - Accepted Version Restricted to Repository staff only Download (5MB) | Request a copy |
Abstract
Dokumen Berita Acara Bimbingan Skripsi (DBABS) merupakan selembar kertas yang berisi catatan penting tulisan tangan mengenai perkembangan dan diskusi seorang mahasiswa dengan dosen pembimbing skripsi. Melalui dokumen ini dapat diketahui apakah seorang mahasiswa telah mendapatkan persetujuan dari dosen pembimbing untuk mengikuti sidang skripsi atau belum. Jumlah mahasiswa yang banyak serta keterbatasan waktu dalam pengelolaan dokumen secara manual menjadikan proses administrasi sebagai tugas yang berat. Oleh karena itu, pengenalan karakter tulisan tangan pada dokumen ini diusulkan untuk mempersingkat waktu proses administratif.
Dataset dikumpulkan secara mandiri melalui proses pemindaian (scanning) dan pengambilan foto, dengan total 431 citra dokumen DBABS utuh yang masing-masing ditulis oleh 431 orang berbeda. Seluruh citra DBABS tersebut diseragamkan ukurannya menjadi 1238 × 1755 piksel, kemudian dilakukan proses cropping pada area yang mengandung tulisan tangan berdasarkan koordinat yang telah ditentukan menggunakan pustaka OpenCV. Bagian tersebut meliputi nama mahasiswa, NRP, judul skripsi baris 1 dan 2, tanggal mulai bimbingan, serta nama dosen pembimbing. Jumlah citra hasil pemotongan adalah 2.586 gambar, dengan 1.850 gambar yang berhasil dianotasi karena ada beberapa gambar yang kosong tidak ada tulisannya, ada pula gambar yang tulisan sangat sulit dibaca sehingga tidak bisa dikasih bounding box. Penelitian ini membandingkan tiga versi dataset, yaitu 1.850 citra original (S1), 1.850 citra preprocessing (S2), serta 2.960 citra gabungan S1+S2 untuk data train dan 278 data valid dan 92 data test sebagai skenario ke-3 (S3). Ketiga skenario tersebut digunakan untuk mendeteksi 67 kelas karakter tulisan tangan menggunakan YOLOv8. Karakter tulisan tangan yang dianotasi terdiri dari 26 huruf alfabet kapital (A-Z), 26 huruf alfabet kecil (a-z), angka (0-9), serta 4 simbol. Tahapan preprocessing dilakukan melalui beberapa proses, yaitu grayscale, CLAHE, gaussian blur, adaptive threshold, dilasi, dan erosi.
Pelatihan dilakukan selama 30 epoch pada tiga skenario. Skenario S1 dan S2 menggunakan pembagian data 80:15:5 untuk training, validation, dan testing, sedangkan pada skenario S3 data training merupakan gabungan citra original dan citra hasil preprocessing, dengan data validation dan testing menggunakan citra original. Hasil pengujian menunjukkan nilai mAP@0.5 sebesar 78,9% pada S1, 75,3% pada S2, dan 82,5% pada S3. Skenario S3 memberikan kinerja terbaik dengan precision 81,5%, recall 72,5%, dan mAP@0.5:0.95 sebesar 62,5%.
======================================================================================================================================
The Dokumen Berita Acara Bimbingan Skripsi (DBABS) is an administrative document containing handwritten records of discussions and progress between students and thesis supervisors. This document is used to determine whether a student has obtained approval to proceed to the thesis defense. Due to the large number of students and limited time for manual document management, the administrative process becomes inefficient. Therefore, handwritten character recognition on DBABS is proposed to accelerate administrative processing.
The dataset was independently collected through scanning and photographic acquisition, resulting in 431 full DBABS document images written by 431 different individuals. All images were resized to 1238 × 1755 pixels and cropped using predefined coordinates with the OpenCV library to extract regions containing handwritten text. These regions include the student’s name, student ID (NRP), thesis title (lines 1 and 2), supervision start date, and supervisor’s name. A total of 2,586 cropped images were obtained, of which 1,850 images were successfully annotated. Some images were excluded due to empty handwriting regions or text that was too difficult to read for reliable bounding box annotation.
This study compares three dataset scenarios: 1,850 original images (S1), 1,850 preprocessed images (S2), and a third scenario (S3) consisting of 2,960 combined original and preprocessed images for training, with 278 images for validation and 92 images for testing. All scenarios were used to detect 67 handwritten character classes using the YOLOv8 model. The annotated characters include 26 uppercase letters (A–Z), 26 lowercase letters (a–z), digits (0–9), and four special symbols. The preprocessing pipeline consists of grayscale conversion, CLAHE, Gaussian blur, adaptive thresholding, dilation, and erosion.
Model training was conducted for 30 epochs across all scenarios. Scenarios S1 and S2 employed an 80:15:5 split for training, validation, and testing, respectively. In scenario S3, the training data consisted of a combination of original and preprocessed images, while validation and testing were performed using original images only. Experimental results show mAP@0.5 scores of 78.9% for S1, 75.3% for S2, and 82.5% for S3. Scenario S3 achieved the best performance, with a precision of 81.5%, recall of 72.5%, and mAP@0.5:0.95 of 62.5%.
Actions (login required)
![]() |
View Item |
