Path Planning Based On Deep Reinforcement Learning In Human-Robot Collaboration

Febrianto, Rokhmat (2023) Path Planning Based On Deep Reinforcement Learning In Human-Robot Collaboration. Masters thesis, Institut Teknologi Sepuluh Nopember.

[thumbnail of 6022202012-Master_Thesis.pdf] Text
6022202012-Master_Thesis.pdf - Accepted Version
Restricted to Repository staff only until 1 April 2025.

Download (7MB) | Request a copy

Abstract

Visual navigation is required for many robotics applications, from mobile robotics for motion manipulation to automated driving. One of the most frequently used visual navigation technologies is path planning. This method considers finding a valid configuration sequence to move from the starting point to the destination point. Deep reinforcement learning (DRL) provides a trainable, mapless approach by integrating path planning, localization, and image processing in a single module. Therefore, the approach can be optimized for a particular environment. However, DRL-based navigation is mostly validated in simple simulation environments with modest sizes. Therefore, this research develops a new visual navigation architecture method using deep reinforcement learning. A realistic simulation framework has been designed that resembles a room with several models of objects in it. Agents in the simulator will carry out the learning process by implementing deep reinforcement learning on path planning with the support of A2C networks, LSTM and auxiliary tasks. The method on the agent was evaluated in a simulation framework which was carried out 10 times, and each experiment was carried out in 1000 randomly generated environments. Training takes around 18 hours on a single GPU. The results obtained are that in a wider simulation environment, the method in this study has a 99.81% success rate in finding the purpose of a particular image. These results make the proposed method applicable to a wider range of environments and this approach can be used for human-robot collaboration.
==============================================================================================================================
Navigasi visual diperlukan untuk banyak aplikasi robotika, mulai dari mobile robotics untuk manipulasi gerakan hingga automated driving. Salah satu teknologi navigasi visual yang sering digunakan adalah path planning. Metode ini mempertimbangkan cara menemukan urutan konfigurasi yang valid untuk berpindah dari titik awal ke titik tujuan. Deep reinforcement learning (DRL) menyediakan pendekatan mapless yang dapat dilatih dengan mengintegrasikan path planning, localization, dan pemrosesan gambar dalam satu modul. Oleh karena itu, pendekatan dapat dioptimalkan untuk lingkungan tertentu. Namun, navigasi berbasis DRL sebagian besar divalidasi dalam lingkungan simulasi sederhana dengan ukuran yang tidak terlalu besar. Oleh karena itu, dalam penelitian ini mengembangkan metode arsitektur navigasi visual baru menggunakan deep reinforcement learning. Telah dirancang framework simulasi realistis yang menyerupai keadaan ruangan dengan beberapa model barang di dalamnya. Agen dalam simulator akan melakukan proses pembelajaran dengan menerapkan deep reinforcement learning pada path planning dengan dukungan jaringan A2C, LSTM dan auxiliary tasks. Metode pada agen dievaluasi dalam framework simulasi yang dilakukan sebanyak 10 kali percobaan, dan setiap percobaan dilakukan di 1000 lingkungan yang dibuat secara acak. Pelatihan memakan waktu sekitar 18 jam pada satu GPU. Hasil yang didapatkan bahwa dalam lingkungan simulasi yang lebih luas, metode dalam penelitian ini memiliki tingkat keberhasilan 99,81% dalam menemukan tujuan dari gambar tertentu. Hasil ini membuat metode yang diusulkan dapat diterapkan pada lingkungan yang lebih luas dan pendekatan ini dapat digunakan untuk kolaborasi manusia dengan robot.

Item Type: Thesis (Masters)
Uncontrolled Keywords: Deep reinforcement learning, vision-based navigation, path planning
Subjects: Q Science > QA Mathematics > QA336 Artificial Intelligence
Q Science > QA Mathematics > QA76.87 Neural networks (Computer Science)
T Technology > T Technology (General) > T57.62 Simulation
Divisions: Faculty of Intelligent Electrical and Informatics Technology (ELECTICS) > Electrical Engineering > 20101-(S2) Master Thesis
Depositing User: Rokhmat Febrianto
Date Deposited: 27 Jan 2023 01:51
Last Modified: 27 Jan 2023 01:51
URI: http://repository.its.ac.id/id/eprint/95606

Actions (login required)

View Item View Item