Upload
others
View
3
Download
0
Embed Size (px)
Citation preview
1
Natural Interface untuk Pengendalian Drone
Dr. Mohammad Iqbal, Muhammad Rausan Fikri
Abstrak
Drone adalah salah satu teknologi terbang mutakhir yang diciptakan manusia sebagai
pesawat tanpa awak yang memungkinkan menekan resiko kecelakaan pada manusia
untuk melakukan penerbangan terkait militer, pemetaan bahkan masuk ke dunia
pendidikan dan hiburan. Dalam penelitian ini, berusaha menggabungkan antara dua
teknologi yaitu teknologi mesin terbang dengan teknologi pengendalian
menggunakan metode natural interface. Jenis drone yang digunakan adalah AR
Drone Parrot yang memiliki spesifikasi yang baik dan tidak membutuhkan daya yang
besar untuk terbang, dan sistem pengendaliannya menggunakan kinect. Kinect
sendiri adalah sensor yang dikembangan oleh Rare, anak perusahaan dari Microsoft.
Kinect menggunakan konsep Natural User Interface (NUI). NUI adalah sebuah
pendekatan baru dalam dunia interaksi manusia dan komputer yang memiliki input
alami. Kinect ini dibuat untuk memungkinkan control tangan dari pengguna.
OpenCV (Open Computer Vision) adalah sebuah API (Application Programming
Interface) Library yang sudah sangat familiar pada Pengolahan Citra Computer
Vision. Computer Vision itu sendiri adalah salah satu cabang dari Bidang Ilmu
Pengolahan Citra (Image Processing) yang memungkinkan komputer dapat melihat
seperti manusia. Penelitian ini dibuat untuk memahami konsep mengendalikan drone
dengan kinect, dan melakukan pengujian akurasi pengendalian.
1. Pendahuluan
Teknologi pesawat tanpa awak atau drone menjadi salah satu teknologi yang
amat pesat dalam pengembangan dan pemanfaatannya di segala bidang. Pada
awalnya pembuatan pesawat tanpa awak ini bertujuan untuk keperluan militer atau
perang, namun pada beberapa tahun belakangan ini pemanfaatan pesawat tanpa awak
telah digunakan untuk keperluan lain. Seperti fotografi udara, surver udara,
pengintaian dari udara, penelitian kelautan. Pesawat tanpa awak (UAV) sendiri
merupakan sebuah model pesawat yang secara tidak langsung melibatkan pilot
sebagai pengendali, akan tetapi UAV dikendalikan secara tidak langsung oleh
seorang pemegang kendali melalui remote control atau melalui perangkat mobile
dengan konektifitas nirkabel (wireless) baik menggunakan media konektifitas WiFi
atau Radio Frequency (RF). Dalam jenis lainnya UAV juga dapat bergerak secara
otomatis diudara tanpa dikendalikan oleh siapa pun.
Didunia teknologi komersial, terdapat beragam jenis dan model UAV yang
sudah dikembangkan, diantaranya adalah AR Drone, DJ Phantom, Blade Nano, UDI
U818A, dan masih banyak lagi keluaran drone dengan berbagai fitur yang berbeda.
Salah satu jenis yang cukup populer, adalah jenis Quadcopter yang
merupakan sebuah pesawat yang memiliki 4 buah motor dan propeller yang
mengendalikan arah gerak pesawat. Empat buah motor dan propeller ini membentuk
formasi persegi dengan jarak yang sama ke titik pusat dari quadcopter. Sementara
2
untuk sistem kendali pada quadcopter, umumnya menggunakan perangkat remote
control sebagai pengendali. Sementara untuk fitur pengambilan gambar quadcopter
menggunakan kamera dan diakses melalui perangkat lain dengan transimisi data
yang terpisah.
Di sisi lainnya, perkembangan teknologi alat kendali dapat di lihat dalam
kehidupan di dalam kehidupan sehari-hari, baik dalam urursan rumah tangga,
pekerjaan serta dalam bidang militer. Alat kendali yang menggunakan alat-alat input
seperti keyboard, mouse, joystick sudah umum digunakan. Teknologi yang
mendukung interaksi manusia komputer ini kemudian berkembang ke arah yang
lebih dinamis yang aspek pengendaliannya semakin meluas pada semua bagian tubuh
manusia. Teknologi yang disebut dengan natural interface. Salah satu alat kendali
yang populer dalam teknologi natural interface ini adalah microsoft Kinect yang
dapat digunakan untuk pengendalian konsol game XBOX.
Dalam penelitilian ini, rumusan masalah yang ditetapkan untuk menggabungkan dua
teknologi Drone dan microsoft kinect sebagai pengendalinya agar dapat
berkolaborasi dengan baik adalah :
1. Bagaimana proses pengendalian drone mulai terbang (take-off) atau
mendarat (landing) ?
2. Bagaimana proses pengendalian agar drone dapat bergerak vertikal dan
horizontal ?
3. Bagaimana metode microsoft Kinect dapat mengidentifikasi pengendali
atau user ?
4. Bagaimana metode pengendalian drone memanfaatkan kinect ?
Pembahasan permasalahan pada penelitian ini adalah pada seputar prinsip
pengendalian AR drone dari Parrot dengan menggunakan kinect. Pembahasan akan
meliputi analisa rangkaian, baik secara blok diagram maupun secara lebih spesifik,
kemudian akan ditambah dengan pembahasan seputar pengerjaan alat / proyek
elektronika, baik dalam perancangan alat maupun cara pengoperasian alat.
Pengendalian AR drone dengan menggunakan Kinect ini memiliki 6 fungsi utama,
yaitu fungsi pengendalian drone bergerak ke kanan, ke kiri ke depan, ke belakang, ke
atas dan ke bawah. Dan dalam pengendalian ar drone ini disediakan interface berupa
sketsa tubuh untuk notifikasi kepada user dalam penggunaan Kinect. Jadi user dapat
mengetahui jarak minimum untuk menggunakan Kinect.
Tujuan dari penelitian ini adalah untuk memberikan pemahaman tentang
metode pengendalian drone, yang tidak hanya dengan menggunakan pengendalian
konvensional melalui alat-alat input dari desktop komputer atau dari mobile phone.
Tetapi juga dapat dilakukan dengan menggunakan sensor Kinect dari microsoft yang
merupakan sensor natural interface. Pokok bahasannya meliputi teknik-teknik
sinkronisasi kinect dengan Drone, sampai kepada pemrograman Kinect sehingga
dapat mengendalikan drone.
Metode penelitian yang dijalani meliputi :
a. Studi Pustaka (Literatur)
3
Yaitu mengambil beberapa data yang berasal dari berbagai sumber seperti
buku dan internet dimana isi dari sumber-sumber tersebut dijadikan referensi
dan acuan dalam tugas akhir ini.
b. Analisa Kebutuhan
Yaitu melakukan analisa komponen apa saja-kah yang dibutuhkan untuk
membuat alat tersebut.
c. Perancangan
Yaitu melakukan pembuatan alat dari bahan-bahan yang telah dikumpulkan
menjadu sebuah alat sampai dengan program yang digunakan.
d. Pengujian
Yaitu cara mengetahui masing-masing jalan kerja dari rangkaian alat yang
digunakan agar tidak terjadi kesalahan.
2. Tinjauan Pustaka
1.2. Konsep Drone
AR Drone sering juga disebut dengan pesawat UAV (Unmanned Aerial
Vehicle) atau pesawat nirawak (Pesawat Tanpa Awak). Pesawat ini memiliki dua
variasi utama pengendalian. Variasi pertama dalah dikendalikan oleh pilot secara
manual dari jarak jauh dengan menggunakan system radio control. Variasi kedua
adalah dikendalikan secara otomatis oleh program yang telah ditentukan sebelum
terbang. Dalam penelitian UAV, desain quadcopter sudah sangat popular.
Quadcopter adalah helikopter yang memiliki 4 baling-baling sebagai penggeraknya,
dengan kamera yang terdapat pada bagian depan dan bagian bawah. AR Drone ini
dapat dikendalikan dengan IOS atau android dengan memanfaatkan Wi-Fi. AR
Drone juga dilengkapi dengan computer system didalamnya yang memungkinkan
dapat memprogram drone sesuai yang diinginkan. Operating system yang digunakan
adalah Linux. Untuk dapat memasukkan program kedalam drone dapat
memanfaatkan hubungan Wi-Fi peer-to-peer yang bersifat Ad hoc, dimana computer
akan mengirimkan perintah kepada AR Drone untuk terbang sesuai perintah, dan AR
Drone akan mengirimkan feedback sendiri berupa tampilan gambar yang ditangkap
oleh kamera drone.
Sensor AR Drone terletak dibawah lambung kapal dari drone. AR Drone
memiliki 6 degrees of freedom atau derajat kebebasan, basis micro electro-
mechanical system (MEMS), unit pengukur. Unit pengukur ini menyediakan
software drone dengan pengukuran pitch, roll dan yaw. Dalam pengukuran unit ini
juga terdapat 3 poros akselerometer, 2 poros roll dan pitch gyrometer dan 1 poros
yaw gyrometer. AR Drone juga memiliki 2 kamera, motherboard, yang memiliki 2
processor dan sonar. Satu dari processor ini digunakan untuk mengumpulkan data
dari I/O. Yang lainnya digunakan untuk menjalankan seluruh algoritma yang
dibutuhkan drone untuk terbang dan memproses gambar. Akselerometernya adalah
BMA150 dibuat oleh Bosch Sensortec. MEMS akselerometer dibuat dengan 3
piringan dan dapat mengukur akselerasi dari arah poros.
4
Gambar 2.1 Roll, Pitch dan Yaw
Gambar 2.2 Komponen Quadrotor (AR. Drone 2.0)
AR Drone dibuat dengan 2 kamera CMOS. Satu menghadap bawah dan satu
menghadap depan. Keduanya mendukung pengambilan live video mencapai 15
frame per detik. Kamera depan memiliki resolusi 640x480 pixels (VGA) dengan 93
derajat wide-angle diagonal lens camera. Kamera depan ini berguna untuk
mendeteksi drone lainnya dalam permainan ganda. Kamera belakang memiliki
resolusi 176x144 dengan 64 derajat penglihatan. Kamera belakang memiliki
frekuensi 60 frame per detik, jadi gambar buram dapat berkurang dan meningkatkan
algoritma penerbangan. Bagaimanapun, ketika mengambil video dari kamera ini
frekuensinya tetap 15 frame per detik.
2.2 Konsep Dasar Quadcopter Quadcopter berasal dari kata quadrotor helicopter, sangat mirip dengan
helicopter. Quadcopter menggunakan empat baling-baling dan empat motor yang
5
dapat mendorong dan membantu untuk terbang naik, dari empat motor dengan
baling-baling yang disambungkan, dua motor berputar searah jarum jam (CW) dan
dua lainnya berputar melawan arah jarum jam (CCW). Seperti yang terlihat di
gambar 2.6, motor 1 dan 3 berputar searah jarum jam dan motor 2 dan 4 berputar
melawan arah jarum jam.
Gambar 2.6 Arah motor quadcopter
2.2.1 Definisi Yaw, Pitch dan Roll pada Quadcopter
Gambar 2.7 Yaw, Pitch dan Roll
Seperti yang sudah dijelaskan sebelumnya, gerakan dari quadcopter di
kendalikan oleh tiga bagian utama, Yaw, Pitch dan Roll. Bagian ini penting untuk
diketahui sebelum mulai menerbangkan quadcopter.
1. Yaw
Yaw adalah deviasi/putaran utama quadcopter yang memungkinkan untuk
berputar kanan atau kiri. Yaw dapat dikendalikan melalui katup
penghambat atau disebut juga kemudi, membuat yaw dapat berputar ke
kiri atau kanan
Gambar 2.8 Pergerakan Yaw
6
2. Pitch
Pitch adalah gerakan quadcopter yang memungkinkan untuk bergerak
maju dan mundur. Gerakan maju di dapatkan dengan mendorong tongkat
kemudi guling ke depan, yang membuat quadcopter miring dan bergerak
maju. Gerakan mundur di dapatkan dengan mendorong tongkat kemudi
guling ke belakang, yang membuat quadcopter bergerak mundur.
Gambar 2.9 Pergerakan Pitch
3. Roll
Roll membuat quadcopter terbang ke samping, ke kiri atau kanan. Roll di
kendalikan dengan tongkat kemudi guling, membuat quadcopter bergerak
ke kiri atau kanan. Jika tongkat kemudi digerakan ke kiri, quadcopter
akan terbang ke kiri, jika tongkat kemudi digerakan ke kanan, quadcopter
akan terbang ke kanan
Gambar 2.10 Pergerakan Roll
2.2.2 Orientasi Penerbangan Karena quadcopter adalah simetris, quadcopter dapat terbang dengan dua
orientasi, plus (+) dan x. Dengan plus orientasi, satu motor pada bagian depan
quadcopter bergerak, ketika orientasi x dua motor pada bagian depan quadcopter
bergerak.
Gambar 2.11 Orientasi Plus dan X
7
2.2.3 Perubahan Gerak Perubahan gerak pada orientasi plus :
1. Pitch turun (terbang maju)
Mengurangi daya dorong motor 1
Menaikan daya dorong motor 3
2. Pitch naik (terbang mundur)
Menaikan daya dorong motor 1
Mengurangi daya dorong motor 3
3. Roll kiri (terbang kiri)
Menaikan daya dorong motor 2
Mengurangi daya dorong motor 4
4. Roll kanan (terbang kanan)
Mengurangi daya dorong motor 2
Menaikan daya dorong motor 4
5. Yaw kiri (belok kiri)
Menaikan daya dorong motor 2 dan 4
Mengurangi daya dorong motor 1 dan 3
6. Yaw kanan (belok kanan)
Mengurangi daya dorong motor 2 dan 4
Menaikan daya dorong motor 1 dan 3
Perubahan gerak pada orientai x :
1. Pitch turun (terbang maju)
Mengurangi daya dorong motor 1 dan 2
Menaikan daya dorong motor 3 dan 4
2. Pitch naik (terbang mundur)
Menaikan daya dorong motor 1 dan 2
Mengurangi daya dorong motor 3 dan 4
3. Roll kiri (terbang kiri)
Menaikan daya dorong motor 2 dan 3
Mengurangi daya dorong motor 1 dan 4
4. Roll kanan (terbang kanan)
Mengurangi daya dorong motor 2 dan 3
Menaikan daya dorong motor 1 dan 4
5. Yaw kiri (belok kiri)
Menaikan daya dorong motor 2 dan 4
Mengurangi daya dorong motor 1 dan 3
6. Yaw kanan (belok kanan)
Mengurangi daya dorong motor 2 dan 4
Menaikan daya dorong motor 1 dan 3
1.3. Konsep Natural user interface
2.3 User Interface
8
Pada era 70’an, komputer hanya berfungsi sebagai alat besar untuk
menghitung. Mempercepat dan mempermudah operasi-operasi yang bila dilakukan
secara manual akan menghabiskan waktu yang melelahkan. Fungsi komputer yang
mendasar namun berjasa ini dapat berjalan karena adanya komunikasi antara
manusia dengan komputer. Manusia dapat menciptakan dan memberikan perintah
yang diinginkannya, lalu komputer menjalankannya. Media antarmuka yang
diciptakan untuk mengakomodir hubungan ini adalah command line interface(CLI).
Antarmuka ini menggunakan pengetikan kode-kode perintah sebagai metode
utamanya dalam berkomunikasi. Di era tersebut, metode ini dianggap sebagai
pencapaian yang signifikan dalam perkembangan industri teknologi. Namun, bila
kita melihat ke belakang antarmuka ini bersifat kurang alami agar dapat digunakan
oleh orang awam; adanya keperluan penguasaan ilmu yang banyak dan mendalam
karena CLI memiliki cara khas penggunaan yang rumit, keterbatasan penggunaan
kepada beberapa fungsi tertentu saja, dan memerlukan kejelian agar perintah dapat
terbaca karena terjadinya satu salah ketik.
Pada awal era 80’an, sebuah perkembangan yang drastis telah kembali
terjadi. Sebuah antarmuka baru telah lahir dari rahim dunia ilmu interaksi komputer
dengan manusia, yaitu Graphical User Interface (GUI). Selain itu, pendekatan GUI
ini juga sering disebut dengan Metaphorical User Interface (MUI). Antarmuka ini
memberikan pengalaman yang lebih alami dan kesan yang menarik secara emosional
bagi pengguna dalam berinteraksi dengan komputer. Antarmuka ini memanfaatkan
simbol-simbol metaforikal yang dimaksud untuk mewakili objek asli di dunia nyata
agar mempermudah pemahaman setiap objek dalam sistem. Metode ini memberikan
akses mudah bagi orang awam untuk mengoperasikan komputer personal, karena
GUI memberikan kemampuan untuk ‘melihat’ ke dalam dunia komputer,
menciptakan suatu lingkungan virtual untuk diselami pengguna, dan memberikan
respon visual yang muncul secara langsung.
Selama sekitar 40 tahun, cara menggunakan komputer desktop tidak
mengalami perubahan yang signifikan. Pengguna telah mengikuti diktasi kekuasaan
monitor-keyboard-mouse sejak awal tahun 1980 sampai 2014. Namun, para
pengembang teknologi saat ini telah menemukan solusi untuk menciptakan
antarmuka yang lebih ramah dan menarik untuk digunakan oleh kalangan umum, dan
hasilnya adalah yang dinamakan dengan Natural User Interface (NUI).
Gambar 2.5 Perkembangan User Interface
9
2.3.1 Definisi Natural User Interface (NUI)
NUI adalah sebuah pendekatan baru dalam dunia interaksi manusia dan
komputer yang memiliki input alami. Meskipun pendekatan ini masih mengadopsi
bentuk output dari MUI; yaitu menggunakan simbol metaforikal untuk
menggambarkan dunia virtual, namun memiliki metode penerimaan input yang
berbeda. Antarmuka ini memiliki perbedaan dalam meminimalisir durasi dan beban
pembelajaran oleh sang pengguna dalam mengoperasikan komputer. Pendekatan ini
hanya memerlukan proses pembelajaran kecil, bagi pengguna dalam percobaannya
yang pertama kali, dan diharapkan seorang pengguna yang berkembang dari titik
seorang pemula sampai titik sang ahli memiliki beban dan durasi sekecil mungkin.
Kecilnya beban belajar untuk menguasai antarmuka ini menginspirasi
pemilihan kata ‘natural’, yang dalam bahasa Indonesia diartikan sebagai kata
‘alami’, untuk mendefinisikan teknologi ini. Kata ‘alami’ memiliki arti bahwa
seseorang dapat melakukan suatu kegiatan secara langsung, dengan perlu sedikit
mempelajarinya terlebih dahulu. Dengan NUI, pengguna dapat mengoperasikan
sistem seolah mereka memang ditakdirkan untuk itu. Hal ini dapat direalisasikan
dengan mengadopsi kebiasaan dan tingkah laku yang melekat secara alamiah pada
manusia dan memanfaatkannya sebagai metode input untuk mengoperasikan sistem.
NUI memiliki kemiripan dan perbedaan dengan Intuitive Interface (II). II
memiliki perbedaan di jumlah beban pembelajaran yang dimiliki dengan NUI. II
tidak memerlukan adanya proses pembelajaran apapun bagi pengguna untuk dapat
mengoperasikan sebuah sistem. Intuitive Interface memang dirancang
memanfaatkan gesture kebiasaan sehari-hari manusia, yang tanpa perlu mempelajari
apapun lagi sebagai metode input.
2.3.2 Komponen dari Natural User Interface
Menurut PivotLabs, seiring berjalannya waktu dan terutama melalui
gelombang revolusi era ini, perangkat keras akan semakin menghilang dari
kehidupan sehari-hari kita. Teknologi akan menjadi ‘tambahan’ tanpa kelim dalam
kehidupan kita sehingga membuat gaya hidup kita semakin empowered tanpa
memberikan beban tambahan. Sebagai contoh, Google Glass memiliki tujuan untuk
membebaskan kita dari perlunya berinteraksi dengan dunia sebuah komputer
personal, namun dengan melalui lapisan antarmuka yang tidak mengganggu pada
penglihatan kita. Ini adalah fungsi teknologi sebagai pendukung bagi fungsi alamiah
manusia.
- Invisible Computitng : Invisible Computing adalah saat perangkat keras telah
menghilang secara virtual dan teknologi telah menjadi satu secara mulus
dengan kebiasaan/fungsi manusia sehari-hari.
- Supportive Computing : Supportive Computing adalah teknologi yang
mendukung fungsi natural seorang manusia, dibandingkan dengan
membutuhkan manusia untuk beradaptasi dengan fungsi-fungsi komputer.
10
- Adaptive Computing : Adaptive Computing adalah teknologi yang mampu
beradaptasi dengan menggunakan machine learning dengan cermat untuk
mengenali dan mengartikan pola dari manusia untuk menciptakan hasil dari
konteks yang berhubungan.
2.3.3 Konsep Dasar Kinect
Microsoft Kinect merupakan interactive device yang telah menerapkan NUI
(Natural User Interface). NUI merupakan generasi baru dalam interaksi manusia
computer (human computer interaction) yang dapat membuat user berinteraski
dengan device apapun, kapanpun, menggunakan gerakan serta bahasa yang mereka
gunakan sehari-hari. Microsoft kinect ini telah membuka sebuah era baru, dimana
orang-orang dapat berinteraski dengan computer dengan nyaman dan natural.
Microsoft kinect disusun oleh beberapa komponen, salah satunya adalah kamera
yang berfungsi sebagai sensor gerak. Selain kamera, Microsoft kinect juga memiliki
microphone yang berfungsi sebagai sensor suara.
Sensor gerak biasa disebut dengan motion detector, merupakan sebuah alat
yang mampu mendeteksi objek yang bergerak, atau gerakan tubuh manusia. Sensor
gerak biasanya diintegrasikan sebagai sebuah komponen dari suatu system yang
secara otomatis akan bereaksi ketika terdeteksi adanya gerakan disuatu area. Sensor
gerak elektronik terdiri dari sensor gerak yang mengubah gerakan hasil deteksi
menjadi sinyal elektrik. Sensor gerak biasanya dapat mendeteksi dalam jarak 15m -
25m. Terdapat empat tipe sensor yang digunakan dalam spectrum sensor gerak,
- Passive infrared
- Ultrasonic
- Microwave
- Tomographic
Kinect sensor, SDK (Software Development Kit), dan toolkit bekerja sebagai
satu kesatuan tim yang memberi kemampuan pada aplikasi. SDK menyediakan
software library dan tools untuk membantu developer dalam menggunakan bentuk
inputan kinect based natural input yang memberikan reaksi serta sense sesuai dengan
kejadian di dunia nyata. Gambar 2.4 dibawah ini menjelaskan tentang kinect dan
software library yang berinteraksi dengan aplikasi.
11
Gambar 2.4 Komponen SDK
Berikut Penjelasannya :
1. Kinect hardware
Komponen penyusun hardware yaitu kinect sensor dan USB hub untuk
menghubungkan kinect sensor pada komputer.
2. Kinect driver
Merupakan driver kinect untuk windows yang diinstal sebagai bagian dari
proses setup SDK. Kinect driver berfungsi untuk mendukung:
a. Microphone array pada kinect sebagai kernel-mode audio device yang
dapat diakses secara langsung melalui standar audio APIs windows
b. Audio dan video streaming kontrol untuk streaming audio dan video
(color, depth, dan skeleton)
c. Salah satu fungsi device yang memungkinkan aplikasi menggunakan
lebih dari satu kinect.
3. Audio dan video komponen
Kinect Natural User Interface (NUI) untuk tracking skeleton, audio, warna
dan depth imaging
4. DirectX Media Object (DMO)
Untuk pembentukan beam forming microphone array dan audio score
localization
5. Windows 7 standart APIs
Audio, speech, dan media APIs pada windows 7, sesuai dengan windows 7
SDK dan Microsoft speech SDK.
Seperti yang telah dijelaskan sebelumnya, kinect sensor, SDK (Software
Development Kit), dan toolkit bekerja sebagai satu kesatuan tim yang memberi
kemampuan pada aplikasi. Berikut merupakan penjelasan mengenai cara kerja dari
kinect sensor, SDK dan toolkit
1. Kinect for windows sensor
12
Kinect sensor berfungsi untuk menyediakan image frame yang berupa data
mentah dari RGB kamera, depth image frame dari depth kamera, setra audio
data dari microphone array pada SDK.
2. Kinect for windows SDK
Berfungsi untuk memproses data mentah dari sensor untuk menyediakan
informasi seperti skeleton tracking dari dua orang pemain, player tracking
untuk 6 orang pemain, dan word recognition untuk bahasa yang diberikan
dari audio data.
3. Kinect for windows Developer toolkit
Toolkit digunakan untuk memudahkan developer dalam membangun
aplikasinya, toolkit menyediakan banyak sample code aplikasi yang
menunjukkan bagaimana cara menggunakan fitur-fitur pada SDK seperti
kinect cursor dan kinect button yang akan membantu developer dalam
membangun interface secara cepat. Menggunakan komponen pada toolkit
akan membuat developer dapat focus pada satu masalahnya.
2.3.4 Cara Kerja Kinect Pada saat kinect berjalan . kinect membaca layout ruangan dan
mengkonfigurasikan besar ruang yang akan dijadikan area pengguna. Kinect
mendeteksi dan membaca 48 points pada setiap badan pengguna, dan melakukan
mapping untuk mereproduksi informasi digital dari badan pengguna termasuk
struktur skeleton dan detail muka.
Developer memutuskan untuk tidak memprogram satu per satu combination
aksi dan reaksi untuk dibaca pada software kinect. Namun system kinect akan belajar
bagaimana bereaksi berdasarkan bagaimana manusia bekerja dalam hal ini adalah
rata-rata gesture manusia diseluruh dunia
Untuk menjalankan proses system kinect dalam memahami gesture, Developer
kinect mengumpulkan banyak sekali data dari motion capture dalam kehidupan
nyata. Lalu, kinect memproses data menggunakan machine-learning algorthm yang
di buat oleh Jamie Shotton, peneliti pada microsoft research cambridge di inggris.
Lalu developers dapat mengembangkan data model yang merepresentasikan manusia
berdasarkan umur, tipe badan, genders dan pakaian. Dengan memilih data.
Developers membuat kinect memiliki kemampuan bekerja dalam mempelajari
pergerakan skeleton pada setiap model, yang terhubung dengan joint dan jarak antara
joint tersebut.
3. Kolaborasi AR Drone dan Kinect
3.1 Desain Sistem Pada penelitian ini akan menggunakan CV Drone sebagai library utama untuk
membuat system. Alasannya karena CV Drone menyediakan fungsi untuk mengontrol dan
13
mendapatkan video dari AR Drone, dan alasan lainnya adalah karena CV Drone memiliki library tambahan seperti OpenCV 3.0.0 Alpha, FFmpeg 2.2.3 dan POSIX untuk Win32 2.9.1 (Puku0x, 2014). Library tersebut akan memudahkan penelitian ini ketika membuat system tanpa memerlukan menyiapkan library tambahan pada Microsoft Visual Studio 2012.
Dalam Kinect, terdapat skeleton recognition yang membuat tubuh objek dapat mengendalikan AR Drone dengan menggunakan gerakan tangan. Pada penelitian ini akan menggunakan konsep Kinect untuk mengendalikan AR Drone.
Gambar 3.1 Desain Sistem
Gambar 3.1 memperlihatkan desain system dari penelitian ini. Komputer akan mendapatkan gambar video dari AR Drone melalui koneke wi-fi. Setelah itu, komputer akan melakukan skeleton recognition pada Kinect. Setelah skeleton terdeteksi maka AR Drone siap dikendalikan dengan gerakan tangan. 3.1.1 Video Stream
Pada bagian sebelumnya sudah dijelaskan mengenai kamera AR Drone yang mendukung pengambilan video langsung yang mencapai 15 frames per detik dan memiliki resolusi VGA 640x480. Hal pertama yang harus dilakukan ketika membuat system adalah mendapatkan pengambilan video langsung dari AR Drone dan menyiapkan setiap frame pada video sebagai gambar. 3.1.2 Skeleton Recognition
Proses selanjutnya setelah mendapatkan frame gambar dari AR Drone adalah skeleton recognition. Skeleton Recognition ini berguna untuk menggerakan drone, untuk tahap ini user berdiri sejauh 3 meter agar Kinect dapat membaca skeleton dari user. 3.1.3 Mengontrol AR Drone
Dalam penelitian ini, AR Drone dikendalikan dengan beberapa gerakan tangan kanan dan kiri untuk melakukan manuver dari AR Drone itu sendiri. Tangan kiri berfungsi untuk mengatur ketinggian terbang dari drone dan tangan kanan berfungsi untuk mengendalikan gerakan dari drone. Kendali itu sendiri untuk bergerak naik/turun, ke kanan/kiri dan maju/mundur :
- Take Off/Terbang Untuk menerbangkan drone gerakkan tangan kiri ke atas sekitar 75-90 derajat, maka drone akan terbang ke atas.
- Naik/turun Untuk bergerak naik/turun gerakkan tangan kanan secara perlahan ke atas dan drone akan terbang naik sedangkan untuk gerakkan turun cukup gerakkan tangan kanan kebawah secara perlahan maka drone akan terbang turun.
- Maju/Mundur
14
Untuk gerakan maju/mundur gunakan tangan kanan. Untuk bergerak maju gerakkan tangan kanan ke depan sedikit condong ke kiri, maka drone akan bergerak maju ke depan. Dan untuk bergerak mundur, gerakkan tangan ke depan sedikit condong ke kanan maka drone akan bergerak mundur.
- Ke kanan/kiri Untuk menggerakkan drone ke kanan/kiri. Gunakan tangan kanan untuk kendalinya. Untuk ke kanan, angkat tangan kanan sejajar dengan dada dan gerakan sedikit ke kanan untuk menggerakkan drone ke arah kanan. Sedangkan untuk ke kiri, angkat tangan kanan sejajar dengan dada dan gerakan tangan sedikit ke kiri untuk menggerakkan drone ke arah kiri.
- Hovering/Melayang Untuk membuat drone melayang gerakkan kedua tangan ke atas sejajar dada, maka drone akan stand by di udara.
- Landing/Mendarat Untuk mendaratkan drone, gerakkan kedua tangan secara bersamaan ke bawah maka drone akan langsung mendarat.
Contoh Pengendalian Untuk menerbangkan drone, user membuat gesture untuk take off yaitu tangan kiri di angkat ke atas. Drone dapat terbang dengan konsep yang telah dibuat. Gesture yang diberikan user ditangkap oleh sensor Kinect yang selanjunya gesture tersebut diterima oleh drone sebagai perintah untuk take off. Sensor Kinect dilengkapi dengan 3 kamera yaitu infra merah transmitter/receiver dan kamera rgb. Infra merah transmitter menangkap gesture dari user dan infra merah receiver memproses gesture dari user yang selanjutnya akan diterima drone sebagai perintah untuk take off.
15
3.2 Analisa Flowchart
Gambar 3.2 Flowchart
Pada flowchart pada gambar 3.2 terdapat beberapa simbol terminal, decision, process, dan connector. Simbol terminal digunakan untuk menyatakan awal atau akhir suatu program. Simbol decision digunakan untuk menunjukkan kondisi yang terdapat dua kemungkinan yaitu ya atau tidak. Simbol process digunakan untuk menunjukkan tindakan yang dilakukan. Simbol connector digunakan untuk menghubungkan sambungan dari proses satu ke proses lainnya.
Dari flowchart yang terdapat pada gambar 3.2 dapat dilihat langkah awal adalah terminal yang menyatakan mulai. Setelah itu lanjut menuju kondisi yang menyatakan apakah kinect terdeteksi. Jika terdeteksi maka lanjut ke tahap selanjutnya yaitu input gesture. Apabila tidak ada daya maka flowchart akan menuju ke terminal selesai/berhenti.
Setelah input gesture maka akan masuk ke kondisi selanjutnya yaitu gesture/gerakan, yang di dalamnya terdapat beberapa gerakan tangan yang menentukan untuk pengendalian AR Drone.
Kondisi pertama adalah tangan kiri ke atas 75 derajat/kedua tangan kebawah, itu akan menyebabkan drone take off atau terbang dan pada gerakan turun akan membuat drone landing atau mendarat.
Kondisi kedua adalah tangan kanan ke atas atau ke bawah, itu akan menyebabkan drone bergerak naik atau turun.
Kondisi ketiga adalah tangan kanan ke depan atau ke belakang, itu akan menyebabkan drone bergerak maju atau mundur.
Kondisi keempat adalah tangan kiri ke kanan atau ke kiri, itu akan menyebabkan drone bergerak ke kanan atau kiri.
16
Kondisi kelima adalah tangan kanan ke kanan atau ke kiri, itu akan menyebabkan drone berputar ke kanan atau kiri.
3.3 Kebutuhan Penelitian Dalam penelitian ini membutuhkan beberapa peralatan. Kebutuhan ini dipisah
menjadi dua bagian, hardware dan software. Keduanya akan dijelaskan dalam sub bab selanjutnya.
3.3.1 Hardware Selama penelitian AR Drone, ada beberapa hardware yang dibutuhkan yaitu :
- AR Drone Parrot 2.0 - Sensor Kinect - Notebook Lenovo Ideapad S410P dengan spesifikasi:
Processors : Intel Core i5-4200U 1.60GHz
RAM : 4GB DDR3
VGA : Intel Geforce GT-640 2GB
Harddisk : 500GB
Display Resolution : 1366 x 768 pixels
Wi-fi integrated 802.11 b/g/n
Gambar 3.3 Kebutuhan Hardware
3.3.2 Software Selama penelitian AR Drone, ada beberapa software yang digunakan yaitu
Sistem Operasi Windows 8 Pro 64-bit
Microsoft .NET Framework Version 4.5.51209
Microsoft Visual Studio Proffesional 2012 Version 11.0.50727.1
OpenCV 3.0.0 beta
17
3.4 Persiapan Teknis
Penelitian ini juga membutuhkan beberapa persiapan teknis sebelum memulai pengembangan system. Persiapan ini juga dibagi menjadi tiga bagian, hardware, software dan pemrograman. Ketiga persiapan ini akan dibahas pada sub bab selanjutnya. 3.4.1 Persiapan Hardware
Persiapan hardware ini harus sudah selesai saat memulai percobaan. 1. Persiapan AR Drone :
Letakkan AR Drone pada permukaan datar.
Buka cover dari AR Drone.
Masukkan baterai ke dalam AR Drone.
Sambungkan baterai ke port AR Drone.
Setelah selesai booting, ke empat LED akan menyala hijau.
2. Persiapan computer :
Hidupkan koneksi wi-fi.
Pilihan yang tersedia dari jaringan wi-fi akan terlihat.
Pilih dan sambungkan ke jaringan yang bernama ardrone2_iqbalgoh.
Gambar 3.4 Koneksi wi-fi
3.4.2 Persiapan Software Persiapan software ini harus sudah selesai sebelum membuat system. 1. Instalasi Microsoft Visual Studio 2012:
Sebelum menginstal, hal yang pertama harus dilakukan adalah menginstal Microsoft.Net Framework 4.5. software ini dapat di download di www.microsoft.com.
Setelah menginstal Microsoft .Net Framework 4.5, lalu install Microsoft Visual Studio 2012
18
2. Instalasi OpenCV 3.0.0 beta (Flowfree, 2012):
Gambar 3.5 Extract OpenCV pada direktori yang ditentukan
Pertama, download OpenCV installer pada www.opencv.org.
Klik dua kali untuk memulai instalasi.
Instal ke dalam direktori, contoh : C:\
Seperti yang terlihat pada gambar 3.3, semua file dari OpenCV ter-ekstrak. Installer akan membuat direktori baru C:\opencv yang berisi file header OpenCV, library, contoh kode.
Buka Control Panel, lalu System, lalu Advanced system settings, lalu Advance Tab.
Pada bagian System Variabel, pilih Path, lalu Edit, dan ketik: C:\opencv\build\x84\vc2012\bin; lalu klik OK. Direktori ini berisi OpenCV DLL yang dibutuhkan untuk menjalanka kode.
Restart komputer. 3. Membuat CV Drone 2.4.8 (Puku0x, 2014):
Download CV Drone dari github.com/puku0x/cvdrone.
Extrak file .zip pada direktori.
Buka folder build, lalu vs2012, lalu klik dua kali pada test.sln untuk membuka kode proyek.
Tekan F7 untuk build.
Setelah mengkoneksikan komputer dengan AR Drone melalui wi-fi, tekan F5 untuk menjalankan program.
Jika berhasil, program akan mengeluarkan tampilan video stream dari kamera AR Drone seperti gambar 3.4
19
Gambar 3.6 Percobaan CV Drone 4. Membuat Firefly Kinect (sebastianbk, 2014)
Download firefly dari github.com/sebastianbk/Firefly.
Ekstrak file.zip pada direktori.
Buka folder Firefly-master, lalu pilih Firefly.sln untuk membuka kode proyek.
Tekan F7 untuk build.
Koneksikan Kinect dengan komputer.
Setelah Kinect tersambung, sambungkan komputer dengan AR Drone melalui wi-fi.
Setelah semuanya terkoneksi, tekan F5 untuk menjalankan program.
Jika berhasil, akan keluar tampilan interface Kinect seperti gambar 3.5 dibawah ini.
Gambar 3.7 Percobaan Firefly
20
3.4.3 Persiapan Pemrograman Persiapan pemrograman ini harus sudah siap saat akan melakukan percobaan:
CV DRONE
1. Buka CV Drone file proyek pada Microsoft Visual Studio 2012. File proyek harus berekstensi .SLN.
2. Tulis kode pada main.cpp pada folder proyek. 3. Dalam file header CV Drone (ardrone/ardrone.h) pada main.cpp untuk
memanggil fungsi CV Drone, seperti AR Drone image stream, kontrol AR Drone. 4. Tekan F7 untuk build dan compile kode. 5. Microsoft Visual Studio 2012 akan membuat file .exe setelah proses building
selesai. File .exe ini bisa dijalankan oleh user lain tanpa harus menginstal Microsoft Visual Studio 2012 pada komputer mereka.
6. Tekan F5 untuk menjalankan program. Harus diingat komputer harus terambung dengan AR Drone melalui wi-fi sebelum menjalankan program.
Firefly
1. Buka file proyek Firefly pada Microsoft Visual Studio 2012. File proyek harus berekstensi .SLN.
2. Tulis kode pada main.cpp pada folder proyek. 3. Dalam file header Firefly (ardrone/ardrone.h) pada main.cpp untuk memanggil
fungsi Firefly, seperti Gesture tangan, pengenalan tengkorak/skeleton recognition dan kontrol AR Drone.
4. Tekan F7 untuk build dan compile kode. 5. Microsoft Visual Studio 2012 akan membuat file .exe setelah proses building
selesai. File .exe ini bisa dijalankan oleh user lain tanpa harus menginstal Microsoft Visual Studio 2012 pada komputer mereka.
6. Tekan F5 untuk menjalankan program. Harus diingat komputer harus terambung dengan AR Drone melalui wi-fi sebelum menjalankan program.
4. Implementasi Desain
Implementasi desain adalah tahap dimana penelitian mulai membuat system
nyata pada ide dasar yang telah dijelaskan pada bab sebelumnya. Melalui tahap ini,
output yang dihasilkan adalah system yang telah dibuat dalam penelitian ini. Output
ini akan di analisa untuk mencari hal yang dibutuhkan untuk diperbaiki pada
metodologi penelitian.
Setelah menyelesaikan persiapan teknis, penelitian ini mulai
mengimplementasi desain yang sudah dijelaskan dalam bab sebelumnya.
Implementasi ini berjalan secara lambat, mulai dari percobaan setiap proses dalam
desain untuk menampilkan analisa yang didasarkan pada pengembangan penelitian
yang lebih jauh. Implementasi ini juga termasuk kesimpulan dari percobaan dan
analisa dari hasil keseluruhan system.
4.1 Tes System dan Analisa
Tes system dan analisa adalah tahap untuk menampilkan percobaan setiap
proses dalam system, dan menampilkan analisa pada setiap proses untuk menunjukan
21
hipotesis pada hasil akhir dari system. Pada tahap ini juga akan ditemukan hasil dari
percobaan alat, jawaban dari beberapa masalah yang terjadi dalam system.
Tes system dan analisi ini adalah hasil tidak langsung dari setiap proses yang
telah di deskripsikan pada metodologi penelitian. Meskipun, dalam percobaan, ada
sedikit perbedaan yang akan terlihat dari metodologi penelitian, seperti menentukan
nilai terendah dan terbesar yang akan ditemukan dalam proses mengendalikan drone
pada bab sebelumnya. Untuk detailnya, semua percobaan dan analisa akan di
deskripsikan pada sub bab selanjutnya.
4.2 Pengujian Kinect Pada pengujian ini, komponen yang diuji adalah Kinect. Bagaimana Kinect
dapat mengendalikan drone dengan input dari gesture/gerakan tangan kanan dan kiri.
Percobaan yang diuji ada beberapa tahap yaitu :
1. Koneksikan Kinect ke PC/Laptop.
2. Setelah Kinect tersambung dengan PC/Laptop, buka program untuk
menjalankan Kinect.
3. Akan terlihat tampilan seperti berikut
Gambar 4.1 Kinect Firefly
Pada gambar 4.1 terdapat 9 blok kanan dan kiri yang masing-masing
memiliki fungsi dalam pengendalian drone.
4. Gerakan Take Off/Terbang
Gambar 4.2 Gesture untuk Take off
22
Pada gambar 4.2 menunjukkan gerakan tangan untuk menerbangkan
drone, yaitu tangan kiri di angkat sekitar 75-90 derajat ke atas.
5. Terbang Naik
Gambar 4.3 Gesture untuk Terbang Naik
Pada gambar 4.3 menunjukkan gerakan tangan untuk membuat drone
terbang naik, yaitu tangan kiri pada posisi tengah dan tangan kanan di
angkat ke atas, maka drone akan terbang perlahan naik ke atas.
6. Terbang Turun
Gambar 4.4 Gesture untuk Terbang Turun
23
Pada gambar 4.4 menunjukkan gerakan tangan untuk membuat drone
terbang turun, yaitu tangan kiri pada posisi tengah dan tangan kanan di
turunkan ke bawah, maka drone akan terbang perlahan turun ke bawah.
7. Belok Kanan
Gambar 4.5 Gesture untuk Belok Kanan
Pada gambar 4.5 menunjukkan gerakan tangan untuk membuat drone
belok ke arah kanan, yaitu tangan kiri digerakan ke arah kanan, maka
drone akan terbang perlahan menuju ke arah kanan.
8. Belok Kiri
Gambar 4.6 Gesture untuk Belok Kiri
24
Pada gambar 4.6 menunjukkan gerakan tangan untuk membuat drone
belok ke arah kiri, yaitu tangan kiri digerakan ke arah kiri, maka drone
akan terbang perlahan menuju ke arah kiri.
9. Putar Kanan
Gambar 4.7 Gesture untuk Putar Kanan
Pada gambar 4.7 menunjukkan gerakan tangan untuk membuat drone
berputar ke kanan, yaitu tangan kiri pada posisi tengah dan tangan kanan
ke arah kanan, maka drone akan bergerak memutar kanan secara
perlahan.
10. Putar Kiri
Gambar 4.8 Gesture untuk Putar Kiri
25
Pada gambar 4.8 menunjukkan gerakan tangan untuk membuat drone
berputar ke kanan, yaitu tangan kiri pada posisi tengah dan tangan kanan
ke arah kiri, maka drone akan bergerak memutar kiri secara perlahan.
11. Terbang Maju
Gambar 4.9 Gesture untuk Terbang Maju
Pada gambar 4.9 menunjukkan gerakan tangan untuk membuat drone
terbang maju, yaitu tangan kiri pada posisi tengah dan tangan kanan
bergerak maju, maka drone akan terbang maju secara perlahan.
12. Terbang Mundur
Gambar 4.10 Gesture untuk Terbang Mundur
26
Pada gambar 4.10 menunjukkan gerakan tangan untuk membuat drone
terbang maju, yaitu tangan kiri pada posisi tengah dan tangan kanan
bergerak mundur, maka drone akan terbang mundur secara perlahan.
13. Landing
Gambar 4.11 Gesture untuk Mendarat
Pada gambar 4.11 menunjukkan gerakan tangan untuk membuat drone
landing atau mendarat, yaitu tangan kiri dan kanan digerakkan menuju ke
bawah secara bersamaan, maka drone akan mendarat.
4.3 Tabel Pengamatan
Di dalam table pengamatan ini terdapat beberapa kondisi dalam percobaan
penerbangan drone yaitu : Gesture cepat, lambat dan berhenti. Setiap kondisi
memiliki hasil output yang berbeda pada gerakan terbang dari drone
Tabel 4.1 Gesture Cepat
Input Kondisi Output
Gesture Terbang Naik
(Tangan kanan ke atas) Cepat
Drone terbang ke atas
dengan cepat tidak stabil
Gesture Terbang Turun
(Tangan kanan ke bawah) Cepat
Drone terbang ke bawah
dengan cepat tidak stabil
Gesture Belok Kanan
(Tangan kiri ke kanan) Cepat
Drone belok ke kanan
dengan cepat tidak stabil
Gesture Belok Kiri Cepat Drone belok ke kiri
27
(Tangan kiri ke kiri) dengan cepat tidak stabil
Gesture Putar Kanan
(Tangan kanan ke kanan) Cepat
Drone putar ke arah kanan
dengan cepat tidak stabil
Gesture Putar Kiri
(Tangan kanan ke kiri) Cepat
Drone putar ke arah kiri
dengan cepat tidak stabil
Gesture Terbang Maju
(Tangan kanan ke depan) Cepat
Drone terbang maju
dengan cepat tidak stabil
Gesture Terbang Mundur
(Tangan kanan ke
belakang)
Cepat
Drone terbang mundur
dengan cepat tidak stabil
Tabel 4.2 Gesture lambat
Input Kondisi Output
Gesture Terbang Naik
(Tangan kanan ke atas) Lambat
Drone terbang ke atas
secara perlahan
Gesture Terbang Turun
(Tangan kanan ke bawah) Lambat
Drone terbang ke bawah
secara perlahan
Gesture Belok Kanan
(Tangan kiri ke kanan) Lambat
Drone belok ke kanan
secara perlahan
Gesture Belok Kiri
(Tangan kiri ke kiri) Lambat
Drone belok ke kiri secara
perlahan
Gesture Putar Kanan
(Tangan kanan ke kanan) Lambat
Drone putar ke arah kanan
secara perlahan
Gesture Putar Kiri
(Tangan kanan ke kiri) Lambat
Drone putar ke arah kiri
secara perlahan
Gesture Terbang Maju
(Tangan kanan ke depan) Lambat
Drone terbang maju secara
perlahan
Gesture Terbang Mundur
(Tangan kanan ke
belakang)
Lambat
Drone terbang mundur
secara perlahan
Table 4.1 dan 4.2 adalah perbandingan saat pengendalian drone dengan
gesture tangan. Pada saat pengendalian dengan gesture cepat, output yang dihasilkan
dari drone adalah terbang dengan kondisi tidak stabil, maksud dari tidak stabil disini
adalah drone terbang mengikuti perintah gesture, hanya saja respon dari drone sangat
28
terlambat karena drone harus mengikuti perubahan gesture yang dilakukan oleh user.
Sedangkan pada saat pengendalian drone dengan gesture lambat, output yang di
hasilkan drone terbang dengan perlahan mengikuti perintah yang diberikan oleh user.
Jadi dalam pengendalian ini drone lebih baik dikendalikan dengan gesture yang
lambat, karena drone dapat membaca setiap perintah dari user dengan baik sehingga
terbang dari drone dapat bergerak dengan lancar dan respon dari drone sesuai dengan
perintah yang diberikan oleh user.
5. Kesimpulan dan Saran
5.1. Kesimpulan
Berdasarkan hasil ujicoba dan pengamatan yang sebelumnya telah dilakukan,
memperoleh hasil yang baik dan sesuai yang diharapkan, cara kerja alat berjalan
dengan baik sehingga dari proses yang telah dilakukan tersebut bahwa pada
penelitian ini dapat disimpulkan sebagai berikut.
1. Kinect dalam pengendalian drone ini berjalan sesuai dengan fungsi yang
diinginkan, dan gesture yang dibuat dapat dibaca dengan baik oleh
Kinect.
2. Jarak optimal untuk identifikasi skeleton dari Kinect yaitu 3 meter, agar
seluruh skeleton dari user dapat terbaca oleh Kinect. Jika user berdiri
kurang dari 3 meter Kinect tetap menangkap skeleton dari user, hanya
saja bagian kepala atau kaki tidak dapat teridentifikasi.
3. Gesture yang dibuat cukup optimal dalam pengendalian, karena dibuat
semudah mungkin untuk mengendalikan drone berdasarkan gesture dari
tangan.
4. Tingkat akurasi pengendalian drone dengan Kinect ini cukup baik, karena
drone dapat mengikuti setiap gesture yang diberikan dengan tepat waktu
dan sesuai arah yang diberikan.
5. Dalam pengendalian, memberikan gesture cepat dapat membuat drone
terbang dengan akurasi yang buruk karena drone harus cepat membaca
setiap perubahan gesture yang diberikan oleh user. Sedangkan pada
gesture lambat, terbang dari drone terlihat lebih stabil dan memiliki
tingkat akurasi yang tinggi dalam pengendaliannya.
5.2. Saran
Setelah semua proses pengerjaan dan proses pengujian banyak perbaharuan
yang perlu dilakukan untuk menyempurnakan alat ini, maka saran yang dapat
diberikan adalah sebagai berikut.
1. Untuk gesture pengendalian ini dapat dibuat lebih sederhana lagi seperti
hanya menggunakan satu tangan dalam pengendaliannya.
2. Untuk interface sendiri dapat ditambahkan real time video yang di
dapatkan dari kamera yang terdapat pada drone.
3. Untuk memudahkan pengguna yang awam, dapat ditambahkan interface
untuk identifikasi pada Kinect. Jadi user dapat mengetahui apakah
skeleton dari user sudah terdeteksi atau belum.
29
DAFTAR PUSTAKA
[1] Luukkonen T. 2011. Model and control of quadcopter. Independent Reseach
Project in Applied Mathematics. 22 Agustus 2011. Espo. Hal 1.
[2] Joni Made, Raharjo Budi. 2011. Pemrograman C dan Implementasinya.
Bandung : Informatika.
[3] Webb, J., and Ashley, J. 2012, Beginning Kinect Programming with the
Microsoft Kinect SDK. Apress.
[4] Microsoft Research. 2011, Getting Started with the Kinect for Windows SDK Beta
from Microsoft Research. Technical Report. Chicago: Microsoft Corporation. Beta 1
Draft Version 1.1
[5] Agung Prayitno. 2013, Perancangan Simulink Model dari AR.Drone sebagai
Simulator Kontrol Quadrotor. Proceeding Seminar Nasional Riset Teknologi
Informasi.
[6] Alan H, Chi-Yu H. 2014. Embedded Operating Systems. Edisi . Springer
Verlag. London.