Gelişmiş Arama

Basit öğe kaydını göster

dc.contributor.authorYılmaz, Can
dc.contributor.authorMaraş, Bahri
dc.contributor.authorArıca, Nafiz
dc.contributor.authorErtüzün, Ayşin Baytan
dc.date.accessioned2023-11-03T09:07:25Z
dc.date.available2023-11-03T09:07:25Z
dc.date.issued2023en_US
dc.identifier.citationYILMAZ, C., MARAŞ, B., ARICA, N., & ERTÜZÜN, A. B. (2023, July). Creation of Annotated Synthetic UAV Video Dataset for Object Detection and Tracking. In 2023 31st Signal Processing and Communications Applications Conference (SIU) (pp. 1-4). IEEE.en_US
dc.identifier.isbn979-835034355-7
dc.identifier.urihttps://hdl.handle.net/20.500.12960/1560
dc.description.abstractİnsansız hava araçlarından (İHA) elde edilen videolarda nesne tespit ve takibinin derin evrişimsel yapay sinir ağları (DEYSA) tarafından doğru bir şekilde yapılabilmesi için çeşitli nesnelere ya da araçlara ait referans optik akış, örtüşme ve bölütleme veri setine ihtiyaç duyulmaktadır. Gerçek hayat İHA video imgelerinde etiketlenmesinin ya da çıkartılmasının çok zor olmasından dolayı bahse konu referans bilgiler, literatürde yeterli miktarda bulunmamaktadır. Bu çalışmada referans optik akış, örtüşme ve bölütleme veri setleri, İHA bakış açısıyla yapay olarak ilk defa özgün bir şekilde üretilmiş ve literatürdeki boşluğun giderilmesi amaçlanmıştır. İHA’ların uçmakta zorlanacağı atmosfer şartları Unity motoru ile sanal senaryolar kurularak üretilmiştir. Referans veri setleri, her bir araç için Unity motoru tarafından otomatik üretilen üçgenlerin (örgü) homografi yöntemine tabi tutulmasıyla oluşturulmuştur. Bu yöntem ile 100 senaryodan oluşan 1920x1080 ve 250x250 boyutlu yapay veri setleri elde edilmiştir.en_US
dc.description.abstractIn order for object detection and tracking in videos obtained from unmanned aerial vehicles (UAVs) by deep convolutional neural networks (DCNN), extensive ground truth optical flow, occlusion and segmentation datasets, of various objects or vehicles, are required during the training and testing processes. The mentioned ground truth informations are not widely available in the literature due to the difficulty of labeling or extracting them from real-life recorded UAV video images. In this study, ground truth optical flow, occlusion and segmentation datasets were produced synthetically for the first time with the UAV point of view in a novel way, so as to fill the gap in literature. The ground truth datasets were created for each vehicle by subjecting the triangles (mesh) automatically generated by the Unity engine to the homography method. With this method, 1920x1080 and 250x250 sized synthetic datasets consisting of 100 scenarios were obtained.en_US
dc.language.isoturen_US
dc.publisherInstitute of Electrical and Electronics Engineers Inc.en_US
dc.relation.ispartof31st IEEE Conference on Signal Processing and Communications Applications, SIU 2023en_US
dc.relation.isversionof10.1109/SIU59756.2023.10223911en_US
dc.rightsinfo:eu-repo/semantics/openAccessen_US
dc.subjectOptik akışen_US
dc.subjectBölütlemeen_US
dc.subjectÖrtüşmeen_US
dc.subjectYapay veri setien_US
dc.subjectİnsansız hava aracı (İHA)en_US
dc.subjectEvrimsel yapay sinir ağları (DEYSA)en_US
dc.subjectDeep convolutional neural network (DCNN)en_US
dc.subjectOcclusionen_US
dc.subjectOptical flowen_US
dc.subjectSegmentationen_US
dc.subjectSynthetic dataseten_US
dc.subjectUnmanned air vehicle (UAV)en_US
dc.titleNesne Tespit ve Takibi için Etiketli Yapay IHA Video Veriseti Yaratımıen_US
dc.title.alternativeCreation of Annotated Synthetic UAV Video Dataset for Object Detection and Trackingen_US
dc.typeconferenceObjecten_US
dc.departmentMühendislik Fakültesi, Bilişim Sistemleri Mühendisliğien_US
dc.contributor.institutionauthorArıca, Nafiz
dc.identifier.startpage1en_US
dc.identifier.endpage4en_US
dc.relation.publicationcategoryKonferans Öğesi - Uluslararası - Kurum Öğretim Elemanıen_US


Bu öğenin dosyaları:

DosyalarBoyutBiçimGöster

Bu öğe ile ilişkili dosya yok.

Bu öğe aşağıdaki koleksiyon(lar)da görünmektedir.

Basit öğe kaydını göster