<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
  <dcvalue element="contributor" qualifier="advisor">구형일</dcvalue>
  <dcvalue element="contributor" qualifier="author">김영광</dcvalue>
  <dcvalue element="date" qualifier="issued">2023-02</dcvalue>
  <dcvalue element="identifier" qualifier="other">32529</dcvalue>
  <dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;aurora.ajou.ac.kr&#x2F;handle&#x2F;2018.oak&#x2F;24379</dcvalue>
  <dcvalue element="description" qualifier="none">학위논문(석사)--아주대학교&#x20;일반대학원&#x20;:전자공학과,2023.&#x20;2</dcvalue>
  <dcvalue element="description" qualifier="abstract">본&#x20;논문에서는&#x20;RGB&#x20;영상으로부터&#x20;군용표적의&#x20;거리를&#x20;추정하는&#x20;새로운&#x20;비전&#x20;기반&#x20;방법을&#x20;제시한다.&#x20;제시된&#x20;방법은&#x20;객체탐지&#x20;기술을&#x20;이용하여&#x20;군용표적의&#x20;경계상자&#x20;및&#x20;클래스를&#x20;획득하고&#x20;해당&#x20;정보를&#x20;이용하여&#x20;거리를&#x20;추정한다.&#x0A;&lt;br&gt;군용표적에&#x20;대한&#x20;훈련&#x20;데이터는&#x20;매우&#x20;제한적이기&#x20;때문에&#x20;군사용&#x20;시뮬레이터에서&#x20;생성한&#x20;가상이미지를&#x20;이용하여&#x20;혼합&#x20;학습을&#x20;수행하였다.&#x20;YOLOv3&#x20;기반&#x20;기존&#x20;방법은&#x20;모바일&#x20;장치에서&#x20;느리게&#x20;동작하므로&#x20;최신&#x20;경량의&#x20;객체탐지기인&#x20;YOLOv7-tiny를&#x20;적용하였다.&#x20;경량화된&#x20;모델로&#x20;인해&#x20;원거리에&#x20;위치한&#x20;표적의&#x20;탐지&#x20;성능이&#x20;저하되어&#x20;조준점을&#x20;이용한&#x20;전처리,&#x20;후처리&#x20;방법으로&#x20;성능&#x20;저하를&#x20;보상하였다.&#x20;전처리로&#x20;조준점&#x20;주변의&#x20;영상을&#x20;확대&#x20;입력하고,&#x20;후처리로&#x20;조준점에&#x20;해당되는&#x20;경계상자를&#x20;선택하여&#x20;소형&#x20;표적의&#x20;탐지&#x20;성능을&#x20;향상시켰다.&#x20;&#x0A;&lt;br&gt;실험&#x20;결과&#x20;제안한&#x20;방법의&#x20;거리오차는&#x20;평균&#x20;제곱근&#x20;오차(Root&#x20;Mean&#x20;Square&#x20;Error)로&#x20;12.62m&#x20;이며&#x20;기존&#x20;방법&#x20;보다&#x20;원거리&#x20;탐지&#x20;성능&#x20;및&#x20;속도가&#x20;향상되었다.&#x20;특히&#x20;시뮬레이터에서&#x20;생성한&#x20;가상이미지로&#x20;학습한&#x20;모델은&#x20;군용차량의&#x20;AP(Average&#x20;Precision)가&#x20;10%&#x20;증가하였다.&#x20;제안한&#x20;방법은&#x20;모바일&#x20;기기에&#x20;적용하여&#x20;향후&#x20;군용&#x20;작전에&#x20;활용&#x20;될&#x20;수&#x20;있다.&#x0A;&lt;br&gt;본&#x20;연구는&#x20;군용객체&#x20;탐지를&#x20;위한&#x20;가상이미지&#x20;데이터셋을&#x20;구축하고&#x20;활용성을&#x20;입증했다는데&#x20;의의가&#x20;있다.&#x20;향후&#x20;다양한&#x20;군용객체&#x20;탐지&#x20;모델&#x20;개발&#x20;시&#x20;제안한&#x20;데이터셋&#x20;구축&#x20;방법을&#x20;활용&#x20;할&#x20;수&#x20;있을&#x20;것이다.&#x20;그리고&#x20;원거리&#x20;표적&#x20;탐지를&#x20;위해&#x20;제시한&#x20;전처리,&#x20;후처리&#x20;방법은&#x20;일반적인&#x20;방법으로&#x20;다른&#x20;객체탐지&#x20;모델에도&#x20;적용되어&#x20;표적&#x20;탐지&#x20;성능을&#x20;향상&#x20;시킬&#x20;수&#x20;있다.</dcvalue>
  <dcvalue element="description" qualifier="tableofcontents">제1장&#x20;서론&#x20;1&#x0A;&lt;br&gt;&#x20;1.1.&#x20;연구배경&#x20;1&#x0A;&lt;br&gt;&#x20;1.2.&#x20;연구내용&#x20;2&#x0A;&lt;br&gt;&#x20;1.3.&#x20;논문구성&#x20;3&#x0A;&lt;br&gt;제2장&#x20;관련&#x20;연구&#x20;4&#x0A;&lt;br&gt;&#x20;2.1.&#x20;YOLOv3&#x20;기반&#x20;장애물&#x20;거리&#x20;추정&#x20;4&#x0A;&lt;br&gt;&#x20;2.2.&#x20;YOLOv3-tiny&#x20;6&#x0A;&lt;br&gt;&#x20;2.3.&#x20;가상&#x2F;실제&#x20;이미지&#x20;혼합&#x20;학습&#x20;8&#x0A;&lt;br&gt;제3장&#x20;군용표적&#x20;거리&#x20;추정&#x20;10&#x0A;&lt;br&gt;&#x20;3.1.&#x20;군용표적&#x20;학습&#x2F;검증&#x20;데이터&#x20;구축&#x20;10&#x0A;&lt;br&gt;&#x20;3.2.&#x20;소형&#x20;표적&#x20;거리&#x20;추정&#x20;모델&#x20;15&#x0A;&lt;br&gt;&#x20;3.2.1.&#x20;전처리&#x20;:&#x20;Scale&#x20;Up&#x20;16&#x0A;&lt;br&gt;&#x20;3.2.2.&#x20;객체탐지기&#x20;:&#x20;YOLOv7-tiny-SiLU&#x20;17&#x0A;&lt;br&gt;&#x20;3.2.3.&#x20;후처리&#x20;:&#x20;Score&#x20;Filter&#x2F;POI&#x20;Filter&#x20;18&#x0A;&lt;br&gt;제4장&#x20;실험&#x20;결과&#x20;20&#x0A;&lt;br&gt;&#x20;4.1.&#x20;군용차량&#x20;가상&#x2F;실제&#x20;이미지&#x20;혼합학습&#x20;결과&#x20;20&#x0A;&lt;br&gt;&#x20;4.2.&#x20;군용표적&#x20;탐지&#x20;성능&#x20;평가&#x20;22&#x0A;&lt;br&gt;&#x20;4.3.&#x20;거리추정&#x20;성능&#x20;평가&#x20;24&#x0A;&lt;br&gt;&#x20;4.3.1.&#x20;거리추정&#x20;평가&#x20;데이터&#x20;구축&#x20;24&#x0A;&lt;br&gt;&#x20;4.3.2.&#x20;거리추정모델&#x20;별&#x20;성능&#x20;비교&#x20;25&#x0A;&lt;br&gt;&#x20;4.4.&#x20;전처리,&#x20;후처리&#x20;Ablation&#x20;Study&#x20;27&#x0A;&lt;br&gt;&#x20;4.4.1.&#x20;소형&#x20;표적&#x20;평가&#x20;데이터&#x20;구축&#x20;27&#x0A;&lt;br&gt;&#x20;4.4.2.&#x20;객체탐지&#x20;기반&#x20;거리추정&#x20;평가&#x20;지표&#x20;29&#x0A;&lt;br&gt;&#x20;4.4.3.&#x20;전처리,&#x20;후처리&#x20;Ablation&#x20;Study&#x20;결과&#x20;31&#x0A;&lt;br&gt;제5장&#x20;결론&#x20;35&#x0A;&lt;br&gt;참고문헌&#x20;37&#x0A;&lt;br&gt;Abstract&#x20;40</dcvalue>
  <dcvalue element="language" qualifier="iso">kor</dcvalue>
  <dcvalue element="publisher" qualifier="none">The&#x20;Graduate&#x20;School,&#x20;Ajou&#x20;University</dcvalue>
  <dcvalue element="rights" qualifier="none">아주대학교&#x20;논문은&#x20;저작권에&#x20;의해&#x20;보호받습니다.</dcvalue>
  <dcvalue element="title" qualifier="none">모바일&#x20;기반&#x20;객체탐지를&#x20;활용한&#x20;군용&#x20;표적&#x20;거리&#x20;추정&#x20;연구</dcvalue>
  <dcvalue element="title" qualifier="alternative">A&#x20;Study&#x20;on&#x20;the&#x20;Distance&#x20;Estimation&#x20;of&#x20;Military&#x20;Targets&#x20;Using&#x20;Object&#x20;Detection&#x20;on&#x20;Mobile&#x20;Devices</dcvalue>
  <dcvalue element="type" qualifier="none">Thesis</dcvalue>
  <dcvalue element="contributor" qualifier="affiliation">아주대학교&#x20;대학원</dcvalue>
  <dcvalue element="contributor" qualifier="department">일반대학원&#x20;전자공학과</dcvalue>
  <dcvalue element="date" qualifier="awarded">2023-02</dcvalue>
  <dcvalue element="description" qualifier="degree">Master</dcvalue>
  <dcvalue element="identifier" qualifier="url">https:&#x2F;&#x2F;dcoll.ajou.ac.kr&#x2F;dcollection&#x2F;common&#x2F;orgView&#x2F;000000032529</dcvalue>
  <dcvalue element="subject" qualifier="keyword">객체탐지</dcvalue>
  <dcvalue element="subject" qualifier="keyword">거리추정</dcvalue>
  <dcvalue element="description" qualifier="alternativeAbstract">In&#x20;this&#x20;thesis,&#x20;we&#x20;present&#x20;a&#x20;new&#x20;vision-based&#x20;method&#x20;that&#x20;estimates&#x20;the&#x20;distance&#x20;(depth)&#x20;of&#x20;military&#x20;targets&#x20;from&#x20;RGB&#x20;images.&#x20;Our&#x20;method&#x20;is&#x20;based&#x20;on&#x20;object&#x20;detection&#x20;in&#x20;images&#x20;and&#x20;depth&#x20;estimation&#x20;using&#x20;estimated&#x20;object&#x20;boxes&#x20;and&#x20;classes.&#x20;&#x0A;&lt;br&gt;Since&#x20;training&#x20;data&#x20;for&#x20;these&#x20;applications&#x20;are&#x20;very&#x20;limited,&#x20;we&#x20;adopt&#x20;a&#x20;mixed&#x20;learning&#x20;strategy&#x20;that&#x20;generates&#x20;synthetic&#x20;military&#x20;target&#x20;images&#x20;with&#x20;simulators.&#x20;Conventional&#x20;methods&#x20;based&#x20;on&#x20;YOLOv3&#x20;is&#x20;slow&#x20;for&#x20;mobile&#x20;devices,&#x20;we&#x20;apply&#x20;the&#x20;recent&#x20;lightweight&#x20;object&#x20;detector,&#x20;YOLOv7-tiny.&#x20;In&#x20;order&#x20;to&#x20;compensate&#x20;the&#x20;performance&#x20;drops&#x20;caused&#x20;by&#x20;this&#x20;tiny&#x20;model,&#x20;we&#x20;have&#x20;developed&#x20;pre&#x20;and&#x20;post&#x20;processing&#x20;methods&#x20;for&#x20;distant&#x20;targets.&#x20;The&#x20;preprocessor&#x20;is&#x20;to&#x20;scale&#x20;up&#x20;the&#x20;image&#x20;around&#x20;the&#x20;aimpoint,&#x20;and&#x20;the&#x20;postprocessor&#x20;selects&#x20;a&#x20;bounding&#x20;box&#x20;containing&#x20;the&#x20;aimpoint.&#x20;&#x0A;&lt;br&gt;Experimental&#x20;results&#x20;have&#x20;shown&#x20;that&#x20;the&#x20;proposed&#x20;method&#x20;yields&#x20;a&#x20;distance&#x20;error&#x20;(root&#x20;mean&#x20;square&#x20;errors)&#x20;of&#x20;12.62m,&#x20;which&#x20;is&#x20;improved&#x20;results&#x20;compared&#x20;to&#x20;previous&#x20;work.&#x20;Especially,&#x20;employing&#x20;simulator-generated&#x20;images&#x20;has&#x20;increased&#x20;an&#x20;AP&#x20;(detection&#x20;performance)&#x20;on&#x20;military&#x20;vehicles&#x20;by&#x20;10%.&#x20;The&#x20;proposed&#x20;method&#x20;can&#x20;be&#x20;applied&#x20;to&#x20;mobile&#x20;devices&#x20;and&#x20;used&#x20;for&#x20;future&#x20;military&#x20;operations.&#x20;&#x0A;&lt;br&gt;The&#x20;dataset&#x20;we&#x20;have&#x20;built&#x20;through&#x20;this&#x20;work&#x20;has&#x20;proved&#x20;its&#x20;effectiveness&#x20;and&#x20;we&#x20;can&#x20;use&#x20;this&#x20;dataset&#x20;or&#x20;a&#x20;similar&#x20;approach&#x20;for&#x20;other&#x20;military&#x20;applications.&#x20;Also,&#x20;the&#x20;pre&#x2F;post&#x20;processing&#x20;methods&#x20;are&#x20;generic&#x20;so&#x20;that&#x20;we&#x20;can&#x20;improve&#x20;the&#x20;performance&#x20;of&#x20;other&#x20;object&#x20;detection&#x20;tasks.</dcvalue>
</dublin_core>
