<?xml version="1.0" encoding="utf-8" standalone="no"?>
<dublin_core schema="dc">
  <dcvalue element="contributor" qualifier="advisor">황원준</dcvalue>
  <dcvalue element="contributor" qualifier="author">김동이</dcvalue>
  <dcvalue element="date" qualifier="issued">2019-02</dcvalue>
  <dcvalue element="identifier" qualifier="other">28944</dcvalue>
  <dcvalue element="identifier" qualifier="uri">https:&#x2F;&#x2F;aurora.ajou.ac.kr&#x2F;handle&#x2F;2018.oak&#x2F;15051</dcvalue>
  <dcvalue element="description" qualifier="none">학위논문(석사)--아주대학교&#x20;일반대학원&#x20;:컴퓨터공학과,2019.&#x20;2</dcvalue>
  <dcvalue element="description" qualifier="abstract">로봇&#x20;산업의&#x20;발전과&#x20;함께&#x20;다양한&#x20;분야에서&#x20;인간의&#x20;노동과&#x20;산업적&#x20;역할을&#x20;로봇으로&#x20;대체하거나&#x20;자동화하기&#x20;위한&#x20;연구와&#x20;적용&#x20;시도들이&#x20;등장하고&#x20;있다.&#x20;특히나&#x20;인간을&#x20;대체하기&#x20;힘들었던&#x20;영상,&#x20;음성,&#x20;텍스트와&#x20;같은&#x20;정보를&#x20;활용한&#x20;상황&#x20;이해와&#x20;추론을&#x20;기계적인&#x20;방법으로&#x20;대체하고자&#x20;하는&#x20;연구가&#x20;다양하게&#x20;시도되고&#x20;있다.&#x20;이와&#x20;더불어&#x20;딥러닝&#x20;기반의&#x20;기법들이&#x20;데이터&#x20;기반의&#x20;분류,&#x20;탐색,&#x20;번역과&#x20;같이&#x20;다양한&#x20;분야에서&#x20;빠른&#x20;속도로&#x20;발전하고&#x20;있으며,&#x20;자연스럽게&#x20;이를&#x20;로봇&#x20;기반&#x20;서비스에&#x20;적용하고자&#x20;하는&#x20;수&#x20;많은&#x20;연구들이&#x20;제안되었다.&#x0A;본&#x20;논문에서는&#x20;기존에&#x20;제한적인&#x20;센서에&#x20;의존해&#x20;이루어지던&#x20;로봇과&#x20;사물&#x20;간의&#x20;충돌에&#x20;대한&#x20;인식과&#x20;압력&#x20;기반의&#x20;감각&#x20;이해를&#x20;영상기반으로&#x20;대체할&#x20;수&#x20;있는&#x20;기법을&#x20;소개한다.&#x20;본&#x20;논문의&#x20;실험에서는&#x20;인간이&#x20;시각적인&#x20;정보와&#x20;사물에&#x20;대한&#x20;이해를&#x20;바탕으로&#x20;물리적&#x20;현상에&#x20;대한&#x20;추론이&#x20;가능하다는&#x20;사실을&#x20;바탕으로&#x20;이를&#x20;딥러닝으로&#x20;재현한다.&#x20;이를&#x20;위해&#x20;별도의&#x20;부가적인&#x20;정보를&#x20;사용하지&#x20;않고&#x20;물리적&#x20;접촉이&#x20;발생하는&#x20;상황의&#x20;영상만을&#x20;사용하여&#x20;높은&#x20;수준으로&#x20;충돌&#x20;압력을&#x20;예측할&#x20;수&#x20;있음을&#x20;실험적으로&#x20;증명하였으며,&#x20;이와&#x20;동시에&#x20;실제&#x20;로봇&#x20;및&#x20;모바일&#x20;기기에&#x20;적용될&#x20;수&#x20;있을&#x20;수준의&#x20;네트워크&#x20;경량화가&#x20;가능한&#x20;3D&#x20;컨볼루션&#x20;네트워크&#x20;설계&#x20;기법을&#x20;제안한다.&#x0A;제안한&#x20;기법의&#x20;실험과&#x20;검증을&#x20;위해&#x20;네&#x20;가지&#x20;서로&#x20;다른&#x20;성질의&#x20;사물에&#x20;다양한&#x20;촬영&#x20;각도,&#x20;조도,&#x20;접촉&#x20;패턴을&#x20;설정해&#x20;약&#x20;400,000개의&#x20;동영상&#x20;클립(Clip)&#x20;샘플을&#x20;수집하였다.&#x20;수집한&#x20;데이터상에서&#x20;제안한&#x20;모델은&#x20;이전&#x20;연구&#x20;결과들보다&#x20;더욱&#x20;개선된&#x20;정확도를&#x20;보여주었으며,&#x20;실제&#x20;소형&#x20;장비에&#x20;사용될&#x20;수&#x20;있을&#x20;수준의&#x20;모델&#x20;경량화를&#x20;기록했다.</dcvalue>
  <dcvalue element="description" qualifier="tableofcontents">I.&#x20;서론&#x09;1&#x0A;A.&#x20;연구&#x20;배경&#x09;1&#x0A;B.&#x20;연구&#x20;목표&#x09;3&#x0A;II.&#x20;관련&#x20;연구&#x09;4&#x0A;III.&#x20;이론적&#x20;배경&#x20;및&#x20;제안&#x20;기법&#x09;5&#x0A;A.&#x20;Depthwise&#x20;Separable&#x20;Convolution&#x09;5&#x0A;B.&#x20;3D&#x20;Convolution&#x20;Layer&#x09;7&#x0A;C.&#x20;3D&#x20;Depthwise&#x20;Separable&#x20;Convolution&#x09;8&#x0A;D.&#x20;네트워크&#x20;구조&#x09;11&#x0A;IV.&#x20;실험&#x20;환경&#x20;및&#x20;신경망&#x20;학습&#x09;13&#x0A;A.&#x20;실험&#x20;데이터&#x09;13&#x0A;B.&#x20;학습&#x20;방법&#x09;15&#x0A;C.&#x20;학습&#x20;결과&#x09;16&#x0A;V.&#x20;결과&#x20;분석&#x20;및&#x20;토의&#x09;18&#x0A;A.&#x20;관련&#x20;연구&#x20;결과와의&#x20;비교&#x09;18&#x0A;B.&#x20;다른&#x20;컨볼루션&#x20;네트워크&#x20;모델과의&#x20;비교&#x09;21&#x0A;1.&#x20;2D&#x20;ResNet&#x20;모델과의&#x20;비교&#x09;21&#x0A;2.&#x20;3D&#x20;컨볼루션&#x20;네트워크와의&#x20;비교&#x09;22&#x0A;VI.&#x20;결론&#x09;25&#x0A;참고&#x20;문헌&#x09;26&#x0A;Abstract&#x09;30</dcvalue>
  <dcvalue element="language" qualifier="iso">kor</dcvalue>
  <dcvalue element="publisher" qualifier="none">The&#x20;Graduate&#x20;School,&#x20;Ajou&#x20;University</dcvalue>
  <dcvalue element="rights" qualifier="none">아주대학교&#x20;논문은&#x20;저작권에&#x20;의해&#x20;보호받습니다.</dcvalue>
  <dcvalue element="title" qualifier="none">동영상&#x20;기반&#x20;물리적&#x20;감각&#x20;추론을&#x20;위한&#x20;경량화된&#x20;3D&#x20;컨볼루션&#x20;네트워크</dcvalue>
  <dcvalue element="title" qualifier="alternative">Dongyi&#x20;Kim</dcvalue>
  <dcvalue element="type" qualifier="none">Thesis</dcvalue>
  <dcvalue element="contributor" qualifier="affiliation">아주대학교&#x20;일반대학원</dcvalue>
  <dcvalue element="contributor" qualifier="alternativeName">Dongyi&#x20;Kim</dcvalue>
  <dcvalue element="contributor" qualifier="department">일반대학원&#x20;컴퓨터공학과</dcvalue>
  <dcvalue element="date" qualifier="awarded">2019.&#x20;2</dcvalue>
  <dcvalue element="description" qualifier="degree">Master</dcvalue>
  <dcvalue element="identifier" qualifier="uci">I804:41038-000000028944</dcvalue>
  <dcvalue element="identifier" qualifier="url">http:&#x2F;&#x2F;dcoll.ajou.ac.kr:9080&#x2F;dcollection&#x2F;common&#x2F;orgView&#x2F;000000028944</dcvalue>
  <dcvalue element="description" qualifier="alternativeAbstract">As&#x20;robotics&#x20;technology&#x20;evolves&#x20;rapidly,&#x20;technologies&#x20;for&#x20;replacing&#x20;human&#x20;labor&#x20;with&#x20;robots&#x20;are&#x20;being&#x20;studied&#x20;in&#x20;many&#x20;industry&#x20;fields.&#x20;At&#x20;the&#x20;same&#x20;time,&#x20;deep&#x20;learning-based&#x20;technology&#x20;have&#x20;enabled&#x20;a&#x20;recognition&#x20;and&#x20;an&#x20;understanding&#x20;of&#x20;abstract&#x20;data&#x20;such&#x20;as&#x20;video,&#x20;sound,&#x20;and&#x20;text.&#x20;As&#x20;a&#x20;result&#x20;of&#x20;these&#x20;two&#x20;changes,&#x20;many&#x20;researches&#x20;are&#x20;trying&#x20;to&#x20;replace&#x20;many&#x20;industrial&#x20;roles&#x20;of&#x20;humans&#x20;with&#x20;deep&#x20;learning-based&#x20;methods.&#x20;&#x0A;In&#x20;this&#x20;thesis,&#x20;we&#x20;propose&#x20;a&#x20;novel&#x20;and&#x20;practical&#x20;methods&#x20;for&#x20;inferring&#x20;interaction&#x20;forces&#x20;between&#x20;two&#x20;objects&#x20;only&#x20;using&#x20;video&#x20;data.&#x20;We&#x20;have&#x20;formulated&#x20;our&#x20;hypothesis&#x20;that&#x20;3D&#x20;convolution&#x20;neural&#x20;network&#x20;can&#x20;recognize&#x20;and&#x20;understand&#x20;physical&#x20;interactions&#x20;through&#x20;video&#x20;like&#x20;human&#x20;can&#x20;do.&#x20;Our&#x20;experimental&#x20;results&#x20;have&#x20;confirmed&#x20;our&#x20;hypothesis&#x20;and&#x20;shows&#x20;that&#x20;the&#x20;proposed&#x20;model&#x20;is&#x20;more&#x20;accurate&#x20;and&#x20;efficient&#x20;than&#x20;previous&#x20;works.&#x20;Moreover,&#x20;we&#x20;have&#x20;designed&#x20;a&#x20;new&#x20;architecture&#x20;for&#x20;3D&#x20;convolution&#x20;neural&#x20;network&#x20;and&#x20;the&#x20;architecture&#x20;shows&#x20;a&#x20;better&#x20;accuracy&#x20;even&#x20;though&#x20;it&#x20;had&#x20;a&#x20;model&#x20;size&#x20;10&#x20;times&#x20;smaller&#x20;than&#x20;a&#x20;previous&#x20;work.&#x20;&#x0A;We&#x20;have&#x20;collected&#x20;heavy&#x20;datasets&#x20;for&#x20;a&#x20;validation&#x20;and&#x20;training&#x20;of&#x20;a&#x20;proposed&#x20;model.&#x20;We&#x20;collected&#x20;about&#x20;400,000&#x20;video&#x20;clips&#x20;of&#x20;physical&#x20;interactions&#x20;between&#x20;two&#x20;objects&#x20;under&#x20;various&#x20;environments&#x20;such&#x20;as&#x20;illumination,&#x20;motion&#x20;pattern&#x20;and&#x20;angle.&#x20;As&#x20;a&#x20;result&#x20;of&#x20;our&#x20;experiments,&#x20;our&#x20;proposed&#x20;model&#x20;shows&#x20;robustness&#x20;to&#x20;these&#x20;environmental&#x20;changes&#x20;and&#x20;successfully&#x20;estimate&#x20;an&#x20;interaction&#x20;force&#x20;between&#x20;two&#x20;objects.</dcvalue>
</dublin_core>
