얕은 기능 표현 및 연결이 신경망에 미치는 영향

Author(s)
박현수
Advisor
유종빈
Department
일반대학원 인공지능학과
Publisher
The Graduate School, Ajou University
Publication Year
2023-08
Language
kor
Keyword
CNN딥러닝컴퓨터비전
Abstract
본 논문에서는 Shallow feature를 효과적으로 재사용할 수 있도록 하는 hyper-connection 기반의 아키텍처인 HSNet을 제안한다. 우리의 아키텍처는 영상인식 성능 향상과 딥 뉴럴 네트워크의 속도를 빠르게 유지하기 위해 두 가지 방법을 제안한다. <br> 첫 번째는 in-stage hyper-connection으로 동일한 spatial size를 가지는 stage 내에서 shallow feature를 재사용하는 방법이다. 제안하는 방법은 stage level에서 shallow feature를 재사용하여 gradient flow를 풍부하게 해주는 장점이 있으며, 성능 증가를 이끌어 낸다. 이 방법을 통해 매개변수를 줄이고 속도를 향상시킴과 동시에 인식 성능도 향상 시킨다. <br> 두 번째로 제안하는 방법은 hierarchical multi-path의 shallow feature를 사용하여 아키텍처의 width를 늘리는 out-stage hyper-connection 방법이다. 마지막 stage의 출력 인 deep feature와 이전 stage 들의 shallow feature를 연결함으로써 width를 확장한다. 이러한 구조의 우리 네트워크는 각 path가 매우 얕은 레이어로 구성되더라도 매우 빠르고 우수한 성능을 보여주며 이는 우리의 hyper-connection에 의해 shallow feature가 deep feature와 함께 반복적으로 결합되며 네트워크 전체에서 feature들이 중복 없이 재사용되기 때문이다. <br> 기존의 ResNet과 DenseNet 같은 네트워크 들이 block 레벨에서의 feature간 연결을 다루었다면 우리는 그것을 넘어서 stage 레벨과 네트워크 전체 레벨에서의 연결을 고려한 것이다. <br> 제안된 네트워크는 ImageNet-1k 검증 세트에서 81.2%의 top-1 정확도와 3671 img/sec의 처리량을 달성했다. 이것은 Swin-T의 81.3%의 top-1 정확도와 비슷하고 Swin-T의 처리량인 1632 img/sec보다 2배 이상 빠르다.
URI
https://dspace.ajou.ac.kr/handle/2018.oak/24456
Fulltext

Appears in Collections:
Graduate School of Ajou University > Department of Artificial Intelligence > 3. Theses(Master)
Files in This Item:
There are no files associated with this item.
Export
RIS (EndNote)
XLS (Excel)
XML

Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.

Browse