맨위로가기 타임라인 바로가기

알렉스넷

"오늘의AI위키"는 AI 기술로 일관성 있고 체계적인 최신 지식을 제공하는 혁신 플랫폼입니다.
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
타임라인 바로가기

1. 개요

알렉스넷은 2012년 이미지 인식 대회의 우승을 통해 딥 러닝과 합성곱 신경망(CNN)의 중요성을 널리 알린 모델이다. GPU를 활용하여 CNN의 학습 속도를 향상시켰으며, 8개의 층으로 구성된 구조를 가지고 있다. 알렉스넷은 컴퓨터 비전 분야에 큰 영향을 미쳤으며, 딥 러닝 연구 발전에 기여했다.

더 읽어볼만한 페이지

  • 신경망 아키텍처 - 홉필드 네트워크
    홉필드 네트워크는 상호 연결된 뉴런으로 구성된 순환 신경망으로, 모든 뉴런이 서로 연결되고 연결 가중치가 대칭적인 특징을 가지며, 연상 메모리로서 입력된 패턴을 가장 가까운 저장된 패턴으로 수렴시키는 방식으로 작동하여 최적화 문제 해결 및 패턴 인식 등에 응용된다.
  • 신경망 아키텍처 - 볼츠만 머신
    볼츠만 머신은 확률적 네트워크로, 연결된 유닛들이 네트워크 전체에 정의된 에너지를 가지며, 학습을 통해 외부 분포에 따라 전역 상태로 수렴하도록 가중치를 설정하고, 가시 유닛과 은닉 유닛으로 구성되어 다양한 변형이 개발되었다.
  • 딥 러닝 소프트웨어 - 마이크로소프트 코그니티브 툴킷
  • 딥 러닝 소프트웨어 - 케라스
    케라스는 딥 러닝을 위한 고수준 신경망 API로, 빠른 실험, 사용자 친화성, 모듈성, 확장성을 특징으로 하며, 텐서플로우, JAX, PyTorch 등 다양한 백엔드와 함께 사용되어 다양한 신경망을 지원하고 여러 환경에서 딥 모델을 생성 및 활용하도록 돕는다.
알렉스넷 - [IT 관련 정보]에 관한 문서
개요
알렉스넷의 원래 블록 다이어그램
종류합성곱 신경망
개발자알렉스 크리제프스키
일리야 서츠케버
제프리 힌턴
발표일2011년 6월 28일
라이선스뉴 BSD 라이선스
저장소cuda-convnet
프로그래밍 언어CUDA
C++
웹사이트논문
설명
설명알렉스넷은 2012년 이미지넷 대규모 시각 인식 대회(ILSVRC)에서 우승한 합성곱 신경망이다. 이 신경망은 알렉스 크리제프스키, 일리야 서츠케버, 제프리 힌턴이 개발했다. 알렉스넷은 더 깊고 넓은 구조를 가지고 있으며, 이전의 특징 추출 방법과 달리 여러 계층의 합성곱 레이어를 쌓아 특징을 학습한다.
주요 성과2012년 이미지넷 대회에서 압도적인 성능으로 우승하며 딥러닝 기술의 가능성을 입증했다.
구조8개의 레이어로 구성되어 있으며, 5개의 합성곱 레이어와 3개의 완전 연결 레이어로 이루어져 있다. ReLU 활성화 함수를 사용하고, Dropout 기법을 적용하여 과적합을 방지했다.

2. 역사적 배경

알렉스넷 이전에 GPU를 이용한 고속 컨볼루션 신경망(CNN)이 이미지 인식 콘테스트에서 우승한 사례가 있었다. K. Chellapilla 등(2006)은 GPU 기반 CNN이 CPU 구현보다 4배 빠르다고 보고했다.[25] IDSIA의 Dan Cireșan 등(2011)은 딥 CNN을 통해 60배 빠른 속도를 달성했으며,[26] 2011년 8월에는 초인적인 성능을 보였다.[27] 2011년 5월 15일부터 2012년 9월 10일까지, 이들의 CNN은 4개 이상의 이미지 콘테스트에서 우승하고,[28][29] 여러 이미지 데이터베이스 관련 최고 성능을 갱신했다.[30]

알렉스넷 논문에서는 Cireșan의 초기 네트워크가 "다소 유사하다"고 언급한다.[31] 두 네트워크 모두 GPU에서 작동하도록 CUDA로 작성되었다. 이들은 얀 르쿤 등(1989)이 발표한 CNN 디자인의 변형이며,[32][33] 후쿠시마 쿠니히코의 네오코그니트론 CNN 구조에 역전파를 적용한 것이다.[34][35] 이후 J. Weng의 최대 풀링 기법으로 수정되었다.[36][37]

2015년, 알렉스넷은 ImageNet 2015 콘테스트에서 우승한 Microsoft Research Asia의 100개 이상 층을 가진 매우 깊은 CNN에 의해 성능이 추월되었다.[38]

2. 1. 초기 연구 (1980년대 ~ 2000년대)

1980년, 후쿠시마 쿠니히코는 네오코그니트론이라는 초기 컨볼루션 신경망(CNN)을 제안했다.[5][6] 이 모델은 비지도 학습 알고리즘으로 훈련되었다. 1989년, 얀 르쿤 등은 르넷-5를 발표했는데,[7][8] 이는 작은 규모에서 알렉스넷과 본질적으로 동일한 아키텍처를 가지며 역전파 알고리즘을 사용한 지도 학습으로 훈련되었다. 이후 1993년 J. Weng은 최대 풀링을 추가했다.[9][10]

2000년대에 그래픽 처리 장치(GPU) 하드웨어가 개선되면서 일부 연구자들은 신경망 훈련을 포함하여 이를 범용 컴퓨팅에 적용했다. 2006년 K. Chellapilla 등은 GPU에서 CNN을 훈련시켜 CPU 구현보다 4배 더 빠른 성능을 얻었다.[11] IDSIA의 Dan Cireșan 등(2011)의 딥 CNN은 동등한 CPU 구현보다 60배 더 빨랐다.[12] 2011년 5월 15일부터 2012년 9월 10일까지 그들의 CNN은 4개의 이미지 대회를 우승했고 여러 이미지 데이터베이스에 대해 최고 성능(SOTA)을 달성했다.[13][14][15] 알렉스넷 논문에 따르면,[1] Cireșan의 이전 네트워크는 "다소 유사"하며, 둘 다 CUDA로 작성되어 GPU에서 실행되었다.

GPU로 구현된 고속 CNN이 이미지 인식 콘테스트에서 우승한 것은 알렉스넷이 처음은 아니었다. K. Chellapilla 등(2006)의 GPU 상의 CNN은 CPU 상의 동등한 구현에 비해 4배 빨랐다.[25] IDSIA의 Dan Cireșan 등(2011)의 딥 CNN은 이미 60배의 속도를 보였고,[26] 2011년 8월에는 초인적인 성능을 달성했다.[27] 2011년 5월 15일부터 2012년 9월 10일까지, 그들의 CNN은 4개 이상의 이미지 콘테스트에서 우승했다.[28][29] 또한, 여러 이미지 데이터베이스에 관한 문헌 중 최고 성능을 대폭 갱신했다.[30]

알렉스넷과 Cireșan의 초기 네트워크는 모두 원래 GPU에서 동작하도록 CUDA로 작성되었다. 실제로, 둘 다 얀 르쿤 등(1989)이 발표한 CNN 디자인의 변형이며,[32][33] 네오코그니트론이라고 불리는 후쿠시마 쿠니히코의 CNN 구조에 역전파를 적용한 것이다.[34][35] 이 구조는 J. Weng의 최대 풀링 기법으로 나중에 수정되었다.[36][37]

2. 2. GPU 활용과 딥 러닝의 부상 (2000년대 후반 ~ 2010년대 초반)

2000년대에 들어 GPU 하드웨어가 개선되면서, 일부 연구자들은 신경망 훈련을 포함하여 이를 범용 컴퓨팅에 적용했다. K. Chellapilla 등(2006)은 GPU에서 컨볼루션 신경망(CNN)을 훈련시켜 동등한 CPU 구현보다 4배 더 빠른 속도를 달성했다.[11] IDSIA의 Dan Cireșan 등(2011)의 딥 CNN은 동등한 CPU 구현보다 60배 더 빨랐다.[12] 2011년 5월 15일부터 2012년 9월 10일까지 그들의 CNN은 4개의 이미지 대회를 우승했고 여러 이미지 데이터베이스에 대해 SOTA(최고 성능)를 달성했다.[13][14][15] 알렉스넷 논문에 따르면,[1] Cireșan의 이전 네트워크는 "다소 유사"하며, 둘 다 CUDA로 작성되어 GPU에서 실행되었다.[31][25]

K. Chellapilla 등(2006)의 GPU 상의 CNN은 CPU 상의 동등한 구현에 비해 4배 빨랐으며,[25] IDSIA의 Dan Cireșan 등(2011)의 딥 CNN은 이미 60배의 속도를 보였고,[26] 2011년 8월에는 초인적인 성능을 달성했다.[27] 2011년 5월 15일부터 2012년 9월 10일까지, 그들의 CNN은 4개 이상의 이미지 콘테스트에서 우승했다.[28][29] 또한, 여러 이미지 데이터베이스에 관한 문헌 중 최고 성능을 대폭 갱신했다.[30]

2. 3. 컴퓨터 비전 분야의 변화

알렉스넷은 컴퓨터 비전 분야에서 가장 영향력 있는 논문 중 하나로 손꼽히며, 딥 러닝을 가속화하기 위해 컨볼루션 신경망(CNN)과 그래픽 처리 장치(GPU)를 활용하여 더 많은 논문이 발표되는 데 크게 기여했다. 구글 스콜라에 따르면 2023년 초 기준으로 알렉스넷 논문은 120,000회 이상 인용되었다.

2000년대에 들어 그래픽 처리 장치(GPU) 하드웨어가 개선되면서, 일부 연구자들은 신경망 훈련을 포함한 여러 분야에서 이를 범용 컴퓨팅에 적용하기 시작했다. (K. Chellapilla 외, 2006)는 GPU에서 CNN을 훈련시켜 CPU 구현보다 4배 빠른 성능을 얻었다.[11] IDSIA의 (Dan Cireșan 외, 2011)는 딥 CNN을 개발하여 CPU 구현보다 60배 빠른 성능을 달성했다.[12]

1990년부터 2010년까지 신경망은 커널 회귀, 서포트 벡터 머신 등 다른 머신 러닝 방법에 비해 성능이 좋지 않았다. 특히 컴퓨터 비전 분야에서는 SIFT(Scale-invariant feature transform, 크기 불변 특징 변환), SURF(Speeded up robust features, 속도 향상된 강건한 특징), HOG(Histogram of oriented gradients, 방향 기울기 히스토그램), 시각적 단어 가방 등 수동적인 특징 공학을 통해 많은 발전이 있었다. 데이터를 직접 학습할 수 있다는 주장은 컴퓨터 비전 분야에서 소수 의견이었지만, 알렉스넷 이후 이러한 입장이 우세해졌다.[17]

3. 알렉스넷의 구조

알렉스넷은 8개의 층으로 구성되어 있으며, 5개의 합성곱 층과 3개의 완전 연결 층으로 이루어져 있다. ReLU 활성화 함수는 tanh 및 시그모이드보다 더 나은 훈련 결과를 보였다.[1]

네트워크는 단일 Nvidia GTX580 3GB GPU에 맞지 않아 각 GPU에 하나씩 두 개의 부분으로 분할되었다.[1]

3. 1. 층 구성

알렉스넷은 8개의 층으로 구성되어 있으며, 처음 5개는 합성곱 층이고, 일부는 최대 풀링 층이 뒤따르며, 마지막 3개는 완전 연결 층이다.[1][39]

전체 구조는 다음과 같이 표현할 수 있다.

(CNN → RN → MP)² → (CNN³ → MP) → (FC → DO)² → Linear → softmax


여기서

  • CNN = 합성곱 층 (ReLU 활성화 함수 사용)
  • RN = 지역 반응 정규화
  • MP = 최대 풀링
  • FC = 완전 연결 층 (ReLU 활성화 함수 사용)
  • Linear = 완전 연결 층 (활성화 함수 없음)
  • DO = 드롭아웃


이 모델은 포화되지 않는 ReLU 활성화 함수를 사용했으며, 이는 tanh 및 시그모이드보다 더 나은 훈련 결과를 보였다.[1][39]

네트워크가 단일 Nvidia GTX580 3GB GPU에 맞지 않아 각 GPU에 하나씩 두 개의 부분으로 분할되었다.[1]

3. 2. 활성화 함수

알렉스넷은 ReLU 활성화 함수를 사용했으며, 이는 tanh 및 시그모이드보다 훈련 결과가 더 좋았다.[1] 알렉스넷은 비포화형 ReLU를 활성화 함수로 사용하여, tanh 및 시그모이드보다 학습 성능을 향상시켰다.

3. 3. GPU 분산 학습

알렉스넷은 Nvidia GTX580 3GB GPU 한 개에 전체 네트워크를 담을 수 없어, 두 개의 GPU에 네트워크를 분산시켰다.[1] GTX 580 GPU는 3GB 메모리만 제공하여 훈련 가능한 네트워크 크기가 제한되었다. 120만 개의 훈련 예제는 하나의 GPU에 담기에는 너무 컸기 때문에, 네트워크를 두 개의 GPU에 분산했다.[1]

4. 알렉스넷의 학습

알렉스넷은 ImageNet 훈련 세트에 포함된 120만 개의 이미지를 사용하여 학습되었다. 90 에포크 동안 훈련되었으며, 2개의 NVIDIA GTX 580 3GB GPU에서 5~6일이 소요되었다.[1] GPU는 float32에서 1.581 TFLOPS의 이론적 성능을 가졌고, 출시 가격은 500USD였다.[3] AlexNet의 한 번의 정방향 패스는 약 4 GFLOPs가 소요된다.[4]

모멘텀 경사 하강법을 사용했으며, 배치 크기는 128, 모멘텀은 0.9, 가중치 감쇠는 0.0005였다. 학습률은 10^{-2}로 시작해 검증 오류가 감소하지 않을 때마다 수동으로 10배 감소시켰다. 훈련 과정에서 세 번 감소하여 10^{-5}로 끝났다.

데이터 증강, 지역 응답 정규화, 드롭아웃 정규화를 사용했으며, 모든 가중치는 평균 0, 표준 편차 0.01의 정규 분포로 초기화되었다. 컨볼루션 레이어 2, 4, 5 및 모든 완전 연결 레이어의 바이어스는 dying ReLU 문제를 방지하기 위해 상수 1로 초기화되었다.

4. 1. 학습 방법

알렉스넷은 120만 개의 이미지를 가진 ImageNet 훈련 세트를 사용하여 학습되었다. 학습은 90 에포크(epoch) 동안 진행되었으며, 2개의 NVIDIA GTX 580 3GB GPU를 사용하여 5~6일이 소요되었다.[1]

학습에는 모멘텀 경사 하강법이 사용되었으며, 주요 하이퍼파라미터는 다음과 같다.

  • 배치 크기: 128
  • 모멘텀: 0.9
  • 가중치 감쇠: 0.0005


학습률은 10-2영어로 시작하여 검증 오류가 감소하지 않을 때마다 수동으로 10배씩 감소시켰다. 훈련 과정에서 세 번 감소하여 10-5영어로 종료되었다.

두 가지 형태의 데이터 증강 기법이 사용되었는데, 이들은 모두 CPU에서 즉시 계산되어 "계산적으로 무료"였다.

  • 원본 256×256 이미지에서 임의의 224×224 패치(및 수평 반전)를 추출하여 훈련 세트의 크기를 2048배 증가시켰다.
  • 각 이미지의 RGB 값을 픽셀 RGB 값의 세 가지 주 방향을 따라 무작위로 변경했다.


지역 응답 정규화와 드롭 확률 0.5의 드롭아웃 정규화를 사용했다.

모든 가중치는 평균 0, 표준 편차 0.01의 정규 분포로 초기화되었다. 컨볼루션 레이어 2, 4, 5 및 모든 완전 연결 레이어의 바이어스는 dying ReLU 문제를 방지하기 위해 상수 1로 초기화되었다.

4. 2. 데이터 증강

알렉스넷은 훈련 세트의 다양성을 확보하고 과적합을 방지하기 위해 두 가지 형태의 데이터 증강 기법을 사용했다. 이 방법들은 CPU에서 즉시 계산되었기 때문에 "계산적으로 무료"였다.[1]

  • 원본 256×256 이미지에서 임의의 224×224 패치(및 그 수평 반전)를 추출했다. 이는 훈련 세트의 크기를 2048배 증가시켰다.
  • 각 이미지의 RGB 값을 픽셀의 RGB 값의 세 가지 주 방향을 따라 무작위로 이동시켰다.

4. 3. 정규화

알렉스넷은 과적합을 방지하고 일반화 성능을 향상시키기 위해 지역 응답 정규화와 드롭아웃 정규화를 사용했다. 드롭아웃 확률은 0.5였다.[1]

5. 영향

알렉스넷은 컴퓨터 비전 분야에서 딥 러닝의 가능성을 입증한 중요한 연구로 평가받는다. 합성곱 신경망(CNN)과 GPU를 사용하여 딥 러닝을 가속화했으며, 더 많은 관련 논문이 발표되는 데 기여했다.[40] 구글 스콜라에 따르면 2023년 초 기준 알렉스넷 논문은 120,000회 이상 인용되었다.[19]

5. 1. 학문적 영향

알렉스넷은 컴퓨터 비전 분야에서 가장 영향력 있는 논문 중 하나로 평가받으며, 딥 러닝 가속화를 위해 합성곱 신경망(CNN)과 GPU를 활용하여 더 많은 논문이 발표되도록 이끌었다.[40] 구글 스콜라에 따르면 2023년 초 알렉스넷 논문은 120,000회 이상,[19] 2024년 중반에는 157,000회 이상 인용되었다.

1990년부터 2010년까지 신경망은 커널 회귀, 서포트 벡터 머신 등 다른 머신 러닝 방법에 비해 성능이 좋지 않았다. 특히 컴퓨터 비전 분야에서는 SIFT, SURF, HOG, 시각적 단어 가방 등 수동적인 특징 공학을 통해 많은 발전이 있었다. 데이터를 직접 학습할 수 있다는 주장은 소수 의견이었지만, 알렉스넷 이후 이 입장이 우세해졌다.[17]

2011년, 지텐드라 말릭은 신경망에 회의적이었지만, 제프리 힌튼에게 ImageNet 챌린지를 추천했다.[18] 알렉스넷은 LeNet과 기본적인 설계 및 알고리즘은 동일하지만, 알렉스넷은 LeNet보다 훨씬 크고 빠른 하드웨어에서 더 큰 데이터 세트로 훈련되었다. 20년 동안 데이터와 컴퓨팅 자원은 저렴해졌다.[17]

알렉스넷 출판 당시에는 GPU 기반 신경망 훈련 및 추론을 위한 프레임워크가 없었다. 알렉스넷의 코드베이스는 BSD 라이선스 하에 공개되었으며, 이후 몇 년 동안 신경망 연구에 널리 사용되었다.[20][17]

알렉스넷 이후의 연구는 두 가지 방향으로 진행되었다. 한 방향은 ImageNet에서 점점 더 높은 성능을 달성하는 더 깊은 CNN을 훈련하는 것이었다. (\GoogLeNet (2014), VGGNet (2014), Highway network (2015), ResNet (2015)). 다른 방향은 알렉스넷의 성능을 더 낮은 비용으로 재현하는 것이었다. (SqueezeNet (2016), MobileNet (2017), EfficientNet (2019)).

5. 2. 기술적 영향

알렉스넷은 컴퓨터 비전 분야에서 가장 영향력 있는 논문 중 하나로 평가받으며, 합성곱 신경망(CNN)과 GPU를 활용하여 딥 러닝 발전에 크게 기여했다. 2024년 중반 기준으로 구글 학술 자료에 따르면 알렉스넷 논문은 157,000회 이상 인용되었다.[19]

2010년까지 신경망은 커널 회귀, 서포트 벡터 머신 등 다른 머신 러닝 방법에 비해 성능이 좋지 않았다. 컴퓨터 비전 분야에서는 SIFT, SURF, HOG, 시각적 단어 가방 등 수동적인 특징 공학 방식이 주류였으나, 알렉스넷 이후 데이터를 직접 학습하는 방식이 우세해졌다.[17]

알렉스넷과 LeNet은 기본적인 설계와 알고리즘은 유사하지만, 알렉스넷은 훨씬 더 큰 데이터 세트와 빠른 하드웨어를 기반으로 훈련되었다. 이는 20년 동안 데이터와 컴퓨팅 자원이 저렴해진 덕분이었다.[17]

알렉스넷의 코드는 BSD 라이선스로 공개되어 신경망 연구에 널리 사용되었으며,[20][17] GPU 기반 신경망 훈련 및 추론 프레임워크 개발을 촉진했다. 알렉스넷의 성공 이후, ImageNet에서 더 높은 성능을 달성하기 위한 GoogLeNet (2014), VGGNet (2014), Highway network (2015), ResNet (2015) 등 더 깊은 CNN을 훈련하는 연구가 이어졌다. 또한, SqueezeNet (2016), MobileNet (2017), EfficientNet (2019)과 같이 알렉스넷의 성능을 더 낮은 비용으로 재현하려는 연구도 진행되었다.

5. 3. 후속 연구

알렉스넷 발표 이후, 후속 연구는 두 가지 방향으로 진행되었다. 한 방향은 ImageNet에서 더 높은 성능을 달성하기 위해 점점 더 깊은 CNN을 훈련하는 것이었다. 이 연구에는 GoogLeNet (2014), VGGNet (2014), Highway network (2015), ResNet (2015) 등이 있다. 다른 방향은 알렉스넷의 성능을 더 낮은 비용으로 재현하는 것을 목표로 하였다. 이 연구에는 SqueezeNet (2016), MobileNet (2017), EfficientNet (2019) 등이 있다.[40]

참조

[1] 논문 ImageNet classification with deep convolutional neural networks https://papers.nips.[...] 2017-05-24
[2] 웹사이트 ImageNet Large Scale Visual Recognition Competition 2012 (ILSVRC2012) https://image-net.or[...]
[3] 웹사이트 NVIDIA GeForce GTX 580 Specs https://www.techpowe[...] 2024-11-12
[4] 웹사이트 https://pypi.org/pro[...] 2024-12-10
[5] 논문 Neocognitron
[6] 논문 Neocognitron: A Self-organizing Neural Network Model for a Mechanism of Pattern Recognition Unaffected by Shift in Position http://www.cs.prince[...] 2013-11-16
[7] 논문 Backpropagation Applied to Handwritten Zip Code Recognition http://yann.lecun.co[...] MIT Press - Journals
[8] 논문 Gradient-based learning applied to document recognition http://yann.lecun.co[...] 2016-10-07
[9] 논문 Learning recognition and segmentation of 3-D objects from 2-D images
[10] 논문 Deep Learning http://www.scholarpe[...] 2015
[11] 서적 Tenth International Workshop on Frontiers in Handwriting Recognition Suvisoft 2006
[12] 논문 Flexible, High Performance Convolutional Neural Networks for Image Classification http://www.idsia.ch/[...] 2013-11-17
[13] 웹사이트 IJCNN 2011 Competition result table http://benchmark.ini[...] 2019-01-14
[14] 웹사이트 History of computer vision contests won by deep CNNs on GPU http://people.idsia.[...] 2019-01-14
[15] 서적 2012 IEEE Conference on Computer Vision and Pattern Recognition "[[Institute of Electrical and Electronics Engineers]] (IEEE)" 2012-06
[16] 논문 Max-Margin Markov Networks https://proceedings.[...] MIT Press 2003
[17] 서적 Dive into deep learning Cambridge University Press 2024
[18] 서적 The worlds I see: curiosity, exploration, and discovery at the dawn of AI Moment of Lift Books ; Flatiron Books 2023
[19] Google Scholar AlexNet paper on Google Scholar https://scholar.goog[...]
[20] 웹사이트 cuda-convnet: High-performance C++/CUDA implementation of convolutional neural networks https://code.google.[...] 2024-10-20
[21] 웹사이트 The data that transformed AI research—and possibly the world https://qz.com/10349[...] 2021-06-04
[22] 논문 ImageNet classification with deep convolutional neural networks https://papers.nips.[...] 2017-05-24
[23] 웹사이트 ILSVRC2012 Results http://www.image-net[...] 2021-06-04
[24] 논문 ImageNet classification with deep convolutional neural networks https://papers.nips.[...] 2017-05-24
[25] 서적 Tenth International Workshop on Frontiers in Handwriting Recognition Suvisoft 2006
[26] 논문 Flexible, High Performance Convolutional Neural Networks for Image Classification http://www.idsia.ch/[...] 2013-11-17
[27] 웹사이트 IJCNN 2011 Competition result table http://benchmark.ini[...] 2019-01-14
[28] 웹사이트 History of computer vision contests won by deep CNNs on GPU http://people.idsia.[...] 2019-01-14
[29] 논문 Deep Learning http://www.scholarpe[...] 2015
[30] 서적 Multi-column deep neural networks for image classification "[[Institute of Electrical and Electronics Engineers]] (IEEE)" 2012-06
[31] 논문 ImageNet classification with deep convolutional neural networks https://papers.nips.[...] 2017-05-24
[32] 논문 Backpropagation Applied to Handwritten Zip Code Recognition http://yann.lecun.co[...] MIT Press - Journals
[33] 논문 Gradient-based learning applied to document recognition http://yann.lecun.co[...] 2016-10-07
[34] 논문 Neocognitron
[35] 논문 Neocognitron: A Self-organizing Neural Network Model for a Mechanism of Pattern Recognition Unaffected by Shift in Position http://www.cs.prince[...] 2013-11-16
[36] 논문 Learning recognition and segmentation of 3-D objects from 2-D images
[37] 논문 Deep Learning http://www.scholarpe[...] 2015
[38] 논문 Deep Residual Learning for Image Recognition. 2016
[39] 논문 ImageNet classification with deep convolutional neural networks https://papers.nips.[...] 2017-05-24
[40] 웹사이트 The 9 Deep Learning Papers You Need To Know About (Understanding CNNs Part 3) https://adeshpande3.[...] 2018-12-04

관련 사건 타임라인

( 최근 20개의 뉴스만 표기 됩니다. )



본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.

문의하기 : help@durumis.com