MNIST 데이터베이스
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
1. 개요
MNIST 데이터베이스는 1994년에 생성된 손글씨 숫자 이미지 데이터베이스로, 머신 러닝 분야에서 널리 사용된다. 미국 국립표준기술연구소(NIST)의 SD-1과 SD-3 데이터베이스를 기반으로 하며, 28x28 픽셀 크기의 회색조 이미지로 구성되어 있다. MNIST 데이터베이스는 다양한 기계 학습 모델의 성능 평가에 활용되었으며, 특히 합성곱 신경망(CNN)을 사용하여 높은 정확도를 달성했다. QMNIST, EMNIST, Fashion-MNIST 등 확장된 데이터 세트도 개발되었다.
더 읽어볼만한 페이지
- 인공지능 - 구글
구글은 래리 페이지와 세르게이 브린이 개발한 웹 검색 엔진에서 출발하여 검색 기술 혁신을 통해 유튜브, 안드로이드 등 다양한 서비스를 제공하는 세계적인 기술 기업으로 성장했지만, 개인정보보호 및 독점 논란에도 직면하고 있다. - 인공지능 - 친절한 인공지능
친절한 인공지능은 사용자에게 친절하고 공감적인 방식으로 상호 작용하며 긍정적이고 효과적인 사용자 경험을 제공하는 것을 목표로 하는 인공지능 기술의 한 분야이다. - 공식 웹사이트에 알 수 없는 변수를 사용한 문서 - 브루클린 미술관
브루클린 미술관은 1823년 브루클린 견습생 도서관으로 시작하여 현재 약 50만 점의 소장품을 보유한 뉴욕 브루클린 소재의 미술관으로, 다양한 분야의 예술 작품을 전시하며 특히 아프리카 미술과 여성주의 미술에 대한 기여가 크다. - 공식 웹사이트에 알 수 없는 변수를 사용한 문서 - 광주지방기상청
광주지방기상청은 광주광역시와 전라남도 지역의 기상 예보, 특보, 관측, 기후 정보 제공 등의 업무를 수행하는 기상청 소속 기관으로, 1949년 광주측후소로 설치되어 1992년 광주지방기상청으로 개편되었으며, 기획운영과, 예보과, 관측과, 기후서비스과와 전주기상지청, 목포기상대를 두고 있다.
MNIST 데이터베이스 | |
---|---|
개요 | |
![]() | |
유형 | 이미지 데이터 세트 |
개발자 | 얀 르쿤 코리나 코르테스 크리스토퍼 J.C. 버지스 |
발표일 | 1998년 |
크기 | 12MB |
내용 | |
훈련 세트 | 60,000개 예제 |
테스트 세트 | 10,000개 예제 |
이미지 크기 | 28x28 픽셀 |
픽셀 값 | 0~255 (8비트 그레이스케일) |
활용 | |
용도 | 머신러닝 알고리즘 성능 테스트 패턴 인식 연구 |
특징 | |
특징 | 0부터 9까지의 손으로 쓴 숫자 이미지로 구성 훈련 및 테스트 세트로 분리 제공 머신러닝 분야에서 널리 사용되는 표준 데이터 세트 |
관련 정보 | |
원본 데이터 | 미국 국립표준기술연구소(NIST) 데이터 세트 기반 |
관련 연구 | 신경망 서포트 벡터 머신(SVM) k-최근접 이웃 알고리즘(k-NN) |
추가 정보 | |
라이선스 | 퍼블릭 도메인 |
다운로드 | MNIST 데이터베이스 다운로드 페이지 |
2. 역사적 배경
MNIST 데이터베이스는 1994년에 생성되었다. 이전에는 미국 국립표준기술연구소(NIST)가 SD-1과 SD-3이라는 두 개의 데이터 세트를 공개했다. SD-1은 고등학생들이 쓴 숫자 이미지, SD-3은 미국 인구 조사국 직원들이 쓴 숫자 이미지를 포함하고 있었다. SD-3의 이미지가 SD-1의 이미지보다 더 깨끗하고 인식하기 쉬웠다.[7] 그러나 SD-3으로 훈련된 시스템은 SD-1에서는 성능이 크게 떨어졌다.[12]
MNIST 데이터베이스는 1994년에 미국 국립표준기술연구소(NIST)가 보유한 데이터 세트를 재구성하여 생성되었다.[46] NIST는 이전에 Special Database 1(SD-1)과 Special Database 3(SD-3)이라는 두 개의 데이터 세트를 공개했는데, SD-1은 고등학생들이 쓴 숫자를 포함한 58,646개의 이미지로 구성된 테스트 세트였고, SD-3은 미국 인구 조사국 직원들이 쓴 숫자를 포함한 훈련 세트였다.[7] SD-3의 이미지가 SD-1보다 훨씬 깨끗하고 인식하기 쉬웠다.[7]
MNIST의 원본 데이터는 128x128 이진 이미지였다. 각 이미지는 20x20 픽셀 상자에 맞도록 크기가 정규화되었고, 앤티앨리어싱 처리되어 회색조가 되었다. 그 후 픽셀의 질량 중심이 이미지 중앙에 오도록 하여 28x28 이미지로 변환되었다.[14]
MNIST 데이터베이스는 원래 NIST의 데이터 세트를 재구성하여 만들어졌다.[46] NIST의 학습 데이터는 인구 조사국 직원, 평가 데이터는 고등학생에게서 얻었기 때문에, MNIST 작성자는 기계 학습 실험에 적합하지 않다고 판단했다.[47] 또한 NIST 이미지는 흑백이었지만, MNIST는 28x28 픽셀로 크기를 정규화하고 그레이 스케일 이미지가 되도록 안티 앨리어싱 처리를 했다.
MNIST는 60,000장의 훈련용 이미지와 10,000장의 평가용 이미지를 포함한다.[49] 훈련용 이미지와 평가용 이미지의 절반은 각각 NIST의 훈련 및 평가 데이터 세트에서 가져왔다.[50]
2017년에는 MNIST와 유사한 확장 데이터 세트인 EMNIST가 공개되었다. EMNIST는 손으로 쓴 숫자와 문자를 포함하며, 240,000장의 훈련용 이미지와 40,000장의 평가용 이미지를 포함한다.[53]
3. 데이터 세트 구성
MNIST 데이터베이스는 훈련용 이미지 60,000장과 평가용 이미지 10,000장으로 구성되어 있다.[49] 훈련용 이미지와 평가용 이미지의 절반씩은 각각 NIST의 훈련 데이터 세트와 평가 데이터 세트에서 가져왔다.[50]
MNIST의 원본 데이터 세트는 학습 데이터가 인구 조사국 직원으로부터, 평가 데이터는 미국의 고등학생으로부터 얻은 것이었기 때문에, MNIST 데이터베이스 작성자는 기계 학습 실험에 적합하지 않다고 판단했다.[47] 또한, NIST 데이터베이스의 이미지는 원래 흑백이었지만, 28x28 픽셀 범위에 맞도록 크기가 정규화되었고, 그레이 스케일 이미지가 되도록 안티 앨리어싱 처리를 거쳤다.
3. 1. 확장 데이터 세트
MNIST의 원본 데이터 세트는 128x128 이진 이미지로 구성되었다. 각 이미지는 종횡비를 유지하면서 20x20 픽셀 상자에 맞도록 크기가 정규화되었고, 앤티앨리어싱되어 회색조로 처리되었다. 그런 다음 픽셀의 질량 중심이 이미지의 중앙에 오도록 이동하여 28x28 이미지로 변환되었다.[14]
훈련 세트와 테스트 세트 모두 원래 6만 개의 샘플을 가지고 있었지만, 테스트 세트 샘플 중 5만 개가 폐기되었다. 이후 훈련 세트에 6만 개의 이미지와 테스트 세트에 6만 개의 이미지가 있는 QMNIST를 구성하기 위해 복원되었다.[13][14]
Extended MNIST(EMNIST)는 MNIST의 (최종) 후속으로 미국 국립표준기술연구소(NIST)에서 개발 및 출시한 새로운 데이터 세트이다.[15][16] MNIST는 필기 숫자 이미지만 포함했지만, EMNIST는 NIST Special Database 19(SD 19)의 모든 이미지를 포함하며, 이는 814,255개의 필기 대문자, 소문자 및 숫자의 대규모 데이터베이스이다.[17][18] EMNIST의 이미지는 MNIST 이미지와 동일한 프로세스를 거쳐 동일한 28x28 픽셀 형식으로 변환되었다. 따라서 더 작고 오래된 MNIST 데이터 세트로 작동하는 도구는 EMNIST에서도 수정 없이 작동할 가능성이 높다.
패션 MNIST는 MNIST를 대체할 더 어려운 데이터 세트로 2017년에 제작되었다. 이 데이터 세트는 10개 범주의 패션 제품 7만 개의 28x28 회색조 이미지로 구성되어 있다.[19]
2017년에는 MNIST와 유사한 확장 데이터 세트인 EMNIST가 공개되었다. EMNIST는 손으로 쓴 숫자와 문자를 포함하며, 240,000장의 훈련용 이미지와 40,000장의 평가용 이미지를 포함한다.[53]
'''QMNIST'''는 MNIST의 엄격한 슈퍼세트인 손글씨 문자 이미지 데이터 세트이다.[82] QMNIST는 1990년대에 NIST 데이터 세트로부터 구축되었으나, 정확한 구축 절차는 기록되지 않았고 NIST 데이터 세트에 존재했던 다른 손글씨 문자 이미지와 레이블 정보도 유실되었다. QMNIST는 유실된 구축 방법을 재현하고 원래의 NIST 데이터 세트에서 추가 데이터를 더함으로써 MNIST의 상위 호환(슈퍼세트)이 되도록 의도하여 구축되었다.[83]
QMNIST는 train/test 합계 1074명의 필적으로 총 12만 개의 손글씨 문자 이미지로 구성되어 있으며, 1인당 100~130개의 이미지가 포함되어 있다.
colspan="2" | | MNIST | QMNIST | |
---|---|---|---|
데이터 수 | train | 60,000[84] | 60,000[84] |
test | 10,000[85] | 60,000[85] | |
필자 수 | train | 539[86] | 539[87] |
test | 298[88] | 535[89] |
4. 성능 평가
MNIST 데이터베이스를 활용한 연구는 다양한 성능 평가 결과를 보여준다. 초기에는 전처리 없이 간단한 선형 분류기를 사용했을 때 12%의 오류율을 보였으나,[10] 이후 기술 발전과 함께 오류율은 지속적으로 감소하여, 2012년에는 여러 신경망을 조합한 위원회 머신을 활용하여 인간에 근접한 성능을 달성했다는 연구 결과가 보고되었다.[20]
4. 1. 분류기 및 성능
여러 신경망으로 구성된 위원회를 사용하여 MNIST 데이터베이스에서 "인간에 근접하는 성능"을 달성한 연구 결과가 있으며, 같은 논문에서 연구자들은 다른 인식 작업에서 인간의 두 배 성능을 달성했다.[20] MNIST 데이터베이스 웹사이트에 나열된 최고 오류율[7]은 12%로, 이는 전처리 없이 간단한 선형 분류기를 사용하여 달성되었다.[10]2004년에는 로젠블라트 퍼셉트론 원리에 기반한 3개 뉴런 계층을 가진 신경 분류기인 LIRA를 사용하여 MNIST 데이터베이스에서 0.42%의 최고 오류율을 달성했다.[21]
일부 연구자들은 무작위 왜곡을 가한 MNIST 데이터베이스를 사용하여 인공 지능 시스템을 테스트했다. 이 경우 시스템은 일반적으로 신경망이며, 사용되는 왜곡은 아핀 변환 또는 탄성 변형이다.[7] 이러한 시스템 중 하나는 MNIST 데이터베이스에서 0.39%의 오류율을 달성했다.[22]
2011년에는 신경망과 유사한 시스템을 사용하는 연구자들이 0.27%의 오류율을 보고했으며, 이는 이전 최고 결과를 개선한 것이다.[23] 2013년에는 DropConnect를 사용하여 신경망 정규화를 기반으로 한 접근 방식이 0.21%의 오류율을 달성했다고 주장되었다.[24] 2016년에는 단일 합성곱 신경망 최고 성능이 0.25%의 오류율을 기록했다.[25] 2018년 8월 현재, 데이터 증강을 사용하지 않고 MNIST 훈련 데이터로 훈련된 단일 합성곱 신경망의 최고 성능은 0.25% 오류율이다.[25][26] 우크라이나 흐멜니츠키에 위치한 병렬 컴퓨팅 센터는 MNIST에서 0.21%의 오류율로 작동하는 5개 합성곱 신경망 앙상블을 얻었다.[27][28]
다음은 MNIST 데이터 세트에 사용된 일부 기계 학습 방법과 해당 분류기 유형별 오류율을 나타낸 표이다.
유형 | 분류기 | 왜곡 | 전처리 | 오류율(%) |
---|---|---|---|---|
선형 분류기 | 쌍별 선형 분류기 | 기울기 보정 | 7.6[10] | |
K-최근접 이웃 | 강체 변환을 사용한 K-NN | 0.96[29] | ||
K-최근접 이웃 | 비선형 변형을 사용한 K-NN (P2DHMDM) | 이동 가능한 에지 | 0.52[30] | |
부스팅된 스텀프 | Haar 특징에 대한 스텀프의 곱 | Haar 특징 | 0.87[31] | |
비선형 분류기 | 40 PCA + 이차 분류기 | 3.3[10] | ||
랜덤 포레스트 | 간단한 통계적 픽셀 중요도 | 2.8[33] | ||
서포트 벡터 머신 (SVM) | 가상 SVM, deg-9 다항식, 2 픽셀 지터링 | 기울기 보정 | 0.56[34] | |
신경망 | 2-계층 784-800-10 | 1.6[35] | ||
신경망 | 2-계층 784-800-10 | 탄성 왜곡 | 0.7[35] | |
심층 신경망 (DNN) | 6-계층 784-2500-2000-1500-1000-500-10 | 탄성 왜곡 | 0.35[36] | |
합성곱 신경망 | 6-계층 784-40-80-500-1000-2000-10 | 훈련 데이터 확장 | 0.31[37] | |
합성곱 신경망 | 6-계층 784-50-100-500-1000-10-10 | 훈련 데이터 확장 | 0.27[38] | |
합성곱 신경망 | 13-계층 64-128(5x)-256(3x)-512-2048-256-256-10 | 0.25[25] | ||
합성곱 신경망 | 35개 CNN 위원회, 1-20-P-40-P-150-10 | 탄성 왜곡 | 너비 정규화 | 0.23[20] |
합성곱 신경망 | 5개 CNN 위원회, 6-계층 784-50-100-500-1000-10-10 | 훈련 데이터 확장 | 0.21[27][28] | |
합성곱 신경망 | Squeeze-and-Excitation Networks를 사용한 20개 CNNS 위원회 | 데이터 증강 | 0.17[40] | |
합성곱 신경망 | 다양한 커널 크기를 가진 3개 CNN 앙상블 | 회전 및 변환으로 구성된 데이터 증강 | 0.09[41] |
참조
[1]
웹사이트
The MNIST Database of handwritten digits
http://yann.lecun.co[...]
"[[Yann LeCun]], Courant Institute, NYU Corinna Cortes, Google Labs, New York Christopher J.C. Burges, Microsoft Research, Redmond"
[2]
웹사이트
Support vector machines speed pattern recognition - Vision Systems Design
http://www.vision-sy[...]
2004-09
[3]
웹사이트
Handwritten digit database
http://cis.jhu.edu/~[...]
2013-08-17
[4]
웹사이트
The MNIST Database of handwritten digits
http://www.gavo.t.u-[...]
2013-08-18
[5]
논문
Using analytic QP and sparseness to speed training of support vector machines
http://ar.newsmth.ne[...]
2013-08-18
[6]
웹사이트
NIST Special Database 19 - Handprinted Forms and Characters Database
https://www.nist.gov[...]
[7]
웹사이트
The MNIST Handwritten Digit Database
http://yann.lecun.co[...]
2020-04-30
[8]
논문
Improved method of handwritten digit recognition tested on MNIST database
[9]
논문
Fast k-Nearest Neighbor Classification Using Cluster-Based Trees
http://mleg.cse.sc.e[...]
2020-04-20
[10]
논문
Gradient-Based Learning Applied to Document Recognition
http://yann.lecun.co[...]
2013-08-18
[11]
간행물
Identifying Mislabeled Instances in Classification Datasets
https://ieeexplore.i[...]
IEEE
2019-07
[12]
서적
Proceedings of the 12th IAPR International Conference on Pattern Recognition (Cat. No.94CH3440-5)
[13]
Citation
facebookresearch/qmnist
https://github.com/f[...]
Meta Research
2024-09-23
[14]
논문
Cold Case: The Lost MNIST Digits
https://proceedings.[...]
2019
[15]
웹사이트
The EMNIST Dataset
https://www.nist.gov[...]
2017-04-04
[16]
웹사이트
NIST Special Database 19
https://www.nist.gov[...]
2010-08-27
[17]
arXiv
EMNIST: an extension of MNIST to handwritten letters.
[18]
문서
NIST special database 19.
Handprinted forms and characters database, National Institute of Standards and Technology
[19]
arXiv
Fashion-MNIST: a Novel Image Dataset for Benchmarking Machine Learning Algorithms
2017-09-15
[20]
서적
2012 IEEE Conference on Computer Vision and Pattern Recognition
[21]
논문
Improved method of handwritten digit recognition tested on MNIST database
https://vlabdownload[...]
2013-09-20
[22]
논문
Efficient Learning of Sparse Representations with an Energy-Based Model
http://yann.lecun.co[...]
2013-09-20
[23]
서적
2011 International Conference on Document Analysis and Recognition (ICDAR)
2013-09-20
[24]
간행물
Regularization of Neural Network using DropConnect
[25]
웹사이트
Lets Keep it simple, Using simple architectures to outperform deeper and more complex architectures
https://github.com/C[...]
2020-12-03
[26]
웹사이트
Towards Principled Design of Deep Convolutional Networks: Introducing SimpNet
https://github.com/C[...]
2020-12-03
[27]
웹사이트
Parallel Computing Center (Khmelnytskyi, Ukraine) represents an ensemble of 5 convolutional neural networks which performs on MNIST at 0.21 percent error rate.
https://drive.google[...]
2016-11-24
[28]
논문
Training data expansion and boosting of convolutional neural networks for reducing the MNIST dataset error rate
2016
[29]
논문
Linear time distances between fuzzy sets with applications to pattern matching and classification
2014-01
[30]
논문
Deformation models for image recognition
2007-08
[31]
서적
Proceedings of the 26th Annual International Conference on Machine Learning
2013-08-27
[32]
웹사이트
RandomForestSRC: Fast Unified Random Forests for Survival, Regression, and Classification (RF-SRC)
https://cran.r-proje[...]
2020-01-21
[33]
웹사이트
Mehrad Mahmoudian / MNIST with RandomForest
https://gitlab.com/m[...]
[34]
서적
Training Invariant Support Vector Machines
[35]
서적
Proceedings of the Seventh International Conference on Document Analysis and Recognition
"[[Institute of Electrical and Electronics Engineers]]"
[36]
논문
Deep Big Simple Neural Nets Excel on Handwritten Digit Recognition
2010-12
[37]
웹사이트
The single convolutional neural network best performance in 18 epochs on the expanded training data at Parallel Computing Center, Khmelnytskyi, Ukraine
https://drive.google[...]
2016-11-16
[38]
웹사이트
Parallel Computing Center (Khmelnytskyi, Ukraine) gives a single convolutional neural network performing on MNIST at 0.27 percent error rate
https://drive.google[...]
2016-11-24
[39]
논문
Squeeze-and-Excitation Networks
[40]
웹사이트
GitHub - Matuzas77/MNIST-0.17: MNIST classifier with average 0.17% error
https://github.com/M[...]
2020-02-25
[41]
arXiv
An Ensemble of Simple Convolutional Neural Network Models for MNIST Digit Recognition
2020-10-04
[42]
웹사이트
Support vector machines speed pattern recognition - Vision Systems Design
http://www.vision-sy[...]
2013-08-17
[43]
웹사이트
Handwritten digit database
http://cis.jhu.edu/~[...]
2013-08-17
[44]
웹사이트
THE MNIST DATABASE of handwritten digits
http://www.gavo.t.u-[...]
2013-08-18
[45]
논문
Using analytic QP and sparseness to speed training of support vector machines
http://ar.newsmth.ne[...]
2013-08-18
[46]
웹사이트
NIST Special Database 19 - Handprinted Forms and Characters Database
https://www.nist.gov[...]
2021-02-02
[47]
웹사이트
The MNIST Handwritten Digit Database
http://yann.lecun.co[...]
2020-04-30
[48]
논문
Learning under differing training and test distributions
https://publishup.un[...]
2021-02-02
[49]
논문
Improved method of handwritten digit recognition tested on MNIST database
[50]
논문
Fast k-Nearest Neighbor Classification Using Cluster-Based Trees
http://mleg.cse.sc.e[...]
2020-04-20
[51]
웹사이트
The MNIST Handwritten Digit Database
http://yann.lecun.co[...]
2020-04-30
[52]
논문
Gradient-Based Learning Applied to Document Recognition
http://yann.lecun.co[...]
2013-08-18
[53]
arXiv
EMNIST: an extension of MNIST to handwritten letters
2017-02-17
[54]
웹사이트
The MNIST Handwritten Digit Database
http://yann.lecun.co[...]
2020-04-30
[55]
서적
2012 IEEE Conference on Computer Vision and Pattern Recognition
[56]
웹사이트
The MNIST Handwritten Digit Database
http://yann.lecun.co[...]
2020-04-30
[57]
논문
Gradient-Based Learning Applied to Document Recognition
http://yann.lecun.co[...]
2013-08-18
[58]
논문
Improved method of handwritten digit recognition tested on MNIST database
https://vlabdownload[...]
2013-09-20
[59]
웹사이트
The MNIST Handwritten Digit Database
http://yann.lecun.co[...]
2020-04-30
[60]
논문
Efficient Learning of Sparse Representations with an Energy-Based Model
http://yann.lecun.co[...]
2013-09-20
[61]
서적
2011 International Conference on Document Analysis and Recognition (ICDAR)
2013-09-20
[62]
웹사이트
Lets Keep it simple, Using simple architectures to outperform deeper and more complex architectures
https://github.com/C[...]
2020-12-03
[63]
웹사이트
Towards Principled Design of Deep Convolutional Networks: Introducing SimpNet
https://github.com/C[...]
2020-12-03
[64]
웹사이트
Parallel Computing Center (Khmelnytskyi, Ukraine) represents an ensemble of 5 convolutional neural networks which performs on MNIST at 0.21 percent error rate.
https://drive.google[...]
2016-11-24
[65]
논문
Training data expansion and boosting of convolutional neural networks for reducing the MNIST dataset error rate
2016
[66]
논문
RMDL: Random Multimodel Deep Learning for Classification
2018-05-03
[67]
웹사이트
Classify MNIST digits using Convolutional Neural Networks
https://github.com/j[...]
2018-08-03
[68]
논문
Gradient-Based Learning Applied to Document Recognition
http://yann.lecun.co[...]
2013-08-18
[69]
논문
Decision Stream: Cultivating Deep Decision Trees
https://ieeexplore.i[...]
IEEE
2021-02-02
[70]
논문
Decision Stream: Cultivating Deep Decision Trees
https://www.research[...]
2017
[71]
논문
Deformation models for image recognition
2007-08
[72]
논문
Boosting products of base classifiers
https://users.lal.in[...]
2013-08-27
[73]
서적
Proceedings of the Seventh International Conference on Document Analysis and Recognition
Institute of Electrical and Electronics Engineers
[74]
논문
Deep Big Simple Neural Nets Excel on Handwritten Digit Recognition
2010-12
[75]
웹사이트
The single convolutional neural network best performance in 18 epochs on the expanded training data at Parallel Computing Center, Khmelnytskyi, Ukraine
https://drive.google[...]
2016-11-16
[76]
웹사이트
Parallel Computing Center (Khmelnytskyi, Ukraine) gives a single convolutional neural network performing on MNIST at 0.27 percent error rate
https://drive.google[...]
2016-11-24
[77]
웹사이트
Lets Keep it simple, Using simple architectures to outperform deeper and more complex architectures
https://github.com/C[...]
2020-12-03
[78]
서적
2012 IEEE Conference on Computer Vision and Pattern Recognition
[79]
웹사이트
Parallel Computing Center (Khmelnytskyi, Ukraine) represents an ensemble of 5 convolutional neural networks which performs on MNIST at 0.21 percent error rate.
https://drive.google[...]
2016-11-24
[80]
논문
Training data expansion and boosting of convolutional neural networks for reducing the MNIST dataset error rate
2016
[81]
논문
RMDL: Random Multimodel Deep Learning for Classification
2018-05-03
[82]
문서
We propose a reconstruction that is accurate enough to serve as a replacement for the MNIST dataset ... we eventually had to freeze one of these datasets and call it QMNIST
2019
[83]
문서
Cold Case: the Lost MNIST Digits
2019
[84]
문서
The reconstructed training set contains 60,000 images matching each of the MNIST training images.
2019
[85]
문서
the first 10,000 images of the reconstructed test set match each of the MNIST test set images. The next 50,000 images are a reconstruction of the 50,000 lost MNIST test images.
2019
[86]
문서
高校生 250人(#2100 ~ #2349)+ アメリカ合衆国国勢調査局
2019
[87]
문서
アメリカ合衆国国勢調査局 289人(#0 ~ #288)+ 高校生 250人(#2100 ~ #2349)
[88]
문서
アメリカ合衆国国勢調査局 48人(#326 ~ #373)+ 高校生 250人(#2350 ~ #2599)
[89]
문서
アメリカ合衆国国勢調査局 285人(#326 ~ #610)+ 高校生 250人(#2350 ~ #2599)
[90]
문서
The permuted MNIST (pMNIST) task feeds inputs to a model pixel-by-pixel in the order of a fixed permutation.
2020
[91]
웹인용
Support vector machines speed pattern recognition - Vision Systems Design
http://www.vision-sy[...]
2013-08-17
[92]
웹인용
Handwritten digit database
http://cis.jhu.edu/~[...]
2013-08-17
[93]
웹인용
THE MNIST DATABASE of handwritten digits
http://www.gavo.t.u-[...]
2013-08-18
[94]
저널
Using analytic QP and sparseness to speed training of support vector machines
http://ar.newsmth.ne[...]
2013-08-18
[95]
웹인용
MNIST handwritten digit database, Yann LeCun, Corinna Cortes and Chris Burges
http://yann.lecun.co[...]
2013-08-17
[96]
저널
Improved method of handwritten digit recognition tested on MNIST database
[97]
저널
Fast k -Nearest Neighbor Classification Using Cluster-Based Trees
http://mleg.cse.sc.e[...]
2013-08-18
본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.
문의하기 : help@durumis.com