전이학습
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
1. 개요
전이 학습은 기계 학습의 한 분야로, 기존에 학습된 지식을 새로운 관련 작업에 적용하여 학습 효율을 높이는 기술이다. 1970년대부터 연구가 시작되어 1990년대에 로리엔 프랫 등에 의해 알고리즘이 공식화되었으며, 앤드루 응은 전이 학습이 지도 학습 다음으로 기계 학습의 상업적 성공을 이끌 것이라고 강조했다. 전이 학습은 도메인과 태스크를 정의하여, 소스 도메인과 태스크의 지식을 활용해 타겟 도메인에서 학습을 개선하는 것을 목표로 한다. 암 진단, 건물 운영, 게임, 문서 분류, 문자 인식, 의료 영상, 스팸 필터링 등 다양한 분야에 응용되며, 최근에는 뇌파와 근전도 신호 간의 전이 학습 연구도 이루어지고 있다.
1976년, 스테보 보지노브스키(Stevo Bozinovski)와 안테 풀고시(Ante Fulgosi)는 신경망 훈련에서의 전이 학습을 다룬 논문을 발표했다.[4][5][34][35] 이 논문은 이 주제에 대한 수학적 및 기하학적 모델을 제시했다. 1981년에는 컴퓨터 터미널의 글자를 나타내는 이미지 데이터 세트에 전이 학습을 적용하는 것을 고려한 보고서가 발표되었으며, 긍정적 및 부정적 전이 학습을 실험적으로 시연했다.[6][36]
전이 학습의 정의는 도메인과 태스크 측면에서 제공된다. 도메인 는 특징 공간 와 주변 확률 분포 로 구성되며, 여기서 이다. 특정 도메인 가 주어지면, 태스크는 레이블 공간 와 목표 예측 함수 의 두 가지 구성 요소로 이루어진다. 함수 는 새로운 인스턴스 에 해당하는 레이블 를 예측하는 데 사용된다. 로 표시되는 이 태스크는 쌍 로 구성된 훈련 데이터로부터 학습되며, 여기서 이고 이다.[15]
마르코프 논리 네트워크[16][42] 및 베이즈 네트워크[17][43]에서 전이 학습을 위한 알고리즘을 사용할 수 있다. 전이 학습은 암의 아형 발견[18][44], 건물 운영[19][20][45][46], 일반적인 게임 플레이/General game playing영어[21], 문서 분류[22][23][47][48][49], 문자 인식[24][50], 의료 영상, 스팸 필터링[25][51]에 응용되고 있다.
2. 역사
1992년, 로리엔 프랫은 차별성 기반 전이(DBT) 알고리즘을 공식화했다.[7] 1993년, 로리엔 프랫(Lorien Pratt)은 기계 학습에서의 전이에 관한 논문을 발표하고, 식별성에 기반한 전이 알고리즘을 공식화했다.[37]
1998년까지 이 분야는 다중 작업 학습을 포함하도록 발전했으며,[8] 보다 공식적인 이론적 기반도 갖추게 되었다.[9] 전이 학습에 관한 영향력 있는 출판물로는 1998년의 책 ''Learning to Learn'', 2009년의 조사[10] 및 2019년의 조사가 있다.[11]
앤드루 응은 NIPS 2016 튜토리얼에서[12][13][38][39][40] 전이 학습이 지도 학습 다음으로 기계 학습의 상업적 성공을 이끄는 원동력이 될 것이라고 언급하며 그 중요성을 강조했다.
2020년 논문 "Rethinking Pre-Training and self-training"에서[14] 조프 외 연구진은 사전 훈련이 정확도를 저해할 수 있으며, 대신 자기 훈련을 옹호한다고 보고했다.
2. 1. 초기 연구 (1970년대 ~ 1990년대)
1976년, 보지노브스키(Bozinovski)와 풀고시(Fulgosi)는 신경망 훈련에서의 전이 학습을 다룬 논문을 발표했다.[4][5] 이 논문은 이 주제에 대한 수학적 및 기하학적 모델을 제시했다. 1981년에는 컴퓨터 터미널의 글자를 나타내는 이미지 데이터 세트에 전이 학습을 적용하는 것을 고려한 보고서가 발표되었으며, 긍정적 및 부정적 전이 학습을 실험적으로 시연했다.[6]
1992년, 로리엔 프랫은 차별성 기반 전이(DBT) 알고리즘을 공식화했다.[7] 1993년, 로리엔 프랫(Lorien Pratt)은 기계 학습에서의 전이에 관한 논문을 발표했다.[37]
1998년까지 이 분야는 다중 작업 학습을 포함하도록 발전했으며,[8] 보다 공식적인 이론적 기반도 갖추게 되었다.[9]
앤드류 응은 2016년 NIPS 튜토리얼에서[12][13][38][39][40] 전이 학습이 지도 학습 이후 기계 학습 상업적 성공의 다음 동력이 될 것이라고 말했다.
2. 2. 2000년대 이후의 발전
1976년, 보지노브스키(Bozinovski)와 풀고시(Fulgosi)는 신경망 훈련에서의 전이 학습을 다룬 논문을 발표하고, 이 주제에 대한 수학적 및 기하학적 모델을 제시했다.[4][5] 1981년에는 컴퓨터 터미널의 글자를 나타내는 이미지 데이터 세트에 전이 학습을 적용하는 것을 고려한 보고서가 발표되었으며, 긍정적 및 부정적 전이 학습을 실험적으로 시연했다.[6]
1992년, 로리엔 프랫은 차별성 기반 전이(DBT) 알고리즘을 공식화했다.[7] 1993년에는 기계 학습에서의 전이에 관한 논문을 발표했다.[37]
1998년까지 이 분야는 다중 작업 학습을 포함하도록 발전했으며,[8] 보다 공식적인 이론적 기반도 갖추게 되었다.[9] 전이 학습에 관한 영향력 있는 출판물로는 1998년의 책 ''Learning to Learn''과 2009년 및 2019년의 조사가 있다.[10][11]
앤드루 응은 2016년 NIPS 튜토리얼에서[12][13] 전이 학습이 지도 학습 이후 기계 학습 상업적 성공의 다음 동력이 될 것이라고 말했다.
2020년 논문 "Rethinking Pre-Training and self-training"에서[14] 조프 외 연구진은 사전 훈련이 정확도를 저해할 수 있으며, 대신 자기 훈련을 옹호한다고 보고했다.
3. 정의
소스 도메인 와 학습 태스크 , 타겟 도메인 와 학습 태스크 가 주어졌을 때, 이거나 인 경우, 전이 학습은 와 의 지식을 사용하여 에서 타겟 예측 함수 의 학습을 개선하는 것을 목표로 한다.[15]
4. 응용 분야
2020년에는 뇌파 기록(EEG) 파형의 움직임을 제스처 인식 영역에서 정신 상태 인식 영역으로 분류할 때, 그 물리적 성질이 유사하기 때문에 근육으로부터의 전기 근운동 기록(EMG) 신호 간에 전이 학습이 가능하다는 것이 발견되었다. 또한, 이 관계는 역으로도 작용하여, 뇌파 기록이 근운동 기록을 더욱 분류할 수 있다는 것도 나타났다[26]. 이 실험에서는 신경망 및 합성곱 신경망의 정확도가, 최초 에포크(학습 전, 즉 표준적인 무작위 가중치 분포와의 비교)와 점근(학습 프로세스의 종료) 모두에서, 전이 학습에 의해 향상되는 것을 알 수 있었다[27]. 즉, 알고리즘은 다른 도메인에 접하게 함으로써 개선되었다. 더욱이, 사전 학습된 모델의 최종 사용자는 완전 결합층의 구조를 변경함으로써, 더 우수한 성능을 얻을 수 있다[28].
코드 관련 기계 학습 영역에서는, 전이 학습이 보안 취약점을 자동으로 수정하는 데 도움이 된다는 것이 나타났다.[55][56]
4. 1. 컴퓨터 비전
마르코프 논리 네트워크[16] 및 베이즈 네트워크에서 전이 학습을 위한 알고리즘을 사용할 수 있다.[17] 전이 학습은 암 하위 유형 발견,[18] 건물 활용,[19][20] 일반 게임 플레이,[21] 텍스트 분류,[22][23] 숫자 인식,[24] 의료 영상 및 스팸 필터링에 적용되었다.[25]
2020년에는 근육의 근전도 신호 (EMG)와 뇌파도 (EEG)의 행동 분류에서 전이 학습이 가능하다는 것이 밝혀졌다.[26] 이는 제스처 인식 도메인에서 정신 상태 인식 도메인 간에, 그리고 그 반대로도 적용되어, 뇌파도가 EMG를 분류하는 데 사용될 수 있음을 보여주었다.[26] 실험에서는 인공 신경망과 합성곱 신경망의 정확도가 학습 전과 학습 과정의 끝 모두 전이 학습을 통해 향상되었다.[27] 또한, 사전 훈련된 모델의 최종 사용자는 완전 연결 계층의 구조를 변경하여 성능을 향상시킬 수 있다.[28]
4. 2. 자연어 처리
마르코프 논리 네트워크[16] 및 베이즈 네트워크에서 전이 학습을 위한 알고리즘을 사용할 수 있다.[17] 전이 학습은 암 하위 유형 발견,[18] 건물 활용,[19][20] 일반 게임 플레이,[21] 텍스트 분류,[22][23] 숫자 인식,[24] 의료 영상 및 스팸 필터링에 적용되었다.[25]
2020년에는 근육의 근전도 신호 (EMG)와 뇌파도 (EEG)의 행동 분류에서 전이 학습이 가능하다는 것이 밝혀졌다.[26] 이는 제스처 인식 도메인에서 정신 상태 인식 도메인 간에 물리적 특성이 유사하기 때문이다. 이러한 관계는 양방향으로 작동하여 뇌파도가 EMG를 분류하는 데 사용될 수 있음을 보여주었다.[26] 실험에서는 인공 신경망과 합성곱 신경망의 정확도가 학습 전과 학습 과정의 끝 모두 전이 학습을 통해 향상되었다.[27] 즉, 다른 도메인에 노출되면 결과가 향상된다. 또한, 사전 훈련된 모델의 최종 사용자는 완전 연결 계층의 구조를 변경하여 성능을 향상시킬 수 있다.[28]
4. 3. 기타 분야
마르코프 논리 네트워크[16][42] 및 베이즈 네트워크[17][43]에서 전이 학습을 위한 알고리즘을 사용할 수 있다. 전이 학습은 암 하위 유형 발견,[18][44] 건물 활용,[19][20][45][46] 일반 게임 플레이,[21] 텍스트 분류,[22][23][47][48][49] 숫자 인식,[24][50] 의료 영상 및 스팸 필터링[25][51]에 적용되었다.
2020년에는 유사한 물리적 특성으로 인해 근육의 근전도 신호 (EMG)와 뇌파도 (EEG)의 행동 분류, 즉 제스처 인식 도메인에서 정신 상태 인식 도메인 간에 전이 학습이 가능하다는 것이 밝혀졌다. 이러한 관계는 양방향으로 작동하여 뇌파도가 마찬가지로 EMG를 분류하는 데 사용될 수 있음을 보여주었다.[26][52] 실험에서는 인공 신경망과 합성곱 신경망의 정확도가 학습 전(표준 임의 가중치 분포와 비교)과 학습 과정의 끝(점근선) 모두 전이 학습을 통해 향상되었다는 점에 주목했다.[27][53] 즉, 다른 도메인에 노출되면 결과가 향상된다. 또한, 사전 훈련된 모델의 최종 사용자는 완전 연결 계층의 구조를 변경하여 성능을 향상시킬 수 있다.[28][54]
코드 관련 기계 학습 영역에서는, 전이 학습이 보안 취약점을 자동으로 수정하는 데 도움이 된다는 것이 나타났다.[55][56]
5. 한국의 전이 학습 연구 동향
6. 한계 및 극복 과제
7. 관련 기술
참조
[1]
웹사이트
Spring Research Presentation: A Theoretical Foundation for Inductive Transfer
http://cpms.byu.edu/[...]
Brigham Young University, College of Physical and Mathematical Sciences
2007-08-05
[2]
간행물
Self-organizing maps for storage and transfer of knowledge in reinforcement learning
2019
[3]
서적
Cost-Sensitive Machine Learning
https://books.google[...]
CRC Press
2011
[4]
문서
"The influence of pattern similarity and transfer learning on the base perceptron training."
1976
[5]
뉴스
"Reminder of the first paper on transfer learning in neural networks, 1976"
https://www.informat[...]
2020
[6]
문서
"Teaching space: A representation concept for adaptive pattern classification."
1981
[7]
서적
NIPS Conference: Advances in Neural Information Processing Systems 5
https://books.google[...]
Morgan Kaufmann Publishers
[8]
문서
"Multitask Learning"
[9]
문서
"Theoretical Models of Learning to Learn"
[10]
간행물
A Survey on Transfer Learning
https://www.cse.ust.[...]
2009
[11]
간행물
A Comprehensive Survey on Transfer Learning
2019
[12]
기타
NIPS 2016 tutorial: "Nuts and bolts of building AI applications using Deep Learning" by Andrew Ng
https://www.youtube.[...]
2018-05-06
[13]
웹사이트
Nuts and bolts of building AI applications using Deep Learning, slides
https://media.nips.c[...]
[14]
간행물
Rethinking pre-training and self-training
https://proceedings.[...]
2022-12-20
[15]
간행물
Improving EEG-Based Emotion Classification Using Conditional Transfer Learning
2017-06-27
[16]
기타
Learning Proceedings of the 22nd AAAI Conference on Artificial Intelligence (AAAI-2007)
2007-08-05
[17]
기타
Proceedings of the Eleventh International Conference on Artificial Intelligence and Statistics (AISTATS 2007)
2007-08-05
[18]
문서
Bayesian multi-domain learning for cancer subtype discovery from next-generation sequencing count data.
[19]
간행물
DA-HOC: semi-supervised domain adaptation for room occupancy prediction using CO2 sensor data
https://dl.acm.org/c[...]
2017-11-08
[20]
간행물
A Scalable Room Occupancy Prediction with Transferable Time Series Decomposition of CO2 Sensor Data
2018-12-01
[21]
문서
"General Game Learning Using Knowledge Transfer."
http://www.aaai.org/[...]
[22]
간행물
Neural Information Processing Systems Foundation, NIPS*2005
http://papers.nips.c[...]
2007-08-05
[23]
간행물
Twenty-third International Conference on Machine Learning
https://ai.stanford.[...]
2007-08-05
[24]
서적
2015 13th International Conference on Document Analysis and Recognition (ICDAR)
2015-08
[25]
간행물
ECML-PKDD Discovery Challenge Workshop
http://www.ecmlpkdd2[...]
2007-08-05
[26]
간행물
Cross-Domain MLP and CNN Transfer Learning for Biological Signal Processing: EEG and EMG
Institute of Electrical and Electronics Engineers (IEEE)
[27]
서적
2015 13th International Conference on Document Analysis and Recognition (ICDAR)
2015-08
[28]
간행물
SpinalNet: Deep Neural Network with Gradual Input
https://ieeexplore.i[...]
2022-01-07
[29]
문서
"ADAPT: Awesome Domain Adaptation Python Toolbox"
https://github.com/a[...]
2020
[30]
문서
"Transfer-learning-library"
https://github.com/t[...]
2020
[31]
문서
"Domain adaptation toolbox"
https://github.com/v[...]
2016
[32]
웹사이트
Spring Research Presentation: A Theoretical Foundation for Inductive Transfer
http://cpms.byu.edu/[...]
Brigham Young University, College of Physical and Mathematical Sciences
2007-08-05
[33]
간행물
Self-organizing maps for storage and transfer of knowledge in reinforcement learning
2019
[34]
문서
"The influence of pattern similarity and transfer learning upon the training of a base perceptron B2."
1976
[35]
문서
"Reminder of the first paper on transfer learning in neural networks, 1976"
2020
[36]
간행물
Teaching space: A representation concept for adaptive pattern classification.
UM-CS-1981-028.pdf
COINS Technical Report, the University of Massachusetts at Amherst, No 81-28
[37]
서적
NIPS Conference: Advances in Neural Information Processing Systems 5
https://books.google[...]
Morgan Kaufmann Publishers
[38]
Youtube
NIPS 2016 tutorial: "Nuts and bolts of building AI applications using Deep Learning" by Andrew Ng
https://www.youtube.[...]
2019-12-28
[39]
웹사이트
NIPS 2016 Schedule
https://nips.cc/Conf[...]
2019-12-28
[40]
문서
Nuts and bolts of building AI applications using Deep Learning, slides
https://media.nips.c[...]
[41]
논문
Improving EEG-Based Emotion Classification Using Conditional Transfer Learning
2017-06-27
[42]
간행물
Learning Proceedings of the 22nd AAAI Conference on Artificial Intelligence (AAAI-2007)
2007-08-05
[43]
간행물
Proceedings of the Eleventh International Conference on Artificial Intelligence and Statistics (AISTATS 2007)
2007-08-05
[44]
간행물
Bayesian multi-domain learning for cancer subtype discovery from next-generation sequencing count data.
[45]
학회자료
DA-HOC: semi-supervised domain adaptation for room occupancy prediction using CO2 sensor data
https://dl.acm.org/c[...]
2017-11-08
[46]
논문
A Scalable Room Occupancy Prediction with Transferable Time Series Decomposition of CO2 Sensor Data
2018-12-01
[47]
간행물
General Game Learning Using Knowledge Transfer.
http://www.aaai.org/[...]
[48]
학회자료
Neural Information Processing Systems Foundation, NIPS*2005
http://papers.nips.c[...]
2007-08-05
[49]
학회자료
Twenty-third International Conference on Machine Learning
https://ai.stanford.[...]
2007-08-05
[50]
논문
CNN based common approach to handwritten character recognition of multiple scripts
2015-08
[51]
학회자료
ECML-PKDD Discovery Challenge Workshop
http://www.ecmlpkdd2[...]
2007-08-05
[52]
논문
Cross-Domain MLP and CNN Transfer Learning for Biological Signal Processing: EEG and EMG
Institute of Electrical and Electronics Engineers (IEEE)
[53]
논문
CNN based common approach to handwritten character recognition of multiple scripts
https://ieeexplore.i[...]
2015-08
[54]
arxiv
Spinalnet: Deep neural network with gradual input
[55]
논문
A Survey of Machine Learning for Big Code and Naturalness
https://dl.acm.org/d[...]
2019-07-31
[56]
논문
Neural Transfer Learning for Repairing Security Vulnerabilities in C Code
https://ieeexplore.i[...]
2022
[57]
웹인용
Spring Research Presentation: A Theoretical Foundation for Inductive Transfer
http://cpms.byu.edu/[...]
Brigham Young University, College of Physical and Mathematical Sciences
2007-08-05
[58]
저널
Self-organizing maps for storage and transfer of knowledge in reinforcement learning
2019
본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.
문의하기 : help@durumis.com