맨위로가기

모형 선택

"오늘의AI위키"는 AI 기술로 일관성 있고 체계적인 최신 지식을 제공하는 혁신 플랫폼입니다.
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.

1. 개요

모형 선택은 과학적 탐구에서 관찰을 설명하고 예측하기 위한 수학적 모형을 결정하는 중요한 과정이다. 모형 선택은 과학적 발견(통계적 추론)과 미래 관측값 예측(통계적 예측)이라는 두 가지 목표에 따라 추론을 위한 모형 선택과 예측을 위한 모형 선택으로 나뉜다. 추론을 위한 모형 선택은 데이터에 가장 적합한 모형을 식별하는 것을 목표로 하며, 선택 일관성을 가져야 한다. 예측을 위한 모형 선택은 우수한 예측 성능을 제공하는 모형을 선택하는 것을 목표로 한다. 모형 선택에는 아카이케 정보 기준(AIC), 베이즈 정보 기준(BIC), 교차 검증, 최소 설명 길이(MDL) 등 다양한 기준과 방법이 사용된다.

더 읽어볼만한 페이지

  • 수리적 방법과 정량적 방법 (경제학) - 안정성 이론
    안정성 이론은 미분 방정식과 동역학적 시스템의 해의 점근적 성질과 궤적을 다루며, 평형점, 주기 궤도의 안정성, 섭동과 선형화, 랴푸노프 함수 등을 사용하여 시스템의 안정성을 분석한다.
  • 수리적 방법과 정량적 방법 (경제학) - 계량경제 모형
    계량경제 모형은 경제학 이론을 토대로 경제 변수 간의 관계를 수량화하여 분석하고 예측하는 모형으로, 모형 선택, 추정, 추론 단계를 거쳐 개발되며 정책 결정에 중요한 역할을 한다.
  • 통계적 추론 - 과적합
    과적합은 통계 모델이나 기계 학습 알고리즘이 훈련 데이터에 과도하게 적합되어 새로운 데이터에 대한 예측 성능이 저하되는 현상이다.
  • 통계적 추론 - 비모수 통계
    비모수 통계는 자료의 분포에 대한 가정을 최소화하며, 명목척도나 서열척도 자료, 또는 표본 수가 적은 경우에 사용되는 통계 방법이다.
  • 통계 모형 - 예측 분석
    예측 분석은 통계학, 기계 학습 등의 분석 기법을 활용하여 과거 및 현재 데이터를 토대로 미래의 사건이나 결과를 예측하는 방법론으로, 다양한 분야에서 의사 결정 지원 및 위험 관리 등에 활용되지만, 인간 행동의 복잡성으로 인한 예측 불가능성에 대한 비판도 존재한다.
  • 통계 모형 - 박스-젠킨스 방법
    박스-젠킨스 방법은 자기상관 및 편자기상관 함수를 활용하여 시계열 데이터를 분석하고 예측하는 통계적 방법론으로, ARIMA 모델을 통해 데이터에 적합한 모델을 식별, 추정, 검증한다.
모형 선택
개요
분야통계학
관련 항목과적합
정보 이론
오컴의 면도날
정규화 (수학)
모형 검증
모형 평균화
앙상블 학습
설명
정의주어진 데이터에 가장 적합한 모형을 선택하는 작업
목표모형의 정확도와 일반화 성능을 극대화
과적합 및 과소적합 방지
방법정보 기준 (예: AIC, BIC)
교차 검증
베이즈 모형 비교
정보 기준
AIC정보 이론에 기반한 모형 선택 기준
BIC베이즈 통계학에 기반한 모형 선택 기준
교차 검증
설명데이터를 여러 부분으로 나누어 모형을 평가하는 방법
종류K-폴드 교차 검증
붓스트랩
베이즈 모형 비교
설명베이즈 정리를 이용하여 모형의 사후 확률을 계산하고 비교하는 방법

2. 모델 선택의 기본 원리

모델 선택은 과학 연구의 근본적인 과제 중 하나이다. 이는 관측된 데이터를 설명하고 예측하는 수학적 모형을 찾는 것과 직접적으로 연결된다. 예를 들어, 갈릴레오는 기울어진 평면 실험을 통해 공의 움직임이 자신의 모형이 예측한 포물선과 일치함을 보였다.

데이터를 생성할 수 있는 수많은 가능한 메커니즘과 과정 중에서 최적의 모델을 선택하기 위해, 일반적으로 후보 모델 집합을 정하고 그 중에서 선택하는 수학적 접근 방식이 사용된다. 이 후보 모델 집합은 연구자가 선택하며, 초기에는 다항식과 같이 단순한 모델이 사용되기도 한다. 번햄(Burnham)과 앤더슨(Anderson)은 저서(2002)에서 데이터의 기초가 되는 현상학적 과정이나 메커니즘(예: 화학 반응)에 대한 이해와 같은 건전한 과학적 원리에 기반한 모델 선택의 중요성을 강조한다.

일단 후보 모델 집합이 정해지면, 통계적 분석을 통해 최적의 모델을 선택한다. 여기서 '최적'의 의미는 논쟁의 여지가 있을 수 있다. 좋은 모델 선택 기법은 적합도와 단순성 사이의 균형을 이룬다. 복잡한 모델은 데이터에 더 잘 맞을 수 있지만(예: 5차 다항식은 6개의 점을 정확히 맞출 수 있음), 추가적인 통계적 매개변수는 유용한 정보를 나타내지 않을 수 있다. (예를 들어, 6개의 점이 실제로 직선 주위에 무작위로 분포할 수 있음) 적합도는 일반적으로 우도비 검정 또는 그 근사치를 사용하여 결정되며, 이는 카이제곱 검정으로 이어진다. 복잡성은 일반적으로 모델의 모수 개수를 세어 측정한다.

모델 선택 기법은 주어진 데이터를 생성하는 모델의 확률과 같은 물리적 양의 추정량으로 볼 수 있다. 편향과 분산은 이 추정량의 품질에 대한 중요한 척도이며, 효율성도 고려된다.

모델 선택의 전형적인 예시는 곡선 맞춤이다. 점 집합과 점들이 독립적이고 동일하게 분포된 확률 변수(i.i.d.) 샘플의 결과라는 배경 지식이 주어졌을 때, 점들을 생성한 함수를 설명하는 곡선을 선택해야 한다.

3. 모델 선택의 방향

과학적 관찰주기.


모형 선택은 과학 연구의 근본적인 과제 중 하나이다. 일련의 관측치를 설명하는 원리를 결정하는 것은 종종 그러한 관측치를 예측하는 수학적 모형과 직접 연결된다. 예를 들어, 갈릴레오는 기울어진 평면 실험을 통해 공의 움직임이 자신의 모형이 예측한 포물선과 일치함을 증명했다.

데이터를 생성할 수 있었던 수많은 가능한 메커니즘과 프로세스 중에서, 어떻게 최적의 모델을 선택할 수 있을까? 일반적으로는 연구자가 선택한 일련의 후보 모델 중에서 결정하는 수학적 접근방식이 사용된다. 초기에는 다항식과 같이 단순한 모델이 주로 사용된다. 번햄 앤 앤더슨(2002)은 저서를 통해 데이터의 기초가 되는 현상학적 과정이나 메커니즘(예: 화학 반응)에 대한 이해와 같은 건전한 과학적 원리에 기초한 모델 선택의 중요성을 강조한다.

일단 후보 모델 집합이 선택되면, 통계 분석을 통해 이들 중 가장 좋은 모델을 선택할 수 있다. '최선'의 의미는 논란의 여지가 있지만, 좋은 모델 선택 기법은 적합도와 단순성의 균형을 맞춘다. 더 복잡한 모델은 데이터에 더 잘 맞게 조정될 수 있지만(예: 5차 다항식은 6개의 점을 정확히 맞출 수 있음), 추가 매개변수가 유용한 정보를 나타내지 않을 수도 있다. (어쩌면 이 6개의 점은 실제로 직선상에 무작위로 분포되어 있을 수도 있다.) 적합도는 일반적으로 우도비 접근법 또는 그 근사치를 사용하여 결정되며, 이는 카이-제곱 검정으로 이어진다. 복잡성은 대개 모형의 모수 개수를 세어 측정한다.

모델 선택 기법은 주어진 데이터를 생성하는 모델의 확률과 같은 특정 물리량의 추정기로 간주될 수 있다. 편향과 분산은 모두 이 추정기의 품질에 대한 중요한 척도이며, 효율성도 종종 고려된다.

모델 선택의 전형적인 예시는 곡선 적합이다. 점 집합과 점들이 독립동일분포(I.I.d) 표본이라는 배경 지식이 주어졌을 때, 점들을 생성한 함수를 설명하는 곡선을 선택해야 한다.

데이터로부터의 추론 및 학습에는 과학적 발견(통계적 추론)과 미래 관측값 예측(통계적 예측)이라는 두 가지 주요 목표가 있다. 이에 따라 모형 선택은 추론을 위한 모형 선택예측을 위한 모형 선택의 두 가지 방향으로 나눌 수 있다.[3]

3. 1. 추론을 위한 모델 선택

데이터에 내재된 인과 관계나 패턴을 파악하고, 이를 통해 과학적 설명을 제공하는 것이 목표이다. 선택된 모형은 표본 크기에 민감하지 않고, 일관성을 가져야 한다.[3]

추론을 위한 모형 선택의 경우, 데이터에 가장 적합한 모형을 식별하여 과학적 해석을 위한 불확실성의 원천에 대해 신뢰할 수 있는 특성화를 제공하는 것이 바람직하다. 이 목표를 위해서는 선택된 모형이 표본 크기에 너무 민감하지 않아야 한다. 따라서 모형 선택을 평가하는 적절한 개념은 선택 일관성이다. 선택 일관성은 충분한 데이터 표본이 있을 때 가장 강건한 후보가 일관되게 선택된다는 것을 의미한다.[3]

3. 2. 예측을 위한 모델 선택

데이터로부터 추론 및 학습에는 두 가지 주요 목표가 있다. 하나는 과학적 발견, 즉 통계적 추론이라고도 하며, 기본 데이터 생성 메커니즘을 이해하고 데이터의 본질을 해석하는 것이다. 데이터로부터 학습의 또 다른 목표는 미래 또는 아직 관찰되지 않은 관측값을 예측하는 것으로, 통계적 예측이라고도 한다. 두 번째 목표에서 데이터 과학자는 데이터의 정확한 확률적 설명에 반드시 관심을 두지 않는다. 물론, 두 방향 모두에 관심이 있을 수도 있다.

두 가지 목표에 따라 모형 선택도 두 가지 방향으로 나눌 수 있는데, 바로 추론을 위한 모형 선택과 예측을 위한 모형 선택이다.[3] 예측을 위한 모델 선택의 경우, 우수한 예측 성능을 제공하는 도구로서 모형을 선택한다. 그러나 선택된 모형은 몇몇 근접한 경쟁자들 중에서 운 좋게 승리한 것일 뿐이지만, 예측 성능은 여전히 최고일 수 있다. 만약 그렇다면, 모형 선택은 예측에는 괜찮지만, 선택된 모형을 통찰력과 해석에 사용하는 것은 매우 신뢰할 수 없고 오해의 소지가 있을 수 있다.[3] 또한, 이런 방식으로 선택된 매우 복잡한 모형의 경우, 선택이 이루어진 데이터와 약간만 다른 데이터에 대해서도 예측이 비합리적일 수 있다.[4]

4. 모델 선택 기준



모형 선택은 기본적으로 과학적 탐구의 핵심 과제 중 하나이다. 관측된 데이터를 설명하는 원리를 찾는 것은 종종 그 데이터를 예측하는 수학적 모형을 만드는 것과 직접적으로 연결된다. 예를 들어, 갈릴레오는 경사면 실험을 통해 공의 움직임이 자신의 모형이 예측하는 포물선과 일치함을 보였다.

데이터를 생성할 수 있는 수많은 메커니즘과 과정 중에서 최적의 모형을 선택하는 것은 어려운 문제이다. 일반적으로 여러 후보 모형을 설정하고, 그 중에서 가장 적합한 모형을 선택하는 수학적 접근 방식이 사용된다. 후보 모형군은 연구자가 직접 선택하며, 초기에는 다항식과 같이 단순한 모형이 주로 사용된다. 번햄 앤 앤더슨(Burnham and Anderson, 2002)은 데이터의 기반이 되는 현상(예: 화학 반응)에 대한 이해와 같은 과학적 원리에 기반하여 모형을 선택하는 것이 중요하다고 강조한다.

후보 모형군이 정해지면, 통계적 분석을 통해 최적의 모형을 선정한다. '최적'의 기준은 논쟁의 여지가 있지만, 좋은 모형 선택 기법은 적합도와 단순성 사이의 균형을 맞춘다. 복잡한 모형은 데이터에 더 잘 맞을 수 있지만(예: 5차 다항식은 6개의 점을 정확히 맞출 수 있음), 추가적인 통계적 매개변수들이 유의미하지 않을 수 있다. (6개의 점이 사실은 직선 주위에 무작위로 분포할 수 있음) 적합도는 주로 우도비 검정 또는 그 근사치를 통해 결정되며, 이는 카이제곱 검정으로 이어진다. 복잡성은 대개 모형의 모수 개수로 측정된다.

모형 선택 기법은 주어진 데이터를 생성하는 모형의 확률과 같은 물리적 양을 추정하는 추정량으로 볼 수 있다. 편향과 분산은 추정량의 품질을 평가하는 중요한 척도이며, 효율성 또한 고려 대상이다.

모형 선택의 대표적인 예시는 곡선 맞춤이다. 점들의 집합과 배경 지식(예: 점들이 독립 동일 분포 표본)이 주어졌을 때, 점들을 생성한 함수를 가장 잘 설명하는 곡선을 선택해야 한다.

모형 선택을 위한 다양한 기준들이 있으며, 각각 다른 특징과 장단점을 가진다. 주요 기준들은 다음과 같다.

기준설명
아카이케 정보 기준 (AIC)추정된 통계적 모형의 적합도를 측정하는 방법.
베이즈 인자
베이즈 정보 기준 (BIC)슈바르츠 정보 기준이라고도 불리며, 모형 선택을 위한 통계적 기준.
브리지 기준(BC, Bridge criterion)모형 명세의 적절성에도 불구하고 AIC와 BIC보다 더 나은 성능을 달성할 수 있는 통계적 기준.[5]
교차 검증
편차 정보 기준 (DIC)또 다른 베이즈 지향 모형 선택 기준.
오탐율
집중 정보 기준 (FIC)주어진 초점 매개변수에 대한 통계적 모형을 효과별로 정렬하는 선택 기준.
Hannan–Quinn 정보 기준아카이케 및 베이즈 기준의 대안.
Kashyap 정보 기준 (KIC)피셔 정보 행렬을 사용하기 때문에 AIC 및 BIC의 강력한 대안.
우도비 검정
Mallowss Cp
최소 설명 길이 (MDL)
최소 메시지 길이 (MML)
PRESS 통계량PRESS 기준이라고도 함.
구조적 위험 최소화
단계적 회귀
와타나베-아카이케 정보 기준 (WAIC)광범위하게 적용 가능한 정보 기준이라고도 함.
확장 베이즈 정보 기준 (EBIC)고차원 매개변수 공간을 가진 모형을 위한 일반적인 베이즈 정보 기준(BIC)의 확장.
확장 피셔 정보 기준 (EFIC)선형 회귀 모형에 대한 모형 선택 기준.
제약 최소 기준(CMC, Constrained Minimum Criterion)기하학적 기초를 가진 회귀 모형을 선택하기 위한 빈도론적 기준.[6]



이러한 기준들 중 교차 검증은 일반적으로 지도 학습 문제에서 가장 정확하지만 계산 비용이 가장 크다.

번햄 앤 앤더슨(Burnham and Anderson, 2002)은 다양한 모형 선택 방법이 있지만, 방법의 통계적 성능과 사용 의도에 따라 ''효율적인'' 방법과 ''일관적인'' 방법으로 분류할 수 있다고 언급한다. 빈도론적 패러다임 하에서 모형 선택은 일반적으로 (I) 일부 선택 기준 최적화, (II) 가설 검정, (III) 임시 방법의 세 가지 접근 방식을 따른다.

4. 1. 아카이케 정보 기준 (AIC)

아카이케 정보 기준(AIC)은 추정된 통계적 모형의 적합도를 측정하는 방법이다. AIC는 모델의 적합도와 복잡성을 함께 고려하는 정보 기준이며, AIC 값이 낮을수록 더 좋은 모델로 평가된다.[5] AIC는 주어진 데이터를 생성하는 모델의 확률과 같은 일부 물리적 양의 추정량으로 간주될 수 있다. 편향 및 분산은 모두 이 추정량의 품질에 대한 중요한 척도이며, 효율성도 종종 고려된다.

4. 2. 베이즈 정보 기준 (BIC)

베이즈 정보 기준(BIC, Bayesian information criterion) 또는 슈바르츠 정보 기준은 모형 선택을 위한 통계적 기준이다. BIC는 아카이케 정보 기준(AIC)과 유사하지만, 모델의 복잡성에 더 큰 패널티를 부여한다. BIC 값이 낮을수록 더 좋은 모델로 평가된다.[5]

4. 3. 교차 검증 (Cross-validation)

교차 검증(Cross-validation영어)은 데이터를 훈련 세트와 검증 세트로 나누어 모델의 성능을 평가하는 방법이다. 과적합을 방지하고 모델의 일반화 성능을 평가하는 데 유용하다.[5] 교차 검증은 일반적으로 지도 학습 문제에 대해 가장 정확하지만 계산 비용이 가장 많이 든다.

4. 4. 최소 설명 길이 (MDL)

최소 설명 길이(MDL) 원리는 주어진 데이터를 가장 간결하게 설명하는 모형이 가장 좋은 모형이라는 아이디어에 기반한다.

참조

[1] 서적 The elements of statistical learning Springer 2009
[2] 논문 A general method to select representative models for decision making and optimization under uncertainty 2016
[3] 논문 Model Selection Techniques: An Overview https://resolver.cal[...] 2018
[4] 논문 One Pixel Attack for Fooling Deep Neural Networks 2019
[5] 논문 Bridging AIC and BIC: A New Criterion for Autoregression https://ieeexplore.i[...] 2018-06
[6] 논문 Regression model selection via log-likelihood ratio and constrained minimum criterion 2023
[7] 서적 The elements of statistical learning Springer 2009
[8] 논문 A general method to select representative models for decision making and optimization under uncertainty 2016



본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.

문의하기 : help@durumis.com