본페로니 교정
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
1. 개요
본페로니 교정은 여러 통계적 가설을 검정할 때 발생하는 제1종 오류의 증가를 보상하기 위한 방법이다. 본페로니 부등식에 기반하며, 전체 유의 수준 α를 유지하기 위해 각 개별 가설 검정의 유의 수준을 α/m으로 조정한다. 이 방법은 p-값 간의 종속성이나 참인 귀무 가설의 수에 대한 가정을 필요로 하지 않는다. 신뢰 구간 조정, 연속적인 매개변수 공간에서의 신호 탐색 등에도 확장될 수 있으며, 홀름-본페로니 방법, 시닥 보정 등 다른 가족별 오류율 제어 방법이 존재한다. 그러나 검정 횟수가 많거나 검정 통계량 간에 양의 상관관계가 있을 경우 지나치게 보수적일 수 있으며, 가설 집합 정의의 모호성으로 인한 비판도 있다.
더 읽어볼만한 페이지
- 다중 비교 - 셰페의 방법
셰페의 방법은 분산 분석 후 여러 그룹 평균 비교를 위한 사후 분석 방법으로, 모든 가능한 비교나 대비 분석에 적합하며, 튜키-크레이머 방법과 비교된다. - 가설 검정 - 귀무 가설
귀무 가설은 통계적 유의성 검정에서 검정되는 '영향 없음' 또는 '차이 없음'에 대한 명제로, 대립 가설과 반대되며, 증거를 통해 기각 여부를 판단하고 과학적 주장을 통계적 잡음과 구분하는 데 사용된다. - 가설 검정 - 유의 확률
유의 확률은 통계적 가설 검정에서 귀무 가설이 참일 때 관측된 결과의 극단성을 나타내는 확률값으로, 귀무 가설 기각 여부를 판단하는 기준이 되지만 오용될 수 있어 다른 통계적 추론 방법이 대안으로 제시된다.
본페로니 교정 | |
---|---|
개요 | |
유형 | 통계학 |
분야 | 가설 검정 |
다른 이름 | 본페로니 방법 |
상세 정보 | |
목적 | 다중 비교 문제를 조절 |
제1종 오류 | 제1종 오류를 조절하는 간단한 방법 |
개발자 | 카를로 에밀리오 본페로니 |
2. 배경
이 방법은 본페로니 부등식을 사용하여 그 이름이 유래되었다.[1] 이 방법의 신뢰 구간 적용은 올리브 진 던이 설명하였다.[2]
통계적 가설 검정은 관찰된 데이터의 가능성이 귀무 가설이 참일 경우 낮을 때 귀무 가설을 기각하는 것을 기반으로 한다. 만약 여러 가설을 검정한다면, 희귀한 사건을 관찰할 확률이 증가하고, 따라서 귀무 가설을 잘못 기각할 가능성(즉, 제1종 오류를 범할 가능성)이 증가한다.[3]
가설 을 귀무 가설의 집합으로 하고, 을 해당 p 값으로 한다. 은 전체 귀무 가설의 개수이고, 은 참인 귀무 가설의 개수이다(연구자는 아마 이를 알지 못할 것이다). 가족별 오류율(FWER)은 적어도 하나의 참인 를 기각할 확률, 즉, 적어도 한 번의 제1종 오류를 범할 확률이다. 본페로니 교정은 각 에 대해 귀무 가설을 기각함으로써 FWER을 로 제어한다. 이러한 제어에 대한 증명은 부울 부등식을 따른다.
통계적 가설 검정은 관찰된 데이터의 가능성이 귀무 가설이 참일 경우 낮을 때 귀무 가설을 기각하는 것을 기반으로 한다. 만약 여러 가설을 검정한다면, 희귀한 사건을 관찰할 확률이 증가하고, 따라서 귀무 가설을 잘못 기각할 가능성 (즉, 제1종 오류를 범할 가능성)이 증가한다.[3]
본페로니 보정은 원하는 전체 알파 수준을 라고 하고 가설의 수를 이라고 할 때, 각 개별 가설을 유의 수준 에서 검정함으로써 이러한 증가를 보상한다.[4] 예를 들어, 만약 한 실험이 개의 가설을 원하는 전체 로 검정한다면, 본페로니 보정은 각 개별 가설을 에서 검정할 것이다.
3. 정의
본페로니 교정은 원하는 전체 알파(α) 수준을 유지하기 위해, 가설의 수를 고려하여 각 개별 가설을 더 엄격한 유의 수준에서 검정하는 방법이다. 전체 유의 수준을 $$\alpha$$, 가설의 수를 $$m$$이라고 할 때, 각 가설의 유의 수준은 $$\alpha/m$$으로 설정된다.[4] 예를 들어, 20개의 가설을 전체 유의 수준 0.05에서 검정한다면, 각 가설은 0.05/20 = 0.0025의 유의 수준에서 검정된다.
본페로니 교정은 p-값 조정으로도 적용될 수 있다. 이 접근법을 사용하면, 알파 수준을 조정하는 대신, 각 p-값에 검정 횟수를 곱하고(1을 초과하는 조정된 p-값은 1로 감소), 알파 수준은 변경되지 않은 채로 둔다. 이 접근법을 사용한 유의성 결정은 알파 수준 조정 접근법을 사용할 때와 동일할 것이다.
가설 $$H_1,\ldots,H_m$$을 귀무 가설의 집합으로 하고, $$p_1,\ldots,p_m$$을 해당 p 값으로 하자. $$m$$은 전체 귀무 가설의 개수이고, $$m_0$$은 참인 귀무 가설의 개수이다(연구자는 아마 이를 알지 못할 것이다). 가족별 오류율(FWER)은 적어도 하나의 참인 $$H_{i}$$를 기각할 확률, 즉 적어도 한 번의 제1종 오류를 범할 확률이다. 본페로니 교정은 각 $$p_i\leq\frac \alpha m$$에 대해 귀무 가설을 기각함으로써 FWER을 $$\leq \alpha$$로 제어한다. 이러한 제어에 대한 증명은 다음과 같이 부울 부등식을 따른다.
:
이 제어는 p 값 간의 종속성에 대한 어떠한 가정이나 귀무 가설 중 참인 가설의 개수에 대한 가정을 필요로 하지 않는다.
4. 확장
:
이 제어는 p 값 간의 종속성에 대한 어떠한 가정이나 귀무 가설 중 참인 가설의 개수에 대한 가정을 필요로 하지 않는다.
4. 1. 일반화
각 가설 검정의 유의 수준을 반드시 으로 동일하게 설정할 필요는 없으며, 합이 가 되는 다른 조합을 사용할 수 있다.[6][18] 예를 들어, 두 개의 가설 검정에서 하나는 0.04, 다른 하나는 0.01의 유의 수준을 사용하여 전체 를 0.05로 유지할 수 있다.
4. 2. 신뢰 구간
Dunn이 제안한 절차[7]는 신뢰 구간을 조정하는 데 사용할 수 있다. 만약 m개의 신뢰 구간을 설정하고, 전체 신뢰 수준을 1-α로 하고자 한다면, 각 개별 신뢰 구간은 1-α/m 수준으로 조정될 수 있다.[2]
4. 3. 연속 문제
연속적인 매개변수 공간에서 신호를 탐색할 때, 다중 비교 문제(어디서나 효과)가 발생할 수 있다. 예를 들어, 물리학자가 미지의 질량을 가진 입자를 발견하기 위해 광범위한 질량을 고려할 수 있다. 이는 노벨상을 수상한 힉스 입자 검출 사례에 해당한다.[21] 이러한 경우, 베이즈 논리를 이용하여 시도의 유효 개수 과 사전-사후 체적비를 연관시키는, 연속 파라미터에 대해 일반화된 본페로니 보정을 적용할 수 있다.[8]
5. 대안
가족별 오류율을 제어하는 다른 방법으로는 홀름-본페로니 방법과 시닥 보정 등이 있다. 이러한 방법들은 본페로니 보정보다 일반적으로 더 강력하며, 이는 항상 최소한 동일한 수준의 검정력을 갖는다는 것을 의미한다. 그러나 본페로니 절차와는 달리, 이러한 방법들은 가족별 제1종 오류의 기대값(가족별 제1종 오류율)을 제어하지 않는다.[9]
6. 비판
FWER 제어와 관련하여, 본페로니 교정은 검정 횟수가 많거나 검정 통계량 간에 양의 상관관계가 있을 때 지나치게 보수적일 수 있다.[10]
본페로니 절차를 포함한 다중 검정 교정은 귀무 가설이 거짓일 때 제2종 오류의 확률을 증가시키며, 이는 통계적 검정력을 감소시킨다.[11][12]
본페로니 교정은 음성 오류를 발생시킬 확률을 증가시킨다. 즉, 검정력을 감소시키는 희생을 치른다.[24][25] 가설 집합을 어떻게 정의할 것인지에 대한 결정적인 의견 일치는 없지만, 조정된 검정 결과는 가설 집합에 포함된 검정 횟수에 따라 변동될 수 있다. 이러한 비판은 일반적으로 FWER 제어를 향하며, 본페로니 교정 고유의 것은 아니다.
참조
[1]
간행물
Teoria statistica delle classi e calcolo delle probabilità
Pubblicazioni del R Istituto Superiore di Scienze Economiche e Commerciali di Firenze
1936
[2]
논문
Multiple Comparisons Among Means
http://sci2s.ugr.es/[...]
[3]
서적
Econometric Foundations
https://books.google[...]
Cambridge University Press
[4]
서적
Simultaneous Statistical Inference
https://books.google[...]
Springer
[5]
논문
Multiple Hypothesis Testing in Genomics
2014
[6]
논문
Detecting patterns in protein sequences
[7]
논문
Multiple Comparisons Among Means
http://sci2s.ugr.es/[...]
[8]
논문
The look-elsewhere effect from a unified Bayesian and frequentist perspective
https://doi.org/10.1[...]
[9]
논문
Are per-family Type I error rates relevant in social and behavioral science?
2015
[10]
논문
Arguments for rejecting the sequential Bonferroni in ecological studies
[11]
논문
A farewell to Bonferroni: the problems of low statistical power and publication bias
https://academic.oup[...]
[12]
논문
Arguments for rejecting the sequential Bonferroni in ecological studies
[13]
서적
Teoria statistica delle classi e calcolo delle probabilità (Pubblicazioni del R Istituto Superiore di Scienze Economiche e Commerciali di Firenze)
Libreria internazionale Seeber
[14]
논문
Multiple Comparisons Among Means
http://sci2s.ugr.es/[...]
[15]
서적
Econometric Foundations
https://books.google[...]
Cambridge University Press
[16]
서적
Simultaneous Statistical Inference
https://books.google[...]
Springer
[17]
논문
Multiple Hypothesis Testing in Genomics
2014
[18]
논문
Detecting patterns in protein sequences
[19]
논문
Multiple Comparisons Among Means
http://sci2s.ugr.es/[...]
[20]
논문
Multiple Comparisons Using Rank Sums
[21]
논문
The look-elsewhere effect from a unified Bayesian and frequentist perspective
https://doi.org/10.1[...]
[22]
논문
Are per-family Type I error rates relevant in social and behavioral science?
2015
[23]
논문
Arguments for rejecting the sequential Bonferroni in ecological studies
[24]
논문
A farewell to Bonferroni: the problems of low statistical power and publication bias
https://academic.oup[...]
[25]
논문
Arguments for rejecting the sequential Bonferroni in ecological studies
[26]
간행물
Teoria statistica delle classi e calcolo delle probabilità
Pubblicazioni del R Istituto Superiore di Scienze Economiche e Commerciali di Firenze
1936
본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.
문의하기 : help@durumis.com