큰 수의 법칙
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
1. 개요
큰 수의 법칙은 확률 변수의 표본 평균이 시행 횟수가 증가함에 따라 기댓값에 수렴한다는 것을 설명하는 확률론의 기본 원리이다. 이 법칙은 지롤라모 카르다노가 처음 언급했으며, 야코프 베르누이가 이항 확률 변수에 대한 특수한 형태를 증명했다. 이후 시메옹 드니 푸아송에 의해 '큰 수의 법칙'으로 명명되었고, 파프누티 체비쇼프, 안드레이 마르코프 등의 수학자들이 연구를 발전시켰다. 큰 수의 법칙은 약한 법칙과 강한 법칙의 두 가지 형태로 나타나며, 약한 법칙은 표본 평균이 기댓값에 확률 수렴함을, 강한 법칙은 표본 평균이 거의 확실하게 기댓값에 수렴함을 의미한다. 이 법칙은 통계학, 금융공학 등 다양한 분야에서 몬테 카를로 방법, 확률 분포 추정 등에 활용된다. 하지만 꼬리가 두꺼운 분포나 선택 편향이 있는 경우에는 수렴하지 않을 수 있으며, 기댓값이 존재하지 않거나 사건의 독립성이 보장되지 않는 경우에도 적용되지 않을 수 있다. 균등 큰 수의 법칙과 보렐의 큰 수의 법칙과 같은 변형된 형태도 존재한다.
더 읽어볼만한 페이지
- 통계학 정리 - 베이즈 정리
베이즈 정리는 조건부 확률을 계산하는 방법으로, 사건 A가 일어났을 때 사건 B가 일어날 확률과 사건 B가 일어났을 때 사건 A가 일어날 확률 사이의 관계를 나타내며 사전 확률과 가능도를 이용하여 사후 확률을 계산하고 다양한 분야에서 활용된다. - 통계학 정리 - 중심 극한 정리
중심 극한 정리는 독립적인 확률 변수들의 합이 특정 조건에서 정규 분포에 가까워지는 현상을 설명하는 확률론 및 통계학의 중요 정리로, 통계적 추론, 가설 검정 등 다양한 분야에 활용되며 여러 변형이 존재한다. - 확률론 정리 - 베이즈 정리
베이즈 정리는 조건부 확률을 계산하는 방법으로, 사건 A가 일어났을 때 사건 B가 일어날 확률과 사건 B가 일어났을 때 사건 A가 일어날 확률 사이의 관계를 나타내며 사전 확률과 가능도를 이용하여 사후 확률을 계산하고 다양한 분야에서 활용된다. - 확률론 정리 - 중심 극한 정리
중심 극한 정리는 독립적인 확률 변수들의 합이 특정 조건에서 정규 분포에 가까워지는 현상을 설명하는 확률론 및 통계학의 중요 정리로, 통계적 추론, 가설 검정 등 다양한 분야에 활용되며 여러 변형이 존재한다. - 수학 정리 - 마스터 정리
마스터 정리는 분할 정복 알고리즘의 시간 복잡도 분석 도구로서, 점화식을 세 가지 경우로 나누어 재귀 알고리즘의 효율성을 파악하고, 다양한 정렬 및 일반 알고리즘 분석에 활용되지만, 특정 조건에서는 적용이 제한될 수 있습니다. - 수학 정리 - 베이즈 정리
베이즈 정리는 조건부 확률을 계산하는 방법으로, 사건 A가 일어났을 때 사건 B가 일어날 확률과 사건 B가 일어났을 때 사건 A가 일어날 확률 사이의 관계를 나타내며 사전 확률과 가능도를 이용하여 사후 확률을 계산하고 다양한 분야에서 활용된다.
큰 수의 법칙 | |
---|---|
개요 | |
정의 | 확률론에서, 큰 수의 법칙(大數의法則, law of large numbers, LLN)은 동일한 시행을 많이 반복하면 할수록, 표본 평균이 모평균에 가까워짐을 의미한다. |
설명 | 이는 확률론의 기본적인 정리 중 하나이며, 통계학의 이론적 토대가 된다. |
종류 | 약대수의 법칙 (WLLN) 강대수의 법칙 (SLLN) |
약대수의 법칙 (WLLN) | |
정의 | 표본 평균이 모평균에 확률적으로 수렴한다. 즉, 시행 횟수가 무한대로 증가함에 따라 표본 평균과 모평균의 차이가 임의의 작은 양수보다 작을 확률이 1에 가까워진다. |
수식 | 임의의 양수 ε에 대해, n이 무한대로 갈 때 P(|X̄n - μ| < ε) → 1 |
강대수의 법칙 (SLLN) | |
정의 | 표본 평균이 모평균에 거의 확실하게 수렴한다. 즉, 시행 횟수가 무한대로 증가함에 따라 표본 평균이 모평균으로 수렴할 확률이 1이다. |
수식 | P(lim (n→∞) X̄n = μ) = 1 |
활용 | |
통계적 추론 | 표본을 통해 모집단의 특성을 추론하는 데 사용된다. |
몬테카를로 방법 | 난수를 이용하여 복잡한 문제를 해결하는 데 사용된다. |
기계 학습 | 알고리즘의 성능을 평가하고 개선하는 데 사용된다. |
주의사항 | |
무작위성 | 큰 수의 법칙은 시행이 무작위적이라는 가정하에 성립한다. |
독립성 | 각 시행은 서로 독립적이어야 한다. |
표본 크기 | 큰 수의 법칙은 표본 크기가 충분히 클 때 적용된다. |
관련 개념 | |
중심 극한 정리 | 표본 평균의 분포가 정규 분포에 가까워진다는 정리. |
체비쇼프 부등식 | 확률 변수의 값이 평균에서 얼마나 떨어져 있는지에 대한 확률을 제한하는 부등식. |
2. 역사
이탈리아 수학자 지롤라모 카르다노 (1501–1576)는 증명 없이 경험적 통계의 정확도가 시행 횟수가 증가함에 따라 개선되는 경향이 있다고 언급했다.[9][3] 이는 이후 큰 수의 법칙으로 공식화되었다. 큰 수의 법칙(LLN)의 특수한 형태(이진 확률 변수의 경우)는 야코프 베르누이에 의해 처음 증명되었다.[10][3] 그는 엄밀한 수학적 증명을 개발하는 데 20년 이상을 보냈으며, 이는 1713년 그의 저서 Ars Conjectandi|추측의 기술la에 실렸다. 그는 이것을 "황금 정리"라고 명명했지만 일반적으로 "베르누이 정리"로 알려지게 되었다. 이것은 야코프 베르누이의 조카 다니엘 베르누이의 이름을 딴 베르누이의 원리와 혼동해서는 안 된다. 1837년 시메옹 드니 푸아송은 이 법칙을 la loi des grands nombres|큰 수의 법칙프랑스어이라는 이름으로 더 자세히 설명했다.[11][12][3] 이후 두 가지 이름으로 알려졌지만 "큰 수의 법칙"이 가장 자주 사용된다.
베르누이와 푸아송 이후, 파프누티 체비쇼프,[13] 안드레이 마르코프, 에밀 보렐, 프란체스코 파올로 칸텔리, 안드레이 콜모고로프, 알렉산드르 힌친 등 여러 수학자들이 법칙을 개선하고 발전시키는 데 기여했다.[3] 마르코프는 유한한 분산을 갖지 않는 확률 변수에도 특정 조건 하에서는 법칙이 적용될 수 있음을 보였고, 힌친은 1929년 독립적이고 동일하게 분포된 확률 변수들의 경우 기댓값만 존재한다면 약한 큰 수의 법칙이 성립함을 증명했다.[14] 이러한 연구들을 통해 큰 수의 법칙은 두 가지 주요 형태, 즉 '약한 법칙'과 '강한 법칙'으로 나뉘게 되었다. 이는 표본 평균의 수렴 방식의 차이에 따른 구분이며, 일반적으로 강한 법칙은 약한 법칙을 포함한다.
3. 형태
큰 수의 법칙에는 두 가지 주요 형태가 있으며, 각각 '''강한 큰 수의 법칙'''(strong law of large numbers)과 '''약한 큰 수의 법칙'''(weak law of large numbers)이라고 불린다.[15][1]
두 법칙 모두 기본적인 가정 하에서 성립한다. ''X''1, ''X''2, ... 가 기댓값 E(''X''1) = E(''X''2) = ... = ''μ''를 갖는 독립 동일 분포(i.i.d.) 르베그 적분 가능 확률 변수의 무한 수열이라고 가정하자. 여기서 확률 변수가 르베그 적분 가능하다는 것은 기댓값 E(''X''j'')가 존재하고 유한함을 의미한다. 이때 표본 평균은 다음과 같이 정의된다.
두 법칙 모두 표본 평균 이 ''n''이 무한대로 갈 때 기댓값 ''μ''로 수렴한다는 것을 명시한다.
입문 확률론 교재에서는 종종 모든 확률 변수 ''X''i가 동일한 유한 분산 을 가지고, 확률 변수 간에 상관관계가 없다고 추가적으로 가정하기도 한다. 이 경우, 표본 평균의 분산은 이 되어 증명을 단순화할 수 있다. 그러나 이러한 유한 분산 가정은 큰 수의 법칙이 성립하기 위해 필수적인 것은 아니다. 분산이 크거나 무한하더라도 수렴 속도가 느려질 뿐, 큰 수의 법칙 자체는 여전히 성립한다.[16]
또한, 확률 변수들의 상호 독립이라는 가정은 두 버전의 법칙에서 더 약한 조건인 쌍별 독립[17]이나 교환 가능성[18]으로 대체될 수도 있다.
강한 법칙과 약한 법칙의 주요 차이점은 표본 평균이 기댓값으로 수렴하는 방식, 즉 주장되는 수렴의 수학적 형태에 있다. 강한 법칙은 약한 법칙보다 더 강력한 형태의 수렴을 주장하며, 강한 법칙이 성립하면 약한 법칙도 성립한다. 각 법칙의 정확한 정의와 조건은 해당 하위 섹션에서 자세히 다룬다.
3. 1. 약한 법칙 (Weak Law)
'''큰 수의 약한 법칙'''(또는 '''대수의 약법칙''', 힌친의 법칙)은 확률 변수의 무한열 ''X''1, ''X''2, ''X''3, ...이 모두 같은 기댓값 E(''X''i) = μ를 가지고 독립적이고 동일하게 분포된(i.i.d.) 경우, 표본 평균 이 기댓값 μ에 확률 수렴한다는 법칙이다.[19]
수학적으로 표현하면 다음과 같다.
이는 임의의 양수 ε > 0에 대해 다음이 성립함을 의미한다.
즉, 충분히 큰 표본 크기 ''n''에 대해 표본 평균 이 기댓값 μ에 매우 가까울 확률이 1에 수렴한다는 뜻이다.
초기에는 확률 변수들이 동일한 유한 분산 Var(''X''i) = σ2을 가지고 서로 상관 관계가 없다는 조건 하에 증명되기도 했으나, 힌친은 1929년에 확률 변수들이 i.i.d.이고 기댓값 μ가 존재하기만 하면 약한 법칙이 성립함을 보였다.[14] 유한 분산 가정은 필수는 아니며, 분산이 크거나 무한하면 수렴 속도가 느려질 뿐 법칙 자체는 성립한다.[16]
약한 법칙은 i.i.d.가 아닌 경우에도 적용될 수 있다. 예를 들어, 각 확률 변수의 기댓값이 μ로 같지만 분산 Var(''X''i) = σi2이 다를 수 있다. 만약 분산이 제한되어 있다면, 1867년 체비쇼프가 보였듯이 약한 법칙이 성립한다. 실제로 체비쇼프의 증명은 처음 ''n''개 값의 평균의 분산, 즉 Var() = 이 ''n''이 무한대로 갈 때 0으로 수렴하기만 하면 약한 법칙이 유효함을 보인다.[14]
예를 들어, 각 확률 변수 ''X''i가 평균이 0이고 분산이 인 정규 분포를 따른다고 가정하자. 이 분산은 제한되지 않는다. 표본 평균 의 분산은 이며, 이는 ''n''이 커짐에 따라 에 점근적으로 비례하여 0으로 수렴한다. 따라서 이 경우에도 약한 법칙이 성립한다.
약한 법칙이 성립할 조건을 더 약화시킬 수도 있다. 로 정의할 때 (여기서 μi는 ''X''i의 기댓값), 확률 변수열 ''X''i가 약한 법칙을 따르기 위한 필요충분조건은 다음과 같다.[39]
3. 2. 강한 법칙 (Strong Law)
큰 수의 강한 법칙(또는 대수의 강법칙)은 확률 변수의 무한열 *X*1, *X*2, *X*3, ... 이 주어지고, 각 확률 변수가 E(|*X*i|) < ∞ 이고 (기댓값 μ), 서로 독립이며 동일한 분포일 때, 다음 식이 성립함을 말한다.
:
여기서 은 표본 평균이다. 즉, 표본 평균은 거의 확실하게 기댓값 μ로 수렴한다.[20] 이는 시행 횟수 *n*이 무한대로 갈 때 관측값들의 평균이 기댓값에 수렴할 확률이 1과 같다는 것을 의미한다. 수학적으로는 다음과 같이 표현할 수 있다.
또는
강한 법칙은 표본 평균이 '거의 확실하게' 수렴함을 주장하기 때문에, '확률적으로' 수렴함을 주장하는 약한 큰 수의 법칙보다 더 강력한 내용을 담고 있다. 실제로 거의 확실 수렴은 확률 수렴을 함의하므로, 강한 법칙이 성립하면 약한 법칙도 자동으로 성립한다. 그러나 강한 법칙의 증명은 약한 법칙보다 더 복잡하며, 일반적으로 측도론과 적절한 부분 수열을 선택하는 기법이 필요하다.[16]
강한 법칙은 기댓값이 존재하는 독립적이고 동일하게 분포된(i.i.d.) 확률 변수들에 대해 성립하며, 이는 1930년 콜모고로프에 의해 증명되었다. 콜모고로프는 또한 1933년에, 변수들이 독립적이고 동일하게 분포되어 있다면, 표본 평균이 어떤 값으로 거의 확실하게 수렴하기 위한 필요충분조건은 그 변수들의 기댓값이 존재하는 것이며, 이 경우 표본 평균은 바로 그 기댓값으로 수렴한다는 것을 증명했다.[21]
강한 법칙은 합산되는 확률 변수들이 독립적이지만 동일하게 분포되지 않은 경우에도 특정 조건 하에서 성립할 수 있다. 각 *X**k*가 유한한 2차 모멘트(즉, 유한한 분산)를 가지고 다음 조건을 만족하면,
표본 평균의 기댓값으로부터의 편차는 거의 확실하게 0으로 수렴한다.
이를 콜모고로프의 강한 법칙이라고도 부른다.
큰 수의 강한 법칙은 에르고딕 이론의 점별 에르고딕 정리의 특수한 경우로 해석될 수도 있다. 이러한 관점은 확률 변수의 기댓값을 반복적인 시행에서의 "장기 평균"으로 직관적으로 이해하는 것을 수학적으로 정당화해준다.
4. 약한 법칙과 강한 법칙의 차이점
'''큰 수의 약한 법칙'''(Weak Law of Large Numbers, WLLN)과 '''큰 수의 강한 법칙'''(Strong Law of Large Numbers, SLLN)은 모두 독립적이고 동일한 분포(i.i.d.)를 따르는 확률 변수열 ''X''1, ''X''2, ... 의 표본 평균 이 기댓값 ''μ''로 수렴한다는 공통점을 가지지만, 수렴의 방식에서 중요한 차이를 보인다.[15][1]
- '''큰 수의 약한 법칙'''은 표본 평균 이 기댓값 ''μ''로 '''확률 수렴'''함을 명시한다. 이는 어떤 작은 양수 ε > 0 에 대해서도, 표본 평균과 기댓값의 차이가 ε보다 클 확률이 표본 크기 ''n''이 무한대로 감에 따라 0으로 수렴한다는 의미이다.[36]
:
다시 말해, ''n''이 충분히 크면 표본 평균 이 ''μ''에 가까울 가능성이 높아지지만, 인 경우가 드물게라도 무한히 많이 발생할 가능성을 완전히 배제하지는 않는다.[22] 힌친은 1929년에 독립적이고 동일하게 분포된 확률 변수들의 경우 기댓값만 존재하면 약한 법칙이 성립함을 증명했으며,[14] 유한 분산 가정은 반드시 필요하지 않다.[16]
- '''큰 수의 강한 법칙'''은 표본 평균 이 기댓값 ''μ''로 '''거의 확실하게 수렴'''함을 명시한다. 이는 표본 평균이 기댓값으로 수렴할 확률이 1이라는 의미이다.[37]
:
이는 부등식이 충분히 큰 모든 ''n''에 대해 성립할 확률이 1이며, 인 경우가 발생하는 것은 거의 확실하게 유한 번에 그친다는 것을 뜻한다.[23] 강한 법칙은 일반적으로 확률 변수 ''Xi''가 르베그 적분 가능하여 기댓값 E(|''X''i|) < ∞ 이 존재하고 유한할 것을 요구한다.
강한 법칙은 약한 법칙보다 더 강력한 형태의 수렴을 보장하므로, 강한 법칙이 성립하면 약한 법칙은 항상 성립한다.[3] 그러나 그 역은 일반적으로 성립하지 않아, 약한 법칙이 성립함에도 불구하고 강한 법칙은 성립하지 않는 경우가 존재할 수 있다.[24][25] 예를 들어, 특정 조건을 만족하는 확률 변수(기댓값이 조건부로만 존재하거나 분산이 특정 속도로 발산하는 경우 등)에 대해서는 표본 평균이 확률적으로는 기댓값에 수렴하지만(약한 법칙), 거의 확실하게 수렴하지는 않을 수 있다(강한 법칙 불성립).[24][25][26][27][21]
5. 증명
'''큰 수의 약한 법칙'''에 대한 증명 방법은 여러 가지가 있다.
=== 체비쇼프 부등식을 이용한 증명 ===
이 증명은 확률 변수들이 유한한 분산 (모든 에 대해)를 가진다고 가정한다. 확률 변수들이 서로 독립이면 변수들 간의 상관 관계가 없음을 의미하며, 표본 평균 의 분산은 다음과 같이 계산된다.
모든 확률 변수가 동일한 기댓값 μ를 가지므로, 표본 평균의 기댓값 역시 μ이다.
체비쇼프 부등식을 표본 평균 에 적용하면 다음과 같은 식을 얻는다.
이 식을 이용하면, 표본 평균 이 기댓값 μ로부터 ε보다 작은 범위 안에 있을 확률은 다음과 같이 나타낼 수 있다.
표본의 크기 ''n''이 무한대로 커짐에 따라 이 확률은 1에 가까워진다. 확률 수렴의 정의에 따라, 표본 평균 은 기댓값 μ로 확률 수렴한다.
=== 특성 함수를 이용한 증명 ===
테일러 정리에 따르면, 유한한 기댓값 μ를 갖는 임의의 확률 변수 ''X''의 특성 함수는 ''t''가 0으로 갈 때 다음과 같이 근사할 수 있다.
모든 확률 변수 ''X''1, ''X''2, ...는 동일한 특성 함수를 가지므로, 이를 간단히 ''φ''''X''로 표기한다. 특성 함수의 기본 성질에 따라, 독립적인 확률 변수들의 합과 상수를 곱한 확률 변수의 특성 함수는 다음과 같이 계산된다.
여기서 ''X''와 ''Y''는 독립이다.
이 성질들을 이용하여 표본 평균 의 특성 함수를 계산하면 다음과 같다.
여기서 극한값 ''e''''itμ''는 값이 상수 μ인 확률 변수의 특성 함수이다. 레비 연속성 정리에 의해, 표본 평균 은 μ로 분포 수렴한다.
μ는 상수이므로, μ로의 분포 수렴은 μ로의 확률 수렴과 동일하다(확률 변수의 수렴 참조). 따라서 약한 법칙이 증명된다.
이 증명은 표본 평균이 원점에서 특성 함수의 미분값(즉, 기댓값)으로 확률 수렴함을 보여준다. 단, 특성 함수가 원점에서 미분 가능해야 한다.
'''큰 수의 강한 법칙'''의 증명은 약한 법칙보다 더 복잡하다. 다음은 추가적인 가정을 통해 증명을 단순화한 예시이다.
=== 유한 4차 적률을 가정한 증명 ===
독립 동일 분포(iid)를 따르는 확률 변수열 가 , , 그리고 4차 적률 를 갖는다고 가정한다.
일반성을 잃지 않고, 확률 변수를 중심화하여 평균 이라고 가정할 수 있다. 이 경우 강한 법칙은 표본 평균 (여기서 )이 0으로 거의 확실하게 수렴함을 의미한다.
이는 모든 에 대해 다음을 보이는 것과 같다.
사건 를 정의하고, 보렐-칸텔리 보조정리에 따라 임을 보이면 증명이 완료된다.
을 추정하기 위해 를 계산한다. 들이 독립이고 평균이 0이므로, 이고 이다. 따라서 를 전개했을 때, 0이 아닌 기댓값을 갖는 항은 형태와 형태뿐이다. 는 동일하게 분포되어 있으므로, 이고 (단, )이다.
에는 형태의 항이 개, 형태의 항이 개 존재한다. 따라서,
이 식은 에 대한 2차 다항식이므로, 충분히 큰 에 대해 을 만족하는 상수 가 존재한다. 마르코프 부등식을 적용하면,
따라서,
급수 는 수렴하므로(으로), 도 수렴한다. 보렐-칸텔리 보조정리에 의해, 사건 이 무한히 자주 발생할 확률은 0이다. 이는 모든 에 대해 성립하므로, 강한 대수의 법칙이 증명되었다.
유한 4차 적률 가정이 없는 더 일반적인 증명 방법들도 존재한다.[31][32]
6. 응용
큰 수의 법칙은 실제 세계의 다양한 문제를 해결하는 데 유용하게 사용되며, 특히 확률적인 현상을 분석하고 예측하는 데 중요한 도구가 된다.
=== 몬테 카를로 방법 ===
몬테 카를로 방법은 큰 수의 법칙을 활용하는 대표적인 예시다.[4] 이 방법은 복잡한 계산 문제를 해결하기 위해 무작위 표본 추출을 반복적으로 사용하는 계산 알고리즘이다. 어떤 사건의 확률이나 함수의 기댓값 등을 직접 계산하기 어려울 때, 무작위로 수많은 표본을 생성하고 그 표본들의 평균을 통해 원하는 값을 근사적으로 구하는 방식이다. 큰 수의 법칙에 따라, 표본의 크기(반복 횟수)가 커질수록 표본 평균은 실제 값에 가까워지므로 근사치의 정확도가 높아진다.[4][3]
예를 들어, 특정 구간 [a, b]에서 함수 f(x)의 적분 값을 구하는 경우, 이 구간에서 무작위로 X 값들(X1, X2, ..., Xn)을 뽑고 각 X 값에 해당하는 f(X) 값들을 계산한다. 이 f(X) 값들의 평균에 구간의 길이 (b-a)를 곱하면 적분 값의 근사치를 얻을 수 있다. 표본의 수 n이 커질수록 이 근사값은 실제 적분 값 에 수렴하게 된다.[3]
실제로 [-1, 2] 구간에서 와 같이 일반적인 방법으로 계산하기 어려운 적분을 몬테 카를로 방법을 이용해 근사할 수 있다. 표본의 개수(n)를 늘릴수록 (예: n=25일 때 0.905, n=250일 때 1.028) 근사값이 실제 적분 값(약 1.000194)에 더 가까워지는 것을 확인할 수 있다.[3] 이는 표본 수가 증가함에 따라 큰 수의 법칙이 작용하여 근사의 정확도가 향상되기 때문이다.[3][33]
=== 확률 분포의 특징 추정 ===
큰 수의 법칙은 알 수 없는 확률 분포의 특징, 예를 들어 기댓값 등을 추정하는 데 사용될 수 있다.[1] 어떤 확률 변수의 값을 여러 번 독립적으로 관찰하여 얻은 표본 평균은 그 확률 변수의 기댓값으로 수렴한다.
보렐의 큰 수의 법칙을 응용하면, 반복적인 시행을 통해 특정 사건의 확률 질량 함수나 확률 밀도 함수를 근사적으로 알아낼 수 있다. 예를 들어, 어떤 사건이 일어날 확률을 알고 싶을 때, 동일한 조건에서 시행을 여러 번 반복하고 그 사건이 발생한 빈도(상대 도수)를 계산한다. 시행 횟수가 충분히 크다면, 이 상대 도수는 실제 사건 발생 확률에 가까워진다.[1]
연속적인 확률 변수의 경우에도 비슷한 방법을 사용할 수 있다. 예를 들어, 특정 구간 에 확률 변수의 값이 속할 확률을 추정하고 싶다고 하자. (여기서 h는 작은 양수) 많은 수의 표본(n개)을 관찰하여 이 구간에 속하는 표본의 개수 를 센다. 그러면 비율 은 구간에 속할 확률 에 가까워진다. 이 확률은 대략 와 비슷하므로, 확률 밀도 함수 f(x)의 값을 추정하는 데 활용될 수 있다. 이러한 방식으로 전체 구간을 작은 구간들로 나누어 각 구간에 속하는 표본의 빈도를 막대그래프로 나타내면 히스토그램을 얻을 수 있으며, 이는 확률 분포의 모양을 시각적으로 파악하는 데 도움을 준다.[1]
이처럼 큰 수의 법칙은 반복적인 관찰이나 실험을 통해 확률적인 현상의 숨겨진 규칙성이나 분포의 특징을 파악하는 강력한 이론적 기반을 제공한다.
7. 한계
큰 수의 법칙은 항상 성립하는 것은 아니다. 어떤 경우에는 많은 시행에서 얻은 평균이 특정 값으로 수렴하지 않을 수 있다. 대표적인 예는 기댓값이 존재하지 않거나 무한대인 경우이다.
예를 들어, 코시 분포나 꼬리가 두꺼운 분포의 특성을 가진 일부 파레토 분포(α<1)에서 추출한 표본의 평균은 시행 횟수 ''n''이 아무리 커져도 특정 값으로 수렴하지 않는다.[5] 이는 코시 분포의 경우 기댓값이 정의되지 않고,[6] 파레토 분포(''α''<1)는 기댓값이 무한대이기 때문이다.[7]
코시 분포의 한 예시는 -90°와 +90° 사이에서 균일하게 분포된 각도의 탄젠트 값이다.[8] 이 경우 중앙값은 0이지만 기댓값은 존재하지 않는다. 실제로 코시 분포를 따르는 ''n''개 변수의 평균은 하나의 변수와 동일한 분포를 가지며, ''n''이 무한대로 가도 평균은 0이나 다른 어떤 값으로 수렴하지 않는다.
또한, 시행 과정 자체에 선택 편향이 포함되어 있다면 큰 수의 법칙은 그 편향을 해결해주지 못한다. 시행 횟수를 늘리더라도 선택 편향은 결과에 계속 영향을 미친다.
결론적으로 큰 수의 법칙이 성립하려면 확률 변수의 (유한한) 기댓값이 존재해야 하며, 각 시행은 독립적이어야 한다. 예를 들어 안정 분포 중 특성 지수 ''α'' ≤ 1인 경우(코시 분포 포함)처럼 기댓값이 존재하지 않으면 큰 수의 법칙이 적용되지 않을 수 있다. 사건의 독립성 역시 중요한 전제 조건이다.
8. 균등 큰 수의 법칙 (Uniform Law of Large Numbers)
균등 큰 수의 법칙은 추정량 모임에 대한 큰 수의 법칙의 확장으로, 수렴이 모임 전체에 대해 균등하게 이루어지는 경우를 다룬다.[28][29]
어떤 함수 ''f''(''x'',''θ'')가 파라미터 ''θ'' ∈ Θ에 대해 정의되고 ''θ''에서 연속이라고 가정해 보자. 그러면 임의의 고정된 ''θ''에 대해, 수열 {''f''(''X''1,''θ''), ''f''(''X''2,''θ''), ...}는 독립적이고 동일하게 분포된 확률 변수의 수열이 된다. 따라서 이 수열의 표본 평균은 확률적으로 E[''f''(''X'',''θ'')]로 수렴한다. 이를 ''θ''에서의 점별 수렴(pointwise convergence)이라고 한다.
'''균등 큰 수의 법칙'''은 특정 조건 하에서 이러한 수렴이 ''θ'' 전체에 대해 균등하게(uniformly) 발생함을 보인다. 그 조건은 다음과 같다.[28][29]
- # 파라미터 공간 ''Θ''는 콤팩트이다.
- # 함수 ''f''(''x'',''θ'')는 거의 모든 ''x''에 대해 각 ''θ'' ∈ Θ에서 연속이며, 각 ''θ''에서 ''x''의 가측 함수이다.
- # 기댓값이 유한한(E[''d''(''X'')] < ∞) 지배적인 함수 ''d''(''x'')가 존재하여, 모든 ''θ'' ∈ Θ에 대해 다음을 만족한다:
이 조건들이 만족되면, E[''f''(''X'',''θ'')]는 ''θ''에서 연속이고, 표본 평균은 기댓값으로 균등하게 확률 수렴한다:
이 결과는 극치 추정량(extremum estimator)과 같이 광범위한 추정량의 일관성을 증명하는 데 유용하게 활용된다.
9. 보렐의 큰 수의 법칙 (Borel's Law of Large Numbers)
'''보렐의 큰 수의 법칙'''은 프랑스 수학자 에밀 보렐의 이름을 따서 명명된 정리이다.[3] 이 법칙은 동일한 조건 하에서 독립적인 실험을 여러 번 반복할 때, 특정 사건이 발생하는 상대 빈도(비율)는 시행 횟수가 증가함에 따라 그 사건의 확률에 거의 확실하게 수렴한다는 것을 말한다. 시행 횟수가 많아질수록 그 근사치는 더욱 정확해지는 경향이 있다.
더 정확하게 표현하면, 어떤 사건 ''E''가 발생할 확률을 ''p''라고 하고, 처음 ''n''번의 시행에서 사건 ''E''가 발생한 횟수를 ''Nn''(''E'')라고 할 때, 확률 1로 다음 식이 성립한다.[30]
이 정리는 확률에 대한 직관적인 개념, 즉 어떤 사건이 장기적으로 얼마나 자주 발생하는가를 수학적으로 엄밀하게 정의한다. 이는 확률을 사건 발생의 장기적인 상대 빈도로 해석하는 빈도주의적 관점의 중요한 수학적 근거를 제공한다.[35] 예를 들어, 공정한 동전을 반복해서 던지는 시행을 생각해보자. 앞면이 나올 확률과 뒷면이 나올 확률은 모두 이다. 보렐의 큰 수의 법칙에 따르면, 동전을 던지는 횟수를 무한히 늘리면, 앞면이 나온 횟수의 비율은 에 거의 확실하게 가까워진다. 실제 유한한 횟수의 시행에서는 그 비율이 정확히 가 아닐 수 있지만, 시행 횟수가 많아질수록 이라는 값에 수렴하게 된다.
보렐의 큰 수의 법칙은 확률론에서 다루는 여러 큰 수의 법칙 중 하나이며, 특히 강한 큰 수의 법칙의 특수한 경우에 해당한다. 이는 에르고드 이론의 기본적인 형태 중 하나로 해석될 수도 있는데, 시간 평균(시행 횟수를 늘려갈 때의 평균)이 상평균(확률 분포에 따른 기댓값)과 일치함을 보여준다.
참조
[1]
서적
A Modern Introduction to Probability and Statistics
https://archive.org/[...]
Springer
[2]
간행물
Law of Large Numbers for Uncertain Random Variables
2016
[3]
웹사이트
The Law of Large Numbers and its Applications
https://www.lakehead[...]
[4]
간행물
Why the Monte Carlo method is so important today
2014
[5]
서적
A modern introduction to probability and statistics: understanding why and how
Springer
2005
[6]
서적
A Modern Introduction to Probability and Statistics
https://archive.org/[...]
Springer
[7]
서적
A Modern Introduction to Probability and Statistics
https://archive.org/[...]
Springer
[8]
간행물
Cauchy-Distributed Functions of Cauchy Variates
1967
[9]
서적
The Drunkard's Walk
Random House
[10]
서적
Ars Conjectandi: Usum & Applicationem Praecedentis Doctrinae in Civilibus, Moralibus & Oeconomicis
[11]
서적
Probabilité des jugements en matière criminelle et en matière civile, précédées des règles générales du calcul des probabilitiés
Bachelier
[12]
간행물
19th-century Cracks in the Concept of Determinism
[13]
간행물
Démonstration élémentaire d'une proposition générale de la théorie des probabilités
https://zenodo.org/r[...]
[14]
웹사이트
Law of large numbers
https://www.encyclop[...]
EMS Press
[15]
서적
A Course in Mathematical Statistics and Large Sample Theory
Springer New York
2016
[16]
웹사이트
The strong law of large numbers – What's new
http://terrytao.word[...]
Terrytao.wordpress.com
2012-06-09
[17]
간행물
An elementary proof of the strong law of large numbers
1981
[18]
간행물
Uses of Exchangeability
1978-04
[19]
문서
[20]
문서
[21]
웹사이트
Strong law of large numbers
https://www.encyclop[...]
[22]
웹사이트
What Is the Law of Large Numbers? (Definition) {{!}} Built In
https://builtin.com/[...]
2023-10-20
[23]
문서
[24]
서적
Weak law converges to constant
https://books.google[...]
Springer
2006-03-30
[25]
간행물
A Note on the Weak Law of Large Numbers for Exchangeable Random Variables
http://www.mathnet.o[...]
2014-06-28
[26]
웹사이트
Law of large numbers
http://www.isds.duke[...]
2014-06-28
[27]
웹사이트
Law of large numbers
http://www.stat.umn.[...]
[28]
문서
[29]
간행물
Asymptotic Properties of Non-Linear Least Squares Estimators
[30]
간행물
An Analytic Technique to Prove Borel's Strong Law of Large Numbers
https://www.jstor.or[...]
1991
[31]
간행물
An elementary proof of the strong law of large numbers
Springer
1981
[32]
서적
Probability and Measure
1979
[33]
서적
The Monte Carlo Method, an Introduction
http://link.springer[...]
Springer Berlin Heidelberg
2023-12-08
[34]
문서
この名前は[[シメオン・ドニ・ポアソン]]に由来する。
[35]
문서
つまり、[[独立 (確率論)|独立]]に[[ベルヌーイ分布]]に従う確率変数列が与えられた場合を例として考える。
[36]
문서
X̄ₙ μ 확률 수렴
[37]
문서
X̄ₙ μ 개수렴
[38]
서적
확률론의 기초
경문사
2006
[39]
서적
같은 책
본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.
문의하기 : help@durumis.com