맨위로가기

독립 (확률론)

"오늘의AI위키"는 AI 기술로 일관성 있고 체계적인 최신 지식을 제공하는 혁신 플랫폼입니다.
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.

1. 개요

확률론에서 독립은 여러 사건 또는 확률 변수 간의 관계를 설명하는 중요한 개념이다. 사건의 독립은 두 사건의 결합 확률이 각 사건의 확률의 곱과 같을 때 성립하며, 한 사건의 발생이 다른 사건의 발생에 영향을 미치지 않음을 의미한다. 확률 변수의 독립은 결합 누적 분포 함수가 각 확률 변수의 누적 분포 함수의 곱으로 분해될 때 정의된다. 독립은 쌍별 독립, 상호 독립, 조건부 독립 등의 형태로 확장되며, 독립성은 카이 제곱 검정, 분할표 등 다양한 통계적 방법을 통해 검정할 수 있다. 독립의 개념은 주사위 던지기, 카드 뽑기 등의 예시를 통해 쉽게 이해할 수 있으며, 1933년 안드레이 콜모고로프의 확률 공리화 이후 표준 정의로 자리 잡았다.

더 읽어볼만한 페이지

  • 확률론 - 확률 밀도 함수
    확률 밀도 함수는 연속 확률 변수의 확률 분포를 나타내는 함수로, 특정 구간에서 확률 변수가 값을 가질 확률은 해당 구간에 대한 함수의 적분으로 계산되며, 통계적 특성 계산 및 변수 변환 등에 활용되어 불확실성 모델링 및 분석에 중요한 역할을 한다.
  • 확률론 - 체비쇼프 부등식
    체비쇼프 부등식은 확률 변수가 평균에서 얼마나 멀리 떨어져 있는지에 대한 확률의 상한을 제공하는 부등식으로, 이레네-쥘 비네메가 처음 공식화하고 체비쇼프와 안드레이 마르코프에 의해 일반화 및 증명되었으며, 확률론적 표현 외에도 측도 공간에 대한 명제로 확장될 수 있다.
독립 (확률론)
확률론의 독립
정의두 사건의 발생이 서로에게 영향을 주지 않는 관계
기호P(A∩B) = P(A)P(B)
설명사건 A와 B가 독립이면, A가 일어났을 때 B가 일어날 확률은 A가 일어나지 않았을 때 B가 일어날 확률과 같다.
수학적 정의
확률 공간(Ω, F, P)
독립두 사건 A와 B가 다음을 만족하면 독립이다: P(A ∩ B) = P(A)P(B)
조건부 확률사건 A가 일어났을 때 사건 B가 일어날 조건부 확률 P(B|A) = P(B) (단, P(A) > 0)
독립의 일반화n개의 사건 A₁, A₂, ..., Aₙ이 모두 독립일 필요충분조건은 모든 k (2 ≤ k ≤ n)와 모든 1 ≤ i₁ < i₂ < ... < iₖ ≤ n에 대해 다음이 성립하는 것이다: P(Aᵢ₁ ∩ Aᵢ₂ ∩ ... ∩ Aᵢₖ) = P(Aᵢ₁)P(Aᵢ₂) ... P(Aᵢₖ)
예시
동전 던지기동전을 두 번 던질 때, 첫 번째 던지기 결과와 두 번째 던지기 결과는 독립이다.
주사위 굴리기주사위를 두 번 굴릴 때, 첫 번째 굴리기 결과와 두 번째 굴리기 결과는 독립이다.
카드 뽑기카드 덱에서 카드를 한 장 뽑고 다시 넣은 후 다시 뽑을 때, 첫 번째 뽑기와 두 번째 뽑기는 독립이다. 하지만 카드를 다시 넣지 않으면 독립이 아니다.
주의사항
상호 배타성과 독립성상호 배타적인 두 사건은 특별한 경우를 제외하고는 독립이 아니다.
같이 보기
관련 개념조건부 독립
상관 관계

2. 정의

확률 공간 $(\Omega, \mathcal{F}, P)$에서 정의되는 사건, 확률 변수, 시그마 대수의 독립성은 각각 다음과 같이 정의된다.


  • 사건의 독립: 두 사건 $A$와 $B$가 독립이라는 것은 $P(A \cap B) = P(A)P(B)$가 성립하는 것을 의미한다. 여기서 $A \cap B$는 $A$와 $B$가 모두 일어나는 사건(곱사건)을 나타낸다. $P(B) \neq 0$이라면, 조건부 확률을 사용하여 $P(A|B) = P(A)$로 표현할 수 있는데, 이는 사건 $B$가 일어나는 것이 사건 $A$의 확률에 영향을 주지 않는다는 것을 의미한다. 사건 $A$와 $B$가 독립임을 나타내는 기호는 $A$ ⫫ $B$이다.[18] 사건이 독립이 아닌 경우 종속이라고 한다. 일반적으로, 사건의 족 $\{A_\lambda\}$가 독립이라는 것은, 그 부분 유한족 $\{ A_{\lambda_1}, A_{\lambda_2}, ..., A_{\lambda_n} \}$에 대해 $P(A_{\lambda_1} \cap A_{\lambda_2} \cap \dotsb \cap A_{\lambda_n}) = P(A_{\lambda_1})P(A_{\lambda_2}) \dotsm P(A_{\lambda_n})$가 성립하는 것을 의미한다.

  • 확률 변수의 독립: 두 확률 변수 $X$와 $Y$가 독립이라는 것은, 임의의 실수 $a, b$에 대해 $P(X누적 분포 함수가 주변 누적 분포 함수의 곱으로 분해될 때 독립이라고 한다. 확률 변수 $X$와 $Y$가 독립임을 나타내는 기호는 $X$ ⫫ $Y$이다.[19] 일반적으로, 확률 변수의 족 $\{ X_\lambda | \lambda \in \Lambda \}$가 독립이라는 것은, 임의의 실수 $a_\lambda$에 대해 사건의 족 $\bigl\{ \{\, X_\lambda < a_\lambda \} \mathrel{\big|} \lambda \in \Lambda \, \bigr\}$가 독립임을 의미한다.

  • 시그마 대수의 독립: 완전 가법족의 족 $\{F_\lambda\}$가 독립이라는 것은, 임의의 유한 부분족 $\{ \mathcal{F}_{\lambda_1}, \mathcal{F}_{\lambda_2}, \dotsc, \mathcal{F}_{\lambda_n} \}$에 대해, $P(A_1 \cap A_2 \cap \dotsb \cap A_n) = P(A_1)P(A_2) \dotsm P(A_n),\quad {}^\forall A_1 \in \mathcal{F}_{\lambda_1}, {}^\forall A_2 \in \mathcal{F}_{\lambda_2}, \dotsc, {}^\forall A_n \in \mathcal{F}_{\lambda_n}$이 성립하는 것을 의미한다.

2. 1. 사건의 독립

확률 공간 (\Omega,\mathcal F,\Pr) 위의 사건들의 집합 \mathcal S\subset\mathcal F가 다음 조건을 만족시킨다면, \mathcal S가 서로 '''독립'''이라고 한다.

  • 모든 유한 집합 \{S_1,\dots,S_n\}\subset\mathcal S에 대하여,
  • :\Pr(S_1\cap S_2\cap\cdots\cap S_n)=\Pr(S_1)\Pr(S_2)\cdots\Pr(S_n)


두 사건 AB는 독립적이며(종종 A \perp B 또는 A \perp\!\!\!\perp B로 표기하며, 후자의 기호는 종종 조건부 독립에도 사용됨), 이는 두 사건의 결합 확률이 각 확률의 곱과 같을 경우에만 해당된다.[2]

:\mathrm{P}(A \cap B) = \mathrm{P}(A)\mathrm{P}(B)

A \cap B \neq \emptyset는 두 독립 사건 AB표본 공간에서 공통 요소를 가지고 있어 상호 배타적이지 않음을 나타낸다(상호 배타적인 경우는 A \cap B = \emptyset).

이 정의가 독립성을 어떻게 정의하는지는 조건부 확률 P(A \mid B) = \frac{P(A \cap B)}{P(B)}를 사용하여, 사건 B가 발생했거나 발생했다고 가정했을 때 사건 A가 발생할 확률로 다시 작성하면 명확해진다.

:\mathrm{P}(A \cap B) = \mathrm{P}(A)\mathrm{P}(B) \iff \mathrm{P}(A\mid B) = \frac{\mathrm{P}(A \cap B)}{\mathrm{P}(B)} = \mathrm{P}(A).

유사하게 다음이 성립한다.

:\mathrm{P}(A \cap B) = \mathrm{P}(A)\mathrm{P}(B) \iff\mathrm{P}(B\mid A) = \frac{\mathrm{P}(A \cap B)}{\mathrm{P}(A)} = \mathrm{P}(B).

따라서, B의 발생은 A의 확률에 영향을 미치지 않으며, 그 반대도 마찬가지이다. 즉, AB는 서로 독립적이다. 파생된 표현이 더 직관적으로 보일 수 있지만, \mathrm{P}(A) 또는 \mathrm{P}(B)가 0이면 조건부 확률이 정의되지 않을 수 있으므로 선호되는 정의는 아니다. 또한, 선호되는 정의는 대칭성을 통해 AB와 독립적일 때 BA와 독립적이라는 것을 명확하게 보여준다.

오즈의 관점에서 말하면, 두 사건 A영어와 B영어의 오즈비가 1일 때 두 사건은 독립이다. 확률과 유사하게, 이는 조건부 오즈가 무조건부 오즈와 같다는 것과 같다.

:O(A \mid B) = O(A) \text{ and } O(B \mid A) = O(B),

또는 한 사건의 오즈가 다른 사건이 주어졌을 때 다른 사건이 발생하지 않았을 때의 오즈와 같다는 것과 같다.

:O(A \mid B) = O(A \mid \neg B) \text{ and } O(B \mid A) = O(B \mid \neg A).

오즈비는 다음과 같이 정의될 수 있다.

:O(A \mid B) : O(A \mid \neg B),

또는 A영어가 주어졌을 때 B영어의 오즈에 대해 대칭적으로 정의되며, 따라서 사건이 독립일 때 1이다.

유한 개의 사건 집합 \{ A_i \} _{i=1}^{n}는 모든 사건의 쌍이 독립일 때, 즉, 서로 다른 모든 쌍의 인덱스 m,k에 대해 다음과 같을 때 쌍별 독립이라고 한다.[3]

:\mathrm{P}(A_m \cap A_k) = \mathrm{P}(A_m)\mathrm{P}(A_k)

유한 개의 사건 집합은 모든 사건이 다른 사건들의 교집합과 독립일 때 '''상호 독립'''이라고 한다.[4] 즉, 모든 k \leq n과 모든 k개의 인덱스 1\le i_1 < \dots < i_k \le n에 대해 다음이 성립한다.

:\mathrm{P}\left(\bigcap_{j=1}^k A_{i_j} \right)=\prod_{j=1}^k \mathrm{P}(A_{i_j} )

이것을 독립 사건에 대한 ''곱셈 규칙''이라고 한다. 이것은 모든 단일 사건의 모든 확률의 곱만을 포함하는 단일 조건이 아니며, 사건의 모든 부분 집합에 대해 참이어야 한다.

사건이 세 개 이상일 때, 상호 독립인 사건 집합은 (정의에 따라) 쌍별 독립이지만, 그 역은 반드시 참인 것은 아니다.[2]

로그 확률로 표현하면, 두 사건은 결합 사건의 로그 확률이 개별 사건의 로그 확률의 합과 같을 때, 즉 다음과 같을 때 독립이다.

:\log \mathrm{P}(A \cap B) = \log \mathrm{P}(A) + \log \mathrm{P}(B)

정보 이론에서, 음의 로그 확률은 정보량으로 해석되며, 따라서 두 사건은 결합 사건의 정보량이 개별 사건의 정보량의 합과 같을 때 독립이다.

:\mathrm{I}(A \cap B) = \mathrm{I}(A) + \mathrm{I}(B)

자세한 내용은 생략한다.

사건의 독립을 정의하는 데 가장 기본적인 것은 사건의 독립이다. 두 사건 A한국어와 B한국어가 '''독립'''이라는 것은

:P(A \cap B) = P(A)P(B)

가 성립하는 것이다. 여기서, 좌변의 ''A'' ∩ ''B''한국어는 사건 A한국어와 B한국어가 모두 일어나는 사건(곱사건)을 나타내며, 예를 들어 ''P''(''A'')한국어는 사건 A한국어확률을 나타낸다. 사건 A한국어와 B한국어가 독립임을 기호 ''A'' ⫫ ''B''한국어로 나타내기도 한다.[18] 만약 ''P''(''B'') ≠ 0한국어이라면, 조건부 확률 ''P''(''A'' ''P''(''A'' ∩ ''B'')/''P''(''B'')}}를 사용하여 정의식을

:P(A \mid B) = P(A)

로 바꿔 쓸 수도 있다. 이는 사건 A한국어와 B한국어가 독립이라는 것은, 사건 B한국어가 일어나는 것이 사건 A한국어확률에 아무런 영향을 주지 않는다는 것을 의미한다. 위의 정의는 ''P''(''B'') 일 때에도 대응하므로, 일반적으로 위의 정의를 사용한다. 사건이 독립이 아닌 것을 '''종속'''이라고 한다.

일반적으로, (유한하지 않은) 사건의 족 }}가 '''독립'''이라는 것은, 그 부분 유한족 , ''A''}},..., ''A}}''}}}}에 대해

:P(A_{\lambda_1} \cap A_{\lambda_2} \cap \dotsb \cap A_{\lambda_n}) = P(A_{\lambda_1})P(A_{\lambda_2}) \dotsm P(A_{\lambda_n})

가 성립하는 것을 말한다.

2. 2. 확률 변수의 독립

두 확률 변수 ${\displaystyle X}$와 ${\displaystyle Y}$가 독립이라는 것은, 모든 실수 ${\displaystyle a,b}$에 대하여 다음 식이 성립하는 것을 의미한다.[19]

:P(X

즉, 두 확률 변수의 결합 누적 분포 함수가 각 확률 변수의 누적 분포 함수의 곱으로 분해됨을 의미한다.

확률 변수들의 집합 ${\displaystyle \{X_{i}\}_{i\in I}}$가 서로 독립이라는 것은, 각 확률 변수 ${\displaystyle X_{i}}$에 의해 생성되는 시그마 대수 ${\displaystyle {\mathcal {F}}_{i}=\{X_{i}^{-1}(T):T\in {\mathcal {G}}_{i}\}}$들의 집합 ${\displaystyle \_{i}\}_{i\in I}}$가 서로 독립인 시그마 대수 집합을 이루는 것을 의미한다.

유한 개의 확률 변수 집합 ${\displaystyle \{X_{1},\ldots ,X_{n}\}}$에서 모든 확률 변수 쌍이 독립이면 쌍별 독립이라고 한다. 하지만, 확률 변수 집합이 쌍별 독립이라고 해서 반드시 "상호 독립"인 것은 아니다.

유한 개의 ${\displaystyle n}$ 확률 변수 집합 ${\displaystyle \{X_{1},\ldots ,X_{n}\}}$은 모든 수열 ${\displaystyle \{x_{1},\ldots ,x_{n}\}}$에 대해 사건 ${\displaystyle \{X_{1}\leq x_{1}\},\ldots ,\{X_{n}\leq x_{n}\}}$이 상호 독립 사건일 경우에만 '''상호 독립'''이다. 이는 결합 누적 분포 함수 ${\displaystyle F_{X_{1},\ldots ,X_{n}}(x_{1},\ldots ,x_{n})}$에 대한 다음 조건과 동등하다.[4]

:F_{X_{1},\ldots ,X_{n}}(x_{1},\ldots ,x_{n})=F_{X_{1}}(x_{1})\cdot \ldots \cdot F_{X_{n}}(x_{n})\quad {\text{for all }}x_{1},\ldots ,x_{n}

2. 3. 시그마 대수의 독립

확률 공간 (\Omega,\mathcal F,\Pr) 위의, \mathcal F의 부분 시그마 대수들의 집합 \mathfrak G\subset\mathcal P(\mathcal F)이 다음 성질을 만족시킬 경우, \mathfrak G가 서로 '''독립'''이라고 한다.

  • 모든 유한 집합 \{\mathcal G_1,\dots,\mathcal G_n\}\subset\mathfrak GS_i\in\mathcal G_i (i=1,\dots,n)에 대하여, \textstyle\Pr(\bigcap_{i=1}^nS_i)=\prod_{i=1}^n\Pr(S_i)이다.[3]


I가 인덱스 집합인 σ-대수의 유한족 (\tau_i)_{i\in I}는 다음과 같은 경우에만 독립이라고 한다.

:\forall \left(A_i\right)_{i\in I} \in \prod\nolimits_{i\in I}\tau_i \ : \ \mathrm{P}\left(\bigcap\nolimits_{i\in I}A_i\right) = \prod\nolimits_{i\in I}\mathrm{P}\left(A_i\right)

그리고 σ-대수의 무한족은 모든 유한 부분족이 독립일 경우 독립이라고 한다.

3. 성질

사건 A가 자기 자신과 독립일 필요충분조건은 다음과 같다.

:\mathrm{P}(A) = \mathrm{P}(A \cap A) = \mathrm{P}(A) \cdot \mathrm{P}(A) \iff \mathrm{P}(A) = 0 \text{ or } \mathrm{P}(A) = 1.

따라서 사건은 거의 확실히 일어나거나, 그 여집합이 거의 확실히 일어날 경우에만 자기 자신과 독립적이다. 이 사실은 0-1 법칙을 증명할 때 유용하다.[8]

만약 XY가 통계적으로 독립적인 확률 변수라면, 기대 연산자 \operatorname{E}는 다음과 같은 특징을 갖는다.

:\operatorname{E}[X^n Y^m] = \operatorname{E}[X^n] \operatorname{E}[Y^m][9]

그리고 공분산 \operatorname{cov}[X,Y]는 다음과 같이 0이 된다.

:\operatorname{cov}[X,Y] = \operatorname{E}[X Y] - \operatorname{E}[X] \operatorname{E}[Y].

역은 성립하지 않는다. 두 확률 변수의 공분산이 0이라고 해서 반드시 독립적인 것은 아니다.

마찬가지로 두 확률 과정 \left\{ X_t \right\}_{t\in\mathcal{T}}\left\{ Y_t \right\}_{t\in\mathcal{T}}의 경우, 만약 이들이 독립적이라면, 비상관이다.[10]

두 개의 확률 변수 XY는 확률 벡터 (X,Y)의 특성 함수가 다음을 만족할 때 서로 독립이다.

:\varphi_{(X,Y)}(t,s) = \varphi_{X}(t)\cdot \varphi_{Y}(s).

특히, 두 변수의 합의 특성 함수는 각 변수의 주변 특성 함수의 곱이다.

:\varphi_{X+Y}(t) = \varphi_X(t)\cdot\varphi_Y(t),

하지만 역은 성립하지 않는다. 후자의 조건을 만족하는 확률 변수는 준독립이라고 한다.

확률 변수 XY 가 서로 독립인 경우 다음이 성립한다.


  • 함수 fg 에 대해, f(X)g(Y) 도 독립이 된다.
  • 곱셈기댓값은 교환 가능하다. 즉,

:E[XY] = E[X]E[Y]
:F_{X,Y}(x,y) = F_X(x) F_Y(y),\quad f_{X,Y}(x,y) = f_X(x) f_Y(y)

  • 과 분산은 교환 가능하다. 즉,

:V(X+Y) = V(X) + V(Y)

다음 조건을 만족할 때 확률 변수 XY 는 독립이 된다.

  • 임의의 유계 함수 fg 에 대해

:E[f(X)g(Y)] = E[f(X)]E[g(Y)]

  • 특성 함수가 곱으로 분리된다.

:E[\exp(i(\xi X + \eta Y))] = E[\exp(i\xi X)] E[\exp(i\eta Y)]

4. 독립성의 검정

두 사건 또는 확률 변수의 독립성은 카이 제곱 검정, 분할표 등 다양한 통계적 방법을 통해 검정할 수 있다.[1] 그러나 독립성 검정은 두 변수 간의 종속성을 확인하는 데는 유용하지만, 독립성을 확정적으로 증명하는 것은 어렵다.[1]

5. 조건부 독립

사건 AB는 사건 C가 주어졌을 때 조건부 독립일 경우 다음과 같다.

:\mathrm{P}(A \cap B \mid C) = \mathrm{P}(A \mid C) \cdot \mathrm{P}(B \mid C).

직관적으로, 두 확률 변수 XYZ가 주어졌을 때, Z를 알고 나면 Y의 값은 X에 대한 추가 정보를 더하지 않는 경우, Z에 대해 조건부 독립이다. 예를 들어, 동일한 기본 양 Z에 대한 두 측정값 XY는 독립적이지 않지만, Z가 주어지면 조건부 독립이다(두 측정값의 오차가 어떻게든 연결되지 않는 한).

조건부 독립의 공식적인 정의는 조건부 분포의 개념에 기반한다. 만약 X, YZ가 이산 확률 변수라면, 다음이 성립할 경우 XYZ가 주어졌을 때 조건부 독립이라고 정의한다.

:\mathrm{P}(X \le x, Y \le y\;|\;Z = z) = \mathrm{P}(X \le x\;|\;Z = z) \cdot \mathrm{P}(Y \le y\;|\;Z = z)

여기서 \mathrm{P}(Z=z)>0인 모든 x, yz에 대해 성립한다. 반면에, 확률 변수가 연속 확률 변수이고 결합 확률 밀도 함수 f_{XYZ}(x,y,z)를 갖는 경우, XY는 다음이 성립할 경우 Z가 주어졌을 때 조건부 독립이다.

:f_{XY|Z}(x, y | z) = f_{X|Z}(x | z) \cdot f_{Y|Z}(y | z)

여기서 f_Z(z)>0인 모든 실수 x, yz에 대해 성립한다.

만약 이산 XYZ가 주어졌을 때 조건부 독립이라면,

:\mathrm{P}(X = x | Y = y , Z = z) = \mathrm{P}(X = x | Z = z)

\mathrm{P}(Z=z)>0인 모든 x, yz에 대해 성립한다. 즉, YZ가 주어졌을 때 X의 조건부 분포는 Z만 주어졌을 때와 동일하다. 유사한 방정식이 연속적인 경우의 조건부 확률 밀도 함수에도 적용된다.

독립은 조건 없는 사건이 주어졌을 때 확률이 일종의 조건부 확률로 간주될 수 있으므로 조건부 독립의 특별한 경우로 볼 수 있다.

6. 예시

확률론에서 독립의 예시는 다음과 같다.


  • 주사위를 두 번 던질 때, 첫 번째 던지기에서 6이 나오는 사건과 두 번째 던지기에서 6이 나오는 사건은 서로 독립이다.[2]
  • 카드 한 벌에서 카드를 한 장 뽑고 다시 넣는 경우(복원 추출)에는 첫 번째 시행에서 빨간색 카드를 뽑는 사건과 두 번째 시행에서 빨간색 카드를 뽑는 사건은 서로 독립이다. 반대로 카드를 한 장 뽑고 다시 넣지 않는 경우(비복원 추출)에는 첫 번째 시행에서 빨간색 카드를 뽑는 사건과 두 번째 시행에서 빨간색 카드를 뽑는 사건은 서로 독립이 아니다. 왜냐하면 빨간색 카드가 제거된 덱에는 상대적으로 더 적은 수의 빨간색 카드가 남아있기 때문이다.[2][4]
  • 세 사건 A, B, C는 쌍별 독립(pairwise independent)일 수는 있지만, 상호 독립(mutually independent)이 아닐 수 있다.[2]


쌍별 독립이지만, 상호 독립은 아닌 사건


상호 독립 사건


예를 들어, 두 확률 공간에서 \mathrm{P}(A) = \mathrm{P}(B) = 1/2이고 \mathrm{P}(C) = 1/4일 때, 첫 번째 공간의 사건들은 쌍별 독립이지만 세 사건은 상호 독립이 아니다. 반면 두 번째 공간의 사건들은 쌍별 독립이면서 상호 독립이다.

쌍별 독립의 경우, 어떤 하나의 사건이 다른 두 사건 각각과는 독립적이지만, 다른 두 사건의 교집합과는 독립적이지 않다.

:\mathrm{P}(A|BC) = \frac{\frac{4}{40}}{\frac{4}{40} + \frac{1}{40}} = \tfrac{4}{5} \ne \mathrm{P}(A)

:\mathrm{P}(B|AC) = \frac{\frac{4}{40}}{\frac{4}{40} + \frac{1}{40}} = \tfrac{4}{5} \ne \mathrm{P}(B)

:\mathrm{P}(C|AB) = \frac{\frac{4}{40}}{\frac{4}{40} + \frac{6}{40}} = \tfrac{2}{5} \ne \mathrm{P}(C)

그러나 상호 독립의 경우,

:\mathrm{P}(A|BC) = \frac{\frac{1}{16}}{\frac{1}{16} + \frac{1}{16}} = \tfrac{1}{2} = \mathrm{P}(A)

:\mathrm{P}(B|AC) = \frac{\frac{1}{16}}{\frac{1}{16} + \frac{1}{16}} = \tfrac{1}{2} = \mathrm{P}(B)

:\mathrm{P}(C|AB) = \frac{\frac{1}{16}}{\frac{1}{16} + \frac{3}{16}} = \tfrac{1}{4} = \mathrm{P}(C)

와 같이 조건부 확률과 무조건부 확률이 같아진다.

6. 1. 주사위 던지기

주사위를 두 번 던질 때, 첫 번째 던지기에서 6이 나오는 사건과 두 번째 던지기에서 6이 나오는 사건은 서로 독립이다.[2]

6. 2. 카드 뽑기

카드 한 벌에서 카드를 한 장 뽑고 다시 넣는 경우(복원 추출)에는 첫 번째 시행에서 빨간색 카드를 뽑는 사건과 두 번째 시행에서 빨간색 카드를 뽑는 사건은 서로 독립이다. 반대로 카드를 한 장 뽑고 다시 넣지 않는 경우(비복원 추출)에는 첫 번째 시행에서 빨간색 카드를 뽑는 사건과 두 번째 시행에서 빨간색 카드를 뽑는 사건은 서로 독립이 아니다. 왜냐하면 빨간색 카드가 제거된 덱에는 상대적으로 더 적은 수의 빨간색 카드가 남아있기 때문이다.[2][4]

6. 3. 쌍별 독립과 상호 독립

세 사건 A, B, C는 쌍별 독립(pairwise independent)일 수는 있지만, 상호 독립(mutually independent)이 아닐 수 있다.[2]

유한 개의 사건 집합 \{ A_i \} _{i=1}^{n}에서 모든 사건의 쌍이 독립일 때, 즉, 서로 다른 모든 쌍의 인덱스 m,k에 대해 다음이 성립할 때 쌍별 독립이라고 한다.[3]

:\mathrm{P}(A_m \cap A_k) = \mathrm{P}(A_m)\mathrm{P}(A_k)

유한 개의 사건 집합은 모든 사건이 다른 사건들의 교집합과 독립일 때 상호 독립이라고 한다.[4] 즉, 모든 k \leq n과 모든 k개의 인덱스 1\le i_1 < \dots < i_k \le n에 대해 다음이 성립한다.

:\mathrm{P}\left(\bigcap_{j=1}^k A_{i_j} \right)=\prod_{j=1}^k \mathrm{P}(A_{i_j} )

이를 독립 사건에 대한 ''곱셈 규칙''이라고 한다.

사건이 세 개 이상일 때, 상호 독립인 사건 집합은 (정의에 따라) 쌍별 독립이지만, 그 역은 반드시 참인 것은 아니다.[2]

예를 들어, 두 확률 공간에서 \mathrm{P}(A) = \mathrm{P}(B) = 1/2이고 \mathrm{P}(C) = 1/4일 때, 첫 번째 공간의 사건들은 쌍별 독립이지만 세 사건은 상호 독립이 아니다. 반면 두 번째 공간의 사건들은 쌍별 독립이면서 상호 독립이다.

쌍별 독립의 경우, 어떤 하나의 사건이 다른 두 사건 각각과는 독립적이지만, 다른 두 사건의 교집합과는 독립적이지 않다.

:\mathrm{P}(A|BC) = \frac{\frac{4}{40}}{\frac{4}{40} + \frac{1}{40}} = \tfrac{4}{5} \ne \mathrm{P}(A)

:\mathrm{P}(B|AC) = \frac{\frac{4}{40}}{\frac{4}{40} + \frac{1}{40}} = \tfrac{4}{5} \ne \mathrm{P}(B)

:\mathrm{P}(C|AB) = \frac{\frac{4}{40}}{\frac{4}{40} + \frac{6}{40}} = \tfrac{2}{5} \ne \mathrm{P}(C)

그러나 상호 독립의 경우,

:\mathrm{P}(A|BC) = \frac{\frac{1}{16}}{\frac{1}{16} + \frac{1}{16}} = \tfrac{1}{2} = \mathrm{P}(A)

:\mathrm{P}(B|AC) = \frac{\frac{1}{16}}{\frac{1}{16} + \frac{1}{16}} = \tfrac{1}{2} = \mathrm{P}(B)

:\mathrm{P}(C|AB) = \frac{\frac{1}{16}}{\frac{1}{16} + \frac{3}{16}} = \tfrac{1}{4} = \mathrm{P}(C)

와 같이 조건부 확률과 무조건부 확률이 같아진다.

7. 역사

확률론에서 1933년 이전에는 독립은 언어적으로 정의되었다. 예를 들어, 드 무아브르는 "두 사건은 서로 아무런 관련이 없고, 하나의 발생이 다른 하나의 발생을 촉진하거나 방해하지 않을 때 독립이다."라고 정의했다.[1] 만약 n개의 독립 사건이 있다면, 이들 모두가 일어날 사건의 확률은 이 n개 사건들의 확률의 곱으로 계산되었다.

이 문서에서 제시된 독립의 정의는 1933년 콜모고로프의 확률 공리화의 일부로 등장한 후 표준 정의(현재 모든 책에서 사용됨)가 되었다.[13] 콜모고로프는 이를 S.N. 베르스타인의 공로로 돌리고, 1927년에 러시아어로 출판된 간행물을 인용했다.[14]

불행히도, 베르스타인과 콜모고로프는 모두 게오르그 볼만의 연구를 알지 못했다. 볼만은 1901년에 두 사건에 대한 동일한 정의를, 1908년에는 n개의 사건에 대한 동일한 정의를 제시했다.[15][16] 후자의 논문에서 그는 자신의 개념을 자세히 연구했다. 예를 들어, 그는 쌍별 독립성이 상호 독립성을 의미하지 않는다는 것을 보여주는 첫 번째 예를 제시했다.

오늘날에도 볼만은 거의 인용되지 않는다. 그의 작업에 대한 더 많은 정보는 :de:Ulrich Krengel의 "확률론에 대한 게오르그 볼만의 기여에 관하여"에서 찾을 수 있다.[17]

참조

[1] 서적 Artificial Intelligence: A Modern Approach https://archive.org/[...] Prentice Hall
[2] 서적 Probability and Stochastic Processes Wiley
[3] 서적 An Introduction to Probability Theory and Its Applications John Wiley & Sons|Wiley
[4] 서적 Stochastic Processes Theory for Applications Cambridge University Press
[5] 서적 Probability, Random Variables and Stochastic Processes MCGraw Hill
[6] 서적 Theory and Problems of Probability, Random Variables, and Random Processes https://archive.org/[...] McGraw-Hill
[7] 서적 A Foundation in Digital Communication https://books.google[...] Cambridge University Press 2017-02-08
[8] 서적 Probability: theory and examples
[9] 서적 MODELING FLUCTUATIONS IN SCATTERED WAVES
[10] 서적 Fundamentals of Probability and Stochastic Processes with Applications to Communications Springer
[11] 간행물 Testing for the independence of three events http://www.engr.mun.[...] Mathematical Gazette 2004-11
[12] 문서 Cited according to: Grinstead and Snell’s Introduction to Probability. In: The CHANCE Project. Version of July 4, 2006.
[13] 서적 Grundbegriffe der Wahrscheinlichkeitsrechnung Julius Springer
[14] 서적 Probability Theory Moscow
[15] 문서 Lebensversicherungsmathematik, Encyklop¨adie der mathematischen Wissenschaften, Bd I, Teil 2, Artikel I D 4b
[16] 문서 Die Grundbegriffe der Wahrscheinlichkeitsrechnung in ihrer Anwendung auf die Lebensversichrung, Atti del IV. Congr. Int. dei Matem. Rom, Bd. III
[17] 문서 On the contributions of Georg Bohlmann to probability theory http://www.math.uni-[...] Electronic Journal for History of Probability and Statistics
[18] 서적 確率統計学 I http://www.math.u-ry[...] 2018-07-04
[19] 서적 Lectures on Algebraic Statistics Springer



본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.

문의하기 : help@durumis.com