맨위로가기

베타 분포

"오늘의AI위키"는 AI 기술로 일관성 있고 체계적인 최신 지식을 제공하는 혁신 플랫폼입니다.
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.

1. 개요

베타 분포는 두 개의 형상 모수 α와 β로 정의되는 연속 확률 분포이다. 확률 밀도 함수는 감마 함수와 베타 함수를 사용하여 표현되며, 확률 변수의 값은 0과 1 사이이다. 베타 분포는 누적 분포 함수, 다른 매개변수화, 중심 경향성 측도, 통계적 분산 측도, 왜도, 첨도, 특성 함수 등 다양한 성질을 갖는다. 베타 분포는 대칭, 거울상 대칭, 베타 프라임 분포, 일반화된 로지스틱 분포, F-분포, PERT 분포 등 다른 분포와의 관계를 갖는다. 베타 분포는 다운링크 빔포밍, 순서 통계량, 주관적 논리, 신호 처리, 인구 유전학, 프로젝트 관리 등 다양한 분야에 응용된다.

2. 정의

베타 분포는 두 개의 형상 모수(shape parameter) α영어와 실현]]—실제로 발생한 관측값—확률 변수 X 이다.

노먼 로이드 존슨과 새뮤얼 코츠를 포함한 여러 저자는 베타 분포의 형상 모수에 대해 베르누이 분포의 매개변수에 전통적으로 사용되는 기호를 연상시키는 기호 p q ( \alpha \beta 대신)를 사용한다.

매개변수 \alpha \beta 를 갖는 베타 분포를 따르는 확률 변수 X 는 다음과 같이 나타낸다.

:X \sim \operatorname{Beta}(\alpha, \beta)

제1종 베타 분포의 확률 밀도 함수는 다음과 같이 정의된다.

:f(x; \alpha ,\beta )=\frac{x^{\alpha -1}(1-x)^{\beta-1/β}}에 의해 정의되며, 확률 밀도 함수는 다음과 같다.[6][8][4][1][2]

:

f(x;\alpha,\beta) = \frac{x^{\alpha-1}(1-x)^{\beta-1}}{\int_0^1 u^{\alpha-1} (1-u)^{\beta-1}\, du}

= \frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha)\Gamma(\beta)}\, x^{\alpha-1}(1-x)^{\beta-1}

= \frac{1}{\mathrm{B}(\alpha,\beta)}\, x^{\alpha-1}(1-x)^{\beta-1}



여기서 \Gamma감마 함수이다. 베타 함수 B(.,.)는 함수의 적분값이 1이 되도록 하기 위해 사용된 정규화 상수이다. x

여기서 는 베타 함수이며, 확률 변수가 취하는 값은 0 ≤ ''x'' ≤ 1 이고, 매개변수 \alpha , \beta > 0 에 대해 변수 x 와 그 반사 (1-x) 멱함수이다. 기대값은 }}이며, 분산은 \frac{\alpha\beta}{(\alpha+\beta)^2(\alpha+\beta+1)}이다. 자연 매개변수를 (''α'' − 1, ''β'' − 1)}}로 하여 다음과 같이 다시 쓸 수 있으므로, 베타 분포는 지수족 분포이다.

:f(x;\eta )=h(\eta )\exp (\eta \cdot u(x))

단, h(\eta )=\frac{1}{B(\alpha ,\beta )} ,u(x)=(\log x,\log (1-x))이다.

베타 분포의 다양한 매개변수 값에 대한 애니메이션

2. 1. 확률 밀도 함수

베타 분포의 확률 밀도 함수는 다음과 같다.[6][8][4][1][2]

:

f(x;\alpha,\beta) = \frac{x^{\alpha-1}(1-x)^{\beta-1}}{\int_0^1 u^{\alpha-1} (1-u)^{\beta-1}\, du}

= \frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha)\Gamma(\beta)}\, x^{\alpha-1}(1-x)^{\beta-1}

= \frac{1}{\mathrm{B}(\alpha,\beta)}\, x^{\alpha-1}(1-x)^{\beta-1}



여기서 \Gamma감마 함수이다. 베타 함수 B(.,.)는 함수의 적분값이 1이 되도록 하기 위해 사용된 정규화 상수이다. x 는 실현—실제로 발생한 관측값—확률 변수 X 이다.

노먼 로이드 존슨과 새뮤얼 코츠를 포함한 여러 저자는 베타 분포의 형상 모수에 대해 베르누이 분포의 매개변수에 전통적으로 사용되는 기호를 연상시키는 기호 p q ( \alpha \beta 대신)를 사용한다.

매개변수 \alpha \beta 를 갖는 베타 분포를 따르는 확률 변수 X 는 다음과 같이 나타낸다.

:X \sim \operatorname{Beta}(\alpha, \beta)

제1종 베타 분포의 확률 밀도 함수는 다음과 같이 정의된다.

:f(x; \alpha ,\beta )=\frac{x^{\alpha -1}(1-x)^{\beta-1}}{B(\alpha ,\beta)}

여기서 는 베타 함수이며, 확률 변수가 취하는 값은 이고, 매개변수 \alpha , \beta > 0 에 대해 변수 x 와 그 반사 (1-x) 멱함수이다. 기대값은 }}이며, 분산은 \frac{\alpha\beta}{(\alpha+\beta)^2(\alpha+\beta+1)}이다. 자연 매개변수를 (''α'' − 1, ''β'' − 1)}}로 하여 다음과 같이 다시 쓸 수 있으므로, 베타 분포는 지수족 분포이다.

:f(x;\eta )=h(\eta )\exp (\eta \cdot u(x))

단, h(\eta )=\frac{1}{B(\alpha ,\beta )} ,u(x)=(\log x,\log (1-x))이다.

2. 2. 누적 분포 함수

누적 분포 함수는 다음과 같다.

:F(x;\alpha,\beta) = \frac{\Beta{}(x;\alpha,\beta)}{\Beta{}(\alpha,\beta)} = I_x(\alpha,\beta)

여기서 \Beta(x;\alpha,\beta)는 불완전 베타 함수이고 I_x(\alpha,\beta)는 정규화된 불완전 베타 함수이다.[3] 양의 정수 \alpha , \beta 에 대해, 베타 분포의 누적 분포 함수는 이항 분포의 누적 분포 함수로 표현할 수 있다.

:F_{\text{beta}}(x;\alpha,\beta) = F_{\text{binomial}}(\beta-1;\alpha+\beta-1,1-x).




2. 3. 다른 모수화

베타 분포는 알파(α)와 베타(β)라는 두 형상 모수를 가지며, [0,1] 또는 (0,1) 범위에서 지원된다.[6] 분포의 최소값 ''a''와 최대값 ''c'' (''c'' > ''a'')를 나타내는 두 개의 추가 매개변수를 도입하여 분포의 위치와 척도를 변경할 수 있다.[6]

비차원 변수 ''x''를 새로운 변수 ''y'' (지원 범위 [''a'',''c''] 또는 (''a'',''c''))와 매개변수 ''a'' 및 ''c''를 사용하여 선형 변환하면 다음과 같다.

:y = x(c-a) + a, 따라서 x = (y-a)/(c-a).

4개의 매개변수를 갖는 베타 분포의 확률 밀도 함수는 범위 (''c'' − ''a'')로 확장되고 (밀도 곡선 아래의 총 면적이 1의 확률과 같도록) "y" 변수가 이동 및 확장된 2개의 매개변수 분포와 같다.[6]

:f(y; α, β, a, c) = f(x;α,β)/(c-a) = ((y-a)/(c-a))^(α-1) * ((c-y)/(c-a))^(β-1) / ((c-a)B(α, β)) = (y-a)^(α-1) * (c-y)^(β-1) / ((c-a)^(α+β-1)B(α, β)).

임의 변수 ''Y''가 4개의 매개변수 α, β, ''a'', ''c''를 갖는 베타 분포를 따르는 것은 다음과 같이 나타낸다.[6]

:Y ~ Beta(α, β, a, c).

중심 위치의 일부 측도는 (''c'' − ''a'')로 확장되고 ''a''로 이동한다.[6]

:μ_Y = μ_X(c-a) + a = (α/(α+β))(c-a) + a = (αc+ βa)/(α+β)

:최빈값(Y) = 최빈값(X)(c-a) + a = ((α-1)/(α+β - 2))(c-a) + a = ((α-1)c+(β-1)a)/(α+β-2) , if α, β>1

:중앙값(Y) = 중앙값(X)(c-a) + a = (I_(1/2)^([-1])(α,β))(c-a)+a

''Y''의 형상 매개변수는 평균과 분산을 사용하여 다음과 같이 작성할 수 있다.

:α = (a - μ_Y)(a c - a μ_Y - c μ_Y + μ_Y^2 + σ_Y^2) / (σ_Y^2(c-a))

:β = -(c - μ_Y)(a c - a μ_Y - c μ_Y + μ_Y^2 + σ_Y^2) / (σ_Y^2(c-a))

통계적 분산 측도는 평균 편차의 경우 선형적으로, 분산의 경우 비선형적으로 범위 (''c'' − ''a'')로 확장된다 (이미 평균을 중심으로 맞춰져 있으므로 이동할 필요가 없다).[6]

:(평균 주변 평균 편차)(Y) = (평균 주변 평균 편차)(X))(c-a) = 2 α^α β^β / (Β(α,β)(α + β)^(α + β + 1))(c-a)

:var(Y) = var(X)(c-a)^2 = αβ (c-a)^2 / ((α+β)^2(α+β+1)).

왜도첨도는 비차원적인 양이므로 (평균을 중심으로 하고 표준 편차로 정규화된 모멘트) 매개변수 ''a''와 ''c''에 독립적이며, 따라서 ''X'' (지원 범위 [0,1] 또는 (0,1))를 사용하여 주어진 식과 같다.[6]

:왜도(Y) = 왜도(X) = 2 (β - α) √(α + β + 1) / ((α + β + 2) √αβ).

:첨도 초과(Y) = 첨도 초과(X) = 6[(α - β)^2 (α +β + 1) - α β (α + β + 2)] / (α β (α + β + 2) (α + β + 3)).

3. 성질

3. 1. 중심 경향성 측도

3. 1. 1. 최빈값

베타 분포를 따르는 확률 변수 ''X''의 최빈값은 ''α'', ''β'' > 1일 때 분포에서 가장 가능성이 높은 값이며 (PDF의 최고점에 해당) 다음 식으로 주어진다.[6]

:{\frac{\alpha - 1} {\alpha + \beta - 2}} .

두 매개변수 모두 1보다 작을 경우(''α'', ''β'' < 1), 이는 반최빈값, 즉 확률 밀도 곡선의 최저점이다.[7]

''α'' = ''β''로 설정하면 최빈값에 대한 표현식이 1/2로 단순화되어, ''α'' = ''β'' > 1일 때 최빈값 (''α'', ''β'' < 1일 때는 반최빈값)이 분포의 중심에 있음을 보여준다. 이러한 경우 대칭이다. 임의의 ''α'' 및 ''β'' 값에 대한 최빈값 사례의 전체 목록은 모양 섹션을 참조한다. 이러한 사례 중 일부에서 밀도 함수의 최대값은 한쪽 또는 양쪽 끝에서 발생한다. 어떤 경우에는 끝에서 발생하는 밀도 함수의 (최대) 값이 유한하다. 예를 들어, ''α'' = 2, ''β'' = 1 (또는 ''α'' = 1, ''β'' = 2)의 경우 밀도 함수는 오른쪽 삼각형 분포가 되어 양쪽 끝에서 유한하다. 다른 여러 경우에서는 밀도 함수 값이 무한대에 가까워지는 한쪽 끝에서 특이점이 있다. 예를 들어, ''α'' = ''β'' = 1/2인 경우 베타 분포는 아크사인 분포로 단순화된다. 수학자들 사이에서는 이러한 사례 중 일부, 그리고 끝점(''x'' = 0 및 ''x'' = 1)을 ''최빈값''이라고 부를 수 있는지 여부에 대한 논쟁이 있다.[18][8]

  • 끝점이 밀도 함수의 정의역의 일부인지 여부
  • 특이점을 ''최빈값''이라고 부를 수 있는지 여부
  • 두 개의 최댓값이 있는 경우를 ''이봉''이라고 불러야 하는지 여부

3. 1. 2. 중앙값

0 ≤ ''α'' ≤ 5 및 0 ≤ ''β'' ≤ 5에 대한 베타 분포의 중앙값


알파 및 베타가 0에서 2 사이일 때 베타 분포의 (평균-중앙값)


베타 분포의 중앙값은 정규화된 불완전 베타 함수 I_x(\alpha,\beta) = \tfrac{1}{2} 가 되는 유일한 실수 x = I_{1/2}^{[-1]}(\alpha,\beta)이다. 임의의 ''α''와 ''β'' 값에 대한 베타 분포의 중앙값에 대한 일반적인 폐쇄 형식 표현은 없다.

특정 매개변수 ''α''와 ''β'' 값에 대한 폐쇄 형식 표현은 다음과 같다.

  • 대칭의 경우 ''α'' = ''β'', 중앙값 = 1/2.
  • ''α'' = 1 및 ''β'' > 0의 경우, 중앙값 =1-2^{-1/\beta} (이 경우는 [0,1] 분포의 거울상이다.)
  • ''α'' > 0 및 ''β'' = 1의 경우, 중앙값 = 2^{-1/\alpha} (이 경우는 [0,1] 분포이다.[18])
  • ''α'' = 3 및 ''β'' = 2의 경우, 중앙값 = 0.6142724318676105..., [0,1]에 있는 사차 방정식 1 − 8''x''3 + 6''x''4 = 0의 실수 해.
  • ''α'' = 2 및 ''β'' = 3의 경우, 중앙값 = 0.38572756813238945... = 1−중앙값(베타(3, 2))


다음은 한 매개변수가 유한(0이 아님)이고 다른 매개변수가 이러한 극한에 접근하는 극한이다.

: \begin{align}

\lim_{\beta \to 0} \text{중앙값}= \lim_{\alpha \to \infty} \text{중앙값} = 1,\\

\lim_{\alpha\to 0} \text{중앙값}= \lim_{\beta \to \infty} \text{중앙값} = 0.

\end{align}

알파와 베타가 모두 1 이상인 경우 베타 분포 중앙값의 합리적인 근사값은 다음 공식으로 주어진다.[29]

:\text{중앙값} \approx \frac{\alpha - \tfrac{1}{3}}{\alpha + \beta - \tfrac{2}{3}} \text{ for } \alpha, \beta \ge 1.

α, β ≥ 1일 때, 이 근사값의 상대 오차 (중앙값으로 나눈 절대 오차)는 4% 미만이고, α ≥ 2 및 β ≥ 2의 경우 1% 미만이다. 절대 오차를 평균과 최빈값의 차이로 나눈 값도 마찬가지로 작다.

Abs[(중앙값-근사값)/중앙값] 1 ≤ ''α'' ≤ 5 및 1 ≤ ''β'' ≤ 5에 대한 베타 분포


Abs[(중앙값-근사값)/(평균-최빈값)] 1≤α≤5 및 1≤β≤5에 대한 베타 분포

3. 1. 3. 평균

0 ≤ ''α'' ≤ 5와 0 ≤ ''β'' ≤ 5에 대한 베타 분포의 평균


두 매개변수 ''α''와 ''β''를 갖는 베타 분포 확률 변수 ''X''의 기댓값(평균)(''μ'')는 이러한 매개변수의 비율 ''β''/''α''의 함수일 뿐이다.[6]

:''μ'' = E[''X''] = α/(α + β) = 1/(1 + (β/α))

위 식에서 ''α'' = ''β''로 설정하면 ''μ'' = 1/2를 얻을 수 있으며, 이는 ''α'' = ''β''인 경우 평균이 분포의 중앙에 있음을 보여준다. 즉, 대칭이다. 또한, 다음 극한을 위 식에서 얻을 수 있다.

:limβ/α → 0 ''μ'' = 1

:limβ/α → ∞ ''μ'' = 0

따라서, ''β''/''α'' → 0 또는 ''α''/''β'' → ∞인 경우, 평균은 오른쪽 끝, ''x'' = 1에 위치한다. 이러한 극한 비율의 경우, 베타 분포는 오른쪽 끝인 ''x'' = 1에 디랙 델타 함수 스파이크가 있는 1점 퇴화 분포가 되며, 확률은 1이고, 다른 모든 곳에서는 확률이 0이다. 오른쪽 끝, ''x'' = 1에 100% 확률(절대적 확실성)이 집중되어 있다.

마찬가지로, ''β''/''α'' → ∞ 또는 ''α''/''β'' → 0인 경우, 평균은 왼쪽 끝, ''x'' = 0에 위치한다. 베타 분포는 왼쪽 끝인 ''x'' = 0에 디랙 델타 함수 스파이크가 있는 1점 퇴화 분포가 되며, 확률은 1이고, 다른 모든 곳에서는 확률이 0이다. 왼쪽 끝, ''x'' = 0에 100% 확률(절대적 확실성)이 집중되어 있다. 다음은 한 매개변수가 유한(0이 아님)하고 다른 매개변수가 이러한 극한에 접근하는 극한이다.

:limβ → 0 ''μ'' = limα → ∞ ''μ'' = 1

:limα→ 0 ''μ'' = limβ → ∞ ''μ'' = 0

일반적인 단봉 분포(중앙에 위치한 최빈값, 최빈값의 양쪽에 있는 변곡점, 더 긴 꼬리) (Beta(''α'', ''β'')이며 ''α'', ''β'' > 2)의 경우 표본 평균(위치의 추정치)이 표본 중앙값만큼 강건하지 않다는 것이 알려져 있지만, 최빈값이 분포의 양 끝에 위치한 균일 또는 "U자형" 이봉 분포(Beta(''α'', ''β'')이며 ''α'', ''β'' ≤ 1)의 경우에는 반대이다. Mosteller와 Tukey는 ([9] p. 207) "두 극단 관측값의 평균은 모든 표본 정보를 사용한다. 이것은 꼬리가 짧은 분포의 경우 극단 관측값에 더 많은 가중치를 부여해야 함을 보여준다."라고 언급한다. 반대로, 분포의 가장자리에 최빈값을 가진 "U자형" 이봉 분포(Beta(''α'', ''β'')이며 ''α'', ''β'' ≤ 1)의 중앙값은 강건하지 않으며, 표본 중앙값은 극단적인 표본 관측값을 고려 대상에서 제외한다. 이러한 실용적인 예는 예를 들어 임의 보행에서 발생하는데, 임의 보행에서 원점에 마지막으로 방문할 시간의 확률이 아크사인 분포 Beta(1/2, 1/2)로 분포되기 때문이다.[2][10] 임의 보행의 여러 실현에 대한 평균은 중앙값보다 훨씬 더 강건한 추정치이다(이 경우 중앙값은 부적절한 표본 측도 추정치이다).

3. 1. 4. 기하 평균





베타 분포의 (평균 − 기하 평균)을 0에서 2까지의 ''α''와 ''β''에 대해 나타내며, 기하 평균에 대한 ''α''와 ''β'' 간의 비대칭성을 보여준다


형상 모수 ''α''와 ''β''를 갖는 베타 분포의 기하 평균은 다음과 같이 α와 β의 디감마 함수의 지수이다.[6]

:G_X =e^{\operatorname{E}[\ln X]}= e^{\psi(\alpha) - \psi(\alpha + \beta)}

:G_{(1-X)} = e^{\operatorname{E}[\ln(1-X)] } = e^{\psi(\beta) - \psi(\alpha + \beta)}

N. L. 존슨과 S. 코츠는 디감마 함수 ''ψ''(''α'') ≈ ln(''α'' − 1/2)에 대한 로그 근사를 제안했으며, 이는 기하 평균에 대한 다음과 같은 근사로 이어진다.

:G_X \approx \frac{\alpha \, - \frac{1}{2}}{\alpha +\beta - \frac{1}{2}}\text{ if } \alpha, \beta > 1.

:G_{(1-X)} \approx \frac{\beta - \frac{1}{2}}{\alpha+\beta-\frac{1}{2}}\text{ if } \alpha, \beta > 1.

''G''''X''와 ''G''(1−''X'') 둘 다 비대칭이지만, 두 형상 모수가 모두 ''α'' = ''β''와 같은 경우, 기하 평균은 같다: ''G''''X'' = ''G''(1−''X''). 이 등식은 두 기하 평균 사이에 표시된 다음과 같은 대칭성에서 비롯된다.

:G_X (\Beta(\alpha, \beta) )=G_{(1-X)}(\Beta(\beta, \alpha) ).

3. 1. 5. 조화 평균

확률 변수 ''X''를 갖는 분포의 조화 평균(''HX'')의 역수는 1/''X''의 산술 평균, 즉 기대값과 같다. 따라서 모양 매개변수 ''α''와 ''β''를 갖는 베타 분포조화 평균(''HX'')은 다음과 같다.

:''HX'' = (α - 1) / (α + β - 1) (단, α > 1, β > 0)

모양 매개변수 ''α''가 1보다 작은 베타 분포의 조화 평균(''HX'')은 정의되지 않는다. 이는 정의 표현식이 1보다 작은 모양 매개변수 ''α''에 대해 [0, 1]에서 제한되지 않기 때문이다.

위 식에서 ''α'' = ''β''로 설정하면 다음을 얻는다.

:HX = (α-1)/(2α-1)

이는 ''α'' = ''β''의 경우, 조화 평균이 ''α'' = ''β'' = 1일 때 0에서 ''α'' = ''β'' → ∞일 때 1/2까지 범위에 있다는 것을 보여준다.

다음은 한 매개변수가 유한(0이 아님)이고 다른 매개변수가 이러한 한계에 접근하는 한계이다.

:lim(α→0) HX 는 정의되지 않음

:lim(α→1) HX = lim(β→∞) HX = 0

:lim(β→0) HX = lim(α→∞) HX = 1

조화 평균은 기하 평균 외에도 4개 매개변수 경우의 최우도 추정에 역할을 한다. 실제로, 4개 매개변수 경우에 대한 최우도 추정을 수행할 때, 확률 변수 ''X''를 기반으로 하는 조화 평균 ''HX'' 외에도 다른 조화 평균이 자연스럽게 나타난다. 즉, ''X''의 거울상인 선형 변환(1 − ''X'')을 기반으로 하는 조화 평균은 ''H''1 − ''X''로 표시된다.

:H1-X = (β - 1) / (α + β - 1) (단, β > 1, α > 0)

모양 매개변수 ''β''가 1보다 작은 베타 분포의 조화 평균(''H''(1 − ''X''))은 정의되지 않는다. 이는 정의 표현식이 1보다 작은 모양 매개변수 ''β''에 대해 [0, 1]에서 제한되지 않기 때문이다.

위 식에서 ''α'' = ''β''로 설정하면 다음을 얻는다.

:H(1-X) = (β-1) / (2β-1)

이는 ''α'' = ''β''의 경우, 조화 평균이 ''α'' = ''β'' = 1일 때 0에서 ''α'' = ''β'' → ∞일 때 1/2까지 범위에 있다는 것을 보여준다.

다음은 한 매개변수가 유한(0이 아님)이고 다른 매개변수가 이러한 한계에 접근하는 한계이다.

:lim(β→0) H1-X 는 정의되지 않음

:lim(β→1) H1-X = lim(α→∞) H1-X = 0

:lim(α→0) H1-X = lim(β→∞) H1-X = 1

''H''''X''와 ''H''1−''X'' 모두 비대칭이지만, 두 모양 매개변수 모두 동일한 경우 ''α'' = ''β'' 조화 평균은 동일하다. ''H''''X'' = ''H''1−''X''. 이러한 동일성은 다음의 두 조화 평균 간에 표시되는 대칭에서 비롯된다.

:HX (베타 분포(α, β) )=H1-X(베타 분포(β, α) ) (단, α, β> 1)

0 < ''α'' < 5 및 0 < ''β'' < 5에 대한 베타 분포의 조화 평균


0에서 2까지의 ''α'' 및 ''β''에 대한 베타 분포의 조화 평균





3. 2. 통계적 분산 측도

3. 2. 1. 분산

베타 분포분산(평균을 중심으로 한 2차 모멘트)은 매개변수 α와 β를 갖는 베타 분포 확률 변수 ''X''에 대해 다음과 같다.[6][12]

: var(X) = E[(X - μ)2] = αβ / ((α + β)2(α + β + 1))

위 식에서 α = β를 대입하면

: var(X) = 1 / (4(2β + 1))

따라서 ''α'' = ''β''인 경우, 분산은 ''α'' = ''β''가 증가함에 따라 단조 감소한다. 이 식에 ''α'' = ''β'' = 0을 대입하면 최대 분산 var(''X'') = 1/4[6]을 구할 수 있으며, 이는 ''α'' = ''β'' = 0에서 극한에 접근하는 경우에만 발생한다.

베타 분포는 평균 ''μ'' (0 < ''μ'' < 1) 및 표본 크기 ''ν'' = ''α'' + ''β'' (''ν'' > 0)로 통계적 매개변수를 나타낼 수도 있다.

: α = μν, where ν = (α + β) > 0

: β = (1 - μ)ν, where ν = (α + β) > 0.

이러한 통계적 매개변수를 사용하여, 분산을 평균 ''μ'' 및 표본 크기 ''ν''로 다음과 같이 표현할 수 있다.

: var(X) = μ(1-μ) / (1 + ν)

''ν'' = ''α'' + ''β'' > 0이므로 var(''X'') < ''μ''(1 − ''μ'')가 된다.

대칭 분포의 경우, 평균은 분포의 중앙에 위치하며, ''μ'' = 1/2 이므로 다음과 같다.

: var(X) = 1 / (4(1 + ν)) if μ = 1/2

또한, 다음과 같은 극한(극한에 접근하는 변수만 명시)은 위 식에서 얻을 수 있다.

: limβ→0 var(X) = limα→0 var(X) = limβ→∞ var(X) = limα→∞ var(X) = limν→∞ var(X) = limμ→0 var(X) = limμ→1 var(X) = 0

: limν→0 var(X) = μ(1-μ)

325px

3. 2. 2. 기하 분산과 공분산

로그 기하 분산 대 α 및 β


로그 기하 분산 대 α 및 β


로그 변수의 분산과 ln ''X''와 ln(1−''X'')의 공분산은 다음과 같다.

:\operatorname{var}[\ln X]= \psi_1(\alpha) - \psi_1(\alpha + \beta)

:\operatorname{var}[\ln (1-X)] = \psi_1(\beta) - \psi_1(\alpha + \beta)

:\operatorname{cov}[\ln X, \ln(1-X)] = -\psi_1(\alpha+\beta)

여기서 '''삼중 감마 함수'''는 ψ1(α)로 표시되며, 폴리감마 함수의 두 번째 함수이며, 다이감마 함수의 도함수로 정의된다.

:\psi_1(\alpha) = \frac{d^2\ln\Gamma(\alpha)}{d\alpha^2}= \frac{d \, \psi(\alpha)}{d\alpha}.

따라서,

: \ln \operatorname{var}_{GX}=\operatorname{var}[\ln X]= \psi_1(\alpha) - \psi_1(\alpha + \beta)

: \ln \operatorname{var}_{G(1-X)} =\operatorname{var}[\ln (1-X)] = \psi_1(\beta) - \psi_1(\alpha + \beta)

: \ln \operatorname{cov}_{GX,1-X} =\operatorname{cov}[\ln X, \ln(1-X)] = -\psi_1(\alpha+\beta)

첨부된 그림은 형상 모수 ''α''와 ''β''에 대한 로그 기하 분산과 로그 기하 공분산을 보여준다. 그림에서 로그 기하 분산과 로그 기하 공분산은 형상 모수 α와 β가 2보다 클 때 0에 가깝고, 로그 기하 분산이 1보다 작은 형상 모수 값 ''α''와 ''β''에 대해 빠르게 증가함을 보여준다. 로그 기하 분산은 형상 모수의 모든 값에 대해 양수이다. 로그 기하 공분산은 형상 모수의 모든 값에 대해 음수이며, ''α''와 ''β''가 1보다 작을 때 큰 음수 값을 갖는다.

하나의 매개변수가 유한하고(0이 아님) 다른 매개변수가 이러한 한계에 접근하는 한계는 다음과 같다.

: \begin{align}

&\lim_{\alpha\to 0} \ln \operatorname{var}_{GX} = \lim_{\beta\to 0} \ln \operatorname{var}_{G(1-X)} =\infty \\

&\lim_{\beta \to 0} \ln \operatorname{var}_{GX} = \lim_{\alpha \to \infty} \ln \operatorname{var}_{GX} = \lim_{\alpha \to 0} \ln \operatorname{var}_{G(1-X)} = \lim_{\beta\to \infty} \ln \operatorname{var}_{G(1-X)} = \lim_{\alpha\to \infty} \ln \operatorname{cov}_{GX,(1-X)} = \lim_{\beta\to \infty} \ln \operatorname{cov}_{GX,(1-X)} = 0\\

&\lim_{\beta \to \infty} \ln \operatorname{var}_{GX} = \psi_1(\alpha)\\

&\lim_{\alpha\to \infty} \ln \operatorname{var}_{G(1-X)} = \psi_1(\beta)\\

&\lim_{\alpha\to 0} \ln \operatorname{cov}_{GX,(1-X)} = - \psi_1(\beta)\\

&\lim_{\beta\to 0} \ln \operatorname{cov}_{GX,(1-X)} = - \psi_1(\alpha)

\end{align}

두 매개변수가 변화하는 한계는 다음과 같다.

: \begin{align}

&\lim_{\alpha\to \infty}( \lim_{\beta \to \infty} \ln \operatorname{var}_{GX}) = \lim_{\beta \to \infty}( \lim_{\alpha\to \infty} \ln \operatorname{var}_{G(1-X)}) = \lim_{\alpha\to \infty} (\lim_{\beta \to 0} \ln \operatorname{cov}_{GX,(1-X)}) = \lim_{\beta\to \infty}( \lim_{\alpha\to 0} \ln \operatorname{cov}_{GX,(1-X)}) =0\\

&\lim_{\alpha\to \infty} (\lim_{\beta \to 0} \ln \operatorname{var}_{GX}) = \lim_{\beta\to \infty} (\lim_{\alpha\to 0} \ln \operatorname{var}_{G(1-X)}) = \infty\\

&\lim_{\alpha\to 0} (\lim_{\beta \to 0} \ln \operatorname{cov}_{GX,(1-X)}) = \lim_{\beta\to 0} (\lim_{\alpha\to 0} \ln \operatorname{cov}_{GX,(1-X)}) = - \infty

\end{align}

ln(var''GX'')와 ln(var''G''(1 − ''X''))는 모두 비대칭이지만, 형상 매개변수가 동일할 때 α = β이면, ln(var''GX'') = ln(var''G(1−X)'')이다. 이 등식은 두 로그 기하 분산 간에 표시된 다음 대칭에서 따온다.

:\ln \operatorname{var}_{GX}(\Beta(\alpha, \beta))=\ln \operatorname{var}_{G(1-X)}(\Beta(\beta, \alpha)).

로그 기하 공분산은 대칭이다.

:\ln \operatorname{cov}_{GX,(1-X)}(\Beta(\alpha, \beta) )=\ln \operatorname{cov}_{GX,(1-X)}(\Beta(\beta, \alpha))

3. 2. 3. 평균 절대 편차

모수 α와 β를 갖는 베타 분포의 평균에 대한 평균 절대 편차는 다음과 같다.[18]

:\operatorname{E}[|X - E[X]|] = \frac{2 \alpha^\alpha \beta^\beta}{\Beta(\alpha,\beta)(\alpha + \beta)^{\alpha + \beta + 1}}

평균에 대한 평균 절대 편차는 모드의 각 측면에 꼬리와 변곡점이 있는 베타 분포, 즉 α, β > 2인 베타(''α'', ''β'') 분포의 통계적 분산에 대한 강건한 추정량이다. 이는 평균에서의 제곱 편차가 아닌 선형(절대) 편차에 따라 달라지기 때문이다. 따라서 평균에서 매우 큰 편차의 영향은 과도하게 가중되지 않는다.

스털링 근사를 감마 함수에 사용하면 N.L.Johnson과 S.Kotz[6]는 형상 모수가 1보다 큰 값에 대해 다음과 같은 근사를 도출했다(이 근사의 상대 오차는 ''α'' = ''β'' = 1에 대해 -3.5%에 불과하며, ''α'' → ∞, ''β'' → ∞로 갈수록 0으로 감소한다):

: \begin{align}

\frac{\text{mean abs. dev. from mean}}{\text{standard deviation}} &=\frac{\operatorname{E}[|X - E[X]|]}{\sqrt{\operatorname{var}(X)}}\\

&\approx \sqrt{\frac{2}{\pi}} \left(1+\frac{7}{12 (\alpha+\beta)}{}-\frac{1}{12 \alpha}-\frac{1}{12 \beta} \right), \text{ if } \alpha, \beta > 1.

\end{align}

α → ∞, β → ∞의 극한에서 (베타 분포에 대한) 평균 절대 편차와 표준 편차의 비율은 정규 분포에 대한 동일한 척도의 비율인 \sqrt{\frac{2}{\pi}}와 같게 된다. α = β = 1의 경우 이 비율은 \frac{\sqrt{3}}{2}와 같으므로 α = β = 1에서 α, β → ∞로 갈수록 비율은 8.5% 감소한다. α = β = 0의 경우 표준 편차는 평균에 대한 평균 절대 편차와 정확히 같다. 따라서 이 비율은 α = β = 0에서 α = β = 1로 갈수록 15% 감소하고, α = β = 0에서 α, β → ∞로 갈수록 25% 감소한다. 그러나 α → 0 또는 β → 0과 같이 왜곡된 베타 분포의 경우, 표준 편차와 평균 절대 편차의 비율은 무한대에 접근한다(각각은 개별적으로 0에 접근하지만) 평균 절대 편차가 표준 편차보다 더 빨리 0에 접근하기 때문이다.

평균 μ 및 표본 크기 ν = α + β > 0의 통계적 매개변수를 사용하여:

:α = μν, β = (1−μ)ν

평균 μ와 표본 크기 ν의 관점에서 평균에 대한 평균 절대 편차를 다음과 같이 표현할 수 있다.

:\operatorname{E}[| X - E[X]|] = \frac{2 \mu^{\mu\nu} (1-\mu)^{(1-\mu)\nu}}{\nu \Beta(\mu \nu,(1-\mu)\nu)}

대칭 분포의 경우 평균은 분포의 중앙에 있고, μ = 1/2이므로 다음과 같다.

: \begin{align}

\operatorname{E}[|X - E[X]|] = \frac{2^{1-\nu}}{\nu \Beta(\tfrac{\nu}{2} ,\tfrac{\nu}{2})} &= \frac{2^{1-\nu}\Gamma(\nu)}{\nu (\Gamma(\tfrac{\nu}{2}))^2 } \\

\lim_{\nu \to 0} \left (\lim_{\mu \to \frac{1}{2}} \operatorname{E}[|X - E[X]|] \right ) &= \tfrac{1}{2}\\

\lim_{\nu \to \infty} \left (\lim_{\mu \to \frac{1}{2}} \operatorname{E}[| X - E[X]|] \right ) &= 0

\end{align}

또한, 다음 극한(극한에 접근하는 변수만 표시됨)은 위의 식으로 얻을 수 있다.

: \begin{align}

\lim_{\beta\to 0} \operatorname{E}[|X - E[X]|] &=\lim_{\alpha \to 0} \operatorname{E}[|X - E[X]|]= 0 \\

\lim_{\beta\to infty} \operatorname{E}[|X - E[X]|] &=\lim_{\alpha \to \infty} \operatorname{E}[|X - E[X]|] = 0\\

\lim_{\mu \to 0} \operatorname{E}[|X - E[X]|]&=\lim_{\mu \to 1} \operatorname{E}[|X - E[X]|] = 0\\

\lim_{\nu \to 0} \operatorname{E}[|X - E[X]|] &= \sqrt{\mu (1-\mu)} \\

\lim_{\nu \to \infty} \operatorname{E}[|X - E[X]|] &= 0

\end{align}

알파와 베타가 0에서 5까지의 베타 분포에 대한 평균 절대 편차 대 표준 편차 비율


평균 0 ≤ μ ≤ 1 및 표본 크기 0 < ν ≤ 10인 베타 분포의 평균 절대 편차 대 표준 편차 비율

3. 2. 4. 평균 절대 차이

베타 분포의 평균 절대 차이는 다음과 같다.

:\mathrm{MD} = \int_0^1 \int_0^1 f(x;\alpha,\beta)\,f(y;\alpha,\beta)\,|x-y|\,dx\,dy = \left(\frac{4}{\alpha+\beta}\right)\frac{B(\alpha+\beta,\alpha+\beta)}{B(\alpha,\alpha)B(\beta,\beta)}

3. 3. 왜도

베타 분포의 왜도는 평균을 중심으로 하는 세 번째 모멘트를 분산의 3/2 제곱으로 정규화한 값으로, 다음과 같이 표현된다.[6]

:\gamma_1 =\frac{\operatorname{E}[(X - \mu)^3]}{(\operatorname{var}(X))^{3/2}} = \frac{2(\beta - \alpha)\sqrt{\alpha + \beta + 1}}{(\alpha + \beta + 2) \sqrt{\alpha \beta}} .

α = β 이면 γ1 = 0 이 되므로, 분포는 대칭이 된다. α < β 일 때는 양의 왜도(오른쪽 꼬리), α > β 일 때는 음의 왜도(왼쪽 꼬리)를 가진다.

평균 μ와 표본 크기 ν = α + β 를 사용하여 왜도를 표현하면 다음과 같다.

:\gamma_1 =\frac{\operatorname{E}[(X - \mu)^3]}{(\operatorname{var}(X))^{3/2}} = \frac{2(1-2\mu)\sqrt{1+\nu}}{(2+\nu)\sqrt{\mu (1 - \mu)}}.

분산 ''var''과 평균 μ의 함수로 왜도를 표현하면 다음과 같다.

:\gamma_1 =\frac{\operatorname{E}[(X - \mu)^3]}{(\operatorname{var}(X))^{3/2}} = \frac{2(1-2\mu)\sqrt{\text{ var }}}{ \mu(1-\mu) + \operatorname{var}}\text{ if } \operatorname{var} < \mu(1-\mu)

분산과 평균의 함수로 나타낸 베타 분포의 왜도


최대 분산(1/4)은 왜도 0 및 대칭 조건(μ = 1/2)과 결합되고, 최대 왜도(양 또는 음의 무한대)는 평균이 한쪽 끝에 위치하여 확률 분포의 "질량"이 양쪽 끝에 집중될 때(최소 분산) 발생한다.

표본 크기 ν = α + β와 분산 ''var''의 함수로 나타낸 왜도의 제곱은 다음과 같이 네 가지 매개변수의 적률 추정 방법에 사용될수 있다.

:(\gamma_1)^2 =\frac{(\operatorname{E}[(X - \mu)^3])^2}{(\operatorname{var}(X))^3} = \frac{4}{(2+\nu)^2}\bigg(\frac{1}{\text{var}}-4(1+\nu)\bigg)

이 식은 α = β일 때 왜도가 0임을 정확하게 보여준다.

대칭 사례(α = β)의 경우 왜도는 0이며, 비대칭 사례(α ≠ β)의 경우 특정 조건에서 왜도는 양 또는 음의 무한대로 수렴할 수 있다.

3. 4. 첨도

베타 분포의 첨도는 기어 손상 평가를 위한 음향 분석 및 사람 발소리에서 발생하는 지진 신호 구분에 사용된다.[13][14] Abramowitz와 Stegun[16]은 초과 첨도에 대해 다른 용어를 사용하며, 일반적으로 다음과 같이 표기한다.[17][18][19]

:\begin{align}

\text{초과 첨도}

&=\text{첨도} - 3\\

&=\frac{\operatorname{E}[(X - \mu)^4]}}-3\\

&=\frac{6[\alpha^3-\alpha^2(2\beta - 1) + \beta^2(\beta + 1) - 2\alpha\beta(\beta + 2)]}{\alpha \beta (\alpha + \beta + 2)(\alpha + \beta + 3)}\\

&=\frac{6[(\alpha - \beta)^2 (\alpha +\beta + 1) - \alpha \beta (\alpha + \beta + 2)]}

{\alpha \beta (\alpha + \beta + 2) (\alpha + \beta + 3)} .

\end{align}

위 식에서 α = β로 놓으면 다음과 같이 정리된다.

:\text{초과 첨도} =- \frac{6}{3+2\alpha} \text{ if }\alpha=\beta .

따라서 대칭 베타 분포의 경우 초과 첨도는 음수이며, {α = β} → 0으로 갈 때 최소값 −2에서 증가하고 {α = β} → ∞으로 갈 때 최대값 0에 접근한다. −2는 모든 종류의 임의의 분포가 달성할 수 있는 초과 첨도의 최소값이며, 확률 밀도가 양 끝 ''x'' = 0 및 ''x'' = 1에 완전히 집중될 때 도달한다. 이는 각 끝에서 1/2의 동일한 확률을 갖는 2점 베르누이 분포의 경우와 같다.[30]

평균 μ 및 표본 크기 ν = α + β로 통계적 매개변수를 사용하면, 초과 첨도는 다음과 같이 표현할 수 있다.

:\text{초과 첨도} =\frac{6}{3 + \nu}\bigg (\frac{(1 - 2 \mu)^2 (1 + \nu)}{\mu (1 - \mu) (2 + \nu)} - 1 \bigg )

또한, 초과 첨도는 분산 ''var''과 표본 크기 ν, 또는 분산 ''var''과 평균 μ로 표현될 수 있다.

:\text{초과 첨도} =\frac{6}{(3 + \nu)(2 + \nu)}\left(\frac{1}{\text{ var }} - 6 - 5 \nu \right)\text{ if }\text{ var }< \mu(1-\mu)

:\text{초과 첨도} =\frac{6 \text{ var } (1 - \text{ var } - 5 \mu (1 - \mu) )}{(\text{var } + \mu (1 - \mu))(2\text{ var } + \mu (1 - \mu) )}\text{ if }\text{ var }< \mu(1-\mu)

분산과 평균의 함수로 초과 첨도를 나타낼 때, 초과 첨도의 최소값 (−2)은 분산의 최대값 (1/4) 및 대칭 조건 (μ = 1/2)과 관련되어 있다. 이는 α = β = 0인 대칭 경우에 해당하며, 각 끝에 1/2의 동일한 확률을 갖는 2점 베르누이 분포와 같다.

초과 첨도는 왜도의 제곱과 표본 크기 ν로도 표현할 수 있다.

:\text{초과 첨도} =\frac{6}{3 + \nu}\bigg(\frac{(2 + \nu)}{4} (\text{왜도})^2 - 1\bigg)\text{ if (skewness)}^2-2< \text{excess kurtosis}< \frac{3}{2} (\text{skewness})^2

대칭적인 경우 (''α'' = ''β'')와 비대칭적인 경우 (''α'' ≠ ''β'')에 따라 초과 첨도의 한계가 달라진다.

3. 5. 특성 함수

특성 함수는 확률 밀도 함수의 푸리에 변환이다.[6][16][20] 베타 분포의 특성 함수는 쿠머의 합류형 초기하 함수 (제1종)이다.[6][16][20]

베타 분포의 특성함수는 다음과 같이 표현된다.

:\begin{align}

\varphi_X(\alpha;\beta;t)

&= \operatorname{E}\left[e^{itX}\right]\\

&= \int_0^1 e^{itx} f(x;\alpha,\beta) \, dx \\

&={}_1F_1(\alpha; \alpha+\beta; it)\!\\

&=\sum_{n=0}^\infty \frac {\alpha^{(n)} (it)^n} {(\alpha+\beta)^{(n)} n!}\\

&= 1 +\sum_{k=1}^{\infty} \left( \prod_{r=0}^{k-1} \frac{\alpha+r}{\alpha+\beta+r} \right) \frac{(it)^k}{k!}

\end{align}

여기서 x^{(n)}=x(x+1)(x+2)\cdots(x+n-1)는 상승 계승이며, "포흐하머 기호"라고도 한다. 특성 함수 값은 ''t'' = 0일 때 1이다.

: \varphi_X(\alpha;\beta;0)={}_1F_1(\alpha; \alpha+\beta; 0) = 1.

또한, 특성 함수의 실수부와 허수부는 변수 ''t''의 원점에 대해 다음과 같은 대칭성을 갖는다.

: \operatorname{Re} \left [ {}_1F_1(\alpha; \alpha+\beta; it) \right ] = \operatorname{Re} \left [ {}_1F_1(\alpha; \alpha+\beta; - it) \right ]

: \operatorname{Im} \left [ {}_1F_1(\alpha; \alpha+\beta; it) \right ] = - \operatorname{Im} \left [ {}_1F_1(\alpha; \alpha+\beta; - it) \right ]

대칭 사례 α = β는 베셀 함수로 베타 분포의 특성 함수를 단순화한다. α + β = 2α인 특수한 경우에 합류형 초기하 함수 (제1종)가 베셀 함수 (수정된 제1종 베셀 함수 I_{\alpha-\frac 1 2} )로 축소되기 때문이다. 쿠머의 두 번째 변환을 사용하여 다음과 같이 표현된다.

:\begin{align} {}_1F_1(\alpha;2\alpha; it) &= e^{\frac{it}{2}} {}_0F_1 \left(; \alpha+\tfrac{1}{2}; \frac{(it)^2}{16} \right) \\

&= e^{\frac{it}{2}} \left(\frac{it}{4}\right)^{\frac{1}{2}-\alpha} \Gamma\left(\alpha+\tfrac{1}{2}\right) I_{\alpha-\frac 1 2}\left(\frac{it}{2}\right).\end{align}

베타 분포의 실수부 (Re) 특성 함수는 대칭(α = β) 및 왜곡(α ≠ β) 사례에 대해 표시된다.










3. 6. 다른 분포와의 관계


  • ''X'' ~ 베타(''α'', ''β'')이면 1 − ''X'' ~ 베타(''β'', ''α'')이며 거울상 대칭을 이룬다.
  • ''X'' ~ 베타(''α'', ''β'')이면 \tfrac{X}{1-X} \sim {\beta'}(\alpha,\beta)이다. 이는 "제2종 베타 분포"라고도 불리는 베타 프라임 분포를 따른다.
  • X\sim\text{베타}(\alpha,\beta)이면, Y=\log\frac{X}{1-X}는 밀도가 \frac{\sigma(y)^\alpha\sigma(-y)^\beta}{B(\alpha,\beta)}인 일반화된 로지스틱 분포를 따르며, 여기서 \sigma는 로지스틱 시그모이드 함수이다.
  • ''X'' ~ 베타(''α'', ''β'')이면 \tfrac{1}{X} -1 \sim {\beta'}(\beta,\alpha)이다.
  • X\sim\text{베타}(\alpha_1,\beta_1)이고 Y\sim\text{베타}(\alpha_2,\beta_2)이면, Z = \tfrac{X}{Y}0 < z \leq 1 일 때 밀도 \tfrac{B(\alpha_1 +\alpha_2, \beta_2) z^{\alpha_1 - 1} {}_2F_1(\alpha_1 + \alpha_2, 1- \beta_1; \alpha_1 +\alpha_2 + \beta_2; z) }{B(\alpha_1, \beta_1)B(\alpha_2, \beta_2)} 를 가지며, z \geq 1 일 때 밀도 \tfrac{B(\alpha_1 +\alpha_2, \beta_1) z^{-(\alpha_2 + 1)} {}_2F_1(\alpha_1 + \alpha_2, 1- \beta_2; \alpha_1 +\alpha_2 + \beta_1; \tfrac{1}{z})}{B(\alpha_1, \beta_1)B(\alpha_2, \beta_2)} 를 가지며, 여기서 {}_2F_1(a, b; c; x)는 초기하 함수이다.
  • ''X'' ~ 베타(''n''/2, ''m''/2)이면 \tfrac{mX}{n(1-X)} \sim F(n,m) (단, ''n'' > 0 및 ''m'' > 0이라고 가정)이며, 이는 피셔–스네데코어 F 분포를 따른다.
  • X \sim \operatorname{베타}\left(1+\lambda\tfrac{m-\min}{\max-\min}, 1 + \lambda\tfrac{\max-m}{\max-\min}\right)이면 min + ''X''(max − min) ~ PERT(min, max, ''m'', ''λ'')이며, 여기서 ''PERT''는 PERT 분포를 나타내며, 이는 PERT 분석에 사용되며, ''m''은 최빈값을 나타낸다. 전통적으로[70] PERT 분석에서 ''λ'' = 4이다.
  • ''X'' ~ 베타(1, ''β'')이면 ''X'' ~ 쿠마라스와미 분포 (매개변수 (1, ''β''))를 따른다.
  • ''X'' ~ 베타(''α'', 1)이면 ''X'' ~ 쿠마라스와미 분포 (매개변수 (''α'', 1))를 따른다.
  • ''X'' ~ 베타(''α'', 1)이면 −ln(''X'') ~ 지수(''α'')를 따른다.
  • Beta(1, 1) ~ U(0, 1)는 해당 구간에서 밀도가 1이다.
  • Beta(n, 1) ~ 독립적인 ''n''개의 확률 변수의 최대값. U(0, 1), 때때로 해당 구간에서 밀도가 ''n'' ''x''''n''–1인 ''표준 거듭제곱 함수 분포''라고도 한다.
  • Beta(1, n) ~ 독립적인 ''n''개의 확률 변수의 최소값. U(0, 1)는 해당 구간에서 밀도가 ''n''(1 − ''x'')''n''−1이다.
  • ''X'' ~ Beta(3/2, 3/2)이고 ''r'' > 0이면 2''rX'' − ''r'' ~ 비그너 반원 분포이다.
  • Beta(1/2, 1/2)는 아크사인 분포와 같다. 이 분포는 또한 베르누이 분포이항 분포에 대한 제프리스 사전확률이다.

Beta(1/2, 1/2): 아크사인 분포 확률 밀도는 베이즈 추론에서 베르누이 분포 또는 이항 분포에 대한 불확실성을 나타내기 위해 해럴드 제프리스에 의해 제안되었으며, 현재 제프리스 사전확률로 일반적으로 언급된다: ''p''−1/2(1 − ''p'')−1/2. 이 분포는 또한 여러 임의 보행 기본 정리에서도 나타난다


0에서 시작하는 1차원 임의 보행의 8가지 실현 예: 원점에 마지막으로 방문하는 시간의 확률은 Beta(1/2, 1/2)로 분포한다

  • \lim_{n \to \infty} n \operatorname{Beta}(1,n) = \operatorname{Exponential}(1)는 지수 분포이다.
  • \lim_{n \to \infty} n \operatorname{Beta}(k,n) = \operatorname{Gamma}(k,1)는 감마 분포이다.
  • n에 대해, \operatorname{Beta}(\alpha n,\beta n) \to \mathcal{N}\left(\frac{\alpha}{\alpha+\beta},\frac{\alpha\beta}{(\alpha+\beta)^3}\frac{1}{n}\right)는 정규 분포이다. 더 정확하게, X_n \sim \operatorname{Beta}(\alpha n,\beta n)이면 \sqrt{n}\left(X_n -\tfrac{\alpha}{\alpha+\beta}\right)은 ''n''이 증가함에 따라 평균 0과 분산 \tfrac{\alpha\beta}{(\alpha+\beta)^3}인 정규 분포로 분포 수렴한다.
  • 크기 ''n''의 균등 분포 표본에서 ''k''번째 순서 통계량은 베타 확률 변수이며, ''U''(''k'') ~ Beta(''k'', ''n''+1−''k'')이다.[66]
  • ''X'' ~ Gamma(α, θ) 및 ''Y'' ~ Gamma(β, θ)가 독립적이라면, \tfrac{X}{X+Y} \sim \operatorname{Beta}(\alpha, \beta)\,이다.
  • X \sim \chi^2(\alpha)\,Y \sim \chi^2(\beta)\,가 독립적이라면, \tfrac{X}{X+Y} \sim \operatorname{Beta}(\tfrac{\alpha}{2}, \tfrac{\beta}{2})이다.
  • ''X'' ~ U(0, 1)이고 ''α'' > 0이면, ''X''1/''α'' ~ Beta(''α'', 1)이다. 이것은 멱함수 분포이다.
  • ''X'' ~ Cauchy(0, 1)이면, \tfrac{1}{1+X^2} \sim \operatorname{Beta}\left(\tfrac12, \tfrac12\right)\,이다.
  • ''X'' ~ 베타(''α'', ''β'')이고 ''Y'' ~ F(2''β'',2''α'')이면 모든 ''x'' > 0에 대해 \Pr(X \leq \tfrac \alpha {\alpha+\beta x}) = \Pr(Y \geq x)\,이다.
  • ''p'' ~ Beta(α, β)이고 ''X'' ~ Bin(''k'', ''p'')이면 ''X'' ~ 베타-이항 분포이다.
  • ''p'' ~ Beta(α, β)이고 ''X'' ~ NB(''r'', ''p'')이면 ''X'' ~ 베타-음이항 분포이다.
  • 여러 변수로의 일반화, 즉 다변량 베타 분포를 디리클레 분포라고 한다. 디리클레 분포의 일변량 주변 분포는 베타 분포를 갖는다. 베타 분포는 켤레이며 이항 분포 및 베르누이 분포에 대해 디리클레 분포가 다항 분포 및 범주형 분포에 켤레인 방식과 정확히 동일하다.
  • 피어슨 제1형 분포는 베타 분포와 동일하다(베타 분포의 4개 매개변수화로도 수행할 수 있는 임의의 이동 및 재스케일링 제외).
  • 베타 분포는 \lambda = 0인 비중심 베타 분포의 특수한 경우이다: \operatorname{Beta}(\alpha, \beta) = \operatorname{NonCentralBeta}(\alpha,\beta,0).
  • 일반화된 베타 분포는 베타 분포를 특수한 경우로 갖는 5개 매개변수 분포 계열이다.
  • 행렬 변량 베타 분포는 양의 정부호 행렬에 대한 분포이다.
  • \alpha=\beta=1/2일 때, 역정현 분포(Arcsine distribution)가 된다.
  • \alpha=\beta=1일 때, 균등 분포가 된다.

4. 응용

베타 분포는 다양한 분야에서 응용된다. 다운링크 빔포밍에 쓰이며,[66] 순서 통계량 이론에서 중요한 역할을 한다. 연속 균등 분포에서 크기가 ''n''인 표본 중 ''k''번째로 작은 값의 분포는 베타 분포를 따른다.[66]

주관적 논리에서는 이진 사건의 사후 확률 추정치를 베타 분포로 나타낼 수 있다.[67] 베타 웨이블릿은 신호 처리에서 오디오 신호 및 이미지 등의 데이터에서 정보를 추출하는 데 사용되며, 두 형상 매개변수 α와 β에 의해 모양이 미세 조정되는 하르 웨이블릿의 부드러운 변형으로 볼 수 있다.[68]

인구 유전학에서 사용되는 발딩-니콜스 모형은 하위 집단으로 세분화된 모집단의 대립 유전자 빈도에 대한 통계적 설명을 제공한다.[69]

베타 분포는 최소값과 최대값으로 정의된 간격 내에서 발생하는 이벤트를 모델링하는 데 적합하다. 따라서 PERT, 임계 경로 기법(CPM) 등 프로젝트 관리에서 작업 완료 시간 및 비용을 설명하는 데 널리 사용된다.[70] 프로젝트 관리에서는 베타 분포의 평균표준 편차를 추정하기 위해 약식 계산이 사용되는데, 평균 40%, 분산 549%의 평균 오차를 나타낼 수 있는 형편없는 근사치일 수 있다.[71][72][73]

참조

[1] 서적 Statistical Decision Theory and Bayesian Analysis Springer
[2] 서적 An Introduction to Probability Theory and Its Applications, Vol. 2 https://archive.org/[...] Wiley
[3] 서적 Introduction to Probability and Random Variables https://archive.org/[...] McGraw-Hill
[4] 서적 Doing Bayesian data analysis: A tutorial with R and BUGS Academic Press / Elsevier
[5] 서적 Doing Bayesian Data Analysis: A Tutorial with R, JAGS and Stan Academic Press / Elsevier
[6] 서적 Continuous Univariate Distributions Vol. 2 Wiley
[7] 서적 Introduction to Probability and Random Variables https://archive.org/[...] McGraw-Hill
[8] 서적 Mathematical Statistics with MATHEMATICA Springer
[9] 서적 Data Analysis and Regression: A Second Course in Statistics https://archive.org/[...] Addison-Wesley Pub. Co.
[10] 서적 An Introduction to Probability Theory and Its Applications Wiley
[11] 간행물 How not to lie with statistics: the correct way to summarize benchmark results 1986-03
[12] 웹사이트 NIST/SEMATECH e-Handbook of Statistical Methods 1.3.6.6.17. Beta Distribution http://www.itl.nist.[...] Information Technology Laboratory 2016-05-31
[13] 논문 On the application of the beta distribution to gear damage analysis
[14] 논문 The Statistical Meaning of Kurtosis and Its New Application to Identification of Persons Based on Seismic Signals 2008-08-27
[15] 서적 Mathematics of Statistics Part Two, 2nd edition D. Van Nostrand Company Inc.
[16] 서적 Handbook Of Mathematical Functions With Formulas, Graphs, And Mathematical Tables https://archive.org/[...] Dover
[17] 웹사이트 Kurtosis http://mathworld.wol[...] MathWorld--A Wolfram Web Resource 2012-08-13
[18] 서적 Handbook of Beta Distribution and Its Applications CRC Press
[19] 서적 Advanced Statistics from an Elementary Point of View Academic Press
[20] 서적 Table of Integrals, Series, and Products Academic Press, Inc. 2015
[21] 서적 Probability and measure Wiley-Interscience 1995
[22] 서적 Information Theory, Inference and Learning Algorithms Cambridge University Press; First Edition
[23] 논문 Systems of frequency curves generated by methods of translation http://dml.cz/bitstr[...]
[24] 논문 On the entropy of continuous probability distributions
[25] 논문 A Mathematical Theory of Communication
[26] 서적 Elements of Information Theory 2nd Edition (Wiley Series in Telecommunications and Signal Processing) Wiley-Interscience; 2 edition
[27] 서적 Exercises in Rethinking Innateness: A Handbook for Connectionist Simulations (Neural Network Modeling and Connectionism) https://archive.org/[...] A Bradford Book
[28] 학위논문 The smoothed dirichlet distribution: understanding cross-entropy ranking in information retrieval http://maroo.cs.umas[...] Computer Science Dept., University of Massachusetts Amherst
[29] 논문 A closed-form approximation for the median of the beta distribution 2011
[30] 논문 Mathematical contributions to the theory of evolution, XIX: Second supplement to a memoir on skew variation
[31] 논문 Some historical reflections traced through the development of the use of frequency curves http://www.smu.edu/D[...] 1969-07
[32] 서적 Statistical Models in Engineering (Wiley Classics Library) Wiley-Interscience
[33] 논문 Contributions to the mathematical theory of evolution, II: Skew variation in homogeneous material
[34] 서적 2016 IEEE Radar Conference (RadarConf) 2016-05
[35] 서적 2017 IEEE Radar Conference (RadarConf) 2017-05
[36] 논문 Theory and Applications of Aperiodic (Random) Phased Arrays http://oaktrust.libr[...] 2014-05-29
[37] 논문 Distributions of the ratios of independent beta variables and applications https://doi.org/10.1[...] 2024-11-13
[38] 간행물 Revisiting the PERT mean and Variance European Journal of Operational Research 2011
[39] 웹사이트 1.3.6.6.17. Beta Distribution https://www.itl.nist[...]
[40] 서적 Systems of Frequency Curves Cambridge University Press
[41] 논문 The beta distribution, moment method, Karl Pearson and R.A. Fisher http://www.csm.ornl.[...]
[42] 논문 Comparing measures of sample skewness and kurtosis
[43] 논문 Maximum likelihood estimation for the beta distribution
[44] 논문 Maximum likelihood estimation of the parameters of the beta distribution from smallest order statistics
[45] 웹사이트 Inverse Digamma Function (Matlab) http://hips.seas.har[...] Harvard University School of Engineering and Applied Sciences 2012-08-18
[46] 서적 Statistical Inference Chapman and Hal
[47] 서적 Likelihood The Johns Hopkins University Press
[48] 서적 Probability theory, the logic of science Cambridge University Press
[49] 서적 On the similarity of the entropy power inequality and the Brunn Minkowski inequality https://isl.stanford[...] Tech.Report 48, Dept. Statistics, Stanford University 1983-09
[50] 논문 Information matrix for beta distributions http://www.math.bas.[...]
[51] 서적 A philosophical essay on probabilities https://archive.org/[...] New York : J. Wiley; London : Chapman & Hall
[52] 서적 Algebra of Probable Inference The Johns Hopkins University Press
[53] 서적 A Treatise on Probability: The Connection Between Philosophy and the History of Science Wildside Press
[54] 논문 On the Influence of Past Experience on Future Expectation
[55] 논문 On the relation between induction and probability 1918-10
[56] 논문 Some observations on inverse probability including a new indifference rule http://www.actuaries[...] 2012-09-19
[57] 논문 A note on inverse probability
[58] 서적 An Introduction to Bayesian Inference in Econometrics Wiley-Interscience
[59] 서적 Theory of Probability Oxford University Press, 3rd edition
[60] 논문 An Invariant Form for the Prior Probability in Estimation Problems 1946-09
[61] 논문 The formal definition of reference priors http://projecteuclid[...]
[62] 논문 Jeffreys' prior is asymptotically least favorable under entropy risk http://www.stat.yale[...]
[63] 서적 The Grammar of Science https://books.google[...] Walter Scott, London
[64] 서적 The Grammar of Science BiblioLife
[65] 서적 Bayesian Data Analysis Chapman and Hall/CRC
[66] 서적 Order Statistics Wiley, New Jersey 2003
[67] 논문 A Logic for Uncertain Probabilities http://www.unik.no/p[...] 2001-06
[68] 논문 Compactly Supported One-cyclic Wavelets Derived from Beta Distributions 2005
[69] 논문 A method for quantifying differentiation between populations at multi-allelic loci and its implications for investigating identity and paternity Springer
[70] 논문 Application of a Technique for Research and Development Program Evaluation 1958-09
[71] 논문 Better Estimation of PERT Activity Time Parameters
[72] 논문 Three-point Approximations for Continuous Random variables
[73] 웹사이트 Defense Resource Management Institute - Naval Postgraduate School https://www.nps.edu/[...]
[74] 서적 Mathematical Statistics Springer
[75] 논문 On normalizing the incomplete beta-function for fitting to dose-response curves 1960-06
[76] 학술지 An Essay towards solving a Problem in the Doctrine of Chances
[77] 학술지 Karl Pearson. 1857–1936
[78] 웹사이트 Library and Archive catalogue http://www2.royalsoc[...] Royal Society 2011-07-01
[79] 서적 Frequency-Curves and Correlation https://archive.org/[...] Charles and Edwin Layton (London)
[80] 학술지 Method of moments and method of maximum likelihood 1936-06
[81] 서적 Annotated Readings in the History of Statistics Springer; 1 edition
[82] 학술지 Considerazioni Sulle Probabilità Posteriori e Applicazioni al Rapporto dei Sessi Nelle Nascite Umane
[83] 서적 Leading Personalities in Statistical Sciences: From the Seventeenth Century to the Present (Wiley Series in Probability and Statistics Wiley
[84] 웹사이트 Biography of Corrado Gini http://www.metronjou[...] Metron Journal 2012-08-18



본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.

문의하기 : help@durumis.com