사전 확률
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
1. 개요
사전 확률 분포는 베이즈 추론에서 데이터가 얻어지기 전에 불확실한 양에 대해 개인이 가지고 있는 불확실성을 나타내는 확률 분포이다. 이는 주관적인 믿음을 표현하며, 우도 함수와 결합하여 사후 확률 분포를 계산하는 데 사용된다. 사전 확률 분포는 정보의 양과 주관성에 따라 정보적, 약정보, 무정보 사전 확률 등으로 분류되며, 켤레 사전 확률도 사용된다. 무정보 사전 확률을 결정하는 방법으로는 무차별 원리, 최대 엔트로피 원리, 제프리스 사전 확률 등이 있으며, 통계 역학에서도 시스템의 초기 상태를 설명하는 데 활용된다. 한국 사회에서는 정치, 여론조사, 사회 현상 분석, 정책 결정 등 다양한 분야에서 활용될 수 있으며, 사전 확률 설정 시 편향에 주의해야 한다.
베이즈 추론에서 사전 확률 분포는 불확실한 양에 대한 확률 분포로, 데이터를 얻기 전의 믿음을 나타낸다. 이는 주관적인 판단이나 사전 정보를 기반으로 결정된다. 베이즈 정리를 통해 우도 함수와 결합하여 사후 확률 분포를 계산하는 데 사용된다.[5]
베이즈 추론에서 사전 확률 분포는, 어떤 불확실한 양에 대한 정보를 나타내는 확률 분포이다. 예를 들어, 미래 선거에서 특정 정치인에게 투표할 유권자 비율과 같은 불확실한 양 ''p''에 대해, 데이터 (예: 여론 조사)를 얻기 전에 ''p''에 대해 가지고 있는 (주관적인) 불확실성을 나타낸다.
무정보 사전 확률은 주관성을 배제하고 객관적인 정보를 반영하기 위해 다양한 방법으로 결정된다. "무정보 사전 확률"이라는 용어는 "그다지 정보가 없는 사전 확률" 또는 "객관적 사전 확률"이라고도 불린다.[5]
2. 사전 확률 분포의 개념
사전 확률은 종종 주관적인 경험자의 평가를 의미하며, 사전에 가지고 있는 정보를 나타내는 것으로 해석된다. 사전 분포로 어떤 것을 사용할지는 경우에 따라 다르며, 사람에 따라 생각하는 방식도 다르다. 예를 들어, 분산에 관한 정보가 있는 경우(오늘까지 매일 정시의 기온으로부터 내일 정시의 기온을 예상하는 경우)를 정보 사전 분포라고 한다. 반면, 정보가 없는 경우를 무정보 사전 분포라고 한다. 무정보 사전 분포는 넓고 얇은 신념을 표명하는 형상이 바람직하며, 그 일종으로 균일 분포가 있지만, 이 외에도 다수의 이론 분포가 존재한다. 무정보 사전 분포는 공적 분석에 사용된다.
또한, 사전 분포와 사후 분포가 같은 확률 분포족에 속한다고 가정하는 켤레 사전 분포도 사용된다.
3. 사전 확률 분포의 유형
사전 확률은 순수하게 주관적인 경험자의 평가를 의미하는 경우가 많으며, 사전에 가진 정보를 나타내는 것으로 해석된다. 사전 분포는 상황과 사람에 따라 다르게 사용될 수 있다.
사전 확률 분포는 정보량과 주관성의 정도에 따라 여러 유형으로 분류될 수 있다.3. 1. 정보적 사전 확률 (Informative Priors)
''정보적 사전 확률''은 변수에 대한 구체적이고 명확한 정보를 표현한다.
예를 들어 내일 정오의 온도에 대한 사전 확률 분포를 생각해 볼 수 있다.
합리적인 접근 방식은 오늘 정오의 온도와 같은 기댓값을 갖고, 분산은 대기 온도의 일별 분산과 같거나, 해당 연도의 온도 분포를 갖는 정규 분포로 사전 확률을 만드는 것이다.
이 예시는 많은 사전 확률과 공통된 특징을 갖는데, 즉, 한 문제(오늘의 온도)에서 나온 사후 확률이 다른 문제(내일의 온도)의 사전 확률이 된다는 것이다. 이미 고려된 기존 증거는 사전 확률의 일부가 되며, 더 많은 증거가 축적됨에 따라 원래의 가정이 증거가 시사하는 가능성을 인정하는 한, 사후 확률은 원래의 가정보다는 증거에 의해 크게 결정된다. "사전 확률"과 "사후 확률"이라는 용어는 일반적으로 특정 데이터 또는 관찰을 기준으로 한다.
'''강력한 사전 확률'''은 새로운 정보를 고려한 후에도 현재의 가정, 이론, 개념 또는 아이디어가 기초하는 이전의 가정, 이론, 개념 또는 아이디어를 의미한다. 강력한 사전 확률은 사전 분포에 포함된 정보가 분석 중인 데이터에 포함된 정보를 압도하는 유익한 사전 확률의 한 유형이다. 베이즈 분석은 사전 확률에 포함된 정보와 데이터에서 추출한 정보를 결합하여 사후 분포를 생성하며, "강력한 사전 확률"의 경우 사전 분포에서 거의 변경되지 않는다.
3. 2. 약정보 사전 확률 (Weakly Informative Priors)
약정보 사전확률은 변수에 대한 부분적인 정보를 표현하며, 결과를 과도하게 제한하고 극단적인 추정치를 방지하면서 기존 지식에 부합하는 해답으로 분석을 유도한다.[1] 예를 들어, 내일 정오 세인트루이스의 온도를 사전 분포로 설정할 때, 평균 50°F, 표준 편차 40°F인 정규 분포를 사용하는 것이다.[1] 이는 온도를 약 -12.2°C~약 32.2°C 범위로 매우 느슨하게 제한하며, 약 -34.4°C 미만이거나 약 54.4°C 초과일 가능성은 작다.[1] 약정보 사전확률의 목적은 정규화, 즉 추론을 합리적인 범위 내로 유지하는 것이다.[1]
3. 3. 무정보 사전 확률 (Uninformative Priors)
Uninformative Priors영어는 변수에 대한 모호하거나 일반적인 정보를 표현한다.[5] "무정보 사전 확률"이라는 용어는 다소 부적절한 명칭이다. 이러한 사전 확률은 "그다지 정보가 없는 사전 확률" 또는 "객관적 사전 확률", 즉 주관적으로 유도되지 않은 사전 확률이라고도 할 수 있다.
무정보 사전 확률은 "변수는 양수이다" 또는 "변수는 어떤 제한보다 작다"와 같은 "객관적인" 정보를 표현할 수 있다. 무정보 사전 확률을 결정하는 가장 간단하고 오래된 규칙은 모든 가능성에 동일한 확률을 할당하는 무차별 원리이다. 매개변수 추정 문제에서 무정보 사전 확률을 사용하면 일반적으로 우도 함수가 무정보 사전 확률보다 더 많은 정보를 제공하므로 기존의 통계적 분석과 크게 다르지 않은 결과를 얻을 수 있다.
어떤 의미에서 논리적으로 자신의 불확실성 상태에 의해 요구되는 사전 확률, 즉 확률 분포를 찾으려는 시도가 있었다. 객관적 베이시안주의에 대한 가장 강력한 주장은 주로 대칭성의 결과와 최대 엔트로피 원리에 기반하여 에드윈 T. 제인스에 의해 제시되었다.
제인스(2003)는 사전 확률의 한 예로, 공이 A, B, C의 세 개의 컵 중 하나 아래에 숨겨져 있지만, 그 위치에 대한 다른 정보는 사용할 수 없는 상황을 제시하였다. 이 경우 ''p''(''A'') = ''p''(''B'') = ''p''(''C'') = 1/3의 ''균등 사전 확률''은 직관적으로 유일한 합리적인 선택으로 보인다. 컵의 레이블("A", "B", "C")을 서로 바꾸어도 문제는 동일하게 유지된다. 따라서 레이블의 순열이 공이 어느 컵 아래에 있는지에 대한 예측에 변화를 일으키는 사전 확률을 선택하는 것은 이상할 것이다. 균등 사전 확률은 이러한 불변성을 유지하는 유일한 사전 확률이다. 이 불변성 원리를 받아들인다면 균등 사전 확률이 이 지식 상태를 나타내는 논리적으로 올바른 사전 확률임을 알 수 있다. 이 사전 확률은 특정 지식 상태를 나타내는 올바른 선택이라는 점에서 "객관적"이지만, 세계의 관찰자 독립적인 특징이라는 의미에서는 객관적이지 않다.[11]
해럴드 제프리스는 제프리스 사전 확률 ''p''-1/2(1 - ''p'')-1/2과 같이 무정보 사전 확률을 설계하는 체계적인 방법을 고안했다.
매개변수 공간 ''X''가 베이시안 지식 상태를 불변으로 유지하는 자연 그룹 구조를 갖는 경우, 사전 확률은 Haar measure에 비례하도록 구성될 수 있다.[12] 이것은 위 예에서 세 개의 컵에 대한 균등 사전 확률을 정당화하기 위해 사용된 불변성 원리의 일반화로 볼 수 있다. 예를 들어, 물리학에서 우리는 실험이 좌표계의 원점을 선택하는 것과 관계없이 동일한 결과를 제공할 것으로 예상할 수 있다. 이것은 ''X''에 평행 이동 그룹의 그룹 구조를 유도하며, 이는 사전 확률을 상수 부적절 사전 확률로 결정한다. 마찬가지로, 일부 측정은 임의의 척도 선택(예: 센티미터 또는 인치 사용 여부에 관계없이, 물리적 결과는 동일해야 함)에 자연스럽게 불변이다.
에드윈 T. 제인스가 옹호한 또 다른 아이디어는 최대 엔트로피 원리 (MAXENT)를 사용하는 것이다. 엔트로피가 클수록 분포가 제공하는 정보는 적어진다. 따라서, ''X''에 대한 적절한 확률 분포 집합에서 엔트로피를 최대화함으로써, 집합을 정의하는 제약 조건과 일치하는 가장 적은 양의 정보를 포함하는 가장 무정보적인 분포를 찾을 수 있다. 예를 들어, 확률이 1로 정규화된다는 것만 주어진 이산 공간에 대한 최대 엔트로피 사전 확률은 각 상태에 동일한 확률을 할당하는 사전 확률이다. 그리고 연속적인 경우, 밀도가 평균 0, 분산 1로 정규화된다는 것이 주어진 최대 엔트로피 사전 확률은 표준 정규 분포이다.
관련된 아이디어인 참조 사전 확률은 호세-미겔 베르나르도에 의해 소개되었다. 여기서, 아이디어는 사전 확률에 대한 사후 분포의 기대 쿨백-라이블러 발산을 최대화하는 것이다. 이는 사전 밀도가 ''p''(''x'')일 때 X에 대한 예상 사후 정보를 최대화한다. 따라서 어떤 의미에서 ''p''(''x'')는 X에 대한 "최소 정보" 사전 확률이다. 참조 사전 확률은 점근적 한계에서 정의된다. 즉, 데이터 점의 수가 무한대로 갈 때 얻은 사전 확률의 한계를 고려한다.
참조 사전 확률은 다변량 문제에서 선택하는 객관적 사전 확률인 경우가 많다.
객관적 사전 확률 분포는 또한 정보 이론 또는 부호화 이론 (예: 최소 설명 길이) 또는 빈도주의 통계 (소위 확률 매칭 사전 확률 참조)와 같은 다른 원리에서 파생될 수 있다.[14]
무정보 사전 확률과 관련된 철학적 문제는 적절한 메트릭 또는 측정 척도의 선택과 관련이 있다.
3. 4. 켤레 사전 확률 (Conjugate Priors)
베이즈 추론에서 불확실한 양 ''p''의 '''사전 확률 분포'''(주로 '''사전 분포'''로 줄여 씀)는 데이터(예: 여론 조사)를 얻기 전에 ''p''에 대해 주관적으로 가지는 불확실성을 나타내는 확률 분포이다. 사전 확률은 주관적인 경험 평가를 의미하며, 사전에 가진 정보를 나타내는 것으로 해석된다.
사전 분포와 사후 분포가 같은 확률 분포족에 속하는 켤레 사전 분포도 사용된다. 켤레 사전 분포는 계산이 편리하여 많이 사용된다.
4. 무정보 사전 확률 결정 방법
무정보 사전 확률을 결정하는 주요 방법은 다음과 같다.
각 방법은 장단점을 가지며, 문제 상황에 따라 적절한 방법을 선택해야 한다. 제프리스 사전 확률은 단일 매개변수 문제에서 참조 사전 확률과 동일하지만, 다변량 문제에서는 참조 사전 확률이 더 선호된다.
무정보 사전 확률은 변수에 대한 모호하거나 일반적인 정보를 표현하며,[5] "변수는 양수이다" 또는 "변수는 어떤 제한보다 작다"와 같은 "객관적인" 정보를 나타낼 수 있다.
4. 1. 무차별 원리 (Principle of Indifference)
무차별 원리는 모든 가능성에 동일한 확률을 할당하는 방법이다.[5] 이는 무정보 사전 확률을 결정하는 가장 간단하고 오래된 규칙이다. 매개변수 추정 문제에서 무정보 사전 확률을 사용하면, 우도 함수가 무정보 사전 확률보다 더 많은 정보를 제공하기 때문에, 기존의 통계적 분석과 크게 다르지 않은 결과를 얻을 수 있다.
예를 들어, 제인스(2003)는 공이 A, B, C 세 개의 컵 중 하나 아래에 숨겨져 있고, 그 위치에 대한 다른 정보는 사용할 수 없는 상황을 제시했다.[11] 이 경우 ''p''(''A'') = ''p''(''B'') = ''p''(''C'') = 1/3 의 균등 사전 확률이 직관적으로 유일한 합리적인 선택으로 보인다. 컵의 레이블("A", "B", "C")을 서로 바꾸어도 문제는 동일하게 유지되기 때문에, 레이블 순열이 공 위치 예측에 변화를 일으키는 사전 확률을 선택하는 것은 적절하지 않다. 균등 사전 확률은 이러한 불변성을 유지하는 유일한 사전 확률이며, 이 지식 상태를 나타내는 논리적으로 올바른 사전 확률이다.
4. 2. 최대 엔트로피 원리 (Maximum Entropy Principle)
에드윈 T. 제인스가 옹호한 아이디어는 최대 엔트로피 원리(MAXENT)를 사용하는 것이다. 이는 주어진 제약 조건들 아래에서 가장 정보가 적은 분포, 즉 섀넌 엔트로피를 최대화하는 분포를 찾는 방법이다. 확률 분포의 섀넌 엔트로피는 그 분포에 포함된 정보량을 측정한다. 엔트로피가 클수록 분포가 제공하는 정보는 적어진다.[14] 따라서, ''X''에 대한 적절한 확률 분포 집합에서 엔트로피를 최대화함으로써, 집합을 정의하는 제약 조건과 일치하는 가장 적은 양의 정보를 포함하는 가장 무정보적인 분포를 찾는다.
예를 들어, 확률의 합이 1이라는 제약 조건만 주어진 이산 공간에서 최대 엔트로피 사전 확률은 각 상태에 동일한 확률을 할당하는 사전 확률이다. 연속적인 경우, 밀도가 평균 0, 분산 1로 정규화된다는 제약 조건이 주어지면 최대 엔트로피 사전 확률은 표준 정규 분포가 된다.
''최소 교차 엔트로피'' 원리는 최대 엔트로피 원리(MAXENT)를 확장하여, 주어진 제약 조건들을 만족하면서 임의의 사전 확률 분포를 "업데이트"하는 방법으로 볼 수 있다.
4. 3. 변환 불변성 (Transformation Invariance)
에드윈 T. 제인스는 매개변수 변환에 대해 불변성을 유지하는 사전 확률을 선택하는 방법을 제시했다.[12] 이는 자연 그룹 구조를 갖는 경우, 사전 확률은 Haar measure에 비례하도록 구성될 수 있다는 아이디어에 기반한다.[12]
예를 들어, 물리학에서 실험은 좌표계 원점 선택과 관계없이 동일한 결과를 제공할 것으로 예상된다. 이는 평행 이동 그룹의 그룹 구조를 유도하며, 사전 확률을 상수 부적절 사전 확률로 결정한다.
일부 측정은 임의의 척도 선택(예: 센티미터 또는 인치 사용 여부)에 불변이다. 이 경우 척도 그룹이 자연 그룹 구조이며, 해당 사전 확률은 1/''x''에 비례한다. 아핀 군의 경우 왼쪽 및 오른쪽 불변 Haar measure가 동일하지 않으므로, 어떤 것을 사용할지가 중요할 수 있다. Berger (1985, p. 413)는 오른쪽 불변 Haar measure가 올바른 선택이라고 주장한다.
제인스의 변환 그룹 원리는 어떤 메트릭을 사용하든 동일한 믿음을 표현하는 사전 확률을 계산하여, 적절한 메트릭 선택 문제를 해결하려 시도한다.[17]
4. 4. 제프리스 사전 확률 (Jeffreys Prior)
해럴드 제프리스가 제안한 방법으로, 피셔 정보 행렬의 제곱근에 비례하는 사전 확률을 사용한다.[12] 제프리스 사전 확률은 어떤 측정 단위를 사용하든 동일한 믿음을 표현하는 사전 확률을 계산하여 무정보 사전 확률 문제를 해결하고자 한다. 알려지지 않은 비율 ''p''에 대한 제프리스 사전 확률은 ''p''-1/2(1 - ''p'')-1/2이다.[12]
단일 매개변수의 경우 참조 사전 확률과 제프리스 사전 확률은 동일하지만, 제프리스의 논리는 참조 사전 확률과는 매우 다르다. 다변량 문제에서는 호세-미겔 베르나르도가 제안한 참조 사전 확률이 종종 더 선호되는데, 제프리스 사전 확률이 문제가 있는 동작을 보일 수 있기 때문이다.
4. 5. 참조 사전 확률 (Reference Prior)
호세-미겔 베르나르도가 제안한 참조 사전 확률은 사전 분포와 사후 분포 간의 쿨백-라이블러 발산을 최대화하는 사전 확률을 사용한다.[14] 이는 사전 밀도가 ''p''(''x'')일 때 X에 대한 예상 사후 정보를 최대화하는 것이다. 어떤 의미에서 ''p''(''x'')는 X에 대한 "최소 정보" 사전 확률이라고 할 수 있다.[14]
참조 사전 확률은 점근적 한계에서 정의된다. 즉, 데이터 점의 수가 무한대로 갈 때 얻은 사전 확률의 한계를 고려한다. 사전 및 사후 분포 간의 쿨백-라이블러 발산(KL 발산)은 다음과 같이 표현된다.
여기서 는 어떤 매개변수 에 대한 충분 통계량이다. 이 식은 다음과 같이 변형될 수 있다.
여기서 H(x)는 x의 주변 엔트로피, H(x|t)는 t가 주어졌을 때 x의 조건부 엔트로피이다.
베른슈타인-폰 미제스 정리에 따르면, 표본 크기가 무한대로 갈 때, 주어진 관찰 값 에 대한 조건부 의 분포는 '참' 값에서의 피셔 정보의 역수와 같은 분산을 가진 정규 분포가 된다. 이를 이용하여 KL 발산의 점근적 형태를 유도하면 다음과 같다.
여기서 는 표본 크기에 비례하는 상수, I(x)는 피셔 정보이다. 이 식을 최소화하면 사전 분포가 우도 함수의 피셔 정보의 제곱근에 비례하게 된다. 따라서 단일 매개변수의 경우 참조 사전 확률은 제프리스 사전 확률과 동일하다.[14]
참조 사전 확률은 다변량 문제에서 종종 객관적 사전 확률로 선택되는데, 이는 제프리스 사전 확률과 같은 다른 규칙들이 문제가 있는 동작을 보일 수 있기 때문이다.
5. 부적절 사전 확률 (Improper Priors)
사건 이 상호 배타적이고 포괄적이라고 할 때, 베이즈 정리는 다음과 같이 표현된다.
이 식에서 모든 사전 확률 ''P''(''A''''i'')과 ''P''(''A''''j'')에 주어진 상수를 곱해도 동일한 결과를 얻는다.[18] 이는 연속 확률 변수에도 적용된다. 분모의 합이 수렴하면, 사전 확률 값이 그렇지 않더라도 사후 확률의 합(또는 적분)은 여전히 1이 된다. 따라서 사전 확률 값은 올바른 비율로만 지정하면 된다.
이러한 아이디어를 확장하면, 많은 경우 사전 확률 값의 합 또는 적분이 사후 확률에 대한 합리적인 결과를 얻기 위해 유한할 필요조차 없다. 이러한 경우의 사전 확률을 '''부적절 사전 확률'''이라고 부른다.[18] 그러나 사전 확률이 부적절하더라도 사후 분포는 적절한 분포여야 한다.[18] 이는 사건 ''B''가 모든 ''A''''j''와 독립적인 경우에 명확해진다.
통계학자들은 때때로 부적절 사전 확률을 비정보적 사전 확률로 사용한다.[19] 예를 들어 확률 변수의 평균과 분산에 대한 사전 분포가 필요할 경우, ''p''(''m'', ''v'') ~ 1/''v'' (''v'' > 0에 대해)를 가정할 수 있다. 이는 평균에 대한 모든 값이 "동일하게 가능성"이 있고, 양의 분산 값은 그 값에 반비례하여 "덜 가능성"이 있음을 시사한다. 많은 저자들은 이러한 사전 확률이 확률 밀도가 아니므로 과도하게 해석하지 않도록 경고한다. 이들은 모든 관측값에 대해 잘 정의되어 있는 한, 해당하는 사후 확률에서만 관련성을 가진다고 주장한다.
반대로, 가능도 함수는 적분될 필요가 없으며, 균일하게 1인 가능도 함수는 데이터의 부재에 해당한다(데이터가 없으면 모든 모델이 동일하게 가능성이 높음). 베이즈 규칙은 사전 확률에 가능도를 곱하며, 빈 곱은 단순히 상수 가능도 1이다. 그러나 사전 확률 분포로 시작하지 않으면 사후 확률 분포를 얻지 못하므로, 적분하거나 기대값 또는 손실을 계산할 수 없다.
부적절한 사전 확률의 예시는 다음과 같다.
- 무한 구간에서의 균등 분포 (반직선 또는 전체 실수선).
- 베타 분포에서 ''α''=0, ''β''=0인 Beta(0,0) (로그 오즈 척도에서의 균등 분포).
- 양의 실수에 대한 로그 사전 확률 (로그 스케일에서의 균등 분포).
이러한 함수들은 균등 분포로 해석될 수 있으며, 데이터가 없을 경우 우도 함수로도 해석될 수 있지만, 적절한 사전 확률은 아니다.
6. 통계 역학에서의 사전 확률
통계 역학에서 사전 확률은 시스템의 초기 상태를 설명하는 데 사용된다.[20] 고전 통계 역학에서는 기본 사건의 수(예: 주사위를 던진 횟수)와 총 사건 수의 비율로 정의되며, 이는 순전히 연역적으로, 즉 실험 없이 간주된다. 통계 역학에서, 예를 들어 유한 부피에 포함된 기체의 경우, 개별 기체 요소(원자 또는 분자)의 공간 좌표 qi영어와 운동량 좌표 pi영어 모두 이러한 좌표로 구성된 위상 공간에서 유한하다. 사전 확률은 위상 공간 부피 요소를 h영어로 나눈 값에 비례하며, 여기서 Δq영어는 변수 q영어의 범위이고 Δp영어는 변수 p영어의 범위이다(여기서는 단순화를 위해 1차원으로 간주). 1차원에서 이 수 또는 통계적 가중치 또는 사전 가중치는 이다. 관례적인 3차원에서 해당하는 수는 로 계산할 수 있다.[21]
불확정성 원리를 고려하면, 1차원 공간에서 다음과 같다.
:
이러한 상태는 구별할 수 없다. 중요한 결과는 리우빌 정리 (해밀턴)로 알려진 결과, 즉 이 위상 공간 부피 요소의 시간 독립성과 따라서 사전 확률이다. 이 양의 시간에 따른 의존성은 시스템의 역학에 대한 알려진 정보를 의미하며, 따라서 사전 확률이 아니다.[22] 따라서 영역
:
시간 t영어에 대해 미분하면 0이 된다(해밀턴 방정식을 사용하여). 즉, 시간 t영어에서의 부피는 시간 0에서의 부피와 같다. 이것을 정보 보존이라고도 한다.
전체 양자 이론에서는 유사한 보존 법칙이 있다. 이 경우, 위상 공간 영역은 투영 연산자 P영어로 표현된 상태 공간의 부분 공간으로 대체되며, 위상 공간에서의 확률 대신 확률 밀도가 있다.
:
여기서 N영어은 부분 공간의 차원이다. 이 경우 보존 법칙은 S-행렬의 유니타성으로 표현된다. 어느 경우든, 고려 사항은 닫힌 고립계를 가정한다. 닫힌 고립계는 (1) 고정된 에너지 E영어와 (2) 고정된 입자 수 N영어을 (c) 평형 상태에서 갖는 시스템이다. 이 시스템의 복제본을 엄청나게 많이 고려하면, "미시적 정준 앙상블"이라고 불리는 것을 얻는다. 양자 통계에서 "고립계의 동일한 사전 확률에 대한 기본 가설"을 가정하는 것은 이 시스템에 대한 것이다. 이는 평형 상태에 있는 고립계가 동일한 확률로 접근 가능한 각 상태를 차지한다는 것을 의미한다. 따라서 이 기본 가설은 우리가 사전 확률을 시스템의 축퇴, 즉 동일한 에너지를 갖는 서로 다른 상태의 수와 같게 할 수 있게 해준다.
다음 예시는 고전적 맥락과 양자적 맥락에서 사전 확률 (또는 사전 가중치)을 보여준다.
7. 한국 사회에서의 활용 및 고려사항
베이즈 추론(Bayesian inference) 및 사전 확률 분포는 한국 사회의 다양한 분야에서 활용될 수 있다.
참조
[1]
서적
The Bayesian Choice
Springer
[2]
서적
Bayesian Biostatistics
Marcel Dekker
[3]
간행물
Prior Knowledge Elicitation: The Past, Present, and Future
2024
[4]
간행물
PreliZ: A tool-box for prior elicitation
2023-09
[5]
서적
An Introduction to Bayesian Inference in Econometrics
John Wiley & Sons
[6]
간행물
Uninformative priors for Bayes' theorem
[7]
간행물
Sparsity information and regularization in the horseshoe and other shrinkage priors
[8]
간행물
Penalising Model Component Complexity: A Principled, Practical Approach to Constructing Priors
[9]
간행물
Priors in Bayesian Deep Learning: A Review
[10]
서적
Bayesian Hierarchical Models
CRC Press
[11]
서적
Economic Decision-Making: Games, Econometrics and Optimisation
North-Holland
[12]
간행물
Prior Probabilities
http://bayes.wustl.e[...]
1968-09
[13]
문서
[14]
서적
Probability Matching Priors: Higher Order Asymptotics
Springer
[15]
간행물
Incorporation of Biological Pathway Knowledge in the Construction of Priors for Optimal Bayesian Classification - IEEE Journals & Magazine
[16]
간행물
Incorporating biological prior knowledge for Bayesian learning via maximal knowledge-driven information priors
2017-12
[17]
문서
[18]
간행물
Marginalization Paradoxes in Bayesian and Structural Inference
[19]
서적
Bayesian Ideas and Data Analysis : An Introduction for Scientists and Statisticians
CRC Press
2010
[20]
서적
Cooperative Dynamics in Complex Physical Systems
Springer
[21]
서적
Basics of Statistical Physics
World Scientific
[22]
서적
Entropy Demystified
World Scientific
[23]
서적
수리통계학 입문
1995-03-10
본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.
문의하기 : help@durumis.com