맨위로가기

베이즈 네트워크

"오늘의AI위키"는 AI 기술로 일관성 있고 체계적인 최신 지식을 제공하는 혁신 플랫폼입니다.
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.

1. 개요

베이즈 네트워크는 확률 변수를 노드로, 변수 간 관계를 링크로 표현하는 방향 비순환 그래프로, 확률적 그래픽 모델의 일종이다. 결합 분포를 부모 노드로 조건화된 확률의 곱으로 표현하며, 확률 추론을 통해 복잡하고 불확실한 사건의 발생 가능성을 예측할 수 있다. 베이지안 네트워크는 유향 비순환 구조를 가지며, 조건부 확률 모델의 조합으로 표현되는 경우가 많다. 이 모델은 국소 마르코프 속성, 마르코프 블랭킷, d-분리와 같은 개념을 통해 분석되며, 다양한 최적화 기법과 추론 및 학습 알고리즘이 존재한다. 베이즈 네트워크는 생물 정보학, 약학, 문서 분류 등 다양한 분야에서 활용되며, 1985년 주디아 펄에 의해 명명되었다.

더 읽어볼만한 페이지

  • 그래프 모형 - 마르코프 네트워크
    마르코프 네트워크는 무향 그래프로 표현되는 확률 모델로, 노드는 확률 변수를, 연결은 변수 간 조건부 독립성을 나타내며, 쌍별, 국소, 전역 마르코프 속성을 통해 정의되고 다양한 분야에서 활용된다.
  • 그래프 모형 - 인과 추론
    인과 추론은 현상의 원인을 규명하거나 추론하는 과정으로, 실험적 방법, 통계적 기법 등을 활용하여 인과 메커니즘을 검증하고 다양한 학문 분야에서 활용된다.
베이즈 네트워크
지도 정보
기본 정보
유형확률적 그래프 모형
다른 이름신뢰 네트워크
방향성 비순환 그래프 모형
특징
표현확률 변수들 간의 조건부 확률 의존성을 방향성 비순환 그래프 (DAG)로 표현함.
주요 응용 분야인공지능
패턴 인식
기계 학습
데이터 마이닝
의료 진단
유전자 분석
자연어 처리
위험 평가
의사 결정 지원 시스템
관련 개념마르코프 네트워크
베이즈 정리
조건부 독립
구조
노드확률 변수를 나타냄.
링크 (화살표)확률 변수 간의 조건부 확률 의존성 (인과 관계)을 나타냄.
방향성링크는 방향성을 가지며, 부모 노드에서 자식 노드로 향함.
순환성그래프는 순환(cycle)을 포함하지 않아야 함. (비순환 그래프)
학습 방법
파라미터 학습주어진 데이터에서 조건부 확률을 추정함.
구조 학습변수 간의 의존성을 나타내는 그래프 구조를 학습함.
추론
확률 추론주어진 증거를 기반으로 특정 변수의 확률 분포를 계산함.
예측학습된 모델을 사용하여 새로운 데이터에 대한 예측을 수행함.
장점
직관적 표현변수 간의 관계를 시각적으로 표현하여 이해하기 쉬움.
불확실성 처리확률적 추론을 통해 불확실성을 효과적으로 처리함.
모듈화복잡한 문제를 작은 부분으로 나누어 모델링할 수 있음.
단점
모델 복잡성변수와 관계가 많아질수록 모델이 복잡해질 수 있음.
계산 비용대규모 네트워크에서 정확한 추론은 계산 비용이 많이 들 수 있음.
데이터 요구량모델 학습을 위해 충분한 양의 데이터가 필요함.
확장
동적 베이즈 네트워크시간적 변화를 모델링하기 위해 사용함.
계층적 베이즈 네트워크여러 수준의 추상화를 모델링하기 위해 사용함.
예시
질병 진단증상과 질병 사이의 확률적 관계를 모델링하여 질병을 진단함.
스팸 메일 필터링메일의 단어와 스팸 여부 사이의 관계를 모델링하여 스팸 메일을 걸러냄.
신용 위험 평가고객의 특성과 신용 위험 사이의 관계를 모델링하여 신용 위험을 평가함.
참고 자료
참고 문헌Encyclopedia of Statistics in Quality and Reliability

2. 정의와 개념

베이즈 네트워크는 방향성 비순환 그래프(DAG) ''G'' = (''V'',''E'')로 표현된다. 여기서 ''V''는 확률 변수 집합을 나타내고, ''E''는 변수 간의 조건부 의존성을 나타내는 간선 집합이다.[19] 각 노드는 확률 함수와 연결되며, 이 함수는 부모 변수의 특정 값 집합을 입력으로 받아 해당 노드가 나타내는 변수의 확률(또는 확률 분포)을 출력한다. 예를 들어, m개의 부모 노드가 m개의 부울 변수를 나타낸다면, 확률 함수는 2m개의 항목을 가진 표로 나타낼 수 있다.[19]

확률 분포확률 변수를 노드로, 변수 간 관계를 링크로 하는 그래프로 표현할 수 있다.[30][31] 이 중 링크가 방향을 가지며 의존 관계가 순환하지 않는 방향 비순환 그래프는 다음과 같이 불린다.[33]


  • '''베이즈 네트워크''' (Bayesian networks영어)[34]
  • '''방향 그래픽 모델''' (directed graphical models영어)[34]
  • '''방향 확률 모델''' (directed probabilistic models영어)[35]
  • '''방향 확률적 그래픽 모델''' (directed probabilistic graphical models영어)[35]


베이즈 네트워크에서 확률 변수들의 결합 분포는 부모 노드로 조건화된 확률의 곱으로 표현될 수 있다.[36]

2. 1. 분해의 정의

''X''가 베이지안 네트워크이고, 그에 관련된 ''G''의 (곱 측도에 관련되는) 결합 확률 밀도 함수가 부모 변수로 조건화된 독립 밀도 함수의 곱으로 쓰인다면 다음과 같이 표현할 수 있다.

: p (x) = \prod_{v \in V} p \big(x_v \,\big|\, x_{\operatorname{pa}(v)} \big)

여기서 pa(''v'')는 ''v''의 부모 집합이다(즉, 단일 변을 통해 ''v''를 직접 가리키는 정점).

몇몇 랜덤 변수의 집합 때문에, 결합 분포의 몇몇 멤버의 확률은 연쇄 법칙을 사용하여 조건부 확률로부터 계산될 수 있다.

:\operatorname P(X_1=x_1, \ldots, X_n=x_n) = \prod_{v=1}^n \operatorname P(X_v=x_v \mid X_{v+1}=x_{v+1}, \ldots, X_n=x_n )

위 정의를 다음 식과 비교할 수 있다.

:\operatorname P(X_1=x_1, \ldots, X_n=x_n) = \prod_{v=1}^n \operatorname P(X_v=x_v \mid X_j=x_j for each X_j\, which is a parent of X_v\, )

두 표현의 차이는, 부모 변수의 값이 주어졌을 때, 그것의 비 후손의 것으로부터 나온 변수와 조건부 독립이다.

결합 분포는 다음과 같이 표현할 수 있다.

:P(x_1, ..., x_N)=\prod_{i=1}^N P(x_i | parent(x_i))

즉, 결합 분포가 부모 노드로 조건화된 확률의 곱으로 기술될 수 있다.[36]

2. 2. 로컬 마르코프 속성

각 변수는 부모 변수가 주어졌을 때, 자신의 비후손 변수와 조건부 독립이다.

: X_v \perp\!\!\!\perp X_{V \setminus \operatorname{de}(v)} \,|\, X_{\operatorname{pa}(v)} \quad\text{for all }v \in V

여기서 de(''v'')는 ''v''의 자식 집합이다.

이는 다음과 같이 첫 번째 정의와 비슷한 표현으로 나타낼 수 있다.

:\mathrm P(X_v=x_v \mid X_i=x_i for each X_i\, which is not a descendent of X_v\, ) = P(X_v=x_v \mid X_j=x_j for each X_j\, which is a parent of X_v\, )

그래프가 비순환이기 때문에 부모 집합은 비후손 집합의 부분집합이다.

2. 3. 마르코프 블랭킷

어떤 노드의 마르코프 블랭킷은 그 노드의 부모, 자식, 그리고 자식의 부모 노드들로 구성된다. 베이즈 네트워크에서 ''X''와 관련된 그래프 ''G''가 주어지면, 각 노드는 마르코프 블랭킷이 주어졌을 때 네트워크의 다른 모든 노드와 조건부 독립적이다. 즉, 특정 노드의 마르코프 블랭킷에 있는 변수들의 결합 분포는 해당 노드의 분포를 계산하기에 충분한 정보를 제공하며, 해당 노드를 네트워크의 나머지 부분과 독립적으로 만들어 준다.

2. 4. d-분리

노드 ''u''에서 ''v''로 이어지는 경로를 ''P''라고 할 때, 경로 ''P''는 다음 조건 중 하나가 성립하면 노드 집합 ''Z''에 의해 ''d''-분리되었다고 한다.[7]

  • ''P''는 u \cdots \leftarrow m \leftarrow \cdots v 또는 u \cdots \rightarrow m \rightarrow \cdots v와 같은 방향성 사슬을 포함하며, 중간 노드 ''m''이 ''Z''에 있다.
  • ''P''는 u \cdots \leftarrow m \rightarrow \cdots v와 같은 포크(fork)를 포함하며, 중간 노드 ''m''이 ''Z''에 있다.
  • ''P''는 u \cdots \rightarrow m \leftarrow \cdots v와 같은 역방향 포크(inverted fork, 또는 충돌점(collider))를 포함하며, 중간 노드 ''m''이 ''Z''에 없고 ''m''의 후손도 ''Z''에 없다.


두 노드 ''u''와 ''v''는 그 사이의 모든 경로가 ''d''-분리되면 ''Z''에 의해 ''d''-분리된다. ''u''와 ''v''가 d-분리되지 않으면 d-연결되었다고 한다.

임의의 두 노드 ''u'', ''v''에 대해 다음이 성립하면 ''X''는 ''G''에 대한 베이즈 네트워크이다.

: X_u \perp\!\!\!\perp X_v \mid X_Z

여기서 ''Z''는 ''u''와 ''v''를 ''d''-분리하는 집합이다. (마르코프 담요는 다른 모든 노드로부터 노드 ''v''를 ''d''-분리하는 최소한의 노드 집합이다.)

3. 그래프 모델

형식적으로, 베이즈 네트워크는 방향성 비순환 그래프(DAG)이며, 그 노드는 베이즈적 의미에서 변수를 나타낸다. 이 변수는 관측 가능한 양, 잠재 변수, 알려지지 않은 매개변수 또는 가설일 수 있다. 각각의 에지는 직접적인 조건부 종속성을 나타낸다. 연결되지 않은(즉, 어떤 경로도 한 노드를 다른 노드에 연결하지 않은) 노드 쌍은 서로 조건부로 독립적인 변수를 나타낸다. 각 노드는 확률 함수와 연관되어 있으며, 이 함수는 노드의 부모 변수에 대한 특정 값 집합을 입력으로 받아 노드가 나타내는 변수의 확률(또는 해당되는 경우 확률 분포)을 출력으로 제공한다.[30][31] 예를 들어, m개의 부모 노드가 m개의 부울 변수를 나타낸다면, 확률 함수는 2^m개의 항목을 가진 표로 나타낼 수 있으며, 2^m개의 가능한 부모 조합 각각에 대해 하나의 항목이 있다.

확률 분포는 확률 변수를 노드로, 변수 간 관계를 링크로 하는 그래프/네트워크로 표현할 수 있다. 이 중 링크가 방향을 가지며 의존 관계가 순환하지 않는(방향 비순환 그래프)은 다음 명칭으로 불린다.


  • '''베이지안 네트워크'''(Bayesian networks영어)[34]
  • '''방향 그래픽 모델'''(directed graphical models영어)[34]
  • '''방향 확률 모델'''(directed probabilistic models영어)[35]
  • '''방향 확률적 그래픽 모델'''(directed probabilistic graphical models영어)[35]


그 방향 비순환성으로부터 확률 변수들의 결합 분포는 다음과 같이 표현할 수 있다.

:P(x_1, ..., x_N)=\prod_{i=1}^N P(x_i | parent(x_i))

즉, 결합 분포가 부모 노드로 조건화된 확률의 곱으로 기술될 수 있다.[36] 확률 분포를 유향 그래프로 파악함으로써, 그래프를 이용한 분석이 가능해진다. 또한 유향 그래프이기 때문에 변수 간의 인과 관계를 링크로 표현할 수 있다.[37]

베이지안 네트워크는 유향 비순환 구조를 가정한 모델이며, (이 구조를 필요로 하지 않는) 공동 분포를 직접 모델링하는 것이 아니라, 조건부 확률 모델의 조합으로 표현되는 경우가 많다. 확률 변수 A, B, C 사이의 조건부 의존성을 A→C, B→C로 나타내고, 링크의 근원이 되는 부모 노드를 A와 B, 링크의 끝에 오는 자식 노드를 C로 할 때, A가 발생할 확률을 P(A), A가 이미 발생했을 때 C가 될 조건부 확률을 P(C|A)로 나타낸다고 하면, C가 발생할 수 있는 확률은 P(A, B, C) = P(C|A, B)P(A)P(B)가 된다.

4. 예시

간단한 베이지안 네트워크 예제


잔디가 젖는 데에는 두 가지 원인이 있을 수 있다. 스프링클러가 작동하거나 비가 오는 것이다. 비가 오면 보통 스프링클러를 끄기 때문에, 비는 스프링클러 작동 여부에 영향을 준다. 이러한 상황을 베이지안 네트워크로 나타낼 수 있다.

여기에는 세 가지 변수가 사용된다.

  • G: 잔디가 젖음 (참/거짓)
  • S: 스프링클러 작동 (참/거짓)
  • R: 비 (참/거짓)


각 변수는 참(T) 또는 거짓(F) 값을 가질 수 있다.

이 변수들 간의 관계는 결합 확률 함수로 나타낼 수 있다.

:\mathrm P(G,S,R)=\mathrm P(G|S,R)\mathrm P(S|R)\mathrm P(R)

이 모델을 통해 "잔디가 젖었을 때 비가 올 확률은 얼마인가?"와 같은 질문에 답할 수 있다. 조건부 확률 공식을 사용하고, 교란 변수를 모두 더하면 다음과 같다.

:\mathrm P(R=T \mid G=T)

=\frac{\mathrm P(G=T,R=T)}{\mathrm P(G=T)}

=\frac{\sum_{S \in \{T, F\}}\mathrm P(G=T,S,R=T)}{\sum_{S, R \in \{T, F\}} \mathrm P(G=T,S,R)}



조건부 확률표(CPT)에 주어진 조건부 확률을 사용하여 각 항을 계산할 수 있다. 예를 들어:

:\begin{align}

\Pr(G=T, S=T,R=T) & = \Pr(G=T\mid S=T,R=T)\Pr(S=T\mid R=T)\Pr(R=T) \\

& = 0.99 \times 0.01 \times 0.2 \\

& = 0.00198.

\end{align}



위의 식을 계산하면 다음과 같다.

:\Pr(R=T\mid G=T) = \frac{ 0.00198_{TTT} + 0.1584_{TFT} }{ 0.00198_{TTT} + 0.288_{TTF} + 0.1584_{TFT} + 0.0_{TFF} } = \frac{891}{2491}\approx 35.77 \%.

즉, 잔디가 젖었을 때 비가 올 확률은 약 35.77%이다.

만약 "우리가 잔디를 적셨다면 비가 올 확률은 얼마인가?"와 같이 개입에 대한 질문을 한다면, 답은 개입 후 결합 확률 함수에 의해 결정된다.

:\Pr(S,R\mid\text{do}(G=T)) = \Pr(S\mid R) \Pr(R)

여기서 do 연산자는 G의 값을 참으로 설정한다. 이 경우 비의 확률은 영향을 받지 않는다.

:\Pr(R\mid\text{do}(G=T)) = \Pr(R).

베이지안 네트워크는 변수 간의 의존성이 희박한 경우 메모리를 절약할 수 있다는 장점이 있다. 예를 들어, 10개의 이진 변수의 조건부 확률을 저장하는 데 일반적인 방법으로는 2^{10} = 1024개의 공간이 필요하지만, 베이지안 네트워크를 사용하면 최대 10*2^3 = 80개의 공간만 필요할 수 있다. 또한, 베이지안 네트워크는 직접적인 의존성과 지역 분포를 파악하기 쉽다는 장점이 있다.

5. 추론 및 학습

베이지안 네트워크는 변수 간의 관계를 확률적으로 모델링하여, 관측되지 않은 변수의 값을 추론하는 데 사용된다. 베이지안 네트워크는 변수와 그 관계에 대한 완전한 모델이므로, 이를 사용하여 변수에 대한 확률적 질문에 답할 수 있다. 예를 들어, 다른 변수(증거 변수)가 관찰될 때 변수 하위 집합의 상태에 대한 지식을 업데이트할 수 있다.

주요 추론 알고리즘은 다음과 같다:


  • 변수 제거: 관측되지 않은 변수를 하나씩 제거하면서 곱의 합을 분배한다.
  • 클리크 트리 전파: 계산을 캐싱하여 여러 변수를 한 번에 질의하고 새로운 증거를 빠르게 전파한다.
  • 순환 조건화 및 AND/OR 검색: 공간-시간 절충을 통해 효율성을 높인다.


이러한 정확한 추론 방법들은 모두 네트워크의 트리 너비에 대해 지수적인 복잡도를 가진다. 따라서, 더 빠른 계산을 위해 다음과 같은 근사 추론 알고리즘이 사용되기도 한다:

  • 중요도 샘플링
  • 확률적 MCMC 시뮬레이션
  • 미니 버킷 제거
  • 루프 벨리프 전파
  • 일반화된 벨리프 전파
  • 변분 방법


베이지안 네트워크의 매개변수 학습은 데이터로부터 조건부 확률 분포를 추정하는 과정이다. 일반적으로 최대 우도 추정 방법을 사용하며, 기대-최대화 알고리즘이 사용되기도 한다. 매개변수를 추가적인 관찰되지 않은 변수로 간주하여 베이지안 방식으로 접근할 수도 있지만, 이 방법은 계산 비용이 많이 들 수 있다.

구조 학습은 데이터로부터 베이지안 네트워크의 그래프 구조를 학습하는 과정이다. Rebane과 펄[6]이 개발한 복구 알고리즘은 3노드 DAG에서 가능한 패턴(연쇄, 포크, 충돌) 간의 차이를 기반으로 한다.

접합 패턴
패턴모델
연쇄X \rightarrow Y \rightarrow Z
포크X \leftarrow Y \rightarrow Z
충돌X \rightarrow Y \leftarrow Z



위 표에서 연쇄와 포크는 동일한 종속성을 나타내지만, 충돌은 고유하게 식별 가능하다.

최적화 기반 검색, 전역 검색 알고리즘(예: 마르코프 체인 몬테카를로) 등 다양한 구조 학습 방법이 연구되고 있다. 정수 계획법을 활용하여 정확한 BN 학습을 빠르게 수행하거나, 분해 가능 모델의 하위 클래스에 집중하여 학습하는 방법도 있다.

5. 1. 추론 복잡도와 근사 알고리즘

베이즈 정리를 복잡한 문제에 자동 적용하는 메커니즘으로 간주될 수 있는 베이지안 네트워크에서, 증거가 주어졌을 때 변수의 사후 분포를 계산하는 과정을 확률적 추론이라고 한다. 1990년, 쿠퍼는 베이지안 네트워크에서 정확한 추론이 NP-hard임을 증명했다.[20] 이 결과는 확률적 추론에 대한 근사 알고리즘 연구를 촉진했다.

정확한 추론의 일반적인 방법에는 변수 제거, 클리크 트리 전파, 순환 조건화 및 AND/OR 검색이 있다. 이러한 방법들은 모두 네트워크의 트리 너비에 대해 지수적인 복잡도를 갖는다. 근사 추론의 일반적인 알고리즘에는 중요도 샘플링, 확률적 MCMC 시뮬레이션, 미니 버킷 제거, 루프 벨리프 전파, 일반화된 벨리프 전파, 변분 방법 등이 있다.

1993년, 폴 다검과 마이클 루비는 베이지안 네트워크에서 확률적 추론의 근사 복잡성에 대한 두 가지 결과를 증명했다.[21] 그들은 어떤 다루기 쉬운 결정적 알고리즘도, 다루기 쉬운 확률적 알고리즘도 특정 오차 범위 내에서 확률적 추론을 근사할 수 없음을 보였다. 거의 같은 시기에, 로스는 베이지안 네트워크에서 정확한 추론이 #P-complete이고, 제한된 아키텍처를 가진 베이지안 네트워크의 경우에도 특정 계수 내의 근사 추론이 NP-hard임을 증명했다.[22][23]

이러한 복잡성 결과는 베이지안 네트워크의 실제 응용에 위상 구조적 제약이나 조건 확률에 대한 제한이 필요함을 시사했다. 다검과 루비가 개발한 제한된 분산 알고리즘[24]은 오차 근사에 대한 보장을 가진 베이지안 네트워크에서 확률적 추론을 효율적으로 근사하는 최초의 입증 가능한 빠른 근사 알고리즘이었다.

6. 최적화

p^*(\cdot)를 베이즈 네트워크로 모델링하기 위한 다양한 최적화 기법이 존재한다.

6. 1. 전관측 모델

모든 변수가 관측 변수인 경우[42] 베이즈 네트워크에서는 최대우도추정을 사용할 수 있다.[43]

이 모델은 다음 식으로 표현된다.

: p_{\theta}(x_1, ..., x_N)=\prod_{i=1}^N p_{\theta}(x_i | parent(x_i))

최대우도추정의 목적 함수인 로그 우도를 고려하면 다음과 같다.

: \log p_{\theta}(x_1, ..., x_N)

=\sum_{i=1}^N \log p_{\theta}(x_i | parent(x_i))

즉, 조건부 확률 분포의 로그의 합이 로그 우도가 된다.

가정에 따라 모든 변수가 관측 변수이므로, p^*(\cdot)에서 샘플링된 표본을 사용하여 모든 조건부 확률 분포 값을 계산할 수 있다. 따라서 로그와 합으로 로그 우도를 계산할 수 있으며, 분포가 미분 가능하다면 경사하강법을 통해 \theta의 최적화를 달성할 수 있다.

6. 2. 잠재 변수 모델

베이지안 네트워크를 채택한 잠재 변수 모델의 경우, 전 관측 모델과 달리 최적화가 쉽지 않다.[17]

7. 응용 분야

베이즈 네트워크는 생물 정보학, 약학, 문서 분류, 영상 처리, 자료 양합 및 결정 지원 시스템 등의 분야에서 지식을 모형화하는 데 사용되고 있다.[19] 확률 분포를 유향 그래프로 파악함으로써, 그래프를 이용한 분석이 가능해진다. 또한 유향 그래프이기 때문에 변수 간의 인과 관계를 링크로 표현할 수 있다.[37] 베이지안 네트워크상에서 확률 추론을 수행함으로써, 복잡하고 불확실한 사건의 발생 가능성과 그 확률을 예측할 수 있다.

베이지안 네트워크는 유향 비순환 구조를 가정한 모델이며, 공동 분포를 직접 모델링하는 것이 아니라, 조건부 확률 모델의 조합으로 표현되는 경우가 많다. 의사의 진단[38], 영상 인식[39], 언어 인식[40], 선택 알고리즘[41] 등, 1980년대부터 다양한 응용 사례가 보고되고 있다.

8. 역사

베이지안 네트워크라는 용어는 주디아 펄이 1985년에 다음과 같은 점을 강조하기 위해 만들었다.[26]


  • 입력 정보의 종종 주관적인 성격
  • 정보 갱신의 기초로서 베이즈 조건화에 대한 의존성
  • 인과적 추론과 증거적 추론 방식의 구분[27]


1980년대 후반, 펄(Pearl)의 "지능 시스템에서의 확률적 추론"(Probabilistic Reasoning in Intelligent Systems)[28]과 리처드 E. 네이폴리탄(Richard E. Neapolitan)의 "전문가 시스템에서의 확률적 추론"(Probabilistic Reasoning in Expert Systems)[29]은 베이지안 네트워크의 특성을 요약하고 이를 연구 분야로 확립했다.

주디아 펄은 이 연구의 공로로 튜링상을 수상했다. 인공지능 분야에서는 베이지안 네트워크를 확률 추론 알고리즘으로 1980년대부터 연구가 진행되어 이미 오랜 연구와 실용화의 역사가 있다.[44]

9. 관련 소프트웨어


  • JAGS - WinBUGS의 오픈 소스 대안. Gibbs 샘플링을 사용한다.
  • OpenBUGS - WinBUGS의 오픈 소스 개발 버전.
  • SPSS Modeler - 베이즈 네트워크 구현을 포함하는 상용 소프트웨어.
  • Stan - 해밀토니안 몬테카를로의 변형인 No-U-Turn 샘플러(NUTS)[25]를 사용하여 베이즈 추론을 얻는 오픈 소스 패키지이다.
  • PyMC - 베이즈 네트워크를 표현하기 위한 임베디드 도메인 특정 언어와 다양한 샘플러(NUTS 포함)를 구현하는 Python 라이브러리이다.
  • WinBUGS - MCMC 샘플러의 최초 컴퓨팅 구현 중 하나. 더 이상 유지 관리되지 않는다.

10. 한국어 위키백과 추가 항목 (한국 관점)

베이즈 네트워크는 한국의 인공지능기계 학습 분야에서 활발히 연구되고 있는 주제 중 하나이다. 특히, 베이즈 네트워크는 불확실성을 다루는 데 강점이 있어, 의료 진단, 금융 리스크 평가, 자연어 처리 등 다양한 분야에 응용되고 있다.

한국에서는 데이터 3법 (\[\[개인정보 보호법]], 정보통신망 이용촉진 및 정보보호 등에 관한 법률, 신용정보의 이용 및 보호에 관한 법률) 개정 이후, 가명 정보 활용이 가능해지면서 베이즈 네트워크를 활용한 데이터 분석 및 의사 결정 지원 시스템 개발이 더욱 활발해질 것으로 예상된다.

또한, 한국의 주요 대학 및 연구소에서는 베이즈 네트워크의 알고리즘 개선 및 새로운 응용 분야 발굴을 위한 연구가 진행되고 있다. 예를 들어, 카이스트(KAIST)와 서울대학교 등에서는 베이즈 네트워크를 활용한 딥 러닝 모델 개발, 의료 영상 분석, 스마트 팩토리 구축 등의 연구를 수행하고 있다.

앞으로도 베이즈 네트워크는 한국의 인공지능 기술 발전에 중요한 역할을 할 것으로 기대된다.

참조

[1] 서적 Encyclopedia of Statistics in Quality and Reliability https://onlinelibrar[...] Wiley 2007-12-14
[2] 웹사이트 The Back-Door Criterion http://bayes.cs.ucla[...] 2014-09-18
[3] 웹사이트 d-Separation without Tears http://bayes.cs.ucla[...] 2014-09-18
[4] 학회자료 A Probabilistic Calculus of Actions http://dl.acm.org/ft[...] Morgan Kaufmann
[5] 학회자료 Proceedings of the Twenty-Second Conference on Uncertainty in Artificial Intelligence AUAI Press
[6] 학회자료 Proceedings, 3rd Workshop on Uncertainty in AI
[7] 서적 Causality: Models, Reasoning, and Inference https://books.google[...] Cambridge University Press
[8] 학술지 An algorithm for fast recovery of sparse causal graphs http://repository.cm[...]
[9] 서적 Causation, Prediction, and Search https://books.google[...] Springer-Verlag
[10] 학회자료 Equivalence and synthesis of causal models https://books.google[...] Elsevier
[11] 학술지 Bayesian Network Classifiers 1997-11
[12] 학술지 Using Bayesian networks to analyze expression data 2000-08
[13] 학회자료 Bayesian network learning with cutting planes https://dslpitt.org/[...]
[14] 학회자료 NIPS-15: Advances in Neural Information Processing Systems Curran Associates
[15] 학회자료 Scaling log-linear analysis to high-dimensional data http://www.tiny-clue[...] IEEE
[16] 학회자료 Learning Treewidth-Bounded Bayesian Networks with Thousands of Variables http://papers.nips.c[...] Curran Associates
[17] 학술지 Large-sample learning of Bayesian networks is NP-hard https://www.jmlr.org[...] 2004
[18] 학술지 Combinatorial and algebraic perspectives on the marginal independence structure of Bayesian networks 2023
[19] 서적 Learning Bayesian networks https://books.google[...] Prentice Hall
[20] 학술지 The Computational Complexity of Probabilistic Inference Using Bayesian Belief Networks https://stat.duke.ed[...] 1990
[21] 학술지 Approximating probabilistic inference in Bayesian belief networks is NP-hard 1993
[22] 웹사이트 On the hardness of approximate reasoning http://cogcomp.cs.il[...] IJCAI
[23] 웹사이트 On the hardness of approximate reasoning http://cogcomp.cs.il[...] Artificial Intelligence
[24] 학술지 An optimal approximation algorithm for Bayesian inference http://icsi.berkeley[...] 2015-12-19
[25] arXiv The No-U-Turn Sampler: Adaptively Setting Path Lengths in Hamiltonian Monte Carlo
[26] 학회자료 Bayesian Networks: A Model of Self-Activated Memory for Evidential Reasoning http://ftp.cs.ucla.e[...]
[27] 학술지 An Essay Towards Solving a Problem in the Doctrine of Chances
[28] 서적 Probabilistic Reasoning in Intelligent Systems https://books.google[...] Morgan Kaufmann 1988-09-15
[29] 서적 Probabilistic reasoning in expert systems: theory and algorithms https://books.google[...] Wiley
[30] 서적 PRML
[31] 기타 ネットワーク(重み付けグラフ)
[32] 서적 PRML
[33] arXiv An Introduction to Variational Autoencoders
[34] 서적 PRML
[35] arXiv An Introduction to Variational Autoencoders
[36] 논문 An Introduction to Variational Autoencoders
[37] 일반
[38] 일반
[39] 일반
[40] 일반
[41] 일반
[42] 일반
[43] 논문 An Introduction to Variational Autoencoders
[44] 학술지 Bayesian Networks: a Model of Self-Activated Memory for Evidential Reasoning http://ftp.cs.ucla.e[...]
[45] 일반



본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.

문의하기 : help@durumis.com