맨위로가기

잠재 변수

"오늘의AI위키"는 AI 기술로 일관성 있고 체계적인 최신 지식을 제공하는 혁신 플랫폼입니다.
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.

1. 개요

잠재 변수는 직접적으로 관찰하거나 측정할 수 없는 추상적인 개념을 의미하며, 심리학, 경제학, 의학 등 다양한 분야에서 활용된다. 심리학에서는 성격 특성, 지능 등을 추론하는 데 사용되며, 요인 분석이 대표적인 방법이다. 경제학에서는 삶의 질, 기업 신뢰도 등을, 의학에서는 질병의 진행 단계나 환자의 건강 상태 등을 잠재 변수로 간주한다. 잠재 변수 모형은 관측 변수와 잠재 변수의 결합 분포로 표현된 확률 모형의 총칭이며, 주변 가능도 또는 증거를 통해 모델의 매개변수를 추정한다. 잠재 변수 모델에는 다양한 종류가 있으며, 추론 및 분석을 위한 다양한 방법이 존재한다. 또한 베이즈 통계학, 심층 잠재 변수 모델(DLVM) 등이 잠재 변수를 활용하는 데 사용된다.

더 읽어볼만한 페이지

  • 잠재 변수 모형 - 잠재 의미 분석
    잠재 의미 분석은 텍스트 데이터의 의미 구조를 파악하기 위해 문서-단어 행렬에 특이값 분해를 적용하여 차원을 축소하고 잠재된 의미를 추출하는 정보 검색 기술이다.
  • 잠재 변수 모형 - 토픽 모델
    토픽 모델은 텍스트 데이터에서 문서의 주제를 찾기 위해 사용되는 통계적 모델링 방법으로, 잠재 의미 분석(LSI)에서 잠재 디리클레 할당(LDA)까지 다양한 모델이 개발되어 텍스트 데이터 분석 외 여러 분야에 응용되며, Mallet, Gensim 등의 도구로 사용 가능하다.
  • 통계학 용어 - 퍼센트 포인트
    퍼센트포인트는 전체 비율을 나타내는 퍼센트와 달리 두 퍼센트 값의 차이를 나타내는 단위로, 경제 지표나 여론조사 등에서 명확한 정보 전달을 위해 중요하며 절대적 변화량을 나타낸다.
  • 통계학 용어 - 편차
    편차는 관측값과 참값의 차이인 오차를 의미하며 통계적 분산 측정에 중요하고, 데이터 분석, 과학 실험, 무선 공학 등에서 활용된다.
  • 통계학 - 확률
    확률은 사건의 가능성을 수치화한 개념으로, 도박에서 시작되어 수학적으로 발전했으며, 다양한 해석과 요소, 응용 분야를 가지며 양자역학, 사회 현상 등에도 적용된다.
  • 통계학 - 사분위수
    사분위수는 정렬된 데이터를 4등분하는 세 개의 값으로 데이터 분포 요약 및 이상치 탐지에 활용되며, 제1사분위수(Q₁)는 하위 25%, 제2사분위수(Q₂ 또는 중앙값)는 하위 50%, 제3사분위수(Q₃)는 하위 75%를 나타낸다.
잠재 변수

2. 잠재 변수의 개념 및 특징

잠재 변수는 직접 측정할 수 없고, 관찰 가능한 다른 변수들을 통해 간접적으로 추론하는 변수이다. 요인 분석과 같은 통계적 방법을 통해 잠재 변수를 추론한다. 요인 분석으로 생성된 잠재 변수는 변수들이 함께 "이동"하는 정도, 즉 "공유된" 분산을 나타낸다. 상관관계가 없는 변수들은 공통 요인 모델을 기반으로 한 잠재 구조를 생성할 수 없다.[13]

경제학에서 잠재 변수는 삶의 질, 기업 신뢰도, 사기, 행복, 보수주의 등과 같이 직접 측정이 불가능한 개념을 설명하는 데 사용된다. 이러한 잠재 변수는 관측 가능한 변수들과 연결되어 그 값을 추론할 수 있는데, 예를 들어 삶의 질은 부, 고용, 환경, 건강, 교육, 여가, 사회적 소속감 등을 통해 간접적으로 측정할 수 있다.

의학 분야에서도 잠재 변수 방법론이 활용된다. 특히, 시간 척도가 연구 대상의 특성과 동기화되지 않는 종단 연구에서 유용하게 사용된다.

2. 1. 심리학에서의 잠재 변수

심리학에서 잠재 변수는 개인의 성격 특성, 지능, 태도 등을 포함한다. 요인 분석은 심리학에서 잠재 변수를 추론하는 대표적인 방법 중 하나이다.[5] 요인 분석으로 생성된 잠재 변수는 일반적으로 변수들이 함께 "이동"하는 정도인 "공유된" 분산을 나타낸다. 상관 관계가 없는 변수는 공통 요인 모델을 기반으로 잠재 구조를 생성할 수 없다.[13]

심리학에서 다루는 잠재 변수의 예시는 다음과 같다.

2. 2. 경제학에서의 잠재 변수

경제학에서 삶의 질, 기업 신뢰도, 사기, 행복, 보수주의 등은 직접 측정할 수 없는 잠재 변수이다. 이러한 잠재 변수는 다른 관찰 가능한 변수와 연결하여, 관찰 가능한 변수의 측정값에서 잠재 변수의 값을 추론할 수 있다. 예를 들어, 삶의 질은 직접 측정할 수 없지만, 부, 고용, 환경, 정신적 및 신체적 건강, 교육, 레크리에이션 및 여가 시간, 사회적 소속감과 같은 관찰 가능한 변수를 통해 추론할 수 있다.

2. 3. 의학에서의 잠재 변수

의학에서 잠재 변수 방법론은 여러 분야에서 사용된다. 특히, 시간 척도(예: 참가자의 나이 또는 연구 기준선 이후의 시간)가 연구 중인 특성과 동기화되지 않는 종단 연구에서 유용하다. 이러한 연구에서는 연구 중인 특성과 동기화된, 관찰되지 않은 시간 척도를 잠재 변수를 사용하여 관찰된 시간 척도의 변환으로 모델링할 수 있다. 이러한 예로는 질병 진행 모델링과 성장 모델링이 있다.

3. 잠재 변수 모델

'''잠재 변수 모델'''(Latent_variable_model)은 관측 변수와 잠재 변수 간의 관계를 확률적으로 나타내는 확률 모형이다.[17]

잠재 변수 모델에서는 관측 변수 x의 분포 p^*(x)를 잠재 변수 z와 모형 매개변수 \theta를 사용한 결합 분포 p_{\theta}(x, z)로 표현한다. 이때 결합 분포를 주변화하면 다음과 같이 나타낼 수 있다.

:p_{\theta}(x) = \int p_{\theta}(x, z) dz

이는 잠재 변수에 관해 주변화된 가능도 p(x|\theta)로 간주할 수 있으므로, \theta의 함수로서 '''주변 가능도'''(marginal likelihood) 또는 '''증거'''(model evidence)라고 불린다.[18]

잠재 변수를 포함하는 모형의 예시로는 베이즈 네트워크가 있다. 베이즈 네트워크는 결합 분포의 인수 분해에 의해 조건부 확률 모형의 곱 p_{\theta}(x, z) = p_{\theta}(x|z) p_{\theta}(z)로 모델링된다.[19] 이때 p_{\theta}(z)는 "z의 사전 분포"라고 불린다.[20]

잠재 변수 모델의 매개변수 추정에는 과제와 이에 대응하는 기법이 존재한다. 잠재 변수는 모형 내부에 존재하는 변수이며, 관측값으로 주어지지 않는다. 따라서 결합 분포 p_{\theta}(x, z)가 아닌 주변 가능도 p_\theta(x)를 통해 최적화하게 된다. 그러나 최대 가능도 추정을 하는 경우, 주변화에서 등장하는 적분이 intractable 하므로 가능도의 해석적 해법도 효율적인 추정기도 얻을 수 없다.[21]

베이즈 네트워크로 모델링할 때 각 조건부 확률 모형은 tractable한 것을 채택하기 때문에 결합 분포는 tractable해진다. 따라서 베이즈 정리에 의해 intractable한 원인은 주변 가능도 p_\theta(x) 및 사후 분포 p_\theta(z|x)에 있음을 알 수 있다.[22]

:p_{\theta}(z|x) = \frac{p_{\theta}(x, z)}{p_{\theta}(x)}


3. 1. 잠재 변수 모델의 종류

잠재 변수 모델에는 다음과 같은 종류가 있다.

요인 분석법으로 생성된 잠재 변수는 일반적으로 변수들이 공유하는 분산, 즉 변수들이 함께 움직이는 정도를 나타낸다. 상관관계가 없는 변수들은 요인 모델에 기반한 잠재 구조를 생성할 수 없다.[5]

요인 분석을 통해 추론되는 잠재 변수의 예시는 다음과 같다.

  • 빅5 성격 특성[6]
  • 외향성[6]
  • 공간 능력[7]
  • 지혜 (지혜 관련 수행과 잠재 변수 측정을 통해 평가)[8]
  • 스피어만의 g, 즉 일반 지능 요인[8]

3. 2. 잠재 변수 모델의 추론 및 분석 방법

3. 3. 베이지안 알고리즘 및 방법

베이즈 통계학은 잠재 변수를 추론하는 데 유용한 도구이다.

  • 잠재 디리클레 할당
  • 중국 음식점 과정은 종종 객체를 잠재 범주에 할당하는 것에 대한 사전 분포를 제공하는 데 사용된다.
  • 인도 뷔페 과정은 종종 객체에 잠재 이진 특징을 할당하는 것에 대한 사전 분포를 제공하는 데 사용된다.

3. 4. 심층 잠재 변수 모델 (DLVM)

Deep Latent Variable Models|심층 잠재 변수 모델영어(DLVM)은 베이지안 네트워크의 조건부 입력을 신경망으로 변환하는 잠재 변수 모델의 일종이다.[23] 그 결합 분포는 다음 식으로 표현된다.

:p_{\theta}(z_0=x, z_1, ..., z_N)

= \prod_{i=0}^N p_\theta(z_i | pa(z_i))

= \prod_{i=0}^N p_\theta(z_i; \ \eta = NeuralNet_\theta(pa(z_i)))



DLVM에서는 만능 근사 능력을 가진 신경망을 사용하여 잠재 변수를 변환하므로, 각 조건부 확률 모델 p_\theta(z_i | pa(z_i))에 간단한 분포를 사용하더라도 복잡한 주변 분포 p_\theta(x)를 표현할 수 있다.[24]

DLVM은 잠재 변수 모델이므로, 파라미터 추정에 단순한 최대 우도 추정을 적용할 수 없다. DLVM의 학습을 가능하게 하는 기법 중 하나로 변분 오토인코더가 존재한다.

참조

[1] 웹사이트 Latent https://en.wiktionar[...] 2024-08-30
[2] 서적 The Oxford Dictionary of Statistical Terms OUP
[3] 서적 Novum Organum https://www.gutenber[...]
[4] 논문 A nonlinear mixed-effects model for simultaneous smoothing and registration of functional data
[5] 서적 Using Multivariate Analysis Allyn and Bacon
[6] 논문 The Theoretical Status of Latent Variables http://rhowell.ba.tt[...] 2008-04-08
[7] 논문 The Wisdom Development Scale: Further Validity Investigations
[8] 논문 "General Intelligence," Objectively Determined and Measured
[9] 문서 Instrumented Principal Component Analysis https://ssrn.com/abs[...] 2020-12-17
[10] 문서 「隠された」を表す[[ラテン語]]: lateo から
[11] 문서 We typically use z to denote such latent variables. Foundations and Trends in Machine Learning
[12] 논문 A nonlinear mixed-effects model for simultaneous smoothing and registration of functional data
[13] 서적 Using Multivariate Analysis Allyn and Bacon
[14] 논문 The Theoretical Status of Latent Variables http://rhowell.ba.tt[...] 2008-04-08
[15] 논문 The Wisdom Development Scale: Further Validity Investigations
[16] 논문 "General Intelligence," Objectively Determined and Measured
[17] 문서 a latent variable model p_{\theta}(x, z) Foundations and Trends in Machine Learning
[18] 간행물 This is also called the (single datapoint) marginal likelihood or the model evidence, when taken as a function of θ. http://arxiv.org/abs[...] Foundations and Trends in Machine Learning
[19] 문서 Perhaps the simplest, and most common, DLVM is one that is specified as factorization Foundations and Trends in Machine Learning
[20] 문서 The distribution p(z) is often called the prior distribution over z, since it is not conditioned on any observations. Foundations and Trends in Machine Learning
[21] 간행물 This is due to the integral ... for computing the marginal likelihood ..., not having an analytic solution or efficient estimator. http://arxiv.org/abs[...] Foundations and Trends in Machine Learning
[22] 간행물 The intractability of pθ(x), is related to the intractability of the posterior distribution pθ(z|x). ... Since pθ(x, z) is tractable to compute, a tractable marginal likelihood pθ(x) leads to a tractable posterior pθ(z|x), and vice versa. Both are intractable in DLVMs.' http://arxiv.org/abs[...] Foundations and Trends in Machine Learning
[23] 간행물 We use the term deep latent variable model (DLVM) to denote a latent variable model pθ(x, z) whose distributions are parameterized by neural networks. http://arxiv.org/abs[...] Foundations and Trends in Machine Learning
[24] 문서 One important advantage of DLVMs, is that even when each factor (prior or conditional distribution) in the directed model is relatively simple (such as conditional Gaussian), the marginal distribution pθ(x) can be very complex



본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.

문의하기 : help@durumis.com