맨위로가기

표준 편차

"오늘의AI위키"는 AI 기술로 일관성 있고 체계적인 최신 지식을 제공하는 혁신 플랫폼입니다.
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.

1. 개요

표준 편차는 확률 변수 또는 모집단의 분산의 제곱근으로 정의되는 통계적 개념이다. 데이터의 변동성을 측정하고, 불확실성을 평가하며, 의사 결정을 지원하는 데 사용된다. 표준 편차는 모집단 표준 편차와 표본 표준 편차로 나뉘며, 모집단의 모든 데이터를 사용하여 계산하거나, 모집단에서 추출한 표본을 통해 추정할 수 있다. 표준 편차는 위치의 변화에 불변하며, 척도에 따라 직접적으로 변하는 성질을 가진다.

더 읽어볼만한 페이지

  • 통계량 - 제곱평균제곱근
    제곱평균제곱근(RMS)은 값들의 크기를 나타내는 통계량으로, 이산 데이터의 경우 각 값의 제곱의 평균의 제곱근, 연속 함수의 경우 함수 제곱의 적분 평균의 제곱근으로 정의되며, 전기공학, 물리학 등 다양한 분야에서 활용되고 표준편차와 밀접한 관련이 있다.
  • 통계량 - 최빈값
    최빈값은 데이터 집합에서 가장 자주 나타나는 값으로, 확률 분포의 중심 경향을 나타내는 척도이며 이상치에 둔감하고 명목형 데이터에도 적용 가능하다.
  • 통계학 용어 - 퍼센트 포인트
    퍼센트포인트는 전체 비율을 나타내는 퍼센트와 달리 두 퍼센트 값의 차이를 나타내는 단위로, 경제 지표나 여론조사 등에서 명확한 정보 전달을 위해 중요하며 절대적 변화량을 나타낸다.
  • 통계학 용어 - 편차
    편차는 관측값과 참값의 차이인 오차를 의미하며 통계적 분산 측정에 중요하고, 데이터 분석, 과학 실험, 무선 공학 등에서 활용된다.
표준 편차
통계
정의
수식
관련 통계량

2. 정의

확률 변수 또는 모집단의 표준편차는 분산의 양의 제곱근으로 정의된다.[43]

:\begin{align}

\sigma &= \sqrt{\operatorname E\left[(X - \mu)^2\right]} \\

&= \sqrt{\operatorname E\left[X^2\right] - (\operatorname E[X])^2}

\end{align}

이는 분산의 제곱근과 같다.

말로 표현하자면, 표준 편차는 확률변수 X의 분산의 제곱근이다. 확률 분포의 표준 편차는 해당 분포를 갖는 확률 변수의 표준 편차와 같다.

모든 확률 변수가 표준 편차를 갖는 것은 아니다. 분포가 무한대로 뻗어 나가는 꼬리가 두꺼운 분포를 가지면, 적분이 수렴하지 않아 표준 편차가 존재하지 않을 수 있다. 정규 분포는 무한대로 뻗어 나가는 꼬리를 갖지만, 꼬리가 충분히 빨리 감소하기 때문에 평균과 표준 편차가 존재한다. 파라미터가 \alpha \in (1,2] 파레토 분포는 평균을 갖지만 표준 편차는 갖지 않는다 (대략적으로 말하면, 표준 편차는 무한대이다). 코시 분포는 평균도 표준 편차도 갖지 않는다.

2. 1. 모집단 표준편차

확률 변수 \operatorname{E}[X]\mu라 할 때, 모집단 \sigma_X는 다음과 같이 정의한다.[43]

:\begin{align}

\sigma &= \sqrt{\operatorname E\left[(X - \mu)^2\right]} \\

&= \sqrt{\operatorname E\left[X^2\right] - (\operatorname E[X])^2}

\end{align}

이는 분산의 제곱근과 같다.

모집단의 모든 데이터 $x_1, x_2, ..., x_n$에 대해, 평균 $\overline{x}$는 다음 식으로 정의된다.

:\overline{x} = \frac{1}{n} \textstyle\sum\limits_{i=1}^n x_i

이 평균 $\overline{x}$를 사용하여 얻을 수 있는 분산 $\sigma^2$는 다음 식으로 정의된다.

:\sigma^2 = \frac{1}{n} \textstyle\sum\limits_{i=1}^n (x_i - \overline{x})^2 = \dfrac{1}{n} \sum\limits_{i=1}^n {x_i}^2 - \overline{x}^2

$\sigma^2$를 모분산이라고도 한다.

이 분산의 음이 아닌 제곱근 σ를, 모집단의 '''표준 편차'''로 정의한다[32]。분산과 달리 표준 편차는 데이터 값과 차원이 같다. 편차는 평균적으로 표준 편차만큼 떨어져 있다고 생각할 수 있다.

예를 들어 어떤 학급 8명의 학생 전체를 모집단으로 가정하면, 8명의 학생 점수는 다음과 같다.

2,\ 4,\ 4,\ 4,\ 5,\ 5,\ 7,\ 9.

이 8개의 데이터는 평균 5를 갖는다.

\mu = \frac{2 + 4 + 4 + 4 + 5 + 5 + 7 + 9}{8} = \frac{40}{8} = 5.

각 데이터의 평균으로부터 편차를 제곱하면 다음과 같다.

\begin{array}{lll}

(2 - 5)^2 = (-3)^2 = 9 && (5 - 5)^2 = 0^2 = 0 \\

(4 - 5)^2 = (-1)^2 = 1 && (5 - 5)^2 = 0^2 = 0 \\

(4 - 5)^2 = (-1)^2 = 1 && (7 - 5)^2 = 2^2 = 4 \\

(4 - 5)^2 = (-1)^2 = 1 && (9 - 5)^2 = 4^2 = 16. \\

\end{array}

분산은 이 값들의 평균이다.

\sigma^2 = \frac{9 + 1 + 1 + 1 + 0 + 0 + 4 + 16}{8} = \frac{32}{8} = 4.

모집단 표준 편차는 분산의 제곱근과 같다.

\sigma = \sqrt{ 4 } = 2.

2. 2. 표본 표준편차

모집단에서 추출한 표본 $x_1, x_2, ..., x_n$에 대한 표본 표준편차 $s$는 다음과 같이 정의된다.[32]

:s = \sqrt{\frac{1}{n-1} \sum_{i=1}^n (x_i - \bar{x})^2}

여기서 $\bar{x}$는 표본 평균이다. 분모를 n-1로 나누는 이유는 분산을 계산할 때 모평균이 아닌 표본 평균을 사용했기 때문에 모집단의 편의 추정량(biased estimator)이 되므로, 분산이 불편 추정량(unbiased estimator)이 되도록 하기 위해서이다.[44] n-1을 자유도(degree of freedom)라고 본다.[45]

표본의 크기를 모집단의 크기로 사용하여, ''모집단'' 표준 편차(유한 모집단의) 공식은 표본에 적용될 수 있다(표본이 추출된 실제 모집단의 크기는 훨씬 더 클 수 있지만). 이 추정량은 ''s''''N''으로 표시되며, ''수정되지 않은 표본 표준 편차'' 또는 때로는 (전체 모집단으로 간주되는) ''표본의 표준 편차''라고 하며, 다음과 같이 정의된다:[5]

:s_N = \sqrt{\frac{1}{N} \sum_{i=1}^N \left(x_i - \bar{x}\right)^2}

여기서 $x_1, \, x_2, \, \ldots, \, x_N$는 표본 항목의 관측값이고, $\bar{x}$는 이러한 관측값의 평균값이며, 분모 ''N''은 표본의 크기를 나타낸다. 즉, 표본 평균에 대한 제곱 편차의 평균인 표본 분산의 제곱근이다.

이것은 일치 추정량이며(표본 수가 무한대로 갈수록 확률적으로 모집단 값에 수렴), 모집단이 정규 분포를 따를 때 최대 우도 추정이다.[6] 그러나 이것은 편향 추정량이며, 추정값이 일반적으로 너무 낮다. 편향은 표본 크기가 커짐에 따라 감소하며, 1/''N''으로 감소하므로 작거나 중간 크기의 표본에서 가장 중요하다. $N > 75$의 경우 편향은 1% 미만이다. 따라서 매우 큰 표본 크기의 경우, 수정되지 않은 표본 표준 편차는 일반적으로 허용된다. 이 추정량은 또한 수정된 표본 표준 편차보다 균일하게 작은 평균 제곱 오차를 갖는다.

''s''2는 모집단 분산에 대한 비편향 추정량이지만, ''s''는 여전히 수정되지 않은 표본 표준 편차보다 훨씬 덜 편향되지만, 모집단 표준 편차에 대한 편향된 추정량이다. 이 추정량은 일반적으로 사용되며 일반적으로 "표본 표준 편차"라고 한다. 편향은 작은 표본 (''N''이 10 미만)의 경우 여전히 클 수 있다. 표본 크기가 증가함에 따라 편향의 양이 감소한다.

2. 3. 불편 표본 표준편차

표본 표준편차는 모 표준편차를 과소추정하는 경향이 있다.[33] 베셀 보정을 적용하여 ''N'' 대신 ''N'' − 1을 사용하여 ''비편향 표본 분산''을 산출하며, 이는 ''s''2로 표시된다.[44][45]

:s^2 = \frac{1}{N - 1} \sum_{i=1}^N \left(x_i - \bar{x}\right)^2.

이 추정량은 분산이 존재하고 표본 값이 복원 추출로 독립적으로 추출되는 경우 비편향이다. ''N'' − 1은 평균에서 벗어난 편차 벡터 \textstyle(x_1 - \bar{x},\; \dots,\; x_n - \bar{x}).의 자유도 수에 해당한다.

제곱근을 취하면 (제곱근은 기대치와 교환되지 않는 비선형 함수이므로, 즉 종종 E[\sqrt{X}]\neq \sqrt{E[X]}이므로) 편향이 다시 발생하여 ''수정된 표본 표준 편차''를 얻게 되며, 이는 ''s:''로 표시된다.

:s = \sqrt{\frac{1}{N-1} \sum_{i=1}^N \left(x_i - \bar{x}\right)^2}.

''s''2는 모집단 분산에 대한 비편향 추정량이지만, ''s''는 여전히 수정되지 않은 표본 표준 편차보다 훨씬 덜 편향되지만, 모집단 표준 편차에 대한 편향된 추정량이다. 이 추정량은 일반적으로 사용되며 일반적으로 "표본 표준 편차"라고 한다. 편향은 작은 표본 (''N''이 10 미만)의 경우 여전히 클 수 있다. 표본 크기가 증가함에 따라 편향의 양이 감소한다.

표본 표준 편차의 불편 추정의 경우, 평균과 분산과 달리 모든 분포에서 작동하는 공식은 없다. 대신 를 기반으로 사용하고, 불편 추정치를 생성하기 위해 보정 계수로 조정한다. 정규 분포의 경우, 불편 추정량은 |}}}}로 주어지며, 여기서 (에 의존하는) 보정 계수는 감마 함수의 관점에서 주어지며, 다음과 같다.

:c_4(N)\,=\,\sqrt{\frac{2}{N-1}}\,\,\,\frac{\Gamma\left(\frac{N}{2}\right)}{\Gamma\left(\frac{N-1}{2}\right)}.

이는 표본 표준 편차의 표집 분포가 (조정된) 카이 분포를 따르기 때문에 발생하며, 보정 계수는 카이 분포의 평균이다.

}}를 모분산, }}를 표본분산이라고 할 때, 표본분산의 기대값 ]}}는 다음과 같이 나타낼 수 있다.

:E[s^2] = \frac{n-1}{n} \sigma^2

따라서 표본분산은 모분산의 불편추정량이 아니다.

:v^2 = \frac{1}{n-1} \textstyle\sum\limits_{i=1}^n (x_i - \bar{x})^2 = \dfrac{1}{n-1} \sum\limits_{i=1}^n {x_i}^2 - \dfrac{n}{n-1}\bar{x}^2

를 고려하면, 이 양의 기대값은 모분산과 같아 모분산의 불편추정량이 된다.

이렇게 정의된 }}를 불편분산이라고 한다. 를 '''불편표준편차'''라고 한다.

3. 성질

표준 편차는 위치의 변화에 불변하며, 확률 변수의 척도에 따라 직접적으로 변한다. 상수 c와 확률 변수 X 및 Y에 대해 다음이 성립한다.

:σ(c) = 0

:σ(X + c) = σ(X)

:σ(cX) = |c|σ(X)

두 확률 변수의 합의 표준 편차는 각 표준 편차와 두 변수 간의 공분산과 관련될 수 있다.

:\sigma(X + Y) = \sqrt{\operatorname{var}(X) + \operatorname{var}(Y) + 2 \,\operatorname{cov}(X,Y)}.

여기서 \operatorname{var} = σ2와 \operatorname{cov}는 각각 분산과 공분산을 나타낸다.

제곱 편차 합의 계산은 데이터에서 직접 계산된 모멘트와 관련될 수 있다. 다음 공식에서 문자 E는 기대값, 즉 평균을 의미하는 것으로 해석된다.

:σ(X) = \sqrt{\operatorname E\left[(X - \operatorname E[X])^2\right]} = \sqrt{\operatorname E\left[X^2\right] - (\operatorname E[X])^2}.

표본 표준 편차는 다음과 같이 계산할 수 있다.

:s(X) = \sqrt{\frac{N}{N-1}} \sqrt{\operatorname E\left[(X - \operatorname E[X])^2\right]}.

모든 점에서 동일한 확률을 가진 유한 모집단의 경우, 다음을 얻는다.

:\sqrt{\frac{1}{N}\sum_{i=1}^N\left(x_i - \bar{x}\right)^2} =

\sqrt{\frac{1}{N}\left(\sum_{i=1}^N x_i^2\right) - {\bar{x}}^2} =

\sqrt{\left(\frac{1}{N}\sum_{i=1}^N x_i^2\right) - \left(\frac{1}{N} \sum_{i=1}^{N} x_i\right)^2},

이는 표준 편차가 값의 제곱의 평균과 평균의 제곱의 차이의 제곱근과 같다는 것을 의미한다.

분산의 계산 공식에서 증명 및 표본 표준 편차에 대한 유사한 결과를 참조할 수 있다.

3. 1. 기댓값과의 관계

표준 편차는 위치의 변화에 불변하며, 확률 변수의 척도에 따라 직접적으로 변한다. 상수 와 확률 변수 및 에 대해 다음이 성립한다.

:σ(c) = 0

:σ(X + c) = σ(X)

:σ(cX) = |c|σ(X)

두 확률 변수의 합의 표준 편차는 각 표준 편차와 두 변수 간의 공분산과 관련될 수 있다.

: \sigma(X + Y) = \sqrt{\operatorname{var}(X) + \operatorname{var}(Y) + 2 \,\operatorname{cov}(X,Y)}. \,

여기서 \textstyle\operatorname{var} \,=\, \sigma^2\textstyle\operatorname{cov}는 각각 분산과 공분산을 나타낸다.

제곱 편차 합의 계산은 데이터에서 직접 계산된 모멘트와 관련될 수 있다. 다음 공식에서 문자 는 기대값, 즉 평균을 의미하는 것으로 해석된다.

:σ(X) = \sqrt{\operatorname E\left[(X - \operatorname E[X])^2\right]} = \sqrt{\operatorname E\left[X^2\right] - (\operatorname E[X])^2}.

표본 표준 편차는 다음과 같이 계산할 수 있다.

:s(X) = \sqrt{\frac{N}{N-1}} \sqrt{\operatorname E\left[(X - \operatorname E[X])^2\right]}.

모든 점에서 동일한 확률을 가진 유한 모집단의 경우, 다음을 얻는다.

: \sqrt{\frac{1}{N}\sum_{i=1}^N\left(x_i - \bar{x}\right)^2} =

\sqrt{\frac{1}{N}\left(\sum_{i=1}^N x_i^2\right) - {\bar{x}}^2} =

\sqrt{\left(\frac{1}{N}\sum_{i=1}^N x_i^2\right) - \left(\frac{1}{N} \sum_{i=1}^{N} x_i\right)^2},

이는 표준 편차가 값의 제곱의 평균과 평균의 제곱의 차이의 제곱근과 같다는 것을 의미한다.

분산의 계산 공식에서 증명 및 표본 표준 편차에 대한 유사한 결과를 참조할수 있다.

3. 2. 확률 변수의 표준편차

3. 2. 1. 이산 확률 변수

''X''가 유한 데이터 집합 ''x''1, ''x''2, ..., ''x''N에서 임의의 값을 가지며, 각 값이 동일한 확률을 갖는 경우, 표준 편차는 다음과 같다.

:σ = √{1/N [(x1 - μ)2 + (x2 - μ)2 + ⋯ + (xN - μ)2]}, μ = 1/N (x1 + ⋯ + xN)

참고: 위의 식은 내재된 편향을 가지고 있다. 아래의 베셀 보정에 대한 설명을 참조.

또는 시그마 표기법을 사용하여

:σ = √{1/N Σi=1N (xi - μ)2}, μ = 1/N Σi=1N xi.

만약 동일한 확률을 갖는 대신, 값들이 서로 다른 확률을 갖는다면, ''x''1은 확률 ''p''1을, ''x''2는 확률 ''p''2, ..., ''x''N는 확률 ''p''N을 갖는다고 가정한다. 이 경우, 표준 편차는 다음과 같다.

:σ = √{Σi=1N pi(xi - μ)2}, μ = Σi=1N pi xi.

''X''를 이산형 확률 변수라고 하자. ''X''가 가질 수 있는 값을 ''x''1, ''x''2, …, ''xn'', …로 하고, ''X''가 ''xi''를 가질 확률을 ''pi''로 나타낸다. 이 때

i=1 pi = 1 (pi ≥ 0)

이다. 이 때

:E[X] = Σi=1 pi xi

를 확률 변수 ''X''의 기댓값이라고 한다. 또한,

:V[X] = E[(''X''-E[X])2] = Σi=1 pi(''xi'' - E[X])2 = E[X2]-(E[X])2

를 확률 변수 ''X''의 분산이라고 한다. 이 분산의 음이 아닌 제곱근을 '''표준 편차'''라고 한다.

3. 2. 2. 연속 확률 변수

연속 확률 분포를 갖는 연속 확률 변수 ''X''의 확률 밀도 함수 ''p''(''x'')의 표준 편차는 다음과 같다.

:σ = √∫'''X''' (x - μ)² p(x) dx, μ = ∫'''X''' x p(x) dx

여기서 적분은 확률 변수 ''X''가 가질 수 있는 값의 집합에 대해 ''x''가 변하는 범위에서 계산되는 정적분이다.

모수 분포족의 경우, 표준 편차는 모수를 사용하여 표현될 수 있다. 예를 들어, 모수 μ와 σ2를 갖는 로그 정규 분포의 경우, 표준 편차는 다음과 같다.

:√( (eσ² - 1) e2μ + σ² )

''X''를 연속형 확률 변수라고 하자. ''X''의 값이 구간 [''x''1, ''x''2]에 속할 확률이 연속 함수 ''f''(''x'')를 사용하여

:∫x1x2 f(x) dx

로 표현될 때, ''f''(''x'')를 ''X''의 확률 밀도 함수라고 한다. 이때

:f(x) ≥ 0, ∫-∞ f(x) dx = 1

이다. 이때

:E[X] = ∫-∞ xf(x) dx

를 확률 변수 ''X''의 기댓값이라고 한다. 또한,

:V[X] = ∫-∞ (x - E[X])²f(x) dx

를 확률 변수 ''X''의 분산이라고 한다. 이 분산의 음이 아닌 제곱근을 '''표준 편차'''라고 한다.

3. 3. 통계적 추정

모집단의 모든 구성원을 표본으로 추출하는 경우(표준화된 시험 등)와 같이 전체 모집단의 표준 편차를 구할 수 있다. 그렇게 할 수 없는 경우, 표준 편차 ''σ''는 모집단에서 추출한 임의 표본을 검사하고 표본의 통계량을 계산하여 추정하며, 이는 모집단 표준 편차의 추정치로 사용된다. 이러한 통계량을 추정량이라고 하며, 추정량(또는 추정량의 값, 즉 추정치)을 표본 표준 편차라고 하며 ''s''(수식어를 포함할 수 있음)로 표시한다.

정규 분포의 모집단 평균을 추정하는 경우, 표본 평균이 많은 바람직한 속성(불편, 효율적, 최대 우도)을 가진 간단한 추정량인 것과는 달리, 이러한 모든 속성을 가진 표준 편차에 대한 단일 추정량은 없으며, 표준 편차의 불편 추정은 매우 기술적으로 복잡한 문제이다. 가장 흔하게는 ''수정된 표본 표준 편차''(''N'' − 1 사용)를 사용하여 표준 편차를 추정하며, 이는 종종 수식어 없이 "표본 표준 편차"라고 한다. 그러나 다른 추정량은 다른 측면에서 더 낫다. 수정되지 않은 추정량(''N'' 사용)은 평균 제곱 오차가 더 낮고, ''N'' − 1.5 (정규 분포의 경우)를 사용하면 편향이 거의 완전히 제거된다.

모집단이 정규 분포를 따르는 경우, 모집단의 표준 편차의 불편 추정량은 다음 식으로 주어진다:

:D= \sqrt{\frac{n-1}{2}} \frac{\Gamma \left( \frac{n-1}{2} \right)}{ \Gamma \left( \frac{n}{2} \right)} v

여기서, 는 감마 함수, ''v''2는 불편 분산이다.

표본의 크기가 커지면, 모집단의 표준 편차의 불편 추정량은, 근사적으로, 평균으로부터의 편차 제곱합을 ''n'' − 1.5로 나눈 값의 제곱근으로 구할 수 있다:

:D \approx \sqrt{\frac{1}{n-1.5} \textstyle\sum\limits_{i=1}^n(x_i - \bar{x})^2} =\sqrt{\dfrac{1}{n-1.5} \textstyle\sum\limits_{i=1}^n {x_i}^2 - \dfrac{n}{n-1.5}\bar{x}^2}

모표준편차가 알려지지 않은 경우, 표본에서 얻은 표본 표준편차를 사용하여 추정할 수 있다. 모표준편차를 σ, 크기 N인 표본의 표준편차를 s라고 할 때, 모집단 분포가 정규 분포라면 σ2는 다음 자유도 ''N'' − 1의 χ2 분포를 따른다.

:\chi^2 = \frac{Ns^2}{\sigma^2}

σ의 95%신뢰 구간은 ''P'' = 0.975의 χ2에서 ''P'' = 0.025의 χ2까지의 범위이며, s와 σ의 비는 ''N'' = 5에서는 0.31에서 1.49, ''N'' = 20에서는 0.67에서 1.28이 되며, 표본이 작은 경우에는 범위가 상당히 넓다는 점에 유의해야 한다.

z → p


p → z


신뢰 구간신뢰도불신뢰도
백분율백분율분수
0.318639σ25%75%3/4
0.674490σ50%50%1/2
0.994458σ68%32%1/3.125
68.2689492%31.7310508%1/3.1514872
1.281552σ80%20%1/5
1.644854σ90%10%1/10
1.959964σ95%5%1/20
95.4499736%4.5500264%1/21.977895
2.575829σ99%1%1/100
99.7300204%0.2699796%1/370.398
3.290527σ99.9%0.1%1/1000
3.890592σ99.99%0.01%1/10000
99.993666%0.006334%1/15787
4.417173σ99.999%0.001%1/100000
4.5σ99.9993204653751%0.0006795346249%1/147159.5358 = 3.4/1000000
4.891638σ99.9999%0.0001%1/1000000
99.9999426697%0.0000573303%1/1744278
5.326724σ99.99999%0.00001%1/10000000
5.730729σ99.999999%0.000001%1/100000000
99.9999998027%0.0000001973%1/506797346
6.109410σ99.9999999%0.0000001%1/1000000000
6.466951σ99.99999999%0.00000001%1/10000000000
6.806502σ99.999999999%0.000000001%1/100000000000
99.9999999997440%0.000000000256%1/390682215445



=== 베셀 보정 ===

편향된 표본 분산을 사용하여 모집단의 표준 편차 추정값을 계산하면, 젠센 부등식에 의해 추가적인 아래쪽 편향이 발생한다. 분산의 편향은 쉽게 수정되지만, 제곱근의 편향은 수정하기 더 어렵다.

''분산''에 대한 비편향 추정량은 베셀 보정을 적용하여 얻을 수 있다. 베셀 보정은 ''N'' 대신 ''N'' − 1을 사용하여 ''비편향 표본 분산'' ''s''2을 계산한다.

:s^2 = \frac{1}{N - 1} \sum_{i=1}^N \left(x_i - \bar{x}\right)^2.

이 추정량은 분산이 존재하고 표본 값이 복원 추출로 독립적으로 추출되는 경우 비편향이다. ''N'' − 1은 평균에서 벗어난 편차 벡터의 자유도 수에 해당한다.

제곱근을 취하면 편향이 다시 발생하여 ''수정된 표본 표준 편차'' ''s''를 얻게 된다.

:s = \sqrt{\frac{1}{N-1} \sum_{i=1}^N \left(x_i - \bar{x}\right)^2}.

''s''2는 모집단 분산에 대한 비편향 추정량이지만, ''s''는 여전히 모집단 표준 편차에 대한 편향된 추정량이다. 하지만 수정되지 않은 표본 표준 편차보다는 덜 편향되어 있다. 이 추정량은 일반적으로 "표본 표준 편차"라고 불린다. 편향은 작은 표본(N이 10미만)에서 클 수 있지만, 표본 크기가 증가함에 따라 감소한다.

3. 3. 1. 베셀 보정

편향된 표본 분산을 사용하여 모집단의 표준 편차 추정값을 계산하면, 젠센 부등식에 의해 추가적인 아래쪽 편향이 발생한다. 분산의 편향은 쉽게 수정되지만, 제곱근의 편향은 수정하기 더 어렵다.

''분산''에 대한 비편향 추정량은 베셀 보정을 적용하여 얻을 수 있다. 베셀 보정은 ''N'' 대신 ''N'' − 1을 사용하여 ''비편향 표본 분산'' ''s''2을 계산한다.

:s^2 = \frac{1}{N - 1} \sum_{i=1}^N \left(x_i - \bar{x}\right)^2.

이 추정량은 분산이 존재하고 표본 값이 복원 추출로 독립적으로 추출되는 경우 비편향이다. ''N'' − 1은 평균에서 벗어난 편차 벡터의 자유도 수에 해당한다.

제곱근을 취하면 편향이 다시 발생하여 ''수정된 표본 표준 편차'' ''s''를 얻게 된다.

:s = \sqrt{\frac{1}{N-1} \sum_{i=1}^N \left(x_i - \bar{x}\right)^2}.

''s''2는 모집단 분산에 대한 비편향 추정량이지만, ''s''는 여전히 모집단 표준 편차에 대한 편향된 추정량이다. 하지만 수정되지 않은 표본 표준 편차보다는 덜 편향되어 있다. 이 추정량은 일반적으로 "표본 표준 편차"라고 불린다. 편향은 작은 표본(N이 10미만)에서 클 수 있지만, 표본 크기가 증가함에 따라 감소한다.

3. 4. 표준 오차 및 통계적 유의성과의 관계

모집단 또는 표본의 표준 편차와 통계량(예: 표본 평균)의 표준 오차는 매우 다르지만 관련이 있다. 표본 평균의 표준 오차는 모집단에서 반복적으로 무한히 많은 표본을 추출하여 각 표본에 대해 평균을 계산함으로써 얻을 수 있는 일련의 평균의 표준 편차이다. 평균의 표준 오차는 모집단 표준 편차를 표본 크기의 제곱근으로 나눈 값과 같으며, 표본 표준 편차를 표본 크기의 제곱근으로 나누어 추정한다. 예를 들어, 여론 조사의 표준 오차(여론 조사의 오차 범위로 보고되는 것)는 동일한 여론 조사가 여러 번 수행될 경우 추정된 평균의 예상 표준 편차이다. 따라서 표준 오차는 추정치의 표준 편차를 추정하며, 이는 추정치가 모집단에서 추출된 특정 표본에 얼마나 의존하는지 측정한다.

과학에서는 데이터의 표준 편차(요약 통계량으로)와 추정치의 표준 오차(결과의 잠재적 오류의 척도로)를 모두 보고하는 것이 일반적이다. 관례에 따라, 귀무 가설 기대치에서 두 개 이상의 표준 오차 떨어진 효과만 "통계적으로 유의미"한 것으로 간주하며, 이는 무작위 표본 추출 오류로 인해 발생하는 잘못된 결론을 방지하는 안전 장치이다.

4. 계산

4. 1. 빠른 계산 방법

분산 계산 알고리즘도 참조

다음 두 공식은 런닝(반복적으로 업데이트되는) 표준 편차를 나타낼 수 있다. ''N''개의 ''x'' 값 집합에 대해 두 개의 거듭제곱 합 ''s''1과 ''s''2가 계산되며, ''x''1, ..., ''x''''N''으로 표시된다.

:sj = Σk=1Nxkj.

이 런닝 합의 결과를 바탕으로, 값 ''N'', ''s''1, ''s''2는 런닝 표준 편차의 "현재" 값을 언제든지 계산하는 데 사용할 수 있다.

:σ = √{N''s''2 - ''s''12} / N

여기서 ''N''은 위에서 언급했듯이 값 집합의 크기이다(또는 ''s''0로 간주할 수도 있다).

마찬가지로 표본 표준 편차의 경우,

:s = √{N''s''2 - ''s''12} / N(N - 1)}.

컴퓨터 구현에서 두 개의 ''s''j 합이 커지면, 반올림 오차, 산술 오버플로, 산술 언더플로를 고려해야 한다. 아래 방법은 반올림 오차를 줄여 런닝 합을 계산한다.[16] 이는 계산 중에 이전 데이터를 저장할 필요 없이 ''n''개의 표본의 분산을 계산하는 "원 패스" 알고리즘이다. 이 방법을 시계열에 적용하면 고정 폭 슬라이딩 윈도우 계산이 아닌, 각 새 샘플이 추가됨에 따라 ''n''이 커짐에 따라 ''n'' 데이터 포인트에 해당하는 표준 편차의 연속적인 값이 생성된다.

''k'' = 1, ..., ''n''에 대해:

:A0 = 0

:Ak = Ak-1 + (xk - Ak-1) / k

여기서 ''A''는 평균값이다.

:Q0 = 0

:Qk = Qk-1 + (k-1)/k (xk - Ak-1)2 = Qk-1 + (xk - Ak-1)(xk - Ak)

참고: ''Q''1 = 0 왜냐하면 ''k'' − 1 = 0 또는 ''x''1 = ''A''1이기 때문이다.

표본 분산:

:s2n = Qn / (n - 1)

모집단 분산:

2n = Qn / n

4. 2. 가중 계산

경중률을 w라 할 때, Σw=n인 경우 표본 표준편차 s는 다음과 같이 구한다.[44]

:s = \pm \sqrt{\frac{\Sigma w(x-\overline{x})^2}{n-1}}= \pm \sqrt{\frac{\Sigma w\nu ^2}{n-1}}

값이 xk가 서로 다른 가중치 wk로 가중될 때, 거듭제곱합은 각각 다음과 같이 계산된다.

:s_j = \sum_{k=1}^N w_k x_k^j.\,

표준 편차 방정식은 변경되지 않으며, s0는 표본 수 N이 아닌 가중치의 합이다.

반올림 오류를 줄인 증분 방법은 다음과 같다.

:각 k에 대해 1에서 n까지 가중치의 누적 합을 계산한다.

::\begin{align}

::W_0 &= 0 \\

::W_k &= W_{k-1} + w_k

::\end{align}

:위의 1/k가 사용되는 곳은 wk/Wk로 대체한다.

::\begin{align}

::A_0 &= 0 \\

::A_k &= A_{k-1} + \frac{w_k}{W_k}\left(x_k - A_{k-1}\right) \\

::Q_0 &= 0 \\

::Q_k &= Q_{k-1} + \frac{w_k W_{k-1}}{W_k}\left(x_k -A_{k-1}\right)^2 = Q_{k-1} + w_k\left(x_k-A_{k-1}\right)\left(x_k - A_k\right)

::\end{align}

최종 나눗셈에서,

:\sigma^2_n = \frac{Q_n}{W_n}\,

:그리고

:s^2_n = \frac{Q_n}{W_n - 1},

:또는

:s^2_n = \frac{n'}{n' - 1} \sigma^2_n,

여기서 n은 총 요소 수이고, n'은 0이 아닌 가중치를 가진 요소의 수이다.

위의 공식은 가중치를 1과 같게 취하면 위에 주어진 더 간단한 공식과 같아진다.

5. 활용

표준 편차는 데이터의 변동성을 측정하고, 불확실성을 평가하며, 의사 결정을 지원하는 데 사용된다. 큰 표준 편차는 데이터 포인트가 평균에서 멀리 떨어져 분포할 수 있음을 나타내고, 작은 표준 편차는 데이터 포인트가 평균 주변에 밀집되어 있음을 나타낸다.

평균은 같지만 표준 편차가 다른 두 모집단의 표본 예시. 빨간색 모집단은 평균 100, SD 10; 파란색 모집단은 평균 100, SD 50


예를 들어, 세 모집단 {0, 0, 14, 14}, {0, 6, 8, 14} 및 {6, 6, 8, 8}은 각각 평균이 7이다. 표준 편차는 각각 7, 5, 1이다. 세 번째 모집단은 값이 모두 7에 가깝기 때문에 다른 두 모집단보다 표준 편차가 훨씬 작다.

표준 편차는 불확실성의 척도로 작용할 수 있다. 예를 들어, 물리 과학에서 반복적인 측정 그룹의 보고된 표준 편차는 해당 측정의 정밀도를 제공한다. 측정의 평균이 예측에서 너무 멀리 떨어져 있으면 테스트 중인 이론을 수정해야 할 수 있다.

값 집합의 표준 편차를 이해하는 것의 실질적인 가치는 평균에서 얼마나 많은 변화가 있는지를 파악하는 데 있다. 표준 편차는 모델을 테스트하기 위해 실제 데이터를 모델과 비교하는 데 자주 사용된다. 예를 들어, 산업 응용 분야에서 생산 라인에서 나오는 제품의 무게는 법적으로 요구되는 값을 준수해야 할 수 있다. 표준 편차를 사용하면 평균 무게가 매우 높은 비율(99.9% 이상)로 유지될 최소 및 최대 값을 계산할 수 있다.

실험 과학에서는 현실에 대한 이론적 모델이 사용된다. 입자 물리학은 일반적으로 발견 선언에 "'''5 시그마'''"의 표준을 사용한다. 5 시그마 수준은 무작위 변동이 결과를 낼 확률이 350만 분의 1임을 의미한다. 이러한 수준의 확실성은 CERN에서 두 개의 독립적인 실험을 통해 힉스 보손과 일치하는 입자가 발견되었다고 주장하는 데 필요했으며,[11] 중력파의 최초 관측 선언으로 이어졌다.[12]

간단한 예시로, 내륙 도시와 해안 도시 두 곳의 일일 평균 최고 기온을 생각해 보자. 해안 도시의 일일 최고 기온의 표준 편차는 내륙 도시보다 작을 것이다.

금융에서 표준 편차는 주어진 자산의 가격 변동과 관련된 위험 또는 자산 포트폴리오[13]의 위험을 측정하는 데 자주 사용된다. 투자자는 투자가 더 높은 수준의 위험이나 불확실성을 수반할 때 투자에 대한 더 높은 수익률을 기대해야 한다. 표준 편차는 미래 수익의 불확실성에 대한 정량적 추정치를 제공한다.

예를 들어, 투자자가 두 주식 중에서 선택해야 한다고 가정해 보자. 지난 20년 동안 주식 A의 평균 수익률은 10%였고, 표준 편차는 20 퍼센트 포인트 (pp)였으며, 같은 기간 동안 주식 B는 평균 수익률이 12%였지만 표준 편차가 30 pp로 더 높았다. 주식 B는 주식 A보다 초기 투자를 밑돌 가능성이 더 높으며 평균 2%만 더 수익을 낼 것으로 추정된다.

표준 편차를 이용하여 신뢰 구간을 계산할 수 있다. 신뢰 구간은 모수가 특정 범위 내에 존재할 확률을 나타낸다.

신뢰 구간신뢰도(%)불신뢰도(%)
0.318639σ25%75%
0.674490σ50%50%
0.994458σ68%32%
68.2689492%31.7310508%
1.281552σ80%20%
1.644854σ90%10%
1.959964σ95%5%
95.4499736%4.5500264%
2.575829σ99%1%
99.7300204%0.2699796%
3.290527σ99.9%0.1%
3.890592σ99.99%0.01%
99.993666%0.006334%
4.417173σ99.999%0.001%
4.5σ99.9993204653751%0.0006795346249%
4.891638σ99.9999%0.0001%
99.9999426697%0.0000573303%
5.326724σ99.99999%0.00001%
5.730729σ99.999999%0.000001%
99.9999998027%0.0000001973%
6.109410σ99.9999999%0.0000001%
6.466951σ99.99999999%0.00000001%
6.806502σ99.999999999%0.000000001%
99.9999999997440%0.000000000256%



모표준편차가 알려지지 않은 경우, 표본에서 얻은 표본 표준편차를 사용하여 추정할 수 있다.

5. 1. 신뢰 구간

표준편차를 이용하여 신뢰 구간을 계산할 수 있다. 신뢰 구간은 모수가 특정 범위 내에 존재할 확률을 나타낸다. 분포를 표본 추출하여 얻은 표준 편차 자체는 수학적 이유(여기서는 신뢰 구간으로 설명됨)와 측정의 실질적인 이유(측정 오류)로 인해 절대적으로 정확하지 않다.

더 큰 표본이 신뢰 구간을 어떻게 좁히는지 보여주기 위해 다음 예를 고려할수 있다. 2}}의 작은 모집단은 표준 편차를 추정하는 데 자유도가 1개뿐이다. 그 결과 SD의 95% CI는 0.45 × SD에서 31.9 × SD까지이다. 10}}의 더 큰 모집단은 표준 편차를 추정하는 데 자유도가 9개이다. 위와 동일한 계산은 이 경우 95% CI가 0.69 × SD에서 1.83 × SD까지 실행되도록 한다. 따라서 10개의 표본 모집단에서도 실제 SD는 표본 SD보다 거의 2배 더 높을 수 있다. 100}}의 표본 모집단의 경우 이는 0.88 × SD에서 1.16 × SD로 감소한다. 표본 SD가 실제 SD에 가깝다는 것을 더 확실히 하기 위해서는 많은 수의 점을 표본 추출해야 한다.

신뢰 구간신뢰도(%)불신뢰도(%)
0.318639σ25%75%
0.674490σ50%50%
0.994458σ68%32%
68.2689492%31.7310508%
1.281552σ80%20%
1.644854σ90%10%
1.959964σ95%5%
95.4499736%4.5500264%
2.575829σ99%1%
99.7300204%0.2699796%
3.290527σ99.9%0.1%
3.890592σ99.99%0.01%
99.993666%0.006334%
4.417173σ99.999%0.001%
4.5σ99.9993204653751%0.0006795346249%
4.891638σ99.9999%0.0001%
99.9999426697%0.0000573303%
5.326724σ99.99999%0.00001%
5.730729σ99.999999%0.000001%
99.9999998027%0.0000001973%
6.109410σ99.9999999%0.0000001%
6.466951σ99.99999999%0.00000001%
6.806502σ99.999999999%0.000000001%
99.9999999997440%0.000000000256%



모표준편차가 알려지지 않은 경우, 표본에서 얻은 표본 표준편차를 사용하여 추정할 수 있다. 모표준편차를 , 크기 인 표본의 표준편차를 라고 할 때, 모집단 분포가 정규 분포라면 }}는 다음 자유도 의 }} 분포를 따른다.

:\chi^2 = \frac{Ns^2}{\sigma^2}

5. 2. 학력 편차치 (일본)

5. 3. 금융 공학 (리스크 측정)

금융에서 표준 편차는 주식, 채권, 부동산 등 자산 가격 변동과 관련된 위험 또는 자산 포트폴리오의 위험을 측정하는 데 자주 사용된다.[13] 위험은 투자 포트폴리오를 효율적으로 관리하는 방법을 결정하는 데 중요한 요소이며, 투자자에게 투자 결정을 위한 수학적 근거(평균-분산 최적화)를 제공한다.[13]

위험이 증가함에 따라 투자의 예상 수익률도 증가해야 하는데, 이를 위험 프리미엄이라고 한다. 투자자는 투자가 더 높은 수준의 위험이나 불확실성을 수반할 때 더 높은 수익률을 기대해야 한다. 표준 편차는 미래 수익의 불확실성에 대한 정량적 추정치를 제공한다.

예를 들어, 지난 20년 동안 주식 A의 평균 수익률은 10%이고 표준 편차는 20 퍼센트 포인트 (pp)였으며, 주식 B는 평균 수익률이 12%였지만 표준 편차가 30 pp로 더 높았다면, 투자자는 주식 A가 더 안전한 선택이라고 결정할 수 있다. 주식 B는 주식 A보다 초기 투자를 밑돌 가능성이 더 높으며 평균 2%만 더 수익을 낼 것으로 추정되기 때문이다.

특정 기간 동안 증권의 수익률 평균을 계산하면 자산의 예상 수익률이 생성된다. 각 기간의 차이를 제곱하고 평균을 구하면 자산 수익률의 전체 분산이 제공되며, 이 분산의 제곱근을 구하면 투자 도구의 표준 편차가 된다.

금융 시계열은 비정상 시계열이므로, 표준 편차와 같은 통계적 계산을 적용하려면 먼저 시계열을 정상 시계열로 변환해야 한다.

5. 4. 실험, 산업 및 가설 검정

표준 편차는 모델을 테스트하기 위해 실제 데이터를 모델과 비교하는 데 자주 사용된다.[11][12]

예를 들어, 산업 응용 분야에서 생산 라인에서 나오는 제품의 무게는 법적으로 요구되는 값을 준수해야 할 수 있다. 제품의 일부를 계량하여 평균 무게를 구할 수 있으며, 이는 항상 장기 평균과 약간 다를 수 있다. 표준 편차를 사용하면 평균 무게가 매우 높은 비율(99.9% 이상)로 유지될 최소 및 최대 값을 계산할 수 있다. 만약 이 범위를 벗어난다면 생산 공정을 수정해야 할 수 있다. 이러한 통계적 테스트는 테스트가 비교적 비쌀 때 특히 중요하다. 예를 들어, 제품을 열고 배출하고 무게를 측정해야 하거나, 제품이 테스트에 의해 소모되는 경우 등이 있다.

실험 과학에서는 현실에 대한 이론적 모델이 사용된다. 입자 물리학은 일반적으로 발견 선언에 "'''5 시그마'''"의 표준을 사용한다. 5 시그마 수준은 무작위 변동이 결과를 낼 확률이 350만 분의 1임을 의미한다. 이러한 수준의 확실성은 CERN에서 두 개의 독립적인 실험을 통해 힉스 보손과 일치하는 입자가 발견되었다고 주장하는 데 필요했으며, 중력파의 최초 관측 선언으로 이어졌다.

5. 5. 68-95-99.7 규칙 (경험 규칙)

데이터 분포가 정규 분포를 따르는 경우, 68-95-99.7 규칙 또는 경험 규칙에 따라 데이터 값의 약 68%가 평균에서 1 표준 편차 이내, 약 95%가 2 표준 편차 이내, 약 99.7%가 3 표준 편차 이내에 존재한다.[15]

이는 오차 함수를 사용하여 정확하게 계산할 수 있다. 숫자 보다 작거나 같은 비율은 누적 분포 함수에 의해 주어진다.[15]

신뢰
구간
내부에 있는 비율외부에 있는 비율
백분율백분율분수
0.67449050%50%1 / 2
168.2689492%31.7310508%1 / 3.1514872
1.95996495%5%1 / 20
295.4499736%4.5500264%1 / 21.977895
399.7300204%0.2699796%1 / 370.398
499.993666%0.006334%1 / 15787


5. 6. 체비쇼프 부등식

체비쇼프 부등식은 표준 편차가 정의된 모든 분포에 대해, 평균에서 일정 표준편차 범위 내에 있는 데이터의 양이 특정 값 이상임을 보장한다.[14] 어떤 관측값도 평균에서 몇 표준 편차 이상 벗어나는 경우는 드물다.

평균으로부터의 거리최소 모집단
\sqrt{2}\,\sigma50%
2\sigma75%
3\sigma89%
4\sigma94%
5\sigma96%
6\sigma97%
k\sigma1 - \frac{1}{k^2}[14]
\frac{1}{\sqrt{1 - \ell}}\, \sigma\ell


6. 역사

표준 편차라는 용어는 1894년 칼 피어슨이 강의에서 사용한 후 처음으로 문헌에 사용되었다.[17][18] 이는 가우스가 사용한 '평균 오차'와 같이, 동일한 개념에 대한 이전의 다른 이름을 대체하기 위한 것이었다.[19] 프랜시스 골턴은 부모의 신장 간 상관 관계를 조사하는 과정에서 표준편차 개념을 처음 발견하였고, 칼 피어슨은 골턴의 연구를 정식화하고 체계화하여 "standard deviation" (표준편차)라고 명명하였다.

참조

[1] 논문 Statistics notes: measurement error 1996
[2] 웹사이트 Bessel's Correction https://mathworld.wo[...]
[3] 웹사이트 Standard Deviation Formulas https://www.mathsisf[...] 2020-08-21
[4] 간행물 Anthropometric Reference Data for Children and Adults: United States, 2015–2018 https://www.cdc.gov/[...] Centers for Disease Control and Prevention 2021-01
[5] 웹사이트 Standard Deviation https://mathworld.wo[...] 2020-08-21
[6] 웹사이트 Consistent estimator https://www.statlect[...] 2022-10-10
[7] 논문 A Simple Approximation for Unbiased Estimation of the Standard Deviation
[8] 웹사이트 Standard Deviation Calculator https://purecalculat[...] 2021-09-14
[9] 논문 Upper and Lower Bounds for the Sample Standard Deviation
[10] 논문 Using the Sample Range as a Basis for Calculating Sample Size in Power Calculations
[11] 웹사이트 CERN experiments observe particle consistent with long-sought Higgs boson | CERN press office http://press-archive[...] Press.web.cern.ch 2012-07-04
[12] 논문 Observation of Gravitational Waves from a Binary Black Hole Merger
[13] 웹사이트 What is Standard Deviation http://www.edupristi[...] Pristine 2011-10-29
[14] 서적 Fundamentals of Probability https://archive.org/[...] Prentice Hall
[15] 웹사이트 Distribution Function http://mathworld.wol[...] Wolfram 2014-09-30
[16] 논문 Note on a Method for Calculating Corrected Sums of Squares and Products 1962-08
[17] 서적 The Oxford Dictionary of Statistical Terms https://archive.org/[...] Oxford University Press
[18] 논문 On the dissection of asymmetrical frequency curves
[19] 웹사이트 Earliest Known Uses of Some of the Words of Mathematics https://mathshistory[...]
[20] 서적 Medical laboratory science review F. A. Davis Co. 2012
[21] 논문 Bestimmung der Genauigkeit der Beobachtungen
[22] 서적 Studies in the History of the Statistical Method Williams & Wilkins Co
[23] 웹사이트 高校からの統計・データサイエンス活用 総務省政策統括官(統計基準担当)p.34 https://www.soumu.go[...]
[24] 웹사이트 平均への回帰、相関係数―統計学史(2) ブログ 統計WEB https://bellcurve.jp[...]
[25] 웹사이트 農環研ウェブ高座 「農業環境のための統計学」 第10回 (農業と環境 No.158 2013.6) http://www.naro.affr[...]
[26] 논문 第5回 統計学の巨人:ゴルトンとピアソン https://doi.org/10.1[...] 日本薬学会
[27] 웹사이트 カール ピアソンとは - コトバンク https://kotobank.jp/[...]
[28] 웹사이트 【科学史の肖像】Karl Pearson, 1857-1936 http://www.ariga-kag[...]
[29] 웹사이트 표준편차의 명명자는, 상관계수로 유명한 피어슨, 불편표준편차의 화제와 함께 https://biolab.sakur[...]
[30] 웹사이트 분산투자의 의의② 투자의 리스크란|연금적립금관리운용독립행정법인 https://www.gpif.go.[...]
[31] 웹사이트 표준편차・분산|증권용어해설집|노무라증권 https://www.nomura.c[...]
[32] 문서 栗原
[33] 문서 극단적인 예로서, 표본의 크기가 {{math|1}} 의 경우, 흩뜨려짐이 없기 때문에 표본의 분산은 반드시 {{math|0}}이 되지만, 모 집단의 흩뜨려짐은 통상 {{math|0}}이 아니다.
[34] 문서 예:{{harv|東京大学教養学部統計学教室編|1991}}。
[35] 문서 분산 또는 표준편차의 그림에 의한 해설과 구체적인 예는, {{Harv|村瀬|高田|廣瀬|2007|pp=52–53}} 등을 참조.
[36] 웹사이트 Earliest Known Uses of Some of the Words of Mathematics (S) http://jeff560.tripo[...] 2016-01-30
[37] 웹사이트 Estimating Parameters Web Page http://www.psych.uta[...]
[38] 웹사이트 健康統計学-散布度 http://arena.hyogo-d[...]
[39] 웹사이트 高崎経済大学非常勤講義 第4回「記述統計(2):代表値」 http://minato.sip21c[...]
[40] 웹사이트 標準偏差の不偏性 http://www.tscc.toho[...]
[41] 서적 측량학1 형설출판사 2013
[42] 웹인용 List of Probability and Statistics Symbols https://mathvault.ca[...] 2020-08-21
[43] 서적 수리통계학 자유아카데미
[44] 서적 측량학1 형설출판사 2013
[45] 서적 측량학1 형설출판사 2013



본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.

문의하기 : help@durumis.com