맨위로가기

코시-아다마르 정리

"오늘의AI위키"는 AI 기술로 일관성 있고 체계적인 최신 지식을 제공하는 혁신 플랫폼입니다.
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.

1. 개요

코시-아다마르 정리는 복소수 수열의 거듭제곱 급수의 수렴반경을 결정하는 정리이다. 이 정리는 수렴반경 R을 급수 계수의 상극한을 사용하여 다음과 같이 나타낸다: 1/R = limsup(n→∞) |c_n|^(1/n). 다변수 복소 변수에 대한 확장도 존재하며, 이는 다변수 멱급수의 수렴 반경을 결정하는 데 사용된다. 이 정리는 극한 계산을 용이하게 하는 따름정리를 포함하며, 급수 계수의 비율의 극한을 사용하여 수렴반경을 계산할 수 있게 한다.

2. 공식화

코시-아다마르 정리는 다음과 같이 공식화할 수 있다.[7] 복소수 수열 {cn}에 대한 거듭제곱 급수

:\sum_{k=1}^{\infty} c_kz^k

의 수렴 반경 R은 다음 식으로 주어진다.

:\frac{1}{R} = \limsup_{n \to \infty} \sqrt[n]



좀 더 일반적인 경우, 복소변수 ''z''에 대한 형식적 멱급수

:f(z) = \sum_{n = 0}^{\infty} c_{n} (z-a)^{n}

(여기서 a, c_n \in \Complex.)

에서 점 ''a''에서 ''f''의 수렴반경 R은 다음과 같이 주어진다.

:\frac{1}{R} = \limsup_{n \to \infty} \left( | c_{n} |^{1/n} \right)

여기서 lim sup는 상극한을 나타내며, n번째 위치 이후 수열 값의 상한의 극한, 즉 n이 무한대로 접근할 때의 극한이다.

2. 1. 증명

a_n := c_nz^n으로 두고 근 판정법을 적용하면 다음과 같이 바로 증명할 수 있다.[7]

:\limsup_{n \to \infty} \sqrt[n]

= |z| \limsup_{n \to \infty} \sqrt[n]

= \frac

{R}.

일반성을 잃지 않고a=0이라고 가정한다. 먼저 거듭제곱 급수 \sum_n c_n z^n|z|에서 수렴함을 보이고, 그 다음 |z|>R에서 발산함을 보이겠다.

먼저 |z|이라고 가정한다. t=1/R0 또는 \pm\infty가 아니라고 하자. 임의의 \varepsilon > 0에 대해, \sqrt[n]

\geq t+\varepsilon을 만족하는 n은 유한 개만 존재한다. 이제 |c_n| \leq (t+\varepsilon)^n은 유한 개의 c_n을 제외한 모든 c_n에 대해 성립하므로, |z| < 1/(t+\varepsilon)이면 급수 \sum_n c_n z^n은 수렴한다. 이것으로 첫 번째 부분을 증명했다.

반대로, \varepsilon > 0에 대해 |c_n|\geq (t-\varepsilon)^n은 무한히 많은 c_n에 대해 성립하므로, 만약 |z|=1/(t-\varepsilon) > R이면, 급수의 ''n''번째 항이 0으로 수렴하지 않기 때문에 급수가 수렴할 수 없음을 알 수 있다.[5]

2. 2. 따름정리

극한 계산을 용이하게 하는 따름정리를 유도할 수 있다. 수열의 비와 근 사이에 성립하는 다음의 일반적인 부등식[7]을 고려하면 다음과 같다.

:\liminf_{n \to \infty} |\frac{c_{n+1}}{c_n}| \le \liminf_{n \to \infty} \sqrt[n]

\le \limsup_{n \to \infty} \sqrt[n]

\le \limsup_{n \to \infty} |\frac{c_{n+1}}{c_n}|

다음 극한이 존재할 경우,

:\lim_{n \to \infty} |\frac{c_{n+1}}{c_n}|

위 부등식에서 바깥의 두 상극한과 하극한이 같아져서 네 식이 모두 같아지므로 코시-아다마르 정리에 의해 다음이 성립한다.

:\frac{1}{R} = \lim_{n \to \infty} |\frac{c_{n+1}}{c_n}|.

3. 다변수 복소 변수에 대한 정리

\alpha를 자연수로 구성된 ''n''차원 벡터, 즉 \alpha = (\alpha_1, \cdots, \alpha_n) \in \N^n로 정의하고, \|\alpha\| = \alpha_1 + \cdots + \alpha_n라고 하자. 그러면 함수 f(x)는 수렴 반경 \rho = (\rho_1, \cdots, \rho_n) \in \R^n을 가지며, \rho^\alpha = \rho_1^{\alpha_1} \cdots \rho_n^{\alpha_n}일 때 다음 식이 성립한다.

:\limsup_{\|\alpha\|\to\infty} \sqrt[\|\alpha\|]

3. 1. 증명

z = a + t\rho (z_i = a_i + t\rho_i)로 놓는다. 그러면

:\sum_{\alpha \geq 0} c_\alpha (z - a)^\alpha = \sum_{\alpha \geq 0} c_\alpha \rho^\alpha t^{\|\alpha\|} = \sum_{\mu \geq 0} \left( \sum_{\|\alpha\| = \mu} |c_\alpha| \rho^\alpha \right) t^\mu.

이것은 |t| < 1에서 수렴하고 |t| > 1에서 발산하는 하나의 변수 t에 대한 거듭제곱 급수이다. 따라서 하나의 변수에 대한 코시-아다마르 정리에 의해

:\limsup_{\mu \to \infty} \sqrt[\mu]{\sum_{\|\alpha\| = \mu} |c_\alpha| \rho^\alpha} = 1.

|c_m| \rho^m = \max_{\|\alpha\| = \mu} |c_\alpha| \rho^\alpha로 놓으면 추정치를 얻는다.

:|c_m| \rho^m \leq \sum_{\|\alpha\| = \mu} |c_\alpha| \rho^\alpha \leq (\mu + 1)^n |c_m| \rho^m.

\sqrt[\mu]{(\mu + 1)^n} \to 1\mu \to \infty이므로

:\sqrt[\mu]{|c_m| \rho^m} \leq \sqrt[\mu]{\sum_{\|\alpha\| = \mu} |c_\alpha| \rho^\alpha} \leq \sqrt[\mu]{|c_m| \rho^m} \implies \sqrt[\mu]{\sum_{\|\alpha\| = \mu} |c_\alpha| \rho^\alpha} = \sqrt[\mu]{|c_m| \rho^m} \qquad (\mu \to \infty).

따라서

:\limsup_{\|\alpha\|\to\infty} \sqrt[\|\alpha\|]{|c_\alpha|\rho^\alpha} = \limsup_{\mu \to \infty} \sqrt[\mu]

참조

[1] 서적 Analyse algébrique
[2] 서적 The Higher Calculus: A History of Real and Complex Analysis from Euler to Weierstrass https://archive.org/[...] Springer-Verlag
[3] 간행물 Sur le rayon de convergence des séries ordonnées suivant les puissances d'une variable
[4] 간행물 Essai sur l'étude des fonctions données par leur développement de Taylor https://archive.org/[...]
[5] 서적 Complex Analysis: Fourth Edition Springer
[6] 서적 Introduction to complex analysis Part II. Functions of several variables American Mathematical Society
[7] 서적 Principles of mathematical analysis http://www.mcgraw-hi[...] McGraw-Hill 1976



본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.

문의하기 : help@durumis.com