코시-아다마르 정리
"오늘의AI위키" 는 AI 기술로 일관성 있고 체계적인 최신 지식을 제공하는 혁신 플랫폼입니다.
"오늘의AI위키" 의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
목차 보기/숨기기
1. 개요
코시-아다마르 정리는 복소수 수열의 거듭제곱 급수의 수렴반경을 결정하는 정리이다. 이 정리는 수렴반경 R을 급수 계수의 상극한을 사용하여 다음과 같이 나타낸다: 1/R = limsup(n→∞) |c_n|^(1/n). 다변수 복소 변수에 대한 확장도 존재하며, 이는 다변수 멱급수의 수렴 반경을 결정하는 데 사용된다. 이 정리는 극한 계산을 용이하게 하는 따름정리를 포함하며, 급수 계수의 비율의 극한을 사용하여 수렴반경을 계산할 수 있게 한다.
2. 공식화
코시-아다마르 정리는 다음과 같이 공식화할 수 있다. [7] 복소수 수열 {cn }에 대한 거듭제곱 급수 :\sum_{k=1}^{\infty} c_kz^k 의 수렴 반경 R은 다음 식으로 주어진다. :\frac{1}{R} = \limsup_{n \to \infty} \sqrt[n]
좀 더 일반적인 경우, 복소변수 ''z''에 대한 형식적 멱급수 :f(z) = \sum_{n = 0}^{\infty} c_{n} (z-a)^{n} (여기서 a, c_n \in \Complex. ) 에서 점 ''a''에서 ''f''의 수렴반경 R 은 다음과 같이 주어진다. :\frac{1}{R} = \limsup_{n \to \infty} \left( | c_{n} |^{1/n} \right) 여기서 lim sup는 상극한을 나타내며, n번째 위치 이후 수열 값의 상한의 극한, 즉 n이 무한대로 접근할 때의 극한이다.
2. 1. 증명
a_n := c_nz^n 으로 두고 근 판정법 을 적용하면 다음과 같이 바로 증명할 수 있다. [7] :\limsup_{n \to \infty} \sqrt[n] = |z| \limsup_{n \to \infty} \sqrt[n] = \frac{R}.일반성을 잃지 않고 a=0 이라고 가정한다. 먼저 거듭제곱 급수 \sum_n c_n z^n 이 |z|에서 수렴함을 보이고, 그 다음 |z|>R 에서 발산함을 보이겠다. 먼저 |z|이라고 가정한다. t=1/R 이 0 또는 \pm\infty 가 아니라고 하자. 임의의 \varepsilon > 0 에 대해, \sqrt[n] \geq t+\varepsilon을 만족하는 n 은 유한 개만 존재한다. 이제 |c_n| \leq (t+\varepsilon)^n 은 유한 개의 c_n 을 제외한 모든 c_n 에 대해 성립하므로, |z| < 1/(t+\varepsilon) 이면 급수 \sum_n c_n z^n 은 수렴한다. 이것으로 첫 번째 부분을 증명했다. 반대로, \varepsilon > 0 에 대해 |c_n|\geq (t-\varepsilon)^n 은 무한히 많은 c_n 에 대해 성립하므로, 만약 |z|=1/(t-\varepsilon) > R 이면, 급수의 ''n''번째 항이 0으로 수렴하지 않기 때문에 급수가 수렴할 수 없음을 알 수 있다. [5]
2. 2. 따름정리
극한 계산을 용이하게 하는 따름정리를 유도할 수 있다. 수열의 비와 근 사이에 성립하는 다음의 일반적인 부등식 [7] 을 고려하면 다음과 같다. :\liminf_{n \to \infty} |\frac{c_{n+1}}{c_n}| \le \liminf_{n \to \infty} \sqrt[n] \le \limsup_{n \to \infty} \sqrt[n] \le \limsup_{n \to \infty} |\frac{c_{n+1}}{c_n}| 다음 극한이 존재할 경우, :\lim_{n \to \infty} |\frac{c_{n+1}}{c_n}| 위 부등식에서 바깥의 두 상극한과 하극한이 같아져서 네 식이 모두 같아지므로 코시-아다마르 정리에 의해 다음이 성립한다. :\frac{1}{R} = \lim_{n \to \infty} |\frac{c_{n+1}}{c_n}|.
3. 다변수 복소 변수에 대한 정리
\alpha 를 자연수로 구성된 ''n''차원 벡터, 즉 \alpha = (\alpha_1, \cdots, \alpha_n) \in \N^n 로 정의하고, \|\alpha\| = \alpha_1 + \cdots + \alpha_n 라고 하자. 그러면 함수 f(x) 는 수렴 반경 \rho = (\rho_1, \cdots, \rho_n) \in \R^n 을 가지며, \rho^\alpha = \rho_1^{\alpha_1} \cdots \rho_n^{\alpha_n} 일 때 다음 식이 성립한다. :\limsup_{\|\alpha\|\to\infty} \sqrt[\|\alpha\|]
3. 1. 증명
z = a + t\rho (z_i = a_i + t\rho_i )로 놓는다. 그러면 :\sum_{\alpha \geq 0} c_\alpha (z - a)^\alpha = \sum_{\alpha \geq 0} c_\alpha \rho^\alpha t^{\|\alpha\|} = \sum_{\mu \geq 0} \left( \sum_{\|\alpha\| = \mu} |c_\alpha| \rho^\alpha \right) t^\mu. 이것은 |t| < 1에서 수렴하고 |t| > 1에서 발산하는 하나의 변수 t 에 대한 거듭제곱 급수이다. 따라서 하나의 변수에 대한 코시-아다마르 정리에 의해 :\limsup_{\mu \to \infty} \sqrt[\mu]{\sum_{\|\alpha\| = \mu} |c_\alpha| \rho^\alpha} = 1. |c_m| \rho^m = \max_{\|\alpha\| = \mu} |c_\alpha| \rho^\alpha 로 놓으면 추정치를 얻는다. :|c_m| \rho^m \leq \sum_{\|\alpha\| = \mu} |c_\alpha| \rho^\alpha \leq (\mu + 1)^n |c_m| \rho^m. \sqrt[\mu]{(\mu + 1)^n} \to 1 는 \mu \to \infty 이므로 :\sqrt[\mu]{|c_m| \rho^m} \leq \sqrt[\mu]{\sum_{\|\alpha\| = \mu} |c_\alpha| \rho^\alpha} \leq \sqrt[\mu]{|c_m| \rho^m} \implies \sqrt[\mu]{\sum_{\|\alpha\| = \mu} |c_\alpha| \rho^\alpha} = \sqrt[\mu]{|c_m| \rho^m} \qquad (\mu \to \infty). 따라서 :\limsup_{\|\alpha\|\to\infty} \sqrt[\|\alpha\|]{|c_\alpha|\rho^\alpha} = \limsup_{\mu \to \infty} \sqrt[\mu]
참조
[1]
서적
Analyse algébrique
[2]
서적
The Higher Calculus: A History of Real and Complex Analysis from Euler to Weierstrass
https://archive.org/[...]
Springer-Verlag
[3]
간행물
Sur le rayon de convergence des séries ordonnées suivant les puissances d'une variable
[4]
간행물
Essai sur l'étude des fonctions données par leur développement de Taylor
https://archive.org/[...]
[5]
서적
Complex Analysis: Fourth Edition
Springer
[6]
서적
Introduction to complex analysis Part II. Functions of several variables
American Mathematical Society
[7]
서적
Principles of mathematical analysis
http://www.mcgraw-hi[...]
McGraw-Hill
1976
본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.
문의하기 : help@durumis.com