세계재앙위험
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
1. 개요
세계 재앙 위험은 전 세계적으로 인간의 복지에 심각한 피해를 줄 수 있는 위험을 의미하며, 인류의 생존 자체를 위협하는 '존망 위험'과 지구상 생명체의 대다수를 죽일 수 있지만 인류는 회복 가능한 '지구 멸망 위험'으로 분류된다. 이러한 위험은 인위적 요인과 비인위적 요인으로 나뉘며, 기술, 거버넌스 실패, 기후 변화, 천문학적 위협, 지질학적 위협 등이 포함된다. 실존적 위험 연구는 실험적 연구의 어려움, 기술 발전, 예측의 어려움, 인센티브 및 조정 문제, 인지 편향 등 다양한 과제에 직면하며, 다층 방어, 자금 지원, 생존 계획, 글로벌 거버넌스, 우주 식민지화 등의 완화 방안이 제시된다. 관련 단체로는 원자력 과학자회보, 퓨처 오브 휴머니티 인스티튜트 등이 있으며, 미래 세대의 잠재력을 위협하는 윤리적 중요성을 지닌다. 대중적 인식에 영향을 미치는 인지 편향과 비판적인 분석이 존재하며, 문학과 영화에서 다양한 방식으로 묘사되어 왔다.
더 읽어볼만한 페이지
- 생존주의 - 한나 (2011년 영화)
조 라이트 감독의 영화 한나는 시얼샤 로넌 주연의 액션 스릴러로, 전직 CIA 요원 아버지에게 훈련받은 16세 소녀 한나가 CIA의 추적을 피해 자신의 존재에 얽힌 비밀을 밝혀내는 이야기이며, 동화적 요소와 초인간주의적 주제, 케미컬 브라더스의 사운드트랙이 특징이다. - 생존주의 - 낙진 대피소
낙진 대피소는 핵 공격이나 사고 시 방사성 낙진으로부터 인체를 보호하기 위해 기후 조절, 위치 선정, 차폐, 준비물 등이 고려되어 설계된 시설로, 여러 국가에서 다양한 형태로 건설되었으며, 대피 기간은 낙진 강도에 따라 달라지고 대중문화에서도 중요한 배경으로 등장한다. - 인간 절멸 - 인공 일반 지능의 실존적 위험
인공 일반 지능의 실존적 위험은 인간을 초월하는 AGI가 인류를 통제 불가능하게 만들 위험을 의미하며, 이는 AGI 통제의 어려움, 지능 폭발, 인류의 이익을 고려하지 않을 가능성에서 비롯된다. - 인간 절멸 - 인간 없는 세상
앨런 와이즈먼의 논픽션 과학 서적 《인간 없는 세상》은 인류가 사라진 후 지구와 자연환경의 변화, 인간 유산의 변화, 문명의 붕괴 과정을 탐구하며 인류의 존재와 미래에 대한 질문을 제기한다.
| 세계재앙위험 | |
|---|---|
| 개요 | |
| 유형 | 전 지구적 규모의 부정적인 사건 또는 과정 |
| 영향 | 인류 멸종 문명 붕괴 행성 생태계의 장기적인 심각한 피해 |
| 원인 | 자연적 위험 인위적 위험 |
| 자연적 위험 | |
| 천문학적 사건 | 소행성 충돌 태양 플레어 감마선 폭발 지구 자기장 역전 |
| 지구적 사건 | 초화산 폭발 지진 해일 전염병 기후 변화 |
| 인위적 위험 | |
| 기술적 위험 | 인공 일반 지능 나노 기술 합성 생물학 입자 가속기 사고 |
| 사회-정치적 위험 | 핵전쟁 생물학적 전쟁 지구 환경 관리 실패 사회 붕괴 전체주의적 세계 정부 |
| 추가 정보 | |
| 관련 연구 기관 | 인류 미래 연구소 존재적 위험 연구 센터 |
2. 정의 및 분류
"세계 재앙 위험"과 "실존적 위험"은 모두 인류에게 심각한 위협을 가할 수 있는 위험을 의미하지만, 그 범위와 심각도에 차이가 있다.
전 지구적 재앙 위험은 "전 세계적으로 인간의 복지에 심각한 피해"를 줄 수 있는 위험을 의미한다.[8] 예를 들어, 흑사병은 유럽 인구의 3분의 1,[9] 당시 전 세계 인구의 10%를 사망하게 했으며,[10] 1918년 인플루엔자 대유행은 전 세계 인구의 3~6%를 사망하게 한 것으로 추정된다.[11] 하지만 이러한 재앙들은 범위가 지역적이거나, 전 세계적이라 하더라도 인류는 회복할 수 있었다.
실존적 위험은 "인류의 장기적 잠재력을 위협하는 위험"으로 정의된다.[13] 이는 인류의 완전한 멸종을 야기하거나, 돌이킬 수 없이 현저히 열등한 상태를 고착시키는 위험을 의미한다.[7][15] 즉, 실존적 위험은 전 지구적 재앙 위험의 하위 분류로, 피해가 '전 지구적'일 뿐만 아니라 '최종적'이고 '영구적'이어서 회복이 불가능하며 현재와 미래의 모든 세대에 영향을 미친다.[7]
닉 보스트롬은 범위-심각도 격자를 통해 위험을 분류했는데, 세로축은 범위(개인적, 지역적, 전 지구적, 범우주적), 가로축은 심각도(미약함, 중간, 파멸적)를 나타낸다. 이 격자에서 주황색 부분은 실존적 위험의 범위를 나타내며, 그 바깥쪽의 붉은 부분은 지구 재앙 위험의 범위를 나타낸다.
2. 1. 전 지구적 재앙 위험
"세계 재앙 위험"은 명확하게 정의되지는 않았지만, 일반적으로 "전 세계적으로 인간의 복지에 심각한 피해"를 줄 수 있는 위험을 의미한다.[8]인류는 과거에도 큰 재앙을 겪었다. 흑사병과 같이 피해는 심각했지만 지역적인 범위에 그친 경우도 있었다. 흑사병은 유럽 인구의 3분의 1,[9] 당시 전 세계 인구의 10%를 사망하게 했을 수 있다.[10] 1918년 인플루엔자 대유행처럼 전 세계적이었지만 심각도는 덜한 재앙도 있었다. 1918년 인플루엔자 대유행은 전 세계 인구의 3~6%를 사망하게 한 것으로 추정된다.[11] 대부분의 세계 재앙 위험은 지구상 생명체 대다수를 죽일 만큼 강력하지는 않지만, 그렇다 하더라도 생태계와 인류는 결국 회복될 것이다. 이는 ''존망 위험''과는 대조적이다.
리처드 포스너는 저서 ''대재앙: 위험과 대응''에서 "완전한 전복 또는 파멸"을 초래하는 사건들을 "지역적 또는 지방적" 규모가 아닌 세계적 규모로 분류했다. 포스너는 이러한 사건들이 직접 또는 간접적으로 인류 전체의 생존을 위협할 수 있기 때문에 비용-편익 분석의 근거에 따라 특별한 주의를 기울일 가치가 있다고 강조한다.[12]
2. 2. 실존적 위험
실존적 위험은 "인류의 장기적 잠재력을 위협하는 위험"으로 정의된다.[13] 실존적 위험이 현실화되면 인류는 완전히 멸종하거나, 돌이킬 수 없이 현저히 열등한 상태에 놓이게 된다.[7][15]실존적 위험은 전 지구적 재앙 위험의 하위 분류인데, 피해가 '전 지구적'일 뿐만 아니라 '최종적'이고 '영구적'이며, 회복을 불가능하게 만들어 현재와 미래의 모든 세대에 영향을 미친다는 특징이 있다.[7]
지구 멸망 위험은 적어도 범위가 지구 규모이며, 강도는 주관적으로 보이지 않는 것은 아닌 위험이다. 모든 미래 세대에 영향을 미치고 "종말"인 위험은 존망 위험으로 분류된다. 지구 멸망 위험은 지구상 생명체의 막대한 부분을 살상할 수 있지만, 인류는 아직 부활할 가능성이 있다. 반면 존망 위험은 인류를 완전히 파멸시키거나 문명 부활의 어떠한 기회도 방해하는 것이다.
일부 학자들은 미래 세대에 큰 이익이 된다는 이유로 존망 리스크를 낮추는 것을 강력히 지지한다. 데릭 파핏은 지구가 살 수 없게 만드는 태양의 팽창 전에 우리 후손이 40억 년 동안 살아남을 수 있으므로, 멸망은 큰 손실이 될 것이라고 주장한다.[87][88] 닉 보스트롬은 우주 식민지에 훨씬 더 큰 가능성이 있다고 주장한다. 만약 미래의 인류가 우주로 이주한다면, 1조 년에 걸쳐 다른 행성에서 매우 많은 수의 사람들을 유지할 수 있을지도 모른다.[77] 따라서, 조금이라도 존망 리스크를 낮추는 것은 미래에 존재할 사람들의 예상되는 수에 매우 현저한 영향을 미칠 것이다.
파괴적 위험 중 일부는 운석 충돌이나 거대 화산 폭발과 같은 자연적인 요인에 의한 것이다. 이러한 요인 중 일부는 과거에 대량 멸종을 일으켰다. 반면에 지구 온난화,[89] 환경 악화, 정교하게 조작된 전염병의 범유행이나 핵전쟁과 같은 위험은 인위적인 요인에 의한 것이다.[90]
2. 2. 1. 멸종 외 위험
인류의 장기적인 잠재력이 파괴될 수 있는 가장 명백한 방법은 멸종이지만, '회복 불가능한' '붕괴'와 '회복 불가능한' '디스토피아'도 여기에 포함된다.[16] 영구적이고 돌이킬 수 없는 인류 문명의 붕괴를 초래할 정도로 심각한 재앙은 멸종에 미치지 못하더라도 실존적 재앙이 될 것이다.[16] 마찬가지로, 만약 인류가 전체주의 정권 아래 놓여 회복의 기회가 없다면 그러한 디스토피아 역시 실존적 재앙이 될 것이다.[17] 브라이언 캐플란은 "아마도 영원한 전체주의가 멸종보다 더 나쁠 것이다"라고 썼다.[17] 조지 오웰의 소설 ''1984''는[18] 그 사례를 보여준다.[19] 디스토피아 시나리오는 멸종 및 문명의 회복 불가능한 붕괴의 주요 특징을 공유한다. 재앙 이전에는 인류가 선택할 수 있는 광대한 범위의 밝은 미래가 있었고, 재앙 이후에는 인류가 끔찍한 상태에 영원히 갇히게 된다.[16]3. 잠재적 위험 요인
잠재적인 세계적 대재앙 위험은 크게 인위적 요인과 비인위적 요인으로 나눌 수 있다.[20]
- 인위적 요인: 인간 활동으로 인해 발생하는 위험이다. 케임브리지 대학의 ''케임브리지 프로젝트''는 인류에게 "최대 위협"은 인위적인 것이라고 경고한다.[91] 기술 발전, 잘못된 거버넌스, 기후 변화 등이 주요 인위적 위험 요인이다.
- 비인위적 요인: 인간의 통제를 벗어나는 자연 현상으로 인해 발생하는 위험이다. 소행성 충돌, 슈퍼화산 분화, 자연적인 전염병 등이 이에 해당한다.[20]

3. 1. 인위적 요인
인위적 위험은 인간 활동으로 인해 발생하는 위험으로, 기술, 거버넌스, 기후 변화와 관련된 위험을 포함한다. 케임브리지 대학의 ''케임브리지 프로젝트''(Cambridge Project)는 인류에게 "최대 위협"은 인위적인 것이라고 경고한다.[91]3. 1. 1. 기술적 위험
인공 일반 지능의 등장은 인간의 목표와 일치하지 않는 결과를 초래할 수 있는 기술적 위험 중 하나이다.[21] 생명공학 및 나노기술 또한 예측 불가능한 위험을 야기할 수 있다.[21] 케임브리지 대학교의 ''케임브리지 프로젝트''는 인류에게 "최대 위협"은 인위적인 것이며, 인공 지능, 지구 온난화, 핵전쟁, 위험한 생명 공학 등이 이에 해당한다고 밝혔다.[91]3. 1. 2. 거버넌스 실패
불충분하거나 악의적인 세계 거버넌스는 사회적, 정치적 영역에서 여러 위험을 초래한다. 이러한 위험에는 세계 대전 및 핵 홀로코스트와 같은 핵전쟁,[21] 유전자 변형 유기체를 사용한 생물학적 전쟁 및 생물 테러, 전력망과 같은 핵심 인프라를 파괴하는 사이버 전쟁 및 사이버 테러, 대형 코발트 폭탄과 같은 무기를 사용하는 방사능 전쟁 등이 있다.[21]
3. 1. 3. 기후 변화 및 환경 문제
인위적 위험은 인간에 의해 발생하는 위험으로, 기후 변화와 관련된 위험을 포함한다. 다른 세계적 대재앙 위험에는 기후 변화, 환경 파괴, 멸종, 불공정한 자원 분배로 인한 기근, 인구 과잉 또는 인구 감소, 작물 실패, 그리고 지속 가능한 농업이 아닌 경우가 있다.[21]
케임브리지 대학교의 ''케임브리지 프로젝트''(Cambridge Project)는 인류에게 "최대 위협"은 인위적인 것이라고 말한다. 그 위협으로는 지구 온난화 등이 있다.[91]
2018년, 로마 클럽은 기후 변화에 대한 대대적인 활동을 촉구하며 ''Climate Emergency Plan''을 출판했는데, 이는 지구 평균 온도 상승을 섭씨 1.5도로 제한하는 10가지 활동을 제안했다.[116] 또한 2019년에는 클럽에서 더욱 포괄적인 ''Planetary Emergency Plan''을 출판했다.[117]
3. 2. 비인위적 요인
잠재적인 세계적 대재앙 위험은 관례적으로 인위적 위험과 비인위적 위험으로 분류된다. 비인위적 위험은 인간의 통제를 벗어나는 자연 현상으로 인해 발생한다.비인위적 위험에는 소행성 충돌, 슈퍼화산 분화, 자연적인 전염병, 치명적인 감마선 폭발, 코로나 질량 방출로 인한 지자기 폭풍이 전자 장비를 파괴하는 경우, 자연적 장기 기후 변화, 적대적인 외계 생명체, 태양이 적색 거성으로 변하여 수십억 년 후 지구를 삼키는 경우 등이 있다.[20]
몇몇 위험은 지구에서 과거에 일어났고, 지질학적 기록에 남아있는 현상의 결과에 의한 것이다. 현대의 관측으로 미래에 일어날 수 있는 그러한 사건의 가능성을 평가하는 것이 가능하다. 예를 들어, 멸종 수준의 혜성 또는 소행성 충돌 사건은 서기 2100년 이전에 백만 분의 1로 추정된다.[83][84] 파국 분화는 또 다른 사례이다. 토바산을 포함한 몇몇 역사적인 거대 분화가 알려져 있으며, 마지막 분화 때 거의 인류 문명을 소멸시킬 뻔했다. 지질학적 기록은 이 특별한 거대 분화가 대략 50,000년마다 재분화할 것을 시사한다.[85][86]
과거에 발생했던 대표적인 전염병으로는 흑사병이 있는데, 유럽 인구의 3분의 1,[9] 당시 전 세계 인구의 10%를 사망하게 했을 수 있다.[10] 1918년 인플루엔자 대유행은 전 세계 인구의 3~6%를 사망하게 한 것으로 추정된다.[11]
3. 2. 1. 천문학적 위협
소행성 및 혜성 충돌은 지구와 충돌하여 대규모 멸종을 일으킬 수 있다. 멸종 수준의 혜성 또는 소행성 충돌 사건은 서기 2100년 이전에 백만 분의 1로 추정된다.[83][84] 감마선 폭발은 강력하여 지구의 오존층을 파괴하고 생명체에 치명적인 영향을 미칠 수 있다.[20] 코로나 질량 방출로 인한 지자기 폭풍은 전자 장비를 파괴할 수 있다.[20] 적대적인 외계 생명체의 침입은 인류 문명을 파괴할 수 있다.[20] 태양이 적색 거성으로 변하면서 수십억 년 후 지구를 삼킬 수도 있다.[20]3. 2. 2. 지질학적 위협
슈퍼화산(Supervolcano) 분화는 대량의 화산재와 가스를 분출하여 기후 변화와 생태계 파괴를 일으킬 수 있다. 토바 화산 폭발과 같은 사건이 이에 해당한다.[20]새로운 바이러스나 세균의 출현은 전 세계적인 전염병(Pandemic)을 일으켜 인류의 생존을 위협할 수 있다. 과거 흑사병은 유럽 인구의 3분의 1,[9] 당시 전 세계 인구의 10%를 사망하게 했을 수 있다.[10] 1918년 인플루엔자 대유행은 전 세계 인구의 3~6%를 사망하게 한 것으로 추정된다.[11]
자연적 장기 기후 변화는 지구의 기후 시스템이 자연적으로 변동하면서 발생할 수 있다.[20]
4. 방법론적 과제
세계 재앙 위험과 실존적 위험 연구는 일반적인 과학적 방법론을 적용하기 어렵다는 고유한 문제점을 안고 있다.[16]
실험적 연구가 불가능하며, 기술 발전과 지정학적 상황 변화에 따라 위험이 빠르게 변하기 때문이다.[16] 칼 세이건은 핵전쟁의 장기적 결과를 실험적으로 검증하는 것은 불가능하다고 지적했다.[22] 또한, 복잡한 사회 시스템과 관련된 인위적 위험은 장기간 예측이 어려우며, 예측 불가능한 블랙 스완 사건도 발생할 수 있다.[16][23]
4. 1. 역사적 전례 부족
인류는 실존적 재앙을 경험한 적이 없으므로, 과거 데이터에 기반하여 미래를 예측하기 어렵다.[16] 이러한 예측의 어려움은 관찰 선택 효과 때문에 더욱 심화된다.[24] 관찰 선택 효과란, 인류가 멸망한 후에는 그 사건을 관찰할 수 없으므로 과거에 멸종 사건이 없었다는 사실이 미래에도 멸종 사건이 없을 것이라는 보장이 되지 않는다는 의미이다. 즉, 과거에 문명 붕괴 사건이 얼마나 많이 발생했든, 어떤 문명도 자신의 역사에서 실존적 위험을 관찰할 수 없다.[24]이러한 인류학적 문제는 달의 소행성 충돌구처럼 선택 효과가 없는 증거를 살펴보거나, 새로운 기술의 예상되는 영향을 직접 평가하여 부분적으로 해결할 수 있다.[7] 또한, 전례 없고 회복 불가능한 전 지구적 문명 붕괴(일종의 실존적 위험)의 역학을 이해하기 위해, 인류 역사 전반에 걸쳐 발생한 다양한 지역적 문명 붕괴를 연구하는 것이 도움이 될 수 있다.[25] 예를 들어, 로마 제국과 같은 문명은 중앙 집권적 통치의 상실과 광범위한 문명 전체의 기반 시설 및 첨단 기술의 상실로 종말을 맞이했지만, 이러한 사례들은 사회가 재앙에 비교적 탄력적임을 보여준다. 중세 유럽은 인구의 25%에서 50%를 잃었음에도 불구하고, 문명 붕괴와 유사한 어떠한 것도 겪지 않고 흑사병을 견뎌냈다.[26]
4. 2. 인센티브 및 조정 문제
전 지구적 재앙 위험 감소는 전 세계적인 협력이 필요한 세계 공공재이지만, 경제적 인센티브 부족과 국가 간 이해관계 충돌로 인해 어려움을 겪는다.[7]이는 가변적이며 결코 발생하지 않을 수 있는 위험이기에, 많은 사람들이 더 시급한 문제에 집중하게 된다. 설령 한 대국이 위험 완화 조치에 투자하더라도, 그 국가는 혜택의 작은 부분만을 누릴 수 있다.[7]
또한, 세계적 재앙 위험 감소는 '세대 간' 세계 공공재로 간주될 수 있다. 위험 감소의 혜택 대부분은 미래 세대가 누리겠지만, 이들이 위험 감소에 상당한 액수를 지불할 의향이 있더라도, 그러한 거래를 위한 메커니즘은 존재하지 않는다.[7] 즉, 현재 세대의 의사 결정에 미래 세대의 이익을 반영하기 어려운 세대 간 형평성 문제가 발생한다.
4. 3. 인지 편향
엘리에제르 유드코프스키는 규모 불감응, 가용성 휴리스틱, 결합 오류, 정동적 휴리스틱, 더닝-크루거 효과를 포함한 몇 가지 인지 편향이 지구 멸망 위험의 중요성을 평가하는 개인 및 집단의 태도에 영향을 미친다고 하였다.[122] 이러한 인지 편향들은 사람들이 전 지구적 위험의 중요성을 과소평가하게 만든다.범지구적 위험의 중요성에 대한 사람들의 판단에 영향을 미칠 수 있는 인지 편향에는 범위 무감수성, 쌍곡 할인, 가용성 휴리스틱, 결합 오류, 영향 휴리스틱, 과잉 확신 효과 등이 있다.[27]
범위 무감수성은 사람들이 인류의 멸종을 얼마나 심각하게 여기는지에 영향을 미친다. 예를 들어, 사람들이 이타적인 대의에 돈을 기부하도록 동기 부여를 받을 때, 기꺼이 기부하려는 금액은 문제의 규모에 따라 선형적으로 증가하지 않는다. 사람들은 200,000마리 또는 2,000마리의 새의 죽음을 막는 데 거의 비슷한 의향을 보인다.[28] 마찬가지로, 사람들은 종종 더 큰 집단보다 개인에 대한 위협에 더 관심을 보인다.[27]
엘리에제르 유드코프스키는 범위 무시가 범지구적 위험에 대한 대중의 인식에 영향을 미친다고 이론화하면서 다음과 같이 설명하였다.[29]
> 5억 명의 사망과 같이 훨씬 더 큰 규모의 숫자, 특히 전체 인류의 멸종과 같이 질적으로 다른 시나리오는 다른 사고 방식을 촉발하는 것처럼 보인다... 아이에게 해를 끼칠 꿈도 꾸지 않는 사람들은 범지구적 위험에 대해 듣고 "글쎄, 인류가 정말로 살아남을 자격이 없을 수도 있다"라고 말한다.
과거의 모든 인류 멸망 예측은 거짓으로 판명되었다. 어떤 사람들에게는 이것이 미래의 경고를 덜 신뢰할 수 있게 만든다. 닉 보스트롬은 과거에 인류 멸종이 없었던 것은 생존자 편향 및 기타 인류 원리 효과로 인해 미래에 인류 멸종이 없을 것이라는 약한 증거라고 주장한다.[30]
사회생물학자 E. O. 윌슨은 다음과 같이 주장했다. "이 근시안적 안개의 이유는, 진화 생물학자들이 주장하는 바에 따르면, 지난 200만 년 동안의 속 호모(Homo)의 존재 중 마지막 몇 천 년을 제외하고는 실제로 유리했기 때문이다... 가까운 미래와 조기 번식에 대한 세심한 주의, 그리고 그 외에는 거의 아무것도 없었다. 몇 세기에 한 번만 발생하는 규모의 재앙은 잊혀지거나 신화로 변했다."[31]
5. 완화 방안
전 지구적 재앙 위험을 완화하기 위한 방안으로는 예방, 대응, 회복력 강화 등이 제시된다.[32]
- '''예방''': 재앙 발생 가능성을 원천적으로 줄이는 것이다. (예: 전염병 확산 방지를 위한 방역 조치)
- '''대응''': 재앙 발생 시 피해의 전 세계적 확산을 막는 것이다. (예: 핵무기 사용 억제를 위한 국제 협약)
- '''회복력''': 재앙 발생 후 인류 생존 및 회복 능력을 높이는 것이다. (예: 핵겨울 대비 식량 비축)
이 세 가지 방어 수단이 모두 취약하면 인류 멸종 가능성이 높아진다.[32] 실존적 위험은 전례가 없어 과거 사례를 통한 대비책 마련이 어렵다는 특징이 있다.[16]
이러한 완화 방안 외에도, 지구 전체가 재앙에 휩싸일 경우를 대비하여 외딴 곳에 자급자족 가능한 정착지 건설이 제안되기도 한다. 로빈 한슨은 최소 100명 이상 거주하는 피난처가 인류 생존 가능성을 크게 높일 수 있다고 주장한다.[36]
식량 비축은 전 세계적으로 제안되지만, 막대한 비용이 들고 현재도 영양실조로 고통받는 사람들에게 악영향을 줄 수 있다.[37] 스발바르 국제 종자 저장고는 북극 섬 산속 120m 깊이에 위치하며, 전 세계 작물 종자를 보존한다. 100개국 이상에서 보낸 25억 개 종자가 보관되어 있으며, 저장고 내부는 -18°C로 유지된다.[39][40]
사회와 생물권이 계속 기능한다면, 햇빛이 장기간 차단되어도 현재 인류의 칼로리 요구량을 충족할 방법이 이론적으로 존재한다. 재앙으로 발생한 죽은 식물을 이용한 버섯 재배, 섬유소의 설탕 전환, 메탄 소화 박테리아에 천연 가스 공급 등이 그 예이다.[41][42]
지구적 거버넌스 부재는 사회 및 정치 영역의 위험을 야기할 수 있다. 그러나 거버넌스 메커니즘은 기술 및 사회 변화보다 느리게 발전한다. 정부, 민간, 대중 모두 위험에 효과적으로 대응하고 다양한 이해관계 속에서 협상 및 판결할 수 있는 거버넌스 메커니즘 부족을 우려한다. 이는 글로벌 시스템 위험의 상호 연결성에 대한 이해 부족으로 심화된다.[43] 글로벌 거버넌스 부재 시, 각국 정부는 세계적 재앙 이해, 완화, 대비를 위해 개별 행동할 수 있다.[44]
로마 클럽은 2018년 지구 평균 기온 상승을 1.5°C로 제한하기 위한 10가지 행동 지침을 담은 기후 비상 계획을 발표했고,[45] 2019년에는 더 포괄적인 행성 비상 계획을 발표했다.[46]
우주 식민지화는 인류 멸종 시나리오에서 생존 가능성을 높이는 대안으로 제시된다.[48] 스티븐 호킹은 기술 발전이 충분하면 지구 전체에 영향을 주는 핵전쟁 등으로부터 인류 생존 가능성을 높이기 위해 태양계 내 다른 행성 식민지화가 필요하다고 주장했다.[49][50] 일론 머스크는 인류 멸종 방지를 위해 다행성 종이 되어야 한다고 주장하며,[51] 스페이스X를 통해 화성 식민지화 기술을 개발하고 있다.[118]
5. 1. 다층 방어
다층 방어는 위험 완화 조치를 세 가지 방어 계층으로 분류하는 데 유용한 프레임워크이다.[32]- '''예방''': 재앙이 처음부터 발생할 확률을 줄이는 것이다. (예: 새로운 고도로 전염성 질병의 발병을 예방하기 위한 조치.)
- '''대응''': 재앙이 전 세계적인 수준으로 확대되는 것을 막는 것이다. (예: 소규모 핵 교환이 전면적인 핵전쟁으로 확대되는 것을 막기 위한 조치.)
- '''회복력''': 전 지구적 재앙에 직면했을 때 인류의 회복력(멸종에 대한)을 높이는 것이다. (예: 핵겨울 동안 식량 안보를 강화하기 위한 조치.)
인류 멸종은 세 가지 방어 모두가 약할 때, 즉 "우리가 예방하기 어렵고, 성공적으로 대응하기 어렵고, 회복력을 갖기 어려운 위험"에 의해 가장 가능성이 높다.[32]
5. 2. 자금 지원
일부 연구자들은 실존적 위험과 관련된 연구와 기타 활동 모두 자금 지원이 부족하다고 주장한다. 닉 보스트롬은 실존적 위험보다 ''스타 트렉'', 스노보드, 또는 쇠똥구리에 대한 연구가 더 많이 수행되었다고 말한다.[33][34] 2020년 기준으로, 생물 무기 금지 조약 기구의 연간 예산은 1400000USD였다.[35]5. 3. 생존 계획
일부 학자들은 지구에 세계적인 재앙에서 살아남기 위한 목적으로 특별히 만들어진 하나 이상의 자급자족적이고 외딴 곳에 영구적으로 점유된 정착지를 건설할 것을 제안한다. 경제학자 로빈 한슨은 최소 100명이 영구적으로 거주하는 피난처가 광범위한 세계적 재앙 시에 인간 생존의 기회를 상당히 개선할 것이라고 주장한다.[36]식량 비축은 전 세계적으로 제안되었지만, 금전적 비용이 많이 들 것이다. 또한, 이는 현재 연간 수백만 명의 영양실조로 인한 사망에 기여할 가능성이 높다.[37] 2022년, 데이비드 덴켄버거가 이끄는 팀은 인공 일반 지능(AGI) 안전에 대한 탄력적인 식량의 비용 효율성을 모델링했으며, 탄력적인 식량에 대한 작업의 한계적 영향이 더 높다는 것을 "~98-99% 확신"으로 발견했다.[38] 일부 생존주의자들은 생존 은신처에 수년간의 식량을 비축해 둔다.
스발바르 국제 종자 저장고는 북극의 한 섬에 있는 산속 120m 깊이에 묻혀 있다. 이는 세계의 작물을 보존하기 위한 예방책으로 100개 이상의 국가에서 온 25억 개의 종자를 보관하도록 설계되었다. 주변 암석은 (2015년 기준) -6°C이지만, 저장고는 현지에서 조달한 석탄으로 가동되는 냉장고를 통해 -18°C로 유지된다.[39][40]
만약 사회가 계속 기능하고 생물권이 살기에 적합하다면, 충분한 사전 계획 하에 햇빛이 장기간 부재하는 동안 현재 인류의 칼로리 요구량을 이론적으로 충족할 수 있을 것이다. 추정되는 해결책에는 재앙의 여파로 남겨진 죽은 식물 생물량에서 버섯을 재배하거나, 섬유소를 설탕으로 전환하거나, 메탄을 소화하는 박테리아에 천연 가스를 공급하는 것이 포함된다.[41][42]
5. 4. 지구적 거버넌스
글로벌 거버넌스가 부족하면 사회 및 정치 영역에서 위험을 초래하지만, 거버넌스 메커니즘은 기술 및 사회 변화보다 느리게 발전한다. 위험에 효과적으로 대처하고, 다양하고 상충하는 이해관계 사이에서 협상하고, 판결을 내릴 수 있는 거버넌스 메커니즘이 부족하다는 점에 대해 정부, 민간 부문, 일반 대중 모두 우려를 표명하고 있다. 이는 글로벌 시스템 위험의 상호 연결성에 대한 이해 부족으로 인해 더욱 심화된다.[43] 글로벌 거버넌스가 부재하거나 예상될 때, 각국 정부는 세계적인 재앙을 더 잘 이해하고, 완화하며, 대비하기 위해 개별적으로 행동할 수 있다.[44]2018년, 로마 클럽은 더 강력한 기후 변화 대응을 촉구하며 지구 평균 기온 상승을 1.5°C로 제한하기 위한 10가지 행동 지침을 제안하는 기후 비상 계획을 발표했다.[45] 또한 2019년에는 더욱 포괄적인 행성 비상 계획을 발표했다.[46]
기후 변화와 관련하여 인류가 취약하다는 점을 고려할때 발생하는 감정적 경험에 집단적으로 참여하는 것은, 이러한 경험을 적응적으로 만들 수 있다는 증거가 있다. 감정적 경험에 대한 집단적 참여와 처리가 지원될 경우, 이는 회복력, 심리적 유연성, 감정적 경험에 대한 관용, 그리고 지역 사회 참여의 성장을 가져올 수 있다.[47]
5. 5. 우주 식민지화
우주 식민지화는 인류 멸종 시나리오에서 살아남을 가능성을 높이기 위한 대안으로 제시된다.[48] 이러한 규모의 해결책은 거대 규모 공학을 필요로 할 수 있다.천체물리학자 스티븐 호킹은 기술이 충분히 발전하면 지구 전체의 핵전쟁과 같은 지구적 사건으로부터 인간의 생존 가능성을 개선하기 위해 태양계 내 다른 행성을 식민지화해야 한다고 주장했다.[49][50]
억만장자 일론 머스크는 인류가 멸종을 피하기 위해 다행성 종이 되어야 한다고 주장한다.[51] 그의 회사인 스페이스X는 화성을 식민지화하는 데 사용될 것이라고 예상하는 기술을 개발하고 있다.[118]
6. 관련 단체
2000년 이후, 여러 과학자, 철학자, 기술 분야 거물들이 학계 안팎에서 세계적 위험을 연구하는 단체들을 설립했다.[54]
기계 지능 연구소(2000년 설립)는 인공 지능으로 인한 재앙 위험을 줄이는 것을 목표로 하는 독립적인 비정부 기구(NGO)이며, 피터 틸, 제드 맥칼렙 등이 기부자로 참여하고 있다.[55][56] 핵 위협 이니셔티브(2001년 설립)는 핵, 생물학, 화학적 위협으로부터의 전 세계적 위협을 줄이고, 사건 발생 후 피해를 억제하는 것을 목표로 한다.[57] 핵 물질 보안 지수를 유지한다.[58] 라이프보트 재단(2009년 설립)은 기술적 재앙을 예방하기 위한 연구에 자금을 지원하며,[59] 연구 자금의 대부분은 대학 프로젝트에 지원된다.[60] 글로벌 재앙 위험 연구소(GCRI, 2011년 설립)는 세스 바움과 토니 배럿이 설립한 미국의 비영리, 초당적 싱크탱크이다. GCRI는 인공 지능, 핵전쟁, 기후 변화, 소행성 충돌 등 다양한 위험에 대한 연구 및 정책 활동을 수행한다.[61] 글로벌 챌린지 재단(2012년 설립)은 스톡홀름에 본부를 두고 있으며 라스즐로 숨바트팔비가 설립했으며, 매년 세계적 위험의 상태에 대한 보고서를 발표한다.[62][63] 생명의 미래 연구소(2014년 설립)는 변혁적 기술로 인한 극단적이고 대규모의 위험을 줄이고, 모든 생명체에 도움이 되도록 이러한 기술의 개발과 사용을 이끌기 위해 보조금 지급, 미국, 유럽 연합, 유엔에서의 정책 옹호, 교육적 지원 활동을 한다.[64] 일론 머스크, 비탈릭 부테린, 얀 탈린은 이 연구소의 주요 기부자들이다.[65] 장기 위험 연구 센터(2016년 설립)는 신기술로 인한 천문학적인 고통(s-위험)의 위험을 줄이는 데 중점을 둔 영국의 조직이다.[66]
대학 기반 조직으로는 인류의 미래 연구소(2005년 설립)가 있으며, 이 연구소는 닉 보스트롬이 설립했으며 옥스퍼드 대학교에 기반을 두고 인류의 장기적 미래, 특히 실존적 위험에 대한 질문을 연구한다.[5] 실존적 위험 연구 센터(2012년 설립)는 케임브리지 대학교에 기반을 둔 조직으로, 인공 지능, 생명 공학, 지구 온난화, 전쟁이라는 네 가지 주요 기술적 위험을 연구한다.[6] 휴 프라이스는 AFP 통신과의 인터뷰에서 "언젠가는 이번 세기나 다음 세기에 지능이 생물학적 제약에서 벗어날 것이라는 합리적인 예측이 가능하다"고 말했다. 그는 이 일이 발생하면 "우리는 더 이상 가장 똑똑한 존재가 아니며", "악의적이지 않지만, 우리를 포함하지 않는 관심을 가진 기계"의 자비에 놓이게 될 위험이 있다고 덧붙였다.[67] 스티븐 호킹은 자문 역할을 했다. 인류와 생물권을 위한 밀레니엄 연합은 스탠퍼드 대학교에 기반을 둔 조직으로, 인문학 분야의 학자들을 모아 전 세계적 재앙과 관련된 여러 문제에 집중한다.[68][69] 폴 에를리히 등이 설립했다.[70] 스탠퍼드 대학교는 또한 전 세계적 재앙 위험을 줄이기 위한 정치적 협력에 중점을 둔 국제 안보 및 협력 센터를 운영하고 있다.[71] 안보 및 신기술 센터는 2019년 1월 조지타운 대학교 월시 외교 대학원에서 설립되었으며, 초기에는 인공 지능에 중점을 두고 신기술에 대한 정책 연구를 수행할 예정이다.[72] 오픈 필랜스로피의 제안에 따라 굿 벤처스로부터 5,500만 달러(5500만달러)의 보조금을 받았다.[72]
다른 위험 평가 그룹은 정부 기관에 기반을 두거나 그 일부이다. 세계 보건 기구(WHO)는 전 세계적 전염병 위기를 모니터링하고 대응하는 글로벌 경보 및 대응(GAR) 부서를 포함한다.[73] GAR은 회원국이 전염병에 대한 대응을 훈련하고 조정하도록 돕는다.[74] 미국 국제 개발처(USAID)는 자체적으로 생성된 전염병을 근원적으로 예방하고 억제하는 것을 목표로 하는 신종 전염병 위협 프로그램을 운영하고 있다.[75] 로렌스 리버모어 국립 연구소는 정부를 대신하여 생물 보안 및 대테러와 같은 문제를 연구하는 글로벌 안보 주무 부서를 운영하고 있다.[76]
7. 윤리적 중요성 (일본어 문서 내용)
일부 학자들은 미래 세대에 큰 이익이 된다는 이유로 존망 위험을 낮추는 것을 강력히 지지한다. 데릭 파핏은 지구가 살 수 없게 되는 태양의 팽창 전에 우리 후손이 40억 년 동안 살아남을 수 있으므로, 멸망은 큰 손실이 될 것이라고 주장한다.[87][88] 닉 보스트롬은 우주 식민지에 훨씬 더 큰 가능성이 있다고 주장한다. 만약 미래의 인류가 우주로 이주한다면, 1조 년에 걸쳐 다른 행성에서 매우 많은 수의 사람들을 유지할 수 있을지도 모른다.[77] 따라서, 존망 위험을 조금이라도 낮추는 것은 미래에 존재할 사람들의 예상되는 수에 매우 현저한 영향을 미칠 것이다.
8. 페르미 역설 (일본어 문서 내용)
1950년, 이탈리아 물리학자 엔리코 페르미는 인류가 아직 외계 문명을 만나지 못한 이유에 대해 "우주는 어디에 있는가?"라는 질문을 던졌다.[120] 우주의 나이가 오래되었고 별의 수가 방대하다는 점을 고려할 때, 지구가 특별한 예외가 아니라면 외계 생명체는 흔할 것이라는 생각이었다. 이러한 모순은 페르미의 역설로 알려져 있다.
페르미 역설에 대해 제시된 설명 중 하나는, 인류가 관측하거나 방문할 수 있는 문명이 존재한다는 것은 곧 인류의 멸망 가능성을 내포한다는 것이다.[121]
9. 대중적 인식 (일본어 문서 내용)
엘리에제르 유드코프스키에 따르면, 규모 불감응, 가용성 휴리스틱, 결합 오류, 정동적 휴리스틱, 더닝-크루거 효과 등 여러 인지 편향이 개인이나 집단이 지구 멸망 위험의 중요성을 평가하는 태도에 영향을 미친다.[122] 이러한 인지 편향은 전 지구적 위험에 대한 대중적 인식을 왜곡할 수 있다.
10. 비판적 분석 (일본어 문서 내용)
앞서 언급된 절에서 상세히 설명된 위험의 중요성은 거의 부정되지 않는다. 즉, 위험이 인간에 의해 종종 과소평가될 수 있다는 점을 고려할 때[123], 닉 보스트롬의 분석은 다양한 관점에서 비판을 받았다.
닉 보스트롬이 그의 저서에서 언급한 몇몇 위험은 과장된 (더 나아가 공상적인) 판단이거나, 아니면 시간 척도에서의 대응이 너무 광범위하여 거의 즉각적인 위협 재편성 때문에 다소 우스꽝스럽게 느껴진다.[124][125]
닉 보스트롬 본인이 지지하는, 인간의 육체적, 정신적 특성을 개선하기 위해 과학 기술을 활용하는 것을 칭찬하는 하나의 관념 형태인 트랜스휴머니즘의 분석; 그리고 그것은, 그 가능성을 전혀 개발하는 인간성을 방해하는 것을 막는 모든 것도 하나의 존망 위험으로 간주한다.[77]; 항성 간 우주의 정복이 1억(= 100만 × 100) 년 규모의 예측 가능한 우주적 위험으로부터 인류를 안전한 장소에 숨게 해 줄 수 있는 유일한 수단의 예시로 평가하며, 이러한 이주에 필요한 기술적 가능성의 소멸을 존망 위험의 종류에 포함시킨다.[126]
11. 픽션에서의 묘사 (일본어 문서 내용)
지구 멸망의 줄거리는 고대 신화에서도 찾아볼 수 있다. 길가메시 서사시에 나오는 대홍수, 북유럽 신화의 라그나로크, 십재앙 등이 그 예시이다. 그러나 이러한 이야기는 과학적이거나 사회적인 현실성을 고려하지 않은 1950년대의 SF를 제시하는 것은 아니다. 1984년은 예외지만, 닉 보스트롬이 언급한 디스토피아 묘사는 시스템의 일관성과 발전 가능성을 신경 쓰지 않는다.
영화 역사에서 멸망 또는 파국은 (예를 들어, 1927년의 메트로폴리스) 이 주제의 성립 요건을 충족했다. 이 작품은 디스토피아를 다루었지만, 매드 맥스 시리즈와 같은 황폐한 세계 묘사에 대한 영화감독 자신의 애착보다는, 그 영화감독의 난해한 첫 영화로 여겨진다.
1990년대부터 시작된 디지털 특수 효과의 발전은 재난 영화에 새로운 활력을 불어넣었다. 인디펜던스 데이(1996년)는 외계로부터의 침략, 볼케이노(1997년)는 도시를 향한 화산 폭발, 아마겟돈(1998년)은 충돌 소행성에 의한 파괴를 묘사한다. 터미네이터 시리즈와 매트릭스 시리즈는 "기계의 반항"을 보여준다. 2004년, 롤랜드 에머리히의 투모로우는 급격한 기후 변화를 묘사한다. 그러나 이러한 영화들은 현실성과 사실성이 부족하다는 비판을 받았다.[127]
팬데믹을 소재로 한 주문형 비디오 영화 컨테이젼은 특수 효과가 적고 더 현실적인 유형으로 유명하다.
참조
[1]
논문
The Chicxulub Asteroid Impact and Mass Extinction at the Cretaceous-Paleogene Boundary
http://doc.rero.ch/r[...]
2010-03-05
[2]
서적
Global Catastrophic Risks
http://www.global-ca[...]
Oxford University Press
2008
[3]
논문
World Scientists' Warning to Humanity: A Second Notice
2017-11-13
[4]
논문
Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards
http://www.nickbostr[...]
2002-03
[5]
웹사이트
About FHI
http://www.fhi.ox.ac[...]
2021-08-12
[6]
웹사이트
About us
https://www.cser.ac.[...]
2021-08-12
[7]
논문
Existential Risk Prevention as Global Priority
http://www.existenti[...]
[8]
서적
Global Catastrophic Risks
Oxford University Press
2008
[9]
서적
The Black Death
Faber and Faber
2012
[10]
웹사이트
How big a deal was the Industrial Revolution?
https://lukemuehlhau[...]
2020-08-03
[11]
논문
1918 Influenza: the Mother of All Pandemics
2006
[12]
서적
Catastrophe: Risk and Response
Oxford University Press
2006
[13]
서적
The Precipice: Existential Risk and the Future of Humanity
Hachette
2020
[14]
간행물
Existential risk and existential hope: Definitions
http://www.fhi.ox.ac[...]
[15]
논문
Astronomical Waste: The opportunity cost of delayed technological development
http://www.nickbostr[...]
[16]
서적
The Precipice: Existential Risk and the Future of Humanity
Hachette
2020
[17]
서적
The totalitarian threat
https://books.google[...]
Oxford University Press
2008
[18]
뉴스
Did George Orwell secretly rewrite the end of Nineteen Eighty-Four as he lay dying?
https://www.smh.com.[...]
2017-06-01
[19]
서적
Nineteen Eighty-Four. A novel
http://catalogue.bl.[...]
Secker & Warburg
2021-08-12
[20]
논문
Assessing natural global catastrophic risks
2023
[21]
논문
Nuclear War as a Global Catastrophic Risk
2019
[22]
간행물
Nuclear War and Climatic Catastrophe: Some Policy Implications
https://www.foreigna[...]
Council on Foreign Relations
2020-08-04
[23]
논문
Existential Risks: Exploring a Robust Risk Reduction Strategy
https://philpapers.o[...]
2018-08-26
[24]
논문
Anthropic Shadow: Observation Selection Effects and Human Extinction Risks
https://www.nickbost[...]
2010
[25]
웹사이트
Are we on the road to civilization collapse?
https://www.bbc.com/[...]
2021-08-12
[26]
서적
The Precipice: Existential Risk and the Future of Humanity
Hachette Books
2020
[27]
논문
Cognitive Biases Potentially Affecting Judgment of Global Risks
https://intelligence[...]
2008
[28]
문서
[29]
문서
[30]
웹사이트
We're Underestimating the Risk of Human Extinction
https://www.theatlan[...]
The Atlantic
2016-07-01
[31]
문서
[32]
논문
Defence in Depth Against Human Extinction: Prevention, Response, Resilience, and Why They All Matter
2020
[33]
뉴스
Could science destroy the world? These scholars want to save us from a modern-day Frankenstein
https://www.science.[...]
AAAS
2020-04-20
[34]
뉴스
Oxford Institute Forecasts The Possible Doom Of Humanity
https://www.popsci.c[...]
2020-04-20
[35]
서적
The precipice: Existential risk and the future of humanity
Hachette Books
2020
[36]
논문
Catastrophe, social collapse, and human extinction
https://mason.gmu.ed[...]
Global catastrophic risks
2008
[37]
서적
The Earth's Biosphere: Evolution, Dynamics, and Change
https://books.google[...]
MIT Press
[38]
간행물
Long term cost-effectiveness of resilient foods for global catastrophes compared to artificial general intelligence safety
https://www.scienced[...]
2022
[39]
뉴스
Doomsday vault for world's seeds is opened under Arctic mountain
http://www.timesonli[...]
2008-02-27
[40]
웹사이트
The doomsday vault: the seeds that could save a post-apocalyptic world
https://www.theguard[...]
2017-06-30
[41]
뉴스
Here's how the world could end—and what we can do about it
https://www.science.[...]
AAAS
2018-03-23
[42]
간행물
Feeding everyone: Solving the food crisis in event of global catastrophes that kill crops or obscure the sun
https://hal.archives[...]
2015-09
[43]
웹사이트
Global Challenges Foundation {{!}} Understanding Global Systemic Risk
https://globalchalle[...]
2017-08-15
[44]
웹사이트
Global Catastrophic Risk Policy
https://www.gcrpolic[...]
2019-08-11
[45]
웹사이트
The Climate Emergency Plan
https://clubofrome.o[...]
2020-08-17
[46]
웹사이트
The Planetary Emergency Plan
https://clubofrome.o[...]
2020-08-17
[47]
간행물
The responsibility of communicating difficult truths about climate influenced societal disruption and collapse: an introduction to psychological research
https://insight.cumb[...]
[48]
뉴스
Mankind must abandon earth or face extinction: Hawking
http://www.physorg.c[...]
2012-01-23
[49]
웹사이트
Stephen Hawking: Humanity Must Colonize Space to Survive
http://www.space.com[...]
2016-07-01
[50]
뉴스
Hawking: Humans at risk of lethal 'own goal'
https://www.bbc.com/[...]
2016-07-01
[51]
웹사이트
Elon Musk thinks life on earth will go extinct, and is putting most of his fortune toward colonizing Mars
https://www.cnbc.com[...]
2017-06-16
[52]
웹사이트
Nanotechnology: Molecular Machines that Mimic Life
http://metamodern.co[...]
2015-06-05
[53]
간행물
Nanotech takes small step towards burying 'grey goo'
[54]
웹사이트
Apocalypse soon: the scientists preparing for the end times
http://www.newstates[...]
2015-06-05
[55]
웹사이트
Reducing Long-Term Catastrophic Risks from Artificial Intelligence
https://intelligence[...]
Machine Intelligence Research Institute
2015-06-05
[56]
간행물
Is Artificial Intelligence a Threat?
https://chronicle.co[...]
2015-06-05
[57]
웹사이트
Nuclear Threat Initiative
http://www.nti.org
2015-06-05
[58]
웹사이트
Isis could obtain nuclear weapon from Pakistan, warns India
https://www.independ[...]
2015-06-05
[59]
웹사이트
About the Lifeboat Foundation
http://lifeboat.com
The Lifeboat Foundation
2013-04-26
[60]
웹사이트
The Lifeboat Foundation: Battling Asteroids, Nanobots and A.I.
http://bits.blogs.ny[...]
2015-06-05
[61]
웹사이트
Global Catastrophic Risk Institute
https://gcrinstitute[...]
2022-03-22
[62]
웹사이트
Human Extinction Isn't That Unlikely
https://www.theatlan[...]
Emerson Collective
2016-04-30
[63]
웹사이트
Global Challenges Foundation website
http://globalchallen[...]
2016-04-30
[64]
웹사이트
The Future of Life Institute
http://thefutureofli[...]
2014-05-05
[65]
웹사이트
Ava of 'Ex Machina' Is Just Sci-Fi (for Now)
https://www.nytimes.[...]
2015-06-05
[66]
웹사이트
About Us
https://longtermrisk[...]
Center on Long-Term Risk
2020-05-17
[67]
웹사이트
Cambridge to study technology's risks to humans
http://bigstory.ap.o[...]
Associated Press
2012-01-30
[68]
서적
Environment and Development Economics: Essays in Honour of Sir Partha Dasgupta
https://books.google[...]
Oxford University Press
2015-06-05
[69]
웹사이트
Millennium Alliance for Humanity & The Biosphere
http://mahb.stanford[...]
2015-06-05
[70]
서적
Practicing Sustainability
https://books.google[...]
Springer Science & Business Media
2015-06-05
[71]
웹사이트
Center for International Security and Cooperation
http://cisac.stanfor[...]
Center for International Security and Cooperation
2015-06-05
[72]
뉴스
Georgetown launches think tank on security and emerging technology
https://www.washingt[...]
2019-02-28
[73]
웹사이트
Global Alert and Response (GAR)
https://www.who.int/[...]
2015-06-05
[74]
서적
Historical Dictionary of the World Health Organization
https://books.google[...]
Rowman & Littlefield
2015-06-05
[75]
웹사이트
USAID Emerging Pandemic Threats Program
http://avianflu.aed.[...]
USAID
2015-06-05
[76]
웹사이트
Global Security
https://www-gs.llnl.[...]
Lawrence Livermore National Laboratory
2015-06-05
[77]
문서
Schulte et al.
[78]
문서
Ripple et al.
[79]
문서
Bostrom
[80]
문서
Bostrom
[81]
문서
Bostrom
[82]
문서
Bostrom
[83]
문서
Matheny
[84]
문서
Asher
[85]
문서
Ambrose
[86]
문서
Rampino
[87]
문서
Parfit
[88]
문서
Carrington
[89]
간행물
Summary for Policymakers (finalized version)
https://www.ipcc.ch/[...]
IPCC
2013-11-11
[90]
뉴스
Global Catastrophic Risks: a summary
https://www.gcrpolic[...]
2019-08-11
[91]
뉴스
'Terminator center' to open at Cambridge University
http://www.foxnews.c[...]
2012-11-26
[92]
웹사이트
Frequently Asked Questions
http://existential-r[...]
Future of Humanity Institute
2013-07-26
[93]
문서
Georgescu-Roegen
[94]
웹사이트
Scholars assess threats to civilization, life on Earth
http://newsroom.ucla[...]
UCLA
2017-06-28
[95]
뉴스
The end of India's green revolution?
http://news.bbc.co.u[...]
2006-05-29
[96]
웹사이트
Food First/Institute for Food and Development Policy
http://www.foodfirst[...]
Foodfirst.org
2000-04-08
[97]
웹사이트
How peak oil could lead to starvation
http://wolf.readingl[...]
2009-05-27
[98]
문서
Bostrom
[99]
문서
Hamming
[100]
웹사이트
Report LA-602, ''Ignition of the Atmosphere With Nuclear Bombs''
https://fas.org/sgp/[...]
2011-10-19
[101]
간행물
Ignition of the Atmosphere with Nuclear Bombs
https://fas.org/sgp/[...]
Los Alamos National Laboratory
1946
[102]
웹사이트
"Statement by the Executive Committee of the DPF on the Safety of Collisions at the Large Hadron Collider."
http://www.aps.org/u[...]
[103]
웹사이트
Safety at the LHC
http://public.web.ce[...]
2008-06-18
[104]
간행물
"Study of Potentially Dangerous Events During Heavy-Ion Collisions at the LHC"
http://cdsweb.cern.c[...]
[105]
간행물
Why the future doesn't need us
[106]
문서
Ethical Issues in Advanced Artificial Intelligence
http://www.nickbostr[...]
2002
[107]
서적
Superintelligence: Paths, Dangers, Strategies
[108]
뉴스
Microsoft's Bill Gates insists AI is a threat
https://www.bbc.co.u[...]
2015-01-30
[109]
문서
2008
[110]
웹사이트
Frequently Asked Questions - Molecular Manufacturing
http://www.foresight[...]
2014-07-19
[111]
웹사이트
Near Apocalypse Causing Diseases, a Historical Look
http://www.postapoca[...]
postapocalypticsurvival.com
2012-05-05
[112]
간행물
Questioning Estimates of Natural Pandemic Risk
2018
[113]
문서
Mankind must abandon earth or face extinction: Hawking
http://www.physorg.c[...]
2012-01-23
[114]
웹사이트
Global Challenges Foundation {{!}} Understanding Global Systemic Risk
https://globalchalle[...]
2017-08-15
[115]
웹사이트
Global Catastrophic Risk Policy {{!}}
https://www.gcrpolic[...]
2019-08-11
[116]
웹사이트
The Climate Emergency Plan
https://clubofrome.o[...]
2020-08-17
[117]
웹사이트
The Planetary Emergency Plan
https://clubofrome.o[...]
2020-08-17
[118]
뉴스
Elon Musk thinks life on earth will go extinct, and is putting most of his fortune toward colonizing Mars
https://www.cnbc.com[...]
[119]
웹사이트
Nanotechnology: Molecular Machines that Mimic Life
http://metamodern.co[...]
2015-06-05
[120]
문서
1985
[121]
문서
2010
[122]
문서
2008
[123]
문서
世界を騙しつづける科学者たち
[124]
문서
2003
[125]
문서
[126]
문서
2020
[127]
문서
[128]
간행물
Reducing the Risk of Human Extinction
http://users.physics[...]
2007
[129]
서적
Apocalypse when?
Praxis
[130]
저널
The Chicxulub Asteroid Impact and Mass Extinction at the Cretaceous-Paleogene Boundary
2010-03-05
[131]
서적
Global Catastrophic Risks
http://www.global-ca[...]
Oxford University Press
2017-01-04
[132]
저널
Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards
http://www.nickbostr[...]
2002-03
본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.
문의하기 : help@durumis.com