닉 보스트롬
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
1. 개요
닉 보스트롬(Nik Bostrom)은 스웨덴 출신의 철학자로, 인류의 미래와 장기적인 결과에 대한 연구를 주로 수행한다. 그는 존재 위험, 특히 인공지능, 나노기술, 합성생물학 등에서 비롯되는 인위적 위험에 대해 우려하며, 인류의 미래 연구소 설립을 통해 장기주의적 관점에서 연구를 진행했다. 보스트롬은 '취약한 세계 가설'과 '모의실험 가설'을 제시했으며, 인류원리 추론과 인간 향상에 대한 윤리적 문제에도 관심을 기울였다. 2023년 과거 인종차별적 이메일로 논란이 있었지만, 옥스퍼드 대학교 조사 결과 인종차별주의자라고 결론 내려지지는 않았다.
더 읽어볼만한 페이지
- 스웨덴의 컴퓨터 과학자 - 다니엘 스텐베리
- 스웨덴의 컴퓨터 과학자 - 해리 나이퀴스트
해리 나이퀴스트는 스웨덴 출신의 미국 전기 공학자이자 통신 이론가로, 열잡음, 피드백 증폭기, 정보 전송 이론 등 통신 분야에 기여했으며, AT&T 연구소에서 근무하며 존슨-나이퀴스트 잡음, 나이퀴스트-섀넌 표본화 정리 등 통신 기술 발전에 중요한 이론을 정립했다. - 스웨덴의 철학자 - 에마누엘 스베덴보리
에마누엘 스베덴보리는 스웨덴의 과학자, 철학자, 신학자이자 신비주의 사상가로서 자연 과학과 공학 분야에서 업적을 남겼으며, 후에는 신비주의적 경험을 바탕으로 독자적인 신학 사상을 전개하여 현대 스피리츄얼리티와 뉴에이지 운동에 영향을 주었다. - 스웨덴의 철학자 - 안데르스 쉬데니우스
안데르스 쉬데니우스는 자유 무역, 언론 및 종교의 자유를 옹호한 핀란드의 목사이자 정치 사상가, 경제학자로, 그의 진보적인 사상은 북유럽 계몽주의에 영향을 미쳤으며, 특히 《국가의 이득》을 통해 자유주의와 자본주의 원리를 제시하고 스웨덴의 언론 자유 법률 제정에도 기여했다. - 옥스퍼드 대학교 세인트크로스 칼리지 교수 - 루치아노 플로리디
이탈리아 철학자 루치아노 플로리디는 정보철학의 선구자로서 정보의 본질, 윤리적 함의, 인포스피어 개념을 연구하고, 옥스퍼드 대학교 등 여러 대학에서 활동했으며 현재 예일 디지털 윤리 센터 소장으로 정보 혁명의 사회적, 윤리적 영향에 대한 논의를 이끌고 있다. - 옥스퍼드 대학교 세인트크로스 칼리지 교수 - 디아메이드 맥클로흐
영국의 역사학자이자 성공회 신학자인 디아메이드 맥클로흐는 튜더 시대와 종교개혁 연구의 권위자로서, 다양한 저술 활동과 사회 참여 활동으로 기사 작위를 받았다.
닉 보스트롬 - [인물]에 관한 문서 | |
---|---|
기본 정보 | |
![]() | |
이름 | 닉 보스트롬 |
원어 이름 | Niklas Boström |
출생일 | 1973년 3월 10일 |
출생지 | 헬싱보리, 스웨덴 |
국적 | 스웨덴 |
배우자 | Susan |
웹사이트 | 닉 보스트롬의 홈페이지 |
학력 | |
학력 | 예테보리 대학교 (인문사회 학사) 스톡홀름 대학교 (인문사회 석사) 킹스 칼리지 런던 (과학 석사) 런던 정치경제대학교 (철학박사) |
박사 학위 논문 제목 | 관찰 선택 효과와 확률 |
박사 학위 논문 URL | 관찰 선택 효과와 확률 |
경력 | |
소속 기관 | 예일 대학교 옥스퍼드 대학교 인류 미래 연구소 |
직업 | 철학자, 교수 |
주요 관심 분야 | 인공지능 철학 생명윤리학 |
철학적 사상 및 기여 | |
주요 사상 | 인류 원리 편향 반전 검사 시뮬레이션 가설 실존적 위험 연구 단독자 조상 시뮬레이션 정보 위험 무한대 마비 자기 지시 가정 자기 표본 추출 가정 |
학파 | 분석철학 |
수상 내역 | |
수상 | 옥스퍼드 대학교 교수 공로상 FP 100대 글로벌 사상가 프로스펙트 세계 최고 사상가 목록 |
언어 정보 | |
스웨덴어 이름 | Niklas Boström |
스웨덴어 발음 | /ˈnɪ̌kːlas ˈbûːstrœm/ |
영어 발음 | /ˈbɒstrəm/ |
로마자 표기 | Niklas Boström |
2. 생애
닉 보스트롬은 1973년 스웨덴 헬싱보리에서 태어났다.[9] 어릴 적부터 학교를 싫어하여 고등학교 마지막 해에는 가정에서 학습했고, 인류학, 예술, 문학, 과학 등 다양한 분야에 관심을 가졌다.[3]
1994년 예테보리 대학교에서 학사(B.A.) 학위를, 스톡홀름 대학교에서 철학과 물리학으로 석사(M.A.) 학위를 받았다. 1996년에는 킹스 칼리지 런던에서 계산 신경과학으로 이학 석사(MSc) 학위를 받았다. 스톡홀름 대학교에서는 분석철학자 W. V. 퀸을 연구하여 언어와 현실의 관계를 연구했고,[3] 런던에서는 스탠드업 코미디 무대에 출연하기도 했다.[9] 2000년 런던 정경대학교에서 철학 철학 박사(PhD) 학위를 받았으며, 논문 제목은 "관찰 선택 효과와 확률"(Observational selection effects and probability)이었다.[11]
2. 1. 유년 시절과 교육
1973년 스웨덴 헬싱보리에서 니클라스 보스트롬(Niklas Boström)으로 태어났다.[9] 그는 어릴 적부터 학교를 싫어했고, 고등학교 마지막 해에는 가정에서 학습했다. 인류학, 예술, 문학, 과학 등 다양한 학문 분야에 관심을 가졌다.[3]1994년 예테보리 대학교에서 학사(B.A.) 학위를 받았다.[10] 그 후 스톡홀름 대학교에서 철학과 물리학으로 석사(M.A.) 학위를, 1996년에는 킹스 칼리지 런던에서 계산 신경과학으로 이학 석사(MSc) 학위를 받았다. 스톡홀름 대학교 재학 시절에는 분석철학자 W. V. 퀸을 연구하여 언어와 현실의 관계에 대해 연구했다.[3] 또한 런던의 스탠드업 코미디 무대에도 출연했다.[9] 2000년에는 런던 정경대학교에서 철학으로 철학 박사(PhD) 학위를 받았다. 그의 논문 제목은 "관찰 선택 효과와 확률"(Observational selection effects and probability)이었다.[11]
3. 연구 및 저술
닉 보스트롬은 인류의 미래와 장기적인 결과에 대해 연구했다.[5][12] 그는 존재 위험을 "지구상의 지적 생명체를 멸종시키거나, 그 잠재력을 영구적이고 극적으로 감소시키는" 위험으로 정의했다.[3]
2005년, 보스트롬은 인류의 미래 연구소를 설립하여 인류 문명의 먼 미래를 연구했으며,[3] 이 연구소는 2024년에 폐쇄되었다.[14][15] 그는 존재적 위험 연구 센터의 자문위원이기도 하다.[12]
보스트롬은 기질 독립 원리(substrate independence principle)를 지지한다. 이는 의식이 인간의 뇌와 같은 "탄소 기반 생물학적 신경망"뿐 아니라 다양한 유형의 물리적 기질에서도 나타날 수 있다는 생각이다.[21]
보스트롬은 인류원리 추론에 관한 수많은 논문과 ''인류원리 편향: 과학과 철학에서의 관찰 선택 효과''(Anthropic Bias: Observation Selection Effects in Science and Philosophy)라는 책을 출판했다. 이 책에서 그는 브랜든 카터, 존 레슬리, 존 배로, 프랭크 팁러(Frank J. Tipler)를 포함한 이전의 인류원리 공식화에 대해 비판한다.[24]
보스트롬의 시뮬레이션 가설은 일종의 회의론적 가설이다. 플라톤, 르네 데카르트, 버트런드 러셀 등은 현실이 착각이라는 주장을 펼쳤는데, 이는 오랜 역사를 지닌다. 그러나 보스트롬은 이들과 달리, 충분히 발달된 문명이 있다면 거주민의 의식까지 재현한 행성 또는 우주 전체의 시뮬레이션이 가능하며, 우리가 그런 시뮬레이션 속에 살고 있을 가능성이 높다는 경험적 근거를 제시했다.[27][28]
보스트롬은 과학의 윤리적인 적용을 통한 자기계발과 인간 완성이라는 의미의 "인간 향상"에 긍정적인 입장을 취하며, 생물보수주의적 견해는 비판한다.[29] 1998년 데이비드 피어스와 함께 세계 트랜스휴머니스트 협회(이후 휴머니티+로 변경)를 공동 설립했다.[29] 2004년에는 제임스 휴즈와 함께 윤리와 신기술 연구소를 공동 설립했지만,[30] 현재는 두 단체와 모두 관련이 없다.
보스트롬은 존재적 위험을 줄이기 위한 기술 정책은 다양한 기술적 능력이 획득되는 순서에 영향을 미쳐야 한다고 제안하며, 기술 발전의 차별화 원칙을 제시했다. 이 원칙은 특히 존재적 위험 수준을 높이는 위험한 기술의 개발을 늦추고, 특히 자연이나 다른 기술이 초래하는 존재적 위험으로부터 보호하는 유익한 기술의 개발을 가속화해야 한다고 명시한다.[34] 2011년, 보스트롬은 미래 기술의 영향에 관한 옥스퍼드 마틴 프로그램을 설립했다.[35]
3. 1. 존재론적 위험
보스트롬은 인류의 미래와 장기적인 결과에 대한 연구를 진행했다.[5][12] 그는 존재 위험을 "지구상의 지적 생명체를 멸종시키거나, 그 잠재력을 영구적이고 극적으로 감소시키는" 위험으로 정의했다.[3] 보스트롬은 주로 인위적 위험, 즉 인간 활동, 특히 첨단 인공지능, 나노기술, 합성생물학과 같은 새로운 기술에서 발생하는 위험에 대해 우려한다.[13]2005년, 보스트롬은 인류의 미래 연구소를 설립하여 인류 문명의 먼 미래를 연구했으며,[3] 이 연구소는 2024년에 폐쇄되었다.[14][15] 그는 또한 존재적 위험 연구 센터의 자문위원이기도 하다.[12]
보스트롬과 밀란 M. 치르코비치는 2008년 에세이 모음집 ''지구적 재앙 위험''에서 존재 위험과 더 광범위한 지구적 재앙 위험의 관계를 특징짓고, 존재 위험을 관찰자 선택 효과[16]와 페르미 역설[17]에 연결했다.
3. 1. 1. 취약한 세계 가설
"취약한 세계 가설(The Vulnerable World Hypothesis)"이라는 논문에서,[18] 보스트롬은 발견되는 즉시 인류 문명을 파괴할 수 있는 기술들이 존재할 수 있다고 제안한다. 보스트롬은 이러한 취약성을 분류하고 대처하기 위한 틀을 제시한다. 또한 그는 이러한 취약성이 역사적으로 어떻게 발생할 수 있었는지에 대한 반사실적 사고 실험을 제시하는데, 예를 들어 핵무기가 더 쉽게 개발되었거나(대기가 발화될 가능성에 대해 로버트 오펜하이머가 우려했던 것처럼)[20] 핵무기가 더 쉽게 개발될 수 있었다면 어떻게 되었을지 가정한다.보스트롬은 사회가 예방적 경찰 활동과 세계적 거버넌스의 능력이 제한적이고 다양한 동기의 개인들이 존재하는 상태인 "반무정부적 기본 상태(semi-anarchic default condition)"에서 충분히 벗어나면 위험을 줄일 수 있다고 말한다.[19]
3. 2. 디지털 지각
보스트롬은 기질 독립 원리(substrate independence principle)를 지지하는데, 이는 의식이 인간의 뇌와 같은 "탄소 기반 생물학적 신경망"뿐 아니라 다양한 유형의 물리적 기질에서도 나타날 수 있다는 생각이다.[21] 그는 "의식은 정도의 문제"라고 생각[22]하며, 이론적으로 디지털 마음은 인간보다 훨씬 높은 속도와 강도의 주관적 경험을 적은 자원으로 갖도록 설계될 수 있다고 본다. 그가 "초이익자(super-beneficiaries)"라고 부르는 이러한 매우 지각 있는 기계들은 행복을 달성하는 데 매우 효율적일 것이다. 그는 "디지털 마음과 생물학적 마음이 상호 이익이 되는 방식으로 공존하여 이러한 모든 다양한 형태가 번영하고 발전할 수 있는 경로"를 찾는 것을 권장한다.[23]3. 3. 인류학적 추론
보스트롬은 인류원리 추론에 관한 수많은 논문과 ''인류원리 편향: 과학과 철학에서의 관찰 선택 효과''(Anthropic Bias: Observation Selection Effects in Science and Philosophy)라는 책을 출판했다. 이 책에서 그는 브랜든 카터(Brandon Carter), 존 레슬리(John A. Leslie), 존 배로(John D. Barrow), 프랭크 팁러(Frank J. Tipler)를 포함한 이전의 인류원리 공식화에 대해 비판한다.[24]보스트롬은 지수 정보(indexical information)의 잘못된 취급이 우주론, 철학, 진화론, 게임 이론, 양자 물리학을 포함한 많은 연구 분야에서 흔한 결함이라고 믿는다. 그는 이러한 문제를 해결하기 위해 인류원리 이론이 필요하다고 주장한다. 그는 자기 샘플링 가정(Self-Sampling Assumption, SSA)과 자기 지시 가정(Self-Indication Assumption, SIA)을 제시하고, 이들이 여러 경우에 어떻게 다른 결론으로 이어지는지 보여주며, 특정 사고 실험에서 각 가정이 역설이나 반직관적인 함의에 어떻게 영향을 받는지 확인한다. 그는 SSA를 강한 자기 샘플링 가정(Strong Self-Sampling Assumption, SSSA)으로 확장하는 것이 앞으로 나아갈 수 있는 방법일 수 있다고 제안하는데, 이는 SSA 정의에서 "관찰자"를 "관찰자-순간"으로 대체한다.
보스트롬은 '강한 자기표본화 가정'을 통해 인류원리에 대한 올바른 이해가 이루어진다고 주장하며, “각 관측 시점은 그 참조 클래스에 있는 모든 관측 시점의 클래스에서 무작위로 선택된 것으로 논의되어야 한다”고 했다. 이러한 관점에서 각 관측 시점은 무작위로 선택된 것으로 분석되어야 한다. 관측 시점의 시퀀스에서 관측자의 경험을 분석하는 것은 어떤 종류의 역설을 피하는 데 도움이 된다. 그러나 주된 모호성은 적절한 “참조 클래스”의 선택이다. 약한 인류원리에서는 이것이 우리 우주에 있는 모든 실제 또는 가능한 관측 시점에 해당할 수 있다. 강한 인류원리에서는 모든 다중 우주에 해당할 수 있다. 보스트롬의 수학적 연구에 따르면, 참조 클래스가 너무 넓거나 너무 좁으면 직관에 반하는 결과가 된다. 그러나 그는 완벽한 선택을 규정하지 못했다.
3. 3. 1. 인류학적 그림자
밀란 치르코비치(Milan M. Ćirković), 안데르스 샌드버그(Anders Sandberg)와 함께 인류학적 그림자(anthropic shadow) 현상을 제안했다. 이는 관찰자가 최근의 지질학적 및 진화적 과거에서 특정 종류의 재난을 관찰하는 것을 막는 관찰 선택 효과이다. 그들은 인류학적 그림자에 있는 사건들은 통계적 수정이 이루어지지 않는 한 과소평가될 가능성이 높다고 제안한다.[25][26]3. 4. 시뮬레이션 가설
보스트롬의 시뮬레이션 가설은 일종의 회의론적 가설이다. 플라톤, 르네 데카르트, 버트런드 러셀 등은 현실이 착각이라는 주장을 펼쳤는데, 이는 오랜 역사를 지닌다. 그러나 보스트롬은 이들과 달리, 충분히 발달된 문명이 있다면 거주민의 의식까지 재현한 행성 또는 우주 전체의 시뮬레이션이 가능하며, 우리가 그런 시뮬레이션 속에 살고 있을 가능성이 높다는 경험적 근거를 제시했다.[27][28]보스트롬은 다음 세 가지 명제 중 적어도 하나가 참일 가능성이 매우 높다고 주장한다.[27][28]
# 인간 수준의 문명이 포스트휴먼 단계에 도달하는 비율은 거의 0에 가깝다.
# 포스트휴먼 문명 중 조상 시뮬레이션을 실행하는 데 관심 있는 비율은 거의 0에 가깝다.
# 우리와 같은 경험을 가진 모든 사람 중 시뮬레이션 안에서 살고 있는 사람의 비율은 거의 1에 가깝다.
3. 5. 인간 향상의 윤리
보스트롬은 과학의 윤리적인 적용을 통한 자기계발과 인간 완성이라는 의미의 "인간 향상"에 긍정적인 입장을 취하며, 생물보수주의적 견해는 비판한다.[29]1998년 데이비드 피어스와 함께 세계 트랜스휴머니스트 협회(이후 휴머니티+로 변경)를 공동 설립했다.[29] 2004년에는 제임스 휴즈와 함께 윤리와 신기술 연구소를 공동 설립했지만,[30] 현재는 두 단체와 모두 관련이 없다.
2005년 단편 소설 "용 폭군의 우화"를 ''의학 윤리 저널''에 발표했고,[31] 2012년에는 짧은 버전이 ''철학 지금''에 실렸다.[31] 이 우화는 죽음을 매일 수천 명의 사람들을 앗아가는 용으로 의인화하여, 노화를 극복할 수단이 있음에도 조치를 취하지 못하게 하는 현상 유지 편향과 학습된 무력감을 다룬다. 유튜버 CGP 그레이가 이 이야기의 애니메이션 버전을 제작했다.[32]
2006년 철학자 토비 오드와 함께 역진 검증을 제안했다. 이는 인간의 비합리적인 현상 유지 편향을 고려하여, 제안된 인간 특성 변화에 대한 타당한 비판과 단순한 변화 저항으로 인한 비판을 구별하고자 하는 시도이다. 역진 검증은 특성이 반대 방향으로 변화하는 것이 좋은 일인지 질문하는 방식으로 작동한다.[33]
보스트롬은 인구 집단에서 잠재적인 역진화 효과를 고려하지만, 유전 공학이 해결책을 제시할 수 있다고 본다. 그는 "인간의 자연 유전적 진화는 매우 느려서, 다른 발전이 문제를 무의미하게 만들기 전에 상당한 영향을 미치기 어렵다"고 주장한다.[34]
3. 6. 기술 전략
보스트롬은 존재적 위험을 줄이기 위한 기술 정책은 다양한 기술적 능력이 획득되는 순서에 영향을 미쳐야 한다고 제안하며, 기술 발전의 차별화 원칙을 제시했다. 이 원칙은 특히 존재적 위험 수준을 높이는 위험한 기술의 개발을 늦추고, 특히 자연이나 다른 기술이 초래하는 존재적 위험으로부터 보호하는 유익한 기술의 개발을 가속화해야 한다고 명시한다.[34]2011년, 보스트롬은 미래 기술의 영향에 관한 옥스퍼드 마틴 프로그램을 설립했다.[35]
보스트롬의 일방주의자의 저주 이론은 과학계가 병원균 재활성화와 같은 논란이 되는 위험한 연구를 피해야 하는 이유로 언급되었다.[36]
4. 저서
- 2002년 - ''인류중심적 편향: 과학과 철학에서의 관측 선택 효과 (Anthropic Bias: Observation Selection Effects in Science and Philosophy)''
- 2008년 - ''지구적 재앙 위험 (Global Catastrophic Risks)'' (닉 보스트롬, 밀란 M. 치르코비치 편집)
- 2009년 - ''인간 향상 (Human Enhancement)'' (줄리안 사불레스쿠, 닉 보스트롬 편집)
- 2014년 - ''초지능: 경로, 위험, 전략 (Superintelligence: Paths, Dangers, Strategies)''
- 2024년 - ''딥 유토피아: 해결된 세계에서의 삶과 의미 (Deep Utopia: Life and Meaning in a Solved World)''
2014년에 출판된 《초지능: 경로, 위험, 전략》은 뉴욕 타임스 베스트셀러가 되었다.[37] 이 책은 초지능이 가능하다는 주장을 펼치며, 다양한 유형의 초지능, 그 인지 능력, 관련 위험을 탐구한다. 또한 초지능을 안전하게 만드는 방법에 대한 기술적 및 전략적 고려 사항을 제시한다.
2024년 출간된 보스트롬의 저서 《딥 유토피아: 해결된 세계에서의 삶과 의미》에서 그는 인류가 초지능 시대 이후의 세계로 성공적으로 이행한다면 이상적인 삶이 어떤 모습일지에 대한 개념을 탐구한다. 보스트롬은 "미래가 얼마나 흥미로운가가 아니라, 그곳에서 사는 것이 얼마나 좋은가"라는 질문에 주목한다. 그는 이론적으로 가능하고 기술적 성숙도에 도달했을 때 이용 가능할 것으로 여기는 몇 가지 기술들을 제시하는데, 여기에는 인지 증강, 노화 역전, 임의의 감각 입력(맛, 소리 등), 또는 동기, 기분, 행복감, 성격의 정밀한 조절 등이 포함된다.[47][48] 그의 주장에 따르면, 기계는 인간보다 일을 더 잘할 뿐만 아니라 많은 여가 활동의 목적을 훼손하고, 극단적인 복지를 제공하면서 동시에 의미 추구에 도전하게 될 것이다.
5. 논란
2023년 1월, 보스트롬은 과거 자신이 작성했던 인종차별적 이메일에 대해 사과했지만, 비판자들은 그의 사과가 인종과 지능에 대한 핵심 주장을 철회하지 않았고 우생학을 옹호하는 것처럼 보인다는 이유로 비판했다.[61] 이후 옥스퍼드 대학교는 이 사건에 대한 조사에 착수, 2023년 8월 10일 조사 결과를 발표했다.[63][61]
5. 1. 1996년 이메일 사건
2023년 1월, 보스트롬은 대학원생 시절인 1996년에 보낸 리스터브 이메일[56]에 대해 사과문을 발표했다.[55] 해당 이메일에서 그는 "흑인은 백인보다 더 어리석다"고 주장했으며, 다른 사람들이 이 발언을 어떻게 받아들일지 설명하는 과정에서 "niggers"라는 단어를 사용했다.[57][58] 그는 사과문에서 "인종 모욕적인 단어를 사용한 것은 혐오스러운 일이었다"고 밝히며 "이 역겨운 이메일을 완전히 부인한다"고 언급했다.[57]이 이메일은 여러 뉴스 매체에서 "인종차별적"으로 묘사되었다.[59][62][60][57] 가디언(The Guardian)의 앤드류 앤서니(Andrew Anthony)는 "보스트롬의 사과는 그의 비판자들을 달래기에 거의 효과가 없었는데, 그 이유는 그가 인종과 지능에 대한 그의 핵심 주장을 눈에 띄게 철회하지 않았고, 우생학에 대해 부분적으로 변호하는 것처럼 보였기 때문"이라고 평가했다.[61]
그 직후, 옥스퍼드 대학교는 이메일에서 사용된 언어를 비난하고 조사를 시작했다.[57][62] 2023년 8월 10일 조사 결과, 옥스퍼드 대학교는 "보스트롬이 인종차별주의자이거나 인종차별적인 견해를 가지고 있다고 생각하지 않으며, 2023년 1월에 게시한 사과는 진심이었다고 생각한다"고 결론 내렸다.[63][61]
참조
[1]
웹사이트
Nick Bostrom — Life and Meaning in a Solved World
https://www.skeptic.[...]
2024-04-16
[2]
웹사이트
Infinite Ethics
https://nickbostrom.[...]
2019-02-21
[3]
잡지
The Doomsday Invention
https://www.newyorke[...]
2015-11-23
[4]
웹사이트
nickbostrom.com
http://www.nickbostr[...]
Nickbostrom.com
2014-10-16
[5]
뉴스
How Britain's oldest universities are trying to protect humanity from risky A.I.
https://www.cnbc.com[...]
2020-05-25
[6]
웹사이트
Nick Bostrom's Home Page
https://nickbostrom.[...]
[7]
웹사이트
Nick Bostrom on artificial intelligence
http://blog.oup.com/[...]
Oxford University Press
2014-09-08
[8]
웹사이트
Nick Bostrom on the birth of superintelligence
https://bigthink.com[...]
[9]
뉴스
Artificial intelligence: can we control it?
http://www.ft.com/cm[...]
2016-07-14
[10]
웹사이트
CV
https://www.nickbost[...]
[11]
PhD
Observational selection effects and probability
http://etheses.lse.a[...]
London School of Economics and Political Science
2000
[12]
웹사이트
Omens
http://aeon.co/magaz[...]
[13]
웹사이트
We're Underestimating the Risk of Human Extinction
https://www.theatlan[...]
2012-03-06
[14]
웹사이트
Institute That Pioneered AI 'Existential Risk' Research Shuts Down
https://www.404media[...]
2024-04-17
[15]
웹사이트
Future of Humanity Institute
https://www.futureof[...]
2024-04-17
[16]
저널
Astrophysics: is a doomsday catastrophe likely?
http://www.fhi.ox.ac[...]
[17]
뉴스
The Flip Side of Optimism About Life on Other Planets
https://www.nytimes.[...]
2015-08-03
[18]
저널
The Vulnerable World Hypothesis
https://nickbostrom.[...]
2019-11
[19]
웹사이트
AI Doomsday Can Be Avoided If We Establish 'World Government': Nick Bostrom
https://analyticsind[...]
2018-12-25
[20]
웹사이트
How technological progress is making it likelier than ever that humans will destroy ourselves
https://www.vox.com/[...]
2018-11-19
[21]
저널
Are You Living In a Computer Simulation?
https://simulation-a[...]
2003
[22]
뉴스
What if A.I. Sentience Is a Question of Degree?
https://www.nytimes.[...]
2023-04-12
[23]
웹사이트
The intelligent monster that you should let eat you
https://www.bbc.com/[...]
2020-11-13
[24]
서적
Anthropic Bias: Observation Selection Effects in Science and Philosophy
http://www.anthropic[...]
Routledge
2002
[25]
웹사이트
Why Earth's History Appears So Miraculous
https://www.theatlan[...]
2018-03-15
[26]
웹사이트
Anthropic Shadow: Observation Selection Effects and Human Extinction Risks
http://www.nickbostr[...]
Nickbostrom.com
[27]
웹사이트
Could our Universe be a simulation? How would we even tell?
https://arstechnica.[...]
2024-01-31
[28]
뉴스
Proof of the Simulation Argument
https://www.usnews.c[...]
[29]
뉴스
The ideas interview: Nick Bostrom; John Sutherland meets a transhumanist who wrestles with the ethics of technologically enhanced human beings
https://www.theguard[...]
2006-05-09
[30]
웹사이트
A Philosophical History of Transhumanism
https://philosophyno[...]
2024
[31]
저널
The Fable of the Dragon-Tyrant
https://philosophyno[...]
2012-06-12
[32]
Video
Fable of the Dragon-Tyrant
https://www.youtube.[...]
2018-04-24
[33]
저널
The reversal test: eliminating status quo bias in applied ethics
http://www.nickbostr[...]
[34]
저널
Existential Risks - Analyzing Human Extinction Scenarios and Related Hazards
https://nickbostrom.[...]
2002
[35]
웹사이트
Professor Nick Bostrom : People
http://www.oxfordmar[...]
Oxford Martin School
[36]
뉴스
Horsepox synthesis: A case of the unilateralist's curse?
https://thebulletin.[...]
2018-02-19
[37]
뉴스
Best Selling Science Books
https://www.nytimes.[...]
2014-09-08
[38]
서적
Superintelligence
Oxford University Press
2016
[39]
뉴스
You Should Be Terrified of Superintelligent Machines
https://slate.com/te[...]
2014-09-11
[40]
뉴스
Clever cogs
https://www.economis[...]
[41]
웹사이트
What happens when our computers get smarter than we are?
https://www.ted.com/[...]
2015-03-00
[42]
잡지
The Doomsday Invention
https://www.newyorke[...]
2015-11-16
[43]
웹사이트
Is Superintelligence Impossible?
https://www.edge.org[...]
[44]
웹사이트
No, the Experts Don't Think Superintelligent AI is a Threat to Humanity
https://www.technolo[...]
MIT Technology Review
[45]
웹사이트
Yann LeCun sparks a debate on AGI vs human-level AI
https://analyticsind[...]
2022-01-27
[46]
웹사이트
Almost half of CEOs fear A.I. could destroy humanity five to 10 years from now—but 'A.I. godfather' says an existential threat is 'preposterously ridiculous'
https://fortune.com/[...]
2023-06-15
[47]
뉴스
If A.I. Takes All Our Jobs, Will It Also Take Our Purpose?
https://www.nytimes.[...]
2024-04-05
[48]
서적
Deep utopia: life and meaning in a solved world
Ideapress Publishing
2024
[49]
웹사이트
The FP Top 100 Global Thinkers – 73. Nick Bostrom
https://foreignpolic[...]
2009-11-30
[50]
웹사이트
World thinkers 2014: The results
https://www.prospect[...]
2014-04-23
[51]
웹사이트
Digital Skills Committee – timeline
http://www.parliamen[...]
[52]
웹사이트
Team – Machine Intelligence Research Institute
https://intelligence[...]
[53]
웹사이트
Team – Future of Life Institute
https://futureoflife[...]
[54]
잡지
Apocalypse Soon: Meet The Scientists Preparing For the End Times
https://newrepublic.[...]
2014-10-04
[55]
웹사이트
Apology for old email
https://nickbostrom.[...]
[56]
웹사이트
extropians: Re: Offending People's Minds
http://extropians.we[...]
2015-04-27
[57]
뉴스
Top Oxford Philosopher Nick Bostrom Admits Writing 'Disgusting' N-Word Mass Email
https://www.thedaily[...]
2023-01-12
[58]
뉴스
Oxford shuts down institute run by Elon Musk-backed philosopher
https://www.theguard[...]
2024-04-19
[59]
뉴스
Why a Philosopher's Racist Email from 26 Years Ago is News Today
https://dailynous.co[...]
2023-01-13
[60]
뉴스
Prominent AI Philosopher and 'Father' of Longtermism Sent Very Racist Email to a 90s Philosophy Listserv
https://www.vice.com[...]
2023-01-12
[61]
뉴스
'Eugenics on steroids': the toxic and contested legacy of Oxford's Future of Humanity Institute
https://www.theguard[...]
2024-04-28
[62]
뉴스
Investigation Launched into Oxford Don's Racist Email
https://theoxfordblu[...]
2023-01-15
[63]
웹사이트
Apology for an Old Email
https://nickbostrom.[...]
[64]
논문
[65]
논문
[66]
논문
[67]
논문
[68]
논문
[69]
논문
[70]
논문
[71]
harv
2016
[72]
웹사이트
Professor Nick Bostrom University of Oxford
http://www.ox.ac.uk/[...]
2019-09-23
본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.
문의하기 : help@durumis.com