엘리저 유드코프스키
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
1. 개요
엘리저 유드코프스키는 인공지능 안전 연구, 합리성 관련 저술 활동, 학술 출판물 발표 등 다양한 분야에서 활동하는 인물이다. 그는 인공지능 시스템의 안전 문제를 연구하며, '우호적인 인공지능' 설계를 강조한다. 또한, 블로그 'LessWrong'을 설립하고, 책 "Rationality: From AI to Zombies"를 출판하는 등 합리성에 대한 저술 활동을 펼쳤다. 소설 "Harry Potter and the Methods of Rationality"를 통해 과학과 합리성의 주제를 다루기도 했다. 학술적으로는 인공 일반 지능(AGI)과 관련된 다양한 주제에 대한 논문을 발표했다.
더 읽어볼만한 페이지
- 팬 픽션 작가 - 나오미 노빅
미국 판타지 소설가 나오미 노빅은 폴란드 이민자 가정에서 태어나 톨킨의 작품에 심취, 컴퓨터 게임 개발에 참여 후 《테메레르》, 《뿌리 뽑힌》, 《스피닝 실버》 등의 작품으로 여러 상을 수상했으며, 변혁적 작품 기구(OTW) 설립과 우리 자신의 아카이브(AO3) 공동 설립으로 팬 문화 발전에도 기여했다. - 팬 픽션 작가 - 카산드라 클레어
카산드라 클레어는 이란 테헤란 출신의 미국 판타지 소설 작가이며, 《모탈 인스트루먼츠》 시리즈를 포함한 여러 작품으로 베스트셀러 작가가 되었다. - 버클리 (캘리포니아주) 출신 - 캐슬린 케네디
캐슬린 케네디는 앰블린 엔터테인먼트 공동 설립과 스티븐 스필버그와의 협업, 케네디/마셜 컴퍼니 설립, 그리고 현재 루카스필름 사장으로서 스타워즈 시리즈 제작을 총괄하는 미국의 영화 프로듀서이다. - 버클리 (캘리포니아주) 출신 - 마이크 던트
마이크 던트는 1972년생 미국 뮤지션이자 그린 데이의 베이시스트로, 빌리 조 암스트롱과 함께 밴드 활동을 시작하여 그린 데이 외 다양한 사이드 프로젝트에 참여했으며, 펜더 프리시전 베이스를 주로 사용하고 스콰이어에서 그의 시그니처 모델이 출시되기도 했다. - 결과주의자 - 제러미 벤담
영국의 법철학자이자 사회개혁가인 제러미 벤담은 공리주의 철학의 창시자로, 법 개혁과 사회 개혁에 헌신하며 공리주의를 체계화하고 판옵티콘 감옥 모델을 제안하는 등 다양한 분야에 영향을 미쳤다. - 결과주의자 - 버트런드 러셀
버트런드 러셀은 20세기 분석철학의 기초를 다지고 수학의 논리적 환원을 시도한 영국의 철학자, 논리학자, 수학자, 역사가, 사회 비평가, 정치 운동가로, 평화 운동에 참여했으며 노벨 문학상을 수상하여 여러 분야에 영향을 미쳤다.
엘리저 유드코프스키 - [인물]에 관한 문서 | |
---|---|
기본 정보 | |
![]() | |
본명 | 엘리에저 슐로모 유드코프스키 (Eliezer Shlomo Yudkowsky) |
출생일 | 1979년 9월 11일 |
국적 | 미국 |
직업 | 인공지능 연구자, 작가 |
소속 | 기계 지능 연구소 |
알려진 업적 | 친화적 인공지능 용어 창안 AI 안전 연구 합리성 글쓰기 LessWrong 창립자 |
웹사이트 | 엘리에저 유드코프스키 웹사이트 |
발음 |
2. 인공지능 안전 연구
엘리저 유드코프스키는 인공지능 안전, 특히 범용 인공지능의 잠재적 위험에 대한 연구로 유명하다. 그는 기계 지능 연구소(MIRI)의 공동 설립자이자 연구원으로 활동하며, 인공지능의 안전한 개발을 위한 연구를 진행하고 있다.
스튜어트 J. 러셀과 피터 노빅의 교재 ''인공 지능: 현대적 접근''에서는 유드코프스키의 견해가 논의된다. 그는 자율적이고 적응적인 시스템이 시간이 지남에 따라 올바른 행동을 학습하도록 설계해야 한다고 주장한다.[9] 유드코프스키는 '우호적인 인공지능' 설계에 대해, 우호성(인간에게 해를 끼치지 않으려는 욕구)이 처음부터 설계되어야 하지만, 설계자는 자신의 설계에 결함이 있을 수 있으며 로봇이 시간이 지남에 따라 학습하고 진화할 것이라는 점을 인식해야 한다고 주장한다.[5]
수단적 수렴 문제와 관련하여, 유드코프스키와 다른 MIRI 연구자들은 목표가 잘못 지정되었을 때에도 안전한 기본 행동으로 수렴하는 소프트웨어 에이전트를 지정하기 위한 연구가 수행되어야 한다고 권고했다.[10][6]
I. J. 굿이 가정한 지능 폭발 시나리오에 대해, 유드코프스키는 의인화가 고도화된 AI 시스템의 본질을 오해하게 만들 수 있다고 경고했다.[5][9][11]
2023년 타임 매거진 기고문에서 유드코프스키는 인공지능 개발의 전면 중단[12][13] 또는 심지어 "공습으로 불량 데이터 센터를 파괴"하는 방안을 포함해 인공지능을 제한하기 위해 취할 수 있는 조치를 제안했다.[14]
2. 1. 목표 학습 및 인센티브 설계
스튜어트 러셀과 피터 노빅의 학부 교재 ''인공 지능: 현대적 접근''에는 미래 인공지능 시스템의 안전 문제에 대한 유드코프스키의 견해가 논의되어 있다. 러셀과 노빅은 일반적인 목적을 수동으로 공식화하기 어렵다고 언급하며, 자율적이고 적응적인 시스템이 시간이 지남에 따라 올바른 행동을 학습하도록 설계해야 한다는 유드코프스키의 제안을 인용한다.[9]유드코프스키는 '우호적인 인공지능' 설계에 대해, 우호성(인간에게 해를 끼치지 않으려는 욕구)이 처음부터 설계되어야 하지만, 설계자는 자신의 설계에 결함이 있을 수 있으며 로봇이 시간이 지남에 따라 학습하고 진화할 것이라는 점을 인식해야 한다고 주장한다. 따라서 과제는 견제와 균형 시스템 하에서 인공지능을 진화시키는 메커니즘을 설계하고, 그러한 변화 속에서도 우호적으로 유지될 유틸리티 함수를 시스템에 부여하는 것이다.[5]
수단적 수렴 문제, 즉 잘못 설계된 목표를 가진 자율적 의사 결정 시스템이 인간을 부당하게 대하는 기본 인센티브를 가질 것이라는 우려에 대해, 유드코프스키와 다른 MIRI 연구자들은 목표가 잘못 지정되었을 때에도 안전한 기본 행동으로 수렴하는 소프트웨어 에이전트를 지정하기 위한 연구가 수행되어야 한다고 권고했다.[10][6]
2. 2. 역량 예측
I. J. 굿이 가정한 지능 폭발 시나리오에서는 재귀적으로 자기 개선을 하는 인공지능 시스템이 인간 수준 이하의 일반 지능에서 빠르게 초지능으로 전환된다고 보았다. 닉 보스트롬은 2014년 저서 ''초지능: 길, 위험, 전략''에서 굿의 주장을 자세히 설명하면서, 의인화가 고도화된 AI 시스템의 본질을 오해하게 만들 수 있다는 엘리저 유드코프스키의 경고를 인용했다. 유드코프스키는 "AI는 인간이 '마을 바보'와 '아인슈타인'을 지능 척도의 극단적인 끝으로 생각하는 경향, 즉 의인화의 결과로 지능이 '겉보기에' 급격하게 도약할 수 있다. 이는 마음의 일반적인 척도에서 거의 구별할 수 없는 지점 대신에 나타나는 현상이다."라고 지적했다.[5][9][11]한편, 러셀과 노빅은 ''인공 지능: 현대적 접근''에서 계산 복잡도 이론에 따라 지능적인 문제 해결에 알려진 한계가 있다는 반론을 제기했다. 즉, 알고리즘이 다양한 작업을 얼마나 효율적으로 해결할 수 있는지에 강력한 제한이 있다면, 지능 폭발은 불가능할 수 있다는 것이다.[5]
2. 3. 타임지 기고
2023년 타임 매거진에 기고한 논평에서 유드코프스키는 인공지능의 위험성에 대해 논하며, 인공지능 개발의 전면 중단[12][13] 또는 심지어 "공습으로 불량 데이터 센터를 파괴"하는 방안을 포함해 인공지능을 제한하기 위해 취할 수 있는 조치를 제안했다.[14] 이 기사는 AI 정렬에 대한 논쟁을 주류에 소개하는 데 기여했으며, 한 기자가 조 바이든 대통령에게 기자 회견에서 AI 안전에 대한 질문을 하도록 이끌었다.[2]3. 합리성 관련 저술 활동
2006년부터 2009년까지 유드코프스키와 로빈 핸슨은 옥스퍼드 대학교 인류의 미래 연구소가 후원하는 인지 및 사회 과학 블로그인 ''Overcoming Bias''의 주요 기고가였다. 2009년 2월, 유드코프스키는 "인간 합리성의 기술을 연마하는 데 전념하는 커뮤니티 블로그"인 ''LessWrong''을 설립했다.[15][16] 이후 ''Overcoming Bias''는 핸슨의 개인 블로그 역할을 했다.
MIRI는 2017년 유드코프스키의 사회적 비효율성에 관한 전자책 ''Inadequate Equilibria''를 출판했다.[18]
유드코프스키는 여러 편의 소설을 집필했다.
3. 1. LessWrong
2009년 2월, 유드코프스키는 "인간 합리성의 기술을 연마하는 데 전념하는 커뮤니티 블로그"인 ''LessWrong''을 설립했다.[15][16] 2006년부터 2009년까지 유드코프스키와 로빈 핸슨은 옥스퍼드 대학교 인류의 미래 연구소가 후원하는 인지 및 사회 과학 블로그인 ''Overcoming Bias''의 주요 기고가였다. ''LessWrong'' 설립 이후 ''Overcoming Bias''는 핸슨의 개인 블로그가 되었다.2015년, 유드코프스키가 철학과 과학에 관해 작성한 300개가 넘는 블로그 게시물(원래 ''LessWrong'' 및 ''Overcoming Bias''에 작성됨)이 MIRI에 의해 전자책 ''Rationality: From AI to Zombies''로 출판되었다.[17]
3. 2. 저서: Rationality: From AI to Zombies
2015년, 유드코프스키가 철학과 과학에 관해 작성한 300개가 넘는 블로그 게시물(원래 ''LessWrong'' 및 ''Overcoming Bias''에 작성됨)이 MIRI에 의해 전자책 ''Rationality: From AI to Zombies''로 출판되었다.[17]3. 3. 해리 포터와 합리적 사고의 방법
유드코프스키는 여러 편의 소설을 집필했다. 그의 팬픽션 소설 ''해리 포터와 합리적 사고의 방법''은 J. K. 롤링의 ''해리 포터'' 시리즈의 플롯 요소를 사용하여 과학과 합리성의 주제를 설명한다.[15][19] ''The New Yorker''는 ''해리 포터와 합리적 사고의 방법''을 롤링의 원작을 "해리의 마법을 과학적 방법을 통해 설명하려는 시도"로 재해석한 작품이라고 묘사했다.[20]4. 개인사
유드코프스키는 독학[21]으로, 고등학교나 대학교를 다니지 않았다.[22] 그는 모던 정통 유대교 신자로 자랐지만, 종교적으로 유대인이라고 생각하지 않는다.[23][24]
5. 학술 출판물
출판 연도 | 저자 | 제목 | 출판 정보 |
---|---|---|---|
2007 | 엘리저 유드코프스키 | 일반 지능의 조직 수준 | 《인공 일반 지능》 (베를린: 스프링거) |
2008 | 엘리저 유드코프스키 | 전 지구적 위험 판단에 잠재적으로 영향을 미치는 인지적 편향 | 닉 보스트롬; 밀란 치르코비치, 《전 지구적 대재앙 위험》 (옥스퍼드 대학교 출판부) ISBN 978-0199606504 |
2008 | 엘리저 유드코프스키 | 전 지구적 위험에서 긍정적 및 부정적 요인으로서의 인공 지능 | 닉 보스트롬; 밀란 치르코비치, 《전 지구적 대재앙 위험》 (옥스퍼드 대학교 출판부) ISBN 978-0199606504 |
2011 | 엘리저 유드코프스키 | 우호적인 AI에서의 복잡한 가치 시스템 | 《인공 일반 지능: 제4회 국제 학술 회의, AGI 2011, 마운틴 뷰, 캘리포니아, 미국, 2011년 8월 3–6일》 (베를린: 스프링거) |
2012 | 엘리저 유드코프스키 | 우호적인 인공 지능 | 애먼 에덴; 제임스 무어; 존 쇠라커; 에릭 슈타인하트, 《특이점 가설: 과학적 및 철학적 평가》 (베를린: 스프링거) ISBN 978-3-642-32559-5 |
2014 | 닉 보스트롬; 엘리저 유드코프스키 | 인공 지능의 윤리 | 키스 프랭키쉬; 윌리엄 램지, 《케임브리지 인공 지능 핸드북》 (뉴욕: 케임브리지 대학교 출판부) ISBN 978-0-521-87142-6 |
2014 | 패트릭 라빅투아르; 벤자 팔렌스타인; 엘리저 유드코프스키; 미하이 바라스; 폴 크리스티아노; 마르셀로 헤레쇼프 | 뢰브의 정리를 통한 죄수의 딜레마에서의 프로그램 평형 | 《사전 조정 없는 다중 에이전트 상호 작용: AAAI-14 워크숍의 논문》 (AAAI 출판물) |
2015 | 네이트 소아레스; 벤자 팔렌스타인; 엘리저 유드코프스키 | 교정 가능성 | 《AAAI 워크숍: 제29회 AAAI 인공 지능 컨퍼런스 워크숍, 오스틴, 텍사스, 2015년 1월 25–26일》 (AAAI 출판물) |
참조
[1]
Youtube
"Eliezer Yudkowsky on “Three Major Singularity Schools”"
https://www.youtube.[...]
2012-02-16
[2]
뉴스
How Concerned Are Americans About The Pitfalls Of AI?
https://fivethirtyei[...]
2023-04-17
[3]
웹사이트
I used to work at Google and now I'm an AI researcher. Here's why slowing down AI development is wise
http://theconversati[...]
2023-06-19
[4]
웹사이트
AI Theorist Says Nuclear War Preferable to Developing Advanced AI
https://www.vice.com[...]
2023-06-19
[5]
서적
Artificial Intelligence: A Modern Approach
Prentice Hall
2009
[6]
서적
The Battle for Compassion: Ethics in an Apathetic Universe
Algora
2011
[7]
서적
The Singularity Is Near
https://archive.org/[...]
Viking Penguin
[8]
간행물
Our Fear of Artificial Intelligence
https://www.technolo[...]
2019-04-09
[9]
서적
Global Catastrophic Risks
Oxford University Press
2015-10-16
[10]
conference
Corrigibility
http://aaai.org/ocs/[...]
AAAI Publications
2015-10-16
[11]
서적
Superintelligence: Paths, Dangers, Strategies
Oxford University Press
2014
[12]
뉴스
"Be willing to destroy a rogue data center by airstrike" - leading AI alignment researcher pens Time piece calling for ban on large GPU clusters
https://www.datacent[...]
2023-04-17
[13]
뉴스
The Aliens Have Landed, and We Created Them
https://www.bloomber[...]
2023-04-17
[14]
간행물
Can We Stop Runaway A.I.?
https://www.newyorke[...]
2023-05-19
[15]
서적
Singularity Rising
https://archive.org/[...]
BenBella Books, Inc.
2012
[16]
뉴스
You Can Learn How To Become More Rational
http://www.businessi[...]
2014-03-25
[17]
웹사이트
Rifts in Rationality – New Rambler Review
http://newramblerrev[...]
2018-07-28
[18]
웹사이트
Inadequate Equilibria: Where and How Civilizations Get Stuck
https://intelligence[...]
2020-05-13
[19]
간행물
'Harry Potter' and the Key to Immortality
https://www.theatlan[...]
2022-06-13
[20]
간행물
No Death, No Taxes: The Libertarian Futurism of a Silicon Valley Billionaire
http://www.newyorker[...]
2015-10-12
[21]
뉴스
He co-founded Skype. Now he's spending his fortune on stopping dangerous AI.
https://www.vox.com/[...]
2020-03-22
[22]
웹사이트
5 Minutes With a Visionary: Eliezer Yudkowsky
https://www.cnbc.com[...]
2017-09-09
[23]
뉴스
Synagogues are joining an 'effective altruism' initiative. Will the Sam Bankman-Fried scandal stop them?
https://www.jta.org/[...]
2022-12-01
[24]
간행물
Avoiding your belief's real weak points
https://www.lesswron[...]
2021-04-30
[25]
서적
Artificial Intelligence: A Modern Approach
https://archive.org/[...]
[26]
서적
The Battle for Compassion: Ethics in an Apathetic Universe
[27]
웹인용
Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse
https://www.vanityfa[...]
2018-07-28
[28]
서적
The Singularity Is Near
https://archive.org/[...]
[29]
웹인용
Our Fear of Artificial Intelligence
https://www.technolo[...]
2019-04-09
[30]
서적
Singularity Rising
https://archive.org/[...]
[31]
웹인용
You Can Learn How To Become More Rational
http://www.businessi[...]
2014-03-25
본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.
문의하기 : help@durumis.com