중국어 방
"오늘의AI위키"의 AI를 통해 더욱 풍부하고 폭넓은 지식 경험을 누리세요.
1. 개요
중국어 방 논증은 존 설이 제안한 사고 실험으로, 인공지능이 과연 '이해'를 할 수 있는지에 대한 철학적 논쟁을 제시한다. 이 실험은 중국어를 전혀 모르는 사람이 중국어 질문에 대한 답변 매뉴얼을 통해 중국어 대화를 수행하는 상황을 설정하여, 튜링 테스트를 통과하더라도 기계가 진정으로 언어를 이해하는 것은 아닐 수 있다는 점을 보여준다. 중국어 방 논증은 강한 인공지능, 기능주의, 심신 문제 등 다양한 철학적 주제와 연결되며, 컴퓨터 과학, 언어철학, 마음 철학 등 여러 분야에서 논의된다. 이 논증에 대한 반론으로는 시스템 반론, 로봇 반론, 뇌 시뮬레이션 반론 등이 있으며, 튜링 테스트의 관점에서 지능의 기준에 대한 의문을 제기하기도 한다.
더 읽어볼만한 페이지
- 심리철학에 관한 사고 실험 - 중국뇌
중국뇌 사고 실험은 중국 인구를 뇌의 뉴런처럼 설정하여 기능주의 관점에서 마음이 기능적으로 정의될 수 있는지에 대한 의문을 제기하는 철학적 사고 실험이다. - 심리철학에 관한 사고 실험 - 타일러 버지
타일러 버지는 미국의 철학자로, 반개체주의를 옹호하고 지각에 대한 철학적 설명을 제시했으며, UCLA, 스탠퍼드 대학교 등에서 교수를 역임하고 미국 예술 과학 아카데미 회원으로 활동했다. - 기술철학 - 실재
실재는 철학, 과학, 사회문화, 기술 등 다양한 관점에서 탐구되는 개념으로, 존재론, 양자역학, 개인의 경험, 동양 철학 등을 통해 현실을 이해하려는 시도가 이루어진다. - 기술철학 - 트랜스휴머니즘
트랜스휴머니즘은 과학기술을 활용하여 인간의 신체적, 정신적 능력을 향상시키고 인간 조건을 개선하려는 지적, 문화 운동으로, 수명 연장, 질병 극복, 인지능력 향상 등을 목표로 하며, 사회적, 윤리적 논쟁과 함께 20세기 후반부터 국제적 조직을 중심으로 활발히 진행되고 있다. - 철학적 논증 - 유추
유추는 두 사물이나 현상의 관계에서 유사성을 찾아 추론하는 인지 과정으로, 철학, 법학, 신학을 넘어 문제 해결, 의사 결정, 학습, 창의성에 기여하며, 젠트너의 구조 매핑 이론으로 설명되기도 한다. - 철학적 논증 - 테세우스의 배
테세우스의 배는 모든 부품이 교체된 배가 원래의 배와 동일한지에 대한 철학적 사고 실험으로, 플루타르코스의 《영웅전》에 기록되어 있으며 동일성 문제, 물질 구성, 시간적 지속성 등 다양한 철학적 질문을 제기하며 여러 학문 분야에서 논의된다.
중국어 방 | |
---|---|
중국어 방 논증 | |
유형 | 사고 실험 |
제안자 | 존 설 |
연도 | 1980년 |
목적 | 강한 인공지능의 타당성에 대한 반박 |
주장 | 컴퓨터는 이해 없이도 인간처럼 행동할 수 있다. |
비판 | 시스템 논박 로봇 논박 기타 논박 |
철학적 배경 | |
연관 분야 | 마음 철학, 인공지능 철학, 인식론 |
관련 개념 | 의식과 이해, 지향성, 구문론 대 의미론 |
주요 논점 | |
핵심 아이디어 | 인간이 이해하지 못하는 중국어 규칙에 따라 중국어를 구사한다면, 컴퓨터도 동일하게 할 수 있다. 따라서 컴퓨터가 중국어를 구사한다고 해서 중국어를 이해한다고 볼 수는 없다. |
논증 방식 | 사고 실험을 통해 기호 조작만으로는 이해에 도달할 수 없다는 것을 주장 |
주요 함의 | 인공지능 시스템이 인간의 인지 능력을 실제로 모방할 수 있는가에 대한 의문 제기 의식과 이해의 기계론적 설명에 대한 비판 |
중국어 방 논증에 대한 반박 | |
시스템 논박 | 방 전체가 하나의 시스템으로 이해를 한다고 주장 구성 요소가 이해하지 못하더라도 전체 시스템은 이해할 수 있다 |
로봇 논박 | 방을 컴퓨터가 아닌 로봇에 탑재한다면, 로봇은 외부 세계와 상호작용하면서 이해를 얻을 수 있다고 주장 실행과 경험을 통해 이해가 가능하다 |
기타 논박 | 복잡성이 증가하면 이해가 발생할 수 있다 의식은 추가적인 요소로 필요하다. 중국어 방은 매우 특수한 환경이다. |
기타 | |
중국어 방 | 중국뇌와 혼동하지 마십시오. |
2. 사고 실험
중국어 방 사고 실험은 1980년 존 설이 제시한 것으로, 강한 인공지능에 대한 비판적 관점을 담고 있다.
이 사고 실험은 방 안에 영어만 할 줄 아는 사람이 들어가 중국어 질문과 답변 목록을 참고하여 중국어로 쓰인 질문에 답변하는 상황을 가정한다. 이를 통해 기계가 진정으로 지능을 가질 수 있는지, 아니면 단순히 지능을 가진 것처럼 행동하는 것인지에 대한 질문을 제기한다.
고트프리트 빌헬름 라이프니츠는 1714년에 기계론(인간을 구성하는 모든 것을 원칙적으로 기계적인 용어로 설명할 수 있다는 생각. 즉, 마음을 포함한 사람은 단지 매우 복잡한 기계일 뿐이라는 생각)에 대해 유사한 주장을 펼쳤다.[2] 피터 윈치는 1958년 저서 "사회과학의 개념과 철학과의 관계"에서, 아나톨리 드네프로프는 1961년 단편 소설 "게임"에서 비슷한 주장을 했다.[3] 1974년 로렌스 H. 데이비스와 1978년 네드 블록은 뇌 복제와 관련된 사고 실험을 제시했는데, 이는 중국어 방, "중국 국가", "중국 체육관" 등으로 불린다.
서얼의 주장은 인지 과학에서 "고전적인 것"이 되었으며, 원 논문은 "철학적 명료성과 순수성의 모범"이라고 묘사되었다.
2. 1. 사고 실험의 내용
영어만 할 줄 아는 사람이 방 안에 들어간다. 방 안에는 필담 도구와 중국어 질문-답변 목록이 준비되어 있다. 중국인 심사관이 중국어로 질문을 써서 방 안에 넣으면, 방 안의 사람은 대응표에 따라 중국어로 답변을 작성하여 심사관에게 전달한다.[2]방 안에 어떤 사람이 있는지 모르는 중국인의 관점에서 보면, 방 안에 있는 사람은 중국어를 할 줄 아는 것처럼 보인다. 그러나 실제로는 방 안에 있는 사람은 중국어를 전혀 모르며, 중국어 질문을 이해하지 않고 주어진 표에 따라 대답할 뿐이다.
이는 한자를 이해하지 못하는 영국인 A가 좁은 방에 갇혀 있는 상황으로 설명할 수 있다. 방에는 외부와 종이 조각을 주고받기 위한 작은 구멍이 하나 뚫려 있다. 이 구멍을 통해 A에게 한 장의 종이 조각이 넣어진다. 거기에는 A가 본 적 없는 글자가 나열되어 있는데, 이것은 한자의 나열이지만 A에게는 「★△◎∇☆□」과 같은 기호의 나열로밖에 보이지 않는다. A의 일은 이 기호 열에 새로운 기호를 덧붙여 종이 조각을 밖으로 돌려보내는 것이다. 어떤 기호 열에 어떤 기호를 덧붙여야 하는지는 방 안에 있는 한 권의 매뉴얼에 모두 적혀 있다. 예를 들어, "「★△◎∇☆□」라고 적힌 종이 조각에는 「■@◎∇」을 덧붙여서 밖으로 내놓아라"와 같이 적혀 있다.
A는 이 작업을 끊임없이 반복한다. 외부에서 기호가 나열된 종이 조각(실제로 방 밖에서는 이 종이 조각을 "질문"이라고 부른다)을 받으면, 거기에 새로운 기호를 덧붙여 밖으로 돌려보낸다(이쪽은 "답변"이라고 불린다). 그러면 방 밖에 있는 사람은 "이 방 안에는 중국어를 이해하는 사람이 있다"고 생각한다. 그러나 방 안에는 A만 있을 뿐이며, A는 전혀 한자를 읽을 수 없고 작업의 의미를 전혀 이해하지 못한 채 매뉴얼대로 작업을 반복할 뿐이다. 그럼에도 불구하고 방 외부에서 보면 중국어로 된 대화가 성립한다.
2. 2. 사고 실험의 의미
방 안에 있는 사람은 중국어를 이해하지 못하지만, 외부에서는 중국어를 이해하는 것처럼 보인다. 방 안의 사람은 중국어 질문을 이해하지 않고 주어진 표에 따라 답변할 뿐이다.질문 답변을 수행할 수 있는 기계가 있어도, 그것이 지능을 가졌는지는 튜링 테스트로는 판정할 수 없다.[2]
3. 정형화된 논증
1984년 존 설은 '중국어 방' 논증을 통해 자신의 주장을 정식화했다.[2] 그는 네 가지 전제를 제시하고, 이를 바탕으로 세 가지 결론을 도출했다.
이와 유사한 주장은 이전에도 여러 차례 제기되었다. 고트프리트 빌헬름 라이프니츠는 1714년에 기계론(인간을 구성하는 모든 것을 원칙적으로 기계적인 용어로 설명할 수 있다는 생각. 즉, 마음을 포함한 사람은 단지 매우 복잡한 기계일 뿐이라는 생각)에 대해 비슷한 주장을 펼쳤다.[2] 그는 두뇌를 방앗간 크기로 확장하는 사고 실험을 통해 "지각" 능력을 가진 "마음"을 단지 기계적 과정만으로 구성하기 어렵다고 보았다.
피터 윈치는 1958년 저서 "사회과학의 개념과 철학과의 관계"에서 "중국어를 이해하는 사람은 중국어의 다양한 단어 출현에 대한 통계적 확률을 확실히 파악하는 사람이 아니다"라고 주장하며 비슷한 견해를 보였다.
소련의 사이버네틱스 학자 아나톨리 드네프로프는 1961년 단편 소설 "게임"에서 본질적으로 동일한 주장을 했다.[3]
1974년 로렌스 H. 데이비스는 전화선과 사무실을 이용해 뇌를 복제하는 것을 상상했고, 1978년 네드 블록은 중국 전체 인구가 뇌 시뮬레이션에 참여하는 상황을 상상했다. 이러한 사고 실험들은 '중국어 방', '중국 국가', '중국 체육관' 등으로 불린다.
설의 논증은 1980년 논문 "마음, 뇌, 그리고 프로그램"에 실렸으며, "행동 및 뇌 과학"에 게재되었다.
3. 1. 전제
1984년 설은 '중국어 방'을 통해 하고자 하는 이야기를 다음 네 가지 전제로 정리했다.[2]- 전제 1. 뇌는 마음을 발생시킨다.
- 전제 2. 통사법은 의미론에 필수적인 것이 아니다.
- 전제 3. 컴퓨터 프로그램은 전적으로 그것의 형식적이고 통사론적 구조에 의해 정의된다.
- 전제 4. 마음은 의미론적 내용을 가지고 있다.
존 설은 두 번째 전제가 중국어 방 논변으로 뒷받침된다고 보았다. 그는 오직 형식적인 통사론적 규칙에 따르는 방을 유지시켰으며, 이 방 안의 존재는 중국어를 이해하지 못한다고 주장했다.
3. 2. 결론
존 설은 다음 전제들로부터 세 가지 결론을 도출했다.- 결론 1. 어떤 컴퓨터 프로그램도 그 자체로 마음의 시스템과 같은 효과를 주기에 충분하지 않다. 프로그램은 마음이 아니다.
- 결론 2. 마음을 발생시키는 뇌의 기능 작동 방식은 컴퓨터 프로그램을 작동시키는 능력에만 의존하지 않는다.
- 결론 3. 마음을 가진 모든 것들은 최소한 뇌와 동등한 수준의 인과력(causal powers)을 가지고 있어야만 한다.[2]
이 논증은 타당성에 대한 반박이 존재하며, 논의들은 전제를 분석하는 다양한 방법에 집중되어 있다. 어떤 이들은 전제 3이 컴퓨터 프로그램은 통사론적 내용을 포함할 수 있지만 의미론적 내용은 포함할 수 없는 것으로 읽을 수 있다고 보며, 전제 2, 3, 4는 타당하게 결론 1을 도출한다고 결론짓기도 한다. 이는 논쟁을 컴퓨터 프로그램의 의미론적 내용의 기원으로 이끌고 간다.
4. 철학
중국어 방 논증은 마음철학에서 중요한 논쟁을 제시한다. 이 논증은 기능주의와 계산 이론에 대한 도전이며, 심신 문제, 타자의 마음 문제, 기호의 지반 문제, 그리고 의식의 어려운 문제와 같은 질문들과 관련이 있다.
1984년 설은 '중국어 방'을 통해 하고자 하는 이야기를 네 가지 전제로 정리했다.
전제 | 내용 |
---|---|
전제 1 | 뇌는 마음을 발생시킨다. |
전제 2 | 통사법은 의미론에 필수적인 것이 아니다. |
전제 3 | 컴퓨터 프로그램은 전적으로 그것의 형식적이고 통사론적 구조에 의해 정의된다. |
전제 4 | 마음은 의미론적 내용을 가지고 있다. |
두 번째 전제는 중국어 방을 통한 논변으로 뒷받침되었는데, 존 설은 형식적인 통사론적 규칙에 따르는 방을 유지시켰으며, 이 방 안의 존재는 중국어의 의미를 이해하지 못한다고 주장했다.
여기서 존 설은 세 가지 결론을 도출했다.
결론 | 내용 |
---|---|
결론 1 | 어떤 컴퓨터 프로그램도 그 스스로에 의해 마음의 시스템과 같은 효과를 주는 데 충분하지 못하다. 프로그램은 마음이 아니다. |
결론 2 | 마음을 발생시키는 뇌의 기능이 작동하는 방식은 컴퓨터 프로그램을 작동시키는 능력에 의한 것만은 아니다. |
결론 3 | 마음을 가진(혹은 마음을 발생시키는) 모든 것들은 최소한 뇌와 동등한 수준의 인과력(causal powers)을 가지고 있어야만 한다. |
설은 이 논증을 “과도하게 조야한(excessively crude)” 것으로 기술했지만, 이 논증의 타당성에 대한 논박이 존재한다. 어떤 이들은 전제 3이 컴퓨터 프로그램은 통사론적 내용을 포함할 수 있지만 의미론적 내용은 포함할 수 없는 것으로 읽을 수 있다고 보았고, 전제 2, 3, 4는 타당하게 결론 1을 도출해 낸 것으로 결론짓기도 했다.
인공지능 연구에서 컴퓨터가 중국어를 이해하는 것처럼 행동하도록 프로그래밍하는 데 성공했다고 가정해 보자. 이 기계는 한자를 입력받아 프로그램을 수행한 다음 출력으로 한자를 생성한다. 기계가 이 작업을 완벽하게 수행하여 사람들은 기계와 의사소통을 하는지, 아니면 숨겨진 중국어 화자와 의사소통을 하는지 구별할 수 없다.
여기서 쟁점은 기계가 대화를 실제로 *이해*하는가, 아니면 대화를 이해하는 능력을 단지 *모방*하는가이다. 설은 컴퓨터와 자신의 역할 사이에는 본질적인 차이가 없다고 주장한다. 각각은 단순히 프로그램을 따라 이해하는 것처럼 보이게 하는 행동을 생성할 뿐이며, 자신은 대화를 이해할 수 없으므로 컴퓨터도 대화를 이해할 수 없다는 것이다.
설은 "이해" 없이는 기계가 하는 일을 "사고"라고 묘사할 수 없으며, 사고하지 않기 때문에 일반적인 의미에서 "마음"을 가지고 있지 않다고 주장한다. 따라서 그는 강한 AI 가설이 거짓이라고 결론짓는다.
고트프리트 빌헬름 라이프니츠는 1714년에 기계론에 대해 유사한 주장을 펼쳤고,[2] 피터 윈치도 "중국어를 이해하는 사람은 중국어의 다양한 단어 출현에 대한 통계적 확률을 확실히 파악하는 사람이 아니다"라는 주장을 통해 같은 견해를 제시했다. 소련의 사이버네틱스 학자 아나톨리 드네프로프는 1961년 단편 소설 "게임"에서 본질적으로 동일한 주장을 했다.[3] 1974년, 로렌스 H. 데이비스는 전화선과 사람들이 근무하는 사무실을 이용하여 뇌를 복제하는 것을 상상했고, 1978년 네드 블록은 중국 전체 인구가 그러한 뇌 시뮬레이션에 참여하는 것을 상상했다.
서얼의 주장은 1980년 그의 논문 "마음, 뇌, 그리고 프로그램"에 실렸으며,[4] 이후 수십 년 동안 엄청난 수의 논평과 반응을 불러일으켰다.
4. 1. 강한 인공지능
설은 "강한 인공지능"이라는 철학적 입장을 제시했다. 이는 적절하게 프로그래밍된 컴퓨터가 올바른 입력과 출력을 통해 인간이 마음을 갖는 것과 정확히 같은 의미에서 마음을 갖게 된다는 주장이다. 이 정의는 마음을 모방하는 것과 실제로 마음을 갖는 것을 구분한다. 설은 "강한 인공지능에 따르면, 정확한 시뮬레이션은 실제로 마음이다. 약한 인공지능에 따르면, 정확한 시뮬레이션은 마음의 모델이다."라고 썼다.[5]이러한 주장은 초기 인공지능 연구자들의 진술에 암묵적으로 포함되어 있다. 예를 들어, 1955년 인공지능 창시자 허버트 사이먼은 "세상에는 이제 생각하고, 배우고, 창조하는 기계가 있다"고 선언했다.[6] 앨런 뉴웰과 함께 형식 논증을 할 수 있는 최초의 프로그램(논리 이론가)을 완성한 사이먼은, 그들이 "물질로 구성된 시스템이 어떻게 마음의 속성을 가질 수 있는지 설명함으로써 오랜 심신 문제를 해결했다"고 주장했다.[7]
설은 또한 강한 인공지능 옹호자들의 다음과 같은 주장을 제시한다.
- 인공지능 시스템을 사용하여 마음을 설명할 수 있다.[4]
- 뇌에 대한 연구는 마음에 대한 연구와 무관하다.
- 튜링 테스트는 정신 상태의 존재를 확립하기에 충분하다.
최근 중국어 방 논증의 제시에서, 설은 "강한 인공지능"을 "전산 기능주의(컴퓨터 기능주의)"로 규정하였는데, 기능주의는 현대 마음의 철학에서 정신 현상을 서로 간의 기능과 외부 세계와의 관계를 설명함으로써 정의할 수 있다는 견해이다. 컴퓨터 프로그램은 기능적 관계를 기호 간의 관계로 정확하게 표상할 수 있으므로, 기능주의에 따르면, 적절한 프로그램을 실행하는 컴퓨터는 정신 현상을 가질 수 있다.
스티븐 하르나드는 설의 강한 인공지능에 대한 묘사를 "많은 사상가들이 실제로 지지하는 견해이며, 따라서 반박할 가치가 있는 *전산주의*의 인식 가능한 원리들"로 재구성할 수 있다고 주장한다. 전산주의는 마음을 정보 처리 시스템으로 정확하게 설명할 수 있다고 주장하는 마음 철학의 견해이다.
하르나드에 따르면, 다음은 전산주의의 "원리"이다.
- 정신 상태는 전산 상태이다(그래서 컴퓨터가 정신 상태를 가질 수 있고 마음을 설명하는 데 도움이 된다).
- 전산 상태는 구현 독립적이다. 즉, 전산 상태를 결정하는 것은 하드웨어가 아니라 소프트웨어이다(그래서 뇌는 하드웨어이기 때문에 무관하다).
- 구현은 중요하지 않으므로, 중요한 경험적 데이터는 시스템의 기능 방식뿐이다. 따라서 튜링 테스트가 결정적이다.
4. 2. 생물학적 자연주의
존 설은 "생물학적 자연주의"라는 입장을 취한다. 이는 의식과 이해가 뇌에 존재하는 특정한 생물학적 기제를 필요로 한다는 주장이다.[24] 그는 "뇌가 마음을 만들어낸다"고 쓰고, "실제 인간 정신 현상은 실제 인간 뇌의 실제 물리화학적 특성에 의존한다"고 주장한다.[25] 설은 이러한 기제가 인간의 의식 경험을 가능하게 하는 어떤 인과적 능력을 가지고 있다고 믿는다.설은 기계가 의식과 이해를 가질 수 있다는 개념에 동의하지 않는데, 그 이유는 "우리 자신이 바로 그러한 기계이기 때문"이다. 뇌는 사실상 기계이지만, 뇌가 특정 기제를 사용하여 의식과 이해를 발생시킨다는 것이다. 만약 신경과학이 의식을 발생시키는 기계적 과정을 분리할 수 있다면, 의식과 이해를 가진 기계를 만드는 것이 가능할 수도 있다고 인정한다. 그러나 필요한 특정 기제 없이는 의식이 발생할 수 없다고 믿는다.
생물학적 자연주의는 시스템이 어떻게 기능하는지 검토하는 것만으로는 의식 경험이 발생하는지 여부를 판단할 수 없다는 것을 의미한다. 따라서 행동주의와 기능주의(컴퓨터 기능주의 또는 강한 인공지능 포함) 모두에 정면으로 반대된다. 동일성 이론과 유사하지만, 설은 동일성 이론에 대한 특정한 기술적 반론을 가지고 있다. 설의 생물학적 자연주의와 강한 인공지능은 모두 카르테지안 이원론에 반대한다.
4. 3. 의식
존 설은 초기 제시에서는 이해, 즉 의도성을 지닌 정신 상태를 강조했으며, "의식"과 같이 밀접하게 관련된 다른 개념들은 직접적으로 다루지 않았다. 그러나 최근 제시에서 설은 의식을 주장의 실제 목표로 포함시켰다.데이비드 차머스는 "의식이 중국어 방 논증의 핵심임은 상당히 분명하다"라고 썼다.
콜린 맥긴은 중국어 방이 의식의 어려운 문제가 근본적으로 해결 불가능하다는 강력한 증거를 제공한다고 주장한다. 명확히 하자면, 이 주장은 기계가 의식을 가질 수 있는지에 대한 것이 아니라, 기계(또는 다른 어떤 것)가 의식을 가진다는 것을 보일 수 있는지에 대한 것이다. 중국어 방 안의 존재를 탐색하는 다른 어떤 방법도 중국어로 질문과 답변을 교환하는 것과 원칙적으로 같은 어려움을 가지고 있다는 것은 명백하다. 의식적인 주체가 있는지, 아니면 어떤 영리한 시뮬레이션이 방 안에 있는지 알아내는 것은 단순히 불가능하다.
설은 이것이 방 밖의 관찰자에게만 해당된다고 주장한다. 이 사고 실험의 요점은 누군가를 방 안에 두어 의식의 작동을 직접 관찰할 수 있게 하는 것이다. 설은 방 안에서 자신의 관점에서 볼 때, 자신을 제외하고는 의식을 일으킬 수 있다고 상상할 수 있는 것은 아무것도 없다고 주장한다. 그리고 분명히 그는 중국어를 할 수 있는 마음을 가지고 있지 않다. 설의 말을 빌리자면, "컴퓨터는 내가 아무것도 이해하지 못하는 경우와 마찬가지로 아무것도 가지고 있지 않다".
5. 컴퓨터 과학
중국어 방 논증은 주로 마음철학에서 제기되는 논증이지만, 컴퓨터 과학의 여러 개념, 예를 들어 기호 처리, 튜링 기계, 튜링 완전성, 튜링 테스트는 이 논증을 이해하는 데 필수적이다.[8]
중국어 방은 현대 컴퓨터의 설계와 유사한 폰 노이만 구조를 가진다. 프로그램(지시 사항이 적힌 책), 메모리(종이와 파일 캐비닛), 지시 사항을 따르는 기계(사람), 메모리에 기호를 쓰는 수단(연필과 지우개)으로 구성된다. 이러한 기계는 이론 컴퓨터 과학에서 "튜링 완전"으로 알려져 있다. 튜링 기계가 할 수 있는 모든 계산을 수행할 수 있기 때문에, 충분한 메모리와 시간이 주어지면 다른 어떤 디지털 기계의 단계별 시뮬레이션도 수행할 수 있다.[8] 튜링은 "모든 디지털 컴퓨터는 어떤 의미에서 동등하다"라고 썼다.[8] 널리 받아들여지는 처치-튜링 명제는 효과적인 절차에 의해 계산 가능한 모든 함수는 튜링 기계에 의해 계산 가능하다는 것이다.
중국어 방의 튜링 완전성은 다른 어떤 디지털 컴퓨터가 할 수 있는 일이라면 무엇이든 할 수 있음을 의미한다(훨씬 느리게). 따라서 중국어 방이 중국어를 구사하는 마음을 포함하지 않거나 포함할 수 없다면, 다른 어떤 디지털 컴퓨터도 마음을 포함할 수 없다. 스티븐 하르나드는 이러한 주장은 중국어 방 논증의 "반박이 아니라 (오히려 확인)"[8]이라고 하는데, 이는 어떤 디지털 컴퓨터도 마음을 가질 수 없다는 것을 의미하기 때문이다.[8]
하노크 벤야미 등 일부 비평가들은 중국어 방이 현재 시간을 결정하는 것과 같이 디지털 컴퓨터의 모든 기능을 시뮬레이션할 수 없다고 주장한다.
5. 1. 튜링 테스트

중국어 방은 튜링 테스트의 한 변형을 구현한다.[3] 앨런 튜링은 1950년 "기계는 생각할 수 있는가?"라는 질문에 답하기 위해 이 테스트를 제안했다. 표준 버전에서 인간 심사관은 인간과 인간과 구별할 수 없을 정도의 성능을 내도록 설계된 기계와 자연어 대화를 한다. 모든 참가자는 서로 분리되어 있다. 심사관이 기계와 인간을 확실하게 구별할 수 없다면, 그 기계는 테스트를 통과한 것으로 간주된다.
튜링은 이 테스트가 "의식"이나 "이해"의 존재를 측정하기 위한 것이 아니라고 생각했다. 그는 자신이 다루고 있는 문제와 관련하여, 의식에 대한 신비가 해결되어야 할 필요는 없다고 보았다.
마음과 의식의 본질을 연구하는 철학자로서 존 설에게는 의식이나 이해와 같은 문제는 중요한 문제였다. 중국어 방은 방이 의식적인 마음처럼 행동하거나 기능할 수 있다 하더라도, 튜링 테스트는 의식의 존재를 감지하기에 불충분하다는 것을 보여주도록 설계되었다.
5. 2. 기호 처리
컴퓨터는 기호의 의미를 알지 못한 채, 정해진 규칙(구문)에 따라 기호를 처리한다. 이는 마치 중국어를 전혀 모르는 사람이 중국어 방 안에서 주어진 매뉴얼에 따라 한자를 조합하는 것과 같다. 방 안의 사람은 한자의 의미를 이해하지 못하지만, 밖에서 보면 마치 중국어를 이해하는 것처럼 보인다.앨런 뉴웰과 허버트 사이먼은 이러한 종류의 기계, 즉 물리적 기호 체계가 "일반적인 지능 행동"에 필요한 모든 기계를 가지고 있다고 보았다. 그러나 중국어 방 논증은 기계가 겉으로 지능적인 행동을 하더라도, 실제로 이해, 의식 및 마음을 가지고 있는지 여부는 알 수 없다는 점을 지적한다.
존 설은 이 논증을 통해 프로그램은 형식적(구문론적)이지만 마음에는 정신적 내용(의미론)이 있으며, 구문 자체만으로는 의미론을 만들 수 없다고 주장한다. 따라서 프로그램은 마음이 될 수 없다는 결론을 내린다.
5. 3. 중국어 방과 튜링 완전성
중국어 방은 튜링 완전성을 가지므로 다른 디지털 컴퓨터가 할 수 있는 모든 것을 할 수 있다.[8] 이는 충분한 메모리와 시간이 주어진다면, 중국어 방이 다른 어떤 디지털 기계의 단계별 시뮬레이션도 수행할 수 있음을 의미한다.[8] 튜링은 "모든 디지털 컴퓨터는 어떤 의미에서 동등하다"라고 썼다.[8] 널리 받아들여지는 처치-튜링 명제는 효과적인 절차에 의해 계산 가능한 모든 함수는 튜링 기계에 의해 계산 가능하다는 것이다.6. 반론
중국어 방 논증에 대한 다양한 반론이 제기되어 왔다. 주요 반론들은 다음과 같이 요약될 수 있다.
- 시스템 반론: 방 안의 사람은 중국어를 이해하지 못하지만, 사람과 방 전체를 하나의 시스템으로 보면 중국어를 이해한다고 볼 수 있다.[9]
- 가상 마음 반론: 컴퓨터 안에 여러 개의 가상 마음이 존재할 수 있으며, 그중 하나가 중국어를 이해할 수 있다.
- 로봇 반론: 중국어 방을 로봇에 연결하면, 로봇의 센서와 작동기를 통해 세상과 상호작용하면서 기호에 의미를 부여할 수 있다.[10]
- 뇌 시뮬레이션 반론: 중국어 화자의 뇌 기능을 정밀하게 시뮬레이션하면, 그 시뮬레이션은 중국어를 이해할 수 있다.[13]
- 연결주의 반론: 인간의 뇌와 유사한 대규모 병렬 연결주의 네트워크는 중국어를 이해할 수 있다.[9]
- 미래 기술 반론: 미래에는 더 발전된 기술을 통해 컴퓨터가 중국어를 이해할 수 있게 될 것이다.
- 복잡성 반론: 인간 뇌의 엄청난 복잡성과 처리 속도를 고려하면, 중국어 방은 현실적으로 불가능하며, 따라서 직관에 호소하는 존 설의 논증은 설득력이 떨어진다.
- 다른 마음 반론/좀비 반론: 다른 사람의 마음이나 의식은 직접 관찰할 수 없으므로, 중국어 방에 대한 서얼의 주장은 기계에게만 지나치게 엄격한 기준을 적용하는 것이다.
- 기타 반론:
- 규칙 이해: 방 안의 사람이 중국어는 이해하지 못해도, 응답을 생성하는 규칙은 이해한다는 주장이다.
- 탄소 쇼비니즘: 인간의 뇌만이 사고할 수 있다는 서얼의 주장은 편협하다는 비판이다.
이러한 반론들은 중국어 방 논증의 타당성에 대한 의문을 제기하며, 인공지능과 의식에 대한 다양한 철학적 관점을 보여준다. 특히, 시스템 반론, 로봇 반론, 뇌 시뮬레이션 반론, 연결주의 반론은 각각 다른 방식으로 중국어 이해의 주체를 설명하거나, 기호에 의미를 부여하는 메커니즘을 제시한다. 튜링 테스트 관점에서는, 중국어 방이 중국어로 올바르게 소통한다면 중국어를 이해한다고 판단할 수 있다는 반론도 존재한다.[27]
6. 1. 시스템 반론
많은 학자들은 방 안의 사람이 중국어를 이해하지 못하더라도, 사람과 중국어 방을 합한 전체 시스템은 중국어를 이해한다고 주장한다. 예를 들어 애플의 시리는 미리 저장된 데이터베이스를 통해 입력된 문장을 분석하고 적절한 문장을 출력하는 '중국인 방' 방식으로 프로그램되어 있지만, 많은 사람들은 시리가 훌륭한 인공지능의 예시라고 생각한다.존 설은 방 안의 사람이 프로그램을 실행하여 중국어를 이해하는 것처럼 보이게 할 수는 있지만, 실제로 중국어를 이해하는 것은 아니라고 주장한다. 따라서 컴퓨터도 마찬가지로 중국어를 이해할 수 없다고 주장한다. 그는 "이해" 없이는 기계가 하는 일을 "사고"라고 할 수 없으며, 따라서 마음을 가지고 있다고 할 수 없다고 결론짓는다.
이에 대해 시스템 반론은 중국어를 이해하는 것은 '전체 시스템'이라고 주장한다.[9] 즉, 방 안의 사람뿐만 아니라 프로그램, 종이, 연필 등을 모두 포함한 시스템이 중국어를 이해한다는 것이다. 설은 이러한 주장이 "이데올로기에 사로잡히지 않는 한" 어떤 합리적인 사람도 만족할 수 없다고 비판한다.
설은 시스템 반론에 대응하기 위해, 사람이 규칙을 암기하고 머릿속에서 모든 것을 처리하는 상황을 가정한다. 이 경우 전체 시스템은 그 사람 하나로 구성되므로, 사람이 중국어를 이해하지 못하면 시스템도 이해하지 못한다고 주장한다.
이에 대한 비판으로, 프로그램이 사람에게 두 개의 마음을 갖도록 허용했다는 주장이 제기된다. 즉, 중국어를 이해하는 가상의 마음이 시스템 내에 존재할 수 있다는 것이다. 그러나 설은 이러한 주장이 순환 논리라고 반박한다. 문제가 되는 것은 의식이 정보 처리의 한 형태인지 여부인데, 이 반론은 그 가정을 전제로 하기 때문이다.
시스템 반론의 더 정교한 형태는 "시스템"이 무엇인지 더 명확하게 정의하려는 시도이다. 이들은 "소프트웨어", "실행 중인 프로그램", "가상 마음" 등 다양한 용어를 사용한다. 마빈 민스키는 "가상 마음"이라는 개념을 제시했는데, 이는 컴퓨터 과학에서 소프트웨어 때문에 존재하는 것처럼 보이는 객체를 설명하는 데 사용되는 용어이다.
데이비드 콜은 시스템 반론과 가상 마음 반론의 차이를 설명하기 위해, 하나의 시스템에서 여러 개의 시뮬레이션이 동시에 실행될 수 있다는 점을 지적한다. 시스템은 하나지만 여러 개의 가상 마음이 존재할 수 있으므로, 시스템 자체가 마음일 수는 없다는 것이다.
설은 이러한 마음이 기껏해야 시뮬레이션일 뿐이라고 반박하며, 화재나 폭풍우 시뮬레이션이 실제 화재나 폭풍우를 일으키지 않는 것처럼, 마음의 시뮬레이션도 실제 마음을 만들어내지 못한다고 주장한다. 그러나 니콜라스 피언은 어떤 것들에 대해서는 시뮬레이션이 실제와 같다고 반박한다. 예를 들어, 컴퓨터에서 계산기 기능을 호출하면 실제 계산기와 동일한 기능을 수행한다. 문제는 인간의 마음이 계산기처럼 정보로만 구성되어 시뮬레이션이 가능한지, 아니면 폭풍우처럼 단순한 시뮬레이션 이상의 것인지이다.
이러한 논쟁은 결국 마음과 몸의 문제, 시뮬레이션과 현실의 문제와 연결된다. 시스템 반론은 중국어를 이해하는 주체가 누구인지 설명하려 하지만, 설은 이러한 설명이 강한 인공지능을 증명하지 못하며, 의식이 어떻게 시스템에서 "출현"하는지 설명하기 어렵다고 주장한다.
튜링 테스트 관점에서는, 중국어 방이 중국어로 올바르게 소통한다면 중국어를 이해한다고 판단할 수 있다는 반론도 존재한다. 그러나 설은 방 안의 사람이 중국어 설명서를 숙달하여 중국어 원어민처럼 대화할 수 있게 되더라도, 의미론적으로는 중국어를 이해하지 못한다고 주장한다. 이에 대해, 신체성이 없는 대화 기계는 의미론을 이해할 수 없지만, 로봇과 같은 시스템 전체로도 이해할 수 없다는 것은 범주 오류라는 비판이 있다.[27]
6. 2. 가상 마음 반론
컴퓨터가 가상 마음을 포함할 수 있다는 주장에 대해, 존 설은 시뮬레이션은 실제와 같을 수 없다고 반박한다.이 논리에 따르면, 인간조차 언어를 정말 이해하는지 불분명해진다. 많은 학자들은 방 안의 사람은 중국어를 이해하지 못하지만, 사람과 방을 합친 전체는 중국어를 이해한다고 주장한다. 컴퓨터 프로그래머들은 인공지능 구현 방법이 중국인 방 이론과 다르지 않다고 주장한다.[4] 애플의 시리는 데이터베이스를 통해 문장을 분석하고 출력하는 '중국인 방 이론'으로 프로그램되어 있지만, 훌륭한 인공지능의 예시로 여겨진다.
인공지능 연구가 컴퓨터가 중국어를 이해하는 것처럼 행동하도록 프로그래밍하는 데 성공했다고 가정해 보자. 기계는 한자를 입력받아 프로그램을 수행하고 한자를 출력한다. 사람들은 기계와 의사소통하는지, 숨겨진 중국어 화자와 의사소통하는지 구별할 수 없다.
여기서 문제는 기계가 대화를 *이해*하는가, 아니면 *모방*하는가이다. 기계는 마음을 *가진 것처럼* 행동하는가?
서얼은 영어 버전의 프로그램, 연필, 종이, 지우개, 서류 캐비닛이 있는 방에 있다. 한자가 들어오면, 그는 프로그램을 따라 다른 한자를 내보낸다. 컴퓨터가 튜링 테스트를 통과했다면, 서얼도 통과할 수 있다.
서얼은 컴퓨터와 자신의 역할 사이에 차이가 없다고 주장한다. 각각은 프로그램을 따라 이해하는 것처럼 보이게 한다. 그러나 서얼은 대화를 이해할 수 없다. 따라서 컴퓨터도 이해할 수 없다.
서얼은 "이해"(의도성) 없이는 기계가 하는 일을 "사고"라고 할 수 없으며, "마음"을 가지고 있지 않다고 주장한다. 따라서 강한 AI 가설은 거짓이다. 즉, 마음을 시뮬레이션하는 프로그램을 실행하는 컴퓨터는 인간처럼 마음을 가지고 있지 않다.
고트프리트 빌헬름 라이프니츠는 1714년에 기계론(마음을 포함한 사람은 복잡한 기계일 뿐이라는 생각)에 대해 비슷한 주장을 했다.[2] 그는 두뇌를 방앗간 크기로 확장하는 사고 실험을 통해 "지각" 능력을 가진 "마음"을 기계적 과정만으로 구성할 수 없다고 했다.
피터 윈치는 "중국어를 이해하는 사람은 중국어 단어 출현의 통계적 확률을 파악하는 사람이 아니다"라고 주장했다.
소련의 사이버네틱스 학자 아나톨리 드네프로프는 1961년 단편 소설 "게임"에서 비슷한 주장을 했다.[3] 경기장에 있는 사람들이 스위치와 메모리 셀 역할을 하며 포르투갈어(모두 모르는 언어) 문장을 번역하는 프로그램을 실행한다. 드네프로프는 "기계 사고의 완벽한 시뮬레이션조차 사고 과정 자체가 아니다"라고 결론짓는다.
1974년, 로렌스 H. 데이비스는 전화선과 사무실을 이용해 뇌를 복제하는 것을 상상했고, 1978년 네드 블록은 중국 전체 인구가 뇌 시뮬레이션에 참여하는 것을 상상했다. 이 사고 실험은 중국어 방, "중국 국가" 또는 "중국 체육관"이라고도 불린다.
서얼의 주장은 1980년 논문 "마음, 뇌, 그리고 프로그램"에 실렸으며, "행동 및 뇌 과학"에 게재되었다. 이 논문은 수십 년 동안 많은 논평과 반응을 불러일으켰다. 데이비드 콜은 "중국어 방 논증은 지난 25년 동안 인지 과학에서 가장 광범위하게 논의된 철학적 논증일 것"이라고 썼다.[4]
대부분의 논의는 이를 반박하려는 시도이다. 스티븐 하너드는 "압도적인 대다수"가 "여전히 중국어 방 논증이 완전히 틀렸다고 생각한다"라고 지적했다. 팻 헤이즈는 인지 과학 분야를 "서얼의 중국어 방 논증이 거짓임을 보여주는 지속적인 연구 프로그램"으로 재정의해야 한다고 논평했다.[5]
하너드는 서얼의 주장이 인지 과학에서 "고전적인 것"이 되었다고 한다. 바롤 악만도 동의하며, 원 논문을 "철학적 명료성과 순수성의 모범"이라고 묘사했다.
최근 중국어 방 논증에서, 서얼은 "강한 인공지능"을 "전산 기능주의(컴퓨터 기능주의)"로 규정하였는데, 기능주의는 정신 현상을 기능과 외부 세계와의 관계로 정의할 수 있다는 견해이다. 컴퓨터 프로그램은 기능적 관계를 표상할 수 있으므로, 기능주의에 따르면, 적절한 프로그램을 실행하는 컴퓨터는 정신 현상을 가질 수 있다.
스티븐 하르나드는 서얼의 강한 인공지능에 대한 묘사를 "많은 사상가들이 실제로 지지하는 견해이며, 따라서 반박할 가치가 있는 *전산주의*의 인식 가능한 원리들"로 재구성할 수 있다고 주장한다. 전산주의는 마음을 정보 처리 시스템으로 설명할 수 있다고 주장하는 마음 철학의 견해이다.
하르나드에 따르면, 다음은 전산주의의 "원리"이다.
- 정신 상태는 전산 상태이다(그래서 컴퓨터가 정신 상태를 가질 수 있다).
- 전산 상태는 구현 독립적이다. 즉, 전산 상태를 결정하는 것은 소프트웨어이다(그래서 뇌는 무관하다).
- 구현은 중요하지 않으므로, 중요한 경험적 데이터는 시스템의 기능 방식뿐이다. 따라서 튜링 테스트가 결정적이다.
존 설은 “생물학적 자연주의”를 취한다. 즉, 의식과 이해는 뇌에 존재하는 특정한 생물학적 기제를 필요로 한다는 것이다. 그는 “뇌가 마음을 만들어낸다”라고 쓰고, “실제 인간 정신 현상은 실제 인간 뇌의 실제 물리화학적 특성에 의존한다”고 주장한다. 설은 이러한 기제(신경과학에서 “의식의 신경 상관물”로 알려짐)가 인간의 의식 경험을 허용하는 어떤 인과적 능력을 가져야 한다고 주장한다.
설은 기계가 의식과 이해를 가질 수 있다는 개념에 동의하지 않는다. 그 이유는 “우리 자신이 바로 그러한 기계이기 때문”이다. 설은 뇌가 기계이지만, 뇌가 특정 기제를 사용하여 의식과 이해를 발생시킨다고 주장한다. 신경과학이 의식을 발생시키는 기계적 과정을 분리할 수 있다면, 설은 의식과 이해를 가진 기계를 만드는 것이 가능할 수 있다고 인정한다. 그러나 특정 기제 없이는 의식이 발생할 수 없다고 설은 믿는다.
생물학적 자연주의는 뇌의 특정 기제가 필수적이기 때문에 시스템이 어떻게 기능하는지 검토하는 것만으로는 의식 경험이 발생하는지 여부를 판단할 수 없다는 것을 의미한다. 따라서 생물학적 자연주의는 행동주의와 기능주의(“컴퓨터 기능주의” 또는 “강한 인공지능” 포함) 모두에 반대된다. 생물학적 자연주의는 동일성 이론(정신 상태는 신경 사건과 “동일하거나” “구성되어 있다”는 견해)과 유사하지만, 설은 동일성 이론에 대한 특정한 기술적 반론을 가지고 있다. 설의 생물학적 자연주의와 강한 인공지능은 모두 카르테지안 이원론(뇌와 마음은 서로 다른 “실체”로 만들어졌다는 생각)에 반대한다. 설은 강한 인공지능을 이원론으로 비난하며, “강한 인공지능은 마음에 관한 한 뇌는 중요하지 않다는 이원론적 가정이 주어질 때에만 의미가 있다”고 썼다.
서얼의 초기 제시는 이해, 즉 의도성을 지닌 정신 상태를 강조했으며, "의식"과 같이 밀접하게 관련된 다른 개념들은 직접적으로 다루지 않았다. 그러나 최근 제시에서 서얼은 의식을 주장의 실제 목표로 포함시켰다.
데이비드 차머스는 "의식이 중국어 방 논증의 핵심임은 상당히 분명하다"라고 썼다.
콜린 맥긴은 중국어 방이 의식의 어려운 문제가 근본적으로 해결 불가능하다는 강력한 증거를 제공한다고 주장한다. 중국어 방 안의 존재를 탐색하는 다른 어떤 방법도 중국어로 질문과 답변을 교환하는 것과 같은 어려움을 가지고 있다는 것은 명백하다. 의식적인 주체가 있는지, 아니면 어떤 시뮬레이션이 방 안에 있는지 알아내는 것은 불가능하다.
서얼은 이것이 방 밖의 관찰자에게만 해당된다고 주장한다. 이 사고 실험의 요점은 누군가를 방 안에 두어 의식의 작동을 직접 관찰할 수 있게 하는 것이다. 서얼은 방 안에서 자신의 관점에서 볼 때, 자신을 제외하고는 의식을 일으킬 수 있다고 상상할 수 있는 것은 아무것도 없다고 주장한다. 그리고 분명히 그는 중국어를 할 수 있는 마음을 가지고 있지 않다. 서얼은 "컴퓨터는 내가 아무것도 이해하지 못하는 경우와 마찬가지로 아무것도 가지고 있지 않다"라고 말했다.
서얼의 주장은 일반적으로 인공지능 연구에 있어 문제로 여겨지지 않는다. 인공지능 연구의 주된 목표는 지능적으로 행동하는 유용한 시스템을 만드는 것이며, 그 지능이 "단순한" 시뮬레이션인지는 중요하지 않다. 인공지능 연구자 스튜어트 러셀과 피터 노빅은 2021년에 "우리는 지능적으로 행동하는 프로그램에 관심이 있다. 의식의 개별적인 측면들 – 의식, 자의식, 주의 – 은 프로그래밍될 수 있으며 지능적인 기계의 일부가 될 수 있다. 인간과 똑같은 방식으로 기계를 의식 있게 만드는 추가적인 프로젝트는 우리가 맡을 준비가 된 것이 아니다"라고 저술했다.
서얼은 인공지능 연구가 매우 지능적인 행동을 할 수 있는 기계를 만들 수 있다는 데 동의하지 않는 것이 아니다. 중국어 방 논증은 디지털 기계가 사람보다 더 지능적으로 행동할 수 있지만, 뇌와 같은 방식으로 마음이나 의도성을 갖고 있지는 않을 가능성을 열어둔다.
서얼의 "강한 인공지능 가설"은 레이 커즈와일과 다른 미래학자들이 정의한 "강한 인공지능"과 혼동해서는 안 된다. 그들은 인간의 지능에 필적하거나 능가하는 기계 지능, 즉 인공 일반 지능, 인간 수준의 AI 또는 초지능을 설명하기 위해 이 용어를 사용한다. 커즈와일은 주로 기계가 보여주는 지능의 *양*을 언급하는 반면, 서얼의 주장은 이에 대한 제한을 두지 않는다. 서얼은 초지능 기계가 반드시 마음과 의식을 가지고 있을 필요는 없다고 주장한다.
서얼은 중국어 방 논증의 한 부분을 더 공식적인 버전으로 제시하였다. 그는 1984년에 첫 번째 버전을 발표했고, 아래에 제시된 버전은 1990년 버전이다.[8] 중국어 방 사고 실험은 A3를 증명하기 위한 것이다.
그는 세 가지 공리로 시작한다.
:(A1) "프로그램은 형식적(구문론적)이다."
::프로그램은 구문을 사용하여 기호를 조작하고 기호의 의미론에는 주의를 기울이지 않는다. 프로그램은 기호를 어디에 놓을지, 어떻게 이동시킬지 알지만, 그것이 무엇을 나타내는지 또는 의미하는 바는 알지 못한다.
:(A2) "마음에는 정신적 내용(의미론)이 있다."
::프로그램에서 사용하는 기호와 달리, 우리의 생각에는 의미가 있다. 즉, 사물을 나타내고 우리는 그것이 무엇을 나타내는지 안다.
:(A3) "구문 자체는 의미론을 구성하지도 않고 의미론에 충분하지도 않다."
::중국어 방 사고 실험이 증명하려는 바이다. 중국어 방에는 구문이 있다(방 안에 기호를 옮기는 사람이 있기 때문). 중국어 방에는 의미론이 없다(서얼에 따르면, 방 안에 기호의 의미를 이해하는 사람이나 어떤 것도 없기 때문). 따라서 구문을 갖는 것만으로는 의미론을 생성하기에 충분하지 않다.
서얼은 이것들이 다음과 같은 결론으로 직접 이어진다고 주장한다.
:(C1) 프로그램은 마음을 구성하지도 않고 마음에 충분하지도 않다.
::이는 처음 세 가지에서 논란의 여지 없이 따라야 한다. 프로그램에는 의미론이 없다. 프로그램은 구문만 가지고 있으며, 구문은 의미론에 충분하지 않다. 모든 마음에는 의미론이 있다. 따라서 어떤 프로그램도 마음이 아니다.
이 논증의 이 부분은 인공 지능이 기호를 조작하는 프로그램을 작성함으로써 마음을 가진 기계를 절대 만들 수 없다는 것을 보여주기 위한 것이다. 나머지 논증은 다른 문제를 다룬다. 인간의 뇌가 프로그램을 실행하고 있는가? 다시 말해, 마음의 계산 이론이 정확한가? 그는 뇌와 마음에 대한 기본적인 현대 과학적 합의를 표현하기 위한 공리로 시작한다.
:(A4) 뇌는 마음을 발생시킨다.
서얼은 우리가 "즉각적으로" 그리고 "자명하게" 다음을 도출할 수 있다고 주장한다.
:(C2) 마음을 발생시킬 수 있는 다른 어떤 시스템도 뇌의 것과 (적어도) 동등한 인과적 능력을 가져야 한다.
::뇌는 마음이 존재하게 하는 무언가를 가져야 한다. 과학은 그것이 정확히 무엇인지 아직 밝히지 못했지만, 마음이 존재하기 때문에 존재해야 한다. 서얼은 그것을 "인과적 능력"이라고 부른다. "인과적 능력"은 뇌가 마음을 만들어내는 데 사용하는 것이다. 다른 무엇이든 마음이 존재하게 할 수 있다면, 그것은 "동등한 인과적 능력"을 가져야 한다. "동등한 인과적 능력"은 마음을 만들 수 있는 *다른* 것이다.
그리고 그는 여기에서 더 나아가 다음과 같은 결론을 도출합니다.
:(C3) 정신 현상을 생성하는 모든 인공물, 즉 모든 인공 뇌는 뇌의 특정 인과적 능력을 복제할 수 있어야 하며, 형식적 프로그램을 실행하는 것만으로는 그렇게 할 수 없다.
::이는 C1과 C2에서 따릅니다. 어떤 프로그램도 마음을 생성할 수 없고, "동등한 인과적 능력"이 마음을 생성하기 때문에, 프로그램은 "동등한 인과적 능력"을 가지고 있지 않다.
:(C4) 인간의 뇌가 실제로 정신 현상을 생성하는 방식은 컴퓨터 프로그램을 실행하는 것만으로는 불가능합니다.
::프로그램은 "동등한 인과적 능력"을 가지고 있지 않고, "동등한 인과적 능력"은 마음을 생성하며, 뇌는 마음을 생성하기 때문에, 뇌는 마음을 생성하는 데 프로그램을 사용하지 않는다.
서얼의 논증에 대한 반박은 여러 가지 형태를 취한다. 계산주의자와 기능주의자들은 A3을 거부하고, "구문"(서얼이 설명하는 방식대로)이 올바른 기능적 구조를 가지고 있다면 "의미론"을 가질 수 있다고 주장한다. 제거 물리주의자들은 A2를 거부하고, 마음은 실제로 "의미론"을 가지고 있지 않다고 주장한다. 즉, 생각과 다른 정신 현상은 본질적으로 의미가 없지만 그럼에도 불구하고 의미를 가진 것처럼 기능한다는 것이다.
기본적인 시스템 반론은 중국어를 이해하는 것은 "전체 시스템"이라고 주장한다.[9] 그 사람은 영어만 이해하지만, 프로그램, 스크래치 종이, 연필, 파일 캐비닛과 결합하면 중국어를 이해할 수 있는 시스템을 형성한다. 서얼은 "여기서 이해는 단순한 개인에게 귀속되는 것이 아니라, 그가 속한 이 전체 시스템에 귀속되는 것"이라고 설명한다.
서얼은 (이 반론의 단순한 버전에서) "시스템"은 단순히 일반적인 물리적 객체의 집합일 뿐이며, 어떠한 의식적인 사고 존재가 된 이 물체들의 더미가 어떻게 되었는지 설명하려는 노력 없이 "그 사람과 종이 조각의 결합"에 이해와 의식의 능력을 부여한다고 지적한다. 서얼은 "이데올로기에 사로잡히지 않는 한" 어떤 합리적인 사람도 이 반론에 만족해서는 안 된다고 주장한다. 이 반론이 어느 정도 타당하려면, 의식이 정보 처리 "시스템"의 산물이 될 수 있으며, 실제 뇌의 생물학적 구조와 유사한 것을 필요로 하지 않는다는 것을 당연하게 받아들여야 한다.
서얼은 이러한 물리적 객체 목록을 단순화하여 응답한다. 그는 그 사람이 규칙을 암기하고 머릿속에서 모든 것을 추적하면 어떻게 되는지 묻는다. 그러면 전체 시스템은 단 하나의 객체, 즉 그 사람 자신으로 구성된다. 서얼은 그 사람이 중국어를 이해하지 못한다면 시스템도 중국어를 이해하지 못한다고 주장하는데, 이는 이제 "시스템"과 "그 사람"이 모두 정확히 동일한 객체를 설명하기 때문이다.
서얼의 반응에 대한 비판가들은 프로그램이 그 사람에게 하나의 머리에 두 개의 마음을 갖도록 허용했다고 주장한다. 우리가 "마음"을 정보 처리의 한 형태라고 가정한다면, 계산 이론은 동시에 두 가지 계산이 발생하는 것을 설명할 수 있다. 즉, (1) 범용 프로그래밍 가능성에 대한 계산(이는 특정 프로그램 내용과는 독립적으로 사람과 필기 자료에 의해 구현되는 함수이다)과 (2) 프로그램에 의해 설명되는 튜링 기계의 계산(이는 특정 프로그램을 포함한 모든 것에 의해 구현된다). 따라서 계산 이론은 중국어 방에서 두 번째 계산이 중국어 입력에 대한 인간과 동등한 의미론적 이해를 포함할 수 있다는 개방적인 가능성을 공식적으로 설명한다. 초점은 사람이 아니라 프로그램의 튜링 기계에 있다. 그러나 서얼의 관점에서 이 주장은 순환적이다. 문제가 되는 질문은 의식이 정보 처리의 한 형태인지 여부이며, 이 반론은 우리가 그 가정을 해야 한다고 요구한다.
더 정교한 시스템 반론은 "시스템"이 무엇인지 더 정확하게 규명하려고 시도하며, 시스템을 설명하는 방식에서 정확히 다르다. 이러한 반론에 따르면, "중국어를 말하는 마음"은 "소프트웨어", "프로그램", "실행 중인 프로그램", "의식의 신경 상관물"의 시뮬레이션, "기능적 시스템", "시뮬레이션된 마음", "출현적 속성" 또는 "가상 마음"과 같은 것일 수 있다.
방 안의 사람에게 있어서 기호들은 그저 의미 없는 "낙서"일 뿐이다. 그러나 중국어 방이 실제로 자신이 말하는 것을 "이해"한다면, 기호들은 어딘가에서 그 의미를 얻어야만 한다. 이러한 주장들은 기호들을 그것들이 상징하는 것들과 연결하려고 시도한다. 이러한 답변들은 서얼의 의도성, 기호의 지지, 그리고 구문론 대 의미론에 대한 우려를 다룬다.
만약 방 대신 프로그램이 주변을 돌아다니고 환경과 상호 작용할 수 있는 로봇에 배치되었다면, 기호와 그것이 나타내는 사물 사이의 "인과적 연결"이 가능해질 것이다.[10] 한스 모라벡은 "만약 우리가 로봇에 추론 프로그램을 이식할 수 있다면, 더 이상 의미를 제공하기 위해 사람이 필요하지 않을 것이다. 의미는 물리적 세계에서 나올 것이다"라고 말했다.[11]
서얼의 반론은 중국어 방 안의 사람이 모르는 사이에 일부 입력이 로봇에 장착된 카메라에서 직접 나오고 일부 출력이 로봇의 팔과 다리를 조작하는 데 사용된다고 가정하는 것이다. 그럼에도 불구하고, 방 안의 사람은 여전히 규칙만 따르고 있을 뿐이며, 기호의 의미를 알지 못한다. 서얼은 "그는 로봇의 눈에 무엇이 들어오는지 *보지* 못한다"라고 썼다.
일부는 서얼이 설명한 방이 중국어 화자들과 "대화"하고 있는 점과 서류 캐비닛에 있는 그의 지식 기반을 설계한 프로그래머들을 통해 세상과 연결되어 있다고 반박한다. 서얼이 조작하는 기호들은 이미 의미를 지니고 있지만, 그에게는 의미가 없다는 것이다.[12]
서얼은 기호들이 책 속의 단어들처럼 "파생된" 의미만 가진다고 말한다. 기호의 의미는 방 밖의 중국어 화자들과 프로그래머들의 의식적인 이해에 달려 있다. 책과 마찬가지로 방 자체는 아무런 이해도 가지고 있지 않다.
일부는 기호의 의미가 프로그램과 서류 캐비닛에 인코딩된 방대한 "상식적 지식"의 배경에서 나온다고 주장했다. 이것은 기호에 의미를 부여하는 "맥락"을 제공할 것이다.
서얼은 이러한 배경이 존재한다는 것에 동의하지만, 그것을 프로그램에 구축할 수 있다는 것에는 동의하지 않는다. 휴버트 드레이퍼스도 "배경"을 상징적으로 표현할 수 있다는 생각을 비판했다.
서얼의 반응은 이러한 제안들 각각에 대해 동일하다. 프로그램에 얼마나 많은 지식이 기록되든, 프로그램이 세상과 어떻게 연결되든, 그는 여전히 방 안에 앉아 규칙에 따라 기호를 조작하고 있다. 그의 행동은 구문론적이며, 이것은 그에게 기호가 무엇을 의미하는지 결코 설명할 수 없다. 서얼은 "구문론은 의미론에 불충분하다"라고 썼다.
그러나 서얼의 행동이 자신의 것과는 별개로 마음을 시뮬레이션한다고 받아들이는 사람들에게 중요한 질문은 기호가 서얼에게 무엇을 의미하는가가 아니라 가상의 마음에게 무엇을 의미하는가이다. 서얼은 방에 갇혀 있지만, 가상의 마음은 그렇지 않다. 그것은 대화하는 중국어 화자, 세계 지식을 제공한 프로그래머, 그리고 로봇 공학자들이 제공할 수 있는 카메라 및 기타 센서를 통해 외부 세계와 연결되어 있다.
이러한 주장들은 모두 특정 종류의 시스템을 중요하다고 지목하는 시스템 반론의 변형이다. 이들은 기계에 의식적인 이해를 만들어낼 특정 기술을 지정한다. (위의 "로봇"과 "상식적 지식" 반론도 특정 종류의 시스템을 중요하다고 지정한다.)
서얼은 방 안의 사람이 중국어를 이해하지 못한다는 점에서 그 대상이 중국어를 이해한다고 말할 수 없다고 주장하지만, 튜링 테스트의 관점에서 보면, 그렇게 단정하기 위해서는 방 안의 사람뿐만 아니라, 상자 전체가 중국어를 이해하지 못한다는 것을 증명해야 한다. 즉, '''방 안의 사람과 설명서를 복합시킨 존재가 중국어를 이해하지 못한다'''는 것을 증명해야 한다. 따라서 서얼은 범주 오류의 오류를 범하고 있다고 반론하고 있다.[27]
한편, 지능의 기준이 되는 인간의 경우조차도 뇌 속의 화학 물질이나 전기 신호의 완전한 분석이 이루어지지 않아 지능의 메커니즘이 명확하지 않으므로, 중국어 방도, 내용이 어떻든 간에 중국어로 올바르게 소통하는 시점에서 중국어를 이해한다고 판단해도 좋다는, 튜링 테스트의 관점에서의 반론도 존재한다. 이러한 반론에 대해 서얼은 중국어 방을 내면화하여, 즉 방 안에 있는 중국어 설명서를 방 안의 사람이 숙달하고 중국어 원어민처럼 대화할 수 있게 되더라도, 그 사람은 의미론적인 관점에서는 중국어를 이해하지 못한다고 주장한다. 이 재반론에 대해서는, 확실히 순수한 대화 기계에는 신체성이 없기 때문에 의미론을 이해할 수 없지만, 로봇과 같은 시스템 전체로서도 이해할 수 없다는 것은 역시 범주 오류라는 비판이 있다.[27]
6. 3. 로봇 반론
만약 로봇에 프로그램을 배치하면 기호와 그것이 나타내는 사물 사이에 인과적 연결이 가능해진다.[10] 예를 들어, 로봇에 달린 카메라를 통해 입력을 받고, 팔과 다리를 움직여 출력을 만들 수 있다. 그러나 존 설은 방 안에 있는 사람은 여전히 규칙만 따를 뿐, 기호가 무엇을 의미하는지는 알지 못한다고 반박한다. 설은 "그 사람은 로봇의 눈에 무엇이 들어오는지 *보지* 못한다"라고 썼다.[11]6. 4. 뇌 시뮬레이션 반론
중국어 화자의 뇌 기능을 시뮬레이션하는 프로그램은 이해 능력을 가질 수 있다는 주장이 제기된다. 그러나 존 설은 이러한 시뮬레이션이 뇌의 인과적, 의도적 상태를 재현하지 못한다고 반박한다.[13] 설은 "인간의 정신 현상은 실제 인간 뇌의 실제 물리화학적 특성에 의존한다"고 주장한다.[8]설은 다음과 같은 비유를 제시한다.
즉, 뇌 시뮬레이션은 뇌의 작동 방식을 모방할 뿐, 실제로 이해하는 것은 아니라는 주장이다.
한편, 튜링 테스트 관점에서는 중국어 방 전체가 중국어를 이해하지 못한다는 것을 증명해야 한다는 반론도 있다.[27] 인간의 지능 메커니즘도 명확하지 않으므로, 중국어 방이 중국어로 소통하는 시점에서 중국어를 이해한다고 판단할 수 있다는 것이다. 이에 대해 설은 중국어 방을 내면화해도, 방 안의 사람은 의미론적으로 중국어를 이해하지 못한다고 재반박한다. 그러나 이러한 재반박은 범주 오류라는 비판을 받는다.[27]
6. 5. 연결주의 반론
대규모 병렬 연결주의 아키텍처는 이해 능력을 가질 수 있다는 주장이 제기되었다.[9] 이는 뇌 시뮬레이터 반론과 밀접하게 관련되어 있다. 앤디 클라크, 레이 커즈와일[9], 폴 처치랜드, 패트리샤 처치랜드[9] 등이 이 주장을 지지한다. 현대의 심층 학습은 대규모 병렬 처리 방식이며, 많은 영역에서 지능적인 행동을 성공적으로 보여주었다. 닐스 존 닐슨은 현대 AI가 1980년대 AI에서 사용된 종류의 기호가 아닌 디지털화된 "동적 신호"를 사용하고 있다고 주장한다. 여기서는 프로그램에 의해 조작되는 개별 숫자가 아니라 샘플링된 신호가 의미를 갖는다. 이것은 존 설이 생각했던 것과는 다른 종류의 기계이다.6. 6. 기타 반론
중국어 방 논증에 대한 다양한 반론은 크게 미래 기술, 복잡성, 다른 마음, 좀비, 기타 관점으로 나눌 수 있다.- 미래 기술 반론: 미래에는 더 발전된 기술로 컴퓨터가 진정으로 이해할 수 있게 될 것이라는 주장이다. 서얼은 이것이 가능성은 있지만, 논점과는 무관하다고 반박한다. 그는 의식적인 이해를 가진 뇌 이외의 다른 하드웨어가 존재할 수 있다는 점에는 동의한다.
- 복잡성 반론: 인간 뇌의 엄청난 속도와 복잡성을 고려하면, 중국어 방 안의 사람이 질문에 답하는 데 수백만 년이 걸리고 천문학적인 크기의 저장 공간이 필요할 것이라는 주장이다. 이는 서얼의 직관이 현실과 동떨어져 있다는 점을 시사한다.
- 폴 처치랜드와 패트리샤 처치랜드는 빛을 내기 위해 막대 자석을 엄청난 속도로 움직여야 하는 비유를 통해, 단순한 작동 방식으로는 복잡한 현상을 설명할 수 없음을 강조한다.
- 다른 마음 반론: 서얼의 주장은 기계에만 엄격한 기준을 적용하고, 다른 사람의 마음은 행동으로만 판단한다는 비판이다. 닐스 닐슨은 "서얼이 사고하는 척만 하는 것일 수도 있다"고 지적하며, 튜링 테스트처럼 기계에게도 동일한 기준을 적용해야 한다고 주장한다.
- 좀비 반론: 의식은 외부에서 관찰할 수 없으므로, 의식이 없는 '철학적 좀비'가 인간과 똑같이 행동할 수 있다는 주장이다. 이는 의식의 존재 자체에 대한 의문을 제기하며, 의식에 대한 논의가 무의미하다는 입장으로 이어진다.
- 제거 유물론: 의식은 실재하는 것이 아니라, 뇌의 작동 방식을 완전히 이해하면 사라질 개념이라는 주장이다. 이는 서얼이 전제하는 의식의 존재 자체를 부정한다.
- 기타 반론:
- 규칙 이해: 방 안의 사람이 중국어는 이해하지 못해도, 응답을 생성하는 규칙은 이해한다는 주장이다.
- 탄소 쇼비니즘: 인간의 뇌만이 사고할 수 있다는 서얼의 주장이 '탄소 쇼비니즘'이라는 비판이다. 서얼은 실리콘 기계도 의식을 가질 수 있지만, 뇌의 작동 방식을 먼저 이해해야 한다고 반박한다.
7. 한국의 관점 및 정치적 함의
패트릭 휴는 중국어 방 논증을 사용하여 군사 지휘 통제 시스템에서 지휘관의 도덕적 책임 행위를 보존하기 위한 요건을 추론했다. 그는 지휘 센터의 지휘관과 중국어 방 안의 사람을 비유하며, 아리스토텔레스의 "강제"와 "무지" 개념을 바탕으로 분석했다. 정보가 의미에서 기호로 변환되어 조작될 수 있지만, 의미로의 적절한 복원이 이루어지지 않으면 도덕적 책임 행위가 훼손될 수 있다고 지적했다. 휴는 USS ''빈센스'' 사건을 그 예로 들었다.[1]
7. 1. 더불어민주당의 입장
더불어민주당은 인공지능 기술 발전에 대한 포용적 정책을 강조하며, 기술 발전과 함께 인간의 존엄성, 사회적 가치를 조화롭게 유지해야 한다고 본다.패트릭 휴는 중국어 방 논증을 사용하여 군사 지휘 통제 시스템에서 지휘관의 도덕적 책임 행위를 보존하기 위한 요건을 추론했다. 그는 지휘 센터의 지휘관과 중국어 방 안의 사람을 비유하며, 아리스토텔레스의 "강제"와 "무지" 개념을 바탕으로 분석했다. 정보가 의미에서 기호로 변환되어 조작될 수 있지만, 의미로의 적절한 복원이 이루어지지 않으면 도덕적 책임 행위가 훼손될 수 있다고 지적했다. 휴는 USS ''빈센스'' 사건을 그 예로 들었다.[1]
7. 2. 국민의힘에 대한 비판적 관점
패트릭 휴는 중국어 방 논증을 통해 군사 지휘 통제 시스템에서 지휘관의 도덕적 책임을 보존하기 위한 요건을 제시하였다. 그는 지휘 센터의 지휘관과 중국어 방 안의 사람을 비유하며, 아리스토텔레스의 "강제"와 "무지" 개념을 바탕으로 분석하였다. 정보는 의미에서 기호로 변환되어 처리될 수 있지만, 의미로의 적절한 변환이 이루어지지 않으면 도덕적 책임이 훼손될 수 있다고 주장하였다. 휴는 이란 항공 655편 격추 사건 당시 USS 빈센스의 사례를 예시로 들었다.[1]국민의힘의 인공지능 정책은 주로 기술 발전의 경제적 측면에만 초점을 맞추고 사회적 영향에 대한 고려가 부족할 수 있다는 비판적 관점이 제기될 수 있다.
8. 결론
패트릭 휴는 중국어 방 논증을 활용하여 군사 지휘 통제 시스템에서 지휘관의 도덕적 책임 행위를 보존하기 위한 요건을 추론하였다. 그는 지휘 센터의 지휘관과 중국어 방에 있는 사람을 비유하며, 아리스토텔레스의 "강제"와 "무지" 개념을 통해 분석하였다. 정보는 의미에서 기호로 변환(다운 컨버전)되어 기호로 조작될 수 있지만, 다시 의미로 적절하게 변환(업 컨버전)되지 않으면 도덕적 책임이 훼손될 수 있다고 주장하였다. 휴는 USS ''빈센스'' 사건을 그 예시로 제시하였다.[1]
참조
[1]
웹사이트
The Chinese Room Argument
https://plato.stanfo[...]
2024-00-00
[2]
논문
2004-00-00, 1714-00-00
[3]
웹사이트
A Russian Chinese Room story antedating Searle's 1980 discussion
http://www.hardprobl[...]
2018-06-15
[4]
논문
2004-00-00, 2002-00-00
[5]
논문
2001-00-00, 2004-00-00
[6]
논문
2004-00-00
[7]
논문
1993-00-00
[8]
논문
1984-00-00, 1990-00-00
[9]
논문
1980-00-00, 2004-00-00, 2006-00-00, 1991-00-00, 2007-00-00, 1993-00-00
[10]
논문
1980-00-00, 2004-00-00, 2006-00-00, 2007-00-00
[11]
논문
1993-00-00
[12]
논문
2006-00-00, 2004-00-00
[13]
논문
1980-00-00, 2004-00-00, 2006-00-00, 1990-00-00
[14]
논문
2004-00-00, 2006-00-00
[15]
논문
2004-00-00, 1988-00-00, 2005-00-00, 1993-00-00
[16]
논문
1980-00-00, 2006-00-00
[17]
논문
2004-00-00
[18]
논문
2004-00-00, 1993-00-00, 1997-00-00
[19]
논문
1990-00-00, 2004-00-00, 1993-00-00, 2007-00-00, 1997-00-00
[20]
논문
1980-00-00, 2004-00-00, 2006-00-00, 1984-00-00
[21]
논문
2004-00-00, 1993-00-00, 2005-00-00
[22]
서적
Computer Models of Mind
Cambridge University Press
1988-00-00
[23]
웹사이트
They're Made Out of Meat
http://www.terrybiss[...]
1990-00-00
[24]
서적
Beyond Conceptual Dualism: Ontology of Consciousness, Mental Causation, and Holism in John R. Searle's Philosophy of Mind
https://books.google[...]
Rodopi
2008-00-00
[25]
서적
Philosophy and Technology
https://books.google[...]
Cambridge University Press
1995-00-00
[26]
간행물
Minds, Brains, and Programs
http://citeseerx.ist[...]
1980-00-00
[27]
서적
哲学入門
https://www.hanmoto.[...]
筑摩書房
2014-03-05
본 사이트는 AI가 위키백과와 뉴스 기사,정부 간행물,학술 논문등을 바탕으로 정보를 가공하여 제공하는 백과사전형 서비스입니다.
모든 문서는 AI에 의해 자동 생성되며, CC BY-SA 4.0 라이선스에 따라 이용할 수 있습니다.
하지만, 위키백과나 뉴스 기사 자체에 오류, 부정확한 정보, 또는 가짜 뉴스가 포함될 수 있으며, AI는 이러한 내용을 완벽하게 걸러내지 못할 수 있습니다.
따라서 제공되는 정보에 일부 오류나 편향이 있을 수 있으므로, 중요한 정보는 반드시 다른 출처를 통해 교차 검증하시기 바랍니다.
문의하기 : help@durumis.com