중국어 방 혹은 중국인 방(영어: Chinese room)은 존 설(John Searle)이 튜링 테스트로 기계의 인공지능 여부를 판정할 수 없다는 것을 논증하기 위해 고안한 사고실험이다.
사고 실험
실험의 내용은 다음과 같다.
우선 방 안에 영어만 할 줄 아는 사람이 들어간다. 그 방에 필담을 할 수 있는 도구와, 미리 만들어 놓은 중국어 질문과 질문에 대한 대답 목록을 준비해 둔다. 이 방 안으로 중국인 심사관이 중국어로 질문을 써서 안으로 넣으면 방 안의 사람은 그것을 준비된 대응표에 따라 답변을 중국어로 써서 밖의 심사관에게 준다.
안에 어떤 사람이 있는지 모르는 중국인이 보면 안에 있는 사람은 중국어를 할 줄 아는 것처럼 보인다. 그러나, 안에 있는 사람은 실제로는 중국어를 전혀 모르는 사람이고, 중국어 질문을 이해하지 않고 주어진 표에 따라 대답할 뿐이다. 이로부터 중국어로 질문과 답변을 완벽히 한다고 해도 안에 있는 사람이 중국어를 진짜로 이해하는지 어떤지 판정할 수 없다는 결론을 얻는다. 이와 마찬가지로 지능이 있어서 질문 답변을 수행할 수 있는 기계가 있어도 그것이 지능을 가졌는지는 튜링 테스트로는 판정할 수 없다는 주장이다.
정형화된 논증
1984년 설은 좀 더 정식적인 버전으로 ‘중국어 방’을 통해 하고자 하는 이야기를 정리해서 발표했다. 그의 전제는 네 명제로 이뤄져 있다.
두 번째 전제는 중국어 방을 통한 논변으로 뒷받침되었고, 때문에 존 설은 오직 형식적인 통사론적 규칙에 따르는 방을 유지시켰으며 또한 이 방 안의 존재는 중국어의 의미를 이해하지 못한다. 존 설은 곧바로 세 가지의 결론을 도출했다.
결론 1. 어떤 컴퓨터 프로그램도 그 스스로에 의해 마음의 시스템과 같은 효과를 주는 데 충분하지 못하다. 프로그램은 마음이 아니다.
결론 2. 마음을 발생시키는 뇌의 기능이 작동하는 방식은 다만 컴퓨터 프로그램을 작동시키는 능력에 의한 것만은 아니다.
결론 3. 마음을 가진(혹은 마음을 발생시키는)모든 것들은 최소한 뇌와 동등한 수준의 인과력(causal powers)을 가지고 있어야만 한다.
설은 이 논증을 “과도하게 조야한(excessively crude)” 것으로서 기술한다. 이 논증이 실제로 타당한지에 대한 고려할 만한 논박이 존재한다. 그 논의들은 전제를 분석하는 다양한 방법으로 집중되어있다. 어떤 이는 전제 3이 컴퓨터 프로그램은 통사론적 내용을 포함할 수 있지만 의미론적 내용은 포함할 수 없는 것으로 읽을 수 있을 것이고, 또 전제 2, 3, 4는 타당하게 결론 1을 도출해 낸 것으로 결론낼 수도 있다. 이것은 논쟁을 컴퓨터 프로그램의 의미론적 내용의 기원으로 이끌고 간다.
반론
이와 같은 논리를 뇌 안의 뉴런과 언어이해력에 대해 적용해 보면, 인간조차 언어를 정말 이해하고 있는지가 불분명해지고 만다. 이에 대해 많은 학자들은 안의 사람은 중국어를 이해하지 못하지만 안의 사람과 중국어 방을 더한 총체는 중국어를 이해한다고 주장한다. 그리고 많은 컴퓨터 프로그래머들은 실제로 인공지능을 구현하는 방법이 중국인 방 이론과 차이가 없다고 주장하고 있다.[출처 필요] 한 예로 애플사의 시리는 본질적으로는 미리 저장된 데이터베이스를 통해서 입력된 문장을 분석하고 적당한 문장을 출력하는 '중국인 방 이론'에 의해 프로그램되어 있지만, 많은 사람들은 시리가 아주 훌륭한 인공지능의 예시라고 생각한다.