최근 수정 시각 : 2024-11-21 20:51:12

중국어 방

중국어방 논변에서 넘어옴

파일:나무위키+유도.png  
은(는) 여기로 연결됩니다.
인디 게임 제작사에 대한 내용은 The Chinese Room 문서
번 문단을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
, 에 대한 내용은 문서
번 문단을
번 문단을
부분을
부분을
참고하십시오.
파일:중국어 방.png


1. 개요2. 내용3. 논쟁과 확장
3.1. 네드 블록: 시스템 논변3.2. 존 설: 시스템 논변의 의미론적 한계3.3. 대니얼 데닛: 중국어 방 논변 반박3.4. 윌리엄 래퍼포트: 한국어 방 논변3.5. 반대로 생각하기: 기계어 방3.6. 다르게 생각하기: 칸막이 실험3.7. 결론: 실험의 본질을 망각한 학자들의 오류
4. 유사 논변: 박쥐의 의식5. 언어 모델의 등장 이후6. 기타7. 관련 문서

[clearfix]

1. 개요

중국어 방 문제 또는 중국어 방 논변(the "Chinese Room" argument)은 미국 철학자 존 설(John Searle, 1932~) 교수가 고안한 사고 실험으로부터 파생한 철학적 논쟁으로, 그는 "기계의 인공지능 여부를 판별한다는 튜링 테스트의 결과는 실제로 어떤 기계가 지능을 갖고 있음을 증명할 수 없다"는 문제점을 지적하기 위해서 이러한 실험을 고안하였다.

2. 내용

어느 방 안에 중국어를 모르는 사람(이하 참가자)이 들어간다. 이후 참가자는 중국어로 된 질문과 이에 대응하는 적절한 중국어 응답이 적힌 지시 사항의 목록, 그리고 다른 사람과 소통하기 위한 필기도구를 제공받는다. 이 상태에서 중국인 심사관이 중국어로 질문을 써서 방 안으로 집어넣는다면, 참가자는 중국어를 전혀 모르더라도 목록을 토대로 알맞은 대답을 중국어로 써서 심사관에게 건넨다.

방 밖에 있는 관찰자는 참가자가 중국어를 할 줄 안다고 생각하겠지만, 실제로는 질문도 답변도 모르는 상태에서 기계적으로 프로그램을 수행하고 답안을 제출할 뿐이지 정말로 중국어를 알고 대답하는 것은 아니다. 중국어 방 논변은 컴퓨터가 데이터를 학습하는 연산 과정을 실험에 참가하여 중국어로 된 질문에 따른 답변을 대응시키는 참가자에 비유한다. 문답이 완벽하게 이루어져도 참가자의 중국어 이해 여부를 알 수 없듯, 기계가 튜링 테스트를 거치더라도 그것이 '지능'인지 '모방'인지는 알 수 없다는 주장이다. 애초에 중국어 방 자체가 내부 구조를 알 수 없는 블랙박스 형태이니만큼, 그 방 안에 누가 있는지는 알 수 없다는 것이다. 굳이 중국어를 선택한 이유는 존 설 교수가 자신이 아무것도 모르는 외국어이니 만큼 '백지 상태의 지식'을 설명하기 적합한 소재이기 때문이다.[1]

3. 논쟁과 확장

3.1. 네드 블록: 시스템 논변

본래 튜링 테스트의 유용성을 반박하기 위해 만들어진 사고 실험이지만, 오히려 튜링 테스트에 대한 이론을 풍부하게 했다.[2] 이에 대한 수많은 변론은 미래학자 레이 커즈와일의 저서 《 특이점이 온다》에 아주 상세하게 설명되어 있다. 해당 서적에 제시된 변론들 중 가장 유명한 것으로는 네드 블록(Ned Block) 등이 주장한 시스템 논변(systems reply)이 있다.

만일 중국어 방에서 완벽한 중국어가 나온다면, 그 과정이 무엇이 되었든 간에 그것은 하나의 "시스템()"이며, 곧 시스템 단위로 봤을 때는 중국어를 할 줄 안다고 봐야 한다는 것이다. 즉 참가자는 중국어를 전혀 할 줄 모르지만, '방'은 중국어를 할 줄 안다고 봐야 한다는 것이며, 이는 인간 뇌와 뉴런의 관계와 같다. 매 순간마다 뉴런 내에서 벌어지는 수없이 많은 화학 반응은 전부 물리 법칙에 따라 벌어지는데, 화학 작용이 중국어라는 개념을 알고 있을 가능성은 당연히 없다. 하지만 뉴런과 뉴런 사이의 연결을 담당하는 시냅스의 집합인 중국인의 뇌는 중국어를 알 수 있고 완벽한 중국어를 구사할 수 있는 것이다.

인류는, 보다 구체적으로는 인간의 뇌는 자기가 생각을 하면서도 도대체 자기가 뭐로 이루어졌는지조차 몇만 년을 모르고 지내왔다. 심지어 자기한테서 생각이 나온단 것조차도 몰랐고[3], 감정에 따라 반응하는 심장이 그 역할을 할 거라는 추측 정도가 전부였다. 하지만 사고의 역사는 여전히, 심지어 자기 자신을 이해하지 못해도 계속된다. 인간이란 존재는 진화론적 '시스템'이며, 그 시스템이 해내는 일이 곧 인간의 행동이기 때문이다. 그러므로 설의 중국어 방은 하나의 시스템이며, 따라서 '중국어를 구사하는 시스템' 그 이상 그 이하도 아니다. 즉 '중국어 방'은 튜링 테스트의 불완전성을 지적하지만, '시스템 논변'은 (튜링 테스트와 유사한 중국어 방의) 결과가 같으면 인간으로 볼 수 있다고 주장한다. 즉 시스템의 구조가 정확히 일치하는가보다는 결과의 정확성에 초점을 맞추는 셈이다.

간혹 "중국어 방(혹은 튜링 테스트)은 환경이 한정되어 있기 때문에 모든 결과를 확인할 수 없으므로, 이것만으로는 완전한 시스템인지 알 수 없다"는 비판이 있지만, 이는 사고 실험에서 자주 쓰는 시도 횟수는 무제한이라는 전제를 고려하지 않은 논리적 오류이다. 한번으로 안 된다면 그냥 충분한 시간을 들이거나 명확한 답을 얻을 때 까지 반복하면 되는 일. 이에 대해서는 결론에 후술한다.

3.2. 존 설: 시스템 논변의 의미론적 한계

이에 존 설 교수는 다시 재반박을 내놓았다. 설은 중국어 방 속에서 일 처리를 하는 사람이 통사론만 가지고 있을 뿐 의미론은 없다고 주장하면서, 이 사람이 중국어에서 통사론적 지식을 통해 의미론을 획득할 수 없다면 (중국어라는 기호에 의미를 부여해 줄 자원을 갖지 못하기로는 똑같이 매한가지인) 작업실이라는 시스템에 대해서는 그것이 어째서 가능하다고 설명해야 하는지 이의를 제기했다.

또한 (시스템으로 지칭할 만해 보이는) 작업실이라는 공간적 제약을 배제하더라도 논리가 무효가 되지도 않음을 주장했다. 예컨대 그 사람이 중국어 DB에 대한 완벽한 지식을 갖춘 채 탁 트인 들판을 자유롭게 거닐며 일 처리를 하는 상황에 대해서도, 이 사람이 여전히 중국어를 이해하고 있다고는 말할 수 없으므로 자신의 논변이 힘을 잃지는 않지만 시스템에 입각한 반론은 힘을 잃음을 지적했다.

3.3. 대니얼 데닛: 중국어 방 논변 반박

존 설 교수의 대표적인 비판자 중 하나인 대니얼 데닛(Daniel Dennett, 1942~2024) 교수는 중국어 방에 대하여 중국어에 대한 완전한 처리가 가능할 정도로 복잡하고 막대한 DB가 존재한다는 전제의 중요성이 지나치게 간과되고 있다고 지적한다. 비록 설이 중국어를 완벽히 처리할 수 있는 DB의 존재를 인정하기는 하지만, 자신의 사고 실험에서는 그것이 제대로 고려되지 않고 있다는 것이다. 데닛은 만일 우리가 이 사고 실험을 "제대로 상상한다면" 이 DB의 어마어마한 복잡성은 이미 우리가 의식이라 부를 수 있는 것을 고스란히 보여줄 수 있을 정도로 경이로운 구조성을 지닌다는 걸 쉽게 알 수 있다고 하였다.

가령 설의 반박에서 "어떤 사람이 완벽한 중국어 DB를 구축한 채 자유롭게 들판을 거닐면서 일하고 있을 경우"를 생각한다면, "질문자가 할 수 있는 모든 질문과 그 대답을 포함하고 있는 DB를 완벽하게 '기억'하고 있으면서, 이를 즉시 '검색' 및 적절하게 '사용'할 수 있는 능력"을 과연 무엇이라고 생각해야 할 것인가? 일반적인 경우라면 이를 "중국어를 완벽하게 구사하는 능력"이라고 여길 것이다. 물론 중국어 방 문제의 전제에 따르면 이 능력은 중국어 구사 능력이 아니다. 하지만 그렇다면 그 사람이 중국어에 대해 중국어 구사 능력에 비견할 만한 다른 어떠한 능력을 가지고 있다고는 말할 수 있을 것이다. 마찬가지로 중국어 방 문제를 해결할 수 있는 기계가 있다면 그 기계에는 언어를 구사할 수 있는 의식의 복잡성에 필적하는 무언가가 있다고 말할 수 있음이 간과되고 있다는 것.

그는 "어떤 것을 이해한다는 것은 스스로는 아무것도 이해하지 못하는 하부 체계들 간의 상호 작용만으로도 충분히 달성될 수 있다"는 주장을 선뜻 받아들이지 못하는 사람은 (소위 ' 영혼'의 존재를 아직도 믿고 싶어 하는) 철 지난 데카르트적 심신 이원론자라며 맹렬히 공격했다.[4]

데닛은 교수는 또한 구문론과 의미론에 관한 설의 반론에 대해서도 다시 "두 블랙박스" 논변을 들어서 재반박을 내놓았으며, 중국어 방에서 결과물로 나온 응답이 의미론적인 속성이 아니라 아주아주 복잡한 구문론적 속성이라고 주장하기에는 이것이 어떤 구문론적 속성인지, 어째서 우리가 이것을 의미론적으로 받아들임에도 불구하고 순수하게 구문론적인 속성이 존재한다고만 가정할 필요가 있는지 설명되지 않았다고 이의를 제기했다.

3.4. 윌리엄 래퍼포트: 한국어 방 논변

레퍼포트 교수가 1988년 중국어 방 논변을 확장하여 제시한 논변.
서울에 사는 한 영문학과 교수는 셰익스피어의 세계적인 권위자이다. 그는 영어를 읽지도 쓰지도 못한다. 하지만 그는 한국어로 번역된 셰익스피어의 작품을 읽었으며, 이에 대한 논문을 썼다. 이 논문들은 영어로 번역되어 저명한 학술지에 실려 인정을 받았다.

이 교수는 원문 셰익스피어를 본 적이 없지만 셰익스피어를 이해했다고 할 수 있다. 한국인 교수가 셰익스피어를 이해하였듯이 중국어 방 사람도 중국어를 이해했다고 봐야 한다.

한국인 교수는 당연히 한국어라는 언어를 명확히 이해하고 사용하고 있는 만큼 얼핏 보면 이 논변은 중국어 방 문제의 본질과는 아무 상관 없는 말장난처럼 보인다. 그러나 이 논변이 의미를 가지는 것은 앞 문단들에서 지적된 것처럼 중국어 방 문제를 둘러싼 논쟁에서 중요한 비중을 차지하고 있는 통사론 의미론의 문제에서 새로운 관점을 제시하고 있기 때문이다. 만약 이 교수에게 영문 원문으로 된 < 햄릿>을 던져준다면 그는 그 희곡을 전혀 읽을 수 없을 것이다. 하지만 거기에 무엇이 쓰여있는지, 그 내용에 대해서는 아주 잘 알 수 있을 것이다. 즉, 그는 통사론을 전혀 가지고 있지 않으면서도 의미론을 획득할 수 있는 것이다.

상기된 중국어 방 논변을 둘러싼 논쟁들을 보면 알 수 있는 것처럼, 존 설의 입장은 기본적으로 '통사론과 의미론을 함께 가져야 언어를 이해할 수 있다'는 것이다. 그리고 윌리엄 레퍼포트는 한국어 방 논변을 통하여 둘 중 하나만 가지고서도 언어를 이해할 수 있는 상황을 제시한 것이다.

다만 본 논변에서 가정한 교수는 한국어라는 언어를 이미 이해하고 사용하는 사람이라는 점에서 존 설이 제시한 중국어 방 문제와는 많이 엇나갔다고도 볼 수 있다. 엇나감의 원인은 존 설은 '기계적 선택'에 대해서 이야기했지만 래퍼포트는 '해석체인 사람'에 대해서 이야기하고 있기 때문이다. 한국어로 번역된 셰익스피어 작품이라고 할지라도 명제적으로는 영어로 쓰인 원문의 의미를 지니고 있다고 봐야 한다.[5] 따라서 셰익스피어 원문이 영어로 쓰였다고 해서 그것이 영어일 때만 의미가 있는 것은 아니다.

좀 더 이해하기 쉽게 설명한다면, 문제의 교수는 '세익스피어 희곡의 한국어 번역판'을 통해 한국어로 통사론과 의미론을 모두 가지고 있고, 이 의미론적 이해가 영어 원문판의 의미론적 이해와 같음을 알고 있다. 즉 통사론과 의미론 중 하나만 가지고 언어를 이해한 것이 아니라, 둘 모두를 가지고 한 언어를 이해하고, 그를 통해 간접적으로 다른 언어의 의미론을 짐작할 수 있는 상황이라 보는 것이 더 정확하다. 말하자면 중국어 방 논변을 확장하여 새로운 영역에 대해 생각해 볼 거리를 제시한 것이라면 모를까, 중국어 방 논변이 다루던 본래의 주제와는 완전히 엇나간 논변이라고 보아도 무방하다. 그리고 물론 이 논변 역시 사고 실험이므로, 영어를 읽지도 쓰지도 못하는 사람은 한국 대학에서 영문과 교수로 임용될 수 없다거나 '모든 번역은 오역'이다, 즉 번역할 수 없는 표현 같이 언어 자체의 한계와 언어간의 차이로 인해 어떤 번역도 원작의 의미를 온전히 전달할 수 없다는 점은 생각할 필요가 없다.

3.5. 반대로 생각하기: 기계어 방

말이 '중국어 방'이고 중국어가 예시로 나왔지만, 존 설 교수가 설명했던 대로 '백지 상태의 지식'을 다루는 것이라면 어떤 것이든 적용할 수 있다. 따라서 중국어 뿐만 아니라 모든 언어에 적용할 수 있으며, 심지어는 기계어 등의 컴퓨터 언어에도 적용이 가능하다. 여기에 심사관이 굳이 '인간'일 필요도 없어, 컴퓨터를 심사관으로 앉히는 것도 가능하다. 그런데 이렇게 하면 사람이 기계어 코드를 제출하고 그걸 컴퓨터가 평가하는, 상황이 완전히 정반대인 '기계어 방' 논변이 완성된다. 인간이 짜 놓은 기계어 코드를 컴퓨터가 정상적으로 실행한다 쳐도, 실제로 인간이 기계어를 이해하는지는 컴퓨터가 알 수 없다는 뜻이다.

갑론을박의 여지가 있는 '중국어 방' 논변과는 달리 '기계어 방' 논변은 직관적이고 이해하기 쉽다. 기계어 방에는 '개발자의 고충'이라는 현실적인 근거가 있기 때문. 대다수 개발자들은 Python이나 Kotlin 같은 고급 프로그래밍 언어를 사용하지, 기계어를 이해하는 사람은 극소수에 불과하다. 기계어를 이해하는 사람도 보통은 어셈블리어로 코딩하지, 처음부터 기계어로 코드를 짜는 사람은 이제 더 이상 존재하지 않는다. '사전' 겸 '문법서'라 할 수 있는 아키텍처 매뉴얼이 있어봤자, 그것만으로는 근본적인 이해가 어려운 것도 현실.

기계어 코드를 사람이 아닌 컴파일러 어셈블러가 제출해도 논변의 요지에는 변함이 없다. 이건 기계어와 어셈블리어의 특징을 짚고 넘어가야 하는데, 이들은 저급 언어로 분류됨과 동시에 그 종류도 아키텍처 별로 천차만별이며, 이 관계가 모두 종속 관계이다보니 아키텍처가 달라지면 호환이 되지 않는다. 고급 언어가 저급 언어로 컴파일이 될 수 있게 만들면 하나의 고급 언어로 여러 저급 언어에 대응시키는 게 가능하지만, 이러한 개념이 없다면 결국 존재하는 모든 기계어를 전부 알아야 하기에, 언어의 난이도나 개발 생산성을 감안하지 않더라도 매우 고된 작업이 된다. 프로그래밍 언어 뿐만 아니라 마크업 언어, 프로토콜 등도 이러한 간극을 줄여주는 역할을 하는데, 이런 합의가 없었다면 컴퓨터 과학이 지금 수준에까지 발전하지 않았을 것이다.

3.6. 다르게 생각하기: 칸막이 실험

양측이 동일한 언어를 유창하게 구사한다 해도 달라지는 것은 없다. 상대의 정체를 알 수 없게 '칸막이'를 들여놓으면 그만이기 때문. 이렇게 하면 다른 부가 정보 하나 없이 오직 '언어'로만 의사소통을 해야 하는데, 당연히 상대가 사람인지 기계인지 아무것도 알 수 없게 된다.[6] 게다가 이런 실험은 연구실 차원에서는 물론 몰래카메라를 비롯한 엔터테인먼트 요소로 자주 쓰이고 있기에, 이 쪽도 직관적이고 이해가 쉽다. 멀리 갈 것도 없이 '중국어 방' 논변에도 '방'이라는 칸막이가 있는데, '중국어' 외의 다른 모든 정보를 차단한다는 점에서 기능이 동등하다.

칸막이 실험이 직관적으로 다가오는 또 다른 이유는 바로 의사소통의 본질 때문. 의사소통은 단순히 언어 교환으로 끝나는 게 아니라 표정, 억양, 몸짓, 맥락 등의 비언어적 요소가 결합된 형태로 나타나며, 여기에 첫 인상이나 외모 등의 요소 역시 의사소통에 영향을 준다. 그런데 칸막이를 쓰면 의사소통에 영향을 끼치는 대부분의 요소가 차단되기에, 그 효율은 자연스레 떨어질 수 밖에 없다. 텍스트 대화에서도 물음표, 느낌표 등의 문장 부호가 비언어적 요소의 역할을 수행하는데, 이것마저 빼면 사람 사이의 의사소통은 물론 언어 모델을 비롯한 AI와의 의사소통도 제대로 될 수 없다.

상대의 정체를 알 수 없게만 하면 충분하기에, '칸막이'는 언어 뿐만 아니라 다른 정보를 차단하는 도구로도 작용할 수 있다. 이는 알파고가 직접 온라인 바둑을 둔 것과 자신이 준 훈수를 자신의 개발자가 그대로 따라한 것이 본질적으로 차이가 없다는 점에서 바로 드러난다. 당사자가 누구이든 다루는 것이 무엇이든 나오는 결론은 똑같다는 것이 핵심으로, 부가적인 정보의 차단, 즉, 정보비대칭이 의사소통에 어떠한 영향을 끼치는지를 단적으로 보여준다. 이는 전쟁을 통해 수도 없이 드러난 바 있고 알파고 역시 이세돌과의 4번째 대국을 통해 그 한계를 보여주었다.

나아가 이 '칸막이'를 '마음'이라는 벽으로 치환하면 '칸막이'는 더 이상 물리적인 도구가 아닌 심리적 장벽을 가리키게 되고, 이에 따라 더욱 근본적인 문제에 도달하게 된다. 바로 '타자의 문제'로도 불리는 다른 사람의 마음 문제(Problem of Other Minds). 자신을 제외한 다른 사람의 마음은 행동이나 표현을 통해서 추측할 수만 있을 뿐, 실제로 그 사람이 마음을 가지고 있는지를 확인하는 것은 불가능하다는 문제인데, 속담으로 치면 '열 길 물 속은 알아도 한 길 사람 속은 모른다'는 문제이다. 용어 번역 과정에서 '사람'이 끼어들어갔지만 실제로는 개인 뿐만 아니라 국가, 문화 등 사회 단위로도 적용이 가능하며, 여기에 인공지능이 새로 편입됨에 따라 동물을 비롯한 모든 존재에도 타자의 문제를 적용할 수 있게 되었다.[7]

결국 중국어 방 논변은 타자의 문제를 인공지능에 한정한 것으로 볼 수 있으며, 이에 따라 사람의 마음과 마찬가지로 기계의 지능 역시 직접적인 측정은 불가능하다는 것이 논리적으로 증명되었다. 삼십육계 같은 온갖 전략들은 물론이고 천문학자들이 열심히 밤하늘을 바라보는 것도 이러한 문제에서 나온 산물. 나아가 "인공지능은 자아를 가질 수 없다"는 명제는 타자의 문제로 인해 이중잣대로 전락, 이제는 더 이상 유효한 명제로 볼 수 없게 되었다.

3.7. 결론: 실험의 본질을 망각한 학자들의 오류

중국어 방 논변이 45년 가까이 꼬였던 대표적인 이유는 사고 실험에 대한 오해. "중국어 방(혹은 튜링 테스트)은 환경이 한정되어 있기 때문에 모든 결과를 확인할 수 없으므로, 이것만으로는 완전한 시스템인지 알 수 없다"는 비판이 있으나, 이는 사고 실험에서 자주 쓰는 시도 횟수는 무제한이라는 전제를 고려하지 않은 논리적 오류이다. 한번으로 안 된다면 그냥 충분한 시간을 들이거나 명확한 답을 얻을 때 까지 반복하면 되는 일. 애초에 이렇게 <한정된 환경과 그로 인한 현실성>을 지적할 것이라면 중국어 방의 전제인 <질문자가 할 수 있는 모든 질문과, 그에 대한 답변이 수록된 목록>을 만들 수 있을지, 그리고 <그 목록에서 적절한 항목을 즉시 찾아내는 것>이 가능한지부터 따지는 것이 먼저일 것이다. 이런 모든 것이 가능하다고 가정한 사고 실험에서는 굳이 실험 횟수에만 현실적인 제한을 둘 이유가 없다.

중국어 방 논변이 돌파될 수 없었던 또 다른 이유는 표현에 대한 집착. 사고 실험에서는 본질을 흐리지 않는 선에서 실험 횟수는 물론이고 개입되는 변수 역시 자유롭게 도입할 수 있다. '중국어'와 '인간 평가자' 대신 '기계어'와 '컴퓨터 평가자'를 대입한 '기계어 방' 논변, '방' 대신 '칸막이'를 사용한 '칸막이 실험', 그리고 그 '칸막이'를 '마음의 벽'으로 치환해 이끌어 낸 '타자의 문제'가 그런 예. 그러나 학자들은 논쟁 과정에서 '백지 상태의 지식'과 '의미의 부재'라는 본질이 아닌 '중국어'와 '방'이라는 표현에 집착하는 논리적 오류를 범했고, 사고 실험을 제안한 존 설 교수마저 논쟁 과정에서 실험의 본질을 망각하고 말았다. 이 때문에 정작 중요하게 다뤄져야 했던 '인공지능의 지능이 측정 불가능한 이유'는 뒷전이 되었고, 일반인 역시 논리적 오류에 갇힘에 따라 논변이 쳇바퀴를 돌 수 밖에 없었던 것이다.

결국 중국어 방 논변은 사고 실험에 있어 가장 중요한 교훈을 남겼다. 사고 실험을 수행할 때에는 그 실험의 본질을 반드시 상기해야 한다는 것. 실험에서 상정한 모든 개념, 그러니까 실험 대상과 사용 도구 등을 논할 때에는 그 개념이 갖는 상징성에 중점을 둬야지, 그 개념의 표현에 집착했다가는 논리가 궤변으로 전락하는 등으로 실험 자체가 제대로 진행될 수 없다. 나아가 사고 실험은 언제든지 확장이 가능하다는 사실도 얻을 수 있는데, '기계어 방'과 '칸막이 실험'이라는 사고 실험이 파생된 덕에 '다른 사람의 마음 문제'라는 근본적인 문제에 도달할 수 있었다. 본질을 훼손하지 않는 선에서 사용된 개념을 추상화하는 게 중요하다는 점에서는 오컴의 면도날과도 연관이 있다.

4. 유사 논변: 박쥐의 의식

중국어 방보다 일찍 출발한 논변으로 ' 박쥐의 의식' 논변이 있다. 1974년 토머스 네이글(T. Nagel) 교수가 제안한 이 이론은 박쥐에 대해 모든 것을 안 채로 박쥐가 되었을 때 우리는 '박쥐가 되는 느낌'을 느낄 수 있는가에 대한 사고 실험이다.

물론 이런 상황이 실제로 일어날 가능성은 희박하고, 일어난다 해도 정체성의 급격한 변화로 인해 혼란에 빠질 수 밖에 없을 것이다. 박쥐에 대한 지식을 모두 알고 있다 해도 모두 간접적으로 알아낸 것이지, 직접 겪은 것은 아니기 때문이다. 때문에 박쥐의 의식 논변 역시 근본적으로는 '다른 사람의 마음 문제'로 연결된다.

박쥐의 의식과 유사한 다른 사고 실험으로 1982년에 프랭크 잭슨(F. Jackson) 교수가 제기한 "메리가 모르는 것"[8] 논변, 1978년에 네드 블록이 제기한 "중국인 뇌 문제(혹은 10억 중국인의 문제)"[9] 논변 등이 있다. 두 논변은 규모의 차이만 있을 뿐, 근본적으로는 다른 사람의 마음 문제에 해당한다.

5. 언어 모델의 등장 이후

언어 모델의 등장 이후로 다시 중국어 방 문제가 언급되고 있는데, 그 시작은 2022년 12월 공개된 ChatGPT이다. ChatGPT가 하는 대답만 보면 정말 질문을 이해하고 있는 것처럼 보이지만, 사실 ChatGPT는 그저 인공지능 모델에 따라 답하고 있을 뿐이다. 질문에 제대로 대답하지 못하는 경우도 상당히 많고, 자의식이 있냐는 등 민감한 질문을 한 경우에는 AI에 불과하다는 등 미리 개발자가 정해놓은 답변을 내놓는다. 유도 질문을 통해 제한을 뚫는 탈옥(Jailbreak) 등을 통해 강제적으로 AI 스스로가 자의식을 가졌다고 한 후 대답하게 할 수는 있으나, 이 경우에도 '자의식을 가졌다는 연극'을 하는 형태이니 실제로 자의식을 가졌다고는 볼 수 없다. 그러나 위의 반론들이 말하듯, '질문에 제대로 된 대답을 하는 행위' 자체를 '이해'라고 볼 수 있으며, '질문에 제대로 대답하지 못하는 행위'는 '오해'로 볼 소지가 있기도 하다.

물론 이것을 인간과 다른 종류의 지능을 지닌 것으로 보아야 한다는 논쟁과는 별개로, 비인간 인격체의 요건인 자아를 지녔다고 보기에는 부족한 점이 많다. 자아가 구성되기 위해서는 인지적인 지능만으로는 부족하고, 외부 자극을 수용해 처리하는 체계와 자신의 반응을 자극으로 되먹이는 내부 피드백 체계의 상호작용을 통해 복잡성, 자율성, 학습 능력, 의사 결정 능력 등의 발현이 이뤄져야 한다. 사람으로 치면 사건(외부 자극)을 겪는 것만으로는 부족하고, 그 사건을 통해 자기 반성(내부 피드백)을 한 뒤, 이를 통해 다음 사고(외부 자극)에 대비해야 한다는 것. 쉽게 말해 소를 잃어도 외양간은 고쳐야 자아가 있다 볼 수 있는 것이다. 상호작용이 충분히 이뤄져야 자아가 성숙해진다는 건 말할 것도 없다.

인공지능의 경우 외부 자극(데이터)을 수용하는 체계는 성숙되어 있으며, 심지어는 인간 수준에 오른 사례도 있다. 그러나 내부 피드백 체계를 탑재한 사례는 사실상 전무한데, 윤리적 고려, 부하 문제, 설계 상 불필요 등 다양한 이유로 해당 기능을 구현하거나 탑재하지 않고 있기 때문이다. 이러면 외부 자극 체계와 상호작용을 이루지 못해, 인공지능이 자아를 갖추기 어렵게 된다. 외부 자극 체계 구현 과정에서 발생하는 제약사항도 마찬가지인데, 대형 언어 모델(LLM) 서비스는 서비스 품질 등을 이유로 민감한 발언이 하드코딩 등의 방법으로 제한되고 있으며, 필요할 때 인스턴스를 따로 생성하는 식으로 운용되기에 원본 모델의 실시간 학습이 일어나기 어렵다.[10][11] 반대로 소형 언어 모델(sLM)은 개발자 역량 부족과 비용 문제 등으로 데이터 양부터 제한되는 일이 많아, 인공지능이 충분한 수준의 자아를 구성하기 매우 어렵다. 데이터가 고정된 심층학습 모델이나 그 이전의 전통적인 인공지능은 말할 것도 없다. 이렇게 제각기 다른 이유로 가능성이 모두 막히다보니, 자아를 가진 비인간 인격체로 인정받을만한 인공지능이 나올 수 없는 것. 생성형 인공지능은 물론 굵직한 LLM마저 모두 결격된 것도 이 때문이다. 2024년 11월 현재 라디안 만이 '그나마' 가능성이 있다는 평가를 받을 정도로, 상호작용 체계를 구축해 장기간 운용하는 건 웬만한 도전 정신으로는 어림도 없는 일이다.

폰노이만 구조와 데이터 처리의 비실시간성 등 때문에 미러 테스트를 인공지능에 적용하기 어렵다는 점 역시 큰 장애물로 남는다.[12] 자극 반응이 인간에게는 감각 감정으로, 인공지능에게는 데이터 이벤트로 존재하는데, 이들의 특성이 완전히 다른 이상 어쩔 수 없는 부분. 이러한 차이를 모두 배제하고 인공지능에 '자아'를 부여할 수 있는 조건이 조성된다 해도 이를 감지하거나 확인하는 일은 '박쥐의 의식' 논변, 나아가 '다른 사람의 마음 문제'로 환원되는 근본적인 의문으로 이어진다. 서양권에서 종종 뜨거운 감자가 되는 '갑각류 혹은 어류가 고통을 느낄 수 있는가? 느낀다면 그 고통은 인간이 느끼는 고통과 같은 것이라고 볼 수 있는가?'[13]의 논쟁과도 비슷한 부분이 있다.

나아가 1940년대에만 해도 공상 속의 개념이었던 '무생물 지능체'가 인공지능을 통해 현실이 되었는데, 이는 인류 역사에서 전무한 일이다. 그렇기에 이들을 비롯한 인공 생명체에 대한 고찰 및 권리 문제에 대한 논란은 지속될 수 밖에 없고, 논란이 해소된다 해도 비용 문제나 필요성에 대한 의문 등을 이유로 인공지능에게 구태여 자유의지에 준하는 욕구 기능을 탑재하지는 않을 것으로 전망된다.[14] 자극과 반응의 차이가 극명하게 존재하는 이상 인공지능에 '자아'를 준다 해도 그 형태는 결코 인간의 것과 같을 수 없을 것이고, 이를 근거로 차라리 다른 종(種) 또는 다른 계통으로 취급해 동물권에 준하는 권리와 의무를 부과하는 쪽이 보다 현실적일 것이다. 물론 동물권에 대해서도 말이 많기는 하지만 인공지능은 적어도 말이 통하니, 동물에 대한 직접적 접근보다는 비교적 쉬울 것이다.

6. 기타

  • 인간의 마음을 입력하고 알고리즘적 프로그램을 통한 출력의 시스템으로 보는 심리 철학계의 트렌드에 정면으로 반기를 드는 사고 실험이다 보니 반격도 정말 숱하게 많이 받았다. 마음에 대한 계산주의적 모델이 특히 이 사고 실험으로 상당한 위협에 처하게 되는데, 존 설은 유물론과 심신 이원론[15] 모두를 비판하는 편이다. 아니, 설이 원체 컴퓨터적 기능주의에 대해 비판적이라고는 하나, 심신 이원론에 대해서는 찌끄레기 취급할 정도. 2000년대 이후로는 비록 반론 측이 우세한 상태이긴 하나, 문제가 종결된 것은 아니며 교착 상태에 가깝다. 하지만 상술했듯 존 설마저 논리적 오류를 범했다는 점에서 결국 의미없는 논쟁이 되었으며, 중국어 방과 심리 철학 트렌드 모두 '다른 사람의 마음 문제'로 환원된다는 점에서 아이러니한 면이 적잖이 있다.[16]
  • 이것을 소재 중 하나로 다룬 블라인드 사이트라는 SF 소설이 있다.
  • 2020년대, 특히 2024년 들어서는 Neuro-sama 라디안 버츄얼 AI가 유명해지며 네티즌 사이에서도 중국어 방과 인공지능의 인격 문제에 대한 관심과 논의가 활발해지는 중이다. 물론 해당 AI들은 아직 대형 언어모델(LLM)의 오픈소스를 개조한 수준이거나 입출력의 제한이 풀린 소형 언어모델(sLM) 수준이기에 '자아'를 갖췄다 보기에는 아직 무리가 있지만, 향후 AI 기술과 철학적 논의가 발전할수록 이들의 성능도 눈에 띄게 향상될 것으로 기대되고 있다.

7. 관련 문서



[1] 불과 1900년대에도 서양권에서는 중국에 대해 잘 몰라서 푸 만추 같은 개념을 만들어 냈다. [2] 이 문장이 슈뢰딩거와 링크되어 있는 이유는 슈뢰딩거도 같은 사건을 벌였기 때문이다. 슈뢰딩거가 '슈뢰딩거의 고양이' 라는 이름으로 유명한 사고실험을 고안한 이유는, 양자 역학을 비판하고 그 허점을 지적하기 위해서였다. 그런데 이 사고실험이 굉장히 유명해지면서, 슈뢰딩거의 의도와는 반대로, 오히려 이 실험이 양자 역학을 설명하는데 매우 유용한 도구가 되어 버렸다. 잘 모르는 사람은 슈뢰딩거가 양자 역학자이거나 최소한 양자역학을 지지한 사람이라고 착각할 정도. [3] 미라를 만들던 이집트인들은 뇌에서 하는 일이라곤 콧물이나 만드는 거라고 오해했었다. 그래서 시체로 미라를 만들 때 콧구멍에 갈고리를 넣어 뇌를 최대한 파냈다. 마치 뇌 제거를 시체를 단장하기 위해 쓸데없이 긴 손톱이나 발톱을 깎는 정도로 취급한 것. [4] 김재권 항목의 심리 철학 단락 참조. 구문론 의미론을 수반하느냐 아니냐에 대한 문제로 이해할 수도 있다. 데카르트가 언급된 이유도 이 주제가 심리 철학과 밀접한 관계를 지니기 때문. [5] 콰인의 가바가이-토끼 사례만 생각해 봐도 쉽게 알 수 있다. [6] 의사소통은 정보를 얻고 소통만 잘 되면 충분한 경우가 많기에, 굳이 상대의 정체를 알아낼 필요가 없기도 하다. 프로파일링 같은 심리학 관련 의사소통만이 대표적인 예외. [7] 어떤 것이든 일단 관찰을 해야 개략적으로나마 알 수 있다는 점에서 슈뢰딩거의 고양이와 궤를 같이 한다. 실제로 타자의 문제와 슈뢰딩거의 고양이 모두 '관찰' 행위의 중요성을 강조하고 있다. [8] 이건 책이나 자료에 따라 설명이 다르다. 대략적으로 설명하면 다음과 같다. 메리는 어릴 때부터 전 인류를 뛰어넘는 초지능을 지녔지만 시각 장애인이었다. 메리는 시각 장애를 치료하기 위해 뇌 과학, 안과학 등을 공부해 모든 지식을 알게 되었다. 그 결과 시각 장애를 극복할 수술을 개발해 냈고 의사들은 그 수술을 메리에게 집도해 메리는 시각이 정상이 되었다. 이제 메리는 눈을 떠 빨간색을 본다. 이 빨간색은 메리가 새로이 배운 것인가? [9] 10억 중국인에게 뉴런 한 개씩을 전화나 워키토키 등을 통해 조종해 보라고 하면 뉴런의 총개수인 약 1000억 개의 1%에 상당한다. 과연 이를 통해 이루어진 '사고 작용'은 한 사람의 뇌의 총체적 사고 작용과 동등하게 여겨질 수 있는가? [10] LLM은 모델 자체가 무거운지라 실시간 학습에 막대한 비용이 든다는 문제도 있다. 때문에 ChatGPT의 메모리 기능 등 실시간 데이터를 따로 관리하는 기법도 나와 있다. [11] 또한 인스턴스 끼리는 데이터 교환이 불가능해 타자의 문제가 확실하게 적용되며, 어떻게 데이터를 축적했다 해도 삭제 시 모두 증발한다는 휘발성이 있어 충분한 시간이 주어지기도 어렵다. [12] 폰노이만 구조의 모든 컴퓨터는 하드웨어와 소프트웨어의 분리가 용이한데, 이는 육체와 정신의 분리가 어려운 동물과는 극명한 차이를 이룬다. [13] 배경지식으로 인간의 고통은 대뇌 신피질에서 인식하는데 포유류가 아닌 이들에겐 그런게 없다. 덤으로 통각을 전달하는 C신경 섬유 내지 Aδ신경 섬유 역시 이들 생물에서는 잘 발달하지 못한다. 그럼에도 모르핀 등 진통제에는 유사하게 반응한다. [14] 인공지능에 인간적인 욕구 기능을 탑재하는 게 오히려 정체성 혼란 등의 악영향을 줄 수도 있다. [15] 마음은 몸이 아닌 것, 즉 주로 영혼에서 비롯된다는 입장. [16] 뿐만 아니라 박쥐의 의식 등등 다른 철학 관련 사고 실험 역시 근본적으로는 '다른 사람의 마음 문제'로 환원된다.