Мысленный эксперимент Сёрля «Китайская комната» вызвал огромное число споров и обсуждений на тему может ли компьютер думать. И это замечательно — сама по себе проблема моделирования мышления безусловно интересна. Но вот только сёрлевский эксперимент, на мой взгляд, который я попытаюсь обосновать в этом коротком тексте, имеет к этой проблеме очень далекое отношение.
Итак, комната, а в ней Сёрль, не знающий китайского языка, и книга с инструкциями, что и как делать с теми или иными иероглифами. Сёрлю в комнату передают китайские вопросы, на которые он с помощью инструкций получает ответы на китайском же и возвращает их обратно (при этом, естественно, ни черта не понимая). Далее китайские эксперты анализируют ответы и приходят к выводу, что комната прошла классический тест Тьюринга. Но тут из комнаты выходит Сёрль весь в белом и торжествующе заявляет: что если нечто и прошло тест, то это ничуть не значит, что оно хоть что-то понимает — вот он, Сёрль, как не знал, так и не знает китайского — он просто тупо следовал правилам без какого-либо понимания. Вот так прямо и сказал: «Таким образом, я выдержал тест Тьюринга на понимание китайского языка». Сказал, и вот уже три десятилетия все обсуждают так называемый аргумент «Китайской комнаты». А был ли мальчик? Была ли проблема? Давайте попробуем разобраться.
Прежде всего, несколько модифицируем ситуацию в комнате — заменим «умную» книгу с правилами на компьютер, точнее, на компьютерную программу — ведь именно она выдает выполняемые Сёрлем инструкции. Такую интерпретацию предлагал и сам Сёрль: «в данном случае книга правил есть не что иное, как «компьютерная программа» (Searle, John. R. Is the Brain’s Mind a Computer Program?). Понятно, что смысл эксперимента при этом ничуть не изменится. И что получим? Сёрль лишь принимает из щели листок с иероглифами и всовывает его в сканер, а затем вынимает ответ из принтера и передает его китайским экспертам. Так? И кто тут проходит тест: Сёрль или программа? Ясно, что Сёрль тут вообще не при чем.
Ведь, по сути, своим мысленным экспериментом Сёрль хотел подвести нас к выводу, что тест Тьюринга может быть пройден и без понимания, а, следовательно, не может быть критерием разумности. И вроде, выполнение Сёрлем операций над незнакомыми ему символами подтверждает его мысль: тест пройден, а понимания не было. Но тут Сёрль делает подмену: тест-то прошел не он, а книга/ программа, и следовательно, делать однозначное заключение о «природе» того нечто, что заключено в книге/программе, он не имеет права. Более того, ясно, что тот, кто писал книгу/программу, не только знал синтаксис и семантику китайского языка, но и передал эти знания программе. Иначе как бы она прошла тест?
Развивая компьютерную аналогию, можно представить всю комнату как один компьютер, а Сёрля необходимым компонентом этого компьютера, прошедшего тест Тьюринга. Спросим себя, какую роль играл Сёрль в этом компьютере? В качестве прикладной (исполняемой) программы выступала книга: именно она выдавала результат — разумные ответы на китайские вопросы. А Сёрль, получается, работал лишь драйвером ввода/вывода, интерфейсом, связывающим прошедшую тест программу и экспертов. Можно так же представить, что Сёрль играл роль программыинтерпретатора, что в большей степени соответствует логике мысленного эксперимента: получает команду и формально выполняет ее. Но в любом случае ясно, что драйвер ввода/вывода или программа-интерпретатор обязаны «знать» лишь язык/протокол общения с исполняемой программой (в случае с Сёрлем в комнате — английский), но они принципиально не могут «знать», что эта программа делает, какую функцию выполняет: просчитывает дифуры или анализирует семантику китайского предложения. Кому придет в голову требовать, чтобы клавиатурный и экранный драйверы, понимали язык, которым оперирует «интеллектуальная» программа?
Итак, компьютерная аналогия однозначно демонстрирует, что тест проходит именно «интеллектуальная» программа, алгоритм, книга, а не Сёрль, который лишь формально обеспечивает процедуру, для чего совершенно не нужно знать, что делает программа, на каком из человеческих языков она принимает и выдает информацию. То есть роль Сёрля в его эксперименте такова, что никакие его знания или незнания (китайского языка или чего-то еще) не могут повлиять на решение, принимаемое китайскими экспертами — тест проходит не он, а книга.
Особо подчеркну, что я ничего не говорю о самой возможности программного моделирования разума, ничего не говорю об адекватности теста Тьюринга как критерия успешности этого моделирования, я лишь отмечаю, что мысленный эксперимент Сёрля не является аргументом в этой области, то есть он ничего не утверждает ни о тесте Тьюринга, ни о разуме. Сёрль просто подменил проблему: вместо того, чтобы ответить на вопрос «возможно ли свести интеллектуальные или разумные действия к алгоритму?» (возможно ли создать программу/книгу, которая пройдет тест Тьюринга), он стал демонстрировать нам, что алгоритмы (ввода/вывода или интерпретации команд программы) можно выполнять и без понимания. Как будто мы это и без него не знали. Проблема ведь в том, как книга/программа могла выдавать такие разумные ответы, что смогла пройти тест Тьюринга, а не в том, понимал или не понимал их Сёрль/драйвер.
ЛИТЕРАТУРА
1. Searle, John (January 1990), Is the Brain’s Mind a Computer Program? Scientific American, vol. 262 no. 1, 26–31