В.В. Васильев (Москва)
Многие согласны, что история философии – это история аргументации по традиционным фундаментальным вопросам. Плодотворность той или иной эпохи определяется масштабностью набора аргументов, придуманных в ее рамках. XX век в этом смысле second passport by investment оказался на очень высоком уровне. Одним из самых обсуждаемых философских доказательств, изобретенных в истекшем столетии, стал так называемый Аргумент китайской комнаты, предложенный знаменитым американским философом Джоном Сёрлом в 1980 году.
Популярность аргумента Сёрла, презентованного им в статье «Сознания, мозги и программы» и повествующего о человеке-компьютере, скрытом в особой комнате, которая позволяет создать впечатление его владения китайским языком для людей вовне, хотя он совершенно не понимает по-китайски, связана с тем, что ему удалось подорвать веру в создание искусственного аналога человеческого интеллекта. Эта идея вдохновляла множество когнитивных ученых1, и неудивительно, что они попытались ответить Сёрлу. Все эти многочисленные ответы2 и породили мощный резонанс, вызванный его Китайской комнатой. Некоторые, в частности П. Хэйс, в шутку даже предлагали переопределить когнитивную науку как «исследовательскую программу, направленную на доказательство ложности сёрловского Аргумента китайской комнаты»3. По прошествии четверти века можно, однако, констатировать, что сёрловская Комната хотя и расшаталась, но устояла. В этой статье я попытаюсь показать, что она устояла потому, что критические нападки на Сёрла исходили в основном от когнитивных ученых. Их ангажированность идеей компьютерного аналога человеческого интеллекта мешала акцентировать важный дефект Китайской комнаты4.
Начнем с небольшого экскурса в историю вопроса. Злые языки говорят, что Сёрл заимствовал свой аргумент у Нэда Блока5 , который в 1978 г. предложил мысленный эксперимент Китайская нация, направленный против функционализма (тесно связанного с компьютерной метафорой сознания, которая принята в когнитивной науке)6. Сам Сёрл, однако, рисует нам совершенно иную картину: «В первые дни когнитивной науки существовал некий фонд под названием "Слоан Фаундейшн”, который давал людям деньги, чтобы они ездили по стране с лекциями. Нас в шутку величали Слоанскими рейнджерами. Меня позвали в Йель прочитать лекцию в Лаборатории искусственного интеллекта. Я понятия не имел об искусственном интеллекте. Я купил книгу Роберта Шэнка и Роберта Эбелсона, из этой лаборатории second passport, чтобы почитать в самолете. Я читал ее в самолете, и там шла речь о программах, понимающих рассказы. И я подумал: да это же смешно! Есть простое опровержение. Пусть это будет китайский рассказ и пусть я буду компьютером. Я все равно не буду понимать рассказ. Так появился Аргумент китайской комнаты»7.
Суть аргумента Сёрла ясна уже из приведенной цитаты. Но, разумеется, нужно уточнить его позицию. Сёрл хочет сказать, что если удалось написать программу, симулирующую, или эмулирующую, деятельность человеческого интеллекта и успешно проходящую классический тест Тьюринга, т. е. продуцирующую вербальное поведение, внешне неотличимое от поведения разумного человека, то из этого не следует, что компьютер, исполняющий такую программу, действительно разумен. И не следует этого потому, что человек, который располагал бы такой программой, или даже инсталлировал ее в свой собственный мозг, т. е. на время стал компьютером, вовсе не обрел бы реального понимания тех вещей, понимание которых эмулируются данной программой. Если, к примеру, этот человек не изучал китайский и знает лишь программу, написанную на понятном ему языке и позволяющую выдавать «правильные» китайские ответы на китайские же вопросы, то усвоение такой программы ничуть не приближает его к пониманию китайской речи. Дело в том, что программы, напоминает Сёрл, имеют синтаксический характер, а человеческое понимание семантично. В программе, находящейся в Китайской комнате, прописано лишь то, что одна последовательность иероглифов, т. е. задаваемые вопросы, имплицирует другую последовательность иероглифов – ответы на них. Но знания этих импликаций явно не достаточно, чтобы испытуемый понял, о чем его спрашивают. Ведь значение китайских символов скрыто от него. При этом для внешних наблюдателей, общающихся с испытуемым в Китайской комнате через терминал, такой человек, как утверждает Сёрл, вел бы себя совершенно «по-китайски». Соответственно, неспособность внешних наблюдателей отличить ответы человека от ответов компьютера (или человека-компьютера) и в самом деле не означала бы, что последний что-то реально понимает.