Евгений Иванов, 12 Июль, 2015 - 18:02, ссылка
Прочитал Вашу статью о Серле. Мне представляется, что Серл все же доказал "китайской комнатой" то, что хотел доказать, а именно он показал, что имитация функции сознания не порождает соответствующую этой функции субъективную феноменологию, опровергнув тем самым тезис "сильного" ИИ, а, также, заодно сформулировав сильный аргумент против функционального подхода к решению психофизической проблемы. Действительно, Серл-драйвер, по условию эксперимента, не понимает китайский язык и может выполнять алгоритм без всякого понимания, что он делает (иегоглифы можно предварительно перевести в двоичный код и тогда человек в комнате даже не будет догадываться, какую функцию он имитирует, а затем в конце заново перевести в иероглифы - это может делать "помощник", также не знающий китайского языка). Ясно, что и книга-программа сама по себе породить феноменологию, соответствующую пониманию языка, не может. Она есть просто совокупность мертвых, разрозненных символов, которые приобретают смысл и некую связанность только в сознании "драйвера", т.е. Серла, который, однако, по условию не понимает, что он делает (т.к. осуществление любого алгоритма не предполагает какого-либо понимания смысла своих действий, нет нужды даже запоминать предыдущие свои действия, т.к. каждая команда адресует к следующей команде, пока наконец не будет получена команда "стоп"). Т.е. ни Серл, ни книга по отдельности, ни их соединение - адекватной феноменологии (понимания китайского) не порождают - что и требовалось доказать.
Комментарии
Прежде всего, "китайская комната" вообще ничего общего с "имитация функции сознания" не имеет. Серль ставил проблему понимания, а это совсем не про субъективную феноменологию (я уже замечал, что вы не очень уверенно различаете мышление/понимание и сознание/феноменологию).
Из факта, что Серль не понимал, как работает программа/книга, прошедшая тест Тюринга никак не следует опровержение хоть чего-то, тем более, тезиса "сильного" ИИ. (Ну это как заявить, что если драйвер ввода/вывода не может сделать перевод теста, то это не по зубам и прикладной программе.)
Поясните, а каким боком мысленный эксперимент "Китайская комната" причастен к психофизической проблеме?
Опять, во-первых, причем тут феноменология? И самое главное, во-вторых, если вам (и Серлю - он вообще это постулировал) изначально ясно, что книга-программа понимать не может, то к чему вообще этот мысленный эксперимент? Ведь логика должна быть такая: (1) мы не можем постулировать непонимание книги/программы и допускаем, что она понимает, (2) но согласно таким-то рассуждениям ("китайская комната") приходим к выводу, что понимание невозможно. Но такой логики в мысленном эксперименте Серля нет - из того, что Серль-драйвер не понимает логически не следует, что то нечто, что выдает ответы на вопросы экспертов не обладает пониманием. Вот и вы пишете, мол программа, понимать не может и из этого, согласно Серлю следует, что программа понимать не может. Но ведь это тавтология )))
Понимаете? Если вы изначально допускаете, что у книги нет понимания, то и обсуждать нечего - не нужны никакие аргументы, бессмысленны мысленные эксперименты - есть просто вера. А если вы не постулируете непонимание, а пытаетесь его доказать, то такого доказательства в мысленном эксперименте "Китайская комната" нет. А есть лишь обратное - констатация, что книга-программа прошла тест Тюринга. Понимаете? Прошла!
Это просто искажение сути мысленного эксперимента. В сознании Серля нет никакого смысла (Серль не знает китайского и констатирует сам, что ничего не понимает). Бессмысленность вашей фразы легко продемонстрировать если допустить, что в комнате была бы другая, менее "умная" книга-программа - тогда бы Серль делал бы, что и делал (принимал и выдавал иероглифы), а комната бы тест не прошла. Еще раз: пройдет или не пройдет тест Тюринга комната зависит не от Серля (он лишь драйвер), а от книги-программы. Именно поэтому никакие рассуждения о Серле-драйвере не имеют никакого отношения к факту прохождения теста.
Итак. Мысленный эксперимент вообще не про феноменологию (феноменология и понимание - это две большие разницы). Центральным моментом мысленного эксперимента является прохождение комнатой теста Тюринга. Поскольку Серль не имеет никакого отношения к этому прохождению, то сам мысленный эксперимент ничего не доказывает. Вообще ничего. Он просто ни о чем.
Если вы хотите доказать обратное, то проследите логику мысленного эксперимента без изначального постулирования, что книга-программа понимать не может.
Ну если разделить понимание и феноменологию (т.е. переживание смысла), то эксперимент Серла действительно ничего не доказывает.
Так хоть соединяй, хоть разъединяй - все равно ничего не доказывает. Я вообще не понимаю, где вы в Китайской комнате увидели феноменологию?
К анализу мысленного эксперимента Серьля можно вообще подойти формально.
Все. Точка. В исходной формулировке мысленного эксперимента заложена элементарная логическая ошибка. И после констатации этого уже совершенно неважно, что хотел обосновать этим экспериментом Серль - Китайская комната должна остаться в истории аналитической философии сознания как столь возбудившее всех недоразумение.
To Евгений Иванов
Мне все же интересно, где вы разглядели феноменологию в Китайской комнате. А самое главное, как вы пришли к выводу:
Где вы там узрели обоснование?
Обладать сознанием в том же смысле, котором им обладает человек - это значит обладать феноменальным сознанием (поскольку человек обладает феноменальным сознанием). Аргумент Серла можно испоользовать для критики "функционального подхода" к решению психофизической проблемы. Функциональный подход (например, в версии Дубровского или Патнема) предполагает, что феноменальное сознание автоматически появляется всякий раз, когда имеет место тоже самое отношение "вход- выход", что и для человеческой психики, т.е. когда имеется адекватная функциональная имитация человеческой психики, независимо от физического способа этой имитации (феноменальное сознание, по Дубровскому, есть информационное содержание сенсорных процессов в мозге "в чистом виде", т.е. инвариантное к субстратной основе) . Аргумент Серла показвает, что функциональная имитация сознания не порождает адекватной ситуации феноменологии: имитация понимания. не порождает переживания смысла понимаемого, имитация восприятия - переживания адекватных чувственных образов и т.п. (Предположим, что книга-алгоритм в КК - есть алгоритм распознавания образов, написанный шрифтом Брайля, этот алгоритм исполняет слепой человек. На вход КК подается распечатка в виде двоичного кода изображения яблока (шрифтом Брайля), сканируемого цифровой камерой, на выходе имеем двоичный код, который есть шифр фразы "Я вижу яблоко". Функционально человек в КК как бы "видит яблого" (с т.з. внешнего наблюдателя), однако по условиям эксеримента феноменальное "видение" (с т.з. самого субъекта в КК) полностью отсутствует).
О чем вы?
Я вас как раз и спрашиваю: что это за такое чудо "аргумент Серля"? Вы можете пояснить? И какое отношение он имеет к сознанию, к феноменологии?
Ведь есть вполне конкретный, формально описанный мысленный эксперимент. Так объясните мне (не цитатой из вики) каким образом он что-то там показывает.
Просто прочитайте мой текст Как Серль работал драйвером вводы/вывода и выявите там логические ошибки.
Здесь Вы искажаете смысл мысленного эксперимента Серла. В исходном эксперименте он не просто работает "интерфейсом, связывающим прошедшую тест программу и экспертов". Выполняя программу "вручную", он "работает" именно "компьютером" (компьютер, состоящий из Серла и книги - где Серл выполняет функцию "процессора" этого компьютера), а не интерфейсом. Сама по себе книга-программа ничего "понимать" не может, хотя бы потому. что как некая "система", может быть таковой лишь в восприятии какого-либо субъекта, и сама по себе она не действует. Какая-то связь и осмысленность знаков книги (хотя чисто элементарная: "это единица", "это ноль") существует лишь в сознании Серла, читающего эту книгу. Т.о. как же можно утверждать, что тест на понимание китайского языка проходит "программа", а не Серл, исполняющий эту программу?
Ничуть! Это модификация самого Серьля: «в данном случае книга правил есть не что иное, как «компьютерная программа» (Searle, John. R. Is the Brain’s Mind a Computer Program?). То есть тут нет никакого искажения: сам Серль признает, что он лишь обслуживает программу.
А вот это совершенно без разницы. Можно представить Серля и процессором, который с одинаковым успехом может выполнять как программку написанную школьником, так и программу прошедшую тест Тюринга. В любом случае он не имеет никакого отношения к семантике/смыслу отношения входных и выходных данных/суждений.
Ну, с этим можно соглашаться или не соглашаться, это можно обсуждать. Тут я с вами полностью солидарен - программа (то, что сейчас подразумевается под программой) понимать не может. Но причем тут Серль? Причем тут Китайская комната? Каким образом мысленный эксперимент Серля обосновывает этот тезис про непонимание программы? В нем, наоборот, констатируется, что программа/книга прошла тест Тюринга на понимание.
Как? Вот так, как это делает Серль - он просто констатирует, что программа/книга прошла тест.
Допустим перед нами не программа/книга, а нечто, ну, скажем, инопланетянин и мы его проверяем на интеллект не банальным тестом Тюринга, а каким-то действительно серьезным тестом. Мы задаем ему вопросы. Серль на побегушках их передает ему. Получает ответы и возвращает нам. В итоге мы принимаем решение - тест этим нечто на интеллект пройден. А тут выходит Серль и говорит: а я ничего не понимал. Мы смотрим на него как на идиота - а ты то тут причем? Ты и не должен ничего понимать! Ты лишь работал драйвером/интерпретатором/процессором, а тест выдержало то нечто, что давало ответы.
Вот и получается, что вы, как и Серль, то что следовало доказать (что программа не может понимать) ставите в условие - программа не может понимать. А тогда в чем суть мысленного эксперимента?
Ну и потом, вы так и не ответили на вопрос про феноменологию - где она в Китайской комнате?
Если заменить китайскую комнату обычной - с двумя дверями на противоположных стенках. И за одними дверями посадить шахматиста, а за другими ИЛИ шахматиста, ИЛИ компьютерную шахматную программу. И шахматисту надо было бы определить кто с ним играет - другой шахматист или машина... То роль Серля в данном случае сводилась бы к передвижению по комнате от одной двери к другой с докладом каждой стороне какой ход был сделан противником.
Вовсе нет. Он должен физически выполнять вычисления, т.е. реализацию алгоритма. Программа могла бы быть и в памяти Серла, если бы он обладал абсолютной памятью, как Шерешевский.
Я согласен. Просто в главной комнате тоже стоит шахматная доска и "Серл" перемещает на ней фигуры и анализирует партию.