- •Роджер пенроуз
- •1.2. Спасут ли роботы этот безумный мир?
- •1.3. Вычисление и сознательное мышление
- •1.4. Физикализм и ментализм
- •1.5. Вычисление: нисходящие и восходящие процедуры
- •1.6. Противоречит ли точка зрения в тезису Черча—Тьюринга?
- •1.8. Аналоговые вычисления
- •1.9. Невычислительные процессы
- •1.10. Завтрашний день
- •1.11. Обладают ли компьютеры правами и несут ли ответственность?
- •1.12. «Осознание», «понимание», «сознание», «интеллект»
- •1.13. Доказательство Джона Серла
- •1.14. Некоторые проблемы вычислительной модели
- •1.15. Свидетельствуют ли ограниченные возможности сегодняшнего ии в пользу ?
- •1.16. Доказательство на основании теоремы Гёделя
- •1.17. Платонизм или мистицизм?
- •1.18. Почему именно математическое понимание?
- •1.19. Какое отношение имеет теорема Гёделя к «бытовым» действиям?
- •1.20. Мысленная визуализация и виртуальная реальность
- •1.21. Является ли невычислимым математическое воображение?
- •Примечания
- •2 Геделевское доказательство
- •2.1. Теорема Гёделя и машины Тьюринга
- •2.2. Вычисления
- •2.3. Незавершающиеся вычисления
- •2.4. Как убедиться в невозможности завершить вычисление?
- •2.5. Семейства вычислений; следствие Гёделя — Тьюринга
- •2.6. Возможные формальные возражения против
- •2.7. Некоторые более глубокие математические соображения
- •2.8. Условие -непротиворечивости
- •2.9. Формальные системы и алгоритмическое доказательство
- •2.10. Возможные формальные возражения против (продолжение)
- •Примечания
- •Приложение а: геделизирующая машина тьюринга в явном виде
- •3 О невычислимости в математическом мышлении
- •3.1. Гёдель и Тьюринг
- •О психофизи(ологи)ческой проблеме
- •Р.Пенроуз. Тени ума: в поисках потерянной науки о сознании. Penrose r. Shadows of the mind: a search for the missing science of consciousness. - Oxford, 1994. - XVI, 457 p.
1.13. Доказательство Джона Серла
Прежде чем представить свое собственное рассуждение, хотелось бы вкратце упомянуть о совсем иной линии доказательства — знаменитой «китайской комнате» философа Джона Серла — главным образом для того, чтобы подчеркнуть существенное отличие от нее моего доказательства как по общему характеру, так и по базовым концепциям. Доказательство Серла тоже связано с проблемой «понимания» и имеет целью выяснить, можно ли утверждать, что функционирование достаточно сложного компьютера реализует это свойство мышления. Я не буду повторять здесь рассуждение Серла во всех подробностях, а лишь кратко обозначу его суть.
Дана некая компьютерная программа, которая демонстрирует имитацию «понимания», отвечая на вопросы о какой-то рассказанной ей предварительно истории, причем все вопросы и ответы даются на китайском языке. Далее Серл рассматривает не владеющего китайским языком человека, который старательно воспроизводит все до единой вычислительные операции, выполняемые в процессе имитации компьютером. При этом когда вычисления выполняет компьютер, получаемые на его выходе данные создают некоторую видимость понимания; когда же все необходимые вычисления посредством соответствующих манипуляций воспроизводит человек, какого-либо понимания в действительности не возникает. На этом основании Серл утверждает, что понимание как свойство мышления не может сводиться исключительно к вычислениям — хотя человек (не знающий китайского) и воспроизводит каждую вычислительную операцию, выполняемую компьютером, он все же совершенно не понимает смысла рассказанной истории. Серл допускает, что возможно осуществить моделирование получаемых на выходе результатов понимания (в полном соответствии с точкой зрения ), поскольку он полагает, что это вполне достижимо посредством компьютерного моделирования всей физической активности мозга (чем бы он при этом ни занимался) в тот момент, когда его владелец вдруг что-либо понимает. Однако главный вывод из «китайской комнаты» Джона Серла заключается в том, что сама по себе модель в принципе не способна действительно «ощутить» понимание. То есть для любой компьютерной модели подлинное понимание остается, в сущности, недостижимым.
Доказательство Серла направлено против точки зрения (согласно которой любая «модель» понимания эквивалентна «подлинному» пониманию) и, по замыслу автора, в поддержку точки зрения (хотя в той же мере оно поддерживает и или ). Оно имеет дело с пассивным, обращенным внутрь, или субъективным аспектами понимания, однако при этом не отрицает возможности моделирования понимания в его активном, обращенном наружу, или объективном аспектах. Сам Серл однажды заявил: «Несомненно, мозг — это цифровой компьютер. Раз кругом одни цифровые компьютеры, значит, и мозг должен быть одним из них». Отсюда можно заключить, что Серл готов принять возможность полного моделирования работы обладающего сознанием мозга в процессе «понимания», результатом которого оказалась бы полная тождественность внешних проявлений модели и внешних проявлений действительно мыслящего человеческого существа, что соответствует точке зрения . Мое же исследование призвано показать, что одними лишь внешними проявлениями «понимание» отнюдь не ограничивается, в связи с чем я утверждаю, что невозможно построить достоверную компьютерную модель даже внешних проявлений понимания. Я не привожу здесь аргументацию Серла в подробностях, поскольку точку зрения она напрямую не поддерживает (а целью всех наших дискуссий здесь является как раз поддержка и ничто иное). Тем не менее, следует отметить, что концепция «китайской комнаты» предоставляет, на мой взгляд, достаточно убедительный аргумент против , хоть я и не считаю этот аргумент решающим. Более подробное изложение и различные контраргументы представлены в [339], обсуждение — там же и в [202]; см. также [79] и [340]. Мою оценку можно найти в НРК, с. 17—23.