
- •Роджер пенроуз
- •1.2. Спасут ли роботы этот безумный мир?
- •1.3. Вычисление и сознательное мышление
- •1.4. Физикализм и ментализм
- •1.5. Вычисление: нисходящие и восходящие процедуры
- •1.6. Противоречит ли точка зрения в тезису Черча—Тьюринга?
- •1.7. Хаос
- •1.8. Аналоговые вычисления
- •1.9. Невычислительные процессы
- •1.10. Завтрашний день
- •1.11. Обладают ли компьютеры правами и несут ли ответственность?
- •1.12. «Осознание», «понимание», «сознание», «интеллект»
- •1.13. Доказательство Джона Серла
- •1.14. Некоторые проблемы вычислительной модели
- •1.15. Свидетельствуют ли ограниченные возможности сегодняшнего ии в пользу ?
- •1.16. Доказательство на основании теоремы Гёделя
- •1.17. Платонизм или мистицизм?
- •1.18. Почему именно математическое понимание?
- •1.19. Какое отношение имеет теорема Гёделя к «бытовым» действиям?
- •1.20. Мысленная визуализация и виртуальная реальность
- •1.21. Является ли невычислимым математическое воображение?
- •Примечания
- •2 Геделевское доказательство
- •2.1. Теорема Гёделя и машины Тьюринга
- •2.2. Вычисления
- •2.3. Незавершающиеся вычисления
- •2.4. Как убедиться в невозможности завершить вычисление?
- •2.5. Семейства вычислений; следствие Гёделя — Тьюринга
- •2.6. Возможные формальные возражения против
- •2.7. Некоторые более глубокие математические соображения
- •2.8. Условие -непротиворечивости
- •2.9. Формальные системы и алгоритмическое доказательство
- •2.10. Возможные формальные возражения против (продолжение)
- •Примечания
- •Приложение а: геделизирующая машина тьюринга в явном виде
- •3 О невычислимости в математическом мышлении
- •3.1. Гёдель и Тьюринг
- •О психофизи(ологи)ческой проблеме
- •Р.Пенроуз. Тени ума: в поисках потерянной науки о сознании. Penrose r. Shadows of the mind: a search for the missing science of consciousness. - Oxford, 1994. - XVI, 457 p.
1.13. Доказательство Джона Серла
Прежде чем представить свое собственное рассуждение, хотелось бы вкратце упомянуть о совсем иной линии доказательства — знаменитой «китайской комнате» философа Джона Серла — главным образом для того, чтобы подчеркнуть существенное отличие от нее моего доказательства как по общему характеру, так и по базовым концепциям. Доказательство Серла тоже связано с проблемой «понимания» и имеет целью выяснить, можно ли утверждать, что функционирование достаточно сложного компьютера реализует это свойство мышления. Я не буду повторять здесь рассуждение Серла во всех подробностях, а лишь кратко обозначу его суть.
Дана
некая компьютерная программа, которая
демонстрирует имитацию «понимания»,
отвечая на вопросы о какой-то рассказанной
ей предварительно истории, причем все
вопросы и ответы даются на китайском
языке. Далее Серл
рассматривает не владеющего китайским
языком человека, который старательно
воспроизводит все до единой вычислительные
операции, выполняемые в процессе
имитации компьютером.
При этом
когда вычисления выполняет компьютер,
получаемые на
его выходе данные создают некоторую
видимость понимания; когда же все
необходимые вычисления посредством
соответствующих манипуляций
воспроизводит человек,
какого-либо
понимания в действительности не
возникает. На этом основании Серл
утверждает, что понимание как свойство
мышления не может сводиться исключительно
к вычислениям — хотя человек (не знающий
китайского) и воспроизводит каждую
вычислительную операцию, выполняемую
компьютером, он все же совершенно не
понимает смысла рассказанной истории.
Серл
допускает, что
возможно осуществить моделирование
получаемых на
выходе результатов понимания (в полном
соответствии с точкой зрения
),
поскольку он полагает, что это вполне
достижимо посредством компьютерного
моделирования всей физической активности
мозга (чем бы он при этом ни занимался)
в тот момент, когда его владелец вдруг
что-либо понимает. Однако главный вывод
из «китайской комнаты» Джона Серла
заключается в том, что сама по себе
модель в принципе
не способна действительно «ощутить»
понимание. То есть для любой компьютерной
модели подлинное
понимание
остается, в сущности, недостижимым.
Доказательство
Серла
направлено против точки зрения
(согласно
которой любая «модель» понимания
эквивалентна «подлинному» пониманию)
и, по замыслу автора, в поддержку точки
зрения
(хотя
в той же мере оно поддерживает и
или
).
Оно имеет дело с пассивным,
обращенным внутрь, или
субъективным
аспектами
понимания, однако при этом не отрицает
возможности моделирования понимания
в его активном,
обращенном наружу, или
объективном
аспектах. Сам
Серл
однажды заявил: «Несомненно, мозг — это
цифровой компьютер. Раз кругом одни
цифровые компьютеры, значит, и мозг
должен быть одним из них». Отсюда можно
заключить, что Серл
готов принять возможность полного
моделирования работы обладающего
сознанием мозга в процессе «понимания»,
результатом которого оказалась бы
полная тождественность внешних
проявлений модели и внешних проявлений
действительно мыслящего человеческого
существа, что соответствует точке зрения
.
Мое же исследование призвано показать,
что одними лишь внешними проявлениями
«понимание» отнюдь не ограничивается,
в связи
с чем я утверждаю, что невозможно
построить достоверную компьютерную
модель даже внешних проявлений понимания.
Я не привожу здесь аргументацию Серла
в подробностях, поскольку точку зрения
она
напрямую не поддерживает (а целью всех
наших дискуссий здесь является как раз
поддержка
и
ничто иное). Тем не менее, следует
отметить, что концепция «китайской
комнаты» предоставляет, на мой взгляд,
достаточно убедительный аргумент
против
,
хоть я и не считаю этот аргумент решающим.
Более подробное изложение и различные
контраргументы представлены в [339],
обсуждение — там же и в [202]; см. также
[79] и [340]. Мою оценку можно найти в НРК,
с. 17—23.