Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Аблеев С.Р. Философия науки. Вводный курс

.pdf
Скачиваний:
156
Добавлен:
07.01.2021
Размер:
2.08 Mб
Скачать

261

Таким образом, на практике всегда существует четкая при- чинно-следственная корреляция ненаблюдаемых ментальных состояний человека и наблюдаемых физических процессов его организма. Если бы ее не существовало, как полагают сторонники эпифеноменализма, то соотношение ментального образа в сознании испытуемого и физического процесса оставалось бы произвольным.

Основной тезис теории психофизического тождества

(Дж. Смарт и Ю. Плейс) состоит в следующем: предполагается, что каждое ментальное состояние соответствует (тождественно) определенному состоянию мозга. Известный контраргумент о множественной реализации к этому тезису в свое время сформулировал американский логик Хилари Патнэм. Суть этого контраргумента проста: боль могут испытывать совершенно разные организмы (разумные, неразумные и даже примитивные), имеющие далеко не тождественное строение мозга. Следовательно, состояние боли и состояние мозга не имеют прямой

иоднозначной связи.

Кконтраргументу о множественной реализации можно до-

бавить еще один – контраргумент о произвольности (незави-

симости) ментальных состояний относительно физических состояний организма. Например, физический организм может находиться в состоянии боли, но человек может не ощущать ее действие. Это вполне возможно при использовании химической или психической анестезии. Медицинской практике и исследователям восточной психотехники такие феномены хорошо известны.

Сторонники элиминативного материализма (Р. Рорти,

У. Селларс, У. Куайн и др.) вообще отвергают какие-либо ментальные состояния сознания. Они полагают, что ментальные состояния – это ложные объекты, возникающие в науке под

262

влиянием ошибочной эмпирической теории. Иными словами, это сущности, которые появляются в результате неправильной поставки проблемы. При «правильной» постановке проблемы они устраняются. Следовательно, никакой проблемы соотношения сознания (ментальных состояний) и физического тела не существует.

При таком теоретическом подходе возникает другая проблема – проблема субъективного опыта как важнейшего атрибута сознания1. Фактически элиминативные материалисты устраняют не только ментальные состояния, но и весь субъективный опыт со всей субъективной реальностью. Таким образом, физикалисты опять сталкиваются со своим вечным проклятием под названием «субъективная реальность». А если она присутствует в научной теории – ее невозможно объяснить на основе физикалистской концепции, будь то эпифеноменализм, теория тождества или элиминативный физикализм.

Карл Поппер был прав, когда выступил против физикалистов: концепция физикализма упрощает реальную картину бытия. Она приписывает статус реальности только наблюдаемому физическому миру, причем сознание как таковое подменяется знаково-языковой коммуникацией и внешним поведением. Однако на самом деле существует и другая – субъективная психическая реальность, которая по своему качеству виртуальна, но вовсе не иллюзорна.

Субъективная реальность теперь начинает восприниматься как особое онтологическое пространство, формируемое психоментальными объектами сознания. Эти объекты некорректно и невозможно отождествлять с объектами физического мира. Они

1 Васильев В. В. Сознание и вещи: очерк феноменалистской онтологии.

М., 2013.

263

существуют в своем собственном пространственно-временном континууме и подчиняются, вероятно, иным закономерностям, выходящим за рамки общепризнанных физических теорий.

Виртуальная субъективная реальность каким-то неизвестным образом воздействует на физическую реальность нашего объективного бытия, несмотря на сомнения элиминативных материалистов в ее существовании. Например, психиатрические больницы наполнены тысячами пациентов, которые имеют весьма серьезные нарушения в деятельности сознания под влиянием своих субъективных ментальных сущностей. Если эти ментальные сущности, по мнению Рорти и Куайна, являются «нереальными псевдообъектами», почему же тогда они создают многим людям совершенно реальные проблемы? Подобные вопросы останутся без ответов, если постклассическая наука не признает субъективную реальность в качестве особого психического пространства бытия, существующего по своим собственным законам вне объектов физического мира. В таком случае непростое соотношение сознания и тела науке все же придется каким-то образом объяснять.

Особую позицию среди всех рассмотренных решений психофизической проблемы занимает теория функционализма сознания. Ее различные версии разрабатывали западные теоретики Д. Льюис, Х. Патнэм, Д. Деннет и известный российский философ Д. И. Дубровский. Функционалисты полагают, что система «сознание и биологическое тело» не является единственно возможной. Сознание может существовать и на иных физических носителях, кроме белково-нуклеинового тела с его органическим мозгом. Иными словами, сознание здесь рассматривается как некоторая функция сложной системы, способной воспроизводить необходимые каузальные (функциональные) отношения.

264

Нам представляется, что функционалисты в целом движутся в перспективном направлении. В новой научной парадигме сознания крайне важно развести сознание и физический мозг. Многие исследователи уже интуитивно почувствовали, что сознание (ментальная реальность) есть нечто более сложное, чем простая органическая материя. Совершенно не исключено, что оно представляет собой особое информационное свойство или эмерджентную функцию некоторых систем, способных создавать виртуальное пространство взаимодействия сигналов. Это могут быть как органические, так и неорганические системы.

Активное развитие теоретической модели функционализма сознания усиливает научные позиции сообщества специалистов, занимающихся разработкой искусственного интеллекта. Философским проблемам технического моделирования сознания и искусственного интеллекта посвящен следующий параграф.

7.5. Философия искусственного интеллекта

Интенсивное развитие информатики и кибернетики, а также компьютерной техники поставило среди проблем научного дискурса вопрос о создании технического устройства, которое по своим возможностям будет соответствовать человеческому сознанию. Такое устройство в русском языке стали называть искусственным интеллектом. Однако в научном мире до сих пор не сложилось общего мнения относительно принципиальной возможности создания устройства (компьютера), который бы потенциально воспроизводил или моделировал информационные способности человеческого интеллекта или сознания вообще1.

1 Петрунин Ю. Ю., Рязанов М. А., Савельев А. В. Философия искусственного интеллекта в концепциях нейронаук. М., 2010.

265

Проблема во многом упирается в вопрос о том, как мы понимаем человеческий и искусственный интеллект. Например, с точки зрения имперсональной теории сознания понятие сознания является более общим относительно понятия интеллекта1. Сознание есть многомерное психическое пространство взаимодействия виртуальных сигналов. В этом психическом пространстве могут осуществляться различные виртуальные процессы их отражения, обработки и моделирования. Один из таких процессов психологи называют интеллектуальным мышлением. Однако он не исчерпывает всех возможных способностей человеческого сознания и не является единственно возможным типом мышления. Строго говоря, интеллектуальные способности отражают лишь малую часть широкого спектра способностей сознания как такового, среди которых можно отметить сенсорные, иррациональные, творческие, трансперсональные и многие другие.

В таком случае, если не принимать в расчет другие способности сознания, наука должна ответить на вопрос: можно ли научить компьютер мыслить? Ответ на него опять зависит от того, как мы понимаем мышление. Если мы воспринимаем мыш-

ление как интегральную процессуальную характеристику созна-

ния, то, вероятно, ответ должен быть отрицательным. Виртуальная деятельность сознания слишком сложна. На практике она не поддается полному вычислению и воспроизведению на компьютере.

Английский физик и математик Роджер Пенроуз достаточно убедительно на основе следствий теоремы Гёделя доказал

1 Аблеев С. Р. Сознание и материя: великий предел : научная моногра-

фия. М., 2019.

266

принципиальную невозможность установить общие математические алгоритмы процесса мышления1. Тем не менее компьютер вполне способен моделировать (воспроизводить) некоторые частные аспекты естественного процесса мышления человека. Это можно проиллюстрировать на примере следующей аналогии: современный нейропротез вовсе не заменяет человеку потерянную руку, а только воспроизводит ее некоторые возможности. Так и компьютерный вычислительный процесс не является полностью тождественным психическому процессу естественного мышления, но лишь моделирует его отдельные характеристики.

Таким образом, если мы будем понимать искусственный интеллект (дальше внутри параграфа – ИИ) как полное информационное воспроизведение человеческого мышления с помощью машины, то такая система, по мнению многих исследователей, невозможна. Однако если мы говорим о компьютерном моделировании отдельных информационных аспектов процесса человеческого мышления, то данная техническая система, по всей видимости, рано или поздно может быть построена.

Первый вариант обычно рассматривают как сильный искус-

ственный интеллект, а второй называют слабым искусственным интеллектом2. Причем некоторые теоретики полагают, что

1Пенроуз Р. Новый ум короля: о компьютерах, мышлении и законах фи-

зики. М., 2005.

2Понятие сильного искусственного интеллекта в научный оборот ввел американский философ Джон Сёрл в 1980 г. В этом смысле ИИ рассматривается им не просто как некая модель разума, но реально является таким разумом, существующим в техническом виде. Таким образом, здесь предполагается, что никакой принципиальной разницы между естественным интеллектом (человек) и искусственным интеллектом (машина) не существует. Причем сильный ИИ способен осознавать себя как некую мыслящую личность, хотя и не человеческой природы. Слабый ИИ в этой схеме рассматривается как тех-

267

сильный ИИ должен обладать способностью не только технически воспроизводить некоторые информационные операции мышления человека, но и воспринимать (осознавать) смысл утверждений.

В этой дискуссии решающее значение приобретают надежные критерии возникновения ИИ. В каких случаях можно утверждать, что ИИ человеком реально создан и уже действует, а в каких надо признать, что мы имеем дело только со сложной компьютерной программой, но не настоящим ИИ?

Согласно одному из широко признанных подходов, ИИ появляется тогда, когда возникает поведение компьютерной машины, ничем не отличающееся от поведения человека. В рамках этого подхода критерием выступает известный тест британского математика Алана Тьюринга, предложенный им в 1950 г. в работе «Вычислительные машины и разум». Его смысл состоит в том, что если машина говорит с человеком (отправляет ему сообщения), а человек не понимает, говорит ли он с машиной или живым человеком, то такая машина обладает настоящим ИИ.

Теоретически такое вполне возможно. Но это вовсе не означает, что у машины появляется интеллект в его «сильном» смысле, и она начинает на самом деле мыслить. Известный мысленный эксперимент «Китайская комната»1 представляет собой весомый аргумент в пользу того, что факт успешного прохождения теста Тьюринга совершенно не является серьезным критери-

ническая система, не обладающая указанными характеристиками и моделирующая лишь отдельные аспекты интеллектуального мышления человека.

1 «Китайская комната» – мысленный эксперимент, предложенный Джоном Сёрлом в 1980 г. для опровержения теста Тьюринга. Смысл эксперимента состоит в том, что можно разработать инструкцию (алгоритм), которая позволит формально отвечать на вопросы на незнакомом языке, без знания этого языка и понимания смысла вопросов.

268

ем возникновения у машины процесса мышления, аналогичного мышлению человека. Мышление человека предполагает семантическое пространство1, т. е. особую субъективную реальность и субъективный опыт осмысленных действий. Проблема же состоит в том, что никакие синтаксические и математические средства, по всей видимости, не смогут создать искусственный аналог семантического пространства.

Согласно другому подходу, ИИ появляется тогда, когда у машины возникают чувства, эмоции, интуиция, творчество и другие специфические качества человеческого сознания. Иными словами, здесь уже предполагается искусственное воспроизводство не только отдельных информационных аспектов процесса мышления, но воспроизводство сознания как такового. Многие современные исследователи сомневаются в возможности построения таких технических систем.

Проблема ИИ порождает целый ряд философских вопросов, стоящих на стыке антропологии, этики и футуристики. В частности, сторонники философии технического трансгуманизма считают создание ИИ одной из важнейших насущных задач человечества. Однако пока еще мало кто задумывается о последствиях решения этой задачи для самого человека. Появление даже слабого ИИ может кардинально изменить жизнь каждого индивида и всей человеческой цивилизации в целом. Нам представляется, что потенциально существуют несколько серьезных угрожающих последствий возникновения ИИ, которые человеку так или иначе придется преодолевать. Это психо-

1 Семантическое пространство

– состояние

осознаваемых смыслов

в психической реальности человека.

Например, в

имперсональной теории

сознания семантическое пространство выступает необходимым условием сознания вообще – как человеческого, так и нечеловеческого.

269

логические, профессиональные, моральные и экзистенциальные последствия1.

Во-первых, появление ИИ усилит уже наметившееся подавление человеческого сознания техносферой и виртуальным компьютерным пространством. Основная масса человечества не только психологически, но и профессионально не сможет успешно конкурировать с машинами. Что будут делать миллионы людей, если машины возьмут на себя рутинные операции по обработке информации и автоматическому производству большинства несложных вещей?

Кроме того, человеку необходимо не только зарабатывать себе на жизнь, но и сохранять свободу своего духовного сознания в глобальной технологической среде. Ведь Homo Sapiens должен не просто выживать, но постоянно развиваться в познавательном, моральном и творческом смыслах. Погружаясь в техническую виртуальную реальность, человек рискует заиграться в ней и потерять чувство подлинной природной реальности. Уже сейчас многих людей виртуальная компьютерная иллюзия интересует намного больше, чем настоящий природный мир со всеми его проблемами, возможностями и перспективами. А в недалеком будущем такой искаженный интерес может привести человеческое сознание в состояние психологической сингулярности и духовного коллапса.

Во-вторых, ИИ невозможно обучить универсальным этическим принципам, которые не поддаются строгой формализации и не могут быть представлены в качестве перечня простых инструкций морального содержания, разрешающих или запреща-

1 Аблеев С. Р. Моделирование сознания и искусственный интеллект: пределы возможностей // Вестник экономической безопасности. – 2015. –

№ 3.

270

ющих машине некие действия. Даже между представителями человеческого сообщества нет полного согласия в понимании базовых принципов высокой морали.

Например, в одних странах считают смертную казнь необходимой и морально оправданной, в других – совершенно недопустимой и антигуманной. Одни ученые выдвигают этику эгоизма и гедонизма, другие провозглашают этику альтруизма и аскетизма. Одни люди осуждают половые девиации (например, гомосексуальность), другие оправдывают их как торжество свободного выбора либерального человека. Какую этическую парадигму выберет ИИ в таком случае? Чем будет детерминирован его выбор и будет ли такой выбор приемлем для человека?

В-третьих, помимо психологических, профессиональных и этических проблем возникновение ИИ может породить и экзистенциальные проблемы человечества, т. е. проблемы совместного сосуществования человеческого разума и ИИ.

Сможет ли новая цивилизация интеллектуальных машин находить общие интересы и гармонично существовать вместе с человеческим обществом? Этот вопрос не имеет однозначного ответа. Ведь реальный ИИ представляет собой не просто совокупность неких сложных компьютерных программ, действующих по заложенным в них алгоритмам. ИИ предполагает возможность свободного выбора и альтернативного поведения системы в зависимости от внутренних приоритетов и внешних обстоятельств. Это означает, что такая система однажды начнет «ощущать» себя в качестве субъекта произвольного и независимого действия. На что будут направлены такие действия бездушной машины? Кто может гарантировать, что свободный выбор ИИ не будет направлен против интересов человека и человеческой культуры?