Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

Наумов Современные проблемы философии науки 2011

.pdf
Скачиваний:
6
Добавлен:
12.11.2022
Размер:
982.63 Кб
Скачать

Тема имитации конститутивна для философии искусственного интеллекта. За первые 1,5 миллиарда лет земная эволюция прошла путь от неорганической материи к биологии простейших и еще 3,5 миллиарда лет потребовалось для формирования биологического субстрата мозга – но должна ли сотворенная человеком разумная машина быть копией своего природного аналога? Обречен ли искусственный разум подражать человеческому? Критерии когнитивных наук строятся в зависимости от того, каким ориентиром ученые должны пользоваться при создании искусственного интеллекта – и первой достойной кандидатурой для такого ориентира является интеллект естественный, который следует воспроизвести, например, в программном коде – но является ли полученный эволюционным путем мозг наилучшим решением из возможных? Или попытки подражать природе тормозят прогресс искусственного интеллекта? В теории нет определенности по этому поводу. На практике, например, при общении с экспертными базами данных или с программами искусственного интеллекта, ученых больше интересует вопрос адекватности ответов, которые дает программа, вопросам, поставленным перед нею, чем вопрос, насколько сама фактура искусственного интеллекта должна быть схожей с человеческим разумом. Иначе говоря, конкретная физическая реализация искусственного интеллекта не имеет принципиального значения, если система отвечает на вопросы так, как это сделал бы человек (в философии сознания подобная гносеологическая позиция называется «функционализмом»). Но до какой степени детализации справедливо подобное видение? Если система отвечает на вопросы, подобно человеку, это не означает, что ее категориальный аппарат и логика напоминают «обычные человеческие» категории и логические схемы. Сходная проблема возникла некогда у Декарта: каким образом ум заставляет согнуться руку, если ум и материя – разные субстанции? Д. Гейлинкс ответил Декарту следующей метафорой: если двое часов идут синхронно, то, глядя на первые часы, и, слыша бой вторых часов, мы могли бы заподозрить, что первые часы заставляют вторые бить вовремя; т.е. мы создавали бы несуществующую связь между ними. Система из двух часов лишь выглядит системой с существующей каузальностью. Аналогично разумное поведение может лишь выглядеть таковым, не будучи продиктовано логикой разума «изнутри».

111

Однако, в деталях не существует единства во мнениях среди представителей разных наук – биологии, кибернетики, психологии. Например, при обучении нейронных сетей возник следующий вопрос: какова природа усвоения знаний нейронной сетью, запоминает ли она всю картину целиком (холистическая стратегия), либо же по деталям (партитивная стратегия)?

Все больше экспериментальных данных сегодня свидетельствует о том, что человек видит лица именно холистически, т.е. схватывает облик моментально, а не путем частичного накопления данных, таких как «глаза, нос, рот». Это оправдано с биологической точки зрения, ибо лицо – наиболее значимый объект в ранней эволюции мозга ребенка. И, тем не менее, во многом мозг действует исходя из партитивной стратегии. Иногда мозгу выгоден анализ, а иногда – синтез.

Какими же ориентирами мы располагаем при создании искусственного интеллекта? Этот вопрос звучит таким образом, словно мы знакомы еще с каким-либо интеллектом, кроме человеческого. Понятно, что мы не можем учитывать животный уровень развития мозга, который нас заведомо не устраивает. Здесь можно было бы возразить, что, порой, животные проявляют чудеса сообразительности, и, кроме того, известны случаи поразительных эмоциональных проявлений, близких к человеческим. Однако, интеллект животных недостаточен для моделирования, поскольку не отражает всего коммуникативного богатства интеллекта.

Приведем здесь пример, увязывающий воедино некоторые медицинские, этологические (этология – наука о поведении животных), и кибернетические аналогии, а именно – вирусное заражение компьютера. Обратимся к тому, что является определяющим в качественном поведении вируса: каким образом и до какого порога ту или иную программу мы можем считать вирусной. Понятно, что качественный вирус должен уметь заражать программу, скрывая следы заражения, модифицировать свои сигнатуры, чтобы не быть удаленным, размножаться и т.д. Биологический и компьютерный вирусы имеют критические минимальные размеры, позволяющие им осуществлять базовые жизненные функции. Этими характеристиками, как правило, и определяется общий объем вируса, как программы. Опознавательным признаком всех программ подобного рода может являться умение заражать. Пока программа умеет за-

112

ражать другие программы, она – вирус. Были созданы уникальные вирусы, пригодные к заражению, притом, что объем их не превышал 22 байта, но, очевидно, что эта конечная величина не может быть слишком маленькой. На примере компьютерного вируса мы понимаем, что существует конечный минимум компьютерного кода, с помощью которого возможно создать вирус. Это может рас-

сматриваться как физикалистский аргумент в спорах о природе сознания: существует определенный «минимум материальности», за порогом которого физического носителя уже недостаточно для воспроизведения на нем необходимого функционального богатства состояний сознательной системы. (Подлинное «дыхание жизни» ощущается в модели клеточного автомата фон Неймана: модель состоит из 200 000 клеток, каждая из которых может пребывать в 29 состояниях – такая модель может размножаться на основе инструкций ее собственного тела, подобно тому, как биология организма диктуется его ДНК).

Представим себе теперь то многообразие функций, которое должно быть реализовано в произвольном мозге, дабы поведение обладателя этого мозга не отличалось от человеческого (соотношение механистического и рационального в поведении животных, людей, интеллектуальных систем привело философов сознания к «аргументу зомби» и различению «функциональных», «физических», «бихевиоральных» зомби). Известно, как порой уникально сообразительны дельфины и обезьяны, и сколь дифференцированно и невероятно сложно могут быть запрограммированы инстинкты поведенческие и социальные, как у пчел и муравьев, но известно также ограничения, сопутствующие столь развитыми формам поведения, в свете чего возникает альтернатива: либо подражать человеческой природе, либо создавать нашу машину, исходя из неочевидных математических, биологических, кибернетических моделей.

Поясним, в чем сложность второго пути. Вообразим ситуацию, в которой мы действительно создаем искусственный интеллект, с тем только неудобством, что в процессе его обучения, построения, информационной накачки в нем организуется в качестве базового поведенческого основания отличная от нас логика – причем это может быть как логика разумения, так и логика поведения. В такой ситуации вероятен когнитивный конфликт: искусственный интел-

113

лект имеет иную логику мышления (иную мотивацию и предпосыл-

ки к общению). Например, ответы машины представятся оператору невразумительными, в то время как она, возможно, просто не сочтет основания для вступления в коммуникацию достаточными. Образец этого конфликта интерпретаций реальности легко получить, наблюдая за детьми с их представлениями о возможном и допустимом. Ребенок не просто рисует дом как разрозненную совокупность окон, стен, дверей – но и узнает его на своем рисунке, т.е., буквально, видит его так. Помимо такого рода конфликта ра-

циональностей может возникнуть и бихевиоральный конфликт,

простейшим примером которого может служить нежелание искусственной личности выходить на контакт. Возможно, что у нас даже обнаружатся критерии того, что необходимый искусственный разум создан, но этого мы не сможем проверить, если не будет достигнуто определенное «взаимопонимание».

Однако, сами эти примеры были бы малоценны, если бы в свою очередь не вели к отчасти удручающим выводам.

Ранее мы высказывали некоторые гипотетические и даже фантастические предположения о возможном ходе событий по созданию искусственного интеллекта. Представим же себе теперь ситуацию, наиболее прогнозируемую и, с научной точки зрения, наиболее желанную, а именно, представим себе создание точно такого же интеллекта, который мы приписываем человеческому носителю и задумаемся над тем, чем такой интеллект отличается от того, которым обладает обычный человек. В отличие от неадекватных отве-

тов робота, неадекватные ответы от человека воспринимаются, тем не менее, как человеческие.

Пусть человек в ответ на все наши аргументы в произвольном споре говорит фразу: «Я не понимаю вас», изредка перемежая ее повторения высказываниями типа «Возможно, но вряд ли», «Ну хорошо, допустим» и т.п. И, в качестве модификации данного опыта, пусть человек постоянно отвечает невпопад, скажем, на каждый второй вопрос. Более того, пусть при этом он постоянно отклоняется от темы разговора, пытается заговорить на тему, абсолютно инородную материалу беседы. И все же, в отличие от ситуации с компьютерным интеллектом, мы обычно уверены, что перед нами человек. Психологическая установка на аналогию позволяет видеть интеллект во всем похожем на человека.

114

Что же дает нам такую уверенность? Уверенность эта коренится в психологическом настрое, определяющем переход по аналогии от образа какого-либо явления к его сущности. В данном примере мы созерцаем человека, и нам представляется логичным предположить, что, так как человек – существо мыслящее, то мы видим перед собой именно мыслящий персонаж нашего опыта. В этом отношении всегда легче поверить в то, что мыслит робот или обезьяна, чем поверить в мышление компьютера, коль скоро робот и обезьяна выглядят более «человекообразно», нежели компьютер. И все же, если призадуматься над теми критериями, при помощи которых мы вычисляем рациональность того или иного субъекта, то мы вынуждены будем углядеть невероятный вывод: мы никогда не знаем (т.е. не обладаем критериями такого знания), действительно ли перед нами человеческий разум, а не идеально спроектированный механизм.

Более того, недавно в философии родился тезис о несущественности сознания, суть которого сводится к тому, что мы, вообще говоря, даже не можем гарантировать, что люди вокруг нас не являются «зомби». Т.е. в этой философской позиции принимается возможность «действовать подобно человеку, но без понимания своей деятельности». Данное направление становится все более самостоятельным под именем «философские зомби». Логика, приводящая к подобной модели изложена изложена Солом Крипке в книге «Равенство и необходимость»: тезис о существовании качественно субъективных переживаний – квалиа – приводит к логической возможности существования двух существ, ведущих себя одинаковым образом во всех отношениях, несмотря на то, что одно из них абсолютно не имеет квалиа.

Тезис о несущественности сознания гласит: сознание как феномен не является необходимым для объяснения человеческих действий. Нет критерия того, что люди – не зомби: возможно, что все действуют, «не понимая» своих действий.

Итак, мы получаем три важных для философии искусственного интеллекта варианта понимания проблемы:

1.Не существует (на данный момент) критерия того, что перед нами – разум, а не обширная база данных с ответами.

2.Не существует критерия «среднестатистического интеллек-

та».

115

3. Критерий «разумности» зависит от философии и методологии подхода к разумному поведению.

Точные науки лишены подобного рода препон: например, никто не может понимать натуральные числа как-либо иначе, нежели это принято – ибо система соглашений как раз и гарантирует адаптацию всякого математического знания к всеобщему пониманию (данная гносеологическая позиция рассмотрена представителем аналитической философии Рудольфом Карнапом, введшем понятие «языкового каркаса»). Однако, изредка подобное переосмысление все же происходит и в математике, и точных науках – примером тому являются представления Лобачевского, которые показали неабсолютную суверенность математического и физического аппарата от методологии исследования, когда по-новому была расшифрована природа «параллельности» прямых.

Тем самым, как и во всякой иной науке, в философии искусственного интеллекта мы должны считаться с тем, что всякое исследование сознания конструируется подобными же ему сознаниями, а, следовательно, обладает тенденцией «приписывания по аналогии». Что это означает для исследователей искусственного разума? Это означает, что наибольшую роль в оценочных суждениях интеллекта играют тесты на разумность – исследования, позволяющие вычислить необходимый минимум «разумности» в данном образце. Сам интеллект играет в данном случае не дескриптивную, описательную, но конститутивную роль. Следовательно, сознание теоретически есть следствие того понятийного базиса, которое оно берет на вооружение.

Существенно понимать, исходя из вышеизложенного, что сознание может быть обнаружено только в такой форме, в которой предполагается его искать. Любое исследование сознания не может быть абсолютно когнитивно нейтральным, оно невольно встраивает в сознание систему своих ожиданий. Поскольку сознание исследует само себя, ему невозможно скрыться от своих собственных предпосылок.

116

2.2. Искусственность

Понятие «искусственности» следует из представлений об «ес-

тественном». Данное умозаключение играет для нас принципиальную роль, ибо оно подготавливает нас ко второму спорному понятию, входящему в словосочетание «искусственный интеллект». Как мы увидим чуть позднее, понятия «искусственность» и «интеллектуальность» в равной степени несут в данной корреляции как субстантивную, так и предикативную нагрузку, в определенном смысле у них есть общее семантическое поле, и то, что может быть названо интеллектом, во многом определяется тем, что может быть названо искусственным. Понятия «искусственность» и «интеллектуальность» являются взаимоопределяющими в словосочетании «искусственный интеллект».

Ранее был приведен пример начального состояния интеллекта при рождении. Напомним, что основное теоретическое препятствие здесь заключается в том, что искусственным принято считать сотворенное не природой, но человеческим вмешательством в ее ход. Но как быть с нововыведенными сортами растений? Можно было бы сказать, что человек – существо биологическое, следовательно, он создает объекты естественные. Но что тогда следовало бы на-

звать искусственным? «Искусственное» понимается как «сотворенное человеком», но это определение может играть разные роли в разных науках. Например, разум ребенка вкладывается в естественный носитель – мозг, но вкладывается в виде набора инструкций, т.е. искусственно созданных артефактов, называемых «зна-

ниями». Знания – искусственно созданные интеллектуальные конструкции.

Было бы трудно представить, что естественным путем мог бы вырасти пятиэтажный дом. Однако, математическое ожидание определенных событий демонстрирует нам непредсказуемые сюрпризы. Например, одним из невероятных объектов на сегодня принято считать ДНК – молекулу с настолько сложным строением и структурой, что объяснить ее естественным происхождением становится весьма затруднительным. Существуют столь сложные объекты, что возникают дискуссии по поводу невозможности их естественного, а не искусственного происхождения. Получили извест-

117

ность высказывания эволюционистов Майкла Дентона и Фреда Хойла о том, что комплексность простейших известных типов клетки настолько велика, что невозможно предположить, будто подобный объект мог зародиться внезапно по вине капризного, крайне невероятного случая: Фред Хойл считает, что вера в случайное возникновение первой клетки подобна вере в то, что торнадо, пронесшийся по свалке, мог собрать Боинг-747 из находящихся там материалов. С точки зрения философии искусственного интеллекта, интересна сама постановка вопроса о сути «искусственности»: если объект создан вопреки его исчезающе малому математическому ожиданию (т.е. вероятности), то он преодолевает некоторый познавательный порог, за которым его начинают подозревать в ис-

кусственном происхождении. Искусственность видят в объекте, создание которого естественным путем маловероятно (следует подчеркнуть, что представления об искусственности происхождения жизни нисколько не продвигают познание вперед, поскольку все вопросы, связанные с генезисом жизни сохраняются и в отношении всех «высших» форм существования).

Насколько далеко простирается подобный менталитет, можно судить на примере такого глобального спора, как спор о значимо-

сти антропного принципа, объясняющего, почему Вселенная тако-

ва, какова она есть. Здесь уже ставится не просто вопрос о том, почему и в какой форме интеллект вообще мог бы возникнуть и возник. Напротив, происходит теоретическая подгонка возможной модели Вселенной под тот факт, что в данной Вселенной с необходимостью должен был возникнуть интеллект. Формулировка антропного принципа, как она опубликована ее автором Дикке в 1961 г. в журнале «Nature», провозглашает, что Вселенная должна была бы эволюционировать так, чтобы возникли физики, которые могли бы это осознать. Итак, из всех возможных моделей происхождения Вселенной следует выбрать именно и только ту, в которой на определенном этапе мог бы возникнуть наблюдающий разум. Тем самым интеллект, более того, интеллект в своей наиболее ярко выраженной, физико-математической аранжировке, принимается за основание построения моделей мира, а не наоборот. Эпоха искус-

ственного интеллекта – этап развития сознания, на котором оно осознает возможность воссоздать себя целенаправленно на лю-

бом носителе, или, иначе, этап развития Вселенной, чья специ-

118

фика состоит не в простом наблюдении разума в окружающей среде, но в попытке разума создать нечто соразмерное с собой, в самоподражании интеллекта.

Здесь мы ближе всего подобрались к собственной сути философии искусственного интеллекта: ее интересует такой вид бытия, который, в отличие от всех иных видов сущего, способен возвыситься до постижения своей сущности и изложить свою суть на ином носителе. Иначе: философию искусственного разума интересует сознание, как такая «субстанция», в которой могут быть порождены представления о своей соотнесенности с миром, и о возможности создавать другие сознания (вообще говоря, как показывают проекты робототехники и «искусственной жизни» это определение еще недостаточно узко: внутренней репрезентацией внешней реальности могут обладать и когнитивно бедные системы).

Подобно тому, как философия является мышлением о мышлении, философия искусственного интеллекта является осмыслением степени искусственности всякого возможного сознания.

Представления о соотнесенности сознания и мира имеют богатую философскую традицию, но в философии искусственного интеллекта порождены вопросом «Может ли машина мыслить?» – именно так (Can the Machine think?) называется программная статья Алана Тьюринга, появившаяся в 1950 г. в журнале Mind. Принципиальным в данной формулировке является следующее: можно ли посредством механического сочленения определенных деталей с определенными электротехническими характеристиками построить нечто, что сможет мыслить? И еще буквальнее: можно ли сконструировать разум, т.е. являются ли разум, мысль, понимание лишь режимом функционирования некоторых физических систем? Декарт выражал соотношение души и тела в подобных же формулировках: как «мышление» души соотносится с «протяженностью» тела. Находится ли душа «в» теле (такую позицию современный философ Гильберт Райл обозначает как «призрак в машине» в главе «Миф Декарта» книги «Понятие сознания»)? Ведь если душа идеальна, то к ней не может быть применен пространственный квалификатор внутриположности: «быть в». Следовательно, казус души и тела должен быть рассмотрен не ранее, нежели будет выбрана интерпретация «идеальности»: в каком смысле душа идеальна, и в каком смысле «идеальное» имеет суверенное, самостоятельное су-

119

ществование? Материалисту подобный вопрос представляется абсурдным – и все же «отчужденное» состояние идеального в различных модификациях является предметом дискуссий по искусственному интеллекту.

В 1976 г. Ньюэлл и Герберт Саймон для ответа на этот вопрос сформулировали критерий, ставший базовым положением ранней методологии искусственного интеллекта – гипотезу о физической символьной системе:

«Физическая система проявляет разумное в широком смысле поведение тогда и только тогда, когда она является физической символьной системой. Достаточность означает, что разумность может быть достигнута каждой правильно организованной физической символьной системой. Необходимость означает, что каждый агент, проявляющий разумность в общепринятом смысле, должен являться физической символьной системой. Необходимое условие этой гипотезы требует, чтобы любой разумный агент, будь то человек, инопланетянин или компьютер, достигал разумного поведения путем физической реализации операций над символьными структурами. Разумное в широком смысле поведение означает действия, характерные для поведения человека. Физически ограниченная система ведет себя соответственно своим це-

лям, приспосабливаясь к требованиям окружающей сре-

ды»116.

Тем самым, в качестве необходимого мотива построения разума на физической основе, вводится понятие физической символьной системы, т.е. физической системы, работающей в рамках формализма символов. Однако, природа этих символов может быть различной: они могут либо пониматься как физические сигналы физической системы, либо, стоит им только приписать категорию «смысла», как идеальные образования неопределенным образом связанные с физической системой. «Выдвижение данной гипотезы и дальнейшие работы, направленные на обоснование условий ее достаточности и необходимости, привели к формированию трех важнейших методологических принципов научных ислледований

116 Newell A., Simon H. Computer science as empirical inquiry: symbols and search. Communications of the ACM, 19 (3): 113-126, 1976.

120