
Наумов Современные проблемы философии науки 2011
.pdfСеть позволяет забыть свое «Я», соткав его из произвольных девизов и изображений. Наиболее характерной для этого нового мировосприятия современного субъекта является надпись, сопровождающая карикатуру Петера Штейнера: «В Интернете никто не знает, что ты собака».
Однако, проблемы, связанные с идентификацией личности важны не только для социальных институтов и защитных программных средств аутентификации и авторизации. Странным образом, подобная проблема оказывается едва ли не ключевой в методологии исследования искусственного интеллекта. Действительно, если, в той или иной мере, мы не можем знать, что думает, например, наша любимая собака, проявляющая порой чудеса сообразительности; если мы не можем идентифицировать некоторые болевые ощущения высших приматов, столь схожих с нами; если мы не можем понимать дельфинов и китов (чей размер мозга порой превосходит наш); если мы в столь малой мере можем понять, какой страх терзает нашего ребенка, еще не способного к речевой деятельности; и, наконец, если мы с таким трудом понимаем доводы наших оппонентов и зачастую просто не верим, что человек может думать таким непонятным способом – все яснее становится чудовищная пропасть, отделяющая нас от диалога с искусственным интеллектом, про который мы не можем знать ничего: ведь у него нет выдающих его эмоций, психологии, и он, в конце концов, не обязан думать подобно нам. Вполне вероятно, что буквально каждая из созданных ныне технологий искусственного интеллекта смогла заставить некоторую машину мыслить – и машина просто не видит смысла в том, чтобы вступать в диалог с нами. Фантастический сценарий, но философски – наиболее тревожащий. Мы не только не обладаем критерием того, кто на том конце провода, но и не имеем никаких представлений о природе той психики, которую стремимся смоделировать на компьютере. Таким образом, не только когнитивные науки вынуждают нас к определению сути человеческого «Я», но и первые же погружения в теоретические основания искусственного интеллекта должны предваряться минимальным пониманием того, что, собственно, есть искомое в искусственном интеллекте.
Камнем преткновения в прояснении подобных вопросов служит тот факт, что многие понятия находятся в семантической «страто-
101
сфере» – в режиме нехватки контекстуальной нагрузки, где смежные области вынуждают данные понятия «дрейфовать» по области возможных значений. Например, в вопросах об «несущественности» субъекта, по-разному поставленных в философии сознания, философии искусственного интеллекта и в постструктурализме, в различных перспективах высвечивается связь феноменов понимания и «Я». Предполагается, что если нечто «понимает», то оно – «Я». Такое рассмотрение основано на декартовском cogito (т.е. «я мыслю»), где, в силу особенностей языка, «Я» уже инкорпорировано в аспект «мышления-понимания». Фундамент этот базируется на том аргументе, что если кто-то и обманут в той или иной нити своего восприятия, то он все же остается именно этим обманутым «Я». В похожем отношении сложен вопрос о том, насколько обоснована в своем существовании коммуникация. Может ли коммуникация «быть», но не «производиться»? Социолог Никлас Луман устраняет субъективность из феномена коммуникации следующим тезисом: «Коммуницировать может только коммуникация». Тем самым разделимы становятся два важнейших коммуникативных аспекта искусственного интеллекта: умение коммуницировать и видение необходимости вступать в коммуникацию. Очевидно, что подобное слияние понятий во многих отношениях подрывает методологические возможности «коммуникативного» описания искусственного интеллекта – тем важнее и обоснованнее обращение когнитивных наук к собственно философскому базису «миропонимания», которым пренебрегают для «ускорения» решения вопроса о
«Я».
1.4. К определению дисциплины
Уразумение реальности в полном ее объеме – неизбывная мечта человечества. Однако, наука соприкасается лишь с той гранью действительности, которую делает предметом своего изучения. Научное воззрение изначально ограничивает взгляд ученого конкретными условиями конкретного опыта: астроном созерцает звездные констелляции, биолог – живую систему в ее эволюции, математик – формальное преобразование уравнения. Ни одному из видов познания явление не раскрывается во всей своей полноте.
102
Не одно тысячелетие понадобилось человечеству, чтобы в «деле о природе познания» проявились необходимые научные «свидетельства» и накопилось достаточное количество «показаний» философов, психологов, нейрофизиологов, биологов, кибернетиков. Еще Аристотель полагал, что органом познания является сердце, а мозг играет вспомогательную роль «охлаждающей системы». Рене Декарт увидел в «мышлении» и «протяженности» различные субстанции, связываемые воедино некой мозговой – «шишковидной» – железой («душа и тело»). Дэвид Юм заложил основы психологии, Иммануил Кант исследовал структуру гносеологического (познавательного) субъекта, показав, что «чувственная», «рассудочная» и «разумная» грани соприкосновения с реальностью являются различными ступенями познания. Анри Бергсон выявил несостоятельность интеллектуальной составляющей познания, рассматриваемой без учета интуиции. Зигмунд Фрейд предположил существование обширных регионов психического бытия, бессознательной психики, непрозрачной для взгляда разума. Аналитическая философия сконцентрировала свое внимание на «некорректности» употребления языка, благодаря которой возникают ложные представления о том, что есть «сознание», «я», «мир». Таковы отдельные моменты генезиса современной «философии сознания», одним из разделов которой и является философия искусственного интеллекта.
«Философию искусственного интеллекта» не следует путать с «искусственным интеллектом». Последний является техническим предметом, первая – гуманитарна по своим интересам, несмотря на то, что она вынуждена пользоваться для своего развития и техническим понятийным базисом. При изучении этого раздела философии желательно помнить, что полное ее название корректнее звучало бы в следующей формулировке: «Философия и методология искусственного интеллекта, когнитивных наук и теорий сознания». Здесь важно видеть, что всякого рода размышления о природе интеллекта производятся на основе сравнения естественного и искусственного интеллекта.
Философия искусственного интеллекта является междисциплинарной, т.е. она использует модели различных наук для построения своих теорий, обобщений, абстракций. В научном сообществе пока нет согласия по поводу того, что же следует считать искусственным интеллектом.
103
Действительно, проблематичным представляется уже само наименование «искусственный интеллект», поднимающее ряд непростых вопросов. В их числе вопрос о том, должен ли искусственный интеллект сводиться исключительно к «интеллекту» – ведь то, как мы понимаем естественный интеллект, во многом обязано его нераздельной связи с целостным организмом человека. Еще Декарт, оформивший новое западноевропейское понимание субъективности в виде основополагающего тезиса «мыслю, следовательно, существую», рассуждал о природе «мыслящей вещи» в весьма общих терминах, понимая под мышлением как интеллектуальную активность духа, так и желания, воления, созерцания, чувства (ибо чувства, например, могут привидеться нам во сне, следовательно, им не чужда ментальная природа восприятия).
Другой вопрос стал особенно актуальным после публикаций о «науках об искусственном» Нобелевского лауреата Герберта Саймона (разработавшего первую программу искусственного интеллекта «Математический логик» в 1955 году). Принципиально важно понять, что следует считать «искусственным» в искусственном интеллекте: совершенно очевидно, что ребенок от рождения лишь обладает способностью приобрести или развить интеллект, но не обладает еще самим интеллектом. Таким образом, либо мы должны признать ребенка изначально интеллектуальным, либо нам следует считать «интеллектом» те конструкции образования, воспитания и обучения, которые мы искусственно вкладываем в сознание ребенка. Сама эта проблема отнюдь не нова для философского знания: в ней слышны отголоски теории Платона об анамнезисе (познание – это воспоминание души о пребывании среди идей в сверхчувственной реальности), спора Декарта и Локка о врожденных идеях (для Локка душа – tabula rasa, чистая доска, на которой опыт производит идеи; в то время как по Декарту, душа имеет многие идеи уже при рождении).
На этом этапе уже очевидны принципиальные трудности: следует ли считать, что существует некое «сознание», в котором развивается такой феномен как «интеллект»? Либо же следует ввести еще более дифференцированную градацию «интеллектуальности», например, различить сознание, мышление, разум, рассудок, рациональность, ментальные процессы, психику, бессознательное и т.п.? Причем, в данном спектре мы даже не пытались учесть факт функ-
104
циональной организации человека и его сенсорной чувствительности к различного рода раздражителям. Мы, таким образом, упускаем в данном рассуждении важный «генетический момент» происхождения сознания (интеллекта) из опыта, т.е. не учитываем еще один ряд параметров, каждый из которых может нести на себе «интеллектуальную нагрузку» (как это в буквальном смысле понимал Рене Декарт): восприятие, ощущение, чувство, раздражимость, активация. На более глубинном уровне возникают принципиальные моменты, связанные с физиологией обработки информации: почему мы мыслим столь быстро, если мозг использует не только язык электричества, но и медленные химические процессы для передачи сигнала о поступающем стимуле?
Упомянутые проблемы – лишь первый фронт сложностей, с которыми сталкивается философия искусственного интеллекта. Даже если мы на уровне определений решим считать те или иные дефиниции «верными», нам не избежать представлений о «квалиа» - субъективной действительности, т.е. внутренней реальности сознания или его самоочевидности. Скажем, что следует считать «пониманием» в случае искусственного интеллекта? Понимает ли калькулятор решаемые задачи? Безусловно, нет. А компьютер, победивший Гарри Каспарова? Тоже нет. Но какая должна быть сложность задач, решаемых машиной, и какой должен быть уровень адекватности ответов, чтобы мы могли сказать: да, этот компьютер «понимает» задачу так же, как человек? Отсюда возникает не просто проблема «осознания» себя, но и проблема «познания»: каким путем осуществляются когнитивные (т.е. познавательные) процессы в информационных системах, частными случаями которых является естественный и искусственный интеллект? И, если мы остаемся на уровне компьютерной метафоры, спросим: сможет ли ко- гда-либо искусственная система перейти от операций со знаками (синтаксис) к присваиванию знакам смыслов (семантика), и в чем качественное отличие семантического измерения ситуации от ее формального пересчета на уровне синтаксиса? Могут ли эвристические методы, сокращающие компьютеру путь к решению задач (а стандартный путь есть перебор всех вариантов), достичь однажды той невероятной экономии, которую дарит сознанию озарение, понимание ситуации на смысловом ярусе познания? Частные (и в этом отношении еще недостаточные) ответы на подобные вопросы
105
исследователи получили в теории семантических сетей, где за счет определенных свойств графов достигается значительная когнитивная экономия (этот термин применяется в теориях ассоциативных сетей, однако, он достаточно явно выражает потребности любой сферы искусственного интеллекта). Показательно, что концепция семантической сети обязана своим рождением философу Чарльзу Пирсу, создателю прагматизма и семиотики (науки о знаковых системах), применявшему в своих исследованиях так называемые «экзистенциальные графы».
В программировании приложений искусственного интеллекта несложно заметить, что дискурсивные (понятийные) сложности, являясь формальными по характеру происхождения, в значительной мере затрагивают, помимо синтаксического, также семантический и прагматический уровни. По сути дела, программист вынужден решать семиотические задачи о столкновениях новых и уже бытующих знаковых систем. Простейшим примером таких коллизий может служить построение синтаксического анализатора, который в определенных ситуациях не может отличить последовательность символов в некотором тексте от той же последовательности символов в математическом преобразовании. Решать многие подобные задачи было бы несравненно легче, если бы, помимо синтаксической, была также выстроена и семантическая ось принятия решений и понимания проблем.
Наиболее значимыми (но не единственными) на сегодня представляются две парадигмы исследования искусственного интеллекта – бионическая и эпистемологическая. Первая парадигма основана на имитации физиологии, биологии и психологии человека и любых одушевленных существ, т.е. составляет значимую часть именно дисциплины «искусственный интеллект», а не философии последнего. Вторая парадигма, эпистемологическая, во-первых, предполагает осмысление вопроса «Что такое разумность?» и, вовторых, основана на попытке формализации знаний о мире в пространстве решений, благодаря чему субъективное представление о мире может рассматриваться в виде фактов, задач и их сведения к «общему знаменателю».
Таким образом, предметом исследования философии искусственного интеллекта является теоретическое освоение познавательных процессов, сознания, интеллектуальных технологий с целью
106
построения критериев существования искусственного интеллекта и выяснения сферы применимости данных критериев.
1.5. История искусственного интеллекта
История искусственного интеллекта – история мистификаций и магии. Начиная от самодвижущихся статуй Древней Греции и автомата по продаже воды Герона Александрийского в первом веке до н.э. (монета падала на рычаг, извлекающий пробку из сосуда) через ряд средневековых размышлений (Раймонд Луллий, 13 век) кукольных поделок и раздумий Леонардо да Винчи о поразрядном сумматоре к первым подлинным автоматам: танцующим, пишущим, играющим на музыкальных инструментах – и это уже в 17-18 веках! В 1641 г. Блез Паскаль (известный математическими произведениями, но, и, в не меньшей степени, философскими воззрениями) создал устройство механического счета «Паскалина», что привело его к умозаключению об аналогии счетного процесса и мышления. В 1773 г. философ и математик Вильгельм Фридрих фон Лейбниц создал двенадцатиразрядное десятичное арифметическое устройство. В середине 18 века Жак де Вокансон создает искусственного музыканта, имитирующего мимику и движения флейтиста и способного к воспроизведению дюжины музыкальных композиций для флейты. В самом начале 19 века Жозеф Жаккар представляет публике ткацкий станок, переходящий от узора к узору посредством перфокарт, подобно первым гигантским ЭВМ.
Начиная с 1769 г. возникают шахматные автоматы, способные обыгрывать сильнейших шахматистов – впрочем, именно вокруг подобных созданий было создано столь много легенд, сколь же разочаровывающим был секрет их функционирования. Дилетантизм и шарлатанство сопровождало подобные изделия, однако, в современной философии сознания находятся теоретики, утверждающие, что и личностное «Я» – иллюзия, по неясной причине сопровождающее когнитивные процессы. И, несмотря на стойкость этой иллюзии она не более значима, чем любое когнитивное проявление системы: «Я» не понимает используемых им значений.
Однако, то, что способно сдержать воображение индивидуума, не способно остановить ход истории, воплощенной в гениальных
107
прозрениях. В 1820 г. сэр Чарльз Бэббидж, проигрывает несколько партий первому шахматному автомату по имени «Турок» (созданному Вольфгангом фон Кемпеленом еще в 1769 г.). Несмотря на свой однозначный диагноз о шарлатанстве, в данном случае Бэббидж воспринимает факт своего проигрыша как руководство к действию и уже через два года, в 1822 г., создает разностную машину
– механический компьютер (применяющую, среди прочего, и перфокарты, как в ткацком станке Жаккара, и способную к вычислениям значений определенных полиномиальных функций) и задумывает Аналитическую машину, реализация которой состоялась лишь в 1940-х годах. Именно эта идея – идея машины, анализирующей данные и синтезирующей их в новое знание – является прообразом мечты о думающей машине, или искусственном интеллекте (Ада Лавлейс, помощница Бэббиджа, поясняла, что Аналитическая машина не должна была производить новое знание, эта формулировка озвучивала лишь мечту). Сказки о джиннах, гомункулусах, Големе, чудовище Франкенштейна все более переходили из класса представлений о сверхъестественном в класс «вменяемых, но не реализуемых на данном этапе». Последующая разработка компьютерного искусственного интеллекта не была бы возможна без умения фиксировать фундаментальные законы мышления и операции рациональной работы в виде последовательностей символов. Формализовал работу разума Джордж Буль, создавший эффективный инструментарий, отображающий последовательность логических операций посредством символов И, ИЛИ, НЕ. Таким образом, логические законы стало возможным применять в рамках формального исчисления, в соответствии с таблицами истинности операций, и не задумываясь об их смысле. Последующие шаги по автоматизации процесса рассуждения, сохранении истинности операций, генерирования предложений из аксиом были сделаны математиками и философами Готлобом Фреге, Бертраном Расселом, Альфредом Уайтхедом, Альфредом Тарским. Однако подлинная драма искусственного интеллекта связана с двумя программными шагами в этой области, сделанными Куртом Геделем и Аланом Тьюрингом.
В 1936 г. Тьюринг изобрел абстрактную машину и привел доказательство того факта, что на ней может быть реализован любой алгоритм. Буквально это означало следующее: все то, что может
108
быть сведено к алгоритмически исполнимому процессу, теперь могло быть просчитано на автоматизированной станции реализации алгоритма – для самого же Тьюринга это означало также и то, что на его машине может быть реализовано мышление. Однако, пятью годами ранее Курт Гедель показал, что для любой формальной системы (при заданном наборе операторов перевода системы из одного состояния в другое) невозможно получить ВСЕ правильные следствия первичного тезиса, т.е. сам факт формализма отрицает полноту и замкнутость системы. Тем самым было показано, что никакая алгоритмически-описательная полнота системы не гарантирует ее полную «исчисляемость» в данном формализме. Так родилась проблематика соотношения вычислимости-невычисли- мости, соотносящаяся с вопросами детерминизма-индетерминизма. В связи с появлением квантовых компьютеров, ДНК-компьютеров проблемы невычислимости вновь попали в центр теоретического осмысления.
Переломный момент в технической стороне вопроса возник в 1941 г. – впервые был построен электронный компьютер под названием Z3 (Конрадом Цузе), «Heath Robinson» и «Colossus» (Аланом Тьюрингом в 1940-43 гг.)
109
Глава II Интеллект: критерии,
наблюдаемость, сложность
С точки зрения методологии важно рассмотреть ключевые понятия, выделившие философию искусственного интеллекта из общего фронта исследований сознания. Имеет смысл выделить следующие теоретические моменты: имитация и способы наблюдения разума, «комплексность» или «сложность» интеллекта, тесты на разумность, принцип «несущественности» сознания, аргумент «зомби». Некоторые из названных моментов мы рассмотрим подробнее.
2.1. Имитация интеллекта: «быть» или «выглядеть» разумным
Смутное понимание того, что именуется интеллектом, принимает порой анекдотический характер. Одному из создателей теста на показатель интеллектуальности IQ некогда задали вопрос о сущности интеллекта, на что он ответил: «Интеллект – это то, что измеряет мой тест». Безусловно, ученые подразумевают под этим понятием некоторую теоретическую сущность, допускающую предположение, что о ней можно судить по некоторым ее проявлениям. Например, в тестах на интеллектуальность проверяется способность человека выбирать наиболее адекватный ответ к данному заданию. Иммануил Кант с подобных же позиций изучал рассудок: мерой рассудочности служит корректность использования категориального аппарата в рассуждениях. И схожим образом рациональность понималась в социологии Максом Вебером: по действиям субъекта мы можем судить о рациональности, обосновывающей эти действия. Таким образом, интеллектуальность, рассудочность, рациональность понимается исследователем с позиций наблюдения: интеллектуальным именуется то, что в своих проявлениях демонстрирует знакомый образ интеллектуального поведения. Но что, если некоторая система обучена действиям, неосознаваемым ею самой, но благодаря которым ее поведение выглядит разумным, т.е. что система лишь имитирует разумность, не обладая ею?
110