Добавил:
Upload Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:
История и Философия Науки.pdf
Скачиваний:
66
Добавлен:
03.06.2015
Размер:
898.71 Кб
Скачать

Лекция 6. Основания науки и их структура

Дата: 12.11.11

Лектор: Липкин Ключевые слова: основания физики, модель Куна,

революция науки, нормальная наука, понятия науки, структура оснований науки, третий позитивизм

Липкин Аркадий Исаакович.

Физика всегда являлась полигоном для философии науки, поэтому в физике она развита наиболее сильно. Например, позитивизм оказал большое влияние и на социальные науки. Тем не менее, история остановилась на втором позитивизме, а в философии науки вокруг естественных наук был еще и третий позитивизм. Дело не только в физике, о которой пойдет речь, но и в том, что она является плацдармом для философии науки. Философия науки возникает в рамках второго-третьего позитивизма. Превращение теории познания в философию науки – это что-то сродни превращению натурфилософии в науку, философия науки появляется, когда наука начинает сопротивляться предлагаемым моделям, тогда возникает обратная связь и рефлексии, которые строятся по отношению к науке, впервые могут отрицаться каким-то реальным процессом. Во всяком случае, в какой-то степени.

Взглянув на всѐ, что было из современности, моно утверждать, что современная наука рождается в 17-м веке, ее рефлексия идет через два главных учения теории познания: рационализм и эмпиризм. Соответственно, рационализм начинается с Декарта, а эмпиризм – это Локк в рамках нового времени и Фрэнсис Бэкон как основатель идеологии эмпиризма, но еще из времени Возрождения. После того, как возникает Локк, физика и другие естественные науки до сих пор воспринимается в рамках эмпиризма. В лице Беркли возникает английский материализм. Далее появляется французский материализм. Потом возникает критика Юма, из которой следует Кант, как некая центральная фигура. И из Канта, его априорных форм возникает еще одно различение – на конструктивизм и реализм. Отношение эмпиризма и рационализма следует из вопроса появления научного знания. Одни говорят, что из разума – дедукция, а другие говорят, что из опыта. И тут есть два варианта: по Бэкону это эмпирическая индукция, а по Локку – из простых идей сложные. Возьмем Бэконовский вариант (потом он становится главным). Конструктивизм и реализм расходятся по другому основанию: научные знания содержат некие элементы – частицы, атомы, поля- и вопрос в том, как они относятся к природе. Какие из этих элементов, приписываемых природе первичны? Что характерно для ученых

– если первична природа, то тогда ученые занимаются открытиями, и это позиция реализма. Но в ней возникают проблемы, на которые указывал Юнг, а потом Кант. И для того, чтобы обойти эти проблемы, возникает вторая, идущая от априорных форм Канта, противоположная концепция, что ученые занимаются изобретением. Они изобретают те априорные формы, через которые человеку доступна природа. Нет ничего независимого, что можно было бы брать – все, что мы берем, мы берем через культуру. Человек в этом плане существо культурное, и других оснований нет. Это начинается с Канта, а споры реализма и конструктивизма вспыхивают с новой силой в конце 20-го века. И являются актуальной темой.

В середине 19-го века возникает позитивизм. Первый связан с Контом, здесь задаются главные линии позитивизма: первая – отрицание метафизики, которой называют всю классическую философию от Декарта до Канта, и второе – это эмпиризм, но эмпиризм не по Локку, а по Бэкону. И третий момент – это всю метафизику выбросили, но критику Юма (из опыта нельзя найти причину) оставили, и для того, чтобы ее обойти,

47

делается утверждение феноменологического плана: задача науки не искать причины, она только описывает. Эти три пункта характерны для всего позитивизма.

В конце 19-го века возникает второй позитивизм, главные фигуры которого Мах, Пуанкаре, Дюгем. Первый позитивизм для ученых был интересной темой, но интересной, как чайная беседа – у них не было собственных проблем, механика Ньютона служила образцом, всѐ двигалось вперѐд быстрыми темпами, все были довольны. Собственно, никаких философских проблем не возникало. В конце 19-го века ситуация кардинально меняется: перед учеными встают фундаментальные проблемы, кризис основания науки, и поэтому философские проблемы становятся актуальными. Кризис начался в математике и был связан с появлением неевклидовых геометрий, а в физике это было связано с появлением электромагнитного поля. Ситуация была такая: до появления э.-м. поля было понятно, что движется – тела движутся, жидкости и т.д. Поэтому считалось, что наука ищет законы движения и вопроса не стояло. А с появлением э.-м. поля возникает совершенно новая ситуация – становится непонятно, что такое э.-м. поле, что движется. Это вызвало мощную рефлексию, в первую очередь историческую. Историю механики написал Мах, где ставится под вопрос всѐ, что раньше казалось очевидным, основания механики – что такое сила, масса, второй закон Ньютона - это определение силы и массы или что-то выведенное в духе эмпиризма? В результате так же, как в геометрии возник кризис, гносеологически известный как кризис физики. Поэтому центральные герои второго позитивизма – это ученые, они ставят и решают философские проблемы для себя. Принципиальный момент заключается в том, что перестают работать старые способы определения базовых понятий. Проще всего это проиллюстрировать на примере математики: до появления неевклидовых геометрий у вас было два вида понятий – первичные и вторичные. Первичные – точка, прямая и еще рад понятий. А вторичные – фигуры: треугольник и пр., которые определяются через первичные. Первичные считались очевидными и не проблематизировались. Но как только появляются другие геометрии, где прямая будет совсем другое, как сразу этот способ перестаѐт работать, и возникает кризис оснований математики, который решает Давид Гильберт в конце 19говека, давая другой тип определения – не через очевидность, а, так называемый, неявный тип определения через систему аксиом. У вас есть система утверждений – их сразу много

– в которую входят базовые понятия, причем по нескольку в каждое утверждение, они не расцепляются. И они задаются все разом, они все одного уровня. Это совсем другой тип определений, который позволяет строить сложные ненаглядные объекты. Физику, начиная с э.-м. поля понять старым образом (как еѐ преподают в том числе и на Физтехе в рамках курса общей физики) понять невозможно в принципе, потому что там перешли к другому типу задания базовых понятий. И этот другой тип на самом деле содержится в курсе теоретической физики, где прописано всѐ – и эксперимент, и теория. Эта революция происходит в физике и математике, но не во всех науках. Во многих остаѐтся старый способ, заявленный Декартом, что исходные понятия не определяются, но зато они очевидны. Этот переход с одной стороны порождает современную теоретическую физику, а с другой стороны он и есть суть методологической революции на границе 19-20 века. Когда говорят «научная революция 20-го века», имеют ввиду не методологическую еѐ часть, а результаты – теорию относительности и квантовую механику. Но теория относительности и квантовая механика являются плодом методологической революции, которая происходит несколько раньше. Всѐ идет аналогично тому, что происходит в математике, разница заключается в том, что в математике была четко поставлена проблема, и потом она была решена, а в физике она была решена, не будучи поставленной. Физика просто смотрела на математику, делала нечто подобное. Было утверждение кризиса, из которого потом вышли, но четкой рефлексии того, что произошло, не состоялось. И из этого много что вытекает.

Вернемся чуть-чуть назад. То, что берется в философия науки, в первую очередь в позитивизм – это эмпиризм, как он понимается по Бэкону. В редакции второго

48

позитивизма он выглядит следующим образом - можно выделить три слоя: слой эмпирических фактов, слой эмпирических законов и слой теоретических законов. Каждый нижеследующий выводится из предыдущего путем обобщения. Пример: эмпирические факты – данные Тихо Браге, эмпирические законы – законы Кеплера, а теоретические законы – законы Ньютона. В чем принципиальная разница между третьим и вторым слоями? В том, что эмпирические законы формулируются на языке тех величин, которые наблюдаются на первом слое. Законы Кеплера про движение планет, которые и наблюдаются. А теоретические законы вводят понятия, которых на первом слое не найти, поэтому здесь есть нечто качественно другое. Все позитивизмы обращаются к физике в первую очередь, но распространяются значительно шире. Это влечет за собой вопрос: что же такое физика? Если посмотреть в философский словарь, там вы найдете, что физика занимается наиболее фундаментальными свойствами материями, или что-то в том же духе. Тут хотелось бы задать вопрос: в чем разница в плане фундаментальности между термодинамикой и неорганической физикой. На этот вопрос нельзя ответить, имея такое определение. Если взять физическую энциклопедию, там будет сказано, что физика – это то, чем занимаются физика. Это ответ по Томасу Куну. А третий вариант – науки определяются теми моделями, с помощью которых они описывают природу, в этом случае физика, как самый развитый пример есть совокупность разделов физики, которые вы можете найти, например, в Ландау-Лифшице. Раздел – это то, что имеет два уровня: уровень оснований и уровень конкретных теорий, т.е. есть квантовая механика и есть теория сверхпроводимости. А общим между этими разделами является тип моделей, с которыми физика имеет дело. К этому типу моделей относятся следующие два момента: один момент – в системообразующем основании каждого раздела физики лежат некие процесс, который всегда можно определить. Например, изменение задается как изменение некой физической системы, как изменение ее состояния, т.е. некая физическая система имеет множество состояний и любое изменение в физике описывается как переход из одного состояние в другое. Если это динамика, то номером состояния является время. Второй момент заключается в следующем: все понятия связаны, они задаются в рамках одного уровня, они состоят из множества утверждений, где задается сразу некое множество понятий, в том числе и понятие базовых объектов – поле, частица и т.д. Эти базовые объекты (я их буду называть первичные идеальные объекты) образуются в физике всего с помощью двух архетипов – архетип частицы и архетип сплошной среды. И вся дюжина разделов физики, которая описана у Ландау и Лифшица состоит из различных модификаций частицы, среды или их комбинации. Этот тип модели, т.е. любой процесс как переход из одного состояния в другое и два архетипа задает специфичные для физики модели, с помощью которых она описывает природу.

Куновская модель. Есть первый, второй, третий позитивизм – 1930 год, логический позитивизм. Идея наличия некоторых независимых эмпирических фактов, т.е. языка наблюдений и принцип верификации: утверждение является научным, если его через логико-математическую цепочку можно свести к какому либо эмпирическому факту. При этом неважно, получится ли оно истинным или ложным. А если нельзя свести, то это метафизика. Это основное утверждение, связанное с третьим или логическим позитивизмом. В основе его лежит логика. Третий позитивизм возникает на фоне шока от появления теории относительности. А шок связан с тем, что если после трѐхсот лет царствования ньютоновской механики она окажется неверной, то непонятно, чему вообще можно верить. Строились конструкции, как бы так понять науку, чтобы больше такого безобразия никогда не происходило. Логические позитивисты утверждают, что науку надо анализировать с помощью логики и т.д. Центральной являются идея верификации и идея независимых от теории эмпирических фактов. Вот второй половине 20-го века появляется постпозитивизм, который показывает, что эмпирические факты практически всегда эмпирически нагружены, поэтому нет такого языка, вообще вся эта конструкция развивается. Но критика чего-либо еще не означает создание чего-то нового. Все

49

элементы логического позитивизма оказываются разрушены, но тем не менее от них продолжают отталкиваться, поэтому через него смотрят и сегодня многие построения философии науки. Из принципиально нового в постпозитивизме была вброшена историческая линия развития науки, историческая критика позитивизма. Это в первую очередь Кун и Лакатос. Наиболее значимым мне представляется Кун – его идеи надо иметь на вооружении, если вы хотите рассматривать как нечто новое возникает в культуре, не только в науке. У Куна есть верные и неверные утверждения, основное, из того, что он сделал заключается четырѐх понятиях: понятие парадигмы (по-гречески, образец), понятие сообщества, которое объединяется вокруг данной парадигмы и работает с данной парадигмой, т.е. парадигма – это набор средств, с помощью которого работает данное сообщество. Третье – понятие нормальной науки, той, что с помощью данной парадигмы производит данное сообщество. Это основная тройка понятий. Есть некая система понятий, каждое из которых нельзя задать в отдельности. Что будет парадигмой будет зависеть от того, на что вы еѐ опрокинете, например, основания и разделы физики – парадигма, а конкретные теории – нормальная наука. Нормальная наука обладает интересным свойством, которое Кун рассматривает как отрицательное, но мы сейчас окажем, что оно позитивно. Если возникает нечто, неважно, экспериментальное или теоретическое, что не может быть обработано данной парадигмой, то сообщество равнодушно выбрасывает это в чулан, у него нет комплексов по поводу того, что оно не может что-то желать. В чем позитивная сторона этой медали? Если бы на всѐ надо было откликаться, наука никуда бы не сдвинулась. Один дурак может задать столько вопросов, что сто мудрецов будут разбираться тысячу лет. Это свойство блокирует от подобной ситуации. Обратная сторона в том, что отбрасываемое может быть полной ерундой, но может оказаться и каким-то принципиальным моментом, который к чему-нибудь привѐл бы, и Кун делает акцент именно на этом. Парадигма – что-то вроде прокрустова ложа.

Четвертое понятие – научная революция, рождение новой парадигмы и, как следствие, новой нормальной науки. По Куну парадигма может быть только если вокруг неѐ есть сообщество, которое будет создавать нормальную науку. Значит, по Куну научная революция совершается в социально0психологическом пространстве. Если существенная часть сообщества начнет производить новую нормальную науку, тогда произошла научная революция, если этого не будет, тогда зародыш может и есть, но с ним может произойти что угодно, он может остаться зародышем, может умереть. Перетекать или не перетекать – экспертное решение представителей данного сообщества. Если смотреть по истории физики, есть процесс, облегчающий этот переход.. как правило. Это происходит после того, как в первой нормальной науке возникает аномалия, и по какой-то причине (это, опять же, экспертная оценка) сообщество считает, что то, что не перерабатывается парадигмой – нечто существенное, на что стоит тратить время, не выбрасывать в чулан, а продолжать заниматься. Если нечто долго не поддаѐтся, и его не выбрасывают в чулан – это аномалия. Если вдруг решают, что не решив эту аномалию, нельзя двигаться вперѐд – это кризис. Если при этом новая парадигма решает проблему этой аномалии, это серьезный повод перейти к этой парадигме, но это совсем необязательно. Многие крупные физики так и не приняли до самой смерти теорию относительности или, например, квантовую механику. В этой модели Куна, что важно, тоже есть два уровня – уровень нормальной науки и уровень парадигмы. Куновская модель рассматривает взаимоде2йствие людей и идей и она высвечивает факт, что внедрение новых идей - большая проблема. Про это знают не только изобретатели, что мало изобрести, нужно еще и внедрить, чтобы это вошло, но та же самая ситуация имеет место и в науке и вообще в любом культурном нововведение. Внедрение нововведения может быть очень трудной задачей, может быть не менее сложной, чем то, что происходит. В этом плане в случае Эйнштейна ему помог Планк: если бы Планк не всунул его в этот самый журнал, не занялся бы потом сам этой проблемой, неизвестно, как бы это вошло и вошли ли. Как пишет Дирак по поводу фотоэффекта и Эйнштейна: «Надо же,

50

такой умный человек, а такую ерунду сказал», корпускулярно-волновое поведение у света. Но тогда Эйнштейн уже обладал авторитетом, а первый момент преодоления этого сопротивления Эйнштейну помог сделать Планк. Более того, если у вас серьезное нововведение, с большой вероятностью найдется академик. Который его поддержит, но экспертная комиссия из академиков, скорее всего, его отвергнет, это свойство такого нововведения. Все экспертные советы для этого и Нобелевские премии дают за это. Эйнштейн не получил Нобелевскую премию за теорию относительности, а премии за квантовую механику получаются, либо когда сначала не различается, что они выходят из нормальной науки, либо через много-много лет, когда соответствующая научная революция уже состоялась, за прежние достижения. Модель очень мощная.

Вернемся к физике. Как выглядят основания разделов физики и что из этого следует. Структура оснований складывается как продукт двух революций: революция 17-го века и революция на рубеже 19-20 века. В 17-м веке начинается с теории падения Галилея и там возникает базовая структура для оснований и одновременно для того, что называют физическим экспериментом. Трѐхчастный симбиоз натурфилософии и техники. Натурфилософия – построение моделей из каких-то умозрительных сущностей. Например, атомизм Демокрита и его продолжение в 17-18 веках. Суть натурфилософии в том. Что еѐ невозможно сравнивать с реальностью: картинку нарисовали, а сопротивление материала там не предусмотрено. В теории падения Галилей к натурфилософской модели пристраивает из техники операции приготовления и измерения. Это совершенно принципиально другой материал, потому что наука и натурфилософия занимаются совершенно естественными явлениями, не зависящими от человека, а техника занимается искусственными вещами, не существующими без человека. Естественная наука, возникающая в результате этой революции является специфическими симбиозом того и другого. У Галилея в теории падения можно выделить два слоя: слой физических моделей и слой математики. Слой моделей – три элемента: тело, пустота и среда. Математика – закон падения тела, что тело падает пропорционально времени падения. Если мы уберѐм технические элементы, получится типичная математизированная натурфилософия, которая не может быть, в терминах Поппера, фальсифицирована, еѐ никак нельзя опровергнуть. В ней задаѐтся понятие пустоты, как то, где тело падает таким образом, среда задаѐтся как источник того, что тело таким образом не падает, как источник того, что мешает ему падать. Никаким независимым образом среда не задается, отсюда получается неопровержимая логическая конструкция. Но дальше, поскольку это уже позднее Возрождение и у техники, у инженерных работ уже совсем высокий статус, то Галилей на это смотрит как инженер, он рассматривает всю натурфилософскую часть как проект, который надо воплотить в материал. Поэтому он выполняет процедуру приготовления для пустоты – трубка Торричелли с откачанным воздухом или наклонная плоскость – приблизительная реализация этой пустоты, и плюс измеримые величины, скорость, сравнение с эталоном и прочее. Возникает реализация идеальных конструкций. Этот симбиоз и становится основой естественной науки.

Следующий ход, усложнение, возникает у Ньютона, когда появляется та самая двухуровневая модель. Есть отдельное невероятное количество конкретных теорий, которые можно строить, и основание самой механики. Третий шаг – революция перехода к неявному определению, где основание задаѐтся как совокупность утверждений. Эту совокупность утверждений можно структурировать. Структура будет единой для всех разделов физики и заключаться в следующем: в слое моделей фиксируется базовый физ. Процесс, т.е. переход системы из одного состояния в другое состояние, а в математическом слое фиксируются уравнения движения, через которые эти состояния связываются. Естественно, здесь должны быть еще математические образы, через которые можно перейти на другой слой и с него вернуться. Эта структура определяет те вопросы, которые входят в основание. Что такое физическая модель, которая будет задаваться состояниями, что такое эти состояния, каковы математические образы, какие уравнения

51

движения, какие операции измерения, измеримые величины и система отсчѐта. Ответив на эти вопросы, которых меньше десяти, вы получаете задание всех основных понятий, которые входят в данный раздел физики. Эта штука имеет прикладное значение в двух случаях: для неофита, когда вы переходите из одного раздела в другой и хотите встать на твѐрдую почву, а не слушать, что советует вам очередной академик, то тогда вы сюда спускаетесь и можете чувствовать себя с ним наравне, если у вас есть соответствующая проблема. На модели Куна получается, что вопросы, которые вы получаете и обсуждаете

всвязи с философией науки неважны, пока вы находитесь в нормальной науке. То есть, вопросы интересны, о них можно поговорить за чаем. Но это никак не влияет на то, что вы делаете. Это важно либо для неофита, который хочет понять, что ему там наговорили, либо для того, кто занимается революцией. Это становится актуальным, и именно поэтому накануне научных революций 19-20 века, эти вопросы в районе второго позитивизма чрезвычайно волновали научное сообщество. И именно в это время Мах со своей экзотикой, со своим конструктивизмом был очень популярен. Когда после 27-гогода физика выходит в нормальное состояние, подавляющее большинство возвращается к привычным и более спокойным представлениям реализма. Мода на что-то более сложное типа маховского конструктивизма характерна накануне революции, когда же всѐ спокойно, можно взять себе что-нибудь попроще или вообще неважно что, это ни на чем не скажется.

Что можно получить из этой структуры в плане проблем, которые обсуждались в философии науки в том числе в первую очередь в третьем позитивизме. Во-первых, из эмпиристского глубока со времен Бэкона и Локка, поскольку всѐ опирается на опыт, опыт понимался сенсуалистически как то, что воспринимается органами чувств, то оттуда идѐт само понятие наблюдения. Наблюдение – то, что связано с сенсуалистским пониманием эмпиризма. Умноженное на третий позитивизм, где вводятся эмпирические факты, эмпирические факты обозначаются как наблюдаемые и теоретически не нагруженные, то есть то, что мы можем наблюдать. Соответственно, возникает очень тяжѐлый для этого понятия вопрос: если мы используем приборы, то это наблюдаемые или не наблюдаемые факты. Споры вокруг этого продолжаются. Если исходить из этой схемы, которая по сути есть уже у Галилея, хотя в своѐм трѐхчастном виде такая схема была введена достаточно поздно – в 1951 году Фок говорит, что любой эксперимент можно разделить на три части: часть приготовления, часть измерения и часть, которую он называет рабочей, где происходит данный процесс. На самом деле эта схема уже заложена в теории падения и правильно говорить не о наблюдаемых величинах, а оп приготовляемых и измеряемых. В этом плане электрон ненаблюдаем, но приготовляем, а спин ненаблюдаем, но измеряем. Тогда вы можете включать приборы, кому интересно, на этом языке есть разбор таких вещей, как ускорительный эксперимент, т.е. эксперимент по элементарным частицам в рамках ускорений. Тут развивается уже довольно сложная система понятий с включением различной теоретической нагруженности. Понятие наблюдаемости которое было важным

врамках третьего позитивизма живет до сих пор, но никакого отношения к реальной физике не имеет.

Врамках позитивизма есть два момента, которые делают эти модели неадекватными. Первая – неучѐт того, что в физике, химии, да и в биологии есть два уровня понятий: есть понятия, которые задаются основаниями и есть конкретные теории, и это совершенно разные вещи. Второй момент связан с невыделением модельного слоя. Это ид1ѐт тоже от третьего позитивизма. Они не отличают основание квантовой механики от теории сверхпроводимости, эти теории они представляют себе в двухслойном виде: есть слой уравнений, в которые могут входит некие величины, для которых существуют эмпирические измерения. Никаких физических моделей здесь не предусмотрено, нет расслоения на математический и модельный слой. В теории относительности если есть расслоение, появляется пространство для интересного вопроса: к какому слою относится

52

четырѐхмерие? Но если этого нет, если работать в рамках модели Мандельштама, то такой вопрос некуда вставить.

В чем принципиальное отличие теоретических законов, если их рассматривать через двухуровневую схему? Принципиальная разница заключается в том, что теоретические законы непосредственно связаны с тем слоем, который в эмпиризме не рассматривается. Эти понятия возникают в основаниях соответствующего раздела физики и возникают сильно по-другому. Это сильно по-другому можно иллюстрировать. Есть различение: «model of» и «model for». «model of» - приближенная картина, приближенная модель какого-то явления. «model for» создаѐтся совсем по-другому, как у Галилея, понятие вакуума, которое задаѐтся через закон движения, то есть, берѐтся не из опыта, а задаѐтся теоретически. По современным представлениям, Галилей ничего с Пизанской башни не бросал, а это всѐ мысленный эксперимент для изложения своей идеи. Ход его рассуждений можно прочесть в «Беседах о двух новых науках» выглядит следующим образом: тела двигаются ускоренно, а как должен выглядеть закон ускоренного движения? Самый красивый, который Бог наверняка и выбрал. Конечно же, равноускоренное движение. Следовательно, он кладѐт в свой закон равномерноускоренного падения вакуум как некий теоретический объект , а потом он уже приближенно воплощается в материал и это как раз и есть фигура «model for», которая дальше реализуется и во всех других разделах физики. Эти два типа действий на первом уровне и на втором радикально различаются.

Получается два типа деятельности: деятельность революционная по созданию новых оснований и деятельность нормальной науки по использованию этих понятий для построения различных конкретных теорий. Это разные типы деятельности. Соответственно, эксперимент тоже имеет аналогичные три части. Есть приготовление, существует два варианта: явление имеет хотя бы гипотетическую теорию, тогда эксперимент еѐ проверяет и теория будет диктовать, что измерять, а что приготовлять. Другой тип эксперимента – слепой, когда теории нет, тогда вы меряете, что вам попадѐт под руку. В качестве примера можно привести открытие реликтового излучения. На него наткнулись как на некий шум, чем мерили, тем продолжали мерить, наткнувшись на этот шум, определили, что он везде, так сказать, методом тыка. Сейчас такое тоже бывает, но всѐ реже и реже. Скажем, в 17-18 веках это происходит часто, в 20-м и, тем более, в 21-м всѐ реже.

Давайте посмотрим, как рождаются разделы физики. Если мы возьмѐм 17-18 века, мы увидим, что разделы физики рождаются из решения конкретных задач. Галилей – задача, которая досталась ему от Аристотеля, падение тела. Задача, которую тысячу лет обсуждали все умы, по сути дела, она поставлена во времена Аристотеля, если не Зенона. Ньютон, создавая механику в связке с теорией тяготения тоже имел конкретную задачу: ему нужно было построить теорию, из которой бы следовали законы Кеплера, создав теорию тяготения и механику, он это получил. Гидродинамика, как она возникала у Бернулли – это совокупность решения конкретных задач, которую Эйлер подытоживает гидродинамикой идеальной жидкости. Аналогичным образом росла теория электричества и магнетизма, как некие кусочки, правда, до раздела они так и не доросли. А электродинамика – это уже некоторое движение другого типа, которое характерно для середины 19-го века. Там разделы рождаются из наведения порядка. Задача, которая возникла в 40-ых годах 19-гов века – упорядочить имеющееся большое количество законов про электричество и магнетизм, причем, кое где эти законы пересекаются. Надо навести в этом порядок и собрать их в нечто единое. При этом было две программы, близкие к парадигмам. Одна в Германии, где это пытались делать в рамках ньютоновской парадигмы. Пришли к тому, что написали некое уравнение, из которого следовало всѐ, кроме законов фарадея, но уравнение такое сложное, что физика была уже совсем невидна. А вторая линия была задана Фарадеем – новая парадигма. Фарадей принципиально вставал на уровень сплошной среды, жидкости, уровень Декарта-Эйлера.

53

Декарт выдвигал оппозицию Ньютону, что нет пустоты, а есть вихри и т.д. Опираясь на эту альтернативную модель жидкости, Фарадей получил модель поля, к которой Максвелл уже достраивал математическое представление. Метод аналогий Максвелла недостаточно проанализировали: его специфика заключается в том, что, используя гидродинамическую модель, он фактически привязал себя к модели сплошной среды и, работая в рамках этого в конце концов получил уравнения движения, которые отвечали логике сплошной среды. 20-й век. Новые разделы рождаются из того или иного парадокса: формулируется парадокс, например, столкновение электродинамики с механикой Ньютона или уже позже, релятивистской специальной теории относительности с теорией тяготения Ньютона или парадокс волна-частица в квантовой механике. Разработка этих парадоксов приводит к тому, что возникают новые идеальные объекты, для которых эти парадоксы являются элементами поведения и перестают быть парадоксами. Корпускулярно-волновое поведение –базовое свойство квантовых частиц. Все эти разделы возникают, конечно же не по Бэконовской схеме, третий слой возникает по Галилею, когда у вас сначала из теоретических соображений вводятся новые понятия, которые обязательно предполагают материальное осуществление. Все это входит в основание раздела теоретической физики, всегда вводится измерение. Приготовление гораздо реже рефлексируется, это проблема современной науки, из-за этого много всякого возникает. Про приготовления из мне известного говорит только Хокит и то, не совсем четко формулирует, зато четко говорит: «электрон можно приготовить, им можно манипулировать, следовательно, он существует». А вообще говоря, про измерения говорят много, а про приготовления достаточно мало.

Что значит, учѐные занимаются изобретением? Для того, чтобы это понять, надо понять, что такое априорные формы Канта. Проблема, которую Кант решал, вводя априорные формы, заключалась в следующем: когда он прочел Юма, он понял, что в рамках эмпиризма нельзя получить универсальное утверждение. В опыте вы имеете большое, но конечно число фактов, а из любого закона вытекает бесконечное. Закон – это универсальное утверждение, из конечного бесконечное логически получить нельзя. Юм указал на эту дырку, потом Поппер еѐ показывал на примере философии чѐрного лебедя: если на ваше озеро всегда прилетают белые лебеди, делать из этого утверждение, что чѐрных лебедей не существует, является несколько легкомысленным. Для Канта была проблема: как может существовать теоретическая физика? Для этого надо показать, как могут существовать универсальные утверждения. Он это делает, вводя априорные формы. Априорные формы у него чувственности, пространства и времени и априорные формы рассудка, 12 категорий, среди которых есть категория причинности и другие: качество, количество и прочие. Суть априорной формы проще всего показывать на априорной форме пространства: строим универсальное утверждение с этой формой: все тела находятся в пространстве. Где по канту находится источник этой универсальности? По канту это и есть априорная форма, которая связана с человеком, как с хомосапиенс, поэтому для Ивана и Петра она будет одна и та же, которая заключается в том, что восприятие человека устроено так, что он всѐ будет воспринимать в пространстве и времени. То, что всѐ находится в пространстве и времени - свойство восприятия человеком мира, а не свойство мира самого по себе. Аналогично про время, про категорию причинности и другие категории. Следующий хо неокантианцев заключался в том, что они эти формы привязывали не биологически к человеку как к хомосапиенс, а к культуре, поэтому априорные формы могли создаваться, могли меняться: в данной культуре находится данная априорная форма. В этом отношении создание новых первичных идеальных объектов, которые задаются в основании – это и есть создание новых априорных форм, с помощью которого мы можем из окружающего мира вычерпывать всѐ новые и новые явления. Если рассматривать в категориях субъективного и объективного, то априорная форма – не субъективна. С другой стороны, это и не объективность, потому что объективность в нормальном смысле – это то, что не зависит

54

от человека и от человечества. В 20-м веке, пожалуй, этой ситуации соответствует то, что называется интерсубъективность, т.е. то, что не является субъективным, а является общим ля некоего сообщества, эта интерсубъективность принципиально отличается от ковенционализма. Конвенционализм – это когда научное сообщество приходит к соглашению, что оно не будет проблематизировать ,допустим, уравнение Ньютона. Близко к тому, что Кун назвал парадигмой. У конвенционализма есть четко выраженная субъективная направленность, т.е. он тоже интерсубъективность, но несколько другого вида, она вся расположена в мире идей, а априорные формы принципиально захватывают реальность, более того, утверждают, что нет альтернативы: мир нам дан только через культуру и априорные формы. Это более сильное и глубокое утверждение, которое нельзя отождествлять с конвенционализмом. Хотя над этим надо еще несколько поработать и развести эти два понятия.

55