Рациональность неклассической науки — КиберПедия 

Поперечные профили набережных и береговой полосы: На городских территориях берегоукрепление проектируют с учетом технических и экономических требований, но особое значение придают эстетическим...

Историки об Елизавете Петровне: Елизавета попала между двумя встречными культурными течениями, воспитывалась среди новых европейских веяний и преданий...

Рациональность неклассической науки

2017-06-10 236
Рациональность неклассической науки 0.00 из 5.00 0 оценок
Заказать работу

 

Рациональности неклассической науки посвящено достаточно большое количество трудов. На мой взгляд, наиболее удачной и достаточно обстоятельной работой такого рода является книга В. С. Степина [209]. Автор характеризует рациональность научной неклассики следующим образом. «Неклассический тип научной рациональности учитывает связи между знаниями об объекте и характером средств и операций деятельности. Экспликация этих связей рассматривается в качестве условий объективно-истинного описания и объяснения мира» [209,634]. И далее: «Каждый новый тип научной рациональности характеризуется особыми, свойственными ему основаниями науки, которые позволяют выделить в мире и исследовать соответствующие типы системных объектов (простые, сложные, саморазвивающие системы)» [209, 635].

Таким образом, В.С.Степин говорит о том, что неклассическая наука характеризуется исследованием неизолированных сложных объектов (систем). Присоединившись к этому критерию, следует отметить, что он хорошо согласуется с предлагаемой в данной работе методологией, суть которой состоит в следующем. Обратившись к исследованию неизолированных объектов, наука сделала шаг в направлении от «процессуального» к «со-бытийному» видению движения и развития.

Конечно же, изучение и неизолированных систем можно ограничить всего лишь процессуальным видением. Но это является лишь частью открывающихся здесь возможностей. Другая же часть состоит в том, что событие, как известно, происходит сразу и везде на всём поле взаимосвязанных объектов, составляющих какую-то систему, метасистему и др. Это возможно при условии, когда все объекты, вовлечённые в данное событие, являются принципиально неизолированными. Все «чувствуют» поведение каждого, а каждый – «поведение» всех. Наука оказывается в состоянии увидеть такое только в том случае, если у неё есть соответствующий аппарат отражения «поведения» данного рода систем, с одной стороны. С другой стороны, конечно же, можно некую реальную систему рассматривать как изолированную (в определённом приближении и при столь же определённых условиях). И уже затем в условно обозначенной изолированности системы анализировать некие события. В этом случае возможны два варианта: либо в как бы изолированной системе видеть поведение её неизолированных подсистем (и тогда можно действительно исследовать события), либо, если нет аппарата к отражению неизолированных подсистем, ограничиться в самом лучшем случае неким полуфеноменомено- логическим описанием событий. Другими словами, и для исследования событий в изолированных системах (если оно полноценное) нужны методы, способные отразить поведение неизолированных её подсистем.

В процессе выхода науки на исследование неизолированных систем и тем самым в становлении и развитии её неклассики можно выделить следующие две основные грани: 1. Существенные изменения в первом слое общенаучного знания, то есть в математике и логике. Эти изменения вылились, по сути дела, в «проникновение» в основание и структуру математики и логики феномена нелинейности. 2. Создание и необычайно широкое применение второго уровня общенаучного знания, которое, безусловно, строится на первом, но с ним не совпадает. Имеется в виду формирование таких его основных звеньев, как вероятностные и статистические методы, теория систем, теория информации, кибернетика и, наконец, синергетика.

В предыдущей главе уже было подчеркнуто, что к началу становления неклассической философии (к началу XX века) логика как важнейший компонент исторически первого уровня общенаучного знания уже имела неклассический облик. Речь идет о том, что рациональность логики как науки стала вступать в «прямую» взаимосвязь с рациональностью логики как философской дисциплины. Для неформальной логики это осуществлялось «по линии» гносеологического аспекта, а для высокоформалированных логик – «по линии» онтологического аспекта логики как философии.

В конечном счете логика вступила на этот путь еще в XIX веке. В середине XX века, то есть в период зрелой научной неклассики, логика стала, как совершенно справедливо подчеркнули А.А.Ивин и В.Н.Переверзев, высокоформализованной философской дисципли- ной [131,99]. Этот ее облик можно рассматривать в качестве постнеклассического уровня развития логики. Здесь нужно еще раз подчеркнуть, что в развитии рациональности логики как науки движение шло от «предметного» подхода к «со-бытийному» (в неформальных логиках, особенно в неформальной логике Витгенштейна). И лишь затем появилась как в неформальных, так и в высокоформализованных логиках возможность отражать единство «со-бытийного» и «процессуального» подходов к движению. Другими словами, в постнеклассицизме логики складывается, возможно, первая грань становящегося единства философской и научной рациональности уже в период неклассического развития науки.

Вторым компонентом исторически первого уровня общенаучного знания, как отмечалось, является математика. Свой неклассический облик она приобрела еще в XVII – XVIII веке, поскольку и тогда имела возможность отражать одновременно и «со-бытийные» и «процессуальные» грани движения. (Однако такие ее возможности были востребованы наукой только в XX веке). Но с первыми шагами неклассической науки в математике стали складываться тенденции становления ее постнеклассики. Под такой ступенью развития математики можно понимать становление ее унитарного облика. Как известно, этому становлению предшествовала очень бурная полемика по основаниям математики, связанная с парадоксами теории множеств Кантора. В ходе полемики сложились три течения: логицисты (Б. Рассел, А. Н. Уайтхед), формалисты (Д. Гильберт и его сторонники), интуиционисты (Л.Э.Брауэр и другие). Каждое из названных течений сумело раскрыть свои аспекты исследуемой здесь проблемы.

Логицисты, пытавшиеся свести математику к логике, в известном смысле “спровоцировали” комплекс теоретических работ (А.Чёрч, К.Гёдель, Д.А.Бочвар) по проблеме тождества и различия математики и логики. Четкое выяснение сути проблемы привело к современному пониманию единства логических и математических исследований. На мой взгляд, в методологическом плане становление и развитие теории категорий и функторов – своеобразный отклик на такого рода исследования.

Работы формалистов, явившихся основателями метаматематики, также привели к целому ряду весьма показательных результатов. По сути дела, именно они заложили фундамент первого варианта унитарного облика математики (который и был, фактически, использован Бурбаки). Наряду с этим, формалисты указали на те области математических объектов, где инструментарий уже имеющейся аналитики «не срабатывал». Это так называемые «нефинитные» последовательности.

С проблемой исследования такого рода последовательностей, на мой взгляд, прекрасно справились интуиционисты. Но прежде чем обращаться к работам интуиционистов, следует обсудить проблему единства линейности и нелинейности. Вообще, в науку понятие линейности и нелинейности пришло из самой же математики, точнее, из применения её методов. Складываться они начали, по существу, в математических исследованиях ряда физических задач (работы Дж.У.Рэлея, Ж.Л.Д’Аламбера, А.Пуанкаре и других).

На основе аппарата полученных нелинейных уравнений были, фактически, сделаны первые шаги в изучении неизолированных систем. В настоящий момент нелинейность основных параметров данных систем связывается с такой объективной характеристикой их «поведения», как неопределённость. В окружающем нас мире фактически нет изолированных систем. Мир пронизан всеобщей универсальной связью. Всё связано со всем. Но при этом некоторые системы, как уже неоднократно отмечалось, могут в определённых условиях рассматриваться как изолированные. Другими словами, если это перевести на язык предлагаемой методологии, то в мире должно наблюдаться диалектическое единство линейности и нелинейности. Собственно говоря, сейчас понятия линейности и нелинейности приобрели статус общенаучных, поскольку на основе единства линейных и нелинейных уравнений исследуется единство изолированных и неизолированных систем во всех сферах объективной и субъективной реальности, подвластных самым разным дисциплинам частнонаучного знания. Если же при этом иметь в виду, что математика своими специфическими для неё методами отражает окружающий мир, то единство линейности и нелинейности должно быть также представлено как в основаниях, так и в структуре самой математики. Правда, оно имеет здесь облик единства определённости и неопределённости, многозначности и вероятностности.

При этом последние характеристики относятся и к высокоформализованным вариантам современной логики. И это понятно, поскольку они отражают, как уже отмечалось, онтологические аспекты всеобщей детерминации. Кстати, в логических работах «логициста» Рассела есть аналоги нормальных алгорифмов Маркова и свободно становящейся последовательности Брауэра.

Что же, собственно говоря, предложили для обсуждения нелинейностей в математике интуиционисты. Основой их подхода явилась концепция так называемой «свободно становящейся последовательности». На базе такой методологии они действительно выстроили один из наиболее эффективных и при этом очень наглядных подходов к рассмотрению в математике объективных оснований взаимодействия и развития именно нелинейных систем. В ходе такого взаимодействия все открытые, перекрывающиеся, неизолированные системы влияют друг на друга. И из всего спектра возможностей коэволюционных кооперативных изменений метасистема «выбирает» ту, которая для неё в данный момент времени является наиболее оптимальной. Иными словами, действительно наблюдается свободно становящаяся последовательность выбора вариантов. Конечно же, в данном случае свобода выбора не абсолютна. В каждом конкретном случае у системы и всех ее подсистем есть веер возможных вариантов ее «поведения», который и определяет обсуждаемый выбор. Многофакторность, неизолированность, а следовательно, и высокая степень неопределённости приводят к неповторимости каждого свободно сложившегося шага в развитии систем. Кстати, это важнейшая грань процессов самоорганизации в материальном мире. Очень удачно и само название – интуиционизм, поскольку, как известно, интуиция построена на ситуативном мышлении, при котором только и можно «уловить» названные процессы.

Единство линейности и нелинейности в самом здании математики, естественно, обусловлено наличием такого единства в её основаниях. Но всё же здесь есть и принципиально иные моменты, имеющие свой особый вид. В настоящее время они представлены, в частности, современными процессами гибридизации структур, идущими по пути включения неопределённостных, многовариантных и вероятностных компонентов в формирующиеся гибриды. Весьма показательным примером такого рода является, например, дифференциальная динамика, сложившаяся на базе дифференциальной топологии, теории дифференциальных уравнений и теории вероятностей [165]. Гибридизация идёт также и по пути явно выраженного усложнения математических объектов и их отношений, что с необходимостью приводит к новому инструментарию в математических исследованиях - сложным компьютерным моделям, где в основе большей частью лежит неопределённость. Процесс проникновения неопределённости в структуру математики даже предстаёт иногда как явление утраты математикой того, что всегда ей было характерно, то есть определённости. (Американский математик М. Клайн так и назвал свою работу: «Математика. Утрата определённости» [89]). Можно привести название работы современного известного учёного в сфере физики, химии, математики и синергетики И.Р. Пригожина. Но здесь речь идёт уже не о математике, а о физике. Работа называется так: «Время, хаос, конец определённости». Созвучие очевидное.

И, наконец, ещё одной важной гранью обсуждаемой проблемы являются современные подходы к основанию и структуре математики. В качестве одной из них выступает теория нечётких множеств Заде, которая с самого начала построена на неопределённости и вероятности [74]. Другой вариант подхода составляет теория категорий и функторов. Уже упоминалось о том, что ее появлению в известной степени способствовали работы логицистов. Но это не единственный аспект. Именно на основе теории категорий и функторов в настоящий момент строятся поливариантные облики унитарности математики [140;92-99]. Это и есть зрелый этап постнеклассического развития математики, с помощью которого фактически и удается построить достаточно гибкую математическую модель меняющейся на каждый момент времени картину всеобщей универсальной связи (МКВУС) как объективной основы всеобщей детерминации. Такие «глобальные» возможности современного постнеклассического облика математики соседствуют с менее глобальными, но очень эффективными решениями, которые стали возможны только на нынешнем этапе ее развития. Имеется в виду пространство обобщенных координат М. А. Гельфанда, которое нашло применение только уже в постнеклассической науке. Иными словами, в период развития неклассической науки в ее рациональности в облике рациональности математики и логики уже были мощные компоненты рациональности постнеклассики. И это существенно ускоряло развитие науки, поскольку уже был соответствующий инструментарий отражения всеобщей детерминации.

Заметим, помимо исторически первого уровня в общенаучном знании, как отмечалось, стал формироваться еще и второй уровень. Его нельзя полностью отождествлять с предыдущим. Хотя они, конечно же, очень тесно связаны. Математика и логика, составляющие первый уровень, являются наиболее развитыми в настоящий момент звеньями общенаучного знания, в структуре, динамике и перспективах которых в значительной мере видны методологические основания решений очень сложных проблем второго уровня. И всё же второй уровень общенаучного знания, безусловно, составляет самостоятельный элемент современной науки, на основе развития которого меняется облик науки. Его «строительство» началось, кстати, с созданием и бурным применением в науке многочисленных вариантов вероятностных и статистических теорий.

Онтологический аспект вероятности мне пришлось в свое время обсуждать в кандидатской диссертации и ряде статей. Основной вывод данных исследований состоит в том, что основанием вероятности является неизолированная и в то же время целостная системность во взаимодействиях. С данных позиций, как бы с позиций уже имеющего результата, проще рассматривать, что же и каким образом получило отражение в новом уровне общенаучного знания. Необходимо подчеркнуть, что строительство второго уровня общенаучного знания характеризовалось тем, что оно все время сопровождалось методологическим осмыслением каждого шага. Это очень важная деталь, поскольку весь второй уровень общенаучного знания создавался как бы по заказу, по требованиям науки, столкнувшейся с определенного рода трудностями. Каждый шаг здесь означал решение какой-то важной проблемы, что очень похоже на строительство новой и новейшей физики, которое шло на фоне непрекращающейся полемики по ее основаниям. Итак, наука вышла на исследование неизолированных систем, а вот методов их исследования ещё не было. Процесс их поиска, по сути, проходил сразу по двум направлениям. С одной стороны, это попытки использования нелинейных дифференциальных уравнений, о чём уже сообщалось. Но не все, и далеко не все неизолированные системы можно было анализировать на основе такого подхода. Тогда-то и были выработаны различные модели вероятностных и статистических методов.

Суть того, какие цели преследовались создателями этих методов и почему так долго не удавалось понять онтологическое основание вероятности, можно представить следующим образом. Конечно же, учёные в конце концов достаточно чётко представляли, что они делают. Они искали методы отражения поведения неизолированных систем. Но на эти неизолированные системы действует сразу весь мир, все окружающие их другие такие же системы. Поэтому просчитать на основе классических методов влияние данного окружения на такую систему просто нельзя. Воздействие окружения было представлено в виде потока независимых случайных событий. Впоследствии этот поток трансформировался в понятие «хаоса». Почему окружающие воздействия независимы и в то же время случайны, пришлось на методологическом уровне отражать уже потом, уточняя формулировки необходимости, случайности и закономерности. И, хотя понятия необходимости и случайности являются философскими, они были с самого начала включены в канву звеньев общенаучного знания, в том числе и в канву всех моделей теории вероятностей. Именно поэтому методологическое осмысление сопровождало, как отмечалось, построение всех звеньев общенаучного знания.

В свете изложенного кажется, что упомянутый вывод о том, что онтологическим основанием вероятности является неизолированная и в то же время целостная системность во взаимодействиях, становится самоочевидным. Но в том-то и дело, что это не так. Вероятность поначалу выглядела просто как некий математический приём, позволяющий, как подчеркивалось, представить в науке какие-то грани движения и развития неизолированных систем. И в самой структуре теории вероятностей как бы подсказывалось, каким это образом и что конкретно она отражает. Отражаются закономерности в цепи независимых, случайных событий. А вот именно это и надо было себе ещё представить. Каким образом может быть так, что события являются случайными да ещё и независимыми. И в них проявляются закономерности, которые удаётся в той либо иной форме отразить? Представить такое или хотя бы сделать соответствующую попытку без философского взгляда просто нельзя. Во-первых, потому что задействованы в канве обсуждения следующие философские категории: необходимость, случайность, возможность, действительность, причина, следствие, определённость, неопределённость, часть, целое, детерминация, индетерминация. Во-вторых, при этом нужно было воспользоваться какой-то конкретной философской системой, которая бы отражала весь названный спектр категорий. Такой системой является философская теория детерминации в виде различных теорий диалектики. Но это наиболее общая и как бы во многом напрямую не адаптированная к частнонаучному знанию теория. Более того, в период становления и активного развития неклассической науки, который, как отмечалось, характеризуется бурным «проникновением» во все сферы научного знания вероятностных и статистических методов (конец XIX - начало XX века) ситуация с теориями диалектики была следующей. С одной стороны, была уже создана, безусловно, гениальная её систематизация и последовательное изложение в работах Гегеля. В.С.Степин, характеризуя диалектику Г.Гегеля, в частности, пишет: «Сетка категорий, развитая в гегелевской философии,...может быть расценена как сформулированный в первом приближении категориальный аппарат, который позволил осваивать объекты, относящиеся к типу саморазвивающихся систем» [209,267]. Но учение Гегеля нужно было ещё суметь связать с уровнем развития науки того времени, а это оказалось очень нелегкой задачей.

Наряду с диалектикой Г. Гегеля, ученым была известна хорошо адаптированная к классической науке, достаточно гибкая материалистическая концепция детерминизма Лапласа. Кроме того, им было известно также, что Пьер Симон Лаплас являлся одним из создателей вероятностных и статистических методов (См., например, «Аналитическая теория вероятности», 1812 г.). Он же фактически и автор математических методов исследования нелинейных процессов (См., например, уравнение Лапласа, а именно: дифференциальное уравнение с частными производными второго порядка. Уравнение рассмотрено Лапласом в 1782 г.). Другими словами, ученые, занимавшиеся «строительством» новой и новейшей науки на основе вероятностных и статистических методов, хорошо знали, что концепция однозначного детерминизма (так иногда называют детерминизм Лапласа) создана человеком, по сути дела, стоящим у основания изменения облика общенаучного знания и на первом уровне (нелинейности в математике и логике), и на втором (вероятностные и статистические методы). И потому само собой разумеющимся считалось, что он знал, что делал, и нет никаких сомнений в применении его концепции к методологическому осмыслению вероятностных и статистических методов.

Ученым оказался ближе детерминизм П.С.Лапласа, нежели диалектика Г.Гегеля. Ввиду чего этот детерминизм стал центром всех дискуссий по поводу оснований сначала вероятностных и статистических методов, а затем и других звеньев общенаучного знания второго его уровня вплоть до синергетики. В чем же, собственно говоря, состоят те «ограничители», которые так и не позволили понять с позиций детерминизма Лапласа суть онтологических оснований вероятности. И почему ученые, создававшие новый уровень общенаучного знания и прекрасно знакомые с обсуждаемой концепцией детерминизма, упрямо вели поиск каких-то других концепций?

На мой взгляд, такие «ограничители» состоят в том, что детерминизм Лапласа не дает возможности отразить системность во всеобщей универсальной связи, в которой «все связано со всем». Другими словами, не удается отразить системность на микро-, макро- и мегауровнях как во всеобщей связи, так и в различного уровня взаимодействиях. Иными словами, создается явно пикантная ситуация. Ученые понимают, что вероятностные методы нужны для отражения «поведения» неизолированных объектов, неизолированных систем. А вот как осуществляется взаимодействие внутри каждой из этих систем, а также связь этих неизолированных систем друг с другом во всеобщей связи оставалось да и сейчас во многом остается загадкой. Итак, если наука ничего не может сказать о системной организации взаимодействий неизолированных объектов, то тогда вероятностные и статистические методы остаются всего лишь математическими методами, у которых нет, фактически, онтологических оснований. Это всего лишь математические объекты и операции между ними. Но в том-то и дело, что математические объекты отражают реальный мир и современные поливариантные облики унитарности математики, как только что было отмечено, являются, по сути дела, поливариантными моделями математической картины всеобщей универсальной связи. Иными словами, математические объекты и операции над ними в превращенной форме отражают некие онтологические основания. И тогда вновь встает вопрос: что это за основания? Тем самым в данном случае от вопроса о том, что является онтологическим аспектом либо онтологическим основанием вероятности уйти опять не удается.

Уже было отмечено, что детерминизм Лапласа даже после его модификации Огюстом Курно не позволяет отразить системность во взаимодействиях, хотя это не совсем так. Можно себе представить мир как континуум причинных линий, пересекающихся друг с другом, в конечном счете связанных между собой (вроде концепции «ветвящейся Вселенной» Эверетта). И этот континуум, действительно, выглядит как система взаимодействий. Но такая система очень уж механистична. Она, скорее, похожа на «сеть», «решетку» и др. В принципе, нетрудно себе представить некую «сетевую» либо «решетчатую» системность. И если бы речь шла просто о модели, без ее конкретного применения, то вполне можно было бы остановиться и на ней. Но в том-то и дело, что такой моделью невозможно пользоваться в обсуждении феноменов, которые стала исследовать новая и новейшая физика.

Между прочим, без понимания и возможности отразить системность во взаимодействиях нельзя представить себе системность самого объекта и тем более неизолированную системность. Получается, что последняя только декларируется. Но ведь не декларативные же цели поставила перед собой неклассическая наука. Сложилась очень интересная ситуация. Не имея практически сколько-нибудь серьезной модели отражения системности во взаимодействиях, ученые стали действовать, руководствуясь принципами, которым должны отвечать и будущая модель, и создаваемые ими методы отражения этой системности. Таковыми принципами, фактически, являются принципы диалектики, по сути дела, общие для всех ее моделей. Известно, что принципы философии и науки формулируются людьми. А вот формируются они всем долгим и трудным развитием этих двух видов познания. Так что принципы диалектики формировались в течение уже более двух с половиной тысячелетий. И их наиболее общие варианты были, конечно же, известны ученым. Что это за принципы, также хорошо все знали. Это принцип всеобщей универсальной связи и самодвижения материи, принцип противоречивости, принцип системности, принцип отражения, принцип саморегуляции и, наконец, принцип самоорганизации. Как это не покажется удивительным, принцип самоорганизации известен еще из религиозной средневековой европейской философии. И, наконец, в восточной философии обсуждаемый принцип существует уже тысячелетия. В частности, в даосизме хорошо известный знак «дао с именем» содержит змейку, рассекающую знак на «инь» и «ян». Эта змейка – символ вихря как одной из основ самоорганизации.

Другими словами, ученые, руководствуясь известными им принципами диалектики, адаптированными к конкретному облику их «практического разума», стали создавать как методы, так и модели отражения поведения неизолированных систем и неизолированной системности во взаимодействиях. Самыми первыми методами отражения, отвечающими всем названным принципам, и оказались вероятностные и статистические методы. Период, когда данные методы были единственным средством отражения сразу всех этих принципов, растянулся более чем на столетие (с середины XIX века и вплоть до 1949 года, года создания практически одновременно теории систем (Л.Берталанфи), теории информации (Н.Винер) и кибернетики (Н.Винер)). Иначе говоря, более чем столетие ученые пользовались только одним из звеньев второго уровня общенаучного знания. Но с помощью этого звена создавались разделы новой и новейшей физики, полностью отвечающие всем обсуждаемым принципам. И то, что делалось это осознанно, подтверждается приведенными в предыдущем параграфе гранями философских работ её основателей. В самом деле, в концепциях дополнительности, физической реальности, полноты квантовой механики, возмущающего взаимодействия, наблюдаемости и др. хорошо видны принципы противоречивости, системности, отражения и даже саморегуляции и самоорганизации.

Из этого следует, что авторы перечисленных концепций фактически подготовили основания применения будущих звеньев общенаучного знания второго уровня, а именно: теории систем, теории информации, кибернетики и синергетики. Однако возможности уже имеющихся моделей синергетики, как сейчас выясняется, в отражении феномена самоорганизации отнюдь не безграничны. Нужны поиски новых моделей. Кроме того, самоорганизация получает соответствующее раскрытие и в других звеньях общенаучного знания, основаниями к которым фактически занимались, правда, не называя это такими словами, уже упомянутые создатели новой и новейшей физики. Это с одной стороны. С другой же стороны, отмеченное обстоятельство, характеризующееся тем, что вероятностные и статистические методы как бы отражали все принципы сразу, серьезно затрудняло попытки определить, какой же именно принцип в большей мере отражен данными методами. И тем самым создавались объективные сложности в осмыслении онтологического основания вероятности. Ситуация стала меняться к лучшему с созданием следующих звеньев общенаучного знания. Выше уже отмечалось, что практически в один год (1949) были созданы сразу три новых звена такого знания (теория систем, теория информации и кибернетика). И, тем не менее, вплоть до создания синергетики слишком много еще препятствий оставалось на пути онтологического осмысления феномена вероятности. С возникновением же синергетических моделей и активным их применением ситуация в обсуждаемом осмыслении существенно изменилась в лучшую сторону. То, что было в виде правдоподобных гипотез, стало получать прямые подтверждения, особенно когда стали создаваться математические и физические модели всеобщей универсальной связи. Пусть они не самые совершенные, но все же в них есть весьма серьёзные указания на то, что же все-таки является онтологическими основаниями вероятности, так долго и трудно осознаваемыми. Такими основаниями, и сейчас это стало совершенно очевидным, является системность во взаимодействиях. Иными словами, системно организованы не только объекты, но и взаимодействия. Особенно убедительны доказательства такого вывода в работах, например, коллектива под руководством С.П.Курдюмова, получившего физическую модель аксиоматической концепции теории вероятностей А.Н.Колмогорова [102]. Данная модель получена на основе сложной компьютерной модели горения (конвекции).

Другим не менее эффектным доказательством того же вывода является очень удачная, на мой взгляд, концепция пространства обобщенных координат М.А. Гельфанда. Но получена она была не на основе синергетических моделей. Ее эффективность продемонстрирована И.Р.Пригожиным в обсуждении парадокса времени и квантового парадокса [174]. По сути дела, пространство обобщённых координат – одна из наиболее гибких современных математических моделей отражения всеобщей универсальной связи. Ее гибкость очевидна не только по существу, но и по практической применимости в канве современной неклассической и постнеклассической науки.

После того, как были созданы все названные звенья второго уровня общенаучного знания, стало возможным не только понять, что составляет онтологическое основание вероятности. Появилась также и возможность увидеть, что каждое из обсуждаемых звеньев является как бы общенаучным раскрытием какого-то конкретного принципа диалектики. Так, теория систем раскрывает на своем уровне суть принципа системности, теория информации – принцип отражения, кибернетика – принцип саморегуляции и, наконец, синергетика – принцип самоорганизации. Но какой же тогда принцип отражается вероятностными и статистическими методами? То обстоятельство, что в течение почти столетия названные вероятностные и статистические методы как бы «представляли» в науке целую серию принципов, причем весьма успешно, говорит о том, что данные методы отражали какую-то существенную грань каждого принципа. Но дело в том, что среди последних (принципов) есть один, который как бы представляет все их сразу. В нем сосредоточены в сжатом, «спрессованном» виде характерные черты каждого. Но с целью более полного освещения этих черт их раскрывают соответствующими принципами. Таким вот концентрирующим все основные грани других принципов является принцип противоречивости. Не зря же была в свое время сказана фраза о том, что вкратце диалектику можно определить как учение о том, как могут быть едины противоположности. Но это требует дальнейшего раскрытия. И если принцип противоречивости в концентрированной форме отражает основные грани всех других принципов, а вероятностные и статистические методы, в свою очередь, уже по-своему, в своем формализованном ключе, отражают те же основные грани этих принципов, то нетрудно догадаться, отражением какого именно принципа являются названные методы. Они представляют в науке, и в первую очередь в общенаучном знании, достаточно развернутую теорию отражения принципа противоречивости, который применительно к феномену детерминизма отражает системность во взаимодействиях, такую же системность в отражениях, соответствующих данным взаимодействиям, а также их саморегуляцию и самоорганизацию. Точно так же, как в философии всеобщая детерминация может быть очень гибко отражена концепцией диалектического противоречия, в науке детерминация на уровне взаимодействий столь же гибко на сегодняшний день отражается вероятностными и статистическими методами. Забегая вперед, можно утверждать, что из связи всех принципов диалектики следует то, что все они по-своему «схватывают» соответствующие грани каждого, а каждый – соответствующие грани всех. Другими словами, суть принципа, скажем, самоорганизации (каждый по-своему) отражают все принципы, начиная с принципа противоречивости и кончая принципом саморегуляции. Это означает, что данную суть по-своему отражают не только синергетика, соответствующая принципу самоорганизации, но и кибернетика, теория информации, теория систем и, конечно же, вероятностные и статистические методы. На это обратил внимание в уже упомянутой работе В.И.Аршинов, который, характеризуя суть синергетики и теории систем, с сожалением отметил, что «встреча» этих двух подходов в научном исследовании, по сути дела, «не состоялась» («Встреча, которая не состоялась»). Поэтому, когда современные синергетические модели оказываются не достаточно эффективными, это не значит, что таковым в отражении самоорганизации является все общенаучное знание. Ведь оно включает и другие звенья, помимо синергетики. Более того, у него есть мощнейший слой современного облика математики. В этом направлении, то есть в направлении того, что сделано современной математикой и логикой и что отражают другие принципы как все вместе, так и каждый в отдельности, и следует посмотреть в ходе строительства постсинергетических теорий, которые должны преодолеть недостатки существующих на сегодняшний день подходов и вывести науку на следующий, более высокий уровень исследований. Будет ли это характеризоваться созданием ещё одного звена второго уровня либо начнется «строительство» третьего уровня, покажет время. (В более подробной форме о проблеме «ограничителей» в применении имеющихся на сегодняшний день синергетических подходов смотрите в следующей главе).

Далее следует обратить внимание на следующий момент. Ученые, перейдя к исследованию неизолированных объектов, фактически преобразовывали математику и логику, которые составляли и составляют первый уровень общенаучного знания. И математика, и логика в своей основе и структуре сейчас как бы пронизаны единством линейности и нелинейности. Нелинейность и является следствием того, что наука обратилась к таким неизолированным системам. Процесс внедрения в математику и логику феномена нелинейности, а также «строительство» звеньев нового уровня общенаучного знания, начиная с вероятностных и статистических методов и кончая синергетикой, ученые проводили, опираясь, фактически, на известные им принципы диалектики и установки собственного «практического разума». Воспользоваться при этом готовой, адаптированной к науке концепцией детерминизма Лапласа было очень трудно, ввиду того, что она фактически очень уж отдаленно отражала системность во взаимодействиях. Этим и объясняется то, что, создавая каждое новое звено общенаучного знания, ученые видели, что их детище отражает такую системность, что оно тем самым лучше детерминизма Лапласа и лучше того знания теории диалектики, которое у них было. И поэтому каждое появление нового звена сопровождалось часто очень бурной полемикой по поводу того, что именно этим звеном и следует заменить многочисленные варианты теории диалектики. Особенно это наглядно было с созданием теории систем. Тем более, что она почти одновременно сложилась, как уже отмечалось, с теорией информации и кибернетики. Но первый всплеск эйфории затем сопровождался холодным душем тех проблем, которые данная теория не в состоянии решить из-за отсутствия со-бытийного взгляда, свойственного диалектике. Забегая вперед, можно также сказать, что нечто подобное стало происходить и с созданием синергетики. Первоначальный и вполне обоснованный эмоциональный всплеск сменился видением проблем с обеих сторон: и со стороны имеющихся синергетических моделей, которые не могут отразить очень широкий спектр феномена самоорганизации, и со стороны теорий диалектики, безусловно, нуждающихся в дальнейшем развитии. Поэтому, на мой взгляд, очень актуальными явились работы в сфере исследования соотношения общенаучного знания и философии, написанные такими автора


Поделиться с друзьями:

Организация стока поверхностных вод: Наибольшее количество влаги на земном шаре испаряется с поверхности морей и океанов (88‰)...

Эмиссия газов от очистных сооружений канализации: В последние годы внимание мирового сообщества сосредоточено на экологических проблемах...

Адаптации растений и животных к жизни в горах: Большое значение для жизни организмов в горах имеют степень расчленения, крутизна и экспозиционные различия склонов...

Механическое удерживание земляных масс: Механическое удерживание земляных масс на склоне обеспечивают контрфорсными сооружениями различных конструкций...



© cyberpedia.su 2017-2024 - Не является автором материалов. Исключительное право сохранено за автором текста.
Если вы не хотите, чтобы данный материал был у нас на сайте, перейдите по ссылке: Нарушение авторских прав. Мы поможем в написании вашей работы!

0.026 с.