Можно отдельно выделить
метод математизации, который неявно
является частью математического
моделирования: формализация. Он состоит
в том, что все изучаемые объекты
реальности и отношения между
ними заменяются наборами символов
и отношений между ними в
некотором искусственном языке.
Так, в модели машины Тьюринга
все объекты – слова в каком-то
алфавите, и рассматриваются правила
работы с этими словами. Да
и вообще, система удобных обозначений
– важная часть любой области
математики. Этот искусственный
язык должен быть по возможности
компактным, недвусмысленным и простым.
Это отличает его от естественных
человеческих языков, для которых характерна
некоторая неоднозначность и неопределенность
семантики и синтаксиса. Недаром до сих
пор не создано удовлетворительных автоматических
систем перевода с одного языка на другой.
Поэтому важнейшей частью формализации
является правильный перевод предметной
области на формальный язык. Как пишет
Герман Вейль в [6]: “Мощь науки, как свидетельствует
развитие современной техники, опирается
на комбинацию априорных знаковых конструкций
и систематического опыта в форме планируемых
и воспроизводимых экспериментов и соответствующих
измерений.” В самой математике процесс
формализации начался еще с древнегреческого
математика Диофанта, который предложил
некоторую еще несовершенную систему
алгебраических обозначений. Привычные
нам обозначения основных математических
объектов вводились постепенно, начиная
с Виета, Декарта, Лейбница и заканчивая
Эйлером, Лагранжем, Коши. Этот процесс
продолжается до сих пор, так как каждый
день возникают новые и новые математические
понятия и объекты.
В конце XIX – начале
XX века процесс формализации математики
достиг своей кульминации в
трудах Фреге, Рассела, Гильберта
и др. Это связано с так называемой
программой Гильберта обоснования
математики. В чем она состоит?
Хотя математику и математические
рассуждения принято считать
логически строгими и безупречными,
работающие математики никогда
не проводят доказательства своих
теорем на формальном уровне,
сравнимом например с алгоритмическими
языками программирования типа C или PASCAL,
то есть так, чтобы правильность доказательства
мог бы проверить компьютер. Поэтому Гильберт
и его коллеги решили построить такой
формальный язык с соответствующими правилами,
в котором можно было выразить и доказать
все математические теоремы. В основу
этого языка была положена логика, основными
объектами стали множества, которые обозначались
символами в конечном алфавите. Отталкиваясь
от некоторых простейших утверждений
– аксиом, примменяя некоторые строго
очерченные правила вывода, можно было
бы получить все утверждения математики.
Если бы эта программа удалась, то всех
математиков можно было бы заменить компьютерами,
которые бы чисто механически шаг за шагом
получали бы математические теоремы.
Прежде чем описать
причины краха программы Гильберта,
выделим еще один метод математизации,
который тесно связан с этой
программой. Речь идет об аксиоматизации.
Она состоит в том, что в
некоторой области знания из
всех истинных утверждений выделяется
набор некоторых простейших утверждений
или аксиом, из которых посредством
логического вывода можно в
принципе получить любое утверждение
этой области. Конечно, желательно
чтобы этот набор был достаточно
компактным (хотя бы конечным) и
простым. Классическим примером
аксиоматически построенной теории
является геометрия Евклида (хотя
у него список аксиом был
неполный). Конституция государства
и всевозможные кодексы в некотором
смысле являются списками аксиом
в юриспруденции. Правила дорожного
движения есть ни что иное, как аксиомы
теории правильного уличного движения.
Со времен Евклида аксиоматический метод
построения теории стал эталоном. Аксиоматизировать
пытались и такие неточные науки, как этика
(Спиноза). Пожалуй наиболее удачным примером
аксиоматизации является построение механики
Ньютоном на основе выделенных им 3
законов. Конечно, не следует считать,
что этих 3 аксиом достаточно для построения
механики – к этому списку необходимо
добавить все аксиомы трехмерной геометрии,
теории действительных чисел и, если уж
быть окончательно строгим, то и в самой
логике можно выделить тоже некоторые
аксиомы. Дальнейшее развитие физики добавляло
еще аксиомы: законы термодинамики, электромагнетизма,
постулаты Эйнштейна в теории относительности
и законы квантовой механики. Но принцип
оставался тот же – добавляются по возможности
простейшие и независимые от предыдущих
факты, из которых можно объяснить как
можно больше новых явлений. Продолжалась
и продолжается аксиоматизация в самой
математике: с помощью аксиомам в алгебре
определяются важнейшие понятия группы,
поля, кольца; аксиоматика Колмогорова
сделала теорию вероятностей математической
наукой.
Вернемся теперь к программе
Гильберта. Она, кроме формализации и выделения
основных понятий, включала в себя аксиоматизацию
всей математики на основе аксиом арифметики
и теории множеств. В трудах многих математиков
был найден подходящий список аксиом и
правил вывода (одно из которых - правило
modus ponens, описанное еще Аристотелем), из
которого выводились все известные факты
математики. Оставались неясными два вопроса:
- Будет ли этот список аксиом
непротиворечивым? То есть не существует ли такого утверждения, что из аксиом можно вывести его само и его отрицание? Известно, что в этом случае можно будет вывести любое утверждение – это разрушит авторитет математики как эталона строгости, сделает бессмысленной и ненужной данную систему аксиом.
- Будет ли этот система аксиом
полной? То есть любая ли математическая
истина может быть получена из данных
аксиом с помощью последовательных логических
выводов? Это означает, что любое утверждение
мы можем либо доказать, либо опровергнуть
(доказать его отрицание).
Математики и логики,
воодушевленные первыми успехами
программы Гильберта, принялись
искать доказательство полноты
и непротиворечивости арифметики
– промежуточного шага на пути
ко всей математике. Было достигнуто
несколько обнадеживающих результатов.
Казалось, цель была близка. Но
в 1931 году грянул гром, который
обратил программу Гильберта
в руины: австрийский логик Курт
Гёдель доказал так называемую теорему
о неполноте, которая утверждала, что если
система аксиом арифметики непротиворечива,
то существует такое утверждение, что
ни оно само, ни его отрицание не доказуемы.
Это означает, что условия непротиворечивости
и полноты арифметики и математики в целом
несовместны. Более того, она остается
неполной, если к списку добавить дополнительные
аксиомы (любое конечное число), то есть
не существует конечного набора аксиом
для арифметики. Это был шок. Один математик
в связи с этим сказал: “Бог существует,
потому что математика непротиворечива.
Дьявол существует, потому что мы это не
можем доказать”. Теорема Гёделя показала
пределы возможностей аксиоматического
метода в самой математике.
Нужно все-таки сказать,
что это был крах некоторого
идеала, который на самом деле
не оказал большого влияния
на практические приложения математики.
Системы аксиом арифметики и
теории множеств до сих пор
являются основанием математического
знания. Аксиомы в различных областях
знания не потеряли своей ценности.
Пределы и проблемы
математизации
– Это был
математик.
– Но
почему, Холмс?
– Это элементарно,
Ватсон.
Во-первых, он ответил абсолютно правильно.
Во-вторых, то, что он сказал, абсолютно
бесполезно для нас.
(Из известного анекдота)
Проблемы, с которыми
сталкиваются исследователи, применяющие
математические методы в других
науках, можно разделить на два
типа. Первые – связанные с
проблемами в самой математике,
то есть когда, например, математическая
модель явления построена, а ее
исследование затруднено из-за
того, что подходящие методы еще
не разработаны, либо их разработка
– нерешенная пока проблема (в
математике очень много своих
“внутренних” проблем). Второй тип
связан с самими областями
знания, которые подвергаются математизации:
либо сложно построить математическую
модель, либо построенная и изученная
модель неправильно описывает
изучаемое явление.
Рассмотрим подробнее
проблемы первого типа. Не стоит
считать, что сами математики
так уж всесильны в своей
науке. Да и сама математика
разрослась до таких огромных
размеров, что давно уже нет
таких универсальных гениев, подобных
Ньютону, Эйлеру, Гильберту или Пуанкаре,
которые работали почти во
всех областях математики своего
времени. Сегодняшняя картина математических
исследований напоминает больше
огромный муравейник, где каждый
математик разрабатывает свою
узкую область, и, порой не знает,
что происходит в соседней. Но, несмотря
на такую разобщенность, остаются нерешенные
проблемы, важные для многих областей
математики, и, потому известные всем математикам.
Возможно, что для их решения необходимы
знания этих многих областей, поэтому
они так трудны для современных исследователей.
Но, может быть, они подобно известной
теореме Ферма, представляют чисто внутриматематический
интерес, и их нерешаемость никак не сказывается
на приложениях? К сожалению, это не так.
Например, известная открытая проблема
P=NP теснейшим образом связана с криптографией,
генетикой, теорией управления, а решение
дифференциальных уравнений Навье-Стокса
осуществило бы прорыв в аэродинамике,
гидродинамике. Многие современные
математические модели (например, метеорологического
прогноза) очень сложны и не поддаются
анализу даже при помощи компьютеров:
хоть и теория изучения таких уравнений
разработана давно, но из-за их громоздкости
применять алгоритмы теории человеку
не под силу. Поэтому здесь применяют компьютеры.
Но порой и компьютерам необходимо огромное
время для проверки теоретических условий.
Отсюда потребность в разработке быстрых
алгоритмов. А как правило, разработка
таких алгоритмов связана с решением некоторых
трудных, порой чисто математических проблем.
В связи с этим
интересно наблюдать, каким образом
математики все-таки решают сложные
проблемы. Анри Пуанкаре в [5] пишет:
“Изучая труды великих и даже
рядовых математиков, невозможно
не заметить и не различить
две противоположные тенденции
…. Одни прежде всего заняты логикой; читая
их работы, хочется думать, что они шли
вперед лишь шаг за шагом …. Другие вверяют
себя интуиции и подобно смелым кавалеристам
авангарда сразу делают быстрые завоевания,
впрочем, иногда не совсем надежные.”
Таким образом, зачастую успех в решении
крупной проблемы достигается не путём
последовательных логических шагов, а
некоторым интуитивно-наглядным, до конца
не обоснованным рассмотрением, оставляя
на будущее строгое логическое
его обоснование. Интересны также мысли
многих математиков относительно эстетических
соображений в своей работе. Герман Вейль
говорил, что в своих исследованиях, “если
надо было выбирать между истиной и красотой,
я выбирал красоту”. Возможно, эстетические
ощущения, как ощущения скрытой истины
или гармонии, помогают математикам при
решении сложных задач. Это, можно сказать
– одно из средств борьбы со всё усложняющейся
математической действительностью.
Проблемы второго типа, связанные
с трудностью построения нужных математических
моделей можно проиллюстрировать на примере
задачи компьютерного перевода с одного
естественного языка на другой. В начале
1950-х, с появлением первых ЭВМ и с преувеличением
их реальных возможностей, исследователи
были уверены, что создание достаточно
хороших программ-переводчиков возможно,
надо лишь запрограммировать основные
правила языка и соответстующий словарь.
Но, время шло, а осуществить этот проект
не удавалось. Например, на тестировании
одной из таких программ, машине предлагалось
сначала перевести предложение с русского
на английский, а затем обратно. Было введено
предложение: “Дух силен, а плоть немощна”,
на выходе получили: “Вино хорошее, но
мясо протухло”. Оказалось, что человеческие
языки очень сложны для формализации:
смысл некоторых слов зависит от контекста,
правила зачастую неоднозначны, этих правил
очень много и они сложны. До сих пор нет
удовлетворительных программ-переводчиков.
Трудность применения
математических методов в данном
случае, как мне кажется, связана
с природой самой исследуемой
области. А именно тем, что основные
математические абстракции произошли
от таких объектов реальности,
как пространство, время, природные
объекты, а не от каких-то явлений
социальной действительности (к
которым относится и язык). Поэтому
они полезны и достаточно просто
описывают физические, химические
и биологические процессы, но
соответствующие модели, например,
языка получаются очень сложными.
Можно еще добавить следующее замечание:
правила языка, в отличие от законов природы
довольно часто (непрерывно) меняются,
поэтому математика, “отделившаяся”
от природы при помощи абстракции 1000 лет
назад, продолжает сохранять некоторые
законы природы в себе, а если бы это “отделение”
произошло от языка, который с тех пор
изменился значительно, многие полезные
связи разрушились бы, или усложнились.
Другие проблемы второго
типа связаны с тем, что построенная
в соответствии с обычной методологией
математическая модель может
неправильно описывать процесс
или вообще не иметь смысла
в исследуемой области. Согласно
[7] такие модели содержат неконструктивные
элементы, что может привести
к противоречиям в теории и
рассогласованию с опытом даже
перспективных математических аппаратов.
В современной физике теория
создается не так, как это было
в классической физике, когда
исходя из некоторой картины
мира (например, независимость материальных
объектов от пространства и времени у
Ньютона), строилась соответствующая математическая
гипотеза. Сейчас же, согласно [7], сначала
формируется математический аппарат,
а затем уже адекватная теоретическая
схема, интерпретирующая этот аппарат.
В отличие от онтологических принципов
классической физики, которые помогали
создавать или выбирать математические
модели исследования, квантово-релятивистская
физика сместила акценты для такого выбора
в сторону гносеологических принципов
(принцип соответствия, простоты, неопределенности
и др.). То что сначала вводится некоторая
математическая модель, а затем интерпретируется,
создает проблему с экспериментальным
подтверждением теории: чтобы обосновать
математическую гипотезу опытом, недостаточно
просто сравнивать следствия из уравнений
с опытными данными, необходимо каждый
раз эксплицировать гипотетические модели,
которые были введены на стадии математической
экстраполяции, отделяя их от уравнений,
обосновывать эти модели конструктивно,
вновь сверять с созданным математическим
формализмом и только после этого проверять
следствия из уравнений опытом. Длинная
серия математических гипотез порождает
опасность накопления в теории неконструктивных
элементов и утраты эмпирического смысла
величин, фигурирующих в уравнениях. Поэтому
в современной физике на определенном
этапе развития теории становятся необходимыми
промежуточные интерпретации, обеспечивающие
операциональный контроль за создаваемой
теоретической конструкцией. В системе
таких промежуточных интерпретаций как
раз и создается конструктивнообоснованная
теоретическая схема, обеспечивающая
адекватную семантику аппарата и его связь
с опытом.