Философия математического познания и проблемы компьютерного образования
Предпринято решение задачи нахождения таких алгоритмов для компьютеров, с помощью которых можно моделировать некоторые реальные процессы. Рассмотрены философско-методологические аспекты вычислительной математики в контексте современных проблем компьютерного образования.
Ключевые слова: математическое знание, компьютерная математика, философия математики.
Самым революционным техническим изобретением прошедшего века можно считать компьютер. Этот мощный инструмент, первоначально создававшийся для математических расчетов, позволил проводить математическое моделирование огромных классов разнообразных естественнонаучных и социально-гуманитарных процессов, эксплицирующих новые образовательные перспективы математического познания.
Появление компьютеров не только изменило лицо всей цивилизации, но и породило сомнение в надежной методологической обоснованности машинных способов доказательства математических теорем. В связи с этим возникла философская проблема: как понимать и применять такие результаты? Основная методологическая идея состоит в том, что это — способ получения новой информации, которая ранее не была заметна в обычном строго математическом формализме.
Вычислительная математика
В преподавании математики можно выделить два круга проблем и результатов. Одни из них касаются того, что математика существует сама по себе. Другие же касаются результатов возможностей нашей деятельности. В классической математике вопросы «второго плана» — о вычислениях и построениях — играли подчиненную роль. Но теперь их значение существенно изменилось.
Даже самые проницательные философы математики первой половины ХХ в. не могли предвидеть появления такого мощного нового направления современной математики, как вычислительная математика (ВМ). Для определенности под «вычислительной математикой» будем понимать область современных технологий, относящихся к математическим расчетам.
Что же способствовало принципиальному изменению математики? Тривиальный ответ — возрастание практической необходимости вычислений и применение ЭВМ. Но глубинная суть столь радикального изменения познавательных механизмов отнюдь не в этом. Процесс понимания человеческим разумом математических суждений существенно отличается от того, что мы можем добиться от компьютера. Только в математических рамках можно рассчитывать на возможность сколько-нибудь строгой демонстрации невычислимости хотя бы некоторой части нашей сознательной деятельности, поскольку вопрос вычислимости по самой своей природе является, безусловно, математическим.
Благодаря новым теориям математики, например, теории алгоритмов и теории игр, а также информационным технологиям в сферу математики включаются и исследования человеческой деятельности, способствующие моделированию понимания. Из способности математических теорий к полной стабилизации вытекает такая особенность их развития, как кумулятивность математического знания. Эта характеристика указывает на возможность хранения и кумуляции результатов математического познания посредством классификации математических теорий, выстроенных в иерархическом порядке. Сущность ее состоит в том, что новые этапы в развитии математики не устраняют результатов прежних теорий как ложных, а в подавляющем числе случаев целиком подтверждают их, меняясь только в плане своего языкового оформления, т.е. ассимилируются в новых понятиях.
Что касается развития вычислительной математики, то А.С. Нариньяни характеризует его следующим образом: «Текущее положение дел в ВМ можно попытаться оценить противостоянием двух альтернативных точек зрения. Одна, как бы сама собой разумеющаяся: ВМ — это успешная, быстро развивающаяся область, предельно востребованная практикой и в основном отвечающая ее потребностям. Вторая, далеко не такая оптимистическая: ВМ находится в углубляющемся кризисе, оказываясь все более неадекватной в контексте растущих запросов практики» [1. С. 71]. Поскольку рынок наиболее востребованных задач вычислительной математики в контексте современного компьютерного образования слишком обширен и разнообразен, то только сама констатация кризиса и выявление его причин не решает проблемы ее потенциального развития.
Для этого необходим предварительный философский анализ базовой концепции вычислительной математики и ее методологической парадигмы. С одной стороны, повсеместное внедрение компьютерного образования и развитие новых информационных технологий способствует, прежде всего, качественному изменению организации информационных ресурсов, включая их хранение и обеспечение доступа к ним. С другой — одна из основных причин ограниченных возможностей эвристического потенциала компьютерного эксперимента в образовании состоит в том, что задачи, при решении которых можно и целесообразно использовать компьютер, должны иметь определенную структуру.
Классическая математическая теория вычислений, которая более полувека оставалась философско-методологическим основанием для вычислительных процедур, сейчас превратилась в формализованную схему аппроксимации. Прогресс современной вычислительной математики связан также и с интуитивной составляющей, точнее, он зависит от гибкости математического мышления и воображения. Однако при ретроспективном анализе математических доказательств формальная составляющая, точнее когнитивная сила дедуктивных выводов, создает иллюзию автоматического вывода математических доказательств, в которых каждый последующий шаг неизбежно следует из предыдущего, обеспечивая концептуализацию нового знания в уже сложившейся системе понятий.
Но компьютерному моделированию поддаются лишь некоторые частные процессы, а не вся теория в целом, поскольку при исследовании математической модели используются также рассуждения, не носящие конкретно выраженного дедуктивного характера. Поэтому прогресс компьютерной математики выглядит все же иначе, чем прогресс естественных наук, а также косвенно влияющих на общественное сознание социально-гуманитарных наук.
Несмотря на возрастающую роль компьютерных систем в математическом познании, информационная модель современного математического познания, частично реализованная с помощью компьютера или вербализованная в математическом тексте, является в значительной мере лишь «эксплицированным намеком» на теоретическое знание — в отличие от хорошо формализованных математических теорий, позволяющих реконструировать архитектуру моделируемого знания. С точки зрения социокультурной философии математики изложение математики в соответствии со строгим аксиоматическим подходом исторически связано с возникновением теоретической геометрии и механизмом становления дедуктивного метода. Развитие математической культуры происходит не в процессе естественной эволюции, как, например, в природе, а в результате сознательных усилий математиков. Поэтому философскую критику идеи кумулятивного развития современной математики, а также стремительную смену компьютерных технологий и связанный с этим кризис идей математического образования можно рассматривать как предпосылочные признаки перехода математики в новое качество.
Основная особенность математики состоит в том, что она развивается отчасти автономно, поскольку как живой организм она подобна саморегулирующимся системам. Это, в свою очередь, способствует процессу самообоснования математической теории, доводящему за конечное число шагов содержательную теорию до логического совершенства, достаточным признаком которого служит стабилизация ее аксиоматического основания. Применительно к структурно сложным самообосновывающимся системам новые характеристики обретают философские категории части и целого. Конкретное направление обоснования математической теории фиксирует, что часть внутри целого и вне него обладает разными свойствами.
Целостная концепция современного компьютерного образования тоже не исчерпывается только свойствами его частей, хотя и характеризуется их свойствами. Поэтому возникает методологическая необходимость учитывать системное качество целого. Подобно тому, как, например, в математическом доказательстве методологическая сопряженность целого и части по существу связана с убедительностью и обозримостью. «Если убедительность — это в известной мере осуществимость доказательства как целого, завершенного, но в котором особо выделены исходный и заключающий его пункты, — утверждает философ науки А.Н. Кочергин, — то обозримость — это осуществимость доказательства в каждом пункте сцепления доказательства без того, чтобы выявить противоречия в целостном, нарушить осуществимость доказательства как целого» [2. С. 75].
Двойственность этих важных понятий проявляется прежде всего в том, что убедительность в определенном смысле отражает обозримость целого, а обозримость можно также интерпретировать как убедительность частей, составляющих доказательство.
Квантовый компьютер
Формализованность математического доказательства — это все же необходимая упрощающая процедура, делающая математическое доказательство более универсальным и доступным для задания компьютеру. С помощью компьютера можно найти варианты решения математических задач в том случае, если он используется не только как вычислительное устройство для концептульного обогащения мышления, но и как инструментальное средство, позволяющее изменить стереотипы в усвоении математических знаний и в самой умственной деятельности.
В связи с этим выдающийся немецкий математик Давид Гильберт задавался вопросом, можно ли в принципе заменить математический стиль мышления каким-нибудь автоматическим процессом, имитирующим механическое мышление. В более точной формулировке речь шла о том, существует ли такой универсальный метод, с помощью которого можно было бы доказать истинность или ложность любого математического утверждения. В философии математики этот вопрос был переформулирован.
В новой интерпретации он заключался уже не в доказательстве истины, а в связи с развитием компьютерных технологий в доказательстве разрешимости. Этим вопросом успешно занимался английский инженер и математик Алан Тьюринг, смелость идеи которого заключалась в изобретении механического устройства, фактически являющегося аналогом пишущей машинки, а именно: бумажной перфоленты с символической логикой. Для решения абстрактных логических проблем он предложил гипотетическую машину, позволяющую определять, какие математические проблемы разрешимы, а какие нет, которая привела к инструментальному перевороту в выполнении сложных математических вычислений на реальных машинах.
Следует отметить, что до конца XIX в. сложные вычисления считались чисто мыслительным процессом. Проблема, которую исследовал Тьюринг, не зависит от конкретной программы обоснования математики в терминах выбранной системы аксиом. Его интересовала проблема, которую в современной методологической интерпретации можно сформулировать следующим образом: существует ли некая универсальная механическая процедура, позволяющая в принципе решать все математические задачи определенного класса?
Когда математик в сложных ситуациях хочет убедиться в том, что математический результат верен, он не формализует его доказательство, т.е. не сравнивает его шаги с формальными правилами, а пытается сделать его доступным для понимания. Веря в практическую надежность обычной математики, он полагается не на логические, а на математические основания. Алан Тьюринг уловил определенную связь между проблемой разрешимости и идеей вычислимости. Востребованность понятия вычислимости, введенного в ХХ в., состоит в том, что «поскольку электронные компьютеры стали для нас теперь вполне привычными, будет, по-видимому, достаточно ссылаться на действие этих физических устройств, а не на соответствующие идеи, выраженные в виде строгих математических формулировок. Грубо говоря, — поясняет известный математик Роджер Пенроуз, — вычисление (или алгоритм) — это то, что выполняет некоторый идеальный компьютер; слово «идеальный» означает, что компьютер может работать сколь угодно долго «без износа», никогда не делает ошибок и обладает неограниченным запасом памяти» [3. С. 324].
Для этого нужна была простая и точная модель процесса вычисления. В математическом отношении такое вычислительное устройство представляет собой так называемую «машину Тьюринга», которая как раз и отвечала этим требованиям. В методологическом контексте особый интерес представляют доказательства математических утверждений, которые можно отнести к разряду необозримых, когда они выявляют новое знание, но перепроверить правильность доказательства оказывается «невозможно», т.е. повторить этот процесс человеком.
В современной философии компьютерной математики, синтезирующей как формалистские, так и конструктивистские проблемы обоснования математики, весьма важно иметь хотя бы теоретическую возможность установить именно тот момент, когда машина Тьюринга остановится. Сам Тьюринг показал, что алгоритмической процедуры для решения механическим путем общей проблемы остановки на самом деле нет. К этому можно добавить, что в противоположность классическому компьютеру вообще нельзя определить предмет квантового компьютера. По существу, квантовый компьютер является новым познавательным теоретическим инструментом. Но еще есть философские вопросы, решение которых требует более глубокого проникновения в его сущность.
На необходимость развития квантовых вычислений в связи с большой информационной емкостью квантовых систем указывал еще в 1980-х гг. известный математик Ю.И. Манин, используя для этого унитарные преобразования в гильбертовом пространстве. Эта задача была успешно решена американским специалистом по квантовой теории и одним из авторов первого квантового алгоритма Дэвидом Дойчем, который сформулировал теорию квантового компьютера в терминах Гильбертова пространства, что позволило описать механизм быстрого счета, недоступный классическим вычислительным устройствам[1].
Методологическая трудность этой проблемы состояла в том, что недостаточно было только охарактеризовать эволюцию квантово-механической системы, необходимо было предъявить более серьезное доказательство ее реализации.
В 1985 г. Дэвид Дойч теоретически доказал, что в квантовой физике существует так называемый «универсальный квантовый компьютер», способный выполнить любое вычисление, которое может осуществить любой другой квантовый компьютер. «Все, что мне пришлось сделать, — разъяснял ученый, — это скопировать устройства Тьюринга; но для определения лежащей в их основе физики воспользоваться не классической механикой, которую неявно принимал Тьюринг, а квантовой теорией» [4. С. 213]. По существу, все современные компьютеры, использующие как традиционно механические, так и квантово-механические процессы, в философско-методологическом контексте являются различными технологическими реализациями одной и той же классической идеи универсальной машины Тьюринга.
Это означает, что даже математическая обработка информации является сложной задачей, состоящей из разнообразных методологических подходов и философских идей, которые невозможно объединить в одной программе математики. А это уже напрямую связано с теоремами Гёделя о неполноте.
Не преувеличивая философскую роль теоремы Гёделя о неполноте, можно сказать, что гёделевский результат говорит, прежде всего, о том, что все множество арифметических истин, демонстрируемых как формальные математические утверждения, не может быть перечислено машиной Тьюринга. Но сосредотачиваться лишь на гёделевских ограничениях, не учитывая при этом опыт исследовательских традиций в математике, богатое и разнообразное содержание которой не сводится исключительно к абстрактной теоретико-множественной математике, значит гордиться своим философско-методологическим бессилием или несостоятельностью современной философии математики как науки.
Компьютерные доказательства
Практическое применение математической теории, как правило, шире, чем решение той практической задачи, с которой эта теория первоначально была связана.
Что касается «мира абстрактной математики», то он, как и прежде, редко открыт для непосредственного восприятия, поэтому его нельзя отождествить с «миром концептуальных идей» реальности. Воплощение идеи в строгие математические утверждения с допустимыми дедуктивными выводами, способными доступно передавать информацию, требует немалых сил и теоретических возможностей[2].
В современной теории творческого мышления обосновано, что в процессе решения трудных творческих задач «проход через ошибки» неизбежен. Двойственный характер ошибки проявляется, когда необходимо отличить формальное запоминание от осознанного понимания. В практике математического образования качество ошибок несравнимо.
Новое философское понимание этой проблемы возникло, когда американские математики Кеннет Аппель и Вольфганг Хакен предложили свой метод для решения проблемы «четырех красок». Он состоял в доказательстве того, что для раскраски любой мыслимой карты при условии, чтобы никакие две смежные области, т.е. имеющие общую границу, не оказались окрашенными в один и тот же цвет, — достаточно лишь четырех красок[3].
Хотя для некоторого конечного числа областей эта гипотеза была доказана, продвижение к бесконечно многим областям было безуспешным, пока в 1976 г. не решили эту проблему с помощью компьютера, перевернув тем самым традиционные представления о математическом доказательстве. Но такое нестандартное рецензирование вызвало резкие возражения некоторых ведущих математиков, считавших компьютерную проверку неадекватной, поскольку она не гарантирует безотказной работы в «недрах компьютера» и от соответствующих сбоев в ее логике. Кроме того, в работе каждого современного компьютера из-за его двойственной структуры, а именно возможных слабых мест в программном обеспечении или электронном оборудовании, могут быть незамеченные ошибки[4].
Имеющиеся пока доказательства не проясняет эту ситуацию, поскольку критический этап математического доказательства требует применения компьютера, и его «ответ» подменяет собой выявление математически формализованной истинности.
Суть этого философско-методологического возражения состоит в следующем. В труднообозримом математическом рассуждении с использованием компьютера приходится переводить относительное в абсолютное с помощью конечного и строго неопределенного числа проверок. Возможно, поэтому обоснование правильности компьютерных вычислений подпадает под такие же методологические ограничения, что и результаты о неразрешимости некоторых математических проблем, причем обосновывать их тем сложнее, чем эффективней соответствующая компьютерная программа.
Тем не менее использование «кремниевой логики» в перспективе меняет практику математического доказательства. И хотя для некоторых математиков доказательства теорем, осуществленные с использованием сложных компьютерных программ, не могут считаться надежными и рассматриваются в качестве направляющих теоретический поиск гипотез, они все же могут рассматриваться как теоретический конструкт предпосылки для выработки новой концепции обоснования математики, учитывающей ее практические запросы.
Компьютерные доказательства обозначили принципиально новый этап осмысления роли компьютерного образования и математического моделирования процессов, протекающих в реальном мире. Математическая модель как «общепризнанный канон репрезентации» внешнего мира и ее конвенциальный характер фиксируют определенное отношение к моделируемому объекту самого познающего субъекта.
Даже если предположить, что в интуитивных математических понятиях содержатся какие-то латентные аспекты, которые могут не проявляться довольно долго в «реальной математической практике», то это по существу все тот же математический платонизм, рассматривающий мир математических объектов как независимый от рассуждений математиков. К последнему утверждению следует относиться с некоторой долей скептицизма[5].
Поэтому, как считает английский математик Джон Барроу, «не исключено, что в будущем природа математики будет восприниматься в более тесной ассоциации с физически реализуемыми процессами, такими как вычисления» [6. С. 321]. Хотя применение этой классификации за пределами математики пока еще не столь значительно, в математике этот результат уже нашел применения в разных областях. Это — один из наиболее ярких и поучительных примеров методологической сложности современной проблемы понимания математических доказательств. Его можно классифицировать как кризис, который относится как раз к тем математическим доказательствам, которые проводились с использованием современного компьютера.
Соответствующую проблему можно, например, сформулировать так: Можно ли считать математическим такое доказательство, которое выполнено на компьютере?
С одной стороны, кризисы в философии математического познания носят эпистемологический характер и вроде бы не связаны с онтологией математики; но, с другой стороны, если рассматривать математику как созидательный процесс, ее структурно можно уподобить некой «архитектуре», как это делала знаменитая группа Бурбаки. Однако тогда эти кризисы можно интерпретировать как кризисы человеческой мысли, когда «архитекторы» науки осознали, что невозможно построить многокилометровое сооружение, и посему нет смысла обсуждать, какими свойствами устойчивости они бы обладали.
По поводу нового постгёделевского кризиса, связанного с применением компьютера в доказательстве теорем, можно сказать, что никакой ясности в эту проблему внести пока не удалось, поскольку нет реальных технологий доказательства корректности компьютерных программ. Различные философские взгляды на источники человеческого знания, а также трудности математического познания, опирающегося на онтологическое единство знаковых конструкций, обусловили плюралистические, на первый взгляд, несовместимые точки зрения на будущее математики.
Заключение
Резюмируя сказанное, обратим внимание на интересную философскую работу начала нового тысячелетия английского математика Брайана Дэвиса «Куда идет математика?». В ней обосновывается тезис, что к концу прошлого века точнейшая из наук испытала потрясения, которые могут принципиально изменить характер полученных в ней результатов. Логические прозрения Гёделя привели в 1930?е гг. к первому из трех кризисов. Но, по предположению Дэвиса, начиная с 1970?х гг. в современной математике произошли еще два кризиса — такие же непредсказуемые, как и кризис, вызванный теоремой Гёделя о неполноте.
«Оба они, — считает Б. Дэвис, — связаны с проблемой переусложненности: доказательства стали настолько длинными и сложными, что ни один ученый не взял бы на себя смелость однозначно подтвердить или оспорить их правильность» [7. С. 1351]. Второй кризис относится к имплицитной достоверности математических доказательств, проводимых с использованием инструментальных средств современного компьютера. Третий кризис переусложненности связан с излишней сложностью доказательств некоторых знаменитых математических проблем. Как раз о них шла речь выше.
Решение математической задачи, сформулированной в нескольких предложениях, может занимать десятки тысяч страниц математического текста. Как в таком случае оно может быть полностью понято отдельно взятым математиком, пусть даже самой высочайшей квалификации?
В контексте обоснования математического знания то, что происходит при решении математических проблем с помощью компьютера, можно попытаться объяснить на различных уровнях понимания с точки зрения осуществления мыслительных процессов в терминах современного компьютерного инструментария. Хотя принципы операций, осуществляемых через компьютерные программы, не могут быть сами по себе поняты и обоснованы только через «архитектуру» современного компьютерного оборудования.
Не только философской, но и чисто практической проблемой становится обоснование стратегии роста математики, исходя из трансформации ее исторического развития.
В условиях кумулятивно-информационного «наводнения» математические инструменты, использовавшиеся ранее, перестают работать не потому, что чересчур уж разрослись традиционные математические дисциплины, а потому, что новых направлений современной вычислительной математики стало очень много. Методологические проблемы конструктивистской философии математики непосредственно связаны с концептуальными проблемами развития и становления современной компьютерной математики. Поэтому нельзя «зацикливаться» на научном стиле, декларирующем стремление к прогрессу и замалчивающем трудности и недостатки, обостряя тем самым концептуальные противоречия, которые являются непременным атрибутом любой концепции развития компьютерного образования и информатики.
Литература
1. Нариньяни А.С. Математика XXI — радикальная смена парадигмы. Модель, а не Алгоритм // Вопросы философии. — 2011. — № 1. — С. 71—82.
2. Кочергин А.Н. Машинное доказательство теорем как нетрадиционная исследовательская программа в математике // Исследовательские программы в современной науке. — Новосибирск: Наука, 1987. — С. 70–89.
3. Пенроуз Р. Путь к реальности, или Законы, управляющие Вселенной. Полный путеводитель — М.—Ижевск: НИЦ «Регулярная и хаотическая динамика», 2007. — 912 с.
4. Дойч Д. Структура реальности — М.—Ижевск: НИЦ «Регулярная и хаотическая динамика», 2001. — 400 с.
5. Кудрявцев Л.Д. Современная математика и ее преподавание — М.: Наука, 1985. — 170 с.
6. Барроу Д. Новые теории всего — Минск: Попурри, 2012. — 368 с.
7. Davies B. Whither mathematics? // Notices of the American Mathematical Society. — 2001. — Vol. 52. — № 11. — P. 1350–1356.
[1] Хотя квантовых компьютеров пока нет и до сих пор неясно, когда появятся их практически полезные конструкции, он формализовал вопрос квантовых вычислений в рамках современной теории вычислений, рассмотрев первую приближенную схему работы квантового компьютера. Но если учесть существующую тенденцию создания быстродействующих компьютеров с более эффективным и компактным математическим обеспечением, то современные информационные технологии должны стать в этом смысле универсально квантовыми, т.к. квантово-механические процессы доминируют сейчас во всех достаточно малых физических системах.
[2] Укажем, например, феномен поразительной эффективности приложений современной алгебры в решении прикладных задач криптографии, связанной с проблемой защиты информации. При чисто логико-формальном подходе число цепочек, составленных из звеньев типа «посылка — вывод», растет с их длиной по меньшей мере экспоненциально, тогда как те из них, которые приводят к решению, образуют исчерпывающе малую долю от этого числа.
[3] Наша интуиция, к сожалению, ничего не говорит о том, верно ли это утверждение или нет. Возможно, есть случай, когда потребуется пять красок. Неслучайно, что эта проблема оставалась нерешенной почти 125 лет.
[4] Развернутая критика идеи доказательства математических теорем с использованием компьютера дана в письме представителя конструктивного направления в математике Н.М. Нагорного: «Аппель и Хакен предлагают считать элементом доказательства некоторый физический процесс — процесс вычислений на ЭВМ, протекший и исчезнувший бесследно. Даже если доказать, что их программы были составлены правильно, все равно нельзя быть уверенным, что правильно работала машина и, в частности, то устройство, которое напечатало заключительный ответ. А вдруг машина дала «сбой»?» [5. С. 103]. Поэтому, по его мнению, из работы Аппеля и Хакена вытекает только то, что поиски контрпримеров к теореме четырех красок можно считать малоперспективными. Но решения проблемы, с точки зрения стандартов современной математики, пока нет, хотя повторный расчет вполне может повышать уверенность, однако он не может перевести доказательство из «класса вероятных» в «класс абсолютно надежных».
[5] Например, полное доказательство классификации простых конечных групп, полученное в начале 1980-х гг., занимает примерно 10–15 тыс. журнальных страниц. Эта работа была проделана объединенными усилиями более ста математиков и опубликована на страницах различных научных журналов примерно в 500 статьях. Однако по любым математическим стандартам доказательство в 3000 страниц все равно будет слишком длинным и необозримым.