Рефераты по точным наукам




Поиск документов на сайте

 

Из истории интегрального исчисления.

План.

1. Введение……………………………………………………………………………………1

2. Метод исчерпывания - начало интегрального исчисления………………… .………….1

3 . Определение основных понятий и принципов интегрального исчисления. ………….1

4. Символьный метод, операторы…………………………… ……………………………..4

5. Ньютон и Лейбниц-рождение противоречий…………………………………………….5

6. Эйлер. Понятие об интегральной сумме…………………………………………………7

7. Проблема двойных и тройных интегралов………………………………………………9

8. Коши - решение парадокса существования конечных сумм из бесконечно малых слагаемых. ……………………………………………………………………………………9

9. Заключение…………………………………………………………………………………10

10. Список литературы……………………………………………………………………….11

Введение

Интегральное исчисление, вместе с исчислением дифференциальным, составляет основу математического анализа. Интегральным исчислением называют раздел математики, занимающийся изучением интегралов, их свойств и методов вычисления.

Метод исчерпывания - начало интегрального исчисления.

Интегральное исчисление появилось во времена античного периода развития математической науки и началось с метода исчерпывания, который был разработан математиками Древней Греции, и представлял собой набор правил, разработанных Евдоксом Книдским. По этим правилам по которым вычисляли площадей и объёмы. Далее метод получил своё развитие в работах Евклида. Особым искусством и разнообразием применения метода исчерпывания прославился Архимед.

Рассмотрим типичную схему доказательств, используемую в методе исчерпывания. Она выглядела следующим образом. Для того, чтобы определить величину A строилась некоторая последовательность величин C 1 , C 2 , …, C n , … такая, что

Предполагалось также известным такое B , что

и что для любого целого N можно найти достаточно большое n , удовлетворяющее условию:

Где величина d – константа. В результате трудоёмких вычислений, из последнего выражения удавалось получить следующее:

Таким образом, видим, что рассматриваемый метод был основан на аппроксимации рассматриваемых объектов ступенчатыми фигурами или телами, составленными из простейших фигур или пространственных тел (прямоугольников, параллелепипедов, цилиндров и т.п., обозначенных последовательностью А 1 , А 2 , …, А n , …). Таким образом метод исчерпывания можно представить как античный интегральный метод.

Определение основных понятий и принципов

интегрального исчисления.

Известно, что кризис и упадок древнего мира привёл к забвению многих ценных научных достижений. Не повезло и методу исчерпывания - о нём вспомнили лишь в XVII веке. Дальнейшее его развитие связано с такими известными в математике именами, как Исаак Ньютон, Готфрид Лейбниц, Леонард Эйлер и ряда других выдающихся учёных. Они положили основу современного математического анализа.

Все возрастающие запросы практики и других наук в конце XVII и в XVIII веке побудили ученых максимально расширить область и методы исследований математики. На первое место выдвинулись понятия бесконечности, движения, функциональной зависимости. Они стали основой новых методов математики.

Именно в эту историческую эпоху в математике и механике были получены классические результаты фундаментального значения. Основную роль здесь сыграло развитие дифференциального и интегрального исчисления, теории дифференциальных уравнений, вариационного исчисления и аналитической механики.

Основанные на идеях, сформулированных в начале XVII веке великим математиком и астрономом Иоганом Кеплером, в конце XVII века были разработаны основные понятия и теория интегрального и дифференциального исчислений, связь операций дифференцирования и интегрирования, а также их применение к решению прикладных задач.

Известна следующая забавная история. В ноябре 1613 года королевский математик и астролог австрийского двора И. Кеплер праздновал свадьбу. Для подготовки к ней ему нужно было приобрести несколько бочек виноградного вина. При их покупке Кеплер был удивлен тем, как продавец определял вместимость бочки, производя одно единственное действие - измеряя расстояние от наливного отверстия до самой дальней от него точки днища. Такое измерение совершенно не учитывало форму бочки! Кеплер сразу увлёкся этой интереснейшей математической задачей - по нескольким измерениям вычислить вместимость бочки. Размышляя над ней, Кеплер вывел формулы не только для объёма бочек, но и для объёма самых различных тел: лимона, яблока, айвы и даже турецкой чалмы. Кеплеру для каждого из изучаемых тел создавал новые, нередко очень хитроумные методы, что оказалось крайне неудобно. Позднее именно попытка найти общие, простые методы решения подобных задач и привела к возникновению современного интегрального счисления. Но это уже была заслуга совсем другого математика.

Не найти другого учёного, исследования которого оказали бы столь сильное влияние на историю мировой науки и культуры, как Исаак Ньютон. Известный математик и историк науки Б. Л. Ван-дер-Варден в своей книге “Пробуждающаяся наука” написал: “Каждый естествоиспытатель безусловно согласится, что механика Ньютона есть основа современной физики. Каждый астроном знает, что современная астрономия начинается с Кеплера и Ньютона. И каждый математик знает, что самим значительным н наиболее важным для физики отделом современной математики является анализ, в основе которого лежат дифференциальное и интегральное исчисления Ньютона. Следовательно, труды Ньютона являются основой огромной части точных наук нашего времени”. И не только наук: “Математика и техника влияют даже на нашу духовную жизнь, и настолько. что мы редко можем представить это себе полностью. Вслед за необычайным взлётом, которое пережило и XVII веке естествознание, последовал неизбежно рационализм XVIII века, обожествление разума, упадок религии... Кто отдает себе отчет в том, - спрашивает автор, - что с исторической точки зрения Ньютон является самой значительной фигурой XVII века?”

Из биографии Исаака Ньютона известно, что он родился в 1643 году, посещал сначала сельскую школу, а в двенадцать лет его отправили учиться в ближайший город. Директор школы обратил внимание на способного мальчика и настоял, чтобы мать Ньютона отправила сына учиться в Кембриджский университет. Ньютона приняли университет как бедного студента, обязанного прислуживать бакалаврам, магистрам и студентам старших курсов.

Жизнь связала Ньютона с молодым блестящим учёным Исааком Барроу, который занимал тогда Кафедру математики в Кембридже. Он заинтересовался талантливым молодым человеком и скоро стал не только учителем, но и другом Ньютона, а спустя несколько лет уступил своему великому ученику кафедру математики. К этому времени Ньютон получил уже степени бакалавра и магистра. В 1665-1667 годах Ньютон начал работать над созданием математического аппарата, с помощью которого можно было бы исследовать и выражать законы физики. Ньютон первый построил дифференциальное и интегральное исчисления, он назвал его методом флюксий. Это дало возможность решать самые разнообразные, математические и физические, задачи. До Ньютона многие функции определяли только геометрически, и к ним невозможно было применять алгебру или новое исчисление флюксий. Ньютон нашел новый общий метод аналитического представления функции - он ввел в математику и начал систематически применять бесконечные ряды.

Рассмотрим поподробнее эту идею Ньютона. Известно, что любое действительное число можно представить десятичной дробью - конечной или бесконечной. Так, например:

Таким образом, любое число a можно представить в виде:

где N - целая часть, а a 1 , a 2 , ... a n , ... могут принимать одно из значений от 0 до 9. По аналогии с таким представлением чисел Ньютон предположил, что любую функцию от x , например , , можно представить как бесконечный многочлен или ряд, расположенный уже не по степеням , а по степеням x :

где a 1 , a 2 , ... a n , ...- коэффициенты, которые каждый раз должны быть определены. Примером служит известная нам геометрическая прогрессия:

Такое представление функции с помощью ряда очень удобно. С помощью рядов, как писал Ньютон, “удается преодолеть трудности, в другом виде представляющиеся почти неодолимыми”.

К аналогичным идеям, одновременно с Ньютоном, пришёл другой выдающийся учёный - Готфрид Вильгельм Лейбниц.

Познакомимся с его биографией. Лейбниц родился в Германии в г. Лейпциге в 1646 г. Любознательный мальчик уже 6 лет вел интересные беседы по истории со своим отцом, профессором Лейпцигского университета. К 12 годам он изучил латинский язык и увлёкся древнегреческим. Особенно его интересовали древние философы, и он любил подолгу размышлять о философских теориях Аристотеля, Демокрита. В 15 лет Лейбниц поступил в Лейпцигский университет, где старательно изучал право и философию. Он очень много читал, его любимыми книгами были книги Р. Декарта, Г. Галилея, II. Кеплера и Д. Кампанеллы. Колоссальные знания но математике Лейбниц приобрел, как ни странно, самоучкой. Через три года, окончив университет, Лейбниц, обиженный отказом ученого совета университета присвоить ему степень доктора прав покинул Лейпциг. Отказ объяснили тем, что Лейбниц был... слишком молод!

Так для молодого учёного началась жизнь, полная напряженного труда и далёких бесконечных путешествий. Нетрудно представить, как неудобно было путешествовать в неуклюжих каретах по тряским дорогам Европы тех времен. Лейбниц старался никогда не терять время даром. Много удачных мыслей родилось в его талантливой голове именно во время этих продолжительных поездок.

Лейбниц обладал исключительной способностью быстро понимать в задачу и решать ее наиболее общим способом. Размышляя над философскими и математическими вопросами, он убедился, что самым надежным средством искать и находить истину в науке может стать математика. Всю свою сознательную жизнь он стремился выразить законы мышления, человеческую способность думать в виде математического исчисления. Для этого необходимо, учил Лейбниц, уметь обозначать любые понятия или идеи определенными символами, комбинируя их в особые формулы, и сводить правила мышления к правилам в вычислениях но этим символическим формулам. Лейбниц стремился избавить наши рассуждения от любой неопределенности и возможности ошибиться самому или вводить в заблуждение других, заменяя общие слова четко определенными символами.

Лейбниц мечтал, что если вдруг между людьми возникнут разногласия, то решаться они будут не в длинных и утомительных спорах, а так, как решаются задачи или доказываются теоремы. Спорщики возьмут в руки перья и, сказав: “Начнем вычислять” - примутся за расчеты.

Лейбниц одновременно с Ньютоном, как уже отмечалось, и независимо от него открыл основные принципы дифференциального и интегрального исчислений.

Теория приобрела силу только после того, как Лейбницем было доказано, что дифференцирование и интегрирование - взаимно обратные операции. Об этом свойстве хорошо знал и Ньютон, но только Лейбниц увидел здесь ту замечательную возможность, которую открывает применение символического метода.

Так любой человек, изучив небольшое число правил действия с символами, обозначающими операции дифференцирования и интегрирования, становится обладателем мощного математического метода.

Символьный метод, операторы.

 

В наше время такие символы операций называют операторами. Операторы дифференцирования d( ) и интегрирования действуют на функции, “перерабатывая” их в другие, точно вычисляемые функции. Лейбниц разрабатывает особую алгебру действий с этими операторами. Он доказывает, что обычное число а можно выносить за знак оператора:

Одинаковые операторы можно выносить за скобку:

или:

Сокращенно все перечисленные свойства можно выразить соотношением:

где: a и b - числа.

Операторы. которые обладают таким свойством. называются линейными. Теория линейных операторов, которую с таким успехом начал развивать, Лейбниц,. в современной математике является хорошо разработанной и полезной в приложениях теорией.

Многократное применение операторов можно принимать как степень оператора, например, для d( ) :

То, что основные операторы математического анализа являются взаимно обратными Лейбниц подчёркивал своей символикой, утверждая, что в d(x) и также взаимно обратны, как степени и корни в обычном исчислении. Употребляя так же обозначение, аналогичное обозначению a -1 числа, обратного a , причём произведение a Ч a -1 =1. Обозначая операторы или наоборот:

и понимая под их произведением последовательное их применение, имеем:

т. е. произведение есть “единица”, не меняющая функцию.

Ньютон и Лейбниц - рождение противоречий.

 

Однако в подходе Ньютона-Лейбница крылось серьёзное противоречие.

Лейбниц и его последователи - братья Бернулли, Лопиталь и другие - трактовали дифференциалы как бесконечно малые разности обычных конечных величин, как тогда говорили - “реальных” величин “низшей” математики. Поэтому они обращались с теми и другими одинаково и в исчислении применяли к первым те же приемы, которые справедливы при действиях со вторыми. Вместе с тем выяснилось, что таким образом трактуемым бесконечно малым присуще свойство, противоречащее одному основному свойству основных конечных величин: если А — конечная величина, а a — бесконечно малая, то, чтобы результат исчисления получался совершенно точным, оказалось необходимым проводить вычисления в предположении, что А+ a .

Дифференциальное исчисление, значение которого для развития науки и техники было вне сомнений, оказалось в парадоксальном положении: чтобы его методами получить точный результат, надо было исходить из ошибочного утверждения.

Ньютон пытался обосновать дифференциальное исчисление на законах механики и понятии предела. Но ему не удалось освободить свое исчисление флюксий от недостатков, присущих дифференциальному исчислению Лейбница. В практике вычисления Ньютон, как и Лейбниц, применял принцип отбрасывания бесконечно малых.

Такая непоследовательность позволила назвать дифференциальное исчисление Лейбница–Ньютона мистическим. Этим в первую очередь подчеркивалось, что Лейбниц и Ньютон вводили в дифференциальное исчисление бесконечно малые величины метафизически, сразу полагая их существующими, без выяснения их возникновения и развития и без анализа природы их специфических свойств.

Попытки построить анализ бесконечно малых и теорию рядов в полном соответствии с основными понятиями и истинами “низшей” математики с самого начала к успешным результатам не привели. Поэтому Лейбниц и его последователи пытались оправдать принципы анализа бесконечно малых путем сравнения бесконечно малой с песчинкой, которой можно пренебречь при вычислении высоты горы, посредством ссылок на вероятность и т. п.

Другая попытка была предпринята в конце XVIII века. Известный немецкий математик Вессель предложил оставить анализ бесконечно малых в анализе в качестве “полезных вспомогательных функций”. Однако, такая трактовка широкого распространения не получила - математики знали механическое и геометрическое истолкование dx и dy .

Примерно с последней четверти XVIII века область приложений математического анализа начинает значительно перекрывать границы его обычного приложения в механике и геометрии. Ещё быстрее развертывается этот процесс в первой четверти XIX века.

Математики пытались сначала решать новые задачи методами, разработанными классиками XVIII века - Эйлером, Даламбером, Лагранжем и другими. Однако, вскоре выяснилось, что методы классиков недостаточны, что надо развивать новые, более общие и сильные методы. Выяснилось также, что недостаточность методов классиков нередко связана с узостью трактовки основных понятий, с “изгоняемым” понятием о бесконечно малом, с “исключениями”, которые раньше оставались в тени.

Поясним сказанное одним примером.

Ньютон и Лейбниц разработали две трактовки понятия обычного определенного интеграла.

Ньютон трактовал определенный интеграл как разность соответствующих значений первообразной функции:

,

где F ` (x)=f(x) .

Для Лейбница определенный интеграл был суммой всех бесконечно малых дифференциалов.

.

Первая трактовка отвечала технике вычисления определенных интегралов при помощи первообразной подынтегральной функции, вторая - потому, что в приложениях определенный интеграл появлялся как предел известного вида суммы (интегральной суммы).

Примерно до последней четверти XVIII века первая трактовка понятия определенного интеграла занимала господствующее положение. Этому способствовали два обстоятельства.

С момента установления правил дифференцирования всех элементарных функций в начале XVIII века, началась успешная разработка методов нахождения их первообразных (рациональных, отдельных классов иррациональных и трансцендентных функций). Благодаря этому точка зрения Ньютона вполне отвечала развитию эффективных алгоритмов интегрального исчисления.

Непосредственное вычисление как предела интегральной суммы столкнулось с многими трудностями. Это обстоятельство укреплению точки зрения Лейбница, естественно, не способствовало.

Эйлер. Понятие об интегральной сумме.

Определение простого определенного интеграла по Лейбницу опиралось на понятие о бесконечно малых величинах, от которого математики XVIII века стремились освободить математический анализ. Это обстоятельство также способствовало укреплению точки зрения Ньютона.

Это хорошо подтверждается тем, как Леонард Эйлер использовал понятие об интегральной сумме. Он не возражал против приближенного вычисления определенных интегралов при помощи соответствующих интегральных сумм, но рассматривать определенный интеграл как предел интегральной суммы не представлялось возможным, потому что этом случае все слагаемые интегральной суммы становились бесконечно малыми, то есть, с точки зрения Эйлера, были нулями.

Быстро пробежимся по основным вехам эйлеровской биографии. В 1963 г. 23-летний Пауль Эйлер окончил курс теологии в Базельском университете. Но потому что учёных теологов было в те годы больше, чем требовалось, он получил официальную должность священника сиротского дома в Базеле лишь в 1701 г.. 19 апреля 1706 г. пастор Пауль Эйлер женился на дочери священника. А 15 апреля 1707 г. у них родился сын, названный Леонардом. Начальное образование будущему учёному дал отец, учившийся некогда математике у Якоба Бернулли. Отец готовил старшего сына к духовной карьере, но, несмотря на это, однако занимался с ним и математикой – как в качестве развлечения, так и для развития логического мышления. Мальчик увлёкся математикой, стал задавать отцу вопросы один сложнее другого.

Когда у Леонардо проявился интерес к учёбе, его направили в Базельскую латинскую гимназию – под надзор бабушки.

20 октября 1720 г. 13-летний Леонард Эйлер стал студентом факультета искусств Базельского университета. Мечта отца о том, что бы Эйлер стал священником сбывалась. Но любовь к математике, блестящая память и отличная работоспособность сына направили молодого учёного по иному пути.

Он легко усваивал учебные предметы, отдавая предпочтение математике. И естественно, что способный мальчик вскоре обратил на себя внимание Бернулли, который посоветовал юноше читать математические мемуары, а по субботам пригласил приходить к нему домой, чтобы совместно разбирать прочитанное. В доме своего учителя Эйлер подружился с сыновьями Бернулли – Николаем и Даниилом, также увлечённо занимавшимися математикой. А 8 июня 1724г. 17-летний Леонард Эйлер произнёс по- латыни великолепную речь о сравнении философских воззрений Декарта и Ньютона - и был удостоен учёной степени магистра (в XIX в. в большинстве университетов Западной Европы ученая степень магистра была заменена степенью доктора философии).

Эйлер просто не мог не заниматься математикой или её приложениями. В 1735 г. Академия получила задание выполнить срочное и очень громоздкое астрономическое вычисление. Эйлер взялся выполнить работу за 3 дня – и справился самостоятельно, в то время, как группа признанных академиков просила на эту работу три месяца. Перенапряжение не прошло бесследно: Эйлер заболел и потерял зрение на правый глаз. Но талантливый учёный отнёсся к несчастью с величайшим спокойствием: “Теперь я меньше буду отвлекаться от занятий математикой”, - философски заметил он.

До этого Эйлера знал лишь узкий круг учёных. Мировую славу ему принесло двухтомное сочинение “ Механика, или наука о движении, в аналитическом изложении ”, изданное в 1736 г, где Эйлер блестяще применил методы математического анализа к решению проблем движения в пустоте и в сопротивляющейся среде. “Тот, кто имеет достаточные навыки в анализе, сможет всё увидеть с необычайной лёгкостью и без всякой помощи прочитает работу полностью”, - заканчивает Эйлер своё предисловие к книге.

Леонард Эйлер начал прокладывать аналитический путь развития точных наук, применения дифференциального и интегрального исчисления для описания физических явлений, который требовал дух времени.

Концепция Ньютона и до последней четверти XVIII века сталкивалась с трудностями. В этот период встречались элементарные функции, первообразные которых не могут быть выражены через элементарные функции, математики знали и некоторые несобственные интегралы, в том числе и расходящиеся. Но такого рода факты были единичными и установившейся эффективной концепции интеграла нарушить не могли.

Положение изменилось лишь в последней четверти XVIII и, особенно, в начале XIX века.

С 70-х годов XVIII века решение задач аналитической механики, физики и других дисциплин потребовало продолжения развития понятия и употребления определенного интеграла, особое значение приобретают двойные и тройные интегралы (Эйлер, Лагранж, Лаплас и др.).

К этому времени великие идеи Ньютона и Лейбница были только-только опубликованы, и современный математический анализ только начал создавался. Эти идеи породили мощные методы, которые стали применять во всех отраслях точного знания. Применение это шло рука об руку с развитием самого анализа, часто указывая пути, по которым должно развиваться новое исчисление.

Проблема двойных и тройных интегралов.

Эта эпоха математического творчества оказалась единственной по своей интенсивности, а Эйлер - одним из немногих по своей продуктивности учёным. Его творения: "Введение в анализ бесконечно малых", "Основания дифференциального исчисления" и "Основания интегрального исчисления" стали первыми трактатами, которые объединили уже обширный, но вместе с тем разрозненный материал нового анализа в цельную науку. В них была разработана та основа современного анализа, которая сохранилась и до нашего времени.

Исследование методов вычисления двойных и тройных интегралов показала, что вычисление этих интегралов методом вычисления обычного определенного интеграла - при помощи неопределенного, невероятно трудно, поэтому математики сохранили концепцию Ньютона только на словах, а на деле, при решении задач точных наук, приняли сторону Лейбница. Так они вычисляли соответствующие интегральные суммы (в прямоугольных, цилиндрических и сферических координатах) и находили их пределы.

Таким образом, поиск методов вычисления новых видов определенного интеграла показал, что обыкновенный, двойной и т. д. определенный интегралы должны быть обоснованы сами по себе независимо от понятия неопределенного интеграла. Но каждое слагаемое любой интегральной суммы является бесконечно малой величиной. Ставился вопрос не только о легализации ранее “изгоняемого” понятия бесконечно малого, но и о раскрытии его реального содержания и о соответствующем его применении. Как говорилось ранее, чтобы всё это сделать, появилась необходимость преодолеть, обобщить, развить традиционное, каким было признано Эйлерово, толкование функции и понятия предела.

Коши - решение парадокса существования конечных сумм из бесконечно малых слагаемых.

Возник естественный вопрос о возможности существования пределов интегральных сумм, имеющих бесконечно малые слагаемые. Так в первой четверти XIX века, избегаемое ранее, понятие бесконечно малой оказалось необходимым и для изучения и для сопоставления свойств непрерывных и разрывных функций.

Основополагающих результатов добился в развитии этого вопроса Коши. “Между многими понятиями, - указывал Коши, - тесно связанными со свойствами бесконечно малых, следует поместить понятие о непрерывности и прерывности функций”. Здесь же Коши дал определение непрерывности функции, которое более чем ясно подтвердило ясность этого его утверждения.

Новая постановка задач обоснования математического анализа дала понять, что вопрос не только в признании и применении бесконечно малых - это делали и раньше! - ,но прежде всего в научном истолковании их содержания и обоснованном на этом использовании их в алгоритмах математического анализа.

Но чтобы этого добиться, необходимо было преодолеть господствовавшее в XVIII веке узкое толкование понятия предела, разработать новую общую теорию пределов.

Исследование разрывных функций, а также сравнение их с функциями непрерывными заставило признать то, что ранее считалось невозможным: предел, к которому стремиться последовательность значений функции, при стремлении аргумента в некоторой точке может оказаться отличным от значения функции в этой точке.

Получается, что предел не всегда является конечным значением переменной, но во всех случаях предел является числом, к которому переменная неограниченно стремится. Следовательно, dx и dy не необходимо нули или “мистически” актуально бесконечно малые; бесконечно малая - это переменная, имеющая пределом нуль, причем факт не является противоречием или парадоксом.

Вторую ограничительную тенденцию в принятой ранее трактовке понятия предела также преодолел Коши. Он признал, что переменная может приближаться к своему пределу не только монотонно, но и колеблясь- принимая порой значения, равные её пределу. Эта формулировка придала теории Коши необходимую общность и исключительную гибкость.

Заключение.

Математики до сих пор следуют пути, намеченному Огюстеном Луи Коши, но лишь с теми усовершенствованиями, которые внёс во второй половине XIX века К. Вейерштрасс.

Работы Коши и Вейерштрасса завершили создание классического математического анализа, подведя итог многовековому развитию интегрального исчисления.

Литература

    1. Большакова А. А. Три кризиса в развитии математики. Дипломная работа; Астрахань : АГПИ, 1996.
    2. Детская энциклопедия для среднего и старшего возраста. Т.2; М.: Просвещение, 1965.
    3. Математическая энциклопедия. Ред. Виноградова. Т.2; М.: Сов. Энциклопедия, 1979.
    4. Фихтенгольц Г.М. Основы математического анализа. Т.1; М.: Наука, 1968.

Форум
Открылся форум WorkLib.ru