Контакты

Невязка функции. Системы линейных уравнений

Лекция 6

Метод взвешенных невязок

Метод взвешенных невязок

Метод наименьших квадратов довольно прост по своей идее. Однако большее распространение получил так называемый метод взвешенных невязок . В этом методе система уравнений для определения неизвестных коэффициентов строится следующим образом:

Здесь ‑ некоторая система «весовых» функций. Отсюда, кстати, и название «метод взвешенных невязок».

Математический смысл этого подхода состоит в следующем. Обратите внимание, что интегралы в (28) представляют собой скалярные произведения функции невязок на весовые функции. Если использовать геометрическую аналогию, то можно сказать, что интегралы в (28) представляют собой проекции функции невязок на весовые функции.

Если бы можно было в качестве весовых функций использовать полную систему функций, то полученное решение было бы точным. Однако, по понятным причинам, приходится использовать конечное число весовых функций.

Запишем систему (28) применительно к рассматриваемому примеру (1):

То есть, вновь, как и в методе наименьших квадратов, задача сводится к решению системы линейных уравнений . Но элементы матрицы и вектора имеют иной вид:

Система весовых функций может выбираться различным образом. Попробуем сначала самый простой вариант: первые три функции степенного ряда:

Напомним, что мы обязаны ограничиться только тремя весовыми функциями, поскольку в этом примере мы ищем приближенное решение в виде линейной комбинации трех функций (18), и приближенное решение (17) содержит три неизвестных коэффициента: .

Подставляя (18) и (31) в (30), получим

,

и решение системы :

Подставляя найденные значения коэффициентов в (17), получим

Таблица 3

x Точное решение Метод взвешенных невязок (весовые функции: 1,x ,x 2)
0.25 -0.0716449 -0.0611209
0.5 -0.1013212 -0.0780438
0.75 -0.0716449 -0.0565199


Соответствующий график на рисунке 9.

Рис.9

Как видим, результаты оказались хуже, чем при использовании, как метода конечных разностей, так и метода наименьших квадратов. Причина такой неприятности не в том, что плох метод взвешенных невязок. Дело в том, что система весовых функций была выбрана неудачно. Как уже говорилось, в «Математическом отступлении» (втором пункте этого параграфа) эти функции и не нормированы, и не ортогональны. Там же была получена по методу Грама-Шмидта ортонормированная система функций, эквивалентная (31). Попробуем теперь в качестве весовых функций использовать функции этой системы:

В этом случае матрица и вектор :

а решение системы :

В результате подстановки этих значений в (17):

Таблица 4

x Точное решение Метод взвешенных невязок (ортонормированная система степенных функций)
0.25 -0.0716449 -0.0717608
0.5 -0.1013212 -0.1010489
0.75 -0.0716449 -0.717608

Здесь видно, что, казалось бы, незначительное улучшение при выборе весовых функций привело к значительному повышению точности приближенного решения. Кстати, обратите внимание, что хотя матрицы и , полученные по методу наименьших квадратов и в последнем случае, различны, решения этих линейных систем практически совпали. График приближенного решения, поэтому не приводится. Он выглядел бы точным повторением рис.8.

Фундаментальная тема 🙂 Написал программу-блокнот, реализующую метод взвешенных невязок в Mathematica. Получилось довольно интересно, есть простор для экспериментов по изменению тестовой и весовой функции.

Метод взвешенных невязок: Алгоритм

Задача для решения методом взвешенных невязок

Для примера, берем задачу из книги Kwon, Bang «The Finite Element Method Using MATLAB» (стр. 31).

Метод взвешенных невязок в Mathematica

На сайте интегралы не выведутся, поэтому текст привожу в виде картинки:

Метод взвешенных невязок — текст блокнота Mathematica без выходных ячеек.

По тексту. В первых трех строках определяется функция невязки, далее выбирается тестовая функция с параметром и затем вычисляется невязка при подстановке тестовой функции.

Далее реализуются три метода сначала — метод коллокации, затем метод наименьших квадратов и метод Галёркина. Для коллокации точка семплирования . Для каждого из этих методов — устанавливается своя весовая функция, а тестовая функция остается та же самая. Вычисляется взвешенная невязка — интеграл по области решения задачи от произведения весовой функции на невязку. Интегрирование производится по , но у нас в выражение под интегралом входит параметр тестовой функии . Поэтому после интегрирования имеем функцию от . Затем выражение взвешенной невязки приравнивается к нулю и определяется параметр . Таким образом тестовая функция становится определенной функцией только одного аргумента .

Метод взвешенных невязок

МКЭ основывается на методе взвешенных невязок, суть которого заключается в следующем: подбирается функция, удовлетворяющая дифференциальным уравнениям и краевым условиям, но подбирается не произвольно, поскольку такой подбор вряд ли возможен уже в двумерном пространстве, а с использованием специальных методов.

Пусть состояние некоторой среды описывается следующим дифференциальным оператором, с заданным граничным условием:

Здесь L - дифференциальный оператор (например, оператор Лапласа),

V - фазовая переменная - неизвестная функция, которую следует найти,

P - величина, независящая от V,

V(Г) = V г - граничное условие первого рода (Дирихле), то есть на границе задано значение фазовой переменной.

Будем искать решение с помощью функции, имеющей следующий вид:

Здесь V* - приближённое решение,

F - функция, удовлетворяющая граничным условиям,

N m - пробные функции, которые на границе области должны быть равны нулю,

A m - неизвестные коэффициенты, которые необходимо отыскать из условия наилучшего удовлетворения дифференциальному оператору,

M - количество пробных функций.

Если подставить V* в исходный дифференциальный оператор, то получим невязку, принимающую в различных точках области разное значение:

Необходимо сформулировать условие, позволяющее минимизировать эту невязку по всей области. Одним из вариантов такого условия может быть следующее уравнение:

Здесь W n - некоторые весовые функции, в зависимости от выбора которых различают варианты метода взвешенных невязок,

S - область пространства, в которой ищется решение.

При выборе в качестве весовых функций дельта-фукций будем иметь метод, который получил название метод поточечной коллокации, для кусочно-постоянных функций - метод коллокации по подобластям, но наиболее распространенным является метод Галёркина, в котором в качестве весовых функций выбираются пробные функции N. В этом случае, если количество пробных функций равно количеству весовых функций, после раскрытия определенных интегралов приходим к замкнутой системе алгебраических уравнений относительно коэффициентов A.

где коэффициенты матрицы K и вектора Q вычисляются по формулам:

После нахождения коэффициентов A и подстановки их в (1), получаем решение исходной задачи.

Недостатки метода взвешенных невязок очевидны: поскольку решение ищется сразу по всей области, то количество пробных и весовых функций должно быть значительным для обеспечения приемлемой точности, но при этом возникают трудности при вычислении коэффициентов Kij и Qi, особенно при решении плоских и объемных задач, когда потребуется вычисление двойных и тройных интегралов по областям с криволинейными границами. Поэтому на практике этот метод не использовался, пока не был изобретен метод конечных элементов.

Идея МКЭ заключается в том, чтобы в методе взвешенных невязок воспользоваться простыми пробными и весовыми функциями, но не во всей области S, а в её отдельных подобластях (конечных элементах). Точность решения задачи необходимо обеспечить использованием большого числа конечных элементов (КЭ), при этом КЭ могут быть простой формы и вычисление интегралов по ним не должно вызывать особых затруднений. Математически переход от метода взвешенных невязок к МКЭ осуществляется с использованием специальных пробных функций, которые также называются глобальными базисными функциями, обладающих следующими свойствами:

1) в узле аппроксимации функции имеют значение равное единице;

2) функции отличны от нуля только в КЭ, содержащих этот узел аппроксимации, во всей остальной области равны нулю.

Влияние различных факторов на работу осадки

Методи вирощування кристалів

За методом Чохральського виробляють витягування вгору на затравку монокристала з ванни з розплавом. Нагрівання зазвичай здійснюють за допомогою НВЧ випромінювання. Для зняття виникаючих напруг використовують додаткову піч...

Метод капиллярной вискозиметрии опирается на закон Пуазейля о вязкой жидкости, описывающий закономерности движения жидкости в капилляре. Приведем уравнение гидродинамики для стационарного течения жидкости...

Методы и средства для измерения вязкости жидкости

Вибрационный метод вискозиметрии базируется на определении изменений параметров вынужденных колебаний тела правильной геометрической формы, называемого зондом вибрационного вискозиметра, при погружении его в исследуемую среду...

Монтаж электрических проводок. Сборка схем управления силовым оборудованием

Четвертый день практики. Я научился выполнять соединение проводов бандажным методом...

Освітлення і опромінення пташника на 28800 голів ремонтного молодняка курей в кліткових батареях БКМ–3

Точковий метод розрахунку дає можливість визначити світловий потік ламп, необхідний для створення заданої освітленості в будь-якій точці довільно розміщеної поверхні при будь-кому розміщенні світильників...

Принципы томографии

Самым простым ЯМР исследованием является стационарный МР (или свип-МР) метод. Существуют два пути проведения этого эксперимента. При первом, непрерывное РЧ облучение с постоянной частотой, исследует энергетические уровни...

Проектування системи електропостачання машинобудівного заводу

Даний метод припускає, що навантаження - випадкова величина...

Разработка теплозащитного материала с минимальным коэффициентом теплопроводности

Классическим методом решения уравнения (1.3) является метод разделения переменных (метод Фурье). Основой которого является предположение, что решение можно представить в виде произведения двух функций...

Расчет естественного и искусственного освещения швейного цеха

Точечный метод пригоден для расчета любой системы освещения при произвольно-ориентированных рабочих поверхностях. В основу метода положено уравнение, связывающее освещенность и силу света (закон сохранения энергии для светотехники). (5...

Рідкі кристали

Для вивчення рідких кристалів застосовуються стандартні спектроскопічні методи. В період інтенсивного дослідження мезоморфного стану різних речовин виконаний ряд робіт методами ІЧ спектроскопії...

Собственные колебания пластин

Одним из наиболее распространенных методов решения уравнений с частными производными является метод разделения переменных или метод Фурье. Пусть требуется найти функцию...

Состав, свойства и классификация природных газов, методы определения их состава

Хроматография (от греч. chroma, род. падеж chromatos -- цвет и grбpho -- пишу * а. chromatography; н. Chromatographie; ф. chromatographie; и. cromatografнa) -- метод разделения, анализа и исследования смесей веществ...

Способы фильтрации акустических сигналов

Метод корреляций позволяет определить тесноту линейной зависимости между исследуемой и базисной функциями. Это легче понять на примере. Пусть имеется импульсная радиолокационная станция...

Статистически неопределимые системы и физика усталости разрушения

Обобщим изложенный подход на "лишних” связей. В методе сил каждое разрешающее уравнение по своей сути это есть условие совместности деформации, записанное для точек 1, 2, и т.д. (рис.6.13). Запишем это условие для первой точки...

Кафедра физхимии ЮФУ (РГУ)

ЧИСЛЕННЫЕ МЕТОДЫ И ПРОГРАММИРОВАНИЕ

Материалы к лекционному курсу

Системы линейных уравнений

Системы n линейных уравнений с n неизвестными x 1 , x 2 , ..., x n в общем случае принято записывать следующим образом:

где а ij и b i – произвольные константы. Число n неизвестных называется порядком системы.

Решением уравнения является такая совокупность значений переменных х 1 , х 2 ,…, х n , которая одновременно обращает все уравнения системы в тождество.

Необходимым и достаточным условием существования и единственности решения системы уравнений является линейная независимость уравнений. Или, более точно, неравенство нулю определителя, составленного из коэффициентов системы уравнений:

Эквивалентной (и весьма удобной!!!) записью системы линейных уравнений является матричная запись

или сокращенно ,

в чем легко убедится, если воспользоваться правилами перемножения матриц: элемент, стоящий на пересечении i -й строки и j -го столбца матрицы-результата есть скалярное произведение i -й вектор-строки первой матрицы и j -го вектор-столбца второй матрицы.

Коэффициенты при неизвестных образуют квадратную матрицу размером n x n , (A) , переменные и свободные члены уравнений – векторы-столбцы длиной n (Х) и (В) , соответственно.

Решение системы уравнений есть вектор (X *) , который обращает это матричное уравнение в тождество.

Для решения системы линейных уравнений применяются точные методы (прямые) в которых количество арифметических, необходимых для нахождения решения, операций точно определяется порядком системы и итерационные (приближенные) методы, в которых проводится пошаговое, итерационное уточнение решения.

Оценить близость какого-либо вектора (Х) i к решению системы уравнений можно оценив близость вектора невязок, вычисляемого приведенным ниже образом, к нулевому вектору:

Для выражения меры близости в виде числа используется какая-либо норма вектора, например, Евклидова норма или длина вектора в n -мерном пространстве (другое определение – это корень квадратный из скалярного произведения вектора на себя):

Иногда используются другие векторные нормы: норма-максимум (равна наибольшей по абсолютной величине компоненте вектора)

или норма-сумма (равна сумме абсолютных величин компонентов вектора)

Обусловленность линейных алгебраических систем

Численное решение систем алгебраических уравнений является часто решаемой в рамках математического моделирования задачей. При этом как размерность задачи, так и характер матриц может существенно меняться. Вычисления, проводимые с определенной точностью, так же оказывают влияние на результат решения линейных систем. Кроме того, сами коэффициенты системы – матрица (А) и свободные члены – (В) могут быть представлены с определенной погрешностью.

Приведем такой пример:

Система уравнений

Имеет, как нетрудно убедиться подстановкой, единственное решение x = 1, y = 1.

Предположим, что при подготовке системы к решению, правая часть первого уравнения была определена с небольшой абсолютной погрешностью в +0.01, то есть, правая часть первого из уравнений вместо 11 была взята равной 11,01.

Единственным решение этой системы уравнений уже будет вектор x=11,01 y=0.

Как нетрудно убедится, в этом случае погрешность определения значений переменных оказывается существенно больше, чем погрешность коэффициента. Задачи, в которых малое изменение исходных параметров кардинально сказывается на результате называются плохо обусловленными .

Рассмотрим в общем виде систему линейных уравнений, в которой вектор свободных членов (В) представлен с некоторой абсолютной погрешностью (ΔВ) .

Если вектор (X) является точным решением уравнения с "точным" вектором ) .

то при наличии погрешности в правой части (ΔВ) решение системы уравнений будет отличаться от (X) на некоторый вектор (ΔX) , что можно записать следующим образом:

Раскроем скобки в правой части

И учтем точное уравнение

, умножая обе части равенства на матрицу, обратную матрице коэффициентов

Получим

т.е. абсолютная погрешность (ΔX) вычисления вектора решения (X) равна произведению матрицы, обратной матрице коэффициентов системы уравнений, на вектор абсолютной погрешности (ΔВ) .

Если перейти от матриц и векторов к соответствующим нормам, то получим, что норма вектора (ΔX) будет меньше либо равна произведению норм обратной матрицы и нормы вектора погрешности

Таким образом, если норма обратной матрицы будет велика, то абсолютная погрешность решения может быть существенно больше абсолютной погрешности правых частей уравнений системы.

Оценим, как будут при этом соотноситься относительная погрешность решения и относительной погрешностью коэффициентов. Для этого пронормируем два полученных ранее уравнения:

Перемножим отдельно левые и правые части неравенств, что, очевидно, не изменит знак неравенства и разделим обе части на и, окончательно получим:

Величина называется числом (мерой) обусловленности матрицы А . От этой величины зависит степень влияния погрешности коэффициентов системы уравнений на погрешность полученного решения. Если это число невелико, то относительная погрешность решения будет не сильно отличаться от относительной погрешности коэффициентов. Чем больше число обусловленности тем больше будет влияние погрешности коэффициентов на погрешность решения.

Аналогичный анализ можно провести и для случая наличия погрешности задания матрицы коэффициентов системы (ΔA) . И в этом случае, так же, возникает число обусловленности.

Для рассмотренного числового примера

и

Если взять, например, матричную норму-максимум,

, то получим

для матрицы (А) норму 1011, а для матрицы, обратной (А) - (А) -1 – 1101. Таким образом, число обусловленности оказывается равным более 1000000!

Прямые (точные) методы

Метод Гаусса и Гаусса-Жордана

Алгоритм решения заключается в приведении расширенной матрицы системы уравнений к треугольному виду (метод Гаусса) или псевдодиагональному виду (метод Гаусса-Жордана).

Метод Крамера

В данном методе (при не равенстве нулю определителя, составленного из коэффициентов системы) значения переменных определяются следующим образом

I = 1, 2, …, n

Здесь в знаменателе стоит определитель матрицы коэффициентов системы. В числителе – определитель матрицы, полученной из матрицы коэффициентов путем замены i -го столбца на вектор-столбец свободных членов системы.

Для системы, записанной в общем виде:

Метод обращения матрицы

Решение системы уравнений, записанной в матричной форме, легко найти, если воспользоваться определением обратной матрицы:

(A)(A) -1 = (A) -1 (A) = (1) ,

где (1) – единичная диагональная матрица.

Действительно,

Умножим слева обе части уравнения на обратную матрицу коэффициентов системы (A) -1

Таким образом, для решения системы, необходимо обратить матрицу коэффициентов системы и умножить полученный результат на вектор-столбец свободных членов .

Несмотря на простоту записи, метод имеет достаточную вычислительную сложность, которая заключается в нахождении обратной матрицы .

Приближенные (итерационные) методы

Метод простых итераций, метод Зейделя

Данные методы рассмотрены на примере систем нелинейных уравнений .

Метод минимальных невязок

Для решения линейных систем уравнений можно применять и различные методы поиска экстремумов. Проблема решения системы уравнений заменяется эквивалентной задачей нахождения экстремума функции n переменных.

Большая группа методов приближенного решения дифференциальных

уравнений базируется на математической формулировке, связанной с

интегральным представлением взвешенной невязки. Эту группу методов называют методами взвешенных невязок .

Пусть имеется дифференциальное уравнение и граничное условие к нему:

Здесь L −дифференциальный оператор; x i − пространственные координаты; V и S − объем и внешняя граница исследуемой области; u 0 – точное решение.

при этом коэффициенты − неизвестные величины, подлежащие определению с помощью некоторой математической процедуры.

В методах невязки эта процедура состоит из двух последовательных этапов. На первом этапе подстановкой приближенного решения (2.1.3) в уравнение (2.1.1) находится функция ошибка , или невязка , которая характеризует степень отличия от точного решения :

В итоге получается алгебраическое уравнение, содержащее текущие координаты и М по-прежнему неизвестных коэффициентов .

На втором этапе на функцию невязки (2.1.4) накладываются требования, которые минимизируют или саму невязку (метод коллокаций), или взвешенную невязку (метод наименьших квадратов и метод Галеркина).

В методе коллокаций полагают, что дифференциальное уравнение удовлетворяется только в некоторых выбранных (произвольно) точках − точках коллокаций , количество которых равно числу неизвестных коэффициентов . В этих М точках невязка должна равняться нулю, что приводит к системе М алгебраических уравнений для М коэффициентов :

В методах взвешенной невязки сначала формируют взвешенную невязку путем ее умножения на некоторые весовые функции , а затем минимизируют ее в среднем:

В методе наименьших квадратов − методе Рэлея-Ритца − в качестве весовой функции выбирается сама ошибка, т.е. , и требуется, чтобы полученная таким способом величина (функционал) была минимальна:

Для этого должно выполняться условие:

приводящее к системе алгебраических уравнений относительно неизвестных коэффициентов.

В методе Галеркина в качестве весовых функций берутся сами функции, называемые базисными , и требуется их ортогональность невязке :

Если − линейный оператор, то система (2.1.9) переходит в систему алгебраических уравнений относительно коэффициентов .

Рассмотрим метод Галеркина на конкретном примере . Дано уравнение на промежутке :


Сопоставление приближенных результатов, полученных различными методами, с точным решением дано в таблице 1.

Понравилась статья? Поделитесь ей