You signed in with another tab or window. Reload to refresh your session.You signed out in another tab or window. Reload to refresh your session.You switched accounts on another tab or window. Reload to refresh your session.Dismiss alert
Верная цифра - значащая цифра числа $a^{\ast}$, абсолютная погрешность которой не превосходит единицы разряда, соответствующей этой цифре.
Округление - замена числа $a$ его другим числом $a^{\ast}$ с меньшим количеством значащих цифр.
При округлении возникает погрешность округления.
Решение нелинейных уравнений
Постановка задачи
Задача отыскания корней нелинейного уравнения с одним неизвестным вида:
$$
f(x) = 0
$$
Корень уравнения - значение $\overline{x}$, при котором $f(\overline{x}) = 0$. Геометрически, $\overline{x}$ является абсциссой точки пересечения графика $f(x)$ с осью $Ox$.
Для заданной точности $\epsilon$ требуется найти приближенное значение корня $\overline{x}^{*}$ такое, что:
Пусть функция $f(x)$дифференцируема$m > 1$ раз в точке $\overline{x}$, тогда:
Простой корень - корень уравнения $\overline{x}$ называется простым, если $f'(\overline{x}) \neq 0$.
Кратный корень - корень уравнения $\overline{x}$ называется простым, если $f'(\overline{x}) = 0$. Целое число $m$ назовем кратностью корня $\overline{x}$, если $f^{(k)}(\overline{x}) = 0$, для $k = 1, 2, ..., m - 1$ и $f^{(m)}(\overline{x}) \neq 0$.
Этапы решения уравнения:
Локализация корня;
Вычисление корня с заданной точностью.
Отрезок локализации - отрезок $[a, b]$, который содержит 1 корень уравнения.
Основные вопросы
Сходящийся итерационный процесс - метод отыскания корня $\overline{x}$, заключающийся в построении последовательности приближений к нему $x^{(0)}, x^{(1)}, ..., , x^{(k)}, ...$ такой, что:
$$
\lim_{k \to \infty} x^{(k)} = \overline{x}
$$
Порядок сходимости:
Пусть в некоторой малой окрестности корня $\overline{x}$ уравнения $f(x) = 0$ итерационная поледовательность удовлетворяет неравенству:
, где $С > 0$ и $p \geq 1$ - постоянные. Тогда $p$ называется порядком сходимости.
Порядок сходимости - скорость уменьшения погрешности между последовательными приближениями решения.
Одношаговый итерационный метод - метод, у которого очередное приближение $x^{(k + 1)}$ находится только через одно предыдущее $x^{(k)}$. Для его работы нужно знать только одно начальное приближение $x^{(0)}$. (Пример - метод Ньютона)
Многошаговый итерационный метод ($l$ - шаговый) - метод, у которого очередное приближение $x^{(k + 1)}$ находится $l$ предыдущих $x^{(k)}, x^{(k - 1)}, ..., x^{(k - l + 1)}$. Для него следует задать $l$ начальных приближений $x^{(0)}, x^{(1)}, ..., x^{(l - 1)}$. (Пример - метод секщих)
Интервал неопределенности - окрестность $(\overline{x} - \epsilon, \overline{x} + \epsilon)$ внутри которой любую точку можно принять за приближение к корню.
1. Метод Ньютона
Быстрый итерационный метод для нахождения корня уравнения $f(x) = 0$.
Требует предоставления функции $f(x)$ и её производной $f'(x)$.
Функция:newton(f, df, x, epsilon=1e-6)
Описание параметров:
f - Функция, корень которой нужно найти;
df - Производная функции;
x - Начальное приближение корня;
epsilon - Заданная точность (по умолчанию $10^{-6}$).
Сходимость метода:$p = \frac{\sqrt{5} + 1}{2} \approx
1.618$ - сверхлинейная, если вычисляется простой корень. При неудачном выборе приближения, метод расходится. Поэтому требуется выбор двух близких к $\overline{x}$ начальных приближений $x^{(0)}$ и $x^{(1)}$.
Критерий окончания:
$$
|x^{(n+1)} - x^{(n)}| < \varepsilon
$$
4. Метод ложного положения
Функция:false_position(f, a, b, epsilon=1e-6)
Описание параметров:
f: Функция, корень которой нужно найти;
a: Левый конец начального отрезка локализации корня;
b: Правый конец начального отрезка локализации корня;
epsilon: Заданная точность (по умолчанию $10^{-6}$).
frommathmod.nonlinear_equationsimportfalse_positionx, iteration=false_position(f, a, b, epsilon=1e-6)
Если в окрестности корня функция $\phi(x)$ непрерывно дифференцируема и удовлетворяет условию:
$$
\max_{x \in [a, b]} |\phi(x)| \leq q
$$
где $0 \leq q < 1$ - постоянная
Тогда независимо от выбора начального приближения $x^{(0)}$ из указанной окрестности корня итерационная последовательность не выходит из этой окрестности, метод сходится со скоростью геометрической прогресии и справедлива следующая оценка погрешности (априорная оценка):
Априорная оценка - показывет, что итерационный метод сходится
Тогда вектор $\epsilon = \overline{{x}} - x^{*}$ называется вектором погрешности.
Задача:
Найти решение системы $Ax = b$ с точностью $\epsilon$. Это означает, что нужно найти вектор $x^{\ast}$ такой, что $|| \overline{{x}} - x^{*} || \leq \epsilon$, где $|| \cdot ||$ - одна из норм (единичная, евклидова, бесконечности).
Основные вопросы
Прямой метод - метод, который позволяет получить решение после выполнения конечного числа элементарных операций;
Итерационный метод - метод, который строит последовательность приближений к решению;
Норма - будем говорить, что в $R^{m}$ введена норма, если каждому вектору $x \in R^{m}$ сопоставлено вещественное число, обозначаемое $||x||$.
Нормы векторов:
Свойства норм векторов:
Нормы матриц:
Свойства норм матриц:
Абсолютна и относительная погрешность векторов и матриц:
Матрица плохо обусловлена, если $cond(A) >> 1$. Следовательно, тогда существует решение, обладающее черезвычайно высокой чувствительностью к малым погрешностям входного данного $b$.
Прямые методы
Прямой метод - метод, который позволяет получить решение после выполнения конечного числа элементарных операций.
1. Метод Гаусса (схема единственного деления)
Функция:gauss_single_division(A, b)
A - Матрица левой части;
b - Вектор правой части;
Трудоемкость метода - $\frac{2}{3} m^{3}$
Прямой ход - матрица $A$ преобразуется к треугольному виду ($m - 1$ - шагов).
Обратный ход - вычисляются значения неизвестных, начиная с последнего уравнения ($m^{2}$ - шагов).
Условие применимости - схема единственного деления не может быть реализована, если один из главных элементов равен нулю.
Описание метода:
frommathmod.linear_systemsimportgauss_single_divisionx=gauss_single_division(A, b)
Отличие от схемы единственного деления заключается в том, что на $k$-м шаге исключение в качестве главного элемента выбирают максимальный по модулю коэффициент $a_{i_{k}k}$.
Вычислительная устойчивость:
Гарантия ограниченности роста элементов матрицы делает схему частиного выбора вычислительно устойчивой. Становится справедлива оценка погрешности:
Теорема о возможности применения $LU$ - разложения - если все главные миноры матрицы $A$ отличны от нуля, то существуют единственная нижняя треугольная матрица $L$ и верхняя треугольная матрица $U$ такие, что:
Итерационный метод - метод, который строит последовательность приближений к решению;
1. Метод Якоби
Функция:jacobi(A, b, epsilon=1e-6, norma=1)
A - Матрица коэффициентов (n x n);
b - Вектор правой части;
epsilon - Заданная точность (по умолчанию $10^{-6}$);
norma - Норма, по которой считается критерий окончания (например, 1, 2, np.inf).
Теорема о сходимости:
Пусть выполнено условие:
$$
||B|| < 1
$$
Тогда решение системы $\overline{x}$ существует и единственно при произволном приближении $x^{(0)}$ МПИ сходится и справедлива оценка погрешности (априорная оценка):
Известны значения некоторой функции $f(x)$ только на множестве дискретных точек $x_0, x_1, \ldots, x_n$, но само аналитическое выражение для функции неизвестно. Заменим функцию $f(x)$ некоторой известной и достаточно легко вычисляемой функцией $\Phi(x)$ такой, что $\Phi(x) \approx f(x)$. Подобный процесс замены неизвестной функции некоторой близкой функцией называется аппроксимацией, а функция $\Phi(x)$ называется аппроксимирующей функцией.
Для аппроксимации функций широко используются классы функций вида:
Функцию $\phi_m(x)$ называют обобщенным многочленом по системе функций $\phi_0(x), \phi_1(x), \ldots, \phi_m(x)$
Число $m$ - степенью многочлена.
Существуют два основных подхода в аппроксимации функций:
Пусть точки $f(x_i), i = 0,1,\ldots,n$ получены в результате достаточно точных измерений или вычислений, т.е. есть основания считать их лишенными ошибок. Тогда следует выбирать аппроксимирующую функцию $\phi(x)$ такой, чтобы она совпадала со значениями исходной функции в заданных точках. Геометрически это означает, что кривая $\phi(x)$ проходит через точки $(x_i, f(x_i))$ плоскости. Такой метод приближения называется интерполяцией.
Если точки $f(x_i), i = 0,1,\ldots,n$ содержат ошибки (данные экспериментов, статистические данные и т.п.), то функция $\phi(x)$ выбирается из условия минимума некоторого функционала, обеспечивающего сглаживание ошибок. Такой прием называется аппроксимацией функции «в среднем». Геометрически это будет означать, что кривая $\phi(x)$ будет занимать некоторое «среднее» положение, не обязательно совпадая с исходными точками $(x_i, f(x_i))$ плоскости.
Постановка задачи интерполяции
Пусть в точках $x_0, x_1, \ldots, x_n$, расположенных на отрезке $[a, b]$ и попарно различных.
Тогда задача итерполяции состоит в построении функции $g(x)$, удовлетворяющей условию:
$$g(x) = y_i \quad (i = 0, 1, \ldots, n)$$
Интерполяция - способ приближения функции $f(x)$ путем построения функии $g(x)$, график которой проходит через точки $(x_i, y_i)$.
Экстраполяция - способ приближения функции $f(x)$ в точке $x < x_{min}$ или $x > x_{max}$.
$[x_{min}, x_{max}]$ - минимальный и максимальный из узлов интерполяции.
Теорема о существовании и единственности интерполяционного многочлена:
Если $m = n$, то решение задачи интерполяции обобщенным многочленом ($\Phi_m(x) = a_0\phi_0(x) + a_1\phi_1(x) + \ldots + a_m\phi_m(x)$) существует и единственно при любом наборе данных $y_0, y_1, \ldots, y_n$, тогда и только тогда, когда системы функций $\phi_0(x), \phi_1(x), \ldots, \phi_n(x)$ являются линейно независимыми в точках $x_0, x_0, \ldots, x_n$.
Эта формула позволяет утвержать, что для достаточно гладкой функции $f$ при фиксированной степени интерполяционного многочлена погрешность интерполяции на отрезке $[x_0, x_n]$ при $h_{max} \to 0$ стрепится к нулю не медленее, чем некоторая величина, пропорциональная $h^{n + 1}_{max}$.
Итерполяция многочленом $n$ имеет $(n + 1)$-й порядок точности относительно $h_{max}$.
Пусть даны точки $x_0, x_1, \ldots, x_n$, и известны значения исходной фукнции $f_i = f(x_i), i = 0, 1, \ldots n$. Требуется найти многочлен $P_m$ заданной степени $m (m = n)$ такой, чтобы величина среднеквадратического отклонения: