Здравствуйте! 4 июня я записалась на курс Прикладная статистика. Заплатила за получение сертификата. Изучала лекции, прошла Тест 1. Сегодня вижу, что я вне курса! Почему так произошло? |
Статистика интервальных данных
12.4. Линейный регрессионный анализ интервальных данных
Перейдем к многомерному статистическому анализу. Сначала с позиций асимптотической математической статистики интервальных данных рассмотрим оценки метода наименьших квадратов (МНК).
Статистическое исследование зависимостей - одна из наиболее важных задач, которые возникают в различных областях науки и техники. Под словами "исследование зависимостей" имеется в виду выявление и описание существующей связи между исследуемыми переменными на основании результатов статистических наблюдений. К методам исследования зависимостей относятся регрессионный анализ, многомерное шкалирование, идентификация параметров динамических объектов, факторный анализ, дисперсионный анализ, корреляционный анализ и др. Однако многие реальные ситуации характеризуются наличием данных интервального типа, причем известны допустимые границы погрешностей (например, из технических паспортов средств измерения).
Если какая-либо группа объектов характеризуется переменными и проведен эксперимент, состоящий из
опытов, где в каждом опыте эти переменные измеряются один раз, то экспериментатор получает набор чисел:
.
Однако процесс измерения, какой бы физической природы он ни был, обычно не дает однозначный результат. Реально результатом измерения какой-либо величины являются два числа:
- нижняя граница и
- верхняя граница. Причем
, где
- истинное значение измеряемой величины. Результат измерения можно записать как
. Интервальное число
может быть представлено другим способом, а именно,
, где
. Здесь
- центр интервала (как правило, не совпадающий с
), а
- максимально возможная погрешность измерения.
Метод наименьших квадратов для интервальных данных. Пусть математическая модель задана следующим образом:
![y=Q(x,b)+\varepsilon,](/sites/default/files/tex_cache/ad75a69e60fab2c54a8aa11f4821e4cd.png)
![x=(x_1,x_2,...,x_m)](/sites/default/files/tex_cache/4cd1d3fa7a1e140142488deabb62064b.png)
![b=(b_1,b_2,...,b_r)](/sites/default/files/tex_cache/c2824037330b67f9bfc33e831c9d968d.png)
![y](/sites/default/files/tex_cache/415290769594460e2e485922904f345d.png)
![Q(x,b)](/sites/default/files/tex_cache/bfe81dd7c692ad27fbc459707efbaafd.png)
![x](/sites/default/files/tex_cache/9dd4e461268c8034f5c8564e155c67a6.png)
![b](/sites/default/files/tex_cache/92eb5ffee6ae2fec3ad71c777531578f.png)
![\varepsilon](/sites/default/files/tex_cache/f8b1c5a729a09649c275fca88976d8dd.png)
Пусть проведено опытов, причем в каждом опыте измерены (один раз) значения отклика
и вектора факторов
. Результаты измерений могут быть представлены в следующем виде:
![X=\{х_{ij};i=1,...,n;j=1,...,m\},Y=(y_1,y_2,...,y_n),Е=(\varepsilon_1,\varepsilon_2,...,\varepsilon_n),](/sites/default/files/tex_cache/273bcb051ce2999eeb2fece3ebae38b0.png)
![X](/sites/default/files/tex_cache/02129bb861061d1a052c592e2dc6b383.png)
![(x)](/sites/default/files/tex_cache/3b4930a09f71dde7affe278ac96f5012.png)
![n](/sites/default/files/tex_cache/7b8b965ad4bca0e41ab51de7b31363a1.png)
![Y](/sites/default/files/tex_cache/57cec4137b614c87cb4e24a3d003a3e0.png)
![n](/sites/default/files/tex_cache/7b8b965ad4bca0e41ab51de7b31363a1.png)
![E](/sites/default/files/tex_cache/3a3ea00cfc35332cedf6e5e9a32e94da.png)
![Y=Q(X,b)+E,](/sites/default/files/tex_cache/26a5588390c5a9a167ede1e2638c5599.png)
![Q(X,b)=(Q(x_1,b),Q(x_2,b),...,Q(x_n,b))^T](/sites/default/files/tex_cache/a1095c249df86738dcac14a4ac31f371.png)
![x_1,x_2,...,x_n](/sites/default/files/tex_cache/50add2d36dfb3c4c74d937f874b81295.png)
![m](/sites/default/files/tex_cache/6f8f57715090da2632453988d9a1501b.png)
![X=(x_1,x_2,...,x_n)T](/sites/default/files/tex_cache/2a5f28221da4e30c5aac394f21a9291d.png)
Введем меру близости между векторами
и
. В МНК в качестве
берется квадратичная форма взвешенных квадратов
невязок
, т.е.
![d(Y,Q) = [Y-Q(X,b)]^T W[Y-Q(X,b)],](/sites/default/files/tex_cache/4a156278947681663c6a8ac45de0ab09.png)
![W=\{w_ij, i,j=1,...,n\}](/sites/default/files/tex_cache/9209703ca802dca59353210899c4cfd0.png)
![b](/sites/default/files/tex_cache/92eb5ffee6ae2fec3ad71c777531578f.png)
![b](/sites/default/files/tex_cache/92eb5ffee6ae2fec3ad71c777531578f.png)
![b^*](/sites/default/files/tex_cache/5c171fc50367685463f9b315b4f113ce.png)
![d(Y,Q)](/sites/default/files/tex_cache/f266ce740037010cc35e44355c28f4ab.png)
![b^*=\{b:d(Y,Q)\rightarrow\min_{\{b\}}\}.](/sites/default/files/tex_cache/9206f027351340d59d3f5d3b0fe0551d.png)
В общем случае решение этой экстремальной задачи может быть не единственным. Поэтому в дальнейшем будем иметь в виду одно из этих решений. Оно может быть выражено в виде , где
, причем
непрерывны и дифференцируемы по
, где
- область определения функции
. Эти свойства функции
дают возможность использовать подходы статистики интервальных данных.
Преимущество метода наименьших квадратов заключается в сравнительной простоте и универсальности вычислительных процедур. Однако не всегда оценка МНК является состоятельной (при функции , не являющейся линейной по векторному параметру b), что ограничивает его применение на практике.
Важным частным случаем является линейный МНК, когда есть линейная функция от
:
![y=b_0x_0+b_1x_1+...+b_mx_m+\varepsilon=bx^T+\varepsilon,](/sites/default/files/tex_cache/b1bf9f4de32daba19deb90c82bff665e.png)
![x_0 = 1](/sites/default/files/tex_cache/970fbc6c3c2ed45aa21ceb3b1161e93b.png)
![b_0](/sites/default/files/tex_cache/2e426000b92cfbc7286b0e2cc2a37482.png)
![b^*(X^TWX)^{-1}X^TWY.](/sites/default/files/tex_cache/3ac9dd3c58cbd8070ed612dffb65d365.png)
Если матрица не вырождена, то эта оценка является единственной. Если матрица весов
единичная, то
![b^*=(X^TX)^{-1}X^TY.](/sites/default/files/tex_cache/3ea80a2d878edd90a33ea57fab9bda8a.png)
Пусть выполняются следующие предположения относительно распределения ошибок :
- ошибки
имеют нулевые математические ожидания
;
- результаты наблюдений имеют одинаковую дисперсию
;
- ошибки наблюдений некоррелированы, т.е. cov\{\varepsilon_i,\varepsilon_j} = 0.
Тогда, как известно, оценки МНК являются наилучшими линейными оценками, т.е. состоятельными и несмещенными оценками, которые представляют собой линейные функции результатов наблюдений и обладают минимальными дисперсиями среди множества всех линейных несмещенных оценок. Далее именно этот наиболее практически важный частный случай рассмотрим более подробно.
Как и в других постановках асимптотической математической статистики интервальных данных, при использовании МНК измеренные величины отличаются от истинных значений из-за наличия погрешностей измерения. Запишем истинные данные в следующей форме:
![X_R=\{x_{ij}^R;i=\overline{1,n};j=\overline{1,m}\},Y_R=(y_1^R,y_2^R,...,y_n^R),](/sites/default/files/tex_cache/3223da3d402fe22724401591d49a9931.png)
![R](/sites/default/files/tex_cache/e1e1d3d40573127e9ee0480caf1283d6.png)
![X=X_R+\Delta X, Y=Y_R+\Delta Y,](/sites/default/files/tex_cache/b774d5ff61f65f26377dc84a09fd76e0.png)
![\Delta X=\{\Delta x_{ij};i=\overline{1,n};j=\overline{1,m}\},\Delta Y=(\Delta y_1,\Delta y_2,...,\Delta y_n)](/sites/default/files/tex_cache/0c5fcb40e780dcb6a604d4ebf00a7916.png)
![]() |
( 48) |
Пусть множество возможных значений
входит в
- область определения функции
. Рассмотрим
- оценку МНК, рассчитанную по истинным значениям факторов и отклика, и
- оценку МНК, найденную по искаженным погрешностями данным. Тогда
![\Delta b^*=b^{*R}-b^*=f(X_R,Y_R)-f(X,Y).](/sites/default/files/tex_cache/aa6f7d4795b5dcb7b408a70f171206e5.png)
Ввести понятие нотны придется несколько иначе, чем это было сделано выше, поскольку оценивается не одномерный параметр, а вектор. Положим:
![n(1)=(\sup\Delta b_1^*,\sup\Delta b_2^*,...,\sup\Delta b_r^*)^T,
n(2)=-(\inf\Delta b_1^*,\inf\Delta b_2^*,...,\inf\Delta b_r^*)^T.](/sites/default/files/tex_cache/c0ebcba23f86aa1cf15a6df57c5398c3.png)
Будем называть - нижней нотной, а
- верхней нотной. Предположим, что при безграничном возрастании числа измерений
, т.е. при
, векторы
стремятся к постоянным значениям
соответственно. Тогда
будем называть нижней асимптотической нотной, а
- верхней асимптотической нотной.
Рассмотрим доверительное множество для вектора параметров
, т.е. замкнутое связное множество точек в
-мерном евклидовом пространстве такое, что
где
- доверительная вероятность, соответствующая
. Другими словами,
есть область рассеивания (аналог эллипсоида рассеивания) случайного вектора
с доверительной вероятностью
и числом опытов
.
Из определения верхней и нижней нотн следует, что всегда .. В соответствии с определением нижней асимптотической нотны и верхней асимптотической нотны можно считать, что
. при достаточно большом числе наблюдений
. Этот многомерный интервал описывает
-мерный гиперпараллелепипед
.
Каким-либо образом разобьем на
гиперпараллелепипедов. Пусть
- внутренняя точка
-го гиперпараллелепипеда. Учитывая свойства доверительного множества и устремляя
к бесконечности, можно утверждать, что
где
![C=\lim_{L\rightarrow\infty}\bigcup_{1\le k\le L} B_{\alpha}(n,b_k).](/sites/default/files/tex_cache/9d9a93b8c451c2d3570144b7628917b7.png)
Таким образом, множество характеризует неопределенность при оценивании вектора параметров
. Его можно назвать доверительным множеством в статистике интервальных данных.
Введем некоторую меру , характеризующую "величину" множества
. По определению меры она удовлетворяет условию: если
и
, то
. Примерами такой меры являются площадь для
и объем для
. Тогда:
![]() |
( 49) |
![F=C\P](/sites/default/files/tex_cache/74659b9f4bf6de2ae71107dac357320b.png)
![M(F)](/sites/default/files/tex_cache/1e626ec9e3ef059b4584176f651f114e.png)
![n](/sites/default/files/tex_cache/7b8b965ad4bca0e41ab51de7b31363a1.png)
![M(P)](/sites/default/files/tex_cache/9a3422c2750ebb434940a07d0ab593d9.png)
![M(P)](/sites/default/files/tex_cache/9a3422c2750ebb434940a07d0ab593d9.png)
![n](/sites/default/files/tex_cache/7b8b965ad4bca0e41ab51de7b31363a1.png)
![\delta](/sites/default/files/tex_cache/77a3b715842b45e440a5bee15357ad29.png)
![]() |
( 50) |
![\delta<1](/sites/default/files/tex_cache/50fb60cbbd5d0905811bb051dc30922c.png)
![n](/sites/default/files/tex_cache/7b8b965ad4bca0e41ab51de7b31363a1.png)
![\delta](/sites/default/files/tex_cache/77a3b715842b45e440a5bee15357ad29.png)
![М(P)](/sites/default/files/tex_cache/d7bba2c18c053c792cbbd02488aa9754.png)
![\delta = 1/2](/sites/default/files/tex_cache/fd31f4932fea356a36ab58743584eac8.png)
Метод наименьших квадратов для линейной модели. Рассмотрим наиболее важный для практики частный случай МНК, когда модель описывается линейным уравнением (см. выше).
Для простоты описания преобразований пронормируем переменные . следующим образом:
![x_{ij}^0=(x_{ij}-\overline{x}_j)/s(x_j),\;
y_i^0=(y_i-\overline{y})/s(y),](/sites/default/files/tex_cache/d2c75fd7a6c2827ab516a1c2fb51e868.png)
![\overline{x}_j=\frac{1}{n}\sum_{1\le i\le n}x_{ij}, \;
s^2(x_j)=\frac{1}{n}\sum_{1\le i\le n}(x_{ij}-\overline{x}_j), \;
\overline{y}=\frac{1}{n}\sum_{1\le i\le n}y_i, \;
s^2(y)=\frac{1}{n}\sum_{1\le i\le n}(y_i-\overline{y})^2.](/sites/default/files/tex_cache/597f4d79729cfca303f99b285c8945ad.png)
Тогда
![\overline{x}_j^0=0s^2(x_j^0)=\frac{1}{n}\sum_{1\le i\le n}(x_{ij^0}-\overline{x}_j^0)=1,\;
\overline{y}^0=0s^2(y^0)=\frac{1}{n}\sum_{1\le i\le n}(y_i^0-\overline{y}^0)^2=1,\;j=1,2,...,m.](/sites/default/files/tex_cache/13ed6d9db93d399ef0eb50acd28252c4.png)
В дальнейшем изложении будем считать, что рассматриваемые переменные пронормированы описанным образом, и верхние индексы 0 опустим. Для облегчения демонстрации основных идей примем достаточно естественные предположения.
1. Для рассматриваемых переменных существуют следующие пределы:
![\lim_{n\rightarrow\infty}\frac{1}{n}\sum_{1\le i\le n}\x_{ij}x_{ik}=0,\; j,k=1,2,...,m.](/sites/default/files/tex_cache/b7c08033c4eceb59de21dc865a855b68.png)
2. Количество опытов n таково, что можно пользоваться асимптотическими результатами, полученными при .
3. Погрешности измерения удовлетворяют одному из следующих типов ограничений:
тип 1. Абсолютные погрешности измерения ограничены согласно (48);
. Относительные погрешности измерения ограничены:
![|\Delta x_{ij}|\le\delta_j^x|x_{ij}|(i=1,2,....,n,\;j=1,2,...,m),\;|\Delta y_i|\le\delta^y|y_i|(i=1,2,...,n);](/sites/default/files/tex_cache/dcf5a8ece40d270c0ff0a46db002b2c0.png)
тип 3. Ограничения наложены на сумму погрешностей:
![\sum_{j=1}^m|\Delta_{ij}|\le\alpha_x(i=1,2,...,n,\;j=1,2,...,m),\;|\Delta y_i|\le\alpha_y(i=1,2,...,n)](/sites/default/files/tex_cache/0a219ff78aab98910f3de070d6543e0e.png)
Перейдем к вычислению нотны оценки МНК. Справедливо равенство:
![\begin{aligned}
&\Delta b^*=b^{*R}-b^*=(X_R^T X_R)^{-1}X_R^T Y_R-(X^TX)^{-1}X^TY=\\
&=(X_R^TX_R)^{-1}X_R^TY_R-((X_R+\Delta X)^T(X_R+\Delta X))^{-1}(X_R+\Delta X)(Y_R+\Delta Y).
\end{aligned}](/sites/default/files/tex_cache/30ce368bd48ae85e9b7be60a9492b3b7.png)
Воспользуемся следующей теоремой из теории матриц [ [ 12.10 ] ].
Теорема. Если функция разлагается в степенной ряд в круге сходимости
, т.е.
![f(\lambda)=\sum_{k=0}^{\infty}\alpha_k(\lambda - \lambda_0)^k,](/sites/default/files/tex_cache/daeb21c52815df4994cbbfb6b6fb6e4a.png)
![A](/sites/default/files/tex_cache/7fc56270e7a70fa81a5935b72eacbe29.png)
![\lambda_k, k = 1,...,n](/sites/default/files/tex_cache/0246841d7f0f360a52c89002ff7b9d08.png)
Из этой теоремы вытекает, что:
![(E-A)^{-1}=\sum_{P=0}^{\infty}A^P,\quad\textit{если}\quad|\lambda_k|<1;\;k=1,...,n.](/sites/default/files/tex_cache/cccdf26d79e342617a00067ed16fec75.png)
Легко убедиться, что:
![\begin{aligned}
&((X_R+\Delta X)^T(X_R+\Delta X))^{-1}=-Z(E-\Delta\cdot Z)^{-1}, \\
&\textit{где }Z=-(X_R^TX_R)^{-1},\Delta=X_R^T\Delta X+\Delta X^TX_R+\Delta X^T\Delta X.
\end{aligned}](/sites/default/files/tex_cache/00708403389a385d96e6610effda9a8a.png)
Это вытекает из последовательности равенств:
![\begin{aligned}
&((X_R+\Delta X)^T(X_R+\Delta X))^{-1}=(X_R^TX_R+X_R^T\Delta X+\Delta X^T\Delta X)^{-1}=(X_R^TX_R+\Delta)^{-1}= \\
&=(E+\Delta(X_R^TX_R)^{-1}X_R^TX_R)^{-1}=(X_R^TX_R)^{-1}(E+\Delta(X_R^TX_R)^{-1})^{-1}=-Z(E-\Delta\cdot Z)^{-1}.
\end{aligned}](/sites/default/files/tex_cache/790bf080ebda34d986047229ce5bbe6a.png)
Применим приведенную выше теорему из теории матриц, полагая и принимая, что собственные числа этой матрицы удовлетворяют неравенству
. Тогда получим:
![((X_R+\Delta X)^T(X_R+\Delta X))^{-1}=-Z\sum_{P=0}^{\infty}(\Delta\cdot Z)^P=(X_R^TX_R)^{-1}\sum_{P=0}^{\infty}(-\Delta\cdot(X_R^TX_R)^{-1})^P.](/sites/default/files/tex_cache/98e81192ad04ba052771ecf7a7e4c926.png)
Подставив последнее соотношение в заключение упомянутой теоремы, получим:
![\begin{aligned}
&\Delta b^*=(X_R^TX_R)^{-1}X_R^TY_R-((X_R^TX_R)^{-1} \sum_P^{\infty}(-\Delta\cdot(X_R^TX_R)^{-1})^P)(X_R+\Delta X)^T(Y_R+\Delta Y)= \\
&=(X_R^TX_R)^{-1}X_R^TY_R-((X_R^TX_R)^{-1}\sum_P^{\infty}(-\Delta\cdot(X_R^TX_R)^{-1})^P) (X_R^TY_R+\Delta X^TY_R+ X_R^T\Delta Y+\Delta X^T\Delta Y).
\end{aligned}](/sites/default/files/tex_cache/acb8d77fedbef79b970d0268313e790e.png)
Для дальнейшего анализа понадобится вспомогательное утверждение. Исходя из предположений 1-3, докажем, что:
![(X_R^TX_R)^{-1}\approx\frac{1}{n}E.](/sites/default/files/tex_cache/c50af6d47f18c94a9c9f55911032a696.png)
![X_R^TX_R=n
\begin{pmatrix}
D^*(x_1)&\cdots&\text{cov}^*(x_1,x_m) \\
\cdots&\cdots&\cdots \\
\text{cov}^*(x_1,x_m)&\cdots&D^*(x_m)
\end{pmatrix}
=n\cov^*(x),](/sites/default/files/tex_cache/b4a902f1e1756117d5b52c8a8e14867d.png)
![D^*(x_i)\text{cov}^*(x_i,x_j)](/sites/default/files/tex_cache/8cdf1be3a46a5655d6e13ea599073eb7.png)
![D^*(x_i)=D(x_i)+o(1/n),\;\text{cov}^*(x_i,x_j)-\text{cov}^*(x_i,x_j)+o(1/n),](/sites/default/files/tex_cache/a84e9fb3159ff2bdcef294bf92552044.png)
![XX_R^TX_R=n\text{cov}^*(x)=n(||\text{cov(x_i,x_j)}||+o(1/n)),](/sites/default/files/tex_cache/ed09f0caa68dc2a95eb1475988010ea0.png)
![o(1/n)=\{a_{ij}=o(1/n)\}(i=\overline{1,n},j=\overline{1,m}).](/sites/default/files/tex_cache/c5075f2b0fbc350a6b35f13bfcac88f7.png)
Другими словами, каждый элемент матрицы, обозначенной как , есть бесконечно малая величина порядка
. Для рассматриваемого случая
, поэтому
![X_R^TX_R=n\text{cov}^*(x)=n(E+o(1/n)).](/sites/default/files/tex_cache/188d3be4110137ef520a440f984771fb.png)
Предположим, что достаточно велико и можно считать, что собственные числа матрицы
меньше единицы по модулю, тогда
![(X_R^TX_R)^{-1}=\frac{1}{n}\cdot(E+o(1/n))^{-1}\approx\frac{1}{n}(E+o(1/n))=\frac{1}{n}E+o(1/n^2)\approx\frac{1}{n}E,](/sites/default/files/tex_cache/d1d29cadc6279af27ccca82224fc2762.png)
Подставим доказанное асимптотическое соотношение в формулу для приращения , получим
![\begin{aligned}
&\Delta b^*=b^{*R}-\frac{1}{n}\sum_{P=0}^{\infty}\left(-\Delta\cdot\frac{1}{n}\right)^P (nb^*R+\Delta X^TY_R+X_R^T\Delta Y+\Delta X^T\Delta Y)= \\
&=b^{*R}-\frac{1}{n}\sum_{P=0}^{\infty}(-(X_R^T\Delta X+\Delta X^TX_R+\Delta X^T\Delta X)\cdot\left(\frac{1}{n}\right)^P(nb^{*R}+\Delta X^TY_R+X_R^T\Delta Y+\Delta X^T\Delta Y)= \\
&b^{*R}-\frac{1}{n}\left(E-(X_R^T\Delta X+\Delta X^TX_R+\Delta X^T\Delta X)\frac{1}{n}+(X_R^T\Delta X+\Delta X^TX_R+\Delta X^T\Delta X)^2\left(\frac{1}{n}\right)^2\right)\cdot \\
&\cdot(nb^{*R}+\Delta X^TY_R+X_R^T\Delta Y +\Delta X^T\Delta Y).
\end{aligned}](/sites/default/files/tex_cache/7f54a1fe9bc354fea3ee9876f5d48cde.png)
Перейдем от матричной к скалярной форме, опуская индекс (R):
![\begin{aligned}
&\Delta b_k^*=\frac{1}{n}\{\sum_j^m\sum_i^n(x_{ik}\Delta x_{ij}+\Delta x_{ik}x_{ij})b_j^*-\sum_i^n(\Delta x_{ik}y_i+x_{ik}\Delta y_i)\}; \\
&\Delta b_k^*=\frac{1}{n}\{2\sum_i^nx_{ik}\Delta x_{ik}b_k^*+\sum_{j\ne k}^m \sum_i^n [(x_{ik}\Delta x_{ij}+\Delta x_{ik}x_{ij})b_j^*-\sum_{i}^n(\Delta x_{ik}y_i+x_{ik}\Delta y_i)\}= \\
&=\frac{1}{n}\{2\sum_i^nx_{ik}\Delta x_{ik}b_k^*+\sum_{j\ne k}^m \sum_i^n [(x_{ik}\Delta x_{ij}+\Delta x_{ik}x_{ij})b_j^*-\frac{1}{m-1}\Delta x_{ik}y_i]-\sum_i^n x_{ik}\Delta y_i\}= \\
&=\frac{1}{n}\{\sum_{j\ne k}^m \sum_i^n[\frac{2}{m-1}x_{ik}\Delta x_{ik}b_k^*+(x_{ik}\Delta x_{ij}+\Delta x_{ik}x_{ij})b_j^*-\frac{1}{m-1}\Delta x_{ik}y_i]-\sum_i^n x_{ik}\Delta y_i\}= \\
&=\frac{1}{n}\{\sum_{j\ne k}^m \sum_i^n[(\frac{2}{m-1}x_{ik}b_k^*+x_{ij}b_j^*-\frac{1}{m-1}y_i)\Delta x_{ik}-x_{ik}b_j^*\Delta x_{ij}]-\sum_i^n x_{ik}\Delta y_i\}
\end{aligned}](/sites/default/files/tex_cache/974d2f23b7992e742705646dc15d0b15.png)
Будем искать по
и
. Для этого рассмотрим все три ранее введенных типа ограничений на ошибки измерения.
Тип 1 (абсолютные погрешности измерения ограничены). Тогда:
![\max_{\Delta x,\Delta y}(|\Delta b_k^*|)=\frac{1}{n}
\left\{
\sum_{j\ne k}^m \sum_i^n
\left[\left|\left(
\frac{2}{m-1}x_{ik}b_k^*+x_{ij}b_j^*-\frac{1}{m-1}y_i
\right)
\right|
\Delta_k^x+|x_{ik}b_j^*|\Delta_j^x
\right]
-\sum_i^n |x_{ik}|\Delta y
\right\}.](/sites/default/files/tex_cache/031d9fe35ef76725fd61bcea400c27d1.png)
Тип 2 (относительные погрешности измерения ограничены). Аналогично получим:
![\sum_{j=1}^m|\Delta x_{ij}|<\alpha_x\;(i=1,2,...,n,\;j=1,2,...,m),\;|\Delta y_i|<\alpha_y\;(i=1,2,...,n).](/sites/default/files/tex_cache/31e292e593147303ad0758bfa2d54c45.png)
Тип З (ограничения наложены на сумму погрешностей). Предположим, что достигает максимального значения при таких значениях погрешностей
и
, которые мы обозначим как:
![\{\Delta x_{ij}^*,\;i=\overline{1,2,...,n};j=1,2,...,m\},\;\{\Delta y_i^*,\;i=1,2,...,n\}.](/sites/default/files/tex_cache/d86e4709fdda52ae5773a301ae55d8c3.png)
![\max_{\Delta x,\Delta y}(|\Delta b_k^*|)=\frac{1}{n}
\left\{
\sum_{j\ne k}^m \sum_i^n
\left[\left(
\frac{2}{m-1}x_{ik}b_k^*+x_{ij}b_j^*-\frac{1}{m-1}y_i
\right)
x_{ik}^*+x_{ik}b_j^*x_{ij}^*
\right]
-\sum_i^n x_{ik}y_i^*
\right\}.](/sites/default/files/tex_cache/aa964803ec167184f554bf08b708ba32.png)
Ввиду линейности последнего выражения и выполнения ограничения типа 3:
![\begin{aligned}
&\max_{\Delta x,\Delta y}(|\Delta b_k^*|)=\frac{1}{n}
\left\{
\sum_{j\ne k}^m \sum_i^n
\left[\left|
\frac{2}{m-1}x_{ik}b_k^*+x_{ij}b_j^*-\frac{1}{m-1}y_i
\right|\cdot
|\Delta x_{ik}^*|+|x_{ik}b_j^*|\cdot|\Delta x_{ij}^*|
\right]
-\sum_i^n |x_{ik}|\cdot|\Delta y_i^*|
\right\}, \\
&\sum_j^m|\Delta x_{ij}^*|-\alpha_x\quad(j=1,2,...,m),\quad |\Delta y_i^*|=\alpha_y.
\end{aligned}](/sites/default/files/tex_cache/bc03f9c378f54a6a1a364ac4641b79f9.png)
Для простоты записей выкладок сделаем следующие замены:
![\begin{aligned}
&|\Delta x_{ij}|=\alpha_{ij}\ge 0,\;C_k=n\sum_i^n|x_{ik}|\cdot|\Delta y_i^*|\ge 0, \\
&K_i^k=\sum_{j\ne k}^m\left|\frac{2}{m-1}x_{ik}b_k^*+x_{ij}b_j^*-\frac{1}{m-1}y_i\right|\ge 0, \\
&|x_{ik}b_j^*|=R_{ij}^k\ge 0.
\end{aligned}](/sites/default/files/tex_cache/1bb3d4daeb7762751df9c4fad5c78320.png)
Теперь для достижения поставленной цели можно сформулировать следующую задачу, которая разделяется на типовых задач оптимизации:
![f_k(\{\alpha_{ij}\})\rightarrow\max_{\alpha_{ij}}(i=1,2,...,n;j=1,2,...,m; k=1,2,...,m),](/sites/default/files/tex_cache/807469019ecc993d0470af0bcd0dd9ad.png)
![f_k(\{\alpha_{ij}\})=\frac{1}{n}\left\{\sum_i^n K_i^k\alpha_{ik}+\sum_{j\ne m}^m\sum_i^n R_{ij}^k\alpha_{ij}\right\}+C_k,](/sites/default/files/tex_cache/6081ef9b3f1e31f48ddb9dac0c056b00.png)
![\sum_j^m\alpha_{ij}=\alpha_x\quad (j=1,2,...,m).](/sites/default/files/tex_cache/9f58ee4a51bb3fc7d024d90fe4e73456.png)
Перепишем минимизируемые функции в следующем виде:
![f_k=\frac{1}{n}\sum_i^n\left(K_i^k\alpha_{ik}+\sum_{j\ne m}^m R_{ij}^k\alpha_{ij}\right)+C_k=\frac{1}{n}\sum_i^n f_i^k+C_k.](/sites/default/files/tex_cache/ac4e6656e016f99d66868b04d427fc80.png)
Очевидно, что .
Легко видеть, что
![\begin{aligned}
&n\cdot\max_{\alpha_{ij}}(f_k)=\max_{\alpha_{i1}}(f_1^k)+\max_{\alpha_{i2}}(f_2^k)+... + \max_{\alpha_{in}}(f_n^k)+C_k=\sum_i^n\max_{\alpha_{ii}}(f_i^k)+C_k, \\
&\textin{где } i=1,2,...,n;j=1,2,...,m.
\end{aligned}](/sites/default/files/tex_cache/4821f9d78bc67a4b95c93e74d6a00c51.png)
Следовательно, необходимо решить задач
![\{f_i^k\}\rightarrow\max_{a_{ij}}(i=1,2,...,n;\;j=1,2,...,m;\;k=1,2,...,m)](/sites/default/files/tex_cache/8b1141aa8a6649991495180bf61a0b3e.png)
![\begin{aligned}
&\sum_j^m\alpha_{ij}=\alpha_x\;(i=1,2,...,n),\\
&\textit{где }f_i^k=K_i^k\alpha_{ik}+\sum_{j\ne m}^m R_{ij}^k\alpha_{ij}=\sum_j^m S_{ij}^k\alpha_{ij}, \\
&\textit{причем }S_{ij}^k=
\left\{
\begin{aligned}
&k_i^k,\textit{ если } j=k,\\
&R_{ij}^k,\textit{ если } j\ne k.
\end{aligned}
\right.
\end{aligned}](/sites/default/files/tex_cache/c3104ddba10eaeae33b7f3878c01d115.png)
Сформулирована типовая задача поиска экстремума функции. Она легко решается. Поскольку
![\max_{a_{ij}}(f_l^k)=\max_j(S_{ij}^k)\cdot\alpha_x,](/sites/default/files/tex_cache/26a4957a48c70cfdbd7a1c86479f27da.png)
![\max_{\Delta X,\Delta Y}(|\Delta \widehat{b}_k|)=\max_{a_{ij}}(f_k)=\frac{1}{n} \alpha_x\sum_i^n\max_j(S_{ij}^k)+\frac{1}{n}C_k,\;(i=1,2,...,n;\;j=1,2,...,m).](/sites/default/files/tex_cache/38658c800f4dbf78cd590e0e5c936255.png)
Кроме рассмотренных выше трех видов ограничений на погрешности могут представлять интерес и другие, но для демонстрации типовых результатов ограничимся только этими тремя видами.
Оценивание линейной корреляционной связи. В качестве примера рассмотрим оценивание линейной корреляционной связи случайных величин и
с нулевыми математическими ожиданиями. Пусть эта связь описывается соотношением:
![y=\sum_{j=1}^m b_jx_j+e,](/sites/default/files/tex_cache/d867303477f43470d000446071821e3d.png)
![b_1, b_2,...,b_m](/sites/default/files/tex_cache/6a0510b47b62c575707941fccae52e36.png)
![e](/sites/default/files/tex_cache/e1671797c52e15f763380b45e841ec32.png)
![x_1, x_2,..., х_m](/sites/default/files/tex_cache/08c7bbe5299372369520e69e74284162.png)
![b_1, b_2,..., b_m](/sites/default/files/tex_cache/d001cef269bb610d33890030e36bf01b.png)
![y_i=\sum_{j=1}^m b_jx_{ij}+e_i,\;(i=1,2,...,n).](/sites/default/files/tex_cache/89907c63fef20115fee9d7ed1367eca2.png)
Здесь при каждом имеем новую независимую реализацию рассматриваемых случайных величин. В этой частной схеме оценки наименьших квадратов
параметров
являются, как известно, состоятельными [
[
12.41
]
].
Пусть величины в дополнение к попарной независимости имеют единичные дисперсии. Тогда из закона больших чисел [
[
12.41
]
] следует существование следующих пределов (ср. предположение 1 выше):
![\begin{aligned}
&\lim_{n\rightarrow\infty}\left\{\frac{1}{n}\sum_i^nx_{ij}^R\right\}=M\{x_j\}=0\quad(j=\overline{1,m}), \\
&\lim_{n\rightarrow\infty}\left\{\frac{1}{n}\sum_i^n(x_{ij}^R-M\{x_j\})^2\right\}=D\{x_j\}=1 \quad(j=\overline{1,m}), \\
&\lim_{n\rightarrow\infty}\left\{\frac{1}{n}\sum_i^n(x_{ij}^R-M\{x_j\}) (x_{ik}^R-M\{x_k\})\right\}=0 \quad(j,k=\overline{1,m}), \\
&\lim_{n\rightarrow\infty}\left\{\frac{1}{n}\sum_i^n y_i^R\right\}=M\{y\}=b_1 M\{x_1\}+...+b_m M\{x_m\} + M\{e\}=0, \\
&\lim_{n\rightarrow\infty}\left\{\frac{1}{n}\sum_i^n(y_i^R-M\{y\})^2\right\}=D\{y\}=b_1^2+...+ b_m^2+\sigma^2,
\end{aligned}](/sites/default/files/tex_cache/f7bd0e6eed12c04d0f095d40421a08cb.png)
![\sigma](/sites/default/files/tex_cache/a2ab7d71a0f07f388ff823293c147d21.png)
![е](/sites/default/files/tex_cache/83f57a4e052a27c0eb1f69618b2b9b66.png)
Пусть измерения производятся с погрешностями, удовлетворяющими ограничениям типа 1, тогда максимальное приращение величины , как показано выше, равно:
![\max_{\Delta x,\Delta y}(|\Delta b_k^*|)=\frac{1}{n}
\left\{
\sum_{j\ne k}^m\sum_i^n
\left[\left|
\frac{2}{m-1}x_{ik}^R b_k^*+x_{ij}^R b_j^*-\frac{1}{m-1}y_i^r
\right|
\cdot\Delta_k^x+|x_{ik}^R b_j^*|\cdot\Delta_j^x
\right]
+\sum_i^n|x_{ik}^R|\cdot\Delta y
\right\}.](/sites/default/files/tex_cache/1820e75d3b1c5ebd085e15feb6bb3649.png)
Перейдем к предельному случаю и выпишем выражение для нотны:
![\begin{aligned}
&N_k=\lim_{n\rightarrow\infty}\{\max_{\Delta x, \Delta y}(|\Delta b_k^*|)\}= \\
&=\sum_{j\ne k}^m[\{|\frac{2}{m-1}x_k b_k+x_j b_j-\frac{1}{m-1}y|\}\cdot\Delta_k^x+M\{|x_k b_j|\}\cdot\Delta_j^x+M\{|x_k|\}\cdot\Delta y.
\end{aligned}](/sites/default/files/tex_cache/02dd1b21385f4c032cb401aa946d9d66.png)
В качестве примера рассмотрим случай . Тогда
![\begin{aligned}
&N_1=M\{|2x_1b_1+x_2b_2-y|\}\Delta_1^x+M\{b_2x_1\}\Delta_2^x+M\{|x_1|\}\Delta y,
&N_2=M\{|2x_2b_2+x_1b_1-y|\}\Delta_2^x+M\{b_1x_2}\Delta_1^x+M\{|x_2|\}\Delta y.
\end{aligned}](/sites/default/files/tex_cache/7b5892654f1a4158ceed58ba5f33c2d0.png)
Приведенное выше выражение для максимального приращения метрологической погрешности не может быть использовано в случае . Для
выведем выражение для нотны, исходя из соотношения:
![\Delta b_k^*=\frac{1}{n}
\left\{
\sum_j^m\sum_i^n(x_{ik}\Delta x_{ij}+\Delta x_{ik}x_{ij}),\;b_j^*-\sum_i^n(\Delta x_{ik}y_i+x_{ik}\Delta y_i)
\right\}.](/sites/default/files/tex_cache/ea76e4c5b85987a7740e6f12c41cced7.png)
Подставив , получим:
![\Delta b^*=\frac{1}{n}
\left\{
\sum_i^n(2x_i\Delta x_i)b^*-\sum_i^n(\Delta x_i y_i+x_i\Delta y_i)
\right\}
=\frac{1}{n}
\left\{
\sum_i^n((2x_ib^*-y_i)\Delta x_i+x_i\Delta y_i)
\right\}.](/sites/default/files/tex_cache/eeabe31e6dd88ab82dc9f9165638432f.png)
Следовательно, нотна выглядит так:
![N_f=M\{|2xb^* - y|\}\Delta x+M\{|x|\}\Delta y.](/sites/default/files/tex_cache/6490b7751c6c84993532caa1fd1def6b.png)