next up previous
Next: 4 Условные множества информационной Up: ANANIEV Previous: 2 Решение задачи фильтрации

3. Случайные информационные множества и множества информационной надежности

Перейдем к общему случаю систем вида (1.1)-(1.3). Введем ряд новых понятий, обозначений и примем

Предположение 3.1   Для любого $ \xi^N\in\Xi^N$ найдется элемент $ x_0$ и последовательность $ v^N$ такие, что ограничения (1.3) выполняются для соответствующей траектории $ x^N$.

Это предположение обеспечивает непустоту множества допустимых
траекторий для всякой реализации случайной последовательности. Теперь по аналогии с детерминированным случаем введем функции типа (2.3):

$\displaystyle W_t(x_t,y^t,\xi^t)=\inf\{W_{t-1}(x_{t-1},y^{t-1},\xi^{t-1})+h(x_{t-1},
v_t,\xi_t):
$

$\displaystyle (x_{t-1},v_t)\in g^{-1}_{\xi_t}(y_t)\cap f^{-1}_{\xi_t}(x_t)\},\quad W_0\equiv 0,\quad t\in 1\!:\!N.$ (3.1)

Основные свойства этих функций содержатся в следующем утверждении.

Лемма 3.2   Функции $ W_t(x_t,y^t,\xi^t),\;t\in 1\!:\!N$, заданные на декартовом произведении $ XY^t\Xi^t$ со значениями в $ [0,+\infty]$, являются полуаналитическими снизу.

Доказательство леммы аналогично рассуждению, проведенному в
теореме 2.2.


О п р е д е л е н и е 3.3. Пусть сигнал $ y^N$ реализовался в системе (1.1)-(1.3). Тогда случайным информационным множеством в момент $ t$ назовем совокупность

$\displaystyle X_t(y^t,\xi^t)=\{x:W_t(x_t,y^t,\xi^t)<1\},\quad t\in 1\!:\!N.$ (3.2)

В отличие от детерминированного случая множества (3.2) могут быть пустыми. Необходимым и достаточным условием непустоты информационных множеств будет включение

$\displaystyle \xi^t\in\Xi^t(y^t)=\{\xi^t:\inf_{x\in X}W_t(x,y^t,\xi^t)<1\}.$ (3.3)

Отметим также, что в общем случае множества (3.2) нельзя назвать оценками, поскольку они зависят от неизвестной реализации $ \xi^t$. Нам еще потребуются множества допустимых неопределенных факторов на шаге $ t$:

\begin{displaymath}\begin{array}{rcl} {\cal H}_1(\xi_1)\!\!\!&=&\!\!\!\{(x_0,v_1...
...&\!\!\!h(x_{t-1},v_t,\xi_t)<1\},\quad t\in 2\!:\!N. \end{array}\end{displaymath} (3.4)

Эти множества на шаге $ t$ будут во всяком случае непустыми, если выполнены включения (3.3). Связь введенных множеств изложена в следующем утверждении.

Теорема 3.4   Пусть выполнено предположение 3.1 и сигнал $ y^N$ реализовался в системе (1.1)-(1.3). Тогда множества (3.2), (3.4), непустые при выполнении включения (3.3), являются аналитическими. Кроме того, имеем соотношения

$\displaystyle X_t(y^t,\xi^t)=f(g^{-1}_{\xi_t}(y_t) \cap{\cal H}_t(y^{t-1},\xi^t),\xi_t),$ (3.5)
$\displaystyle \bigcup\limits_{\xi_t\in\Xi }{\rm proj}_X\mathcal{H}_t(y^{t-1},\xi^t)\subseteq X_{t-1}(y^{t-1},\xi^{t-1}),\quad t\in 2\!:\!N,$    
$\displaystyle y_t\in g(\mathcal{H}_t(y^{t-1},\xi^t),\xi_t).$ (3.6)

Утверждение теоремы следует из леммы 3.1 и определений множеств (3.2), (3.4). Отметим, что включение (3.6) необходимо и достаточно для непустоты случайного информационного множества на шаге $ t$ после реализации случайного элемента $ \xi_t$.


З а м е ч а н и е 3.5. Равенство (3.5) и включение (3.6), вообще говоря, не рекуррентны. В случае геометрических ограничений, когда

$\displaystyle h(x,v,\xi)=\left\{\begin{array}{rl}0,&(x,v,\xi)\in\mathcal{W}, \\ [1ex]+\infty,&(x,v,\xi)\notin\mathcal{W},\end{array}\right.$ (3.7)

где $ \mathcal{W}\subset XV\Xi$ - аналитическое множество, можем определить стационарные многозначные отображения

$\displaystyle \widetilde {F}(y,\underline{X},\xi)= f(g^{-1}_{\xi}(y)\cap\underline{X}V\cap\mathcal{W}_{\xi},\xi).$ (3.8)

Здесь $ \mathcal{W}_{\xi}=\{(x,v):(x,v,\xi)\in\mathcal{W}\}$ - сечение множества $ \cal W$. Тогда имеем стационарные соотношения

\begin{displaymath}\begin{array}{rcl} X_t(y^t,\xi^t)\!\!\!&=&\!\!\! \widetilde {...
...}(y^{t-1},\xi^{t-1})V\cap\mathcal{W}_{\xi_t},\xi_t),\end{array}\end{displaymath} (3.9)

причем в качестве начального можно выбирать любое множество $ X_0$ со свойством $ X_0V\supseteq\mathcal{W}_{\xi_1}$. Отметим, что здесь множество допустимых неопределенных факторов $ \mathcal{H}_t(y^{t-1},\xi^t)=X_{t-1}(y^{t-1},\xi^{t-1})V\cap\mathcal{W}_{\xi_t}$.

В статистически неопределенном случае имеет смысл ввести


О п р е д е л е н и е 3.6. Множеством информационной надежности назовем совокупность

$\displaystyle \overline{X}_t(y^t,\alpha )=\Bigl\{x\in X:P\{W_t(x,y^t,\xi^t)<1\}\ge\alpha \Bigr\},$ (3.10)

где $ \alpha \in [0,1]$ и вероятность подсчитывается согласно безусловному распределению вектора $ \xi^t$ при зафиксированных элементах $ x$ и $ y^t$.


Приступая к обсуждению данного определения, отметим, что в чисто случайных системах оно теряет свой смысл, а в детерминированных сводится к известному, то есть $ \overline{X}_t(y^t,\alpha )=X_t(y^t)$. При некоторых числах $ \alpha $ введенные множества могут быть пустыми. Рассмотрим примеры построения множеств информационной надежности.


П р и м е р 3.7. Пусть на прямой задана одношаговая система

$\displaystyle \left\{\begin{array}{rcl}x_1 \!\!\!&=&\!\!\! x_0,
\\ y_1\!\!\!&=&\!\!\! x_0+\xi_1+v_1,\end{array}\right.$

а ограничения на неопределенные параметры имеют вид: $ \vert x_0\vert+\vert v_1\vert<1$. Случайная величина $ \xi_1$ задана своей функцией распределения $ F(x)$. Тогда ясно, что

$\displaystyle \overline{X}_1(y_1,\alpha )=\{x_1:P\{\vert x_1\vert+\vert y_1-x_1- \xi_1\vert<1\}\ge\alpha \}=$    
$\displaystyle =\{x_1:F(y_1-x_1+1-\vert x_1\vert)- F(y_1-x_1-1+\vert x_1\vert+0)\ge\alpha \}.$    

В частном случае, когда $ \xi_1$ принимает два значения $ -1$ и $ 1$ с равной вероятностью $ 1/2$, имеем $ \overline{X}_1(y,\alpha )=(y/2-1,y/2)$, если $ y>0$, и $ \overline{X}_1(y,\alpha )=(y/2,y/2+1)$, если $ y<0$. Данные равенства имеют место при $ 0<\alpha \le 1/2$; при $ \alpha > 1/2$ множества информационной надежности пусты.


П р и м е р 3.8. Зададим одношаговую систему на прямой уравнениями

$\displaystyle x_1=x_0+\xi_1,\qquad y_1=x_0+\eta_1,$

где неопределенный параметр $ x_0$ стеснен ограничением $ \vert x_0\vert<\delta $, а независимые случайные величины $ \xi_1$ и $ \eta_1$ заданы своими функциями распределения $ F(x)$ и $ G(x)$ соответственно. Задача нахождения информационного множества сводится тогда к подсчету вероятности события $ \{\xi_1,\eta_1:\vert\eta_1-y_1\vert<\delta ,\;
\eta_1=y_1+\xi_1-x_1\}$ на плоскости переменных $ \xi_1,\eta_1$. Эта вероятность равна

$\displaystyle \int\limits_{(x_1-\delta ,x_1+\delta )}(G(x+y_1-x_1+0)- G(x+y_1-x_1))\,dF(x)=$    
$\displaystyle =\int\limits_{(y_1-\delta ,y_1+\delta )}(F(x-y_1+x_1+0)- F(x-y_1+x_1))\,dG(x).$    

Отсюда получаем, что в случае, когда хотя бы одна функция распределения $ G(x)$ или $ F(x)$ является непрерывной, указанные интегралы равны нулю и все множества $ \overline{X}_1(y_1,\alpha )$ при $ \alpha >0$ являются пустыми. Впрочем, и в чисто случайной системе данного примера, когда $ \delta =0$, условная мера $ P(dx_1\vert y_1)$ совпадает с безусловной, то есть наблюдение не добавляет новой информации о неизвестном элементе $ x_1$. Пусть, однако, случайные величины $ \xi_1,\eta_1$ принимают два значения $ -1$ и $ 1$ с равной вероятностью $ 1/2$. Тогда $ \overline{X}_1(y,\alpha )=\{y,y-2\}$, если $ y>0$, и $ \overline{X}_1(y,\alpha )=\{y,y+2\}$, если $ y<0$. Здесь $ 0<\alpha \le
1/4$; при $ \alpha >1/4$ множества пусты.


П р и м е р 3.9. Рассмотрим частный случай системы (1.1)-(1.3),

$\displaystyle x_t=f(x_{t-1},v_t),\quad y_t=g(x_{t-1},\xi_t), \quad \sum_{t=1}^Nh(v_t)<1.$ (3.11)

Дополнительно предположим, что уравнения в (3.11) однозначно разрешимы относительно $ v_t$ и $ x_{t-1}$ соответственно, то есть

$\displaystyle v_t=\overline{f}(x_t,x_{t-1}),\qquad x_{t-1}=\overline{g}(y_t,\xi_t),$ (3.12)

где $ \overline{f},\overline{g}$ - борелевские функции. Тогда ясно, что

$\displaystyle W_t(x_t,y^t,\xi^t)=h(\overline{f}(x_t,\,\overline{g} (y_t,\xi_t)))+\kappa _t(y^t,\xi^t),$    
$\displaystyle \kappa _t=\kappa _{t-1}+h(\overline{f}( \overline{g}(y_t,\xi_t),\,\overline{g}(y_{t-1},\,\xi_{t-1}))),\quad t\in 2\!:\!N,\quad \kappa _1=0.$    

Отсюда имеем

$\displaystyle X_t(y^t,\xi^t)=X_0(y_t,\xi_t,\kappa _t)=\{x:h( \overline{f}(x,\,\overline{g}(y_t,\xi_t)))<1-\kappa _t\},$    

где $ X_0:Y\Xi R_+\to 2^X$ - стационарное многозначное отображение. В то же время множества (3.4) имеют здесь вид

\begin{displaymath}
\begin{array}{rcl}
\mathcal{H}_1\!\!\!&=&\!\!\!X\{v:h(v)<1\}...
...+h(v_{t+1})<\\ [1ex]
&&<1-\kappa _t\},\quad t\ge 1,
\end{array}\end{displaymath}

где $ \mathcal{H}_0:Y\Xi
R_+\to 2^X$- стационарное многозначное отображение. Распределение пары $ (\xi_2,\kappa _2)$ при заданном элементе $ \xi_1$ обозначим через $ p_h(d\xi_2d\kappa _2$ $ \vert\xi_1,y^2)$. На прямоугольниках $ AC,\;A\in B_{\Xi},\; C\in B_{R_+},$ эта мера равна $ p_h(AC\vert\xi_1,y^2)=P_{\Xi}(A\cap\{\xi:(\overline{g}(y_2,\xi),
\overline{g}(y_1,\xi_1))\in \overline{f}^{-1}(h^{-1}(C))\})$. Понятно, что распределение пары $ (\xi_t,\kappa _t)$ при заданных элементах $ (\xi_{t-1},\kappa _{t-1})$, $ t\ge 2$, имеет вид $ p_h(d\xi_t(d\kappa _t-\kappa _{t-1})\vert\xi_{t-1},y^t_{t-1})$. Следовательно, множество информационной надежности в момент $ t$ можно записать как

\begin{displaymath}
\begin{array}{c}
\overline{X}_t(y^t,\alpha )=\{x_t:P\{x_t\in...
...{t-1}
(d\kappa _{t-1}-\kappa _{t-2})\vert\xi_{t-2},
\end{array}\end{displaymath}

$\displaystyle y^{t-1}_{t-2})\ldots p_h(d\xi_2d\kappa _2\vert\xi_1,y^2)P_{\Xi}(d\xi_1)\ge\alpha \Bigr\}.$ (3.13)

Из последнего примера видно, что множества информационной надежности не выражаются, вообще говоря, рекуррентно друг через друга. Их вычисление проводится однотипно для всех $ t$, но по все возрастающему числу параметров. Это возможно сделать заранее при небольшом числе шагов. Подсчитав заранее все необходимые функции, для нахождения множеств остается лишь подставлять результаты замеров.



next up previous
Next: 4 Условные множества информационной Up: ANANIEV Previous: 2 Решение задачи фильтрации
2003-06-05