next up previous
Next: 3 Случайные информационные множества Up: ANANIEV Previous: 1 Введение

2. Решение задачи фильтрации в двух крайних случаях

Здесь мы напомним и несколько обобщим известные результаты, которые изложим в нужной нам интерпретации. В первом случае предполагается, что случайные элементы отсутствуют. Тогда имеем уравнения

$\displaystyle x_t=f(x_{t-1},v_t),\qquad y_t=g(x_{t-1},v_t), \qquad t\in 1\!:\!N,$ (2.1)

с ограничениями

$\displaystyle \sum_{t=1}^Nh(x_{t-1},v_t)<1.$ (2.2)

Введем основное понятие в детерминированном случае [1,2,3].

О п р е д е л е н и е 2.1. Информационным множеством $ \,X_t(y^t)\,$ системы (2.1) при ограничениях (2.2) назовем совокупность элементов $ \{x\}$, для каждого из которых найдется начальное состояние $ x_0$ и последовательность $ v^t$ такие, что неравенство $ \sum_{i=1}^th(x_{i-1},v_i)<1$ выполняется для соответствующей траектории $ x^t$ и $ x_t=x$.


Информационные множества можно описать с помощью рекуррентно определяемых функций

$\displaystyle W_t(x_t,y^t)=\inf\{W_{t-1}(x_{t-1},y^{t-1})+h(x_{t-1},v_t):
$

$\displaystyle (x_{t-1},v_t)\in g^{-1}(y_t)\cap f^{-1}(x_t)\},\quad W_0\equiv 0,\quad t\in 1\!:\!N.$ (2.3)

Справедливо утверждение.

Теорема 2.2   Пусть сигнал $ y^t$ реализовался в системе так, что были выполнены ограничения (2.2) для соответствующей траектории. Тогда информационные множества

$\displaystyle X_t(y^t)= \{x: W_t(x,y^t)<1\}.$ (2.4)

являются непустыми и аналитическими [12]. Функции $ W_t(x,y^t),\;
t\in 1\!:\!N,$ заданные на декартовом произведении $ XY^t$ = $ X\underbrace{Y\ldots Y}_{\mbox{$t$\ раз}}$, со значениями в $ [0,+\infty]$, являются полуаналитическими снизу [8].

Д о к а з а т е л ь с т в о. Пусть сигнал $ y^t$ реализовался в системе при некоторых элементах $ \overline {x}_0$ и $ \overline {v}^t$, и ограничения (2.2) выполняются для соответствующей траектории $ \overline {x}^t$. Тогда имеем $ \overline {x}_t\in X_t(y^t)\ne\emptyset$. Докажем равенство (2.4). Если $ W_t(x,y^t)<1$, то по определению функций (2.3) получаем неравенство

$\displaystyle W_{t-1}(x_{t-1},y^{t-1})+h(x_{t-1},v_t)<1$

и при этом $ g(x_{t-1},v_t)=y_t$ и $ f(x_{t-1},v_t)=x$ для некоторых элементов $ x_{t-1},\; v_t$. Продолжая в том же духе, находим последовательности $ v^t,\;t\ge 1$, и $ x^t,\;t\ge 0$, для которых выполняется неравенство $ \sum_{i=1}^th(x_{i-1},v_i)<1$ и $ x_t=x$. Следовательно, правая часть равенства (2.4) содержится в левой. Поскольку обратное включение очевидно, то равенство доказано. Пусть $ l:XZ\to[0,+\infty]$ - некоторая полуаналитическая снизу функция, заданная на произведении борелевских пространств $ X$ и $ Z$. Расширим ее на борелевское множество $ G=\{(x,z,y):x\in X,\;z\in Z,\;m(x)=y\}$, где $ m:X\to
Y$ - некоторая борелевская функция, полагая $ l(x,z,y)=l(x,z)$. Далее согласно [8, Предл. 7.47] получаем, что функция

$\displaystyle l^*(z,y)= \inf\{l(x,z,y):x\in G_{zy}\}$

является полуаналитической снизу. Здесь $ G_{zy}$ - сечение множества $ G$. Применяя индуктивно данные рассуждения к функциям (2.3), получаем их полуаналитичность, а следовательно, и аналитичность информационных множеств. Теорема доказана.

Поскольку множества $ X_t(y^t)$ содержат истинные неизвестные состояния, а элемент $ x\notin X_t(y^t)$ не может реализоваться в системе (2.1) ни при каких элементах $ x_0$ и $ v^t$ в силу ограничений (2.2), то при данной информации $ y^t$ мы вынуждены считать эти множества наилучшими оценками неизвестного состояния. Если же по какой-либо причине необходимо выделить точечную оценку фазового состояния, то нужен критерий для такого выделения. Весьма часто за наилучшую оценку принимают чебышевский центр информационного множества $ X_t(y^t)$ [1,2,3].

Отметим отдельно случай геометрических ограничений, а именно,
пусть

$\displaystyle h(x,v)=\left\{\begin{array}{ll} 0,&(x,v)\in {\cal H},\\ [1ex] +\infty,&(x,v)\notin {\cal H},\end{array}\right.$ (2.5)

где $ \mathcal{H}\subseteq XV$ - аналитическое множество. Тогда ясно, что

\begin{displaymath}\begin{array}{rcl} X_1(y_1)\!\!\!&=&\!\!\!f(g^{-1}(y_1)\cap{\...
...{\cal H}\cap X_{t-1}(y^{t-1})V),\quad t\in 2\!:\!N. \end{array}\end{displaymath} (2.6)

Следует подчеркнуть, что множества $ X_t(y^t)$ дают лишь принципиальное решение задачи, которое в каждом конкретном случае сопряжено со значительными трудностями при нахождении нижних граней в (2.3) или пересечений множеств в (2.6).

Перейдем ко второму случаю чисто случайных систем. Уравнения имеют вид

$\displaystyle x_t=f(x_{t-1},\xi_t),\qquad y_t=g(x_{t-1},\xi_t), \qquad t\in 1\!:\!N.$ (2.7)

Ограничения типа (1.3) здесь лишены особого смысла и могут быть опущены по следующим причинам. Во-первых, поскольку начальное состояние $ x_0$ отнесено нами к неопределенным факторам, то уже на первом шаге должна получиться однозначная функция $ x_0$ от $ \xi_1$, а значит, однозначными должны являться и функции $ x_1(\xi_1),\,y_1(\xi_1)$. Во-вторых, неравенство (1.3) превращается тогда в ограничение на реализации независимых случайных переменных $ \xi_t$, что неестественно. Итак, в данном случае имеем частично наблюдаемую марковскую последовательность $ (x_t,y_t)\in XY,\; t\in 1\!:\!N$. Решение задачи фильтрации для таких последовательностей известно и изложено в необходимой нам общности, например, в упоминавшейся книге [8]. Оно состоит в следующем. Определяется борелевское стохастическое ядро

$\displaystyle u(\underline{X}\,\underline{Y}\vert x)=P_\Xi\{\xi:f(x,\xi)\in \underline{X},\ g(x,\xi)\in \underline{Y}\}$ (2.8)

и начальное распределение

$\displaystyle p_1(\underline{X}\,\underline{Y})=P_\Xi\{\xi:x_1(\xi)\in \underline{X}, \ y_1(\xi)\in \underline{Y}\}.$ (2.9)

Эти меры определяются на произвольных борелевских прямоугольниках $ \underline{X}\,\underline{Y}$ и однозначно продолжаются на борелевскую $ \sigma$-алгебру $ B_{XY}$. Далее для произвольного $ p\in P(X)$ вводится ядро

$\displaystyle q(\underline{X}\,\underline{Y}\vert p)=\int\limits_X u(\underline{X}\,\underline{Y}\vert x)p(dx),$ (2.10)

которое в соответствии с [8, Предл. 7.27] разлагается по формуле

$\displaystyle q(\underline{X}\,\underline{Y}\vert p)=\int\limits_{\underline{Y}} r(\underline{X}\vert p,y)q(Xdy\vert p).$ (2.11)

Аналогично разлагаются и начальные распределения

$\displaystyle p_1(\underline{X}\,\underline{Y})=\int\limits_{\underline{Y}}r_1
(\underline{X}\vert y) p_1(Xdy),$

а затем рекуррентно определяются меры

$\displaystyle p_1(y^1)=r_1(\cdot\vert y_1), \ \ \ \ p_t(y^t)= r(\cdot\vert p_{t-1}(y^{t-1}),y_t),\ \ \ \quad t\in 2\!:\!N.$ (2.12)

Отметим, что мера $ p_t(y^t)(dx_t)$ дает условное распределение неизвестного состояния $ x_t$ по данным измерения $ y^t$.

З а м е ч а н и е 2.3. Процесс вычисления мер (2.12) сводится к байесовской процедуре пересчета плотностей в случае, когда ядра (2.8) обладают плотностью, то есть

$\displaystyle u(\underline{X}\,\underline{Y}\vert z)=\int\limits_{\underline{X}\,\underline{Y}}
j(x,y\vert z)s(dx)t(dy),$

где $ s,\,t$ - некоторые борелевские $ \sigma$ - конечные меры, а $ j$ - неотрицательная борелевская функция от трех переменных. Тогда в разложении (2.11) ядро $ r(\cdot\vert p,y)$ обладает плотностью

$\displaystyle J(x\vert p,y)=\int\limits_Xj(x,y\vert z)p(dz)\Bigl / \iint\limits_{XX}j(u,y\vert z)p(dz)s(du)
$

относительно меры $ s$.


next up previous
Next: 3 Случайные информационные множества Up: ANANIEV Previous: 1 Введение
2003-06-05