ИСХОДНЫЕ СТРУКТУРЫ АЛГОРИТМОВ


Для составления алгоритмов вводятся: 1) априорные вероятности Рi при­надлежности объектов классам алфавита; 2) случайные многомерные реализации принимаемых выборок у ; 3) условные плотности вероятности ре­ализации у при наличии только помехи рп (у), при наличии помехи и сигнала от объекта i-го класса р(у I i )= рсп(у I i), а также при наличии помехи и сигнала произвольного класса (одного из классов)

4) вероятности многомерных реализаций в пределах от у до у + dу, соответст­вующие двум последним плотностям вероятности,

P(y I i) = p(y I i)dy и P(y) = p(y)dy (2.1)

Из формул умножения вероятностей при совмещении событий I и y

Р(i, y) = Р(i I y)Р(y) = РiР(y I i)

определяются послеопытные (после приема реализаций у) вероятности реали­зации классов у. С учетом (2.1) они выражаются через соответствующие плот­ности вероятности

P(y I i) = PiP(y I i) / P(y) = Pip(y I i) / p(y)


Учтем, что после приема реализации у, на этапе выбора оценки номера класса i можно зафиксировать не зависящие от i постоянные

С1 = 1/р(у) и С2 = pп(y)/p(y).

В результате приходим к двум эквивалентным представлениям послеопытных вероятностей классов

P(i I y) = C1Pip(y I i) = C2Pil(y I i). (2.2)

При этом отношение

l(y I i) = p(y I i)/p(y) (2.3)

называют отношением правдоподобия выборки у для элемента i заданного алфавита, функцию р(у I i) - функцией правдоподобия значений i.

Соотношения (2.2) позволяют перейти к алгоритмам классификации (в порядке нарастания общности): 1) максимума правдоподобия; 2) максимума послеопытной вероятности; 3) минимума среднего риска.

Алгоритм максимума правдоподобия соответствует принятию решения по максимуму (2.2) в предположении равновероятного появления объектов раз­личных классов Pi = 1/M = const. Тогда оценка номера класса i на­ходится из соотношения

k = arg maxi p(y I i) или k = arg maxi l(y I i). (2.4)

Алгоритм максимума послеопытной вероятности рассчитан на произволь­ные априорные вероятности P i появления объектов различных классов. Он имеет вид

k = arg maxi [Pip(y I i)] или k = arg maxi [Pil(y I i)] (2.5)

Алгоритм минимума среднего риска учитывает неодинаковую значимость различных ошибок и правильных решений для потребителя информации. В предположении "полупростой" матрицы стоимостей (разд. 1.9) он имеет вид

k = arg maxi [riPip(y I i)] или k = arg maxi [riPil(y I i)] (2.6)

где ri - неодинаковые в общем случае "премии" за правильные решения.

2.2.2. МУЛЬТИПЛИКАТИВНЫЕ БАЙЕСОВСКИЕ АЛГОРИТМЫ И ИХ ЧАСТИЧНАЯ

ПАРАМЕТРИЗАЦИЯ

Случайные реализации выборок сводятся в ряде случаев к совокупностям подвыборок уv, v = с независимыми случайными флюктуациями. Это имеет место при сочетании узкополосного зондирования с широкополосным или многочастотным, при многопозиционной работе и т.д. В соответствии с правилом перемножения вероятностей алгоритмы (2.6) можно привести к мультипликативной форме:

(2.7)

(2.8)

Вариант алгоритма (2.8) следует из варианта (2.7) после деления оптими­зируемого выражения на произведение не зависящих от i и не влияющих, следовательно, на оптимизацию условных плотностей вероятности .

Частичная параметризация алгоритмов (2.7) - (2.8) связана с тем, что часть подреализаций , используют обычно для измерения па­раметров цели как признаков ее распознавания. Если известны априорные плотности вероятности распределений параметра для каждого i-го класса объектов, то входящие в (2.7) функции правдоподобия решений о классах можно связать с функциями правдоподобия значений парамет­ра , так что

(2 .9)

Функция же правдоподобия значений параметра связана с послеопытной плотностью вероятности его значений Эта связь

(2.10)

вытекает из формулы умножения вероятностей при совмещении событий yv и .

Входящую в (2.10) величину Сv поcле приема реализации yv при изме­рении по максимуму правдоподобия можно считать фиксированной вели­чиной. Действительно, значение p(yv) после приема реализации yv фиксиро­вано. В условиях же измерения по максимуму правдоподобия (безотносительно к гипотезам о значениях i) допустимо принять .

Если ввести плотность вероятности f(ε) ошибок измерения , то входящую в (2.9) послеопытную плотность вероятности значений парамет­ра можно представить в виде

В силу (2.9) - (2.10) функции правдоподобия решений о классе можно придать вид

(2.11)

Согласно (2.11) она пропорциональна значению для априорнойплотности вероятности оценок параметра сучетом ошибок измерения: Значение определяется интеграломсвертки

В нем – априорная плотность вероятности значений параметра. При идеально точном измерении где - дельта-функция. Тогда = и

Алгоритмы распознавания (2.7) –(2.8) заменяются в результате пол­ученных соотношений (2.9) – (2.11) единым мультипликативным алгорит­мом:

(2.12)

Из него исключены, как и ранее, не зависящие от i множители заключен­ного в квадратные скобки выражения. Знаки "тильда" при априорных плотностях вероятности параметров (признаков распознавания) учитывают, как и в (2.11), конечную точность оценок .

Обычно векторный признак , оцениваемый по некоторой реализации yv, разбивается на несколько скалярных и векторных признаков с неза­висимыми их флюктуациями и флюктуациями их оценок. Сомножители первого из произведений (2.12) сами становятся тогда произведениями нескольких аналогичных сомножителей. Чтобы не усложнять формулу (2.12), условимся сохранять ее вид и в этом случае, условно сводя увеличение общего числа признаков к увеличению числа независимых подреализаций v0 и N.

2.2.3 АДДИТИВНЫЕ ЧАСТИЧНО ПАРАМЕТРИЗОВАННЫЕ БАЙЕСОВСКИЕ АЛГОРИТМЫ

Переход от мультипликативных алгоритмов к аддитивным основан на мо­нотонности логарифмической функции. Логарифм произведения в квадратных скобках (2.12) достигает максимума одновременно с самим этим произведени­ем. Он сводится при этом к сумке логарифмов сомножителей, что упрощает вычисления. Отсюда приходим к частично параметризованным аддитивным ал­горитмам распознавания

(2.13)

где - неоднородные слагаемые.

(1.4)

Аддитивные алгоритмы, наряду с мультипликативными, применимы не только при независимости подреализаций yv, но и при независимости оши­бок измерений параметров по одной и той же реализации или подреализации.

2.2.4. ПРИМЕРЫ ЭЛЕМЕНТОВ БАЙЕСОВСКИХ АЛГОРИТМОВ

Элементы алгоритмов, связанные с измерением траекторных параметров объектов в тропосфере

Маневренность тропосферных объектов, большая по сравнению с космиче­скими объектами, сужает совокупность признаков распознавания. Входящие в (2.13) - (2.14) априорные распределения параметров (с учетом оши­бок измерения) приходится задавать описаниями общего вида. Последние мо­гут относиться к одномерным и многомерным, односвязным и многосвязным, ступенчатым и непрерывным, негауссовским и гауссовским распределениям.

Обобщая распределение вектор-столбца скоростей и высот цели на плоско­сти v - Н (рис.1.1), введем многомерные односвязные ступенчатые негауссовское распределение и распределение его логарифма, равномерные в преде­лах области, заданной линейными ограничениями,

(2.15)

Здесь – вектор-столбец размера , Вi – вектор-столбец размера . Аi - матрица размера , пi - число ограничений на скалярные параметры вектора . Значение – объем многогранника, определяемого ограничениями. Выполнение приведенных матричных неравенств понимается в смысле выполнения всех скалярных неравенств, на которые они распадаются. При переходе от односвязных распределений к многосвязным ог­раничения (2.15) и величины рi для каждой из односвязных подобластей под­бираются раздельно.

Примером одномерного, непрерывного негауссовского распределения явля­ется обобщение гауссовского:

(2.16)

Здесь ai – условное (для целей i-го класса) математическое ожидание параметра а: γi – полуширина распределения на уровне μ – характеристика формы распределения. Кривая – гауссовская при μ=1, двусторонняя экспоненциальная при μ=1/2 и приближается к прямоугольной с увеличением μ при . Нормирующий множитель Qi выражается через гамма-функцию:

(2.17)

Примером непрерывного трехмерного односвязного распределения для а= \уНа\, где а - полное ускорение, является распределение вида

(2.18)

Трехмерное распределение (2.18) предполагает независимость априорных одномерных распределений v, Н, а в. Вводя в (2.18) слагаемые в виде сте­пеней линейных комбинаций величия v, Н, а, можно учесть взаимную за­висимость распределений этих величин.



Дата добавления: 2021-02-19; просмотров: 354;


Поиск по сайту:

Воспользовавшись поиском можно найти нужную информацию на сайте.

Поделитесь с друзьями:

Считаете данную информацию полезной, тогда расскажите друзьям в соц. сетях.
Poznayka.org - Познайка.Орг - 2016-2024 год. Материал предоставляется для ознакомительных и учебных целей.
Генерация страницы за: 0.017 сек.