Г л а в а 6. АДАПТИВНЫЙ БАЙЕСОВ ПОДХОД


ОБЩИЕ ПОЛОЖЕНИЯ

 

Основная идея адаптивного байесова подхода заключается в сле­дующем. Пусть имеется существенная априорная неопределенность и статистическом описании данных наблюдения х, параметров l, влияю­щих на последствия принимаемых решений, или того и другого. Эта неопределенность не позволяет использовать обычный байесов форма­лизм: найти для любого возможного правила решения величину сред­него риска R(u(х)), величину апостериорного риска R(u, x) и опре­делить положение минимума апостериорного риска по u, то есть найти значение u = u0(x), минимизирующее апостериорный риск и представ­ляющее собой оптимальное байесово решение. Нужно подчеркнуть, что это связано именно с незнанием, а не с существованием; на самом деле для любых конкретных условий в пределах имеющейся априорной неопределенности существуют вполне определенные, но неизвестные нам истинные значения R(u(х)) = Rист(u(х)) для всех u(х), значения R(u,х) =Rист(u,х) для всех u и х и оптимальное решение u0(х), обращающее в минимум Rист(u, х).

Попытаемся, тем не менее, использовать тот порядок, который при­нят при нахождении байесова правила решения. (Как уже не раз под­черкивалось, главным его элементом является нахождение минимума апостериорного риска по u и положения этого минимума.) Чтобы реа­лизовать это намерение, используем часть сведений, содержащихся в совокупности данных наблюдения х, для оценки истинной величины апостериорного риска с тем, чтобы получить его приближенное значение для всех возможных решений и или хотя бы (что наиболее существен­но) в окрестности его минимума. После того, как такая оценка получе­на, остается только воспользоваться стандартными рецептами для нахождения байесова решения, минимизировав вместо истинного оце­ночное значение апостериорного риска.

Если при этом оставшаяся после оценки апостериорного риска часть сведений из общей совокупности данных наблюдения х достаточна для получения нетривиального решения (минимум оценочного значения апостериорного риска по и достигается для значения и, неодинакового при разных х), то мы действительно получим решение задачи синтеза в условиях априорной неопределенности. Если же, кроме того, исполь­зованная нами оценка апостериорного риска является состоятельной и близка к его истинному значению, то найденное таким способом реше­ние будет достаточно близко к оптимальному байесову решению при отсутствии априорной неопределенности, когда статистические описа­ния х, l и истинные значения среднего и апостериорного риска для всех u известны полностью.

Проиллюстрируем эту идею двумя элементарными примерами.

Пример 1.Пусть имеется двухальтернативная задача, о которой уже шла речь в п. 4.3.2, то есть требуется принять решение u = 1 или u = 2 по данным наблюдения x = {x1, ..., хn, хn+1}, состоящим из совокупно­сти (n+1)-й независимо распределенных величин, для которой плот­ность вероятности имеет вид (4.3.3)

где известно все, кроме параметра , вносящего априорную неопреде­ленность в статистическое описание данных наблюдения. Пусть также заданы функции потерь g(u, l) = gik (i, k = l, 2) и априорные вероятно­сти значений l - р(l = 1) = р1, р(l = 2) = р2 = 1 – р1. Апостериорный риск в данной задаче

(6.1.1)

зависит от неизвестного параметра а, что не дает возможности сравнить его значения для i = 1,2 и выбрать решение. Чтобы проделать требуе­мую минимизацию, нужно каким-то образом «узнать» значение а и под­ставить его в выражение (6.1.1). «Узнать» - это значит получить оценку для а по имеющимся данным наблюдения. В данном случае такая возможность имеется, поскольку все данные наблюдения, кроме хn+1, вообще не входят в выражение (6.1.1) для апостериорного риска и оказались как бы ненужными.

Используем эти данные - совокупность значений {x1, ..., хn, хn+1} - для нахождения оценки неизвестного параметра . Как уже не раз подчеркивалось, хорошей оценкой - асимптотически (а иногда и строго) эффективной, асимптотически нормально распределенной и сходящейся к истинному значению с увеличением объема данных, использованных для ее нахождения (в данном случае числа n наблюдений x1, ..., хn), является оценка максимального правдоподо­бия. В соответствии с этим возьмем в качестве а оценку максимального правдоподобия *, определенную из уравнения

,

и подставим ее в выражение (6.1.1) для использования величины Ri(xn+1,a*) (i=l,2) в качестве оценок неизвестных истинных значений апостериорного риска. После этого задача выбора решения становится вполне определенной и аналогично случаю отсутствия априорной неоп­ределенности ( известно) получим

(6.1.2)

Если величина отклонения | * - | мала, то множество Х*n+1 значений хn+1, удовлетворяющих неравенству

,

мало отличается от множества Х0n+1 значений хn+1 , определяемого неравенством

,

которое является областью принятия решения u = 1 при отсутствии априорной неопределенности - известном значении . Поэтому вероят­ностные меры этих множеств относительно любого распределения веро­ятности xn+1 (в том числе распределений с плотностями Р2n+1) и Р1 (xn+1| )) отличаются друг от друга на величину, стремящуюся к ну­лю при * ® . Это означает, что условные и средние риски для реше­ния u(х) из (6.1.2) и для оптимального решения при известном значении а также мало отличаются друг от друга и, следовательно, правило решения (6.1.2) является хорошим приближением к абсолютно оптимальному байесову правилу решения с полностью известным ста­тистическим описанием.

Чтобы показать, что эти качественные рассуждения должны вызы­вать доверие, еще больше конкретизируем наш пример и дадим количественную оценку степени приближения правила решения (6.1.2) к оптимальному байесову. Пусть

и пусть для определенности истинное значение > 0 и, кроме того, g11 = g22 = 0, g12 = g21 = 1, p1 = p2 = 1/2, C = 1. Тогда байесово правило решения

(6.1.3)

а правило (6.1.2) приводится к тому же виду с заменой на оценочное значение . Если в качестве последнего взять оценку максимального правдоподобия, то



где отклонение D является случайной величиной с нулевым математиче­ским ожиданием и дисперсией М{D2} = s2/n. Тогда множества X°n+1 и Х*n+1 определяются следующим образом:



то есть различаются между собой на интервал [a/2, а/2 + D/2] при D > 0 или [а/2 + D/2, а/2] при D < 0, длина, которого D/2 является случайной величиной, порожденной случайностью {х1, .., хn}; в среднем (по ан­самблю значений {х1, .., хn}) равна нулю и имеет среднеквадратичное значение а/2 , стремящееся к нулю при увеличения n. Таким обра­зом, вероятностные меры множеств X°n+1 и Х*n+1 могут отличаться между собой на величину порядка 1/ .

Не представляет труда рассчитать величину среднего риска для обоих случаев. Обозначим

Средний риск оптимального байесова правила при известном равен

а для адаптивного правила с использованием оценочного значения = *

 

Величины z° и z* нормальны, имеют одинаковые (при фиксирован­ном l) математические ожидания

и дисперсии, одинаковые для l = 1 и l = 2 и равные соответственно s2 для z° и s2(1+1/4n) для z*. Вычисляя с использованием нормального распределения соответствующие вероятности, входящие в выражение для R° и R*, получаем


(6.1.4)

где Ф(а) - интеграл вероятности

(6.1.5)

Из выражений (6.1.4) видно, насколько эффективен и хорош в данном случае рассматриваемый подход - даже при n = 1 различие между оптимальным и адаптивным байесовым правилами решения не­значительно, а начиная с n = 2, 3 становится и вовсе несущест­венным.

Пример 2.Пусть требуется осуществить выбор одной из n альтер­натив по результатам наблюдения величины xN+1, которая может при­нимать дискретные значения х(j) (j = 1, ..., m). Обозначим соответст­вующее решение через uN+1. Пусть априорные данные о виде функции потерь (тем самым и о параметрах l этой функции) и о распределении вероятностей значений х(j) полностью отсутствуют, но мы располагаем дополнительными к xN+1 данными наблюдения о серии из N однородных и независимых повторений выбора решений из заданного множества альтернатив.

Пусть для каждого n-ro повторения (n = l, 2, ..., N) известны: зна­чение xv(xv= x(j) , j= 1,... ,m), которое наблюдалось перед принятием решения; само принятое решение uv(uv = iv, iv = 1,...,n) и величина потерь gv, к которым привел выбор решения uv. Полная совокупность имеющихся перед принятием решения uN+l данных наблюдения х тем самым представляет собой совокупность значений

Благодаря независимости xN+1 от остальной совокупности данных при отсутствии априорной неопределенности апостериорный риск, реше­ния uN+l зависел бы только от xN+1, то есть:



и оптимальное байесово правило решения имело бы следующую структуру:


при

Используем все остальные данные наблюдения, которые при отсутствии априорной неопределенности вообще не нужны, для оценки функциональной зависимости апостериорного риска R(uN+1, xn+1) от uN+1 и xN+1. Эта зависимость полностью определяется n x m значениями: Rij = R(uN+1 = i, xn+1=x(j)), которые и нужно оценить с помощью сово­купности данных . Обозначим через Rij число раз, когда в серии n = l,2,...,N наблюдалось значение xv =x(j) и было принято решение uу=i. Тогда состоятельной оценкой' величины апостериорного риска Rij является среднее арифметическое


(6.1.6)

где N(i,j) - множество значений индекса n, при которых наблюдалось значение xv =x(j), и было принято решение uv = i.

Используя эту оценку вместо истинной величины апостериорного ряска, получаем следующее представление для адаптивного байесова травила решения:

при

(6.1.7)

С ростом N и nij оценка (6.1.6) сходится к истинному значению апосте­риорного риска, а правило решения (6.1.7) - к оптимальному байесову правилу. При конечных значениях N и nij может оказаться, что какие-либо из значений Rij при данном j равны цмежду собой, то есть min{R1j,R2j,…, Rnj} определяется неоднозначно. Тогда правило решения (6.1.7) следует дополнить, например, выбором наугад (с равными вероятно­стями) среди тех значений i, для которых выполняется равенство Rij = min{R1j,R2j,…, Rnj}.

В качестве иллюстрации сходимости этого адаптивного правила решения к оптимальному байесову рассмотрим простой пример, когда число возможных решений n равно двум (i = l, 2) и число m возмож­ных значений наблюдаемой величины x(j) также равно двум (j = 1, 2). Пусть потери от принятия любого из решений (i = l, 2) могут иметь два значения - нуль и единица, причем условная вероятность ненуле­вых потерь в случае принятия i-ro решения, при условии, что наблю­даемое значение xn+1= x(j) есть рij, а безусловная вероятность того, что xn+1= x(j), есть рij. Тогда

где P(xn+1 = x(j)|k) - значение функции правдоподобия для l = k = 1, 2; pk - априорная вероятность ситуации l = k = 1, 2, а рij является дополнением до единицы апостериорной вероятности i-й ситуации (l = i) при условии xn+1 = x(j). Однако нужно заметить, что исходная постановка задачи шире, чем этот поясняющий пример.)

Если возможные значения потерь (0 и 1), условные вероятности этих потерь pij и вероятности Pj значений xn+1 = x(j) известны, то мы имеем элементарную байесову задачу, в которой с легкостью находится апостериорный риск, оптимальное правило решения и минимальный байесов средний риск. Имеем соответственно


Пусть для определенности p11 < p21 и p12 > p22, тогда


Рассчитаем теперь средний риск для адаптивного правила решения (6.1.7) в тех же условиях (с учетом дополнения его выбором решения наугад при равных значениях оценочного апостериорного риска для первого и второго решений).

Оценка (6.1.6) апостериорного риска в данном случае может быть записана как



где kij - число раз, когда в серии из N повторений при наблюдении xv = x(j) и принятии решения uv = i потери оказались равными единице. При этом величина kij случайна и распределена на биномиальному закону:



Математическое ожидание оценки


совпадает с истинным значением апостериорного риска при любой по­следовательности наблюдений xv и решений uv.

Для любого из значений x(j), например для j = 1, может оказаться, что либо R11< R21, и тогда мы выберем первое решение (u = 1) с математическим ожиданием потерь р11, либо R11< R21 и тогда мы неправиль­но выберем второе решение (u = 2) с математическим ожиданием потерь p21 ,либо, наконец, R11 = R21, и тогда мы благодаря выбору ре­шения наугад с вероятностью 1/2 выберем или u1, пли u2 с математиче­ским ожиданием потерь 1/2 (p11 + p21). Аналогичное положение будет иметь место и при j = 2. В итоге величина среднего риска для адаптив­ного правила решения определится следующим образом:

где вероятности выполнения неравенств и равенств вида

определяются с помощью биномиальных распределений для чисел kij.

Приведем еще выражение для среднего риска правила, при кото­ром решение при любом значении xn+1 принимается наугад с вероят­ностью 1/2. Можно показать, что при полном отсутствии априорных сведений и отсутствии дополнительных данных наблюдения (N = 0) это лучшее правило решения. Для него

Таблица 6.1

N
; 0.5 0.375 0.33 0.3 0.25
; 0.5 0.18 0.12 0.11 0.1
; 0.5 0.28 0.225 0.205 0.175

 

Зависимость среднего риска от объема дополнительных данных наблюдения (числа N) для P1 = Р2 = ½ и нескольких совокупностей значений pij приведена в табл. 6.1. При этом предполагается, что при любом из приведенных значений N числа nij одинаковы (nij = N/4). Значение N = 0 соответствует выбору решения наугад, значение N = ¥ - оптимальному байесову правилу принятия решения.

Приведенные примеры показывают, что рассматриваемый подход позволяет получить в условиях априорной неопределенности правила решения (алгоритмы обработки информации), которые обладают доста­точно хорошими качествами. Даже при сравнительно небольшом коли­честве «избыточных» данных эффективность найденных правил решения близка к эффективности соответствующих оптимальных байесовых правил, а при увеличении объема полной совокупности данных наблюде­ния х происходит достаточно быстрая сходимость к результатам, кото­рые имели бы место при отсутствии априорной неопределенности.

Вернемся снова к общему случаю. Имеет смысл еще раз пояснить суть рассматриваемого подхода. Она состоит в том, чтобы и в условиях априорной неопределенности сохранить для выбора наилучшего реше­ния и нахождения наилучшего правила решения (алгоритма обработки информации) основное содержание байесова подхода. Это последнее заключается в том, что мы сопоставляем каждому состоянию наших знаний, которые характеризуются данными наблюдения х, ожидаемое значение потерь; осуществляем выбор решения, исходя из минимума ожидаемых при данном состоянии наших знаний потерь, и считаем оптимальным такое правило решения u(х), которое соответствует мини­муму ожидаемых потерь для любого данного значения х. Именно в этом естественном принципе глубинный смысл байесова подхода - осталь­ное же, на что подчас обращается излишне большое внимание: задание функции потерь, функции правдоподобия, априорного распределения, правила вычисления апостериорного распределения вероятности и апо­стериорного риска - относится к формальной, а не смысловой стороне подхода.

При этом предельно ясно, что смысловое содержание подхода - наилучшим решением является то, которое обеспечивает наименьшее значение ожидаемых потерь - вовсе не зависит от объема имеющихся априорных знаний. Степень полноты этих знаний влияет только на ка­чество оценки ожидаемых потерь. При отсутствии априорной неопреде­ленности ожидаемые потери для каждого из возможных решений n имеют точную количественную меру - величину апостериорного риска, которая определяется по простым формальным правилам как матема­тическое ожидание потерь при данном состоянии наших знаний х. Нуж­но подчеркнуть, что эта оценка ожидаемых потерь (расчет величины апостериорного риска) производится по данным наблюдения х, а роль имеющихся априорных сведений о виде функции потерь и распределе­ний вероятности х и l, заключается только в том, что они позволяют установить четкое функциональное соответствие между значением x и величиной ожидаемых при принятии решения и потерь.

При наличии априорной неопределенности по-прежнему необходимо оценить ожидаемые потери для каждого возможного решения. Как и при отсутствии априорной неопределенности, эта оценка, естественно, делается по имеющимся данным наблюдения х. Однако из-за недостат­ка априорных сведений невозможно установить точное функциональное соответствие между х и величиной апостериорного риска и следует как-то модифицировать свой подход к нахождению оценки ожидаемых потерь. В связи с этим роль и значение вновь полученной информа­ции - данных наблюдения х - повышаются: эти данные выступают не просто в качестве аргумента известной функции апостериорного риска R(u, х), оценивающей ожидаемые потери, но должны быть также ис­пользованы для восстановления функционального соответствия между ними и величиной ожидаемых потерь. Процесс восстановления этого соответствия, обеспечивающий реализуемость основного принципа байесова подхода - выбора решения по минимуму ожидаемых потерь, имеет смысл называть адаптацией, а соответствующие правила реше­ний u(х), устанавливающие функциональное соответствие между х и решением u, минимизирующим полученную с учетом ограниченности наших знаний оценку ожидаемых потерь, - адаптивными байесовыми правилами решения.

Применение этой терминологии, не очень много добавляющей по существу, но достаточно установившейся, объясняется тем, что нахож­дение правила решения при наличии априорной неопределенности так или иначе связано с приспособлением найденного при отсутствии апри­орной неопределенности правила решения (алгоритма обработки ин­формации, управления и т. п.) к неизвестной (в смысле неполноты априорного статистического описания) обстановке, которая характеризуется какими-то истинными, но полностью или частично неизвестными функциями потерь, распределениями вероятности и значением апосте­риорного риска, измеряющим ожидаемые потери.

Итак, по существу адаптивный байесов подход основан на прин­ципе выбора решения по минимуму ожидаемых потерь и в этом смысле не отличается от обычного байесова подхода, обеспечивающего на­хождение абсолютно наилучших правил решения; методически адап­тивный байесов подход основан на замене точной меры ожидаемых потерь — апостериорного риска - его состоятельной оценкой по имею­щимся данным наблюдения х и последующем применении всех фор­мальных процедур перехода от заданной функции апостериорного риска к оптимальному правилу решения. Состоятельность оценки апостери­орного риска позволяет быть уверенным в том, что не будут допущены по крайней мере грубые ошибки при сопоставлении величин ожидаемых потерь для разных решений и выборе наилучшего решения. Применение же формальных процедур нахождения байесова правила решения по величине апостериорного риска дает гарантию, что ничего не ухудшится в дальнейшем и действительно получится наилучшее при данной оценке ожидаемых потерь правило решения. Конечно, для того, чтобы это правило решения было вообще наилучшим в условиях априорной не­определенности, нужно, чтобы и принятая оценка апостериорного риска была наилучшей, а для того, чтобы правило решения было близко наилучшему при отсутствии априорной неопределенности, нужно, что­бы оценочное и истинное значения апостериорного риска имели мини­мумы при одном и том же решении и почти для всех значений х или при близких значениях u для всех значений х.



Дата добавления: 2018-05-10; просмотров: 875;


Поиск по сайту:

Воспользовавшись поиском можно найти нужную информацию на сайте.

Поделитесь с друзьями:

Считаете данную информацию полезной, тогда расскажите друзьям в соц. сетях.
Poznayka.org - Познайка.Орг - 2016-2024 год. Материал предоставляется для ознакомительных и учебных целей.
Генерация страницы за: 0.025 сек.