Моделирование эволюции систем на основе теории Марковских процессов


Марковские процессы и процессы восстановления являются наиболее распространенными процессами, протекающими в системах массового обслуживания. Марковские СМО (системы с пуассоновским входным потоком и экспоненциальным распределением длительностей обслуживания) являются яркими примерами процессов рождения и гибели (заявок или требований), а процессы, связанные с виртуальным временем ожидания в системе с произвольным распределением, представляют собой марковские процессы смешанного типа, когда состояние системы может меняться как непрерывно, так и скачками.

Марковский процесс является важной разновидностью случайного, или стохастического процесса, происходящего с системой S. Стохастическим процессом, например, является полет ракеты, выводимой в заданный момент в заданную точку с заданной скоростью. Фактическое движение ракета не совпадает с расчетным в силу наличия таких случайных процессов, как турбулентность атмосферы, ошибки в обработке команд, неоднородность горючего и т.п.

Стохастический процесс определяется как совокупность слу­чайных величин, упорядоченных по некоторому параметру (напри­мер, во времени или в пространстве). Пространство состояний представляет собой множество допустимых значений случайных величин, описывающих стохастический процесс. Пространство допустимых значений параметра определяется как множество значений, которые может принимать упорядочивающий параметр.

Стохастический процесс, протекающий в системе S, с дискретными состояниями s1, s2,…, si, называется Марковским, если для любого момента времени t0 вероятность каждого из состоянии в будущем (при t > t0) определяется только ее состоянием в настоящем (при t=t0) и не зависит от ее поведения в прошлом (при t < t0 ).

При изучении поведения технических систем, особенно с точки зрения их ремонтопригодности, особенно важны процессы восстановления, как разновидность Марковских процессов. Марковские СМО, т. е. системы с пуассоновским входным потоком и экспоненциальным распределением длительностей обслуживания являются типичными примерами процессов рождения и гибели. В данном случае речь идет о рождения и гибели заявок или требований.

Процессы, связанные с виртуальным временем ожидания в системе с произвольным распределением, представляют собой Марковские процессы смешанного типа, когда состояние системы может меняться как непрерывно, так и скачками. Теория восстановления также оказывается удобным средством анализа процессов массового обслуживания.

Если t0 , t1 , ... , tn-1 , tn , ... есть моменты времени, когда происходят некоторые события в системе S и Хn = tn - tn-1 , n = 1, 2, . . . - независимые и одинаково распределенные случайные величины, то мы имеем процесс, который в указанные моменты времени себя «восстанавливает», и, следовательно, {Xn} можно назвать процессом восстановления. Если N (t} есть число актов восстановления, имеющих место в момент t , т. е. N (t) = mах {n ½ Х1 + Х2 . . . + Хn £ t }, то процесс {N (t) , t ³ 0} есть процесс учета актов восста­новления.

Пусть имеется система S с возможными дискретными состояниями s1, s2, ..., sn. Если переходы из одного состояния si в другое sj происходят только в определенные моменты времени t0, t1, t2,…,tn с шагом t, то процесс представляет собой случайную цепь блужданий. Случайная цепь, для которой в каждый момент вся дальнейшая последовательность событий зависит только от состояния системы S в данный момент, есть марковская цепь.

Рассмотрим некоторый стохастический процесс X (t), в котором параметр t и значения случайных величин X (t) могут меняться непрерывно. Пусть (t0< t1 < t2 <... < tn < t) - конечное множество точек в пространстве параметров. Тогда X (t) называют Марковским процессом, если

 

Pr {X (t) £ х \ X (tn) = xn , X (tn-1) = xn-1 ,…, X (t0) = x0 } = Pr {X (t) £ x | X(tn) = xn}

 

т.е. если условное распределение X (t) при заданных значениях X (t0) , X (t1) , . . . , X (tn) зависит лишь от X (tn) т. е. от значения X (t) в последний из указанных моментов времени.

Марковский процесс при дискретно меняющемся значении параметра называется цепью Маркова. Иногда отождествляют цепь Маркова с дискретным множеством состояний Марковского процесса. Большинство цепей Маркова, которые встречаются на практике, действительно характеризуются дискретным пространством состояний.

Пусть {Хn, n = 0, 1, 2 . ..} - цепь Маркова именно такого типа и Pijm,m+n = Рг {Xт+n = j | Хт = I }.

Если Pijm,m+n = Pij0,n Pij(n)) для всех значений m, то такую цепь Маркова называют однородной во времени. Матрица, элементами которой являются РijРij(1)) называется матрицей вероятностей переходов между состояниями системы (или стохастической матрицей). Она полностью определяет цепь Маркова.

С практической точки зрения наиболее важной характеристикой марковской цепи являются вероятности:

 

Pi (k) = P {s(k)=si}; I = 1,2,…,n; k = 0,1,2,…,n,

 

Это есть вероятности нахождения системы в состоянии si на k-м шаге. Основной задачей исследования марковской цепи является нахождение этих вероятностей Рi(k). Для нахождения этих вероятностей необходимо знание условных вероятностей Pij(k) перехода системы на k-м ваге в состояние sj, если известно, что на предыдущем (k-1)-м шаге она находились в состоянии si. Вероятности Pij (k) = P{s(k) = sj|s(k-1)=si}; i,j = 1,2,…,n называются вероятностями переходов, или переходными вероятностями Марковской цепи на k-м шаге. Вероятность Pij(k) есть вероятность задержки системы в i-м состоянии на k-м шаге.

Переходные вероятности записываются в виде матрицы размером n*n:

 

P11(k) P12(k) --- P1j(k) --- P1n(k)
P21(k) P22(k) --- P2j(k) ---
=|Pij(k)|
P2n(k)

--- --- --- --- --- ---
Pi1(k) Pi2(k) --- Pij(k) --- Pin(k)
--- --- --- --- --- ---
Pn1(k) Pn2(k) --- Pnj(k) --- Pnn(k)

 

Поскольку система S на каждом шаге может находиться в одном и только в одном из n состояний, а сумма вероятностей всех возможных состояний равна 1, то для любой строки матрицы имеет место равенство . Всякая стохастическая матрица переходов обладает этим свойством.

Чтобы найти безусловные вероятности Pi(k), кроме стохастической матрицы ||Pij(k)||, необходимо знание начального распределения вероятностей Pi(0), соответствующего моменту t=0 и представляющего из себя вектор (0)={Р1(0),P2(0),..., Рn(0)}, который также обладает свойством .

Если известно, что в начальный момент система S находилась точно в состоянии si, то можно записать: Рi(0) = 1, а все остальные вероятности равны 0:

 

Р1 (0) = Р2 (0) = ... = Рi-1 (0) = Рi+1 (0) = ... =Р n(0) = 0

 

Иначе говоря, вектор начального состояния есть (0) = {0,0....,1,....0}, где единица стоит на месте i – го состояния.

Марковская цепь называется однородной, если остальные вероятности Pij(k) не зависят от шага k, т.е. если Pij (k) Pij. Стохастическая матрица однородной Марковской цепи имеет вид табл.1 при отсутствии зависимости от k. В дальнейшем для простоты рассматривается только однородная Марковская цепь.

При нахождении вероятностей состояний удобно пользоваться теорией графов. Граф характеризует отношения между множествами объектов, а теория графов направлена на исследование некоторых из многих, возможных в заданном представлении, свойств этих объектов. Проще говоря, граф есть совокупность точек и линий, соединяющих эти точки. Без специальной оговорки под графом обычно понимается неориентированный невзвешенный граф. Если граф ориентирован, то он называется ориентированным, или орграфом. В теории Марковских процессов в основном имеют дело с орграфами, в связи с чем, а также в связи последующим моделированием сетевых структур рассмотрим их более подробно.

Всякий граф задается своими ребрами uj и вершинами Vi,. Если в системе имеет значение только факт связи между вершинами, то понятие дуги заменяется понятием ребра, которое геометрически изображается линией без ориентации. В теории Марковских процессов речь идет о дугах. Дуга (ребро) графа uj инцидентно (принадлежит) вершине Vi, а вершина Vi конинцидентна дуге (ребру) uj, если Vi Î uj. Вершины Vi и Vj графа g = [V, u] смежны, если {Vi, Vj} Î U. Для задания орграфов существует несколько классов матриц, основными из которых являются класс матриц инциденций и класс матриц смежности. Если орграф g содержит n вершин и m дуг, то матрица инциденций B(g) = [bij] m´n определяется как

 

ì 1, если вершина Vj является началом дуги Ui;

bij = í –1, если вершина Vj является концом дуги Ui;

î 0, если вершина Vj неконинцидентна дуге Ui;

 

Если имеется следующий ориентированный граф:

то для его дуг матрица инциденций имеет вид

.

 

а для ребер этого графа матрица инциденций следующая:

.

 

Иногда орграф содержит петли, то есть дуги вида (Vi, Vi); в этом случае некоторые элементы матрицы В одновременно будут равны и 1 и 1, что приводит к неоднозначности элементов матрицы В.

Для задания орграфа с петлями можно разложить матрицу В на две матрицы: В+ = [bij+]m´n, где bij+ =

 

и В = [bij]m´n,

где bij =

Если орграф составлен без петель, то В = В+В. Матрицы В+ и В описывают орграф без учета весов вершин и дуг. Вес вершин орграфа g задается в виде столбцевой матрицы:

, а веса дуг в виде диагональной матрицы порядка m:

Матрицы В+, В-, Р, W, полностью описывает взвешенный граф. Если имеется следующий орграф:

то матрица смежности для этого графа имеет вид

.

Матрицы A, P, W полностью описывают взвешенный орграф. Матрицы этих классов задают графы с точностью до изоморфизма.

Графы g = < V, U > и g' = < V', U' > называются изоморфными, если существует такое взаимнооднозначное соответствие j между их вершинами V и V', что (Vi, Vj) Î U в том и только в том случае, если

 

[j (Vi), j (Vj)] Î U, Vi' = j (Vi), Vj' = j (Vj).

 

При нахождении вероятностей состояний Марковской цепи с помощью теории графов каждое состояние представляется в виде некоторой вершины графа, а возле каждой стрелки (дуги графа), переводящей систему из состояния si в состояние sj, проставляется вероятность этого перехода Рij. Ниже приведен пример такого размеченного графа состояний для некоторой технической системы S.

 

 

Рис. 15. Размеченный граф состояний некоторого технического устройства.

 

Для этого графа вероятности задержек Рij в состояниях равны

 

 

Если известно, что в начальный момент (k=0) система находилась в состояниях si с вероятностью Pi(0) = Р{s(0) = si} и известны элементы стохастической матрицы Рij = P {s(1) = sj | s(0) =si},то на первом шаге эволюции системы (k = 1) система будет описываться вектором состояний с компонентами:

 

j=1,2,…,n.

 

Если теперь известен вектор состояний на первом шаге, то аналогично получим компоненты вектора состояний системы на втором шаге эволюции (k = 2):

 

j=1,2,…,n.

 

В общем случае при переходе от k-го к (k+1) - му шагу эволюции системы имеется рекуррентную формулу

 

j=1,2,…,n; k=1,2,… .

 

В качестве примера эволюции системы рассмотрим некоторое техническое устройство, отображаемое с помощью размеченного графа Рис. 15, осматриваемое каждую неделю, причем регистрируются следующие его состояния:

 

s1 - устройство полностью исправно;

s2 - обнаружена неисправность, требуется наладка;

s3 - серьезная поломка, требуется ремонт;

s4 - признано непригодным и списано.

 

В течение недели возможны как наладка, так и ремонт, поэтому имеют место переходы s2 → s1 и s3 → s1. Состояние s4 поглощающее, поскольку переходы из него в другие состояния невозможны. Допустим, нам каким-либо образом стали известны вероятности переходов между состояниями устройства и мы смогли придать размеченному графу состояний достойный вид:

 

Рис. 16. Размеченный граф состояний технического устройства с известными вероятностями переходов между возможными состояниями.

 

Этому графу соответствует следующая стохастическая матрица:

 

 

Теперь мы можем количественно рассчитать эволюцию данного устройства (Рис. 16). Пусть нам известно, что в начальный момент времени устройство исправно, т.е. вектор начального состояния имеет компоненты Р1(0) = 1, Р2(0) = 0, Р3(0) = 0, Р4(0) = 0, иначе говоря, мы можем описать начальное состояние устройства с помощью вектора-строки (0) = {1,0,0,0}. Состояние устройства на следующей неделе получим по обычному правилу перемножения матриц, т.е. по правилу "строка на столбец":

 

 

Через две недели, т. е. на втором шаге эволюции устройства, получаем таким же образом состояние устройства, представляемого в виде вектора:

 

.

 

Аналогично на третьем шаге эволюции устройства получим:

 

(2)= (1)||Рij||={0.421,0.131,0.113,0.335}.

 

На четвертом:

 

(2)= (1)||Рij||={0.3435,0.1207,0.0986,0.4372} , и т. д.

 

Таким образом, оказывается, что уже через месяц вероятность списания (0.4372) устройства, изображенного на Рис. 16, больше вероятности его нахождения в рабочем состоянии (0.3435).

При определенных условиях в Марковской цепи, начиная с некоторого k-го шага, устанавливается стационарный режим, при котором система s продолжает блуждать по состояниям si, но вероятности этих состояний уже от номера шага не зависят. Такие вероятности называются предельными вероятностями Марковской цепи.

 
 

Например, рассмотрим устройство с всего двумя возможными состояниями: s1 - исправно и s2 - неисправно, переходы между которыми описываются следующим простым размеченным графом:

Если вначале устройство исправно, т.е. вектор начального состояния есть (0)={1,0}, то последовательность шагов k = 1, 2, 3,... приводит к такой последовательности векторов состояний:

 

(1)={1,0}× ={0.7,0.3}; (2)={0.61,0.39};

(3)={0.583,0.4177}; (4)={0.575,0.425}.

 

Продолжая вычисления (k), можно убедиться, что с ростом k вероятность (k) стремится к определенному пределу и, действительно, можно доказать, что limP1(k) = P21/(P12+P21) = 0.5714 при kà .

Если система s имеет поглощающее состояние, как, например, состояние s4 устройства, отображаемого размеченным графом рис. 16, то, в каком бы состоянии ни находилась система s в начальный момент, в конце концов она неизбежно "скатится" в это поглощающее состояние. В случае Рис. 16 этим поглощающим состоянием будет состояние s4 полностью непригодного к восстановлению устройства. Предельным вектором Марковской цепи в этом случае будет lim (k)={0,0.0,1}, при kà .

 



Дата добавления: 2022-07-20; просмотров: 93;


Поиск по сайту:

Воспользовавшись поиском можно найти нужную информацию на сайте.

Поделитесь с друзьями:

Считаете данную информацию полезной, тогда расскажите друзьям в соц. сетях.
Poznayka.org - Познайка.Орг - 2016-2024 год. Материал предоставляется для ознакомительных и учебных целей.
Генерация страницы за: 0.029 сек.