OCTAVO SEMESTRE | LICENCIATURA EN MATEMÁTICAS
Si una Cadena de Markov está en el estado 𝑖 − é𝑠𝑖𝑚𝑜, hay una probabilidad 𝑝𝑖𝑗 de pasar al próximo estado 𝑗 − é𝑠𝑖𝑚𝑜, a esta probabilidad 𝑝𝑖𝑗 se la llama probabilidad de Transición. La probabilidad 𝑝𝑖𝑗 de pasar del estado 𝑖 al estado 𝑗 en un paso se llama probabilidad de transición
de 𝑖 a 𝑗:
𝑝𝑖𝑗 = 𝑃𝑟𝑜𝑏[𝑿𝒏+𝟏 = 𝒋| 𝑿𝒏 = 𝒊].
(3)
Si el sistema se mueve del estado 𝑖 al estado 𝑗 durante el siguiente periodo, se dice que ocurrió
una transición de 𝑖 a 𝑗 , Ecuación 2. El conjunto de las 𝑝𝑖𝑗 se denomina probabilidades de transición de la Cadena de Markov (Winston, 2008).
Las cadenas de Markov se pueden representar como una matriz cuadrada de (𝑁 + 1) ∗ (𝑁 + 1)
de probabilidades, llamada Matriz de Transición, donde las filas corresponden al estado de inicio y las columnas al estado de llegada:
𝑝00 𝑝=[ ⋮ 𝑝𝑁0
… 𝑝0𝑁 ⋱ ⋮ ] … 𝑃𝑁𝑁
Dado que el estado en el tiempo 𝑛 es 𝑖, el proceso en alguna parte debe estar en el tiempo 𝑛 + 1.
Esto significa que para cada 𝑖, 1 ≤ 𝑖 ≤ 𝑁. Cada elemento de la matriz 𝑃 debe ser no negativo y la suma de los elementos de cada renglón debe ser igual a 1.
Las matrices de transición se pueden representar mediante gráficas, donde cada nodo representa un estado y un arco(𝑖, 𝑗) representa la probabilidad de transición 𝑃𝑖𝑗 . (Winston, 2008) FIGURA 5. GRAFO DE PROBABILIDAD DE TRANSICIÓN
Figura 5. Grafo de probabilidad de transición. (tomada de http://virtual.umng.edu.co/)
27 UnADM | DCEIT| PT2