Las cadenas de Markov son una herramienta para analizar el comportamiento y el gobierno de determinados tipos de procesos estocásticos, por tanto, representa un sistema que varia su estado a lo largo del tiempo, siendo cada cambio una transición del sistema.
Las cadenas de markov pueden usarse en procesos que tenga las siguientes propiedades:
- El conjunto de sucesos posibles es finito.
- La probabilidad del siguiente suceso depende solamente del suceso inmediatamente anterior.
- Estas probabilidades permanecen constantes con el tiempo.
Cada suceso individual se denomina estado. Por lo que en cadenas de markov se habla de estado recurrente, absorbente, estable...
Estado Recurrente: es aquel que en la medida que comenzando en el se tenga la certeza de volver en algún momento del tiempo sobre si mismo.
Estado Absorbente: es aquel que tiene una probabilidad de ser abandonado igual a cero, o sea que, una vez comenzado es imposible dejarlo.
una cadena de markov es absorbente si tiene por lo menos un estado absorbente y es posible ir desde cada estado no absorbente hasta por lo menos un estado absorbente.
Estado Estable: es aquel en el que los valores del vector de probabilidad no presenta variación, han llegado a su estado estable.
Matriz de Transición: Una matriz de transición para una cadena de Markov de n estados es una matriz de n x n con todos los registros no negativos y con la propiedad adicional de que la suma de los registros de cada columna (o fila) es 1. Por ejemplo la siguiente es una matriz de transición.
Matriz Regular: Una matriz regular es una matriz cuadrada que tiene inversa
Matriz Ergodicas: en cadenas de markov una matriz ergodica es aquella que describe matemáticamente un proceso en el cual es posible avanzar desde un estado hasta cualquier otro. Todos sus estados son no nulos, no periódicos.
No hay comentarios:
Publicar un comentario