Propietat de Màrkov
Aquest article o secció no cita les fonts o necessita més referències per a la seva verificabilitat. |
La propietat de Màrkov defineix que una cadena de Màrkov es pot caracteritzar per la probabilitat d'anar a l'estat n+1 condicionada al fet que abans siguem a l'estat nn:
Que és la probabilitat de transició del procés. La propietat de les cadenes de Màrkov és que les transicions entre els estats, només pot produir-se entre estats veïns. Només es pot arribar a l'estat i des de l'estat i-1 o bé de i+1.
Aquest tipus d'estadístiques se sol trobar en la distribució exponencial, la funció de densitat de probabilitat de la qual s'expressa així:
Comprovem que un procés definit per aquesta fdp no té memòria. La probabilitat que hi haja una transició entre 0 i un temps t qualsevol és:
Si integrem, obtenim:
Ara anem a calcular la probabilitat per al mateix interval t, però amb un instant d'inici diferent t0. Calculem la probabilitat de tindre una transició en l'interval t (de t0 fins a t0+t) condicionat al fet que abans de t0 no hi ha hagut cap transició:
Substituint per les fdp i substituint:
Amb la qual cosa queda demostrat que la probabilitat de tindre una transició en un estat no depèn del temps anterior.