La forma más sencilla de implementar la dependecia con la historia del sistema es suponer que el nuevo paso solo depende del paso anterior \(f_{X_n}\left(x_n\ |\ x_0,\cdots,x_{n-1}\right)=f_{X_n}\left(x_n|x_{n-1}\right)\). Este tipo de procesos que solo utilizan la información del estado inmediatamente anterior del sistema recibe el nombre de procesos de MarkovEn general podemos decir que proceso de Markov es un método para la generación de nuevas configuraciones de un sistema a partir de la configuración actual del sistema. La ventaja de estos métodos es precisamente que no requieren del conocimiento de toda la historia previa del sistema, sino solo de la la configuración inmediatamente anterior \cite{fisher1993}. Otra simplificación que se toma es que el proceso de Markov sea homogéneo, esto es, no depende de \(n\)\(f_{X_n}\left(x_n|x_{n-1}\right)=f_{X}\left(x_n|x_{n-1}\right)\). Por simplificidad llamemos: \(x_n\equiv x\)\(x_{n-1} \equiv y\). Por tanto, ahora las probabilidades de aceptación \(h\) y de proposición \(g\) dependen del valor anterior \(y\)