En mathématiques, un processus de Markov est un processus stochastique possédant la propriété de Markov. Dans un tel processus, la prédiction du futur à partir du présent n'est pas rendue plus précise par des éléments d'information concernant le passé. Les processus de Markov portent le nom de leur inventeur, Andreï Markov.
Un processus de Markov en temps discret est une séquence de variables aléatoires. L'ensemble de leurs valeurs possibles est appelé l’espace d'états, la valeur étant l'état du processus à l'instant Selon les auteurs, le vocable « chaîne de Markov » désigne les processus de Markov à temps discret ou uniquement les processus de Markov à temps discret et à espace d'états discret, c.-à-d. les processus de Markov à temps discret dont l'espace d'états est fini ou dénombrable.
Si la loi conditionnelle de sachant le passé, i.e. sachant est une fonction de seul, alors :
où est un état quelconque du processus. L'identité ci-dessus identifie la probabilité markovienne.
Andreï Markov a publié les premiers résultats de ces processus en 1906.
Une généralisation à un espace d'états infini dénombrable a été donnée par Kolmogorov en 1936.
Bien que les chaînes de Markov s'appliquent à des phénomènes dont l'aspect temporel est généralement sans intérêt, on peut associer aux valeurs successives les instants . La propriété markovienne selon laquelle la probabilité d'un état du système ne dépend que de son état précédent à travers une probabilité conditionnelle appelée probabilité de transition s'exprime par :
.
Une chaîne de Markov est entièrement définie par la probabilité au premier ordre et la probabilité de transition. On obtient par exemple la probabilité au second ordre par :
.
Elle est donc également définie par la probabilité au second ordre. Enfin, elle peut être définie par l'état initial et la probabilité de transition.
Espace d'états continu
Les chaînes de Markov trouvent des applications dans les domaines les plus divers mais les processus considérés dans les problèmes dynamiques, en particulier en vibrations, portent généralement sur des variables aléatoires continues.
Dans ces conditions, la probabilité d'obtenir une valeur donnée est généralement nulle et les probabilités d'apparition doivent être remplacées par des densités de probabilité dans la formule de la propriété markovienne :
Temps discret et temps continu
Les considérations qui précèdent restent valables si les intervalles de temps deviennent infiniment petits. Cette remarque est particulièrement intéressante dans le cas d'une équation différentielle. Si elle est du premier ordre, la mise en différences finies fait apparaître un mécanisme markovien. Pour les ordres supérieurs et les systèmes différentiels, la décomposition en équations du premier ordre conduit à un système markovien à plusieurs dimensions.
Propriétés des processus de Markov à temps discret
Un processus de Markov est caractérisé par la distribution conditionnelle :
qui est aussi appelée probabilité de transition d'un pas du processus. La probabilité de transition pour deux, trois pas ou plus se déduit de la probabilité de transition d'un pas, et de la propriété de Markov :
De même,
Ces formules se généralisent à un futur arbitrairement lointain en multipliant les probabilités de transition et en intégrant fois.
La loi de distribution marginale est la loi de distribution des états au temps . La distribution initiale est . L'évolution du processus après un pas est décrite par :
Ceci est une version de l'équation de Frobenius-Perron. Il peut exister une ou plusieurs distributions d'états telles que :
où est un nom arbitraire pour la variable d'intégration. Une telle distribution est appelée une distribution stationnaire. Une distribution stationnaire est une fonction propre de la loi de distribution conditionnelle, associée à la valeur propre 1.
Dans le cas des chaînes de Markov à espace d'états discret, certaines propriétés du processus déterminent s'il existe ou non une distribution stationnaire, et si elle est unique ou non.
une Chaîne de Markov est irréductible si tout état est accessible à partir de n'importe quel autre état.
un état est récurrent positif si l'espérance du temps de premier retour en cet état, partant de cet état, est finie.
Quand l'espace des états d'une chaîne de Markov n'est pas irréductible, il peut être partitionné en un ensemble de classes communicantes irréductibles. Le problème de la classification a son importance dans l'étude mathématique des chaînes de Markov et des processus stochastiques.
Si une chaîne de Markov possède au moins un état récurrent positif, alors il existe une distribution stationnaire.
Si une chaîne de Markov est récurrente positive et irréductible, alors :
il existe une unique distribution stationnaire ;
et le processus construit en prenant la distribution stationnaire comme distribution initiale est ergodique.
Donc, la moyenne d'une fonction sur les instances de la chaîne de Markov est égale à sa moyenne selon sa distribution stationnaire :
C'est vrai en particulier lorsque est la fonction identité.
La moyenne de la valeur des instances est donc, à long terme, égale à l'espérance de la distribution stationnaire.
De plus, cette équivalence sur les moyennes s'applique aussi si est la fonction indicatrice d'un sous-ensemble de l'espace des états :
où est la mesure induite par .
Cela permet d'approximer la distribution stationnaire par un histogramme d'une séquence particulière.
Les systèmes markoviens sont très présents en physique particulièrement en physique statistique. Ils interviennent en particulier à travers l'équation de Fokker-Planck. Plus généralement l'hypothèse markovienne est souvent invoquée lorsque des probabilités sont utilisées pour modéliser l'état d'un système, en supposant toutefois que l'état futur du système peut être déduit du passé avec un historique assez faible.
Le célèbre article de 1948 de Claude Shannon, A mathematical theory of communication, qui fonde la théorie de l'information, commence en introduisant la notion d'entropie à partir d'une modélisation markovienne de la langue anglaise. Il montre ainsi le degré de prédictibilité de la langue anglaise, muni d'un simple modèle d'ordre 1. Bien que simples, de tels modèles permettent de bien représenter les propriétés statistiques des systèmes et de réaliser des prédictions efficaces sans décrire complètement la structure complète des systèmes.
L'indice de popularité d'une page Web (PageRank) tel qu'il est utilisé par Google est défini par une chaîne de Markov. Il est défini par la probabilité d'être dans cette page à partir d'un état quelconque de la chaine de Markov représentant le Web. Si est le nombre de pages Web connues, et une page a liens, alors sa probabilité de transition vers une page liée (vers laquelle elle pointe) est et pour toutes les autres (pages non liées). Notons qu'on a bien . Le paramètre vaut environ 0,15.
Les chaînes de Markov sont couramment employées en sûreté de fonctionnement pour les calculs de fiabilité et de disponibilité des systèmes techniques, en particulier pour modéliser des séquences d'évènements de type pannes, réparations, changements de configuration.
Les chaînes de Markov sont également utilisées en bio-informatique pour modéliser les relations entre symboles successifs d'une même séquence (de nucléotides par exemple), en allant au-delà du modèle polynomial. Les modèles markoviens cachés ont également diverses utilisations, telles que la segmentation (définition de frontières de régions au sein de séquences de gènes ou de protéines dont les propriétés chimiques varient), l'alignement multiple, la prédiction de fonction, ou la découverte de gènes (les modèles markoviens cachés sont plus « flexibles » que les définitions strictes de type codon start + multiples codons + codons stop et ils sont donc plus adaptés pour les eucaryotes (à cause de la présence d'introns dans le génome de ceux-ci) ou pour la découverte de pseudo-gènes).