한국   대만   중국   일본 
Cadeias de Markov ? Wikipedia, a enciclopedia livre Saltar para o conteudo

Cadeias de Markov

Origem: Wikipedia, a enciclopedia livre.
(Redirecionado de Processo de Markov )
Uma cadeia de Markov simples de dois estados

Em matematica , uma cadeia de Markov (cadeia de Markov em tempo discreto ou DTMC [ 1 ] [ 2 ] [ 3 ] ) e um caso particular de processo estocastico com estados discretos (o parametro, em geral o tempo, pode ser discreto ou continuo) com a propriedade de que a distribuicao de probabilidade do proximo estado depende apenas do estado atual e nao na sequencia de eventos que precederam, uma propriedade chamada de Markoviana, chamada assim em homenagem ao matematico Andrei Andreyevich Markov . A definicao dessa propriedade, tambem chamada de memoria markoviana, e que os estados anteriores sao irrelevantes para a predicao dos estados seguintes, desde que o estado atual seja conhecido. Cadeias de Markov tem muitas aplicacoes como modelos estatisticos de processos do mundo real.

Introducao [ editar | editar codigo-fonte ]

O matematico russo Andrei Markov .

A cadeia de Markov e um processo estocastico com a propriedade de Markov. [ 4 ] O termo "cadeia de Markov" refere-se a sequencia de variaveis aleatorias, tais um processo move-se atraves de, com a propriedade de Markov definindo a dependencia de serie unica entre periodos adjacentes (como em uma "cadeia"). Assim, pode ser usado para sistemas que seguem uma cadeia de eventos ligados, onde o que acontece em seguida depende apenas do estado atual do sistema descrevendo.

Na literatura, diferentes tipos de processo de Markov sao designados como "cadeia de Markov". Normalmente, o termo e reservado para um processo com um conjunto discreto de vezes, isto e, Cadeia de Markov de Tempo Discreto (DTMC). [ 5 ] Por outro lado, alguns autores utilizam o termo "processo de Markov" para se referir a uma cadeia de Markov de tempo continuo sem referencia explicita. [ 6 ] [ 7 ]

Enquanto o parametro de tempo e geralmente discreto, o espaco de estado de uma cadeia de Markov nao tem quaisquer restricoes geralmente aceitas: o termo pode referir-se a um processo em um espaco de estado arbitrario. [ 8 ] No entanto, muitas aplicacoes de Cadeias de Markov empregam conjuntos contaveis finitos ou infinitos (isto e, espacos de estado discretos), que tem uma analise estatistica mais simples. Alem da hora do indice e os parametros de espaco de estado, ha muitas outras variacoes, extensoes e generalizacoes (ver Variacoes). Para simplificar, a maior parte deste artigo concentra-se no tempo discreto, discreta caso de espaco de estado, salvo indicacao em contrario.

As mudancas de estado do sistema sao chamadas transicoes. As probabilidades associadas com varias mudancas de estado sao chamados de probabilidades de transicao. O processo e caracterizado por um espaco de estado, uma matriz de transicao descrevendo as probabilidades de transicoes de particulares, e um estado inicial (ou a distribuicao inicial) atraves do espaco de estado. Por convencao, assumimos todos os estados e transicoes possiveis foram incluidos na definicao do processo, por isso ha sempre um proximo estado, e o processo nao termina.

Um processo aleatorio de tempo discreto envolve um sistema que e em um determinado estado, em cada passo, com o estado a mudar de forma aleatoria entre os passos. Os passos sao muitas vezes considerados como momentos no tempo, mas podem igualmente bem se referirem a distancia fisica ou a qualquer outra medida discreta. Formalmente, os passos sao os numeros inteiros ou numeros naturais, e o processo aleatorio e um mapeamento destes para estados. A propriedade de Markov afirma que a distribuicao de probabilidade condicional para o sistema no proximo passo (e, de fato, em todas as etapas futuras) depende apenas do estado atual do sistema, e nao adicionalmente sobre o estado do sistema em etapas anteriores.

Uma vez que o sistema altera aleatoriamente, e geralmente impossivel prever com exatidao o estado de uma cadeia de Markov num dado momento no futuro. No entanto, as propriedades estatisticas do futuro do sistema podem ser previstas. Em muitas aplicacoes, sao elas as importantes.

A famosa cadeia de Markov e o chamado "andar do bebado", um passeio aleatorio na linha numero onde, a cada passo, a posicao pode mudar por um ou -1 com igual probabilidade. A partir de qualquer posicao ha duas transicoes possivel, para o seguinte ou anterior inteiro. As probabilidades de transicao dependem somente da posicao atual, nao sobre o modo em que a posicao foi alcancada. Por exemplo, as probabilidades de transicao de 5-4 e 5-6 sao ambos 0,5, e todos os outros a partir de probabilidades de transicao 5 e 0. Estas probabilidades sao independentes do fato de se o sistema foi anteriormente em 4 ou 6.

Outro exemplo sao os habitos alimentares de uma criatura que so come uvas, queijo ou alface, e cujos habitos alimentares estao em conformidade com as seguintes regras:

  • Ele come apenas uma vez por dia.
  • Se ele comeu queijo hoje, amanha ele vai comer alface ou uvas com igual probabilidade.
  • Se ele comeu uvas hoje, amanha ele vai comer uvas com probabilidade de 1/10, queijo com probabilidade 4/10 e alface com probabilidade 5/10.
  • Se ele comeu alface hoje, amanha ele vai comer uvas com probabilidade de 4/10 ou queijo com probabilidade 6/10. Ele nao vai comer alface novamente amanha.

Os habitos alimentares desta criatura podem ser modelados com uma cadeia de Markov desde que a escolha em seu amanha depende unicamente do que comer em seu hoje, e nao do que comeu ontem ou em qualquer outro momento do passado. Uma propriedade estatistica e de que a percentagem esperada pode ser calculada ao longo de um longo periodo de tempo, dos dias em que a criatura vai comer uvas.

Uma serie de eventos independentes (por exemplo, uma serie de arremessos de moedas) satisfaz a definicao formal de uma cadeia de Markov. No entanto, a teoria e normalmente aplicada apenas quando a distribuicao de probabilidade do proximo passo depende nao-trivialmente sobre o estado atual. Existem muitos outros exemplos de cadeias de Markov.

Definicao formal [ editar | editar codigo-fonte ]

Cadeia de Markov simples.

Uma cadeia de Markov e uma sequencia X 1 , X 2 , X 3 , ... de variaveis aleatorias . O escopo destas variaveis, isto e, o conjunto de valores que elas podem assumir, e chamado de espaco de estados , onde X n denota o estado do processo no tempo n . Se a distribuicao de probabilidade condicional de X n +1 nos estados passados e uma funcao apenas de X n , entao:

onde x e algum estado do processo. A identidade acima define a propriedade de Markov .

Cadeias de Markov sao frequentemente descritas por uma sequencia de grafos dirigidos, onde as arestas do grafico n sao rotulados por as probabilidades de ir de um estado no tempo n para outros estados no tempo n+1 , . A mesma informacao e representada pela matriz de transicao de momento n para o tempo n+1 . No entanto, as cadeias Markov sao assumidas frequentemente como sendo tempo-homogeneas (ver variacoes abaixo), nesse caso o grafico e a matriz sao independentes de n e, portanto, nao sao apresentados como sequencias.

Estas descricoes realcam a estrutura da cadeia de Markov que e independente da distribuicao inicial . Quando o tempo e homogeneo, a cadeia pode ser interpretada como uma maquina de estado atribuindo uma probabilidade de pular de cada vertice ou estado para outro adjacente. A probabilidade de Estado da maquina pode ser analisado como o comportamento estatistico da maquina com um elemento do espaco de estados como entrada, ou como o comportamento da maquina com a distribuicao inicial de estados como entrada, onde e o suporte de Iverson.

O fato de que algumas sequencias de estados pode ter zero probabilidade de ocorrencia corresponde a um grafico com varios componentes ligados, onde se omitem arestas que levaria a uma probabilidade de transicao zero. Por exemplo, se a tem uma probabilidade diferente de zero de ir para b , mas a e x estao em diferentes componentes ligados do grafico, entao, e definida, enquanto nao e.

Uma maneira simples de visualizar um tipo especifico de cadeia de Markov e atraves de uma maquina de estados finitos . Se voce esta no estado y no tempo n , entao a probabilidade de que voce se mova para o estado x no tempo n  + 1 nao depende de n , e somente depende do estado atual y em que voce esta. Assim em qualquer tempo n , uma cadeia de Markov finita pode ser caracterizada por uma matriz de probabilidades cujo elemento ( x , y ) e dado por e e independente do tempo n . Estes tipos de cadeia de Markov finitas e discretas podem tambem ser descritas por meio de um grafo dirigido (orientado), onde cada aresta e rotulada com as probabilidades de transicao de um estado a outro sendo estes estados representados como os nos conectados pelas arestas.

Caracterizacao de um processo de Markov [ editar | editar codigo-fonte ]

Ver artigo principal: Processo estocastico

Um processo de Markov e um processo estocastico em que a probabilidade de o sistema estar no estado i no periodo (n+1) depende somente do estado em que o sistema esta no periodo n . Ou seja, para os processos de Markov, so interessa o estado imediato. [ 9 ] [ 10 ] Os principais elementos de um processo de Markov sao dois : [ 9 ]

  • a probabilidade x i (n) de ocorrer o estado i no n-esimo periodo de tempo , ou, alternativamente, a fracao da populacao em questao que esta no estado i no n-esimo periodo de tempo
  • as probabilidades de transicao m ij , que representam as probabilidades de o processo estar no estado i no tempo (n+1) dado que esta no estado j no tempo n . Estas probabilidades de transicao sao normalmente agrupadas numa matriz, que denominamos matriz de transicao , matriz estocastica ou ainda matriz de Markov .

Variacoes [ editar | editar codigo-fonte ]

  • Processos de Markov de tempo continuo tem um indice continuo.
  • Cadeias de Markov de tempo homogeneo (ou cadeias de Markov estacionarias) sao processos em que

para todo n . A probabilidade da transicao de n e independente.

  • Uma cadeia de Markov de ordem m (ou uma cadeia de Markov com memoria m ), onde m e finito, e um processo que satisfaca

Em outras palavras, o estado futuro depende dos passados estados. E possivel construir uma cadeia de , que tem a propriedade de Markov "classico", tendo como espaco de estado do -tuplas ordenadas de valores , ou seja, .

Cadeias de Markov em espacos de estados discretos [ editar | editar codigo-fonte ]

Ver artigo principal: Matriz de transicao

Um espaco de estados e representavel por uma matriz . Chamada de matriz de transicao , com o ( i , j )-esimo elemento igual a

Para um espaco de estados discretos, as integracoes na probabilidade de transicao de k passos sao somatorios, e podem ser calculados como a k -esima potencia da matriz de transicao. Isto e, se P e a matriz de transicao para um passo, entao P k e a matriz de transicao para a transicao de k passos.

A distribuicao estacionaria e o vetor que satisfaz a equacao :

onde e o vetor transposto de . Em outras palavras, a distribuicao estacionaria e o autovetor (vetor proprio) esquerdo da matriz de transicao, associado com o autovalor (valor proprio) 1.

Como consequencia, nem a existencia nem a unicidade de distribuicao estacionaria e garantida para uma matriz de transicao qualquer P . Contudo, se P e irredutivel e aperiodica, entao existe uma distribuicao estacionaria . Alem disso, P k converge para uma matriz na qual cada linha e a (transposta da) distribuicao estacionaria , que e dada por:

onde e o vetor coluna com todas as entradas iguais a 1. Isto e estabelecido pelo Teorema de Perron-Frobenius .

Exemplo de cadeia de Markov.

Isto significa que se nos simularmos ou observamos uma caminhada aleatoria com matriz de transicao P , entao a probabilidade de longo prazo de que o individuo que faz a caminhada esteja em um certo estado e independente do estado em que essa caminhada comecou, e e definida pela distribuicao estacionaria. A caminhada aleatoria "ignora" o passado. Em suma, cadeias de Markov sao o passo seguinte depois dos processos sem memoria (isto e, uma sequencia de variaveis aleatorias independentes distribuidas uniformemente).

Uma matriz de transicao que e positiva (isto e, todo o elemento da matriz e positivo) e irredutivel e aperiodica. Uma matriz e uma matriz estocastica se e somente se e uma matriz de probabilidades de transicao de uma cadeia de Markov.

Um caso especial de probabilidade de transicao independente do passado e conhecido como o esquema de Bernoulli . Um esquema de Bernoulli com somente dois estados possiveis e conhecido como um processo de Bernoulli .

Exemplo [ editar | editar codigo-fonte ]

Um diagrama de estado para um exemplo simples e mostrado na figura a direita, usando para imaginar as transicoes de estado de um grafo dirigido. Os estados representam se um mercado de acoes hipotetico esta exibindo um mercado em alta, mercado em baixa, ou tendencia do mercado estagnado durante uma determinada semana. De acordo com a figura, uma semana de alta e seguido por uma outra semana de alta 90% do tempo, de uma semana de baixa 7,5% do tempo, e uma semana estagnada outro 2,5% do tempo. Etiquetas de espaco de estado {1 = alta, 2 = baixa, 3 = estagnado} a matriz de transicao para este exemplo e

A distribuicao por estados pode ser escrito como um vetor de linha estocastico x com x ( n  + 1)  =  x ( n ) P . Assim, se no tempo n o sistema esta no estado x ( n ) , e em seguida, tres periodos de tempo mais tarde, no tempo n  + 3 a distribuicao e

Em particular, se num momento n o sistema esta no estado 2 (baixa), entao no tempo n  + 3 , a distribuicao e

Utilizando a matriz de transicao, e possivel calcular, por exemplo, a fraccao de longo prazo de semanas durante o qual o mercado e estagnado, ou o numero medio de semanas que sera necessario para passar de uma estagnada a um mercado de touro. Usando as probabilidades de transicao, as probabilidades de estado estacionario indicam que 62,5% das semanas estara em um mercado de touro, 31,25% de semanas estara em um mercado de urso e 6,25% de semanas sera estagnada, uma vez que:

Um desenvolvimento aprofundado e muitos exemplos podem ser encontradas na monografia sobre-linha Meyn & Tweedie 2005. [ 11 ]

Imagine um pais onde so seja possivel estar em tres classes sociais, denominadas estados: A, B ou C. Em cada periodo de tempo, a probabilidade de uma pessoa mudar de um estado para outro e constante no tempo e so depende dos estados. Este processo e chamado de cadeia de Markov. [ 12 ]

Uma maquina de estado finito pode ser utilizada como uma representacao de uma cadeia de Markov. Assumindo uma sequencia de sinais de entrada independentes e identicamente distribuidos (por exemplo, simbolos de um alfabeto binario escolhido por lancamentos de moeda), se a maquina esta no estado y no tempo n , entao a probabilidade de que ele se move para declarar x no tempo n  + 1 depende apenas do estado atual.

Evolucao transitoria [ editar | editar codigo-fonte ]

A probabilidade de ir do estado i para o estado j em intervalos de tempo n e

e a transicao de um unico passo e

Para uma cadeia de Markov de tempo homogeneo:

e

As probabilidades de transicao de n -etapa satisfazem a equacao Chapman-Kolmogorov, que para qualquer k tal que 0 <  k  <  n ,

onde S e o espaco de estados da cadeia de Markov.

A distribuicao marginal Pr( X n  =  x ) e a distribuicao mais estados no tempo n . A distribuicao inicial e Pr( X 0  =  x ). A evolucao do processo atraves de um passo de tempo e descrita pela

Nota: O expoente ( n ) e um indice e nao um expoente.

Propriedades [ editar | editar codigo-fonte ]

Redutibilidade [ editar | editar codigo-fonte ]

Um estado j e dito ser acessivel a partir de um estado i (escrito i  →  j ) se um sistema comecou no estado i tem uma probabilidade diferente de zero de transicao para o estado j em algum ponto. Formalmente, o estado j e acessivel a partir do estado i , se existe um inteiro n ij  ≥ 0 tal que

Este inteiro e permitido para ser diferente para cada par de estados, portanto, os subscritos em n ij . Permitindo que n seja zero significa que cada estado e definida para ser acessivel a partir de si mesmo.

Um estado i e dito para se comunicar com o estado j (escrito i  ↔  j ) se ambos i  →  j e j  →  i . Um conjunto de estados C e uma classe de comunicacao se cada par de estados em C comunica com o outro. Uma classe comunicacao esta fechado se a probabilidade de deixar a classe e zero, ou seja, que se i estiver em C , mas j nao, entao j nao e acessivel a partir de i . Pode-se mostrar que a comunicacao neste sentido e uma relacao de equivalencia e, assim, que as classes comunicantes sao as classes de equivalencia dessa relacao.

O conjunto de classes comunicantes forma, um grafico aciclico dirigido por herdar as setas do espaco estado original. Uma classe comunicacao esta fechado, se e somente se ele nao tem setas de saida neste grafico.

Um estado i e dito ser essencial ou final se para todo j tal que i  →  j tambem e verdade que j  →  i . Um estado i e nao-essencial se nao e essencial. [ 13 ] Um estado e definitiva se e somente se sua classe comunicacao esta fechado.

A cadeia de Markov e dito ser irredutivel se o seu espaco de estado e uma classe unica comunicacao; em outras palavras, se e possivel chegar a qualquer estado de qualquer estado.

Periodicidade [ editar | editar codigo-fonte ]

Um estado i tem periodo k se houver retorno ao estado i deve ocorrer em multiplos de passos de tempo k . Formalmente, o periodo de um estado e definido como

(Onde "mdc" e o maior divisor comum), desde que este conjunto nao e vazio. Caso contrario, o periodo nao esta definido. Note-se que mesmo que um estado tem periodo k , pode nao ser possivel atingir o estado em k passos. Por exemplo, suponha que e possivel voltar ao estado em {6, 8, 10, 12, ...} intervalos de tempo; k seria 2, embora 2 nao aparece nesta lista.

Se k = 1, entao o estado e dito ser aperiodico: retorno ao estado i pode ocorrer em periodos irregulares. Pode ser demonstrado que um estado i e aperiodico se e somente se existe n tal que para todo n' ≥ n ,

Caso contrario ( k  > 1), o estado e dito ser periodico com periodo  k . A cadeia de Markov e aperiodica se cada estado e aperiodico. Uma cadeia de Markov irredutivel so precisa de um estado aperiodico para implicar que todos os estados sao aperiodicos.

Cada estado de um grafo bipartido tem um periodo regular.

Transitoriedade [ editar | editar codigo-fonte ]

Um estado i e dito transitorio, se, uma vez que comecamos no estado i , existe uma probabilidade nao nula de que nunca voltara a i . Formalmente, seja a variavel aleatoria T i o primeiro tempo de retorno ao estado i (o "hitting time"):

O numero

e a probabilidade de voltar para o estado i pela primeira vez apos n passos. Portanto, o estado i e transitorio se

O estado i e recorrente (ou persistente) se nao e transitorio. Estados recorrentes tem garantidos (com probabilidade 1) um hitting time finito. Recorrencia e transitoriedade sao propriedades de classe, isto e, elas sao validas ou nao de forma igual para todos os membros de uma classe comunicante.

Tempo medio de recorrencia [ editar | editar codigo-fonte ]

Mesmo que o hitting time seja finito com probabilidade 1, ele nao precisa de ter uma expectativa finita. O tempo de recorrencia media no estado i e o tempo de retorno esperado M i :

Estado i e recorrente positivo (ou persistente nao-nulo) se M i e finito; caso contrario, o estado i e recorrente nulo (ou persistente nulo).

Numero esperado de visitas [ editar | editar codigo-fonte ]

Pode ser mostrado que um estado i e recorrente se e somente se o numero esperado de visitas a este estado e infinito, isto e,

Absorvendo estados [ editar | editar codigo-fonte ]

Um estado i e chamado de absorcao, se e impossivel sair deste estado. Portanto, o estado i esta absorvendo se e somente se

Se cada estado pode chegar a um estado de absorcao, entao a cadeia de Markov e uma cadeia de Markov absorvente.

Ergodicidade [ editar | editar codigo-fonte ]

Um estado i e dito ser ergodico se ele tem uma recorrencia aperiodica e positiva. Em outras palavras, um estado i e ergodico se for recorrente, tem um periodo de 1 e tem tempo de recorrencia media finita. Se todos os estados em uma cadeia de Markov irredutivel sao ergodicos, entao a cadeia e ergodica.

E possivel mostrar que uma cadeia de Marvok irredutivel de estado finito e ergodica se ela tem um estado aperiodico. A cadeia de Markov tem a propriedade ergodica se ha um numero finito N tal que qualquer estado pode ser alcancado a partir de qualquer outro estado em exatamente N passos. No caso de uma matriz de transicao totalmente ligada, em que todas as transicoes tem uma probabilidade nao nula, esta condicao e preenchida com N = 1. A cadeia de Markov com mais de um estado e apenas uma transicao de sair por estado nao pode ser ergodica.

Analise de estado estacionario e distribuicoes limitantes [ editar | editar codigo-fonte ]

Se a cadeia de Markov e uma cadeia de Markov de tempo homogenea, de modo que o processo e descrito por uma unica matriz que independe do tempo , entao o vetor e chamado de distribuicao estacionaria (ou medida invariante) se satisfaz

Uma cadeia irredutivel tem uma distribuicao estacionaria se e somente se todos os seus estados sao recorrentes positivos. [ 14 ] Nesse caso, π e unico e esta relacionada com o tempo de retorno esperado:

onde e a constante de normalizacao. Alem disso, se a cadeia positiva recorrente e irredutivel e aperiodica, diz-se que tem uma distribuicao limitante; para qualquer i e j ,

Note-se que nao existe qualquer hipotese da distribuicao inicial; a cadeia converge para a distribuicao estacionaria independentemente de onde ele comeca. Tal e chamado de distribuicao em equilibrio da cadeia.

Se uma cadeia tem mais de uma classe comunicante fechada, suas distribuicoes estacionarias nao serao unicas (considere qualquer classe comunicante fechada na cadeia, cada uma tera a sua propria distribuicao estacionaria unica . Estendendo essas distribuicoes a cadeia global, definindo todos os valores a zero fora da classe comunicante, resulta que o conjunto de medidas invariantes da cadeia original e o conjunto de todas as combinacoes convexas da { ). No entanto, se um estado j e aperiodico, entao

e para qualquer outro estado i , sendo f ij a probabilidade de que a cadeia visite o estado j , se ele comeca no i ,

Se um estado i e periodico com periodo k  > 1, entao o limite

nao existe, embora o limite

exista para cada inteiro r .

Analise de estado estacionario e na cadeia de Markov de tempo nao homogeneo [ editar | editar codigo-fonte ]

A cadeia de Markov nao precisa ser necessariamente o tempo homogeneo para ter uma distribuicao de equilibrio. Se ha uma distribuicao de probabilidade sobre estados tal que

para cada estado j e cada tempo n , entao e uma distribuicao em equilibrio da cadeia de Markov. Tal situacao pode ocorrer em metodos de cadeia de Markov de Monte Carlo (MCMC) em situacoes em que um numero de diferentes matrizes de transicao sao usadas, porque cada uma e eficaz para um tipo particular de mistura, mas cada matriz respeita uma distribuicao de equilibrio partilhada.

Espaco de estado finito [ editar | editar codigo-fonte ]

Se o espaco de estados e finito, a distribuicao de probabilidade de transicao pode ser representada por uma matriz, chamada de matriz de transicao, com o ( i , j )-esimo elemento de P igual

Uma vez que cada fileira de P soma um e todos os elementos sao nao-negativos, P e uma matriz estocastica direita.

Relacao distribuicao estacionaria de vetores proprios e simplices [ editar | editar codigo-fonte ]

Um π distribuicao estacionaria e um vetor (linha), cujos elementos sao nao-negativos e somam 1, mantem-se inalterado pela operacao da matriz de transicao P sobre ele e por isso e definida pela

Ao comparar essa definicao com a de um vetor proprio vemos que os dois conceitos estao relacionados e que

e um multiplo normalizado ( ) de um vetor proprio esquerdo e' da matriz de transicao P T com um valor proprio de 1. Se houver mais do que uma unidade de vetor proprio em seguida, a soma ponderada dos correspondentes estados estacionarios e tambem um estado estacionario. Mas para uma cadeia de Markov e geralmente mais interessados em um estado estacionario que e o limite das distribuicoes de sequencia para alguma distribuicao inicial.

Os valores de distribuicao estacionaria estao associadas com o espaco de estado de P e seus vetores proprios tem as suas proporcoes relativas preservadas. Uma vez que os componentes do π sao positivos e a restricao de que a sua soma e a unidade pode ser reescrita como vemos que o produto do ponto de π com um vetor cujos componentes sao todos 1 e unitario e que π encontra-se em um simplex.

Cadeia de Markov de tempo homogeneo com um espaco de estado finito [ editar | editar codigo-fonte ]

Se a cadeia de Markov e vez homogenea, em seguida, a matriz de transicao P e o mesmo depois de cada passo, de modo que a probabilidade de transicao do passo k pode ser calculado como a potencia k da matriz de transicao P k .

Se a cadeia de Markov e irredutivel e aperiodica, entao ha uma distribuicao estacionaria unica π . Alem disso, neste caso P k converge para uma matriz de posto um em que cada linha e o π distribuicao estacionaria, que e,

onde 1 e o vetor coluna com todas as entradas iguais a 1. Isto e afirmado pelo teorema de Perron-Frobenius. Se, por qualquer meio, e encontrado, entao a distribuicao estacionaria da cadeia de Markov em questao pode ser facilmente determinada para qualquer distribuicao, tal como sera explicado abaixo.

Para algumas matrizes estocasticas P , o limite nao existe enquanto a distribuicao e estacionaria, como mostra este exemplo:

Observe que este exemplo ilustra uma cadeia de Markov periodica.

Uma vez que existem um numero de diferentes casos especiais a considerar, o processo de encontrar este limite se existir pode ser uma tarefa longa. No entanto, existem muitas tecnicas que podem ajudar a encontrar esse limite. Seja P uma matriz n × n , e definindo

E verdade que sempre

Subtraindo ' Q de ambos os lados e fatorando, tem os resultados

Onde I n e a matriz identidade de tamanho n e 0 n , n e a matriz zero de tamanho n × n . Multiplicando juntos matrizes estocasticos sempre produz uma outra matriz estocastica, entao Q deve ser uma matriz estocastica (ver definicao acima). Por vezes e suficiente para utilizar a equacao da matriz acima e o facto de que Q e uma matriz estocastica de resolver por Q , incluindo o facto de que a soma de cada uma das linhas em P e 1, existem n+1 equacoes para determinar n incognitas, por isso e computacionalmente mais facil se, por um lado uma seleciona uma linha em Q e substituir cada um dos seus elementos por uma, e por outro um substituir o elemento correspondente (a uma na mesma coluna) no vetor de 0, e ao lado esquerdo - multi este ultimo vetor pelo inverso da antiga matriz transformada para encontrar Q .

Aqui e um metodo para faze-lo: em primeiro lugar, definir a funcao f ( A ) para retornar a matriz A com a sua coluna mais a direita substituido com toda a 1s. Se [ f ( P ? I n )] ?1 existe, em seguida,

A equacao matriz original e equivalente a um sistema de n × n equacoes lineares em n × n variaveis. E existem n equacoes lineares mais a partir do facto de que Q e uma matriz estocastica direito cujo cada linha somas para 1. Por isso, necessita de qualquer N × n equacoes lineares independentes das equacoes (N × N + N) para resolver os n × n variaveis. Neste exemplo, os n equacoes de "Q multiplicado pela coluna mais a direita de (P-Na)" foram substituidos por aqueles N estocasticos.

Uma coisa a notar e que, se P tem um elemento P i , i na sua diagonal principal, que e igual a 1 e a linha om ou coluna i -esima e preenchida com zeros, entao essa linha ou coluna permanecera inalterada em todos os poderes subsequentes P k . Assim, a i -esima linha ou coluna de Q tera os 1 e os 0 de nas mesmas posicoes como em P.

Velocidade de convergencia para a distribuicao estacionaria [ editar | editar codigo-fonte ]

Como afirmado anteriormente, a partir da equacao , (se existir) o estacionaria (ou steady state ) π distribuicao e um autovetor esquerdo da linha da matriz estocastica P . Em seguida, assumindo que P e diagonalizavel ou equivalentemente que P tem n autovetores linearmente independentes, a velocidade de convergencia e elaborado da seguinte forma. (Para nao diagonalizavel, ou seja, matrizes defeituosos, pode-se comecar com a forma normal Jordan de P e prosseguir com o conjunto um pouco mais envolvidos de argumentos de uma maneira similar. [ 15 ] )

Seja U a matriz de autovetores (cada um normalizado para ter uma norma L2 igual a 1), onde cada coluna e um vetor proprio esquerdo do P e deixe Σ a matriz diagonal de valores proprios a esquerda de P , ou seja, Σ = diag( λ 1 , λ 2 , λ 3 ,..., λ n ). Entao, por eigendecomposicao

Deixe os valores proprios ser enumerados tal que 1 = | λ 1 | > | λ 2 | ≥ | λ 3 | ≥ ... ≥ | λ n |. Uma vez que P e uma matriz estocastica de linha, o seu maior valor proprio esquerda e 1. Se houver uma distribuicao estacionario original, em seguida, o valor proprio maior e o vetor proprio correspondente e tambem unico (porque nao existe nenhum outro π que resolve a equacao distribuicao estacionaria acima). Seja u i a coluna i da matriz U , ou seja, u i e o autovetor esquerdo de P correspondente a λ i . Tambem sendo x ser um vetor linha comprimento n que representa uma distribuicao de probabilidade valida; ja que os autovetores u i se distribuem por R n , podemos escrever

por algum conjunto de a i ∈ ?. Se comeca-se a multiplicacao de P com x da esquerda e continuar esta operacao com os resultados, no final, obtem-se o π distribuicao estacionaria. Em outras palavras, π = u i xPPP ... P = xP k como k vai para infinito. Que significa

desde UU ?1 = I , a matriz de identidade e de energia de uma matriz diagonal tambem e uma matriz diagonal em que cada entrada e feita para que o poder.

uma vez que os vetores proprios sao ortonormais. Entao [ 16 ]

Desde π = u 1 , π ( k ) abordagens para π como k vai para infinito com uma velocidade na ordem de λ 2 / λ 1 exponencialmente. Isto acontece porque | λ 2 | ≥ | λ 3 | ≥ ... ≥ | λ n |, portanto, λ 2 / λ 1 e o termo dominante. Um ruido aleatorio na distribuicao de estado π tambem pode acelerar essa convergencia com a distribuicao estacionaria. [ 17 ]

Cadeia de Markov reversiveis [ editar | editar codigo-fonte ]

Uma cadeia de Markov e dita ser reversivel se existe uma distribuicao de probabilidade π sobre os seus estados tais que

para todos os tempos n e todos os estados i e j . Esta condicao e conhecida como condicao de balanco detalhado (alguns livros chamam a equacao de balanco local).

Considerando-se um tempo arbitrario n fixo e usando a abreviacao

a equacao do balanco detalhado pode ser escrita de forma mais compacta como

O tempo de um so passo a partir de n a n +1 pode ser pensado como tendo cada pessoa i que inicialmente π i dolares e pagar cada pessoa j uma fracao p ij dela. A condicao de balanco detalhado afirma que a cada pagamento, a outra pessoa paga exatamente a mesma quantidade de dinheiro de volta. [ 18 ] E evidente que a quantidade total de dinheiro π que cada pessoa tem permanece o mesmo apos o passo de tempo, uma vez que cada dolar gasto e equilibrado por um dolar correspondente recebida. Isto pode ser demonstrado mais formalmente pela igualdade

que afirma essencialmente que a quantidade total de dinheiro pessoa j recebe (incluindo de si mesmo) durante o passo de tempo e igual a quantidade de dinheiro que ele paga a outros, o que equivale a todo o dinheiro que tinha inicialmente porque foi assumido que todo o dinheiro e gasto (isto e p ji soma 1 sobre i ). A suposicao e uma questao tecnica, porque o dinheiro nao e realmente usada e simplesmente pensado como sendo pagos de pessoa j para si mesmo (isto e p jj nao e necessariamente zero).

Como n foi arbitrario, este raciocinio e valido para qualquer n , e, portanto, para cadeias de Markov reversiveis π e sempre uma distribuicao no estado estacionario de Pr( X n+1  =  j  |  X n  =  i ) para cada n .

Se a cadeia de Markov comeca na distribuicao em estado estacionario, isto e, se Pr( X 0  =  i ) = π i , entao Pr( X n  =  i ) = π i para todo o n e a equacao de equilibrio detalhada pode ser escrito como

Os lados esquerdo e direito desta ultima equacao sao identicas, exceto para uma reversao dos indices de tempo n e n  + 1. criterio de Kolmogorov da uma condicao necessaria e suficiente para uma cadeia de Markov para ser reversivel directamente a partir das probabilidades de transicao de matriz. O criterio exige que os produtos de probabilidades em torno de cada circuito fechado sao os mesmos em ambas as direccoes em torno do circuito.

Cadeias de Markov reversiveis sao comuns na cadeia de Markov Monte Carlo (MCMC) se aproxima, porque a equacao do balanco detalhado para a distribuicao π desejada implica necessariamente que a cadeia de Markov foi construido de modo que π e uma distribuicao em estado estacionario. Mesmo com correntes de Markov de tempo nao homogenea, em que multiplas matrizes de transicao sao usados, se cada matriz de transicao exibe equilibrio detalhada com a distribuicao π desejada, isto implica necessariamente que π e uma distribuicao em estado estacionario da cadeia de Markov.

Cadeia de Markov reversivel mais proxima [ editar | editar codigo-fonte ]

Para qualquer cadeia de Markov de tempo homogeneo dada por uma matriz de transicao , qualquer norma em que e induzido por um produto escalar, e qualquer vetor probabilidade , existe uma matriz de transicao unica que e reversivel de acordo com a e que esta mais proxima de de acordo com a norma . A matriz pode ser calculada resolvendo um problema de otimizacao quadratico-convexa. [ 19 ]

Por exemplo, considere a seguinte cadeia de Markov:

Cadeia de Markov simples
Cadeia de Markov simples

Esta cadeia de Markov nao e reversivel. De acordo com o Frobenius Norm a cadeia de Markov reversiveis mais proximo de acordo com pode ser calculado como

Se escolher o vetor de probabilidade aleatoriamente como , entao a cadeia de Markov reversivel mais proxima de acordo com a norma de Frobenius e dada aproximadamente pela

Esquema de Bernoulli [ editar | editar codigo-fonte ]

Um esquema de Bernoulli e um caso especial de uma cadeia de Markov, onde a matriz de probabilidades de transicao tem linhas identicas, o que significa que o proximo estado e ainda independente do estado corrente (para alem de serem independentes dos estados anteriores). Um esquema de Bernoulli com apenas dois estados possiveis e conhecido como um processo de Bernoulli.

Espaco geral do estado [ editar | editar codigo-fonte ]

Para uma visao geral de cadeias de Markov em um espaco geral do estado, ver as cadeias de Markov artigo em um espaco de estado mensuravel.

Cadeias Harris [ editar | editar codigo-fonte ]

Muitos resultados para cadeias de Markov com espaco de estados finitos podem ser generalizados para cadeias com espaco de estado incontavel atraves de cadeias de Harris. A ideia principal e para ver se ha um ponto no espaco de estado que os hits da cadeia com probabilidade um. Geralmente, nao e verdadeiro para o espaco de estado continuo, no entanto, podemos definir conjuntos A e B , juntamente com um numero positivo ε e uma medida de probabilidade ρ , de tal modo que

Em seguida, pode entrar em colapso os conjuntos em um ponto auxiliar α , e uma cadeia Harris recorrente pode ser modificado para conter α . Finalmente, o conjunto de cadeias Harris e um nivel confortavel de generalidade, a qual e ampla o suficiente para conter um grande numero de exemplos interessantes, ainda restritiva suficiente para permitir uma teoria rica.

O uso de cadeias de Markov em cadeia de Markov metodos de Monte Carlo abrange casos em que o processo segue um espaco de estado continuo.

Cadeias de Markov interagindo localmente [ editar | editar codigo-fonte ]

Considerando-se uma colecao de cadeias de Markov cuja evolucao leva em conta o estado de outras cadeias de Markov, esta relacionada com a nocao de interagir localmente cadeias de Markov. Isso corresponde a situacao em que o espaco de estado tem uma forma de produto. Veja interagindo sistema de particulas e automatos celulares estocastico (probabilistica automatos celulares). Ver, por exemplo Interacao de Markov processos. [ 20 ] ou [ 21 ]

Aplicacoes [ editar | editar codigo-fonte ]

A pesquisa tem relatado a aplicacao e utilidade das cadeias de Markov em uma ampla gama de topicos, tais como a fisica, quimica, medicina, musica, teoria dos jogos e esportes.

Fisica [ editar | editar codigo-fonte ]

Sistemas Markovianos aparecem extensivamente em termodinamica e mecanica estatistica, sempre que as probabilidades sao usados para representar detalhes desconhecidos ou nao modelados do sistema, se pode presumir-se que a dinamica e invariante no tempo, e que nenhuma historia relevante precisa ser considerado que nao estiver incluido na descricao do estado.

Quimica [ editar | editar codigo-fonte ]

Cinetica de Michaelis-Menten . A enzima (E) se liga ao substrato (S) e produz um produto (P). Cada reacao e uma transicao de estado em uma cadeia de Markov.

Cadeias de Markov e processos de Markov de tempo continuo sao uteis em quimica quando os sistemas fisicos aproximam a propriedade de Markov. O modelo classico da actividade da enzima, a cinetica de Michaelis-Menten, pode ser visto como uma cadeia de Markov, onde em cada etapa de tempo a reaccao prossegue em algum sentido. Enquanto Michaelis-Menten e bastante simples, redes de reaccao muito mais complicados tambem podem ser modeladas com cadeias de Markov.

Um algoritmo baseado numa cadeia de Markov tambem foi utilizado para focar o crescimento baseado no fragmento de produtos quimicos in silico no sentido de uma classe desejada de compostos, tais como farmacos ou produtos naturais. [ 22 ] Como uma molecula e cultivada, um fragmento e seleccionado a partir da molecula nascente como o estado "corrente". Nao e do conhecimento do seu passado (isto e, nao esta consciente de que ja se encontra ligado a ele). E, em seguida, passa para o proximo estado, quando um fragmento e ligado a ele. As probabilidades de transicao sao treinados em bases de dados das classes autenticas de compostos.

Alem disso, o crescimento (e composicao) dos copolimeros pode ser modelada utilizando cadeias de Markov. Com base nas relacoes de reactividade dos monomeros que formam a cadeia polimerica em crescimento, a composicao da corrente pode ser calculada (por exemplo, se monomeros tendem a adicionar de forma alternada ou em funcionamentos longos do mesmo monomero). Devido aos efeitos estericos, de segunda ordem efeitos de Markov pode tambem desempenhar um papel no crescimento de algumas cadeias de polimero.

Do mesmo modo, tem sido sugerido que a cristalizacao e o crescimento de alguns dos materiais de oxido de superrede epitaxiais pode ser descrito com precisao por Cadeias de Markov. [ 23 ]

Ensaio [ editar | editar codigo-fonte ]

Muitos teoricos tem proposto a ideia do teste estatistico cadeia de Markov (MCST), um metodo de conjuncao cadeias de Markov para formar um "Markov cobertor", organizando essas cadeias em varias camadas recursiva ( "wafering") e producao de testes mais eficientes conjuntos-amostras -como um substituto para testes exaustivos. MCSTs tambem tem usos em redes baseadas no estado temporais; O artigo de Chilukuri et al. intitulado "temporais Networks Incerteza raciocinio para Evidence fusao com Aplicacoes para objeto de Deteccao e Acompanhamento" (ScienceDirect) da um estudo de fundo e caso para aplicar MCSTs a uma ampla gama de aplicacoes.

Reconhecimento de fala [ editar | editar codigo-fonte ]

Modelos ocultos de Markov sao a base para a maioria dos sistemas de reconhecimento de voz automaticas modernas. [ 24 ]

Ciencias da informacao [ editar | editar codigo-fonte ]

Cadeias de Markov sao usados em todo o processamento da informacao. famosa 1948 de papel uma teoria matematica de Claude Shannon de comunicacao, que em uma unica etapa criou o campo da teoria da informacao, abre com a introducao do conceito de entropia atraves de modelagem Markov do idioma Ingles. Tais modelos idealizados pode capturar muitas das regularidades estatisticas de sistemas. Mesmo sem descrever a estrutura completa do sistema perfeitamente, tais modelos de sinal podem tornar possivel a compressao de dados muito eficaz atraves de tecnicas de codificacao de entropia, como codificacao aritmetica. Eles tambem permitem que estimacao de estado eficaz e reconhecimento de padroes. Cadeias de Markov tambem desempenham um papel importante no aprendizado por reforco.

Cadeias de Markov sao tambem a base para modelos ocultos de Markov, que sao um instrumento importante para diversas areas como redes telefonicas (que utilizam o algoritmo Viterbi para correcao de erro), reconhecimento de voz e bioinformatica (como na deteccao de rearranjos [ 25 ] ).

O algoritmo de compressao de dados sem perdas LZMA combina cadeias de Markov com compressao Lempel-Ziv para alcancar taxas de compressao muito elevados.

Teoria de filas [ editar | editar codigo-fonte ]

Cadeias de Markov sao a base para o tratamento analitico das filas (teoria de filas). Agner Krarup Erlang iniciou o assunto em 1917. [ 26 ] Isso os torna critico para otimizar o desempenho de redes de telecomunicacoes, em que as mensagens muitas vezes competem por recursos limitados (como a largura de banda). [ 27 ]

Aplicacoes de Internet [ editar | editar codigo-fonte ]

O PageRank de uma pagina da web como usado pelo Google e definida por uma cadeia de Markov. [ 28 ] E a probabilidade de estar em pagina displaystyle na distribuicao estacionaria sobre a seguinte cadeia de Markov em todas as paginas Web (conhecidas). Se e o numero de paginas da Web conhecidas, e uma pagina tem links para ela, entao ele tem probabilidade de transicao para todas as paginas que estao ligadas a ela e para todas as paginas que estao nao ligadas. O parametro e considerado como sendo cerca de 0,85.

Os modelos de Markov tambem tem sido utilizados para analisar o comportamento de navegacao Web de utilizadores. web link transicao de um usuario em um determinado site pode ser modelado usando modelos de Markov de ordem segunda primeira ou e pode ser usado para fazer previsoes sobre a navegacao futuro e para personalizar a pagina da web para um usuario individual.

Estatistica [ editar | editar codigo-fonte ]

Metodos da cadeia de Markov tambem se tornaram muito importantes para a geracao de sequencias de numeros aleatorios para refletir com precisao as distribuicoes de probabilidade desejados muito complicadas, atraves de um processo chamado de Markov chain Monte Carlo (MCMC) . Nos ultimos anos, este tem revolucionado a praticabilidade de metodos de inferencia bayesiana, permitindo uma ampla gama de distribuicoes posteriores a ser simulada e seus parametros encontrados numericamente.

Economia e financas [ editar | editar codigo-fonte ]

Cadeias de Markov sao utilizados em financas e economia para modelar uma variedade de diferentes fenomenos, incluindo os precos dos ativos e falhas de mercado. O primeiro modelo financeiro para usar uma cadeia de Markov foi de Prasad et al. em 1974. [ 29 ] Outro foi o modelo de mudanca de regime de James D. Hamilton (1989), em que uma cadeia de Markov e usado para modelar alterna entre periodos de crescimento alta e baixa do PIB (ou, alternativamente, expansoes economicas e recessoes). [ 30 ] Um exemplo mais recente e o modelo Multifractal Switching Markov de Laurent E. Calvet e Adlai J. Fisher, que foi construido sobre a conveniencia de modelos anteriores de mudanca de regime. [ 31 ] [ 32 ] Ele usa um arbitrariamente grande cadeia de Markov para dirigir o nivel de volatilidade dos retornos de ativos.

Macroeconomia dinamica usa fortemente cadeias de Markov. Um exemplo esta usando cadeias de Markov de precos modelo exogenamente de equidade (estoque) em um ambiente de equilibrio geral. [ 33 ]

As agencias de notacao produzir tabelas anuais das probabilidades de transicao para as obrigacoes de diferentes classificacoes de credito. [ 34 ]

Ciencias Sociais [ editar | editar codigo-fonte ]

Cadeias de Markov sao geralmente usados para descrever argumentos dependentes do caminho, onde as configuracoes estruturais atuais condicionam os resultados futuros. Um exemplo e a reformulacao da ideia, originalmente devido a de Karl Marx Das Kapital, amarrando o desenvolvimento economico com a ascensao do capitalismo. Na pesquisa atual, e comum o uso de uma cadeia de Markov para modelar como quando um pais atinge um determinado nivel de desenvolvimento economico, a configuracao de fatores estruturais, tais como tamanho da burguesia comercial, a proporcao da populacao urbana a residencia rural, a taxa de de mobilizacao politica, etc., ira gerar uma maior probabilidade de transicao de autoritario para o regime democratico. [ 35 ]

Biologia matematica [ editar | editar codigo-fonte ]

Cadeias de Markov tambem tem muitas aplicacoes na modelagem biologica, em particular os processos de populacoes, que sao uteis em processos de modelagem que sao (pelo menos) analogo ao populacoes biologicas. A matriz de Leslie e um exemplo deste tipo, embora algumas das suas entradas nao sao probabilidades (que pode ser maior do que 1). Outro exemplo e a modelacao das celulas em forma dividindo folhas de celulas epiteliais. [ 36 ] Ainda um outro exemplo e o estado dos canais de ions em membranas celulares.

Cadeias de Markov tambem sao utilizados em simulacoes da funcao cerebral, tais como a simulacao do neocortex de mamifero. [ 37 ]

Genetica [ editar | editar codigo-fonte ]

Cadeias de Markov tem sido usados em genetica de populacoes, a fim de descrever a mudanca nas frequencias de genes em pequenas populacoes afetadas por deriva genetica, por exemplo, na forma de equacao de difusao descrita por Motoo Kimura. [ 38 ]

Jogos [ editar | editar codigo-fonte ]

Cadeias de Markov pode ser usado para modelar muitos jogos de azar. Jogos infantis Snakes and Ladders e "Hi Ho! Cherry-O", por exemplo, sao representados exatamente por cadeias de Markov. Em cada turno, o jogador comeca em um determinado estado (em um determinado quadrado) e de la tem chances de se mudar para alguns outros estados (quadrados) fixo.

Musica [ editar | editar codigo-fonte ]

Cadeias de Markov sao empregados na composicao de musica algoritmica, particularmente em softwares como o CSound, Max e SuperCollider. Em uma cadeia de primeira ordem, os estados do sistema tornam-se notas ou valores de altura, e um vetor de probabilidade para cada nota e construido, completando uma matriz de probabilidade de transicao (ver abaixo). Um algoritmo e construido para produzir valores de altura de saida com base nos coeficientes de matriz de transicao, que pode ser de alturas MIDI, de frequencias (Hz), ou qualquer outra metrica desejavel. [ 39 ] matriz de 1ª ordem

Matriz de primeira ordem
Nota A C E
A 0.1 0.6 0.3
C 0.25 0.05 0.7
E 0.7 0.3 0
Matriz de segunda ordem
Notas A D G
AA 0.18 0.6 0.22
AD 0.5 0.5 0
AG 0.15 0.75 0.1
DD 0 0 1
DA 0.25 0 0.75
DG 0.9 0.1 0
GG 0.4 0.4 0.2
GA 0.5 0.25 0.25
GD 1 0 0

Uma cadeia de Markov de segunda ordem pode ser introduzida ao considerar o estado atual e tambem o estado anterior, conforme indicado na segunda tabela. Cadeias de ordem "n" tendem a "agrupar" notas particulares juntas, enquanto 'quebrando' para outros padroes e sequencias ocasionalmente. Estas cadeias de ordem superior tendem a gerar resultados com um sentido de estrutura frasal, ao inves do 'vaguear' produzido por um sistema de primeira ordem. [ 40 ]

Cadeias de Markov podem ser usadas estruturalmente, como na Analogique A e B de Xenakis. [ 41 ] Cadeias de Markov tambem sao utilizadas em sistemas que utilizam um modelo de Markov para reagir interativamente a entrada de musica. [ 42 ]

Normalmente sistemas musicais precisa impor restricoes de controle especificas sobre as sequencias de comprimento finito que geram, mas as restricoes de controle nao sao compativeis com os modelos de Markov, uma vez que induzem dependencias de longo alcance que violam a hipotese de Markov de memoria limitada. De modo a ultrapassar esta limitacao, uma nova abordagem tem sido proposta. [ 43 ]

Beisebol [ editar | editar codigo-fonte ]

Modelos de cadeia de Markov foram usados na analise de beisebol avancado desde 1960, embora a sua utilizacao e ainda raro. Cada meio-turno de um jogo de beisebol se encaixa o estado da cadeia de Markov, quando o numero de corredores e saidas sao considerados. Durante qualquer no bastao, existem 24 possiveis combinacoes de numero de saidas e a posicao dos corredores. Mark Pankin mostra que modelos de cadeia de Markov pode ser usado para avaliar corridas criadas para ambos os jogadores individuais, bem como uma equipe. [ 44 ] Ele tambem discute varios tipos de estrategias e condicoes de jogo: como os modelos da cadeia de Markov tem sido usados para analisar estatisticas para situacoes de jogo, tais como Bunting e base de roubo e diferencas quando se joga na grama ou na relva sintetica. [ 45 ]

Geradores de texto de Markov [ editar | editar codigo-fonte ]

Processos de Markov tambem pode ser usado para gerar texto superficialmente com aparencia real dado um documento de exemplo: eles sao usados em uma variedade de software de recreio "gerador de parodia" (ver comunicado de imprensa dissociada, Jeff Harrison, [ 46 ] Mark V Shaney [ 47 ] [ 48 ] ). Esses processos tambem sao usados por spammers para injetar paragrafos ocultos aparencia reais em e-mail nao solicitado e postar comentarios em uma tentativa de obter essas mensagens passado filtros de spam.

No campo da bioinformatica, eles podem ser utilizados para simular as sequencias de DNA. [ 49 ]

Ajustando [ editar | editar codigo-fonte ]

Ao ajustar uma cadeia de Markov aos dados, situacoes nas quais os parametros descrevem mal a situacao podem destacar tendencias interessantes. [ 50 ] [ 51 ] [ 52 ]

Historia [ editar | editar codigo-fonte ]

Andrey Markov produziu os primeiros resultados (1906) para estes processos, puramente teorica. [ 53 ] A generalizacao para espacos de estado infinitos contaveis foi dada por Kolmogorov (1936). Cadeias de Markov estao relacionados com o movimento Browniano e a hipotese ergodica, dois topicos da fisica que eram importante nos primeiros anos do seculo XX. No entanto, Markov primeiro usou as cadeias em 1906 como parte de seu argumento contra Pavel Nekrasov, em particular para fazer o caso que a lei dos grandes numeros pode ser estendido para eventos dependentes. [ 54 ] Em 1913, ele aplicou suas descobertas para os primeiros 20.000 cartas de Eugene Onegin de Pushkin. [ 54 ] Em 1917, a aplicacao mais pratica de seu trabalho foi feito por Erlang obter formulas para a perda de chamadas e tempo de espera nas redes telefonicas. [ 26 ]

Seneta fornece uma conta de motivacoes de Markov e desenvolvimento inicial da teoria. [ 55 ] O termo "cadeia" foi utilizado pela Markov (1906) sugerem que uma sequencia de variaveis dependentes emparelhadas. [ 56 ]

Referencias

  1. Norris, James R. (1998). Markov chains . [S.l.]: Cambridge University Press . Consultado em 4 de marco de 2016  
  2. A.A. Markov. "Rasprostranenie zakona bol'shih chisel na velichiny, zavisyaschie drug ot druga". Izvestiya Fiziko-matematicheskogo obschestva pri Kazanskom universitete , 2-ya seriya, tom 15, pp 135?156, 1906.
  3. A.A. Markov. "Extension of the limit theorems of probability theory to a sum of variables connected in a chain". reimpresso no Apendice B de: R. Howard. Dynamic Probabilistic Systems, volume 1: Markov Chains . John Wiley and Sons, 1971.
  4. J.L. Doob. Stochastic Processes . New York: John Wiley and Sons, 1953. ISBN 0-471-52369-0 .
  5. Everitt,B.S. (2002) The Cambridge Dictionary of Statistics . CUP. ISBN 0-521-81099-X
  6. Parzen, E. (1962) Stochastic Processes , Holden-Day. ISBN 0-8162-6664-6 (Table 6.1))
  7. Dodge, Y. (2003) The Oxford Dictionary of Statistical Terms , OUP. ISBN 0-19-920613-9 (entry for "Markov chain")
  8. Meyn, S. Sean P., and Richard L. Tweedie. (2009) Markov chains and stochastic stability . Cambridge University Press. (Preface, p. iii)
  9. a b SIMON, Carl P. e BLUME, Lawrence. Matematica para economistas . Porto Alegre: Bookman, 2004. Reimpressao 2008. ISBN 978-85-363-0307-9 . Secao 23.6 - Processos de Markov. Pagina 617.
  10. Leo Breiman. Probability . Edicao original publicada pela Addison-Wesley em 1968; reimpressa pela Society for Industrial and Applied Mathematics em 1992. ISBN 0-89871-296-3 . (ver Capitulo 7.)
  11. S. P. Meyn and R.L. Tweedie, 2005. Markov Chains and Stochastic Stability
  12. SANTOS Reginaldo J. Cadeias de Markov . Departamento de Matematica-ICEx, 22 de marco de 2006. Disponivel em: < http://www.mat.ufmg.br/~regi/gaalt/markov.pdf >. Aceso em 14 de julho de 2011.
  13. Asher Levin, David (2009). Markov chains and mixing times . [S.l.: s.n.] p. 16. ISBN   978-0-8218-4739-8 . Consultado em 4 de marco de 2016  
  14. Serfozo, Richard (2009), ≪Basics of Applied Stochastic Processes≫ , ISBN   978-3-540-89331-8 , Berlin: Springer-Verlag, Probability and Its Applications : 35, MR   2484222 , doi : 10.1007/978-3-540-89332-5  
  15. Florian Schmitt and Franz Rothlauf, "On the Mean of the Second Largest Eigenvalue on the Convergence Rate of Genetic Algorithms", Working Paper 1/2001, Working Papers in Information Systems, 2001. http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.28.6191
  16. Gene H. Golub, Charles F. Van Loan, "Matrix computations", Third Edition, The Johns Hopkins University Press, Baltimore and London, 1996.
  17. Franzke, Brandon; Kosko, Bart (1 de outubro de 2011). ≪Noise can speed convergence in Markov chains≫. Physical Review E . 84 (4). doi : 10.1103/PhysRevE.84.041112  
  18. Richard Durrett (19 de maio de 2012). Essentials of Stochastic Processes . [S.l.]: Springer Science & Business Media. p. 37. ISBN   978-1-4614-3615-7  
  19. : A. Nielsen and M. Weber, "Computing the nearest reversible Markov chain". Numerical Linear Algebra with Applications, 22(3):483-499, 2015.
  20. Spitzer, Frank (1970). ≪Interaction of Markov Processes≫. Advances in Mathematics . 5 (2): 246?290. doi : 10.1016/0001-8708(70)90034-4  
  21. R. L. Dobrushin; V. I. Kri?u?kov; A. L. Toom (1978). Stochastic Cellular Systems: Ergodicity, Memory, Morphogenesis . [S.l.: s.n.] ISBN   9780719022067 . Consultado em 4 de marco de 2016  
  22. Kutchukian, Peter; Lou, David; Shakhnovich, Eugene (2009). ≪FOG: Fragment Optimized Growth Algorithm for the de Novo Generation of Molecules occupying Druglike Chemical≫. Journal of Chemical Information and Modeling . 49 (7): 1630?1642. PMID   19527020 . doi : 10.1021/ci9000458  
  23. Kopp, V. S.; Kaganer, V. M.; Schwarzkopf, J.; Waidick, F.; Remmele, T.; Kwasniewski, A.; Schmidbauer, M. (2011). ≪X-ray diffraction from nonperiodic layered structures with correlations: Analytical calculation and experiment on mixed Aurivillius films≫. Acta Crystallographica Section a Foundations of Crystallography . 68 : 148?155. doi : 10.1107/S0108767311044874  
  24. Costa, Washington Cesar de Almeida Costa. ≪Reconhecimento de Fala Utilizando Modelos de Markov Escondidos (HMM's) de Densidades Continuas.≫ . Universidade Federal de Campina Grande . Consultado em 15 de outubro de 2021  
  25. Pratas, D; Silva, R; Pinho, A; Ferreira, P (18 de maio de 2015). ≪An alignment-free method to find and visualise rearrangements between pairs of DNA sequences.≫. Scientific Reports (Group Nature) . 5 (10203): 10203. PMID   25984837 . doi : 10.1038/srep10203  
  26. a b John J. O’Connor, Edmund F. Robertson Cadeias de Markov. In: MacTutor History of Mathematics archive .
  27. S. P. Meyn, 2007. Control Techniques for Complex Networks , Cambridge University Press, 2007.
  28. Patente E.U.A. 6 285 999
  29. Prasad, NR; RC Ender; ST Reilly; G Nesgos (1974). ≪Allocation of resources on a minimized cost basis≫ . 1974 IEEE Conference on Decision and Control including the 13th Symposium on Adaptive Processes . 13 : 402?3. doi : 10.1109/CDC.1974.270470 [ligacao inativa]  
  30. Hamilton, James (1989). ≪A new approach to the economic analysis of nonstationary time series and the business cycle≫. Econometrica, Vol. 57, No. 2. Econometrica . 57 (2): 357?84. JSTOR   1912559 . doi : 10.2307/1912559  
  31. Calvet, Laurent E.; Fisher, Adlai J. (2001). ≪Forecasting Multifractal Volatility≫. Journal of Econometrics . 105 (1): 27?58. doi : 10.1016/S0304-4076(01)00069-0  
  32. Calvet, Laurent; Adlai Fisher (2004). ≪How to Forecast long-run volatility: regime-switching and the estimation of multifractal processes≫. Journal of Financial Econometrics . 2 : 49?83. doi : 10.1093/jjfinec/nbh003  
  33. Brennan, Michael; Xiab, Yihong. ≪Stock Price Volatility and the Equity Premium≫ (PDF) . Department of Finance, the Anderson School of Management, UCLA [ligacao inativa]  
  34. A Markov Chain Example in Credit Risk Modelling Columbia University lectures
  35. Acemoglu, Daron; Georgy Egorov; Konstantin Sonin (2011). ≪Political model of social evolution≫ . Proceedings of the National Academy of Sciences . 108 : 21292?21296. doi : 10.1073/pnas.1019454108 [ligacao inativa]  
  36. Gibson, Matthew C; Patel, Ankit P.; Perrimon, Norbert; Perrimon, Norbert (2006). ≪The emergence of geometric order in proliferating metazoan epithelia≫. Nature . 442 (7106): 1038?1041. PMID   16900102 . doi : 10.1038/nature05014  
  37. George, Dileep; Hawkins, Jeff (2009). Friston, Karl J., ed. ≪Towards a Mathematical Theory of Cortical Micro-circuits≫ . PLoS Comput Biol . 5 (10): e1000532. PMC   2749218 Acessível livremente. PMID   19816557 . doi : 10.1371/journal.pcbi.1000532  
  38. Watterson, G. (1996). "Motoo Kimura's Use of Diffusion Theory in Population Genetics". Theoretical Population Biology 49 (2): 154?188. doi:10.1006/tpbi.1996.0010. PMID 8813021 .
  39. K McAlpine; E Miranda; S Hoggar (1999). ≪Making Music with Algorithms: A Case-Study System≫ . Computer Music Journal . 23 (2): 19?30. doi : 10.1162/014892699559733  
  40. Curtis Roads (ed.) (1996). The Computer Music Tutorial . [S.l.]: MIT Press. ISBN   0-262-18158-4  
  41. Xenakis, Iannis; Kanach, Sharon (1992) Formalized Music: Mathematics and Thought in Composition , Pendragon Press. ISBN 1576470792
  42. Continuator Arquivado em 13 de julho de 2012, no Wayback Machine .
  43. Pachet, F.; Roy, P.; Barbieri, G. (2011) "Finite-Length Markov Processes with Constraints" , Proceedings of the 22nd International Joint Conference on Artificial Intelligence , IJCAI, pages 635-642,Barcelona, Spain, July 2011
  44. Pankin, Mark D. ≪MARKOV CHAIN MODELS: THEORETICAL BACKGROUND≫ . Consultado em 26 de novembro de 2007  
  45. Pankin, Mark D. ≪BASEBALL AS A MARKOV CHAIN≫ . Consultado em 24 de abril de 2009  
  46. Poet's Corner ? Fieralingue Arquivado em 6 de dezembro de 2010, no Wayback Machine .
  47. Kenner, Hugh; O'Rourke, Joseph (novembro de 1984). ≪A Travesty Generator for Micros≫. BYTE . 9 (12): 129?131, 449?469  
  48. Hartman, Charles (1996). Virtual Muse: Experiments in Computer Poetry . Hanover, NH: Wesleyan University Press. ISBN   0-8195-2239-2  
  49. Pratas, Diogo; Bastos, Carlos; Pinho, Armando; Neves, Antonio; Matos, Luis (junho de 2011). DNA synthetic sequences generation using multiple competing Markov models . Statistical Signal Processing Workshop (SSP), 2011 IEEE . 9 (12). pp. 133?136. doi : 10.1109/SSP.2011.5967639  
  50. Avery, P. J.; Henderson, D. A. (1999). ≪Fitting Markov Chain Models to Discrete State Series Such as DNA Sequences≫. Journal of the Royal Statistical Society . 48 (1): 53?61. JSTOR   2680818 . doi : 10.1111/1467-9876.00139  
  51. Shmilovici A. & Ben-Gal I. (2007). ≪Using a VOM Model for Reconstructing Potential Coding Regions in EST Sequences,≫ (PDF) . Journal of Computational Statistics, vol. 22, no. 1, 49?69 . Consultado em 4 de marco de 2016  
  52. http://www.eng.tau.ac.il/~bengal/VOM_EST.pdf
  53. Gagniuc, Paul A. (2017). Markov Chains: From Theory to Implementation and Experimentation . USA, NJ: John Wiley & Sons. pp. 2?8. ISBN   978-1-119-38755-8  
  54. a b Hayes, Brian (Marco?Abril de 2013). ≪First Links in the Markov Chain≫. American Scientist . 101 : 92?97  
  55. Seneta, E. (1996). ≪Markov and the Birth of Chain Dependence Theory≫. International Statistical Review . 64 (3): 255?263. JSTOR   1403785 . doi : 10.2307/1403785  
  56. Upton, G.; Cook, I. (2008). Oxford Dictionary of Statistics . [S.l.]: OUP. ISBN   978-0-19-954145-4  

Ligacoes externas [ editar | editar codigo-fonte ]