Como utilizar o modelo Markov em análise preditiva

o Markov Modelo é um modelo estatístico que pode ser usado em análises preditivas que depende fortemente de teoria da probabilidade. (É o nome de um matemático russo cuja pesquisa primária foi na teoria das probabilidades.)

Aqui está um cenário prático que ilustra como funciona: Imagine que você quer prever se Equipe X vai ganhar o jogo de amanhã. A primeira coisa a fazer é recolher estatísticas anteriores sobre Team X. A pergunta que pode surgir é o quão distante você deve ir na história?

Vamos supor que você fosse capaz de obter para os últimos 10 resultados de jogos anteriores na sequência. Você quer saber a probabilidade de Equipe X vencer o próximo jogo, tendo em conta os resultados dos últimos 10 jogos.

O problema é que quanto mais para trás na história você quer ir, mais difícil e mais complexo o cálculo de coleta de dados e probabilidade tornou.

Acredite ou não, o Modelo de Markov simplifica sua vida, fornecendo-lhe com o Markov Assunção, que tem esta aparência quando você escrevê-lo em palavras:

A probabilidade de que um evento ocorrer, dado n eventos passados, é aproximadamente igual à probabilidade de que um evento como irá acontecer dado apenas o último evento passado.

Escrito como uma fórmula, o Markov Assunção parece com isso:

image0.jpg

De qualquer maneira, o Markov Assunção significa que você não precisa ir muito longe na história para prever o resultado de amanhã. Você pode usar apenas o mais recente evento passado. Isso é chamado de previsão de Markov de primeira ordem porque você está considerando apenas o último evento de prever o futuro evento.

UMA previsão Markov de segunda ordem inclui apenas os dois últimos eventos que acontecem em sequência. A partir da equação dada apenas, a seguinte equação amplamente utilizado também pode ser derivada:

image1.jpg

Esta equação tem o objetivo de calcular a probabilidade de que alguns eventos irão acontecer em sequência: evento1 depois de evento2, e assim por diante. Esta probabilidade pode ser calculado multiplicando-se a probabilidade de cada eventot (Dado o caso anterior a ele) pelo evento seguinte na sequência. Por exemplo, suponha que você queira prever a probabilidade que o Team X ganha, em seguida, perde, em seguida, os laços.

Aqui está como um modelo preditivo típico baseado em um modelo Markov iria funcionar. Considere o mesmo exemplo: Suponha que você queira prever os resultados de um jogo de futebol para ser jogado por Equipe X. Os três resultados possíveis - chamada estados - são vitória, perda ou empate.

Suponha que você coletou dados estatísticos anteriores sobre os resultados dos jogos de futebol da equipa X, e que equipa X perdeu o seu jogo mais recente. Você quer prever o resultado do jogo de futebol próximo. É tudo sobre adivinhar se Equipe X vai ganhar, perder, ou amarre - contando apenas com os dados de jogos passados. Então aqui está como você usa um modelo de Markov para fazer essa previsão.

  1. Calcule algumas probabilidades com base em dados do passado.

    Por exemplo, quantas vezes Equipe X perdeu jogos? Quantas vezes Equipe X ganhou jogos? Por exemplo, imagine se Equipe X ganhou 6 jogos fora de dez jogos no total. Em seguida, Equipa x ganhou 60 por cento do tempo. Em outras palavras, a probabilidade de ganhar para Team X é de 60 por cento.

  2. Calcular a probabilidade de uma perda, e, em seguida, a probabilidade de um laço, do mesmo modo.

  3. Use o Na Nº 239-VE equação de probabilidade de Bayes para calcular probabilidades como os seguintes:

    image2.jpg
  4. A probabilidade de que Equipe X vai ganhar, dado que o Team X perdeu o último jogo.

  5. A probabilidade de que Equipe X vai perder, uma vez que o Team X ganhou o último jogo.

  6. Calcular as probabilidades para cada estado (vitória, perda ou empate).

  7. Assumindo que o time joga apenas um jogo por dia, as probabilidades são as seguintes:

  8. P (Win | Loss) é a probabilidade de que o Team X vai ganhar hoje, uma vez que perdeu ontem.

  9. P (Win | Tie) é a probabilidade de que o Team X vai ganhar hoje, uma vez que empatou ontem.

  10. P (Win | Win) é a probabilidade de que o Team X vai ganhar hoje, uma vez que ganhou ontem.

  11. Usando as probabilidades calculadas, criar um gráfico.

    Um círculo neste gráfico representa um possível estado que o Team X poderia atingir a qualquer momento (vitória, perda, empate) - os números sobre as setas representam as probabilidades de que o Team X poderia passar de um estado para outro.

    image3.jpg

Por exemplo, se Equipe X acaba de ganhar o jogo de hoje (seu estado atual = win), a probabilidade de que a equipe vai ganhar de novo é de 60 percentual a probabilidade de que eles vão perder o próximo jogo é de 20 por cento (em cujo caso eles d mudar de estado atual = vencer para futuro estado = perda).

Suponha que você quer saber as chances que o Team X vai ganhar dois jogos seguidos e perder o terceiro. Como você pode imaginar, isso não é uma previsão simples de fazer.

No entanto, usando o gráfico recém-criado ea suposição Markov, você pode facilmente prever as chances de tal evento ocorrer. Você começa com o estado vitória, percorre o estado vitória novamente, e gravar 60 percentual, em seguida, você se move para o estado de perda e gravar 20 por cento.

As chances de que Equipe X vai ganhar duas vezes e perder o terceiro jogo tornam-se simples para calcular: 60 por cento vezes 60 por cento vezes 20 por cento, que é 60 por cento * 60 por cento * 20 por cento, o que equivale a 72 por cento.

Então, quais são as chances de que Equipe X vai ganhar, em seguida, amarrar, e, em seguida, perdem duas vezes depois disso? A resposta é de 20 por cento (passando de estado vitória para amarrar estado) vezes 20 por cento (passando de empate a perda), vezes 35 por cento (passando de perda de perda) vezes 35 por cento (passando de perda de perda). O resultado é 49 por cento.

menu