Alta Multicolinearidade e Seu Modelo Econométrica

Alto multicolinariedade resultados a partir de uma relação linear entre as variáveis ​​independentes com um elevado grau de correlação, mas não são completamente determinista (em outras palavras, eles não têm correlação perfeita). É muito mais comum do que sua contraparte perfeita e pode ser igualmente problemático quando se trata de estimar um modelo econométrico.

Pode descrever uma relação aproximadamente linear, que caracteriza alta multicolinearidade, como segue:

image0.jpg

onde o xs são variáveis ​​independentes em um modelo de regressão e você representa um termo de erro aleatório (o qual é o componente que diferencia a partir de alta multicolinearidade perfeita multicollinearity). Portanto, a diferença entre multicolinearidade perfeita e alta é que alguma variação na variável independente não é explicada pela variação da outra variável independente (s).

Quanto mais forte a relação entre as variáveis ​​independentes, o mais provável você está a ter problemas de estimação com o seu modelo.

relações lineares fortes, resultando em alta multicolinearidade, por vezes, pode pegá-lo de surpresa, mas estas três situações tendem a ser particularmente problemático:

  • Você usa variáveis ​​que são valores de uma outra defasados. Por exemplo, uma variável independente é a renda de um indivíduo no ano em curso, e outra variável independente mede o rendimento de um indivíduo no ano anterior. Estes valores podem ser completamente diferentes para algumas observações, mas para a maioria das observações as duas estão estreitamente relacionadas.

  • Você usa variáveis ​​que compartilham um componente de tendência de tempo comum. Por exemplo, você usar os valores anuais para o PIB (Produto Interno Bruto) eo DJIA (Dow Jones Industrial Average) como variáveis ​​independentes em um modelo de regressão. O valor para estas medições tende a aumentar (a diminuições ocasionais) e geralmente se movem na mesma direcção ao longo do tempo.

  • Você usa variáveis ​​que captam fenômenos semelhantes. Por exemplo, as variáveis ​​independentes para explicar o crime nas cidades pode ser as taxas de desemprego, renda média, e as taxas de pobreza. Estas variáveis ​​não são susceptíveis de ser perfeitamente correlacionados, mas provavelmente eles estão altamente correlacionados.

Tecnicamente, a presença de alta multicolinearidade não viola quaisquer suposições CLRM. Consequentemente, as estimativas MQO podem ser obtidas e são azuis (melhores estimadores lineares) com alta multicolinearidade.

Embora MQO estimadores permanecem azuis na presença de alta multicolinearidade, reforça a desejável amostragem repetida propriedade. Na prática, você provavelmente não tem uma oportunidade de utilizar várias amostras, assim que você quer qualquer amostra dada para produzir resultados sensíveis e confiáveis.

Com alta multicolinearidade, o OLS ainda estimativas têm a menor variância, mas menor é um conceito relativo e não garante que os desvios são realmente pequena. Na verdade, os desvios maiores (e erros padrão) dos estimadores de MQO são a principal razão para evitar alta multicolinearidade.

As consequências típicas de alta multicolinearidade incluem o seguinte:

  • Maiores erros padrão e insignificante t-estatísticas: A variância estimada de um coeficiente de regressão múltipla é

    image1.jpg

    Onde

    image2.jpg

    é o erro quadrado médio (MSE) e

    image3.jpg

    é o valor quadrado-R a partir da regressão xk no outro xs. Maiores resultados multicolinearidade em uma maior

    image4.jpg

    o que aumenta o erro padrão do coeficiente. A figura ilustra o efeito de multicolinearidade na variância (ou o erro padrão) de um coeficiente.

    image5.jpg

    Porque o t-estatística associada com um coeficiente é a relação entre o coeficiente de estimativa do erro padrão

    image6.jpg

    alta multicolinearidade também tende a resultar em insignificante t-estatísticas.

  • estimativas dos coeficientes que são sensíveis a mudanças nas especificações: Se as variáveis ​​independentes são altamente colineares, deve salientar as estimativas pequenas diferenças nas variáveis ​​de modo a atribuir um efeito independente para cada um deles. Adicionando ou removendo as variáveis ​​do modelo pode mudar a natureza das pequenas diferenças e alterar drasticamente suas estimativas dos coeficientes. Em outras palavras, os seus resultados não são robustos.

  • sinais de coeficiente absurdas e magnitudes: Com maior multicolinearidade, a variação dos coeficientes estimados aumenta, o que por sua vez aumenta as chances de obtenção de estimativas dos coeficientes com valores extremos. Consequentemente, essas estimativas podem ter incrivelmente grandes magnitudes e / ou sinais que contrariam a relação esperada entre as variáveis ​​independentes e dependentes. A figura ilustra como a distribuição amostral dos coeficientes estimados é afetado por multicolinearidade.

    image7.jpg

Quando duas (ou mais) variáveis ​​apresentam alta multicolinearidade, não há mais incerteza sobre quais variável deve ser creditado com explicar a variação na variável dependente. Por esta razão, um elevado R-valor ao quadrado combinado com muitos coeficientes estatisticamente insignificantes é uma conseqüência comum de alta multicolinearidade.

menu