Alta Multicolinearidade e Seu Modelo Econométrica
Alto multicolinariedade resultados a partir de uma relação linear entre as variáveis independentes com um elevado grau de correlação, mas não são completamente determinista (em outras palavras, eles não têm correlação perfeita). É muito mais comum do que sua contraparte perfeita e pode ser igualmente problemático quando se trata de estimar um modelo econométrico.
Pode descrever uma relação aproximadamente linear, que caracteriza alta multicolinearidade, como segue:
onde o xs são variáveis independentes em um modelo de regressão e você representa um termo de erro aleatório (o qual é o componente que diferencia a partir de alta multicolinearidade perfeita multicollinearity). Portanto, a diferença entre multicolinearidade perfeita e alta é que alguma variação na variável independente não é explicada pela variação da outra variável independente (s).
Quanto mais forte a relação entre as variáveis independentes, o mais provável você está a ter problemas de estimação com o seu modelo.
relações lineares fortes, resultando em alta multicolinearidade, por vezes, pode pegá-lo de surpresa, mas estas três situações tendem a ser particularmente problemático:
Você usa variáveis que são valores de uma outra defasados. Por exemplo, uma variável independente é a renda de um indivíduo no ano em curso, e outra variável independente mede o rendimento de um indivíduo no ano anterior. Estes valores podem ser completamente diferentes para algumas observações, mas para a maioria das observações as duas estão estreitamente relacionadas.
Você usa variáveis que compartilham um componente de tendência de tempo comum. Por exemplo, você usar os valores anuais para o PIB (Produto Interno Bruto) eo DJIA (Dow Jones Industrial Average) como variáveis independentes em um modelo de regressão. O valor para estas medições tende a aumentar (a diminuições ocasionais) e geralmente se movem na mesma direcção ao longo do tempo.
Você usa variáveis que captam fenômenos semelhantes. Por exemplo, as variáveis independentes para explicar o crime nas cidades pode ser as taxas de desemprego, renda média, e as taxas de pobreza. Estas variáveis não são susceptíveis de ser perfeitamente correlacionados, mas provavelmente eles estão altamente correlacionados.
Tecnicamente, a presença de alta multicolinearidade não viola quaisquer suposições CLRM. Consequentemente, as estimativas MQO podem ser obtidas e são azuis (melhores estimadores lineares) com alta multicolinearidade.
Embora MQO estimadores permanecem azuis na presença de alta multicolinearidade, reforça a desejável amostragem repetida propriedade. Na prática, você provavelmente não tem uma oportunidade de utilizar várias amostras, assim que você quer qualquer amostra dada para produzir resultados sensíveis e confiáveis.
Com alta multicolinearidade, o OLS ainda estimativas têm a menor variância, mas menor é um conceito relativo e não garante que os desvios são realmente pequena. Na verdade, os desvios maiores (e erros padrão) dos estimadores de MQO são a principal razão para evitar alta multicolinearidade.
As consequências típicas de alta multicolinearidade incluem o seguinte:
Maiores erros padrão e insignificante t-estatísticas: A variância estimada de um coeficiente de regressão múltipla é
Onde
é o erro quadrado médio (MSE) e
é o valor quadrado-R a partir da regressão xk no outro xs. Maiores resultados multicolinearidade em uma maior
o que aumenta o erro padrão do coeficiente. A figura ilustra o efeito de multicolinearidade na variância (ou o erro padrão) de um coeficiente.
Porque o t-estatística associada com um coeficiente é a relação entre o coeficiente de estimativa do erro padrão
alta multicolinearidade também tende a resultar em insignificante t-estatísticas.
estimativas dos coeficientes que são sensíveis a mudanças nas especificações: Se as variáveis independentes são altamente colineares, deve salientar as estimativas pequenas diferenças nas variáveis de modo a atribuir um efeito independente para cada um deles. Adicionando ou removendo as variáveis do modelo pode mudar a natureza das pequenas diferenças e alterar drasticamente suas estimativas dos coeficientes. Em outras palavras, os seus resultados não são robustos.
sinais de coeficiente absurdas e magnitudes: Com maior multicolinearidade, a variação dos coeficientes estimados aumenta, o que por sua vez aumenta as chances de obtenção de estimativas dos coeficientes com valores extremos. Consequentemente, essas estimativas podem ter incrivelmente grandes magnitudes e / ou sinais que contrariam a relação esperada entre as variáveis independentes e dependentes. A figura ilustra como a distribuição amostral dos coeficientes estimados é afetado por multicolinearidade.
Quando duas (ou mais) variáveis apresentam alta multicolinearidade, não há mais incerteza sobre quais variável deve ser creditado com explicar a variação na variável dependente. Por esta razão, um elevado R-valor ao quadrado combinado com muitos coeficientes estatisticamente insignificantes é uma conseqüência comum de alta multicolinearidade.