domingo, setembro 11, 2011

Samba

No Estadão:



Embora eu acredite em DSGEs como instrumentos relevantes de análise de política econômica, sou um pouco cético em relação a modelos DSGE de média-grande escala. Minha limitada experiência com estes modelos é que existem problemas importantes de identificação. Embora em teoria isso possa ser resolvido com o uso de priores informativas nestes parâmetros, na prática isso pode ser um tanto complicado. O primeiro problema é descobrir quais parâmetros não são identificados (o que fica mais complicado com a maior dimensão e complexidade do modelo). Uma regra simples é olhar para posteriores que são parecidas com as priores (e olhando os resultados existem várias posteriores nesta situação), mas esta regra pode falhar em algumas situações.
Este problema é fundamental na metodologia de estimação por Metropolis-Hastings utilizada no Dynare, que calibra o parâmetro de escala que determina a aceitação do passo de Metropolis-Hastings através de um algoritmo de Newton-Raphson para determinar a moda da função de verossimilhança em uma primeira etapa. Na presença de problemas de identificação a matriz de informação não é invertível ou numericamente próxima de não invertibilidade, o que torna este estágio pouco confiável. Isso pode resultar em uma cadeia que converge lentamente no melhor dos casos, e no pior a cadeia não cobre todo o espaço da posterior. A eficiência desse primeiro passo também depende fundamentalmente da proximidade entre a moda da prior e da posterior, o que pode ser bastante problemático caso se usem priores muito informativas.
Outro problema é que em muitos casos as soluções de equilíbrio obtidas só são confiáveis em uma vizinhança muito pequena dos parâmetros estimados. Isso fica evidente quando pequenas mudanças na especificação das priores geram problemas na solução de equilíbrio. Nesse caso muitos parâmetros são especificados com variâncias tão pequenas que são basicamente fixados a priori. Neste aspecto também existe uma crítica relevante da validade do uso destes modelos em situações de crise.
Em um modelo com um número grande de parâmetros, também seria fundamental a implementação de algum procedimento de shrinkage, eliminando parâmetros insignificantes do modelo. Procedimentos desse tipo são o principal motivo do sucesso de modelos BVAR, onde a estrutura de priores (usualmente via a prior de Litterman) usualmente impõe uma estrutura bastante eficaz em termos de previsão out-of-sample.
Outro ponto é que estes modelos são fundamentalmente modelos Bayesianos Empíricos, o que significa que as priores são efetivamente calibradas para melhorar propriedades do modelo. Embora seja um ponto filosófico que a princípio só teria importância para Bayesianos fundamentalistas, isso significa que exercícios de previsão out-of-sample tem que ser olhados com muito cuidado, já que mesmo não utilizando a parte final da amostra na construção da verossimilhança, o pesquisador pode calibrar a prior para encontrar o melhor desempenho preditivo, o que efetivamente pode ser um exemplo de data mining.
Tenho certeza que a equipe do Samba tem consciência destes problemas, e parte do longo ciclo de desenvolvimento é dado pela busca de uma especificação adequada, por exemplo fixando vários parâmetros, e o modelo final deve ser significantemente robusto, mas sempre é fundamental lembrar das limitações da sua metodologia.
Citando Antoine de Saint Exupéry - "It seems that perfection is reached not when there is nothing left to add, but when there is nothing left to take away".

1 Comments:

Anonymous Anônimo said...

Pontos muito bem destacados, bela aula!
André

2:27 PM  

Postar um comentário

<< Home