quarta-feira, setembro 30, 2009
No Imecc hoje trabalhando na revisão de alguns artigos, e acertando os detalhes para marcar a defesa da tese. Aos poucos chegando lá.
segunda-feira, setembro 28, 2009
David Blackwell
Na leitura do fascinante livro Reminiscences of a Statistician- The Company I Kept do Erich Lehmann, estou encontrando inúmeras passagens interessantes. Uma delas é uma citação do David Blackwell:
"I'm not interested in doing research and I never been", he has said, and then amplified with, "I'm interested in understanding, which is quite a different thing".
O mais interessante é que Blackwell foi um pesquisador com contribuições fundamentais em estatística, probabilidade, teoria dos jogos, programação dinâmica e teoria da informação.
"I'm not interested in doing research and I never been", he has said, and then amplified with, "I'm interested in understanding, which is quite a different thing".
O mais interessante é que Blackwell foi um pesquisador com contribuições fundamentais em estatística, probabilidade, teoria dos jogos, programação dinâmica e teoria da informação.
sábado, setembro 26, 2009
Novas Aquisições - Reminiscences of a Statistician
Reminiscences of a Statistician- The Company I Kept. Erich Lehmann.
Uma autobiografia de Eric Lehmann, mas além disso uma história do departamento de Estatística de Berkeley e da Estatística em geral, contada de um forma diferente, através do contado de Lehmann com as pessoas mais importantes desse área. Leitura recomendada.
sexta-feira, setembro 25, 2009
Largada
Submeti hoje o artigo que estava revisando. Era um artigo mais antigo que estava parado, mas acho que tem uma idéia interessante. Veremos.
Teacher
To be a teacher does not mean simply to affirm that such a thing is so, or to deliver a lecture, etc. No, to be a teacher in the right sense is to be a learner. Instruction begins when you, the teacher, learn from the learner, put yourself in his place so that you may understand what he understands and the way he understands it.
Søren Kierkegaard.
Søren Kierkegaard.
quinta-feira, setembro 24, 2009
Mais um pouco
Mais uma revisada no texto e submeto mais um dos artigos que estavam parados. Estava travado com o texto desse artigo, mas acho que agora achei um formato razoável. Pelo menos tiro ele da minha consciência. Por enquanto.
quarta-feira, setembro 23, 2009
Free.
Poor and free rather than rich and enslaved. Of course, men want to be both rich and free, and this is what leads them at times to be poor and enslaved.
Notebooks, Albert Camus.
Notebooks, Albert Camus.
terça-feira, setembro 22, 2009
Leitura do Dia - Nonlinear Principal Components
Principal Components and Long Run Implications of Multivariate Diffusions
Xiaohong ChenLars Peter Hansen
José Alexandre Scheinkman
We investigate a method for extracting nonlinear principal components. These principal components maximize variation subject to smoothness and orthogonality constraints; but we allow for a general class of constraints and multivariate densities, including densities without compact support and even densities with algebraic tails. We provide primitive sufficient conditions for the existence of these principal components. We characterize the limiting behavior of the associated eigenvalues, the objects used to quantify the incremental importance of the principal components. By exploiting the theory of continuous-time, reversible Markov processes, we give a different interpretation of the principal components and the smoothness constraints. When the diffusion matrix is used to enforce smoothness, the principal components maximize long-run variation relative to the overall variation subject to orthogonality constraints. Moreover, the principal components behave as scalar autoregressions with heteroskedastic innovations; this supports semiparametric identification of a multivariate reversible diffusion process and tests of the overidentifying restrictions implied by such a process from low frequency data. We also explore implications for stationary, possibly non-reversible diffusion processes.
segunda-feira, setembro 21, 2009
Trabalho duro
Mais um artigo submetido hoje. Foi o artigo que eu mais trabalhei até hoje, e espero que tenha ficado bom. Até agora foi um dos que eu mais gostei do resultado. Veremos se os pareceristas tem a mesma opinião.
domingo, setembro 20, 2009
Lei antifumo
Chega a ser impressionante a aceitação que a lei antifumo teve aqui em São Paulo. Em todos os lugares que fui desde a validade da lei nunca vi ninguém tentando fumar ou mesmo reclamando da lei. Ótimo. Em alguns lugares era necessário queimar a roupa que você estava usando por causa do cheiro de cigarro.
O ultimate test foi feito ontem. Fui assistir uma série de shows na Outs, que fica na baixa Augusta, e digamos que não é uma região das mais conservadoras. E lá foi colocado um sistema de impressão digital para controlar a consumação e permite que fumantes saiam por no máximo 10 minutos para ir a rua, e pelo que vi funciona perfeitamente.
O ultimate test foi feito ontem. Fui assistir uma série de shows na Outs, que fica na baixa Augusta, e digamos que não é uma região das mais conservadoras. E lá foi colocado um sistema de impressão digital para controlar a consumação e permite que fumantes saiam por no máximo 10 minutos para ir a rua, e pelo que vi funciona perfeitamente.
Pluralismo
Meu nobre amigo Shikida coloca um link sobre o chamado pluralismo. Essa palavra tem o mesmo significado de eclético para mim. Por exemplo quando se pergunta para alguém que tipo de música ela gosta e ele responde -
"Ah, eu sou eclético, gosto de tudo".
Isso na verdade significa:
"Não entendo absolutamente nada de música, então só repito de forma conveniente o gosto das demais pessoas".
"Ah, eu sou eclético, gosto de tudo".
Isso na verdade significa:
"Não entendo absolutamente nada de música, então só repito de forma conveniente o gosto das demais pessoas".
sábado, setembro 19, 2009
Pena de morte
Na academia hoje cedo ouço pelo rádio uma versão dance de I Walk the Line do Johnny Cash. Não respeitam nada. Pena de morte nem sempre é uma má idéia.
sexta-feira, setembro 18, 2009
Novas Aquisições - Aleatoriedade e a vida.
O Andar do Bêbado. Como o acaso determina nossas vidas. Leonard Mlodinov.
Não conhecia o livro, mas dei uma olhada no Índice. E lá estavam Brownian Motion, Bayes, Laplace, Monte Carlo, CLT. E até aonde li era um livro muito interessante, e repleto de referências sobre cada assunto.
Como sempre escrevi por aqui, sempre achei que o acaso fosse a melhor parte de toda a vida. As pessoas que mais admiro sempre conheci nas formas e lugares mais inesperados. Os melhores momentos da minha vida aconteceram de forma inesperada, e muitos deles depois de eventos péssimos. Felizmente Deus joga dados, muitas vezes dados viciados.
Não é surpreendente que eu ache que a construção matemática mais bela de todas seja a teoria do Movimento Browniano. Brown achava que tinha encontrado a essência da vida ao observar uma realização do movimento browniano. Acho que ele estava certo.
Quase
Terminei as ultimas simulações, e agora só falta o texto nos últimos artigos da tese. Com isso acho que na semana que vem submeto mais dois. Um pouco de paz.
quinta-feira, setembro 17, 2009
quarta-feira, setembro 16, 2009
Every step of the way
Um artigo submetido hoje, e amanhã mando mais um. O que gostaria mesmo agora seriam umas 14 horas de sono.
Frase do dia
It is always pitiful when any human being falls into a condition hardly more respectable than that of an animal. How much more pitiful it is when the person who falls has had all the advantages!
Kurt Vonnegut, in The Sirens of Titan (uma obra prima da humanidade, de passagem).
Falando de Vonnegut, vi em uma livraria que foi lançada uma tradução de Armageddon in Retrospect aqui. Belo livro, quase comprei a tradução mesmo tendo o original. Eis um cara que fazia esse mundo um pouco menos pior.
Kurt Vonnegut, in The Sirens of Titan (uma obra prima da humanidade, de passagem).
Falando de Vonnegut, vi em uma livraria que foi lançada uma tradução de Armageddon in Retrospect aqui. Belo livro, quase comprei a tradução mesmo tendo o original. Eis um cara que fazia esse mundo um pouco menos pior.
terça-feira, setembro 15, 2009
Mais um passo
Um monte de pequenos problemas resolvidos, e consegui colocar todas as estimações restantes da revisão de um artigo para rodar. Caso não dê problema até sexta deve estar tudo pronto. Como só consigo provar consistência do estimador, o resto sai por monte carlo.
segunda-feira, setembro 14, 2009
Leitura do dia - Indirect Inference e DSGE Models
Como comentei abaixo com o Anderson, acho que um paper muito importante e pouco explorado na literatura de DSGE é o artigo abaixo:
Indirect Inference and Calibration od Dynamic Stochastic General Equilibrium Models.
Randam Dridi, Alain Guay e Eric Renault
Indirect Inference and Calibration od Dynamic Stochastic General Equilibrium Models.
Randam Dridi, Alain Guay e Eric Renault
Artigo aceito para publicação
Excelente notícia hoje pela manhã - o artigo - EXCHANGE RATE MOVEMENTS AND MONETARY POLICY IN BRAZIL: ECONOMETRIC AND SIMULATION EVIDENCE, Luiz Gustavo Cassilati Furlani, Marcelo Portugal e Márcio Laurini foi aceito para publicação no Economic Modelling.
domingo, setembro 13, 2009
Ganhos de eficiência - explicando o milagre
Mais detalhes de como consegui essa redução de tempo. O estimador que eu estou utilizando é um estimador baseado em simulação, e a idéia básica é substituir uma verossimilhança que não existe de forma analítica (no meu caso ela tem dimensão infinita) por aproximações baseadas em simulações. No meu problema isso era uma das dificuldades, já que existe um parâmetro que define cada trajetória de choques simuladas. Em problemas usuais de inferência indireta isso não é um problema já que as trajetórias são fixas dentro de cada iteração do método.
O problema é que cada trajetória de choques era relativamente demorada, já que é baseada em uma decomposição por wavelets para cada parâmetro. O que fiz para otimizar esse passo não foi gerar cada trajetória on the fly e gerar uma mega matriz com um número grande trajetórias simuladas para um grid fino de valores desse parâmetro, consistentes com a precisão na estimação. Essa matriz era carregada na memória, e assim pode ser acessada rapidamente.
O segundo passo foi mudar a rotina de otimização. Eu tinha um problema com 3 restrições de intervalo e uma restrição de desigualdade. Para isso precisava de um algoritmo de minimização com restrições, e eu estava usando diretamente um desses, e eles são intensivos em cálculo para cada iteração. O que fiz foi reescrever a função objetivo colocando diretamente as restrições através de tranformações de parâmetros, e assim consegui utilizar um algoritmo de otimização mais simples e muito mais rápido, usando uma variação do algoritmo de Nelder-Mead que é mais robusto.
Mas acho que dá para otimizar mais um pouco.
O problema é que cada trajetória de choques era relativamente demorada, já que é baseada em uma decomposição por wavelets para cada parâmetro. O que fiz para otimizar esse passo não foi gerar cada trajetória on the fly e gerar uma mega matriz com um número grande trajetórias simuladas para um grid fino de valores desse parâmetro, consistentes com a precisão na estimação. Essa matriz era carregada na memória, e assim pode ser acessada rapidamente.
O segundo passo foi mudar a rotina de otimização. Eu tinha um problema com 3 restrições de intervalo e uma restrição de desigualdade. Para isso precisava de um algoritmo de minimização com restrições, e eu estava usando diretamente um desses, e eles são intensivos em cálculo para cada iteração. O que fiz foi reescrever a função objetivo colocando diretamente as restrições através de tranformações de parâmetros, e assim consegui utilizar um algoritmo de otimização mais simples e muito mais rápido, usando uma variação do algoritmo de Nelder-Mead que é mais robusto.
Mas acho que dá para otimizar mais um pouco.
sexta-feira, setembro 11, 2009
Ganho de eficiência
Consegui otimizar o meu estimador que demorava 3 dias para cada estimação. Agora está demorando uns 2 minutos para cada estimação, e assim já coloquei o monte carlo para rodar. Mais um artigo de volta ao jogo.
Sobre o artigo do Krugman
Eu li o artigo do Krugman sobre o estado da macroeconomia uns 3 dias atrás, e ele realmente me incomodou muito. O que pensei na hora foi que o Krugman escreveu um artigo que poderia ter sido escrito pelos piores professores do IE-Unicamp. Fiquei chocado com a quantidade de erros básicos nesse artigo, iniciando com uma compreensão absolutamente errada da idéia de mercados eficientes. A hipótese de mercados eficientes do Fama só assegura que toda a informação disponível está contida nos preços, e não diz nada que os preços estejam corretos em cada instante do tempo. Ela pode ser equivalente a um conceito de não-arbitragem, que é um conceito de precificação relativa e não precificação absoluta, e assim ela não diz diretamente nada sobre o "valor" correto dos ativos. Outras visões equivocadas sobre macroeconomia estão em todo o texto.
O John Cochrane, que é um dos maiores especialistas nas relações entre macroeconomia e finanças, dá uma resposta adequada e estes erros conceituais básicos do Krugman. Finalmente.
Dica do Gustibus, como sempre.
O John Cochrane, que é um dos maiores especialistas nas relações entre macroeconomia e finanças, dá uma resposta adequada e estes erros conceituais básicos do Krugman. Finalmente.
Dica do Gustibus, como sempre.
quinta-feira, setembro 10, 2009
Tempo, tempo
Em um dos artigos que eu estou revisando eu proponho um estimador baseado em simulação em uma situação aonde não existe uma verossimilhança de dimensão finita. Apesar de conseguir mostrar a consistência deste estimador, seria ótimo verificar as propriedades dele em amostras finitas. Como não dá para fazer nada analítico, é por monte carlo a única forma. O problema é que cada estimação demora uns 3 dias. Estou tentando otimizar o estimador para funcionar em um tempo razoável. Já consegui uma boa redução, mas ainda é pouco prático. O problema envolve para cada passo de otimização uma sequência de otimizações e simulações. Consegui otimizar as simulações, mas as otimizações ainda estão longe do ideal.
terça-feira, setembro 08, 2009
E a vida acadêmica segue ...
Hoje recebi um resultado de uma revisão de artigo que estava parada a um bom tempo. O artigo foi rejeitado. Mas algumas coisas engraçadas - pelo que percebi o artigo passou por 4 ou 5 pareceristas diferentes, três na primeira etapa e mais um ou dois novos na segunda. Na primeira etapa um pediu aprovação direta, e dois uma série de mudanças, mas nada de muito substancial. Na hora que chegaram os primeiros pareceres, algumas sugestões boas e algumas sem sentido. De qualquer forma fizemos todas as modificações pedidas. E em uma mensagem anterior a co-editora disse que os pareceristas haviam reconhecido que o artigo havia melhorado. Mas a parte engraçada é que nessa nova rodada cada (novo) parecerista implicou muito com as mudanças pedidas pelo outro. O artigo era sobre interpolação de curvas de juros, e quem já trabalhou um pouco com o assunto sabe que não existe um mínimo consendo de como trabalhar com esse problema. Como um sintoma desse problema, alguns dos artigos mais importantes dá área não foram publicados, como por exemplo o artigo que introduziu a técnica de smoothing splines nessas aplicações. Como nosso artigo era colocar algumas restrições de não-arbitragem sobre essa técnica, sempre achei que seria bastante complicado publicar esse artigo.
O artigo original foi submetido há uns 2 anos, e eu mesmo reconheço que hoje, depois de estudar mais o assunto, ele poderia ser melhorado, então não fico nem um pouco chateado com esse resultado, e em mais de uma dimensão acho que até foi um bom resultado. Como bom estudante de finanças aprendi a não apostar tudo em um único ativo. E de qualquer forma aprendi bastante fazendo esse artigo, então de qualquer forma o saldo é positivo.
O artigo original foi submetido há uns 2 anos, e eu mesmo reconheço que hoje, depois de estudar mais o assunto, ele poderia ser melhorado, então não fico nem um pouco chateado com esse resultado, e em mais de uma dimensão acho que até foi um bom resultado. Como bom estudante de finanças aprendi a não apostar tudo em um único ativo. E de qualquer forma aprendi bastante fazendo esse artigo, então de qualquer forma o saldo é positivo.
40 minutos
Sempre que eu faço apresentações dos modelos de fatores latentes, eu comento que uma das grandes vantagens do modelo básico de Diebold-Li é a simplicidade, e qualquer aluno de graduação consegue implementar o modelo completo em 30 minutos.
Hoje fiz uma experiência em sala, e os alunos montaram ele em 40 minutos. Na verdade demorou um pouco porque eu inventei de fazer uma manha no eviews para facilitar e demorou mais um pouco. Mas fizemos a versão completa e a versão restrita que está no artigo do Diebold-Li. E como fizemos em mais 10 minutos a estimação pelo filtro de Kalman que não está no artigo está valendo minha previsão.
Hoje fiz uma experiência em sala, e os alunos montaram ele em 40 minutos. Na verdade demorou um pouco porque eu inventei de fazer uma manha no eviews para facilitar e demorou mais um pouco. Mas fizemos a versão completa e a versão restrita que está no artigo do Diebold-Li. E como fizemos em mais 10 minutos a estimação pelo filtro de Kalman que não está no artigo está valendo minha previsão.
Seminário
Seminário foi legal, acho que o pessoal entendeu as idéias dos artigos. Como sempre foi corrido, mas deu para mostrar um pouco de tudo. Agora é finalizar os artigos e submeter.
segunda-feira, setembro 07, 2009
Mini maratona
Dou duas aulas pela manhã, e depois emendado seminário emendado.
O seminário sobre empirical likelihood será na sala Peter Drucker as 12:00.
O seminário sobre empirical likelihood será na sala Peter Drucker as 12:00.
Novas Aquisições - Daredevil
Demolidor - O Homem sem Medo. Frank Miller & John Romita Jr.
Em geral o desenvolvimento da ciência e arte é linear. Cada novo passo é uma combinação de tudo o que existia antes, abrindo novas perspectivas. Mas existem obras e autores que representam um salto em relação a tudo o que existia antes. Jimi Hendrix na guitarra, John Coltrane no Jazz. O equivalente a este salto em hqs foram as obras de Frank Miller, e acho que esta é sua primeira obra de impacto. Uma edição primorosa da mini-série de 1993.
domingo, setembro 06, 2009
sábado, setembro 05, 2009
3 dias de semi-descanso
Feriado em casa. Mas quero ver se aproveito para trabalhar um pouco no artigo de volatilidade estocástica. Já fiz uma parte do texto, mas ainda falta um bom pedaço. Mas encontrei uma referência muito importante para o artigo. Eu havia realizado uma série de experimentos de monte carlo com alguns conjuntos de parâmetros, estudando os métodos que propomos e alguns concorrentes. Mas nesta referência ele estuda os métodos baseados em simulação (método de momentos eficientes, simulated maximum likelihood, simulated minimum Hellinger distance, etc) com os mesmo vetores que eu usei.
A notícia boa - a técnica que propomos tem desempenho superior a todos estes métodos.
A notícia boa - a técnica que propomos tem desempenho superior a todos estes métodos.
quinta-feira, setembro 03, 2009
Bibliografia sobre empirical likelihood
Não existem muitas referências em livro texto para a teoria de empirical likelihood. Acho que as mais completas são o livro do Art Owen -Empirical Likelihood e o livro do Mittelhammer, Judge and Miller - Econometric Foundations. Este é um livro excelente - além de uma visão abrangente ele tem todos os exemplos programas em Gauss, e várias referências eletrônicas adicionais.
quarta-feira, setembro 02, 2009
Seminário sobre empirical likelihood e extensões
Na próxima terça feira (8/09) estarei dando um seminário interno aqui no Insper sobre aplicações de empirical likelihood e extensões para estimações de modelos de séries financeiras.
O seminário deve ser uma mistura do artigo "Estimação de Equações Diferenciais Estocásticas Usando Verossimilhança Empírica e Mínimo Contraste Generalizado" e o artigo que estou finalizando agora sobre estimação semiparamétrica de modelos de volatilidade estocástica. Acho que consegui resultados muito interessantes nesse artigo de volatilidade estocástica, já que os resultados da estimação por gel e gmc para estes modelos são significante melhores que as técnicas normalmente utilizadas de quasi-máxima verossimilhança e gmm, principalmente nas situações com problemas de especificação, outliers, etc. e o viés em amostras finitas é de 10 a 20 vezes menor que nas estimações por qml e gmm.
Alem disso a teoria semiparamétrica que baseia a estimação por estes métodos é uma das teorias esteticamente mais bonitas que eu já estudei.
Se alguém tiver interesse em assistir é só entrar em contato comigo.
O seminário deve ser uma mistura do artigo "Estimação de Equações Diferenciais Estocásticas Usando Verossimilhança Empírica e Mínimo Contraste Generalizado" e o artigo que estou finalizando agora sobre estimação semiparamétrica de modelos de volatilidade estocástica. Acho que consegui resultados muito interessantes nesse artigo de volatilidade estocástica, já que os resultados da estimação por gel e gmc para estes modelos são significante melhores que as técnicas normalmente utilizadas de quasi-máxima verossimilhança e gmm, principalmente nas situações com problemas de especificação, outliers, etc. e o viés em amostras finitas é de 10 a 20 vezes menor que nas estimações por qml e gmm.
Alem disso a teoria semiparamétrica que baseia a estimação por estes métodos é uma das teorias esteticamente mais bonitas que eu já estudei.
Se alguém tiver interesse em assistir é só entrar em contato comigo.