[Prévia] [Próxima] [Prévia por assunto] [Próxima por assunto]
[Índice cronológico] [Índice de assunto]

Mais : um pouco de conversa boa



Tambem posso estar errado , mas um pouco de conjecturas talves tire algumas duvidas: É interessante perceber que o Brasil talves seja o pais com maior percentagem de Bayesianos entre os estatisticos.
Mesmo assim acho que a influencia de Fisher foi muito grande. Entre os Bay
esianos vindos de Berkeley principalmente. Acho que a ida de Basu para os EUA teve grande importancia nisso (Carlinhos pode falar sobre isso como observador ) A propria transformacao de Basu em Bayesiano passa por seu interesse em Inferencia Verossimilhanca (dois artigos longos no Int Stat Review e nas conferencias sobre Fundamentos da Inferencia em Waterloo e Aahus ) Pude verificar esse interesse (inicio dos anos 70) pois nesta epoca Basu estava constantemente na Inglaterra (Manchester) e assisti palestras sobre reducao dos dados :invariancia-suficiencia X suficiencia-invariancia , ele queria fazer isso direto. Basu conta nos anais destas conferencias suas discussoes com Fisher. Mas por um tempo acho que foi adepto de Inferencia Verossimilhanca (ultimo livro do Fisher)Em seguida virou Bayesiano e tinha admiradores em Berkeley onde estudaram Heleno, Sergio ,Telba etc Mesmo os Bayesianos oriundos de Warwick de alguma forma discipulos de Harrison e netos de Lindley que ensinava em Cambridge que como se sabe tinha o famoso Diploma em Estatistica origem da maioria dos estatisticos famosos ingleses. La ensinaram Yates, Bartlett, Finney, Maurice Kendall, Daniels, Cochran, Barnard, Cedric Smith and Armitage E mais tarde Lindley e Cox. Conversey com alguns alunos do Diploma ( Incluindo o nosso Prof Memoria de Brasilia)e todos confessaram ir as aulas de Fisher a de Jeffreys que eram professores de outros departamentos. Os oriundos do Imperial College, como eu, tambem ou melhor principalmente, foram influenciados por Fisher . David Cox sem duvida e um Fisheriano , e todo nosso trabalho foi influenciado por suas ideias na epoca que eramos estudantes. Na minha epoca o interesse era Inferencia Verossimilhanca (Edwards,Kalbfleish) , Estrutural (Fraser), Pivotal (Barnard). Em seguida na epoca do Gauss , Ortogonalidade , Teoria Assintotica , tensores ,geometria diferencial etc. que era o interesse de Cox na epoca (ver livros e artigos com Barndorf Nielsen e Reid ) Agora sem duvida pelo menos para mim que sou mais ligado a aplicacoes de resultados recentes gostaria de ter noticias de quem dentro da comunidade estatistica que trabalha com Redes Neurais, Support Vector Machine, Survival Tree, Boosting , Randon Foresty, Independent Component Analysis, Positive Matrix Decomposition, Estimation:Loess,Dantzig etc
Saudacoes Likelihoodianas
Basilio



Carlos Alberto de Braganca Pereira Escreveu:
Eu não tenho a precisão histórica do mestre Gauss.
Mas vou contar o que acho que ouvi fazem muitos anos.
Dizem que Fisher escreveu o primeiro paper sobre a estimativa de Maxima
verossimilhança.  Enviou para publicação na revista que o Pearson era editor
(não sei se falamos do mesmo Karl Pearson).  O artigo foi rejeitado pois não
havia com julgar a estimativa e era preciso colocar uma distribuição de
probabilidades na estatística.  Então o Fisher escreveu sobre as distribuições
amostrais que tanto perturbam nós os Bayesianos.  Parece que mesmo assim o
artigo foi rejeitado e ai foi enviado para outra revista. Parece que a primeira versão foi em torno de 1906 e a publicada foi la para 1920.
Posso estar totalmente errado mas certamente o mestre Gauss irá colocar tudo em
pratos limpos.
Voltando a nosso velho assunto, a função que leva o ponto amostral a sua função
de verossimilhança é uma estatística suficiente minima.  Assim o gráfico da
verossimilhança seria tudo que você precisa para uma boa inferência.
As informações relevante do gráfico estão justamente na relação entre os pontos
paramétricos.  Assim todas as verossimilhanças proporcionais tem o mesmo formato
e as mesmas relações entre pontos.  Esses gráficos proporcionais deveriam
produzir a mesma inferência.  Este é o principio da verossimilhança!
Com isto a gente mostra que a estatística preferida do mestre Gauss, -2lambda
não viola o principio da verossimilhança.  Mude as regras de parada e a
inferência não se altera para o ponto amostral com mesma verossimilhança.  Por
exemplo (x,y) = (300,700) = (sucesso,fracasso) tem de produzir a mesma
inferência tendo sido uma observação de uma binomial ou de uma binomial
negativa.  Esta, é claro, é também uma propriedade da estimativa de Máxima
Verossimilhança (não de sua distribuição amostral).
Outro bom exemplo é a regressão logística quando usamos as estimativas de MV e a
estatística de Wilks.
Dizia o meu mestre Basu que Fisher iniciou sua vida pensando como Bayes e
terminou da mesma forma com seu livro de 1956.  No meio ele pensou coisas
complicadas. Acho que já falei demais para iniciarmos nossas discussões.
Saudações indutivas.
Carlinhos
Carlos Alberto de Braganca Pereira <cpereira@ime.usp.br>



Basilio de Bragança Pereira
*Titular Professor of  Bioestatistics and of Applied Statistics
*FM-Faculty of Medicine and COPPE-Posgraduate School of Engineering and
HUCFF-University Hospital Clementino Fraga Filho.
*UFRJ-Federal University of Rio de Janeiro
*Tel: (55 21) 2562-2594 or /2558/7045
www.po.ufrj.br/basilio/
*MailAddress:
COPPE/UFRJ
Caixa Postal 68507
CEP 21941-972 Rio de Janeiro,RJ
Brasil