Mesmo assim acho que a influencia de Fisher foi muito grande. Entre os Bayesianos vindos de Berkeley principalmente. Acho que a ida de Basu para os EUA teve grande importancia nisso (Carlinhos pode falar sobre isso como observador ) A propria transformacao de Basu em Bayesiano passa por seu interesse em Inferencia Verossimilhanca (dois artigos longos no Int Stat Review e nas conferencias sobre Fundamentos da Inferencia em Waterloo e Aahus ) Pude verificar esse interesse (inicio dos anos 70) pois nesta epoca Basu estava constantemente na Inglaterra (Manchester) e assisti palestras sobre reducao dos dados :invariancia-suficiencia X suficiencia-invariancia , ele queria fazer isso direto. Basu conta nos anais destas conferencias suas discussoes com Fisher. Mas por um tempo acho que foi adepto de Inferencia Verossimilhanca (ultimo livro do Fisher)Em seguida virou Bayesiano e tinha admiradores em Berkeley onde estudaram Heleno, Sergio ,Telba etc Mesmo os Bayesianos oriundos de Warwick de alguma forma discipulos de Harrison e netos de Lindley que ensinava em Cambridge que como se sabe tinha o famoso Diploma em Estatistica origem da maioria dos estatisticos famosos ingleses. La ensinaram Yates, Bartlett, Finney, Maurice Kendall, Daniels, Cochran, Barnard, Cedric Smith and Armitage E mais tarde Lindley e Cox. Conversey com alguns alunos do Diploma ( Incluindo o nosso Prof Memoria de Brasilia)e todos confessaram ir as aulas de Fisher a de Jeffreys que eram professores de outros departamentos. Os oriundos do Imperial College, como eu, tambem ou melhor principalmente, foram influenciados por Fisher . David Cox sem duvida e um Fisheriano , e todo nosso trabalho foi influenciado por suas ideias na epoca que eramos estudantes. Na minha epoca o interesse era Inferencia Verossimilhanca (Edwards,Kalbfleish) , Estrutural (Fraser), Pivotal (Barnard). Em seguida na epoca do Gauss , Ortogonalidade , Teoria Assintotica , tensores ,geometria diferencial etc. que era o interesse de Cox na epoca (ver livros e artigos com Barndorf Nielsen e Reid ) Agora sem duvida pelo menos para mim que sou mais ligado a aplicacoes de resultados recentes gostaria de ter noticias de quem dentro da comunidade estatistica que trabalha com Redes Neurais, Support Vector Machine, Survival Tree, Boosting , Randon Foresty, Independent Component Analysis, Positive Matrix Decomposition, Estimation:Loess,Dantzig etc
Saudacoes Likelihoodianas BasilioCarlos Alberto de Braganca Pereira Escreveu:
Eu não tenho a precisão histórica do mestre Gauss. Mas vou contar o que acho que ouvi fazem muitos anos. Dizem que Fisher escreveu o primeiro paper sobre a estimativa de Maxima verossimilhança. Enviou para publicação na revista que o Pearson era editor (não sei se falamos do mesmo Karl Pearson). O artigo foi rejeitado pois não havia com julgar a estimativa e era preciso colocar uma distribuição de probabilidades na estatística. Então o Fisher escreveu sobre as distribuições amostrais que tanto perturbam nós os Bayesianos. Parece que mesmo assim oartigo foi rejeitado e ai foi enviado para outra revista. Parece que a primeira versão foi em torno de 1906 e a publicada foi la para 1920.Posso estar totalmente errado mas certamente o mestre Gauss irá colocar tudo em pratos limpos. Voltando a nosso velho assunto, a função que leva o ponto amostral a sua função de verossimilhança é uma estatística suficiente minima. Assim o gráfico daverossimilhança seria tudo que você precisa para uma boa inferência.As informações relevante do gráfico estão justamente na relação entre os pontos paramétricos. Assim todas as verossimilhanças proporcionais tem o mesmo formato e as mesmas relações entre pontos. Esses gráficos proporcionais deveriam produzir a mesma inferência. Este é o principio da verossimilhança! Com isto a gente mostra que a estatística preferida do mestre Gauss, -2lambda não viola o principio da verossimilhança. Mude as regras de parada e a inferência não se altera para o ponto amostral com mesma verossimilhança. Por exemplo (x,y) = (300,700) = (sucesso,fracasso) tem de produzir a mesma inferência tendo sido uma observação de uma binomial ou de uma binomial negativa. Esta, é claro, é também uma propriedade da estimativa de MáximaVerossimilhança (não de sua distribuição amostral).Outro bom exemplo é a regressão logística quando usamos as estimativas de MV e aestatística de Wilks.Dizia o meu mestre Basu que Fisher iniciou sua vida pensando como Bayes e terminou da mesma forma com seu livro de 1956. No meio ele pensou coisascomplicadas. Acho que já falei demais para iniciarmos nossas discussões.Saudações indutivas. CarlinhosCarlos Alberto de Braganca Pereira <cpereira@ime.usp.br>
Basilio de Bragança Pereira *Titular Professor of Bioestatistics and of Applied Statistics *FM-Faculty of Medicine and COPPE-Posgraduate School of Engineering and HUCFF-University Hospital Clementino Fraga Filho. *UFRJ-Federal University of Rio de Janeiro *Tel: (55 21) 2562-2594 or /2558/7045www.po.ufrj.br/basilio/
*MailAddress: COPPE/UFRJ Caixa Postal 68507 CEP 21941-972 Rio de Janeiro,RJ Brasil