Prezados,
Estou desengavetando neste
momento um trabalho em que comecei a mexer alguns anos atrás sobre distribuições
de Poisson, consistindo basicamente no seguinte: dadas duas variáveis aleatórias
independentes X e Y com distribuições de Poisson com médias lambda_x e
lambda_y, definimos as probabilidades
P(+) = P(X
> Y)
P(=) = P(X =
Y)
P(-) = P(X
< Y)
Obviamente, dados os valores
lambda_x e lambda_y, o vetor (P(+), P(=), P(-)) é único e pode ser calculado com
a precisão que quisermos através de diversas formas de aproximação, como por
exemplo a Distribuição de Skellam.
Minha dúvida está sobre
a recíproca dessa afirmação. Em seu artigo "Index bettings on sports" (The
Statistician 43 (2), 309-315), de 1994, David Jackson afirma:
"Obviously, for a Poisson process, knowledge of the
parameters will uniquely determine the probabilities PA = P(A wins), PB =
P(B wins) and PT = P(tie). It is also true that, when the underlying
process is Poisson, the probabilities uniquely determines the parameters lA and
lB."
Ou seja, de acordo com essa
afirmação, os parâmetros lambda_x e lambda_y determinam, sim, unicamente o vetor
(P(+), P(=) e P(-)), mas o artigo do David Jackson não fornece nenhuma
informação ou referência sobre a demonstração dessa unicidade.
Eu até comecei a rascunhar algo
nesse sentido mas não consegui chegar a nenhum resultado consistente e
estruturado, com pé e cabeça, começo, meio e fim.
Assim, agradeço aos colegas que
puderem indicar referências (artigos, livros, sites, whatever) que
contenham essa demonstração de unicidade e/ou algum método para obter os valores
de lambda_x e lambda_y em função do vetor (P(*), P(=), P(-)).
Muito obrigado desde já por qualquer
ajuda,
Marcelo
|