Prezados,
Estou desengavetando
neste momento um trabalho em que comecei a mexer alguns
anos atrás sobre distribuições de Poisson, consistindo
basicamente no seguinte: dadas duas variáveis aleatórias
independentes X e Y com distribuições de Poisson com
médias lambda_x e lambda_y, definimos as probabilidades
P(+) = P(X > Y)
P(=) = P(X = Y)
P(-) = P(X < Y)
Obviamente, dados os
valores lambda_x e lambda_y, o vetor (P(+), P(=), P(-))
é único e pode ser calculado com a precisão que
quisermos através de diversas formas de aproximação,
como por exemplo a Distribuição de Skellam.
Minha dúvida está sobre
a recíproca dessa afirmação. Em seu artigo "Index
bettings on sports" (The Statistician 43 (2), 309-315),
de 1994, David Jackson afirma:
"Obviously, for a Poisson process,
knowledge of the parameters will uniquely determine
the probabilities PA = P(A wins), PB = P(B wins) and
PT = P(tie). It is also true that, when the
underlying process is Poisson, the probabilities
uniquely determines the parameters lA and lB."
Ou seja, de acordo com
essa afirmação, o vetor (P(+), P(=),
P(-)) determina, sim, unicamente, os valores de
lambda_x e lambda_y, mas o artigo do David
Jackson não fornece nenhuma informação ou referência
sobre a demonstração dessa unicidade.
Eu até comecei a
rascunhar algo nesse sentido mas não consegui chegar a
nenhum resultado consistente e estruturado, com pé e
cabeça, começo, meio e fim.
Assim, agradeço aos
colegas que puderem indicar referências (artigos,
livros, sites, whatever) que contenham essa demonstração
de unicidade e/ou algum método para obter os valores de
lambda_x e lambda_y em função do vetor (P(+), P(=),
P(-)).
Muito obrigado desde já por
qualquer ajuda,
Marcelo