[Prévia] [Próxima] [Prévia por assunto] [Próxima por assunto]
[Índice cronológico] [Índice de assunto]

Incerteza e Probabilidade



Incerteza e Probabilidade

John Kenneth Galbraith cunhou o termo era da incerteza para caracterizar o 
período mais recente da história da humanidade. Eu alteraria o termo para 
era da soma de todas as incertezas - as naturais e as causadas pelo homem. O 
tema se tornou uma obsessão na medida que desastres naturais, por um lado, 
trazem enormes prejuízos em um mundo cada vez mais habitado e civilizado, e 
os empreendimentos humanos, cada vez mais sofisticados, envolvem recursos 
consideráveis que não podem ser desperdiçados. Bruno de Finetti em 
conferência proferida em 1975, no Centro Linceo Interdisciplinare di Scienze 
Matematiche e Ioro Applicazioni [1993], nos fala da consciência de que tudo 
é duvidoso e temporário, ou, melhor, de que deveríamos raciocinar como se 
assim o fôsse. Para ele esta nova lógica que vem substituir a lógica do 
verdadeiro ou (exclusivo) falso é a lógica da probabilidade. George Matheron 
em seu livro Estimar e Escolher [1978] afirma que não existe a probabilidade 
em si, mas modelos probabilisticos, sendo sua relação com um fenômeno real a 
única medida de objetividade.  Pierre Goovaerts [1996] nos adverte que a 
incerteza provem de nosso conhecimento imperfeito de um fenômeno, depende 
dos dados e do modelo. Nenhum modelo, nem medida de incerteza, pode ser 
objetivo. Embora, com sutis diferenças, os três autores convergem para pelo 
menos um consenso ? eleger o conceito de probabilidade como o mais adequado 
para se lidar com a incerteza. Matematicamente o conceito de probabilidade 
está bem definido desde que Kolmogorov o caracterizou como um tipo de 
medida. No entanto não se pode falar de incerteza de uma forma única, 
Bárdossy e Fodor [2004] elencam três tipos de incerteza do ponto de vista 
matemático ? imprecisão, ambiguidade e incompletude. O segundo tipo provem 
de atributos não estatísticos ou mensuráveis, como é o caso das descrições 
linguísticas, e os métodos estocásticos não têm tido muito sucesso nesta 
área. 

Até os anos sessenta os métodos estatísticos e estocásticos eram os únicos 
métodos para se avaliar a incerteza, no entanto a partir da aritmética 
intervalar, Zadeh [1965] desenvolveu a teoria dos conjuntos nebulosos ou 
fuzzy. A característica básica destes métodos é a substituição dos valores 
observados por números intervalares. Pode-se definir uma medida fuzzy como 
sendo uma função    g de subconjuntos fuzzy de um conjunto X no intervalo 
[0,1],  obedecendo às condições: 1) de fronteira  g(vazio)=0, g(X)=1; 2) de 
monotonicidade . Assim as medidas de probabilidade, crença, plausibilidade, 
possibilidade e necessidade são casos especiais de medida fuzzy.  

Saindo do campo da matemática para o da computação os métodos baseados em 
redes neurais vêm se desenvolvendo enormemente desde sua formulação inicial, 
na década de cinquenta, por Rochester e Rosenblat. Compreendendo uma enorme 
variedade de modelos que se diferenciam pela arquitetura, estado de ativação 
e regras de aprendizagem, dedicam-se a resolver problemas de classificação 
supervisionada e não supervisionada. Os paradigmas para a construção de 
modelos provem de fontes tão variadas como a termodinâmica, a regressão 
logística ou a programação não linear, dentre outras. 
 
Se no campo do desenvolvimento teórico os métodos estatísticos e 
estocásticos concorrem hoje com métodos matemáticos e computacionais, os 
desafios colocados por problemas inéditos para os estatísticos e 
probabilistas representam uma outra dimensão de exigência não menos crítica 
do que a anterior. Refiro-me aos problemas de mineração de dados, que são 
também problemas de classificação, mas para grandes massas de dados 
observacionais, com centenas de atributos quantitativos e qualitativos. 
Tradicionalmente a inferência estatística trata da seleção, do ajuste do 
modelo, da estimação ( e eventualmente também da predição) e dos testes de 
hipóteses. Porém em Mineração de Dados o processo completo inclui também a 
formulação do modelo, sua validação e o uso de dados de múltiplas fontes.
 
Após esta introdução, a questão que trago para este forum é a seguinte: o 
futuro do estatístico é o de ser um analista de incerteza, aberto a métodos 
não probabilísticos, ou deve se ater ao enfoque probabilístico para a 
incerteza ?

[1993] Probabilitá e Induzione, Bruno de Finetti, CLUEB, Bologna.

[1978] Estimer et Choisir,CMMF,Fontainebleau.

[1996] Geostatistics for Natural Resources Evaluation, Oxford. 

[2004] Evaluation of Uncertainties and Risks in Geology, Springer.

[1965] Fuzzy Sets, Information and Control 8, pp.338-353.