Modelos Dinâmicos Bayesianos para Processos Pontuais Espaço-Temporais por Edna Afonso Reis - Versão HTML

ATENÇÃO: Esta é apenas uma visualização em HTML e alguns elementos como links e números de página podem estar incorretos.
Faça o download do livro em PDF, ePub para obter uma versão completa.

µt = µt− 1 + ωt,

ωt ∼ N[0; Wt] ,

onde µt é escalar. Este modelo é obtido a partir do modelo geral definindo Ft =1 e Gt =1.

Exemplo 1.2: O modelo polinomial de segunda ordem permite que haja um crescimento no

9

n´ıvel da série com a inclus˜ao do parâmetro escalar βt:

yt = µt

+ t,

t ∼ N [0; Vt];

µt = µt− 1 + βt− 1 + ω 1 t,

ω 1 t ∼ N[0; W 1 t] ,

βt = βt− 1 + ω 2 t,

ω 2 t ∼ N[0; W 2 t] .

Este modelo é obtido a partir do modelo geral tomando Ft = 1 e G

. Ambos

0

t =

1 1

0 1

modelos ser˜ao utilizados no Cap´ıtulo 4.

Quando Vt e Wt s˜ao conhecidos, a inferência pode ser feita analiticamente e as densidades

a posteriori s˜ao normais. O algoritmo Filtro de Kalman (Anderson e Moore, 1979) fornece as

distribuiç˜oes em tempo real de θt|Dt, ∀t, com Dt = {y 1 , ..., yt}. Os detalhes desta inferência seqüencial s˜ao mostrados no Apêndice A.1.

Quando Vt e Wt s˜ao desconhecidos, a inferência n˜ao pode ser feita de forma anal´ıtica.

Dentre as diversas alternativas existentes para se realizar uma inferência aproximada, destacam-

se os procedimentos baseados em métodos MCMC (Migon et al. , 2005). No Apêndice A.2,

é descrito o algoritmo Forward Filtering Backward Smoothing (FFBS), proposto por Carter e

Kohn (1994) e Frühwirth-Schnatter (1994). Este é o esquema utilizado na amostragem do

componente temporal nos modelos espaço-temporais propostos no Cap´ıtulo 4.

1.4.2

Modelos Dinâmicos Lineares Generalizados

West et al. (1985) estenderam o modelo dinâmico linear para situaç˜oes nas quais as

observaç˜oes da série temporal pertencem à ampla fam´ılia exponencial de distribuiç˜oes. A

variável aleatória Yt tem uma distribuiç˜ao pertencente à fam´ılia exponencial se sua funç˜ao de

densidade (de probabilidade) puder ser escrita na forma

p( yt | ηt, Vt) = exp V − 1 [ y

t

tηt −b( ηt)]

a( yt,Vt) ,

onde ηt e Vt s˜ao parâmetros definidos de acordo com a distribuiç˜ao espec´ıfica; b( ηt) e a( yt,Vt)

.

s˜ao funç˜oes conhecidas e µt = E( Yt |ηt)= b ( ηt).

Desse modo, o modelo dinâmico linear generalizado é definido pelos seguintes compo-

10

nentes:

Equaç˜ao das observaç˜oes:

p( yt | ηt) exp V − 1 [ y

t

tηt −b( ηt)]

,

g( µt) = F θ

t

t;

Equaç˜ao do sistema:

θt = Gtθt− 1 + ωt,

ωt ∼ N[0; Wt] ,

onde g é uma funç˜ao de ligaç˜ao conhecida, cont´ınua e monótona que projeta µt na reta real.

A inferência pode ser feita via métodos MCMC. Entretanto, a distribuiç˜ao condicional

completa dos estados θ = ( θ 1 , ..., θT ) n˜ao é conhecida. Para amostrar desta distribuiç˜ao,

Gamerman (1997) sugere o uso de blocos dos θt, fazendo uma reparametrizaç˜ao em funç˜ao

dos erros ω 1 = θ 1 e ωt = θt−Gtθt− 1 , t=2 , ..., T . A amostragem é feita em funç˜ao destes erros, evitando, assim, a lenta convergência da cadeia devido à forte correlaç˜ao entre os estados

θt. A reconstruç˜ao dos estados originais é feita facilmente através da relaç˜ao θ 1 = ω 1 e

θ

t−l

t =

t

G

l=1

k=1

t−k+1

ωl, t=2 , ..., T .

Ravines (2006) prop˜oe um esquema de amostragem eficiente na inferência bayesiana em

modelos dinâmicos n˜ao normais e n˜ao lineares, denominado CUBS (abreviaç˜ao de Conjugate

Updating Backward Sampling ). Os resultados obtidos mostram que o esquema proposto

é eficiente no sentido de reduzir significativamente o tempo computacional e ser de fácil

implementaç˜ao.

1.5

Seleç˜

ao de Modelos

A escolha entre diferentes propostas de modelos é uma etapa fundamental na análise de con-

juntos de dados. Se “todos os modelos s˜ao errados, mas alguns s˜ao úteis” (Box, 1976), dentre

estes modelos úteis deve-se identificar aqueles que descrevam adequadamente a informaç˜ao

nos dados e/ou forneçam previs˜oes eficazes. Ainda que as ferramentas computacionais nos

habilitem a ajustar modelos cada vez mais complexos, n˜ao se deve perder de vista o critério

da parcimônia e a interpretabilidade do modelo.

Medir a complexidade de um modelo é mais do que contar o número de parâmetros quando

se trata da comparaç˜ao de modelos com efeitos fixos contra modelos que também incluem

efeitos aleatórios ou ainda entre modelos n˜ao encaixados. É o caso dos modelos hierárquicos

complexos nos quais o número de parâmetros n˜ao está definido claramente.

11

A seguir s˜ao apresentados dois conhecidos critérios de seleç˜ao de modelos - DIC e EPD,

que ser˜ao utilizados neste trabalho.

1.5.1

DIC - Deviance Information Criterion

O DIC foi proposto por Spiegelhalter et al. (2002) como uma generalizaç˜ao do critério de

informaç˜ao de Akaike - AIC (Akaike, 1973).

Considere um modelo com um vetor de observaç˜oes y = ( y 1 , ..., yn) e um vetor de

parâmetros θ, cuja funç˜ao de verossimilhança é denotada por p( y| θ). A deviance do modelo é definida por D( θ) = 2 log[ p( y| θ)].

A média a posteriori da deviance, denotada por Eθ|y [ D( θ)], pode ser pensada como uma

medida bayesiana de ajuste ou adequaç˜ao do modelo. O número efetivo de parâmetros no

modelo é definido como sendo a diferença entre a média a posteriori da deviance e a deviance

avaliada nas médias a posteriori dos parâmetros:

pD = Eθ|y [ D( θ)] − D Eθ|y( θ) .

Quanto menor o valor de pD, menor é a complexidade do modelo.

O DIC é ent˜ao definido como a soma destes dois componentes - uma medida da bondade

do ajuste e uma penalizaç˜ao pela complexidade do modelo:

DIC = Eθ|y [ D( θ)] + pD.

Dentre os modelos comparados, aquele com menor valor de DIC é considerado o mais ade-

quado.

O DIC é um critério de fácil implementaç˜ao em procedimentos de ajuste de modelos via

MCMC. Sejam θ(1) , ..., θ( M) uma amostra da distribuiç˜ao a posteriori p( θ | y),

M

M

¯

1

1

D =

D θ( j)

e

D

θ) = D

θ( j) ;

M

M

j=1

j=1

tem-se que DIC = 2 ¯

D − D

θ).

Em geral, tanto o componente pD quando o DIC s˜ao valores positivos. Entretanto, a

componente pD pode ser negativa se a funç˜ao de verossimilhança n˜ao for log-côncava; quando

12

há conflito entre a distribuiç˜ao a priori e a funç˜ao de verossimilhança; ou ainda se a distribuiç˜ao

a posteriori dos parâmetros é muito assimétrica ou simétrica bimodal, de modo que a média

a posteriori n˜ao seja uma boa medida de tendência central. O valor do DIC também pode ser

negativo se a deviance é negativa, o que ocorre quando a densidade de probabilidade é maior

que um. Entretanto, este fato n˜ao interfere no uso do critério na comparaç˜ao de modelos,

pois o foco está na diferença entre seus valores, n˜ao no valor do DIC propriamente.

1.5.2

EPD - Expected Predictive Deviance

Gelfand e Ghosh (1998) apresentam o EPD, um critério preditivo cujo objetivo é escolher,

dentre os modelos ajustados, aquele que fornece a melhor prediç˜ao de réplicas dos dados

observados. A idéia é amostrar um “novo” conjunto de dados da distribuiç˜ao preditiva:

f ( yN| y

| θ) f ( θ | y

i

i) =

f ( yN

i

i) dθ,

onde yN é visto como uma réplica (ou prediç˜ao) da observaç˜ao y

i

i. Uma vez definida uma

funç˜ao de discrepância D( yN, y) entre os dados observados e preditos, o critério escolhe o

modelo que minimiza a esperança a posteriori desta discrepância.

No caso de modelos normais, uma funç˜ao de discrepância adequada é a soma de quadrados

D( yN, y) = ( yN−y) ( yN−y), levando ao cálculo expl´ıcito do EPD por

n

n

EDP =

V ar( Y N| y

E( Y N| y

2 .

i

i) +

i

i) − yi

i=1

i=1

O modelo com menor valor de EPD é escolhido como o mais adequado.

Em modelos com verossimilhança de Poisson, a funç˜ao perda sugerida é a deviance usual

adaptada para comparar dados reais e suas réplicas:

n

D( yN, y) = 2

yi log( yi/yN) ( y

) .

i

i −yN

i

i=1

Uma correç˜ao no caso de contagens baixas é dada por

n

D∗( yN, y) = 2

( yi+0 . 5) log[( yi+0 . 5) /( yN+0 . 5)] ( y

) .

i

i −yN

i

i=1

13

O valor de EPD é ent˜ao dado pela média de D∗( yN, y) baseada em amostradas repetidas da

distribuiç˜ao preditiva de yN .

O critério EPD também é de fácil implementaç˜ao em algoritmos MCMC de amostragem

da distribuiç˜ao a posteriori dos parâmetros do modelo.

1.6

Organizaç˜

ao da Tese

Este texto é composto de mais seis cap´ıtulos. O Cap´ıtulo 2 apresenta uma introduç˜ao aos

conceitos básicos dos processos pontuais no espaço e/ou no tempo. O Cap´ıtulo 3 apresenta

uma proposta de modelagem espacial. Os modelos espaço-temporais s˜ao propostos e estudados

no Cap´ıtulo 4. Estudos de simulaç˜ao dos modelos propostos s˜ao apresentados no Cap´ıtulo 5,

enquanto sua aplicaç˜ao a conjuntos de dados reais s˜ao mostrados no Cap´ıtulo 6. Finalmente,

o Cap´ıtulo 7 resume as conclus˜oes do trabalho e aponta caminhos para pesquisa futura nesta

importante área da Estat´ıstica.

14

2

Cap´ıtulo

Processos Espaciais

2.1

Introduç˜

ao

Muitos dos fenômenos estudados nas diferentes áreas do conhecimento, como saúde pública,

meio-ambiente, geologia, estudos de criminalidade, dentre outras, apresentam variabilidade das

observaç˜oes sobre o espaço e o tempo.

Nos últimos anos tem havido um grande crescimento de técnicas e modelos estat´ısticos

para analisar conjuntos de dados espaço-temporais. Tais dados s˜ao utilizados para detectar

padr˜oes significativos de uma variável na regi˜ao, estudar sua evoluç˜ao temporal, bem como

fazer previs˜oes.

Neste cap´ıtulo, primeiramente s˜ao apresentados os conceitos básicos sobre processos es-

paciais e os tipos de dados espaciais gerados a partir deles. Na Seç˜ao 3 é apresentado o

processo gaussiano. Os processos pontuais espaciais estudados na tese s˜ao introduzidos na

Seç˜ao 4. A Seç˜ao 5 introduz os processos espaço-temporais. A Seç˜ao 6 discute a necessidade

de discretizaç˜ao do espaço para a inferência.

As definiç˜oes adotadas neste texto, baseadas em Diggle (2003), n˜ao s˜ao definiç˜oes formais.

Será introduzida apenas a teoria básica para a compreens˜ao do assunto. Para definiç˜oes com

maior rigor matemático, ver por exemplo, Cressie (1993) para processos espaciais em geral, e

Daley e Vere-Jones (2003) ou Møller e Waagepetersen (2003 e 2007) para processos pontuais.

15

2.2

Processos Espaciais

Um processo estocástico com dom´ınio no espaço é chamado um processo espacial. Um

processo espacial é definido por

{Z( s) : s ∈ D ⊂ 2 },

(2.1)

onde D é um conjunto de ´ındices e Z( s) é o atributo de interesse na localizaç˜ao s. Por sim-plicidade, a dimens˜ao de D será considerada igual a 2, representando observaç˜oes no plano.

A natureza do conjunto D permite a definiç˜ao de três principais tipos de dados espaciais, de

acordo com Cressie (1993):

1. Dados Geoestat´ısticos

Z( s) é uma variável aleatória observada nas localizaç˜oes s ∈ D, onde D é fixo e cont´ınuo.

Exemplos: mediç˜oes do volume de chuva em estaç˜oes meteorológicas de um estado, mediç˜oes

do n´ıvel de um poluente atmosférico em pontos de uma cidade.

2. Dados de Área

Z( s) é uma variável aleatória observada nas localizaç˜oes s ∈ D, onde D é fixo e discreto.

Exemplos: número de casos de uma doença por munic´ıpio de um estado, número de furtos de

ve´ıculos por bairro de uma cidade.

3. Arranjos Pontuais

Z( s) é uma variável aleatória observada nas localizaç˜oes s ∈ D, onde D é um conjunto

aleatório de ´ındices.

Exemplos: as localizaç˜oes de focos de incêndio em uma floresta, as residências com focos do

mosquito Aedes aegypti em uma cidade.

Nesta tese, s˜ao estudados modelos para arranjos pontuais. Entretanto, um importante

modelo para dados com D cont´ınuo, o processo gaussiano, será utilizado na definiç˜ao de

componentes dos modelos propostos e, portanto, é apresentado na próxima seç˜ao.

16

2.3

O Processo Gaussiano

O processo gaussiano no plano é definido como o processo estocástico x( ·) na regi˜ao

D ∈ 2, com D fixo e cont´ınuo, tal que, para n 1 e localizaç˜oes espaciais s 1 , . . . , sn, o vetor ( x( s 1) , . . . , x( sn)) tem distribuiç˜ao Normal multivariada com vetor de médias m e matriz de variâncias e covariâncias Σ.

As suposiç˜oes usuais s˜ao:

• estacionariedade, que implica que m= µ 1 e Σ= σ 2 R, onde R é uma matriz de correlaç˜oes tais que rij = ρ( si−sj; θ) para uma funç˜ao de correlaç˜ao adequada ρ (Vide subseç˜ao a seguir.);

• isotropia, que implica que a funç˜ao de correlaç˜ao ρθ depende apenas da distância si−sj

entre as localizaç˜oes si e sj.

A notaç˜ao

x( ·) | µ, σ 2 , θ ∼ P G µ; σ 2; ρ( ·; θ)

será utilizada neste texto para denotar um processo gaussiano estacionário e isotrópico com

média µ, variância σ 2 e funç˜ao de correlaç˜ao espacial ρ. A suavidade na variaç˜ao espacial

depende essencialmente da funç˜ao de correlaç˜ao espacial. Em geral, estruturas suaves podem

ser obtidas com a definiç˜ao, via especificaç˜ao de θ, de valores altos para a correlaç˜ao espacial

entre localizaç˜oes próximas.

Gamerman et al. (2007) descrevem a classe de processos gaussianos dinâmicos, que s˜ao

obtidos como uma extens˜ao dos processos gaussianos, quando se introduz o componente do

tempo, ou como uma extens˜ao dos modelos dinâmicos, quando a dimens˜ao espacial é intro-

duzida. Estes processos podem ser usados como prioris de alguns componentes de diferentes

modelos espaço-temporais, como nos modelos de regress˜ao (Gelfand et al. , 2005), na análise

fatorial espacial dinâmica (Salazar, 2006) e nos processos pontuais espaço-temporais estudados

no Cap´ıtulo 4 desta tese.

2.3.1

Simulaç˜

ao de Dados de Processos Gaussianos

Há vários métodos dispon´ıveis para simulaç˜ao de um campo aleatório gaussiano (Lantuéjoul,

1994). O processo gaussiano pode ser simulado usando-se métodos Monte Carlo. O dom´ınio

17

infinito da regi˜ao de simulaç˜ao é representado por uma grade GN = {c 1 , ..., cN}, na qual cada célula ci tem área ai, e o processo é aproximado por seus valores da distribuiç˜ao gaussiana

de dimens˜ao finita nas N células da grade. Se o processo tem intensidade e agregaç˜ao

moderados, as propriedades de pequena escala do campo gaussiano n˜ao s˜ao t˜ao importantes,

podendo ser adotada uma discretizaç˜ao mais “grosseira”. O erro resultante da discretizaç˜ao

também depende da suavidade das realizaç˜oes do campo gausssiano, sendo menor quando a

funç˜ao de correlaç˜ao espacial decresce lentamente com a distância.

A geraç˜ao de processos gaussianos está implementada em linguagens de programaç˜ao

como o R (R Development Core Team, 2004) que tem dispon´ıveis, por exemplo, as bibliotecas

RandomFields (Schlather, 2001) e geoR (Ribeiro e Diggle, 2001).

2.3.2

Fam´ılias de Funç˜

oes de Correlaç˜

ao Espaciais

Se o processo espacial for assumido isotrópico, a funç˜ao de correlaç˜ao espacial ρ( d) será

funç˜ao apenas da distância euclidiana d entre duas localizaç˜oes. É desejável que esta funç˜ao

satisfaça as seguintes propriedades:

1. ρ( d; θ) é monótona n˜ao-crescente em d;

2. ρ( d; θ) 0 quando d → ∞;

3. Pelo menos um dos parâmetros em θ controla a taxa com que ρ decai para zero.

Há diversas fam´ılias de funç˜oes de correlaç˜ao espaciais, dentre elas as mais conhecidas e

utilizadas s˜ao descritas a seguir.

Fam´ılia Exponencial Potência:

ρ( d; θ) = exp {−( d/φ) κ},

onde θ = ( ρ,κ), φ > 0 é o parâmetro de escala e κ ∈ (0; 2]. Quando κ = 1, tem-se o caso particular da funç˜ao de correlaç˜ao exponencial; κ = 2 corresponde à funç˜ao de correlaç˜ao

gaussiana.

18

Fam´ılia Esférica:

1 3( d/φ) + 1( d/φ)3 , 0 d φ;

ρ( d; ρ) =

2

2

0

, d > φ,

onde θ = φ > 0 é o parâmetro de escala.

Fam´ılia Matérn (Matérn, 1986):

1

d κ

d

ρ( d; ρ,κ) =

K

,

2 κ− 1Γ( κ)

φ

κ

φ

onde θ = ( ρ,κ), φ > 0 é o parâmetro de escala e κ > 0 é o parâmetro de forma; a funç˜ao Γ( ·) é a funç˜ao gama e κκ é a funç˜ao modificada de Bessel do terceiro tipo de ordem κ (Abramowitz e

Stegun, 1972). As funç˜oes exponencial e gaussiana também pertencem a esta fam´ılia, quando

κ = 0 . 5 e κ → ∞, respectivamente.

2.4

Processos Espaciais Pontuais

Um processo espacial pontual Z( s) , s ∈ D, onde D é um conjunto aleatório de ´ındices, é

um processo estocástico que governa a distribuiç˜ao (localizaç˜ao) e o número de realizaç˜oes de

um fenômeno nesta regi˜ao do espaço. Tal processo espacial difere-se dos outros dois tipos de

processos espaciais pelo fato de que o componente estocástico primário é a própria localizaç˜ao

espacial das observaç˜oes. O conjunto das localizaç˜oes espaciais observadas x = {x 1 , ..., xn}

é chamado de arranjo pontual e cada uma delas é usualmente chamada de evento, para

distingui-las de pontos arbitrários no plano, denotados por s.

Os conceitos de média e covariância dos processos cont´ınuos s˜ao definidos, para os pro-

cessos pontuais, em funç˜ao dos efeitos de primeira e segunda ordens. A funç˜ao de intensidade

de primeira ordem é uma medida de uniformidade e envolve o número médio de eventos por

unidade de área no ponto s (Diggle, 2003):

E [ Z( ds)]

λ( s) = lim

,

(2.2)

|ds|→ 0

|ds|

onde E[ ] denota o valor esperado, ds é uma regi˜ao infinitesimal em torno do ponto s e |ds|

é a área desta regi˜ao. A funç˜ao de intensidade de segunda ordem é uma medida da estrutura

19

de dependência entre as localizaç˜oes si e sj (Diggle, 2003):

E [ Z( ds

λ

i) Z ( dsj )]

2( si, sj ) =

lim

.

|dsi|,|dsj|→ 0

|dsi| |dsj|

Um processo pontual espacial é dito ser fracamente estacionário se o processo é invariante

em localizaç˜ao, isto é,

λ( s) = λ ∀s ∈ D

e

λ 2( si, sj) = λ 2( h) ∀si, sj ∈ D,

onde h = si − sj é o vetor bidimensional da mudança em localizaç˜ao espacial do ponto si

ao ponto sj (Diggle, 2003). Isto equivale a dizer que o número esperado de eventos em

uma localizaç˜ao arbitrária é constante e a dependência entre os eventos em duas localizaç˜oes

quaisquer depende apenas do vetor diferença h e n˜ao das localizaç˜oes espec´ıficas si e sj.

A funç˜ao de covariância fracamente estacionária pode ser definida como anisotrópica ou

isotrópica. Um processo isotrópico é invariante sob translaç˜ao e rotaç˜ao em um ângulo qual-

quer, ou seja, sua funç˜ao de covariância n˜ao depende da direç˜ao de h, que pode ser substitu´ıdo

por h = si−sj , a distância euclidiana entre si e sj.

2.4.1

Tipos de Arranjos Pontuais

Basicamente s˜ao considerados três tipos básicos de arranjos pontuais: agregado, regular e

aleatório. A Figura 2.1 mostra uma realizaç˜ao simulada de cada um destes tipos.

No arranjo pontual agregado, como o próprio nome diz, os eventos aparecem formando

diversos agrupamentos no espaço. É freqüentemente observado quando as sementes de planta

s˜ao espalhadas nas proximidades da planta-m˜ae. O oposto direto da agregaç˜ao é o arranjo

regular, no qual os eventos n˜ao ocorrem (ou têm uma probabilidade muito baixa de ocorrer)

dentro de uma certa distância uns dos outros, como, por exemplo, os centros das células

biológicas. No arranjo aleatório os eventos se distribuem no espaço de maneira completamente

ao acaso.

Arranjos pontuais heterogêneos podem surgir, por exemplo, da observaç˜ao das posiç˜oes de

plantas onde a fertilidade do solo exibe uma variaç˜ao espacial. Se é assumido que a fertilidade

é um campo aleatório que varia espacialmente, mas que, condicional à fertilidade do solo (e

possivelmente a outros fatores ambientais) as localizaç˜oes das plantas s˜ao independentes, o

index-35_1.jpg

20

Figura 2.1: Os tipos básicos de arranjos pontuais espaciais. Da esquerda para a direita: agregado,

regular e aleatório.

modelo apropriado é um processo com intensidade (de primeira ordem) variando no espaço e

intensidade de segunda ordem nula. Por outro lado, se há dependência entre as plantas (como

competiç˜ao), é natural pensar em um processo que tenha termos de interaç˜ao.

Dentre os vários tipos de processos pontuais que geram arranjos pontuais agregados, reg-

ulares ou aleatórios, s˜ao apresentados neste texto apenas os processos que ser˜ao importantes

na compreens˜ao da modelagem proposta neste trabalho. Nestes processos, n˜ao há efeito de

interaç˜ao entre os eventos. Assim, a eventual agregaç˜ao dos eventos é atribu´ıda unicamente

à heterogeneidade na intensidade do processo.

2.4.2

Alguns Modelos para Processos Espaciais Pontuais

O mais simples dos processos espaciais pontuais é aquele em que n˜ao há efeitos de primeira

nem de segunda ordens: a intensidade é constante no espaço e os eventos n˜ao interagem

espacialmente. Esta situaç˜ao, chamada de aleatoriedade espacial completa, define o processo

de Poisson homogêneo.

Processo de Poisson Homogêneo

Neste processo pontual, o número de eventos N em uma regi˜ao planar limitada A ⊂ 2

é uma variável aleatória Poisson com média λ|A|, sendo |A| a área de A; adicionalmente,

condicionadas à intensidade, as contagens de eventos em regi˜oes disjuntas s˜ao independentes.

Este processo tem λ( s) = λ e λ 2( si, sj) = λ 2, ou seja, é estacionário e isotrópico.

Pela definiç˜ao do modelo, a funç˜ao de verossimilhança de λ n˜ao depende da localizaç˜ao dos

21

eventos x = {x 1 , ..., xn} na regi˜ao A, mas apenas do número de eventos n, sendo proporcional a

l( λ; n) exp {−λ|A|} ( λ|A|) n.

O processo de Poisson homogêneo é útil como base de comparaç˜ao, mas pouco real´ıstico

para aplicaç˜oes. Ainda que n˜ao haja interaç˜ao espacial entre os eventos, raramente se tem

homogeneidade na intensidade. Assumindo eventos independentes, mas com a intensidade

λ( s) variando no espaço, um padr˜ao pontual espacial pode ser modelado através do processo

de Poisson n˜ao-homogêneo.

Processo de Poisson N˜

ao-Homogêneo

Nele, o número de eventos em uma regi˜ao A ⊂ 2 tem distribuiç˜ao de Poisson com média

µ( A) =

λ( s) ds e, para regi˜oes disjuntas, as contagens de eventos s˜ao independentes. Este

A

é um processo n˜ao-estacionário, mas tem apenas efeitos de primeira ordem: a aglomeraç˜ao

dos eventos é resultante da heterogeneidade da intensidade, n˜ao da atraç˜ao entre eventos.

A funç˜ao de verossimilhança de λ( ·), baseada no conjunto de eventos x = {x 1 , ..., xn}

observados na regi˜ao A, é proporcional a

l( λ; x) exp

λ( s) ds

λ( z) .

A

z∈x

Processo de Cox

Cox (1955) apresentou o processo de Poisson duplamente estocástico, para o qual a su-

perf´ıcie de intensidade também é assumida ser estocástica. Assim, seja Λ = {Λ( s) : s ∈ S} um

campo aleatório n˜ao-negativo. Se a distribuiç˜ao condicional de Z dado Λ = λ é um processo

de Poisson em S com funç˜ao de intensidade λ( s), ent˜ao Z é um processo de Cox dirigido por Λ. O processo pontual resultante é estacionário e isotrópico se, e somente se, o processo Λ o

é.

A decis˜ao sobre a aleatoriedade ou n˜ao da funç˜ao intensidade, ou de parte dela, depende

de quest˜oes cient´ıficas do fenômeno e/ou conhecimento prévio da aplicaç˜ao em particular.

Quando apenas uma realizaç˜ao do processo pontual está dispon´ıvel, n˜ao se consegue distin-

guir um processo de Cox de um processo de Poisson n˜ao-homogêneo.

22

Processo de Cox Log-Gaussiano

No processo pontual de Cox, se log[Λ( ·)] = Φ( ·) é um processo gaussiano, o processo

pontual resultante é denominado processo de Cox log-gaussiano (Møller et al. , 1998).

Desse modo, a funç˜ao de verossimilhança do processo de Cox log-gaussiano decorre dire-

tamente da funç˜ao de verossimilhança do processo de Poisson n˜ao-homogêneo, sendo dada

por

l( φ; x) exp exp[ φ( s)] ds

exp[ φ( z)] ,

S

z∈x

na qual x = {x 1 , ..., xn} é a localizaç˜ao dos eventos observados na regi˜ao S.

Esta verossimilhança n˜ao é analiticamente tratável, pois depende de um número infinito

de variáveis aleatórias ( s) , s ∈ S}.

2.4.3

Simulaç˜

ao de Dados de Processos Espaciais Pontuais

A geraç˜ao de conjuntos de dados simulados do processo de Poisson homogêneo e suas

extens˜oes é geralmente simples e está implementada em vários programas computacionais

de análise estat´ıstica, como o R (R Development Core Team, 2004), que tem dispon´ıveis as

bibliotecas Splancs (Rowlingson e Diggle, 1993) e Spatstat (Baddeley e Tuner, 2005).

A geraç˜ao de um arranjo pontual do processo Poisson com intensidade λ em uma regi˜ao

D tem dois estágios: (i) uma contagem N da distribuiç˜ao de Poisson com média λ é gerada;

(ii) as posiç˜oes dos N eventos s˜ao determinadas pela simulaç˜ao de pontos independentes e

uniformes em D.

Lewis e Shedler (1979) prop˜oem gerar um processo de Poisson n˜ao-homogêneo com funç˜ao

de intensidade λ( x) , x ∈ D através de algoritmo baseado em amostragem por rejeiç˜ao. Na

sua forma mais simples, este algoritmo consiste em gerar um processo de Poisson homogêneo

com intensidade λ max = max{λ( x); x ∈ D} e reter cada evento gerado com probabilidade

λ( x) /λmax.

O processo de Cox log-gaussiano pode ser simulado usando-se métodos Monte Carlo

(Møller e Waagepetersen, 2003). Assim como sua definiç˜ao, a simulaç˜ao do processo de

Cox log-gaussiano envolve duas etapas. Primeiramente, o campo gaussiano Φ é simulado nas

N subregi˜oes que particionam a regi˜ao de estudo e, dada sua realizaç˜ao ˆ

φ = ( ˆ

φ 1 , ..., ˆ

φN),

geram-se N contagens de Poisson independentes com médias ˆ

λi = ai exp( ˆ

φi), onde ai é a

área da i-ésima subregi˜ao, para i = 1 , ..., N.

23

2.5

Processos Pontuais Espaço-Temporais

Um processo pontual espaço-temporal é um processo estocástico que tem como realizaç˜oes

pontos com coordenadas aleatórias no espaço e no tempo. Estes processos pontuais podem

ser considerados como um h´ıbrido de um componente espacial e um componente temporal

(Dorai-Raj, 2001). Estendendo a definiç˜ao Z( s) em (2.1) para incluir o tempo, obtem-se a

seguinte definiç˜ao de um processo pontual espaço-temporal:

{Z( s, t) : s ∈ D ⊂ 2 , t ∈ [0 , T ] ⊂ },

(2.3)

onde D é um conjunto aleatório de ´ındices.

Segundo Schoenberg et al. (2002), um processo pontual espaço-temporal Z é caracteriza-

do unicamente pelo seu processo de intensidade condicional λ. Assim como em (2.2), a

intensidade λ( s, t) do processo na localizaç˜ao espacial s e no tempo t pode ser pensada como a freqüencia com a qual os eventos s˜ao esperados ocorrer em torno de uma localizaç˜ao ( s, t)

no espaço e tempo, condicionada na história a priori do processo até o tempo t, denotada

por Ht. Formalmente, λ( s, t) pode ser definida como a esperança condicional limite, como

explicado a seguir. Fixe qualquer ponto ( s, t) no espaço-tempo, onde s = ( s 1 , s 2) 2. Seja B∆ o conjunto ( t, t+∆ t) ×( s 1 , s 1 +∆ s 1) ×( s 2 , s 2 +∆ s 2), onde ∆ é o vetor (∆ t, s 1 , s 2).

Ent˜ao

λ( s, t) = lim E [ Z( B∆) |Ht)] /||,

(2.4)

0

se este limite existe.

O conjunto de dados observados deste processo é chamado de arranjo pontual espaço-

temporal, sendo formado pelo registro ξ = {( x 1 , t 1) , ..., ( xn, tn) } das localizaç˜oes espaciais xi e respectivo tempo de ocorrência ti dos n eventos.

Arranjos pontuais espaço-temporais s˜ao freqüentemente analisados com negligência ao

componente temporal, através da investigaç˜ao das propriedades de primeira e segunda ordens

do processo espacial separadamente para cada per´ıodo de tempo. Esta abordagem oferece uma

vis˜ao limitada da evoluç˜ao do padr˜ao espacial através do tempo, pois, sem a incorporaç˜ao direta

de uma relaç˜ao temporal entre todos os arranjos espaciais observados, muito da inferência sobre

o processo pode ser perdido.

24

Fishman e Snyder (1976) definem e estudam uma classe geral de processos pontuais no

espaço-tempo a qual chamam de anal´ıtica. Dorai-Raj (2001) introduz vários tipos de processos

pontuais espaço-temporais juntamente com suas correspondentes definiç˜oes de intensidade de

primeira e segunda ordens. Ele prop˜oe estimadores das intensidades espaço-temporais de

primeira ordem usando a técnica de densidades de kernel.

Nas aplicaç˜oes desta tese, os eventos ser˜ao analisados com a informaç˜ao de espaço e

de tempo. Alguns estudos agregam a informaç˜ao do tempo, ou seja, analisam apenas a

informaç˜ao da localizaç˜ao espacial do eventos, como nos modelos do Cap´ıtulo 3. Outros

estudos observam o tempo de ocorrência sem observar a localizaç˜ao espacial, ou seja, fazem

a agregaç˜ao no espaço. Paez e Diggle (2006), por exemplo, usam processos dinâmicos para

modelar processos de Cox agregados no espaço. Gamerman (1992) apresenta um modelo

dinâmico para análise estat´ıstica em processos pontuais com eventos registrados apenas no

tempo e informaç˜ao de covariáveis. A intensidade do processo é assumida constante em cada

um dos intervalos de tempo e a inferência bayesiana é feita através de uma análise seqüencial

da informaç˜ao nestes intervalos sucessivos.

2.6

Inferência via Discretizaç˜

ao no Espaço e/ou Tempo

Os modelos para processos pontuais estudados nesta tese s˜ao definidos em espaço cont´ınuo.

Entretanto, a inferência via verossimilhança é muito dif´ıcil de ser feita com espaço cont´ınuo.

Uma soluç˜ao é a “discretizaç˜ao espacial”. A regi˜ao de estudo é dividida por uma partiç˜ao

GN = {c 1 , ..., cN}, na qual cada célula ci, i = 1 , ..., N, tem centróide com coordenadas si. A variável aleatória passa a ser a contagem de eventos Y[ i] ocorridos na i-ésima célula.

Este procedimento é adotado, por exemplo, em Møller et al. (1998), Brix e Møller (2001)

e Beněs et al. (2002), nos quais o campo gaussiano é aproximado por uma step function,

obtida via discretizaç˜ao da regi˜ao espacial em uma grade, para que ent˜ao o cálculo de sua

distribuiç˜ao a posteriori possa ser aproximado por um método MCMC.

A definiç˜ao da partiç˜ao no espaço pode ser feita de várias maneiras. Uma delas é sobrepor

na regi˜ao de estudo uma grade regular, como exemplificado na Figura 2.2. A regi˜ao “dis-

cretizada” é constitu´ıda da uni˜ao das células obtidas pela interseç˜ao da regi˜ao original com a

grade. Deve-se notar que as células das bordas da regi˜ao original ter˜ao área menor do que a

células centrais, o que deve ser incorporado no modelo.

index-40_1.png

25

Figura 2.2: Exemplo de construç˜ao de uma grade regular sobreposta à regi˜ao de estudo.

Nos arranjos pontuais espaciais com forte agregaç˜ao dos eventos, o uso de uma grade

regular na discretizaç˜ao parece ineficaz devido à criaç˜ao de um grande número de células sem

registro de eventos e outras, do mesmo tamanho, mas com um grande número de eventos.

Uma soluç˜ao seria construir uma grade com células de tamanho menor nas áreas de mais alta

ocorrência de eventos, o que tornaria mais refinada a estimaç˜ao da intensidade nestas regi˜oes.

Heikkinen e Arjas (1998 e 1999), por exemplo, utilizam uma partiç˜ao formada pelos

pol´ıgonos de diferentes tamanhos obtidos na construç˜ao da tesselagem de Voronoi a par-

tir dos eventos observados ou gerados especificamente para esta construç˜ao. Eles estudam

modelos n˜ao-paramétricos para processos de Poisson n˜ao-homogêneos nos quais a funç˜ao de

intensidade é assumida constante nos pol´ıgonos.

A tesselagem de Voronoi pode ser informalmente definida do seguinte modo. Dados n

pontos distintos em uma regi˜ao planar S, pode-se atribuir a cada ponto si um pol´ıgono

consistindo da parte de S que é mais próxima de si do que de qualquer outro dos n − 1

pontos. Este conjunto de pol´ıgonos é chamado de tesselagem de Voronoi (ou Dirichlet).

A Figura 2.3 mostra a discretizaç˜ao por uma grade regular e via tesselagem de Voronoi

para com um arranjo pontual fict´ıcio. Os pol´ıgonos de Voronoi s˜ao menores nas áreas com

mais alta intensidade de eventos, o que certamente contribui para obtenç˜ao de um mapa de

intensidades estimadas mais refinado nestas áreas. Entretanto, esta construç˜ao resulta que

todas as células da discretizaç˜ao têm apenas um evento. A informaç˜ao sobre a intensidade

do processo, que na grade regular cabia à contagem de eventos por célula, torna-se a área da

célula pol´ıgono.

26

Eventos

Grade Regular