PDF Modeloslineares

Fazer download em pdf ou txt
Fazer download em pdf ou txt
Você está na página 1de 22

Capa_Cordeiro_Modelos lineares_P2.

pdf 1 05/02/2024 23:34:20

Gauss M. Cordeiro

MORAL
DEMÉTRIO
CORDEIRO
MODELOS LINEARES Clarice G. B. Demétrio
GENERALIZADOS Rafael A. Moral
E APLICAÇÕES

Gauss M. Cordeiro
MODELOS LINEARES
Obteve seu PhD em Estatística no Imperial College, Universidade de Londres (1982), e tem
GENERALIZADOS E APLICAÇÕES

GENERALIZADOS E APLICAÇÕES
pós-doutorado no Instituto de Matemática Pura e Aplicada (1990-1992). Publicou mais de 400
artigos em periódicos internacionais e orientou mais de 60 alunos de pós-graduação. Trabalha na
área de Análise de Sobrevivência, Distribuições de Probabilidade e Modelos de Regressão.

MODELOS LINEARES
Clarice G. B. Demétrio
C
Tem graduação em Engenharia Agronômica (1972-75), e mestrado (1976-79) e doutorado (1979-
M
-85) em Estatística e Experimentação Agronômica na ESALQ/USP, pós-doutorado no Imperial
Y College of Science and Technology, Londres (1986-87) e Doctor Honoris Causa (2019) pela
CM University of Hasselt, Bélgica. É professora titular no Departamento de Ciências Exatas da
MY ESALQ/USP, desenvolvendo pesquisa e orientando, principalmente, em Modelos Lineares Gene-
CY ralizados e Extensões.
CMY

K
Rafael A. Moral
Professor associado de Estatística e diretor do grupo de pesquisas em Ecologia Teórica e Estatística
na Maynooth University, Irlanda. Tem graduação em Ciências Biológicas (2007-11), e mestrado
(2012-14) e doutorado (2014-17) em Estatística e Experimentação Agronômica pela ESALQ/USP.
Desenvolve pesquisa em Modelagem Estatística Aplicada a Ecologia, Manejo da Vida Selvagem,
Agricultura e Ciências Ambientais.

www.blucher.com.br

ABE - PROJETO FISHER ABE - PROJETO FISHER


i i

“output” — 2024/4/2 — 11:57 — page 3 — #3


i i

i i

i i
i i

“output” — 2024/4/2 — 11:57 — page 4 — #4


i i

i i

i i
✐ ✐

“output” — 2024/4/2 — 8:23 — page 7 — #7


✐ ✐

Conteúdo

1 Família exponencial de distribuições 11


1.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.2 Família exponencial uniparamétrica . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3 Componente aleatório . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4 Função geradora de momentos . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5 Estatística suficiente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.6 Família exponencial multiparamétrica . . . . . . . . . . . . . . . . . . . . . . . 22
1.7 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

2 Modelo Linear Generalizado 33


2.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.2 Exemplos de motivação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.2.1 Ensaios do tipo dose-resposta . . . . . . . . . . . . . . . . . . . . . . . 35
2.2.2 Ensaios de diluição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.2.3 Tabelas de contingência . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.3 Definição . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.4 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51

3 Estimação 55
3.1 Estatísticas suficientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.2 O algoritmo de estimação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.3 Estimação em modelos especiais . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.4 Resultados adicionais na estimação . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.5 Seleção do modelo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.6 Considerações sobre a função de verossimilhança . . . . . . . . . . . . . . . . . 67
3.7 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

4 Métodos de Inferência 75
4.1 Distribuição dos estimadores dos parâmetros . . . . . . . . . . . . . . . . . . . 75
4.2 Função desvio e estatística de Pearson generalizada . . . . . . . . . . . . . . . 80
4.2.1 Função desvio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
4.2.2 Estatística de Pearson generalizada 𝑋 2 . . . . . . . . . . . . . . . . . . 87
4.3 Análise de desvio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.4 Estimação do parâmetro de dispersão . . . . . . . . . . . . . . . . . . . . . . . 92
4.4.1 Comparação dos três métodos de estimação do parâmetro de dispersão
no modelo gama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
4.5 Testes de hipóteses . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.5.1 Teste de uma hipótese nula simples . . . . . . . . . . . . . . . . . . . . 96
4.5.2 Teste de uma hipótese nula composta . . . . . . . . . . . . . . . . . . . 98
4.6 Regiões de confiança . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.7 Seleção de variáveis explanatórias . . . . . . . . . . . . . . . . . . . . . . . . . 101

✐ ✐

✐ ✐
✐ ✐

“output” — 2024/4/2 — 8:23 — page 8 — #8


✐ ✐

8 Modelos lineares generalizados e aplicações

4.8 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103

5 Resíduos e Diagnósticos 109


5.1 Introdução . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.2 Técnicas para verificar o ajuste de um modelo . . . . . . . . . . . . . . . . . . . 110
5.3 Análise de resíduos e diagnósticos para o modelo linear clássico . . . . . . . . . 110
5.3.1 Tipos de resíduos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
5.3.2 Estatísticas para diagnóstico . . . . . . . . . . . . . . . . . . . . . . . . 113
5.3.3 Tipos de gráficos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
5.4 Análise de resíduos e diagnóstico para MLGs . . . . . . . . . . . . . . . . . . . 121
5.4.1 Tipos de resíduos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
5.4.2 Tipos de gráficos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128
5.5 Método das variáveis explanatórias adicionais na seleção de modelos . . . . . 130
5.6 Verificação da função de ligação . . . . . . . . . . . . . . . . . . . . . . . . . . 132
5.7 Verificação da função de variância . . . . . . . . . . . . . . . . . . . . . . . . . 135
5.8 Verificação das escalas das variáveis explanatórias . . . . . . . . . . . . . . . . 136
5.9 Verificação de anomalias no componente sistemático, usando-se análise dos
resíduos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
5.10 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

6 Aplicações a Dados Contínuos 147


6.1 Dados de volume de árvores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147
6.2 Dados de gordura no leite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
6.3 Dados de Acácia Negra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
6.4 Dados de tempos de sobrevivência de ratos . . . . . . . . . . . . . . . . . . . . 160
6.5 Dados de assinaturas de TV a cabo . . . . . . . . . . . . . . . . . . . . . . . . . 163

7 Aplicações a Dados Discretos 167


7.1 Dados binários e proporções . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
7.1.1 Estimação da dose efetiva e seu intervalo de confiança . . . . . . . . . 167
7.1.2 Probabilidade de resposta a uma dose especificada . . . . . . . . . . . 172
7.1.3 Paralelismo entre retas no modelo logístico linear e potência relativa . 173
7.2 Dados de contagens . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
7.2.1 Modelo de Poisson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
7.2.2 Modelos log-lineares para tabelas de contingência . . . . . . . . . . . 199
7.3 Exercícios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211

Apêndice A: Conjuntos de dados 213

Apêndice B: Programas em R 219


B.1 Algoritmo de estimação, passo a passo, para o Exemplo 2.1 . . . . . . . . . . . 219
B.2 Programa R para os dados do Exemplo 2.5: Rotenona . . . . . . . . . . . . . . . 220
B.3 Programa R para os dados do Exemplo 6.1: Cerejeiras . . . . . . . . . . . . . . 221
B.4 Programa R para os dados do Exemplo 6.2: Gordura no leite . . . . . . . . . . . 223
B.5 Programa R para os dados do Exemplo 6.3: Dados de Acácia Negra . . . . . . . 225

✐ ✐

✐ ✐
✐ ✐

“output” — 2024/4/2 — 8:23 — page 9 — #9


✐ ✐

Conteúdo 9

B.6 Programa R para os dados do Exemplo 6.4: Tempos de sobrevivência de ratos . 227
B.7 Programa R para os dados do Exemplo 6.5: Dados de assinaturas de TV a cabo 228
B.8 Programa R para os dados do exemplo 7.1: Rotenona . . . . . . . . . . . . . . . 230
B.9 Programa R para os dados do exemplo 7.2: Cipermetrina . . . . . . . . . . . . . 231
B.10 Programa R para os dados do exemplo 7.3: Mortalidade do besouro da farinha 234
B.11 Programa R para os dados do exemplo 7.4: Proporções de gemas florais de
macieiras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
B.12 Programa R para os dados do exemplo 7.5: Cultura de tecidos de macieiras . . 241
B.13 Programa R para os dados do exemplo 7.6: Toxicidade a dissulfeto de carbono
gasoso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242
B.14 Programa R para os dados do exemplo 7.7: Armazenamento de microorganismos 245
B.15 Programa R para os dados do exemplo 7.8: Número de brotos em um estudo de
micropropagação de macieiras . . . . . . . . . . . . . . . . . . . . . . . . . . . 246
B.16 Programa R para os dados do exemplo 7.9: Número de espécies de plantas . . . 246
B.17 Programa R para os dados do exemplo 7.10: Coleta de insetos em armadilhas
adesivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 247
B.18 Programa R para os dados do exemplo 7.11: Pneumoconiose em mineiros de carvão 248

Referências 251

✐ ✐

✐ ✐
✐ ✐

“output” — 2024/4/2 — 8:23 — page 11 — #11


✐ ✐

CAPÍTULO 1

Família exponencial de distribuições

1.1 INTRODUÇÃO
Muitas distribuições conhecidas podem ser colocadas em uma família paramétrica
denominada família exponencial de distribuições. Assim, por exemplo, pertencem a
essa família as distribuições normal, binomial, binomial negativa, gama, Poisson, normal
inversa, multinomial, beta, logarítmica, entre outras. Essa classe de distribuições foi
proposta, independentemente, por Koopman, Pitman e Darmois, nos anos de 1935 e
1936, ao estudarem as propriedades de suficiência estatística. Posteriormente, muitos
outros aspectos dessa família foram estudados e tornaram-se importantes na teoria
moderna da Estatística. O conceito de família exponencial foi introduzido na Estatística
por Fisher, mas os modelos da família exponencial surgiram na Mecânica Estatística
no final do século XIX e foram desenvolvidos por Maxwell, Boltzmann e Gibbs. A
importância dessa família teve maior destaque, na área dos modelos de regressão, a partir
do trabalho pioneiro de Nelder e Wedderburn (1972), que definiram os modelos lineares
generalizados (MLGs). Na década de 1980, esses modelos popularizaram-se, inicialmente,
no Reino Unido, e, posteriormente, nos Estados Unidos e por toda Europa ocidental.

1.2 FAMÍLIA EXPONENCIAL UNIPARAMÉTRICA


A família exponencial uniparamétrica é caracterizada por uma função (de pro-
babilidade ou densidade) especificada na forma
𝑓 (𝑥; 𝜃) = ℎ(𝑥) exp [ 𝜂(𝜃) 𝑡 (𝑥) − 𝑏(𝜃) ], (1.1)
em que as funções 𝜂(𝜃), 𝑏(𝜃), 𝑡 (𝑥) e ℎ(𝑥) têm valores em subconjuntos dos reais. As
funções 𝜂(𝜃), 𝑏(𝜃) e 𝑡 (𝑥) não são únicas. Por exemplo, 𝜂(𝜃) pode ser multiplicada por
uma constante 𝑘, e 𝑡 (𝑥) pode ser dividida pela mesma constante. Adicionalmente, pelo
teorema da fatoração de Neyman-Fisher, a estatística 𝑡 (𝑋) é suficiente para 𝜃.
Várias distribuições importantes podem ser expressas na forma (1.1), tais como:
Poisson, binomial, Rayleigh, normal, gama e normal inversa (as três últimas com a
suposição de que um dos parâmetros é conhecido). Cordeiro et al. (1995) apresentaram 24
distribuições na forma (1.1). O suporte da família exponencial (1.1), isto é, {𝑥; 𝑓 (𝑥; 𝜃) >
0}, não pode depender de 𝜃. Assim, a distribuição uniforme em (0, 𝜃) não é um modelo
da família exponencial.

✐ ✐

✐ ✐
✐ ✐

“output” — 2024/4/2 — 8:23 — page 12 — #12


✐ ✐

12 Modelos lineares generalizados e aplicações

É fácil comprovar se uma distribuição pertence ou não à família exponencial (1.1),


como é demonstrado nos três exemplos que se seguem.

Exemplo 1.1

A distribuição de Poisson P(𝜃) de parâmetro 𝜃 > 0, usada para análise de dados


na forma de contagens, tem função de probabilidade

e− 𝜃 𝜃 𝑥 1
𝑓 (𝑥; 𝜃) = = exp[𝑥 log(𝜃) − 𝜃]
𝑥! 𝑥!
e, portanto, é um membro da família exponencial (1.1) com 𝜂(𝜃) = log(𝜃), 𝑏(𝜃) = 𝜃,
𝑡 (𝑥) = 𝑥 e ℎ(𝑥) = 1/𝑥!.

Exemplo 1.2

A distribuição binomial B(𝑚, 𝜃), com 0 < 𝜃 < 1 e 𝑚, o número conhecido de


ensaios independentes, é usada para análise de dados na forma de proporções e
tem função de probabilidade
       
𝑚 𝑥 𝑚− 𝑥 𝑚 𝜃
𝑓 (𝑥; 𝜃) = 𝜃 (1 − 𝜃) = exp 𝑥 log + 𝑚 log(1 − 𝜃) ,
𝑥 𝑥 1−𝜃
 
𝑚
com 𝜂(𝜃) = log[𝜃/(1 − 𝜃)], 𝑏(𝜃) = −𝑚 log(1 − 𝜃), 𝑡 (𝑥) = 𝑥 e ℎ(𝑥) = , sendo,
𝑥
portanto, um membro da família exponencial (1.1).

Exemplo 1.3

A distribuição de Rayleigh, usada para análise de dados contínuos positivos,


tem função densidade (𝑥 > 0, 𝜃 > 0)
   
𝑥 𝑥2 1
𝑓 (𝑥; 𝜃) = 2 exp − 2 = 𝑥 exp − 2 𝑥 2 − 2 log(𝜃)
𝜃 2𝜃 2𝜃

e, portanto, pertence à família exponencial (1.1) com 𝜂(𝜃) = −1/(2𝜃 2 ), 𝑏(𝜃) =


2 log(𝜃), 𝑡 (𝑥) = 𝑥 2 e ℎ(𝑥) = 𝑥.

✐ ✐

✐ ✐
✐ ✐

“output” — 2024/4/2 — 8:23 — page 13 — #13


✐ ✐

Família exponencial de distribuições 13

A família exponencial na forma canônica é definida por (1.1), considerando que as


funções 𝜂(𝜃) e 𝑡 (𝑥) são iguais à função identidade, de forma que

𝑓 (𝑥; 𝜃) = ℎ(𝑥) exp[𝜃𝑥 − 𝑏(𝜃)]. (1.2)

Na parametrização (1.2), 𝜃 é denominado de parâmetro canônico. O logaritmo da


função de verossimilhança correspondente a uma única observação no modelo (1.2) é
expresso como
ℓ(𝜃) = 𝜃𝑥 − 𝑏(𝜃) + log[ℎ(𝑥)]
e, portanto, a função escore 𝑈 = 𝑈 (𝜃) = 𝑑ℓ(𝜃)/𝑑𝜃 resulta em 𝑈 = 𝑥 − 𝑏 ′ (𝜃), sendo que
𝑏 ′ (𝜃) é a derivada de primeira ordem de 𝑏(𝜃) em relação a 𝜃.
 
É fácil verificar das propriedades da função escore, E(𝑈) = 0 e Var(𝑈) = −E 𝑑 2 ℓ(𝜃)/𝑑𝜃 2
= −E(𝑈 ′ ) (a última igualdade é a informação de Fisher), que

E(𝑋) = 𝑏 ′ (𝜃) e Var(𝑋) = 𝑏 ′′ (𝜃), (1.3)

sendo que 𝑏 ′′ (𝜃) é a derivada de segunda ordem de 𝑏(𝜃) em relação a 𝜃.


O simples fato de se calcularem momentos da família exponencial (1.2) em termos
de derivadas da função 𝑏(𝜃) (denominada função geradora de cumulantes, ver Seção
1.4) em relação ao parâmetro canônico 𝜃 é muito importante na teoria dos modelos li-
neares generalizados, principalmente no contexto assintótico.

1.3 COMPONENTE ALEATÓRIO


O componente aleatório de um MLG é definido a partir da família exponencial
uniparamétrica na forma canônica (1.2) com um parâmetro extra de perturbação, 𝜙 > 0,
que é uma medida de dispersão da distribuição, como será descrito na Seção 2.3. Nelder e
Wedderburn (1972), ao proporem essa modelagem, conseguiram incorporar distribuições
biparaméticas no componente aleatório do modelo. Tem-se

𝑓 (𝑦; 𝜃, 𝜙) = exp 𝜙 −1 [𝑦𝜃 − 𝑏(𝜃)] + 𝑐(𝑦, 𝜙) , (1.4)

em que 𝑏(·) e 𝑐(·) são funções conhecidas. Quando 𝜙 é conhecido, a família de distri-
buições (1.4) é idêntica à família exponencial na forma canônica (1.2). Essa família, tam-
bém, é conhecida como família exponencial linear. Na Seção 1.4, será demonstrado que
o valor esperado e a variância de 𝑌 com distribuição na família (1.4) são

E(𝑌 ) = 𝜇 = 𝑏 ′ (𝜃) e Var(𝑌 ) = 𝜙 𝑏 ′′ (𝜃).

Observa-se, a partir da expressão da variância, que 𝜙 é um parâmetro de dispersão


do modelo e seu inverso 𝜙 −1 , uma medida de precisão. A função que relaciona o

✐ ✐

✐ ✐
✐ ✐

“output” — 2024/4/2 — 8:23 — page 14 — #14


✐ ✐

14 Modelos lineares generalizados e aplicações

parâmetro canônico 𝜃 com a média 𝜇 é denotada por 𝜃 = 𝑞(𝜇) (inversa da função


𝑏 ′ (·)). A função da média 𝜇 na variância é representada por 𝑏 ′′ (𝜃) = 𝑉 (𝜇), sendo
𝑉 (𝜇) denominada função
∫ de variância. Observa-se que o parâmetro canônico pode
ser obtido de 𝜃 = 𝑉 −1 (𝜇)𝑑𝜇, pois 𝑉 (𝜇) = 𝑑𝜇/𝑑𝜃. A Tabela 1.1 apresenta várias
distribuições importantes na família (1.4), caracterizando as funções 𝑏(𝜃), 𝑐(𝑦, 𝜙), a
média 𝜇(𝜃) em termos do parâmetro canônico 𝜃 e a função de variância 𝑉 (𝜇). A família
de distribuições (1.4) inclui distribuições que exibem assimetria e de natureza discreta
ou contínua, com suportes que são restritos a intervalos do conjunto dos reais, conforme
bem exemplificam as distribuições da Tabela 1.1 e com detalhes no Capítulo 2.
Convém enfatizar que se 𝜙 não for conhecido, a família (1.4) pode, ou não, pertencer à
família exponencial biparamétrica (Seção 1.6). Para (1.4) pertencer à família exponencial
biparamétrica quando 𝜙 é desconhecido, a função 𝑐(𝑦, 𝜙) deve ser decomposta como
𝑐(𝑦, 𝜙) = 𝜙 −1 𝑑 (𝑦) + 𝑑2 (𝜙) + 𝑑1 (𝑦), segundo Cordeiro e McCullagh (1991). Esse é o caso
das distribuições normal, gama e normal inversa.
Morris (1982) demonstrou que existem apenas seis distribuições na família (1.4), cuja
função de variância é uma função, no máximo, quadrática da média. Essas distribuições
são normal (𝑉 = 1), gama (𝑉 = 𝜇2 ), binomial (𝑉 = 𝜇(1 − 𝜇)), Poisson (𝑉 = 𝜇) e
binomial negativa (𝑉 = 𝜇 + 𝜇2 /𝑘). A sexta, chamada secante hiperbólica generalizada
(𝑉 = 1 + 𝜇2 ), tem função densidade igual a
1  𝜋𝑦 
𝑓 (𝑦; 𝜃) = exp[𝜃𝑦 + log(cos 𝜃)] cosh , 𝑦 ∈ R, 𝜃 > 0. (1.5)
2 2

A distribuição secante hiperbólica generalizada (1.5) compete com a distribuição


normal na análise de observações contínuas nos reais. A seguir, apresentam-se duas
distribuições que pertencem à família (1.4).

✐ ✐

✐ ✐


Tabela 1.1 Algumas distribuições importantes na família (1.4).

Distribuição 𝜙 𝜃 𝑏(𝜃) 𝑐(𝑦, 𝜙) 𝜇(𝜃) 𝑉 (𝜇)


𝜃2 1 𝑦2
Família exponencial de distribuições

2
𝜎2 𝜇 𝜃 1
2 2 𝜎2
Normal: N(𝜇, 𝜎 2 ) − + log ( 2𝜋𝜎 )
 

Poisson: P(𝜇) 1 log (𝜇) e𝜃 − log (𝑦 !) e𝜃 𝜇


𝜇 𝑚 𝑚e 𝜃 𝜇
Binomial: B(𝑚, 𝜋) 1 log log
𝑚 𝑦 𝑚
𝑚 log ( 1 + e 𝜃 ) (𝑚 − 𝜇)
   

1 + e𝜃
𝜇 𝑘e𝜃
Binomial negativa: BN(𝜇, 𝑘) 1 log log 𝜇
Γ(𝑘 + 𝑦)
Γ(𝑘)𝑦 ! 𝑘
−𝑘 log ( 1 − e 𝜃 ) +1
 − 𝜇  

𝜇+𝑘 1 − e𝜃
1 1
𝜇 

Gama: G(𝜇, 𝜈) 𝜈 −1 𝜇2
𝜇 𝜃
− − log (−𝜃) 𝜈 log (𝜈𝑦) − log (𝑦) − log Γ(𝜈) −
1 1 1
𝜎2 𝜇3
2𝜇 2 𝜎 𝑦
Normal inversa: IG(𝜇, 𝜎 2 ) − 2 −(−2𝜃) 1/2 − log ( 2𝜋𝜎 2 𝑦 3 ) + 2 (−2𝜃) −1/2
 

Note que Γ(·) é a função gama, isto é, Γ(𝛼) = 0 𝑥 𝛼−1 e−𝑥 𝑑𝑥, 𝛼 > 0.
“output” — 2024/4/2 — 8:23 — page 15 — #15

∫∞
15




✐ ✐

“output” — 2024/4/2 — 8:23 — page 16 — #16


✐ ✐

16 Modelos lineares generalizados e aplicações

Exemplo 1.4

A distribuição normal N(𝜇, 𝜎 2 ), de média 𝜇 ∈ R e variância 𝜎 2 > 0, tem função


densidade de probabilidade (f.d.p.) expressa como
 
2 1 (𝑦 − 𝜇) 2
𝑓 (𝑦; 𝜇, 𝜎 ) = √ exp − .
2𝜋𝜎 2 2𝜎 2

Tem-se, então,
 
2 (𝑦 − 𝜇) 2 1 2
𝑓 (𝑦; 𝜇, 𝜎 ) = exp − − log(2𝜋𝜎 )
2𝜎 2 2
  2
 
1 𝜇 1 2 𝑦2
= exp 2 𝑦𝜇 − − log(2𝜋𝜎 ) − ,
𝜎 2 2 2𝜎 2

obtendo-se os elementos da primeira linha da Tabela 1.1, isto é,


 
2 𝜇2 𝜃 2 1 𝑦2 2
𝜃 = 𝜇, 𝜙 = 𝜎 , 𝑏(𝜃) = = e 𝑐(𝑦, 𝜙) = − + log(2𝜋𝜎 ) ,
2 2 2 𝜎2

o que demonstra que a distribuição N(𝜇, 𝜎 2 ) pertence à família (1.4).

Exemplo 1.5

A distribuição binomial tem função de probabilidade


 
𝑚 𝑦
𝑓 (𝑦; 𝜋) = 𝜋 (1 − 𝜋) 𝑚−𝑦 , 𝜋 ∈ (0, 1), 𝑦 = 0, 1, . . . , 𝑚.
𝑦
Tem-se, então,
  
𝑚
𝑓 (𝑦; 𝜋) = exp log + 𝑦 log(𝜋) + (𝑚 − 𝑦) log(1 − 𝜋)
𝑦
  𝜋   
𝑚
= exp 𝑦 log + 𝑚 log(1 − 𝜋) + log ,
1−𝜋 𝑦
obtendo-se os elementos da terceira linha da Tabela 1.1, isto é,
 𝜋   
𝜇
𝜙 = 1, 𝜃 = log = log , o que implica em
1−𝜋 𝑚−𝜇
 
𝑚e 𝜃 𝜃 𝑚
𝜇= 𝜃
, 𝑏(𝜃) = −𝑚 log(1 − 𝜋) = 𝑚 log (1 + e ) e 𝑐(𝑦, 𝜙) = log .
(1 + e ) 𝑦

✐ ✐

✐ ✐
✐ ✐

“output” — 2024/4/2 — 8:23 — page 17 — #17


✐ ✐

Família exponencial de distribuições 17

Portanto, a distribuição binomial pertence à família exponencial (1.4). Note que a


formulação usada, Bin(𝑚, 𝜋), é equivalente à usada por Davison (2008, p. 169, exemplo
5.6). Ao se tratar 𝜙 = 1, tem-se que 𝜇 depende de 𝑚. Um artifício seria usar 𝜙 = 1/𝑚,
como faz Davison (2008, p. 481, exemplo 10.2). McCullagh e Nelder (1989, p. 30) usam,
como notação, Bin(𝑚, 𝜋)/𝑚 como distribuição pertencente à família exponencial. Porém,
o algoritmo de estimação independe de qual dessas formulações é usada.
Outras distribuições importantes podem ser expressas na forma (1.4) como os mode-
los exponenciais de dispersão (JøRGENSEN, 1987).

1.4 FUNÇÃO GERADORA DE MOMENTOS


A função geradora de momentos (f.g.m.) da família (1.4) é igual a
  
𝑀 (𝑡; 𝜃, 𝜙) = E e𝑡𝑌 = exp 𝜙 −1 [𝑏(𝜙𝑡 + 𝜃) − 𝑏(𝜃)] . (1.6)

Prova: a prova será feita apenas para o caso de variáveis aleatórias contínuas. No caso
discreto, basta substituir a integral pelo somatório. Sabe-se que

𝑓 (𝑦; 𝜃, 𝜙)𝑑𝑦 = 1,
𝐴

e, portanto, ∫

exp 𝜙 −1 [𝜃𝑦 − 𝑏(𝜃)] + 𝑐(𝑦, 𝜙) 𝑑𝑦 = 1,
𝐴
obtendo-se

   
exp 𝜙 −1 𝜃𝑦 + 𝑐(𝑦, 𝜙) 𝑑𝑦 = exp 𝜙 −1 𝑏(𝜃) . (1.7)
𝐴

Logo,
  ∫
𝑡𝑌
𝑀 (𝑡; 𝜃, 𝜙) = E e = exp(𝑡𝑦) 𝑓 (𝑦)𝑑𝑦
∫ 𝐴

= exp 𝜙 −1 [(𝜙𝑡 + 𝜃)𝑦 − 𝑏(𝜃)] + 𝑐(𝑦, 𝜙) 𝑑𝑦
𝐴

1  
=   exp 𝜙 −1 (𝜙𝑡 + 𝜃)𝑦 + 𝑐(𝑦, 𝜙) 𝑑𝑦
exp 𝜙 −1 𝑏(𝜃) 𝐴

e, usando a equação (1.7), tem-se



𝑀 (𝑡; 𝜃, 𝜙) = exp 𝜙 −1 [𝑏(𝜙𝑡 + 𝜃) − 𝑏(𝜃)] .

✐ ✐

✐ ✐
✐ ✐

“output” — 2024/4/2 — 8:23 — page 18 — #18


✐ ✐

18 Modelos lineares generalizados e aplicações

A função geradora de cumulantes (f.g.c.) correspondente é, então,

𝜑(𝑡; 𝜃, 𝜙) = log[𝑀 (𝑡; 𝜃, 𝜙)] = 𝜙 −1 [𝑏(𝜙𝑡 + 𝜃) − 𝑏(𝜃)]. (1.8)

A f.g.c. desempenha um papel muito importante na Estatística, pois uma grande


parte da teoria assintótica depende de suas propriedades. Diferenciando-se (1.8), suces-
sivamente, em relação a 𝑡, tem-se

𝜑 (𝑟 ) (𝑡; 𝜃, 𝜙) = 𝜙𝑟 −1 𝑏 (𝑟 ) (𝜙𝑡 + 𝜃),

em que 𝑏 (𝑟 ) (·) indica a derivada de 𝑟-ésima ordem de 𝑏(·) em relação a 𝑡. Para 𝑡 = 0,


obtém-se o 𝑟-ésimo cumulante da família (1.4) como

𝜅𝑟 = 𝜙𝑟 −1 𝑏 (𝑟 ) (𝜃). (1.9)

A partir da equação (1.9), podem ser deduzidos o valor esperado 𝜅1 e a variância


𝜅 2 da família (1.4) para 𝑟 = 1 e 2, respectivamente. Tem-se que 𝜅1 = 𝜇 = 𝑏 ′ (𝜃) e
𝜅 2 = 𝜙 𝑏 ′′ (𝜃) = 𝜙 𝑑𝜇/𝑑𝜃.
A expressão (1.9) mostra que existe uma relação interessante de recorrência entre
os cumulantes da família (1.4), isto é, 𝜅𝑟+1 = 𝜙 𝑑𝜅𝑟 /𝑑𝜃 para 𝑟 = 1, 2, . . . Esse fato é
fundamental para a obtenção de propriedades assintóticas dos estimadores de máxima
verossimilhança (EMVs) nos MLGs.
Essas expressões podem ser deduzidas, de forma alternativa, usando-se as proprie-
dades da função escore, sendo ℓ = ℓ(𝜃, 𝜙) = log[ 𝑓 (𝑦; 𝜃, 𝜙)] o logaritmo da função de
verossimilhança correspondente a uma única observação em (1.4). Tem-se

𝑑ℓ 𝑑2ℓ
𝑈= = 𝜙 −1 [𝑦 − 𝑏 ′ (𝜃)] e 𝑈 ′ = 2 = −𝜙 −1 𝑏 ′′ (𝜃).
𝑑𝜃 𝑑𝜃
Logo,
E(𝑈) = 𝜙 −1 [E(𝑌 ) − 𝑏 ′ (𝜃)] = 0, que implica em E(𝑌 ) = 𝑏 ′ (𝜃)
e, assim,

Var(𝑈) = −E(𝑈 ′ ) = 𝜙 −1 𝑏 ′′ (𝜃) e Var(𝑈) = E(𝑈 2 ) = 𝜙 −2 Var(𝑌 ).

Então,
Var(𝑌 ) = 𝜙 𝑏 ′′ (𝜃).

✐ ✐

✐ ✐
✐ ✐

“output” — 2024/4/2 — 8:23 — page 19 — #19


✐ ✐

Família exponencial de distribuições 19

Exemplo 1.6

Considerando-se o Exemplo 1.4 (distribuição normal), tem-se que 𝜙 = 𝜎 2 , 𝜃 = 𝜇


e 𝑏(𝜃) = 𝜃 2 /2. Da equação (1.8), obtém-se a f.g.c.
 
1 (𝜎 2 𝑡 + 𝜃) 2 𝜃 2 𝜎2𝑡 2
𝜑(𝑡) = − = 𝑡 𝜇 + .
𝜎2 2 2 2

Note que, diferenciando-se 𝜑(𝑡) e fazendo-se 𝑡 = 0, tem-se que 𝜅 1 = 𝜇, 𝜅 2 = 𝜎 2 e


𝜅𝑟 = 0, 𝑟 ≥ 3. Assim, todos os cumulantes da distribuição normal de ordem maior
do que dois são nulos.
Logo, a f.g.m. é igual a
 
𝜎2𝑡 2
𝑀 (𝑡) = exp 𝑡 𝜇 + .
2

Exemplo 1.7

Considerando-se o Exemplo 1.5 (distribuição binomial), tem-se que


𝜙 = 1, 𝜃 = log[𝜇/(𝑚 − 𝜇)] e 𝑏(𝜃) = −𝑚 log(1 − 𝜋) = 𝑚 log(1 + e 𝜃 ).
Logo, usando-se a f.g.c. (1.8), tem-se
 
𝜑(𝑡) = 𝑚 log(1 + e𝑡+𝜃 ) − log(1 + e 𝜃 )
 𝑚  𝑚 − 𝜇 𝜇 𝑚
1 + e𝑡+𝜃
= log = log + e𝑡 .
1 + e𝜃 𝑚 𝑚

Assim, a f.g.m. é
𝑚 − 𝜇 𝜇 𝑡 𝑚
𝑀 (𝑡) = e 𝜑 (𝑡 ) = + e .
𝑚 𝑚

A Tabela 1.2 apresenta as funções geradoras de momentos para as distribuições


especificadas na Tabela 1.1.
Especificando-se a forma da função 𝜇 = 𝑞 −1 (𝜃), pode-se demonstrar que a distribui-
ção em (1.4) é univocamente determinada. Assim, uma relação funcional variância-média
caracteriza a distribuição na família (1.4). Entretanto, essa relação não caracteriza a distri-
buição na família exponencial não-linear 𝜋(𝑦; 𝜃, 𝜙) = exp 𝜙 −1 [𝑡 (𝑦)𝜃 − 𝑏(𝜃)] + 𝑐(𝑦, 𝜙) .
Esse fato é comprovado com os três exemplos que se seguem.

✐ ✐

✐ ✐
✐ ✐

“output” — 2024/4/2 — 8:23 — page 20 — #20


✐ ✐

20 Modelos lineares generalizados e aplicações

Tabela 1.2 Funções geradoras de momentos para algumas distribuições.

Distribuição Função geradora de momentos 𝑀 (𝑡; 𝜃, 𝜙)


 
𝜎2𝑡 2
Normal: N(𝜇, 𝜎 2 ) exp 𝑡 𝜇 +
2
 𝑡 
Poisson: P(𝜇) exp 𝜇(e − 1)
 𝑚 − 𝜇 𝜇 𝑚
Binomial: B(𝑚, 𝜋) + e𝑡
𝑚 𝑚
h 𝜇 i −𝑘
Binomial negativa: BN(𝜇, 𝑘) 1 + (1 − e𝑡 )
𝑘
 𝑡 𝜇  −𝜈 𝜈
Gama: G(𝜇, 𝜈) 1− , 𝑡<
𝜈 𝜇
( "   1/2 # )
1 1 1 1
Normal inversa: IG(𝜇, 𝜎 2 ) exp 2
− 2 − 2𝑡𝜎 2 , 𝑡<
𝜎 𝜇 𝜇 2𝜎 2 𝜇2

Exemplo 1.8

Se 𝑌 tem distribuição beta com parâmetros 𝜙 −1 𝜇 e 𝜙 −1 (1 − 𝜇) e f.d.p. expressa


por
−1 −1
𝑦 𝜙 𝜇−1 (1 − 𝑦) 𝜙 (1− 𝜇) −1
𝑓 (𝑦; 𝜇, 𝜙) = ,
𝐵[𝜙 −1 𝜇, 𝜙 −1 (1 − 𝜇)]
∫∞
em que 𝐵(𝑎, 𝑏) = 0 𝑥 𝑎−1 (1 − 𝑥) 𝑏−1 𝑑𝑥 é a função beta completa, tem-se que
𝑡 (𝑦) = log[𝑦/(1 − 𝑦)], 𝜃 = 𝜇 e Var(𝑌 ) = 𝜙𝜇(1 − 𝜇)/(1 + 𝜙), obtendo-se uma função
de variância do mesmo tipo que a do modelo binomial.

Exemplo 1.9

Se 𝑌 tem distribuição de Euler com média 𝜇 e f.d.p.

𝑓 (𝑦; 𝜇) = exp{𝜇 log(𝑦) − 𝜇 − log[Γ(𝜇)]},

tem-se que 𝑡 (𝑦) = log(𝑦), 𝜃 = 𝜇 e Var(𝑌 ) = 𝜇, que é do mesmo tipo que a função
de variância do modelo de Poisson.

✐ ✐

✐ ✐
✐ ✐

“output” — 2024/4/2 — 8:23 — page 21 — #21


✐ ✐

Família exponencial de distribuições 21

Exemplo 1.10

Se Y tem distribuição log-normal de parâmetros 𝛼 e 𝜎 2 e f.d.p.


 
2 1 [log(𝑦) − 𝛼] 2
𝑓 (𝑦; 𝛼, 𝜎 ) = √ exp − ,
𝑦𝜎 2𝜋 2𝜎 2

então, podem-se obter E(𝑌 ) = 𝜇 = exp(𝛼 + 𝜎 2 /2), 𝑡 (𝑦) = log(𝑦), 𝜃 = 𝛼/𝜎 2 e


Var(𝑌 ) = 𝜇2 [exp(𝜎 2 ) − 1], que é do mesmo tipo que a função de variância do
modelo gama.

1.5 ESTATÍSTICA SUFICIENTE


Uma estatística 𝑇 = 𝑇 (Y) é suficiente para um parâmetro 𝜃 (que pode ser um vetor)
quando resume toda informação sobre esse parâmetro contida na amostra aleatória
Y = (𝑌1 , 𝑌2 , . . . , 𝑌𝑛 ) 𝑇 . Se 𝑇 é suficiente para 𝜃, então, a distribuição condicional de Y
dada a estatística 𝑇 (Y) é independente de 𝜃, isto é,
P(Y = y|𝑇 = 𝑡, 𝜃) = P(Y = y|𝑇 = 𝑡).

Segundo o critério da fatoração, uma condição necessária e suficiente para 𝑇 ser


suficiente para um parâmetro 𝜃 é que a função (densidade ou de probabilidade) 𝑓Y (y; 𝜃)
possa ser decomposta como
𝑓Y (y; 𝜃) = ℎ(y)𝑔(𝑡, 𝜃),
em que 𝑡 = 𝑇 (y) e ℎ(y) não dependem de 𝜃.
Sendo 𝑌1 , . . . , 𝑌𝑛 uma amostra aleatória (a.a.) de uma distribuição que pertence à
família (1.4). A distribuição conjunta de 𝑌1 , . . . , 𝑌𝑛 é expressa por
Ö
𝑛 Ö
𝑛

𝑓 (y; 𝜃, 𝜙) = 𝑓 (𝑦 𝑖 ; 𝜃, 𝜙) = exp 𝜙 −1 [𝑦 𝑖 𝜃 − 𝑏(𝜃)] + 𝑐(𝑦 𝑖 , 𝜙)
𝑖=1 𝑖=1
( " #) " #
∑︁
𝑛 ∑︁
𝑛
−1
= exp 𝜙 𝜃 𝑦 𝑖 − 𝑛 𝑏(𝜃) exp 𝑐(𝑦 𝑖 , 𝜙) .
𝑖=1 𝑖=1

Pelo teorema da fatoração de Neyman-Fisher e supondo 𝜙 conhecido, tem-se que


∑︁
𝑛
𝑇= 𝑌𝑖 é uma estatística suficiente para 𝜃, pois
𝑖=1

𝑓 (y; 𝜃, 𝜙) = 𝑔(𝑡, 𝜃) ℎ(𝑦 1 , . . . , 𝑦 𝑛 ),

✐ ✐

✐ ✐
✐ ✐

“output” — 2024/4/2 — 8:23 — page 22 — #22


✐ ✐

22 Modelos lineares generalizados e aplicações

em que 𝑔(𝑡, 𝜃) depende de 𝜃 e de y apenas por meio de 𝑡 e ℎ(𝑦 1 , . . . , 𝑦 𝑛 ) independe de 𝜃.


Esse fato revela que, se uma distribuição pertence à família exponencial unipara-
métrica, então, existe uma estatística suficiente. Na realidade, usando-se o Teorema de
∑︁
𝑛
Lehmann-Scheffé Mendenhall, Scheaffer e Wackerly (1981) demonstra-se que 𝑇 = 𝑌𝑖
𝑖=1
é uma estatística suficiente minimal.
Geralmente, a estatística suficiente de um modelo da família exponencial tem dis-
tribuição, também, pertencente à família exponencial. Por exemplo, se 𝑌1 , . . . , 𝑌𝑛 são
variáveis aleatórias i.i.d. com distribuição de Poisson P(𝜃), então, a estatística suficiente
∑︁
𝑛
𝑇= 𝑌𝑖 tem, ainda, distribuição de Poisson P(𝑛𝜃) e, assim, é um modelo exponencial
𝑖=1
uniparamétrico.

1.6 FAMÍLIA EXPONENCIAL MULTIPARAMÉTRICA


A família exponencial multiparamétrica de dimensão 𝑘 é caracterizada por uma
função (de probabilidade ou densidade) da forma
" 𝑘 #
∑︁
𝑓 (x; 𝜽) = ℎ(x) exp 𝜂𝑖 (𝜽)𝑡 𝑖 (x) − 𝑏(𝜽) , (1.10)
𝑖=1

em que 𝜽 é um vetor de parâmetros, usualmente, de dimensão 𝑘, e as funções 𝜂𝑖 (𝜽),


𝑏(𝜽), 𝑡 𝑖 (x) e ℎ(x) têm valores em subconjuntos dos reais. Obviamente, a forma (1.1) é
um caso especial de (1.10). Pelo teorema da fatoração, o vetor T = [𝑇1 (X), . . . , 𝑇𝑘 (X)] 𝑇
é suficiente para o vetor de parâmetros 𝜽. Quando 𝜂𝑖 (𝜽) = 𝜃 𝑖 , 𝑖 = 1, . . . , 𝑘, obtém-se
de (1.10) a família exponencial multiparamétrica na forma canônica com parâmetros
canônicos 𝜃 1 , · · · , 𝜃 𝑘 e estatísticas canônicas 𝑇1 (X), . . . , 𝑇𝑘 (X). Tem-se
" 𝑘 #
∑︁
𝑓 (x; 𝜽) = ℎ(x) exp 𝜃 𝑖 𝑡 𝑖 (x) − 𝑏(𝜽) . (1.11)
𝑖=1

Pode-se verificar (Exercício 12) que as distribuições normal, gama, normal inversa e
beta pertencem à família exponencial biparamétrica canônica (1.11) com 𝑘 = 2.
Gelfand e Dalal (1990) estudaram a família exponencial biparamétrica 𝑓 (𝑥; 𝜃, 𝜏) =
ℎ(𝑥) exp[𝜃𝑥 + 𝜏𝑡 (𝑥) − 𝑏(𝜃, 𝜏)], que é um caso especial de (1.10), com 𝑘 = 2. Essa
família tem despertado interesse, recentemente, como o componente aleatório dos MLGs
superdispersos (DEY; GELFAND; PENG, 1997). Dois casos especiais importantes dessa
família são diretamente obtidos:

✐ ✐

✐ ✐
✐ ✐

“output” — 2024/4/2 — 8:23 — page 23 — #23


✐ ✐

Família exponencial de distribuições 23

(a) a família exponencial canônica uniparamétrica (1.2) surge, naturalmente, quando


𝜏 = 0;
(b) o componente aleatório (1.4) dos MLGs é obtido incorporando o parâmetro de dis-
persão 𝜙.

Exemplo 1.11

Considere a distribuição multinomial com função de probabilidade

𝑛!
𝑓 (x; 𝝅) = 𝜋1𝑥1 . . . 𝜋 𝑘𝑥𝑘 ,
𝑥1 ! . . . 𝑥 𝑘 !

∑︁
𝑘 ∑︁
𝑘
em que 𝑥𝑖 = 𝑛 e 𝜋𝑖 = 1. Essa distribuição pertence à família exponencial
𝑖=1 𝑖=1
canônica (1.11) com vetor de parâmetros canônicos 𝜽 = [log(𝜋1 ), . . . , log(𝜋 𝑘 )] 𝑇
e estatística canônica T = (𝑋1 , . . . , 𝑋 𝑘 ) 𝑇 . Entretanto, devido à restrição
∑︁
𝑘
𝜋𝑖 = 1, a representação mínima da família exponencial é obtida considerando
𝑖=1
𝜽 = [log(𝜋1 /𝜋 𝑘 ), . . . , log(𝜋 𝑘−1 /𝜋 𝑘 )] 𝑇 e T = (𝑋1 , . . . , 𝑋 𝑘−1 ) 𝑇 , ambos vetores de
dimensão 𝑘 − 1, resultando na família exponencial multiparamétrica de dimensão
𝑘 −1
" 𝑘−1 #
𝑛! ∑︁
𝑓 (x; 𝜽) = exp 𝜃 𝑖 𝑥 𝑖 − 𝑏(𝜽) , (1.12)
𝑥1 ! . . . 𝑥 𝑘 ! 𝑖=1
!
∑︁
𝑘−1
com 𝜃 𝑖 = log(𝜋𝑖 /𝜋 𝑘 ), 𝑖 = 1, . . . , 𝑘 − 1, e 𝑏(𝜽) = 𝑛 log 1 + e 𝜃i , pois
𝑖=1
 Í 𝑘−1  −1
𝜋𝑖 = 𝜋 𝑘 e 𝜃i , i
= 1, . . . , k − 1 e 𝜋 𝑘 = 1 + 𝑖=1 . e 𝜃i
Pode-se demonstrar que os dois primeiros momentos da estatística suficiente
T = [𝑇1 (X), · · · , 𝑇𝑘 (X)] 𝑇 na família exponencial canônica (1.11) são iguais a

𝜕𝑏(𝜽) 𝜕 2 𝑏(𝜽)
E(T) = , Cov(T) = . (1.13)
𝜕𝜽 𝜕𝜽𝜕𝜽 𝑇
As expressões (1.13) generalizam (1.3). Nas equações (1.13), o vetor 𝜕𝑏(𝜽)/𝜕𝜽
de dimensão 𝑘 tem um componente típico E[𝑇𝑖 (X)] = 𝜕𝑏(𝜽)/𝜕𝜃 𝑖 e a matriz
𝜕 2 𝑏(𝜽)/𝜕𝜽𝜕𝜽 𝑇 de ordem 𝑘 tem como elemento típico Cov(𝑇𝑖 (X), 𝑇 𝑗 (X)) =
𝜕 2 𝑏(𝜽)/𝜕𝜃 𝑖 𝜕𝜃 𝑗 . Assim, os valores esperados e as covariâncias das estatísticas

✐ ✐

✐ ✐
✐ ✐

“output” — 2024/4/2 — 8:23 — page 24 — #24


✐ ✐

24 Modelos lineares generalizados e aplicações

suficientes do modelo (1.11) são facilmente obtidos por simples diferenciação. A


demonstração das equações (1.13) é proposta no Exercício 19.

Para o modelo multinominal (1.12), usando as equações (1.13), têm-se


!
𝜕 ∑︁
𝑘−1
𝑛e 𝜃𝑖 𝑛 𝜋𝜋𝑘𝑖
𝜃𝑖
E(𝑋𝑖 ) = 𝑛 log 1 + e = Í 𝑘−1 𝜃 = Í 𝑘−1 𝜋𝑖 = 𝑛𝜋𝑖 ,
𝜕𝜃 𝑖 𝑖=1 1 + 𝑖=1 e 𝑖 1 + 𝑖=1 𝜋𝑘

para 𝑖 = 𝑗
!
𝜕2 ∑︁
𝑘−1
𝜃𝑖
Var(𝑋𝑖 ) = 𝑛 2 log 1 + e = 𝑛𝜋𝑖 (1 − 𝜋𝑖 ),
𝜕𝜃 𝑖 𝑖=1

e para 𝑖 ≠ 𝑗
!
𝜕2 ∑︁
𝑘−1
−𝑛e 𝜃𝑖 e 𝜃 𝑗
Cov(𝑋𝑖 , 𝑋 𝑗 ) = 𝑛 log 1 + e 𝜃𝑖 =  = −𝑛𝜋𝑖 𝜋 𝑗 .
𝜕𝜃 𝑖 𝜕𝜃 𝑗 Í 𝑘−1 𝜃  2
𝑖=1 1 + 𝑖=1 e 𝑖

Finalmente, apresenta-se mais uma distribuição na família exponencial canônica


(1.11) com 𝑘 = 2, no exemplo que se segue.

Exemplo 1.12

Considere a distribuição Gaussiana inversa reparametrizada por (𝛼, 𝛽 > 0)


√︂  
𝛼 √ 𝛼𝛽 −3/2 1 −1
𝑓 (𝑥; 𝛼, 𝛽) = 𝑒 𝑥 exp − (𝛼𝑥 + 𝛽𝑥) , 𝑥 > 0.
2𝜋 2
 𝑇
1 −1 1
Pode-se escrever essa f.d.p. na forma (1.11) com t = − 𝑥 , − 𝑥 , 𝜽 = (𝛼, 𝛽) 𝑇
√ 2 2
e 𝑏(𝜽) = − 12 log(𝛼) − 𝛼𝛽. Usando-se as equações (1.13), obtêm-se, por simples
diferenciação,
√︂ √︂
𝛼 −1 −1 𝛽
E(𝑋) = , E(𝑋 ) = 𝛼 +
𝛽 𝛼
e
 
−1 𝛼1/2 𝛽 −3/2 −(𝛼𝛽) −1/2
Cov(𝑋, 𝑋 )= .
−(𝛼𝛽) −1/2 2𝛼 −2 + 𝛼 −3/2 𝛽1/2

✐ ✐

✐ ✐
Capa_Cordeiro_Modelos lineares_P2.pdf 1 05/02/2024 23:34:20

Gauss M. Cordeiro

MORAL
DEMÉTRIO
CORDEIRO
MODELOS LINEARES Clarice G. B. Demétrio
GENERALIZADOS Rafael A. Moral
E APLICAÇÕES

Gauss M. Cordeiro
MODELOS LINEARES
Obteve seu PhD em Estatística no Imperial College, Universidade de Londres (1982), e tem
GENERALIZADOS E APLICAÇÕES

GENERALIZADOS E APLICAÇÕES
pós-doutorado no Instituto de Matemática Pura e Aplicada (1990-1992). Publicou mais de 400
artigos em periódicos internacionais e orientou mais de 60 alunos de pós-graduação. Trabalha na
área de Análise de Sobrevivência, Distribuições de Probabilidade e Modelos de Regressão.

MODELOS LINEARES
Clarice G. B. Demétrio
C
Tem graduação em Engenharia Agronômica (1972-75), e mestrado (1976-79) e doutorado (1979-
M
-85) em Estatística e Experimentação Agronômica na ESALQ/USP, pós-doutorado no Imperial
Y College of Science and Technology, Londres (1986-87) e Doctor Honoris Causa (2019) pela
CM University of Hasselt, Bélgica. É professora titular no Departamento de Ciências Exatas da
MY ESALQ/USP, desenvolvendo pesquisa e orientando, principalmente, em Modelos Lineares Gene-
CY ralizados e Extensões.
CMY

K
Rafael A. Moral
Professor associado de Estatística e diretor do grupo de pesquisas em Ecologia Teórica e Estatística
na Maynooth University, Irlanda. Tem graduação em Ciências Biológicas (2007-11), e mestrado
(2012-14) e doutorado (2014-17) em Estatística e Experimentação Agronômica pela ESALQ/USP.
Desenvolve pesquisa em Modelagem Estatística Aplicada a Ecologia, Manejo da Vida Selvagem,
Agricultura e Ciências Ambientais.

www.blucher.com.br

ABE - PROJETO FISHER ABE - PROJETO FISHER

Você também pode gostar