169

C:/Documents and Settings/Kelly/My Documents/Doutorado ......concept of optim um linear estimati ng equation (Cro wder, 1987), w e dev elop generalized estimati ng equation (GEE) to

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

  • Equação de estimação generalizadae in�uênia loal paramodelos de regressão betaom medidas repetidasMaria Kelly VenezuelaTESE APRESENTADAAOINSTITUTO DE MATEMÁTICA E ESTATÍSTICADAUNIVERSIDADE DE S�O PAULOPARAOBTENÇ�O DO GRAUDEDOUTOR EM CIÊNCIASÁrea de Conentração: Estatístia

    Orientadora: Profa. Dra. M�nia Carneiro SandovalCo-Orientadora: Profa. Dra. Denise Apareida BotterSão Paulo, 04 de março de 2008.

  • Equação de estimação generalizada e in�uênia loalpara modelos de regressão betaom medidas repetidasEste exemplar orresponde à redação �nalda tese devidamente orrigida edefendida por Maria Kelly Venezuela eaprovada pela omissão julgadora.

    São Paulo, 04 de março de 2008.

    Bana Examinadora:• Profa. Dra. M�nia Sandoval (orientadora) - IME/USP• Profa. Dra. Silvia Lopes de Paula Ferrari - IME/USP• Profa. Dra. Clarie Garia Borges Demétrio - ESALQ/USP• Prof. Dr. Filidor Edilfonso Vila Labra - UNICAMP• Prof. Dr. Franiso Jose de Azevedo Cysneiros - UFPE

  • �Uma pessoa permanee jovem na medida que ainda éapaz de aprender, adquirir novos hábitose tolerar ontradições�.(Marie von Ebner-Eshenbah)

  • Aos meus pais Batista e Terezinha,ao meu marido Gilberto eao meu �lho Enzo.

  • AgradeimentosDurante todo o tempo que me dediquei a este trabalho, ontei om a ajuda e om-preensão de muitas pessoas, entre as quais agradeço espeialmente:Às professorasDenise Apareida Botter eM�nia Carneiro Sandoval pela orien-tação, on�ança, apoio dediados a mim e a este trabalho e, prinipalmente, pela amizadedurante esses anos que trabalhamos juntas. Foi um imenso prazer tê-las omo orienta-doras, amigas, mães... Guardarei om arinho toda essa fase da minha vida que onvivi,amadurei e aprendi muito om voês. Obrigada por tudo!À bana examinadora e ao professor Rinaldo Artes, pela leitura e orreções su-geridas. Aos professores do IME-USP que partiiparam da minha formação aadêmia.Ao meu marido Gilberto, pela ompreensão, ompanheirismo, paiênia e, nova-mente, pelo apoio sempre me mostrando que, no �nal, tudo iria valer a pena. E valeu!Ao meu �lho Enzo que veio para trazer mais alegria e forças para terminar a tese.Aos meus pais Batista e Terezinha, pelo amor, eduação e paiênia que nunahesitaram em me ofereer. Ao meu irmão Sandro, em quem sempre me espelhei omrelação aos estudos.Às amizades de Iraema, Gisela, Patríia e Raydonal, Mihelli, Jaqueline eJuvênio, Daniela e Maros, Fred e Lílian, Cléber, Tatiana, Sumaia e Célia. ÀBiana, Jaqueline e Maros, por permaneermos amigos.A todos os meus amigos e parentes que sempre me deram muitos motivos para rir eser feliz.Ao CNPq, pela bolsa de doutorado onedida, om a qual pude me dediar om maisa�no a este trabalho.

  • ResumoUtilizando a teoria de função de estimação linear ótima (Crowder, 1987), propomosequações de estimação generalizadas para modelos de regressão beta (Ferrari e Cribari-Neto, 2004) om medidas repetidas. Além disso, apresentamos equações de estimaçãogeneralizadas para modelos de regressão simplex baseadas nas propostas de Song e Tan(2000) e Song et al. (2004) e equações de estimação generalizadas para modelos linearesgeneralizados om medidas repetidas baseadas nas propostas de Artes e Jφrgensen (2000)e Liang e Zeger (1986). Todas essas equações de estimação são desenvolvidas sob osenfoques da modelagem da média om homogeneidade da dispersão e da modelagemonjunta da média e da dispersão om intuito de inorporar ao modelo uma possívelheterogeneidade da dispersão. Como ténias de diagnóstio, desenvolvemos uma gene-ralização de algumas medidas de diagnóstio quando abordamos quaisquer equações deestimação de�nidas tanto para modelagem do parâmetro de posição onsiderando a ho-mogeneidade do parâmetro de dispersão omo para modelagem onjunta dos parâmetrosde posição e dispersão. Entre essas medidas, destaamos a proposta da in�uênia loal(Cook, 1986) desenvolvida para equações de estimação. Essa medida teve um bom desem-penho, em simulações, para destaar orretamente pontos in�uentes. Por �m, realizamosapliações a onjuntos de dados reais.Palavras-have: equação de estimação generalizada, distribuição beta, in�uênia loal.

  • AbstratBased on the onept of optimum linear estimating equation (Crowder, 1987), wedevelop generalized estimating equation (GEE) to analyze longitudinal data onsideringmarginal beta regression models (Ferrari and Cribari-Neto, 2004). The GEEs are alsopresented to marginal simplex models for longitudinal ontinuous proportional data pro-posed by Song and Tan (2000) and Song et al. (2004) and to generalized linear modelsfor longitudinal data based on the proposes of Artes and Jφrgensen (2000) and Liangand Zeger (1986). All of them are developed fousing the assumption of homogeneousdispersion and with varying dispersion. For the diagnosti tehniques, we generalize somediagnosti measures for estimating equations to model the position parameter onsideringan homogeneous dispersion parameter and for joint modelling of position and dispersionparameters to take in a

    ount a possible heterogeneous dispersion. Among these mea-sures, we point out the loal in�uene (Cook, 1986) developed to estimating equations.This measure an orretly show in�uential observations in simulation study. Finally, thetheory is applied to real data sets.Keywords: generalized estimating equation, beta distribution, loal in�uene.

  • Sumário1 Introdução 11.1 Distribuição Beta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.2 Distribuição Simplex . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.3 Funções de estimação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10I Equações de Estimação Generalizadas 152 Equações de estimação para modelos de regressão beta om medidasrepetidas 162.1 Modelagem do parâmetro de posição . . . . . . . . . . . . . . . . . . . . . 162.1.1 Estimação de β, φ e α . . . . . . . . . . . . . . . . . . . . . . . . . 202.2 Modelagem onjunta dos parâmetros de posição e preisão . . . . . . . . . 232.2.1 Estimação de β, γ e α . . . . . . . . . . . . . . . . . . . . . . . . . 263 Equações de estimação para modelos de regressão simplex om medidasrepetidas 283.1 Modelagem do parâmetro de posição . . . . . . . . . . . . . . . . . . . . . 283.1.1 Estimação de β, φ e α . . . . . . . . . . . . . . . . . . . . . . . . . 313.2 Modelagem onjunta dos parâmetros de posição e dispersão . . . . . . . . . 323.2.1 Estimação de β, γ e α . . . . . . . . . . . . . . . . . . . . . . . . . 344 Equações de estimação para modelos lineares generalizados ommedidasrepetidas 364.1 Modelagem do parâmetro de posição . . . . . . . . . . . . . . . . . . . . . 364.1.1 Estimação de β, φ e α . . . . . . . . . . . . . . . . . . . . . . . . . 384.2 Modelagem onjunta dos parâmetros de posição e dispersão . . . . . . . . . 394.2.1 Estimação de β, γ e α . . . . . . . . . . . . . . . . . . . . . . . . . 42

    i

  • II Ténias de Diagnóstio 435 Algumas medidas de diagnóstio para dados om medidas repetidas 445.1 Pontos alavana, in�uentes e aberrantes . . . . . . . . . . . . . . . . . . . . 455.2 Seleção de modelos e de matriz de orrelação de trabalho . . . . . . . . . . 496 In�uênia loal para equações de estimação 516.1 In�uênia loal generalizada . . . . . . . . . . . . . . . . . . . . . . . . . . 526.2 In�uênia loal para equações de estimação . . . . . . . . . . . . . . . . . . 536.3 Esquemas de perturbação sob homogeneidade da dispersão . . . . . . . . . 566.3.1 Ponderação de asos . . . . . . . . . . . . . . . . . . . . . . . . . . 576.3.2 Perturbação da variável resposta . . . . . . . . . . . . . . . . . . . 576.3.3 Perturbação individual das ovariáveis . . . . . . . . . . . . . . . . 596.3.4 Perturbação do parâmetro de preisão . . . . . . . . . . . . . . . . 636.3.5 Perturbação na matriz de orrelação de trabalho R(α) . . . . . . . 656.4 Esquemas de perturbação sob heterogeneidade da dispersão . . . . . . . . . 666.4.1 Ponderação de asos . . . . . . . . . . . . . . . . . . . . . . . . . . 676.4.2 Perturbação da variável resposta . . . . . . . . . . . . . . . . . . . 676.4.3 Perturbação individual das ovariáveis . . . . . . . . . . . . . . . . 69III Simulações e Apliações 807 Apliações a dados simulados 817.1 Simulação I - Dados om distribuição Normal . . . . . . . . . . . . . . . . 817.2 Simulação II - Dados om distribuição de Poisson . . . . . . . . . . . . . . 898 Apliações a dados reais 988.1 Apliação I - Estudo de oftalmologia . . . . . . . . . . . . . . . . . . . . . 988.2 Apliação II - Estudo de desenvolvimento motor de bebês . . . . . . . . . . 1139 Conlusões e Estudos futuros 129Apêndie A Detalhes para obtenção das equações de estimação 132A.1 Modelos de regressão beta . . . . . . . . . . . . . . . . . . . . . . . . . . . 132A.1.1 EEGs sob homogeneidade da dispersão . . . . . . . . . . . . . . . . 132A.1.2 EEGs sob heterogeneidade da dispersão . . . . . . . . . . . . . . . . 133A.2 Modelos de regressão simplex . . . . . . . . . . . . . . . . . . . . . . . . . 135A.2.1 EEGs sob homogeneidade da dispersão . . . . . . . . . . . . . . . . 135A.2.2 EEGs sob heterogeneidade da dispersão . . . . . . . . . . . . . . . . 135

  • A.3 Modelos lineares generalizados . . . . . . . . . . . . . . . . . . . . . . . . . 137A.3.1 EEGs sob heterogeneidade da dispersão . . . . . . . . . . . . . . . . 137Apêndie B Detalhes para obtenção das medidas de in�uênia loal 139B.1 In�uênia loal sob homogeneidade da dispersão . . . . . . . . . . . . . . . 139B.1.1 Perturbação da variável resposta . . . . . . . . . . . . . . . . . . . 139B.1.2 Perturbação individual de ovariáveis . . . . . . . . . . . . . . . . . 141B.1.3 Perturbação no parâmetro de preisão . . . . . . . . . . . . . . . . 142B.2 In�uênia loal sob heterogeneidade da dispersão . . . . . . . . . . . . . . 143B.2.1 Perturbação individual de ovariáveis . . . . . . . . . . . . . . . . . 143Apêndie C Tabelas 147

  • Lista de Tabelas8.1 Estimativas e erros padrões dos parâmetros do modelo de regressão beta sobhomogeneidade da dispersão e om estrutura AR-1. Estudo de oftalmologia.1008.2 Estimativas e erros padrões dos parâmetros do modelo de regressão beta sobheterogeneidade da dispersão e om estrutura AR-1. Estudo de oftalmologia.1048.3 Estimativas e erros padrões dos parâmetros do modelo de regressão sim-plex sob homogeneidade da dispersão e om estrutura AR-1. Estudo deoftalmologia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1108.4 Estimativas e erros padrões dos parâmetros do modelo de regressão sim-plex sob heterogeneidade da dispersão e om estrutura AR-1. Estudo deoftalmologia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1138.5 Estimativas e erros padrões dos parâmetros do modelo de regressão betasob homogeneidade da dispersão e om estrutura AR-1. Estudo de desen-volvimento motor de bebês. . . . . . . . . . . . . . . . . . . . . . . . . . . 1198.6 Estimativas e erros padrões dos parâmetros do modelo de regressão betasob heterogeneidade da dispersão e om estrutura AR-1. Estudo de desen-volvimento motor de bebês. . . . . . . . . . . . . . . . . . . . . . . . . . . 1218.7 Estimativas e erros padrões dos parâmetros do modelo de regressão sim-plex sob homogeneidade da dispersão e om estrutura AR-1. Estudo dedesenvolvimento motor de bebês. . . . . . . . . . . . . . . . . . . . . . . . 1248.8 Estimativas e erros padrões dos parâmetros do modelo de regressão sim-plex sob heterogeneidade da dispersão e om estrutura AR-1. Estudo dedesenvolvimento motor de bebês. . . . . . . . . . . . . . . . . . . . . . . . 126C.1 Funções G e F de aordo om a função de ligação adotada . . . . . . . . . 147C.2 Algumas distribuições pertenentes à família exponenial e respetivos re-sultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148C.3 Funções c(y;φ), ċ(y;φ) e c̈(y;φ) de aordo om a distribuição adotada . . . 149C.4 Alguns resultados para in�uênia loal quando abordamos MLGs . . . . . 149iv

  • Lista de Figuras7.1 Valores simulados de uma Normal onsiderando estrutura padrão uniformeom α = 0, 3 (a) e om α = 0, 9 (b) e estrutura AR-1 om α = 0, 3 () eom α = 0, 9 (d). Simulação Normal sob homogeneidade da dispersão. . . . 847.2 Grá�os de in�uênia loal onsiderando a verdadeira matriz de orrelação(om estrutura padrão uniforme e α = 0, 3) e om matriz de orrelação detrabalho padrão uniforme, AR-1 e independente. Simulação Normal sobhomogeneidade da dispersão. . . . . . . . . . . . . . . . . . . . . . . . . . . 857.3 Grá�os de in�uênia loal onsiderando a verdadeira matriz de orrelação(om estrutura padrão uniforme e α = 0, 9) e om matriz de orrelação detrabalho padrão uniforme, AR-1 e independente. Simulação Normal sobhomogeneidade da dispersão. . . . . . . . . . . . . . . . . . . . . . . . . . . 867.4 Grá�os de in�uênia loal onsiderando a verdadeira matriz de orrelação(om estrutura AR-1 e α = 0, 3) e om matriz de orrelação de trabalhopadrão uniforme, AR-1 e independente. Simulação Normal sob homogenei-dade da dispersão. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 877.5 Grá�os de in�uênia loal onsiderando a verdadeira matriz de orrelação(om estrutura AR-1 e α = 0, 9) e om matriz de orrelação de trabalhopadrão uniforme, AR-1 e independente. Simulação Normal sob homogenei-dade da dispersão. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 887.6 Valores simulados de uma Normal sob heterogeneidade da dispersão e es-trutura padrão uniforme om α = 0, 9 (a), medidas de in�uênia loal omesquema de perturbação ponderação de asos onsiderando a verdadeiraorrelação (b), padrão uniforme (), AR-1 (d) e independente (e). Simula-ção Normal sob heterogeneidade da dispersão. . . . . . . . . . . . . . . . . 907.7 Valores simulados de uma Normal sob heterogeneidade da dispersão e es-trutura AR-1 om α = 0, 9 (a), medidas de in�uênia loal om esquemade perturbação ponderação de asos onsiderando a verdadeira orrelação(b), padrão uniforme (), AR-1 (d) e independente (e). Simulação Normalsob heterogeneidade da dispersão. . . . . . . . . . . . . . . . . . . . . . . . 91v

  • 7.8 Valores simulados de uma Poisson onsiderando estrutura padrão uniformeom α = 0, 3 (a) e om α = 0, 6 (b) e estrutura AR-1 om α = 0, 3 () eom α = 0, 6 (d). Simulação Poisson. . . . . . . . . . . . . . . . . . . . . . 937.9 Grá�os de in�uênia loal onsiderando a verdadeira matriz de orrelação(om estrutura padrão uniforme e α = 0, 3) e om matriz de orrelação detrabalho padrão uniforme, AR-1 e independente. Simulação Poisson. . . . . 947.10 Grá�os de in�uênia loal onsiderando a verdadeira matriz de orrelação(om estrutura padrão uniforme e α = 0, 6) e om matriz de orrelação detrabalho padrão uniforme, AR-1 e independente. Simulação Poisson. . . . . 957.11 Grá�os de in�uênia loal onsiderando a verdadeira matriz de orrelação(om estrutura AR-1 e α = 0, 3) e om matriz de orrelação de trabalhopadrão uniforme, AR-1 e independente. Simulação Poisson. . . . . . . . . . 967.12 Grá�os de in�uênia loal onsiderando a verdadeira matriz de orrelação(om estrutura AR-1 e α = 0, 6) e om matriz de orrelação de trabalhopadrão uniforme, AR-1 e independente. Simulação Poisson. . . . . . . . . . 978.1 Grá�o de dispersão da porentagem de gás versus dias após a irurgia,para as onentrações de gás iguais a 15, 20 e 25. Estudo de oftalmogia. . . 998.2 Curvas ajustadas e grá�os de diagnóstio om todas as observações (a)-(d) e sem as observações (2,1), (16,10) e (25,20) (e)-(h), para modelo deregressão beta sob homogeneidade da dispersão. Estudo de oftalmologia. . 1028.3 Grá�os de in�uênia loal para β onsiderando todas as observações (a)-(d) e sem as observações (2,1), (16,10) e (25,20) (e)-(h), para modelo deregressão beta sob homogeneidade da dispersão. Estudo de oftalmologia. . 1038.4 Curvas ajustadas (a); grá�os de diagnóstio do ajuste de β (b)-(d) e doajuste de γ (e)-(g), para modelos de regressão beta sob heterogeneidade dadispersão e om todas as observações. Estudo de oftalmologia. . . . . . . . 1058.5 Grá�os de in�uênia loal para θ (a)-(); para β (d)-(f) e para γ (g)-(i),para modelos de regressão beta sob heterogeneidade da dispersão e omtodas as observações. Estudo de oftalmologia. . . . . . . . . . . . . . . . . 1068.6 Curvas ajustadas (a); grá�os de diagnóstio do ajuste de β (b)-(d) e doajuste de γ (e)-(g), para modelos de regressão beta sob heterogeneidadeda dispersão e sem as observações (2,1), (16,10) e (25,20). Estudo deoftalmologia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1088.7 Grá�os de in�uênia loal para θ (a)-(); para β (d)-(f) e para γ (g)-(i),para modelos de regressão beta sob heterogeneidade da dispersão e sem asobservações (2,1), (16,10) e (25,20). Estudo de oftalmologia. . . . . . . . . 109

  • 8.8 Curvas ajustadas e grá�os de diagnóstio om todas as observações (a)-(d)e sem as observações (16,10) e (25,20) (e)-(h), para modelo de regressãosimplex sob homogeneidade da dispersão. Estudo de oftalmologia. . . . . . 1118.9 Grá�os de in�uênia loal para β onsiderando todas as observações (a)-(d) e sem as observações (16,10) e (25,20) (e)-(h), para modelo de regressãosimplex sob homogeneidade da dispersão. Estudo de oftalmologia. . . . . . 1128.10 Curvas ajustadas (a); grá�os de diagnóstio do ajuste de β (b)-(d) e doajuste de γ (e)-(g), para modelos de regressão simplex sob heterogeneidadeda dispersão e om todas as observações. Estudo de oftalmologia. . . . . . 1148.11 Grá�os de in�uênia loal para θ (a)-(); para β (d)-(f) e para γ (g)-(i),para modelos de regressão simplex sob heterogeneidade da dispersão e omtodas as observações. Estudo de oftalmologia. . . . . . . . . . . . . . . . . 1158.12 Curvas ajustadas (a); grá�os de diagnóstio do ajuste de β (b)-(d) e doajuste de γ (e)-(g), para modelos de regressão simplex sob heterogeneidadeda dispersão e sem as observações (9,12), (16,10) e (25,20). Estudo deoftalmologia. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1168.13 Grá�os de in�uênia loal para θ (a)-(); para β (d)-(f) e para γ (g)-(i),para modelos de regressão simplex sob heterogeneidade da dispersão e semas observações (9,12), (16,10) e (25,20). Estudo de oftalmologia. . . . . . . 1178.14 Grá�o de dispersão da porentagem de esore versus idade orrigida, paraos grupos A termo e Pré-termo. Estudo de desenvolvimento motor de bebês.1188.15 Curvas ajustadas e grá�os de diagnóstio om todas as observações, paramodelo de regressão beta sob homogeneidade da dispersão. Estudo dedesenvolvimento motor de bebês. . . . . . . . . . . . . . . . . . . . . . . . 1208.16 Curvas ajustadas (a); grá�os de diagnóstio do ajuste de β (b)-(d) e doajuste de γ (e)-(g), para modelos de regressão beta sob heterogeneidade dadispersão e om todas as observações. Estudo de desenvolvimento motorde bebês. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1228.17 Grá�os de in�uênia loal para θ (a)-(); para β (d)-(f) e para γ (g)-(i),para modelos de regressão beta sob heterogeneidade da dispersão e omtodas as observações. Estudo de desenvolvimento motor de bebês. . . . . . 1238.18 Curvas ajustadas e grá�os de diagnóstio om todas as observações, paramodelo de regressão simplex sob homogeneidade da dispersão. Estudo dedesenvolvimento motor de bebês. . . . . . . . . . . . . . . . . . . . . . . . 125

  • 8.19 Curvas ajustadas (a); grá�os de diagnóstio do ajuste de β (b)-(d) e doajuste de γ (e)-(g), para modelos de regressão simplex sob heterogeneidadeda dispersão e om todas as observações. Estudo de desenvolvimento motorde bebês. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1278.20 Grá�os de in�uênia loal para θ (a)-(); para β (d)-(f) e para γ (g)-(i),para modelos de regressão simplex sob heterogeneidade da dispersão e omtodas as observações. Estudo dos bebês. . . . . . . . . . . . . . . . . . . . 128

  • Capítulo 1Introdução

    Experimentos om medidas repetidas são freqüentes em quase todos os ampos ientí-�os, sendo ada unidade experimental submetida a diferentes ondições experimentais deforma aleatória, quando não devem seguir neessariamente uma ordem de apliação, oude forma longitudinal, na qual não se pode aleatorizar a ordem dos tratamentos apliadosem ada unidade experimental. Esse tipo de planejamento, embora tenha omo prin-ipal desvantagem o aompanhamento das unidades experimentais durante a realizaçãodo estudo, têm omo prinipais vantagens os seguintes fatos: requerem menos unidadesexperimentais do que planejamentos ompletamente asualizados; proporionam ondi-ções mais adequadas para o estudo de ovariáveis que possam ter in�uênia na variávelresposta; melhoram, em geral, a preisão de ontrastes assoiados às diferenças entre osvalores médios da variável resposta de diferentes tratamentos; e permitem o estudo damudança do omportamento da resposta média da unidade experimental nos diferentestratamentos (inorpora informação sobre a variação individual na análise).Para análise de dados om medidas repetidas, existe uma grande variedade de téniasquando a variável resposta segue uma distribuição normal. Entre elas, podemos destaara análise de variânia om medidas repetidas (Neter et al., 1996), análise uni/multivariadade per�s, análise de urvas de resimento (Singer e Andrade, 1986) e modelos normaisom efeitos aleatórios (Laird e Ware, 1982; Andreoni, 1989). O fato de existir uma versãomultivariada da distribuição normal om boas propriedades do ponto de vista inferenialfailita o estudo desses modelos.Abandonando a suposição de normalidade da variável resposta, uma série de di�-uldades pode surgir devido à esassez de distribuições multivariadas alternativas omtais propriedades. Justamente por esse motivo, não são muitas as ténias existentes naliteratura para se trabalhar om distribuições não-normais levando em onsideração a1

  • Capítulo 1. Introdução 2dependênia entre observações da mesma unidade experimental.Zeger e Liang (1986) desenvolveram equações de estimação generalizadas (EEGs) u-sando os modelos de quasi-verossimilhança (Wedderburn, 1974) para analisar dados lon-gitudinais. Liang e Zeger (1986) derivaram essas EEGs num ontexto um pouo maisrestrito. Eles assumem que a distribuição marginal da variável dependente segue um mo-delo linear generalizado (MLG) desenvolvido por Nelder e Wedderburn (1972). Em ambosos artigos, as EEGs são onstruídas sem a espei�ação da distribuição onjunta e umamatriz de orrelação de trabalho para o vetor de medidas repetidas de ada unidade expe-rimental deve ser espei�ada, a qual não preisa ser orreta para se obter onsistênia dosparâmetros de regressão. Prentie e Zhao (1991) estendem a proposta de Liang e Zeger(onheida omo EEG1), estimando os parâmetros de orrelação também via equações deestimação. Na literatura, a proposta de Prentie e Zhao é onheida omo EEG2.Depois dessas propostas, as equações de estimação também passaram a ser utilizadaspara modelar o parâmetro de dispersão (denominada EEG3 segundo proposta, por exem-plo, de Song et al. (2004)), já que na prátia, a suposição de homogeneidade da dispersãopode ser questionada. Além disso, as equações de estimação têm sido estendidas paraoutras lasses de modelos que englobam outras distribuições, omo é o aso dos mode-los de dispersão desenvolvidos por Jφrgensen (1997). Essa lasse de modelos se tornouimportante, prinipalmente, por onter a distribuição von Mises, adequada para mode-lar dados irulares; e a distribuição simplex, para modelar perentagens ou proporções.Artes (1997) desenvolveu equações de estimação, na proposta de EEG1, EEG2 e EEG3,para a lasse de modelos de dispersão om medidas repetidas e apresenta uma apliaçãopara dados irulares utilizando a distribuição von Mises. Song e Tan (2000) apresen-tam equações de estimação no ontexto de EEG2 usando apenas a distribuição simplex ejulgam ter resultados melhores por utilizarem propriedades espeí�as dessa distribuição.Considerando apenas a distribuição simplex, Song et al. (2004) apresentam as EEG3s emostram, por simulação, omo a modelagem do parâmetro de dispersão pode alterar asestimativas e diminuir os desvios padrões dos parâmetros de regressão que modelam amédia, quando omparada ao ajuste que supõe-se homogeneidade da dispersão.Para situações em que a variável resposta se distribui ontinuamente no intervalo (0, 1)e é expliada por outras variáveis por meio de uma estrutura de regressão, também seenontra um modelo de regressão beta proposto por Ferrari e Cribari-Neto (2004). Os au-tores propõem uma parametrização para a distribuição beta que permite a modelagem damédia envolvendo também o parâmetro de preisão. Assim omo a distribuição simplex, adistribuição beta é utilizada para modelar proporções, om a vantagem da sua densidadeassumir diferentes formas dependendo dos dois parâmetros que indexam a distribuição.

  • Capítulo 1. Introdução 3Ospina (2007) propõe os modelos de regressão beta om dispersão variável quando háindependênia entre todas as observações e desenvolve medidas de diagnóstio apazes deaptar a presença dessa dispersão variável nos dados.Em nosso trabalho, assumindo que a variável dependente tem distribuição marginalbeta e há mais do que uma observação realizada numa mesma unidade experimental,estendemos as propostas de EEG1 e EEG3 para os modelos de regressão beta (Ferrari eCribari-Neto, 2004) om medidas repetidas. Além disso, desenvolvemos algumas medidasde diagnóstio para avaliar a adequação de um modelo ajustado aos dados.Dessa forma, este trabalho está dividido em três partes, as quais visam, respeti-vamente, desenvolver: equações de estimação para modelos de regressão om medidasrepetidas (Capítulos 2 ao 4); ténias de diagnóstio (Capítulos 5 e 6); e simulações eapliações (Capítulos 7 e 8). Antes de apresentá-las, om o intuito de failitar a leiturado texto, temos as Seções 1.1 e 1.2 que desrevem, de forma susinta, a distribuição betade aordo om a parametrização utilizada por Ferrari e Cribari-Neto (2004) e a distri-buição simplex desenvolvida por Barndor�-Nielsen e Jφrgensen (1991). Na Seção 1.3,introduzimos alguns oneitos sobre funções de estimação.No Capítulo 2, propomos equações de estimação para modelos de regressão beta ommedidas repetidas. Essas equações são onstruídas para modelagem da média supondohomogeneidade da dispersão e modelagem onjunta da média e da dispersão. O Capí-tulo 3 apresenta equações de estimação generalizadas para modelos de regressão simplexmeslando resultados desenvolvidos por Artes e Jφrgensen (2000), Song e Tan (2000) eSong et al. (2004). Essas equações também são onstruídas para modelos homosedás-tios (modelagem da média supondo homogeneidade da dispersão) e heterosedástios(modelagem onjunta da média e da dispersão). Para �nalizar essa primeira parte dotrabalho, o Capítulo 4 ontém equações de estimação para modelos lineares generalizadosonsiderando as propostas de Liang e Zeger (1986) e de Artes e Jφrgensen (2000). Essasequações são esritas onsiderando alguns resultados espeí�os da família exponenial.Esse apítulo se fez neessário, prinipalmente, para o desenvolvimento das simulaçõesapresentadas na tereira parte.Na segunda parte deste trabalho, propomos uma generalização de algumas medidas dediagnóstio quando abordamos quaisquer equações de estimação para dados om medidasrepetidas de�nidas tanto para modelagem do parâmetro de posição onsiderando a ho-mogeneidade do parâmetro de dispersão omo para modelagem onjunta dos parâmetrosde posição e dispersão. As medidas desenvolvidas são a matriz de projeção utilizada paradetetar pontos alavana (observações in�uentes na matriz de ovariáveis), a distânia deCook utilizada para detetar pontos in�uentes no vetor de respostas e os resíduos do mo-

  • Capítulo 1. Introdução (Distribuição Beta) 4delo, para detetar pontos aberrantes (�outliers�), as quais estão de�nidas para os modeloslineares generalizados em Paula (2004) e para modelos lineares generalizados om medi-das repetidas em Venezuela et al. (2007). Preisser e Perin (2007) propõem medidas dediagnóstio para os parâmetros de orrelação quando esses são modelados onjuntamenteom a média via equações de estimação. A modelagem da orrelação não é tratada nestetrabalho.No Capítulo 6, propomos medidas de in�uênia loal para equações de estimaçãogeneralizadas baseadas nas propostas de Cook (1986) e Cadigan e Farrell (2002). Asmedidas foram desenvolvidas para os esquemas de perturbação ponderação de asos, davariável resposta, de uma ovariável ontínua da matriz de planejamento, do parâmetrode preisão e, �nalmente, na matriz de orrelação de trabalho. Todos esses esquemasforam tratados para modelagem da média sob homogeneidade do parâmetro de dispersãoe os três primeiros, para modelagem onjunta da média e do parâmetro de dispersão.Por �m, na tereira parte, temos algumas apliações a dados simulados, ujo prinipalobjetivo é avaliar o impato que a esolha de uma estrutura de orrelação ausa nasmedidas de in�uênia loal quando essa difere ou não da verdadeira matriz de orrelaçãoque gerou os dados. No Capítulo 8, apresentamos duas apliações a dados reais ajustadosom o uso das equações de estimação desenvolvidas na primeira parte e validados om asténias de diagnóstio propostas na Parte II.De maneira geral, esta tese traz omo inédito os temas desenvolvidos nos Capítulos2 e 6. O Capítulo 3 ompata vários resultados desritos na literatura e seu desenvol-vimento julgamos neessário neste trabalho por se tratar da distribuição simplex que,assim omo a distribuição beta tratada no Capítulo 2, tem o suporte de�nido no inter-valo unitário (0, 1). A prinipal neessidade do Capítulo 4 é para o desenvolvimento doCapítulo 7 que simula dados om distribuições marginais orrelaionadas pertenentes àfamília exponenial. Para realizar os ajustes desritos nos Capítulos 7 e 8, desenvolvemosrotinas no software R versão 2.5.1 que se enontra disponível gratuitamente no endereçohttp://www.r-projet.org/.1.1 Distribuição BetaNesta seção, apresentamos alguns resultados infereniais sobre a distribuição betautilizando a parametrização de�nida por Ferrari e Cribari-Neto (2004). Para maioresdetalhes desta distribuição, veja também Oliveira (2004) que apresenta um estudo sobre oomportamento assintótio dos estimadores e de testes de hipóteses no modelo de regressãobeta.

  • Capítulo 1. Introdução (Distribuição Beta) 5A família de distribuições beta é omposta de todas as distribuições om função den-sidade de probabilidade da variável aleatória y esritas na formap(y; p, q) = Γ(p+ q)

    Γ(p)Γ(q)yp−1(1 − y)q−1, (1.1)om 0 < y < 1, p > 0 e q > 0. A função gama Γ(·) avaliada no ponto λ é dada por

    Γ(λ) =

    ∫ ∞

    0

    yλ−1e−ydy.A média e a variânia de y são dadas porE(y) = pp+ q

    e Var(y) = pq(p+ q)2(p+ q + 1)

    .Essa distribuição não apresenta a estrutura dos modelos de loação-esala, pois ambosos parâmetros, p e q, são de forma. Ferrari e Cribari-Neto (2004) sugerem uma nova para-metrização de (1.1) om o intuito de obter parâmetros de posição e preisão, representadospor µ e φ, respetivamente. Essa reparametrização é dada porµ =

    p

    (p+ q)e φ = p+ q.Assim, a densidade (1.1) reesrita omo uma família de distribuições beta om parâ-metro de posição µ e parâmetro de preisão φ, B(µ, φ), é dada por

    p(y;µ, φ) = Γ(φ)Γ(µφ)Γ((1 − µ)φ)yµφ−1(1 − y)(1−µ)φ−1, (1.2)om 0 < y < 1, 0 < µ < 1 e φ > 0. Dessa forma, a esperança e a variânia de y sãoreesritas omo E(y) = µ e Var(y) = υ(µ)

    1 + φ, (1.3)om υ(µ) = µ(1 − µ). Logo, temos que µ é a média da variável aleatória y e φ pode serinterpretado omo parâmetro de preisão. Ou seja, para um valor �xo de µ, quanto maioro valor de φ, menor é a variânia de y. Diferentes formas para a densidade desrita em(1.2) podem ser obtidas de aordo om a esolha dos valores para µ e φ. Estas formaspodem ser veri�adas em Ferrari e Cribari-Neto (2004).O logaritmo da função de verossimilhança baseado numa únia observação é dado por

    ℓ(µ, φ) = log p(y;µ, φ) == log Γ(φ) − log Γ(µφ) − log Γ((1 − µ)φ) +

    +(µφ− 1) log y + [(1 − µ)φ− 1] log(1 − y).

  • Capítulo 1. Introdução (Distribuição Beta) 6As funções esore de µ e φ são dadas porUµ(µ, φ) =

    ∂ℓ(µ, φ)

    ∂µ= φ (y∗ − µ∗) (1.4)e

    Uφ(µ, φ) =∂ℓ(µ, φ)

    ∂φ=

    = µ (y∗ − µ∗) + log(1 − y) − ψ((1 − µ)φ) + ψ(φ),om y∗ = log( y1 − y

    )

    , µ∗ = ψ(µφ) − ψ((1 − µ)φ) e ψ(λ) = ∂ log Γ(λ)∂λ

    ,sendo a função ψ(·) onheida omo função digama.A matriz de informação de Fisher, assumindo ondições usuais de regularidade desri-tas em Sen e Singer (1993, Capítulo 5), é dada porK = K(µ, φ) =

    (

    Kµµ Kµφ

    Kφµ Kφφ

    )

    ,sendoKµµ = φ

    2 [ψ′(µφ) + ψ′((1 − µ)φ)] ,Kφφ = µ

    2 ψ′(µφ) + (1 − µ)2 ψ((1 − µ)φ) − ψ′(φ),eKµφ = Kφµ = φ [µ ψ

    ′(µφ) − (1 − µ)ψ′((1 − µ)ψ)] ,sendo a função trigama ψ′(·) avaliada no ponto λ dada porψ′(λ) =

    dψ(λ)dλ = d2 log Γ(λ)dλ2 = Γ′′(λ)Γ(λ) − Γ′(λ)2Γ(λ)2 .Notemos que os parâmetros µ e φ não são ortogonais, já que Kµφ = Kφµ é diferente dezero.Sejam y1, . . . , yn variáveis aleatórias independentes, em que ada yi, i = 1, . . . , n, seguea densidade desrita em (1.2) om média µ e parâmetro de preisão φ. Sob ondições geraisde regularidade (Sen e Singer, 1993), quando o tamanho da amostra é grande, temos oseguinte resultado( √

    n(µ̂− µ)√n(φ̂− φ)

    )

    D−→ N2(

    0 ; K−1 ) ,

  • Capítulo 1. Introdução (Distribuição Simplex) 7sendo µ̂ e φ̂ os estimadores de máxima verossimilhança de µ e φ, respetivamente, e K−1a matriz inversa de K.Para que os resultados infereniais da distribuição beta propostos por Ferrari e Cribari-Neto (2004) fossem similares aos dos modelos lineares generalizados (MCullagh e Nelder,1989), a função esore desrita em (1.4) �a desrita em função de uma nova resposta,y∗, e de um novo parâmetro, µ∗. Assim, onsiderando os resultados aima e assumindoondições usuais de regularidade, obtemos que a esperança e a variânia de y∗ são dadaspor: E(∂ℓ(µ, φ)∂µ

    )

    = 0 ⇔ E [φ(y∗ − µ∗)] = 0 ⇔ E (y∗) = µ∗ (1.5)e Var(y∗) = Var(y∗ − µ∗) = E ([y∗ − µ∗]2) = φ−2E (φ2[y∗ − µ∗]2) == ψ′(µφ) + ψ′((1 − µ)φ). (1.6)As equações (1.5) e (1.6) terão utilidade no Capítulo 2 para onstrução das equações deestimação para modelos de regressão beta om medidas repetidas.1.2 Distribuição SimplexNesta seção, apresentamos a distribuição simplex padrão a qual faz parte de umalasse de modelos proposta por Barndor�-Nielsen e Jφrgensen (1991) que assumem va-lores pertenentes ao intervalo unitário (0, 1). Para essa distribuição, podemos utilizarresultados desenvolvidos para a família dos modelos de dispersão (Jφrgensen, 1997), queé omposta pelas distribuições om densidade (ou função de probabilidade) da variávelaleatória y esritas na formap(y;µ, φ) = exp{c(y;φ) − φ

    2d(y;µ)} , (1.7)om y ∈ R, µ ∈ Θ ⊆ R, φ > 0 e c e d funções duplamente difereniáveis. O desviounitário d(y;µ) deve ser não negativo, assumindo o valor zero se e somente se y = µ. Afunção de variânia unitária é dada por

    υ(µ) = 2

    (

    ∂2d

    ∂µ2(µ;µ)

    )−1

    ,que assumimos ser �nita e positiva.A distribuição simplex padrão ou, simplesmente, distribuição simplex om parâmetrosµ ∈ (0, 1) e φ > 0, S−(µ, φ), tem função densidade de probabilidade da variável aleatória

  • Capítulo 1. Introdução (Distribuição Simplex) 8y esrita na forma (1.7), om 0 < y < 1, sendoc(y;φ) = −1

    2log{

    2πφ−1 [y(1 − y)]3} e d(y;µ) = (y− µ)2y(1 − y)µ2(1 − µ)2 .A função de variânia unitária da distribuição simplex é dada por υ(µ) = µ3(1 − µ)3e a esperança e a variânia de y são dadas porE(y) = µ (1.8)e Var(y) = µ(1 − µ) − 1√2φ−1

    exp

    (

    φ

    µ2(1 − µ)2)

    Γ

    (

    1

    2,

    φ

    2µ2(1 − µ)2)

    , (1.9)sendo a função gama inompleta Γ(·, ·) avaliada nos pontos a e b de�nida por Γ(a, b) =∫∞

    bya−1e−ydy.Em modelos de dispersão (Jφrgensen, 1997), a função desvio unitário tem seu papeldo ponto de vista estatístio similar à função desvio em modelos lineares generalizados(MCullagh e Nelder, 1989) ou à soma de quadrados dos resíduos em análise de variân-ia (Neter et al., 1996). No aso espeí�o da distribuição simplex, Song e Tan (2000)mostram que E [d(y;µ)] = φ−1. (1.10)Logo, pelas equações (1.8) e (1.10), temos que µ é a média da variável resposta y e

    φ−1 pode ser interpretado omo parâmetro de dispersão.O logaritmo da função de verossimilhança baseada em apenas uma observação éℓ(µ, φ) = log p(y;µ, φ) = c(y;φ) − φ

    2d(y;µ).A função esore é obtida derivando o logaritmo da função de verossimilhança omrespeito aos parâmetros desonheidos, ou seja, µ e φ. Assim, temos

    Uµ(µ, φ) =∂ℓ(µ, φ)

    ∂µ= −φ

    2

    ∂d(y;µ)∂µ

    (1.11)eUφ(µ, φ) =

    ∂ℓ(µ, φ)

    ∂φ=∂c(y;φ)∂φ

    − 12d(y;µ).Notemos que, assumindo ondições usuais de regularidade (Sen e Singer, 1993, Capí-tulo 5), obtemos os seguintes resultados para os valores esperados das funções esore:E(∂ℓ(µ, φ)

    ∂µ

    )

    = 0 ⇔ E(−12

    ∂d(y;µ)∂µ

    )

    = 0e E(∂ℓ(µ, φ)∂φ

    )

    = 0 ⇔ E(∂c(y;φ)∂φ

    − 12d(y;µ)) = 0.

  • Capítulo 1. Introdução (Distribuição Simplex) 9A matriz de informação de Fisher, também onsiderando ondições usuais de regula-ridade, é dada porK = K(µ, φ) =

    (

    Kµµ Kµφ

    Kφµ Kφφ

    )

    ,sendoKµµ = E([∂ℓ(µ, φ)

    ∂µ

    ]2)

    = −E(∂2ℓ(µ, φ)∂µ2

    )

    2E(∂2d(y;µ)

    ∂µ2

    )

    ,

    Kφφ = E([∂ℓ(µ, φ)∂φ

    ]2)

    = −E(∂2ℓ(µ, φ)∂φ2

    )

    = −E(∂2c(y;φ)∂φ2

    )

    ,eKµφ = Kφµ = E(∂ℓ(µ, φ)

    ∂µ

    ∂ℓ(µ, φ)

    ∂φ

    )

    = −E(∂2ℓ(µ, φ)∂µ∂φ

    )

    = −E(∂2ℓ(µ, φ)∂φ∂µ

    )

    =

    =1

    2E(∂d(y;µ)

    ∂µ

    )

    = 0.Notemos que os parâmetros µ e φ são ortogonais, já que Kµφ = Kφµ é igual a zero.Sejam y1, . . . , yn variáveis aleatórias independentes, em que ada yi, i = 1, . . . , n, seguea densidade desrita em (1.7) om média µ e parâmetro de dispersão φ−1. Sob ondiçõesgerais de regularidade (Sen e Singer, 1993), quando o tamanho da amostra é grande,temos o seguinte resultado:( √

    n(µ̂− µ)√n(φ̂− φ)

    )

    D−→ N2(

    0 ; K−1 ) ,sendo µ̂ e φ̂ os estimadores de máxima verossimilhança de µ e φ, respetivamente, e K−1a matriz inversa de K.A seguir, apresentamos algumas propriedades da distribuição simplex, provadas emSong e Tan (2000) ou em Song et al. (2004), que serão utilizadas no Capítulo 3.

  • Capítulo 1. Introdução (Funções de estimação) 10Proposição 1.1.(1) E [(y− µ)d(y;µ)] = 0;(2) E [(y− µ)∂d(y;µ)

    ∂µ

    ]

    = −2φ−1;

    (3)1

    2E [∂2d(y;µ)

    ∂µ2

    ]

    =3φ−1

    µ(1 − µ) +1

    µ3(1 − µ)3 ;

    (4) E [d2(y;µ)] = 3 (φ−1)2 ⇒ Var [d(y;µ)] = 2 (φ−1)2 ;(5) u(y;µ) = −1

    2

    ∂d(y;µ)∂µ

    =y− µ

    µ(1 − µ)

    {

    d(y;µ) + 1µ2(1 − µ)2

    }

    ;

    (6) Var [u(y;µ)] = φ−12

    E [∂2d(y;µ)∂µ2

    ]

    .1.3 Funções de estimaçãoNesta seção, introduzimos alguns oneitos sobre funções de estimação baseados emArtes e Botter (2005) e Jφrgensen e Labouriau (1994).Uma função de estimação é uma função dos dados (y) e dos parâmetros de interesse(θ). Um ponto importante no estudo dessas funções é o estabeleimento de ondições quegarantam que os estimadores dos parâmetros envolvidos possuam boas propriedades. Emgeral, desejamos que os estimadores sejam onsistentes e tenham distribuição assintótiaonheida.Seja (X ,A,P) um espaço de probabilidade, om X ∈ R e P = {Pθ : θ ∈ Θ ⊆ Rp},para algum p ∈ N (p é um valor �xado referente à dimensão do espaço paramétrio Θ).Por de�nição, uma função ψ : X × Θ → Rp, é uma função de estimação se para adaθ ∈ Θ, ψ(.;θ) = (ψ1, ..., ψp)⊤ é uma variável aleatória.Assumindo a existênia de uma amostra de n vetores aleatórios independentes yi =(yi1, ..., yiti)⊤, i = 1, ..., n, e que a ada vetor esteja assoiada uma função de estimaçãoψi, estendemos o oneito de função de estimação para a amostra por

    Ψn(y;θ) = n∑i=1

    ψi(yi;θ),om dimensão (p× 1), sendo y = (y⊤1 , ...,y⊤n )⊤ um vetor (N × 1), N =∑ni=1 ti.O estudo das funções de estimação que apresentamos a seguir, restringe-se àquelasujas raízes são estimadores dos parâmetros de interesse, ou seja:Ψn(y; θ̂n) = 0,

  • Capítulo 1. Introdução (Funções de estimação) 11a qual é denominada equação de estimação.Para simpli�ar a notação, apresentamos algumas propriedades de funções de estima-ção denotando Ψn(y;θ) por Ψn(θ), sempre que isso não prejudiar a lareza do texto.As funções de estimação Ψn(θ) e Φn(θ) são funções de estimação equivalentes seΨn(θ) = C(θ)Φn(θ),sendo C(θ) uma matriz quadrada não singular e não estoástia. Isto é, Ψn(θ) e Φn(θ)têm as mesmas raízes.A função de estimação Ψn(θ) é uma função de estimação não viiada seEθ (Ψn(θ)) = 0.Se todas as funções de estimação ψi, i = 1, ..., n, são não viiadas, então a função deestimação Ψn baseada na amostra de tamanho n também será não viiada.A matriz de variabilidade de uma função de estimação não viiada é dada porVΨ(θ) = Eθ (Ψn(θ)Ψ⊤n (θ)) ,e a matriz de sensibilidade de uma função de estimação não viiada é dada porSΨ(θ) = Eθ ( ∂

    ∂θ⊤Ψn(θ)

    )

    , (1.12)sendo que ambas têm dimensão (p× p).Uma função de estimação ψ = (ψ1, ..., ψp)⊤ : X × Θ → Rp é dita uma função deestimação regular quando as seguintes ondições são satisfeitas para todo θ ∈ Θ:i. a função de estimação ψ(y;θ) é não viiada;ii. a derivada parial de ψ(y;θ) om respeito a θ existe quase ertamente para todoy ∈ X ;iii. é possível permutar o sinal de integração e difereniação da seguinte forma:∂

    ∂θl

    X

    ψ(y;θ)dPθ = ∫X

    ∂θl

    [

    ψ(y;θ)]dPθ,om l = 1, . . . , p.iv. Eθ (ψj(θ)ψk(θ)) ∈ R, om j, k = 1, . . . , p e Vψ(θ) é positiva de�nida;

  • Capítulo 1. Introdução (Funções de estimação) 12v. Eθ ( ∂∂θl ψj(θ) ∂∂θm ψk(θ)) ∈ R, om j, k, l,m = 1, ..., p e Sψ(θ) é não singular.Seja Ψn(θ) uma função de estimação regular. De�nimos a matriz de informação deGodambe de θ assoiada a Ψn porJΨ(θ) = SΨ(θ)⊤ V−1Ψ (θ) SΨ(θ),om dimensão (p× p).A matriz de informação de Godambe JΨ(θ) é igual à matriz de informação de Fisher see somente se Ψn(θ) é equivalente à função esore. Por exemplo, se Ψn(θ) é a função esoree, portanto, satisfaz as ondições de ser uma função de estimação regular, então SΨ(θ) =−VΨ(θ), fazendo om que sua matriz de informação de Godambe oinida om a matrizde informação de Fisher. De maneira geral, para todas as funções de estimação regularesque não sejam neessariamente funções esores, a informação de Godambe desempenha opapel da informação de Fisher.Um oneito importante desenvolvido por Godambe (1960) é o de otimalidade deuma função de estimação regular. No aso de θ ser unidimensional, podemos de�nir umafunção de estimação ótima omo aquela ujas raízes possuem variânia assintótia mínima.Esse oneito pode ser estendido para o aso multidimensional por meio da introdução dealguma ordenação das matrizes de ovariânias assintótias (Chandrasekar e Kale, 1984).Crowder (1987) estuda uma lasse partiular de funções de estimação que passaremosa hamar de funções de estimação lineares.Sejam Qi(θ), i = 1, . . . , n, matrizes não estoástias, não singulares e de pesos que,eventualmente, podem ser função de θ. Sejam bi = bi(yi;θ), i = 1, . . . , n, vetores ommédia zero mutuamente independentes, satisfazendo as mesmas ondições das funções deestimação regulares. A lasse das funções de estimação lineares geradas por bi é de�nidapor

    L(b) = {Ψn(θ) ∈ R : Ψn(θ) = n∑i=1

    Qi(θ) bi(yi;θ)}, (1.13)sendo que R ontém todas as funções regulares de θ e b = (b⊤1 , ...,b⊤n )⊤.O autor mostra que a função de estimação ótima dentre as da lasse L(b) é dada porΨon(θ) =

    n∑

    i=1

    Qoi (θ) bi(yi;θ), (1.14)

  • Capítulo 1. Introdução (Funções de estimação) 13em que Qoi (θ) = E( ∂bi∂θ⊤

    )⊤ Cov(bi)−1,om Cov(bi) = Var(bi)1/2R(bi)Var(bi)1/2, (1.15)sendo Var(bi) uma matriz diagonal ontendo Var(bij) e R(bi) a verdadeira matriz deorrelação de bi, para i = 1, . . . , n e j = 1, . . . , t.É importante ressaltar que se onsiderarmos C(θ)Ψon(θ), sendo C(θ) uma matriz nãosingular e não estoástia, essa nova função de estimação também será ótima.O teorema desrito a seguir estabelee ondições para a normalidade assintótia deestimadores obtidos a partir de funções de estimação regulares. Esse teorema trata doaso em que θ é multidimensional e, além disso, os vetores resposta são mutuamenteindependentes, mas não identiamente distribuídos.Teorema 1. Considerando-sea. yi, i = 1, 2, ..., n, vetores aleatórios t-dimensionais independentes;b. ψi(θ) = (ψi1, ..., ψip)⊤, i = 1, 2, ..., n, funções de estimação regulares;. Ψn(θ) =∑ni=1ψi(θ);d. para δ > 0, Eθ{ suph:‖h‖≤δ ∥∥∥∥ ∂∂θ ψi(θ + h) − ∂∂θ ψi(θ)∥∥∥∥} = φδi ,1n

    ∑ni=1 φδi → φδ e φδ → 0 quando δ → 0;e. para δ > 0, existe ǫ, 0 < ǫ < 1, tal quen−1−ǫ

    n∑

    i=1

    Eθ{ suph:‖h‖≤δ ∥∥∥∥ ∂∂θ ψi(θ + h) − ∂∂θ ψi(θ) − φδi∥∥∥∥}1+ǫ → 0;f. que para ψ̇i(θ) = ∂∂θ

    ⊤ ψi(θ),1

    n

    n∑

    i=1

    E{ψ̇i(θ)} = 1n n∑i=1

    Si(θ) → S(θ),om S não singular e Si = E{ψ̇i(θ)};

  • Capítulo 1. Introdução (Funções de estimação) 14g. que existe ǫ, 0 < ǫ < 1, tal quen−1−ǫ

    n∑

    i=1

    E ∣∣∣ψ̇i(θ) − Si(θ)∣∣∣1+ǫ → 0;h. que existe ǫ, 0 < ǫ < 1, tal que max1≤i≤n max1≤j≤t E|ψij|2+ǫ

  • Parte IEquações de Estimação Generalizadas

    15

  • Capítulo 2Equações de estimação para modelos deregressão beta om medidas repetidasNeste apítulo, propomos equações de estimação generalizadas para situações em quea variável dependente é medida de forma ontínua no intervalo unitário (0, 1) e há maisdo que uma observação realizada numa mesma unidade experimental. Essas equações deestimação são baseadas na suposição de que a resposta tem distribuição marginal betautilizando a parametrização indexada pela média e pelo parâmetro de preisão onformeSeção 1.1.A seguir, apresentamos a modelagem da média sob a suposição de homogeneidadedo parâmetro de preisão. Na Seção 2.2, a média e a preisão são modeladas onjunta-mente via equações de estimação, om o intuito de inorporar ao modelo uma possívelheterogeneidade da preisão.2.1 Modelagem do parâmetro de posiçãoSeja yi = (yi1, yi2, ..., yiti)⊤ o vetor de respostas da i-ésima unidade experimental,om i = 1, ..., n. Vamos assumir que a densidade marginal da variável resposta tenhadistribuição beta, yij ∼ B(µij, φ), dada por

    p(yij;µij, φ) = Γ(φ)Γ(µijφ)Γ((1 − µij)φ)yµijφ−1ij (1 − yij)(1−µij)φ−1. (2.1)A prinípio, vamos supor que o parâmetro de preisão φ é onheido e igual para todas asobservações. Para failitar a notação, assumimos, sem perda de generalidade, que ti = t,i = 1, . . . , n. 16

  • Capítulo 2. EEGs para modelos de regressão beta om medidas repetidas 17Consideremos que as médias µij's sejam modeladas porg(µij) = ηij = x⊤ijβ, (2.2)sendo g(.) uma função monótona e duplamente difereniável, denominada função de liga-ção, ηij o preditor linear, xij um vetor de ovariáveis referente à j-ésima observação da

    i-ésima unidade experimental, om i = 1, ..., n e j = 1, ..., t, e β = (β1, ..., βp)⊤, p < n,um vetor de parâmetros desonheidos a serem estimados.Para onstrução das equações de estimação para modelos de regressão beta om me-didas repetidas, utilizamos a de�nição de função de estimação linear ótima desrita em(1.14). Nessa de�nição, é neessário ter vetores bi = bi(yi;β), i = 1, . . . , n, om médiazero, mutuamente independentes e satisfazendo as mesmas propriedades das funções deestimação regulares (veja de�nição na Seção 1.3).No ontexto de modelos de regressão beta om medidas repetidas, iniialmente, de-�nimos bi = yi − µi, om yi = (yi1, . . . , yit)⊤ e µi = (µi1, . . . , µit)⊤, i = 1, . . . , n, osquais satisfazem tais propriedades. Entretanto, quando temos independênia entre asobservações da mesma unidade experimental, esses vetores bi's não geram uma lasse L(b)(veja de�nição em (1.13)) ontendo a função esore apresentada por Ferrari e Cribari-Neto(2004). Para ontornarmos esse problema e desenvolvermos equações de estimação quegeneralizam tanto o aso em que há orrelação entre as observações da mesma unidadeexperimental omo o aso mais simples em que há independênia entre elas, propomosbi = y∗i − µ∗i ,om y∗i = (y∗i1, . . . , y∗it)⊤ e µ∗i = (µ∗i1, . . . , µ∗it)⊤, i = 1, . . . , n. Esses vetores geram umalasse L(b) que, no aso de independênia entre todas as observações, ontém a funçãoesore desrita por Ferrari e Cribari e, também, são vetores om média zero (veja resultadoapresentado na equação (1.5)), mutuamente independentes e om as propridades dasfunções de estimação regulares.Assim, onstruímos as equações de estimação para modelos de regressão beta ommedidas repetidas, onsiderando a densidade marginal de yij e o omponente sistemátiodesritos, respetivamente, nas equações (2.1) e (2.2) e de�nindo bi = y∗i−µ∗i , i = 1, . . . , n.Assumindo dependênia entre as observações da mesma unidade experimental i, os termosda função de estimação de�nidos em (1.14) são dados porE( ∂bi∂β⊤

    )⊤

    = −X⊤i Λie Cov (bi) = Var(y∗i )1/2 R (y∗i ) Var(y∗i )1/2 = A1/2i R (y∗i ) A1/2i ,

  • Capítulo 2. EEGs para modelos de regressão beta om medidas repetidas 18sendo Xi = (xi1, ...,xit)⊤, Λi = φGiAi, Ai = diag (ai1, . . . , ait) e R(y∗i ) a verdadeiramatriz de orrelação de y∗i , om Gi = diag (∂g−1(ηi1)/∂ηi1, . . . , ∂g−1(ηit)/∂ηit) e aij =ψ′(µijφ) + ψ

    ′((1− µij)φ), i = 1, . . . , n e j = 1, . . . , t. Notemos que aij é a variânia de y∗ijonforme de�nição em (1.6) e que Λi é uma matriz simétria. As ontas detalhadas estãoapresentadas na Seção A.1.1 do Apêndie A e as possíveis expressões para G de aordoom a função de ligação g(·) adotada estão apresentadas na Tabela C.1 do Apêndie C.A função de estimação linear ótima de β, quando onsideramos a verdadeira matrizde orrelação de y∗i e φ onheido, é equivalente aΨo1(β) =

    n∑

    i=1

    X⊤i Λi Cov(bi)−1 (y∗i − µ∗i ). (2.3)Sob as ondições do Teorema 1, temos que β̂, solução de Ψo1(β̂) = 0, é um estimadoronsistente de β e que√n(β̂ − β) D−→ Np

    0, limn→∞

    n

    {

    n∑

    i=1

    X⊤i Λi Cov(bi)−1ΛiXi}−1 .Na prátia, a verdadeira matriz de orrelação é geralmente desonheida. Seguindoa proposta de Liang e Zeger (1986), de�nimos R(α) omo sendo uma matriz simétria(t × t) satisfazendo as ondições para ser uma matriz de orrelação, denominada matrizde orrelação de trabalho em que α, um vetor (s× 1), arateriza ompletamente R(α).Notemos que R(α) não preisa ser neessariamente a verdadeira matriz de orrelação dosy∗i 's.Com isso, a função de estimação generalizada de β é dada por

    Ψ1 (β) =n∑

    i=1

    X⊤i Λi Ω−1i (y∗i − µ∗i ) = n∑i=1

    X⊤i Wi Λ−1i bi, (2.4)sendo Ωi = A1/2i R(α) A1/2i e Wi = Λi Ω−1i Λi.Entretanto, a função de estimação de�nida em (2.4) deixa de ser a ótima. Nesse aso,é neessário que um estimador α̂ de α seja determinado de modo que o estimador de β,obtido a partir de (2.4), seja onsistente e assintotiamente normal. Além disso, omoφ quase sempre é desonheido, também é neessário propor um estimador para esseparâmetro.O próximo teorema desreve algumas ondições que os estimadores de α e φ devemsatisfazer de modo que o estimador de β preserve as propriedades menionadas aima.

  • Capítulo 2. EEGs para modelos de regressão beta om medidas repetidas 19Teorema 2. Seja β̂ a raiz de (2.4). Sob ondições gerais de regularidade e assumindoquea. α̂(β, φ) é um estimador √n-onsistente1 de α dados β e φ;b. φ̂(β) é um estimador √n-onsistente de φ dado β; e. |∂α̂(β, φ)/∂φ| ≤ H(y,β), sendo H(y,β) uma função Op(1),então temos que β̂ é um estimador onsistente de β e√n(β̂ − β) D−→ Np

    (

    0,J−1) ,om J = limn→∞ Jn/n, sendo Jn a matriz de informação de Godambe de β assoiada àΨ1 dada por Jn = { n∑

    i=1

    Si}{ n∑i=1

    Vi}−1{ n∑i=1

    Si},em quen∑

    i=1

    Si = E [ ∂∂β⊤

    Ψ1(β)

    ]

    = −n∑

    i=1

    X⊤i WiXien∑

    i=1

    Vi = E [Ψ1(β)Ψ⊤1 (β)] = n∑i=1

    X⊤i Λi Ω−1i Cov(bi)Ω−1i ΛiXi.A prova desse teorema é análoga à enontrada em Artes (1997, Teorema 6, p.47),a qual também enfatiza que os resultados assintótios desse teorema são válidos mesmoquando R(α) não orresponde à verdadeira matriz de orrelação de y∗i .A matriz de ovariânias de β̂ pode ser onsistentemente estimada porĴ−1n = { n∑i=1

    Ŝi}−1{ n∑i=1

    X⊤i Λ̂iΩ̂−1i b̂ib̂⊤i Ω̂−1i Λ̂iXi}{ n∑i=1

    Ŝi}−1.A estimativa da expressão aima é obtida substituindo β, α e φ por suas respetivasestimativas onsistentes. Na literatura espeializada esse estimador reebe os nomes de1||α̂(β, φ) −α|| = Op(n−1/2)

  • Capítulo 2. EEGs para modelos de regressão beta om medidas repetidas 20estimador robusto, empírio ou sanduíhe. Quando R(α) representar a verdadeira matrizde orrelação dos y∗i �s, então Ωi = Cov(bi) e o estimador robusto se reduz aĴ−1n = −{ n∑i=1

    Ŝi}−1,o qual é onheido omo estimador �naive� ou �model-based�.Considerando que o modelo de regressão está orretamente espei�ado, o estimador�naive� é onsistente se a matriz de orrelação de trabalho também está orretamenteespei�ada. Já o estimador robusto é sempre onsistente. Além disso, o estimador ro-busto é assintotiamente não viesado, mas pode ser altamente viesado quando o númerode unidades experimentais (n) for pequeno. Quando n < 20, o estimador �naive� podeter melhores propriedades (Prentie, 1988) mesmo se R(α) não estiver orretamente es-pei�ada.Uma indiação da adequação de uma matriz R(α) ao modelo oorre quando as duasestimativas, �naive� e robusta, são próximas (Johnston, 1996).2.1.1 Estimação de β, φ e αO proesso iterativo para alular β̂, φ̂ e α̂ ombina o método soring de Fisher paraestimar β om o método dos momentos para estimar α e φ. Expandindo a EEG dadana equação (2.4) em torno de um valor iniial β̂(0), o proesso iterativo para estimar β édado porβ̂

    (m+1)= β̂

    (m) −{E [ ∂

    ∂β⊤Ψ1(β̂

    (m))

    ]}−1

    Ψ1(β̂(m)

    ) =

    = β̂(m)

    +

    [

    n∑

    i=1

    X⊤i ŴiXi]−1 [ n∑i=1

    X⊤i Ŵi Λ̂−1i b̂i]

    (m) (2.5)sendo m = 0, 1, 2, ... o número de iterações. O índie m no lado direito das equaçõesaima india que as matrizes e os vetores são atualizados pelas estimativas de β, α e φda m-ésima iteração.Reesrevendo (2.5) na forma de um proesso iterativo de mínimos quadrados repon-derados que emprega uma matriz de pesos Wi e uma variável dependente modi�ada zi,temos:β̂

    (m+1)=

    [

    n∑

    i=1

    X⊤i ŴiXi]−1 [ n∑i=1

    X⊤i Ŵizi]

    (m)

    , (2.6)

  • Capítulo 2. EEGs para modelos de regressão beta om medidas repetidas 21sendo zi = η̂i + Λ̂−1i b̂i. O proesso iterativo esrito onforme a equação (2.6) será útil,prinipalmente, para obtermos as medidas de diagnóstio desritas no Capítulo 5.Utilizando o método dos momentos e a Var(yij) = υ(µij)/1 + φ de�nida na equação(1.3), a estimativa de φ obtida no m-ésimo passo do proesso iterativo é dada porφ̂(m) =

    n∑

    i=1

    t∑

    j=1

    yij − µ̂(m)ij√

    µ̂(m)ij (1 − µ̂(m)ij )

    2/

    (nt− p)

    −1

    − 1

    . (2.7)O proedimento da EEG para estimar β permite que a estrutura de orrelação entreas observações da mesma unidade experimental seja espei�ada de diferentes formas:identidade, padrão uniforme, auto-regressiva de ordem 1 e não-estruturada, entre outras.Conforme assumimos na equação de estimação (2.4), R(α) re�ete as orrelações entre y∗ije y∗il, ou analogamente, podemos dizer que essa matriz de orrelação de trabalho re�eteas orrelações entre bij e bil, om bij = y∗ij − µ∗ij, (2.8)para i = 1, . . . , n e j, l = 1, . . . , t, om j 6= l.Dessa forma, seguindo a proposta de Artes (1997, Seção 3.1.4), apresentamos estima-dores para algumas estruturas usadas para de�nir R(α):1. A matriz de orrelação padrão uniforme assume que Corr(bij, bil) = α, ∀j 6= l e

    1 ≤ j, l ≤ t. Então, a estimativa de α no passo m é dada porα̂(m) =

    ( n∑

    i=1

    t∑

    j>l

    b̂ijb̂il)( n∑

    i=1

    t∑

    j=1

    b̂2ij) nt12nt(t− 1)(m) = ( n∑i=1 t∑j>l b̂ijb̂il)( n∑i=1

    t∑

    j=1

    b̂2ij) 2(t− 1)(m) .2. A matriz de orrelação autoregressiva de primeira ordem, AR-1, espei�a queCorr(bij, bil) = α|j−l|, 1 ≤ j, l ≤ t. Um estimador simples para α éα̂(m) =

    ( n∑

    i=1

    t−1∑

    j=1

    b̂ijb̂i,j+1)( n∑

    i=1

    t−1∑

    j=1

    b̂2ij n∑i=1

    t∑

    j=2

    b̂2ij)1/2(m) .Uma de�iênia desse estimador é que utiliza somente a informação sobre a depen-dênia de observações onseutivas de bij. Liang e Zeger (1986) propõem outro

  • Capítulo 2. EEGs para modelos de regressão beta om medidas repetidas 22estimador que leva em onta uma quantidade maior de informação, observando queE(b̂ijb̂il) ∼= (Var(b̂ij)Var(b̂il))1/2 α|j−l|. Assim, α no passo m pode ser estimadopelo oe�iente angular da regressão em que a variável dependente é log(b̂(m)ij b̂(m)il )e a independente é log |j − l|.3. Quando a matriz de orrelação é a não estruturada, α = (α12, α13, . . . , αt−1,t)⊤ é umvetor om t(t− 1)/2 omponentes, em que αjl orresponde à orrelação entre bij ebil, om i = 1, . . . , n e j, l = 1, . . . , t, om j < l. Um estimador para αjl é dado porα̂

    (m)jl =

    ( n∑

    i=1

    b̂ijb̂il)( n∑

    i=1

    b̂2ij)1/2( n∑i=1

    b̂2il)1/2(m) .�Com relação à esolha da estrutura da matriz de orrelação de trabalho, Liang eZeger (1986) itam que para qualquer R(α) utilizada, β̂ e Ĵ−1n serão onsistentes e ae�iênia rese quanto mais próxima da verdadeira matriz de orrelação estiver a esolhada matriz de orrelação de trabalho. Wang e Carey (2003) estudam a e�iênia relativaassintótia de β̂ segundo a espe�ação: da estrutura da matriz de orrelação de trabalho,do estimador de α e da matriz de planejamento (ou de ovariáveis). Estudos analítiose numérios realizados por esses autores mostram que o prinipal impato ausado nae�iênia dos estimadores de regressão é devido à espei�ação da estrutura imposta àmatriz de orrelação de trabalho.A seguir, apresentamos as etapas que mostram omo na prátia podemos estimar osparâmetros de β, φ e α.Etapas para estimação de β, φ e α.1. Supondo independênia entre as observações da mesma unidade experimental, ajus-tamos um modelo de regressão linear de g(y) sobre X via método de mínimos qua-drados ordinários, om µ = (µ⊤1 , . . . ,µ⊤n )⊤ e X = (X⊤1 , . . . ,X⊤n )⊤. Notemos que asuposição de independênia elimina os parâmetros α e φ do proesso de estimaçãode β.2. Ainda supondo independênia entre as observações da mesma unidade experimental,ou seja, de�nindo R(α) igual a uma matriz identidade, onsideramos as estimati-vas dos parâmetros de regressão da etapa anterior omo valores iniiais, β̂(0), para

  • Capítulo 2. EEGs para modelos de regressão beta om medidas repetidas 23estimar β e φ por meio das equações (2.6) e (2.7), respetivamente. Essas duas es-timativas são aluladas a ada passo do proesso iterativo até a onvergênia de β.Nesta etapa, obtemos as estimativas de β e φ onsiderando um modelo de regressãobeta om independênia entre as observações da mesma unidade experimental.3. De�nimos uma estrutura de orrelação de trabalho R(α) para ser utilizada na mo-delagem dos dados. Se a estrutura for a independente, as estimativas de β e φ sãoos valores obtidos na onvergênia do proesso iterativo da etapa 2. Caso ontrário,onsiderando omo β̂(0) e φ̂(0) as estimativas de β e φ enontradas na etapa 2, alu-lamos os parâmetros de orrelação (α̂(0)). No passo seguinte do proesso iterativo,alulamos os parâmetros de regressão (β̂(m)) utilizando novamente a equação (2.6),o parâmetro de preisão (φ̂(m)) e os parâmetros de orrelação (α̂(m)). Repetimosesse passo do proesso até a onvergênia de β.�2.2 Modelagem onjunta dos parâmetros de posição epreisãoSeja yi = (yi1, yi2, ..., yiti)⊤ o vetor (ti × 1) de respostas da i-ésima unidade experi-mental, om i = 1, ..., n. Vamos assumir que a densidade marginal da variável respostatenha distribuição beta, yij ∼ B(µij, φij), dada por

    p(yij;µij, φij) = Γ(φij)Γ(µijφij)Γ((1 − µij)φij)yµijφij−1ij (1 − yij)(1−µij)φij−1, (2.9)Aqui, inorporamos a heterogeneidade do parâmetro de preisão, ou seja, ada observaçãoyij assume ter sua própria preisão, φij, i = 1, ..., n e j = 1, ..., ti.Consideremos que o omponente sistemátio que modela a média, µij, seja dado pelaequação (2.2) e que o omponente sistemátio que modela o parâmetro de preisão, φij,omo função de ovariáveis qij (que podem ser um subonjunto de xij), seja dado porf(φij) = δij = q⊤ijγ, (2.10)sendo f(.) uma função monótona e duplamente difereniável uja inversa deve ser positiva,

    δij o preditor linear e γ = (γ1, ..., γq)⊤, q < n, um vetor de parâmetros desonheidos aserem estimados, om i = 1, ..., n e j = 1, ..., ti. Para failitar a notação, assumimos, semperda de generalidade, que ti = t, i = 1, . . . , n.

  • Capítulo 2. EEGs para modelos de regressão beta om medidas repetidas 24A onstrução de equações de estimação para modelagem onjunta dos parâmetros deposição e preisão, no ontexto de modelos de regressão beta om medidas repetidas,onsidera a densidade marginal de yij desrita na equação (2.9), os omponentes sistemá-tios (2.2) e (2.10) que modelam, respetivamente, os parâmetros de posição e de preisãoe os vetores bi = y∗i − µ∗i , i = 1, . . . , n. Notemos que esses vetores são funções tanto dovetor de parâmetros β omo do vetor de parâmetros γ e sua utilização é justi�ada naSeção 2.1.Logo, assumindo dependênia entre as observações da mesma unidade experimental i,a função de estimação ótima de θ = (β⊤,γ⊤)⊤, obtida a partir de (1.14), é equivalente aΨo2(θ) =

    n∑

    i=1

    ( X⊤i GiΦiAiQ⊤i FiCi )(A1/2i R (y∗i ) A1/2i )−1 (y∗i − µ∗i ), (2.11)sendo Xi = (xi1, ...,xit)⊤, Φi = diag (φi1, . . . , φit), Ai = diag (ai1, . . . , ait), Gi =diag (∂g−1(ηi1)/∂ηi1, . . . , ∂g−1(ηit)/∂ηit), Qi = (qi1, ...,qit)⊤, Ci = diag (i1, . . . , it),Fi = diag (∂f−1(δi1)/∂δi1, . . . , ∂f−1(δit)/∂δit) e R(y∗i ) a verdadeira matriz de orrela-ção de y∗i , em que aij = ψ′(µijφij)+ψ′((1−µij)φij) e ij = µijψ′(µijφij)− (1−µij)ψ′((1−µij)φij), om i = 1, . . . , n e j = 1, . . . , t. As ontas detalhadas estão apresentadas na SeçãoA.1.2 do Apêndie A e as possíveis expressões para G e F de aordo, respetivamente,om as funções g(·) e f(·) adotadas estão apresentadas na Tabela C.1 do Apêndie C.Sob as ondições do Teorema 1, temos que θ̂, solução de Ψo2(θ̂) = 0, é um estimadoronsistente de θ e que√n(θ̂ − θ) D−→ Np+q

    0, limn→∞

    n

    {

    n∑

    i=1

    ( X⊤i GiΦiAiQ⊤i FiCi )Cov(bi)−1( X⊤i GiΦiAiQ⊤i FiCi )⊤}−1 .Conforme ressaltamos na Seção 2.1, iremos substituir a verdadeira matriz de orrelaçãopor uma matriz de orrelação de trabalho, R(α), que satisfaça as ondições para ser umamatriz de orrelação, em que α, um vetor (s × 1), arateriza ompletamente R(α).Notemos que R(α) não preisa ser neessariamente a verdadeira matriz de orrelação dosy∗i 's.Com isso, a função de estimação generalizada de θ é dada porΨ2 (θ) =

    (

    Ψ2(β)

    Ψ2(γ)

    )

    =n∑

    i=1

    ( X⊤i GiΦiAiQ⊤i FiCi )Ω−1i (y∗i − µ∗i ) = (2.12)=

    n∑

    i=1

    M⊤i ΛiΩ−1i bi = n∑i=1

    M⊤i Wi Λ−⊤i bi, (2.13)

  • Capítulo 2. EEGs para modelos de regressão beta om medidas repetidas 25sendo Λ−⊤i a inversa generalizada de Λ⊤i , Mi = ( Xi 00 Qi ), Λi = ( GiΦiAiFiCi ),

    Ωi = A1/2i R(α)A1/2i e Wi = ΛiΩ−1i Λ⊤i . Como Λ⊤i é uma matriz om dimensão t × 2tom posto t, então temos que Λ⊤i Λ−⊤i = It, sendo It uma matriz identidade de tamanhot (Graybill, 1976, Teorema 1.5.12). Notemos que apenas nesta seção, Λi não é de�nidaomo uma matriz simétria.Como a equação de estimação dada em (2.13) deixa de ser a ótima, no próximo teoremadesrevemos algumas ondições que o estimador de α deve satisfazer de modo que oestimador de θ seja onsistente e assintotiamente normal.Teorema 3. Seja θ̂ a raiz de (2.13). Sob ondições gerais de regularidade e assumindoque α̂(θ) é um estimador √n-onsistente de α dado θ, então temos que θ̂ é um estimadoronsistente de θ e

    √n(θ̂ − θ) D−→ Np+q

    (

    0,J−1) ,om J = limn→∞ Jn/n, sendo Jn a matriz de informação de Godambe de θ assoiada aΨ2, dada por Jn = { n∑

    i=1

    Si}{ n∑i=1

    Vi}−1{ n∑i=1

    Si},em quen∑

    i=1

    Si = E [ ∂∂θ⊤

    Ψ2(θ)

    ]

    = −n∑

    i=1

    M⊤i WiMien∑

    i=1

    Vi = E [Ψ2(θ)Ψ⊤2 (θ)] = n∑i=1

    M⊤i ΛiΩ−1i Cov(bi)Ω−1i Λ⊤i Mi.A prova desse teorema é análoga à enontrada em Artes (1997, Teorema 7, p.67).No aso de ajustar onjuntamente os parâmetros de posição e preisão segundo aequação (2.13), o estimador robusto para a matriz de ovariânias de θ̂ é dado porĴ−1n = { n∑i=1

    Ŝi}−1{ n∑i=1

    M⊤i Λ̂iΩ̂−1i b̂ib̂⊤i Ω̂−1i Λ̂⊤i Mi}{ n∑i=1

    Ŝi}−1.A estimativa da expressão aima é obtida substituindo θ e α por suas respetivas estima-tivas onsistentes. Já o estimador �naive�, obtido quando R(α) representar a verdadeira

  • Capítulo 2. EEGs para modelos de regressão beta om medidas repetidas 26matriz de orrelação dos y∗i 's, é dado porĴ−1n = −{ n∑i=1

    Ŝi}−1.2.2.1 Estimação de β, γ e αO proesso iterativo para alular θ̂ = (β̂⊤, γ̂⊤)⊤ e α̂ ombina o método soringde Fisher para estimar os parâmetros de regressão θ = (β⊤,γ⊤)⊤ om o método dosmomentos para estimar os parâmetros de orrelação α. Expandindo a EEG dada naequação (2.13) em torno de um valor iniial θ̂(0) = (β̂(0)⊤, γ̂(0)⊤)⊤, o proesso iterativopara estimar θ é dado porθ̂

    (m+1)= θ̂

    (m) −{E [ ∂

    ∂θ⊤Ψ2(θ̂

    (m))

    ]}−1

    Ψ2(θ̂(m)

    ) =

    = θ̂(m)

    +

    [

    n∑

    i=1

    M⊤i ŴiMi]−1 [ n∑i=1

    M⊤i Ŵi Λ̂−⊤i b̂i]

    (m)

    , (2.14)sendo m = 0, 1, 2, ... o número de iterações. O índie m no lado direito das equaçõesaima india que as matrizes e os vetores são atualizados pelas estimativas de θ e α dam-ésima iteração.Reesrevendo (2.14) na forma de um proesso iterativo de mínimos quadrados repon-derados que emprega uma matriz de pesos Wi e uma variável dependente modi�ada zi,temos:

    θ̂(m+1)

    =

    [

    n∑

    i=1

    M⊤i ŴiMi]−1 [ n∑i=1

    M⊤i Ŵizi]

    (m)

    , (2.15)sendo zi = ν̂i + Λ̂−⊤i b̂i, om νi = (η⊤i , δ⊤i )⊤.Para estimar α, que re�ete as orrelações entre y∗ij e y∗il, para i = 1, . . . , n e j, l =1, . . . , t, om j 6= l, proedemos onforme desrito na Seção 2.1.1.A seguir, apresentamos as etapas que mostram omo na prátia podemos estimar osparâmetros de β, γ e α.Etapas para estimação de β, γ e α.1. Supondo independênia entre as observações da mesma unidade experimental, ajus-tamos um modelo de regressão linear de g(y) sobre X e um de f(φ̌) sobre Q,

  • Capítulo 2. EEGs para modelos de regressão beta om medidas repetidas 27ambos via método de mínimos quadrados ordinários, sendo φ = (φ⊤1 , . . . ,φ⊤n )⊤ eQ = (Q⊤1 , . . . ,Q⊤n )⊤, om φi = (φi1, . . . , φit)⊤ e i = 1, . . . , n. Além disso, parao ajuste do parâmetro de preisão, utilizamos omo valor de φij, φ̌ij, a sugestãoproposta por Ferrari e Cribari-Neto (2004) que é dada por:φ̌ij =

    µ̌ij(1 − µ̌ij)σ̌2ij

    − 1,em queµ̌ij = g

    −1(x⊤ijβ̂MQO) e σ̌2ij = ě⊤ě [Ǧ2ij/ (n− p)],sendo β̂MQO a estimativa obtida pelo ajuste da média via método de mínimos qua-drados ordinários, ě = g(y) − Xβ̂MQO o vetor de resíduos de mínimos quadradosordinários de uma regressão linear om a variável resposta transformada e Ǧij o

    j-ésimo elemento da diagonal de Gi avaliado em µ̌ij.2. Uma estrutura de orrelação de trabalho R(α) deve ser de�nida para ser utilizadana modelagem dos dados. Considerando as estimativas dos parâmetros de regressãoda etapa anterior omo valores iniiais, β̂(0) e γ̂(0), obtemos a estimativa iniial deα, α̂(0), levando em onta os omponentes do vetor bi expresso em (2.8). Nestaetapa, estimamos β e γ em proessos iterativos separados dados, respetivamente,por

    β̂(m+1)

    =

    [

    n∑

    i=1

    X⊤i ŴβiXi]−1 [ n∑i=1

    X⊤i Ŵβi zβi]

    (m)

    , (2.16)om Ŵβi = ĜiΦ̂iÂiΩ̂−1i ÂiΦ̂iĜi e zβi = η̂i + (ÂiΦ̂iĜi)−1b̂i, e porγ̂(m+1) =

    [

    n∑

    i=1

    Q⊤i ŴγiQi]−1 [ n∑i=1

    Q⊤i Ŵγi zγi]

    (m)

    , (2.17)om Ŵγi = F̂iĈiΩ̂−1i ĈiF̂i e zγi = δ̂i + (ĈiF̂i)−1b̂i. Esses proessos são esritosseparando as equações de estimação de β e de γ, Ψ2(β) e Ψ2(γ), de�nidas em(2.12). As estimativas de β, γ e α são aluladas a ada passo m até a onvergêniade β e γ.3. Consideramos as estimativas de β, γ e α da etapa anterior omo valores iniiaisβ̂

    (0), γ̂(0) e α̂(0), do proesso iterativo dado em (2.14). Repetimos ada passo (m)do proesso iterativo até a onvergênia de β e γ.�

  • Capítulo 3Equações de estimação para modelos deregressão simplex om medidasrepetidasA distribuição simplex pertene à lasse de modelos de dispersão (Jφrgensen, 1997) e,assim omo a distribuição beta, tem o suporte de�nido no intervalo unitário (0, 1). Com ointuito de modelar dados om medidas repetidas de�nidos nesse intervalo, apresentamosequações de estimação generalizadas para modelos de regressão simplex baseadas naspropostas de Artes (1997), Artes e Jφrgensen (2000), Song e Tan (2000) e Song et al.(2004).A seguir, modelamos a média onsiderando a homogeneidade do parâmetro de dis-persão. Na Seção 3.2, a média e a dispersão são modeladas onjuntamente via equaçõesde estimação, om o intuito de inorporar uma possível heterogeneidade da dispersão.3.1 Modelagem do parâmetro de posiçãoSeja yi = (yi1, yi2, ..., yiti)⊤ o vetor de respostas da i-ésima unidade experimental,om i = 1, ..., n. Vamos assumir que a variável resposta yij tenha distribuição simplexom média µij e parâmetro de dispersão φ−1, yij ∼ S−(µij, φ), om função densidade deprobabilidade onforme desrita em (1.7). A prinípio, vamos onsiderar que o parâmetrode dispersão φ−1, além de ser igual para todas as observações, é onheido.Consideremos que as médias µij's são modeladas pelo omponente sistemátio dado28

  • Capítulo 3. EEGs para modelos de regressão simplex om medidas repetidas 29na equação (2.2). Para failitar a notação, assumimos, sem perda de generalidade, queti = t, i = 1, . . . , n.Para onstruir equações de estimação, de aordo om a de�nição de função de estima-ção linear ótima dada em (1.14), é neessário ter vetores b1i = b1i(yi;β), i = 1, . . . , n,om média zero, mutuamente independentes e om as mesmas propriedades das funçõesde estimação regulares de�nidas na Seção 1.3. Além disso, vamos de�ní-los de tal formaque, no aso de independênia entre todas as observações, gerem uma lasse L(b) queontenha a função esore dada em (1.11).Assim, no ontexto de modelos de regressão simplex om medidas repetidas, de�nimosb1i = ui = ui(yi;µi), om ui = (ui1, . . . , uit)⊤, yi = (yi1, . . . , yit)⊤ e µi = (µi1, . . . , µit)⊤,sendo uij = −1

    2

    ∂d(yij;µij)∂µij

    =yij − µij

    µij(1 − µij)

    [

    d(yij;µij) + 1µ2ij(1 − µij)2] , (3.1)oriundo da função esore dada em (1.11), om i = 1, . . . , n e j = 1, . . . , t. Assumindodependênia entre as observações da mesma unidade experimental i, os termos da funçãode estimação ótima de�nidos em (1.14) são dados porE( ∂bi∂β⊤

    )⊤

    = −X⊤i Λie Cov (bi) = Var(ui)1/2 R (ui) Var(ui)1/2 = A1/2i R (ui) A1/2i ,sendo Xi = (xi1, ...,xit)⊤, Λi = φGiAi, Ai = diag (ai1, . . . , ait) e R(ui) a verda-deira matriz de orrelação de ui, om Gi = diag (∂g−1(ηi1)/∂ηi1, . . . , ∂g−1(ηit)/∂ηit) eaij = φ−1 [3φ−1/ (µij(1 − µij)) + 1/ (µ3ij(1 − µij)3)], i = 1, . . . , n e j = 1, . . . , t. Notemosque, onforme a Proposição 1.1, aij é a variânia de uij. As ontas detalhadas estão apre-sentadas na Seção A.2.1 do Apêndie A e as possíveis expressões para G de aordo oma função de ligação g(·) adotada estão apresentadas na Tabela C.1 do Apêndie C.Logo, a função de estimação linear ótima de β, quando onsideramos φ onheido e averdadeira matriz de orrelação de ui, é equivalente aΨo1(β) =

    n∑

    i=1

    X⊤i Λi Cov(ui)−1 ui. (3.2)Sob as ondições do Teorema 1, temos que β̂, solução de Ψo1(β̂) = 0, é um estimadoronsistente de β e que√n(β̂ − β) D−→ Np

    0, limn→∞

    n

    {

    n∑

    i=1

    X⊤i Λi Cov(ui)−1ΛiXi}−1 .

  • Capítulo 3. EEGs para modelos de regressão simplex om medidas repetidas 30No aso em que a verdadeira matriz de orrelação dos vetores ui's é desonheida,de�nimos uma matriz de orrelação de trabalho R(α) (Liang e Zeger, 1986), obtendo aseguinte função de estimação generalizada de β:Ψ1 (β) =

    n∑

    i=1

    X⊤i ΛiΩ−1i ui = n∑i=1

    X⊤i Wi Λ−1i b1i, (3.3)sendo Ωi = A1/2i R(α)Â1/2i e Wi = Λi Ω−1i Λi.Entretanto, a função de estimação de�nida em (3.3) deixa de ser a ótima. Nesse aso, éneessário que um estimador de α seja determinado de modo que o estimador de β, obtidoa partir de (3.3), seja onsistente e assintotiamente normal. Além disso, omo φ quasesempre é desonheido, também é neessário propor um estimador para esse parâmetro.Artes (1997, Teorema 6, pg.47) desreve algumas ondições que os estimadores de α eφ devem satisfazer de modo que a raiz de (3.3), β̂, seja um estimador onsistente de β e√n(β̂ − β) D−→ Np

    (

    0,J−1), om J = limn→∞ Jn/n, sendo Jn a matriz de informação deGodambe de β assoiada a Ψ1 dada porJn = { n∑i=1

    Si}{ n∑i=1

    Vi}−1{ n∑i=1

    Si} ,em quen∑

    i=1

    Si = E [ ∂∂β⊤

    Ψ1(β)

    ]

    = −n∑

    i=1

    X⊤i WiXien∑

    i=1

    Vi = E [Ψ1(β)Ψ⊤1 (β)] = n∑i=1

    X⊤i Λi Ω−1i Cov(ui)Ω−1i ΛiXi.Assim, o estimador robusto de J−1n é dado porĴ−1n = { n∑i=1

    Ŝi}−1{ n∑i=1

    X̂⊤i ĜiΩ̂−1i b̂1ib̂⊤1iΩ̂−1i ĜiX̂i}{ n∑i=1

    Ŝi}−1,e o �naive� por Ĵ−1n = −{∑ni=1 Ŝi}−1. As estimativas das duas últimas expressões sãoobtidas substituindo β, α e φ por suas respetivas estimativas onsistentes. Vale enfati-zar que esses resultados assintótios são válidos mesmo quando R(α) não orresponde àverdadeira matriz de orrelação de ui, i = 1, . . . , n, (Artes, 1997).

  • Capítulo 3. EEGs para modelos de regressão simplex om medidas repetidas 313.1.1 Estimação de β, φ e αExpandindo a EEG dada na equação (3.3) em torno de um valor iniial β̂(0), o proessoiterativo para estimar β é dado porβ̂

    (m+1)= β̂

    (m)+

    [

    n∑

    i=1

    X⊤i ŴiXi]−1 [ n∑i=1

    X⊤i Ŵi Λ̂−1i b̂1i]

    (m) (3.4)sendo m = 0, 1, 2, . . . o número de iterações. O índie m no lado direito das equaçõesaima india que as matrizes e os vetores são atualizados pelas estimativas de β, α eφ da m-ésima iteração. A equação (3.4) reesrita na forma de um proesso iterativo demínimos quadrados reponderados �a expressa por

    β̂(m+1)

    =

    [

    n∑

    i=1

    X⊤i ŴiXi]−1 [ n∑i=1

    X⊤i Ŵizi]

    (m)

    , (3.5)que emprega uma matriz de pesos Wi e uma variável dependente modi�ada zi, sendozi = η̂i + Λ̂−1i b̂1i. O proesso iterativo esrito onforme a equação (3.5) será útil, prini-palmente, para obtermos as medidas de diagnóstio desritas no Capítulo 5.Utilizando o método dos momentos e o resultado da equação (1.10), a estimativa deφ−1 obtida no m-ésimo passo do proesso iterativo é dada por

    φ̂−(m) =

    {

    n∑

    i=1

    t∑

    j=1

    d(yij, µ̂(m)ij )/ (nt− p)} . (3.6)Aqui, α re�ete as orrelações entre uij e uil, para i = 1, . . . , n e j, l = 1, . . . , t, om

    j 6= l. Logo, para estimar α, proedemos onforme desrito na Seção 2.1.1, substituindobij dado na equação (2.8) por b1ij = uij, (3.7)sendo uij onforme desrito na equação (3.1), om i = 1, . . . , n e j = 1, . . . , t.A seguir, apresentamos as etapas que mostram omo na prátia podemos estimar osparâmetros de β, φ e α.Etapas para estimação de β, φ e α.1. Supondo independênia entre as observações da mesma unidade experimental, ajus-tamos um modelo de regressão linear de g(y) sobre X via método de mínimos qua-drados ordinários, om µ = (µ⊤1 , . . . ,µ⊤n )⊤ e X = (X⊤1 , . . . ,X⊤n )⊤. Notemos que asuposição de independênia elimina os parâmetros α e φ do proesso de estimaçãode β.

  • Capítulo 3. EEGs para modelos de regressão simplex om medidas repetidas 322. Ainda supondo independênia entre as observações da mesma unidade experimental,ou seja, de�nindo R(α) igual a uma matriz identidade, onsideramos as estimativasdos parâmetros de regressão da etapa anterior omo valores iniiais, β̂(0), para esti-mar β e φ via equações (3.5) e (3.6), respetivamente. Essas duas estimativas sãoaluladas a ada passo do proesso iterativo até a onvergênia de β. Nesta etapa,obtemos as estimativas de β e φ−1 onsiderando um modelo de regressão simplexom independênia entre as observações da mesma unidade experimental.3. De�nimos uma estrutura de orrelação de trabalho R(α) para ser utilizada na mo-delagem dos dados. Se a estrutura for a independente, as estimativas de β e φ sãoos valores obtidos na onvergênia do proesso iterativo da etapa 2. Caso ontrário,onsiderando omo β̂(0) e φ̂(0) as estimativas de β e φ enontradas na etapa 2,alulamos os parâmetros de orrelação (α̂(0)) utilizando o omponente expressoem (3.7). No passo seguinte do proesso iterativo, alulamos os parâmetros deregressão (β̂(m)) utilizando novamente a equação (3.5), o parâmetro de dispersão(φ̂−(m)) pela equação (3.6) e os parâmetros de orrelação (α̂(m)). Repetimos essepasso do proesso até a onvergênia de β.

    �3.2 Modelagem onjunta dos parâmetros de posição edispersãoSeja yi = (yi1, yi2, ..., yiti)⊤ o vetor (ti×1) de respostas da i-ésima unidade experimen-tal, om i = 1, ..., n. Vamos assumir que a variável resposta yij tenha distribuição simplexom média µij e parâmetro de dispersão φ−1ij , yij ∼ S−(µij, φij), om função densidadede probabilidade onforme desrita em (1.7). Aqui, inorporamos a heterogeneidade doparâmetro de dispersão, ou seja, ada observação yij assume ter sua própria dispersão,φ−1ij , i = 1, . . . , n e j = 1, . . . , ti.Consideremos que o omponente sistemátio que modela a média, µij, seja dado pelaequação (2.2) e que o omponente sistemátio que modela o parâmetro de dispersão, φ−1ij ,omo função de ovariáveis qij (que podem ser um subonjunto de xij), seja dado por

    f(φ−1ij ) = δij = q⊤ijγ, (3.8)sendo f(.) uma função monótona e duplamente difereniável om inversa positiva, δij opreditor linear e γ = (γ1, ..., γq)⊤, q < n, um vetor de parâmetros desonheidos a serem

  • Capítulo 3. EEGs para modelos de regressão simplex om medidas repetidas 33estimados, om i = 1, . . . , n e j = 1, . . . , ti. Para failitar a notação, assumimos, semperda de generalidade, que ti = t, i = 1, . . . , n.Utilizando a de�nição de função de estimação linear ótima dada em (1.14) no ontextode modelos de regressão simplex om medidas repetidas, as equações de estimação paraestimar a média são onstruídas baseadas nos vetores b1i = ui = ui(yi;µi) (veja justi�a-tiva na Seção 3.1) e para estimar a dispersão, são onstruídas baseadas nos vetores dadospor b2i = di − φ−1i , (3.9)sendo di = (d(yi1;µi1), . . . , d(yit;µit))⊤ e φ−1i = (φ−1i1 , . . . , φ−1it )⊤, om i = 1, . . . , n ej = 1, . . . , t. Os vetores desritos em (3.9), i = 1, . . . , n, são vetores om média zero (videequação (1.10)), mutuamente independentes e om as mesmas propriedades das funçõesde estimação regulares de�nidas na Seção 1.3.Logo, de�nindo bi = (b⊤1i,b⊤2i)⊤ e assumindo dependênia entre as observações damesma unidade experimental i, a função de estimação linear ótima de θ = (β⊤,γ⊤)⊤de�nida a partir de (1.14) é dada por

    Ψo2(θ) =

    n∑

    i=1

    ( X⊤i GiΦiAi 00 Q⊤i Fi )( Cov (ui) Cov (ui,di)Cov (di,ui) Cov (di) )−1 bi, (3.10)em que Xi = (xi1, ...,xit)⊤, Gi = diag (∂g−1(ηi1)/∂ηi1, . . . , ∂g−1(ηit)/∂ηit), Φi =diag (φi1, . . . , φit), Ai = diag (ai1, . . . , ait), Fi = diag (∂f−1(δi1)/∂δi1, . . . , ∂f−1(δit)/∂δit),Qi = (qi1, ...,qit)⊤, Cov (ui) = A1/2i R (ui) A1/2i , Cov (di) = D1/2i R (di) D1/2i eCov(ui,di) é a verdadeira matriz de ovariânias entre ui e di. Além disso, R(ui)e R(di) são, respetivamente, as verdadeiras matrizes de orrelação de ui e di, aij =

    φ−1ij[

    3φ−1ij / (µij(1 − µij)) + 1/(

    µ3ij(1 − µij)3)] e Di = diag (2(φ−1i1 )2, . . . , 2(φ−1it )2) onfor-me desrito na Proposição 1.1, om i = 1, . . . , n e j = 1, . . . , t. As ontas detalhadasestão apresentadas na Seção A.2.2 do Apêndie A e as possíveis expressões para G e Fde aordo, respetivamente, om as funções g(·) e f(·) adotadas estão apresentadas naTabela C.1 do Apêndie C.Por modelar onjuntamente os parâmetros de posição e dispersão, na prátia, as equa-ções desritas em (3.10) têm novas quantidades desonheidas: R(di) e Cov(ui,di). Parasoluionar esse problema, são neessárias novas suposições sobre essas estruturas, omopor exemplo, substituí-las por matrizes de trabalho omo foi feito para a estimação deR(ui) na Seção 3.1. Entretanto, o número de parâmetros de pertubação (nuisane) aserem estimados pode ser reduzido se assumirmos que as equações de estimação sãoindependentes, Cov(ui,di) = 0; e que não há dependênia entre os elementos de di,

  • Capítulo 3. EEGs para modelos de regressão simplex om medidas repetidas 34R(di) = It. Isso faz om que afastemo-nos da função de estimação linear ótima de�nidaem (3.10), mas limitamos a quantidade de suposições a serem feitas sobre a estrutura dedependênia dos dados (ver detalhes em Artes (1997) e Song et al. (2004)).Com isso, a função de estimação generalizada de θ é dada porΨ2 (θ) =

    (

    Ψ2(β)

    Ψ2(γ)

    )

    =n∑

    i=1

    X⊤i GiΦiAi (A1/2i R(α)A1/2i )−1 b1iQ⊤i FiD−1i b2i = (3.11)=

    n∑

    i=1

    M⊤i ΛiΩ−1i bi = n∑i=1

    M⊤i Wi Λ−1i bi, (3.12)sendo Mi = ( Xi 00 Qi ), Λi = ( GiΦiAi 00 Fi ), Ωi = ( A1/2i R(α)A1/2i 00 Di ) eWi = ΛiΩ−1i Λ⊤i .Como a equação de estimação dada em (3.12) deixa de ser a ótima, Artes (1997,Teorema 7, pg.67) desreve algumas ondições que o estimador de α deve satisfazerde modo que a raiz de (3.12), θ̂, seja um estimador onsistente de θ e que √n(θ̂ −

    θ)D−→ Np+q

    (

    0,J−1), om J = limn→∞ Jn/n, sendo Jn a matriz de informação de Go-dambe de θ assoiada à equação de estimação (3.12).No aso de ajustar onjuntamente os parâmetros de posição e dispersão segundo aequação (3.12), o estimador robusto para a matriz de ovariânias de θ̂ é dado porĴ−1n = { n∑i=1

    Ŝi}−1{ n∑i=1

    M⊤i Λ̂iΩ̂−1i b̂ib̂⊤i Ω̂−1i Λ̂⊤i Mi}{ n∑i=1

    Ŝi}−1.e o estimador �naive� por Ĵ−1n = −{∑ni=1 Ŝi}−1, em que ∑ni=1 Si = −∑ni=1M⊤i WiMi.As estimativas dessas duas expressões são obtidas substituindo θ = (β⊤,γ⊤)⊤ e α porsuas respetivas estimativas onsistentes.3.2.1 Estimação de β, γ e αA EEG dada na equação (3