379
A P O S T I L A LCE 5861-3 MODELOS LINEARES Material preparado pelo Prof. Dr. César Gonçalves de Lima Linear Models in Statistics ALVIN C. RENCHER Department of Statistics Brigham Young University, Provo, Utah A Wiley-Interscience Publication, 2000 JOHN WILEY & SONS, INC.

ML Baseado Rencher - Linear Models in Statistics

Embed Size (px)

DESCRIPTION

Tradução resumida do livro de Rencher.

Citation preview

  • A P O S T I L A

    LCE 5861-3 MODELOS LINEARES

    Material preparado pelo Prof. Dr. Csar Gonalves de Lima

    Linear Models in Statistics ALVIN C. RENCHER

    Department of Statistics Brigham Young University, Provo, Utah A Wiley-Interscience Publication, 2000

    JOHN WILEY & SONS, INC.

  • ii

    C O N T E D O

    1. INTRODUO .................................................................................................. 1 1.1. Modelo de Regresso Linear Simples ........................................................... 1 1.2. Modelo de Regresso Linear Mltipla .......................................................... 1 1.3. Modelos de Anlise de Varincia .................................................................. 3

    2. LGEBRA DE MATRIZES ............................................................................. 4 2.1 Matrizes e vetores ........................................................................................... 4

    2.1.1. Matrizes, vetores e escalares .................................................................. 4 2.1.2. Igualdade de matrizes ............................................................................. 5 2.1.3. Matriz transposta .................................................................................... 5 2.1.4. Alguns tipos especiais de matrizes ......................................................... 6

    2.2. Operaes com matrizes ................................................................................ 7 2.2.1. Adio de duas matrizes ......................................................................... 7 2.2.2. Produto de duas matrizes ........................................................................ 8 2.2.3. Soma direta ........................................................................................... 14 2.2.4. Produto direto ou de Kronecker ........................................................... 15 2.2.5. Potncia de matriz quadrada ................................................................ 16

    2.3. Matrizes particionadas ................................................................................. 17 2.4. Posto (rank) de uma matriz ......................................................................... 19 2.5. Inversa de uma matriz ................................................................................. 23 2.6. Matrizes positivas definidas ........................................................................ 25 2.7. Sistemas de equaes .................................................................................. 29 2.8. Inversas Generalizadas ................................................................................ 32

    2.8.1. Definio e propriedades ...................................................................... 32 2.8.2. Inversas generalizadas e sistemas de equaes .................................... 36

    2.9. Determinantes .............................................................................................. 37 2.10. Vetores ortogonais e matrizes ................................................................... 39 2.11. Trao de uma matriz .................................................................................. 41 2.12. Autovalores e autovetores ......................................................................... 42

    2.12.2. Funes de uma matriz ....................................................................... 43 2.12.3. Produtos .............................................................................................. 44

  • iii

    2.12.4. Matrizes simtricas ............................................................................. 45 2.12.5. Matriz positiva definida e positiva semidefinida ............................... 45

    2.13. Matrizes idempotentes ............................................................................... 46 2.14 Derivadas de funes lineares e formas quadrticas .................................. 47 Lista de Exerccios Adicionais ........................................................................... 50

    3. VETORES E MATRIZES ALEATRIOS ................................................... 54 3.1. Introduo .................................................................................................... 54 3.2. Mdia, varincia, covarincia e correlao ................................................. 55 3.3. Vetor de mdias e matriz de covarincia para vetores aleatrios ............... 57

    3.3.1. Vetor de mdias .................................................................................... 57 3.3.2. Matriz de covarincias .......................................................................... 57 3.3.3. Varincia generalizada ......................................................................... 59 3.3.4. Distncia padronizada .......................................................................... 59

    3.4. Matriz de correlaes .................................................................................. 59 3.5. Vetor de mdias e matriz de covarincia para vetores aleatrios particio-

    nados ........................................................................................................... 60 3.6. Funes Lineares de vetores aleatrios ....................................................... 61

    3.6.1. Mdia de uma funo linear ................................................................. 61 3.6.2. Varincias e covarincias de uma funo linear .................................. 62

    4. DISTRIBUIO NORMAL MULTIVARIADA ......................................... 64 4.1. Funo densidade normal univariada .......................................................... 64 4.2. Funo densidade normal multivariada ...................................................... 64 4.3. Funes geradoras de momentos ................................................................. 66 4.4. Propriedades da distribuio normal multivariada ...................................... 68 4.5. Correlao parcial ........................................................................................ 72

    5. DISTRIBUIO DE FORMAS QUADRTICAS ...................................... 74 5.1. Somas de quadrados .................................................................................... 74 5.2. Mdia e varincia de formas quadrticas .................................................... 75 5.3. Distribuio quiquadrado no central ......................................................... 78 5.4. Distribuies t e F no centrais ................................................................... 80

  • iv

    5.4.1. Distribuio F no central .................................................................... 80 5.4.2. Distribuio t no central ..................................................................... 81

    5.5. Distribuio de formas quadrticas ............................................................. 81 5.6. Independncia de formas lineares e formas quadrticas ............................. 82 Apndice A.5. Classificao de formas quadrticas .......................................... 85

    6. REGRESSO LINEAR SIMPLES ................................................................ 86 6.1. Modelo ......................................................................................................... 86 6.2. Estimao de 0, 1 e 2 ............................................................................. 86 6.3. Teste de hipteses e intervalo de confiana para 1 .................................... 90 6.4. Coeficiente de determinao ....................................................................... 91

    7. REGRESSO LINEAR MLTIPLA: ESTIMAO ................................. 93 7.1. Introduo .................................................................................................... 93 7.2. Modelo ......................................................................................................... 93 7.3. Estimao de e de 2 ................................................................................ 97

    7.3.1. Estimador de mnimos quadrados de ................................................ 97 7.3.2. Propriedades dos estimadores de mnimos quadrados .................... 100 7.3.3. Um estimador para 2.......................................................................... 104

    7.4. Geometria de mnimos quadrados ............................................................. 106 7.4.1. Espao de variveis ............................................................................ 106 7.4.2. Espao amostral .................................................................................. 107

    7.5. O modelo na forma centrada ..................................................................... 108 7.6. O modelo normal ....................................................................................... 111

    7.6.1. Suposies .......................................................................................... 111 7.6.2. Estimadores de mxima verossimilhana de e 2 ........................... 111 7.6.3. Propriedades de e 2 ...................................................................... 112

    7.7. O coeficiente de determinao R2 na regresso com x-fixos ..................... 113 7.8. Mnimos quadrados generalizados: cov(y) = 2V ..................................... 115

    7.8.1. Estimao de e 2 quando cov(y) = = 2V .................................. 116 7.8.2. Falha de especificao da estrutura de erros ...................................... 118

    7.9. Falha na especificao do modelo ............................................................. 120 7.10. Ortogonalizao ....................................................................................... 122

  • v

    8. REGRESSO MLTIPLA: TESTES DE HIPTESES E INTERVA-LOS DE CONFIANA .................................................................................. 126 8.1. Teste de regresso global .......................................................................... 126 8.2. Teste sobre um conjunto de s ................................................................. 129 8.3. Testes F baseados no coeficiente de determinao ................................... 134 8.4. Teste da hiptese linear geral H0: C = 0 e da hiptese H0: C = t ....... 134

    8.4.1. O teste da hiptese H0: C = 0 ........................................................... 134 8.4.2. O teste da hiptese H0: C = t ............................................................ 138

    8.5. Testes sobre j e a .................................................................................. 139 8.5.1. Testando um j ou uma combinao a ........................................... 139 8.5.2. Testar diversos js ou diversas combinaes ai ............................ 140

    8.6. Intervalos de confiana e intervalos de predio ...................................... 143 8.6.1. Regio de confiana para ................................................................ 143 8.6.2. Intervalo de confiana para j ............................................................ 143 8.6.3. Intervalo de confiana para a .......................................................... 144 8.6.4. Intervalo de confiana para E(y) ........................................................ 144 8.6.5. Intervalo de predio para uma observao futura ............................ 145 8.6.6. Intervalo de confiana para 2 ............................................................ 146 8.6.7. Intervalos simultneos ........................................................................ 147

    8.7. Testes da razo de verossimilhana .......................................................... 148

    9. REGRESSO MLTIPLA: VALIDAO DO MODELO E DIAG-NSTICO ........................................................................................................ 150 9.1. Resduos e anlises grficas de diagnstico .............................................. 150 9.2. A matriz (que coloca) chapu ou hat matrix ............................................. 154 9.3. Outliers ...................................................................................................... 156 9.4. Observaes influentes e leverage ............................................................ 159

    10. REGRESSO MLTIPLA: XS ALEATRIOS .................................... 162 10.1. Modelo de regresso normal multivariada............................................... 162 10.2. Estimao na regresso normal multivariada .......................................... 163 10.3. R2 na regresso normal multivariada ....................................................... 169 10.4. Testes e intervalos de confiana .............................................................. 172

  • vi

    10.5. Efeito de cada varivel em R2 .................................................................. 176 10.6. Predio para dados no-normais ............................................................ 179 10.7. Correlaes parciais amostrais ................................................................ 180

    11. MODELOS DE ANLISE DE VARINCIA ........................................... 184 11.1 Modelos de posto incompleto .................................................................. 184

    11.1.1. Modelo com um fator (one-way model) ........................................... 184 11.1.2. Modelo com dois fatores (two way model) ...................................... 187

    11.2. Estimao ................................................................................................ 190 11.2.1. Estimabilidade de .......................................................................... 190 11.2.2. Funes estimveis de ................................................................... 193

    11.3. Estimadores ............................................................................................. 197 11.3.1. Estimadores de ........................................................................... 197 11.3.2. Um estimador de 2 .......................................................................... 201 11.3.3. Modelo normal ................................................................................. 202

    11.4. Reparametrizao .................................................................................... 203 11.5. Condies marginais ............................................................................... 205 11.6. Testando hipteses .................................................................................. 208

    11.6.1. Hipteses testveis ........................................................................... 208 11.6.2. Modelo completo e modelo reduzido ............................................... 209 11.6.3. Hiptese linear geral H0: C = 0 ...................................................... 212

    11.7. Uma ilustrao de estimao e teste de hiptese .................................... 214 11.7.1. Funes estimveis ........................................................................... 214 11.7.2. Testando uma hiptese ..................................................................... 215 11.7.3. Ortogonalidade das colunas de X ..................................................... 217

    12. ANLISE DE VARINCIA COM UM FATOR: CASO BALANCEA-DO ................................................................................................................... 221

    12.1. O modelo com um fator .......................................................................... 221 12.2. Funes estimveis .................................................................................. 222 12.3. Estimao de parmetros ......................................................................... 222

    12.3.1. Resolvendo o sistema de equaes normais ..................................... 222 12.3.1a. Condies marginais .................................................................. 223

  • vii

    12.3.1b. Inversa generalizada ................................................................... 224 12.3.2. Um estimador para 2 ....................................................................... 225

    12.4. Testando a hiptese H0: 1 = 2 = = k ............................................... 225 12.4.1. Modelo completo versus modelo reduzido ...................................... 226 12.4.2. Hiptese linear geral ......................................................................... 229

    12.5. Esperana matemtica dos quadrados mdios ........................................ 232 12.5.1. Modelo completo versus modelo reduzido ...................................... 233 12.5.2. Hiptese linear geral ......................................................................... 235

    12.6. Contrastes ................................................................................................ 236 12.6.1. Teste de hiptese para um contraste ................................................. 237 12.6.2. Contrastes ortogonais ....................................................................... 238 12.6.3. Contrastes polinomiais ortogonais ................................................... 243 Apndice: Programas no proc iml do SAS .................................................. 251

    13. ANLISE DE VARINCIA COM DOIS FATORES: CASO BALAN-CEADO .......................................................................................................... 253

    13.1. O modelo com dois fatores ...................................................................... 253 13.2. Funes estimveis .................................................................................. 254 13.3. Estimadores de e 2 .......................................................................... 258

    13.3.1. Resolvendo o sistema de equaes normais e estimando ......... 258 13.3.1a. Condies marginais .................................................................. 258 13.3.1b. Inversa generalizada ................................................................... 259

    13.3.2. Um estimador para 2 ....................................................................... 260 13.4. Testando hipteses .................................................................................. 260

    13.4.1. Testa para a interao ....................................................................... 260 13.4.1a. A hiptese de interao .................................................................. 260 13.4.1b. Teste do modelo completo versus modelo reduzido baseado nas

    equaes normais ........................................................................... 263 13.4.1c. Teste do modelo completo versus modelo reduzido baseado em

    uma inversa generalizada ............................................................... 266 13.4.2. Testes para os efeitos principais ....................................................... 270

    13.4.2a. Abordagem modelo completo versus modelo reduzido ............. 270 13.4.2b. Abordagem baseada na hiptese linear geral ............................. 275

  • viii

    13.5. Esperana dos quadrados mdios ............................................................ 277 13.5.1. Abordagem baseada nas somas de quadrados .................................. 277 13.5.2. Abordagem baseada na forma quadrtica ........................................ 279 Apndice: Programa do proc iml do SAS .................................................... 283

    14. ANLISE DE VARINCIA: DADOS DESBALANCEADOS ............... 287 14.1. Introduo ................................................................................................ 287 14.2. Modelo com um fator .............................................................................. 288

    14.2.1. Estimao e teste de hiptese ........................................................... 288 14.2.2. Contrastes ......................................................................................... 291

    14.3. Modelo com dois fatores ......................................................................... 294 14.3.1. Modelo incondicional ....................................................................... 295 14.3.2. Modelo condicional .......................................................................... 301 Apndice: Programas do proc iml do SAS .................................................. 306

    15. ANLISE DE COVARINCIA ................................................................. 313 15.1. Introduo ................................................................................................ 313 15.2. Estimao e testes de hipteses ............................................................... 314

    15.2.1. O modelo de anlise de covarincia ................................................. 314 15.2.2. Estimao ......................................................................................... 316 15.2.3. Testes de hipteses ........................................................................... 318

    15.3. Modelo com um fator (one way) e com uma covarivel ......................... 318 15.3.1. O modelo .......................................................................................... 319 15.3.2. Estimao ......................................................................................... 319 15.3.3. Testes de hipteses ........................................................................... 320

    15.3.3a. Tratamentos .............................................................................. 320 15.3.3b. Coeficiente angular (slope) ...................................................... 322 15.3.3c Homogeneidade dos coeficientes angulares .............................. 322

    15.4. Modelo com dois fatores (two way) e uma covarivel ............................ 327 15.4.1 Testes para os efeitos principais e interao ..................................... 327 15.4.2 Teste para o coeficiente angular (slope) ............................................ 332 15.4.3 Teste para a homogeneidade dos coeficientes angulares (slopes) .... 333

    15.5. Modelo one-way com mltiplas covariveis ........................................... 334

  • ix

    15.5.1. O modelo .......................................................................................... 334 15.5.2. Estimao ......................................................................................... 335 15.5.3. Testando hipteses ........................................................................... 338

    15.5.3a. Tratamentos ................................................................................ 338 15.5.3b. Vetor de coeficientes angulares (slopes) .................................... 339 15.5.3c. Homogeneidade dos vetores de coeficientes angulares ............. 339

    15.6. Anlise de covarincia com modelos desbalanceados ............................ 342 Apndice Programas no proc iml .................................................................. 344

    16. MODELOS DE EFEITOS ALEATRIOS E MODELOS DE EFEI-TOS MISTOS ............................................................................................... 313

    16.1. Introduo ................................................................................................ 352 16.2. Estimao de e predio de a em y = X + Za + .......................... 355

    16.2.1. Melhor estimador linear no-viesado (blue) de ......................... 355 16.2.2. Melhor preditor linear no-viesado (blup) do vetor aleatrio a ....... 356

    16.3. Estimao de componentes de varincia ................................................. 358 16.3.1. Esperana dos quadrados mdios ..................................................... 359 16.3.2 Estimadores ANOVA ........................................................................ 361

    16.4 Testes de hipteses ................................................................................... 362

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    1CAPTULO 1 INTRODUO Os mtodos estatsticos (modelos lineares) so amplamente usados como parte do processo de aprendizagem do mtodo cientfico. Na biologia, fsica e cincias sociais, como tambm nos negcios e engenharia, os modelos lineares so teis nos estgios de planejamento da pesquisa e na anlise dos dados resultantes. Nas sees 1.1, 1.2 e 1.3 ns daremos uma breve introduo aos modelos de regresso linear simples, mo-delos de regresso linear mltipla e modelos de anlise de varincia. 1.1. MODELO DE REGRESSO LINEAR SIMPLES Na regresso linear simples, ns nos preocupamos em modelar a relao entre duas variveis, por exemplo, rendimento e nmero de anos de educao, altura e peso de pessoas, comprimento e largura de envelopes, altitude e temperatura de ebulio da gua, dose de uma droga e resposta, quantidade de adubo e produo de gramneas. Para uma relao linear, ns usamos um modelo da forma:

    y = 0 + 1x + (1.1) onde y a varivel dependente ou varivel resposta e x a varivel independente ou varivel preditora. A varivel aleatria o termo de erro no modelo. Nesse contex-to, o erro no significa engano ou equvoco, mas sim um termo estatstico que repre-senta flutuaes aleatrias, erros de medidas ou o efeito de fatores no controlados. A linearidade do modelo em (1.1) uma suposio. Geralmente, ns adiciona-mos outras suposies sobre a distribuio do erro, independncia dos valores obser-vados de y, assim por diante. Usando valores observados de x e y, ns estimamos 0 e 1 e fazemos inferncias tais como intervalos de confiana e testes de hipteses sobre 0 e 1. Ns tambm podemos usar o modelo estimado para prever ou predizer o va-lor de y para um particular valor de x. Estimao e procedimentos inferenciais para o modelo de regresso linear simples so desenvolvidos e ilustrados no Captulo 6. 1.2. MODELO DE REGRESSO LINEAR MLTIPLA Muitas vezes a resposta y influenciada por mais de uma varivel preditora. Por exemplo, a produo de uma colheita pode depender das quantidades de nitrognio, potssio e fosfato usadas. Essas variveis so controladas pelo experimentador, mas a produo tambm pode depender de variveis no controladas como aquelas associa-das com o tempo. Um modelo linear relacionando y a diversas variveis preditoras tem a forma

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    2y = 0 + 1x1 + 2x2 + + kxk + (1.2)

    onde os parmetros 0, 1, 2, , k so chamados coeficientes de regresso. Como em (1.1), a variao aleatria em y no explicada pelos xs. Essa variao aleat-ria pode ser em parte devido a outras variveis que afetam y mas no so conhecidas ou no foram observadas.

    O modelo (1.2) linear nos s, mas no necessariamente linear nos xs. Assim, o modelo:

    y = 0 + 1x1 + 2 21x +3x2 + 4 seno(x2) + est includo na designao de modelos lineares, mas o modelo

    y = 0 + 1 ( )02 xxe + no linear (nos parmetros). Um modelo fornece uma estrutura terica para um melhor entendimento de um fenmeno de interesse. Assim um modelo uma construo matemtica que ns acreditamos poder representar o mecanismo que gerou as observaes que temos em mos. O modelo postulado pode ser uma simplificao idealizada de uma situao real e complexa mas, em muitos desses casos, esses modelos empricos fornecem aproximaes teis das relaes entre as variveis. Essas relaes podem ser associa-tivas ou causais. Modelos de regresso tais como em (1.2) so usados para vrios propsitos, in-cluindo os seguintes:

    1. Predio. Estimativas dos parmetros individuais 0, 1, 2, , k so de menor importncia para a predio que a influncia total dos xs sobre y. Entretanto, boas estimativas so necessrias para conseguirmos uma boa performance na predio.

    2. Descrio ou Explorao dos Dados. O cientista ou engenheiro usa o modelo estimado para resumir ou descrever os dados observados.

    3. Estimao dos Parmetros. Os valores das estimativas dos parmetros podem ter implicaes tericas para um modelo postulado.

    4. Seleo de variveis. A nfase est na determinao da importncia de cada varivel preditora em modelar a variao em y. As variveis preditoras que es-to associadas com uma importante quantidade de variao em y so mantidas; aquelas que contribuem pouco podem ser deletadas.

    5. Controle da sada. Se uma relao de causa-efeito entre y e x assumida, o modelo estimado deve ento ser usado para controlar as sadas de um processo variando as entradas. Por experimentao sistemtica, pode ser possvel conse-guir a sada tima.

    Existe uma diferena fundamental entre os propsitos 1 e 5. Para a predio, ns necessitamos somente que as mesmas correlaes que prevaleceram quando os dados foram coletados, continuem no lugar quando as predies forem feitas. Mostrar

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    3que existe uma relao significativa entre y e os xs em (1.2) no necessariamente prova que a relao causal. Para estabelecer causalidade a fim de controlar a sada, o pesquisador deve escolher os valores dos xs no modelo e usar aleatorizao para evitar os efeitos de outras possveis variveis no explicativas. Isto , para verificar o efeito dos xs sobre y quando os xs so mudados, necessrio mud-los. Estimao e procedimentos inferenciais que contribuem para os cinco propsi-tos apresentados anteriormente so discutidos nos Captulos 7-10. 1.3. MODELOS DE ANLISE DE VARINCIA Em modelos de anlise de varincia, ns estamos interessados em comparar diversas populaes ou comparar diversas condies em um experimento. Modelos de anlise de varincia podem ser expressos como modelos lineares de valores restritos de x. Freqentemente os xs so 0s ou 1s. Por exemplo, suponha que um pesquisador de-seje comparar o rendimento de quatro catalisadores em um processo industrial. Se n observaes so obtidas para cada catalisador, um modelo para as 4n observaes pode ser expresso como:

    yij = i + ij , i = 1, 2, 3, 4, j = 1, 2, , n (1.3) onde i a mdia correspondente ao i-simo catalisador. Uma hiptese de interesse H0: 1 = 2 = 3 = 4. O modelo em (1.3) pode ser expresso de uma forma alternativa como

    yij = + i + ij , i = 1, 2, 3, 4, j = 1, 2, , n (1.4) Nesta forma, i o efeito do i-simo catalisador e a hiptese de interesse pode ser expressa como H0: 1 = 2 = 3 = 4 = 0. Suponha agora, que o pesquisador tambm deseje comparar o efeito de trs n-veis de temperatura e que n observaes so tomadas em cada uma das 12 combina-es catalisador-temperatura. Ento o modelo pode ser expresso como

    yijk = ij + ijk = + i + j + ij + ijk (1.5) i = 1, 2, 3, 4, j = 1, 2, 3, k = 1, 2, , n

    onde ij a mdia da (ij)-sima combinao catalisador-temperatura, i o efeito do i-simo catalisador, j o efeito do j-simo nvel de temperatura, ij a interao ou efeito conjunto do i-simo catalisador e j-simo nvel de temperatura. Nos exemplos que conduzem aos modelos (1.3), (1.4) e (1.5), o pesquisador escolhe os tipos de catalisador ou os nveis de temperatura e assim aplica diferentes tratamentos aos objetos ou unidades experimentais sob estudo. Em outros ajustes, ns comparamos as mdias de variveis medidas em grupos naturais de unidades, por exemplo, machos e fmeas de vrias reas geogrficas. Modelos de anlise de varincia podem ser tratados como um caso especial de modelos de regresso, mas mais conveniente analis-los separadamente. Isso feito nos Captulos 11-14. Tpicos relacionados, tais como anlise de covarincia e modelos mistos, sero cobertos nos Captulos 15 e 16.

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    4 CAPTULO 2. LGEBRA DE MATRIZES.

    2.1. MATRIZES E VETORES 2.1.1. Matrizes, vetores e escalares. Uma matriz um arranjo retangular de nmero ou de variveis em linhas e colunas. Nesse texto estaremos considerando matrizes de nmeros reais, que sero denotadas por letras maisculas em negrito. Os seus elementos sero agrupados entre colchetes. Por exemplo:

    A =

    39211210

    ; B =

    161413151210111111

    ; X =

    101101011011

    Para representar os elementos da matriz X como variveis, ns usamos:

    X = (xij) =

    434241

    333231

    232221

    131211

    xxx

    xxx

    xxx

    xxx

    A notao X = (xij) representa uma matriz por meio de um elemento tpico. O primeiro ndice indica a linha e o segundo ndice identifica a coluna. Uma matriz genrica X tem n linhas e p colunas. A matriz X do Exemplo 1 tem n = 4 linhas e p = 3 colunas e ns dizemos que X 4x3, ou que a dimenso de X 4x3. Para indicar a dimenso da matriz, podemos usar 34 X ou ( )3x4X .

    Um vetor uma matriz com uma nica coluna e denotado por letras mins-culas, em negrito. Os elementos de um vetor so muitas vezes identificados por um nico ndice, por exemplo,

    y =

    3

    2

    1

    yyy

    Geralmente o termo vetor est associado a um vetor coluna. Um vetor linha expres-so como o transposto do vetor coluna, como por exemplo,

    y = ty = [ ]321 ,, yyy = [ ]321 yyy (A transposta de uma matriz ser definida mais adiante).

    Geometricamente, um vetor de n elementos est associado a um ponto no espa-o n-dimensional. Os elementos do vetor so as coordenadas do ponto. Em algumas situaes, ns estaremos interessados em calcular: (i) a distncia da origem ao ponto (vetor),

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    5 (ii) a distncia (d) entre dois pontos (vetores), ou (iii) o ngulo () entre as linhas formadas da origem at os dois pontos.

    No contexto de matrizes e vetores, um nmero real chamado de um escalar. Assim, os nmeros 2,5, -9 e 3,14 so escalares. Uma varivel representando um esca-lar ser denotada por uma letra minscula e sem negrito. Por exemplo: c = 3,14 indi-ca um escalar.

    2.1.2. Igualdade de Matrizes Duas matrizes (ou dois vetores) so iguais se tm a mesma dimenso e se os elemen-tos de posies correspondentes so iguais. Por exemplo:

    731423

    =

    731423

    mas

    648925

    648935

    2.1.3. Matriz Transposta Se ns trocarmos de posio as linhas e as colunas de uma matriz A, a matriz resul-tante conhecida como a transposta de A e denotada por A ou tA . Formalmente, se nAp = (aij) ento a sua transposta dada por:

    np A' = tA = (aij) = (aji) (2.3)

    Por exemplo: Se A =

    731423

    A =

    743213

    a sua transposta.

    A notao (aji) indica que o elemento da i-sima linha e j-sima coluna de A encon-trado na j-sima linha e i-sima coluna de A. Se A nxp ento A pxn.

    Teorema 2.1.A. Se A uma matriz qualquer, ento (A) = A (2.4)

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    6 2.1.4 Alguns tipos especiais de matrizes Se a transposta de uma matriz A a mesma da matriz original, isto , se A = A ou, equivalentemente, (aji) = (aij), ento dizemos que a matriz A simtrica. Por exem-plo,

    A =

    9767102623

    simtrica. evidente que toda matriz simtrica quadrada.

    A diagonal de uma matriz quadrada pAp= (aij) consiste dos elementos a11, a22, , app, ou seja, diag(A) = (aii). No exemplo anterior, a diagonal da matriz A forma-da pelos elementos 3, 10 e 9.

    Se a matriz nAn contm zeros em todas as posies fora da diagonal ela uma matriz diagonal, como por exemplo,

    D =

    4000000000300008

    que tambm pode ser denotada como D = diag(8, 3, 0, 4)

    Ns usamos a notao diag(A) para indicar a matriz diagonal com os mesmos ele-mentos da diagonal de A, como por exemplo,

    A =

    9767102623

    diag(A) =

    9000100003

    Uma matriz diagonal com o nmero 1 em cada posio da sua diagonal cha-mada de matriz identidade e denotada por I, como por exemplo,

    I(3) = diag(1, 1, 1) =

    100010001

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    7 Uma matriz triangular superior uma matriz quadrada com zeros abaixo da

    diagonal, como por exemplo,

    T =

    8000140062005327

    Um vetor de 1s denotado por j:

    j =

    1

    11

    M

    Uma matriz quadrada de 1s denotada por J, como por exemplo,

    J(3x3) =

    111111111

    Ns denotamos um vetor de zeros por 0 e uma matriz de zeros por ou , por exemplo,

    0 =

    000

    , = =

    000000000

    .

    2.2. OPERAES COM MATRIZES

    2.2.1 Adio de duas matrizes Se duas matrizes tm a mesma dimenso, sua soma encontrada adicionando os ele-mentos correspondentes. Assim, se A(nxp) e B(nxp), ento C = A + B tambm nxp e encontrada como C = (cij) = (aij + bij). Por exemplo,

    582437

    +

    2436511

    =

    31252218

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    8 A diferena D = A B entre as matrizes A e B definida similarmente: D = (dij) = (aij bij). Duas propriedades importantes da adio de matrizes so dadas a seguir:

    Teorema 2.2A. Se A e B so nxp, ento: (i) A + B = B + A (2.9) (ii) (A + B) = A + B (2.10)

    2.2.2 Produto de duas matrizes Para que o produto AB de duas matrizes seja possvel, o nmero de colunas da matriz A deve ser igual ao nmero de linhas de B. Neste caso, dizemos que as matrizes A e B so conformes. Ento, o (ij)-simo elemento do produto C = AB definido como:

    cij = k

    kjikba (2.11)

    que igual soma dos produtos dos elementos da i-sima linha de A pelos elementos da j-sima coluna de B. Assim, ns multiplicamos todas as linhas de A por todas as colunas de B. Se A (nxm) e B (mxp) ento C = AB (nxp). Por exemplo,

    A(2x3) =

    564312

    e B(3x2) =

    836241

    Ento

    2AB2 = 2C2 =

    ++++

    ++++

    )8)(5()6)(6()4)(4()3)(5()2)(6()1)(4()8)(3()6)(1()4)(2()3)(3()2)(1()1)(2(

    =

    92313813

    3BA3 = 3D3 =

    495138363828232518

    Se A nxm e B mxp, onde n p, ento o produto AB definido, mas BA no definido. Se A nxp e B pxn, ento AB nxn e BA pxp. Neste caso, certamen-te, AB BA, como ilustrado no exemplo anterior. Se A e B so nxn ento AB e BA tm o mesmo tamanho, mas, em geral:

    AB BA (2.12) A matriz identidade I(n) o elemento neutro da multiplicao de matrizes. Isto

    quer dizer que, se A n x n ento AI = IA = A. A multiplicao de matrizes no comutativa e algumas manipulaes familia-

    res com nmeros reais no podem ser feitas com matrizes. Entretanto, a multiplicao de matrizes distributiva em relao soma ou subtrao:

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    9 A(B C) = AB AC (2.13) (A B)C = AC BC (2.14)

    Usando (2.13) e (2.14) ns podemos expandir produtos como (A B)(C D): (A B)(C D) = (A B)C (A B)D = AC BC AD + BD (2.15)

    A multiplicao envolvendo vetores segue as mesmas regras das matrizes. Su-ponha A(nxp), b(px1), c(px1) e d(nx1). Ento: Ab um vetor coluna nx1 dA um vetor linha de dimenso 1xp bc um escalar correspondendo soma de produtos bc uma matriz pxp cd uma matriz pxn

    Desde que bc uma soma de produtos (um escalar!) tem-se que bc = cb: bc = b1c1 + b2c2 + + bpcp cb = c1b1 + c2b2 + + cpbp bc = cb (2.16)

    A matriz cd dada por

    cd =

    pc

    c

    c

    M

    2

    1

    [d1 d2 dn] =

    nppp

    n

    n

    dcdcdc

    dcdcdcdcdcdc

    L

    MOMM

    L

    L

    21

    22212

    12111

    (2.17)

    Similarmente:

    bb = [b1 b2 bp]

    pb

    bb

    M

    2

    1

    = 21b +

    22b + +

    2pb =

    =

    pb

    1i

    2i (2.18)

    bb =

    pb

    bb

    M

    2

    1

    [b1 b2 bp] =

    221

    22212

    12121

    ppp

    p

    p

    bbbbb

    bbbbbbbbbb

    L

    MOMM

    L

    L

    (2.19)

    Assim, bb uma soma de quadrados e bb uma matriz quadrada e simtrica.

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    10 A raiz quadrada da soma de quadrados dos elementos de um vetor bpx1 igual distncia da origem ao ponto b e referida como norma euclidiana, ou comprimento do vetor b:

    comprimento de b = || b || = bb' = =

    p

    iib

    1

    2 (2.20)

    Se j um vetor nx1 de 1s como definido em (2.6), ento por (2.18) e (2.19), ns temos que:

    jj = n, jj =

    111

    111111

    L

    MOMM

    L

    L

    = J(nxn) (2.21)

    onde Jnxn uma matriz quadrada de 1s como ilustrada em (2.7), Se a um vetor nx1 e A uma matriz nxp, ento

    aj = ja = =

    n

    iia

    1 (2.22)

    jA = [ ] i ipi ii i aaa L21 e Aj =

    j nj

    j jj j

    a

    a

    a

    M

    2

    1

    (2.23)

    Assim, aj = ja a soma dos elementos em a, jA contem as somas das colunas de A e Aj contem as somas das linhas de A. Note que em aj, o vetor j nx1; em jA, o vetor j nx1 e em Aj, o vetor j px1.

    Exemplo: Seja a matriz A =

    045246154321

    e o vetor a =

    8152

    ento:

    i) j'A = [ ]111

    045246154321

    = [ ]81348 (totais das colunas de A)

    ii) Aj =

    045246154321

    1111

    =

    11166

    (totais das linhas de A)

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    11

    iii) aj = [ ]8152

    1111

    = ja = [ ]1111

    8152

    = 16 (total dos elementos de a)

    O produto de um escalar por uma matriz obtido multiplicando-se cada ele-mento da matriz pelo escalar:

    cA = (caij) =

    nmnn

    m

    m

    cacaca

    cacaca

    cacaca

    L

    MOMM

    L

    L

    21

    22221

    11211

    . (2.24)

    Desde que caij = aijc o produto de um escalar por uma matriz comutativo: cA = Ac (2.25)

    A transposta do produto de duas matrizes igual ao produto das transpostas em ordem reversa.

    Teorema 2.2B. Se A nxp e B pxm, ento: (AB) = BA (2.26)

    Prova: Seja C = AB. Ento por (2.11), temos que C = (cij) =

    =

    p

    kkjikba

    1

    Por (2.3), a transposta de C = AB dada por: (AB) = C = (cij) = (cji)

    =

    =

    p

    kkijkba

    1 =

    =

    p

    kjkkiab

    1 = BA.

    Para ilustrar os passos dessa prova, vamos usar as matrizes A2x3 e B3x2:

    AB =

    232221

    131211

    aaa

    aaa

    3231

    2221

    1211

    bbbbbb

    =

    ++++

    ++++

    322322221221312321221121

    321322121211311321121111

    babababababababababababa

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    12

    (AB) =

    ++++

    ++++

    322322221221321322121211

    312321221121311321121111

    babababababababababababa

    =

    ++++

    ++++

    233222222112133212221112

    233122212111133112211111

    abababababababababababab

    (AB) =

    322212

    312111

    bbbbbb

    2313

    2212

    2111

    aa

    aa

    aa

    = BA

    Corolrio 1. Se A, B e C so conformes, ento (ABC) = CBA.

    Exemplo: Seja y = [y1, y2, , yn] um vetor de pesos de n frangos de corte. Para calcularmos a mdia e a varincia dos pesos desses frangos, ns usamos:

    y = =

    n

    iiy

    n 1

    1 s

    2 = ( )

    =

    n

    ii yy

    n 1

    2

    11

    Matricialmente, a mdia pode ser calculada por y = n

    1 jy, onde j um vetor nx1 de 1s e n = jj. Para calcularmos a varincia precisamos, primeiramente, calcular o vetor de desvios:

    y y = y y j = y jn

    1 jy = y n

    1 jjy = y n

    1 Jy =

    JI

    n

    1 y

    Onde I a matriz identidade nxn e J uma matriz nxn de 1s. Para calcularmos a soma de quadrados de desvios fazemos:

    ( )=

    n

    ii yy

    1

    2 =

    t

    n

    yJI 1

    JI

    n

    1 y

    = yt

    n

    JI 1

    JI

    n

    1 y = y

    IJ II'n

    1 IJ'

    n

    1 +

    JJ'2

    1n

    y

    Mas J = J, II = I, IJ = J; JI = J = J e jj = n, ento:

    ( )=

    n

    ii yy

    1

    2 = y

    J In

    2 +

    jj'jj'2

    1n

    y = y

    J In

    2 +

    j'j )(12 nn y

    = y

    J In

    2 +

    J

    n

    1 y = y

    JI

    n

    1 y

    Ento, a varincia pode ser calculada por:

    s2 = ( )

    =

    n

    ii yy

    n 1

    2

    11

    =

    11n

    y J Iy'

    n

    1

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    13

    Supondo que A nxm e B mxp, seja tia a i-sima linha da matriz A e bj, a j-sima coluna

    da matriz B, de tal forma que:

    A =

    nmnn

    m

    m

    aaa

    aaa

    aaa

    L

    MOMM

    L

    L

    21

    22221

    11211

    =

    tn

    t

    t

    a

    a

    a

    M

    2

    1

    , B =

    mpmm

    p

    p

    bbb

    bbbbbb

    L

    MOMM

    L

    L

    21

    22221

    11211

    = [b1, b2, , bp]

    Ento, por definio, o (ij)-simo elemento de AB tia bj:

    AB =

    ptn

    tn

    tn

    pttt

    pttt

    bababa

    babababababa

    L

    MOMM

    L

    L

    21

    22212

    12111

    =

    ),,,(

    ),,,(),,,(

    21

    212

    211

    ptn

    pt

    pt

    b b ba

    b b bab b ba

    L

    M

    L

    L

    =

    Ba

    BaBa

    tn

    t

    t

    M

    2

    1

    =

    tn

    t

    t

    a

    a

    a

    M

    2

    1

    B (2.27)

    A primeira coluna de AB pode ser expressa em termos de A como

    1

    12

    11

    ba

    baba

    tn

    t

    t

    M =

    tn

    t

    t

    a

    a

    a

    M

    2

    1

    b1 = Ab1

    De forma anloga, a segunda coluna de AB Ab2 e assim por diante. Assim AB pode ser escrita em termos das colunas de B:

    AB = A[b1, b2, , bp] = [Ab1, Ab2, , Abp] (2.28)

    Qualquer matriz A pode ser multiplicada pela sua transposta para formar AA ou AA. Algumas propriedades desses produtos so dadas no prximo Teorema.

    Teorema 2.2C. Seja A uma matriz nxp. Ento AA e AA tm as seguintes proprie-dades: (i) AA pxp e obtida como produto das colunas de A. (ii) AA nxn e obtida como produto das linhas de A. (iii) Ambas as matrizes AA e AA so simtricas. (iv) Se AA = ento A = .

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    14 Seja A uma matriz quadrada n x n e D = diag(d1, d2, , dn). No produto DA, a i-sima linha de A multiplicada por di e em AD, a j-sima coluna de A multipli-cada por dj. Por exemplo, se n = 3, ns temos:

    DA =

    3

    2

    1

    000000

    dd

    d

    333231

    232221

    131211

    aaa

    aaa

    aaa

    =

    333323313

    232222212

    131121111

    adadadadadadadadad

    (2.29)

    AD =

    333231

    232221

    131211

    aaa

    aaa

    aaa

    3

    2

    1

    000000

    dd

    d =

    333322311

    233222211

    133122111

    adadadadadadadadad

    (2.30)

    DAD =

    332332233113

    233222222112

    133112211121

    adaddaddaddadaddaddaddad

    (2.31)

    Vale notar que DA AD. Entretanto, no caso especial onde a matriz diagonal a matriz identidade, (2.29) e (2.30) temos:

    IA = AI = A (2.32)

    Se A retangular, (2.32) continua valendo, mas as duas identidades so de di-menses diferentes.

    Se A uma matriz simtrica e y um vetor, o produto:

    yAy = i

    iii ya2

    + 2 ji

    jiij yya (2.33)

    chamado de forma quadrtica. Se x nx1, y px1 e A nxp, o produto: xAy =

    ijjiij yxa (2.34)

    chamado de forma bilinear.

    2.2.3. Soma Direta Dadas as matrizes A(mxn) e B(rxs) definimos a sua soma direta como

    A B =

    B00A

    = C(m+r,n+s)

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    15 Algumas propriedades da soma direta de matrizes:

    (i) A (A) (ii) Se as dimenses so favorveis, ento:

    (A B) + (C D) = (A + C) (B + D) (A B)(C D) = AC BD

    Exemplo: Sejam as matrizes

    A = [ ]151110 , B =

    1453

    , C = [ ]151110 Ento,

    A B =

    140005300000151110

    A C =

    151110000000151110

    (Perceba que A+C = )

    2.2.4. Produto direto ou de Kronecker Dadas as matrizes A(mxn) e B(rxs) definimos o produto direto ou produto de Kronecker de A por B como a matriz C(mr x ns) de tal forma que:

    C(mr x ns) = A B =

    BBB

    BBBBBB

    mn2m1m

    n22221

    n11211

    aaa

    aaa

    aaa

    L

    MOMM

    L

    L

    Algumas propriedades interessantes do produto direto de matrizes: (i) A B B A , em geral (ii) Se u e v so vetores, ento u v = v u = vu. (iii) Se D(n) uma matriz diagonal e A uma matriz qualquer, ento:

    D A = d11A d22A dnnA (iv) Se as dimenses so favorveis

    (A B)(C D) = AC BD

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    16 Exemplo: Sejam as matrizes:

    A(2x2) =

    4321

    , B(2x3) =

    653011

    , y(3x1) =

    011

    .

    Ento

    A B =

    24201218159044033

    12106653022011

    , B A =

    2418201512912610563004343002121

    A y =

    004343002121

    y A =

    000043214321

    2.2.5 Potncia de matriz quadrada Dada uma matriz quadrada A e um nmero k Z (conjunto dos nmeros inteiros e positivos), definimos a k-sima potncia da matriz A como:

    kA = 43421 Lk vezes

    AAAA

    Em relao sua segunda potncia, uma matriz quadrada A, ser chamada de:

    (i) idempotente, se 2A = A. (ii) nilpotente, se 2A = . (iii) unipotente, se 2A = I.

    Teorema. Se P(n) uma matriz idempotente e se I(n) a matriz identidade de ordem n, ento a matriz I P idempotente.

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    17 2.3. MATRIZES PARTICIONADAS Muitas vezes conveniente particionar uma matriz em submatrizes. Por exemplo, uma partio de uma matriz A em quatro submatrizes (quadradas ou retangulares) de dimenses apropriadas, pode ser indicada simbolicamente como:

    A =

    2221

    1211

    AAAA

    Para ilustrar, seja a matriz A(4x5) particionada como:

    A =

    61213256397204348527

    =

    2221

    1211

    AAAA

    Onde:

    A11 =

    043527

    , A12 =

    7248

    , A21 =

    213639

    e A22 =

    6125

    Se duas matrizes A e B so conformes, e se A e B so particionadas de tal for-ma que as submatrizes sejam apropriadamente conformes, ento o produto AB pode ser encontrado usando a maneira usual de multiplicao (linha-por-coluna) tendo as submatrizes como se fossem elementos nicos; por exemplo:

    AB =

    2221

    1211

    AAAA

    2221

    1211

    BBBB

    =

    ++

    ++

    2222122121221121

    2212121121121111

    BABABABABABABABA

    (2.35)

    Se B trocada por um vetor b particionado em dois conjuntos de elementos e se A correspondentemente particionada em dois conjuntos de colunas, ento (2.35) fica:

    Ab = [A1, A2]

    2

    1

    bb

    = A1b1 + A2b2 (2.36)

    Onde o nmero de colunas de A1 igual ao nmero de elementos de b1 e A2 e b2 so similarmente conformes.

    A multiplicao particionada em (2.36) pode ser estendida para colunas indivi-duais de A e elementos individuais de b:

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    18

    Ab = [a1, a2, , ap]

    pb

    bb

    M

    2

    1

    = b1a1 + b2a2 + + bpap (2.37)

    Assim, Ab pode ser expressa como uma combinao linear de colunas de A, na qual os coeficientes so os elementos de b. Ns ilustramos (2.37) no seguinte exemplo:

    Exemplo 2.3. Sejam:

    A =

    234012326

    , b =

    124

    Ab =

    201017

    Usando uma combinao linear de colunas de A como em (2.37), ns obtemos: Ab = b1a1 + b2a2 + b3a3

    = 4

    426

    + 2

    312

    + (1)

    203

    =

    16824

    +

    624

    203

    =

    201017

    Por (2.28) e (2.29), as colunas do produto AB so combinaes lineares das co-lunas de A. Os coeficientes para a j-sima coluna de AB so os elementos da j-sima coluna de B.

    O produto de um vetor linha por uma matriz, aB, pode ser expresso como uma combinao linear das linhas de B, na qual os coeficientes so os elementos de a:

    aB = [a1, a2, , an]

    tn

    t

    t

    b

    bb

    M

    2

    1

    = a1t1b + a2

    t2b + + an

    tnb (2.38)

    Por (2.27) e (2.38), as linhas do produto AB so combinaes lineares das linhas de B. Os coeficientes da i-sima linha de AB so os elementos da i-sima linha de A.

    Finalmente, notamos que se uma matriz A particionada como A = [A1, A2], ento:

    A = [A1, A2] =

    t

    t

    2

    1

    AA

    (2.39)

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    19 2.4 POSTO (RANK) DE UMA MATRIZ Antes de definirmos o posto (ou rank) de uma matriz, ns introduziremos a noo de independncia linear e dependncia. Um conjunto de vetores {a1, a2, , ap} dito linearmente dependente (l.d.) se pudermos encontrar um conjunto de escalares c1, c2, , cp (nem todos nulos) de tal forma que:

    c1a1 + c2a2 + + cpap = 0 (2.40) Se no encontrarmos um conjunto de escalares c1, c2, , cp (nem todos nulos) que sa-tisfaam (2.40), o conjunto de vetores {a1, a2, , ap} dito linearmente independente (l.i.). Por (2.37), podemos reescrever essa definio da seguinte forma:

    As colunas de A so linearmente independentes se Ac = 0 implica em c = 0. Observe que se um conjunto de vetores inclui um vetor nulo, o conjunto de vetores linearmente dependente. Se (2.40) satisfeita, ento existe pelo menos um vetor ai que pode ser expres-so como uma combinao linear dos outros vetores do conjunto. Entre vetores linear-mente independentes no existem redundncias desse tipo.

    Definio: O posto (rank) de qualquer matriz A (quadrada ou retangular) definido como o nmero de colunas (linhas) linearmente independentes de A

    Pode-se mostrar que o nmero de colunas l.i. de qualquer matriz igual ao nmero de linhas l.i. dessa matriz.

    Se a matriz A tem um nico elemento diferente de zero, com todos os demais elementos iguais a zero, ento rank(A) = 1. O vetor 0 e a matriz tm posto zero. Se a matriz retangular A(nxp) de posto p, onde p < n, ento A tem o maior posto possvel e dito ter posto coluna completo.

    Em geral, o maior posto possvel de uma matriz A(nxp) o min(n, p). Assim, em uma matriz retangular, as linhas, as colunas ou ambas so linearmente dependentes. Ns ilustramos esse fato no prximo exemplo.

    Exemplo 2.4(a). A matriz

    A =

    425321

    tem posto 2, porque as duas linhas so linearmente independentes, pois nenhuma linha mltipla da outra. Conseqentemente, pela definio de posto, o nmero de colunas l.i. tambm 2. Portanto, as trs colunas de A so l.d. e por (2.40) existem constantes c1, c2 e c3 (nem todas nulas) tais que:

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    20

    c1

    51

    + c2

    22

    + c3

    43

    =

    00

    (2.41)

    Por (2.37) ns escrevemos (2.41) na forma

    425321

    3

    2

    1

    c

    c

    c

    =

    00

    ou Ac = 0 (2.42)

    A soluo (no trivial) para (2.42) dada por qualquer mltiplo de c =

    121114

    . Neste

    caso o produto Ac = 0, mesmo com A 0 e c 0. Isso s possvel por causa da de-pendncia linear dos vetores-colunas de A.

    Nem sempre fcil perceber que uma linha (ou coluna) uma combinao li-near de outras linhas (ou colunas). Nesses casos pode ser difcil calcular o posto de uma matriz. Entretanto, se conseguirmos obter a forma escalonada cannica (f.e.c.) da matriz, o seu posto corresponder ao nmero de linhas (ou colunas) que tenham o nmero 1 como lder. A obteno da f.e.c. de uma matriz feita atravs de operaes elementares em suas linhas (ou colunas).

    Definio: So chamadas de operaes elementares nas linhas da matriz A (e de modo similar nas suas colunas):

    (i) trocar a posio de duas linhas da matriz. (ii) multiplicar uma linha da matriz por um escalar k 0 (li = kli). (iii) somar a uma linha da matriz um mltiplo de outra linha (li = li + klj).

    Teorema: Uma matriz A equivalente por linhas a uma matriz B se B pode ser obti-da de A aplicando-se uma seqncia de operaes elementares sobre as suas linhas.

    Definio: Dizemos que uma matriz A(nxm) est na sua forma escalonada cannica ou reduzida se ocorrer simultaneamente que:

    (a) o primeiro elemento no nulo de cada linha no nula o nmero 1 (piv); (b) toda coluna que tem um piv, tem todos os outros elementos nulos; (c) o piv da linha i +1 ocorre direita do piv da linha i (i = 1, 2, , n1). (d) todas as linhas nulas (formadas inteiramente por zeros) ocorrem abaixo das

    linhas no nulas.

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    21 Definio: Dizemos que uma matriz est na forma escalonada se ela satisfaz as pro-priedades (c) e (d), mas no necessariamente as propriedades (a) e (b).

    Das matrizes apresentadas a seguir, B no est na forma escalonada, A e C es-to nas suas formas escalonadas cannicas e D, na forma escalonada.

    A =

    000010001

    , B =

    0010010010000001

    , C =

    00002121

    , D =

    100030304

    Teorema. Dada uma matriz real A(nxp) sempre possvel obtermos a sua forma esca-lonada cannica (f.e.c.) atravs de operaes elementares.

    Assim, calcular o posto da matriz A o mesmo que calcular o posto da f.e.c. de A, pois so equivalentes. Portanto, calcular o posto da f.e.c. de A o mesmo que contar o seu nmero de 1s pivs.

    Exemplo. Vamos obter a f.e.c. da matriz A do Exemplo 2.4(a):

    A =

    425321

    (i) Fazendo l2 = l2 5l1, ns obtemos:

    425321

    ~

    11120321

    .

    (ii) Fazendo l2 = l2 /12, ns obtemos:

    11120321

    ~

    12/1110321

    .

    (iii) Fazendo l1 = l1 + 2l2, obtemos:

    12/1110321

    ~

    12/11106/701

    Ento a f.e.c. de A a matriz

    12/11106/701

    e o rank(A) = 2.

    Definio: Dizemos que uma matriz quadrada est na forma de Hermite (Graybill 1969, p.120) se satisfaz as seguintes condies:

    (a) uma matriz triangular superior;

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    22 (b) tem apenas valores zero ou um na sua diagonal; (c) se tem o valor zero na diagonal, os elementos restantes na linha so zeros; (d) se tem o valor um na diagonal, os elementos restantes da coluna em que apare-

    ce o nmero um, so nulos.

    Definio: Dizemos que uma matriz quadrada est na forma de Echelon (Graybill, 1969, p.286) se ela satisfaz as condies de uma forma de Hermite e apresenta as linhas de zeros abaixo das linhas que no so nulas.

    Ns podemos estender (2.42) para produtos de matrizes. possvel encontrar matrizes A 0 e B 0, tais que:

    AB = 0, (2.43) Por exemplo,

    4221

    3162

    =

    0000

    .

    Ns tambm podemos explorar a dependncia linear das linhas ou colunas de uma matriz para criar expresses tais como AB = CB, onde A C. Assim em uma equao matricial, ns no podemos, em geral, cancelar uma matriz de ambos os lados da equao. Uma exceo a essa regra ocorre quando as matrizes envolvidas so quadradas e B uma matriz no-singular (ser definida na Seo 2.5).

    Exemplo 2.4(b). Ns ilustramos a existncia de matrizes A, B e C tais que AB = CB, onde A C. Sejam as matrizes:

    A =

    102231

    , B =

    011021

    , C =

    465112

    AB = CB =

    4153

    .

    O teorema seguinte d um caso geral e dois casos especiais para o posto do produto de duas matrizes.

    Teorema 2.4A. (i) Se as matrizes A e B so conformes, ento rank(AB) rank(A) e rank(AB)

    rank(B). (ii) A multiplicao por uma matriz no-singular (ver Seo 2.5) no altera o posto

    da matriz, isto , se B e C so no-singulares rank(AB) = rank(CA) = rank(A). (iii) Para qualquer matriz A, rank(AA) = rank(AA) = rank(A) = rank(A).

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    23 Prova: (i) Todas as colunas de AB so combinaes lineares das colunas de A (ver um co-

    mentrio no Exemplo 2.3) conseqentemente, o nmero de colunas l.i. de AB menor ou igual ao nmero de colunas l.i. de A, e rank(AB) rank(A). Similar-mente, todas as linhas de AB so combinaes lineares das linhas de B [ver comentrio em (2.38)] e da, rank(AB) rank(B).

    (ii) Se B no singular, existe uma matriz -1B tal que B -1B = I [ver (2.45) a seguir]. Ento, de (i) ns temos que:

    rank(A) = rank(AB -1B ) rank(AB) rank(A). Assim ambas as desigualdades tornam-se igualdades e rank(A) = rank(AB). Simi-

    larmente, rank(A) = rank(CA) para C no-singular.

    2.5. INVERSA DE UMA MATRIZ Uma matriz quadrada de posto completo dita no-singular. Uma matriz A,

    no-singular, tem inversa nica, denotada por A1, com a propriedade que: A A1 = A1A = I (2.45)

    Um algoritmo simples (mas trabalhoso se a dimenso da matriz grande!) para obteno da inversa de uma matriz consiste em justapor matriz A uma matriz iden-tidade de mesma ordem. Opera-se simultaneamente sobre as linhas das duas matrizes at que no lugar da matriz A aparea a sua f.e.c. (neste caso, uma matriz identidade). Nesse momento, no lugar da matriz identidade estar a inversa A1 de A. Ou seja:

    [A | I ] ~ ~ [I | A1]

    Exemplo 2.5. Seja a matriz quadrada: A =

    6274

    .

    (1) Fazendo l2 = l2 (1/2) l1:

    10620174

    ~

    12/12/500174

    (2) Fazendo l2 = (2/5)l2:

    12/12/500174

    ~

    5/25/1100174

    (3) Fazendo l1 = l1 + (7) l2:

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    24

    5/25/1100174

    ~

    5/25/1105/145/1204

    (4) Fazendo l1 = (1/4) l1:

    5/25/1105/145/1204

    ~

    5/25/11010/75/301

    Ento

    10620174

    ~ ~

    5/25/11010/75/301

    A1 =

    4.02.07.06.0

    Se a matriz B no-singular e AB = CB, ento ns podemos multiplicar direita por B1 os dois lados da igualdade, obtendo:

    AB = CB ABB1 = CBB1 A = C

    Importante: Se a matriz B singular ou retangular, ela no pode ser cancelada nos dois lados da igualdade AB = CB.

    Similarmente, se A no-singular ento o sistema Ax = c tem a soluo nica: x = A1c (2.47)

    Teorema 2.5A. Se A no singular, ento A no singular e a sua inversa pode ser encontrada como:

    (A) 1 = (A1) (2.48)

    Teorema 2.5B. Se A e B so matrizes no singulares de mesma dimenso, ento AB no-singular e

    (AB)1 = B1A1 (2.49)

    Se a matriz A simtrica, no-singular e particionada como:

    A =

    2221

    1211

    AAAA

    e se B = A22 A21(A11)1A12, ento supondo que (A11)1 e B1 existem, a inversa de A dada por

    A1 =

    11-1121

    1

    112

    1-11

    1-1121

    112

    1-11

    1-11

    BAABBAAAABAAA

    (2.50)

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    25 Como um caso especial de (2.50), consideremos a matriz no singular:

    A = ( )

    2212

    1211

    at

    a

    aA

    onde A11 quadrada, a22 um escalar e a12 um vetor. Ento se (A11)1 existe, a inversa de A pode ser expressa como:

    A1 = b1

    +

    1)()(

    1-1112

    121-

    111-

    1112121-

    111-

    11

    AaaAAaaAA

    t

    tb (2.51)

    onde b = a22 (a12)t(A11)1a12. Como um outro caso especial de (2.50) ns temos:

    A =

    22

    11

    AA

    que tem a inversa

    A1 =

    122

    111

    AA

    (2.52)

    Se uma matriz quadrada da forma B + cc no singular, onde c um vetor e B uma matriz no singular, ento:

    (B + cc)1 = B1 cBc'

    Bcc'B1

    11

    1

    + (2.53)

    2.6 MATRIZES POSITIVAS DEFINIDAS Formas quadrticas foram introduzidas em (2.33). Por exemplo, a forma quadrtica 3 21y +

    22y + 2

    23y + 4 1y 2y + 5 1y 3y 6 2y 3y pode ser expressa como:

    3 21y + 22y + 2

    23y + 4 1y 2y + 5 1y 3y 6 2y 3y = yAy

    onde

    y =

    3

    2

    1

    yyy

    , A =

    200610

    543.

    Entretanto, essa forma quadrtica pode ser expressa em termos da matriz simtrica:

    21 (A + A) =

    232/53122/523

    .

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    26 Em geral, qualquer forma quadrtica yAy pode ser expressa como:

    yAy = y

    +

    2A'A y (2.54)

    Assim a matriz-ncleo da forma quadrtica pode sempre ser escolhida como uma matriz simtrica (e nica!).

    Exemplo. A varincia definida como s2 = 1

    1n

    y J Iy'

    n

    1 = yAy uma

    forma quadrtica e a sua matriz ncleo simtrica:

    A = 1

    1n

    nnn

    nnn

    nnn

    1111

    1111

    1111

    L

    MMM

    L

    L

    =

    ( ) ( )( ) ( )

    ( ) ( )

    nnnnn

    nnnnn

    nnnnn

    11

    11

    1

    111

    11

    11

    111

    L

    MMM

    L

    L

    As somas de quadrados encontradas na anlise de regresso (Captulos 6 a 10) e anlise de varincia (Captulos 11 a 14) podem ser expressas na forma yAy, onde y um vetor de observaes. Tais formas quadrticas so positivas (ou no mnimo no-negativas) para todos os valores de y.

    Se a matriz simtrica A tem a propriedade de yAy > 0 para todos os possveis vetores de observaes y, com exceo de y = 0, ento a forma quadrtica yAy dita positiva definida e A dita matriz positiva definida.

    Similarmente, se yAy 0 para todos os possveis vetores de observaes y, com exceo de y = 0, ento a forma quadrtica yAy dita positiva semidefinida e A dita matriz positiva semidefinida.

    Exemplo 2.6. Para ilustrar uma matriz positiva definida, considere:

    A =

    3112

    A forma quadrtica associada

    yAy = 2 21y 2 1y 2y + 322y = 2( 1y 0,5 2y )2 + (5/2) 22y

    que claramente positiva a menos que 1y e 2y sejam ambos iguais a zero.

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    27 Para ilustrar uma matriz positiva semidefinida, considere:

    (2 1y 2y )2 + (3 1y 3y )2 + (3 2y 2 3y )2 que pode ser expresso como yAy, com

    A =

    56361023213

    Se 2 1y = 2y , 3 1y = 3y e 3 2y = 2 3y , ento (2 1y 2y )2 + (3 1y 3y )2 + (3 2y 2 3y )2 = 0. Assim yAy = 0 para qualquer mltiplo de y = [1, 2, 3]. Para todos os outros casos, yAy > 0 (com exceo de y = 0).

    Teorema 2.6A. (i) Se A positiva definida, ento todos os elementos aii da sua diagonal so posi-

    tivos. (ii) Se A positiva semidefinida, ento todos aii 0. (Ver prova na pgina 23 do livro do Rencher)

    Teorema 2.6B. Seja P uma matriz no-singular. (i) Se A positiva definida, ento PAP positiva definida. (ii) Se A positiva semidefinida, ento PAP positiva semidefinida. (Ver prova na pgina 23 do livro do Rencher)

    Corolrio 1. Seja A(pxp) uma matriz positiva definida e seja a matriz B(kxp) de posto k p. Ento a matriz BAB positiva definida.

    Corolrio 2. Seja A(pxp) uma matriz positiva definida e seja a matriz B(kxp). Se k > p ou se rank(B) = r, onde r < k e r < p, ento a matriz BAB positiva semidefinida.

    Teorema 2.6C. Uma matriz simtrica A positiva definida se e somente se existe uma matriz no singular P tal que A = PP. (Ver prova na pgina 23 do livro do Rencher)

    Corolrio 1. Uma matriz positiva definida no-singular.

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    28 Um mtodo de fatorar uma matriz positiva definida A em um produto PP chamado de decomposio de Cholesky [ver Seber (1977, pg.304-305)], pelo qual A pode ser fatorado de modo nico em A = TT, onde T uma matriz no singular e triangular superior.

    Para qualquer matriz quadrada ou retangular B, a matriz BB positiva defi-nida ou positiva semidefinida.

    Teorema 2.6D. Seja a matriz B(nxp). (i) Se rank(B) = p, ento BB positiva definida. (ii) Se rank(B) < p, ento BB positiva semidefinida. Prova:

    (i) Para mostrar que yBBy > 0 para y 0, ns notamos que yBBy = (By)(By) uma soma de quadrados e portanto, positiva definida, a menos que By = 0. Por (2.37) ns podemos expressar By na forma:

    By = y1b1 + y2b2 + + ypbp Essa combinao linear no igual a 0 (para qualquer y 0) porque rank(B) = p

    e as colunas de B so l.i. (ii) Se rank(B) < p, ento ns podemos encontrar y 0 tal que

    By = y1b1 + y2b2 + + ypbp = 0 porque as colunas de B so l.d. [ver (2.40)]. Da, yBBy 0.

    Note que se B uma matriz quadrada, a matriz B2 = BB no necessariamente positiva semidefinida. Por exemplo, seja a matriz:

    B =

    2121

    Ento:

    B2 =

    2121

    , BB =

    8442

    Neste caso, B2 no positiva semidefinida, mas BB positiva semidefinida, porque yBBy = 2(y1 2y2)2 0.

    Teorema 2.6E. Se A positiva definida, ento A1 positiva definida.

    Prova: Pelo Teorema 2.6C, A = PP, onde P no singular. Pelos Teoremas 2.5A e 2.5B, A1 = (PP)1 = P1(P)1 = P1(P1), que positiva definida pelo Teore-ma 2.6C.

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    29 Teorema 2.6F. Se A positiva definida e particionada na forma

    A =

    2221

    1211

    AAAA

    onde A11 e A22 so quadradas, ento A11 e A22 so positivas definidas.

    Prova: Ns podemos escrever A11 como A11 = [I, 0] A

    0I

    , onde I tem a mesma di-

    menso de A11. Ento, pelo Corolrio 1 do Teorema 2.6B, A11 positiva defi-nida.

    2.7 SISTEMAS DE EQUAES O sistema de equaes de n equaes (lineares) e p incgnitas

    a11x1 + a12x2 + + a1pxp = c1

    a21x1 + a22x2 + + a2pxp = c2

    (2.55) an1x1 + an2x2 + + anpxp = cn

    pode ser escrito na forma matricial como Ax = c (2.56)

    onde A nxp, x px1 e c nx1. Note que: Se n p ento os vetores x e c so de tamanhos diferentes. Se n = p e A no-singular, ento por (2.47), existe um nico vetor soluo x =

    A1c. Se n > p, tal que A tenha mais linhas que colunas (mais equaes do que incgni-

    tas), ento, geralmente, o sistema Ax = c no tem soluo. Se n < p, tal que A tenha menos linhas que colunas, ento o sistema Ax = c tem

    um nmero infinito de solues. Se o sistema (2.56) tem uma ou mais vetores solues, ele chamado de sistema

    consistente. Se no tem soluo, ele chamado de sistema inconsistente.

    Para ilustrar a estrutura de um sistema consistente, suponha que A seja pxp tenha posto r < p. Ento as linhas de A so linearmente dependentes e existe algum b tal que [ver (2.38)]:

    bA = b1 t1a + b2 t2a + + bptpa = 0

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    30 Ento, ns tambm podemos ter bc = b1c1 + b2 c2+ + bp cp = 0, porque a multipli-cao de Ax = c por b (de ambos os lados) d:

    bAx = bc ou 0x = bc. Por outro lado, se bc 0, no existe x tal que Ax = c. Portanto, para que Ax = c seja consistente, a mesma relao (qualquer que seja) que existe entre as linhas de A deve existir entre os elementos (linhas) de c. Isso formalizado comparando o posto de A com o posto da matriz aumentada [A, c]. A notao [A, c] indica que c foi justaposta matriz A como uma coluna adicional.

    Teorema 2.7A O sistema de equaes Ax = c consistente (tem no mnimo uma soluo) se e somente se rank(A) = rank[A, c]. Prova: Suponha que rank(A) = rank[A, c], de tal forma que justapor no altera o

    posto da matriz A. Ento c uma combinao linear das colunas de A; isto , existe pelo menos um x tal que

    x1a1 + x2a2 + + xpap = c

    que, por (2.38) pode ser escrito como Ax = c. Assim, x uma soluo do siste-ma Ax = c. Por outro lado, suponha que existe um vetor soluo x tal que Ax = c. Em geral, tem-se que rank(A) rank[A, c] [ver Harville (1997, p.41)]. Mas desde que existe um x tal que Ax = c, ns temos:

    rank[A, c] = rank[A, Ax] = rank[A(I, x)] rank(A) [Teorema 2.4A(i)]

    Por isso, rank(A) rank[A, c] rank(A)

    e da ns temos que rank(A) = rank[A, c].

    Um sistema de equaes consistente pode ser resolvido pelos mtodos usuais apresentados nos cursos bsicos de lgebra (mtodo da eliminao de variveis, por exemplo). No processo, uma ou mais variveis podem terminar como constantes arbi-trrias, gerando assim um nmero infinito de solues. Um mtodo alternativo para resolver o sistema ser apresentado na Seo 2.8.2.

    Exemplo 2.7(a) Considere o sistema de equaes: x1 + 2x2 = 4 x1 x2 = 1 x1 + x2 = 3

    ou

    111121

    2

    1

    x

    x =

    314

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    31 A matriz aumentada :

    [A, c] =

    311111421

    que tem rank[A, c] = 2 porque a terceira coluna igual soma de duas vezes a pri-meira coluna com a segunda coluna. Desde que rank[A, c] = 2 = rank(A), existe ao menos uma soluo para o sistema. Se adicionarmos duas vezes a primeira equao segunda equao, o resultado um mltiplo da terceira equao. Assim, a terceira equao redundante e as duas primeiras podem ser resolvidas para obter a soluo nica x = [2, 1].

    0

    1

    2

    3

    4

    0 1 2 3 4 5x1

    x2

    Figura 2.1 Trs linhas representando as equaes do sistema do Exemplo 2.7(a)

    A Figura 2.1 mostra as trs linhas que representam as trs equaes do sistema. Note que as trs linhas cruzam no ponto de coordenadas (2, 1), que a soluo nica do sistema de trs equaes.

    Exemplo 2.7(b). Se trocarmos o nmero 3 por 2 na terceira equao do Exemplo 2.7(a), a matriz aumentada fica

    [A, c] =

    211111421

    que tem posto 3, j que nenhuma combinao linear das colunas 0. Como rank[A,c] = 3 rank(A) = 2, o sistema inconsistente. As trs linhas que representam as trs equaes so apresentadas na Figura 2.2, onde ns percebemos que as trs linhas no tm um ponto comum de interseo. Para encontrar a melhor soluo aproximada, uma abordagem consiste em usar o mtodo dos mnimos quadrados, que consiste em buscar os valores de x1 e x2 que minimizam (x1 + 2x2 4)2 + (x1 x2 1)2 + (x1 + x2 2)2 = 0.

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    32

    0

    1

    2

    3

    4

    0 1 2 3 4 5x1

    x2

    Figura 2.2 Trs linhas representando as equaes do sistema do Exemplo 2.7(b)

    Exemplo 2.7(c) Considere o sistema: x1 + x2 + x3 = 1

    2x1 + x2 + 3x3 = 5 3x1 + 2x2 + 4x3 = 6

    A terceira equao a soma das duas primeiras, mas a segunda no um mltiplo da primeira. Assim rank(A) = 2 = rank[A, c] e o sistema consistente. Resolvendo as duas primeiras equaes para x1 e x2 em termos de x3, ns obtemos:

    x1 = 2x3 + 4, x2 = x3 3 O vetor soluo pode ser expresso como:

    x =

    +

    3

    3

    3

    342

    x

    x

    x

    = x3

    112

    +

    034

    onde x3 uma constante arbitrria. Geometricamente, x uma linha representando a interseo dos dois planos correspondentes s duas primeiras equaes.

    2.8. INVERSA GENERALIZADA Vamos considerar inversas generalizadas daquelas matrizes que no tm inversas no sentido usual [ver (2.45)]. Uma soluo de um sistema consistente de equaes Ax =c pode ser expresso em termos de uma inversa generalizada de A.

    2.8.1 Definio e Propriedades Uma inversa generalizada de uma matriz A nxp qualquer matriz A, que satisfaz:

    AAA = A (2.57)

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    33 Uma inversa generalizada no nica exceto quando A no-singular, neste caso A = A1. Uma inversa generalizada que satisfaz (2.57) tambm chamada de inversa condicional.

    Toda matriz (quadrada ou retangular) tem uma inversa condicional. Isso ga-rantido mesmo para vetores. Por exemplo:

    x =

    4321

    ento 1x = [1, 0, 0, 0] uma inversa generalizada de x que satisfaz (2.57). Outros exemplos so 2x = [0, 1/2, 0, 0], 3x = [0, 0, 1/3, 0] e 4x = [0, 0, 0, 1/4]. Para cada ix , ns temos que:

    x ix x = x 1 = x, i = 1, 2, 3. Nessa ilustrao, x um vetor coluna e ix um vetor linha. Esse modelo generali-zado no seguinte teorema.

    Teorema 2.8A. Se A nxp ento qualquer inversa generalizada A pxn.

    Exemplo 2.8.1. Seja:

    A =

    423101322

    (2.58)

    Como a terceira linha de A a soma das duas primeiras linhas, e a segunda linha no um mltiplo da primeira, o rank(A) = 2. Sejam

    1A =

    000012/1010

    ,

    2A =

    0002/12/30010

    (2.59)

    Facilmente podemos verificar que A 1A A = A e A

    2A A = A.

    Teorema 2.8B. Suponha que A nxp de posto r e que A particionada como

    A =

    2221

    1211

    AAAA

    Onde A11 rxr de posto r. Ento a inversa generalizada de A dada por

    A =

    A 111

    Onde as trs matrizes nulas 0 tm dimenses apropriadas para que A seja pxn. (Ver prova na pg. 30 no livro do Rencher)

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    34 Corolrio 1. Suponha A (nxp) de posto r e que A particionado como no Teorema 2.8B, onde A22 rxr de posto r. Ento a inversa generalizada de A dada por

    A =

    122A000

    onde as trs matrizes nulas so de dimenses apropriadas, tais que A pxn.

    A submatriz no-singular no precisa estar na posio A11 ou A22, como no Teorema 2.8B e no seu corolrio. O Teorema 2.8B pode ser estendido para o seguinte algoritmo para encontrar uma inversa condicional A, para qualquer matriz A (nxp) de posto r [ver Searle, 1982, p.218]:

    1. Encontre qualquer submatriz no-singular C(rxr). No necessrio que os ele-mentos de C ocupem posies (linhas e colunas) adjacentes em A.

    2. Encontre C1 e a sua transposta (C1). 3. Substitua em A os elementos de C pelos elementos de (C1). 4. Substitua todos os outros elementos de A por zeros. 5. Transponha a matriz resultante.

    Exemplo. Calcular uma inversa generalizada (condicional) de X =

    101101011011

    Usando o algoritmo de Searle (e lembrando que o posto da matriz X 2), escolhemos convenientemente:

    C =

    1001

    C1 =

    1001

    (C1) =

    1001

    000100010000

    X =

    010000100000

    uma inversa condicional de X

    Vale lembrar que escolhendo outras matrizes C e usando o algoritmo, podemos en-contrar outras inversas condicionais de X.

    Teorema 2.8C. Seja A (nxp) de posto r, seja A uma inversa generalizada de A e seja (AA) uma inversa generalizada de AA. Ento: (i) posto(AA) = posto(AA) = posto(A) = r.

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    35 (ii) (A) uma inversa generalizada de A; isto (A) = (A). (iii) A = A(AA)AA e A = AA(AA)A. (iv) (AA)A uma inversa generalizada de A, isto , A = (AA)A. (v) A(AA)A simtrica, rank[A(AA)A] = r e invariante escolha de

    (AA); isto , A(AA)A permanece a mesma, para qualquer (AA).

    Uma inversa generalizada de uma matriz simtrica no necessariamente si-mtrica. Entretanto, tambm verdade que uma inversa generalizada simtrica de uma matriz simtrica, sempre pode ser encontrada; ver Problema 2.45. Neste livro, ns assumimos que as inversas generalizadas de matrizes simtricas tambm so simtricas.

    Alm da inversa generalizada (condicional) definida em (2.57) existem outras, como a inversa de mnimos quadrados (Amq) e a inversa de Moore-Penrose (A+) que muito til em demonstraes envolvendo modelos lineares.

    Definio: Dada a matriz A(nxp) ento toda matriz mqA (pxn) que satisfaz as duas condies seguintes, uma inversa de mnimos quadrados da matriz A: (a) AAmqA = A (b) AAmq uma matriz simtrica

    Teorema. Toda matriz do tipo Amq = (AA)A uma inversa de mnimos qua-drados de A [qualquer que seja a inversa condicional (AA)].

    Exemplo. Obter uma inversa de mnimos quadrados de X =

    101101011011

    Primeiramente calculamos XX =

    202022224

    . Escolhendo C =

    2002

    e usando o al-

    goritmo de Searle, obtemos:

    (XX) =

    5,00005,00000

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    36 Ento uma inversa de mnimos quadrados de X igual a:

    Xmq = (XX)X =

    5,05,000005,05,00000

    Vale observar que escolhendo outras matrizes C e, correspondentemente, cal-culando outras inversas condicionais de XX, podemos encontrar outras inversas de mnimos quadrados da matriz X.

    Definio: Dada a matriz A (nxp) de posto r, ento a matriz A+(pxn), de posto r, que satisfaz s quatro condies seguintes, definida como a inversa generalizada de Moore-Penrose da matriz A: (a) AA+A = A (b) A+AA+ = A+ (c) A A+ simtrica (d) A+A simtrica

    Teorema 2. Para cada matriz A (nxp) existe sempre uma e s uma matriz A+ que satisfaz as condies de Moore-Penrose.

    A obteno da inversa de Moore-Penrose bastante trabalhosa. Geralmente elas so obtidas atravs de algum pacote estatstico. No proc iml do SAS, por exemplo, ela obtida com o comando ginv.

    2.8.2. Inversas Generalizadas e Sistemas de Equaes Uma soluo para um sistema de equaes pode ser expressa em termos de uma in-versa generalizada.

    Teorema 2.8D. Se o sistema de equaes Ax = c consistente e se A uma inversa generalizada de A, ento x = Ac uma soluo. Ver prova na pg.32 do livro do Rencher.

    Vale lembrar mais uma vez que diferentes escolhas de A, resultaro em diferentes solues para Ax = c.

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    37 Teorema 2.8E. Se o sistema de equaes Ax = c consistente, ento todas as poss-veis solues podem ser obtidas das duas seguintes maneiras: (i) Use uma A especfica em x = Ac + (I AA)h e use todos os possveis valo-

    res para o vetor arbitrrio h. (ii) Use todas as possveis inversas A em x = Ac. Ver prova em Searle (1982, p.238)

    Uma condio necessria e suficiente para que o sistema Ax = c seja consistente pode ser dado em termos de uma inversa generalizada (ver Graybill 1976, p.36).

    Teorema 2.8F. O sistema de equaes Ax = c consistente se e somente se para qualquer inversa generalizada A de A

    AAc = c. Ver prova na pg. 33 do livro do Rencher.

    Observe que o Teorema 2.8F fornece uma alternativa ao Teorema 2.7A para decidir se um sistema de equaes consistente.

    2.9. DETERMINANTES O determinante de uma matriz A (nxn) uma funo escalar de A definida como a soma algbrica de todos os seus n! possveis produtos elementares. Denota-se geral-mente por

    (A) = | A | = det(A) = =

    !

    1

    n

    iip

    Cada produto elementar do tipo pi = a1_ a2_ a3_ an_ em que, nos espaos (ndices) so colocados os nmeros de alguma permutao simples do conjunto {1, 2, , n}.

    Em cada produto pi existe um e um s elemento de cada linha e coluna. Cada produto elementar recebe o sinal + ou , conforme o nmero de inverses

    envolvidas em pi seja par ou mpar, respectivamente.

    Essa definio no muito til para calcular o determinante de uma matriz, exceto para o caso de matrizes 2x2 ou 3x3. Para matrizes maiores, existem programas espe-cficos (proc iml do SAS, Mapple e MathCad por exemplo) para calcular os deter-minantes.

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    38

    Exemplo. Seja a matriz A =

    333231

    232221

    131211

    aaa

    aaa

    aaa

    =

    765413102

    Como n = 3, temos 3! = 6 permutaes, a saber:

    i pi Permutao No de inverses Sinal Valor de pi 1 a11 a22 a33 1 2 3 0 + +p1 = 14 2 a11 a23 a32 1 3 2 1 p2 = 48 3 a12 a21 a33 2 1 3 1 p3 = 0 4 a12 a23 a31 2 3 1 2 + +p4 = 0 5 a13 a21 a32 3 1 2 2 + +p5 = 18 6 a13 a22 a31 3 2 1 3 p6 = 5

    det(A) = =

    6

    1iip = 49

    Teorema 2.9A.

    (i) Se D = diag(d1, d2, , dn) ento det(D) = =

    n

    iid

    1

    (ii) O determinante de uma matriz triangular o produto dos elementos da diagonal. (iii) Se A singular, det(A) = 0. Se A no-singular, det(A) 0. (iv) Se A positiva definida, det(A) > 0. (v) det(A) = det(A) (vi) Se A no singular, det(A1) = 1/det(A) Teorema 2.9B. Se a matriz A particionada como

    A =

    2221

    1211

    AAAA

    ,

    e se A11 e A22 so quadradas e no singulares (mas no necessariamente do mesmo tamanho) ento

    det(A) = |A11| |A22 A21(A11) 1A12| (2.70) = |A22| |A11 A12(A22) 1A21| (2.71)

    Note a analogia de (2.70) e (2.71) com o caso do determinante de uma matriz A, 2x2: det(A) = a11 a22 a21 a12 = a11 (a22 a21 a12/ a11) = a22 (a11 a12 a21/ a22)

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    39 (ver os Corolrios 1 a 4 nas pginas 35 e 36 do livro do Rencher)

    Teorema 2.9C. Se A e B so quadradas e de mesmo tamanho, ento o determinante do produto igual ao produto dos determinantes:

    |AB| = |A| |B| (2.76)

    Corolrio 1. |AB| = |BA| (2.77)

    Corolrio 2. |A2| = |A|2 (2.77)

    2.10. VETORES ORTOGONAIS E MATRIZES Dois vetores nx1 a e b so ditos ortogonais se

    a'b = a1b1 + a2b2 + + anbn = 0 (2.79) Note que o termo ortogonal se aplica aos dois vetores e no a um nico vetor. Geometricamente, dois vetores ortogonais so perpendiculares um ao outro. Para mostrar que os vetores a e b so perpendiculares podemos calcular o ngulo formado entre eles.

    cos() = ))(( bb'aa'ba'

    (2.80)

    Quando = 90, ab = 0 porque cos(90) = 0. Assim a e b so perpendiculares quan-do ab = 0.

    Exemplo. Sejam os vetores a =

    24

    e b =

    21

    . Ento ab = 0 cos() = 0 o n-gulo formado entre eles de 90, ou seja, os vetores a e b so perpendiculares.

    Se aa = 1, dizemos que o vetor a est normalizado. Um vetor b pode ser nor-malizado dividindo-o pelo seu comprimento (ou norma), bb' . Assim

    c = bb'

    b (2.81)

    est normalizado, porque cc = 1.

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    40 Um conjunto de vetores c1, c2,, cp de dimenses px1 que so normalizados (cici = 1, para toto i) e mutuamente ortogonais (cicj = 0, para todo i j) dito ser um conjunto ortonormal de vetores. Se a matriz C = [c1, c2,, cp] pxp tem colunas orto-gonais e normalizadas, C chamada matriz ortonormal. Desde que os elementos de CC so produtos de colunas de C [ver Teorema 2.2C(i)], uma matriz ortonormal C tem a propriedade:

    CC = I (2.82)

    Pode ser mostrado que uma matriz ortonormal C tambm satisfaz CC = I (2.83)

    Assim, uma matriz ortonormal C tem linhas ortonormais como tambm colunas ortonormais. evidente que de (2.82) e (2.83), C = C1, se C ortonormal.

    Exemplo 2.10. Para ilustrar uma matriz ortonormal, partimos de:

    A =

    111021111

    Que tem colunas mutuamente ortogonais, mas que no so ortonormais. Para norma-lizar as trs colunas, ns as dividimos pelos seus respectivos comprimentos, 3 , 6 e 2 , obtendo assim a matriz:

    C =

    21613106231216131

    cujas colunas so ortonormais. Note que as linhas de C tambm so ortonormais, tal que C satisfaz (2.83) e (2.82). A multiplicao de um vetor por uma matriz ortogonal tem o efeito de rotacio-nar os eixos; isto , se um ponto x transformado para z = Cx, onde C uma matriz ortonormal, ento a distncia da origem a z a mesma que a distncia da origem a x:

    zz = (Cx)(Cx) = xCCx = xx (2.84) Aqui, a transformao de x para z uma rotao.

    Teorema 2.10A. Se uma matriz C (pxp) ortonormal e se A (pxp) uma matriz qualquer, ento: (i) |C| = +1 ou 1 (ii) |CAC| = |A| (iii) 1 cij 1, onde cij qualquer elemento da matriz C

  • Material elaborado pelo Prof. Csar Gonalves de Lima

    41 2.11. TRAO DE UMA MATRIZ O trao de uma matriz (nxn) A = (aij) uma funo escalar definida como a soma dos elementos da diagonal de A; isto ,

    tr(A) = =

    n

    i iia1

    Por exemplo, se A =

    953632248

    tr(A) = 8 + (3) + 9 = 14.

    Teorema 2.11A. (i) Se A e B so (nxn) ento

    tr(A B) = tr(A) tr( B) (2.85) (ii) Se A (nxp) e B (pxn), ento

    tr(AB) = tr(BA) (2.86) Note que em (2.86) n pode ser menor, igual ou maior que p (iii) Se A (nxp)

    tr(AA) = =

    p

    jj

    tj