208
Rep´ ublica Bolivariana de Venezuela Universidad Nacional Experimental Polit´ ecnica “Antonio Jos´ e de Sucre” Vice-Rectorado Barquisimeto Departamento de Estudios Generales y B´asicos Secci´ondeMatem´atica Apuntes de ´ Algebra Lineal Autores: MSc. Jorge F. Campos S. MSc. Dorka M. Chaves E. Barquisimeto, 2008

guia algebra de lineal Msc.Jorge Campos

Embed Size (px)

Citation preview

Page 1: guia algebra de lineal Msc.Jorge Campos

Republica Bolivariana de Venezuela

Universidad Nacional Experimental Politecnica

“Antonio Jose de Sucre”

Vice-Rectorado Barquisimeto

Departamento de Estudios Generales y Basicos

Seccion de Matematica

Apuntes de Algebra Lineal

Autores: MSc. Jorge F. Campos S.

MSc. Dorka M. Chaves E.

Barquisimeto, 2008

Page 2: guia algebra de lineal Msc.Jorge Campos

Indice general

Indice general I

1. Matrices y Sistemas de Ecuaciones Lineales 11.1. Operaciones con Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

1.1.1. Suma de Matrices y Multiplicacion por Escalar . . . . . . . . . . . . . . . 51.1.2. Producto de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111.1.3. Transposicion o Trasposicion de Matrices . . . . . . . . . . . . . . . . . . . 16

1.2. Operaciones Elementales por Filas . . . . . . . . . . . . . . . . . . . . . . . . . . . 191.3. Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 271.4. Inversa de una Matriz Cuadrada . . . . . . . . . . . . . . . . . . . . . . . . . . . . 371.5. Determinantes. Propiedades de los Determinantes . . . . . . . . . . . . . . . . . . 461.6. Matriz Adjunta. Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . 631.7. Determinantes de Matrices Triangulares por Bloques . . . . . . . . . . . . . . . . 70

2. Espacios Vectoriales 762.1. Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 762.2. Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 832.3. Combinacion Lineal y Espacio Generado . . . . . . . . . . . . . . . . . . . . . . . 882.4. Independencia y Dependencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . 952.5. Bases y Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1012.6. Rango, Nulidad, Espacio Fila y Espacio Columna de una Matriz . . . . . . . . . . 107

3. Matriz de Cambio de Base. Espacios con Producto Interno 1173.1. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1173.2. Espacios con producto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1283.3. Bases Ortonormales y Proceso de Ortonormalizacion de Gram-Schmidt . . . . . . 1323.4. Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142

4. Transformaciones Lineales. Autovalores y Autovectores de una Matriz 1494.1. Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1494.2. Representacion Matricial de una Transformacion Lineal . . . . . . . . . . . . . . . 1614.3. Nucleo e Imagen de una Transformacion Lineal . . . . . . . . . . . . . . . . . . . 1684.4. Autovalores y Autovectores de una Matriz . . . . . . . . . . . . . . . . . . . . . . 1754.5. Diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

i

Page 3: guia algebra de lineal Msc.Jorge Campos

Indice general ii

4.6. Autovectores y Autoespacios Generalizados. Forma Canonica de Jordan . . . . . . 191

Apendices 207

A. Campos y Numeros Complejos 208A.1. Campos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208A.2. El Campo de los Numeros Complejos . . . . . . . . . . . . . . . . . . . . . . . . . 218

B. Algo mas sobre Espacios Vectoriales 226B.1. K-Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 226B.2. Espacios Vectoriales de Dimension Infinita . . . . . . . . . . . . . . . . . . . . . . 228B.3. Espacios con Producto Interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228B.4. Espacios Normados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 228

C. Algo mas sobre Transformaciones Lineales 229C.1. Transformaciones Lineales Invertibles . . . . . . . . . . . . . . . . . . . . . . . . . 229C.2. Autovalores y Autovectores de Transformaciones Lineales . . . . . . . . . . . . . . 234

D. Demostraciones de Algunos Teoremas 238

Page 4: guia algebra de lineal Msc.Jorge Campos

Capıtulo 1

Matrices y Sistemas de Ecuaciones Lineales

1.1. Operaciones con Matrices

Definicion 1.1. Sean m, n ∈ Z+. Una matriz real A de orden m por n (m × n) es un

arreglo bidimensional de numeros reales dispuestos en m filas y n columnas como sigue

A = (aij)m×n =

a11 a12 · · · a1n

a21 a22 · · · a2n

......

...

am1 am2 · · · amn

=

a11 a12 · · · a1n

a21 a22 · · · a2n

......

...

am1 am2 · · · amn

donde aij ∈ R para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, el cual es llamado componente

ij-esima de A.

Para cada i ∈ {1, . . . , m} la i-esima fila de A la denotaremos por A(i) y esta dada por

A(i) =[ai1 ai2 · · · ain

]

Para cada j ∈ {1, . . . , n} la j-esima columna de A la denotaremos por A(j) y esta dada por

A(j) =

a1j

a2j

...

amj

Cuando m = n, diremos que A es una matriz cuadrada de orden n, en este caso, las

componentes a11, a22, . . . , ann forman lo que llamaremos diagonal principal de A.

Cuando m = 1, diremos que A es una matriz fila y cuando n = 1, diremos que A es una

matriz columna.

La notacion A = (aij)m×n, significa que A es la matriz de orden m× n cuya ij-esima compo-

nente es aij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}.El conjunto formado por todas las matrices reales de orden m×n lo denotaremos porMm×n(R).

1

Page 5: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 2

Observacion 1.1. Podemos considerar matrices sobre un campo K (ver apendice B), por

ejemplo K = C, en lugar de matrices reales, en cuyo caso las componentes de las matrices son

elementos de K.

Observacion 1.2. Se debe tener cuidado cuando se usa la notacion (aij)m×n, el cambio de

ındices no significa que se trata de otra matriz, los ındices son “mudos”, esto es

(aij)m×n = (akr)m×n = (apq)m×n = (aji)m×n

Ejemplo 1.1.

1. A =

[−2 0

√5

23

4 1

]es una matriz real de orden 2×3, la componente 2, 1 de A es a2,1 = 2

3,

la fila 2 de A es A(2) =[

23

4 1], la columna 3 de A es A(3) =

[ √5

1

]

2. B =

−1 4 0

5 12 −3

0 2 −8

es una matriz cuadrada real de orden 3, las componentes de la

diagonal principal son a1,1 = −1, a2,2 = 12, a3,3 = −8.

3. La matriz In = (δij)n×n, donde δij =

{1 si i = j

0 si i 6= j, para cada i, j ∈ {1, . . . , n}, es llamada

matriz identidad de orden n, esto es,

In =

1 0 · · · 0

0 1. . .

......

. . .. . . 0

0 · · · 0 1

n×n

4. La matriz 0/m×n = (ξij)m×n, donde ξij = 0 para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n},es llamada matriz nula de orden m× n, es decir

0/m×n =

0 · · · 0...

...

0 · · · 0

m×n

Page 6: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 3

Cuando m = n, solo escribiremos 0/n en lugar de 0/n×n, es decir,

0/n =

0 · · · 0...

. . ....

0 · · · 0

n×n

Definicion 1.2. Sea A ∈Mn×n(R). Diremos que A = (aij)n×n es

1. Triangular superior si aij = 0 para i, j ∈ {1, . . . , n} con i > j.

2. Triangular inferior si aij = 0 para i, j ∈ {1, . . . , n} con i < j.

3. Diagonal si aij = 0 para i, j ∈ {1, . . . , n} con i 6= j, es decir, A es triangular superior e

inferior simultaneamente.

4. Escalar si es diagonal y existe λ ∈ R tal que aii = λ para i ∈ {1, . . . , n}.

Observacion 1.3. Una matriz cuadrada es triangular superior (respectivamente inferior) si y

solo si todas sus componentes bajo (respectivamente sobre) la diagonal principal son iguales a

cero.

Observacion 1.4. Cuando A ∈Mn×n(R) es diagonal y las componentes en la diagonal principal

son λ1, λ2, . . . , λn ∈ R, entonces escribiremos A = diag(λ1, λ2, . . . , λn)

Ejemplo 1.2.

1. Para cada n ∈ Z+, In y 0/n son matrices escalares, y por lo tanto diagonales y consecuente-

mente triangulares superior e inferior.

2. A =

−5 4 0 −7

0 3 12 5

0 0 2 1

0 0 0 0

es triangular superior.

3. A =

−5 0 0 0

0 4 0 0

0 −1 0 0

9 13 −3 8

es triangular inferior.

Page 7: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 4

4. A =

6 0 0 0

0 −3 0 0

0 0 −5 0

0 0 0 0

es diagonal, en cuyo caso podemos escribir A = diag(6,−3,−5, 0).

5. A =

8 0 0 0

0 8 0 0

0 0 8 0

0 0 0 8

es escalar, en cuyo caso podemos escribir A = diag(8, 8, 8, 8).

Definicion 1.3. Sean A, B ∈ Mm×n(R). Diremos que A y B son matrices iguales, lo cual

denotaremos por A = B, si la componente ij-esima de A es igual a la componente ij-esima de

B para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, es decir, si A = (aij)m×n y B = (bij)m×n,

diremos que A y B son iguales si

aij = bij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}

Observacion 1.5. Notese que para que dos matrices sean iguales, en primer lugar deben ser

del mismo orden.

Ejemplo 1.3. Si A =

[5 −1 0

−6 8 3

]; B =

5 7

0 y

−2 4

y C =

x 7

0 −3

−2 4

, entonces A 6= B

pues ni siquiera son del mismo orden; B = C si y solo si x = 5 e y = −3. �

El siguiente teorema es una consecuencia directa de la definicion de igualdad de matrices, su

demostracion la dejamos como ejercicio.

Teorema 1.1. Sean A, B ∈Mm×n(R). Entonces las siguientes proposiciones son equivalentes

1. A = B.

2. A(i) = B(i) para cada i ∈ {1, . . . , m}.

3. A(j) = B(j) para cada j ∈ {1, . . . , n}.

Demostracion. ¡Ejercicio!

Page 8: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 5

1.1.1. Suma de Matrices y Multiplicacion por Escalar

En esta seccion definiremos dos operaciones con matrices que dotaran al conjunto Mm×n(R)

de una estructura algebraica conocida como espacio vectorial , dicha estructura sera tratada

en el captulo 2 del presente trabajo.

Definicion 1.4. Sean A, B ∈ Mm×n(R) con A = (aij)m×n y B = (bij)m×n. Definiremos la

matriz suma de A con B, como la matriz A + B ∈ Mm×n(R) cuya ij-esima componente viene

dada por aij + bij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, esto es, si A + B = (cij)m×n,

entonces cij = aij + bij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}.

Observacion 1.6. Para poder sumar dos matrices estas deben ser del mismo orden.

Ejemplo 1.4. Si A =

4 −9 0 8

−7 3 5 −12

1 0 −6 2

y B =

−3 9 5 −4

1 −13 3 9

10 4 7 11

, entonces

A + B =

4 −9 0 8

−7 3 5 −12

1 0 −6 2

+

−3 9 5 −4

1 −13 3 9

10 4 7 11

=

4 + (−3) −9 + 9 0 + 5 8 + (−4)

−7 + 1 3 + (−13) 5 + 3 −12 + 9

1 + 10 0 + 4 −6 + 7 2 + 11

=

1 0 5 4

−6 −10 8 −3

11 4 1 13

Definicion 1.5. Sean A ∈ Mm×n(R) y α ∈ R (α es llamado escalar), con A = (aij)m×n.

Definiremos la multiplicacion de α por A (multiplicacion por escalar) como la matriz

α · A o simplemente αA cuya ij-esima componente es αaij para cada i ∈ {1, . . . , m} y cada

j ∈ {1, . . . , n}, esto es, si αA = (bij)m×n, entonces bij = αaij para cada i ∈ {1, . . . , m} y cada

j ∈ {1, . . . , n}.

Observacion 1.7. La notacion de multiplicacion por escalar es α · A o αA y no A · α ni Aα,

se debe colocar primero el escalar luego la matriz.

Observacion 1.8. Toda matriz escalar de orden n es un multiplo escalar de In, ms an, A ∈Mn×n(R) es una matriz escalar si y solo si existe λ ∈ R tal que A = λIn.

Page 9: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 6

Ejemplo 1.5. Sea A la matriz del ejemplo 1.4, entonces

2 · A = 2 ·

4 −9 0 8

−7 3 5 −12

1 0 −6 2

=

2 · 4 2(−9) 2 · 0 2 · 82(−7) 2 · 3 2 · 5 2(−12)

2 · 1 2 · 0 2(−6) 2 · 2

=

8 −18 0 16

−14 6 10 −24

2 0 −12 4

Teorema 1.2. Sean A, B, C ∈Mm×n(R) y α, β ∈ R cualesquiera. Entonces

1. A + B = B + A (conmutatividad de la suma).

2. (A + B) + C = A + (B + C) (asociatividad de la suma).

3. A + 0/m×n = A = 0/m×n +A (neutro aditivo).

4. Existe una matriz D ∈Mm×n(R) tal que A + D = 0/m×n = D + A (opuesto aditivo).

5. α(A + B) = αA + αB (distributividad de la multiplicacion por escalar respecto a la suma

matricial).

6. (α + β)A = αA + βA (distributividad de la multiplicacion por escalar respecto a la suma

escalar).

7. α(βA) = (αβ)A = β(αA) (asociatividad de la multiplicacion por escalar).

8. 1 · A = A (neutro de la multiplicacion por escalar).

Demostracion. Sean A = (aij)m×n, B = (bij)m×n y C = (cij)m×n.

1. Hagamos A + B = E = (eij)m×n y B + A = F = (fij)m×n. Por definicion de suma de

matrices, tenemos que para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}

eij = aij + bij = bij + aij = fij

Luego A + B = E = F = B + A (definicion de igualdad de matrices).

Page 10: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 7

2. Hagamos A + B = E = (eij)m×n, (A + B) + C = E + C = F = (fij)m×n, B + C = G =

(gij)m×n y A + (B + C) = A + G = H = (hij)m×n. Ası que por definicion de suma de

matrices

fij = eij + cij = (aij + bij) + cij = aij + (bij + cij) = aij + gij = hij

De donde (A + B) + C = F = H = A + (B + C) (definicion de igualdad de matrices).

3. Recordemos que 0/m×n = (ξij)m×n donde ξij = 0 para cada i ∈ {1, . . . , m} y cada j ∈{1, . . . , n}. Ası que si A + 0/m×n = E = (eij)m×n, entonces, por definicion de suma de

matrices, para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}

eij = aij + ξij = aij + 0 = aij

Por lo tanto A + 0/m×n = E = A y por conmutatividad

A + 0/m×n = A = 0/m×n +A

4. Definamos D = (dij)m×n con dij = −aij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}.Hagamos A + D = E = (eij)m×n. Entonces, por definicion de suma de matrices, para cada

i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}

eij = aij + dij = aij + (−aij) = 0

Por lo tanto A + D = E = 0/m×n y por conmutatividad

A + D = 0/m×n = D + A

5. Hagamos A + B = E = (eij)m×n, α(A + B) = αE = F = (fij)m×n, αA = G = (gij)m×n,

αB = H = (hij)m×n y αA + αB = G + H = P = (pij)m×n. Entonces, para cada

i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n} tenemos que

fij = αeij (definicion de multiplicacion por escalar)

= α(aij + bij) (definicion de suma de matrices)

= αaij + αbij

= gij + hij (definicion de multiplicacion por escalar)

= pij (definicion de suma de matrices)

Luego

α(A + B) = F = P = αA + αB

Page 11: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 8

6. Hagamos (α + β)A = E = (eij)m×n, αA = F = (fij)m×n, βA = G = (gij)m×n y αA + βA =

F + G = H = (hij)m×n. En consecuencia, para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}se tiene que

eij = (α + β)aij (definicion de multiplicacion por escalar)

= αaij + βaij

= fij + gij (definicion de multiplicacion por escalar)

= hij (definicion de suma de matrices)

De donde

(α + β)A = E = H = αA + βA

7. Hagamos βA = E = (eij)m×n, α(βA) = αE = F = (fij)m×n y (αβ)A = G = (gij)m×n.

Ası que, por definicion de multiplicacion de por escalar, para cada i ∈ {1, . . . , m} y cada

j ∈ {1, . . . , n} obtenemos

fij = αeij = α(βaij) = (αβ)aij = gij

Luego α(βA) = F = G = (αβ)A y en consecuencia

β(αA) = (βα)A = (αβ)A

Por lo tanto

α(βA) = (αβ)A = β(αA)

8. Hagamos 1 · A = E = (eij)m×n. Ası que al usar la definicion de multiplicacion por escalar,

se tiene que para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}

eij = 1 · aij = aij

En consecuencia

1 · A = E = A

Teorema 1.3.

1. La matriz nula 0/m×n es la unica matriz real de orden m×n tal que para cada A ∈Mm×n(R)

se cumple que A + 0/m×n = A = 0/m×n +A.

Page 12: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 9

2. Para cada matriz A ∈ Mm×n(R), existe una unica matriz D ∈ Mm×n(R) tal que A + D =

0/m×n = D + A, tal matriz D es llamada matriz opuesta de A y se denota por −A.

Demostracion. La parte 3 del teorema 1.2 garantiza que la matriz nula 0/m×n satisface que para

cada A ∈ Mm×n(R) se cumple que A + 0/m×n = A = 0/m×n +A. Ademas, la existencia de la matriz

D es garantizada en la parte 4 del mismo teorema. Solo faltarıa probar la unicidad de ambas

matrices.

1. Supongamos que P ∈ Mm×n(R) es tal que A + P = A = P + A para cada A ∈ Mm×n(R),

luego

P = P + 0/m×n (por la parte 3 del teorema 1.2)

= 0/m×n (hipotesis)

2. Sea A ∈Mm×n(R) cualquiera. Supongamos que existen D, E ∈Mm×n(R) tales que

A + D = 0/m×n = D + A (1.1)

A + E = 0/m×n = E + A (1.2)

En consecuencia

D = D + 0/m×n (teorema 1.2 parte 3)

= D + (A + E) (por la ecuacion 1.2)

= (D + A) + E (teorema 1.2 parte 2)

= 0/m×n +E (por la ecuacion 1.1)

= E (teorema 1.2 parte 3)

Teorema 1.4. Sean A, B, C ∈Mm×n(R) tales que A + B = A + C. Entonces B = C.

Demostracion. ¡Ejercicio!

Teorema 1.5. Sean A ∈Mm×n(R) y α ∈ R cualesquiera. Entonces

1. 0 · A = 0/m×n.

Page 13: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 10

2. α 0/m×n = 0/m×n.

3. (−1)A = −A.

4. Si αA = 0/m×n, entonces α = 0 o A = 0/m×n.

Demostracion.

1. Sabemos que

0 · A + 0/m×n = 0 · A (¿por que?)

ademas

0 · A = (0 + 0)A = 0 · A + 0 · A

ası que

0 · A + 0 · A = 0 · A + 0/m×n

y por el teorema 1.4, se tiene que 0 · A = 0/m×n

2. Por un lado

α · 0/m×n = α · 0/m×n + 0/m×n (¿por que?)

por otro lado

α · 0/m×n = α(0/m×n + 0/m×n) = α · 0/m×n +α · 0/m×n

luego

α · 0/m×n + 0/m×n = α · 0/m×n +α · 0/m×n

y nuevamente, usando el teorema 1.4, tenemos que α 0/m×n = 0/m×n

3. Basta probar que A + (−1)A = 0/m×n, y por unicidad, obtendrıamos el resultado. Veamos

A + (−1)A = 1 · A + (−1)A (teorema 1.2 parte 8)

= (1 + (−1))A (teorema 1.2 parte 6)

= 0 · A= 0/m×n (por la parte 1)

Luego, por unicidad de la matriz opuesta, (−1)A = −A

Page 14: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 11

4. Supongamos que αA = 0/m×n. Si α = 0, no hay nada que probar, supongamos entonces que

α 6= 0, ası que

A = 1 · A (teorema 1.2 parte 8)

= (α−1α)A

A = α−1(αA) (teorema 1.2 parte 7)

= α−1 0/m×n (por hipotesis)

= 0/m×n (por la parte 2)

Con lo cual, se concluye la prueba.

Definicion 1.6. Sean A, B ∈Mm×n(R). Definiremos A−B = A + (−B).

Ejemplo 1.6. Si A =

4 −12 0

−6 5 −3

6 −1 2

7 0 1

y B =

5 −10 −6

6 −1 11

4 0 5

−2 −6 −1

, entonces

A− B = A + (−B) =

4 −12 0

−6 5 −3

6 −1 2

7 0 1

+

5 −10 −6

6 −1 11

4 0 5

−2 −6 −1

=

4 −12 0

−6 5 −3

6 −1 2

7 0 1

+

−5 10 6

−6 1 −11

−4 0 −5

2 6 1

=

−1 −2 6

−12 6 −14

2 −1 −3

9 6 2

1.1.2. Producto de Matrices

A diferencia de las dos operaciones definidas en la seccion anterior, la multiplicacion de matrices

no se define de manera “natural”, como veremos luego, no por ello deja de ser importante dicha

operacion.

Page 15: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 12

Definicion 1.7. Sean A = (aij)m×n ∈ Mm×n(R) y B = (bjk)n×p ∈ Mn×p(R). Definiremos el

producto de A por B como la matriz C = (cik)m×p ∈ Mm×p(R), denotada por AB o A · B, tal

que para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p} se tiene que

cik =n∑

j=1

aijbjk = ai1b1k + ai2b2k + · · ·+ ainbnk

Observacion 1.9. Notese que para poder definir el producto AB, la cantidad de columnas de

A debe coincidir con la cantidad de filas de B, ademas, la matriz resultante, es una matriz cuya

cantidad de filas coincide con la cantidad de filas de A y su cantidad de columnas es igual a la

cantidad de columnas de B.

Ejemplo 1.7. Sean A =

[2 −1 0

0 3 1

]y B =

3 1 0

2 −1 −2

−4 −2 3

. Entonces

AB = A · B

=

[2 · 3 + (−1)2 + 0(−4) 2 · 1 + (−1)(−1) + 0(−2) 2 · 0 + (−1)(−2) + 0 · 3

0 · 3 + 3 · 2 + 1(−4) 0 · 1 + 3(−1) + 1(−2) 0 · 0 + 3(−2) + 1 · 3

]

=

[6− 2 + 0 2 + 1 + 0 0 + 2 + 0

0 + 6− 4 0− 3− 2 0− 6 + 3

]=

[4 3 2

2 −5 −3

]

Observacion 1.10. Notese que en el ejemplo anterior, el producto BA no esta definido, esto

nos dice que el producto de matrices no es conmutativo, mas aun, a pesar de que ambos productos

estan definidos, AB y BA, no necesariamente son ambos del mismo orden, ademas, siendo ambos

productos del mismo orden, en cuyo caso necesariamente A y B deben ser cuadradas y del mismo

orden, las matrices AB y BA no tienen por que ser iguales, cuando esto ocurre, es decir, cuando

AB = BA, se dice que A y B son matrices que conmutan.

A continuacion enunciaremos un teorema que expone las principales propiedades del producto

de matrices

Teorema 1.6. Sean A ∈Mm×n(R); B, C ∈Mn×p(R); C ∈Mp×q(R) y α ∈ R. Entonces

1. (AB)D = A(BD) (asociatividad del producto de matrices).

2. A(B + C) = AB + AC (distributividad a izquierda del producto de matrices).

Page 16: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 13

3. (B + C)D = BD + CD (distributividad a derecha del producto de matrices).

4. α(AB) = (αA)B = A(αB) (asociatividad del producto de matrices y la multiplicacion por

escalar).

5. ImA = A = AIn (neutros del producto de matrices).

6. B 0/p×q = 0/n×q y 0/m×n B = 0/m×p.

Demostracion. Sean A = (aij)m×n; B = (bjk)n×p; C = (cjk)n×p y D = (dkl)p×q.

1. Hagamos AB = E = (eik)m×p; (AB)D = ED = F = (fil)m×q; BD = G = (gjl)n×q y

A(BD) = AG = H = (hil)m×q. Entonces, usando la definicion de producto matricial, para

cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p}

eik =

n∑

j=1

aijbjk

para cada j ∈ {1, . . . , n} y cada l ∈ {1, . . . , q}

gjl =

p∑

k=1

bjkdkl

y para cada i ∈ {1, . . . , m} y cada l ∈ {1, . . . , q}

fil =

p∑

k=1

eikdkl; hil =

n∑

j=1

aijgjl

Luego

fil =

p∑

k=1

eikdkl =

p∑

k=1

(n∑

j=1

aijbjk

)dkl =

p∑

k=1

n∑

j=1

aijbjkdkl =n∑

j=1

p∑

k=1

aijbjkdkl

=

n∑

j=1

aij

(p∑

k=1

bjkdkl

)=

n∑

j=1

aijgjl = hil

Por lo tanto, usando la definicion de igualdad de matrices

(AB)D = F = H = A(BD)

Page 17: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 14

2. Hagamos B + C = E = (ejk)n×p; A(B + C) = AE = F = (fik)m×p; AB = G = (gik)m×p;

AC = H = (hik)m×p y AB + AC = G + H = R = (rik)m×p. Entonces, para cada i ∈{1, . . . , m} y cada k ∈ {1, . . . , p}

fik =

n∑

j=1

aijejk (definicion de producto de matrices)

=n∑

j=1

aij(bjk + cjk) (definicion de suma de matrices)

=

n∑

j=1

(aijbjk + aijcjk) =

n∑

j=1

aijbjk +

n∑

j=1

aijcjk

= gik + hik (definicion de producto de matrices)

= rik (definicion de suma de matrices)

En consecuencia

A(B + C) = F = R = AB + AC

3. Analogo a la demostracion de la parte 2.

4. Sean AB = E = (eik)m×p; α(AB) = αE = F = (fik)m×p; αA = G = (gij)m×n y (αA)B =

GB = H = (hik)m×p. Entonces, para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , p}

fik = αeik (definicion de multiplicacion por escalar)

= αn∑

j=1

aijbjk (definicion de producto de matrices)

=

n∑

j=1

α(aijbjk) =

n∑

j=1

(αaij)bjk

=n∑

j=1

gijbjk (definicion de multiplicacion por escalar)

= hik (definicion de producto de matrices)

De donde α(AB) = F = H = (αA)B. De manera analoga se prueba que α(AB) = A(αB),

ası que

α(AB) = (αA)B = A(αB)

5. Recordemos que In = (δjk)n×n, donde

δjk =

{1 si j = k

0 si j 6= k(1.3)

Page 18: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 15

para cada j, k ∈ {1, . . . , n}.

Hagamos AIn = E = (eik)m×n. Entonces, para cada i ∈ {1, . . . , m} y cada k ∈ {1, . . . , n}

eik =n∑

j=1

aijδjk (definicion de producto de matrices)

= ai1δ1k + · · ·+ ai(k−1)δ(k−1)k + aikδkk + ai(k+1)δ(k+1)k + · · ·+ ainδnk

= ai1 · 0 + · · ·+ ai(k−1) · 0 + aik · 1 + ai(k+1) · 0 + · · ·+ ain · 0 (por 1.3)

= aik

Por lo tanto AIn = E = A, analogamente puede probarse que ImA = A, en consecuencia

AIn = A = ImA

6. ¡Ejercicio!

Ejercicio 1.1. Pruebe que si A ∈ Mm×n(R) y B ∈Mn×p(R), entonces

1. AB =[

AB(1) AB(2) · · · AB(p)]

(desarrollo por columnas del producto AB), es decir,

la k-esima columna de AB, que es (AB)(k), es igual a A por la k-esima columna de B,

AB(k), para cada k ∈ {1, . . . , p}.

2. AB =

A(1)B

A(2)B...

A(m)B

(desarrollo por filas del producto AB), es decir, la i-esima fila de AB,

que es (AB)(i), es igual a la i-esima fila de A por B, A(i)B, para cada i ∈ {1, . . . , m}.

Ejercicio 1.2. Dada una matriz A ∈ Mn×n(R), para k ∈ N definamos

Ak =

0/n si A = 0/n y k ≥ 1

In si A 6= 0/n y k = 0

Ak−1A si A 6= 0/n y k ≥ 1

Pruebe que AkAr = Ak+r para cualesquiera k, r ∈ N.

Definicion 1.8. Una matriz N ∈ Mn×n(R) es llamada nilpotente si existe p ∈ N tal que

Np = 0/n, ademas, si p es tal que Np−1 6= 0/n, diremos que N es nilpotente de orden p.

Page 19: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 16

Observacion 1.11. La matriz nula de orden n es nilpotente y conveninos en que es nilpotente

de orden 0.

Ejemplo 1.8. Las siguientes matrices son nilpotentes

N1 =

−1 1 0 0

−1 0 1 0

−1 0 1 0

−1 0 1 0

; N2 =

0 1 0 0

0 0 1 0

0 0 0 1

0 0 0 0

N1 es de orden 3 y N2 es de orden 4 (¡verifıquelo!).

1.1.3. Transposicion o Trasposicion de Matrices

Definicion 1.9. Sea A = (aij)m×n ∈Mm×n(R). Definiremos la transpuesta o traspuesta de

A como la matriz AT = (bji)n×m ∈Mn×m(R) tal que

bji = aij para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}

Ejemplo 1.9. Sea

A =

−2 5 0 7

3 0 1 −6

−5 12 −2 9

Entonces

AT =

−2 3 −5

5 0 12

0 1 −2

7 −6 9

Observacion 1.12. Notese que las filas de A “pasan” a ser las columnas de AT y las columnas

de A “pasan” a ser las filas de AT , mas propiamente

(A(i)

)T=(AT)(i)

para cada i ∈ {1, . . . , m}(A(j)

)T=(AT)(j)

para cada j ∈ {1, . . . , n}

Teorema 1.7. Sean A, B ∈Mm×n(R), C ∈Mn×p(R) y α ∈ R. Entonces

Page 20: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 17

1.(AT)T

= A (propiedad de involucion de la transposicion de matrices)

2. (A + B)T = AT + BT (transpuesta de la suma)

3. (αA)T = αAT (transpuesta de la multiplicacion por escalar)

4. (AC)T = CT AT (transpuesta del producto matricial)

5. (In)T = In y (0/m×n)T = 0/n×m

Demostracion. Sean A = (aij)m×n; B = (bij)m×n y C = (cjk)n×p.

1. Hagamos AT = D = (dji)n×m y(AT)T

= DT = E = (eij)m×n. Entonces, para cada

i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}, por definicion de transpuesta

eij = dji = aij

Luego(AT)T

= E = A

2. Sean A + B = D = (dij)m×n; (A + B)T = DT = E = (eji)n×m; AT = F = (fji)n×m;

BT = G = (gji)n×m y AT +BT = F+G = H = (hji)n×m. Entonces, para cada i ∈ {1, . . . , m}y cada j ∈ {1, . . . , n}

eji = dij (definicion de transpuesta)

= aij + bij (definicion de suma de matrices)

= fji + gji (definicion de transpuesta)

= hji (definicion de suma de matrices)

Por lo tanto

(A + B)T = E = H = AT + BT

3. Hagamos αA = D = (dij)m×n; (αA)T = DT = E = (eji)n×m; AT = F = (fji)n×m; y

αAT = αF = G = (gji)n×m. Entonces, para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n}

eji = dij (definicion de transpuesta)

= αaij (definicion de multiplicacion por escalar)

= αfji (definicion de transpuesta)

= gji (definicion de multiplicacion por escalar)

Page 21: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 18

Ası que

(αA)T = E = G = αAT

4. Sean AC = D = (dik)m×p; (AC)T = DT = E = (eki)p×m; CT = F = (fkj)p×n; AT =

G = (gji)n×m y CT AT = FG = H = (hki)p×m. Entonces, para cada i ∈ {1, . . . , m} y cada

k ∈ {1, . . . , p}

eki = dik (definicion de transpuesta)

=

n∑

j=1

aijcjk (definicion de producto)

=n∑

j=1

gjifkj (definicion de transpuesta)

=

n∑

j=1

fkjgji = hki (definicion de producto)

De donde

(AC)T = E = H = CT AT

5. ¡Ejercicio!

Definicion 1.10. Sea A ∈Mn×n(R). Diremos que

1. A es simetrica si AT = A.

2. A es antisimetrica si AT = −A.

Ejemplo 1.10.

1. In es simetrica para todo n ∈ N.

2. 0/n es simetrica y antisimetrica para todo n ∈ N ¿existe alguna otra matriz que sea simetrica

y antisimetrica simultaneamente?

3. La matriz

A =

0 5 7 −6

−5 0 −4 8

−7 4 0 12

6 −8 −12 0

Page 22: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 19

es antisimetrica pues

AT =

0 −5 −7 6

5 0 4 −8

7 −4 0 −12

−6 8 12 0

= −A

4. La matriz

A =

5 −9 3 0

−9 2 −1 13

3 −1 0 7

0 13 7 −3

es simetrica ya que

AT =

5 −9 3 0

−9 2 −1 13

3 −1 0 7

0 13 7 −3

= A

Teorema 1.8. Sea A ∈Mn×n(R). Entonces

1. A es simetrica si y solo si aij = aji para cualesquiera i, j ∈ {1, . . . , n}.

2. A es antisimetrica si y solo si aij = −aji para cualesquiera i, j ∈ {1, . . . , n}.

3. Si A es antisimetrica, entonces aii = 0 para cualquiera i ∈ {1, . . . , n}.

Demostracion. ¡Ejercicio!

1.2. Operaciones Elementales por Filas

Las operaciones elementales por filas son herramientas usadas con mucha frecuencia en

la resolucion de los sistemas de ecuaciones lineales al igual que en calculo de la inversa

de una matriz cuadrada . Estas operaciones las usaremos a lo largo de todo el curso, por ello

deben ser manejadas con la mayor perfeccion posible por parte del estudiante que desee aprender

la materia. Comencemos por definir dichas operaciones.

Denotemos por Fm(R) el conjunto formado por todas las matrices reales con m filas.

Page 23: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 20

Definicion 1.11. Una operacion elemental por filas (OEF) es una funcion f : Fm(R) →Fm(R) la cual es de uno de los siguientes tipos

OEF Tipo 1. Si f(A) = B, entonces existen s ∈ {1, . . . , m} y α 6= 0 tales que B(i) = A(i)

para cada i ∈ {1, . . . , m}, con i 6= s, y ademas B(s) = αA(s), esto es, una de las filas

de A es multiplicada por un escalar no nulo y el resto de las filas permanecen iguales.

f(A) = f

A(1)

...

A(s−1)

A(s)

A(s+1)

...

A(m)

=

A(1)

...

A(s−1)

αA(s)

A(s+1)

...

A(m)

= B

Por comodidad, en lugar de escribir B = f(A), escribiremos AFs → αFs

→B.

OEF Tipo 2. Si f(A) = B, entonces existen s, t ∈ {1, . . . , m}, con s 6= t, y α ∈ R tales

que B(i) = A(i) para cada i ∈ {1, . . . , m}, con i 6= s, y ademas B(s) = A(s) + αA(t),

es decir, a una fila de A le sumamos un multiplo escalar de alguna otra fila de A,

distinta de la primera, dejando el resto de las filas intactas.

f(A) = f

A(1)

...

A(s−1)

A(s)

A(s+1)

...

A(m)

=

A(1)

...

A(s−1)

A(s) + αA(t)

A(s+1)

...

A(m)

= B

Al igual que antes, en lugar de escribir B = f(A), escribiremos AFs → Fs + αFt

→B.

OEF Tipo 3. Si f(A) = B, entonces existen s, t ∈ {1, . . . , m} tales que B(i) = A(i) para

cada i ∈ {1, . . . , m}, con i 6= s e i 6= t y ademas B(s) = A(t) y B(t) = A(s), dicho de

otra manera, intercambiamos dos filas de A y dejamos el resto sin alterar.

Page 24: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 21

f(A) = f

A(1)

...

A(s−1)

A(s)

A(s+1)

...

A(t−1)

A(t)

A(t+1)

...

A(m)

=

A(1)

...

A(s−1)

A(t)

A(s+1)

...

A(t−1)

A(s)

A(t+1)

...

A(m)

= B

Nuevamente, en lugar de escribir B = f(A), escribiremos AFs ↔ Ft

→B.

Observacion 1.13. Notese que si A ∈ Mm×n(R) y f : Fm(R)→ Fm(R) es una OEF, entonces

f(A) ∈Mm×n(R).

Ejercicio 1.3. Pruebe que toda OEF f : Fm(R) → Fm(R) es una funcion invertible y que su

inversa f−1 : Fm(R)→ Fm(R) es tambien una OEF del mismo tipo que f .

Ejemplo 1.11. Sea

A =

−2 4 −5

6 3 4

2 −1 8

−6 21 −15

Entonces

A =

−2 4 −5

6 3 4

2 −1 8

−6 21 −15

F1 ↔ F3→(OEF 3)

2 −1 8

6 3 4

−2 4 −5

−6 21 −15

F4 → 13F4→

(OEF 1)

2 −1 8

6 3 4

−2 4 −5

−2 7 −5

F3 → F3 + F1→(OEF 2)

2 −1 8

6 3 4

0 3 3

−2 7 −5

= B

Page 25: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 22

Observacion 1.14. Se pueden aplicar mas de dos operaciones por filas en un solo paso, lo unico

que debemos cuidar es no transformar, en el mismo paso, una fila mas de una vez y no

transformar, en el mismo paso, una fila que va ser usada para transformar a otra(s).

Observacion 1.15. De manera analoga a como se definieron las operaciones elementales por

filas, pueden definirse operaciones elementales por columnas (OEC), sin embargo, estas

ultimas solo se usaran para el calculo de determinantes y no para la resolucion de sistemas

de ecuaciones lineales ni para hallar la inversa de una matriz cuadrada, en estos ultimos dos

problemas solo usaremos las operaciones elementales por filas.

Definicion 1.12. Sea A = (aij)m×n ∈Mm×n(R). Diremos que A es una matriz

Escalonada

1. Si todas las filas nulas de A, si las hay, estan ubicadas en las ultimas posiciones,

esto es, si A(i) es una fila no nula de A, entonces A(s) tambien es no nula para cada

1 ≤ s < i.

2. Si A(i) y A(i+1) son dos filas no nulas de A, entonces la primera componente no nula de

A(i) (contada de izquierda a derecha) esta mas a la izquierda de la primera componente

no nula de A(i+1), es decir, si j, k ∈ {1, . . . , n} son tales que aij 6= 0; a(i+1)k 6= 0 y

ais = 0 = a(i+1)t para cada 1 ≤ s < j y cada 1 ≤ t < k, entonces j < k.

Reducida por Filas (RF)

1. Si A(i) es una fila no nula de A, entonces la primera componente no nula de A(i) es

igual a 1 (uno), dicha componente es llamada pivote, es decir, si j ∈ {1, . . . , n} es

tal que aij 6= 0 y ais = 0 para cada 1 ≤ s < j, entonces aij = 1.

2. Si A(j) es una columna de A que tiene un pivote, entonces el resto de las componentes

de A(j) son iguales a 0 (cero), esto es, si i ∈ {1, . . . , m} es tal que aij = 1 y ais = 0

para cada 1 ≤ s < j, entonces akj = 0 para cada k ∈ {1, . . . , m} con k 6= i.

Escalonada Reducida por Filas (ERF) si es escalonada y reducida por filas simultanea-

mente.

Ejemplo 1.12.

Page 26: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 23

1. Para cualesquiera m, n ∈ Z+, In y 0/m×n son matrices escalonadas reducidas por filas.

2. E =

2 −1 3 8 3

0 5 1 6 −4

0 0 0 8 −7

0 0 0 0 0

es escalonada pero no es reducida por filas.

3. R =

1 0 0 7

0 0 0 0

0 0 1 −9

0 0 0 6

0 1 0 1

es reducida por filas pero no es escalonada.

4. F =

1 0 −5 0 8

0 1 3 0 −1

0 0 0 1 −2

0 0 0 0 0

0 0 0 0 0

es escalonada reducida por filas.

Ejercicio 1.4. Sea A ∈ Mm×n(R). Pruebe que:

1. Si A es una matriz escalonada, entonces la cantidad de filas no nulas de A es, a lo sumo,

el mınimo entre m y n.

2. Si A es una matriz RF, entonces la cantidad de pivotes de A es, a lo sumo, el mınimo entre

m y n.

Ejercicio 1.5. Pruebe que si A ∈Mn×n(R) es una matriz escalonada, entonces A es triangular

superior.

Definicion 1.13. Sean A, B ∈ Mm×n(R). Diremos que B es equivalente por filas a A si

existen OEF f1, f2, . . . , fr : Fm(R)→ Fm(R) tales que B = (f1 ◦ f2 ◦ · · · ◦ fr)(A)

Ejemplo 1.13. Consideremos las matrices A y B del ejemplo 1.11. Entonces B es equivalente

por filas a A (¿por que?). �

Teorema 1.9. Sean A, B, C ∈Mm×n(R). Tenemos que

Page 27: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 24

1. A es equivalente por filas a A.

2. Si B es equivalente por filas a A, entonces A es equivalente por filas a B.

3. Si C es equivalente por filas a B y B es equivalente por filas a A, entonces C es equivalente

por filas a A.

Demostracion. ¡Ejercicio!

Observacion 1.16. La parte 2 del teorema 1.9, nos permite decir A y B son equivalentes por

filas en lugar de B es equivalente por filas a A o A es equivalente por filas a B.

Teorema 1.10. Toda matriz A ∈Mm×n(R) es equivalente por filas a

1. Una matriz escalonada.

2. Una matriz reducida por filas.

3. Una unica matriz escalonada reducida por filas, la cual llamaremos la forma escalonada

reducida por filas (FERF) de A.

Demostracion. Ver apendice D

Observacion 1.17. A ∈Mn×n(R) es equivalente por filas a In si y solo si In es la FERF de A.

El siguiente ejemplo ilustra el procedimiento a seguir para hallar la FERF de una matriz.

Ejemplo 1.14. Hallar la FERF de

A =

6 −1 −15 2 13

−1 0 2 −1 −3

0 −3 −9 0 9

7 1 −11 3 10

Solucion.

A =

6 −1 −15 2 13

−1 0 2 −1 −3

0 −3 −9 0 9

7 1 −11 3 10

F1 ↔ F2→

−1 0 2 −1 −3

6 −1 −15 2 13

0 −3 −9 0 9

7 1 −11 3 10

Page 28: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 25

F1 → −F1→

1 0 −2 1 3

6 −1 −15 2 13

0 −3 −9 0 9

7 1 −11 3 10

F2 → F2 − 6F1→F4 → F4 − 7F1

1 0 −2 1 3

0 −1 −3 −4 −5

0 −3 −9 0 9

0 1 3 −4 −11

F2 → −F2→

1 0 −2 1 3

0 1 3 4 5

0 −3 −9 0 9

0 1 3 −4 −11

F3 → F3 + 3F2→F4 → F4 − F2

1 0 −2 1 3

0 1 3 4 5

0 0 0 12 24

0 0 0 −8 −16

F3 → 112

F3→

1 0 −2 1 3

0 1 3 4 5

0 0 0 1 2

0 0 0 −8 −16

F1 → F1 − F3

F2 → F2 − 4F3→F4 → F4 + 8F3

1 0 −2 0 1

0 1 3 0 −3

0 0 0 1 2

0 0 0 0 0

Ası que la FERF de A es

C =

1 0 −2 0 1

0 1 3 0 −3

0 0 0 1 2

0 0 0 0 0

Definicion 1.14. Una matriz E ∈ Mn×n(R) es llamada matriz elemental si existe una OEF

f : Fn(R)→ Fn(R) tal que E = f(In), es decir, E se obtiene de In por medio de una unica OEF.

Ejemplo 1.15.

1. E1 =

1 0 0 0

0 1 0 0

−5 0 1 0

0 0 0 1

es elemental, pues

I4 =

1 0 0 0

0 1 0 0

0 0 1 0

0 0 0 1

F3 → F3 − 5F1→

1 0 0 0

0 1 0 0

−5 0 1 0

0 0 0 1

= E1

Page 29: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 26

2. E2 =

1 0 0

0 4 0

0 0 1

es elemental, ya que

I3 =

1 0 0

0 1 0

0 0 1

F2 → 4F2→

1 0 0

0 4 0

0 0 1

= E2

3. E3 =

1 0 0 0 0

0 0 0 0 1

0 0 1 0 0

0 0 0 1 0

0 1 0 0 0

es elemental, dado que

I5 =

1 0 0 0 0

0 1 0 0 0

0 0 1 0 0

0 0 0 1 0

0 0 0 0 1

F2 ↔ F5→

1 0 0 0 0

0 0 0 0 1

0 0 1 0 0

0 0 0 1 0

0 1 0 0 0

= E3

Teorema 1.11. Sean A ∈Mm×n(R), B ∈Mn×p(R) y f : Fm(R)→ Fm(R) una OEF. Entonces

1. f(AB) = f(A)B.

2. (f(A))(j) = f(A(j)

)para cada j ∈ {1, . . . , n} de donde

f(A) =[f(A(1)

)f(A(2)

)· · · f

(A(n)

)]

es decir, la fila j-esima de f(A) es igual a f aplicada a la j-esima fila de A.

Demostracion. Ver apendice D.

Como una consecuencia directa de este teorema tenemos el siguiente resultado.

Corolario 1.12. Si A ∈Mm×n(R), B ∈Mn×p(R) y f, f1, f2, . . . , fr : Fm(R)→ Fm(R) son OEF,

entonces

Page 30: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 27

1. f(A) = f(Im)A.

2. (f1 ◦ f2 ◦ · · · ◦ fr)(AB) = (f1 ◦ f2 ◦ · · · ◦ fr)(A)B.

3. ((f1 ◦ f2 ◦ · · · ◦ fr)(A))(j) = (f1 ◦ f2 ◦ · · · ◦ fr)(A(j)

)para cada j ∈ {1, . . . , m}.

Demostracion. ¡Ejercicio!

Otra consecuencia del mismo teorema, en conjuncion con el corolario anterior, es la siguiente.

Corolario 1.13. Sean A, B ∈ Mm×n(R) dos matrices equivalentes por filas. Entonces existen

matrices elementales E1, E2, . . . , Er ∈Mm×m(R) tales que B = E1E2 · · ·ErA

Demostracion. ¡Ejercicio!

1.3. Sistemas de Ecuaciones Lineales

La presente seccion esta muy relacionada con las OEF y las matrices, y es quizas, junto con la

seccion anterior, la mas importante del presente capıtulo.

Definicion 1.15. Un sistema de ecuaciones lineales con m ecuaciones y n incognitas es

un conjunto de ecuaciones de la forma

a11x1 + a12x2 + · · ·+ a1nxn = b1

a21x1 + a22x2 + · · ·+ a2nxn = b2

......

......

...

am1x1 + am2x2 + · · ·+ amnxn = bm

(1.4)

donde x1, x2, . . . , xn son las incognitas del sistema 1.4 y toman valores en R; aij ∈ R son

numeros fijos para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n} y los llamaremos coeficientes del

sistema 1.4 y b1, b2, . . . , bm ∈ R son fijos y son los terminos independientes del sistema 1.4.

Si b1 = b2 = · · · = bm = 0, diremos que el sistema 1.4 es homogeneo, en caso contrario

diremos que es no homogeneo.

Cuando m = n, se dice que el sistema 1.4 es un sistema cuadrado.

Page 31: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 28

Si hacemos

A = (aij)m×n =

a11 a12 · · · a1n

a21 a22 · · · a2n

......

...

am1 am2 · · · amn

; b =

b1

b2

...

bm

y x =

x1

x2

...

xn

,

el sistema 1.4 puede escribirse como la ecuacion matricial Ax = b (¡verifıquelo!), que llamare-

mos representacion matricial del sistema 1.4. La matriz A es llamada matriz de coefi-

cientes o matriz del sistema 1.4, la matriz

[A|b] =

a11 a12 · · · a1n b1

a21 a22 · · · a2n b2

......

......

am1 am2 · · · amn bm

es llamada matriz ampliada del sistema 1.4, x se conoce con el nombre de matriz incognita

o matriz de incognitas y b es conocida como matriz de terminos independientes.

El sistema

a11x1 + a12x2 + · · ·+ a1nxn = 0

a21x1 + a22x2 + · · ·+ a2nxn = 0...

......

......

am1x1 + am2x2 + · · ·+ amnxn = 0

(1.5)

es llamado sistema homogeneo asociado al sistema 1.4.

Diremos que c1, c2, . . . , cn es una solucion del sistema 1.4 si al sustituir x1 = c1, x2 =

c2, . . . , xn = cn en 1.4, las igualdades son satisfechas.

Se dice que el sistema 1.4 es

Inconsistente si no tiene solucion alguna.

Consistente si tiene al menos una solucion, cuando tiene una unica solucion, se dice que

es consistente determinado, si tiene mas de una solucion, se dice que es consistente

indeterminado.

Observacion 1.18. En general, no haremos diferencia al referirnos al sistema y a su repre-

sentacion matricial.

Page 32: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 29

Observacion 1.19. Todo sistema homogeneo Ax = 0/m×1 es consistente, x = 0/n×1 es solucion

de este, la cual es llamada solucion trivial.

Observacion 1.20. Es claro si A ∈Mm×n(R) y x =

x1

x2

...

xn

∈ Mn×1(R), entonces

Ax = x1A(1) + x2A

(2) + · · ·+ xnA(n)

Ejemplo 1.16.

1.

{3x1 +2x2 −6x3 = 0

−x1 +5x2 −7x3 = 4

es un sistema de ecuaciones lineales de dos ecuaciones y tres incognitas, es no homogeneo,

su representacion matricial es

[3 2 −6

−1 5 −7

]

x1

x2

x3

=

[0

4

]

La matriz es y la matriz ampliada del sistema son, respectivamente

[3 2 −6

−1 5 −7

]y

[3 2 −6 0

−1 5 −7 4

]

las matrices incognitas y de terminos independientes son, respectivamente

x1

x2

x3

y

[0

4

]

2.

6x −2y +9z = 1

−5x +12y −3z = −2

x 6z = 6

es un sistema de ecuaciones lineales cuadrado con tres ecuaciones y tres incognitas, es no

homogeneo y su representacion matricial es

Page 33: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 30

6 −2 9

−5 12 −3

1 0 6

x

y

z

=

1

−2

6

El sistema homogeneo asociado a este sistema es

6x −2y +9z = 0

−5x +12y −3z = 0

x 6z = 0

Una pregunta que surge de manera inmediata es ¿como garantizar que un sistema de ecuaciones

lineales es consistente o inconsistente? y en caso de que sea consistente ¿como resolver dicho

sistema? Haremos uso de las matrices y las OEF para responder ambas preguntas, pero antes

daremos las bases teoricas que nos permitan usar dichas herramientas.

Teorema 1.14. Sean Ax = b y Cx = d las representaciones matriciales de dos sistemas de

ecuaciones lineales con m ecuaciones y n incognitas. Supongamos que las matrices [A|b] y [C|d]

son equivalentes por filas. Entonces ambos sistemas tienen exactamente las mismas soluciones o

ninguno tiene solucion.

Demostracion. Dado que las matrices [A|b] y [C|d] son equivalentes por filas, entonces existen

OEF f1, f2, . . . , fr : Fm(R)→ Fm(R) tales que

(f1 ◦ f2 ◦ · · · ◦ fr)([A|b]) = [C|d]

por la parte 3 del corolario 1.12

(f1 ◦ f2 ◦ · · · ◦ fr)(A) = C y (f1 ◦ f2 ◦ · · · ◦ fr)(b) = d

y por la parte 2 del mismo corolario, tenemos que

(f1 ◦ f2 ◦ · · · ◦ fr)(Ax) = (f1 ◦ f2 ◦ · · · ◦ fr)(A)x

Ası que, si Ax = b, entonces

Cx = (f1 ◦ f2 ◦ · · · ◦ fr)(A)x = (f1 ◦ f2 ◦ · · · ◦ fr)(Ax) = (f1 ◦ f2 ◦ · · · ◦ fr)(b) = d

Page 34: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 31

Ademas, en virtud del ejercicio 1.3, f1, f2, . . . , fr son invertibles y f−11 , f−1

2 , . . . , f−1r son tambien

OEF sobre Fm(R), luego, si Cx = d, entonces

Ax = (f1 ◦ f2 ◦ · · · ◦ fr)−1(C)x = (f−1

r ◦ · · · ◦ f−12 ◦ f−1

1 )(C)x

= (f−1r ◦ · · · ◦ f−1

2 ◦ f−11 )(Cx) = (f−1

r ◦ · · · ◦ f−12 ◦ f−1

1 )(d) = (f1 ◦ f2 ◦ · · · ◦ fr)−1(d) = b

Por lo tanto Ax = b si y solo si Cx = d, en consecuencia, o ambos sistemas son inconsistentes o

ambos tienen la(s) misma(s) solucion(es).

Observacion 1.21. Cuando la matriz del sistema es una matriz ERF, es facil decidir si el

sistema es o no consistente, y en caso de serlo, es sencillo hallar la(s) solucion(es) de este. La

idea es hallar la FERF de la matriz ampliada del sistema, y en virtud del teorema 1.14, resolver,

de manera sencilla, el sistema dado.

Corolario 1.15. Sean A, C ∈ Mm×n(R) y b, d ∈ Mm×1(R) tales que [C|d] es la FERF de [A|b].El sistema Ax = b tiene solucion si y solo si el numero de filas no nulas de [C|d] es igual al

numero de filas no nulas de C.

Demostracion. ¡Ejercicio!

Ejemplo 1.17. Decidir cual de los siguientes sistemas son consistentes y cuales no, en caso de

serlo, mostrar su(s) solucion(es).

1.

2x +y −z = 1

2x −y +5z = 5

−y +3z = 2

2.

2x +y −z = 2

x −2y +4z = −3

5x −4y +8z = −9

−y +3z = 2

3.

x +y −2z +w = 1

4x +2y +2z = −2

2y −10z +3w = 3

Page 35: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 32

4.

x +y −2z +w = 1

4x +2y +2z = −2

2y −10z +4w = 3

Solucion.

1. La matriz ampliada del sistema es

2 1 −1 1

2 −1 5 5

0 −1 3 2

Hallemos su FERF

2 1 −1 1

2 −1 5 5

0 −1 3 2

F1 → 1

2F1→

1 12−1

212

2 −1 5 5

0 −1 3 2

F2 → F2 − 2F1→

1 12−1

212

0 −2 6 4

0 −1 3 2

F1 → −12F1→

1 12−1

212

0 1 −3 −2

0 −1 3 2

F1 → F1 − 12F2→

F3 → F3 + F2

1 0 1 32

0 1 −3 −2

0 0 0 0

La ultima fila de esta ultima matriz equivale a la ecuacion 0 · x + 0 · y + 0 · z = 0, que no

aporta nada a la solucion. Ası que el sistema dado es equivalente al sistema

{x +z = 3

2

y −3z = −2

que a su vez equivale a {x = −z + 3

2

y = 3z − 2

Luego el sistema dado es consistente indeterminado. Haciendo z = α, con α ∈ R, obtenemos

x = −α +3

2; y = 3α− 2

En consecuencia la solucion del sistema dado viene dada por

x = −α +3

2; y = 3α− 2; z = α; con α ∈ R

Page 36: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 33

o bien

x

y

z

=

−α +32

3α −2

α

= α

−1

3

1

+

32

−2

0

; con α ∈ R

2. En este caso la matriz del sistema es

2 1 −1 2

1 −2 4 −3

5 −4 8 −9

0 −1 3 2

Vamos a hallar su FERF

2 1 −1 2

1 −2 4 −3

5 −4 8 −9

0 −1 3 2

F1 ↔ F2→

1 −2 4 −3

2 1 −1 2

5 −4 8 −9

0 −1 3 2

F2 → F2 − 2F1→F3 → F3 − 5F1

1 −2 4 −3

0 5 −9 8

0 6 −12 6

0 −1 3 2

F2 ↔ F4→

1 −2 4 −3

0 −1 3 2

0 6 −12 6

0 5 −9 8

F2 → −F2→

1 −2 4 −3

0 1 −3 −2

0 6 −12 6

0 5 −9 8

F1 → F1 + 2F2→F3 → F3 − 6F2

F4 → F4 − 5F2

1 0 −2 −7

0 1 −3 −2

0 0 6 18

0 0 6 18

F3 → 16F3→

1 0 −2 −7

0 1 −3 −2

0 0 1 3

0 0 6 18

F1 → F1 + 2F3→F2 → F2 + 3F3

F4 → F4 − 6F3

1 0 0 −1

0 1 0 7

0 0 1 3

0 0 0 0

Luego, el sistema dado es equivalente al sistema

x = −1

y = 7

z = 3

Page 37: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 34

Por lo tanto el sistema es consistente determinado y su solucion es

x = −1; y = 7; z = 3

o bien

x

y

z

=

−1

7

3

3. Hallemos la FERF de la matriz ampliada del sistema que es

1 1 −2 1 1

4 2 2 0 −2

0 2 −10 3 3

1 1 −2 1 1

4 2 2 0 −2

0 2 −10 3 3

F2 → F2 − 4F1→

1 1 −2 1 1

0 −2 10 −4 −6

0 2 −10 3 3

F2 → −12F2→

1 1 −2 1 1

0 1 −5 2 3

0 2 −10 3 3

F1 → F1 − F2→F3 → F3 − 2F2

1 0 3 −1 −2

0 1 −5 2 3

0 0 0 −1 −3

F3 → −F3→

1 0 3 −1 −2

0 1 −5 2 3

0 0 0 1 3

F1 → F1 + F3→F2 → F2 − 2F3

1 0 3 0 1

0 1 −5 0 −3

0 0 0 1 3

En consecuencia el sistema dado es equivalente al sistema

x +3z = 1

y −5z = −3

w = 3

o equivalentemente

x = −3z + 1

y = 5z − 3

w = 3

Page 38: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 35

Por lo tanto el sistema original es consistente indeterminado. Haciendo z = α, con α ∈ R,

tenemos que la solucion del sistema es

x

y

z

w

=

−3α +1

5α −3

α

3

= α

−3

5

1

0

+

1

−3

0

3

; con α ∈ R

4. Hallemos la FERF de la matriz

1 1 −2 1 1

4 2 2 0 −2

0 2 −10 4 3

que es la matriz ampliada del sistema

1 1 −2 1 1

4 2 2 0 −2

0 2 −10 4 3

F2 → F2 − 4F1→

1 1 −2 1 1

0 −2 10 −4 −6

0 2 −10 4 3

F3 → F3 + F2→

1 1 −2 1 1

0 −2 10 −4 −6

0 0 0 0 −3

Sin necesidad de llegar a la FERF de la matriz, vemos que la ultima fila de esta ultima

matriz equivale a la ecuacion

0 · x + 0 · y + 0 · z + 0 · w = −3

la cual es contradictoria, en consecuencia, el sistema original es inconsistente.

Teorema 1.16. El sistema homogeneo Ax = 0/m×1, con A ∈Mm×n(R), tiene infinitas soluciones

si m < n, esto es, si el sistema homogeneo Ax = 0/m×1 tiene mas incognitas que ecuaciones,

entonces es consistente indeterminado.

Demostracion. ¡Ejercicio!

Page 39: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 36

Teorema 1.17. Sea A ∈ Mm×n(R). Supongamos que x1, x2 ∈ Mn×1(R) son soluciones del

sistema homogeneo Ax = 0/m×1. Entonces, para cada α ∈ R, se tiene que x1 + x2 y αx1 son

tambien soluciones del sistema.

Demostracion. ¡Ejercicio!

Teorema 1.18. Sean A ∈ Mm×n(R) y b ∈ Mm×1(R). Supongamos que xp es una solucion del

sistema Ax = b. Entonces, para cada solucion xg del sistema Ax = b, existe una solucion xh de

Ax = 0/m×1 tal que xg = xh + xp.

Demostracion. Dado que xp es solucion del sistema Ax = b, tenemos que Axp = b.

Sea xg una solucion cualquiera de Ax = b. Entonces Axg = b. Definamos xh = xg − xp. Ası que

Axh = A(xg − xp) = Axg − Axp = b− b = 0/m×1

es decir, xp es solucion del sistema homogeneo Ax = 0/m×1 y ademas xg = xh + xp.

Ejemplo 1.18. Para el sistema de la parte 1 del ejemplo 1.17 tenemos que

xp =

32

−2

0

; xh = α

−1

3

1

; con α ∈ R

Para el sistema de la parte 2 del mismo ejemplo, se tiene que

xp =

−1

7

3

; xh =

0

0

0

Notese que en este caso xg = xp.

Finalmente, para el sistema de la parte 3 del ejemplo en cuestion

xp =

1

−3

0

3

; xh = α

−3

5

1

0

; con α ∈ R

Ejercicio 1.6. Sea A ∈ Mm×n(R). Pruebe que si el sistema Ax = b tiene solucion para cada

b ∈Mm×1(R), entonces m ≤ n.

Page 40: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 37

1.4. Inversa de una Matriz Cuadrada

En la presente seccion, presentaremos un breve estudio sobre las matrices invertibles y

sus aplicaciones en la resolucion de los sistemas de ecuaciones, cabe destacar que se pueden

definir inversas laterales de matrices no cuadradas, sin embargo, solo estudiaremos el caso de

matrices cuadradas.

Definicion 1.16. sea A ∈ Mn×n(R). diremos que A es invertible si existe una matriz B ∈Mn×n(R) tal que

AB = In = BA

Cualquier matriz B que satisfaga las igualdades anteriores es llamada inversa de A.

Ejemplo 1.19. Si A =

[2 −2

−3 4

], entonces B =

[2 1

32

1

]es una inversa de A ya que

AB =

[2 −2

−3 4

][2 1

32

1

]=

[4− 3 2− 2

3− 3 −3 + 4

]=

[1 0

0 1

]= I2

AB =

[2 1

32

1

][2 −2

−3 4

]=

[4− 3 −4 + 4

3− 3 −3 + 4

]=

[1 0

0 1

]= I2

Teorema 1.19. Si A ∈ Mn×n(R) es invertible, entonces A tiene solo una inversa, es decir,

existe una unica matriz B ∈Mn×n(R) tal que AB = In = BA, tal matriz es denotada por A−1.

Demostracion. Supongamos que A ∈Mn×n(R) es invertible y que B, C ∈ Mn×n(R) son inver-

sas de A. Entonces

AB = In = BA (1.6)

AC = In = CA (1.7)

Luego

C = CIn (por la parte 5 del teorema 1.6)

= C(AB) (por la ecuacion 1.6)

= (CA)B (por la parte 1 del teorema 1.6)

= InB (por la ecuacion 1.7)

= B (por la parte 5 del teorema 1.6)

Page 41: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 38

Teorema 1.20. Sean A, B ∈Mn×n(R) dos matrices invertibles y α ∈ R con α 6= 0. Entonces

1. A−1 es invertible y (A−1)−1

= A (propiedad involutiva de la inversa)

2. AB es invertible y (AB)−1 = B−1A−1 (inversa del producto matricial)

3. αA es invertible y (αA)−1 = α−1A−1 (inversa del multiplo escalar)

4. AT es invertible y(AT)−1

= (A−1)T

(inversa de la transpuesta)

Demostracion.

1. Se deduce directamente de la definicion de matriz invertible.

2. En primer lugar

(AB)(B−1A−1) = ABB−1A−1 (teorema 1.6 parte 1)

= A(BB−1)A−1 (teorema 1.6 parte 1)

= AInA−1 (definicion de matriz inversa)

= (AIn)A−1 (teorema 1.6 parte 1)

= AA−1 (teorema 1.6 parte 5)

= In (definicion de matriz inversa)

Ademas

(B−1A−1)(AB) = B−1A−1AB (teorema 1.6 parte 1)

= B−1(A−1A)B (teorema 1.6 parte 1)

= B−1InB (definicion de matriz inversa)

= (B−1In)B (teorema 1.6 parte 1)

= B−1B (teorema 1.6 parte 5)

= In (definicion de matriz inversa)

Luego, por el teorema 1.19, tenemos que AB es invertible y (AB)−1 = B−1A−1.

Page 42: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 39

3. Veamos

(αA)(α−1A−1) = (α−1(αA))A−1 (teorema 1.6 parte 4)

= ((α−1α)A)A−1 (teorema 1.2 parte 7)

= (1 ·A)A−1

= AA−1 (teorema 1.2 parte 8)

= In (definicion de matriz inversa)

Analogamente, se prueba que (α−1A−1)(αA) = In. Nuevamente, usando el teorema 1.19,

se tiene que αA es invertible y (αA)−1 = α−1A−1.

4. Por un lado

AT (A−1)T = (A−1A)T (teorema 1.7 parte 4)

= (In)T (definicion de matriz inversa)

= In (teorema 1.7 parte 5)

Por otro lado

(A−1)T AT = (AA−1)T (teorema 1.7 parte 4)

= (In)T (definicion de matriz inversa)

= In (teorema 1.7 parte 5)

Por lo tanto, haciendo uso del teorema 1.19, se tiene que AT es invertible y(AT)−1

=

(A−1)T.

Teorema 1.21. Toda matriz elemental es invertible y su inversa es tambien una matriz elemen-

tal.

Demostracion. Sea E ∈Mn×n(R) una matriz elemental. Entonces existe una OEF f : Fn(R)→Fn(R) tal que E = f(In). El ejercicio 1.3 garantiza que f es invertible y su inversa f−1 es tambien

una OEF sobre Fn(R), ası que F = f−1(In) es una matriz elemental, ademas

EF = f(In)f−1(In)

= f(f−1(In)) (corolario 1.12 parte 1)

= In

Page 43: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 40

y

FE = f−1(In)f(In)

= f−1(f(In)) (corolario 1.12 parte 1)

= In

Luego, E es invertible y E−1 = F , es decir, (f(In))−1 = f−1(In).

Ahora bien ¿como saber si una matriz cuadrada A es o no invertible? y en caso de que lo

sea ¿como hallar A−1? Estas dos preguntas pueden ser respondidas mediante un procedimiento

unico. Daremos un ejemplo sencillo que ilustrara tal procedimiento.

Ejemplo 1.20. En cada uno de los siguientes casos decidir si A es o no invertible, en caso

afirmativo, hallar A−1.

1. A =

[2 −2

−3 4

]

2. A =

[2 −8

−3 12

]

Solucion.

1. Supongamos que A es invertible y sea

B =

[x y

z w

]

tal que AB = I2, ası que

A

[x

z

]=

[1

0

]y A

[y

w

]=

[0

1

]

como la matriz de ambos sistemas es la misma, a saber A, podemos resolverlos de manera

simultanea considerando la siguiente matriz 2 veces ampliada

[A|I2] =

[2 −2 1 0

−3 4 0 1

]

Page 44: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 41

Al hallar la FERF de esta matriz, las tercera y cuarta columnas nos daran, respectivamente,

las soluciones del primer y segundo sistema, si existen, que a su vez nos daran, respecti-

vamente, las primera y segunda columnas de B, si existe. Hallemos entonces la FERF de

esta matriz.

[A|I2] =

[2 −2 1 0

−3 4 0 1

]F1 → 1

2F1→

[1 −1 1

20

−3 4 0 1

]

F2 → F2 + 3F1→

[1 −1 1

20

0 1 32

1

]F1 → F1 + F2→

[1 0 2 1

0 1 32

1

]

Por lo tanto

B =

[2 1

32

1

]

El lector puede verificar que BA = I2, por lo tanto, A es invertible y

A−1 = B =

[2 1

32

1

]

Comparar este resultado con el ejemplo 1.20.

2. Como en el caso anterior, supongamos que existe

B =

[x y

z w

]

tal que AB = I2, al igual que antes, hallemos la FERF de la matriz [A|I2]

[A|I2] =

[2 −8 1 0

−3 12 0 1

]F1 → 1

2F1→

[1 −4 1

20

−3 12 0 1

]

F2 → F2 + 3F1→

[1 −1 1

20

0 0 32

1

]

La ultima fila de esta ultima matriz equivale a las ecuaciones

0 · x + 0 · z =3

20 · y + 0 · w = 1

Por lo tanto, no existe matriz B tal que AB = I2, en consecuencia, A no es invertible.

Page 45: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 42

Estos dos ejemplos, como dijimos antes, ilustran el procedimiento general para decidir si una

matriz cuadrada A es o no invertible, ademas, en caso afirmativo, nos permite hallar A−1.

Algoritmo para decidir si una matriz A ∈ Mn×n(R) es o no invertible, y en caso

afirmativo mostrar la matriz A−1.

Paso 1. Formar la matriz ampliada [A|In].

Paso 2. Hallar la FERF de la matriz en el paso previo.

Paso 3. Si la matriz en el paso previo es [In|B], entonces A es invertible y A−1 = B, sino

A no es invertible.

Ejemplo 1.21. Decidir si la matriz

A =

2 0 3 1

−1 1 1 3

1 −1 2 −2

0 1 −1 2

es invertible o no, en caso afirmativo, hallar A−1.

Solucion.

2 0 3 1 1 0 0 0

−1 1 1 3 0 1 0 0

1 −1 2 −2 0 0 1 0

0 1 −1 2 0 0 0 1

F1 ↔ F3→

1 −1 2 −2 0 0 1 0

−1 1 1 3 0 1 0 0

2 0 3 1 1 0 0 0

0 1 −1 2 0 0 0 1

F2 → F2 + F1→F3 → F3 − 2F1

1 −1 2 −2 0 0 1 0

0 0 3 1 0 1 1 0

0 2 −1 5 1 0 −2 0

0 1 −1 2 0 0 0 1

F2 ↔ F4→

1 −1 2 −2 0 0 1 0

0 1 −1 2 0 0 0 1

0 2 −1 5 1 0 −2 0

0 0 3 1 0 1 1 0

Page 46: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 43

F1 → F1 + F2→F3 → F3 + 2F2

1 0 1 0 0 0 1 1

0 1 −1 2 0 0 0 1

0 0 1 1 1 0 −2 −2

0 0 3 1 0 1 1 0

F1 → F1 − F3→F2 → F2 + F3

F4 → F4 − 3F3

1 0 0 −1 −1 0 3 3

0 1 0 3 1 0 −2 −1

0 0 1 1 1 0 −2 −2

0 0 0 −2 −3 1 7 6

F4 → −12F4→

1 0 0 −1 −1 0 3 3

0 1 0 3 1 0 −2 −1

0 0 1 1 1 0 −2 −2

0 0 0 1 32−1

2−7

2−3

F1 → F1 + F4→F2 → F2 − 3F4

F3 → F3 − F4

1 0 0 0 12−1

2−1

20

0 1 0 0 −72

32

172

8

0 0 1 0 −12

12

32

1

0 0 0 1 32−1

2−7

2−3

Luego A es invertible y

A−1 =

12−1

2−1

20

−72

32

172

8

−12

12

32

1

32−1

2−7

2−3

=1

2

1 −1 −1 0

−7 3 17 16

−1 1 3 2

3 −1 −7 −6

El siguiente teorema nos sera muy util a la hora de saber si una matriz es o no invertible.

Teorema 1.22. Sea A ∈Mn×n(R). Entonces las siguientes proposiciones son equivalentes.

1. A es invertible.

2. El sistema Ax = b tiene una unica solucion para cada b ∈Mn×1(R).

3. El sistema homogeneo Ax = 0/n×1 tiene como unica solucion la trivial.

4. A es equivalente por filas a In.

Page 47: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 44

5. Existen matrices elementales E1, E2, . . . , Er ∈Mn×n(R) tales que A = E1E2 · · ·Er.

Demostracion.

(1.⇒ 2.) Supongamos que A es invertible. Entonces, por definicion de matriz inversa, existe

A−1 ∈Mn×n(R) tal que AA−1 = In = A−1A

Sean b ∈Mn×1(R) cualquiera y x0 ∈Mn×1(R) una solucion del sistema Ax = b. Entonces

x0 = Inx0 (teorema 1.6 parte 5)

= (A−1A)x0 (por definicion de inversa)

= A−1(Ax0) (teorema 1.6 parte 1)

= A−1b (pues x0 es solucion del sistema Ax = b)

Ası que el sistema Ax = b tiene como unica solucion x0 = A−1b.

(2.⇒ 3.) Supongamos que el sistema Ax = b tiene una unica solucion para cada b ∈ Mn×1(R).

Entonces el sistema homogeneo Ax = 0/n×1 tiene una unica solucion, pero sabemos que

x = 0/n×1 es solucion de este sistema (observacion 1.19), ası que la unica solucion de dicho

sistema es la solucion trivial.

(3.⇒ 4.) Supongamos que el sistema homogoneo Ax = 0/n×1 tiene como unica solucion la trivial.

Procederemos por reduccion al absurdo. Supongamos que A no es equivalente por filas a

In. Por lo tanto, usando la observacion 1.17, si CA es la FERF de A, entonces CA debe

tener alguna fila nula (¿por que?), la cual debe estar ubicada en la ultima posicion pues

CA es escalonada reducida por filas, esta fila equivale a la ecuacion

0 · x1 + 0 · x2 + · · ·+ 0 · xn = 0

donde

x =

x1

x2

...

xn

y en consecuencia no aporta ninguna informacion a la solucion del sistema Ax = 0/n×1.

Definamos DA ∈ M(n−1)×n(R) la matriz que se obtiene al eliminar la ultima fila de CA.

Luego el sistema homogeneo Ax = 0/n×1 es equivalente al sistema homogeneo DAx = 0/(n−1)×1

Page 48: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 45

el cual, en virtud del teorema 1.16, tiene infinitas soluciones, de donde, el sistema Ax = 0/n×1

tiene infinitas soluciones, lo cual contradice la hipotesis, por lo tanto A es equivalente por

filas a In.

(4.⇒ 5.) Supongamos que A es equivalente por filas a In. Entonces existen OEF f1, f2, . . . , fr :

Fn(R)→ Fn(R) tales que

A = (f1 ◦ f2 ◦ · · · ◦ fr)(In)

Luego, usando recursivamente el corolario 1.12 partes 1 y 2, tenemos que

A = f1(In)f2(In) · · ·fr(In)

Ası que la matriz Ei = fi(In) es elemental para cada i ∈ {1, . . . , r} y ademas

A = E1E2 · · ·Er

(5.⇒ 1.) Supongamos que A = E1E2 · · ·Er donde E1, E2, . . . , Er ∈ Mn×n(R) son matrices ele-

mentales. Dado que toda matriz elemental es invertible (teorema 1.21) y usando recursiva-

mente la parte 2 del teorema 1.20, se tiene que A es invertible.

Lo cual concluye la prueba.

Teorema 1.23. Sean A, B ∈ Mn×n(R). Si AB = In, entonces BA = In; y en consecuencia

A−1 = B.

Demostracion. Supongamos que AB = In. Sea xh una solucion del sistema homogeneo Bx =

0/n×1. Entonces

Bxh = 0/n×1 (1.8)

Luego

xh = Inxh (teorema 1.6 parte 5)

= (AB)xh (por hipotesis)

= A(Bxh) (teorema 1.6 parte 1)

= A 0/n×1 (por ecuacion 1.8)

= 0/n×1 (teorema 1.6 parte 6)

Page 49: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 46

Ası que la unica solucion del sistema homogeneo Bx = 0/n×1 es la trivial, y en virtud del teorema

1.22, B es invertible. Ademas

A = AIn (teorema 1.6 parte 5)

= A(BB−1) (definicion de matriz inversa)

= (AB)B−1 (teorema 1.6 parte 1)

= InB−1 (por hipotesis)

= B−1 (teorema 1.6 parte 5)

Por lo tanto BA = In (definicion de inversa) y como consecuencia de la parte 1 del teorema 1.20

A−1 = (B−1)−1 = B.

Observacion 1.22. El teorema 1.23 nos permite garantizar que A−1 = B solo con probar que

AB = In o BA = In.

Ejercicio 1.7. Sean A, B ∈Mn×n(R). Pruebe que si AB es invertible, entonces A y B tambien

son invertibles

1.5. Determinantes. Propiedades de los Determinantes

En esta seccion trataremos los determinantes y algunas de sus propiedades, en primer lugar

definiremos los determinantes de orden 2, continuando luego con los determinantes de

orden 3, para finalmente definir los determinantes de orden n.

Definicion 1.17. Sea A =

[a11 a12

a21 a22

]∈M2×2(R). Definiremos el determinante de A, como

el numero real det(A) = |A|, dado por

det(A) = |A| =∣∣∣∣∣

a11 a12

a21 a22

∣∣∣∣∣ = a11a22 − a12a21

este tipo de determinante se suele llamar determinante de orden 2.

Ejemplo 1.22. Hallar det(A) para A =

[−6 5

−7 6

]

Page 50: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 47

Solucion. det(A) =

∣∣∣∣∣−6 5

−7 6

∣∣∣∣∣ = (−6)6− 5(−7) = −36 + 35 = −1

Ejercicio 1.8. Pruebe que A =

[a11 a12

a21 a22

]∈ M2×2(R) es invertible si y solo si det(A) 6= 0.

Ademas, si A es invertible, entonces A−1 =1

det(A)

[a22 −a12

−a21 a11

]

Definicion 1.18. Dada la matriz

A =

a11 a12 a13

a21 a22 a23

a31 a32 a33

∈M3×3(R)

Definiremos el determinante de A, denotado por det(A) o |A|, como

det(A) = |A| =

∣∣∣∣∣∣∣∣

a11 a12 a13

a21 a22 a23

a31 a32 a33

∣∣∣∣∣∣∣∣= a11

∣∣∣∣∣a22 a23

a32 a33

∣∣∣∣∣− a12

∣∣∣∣∣a21 a23

a31 a33

∣∣∣∣∣+ a13

∣∣∣∣∣a21 a22

a31 a32

∣∣∣∣∣

este tipo de determinante es llamado determinante de orden 3.

Observacion 1.23. Notese que estamos definiendo el determinante de orden 3 en funcion de

determinantes de orden 2.

Ejemplo 1.23. Hallar det(A) para A =

2 −3 −1

−6 1 5

−7 0 6

Solucion.

det(A) = |A| =

∣∣∣∣∣∣∣∣

2 −3 −1

−6 1 5

−7 0 6

∣∣∣∣∣∣∣∣= 2

∣∣∣∣∣1 5

0 6

∣∣∣∣∣− (−3)

∣∣∣∣∣−6 5

−7 6

∣∣∣∣∣ + (−1)

∣∣∣∣∣−6 1

−7 0

∣∣∣∣∣

= 2(6− 0) + 3(−36 + 35)− (0 + 7) = 2

Page 51: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 48

Observacion 1.24. Una forma muy sencilla recordar la formula de determinantes de orden 3

es la siguiente∣∣∣∣∣∣∣∣∣∣∣∣∣∣

a11 a12 a13

ց ւa21 a22 a23

ցւ ցւa31 a32 a33

∣∣∣∣∣∣∣∣∣∣∣∣∣∣

= a11a22a33 + a21a32a13 + a31a12a23

− a13a22a31 − a23a32a11 − a33a12a21

ցւ ցւa11 a12 a13

ւ ցa21 a22 a23

←{

no es parte del determinante, es solo para

ayudar a recordar la formula

Los productos generados por las flechas rojas (ց) se colocan con signo positivo, los que son

generados por las flechas azules (ւ) se colocan con signo negativo.

Puede verificar que la igualdad anterior es cierta. Tambien se puede hacer el calculo si en lugar

de colocar las dos primeras filas al final, se colocan las dos ultimas filas en la parte superior, las

dos primeras columnas a la derecha o las dos ultimas columnas a la izquierda.

Este metodo se conoce como la metodo de Sarrus para el calculo de determinantes de orden

3 y solo es aplicable a determinantes de orden 3.

Ejemplo 1.24. Calculemos el determinante del ejemplo 1.23 usando este metodo.

Solucion.∣∣∣∣∣∣∣∣

2 −3 −1

−6 1 5

−7 0 6

∣∣∣∣∣∣∣∣= 2 · 1 · 6 + (−6)0(−1) + (−7)(−3)5− (−1)1(−7)− 5 · 0 · 2− 6(−3)(−6)

2 −3 −1

−6 1 5∣∣∣∣∣∣∣∣

2 −3 −1

−6 1 5

−7 0 6

∣∣∣∣∣∣∣∣= 12 + 0 + 105− 7− 0− 108 = 2

Compare este resultado con el obtenido en el ejemplo 1.23.

Page 52: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 49

Antes de definir determinantes de orden n, daremos dos definiciones previas.

Definicion 1.19. Sea A =∈ Mn×n(R). Para cada i, j ∈ {1, . . . , n} definamos la matriz MAij ∈

M(n−1)×(n−1)(R) que se obtiene de A al eliminar su i-esima fila y su j-esima columna, dicha

matriz es llamada ij-esimo menor de A.

Observacion 1.25. Si en lugar de eliminar una fila y una columna de A, eliminamos dos filas

y dos columnas de A, la matriz que se obtiene se denomina menor de segundo orden de A,

estas matrices se denotan por MAij,kl, lo que significa que se han eliminado las filas i e j (con

i 6= j) y las columnas k y l (con k 6= l) de A. De manera analoga se pueden definir menores de

A ∈Mn×n(R) hasta de orden n− 1.

Observacion 1.26. Es claro que MAij,kl = MA

ji,lk = MAji,kl = MA

ij,lk para cada i, j, k, l ∈ {1, . . . , n}con i 6= j y k 6= l.

Ejemplo 1.25. Consideremos la matriz

A =

−9 2 −1 4

0 8 −5 7

1 6 3 −6

−4 1 0 3

Hallar MA23; MA

42 y MA22.

Solucion.

MA23 =

−9 2 4

1 6 −6

−4 1 3

; MA

42 =

−9 −1 4

0 −5 7

1 3 −6

y MA

22 =

−9 −1 4

1 3 −6

−4 0 3

Definicion 1.20. Sea A ∈ Mn×n(R). Para cada i, j ∈ {1, . . . , n} definiremos el ij-esimo co-

factor de A como el numero real CAij dado por

CAij = (−1)i+j det

(MA

ij

)

Ejemplo 1.26. Para la matriz del ejemplo 1.25 se tiene que

Page 53: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 50

CA23 = (−1)2+3 det

(MA

23

)= −

∣∣∣∣∣∣∣∣

−9 2 4

1 6 −6

−4 1 3

∣∣∣∣∣∣∣∣= −(−162 + 4 + 48 + 96− 54− 6) = 74

CA42 = (−1)4+2 det

(MA

42

)=

∣∣∣∣∣∣∣∣

−9 −1 4

0 −5 7

1 3 −6

∣∣∣∣∣∣∣∣= −270 + 0− 7 + 20 + 189− 0 = −68

CA22 = (−1)2+2 det

(MA

22

)=

∣∣∣∣∣∣∣∣

−9 −1 4

1 3 −6

−4 0 3

∣∣∣∣∣∣∣∣= −81 + 0− 24 + 48− 0 + 3 = −54

Pasemos ahora a definir los determinantes de orden n. En primer lugar notemos que la formula

dada en la definicion 1.18 puede ser escrita como

det(A) = |A| = a11CA11 + a12C

A12 + a13C

A13

La idea es generalizar esta formula para una matriz A de orden n.

Definicion 1.21. Sea A ∈ Mn×n(R). Definiremos el determinante de A, determinante de

orden n, como el numero real det(A) = |A| dado por

det(A) = |A| =

∣∣∣∣∣∣∣∣∣∣∣

a11 a12 · · · a1n

a21 a22 · · · a2n

......

. . ....

an1 an2 · · · ann

∣∣∣∣∣∣∣∣∣∣∣

=n∑

j=1

a1jCA1j =

n∑

j=1

a1j(−1)1+j det(MA

1j

)

Ejemplo 1.27. Hallar el determinante de la matriz del ejemplo 1.25

Solucion.

det(A) = |A| =

∣∣∣∣∣∣∣∣∣∣∣

−9 2 −1 4

0 8 −5 7

1 6 3 −6

−4 1 0 3

∣∣∣∣∣∣∣∣∣∣∣

= (−9)(−1)1+1 det(MA

11

)+ 2(−1)1+2 det

(MA

12

)+ (−1)(−1)1+3 det

(MA

13

)

+4(−1)1+4 det(MA

14

)

Page 54: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 51

det(A) = −9

∣∣∣∣∣∣∣∣

8 −5 7

6 3 −6

1 0 3

∣∣∣∣∣∣∣∣− 2

∣∣∣∣∣∣∣∣

0 −5 7

1 3 −6

−4 0 3

∣∣∣∣∣∣∣∣−

∣∣∣∣∣∣∣∣

0 8 7

1 6 −6

−4 1 3

∣∣∣∣∣∣∣∣− 4

∣∣∣∣∣∣∣∣

0 8 −5

1 6 3

−4 1 0

∣∣∣∣∣∣∣∣= −9(72 + 0 + 30− 21− 0 + 90)− 2(0 + 0− 120 + 84− 0 + 15)

−(0 + 7 + 192 + 168− 0− 24)− 4(0− 5− 96− 120− 0− 0)

= −1539 + 42− 343 + 884 = −956

Ejemplo 1.28. Calcular el determinante de la matriz

A =

2 0 0 0 0

12 1 0 0 0

−3 0 −3 0 0

5 −8 7 −1 0

−9 6 −7 0 −6

Solucion. Notemos primero que A es triangular inferior.

det(A) = |A| =

∣∣∣∣∣∣∣∣∣∣∣∣∣∣

2 0 0 0 0

12 1 0 0 0

−3 0 −3 0 0

5 −8 7 −1 0

−9 6 −7 0 −6

∣∣∣∣∣∣∣∣∣∣∣∣∣∣= 2(−1)1+1 det

(MA

11

)+ 0(−1)1+2 det

(MA

12

)+ 0(−1)1+3 det

(MA

13

)

+0(−1)1+4 det(MA

14

)+ 0(−1)1+5 det

(MA

15

)

= 2(−1)1+1 det(MA

11

)+ 0(−1)1+2 det

(MA

12

)+ 0(−1)1+3 det

(MA

13

)

+0(−1)1+4 det(MA

14

)+ 0(−1)1+5 det

(MA

15

)

= 2

∣∣∣∣∣∣∣∣∣∣∣

1 0 0 0

0 −3 0 0

−8 7 −1 0

6 −7 0 −6

∣∣∣∣∣∣∣∣∣∣∣

Page 55: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 52

det(A) = 2

1(−1)1+1

∣∣∣∣∣∣∣∣

−3 0 0

7 −1 0

−7 0 −6

∣∣∣∣∣∣∣∣+ 0(−1)1+2

∣∣∣∣∣∣∣∣

0 0 0

−8 −1 0

6 0 −6

∣∣∣∣∣∣∣∣

+0(−1)1+3

∣∣∣∣∣∣∣∣

0 −3 0

−8 7 0

6 −7 −6

∣∣∣∣∣∣∣∣+ 0(−1)1+4

∣∣∣∣∣∣∣∣

0 −3 0

−8 7 −1

6 −7 0

∣∣∣∣∣∣∣∣

= 2 · 1

∣∣∣∣∣∣∣∣

−3 0 0

7 −1 0

−7 0 −6

∣∣∣∣∣∣∣∣

= 2 · 1(

(−3)(−1)1+1

∣∣∣∣∣−1 0

0 −6

∣∣∣∣∣+ 0(−1)1+2

∣∣∣∣∣7 0

−7 −6

∣∣∣∣∣ + 0(−1)1+3

∣∣∣∣∣7 −1

−7 0

∣∣∣∣∣

)

= 2 · 1(−3)

∣∣∣∣∣−1 0

0 −6

∣∣∣∣∣ = 2 · 1(−3)((−1)(−6)− 0 · 0)

= 2 · 1(−3)(−1)(−6) = −36

¡El determinante de A es el producto de las componentes de la diagonal principal! este resultado

se cumple siempre que A es una matriz triangular, superior o inferior, como veremos luego.

La demostracion del teorema que enunciaremos a continuacion escapa del objetivo del curso,

sin embargo, de el se derivan el resto de las propiedades que seran enunciadas mas adelante, en

el apendice D se puede encontrar una demostracion de este.

Teorema 1.24. Si A = (aij)n×n ∈Mn×n(R), entonces

1. det(A) =

n∑

j=1

aijCAij =

n∑

j=1

aij(−1)i+j det(MA

ij

)para cada i ∈ {1, . . . , n} (Desarrollo del

determinante de A mediante la fila i-esima).

2. det(A) =n∑

i=1

aijCAij =

n∑

i=1

aij(−1)i+j det(MA

ij

)para cada j ∈ {1, . . . , n} (Desarrollo del

determinante de A mediante la columna j-esima).

Demostracion. Ver apendice D.

Page 56: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 53

Ejemplo 1.29. Calcular el determinante de la matriz A del ejemplo 1.23 al desarrollar el de-

terminante mediante la tercera fila y mediante la segunda columna.

Solucion. En primer lugar hallemos el determinante de A desarrollandolo mediante la tercera

fila.

det(A) = |A| =

∣∣∣∣∣∣∣∣

2 −3 −1

−6 1 5

−7 0 6

∣∣∣∣∣∣∣∣

= −7(−1)3+1

∣∣∣∣∣−3 −1

1 5

∣∣∣∣∣+ 0(−1)3+2

∣∣∣∣∣2 −1

−6 5

∣∣∣∣∣ + 6(−1)3+3

∣∣∣∣∣2 −3

−6 1

∣∣∣∣∣

= −7(−15 + 1) + 0 + 6(2− 18) = 2

Ahora desarrollemos el determinante de A mediante la segunda columna.

det(A) = |A| =

∣∣∣∣∣∣∣∣

2 −3 −1

−6 1 5

−7 0 6

∣∣∣∣∣∣∣∣

= −3(−1)1+2

∣∣∣∣∣−6 5

−7 6

∣∣∣∣∣ + 1(−1)2+2

∣∣∣∣∣2 −1

−7 6

∣∣∣∣∣+ 0(−1)3+2

∣∣∣∣∣2 −1

−6 5

∣∣∣∣∣

= 3(−36 + 35) + (12− 7) + 0 = 2

Teorema 1.25. Si A ∈Mn×n(R), entonces det(AT)

= det(A).

Demostracion. ¡Ejercicio!

Sugerencia: proceder por induccion sobre n y usar el teorema 1.24

Teorema 1.26. Si A = (aij)n×n ∈ Mn×n(R) una matriz triangular (superior o inferior), en-

tonces det(A) = a11a22 · · ·ann.

Demostracion. Procedamos por induccion sobre n. Supongamos, sin perder generalidad que

A es una matriz triangular superior.

Verifiquemos que la tesis se cumple para n = 2. Sea

A =

[a11 a12

0 a22

]

Page 57: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 54

Entonces

det(A) = a11a22 − a12 · 0 = a11a22

Supongamos ahora que la tesis se cumple para n− 1, esto es, supongamos que para cualquier

matriz triangular superior A = (aij)(n−1)×(n−1) ∈ M(n−1)×(n−1)(R) se cumple que det(A) =

a11a22 · · ·a(n−1)(n−1) (Hipotesis Inductiva).

Probemos ahora que se cumple para n. Sea

A =

a11 a12 · · · a1n

0 a22 · · · a2n

.... . .

. . ....

0 · · · 0 ann

Entonces, al desarrollar el determinante de A mediante la fila n, obtenemos

det(A) = 0 · CAn1 + · · ·+ 0 · CA

n(n−1) + annCAnn = ann(−1)n+n det(MA

nn) = ann det(MA

nn

)

Pero

MAnn =

a11 a12 · · · a1(n−1)

0 a22 · · · a2(n−1)

.... . .

. . ....

0 · · · 0 a(n−1)(n−1)

es decir, MAnn es una matriz triangular superior de orden (n−1), por lo tanto, usando la Hipotesis

Inductiva, se tiene que det(MA

nn

)= a11a22 · · ·a(n−1)(n−1). Luego

det(A) = anna11a22 · · ·a(n−1)(n−1) = a11a22 · · ·a(n−1)(n−1)ann

Lo cual concluye la prueba.

Los teoremas que enunciaremos a continuacion, nos presentan las propiedades basicas del

determinante, estas propiedades nos permitiran hallar el determinante de una matriz sin hacer

demasiados calculos. Los enunciados de estas propiedades se daran solo para filas, sin embargo,

en virtud del teorema 1.25, se pueden enunciar propiedades analogas para columnas.

Teorema 1.27. Sea A ∈ Mn×n(R). Si existe s ∈ {1, . . . , n} tal que A(s) = 0/1×n, entonces

det(A) = 0, es decir, si A tiene una fila nula, su determinante es cero.

Page 58: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 55

Demostracion. Sea A = (aij)n×n. Como A(s) = 0/1×n, entonces asj = 0 para cada j ∈ {1, . . . , n}.Ası que, al desarrollar el determinante de A por medio de la fila s, se tiene que

det(A) =n∑

j=1

asjCAsj =

n∑

j=1

0 · CAsj = 0

Teorema 1.28. Sean A, B ∈ Mn×n(R) y α ∈ R. Si existe s ∈ {1, . . . , n} tal que B(s) = αA(s)

y B(i) = A(i) para i 6= s, entonces det(B) = α det(A), esto es, si multiplicamos una fila de A

por un escalar α, entonces el determinante de la matriz resultante es igual al determinante de A

multiplicado por α.

Demostracion. Sean A = (aij)n×n y B = (bij)n×n. Como B(s) = αA(s) y B(i) = A(i) para i 6= s,

entonces bsj = αasj para cada j ∈ {1, . . . , n} y ademas, la matriz que se obtiene al eliminar la

fila s de B coincide con la matriz que se obtiene al eliminar la fila s de A. Luego MAsj = MB

sj para

cada j ∈ {1, . . . , n} (¿por que?).

Por lo tanto

CBsj = (−1)s+j det(MB

sj) = (−1)s+j det(MAsj) = CA

sj

para cada j ∈ {1, . . . , n}.Ası, al desarrollar el determinante de B por medio de la fila s, obtenemos

det(B) =n∑

j=1

bsjCBsj =

n∑

j=1

αasjCAsj = α

n∑

j=1

asjCAsj = α det(A)

Ejemplo 1.30. Sea

A =

2 −1 2

12 −16 4

−2 0 3

Entonces

det(A) =

∣∣∣∣∣∣∣∣

2 −1 2

12 −16 4

−2 0 3

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣

2 −1 2

4 · 3 4(−4) 4 · 1−2 0 3

∣∣∣∣∣∣∣∣= 4

∣∣∣∣∣∣∣∣

2 −1 2

3 −4 1

−2 0 3

∣∣∣∣∣∣∣∣= 4[2(−4)3 + 3 · 0 · 2 + (−2)(−1)1− 2(−4)(−2)− 1 · 0 · 2− 3(−1)3]

= 4[−24 + 0 + 2− 16− 0 + 9] = 4(−29) = −116

Page 59: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 56

Teorema 1.29. Sean A, B, C ∈ Mn×n(R). Si existe s ∈ {1, . . . , n} tal que C(s) = A(s) + B(s)

y C(i) = B(i) = A(i) para i 6= s, entonces det(C) = det(A) + det(B), dicho de otra manera, si

tenemos tres matrices A, B, C cuyas filas son identicas excepto la fila s, y que la fila s de C es

igual a la suma de la fila s de A con la fila s de B, entonces el determinante de C es igual a la

suma del determinante de A con el determinante de B.

Demostracion. Sean A = (aij)n×n, B = (bij)n×n y C = (cij)n×n. Sean A, B, C ∈ Mn×n(R).

Como C(s) = A(s) + B(s) y C(i) = B(i) = A(i) para i 6= s, entonces csj = asj + bsj para cada

j ∈ {1, . . . , n} y ademas, las matrices que se obtienen al eliminar la fila s de A, B y C son

iguales, ası que MAsj = MB

sj = MCsj para cada j ∈ {1, . . . , n}.

Por lo tanto

CCsj = CB

sj = CAsj

para cada j ∈ {1, . . . , n} (¿por que?).

En consecuencia

det(C) =n∑

j=1

csjCCsj =

n∑

j=1

(asj + bsj)CCsj =

n∑

j=1

asjCCsj +

n∑

j=1

bsjCCsj

=

n∑

j=1

asjCAsj +

n∑

j=1

bsjCBsj = det(A) + det(B)

Ejemplo 1.31. Sea A la matriz del ejemplo 1.30. Entonces

det(A) =

∣∣∣∣∣∣∣∣

2 −1 2

12 −16 4

−2 0 3

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣

4 + (−2) −1 2

6 + 6 −16 4

1 + (−3) 0 3

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣

4 −1 2

6 −16 4

1 0 3

∣∣∣∣∣∣∣∣+

∣∣∣∣∣∣∣∣

−2 −1 2

6 −16 4

−3 0 3

∣∣∣∣∣∣∣∣= [4(−16)3 + 6 · 0 · 2 + 1(−1)4− 2(−16)1− 4 · 0 · 4− 3(−1)6] +

[−2(−16)3 + 6 · 0 · 2 + (−3)(−1)4− 2(−16)(−3)− 4 · 0(−2)− 3(−1)6]

= [−192 + 0− 4 + 32− 0 + 18] + [96 + 0 + 12− 96− 0 + 18]

= −146 + 30 = −116

Teorema 1.30. Sean A, B ∈ Mn×n(R). Si existen s, t ∈ {1, . . . , n} tales que s 6= t, B(s) = A(t),

B(t) = A(s) y B(i) = A(i) para i 6= s y i 6= t, entonces det(B) = − det(A), en otras palabras,

si intercambiamos dos filas distintas de A, el determinante de la matriz resultante es igual al

determinante de A multiplicado por −1.

Page 60: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 57

Demostracion. Ver Apendice D.

Ejemplo 1.32. Sea A la matriz del ejemplo 1.30 y sea

B =

2 −1 2

4 −16 12

3 0 −2

Las columnas 1 y 3 de B son, respectivamente, las columnas 3 y 1 de A y las fila 2 de B es igual

a la fila 2 de A. Ademas

det(B) =

∣∣∣∣∣∣∣∣

2 −1 2

4 −16 12

3 0 −2

∣∣∣∣∣∣∣∣= 2(−16)(−2) + 4 · 0 · 2 + 3(−1)12− 2(−16)3− 12 · 0 · 2− (−2)(−1)4

= 64 + 0− 36 + 96− 0− 8 = 116 = − det(A)

Teorema 1.31. Sea A ∈ Mn×n(R). Si existen s, t ∈ {1, . . . , n} tales que s 6= t y A(s) = A(t),

entonces det(A) = 0, es decir, si A tiene dos filas iguales, su determinante es igual a cero.

Demostracion. Sea B ∈Mn×n(R) la matriz que se obtiene al intercambiar las filas s y t de A.

Como A(s) = A(t), entonces B = A y ası det(B) = det(A).

Por otro lado, dado que s 6= t y segun el teorema 1.30, det(B) = − det(A).

Ası que det(A) = det(B) = − det(A) y en consecuencia det(A) = 0.

Ejemplo 1.33. Sea

A =

2 −1 −2

4 −16 12

2 −1 −2

Entonces

det(A) =

∣∣∣∣∣∣∣∣

2 −1 −2

4 −16 12

2 −1 −2

∣∣∣∣∣∣∣∣= 2(−16)(−2) + 4(−1)(−2) + 2(−1)12− (−2)(−16)2− 12(−1)2− (−2)(−1)4

= 64 + 8− 24− 64 + 24− 8 = 0

Page 61: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 58

Teorema 1.32. Sean A ∈ Mn×n(R) y α ∈ R. Si existen s, t ∈ {1, . . . , n} tales que s 6= t y

A(s) = αA(t), entonces det(A) = 0, esto es, si una fila de A es un multiplo escalar de alguna otra

fila de A, su determinante es igual a cero.

Demostracion. Sea B ∈ Mn×n(R) tal que B(i) = A(i) para cada i ∈ {1, . . . , n} con i 6= s y

B(s) = A(t) = B(t). Por lo tanto, en virtud del teorema 1.31, se tiene que det(B) = 0.

Por otro lado, como A(s) = αA(t) = αB(t) = αB(s), entonces, usando el teorema 1.28, se tiene

que det(A) = α det(B) = α0 = 0.

Ejemplo 1.34. Sea

A =

2 8 2

−4 −16 1

3 12 −2

Entonces la columna A(2) = 4A(1), ademas

det(A) =

∣∣∣∣∣∣∣∣

2 8 2

−4 −16 1

3 12 −2

∣∣∣∣∣∣∣∣= 2(−16)(−2) + (−4)12 · 2 + 3 · 8 · 1− 2(−16)3− 1 · 12 · 2− (−2)8(−4)

= 64− 96 + 24 + 96− 24− 64 = 0

Teorema 1.33. Sean A, B ∈ Mn×n(R) y α ∈ R. Si existen s, t ∈ {1, . . . , n} tales que s 6= t,

B(s) = A(s) + αA(t) y B(i) = A(i) para i 6= s, entonces det(B) = det(A), dicho de otra forma, si

a una fila de A le sumamos un multiplo escalar de alguna otra fila de A, el determinante de la

matriz resultante es igual al determinante de A.

Demostracion. Sea C ∈ Mn×n(R) tal que C(i) = B(i) = A(i) para i 6= s y C(s) = αA(t). Por lo

tanto, dado que s 6= t y en virtud del teorema 1.32, det(C) = 0.

Ademas, como B(s) = A(s) + αA(t) = A(s) + C(s) y en virtud del teorema 1.29

det(B) = det(A) + det(C) = det(A) + 0 = det(A)

Page 62: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 59

Ejemplo 1.35. Sea A la matriz del ejemplo 1.30 y sea

B =

2 −1 2

−2 −9 −10

−2 0 3

Ası que B(2) = A(2) − 7A(1) (¿verifıquelo!). Ademas

det(B) =

∣∣∣∣∣∣∣∣

2 −1 2

−2 −9 −10

−2 0 3

∣∣∣∣∣∣∣∣= 2(−9)3 + (−2)0 · 2 + (−2)(−1)(−10)− 2(−9)(−2)− (−10)0 · 2− 3(−1)(−2)

= −54 + 0− 20− 36− 0− 6 = −116 = det(A)

El siguiente ejemplo nos da un metodo para calcular el determinante de una matriz A haciendo

uso de las propiedades dadas en los siete teoremas precedentes, como veremos, el calculo resulta

mucho mas sencillo que al usar la definicion.

Como se dijo en la observacion 1.15, usaremos tanto OEF como operaciones elementales por

columnas (OEC) para el calculo de determinantes, estas operaciones las indicaremos de manera

analoga a las OEF, salvo que en lugar de usar F usaremos C.

Ejemplo 1.36. Hallar el determinante de la matriz

A =

6 −1 2 13 2

−1 0 −1 −3 −1

0 −3 0 9 0

7 1 3 12 3

0 −2 4 1 −3

Solucion.

det(A) =

∣∣∣∣∣∣∣∣∣∣∣∣∣∣

6 −1 2 13 2

−1 0 −1 −3 −1

0 −3 0 9 0

7 1 3 12 3

0 −2 4 1 −3

∣∣∣∣∣∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣∣∣∣∣∣∣

6 −1 2 10 2

−1 0 −1 −3 −1

0 −3 0 0 0

7 1 3 15 3

0 −2 4 −5 −3

∣∣∣∣∣∣∣∣∣∣∣∣∣∣

(C4 → C4 + 3C2

por teorema 1.33

)

Page 63: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 60

det(A) = −3(−1)3+2

∣∣∣∣∣∣∣∣∣∣∣

6 2 10 2

−1 −1 −3 −1

7 3 15 3

0 4 −5 −3

∣∣∣∣∣∣∣∣∣∣∣

(desarrollando el determinante

mediante la tercera fila

)

= 3

∣∣∣∣∣∣∣∣∣∣∣

0 −4 −8 −4

−1 −1 −3 −1

0 −4 −6 −4

0 4 −5 −3

∣∣∣∣∣∣∣∣∣∣∣

F1 → F1 + 6F2

F3 → F3 + 7F2

por teorema 1.33

= 3(−1)(−1)2+1

∣∣∣∣∣∣∣∣

−4 −8 −4

−4 −6 −4

4 −5 −3

∣∣∣∣∣∣∣∣

(desarrollando el determinante

mediante la primera columna

)

= 3

∣∣∣∣∣∣∣∣

0 −13 −7

0 −11 −7

4 −5 −3

∣∣∣∣∣∣∣∣

F1 → F1 + F3

F2 → F2 + F3

por teorema 1.33

= 3 · 4(−1)3+1

∣∣∣∣∣−13 −7

−11 −7

∣∣∣∣∣

(desarrollando el determinante

mediante la primera columna

)

= 12(−13(−7)− (−7)(−11)) = 12 · 14 = 168

Resuelva este ejercicio sin hacer uso de OEF ni OEC y compare ambos metodos ¿cual de los dos

le parece mas sencillo?

Teorema 1.34. Sea A = (aij)n×n ∈ Mn×n(R). Entonces para cualesquiera s, t ∈ {1, . . . , n} con

s 6= t se tiene quen∑

k=1

askCAtk = 0 y

n∑

k=1

aksCAkt = 0

Demostracion. Sea s, t ∈ {1, . . . , n} con s 6= t. Definamos B = (bij)n×n tal que B(i) = A(i)

para cada i ∈ {1, . . . , n} con i 6= t y B(t) = A(s). Ası que, usando el teorema 1.31, det(B) = 0.

Por otro lado, las matrices que se obtienen al eliminar la fila t de B y la fila t de A, son iguales,

por lo tanto MBtk = MA

tk para cada k ∈ {1, . . . , n}, de donde CBtk = CA

tk. Luego, al desarrollar el

determinante de B mediante la fila t, se tiene que

det(B) =n∑

k=1

btkCBtk =

n∑

k=1

askCAtk

En consecuencia

n∑

k=1

askCAtk = 0, analogamente se prueba que

n∑

k=1

aksCAkt = 0.

Page 64: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 61

Teorema 1.35. Si E ∈Mn×n(R) es una matriz elemental, entonces para cada A ∈Mn×n(R) se

tiene que det(EB) = det(E) det(B).

Demostracion. Como E ∈ Mn×n(R) es una matriz elemental, existe una OEF f : Fn(R) →Fn(R) tal que E = f(In). Luego, sando la parte 1 del corolario 1.12, se tiene que EA = f(In)A =

f(A).

Debemos proceder por casos sobre el tipo de OEF.

Caso 1. f es una OEF tipo 1. As que existen s ∈ {1, . . . , n} y α 6= 0 tales que E(s) = α(In)(s)

(donde (In)(s) es la fila s de In) y para i 6= s se tiene que E(i) = (In)(i). Luego

(f(A))(s) = αA(s) y para i 6= s tenemos (f(A))(i) = A(i).

Por lo tanto, segun el teorema 1.28,

det(E) = α det(In) = α · 1 = α

y

det(EA) = det(f(A)) = α det(A) = det(E) det(A).

Caso 2. f es una OEF tipo 2. Luego existen s, t ∈ {1, . . . , n}, con s 6= t, y α ∈ R tales que

E(s) = (In)(s) + α(In)(t) y E(i) = (In)(i) para i 6= s. As que (f(A))(s) = A(s) + αA(t) y

(f(A))(i) = A(i) para i 6= s.

Usando el teorema 1.33, tenemos que

det(E) = det(In) = 1

y

det(EA) = det(f(A)) = det(A) = 1 · det(A) = det(E) det(A)

Caso 3. f es una OEF tipo 3. Por lo tanto existen s, t ∈ {1, . . . , n} tales que E(s) = (In)(t),

E(t) = (In)(s) y E(i) = (In)(i) para i 6= s e i 6= t. De donde (f(A))(s) = A(s) + αA(t) y

(f(A))(i) = A(i) para i 6= s e i 6= t.

Si s = t, entonces E = In y f(A) = A, as que

det(E) = det(In) = 1

Page 65: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 62

y

det(EA) = det(f(A)) = det(A) = 1 · det(A) = det(E) det(A)

Si s 6= t, podemos usar el teorema 1.30 y obtenemos

det(E) = − det(In) = −1

y

det(EA) = det(f(A)) = − det(A) = (−1) det(A) = det(E) det(A)

Observacion 1.27. De la prueba del teorema 1.35, se tiene que si E ∈Mn×n(R) es una matriz

elemental, entonces det(E) 6= 0.

Corolario 1.36. Sean E1, E2, . . . , Er ∈ Mn×n(R) matrices elementales. Entonces, para cada

A ∈Mn×n(R), se tiene que det(E1E2 · · ·ErA) = det(E1) det(E2) · · ·det(Er) det(A).

Demostracion. ¡Ejercicio!

Teorema 1.37. Si A ∈Mn×n(R) es una matriz ERF, entonces det(A) 6= 0 si y solo si A = In.

Demostracion. Sea A = (aij)n×n. Como A es ERF, entonces A es triangular superior (ver

ejercicio 1.5), ası que aij = 0 para i > j y det(A) = a11a22 · · ·ann.

Supongamos que det(A) 6= 0. Luego aii 6= 0 para cada i ∈ {1, . . . , n}. Como aij = 0 para i > j,

entonces para cada i ∈ {1, . . . , n}, la primera componente no nula en la i-esima fila es aii, y por

ser A una matriz ERF, se tiene que aii = 1 para cada i ∈ {1, . . . , n}, es decir, aii es un pivote y

por lo tanto aij = 0 para i 6= j (¿por que?). En resumen

aij =

{1 si i = j

0 si i 6= j

Es decir, A = In.

Recıprocamente, si A = In, entonces det(A) = 1 6= 0.

En el siguiente teorema se da una nueva equivalencia que involucra la inversa de una matriz

cuadrada.

Page 66: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 63

Teorema 1.38. Sea A ∈Mn×n(R). Entonces A es invertible si y solo si det(A) 6= 0.

Demostracion. Sea B ∈Mn×n(R) la FERF A. Entonces existen matrices elementales E1, E2, . . . , Er ∈Mn×n(R) tales que B = E1E2 · · ·ErA. Como det(Ei) 6= 0 para cada i ∈ {1, . . . , r}, entonces

det(A) 6= 0 si y solo si det(B) 6= 0; y usando el teorema 1.37 se tiene que B = In. Por lo tanto

det(A) 6= 0 si y solo si la FERF de A es In, lo cual concluye la prueba.

Teorema 1.39. Sean A, B ∈Mn×n(R). Entonces det(AB) = det(A) det(B).

Demostracion.

Caso 1. det(A) = 0. Ası que, en virtud del teorema 1.38, A no es invertible. Luego, usando

el ejercicio 1.7, se tiene que AB no es invertible, y nuevamente por el teorema 1.38 se

tiene que det(AB) = 0. Por lo tanto

det(AB) = 0 = 0 det(B) = det(A) det(B)

Caso 2. det(A) 6= 0. Luego A es invertible, en virtud del teorema 1.38. Ası que, al usar

el teorema 1.22, tenemos que existen matrices elementales E1, E2, . . . , Er ∈ Mn×n(R)

tales que A = E1E2 · · ·Er. Luego, por el corolario 1.36

det(A) = det(E1E2 · · ·Er) = det(E1) det(E2) · · ·det(Er) y

det(AB) = det(E1E2 · · ·ErB) = det(E1) det(E2) · · ·det(Er) det(B) = det(A) det(B)

1.6. Matriz Adjunta. Regla de Cramer

En esta seccion definiremos la adjunta de una matriz y enunciaremos la regla de Cramer ,

que a pesar de no ser una herramienta muy usada en la actualidad, es una interesante aplicacion

de los determinantes.

Definicion 1.22. Sea A ∈Mn×n(R). Se define la matriz adjunta de A como la matriz adj(A) ∈Mn×n(R) cuya ij-esima componente es el ji-esimo cofactor de A para cada i, j ∈ {1, . . . , n}, es

decir, si adj(A) = (bij)n×n, entonces bij = CAji para cualesquiera i, j ∈ {1, . . . , n}.

Page 67: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 64

Observacion 1.28. Si C = (CAij )n×n, es decir, si C es la matriz real cuadrada cuya ij-esima

componente es el ij-esimo cofactor de A para cada i, j ∈ {1, . . . , n}, entonces adj(A) = CT .

Ejemplo 1.37. Hallar la adjunta de

A =

2 −1 3

1 0 2

4 −1 7

Solucion. Necesitamos hallar cada uno de los cofactores de A. Veamos

CA11 = (−1)1+1

∣∣∣∣∣0 2

−1 7

∣∣∣∣∣ = 2; CA12 = (−1)1+2

∣∣∣∣∣1 2

4 7

∣∣∣∣∣ = 1; CA13 = (−1)1+3

∣∣∣∣∣1 0

4 −1

∣∣∣∣∣ = −1;

CA21 = (−1)2+1

∣∣∣∣∣−1 3

−1 7

∣∣∣∣∣ = 4; CA22 = (−1)2+2

∣∣∣∣∣2 3

4 7

∣∣∣∣∣ = 2; CA23 = (−1)2+3

∣∣∣∣∣2 −1

4 −1

∣∣∣∣∣ = −2;

CA31 = (−1)3+1

∣∣∣∣∣−1 3

0 2

∣∣∣∣∣ = −2; CA32 = (−1)3+2

∣∣∣∣∣2 3

1 2

∣∣∣∣∣ = −1; CA33 = (−1)3+3

∣∣∣∣∣2 −1

1 0

∣∣∣∣∣ = 1;

As que

adj(A) =

CA11 CA

21 CA31

CA12 CA

22 CA32

CA13 CA

23 CA33

=

2 4 −2

1 2 −1

−1 −2 1

Teorema 1.40. Sea A ∈Mn×n(R). Entonces A adj(A) = det(A)In = adj(A)A.

Demostracion. Hagamos adj(A) = (bjk)n×n. Ası que para cada j, k ∈ {1, . . . , n}, se tiene que

bjk = CAkj.

Si hacemos A adj(A) = D = (dik)n×n, entonces, para cada i, k ∈ {1, . . . , n}, tenemos que

dik =

n∑

j=1

aijbjk =

n∑

j=1

aijCAkj.

Peron∑

j=1

aijCAij = det(A)

Page 68: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 65

y segun el teorema 1.34, si i 6= k, entonces

n∑

j=1

aijCAkj = 0

Por lo tanto

dik =

{det(A) si i = k

0 si i 6= k

= det(A)

{1 si i = k

0 si i 6= k

= det(A)δik

donde In = (δik)n×n. En consecuencia A adj(A) = det(A)In. De manera analoga se prueba que

adj(A)A = det(A)In, lo cual concluye la prueba.

Teorema 1.41. Si A ∈Mn×n(R) es invertible, entonces det(A−1) =1

det(A)y A−1 =

1

det(A)adj(A).

Demostracion. Como A es invertible, entonces existe A−1 ∈ Mn×n(R) tal que AA−1 = In =

A−1A, y por el teorema 1.39

det(A) det(A−1) = det(AA−1) = det(In) = 1.

Luego

det(A−1) =1

det(A).

Por otro lado, usando el teorema 1.40, se tiene que

A

(1

det(A)adj(A)

)=

1

det(A)A adj(A) =

1

det(A)det(A)In = In.

De donde

A−1 =1

det(A)adj(A).

Ejercicio 1.9. Sea A ∈ Mn×n(R) una matriz invertible. Pruebe que adj(A) tambien es invertible

y ademas (adj(A))−1 = adj(A−1).

Page 69: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 66

Consideremos la ecuacion matricial Ax = b, donde A ∈ Mn×n(R). Si A es invertible, entonces

la unica solucion de dicha ecuacion esta dada por x = A−1b, ası que, una forma de hallar la

solucion de la ecuacion en cuestion, es calcular la inversa de A y multiplicarla por b, pero quizas

esto es mucho mas complicado y costoso (en terminos de calculos) que hallar la FERF de la

matriz [A|b].En el siguiente teorema presentaremos una herramienta que permite resolver la ecuacion an-

terior usando determinantes, sin necesidad de hallar la inversa de A ni la FERF de [A|b], dicha

herramienta se conoce con el nombre de la regla de Cramer .

Teorema 1.42 (Regla de Cramer). Sea A ∈ Mn×n(R) una matriz invertible y b ∈ Mn×1(R). Si

x =

x1

x2

...

xn

es la solucion de la ecuacion Ax = b, entonces, para cada j ∈ {1, . . . , n}, xj =det(Ab

j)

det(A),

donde Abj es la matriz que se obtiene de A al reemplazar A(j) (la columna j) por b, esto es,

Abj =

[A(1) · · · A(j−1) b A(j+1) · · · A(n)

]

Demostracion. Como A = (aij)n×n es invertible, entonces la unica solucion del sistema Ax = b

es x = A−1b, pero A−1 =1

det(A)adj(A), ası que x =

1

det(A)adj(A)b, por lo tanto, si b =

b1

b2

...

bn

,

entonces xj =1

det(A)

n∑

i=1

CAijbi para cada j ∈ {1, . . . , n}.

Por otro lado, para cada j ∈ {1, . . . , n}, se tiene que

Abj =

a11 · · · a1(j−1) b1 a1(j+1) · · · a1n

......

......

...

a(i−1)1 · · · a(i−1)(j−1) bi−1 a(i−1)(j+1) · · · a(i−1)n

ai1 · · · ai(j−1) bi ai(j+1) · · · ain

a(i+1)1 · · · a(i+1)(j−1) bi+1 a(i+1)(j+1) · · · a(i+1)n

......

......

...

an1 · · · an(j−1) bn an(j+1) · · · ann

Por lo tanto, para cada i ∈ {1, . . . , n}, tenemos que MAb

j

ij = MAij y ası

CAb

j

ij = (−1)i+j det(M

Abj

ij

)= (−1)i+j det

(MA

ij

)= CA

ij

Page 70: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 67

Luego, al desarrollar el determinante de Abj por medio de la j-esima columna, obtenemos

det(Abj) =

n∑

i=1

CAb

j

ij bi =

n∑

i=1

CAijbi

En consecuencia, para cada j ∈ {1, . . . , n} tenemos que

xj =det(Ab

j)

det(A)

Ejemplo 1.38. Verificar que la matriz del sistema

x +2z −w = 3

x +y +2z +w = 2

4x +2y +2z −3w = 1

2y +z +4w = 1

es invertible y usar la regla de Cramer para hallar la solucion del sistema.

Solucion. La matriz del sistema es

A =

1 0 2 −1

1 1 2 1

4 2 2 −3

0 2 1 4

hallemos su determinante

det(A) =

∣∣∣∣∣∣∣∣∣∣∣

1 0 2 −1

1 1 2 1

4 2 2 −3

0 2 1 4

∣∣∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣∣∣∣

1 0 2 −1

0 1 0 2

0 2 −6 1

0 2 1 4

∣∣∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣

1 0 2

2 −6 1

2 1 4

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣

1 0 0

2 −6 −3

2 1 0

∣∣∣∣∣∣∣∣

=

∣∣∣∣∣−6 −3

1 0

∣∣∣∣∣ = 3 6= 0.

Por lo tanto la matriz del sistema es invertible, ası que podemos aplicar la regla de Cramer para

resolverlo. En este caso la matriz de terminos independientes es

b =

3

2

1

1

Page 71: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 68

Luego

det(Ab

1

)=

∣∣∣∣∣∣∣∣∣∣∣

3 0 2 −1

2 1 2 1

1 2 2 −3

1 2 1 4

∣∣∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣∣∣∣

0 −6 −1 −13

0 −3 0 −7

0 0 1 −7

1 2 1 4

∣∣∣∣∣∣∣∣∣∣∣

= −

∣∣∣∣∣∣∣∣

−6 −1 −13

−3 0 −7

0 1 −7

∣∣∣∣∣∣∣∣

= −

∣∣∣∣∣∣∣∣

−6 0 −20

−3 0 −7

0 1 −7

∣∣∣∣∣∣∣∣=

∣∣∣∣∣−6 −20

−3 −7

∣∣∣∣∣ = 42− 60 = −18.

det(Ab

2

)=

∣∣∣∣∣∣∣∣∣∣∣

1 3 2 −1

1 2 2 1

4 1 2 −3

0 1 1 4

∣∣∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣∣∣∣

1 3 2 −1

0 −1 0 2

0 −11 −6 1

0 1 1 4

∣∣∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣

−1 0 2

−11 −6 1

1 1 4

∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣

−1 0 0

−11 −6 −21

1 1 6

∣∣∣∣∣∣∣∣= −

∣∣∣∣∣−6 −21

1 6

∣∣∣∣∣ = −(−36 + 21) = 15.

det(Ab

3

)=

∣∣∣∣∣∣∣∣∣∣∣

1 0 3 −1

1 1 2 1

4 2 1 −3

0 2 1 4

∣∣∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣∣∣∣

1 0 2 −1

0 1 −1 2

0 2 −11 1

0 2 1 4

∣∣∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣

1 −1 2

2 −11 1

2 1 4

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣

1 −1 2

0 −9 −3

0 3 0

∣∣∣∣∣∣∣∣

=

∣∣∣∣∣−9 −3

3 0

∣∣∣∣∣ = 9.

det(Ab

4

)=

∣∣∣∣∣∣∣∣∣∣∣

1 0 2 3

1 1 2 2

4 2 2 1

0 2 1 1

∣∣∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣∣∣∣

1 0 2 3

0 1 0 −1

0 2 −6 −11

0 2 1 1

∣∣∣∣∣∣∣∣∣∣∣

=

∣∣∣∣∣∣∣∣

1 0 −1

2 −6 −11

2 1 1

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣

1 0 0

2 −6 −9

2 1 3

∣∣∣∣∣∣∣∣

=

∣∣∣∣∣−6 −9

1 3

∣∣∣∣∣ = −18 + 9 = −9.

Page 72: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 69

En consecuencia x =det(Ab

1

)

det(A)=−18

3= −6; y =

det(Ab

2

)

det(A)=

15

3= 5; z =

det(Ab

3

)

det(A)=

9

3= 3;

w =det(Ab

4

)

det(A)=−9

3= −3, es decir, la solucion del sistema dado es:

x

y

z

w

=

−6

5

3

−3

Ejemplo 1.39. Una fabrica produce tres tipos de productos, mezclando para ello tres materias

primas. Se sabe que para fabricar una unidad del producto 1, se necesitan, una unidad de la

materia prima 1, tres unidades de la materia prima 2 y dos unidades de la materia prima 3; para

fabricar una unidad del producto 2, se necesitan, una unidad de la materia prima 1 y tres de la

materia prima 2; finalmente, para fabricar una unidad del producto 3, se necesitan, tres unidades

de la materia prima 1, tres de la materia prima 2 y dos de la materia prima 3: Si este mes la

fabrica cuenta con seis millones de unidades de la materia prima 1, 12 millones de unidades de

la materia prima 2 y seis millones de la materia prima 3 cuantas unidades de cada producto

puede producir la fabrica usando el total de las materias primas?

Solucion. Para cada i ∈ {1, 2, 3}, sea xi las unidades (en millones) del producto i que puede

producir la fabrica.

Por lo tanto, la cantidad de unidades (en millones) que se usaran es:

x1 + x2 + 3x3 de la materia 1

3x1 + 3x2 + 3x3 de la materia 2

2x1 + 2x3 de la materia 3

Como se quiere usar el total de las materias primas, entonces

x1 +x2 +3x3 = 6

3x1 +3x2 +3x3 = 12

2x1 +2x3 = 6

Page 73: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 70

En este caso, la matriz del sistema, la matriz de incognitas y la matriz de terminos indepen-

dientes son, respectivamente:

A =

1 1 3

3 3 3

2 0 2

; x =

x1

x2

x3

y b =

6

12

6

Veamos si podemos aplicar la regla de Cramer, para ello calculemos el determinante de la

matriz del sistema.

det(A) =

∣∣∣∣∣∣∣∣

1 1 3

3 3 3

2 0 2

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣

1 1 3

0 0 −6

2 0 2

∣∣∣∣∣∣∣∣= −

∣∣∣∣∣0 −6

2 2

∣∣∣∣∣ = −12 6= 0.

Como la matriz del sistema es invertible, podemos usar la regla de Cramer.

det(Ab

1

)=

∣∣∣∣∣∣∣∣

6 1 3

12 3 3

6 0 2

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣

6 1 3

−6 0 −6

6 0 2

∣∣∣∣∣∣∣∣= −

∣∣∣∣∣−6 −6

6 2

∣∣∣∣∣ = −(−12 + 36) = −24.

det(Ab

2

)=

∣∣∣∣∣∣∣∣

1 6 3

3 12 3

2 6 2

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣

1 6 3

0 −6 −6

0 −6 −4

∣∣∣∣∣∣∣∣=

∣∣∣∣∣−6 −6

−6 −4

∣∣∣∣∣ = 24− 36 = −12.

det(Ab

3

)=

∣∣∣∣∣∣∣∣

1 1 6

3 3 12

2 0 6

∣∣∣∣∣∣∣∣=

∣∣∣∣∣∣∣∣

1 1 6

0 0 −6

2 0 6

∣∣∣∣∣∣∣∣= −

∣∣∣∣∣0 −6

2 6

∣∣∣∣∣ = −12.

Por lo tanto x1 =−24

−12= 2; x2 =

−12

−12= 1 y x3 =

−12

−12= 1, es decir, usando el total de

la materia prima, se pueden fabricar dos millones de unidades del producto 1 y un millon de

unidades de cada uno de los productos 2 y 3.

1.7. Determinantes de Matrices Triangulares por Bloques

En esta ultima seccion estamos interesados en estudiar un poco las matrices expresadas

por bloques , las cuales nos serviran para el estudio de la forma canonica de Jordan (ver

la seccion 4.6 del capıtulo 4), no haremos un estudio muy extenso, solo lo necesario.

Page 74: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 71

Definicion 1.23. Sean m1, m2, . . . , mr, n1, n2, . . . , ns ∈ Z+, m = m1 + m2 + · · · + mr y n =

n1 + n2 + · · · + ns. Para cada i ∈ {1, . . . , r} y cada j ∈ {1, . . . , s} consideremos la matriz

Aij ∈Mmi×nj(R). La matriz A ∈Mm×n(R) dada por

A =

A11 A12 · · · A1s

A21 A22 · · · A2s

......

...

Ar1 Ar2 · · · Ars

se dice que esta expresada por bloques y para cada i ∈ {1, . . . , r} y cada j ∈ {1, . . . , s}, la

matriz Aij es llamada submatriz o matriz bloque de A.

Ejemplo 1.40. Si definimos

A11 =

2 −1 0

4 2 1

6 7 −2

; A12 =

3 5

−5 2

9 −1

; A21 =

[3 −1 3

7 −1 2

]; A22 =

[0 4

1 3

]

entonces

A =

A11 A12

A21 A22

=

2 −1 0 3 5

4 2 1 −5 2

6 7 −2 9 −1

3 −1 3 0 4

7 −1 2 1 3

=

2 −1 0 3 5

4 2 1 −5 2

6 7 −2 9 −1

3 −1 3 0 4

7 −1 2 1 3

Sean A, B ∈ Mm×n(R). Si m1, m2, . . . , mr, n1, n2, . . . , ns ∈ Z+ son como en la definicin 1.23 y

si para cada i ∈ {1, . . . , r} y cada j ∈ {1, . . . , s} definimos Aij , Bij ∈ Mmi×nj(R) de tal manera

que

A =

A11 A12 · · · A1s

A21 A22 · · · A2s

......

...

Ar1 Ar2 · · · Ars

y B =

B11 B12 · · · B1s

B21 B22 · · · B2s

......

...

Br1 Br2 · · · Brs

entonces es claro que

Page 75: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 72

1. αA =

αA11 αA12 · · · αA1s

αA21 αA22 · · · αA2s

......

...

αAr1 αAr2 · · · αArs

2. A + B =

A11 + B11 A12 + B12 · · · A1s + B1s

A21 + B21 A22 + B22 · · · A2s + B2s

......

...

Ar1 + Br1 Ar2 + Br2 · · · Ars + Brs

3. AT =

AT11 AT

21 · · · ATr1

AT12 AT

22 · · · ATr2

......

...

AT1s AT

2s · · · ATrs

Otro resultado no tan obvio como los anteriores, pero no por ello muy complicado, es el

siguiente.

Sean A ∈ Mm×n(R) y B ∈ Mn×p(R). Si m1, m2, . . . , mr, n1, n2, . . . , ns ∈ Z+ son como en la

definicion 1.23 y p1, p2, . . . , pt ∈ Z+ son tales que p = p1+p2+· · ·+pt y si para cada i ∈ {1, . . . , r},cada j ∈ {1, . . . , s} y cada k ∈ {1, . . . , t} definimos Aij ∈ Mmi×nj

(R), Bjk ∈ Mnj×pk(R) de tal

manera que

A =

A11 A12 · · · A1s

A21 A22 · · · A2s

......

...

Ar1 Ar2 · · · Ars

y B =

B11 B12 · · · B1t

B21 B22 · · · B2t

......

...

Bs1 Bs2 · · · Bst

entonces

AB =

C11 C12 · · · C1t

C21 C22 · · · C2t

......

...

Cr1 Cr2 · · · Crt

donde para cada i ∈ {1, . . . , r} y cada k ∈ {1, . . . , t} se tiene que Cik ∈Mmi×pk(R) esta dada por

Cik = Ai1B1k + Ai2B2k + · · ·+ AisBsk =

s∑

j=1

AijBjk.

Page 76: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 73

Teorema 1.43. Sean B ∈Mm×m(R), C ∈Mm×n(R) y D ∈Mn×n(R) tales que

A =

B C

0/n×m D

Entonces det(A) = det(B) det(D).

Demostracion. Fijemos n y procedamos por induccion sobre m.

Verifiquemos que se cumple para m = 1. En este caso, B = [b] con b ∈ R y

A =

b C

0/n×1 D

Al desarrollar el determinante de A mediante la primera columna se obtiene

det(A) = bCA11 = b(−1)1+1 det

(MA

11

)= b det(D) = det(B) det(D)

(Hipotesis Inductiva) Supongamos que se cumple para m−1, es decir, si B ∈M(m−1)×(m−1)(R),

C ∈M(m−1)×n(R) y D ∈ Mn×n(R) son tales que

A =

B C

0/n×(m−1) D

entonces det(A) = det(B) det(D).

Probemos que se cumple para m. Sean B ∈ Mm×m(R), C ∈ Mm×n(R) y D ∈ Mn×n(R) tales

que

A =

B C

0/n×m D

Luego, al desarrolar el determinante de A, por medio de la primera columna, obtenemos

det(A) =

m∑

i=1

bi1(−1)i+1 det(MA

i1

)

donde B = (bij)m×m.

Pero para cada i ∈ {1, . . . , n} tenemos que

MAi1 =

MB

i1 Ci

0/n×(m−1) D

donde la matriz Ci ∈M(m−1)×n(R) se obtiene al eliminar la i-esima fila de C.

Page 77: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 74

Y usando la hipoteis inductiva, tenemos que

det(MA

i1

)= det

(MB

i1

)det(D)

Por lo tanto

det(A) =m∑

i=1

bi1(−1)i+1 det(MB

i1

)det(D)

=

[m∑

i=1

bi1(−1)i+1 det(MB

i1

)]

det(D)

= det(B) det(D)

lo cual concluye la prueba.

Ejemplo 1.41. Si

A =

2 −1 3 10 1

−1 0 4 2 12

−4 1 2 4 6

0 0 0 3 5

0 0 0 1 2

entonces A puede expresarse por bloques como sigue

A =

2 −1 3 10 1

−1 0 4 2 12

−4 1 2 4 6

0 0 0 3 5

0 0 0 1 2

As que al usar el teorema 1.43 tenemos que

det(A) =

∣∣∣∣∣∣∣∣

2 −1 3

−1 0 4

−4 1 2

∣∣∣∣∣∣∣∣

∣∣∣∣∣3 5

1 2

∣∣∣∣∣ = 3 · 1 = 3

Page 78: guia algebra de lineal Msc.Jorge Campos

Matrices y Sistemas de Ecuaciones Lineales 75

Corolario 1.44. Sean n1, n2, . . . , ns ∈ Z+, A ∈ Mn×n(R) y Aij ∈ Mni×nj(R) para i, j ∈

{1, . . . , s} con i ≤ j tales que n1 + n2 + · · ·+ ns = n y

A =

A11 A12 · · · A1s

0/n2×n1 A22 · · · A2s

.... . .

. . ....

0/ns×n1 · · · 0/ns×ns−1 Ass

Entonces det(A) = det(A11) det(A22) · · ·det(Ass)

Demostracion. ¡Ejercicio!

Observacion 1.29. Las matrices dadas en el teorema 1.43 y el corolario 1.44 se conocen con el

nombre de matrices triangulares superior por bloques, de manera analoga se definen las

matrices triangulares inferior por bloques.

Es claro que la transpuesta de una matriz triangular superior por bloques es una matriz tri-

angular inferior por bloques (y viceversa), en consecuencia, el teorema 1.43 y el corolario 1.44,

siguen siendo validos para matrices triangulares inferior por bloques.

Una matriz que sea triangular superior e inferior por bloques, simultaneamente, es llamada

matriz diagonal por bloques.

Page 79: guia algebra de lineal Msc.Jorge Campos

Capıtulo 2

Espacios Vectoriales

Este es, quizas, el capıtulo mas importante de todo el curso, por lo cual pedimos sea leıdo con

mucho detenimiento, la mayor parte de las definiciones y teoremas tratados aca se usaran con

bastante frecuencia en el resto de los capıtulos.

2.1. Espacios Vectoriales

Definicion 2.1. Un espacio vectorial real es una terna (V, +, ·) formada por un conjunto

no vacıo V, cuyos elementos llamaremos vectores, y dos operaciones binarias + : V × V −→V, llamada adicion vectorial, y · : R × V −→ V, llamada multiplicacion por escalar,

satisfaciendo las siguientes condiciones

A0. u + v ∈ V para cualesquiera u, v ∈ V (cerradura de la adicion vectorial)

A1. u+v = v+u para cualesquiera u, v ∈ V (conmutatividad de la adicion vectorial)

A2. (u+v)+w = u+(v+w) para cualesquiera u, v, w ∈ V (asociatividad de la adicion

vectorial)

A3. Existe 0/V ∈ V tal que v + 0/V = v para cada v ∈ V (existencia de un elemento

neutro para la adicion vectorial)

A4. Para cada v ∈ V existe v′ ∈ V tal que v + v′ = 0/V (existencia de un elemento

opuesto para la adicion vectorial)

M0. α · v ∈ V para cualesquiera α ∈ R y v ∈ V (cerradura de la multiplicacion por

escalar)

M1. (α + β) · v = α · v + β · v para cualesquiera α, β ∈ R y v ∈ V (distributividad de la

multiplicacion por escalar respecto a la adicion escalar)

M2. α · (u + v) = α · u + α · v para cualesquiera α ∈ R y u, v ∈ V (distributividad de la

multiplicacion por escalar respecto a la adicion vectorial)

76

Page 80: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 77

M3. (αβ) · v = α · (β · v) = β · (α · v) para cualesquiera α, β ∈ R y v ∈ V (asociatividad

de la multiplicacion escalar y la multiplicacion por escalar)

M4. 1 · v = v para cada v ∈ V (existencia de un elemento neutro para la multipli-

cacion por escalar)

Observacion 2.1. Es de hacer notar que las expresiones a la derecha de las igualdades en M1.

y M2. no son ambiguas pues, a pesar de no haberlo dicho, la operacion + tiene mayor jerarquıa

que la operacion ·, esto es, (α · u) + v puede ser escrito como α · u + v pero en la expresion

α · (u + v) no pueden suprimirse los parentesis.

Observacion 2.2. La definicion 2.1 se puede extender considerando un campo cualquiera K

(ver apendices A y B) en lugar de R, en cuyo caso diremos que V es un K-espacio vectorial

y los elementos de K son llamados escalares. Por ejemplo, podemos escoger K = C y en este

caso V es llamado espacio vectorial complejo.

En lo que resta del curso, solo consideraremos espacios vectoriales reales, salvo que se diga

lo contrario, y nos referiremos a estos como espacios vectoriales (e.v.) en lugar de espacios

vectoriales reales, a menos que haya error a confusion.

Observacion 2.3. En adelante, siempre que no haya error a confusion, en lugar de escribir

α · v escribiremos αv.

Observacion 2.4. Nos referiremos al conjunto V como espacio vectorial, siempre que no se

tienda a confusion, en lugar de la terna (V, +, ·), sobrentendiendo las operaciones + y ·

Ejemplo 2.1.

1. El conjunto Rn = {(x1, x2, . . . , xn) : xi ∈ R para cada i ∈ {1, . . . , n}} junto con las opera-

ciones + y · dadas como sigue

(x1, x2, . . . , xn) + (y1, y2, . . . , yn) = (x1 + y1, x2 + y2, . . . , xn + yn)

α · (x1, x2, . . . , xn) = (αx1, αx2, . . . , αxn)

donde α ∈ R y (x1, x2, . . . , xn), (y1, y2, . . . , yn) ∈ Rn, es un espacio vectorial (¡verifıquelo!)

Page 81: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 78

2. El conjunto Mm×n(R) junto con las operaciones + y ·, dadas en las definiciones 1.4 y 1.5

respectivamente, del capıtulo 1, es un espacio vectorial (ver el teorema 1.2 en el capıtulo 1)

3. Consideremos una matriz A ∈Mm×n(R). Los conjuntos

S = {x ∈Mn×1(R) : Ax = 0/m×1}

R = {y ∈ Mm×1(R) : Ax = y para algun x ∈ Mn×1(R)}

junto con las operaciones + y · definidas en el capıtulo 1, son espacios vectoriales (¡pruebe-

lo!)

S es llamado espacio solucion del sistema homogeneo Ax = 0/m×1 o espacio nulo de

A, y R es llamado el espacio imagen de A. Estos espacios seran tratados formalmente

y en detalle en la seccion 2.6 del presente capıtulo. �

4. Sea n ∈ N. Definamos

Pn[x] = {a0 + a1x + · · ·+ anxn : a0, a1, . . . , an ∈ R}

Es decir, Pn[x] esta formado por todos los polinomios con coeficientes reales en la variable

x de grado menor o igual a n incluyendo el polinomio nulo. Sobre Pn[x] consideremos las

operaciones usuales de adicion de polinomios y multiplicacion de un numero real por un

polinomio. Entonces Pn[x] es un espacio vectorial (¡pruebelo!)

En general, si definimos el conjunto

P[x] = {p(x) : p(x) es un polinomio en la variable x}

entonces P[x] es un espacio vectorial junto con las operaciones usuales antes mencionadas

(¡pruebelo!)

Es de hacer notar que el polinomio nulo O(x) = 0 ¡no tiene grado! (¿por que?), ademas,

para cada n ∈ N se tiene que Pn[x] 6= ∅ (¿por que?) y Pn[x] ⊂ Pn+1[x] ⊂ P[x] (¿por que?)�

5. Sean a, b ∈ R con a < b. Definamos el conjunto F [ a , b ] de todas las funciones reales

definidas sobre el intervalo [ a , b ] y consideremos las operaciones usuales de adicion de

funciones y multiplicacion de una funcion por un numero real, entonces F [ a , b ] es un

espacio vectorial (¿pruebelo!) �

Page 82: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 79

6. El conjunto

V = {(x, y) ∈ R2 : y = x + 1}

junto con las operaciones definidas en la parte 1 de este ejemplo, no es un espacio vectorial

ya que (2, 3), (0, 1) ∈ V (¿por que?) pero

(2, 3) + (0, 1) = (2 + 0, 3 + 1) = (2, 4) /∈ V

pues 4 6= 3 = 2 + 1, es decir, la adicion no es cerrada en V o V no es cerrado bajo la

adicion.

Sin embargo, si definimos sobre V las operaciones

(x, y) + (z, w) = (x + z, y + w − 1)

α · (x, y) = (αx, α(y − 1) + 1)

entonces V es un espacio vectorial, en efecto, sean (x, y), (z, w), (a, b) ∈ V y α, β ∈ Rcualesquiera. Entonces y = x + 1, w = z + 1 y b = a + 1.

De donde

y + w − 1 = x + 1 + z + 1− 1 = (x + z) + 1

y por lo tanto

(x, y) + (z, w) = (x + z, y + w − 1) ∈ V

cumpliendose A0.

(x, y) + (z, w) = (x + z, y + w − 1) = (z + x, w + y − 1) = (z, w) + (x, y)

por lo que A1. es satisfecha.

((x, y) + (z, w)) + (a, b) = (x + z, y + w − 1) + (a, b)

= ((x + z) + a, (y + w − 1) + b− 1)

= (x + (z + a), y + (w + b− 1)− 1)

= (x, y) + (z + a, w + b− 1)

= (x, y) + ((z, w) + (a, b))

ası que A2. se cumple.

Page 83: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 80

Definamos 0/V = (0, 1). Entonces 0/V ∈ V (¿por que?) y ademas

(x, y) + (0, 1) = (x + 0, y + 1− 1) = (x, y)

luego se satisface A3.

Si (x, y) ∈ V, entonces (−x,−y + 2) ∈ V ya que

−y + 2 = −(x + 1) + 2 (¿por que?)

= −x − 1 + 2 = −x + 1

Ademas

(x, y) + (−x,−y + 2) = (x + (−x), y + (−y + 2)− 1) = (0, 1) = 0/V

en consecuencia se cumple A4.

Verifique que se cumple el resto de la propiedades en la definicion 2.1. ¿Que podrıa concluir

a partir de este ejemplo? �

7. Dado un espacio vectorial V. Es facil probar que el conjunto {0/V}, junto con las operaciones

+ y · definidas sobre V, es un espacio vectorial. �

Teorema 2.1. Los elementos 0/V y v′ dados en A3. y A4. respectivamente, son los unicos

elementos de V que satisfacen dichas propiedades.

Demostracion. Supongamos que existe x ∈ V tal que v + x = v para cada v ∈ V. Luego, para

v = 0/V ∈ V, se tiene que

0/V +x = 0/V (2.1)

Por lo tanto

x = x + 0/V (por A3.)

= 0/V +x (por A1.)

= 0/V (por (2.1))

Lo que prueba la unicidad de 0/V .

Supongamos ahora que para v ∈ V existen v′, v ∈ V tales que

v + v′ = 0/V (2.2)

v + v = 0/V (2.3)

Page 84: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 81

Luego

v = v + 0/V (por A3.)

= v + (v + v′) (por 2.2)

= (v + v) + v′ (por A2.)

= (v + v) + v′ (por A1.)

= 0/V +v′ (por 2.3)

= v′ + 0/V (por A1.)

= v′ (por A3.)

con lo cual se obtiene la unicidad del opuesto aditivo.

Observacion 2.5. Al vector 0/V se le denomina vector nulo y el vector v′ es llamado opuesto

(aditivo) de v y es denotado por −v.

Debido al teorema 2.1, las propiedades A3. y A4. pueden reescribirse, respectivamente, como

sigue.

A’3. Existe un unico 0/V ∈ V tal que v + 0/V = v para cada v ∈ V (existencia y unicidad

del elemento neutro para la adicion vectorial)

A’4. Para cada v ∈ V existe un unico −v ∈ V tal que v + (−v) = v − v = 0/V (existencia

y unicidad del elemento opuesto para la adicion vectorial)

Definicion 2.2. Sean V un espacio vectorial y u, v ∈ V cualesquiera. Definiremos el vector

u− v, vector diferencia de u con v, como u− v = u + (−v)

Ejercicio 2.1. Sean V un espacio vectorial, v1, v2, . . . , vn, v ∈ V y α1, α2, . . . , αn, α ∈ R cua-

lesquiera. Pruebe que

1. (α1 + α2 + · · ·+ αn)v = α1v + α2v + · · ·+ αnv.

2. α(v1 + v2 + · · ·+ vn) = αv1 + αv2 + · · ·+ αvn.

Ejercicio 2.2 (Ley de Cancelacion). Sea V un espacio vectorial y u, v, w ∈ V. Si u+v = u+w,

entonces v = w.

Page 85: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 82

Teorema 2.2. Sea V un espacio vectorial. Entonces

1. α 0/V = 0/V para cada α ∈ R.

2. 0v = 0/V para cada v ∈ V.

3. Si αv = 0/V, entonces α = 0 o v = 0/V.

4. (−α)v = α(−v) = −(αv) para cualesquiera α ∈ R y v ∈ V. En consecuencia (−1)v = −v.

Demostracion.

1. Sea α ∈ R cualquiera. Entonces

α 0/V +α 0/V = α(0/V + 0/V) (por M2.)

= α 0/V (por A3.)

= α 0/V + 0/V (por A3.)

Y por la ley de cancelacion (ejercicio 2.2) se tiene que α 0/V = 0/V.

2. ¡Ejercicio!

3. Supongamos que αv = 0/V.

Si α = 0, no hay nada que probar, supongamos entonces que α 6= 0 y probemos que v = 0/V.

Por ser α 6= 0, existe α−1 ∈ R tal que α−1α = 1 = αα−1. Por lo tanto

v = 1v (por M4.)

= (α−1α)v

= α−1(αv) (por M3.)

= α−1 0/V (por hipotesis)

= 0/V (por la parte 1)

Con lo que culmina la prueba de la parte 3.

4. Sean α ∈ R y v ∈ V cualesquiera. Entonces

αv + (−α)v = (α + (−α))v (por M1.)

= 0v

= 0/V (por la parte 2)

Page 86: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 83

Luego, por A’4. (unicidad del opuesto aditivo), se tiene que (−α)v = −(αv). De manera

analoga se prueba que α(−v) = −(αv). Finalmente, haciendo α = 1 y por M4., obtenemos

(−1)v = −(1v) = −v.

Observacion 2.6. En virtud de las igualdades en la parte 4 del teorema 2.2, podemos escribir

−αv en lugar de −(αv) sin error a confusion.

2.2. Subespacios Vectoriales

Algunos subconjuntos de un espacio vectorial V son, a su vez, espacios vectoriales, consideran-

do sobre ellos las operaciones + y · de V. En esta seccion nos ocuparemos de dichos espacios

vectoriales los cuales son llamados subespacios vectoriales de V.

Definicion 2.3. Sea W un subconjunto no vacıo de un espacio vectorial V. Diremos que W es

un subespacio vectorial o simplemente subespacio de V si W junto con las operaciones + y

· de V es un espacio vectorial.

Ejemplo 2.2.

1. Dado un espacio vectorial V, entonces W = {0/V} es un subespacio de V, el cual es llamado

espacio vectorial nulo, ası como tambien V (ver ejemplo 2.1 parte 7). Estos subespacios

son llamados subespacios triviales de V. Cualquier otro subespacio de V, distinto de

estos dos, es llamado subespacio no trivial. Un subespacio de V distinto de V es llamado

subespacio propio. �

2. Dada una matriz real A ∈ Mm×n(R). Los espacios S y R, dados en la parte 3 del ejemplo

2.1, son subespacios de Mn×1(R) y Mm×1(R) respectivamente. �

3. De la parte 4 del ejemplo 2.1 podemos garantizar que para cada n ∈ N se tiene que Pn[x]

es un subespacio de Pn+1[x] y de P[x]. �

4. El conjunto C [ a , b ] formado por todas las funciones reales continuas sobre el intervalo

cerrado [ a , b ], es un subespacio de F [ a , b ].

En efecto, es claro que C [ a , b ] ⊂ F [ a , b ] (¿por que?) y ademas, la funcion nula esta en

C [ a , b ] (¿por que?), por lo tanto C [ a , b ] es un subconjunto no vacıo de F [ a , b ].

Page 87: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 84

Si f, g ∈ C [ a , b ] y α ∈ R, entonces, por un resultado de Calculo, f + g, αf ∈ C [ a , b ],

cumpliendose A0. y M0.

Finalmente, no es difıcil probar que el resto de las propiedades en la definicion 2.1 son

satisfechas, con lo cual se obtiene que C [ a , b ] es un subespacio de F [ a , b ]. �

Antes de dar algun otro ejemplo de subespacio vectorial, debemos hacer notar que en realidad,

para probar que un subconjunto no vacıo de un espacio vectorial es un subespacio de este ultimo,

solo es necesario probar que satisface las propiedades A0. y M0. como veremos en el siguiente

teorema.

Teorema 2.3. Sea V un espacio vectorial. Un subconjunto W de V es un subespacio vectorial

de V si y solo si

1. W 6= ∅.

2. u + v ∈ W para cualesquiera u, v ∈ W, es decir, W es cerrado bajo la adicion vectorial

(definida sobre V).

3. αv ∈W para cualesquiera α ∈ R y v ∈ V, es decir, W es cerrado bajo la multiplicacion por

escalar (definida sobre V).

Demostracion. Sean V un espacio vectorial y W ⊂ V.

Supongamos que W es un subespacio de V. Entonces por definicion 2.3 tenemos que W 6= ∅y ademas W es un espacio vectorial con las operaciones + y · definidas sobre V, por lo tanto

u + v, αv ∈W para cualesquiera α ∈ R y u, v ∈W.

Supongamos ahora que se cumplen las condiciones 1, 2 y 3 en el enunciado del teorema.

Debemos probar que W junto con las operaciones + y · definidas sobre V es un espacio vectorial.

Segun las hipotesis las condiciones A0. y M0. se satisfacen. Por otro lado, debido a que W ⊂ Vy las condiciones A1., A2., M1., M2., M3. y M4. se satisfacen para cualesquiera u, v, w ∈ V,

entonces dichas condiciones se cumplen para cualesquiera u, v, w ∈ W y α, β ∈ R. Ası que solo

resta probar que 0/W ∈W y que −v ∈W para cada v ∈W.

Como W 6= ∅, existe v0 ∈W. Entonces, en virtud de la condicion 3, 0v0 ∈W, pero por la parte

2 del teorema 2.2 se tiene que 0v0 = 0/V, ası que 0/V ∈W y en consecuencia existe 0/V ∈W tal que

para cada v ∈W se tiene que v + 0/V = v, es decir, la condicion A3. se satisface si sustituimos V

por W. Esto ultimo significa que 0/W = 0/V, es decir, el vector nulo en todos los subespacios de V

es el mismo.

Page 88: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 85

Finalmente, sea v ∈ W cualquiera. Entonces, por la condicion 3, tenemos que (−1)v ∈ W y

dado que (−1)v = −v (por la parte 4 del teorema 2.2), entonces −v ∈W, en consecuencia para

cada v ∈ W existe −v ∈ W tal que v + (−v) = 0/V, es decir, la condicion A4. se satisface si

sustituimos V por W. Otra lectura que le podemos dar a este resultado es que el vector opuesto

aditivo de cualquier vector en un subespacio, es tambien un vector del subespacio.

Observacion 2.7. Segun la demostracion del teorema 2.3, si W es un subespacio vectorial de

un espacio vectorial V, entonces 0/V ∈W.

Ası que para probar que un subconjunto W de un espacio vectorial V es un subespacio de este

ultimo, lo primero que debemos probar es que 0/V ∈ W, esto a su vez garantiza que W 6= ∅. Si

0/V /∈W, entonces W no es un subespacio de V.

El teorema 2.3 permite probar que un subconjunto de un espacio vectorial V es un subespacio

de este solo con probar tres condiciones, sin embargo, el corolario siguiente nos permite hacer la

misma pruebo con solo verificar dos condiciones.

Corolario 2.4. Sea V un espacio vectorial. Un subconjunto W de V es un subespacio de V si y

solo si

1. W 6= ∅.

2. u + αv ∈W para cualesquiera α ∈ R y u, v ∈W.

Demostracion. Supongamos primero que W es un subespacio vectorial de V y probemos que

las condiciones 1 y 2 se cumplen. En primer lugar W 6= ∅ por definicion 2.3. Sean α ∈ R y

u, v ∈W cualesquiera. Entonces, por la parte 3 del teorema 2.3, tenemos que αv ∈W, luego, por

la parte 2 del mismo teorema, se tiene que u + αv ∈W.

Supongamos ahora que las condiciones 1 y 2 se cumplen y probemos que W es un subespacio

vectorial de V. Como W 6= ∅, solo debemos probar que se satisfacen las condiciones 2 y 3 del

teorema 2.3.

Sean u, v ∈W cualesquiera. Entonces u + v = u + 1v ∈W (tomando α = 1 en la condicion 2

de la hipotesis).

Por otro lado, sean α ∈ R y v ∈ W cualesquiera. Entonces 0/V = v + (−v) = v + (−1)v ∈ W(tomando α = −1 y u = v en la condicion 2 de la hipotesis) ası que αv = 0/V +αv ∈W (tomando

u = 0/V en la condicion 2 de la hipotesis). Lo cual concluye la prueba.

Page 89: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 86

Observacion 2.8. Segun la observacion 2.7, la condicion 1 en el teorema 2.3 y la condicion 1

en el corolario 2.4, pueden ser sustituidas por la siguiente condicion.

1. 0/V ∈W.

Observacion 2.9. Recordemos que para probar que los conjuntos S y R, definidos en la parte 3

del ejemplo 2.1, son subespacios deMn×1(R) yMm×1(R), respectivamente (ver parte 2 del ejemplo

2.2), fue necesario probar que eran espacios vectoriales (se dejo como ejercicio), sin embargo, al

usar el teorema 2.3 o el corolario 2.4, vemos que no es necesario. En la seccion 2.6 del presente

capıtulo se dara una demostracion de este hecho usando el corolario 2.4.

Ejercicio 2.3. Sean U, V y W espacios vectoriales. Pruebe que si W es un subespacio de V y

V es un subespacio de U, entonces W es un subespacio de U.

Ejemplo 2.3. Pruebe que W = {a+bx+cx2+dx3 ∈ P3[x] : 2a−b+3c−d = 0; a+b−4c−2d = 0}es un subespacio de P3[x].

Solucion. Es claro que W ⊂ P3[x].

Por otro lado, el polinomio nulo O(x) = 0 = 0+0x+0x2 +0x3 (vector nulo de P3[x]) pertenece

a W ya que {2 · 0 −0 +3 · 0 −0 = 0

0 +0 −4 · 0 −2 · 0 = 0

Sean p(x) = a1 + b1x + c1x2 + d1x

3 y q(x) = a2 + b2x + c2x2 + d2x

3 polinomios cualesquiera en

W y α ∈ R cualquiera. Entonces

{2a1 −b1 +3c1 −d1 = 0

a1 +b1 −4c1 −2d1 = 0y

{2a2 −b2 +3c2 −d2 = 0

a2 +b2 −4c2 −2d2 = 0

Segun el corolario 2.4 y la observacion 2.8, solo falta probar que p(x) + αq(x) ∈W. Pero

p(x) + αq(x) = (a1 + b1x + c1x2 + d1x

3) + α(a2 + b2x + c2x2 + d2x

3)

= (a1 + αa2) + (b1 + αb2)x + (c1 + αc2)x2 + (d1 + αd2)x

3

Ademas

2(a1 + αa2)− (b1 + αb2) + 3(c1 + αc2)− (d1 + αd2)

= 2a1 + 2αa2 − b1 − αb2 + 3c1 + 3αc2 − d1 − αd2

= (2a1 − b1 + 3c1 − d1) + α(2a2 − b2 + 3c2 − d2) = 0 (¿por que?)

Page 90: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 87

y

(a1 + αa2) + (b1 + αb2)− 4(c1 + αc2)− 2(d1 + αd2)

= a1 + αa2 + b1 + αb2 − 4c1 − 4αc2 − 2d1 − 2αd2

= (a1 + b1 − 4c1 − 2d1) + α(a2 + b2 − 4c2 − 2d2) = 0 (¿por que?)

Por lo tanto p(x) + αq(x) ∈W y en consecuencia, W es un subespacio de P3[x].

Teorema 2.5. Sean W1 y W2 subespacios de un espacio vectorial V. Entonces W1 ∩W2 es un

subespacio de V.

Demostracion. Dado que W1,W2 ⊂ V (ya que W1 y W2 son subespacios de V), entonces

W1 ∩W2 ⊂ V, ademas, debido a la observacion 2.7, se tiene que 0/V ∈ W1 y 0/V ∈ W2 y por lo

tanto 0/V ∈W1 ∩W2.

Sean α ∈ R, u, v ∈W1∩W2 cualesquiera. Entonces u, v ∈W1 y u, v ∈W2 y dado queW1 yW2

son subespacios de V, tenemos que u+αv ∈W1 y u+αv ∈W2 y por lo tanto u+αv ∈W1∩W2.

Luego, en virtud del corolario 2.4 y la observacion 2.8, tenemos que W1∩W2 es un subespacio

de V.

Ejercicio 2.4. Dados dos subconjuntos A y B de un espacio vectorial V, definamos el conjunto

A + B = {a + b : a ∈ A y b ∈ B}

Pruebe que si W1 y W2 son subespacios de V, entonces W1 +W2 es un subespacio de V.

Ejercicio 2.5. SeanW1 yW2 dos subespacios de un espacio vectorial V tales queW1∩W2 = {0/V}y V = W1 +W2. Pruebe que para cada v ∈ V existen unicos vectores w1 ∈W1 y w2 ∈W2 tales

que v = w1 + w2.

Ejercicio 2.6. Sean W1,W2, . . . ,Wn subespacios de un espacio vectorial V. Demuestre que

W1 ∩W2 ∩ · · ·Wn es un subespacio de V.

Sugerencia: Proceda por induccion matematica sobre n y use el teorema 2.5.

Page 91: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 88

2.3. Combinacion Lineal y Espacio Generado

Consideremos una matriz real cuadrada de orden 2

[a b

c d

]

Entonces [a b

c d

]= a

[1 0

0 0

]+ b

[0 1

0 0

]+ c

[0 0

1 0

]+ d

[0 0

0 1

]

Esta expresion es llamada combinacion lineal , definamos formalmente este concepto.

Definicion 2.4. Sean V un espacio vectorial y v1, v2, . . . , vn, v ∈ V. Diremos que v es combi-

nacion lineal de v1, v2, . . . , vn si existen escalares α1, α2, . . . , αn ∈ R tales que

v = α1v1 + α2v2 + · · ·+ αnvn.

Observacion 2.10. En la definicion 2.4, podemos escoger una cantidad infinita de vectores en

V, en lugar de v1, v2, . . . , vn ∈ V, para definir combinacion lineal (ver apendice B).

Ejemplo 2.4.

1. El ejemplo hecho al comienzo de la seccion nos dice que cualquier matriz real cuadrada de

orden 2 es combinacion lineal de las matrices

[1 0

0 0

],

[0 1

0 0

],

[0 0

1 0

],

[0 0

0 1

].

En general, si para cada i ∈ {1, . . . , m} y cada j ∈ {1, . . . , n} definimos la matriz Eij ∈Mm×n(R) como aquella matriz cuya ij-esima componente es igual a 1 y el resto es 0,

entonces toda matriz A ∈Mm×n(R) es combinacion lineal de las matrices

E11, E12, . . . , E1n, E21, E22, . . . , E2n . . . , Em1, Em2, . . . , Emn

(¡verifıquelo!) �

2. Cualquier vector p(x) ∈ Pn[x] es combinacion lineal de los polinomios 1, x, . . . , xn (¿por

que?) �

Page 92: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 89

3. Cualquier vector (x1, x2, . . . , xn) ∈ Rn es combinacion lineal de los vectores de Rn

e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . . , 0), . . . , en = (0, . . . , 0, 1)

(¿verifıquelo!) �

Ejemplo 2.5. Determine si el vector v = (9, 5, 6) es combinacion lineal o no de los vectores

v1 = (3,−2, 6) y v2 = (−1,−3, 2)

Solucion. Supongamos que el vector v es combinacion lineal de los vectores v1 y v2. Entonces

existen α1, α2 ∈ R tales que v = α1v1 + α2v2, es decir,

(9, 5, 6) = α1(3,−2, 6) + α2(−1,−3, 2) = (3α1 − α2,−2α1 − 3α2, 6α1 + 2α2)

de donde

3α1 −α2 = 9

−2α1 −3α2 = 5

6α1 +2α2 = 6

Resolvamos este sistema de ecuaciones. La matriz ampliada del sistema es

3 −1 9

−2 −3 5

6 2 6

Hallemos la FERF de esta matriz

3 −1 9

−2 −3 5

6 2 6

F1 → F1 + F2→

1 −4 14

−2 −3 5

6 2 6

F2 → F2 + 2F1→F3 → F3 − 6F1

1 −4 14

0 −11 33

0 26 −78

F2 → − 111

F2→

1 −4 14

0 1 −3

0 26 −78

F1 → F1 + 4F2→F3 → F3 − 26F2

1 0 2

0 1 −3

0 0 0

Obteniedo α1 = 2 y α2 = −3, por lo tanto v = 2v1 − 3v2, es decir, v es combinacion lineal de

v1 y v2.

Ejemplo 2.6. Consideremos los polinomios p(x) = −5− 4x + 9x2, p1(x) = 2−x + 2x2, p2(x) =

2− 2x + 6x2 y p3(x) = x− 4x2 ¿Es p combinacion lineal de p1, p2 y p3?

Page 93: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 90

Solucion. Al igual que en ejemplo precedente, vamos a suponer que la respuesta a la pregunta

es sı, entonces existen α1, α2, α3 ∈ R tales que p(x) = α1p1(x) + α2p2(x) + α3p3(x), para cada

x ∈ R, esto es,

−5− 4x + 9x2 = α1(2− x + 2x2) + α2(2− 2x + 6x2) + α3(x− 4x2) (para cada x ∈ R)

obteniendo el sistema de ecuaciones

2α1 +2α2 = −5

−α1 −2α2 +α3 = −4

2α1 +6α2 −4α3 = 9

La matriz ampliada de este sistema es equivalente por filas a la matriz

1 0 1 −9

0 1 −1 12

0 0 0 −12

(¡verifıquelo!)

por lo tanto, el sistema original no tiene solucion (¿por que?), en consecuencia, p no es combi-

nacion lineal de p1, p2 y p3.

Si consideramos el polinomio p4(x) = 1− 2x + 3x2 ¿Es p combinacion lineal de p1, p2, p3 y p4?

Observacion 2.11. En terminos generales, el problema de decidir si un vector v en un espacio

vectorial V es combinacion lineal de algunos vectores v1, v2, . . . , vn ∈ V, esta relacionado con la

resolucion de un sistema de ecuaciones adecuado, como vimos en los dos ejemplos 2.5 y 2.6.

Ejercicio 2.7. Pruebe que si A, B ∈ Mm×n(R) son equivalentes por filas, entonces cada fila de

B es combinacion lineal de las filas de A y viceversa.

Definicion 2.5. Sean V un espacio vectorial y v1, v2, . . . , vn ∈ V. El conjunto

gen({v1, v2, . . . , vn}) =

{w ∈ V : w = α1v1 + α2v2 + · · ·+ αnvn para algunos escalares α1, α2, . . . , αn ∈ R}

es llamado el espacio generado por los vectores v1, v2, . . . , vn. Es decir, gen({v1, v2, . . . , vn}) es

el conjunto formado por todas las combinaciones lineales de v1, v2, . . . , vn.

Ejemplo 2.7.

Page 94: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 91

1. Segun la parte 1 del ejemplo 2.4 se tiene que

Mm×n(R) = gen({E11, E12, . . . , E1n, E21, E22, . . . , E2n . . . , Em1, Em2, . . . , Emn})

y segun las partes 2 y 3 del mismo ejemplo, tenemos que

Pn[x] = gen({1, x, . . . , xn}) y Rn = gen({e1, e2, . . . , en})

2. El vector v = (9, 5, 6) pertenece al conjunto gen({(3,−2, 6), (−1,−3, 2)}) (ver ejemplo 2.5)

3. Del ejemplo 2.6 podemos garantizar que

−5− 4x + 9x2 /∈ gen({2− x + 2x2, 2− 2x + 6x2, x− 4x2})

Ejemplo 2.8. Hallar gen({2− x + 2x2, 2− 2x + 6x2, x− 4x2})

Solucion. Notese primero que a + bx + cx2 ∈ gen({2− x + 2x2, 2− 2x + 6x2, x− 4x2}) si y solo

si existen escalares α1, α2, α3 ∈ R tales que, para cada x ∈ R,

a + bx + cx2 = α1(2− x + 2x2) + α2(2− 2x + 6x2) + α3(x− 4x2)

= (2α1 + 2α2) + (−α1 − 2α2 + α3)x + (2α1 + 6α2 − 4α3)x2

Lo que equivale a decir que el sistema de ecuaciones

2α1 +2α2 = a

−α1 −2α2 +α3 = b

2α1 +6α2 −4α3 = c

tiene al menos una solucion.

Resolvamos este sistema. La matriz ampliada del sistema es

2 2 0 a

−1 −2 1 b

2 6 −4 c

Page 95: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 92

Hallemos la FERF de esta matriz

2 2 0 a

−1 −2 1 b

2 6 −4 c

F1 → F1 + F2→

1 0 1 a + b

−1 −2 1 b

2 6 −4 c

F2 → F2 + F1→F3 → F3 − 2F1

1 0 1 a + b

0 −2 2 a + 2b

0 6 −6 −2a− 2b + c

F2 → −1

2F2→

1 0 1 a + b

0 1 −1 −12a− b

0 6 −6 −2a− 2b + c

F3 → F3 − 6F2→

1 0 1 a + b

0 1 −1 −12a− b

0 0 0 a + 4b + c

Sin necesidad de hallar la FERF de la matriz, obtenemos que el sistema original tiene solucion

si y solo si a + 4b + c = 0.

En consecuencia

gen({2− x + 2x2, 2− 2x + 6x2, x− 4x2}) = {a + bx + cx2 ∈ P3[x] : a + 4b + c = 0}

Es de hacer notar que el conjunto W, hallado en el ejemplo 2.8, es un subespacio de P3[x]

(¡pruebelo!). Este resultado no es casual, como veremos en el siguiente teorema.

Teorema 2.6. Sean V un espacio vectorial y v1, v2, . . . , vn ∈ V. Entonces gen({v1, v2, . . . , vn})es un subespacio de V.

Demostracion. Definamos S = {v1, v2, . . . , vn}. Por definicion, gen(S) = gen({v1, v2, . . . , vn})es un subconjunto de V. Ademas, por la parte 2 del teorema 2.2 y la parte 2 del ejercicio 2.1

0/V = 0(v1 + v2 + · · ·+ vn) = 0 · v1 + 0 · v2 + · · ·+ 0 · vn ∈ gen(S).

Finalmente, sean α ∈ R y u, v ∈ gen(S) cualesquiera. Entonces, por definicion de gen(S),

existen β1, β2, . . . , βn, α1, α2, . . . , αn ∈ R tales que

u = α1v1 + α2v2 + · · ·+ αnvn y v = β1v1 + β2v2 + · · ·+ βnvn

Por lo tanto

u + αv = (α1v1 + α2v2 + · · ·+ αnvn) + α(β1v1 + β2v2 + · · ·+ βnvn)

= (α1 + αβ1)v1 + (α2 + αβ2)v2 + · · ·+ (αn + αβn)vn

Page 96: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 93

Ası que u + αv ∈ gen(S) y en consecuencia gen(S) es un subespacio de V.

Definicion 2.6. Sean V un espacio vectorial y v1, v2, . . . , vn ∈ V. Diremos que v1, v2, . . . , vn

generan a V o que el conjunto S = {v1, v2, . . . , vn} genera a V o que S es un conjunto

generador de V si V = gen(S) = gen({v1, v2, . . . , vn}).

Ejemplo 2.9. Por la parte 1 del ejemplo 2.7 podemos decir que:

1. Los vectores (matrices) E11, E12, . . . , E1n, E21, E22, . . . , E2n . . . , Em1, Em2, . . . , Emn generan

a Mm×n(R). �

2. El conjunto {1, x, . . . , xn} genera a Pn[x]. �

3. {e1, e2, . . . , en} es un conjunto generador de Rn. �

Ejemplo 2.10. Hallar un conjunto generador del subespacio W de P3[x] dado en el ejemplo 2.3

Solucion. Sabemos que

W = {a + bx + cx2 + dx3 ∈ P3[x] : 2a− b + 3c− d = 0; a + b− 4c− 2d = 0}

Ası que a + bx + cx2 + dx3 ∈W si y solo si

{2a −b +3c −d = 0

a +b −4c −2d = 0

resolvamos este sistema homogeneo. La matriz del sistema es

[2 −1 3 −1

1 1 −4 −2

]

La FERF de esta matriz es

[1 0 −1

3−1

0 1 −113−1

](¡verifıquelo!)

Por lo tanto, a + bx + cx2 + dx3 ∈W si y solo si

{a −1

3c −d = 0

b −113c −d = 0

Page 97: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 94

o equivalentemente {a = 1

3c + d

b = 113c + d

Haciendo c = 3α y d = β, con α, β ∈ R, obtenemos

a + bx + cx2 + dx3 = (α + β) + (11α + β)x + 3αx2 + βx3 = α(1 + 11x + 3x2) + β(1 + x + x3)

para cada x ∈ R. Luego

W = gen({1 + 11x + 3x2, 1 + x + x3})

En consecuencia {1 + 11x + 3x2, 1 + x + x3} es un conjunto generador de W.

Teorema 2.7. Sean V un espacio vectorial y v1, v2, . . . , vn, u ∈ V. Si u ∈ gen({v1, v2, . . . , vn}),entonces

gen({v1, v2, . . . , vn, u}) = gen({v1, v2, . . . , vn})

Demostracion. Escojamos un vector v ∈ gen({v1, v2, . . . , vn, u}) cualquiera. Entonces existen

α1, α2, . . . , αn, α ∈ R tales que v = α1v1 + α2v2 + · · ·+ αnvn + αu.

Pero por hipotesis u ∈ gen({v1, v2, . . . , vn}), entonces existen β1, β2, . . . , βn ∈ R tales que

u = β1v1 + β2v2 + · · ·+ βnvn.

Luego

v = α1v1 + α2v2 + · · ·+ αnvn + α(β1v1 + β2v2 + · · ·+ βnvn) = (α1 + αβ1)v1 + · · ·+ (αn + αβn)vn

en consecuencia

v ∈ gen({v1, v2, . . . , vn})

por lo tanto

gen({v1, v2, . . . , vn, u}) ⊂ gen({v1, v2, . . . , vn}) (2.4)

Por otro lado, sea v ∈ gen({v1, v2, . . . , vn}) cualquiera. Entonces existen α1, α2, . . . , αn ∈ Rtales que v = α1v1 + α2v2 + · · ·+ αnvn ası que

v = α1v1 + α2v2 + · · ·+ αnvn = α1v1 + α2v2 + · · ·+ αnvn + 0/V = α1v1 + α2v2 + · · ·+ αnvn + 0u

es decir, v ∈ gen({v1, v2, . . . , vn, u}) de donde

gen({v1, v2, . . . , vn}) ⊂ gen({v1, v2, . . . , vn, u}) (2.5)

De (2.4) y (2.5) obtenemos que

gen({v1, v2, . . . , vn, u}) = gen({v1, v2, . . . , vn})

Page 98: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 95

2.4. Independencia y Dependencia Lineal

Uno de los conceptos mas importantes en espacios vectoriales, y en el algebra lineal en general,

es el de independencia lineal , por lo que pedimos se estudie con mucha detenimiento y cuidado

la presente seccion del capıtulo. Daremos una variedad de ejemplos para tratar de explicar lo

mejor posible dicho concepto.

Dados un espacio vectorial V y vectores v1, v2, . . . , vn ∈ V, entonces 0/V = 0v1+0v2+· · ·+0vn, es

decir, siempre podemos escribir el vector nulo 0/V como combinacion lineal de cualquier cantidad

finita de vectores en V.

Ahora bien, en M2×3(R) escojamos los vectores

A1 =

[1 0 −2

−2 5 −3

], A2 =

[2 −3 −4

−1 1 0

]y A3 =

[−4 9 8

−1 7 −6

]

entonces

[0 0 0

0 0 0

]= 2 ·A1− 3 ·A2−A3 = 2 ·

[1 0 −2

−2 5 −3

]− 3 ·

[2 −3 −4

−1 1 0

]−[−4 9 8

−1 7 −6

]

En conclusion, la unica manera de escribir al vector nulo, como combinacion lineal de una

cantidad finita de vectores, no necesariamente es unica.

Estos dos ejemplos dan pie a la siguiente definicion.

Definicion 2.7. Sean V un espacio vectorial y v1, v2, . . . , vn ∈ V. Diremos v1, v2, . . . , vn son

linealmente independientes o que {v1, v2, . . . , vn} es un conjunto linealmente indepen-

diente si la unica manera de escribir el vector nulo 0/V, como combinacion lineal de los vec-

tores v1, v2, . . . , vn, es aquella en la cual todos los escalares son iguales a cero (0), esto es, si

α1v1 + α2v2 + · · ·+ αnvn = 0/V, entonces α1 = α2 = · · · = αn = 0.

Diremos que v1, v2, . . . , vn son linealmente dependientes o que {v1, v2, . . . , vn} es un con-

junto linealmente dependiente si v1, v2, . . . , vn no son linealmente independientes, es decir,

existen escalares α1, α2, . . . , αn ∈ R, no todos nulos, tales que α1v1 + α2v2 + · · ·+ αnvn = 0/V.

Ejemplo 2.11.

1. Segun el ejemplo dado previamente a la definicion 2.7, se tiene que A1, A2, A3 son lineal-

mente dependientes. �

Page 99: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 96

2. No es difıcil probar que los conjuntos

{1, x, . . . , xn}, {e1, e2, . . . , en} y

{E11, E12, . . . , E1n, E21, E22, . . . , E2n, . . . , Em1, Em2, . . . , Emn}

son linealmente independientes (en sus correspondientes espacios). �

3. Dados un espacio vectorial V y v1, v2, . . . , vn ∈ V, entonces {v1, v2, . . . , vn, 0/V} es linealmen-

te dependiente pues

0/V = 0v1 + 0v2 + · · ·+ 0vn + 1 0/V

es decir, en un espacio vectorial, cualquier conjunto finito de vectores que contenga al vector

nulo, es linealmente dependiente. �

4. Sea v un vector no nulo en un espacio vectorial V, entonces el conjunto {v} es linealmente

independiente ya que si αv = 0/V y dado que v 6= 0/V, entonces α = 0 (en virtud de la parte

3 del teorema 2.2). �

Antes de dar algun otro ejemplo, debemos hacer notar que para determinar si un conjunto de

vectores {v1, v2, . . . , vn}, en un espacio vectorial V, es linealmente independiente o dependiente,

debemos plantearnos la ecuacion α1v1 + α2v2 + · · · + αnvn = 0/V, la cual conduce, en general, a

un sistema de ecuaciones homogeneo con n incognitas, a saber, α1, α2, . . . , αn. Si la solucion de

este sistema es unica, y en consecuencia α1 = α2 = · · · = αn = 0, entonces {v1, v2, . . . , vn} es un

conjunto linealmente independiente, en caso contrario, {v1, v2, . . . , vn} es un conjunto linealmente

dependiente.

Ejemplo 2.12. Consideremos los vectores p1(x), p2(x), p3(x), p4(x) ∈ P2[x] dados en el ejemplo

2.6. Decidir si estos vectores son o no linealmente independientes.

Solucion. Como se comento antes del ejemplo, debemos estudiar la ecuacion

α1p1(x) + α2p2(x) + α3p3(x) + α4p4(x) = 0 (para todo x ∈ R)

Pero

α1p1(x) + α2p2(x) + α3p3(x) + α4p4(x) = α1(2− x + 2x2) + α2(2− 2x + 6x2) + α3(x− 4x2)

+α4(1− 2x + 3x2)

= (2α1 + 2α2 + α4) + (−α1 − 2α2 + α3 − 2α4)x

+(2α1 + 6α2 − 4α3 + 3α4)x2

Page 100: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 97

Obteniendo el siguiente sistema de ecuaciones homogeneo

2α1 +2α2 +α4 = 0

−α1 −2α2 +α3 −2α4 = 0

2α1 +6α2 −4α3 +3α4 = 0

El cual sabemos tiene infinitas soluciones (¿por que?) y en consecuencia los polinomios p1(x),

p2(x), p3(x) y p4(x) son linealmente dependientes.

Ejemplo 2.13. Consideremos los polinomios p1(x), p2(x) y p4(x) del ejemplo anterior ¿son

linealmente independientes?

Solucion. Como en el ejemplo anterior, debemos plantearnos la ecuacion

α1p1(x) + α2p2(x) + α4p4(x) = 0 (para todo x ∈ R) (2.6)

Obteniendo el sistema

2α1 +2α2 +α4 = 0

−α1 −2α2 −2α4 = 0

2α1 +6α2 +3α4 = 0

La matriz de este sistema es

2 2 1

−1 −2 −2

2 6 3

Hallemos su FERF.

2 2 1

−1 −2 −2

2 6 3

F1 → F1 + F2→

1 0 −1

−1 −2 −2

2 6 3

F2 → F2 + F1→F3 → F3 − 2F1

1 0 −1

0 −2 −3

0 6 5

F2 → −12F2→

1 0 −1

0 1 32

0 6 5

F3 → F3 − 6F2→

1 0 −1

0 1 32

0 0 −4

F3 → −1

4F3→

1 0 −1

0 1 32

0 0 1

F1 → F1 + F3→F2 → F2 − 3

2F3

1 0 0

0 1 0

0 0 1

Page 101: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 98

De donde

α1 = α2 = α4 = 0

En consecuencia la ecuacion 2.6 tiene como unica solucion la trivial y por lo tanto p1(x), p2(x) y

p4(x) son linealmente independientes.

Ejemplo 2.14. Sean A1 =

[5 4

2 −1

], A2 =

[3 −1

1 3

]y A3 =

[1 −1

−4 5

]. ¿Es

{A1, A2, A3} un conjunto linealmente independiente?

Solucion. Sean α1, α2, α3 ∈ R tales que α1A1 + α2A2 + α3A3 = 0/2. Entonces

[5α1 + 3α2 + α3 4α1 − α2 − α3

2α1 + α2 − 4α3 −α1 + 3α2 + 5α3

]=

[0 0

0 0

]

De donde

5α1 +3α2 +α3 = 0

4α1 −α2 −α3 = 0

2α1 +α2 −4α3 = 0

−α1 +3α2 +5α3 = 0

Resolvamos este sistema. La matriz del sistema es

5 3 1

4 −1 −1

2 1 −4

−1 3 5

Hallemos su FERF.

5 3 1

4 −1 −1

2 1 −4

−1 3 5

F1 → F1 − F2→

1 4 2

4 −1 −1

2 1 −4

−1 3 5

F2 → F2 − 4F1→F3 → F3 − 2F1

F4 → F4 + F1

1 4 2

0 −17 −9

0 −7 −8

0 7 7

F2 ↔ F4→

1 4 2

0 7 7

0 −7 −8

0 −17 −9

F2 → 17F2→

1 4 2

0 1 1

0 −7 −8

0 −17 −9

F1 → F1 − 4F2→F3 → F3 + 7F2

F4 → F4 + 17F2

1 0 −2

0 1 1

0 0 −1

0 0 8

Page 102: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 99

F3 → −F3→

1 0 −2

0 1 1

0 0 1

0 0 8

F1 → F1 + 2F3→F2 → F2 − F3

F4 → F4 − 8F3

1 0 0

0 1 0

0 0 1

0 0 0

Por lo tanto α1 = α2 = α3 = 0 y en consecuencia {A1, A2, A3} es linealmente independiente.

Teorema 2.8. Sean V un espacio vectorial y u, v ∈ V. Los vectores u, v son linealmente depen-

dientes si y solo si existe α ∈ R tal que u = αv o v = αu.

Demostracion. Supongamos que u, v son linealmente dependientes. Entonces existen λ, β ∈ R,

no ambos nulos, tales que λu + βv = 0/V.

Si λ 6= 0, entonces u = −β

λv. Haciendo α = −β

λ, obtenemos que u = αv.

Si λ = 0, entonces βv = 0/V y ademas, por hipotesis, β 6= 0 y en consecuencia v = 0/V = 0u.

Haciendo α = 0, obtenemos v = αu.

Supongamos ahora que existe α ∈ R tal que u = αv o v = αu. En consecuencia 1u+(−α)v = 0/V

o αu + (−1)v = 0/V, en cualquier caso, concluimos que u, v son linealmente dependientes.

Teorema 2.9. Sea A ∈ Mm×n(R). Las columnas de A, A(1), A(2), . . . , A(n), son linealmente

dependientes en Mm×1(R) si y solo si el sistema Ax = 0/m×1 tiene soluciones no triviales.

Demostracion. Sea A ∈ Mm×n(R). Entonces A(1), A(2), . . . , A(n) son linealmente dependientes

si y solo si existen escalares α1, α2, . . . , αn ∈ R, no todos nulos, tales que

α1A(1) + α2A

(2) + · · ·+ αnA(n) = 0/m×1

Por la observacion 1.20

α1A(1) + α2A

(2) + · · ·+ αnA(n) = A

α1

α2

...

αn

Ası que A(1), A(2), . . . , A(n) son linealmente dependientes si y solo si el sistema Ax = 0/m×1 tiene

soluciones no triviales.

Page 103: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 100

Como consecuencia del teorema 2.9 obtenemos los siguientes corolarios.

Corolario 2.10. Sea A ∈Mn×n(R). Entonces las siguientes proposiciones son equivalentes.

1. det(A) 6= 0.

2. Las columnas de A, A(1), A(2), . . . , A(n), son linealmente independientes.

3. Las filas de A, A(1), A(2), . . . , A(n), son linealmente independientes.

Demostracion. ¡Ejercicio!

Corolario 2.11. Sea A ∈ Mm×n(R). Si F es la FERF de A, entonces las columnas de F

con los pivotes, representan las columnas de A que son linealmente independientes, es decir, si

F (j1), F (j2), . . . , F (jr) son las columnas de F con los pivotes, entonces A(j1), A(j2), . . . , A(jr) son las

columnas de A que son linealmente independientes.

Demostracion. ¡Ejercicio!

Teorema 2.12. Sean {v1, v2, . . . , vn} un subconjunto linealmente independiente de un espacio

vectorial V y u ∈ V tal que u /∈ gen({v1, v2, . . . , vn}). Entonces {v1, v2, . . . , vn, u} es linealmente

independiente.

Demostracion. Sean α1, α2, . . . , αn, α ∈ R tales que

α1v1 + α2v2 + · · ·+ αnvn + αu = 0/V

Si α 6= 0, entonces

u =(−α1

α

)v1 +

(−α2

α

)v2 + · · ·+

(−αn

α

)vn

lo que contradice la hipotesis de que u /∈ gen({v1, v2, . . . , vn}). Por lo tanto α = 0, de donde

α1v1 + α2v2 + · · ·+ αnvn = 0/V

y dado que {v1, v2, . . . , vn} es linealmente independiente, se tiene que α1 = α2 = · · · = αn = 0.

En consecuencia {v1, v2, . . . , vn, u} es linealmente independiente.

Page 104: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 101

2.5. Bases y Dimension

Segun el ejemplo 2.9 y la parte 2 del ejemplo 2.11 tenemos que:

1. {1, x, . . . , xn} es un conjunto generador de Pn[x] y ademas es linealmente independiente.

2. {e1, e2, . . . , en} es un conjunto linealmente independiente y genera a Rn.

3. {E11, E12, . . . , E1n, E21, E22, . . . , E2n . . . , Em1, Em2, . . . , Emn} es un conjunto generador de

Mm×n(R) y es linealmente independiente.

Conjuntos con estas caracterısticas nos son de mucha utilidad en el estudio de los espacios

vectoriales y dan pie a la siguiente definicion.

Definicion 2.8. Sea V un espacio vectorial. Un conjunto {v1, v2, . . . , vn} ⊂ V es una base de

V si

1. gen({v1, v2, . . . , vn}) = V, es decir, {v1, v2, . . . , vn} es un conjunto generador de V.

2. {v1, v2, . . . , vn} es linealmente independiente.

Observacion 2.12. Si V = {0/V} es el espacio nulo, entonces una base de V, de hecho la unica

base de V, es el conjunto vacıo ∅ = {}

Ejemplo 2.15.

1. {1, x, . . . , xn} es una base de Pn[x]. �

2. {e1, e2, . . . , en} es una base de Rn. �

3. {E11, E12, . . . , E1n, E21, E22, . . . , E2n . . . , Em1, Em2, . . . , Emn} es una base de Mm×n(R). �

Cada una de estas bases es llamada base canonica o estandar del correspondiente espacio.

Ejemplo 2.16. Ningun conjunto finito de polinomios en x es una base de P[x], en efecto, consi-

deremos un conjunto finito cualquiera de polinomios, digamos {p1(x), p2(x), . . . , pn(x)}, entonces

para cualesquiera α1, α2, . . . , αn ∈ R tenemos que α1p1(x)+α2p2(x)+· · ·+αnpn(x) es un polinomio

a lo sumo de grado k, donde k es el maximo entre los grados de los polinomios p1, p2, . . . , pn,

es decir, cualquier combinacion lineal de los polinomios p1, p2, . . . , pn es un polinomio a lo sumo

Page 105: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 102

de grado k, en consecuencia p(x) = xk+1 ∈ P[x] pero p(x) /∈ gen({p1(x), p2(x), . . . , pn(x)}), de

donde gen({p1(x), p2(x), . . . , pn(x)}) 6= P[x]. Lo cual prueba lo afirmado al principio.

Lo anterior nos dice que P[x] no tiene una base finita. Aunque en este capıtulo no trataremos

las bases infinitas (ver apendice B), afirmamos que una base para P[x] es

{1, x, x2, . . . , xn, . . .}

Ejemplo 2.17. Hallar una base del subespacio

W =

{[a b

c d

]: −5a + 6b + 4c− 2d = 0

}

Solucion.

[a b

c d

]∈W si y solo si −5a+6b+4c−2d = 0 o bien, si y solo si d = −5

2a+3b+2c.

Ası que[a b

c d

]∈W si y solo si

[a b

c d

]=

[a b

c −52a + 3b + 2c

]= a

[1 0

0 −52

]+ b

[0 1

0 3

]+ c

[0 0

1 2

]

Por lo tanto

W = gen

({[1 0

0 −52

],

[0 1

0 3

],

[0 0

1 2

]})

No es difıcil probar que {[1 0

0 −52

],

[0 1

0 3

],

[0 0

1 2

]}

es linealmente independiente, y en consecuencia es una base de W.

Ejemplo 2.18. Considere los polinomios p1(x), p2(2), p4(x) ∈ P2[x] del ejemplo 2.13. Pruebe que

β = {p1(x), p2(x), p4(x)} es una base de P2[x].

Solucion. Sabemos que el conjunto β = {p1(x), p2(x), p4(x)} es linealmente independiente, en

virtud del ejemplo 2.13, ası que solo falta probar que dicho conjunto genera a P2[x]. Sea p(x) = a+

bx+cx2 ∈ P2[x] cualquiera, queremos probar que la ecuacion α1p1(x)+α2p2(x)+α4p4(x) = p(x),

Page 106: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 103

para todo x ∈ R, tiene solucion para α1, α2, α4 ∈ R. Pero dicha ecuacion es equivalente al sistema

de ecuaciones

2α1 +2α2 +α4 = a

−α1 −2α2 −2α4 = b

2α1 +6α2 +3α4 = c

(¡verifıquelo!)

La matriz de este sistema es

2 2 1

−1 −2 −2

2 6 3

y por el ejemplo 2.13, sabemos que es equivalente por filas a I3, en consecuencia, el sistema en

cuestion, tiene solucion (unica), lo cual concluye la prueba.

Ejemplo 2.19. Considere los polinomios p1(x), p2(x), p3(x) y p4(x) del ejemplo 2.12. Entonces

{p1(x), p2(x), p3(x), p4(x)} no es una base de P2[x], por ser linealmente dependiente, sin embargo

es un conjunto generador de P2[x]. El conjunto {p1(x), p2(x)} tampoco es una base de P2[x], por

no ser un conjunto generador de P2[x], pero es linealmente independiente. �

La unicidad de los escalares en el ejemplo 2.18 es una regla la cual enunciaremos en el siguiente

teorema.

Teorema 2.13. Sea β = {v1, v2, . . . , vn} una base de un espacio vectorial V. Entonces para cada

v ∈ V existen unicos escalares α1, α2, . . . , αn ∈ R tales que v = α1v1 + α2v2 + · · ·+ αnvn.

Demostracion. Sea v ∈ V un vector cualquiera. Dado que β = {v1, v2, . . . , vn} es una base

de V, entonces β genera a V, ası que la existencia de los escalares en el enunciado del teorema

esta garantizada. Supongamos que existen escalares α1, α2, . . . , αn, λ1, λ2, . . . , λn ∈ R tales que

v = α1v1 + α2v2 + · · ·+ αnvn y v = λ1v1 + λ2v2 + · · ·+ λnvn

Luego

0/V = v − v

= (α1v1 + α2v2 + · · ·+ αnvn)− (λ1v1 + λ2v2 + · · ·+ λnvn)

= (α1 − λ1)v1 + (α2 − λ2)v2 + · · ·+ (αn − λn)vn

Como β = {v1, v2, . . . , vn} es una base, entonces β es linealmente independiente, por lo tanto

α1 − λ1 = α2 − λ2 = · · · = αn − λn = 0

Page 107: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 104

es decir,

α1 = λ1, α2 = λ2, . . . , αn = λn

con lo cual obtenemos la unicidad de los escalares.

Notese que hemos hallado dos bases de P2[x], a saber la base canonica βc = {1, x, x2} y la base

β = {p1(x), p2(x), p4(x)} del ejemplo 2.18, y ambas tienen la misma cantidad de vectores, en este

caso tres (3), esta situacion no es para nada casual, como veremos en el siguiente teorema.

Teorema 2.14. Sean β1 = {u1, u2, . . . , un} y β2 = {v1, v2, . . . , vm} dos bases de un espacio

vectorial V. Entonces m = n, esto es, si un espacio vectorial V tiene una base finita, entonces

todas sus bases tienen la misma cantidad de elementos.

Demostracion. Supongamos que m < n. Dado que β2 es una base de V, entonces, para cada

j ∈ {1, . . . , n}, existen escalares α1j, α2j , . . . , αmj ∈ R tales que

uj = α1jv1 + α2jv2 + · · ·+ αmjvm

Sean λ1, λ2, . . . , λn ∈ R tales que

λ1u1 + λ2u2 + · · ·+ λnun = 0/V

Luego

0/V = λ1(α11v1 + α21v2 + · · ·+ αm1vm) + λ2(α12v1 + α22v2 + · · ·+ αm2vm) + · · ·++λn(α1nv1 + α2nv2 + · · ·+ αmnvm)

= (α11λ1 + α12λ2 + · · ·+ α1nλn)v1 + (α21λ1 + α22λ2 + · · ·+ α2nλn)v2 + · · ·++(αm1λ1 + αm2λ2 + · · ·+ αmnλn)vm

Pero β2 = {v1, v2, . . . , vm} es linealmente independiente, por ser una base de V, ası que

α11λ1 + α12λ2 + · · ·+ α1nλn = 0

α21λ1 + α22λ2 + · · ·+ α2nλn = 0...

......

......

αm1λ1 + αm2λ2 + · · ·+ αmnλn = 0

Este es un sistema de ecuaciones lineales con m ecuaciones y n incognitas que son λ1, λ2, . . . , λn.

Como m < n, al usar el teorema 1.16, concluimos que el sistema anterior tiene soluciones no

triviales, es decir, existen λ1, λ2, . . . , λn ∈ R, no todos nulos, tales que

λ1u1 + λ2u2 + · · ·+ λnun = 0/V

Page 108: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 105

es decir, β1 = {u1, u2, . . . , un} es linealmente dependiente, lo que contradice el hecho de que β1

es una base de V, por lo tanto m ≥ n. Analogamente se prueba que m ≤ n y por lo tanto m = n.

El teorema 2.14 da pie a la siguiente definicion.

Definicion 2.9. Sea V un espacio vectorial. Diremos que V tiene dimension cero o dimen-

sion nula si V = {0/V}, diremos que la dimension de V es n si V tiene una base con n elementos,

en ambos casos diremos que V tiene dimension finita. Si V no posee una base finita, diremos

que V tiene dimension infinita. En todos los casos la dimension de V se denota por dim(V).

Ejemplo 2.20.

1. Del ejemplo 2.15 podemos garantizar que dim(Pn[x]) = n + 1, dim(Mm×n(R)) = mn y

dim(Rn) = n.

2. Si W es el subespacio del ejemplo 2.17, entonces dim(W) = 3.

3. El espacio vectorial P[x] es un espacio de dimension infinita (ver ejemplo 2.16).

Observacion 2.13. El problema de encontrar la dimension de un espacio vectorial esta rela-

cionado con la busqueda de una base de dicho espacio, como vimos en el ejemplo 2.20.

Teorema 2.15. Sean V un espacio vectorial de dimension n y v1, v2, . . . , vm ∈ V.

1. Si {v1, v2, . . . , vm} es linealmente independiente, entonces m ≤ n.

2. Si {v1, v2, . . . , vm} genera a V, entonces m ≥ n.

Demostracion. Sea β = {u1, u2, . . . , un} una base de V.

1. Suponga que m > n y haga una prueba analoga a la del teorema 2.14.

2. ¿Ejercicio!

Sugerencia: Use el ejercicio 1.6.

Como consecuencia del teorema 2.15 se tiene el siguiente teorema.

Page 109: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 106

Teorema 2.16. Sean V un espacio vectorial de dimension n y S = {v1, v2, . . . , vn} ⊂ V.

1. Si S es linealmente independiente, entonces S es una base de V.

2. Si S genera a V, entonces S es una base de V.

Demostracion. ¡Ejercicio!

Sugerencia: En ambos casos suponga que S no es una base, luego para la parte 1 use el

teorema 2.12 y para la parte 2 use el teorema 2.7.

Teorema 2.17. Sea W un subespacio de un espacio vectorial de dimension finita V. Entonces

dim(W) ≤ dim(V). Ademas, si dim(W) = dim(V), entonces W = V.

Demostracion. Sean dim(V) = n y βW una base de W. Entonces βW es linealmente indepen-

diente en W, luego βW es linealmente independiente en V (¿por que?). Por lo tanto, por la parte

1 el teorema 2.15, βW tiene a lo sumo n elementos, esto es, dim(W) ≤ n = dim(V).

Ademas, si dim(W) = dim(V), entonces βW es un conjunto linealmente independiente con n

elementos. Por lo tanto βW es una base de V (¿por que?). En consecuencia W = gen(βW) = V.

Observacion 2.14. Todo espacio vectorial que contenga un subespacio de dimensien infinita,

es tambien de dimension infinita.

Ejemplo 2.21. Sean a, b ∈ R cualesquiera. Entonces P[x] puede verse como un subespacio de

C [ a , b ] (¿por que?) y como P[x] tiene dimension finita (ver parte 3 de ejemplo 2.20), entonces,

por la observacion 2.14, C [ a , b ] de dimension infinita.

Teorema 2.18. Sea V un espacio vectorial de dimension n y S = {v1, v2, . . . , vm} ⊂ V.

1. Si S es linealmente independiente, entonces existe una base β de V tal que S ⊂ β.

2. Si S genera a V, entonces existe una base β de V tal que β ⊂ S.

Demostracion.

1. Dado que S es linealmente independiente, entonces m ≤ n, segun la parte 1 del teorema

2.15.

Page 110: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 107

Si S genera a V, entonces S es una base de V, ası que β = S es una base de V que contiene

a S. De lo contrario, existe un vector vm+1 ∈ V tal que vm+1 /∈ gen({v1, v2, . . . , vm}). Luego

{v1, v2, . . . , vm, vm+1} es linealmente independiente, en virtud del teorema 2.12.

Si {v1, v2, . . . , vm, vm+1} genera a V, entonces β = {v1, v2, . . . , vm, vm+1} es una base de V

tal que S ⊂ β. Sino, podemos escoger vm+2 ∈ V tal que vm+2 /∈ gen({v1, v2, . . . , vm, vm+1})y al igual que antes {v1, v2, . . . , vm, vm+1, vm+2} es linealmente independiente.

Continuamos con este proceso hasta completar un conjunto linealmente independiente β =

{v1, v2, . . . , vm, vm+1, . . . , vn}, el cual es, por lo tanto, una base de V y ademas S ⊂ β.

2. ¡Ejercicio!

Sugerencia: Si S es linealmente independiente, entonces β = S es la base buscada, de lo

contrario existe k ∈ {1, . . . , m} tal que vk ∈ gen({v1, v2, . . . , vk−1, vk+1, . . . , vm}). Continuar

este proceso hasta obtener la base β buscada.

2.6. Rango, Nulidad, Espacio Fila y Espacio Columna de

una Matriz

En la observacion 2.9 se afirmo que en la presente seccion se probarıa formalmente, usando el

corolario 2.4, que los conjuntos S y R, definidos en la parte 3 del ejemplo 2.1, son subespacios

de Mn×1(R) y Mm×1(R), respectivamente. Antes que nada definiremos mas formalmente dichos

conjuntos.

Definicion 2.10. Consideremos una matriz A ∈Mm×n(R). El conjunto

N(A) = Ker(A) = {x ∈Mn×1(R) : Ax = 0/m×1}

es llamado espacio nulo, nucleo o kernel de A; y el conjunto

Im(A) = {y ∈Mm×1(R) : Ax = y para algun x ∈Mn×1(R)}

se conoce como imagen o recorrido de A.

Observacion 2.15. Notemos que por definicion y ∈ Im(A) si y solo si existe x ∈ Mn×1(R) tal

que Ax = y.

Page 111: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 108

Antes de dar algun ejemplo enunciaremos el teorema que permite garantizar que N(A) e Im(A)

son subespacios.

Teorema 2.19. Sea A ∈ Mm×n(R) cualquiera. Entonces N(A) es un subespacio de Mn×1(R) e

Im(A) es un subespacio de Mm×1(R).

Demostracion. Solo probaremos que Im(A) es un subespacio de Mm×1(R), se deja como ejer-

cicio probar que N(A) es un subespacio de Mn×1(R).

Notemos primero que por definicion Im(A) ⊂ Mm×1(R). Por otro lado, como A 0/n×1 = 0/m×1,

entonces 0/m×1 ∈ Im(A).

Finalmente, sean α ∈ R y y1, y2 ∈ Im(A) cualesquiera. Entonces existen x1, x2 ∈ Mn×1(R)

tales que Ax1 = y1 y Ax2 = y2. Queremos probar que y1 + αy2 ∈ Im(A).

Escojamos x = x1 + αx2. Entonces x ∈Mn×1(R) (¿por que?) y ademas

Ax = A(x1 + αx2) = Ax1 + αAx2 = y1 + αy2

En consecuencia y1 + αy2 ∈ Im(A)

Por lo tanto, en virtud del corolario 2.4 y de la observacion 2.8, Im(A) es un subespacio de

Mm×1(R).

Definicion 2.11. Dada una matriz A ∈ Mm×n(R). Definiremos la nulidad de A como el

numero natural n(A) = dim(N(A)) y el rango de A como el numero natural r(A) = dim(Im(A)).

Ejemplo 2.22. Hallar el nucleo, la nulidad, la imagen y el rango de la matriz

A =

2 −3 7 −18

−2 0 −4 6

2 −9 13 −42

Solucion. Para hallar el nucleo de A, N(A), necesitamos resolver el sistema Ax = 0/m×1. Para

ello debemos hallar la FERF de A.

A =

2 −3 7 −18

−2 0 −4 6

2 −9 13 −42

F1 → F1 + F2→F3 → F3 + F2

0 −3 3 −12

−2 0 −4 6

0 −9 9 −36

F2 → −12F2→

F3 → F3 − 3F1

0 −3 3 −12

1 0 2 −3

0 0 0 0

F1 → −1

3F1→

0 1 −1 4

1 0 2 −3

0 0 0 0

Page 112: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 109

F1 ↔ F2→

1 0 2 −3

0 1 −1 4

0 0 0 0

Ası que

x1

x2

x3

x4

∈ N(A) si y solo si

{x1 +2x3 −3x4 = 0

x2 −x3 +4x4 = 0

o bien {x1 = −2x3 + 3x4

x2 = x3 − 4x4

De donde

x1

x2

x3

x4

=

−2x3 + 3x4

x3 − 4x4

x3

x4

= x3

−2

1

1

0

+ x4

3

−4

0

1

Por lo tanto

N(A) = gen

−2

1

1

0

,

3

−4

0

1

No es difıcil probar que el conjunto

−2

1

1

0

,

3

−4

0

1

es linealmente independiente (¡pruebelo!) y por lo tanto es una base de N(A). Ası que n(A) = 2.

Por otro lado, sea y =

y1

y2

y3

∈M3×1(R). Entonces y ∈ Im(A) si y solo si existe x =

x1

x2

x3

x4

M4×1(R) tal que Ax = y, es decir, y ∈ Im(A) si y solo si el sistema Ax = y tiene solucion.

Page 113: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 110

Resolvamos entonces este sistema, la matriz ampliada de este sistema es

[A|y] =

2 −3 7 −18 y1

−2 0 −4 6 y2

2 −9 13 −42 y3

La cual es equivalente por filas a la matriz (¡verifıquelo!)

1 0 2 −3 −12y2

0 1 −1 4 −13y1 − 1

3y2

0 0 0 0 −3y1 − 2y2 + y3

Por lo tanto y ∈ Im(A) si y solo si

−3y1 − 2y2 + y3 = 0 (¿por que?)

o equivalentemente

y3 = 3y1 + 2y2

En consecuencia

y =

y1

y2

y3

=

y1

y2

3y1 + 2y2

= y1

1

0

3

+ y1

0

1

2

y por lo tanto

Im(A) = gen

1

0

3

,

0

1

2

Al igual que antes, no es difıcil probar que

1

0

3

,

0

1

2

es linealmente independiente y en consecuencia una base de Im(A). Luego r(A) = 2.

Con respecto al ejercicio anterior, notemos que los pivotes en la FERF de A estan en las

columnas 1 y 2, por lo tanto las columnas 1 y 2 de A,

2

−2

2

,

−3

0

−9

Page 114: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 111

son linealmente independientes (use el corolario 2.11) y ademas

A

1

0

0

0

=

2 −3 7 −18

−2 0 −4 6

2 −9 13 −42

1

0

0

0

=

2

−2

2

y

A

0

1

0

0

=

2 −3 7 −18

−2 0 −4 6

2 −9 13 −42

0

1

0

0

=

−3

0

−9

es decir

2

−2

2

,

−3

0

−9

∈ Im(A)

y por lo tanto

2

−2

2

,

−3

0

−9

es un subconjunto linealmente independiente de Im(A). Al usar la parte 1 del teorema 2.16

tenemos que

2

−2

2

,

−3

0

−9

es una base para Im(A).

Este procedimiento es valido al momento de hallar una base para Im(A) y es una manera mas

sencilla que la usada en el ejemplo previo, es decir, si se quiere hallar una base para Im(A), no

es necesario saber para que valores de y el sistema Ax = y tiene solucion.

Vamos a dar el algoritmo que nos permite hallar una base para N(A) y una base para Im(A).

Algoritmo para hallar bases para N(A) e Im(A), donde A ∈ Mm×n(R).

Paso 1. Hallar la FERF de la matriz A.

Page 115: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 112

Paso 2. La matriz hallada en el paso previo, nos permite escribir la solucion del sistema

Ax = 0/m×1 como combinacion lineal de ciertos vectores linealmente independientes,

dichos vectores forman un base para N(A).

Paso 3. Las columnas con los pivotes, de la matriz hallada en el primer paso, representan

las columnas de A que forman una base para Im(A).

Antes de dar un ejemplo de como aplicar este algoritmo, daremos algunos resultados.

Consideremos una matriz A ∈ Mm×n(R). Denotaremos por C(A) al espacio generado por las

columnas de A, el cual llamaremos espacio columna de A, y denotaremos por R(A) al espacio

generado por las filas de A, el cual es llamado espacio fila de A, esto es

C(A) = gen({A(1), A(2), . . . , A(n)})

y

R(A) = gen({A(1), A(2), . . . , A(m)})

Teorema 2.20. Si A, B ∈Mm×n(R) son tales que A y B son equivalentes por filas, entonces

1. C(A) = Im(A).

2. R(A) = R(B).

3. dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A).

4. r(A) = r(B) y n(A) = n(B).

5. r(A) + n(A) = n.

Demostracion.

1. Por definicion de Im(A) sabemos que y ∈ Im(A) si y solo si existe x ∈ Mn×1(R) tal que

Ax = y.

Si hacemos x =

x1

x2

...

xn

, entonces

y = Ax = x1A(1) + x2A

(2) + · · ·+ xnA(n) (ver observacion 1.20)

es decir, y ∈ Im(A) si y solo si y ∈ gen({A(1), A(2), . . . , A(n)}) = C(A).

En consecuencia C(A) = Im(A).

Page 116: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 113

2. Como A y B son equivalentes por filas, entonces cada fila de B es combinacion lineal de

las filas de A y viceversa (ver ejercicio 2.7), es decir, para cada i ∈ {1, . . . , m} se tiene que

B(i) ∈ gen({A(1), A(2), . . . , A(m)}) y A(i) ∈ gen({B(1), B(2), . . . , B(m)}). En consecuencia

R(A) = R(B)

3. Sea F ∈Mm×n(R) la FERF de A. Entonces las filas no nulas de F son linealmente indepen-

dientes (¿por que?) y en consecuencia forman una base para R(F ), por lo tanto, si k es el

numero de filas no nulas de F , entonces dim(R(F )) = k, pero por la parte 2 R(A) = R(F ),

ası que dim(R(A)) = dim(R(F )) = k.

Por otro lado, las columnas de F con los pivotes, representan las columnas de A que son

linealmente independientes (en virtud del corolario 2.11) y que en consecuencia forman una

base para C(A), pero la cantidad de pivotes que tiene F es k, por lo tanto dim(C(A)) =

k = dim(R(A)) y por la parte 1 tenemos que

dim(R(A)) = dim(C(A)) = dim(Im(A)) = r(A)

4. ¡Ejercicio!

5. ¡Ejercicio!

Corolario 2.21. A ∈Mn×n(R) es invertible si y solo si r(A) = n.

Demostracion. ¡Ejercicio!

Corolario 2.22. Sean A ∈ Mm×n(R) y b ∈ Mm×1(R). Entonces el sistema Ax = b tiene al

menos una solucion si y solo si r([A|b]) = r(A).

Demostracion. ¡Ejercicio!

Ejemplo 2.23. Hallar el espacio fila, el espacio columna, el espacio nulo, la imagen, y una base

para cada uno de estos espacios; y la nulidad y el rango de la matriz

A =

2 2 −6 1 8

−4 −1 −3 −2 −19

1 1 −3 1 6

2 4 −16 3 14

Page 117: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 114

Solucion. Solo hace falta hallar la FERF de A.

A =

2 2 −6 1 8

−4 −1 −3 −2 −19

1 1 −3 1 6

2 4 −16 3 14

F1 ↔ F3→

1 1 −3 1 6

−4 −1 −3 −2 −19

2 2 −6 1 8

2 4 −16 3 14

F2 → F2 + 4F1→F3 → F3 − 2F1

F4 → F4 − 2F1

1 1 −3 1 6

0 3 −15 2 5

0 0 0 −1 −4

0 2 −10 1 2

F2 ↔ F2 − F4→

1 1 −3 1 6

0 1 −5 1 3

0 0 0 −1 −4

0 2 −10 1 2

F1 → F1 − F2→F4 → F4 − 2F2

1 0 2 0 3

0 1 −5 1 3

0 0 0 −1 −4

0 0 0 −1 −4

F2 → F2 + F3→F4 → F4 − F3

1 0 2 0 3

0 1 −5 0 −1

0 0 0 −1 −4

0 0 0 0 0

F3 → −F3→

1 0 2 0 3

0 1 −5 0 −1

0 0 0 1 4

0 0 0 0 0

Ası que

x1

x2

x3

x4

x5

∈ N(A) si y solo si

x1 +2x3 +3x5 = 0

x2 −5x3 −x5 = 0

x4 +4x5 = 0

o equivalentemente

x1 = −2x3 − 3x5

x2 = 5x3 + x5

x4 = −4x5

Page 118: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 115

Luego

x1

x2

x3

x4

x5

=

−2x3 − 3x5

5x3 + x5

x3

−4x5

x5

= x3

−2

5

1

0

0

+ x5

−3

1

0

−4

1

Por lo tanto, una base para el espacio nulo de A es:

−2

5

1

0

0

,

−3

1

0

−4

1

y ası

N(A) = gen

−2

5

1

0

0

,

−3

1

0

−4

1

Ademas, una base para el espacio fila de A es:

{[1 0 2 0 3

],[

0 1 −5 0 −1],[

0 0 0 1 4]}

luego

R(A) = gen({[

1 0 2 0 3],[

0 1 −5 0 −1],[

0 0 0 1 4]})

Como los pivotes de la FERF de A estan en las columnas 1,2 y 4, entonces las columnas 1,2 y

4 de A forman una base para el espacio imagen o espacio columna de A, es decir,

2

−4

1

2

,

2

−1

1

4

,

1

−2

1

3

es una base para C(A) = Im(A) y en consecuencia

Page 119: guia algebra de lineal Msc.Jorge Campos

Espacios Vectoriales 116

C(A) = Im(A) = gen

2

−4

1

2

,

2

−1

1

4

,

1

−2

1

3

Finalmente la nulidad y el rango de A son, respectivamente, n(A) = dim(N(A)) = 2 y r(A) =

dim(Im(A)) = dim(R(A)) = dim(C(A)) = 3.

Ejercicio 2.8. Pruebe que si A ∈ Mn×n(R), entonces existe k ≤ n tal que para cada r ≥ k se

cumple

1. N (Ar) = N(Ak)

y {0/n×1} ⊂ N(A) ⊂ N(A2) ⊂ · · · ⊂ N(Ak).

2. Im (Ar) = Im(Ak)

e Im(Ak)⊂ · · · ⊂ Im(A2) ⊂ Im(A) ⊂Mn×1(R).

Ademas, si A no es invertible, entonces todas las contenciones en 1 y 2 son propias.

Page 120: guia algebra de lineal Msc.Jorge Campos

Capıtulo 3

Matriz de Cambio de Base. Espacios con Producto Interno

En este capıtulo y en el siguiente, los espacios vectoriales considerados, son espacios vectoriales

reales, salvo que se indique lo contrario, sin embargo, muchas de las definiciones y teoremas

expuestos en ellos, pueden generalizarse para el caso en que no se consideren espacios vectoriales

reales.

3.1. Cambio de Base

Sea V un espacio vectorial de dimension n. Dada una base β = {v1, v2, . . . , vn} de V, existen

muchas formas de ordenar los vectores en β, a saber n! formas distintas, haremos una diferencia

entre unas y otras definiendo lo que llamaremos base ordenada .

Definicion 3.1. Sea V un espacio vectorial de dimension n. Una base ordenada de V es una

n-upla ordenada (v1, v2, . . . , vn) tal que {v1, v2, . . . , vn} es una base de V.

Observacion 3.1. Para no recargar mucho la notacion escribiremos {v1, v2, . . . , vn} en lugar

de (v1, v2, . . . , vn) y para no caer en confusion diremos {v1, v2, . . . , vn} es una base ordenada de

V.

Ejemplo 3.1.

1. En R2 dos bases ordenadas distintas son: βc = {(1, 0), (0, 1)} y β = {(0, 1), (1, 0)} la primera

se denomina la base canonica ordenada o simplemente base canonica de R2. Notese

que βc y β son iguales como bases de R2, pero distintas como bases ordenadas. �

2. En Rn las bases ordenadas βc = {(1, 0, . . . , 0), (0, 1, 0, . . . , 0), . . . , (0, . . . , 0, 1)} y β =

{(0, . . . , 0, 1), (0, . . . , 0, 1, 0), . . . , (1, 0, . . . , 0)} son distintas, pero como bases son iguales. βc

es llamada base canonica ordenada o simplemente base canonica de Rn. �

3. En Pn[x] las siguientes bases βc = {1, x, . . . , xn} y β = {xn, . . . , x, 1} son bases ordenadas

distintas, pero como bases iguales. βc es llamada base canonica ordenada o simplemente

base canonica de Pn[x]. �

117

Page 121: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 118

4. En el espacio de las matrices Mm×n(R), para cada i ∈ {1, . . . , n} y j ∈ {1, . . . , m}, conside-

remos la matriz Eij, cuya componente ij es igual a 1 y las restantes son iguales a 0 (cero).

La base βc = {E11, E12, . . . , E1n, E21, E22, . . . , E2n, . . . , Em1, Em2, . . . , Emn} es llamada la

base canonica ordenada o simplemente base canonica de Mm×n(R). Las siguientes

son bases ordenadas de Mm×n(R), distintas entre si y distintas de βc:

a) β1 = {E11, E21, . . . , Em1, E12, E22, . . . , Em2, . . . , E1n, E2n, . . . , Emn}

b) β2 = {Emn, . . . , Em2, Em1, . . . , E2n, . . . , E22, E21, E1n, . . . , E12, E11}

c) β3 = {Emn, . . . , E2n, E1n, . . . , Em2, . . . , E22, E12, Em1, . . . , E21, E11}

d) β4 = {E1n, . . . , E12, E11, E2n, . . . , E22, E21, . . . , Emn, . . . , Em2, Em1}

Todas estas bases son iguales como bases (no ordenadas). �

Dada una base {v1, v2, . . . , vn} de V, sabemos que para cada v ∈ V existen unicos escalares

α1, α2, . . . , αnR tales que

v = α1v1 + α2v2 + · · ·+ αnvn.

Si {v1, v2, . . . , vn} es una base ordenada, entonces los escalares α1, α2, . . . , αn ∈ R son unicos y

estan ordenados de forma unica, lo que da pie a la siguiente definicion.

Definicion 3.2. Sea β = {v1, v2, . . . , vn} una base ordenada de V y sea v ∈ V. Definiremos la

matriz de coordenadas de v en la base β como la unica matriz

[v]β =

α1

α2

...

αn

tal que v = α1v1 + α2v2 + · · ·+ αnvn.

Ejemplo 3.2. El conjunto β = {1 + x, x + x2, 1 + x2} es una base de P2[x] (¡pruebelo!). Para

cualquier p(x) ∈ P2[x], encuentre [p(x)]β.

Solucion. Sea p(x) = a0 + a1x + a2x2 con a0, a1, a2 ∈ R y sea

[p(x)]β =

α1

α2

α3

Page 122: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 119

Entonces, para cada x ∈ R, tenemos

p(x) = α1(1 + x) + α2(x + x2) + α3(1 + x2)

= (α1 + α3) + (α1 + α2)x + (α2 + α3)x2

De donde se obtiene el sistema

α1 +α3 = a0

α1 +α2 = a1

α2 +α3 = a2

Resolvemos el sistema

1 0 1 a0

1 1 0 a1

0 1 1 a3

F2 → F2 − F1→

1 0 1 a0

0 1 −1 −a0 + a1

0 1 1 a2

F3 → F3 − F2→

1 0 1 a0

0 1 −1 −a0 + a1

0 0 2 a0 − a1 + a2

F3 → 1

2F3→

1 0 1 a0

0 1 −1 −a0 + a1

0 0 1 12a0 − 1

2a1 + 1

2a2

F1 → F1 − F3→F2 → F2 + F3

1 0 0 12a0 + 1

2a1 − 1

2a2

0 1 0 −12a0 + 1

2a1 + 1

2a2

0 0 1 12a0 − 1

2a1 + 1

2a2

Luego

[p(x)]β = [a0 + a1x + a2x2]β =

12a0 + 1

2a1 − 1

2a2

−12a0 + 1

2a1 + 1

2a2

12a0 − 1

2a1 + 1

2a2

=

1

2

a0 + a1 − a2

−a0 + a1 + a2

a0 − a1 + a2

=1

2

1 1 −1

−1 1 1

1 −1 1

a0

a1

a2

=

1

2

1 1 −1

−1 1 1

1 −1 1

[p(x)]βc

Teorema 3.1. Sea β una base ordenada de un espacio vectorial V de dimension n. Para cua-

lesquiera u, v ∈ V y α ∈ R se cumple que

1. [u + v]β = [u]β + [v]β

Page 123: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 120

2. [αu]β = α[u]β

Demostracion. ¡Ejercicio!

Teorema 3.2. Sean β1 = {v1, v2, . . . , vn} y β2 = {u1, u2, . . . , un} bases ordenadas de un espacio

vectorial V. Entonces existe una unica matriz A ∈Mn×n(R) tal que

[v]β2 = A[v]β1 para cada v ∈ V (3.1)

Demostracion. Para cada j ∈ {1, . . . , n} hagamos

[vj ]β2 =

α1j

α2j

...

αnj

Entonces

vj = α1ju1 + α2ju2 + · · ·+ αnjun

Sea v ∈ V cualquiera. Hagamos

[v]β1 =

λ1

λ2

...

λn

y [v]β2 =

α1

α2

...

αn

Entonces

α1u1 + α2u2 + · · ·+ αnun = v

= λ1v1 + λ2v2 + · · ·+ λnvn

= λ1(α11u1 + α21u2 + · · ·+ αn1un) + λ2(α12u1 + α22u2 + · · ·+ αn2un) + · · ·++λn(α1nu1 + α2nu2 + · · ·+ αnnun)

= (α11λ1 + α12λ2 + · · ·+ α1nλn)u1 + (α21λ1 + α22λ2 + · · ·+ α2nλn)u2 + · · ·++(αn1λ1 + αn2λ2 + · · ·+ αnnλn)un

Page 124: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 121

Por lo tanto

α1

α2

...

αn

=

α11λ1 + α12λ2 + · · ·+ α1nλn

α21λ1 + α22λ2 + · · ·+ α2nλn

......

αn1λ1 + αn2λ2 + · · ·+ αnnλn

=

α11 α12 · · · α1n

α21 α22 · · · α2n

......

...

αn1 αn2 · · · αnn

λ1

λ2

...

λn

De donde

[v]β2 =

α11 α12 · · · α1n

α21 α22 · · · α2n

......

...

αn1 αn2 · · · αnn

[v]β1

Haciendo

A = [αij]n×n =

α11 α12 · · · α1n

α21 α22 · · · α2n

......

...

αn1 αn2 · · · αnn

=[

[v1]β2 [v2]β2 · · · [vn]β2

]

obtenemos la existencia de la matriz A que satisface (3.1)

Para probar la unicidad de A, notemos primero que la j-esima columna de A esta dada por

A(j) =

α1j

α2j

...

αnj

= [vj ]β2

Supongamos que B ∈Mn×n(R) es tal que

[v]β2 = B[v]β1 para cada v ∈ V

Ası que, para cada j ∈ {1, . . . , n}, tenemos que

[vj]β2 = B[vj ]β1

Page 125: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 122

Pero

[vj ]β1 =

0...

0

1

0...

0

−→ j-esima fila

Luego

A(j) = [vj ]β2 = B[vj ]β1 = B

0...

0

1

0...

0

= B(j)

Por lo tanto B = A.

Definicion 3.3. La matriz A en el teorema anterior es llamada matriz de transicion o

matriz de cambio de base de β1 a β2 y se denota por Mβ1,β2.

Como su nombre lo indica, la matriz Mβ1,β2 permite hallar la matriz de coordenadas de un

vector v ∈ V en la base β2 conociendo la matriz de coordenadas de v en la base β1. Notese

ademas que por su definicion, la columna j-esima de Mβ1,β2, representa la matriz de coordenadas

del j-esimo vector de β1 respecto a la base β2, esto es, si β1 = {v1, v2, . . . , vn}, entonces

Mβ1,β2 =[

[v1]β2 [v2]β2 · · · [vn]β2

]

.

Ejemplo 3.3. Sea β la base ordenada de P2[x] dada en el ejemplo 3.2. Entonces, segun el ejemplo

en cuestion, tenemos que

Mβc,β =1

2

1 1 −1

−1 1 1

1 −1 1

(¿por que?)

Page 126: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 123

donde βc es la base canonica ordenada de P2[x]. �

Antes de dar algun otro ejemplo, enunciaremos un primer resultado que involucra matrices de

transicion.

Teorema 3.3. Si V es un espacio vectorial de dimension n y β1 y β2 son dos bases ordenadas

de V, entonces la matriz Mβ1,β2 es invertible y su inversa es Mβ2,β1.

Demostracion. Sea v ∈ V cualquiera. Entonces

[v]β2 = Mβ1,β2[v]β1 y [v]β1 = Mβ2,β1[v]β2

Por lo tanto, si β2 = {v1, v2, . . . , vn}, entonces para cada j ∈ {1, . . . , n} se tiene que

j-esima fila←−

0...

0

1

0...

0

= [vj ]β2 = Mβ1,β2[vj ]β1 = Mβ1,β2Mβ2,β1[vj]β2 = C(j)

donde C(j) es la j-esima columna de Mβ1,β2Mβ2,β1.

En consecuencia Mβ1,β2Mβ2,β1 = In y por lo tanto (Mβ1,β2)−1 = Mβ2,β1.

Ejemplo 3.4. Consideremos las siguientes bases ordenadas de R3

β1 = {(1,−2, 0), (3,−1, 1), (0, 1, 3)}

β2 = {(0, 2, 1), (−1, 0, 1), (3,−1, 2)} y

βc la base canonica.

Hallar Mβ1,β2, Mβc,β2 y Mβ2,β1.

Solucion. Para hallar Mβ1,β2 debemos hallar las matrices de coordenadas de cada uno de los

vectores de β1 respecto a la base β2. Sean

[(1,−2, 0)]β2 =

α11

α21

α31

, [(3,−1, 1)]β2 =

α12

α22

α32

y [(0, 1, 3)]β2 =

α13

α23

α33

Page 127: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 124

Entonces

(1,−2, 0) = α11(0, 2, 1) + α21(−1, 0, 1) + α31(3,−1, 2)

= (−α21 + 3α31 , 2α11 − α31 , α11 + α21 + 2α31)

(3,−1, 1) = α12(0, 2, 1) + α22(−1, 0, 1) + α32(3,−1, 2)

= (−α22 + 3α32 , 2α12 − α32 , α12 + α22 + 2α32)

(0, 1, 3) = α13(0, 2, 1) + α23(−1, 0, 1) + α33(3,−1, 2)

= (−α23 + 3α33 , 2α13 − α33 , α13 + α23 + 2α33)

De donde

−α21 +3α31 = 1

2α11 −α31 = −2

α11 +α21 +2α31 = 0

,

−α22 +3α32 = 3

2α12 −α32 = −1

α12 +α22 +2α32 = 1

y

−α23 +3α33 = 0

2α13 −α33 = 1

α13 +α23 +2α33 = 3

Debido a que la matriz de cada uno de estos sistemas es la misma, podemos resolverlos de

manera simultanea considerando la siguiente matriz tres veces ampliada

0 −1 3 1 3 0

2 0 −1 −2 −1 1

1 1 2 0 1 3

Notese que las tres primeras columnas de esta matriz, son las matrices de coordenadas de

cada uno de los vectores de la base β2 respecto a la base canonica, y las tres ultimas colum-

nas, son las matrices de coordenadas de cada uno de los vectores de la base β1 respecto a la base

canonica. Este procedimiento es estandar cada vez que busquemos una matriz de cambio de base.

0 −1 3 1 3 0

2 0 −1 −2 −1 1

1 1 2 0 1 3

F1 ↔ F3→

1 1 2 0 1 3

2 0 −1 −2 −1 1

0 −1 3 1 3 0

Page 128: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 125

F2 → F2 − 2F1→

1 1 2 0 1 3

0 −2 −5 −2 −3 −5

0 −1 3 1 3 0

F2 ↔ F3→

1 1 2 0 1 3

0 −1 3 1 3 0

0 −2 −5 −2 −3 −5

F2 → −F2→

1 1 2 0 1 3

0 1 −3 −1 −3 0

0 −2 −5 −2 −3 −5

F1 → F1 − F2→F3 → F3 + 2F2

1 0 5 1 4 3

0 1 −3 −1 −3 0

0 0 −11 −4 −9 −5

F3 → − 111

F3→

1 0 5 1 4 3

0 1 −3 −1 −3 0

0 0 1 411

911

511

F1 → F1 − 5F3→F2 → F2 + 3F3

1 0 0 − 911− 1

11811

0 1 0 111− 6

111511

0 0 1 411

911

511

Ası que

Mβ1,β2 =

− 911− 1

11811

111− 6

111511

411

911

511

=

1

11

−9 −1 8

1 −6 15

4 9 5

Hallemos ahora Mβc,β2. En este caso la matriz aumentada que obtenemos es

0 −1 3 1 0 0

2 0 −1 0 1 0

1 1 2 0 0 1

Vemos que para obtener Mβc,β2 necesitamos aplicar, en el mismo orden, las mismas OEF que

aplicamos anteriormente (¿por que?), y obtenemos

1 0 0 111

511

111

0 1 0 − 511− 3

11611

0 0 1 211− 1

11211

Por lo tanto

Mβc,β2 =

111

511

111

− 511− 3

11611

211− 1

11211

=

1

11

1 5 1

−5 −3 6

2 −1 2

Notese que la matriz obtenida no es mas que la inversa de

Mβ2,βc=

0 −1 3

2 0 −1

1 1 2

Page 129: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 126

Finalmente (¡verifıquelo!)

Mβ2,β1 = (Mβ1,β2)−1 =

−1514

12

314

514−1

21314

314

12

514

=

1

14

−15 7 3

5 −7 13

3 7 5

Algoritmo para hallar la matriz de transicion Mβ1,β2, donde β1 y β2 son bases ordenadas

de un espacio vectorial V de dimension n y βc es la base canonica ordenada de V. En general

V = Rn, V = Pn−1[x] o V =Mp×q(R) con pq = n.

Paso 1. Hallar las matrices Mβ2,βcy Mβ1,βc

.

Paso 2. Formar la la matriz ampliada [Mβ2,βc|Mβ1,βc

].

Paso 3. Hallar la FERF de la matriz en el paso previo.

Paso 4. La matriz hallada en el paso previo tiene la forma [In|B]. Entonces Mβ1,β2 = B.

Ejemplo 3.5. Sean β1, β2 y βc como en el ejemplo anterior. Dado (x, y, z) ∈ R3, hallar

[(x, y, z)]β2 y [(x, y, z)]β1.

Solucion. Sabemos que [(x, y, z)]βc=

x

y

z

por lo tanto

[(x, y, z)]β2 = Mβc,β2[(x, y, z)]βc=

1

11

1 5 1

−5 −3 6

2 −1 2

x

y

z

=

1

11

x + 5y + z

−5x− 3y + 6z

2x− y + 2z

[(x, y, z)]β1 = Mβ2,β1[(x, y, z)]β2 =1

14

−15 7 3

5 −7 13

3 7 5

1

11

x + 5y + z

−5x− 3y + 6z

2x− y + 2z

[(x, y, z)]β1 =1

14

−4x− 9y + 3z

6x + 3y − z

−2x− y + 5z

Page 130: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 127

En este ultimo ejemplo se verifica que

Mβc,β1 = Mβ2,β1Mβc,β2 =1

14

−15 7 3

5 −7 13

3 7 5

1

11

1 5 1

−5 −3 6

2 −1 2

Mβc,β1 =1

14

−4 −9 3

6 3 −1

−2 −1 5

Este resultado no es casual, como se puede ver en el siguiente teorema

Teorema 3.4. Sean β1, β2 y β3 bases ordenadas de un espacio vectorial V de dimension n.

Entonces

Mβ1,β3 = Mβ2,β3Mβ1,β2

Demostracion. Sea v ∈ V cualquiera. Entonces

[v]β3 = Mβ2,β3[v]β2 y [v]β2 = Mβ1,β2[v]β1

Luego

[v]β3 = Mβ2,β3[v]β2 = Mβ2,β3Mβ1,β2[v]β1

Por unicidad de la matriz Mβ1,β3 concluimos que

Mβ1,β3 = Mβ2,β3Mβ1,β2

Teorema 3.5. Sea β una base ordenada de un espacio vectorial V de dimension n. Entonces

{v1, v2, . . . , vn} es una base de V si y solo si la matriz cuadrada de orden n, cuya j-esima columna

es [vj ]β, tiene determinante distinto de cero.

Demostracion. Sea A ∈Mn×n(R) la matriz cuya j-esima columna es [vj ]β. Sean α1, α2, . . . , αn ∈R tales que

α1v1 + α2v2 + · · ·+ αnvn = 0/V

Ası que

Page 131: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 128

0/n×1 = [0/V]β = [α1v1 + α2v2 + · · ·+ αnvn]β = α1[v1]β + α2[v2]β + · · ·+ αn[vn]β

= [[v1]β [v2]β · · · [vn]β ]

α1

α2

...

αn

= A

α1

α2

...

αn

Pero det(A) 6= 0 si y solo si el sistema A

α1

α2

...

αn

= 0/n×1 tiene como unica solucion la trivial, es

decir, si y solo si {v1, v2, . . . , vn} es linealmente independiente que a su vez, dado que dim(V) = n,

equivale a que {v1, v2, . . . , vn} es una base de V.

El Teorema anterior nos da una forma alternativa para saber si un conjunto {v1, v2, . . . , vn},en un espacio vectorial de dimension n, es una base para dicho espacio.

3.2. Espacios con producto Interno

Definicion 3.4. Sea V un espacio vectorial real. Un producto interno sobre V, es una funcion

que asocia, a cada par de vectores u, v ∈ V, un unico numero real denotado por 〈u , v〉, u · v o uv

satisfaciendo las siguientes propiedades. Para cualesquiera u, v, w ∈ V y cada α ∈ R

1. 〈u , v〉 = 〈v , u〉.

2. 〈u + v , w〉 = 〈u , w〉+ 〈v , w〉.

3. 〈αu , v〉 = α 〈u , v〉.

4. 〈v , v〉 ≥ 0 y ademas 〈v , v〉 = 0 si y solo si v = 0/V.

Un espacio vectorial real, en el cual se define un producto interno, es llamado espacio

(vectorial real) con producto interno (EPI). Otros nombres con los que se conoce a

los productos internos son producto interior, producto escalar y producto punto.

Ejemplo 3.6. Las siguientes funciones son productos internos sobre Rn

Page 132: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 129

1. 〈u , v〉 =n∑

i=1

uivi donde u = (u1, u2, . . . , un) y v = (v1, v2, . . . , vn).

En efecto, sean u, v, w ∈ Rn y α ∈ R con u = (u1, u2, . . . , un); v = (v1, v2, . . . , vn) y

w = (w1, w2, . . . , wn). Entonces

〈u , v〉 =

n∑

i=1

uivi =

n∑

i=1

viui = 〈v , u〉

u + v = (u1, u2, . . . , un) + (v1, v2, . . . , vn) = (u1 + v1, u2 + v2, . . . , un + vn), ası que

〈u + v , w〉 =

n∑

i=1

(ui + vi)wi =

n∑

i=1

(uiwi + viwi) =

n∑

i=1

uiwi +

n∑

i=1

viwi = 〈u , w〉+ 〈v , w〉

αu = α(u1, u2, . . . , un) = (αu1, αu2, . . . , αun), luego

〈αu , v〉 =

n∑

i=1

αuivi = α

n∑

i=1

uivi = α 〈u , v〉

Finalmente

〈u , u〉 =

n∑

i=1

uiui =

n∑

i=1

u2i ≥ 0

Ademas, 〈u , u〉 = 0 si y solo si u2i = 0 para cada i ∈ {1, . . . , n} (¿por que?), esto es, si y

solo si u = 0/Rn.

Este producto interno es llamado producto interno euclidiano, usual o estandar de

Rn, salvo que se indique lo contrario, este es el producto interno que consideraremos sobre

Rn.

2. 〈u , v〉 =n∑

i=1

piuivi donde p1, p2, . . . , pn son numeros reales positivos fijos, u = (u1, u2, . . . , un)

y v = (v1, v2, . . . , vn). Este producto interno es lo que se denomina producto interno

ponderado, si p1 = · · · = pn = 1, este producto interno coincide con el producto interno

euclidiano. Pruebe que esta funcion es un producto interno. �

Ejemplo 3.7. En Mm×n(R) la siguiente funcion define un producto interno (¡pruebelo!), el cual

se conoce como producto interno euclidiano, usual o estandar, al igual que en el caso de

Rn, salvo que se indique otra cosa, este es el producto interno que consideraremos sobreMm×n(R).

〈A , B〉 =

m∑

i=1

n∑

j=1

aijbij

donde A = (aij)m×n y B = (bij)m×n. �

Page 133: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 130

Ejemplo 3.8. En el espacio de las funciones reales continuas en el intervalo [ a , b ], C [ a , b ], la

funcion

〈f , g〉 =

∫ b

a

f(x)g(x)dx

es un producto interno, en efecto, sean f, g, h ∈ C [ a , b ] y α ∈ R. Entonces

〈f , g〉 =∫ b

a

f(x)g(x)dx =

∫ b

a

g(x)f(x)dx = 〈g , f〉

〈f + g , h〉 =

∫ b

a

(f(x) + g(x))h(x)dx =

∫ b

a

(f(x)h(x) + g(x)h(x))dx

=

∫ b

a

f(x)h(x)dx +

∫ b

a

g(x)h(x)dx = 〈f , h〉+ 〈g , h〉

〈αf , g〉 =

∫ b

a

αf(x)g(x)dx = α

∫ b

a

f(x)g(x)dx = α 〈f , g〉

〈f , f〉 =

∫ b

a

f(x)f(x)dx =

∫ b

a

[f(x)]2dx ≥ 0

Ademas 〈f , f〉 = 0 si y solo si f(x) = 0 para cada x ∈ [ a , b ] (¿por que?), es decir, si y solo

si f = O, donde O es la funcion nula sobre [ a , b ], esto es, O(x) = 0 para todo x ∈ [ a , b ].

Siempre que no se indique otra cosa, este es el producto interno que consideraremos sobre

C [ a , b ]. �

Ejemplo 3.9. En Pn[x] las siguientes funciones son productos internos.

1. Como Pn[x] es un subespacio de C [ a , b ], entonces el producto interno definido en el ejemplo

anterior, es un producto interno sobre Pn[x].

2. 〈p , q〉 =

n∑

i=0

p(i)q(i). En Efecto, sean p, q, r ∈ Pn[x] y α ∈ R. Entonces

〈p , q〉 =

n∑

i=0

p(i)q(i) =

n∑

i=0

q(i)p(i) = 〈q , p〉.

〈p + q , r〉 =

n∑

i=0

[p(i) + q(i)]r(i) =

n∑

i=0

[p(i)r(i) + q(i)r(i)]

=

n∑

i=0

p(i)r(i) +

n∑

i=0

q(i)r(i) = 〈p , r〉+ 〈q , r〉.

Page 134: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 131

〈p , p〉 =n∑

i=0

p(i)p(i) =n∑

i=0

[p(i)]2 ≥ 0.

Ademas, 〈p , p〉 = 0 si y solo si p(i) = 0 para cada i ∈ {0, . . . , n}.

Pero el unico polinomio en Pn[x], que tiene mas de n raıces, es el polinomio nulo (¿por

que?), es decir, 〈p , p〉 = 0 si y solo si p es el polinomio nulo.

3. 〈p , q〉 =

n∑

i=0

aibi, con p(x) = a0 +a1x+ · · ·+anxn y q(x) = b0 + b1x + · · ·+ bnxn. (¡pruebe-

lo!). �

Teorema 3.6. Sea V un espacio con producto interno 〈 , 〉. Entonces

1. 〈u , v + w〉 = 〈u , v〉+ 〈u , w〉 para cualesquiera u, v, w ∈ V.

2. 〈u , αv〉 = α 〈u , v〉 para cualesquiera u, v ∈ V y α ∈ R.

3. 〈u− v , w〉 = 〈u , w〉 − 〈v , w〉 para cualesquiera u, v, w ∈ V.

4. 〈u , v − w〉 = 〈u , v〉 − 〈u , w〉 para cualesquiera u, v, w ∈ V.

5. 〈v , 0/V〉 = 0 = 〈0/V , v〉 para todo v ∈ V.

6. Si 〈u , v〉 = 0 para cada v ∈ V, entonces u = 0/V.

Demostracion.

1. Sean u, v, w ∈ V cualesquiera. Entonces

〈u , v + w〉 = 〈v + w , u〉 = 〈v , u〉+ 〈w , u〉 = 〈u , v〉+ 〈u , w〉 .

2. Sean u, v ∈ V y α ∈ R cualesquiera. Ası que

〈u , αv〉 = 〈αv , u〉 = α 〈v , u〉 = α 〈u , v〉 .

3. Sean u, v, w ∈ V cualesquiera. Luego

〈u− v , w〉 = 〈u + (−v) , w〉 = 〈u , w〉+ 〈−v , w〉 = 〈u , w〉+ 〈(−1)v , w〉= 〈u , w〉+ (−1) 〈v , w〉 = 〈u , w〉 − 〈v , w〉 .

Page 135: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 132

4. Sean u, v, w ∈ V cualesquiera. Ası que

〈u , v − w〉 = 〈v − w , u〉 = 〈v , u〉 − 〈w , u〉 = 〈u , v〉 − 〈u , w〉 .

5. Sea v ∈ V cualquiera. Entonces

〈v , 0/V〉 = 〈v , 0/V + 0/V〉 = 〈v , 0/V〉+ 〈v , 0/V〉 .

Ası que 〈v , 0/V〉 = 0 y ademas 〈0/V , v〉 = 〈v , 0/V〉 = 0.

6. Como 〈u , v〉 = 0 para cada v ∈ V, entonces 〈u , u〉 = 0 (tomando v = u), luego u = 0/V

(¿por que?).

3.3. Bases Ortonormales y Proceso de Ortonormalizacion

de Gram-Schmidt

Definicion 3.5. Sea 〈 , 〉 un producto interno sobre un espacio vectorial V y sean u, v ∈ V.

Diremos que u es ortogonal a v si 〈u , v〉 = 0, en cuyo caso escribiremos u ⊥ v.

Observacion 3.2. Si u es ortogonal a v, entonces v es ortogonal a u. En consecuencia, podemos

escribir u y v son ortogonales en lugar de u es ortogonal a v.

Ejemplo 3.10.

1. Sean x = (2,−1,−3) e y = (3, 3, 1). Entonces

〈x , y〉 = (2)(3) + (−1)(3) + (−3)(1) = 6− 3− 3 = 0

ası que x ⊥ y.

2. La parte 5 del teorema 3.6 nos dice que en cualquier espacio vectorial V con producto

interno, el vector nulo 0/V es ortogonal a cualquier vector v ∈ V, ademas, la parte 6 de este

mismo teorema, nos dice que el unico vector que es ortogonal a todo vector v ∈ V, es el

vector nulo.

3. Las funciones f(x) = sen(x) y g(x) = cos(x), en C [−π , π ], son ortogonales.

Page 136: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 133

4. En P2[x], los polinomios p(x) = 1+2x2 y q(x) = −2+x2 son ortogonales si consideramos el

producto interno definido en la parte 3 del ejemplo 3.9 (¡verifıquelo!), pero si consideramos

el producto interno definido en la parte 2 del mismo ejemplo, estos polinomios no son

ortogonales (¡verifıquelo!).

Definicion 3.6. Sea 〈 , 〉 un producto interno sobre el espacio vectorial V. Definiremos la nor-

ma, magnitud, modulo o longitud (inducida por el producto interno) de v ∈ V, como el

numero real ‖v‖ dado por

‖v‖ =√〈v , v〉

Diremos que v ∈ V es unitario si ‖v‖ = 1.

Observacion 3.3. La norma de un vector no siempre esta definida en terminos del producto

interno (ver B), sin embargo, en este capıtulo nos ocuparemos de las normas inducidas por un

producto interno.

Dado que 〈v , v〉 ≥ 0 para cada v ∈ V, entonces la definicion anterior esta bien fundada.

Ejemplo 3.11. Consideremos sobre R4 el producto interno euclidiano. Entonces

‖(1, 0,−3, 2)‖ =√〈(1, 0,−3, 2) , (1, 0,−3, 2)〉 =

√12 + 02 + (−3)2 + 22 =

√14

Ejemplo 3.12. En P2[x] consideremos el polinomio p(x) = 3− x2. Hallar ‖p‖ considerando:

1. El producto interno definido en la parte 1 del ejemplo 3.9 con a = −1 y b = 1.

2. El producto interno definido en la parte 2 del ejemplo 3.9.

3. El producto interno definido en la parte 3 del ejemplo 3.9.

Solucion.

1. ‖p‖ =

√∫ 1

−1

(3− x2)2dx =

√∫ 1

−1

(9− 6x2 + x4)dx =

√(9x− 2x3 +

x5

5

)∣∣∣∣1

−1

=

2

(9− 2 +

1

5

)=

√236

5= 6

√2

5

2. ‖p‖ =√

[p(0)]2 + [p(1)]2 + [p(2)]2 =√

32 + 22 + (−1)2 =√

14

Page 137: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 134

3. ‖p‖ =√

32 + 02 + (−1)2 =√

10

A continuacion enunciaremos un teorema donde se dan a conocer algunas propiedades de la

norma, y que son consecuencia directa las propiedades del producto interno, su demostracion se

deja como ejercicio.

Teorema 3.7. Sea V un EPI. Entonces para cada α ∈ R y cualesquiera u, v ∈ V se cumple que:

1. ‖u‖ ≥ 0 y ‖u‖ = 0 si y solo si u = 0/V.

2. ‖αu‖ = |α| · ‖u‖.

3. ‖u± v‖2 = ‖u‖2 ± 2 〈u , v〉+ ‖v‖2.

El siguiente lema nos permitira demostrar el teorema que le sigue.

Lema 3.1. Sean u y v dos vectores unitarios en un EPI. Entonces | 〈u , v〉 | ≤ 1.

Demostracion. Usando la parte 3 del teorema 3.7, tenemos que

0 ≤ ‖u + v‖2 = ‖u‖2 + 2 〈u , v〉+ ‖v‖2 = 1 + 2 〈u , v〉+ 1 = 2[1 + 〈u , v〉]

Ası que

〈u , v〉 ≥ −1

Nuevamente, por la parte 3 del teorema 3.7, obtenemos

0 ≤ ‖u− v‖2 = ‖u‖2 − 2 〈u , v〉+ ‖v‖2 = 1− 2 〈u , v〉+ 1 = 2[1− 〈u , v〉]

luego

〈u , v〉 ≤ 1

En consecuencia

| 〈u , v〉 | ≤ 1

En el teorema que enunciaremos a continuacion, se dan dos propiedades muy importantes de

la norma.

Page 138: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 135

Teorema 3.8. Sean u y v dos vectores en un EPI. Entonces

1. | 〈u , v〉 | ≤ ‖u‖ · ‖v‖ (Desigualdad de Cauchy-Schwarz).

2. ‖u + v‖ ≤ ‖u‖+ ‖v‖ (Desigualdad Triangular).

Las igualdades se cumplen si y solo si uno de los vectores es multiplo escalar del otro (¡pruebelo!)

Demostracion.

1. Si u = 0/V o v = 0/V, entonces | 〈u , v〉 | = 0 = ‖u‖ · ‖v‖.

En caso contrario, u 6= 0/V 6= v y por lo tanto los vectores u =u

‖u‖ y v =v

‖v‖ son unitarios,

y por el lema 3.1

| 〈u , v〉 | ≤ 1

Pero

〈u , v〉 =

⟨u

‖u‖ ,v

‖v‖

⟩=

1

‖u‖ · ‖v‖ 〈u , v〉

Por lo tanto1

‖u‖ · ‖v‖ 〈u , v〉 ≤ 1, es decir, 〈u , v〉 ≤ ‖u‖ · ‖v‖.

2. Por la parte 3 del teorema 3.7 tenemos que

‖u + v‖2 = ‖u‖2 + 2 〈u , v〉+ ‖v‖2

y por la parte 1 (desigualdad de Cauchy-Schwarz)

〈u , v〉 ≤ | 〈u , v〉 | ≤ ‖u‖ · ‖v‖

Ası que

‖u + v‖2 ≤ ‖u‖2 + 2‖u‖ · ‖v‖+ ‖v‖2 = (‖u‖+ ‖v‖)2

Luego ‖u + v‖ ≤ ‖u‖+ ‖v‖.

Definicion 3.7. Sea V un EPI y sean u, v ∈ V vectores no nulos. Definiremos el angulo entre

u y v como el numero real ∡(u, v) ∈ [ 0 , π ] tal que

cos(∡(u, v)) =〈u , v〉‖u‖ · ‖v‖

es decir,

∡(u, v) = arc cos

( 〈u , v〉‖u‖ · ‖v‖

)

Page 139: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 136

Ejemplo 3.13. Hallar el angulo entre los vectores u = (0,−3, 3) y v = (2, 2,−1)

Solucion. 〈u , v〉 = 0 · 2 + (−3)2 + 3(−1) = −9

‖u‖ =√

02 + (−3)2 + 32 =√

18 = 3√

2

‖v‖√

22 + 22 + (−1)2 =√

9 = 3

Ası que

∡(u, v) = arc cos

( 〈u , v〉‖u‖ · ‖v‖

)= arc cos

( −9

3√

2 · 3

)= arc cos

(−√

2

2

)=

4

Definicion 3.8. Sea V un EPI y sea S = {v1, v2, . . . , vk} ⊂ V. Diremos que S es un conjunto

ortogonal si vi ⊥ vj para cualesquiera i, j ∈ {1, . . . , k} con i 6= j. Si adicionalmente vi es

unitario para cada i ∈ {1, . . . , k}, diremos que S es un conjunto ortonormal.

Ejemplo 3.14. Consideremos las siguientes matrices en M2×2(R)

A1 =

[1 0

0 0

]; A2 =

[0 2

−2 0

]y A3 =

[0 1

1 3

]

¿Es S = {A1, A2, A3} un conjunto ortogonal? ¿Es S ortonormal?

Solucion.

〈A1 , A2〉 = 1 · 0 + 0 · 2 + 0(−2) + 0 · 0 = 0

〈A1 , A3〉 = 1 · 0 + 0 · 1 + 0 · 1 + 0 · 3 = 0

〈A2 , A3〉 = 0 · 0 + 2 · 1 + (−2)1 + 0 · 3 = 0

Ası que S es ortogonal. Pero

‖A2‖ =√

02 + 22 + (−2)2 + 02 = 2√

2 6= 1

Por lo tanto S no es ortonormal, sin embargo, S0 = {B1, B2, B3}, donde

B1 =1

‖A1‖A1 = A1, B2 =

1

‖A2‖A2 =

1

2√

2A2 y B3 =

1

‖A3‖A3 =

1√11

A3

sı es un conjunto ortonormal (¡verifıquelo!).

Teorema 3.9. Todo conjunto ortogonal finito de vectores no nulos en un EPI es linealmente

independiente.

Page 140: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 137

Demostracion. Sea V un EPI y sea S = {v1, v2, . . . , vk} ⊂ V un conjunto ortogonal de vectores

no nulos.

Sean α1, α2, . . . , αk ∈ R tales que

α1v1 + α2v2 + · · ·+ αkvk = 0/V

Entonces, para cada j ∈ {1, . . . , k}, se tiene que

0 = 〈vj , 0/V〉 = 〈vj , α1v1 + α2v2 + · · ·+ αkvk〉 =

k∑

i=1

〈vj , αivi〉 =

k∑

i=1

αi 〈vj , vi〉 = αj 〈vj , vj〉

= αj‖vj‖2

y dado que vj es no nulo, entonces αj = 0.

Por lo tanto S es linealmente independiente.

Definicion 3.9. Sean V un EPI y β = {v1, v2, . . . , vn} una base de V. Diremos que β es una

base ortogonal (respectivamente ortonormal) si β es un conjunto ortogonal (respectivamente

ortonormal).

Ejemplo 3.15.

1. Las bases canonicas de Rn y Mm×n(R) son bases ortonormales.

2. Una base ortogonal de M2×2(R) es

β =

{[1 0

0 0

];

[0 2

−2 0

];

[0 1

1 3

];

[0 3

3 −2

]}

pero no es ortonormal.

3. Una base ortonormal de P2[x], considerando el producto interno definido en la parte 1 del

ejemplo 3.9 con a = 1 y b = −1, es

β =

{1√2

,

√3

2x ,

√5

2√

2

(−1 + 3x2

)}

.

En efecto, ∥∥∥∥1√2

∥∥∥∥2

=

(1√2

)2

‖1‖2 =1

2

∫ 1

−1

dx =1

22 = 1

∥∥∥∥∥

√3

2x

∥∥∥∥∥

2

=

(√3

2

)2

‖x‖2 =3

2

∫ 1

−1

x2dx =3

2

x3

3

∣∣∣∣1

−1

= 1

Page 141: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 138

∥∥∥∥∥

√5

2√

2

(−1 + 3x2

)∥∥∥∥∥

2

=

( √5

2√

2

)2 ∥∥−1 + 3x2∥∥2

=5

8

∫ 1

−1

(−1 + 3x2

)2dx

=5

8

∫ 1

−1

(1− 6x2 + 9x4

)dx =

5

8

(x− 2x3 +

9

5x5

)∣∣∣∣1

−1

dx = 1

Ademas ⟨1√2

,

√3

2x

⟩=

1√2

√3

2〈1 , x〉 =

√3

2

∫ 1

−1

xdx = 0

⟨1√2

,

√5

2√

2

(−1 + 3x2

)⟩

=1√2

√5

2√

2

⟨1 , −1 + 3x2

⟩=

√5

4

∫ 1

−1

(−1 + 3x2

)dx

=

√5

4

(−x + x3

)∣∣1−1

= 0

⟨√3

2x ,

√5

2√

2

(−1 + 3x2

)⟩

=

√3

2

√5

2√

2

⟨x , −1 + 3x2

⟩=

√15

4

∫ 1

−1

x(−1 + 3x2

)dx = 0

Para finalizar esta seccion, nos plantearemos y solucionaremos el problema de hallar una base

ortonormal para un EPI de dimension finita o para un subespacio de dimension finita de un EPI,

comenzaremos con un ejemplo el cual ilustrara un procedimiento, conocido como proceso de

ortonormalizacion de Gram-Schmidt , que nos permite encontrar tal base.

Ejemplo 3.16. En P2[x] consideremos el producto interno dado en el ejemplo 3.15 y considere-

mos la base de P2[x] β = {1 , x , x2}. Hallar una base ortonormal de P2[x] partiendo de la base

β.

Solucion. Hagamos

v1 = 1 , v2 = x y v3 = x2

Entonces

‖v1‖ =

√∫ 1

−1

dx =√

2

Sea

u1 =1

‖v1‖v1 =

1√2

Ası que ‖u1‖ = 1.

Ahora hagamos

w2 = v2 − 〈v2 , u1〉u1

Page 142: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 139

Pero

〈v2 , u1〉 =

⟨x ,

1√2

⟩=

1√2〈x , 1〉 =

1√2

∫ 1

−1

xdx = 0.

Luego w2 = v2 = x, ademas

‖w2‖ =

√∫ 1

−1

x2dx =

√x3

3

∣∣∣∣1

−1

=

√2

3

Si hacemos

u2 =1

‖w2‖w2 =

√3

2x

entonces ‖u2‖ = 1 y u1 ⊥ u2 (ver ejemplo 3.15).

Consideremos

w3 = v3 − 〈v3 , u1〉u1 − 〈v3 , u2〉 u2

Pero

〈v3 , u1〉 =

⟨x2 ,

1√2

⟩=

1√2

⟨x2 , 1

⟩=

1√2

∫ 1

−1

x2dx =1√2

x3

3

∣∣∣∣1

−1

=2

3√

2

〈v3 , u2〉 =

⟨x2 ,

√3

2x

⟩=

√3

2

⟨x2 , x

⟩=

√3

2

∫ 1

−1

x3dx = 0

De donde

w3 = x2 − 2

3√

2

1√2

= −1

3+ x2

y

‖w3‖ =

√∫ 1

−1

(−1

3+ x2

)2

dx =

√∫ 1

−1

(1

9− 2

3x2 + x4

)dx =

√(1

9x− 2

9x3 +

x5

5

)∣∣∣∣1

−1

=

√8

45=

2√

2

3√

5

Finalmente, hagamos

u3 =1

‖w3‖w3 =

3√

5

2√

2

(−1

3+ x2

)=

√5

2√

2

(−1 + 3x2

)

Entonces ‖u3‖ = 1 , u3 ⊥ u1 y u3 ⊥ u2 (ver ejemplo 3.15).

Por lo tanto

{u1, u2, u3} =

{1√2

,

√3

2x ,

√5

2√

2

(−1 + 3x2

)}

es una base ortonormal de P2[x], la cual se obtuvo de β.

Page 143: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 140

El teorema siguiente generaliza el procedimiento que se uso en ejemplo anterior.

Teorema 3.10 (Proceso de Ortonormalizacion de Gram-Schmidt). Sea V un EPI. Si W es un

subespacio de dimension finita de V, entonces W posee una base ortonormal. En Particular, si

V tiene dimension finita, entonces V posee una base ortonormal.

Demostracion. Sea βW = {v1, v2, . . . , vm} una base de W. Procederemos a construir la base

ortonormal de W a partir de βW.

En primer lugar, notemos que ‖vi‖ 6= 0/V para cada i ∈ {1, . . . , m}.

Paso 1. Sea u1 =1

‖v1‖v1 =

v1

‖v1‖. Entonces gen({u1}) = gen({v1}) (¿por que?) y

‖u1‖ =

∥∥∥∥v1

‖v1‖

∥∥∥∥ =1

‖v1‖‖v1‖ = 1

Paso 2. Sea w2 = v2 − 〈v2 , u1〉 u1. Entonces w2 6= 0/V, pues de lo contrario

v2 = 〈v2 , u1〉u1 =〈v2 , u1〉‖v1‖

v1

lo cual contradice el hecho de que {v1, v2} es linealmente independiente.

Ademas

〈w2 , u1〉 = 〈v2 − 〈v2 , u1〉u1 , u1〉 = 〈v2 , u1〉 − 〈〈v2 , u1〉u1 , u1〉= 〈v2 , u1〉 − 〈v2 , u1〉 〈u1 , u1〉 = 〈v2 , u1〉 − 〈v2 , u1〉 = 0

Con lo que w2 ⊥ u1.

Paso 3. Sea u2 =1

‖w2‖w2 =

w2

‖w2‖. Entonces ‖u2‖ = 1 y u1 ⊥ u2. Ası que {u1, u2} es un

conjunto ortonormal.

Ademas gen({u1, u2}) = gen({v1, v2}). En efecto, sea v ∈ gen({u1, u2} cualquiera.

Entonces existen α1, α2 ∈ R tales que v = α1u1 + α2u2.

Luego

v = α1u1 + α2u2

= α11

‖v1‖v1 + α2

1

‖w2‖w2

=α1

‖v1‖v1 +

α2

‖w2‖(v2 − 〈v2 , u1〉u1)

=α1

‖v1‖v1 +

α2

‖w2‖

(v2 − 〈v2 , u1〉

1

‖v1‖v1

)

=

(α1

‖v1‖− α2 〈v2 , u1〉‖w2‖‖v1‖

)v1 +

α2

‖w2‖v2

Page 144: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 141

De donde v ∈ gen({v1, v2}), por tanto gen({u1, u2}) ⊂ gen({v1, v2}) y ası gen({u1, u2})es un subespacio de gen({v1, v2}), como {u1, u2} es un conjunto ortonormal, y en

consecuencia linealmente independiente (¿por que?), entonces dim(gen({u1, u2})) =

2 = dim(gen({v1, v2})), ası que

gen({u1, u2}) = gen({v1, v2}) (¿por que?)

De manera recursiva, para k < m, obtenemos un conjunto ortonormal {u1, u2, . . . , uk} tal que

gen({u1, u2, . . . , uk}) = gen({v1, v2, . . . , vk})

Paso 4. Sea

wk+1 = vk+1 − 〈vk+1 , u1〉 u1 − 〈vk+1 , u2〉 u2 − · · · − 〈vk+1 , uk〉uk

= vk+1 −k∑

i=1

〈vk+1 , ui〉ui

Entonces wk+1 ∈W, wk+1 6= 0/V y para cada j ∈ {1, . . . , k} tenemos que

〈wk+1 , uj〉 =

⟨vk+1 −

k∑

i=1

〈vk+1 , ui〉ui , uj

= 〈vk+1 , uj〉 −⟨

k∑

i=1

〈vk+1 , ui〉 ui , uj

= 〈vk+1 , uj〉 −k∑

i=1

〈〈vk+1 , ui〉ui , uj〉

= 〈vk+1 , uj〉 −k∑

i=1

〈vk+1 , ui〉 〈ui , uj〉

= 〈vk+1 , uj〉 − 〈vk+1 , uj〉 〈uj , uj〉 (¿por que?)

= 〈vk+1 , uj〉 − 〈vk+1 , uj〉 (¿por que?)

= 0

es decir, wk+1 ⊥ uj para cada j ∈ {1, . . . , k}.

Paso 5. Hagamos uk+1 =1

‖wk+1‖wk+1 =

wk+1

‖wk+1‖. Entonces {u1, u2, . . . , uk, uk+1} es un

conjunto ortonormal y gen({u1, u2, . . . , uk, uk+1}) = gen({v1, v2, . . . , vk, vk+1}) (¿por

que?).

Procediendo de esta manera, obtenemos un conjunto ortonormal de vectores no nulos {u1, u2, . . . , um}en W, y por lo tanto, una base ortonormal de W.

Page 145: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 142

3.4. Complemento Ortogonal

Finalizaremos este capıtulo definiendo el complemento ortogonal de un subespacio vectorial de

un EPI.

Teorema 3.11. Sea {v1, v2, . . . , vn} una base ortonormal de un EPI V. Entonces para cada

v ∈ V se tiene que

v = 〈v , v1〉 v1 + 〈v , v2〉 v2 + · · ·+ 〈v , vn〉 vn =n∑

i=1

〈v , vi〉 vi

Demostracion. ¡Ejercicio!

Teorema 3.12. Sea W un subespacio de un EPI de dimension finita V. Sean {w1, w2, . . . , wm}y {w1, w2, . . . , wm} bases ortonormales de W. Entonces para cada v ∈ V se tiene que

m∑

i=1

〈v , wi〉wi =m∑

i=1

〈v , wi〉 wi

Demostracion. Por teorema, podemos escoger vectores um+1, . . . , un tales que

β1 = {w1, w2, . . . , wm, um+1, . . . , un}

sea una base de V. El proceso de ortonormalizacion de Gram-Schmidt nos permite suponer, sin

perder generalidad, que β1 es una base ortonormal de V.

Para cada j ∈ {m + 1, . . . , n}, uj /∈ gen ({w1, w2, . . . , wm}) = W = gen ({w1, w2, . . . , wm}) por

lo tanto β2 = {w1, w2, . . . , wm, um+1, . . . , un} tambien es una base ortonormal de V.

Entonces, por el teorema 3.11, tenemos que

v = 〈v , w1〉w1 + · · ·+ 〈v , wm〉wm + 〈v , um+1〉um+1 + · · ·+ 〈v , un〉un

=

m∑

i=1

〈v , wi〉wi +

n∑

i=m+1

〈v , ui〉 ui

y

v = 〈v , w1〉 w1 + · · ·+ 〈v , wm〉 wm + 〈v , um+1〉um+1 + · · ·+ 〈v , un〉un

=m∑

i=1

〈v , wi〉 wi +n∑

i=m+1

〈v , ui〉 ui

En consecuenciam∑

i=1

〈v , wi〉wi =

m∑

i=1

〈v , wi〉 wi

Page 146: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 143

El teorema 3.12 da pie a la siguiente definicion.

Definicion 3.10. Sea W un subespacio de un EPI de dimension finita V y sea {w1, w2, . . . , wm}una base ortonormal de W. Si v ∈ V, definiremos la proyeccion ortogonal de v sobre W,

como el vector

proyW v = 〈v , w1〉w1 + 〈v , w2〉w2 + · · ·+ 〈v , wm〉wm =

m∑

i=1

〈v , wi〉wi

Claramente proyW

v ∈W.

Ejemplo 3.17. Consideremos el EPI P2[x], con el producto interno usado el el ejemplo 3.16 de

la seccion 3.3. Hallar la proyeccion ortogonal de p(x) = 3 + 2x− x2 sobre el subespacio de P2[x]

W = {a + bx + cx2 : c = −3a}

Solucion. Una base ortonormal de W es{√

3

2x ,

√5

2√

2

(−1 + 3x2

)}

(¡verifıquelo!)

Entonces⟨

p(x) ,

√3

2x

⟩=

√3

2

⟨3 + 2x− x2 , x

⟩=

√3

2

∫ 1

−1

(3 + 2x− x2

)xdx

=

√3

2

∫ 1

−1

(3x + 2x2 − x3

)dx = 2

√3

2

∫ 1

−1

x2dx = 2

√3

2

x3

3

∣∣∣∣1

−1

=4√

3

3√

2

⟨p(x) ,

√5

2√

2

(−1 + 3x2

)⟩

=

√5

2√

2

⟨3 + 2x− x2 , −1 + 3x2

=

√5

2√

2

∫ 1

−1

(3 + 2x− x2

) (−1 + 3x2

)dx

=

√5

2√

2

∫ 1

−1

(−3− 2x + 10x2 + 6x3 − 3x4

)dx

=

√5

2√

2

∫ 1

−1

(−3 + 10x2 − 3x4

)dx

=

√5

2√

2

(−3x +

10

3x3 − 3

5x5

)∣∣∣∣1

−1

= − 4√

5

15√

2

Page 147: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 144

Ası que

proyW p(x) =

⟨p(x) ,

√3

2x

⟩√3

2x +

⟨p(x) ,

√5

2√

2

(−1 + 3x2

)⟩ √

5

2√

2

(−1 + 3x2

)

=4√

3

3√

2

√3

2x +

(− 4√

5

15√

2

) √5

2√

2

(−1 + 3x2

)

= 2x− 1

3

(−1 + 3x2

)

=1

3+ 2x− x2

Definicion 3.11. SeaW un subespacio de un EPI V. Definiremos el complemento ortogonal

de W como el conjunto

W⊥ = {v ∈ V : v ⊥ w para cada w ∈W}= {v ∈ V : 〈v , w〉 = 0 para cada w ∈W}

Antes de dar algun ejemplo, enunciaremos un lema que nos permitira hallar con mayor facilidad

el complemento ortogonal.

Lema 3.2. Sea W un subespacio vectorial de un EPI V. Sea βW = {w1, w2, . . . , wn} una base de

W. Entonces v ∈W⊥ si y solo si v ⊥ wi para cada i ∈ {1, . . . , n}.

Demostracion. Supongamos primero que v ∈W⊥. Entonces v ⊥ w para cada w ∈W, ası que

v ⊥ wi para cada i ∈ {1, . . . , n}.Supongamos ahora que v ⊥ wi para cada i ∈ {1, . . . , n}, es decir, 〈v , wi〉 = 0 para cada

i ∈ {1, . . . , n}.Sea w ∈W cualquiera. Entonces existen escalares α1, α2, . . . , αn ∈ R tales que

w = α1w1 + α2w2 + · · ·+ αnwn =n∑

i=1

αiwi

Por lo tanto

〈v , w〉 =

⟨v ,

n∑

i=1

αiwi

⟩=

n∑

i=1

〈v , αiwi〉 =n∑

i=1

αi 〈v , wi〉 =n∑

i=1

αi · 0 = 0

Es decir, v ⊥ w para cada w ∈W. En consecuencia, v ∈W⊥.

Page 148: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 145

Ejemplo 3.18. Sea W el subespacio de P2[x] dado en el ejemplo 3.17. Hallar W⊥.

Solucion. Recordemos que

W = gen

({√3

2x ,

√5

2√

2

(−1 + 3x2

)})

= gen({

x , −1 + 3x2})

Por lo tanto, segun el lema 3.2, a0+a1x+a2x2 ∈W⊥ si y solo si (a0+a1x+a2x

2) ⊥ x y (a0+a1x+

a2x2) ⊥ (−1+3x2), es decir, si y solo si 〈a0 + a1x + a2x

2 , x〉 = 0 y 〈a0 + a1x + a2x2 , −1 + 3x2〉 =

0, pero

⟨a0 + a1x + a2x

2 , x⟩

=

∫ 1

−1

(a0 + a1x + a2x2)xdx

=

∫ 1

−1

(a0x + a1x2 + a2x

3)dx

=

∫ 1

−1

a1x2dx = a1

x3

3

∣∣∣∣1

−1

=2

3a1

ası que 〈a0 + a1x + a2x2 , x〉 = 0 si y solo si a1 = 0.

Luego

⟨a0 + a1x + a2x

2 , −1 + 3x2⟩

=⟨a0 + a2x

2 , −1 + 3x2⟩

=

∫ 1

−1

(a0 + a2x2)(−1 + 3x2)dx

=

∫ 1

−1

(−a0 − a2x2 + 3a0x

2 + 3a2x4)dx

⟨a0 + a1x + a2x

2 , −1 + 3x2⟩

= 2

∫ 1

0

(−a0 − a2x2 + 3a0x

2 + 3a2x4)dx

= 2

(−a0x− a2

x3

3+ a0x

3 + 3a2x5

5

)∣∣∣∣1

0

= 2

(−a0 −

1

3a2 + a0 +

3

5a2

)

=8

15a2

De donde 〈a0 + a1x + a2x2 , −1 + 3x2〉 = 0 si y solo si a2 = 0.

En consecuencia, a0 + a1x + a2x2 ∈W⊥ si y solo si a1 = 0 = a2.

Por lo tanto

W⊥ = gen({1})

Page 149: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 146

Teorema 3.13. Si W es un subespacio de un EPI V, entonces

1. V⊥ = {0/V} y {0/V}⊥ = V.

2. W⊥ es un subespacio de V.

3. W ∩W⊥ = {0/V}.

4. Si V es de dimension finita, entonces

dim(W⊥

)+ dim(W) = dim(V).

Demostracion.

1. Son consecuencias directa, respectivamente, de las partes 6 y 5 del teorema 3.6.

2. Por definicion, W⊥ ⊂ V. Ademas, por la parte 5 del teorema 3.6, se tiene que 0/V ∈W⊥.

Sean u, v ∈W⊥ y α ∈ R. entonces, para cada w ∈W, 〈u , w〉 = 0 = 〈v , w〉, ası que

〈u + αv , w〉 = 〈u , w〉+ 〈αv , w〉 = 〈u , w〉+ α 〈v , w〉 = 0

es decir, u + αv ∈W⊥, y por lo tanto W⊥ es un subespacio de V.

3. Sea v ∈W∩W⊥ cualquiera. Entonces v ∈W y v ∈W⊥, es decir, v ∈W y 〈v , w〉 = 0 para

cada w ∈W. Por lo tanto ‖v‖2 = 〈v , v〉 = 0, y por la parte 1 del teorema 3.7, se tiene que

v = 0/V. En consecuencia W ∩W⊥ = {0/V}.

4. Si W = V, entonces dimV = n y W⊥ = V⊥ = {0/V} (por la parte 1). Por lo tanto

dim(W) + dim(W⊥) = n + 0 = n = dim(V).

Supongamos que W 6= V. Sea {w1, w2, . . . , wm} una base ortonormal de W y consideremos

vectores wm+1, . . . , wn ∈ V tales que β = {w1, w2, . . . , wm, wm+1, . . . , wn} sea una base de

V, sin perdida de generalidad, podemos suponer que β es ortonormal (¿por que?).

Probaremos que {wm+1, . . . , wn} es una base de W⊥. Dado que {wm+1, . . . , wn} es ortonor-

mal (¿por que?), entonces es linealmente independiente, ası que solo es necesario probar

que {wm+1, . . . , wn} genera a W⊥.

Sea w ∈W⊥ cualquiera. Entonces, por el teorema 3.11

w = 〈w , w1〉w1 + · · ·+ 〈w , wm〉wm + 〈w , wm+1〉wm+1 + · · ·+ 〈w , wn〉wn

Page 150: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 147

Pero, por el lema 3.2, 〈w , wi〉 = 0 para cada i ∈ {1, . . . , m}. Luego

w = 〈w , wm+1〉wm+1 + · · ·+ 〈w , wn〉wn

Ası que {wm+1, . . . , wn} es una base de W⊥. De donde

dim(W⊥

)= n− (m + 1) + 1 = n−m = dim(V)− dim(W)

En consecuencia dim(W⊥

)+ dim(W) = dim(V).

Teorema 3.14. Sean W un subespacio de dimension finita de un EPI V y v ∈ V. Entonces

existe un unico par de vectores w1 ∈W y w2 ∈W⊥ tales que

v = w1 + w2

donde w1 = proyW

v.

Ademas, si V es de dimension finita, entonces w2 = proyW⊥ v.

Demostracion. Sean w1 = proyW

v y w2 = v − w1. Claramente v = w1 + w2, ademas, por la

definicion 3.10, w1 ∈W. Solo falta probar que w2 ∈W⊥.

Sea {v1, v2, . . . , vm} una base ortonormal de W. Entonces, por la definicion 3.10, tenemos que

w1 = 〈v , v1〉 v1 + 〈v , v2〉 v2 + · · ·+ 〈v , vm〉 vm =m∑

i=1

〈v , vi〉 vi

ası que para cada j ∈ {1, . . . , m}

〈w2 , vj〉 = 〈v − w1 , vj〉 = 〈v , vj〉 − 〈w1 , vj〉

= 〈v , vj〉 −⟨

m∑

i=1

〈v , vi〉 vi , vj

= 〈v , vj〉 −m∑

i=1

〈〈v , vi〉 vi , vj〉

= 〈v , vj〉 −m∑

i=1

〈v , vi〉 〈vi , vj〉

= 〈v , vj〉 − 〈v , vj〉 〈vj , vj〉 (¿por que?)

= 〈v , vj〉 − 〈v , vj〉 (¿por que?)

= 0

Page 151: guia algebra de lineal Msc.Jorge Campos

Matriz de Cambio de Base. Espacios con Producto Interno 148

y por el lema 3.2, tenemos que w2 ∈W⊥.

Probemos ahora la unicidad de w1 w2. Supongamos que existen w1 ∈W y w2 ∈W⊥ tales que

v = w1 + w2. Por lo tanto

w1 + w2 = v = w1 + w2

de donde

w1 − w1 = w2 − w2

Pero w1 − w1 ∈W y w2 − w2 ∈W⊥.

Luego

w1 − w1, w2 − w2 ∈W ∩W⊥ = {0/V}

En consecuencia w1 = w1 y w2 = w2.

Se deja como ejercicio probar que si V es de dimension finita, entonces

w2 = proyW⊥ v

Page 152: guia algebra de lineal Msc.Jorge Campos

Capıtulo 4

Transformaciones Lineales. Autovalores y Autovectores de una

Matriz

4.1. Transformaciones Lineales

Definicion 4.1. Sean V y W dos espacios vectoriales y T : V −→W una funcion. Diremos que

T es una transformacion lineal si para cualesquiera u, v ∈ V y α ∈ R se cumple que

1. T (u + v) = T (u) + T (v).

2. T (αu) = αT (u).

Ejemplo 4.1.

1. Sean V y W dos espacios vectoriales. La transformacion O : V −→W, dada por O(v) = 0/W

para cada v ∈ V, es una transformacion lineal (¡pruebelo!), llamada transformacion nula.

2. Sea V un espacio vectorial. Definamos IV : V −→ V como sigue, IV(v) = v para cada v ∈ V.

Entonces IV es una transformacion lineal (¡pruebelo!), la cual es llamada transformacion

identidad sobre V. �

3. Sean V un espacio vectorial de dimension n y β una base ordenada de V. Entonces T :

V −→ Mn×1(R) dada por T (v) = [v]β es una transformacion lineal (ver teorema 3.1 en el

capıtulo anterior). �

4. T : R3 −→ R2, dada por T (x, y, z) = (2x + y, x − z), es una transformacion lineal, en

efecto, dados (x, y, z), (a, b, c) ∈ R3 y α ∈ R, se tiene que

T ((x, y, z) + (a, b, c)) = T (x + a, y + b, z + c)

= (2(x + a) + (y + b), (x + a)− (z + c))

= (2x + 2a + y + b, x + a− z − c)

= (2x + y, x− z) + (2a + b, a− c)

= T (x, y, z) + T (a, b, c)

149

Page 153: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 150

T (α(x, y, z)) = T (αx, αy, αz)

= (2(αx) + (αy), (αx)− (αz))

= (α(2x + y), α(x− z))

= α(2x + y, x− z)

= αT (x, y, z)

5. La funcion T : R2 −→ R3 dada por

T (x, y) = (x2, x + y, xy)

no es una transformacion lineal, en efecto,

T (1, 0) = (12, 1 + 0, 1 · 0) = (1, 1, 0)

T (2(1, 0)) = T (2, 0) = (22, 2 + 0, 2 · 0) = (4, 2, 0)

2T (1, 0) = 2(1, 1, 0) = (2, 2, 0) 6= (4, 2, 0) = T (2(1, 0))

6. T : P2[x] −→ R2 dada por T (a + bx + cx2) = (2a + c + 3, b− c) no es una transformacion

lineal, en efecto,

T (0) = (2 · 0 + 0 + 3, 0− 0) = (3, 0)

T (0) + T (0) = (3, 0) + (3, 0) = (6, 0)

T (0 + 0) = T (0) = (3, 0) 6= (6, 0) = T (0) + T (0)

7. Consideremos T : M2×2(R) −→ P3[x] dada por

T

([a b

c d

])= a + bx + cx2 + dx3

Entonces T es lineal (¡pruebelo!). �

8. T : R3 −→ P3[x] dada por

T (a, b, c) = b + (2a + c)x + (b− 3c)x3

Page 154: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 151

es lineal. En efecto, sean u, v ∈ R3 y α ∈ R cualesquiera, con u = (a1, b1, c1) y v =

(a2, b2, c2). Entonces

T (u + v) = T ((a1, b1, c1) + (a2, b2, c2))

= T (a1 + a2, b1 + b2, c1 + c2)

= (b1 + b2) + [2(a1 + a2) + (c1 + c2)]x + [(b1 + b2)− 3(c1 + c2)]x3

= (b1 + b2) + (2a1 + 2a2 + c1 + c2)x + (b1 + b2 − 3c1 − 3c2)x3

= [b1 + (2a1 + c1)x + (b1 − 3c1)x3] + [b2 + (2a2 + c2)x + (b2 − 3c2)x

3]

= T (a1, b1, c1) + T (a2, b2, c2)

= T (u) + T (v)

T (αu) = T (α(a1, b1, c1))

= T (αa1, αb1, αc1)

= αb1 + (2αa1 + αc1)x + (αb1 − 3αc1)x3

= αb1 + α(2a1 + c1)x + α(b1 − 3c1)x3

= α[b1 + (2a1 + c1)x + (b1 − 3c1)x3]

= αT (a1, b1, c1)

= αT (u)

9. Sea A ∈ Mm×n(R). Definamos T : Mn×1(R) −→ Mm×1(R) como T (x) = Ax. No es difıcil

probar que T es una transformacion lineal (¡pruebelo!). �

Este ultimo ejemplo nos dice que toda matriz define una transformacion lineal, mas adelante

veremos que toda transformacion lineal, entre espacios vectoriales de dimension finita, esta aso-

ciada con una matriz.

El siguiente teorema nos sera de gran utilidad a la hora de decidir si una funcion T es una

transformacion lineal.

Teorema 4.1. Sean V y W dos espacios vectoriales. Una funcion T : V −→ W es una trans-

formacion lineal si y solo si para cualesquiera u, v ∈ V y α ∈ R se cumple que T (u + αv) =

T (u) + αT (v).

Page 155: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 152

Demostracion. Supongamos que T : V −→ W es una transformacion lineal. Sean u, v ∈ V y

α ∈ R cualesquiera. Entonces

T (u + αv) = T (u) + T (αv) (por la condicin 1 de la definicion 4.1)

= T (u) + αT (v) (por la condicin 2 de la definicion 4.1)

Supongamos ahora que T : V −→W es tal que para cualesquiera u, v ∈ V y α ∈ R se cumple

que

T (u + αv) = T (u) + αT (v)

Sean u, v ∈ V y α ∈ R cualesquiera. Entonces

T (u + v) = T (u + 1 · v) = T (u) + 1 · T (v) = T (u) + T (v)

y ademas

T (0/V) = T (u + (−1)u) = T (u) + (−1)T (u) = 0/W

luego

T (αv) = T (0/V +αv) = T (0/V) + αT (v) = 0/W +αT (v) = αT (v)

Por lo tanto T es lineal.

De ahora en adelante, gracias a este ultimo teorema, cuando queramos probar que una fun-

cion T, entre espacios vectoriales, es una transformacion lineal, no sera necesario probar las dos

condiciones en la definicion 4.1, solo bastara probar la condicion en el teorema anterior.

Teorema 4.2. Sean V y W dos espacios vectoriales y T : V −→ W una transformacion lineal.

Entonces, para cualesquiera u, v, v1, v2, . . . , vn ∈ V y α1, α2, . . . , αn ∈ R, se cumple que

1. T (0/V) = 0/W.

2. T (u− v) = T (u)− T (v).

3. T (α1v1 + α2v2 + · · ·+ αnvn) = α1T (v1) + α2T (v2) + · · ·+ αnT (vn)

Demostracion.

1. Sea v0 ∈ V cualquiera pero fijo. Entonces

T (0/V) = T (0 · v0) = 0 · T (v0) = 0/W

Page 156: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 153

2. En virtud del teorema 4.1

T (u− v) = T (u + (−1)v) = T (u) + (−1)T (v) = T (u)− T (v)

3. Procederemos por induccion.

a) Veamos que se cumple para n = 2.

T (α1v1 + α2v2) = T (α1v1) + T (α2v2) = α1T (v1) + α2T (v2)

b) (Hipotesis Inductiva) Supongamos que se cumple para n−1, esto es, supongamos que

T (α1v1 + α2v2 + · · ·+ αn−1vn−1) = α1T (v1) + α2T (v2) + · · ·+ αn−1T (vn−1)

c) Probemos que se cumple para n.

T (α1v1 + α2v2 + · · ·+ αn−1vn−1 + αnvn)

= T ((α1v1 + α2v2 + · · ·+ αn−1vn−1) + αnvn)

= T (α1v1 + α2v2 + · · ·+ αn−1vn−1) + T (αnvn)

(Hipotesis Inductiva) = α1T (v1) + α2T (v2) + · · ·+ αn−1T (vn−1) + αnT (vn)

Teorema 4.3. Sean U, V y W espacios vectoriales y L : U −→ V y T : V −→W dos transfor-

maciones lineales. Entonces T ◦ L : U −→W es tambien una transformacion lineal.

Demostracion. Sean u1, u2 ∈ U y α ∈ R cualesquiera. Entonces

(T ◦ L)(u1 + αu2) = T (L(u1 + αu2)) (definicion de composicion de funciones)

= T (L(u1) + αL(u2)) (ya que L es lineal)

= T (L(u1)) + αT (L(u2)) (ya que T es lineal)

= (T ◦ L)(u1) + α(T ◦ L)(u2) (definicion de composicion de funciones)

Por lo tanto T ◦ L es lineal.

Teorema 4.4. Sean V y W dos espacios vectoriales, T, L : V −→ W dos transformaciones

lineales y λ ∈ R. Entonces T + λL : V −→W es tambien una transformacion lineal.

Page 157: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 154

Demostracion. Sean v1, v2 ∈ V y α ∈ R cualesquiera. Entonces

(T + λL)(v1 + αv2) = T (v1 + αv2) + (λL)(v1 + αv2) (definicion de suma de funciones)

= T (v1 + αv2) + λL(v1 + αv2)

(definicion de multiplo escalar de funciones)

= T (v1) + αT (v2) + λ(L(v1) + αL(v2)) (pues T y L son lineales)

= T (v1) + αT (v2) + λL(v1) + λαL(v2)

= T (v1) + λL(v1) + αT (v2) + λαL(v2)

= T (v1) + λL(v1) + α(T (v2) + λL(v2))

= T (v1) + (λL)(v1) + α(T (v2) + (λL)(v2))

(definicion de multiplo escalar de funciones)

= (T + λL)(v1) + α(T + λL)(v2) (definicion de suma de funciones)

En consecuencia T + λL es lineal.

Dado dos espacios vectoriales V y W, este ultimo teorema nos dice que el conjunto formado

por todas las transformaciones lineales de V en W, junto con las operaciones usuales de suma de

funciones y multiplicacion por escalar, forman un espacio vectorial.

Teorema 4.5. Sean V y W dos espacios vectoriales y β = {v1, v2, . . . , vn} una base de V.

Supongamos que T y L son dos transformaciones lineales de V en W tales que T (vi) = L(vi)

para cada i ∈ {1, . . . , n}. Entonces T = L, esto es, T (v) = L(v) para cada v ∈ V.

Demostracion. Sea v ∈ V cualquiera. Existen (unicos) escalares α1, α2, . . . , αn ∈ R tales que

v = α1v1 + α2v2 + · · ·+ αnvn

ası que

T (v) = T (α1v1 + α2v2 + · · ·+ αnvn)

= α1T (v1) + α2T (v2) + · · ·+ αnT (vn) (teorema 4.2 parte 3)

= α1L(v1) + α2L(v2) + · · ·+ αnL(vn) (hipotesis)

= L(α1v1 + α2v2 + · · ·+ αnvn) (teorema 4.2 parte 3)

= L(v)

Page 158: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 155

Luego T = L.

El teorema anterior nos dice que si T : V −→ W es una transformacion lineal y V tiene

dimension finita, basta con conocer como actua T en una base cualquiera de V, para saber como

actua T en cualquier v ∈ V.

Ejemplo 4.2. Hallar la transformacion lineal T de P2[x] en R2 tal que

T (1) = (2,−1); T (x) = (3, 4); T (x2) = (−1, 5)

Solucion.

T (a0 + a1x + a2x2) = T (a0 · 1 + a1x + a2x

2)

= a0T (1) + a1T (x) + a2T (x2)

= a0(2,−1) + a1(3, 4) + a2(−1, 5)

= (2a0 + 3a1 − a2,−a0 + 4a1 + 5a2)

Teorema 4.6 (Existencia y Unicidad de una Transformacion Lineal). Sean V y W dos espacios

vectoriales, β = {v1, v2, . . . , vn} una base de V y w1, w2, . . . , wn ∈W. Entonces existe una unica

transformacion lineal T : V −→W tal que T (vi) = wi para cada i ∈ {1, . . . , n}.

Demostracion. Dado v ∈ V cualquiera, existen unicos escalares, α1, α2, . . . , αn ∈ R, tales que

v = α1v1 + α2v2 + · · ·+ αnvn =

n∑

i=1

αivi

Definamos

T (v) = α1w1 + α2w2 + · · ·+ αnwn =n∑

i=1

αiwi

La unicidad de los escalares α1, α2, . . . , αn ∈ R, garantiza que T es una funcion, ademas, dado

que w1, w2, . . . , wn ∈ W y W es un espacio vectorial, se tiene que T (v) ∈ W, por lo tanto T es

una funcion de V en W.

Por otro lado, para cada j ∈ {1, . . . , n}, se tiene que vj =

n∑

i=1

λivi, donde λi = 0 si i 6= j y

λj = 1, ası que

T (vj) =

n∑

i=1

λiwi = λjwj = wj

Page 159: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 156

Probemos ahora que T es lineal. Sean u, v ∈ V y λ ∈ R cualesquiera, entonces existen unicos

escalares α1, α2, . . . , αn, β1, β2, . . . , βn ∈ R tales que

u = α1v1 + α2v2 + · · ·+ αnvn =

n∑

i=1

αivi

v = β1v1 + β2v2 + · · ·+ βnvn =

n∑

i=1

βivi

Ası que

T (u) = α1w1 + α2w2 + · · ·+ αnwn =n∑

i=1

αiwi

T (v) = β1w1 + β2w2 + · · ·+ βnwn =

n∑

i=1

βiwi

Ademas

u + λv =n∑

i=1

αivi + λn∑

i=1

βivi =n∑

i=1

(αi + λβi)vi

Por lo tanto

T (u + λv) =

n∑

i=1

(αi + λβi)wi =

n∑

i=1

αiwi + λ

n∑

i=1

βiwi = T (u) + λT (v)

En consecuencia T es lineal.

Finalmente, probemos que T es unica. Supongamos que existe otra transformacion lineal L :

V −→W tal que L(vi) = wi para cada i ∈ {1, . . . , n}.Luego, por el teorema 4.5, se tiene que L = T .

Ejemplo 4.3. Hallar una transformacion lineal T : R3 −→M2×2(R) (si existe) tal que

T (−2, 2,−1) =

[2 0

1 −2

]; T (0, 1,−3) =

[0 −1

4 3

];

T (−2, 1, 2) =

[2 1

−3 −5

]; T (1,−1, 0) =

[4 −2

1 0

]

Solucion. Veamos cuales de los vectores (−2, 2,−1), (0, 1,−3), (−2, 1, 2), (1,−1, 0) son lineal-

mente independientes, para ello, consideremos la matriz

−2 0 −2 1

2 1 1 −1

−1 −3 2 0

Page 160: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 157

y hallemos su FERF.

−2 0 −2 1

2 1 1 −1

−1 −3 2 0

F1 ↔ F3→

−1 −3 2 0

2 1 1 −1

−2 0 −2 1

F1 → −F1→

1 3 −2 0

2 1 1 −1

−2 0 −2 1

F2 → F2 − 2F1→F3 → F3 + 2F1

1 3 −2 0

0 −5 5 −1

0 6 −6 1

F2 → F2 + F3→

1 3 −2 0

0 1 −1 0

0 6 −6 1

F1 → F1 − 3F2→F3 → F3 − 6F2

1 0 1 0

0 1 −1 0

0 0 0 1

Dado que los pivotes se encuentran en las columnas 1, 2 y 4, los vectores

(−2, 2,−1), (0, 1,−3), (1,−1, 0)

son linealmente independientes, y en consecuencia, forman una base para R3 y por el teorema

4.6, concluimos que existe una unica transformacion lineal tal que

T (−2, 2,−1) =

[2 0

1 −2

]; T (0, 1,−3) =

[0 −1

4 3

];

T (1,−1, 0) =

[4 −2

1 0

]

Hallemos T . Sea (x, y, z) ∈ R3 cualquiera. Hagamos

β = {(−2, 2,−1), (0, 1,−3), (1,−1, 0)}

debemos hallar [(x, y, z)]β, para ello hallemos la matriz Mβc,β.

−2 0 1 1 0 0

2 1 −1 0 1 0

−1 −3 0 0 0 1

F1 ↔ F3→

−1 −3 0 0 0 1

2 1 −1 0 1 0

−2 0 1 1 0 0

F1 → −F1→

1 3 0 0 0 −1

2 1 −1 0 1 0

−2 0 1 1 0 0

F2 → F2 − 2F1→F3 → F3 + 2F1

1 3 0 0 0 −1

0 −5 −1 0 1 2

0 6 1 1 0 −2

Page 161: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 158

F2 → F2 + F3→

1 3 0 0 0 −1

0 1 0 1 1 0

0 6 1 1 0 −2

F1 → F1 − 3F2→F3 → F3 − 6F2

1 0 0 −3 −3 −1

0 1 0 1 1 0

0 0 1 −5 −6 −2

Por lo tanto

Mβc,β =

−3 −3 −1

1 1 0

−5 −6 −2

En consecuencia

[(x, y, z)]β = Mβc,β[(x, y, z)]βc=

−3 −3 −1

1 1 0

−5 −6 −2

x

y

z

=

−3x− 3y − z

x + y

−5x− 6y − 2z

Es decir

(x, y, z) = (−3x− 3y − z)(−2, 2,−1) + (x + y)(0, 1, 3) + (−5x− 6y − 2z)(1,−1, 0)

De donde

T (x, y, z) = (−3x− 3y − z)T (−2, 2,−1) + (x + y)T (0, 1, 3)

+(−5x− 6y − 2z)T (1,−1, 0)

= (−3x− 3y − z)

[2 0

1 −2

]+ (x + y)

[0 −1

4 3

]

+(−5x− 6y − 2z)

[4 −2

1 0

]

=

[−26x− 30y − 10z 9x + 11y + 4z

−4x− 5y − 3z 9x + 9y + 2z

]

Por ultimo

T (−2, 1, 2) =

[−26(−2)− 30(1)− 10(2) 9(−2) + 11(1) + 4(2)

−4(−2)− 5(1)− 3(2) 9(−2) + 9(1) + 2(2)

]=

[2 1

−3 −5

]

Por lo tanto, T es la transformacion lineal requerida (ademas, es unica).

Ejemplo 4.4. Hallar una transformacion lineal (si existe) T : R4 −→M3×1(R) tal que

T (1,−2, 1, 1) =

1

2

−3

; T (2, 1, 3, 0) =

0

−1

2

Page 162: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 159

T (0, 5, 1,−2) =

−2

−5

8

; T (1,−7, 0, 3) =

3

7

−11

Solucion. Veamos si el conjunto S = {(1,−2, 1, 1); (2, 1, 3, 0); (0, 5, 1,−2); (1,−7, 0, 3)} es li-

nealmente independiente, para ello consideremos la matriz

1 2 0 1

−2 1 5 −7

1 3 1 0

1 0 −2 3

y hallemos su FERF

1 2 0 1

−2 1 5 −7

1 3 1 0

1 0 −2 3

F2 → F2 + 2F1

F3 → F3 − F1→F4 → F4 − F1

1 2 0 1

0 5 5 −5

0 1 1 −1

0 −2 −2 2

F2 ↔ F3→

1 2 0 1

0 1 1 −1

0 5 5 −5

0 −2 −2 2

F1 → F1 − 2F2

F3 → F3 − 5F2→F4 → F4 + 2F2

1 0 −2 3

0 1 1 −1

0 0 0 0

0 0 0 0

Por lo tanto, los dos primeros vectores de S son linealmente independientes, no podemos

proceder como en el ejemplo anterior, sin embargo, podemos completar una base de R4 partiendo

de estos dos vectores (el teorema de completacion de bases nos lo permite) ¿como hacerlo?,

escojamos estos vectores entre los canonicos, para saber cual de ellos escoger, consideremos la

siguiente matriz

1 2 1 0 0 0

−2 1 0 1 0 0

1 3 0 0 1 0

1 0 0 0 0 1

hallemos su FERF.

Page 163: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 160

1 2 1 0 0 0

−2 1 0 1 0 0

1 3 0 0 1 0

1 0 0 0 0 1

F2 → F2 + 2F1

F3 → F3 − F1→F4 → F4 − F1

1 2 1 0 0 0

0 5 2 1 0 0

0 1 −1 0 1 0

0 −2 −1 0 0 1

F2 ↔ F3→

1 2 1 0 0 0

0 1 −1 0 1 0

0 5 2 1 0 0

0 −2 −1 0 0 1

F1 → F1 − 2F2

F3 → F3 − 5F2→F4 → F4 + 2F2

1 0 3 0 −2 0

0 1 −1 0 1 0

0 0 7 1 −5 0

0 0 −3 0 2 1

F3 → 17F3→

1 0 3 0 −2 0

0 1 −1 0 1 0

0 0 1 17−5

70

0 0 −3 0 2 1

F1 → F1 − 3F3

F2 → F2 + F3→F4 → F4 + 3F3

1 0 0 −37

17

0

0 1 0 17

27

0

0 0 1 17−5

70

0 0 0 37−1

71

Sin necesidad de llegar a la FERF, nos damos cuenta que los vectores que completan una base

de R4 son (1, 0, 0, 0); (0, 1, 0, 0), es decir,

β = {(1,−2, 1, 1); (2, 1, 3, 0); (1, 0, 0, 0); (0, 1, 0, 0)}

es una base de R4, haciendo

T (1, 0, 0, 0) = T (0, 1, 0, 0) =

0

0

0

garantizamos, segun el teorema 4.6, que existe una unica transformacion lineal

T : R4 −→M1×3(R)

que satisface las dos primeras igualdades en el enunciado del ejercicio y

T (1, 0, 0, 0) = T (0, 1, 0, 0) =

0

0

0

Hallemos T . Al calcular la matriz de coordenadas de (x, y, z, w) ∈ R4 cualquiera, respecto a la

base β, obtenemos (¡verificarlo!)

[(x, y, z, w)

]

β=

w

13z − 1

3w

x− 23z − 1

3w

y − 13z + 7

3w

Page 164: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 161

Por lo tanto

T (x, y, z, w) = T

(w(1,−2, 1, 1) +

(1

3z − 1

3w

)(2, 1, 3, 0)

+

(x− 2

3z − 1

3

)(1, 0, 0, 0) +

(y − 1

3z +

7

3w

)(0, 1, 0, 0)

)

= wT (1,−2, 1, 1) +

(1

3z − 1

3w

)T (2, 1, 3, 0)

+

(x− 2

3z − 1

3

)T (1, 0, 0, 0) +

(y − 1

3z +

7

3w

)T (0, 1, 0, 0)

= w

1

2

−3

+

(1

3z − 1

3w

)

0

−1

2

+

(1

3z − 1

3w

)

0

0

0

+

(y − 1

3z +

7

3w

)

0

0

0

T (x, y, z, w) =

w

−13z + 7

3w

23z − 11

3w

Se puede verificar que T satisface las ultimas dos igualdades en el enunciado del ejercicio,

ası que T es la transformacion buscada, pero a diferencia de la transformacion hallada en el

ejercicio anterior, esta no es unica, depende de la escogencia de los vectores que completan la

base del espacio de partida y la escogencia de las imagenes de estos.

4.2. Representacion Matricial de una Transformacion Li-

neal

En la seccion anterior, vimos que toda matriz A ∈Mm×n(R), define una transformacion lineal

de Mn×1(R) en Mm×1(R), ademas, se comento que toda transformacion lineal, entre espacios

vectoriales de dimension finita, esta asociada con una matriz, a continuacion enunciaremos y

demostraremos un teorema que garantiza esta ultima afirmacion.

Page 165: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 162

Teorema 4.7. Sean V y W dos espacios vectoriales, βV = {v1, v2, . . . , vn} una base ordenada de

V, βW = {w1, w2, . . . , wm} una base ordenada de W y T : V −→ W una transformacion lineal.

Entonces existe un unica matriz A ∈Mm×n(R) tal que para cada v ∈ V

[T (v)]βW= A[v]βV

Demostracion. Para cada j ∈ {1, . . . , n}, existen escalares α1j , α2j, . . . , αmj ∈ R tales que

T (vj) = α1jw1 + α2jw2 + · · ·+ αmjwm

es decir

[T (vj)]βW=

α1j

α2j

...

αmj

Dado v ∈ V cualquiera, hagamos

[v]βV=

λ1

λ2

...

λn

es decir

v = λ1v1 + λ2v2 + · · ·+ λnvn

De donde

T (v) = T (λ1v1 + λ2v2 + · · ·+ λnvn)

= λ1T (v1) + λ2T (v2) + · · ·+ λnT (vn)

= λ1(α11w1 + α21w2 + · · ·+ αm1wm) + λ2(α12w1 + α22w2 + · · ·+ αm2wm) + · · ·++λn(α1nw1 + α2nw2 + · · ·+ αmnwm)

= (α11λ1 + α12λ2 + · · ·+ α1nλn)w1 + (α21λ1 + α22λ2 + · · ·+ α2nλn)w2 + · · ·++(αm1λ1 + αm2λ2 + · · ·+ αmnλn)wm

Por lo tanto

[T (v)]βW=

α11λ1 + α12λ2 + · · ·+ α1nλn

α21λ1 + α22λ2 + · · ·+ α2nλn

...

αm1λ1 + αm2λ2 + · · ·+ αmnλn

=

α11 α12 · · · α1n

α21 α22 · · · α2n

......

...

αm1 αm2 · · · αmn

λ1

λ2

...

λn

= A[v]βV

Page 166: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 163

donde

A =

α11 α12 · · · α1n

α21 α22 · · · α2n

......

...

αm1 αm2 · · · αmn

=[

[T (v1)]βW· · · [T (vn)]βW

]

Lo cual demuestra la existencia de la matriz A satisfaciendo la tesis del teorema. Probemos

ahora su unicidad. Supongamos que B ∈Mm×n(R) es tal que para cada v ∈ V

[T (v)]βW= B[v]βV

Luego, para cada j ∈ {1, . . . , n}, tenemos que

[T (vj)]βW= B[vj ]βV

Pero

[vj]βV=

0...

0

1

0...

0

−→ j-esima fila

Luego

A(j) = [T (vj)]βW= B[vj ]βV

= B(j)

Por lo tanto B = A.

Definicion 4.2. La matriz A en el teorema anterior, se denomina representacion matricial

de T respecto a las bases βV y βW, y la denotaremos por [T ]βV,βW.

Observacion 4.1. Cuando W = V y βW = βV = β, escribiremos [T ]β en lugar de [T ]β,β.

Ejemplo 4.5.

1. Si Ves un espacio vectorial de dimension n, W es un espacio vectorial de dimension m, βV

y βW son bases ordenadas de V y W respectivamente, entonces [O]βV,βW= 0/m×n, donde O

es la transformacion nula de V en W. �

Page 167: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 164

2. Si V es un espacio vectorial de dimension n y β es una base ordenada de V, entonces

[IV]β = In, donde IV es la transformacion identidad sobre V. �

Ejemplo 4.6. Definamos T : M2×2(R) −→ R3 como sigue

T

(x y

z w

)= (2y − z, x− y + w, 3x− y − z + w)

no es difıcil probar que T es lineal (¡pruebelo!). Consideremos las bases canonicas ordenadas βV

de M2×2(R) y βW de R3. Hallar [T ]βV,βW.

Solucion. En primer lugar

T

(1 0

0 0

)= (0, 1, 3) ; T

(0 1

0 0

)= (2,−1,−1)

T

(0 0

1 0

)= (−1, 0,−1) ; T

(0 0

0 1

)= (0, 1, 1)

y as, por definicion de la matriz [T ]βV,βW

[T ]βV,βW=

[T

(1 0

0 0

)]

βW

[T

(0 1

0 0

)]

βW

[T

(0 0

1 0

)]

βW

[T

(0 0

0 1

)]

βW

=[[(0, 1, 3)]βW

[(2,−1,−1)]βW[(−1, 0,−1)]βW

[(0, 1, 1)]βW

]

=

0 2 −1 0

1 −1 0 1

3 −1 −1 1

Ejemplo 4.7. Consideremos la transformacion lineal T : M2×2(R) −→ P2[x] dada por

T

(a b

c d

)= (a + b− c) + (a + 2b + c + d)x + (−a− 3b− 3c− 2d)x2

Sean βV la base canonica ordenada de M2×2(R), βW la base canonica ordenada de P2[x] y

βV =

{(1 2

−1 0

);

(−1 0

1 1

);

(2 3

1 −1

);

(−2 1

3 2

)}

βW ={1 + x; x + x2; 1− 2x2

}

bases ordenadas de M2×2(R) y P2[x], respectivamente. Hallar [T ]βV,βWy [T ]bβV,bβW

.

Page 168: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 165

Solucion. En primer lugar, hallaremos las imagenes, a traves de T , de cada uno de los vectores

de la base canonica βV.

T

(1 0

0 0

)= 1 + x− x2 ; T

(0 1

0 0

)= 1 + 2x− 3x2

T

(0 0

1 0

)= −1 + x− 3x2 ; T

(0 0

0 1

)= x− 2x2

Al igual que en ejemplo 4.6, por definicion de la matriz [T ]βV,βW

[T ]βV,βW=

[T

(1 0

0 0

)]

βW

[T

(0 1

0 0

)]

βW

[T

(0 0

1 0

)]

βW

[T

(0 0

0 1

)]

βW

=[[

1 + x− x2]βW

[1 + 2x− 3x2

]βW

[−1 + x− 3x2

]βW

[x− 2x2

]βW

]

=

1 1 −1 0

1 2 1 1

−1 −3 −3 −2

Analogamente, para hallar [T ]bβV,bβW, hallemos primero las imagenes, a traves de T , de cada uno

de los vectores de la base βV.

T

(1 2

−1 0

)= 4 + 4x− 4x2 ; T

(−1 0

1 1

)= −2 + x− 4x2

T

(2 3

1 −1

)= 4 + 8x− 12x2 ; T

(−2 1

3 2

)= −4 + 5x− 14x2

Ahora hallemos las matrices de coordenadas de cada uno de estos vectores respecto a la base

βW. Para ello consideremos la siguiente matriz cuatro veces ampliada (¿por que?).

1 0 1 4 −2 4 −4

1 1 0 4 1 8 5

0 1 −2 −4 −4 −12 −14

las tres primeras columnas de esta matriz, son las coordenadas de los vectores de la base βW,

respecto a la base canonica βW, el resto de las columnas, son las coordenadas de los vectores,

hallados previamente, respecto a la base canonica βW, esto es, las tres primeras columnas de esta

matriz representan la matriz MbβW,βWy las ultimas 4 columnas reperesentan la matriz [T ]bβV,βW

.

La FERF de esta matriz es

Page 169: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 166

1 0 0 0 −9 −12 −27

0 1 0 4 10 20 32

0 0 1 4 7 16 23

Por lo tanto

[T ]bβV,bβW=

0 −9 −12 −27

4 10 20 32

4 7 16 23

El ejemplo 4.7 nos permite escribir el siguiente algoritmo.

Algoritmo para hallar la matriz [T ]βV,βW, donde T : V −→W es una transformacion lineal;

βV = {v1, v2, . . . , vn} es una base ordenada de V; βW es una base ordenada del espacio vectorial

W de dimension m; y βcW

es la base canonica ordenada de W. En general W = Rm, W = Pm−1[x]

o W = Mp×q(R) con pq = m.

Paso 1. Hallar T (v1), T (v2), . . . , T (vn).

Paso 2. Hallar las matrices MβW,βcW

y [T ]βV,βcW.

Paso 3. Formar la la matriz ampliada[MβW,βc

W|[T ]βV,βc

W

].

Paso 4. Hallar la FERF de la matriz en el paso previo.

Paso 5. La matriz hallada en el paso previo tiene la forma [Im|B]. Entonces [T ]βV,βW= B.

Teorema 4.8. Sean U, V y W espacios vectoriales, L : U −→ V y T : V −→ W dos transfor-

maciones lineales y βU, βV y βW bases ordenadas de U, V y W respectivamente. Entonces

[T ◦ L]βU,βW= [T ]βV,βW

[L]βU,βV

Demostracion. Sea u ∈ U cualquiera. Entonces

([T ]βV,βW[L]βU,βV

)[u]βU= [T ]βV,βW

([L]βU,βV[u]βU

)

= [T ]βV,βW[L(u)]βV

([T ]βV,βW[L]βU,βV

)[u]βU= [T (L(u))]βW

= [(T ◦ L)(u)]βW.

Page 170: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 167

Luego, por unicidad de la matriz [T ◦ L]βU,βW, se tiene que

[T ◦ L]βU,βW= [T ]βV,βW

[L]βU,βV

Teorema 4.9. Sean V yW dos espacios vectoriales de dimension finita; βV y βV bases ordenadas

de V; βW y βW bases ordenadas de W y T : V −→W una transformacion lineal. Entonces

[T ]bβV,bβW= MβW,bβW

[T ]βV,βWMbβV,βV

Demostracion. Sea v ∈ V cualquiera. Entonces

[T (v)]βW= [T ]βV,βW

[v]βV

[v]βV= MbβV,βV

[v]bβV

Luego

[T (v)]bβW= MβW,bβW

[T (v)]βW= MβW,bβW

[T ]βV,βW[v]βV

= MβW,bβW[T ]βV,βW

MbβV,βV[v]bβV

Por unicidad de la matriz [T ]bβV,bβW, se tiene que

[T ]bβV,bβW= MβW,bβW

[T ]βV,βWMbβV,βV

Ejemplo 4.8. Consideremos T , βV, βW, βV y βW como en el ejemplo 4.7. Verificar el teorema

4.9.

Solucion. Sabemos que

[T ]bβV,bβW=

0 −9 −12 −27

4 10 20 32

4 7 16 23

[T ]βV,βW=

1 1 −1 0

1 2 1 1

−1 −3 −3 −2

Por otro lado, facilmente obtenemos que

MbβV,βV=

1 −1 2 −2

2 0 3 1

−1 1 1 3

0 1 −1 2

Page 171: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 168

y haciendo algunos calculos (no muchos ni muy complicados) obtenemos

MβW,bβW, =

2 −1 1

−2 2 −1

−1 1 −1

Al sustituir, se obtiene que

[T ]bβV,bβW= MβW,bβW

[T ]βV,βWMbβV,βV

Corolario 4.10. Sea V un espacio vectorial de dimension finita; βV y βV dos bases ordenadas

de V y T : V −→ V una transformacion lineal. Entonces

[T ]bβV= MβV,bβV

[T ]βVMbβV,βV

Demostracion. ¡Ejercicio!

4.3. Nucleo e Imagen de una Transformacion Lineal

Definicion 4.3. Sean V y W dos espacios vectoriales y T : V −→W una transformacion lineal.

Definiremos

1. El nucleo o kernel de T como el conjunto

N(T ) = Ker(T ) = {v ∈ V : T (v) = 0/W}

2. La imagen o recorrido de T como el conjunto

Im(T ) = {w ∈W : T (v) = w para algun v ∈ V}

Observacion 4.2. w ∈ Im(T ) si y solo si existe v ∈ V tal que T (v) = w.

Teorema 4.11. Sean V y W dos espacios vectoriales y T : V −→W una transformacion lineal.

Entonces N(T ) es un subespacio vectorial de V e Im(T ) es un subespacio vectorial de W.

Page 172: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 169

Demostracion. Es claro que N(T ) ⊂ V e Im(T ) ⊂W.

Por la parte 1 del teorema 4.2, se tiene que T (0/V) = 0/W, ası que 0/V ∈ N(T ) y 0/W ∈ Im(T ), de

donde, N(T ) 6= ∅ e Im(T ) 6= ∅.Por otro lado, sean v1, v2 ∈ N(T ) y α ∈ R cualesquiera. Entonces

T (v1) = 0/W = T (v2)

Ası que

T (v1 + αv2) = T (v1) + αT (v2) = 0/W +α 0/W = 0/W

Por lo tanto v1 + αv2 ∈ N(T ), en consecuencia, N(T ) es un subespacio de V.

Finalmente, sean w1, w2 ∈ Im(T ) y α ∈ R cualesquiera. Entonces, existen v1, v2 ∈ V tales que

T (v1) = w1 y T (v2) = w2.

Consideremos v = v1 + αv2. Ası que v ∈ V y

T (v) = T (v1 + αv2) = T (v1) + αT (v2) = w1 + αw2

De donde w1 + αw2 ∈ Im(T ), luego Im(T ) es un subespacio de W.

Definicion 4.4. Sean V y W dos espacios vectoriales y T : V −→W una transformacion lineal.

Definiremos

1. La nulidad de T , denotada por n(T ), como n(T ) = dim(N(T )).

2. El rango de T , denotado por r(T ), como r(T ) = dim(Im(T )).

Ejemplo 4.9.

1. Consideremos la transformacion nula O : V −→W. Entonces N(O) = V e Im(O) = {0/W}(¡pruebelo!). �

2. Para la transformacion identidad sobre V, IV : V −→ V, se puede probar que Im(IV) = V

y N(IV) = {0/V} (¡pruebelo!). �

Ejemplo 4.10. Sea T la transformacion dada en el ejemplo 4.6. Hallar n(T ) y r(T ).

Page 173: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 170

Solucion. Por definicion

N(T ) =

{(x y

z w

)∈M2×2(R) : T

(x y

z w

)= (0, 0, 0)

}

Pero T

(x y

z w

)= (0, 0, 0) si y solo si

2y −z = 0

x −y +w = 0

3x −y −z +w = 0

(4.1)

Es decir

(x y

z w

)∈ N(T ) si y solo si se satisface el sistema (4.1). Resolvamos este sistema.

0 2 −1 0

1 −1 0 1

3 −1 −1 1

F1 ↔ F2→

1 −1 0 1

0 2 −1 0

3 −1 −1 1

F3 → F3 − 3F1→

1 −1 0 1

0 2 −1 0

0 2 −1 −2

F2 → 12F2→

1 −1 0 1

0 1 −12

0

0 2 −1 −2

F1 → F1 + F2→F3 → F3 − 2F2

1 0 −12

1

0 1 −12

0

0 0 0 −2

F3 → −12F3→

1 0 −12

1

0 1 −12

0

0 0 0 1

F1 → F1 − F3→

1 0 −12

0

0 1 −12

0

0 0 0 1

De donde

x −12z = 0

y −12z = 0

w = 0

; o bien

x = 12z

y = 12z

w = 0

Haciendo z = 2α, con α ∈ R, obtenemos

(x y

z w

)=

(α α

2α 0

)= α

(1 1

2 0

)

Por lo tanto

N(T ) = gen

({(1 1

2 0

)})

Page 174: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 171

y la nulidad de T es

n(T ) = dim(N(T )) = 1

Por otro lado

Im(T ) =

{(a, b, c) ∈ R3 : T

(x y

z w

)= (a, b, c) para algun

(x y

z w

)∈M2×2(R)

}

Pero T

(x y

z w

)= (a, b, c) si y solo si

2y −z = a

x −y +w = b

3x −y −z +w = c

(4.2)

En consecuencia (a, b, c) ∈ Im(T ) si y solo si el sistema (4.2) tiene solucion. Al resolver este

sistema, obtenemos

x −12z = −1

2b + 1

2c

y −12z = 1

2a

w = 12a + 3

2b− 1

2c

; o bien

x = 12z − 1

2b + 1

2c

y = 12z + 1

2a

w = 12a + 3

2b− 1

2c

Por lo tanto, el sistema (4.2) tiene solucion para cada (a, b, c) ∈ R3, en consecuencia Im(T ) = R3

y r(T ) = 3.

Observacion 4.3. Notese que la matriz de los sistemas (4.2) y (4.1) no es otra que la que la

matriz [T ]βV,βW, donde βV y βW son las bases canonicas de los espacios M2×2(R) y R3 respectiva-

mente (verifıquelo).

Al igual que en el caso matricial, no hace falta resolver el sistema (4.2), la FERF de la matriz

de este sistema nos da toda la informacion, pero a diferencia del caso matricial, los pivotes de

esta matriz nos dan las coordenadas, respecto a la base canonica de R3, de los vectores que forman

una base para Im(T ). Para entender bien este comentario, consideremos el siguiente ejemplo.

Ejemplo 4.11. Hallar el nucleo, la nulidad, la imagen y el rango de la transformacion lineal T

dada en el ejemplo 4.7.

Solucion.

(a b

c d

)∈ N(T ) si y solo si

Page 175: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 172

a +b −c = 0

a +2b +c +d = 0

−a −3b −3c −2d = 0

(4.3)

La matriz de este sistema es

[T ]βV,βW=

1 1 −1 0

1 2 1 1

−1 −3 −3 −2

donde βV y βW son las bases canonicas de M2×2(R) y P2[x] respectivamente. Su FERF es

1 0 −3 −1

0 1 2 1

0 0 0 0

Por lo tanto

{a −3c −d = 0

b +2c +d = 0; o bien

{a = 3c + d

b = −2c− d

Ası que (a b

c d

)=

(3c + d −2c− d

c d

)= c

(3 −2

1 0

)+ d

(1 −1

0 1

)

En consecuencia

N(T ) = gen

({(3 −2

1 0

);

(1 −1

0 1

)})

y una base para N(T ) es {(3 −2

1 0

);

(1 −1

0 1

)}

luego n(T ) = dim(N(T )) = 2. Los pivotes de la FERF de la matriz del sistema, estan en las colum-

nas 1 y 2, ası que las columnas 1 y 2 de la matriz original, son las matrices de coordenadas, respecto

a βW, de dos vectores que forman una base para Im(T ), por lo tanto r(T ) = dim(Im(T )) = 2,

ademas

Im(T ) = gen({

1 + x− x2; 1 + 2x− 3x2})

Page 176: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 173

y una base para Im(T ) es{1 + x− x2; 1 + 2x− 3x2

}

La observacion 4.3 puede ser generalizada de la siguiente manera.

Teorema 4.12. Sean V y W dos espacios vectoriales, βV = {v1, v2, . . . , vn} una base ordenada

de V, βW = {w1, w2, . . . , wm} una base ordenada de W y T : V −→W una transformacion lineal.

Entonces

1. {u1, u2, . . . , uk} es una base para N(T ) si y solo si {[u1]βV, [u2]βV

, . . . , [uk]βV} es una base

para N([T ]βV,βW)

2. {z1, z2, . . . , zr} es una base para Im(T ) si y solo si {[z1]βW, [z2]βW

, . . . , [zr]βW} es una base

para Im([T ]βV,βW)

Demostracion. Ver Apendice D.

Corolario 4.13. Sean V, W, βV, βW y T como en el teorema 4.12. Entonces

1. n(T ) = n ([T ]βV,βW)

2. r(T ) = r ([T ]βV,βW)

3. n(T ) + r(T ) = n = dim(V)

Demostracion. ¡Ejercicio!

El siguiente ejemplo ilustra estos resultados.

Ejemplo 4.12. Sean T , βV y βW como en el ejemplo 4.7. Usar la matriz [T ]bβV,bβWpara hallar el

nucleo, la nulidad, la imagen y el rango de la transformacion lineal T .

Solucion. En primer lugar, recordemos que

βV =

{(1 2

−1 0

);

(−1 0

1 1

);

(2 3

1 −1

);

(−2 1

3 2

)}

Page 177: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 174

βW ={1 + x; x + x2; 1− 2x2

}

Sabemos que

[T ]bβV,bβW=

0 −9 −12 −27

4 10 20 32

4 7 16 23

Sin mucha dificultad, obtenemos que la FERF de esta matriz es

1 0 53

12

0 1 43

3

0 0 0 0

Luego una base para N([T ]bβV,bβW

)es

−5

−4

3

0

;

−1

−6

0

2

y usando el teorema 4.12, tenemos que estas dos matrices son las matrices de coordenadas resd-

pecto a la base βV de dos vectores que forman una base para N(T ), hallemos estos vectores.

(−5)

(1 2

−1 0

)+ (−4)

(−1 0

1 1

)+ 3

(2 3

1 −1

)+ 0

(−2 1

3 2

)=

(5 −1

4 −7

)

(−1)

(1 2

−1 0

)+ (−6)

(−1 0

1 1

)+ 0

(2 3

1 −1

)+ 2

(−2 1

3 2

)=

(1 0

1 −2

)

Luego, una base para N(T ) es

{(5 −1

4 −7

);

(1 0

1 −2

)}

y ası

N(T ) = gen

({(5 −1

4 −7

);

(1 0

1 −2

)})

y n(T ) = 2.

Page 178: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 175

Por otro lado, dado que los pivotes en la FERF de la matriz [T ]bβV,bβWse encuentran en las

columnas 1 y 2, entonces una base para Im([T ]bβV,bβW

)es

0

4

4

;

−9

10

7

y como antes, usando el teorema 4.12, tenemos que estas dos matrices son las matrices de coor-

denadas resdpecto a la base βW de dos vectores que forman una base para Im(T ), veamos cuales

son estos vectores.

0(1 + x) + 4(x + x2) + 4(1− 2x2) = 4 + 4x− 4x2

(−9)(1 + x) + 10(x + x2) + 7(1− 2x2) = −2 + x− 4x2

Por lo tanto una base para Im(T ) es

{4 + 4x− 4x2;−2 + x− 4x2

}

y ası

Im(T ) = gen({

4 + 4x− 4x2;−2 + x− 4x2})

y r(T ) = 2.

4.4. Autovalores y Autovectores de una Matriz

Definicion 4.5. Sea A ∈ Mn×n(R). Diremos que λ ∈ R es un autovalor (valor propio o

valor caracterıstico) de A si existe un vector no nulo x ∈Mn×1(R) tal que Ax = λx. Cualquier

vector no nulo x ∈Mn×1(R), satisfaciendo la igualdad anterior, es llamado autovector (vector

propio o vector caracterıstico) de A asociado a λ.

Ejemplo 4.13. Si A =

[2 −3

1 6

], entonces λ = 5 es un autovalor de A y

[x

y

]=

[1

−1

]

es un autovector de A asociado a λ = 5, en efecto,

Page 179: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 176

[2 −3

1 6

][1

−1

]=

[5

−5

]= 5

[1

−1

]

λ = 3 tambien es un autovalor de A y un autovector de A asociado a λ = 3 es

[x

y

]=

[−3

1

]

(¡verifıquelo!) �

Teorema 4.14. Sea A ∈ Mn×n(R). Entonces λ ∈ R es un autovalor de A si y solo si pA(λ) =

det(A− λIn) = 0.

Demostracion. Notemos primero que Ax = λx es equivalente a (A− λIn)x = 0/n×1 ya que

(A− λIn)x = Ax− λInx = Ax− λx

Por definicion, λ es un autovalor de A si y solo si existe x 6= 0/n×1 tal que Ax = λx, es decir,

segun el comentario inicial, si y solo si existe x 6= 0/n×1 tal que (A − λIn)x = 0/n×1, lo cual, a su

vez, es equivalente a decir que la matriz A− λIn no es invertible, que, finalmente, es equivalente

a det(A− λIn) = 0.

Corolario 4.15. Si D ∈ Mn×n(R) es triangular (superior o inferior), entonces sus autovalores

son precisamente las componentes de su diagonal principal. En particular, si D es diagonal, sus

autovalores son precisamente las componentes de su diagonal.

Demostracion. ¡Ejercicio!

Observacion 4.4. Se puede probar que pA(t) = det(A − tIn) es un polinomio grado n con

termino dominante (−1)ntn.

Segun el teorema precedente, λ es un autovalor de A si y solo si es raız del polinomio pA(t),

en consecuencia, una matriz A de orden n, tiene a lo sumo n autovalores distintos.

Definicion 4.6. El polinomio pA(t) = det(A− tIn) es llamado polinomio caracterıstico de

A y la ecuacion pA(t) = det(A− tIn) = 0 recibe el nombre de ecuacion caracterıstica de A.

Page 180: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 177

Teorema 4.16. Sea λ ∈ R un autovalor de A ∈Mn×n(R). El conjunto

Eλ = {x ∈Mn×1(R) : Ax = λx}

es un subespacio vectorial de Mn×1(R).

Demostracion. Sabemos que Ax = λx es equivalente a (A− λIn)x = 0/n×1, por lo tanto

Eλ = {x ∈Mn×1(R) : (A− λIn)x = 0/n×1}

es decir, Eλ es el conjunto solucion del sistema (A−λIn)x = 0/n×1, el cual sabemos es un subespacio

de Mn×n(R).

Definicion 4.7. Sea λ ∈ R un autovalor de A ∈ Mn×n(R). El subespacio Eλ es llamado au-

toespacio (espacio propio o espacio caracterıstico) de A correspondiente a λ.

Ejemplo 4.14. Hallar el autoespacio de A =

[2 −3

1 6

]correspondiente a los autovalores λ = 5

y λ = 3.

Solucion. Sabemos que E5 es el espacio solucion del sistema

(A− 5I2)

[x

y

]=

[0

0

]

Hallemos la FERF de A− 5I2

A− 5I2 =

[−3 −3

1 1

]F1 → −1

3F1→

[1 1

1 1

]F2 → F2 − F1→

[1 1

0 0

]

Ası que x + y = 0, o bien y = −x, por lo tanto[

x

y

]=

[x

−x

]= x

[1

−1

]

En consecuencia E5 = gen

({[1

−1

]})

Para hallar E3, debemos proceder de manera analoga, obteniendo

E3 = gen

({[3

−1

]})

Page 181: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 178

¿Como hallar los autovalores y autovectores de A? La respuesta a esta pregunta la podemos

encontrar en el procedimiento que se uso en el ejemplo precedente.

Algoritmo para hallar los autovalores y autovalores de una matriz A ∈Mn×n(R).

Paso 1. Hallar pA(t) = det(A− tIn), el polinomio caracterıstico de A.

Paso 2. Hallar las raıces reales de pA(t), digamos λ1, λ2, . . . , λm, estos son los autovalores

de A.

Paso 3. Para cada i ∈ {1, . . . , m}, resolver el sistema (A− λiIn)x = 0/n×1, esto es, hallar el

espacio nulo de la matriz A−λiIn. El espacio solucion de este sistema es el autoespacio

Eλi= N(A− λiIn).

Paso 4. Para cada i ∈ {1, . . . , m}, los vectores no nulos pertenecientes a Eλi, son los au-

tovectores de A asociados a λi.

Observacion 4.5. Se dice que x0 es una raız del polinomio p(x) de multiplicidad k ∈ Z+ si

existe un polinomio q(x) tal que p(x) = (x− x0)kq(x) y q(x0) 6= 0.

Definicion 4.8. Sea λ ∈ R un autovalor de A ∈ Mn×n(R). Definiremos la multiplicidad

geometrica de λ como la dimension del autoespacio Eλ.

Observacion 4.6. Para diferenciar la multiplicidad geometrica de un autovalor λ de A de su

multiplicidad, como raız del polinomio caracterıstico pA(t), a esta ultima la llamremos multipli-

cidad algebraica de λ.

Ejemplo 4.15. Para la matriz A del ejemplo 4.14, tenemos que cada uno de sus autovalores

tiene multiplicidad algebraica y geometrica igual a 1.

Ejemplo 4.16. Hallar los autovalores y los autovectores de

A =

1 1 1

1 1 −1

1 −1 1

Solucion.

pA(t) = det(A− tI3) =

∣∣∣∣∣∣∣∣

1− t 1 1

1 1− t −1

1 −1 1− t

∣∣∣∣∣∣∣∣= −(t− 2)2(t + 1)

Page 182: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 179

Por lo tanto

pA(t) = 0 si y solo si t = 2 o t = −1

Vemos que λ1 = 2 es un autovalor de A de multiplicidad algebraica 2 y λ2 = −1 es un autovalor

de A de multiplicidad algebraica 1.

Hallemos los autoespacios E2 y E−1, para ello debemos resolver los correspondientes sistemas

(A− 2I3)

x

y

z

=

0

0

0

y (A + I3)

x

y

z

=

0

0

0

Hallemos la FERF de cada una de las matrices de estos sistemas.

A− 2I3 =

−1 1 1

1 −1 −1

1 −1 −1

F1 → −F1→

1 −1 −1

1 −1 −1

1 −1 −1

F2 → F2 − F1→F3 → F3 − F1

1 −1 −1

0 0 0

0 0 0

De donde, x− y− z = 0, o bien x = y + z, por lo tanto, la solucion del primero de los sistemas

es

x

y

z

=

y + z

y

z

= y

1

1

0

+ z

1

0

1

Ası que

E2 = gen

1

1

0

,

1

0

1

Cualquier vector no nulo perteneciente a E2 es un autovector de A asociado a λ1 = 2.

A + I3 =

2 1 1

1 2 −1

1 −1 2

F1 ↔ F2→

1 2 −1

2 1 1

1 −1 2

F2 → F2 − 2F1→F3 → F3 − F1

1 2 −1

0 −3 3

0 −3 3

Page 183: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 180

F2 → −13F2→

1 2 −1

0 1 −1

0 −3 3

F1 → F1 − 2F2→F3 → F3 + 3F2

1 0 1

0 1 −1

0 0 0

De donde {x z = 0

y −z = 0o bien

{x = −z

y = z

por lo tanto, la solucion del segundo de los sistemas es

x

y

z

=

−z

z

z

= z

−1

1

1

Luego

E−1 = gen

−1

1

1

Cualquier vector no nulo perteneciente a E−1 es un autovector de A asociado a λ2 = −1.

Ademas, se tiene que λ1 = 2 tiene multiplicidad geometrica 2 y λ2 = −1 tiene multiplicidad

geometrica 1.

Ejemplo 4.17. Idem para

B =

−1 0 −1

1 −1 1

0 0 −2

Solucion.

pB(t) = det(B − tI3) =

∣∣∣∣∣∣∣∣

−1− t 0 −1

1 −1− t 1

0 0 −2− t

∣∣∣∣∣∣∣∣= −(t + 1)2(t + 2)

Luego

pB(t) = 0 si y solo si t = −1 o t = −2

Por lo que λ1 = −1 es un autovalor de B de multiplicidad algebraica 2 y λ2 = −2 es un autovalor

de B de multiplicidad algebraica 1

Page 184: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 181

Hallemos E−1, esto es, resolvamos el sistema (B + I3)

x

y

z

=

0

0

0

B + I3 =

0 0 −1

1 0 1

0 0 −1

F1 ↔ F2→

1 0 1

0 0 −1

0 0 −1

F2 → −F2→

1 0 1

0 0 1

0 0 −1

F1 → F1 − F2→F3 → F3 + F2

1 0 0

0 0 1

0 0 0

Con lo que x = z = 0, ası que

x

y

z

=

0

y

0

= y

0

1

0

y

E−1 = gen

0

1

0

Cualquier vector no nulo perteneciente a E−1 es un autovector de B asociado a λ1 = −1.

Ahora hallemos E−2, esto es, resolvamos el sistema (B + 2I3)

x

y

z

=

0

0

0

B + I3 =

1 0 −1

1 1 1

0 0 0

F2 → F2 − F1→

1 0 −1

0 1 2

0 0 0

Luego x = z y y = −2z, es decir

x

y

z

=

z

−2z

z

= z

1

−2

1

y

Page 185: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 182

E−2 = gen

1

−2

1

Cualquier vector no nulo perteneciente a E−2 es un autovector de B asociado a λ2 = −2.

Vemos que la multiplicidad geometrica de cada uno de los autovalores de B es 1.

Ejemplo 4.18. Idem para

C =

−1 13 23

−1 6 7

0 −1 −2

Solucion. pC(t) = det(C − tI3) =

∣∣∣∣∣∣∣∣

−1− t 13 23

−1 6− t 7

0 −1 −2− t

∣∣∣∣∣∣∣∣= −(t− 1)(t2 − 2t + 2)

Como t2 − 2t + 2 6= 0 para todo t ∈ R, entonces el unico autovalor de C es λ = 1. Hallemos

el autoespacio E1 de C asociado a λ = 1. Como en el ejemplo precedente, debemos resolver el

sistema

(C − I3)

x

y

z

=

0

0

0

C − I3 =

−2 13 23

−1 5 7

0 −1 −3

F2 → −F2→

−2 13 23

1 −5 −7

0 −1 −3

F1 ↔ F2→

1 −5 −7

−2 13 23

0 −1 −3

F2 → F2 + 2F1→

1 −5 −7

0 3 9

0 1 3

F2 ↔ F3→

1 −5 −7

0 1 3

0 3 9

F1 → F1 + 5F2→F3 → F3 − 3F2

1 0 8

0 1 3

0 0 0

De donde {x = −8z

y = −3z

Ası que

x

y

z

=

−8z

−3z

z

= z

−8

−3

1

Page 186: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 183

En consecuencia

E1 = gen

−8

−3

1

y como antes, cualquier vector no nulo en E1 es un autovector de C asociado a λ = 1.

Las multiplicidades algebraica y geometrica de λ = 1 son iguales a 1, coinciden.

Teorema 4.17. Sean λ1, λ2, . . . , λm ∈ R distintos autovalores de A ∈Mn×n(R) y x1, x2, . . . , xm

autovectores de A asociados a λ1, λ2, . . . , λm, respectivamente. Entonces x1, x2, . . . , xm son lineal-

mente independientes.

Demostracion. Para cada i ∈ {1, . . . , m}, dado que xi es un autovector de A asociado a λi,

tenemos que Axi = λixi y xi 6= 0/n×1.

Sean α1, α2, . . . , αm ∈ R tales que

α1x1 + α2x2 + · · ·+ αmxm = 0/n×1 (4.4)

Para probar que αi = 0 para cada i ∈ {1, . . . , m}, procederemos por induccion sobre m.

Verifiquemos que se cumple para m = 2. En este caso la ecuacion (4.4) se convierte en

α1x1 + α2x2 = 0/n×1 (4.5)

Luego

A(α1x1 + α2x2) = A 0/n×1 = 0/n×1

Pero

A(α1x1 + α2x2) = α1Ax1 + α2Ax2 = α1λ1x1 + α2λ2x2

De donde

α1λ1x1 + α2λ2x2 = 0/n×1 (4.6)

Al multiplicar a ambos lados de (4.5) por λ2, obtenemos

α1λ2x1 + α2λ2x2 = 0/n×1 (4.7)

Restando (4.6) de (4.7) nos queda

α1(λ2 − λ1)x1 = α1λ2x1 − α1λ1x1 = 0/n×1

Page 187: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 184

Como λ1 6= λ2 y x1 6= 0/n×1, entonces α1 = 0. Sustituyendo este valor en la ecuacion (4.5), se tiene

α2x2 = 0/n×1, pero x2 6= 0/n×1, ası que α2 = 0, por lo tanto x1 y x2 son linealmente independientes.

Supongamos que x1, x2, . . . , xm−1 son linealmente independientes (hipotesis inductiva). Probe-

mos que x1, x2, . . . , xm−1, xm son linealmente independientes. De (4.4) obtenemos

A(α1x1 + α2x2 + · · ·+ αm−1xm−1 + αmxm) = A 0/n×1 = 0/n×1

Pero

A(α1x1 + α2x2 + · · ·+ αm−1xm−1 + αmxm) = α1Ax1 + α2Ax2 + · · ·+ αm−1Axm−1 + αmAxm

= α1λ1x1 + α2λ2x2 + · · ·+ αm−1λm−1xm−1

+αmλmxm

De donde

α1λ1x1 + α2λ2x2 + · · ·+ αm−1λm−1xm−1 + αmλmxm = 0/n×1 (4.8)

Multiplicando (4.4) por λm obtenemos

α1λmx1 + α2λmx2 + · · ·+ αm−1λmxm−1 + αmλmxm = 0/n×1 (4.9)

Restando (4.8) de (4.9) nos queda

α1(λm − λ1)x1 + α2(λm − λ2)x2 + · · ·+ αm−1(λm − λm−1)xm−1 = 0/n×1

Como x1, x2, . . . , xm−1 son linealmente independientes (por hipotesis inductiva), entonces, para

cada i ∈ {1, . . . , m− 1}αi(λm − λi) = 0

Pero λm 6= λi para i ∈ {1, . . . , m− 1} (por hipotesis), luego αi = 0 para cada i ∈ {1, . . . , m− 1}.Por lo tanto, (4.4) queda expresado por αmxm = 0/n×1, y dado que xm 6= 0/n×1, obtenemos αm = 0.

En consecuencia x1, x2, . . . , xm son linealmente independientes.

Ejemplo 4.19. Los vectores

[1

−1

]y

[3

−1

], son linealmente independientes, ya que son

autovectores de la matriz A del ejemplo 4.15, correspondientes a distintos autovalores.

Los vectores

1

1

0

y

−1

1

1

, son linealmente independientes, pues son autovectores de la

matriz A del ejemplo 4.16, correspondientes a distintos autovalores.

Page 188: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 185

Un razonamiento analogo, nos garantiza que los vectores

0

1

0

y

1

−2

1

, los cuales son

autovectores de la matriz B del ejemplo 4.17, son linealmente independientes. �

Teorema 4.18. A ∈Mn×n(R) es invertible si y solo si 0 (cero) no es un autovalor de A.

Demostracion. A es invertible si y solo si det(A) 6= 0. Pero

pA(0) = det(A− 0In) = det(A)

Ası que A es invertible si y solo si 0 no es raız del polinomio pA(λ), es decir, A es invertible si y

solo si 0 no es un autovalor de A.

4.5. Diagonalizacion

En esta seccion del capıtulo, estudiaremos las matrices similares y las matrices diagonalizables

y haremos uso de los teoremas de la seccion anterior para el estudio de las ultimas.

Definicion 4.9. Sean A, B ∈ Mn×n(R), Diremos que B es similar a A si existe una matriz

invertible P ∈Mn×n(R) tal que B = P−1AP .

Observacion 4.7. Notese que si B = P−1AP , entonces A = PBP−1 = (P−1)−1BP−1. Por lo

tanto, si B es similar a A, entonces A es similar a B. En consecuencia, en lugar de decir B es

similar a A o A es similar a B, diremos simplemente que A y B son similares.

Teorema 4.19. Sean A, B ∈Mn×n(R) dos matrices similares. Entonces pA(t) = pB(t), es decir,

A y B tienen los mismos polinomios caracterısticos, y en consecuencia, los mismos autovalores.

Demostracion. Como A y B son similares, existe una matriz invertible P ∈ Mn×n(R) tal que

A = P−1BP . De donde

pA(t) = det(A− tIn) = det(P−1BP − P−1(tIn)P )

= det(P−1(B − tIn)P ) = det(P−1) det(B − tIn) det(P )

=1

det(P )det(B − tIn) det(P ) = det(B − tIn)

= pB(t)

En consecuencia, A y B tienen los mismos autovalores.

Page 189: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 186

Ejemplo 4.20. Las matrices

A =

−6 0 −6

6 −6 6

0 0 −12

y B =

−6 2 −10

−9 −9 −15

3 1 7

son similares, en efecto, la matriz

P =

1 1 1

1 −1 1

1 0 2

es invertible, basta ver que

P−1 =1

6

2 2 2

3 −3 0

1 1 −2

y ademas B = P−1AP (¡verifıquelo!). �

Ejemplo 4.21. Los autovalores de

D =

−2 0 0

0 −4 0

0 0 4

son λ1 = −2, λ2 = −4 y λ3 = 4, pues D es diagonal, ademas,

A =

−2 2 −2

2 −2 −2

−2 −2 2

es similar a D, basta escoger la matriz P como en el ejercicio anterior y verificar que D =

P−1AP , por lo tanto los autovalores de A son λ1 = −2, λ2 = −4 y λ3 = 4. �

Ejemplo 4.22. Las matrices

A =

1 1 1

1 1 −1

1 −1 1

y D =

−1 0 0

0 2 0

0 0 2

son similares, pues

P =

−1 1 1

1 1 0

1 0 1

Page 190: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 187

es invertible y D = P−1AP (¡verifıquelo!).

Ademas

pD(t) = det(D − tI3) =

∣∣∣∣∣∣∣∣

−1− t 0 0

0 2− t 0

0 0 2− t

∣∣∣∣∣∣∣∣

= (−1− t)(2− t)2 = −(t + 1)(t− 2)2 = pA(t)

lo que verifica el teorema 4.19. �

Teorema 4.20. Sea λ ∈ R un autovalor de multiplicidad geometrica r de una matriz A ∈Mn×n(R). Entonces existe una matriz escalar E ∈ Mr×r(R) y matrices B ∈ Mr×(n−r)(R) y

C ∈M(n−r)×(n−r)(R) tales que la matriz

D =

E B

0/(n−r)×r C

es similar a A.

Demostracion. Ver Apendice D.

Observacion 4.8. En la prueba del teorema 4.20 se obtiene que E = λIr.

Teorema 4.21. Sea λ ∈ R un autovalor de A ∈Mn×n(R). Entonces la multiplicidad geometrica

de λ es menor o igual a su multiplicidad algebraica.

Demostracion. Sea r la multiplicidad geometrica de λ. Entonces, en virtud del teorema 4.20

y usando la observacion 4.8, se tiene que A es similar a a una matriz

D =

E B

0/(n−r)×r C

donde E = λIr, B ∈Mr×(n−r)(R) y C ∈M(n−r)×(n−r)(R). Luego, usando el teorema 4.19

pA(t) = pD(t) = det(D − tIn) = det

E − tIr B

0/(n−r)×r C − tIn−r

= det

(λ− t)Ir B

0/(n−r)×r C − tIn−r

y por el teorema 1.43

pA(t) = det((λ− t)Ir) det(C − tIn−r) = (λ− t)rpC(t)

Page 191: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 188

As que λ es una raz de pA(t) de multiplicidad al menos r, es decir, la multiplicidad geometrica

de λ es menor o igual a su multiplicidad algebraica.

Teorema 4.22. A ∈Mn×n(R) tiene n autovectores linealmente independientes si y solo si pA(t)

tiene solo raıces reales y la multiplicidad algebraica, de cada uno de los autovalores de A, es igual

a su multiplicidad geometrica. En particular, si A tiene n autovalores distintos, entonces A tiene

n autovectores linealmente independientes.

Demostracion. Ver Apendice D.

Ejemplo 4.23. El polinomio caracterıstico de la matriz A del ejemplo 4.16, tiene solo raıces

reales, ademas, cada uno de los autovalores de A tiene multiplicidades algebraica y geometrica

iguales, por lo tanto A tiene tres autovectores linealmente independientes, a saber

1

1

0

,

1

0

1

,

−1

1

1

Notese que los dos primeros autovectores corresponden al autovalor λ1 = 2 y el ultimo corres-

ponde al autovalor λ2 = −1.

Por el contrario, para la matriz B del ejemplo 4.17, sabemos que el polinomio caracterısti-

co de B tiene solo raıces reales, pero el autovalor λ1 = −1 tiene multiplicidad algebraica 2 y

multiplicidad geometrica 1, por lo tanto B no tiene 3 autovectores linealmente independientes.

La matriz C del ejemplo 4.18 tiene solo un autovalor, λ = 1, y las multiplicidades algebraica y

geometrica de este son iguales, sin embargo pC(λ) no tiene solo raıces reales, por lo tanto C no

tiene tres autovectores linealmente independientes. �

Definicion 4.10. Una matriz A ∈ Mn×n(R) es diagonalizable si existe una matriz diagonal

D ∈Mn×n(R) la cual es similar a A.

Ejemplo 4.24. La matriz A del ejemplo 4.21 es diagonalizable, ası como la matriz A del ejemplo

4.22. �

En el ejemplo 4.22, notese que la primera componente de la diagonal principal de D es −1,

que es un autovalor de A con multiplicidad geometrica 1, las veces que aparece en D, la segunda

Page 192: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 189

y la tercera componente de la diagonal principal de D son iguales a 2, que es el otro autovalor

de A y tiene multiplicidad geometrica 2, las veces que aparece en D.

Ademas, notese que la primera columna de P es

−1

1

1

el cual es un autovector de A asociado a λ2 = −1, que esta ubicado, como dijimos antes, en la

primera componente de la diagonal principal de D. Las segunda y tercera columnas de P son,

respectivamente

1

1

0

y

1

0

1

que son autovectores de A asociados a λ1 = 2, el cual esta ubicado, como ya comentamos, en la

segunda y la tercera componente de la diagonal principal de D.

Esta situacion no es nada casual, como veremos en el siguiente teorema, mas precisamente en

su demostracion.

Teorema 4.23. Una matriz A ∈ Mn×n(R) es diagonalizable si y solo si tiene n autovectores

linealmente independientes.

Demostracion. Supongamos primero que A tiene n autovectores linealmente independientes,

digamos x1, x2, . . . , xn, correspondientes a los autovalores λ1, λ2, . . . , λn (no necesariamente dis-

tintos) respectivamente, es decir, Axi = λixi para cada i ∈ {1, . . . , n}.Sea P ∈Mn×n(R) la matriz cuya i-esima columna es xi, para cada i ∈ {1, . . . , n}, es decir

P =[

x1 x2 · · · xn

]

Dado que x1, x2, . . . , xn son linealmente independientes, entonces P es invertible, ademas, para

cada i ∈ {1, . . . , n}, la i-esima columna de AP es Axi (ver ejercicio 1.1 parte 1), pero Axi = λixi,

por lo tanto, la i-esima columna de AP es λixi.

Por otro lado, sea D diag(λ1, λ2, . . . , λn) ∈ Mn×n(R). Ası que, para cada i ∈ {1, . . . , n}, la

i-esima columna de PD es

Page 193: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 190

PD(i) = P

0...

0

λi

0...

0

−→ i-esima fila

= λiP

0...

0

1

0...

0

−→ i-esima fila

= λiP(i) = λixi

Por lo tanto AP = PD, de donde D = P−1AP , es decir, A es diagonalizable.

Supongamos ahora que A es diagonalizable. Entonces existen una matriz diagonal D ∈Mn×n(R)

y una matriz invertible P ∈Mn×n(R) tales que

D = P−1AP (4.10)

Para cada i ∈ {1, . . . , n} sea xi = P (i). Entonces x1, x2, . . . , xn son linealmente independientes,

pues P es invertible. Para cada i ∈ {1, . . . , n}, sea λi la i-esima componente de la diagonal

principal de D. De (4.10) obtenemos AP = PD, pero para cada i ∈ {1, . . . , n}, la i-esima

columna de AP es Axi y la i-esima columna de PD es λixi (usando nuevamente la parte 1 del

ejercicio 1.1), ası que Axi = λixi.

En consecuencia, x1, x2, . . . , xn son autovectores de A linealmente independientes.

Corolario 4.24. A ∈ Mn×n(R) es diagonalizable si y solo si pA(t) tiene solo raices reales y

la multiplicidad algebraica, de cada uno de los autovalores de A, es igual a su multiplicidad

geometrica. En particular, si A tiene n autovalores distintos, entonces A es diagonalizable.

Page 194: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 191

Demostracion. ¡Ejercicio!

Ejemplo 4.25. La matriz B del ejemplo 4.17 no es diagonalizable, pues λ1 = −1 es un autovalor

de B de multiplicidad algebraica 2 y multiplicidad geometrica 1.

La matriz C del ejemplo 4.18 no es diagonalizable, ya que el polinomio pC(t) tiene raıces

complejas que no son reales. �

4.6. Autovectores y Autoespacios Generalizados. Forma

Canonica de Jordan

Las demostraciones de los resultados dados en esta seccion, escapan al objetivo del curso, en

consecuencia solo los enunciaremos, para una demostracion de estos puede verse el apendice D,

no obstante, las aplicaciones de dichos resultados nos interesan de manera especial.

Comenzaremos por definir las matrices de Jordan y las cajas o bloques elementales de

Jordan . Sea Nk ∈Mk×k(R) dada por

Nk =

0 1 0 · · · 0

0 0 1. . .

......

.... . .

. . . 0

0 0 · · · 0 1

0 0 0 · · · 0 0

Note que Nk es una matriz nilpotente de orden k.

Definicion 4.11. Una caja o bloque elemental de Jordan es una matriz Jk,λ ∈ Mk×k(R)

dada por

Jk,λ = λIk + Nk =

λ 1 0 · · · 0

0 λ 1. . .

......

. . .. . .

. . . 0

0 · · · 0 λ 1

0 0 · · · 0 λ

donde λ ∈ R.

Ejemplo 4.26. Las siguientes son bloques elementales de Jordan

Page 195: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 192

J4,3 =

3 1 0 0

0 3 1 0

0 0 3 1

0 0 0 3

; J5,−2 =

−2 1 0 0 0

0 −2 1 0 0

0 0 −2 1 0

0 0 0 −2 1

0 0 0 0 −2

Definicion 4.12. Una matriz de Jordan es una matriz J ∈ Mn×n(R) la cual es una matriz

diagonal por bloques y cada bloque en la diagonal es un bloque elemental de Jordan.

Ejemplo 4.27. Las siguientes son matrices de Jordan

J1 =

−2 1 0 0 0

0 −2 0 0 0

0 0 −2 0 0

0 0 0 5 1

0 0 0 0 5

; J2 =

1 1 0 0 0 0

0 1 1 0 0 0

0 0 1 0 0 0

0 0 0 8 0 0

0 0 0 0 −3 1

0 0 0 0 0 −3

Es claro que toda matriz diagonal es una matriz de Jordan.

Seguidamente daremos un ejemplo en el cual se ilustra un poco el objetivo de la presente

seccion, hallar la forma canonica de Jordan de una matriz.

Ejemplo 4.28. Consideremos la matriz

A =

5 −1 3

9 −4 0

−3 1 −1

Entonces el polinomio caracterıstico de A es

pA(t) = −(t + 1)2(t− 2)

Ası que los autovalores de A son λ1 = −1 con multiplicidad algebraica 2 y λ2 = 2 con multiplicidad

algebraica 1. Ademas, al calcular los autoespacios asociados a cada uno de estos autovalores, se

obtiene

E−1 = gen

1

3

−1

y E2 = gen

2

3

−1

Page 196: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 193

Con lo cual la multiplicidad geometrica de ambos autovalores de A es 1. En consecuencia A no

es diagonalizable.

Ahora consideremos la matriz

(A− (−1)I3)2 =

6 −1 3

9 −3 0

−3 1 0

6 −1 3

9 −3 0

−3 1 0

=

18 0 18

27 0 27

−9 0 −9

El nucleo de esta matriz es el espacio

N((A− (−1)I3)2) = gen

1

0

−1

,

0

1

0

No es difıcil probar que N((A− (−1)I3)) ⊂ N((A− (−1)I3)2), por lo tanto

E−1 = N((A− (−1)I3)) ⊂ N((A− (−1)I3)

2)

Si hacemos lo propio a la matriz (A− (−1)I3)3, encontramos que

E−1 = N((A− (−1)I3)) ⊂ N((A− (−1)I3)

2)

= N((A− (−1)I3)

3)

El Espacio N((A− (−1)I3)2) es llamado autoespacio (espacio propio o espacio carac-

terıstico) generalizado de A correspondiente a λ = −1 y es denotado por K−1, antes de

formalizar este concepto enunciaremos un resultado previo, el cual no demostraremos. �

Teorema 4.25. Sea λ ∈ R un autovalor de multiplicidad algebraica k de una matriz A ∈Mn×n(R). Entonces existe p ∈ {1, . . . , k} tal que1

{0/n×1} Eλ = N(A− λIn) · · · N ((A− λIn)p) = N ((A− λIn)m)

para todo m ≥ p.

En particular N((A− λIn)p) = N((A− λIn)k

)y en consecuencia dim

(N((A− λIn)k

))≤ k.

Demostracion. Ver Apendice D.

1Dados dos conjuntos A y B, la notacion A B significa que A ⊂ B pero A 6= B, es decir, A es un subconjunto

propio de B.

Page 197: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 194

Definicion 4.13. Sea λ ∈ R un autovalor de multiplicidad algebraica k de una matriz A ∈Mn×n(R). El espacio

Kλ = N((A− λIn)k

)

es llamado autoespacio (espacio propio o espacio caracterıstico) generalizado de A

correspondiente a λ, cualquier matriz no nula x ∈ Kλ es llamada autovector (vector propio

o vector caracterıstico) generalizado de A asociado a λ.

En la demostracion del teorema 4.25 se obtiene que A es similar a una matriz

J =

Jλ B

0/(n−m)×m C

donde m = dim(Kλ) = N((A− λIn)k

), B ∈ Mm×(n−m)(R), C ∈ M(n−m)×(n−m)(R) y Jλ ∈

Mm×m(R) es una matriz de Jordan con λ en la diagonal principal.

Ejemplo 4.29. Por ejemplo, la matriz

A =

5 −1 3

9 −4 0

−3 1 −1

considerada en el ejemplo 4.28, es similar a la matriz

J =

−1 1 0

0 −1 0

0 0 2

para garantizar esto considere la matriz invertible

P =

−1 0 2

−3 1 3

1 0 −1

o P =

3 1 2

9 0 3

−3 −1 −1

y verifique que PJ = AP . �

Una pregunta que surge de manera inmediata es ¿como hallar las matrices P y J? en primer

lugar, note que la matriz J es una matriz de Jordan y

2

3

−1

∈ E2;

Page 198: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 195

v1 =

0

1

0

; v2 =

1

0

−1

∈ E−1

ademas

(A + I3)v1 =

−1

−3

1

∈ K−1

y

(A + I3)v2 =

3

9

−3

∈ K−1

es decir, la matriz P obedece a cierto comportamiento, ası como la matriz J (¿cual es el com-

portamiento de esta ultima?). Antes de responder de manera mas general la primera de estas

preguntas, daremos algunos resultados que nos lo permitiran.

Teorema 4.26. Sea A ∈Mn×n(R). Supongamos que pA(t) tiene solo raıces reales, digamos que

λ1, λ2, . . . , λp ∈ R son las distintas raıces de pA(t), es decir, λ1, λ2, . . . , λp son los distintos auto-

valores de A. Sean k1, k2, . . . , kp las multiplicidades algebraicas de λ1, λ2, . . . , λp respectivamente.

Entonces

dim(Kλi) = ki

para cada i ∈ {1, . . . , p}.

Demostracion. Ver apendice D.

Teorema 4.27. A ∈ Mn×n(R) es similar a una matriz de Jordan si y solo si pA(t) solo tiene

raıces reales.

Demostracion. Ver apendice D.

El teorema 4.27 da paso a la siguiente definicion

Definicion 4.14. Cualquier matriz de Jordan J que sea similar a A es llamada forma canonica

de Jordan de A y cada una de estas matrices de Jordan solo difieren en la posicion de los bloques

elementales de Jordan en la diagonal.

Page 199: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 196

Por ejemplo, las matrices

J1 =

−1 1 0

0 −1 0

0 0 2

y J2 =

2 0 0

0 −1 1

0 0 −1

son las formas canonicas de la matriz A del ejemplo 4.28, basta considerar las matrices invertibles

P1 =

−1 0 2

−3 1 3

1 0 −1

y P2 =

2 −1 0

3 −3 1

−1 1 0

y verificar que P1J1 = AP1 y P2J2 = AP2

En la demostracion del teorema 4.27 se obtienen las formas que deben tener la matriz de

Jordan J y la matriz invertible P de tal manera que J = P−1AP . Daremos cuatro ejemplos que

ilustran este hecho.

Ejemplo 4.30. Dada la matriz

A =

2 1 1 2

2 1 −1 0

1 0 0 −1

1 −2 0 1

Decidir si existe una matriz de Jordan J que sea similar a esta, en caso afirmativo halle J y una

matriz invertible P tal que J = P−1AP .

Solucion. pA(t) = (t− 2)3(t + 2), ası que, usando el teorema 4.27, existe una matriz de Jordan

J la cual es similar a A.

Veamos como hallar la matriz J y la matriz invertible P tal que J = P−1AP . Los pasos que

seguiremos a continuacion son estandares a la hora de encontrar dichas matrices.

Los autovalores de A son λ1 = 2, con multiplicidad algebraica 3, y λ2 = −2, con multiplicidad

algebraica 1. Ademas

A− 2I4 =

0 1 1 2

2 −1 −1 0

1 0 −2 −1

1 −2 0 −1

y A + 2I4 =

4 1 1 2

2 3 −1 0

1 0 2 −1

1 −2 0 3

Page 200: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 197

Luego

E2 = N(A− 2I4) = gen

−1

−1

−1

1

y

E−2 = K−2 = N(A + 2I4) = gen

−1

1

1

1

Ahora bien

(A− 2I4)2 =

5 −5 −3 −3

−3 3 5 5

−3 3 5 5

−5 5 3 3

y ası

N((A− 2I4)

2)

= gen

1

1

0

0

;

0

0

−1

1

Por otro lado

(A− 2I4)3 =

−16 16 16 16

16 −16 −16 −16

16 −16 −16 −16

16 −16 −16 −16

de donde

K2 = N ((A− 2I4)) = gen

1

1

0

0

;

1

0

1

0

;

1

0

0

1

Para hallar P , comencemos por notar que

dim(K2)− dim(N((A− 2I4)

2))

= dim(N((A− 2I4)

3))− dim

(N((A− 2I4)

2))

= 3− 2 = 1

Page 201: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 198

ası que debemos escoger un vector en K2 que no este en N ((A− 2I4)2), digamos

x1 =

1

0

1

0

Hagamos

x2 = (A− 2I4)x1 =

1

1

−1

1

∈ N

((A− 2I4)

2)

y

x3 = (A− 2I4)2x1 = (A− 2I4)x2 =

2

2

2

−2

∈ E2 = N(A− 2I4)

y escojamos

x4 =

−1

1

1

1

∈ E−2 = N(A + 2I4)

Finalmente, definamos

P =[

x3 x2 x1 x4

]=

2 1 1 −1

2 1 0 1

2 −1 1 1

−2 1 0 1

y J =

2 1 0 0

0 2 1 0

0 0 2 0

0 0 0 −2

Por lo tanto P es invertible y J = P−1AP (¡verifıquelo!).

Las matrices P y J , encontradas en el ejemplo precedente, no son unicas, por ejemplo, si

escojemos

P =

−1 2 1 1

1 2 1 0

1 2 −1 1

1 −2 1 0

y J =

−2 0 0 0

0 2 1 0

0 0 2 1

0 0 0 2

Page 202: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 199

la conclusion sigue siendo valida.

Tambien pudimos haber escogido

x1 =

1

0

0

1

obteniendo

P =

2 2 1 −1

2 2 0 1

2 0 0 1

−2 0 1 1

y J =

2 1 0 0

0 2 1 0

0 0 2 0

0 0 0 −2

o bien

P =

−1 2 2 1

1 2 2 0

1 2 0 0

1 −2 0 1

y J =

−2 0 0 0

0 2 1 0

0 0 2 1

0 0 0 2

El siguiente ejemplo varıa un poco del anterior y nos muestra otro caso en la busqueda de la

forma canonica de Jordan de una matriz A.

Ejemplo 4.31. Idem para la matriz

A =

3 −1 0 1

9 −5 0 9

−3 2 1 −3

4 −3 0 6

Solucion. En este caso pA(t) = (t − 2)(t − 1)3, y como en el ejemplo anterior, en virtud del

teorema 4.27, podemos asegurar que existe una matriz de Jordan J la cual es similar a A.

Los autovalores de A son λ1 = 2 y λ2 = 1, con multiplicidad algebraica 1 y 3 respectivamente.

A− 2I4 =

−1 −1 0 1

9 −7 0 9

−3 2 −1 −3

4 −3 0 4

y A− I4 =

2 −1 0 1

9 −6 0 9

−3 2 0 −3

4 −3 0 5

Page 203: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 200

E2 = K2 = N(A− 2I4) = gen

−1

0

0

1

E1 = N(A− I4) = gen

0

0

1

0

;

1

3

0

1

(A− I4)2 =

−1 1 0 −2

0 0 0 0

0 0 0 0

1 −1 0 2

N((A− I4)

2)

= gen

1

1

0

0

;

0

0

1

0

;

−2

0

0

1

Como dim (N ((A− I4)2)) = 3 y la multiplicidad algebraica de λ2 = 1 es 3, entonces K1 =

N((A− I4)3) = N ((A− I4)

2).

Como en el ejemplo anterior, dado que

dim(K1)− dim(E1) = dim(N((A− I4)

3))− dim

(N((A− I4)

2))

= 3− 2 = 1

comencemos con escoger un vector en K1 = N ((A− I4)2) que no pertenezca a E1 = N(A− I4),

digamos

x1 =

1

1

0

0

Hagamos

x2 = (A− I4)x1 =

1

3

−1

1

∈ E1 = N(A− I4)

Page 204: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 201

pero a diferencia del caso anterior, debido a que

dim(E1) = dim (N(A− I4)) = 2

debemos escoger un vector en E1 no sea combinacion lineal de x2, digamos

x3 =

0

0

1

0

finalmente escojamos

x4 =

−1

0

0

1

∈ E2 = N(A− 2I4)

y definamos las matrices

P =[

x2 x1 x3 x4

]=

1 1 0 −1

3 1 0 0

−1 0 1 0

1 0 0 1

y J =

1 1 0 0

0 1 0 0

0 0 1 0

0 0 0 2

En consecuencia J = P−1AP (¡verifıquelo!).

Al igual que en anterior ejemplo, las matrices P y J no son unicas ¿podrıa hallar algunos otros

ejemplos de estas matrices?

Daremos dos ejemplos mas para afianzar el metodo empleado en los dos ejemplos precedentes,

esperamos que con estos ultimos ejemplos se comprenda en su totalidad el metodo empleado para

la busqueda de las matrices P y J .

Ejemplo 4.32. Idem para la matriz

A =

3 3 3 0

−3 9 3 0

0 0 6 0

−6 6 9 6

Page 205: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 202

Solucion. Se puede verificar que pA(t) = (t − 6)4, ası que al usar el teorema 4.27, existe una

matriz de Jordan J la cual es similar a A. El unico autovalor de A es λ = 6 con multiplicidad

algebraica 4.

A− 6I4 =

−3 3 3 0

−3 3 3 0

0 0 0 0

−6 6 9 0

y ası

E6 = N(A− 6I4) = gen

1

1

0

0

;

0

0

0

1

Ademas

(A− 6I4)2 = 0/4 =

0 0 0 0

0 0 0 0

0 0 0 0

0 0 0 0

luego

K6 = N((A− 6I4)

4)

= N((A− 6I4)

2)

=M4×1(R) = gen

1

0

0

0

;

0

1

0

0

;

0

0

1

0

;

0

0

0

1

Como dim(K6) − dim(E6) = 4 − 2 = 2, debemos escoger dos vectores x1, x2 ∈ K6 linealmente

independientes tales que x1, x2 /∈ E6 y ademas (A − 6I4)x1 y (A − 6I4)x2 sean linealmente

independientes. Si escogemos

x1 =

1

0

0

0

y x2 =

0

1

0

0

Page 206: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 203

entonces

x3 = (A− 6I4)x1 =

−3

−3

0

−6

= −

3

3

0

6

= −(A− 6I4)x2

cambiemos entonces la escogencia de x2, digamos

x2 =

0

0

1

0

y ası

x4 = (A− 6I4)x2 =

3

3

0

9

Por lo tanto

P =[

x3 x1 x4 x2

]=

−3 1 3 0

−3 0 3 0

0 0 0 1

−6 0 9 0

y J =

6 1 0 0

0 6 0 0

0 0 6 1

0 0 0 6

son tales que J = P−1AP . Note que x3, x4 ∈ E6.

Ejemplo 4.33. Idem para la matriz

A =

4 2 −1 −2

−1 1 1 2

1 2 2 −2

−1 −2 1 5

Solucion. pA(t) = (t − 3)4, por lo tanto existe una matriz de Jordan J la cual es similar a A.

El unico autovalor de A es λ = 3 y en este caso

Page 207: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 204

A− 3I4 =

1 2 −1 −2

−1 −2 1 2

1 2 −1 −2

−1 −2 1 2

y ası

E3 = N(A− 3I4) = gen

−2

1

0

0

;

1

0

1

0

;

2

0

0

1

Por otro lado

(A− 3I4)2 = 0/4 =

0 0 0 0

0 0 0 0

0 0 0 0

0 0 0 0

luego

K3 = N((A− 3I4)

4)

= N((A− 3I4)

2)

=M4×1(R) = gen

1

0

0

0

;

0

1

0

0

;

0

0

1

0

;

0

0

0

1

Dado que dim(K3)− dim(E3) = 4− 3 = 1, debemos escoger un vector x1 ∈ K3 tal que x1 /∈ E3.

Si escogemos

x1 =

1

0

0

0

entonces

x2 = (A− 3I4)x1 =

1

−1

1

−1

∈ E3

Page 208: guia algebra de lineal Msc.Jorge Campos

Transformaciones Lineales. Autovalores y Autovectores de una Matriz 205

Ahora bien, como dim(E3) = dim(N(A − 3I4)) = 3, debemos escoger dos vectores linealmente

independientes x3, x4 ∈ E3 tales que x2, x3 y x4 sean linealmente independientes, digamos

x3 =

−2

1

0

0

y x4 =

1

0

1

0

En consecuencia

P =[

x2 x1 x3 x4

]=

1 1 −2 1

−1 0 1 0

1 0 0 1

−1 0 0 0

y J =

3 1 0 0

0 3 0 0

0 0 3 0

0 0 0 3

son tales que J = P−1AP .

Esperamos que estos cuatro ejemplos ilustren el metodo general para la busqueda de una forma

canonica de Jordan de una matriz A.