166
´ ALGEBRA LINEAL CON EL USO DE MATLAB AUTOR Omar Saldarriaga Ph.D., State University of New York at Binghamton Profesor Asociado Departamento de Matem´ aticas Universidad de Antioquia.

64806112 Algebra Lineal Matlab

Embed Size (px)

Citation preview

Page 1: 64806112 Algebra Lineal Matlab

ALGEBRA LINEAL

CON EL USO DE MATLAB

AUTOR

Omar SaldarriagaPh.D., State University of New York at Binghamton

Profesor AsociadoDepartamento de Matematicas

Universidad de Antioquia.

Page 2: 64806112 Algebra Lineal Matlab

ii

c© Copyright by Omar Saldarriaga, 2009.All rights reserved.

Page 3: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA iii

Prefacio

El algebra lineal es el topico mas importante en Matematicas por sus numerosas aplicaciones en todas las

areas de la Matematica y a muchas otras areas, como la economıa, la ingenierıa, la quımica, la biologıa entre

otras. Este material se escribio bajo tres ideas principales:

1. Un texto computacional, en este texto casi todos los temas se ven desde un punto de vista computacional

que ensena a los lectores como hacer calculos en algebra lineal sin abandonar la componente teorica.

2. Un texto autocontenido: en este libro se dan las demostraciones de todos los teoremas, con excepcion del

Teorema 1.1 cuya demostracion se omite por ser muy engorrosa.

3. Un texto algorıtmico: En este libro se dan procedimientos paso por paso de como hacer los calculos

respectivos en cada tema.

La filosofia del texto consiste en desarrollar cada seccion en el siguiente orden: dar primero la teorıa, de

esta deducir posibles algoritmos, despues dar el procedimiento paso por paso para hacer calculos y finalmente

dar ejemplos algunos con calculos manuales y otros con el uso del MatLab, escribiendo los respectivos comandos

para obtener la respuesta.

La teorıa esta escrita en orden cronologico, cada capıtulo tiene una dependencia del anterior y se desarrolla

de una manera consisa y clara. Este material se ha usado como notas de clase y en encuestas realizadas a los

estudiantes, estos han expresado que las notas son muy claras y que se pueden entender con mucha facilidad.

Espero que los lectores encuentren en este libro un buen texto, si lo usan como tal para un curso, en caso

de no ser el texto guıa, espero que encuentren en el una excelente referencia.

Page 4: 64806112 Algebra Lineal Matlab

iv

Page 5: 64806112 Algebra Lineal Matlab

Indice general

Prefacio III

0. Comandos en MatLab 3

1. Algebra de matrices 7

1.1. Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1.1.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13

1.2. Matrices y Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

1.2.1. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

1.3. Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

1.4. Inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

1.5. Matrices Elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

1.6. Inversa a la izquierda y a la derecha . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

2. Espacios Vectoriales 35

2.1. Definicion y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35

2.2. Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

2.3. Independencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

2.4. Conjuntos generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

2.5. Bases y Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46

2.6. Subespacios fundamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

2.7. Subespacio generado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55

2.8. El teorema de la base incompleta en Rm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

3. Transformaciones Lineales 61

3.1. Definicion y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

3.2. Transformaciones Lineales Inyectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64

3.3. Transformaciones lineales sobreyectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

3.4. Isomorfismos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

v

Page 6: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 1

3.5. Espacios Vectoriales arbitrarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

3.5.1. Transformaciones lineales entre espacios vectoriales arbitrarios. . . . . . . . . . . . . . . . 75

3.6. Propiedades de los Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

4. Ortogonalidad en Rn 87

4.1. Definiciones Basicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

4.2. Proyeccion ortogonal sobre un vector . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92

4.3. Proyeccion ortogonal sobre un subespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94

4.4. Mınimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

4.5. El proceso Gramm-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

4.6. La factorizacion QR de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 108

5. Determinantes 113

5.1. Definicion y ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

5.2. Determinantes y operaciones elementales de fila . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

5.3. Determinante de matrices invertibles . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

5.4. Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124

5.5. La Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126

5.6. Interpretacion Geometrica del Determinante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 128

6. Valores y Vectores Propios 131

6.1. Polinomio Caracterıstico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

6.2. Matrices Similares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

6.3. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

6.3.1. La matriz de una transformacion con respecto a dos bases . . . . . . . . . . . . . . . . . . 144

6.4. Diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148

6.5. Matrices Simetricas y Diagonalizacion Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . 153

6.6. Formas Cuadraticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154

6.7. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158

Page 7: 64806112 Algebra Lineal Matlab

2

Page 8: 64806112 Algebra Lineal Matlab

Capıtulo 0

Comandos en MatLab

En este mini capıtulo damos una pequena introduccion al uso del MatLab para hacer calculos en algebra

lineal, estos comandos son muy utiles y se hara uso constante de estos en los ejemplos en el texto. La lectura

de este capıtulo se puede obviar, ya que solo se usa como referencia para el lector.

1. Para definir una matriz en MatLab se escriben las entradas fila por fila separando las entradas de una fila

con coma o espacio y punto y coma para entrar una nueva fila.

Ejemplo:

>> A = [1,−1; 2, 0] Con este comando se define la matriz A =

1 −1

2 0

.

o en lugar de coma se dejan espacios entre los numeros

>> A = [1 − 1; 2 0]

2. El sistema2x+ y = 3

x− 2y = 6se resuelve con el comando A\b donde A es la matriz de coeficientes y b es el

vector de terminos independientes

>> A = [2, 1; 1,−2], b = [3; 6], x = A\b

3. La forma escalonada de una matriz se calcula con el comando rref(A)

>> A = [2, 1; 1,−2], R = rref(A)

Si se desean las respuestas en numeros racionales se cambia el formato “format rat 2se ejecuta la orden

de nuevo

>> format rat

>> R = rref(A)

4. La suma de las matrices A y B se ejecuta con el comando A+B

>> A = [2, 1; 1,−2], B = [1,−1; 2, 1], A+B

3

Page 9: 64806112 Algebra Lineal Matlab

4

5. El producto de escalar α por una matriz A se ejecuta con el comando α ∗A

>> A = [2, 1; 1,−2], α ∗A

6. El producto de las matrices A y B se ejecuta con el comando A ∗B

>> A = [2, 1; 1,−2;−1, 0], B = [1, 1,−2; 0, 1, 2], A ∗B

7. La inversa de la matriz A se ejecuta con el comando inv(A)

>> A = [2, 1; 1,−2], inv(A)

8. La transpuesta de una matriz A se calcula con el comando transpose(A) o A′

>> A = [2, 1; 1,−2], transpose(A)

o tambien

>> A′

9. El espacio nulo de una matriz se calcula con el comando null(A)

>> A = [2, 1; 1,−2], null(A)

10. El proceso Gramm-Schmidt se ejecuta con la orden orth(A), en este caso se obtiene una base orthonormal

para el espacio columna de A

>> A = [2, 1; 1,−2], orth(A)

11. La factorizacion QR de una matriz A se calcula con el comando qr(A)

>> A = [2, 1; 1,−2], [Q,R] = qr(A)

12. la solucion de los mınimos cuadrados de un sistema inconsistente, Ax = b, se calcula ejecutando el comando

lsqr(A, b)

>> A = [2, 1; 1,−2; 0, 0], b = [1;−1; 1], lsqr(A, b)

13. La solucion de los mınimos cuadrados tambien se puede hallar como se muestra a continuacion

>> A = [2, 1; 1,−2; 0, 0], b = [1;−1; 1], inv(A′ ∗A) ∗A′ ∗ b

14. El determinante de una matriz se calcula con el comando det(A)

>> A = [2, 1; 1,−2], det(A)

15. El rango de una matriz se calcula con el comando rank(A)

>> A = [2, 1; 1,−2], rank(A)

16. El espacio columna de una matriz A se calcula con el comando colspace(a) pero se necesita usar el comando

especial sym(a) para que MatLab entienda las columnas de A como vectores

>> a = sym([1, 2;−1, 2; 1, 1]), colspace(a)

Page 10: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 5

17. El polinomio caracterıstico de una matriz A se calcula con el comando poly(A).

Advertencia: MatLab escribe solamente los coeficientes del polinomio caracteristico

>> c = [1 2 1;−1 2 0; 1 1 3/4]; poly(c)

ans =

1.00 -3.75 5.25 0.00

Esta respuesta significa que el polinomio caraterıstico de A es λ3 − 3,75λ2 + 5,25λ.

18. Como los valores propios son las raıces del polinomio caraterıstico, los valores propios tambien se pueden

calcular con el comando roots(poly(A)), el cual nos daria las raıces del polinomio caracterıstico

>> c = [1 2 1;−1 2 0; 1 1 3/4]; roots(polyc)

ans =

1.8750 + 1.3170i

1.8750 - 1.3170i

-0.0000

Advertencia: No se debe usar el formato “format bank 2a que este formato no muestra la parte imaginaria.

19. Tambien se puede usar el comando poly(sym(A)), de esta manera se obtiene el poinomio caraterıstico y

no solo los coeficientes

>> c = [1 2 1;−1 2 0; 1 1 3/4]; poly(sym(c))

ans =

x 3− 15/4 ∗ x 2 + 21/4 ∗ x

20. Si se quiere factorizar el polinomio caraterıstico, para encontrar por ejemplo los valores propios, se usa el

comando factor(p)

>> c = [1 2 1;−1 2 0; 1 1 3/4]; factor(poly(sym(c)))

21. Para calcular los valores propios de una matriz A se ejecuta el comando eig(c)

Advertencia: No se debe usar el formato ”format bank”porque estte podria eliminar la parte imaginaria

de los valores propios complejos, se debe usar ”format short.o ”format rat”

>> format short

>> c = [1 2 1;−1 2 0; 1 1 3/4]; eig(c)

22. Para calcular los valores y vectores propios de una matriz A se ejecuta el comando [V,D] = eig(c). MatLab

escribira los vectores propios en la matriz V y los valores propios en la diagonal de la matriz D. Estas

matrices V y D son tambien las matrices de la diagonalizacion de A

Page 11: 64806112 Algebra Lineal Matlab

6

>> format short (o format rat)

>> c = [1 2 1;−1 2 0; 1 1 3/4]; [V,D] = eig(c)

23. Las potencias de una matriz A se calculan usando el comando Aˆ seguido por la potencia. Por ejemplo A2

se calcula con el comando A 2

>> A = [1 2 1;−1 2 0; 1 1 3/4]; A 2

24. Si se tiene una matriz A de tamano m×n y un vector columna b con m componentes, se puede aumentar

la matriz A por el vector b con el comando [A, b]

>> A = [3 − 1 0 0;−1 3 0 0; 7 − 1 − 4 0; 7 − 1 0 − 4], b = [1; 0;−2; 1], [A, b]

25. Si se tienen dos matrices A y B de tamanos m×n y m× q, respectivamente, se puede aumentar la matriz

A por la matriz B con el comando [A,B]

>> A = [3 − 1 0 0;−1 3 0 0; 7 − 1 − 4 0; 7 − 1 0 − 4], B = [−1 3;−1 − 1; 0 0; 0 − 4], [A,B]

26. Si se tiene una matriz A de tamano m× n y un vector fila b con n componentes, se pueden aumentar las

filas de A agregando el vector b en la parte inferior de la matriz con el comando [A; b]

>> A = [3 − 1 0 0;−1 3 0 0; 7 − 1 − 4 0; 7 − 1 0 − 4], b = [1 0 − 2 1], [A; b]

27. Si se tienen dos matrices A y B de tamanos m× n y q× n, respectivamente, se pueden aumentar las filas

de A agregando la matriz B en la parte inferior de la A con el comando [A;B]

>> A = [3 − 1 0 0;−1 3 0 0; 7 − 1 − 4 0; 7 − 1 0 − 4], B = [−1 3 − 1 − 1; 0 0 0 − 4], [A;B]

28. Si se quiere extraer la i-esima fila de una matriz A se usa el comando A(i, :). Por ejemplo si se quiere

extraer la tercera fila de una matriz A se escribe A(3, :)

>> A = [3 − 1 0 0;−1 3 0 0; 7 − 1 − 4 0; 7 − 1 0 − 4], A(3, :)

29. Si se quiere definir una matriz formada por varias filas de una matriz A, se pegan estas en una matriz

como se muestra en el siguiente ejemplo

>> A = [3 − 1 0 0;−1 3 0 0; 7 − 1 − 4 0; 7 − 1 0 − 4], [A(3, :);A(4, :)]

Esta instruccion produce una matriz formada por las filas tercera y cuarta de la matriz A.

30. Si se quiere extraer la i-esima columna de una matriz A se usa el comando A(:, i). Por ejemplo si se quiere

extraer la segunda columna de una matriz A se escribe A(:, 2)

>> A = [3 − 1 0 0;−1 3 0 0; 7 − 1 − 4 0; 7 − 1 0 − 4], A(:, 2)

31. Si se quiere definir una matriz formada por varias columnas de una matriz A, se pegan estas en una matriz

como se muestra en el siguiente ejemplo

>> A = [3 − 1 0 0;−1 3 0 0; 7 − 1 − 4 0; 7 − 1 0 − 4], [A(:, 2);A(:, 4)]

Esta instruccion produce una matriz formada por las columnas segunda y cuarta de la matriz A.

Page 12: 64806112 Algebra Lineal Matlab

Capıtulo 1

Algebra de matrices

1.1. Sistemas de Ecuaciones Lineales

Comenzaremos esta seccion ilustrando un ejemplo del tema central del capıtulo, el cual es la solucion de sis-

temas de ecuaciones lineales, y utilizaremos este ejemplo para introducir el metodo de solucion usando reduccion

Gauss-Jordan en matrices.

Para comenzar, consideremos el siguiente sistema de dos ecuaciones en dos incognictas:

x+ 2y = 3 (1.1)

4x+ 5y = 6

Hay varios metodos para resolver este sistema, entre los cuales destacaremos los siguientes:

1. Por eliminacion: Este metodo usa dos operaciones basicas para llevar a la solucion de un sistema lineal las

cuales son:

1. Sumar un multiplo de una ecuacion a otra ecuacion con el objetivo de eliminar una de las variables, por

ejemplo la operacion

-4 ecuacion(1.1)+ ecuacion(1.2)

elimina la variable x y produce la ecuacion −3y = −6.

2. Multiplicar una ecuacion por una constante no cero con el objetivo de simplicar la ecuaciones, por ejemplo

si multiplicamos la nueva ecuacion −3y = −6 por−13

obtenemos y = 2.

3. Finalmente si multiplicamos esta ultima ecuacion (y = 2) por -2 y se la sumamos a la ecuacion (1.1) y

obtenemos x = −1, obteniendo ası la solucion al sistema: x = −1 y y = 2.

2. Determinantes: El metodo de Cramer (ver Seccion 5.5) nos da una formula para la solucion del sistema como

un cociente de determinantes de la siguiente forma:

7

Page 13: 64806112 Algebra Lineal Matlab

8

x =

∣∣∣∣∣∣3 2

6 5

∣∣∣∣∣∣∣∣∣∣∣∣1 2

4 5

∣∣∣∣∣∣=

3−3

= −1 y y =

∣∣∣∣∣∣1 3

4 6

∣∣∣∣∣∣∣∣∣∣∣∣1 2

4 5

∣∣∣∣∣∣=−6−3

= 2

En general, si tenemos un sistema de dos ecuaciones lineales en dos incognitas, hay tres posibles respuestas y

estas son:

1. El sistema tiene solucion unica, (como en el ejemplo ilustrado)

2. El sistema no tiene solucion, caso en el cual, decimos que es inconsistente

3. el sistema tiene infinitas soluciones, caso en el cual decimos que el sistema es redundante.

Cuando tratamos de resolver un sistema 3x3, de tres ecuaciones en tres incognitas, tambien podemos obtener,

al igual que en el caso 2x2, tres posibles respuestas: solucion unica, solucion vacia o infinitas soluciones.

Uno de los objetivos de la seccion es mostrar que aun en dimensiones mayores se presentan exactamente las

mismas tres posibilidades. Para resolver el caso general necesitamos definir la nocion de matriz y asociar a cada

sistema lineal una de estas y usarla para resolverlo. Tambien introduciremos la nocion de operacion elemental

de fila, las cuales seran las equivalentes a las mencionadas en el metodo de eliminacion al principio de la seccion.

Definicion 1.1. Una matriz es un arreglo rectangular de numeros reales en m filas y n columnas

a11 · · · a1n

.... . .

...

am1 · · · amn

;

donde aij es un numero real para i = 1, . . . ,m y j = 1, . . . , n. A esta matriz se le llama una matriz de tamano

m× n.

Ejemplo 1.1. (MatLab) A =

1 −1

2 0

es una matriz de tamano 2×2

* Esta matriz la definimos en MatLab de la siguiente forma

>> A = [1,−1; 2, 0]

y MatLab guardaria la matriz como el arreglo rectangular

A =1 −1

2 0En general, para definir matrices en MatLab se escriben las entradas entre corchetes, escribiendo las entradas

separadas con coma fila por fila separando las filas con punto y coma.

A un sistema lineal

a11x1 + · · ·+ a1nxn = b1...

am1x1 + · · ·+ amnxn = bm

dem ecuaciones con n incognitas, se le asocia la matriz

a11 · · · a1n b1...

. . ....

...

amn · · · a1n bm

de tamano m× (n+ 1), llamada la matriz de coeficientes. Cada fila de esta matriz tiene los coeficientes de cada

una de las ecuaciones incluyendo el termino constante al final de la misma y hay una columna por cada incognita

mas una columna extra que contiene los terminos independientes.

Page 14: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 9

Ejemplo 1.2. Al sistema linealx+ 2y = 3

4x+ 5y = 6le podemos asignar la matriz de coeficientes1 2 3

4 5 6

.

Las operaciones descritas al principio de la seccion que se pueden realizar sobre las ecuaciones de un sistema

lineal se traducen en operaciones de fila sobre matrices, llamadas operaciones elementales de fila, las cuales

describimos a continuacion.

Definicion 1.2. Sea A una matriz de tamano m × n, una operacion elemental de fila sobre A es una de las

siguientes operaciones:

1. multiplicar una fila por una constante no cero,

2. sumar un multıplo de una fila a otra fila,

3. intercambiar dos filas.

Ejemplo 1.3. Al principio de la seccion resolvimos el sistema de ecuacionesx+ 2y = 3

4x+ 5y = 6aplicando las opera-

ciones

1. -4 ecuacion 1 mas ecuacion 2,

2. −13

de la nueva ecuacion,

3. -2 ecuacion (y = 2) mas ecuacion (1.1).

Como en la matriz asociada a un sistema lineal las ecuaciones se representan en filas, estas operaciones se

traducen en operaciones de fila, de hecho, la primera operacion se traduce en la operacion de fila −4F1+F2 → F2,

la segunda en −13 F2 → F2 y la tercera en −2F2 + F1 → F1. Al aplicar estas operaciones obtenemos:1 2 3

4 5 6

−4F1+F2→F2

1 2 3

0 −3 −6

−13 F2→F2

1 2 3

0 1 2

−2F2+F1→F1

1 0 −1

0 1 2

De esta ultima matriz obtenemos las ecuaciones x = −1 y y = 2 las cuales son la solucion al sistema.

En este ejemplo se ilustra el metodo de solucion de un sistema lineal con operaciones de fila sobre matrices, el

cual es el objetivo de la seccion. Para ilustrar el caso general debemos mostrar como aplicar operaciones de fila

sobre una matriz de una manera eficiente que garantice una solucion, una manera efectiva es llevar la matriz a

su forma escalonada reducida, la cual definimos a continuacion.

Definicion 1.3. Sea A una matriz de tamano m × n, decimos que A esta en forma escalonada reducida si A

satisface las siguientes condiciones:

1. todas las filas nulas (filas donde todas las entradas, en esa fila, son ceros) estan en la parte inferior de la

matriz,

Page 15: 64806112 Algebra Lineal Matlab

10

2. La primera entrada no cero de una fila no nula es un uno, a esta entrada se le llama pivote,

3. Si dos filas consecutivas son no nulas, entonces el pivote de la de arriba esta mas a la izquierda de la de

abajo,

4. Todas las entradas de una columna con un pivote son cero, excepto la entrada donde esta el pivote.

Ejemplo 1.4. Las siguientes matrices estan en forma escalonada reducida:

A =

1 0 0

0 1 0

0 0 1

B =

1 0 ∗

0 1 ∗

0 0 0

C =

1 ∗ 0

0 0 1

0 0 0

D =

1 ∗ ∗

0 0 0

0 0 0

E =

0 1 0

0 0 1

0 0 0

F =

0 1 ∗

0 0 0

0 0 0

G =

0 0 1

0 0 0

0 0 0

De hecho estas son todas las formas escalonadas reducidas de tamano 3× 3.

Ejemplo 1.5. (MatLab) La forma escalonada reducida de una matriz se calcula en MatLab con el comando

rref como se muestra a continuacion. Sea A =

−1 2 3 −1

0 3 −2 −1

2 −1 −8 1

,

>> A = [−1, 2, 3,−1; 0, 3,−2,−1; 2,−1,−8, 1];R = rref(A)

R =1 0 −13/3 1/3

0 1 −2/3 −1/3

0 0 0 0

El proceso de aplicar operaciones elementales de fila sobre una matriz hasta llevarla a su forma escalonada

reducida se le conoce como reduccion Gauss-Jordan. Este proceso nos lleva tambien a determinar si el sistema

tiene solucion y a encontrarla en el caso de que exista (Ver Teorema 1.2). Primero debemos garantizar que es

posible llevar cualquier matriz a su forma escalonada reducida por medio de operaciones elementales.

Teorema 1.1. Toda matriz se puede reducir una forma escalonada reducida unica

Teorema 1.2. Considere el sistema de ecuaciones

a11x1 + · · ·+ a1nxn = b1...

am1x1 + · · ·+ amnxn = bm

, sea A =

a11 · · · a1n b1

.... . .

......

am1 · · · amn bm

la matriz de coeficientes asociada al sistema y sea A′ la forma escalonada reducida de A. Entonces el sistema

tiene:

1. solucion unica si y solo si A′ tiene pivote en todas las columnas excepto la ultima,

2. solucion vacia si y solo si A′ tiene pivote en la ultima columna,

Page 16: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 11

3. infinitas soluciones si y solo si A′ no tiene pivote en la ultima columna y hay al menos otra columna sin

pivote.

Corolario 1.3. Un sistema de ecuaciones con mas variables que ecuaciones (n > m) nunca tiene solucion

unica.

Observacion 1.1. Sea A la matriz del Teorema 1.2 asociada a un sistema de ecuaciones lineales y A′ su

forma escalonada reducida. El Teorema 1.2 determina, usando la matriz A′, si el sistema tiene soluciones

y cuantas soluciones hay (unica o infinitas). La matriz A′ tambien nos permite encontrar las soluciones de

manera explicita, como lo describimos a continuacion.

1. Si el sistema tiene solucion unica entonces m ≥ n y la solucion esta dada por x1 = c1, . . . , xn = cn, donde

c1, . . . , cn son las entradas en la ultima columna de A′.

2. Si el sistema tiene infinitas soluciones entonces por el Teorema 1.2 hay columnas sin pivote y la solucion

queda en terminos de estas variables, a las cuales se le llamara variables libres. En particular, si j1, . . . , jk

son las columnas de A′ con pivote, entonces una solucion al sistema esta dada por xj1 = c1, . . . , xjk = ck

y xi = 0 si xi es una variable libre.

Ejemplo 1.6. Determine si el sistemax1 + x2 + x3 + x4 = 4

x3 − x4 = 3tiene soluciones y en el caso afirmativo escribalas

de forma parametrica

Solucion La matriz de coeficientes es

1 1 1 1 4

0 0 1 −1 3

y su forma escalonada reducida esta dada por A′ =1 1 0 2 1

0 0 1 −1 3

. Notese que las columnas 1 y 3 de A′ tienen pivote, entonces por la Observacion 1.1, una

solucion particular al sistema esta dada por x1 = 1, x3 = 3 y las variables libres iguales a cero, es decir,

x2 = x4 = 0. Las infinitas soluciones al sistema se pueden dar en forma parametrica leyendo el sistema de

ecuaciones de la matriz A′, las cuales son x1 + x2 + 2x4 = 0 y x3 − x4 = 3, y despejando en terminos de las

variables libres

x1 = 1− x2 − 2x4 (1.2)

x3 = 3 + x4

De acuerdo a estas ecuaciones las variables x2 y x4 toman valores arbitrarios y cada par de valores que se le

asignen a estas variables, se tiene una solucion particular, ası de esta manera las ecuaciones (1.2) nos dan todas

las soluciones al sistema de manera parametrica.

Ejemplo 1.7. Considere el sistema

−x+ 2y + 3z = −1

3y − 2z = −1

2x− y − 8z = 1

. La matriz aumentada asociada al sistema esta dada

Page 17: 64806112 Algebra Lineal Matlab

12

por A =

−1 2 3 −1

0 3 −2 −1

2 −1 −8 1

cuya forma escalonada reducida R fue calculada en en el Ejemplo 1.5

R =

1 0 −4,3333 0,3333

0 1 −0,6667 −0,3333

0 0 0 0

=

1 0 − 13

313

0 1 − 23 − 1

3

0 0 0 0

De aqui tenemos que el sistema tiene infinitas soluciones las cuales estan dadas por

x = 13 + 13

3 z

y = − 13 + 2

3z

Ejemplo 1.8. (MatLab) El sistema

−x+ 2y + 3z = −1

2x− 4y − 6z = −1

2x− y − 8z = 1

tiene matriz asociada al sistema dado por A =

−1 2 3 −1

2 −4 −6 −1

2 −1 −8 1

. Usando MatLab para calcular la forma escalonada reducida de A obtenemos

>> A = [−1, 2, 3,−1; 2,−4,−6,−1; 2,−1,−8, 1]; R=rref(A)

R =1 0 −4,3333 0

0 1 −0,6667 0

0 0 0 1De aqui tenemos que la forma escalonada reducida R de la matriz A es la matriz

R =

1 0 −4,3333 0

0 1 −0,6667 0

0 0 0 1

.Como esta ultima matriz tiene un pivote en la ultima columna, entonces por el Teorema 1.2 el sistema no tiene

solucion.

Definicion 1.4. Un sistema lineal homogeneo es un sistema lineal de la forma

a11x1 + · · ·+ a1n = 0...

am1x1 + · · ·+ amn = 0

,

es decir, un sistema donde todos los terminos independientes son cero.

Corolario 1.4. Un sistema lineal homogeneo siempre tiene solucion.

Page 18: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 13

Terminamos la seccion con la definicion de rango de una matriz.

Definicion 1.5. Sea A una matriz y A′ su forma escalonada reducida. Definimos el rango de A, denotado por

rango(A), como rango(A) = # de pivotes de A′.

Ejemplo 1.9. Para las matrices del Ejemplo 1.4 se tiene que

rango(A) = 3, rango(B) = rango(C) = rango(E) = 2 y

rango(D) = rango(F ) = rango(G) = 1.

1.1.1. Ejercicios

1. Use el metodo Gauss-Jordan para resolver los siguientes sistemas.

a.

x− 2y + 3z = 7

2x+ y − z = 7

2x− y − z = 7

b.

2x+ 4y − 4z = 6

2x− 5y + 4z = 6

−x+ 16y − 14z = −3

c.

x+ y − z = 7

x− y + z = 4

2x+ y + z = 3

d.

x+ 2y + 3z = 1

4x+ 5y + 6z = 2

7x+ 8y + 9z = 4

e.

x+ 2y + 3z + w = 7

4x+ 5y + 6z + 2w = 7

7x+ 8y + 9z + 4w = 7

f.

x+ 2y + 3z + 4w = 1

x+ 2y + 3z + 3w = 2

x+ 2y + 2z + 2w = 3

x+ y + z + w = 1

2. Encuentre las soluciones parametricas al sistema y uselas para calcular dos soluciones particulares:

x− 2y + 3z + w = 3

y = 2

w = 1

3. Demuestre que el sistema

2x− y + 3z = a

3x+ y − 5z = b

−5x− 5y + 21z = c

es consistente si y solo si c = 2a− 3b.

4. Para los sistemas cuyas matrices aumentadas estan dadas en los numerales a.-c. determine los valores a y

b para los cuales el sistema tenga

I. ninguna solucion

II. solucion unica

III. infinitas soluciones y en este caso dar dos soluciones particulares.

Page 19: 64806112 Algebra Lineal Matlab

14

a.

1 0 a 0

0 1 b 1

0 0 a+ b a− b− 2

b.

1 0 a 0

0 1 b 1

0 0 2a+ b a+ b− 1

c.

1 0 a 0

0 1 b 1

0 0 a− b a− b− 2

5. Muestre que el sistema

ax+ by = 0

cx+ dy = 0tiene solucion si y solo si ad− bc = 0.

6. Haga una lista de todas las matrices 3x4 que esten en forma escalonada reducida.

1.2. Matrices y Vectores

Definicion 1.6. Definimos vector columna(fila) como una matriz con una sola columna(fila).

Ejemplo 1.10. v =

1

2

−1

es un vector columna y w =[0 1

]es un vector fila.

Definicion 1.7. (Operaciones con matrices y vectores)

1. (Suma de matrices) Sean A =

a11 · · · a1n

.... . .

...

am1 · · · amn

y B =

b11 · · · b1n...

. . ....

bm1 · · · bmn

matrices del mismo tamano,

definimos la matriz A+B como la matriz dada por:

A+B =

a11 + b11 · · · a1n + b1n

.... . .

...

am1 + bm1 · · · amn + bmn

.

Similarmente, definimos la suma de los vectores x =

x1

...

xn

y y =

y1...

yn

como el vector x+ y =

x1 + y1

...

xn + yn

.

2. (Producto de una matriz por un escalar) Sea A =

a11 · · · a1n

.... . .

...

am1 · · · amn

una matriz de tamano m × n y α un

escalar, definimos la matriz α ·A como la matriz dada por

αA =

αa11 · · · αa1n

.... . .

...

αam1 · · · αamn

.

Page 20: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 15

Ejemplo 1.11. (MatLab) Sean A =

1 2

−1 −3

0 1

y B =

−2 −2

3 1

1 1

. Podemos calcular las matrices A + B,

A−B y 3A en MatLab como sigue

>> A = [1, 2;−1,−3; 0, 1]; B = [−2,−2; 3, 1; 1, 1]; A+B

A+B=

−1 0

2 −2

1 2

>> A−B

A−B =

3 4

−4 −4

−1 0

>> 2 ∗A

2 ∗A=

2 4

−2 −6

0 2

Notacion 1. Denotaremos por Omn a la matriz de ceros de tamano m × n, o simplemente por O si no hay

lugar a confusion y al vector cero lo denotaremos por θn o simplemente θ si no hay lugar a confusion.

El siguiente teorema establece las propiedades que satisfacen estas operaciones en matrices y vectores.

Teorema 1.5. Sean A, B y C matrices de tamanos m× n, α y β escalares, entonces tenemos

1. (A+B) + C = A+ (B + C)

3. A+ (−1)A = −1A+A = O

5. α(A+B) = αA+ αB

7. (αβ)A = α(βA)

2. A+Omn = Omn +A = A

4. A+B = B +A

6. (α+ β)A = αA+ βA

8. 1A = A

El siguiente teorema establece las propiedades analogas que se cumplen para vectores.

Teorema 1.6. Sean x, y y z vectores con n componentes, α y β escalares, entonces tenemos

1. (x+ y) + z = x+ (y + z)

3. x+ (−1)x = −1x+ x = θn

5. α(x+ y) = αx+ αy

7. (αβ)x = α(βx)

2. x+ θn = θn + x = x

4. x+ y = y + x

6. (α+ β)x = αx+ βx

8. 1x = x

Page 21: 64806112 Algebra Lineal Matlab

16

1.2.1. Ejercicios

1. Ejecutar las operaciones indicadas con los vectores v =

1

−1

3

, w =

3

1

2

y z =

−2

5

0

.

a. v + w b. 3v c. − 3w d. 3v + 2d− 3w

2. Ejecutar las operaciones indicadas con las matrices A =

1 2

−1 −3

0 1

y B =

−2 −2

3 1

1 1

y z =

−2

5

0

.

a. A+B b. A−B c. − 3A d. − 3A+ 2B

Sean v, w y z vectores en Rn y α y β ∈ R, demuestre lo siguiente:

1.3. Producto de matrices

Comenzaremos la seccion con las definiciones de producto interno de vectores y transpuesta de una matriz,

las cuales no permitiran definir el producto de matrices.

Definicion 1.8. Sean x =

x1

...

xn

y y =

y1...

yn

vectores de n componentes, definimos el producto interno o

producto escalar de los vectores x y y, denotado por x · y, por la formula

x · y = x1y1 + · · ·+ xnyn =n∑i=1

xiyi.

Definicion 1.9. Sea A =

a11 · · · a1n

.... . .

...

am1 · · · amn

una matriz de tamano m× n, definimos la matriz transpuesta de

A, denotada por At, como la matriz que se obtiene al intercambiar las filas y las columnas de A, esto es:

At =

a11 · · · am1

.... . .

...

a1n · · · amn

Ahora pasemos a definir el producto de matrices.

Page 22: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 17

Definicion 1.10. (Producto de matrices) Sea A =

a11 · · · a1n

.... . .

...

am1 · · · amn

una matriz de tamano m × n y B =

b11 · · · b1q...

. . ....

bn1 · · · bnq

de tamano n× q. Definimos el producto A ·B como la matriz A ·B de tamano m× q dada por

AB =

c11 · · · c1q...

. . ....

cm1 · · · cmq

donde

cij =n∑k=1

aikbkj = ai1b1j + ai2b2j + · · ·+ ainbnj

para i = 1, . . . ,m y j = 1, . . . , q.

La ij-esima entrada de la matriz AB es la suma del producto de las entadas en la fila i de A por las entradas

de la columna j de B:

a11 · · · a1n

.... . .

...

ai1 · · · ain...

. . ....

am1 · · · amn

c11 · · · c1j · · · c1q...

. . ....

. . ....

cn1 · · · cnj · · · cnq

Este producto coincide con el producto escalar(Ai)t · Bj donde Ai es la i-esima fila de A y Bj es la j-esima

columna de B.

Ejemplo 1.12. Calcular el producto AB donde A =

1 −1 0

2 2 −3

y B =

2 0

−2 1

1 0

.

Page 23: 64806112 Algebra Lineal Matlab

18

Solucion Vamos a calcular cada una de las entradas cij de la matriz AB:

c11 =(A1)t ·B1 =

[1 −1 0

]t·

2

−2

1

=

1

−1

0

·

2

−2

1

= 2 + 2 + 0 = 4,

c12 =(A1)t ·B2 =

[1 −1 0

]t·

0

1

0

=

1

−1

0

·

0

1

0

= 0− 1 + 0 = −1,

c21 =(A2)t ·B1 =

[2 2 −3

]t·

2

−2

1

=

2

2

−3

·

2

−2

1

= 4− 4− 3 = −3,

c22 =(A2)t ·B2 =

[2 2 −3

]t·

0

1

0

=

2

2

−3

·

0

1

0

= 0 + 2 + 0 = 2,

De estos resultados tenemos

AB =

c11 c12

c21 c22

=

4 −1

−3 2

.

Ejemplo 1.13. (MatLab) Sean A =

1 −1 0

2 2 −3

y B =

2 0

−2 1

1 0

las matrices del ejemplo anterior,

podemos calcular el producto de matrices en MatLab con el comando >> A∗B como se muestra a continuacion:

>> A = [1,−1, 0; 2, 2,−3], B = [2, 0;−2, 1; 1, 0], C = A ∗B, D = B ∗A

C=4 −1

−3 2D=

2 −2 0

0 4 −3

1 −1 0

El producto de matrices no es en general conmutativo pero si satisface la asociatividad.

Teorema 1.7. Sean A, B y C matrices de tamanos m× n, n× p y p× q, respectivamente. Entonces se tiene

que

A(BC) = (AB)C.

Demostracion. Sean aij , bij y cij las entradas de las matrices A, B y C, respectivamente, y sean dij y eij las

entradas de las matrices AB y BC, respectivamente. Por definicion del producto de matrices tenemos que

dij =n∑k=1

aikbkj y eij =p∑

h=1

bihchj .

Page 24: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 19

Ahora, sean fij y gij las entradas de las matrices A(BC) y (AB)C, respectivamente. Entonces

fij =n∑k=1

aikekj =n∑k=1

aik

p∑h=1

bkhchj =n∑k=1

p∑h=1

aikbkhchj y (1.3)

gij =p∑

h=1

dihchj =p∑

h=1

n∑k=1

aikbkhchj =n∑k=1

p∑h=1

aikbkhchj (1.4)

De las ecuaciones (1.3) y (1.4) tenemos que (AB)C = A(BC).

El producto de matrices cuadradas satisface otras propiedades importantes, entre ellas la existencia de una

matriz neutra bajo el producto, a la cual se le llama la matriz identidad y se denota por In. Esta matriz se

define por In =

1 · · · 0...

. . ....

0 · · · 1

, es decir, la matriz identidad es la matriz cuyas entradas en la diagonal principal

son uno y ceros por fuera esta. Listamos las propiedades a continuacion.

Teorema 1.8. Sean A y C matrices de tamanos m× n y n× q respectivamente, entonces se tiene lo siguiente

1. ImA = A y AIn = A. En particular si A es una matriz cuadrada de tamano n×n entonces AIn = InA = A.

2. OqmA = Oqn y AOnq = Omq para cualquier q = 1, 2, 3, . . . . En particular si A es una matriz cuadrada de

tamano n× n entonces AOnn = OnnA = Onn.

3. (A+B)C = AC +BC, donde B es una matriz de tamano m× n.

4. A(B + C) = AB +AC, donde B es una matriz de tamano n× q.

A continuacion listamos otras propiedades del producto de matrices que nos van a ser muy utiles especialmente

para simplificar algunas demostraciones en los capıtulos.

Otras propiedades del producto de matrices A continuacion listamos tres propiedades, que aunque parecen

no tener mucho sentido, seran muy utiles en muchas demostraciones en el resto del libro.

Lema 1.9. Sean A =

A1

...

Am

una matriz de tamano m × n donde A1, . . . , Am son las filas de A, B =

[B1 · · · Bq

]de tamano n × q donde B1, . . . , Bq son las columnas de B y x =

x1

...

xq

un vector columna,

entonces

1. Las columnas del producto AB son los vectores AB1, . . . , ABq, es decir

AB =[AB1 · · · ABq

].

Page 25: 64806112 Algebra Lineal Matlab

20

2. las filas del producto AB son los vectores fila A1B, . . . , AmB, es decir AB =

A1B

...

AmB

.

3. El producto Bx es el vector x1B1 + · · · + xqBq. Es decir, el vector Bx es una combinacion lineal de las

columnas de B con coeficientes tomados de x.

Ejemplo 1.14. Sean A =

1 −3

4 −1

, B =

1 0 3

2 −1 1

y x =

2

−3

1

. El producto AB se puede ver de la

siguientes formas

AB =

[1 −3]B[

4 −1]B

y

AB =

A 1

2

A

0

−1

A

3

1

=

1

1

4

+ 2

−3

−1

0

1

4

− 1

−3

−1

3

1

4

+ 1

−3

−1

=

−5 3 0

2 1 11

.El producto Bx es una combinacion de las columnas de B:

Bx = 2

1

2

− 3

0

−1

+ 1

3

1

=

5

8

.El producto de matrices sirve para establecer otra coneccion entre matrices y sistemas de ecuaciones lineales. Sea

a11x1 + · · ·+ a1nxn = b1...

am1x1 + · · ·+ amnxn = bm

un sistema de ecuaciones lineales, entonces por definicion del producto de matrices

tenemos que este sistema es equivalente a la ecuacion matricial Ax = b donde A =

a11 · · · a1n

.... . .

...

am1 · · · amn

, x =

x1

...

xn

y b =

b1...

bm

. En lo que sigue del libro usaremos la ecuacion matricial Ax = b en lugar del sistema de ecuaciones.

Finalizamos la seccion con el siguiente resultado

Teorema 1.10. Sea A una matriz de tamano m × n y A′ su forma escalonada reducida. Entonces Ax = 0 si

y solo si A′x = 0, es decir, x es una solucion al sistema homogeneo Ax = 0 si y solo si x es una solucion al

sistema A′x = 0.

Page 26: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 21

Demostracion. Si A =

a11 · · · a1n

.... . .

...

am1 · · · amn

, entonces el sistema es equivalente a

a11x1 + · · ·+ a1nxn = 0...

am1x1 + · · ·+ amnxn = 0

el

cual se puede resolver aplicando las operaciones elementales de fila a la matriz aumentada[A 0

]. Si aplicamos

operaciones hasta llegar a la forma escalonada reducida obtenemos la matriz[A′ 0

], la cual nos da las soluciones

al sistema A′x = 0. Ahora como las operaciones elementales son reversibles, comenzando con el sistema A′x = 0,

podemos llegar al sistema Ax = 0. Por tanto Ax = 0 si y solo si A′x = 0

1.4. Inversa de una matriz

Definicion 1.11. Sea A una matriz cuadrada de tamano n×n, decimos que A es invertible si existe una matriz

B de tamano n× n tal que AB = BA = In.

Ejemplo 1.15. La matriz A =

2 1

1 1

es invertible ya que el producto

A

1 −1

−1 2

=

2 1

1 1

1 −1

−1 2

=

1 0

0 1

= I2.

Ejemplo 1.16. No toda matriz tiene inversa, por ejemplo, si la matriz A =

1 1

0 0

tuviera una inversa,

entonces existiria una matriz B =

a c

b d

tal que AB = BA = I2. Sin embargo AB =

a+ b c+ d

0 0

entonces

tendriamos que

a+ b c+ d

0 0

= I2 =

1 0

0 1

por tanto 0=1 lo cual es una contradccion y A no puede ser

invertible.

Las matrices inversas satisfacen las siguientes propiedades.

Lema 1.11. Sea A una matriz n× n una matriz invertible, entonces la inversa es unica.

Demostracion. Sean B y C matrices inversas de A, entonces tenemos que

AB = BA = In y AC = CA = In.

Entonces tenemos que:

B = BIn = B(AC) = (BA︸︷︷︸In

)C = InC = C.

Notacion 2. Como la inversa de una matriz invertible es unica, entonces de ahora en adelante denotaremos

la inversa de A por A−1.

Page 27: 64806112 Algebra Lineal Matlab

22

Teorema 1.12. Sean A y B matrices de tamanos n× n, entonces:

1. Si A y B son invertibles entonces AB es invertible y (AB)−1 = B−1A−1.

2. A es invertible si y solo si At es invertible y (At)−1 =(A−1

)t.Ejemplo 1.17. Sean A =

1 −1 3

1 −2 2

2 0 2

y B =

1 −1 2

0 0 1

1 −2 2

, de acuerdo al teorema anterior hay dos maneras

de calcular (AB)−1, las cuales son multiplicar A y B y despues calcular su inversa, o calcular A−1 y B−1 y

multiplicarlas. Aca exhibimos los calculos en MatLab

>> A = [1 − 1 3; 1 − 1 2; 2 0 2], B = [1 − 1 1; 0 0 1; 2 − 1 2], C = inv(A ∗B)

C =1 0 −1

3 −3 −1

1 −2 1/2>> A = [1 − 1 3; 1 − 1 2; 2 0 2], B = [1 − 1 1; 0 0 1; 2 − 1 2], D = inv(B) ∗ inv(A)

D =1 0 −1

3 −3 −1

1 −2 1/2Notese que C = D.

El teorema tambien nos dice que hay dos maneras de calcular la inversa de At, una de forma directa y la otra

se obitene al transponer A−1

>> A = [1 − 1 3; 1 − 1 2; 2 0 2], D = transpose(inv(A))

D =−1 −1 1

1 2 −1

1/2 1/2 0Se obtiene lo mismo si se calcula de la siguiente forma

>> E = inv(transpose(A))

E =−1 −1 1

1 2 −1

1/2 1/2 0

Si Ax = b es un sistema de ecuaciones con A invertible, entonces el sistema tiene solucion unica y esta es facıl

de calcular como se muestra a continuacion.

Teorema 1.13. Sea Ax = b un sistema de ecuaciones lineales de n ecuaciones con n incognitas. Si A es

invertible entonces el sistema tiene solucion unica y esta esta dada por x = A−1b.

Page 28: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 23

Ejemplo 1.18. (MatLab) Resuelva el sistema lineal

x− y + 3z = 2

x− 2y + 2z = 1

2x + 2z = 0

.

Solucion El sistema es equivalente a la ecuacion Ax = b con A =

1 −1 3

1 −2 2

2 0 2

y b =

2

1

0

y de acuerdo al

teorema anterior la solucion esta dada por x = A−1b la cual calculamos con MatLab

>> A=[1 -1 3;1 -2 2;2 0 2]; b=[2;1;0]; x=inv(A)*b

x =−1

0

1Entonces la solucion al sistema esta dad por x = −1, y = 0 y z = 1.

1.5. Matrices Elementales

Definicion 1.12. Sea E una matriz de tamano n× n, decimos que E es una matriz elemental si E se obtiene

de la identidad al aplicar una operacion elemental de fila.

Ejemplo 1.19. Las siguientes matrices son matrices elementales:

A =

0 1 0

1 0 0

0 0 1

, B =

1 2 0

0 1 0

0 0 1

y C =

1 0 0

0 −3 0

0 0 1

.Cada una de estas matrices se obtiene al aplicar una operacion sobre la matriz identidad, como se muestra a

conitunacion: 1 0 0

0 1 0

0 0 1

F1 ↔ F2

0 1 0

1 0 0

0 0 1

= A

1 0 0

0 1 0

0 0 1

2F2 + F1 → F1

1 2 0

0 1 0

0 0 1

= B

1 0 0

0 1 0

0 0 1

−3F2 → F2

1 0 0

0 −3 0

0 0 1

= C

Notacion 3. Como hay tres tipos diferentes de operaciones elementales, hay un numero igual de tipos de

matrices elementales entonces usaremos la siguiente notacion.

Page 29: 64806112 Algebra Lineal Matlab

24

Eij denotara la matriz elemental que se obtiene al intercambiar las filas i y j de la matriz identidad.

Eij(c) denotara la matriz que se obtiene al sumar c veces la fila i a la fila j de la matriz identidad.

Ei(c) la matriz que se obtiene al multiplicar por la constante c la fila i de la matriz identidad.

Ejemplo 1.20. En el ejemplo anterior tenemos que A = E12, B = E21(2) y C = E2(−3).

Las operaciones elementales de fila son reversibles, es decir, al aplicar una operacion elemental de fila, siempre

se puede aplicar otra operacion elemental que deshaga la operacion aplicada. Esto se muestra en le siguiente

ejemplo.

Ejemplo 1.21. Para ilustrar la reversibilidad de las operaciones elementales consideremos la matriz A =0 1 3

2 0 2

−3 1 0

, si intercambiamos las filas 1 y 2 de esta matriz y aplicaramos nuevamente la misma operacion,

obtenemos la matriz orginal como se muestra a continuacion0 1 3

2 0 2

−3 1 0

F1 ↔ F2

2 0 2

0 1 3

−3 1 0

F1 ↔ F2

0 1 3

2 0 2

−3 1 0

En general, si se intercambian dos filas de una matriz, la operacion se puede revertir al volver a intercambiarlas

una vez mas. Esto a la vez nos dice que la matriz elemental Eij, asociada a esta operacion de intercambio de

dos filas, es invertible y es igual a su propia inversa, esto es E−1ij = Eij .

Volviendo a la matriz A, si multiplicamos la fila 2 por 1/2 y despues multiplicamos la misma fila por 2 obtenemos

la matriz original como se muestra a continuacion0 1 3

2 0 2

−3 1 0

12F2 → F2

0 1 3

1 0 1

−3 1 0

2F2 → F2

0 1 3

2 0 2

−3 1 0

En general, si se multiplica una fila de una matriz por una constante c 6= 0, la operacion se puede revertir al

volver a multiplicar la misma fila de la nueva matriz por la constante1c

. Esto a la vez nos dice que la matriz

elemental Ei(c), asociada a esta operacion de multiplicar la fila i por una constante c 6= 0, es invertible y su

inversa esta dada por Ei(c)−1 = Ei

(1c

).

Una vez mas regresamos a la matriz A, si le sumaramos12

de la fila 2 a la fila 1 y despues le sumaramos−12

de la fila 2 a la fila 1 obtenemos la matriz original como se muestra a continuacion0 1 3

2 0 2

−3 1 0

12F2 + F1 → F1

1 1 4

2 0 2

−3 1 0

−12 F2 + F1 → F1

0 1 3

2 0 2

−3 1 0

En general, si se le suma c veces la fila i de una matriz a la fila j, la operacion se puede revertir al volver a sumar

−c veces la fila i a la fila j. Esto una vez mas nos dice que la matriz elemental Eij(c), asociada a esta operacion

de sumar c veces la fila i a la fila j, tambien es invertible y su inversa esta dada por Eij(c)−1 = Eij (−c) .

Page 30: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 25

De acuerdo a lo observado en el ejemplo anterior tenemos el siguiente resultado.

Teorema 1.14. Toda matriz elemental es invertible y las inversas estan dadas por

E−1ij = Eij , Eij(c)−1 = Eij(−c) y Ei(c)−1 = Ei

(1c

).

Teorema 1.15. Sea A una matriz de tamano m × n y E una matriz elemental de tamano m ×m asociada a

una operacion elemental de fila, el producto EA es la matriz que se obtiene al aplicar la operacion elemental de

fila a la matriz A.

Al aplicar reduccion Gauss-Jordan a una matriz, por cada operacion elemental de fila, hay una matriz elemental,

la matriz que se obtiene al aplicar la operacion de fila a la matriz identidad. Como toda matriz se puede reducir

a una forma escalonada reducida, entonces se tiene el siguiente teorema.

Teorema 1.16. Toda matriz se puede expresar como el producto de un numero finito de matrices elementales

por una matriz en forma escalonada reducida. Mas concretamente, si A es una matriz de tamano m×n, existen

matrices elementales E1, . . . , Ek todas de tamano m×m y una matriz escalonada reducida A′ tal que

A = E1 · · ·EkA′.

Ejemplo 1.22. Expresar la matriz A =

1 1 0

1 1 2

2 2 2

como un producto de matrices elementales por una matriz

en forma escalonada reducida.

Solucion Necesitamos aplicar reduccion Gauss-Jordan a la matriz A indicando las matrices elementales asoci-

adas a cada operacion aplicada1 1 0

1 1 2

2 2 2

−F1+F2→F2

︸ ︷︷ ︸E12(−1)

1 1 0

0 0 2

2 2 2

−2F1+F3→F3︸ ︷︷ ︸

E13(−2)

1 1 0

0 0 2

0 0 2

12F2→F2

︸ ︷︷ ︸E2( 1

2 )

1 1 0

0 0 1

0 0 2

−2F2+F3→F3︸ ︷︷ ︸E23(−2)

1 1 0

0 0 1

0 0 0

Por el Teorema 1.15 tenemos que E23(−2)E2

(12

)E13(−2)E12(−1)A = A′ con A′ =

1 1 0

0 0 1

0 0 0

. Entonces se

tiene que

A = E12(−1)−1E13(−2)−1E2

(12

)−1

E23(−2)−1A′

= E12(1)E13(2)E2(2)E23(2)A′.

Page 31: 64806112 Algebra Lineal Matlab

26

Escribiendo las matrices de manera explicita tenemos:

A =

1 0 0

1 1 0

0 0 1

1 0 0

0 1 0

2 0 1

1 0 0

0 2 0

0 0 1

1 0 0

0 1 0

0 2 1

1 1 0

0 0 1

0 0 0

.A continuacion verificamos el resultado con MatLab

>> E1=[1 0 0;1 1 0;0 0 1]; E2=[1 0 0;0 1 0;2 0 1]; E3=[1 0 0;0 2 0;0 0 1]; E4=[1 0 0;0 1 0;0 2 1]; A′=[1 1

0;0 0 1;0 0 0]; A = E1 ∗ E2 ∗ E3 ∗ E4 ∗ b

A =1 1 0

1 1 2

2 2 2

Ahora usaremos matrices elementales para dar un criterio de invertibilidad de una matriz. Primero debemos

observar lo siguiente.

Lema 1.17. Sea A una matriz de tamano n × n en forma escalonada reducida, entonces A es invertible si y

solo si A = I.

Teorema 1.18. Sea A una matriz de tamano n × n, entonces A es invertible si y solo si A se puede escribir

como un producto de matrices elementales.

Ejemplo 1.23. Expresar la matriz A =

0 1 2

1 1 1

−1 −2 −2

y su inversa como un producto de matrices elementales.

Solucion Abajo se muestra la reduccion Gauss-Jordan de esta matriz indicando la matriz elemental asociada a

cada operacion aplicada de acuerdo a la Notacion 3

0 1 2

1 0 1

−1 −1 −2

F1↔F2

︸ ︷︷ ︸E12

1 0 1

0 1 2

−1 −1 −2

F1+F3→F3︸ ︷︷ ︸E13(1)

1 0 1

0 1 2

0 −1 −1

F2+F3→F3︸ ︷︷ ︸E23(1)

1 0 1

0 1 2

0 0 1

−F3+F1→F1

︸ ︷︷ ︸E31(−1)

1 0 0

0 1 2

0 0 1

−2F3+F2→F2

︸ ︷︷ ︸E32(−2)

1 0 0

0 1 0

0 0 1

De aquı tenemos que E32(−2)E31(−1)E23(1)E13(1)E12A = I, por tanto

A−1 = E32(−2)E31(−1)E23(1)E13(1)E12 y

A = E−112 E13(1)−1E23(1)−1E31(−1)−1E32(−2)−1

= E12E13(−1)E23(−1)E31(1)E32(2)

Page 32: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 27

Las matrices elementales tambien nos ayudan a demostrar un algoritmo para calcular la inversa de una matriz,

el cual enunciamos a continuacion.

Teorema 1.19. (Algoritmo para calcular A−1) Sea A una matriz invertible de tamano n×n, al aplicar reduccion

Gauss-Jordan a la matriz aunmentada[A I

]obtenemos la matriz

[I A−1

]. Mas aun, si B es una matriz

de tamano n × q, al aplicar reduccion Gauss-Jordan a la matriz aumentada[A B

]obtenemos la matriz[

I A−1B].

Ejemplo 1.24. (MatLab) Sea A =

0 1 2

1 1 1

−1 −2 −2

calcular A−1.

Solucion Usando MatLab para calcular la forma escalonada reducida de la matriz[A I

]obtenemos

>> AI = [0 1 2 1 0 0; 1 1 1 0 1 0;−1 − 2 − 2 0 0 1]; rref(AI)

1 0 0 0 2 1

0 1 0 −1 −2 −2

0 0 1 1 1 1

De donde se tiene que A−1 =

0 2 1

−1 −2 −2

1 1 1

.

Ejemplo 1.25. (MatLab) Sean A =

0 1 2

1 1 1

−1 −2 −2

y B =

1 2

2 3

0 1

, calcular A−1B.

Solucion De acuerdo al teorema anterior debemos encontrar la forma escalonada reducida de la matriz aumen-

tada C =[A B

]=

0 1 2 1 2

1 1 1 2 3

−1 −2 −2 0 1

, la cual calculamos usando MatLab

>> C = [0 1 2 1 2; 1 1 1 2 3;−1 − 2 − 2 0 1]; rref(C)

1 0 0 4 7

0 1 0 −5 −10

0 0 1 3 6

De acuerdo al teorema anterior A−1B =

4 7

−5 −10

3 6

.

Observacion 1.2. Si en el teorema anterior las columnas de la matriz B son los vectores b1, . . . , bq, entonces al

aplicar reduccion Gauss-Jordan a la matriz aumentada[A B

]=[A b1 · · · bq

]obtenemos la matriz

A−1B =[A−1b1 · · · A−1bq

], obteniendo soluciones simultaneas a los sistemas Ax = b1, . . . , Ax = bq.

Page 33: 64806112 Algebra Lineal Matlab

28

Ejemplo 1.26. Usar la observacion anterior para resolver los sistemas

x2 + 2x3 = 1

x1 + x2 + x3 = 2

−x1 − 2x2 − 2x3 = 0

y

x2 + 2x3 = 2

x1 + x2 + x3 = 3

−x1 − 2x2 − 2x3 = 1

.

Solucion Estos sistemas son equivalentes a las ecuaciones matriciales

Ax = b1 y Ax = b2 donde A =

0 1 2

1 1 1

−1 −2 −2

, b1 =

1

2

0

y b1 =

2

3

1

y se pueden resolver simultaneamente calculando la forma escalonada reducida de la matriz aumentada

[A b1 b2

]=

0 1 2 1 2

1 1 1 2 3

−1 −2 −2 0 1

, la cual esta dada por (ver ejemplo anterior)

1 0 0 4 7

0 1 0 −5 −10

0 0 1 3 6

y por tanto

las respectivas soluciones a los sistemas estan dadas por

x1 =

4

−5

3

y x2 =

7

−10

6

.

1.6. Inversa a la izquierda y a la derecha

Definicion 1.13. Sea A una matriz de tamano m× n,

1. decimos que A tiene inversa a la izquierda si existe una matriz L de tamano n×m tal que LA = In,

2. decimos que A tiene inversa a la derecha si existe una matriz R de tamano n×m tal que AR = Im.

Tenemos el siguiente criterio para caracterizar las matrices que tienen inversa a la derecha.

Teorema 1.20. Sea A una matriz de tamano m× n, entonces las siguientes afirmaciones son equivalentes:

1. A tiene inversa a la derecha.

2. El sistema Ax = b tiene solucion para cada b ∈ Rm.

3. rango(A) = m = # de filas de A,

4. La funcion TA : Rn −→ Rm definida por TA(x) = Ax es sobreyectiva.

Demostracion. Vamos a demostrar que 1⇔ 2, 2⇔ 3 y 2⇔ 4

“1 ⇒ 2”Si A tiene inversa a la derecha, existe R =[r1 · · · rm

]de tamano n ×m tal que AR = I, donde

r1, r2, . . . , rm son las columnas de R. Sea b = b1e1 + · · ·+ bmem ∈ Rm entonces el vector c = b1r1 + · · ·+ bmrm

Page 34: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 29

es una solucion al sistema Ax = b ya que

Ac = A(b1r1 + · · ·+ bmrm) = b1Ar1 + · · ·+ bmArm

=[Ar1 · · · Arm

]b1...

bm

= A

[r1 · · · rm

]︸ ︷︷ ︸

=R

b

= AR︸︷︷︸=I

b

= b.

“2 ⇒ 1”Supongamos que la ecuacion Ax = b tiene solucion para cada b, entonces para cada i = 1, . . . ,m, la

ecuacion Ax = ei tiene solucion. Sean r1, . . . , rm las soluciones respectivas dichas ecuaciones. Es decir,

Ar1 = e1, . . . , Arm = em.

Sea R =[r1 · · · rm

], entonces se tiene que

AR = A[r1 · · · rm

]=

[Ar1︸︷︷︸=e1

· · · Arm︸︷︷︸=em

]=[e1 · · · em

]= Im

Por tanto R es la inversa a la derecha de A.

“2⇒ 3”Supongamos que Ax = b tiene solucion para cada b y supongamos que rango(A) < m, entonces las forma

escalonada A′ de A tiene al menos una fila de ceros. Sean E1, . . . , Ek matrices elementales tal que A′ = E1 · · ·EkA

y sea b = E−1k · · ·E

−11 em entonces al aplicar reduccion Gauss-Jordan a la matriz

[A b

]usando las operaciones

elementales de fila asociadas a las matrices E1, . . . , Ek obtenemos la matriz

[E1 · · ·EkA︸ ︷︷ ︸

=A′

E1 · · ·Ekb︸ ︷︷ ︸em

]=[

A′ em

]. Como la ultima fila de A′ es de ceros, entonces el sistema es inconsistente, es decir, para b =

E−1k · · ·E

−11 em, la ecuacion Ax = b no tiene solucion, lo que contradice la hipotesis. Por tanto rango(A) = m.

“3 ⇒ 2”Si rango(A) = m entonces A′ tiene un pivote en cada fila, por tanto para todo b ∈ Rm se tiene que

la matriz[A b

]no tiene pivote en la ultima columna y ası el sistema Ax = b siempre tiene al menos una

solucion.

“2 ⇒ 4”Si la ecuacion Ax = b tiene solucion para todo b, entonces para todo b ∈ Rm, existe c ∈ Rn tal que

b = Ac = TA(c). Por tanto TA es sobre.

“4⇒ 2”Si TA es sobre, para todo b ∈ Rm, existe c ∈ Rn tal que b = TA(c) = Ac, es decir, x = c es una solucion

al sistema Ax = b.

La parte 3. de este teorema nos dice que una matriz tiene inversa a la derecha si y solo si su forma escalonada

reducida tiene un pivote en cada fila, lo cual es el criterio para determinar si una matriz tiene inversa a la

Page 35: 64806112 Algebra Lineal Matlab

30

derecha. De el teorema tambien nos ofrece un metodo calcular la inversa a la derecha, el cual esta casi explıcito

en la demostracion de 1 ⇒ 2, ya que en ese numeral se prueba que las columnas r1, . . . , rm de la inversa a la

derecha R son las respectivas soluciones a las ecuaciones Ax = e1, Ax = e2, . . . , Ax = en como se ilustra en el

siguiente ejemplo.

Ejemplo 1.27. Determine si la matriz A =

1 2 2

−1 0 4

tiene inversa a la derecha y en caso afirmativo

calcular una inversa a la derecha de A.

Solucion Como la forma escalonada de reducida de A es la matriz A′ =

1 0 −4

0 1 3

se tiene que rango(A) =

2 = # de filas, por tanto A tiene inversa a la derecha.

Para encontrar la inversa a la derecha de A debemos encontrar soluciones a las ecuaciones Ax = e1 y

Ax = e2. Se puede verificar que soluciones particulares a estas ecuaciones estan dadas por r1 =

0

1/2

0

y

r2 =

0

−1/4

1/4

y por tanto una inversa a la derecha de A esta dada por

R =[r1 r2

]=

0 0

1/2 −1/4

0 1/4

El siguiente teorema carateriza las matrices con inversa a la izquierda, las propiedades son analogas a las del

teorema anterior para la inversa a derecha.

Teorema 1.21. Sea A una matriz de tamano m× n, entonces las siguientes afirmaciones son equivalentes:

1. A tiene inversa a la izquierda.

2. El sistema Ax = b tiene a lo sumo una solucion para cada b ∈ Rm.

3. La funcion TA : Rn −→ Rm definida por TA(x) = Ax es inyectiva.

4. El sistema Ax = θn tiene solucion unica.

5. rango(A) = n = # de columnas de A.

Demostracion. Para este teorema demostraremos las equivalencias en el orden 1⇒ 2, 2⇒ 3 3⇒ 4, 4⇒ 5 y

5⇒ 1.

“1⇒ 2”Supongamos que A tiene inversa a la izquierda L , y sean v y w soluciones al sistema Ax = b. Entonces

v = Iv = L Av︸︷︷︸=b

= L b︸︷︷︸=Aw

= LA︸︷︷︸=I

w = Iw = w

Page 36: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 31

Como v = w el sistema tiene a lo sumo una solucion.

“2 ⇒ 3”Supongamos que Ax = b tiene a lo sumo una solucion para todo b y que TA(v) = TA(w), entonces

Av = Aw. Sea b = Av, entonces la ecuacion Ax = b tiene dos soluciones v y w, entonces v = w.

“3⇒ 4”Supongamos que TA es inyectiva. Entonces si v es tal que Av = θ se tiene que θ = Av = TA(v) y como

TA(θ) = Aθ = θ entonces TA(v) = TA(θ) y como TA es inyectiva, v = θ.

4⇒ 5 Supongamos que el sistema Ax = θ tiene solucion unica, entonces por el Teorema 1.2 la forma escalonada

reducida de la matriz[A θ

]=[A′ θ

], donde A′ es la forma escalonada reducida de A, tiene un pivote

en todas la columnas excepto la ultima, entonces A′ tiene un pivote en cada columna y por tanto rango(A) = n.

“5⇒ 1”Supongamos que rango(A) = n, entonces la forma escalonada A′ de A tiene un pivote en cada columna,

por tanto

A′ =

1 0 · · · 0

0 1 · · · 0...

.... . .

...

0 0 · · · 1

0 0 · · · 0...

.... . .

...

0 0 · · · 0

.

Sean E1, . . . , Ek matrices elementales tal que A = E1 · · ·Ek ·A′ y sea

B = E−1k · · ·E

−11 , entonces A′ = BA. Sean b1, . . . , bm las filas de B, es decir B =

b1

...

bm

. Como A′ = BA

tenemos lo siguiente

A′ = BA =

b1

...

bm

A =

b1A

...

bmA

.

Ahora tomemos C =

b1

...

bn

la matriz formada con las primeras n filas de B, veamos que C es la matriz inversa

a la izquierda de A.

CA =

b1

...

bn

A =

b1A

...

bnA

= primeras n filas de A′ =

1 0 · · · 0

0 1 · · · 0...

.... . .

...

0 0 · · · 1

= I

Este teorema nos da una forma de determinar si una matriz tiene inversa a la izquierda (se calcula el rango y

Page 37: 64806112 Algebra Lineal Matlab

32

la matriz tiene inversa a la izquierda si y solo si el rango es igual al numero de columnas). El teorema tambien

provee un algorimo para calcular dicha matriz, el cual describimos a continuacion

1. Se aplica reduccion Gauss-Jordan a la matriz

2. Se calculan las matrices elementales E1, . . . , Ek asociadas a cada una de las operaciones elementales apli-

cadas en el paso 1.

3. Se calcula el producto Ek · · ·E1.

4. La matriz L formada por las primeras n filas de la matriz Ek · · ·E1 es la inversa a la izquierda.

Ejemplo 1.28. (MatLab) Para cada una de las matrices abajo, determine si tienen inversa a la izquierda y

encuentrela en caso afirmativo.

a. A =

2 −1

−4 2

−2 1

b. B =

1 −1 0

2 −1 1

c. C =

1 −1

0 1

2 1

.Solucion a. Usando MatLab para calcular el rango de la matriz A obtenemos

>> A = [2 − 1;−4 2;−2 1], r = rank(A)

r = 1

Como rango(A) = 1 < # de columnas, entonces la matriz no tiene inversa a la izquierda.

b. La matriz B tiene 2 filas, de donde rango(B) ≤ 2 < 3 = # de columnas. Por tanto B no tiene inversa a la

izquierda.

c. El rango de esta matriz C es dos, entonces C tiene inversa a la izquierda. Para calcular una inversa a la

izquierda debemos aplicar el procedimiento descrito arriba,

1. apliquemos reduccion Gauss-Jordan a la matriz C

1 −1

0 1

2 1

−2F1+F3→F3︸ ︷︷ ︸

E1

1 −1

0 1

0 3

F2+F1→F1

︸ ︷︷ ︸E2

1 0

0 1

0 3

−3F2+F3→F3︸ ︷︷ ︸

E3

1 0

0 1

0 0

Donde E1, E2 y E3 son las matrices elementales asociadas a cada una de las operaciones ejecutadas.

2. Aplicamos las operaciones efectuadas en la reduccion a la matriz identidad 3 × 3. Esto es equivalente a

multiplicar las matrices elementales asociadas a las operaciones.1 0 0

0 1 0

0 0 1

−2F1+F3→F3

1 0 0

0 1 0

−2 0 1

︸ ︷︷ ︸

E1

F2+F1→F1

1 1 0

0 1 0

−2 0 1

︸ ︷︷ ︸

E2E1

Page 38: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 33

−3F2+F3→F3

1 1 0

0 1 0

−2 −3 1

= E3E2E1.

3. La matriz L =

1 1 0

0 1 0

, obtenida al suprimir la ultima fila a la matriz E3E2E1, es una inversa a la

izquierda de C.

Hay otra forma de calcular la inversa a la izquierda de una matriz. Es facil ver que si R es una inversa a la

derecha de At entonces L = Rt es una inversa a la izquierda de A. Esto se ilustra en el siguiente ejemplo.

Ejemplo 1.29. (MatLab) Calcular una inversa a la izquierda de la matriz C =

1 −1

0 1

2 1

.

Solucion Para calcular la inversa a la derecha de Ct, necesitamos resolver las ecuaciones Ctx = e1 y Ctx = e2.

Estas soluciones las calculamos con MatLab

>> Ct = [1, 0, 2;−1, 1, 1], e1 = [1; 0], e2 = [0; 1], r1 = A\e1, r2 = A\e2

r1 =1/3

0

1/3r2 =−2/3

0

1/3

Entonces una inversa a la derecha de Ct es la matriz R =

1/3 −2/3

0 0

1/3 1/3

, por tanto una inversa a la izquierda

de C es la matriz L = Rt =

1/3 0 1/3

−2/3 0 1/3

.

De estos resultados obtenemos la siguiente caracterizacion para matrices invertibles.

Corolario 1.22. (Caracterizacion de una matriz invertible) Sea A una matriz cuadrada de tamano n × n,

entonces las siguientes afirmaciones son equivalentes:

1. A es invertible.

2. A tiene inversa a la izquierda.

3. El sistema Ax = b tiene a lo sumo una solucion para cada b ∈ Rn.

4. La funcion TA : Rn −→ Rn definida por TA(x) = Ax es inyectiva.

Page 39: 64806112 Algebra Lineal Matlab

34

5. El sistema Ax = θn tiene solucion unica.

6. rango(A) = n = # de columnas de A=# de filas deA.

7. A tiene inversa a la derecha.

8. El sistema Ax = b tiene solucion para cada b ∈ Rm.

9. La funcion TA : Rn −→ Rn definida por TA(x) = Ax es sobreyectiva.

10. La funcion TA : Rn −→ Rn definida por TA(x) = Ax es biyectiva.

11. At es invertible.

12. A es un producto de matrices elementales.

Demostracion. Las condiciones 1. y 12 son equivalentes por el Teorema 1.12, las condiciones 1. y 13. son

equivalentes por el Teorema 1.18, las condiciones 2. a 6. son equivalentes por el Teorema 1.21 y las condiciones

6. a 10. son equivalentes por el Teorema 1.20. Es suficiente demostrar que 1⇔ 2, 1⇔ 10 y 1⇔ 11.

“1⇒ 2”Si A es invertible, entonces A−1A = I y por tanto A−1 es inversa a la izquierda de A.

“2⇒ 1”Si A tiene inversa a la izquierda, entonces existe B tal que BA = I y por el Teorema 1.21, rango(A) =

n = # de columnas. Como A es cuadrada entonces # de filas=# de columnas=rango(A), entonces por el

Teorema 1.20, A tiene una inversa a la derecha C, de donde AC = I, entonces se tiene que

B = BI = B(AC) = (BA)C = IC = C

Entonces BA = AB = I y por tanto A es invertible y B = A−1.

“1⇒ 11”Supongamos que A es invertible, veamos que la funcion TA−1 definida por TA−1(B) = A−1B es la

inversa de T

TA(TA−1(B)) = TA(A−1B) = A(A−1B) = B y

TA−1(TA(B)) = TA−1(AB) = A−1(AB) = B

Por tanto TA−1 = T−1A .

“1⇒ 11”Si T es biyectiva es en particular inyectiva y por el Teorema 1.21 A tiene inversa a la izquierda y por

la parte 2. de este teorema la matriz A es invertible.

Page 40: 64806112 Algebra Lineal Matlab

Capıtulo 2

Espacios Vectoriales

2.1. Definicion y Ejemplos

En el capıtulo anterior se dieron ejemplos, sin mencionarlo, de espacios vectoriales. Mas concretamente en los

Teorema 1.5 y 1.6 se mostro que el conjunto de matrices de tamano m × n y el conjunto de vectores columna

Rn son espacios vectoriales. Solo nos falta enunciar la definicion y ver que estos conjuntos la satisfacen. En

este capıtulo solo trabajaremos sobre Rn y los teoremas seran acerca de este conjunto, en el Capıtulo 3 se

demostraran los teoremas generales.

Definicion 2.1. Sea V un conjunto no vacio con dos operaciones + : V × V → V y · : R × V → V , decimos

que V es un espacio vectorial sobre R si para todo x, y y z ∈ V y para todo α y β ∈ R se cumple lo siguiente:

1. (x+ y) + z = x+ (y + z),

2. existe θ ∈ V tal que θ + x = x+ θ = x, (A θ se le llama el neutro de V )

3. existe w tal que x+ w = w + x = θ, (A w se le llama el inverso aditivo de x)

4. x+ y = y + x,

5. α · (x+ y) = α · x+ α · y,

6. (α+ β) · x = αx+ β · x,

7. α · (β · x) = (αβ) · x,

8. 1 · x = x.

Ejemplo 2.1. 1. El conjunto de vectores en Rm es un espacio vectorial, por el Teorema 1.6.

2. El conjunto Mmn de matrices m× n es un espacio vectorial, esto por el Teorema 1.5

3. Sea Pn = {a0 + a1t+ · · ·+ antn | a0, . . . , an ∈ R} el conjunto de polinomios de grado a lo sumo n en la

indeterminada t, este conjunto es un espacio vectorial sobre R bajo las operaciones:

a0 + a1t+ · · ·+ antn + b0 + b1t+ · · ·+ bnt

n = (a0 + b0) + (a1 + b1)t+ · · ·+ (an + bn)tn y

α · (a0 + a1t+ · · ·+ antn) = α · a0 + α · a1t+ · · ·+ α · antn.

35

Page 41: 64806112 Algebra Lineal Matlab

36

Veamos que estas operaciones satisfacen todas las propiedades de la

definicion de espacio vectorial.

Sean p1 = a0 + a1t+ · · ·+ antn, p2 = b1t+ · · ·+ bnt

n y p3 = c0 + c1t+ · · ·+ cntn ∈ Pn, α, β ∈ R,

1.

(p1 + p2) + p3 =(a0 + a1t+ · · ·+ antn + b0 + b1t+ · · ·+ bnt

n)

+ c0 + c1t+ · · ·+ cntn

=(a0 + b0) + (a1 + b1)t+ · · ·+ (an + bn)tn

+ c0 + c1t+ · · ·+ cntn

(definicion de suma en Pn)

=((a0 + b0) + c0) + ((a1 + b1) + c1)t+ . . .

· · ·+ ((an + bn) + cn)tn

(definicion de suma en Pn)

=(a0 + (b0 + c0)) + (a1 + (b1 + c1))t+ . . .

· · ·+ (an + (bn + cn))tn

(asociatividad en R)

=a0 + a1t+ · · ·+ antn + (b0 + c0) + (b1 + c1)t+ . . .

· · ·+ (bn + cn)tn

(definicion de suma en Pn)

=a0 + a1t+ · · ·+ antn

+ (b0 + b1t+ · · ·+ bntn + c0 + c1t+ · · ·+ cnt

n)

(definicion de suma en Pn)

=p1 + (p2 + p3)

2. Sea θ = 0 el polinomio constante = 0, entonces

p1 + θ = a0 + a1t+ · · ·+ antn + 0 = a0 + a1t+ · · ·+ ant

n = p1

3. Sea w = −a0 − a1t+ · · · − antn entonces

w + p1 = −a0 − a1t+ · · · − antn + a0 + a1t+ · · ·+ antn+

= (−a0 + a0) + (−a1 + a1)t+ · · ·+ (−an + an)tn

= 0 = θ.

Page 42: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 37

4.

p1 + p2 = a0 + a1t+ · · ·+ antn + b0 + b1t+ · · ·+ bnt

n

= (a0 + b0) + (a1 + b1)t+ · · ·+ (an + bn)tn

(Definicion de suma en Pn)

= (b0 + a0) + (b1 + a1)t+ · · ·+ (bn + an)tn

(Conmuatitividad en R)

= b0 + b1t+ · · ·+ bntn + a0 + a1t+ · · ·+ ant

n

(Definicion de suma en Pn)

= p2 + p1

5.

α · (p1 + p2) = α · (a0 + a1t+ · · ·+ antn + b0 + b1t+ · · ·+ bnt

n)

= α · ((a0 + b0) + (a1 + b1)t+ · · ·+ (an + bn)tn)

definicion de suma en Pn

= α(a0 + b0) + α(a1 + b1)t+ · · ·+ α(an + bn)tn

definicion de producto por escalar en Pn

= (αa0 + αb0) + (αa1 + αb1)t+ · · ·+ (αan + αbn)tn

distributividad en R

= αa0 + αa1t+ · · ·+ αantn + αb0 + αb1t+ · · ·+ αbnt

n

definicion de suma en Pn

= α · (a0 + a1t+ · · ·+ antn) + α · (b0 + b1t+ · · ·+ bnt

n)

definicion de producto por escalar en Pn

= α · p1 + α · p2

Page 43: 64806112 Algebra Lineal Matlab

38

6.

(α+ β) · p1 = (α+ β) · (a0 + a1t+ · · ·+ antn)

= (α+ β)a0 + (α+ β)a1t+ · · ·+ (α+ β)antn

definicion de producto por escalar en Pn

= (αa0 + βa0) + (αa1 + βa1)t+ · · ·+ (αan + βan)tn

ditributividad en R

= αa0 + αa1t+ · · ·+ αantn + βa0 + βa1t+ · · ·+ βant

n

definicion de suma en Pn

= α · (a0 + a1t+ · · ·+ antn) + β · (a0 + a1t+ · · ·+ ant

n)

definicion de producto por escalar en Pn

= α · p1 + β · p1

7.

(αβ) · p1 = (αβ) · (a0 + a1t+ · · ·+ antn)

= (αβ)a0 + (αβ)a1t+ · · ·+ (αβ)antn

definicion de producto por escalar en Pn

= α(βa0) + α(βa1)t+ · · ·+ α(βan)tn

asociatividad en R

= α · (βa0 + βa1t+ · · ·+ βantn)

definicion de producto por escalar en Pn

= α · (β · (a0 + a1t+ · · ·+ antn))

definicion de producto por escalar en Pn

= α · (β · p1)

8.

1 · p1 = 1 · (a0 + a1t+ · · ·+ antn) = 1 · a0 + 1 · a1t+ · · ·+ 1 · antn

= a0 + a1t+ · · ·+ antn

= p1.

Los espacios vectoriales satisfacen las siguientes propiedades que se desprenden de la definicion.

Teorema 2.1. Sea V un espacio vectorial, x ∈ V y α ∈ R entonces

1. El neutro es unico, es decir, si θ y θ′ son neutros entonces θ = θ′,

Page 44: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 39

2. el inverso aditivo de x es unico, es decir, si w y w′ son inversos aditivos de x entonces w = w′, (dada la

unicidad del inverso aditivo de x, este sera denotado por −x)

3. α · θ = θ, 4. 0 · x = θ,

5. −1 · x = −x, 6. Si α · x = θ entonces α = 0 o x = θ.

Demostracion. 1. θ = θ + θ′ = θ′ + θ = θ′.

2. w = w + θ = w + (x+ w′) = (w + x) + w′ = θ + w′ = w′.

3. αθ + αθ = α(θ + θ) = αθ, sumand el inverso aditivo de αθ a ambos lados tenemos: αθ = θ..

4. 0x = (0 + 0)x = 0x+ 0x, sumando el inverso aditivo de 0x a ambos lados tenemos que θ = 0x.

5. −1x+x = −1x+1x = (−1+1)x = 0x = θ. como el inverso aditivo de x es unico, tenemos que −1x = −x.

6. Supongamos que αx = θ y que α 6= 0. Si multiplicamos a ambos lados por1α

tenemos que

(αx)︸ ︷︷ ︸=

1αα︸︷︷︸

=1

x

=1αθ︸︷︷︸

⇒ 1x︸︷︷︸=x

= θ ⇒ x = θ

2.2. Subespacios

Definicion 2.2. Sea V un espacio vectorial y φ 6= W ⊆ V , decimos que W es un subespacio de V si W es

tambien un espacio vectorial bajo las mismas operaciones de suma y producto por escalar de V .

Ejemplo 2.2. En el Ejemplo 2.1 vimos que Pn es un espacio vectorial para to n, como Pn−1 ⊆ Pn y ambos son

espacios vectoriales, tenemos que Pn−1 es un subespacio de Pn.

Para probar que un subconjunto no vacio de un espacio vectorial V es un subespacio no es necesario demostrar

las ocho condiciones de la definicion, solo es necesario probar que este es cerrado bajo la suma y el producto

por escalar, este resultado lo presentamos a continuacion.

Teorema 2.2. Sea V un espacio vectorial y φ 6= W ⊆ V , entonces W es un subespacio de V si para todo

w,w′ ∈W y para todo α ∈ R se satisface que

1. w + w′ ∈W ,

2. αw ∈W .

Demostracion. Debemos demostrar W cumple las ocho condiciones de espacio vectorial.

Page 45: 64806112 Algebra Lineal Matlab

40

1. La asociatividad se cumple para todo v, v′ y v′′ ∈ V , entoncs en particular si estos estan en W .

2. Como W 6= Φ, existe w ∈W , entonces por hipoteses −w = (−1)w ∈W y por tanto 0 = −w + w ∈W .

3. Si w ∈W entonces por la hipotesis 2. tenemos que −w = (−1)w ∈W .

4-8. Estas propiedades se cumplen para todo w,w′ ∈ V , en particular si w,w′ ∈W .

Por tanto W es un espacio vectorial y como W ⊆ V , tenemos que W es un subespacio de V .

Ejemplo 2.3. Sea H =

x1

...

xn

∣∣∣∣ xn = 0

⊆ Rm, demuestre que H es un subespacio de Rm.

Solucion. Veamos que H satisface las condiciones 1. y 2. del Teorema 2.2. Sean

x1

...

xn

,y1...

yn

∈ H y α ∈ R,

entonces xn = 0 = yn por tantox1

...

xn

+

y1...

yn

=

x1 + y1

...

xn + yn

=

x1 + y1

...

0

∈ H y α

x1

...

xn

= α

x1

...

0

=

αx1

...

0

∈ H.

El Teorema 2.2 es muy util para verificar cuando un subconjunto es un subespacio, como en los siguientes

teoremas.

Teorema 2.3. Sean Φ 6= W1,W2 ⊆ V entonces W1 ∩W2 es un subespacio de V .

Demostracion. Como W1 y W2 son subespacios, entonces 0 ∈W1 y 0 ∈W2, por tanto 0 ∈W1 ∩W2 de donde

W1 ∩W2 6= Φ, ahora probemos las condiciones 1. y 2. del Teorema 2.2.

Sean w,w′ ∈ W1 ∩W2, entonces w,w′ ∈ W1 y w,w′ ∈ W2, luego w + w′ ∈ W1 y w + w′ ∈ W2, por tanto

w + w′ ∈W1 ∩ w2.

Sea α ∈ R, como W1 y W2 son subespacios tenemos que αw ∈W1 y αw ∈W2, por tanto αw ∈W1 ∩W2.

Concluimos que W1 ∩W2 es un subespacio de V .

Teorema 2.4. Sean Φ 6= W1,W2 ⊆ V y definamos

W1 +W2 = {w1 + w2 | w1 ∈W1 y w2 ∈W2 }

entonces W1 +W2 es un subespacio de V .

Demostracion. Esta se deja como ejercicio.

Page 46: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 41

2.3. Independencia Lineal

En esta seccion se estudiara el concepto de independencia lineal el cual nos permitira determinar cuando

un vector en un conjunto dado de vectores se puede expresar en terminos de los demas. Tambien se dara un

criterio que nos permitira determinar computacionalmente cuando un conjunto de vectores en Rm es linealmente

independiente. Se usara muy a menudo la frase combinacion lineal, la cual definimos a continuacion.

Definicion 2.3. Sea V un espacio vectorial y sean v1, . . . , vk ∈ V , una combinacion lineal de estos vectores es

una expresion de la forma

α1v1 + · · ·+ αkvk,

donde α1, . . . , αk son reales.

Definicion 2.4. Sea V un espacio vectorial y sean v1, . . . , vk ∈ V , decimos que el conjunto {v1, . . . , vk} es

linealmente independiente si α1v1 + · · ·+ αkvk = 0 implica que α1 = α2 = · · · = αk = 0.

Si el conjunto {v1, . . . , vk} no es linealmente independiente, decimos que es linealmente dependiente.

Observacion 2.1. De la definicion anterior se deprende que si el conjunto {v1, . . . , vk} es linealmente depen-

diente, entonces existen constantes α1, . . . , αk, no todas cero, talque

α1v1 + · · ·+ αkvk = 0. (2.1)

Lo que es equivalente a decir que alguno de los vi se puede escribir como una combinacion lineal de los demas,

esto ya que al menos uno de los αi 6= 0, por tanto despejando por vi en (2.1) tenemos

vi =−α1

αiv1 − · · · −

αi−1

αivi−1 −

αi+1

αivi+1 − · · · −

αkαivk.

Ejemplo 2.4. 1. El conjunto

v1 =

1

−1

2

, v2 =

2

3

0

, v3 =

−1

−9

6

es LD ya que v3 = 3v1 − 2v2 de donde

3v1 − 2v2 − v3 = 0.

2. El conjunto de vectores

v1 =

1

1

0

, v2 =

0

1

1

, v3 =

1

0

1

es LI ya que si existieran constantes α1, α2, α3

tal que α1v1 + α2v2 + α3v3 = 0 entonces tendriamos que0

0

0

= α1v1 + α2v2 + α3v3 = α1

1

1

0

+ α2

0

1

1

+ α3

1

0

1

=

α1

α1

0

+

0

α2

α2

+

α3

0

α3

=

α1 + α3

α1 + α2

α2 + α3

Page 47: 64806112 Algebra Lineal Matlab

42

De donde

α1 + α3 = 0

α1 + α2 = 0

α2 + α3 = 0

, el cual es equivalente a la ecuacion matricial

1 0 1

1 1 0

0 1 1

α1

α2

α3

=

0

0

0

. (2.2)

Al aplicar reduccion Gauss-Jordan a la matriz

1 0 1

1 1 0

0 1 1

obtenemos la matriz identidad, luego la unica solucion

al sistema (2.2) es la trivial, α1 = 0, α2 = 0 y α3 = 0. Por tanto el conjunto {v1, v2, v3} es LI.

En Rm es facil establecer un criterio para determinar si un conjunto de vectores es LI o no. De la definicion se

sigue que un conjunto de vectores {v1, . . . , vk} ⊆ Rm es LD si existen constantes α1, . . . , αk, no todas cero tal

que α1v1 + · · ·+ αkvk = 0 pero esta ecuacion la podemos escribir matricialmente de la siguiente forma

0 = α1v1 + · · ·+ αkvk =[v1 · · · vk

]α1

...

αk

.

De donde se sigue que los vectores son LD si la ecuacion α1v1 + · · ·+ αkvk =[v1 · · · vk

]α1

...

αk

=

0...

0

tiene

soluciones no triviales, criterio que escribimos a continuacion en le siguiente teorema.

Teorema 2.5. Sea {v1, . . . , vk} ⊆ Rm y sea A =[v1 · · · vk

]la matriz cuyas columnas son los vectores

v1, . . . , vk, entonces el conjunto {v1, . . . , vk} es LI si y solo si rangoA = k = # de columnas de A.

Demostracion. El conjunto {v1, . . . , vk} es LI si y solo si las unicas constantes α1, . . . , αk tal que α1v1 + · · ·+

αkvk = 0 son α1 = · · · = αk = 0 si y solo si la unica solucion al sistema[v1 · · · vk

]︸ ︷︷ ︸

=A

α1

...

αk

=

0...

0

es el vector

α1

...

αk

=

0...

0

y por el Teorema 1.21 esto es equivalente a que rangoA = k = # de columnas de A.

En este capıtulo nos concentraremos en estudiar criterios que aplican solo para vectores en Rm, pero estos seran

generalizados a otros espacios vectoriales en la Capıtulo 3.

Observacion 2.2. Este teorema nos da un procedimiento computacional para determinar si un conjunto de

vectores es LI y si no lo son tambien nos permite encontrar la dependencia lineal entre los vectores, el cual

describimos a continuacion.

Page 48: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 43

Sea {v1, . . . , vk} un conjunto de vectores en Rm, para determinar si este conjunto es LI hacemos lo siguiente:

1. Aplicamos reduccion Gauss-Jordan a la matriz A =[v1 · · · vk

].

2. Si la forma escalonada reducida A′ de A tiene un pivote en cada fila entonces los vectores son LI, si no

entonces los vectores son LD.

3. Si los vectores son LD, entonces el sistema Ax = 0 o equivalentemente A′x = 0 tiene solucion. Si x =

α1

...

αk

es una solucion a este sistema, las constantes α1, . . . , αk satisfacen

α1v1 + · · ·+ αkvk = 0

la cual nos da una dependencia lineal entre los vectores.

Ejemplo 2.5. Determine si el conjunto de vectores es LI, si no lo es, encontrar una dependencia lineal entre

ellos.

1.

v1 =

1

1

0

, v2 =

2

1

−1

, v3 =

−1

1

2

, v4 =

0

1

1

2.

v1 =

1

1

0

, v2 =

0

1

1

, v3 =

1

0

1

Solucion. 1. Necesitamos aplicar reduccion Gauss-Jordan a la matriz

[v1 v2 v3 v4

]=

1 2 −1 0

1 1 1 1

0 −1 2 1

, cuya forma escalonada reducida esta dada por

A′ =

1 0 3 2

0 1 −2 −1

0 0 0 0

.Como rango(A) = 2 < # de columnas de A entonces los vectores son LD. Para encontrar una dependencia

lineal entre estos vectores resolvemos el sistema A′x = 0, el cual nos da las ecuaciones x1 + 3x3 + 2x4 = 0 y

x2 − 2x3 − x4 = 0 o equivalentemente

x1 = −3x3 − 2x4 x2 = 2x3 + x4,

con x3 y x4 son variables libres, entonces si hacemos x3 = x4 = 1 obtenemos la solucion particular x1 = −5,

x2 = 3 y x3 = x4 = 1, por tanto una dependencia lineal entre los vectores esta dada por

−5v1 + 3v2 + v3 + v4 = 0.

Page 49: 64806112 Algebra Lineal Matlab

44

2. En este caso necesitamos escalonar la matriz[v1 v2 v3

]=

1 0 1

1 1 0

0 1 1

, cuya forma escalonada reducida

es A′ = I y por tanto rango(A) = # de columnas de A y los vectores v1, v2 y v3 son LI.

Terminamos la seccion con un corolario que nos sera util mas adelante.

Corolario 2.6. Un conjunto de vectores linealmente independientes de Rm tiene a lo sumo m vectores.

Demostracion. Sean v1, . . . , vk ∈ Rm vectores linealmente independientes y sea A =[v1 · · · vk

]entonces

rango(A) = k, por tanto k = rango(A) ≤ # de filas=m, es decir, k ≤ m.

2.4. Conjuntos generadores

Definicion 2.5. Sea V un espacio vectorial, decimos que los vectores v1, v2, . . . , vk generan a V , si para todo

v ∈ V existen escalares α1, α2, . . . , αk tal que

v = α1v1 + · · ·+ αkvk.

Tambien diremos que V es generado por el conjunto de vectores {v1, . . . , vk}, lo cual denotaremos por V =

〈v1, . . . , vk〉. Al conjunto {v1, . . . , vk} se le llama conjunto generador.

La siguiente es una caracterizacion que sirve para determinar cuando un conjunto de vectores es un conjunto

generador de Rm.

Teorema 2.7. Sean v1, v2, . . . , vk vectores en Rm y sea A =[v1 · · · vk

]la matriz cuyas columnas son los

vectores v1, v2, . . . , vk. Entonces el conjunto {v1, v2, . . . , vk} es un conjunto generador si y solo si rango(A) =

m = # de filas de A.

Demostracion. Por definicion el conjunto {v1, v2, . . . , vk} es un conjunto generador si y solo si para todo

b ∈ Rm, existen escalares α1, . . . , αk tal que b = α1v1 + · · · + αkvk =[v1 · · · vk

]︸ ︷︷ ︸

A

α1

...

αk

= Ax donde

x =

α1

...

αk

, si y solo si la ecuacion Ax = b tiene solucion para todo b ∈ Rm y esto, por el Teorema 1.20, es

equivalente a que rango(A) = m = # de filas de A.

De este teorema se desprende un procedimiento para determinar si un conjunto de vectores es un conjunto

generador de Rm, el cual describimos a continuacion.

Procedimiento para determinar si un conjunto de vectores de Rm es un conjunto generador

Sean v1, v2, . . . , vk vectores en Rm, entonces

Page 50: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 45

1. Forme la matriz A =[v1 · · · vk

].

2. Aplicar reduccion Gauss-Jordan a A para calcular la forma escalonada reducida A′ de A.

3. Si A′ tiene un pivote en cada fila, entonces los vectores v1, v2, . . . , vk generan a Rm, de otra forma no

generan.

Ejemplo 2.6. Determine si el conjunto de vectores genera a R3,

1.

v1 =

1

2

5

, v2 =

−2

−4

−10

, v3 =

0

1

1

, v4 =

−1

0

−3

2.

v1 =

1

2

5

, v2 =

−2

−4

−9

, v3 =

0

1

1

Solucion. 1. Siguiendo los pasos indicados en el procedimiento, primero formamos la matriz A =[v1 v2 v3 v4

]=

1 −2 0 −1

2 −4 1 0

5 −10 1 −3

. Ahora calculamos la matriz escalonada reducida de A, usando MatLab obtenemos

>> A = [1 − 2 0 − 1; 2 − 4 1 0; 5 − 10 1 − 3]; rref(A)

ans =1 −2 0 −1

0 0 1 2

0 0 0 0

Como rango(A) = 2 < 3 = # de filas, entonces los vectores no generan a R3.

2. En este caso formamos la matriz A =[v1 v2 v3 v4

]=

1 −2 0

2 −4 1

5 −9 1

. Ahora calculamos la matriz escalon-

ada reducida de A, usando MatLab obtenemos

>> A = [1 − 2 0; 2 − 4 1; 5 − 10 1]; rref(A)

ans =1 0 0

0 1 0

0 0 1

Como rango(A) = 3 = # de filas, entonces estos vectores generan a R3, es decir, 〈v1, v2, v3〉 = R3.

Corolario 2.8. Sean v1, v2, . . . , vk vectores en Rm, si k < n entonces los vectores v1, v2, . . . , vk no generan a

Rm.

Demostracion. Sea A =[v1 · · · vk

], entonces rango(A) ≤ k < m = # de filas de A, entonces por el

Teorema 2.7, el conjunto no genera a Rm.

Page 51: 64806112 Algebra Lineal Matlab

46

Corolario 2.9. Un conjunto generador de Rm tiene al menos m vectores.

Teorema 2.10. Si los vectores v1, . . . , vm ∈ Rm son linealmente independientes, entonces generan a Rm, es

decir, 〈v1, . . . , vm〉 = Rm.

Demostracion. Sea A =[v1 · · · vm

], como los vectores v1, . . . , vm son linealmente independientes entonces,

por el Teorema 2.5, se tiene que rango(A) = m = # de columnas, pero la matriz A es de tamano m ×m, por

tanto # de filas=# de columnas. Luego rango(A) = m = # de filas de A. Por tanto por el Teorema 2.7 los

vectores v1, . . . , vm generan a Rm.

Ejemplo 2.7. En el Ejemplo 2.5 se encontro que los vectores v1 =

1

1

0

, v2 =

0

1

1

y v3 =

1

0

1

son linealmente

independientes, entonces por el teorema anterior se tiene que estos vectores generan R3.

2.5. Bases y Dimension

Al unir los conceptos de independencia lineal y conjunto generador se consigue el concepto mas importante

del algebra lineal, el cual es el concepto de base de un espacio vectorial el cual definimos a continuacion.

Definicion 2.6. Sea V un espacio vectorial y sean v1, . . . , vn ∈ V , decimos que el conjunto {v1, . . . , vn} es una

base para V si

1. los vectores v1, . . . , vn son linealmente independientes,

2. los vectores {v1, . . . , vn} generan a V .

De los corolarios de las dos ultimas secciones tenemos lo siguiente.

Teorema 2.11. 1. Toda base de Rm tiene exactamente m vectores.

2. Un conjunto de m vectores linealmente independientes de Rm es una base.

Demostracion. 1. Esto se sigue de los corolarios 2.6 y 2.9.

2. Este se sigue de el Teorema 2.10.

Ejemplo 2.8. En el ejemplo anterior se comprobo que los vectores v1 =

1

2

5

, v2 =

−2

−4

−9

y v3 =

0

1

1

son

linealmente independientes, por tanto generan y forman una base para R3.

Page 52: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 47

El ultimo teorema garantiza que todas las bases de Rm tienen m vectores, en general para todos los espacios

vectoriales con un numero finito de generadores (tambien llamados finito dimensionales) se cumple que todas las

bases tienen exactamente el mismo numero de elementos. Abajo en el Teorema 2.13 se demostrara este hecho

para subespacios de Rm, el caso general se demostrara en la Seccion 3.4. Por ahora daremos un argumento

computacional que nos permitira determinar si un conjunto de vectores es una base para Rm.

Teorema 2.12. Sean v1, . . . , vm ∈ Rm y A =[v1 · · · vm

]entonces el conjunto {v1, . . . , vm} es una base

para Rm si y solo si rango(A) = m.

Nuevamente este teorema da un procedimiento para determinar si un conjunto de vectores es una base, el cual

consiste en formar una matriz con los vectores dados y determinar si el rango de esta matriz es # de filas e

igual al # de columnas. Como lo mostramos en el siguiente ejemplo.

Ejemplo 2.9. Determine si el conjunto de vectores dados forma una base para R3.

1.

v1 =

1

−1

3

, v2 =

−2

2

−6

, v3 =

1

1

4

2.

v1 =

1

−1

3

, v2 =

−1

2

−3

, v3 =

1

1

4

Solucion.

1. Sea A =

1 −2 1

−1 2 −1

3 −6 3

, aplicando reduccion Gauss-Jordan obtenemos

1 −2 1

−1 2 −1

3 −6 4

F1+F2→F2

−3F1+F3→F3

1 −2 1

0 0 0

0 0 1

F1↔F2

1 −2 1

0 0 1

0 0 0

−F2+F1→F1

1 −2 0

0 0 1

0 0 0

esta matriz tiene rango 2 y por tanto los vectores v1, v2 y v3 no forman una base para R3.

2. Sea A =

1 1 1

−1 2 1

3 3 4

, aplicando reduccion Gauss-Jordan obtenemos

1 −1 1

−1 2 1

3 −3 4

F2+F1→F2

−3F1+F3→F3

1 −1 1

0 1 2

0 0 1

F1+F2→F1

1 0 3

0 1 2

0 0 1

Page 53: 64806112 Algebra Lineal Matlab

48

−3F3+F1→F1

−2F3+F1→F1

1 0 0

0 1 0

0 0 1

como esta matriz tiene rango 3, entonces los vectores v1, v2 y v3 forman una base para R3.

Ahora demostraremos que, para subespacios de Rm, todas las bases tienen el mismo numero de elementos.

Teorema 2.13. Sea V un subespacio de Rm y sean {v1, . . . , vk} y {w1, . . . , wl} bases para V , entonces k = l.

Es decir, todas las bases de V tienen exactamente el mismo numero de vectores.

Demostracion. Primero supongamos que l > k, como los vectores v1, . . . , vk forman una base para V , entonces

por definicion de base V = 〈v1, . . . , vk〉 y por tanto para i = 1, . . . , l existen constantes α1i, . . . , αki tal que

wi = α1iv1 + · · ·+ αkivk =[v1 · · · vk

]α1i

...

αki

.Uniendo estas ecuaciones obtenemos:

[w1 · · · wl

]=[v1 · · · vk

]α11 · · · α1l

.... . .

...

αk1 · · · αkl

=[v1 · · · vk

]A (2.3)

Donde A =

α11 · · · α1l

.... . .

...

αk1 · · · αkl

. Como l > k, entonces el sistema Ax = 0 tiene mas variables que ecuaciones y

por tanto existe al menos una solucion no trivial a este, es decir, exiten β1, . . . , βl tal que

A

β1

...

βl

=

0...

0

. (2.4)

Luego, multiplicando la Ecuacion (2.3) a la derecha por

β1

...

βl

, obtenemos

[w1 · · · wl

]β1

...

βl

=[v1 · · · vk

]A

β1

...

βl

︸ ︷︷ ︸

=0 por Ec. (2.4)

=[v1 · · · vk

]0...

0

=

0...

0

.

Page 54: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 49

De donde[w1 · · · wl

]β1

...

βl

=

0...

0

, o equivalentemente β1w1 + · · ·+ βlwl = 0, luego los vectores w1, . . . , wl

son linealmente dependientes lo que contradice el hecho de que forman una base para V , por tanto k ≤ l.

De igual forma se demuestra que l ≤ k y por tanto k = l.

Terminamos la seccion con la definicion de conjunto generador y una caracterizacion de estos conjuntos.

Definicion 2.7. Sea V un espacio vectorial y sean v1, . . . , vk ∈ V , definimos el conjunto generado por estos

vectores, denotado por 〈v1 . . . , vk〉, como el conjunto de combinaciones lineales de los vectores v1, . . . , vk. Esto

es,

〈v1 . . . , vk〉 = {α1v1 + · · ·+ αkvk | α1, . . . , αk ∈ R } .

El conjunto generado por los vectores v1, . . . , vk ∈ V es un subespacio de V , este hecho se demuestra a contin-

uacion.

Teorema 2.14. Sea V un espacio vectorial y sean v1, . . . , vk ∈ V , entonces H = 〈v1, . . . , vk〉 es un subespacio

de V .

Demostracion. Como los vectores v1, . . . , vk ∈ V entonces combinaciones lineales de estos tambien pertenecen

a V , por tanto H = 〈v1, . . . , vk〉 ⊆ V .

Ahora veamos que H = 〈v1, . . . , vk〉 es cerrado bajo suma y producto por escalar.

Sean v, w ∈ H y δ ∈ V , entonces v = α1v1 + · · ·+ αkvk y w = β1v1 + · · ·+ βkvk. Entonces

v + w = α1v1 + · · ·+ αkvk + β1v1 + · · ·+ βkvk = (α1 + β1)v1 + · · ·+ (αk + βk)vk ∈ H

y

δv = δ(α1v1 + · · ·+ αkvk) = (δα1)v1 + · · ·+ (δαk)vk ∈ 〈v1, . . . , vk〉.

Por tanto H es un subespacio de V .

2.6. Subespacios fundamentales

Dada una matriz A se pueden definir cuatro subespacios determinados por esta, los cuales definimos a

continuacion.

Definicion 2.8. Sea A una matriz de tamano m× n definimos los siguientes subespacios:

1. El espacion nulo de A, denotado Nul(A), se define como

Nul(A) = {x ∈ Rn | Ax = 0.}

Page 55: 64806112 Algebra Lineal Matlab

50

2. El espacio columna, denotado Col(A), se define como

Col(A) = 〈c1, . . . , cn〉,

donde c1, . . . , cn son las columnas de A.

3. El espacio fila de A, denotado por Fil(A), se define como

Fil(A) = 〈f t1, . . . , f tm〉,

donde f1, . . . , fm son las filas de A.

4. El espacio nulo a izquierda de A, denotado por Nuliz(A), se define como

Nuliz(A) = {x ∈ Rm | Atx = 0.}

De acuerdo al Teorema 2.14, el espacio columna, Col(A), y el espacio fila, Fil(A), de una matriz A son sube-

spacios de Rm y Rn, respectivamente. Para que los cuatro conjuntos definidos en la definicion anterior sean

subespacios, solo nos resta demostrar que Nul(A) y Nuliz(A) son subespacios. Esto se demuestra en el sigu-

iente teorema.

Teorema 2.15. Sea A una matriz m× n, entonces Nul(A) y Nuliz(A) son subespacios de Rn y Rm, respecti-

vamente.

Demostracion. Por definicion Nul(A) ⊆ Rn y claramente 0 ∈ Nul(A) ya que A0 = 0. Veamos que es cerrado

bajo la suma y el producto por escalar.

Sean x, y ∈ Nul(A) y sea αR, entonces por definicion de Nul(A) tenemos que Ax = 0 = Ay, luego

A(x+ y) = Ax+Ay = 0 + 0 = 0 y A(αx) = α Ax︸︷︷︸=0

= α0 = 0,

de donde x+ y ∈ Nul(A) y αx ∈ Nul(A). Por tanto Nul(A) es un subespacio de Rn.

Ahora, como lo anterior se demostro para A arbitraria, tenemos que Nuliz(A) = Nul(At) es un subespacio, en

este caso de Rm, ya que At es de tamano n×m.

El proposito ahora es dar un procedimiento que nos permita hallar una base para los subespacios fundamentales.

Calcular el espacio nulo de una matriz A es mas sencillo, ya que los vectores x en este espacio son solucion

a la ecuacion Ax = 0, el cual se resuelve aplicando Gauss-Jordan a la matriz[A 0

](ver ejemplo abajo). El

procedimiento para calcular una base para el espacio columna se sigue del siguiente teorema.

Teorema 2.16. Sea A una matriz de tamano m× n y sea A′ la forma escalonada reducida de A. Entonces los

vectores para los cuales la columna de A′ tiene un pivote, forman una base para Col(A) y por tanto dimCol(A) =

rango(A). Ademas se tiene que dimNul(A) = n− rango(A).

Page 56: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 51

Demostracion. Sea k = rango(A), sin perdida de generalidad, supongamos las primeras k columnas de A′

tienen pivote, es decir

A′ =

1 · · · 0 b1,k+1 · · · b1n...

. . ....

.... . .

...

0 · · · 1 bk,k+1 · · · bkn

0 · · · 0 0 · · · 0...

. . ....

.... . .

...

0 · · · 0 0 · · · 0

(2.5)

Sean c1, . . . , cn las columnas de A, vamos a demostrar que los vectores c1, . . . , ck forman una base para Col(A).

Primero notese que los vectores c1, . . . , ck son linealmente independientes ya que estas son las primeras

columnas de A y por tanto la forma escalonada reducida de la matriz[c1 · · · ck

]esta dada por las primeras

k filas de A′ y de 2.5, se obtiene que esta tiene un pivote en cada columna, luego por el Teorema 2.5, estos son

linealmente independientes.

Page 57: 64806112 Algebra Lineal Matlab

52

Ahora, de 2.5 tenemos lo siguiente

x1

...

xn

∈ Nul(A) si y solo si Ax = 0 si y solo si A′x = 0

si y solo si

x1 + b1,k+1xk+1 + · · ·+ b1nxn = 0...

xk + bk,k+1xk+1 + · · ·+ bknxn = 0

si y solo si

x1 = −b1,k+1xk+1 − · · · − b1nxn...

xk = −bk,k+1xk+1 − · · · − bknxn

si y solo si

x1

...

xk

xk+1

...

xn

=

−b1,k+1xk+1 − · · · − b1nxn...

−bk,k+1xk+1 − · · · − bknxnxk+1

...

xn

= xk+1

−b1,k+1

...

−bk,k+1

1...

0

+ · · ·+ xn

−b1n...

−bkn0...

1

. (2.6)

Entonces Nul(A) =

−b1,k+1

...

−bk,k+1

1...

0

, . . . ,

−b1n...

−bkn0...

1

⟩y en particular los vectores

−b1,k+1

...

−bk,k+1

1...

0

, . . . ,

−b1n...

−bkn0...

1

∈ Nul(A)

Page 58: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 53

por tanto los vectores c1, · · · , cn satisfacen lo siguiente

0...

0

= A

−b1,k+1

...

−bk,k+1

1...

0

=[c1 · · · cn

]

−b1,k+1

...

−bk,k+1

1...

0

...

0...

0

= A

−b1n...

−bkn0...

1

=[c1 · · · cn

]

−b1n...

−bkn0...

1

Estas ecuaciones matriciales producen las ecuaciones

−b1,k+1c1 − · · · − bk,k+1ck + ck+1 = 0⇔ ck+1 = b1,k+1c1 + · · ·+ bk,k+1ck

...

−b1nc1 − · · · − bknck + cn = 0⇔ cn = b1nc1 + · · ·+ bknck

Luego si x ∈ Col(A), por definicion

x =α1c1 + · · ·+ αkck + αk+1ck+1 + · · ·+ αncn

=α1c1 + · · ·+ αkck + αk+1(b1,k+1c1 + · · ·+ bk,k+1ck) + · · ·

· · ·+ αn(b1nc1 + · · ·+ bknck)

=(α1 + αk+1b1,k+1 + · · ·+ αnb1n)c1 + · · ·

· · ·+ (αk + αk+1bk,k+1 + · · ·+ αnbkn)ck ∈ 〈c1 · · · , ck〉

Luego ColA = 〈c1, . . . , ck〉, entonces los vectores c1, . . . , ck generan a Col(A) y como sonson linealmente inde-

pendientes entonces forman una base para Col(A).

Finalmente, observese que dimCol(A) = k = rango(A) y por la Ecuacion 2.6 tenemos que dimNul(A) =

n− k = n− rango(A).

Corolario 2.17. Sea A una matriz de tamano m× n, entonces

dimCol(A) + dimNul(A) = n = # de columnas de A.

Page 59: 64806112 Algebra Lineal Matlab

54

Ejemplo 2.10. Calcule los cuatro subespacios fundamentales de la matriz A =

1 −1 0 1

2 −2 1 4

3 −3 1 5

.

Solucion: Calculando la forma escalonada reducida de A obtenemos1 −1 0 1

2 −2 1 4

3 −3 1 5

−2F1+F2→F2

−2F1+F3→F3

1 −1 0 1

0 0 1 2

0 0 1 2

−F2+F3→F3

1 −1 0 1

0 0 1 2

0 0 0 0

entonces por el teorema anterior la primera y tercera columna de A forman una base para el espacio columna

de A, es decir

Col(A) =

⟨1

2

3

,

0

1

1

⟩.

Ahora para el espacio nulo resolvemos el sistema Ax = 0 o equivalentemente A′x = 0 y obtenemos lo siguiente

A′

x1

x2

x3

x4

=

0

0

0

⇔ x1 − x2 + x4 = 0

x3 + 2x4 = 0⇔

x1 = x2 − x4

x3 = −2x4

x1

x2

x3

x4

=

x2 − x4

x2

−2x4

x4

= x2

1

1

0

0

+ x4

−1

1

−2

1

.

Por tanto Nul(A) =

1

1

0

0

,−1

1

−2

1

⟩.

Ahora, como rango(A) = rango(At) entonces la transpuesta de las dos primeras filas es una base para Fil(A),

es decir, Fil(A) =

1

−1

0

1

,

2

−2

1

4

⟩.

Ahora calculamos la escalonada reducida de At1 2 3

−1 −2 −3

0 1 1

1 4 5

F1+F2→F2

−F1+F4→F4

1 2 3

0 0 0

0 1 1

0 2 2

F2↔F3

1 2 3

0 1 1

0 0 0

0 2 2

Page 60: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 55

−2F2+F1→F1

−2F2+F4→F4

1 0 1

0 1 1

0 0 0

0 0 0

entonces un vector x =

x1

x2

x3

satisface la ecuacion Atx = 0 si y solo si

At

x1

x2

x3

=

0

0

0

0

⇔x1 + x3 = 0

x2 + x3 = 0⇔

x1 = −x3

x2 = −x3

x1

x2

x3

=

−x3

−x3

x3

=

−1

−1

1

.

Por tanto Nuliz(A) =

⟨−1

−1

1

⟩.

2.7. Subespacio generado

Si v1 . . . , vn son vectores en Rm, hay dos preguntas que que abordaremos en esta seccion acerca del subespacio

H = 〈v1, . . . , vn〉, las primera de las cuales es:

1. Si los vectores v1, . . . , vn no son linealmente independientes, como encontrar una base para H.

Si hacemos A =[v1 · · · vn

]entonces Col(A) = 〈v1, . . . , vn〉 = H y aplicando el Teorema 2.16 obtenemos

una base para Col(A) = H.

Ejemplo 2.11. Calcular una base para H = 〈v1, v2, v3〉 donde v1 =

1

2

5

, v2 =

−2

−4

−10

y v3 =

0

1

1

.

Solucion. Aplicando reduccion Gauss-Jordan a la matriz A =

1 −2 0

2 −5 1

5 −5 1

obtenemos A′ =

1 −2 0

0 0 1

0 0 0

.

Entonces los vectores v1 y v3 forman una base para H.

2. Si H es un subespacio de Rm con base {v1, . . . , vk} y b es un vector en Rm, como determinar si b ∈ H.

Haciendo A =[v1 · · · vk

]tenemos que b ∈ H si y solo si existen constantes α1, . . . , αk tal que b =

α1v1 + · · ·+ αkvk =[v1 · · · vk

]α1

...

αk

= Ax con x =

α1

...

αk

. En otras palabras, b ∈ H si y solo si la ecuacion

Page 61: 64806112 Algebra Lineal Matlab

56

Ax = b tiene solucion y si x =

α1

...

αk

es una solucion a esta ecuacion, entonces b = α1v1 + · · ·+ αkvk.

Ejemplo 2.12. Sea H =

⟨v1 =

1

2

5

, v2 =

0

1

1

y sea b =

1

−2

1

, determinar si b ∈ H, en caso afirmativo

expresar a b como combinacion lineal de v1 y v2.

Solucion. Aplicando reduccion Gauss-Jordan a la matriz

1 0 1

2 1 −2

5 1 1

obtenemos

1 0 1

2 1 −2

5 1 1

−2F1+F2→F2

−5F1+F3→F3

1 0 1

0 1 −4

0 1 −4

−F2+F3→F3

1 0 1

0 1 −4

0 0 0

de donde tenemos que la ecuacion Ax = b tiene solucion α1 = 1 y α2 = −4, por tanto b = v1 − 4v2.

En el siguiente ejemplo se muestra que algunas veces los subespacios de Rn aparecen como el espacio nulo de

una matriz.

Ejemplo 2.13. Calcular una base para cada uno de los siguientes subespacios.

1. H =

xy

∣∣∣∣ y = mx, m ∈ R

2. H =

x

y

z

∣∣∣∣ x = at, y = bt y z = ct, a, b, c ∈ R

.

3. H =

x

y

z

∣∣∣∣ ax+ by + cz = 0, a, b, c ∈ R, c 6= 0

4. H =

x

y

z

∣∣∣∣ x+ y + z = 0, 2x− y − z = 0

.

1.

xy

∈ H si y solo si y = mx si y solo si

xy

=

x

mx

= x

1

m

si y solo si

xy

es un multiplo de

1

1

.

Por tanto H =

⟨1

1

⟩ .

Page 62: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 57

2.

x

y

z

∈ H si y solo si x = at, y = bt y z = bt si y solo si

x

y

z

=

at

bt

ct

= t

a

b

c

si y solo si

x

y

z

es un multiplo

de

a

b

c

. Por tanto H =

⟨a

b

c

⟩.

3.

x

y

z

∈ H si y solo si ax+ by+ cz = 0 si y solo si z = −acx−bcy si y solo si

x

y

z

=

x

y

−acx−bcy

= x

1

0

−ac

+

y

0

1

− bc

si y solo si

x

y

z

es una combinacion lineal de

1

0

−ac

y

0

1

− bc

. Por tanto H =

⟨1

0

−ac

,

0

1

− bc

⟩.

4.

x

y

z

∈ H si y solo si x + y + z = 0 y 2x − y − z = 0 si y solo si

1 1 1

2 −1 −1

x

y

z

=

0

0

si y solo si

x

y

z

∈ Nul(A) con A =

1 1 1

2 −1 −1

. Para calcular el espacio nulo de A aplicamos reduccion Gauss-Jordan

1 1 1

2 −1 −1

−2F1+F2→F2

1 1 1

0 −3 −3

−13 F2→F2

1 1 1

0 1 1

−F2+F1→F1

1 0 0

0 1 1

Entonces

x

y

z

∈ Nul(A) si y solo si x = 0 y y + z = 0 si y solo si x = 0 y y = −z si y solo si

x

y

z

=

0

−z

z

=

z

0

−1

1

. Por tanto H =

⟨0

−1

1

⟩.

Terminamos el capıtulo con con un teorema que sera muy util en el proximo capıtulo.

Teorema 2.18. Sea A una matriz de tamano m× n, entonces

1. Nul(A) = 0 si y solo si rango(A) = n = # de columnas de A.

2. Col(A) = Rn si y solo si rango(A) = m = # de filas de A.

Page 63: 64806112 Algebra Lineal Matlab

58

Demostracion. 1. Nul(A) = 0 si y solo si la unica solucion a la ecuacion Ax = 0 es x = 0 si y solo si

rango(A) = n = # de columnas de A (Teorema 1.21.)

2. Col(A) = Rn si y solo si b ∈ Col(A) para todo b ∈ Rn si y solo si para todo b ∈ Rn, Ax = b si y solo si la

ecuacion Ax = b tiene solucion para todo b ∈ Rn si y solo si rango(A) = m = # de filas de A (Teorema

1.20.)

2.8. El teorema de la base incompleta en Rm

En el Corolario 2.6 se demostro que si v1, . . . , vk son vectores linealmente independientes en Rm entonces

k ≤ m. El Teorema de la base incompleta dice que si k < m se pueden escojer vectores wk+1, . . . , wm talque

v1, . . . , vk, wk+1, . . . , wm forman una base para Rm.

Teorema 2.19. (Teorema de la base incompleta) Sean v1, . . . , vk vectores linealmente independientes en Rm.

Si k < m se pueden escojer vectores wk+1, . . . , wm talque v1, . . . , vk, wk+1, . . . , wm forman una base para Rm.

Demostracion. Sea A =[v1 · · · vk

]la matriz cuyas columnas son los vectores v1, . . . , vk, como estos son

linealmente independientes, entonces por el Teorema 2.5 tenemos que rango(A) = k y por tanto la forma

escalonada reducida A′ de A tiene un pivote en cada fila, luego A′ tiene la forma

A′ =

1 · · · 0...

. . ....

0 · · · 1

0 · · · 0...

. . ....

0 · · · 0

=[e1 · · · ek

]

donde ei es el vector con un uno en la i-esima componente y ceros en las demas componentes. Sean E1, . . . , Es

matrices elementales talque

A′ = Es · · ·E1A (2.7)

y sea B = E−11 · · ·E−1

s entonces tenemos lo siguiente

Afirmacion 1. Las primeras k columnas de B son los vectores v1, . . . , vk

Demostracion de la afirmacion: de la ecuacion (2.7) se sigue que

A = E−11 · · ·E−1

s︸ ︷︷ ︸=B

A′ = BA′ = B[e1 · · · ek

]=[Be1 · · · Bek

]

Page 64: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 59

como las columnas de A son los vectores v1, · · · , vk entonces tenemos que Be1 = v1, . . . , Bek = vk, luego

B = BI = B[e1 · · · ek ek+1 · · · em

]=

[Be1︸︷︷︸v1

· · · Bek︸︷︷︸vk

Bek+1 · · · Bem

]=[v1 · · · vk Bek+1 · · · Bem

]Afirmacion 2. Las columnas de B son linealmente independientes.

Demostracion de la afirmacion: Como B es un producto de matrices invertibles, entonces B es invertible,

luego por el Corolario 1.22 tenemos que rango(A) = m entonces por el Teorema ?? los vectores son linealmente

independientes.

Ahora, como B tiene m columnas linealmente independientes, entonces estas forman una base para Rm, es

decir, los vectores v1, . . . , vk, wk+1, . . . , wm forman una base, donde wk+1, . . . , wm son las ultimas columnas de

B.

Este teorema exhibe un metodo computacional para completar una base, el cual escribimos a continuacion:

Procedimiento para completar una base en Rm

Sean v1, . . . , vk vectores linealmente independientes en Rm con k < m, para calcular vectores wk+1, . . . , wm

talque los vectores v1, . . . , vk, wk+1, . . . , wm forman una base, hacemos lo siguiente

1. Sea A =[v1 · · · vk

]la matriz formada con los vectores v1, . . . , vk

2. Sea C el producto de las matrices elementales talque A = CA′, esta matriz se calcula hallando la forma

escalonada reducida de la matriz[A I

]ya que esta esta dada por

[A′ C

]3. Hacemos B = C−1

Si las columnas de B son linealmente independientes y por tanto forman una base para Rm y por el teorema

anterior, las primeras columnas de B son los vectores v1, . . . , vk.

Ejemplo 2.14. (MatLab) Sean v1 =

0

−1

1

y v2 =

1

1

2

, calcular un vector v3 talque los vectores v1, v2, v3

forman una base para R3.

Solucion. Sea A =[v1 v2

]=

0 1

−1 1

1 2

, entonces hacemos lo siguiente

1. calculamos la forma escalonada reducida de la matriz[A I

]usando MatLab

>> A = [01;−11; 12]; R=rref([A, eye(3)])

R=

Page 65: 64806112 Algebra Lineal Matlab

60

1 0 0 −2/3 1/3

0 1 0 1/3 1/3

0 0 1 −1/3 −1/3El producto de las matrices elementales es la matriz compuesta por las 3 ultimas columnas de R, la cual

podemos definir usando MatLab como sigue

>> C = [R(:, 3), R(:, 4), R(:, 5)]

C =0 −2/3 1/3

0 1/3 1/3

1 −1/3 −1/32. Ahora calculamos B = C−1 como sigue

B = inv(C)

B=0 1 1

−1 1 0

1 2 0Notese que efectivamente las dos primeras columnas de esta matriz son los vectores v1 y v2 y por tanto los

vectores v1, v2 y v3 =

1

0

0

forman una base para R3.

Page 66: 64806112 Algebra Lineal Matlab

Capıtulo 3

Transformaciones Lineales

3.1. Definicion y Ejemplos

En este capıtulo se estudiaran funciones entre espacios vectoriales que preservan la estructura, estas funciones

se llaman tranformaciones lineales, comenzamos con la definicion.

Definicion 3.1. Sean V y W espacios vectoriales y T : V −→W una funcion, decimos que T es una transfor-

macion lineal si T satisface:

1. T (v + v′) = T (v) + T (v′), para todo v, v′ ∈ V .

2. T (αv) = αT (v), para todo v ∈ V y para todo α ∈ R.

Observacion 3.1. Como consecuencia de la definicion tenemos que si T : V −→ W es una transformacion

lineal, v1, . . . , vn ∈ V y α1, . . . , αn ∈ R entonces

1. T (α1v1 + α2v2) = α1T (v1) + α2T (v2), y en general

2. T (α1v1 + · · ·+ αnvn) = α1T (v1) + · · ·+ αnT (vn).

Ejemplo 3.1. 1. La funcion T : R2 −→ R definido por T

xy

= x+ y es una transformacion lineal ya

que

T

xy

+

x′y′

= T

x+ x′

y + y′

= x+ x′ + y + y′ = (x+ y) + (x′ + y′) = T

xy

+ T

x′y′

T

αxy

= T

αxαy

= αx+ αy = α(x+ y) = αT

xy

2. Si A es una matriz m×n, la funcion T : Rn −→ Rm definida por T (x) = Ax es una transformacion lineal

ya que satisface los axiomas 1 y 2 de la definicion, mas especificamente tenemos que

61

Page 67: 64806112 Algebra Lineal Matlab

62

T (x+ y) = A(x+ y) = Ax+Ay = T (x) + T (y) y

T (αx) = A(αx) = αAx = αT (x).

Destacamos las siguientes propiedades que cumple cualquier transformacion lineal.

Teorema 3.1. Sean V y W espacios vectoriales y sea T : V −→W una transformacion lineal, entonces

1. T (0) = 0

2. T (−v) = −T (v).

Demostracion. 1. T (0) = T (0 + 0) = T (0) + T (0) por tanto T (0) = 0.

2. T (−v) = T ((−1)v) = −1T (v) = −T (v).

Por ahora nos concentraremos solo en transformaciones lineales de Rn en Rm, ya que estas, como se muestra

en el siguiente teorema, son de la forma dada en el ejemplo 2, es decir, para toda transformacion lineal se puede

encontrar una matriz A de tamao m× n tal que T (x) = Ax. Pasamos a enunciar el teorema.

Teorema 3.2. Sea T : Rn −→ Rm una transformacion lineal, sea {e1, . . . , en} la base estandar de Rn y

A = [T (e1) · · · T (en)], la matriz cuyas columnas son los vectores T (e1), . . . , T (en), entonces T (x) = Ax,

para todo x ∈ Rn.

Demostracion. Sea x =

α1

...

αn

∈ Rn, entonces x = α1e1 + · · ·+ α1en y tenemos lo siguiente

T (x) = T (α1e1 + · · ·+ α1en) = α1T (e1) + · · ·+ α1T (en)

= [T (e1) · · · T (en)]︸ ︷︷ ︸=A

α1

...

αn

= Ax.

Notacion 4. Si T : Rn −→ Rm es una transformacion lineal y E = {e1, . . . , en} es la base estandar de Rn, a

la matriz A = [T (e1) · · · T (en)] se llama la matriz de la transformacion y sera denotada por A =ETE.

Ejemplo 3.2. Calcular la matriz de la transformacion T : R2 −→ R definida por T

xy

= x+ y.

Solucion. De acuerdo al teorema anterior debemos calcular T (e1) y T (e2):

T (e1) = T

1

0

= 1 + 0 = 1 T (e2) = T

0

1

= 0 + 1 = 1.

Luego la matriz de la transformacion es ETE = [1 1].

Page 68: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 63

Ejemplo 3.3. Calcular la matriz, ESE, de la transformacion S : R3 −→ R2 definida por S

x

y

z

=

x+ 2y

y − 3z

.

Solucion. En este caso debemos calcular S(e1), S(e2) y S(e3).

S(e1) = S

1

0

0

=

1 + 2 · 0

0− 3 · 0

=

1

0

S(e2) = S

0

1

0

=

0 + 2 · 1

1− 3 · 0

=

2

1

y S(e3) = S

0

0

1

=

0 + 2 · 0

0− 3 · 1

=

0

−3

Por tanto la matriz de la transformacion es ESE =

1 2 0

0 1 −3

.

En el siguiente teorema demostraremos que la composicion de transformaciones lineales es una transformacion

lineal.

Teorema 3.3. Sean V, W y Z espacios vectoriales y sean T : V −→ W y S : W −→ Z tranformaciones

lineales, entonces S ◦ T es una transformacion lineal. Mas aun, si V = Rn, W = Rm y Z = Rq entonces la

matriz de S ◦ T esta dada por ESE ·E TE, es decir, E(S ◦ T )E =E SE ·E TE .

Demostracion. Primero demostremos que S ◦ T es una transformacion lineal, sean v, v′ ∈ V y α ∈ R,

S ◦ T (v + v′) = S(T (v + v′)︸ ︷︷ ︸T (v)+T (v′)

) = S(T (v) + T (v′))︸ ︷︷ ︸S(T (v))+S(T (v′))

= S(T (v)) + S(T (v′))

= S ◦ T (v) + S ◦ T (v′) y

S ◦ T (αv) = S(T (αv)︸ ︷︷ ︸αT (v)

) = S(αT (v))︸ ︷︷ ︸αS(T (v))

= αS(T (v)) = αS ◦ T (v)

Ahora demostremos la segunda parte, sean A =E TE y B =E SE , entonces T (v) = Av para todo v ∈ Rn y

S(w) = Bw para todo w ∈ Rm. Veamos que BA es la matriz de S ◦ T , es decir, S ◦ T (v) = BAv para todo

v ∈ Rn.

S ◦ T (v) = S(T (v)︸︷︷︸Av

) = S(Av)︸ ︷︷ ︸BAv

= BAv.

Por tanto BA es la matriz de S ◦ T .

Ejemplo 3.4. Sean T y S las transformaciones lineales definidas en los Ejemplos 3.2 y 3.3 entonces la matriz

de la transformacion T ◦ S, E(T ◦ S)E , esta dada por

E(T ◦ S)E =E TE ·E SE =[1 1

]1 2 0

0 1 −3

=[1 3 −3

].

Page 69: 64806112 Algebra Lineal Matlab

64

Por tanto T ◦ S

α1

α2

α3

=

[1 3 −3

]α1

α2

α3

= α1 + 3α2 − 3α3.

Ejemplo 3.5. (MatLab) Definir matrices 3x4 y 4x3 y calcular las matrices de las composiciones.

La matriz de una transformacion se puede usar para conseguir informacion util acerca de la transformacion,

por ejemplo, esta se puede usar para determinar si una transformacion lineal es inyectiva, si es sobre, si es

biyectiva y tambien se puede usar para calcular el rango de la transformacion. Esto lo veremos en las secciones

3.2-3.4

3.2. Transformaciones Lineales Inyectivas

Comenzamos el estudio de las transformaciones inyectivas con la defincion de kernel de la transforacion.

Definicion 3.2. Sean V y W espacios vectoriales y sea T : V −→ W una transformacion lineal, definimos el

nucleo o kernel de T como el conjunto

Ker(T ) = {x ∈ V | T (x) = 0}.

Para transformaciones lineales de Rn en Rm, la matriz de la transformacion se puede usar para calcular el

kernel. Este es el resultado del siguiente teorema.

Lema 3.4. Sea T : Rn −→ Rm una transformacion lineal y sea A =E TE la matriz de la transformacion,

entonces Ker(T ) = Nul(A).

Demostracion. x ∈ Ker(T ) si y solo si T (x) = 0 si y solo si T (x) = Ax = 0 si y solo si x ∈ Nul(A).

Concluimos que Ker(T ) = Nul(A).

Ejemplo 3.6. Calcular el kernel de la transformacion lineal S definida en el Ejemplo 3.3.

Solucion. La matriz de la transformacion es A =

1 2 0

0 1 −3

, necesitamos calcular Nul(A):

1 2 0

0 1 −3

F1 − 2F2 → F1

1 0 6

0 1 −3

Luego tenemos que un vector x =

x

y

z

∈ Nul(A) si y solo se satisfacen las ecuacionesx = −6z

y = 3z. Entonces

tenemos que x =

x

y

z

∈ Nul(A) si y solo si

x

y

z

=

−6z

3z

z

= z

−6

3

1

.

Page 70: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 65

Por tanto tenemos que Ker(T ) = Nul(A) =

⟨−6

3

1

⟩.

Teorema 3.5. Sea T : V −→W una transformacion lineal, entonces T es inyectiva si y solo si Ker(T ) = {0}.

Demostracion. “⇒”Supongamos que T es inyectiva, entonces si T (x) = T (y), tenemos que x = y.

Ahora, supongamos que x ∈ Ker(T ), entonces T (x) = 0 = T (0), luego x = 0 y por tanto Ker(T ) ⊆ {0}.

La otra inclusion se da ya que Ker(T ) es un subespacio de V y por tanto 0 ∈ Ker(T ). Concluimos que

Ker(T ) = {0}.

“⇐”Supongamos que Ker(T ) = 0 y demostremos que si T (x) = T (y), entonces x = y, para todo x, y ∈ V .

Supongamos entonces que T (x) = T (y). Luego T (x − y) = T (x) + T (−y) = T (x) − T (y) = 0, se sigue que

x− y ∈ Ker(T ) = {0} por tanto x− y = 0 o equivalentemente x = y. Concluimos que T es inyectiva.

En el caso particular de transformaciones lineales que van de Rn en Rm, este teorema y el Lema 3.4 nos dan

un algoritmo para calcular el kernel, este se hara evidente con el siguiente teorema.

Teorema 3.6. Sea T : Rn −→ Rm una transformacion lineal y sea A =ETE la matriz de la transformacion.

Entonces T es inyectiva si y solo si rango(A) = n = # de columnas de A.

Demostracion. T es inyectiva si y solo si Ker(T ) = 0 (Teorema anterior) si y solo si Nul(A) = 0 (Lema 3.4)

si y solo si rango(A) = n.

Este teorema nos da una manera de determinar si una transformacion lineal es inyectiva y en caso negativo,

usamos el Lema 3.4 para calcularlo. A continuacion damos el ejemplo.

Ejemplo 3.7. Determine si la transformacion lineal T : R3 −→ R2 definida por T

x

y

z

=

x+ 2y

y − 3z

es

inyectiva.

Solucion. En el Ejemplo 3.6 vimos que la matriz de la transformacion es A =

1 2 0

0 1 −3

y la forma

escalonada reducida de A es A′ =

1 0 6

0 1 −3

. De esto deducimos que rango(A) = 2 < # de columnas de A,

por tanto A no es inyectiva.

a=[1 -2 3 4;2 3 -4 5;3 4 5 6;4 5 6 7];

Ejemplo 3.8. (MatLab) Sea A =

1 −2 3 4

2 3 −4 5

3 4 5 6

4 5 6 7

y sea T : R4 −→ R4 la transformacion lineal definida

por T (x) = Ax. Determine si T es inyectiva y calcular su kernel.

Page 71: 64806112 Algebra Lineal Matlab

66

Solucion. Es facil ver que A =ETE es la matriz de la tranformacion, para determinar si T es o no inyectiva,

necesitamos calcular el rango de A, lo cual calculamos como sigue en MatLab:

>> A = [1 − 2 3 4; 2 3 − 4 5; 3 4 5 6; 4 5 6 7]; rank(A)

ans =

4

De aqui se sigue que rango(A) = 4 = # de columnas de A y tenemos que T es inyectiva y Ker(T ) = {0}.

Ejemplo 3.9. (MatLab) Sea A =

−1 −2 1 1 1

1 0 1 −3 1

0 1 −1 1 1

0 1 −1 1 1

1 0 1 −3 1

y sea T : R5 −→ R5 definida por T (x) = Ax,

determine si T es inyectiva y calcular Ker(T ).

Solucion. Primero calculamos el rango de A para determinar si la transformacion es inyectiva

>> A = [−1 − 2 1 1 1; 1 0 1 − 3 1; 0 1 − 1 1 1; 0 1 − 1 1 1; 1 0 1 − 3 1]; rank(A)

ans =

3

Obtenemos que rango(A) = 3 y por tanto T no inyectiva. Para calcular el kernel, computamos el subespacio

nulo de A.

>> null(A,′ r′)

ans =−1 3

1 −1

1 0

0 1

0 0

Obtenemos que Ker(T ) = Nul(A) =

−1

1

1

0

0

,

3

−1

0

1

0

⟩.

3.3. Transformaciones lineales sobreyectivas

Comenzamos recordando la definicion de imagen (o rango) de funcion y la de funcion sobreyectiva.

Definicion 3.3. Sean V y W espacios vectoriales y T : V −→W una transformacion lineal,

Page 72: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 67

1. Definimos la imagen (o rango) de T , denotada por Im(T ), como el conjunto

Im(T ) = {T (v) | v ∈ V } = {w ∈W | existe v ∈ V tal que w = T (v)}.

2. Decimos que T es sobreyectiva si Im(T ) = W .

Cuando las transformacion esta definida de Rn en Rm podemos calcular la imagen usando la matriz de la

transformacion. Este hecho se demuestra en el siguiente teorema.

Lema 3.7. Sea T : Rn −→ Rm una transformacion lineal y sea A =ETE la matriz de T , entonces Im(T ) =

Col(A).

Demostracion. Antes de hacer la demostracion denotemos por C1, . . . , Cn las columnas de A.

w ∈ Im(T ) si y solo si existe v ∈ Rn tal que w = T (v) = Av si y solo si existe v =

α1

...

αn

∈ Rn tal que

w = Av = [C1 · · · Cn]

α1

...

αn

= α1C1 + · · ·+ αnCn si y solo si w ∈ 〈C1, . . . , Cn〉 = Col(A).

Por tanto Im(T ) = Col(A).

Ejemplo 3.10. Sea A =

1 0

1 −2

3 0

y T : R2 −→ R3 la transformacion lineal definida por T (x) = Ax, calcular

la imagen de T .

Solucion. De acuerdo al lema anterior necesitamos calcular Col(A).

Si calculamos la forma escalonada de A obtenemos A′ =

1 0

0 1

0 0

y por tanto

Im(T ) = Col(A) =

⟨1

1

3

,

0

−2

0

⟩.

El lema anterior nos muestra como la matriz de la transformacion se puede usar para calcular la imagen de

una transformacion, esta tambien sirve para determinar si la transformacion es sobreyectiva, esto lo mostramos

a continuacion.

Teorema 3.8. Sea T : Rn −→ Rm una transformacion lineal y A la matriz de T , entonces T es sobreyectiva si

y solo si rango(A) = m = # de filas de A.

Demostracion. T es sobre si y solo si Rm = Im(T ) = Col(A) y Col(A) = Rm si y solo si rango(A) = m = #

de filas de A.

Page 73: 64806112 Algebra Lineal Matlab

68

El lema anterior nos dice que encontrar el rango de una transformacion es equivalente a encontrar el es-

pacio columna de la matriz de la transformacion y el teorema anterior reduce el problema de determinar si la

transformacion es sobre a encontrar el rango de esta matriz. Esto lo ilustramos en los siguientes ejemplos.

Ejemplo 3.11. Determine si la transformacion del ejemplo anterior es sobre.

Solucion. La forma escalonada de la matriz de T es A′ =

1 0

0 1

0 0

y por tanto rango(A) = 2 < 3 = # de

columnas de A, concluimos que T no es sobre.

Ejemplo 3.12. (MatLab) Sea T la transformacion del Ejemplo 3.9, determine si T es sobre y calcular Im(T ).

Solucion. En el Ejemplo 3.9 calculamos que el rango de la matriz A =ETE es 3 y por tanto T no es sobre.

Para calcular Im(T ) necesitamos calcular el espacio columna de A, el cual podemos calcular con la escalonada

reducida de A.

>> A = [−1 − 2 1 1 1; 1 0 1 − 3 1; 0 1 − 1 1 1; 0 1 − 1 1 1; 1 0 1 − 3 1]; rank(A)

ans =

1 0 1 −3 0

0 1 −1 1 0

0 0 0 0 1

0 0 0 0 0

0 0 0 0 0

Obtenemos que Im(T ) =

−1

1

0

0

1

,

−2

0

1

1

0

,

1

1

1

1

1

, correspondientes a la 1a, 2a y 5a columna de A.

Otra forma de calcular la imagen es usando el comando colspace(sym(A)), el cual no dara la base de

Col(A) = Im(T ).

>> A = [−1 − 2 1 1 1; 1 0 1 − 3 1; 0 1 − 1 1 1; 0 1 − 1 1 1; 1 0 1 − 3 1]; colspace(sym(A))

ans =

[1, 0, 0]

[0, 1, 0]

[0, 0, 1]

[0, 0, 1]

[0, 1, 0]

Page 74: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 69

De esta manera obtenemos que el conjunto

1

0

0

0

0

,

0

1

0

0

1

,

0

0

1

1

0

es una base para Im(T ).

3.4. Isomorfismos

Las transformaciones lineales biyectivas (inyectivas y sobreyectivas) se llaman isomorfismos, la palabra iso-

morfirmo significa igual forma. En esta seccion veremos como los isomorfismos preservan la estructura de los

espacios vectoriales. Comenzamos con la definicion de isomorfismo.

Definicion 3.4. Sean V y W espacios vectoriales y T : V −→ W una transformacion lineal, decimos que T

es un isomorfismo si es una funcion biyectiva. Tambin diremos que V es isomorfo a W lo cual denotaremos

V ∼= W .

Los teoremas 3.6 y 3.8 implican lo siguiente.

Teorema 3.9. Sea T : Rn −→ Rm una transformacion lineal y A =ETE la matriz de T , entonces T es un

isomorfismo si y solo si rango(A) = m = n.

Corolario 3.10. Rn ∼= Rm si y solo si m = n.

Ejemplo 3.13. Sea T : R2 −→ R2 la tranformacion lineal cuya matriz es A =

1 1

1 −1

, determinar si T es

un isomorfismo.

Solucion. La forma escalonada reducida de A es la matriz A = I, por tanto T es un isomorfismo.

Teorema 3.11. Sea T : Rn −→ Rn una transformacion lineal y A =ETE la matriz de T , entonces T−1 es una

transformacion lineal y su matriz es A−1.

Demostracion. Demostracion. Primero veamos que T−1 es lineal. Sean y1, y2 ∈ Rn, como T es sobre, existen

x1, x2 ∈ Rn tal que y1 = T (x1) y y2 = T (x2), entonces

T−1(y1 + y2) = T−1(T (x1) + T (x2)) = T−1(T (x1 + x2)) = x1 + x2

= T−1(y1) + T−1(y2)

Ahora, sea α ∈ R, entonces tenemos

T−1(αy1) = T−1(αT (x1)) = T−1(T (αx1)) = αx1 = αT−1(y1).

Por tanto T−1 es lineal. Ahora veamos que A−1 es la matriz de T . Notese que y ∈ Rn entonces y = AA−1y =

T (A−1y), aplicando T−1 a ambos lados obtenemos

T−1(y) = A−1y.

Page 75: 64806112 Algebra Lineal Matlab

70

Conluimos que A−1 es la matriz de T−1.

Observacion 3.2. En general si T : V −→ W es un isomorfismo, entonces T−1 : W −→ V tambien es una

transformacion lineal.

Ejemplo 3.14. En el ejemplo anterior vimos que la transformacion lineal T : R2 −→ R2 cuya matriz es

A =

1 1

1 −1

es invertible, entonces T−1 es un isomorfismo y su matriz es A−1 =

1/2 1/2

1/2 −1/2

. Es decir, la

transformacion esta dada por T

xy

=

12 (x+ y)12 (x− y)

.

Hasta ahora la mayoria de los teoremas que hemos visto en el capıtulo y en el anterior aplican solamente al

espacio vectorial Rn y a transformaciones lineales de Rn en Rm. Vamos a usar la teorıa de isomorfismos para

generalizar los teoremas vistos, comenzamos con un resultado que nos va a servir de puente para extender estos

teoremas.

Teorema 3.12. Sea V un espacio vectorial y {v1, . . . , vn} una base para V , entonces V ∼= Rn. Un isomorfismo

entre estos espacios esta dado por la funcion T : V −→ Rn definida por T (α1v1 + · · ·+ αnvn) =

α1

...

αn

, a esta

funcion se le conoce como el isomorfismo canonico.

Demostracion. Veamos que T es un isomorfismo.

T es lineal: Sean v, w ∈ V y α ∈ R, como {v1, . . . , vn} es una base para V , existen α1, . . . , αn, β1 . . . , βn ∈ R tal

que v = α1v1 + · · ·+ αnvn y w = β1v1 + · · ·+ βnvn, luego

T (v + w) = T (α1v1 + · · ·+ αnvn + β1v1 + · · ·+ βnvn)

= T ((α1 + β1)v1 + · · ·+ (αn + βn))

=

α1 + β1

...

αn + βn

=

α1

...

αn

+

β1

...

βn

= T (α1v1 + · · ·+ αnvn) + T (β1v1 + · · ·+ βnvn)

= T (v) + T (w).

Page 76: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 71

T (αv) = T (α(α1v1 + · · ·+ αnvn))

= T (αα1v1 + · · ·+ ααnvn)

=

αα1

...

ααn

= α

α1

...

αn

= αT (α1v1 + · · ·+ αnvn)

= αT (v).

T es inyectiva: Para esto veamos que Ker(T ) = {0}.

“⊆”Sea v = α1v1 + · · · + αnvn ∈ Ker(T ), entonces 0 = T (v) =

α1

...

αn

. Entonces α1 = · · · = αn = 0 y por

tanto v = 0.

La otra inclusion es inmediata ya que T (0) = 0 y por tanto 0 ∈ Ker(T ).

T es sobreyectiva: Sea y =

α1

...

αn

∈ Rn, y sea v = α1v1 + · · ·+ αnvn ∈ V , entonces tenemos que

T (v) = T (α1v1 + · · ·+ αnvn) =

α1

...

αn

= y.

Por tanto T es sobreyectiva.

Concluimos que T es un isomorfismo.

Ejemplo 3.15. El conjunto {1, t, t2, t3} es una base del espacio V = P3, por tanto V es isomorfo a R4 y el

isomorfismo esta dado por

T (a0 + a1t+ a2t2 + a3t

3) =

a0

a1

a2

a3

.

El numero de vectores en una base es invariante, este hecho se demostro en el Capıtulo 2, pero en el caso de

subespacios de Rn, a continuacion lo demostramos para espacios vectoriales en general.

Teorema 3.13. Sea V un espacio vectorial y sean {v1, . . . , vn} y {w1, . . . , wm} bases para V , entonces m = n.

Demostracion. Por el teorema anterior tenemos que V ∼= Rn y V ∼= Rm, luego Rn ∼= Rm. Luego por el

Corolario 3.10 tenemos que m = n.

Page 77: 64806112 Algebra Lineal Matlab

72

Esto nos permite definir la dimension de espacios vectoriales, al tener que el numero de vectores en una base

es invariante.

Definicion 3.5. Sea V un espacio vectorial, definimos la dimensin de V, denotada por dimV , como el numero

de vectores en una base de V. Es decir, si {v1, . . . , vn} es una base para V entonces dimV = n.

Ejemplo 3.16. 1. Como el conjunto {1, t, . . . , tn} es una base para Pn, tenemos que dim Pn = n+ 1.

2. Una base para M22(R) esta dada por

1 0

0 0

,0 1

0 0

,0 0

1 0

,0 0

0 1

, por tanto dimM22(R) = 4.

3. En general tenemos que dimMmn(R) = mn. Una base para este espacio esta dada por {Eij | i =

1, dots, n, j = 1, . . . ,m}, donde Eij es la matriz m × n con un 1 en la posicion ij y cero en las de-

mas posiciones.

El siguiente teorema muestra como los isomorfismo conservan la estructura de los espacios vectoriales, en

otras palabras, el siguiente teorema justifica por que las transformaciones biyectivas son llamadas isomorfismos.

Teorema 3.14. Sean V y W espacios vectoriales, T : V −→W un isomorfismo, {v1, . . . , vn} ⊆ V y sea v ∈ V .

Entonces se tiene lo siguiente:

1. El conjunto {v1, . . . , vn} es linealmente independiente si y solo si el conjunto {T (v1), . . . , T (vn)} es lineal-

mente independiente.

2. El conjunto {v1, . . . , vn} genera a V si y solo si el conjunto

{T (v1), . . . , T (vn)} genera a W .

3. El conjunto {T (v1), . . . , T (vn)} es una base para V si y solo si el conjunto {T (v1), . . . , T (vn)} es una base

para W .

4. dimV = dimW .

5. v ∈ 〈v1, . . . , vn〉 si y solo si T (v) ∈ 〈T (v1), . . . , T (vn)〉.

Demostracion. 1. “⇒”Supongamos que el conjunto {v1, . . . , vn} es linealmente independiente y supong-

amos que α1T (v1) + · · · + αnT (vn) = 0. Entonces 0 = T (0) = T (α1v1 + · · · + αnvn). Como T es 1-1,

tenemos que α1v1 + · · ·+ αnvn = 0. Ahora, como {v1, . . . , vn} es linealmente independiente, tenemos que

α1 = · · · = αn = 0. De aquı concluimos que {T (v1), . . . , T (vn)} es linealmente independiente.

“⇐”Supongamos que {T (v1), . . . , T (vn)} es linealmente independiente y supongamos que α1v1 + · · · +

αnvn = 0. Entonces tenemos que 0 = T (0) = T (α1v1 + · · · + αnvn) = α1T (v1) + · · · + αnT (vn). Como

{T (v1), . . . , T (vn)} es linealmente independiente tenemos que α1 = · · · = αn = 0. Por tanto {v1, . . . , vn}

es linealmente independiente.

Page 78: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 73

2. Como T es un isomorfismo, es en particular inyectivo y sobreyectivo, por tanto Ker(T ) = {0} y W =

Im(T ). Entonces tenemos lo siguiente:

{T (v1), . . . , T (vn)} genera a W si y solo si {T (v1), . . . , T (vn)} genera a Im(T ) si y solo si para todo v ∈ V

existen constantes α1, . . . , αn tal que T (v) = α1T (v1) + · · ·+αnT (vn) si y solo si para todo v ∈ V existen

constantes α1, . . . , αn tal que T (v) = T (α1v1 + · · ·+αnvn) si y solo si para todo v ∈ V existen constantes

α1, . . . , αn tal que 0 = T (α1v1 + · · · + αnvn) − T (v) = T (α1v1 + · · · + αnvn − v) si y solo si para todo

v ∈ V existen constantes α1, . . . , αn tal que α1v1 + · · ·+ αnvn − v ∈ Ker(T ) = {0} si y solo si para todo

v ∈ V existen constantes α1, . . . , αn tal que α1v1 + · · ·+αnvn− v = 0 si y solo si para todo v ∈ V existen

constantes α1, . . . , αn tal que v = α1v1 + · · ·+ αnvn si y solo si {v1, . . . , vn} genera a V .

3. Es inmediato de 1 y 2.

4. Es inmediato de 3

5. v ∈ 〈v1, . . . , vn〉 si y solo si existen constantes α1, . . . , αn tal que v = α1v1 + · · · + αnvn si y solo si

existen constantes α1, . . . , αn tal que T (v) = T (α1v1 + · · ·+ αnvn) = α1T (v1) + · · ·+ αnT (vn) si y solo si

T (v) ∈ 〈T (v1), . . . , T (vn)〉.

En la proxima seccion explotaremos toda la potencia de los teoremas 3.5 y 3.14, el cual nos permitira estudiar

independencia lineal, conjuntos generadores y bases en espacios vectoriales arbitrarios. Tambien nos ayudara a

estudiar inyectividad, sobreyectividad y biyectividad de transformaciones lineales entre espacios vectoriales

arbitrarios.

3.5. Espacios Vectoriales arbitrarios

En esta seccion veremos como los teoremas 3.5 y 3.14 nos permiten resolver las preguntas sobre independencia

lineal, conjuntos generadores y bases en espacios vectoriales arbitrarios con un procedimiento Gauss-Jordan.

Ejemplo 3.17. Considere los polinomios p1 = 1 − 2t2, p2 = t + t2 − t3 y p3 = t + 3t2P3. Determinar si los

polinomios son linealmente independientes.

Solucion. Por el Teorema 3.5 la funcion T : P3 −→ R4 determinada por T (a0 +a1t+a2t2 +a3t

3) =

a0

a1

a2

a3

es un

isomorfismo. Entonces por el Teorema 3.14 tenemos que el conjunto {p1, p2, p3} es linealmente independiente si

y solo si el conjunto

T (p1) =

1

0

−2

0

, T (p2) =

0

1

1

−1

, T (p3) =

0

1

3

0

es linealmente independiente.

Page 79: 64806112 Algebra Lineal Matlab

74

Sabemos que este ultimo conjunto es LI si la matriz [T (p1) T (p2) T (p3)] =

1 0 0

0 1 1

−2 1 3

0 −1 0

tiene rango

igual al numero de columnas. Aplicando el procedimiento Gauss-Jordan obtenemos que la forma escalonada

reducida de esta matriz es la matriz

1 0 0

0 1 0

0 0 1

0 0 0

. Luego los vectores {T (p1), T (p2), T (p3)} son LI y por tanto los

polinomios {p1, p2, p3} son LI.

Ejemplo 3.18. (MatLab) Sean m1 =

1 −2

0 0

, m2 =

0 1

1 −1

, m3 =

0 3

1 0

y m4 =

−5 1

−5 3

, determine

si las matrices son LI en M22(R) y si no lo son encontrar una dependencia lineal entre ellos.

Solucion. Por el Teorema 3.5 la funcion T : M22(R) −→ R4 determinada por T

a c

b d

=

a

b

c

d

es un

isomorfismo. Entonces el conjunto {m1,m2,m3,m4} es linealmente independiente si y solo si el conjuntoT (m1) =

1

0

−2

0

, T (m2) =

0

1

1

−1

, T (m3) =

0

1

3

0

, T (m4) =

−5

−5

1

3

es linealmente independiente. Al calcular

la forma escalonada de la matriz

A = [T (m1) T (m2) T (m3) T (m4)] obtenemos A′ =

1 0 0 −5

0 1 0 −3

0 0 1 −2

0 0 0 0

, por tanto los vectores no son LI y

tenemos que T (m4) = −5T (m1) − 3T (m2) − 2T (m1), como T es un isomorfismo tenemos que m4 = −5m1 −

3m2 − 2m3, lo que nos da una dependencia lineal entre las matrices m1, m2, m3 y m4.

Ejemplo 3.19. Sean m1, m2, m3 y m4 las matrices del ejemplo anterior, calcular una base y la dimension de

H = 〈m1,m2,m3,m4〉 y determine si m =

1 1

1 3

∈ H.

Solucion. De acuerdo al ejemplo anterior sabemos que m1, m2 y m3 son LI y que m4 es una combinacion

lineal de estas, por tanto {m1,m2,m3} es una base para H y dim(H) = 3.

Para determinar si m ∈ H, usamos el Teorema 3.14 el cual dice que m ∈ H si y solo si T (m) ∈ T (H) si y

solo si existen constantes α1, α2, α3 tal que

T (m) = α1T (m1) + α2T (m2) + α3T (m3) si y solo si el conjunto

{T (m1), T (m2), T (m3), T (m)} es LD.

Page 80: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 75

Esto lo podemos saber calculando la forma escalonada reducida de la matriz

A = [T (m1) T (m2) T (m3) T (m)] =

1 0 0 1

0 1 1 1

−2 1 3 1

0 −1 0 3

.

Despues de hacer los respectivos calculos podemos notar que A′ = I y por tanto los vectores son LI. Concluimos

que T (m) /∈ T (H), luego m /∈ H.

3.5.1. Transformaciones lineales entre espacios vectoriales arbitrarios.

El Teorema 3.5 tamben nos va ser muy util para calcular el kernel y la imagen de una transformacion lineal

entre espacios vectoriales generales usando reduccion Gauss-Jordan. Lo que nos permite hacer todos los calculos

sobre espacios vectoriales y transformaciones lineales de una manera computacional. Necesitamos el siguiente

teorema.

Teorema 3.15. Sean V y W espacios vectoriales, sea {v1, . . . , vn} una base para V , {w1, . . . , wm} una base

para W y T : V −→ W una transformacion lineal. Por el Teorema 3.12 sabemos que existen isomorfismos

T1 : Rn −→ V y T2 : Rm −→ W. Por tanto tenemos el diagrama

V −→ W

↑ ↑

Rn −→ Rmdonde la transformacion S

esta dada por S = T−12 ◦ T ◦ T1. Entonces tenemos lo siguiente:

1. S es inyectiva si y solo si T es inyectiva.

2. S es sobre si y solo si T es sobre.

3. S es un isomorfismo si y solo si T es un isomorfismo.

Demostracion. Por la definicion de S tenemos que T = T2 ◦S ◦ T−11 , ademas como T1 y T2 son isomorfismos,

son en particular inyectivos y sobreyectivos.

1. “⇒”Si S es inyectiva entonces T = T2 ◦ S ◦ T−11 es una composicion de transformaciones inyectivas y por

tanto es inyectiva.

“⇐”Si T es inyectiva entonces S = T−12 ◦ T ◦ T1 es una composicion de transformaciones inyectivas y por

tanto S es inyectiva.

2. “⇒”Si S es sobreyetiva entonces T = T2 ◦ S ◦ T−11 es una composicion de transformaciones sobreyectivas

y por tanto es sobreyectiva.

“⇐”Si T es sobreyectiva entonces S = T−12 ◦T ◦T1 es una composicion de transformaciones sobreyectivas

y por tanto S es sobreyectiva.

Page 81: 64806112 Algebra Lineal Matlab

76

3. Se sigue de 1. y 2.

Este teorema nos permite ver cualquier transformacion lineal como una transformacion lineal de Rn en Rm,

pero no nos dice como determinar si la transformacion es inyectiva y/o sobreyectiva, tampoco nos dice como

calcular el kernel y la imagen. Los siguientes corolarios nos daran las respuestas.

Corolario 3.16. Sean V y W espacios vectoriales, sea {v1, . . . , vn} una base para V , {w1, . . . , wm} una base

para W , T : V −→ W una transformacion lineal. T1 : Rn −→ V y T2 : Rm −→ W los isomorfismos canonicos

de V y W , respectivamente, sea S = T−12 ◦ T ◦ T1 : Rn −→ Rm y sea A =ESE la matriz de la transformacion

S. Entonces

1. T es 1-1 si y solo si rango(A) = # de columnas de A.

2. T es sobre si y solo si rango(A) = # de filas de A.

3. es un isomorfismo si y solo si rango(A) = # de filas de A = # de columnas.

Demostracion. Esto es una consecuencia inmediata del teorema anterior y los Teoremas 3.6, 3.8 y 3.9

Corolario 3.17. Sean V y W espacios vectoriales, sea {v1, . . . , vn} una base para V , {w1, . . . , wm} una base

para W , T : V −→ W una transformacion lineal. T1 : Rn −→ V y T2 : Rm −→ W los isomorfismos canonicos

de V y W , respectivamente, sea S = T−12 ◦ T ◦ T1 : Rn −→ Rm y sea A =ESE la matriz de la transformacion

S. Entonces

1. Ker(T ) = T1(Ker(S)) = T1(Nul(A)).

2. Im(T ) = T2(Im(S)) = T2(Col(A)).

En otras palabras

{x1, . . . , xr} es una base de Nul(A) si y solo si {T1(x1), . . . , T1(xr)} es una base de Ker(T ) y

{y1, . . . , ys} es una base de Col(A) si y solo si {T2(y1), . . . , T2(ys)} es una base de Im(T ).

Demostracion. 1.

v ∈ Ker(T ) si y solo si 0 = T (v) = T2 ◦ S ◦ T−11 (v)

si y solo si T2(S ◦ T−11 (v)) = 0

si y solo si S ◦ T−11 (v) = 0

si y solo si T−11 (v) ∈ Ker(S) = Nul(A)

si y solo si v ∈ T1(Nul(A)).

Page 82: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 77

2.

w ∈ Im(T ) si y solo si existe v ∈ V tal que w = T (v) = T2 ◦ S ◦ T−11 (v)

si y solo si existe v ∈ V tal que T−12 (w) = S(T−1

1 (v))

si y solo si T−12 (w) ∈ Im(S) = Col(A)

si y solo si y ∈ T2(Col(A)).

A continuacion daremos ejemplos de como usar estos corolarios para calcular la imagen y el kernel de

transformaciones lineales.

Ejemplo 3.20. Considere la funcion derivacion D : P3 −→ P2 definida por D(a+bt+ct2 +dt3) = b+2ct+3dt2.

Determinar si es 1-1 y/o sobre, si es un isomorfismo, calcular el kernel y la imagen de D.

Solucion. El conjunto {1, t, t2} es una base de P2 y {1, t, t2, t3} es una base de P3. Considere los isomorfismos

T1 : R4 −→ P3 y T2 : R3 −→ P2 definidos por T1

a

b

c

d

= a+ bt+ ct2 + dt3 y T2

a

b

c

= a+ bt+ ct2 (Los

isomorfismos canonicos de P3 y P2, respectivamente.)

La transformacion S = T−12 ◦D ◦ T1 : R4 −→ R3 esta dada por

S

a

b

c

d

= T−12 ◦D ◦ T1

a

b

c

d

= T−12 ◦D(a+ bt+ ct2 + dt3)

= T−12 (b+ 2ct+ 3dt2) =

b

2c

3d

.La matriz de esta transformacion es

A =E SE = [S(e1) S(e2) S(e3) S(e4)] =

0 1 0 0

0 0 2 0

0 0 0 3

y su forma escalonada esta dada por A′ =

0 1 0 0

0 0 1 0

0 0 0 1

. Por tanto la transformacion S es sobre pero no

inyectiva, luego por el Teorema 3.15 tenemos que D es sobreyectiva pero no inyectiva, por tanto no es un

isomorfismo.

Page 83: 64806112 Algebra Lineal Matlab

78

Ahora pasamos a calcular el kernel y la imagen. Como D es sobre entonces Im(D) = P2. Para el kernel,

usamos el Corolario 3.17, el cual no dice que si calculamos una base de Nul(A) y aplicamos T1 obtenemos una

base de Ker(D).

Notese que

α1

α2

α3

α4

∈ Nul(A′) = Nul(A) si y solo si α2 = α3 = α4 = 0

si y solo si

α1

α2

α3

α4

=

α1

0

0

0

= α1

1

0

0

0

Luego x1 =

1

0

0

0

es una base de Nul(A) = Ker(S). Por tanto {T1(x1) = 1} una base para Ker(D). Es

decir Ker(D) = 〈1〉 = { polinomios constantes }.

Ejemplo 3.21. Considere la funcion integracion D : P2 −→ P3 definida por I(a+ bt+ ct2) = at+ 12bt

2 + 13ct

3.

Determinar si I es 1-1 y/o sobre, si es un isomorfismo, calcular el kernel y la imagen de I.

Solucion. Nuevamente consideramos las bases {1, t, t2} de P2 y {1, t, t2, t3} de P3 y los isomorfismos T1 :

R3 −→ P2 definido por T1

a

b

c

= a+ bt+ ct2 y T2 : R4 −→ P3 definido por T2

a

b

c

d

= a+ bt+ ct2 + dt3.

En este caso la transformacion S = T−12 ◦ I ◦ T1 : R3 −→ R4 esta dada por

S

a

b

c

= T−1

2 ◦ I ◦ T1

a

b

c

= T−1

2 ◦ I(a+ bt+ ct2)

= T−12 (at+

12bt2 +

13ct3) =

0

a

1/2b

1/3c

.

Page 84: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 79

La matriz de esta transformacion es

A =E SE = [S(e1) S(e2) S(e3)] =

0 0 0

1 0 0

0 1/2 0

0 0 1/3

y su forma escalonada reducida esta dada por A′ =

1 0 0

0 1 0

0 0 1

0 0 0

. Por tanto la transformacion S es inyectiva pero

no sobreyectiva, luego por el Teorema 3.15 tenemos que I es inyectiva pero no sobreyectiva, por tanto no es un

isomorfismo.

Ahora pasamos a calcular el kernel y la imagen. Como I es inyectiva entonces Ker(I) = {0}. Para calcular

la imagen, usamos el Corolario 3.17, el cual no dice que si calculamos una base de Col(A) y aplicamos T2

obtenemos una base de Im(I).

De la matriz A′ obtenemos que una base para Col(A) = Im(S) esta dada por el conjunto

y1 =

0

1

0

0

, y2 =

0

0

1/2

0

, y3 =

0

0

0

1/3

,

ya que A′ tiene pivotes en las tres columnas. Por tanto el conjunto {T2(y1), T2(y2), T2(y3)} ={t, 1

2 t2, 1

3 t3}

es

una base para Im(I). Es decir

Im(I) =⟨t,

12t2,

13t3⟩

= 〈t, t2, t3〉.

Ejemplo 3.22. Sea X =

1 −1

−1 1

y sea T : M22 −→ M22 la funcion definida por T (B) = BX. Demuestre

que T es una transformacion lineal, determine si T es inyectiva y/o sobre, si es un isomorfismo y calcular el

kernel y la imagen de T .

Solucion. Primero veamos que T es una transformacion lineal. Sean B1, B2 ∈M22 y α ∈ R,

T (B1 +B2) = (B1 +B2)X = B1X +B2X = T (B1) + T (B2) y

T (αB1) = (αB1)X = α(B1X) = αT (B1).

Fijemos la base E11 =

1 0

0 0

, E21 =

0 0

1 0

, E12 =

0 1

0 0

, E22 =

0 0

0 2

Page 85: 64806112 Algebra Lineal Matlab

80

y consideremos el isomorfismo H : R4 −→M22 definido por

H

a

b

c

d

= aE11 + bE21 + cE12 + dE22 =

a c

b d

.

La transformacion S = H−1 ◦ T ◦H : R4 −→ R4 esta dada por

S

a

b

c

d

= H−1 ◦ T ◦H

a

b

c

d

= H−1 ◦ T

a c

b d

= H−1

a c

b d

X = H−1

a− c −a+ c

b− d −b+ d

=

a− c

b− d

−a+ c

−b+ d

.

La matriz de esta transformacion es

A = ESE = [S(e1) S(e2) S(e3) S(e4)] =

1 0 −1 0

0 1 0 −1

−1 0 1 0

0 −1 0 1

y su forma escalonada reducida es la matriz A′ =

1 0 −1 0

0 1 0 −1

0 0 0 0

0 0 0 0

. Luego S no es inyectiva ni sobreyectiva y

tampoco un isomorfismo.

De la matriz A′ tenemos que una base para Col(A) esta dada por las dos primeras columnas de A, es decir,m1 =

1

0

−1

0

,m2 =

0

1

0

−1

es una base para Col(A) = Im(S). Por tanto {H(m1), H(m2)} =

1 −1

0 0

, 0 0

1 −1

es una base de Im(T ).

Page 86: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 81

Ahora para calcular Ker(T ) necesitamos una base para Nul(A). Notese que

α1

α2

α3

α4

∈ Nul(A) = Nul(A′) si y solo siα1 = α3

α2 = α3

si y solo si

α1

α2

α3

α4

=

α3

α4

α3

α4

= α3

1

0

1

0

+ α4

0

1

0

1

Luego el conjunto

x1 =

1

0

1

0

, x2 =

0

1

0

1

es una base para Nul(A) = Ker(S). Por tanto el conjunto {H(x1), H(x2)} =

1 1

0 0

,0 0

1 1

es una base para Ker(T ).

Ejemplo 3.23. Sea X =

2 1

1 1

y sea T : M22 −→ M22 la funcion definida por T (B) = XB. Demuestre que

T es una transformacion lineal, determine si T es inyectiva y/o sobre, si es un isomorfismo y calcular el kernel

y la imagen de T .

Solucion. Con un argumento similar al del ejemplo anterior se demuestra que T es una transformacion lineal.

Para los demas calcilos fijemos la base

E11 =

1 0

0 0

, E21 =

0 0

1 0

, E12 =

0 1

0 0

, E22 =

0 0

0 2

y tomemos el isomorfismo H : R4 −→M22 definido por

H

a

b

c

d

= aE11 + bE21 + cE12 + dE22 =

a c

b d

.

Page 87: 64806112 Algebra Lineal Matlab

82

En este caso la transformacion S = H−1 ◦ T ◦H : R4 −→ R4 esta dada por

S

a

b

c

d

= H−1 ◦ T ◦H

a

b

c

d

= H−1 ◦ T

a c

b d

= H−1

Xa c

b d

= H−1

2a+ b 2c+ d

a+ b b+ d

=

2a+ b

a+ b

2c+ d

b+ d

.

La matriz de esta transformacion es

A = ESE = [S(e1) S(e2) S(e3) S(e4)] =

2 1 0 0

1 1 0 0

0 0 2 1

0 0 1 1

y su forma escalonada reducida es la matriz A′ =

1 0 0 0

0 1 0 0

0 0 1 0

0 0 0 1

= I. De esto concluimos que S es inyectiva y

sobreyectiva y por tanto es un isomorfismo.

Como T es un isomorfismo tenemos que Ker(T ) = {0} y Im(T ) = M22.

3.6. Propiedades de los Espacios Vectoriales

En esta seccion estudiaremos resultados clasicos de espacios vectoriales, como el Teorema de la base incom-

pleta y el Teorema de la dimension, entre otros. Comenzamos con el siguiente resultado que garantiza que la

representacion de un vector en terminos de una base es unica.

Teorema 3.18. Sea V un espacio vectorial, {v1, . . . , vn} una base de V y v ∈ V , entonces existen constantes

unicas α1, . . . , αn talque v = α1v1 + · · ·+ αnvn.

Demostracion. Supongamos que existen constantes α1, . . . , αn talque v = α1v1 + · · · + αnvn y supongamos

que existen otras constantes β1, . . . , βn tal que v = β1v1 + · · · + βnvn. Entonces restando estas dos ecuaciones

obtenemos:

0 = v − v = α1v1 + · · ·+ αnvn − (β1v1 + · · ·+ βnvn) = (α1 − β1)v1 + · · ·+ (α1 − βn)vn

luego, como los vectores v1, . . . , vn son LI, entonces 0 = α1−β1 = · · · = αn−βn, por tanto α1 = β1, . . . , αn−βny las constantes son unicas.

Page 88: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 83

Los siguientes dos teoremas generalizaciones de teoremas que vimos en el Capıtulo 2 para Rn.

Teorema 3.19. Sea V un espacio vectorial y sea {v1, . . . , vn} un conjunto linealmente independiente. Si

dim(V ) = n entonces {v1, . . . , vn} es una base para V.

Demostracion. Como dim(V ) = n, aplicando el Teorema 3.12 existe un isomorfismo T : V −→ Rn y por el

Teorema 3.13 el conjunto {T (v1), . . . , T (vn)} es linealmente independiente en Rn, luego por el Teorema 2.11

parte 2. Este conjunto forma una base para Rn. Aplicando nuevamente el Teorema 3.12 tenemos que {v1, . . . , vn}

es una base de V .

Teorema 3.20. Sean V y W espacios vectoriales con dim(V ) = n y sea T : V −→W una transformacin lineal.

Entonces dim(Ker(T )) + dim(ImT ) = n.

Demostracion. Sea m = dim(W ) y sean T1 : Rn −→ V y T2 : Rm −→ W los isomorfismos canonicas de V y

W , respectivamente. Definamos S = T−12 ◦T ◦T1 y sea A la matriz de S, entonces por el Corolario 2.17 tenemos

que

dim(NulA) + dim(ColA) = n.

Ahora, como dim(ImT ) = dim(ImS) = dim(ColA) y

dim(KerT ) = dim(KerS) = dim(NulA) entonces tenemos

dim(ImT ) + dim(KerT ) = dim(ImS) + dim(NulS)

= dim(ColA) + dim(NulA) = n.

Ahora vamos a demostrar el teorema de la base incompleta, para facilitar su demostracion veamos el siguiente

Lema.

Lema 3.21. Sea V un EV, {v1, . . . , vk} ⊆ V un conjunto de vectores linealmente independientes y w ∈ V . Si

w /∈ 〈v1, . . . , vk〉 entonces el conjunto {v1, . . . , vk, w} es linealmente independiente.

Demostracion. Supongamos que w /∈ 〈v1, . . . , vk〉. Para demostrar que

{v1, . . . , vk, w} es linealmente independiente, supongamos que

α1v1 + · · ·+ αkvk + βw = 0 (3.1)

y veamos que las constantes son todas cero.

Primero notese que β = 0, ya que si β 6= 0, entonces de 3.1 tenemos que w = −α1β v1−· · ·−

αk

β vk y por tanto

w ∈ 〈v1, . . . , vk〉 lo que contradice la hipotesis, por tanto β = 0. Entonces la Ecuacion 3.1 se reduce a

α1v1 + · · ·+ αkvk = 0,

pero como {v1, . . . , vk} es un conjunto linealmente indpendiente tenemos que 0 = α1 = · · · = αk. Concluimos

que {v1, . . . , vk, w} es linealmente independiente.

Page 89: 64806112 Algebra Lineal Matlab

84

Teorema 3.22. (Teorema de la base incompleta) Sea V un espacio vectorial con dim(V ) = n, sea

{v1, . . . , vk} un conjunto de vectores linealmente independientes con k < n. Entonces existen vectores vk+1, . . . , vn

tal que

{v1, . . . , vk, vk+1, . . . , vn} es una base para V .

Demostracion. Como {v1, . . . , vk} es linealmente independiente, entonces

dim〈v1, . . . , vk〉 = k y como k < n entonces 〈v1, . . . , vk〉 6= V , por tanto existe v ∈ V tal que v /∈ 〈v1, . . . , vk〉,

entonces aplicando el lema anterior tenemos que {v1, . . . , vk, v} es linealmente independiente.

Tomemos vk+1 = v y ası tenemos que {v1, . . . , vk, vk+1} es linealmente independiente. Si n = k+ 1 entonces

V = 〈v1, . . . , vk, vk+1〉 y por tanto {v1, . . . , vk, vk+1} es una base de V . En el caso k + 1 < n tenemos que

〈v1, . . . , vk, vk+1〉 6= V y existe w ∈ V tal que w /∈ 〈v1, . . . , vk, vk+1〉, entonces aplicando el lema anterior

tenemos que {v1, . . . , vk, vk+1, w} es linealmente independiente.

Hacemos vk+2 = w y tenemos que {v1, . . . , vk, vk+1, vk+2} es linealmente independiente.

Continuando de manera inductiva conseguimos vectores vk+1, . . . , vn tal que {v1, . . . , vk, vk+1, . . . , vn} es

linealmente independiente, entonces como dim(V ) = n, por el Teorema 3.19 tenemos que

{v1, . . . , vk, vk+1, . . . , vn} es una base para V .

Teorema 3.23. Sea V un espacio vectorial y sean W1 y W2 subespacios de V . Entonces

dim(W1 +W2) = dim(W1) + dim(W2)− dim(W1 ∩W2).

Demostracion. Sea n = dim(V ), r = dim(W1), s = dim(W2) y t = dim(W1 ∩W2). Sea {w1, . . . , wt} una base

paraW1∩W2, por el Teorema de la base incompleta, existen vectores xt+1, . . . , xr tal que {w1, . . . , wt, xt+1, . . . , xr}

es una base para W1 y existen vectores yt+1, . . . , ys tal que {w1, . . . , wt, yt+1, . . . , ys} es una base para W2.

Afirmacion 1: El conjunto {w1, . . . , wt, xt+1, . . . , xr, yt+1, . . . , ys} es linealmente independiente.

Demostracion: supongamos que

α1w1 + · · ·+ αtwt + βt+1xt+1 + · · ·+ βrxr + λt+1yt+1 + · · ·+ λsys = 0. (3.2)

Sea v = λt+1yt+1 + · · ·+ λsys ∈W2, entonces por 3.2 tenemos que

v = λt+1yt+1 + · · ·+ λsys = −α1w1 − · · · − αtwt − βt+1xt+1 − · · ·+ βrxr ∈W1

por tanto v ∈W1 ∩W2, entonces existen constantes σ1, . . . , σt tal que v = σ1w1 + · · ·+σtwt. Luego 0 = v− v =

σ1w1 + · · · + σtwt − λt+1yt+1 − · · · − λsys y como {w1, . . . , wt, yt+1, . . . , ys} es linealmente independiente, por

ser base de W2, entonces

0 = σ1 = · · · = σt = λ1 = · · · = λs.

Entonces 3.2 se reduce a α1w1 + · · · + αtwt + βt+1xt+1 + · · · + βrxr = 0, pero como {w1, . . . , wt, xt+1, . . . , xr}

es linealmente independiente, por ser base de W1, tenemos que

0 = α1 = · · · = αt = β1 = · · · = βs.

Page 90: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 85

Concluimos que {w1, . . . , wt, xt+1, . . . , xr, yt+1, . . . , ys} es linealmente independiente, lo que demuestra la Afir-

macion 1.

Afirmacion 2: El conjunto {w1, . . . , wt, xt+1, . . . , xr, yt+1, . . . , ys} genera a W1 +W2.

Demostracion: Sea w ∈W1 +W2, entonces existen x ∈W1 y y ∈W2 tal que w = x+ y.

Como {w1, . . . , wt, xt+1, . . . , xr} es una base para W1, existen constantes α1, . . . , αr tal que

x = α1w1 + · · ·+ αtwt + αt+1xt+1 + · · ·+ αrxr. (3.3)

Similarmente existen constantes β1, . . . , βs tal que

y = β1w1 + · · ·+ βtwt + βt+1yt+1 + · · ·+ βsys. (3.4)

De las Ecuaciones 3.3 y 3.4 tenemos que

w =x+ y

=α1w1 + · · ·+ αtwt + αt+1xt+1 + · · ·+ αrxr

+ β1w1 + · · ·+ βtwt + βt+1yt+1 + · · ·+ βsys

=(α1 + β1)w1 + · · ·+ (αt + βt)wt

+ αt+1xt+1 + · · ·+ αrxr + βt+1yt+1 + · · ·+ βsys.

Lo que demuestra la Afirmacion 2.

De las afirmaciones 1. y 2. tenemos que el conjunto

{w1, . . . , wt, xt+1, . . . , xr, yt+1, . . . , ys} es una base para W1 +W2. Por tanto

dim(W1 +W2) = t+ r − t+ s− t = r + s− t = dim(W1) + dim(W2)− dim(W1 ∩W2).

Observacion 3.3. Notese que en el caso particular en el que W1 ∩W2 = {0} tenemos que

dim(W1 +W2) = dim(W1) + dim(W2).

En este caso decimos que W1 +W2 es la suma directa de W1 y W2.

Para mayor claridad definimos suma directa a continuacion.

Definicion 3.6. (Suma Directa) Sea V un espacio vectorial y sean W1 y W2 subespacios de V , decimos que

V es la suma directa de W1 y W2, lo cual denotamos por V = W1 ⊕W2 si V = W1 +W2 y W1 ∩W2 = {0}.

El siguiente teorema caracteriza la suma directa de espacios, en general se dice que V es suma directa de

subespacios si al unir bases de estos se forma una base de V , esto lo enunciamos a continuacion.

Teorema 3.24. Sea V un espacio vectorial, sean W1 y W2 subespacios de V y sean {v1, . . . , vr} y {w1, . . . , ws}

bases para W1 y W2, respectivamente. Entonces V = W1 ⊕W2 si y solo si

{v1, . . . , vr, w1, . . . , ws} es una base para V .

Page 91: 64806112 Algebra Lineal Matlab

86

Demostracion. “⇒”Supongamos que V = W1 ⊕W2, entonces V = W1 +W2 y W1 ∩W2 = {0}, entonces por

la Afirmacion 1. del teorema anterior tenemos que {v1, . . . , vr, w1, . . . , ws} es una base para W1 +W2 = V.

“⇐”Supongamos que {v1, . . . , vr, w1, . . . , ws} es una base para V .

Afirmacion 1. V = W1 +W2

Demostracion. Sea v ∈ V , como {v1, . . . , vr, w1, . . . , ws} es una base para V , existen constantes α1, . . . , αr, β1, . . . , βs

tal que

v = α1v1 + · · ·+ αrvr︸ ︷︷ ︸∈W1

+β1w1 + · · ·+ βsws︸ ︷︷ ︸∈W2

∈W1 +W2.

La otra inclusion es clara ya que como W1 y W2 son subespacios entonces W1 + W2 es un subespacio, en

particular es un subconjunto. Esto demuestra la afirmacion.

Afirmacion 2. W1 ∩W2 = {0}.

Demostracion. Sea v ∈ W1 ∩W2, entonces v ∈ W1 y v ∈ W2. Como {v1, . . . , vr} es una base de W1, existen

constantes α1, . . . , αr tal que

v = α1v1 + · · ·+ αrvr. (3.5)

Un argumento similar garantiza la existencia de constantes β1, . . . , βs tal que

v = β1v1 + · · ·+ βrvr. (3.6)

De las ecuaciones 3.5 y 3.6 tenemos que

0 = v − v = α1v1 + · · ·+ αrvr − β1w1 + · · ·+ βsws.

Ahora, como {v1, . . . , vr, w1, . . . , ws} es linealmente independiente, por ser base para V , tenemos que 0 = α1 =

· · · = αr = β1 = · · · = βs. Por tanto v = α1v1 + · · ·+ αrvr = 0 y W1 ∩W2 ⊆ {0}. La otra inclusion es trivial ya

que 0 ∈W1 +W2 luego {0} ⊆W1 ∩W2. Lo que prueba la afirmacion.

De las afirmaciones 1. 2. tenemos que V = W1 ⊕W2.

Page 92: 64806112 Algebra Lineal Matlab

Capıtulo 4

Ortogonalidad en Rn

4.1. Definiciones Basicas

Comenzamos el capıtulo con la definicion de producto escalar de vectores en Rn.

Definicion 4.1. Sean x =

x1

...

xn

y y =

y1...

yn

vectores en Rn, definimos el producto por escalar de x y y,

denotado por x · y, por la formula

x · y = x1y1 + · · ·+ xnyn =n∑i=1

xiyi.

Ejemplo 4.1. Sean x =

1

2

3

y y =

−1

−1

2

, entonces x · y = 1 · (−1) + 2 · (−1) + 3 · 2 = −1− 2 + 6 = 3.

Ejemplo 4.2. (MatLab) Sean x =

1

1

1

y y =

−1

−1

0

. El producto escalar x · y se calcula en MatLab como se

muestra continuacion

>> x = [1; 1; ; 1], y = [−1;−1; 0], x′ ∗ y

ans = -2.

De donde se tiene que x · y = −2.

Observacion 4.1. (Propiedades del producto escalar) Sean x, y, z ∈ Rn

1. (x+ y) · z = x · x+ y · z

2. x · (y + z) = x · y + x · z

87

Page 93: 64806112 Algebra Lineal Matlab

88

3. (αx) · y = x · (αy) = αx · y

4. x · x ≥ 0 y x · x = 0 si y solo si x = 0.

5. x · y = y · x.

El producto por escalar induce una geometrıa en Rn, ya que a partir de este, podemos definir la longitud (o

norma) de un vector y la distancia entre vectores.

Definicion 4.2. (Norma de un vector) Sea x =

x1

...

xn

un vector en Rn, definimos la norma de x, denotada

por ||x||, por la formula

||x|| =√x · x =

√x2

1 + · · ·+ x2n.

Ejemplo 4.3. De acuerdo a esta formula, la norma del vector v =

−1

−1

2

esta dada por

||v|| =√

(−1)2 + (−1)2 + 22 =√

6.

Definicion 4.3. (Distancia entre vectores) Sean x y y vectores en Rn, la distancia entre x y y esta dada

por la formula ||y − x||.

Ejemplo 4.4. Sean x =

1

2

3

y y =

−1

−1

2

, entonces la distancia entre x y y esta dada por

||y − x|| =√

(−1− 1)2 + (−1− 2)2 + (2− 3)2 =√

14.

Observacion 4.2. Notese que si x y y son vectores en R2 o en R3, entonces se cumple que

x · y = ||x|| ||y||cosθ, (4.1)

donde θ es el angulo formado por x y y

Aplicando la ley de cosenos obtenemos

||x− y||2 = ||x||2 + ||y||2 − 2||x||||y|| cos θ, (4.2)

pero, por la definicion de norma y las propiedades del producto escalar tenemos

||x− y||2 = (x− y) · (x− y) = x · x− x · y − y · x+ y · y = ||x||2 − 2x · y + ||y||2. (4.3)

De las ecuaciones (4.2) y (4.3) tenemos

x · y = ||x|| ||y||cosθ.

Page 94: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 89

Definicion 4.4. (Vectores ortogonales) Sean x, y ∈ Rn, decimos que x y y son ortogonales si x · y = 0.

Ejemplo 4.5. Sean x =

1

−1

2

y y =

1

1

1

, determinar si x y y son ortogonales y encontrar al angulo que

forman.

Solucion: El producto escalar x · y = 1 − 1 + 2 = 2, entonces los vectores no son ortogonales. Ahora, de la

ecuacion (4.1) tenemos que el angulo θ formado por x y y esta dado por

θ = cos−1

(x · y||x||||y||

)= cos−1

(2√6√

3

)= cos−1

(√2

3

).

La formula (4.1) se usa para definir el angulo formado por dos vectores x y y en Rn, la cual es como sigue.

Definicion 4.5. Sean x, y ∈ Rn, definimos el angulo formado por x y por

angulo entre x y y = cos−1

(x · y||x|| ||y||

). (4.4)

Ejemplo 4.6. Calcular el angulo formado por los vectores x =

1

0

1

0

y y =

1

0

0

1

.

Solucion Notese que x · y = 1 + 0 + 0 + 0 = 1, ||x|| =√

2 y ||y|| =√

2. Entonces de acuerdo a la Ecuacion (4.4)

tenemos que

angulo entre x y y = cos−1

(x · y||x|| ||y||

)= cos−1

(1√2√

2

)= cos−1

(12

)= 60◦.

Definicion 4.6. (Espacios ortogonales) Sean V y W subespacios de Rn , decimos que V y W son ortogonales

si v · w = 0 para todo v ∈ V y w ∈W .

Ejemplo 4.7. Sean V =

1

−1

−2

0

,

0

1

1

1

y W =

⟨−1

−1

0

1

subespacios de R4, entonces V y W son ortogonales

ya que todo elemento en v ∈ V tiene la forma v = a

1

−1

−2

0

+ b

0

1

1

1

=

a

−a+ b

−2a+ b

b

y todo elemento w ∈W tiene

la forma w = c

−1

−1

0

1

=

−c

−c

0

c

, donde a, b y c son numeros reales, por tanto

v · w = −ac+ (−a+ b)(−c) + (−2a+ b)0 + bc = −ac+ ac− bc+ bc = 0.

Page 95: 64806112 Algebra Lineal Matlab

90

Los subespacios ortogonales satisfacen lo siguiente.

Lema 4.1. Sean V y W subespacios ortogonales de Rn, entonces

1. V ∩W = {0},

2. Si {v1, . . . , vr} y {w1, . . . , ws} son bases para V y W , respectivamente, entonces el conjunto {v1, . . . , vr, w1, . . . , ws}

es linealmente independiente.

Demostracion. 1. Sea v ∈ V ∩W , entonces como V y W son ortogonales se tiene que v · v = 0 y por tanto

v = 0.

2. Supongamos que a1v1 + · · ·+ arvr + c1w1 + · · ·+ csws = 0, entonces

a1v1 + · · ·+ arvr = −c1w1 − · · · − csws ∈ V ∩W.

Por la parte 1. tenemos que a1v1 + · · · + arvr = 0, de donde a1 = · · · = ar = 0 y de aquı se sigue que

−c1w1 − · · · − csws = 0 y como {w1, . . . , ws} es una base entonces c1 = · · · = cr = 0.

El caso que estudiaremos a fondo en este capıtulo es cuando los dos subespacios ortogonales son complemen-

tarios, esto lo definimos a continuacion.

Definicion 4.7. (Complemento ortogonal) Sea V un subespacio de Rn, definimos el complemento ortogonal

de V , al cual denotaremos por V ⊥, como el conjunto

V ⊥ = {w ∈ Rn | v · w = 0, para todo v ∈ V }.

El siguiente teorema nos da un algoritmo para calcular la base para el complemento ortogonal de un sube-

spacio V de Rn.

Teorema 4.2. Sea A una matriz de tamano m× n, entonces tenemos que:

1. Fil(A)⊥ = Nul(A),

2. Col(A)⊥ = Nuliz(A).

Demostracion. Sean F1, . . . , Fm las filas y C1, . . . , Cn las columnas de A.

1. “⊆”Sea x ∈ Fil(A)⊥, entonces v · x = 0 para todo v ∈ Fil(A), en particular, 0 = F ti · x = Fix, para

i = 1, . . . ,m. De donde

Ax =

F1

...

Fm

x =

F1x

...

Fmx

=

0...

0

,es decir x ∈ Nul(A).

Page 96: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 91

“⊇”Sea x ∈ Nul(A), entonces 0 = Ax =

F1x

...

Fmx

, por tanto para i = 1, . . . ,m tenemos que 0 = Fix = F ti ·x.

Ahora si v ∈ Fil(A), entonces v = a1F1 + · · ·+ amFm y por tanto v · x = a1 F1 · x︸ ︷︷ ︸=0

+ · · ·+ am Fm · x︸ ︷︷ ︸=0

= 0,

de donde x ∈ Fil(A)⊥.

2. Col(A) = Fil(At), entonces Col(A)⊥ = Fil(At)⊥ = Nul(At) = Nuliz(A).

A continuacion describimos el procedimiento para calcular el complemento ortogonal, el cual se deduce del

teorema anterior.

Procedimiento para calcular el complemento ortogonal. Sea {v1, . . . , vk} una base para V , para calcular

una base para V ⊥ hacemos lo siguiente:

1. Sea A =

vt1...

vtk

. Por tanto V = Fil(A).

2. Sea W = Nul(A) entonces W = V ⊥, esto ya que V ⊥ = Fil(A)⊥ = Nul(A) = W .

Ejemplo 4.8. Calcular V ⊥ si V =

1

0

0

1

,

0

0

1

1

.

Solucion: Sea v1 =

1

0

0

1

y v2 =

0

0

1

1

, debemos calcular Nul(A) donde A =

vt1vt2

=

1 0 0 1

0 0 1 1

, como A

esta en forma escalonada reducida entonces tenemos quex1

x2

x3

x4

∈ Nul(A) si y solo six1 = −x4

x3 = −x4

si y solo si

x1

x2

x3

x4

=

−x4

x2

−x4

x4

= x2

0

1

0

0

+ x4

−1

0

−1

1

.

Page 97: 64806112 Algebra Lineal Matlab

92

El procedimiento indicado arriba nos dice que

0

1

0

0

,−1

0

−1

1

es una base para V ⊥.

Ejemplo 4.9. (MatLab) Calcular el complemento ortogonal V ⊥ del subespacio V de R5 generado por los

vectores v1 =

2

−1

1

0

1

y v2 =

1

3

2

2

1

.

Solucion. Sea A =

vt1vt2

, necesitamos calcular Nul(A), lo cual hacemos en MatLab como sigue

>> format rat, A = [2 − 1 1 0 1; 1 3 2 2 1]; null(A)

ans=−5/7 −2/7 −4/7

−3/7 −4/7 −1/7

1 0 0

0 1 0

0 0 1

De aqui se sigue que V ⊥ =

−5/7

−3/7

1

0

0

,

−2/7

−4/7

0

1

0

,

−4/7

−1/7

0

0

1

.

4.2. Proyeccion ortogonal sobre un vector

Definicion 4.8. Sean a y b vectores en Rn, definimos la proyeccion ortogonal del vector a sobre el vector b, el

cual sera denotado por proyba, como el vector dado por

proyba =b · ab · b

b.

La matriz proyeccion: Esta formula la podemos expresar matricialmente de la siguiente forma:b · ab · b

b =

bta

btbb =

1btb

bbta. Notese que bbt es una matriz y a la matriz

P =1btb

bbt (4.5)

se le llama la matriz de la proyeccion y tiene la propiedad que para todo a ∈ Rn, Pa = proyba.

Page 98: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 93

Ejemplo 4.10. Sea b =

1

0

2

, calcular la matriz que proyecta sobre b y usarla para calcular proyba donde

a =

1

1

1

Solucion Notese que btb = b · b = 1 + 0 + 4 = 5 y bbt =

1 0 2

0 0 0

2 0 4

por tanto la matriz de la proyeccion sobre b

es la matriz

P =15

1 0 2

0 0 0

2 0 4

.

Ahora, proyba = Pa = 15

1 0 2

0 0 0

2 0 4

1

1

1

= 15

3

0

6

Ejemplo 4.11. (MatLab) Calcular la matriz que proyecta sobre el vector b =

−2

−1

1

0

1

y la proyeccion del vector

a =

7

7

7

7

7

sobre b.

Solucion. La matriz de que proyecta sobre b esta dada por P =1btb

bbt. Esto lo podemos calcular con MatLab

como sigue

>> b = [−2;−1; 1; 0; 1]; P = inv(b′ ∗ b) ∗ (b ∗ b′)

P =4/7 2/7 −2/7 0 −2/7

2/7 1/7 −1/7 0 −1/7

−2/7 −1/7 1/7 0 1/7

0 0 0 0 0

−2/7 −1/7 1/7 0 1/7

Page 99: 64806112 Algebra Lineal Matlab

94

Luego, la matriz de la proyeccion esta dada por

P =

4/7 2/7 −2/7 0 −2/7

2/7 1/7 −1/7 0 −1/7

−2/7 −1/7 1/7 0 1/7

0 0 0 0 0

−2/7 −1/7 1/7 0 1/7

Para calcular la proyeccion del vector a sobre b, proyba, seguimos los comandos en MatLab

>> a = [7; 7; 7; 7; 7]; proy = P ∗ a

proy =

2

1

−1

0

−1Por tanto proyba = −b.

La proyeccion de a sobre b satisface las siguientes condiciones.

Teorema 4.3. Sea b ∈ Rn y P =1btb

bbt la matriz proyeccion, entonces para todo a ∈ Rn tenemos lo siguiente

1. Pa = proyba ∈ 〈b〉,

2. a− Pa ⊥ b,

3. PPa = Pa, es decir, P 2 = P ,

4. si a ∈ 〈b〉 entonces Pa = a,

5. Si a ⊥ b entonces Pa = 0.

4.3. Proyeccion ortogonal sobre un subespacio

El principal objetivo de la seccion es extender el concepto de proyeccion sobre un vector a proyeccion sobre

un subespacio y construir una matriz P que al multiplicarla por un vector x, el resultado Px es el vector

proyeccion. De hecho, esta matriz sera obtenida generalizando de la matriz (4.5) y la definiremos como sigue.

Sea {v1, . . . , vk} una base para un subespacio H de Rn y sea A =[v1 · · · vk

], vamos a demostrar que la

matriz

P = A(AtA)−1At (4.6)

satisface las condiciones de la matriz proyeccion enunciadas en el Teorema 4.3.

Page 100: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 95

Notese que la formula (4.5) la podemos escribir en la forma:

P =1btb

bbt = b(btb)−1bt

de esta manera se ve que en realidad que (4.6) es simplemente una generalizacion de (4.5).

Para poder demostrar esto, necesitamos unos lemas preliminares.

Lema 4.4. Sea A una matriz, entonces Nul(A) = Nul(AtA).

Demostracion: “⊆”Sea x ∈ Nul(A), entonces Ax = 0 y por tanto AtAx = At0 = 0. Concluimos que

x ∈ Nul(AtA).

“⊇”Sea x ∈ Nul(AtA), entonces AtAx = 0, y multiplicando a la izquierda por xt tenemos que xtAtAx = xt0 = 0,

por tanto

0 = xt0 = xtAtAx = (Ax)tAx = Ax ·Ax = ||Ax||2

de donde ||Ax|| = 0, pero esto implica que Ax = o y x ∈ Nul(A).

Lema 4.5. Sea A =[v1 · · · vk

]una matriz donde {v1, . . . , vk} son las columnas y son LI entonces

1. AtA es invertible,

2. la matriz (AtA)−1At es una inversa a la izquierda de A.

Demostracion. 1. Como las columnas de A son linealmente independientes entonces

rango(A) = k yNul(A) = {0}, entonces por el lema anteriorNul(AtA) = Nul(A) = {0} de donde rango(AtA) =

# de columnas de (AtA), pero (AtA) es una matriz cuadrada, entonces

rango(AtA) = # de columnas de (AtA) = # de filas de (AtA)

y por tanto AtA es invertible.

2. Como (AtA)−1AtA = I entonces (AtA)−1At es una inversa a la izquierda de A.

Ejemplo 4.12. Calcular una inversa a la izquierda de la matriz A =

1 0

1 1

1 2

.

Solucion Debemos calcular AtA y su inversa.

AtA =

1 1 1

0 1 2

1 0

1 1

1 2

=

3 3

3 5

y por tanto (AtA)−1 =16

5 −3

−3 3

.Ahora calculamos la inversa a la izquierda (AtA)−1At de la matriz A

(AtA)−1At =16

5 −3

−3 3

1 1 1

0 1 2

=16

5 2 −1

−3 0 3

Page 101: 64806112 Algebra Lineal Matlab

96

Ejemplo 4.13. (MatLab) Usar MatLab para calcular la inversa a la izquierda de la matriz A =

1 2 1 2

1 −1 2 1

1 3 2 2

1 2 2 1

1 1 3 2

.

Solucion. Usamos MatLab para calcular la inversa a la izquierda con la formula dada en el Teorema 4.5, como

sigue

>> Format rat; A = [1 2 1 2; 1 − 1 2 1; 1 3 2 2; 1 2 2 1; 1 1 3 2]; L = inv(a′ ∗ a) ∗ a′

L =2/3 1 −1/3 1 −4/3

−1/12 −1/4 1/6 1/4 −1/12

−13/24 −1/8 1/12 1/8 11/24

11/24 −1/8 1/12 −7/8 11/24La inversa a la izquierda de A esta dada por

L =

2/3 1 −1/3 1 −4/3

−1/12 −1/4 1/6 1/4 −1/12

−13/24 −1/8 1/12 1/8 11/24

11/24 −1/8 1/12 −7/8 11/24

.

Corolario 4.6. Sea A una matriz cuyas filas son linealmente independientes, entonces se tiene que

1. AAt es invertible,

2. la matriz At(AAt)−1 es una inversa a la derecha de A.

Demostracion. Como las filas de A son linealmentes entonces las columnas de At son linealmente independi-

entes, usando el teorema anterior tenemos que (At)tAt = AAt es invertible y por tanto (AAt)−1 existe y ademas

como AAt(AAt)−1 = I entonces At(AAt)−1 es una inversa a la derecha de A.

Ejemplo 4.14. Sea A =

1 1 1

0 1 1

, calcular una inversa a la derecha de A.

Solucion: Primero calculamos AAt y su inversa

AAt =

1 1 1

0 1 1

1 0

1 1

1 1

=

3 2

2 2

de donde (AAt)−1 =12

2 −2

−2 3

.Ahora calculamos la inversa a la derecha At(AAt)−1

At(AAt)−1 =

1 0

1 1

1 1

12

2 −2

−2 3

=12

2 −2

0 1

0 1

.

Page 102: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 97

Ahora usamos los resultados obtenidos en esta seccion para construir la matriz que proyecta un vector sobre

un subespacio dado, la cual construimos en el siguiente teorema.

Teorema 4.7. Sean H un subespacio de Rn, {h1, . . . , hk} una base para H, A =[h1 · · · hk

], P =

A(AtA)−1At y b ∈ Rn, entonces se tiene que

1. Pb ∈ H,

2. b− Pb ∈ H⊥,

3. P 2 = P ,

4. Si b ∈ H entonces Pb = b,

5. Si b ∈ H⊥ entonces Pb = 0.

Demostracion: Primero observese que H = Col(A) y que si x ∈ Rk, entonces Ax ∈ Col(A) = H, esto ya que

si x =

x1

...

xk

entonces

Ax =[h1 · · · hk

]x1

...

xk

= x1h1 + · · ·+ xkhk ∈ Col(A) = H. (4.7)

Mas aun, si h ∈ H, entonces h = x1h1 + · · ·+ xkhk y por la ecuacion (4.7) h = Ax.

1. Pb = A (AtA)−1Atb︸ ︷︷ ︸b′

= Ab′ ∈ Col(A) = H.

2. Debemos demostrar que si h ∈ H entonces h · (b− Pb) = 0.

Sea h ∈ H, entonces existe x tal que h = Ax y por tanto

h · (b− Pb) = Ax · (b− Pb) = Ax · b−Ax · Pb

= (Ax)tb− (Ax)tPb

= xtAtb− xtAtPb

= xtAtb− xtAtA(AtA)−1︸ ︷︷ ︸I

Atb

= xtAtb− xtAtb = 0

3. P 2 = PP = A (AtA)−1AtA︸ ︷︷ ︸I

(AtA)−1At = A(AtA)−1At = P

Page 103: 64806112 Algebra Lineal Matlab

98

4. Sea b ∈ H, entonces existe x tal que b = Ax y por tanto

Pb = PAx = A (AtA)−1AtA︸ ︷︷ ︸I

x = Ax = b.

5. Supongamos que b ∈ H⊥, entonces b · h = 0, para todo h ∈ H, en particular b · hi = 0 para i = 1, . . . , k.

Entonces tenemos que

Atb =

ht1...

htk

b =

ht1b

...

htkb

=

h1 · b

...

hk · b

=

0...

0

,y por tanto

Pb = A(AtA)−1 Atb︸︷︷︸=0

= A(AtA)−10 = 0.

Estas propiedas prueban que Pb satisface las condiciones del vector proyeccion de b sobre H.

Definicion 4.9. Sean H un subespacio de Rn, {v1, . . . , vk} una base para H, A =[v1 · · · vk

]y b ∈ Rn.

Definimos la proyeccion de b sobre H, denotada por proyHb, como el vector:

proyHb = Pb,

donde P es la matriz P = A(AtA)−1At.

Ejemplo 4.15. Sean b =

1

1

3

y H =

⟨1

1

0

,

0

1

1

, calcular el vector proyHb.

Solucion Sea A =

1 0

1 1

0 1

, entonces proyHb = A(AtA)−1Atb.

AtA =

1 1 0

0 1 1

1 0

1 1

0 1

=

2 1

1 2

de donde (AtA)−1 =13

2 −1

−1 2

,

A(AtA)−1 =

1 0

1 1

0 1

13

2 −1

−1 2

=13

2 −1

1 1

−1 2

Finalmente tenemos

proyHb = A(AtA)−1Atb =13

2 −1

1 1

−1 2

1 1 0

0 1 1

1

1

3

=13

0

6

6

=

0

2

2

,

Page 104: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 99

entonces proyHb =

0

2

2

.

Ejemplo 4.16. (MatLab) Calcular la matriz que proyecta sobre el subespacio H de R6 generado por los

vectores v1 =

1

1

1

1

1

0

, v2 =

2

−1

3

1

1

1

, v3 =

1

2

2

1

3

0

y v4 =

2

1

2

1

2

1

. Si b = 11e1 =

11

0

0

0

0

0

calcular proyHb.

Solucion. La matriz de la proyeccion esta dada por P = A(AtA)−1At

>> A = [1 2 1 2; 1 − 1 2 1; 1 3 2 2; 1 1 1 1; 1 1 3 2; 0 1 0 1]; P = A ∗ inv(A′ ∗A) ∗A′

P =7/11 1/11 1/11 3/11 −1/11 4/111/11 8/11 −3/11 2/11 3/11 −1/111/11 −3/11 8/11 2/11 3/11 −1/113/11 2/11 2/11 6/11 −2/11 −3/11−1/11 3/11 3/11 −2/11 8/11 1/11

4/11 −1/11 −1/11 −3/11 1/11 7/11

Obtenemos que la matriz de la proyeccion esta dada por

P = proyH =

7/11 1/11 1/11 3/11 −1/11 4/111/11 8/11 −3/11 2/11 3/11 −1/111/11 −3/11 8/11 2/11 3/11 −1/113/11 2/11 2/11 6/11 −2/11 −3/11−1/11 3/11 3/11 −2/11 8/11 1/11

4/11 −1/11 −1/11 −3/11 1/11 7/11

=

111

7 1 1 3 −1 41 8 −3 2 3 −11 −3 8 2 3 −13 2 2 6 −2 −3−1 3 3 −2 8 14 −1 −1 −3 1 7

.La proyeccion del vector b sobre H esta dado por proyHb = Pb, asi que en MatLab hacemos lo siguiente

>> b = [11; 0; 0; 0; 0; 0] proy = P ∗ b

proy =7113−1

4

Obtenemos que proyHb =

7

1

1

3

−1

4

.

Page 105: 64806112 Algebra Lineal Matlab

100

4.4. Mınimos Cuadrados

Dado un sistema de ecuaciones Ax = b, sabemos que el sistema tiene solucion si y solo si b ∈ Col(A), esto

ya que

b = Ax =[C1 · · · Cn

]x1

...

xn

= x1C1 + · · ·+ xnCn ∈ 〈C1, . . . , Cn〉 = Col(A),

donde C1, . . . , Cn son las columnas de A.

De esto se deduce que si el sistema Ax = b es inconsistente, entonces b /∈ Col(A) y el vector mas cercano

a b que pertence a Col(A) es el vector proyCol(A)b = A(AtA)−1Ab, por tanto como el sistema Ax = b es

inconsistente, lo reemplazamos por el sistema consistente Ax = proyCol(A)b = A(AtA)−1Ab. De donde tenemos

que x = (AtA)−1Ab. A esta solucion la llamamos la solucion de los mınimos cuadrados.

Definicion 4.10. Sea A una matriz cuyas columnas son linealmente independientes y b ∈ Rn, si el sistema

Ax = b es inconsistente entonces la solucion de los mınimos cuadrados al sistema esta dada por

x =(AtA

)−1Atb.

Ejemplo 4.17. Considere el sistema Ax = b donde A =

2 1

−1 1

1 1

y b =

1

2

0

. Notese que el sistema es

inconsistente, como las columnas de A son linealmente independientes, se puede usar el metodo de los mıni-

mos cuadrados para calcular la “mejor”solucion, la cual esta dada por x = (AtA)−1Atb, y la calculamos a

continuacion.

AtA =

2 −1 1

1 1 1

2 1

−1 1

1 1

=

6 2

2 3

de donde (AtA)−1 = 114

3 −2

−2 6

entonces la mejor solucion esta da-

da por

x =(AtA

)−1Atb =

114

3 −2

−2 6

2 −1 1

1 1 1

1

2

0

=114

−6

18

.Otra aplicacion es la de ajustar datos encontrados en observaciones, que se esperan se ajusten a una linea pero

sin embargo no todos pertencen a esta. Supongamos que los valores observados son (x1, y1), (x2, y2), . . . , (xn, yn)

y supongamos que los datos deben satisfacer la ecuacion y = mx+ b, esto es,

y1 = mx1 + b

y2 = mx2 + b

...

yn = mxn + b

Page 106: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 101

El cual podemos escribir matricialmente en la forma

y1...

yn

=

x1 1...

...

xn 1

mb

y como los puntos (x1, y1), (x2, y2), . . . , (xn, yn)

no satisfacen la ecuacion y = mx+ b, el sistema es inconsistente. Usando la solucion de los mınimos cuadrados

obtenemos que la mejor solucion al sistema esta dado por

x =(AtA

)−1Aty,

donde A =

x1 1...

...

xn 1

y y =

y1...

yn

.

Ejemplo 4.18. Supongamos que los valores observados son (−2, 0), (1, 0) y (2, 3), es facil ver que estos valores

no pertecen a una linea. Los valores m y b de la linea y = mx+ b que mas se ajusta a los datos estan dados en

el vector x =

mb

donde x = (AtA)−1Aty con A =

−2 1

1 1

2 1

y y =

0

0

3

.

Notese que AtA =

−2 1 2

1 1 1

−2 1

1 1

2 1

=

9 1

1 3

, entonces se tiene que (AtA)−1 = 126

3 −1

−1 9

, y por

tanto

x = (AtA)−1Aty =126

3 −1

−1 9

−2 1 2

1 1 1

0

0

3

=126

15

21

=

1526

2126

.De aquı tenemos que m = 15

26 y b = 2126 y por tanto la ecuacion de la linea que mas se ajusta a los datos es

y = 1526x+ 21

26 .

Los mınimos cuadrados tambien se pueden usar para calcular ecuaciones polinomicas de cualquier grado que

mejor se ajusten a ciertos datos, generalizando el ejemplo anterior, para lineas. Esto lo ilustramos a contiuacion.

Ejemplo 4.19. (MatLab) Un experimeto arrojo los puntos (−2, 2), (1, 0), (1, 3) y (2,−1). Si se espera que

estos puntos esten sobre una parabola y = ax2 + bx+ c, calcular la ecuacion que mejor se ajuste a los datos.

Solucion. Los puntos nos dan las ecuaciones

2 = a− b+ c

0 = a+ b+ c

1 = 9a+ 3b+ c

−1 = 4a+ 2b+ c

Page 107: 64806112 Algebra Lineal Matlab

102

Estas ecuaciones son equivalentes al sistema

1 −1 1

1 1 1

9 3 1

4 2 1

a

b

c

=

2

0

1

−1

. Usamos la solucion de los mınimos

cuadrados para calcular los coeficientes a, b y c, la cual esta dada por x = inv(AtA)Atv con A =

1 −1 1

1 1 1

9 3 1

4 2 1

y v =

2

0

1

−1

. Esto lo calculamos en MatLab como sigue

>> A = [1 − 1 1; 1 1 1; 9 3 1; 4 2 1]; v = [2; 0; 1;−1]; x = inv(A′ ∗A) ∗A′ ∗ v

x =21/44

−283/220

7/22De este resultado obtenemos que la ecuacion que mejor se ajusta a los datos es

y =2144x2 − 283

220x+

722

⇔ 220y = 105x2 − 283x+ 70.

4.5. El proceso Gramm-Schmidt

El objetivo de esta seccion es mostrar como es posible construir una base ortonormal a partir de cualquier

base, este proceso es conocido como el proceso Gramm-Schmidt. Comenzamos con la definicion de conjunto

ortognal y ortonormal.

Definicion 4.11. Sean v1, . . . , vk vectores en Rn,

1. decimos que {v1, . . . , vk} es un conjunto ortogonal si los vectores v1, . . . , vn son ortogonales entre sı, es

decir si vi · vj = 0 para 1 ≤ i 6= j ≤ k.

2. decimos que {v1, . . . , vk} es una conjunto ortonormal si es una base ortogonal y ||vi|| = 1 para i = 1, . . . , k.

Ejemplo 4.20. Los vectores v1 =

1

−1

0

, v2 =

1

1

0

y v3 =

0

0

1

forman una base ortogonal para R3 y los

vectores w1 = 1√2

1

−1

0

, w2 = 1√2

1

1

0

y w3 =

0

0

1

forman una base ortonormal para R3.

Page 108: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 103

Lema 4.8. Sean v1, . . . , vk vectores en Rn, si el conjunto {v1, . . . , vk} es ortogonal, entonces es linealmente

independiente.

Demostracion. Supongamos que el conjunto {v1, . . . , vk} es ortogonal y supongamos que

α1v1 + · · ·+ αkvk = 0. (4.8)

Multiplicando ambos lados de (4.8) por vi tenemos:

vi · (α1v1 + · · ·+ αkvk) = vi · 0

α1 vi · v1︸ ︷︷ ︸=0

+ · · ·+ αi vi · vi︸ ︷︷ ︸6=0

+ · · ·+ αk vi · vk︸ ︷︷ ︸=0

= 0

αivi · vi = 0

Como vi · vi 6= 0 entonces αi = 0 y esto para todo i = 1, . . . , n. Por tanto los vectores v1, . . . , vk son linealmente

independientes.

Tambien hay una nocion de matriz ortogonal la cual definimos a continuacion.

Definicion 4.12. Decimos que una matriz A =[v1 · · · vk

]es una matriz ortogonal si vi · vj = 0 para

1 ≤ i 6= j ≤ k y ||vi|| = 1 para i = 1, . . . , k, es decir, si las columnas de A forman un conjunto ortonormal.

Ejemplo 4.21. La matriz A =

1√2

1√2

0−1√

21√2

0

0 0 1

es una matriz ortogonal ya que el conjunto de columnas de esta

matriz,

1√2

−1√2

0

,

1√2

1√2

0

,

0

0

1

, es un conjunto ortonormal.

Teorema 4.9. (Propiedad de las matrices ortogonales) Sea A una matriz ortogonal, entonces AtA = I.

Por tanto si A es una matriz cuadrada entonces A es invertible y A−1 = At, si A no es cuadrada entonces A

tiene inversa a la izquierda la cual esta dada por At.

Page 109: 64806112 Algebra Lineal Matlab

104

Demostracion: Si A =[v1 · · · vk

]es una matriz ortogonal, entonces

AtA =

vt1...

vtn

[v1 · · · vk

]=

vt1v1 vt1v2 · · · vt1vk

vt2v1 vt2v2 · · · vt2vk...

.... . .

...

vtnv1 vtnv2 · · · vtnvn

=

v1 · v1︸ ︷︷ ︸=1

v1 · v2︸ ︷︷ ︸=0

· · · v1 · vk︸ ︷︷ ︸=0

v2 · v1︸ ︷︷ ︸=0

v2 · v2︸ ︷︷ ︸=1

· · · v2 · vk︸ ︷︷ ︸=0

......

. . ....

vn · v1︸ ︷︷ ︸=0

vn · v2︸ ︷︷ ︸=0

· · · vn · vn︸ ︷︷ ︸=1

=

1 0 · · · 0

0 1 · · · 0...

.... . .

...

0 0 · · · 1

= I.

La segunda afirmacion es inmediata. Finalmente, si A no es cuadrada entonces por el Lema 4.5, una inversa a

la izquierda de A esta dada por(AtA

)−1︸ ︷︷ ︸=I−1=I

At = IAt = At.

Ejemplo 4.22. 1. Este teorema nos permite calcular la inversa de una matriz ortogonal de manera facil, por

el Ejemplo 4.21 tenemos que la matriz A =

1√2

1√2

0−1√

21√2

0

0 0 1

es una matriz ortogonal, por tanto

A−1 = At =

1√2

−1√2

01√2

1√2

0

0 0 1

.2. El teorema tambien se puede usar para calcular la inversa a la izquierda de matrices ortogonales cuando

no son cuadradas. Por ejemplo la matriz B =

1√2

1√2

−1√2

1√2

0 0

es una matriz ortogonal, por tanto una inversa

a la izquierda de B es Bt =

1√2

−1√2

01√2

1√2

0

.El computo bases ortogonales(ortogonales) tiene ventajas importantes, una de ellas es la posibilidad de poder

expresar vectores en terminos de una base de manera simple, esto se muestra en el siguiente teorema.

Teorema 4.10. Sea {v1 . . . , vn} una base ortogonal para un espacio vectorial V y sea b ∈ V , entonces

b =b · v1v1 · v1

v1 + · · ·+ b · vnvn · vn

vn.

Mas aun, si {v1 . . . , vn} una base ortonormal, entonces b = (b · v1)v1 + · · ·+ (b · vn)vn.

Page 110: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 105

Demostracion. Como {v1 . . . , vn} es una base entonces existen constantes α1, α2, . . . , αn talque b = α1v1 +

· · ·+ αnvn. Ahora para i = 1, . . . , n tenemos que

b · vi = α1 v1 · vi︸ ︷︷ ︸=0

+ · · ·+ αi vi · vi︸ ︷︷ ︸6=0

+ · · ·+ αn vn · vi︸ ︷︷ ︸=0

b · vi = αivi · vi,

de donde tenemos que αi =b · vivi · vi

.

Ahora, si {v1 . . . , vn} es una base ortonormal entonces vi · vi =√||vi|| =

√1 = 1, por tanto αi = b · vi.

Ejemplo 4.23. De acuerdo al Ejemplo 4.20 Los vectores v1 =

1

−1

0

, v2 =

1

1

0

y v3 =

0

0

1

forman una base

ortogonal para R3. Usando el teorema anterior podemos escribir el vector b =

1

1

1

de la siguiente forma:

b =b · v1v1 · v1

v1 +b · v2v2 · v2

v2 +b · v3v3 · v3

v3 =02v1 +

22v2 +

11v3 = v2 + v3.

Ejemplo 4.24. De acuerdo al Ejemplo 4.20 Los vectores w1 =

1√2

−1√2

0

,

w2 =

1√2

1√2

0

y w3 =

0

0

1

forman una base ortonormal para R3. Usando el teorema anterior podemos escribir el

vector b =

1

1

1

de la siguiente forma:

b = (b · w1)w1 + (b · w2)w2 + (b · w3)w3 = 0w1 +2√2w2 + w3 =

√2w2 + w3.

Teorema 4.11. Sea {v1 . . . , vk} una base ortonormal para un subespacio vectorial H de Rn y sea b ∈ Rn,

entonces

proyHb = (b · v1)v1 + · · ·+ (b · vk)vk.

Demostracion. Sea A =[v1 · · · vk

], entonces proyHb = A(AtA)−1Atb. Como A es una matriz ortogonal

Page 111: 64806112 Algebra Lineal Matlab

106

entonces AtA = I, por tanto

proyHb = A (AtA)−1︸ ︷︷ ︸=I

Atb = AAtb =[v1 · · · vk

]vt1...

vtk

b

=[v1 · · · vk

]vt1b...

vtkb

= (vt1b)v1 + · · ·+ (vtkb)vk

= (b · v1)v1 + · · ·+ (b · vk)vk.

Observacion 4.3. La segunda parte del Teorema 4.10 sale como corolario de este teorema, ya que si b ∈ H

entonces por el Teorema 4.7 tenemos que proyHb = b y por tanto

b = proyHb = (b · v1)v1 + · · ·+ (b · vk)vk.

Ejemplo 4.25. El conjunto

v1 =

1√2

1√2

0

, v2 =

−1√

2

1√2

0

es una base ortogonal para el plano xy (o z = 0)

entonces usando el teorema anterior para calcular proyHb con H = plano xy y b =

1

2

1

obtenemos:

proyHb = (b · v1)v1 + (b · v2)v2 =3√2v1 +

1√2v2 =

1

2

0

Teorema 4.12. (El proceso Gramm-Schmidt) Sea {v1, . . . , vk} una base para un subespacio H de Rn y

sean

w1 = v1, (4.9)

w2 = v2 − proyw1v2 = v2 −v2 · w1

w1 · w1w1,

w3 = v3 − proy〈w1,w2〉v3 = v3 −v3 · w1

w1 · w1w1 −

v3 · w2

w2 · w2w2

...

wk = vk − proy〈w1,...,wk−1〉vk = vk −vk · w1

w1 · w1w1 − · · · −

vk · wk−1

wk−1 · wk−1wk−1

entonces {w1, . . . , wk} una base ortogonal para H.

Page 112: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 107

Demostracion. Por el Teorema 4.3 tenemos que wi = vi − proy〈w1,...,wi−1〉vi es ortogonal al subespacio

〈w1, . . . , wi−1〉 para i = 1, . . . , k y por tanto ortogonal a cada uno de los vectores w1, . . . , wi−1. Entonces

tenemos que los vectores w1, . . . , wk son ortogonales entre sı, es decir, el conjunto {w1, . . . , wk} es un conjunto

ortogonal.

Solo nos resta demostrar que H = 〈w1, . . . , wk〉, pero como el conjunto {w1, . . . , wk} es ortogonal, entonces

por el Lema 4.8 es linealmente independiente, y como dimH = k = dim〈w1, . . . , wk〉 es suficiente demostrar que

w1, . . . , wk ∈ H.

Primero notese que w1 = v1 ∈ H.

Tambien tenemos que w2 = v2 − proyw1v2 = v2 − v2·w1w1·w1

w1 ∈ H.

Continuando por induccon supongamos que w1, . . . , wi−1 ∈ H, entonces

wi = vi − proy〈w1,...,wi−1〉vi = vi −vi · w1

w1 · w1w1 − · · · −

vi · wi−1

wi−1 · wi−1wi−1 ∈ H.

Concluimos que w1, . . . , wk ∈ H y por tanto el conjunto {w1, . . . , wk} es una base ortogonal para H.

Observacion 4.4. Si {v1, . . . , vk} es una base para un subespacio H de Rn y sea {w1, . . . , wk} la base ortogonal

calculada usando el proceso Gramm-Schmidt y

q1 =1||w1||

w1, q2 =1||w2||

w2, · · · , qk =1||wk||

wk

entonces tenemos que {q1, . . . , qk} es una base ortognal para H. Usando el Teorema 4.11 podemos re-escribir

las ecuaciones (4.9) de la siguiente forma:

w1 = v1, q1 = 1||w1||w1

w2 = v2 − (vi · q1)q1, q2 = 1||w2||w2

w3 = v3 − (v3 · q1)q1 − (v3 · q2)q2 q3 = 1||w3||w3

......

wk = vk − (vk · q1)q1 − · · · − (vk · qk−1)qk−1 qk = 1||wk||wk

(4.10)

Ejemplo 4.26. Considere el subespacio H de R4 generado por el conjunto

v1 =

1

1

0

0

, v2 =

0

1

1

0

, v3 =

1

0

0

1

,

calcule una base ortonormal para H.

Solucion: Usaremos las ecuaciones (4.10) para calcular los vectores q1, . . . , qk.

w1 = v1, q1 =1||w1||

w1 =1√2

1

1

0

0

=

1√2

1√2

0

0

Page 113: 64806112 Algebra Lineal Matlab

108

w2 = v2 − (v2 · q1)q1 =

0

1

1

0

−1√2

1√2

1√2

0

0

=

− 1

2

12

1

0

,

q2 =1||w2||

w2 =2√6

− 1

2

12

1

0

=

− 1√

6

1√6

2√6

0

w3 = v3 − (v3 · q1)q1 − (v3 · q2)q2 =

1

0

0

1

−1√2

− 1√

2

1√2

1

0

−−1√

6

− 1√

6

1√6

2√6

0

=

13

− 13

13

1

y finalmente q3 =1||w3||

w3 =√

32

13

− 13

13

1

=

√3

6

−√

36

√3

6

√3

2

Por tanto

q1 =

1√2

1√2

0

0

, q2 =

− 1√

6

1√6

2√6

0

, q3 =

√3

6

−√

36

√3

6

√3

2

es una base ortonormal para H.

4.6. La factorizacion QR de una matriz

Teorema 4.13. Sea A =[v1 · · · vk

]una matriz cuyas columnas son linealmente independientes, entonces

exite una matriz ortogonal Q y una matriz triangular superior R tal que A = QR.

Demostracion. Sean q1, . . . , qk los vectores obtenidos al aplicar el proceso Gramm-Schmidt, como estos forman

una base ortonormal para H = 〈v1, · · · , vk〉 entonces por el Teorema 4.10 tenemos que

vi = (q1 · vi)q1 + · · ·+ (qk · vi)qk. (4.11)

En la demostracion del Teorema 4.12 se probo que 〈v1, . . . , vi−1〉 = 〈q1, . . . , qi−1〉 y como qi es ortogonal a

q1, . . . , qi−1, por ser ortonormales, entonces qi · v1 = 0, . . . , qi · vi−1 = 0. Como esto es para todo i = 1, . . . , k

obtenemos que qi · vj = 0 para i > j. Reemplazando esto en la ecuacion (4.11) obtenemos

vi = (q1 · vi)q1 + · · ·+ (qi · vi)qi,

Page 114: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 109

para i = 1, . . . , k, por tanto tenemos la ecuaciones:

v1 = (q1 · v1)q1

v2 = (q1 · v2)q1 + (q2 · v2)q2...

vk−1 = (q1 · vk−1)q1 + · · ·+ (qk−1 · vk−1)qk−1

vk = (q1 · vk)q1 + · · ·+ (qk · vk)qk

La cual podemos escribir matricialmente de la siguiente forma

[v1 · · · vk

]=[q1 · · · qk

]

q1 · v1 q1 · v2 q1 · v3 · · · q1 · vk0 q2 · v2 q2 · v3 · · · q2 · vk0 0 q3 · v3 · · · q3 · vk...

......

. . ....

0 0 0 · · · qk · vk

Si hacemos Q =[q1 · · · qk

]y R =

q1 · v1 q1 · v2 q1 · v3 · · · q1 · vk0 q2 · v2 q2 · v3 · · · q2 · vk0 0 q3 · v3 · · · q3 · vk...

......

. . ....

0 0 0 · · · qk · vk

obtenemos A = QR.

De este Teorema se desprende el siguiente procedimiento para calcular la factorizacion QR de una matriz.

Procedimiento para calcular las matrices Q y R

Sea A =[v1 · · · vk

]una matriz cuyas columnas v1, . . . , vk son linealmente independientes. Calculamos

su factorizacion QR con los siguientes pasos:

1. Aplicamos el proceso Gramm-Schmidt a los vectores v1, . . . , vk para obtener una vectores ortonormales

q1, . . . , qk y hacemos Q =[q1 · · · qk

].

2. Para 1 ≤ i ≤ j ≤ k calculamos los productos qi · vj y hacemos

R =

q1 · v1 q1 · v2 q1 · v3 · · · q1 · vk0 q2 · v2 q2 · v3 · · · q2 · vk0 q2 · v2 q3 · v3 · · · q2 · vk...

......

. . ....

0 0 0 · · · qk · vk

.

3. De acuerdo al Teorema 4.13 tenemos que A = QR.

Page 115: 64806112 Algebra Lineal Matlab

110

Ejemplo 4.27. Sea A =

1 0 1

1 1 0

0 1 0

0 0 1

, calcular matrices Q y R tal que A = QR.

Solucion: Sean v1 =

1

1

0

0

, v2 =

0

1

1

0

y v3 =

1

0

0

1

, usando el procedimiento anterior obtenemos lo siguiente.

1. En el Ejemplo 4.26 usamos el proceso Gramm-Schdmit y obtuvimos q1 =

1√2

1√2

0

0

, q2 =

− 1√

6

1√6

2√6

0

y q3 =

√3

6

−√

36

√3

6

√3

2

, por tanto Q =

1√2− 1√

6

√3

6

1√2

1√6 −

√3

6

0 2√6

√3

6

0 0 √3

2

.

2. Para 1 ≤ i ≤ j ≤ 3 calculamos los productos qi · vj,

q1 · v1 = 2√2

q1 · v2 = 1√2

q1 · v3 = 1√2

q2 · v2 = 3√6

q2 · v3 = −1√6

q3 · v3 = 2√

33 = 2√

3

Por tanto R =

2√2

1√2

1√2

0 3√6

−1√6

0 0 2√3

.

3. De esta manero obtenemos que A =

1√2− 1√

6

√3

6

1√2

1√6 −

√3

6

0 2√6

√3

6

0 0 √3

2

2√2

1√2

1√2

0 3√6

−1√6

0 0 2√3

.

Usamos MatLab para corroborar que A = QR:

>> Q=[1/sqrt(2) -1/sqrt(6) sqrt(3)/6;1/sqrt(2) 1/sqrt(6) -sqrt(3)/6;0 2/sqrt(6) sqrt(3)/6;0 0 sqrt(3)/2],

R=[2/sqrt(2) 1/sqrt(2) 1/sqrt(2);0 3/sqrt(6) -1/sqrt(6);0 0 2/sqrt(3)], Q*R

ans=

1,00 −0,00 1,00

1,00 1,00 −0,00

0 1,00 −0,00

0 0 1,00

Page 116: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 111

Lo que nos confirma que efectivamente A = QR.

Page 117: 64806112 Algebra Lineal Matlab

112

Page 118: 64806112 Algebra Lineal Matlab

Capıtulo 5

Determinantes

5.1. Definicion y ejemplos

Definicion 5.1. Sea A una matriz de tamano m×n, para 1 ≤ i ≤ m y 1 ≤ j ≤ n, definimos el ij-esimo menor

de A, al cual denotaremos por Aij, como la matriz obtenida de A al eliminar su i-esima fila y j-esima columna.

Ejemplo 5.1. Sea A =

1 1 0 2

1 −1 1 0

0 2 3 0

el 24-esimo menor de A es la matriz A24 =

1 1 0

0 2 3

y el 12-esimo

menor es la matriz A12 =

1 1 0

0 3 0

.

Definicion 5.2. (Determinante) Sea A =

a11 · · · a1n

.... . .

...

an1 · · · ann

una matriz de tamano n × n. Definimos el

determinante de A, el cual denotaremos por det(A), recursivamente como sigue:

Si n = 2 entonces det(A) = a11a22 − a12a21.

Para n ≥ 3,

det(A) =n∑i=1

(−1)1+ia1i det (C1i)

= a11 det (A11)− a12 det (A12) + · · ·+ (−1)1+na1n det (A1n) .

Ejemplo 5.2. Sea A =

2 −1 0

0 1 0

1 1 1

, de acuerdo a esta definicion el determinante de A esta dado por:

113

Page 119: 64806112 Algebra Lineal Matlab

114

det(A) =3∑i=1

(−1)1+ia1i det (A1i)

= a11 det (A11)− a12 det (A12) + a13 det (A13)

= 2 det

1 0

1 1

− (−1) det

0 0

1 1

+ 0 det

0 1

1 1

= 2(1 · 1− 0 · 1) + (0 · 1− 0 · 1) + 0(0 · 1− 1 · 1)

= 2

Definicion 5.3. Sea A una matriz n× n, el ij-esimo cofactor de A, denotado por Cij, se define como

Cij = (−1)i+j detAij ,

donde Aij es el ij-esimo menor de A.

Observacion 5.1. Con esta definicion podemos re-escribir la formula de del determinante como sigue:

det(A) =n∑i=1

a1iC1i = a11C11 + · · ·+ a1nC1n.

A esta formula se le conoce como la expansion por cofactores de A a lo largo de la primera fila.

Ejemplo 5.3. Sea A =

−1 1 0

0 1 1

−1 2 1

, calcular C11, C12 y C13 y calcular el determinante de A.

Solucion: C11 = (−1)1+1 detA11 = (−1)2 det

1 1

2 1

= 1 · 1− 1 · 2 = −1

C12 = (−1)1+2 detA12 = (−1)3 det

0 1

−1 1

= −1 (0 · 1− 1 · (−1)) = −1

C13 = (−1)1+3 detA13 = (−1)4 det

0 1

−1 2

= 0 · 2− 1 · (−1) = 1

det(A) = a11C11 + a12C12 + a13C13 = −1 · (−1) + 1 · (−1) + 0 · 1 = 0

Lema 5.1. Sea A =

a11 0 · · · 0

a21 a22 · · · 0...

.... . .

...

an1 an2 · · · ann

una matriz triangular inferior, entonces

det(A) = a11a22 · · · ann.

Es decir, el determinante de una matriz triangular inferior es el producto de las entradas en la diagonal.

Page 120: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 115

Demostracion. Por induccion sobre n.

Si n = 2 tenemos que det(A) = a11a22 − 0a21 = a11a22.

Supongamos que el determinante de toda matriz triangular inferior de tamano (n− 1)× (n− 1) es el producto

de las entradas en la diagonal. Usando la Observacion 5.1 tenemos que

det(A) = a11C11 + a12︸︷︷︸=0

C12 + · · ·+ a1n︸︷︷︸=0

C1n = a11C11. (5.1)

Pero por hipotesis de induccion tenemos que

C11 = (−1)1+1 det(A11) = 1 · det

a22 · · · 0...

. . ....

an1 · · · ann

= a22 · · · ann (5.2)

De las ecuaciones (5.1) y (5.2) tenemos que

det(A) = a11a22 · · · ann.

Corolario 5.2. Sea In la matriz identidad de tamano n× n, entonces det(I) = 1.

Teorema 5.3. Sea A =

a11 · · · a1n

.... . .

...

an1 · · · ann

entonces el determinante de A se puede calcular usando la expansion

por cofactores en cualquier fila y cualquier columna, es decir, para 1 ≤ i, j ≤ n tenemos que:

det(A) = ai1Ci1 + ai2Ci2 + · · ·+ ainCin︸ ︷︷ ︸Expansion por cofactores en la fila i

=n∑k=1

aikCik y (5.3)

det(A) = a1jC1j + a2jC2j + · · ·+ anjCnj︸ ︷︷ ︸Expansion por cofactores en la columna j

=n∑h=1

ahjChj (5.4)

Demostracion. Primero demostraremos la formula (5.3) por induccion sobre n

Para n = 2 tenemos

Expansion en la segunda fila = −a21a12 + a22a11 = det(A).

Ahora supongamos que el teorema se cumple para cualquier matriz de tamano (n − 1) × (n − 1) y probemos

que det(A) =expansion en la fila i.

Por definicion tenemos que

det(A) =n∑j=1

(−1)1+ja1j det(A1j) (5.5)

Page 121: 64806112 Algebra Lineal Matlab

116

Ahora, como la matriz Aij es de tamano (n− 1)× (n− 1), entonces por la hipotesis de induccion tenemos que

su determinante se puede calcular por expansion en la fila i, por tanto

det(A1j) = (−1)i+1ai1 det(A1j)i1 + · · ·+ (−1)i+nain det(A1j)in (5.6)

=n∑k=1

(−1)i+kaik det(A1j)ik

De las ecuaciones (5.5) y (5.6) tenemos que

det(A) =n∑j=1

(−1)1+ja1j

n∑k=1

(−1)i+kaik det(A1j)ik (5.7)

=n∑j=1

n∑k=1

(−1)1+j+i+ka1jaik det(A1j)ik

La idea es demostrar que la expansion por cofactores en la fila i coincide con esta formula.

Notese que como Cik = (−1)i+k det(Aik), entonces tenemos que

Expansion por cofactores en la fila i =n∑k=1

aikCik =n∑k=1

(−1)i+kaik det(Aik) (5.8)

Ahora, por definicion de determinante tenemos que

det(Aik) =n∑j=1

(−1)1+ja1j det(Aik)1j (5.9)

De las ecuaciones (5.8) y (5.9) tenemos

Expansion por cofactores en la fila i =n∑k=1

(−1)i+kaikn∑j=1

(−1)1+ja1j det(Aik)1j

=n∑k=1

n∑j=1

(−1)i+k+1+jaika1j det(Aik)1j (5.10)

Finalmente notese que (A1j)ik = (Aik)1j ya que ambas se obtienen al eliminar las filas 1 e i y las columnas j y

k de A. Entonces las ecuaciones (5.7) y (5.10) son iguales, por tanto

det(A) = expansion por cofactores en la fila i.

Ejemplo 5.4. Calcular determinante de A =

−1 0 −1

2 0 1

0 1 0

usando expansion por cofactores en la tercera fila

y segunda columna.

Solucion: Usando expansion en la tercera fila tenemos:

det(A) = (−1)3+1a31 det(A31) + (−1)3+2a32 det(A32) + (−1)3+3a33 det(A33)

= 0 det

0 −1

0 1

− 1 det

−1 −1

2 1

+ 0 det

−1 0

2 0

= −1(−1 + 2) = −1.

Page 122: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 117

Ahora, usando expansion por cofactores en la segunda columna tenemos:

det(A) = (−1)1+2a12 det(A12) + (−1)2+2a22 det(A22) + (−1)3+2a32 det(A32)

= −0 det

2 1

0 0

+ 0 det

−1 −1

0 0

− 1 det

−1 −1

2 1

= −1(−1 + 2) = −1.

Corolario 5.4. Sea A una matriz de tamano n × n, si A tiene una fila o una columna de ceros, entonces

det(A) = 0.

Demostracion. Supongamos que la i-esima fila de A es nula, esto es, para 1 ≤ j ≤ n se tiene que aij = 0,

entonces:

det(A) = expansion en la fila i =n∑j=1

aij︸︷︷︸=0

Cij = 0.

Corolario 5.5. Sea A una matriz de tamano n× n entonces det(At) = det(A).

Demostracion. Sea B = At, entonces bij = aji y Bij = Atij = Aji, donde Aij y Bij son los ij-esimos menores

de A y de B, respectivamente, entoncces:

det(At) = det(B) = expansion en la columna 1 =n∑k=1

bk1(−1)k+1 det(Bk1)

=n∑k=1

a1k(−1)k+1 det(A1k) = det(A).

Corolario 5.6. Sea A =

a11 a12 · · · a1n

0 a22 · · · a21

......

. . ....

0 0 · · · a11

una matriz triangular superior, entonces

det(A) = a11a22 · · · ann.

5.2. Determinantes y operaciones elementales de fila

Teorema 5.7. Sea A =

a11 · · · a1n

.... . .

...

ai1 · · · ain...

. . ....

an1 · · · ann

y B =

a11 · · · a1n

.... . .

...

c · ai1 · · · c · ain...

. . ....

an1 · · · ann

, la matriz que se obtiene de A al

multiplicar una fila i por una constante c, entonces

det(B) = c · det(A).

Page 123: 64806112 Algebra Lineal Matlab

118

Demostracion. Primero notese que para k = 1 . . . , nse tiene que Bik = Aik, ya que al eliminar la fila i de B

se obtiene la misma matriz que al eliminar la fila i de A. Por tanto,

det(B) = expansion fila i =n∑k=1

bik︸︷︷︸=c·aik

(−1)i+k det(Bik︸︷︷︸=Aik

)

=n∑k=1

c · aik(−1)i+k det(Aik)

= c ·n∑k=1

aik(−1)i+k det(Aik) = c · det(A).

Ejemplo 5.5. El teorema anterior nos dice que si todas las entradas de una fila son mulitplos de un real c,

entonces este se puede factorizar de la fila como se muestra a continuacion

det

1 2 −2

4 2 −6

0 3 2

= det

1 2 −2

2 · 2 2 · 1 2 · (−3)

0 3 2

= 2 det

1 2 −2

2 1 −3

0 3 2

.Corolario 5.8. Sea A una matriz n× n y sea E la matriz elemental que se obtiene de In al multiplicar la fila

por una constante c 6= 0 entonces det(E) = c y det(EA) = det(E) det(A).

Teorema 5.9. Sea A =

a11 · · · a1n

.... . .

...

ai1 · · · ain...

. . ....

aj1 · · · ajn...

. . ....

an1 · · · ann

y sea B =

a11 · · · a1n

.... . .

...

aj1 · · · ajn...

. . ....

ai1 · · · ain...

. . ....

an1 · · · ann

la matriz que se obtiene de A al

intercambiar las filas i y j de A, entonces

det(B) = −det(A).

Demostracion. Primero supongamos que las filas intercambiadas son consecutivas, es decir,

A =

a11 · · · a1n

.... . .

...

ai1 · · · ain

a(i+1)1 · · · a(i+1)n

.... . .

...

an1 · · · ann

y B =

a11 · · · a1n

.... . .

...

a(i+1)1 · · · a(i+1)n

ai1 · · · ain...

. . ....

an1 · · · ann

.

Page 124: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 119

Ahora, notese que b(i+1)k = aik y B(i+1)k = Aik ya que la matriz que se obtiene al eliminar la fila i + 1 de B

coincide con la matriz que se obtiene al eliminar la fila i de A. Por tanto si usamos expansion por cofactores en

la fila i+ 1 de B obtenemos:

det(B) =n∑k=1

b(i+1)k︸ ︷︷ ︸aik

(−1)i+1+k det(B(i+1)k︸ ︷︷ ︸Aik

) =n∑k=1

aik(−1)i+1+k det(Aik)

=n∑k=1

aik(−1)(−1)i+k det(Aik) = −n∑k=1

aik(−1)i+k det(Aik) = −det(A).

En el caso general, para intercambiar las filas i y j de A se necesitan j− i cambios consecutivos de la fila i para

llevarla a la fila j y j − i− 1 cambios consecutivos de la fila j para llevarla a la fila i, por tanto

det(B) = (−1)j−i(−1)j−i det(A) = (−1)2j︸ ︷︷ ︸=1

(−1)−2i︸ ︷︷ ︸=1

(−1)−1︸ ︷︷ ︸=−1

det(A) = −det(A).

Corolario 5.10. Sea A una matriz n× n y sea E la matriz elemental que se obtiene de In al intercambiar las

filas i y j entonces det(E) = −1 y det(EA) = det(E) det(A).

Lema 5.11. Si A es una matriz con dos filas iguales, entonces det(A) = 0.

Demostracion. Supongamos que las filas i y j de A son iguales y sea B la matriz que se obtiene de A al

intercambiar las filas i y j, entonces B = A. Ahora, por el Teorema 5.9 tenemos que

det(B) = −det(A), por tanto det(A) = −det(A), o equivalentemente, 2 det(A) = 0, de donde

det(A) = 0.

Lema 5.12. Sean A, B y C matrices cuyas filas son iguales excepto la fila i y talque la i−esima fila de

C es la suma de las filas i de A y B, es decir, A =

a11 · · · a1n

.... . .

...

ai1 · · · ain...

. . ....

an1 · · · ann

, B =

a11 · · · a1n

.... . .

...

bi1 · · · bin...

. . ....

an1 · · · ann

y C =

a11 · · · a1n

.... . .

...

ai1 + bi1 · · · ain + bin...

. . ....

an1 · · · ann

, entonces det(C) = det(A) + det(B).

Page 125: 64806112 Algebra Lineal Matlab

120

Demostracion. Primero notese que para j = 1 . . . , n se tiene que Cij = Aij = Bij , ya que al eliminar la fila i

de A se obtiene la misma matriz que al eliminar la fila i de B y la misma matriz al eliminar la fila i de C, por

tanto al usal expansion por cofactores en la fila i de C obtenemos

det(C) =n∑k=1

cik︸︷︷︸aik+bik

(−1)i+kCik =n∑k=1

(aik + bik)(−1)i+kCik

=n∑k=1

(aik(−1)i+kCik

)+(bik(−1)i+kCik

)=

n∑k=1

aik(−1)i+k Cik︸︷︷︸Aik

+n∑k=1

bik(−1)i+k Cik︸︷︷︸Bik

=n∑k=1

aik(−1)i+kAik +n∑k=1

bik(−1)i+kBik

= det(A) + det(B)

Este teorema se puede usar para reducir ciertos calculos de determinantes como se muestra en el siguiente

ejemplo.

Ejemplo 5.6. Calcular el determinante de la matriz A =

3 2 0

−1 1 2

2 2 2

.

Solucion. Escribimos las entradas de la segunda fila como una suma de dos numeros

det(A) = det

3 2 0

−1 1 2

2 2 2

= det

3 2 0

0− 1 0 + 1 2 + 0

2 2 2

= det

3 2 0

0 0 2

2 2 2

+ det

3 2 0

−1 1 0

2 2 2

.De esta forma obtenemos dos matrices ambas con una fila o una columna con 2 ceros, cuyos determinantes

calculamos usando expansion por dicha fila o columna y obtenemos:

det(A) = det

3 2 0

0 0 2

2 2 2

+ det

3 2 0

−1 1 0

2 2 2

= (−1)2+32 det

3 2

2 2

+ (−1)3+32 det

3 2

−1 1

= −2(6− 4) + 2(3− (−1)) = −4 + 8 = 4

Page 126: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 121

Teorema 5.13. Considere la matriz A =

a11 · · · a1n

.... . .

...

ai1 · · · ain...

. . ....

aj1 · · · ajn...

. . ....

an1 · · · ann

y sea

B =

a11 · · · a1n

.... . .

...

ai1 · · · ain...

. . ....

aj1 + cai1 · · · ajn + cain...

. . ....

an1 · · · ann

, la matriz que se obtiene de A al sumar c veces la fila i a las fila j de A,

entonces

det(B) = det(A).

Demostracion.

det(B) = det

a11 · · · a1n

.... . .

...

ai1 · · · ain...

. . ....

aj1 + cai1 · · · ajn + cain...

. . ....

an1 · · · ann

Page 127: 64806112 Algebra Lineal Matlab

122

= det

a11 · · · a1n

.... . .

...

ai1 · · · ain...

. . ....

aj1 · · · ajn...

. . ....

an1 · · · ann

︸ ︷︷ ︸

A

+ det

a11 · · · a1n

.... . .

...

ai1 · · · ain...

. . ....

cai1 · · · cain...

. . ....

an1 · · · ann

= det(A) + c · det

a11 · · · a1n

.... . .

...

ai1 · · · ain...

. . ....

ai1 · · · ain...

. . ....

an1 · · · ann

︸ ︷︷ ︸

=0

= det(A).

Corolario 5.14. Sea A una matriz n× n y sea E la matriz elemental que se obtiene de In al sumar c veces la

fila i a la fila j de I entonces det(E) = 1 y det(EA) = det(E) det(A).

Corolario 5.15. Sea A una matriz n× n y E una matriz elemental, entonces

det(EA) = det(E) det(A) y det(E) 6= 0.

Mas aun, si E1 · · · , Ek son matrices elementales, entonces

det(E1 · · ·EkA) = det(E1) · · · det(Ek) det(A).

5.3. Determinante de matrices invertibles

Teorema 5.16. Sean A y B matrices n× n, entonces det(AB) = det(A) det(B).

Demostracion. Caso 1. A es invertible, entonces A = E1 · · ·Ek con E1, . . . , Ek matrices elementales. Entonces

det(AB) = det(E1 · · ·EkB) = det(E1) · · · det(Ek)︸ ︷︷ ︸det(E1···Ek)

det(B)

= det(E1 · · ·Ek︸ ︷︷ ︸A

) det(B) = det(A) det(B).

Page 128: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 123

Caso 2. A no es invertible, entonces A = E1 · · ·Ek · A′ donde E1, . . . , Ek son matrices elementales y A′ es una

matriz en forma escalonada reducida. Como A no es invertible, entonces rango(A) = rango(A′) < n y como es

una matriz cuadrada entonces A′ tiene al menos una fila de ceros y por tanto A′B tiene una fila de ceros, por

tanto det(A′B) = 0 = det(A′) luego

det(AB) = det(E1 · · ·EkA′B) = det(E1) · · · det(Ek) det(A′B)︸ ︷︷ ︸=0

= 0, (5.11)

y

det(A) det(B) = det(E1 · · ·EkA′) det(B) (5.12)

= det(E1) · · · det(Ek) det(A′)︸ ︷︷ ︸=0

det(B) = 0.

De las ecuaciones (5.11) y (5.12) tenemos que

det(AB) = det(A) det(B).

Teorema 5.17. Sea A una matriz n× n, entonces A es invertible si y solo si det(A) 6= 0.

Demostracion. “⇒” Supongamos que A es invertible, entonces A = E1 · · ·Ek con E1, . . . , Ek son matrices

elementales y por tanto det(E1) 6= 0, , . . . , det(Ek) 6= 0. Entonces

det(A) = det(E1 · · ·Ek) = det(E1)︸ ︷︷ ︸6=0

· · · det(Ek)︸ ︷︷ ︸6=0

6= 0.

“⇐” Supongamos que det(A) 6= 0 y supongamos por el absurdo que A no es invertible, entonces A = E1 · · ·Ek ·A′

donde E1, . . . , Ek son matrices elementales y A′ es una matriz en forma escalonada reducida. Como A no es

invertible, entonces rango(A) = rango(A′) < n y como es una matriz cuadrada entonces A′ tiene al menos una

fila de ceros y por tanto det(A′) = 0, luego

det(A) = det(E1 · · ·EkA′) = det(E1) · · · det(Ek) det(A′)︸ ︷︷ ︸=0

= 0,

pero esto contradice la hipotesis, por tanto A es invertible.

Corolario 5.18. Sea A una matriz invertible de tamano n× n entonces

det(A−1) =1

det(A).

Demostracion. det(A) ·det(A−1) = det(A ·A−1) = det(I) = 1. Entonces, despejando tenemos que det(A−1) =1

det(A).

Page 129: 64806112 Algebra Lineal Matlab

124

5.4. Matriz Adjunta

Definicion 5.4. Sea A una matriz de tamano n× n, definimos la matriz adjunta como la matriz definida por

Adj(A) =

C11 C12 · · · C1n

C21 C22 · · · C2n

......

. . ....

Cn1 Cn2 · · · Cnn

t

=

C11 C21 · · · Cn1

C12 C22 · · · Cn2

......

. . ....

C1n C2n · · · Cnn

,

donde Cij = (−1)i+j det(Aij) es el ij-esimo cofactor de A.

Lema 5.19. Sea A =

a11 · · · a1n

.... . .

...

an1 · · · ann

entonces ai1Cj1 + · · ·+ ainCjn = 0 si 1 ≤ i 6= j ≤ n, donde Cik es el

ik-esimo cofactor de A.

Demostracion. Sea B una matriz con las mismas filas de A excepto la fila j en donde se repite la fila i, es

decir B =

a11 · · · a1n

.... . .

...

ai1 · · · ain...

. . ....

ai1 · · · ain...

. . ....

an1 · · · ann

. Notese que para k = 1, . . . , n se tiene que Ajk = Bjk ya que al eliminar la j-esima

fila de A se obtiene la misma matriz que al eliminar la j-esima fila de B. Entonces tenemos que

0 = det(B) = Expansion en la fila j

=n∑k=1

bjk︸︷︷︸aik

(−1)j+k det(Bjk︸︷︷︸Ajk

) =n∑k=1

aik (−1)j+k det(Ajk)︸ ︷︷ ︸Cjk

=n∑k=1

aikCjk = ai1Cj1 + · · ·+ ainCjn

Teorema 5.20. Sea A una matriz de tamano n× n, entonces

A · adj(A) = det(A) · I,

por tanto

1. Si A es invertible entonces A−1 =1

det(A)adj(A).

2. Si A no es invertible entonces A · adj(A) = 0.

Page 130: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 125

Demostracion. Sea A =

a11 · · · a1n

.... . .

...

an1 · · · ann

y adj(A) =

C11 · · · Cn1

.... . .

...

C1n · · · Cnn

, donde Cij es el ijesimo cofactor

de A. Entonces el coeficiente dij en la ij-esima entrada de la matriz A · adj(A) esta dada por

dij = ai1Cj1 + · · ·+ ainCjn =

0 si i 6= j (Lema 5.19),

det(A) si i = j.

.

Por tanto

A · adj(A) =

d11︸︷︷︸=det(A)

d12︸︷︷︸=0

· · · d1n︸︷︷︸=0

d21︸︷︷︸=0

d22︸︷︷︸=det(A)

· · · d2n︸︷︷︸=0

......

. . ....

dn1︸︷︷︸=0

dn2︸︷︷︸=0

· · · dnn︸︷︷︸=det(A)

(5.13)

=

det(A) · · · 0

.... . .

...

0 · · · det(A)

= det(A)I.

Ahora, en el caso 1. si A es invertible entonces det(A) 6= 0 y dividiendo a ambos lados de la Ecuacion (5.13)

tenemos que A · 1det(A)

adj(A) = I, por tanto

A−1 =1

det(A)adj(A).

Finalmente, en el caso 2. si A no es invertible, entonces det(A) = 0 y por tanto la Ecuacion (5.13) se convierte

en A · adj(A) = 0.

Ejemplo 5.7. Sea A =

1 2 3

1 4 7

1 6 0

, calcular los cofactores de A, el determinante de A y la inversa de A.

Solucion. Los cofactores de A son

C11 = (−1)1+1 det

4 7

6 0

= −42 C12 = (−1)1+2 det

1 7

1 0

= 7

C13 = (−1)1+3 det

1 4

1 6

= 2 C21 = (−1)2+1 det

2 3

6 0

= 18

C22 = (−1)2+2 det

1 3

1 0

= −3 C23 = (−1)2+3 det

1 2

1 6

= −4

C31 = (−1)3+1 det

2 3

4 7

= 2 C32 = (−1)3+2 det

1 3

1 7

= −4

Page 131: 64806112 Algebra Lineal Matlab

126

C33 = (−1)3+3 det

1 2

1 4

= 2.

El determinante de A lo calculamos por expansion por cofactores en la tercera fila

det(A) = a31C31 + a32C32 + a33C33 = 1 · 2 + 6 · (−4) + 0 · 2 = −22

La matriz adjunta esta dada por:

adj(A) =

C11 C21 C31

C12 C22 C32

C13 C23 C33

=

−42 18 2

7 −3 −4

2 −4 2

.Luego, la inversa de A esta dada por

A−1 =1

det(A)adj(A) =

−122

−42 18 2

7 −3 −4

2 −4 2

.

5.5. La Regla de Cramer

Teorema 5.21. (Regla de Cramer) Sea Ax = b un sistema de ecuaciones con A una matriz n×n invertible

entonces el sistema tiene solucion unica la cual esta dada por

x1 =det(A1)det(A)

, x2 =det(A2)det(A)

, . . . , xn =det(An)det(A)

,

Donde A =

a11 a12 · · · a1n

a21 a22 · · · a2n

......

. . ....

an1 an2 · · · ann

, A1 =

b1 a12 · · · a1n

b2 a22 · · · a2n

......

. . ....

bn an2 · · · ann

,

A2 =

a11 b1 · · · a1n

a21 b2 · · · a2n

......

. . ....

an1 bn · · · ann

, . . . , An =

a11 a12 · · · b1

a21 a22 · · · b2...

.... . .

...

an1 an2 · · · bn

Demostracion. Sean a1, . . . , an las columnas de A, es decir, A =

[a1 · · · an

]. Como A es invertible entonces

el sistema tiene solucion unica. Sea x =

x1

...

xn

la solucion al sistema, entonces

b = Ax =[a1 · · · an

]x1

...

xn

= x1a1 + · · ·+ xnan.

Page 132: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 127

Entonces para 1 ≤ i ≤ n fijo, tenemos que

det(Ai) = det[a1 · · · b · · · an

]= det

[a1 · · · x1a1 + · · ·+ xnan · · · an

]= det

[a1 · · · x1a1 · · · an

]+ · · ·+ det

[a1 · · · xiai · · · an

]+ · · · · · ·+ det

[a1 · · · xnan · · · an

]=x1 det

[a1 · · · a1 · · · an

]︸ ︷︷ ︸

=0 (por columna repetida)

+ · · ·+ xi det[a1 · · · ai · · · an

]︸ ︷︷ ︸

=A

+ · · · · · ·+ xn det[a1 · · · an · · · an

]︸ ︷︷ ︸

=0 (por columna repetida)

=xi det(A).

Al despejar xi de esta ecuacion obtenemos xi =det(Ai)det(A)

.

Ejemplo 5.8. Resolver el sistema

3x+ 2y − z = 0

−x + 3z = 0

x + z = 1

usando la regla de Cramer.

Solucion. Primero calculemos los determinantes de las matrices de A1, A2, A3 y A.

det(A1) = det

0 2 −1

0 0 3

1 0 1

= 1 det

2 −1

0 3

= 6

det(A2) = det

3 0 −1

−1 0 3

1 1 1

= −1 det

3 −1

−1 3

= −8

det(A3) = det

3 2 0

−1 0 0

1 0 1

= −2 det

−1 0

1 1

= 2

det(A) = det

3 2 −1

−1 0 3

1 0 1

= −2 det

−1 3

1 1

= 8

Por tanto la solucion al sistema esta dada por

x =det(A1)det(A)

=68

=34

y =det(A2)det(A)

=−88

= −1 y z =det(A3)det(A)

=28

=14.

Page 133: 64806112 Algebra Lineal Matlab

128

5.6. Interpretacion Geometrica del Determinante

Teorema 5.22. Sean v, w ∈ R2 entonces

|det([v w

])| = area del paralelogramo formado por v y w,

donde las barras denotan el valor absoluto.

Teorema 5.23. Sean v, w y z vectores en R3 entonces

|det([v w z

])| = volumen del paralelepıpedo formado por v, w y z.

Ejemplo 5.9. Sean v1 =

0

2

3

, v2 =

2

1

0

y v3 =

0

2

2

, calcular el volumen del paralelepıpedo formado por estos

vectores.

Solucion. De acuerdo al Teorema 5.23 tenemos que

Volumen = |det[v1 v2 v3

]| =

∣∣∣∣∣∣∣∣∣

0 2 0

2 1 2

3 0 2

∣∣∣∣∣∣∣∣∣ =

∣∣∣∣∣∣−2

2 2

3 2

∣∣∣∣∣∣ = | − 2(4− 6)| = 4.

Estos dos teoremas motivan la siguiente definicion.

Definicion 5.5. Sean v1, v2, · · · , vn ∈ Rn, definimos el volumen de paparelelepıpedo n dimensional por la

ecuacion

Volumen = |det[v1 · · · vn

]|,

donde las barras denotan el valor absoluto

Ejemplo 5.10. (Matlab) Sean v1 =

1

2

3

0

, v2 =

2

1

0

0

, v3 =

−1

−1

−2

−1

y v4 =

0

2

2

0

, calcular el volumen del

paralelepıpedo 4-dimensional formado por estos vectores.

Solucion. Para calcular el volumen necesitamos calcular el determinante de la matriz A =[v1 v2 v3 v4

]el cual calulamos usando Matlab

>> A = [1 2 − 1 0; 2 1 − 1 2; 3 0 − 2 2; 0 2 2 0]; det(A)

ans =

−12

Por tanto el volumen del paralelepıpedo es | − 12| = 12 unidades cubicas.

El Teorema 5.23 tambien se puede usar para calcular areas de triangulos en R3 como se describe a continuacion.

Sean A, B y C tres puntos no colineales en R3,

Page 134: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 129

1. Sean v1 = A− C y v2 = B − C y sea V = 〈v1, v2〉,

2. Calcular una base para V ⊥, notese que este espacio es 1-dimensional,

3. Sea v =1||w||

w la normalizacion del vector encontrado en el paso 2. entonces

area del trangulo ABC =12|det

([v1 v2 v

])|. (5.14)

Esta igualdad se da ya que el vector v es un vector unitario perpendicular a v1 y v2, entonces ||v|| es la altura

del paralelepıpedo formado por v1, v2 y v3, por tanto tenemos que

|det([v1 v2 v

])| = volumen del paralelepıpedo formado por v1, v2 y v

= area de la base por la altura

= area del paralelogramo formado por v1 y v2 × ||v||︸︷︷︸=1

= area del paralelogramo formado por v1 y v2,

Al multiplicar por 12 ambos lados de esta ecuacion y notando que 1

2 del area del paralelogramo formado por v1

y v2 es el area del triangulo ABC, se obtiene la ecuacion (5.14).

Ejemplo 5.11. Sean A = (−1, 2, 3), B = (4, 3, 4) y C = (−1,−1, 0) en R3, calcular el area del trangulo ABC.

Solucion: Siguiendo los pasos del procedimiento anterior tenemos lo siguiente:

1. Sean v1 = A− C =

−2

3

3

y v2 =

5

4

4

y V = 〈v1, v2〉,

2. Para calcular el complemento ortogonal V ⊥ de V calculamos el espacio nulo de la matriz A =

vt1vt2

=−2 3 3

5 4 4

, cuya forma escalonada reducida es la matriz A′ =

1 0 0

0 1 1

y por tanto:

x

y

z

∈ Nul(A) si y solo si x = 0 y y = −z si y solo si

x

y

z

=

0

1

−1

,

Entonces V ⊥ =

⟨0

1

−1

.

Page 135: 64806112 Algebra Lineal Matlab

130

3. Sea v =1√2

0

1

−1

, necesitamo calcular det[v1 v2 v

], el cual calculamos a continuacion usando ex-

pasion en la tercera columna:

det[v1 v2 v

]=

−2 5 0

3 4 1√2

3 4 − 1√2

= − 1√

2det

−2 5

3 4

− 1√2

det

−2 5

3 4

=

2√2

23

Finalmente tenemos que

area del triangulo ABC =12

det[v1 v2 v

]=

12

2√2

23 =1√2

23.

Page 136: 64806112 Algebra Lineal Matlab

Capıtulo 6

Valores y Vectores Propios

6.1. Polinomio Caracterıstico

Definicion 6.1. Sea A una matriz de tamano n×n, decimos que λ es un valor propio de A si existe un vector

v tal que Av = λv. En este caso decimos que v es un vector propio de valor propio λ.

Si λ es un valor propio de una matriz A y v es un vector propio de valor propio λ entonces se tiene que la

Av = λv = λIv o equivalentemente (A− λI)v = 0. Esto es, v ∈ Nul(A− λI) y por tanto det(A− λI) = 0. Esta

ultima ecuacion produce un polinomio en terminos de λ y es llamado el polinomio caracteristico de A.

Teorema 6.1. Sea A una matriz de tamano n×n, entonces λ es un valor propio si y solo si det(A− λI) = 0.

Demostracion. λ es un valor propio si y solo si existe v 6= 0 tal que Av = λv si y solo si existe v 6= 0 tal que

Av = λIv si y solo si existe v 6= 0 tal que Av − λIv = 0 si y solo si existe v 6= 0 tal que (A− λI)v = 0 si y solo

si A− λI no es invertible si y solo det(A− λI) = 0.

Definicion 6.2. Sea A una matriz de tamano n×n, definimos el polinomio caracteristico pA(λ) de A por

pA(λ) = det(A− λI).

Del teorema anterior se deduce el siguiente procedimiento para calcular los valores y vectores propios de una

matriz A.

Procedimiento 6.1. (Procedimiento para calcular los valores y vectores propios)

1. Calcular el polinomio caracteristico pA(λ) = det(A− λI),

2. Resolver la ecuacion pA(λ) = 0, cuyas raices corresponden a los valores propios.

3. Para cada valor propio λ encontrado en en el paso anterios, calcular una base para Nul(A − λI). Los

vectores en dicha base son vectores propios de valor propio λ.

131

Page 137: 64806112 Algebra Lineal Matlab

132

Ejemplo 6.1. Sea

4 −5

2 −3

calcular los valores y vectores propios de A.

El polinomio caracteristico de A, esta dado por

pA(λ) = det(A− λI) = det

4− λ −5

2 −3− λ

= λ2 − λ− 2

Ahora resolvemos pA(λ) = (λ− 2)(λ+ 1) = 0 de donde λ = 2 y λ = −1.

Ahora calculamos Nul(A − λI) con λ = 2. Esto es, Nul(A − 2I) = Nul

2 −5

2 −5

, cuya forma escalonada

reducida es

1 −52

0 0

. De esto tenemos quexy

∈ Nul(A− 2I) si y solo si x = 52y si y solo si

xy

=

52y

y

= y

52

1

Entonces v =

52

1

es un vector propio de valor propio λ = 2.

Ahora calculamos Nul(A − λI) con λ = −1. Esto es, Nul(A + I) = Nul

5 −5

2 −2

, cuya forma escalonada

reducida es

1 −1

0 0

. De lo anterior tenemos quexy

∈ Nul(A+ I) si y solo si x = y si y solo si

xy

=

yy

= y

1

1

Entonces v =

1

1

es un vector propio de valor propio λ = −1.

En el ejemplo anterior se puede ver que los vectores propios encontrados son linealmente independientes, esto

no es una casualidad, de hecho vectores propios correspondientes a valores propios distintos son linealmente

independientes.

Teorema 6.2. Sea A una matriz de tamano n×n y sean v1, . . . , vk vectores propios con valores propios

λ1, . . . , λk, respectivamente. Si los λi son diferentes entre si entonces los vectores v1, . . . , vk son linealmente

independientes.

Demostracion. Por induccion sobre k

Para k = 2, supongamos que

α1v1 + α2v2 = 0 (6.1)

multiplicando por A ambos lados obtenemos α1 Av1︸︷︷︸λ1v1

+α2 Av2︸︷︷︸λ2v2

= 0, equivalentemente

α1λ1v1 + α2λ2v2 = 0. (6.2)

Page 138: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 133

Ahora multiplicamos la ecuacion (6.1) por λ1 obtenemos

α1λ1v1 + α2λ1v2 = 0. (6.3)

Restando la Ecuacion (6.3) de la Ecuacion (6.2) tenemos que α2(λ1 − λ2)v2 = 0, como λ1 6= λ2 entonces

λ1−λ2 6= 0 y como v2 6= 0 entonces α2 = 0, reemplazando este valor en la Ecuacion (6.1) tenemos que α1v1 = 0

y como v1 6= 0 entonces α1 = 0 y por tanto v1 y v2 son linealmente independientes.

Supongamos por induccion que k − 1 vectores propios correspondientes a k − 1 valores propios distintos son

linealmente independientes y supongamos que

α1v1 + · · ·+ αkvk = 0, (6.4)

multiplicando por A ambos lados tenemos que α1 Av1︸︷︷︸λ1v1

+ · · ·+ αk Avk︸︷︷︸λkvk

= 0 o equivalentemente

α1λ1v1 + · · ·+ αkλkvk = 0. (6.5)

Ahora, multiplicando a ambos lados de la Ecuacion (6.4) por λk tenemos

α1λkv1 + · · ·+ αkλkvk = 0. (6.6)

Restando la Ecuacion (6.6) de la Ecuacion (6.5)obtenemos

α1(λ1 − λk)v1 + · · ·+ αk−1(λk−1 − λk)vk−1 = 0.

Como v1, . . . , vk−1 son k− 1 vectores propios correspondientes a distintos valores propios entonces por hipotesis

de induccion son linealmente independientes, por tanto

α1(λ1 − λk︸ ︷︷ ︸6=0

) = · · · = αk−1(λk−1 − λk︸ ︷︷ ︸6=0

) = 0

como λ1−λk 6= 0, · · · , λk−1−λk 6= 0 entonces α1 = · · · = αk−1 = 0. Reemplazando estos valores en la Ecuacion

(6.4) obtenemos αkvk = 0 y como vk 6= 0 entonces αk = 0 y por tanto los vectores v1, . . . , vk son linealmente

independientes.

Definicion 6.3. Sea A una matriz de tamano n×n, al conjunto

Eλ = {v : Av = λv}

se le llama el subespacio propio de valor propio λ.

Observacion: Notese que Eλ = Nul(A− λI) y por tanto Eλ es un subespacio de Rn.

Ejemplo 6.2. En el Ejemplo 6.1 tenemos que E2 =⟨ 5

2

1

⟩ y E−1 =⟨1

1

⟩.

Page 139: 64806112 Algebra Lineal Matlab

134

Ejemplo 6.3. (MatLab) Calcule los valores y vectores propios de la matriz A =

5 6 9

−3 −4 −9

0 0 2

.

Solucion. Calculamos el polinomio caracterıstico con MatLab como sigue

>> A = [5 6 9;−3 − 4 − 9; 0 0 2]; p = poly(sym(A))

p =

x3 − 3 ∗ x2 + 4

para calcular los valores propios podemos factorizar p, lo cual podemos hacer con MatLab como sigue

>> factor(p)

ans =

(x+ 1) ∗ (x− 2)2

De donde tenemos que los valores propios son λ1 = −1 de multiplicidad 1 y λ2 = 2 de multiplicidad 2.

Ahora para cada valor propio calculamos los vectores propios como sigue:

Para λ = −1

>> null(A+ eye(3),′ r′)

ans =−1

1

0

Por tanto el vector v1 =

−1

1

0

es un vector propio de valor propio λ = −1.

Para λ = 2

>> null(A− 2 ∗ eye(3),′ r′)

ans =−2 −3

1 0

0 1

Luego los vectores v2 =

−2

1

0

y v3 =

−3

0

1

son vectores propios de valor propio λ = 2.

Definicion 6.4. Sea A una matriz de tamano n×n y sean λ1, . . . λk los valores propios de A,

1. Decimos que la multiplicidad algebraica de λi, es k si (λ−λi)k es la maxima potencia de λ−λi que divide

a pA(λ). La multiplicidad algebraica de λ sera denotada por aλ.

2. La multiplicidad geometrica de λi esta dada por dimEλi. La multiplicidad geometrica de λ sera denotada

por gλ.

Page 140: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 135

Ejemplo 6.4. En el ejemplo anterior tenemos que a−1 = 1 = g−2 y a2 = 2 = g2.

Ejemplo 6.5. En el Ejemplo 6.1 tenemos que a−1 = g−1 = 1 y a2 = g2 = 1.

Ejemplo 6.6. (MatLab) Calcular los valores y vectores propios de la matriz A =

3 −1 0 0

−1 3 0 0

7 −1 −4 0

7 −1 0 −4

.

Solucion. En MatLab podemos usar un comando diferente al usado en el Ejemplo 6.3 que nos permite calcular

todos los valores y vectores propios con una sola instruccion como sigue.

>> A = [3 − 1 0 0;−1 3 0 0; 7 − 1 − 4 0; 7 − 1 0 − 4]; [V,D] = eig(A)

V =0 0 1/2 1/2

0 0 −1/2 1/2

1 0 1/2 1/2

0 1 1/2 1/2D =

−4 0 0 0

0 −4 0 0

0 0 4 0

0 0 0 2

De aquı tenemos que la matriz tiene vectores propios v1 =

0

0

1

0

y v2 =

0

0

0

1

ambos de valor propio λ = −4,

v3 =

1/2

−1/2

1/2

1/2

de valor propio λ = 4 y v4 =

1/2

1/2

1/2

1/2

de valor propio λ = 2. Notese que en este ejemplo se tiene

que los valores propios tienen multiplicidad geometrica y algebraica iguales. En realidad este este comando nos

da mas informacion acerca de la matriz, ver Ejemplo 6.21.

Hasta ahora solo hemos visto ejemplos donde los valores propios tienen multiplicidad geometrica y algebraica

iguales, pero esto no siempre se cumple, de hecho es posible que la multiplicidad geometrica sea estrictamente

menor que la multiplicidad algebraica, a continuacion damos ejemplos donde se da esto.

Ejemplo 6.7. (MatLab) Calcular los valores propios y sus multiplicidades algebraica y geometrica de la matriz

A =

−3 −2 1

1 −6 1

1 −2 −3

.

Page 141: 64806112 Algebra Lineal Matlab

136

Solucion. Primero calculamos el polinomio caracterıstico del A.

>> A = [−3 − 2 1; 1 − 6 1; 1 − 2 − 3]; factor(poly(sym(A)))

ans =

(4 + x)3

Es decir λ = −4 es el unico valor propio con multiplicidad algebraica 3, ahora necesitamos el subespacio

propio para calcular la multiplicidad geometrica.

>> null(A− 3 ∗ eye(3),′ r′)

ans =2 −1

1 0

0 1

Por tanto E−4 =

⟨2

1

0

,−1

0

1

, de esto tenemos que g3 = 2 < 3 = a3.

Ejemplo 6.8. (MatLab) Calcular los valores propios y sus multiplicidades algebraica y geometrica de la matriz

A =

−4 −1 1

0 −5 1

−1 0 −3

.Solucion. Calculamos el polinomio caracterıstico

>> A = [−4 − 1 1; 0 − 5 1;−1 0 − 3]; factor(poly(sym(A)))

ans =

(4 + x)3

Es decir λ = −4 es el unico valor propio con multiplicidad algebraica 3, ahora necesitamos el subespacio

propio para calcular la multiplicidad geometrica.

>> null(A− 3 ∗ eye(3),′ r′)

ans =1

1

1

Por tanto E−4 =

⟨1

1

1

. Por tanto g3 = 1 < 3 = a3.

Como los valores propios son las raıces de el polinomio caracterıstico, y sabemos que existen polinomios con

coeficientes reales (incluso enteros) y raıces complejas, entonces tambien existen matrices con entradas reales

(enteras) y valores propios complejos, a continuacion damos un ejemplo.

Page 142: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 137

Ejemplo 6.9. (MatLab) Calcular los valores y vectores propios de la matriz A =

−1 −2 2

−2 −1 2

−4 −1 3

.

Solucion. Usamos MatLab para calcular los valores propios

>> A = [−1 − 2 2;−2 − 1 2;−4 − 1 3]; p = poly(sym(A))

x3 − x2 + x− 1

Depues lo factorizamos:

factor(p)

ans =

(x− 1) ∗ (x2 + 1)

De aqui deducimos que los valores propios son λ1 = 1, λ2 = i y λ3 = −i. Ahora calculamos los vectores

propios:

>> v1 = null(c− eye(3),′ r′)

v1 =1/3

2/3

1>> v2 = null(c− i ∗ eye(3),′ r′)

v2 =3/5− 1/5i

3/5− 1/5i

1>> v2 = null(c+ i ∗ eye(3),′ r′)

v3 =3/5 + 1/5i

3/5 + 1/5i

1

Por tanto los vectores propios son v1 =

1/3

2/3

1

, v2 =

3/5− 1/5i

3/5− 1/5i

1

y v3 =

3/5 + 1/5i

3/5 + 1/5i

1

de valores propios

λ1 = 1, λ2 = i y λ3 = −i, respectivamente.

6.2. Matrices Similares

Definicion 6.5. Sean A y B matrices de tamano n×n, decimos que A y B son similares si existe una matriz

invertible C tal que A = CBC−1. Escribiremos A ∼ B para denotar que A y B son similares.

Page 143: 64806112 Algebra Lineal Matlab

138

Ejemplo 6.10. Las matrices A =

2 1

1 2

y B =

3 0

0 1

son similares, ya que si tomamos C =

1 −1

1 1

entonces tenemos que A = CBC−1.

La siguiente propiedad de matrices similares es importante para lo que sigue.

Teorema 6.3. Sean A y B matrices de tamano n×n, si A y B son similares entonces pA(λ) = pB(λ) y por

tanto A y B tienen los mismos valores propios.

Demostracion. Como A y B son similares, entonces existe una matriz invertible C tal que B = CAC−1,

pB(λ) = det(B − λI) = det(CAC−1 − λI) = det(CAC−1 − λCIC−1)

= det[C(A− λI)C−1

]= det(C) det(A− λI) det(C−1)

= det(C) det(A− λI)1

det(C)= det(A− λI)

= pA(λ).

Definicion 6.6. Sea A una matriz de tamano n×n, decimos que A es diagonalizable si existe una matriz

diagonal D tal que A ∼ D.

Ejemplo 6.11. La matriz A =

2 1

1 2

es diagonalizable ya que en el Ejemplo 6.10 vimos que A es similar a

la matriz diagonal

3 0

0 1

.

El Teorema 6.3 nos permite ver de manera facil que no todas las matrices son diagonalizables, como se

muestra a continuacion.

Ejemplo 6.12. Veamos que la matriz A =

1 1

0 1

no es diagonalizable. Por el absurdo supongamos que existe

una matriz D diagonal tal que A ∼ D, supongamos que D =

a 0

0 b

.

Notese que los valores propios de A son λ = 1 con multiplicidad 2 y los valores propios de D son λ = a y

λ = b. Como A ∼ D, entonces por el Teorema 6.3 A y D tienen los mismos valores valores propios, por tanto

a = b = 1, entonces D = I.

Finalmente, como A ∼ D, existe una matriz invertible C tal que A = CDC−1 por tanto1 1

0 1

= A = C D︸︷︷︸=I

C−1 = CIC−1 = I =

1 0

0 1

De esta igualdad se debe dar que 1 = 0, lo que es absurdo. Concluimos que A no es diagonalizable.

Page 144: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 139

Este ejemplo tambien muestra que el recıproco del Teorema 6.3 no es cierto ya que la matriz A =

1 1

0 1

y

la matriz identidad tienen los mismos valores propios, sin embargo no son similares.

En los ejemplos de la seccion anterior vimos que la multiplicidad geometrica de de los valores propios es

menor o igual a la multiplicidad algebraica, esto es cierto en general.

Teorema 6.4. Sea A una matriz de tamano n×n y sea λ un valor propio de A, entonces gλ ≤ aλ, es decir,

multiplicidad geometrica de λ ≤ multiplicidad algebraıca de λ.

Demostracion. Sea λ′ un valor propio de A, Como λ es un valor propio, entonces existe v 6= 0 tal que Av = λ′v

y por tanto Eλ′ 6= 0.

Supongamos que dimEλ′ = k y sean v2, . . . , vk tal que {v, v2, . . . , vk} es una base para Eλ′ , entonces

Avi = λ′vi para i = 1, . . . , k. Ahora sean wk+1, . . . , wn tal que {v, v2, . . . , vk, wk+1, . . . , wn} es una base para Rn

y sea

S =[v v2 . . . vk wk+1 . . . wn

], como {v, v2, . . . , vk, wk+1, . . . , wn} es una base, entonces S es invertible

y se tiene que

I = S−1S = S−1[v v2 · · · vk wk+1 · · · wn

]=[S−1v S−1v2 · · · S−1vk S−1wk+1 · · · S−1wn

],

de donde S−1v = e1, S−1v2 = e2, . . . , S−1vk = ek.

Ahora definamos B = S−1AS, entonces por el teorema anterior tenemos que pA(λ) = pB(λ) y la matriz B

tiene la siguiente forma:

B = S−1AS = S−1A[v v2 · · · vk wk+1 · · · wn

]= S−1

[Av︸︷︷︸λ′v

Av2︸︷︷︸λ′v2

· · · Avk︸︷︷︸λ′vk

Awk+1 · · · Awn

]= S−1

[λ′v λ′v2 · · · λ′vk Awk+1 · · · Awn

]=

[S−1λ′v︸ ︷︷ ︸λ′S−1v

S−1λ′v2︸ ︷︷ ︸λ′S−1v2

· · · S−1λ′vk︸ ︷︷ ︸λ′S−1vk

S−1Awk+1 · · · S−1Awn

]

=

[λ′ S−1v︸ ︷︷ ︸

e1

λ′ S−1v2︸ ︷︷ ︸e2

· · · λ′ S−1vk︸ ︷︷ ︸ek

S−1Awk+1 · · · S−1Awn

]=[λ′e1 λ′e2 · · · λ′ek S−1Awk+1 · · · S−1Awn

]

Page 145: 64806112 Algebra Lineal Matlab

140

=

λ′ · · · 0...

. . ....

0 · · · λ′

0 · · · 0...

. . ....

0 · · · 0

R

donde R =[S−1Awk+1 · · · S−1Awn

]. Entonces si escribimos R =

R1

R2

con R1 una matriz k × (n− k)

y R2 es una matriz (n− k)× (n− k), tenemos que

B =

λ′ · · · 0...

. . ....

0 · · · λ′

R1

0 · · · 0...

. . ....

0 · · · 0

R2

por tanto pA(λ) = pB(λ) = det(B − λI) = (−1)k(λ− λ′)k × detR2, de donde

multiplicidad algebraica de λ′ ≥ k = multiplicidad geometrica de λ′.

6.3. Cambio de Base

El objetivo de esta seccion es demostrar que si A ∼ B entonces las matrices estan relacionadas por un cambio

de coordenadas (cambio de base), para llegar a esto debemos definir cambio de coordenadas.

Definicion 6.7. Sean X = {x1, . . . , xn} una base de Rn y v ∈ Rn, sabemos que existen escalares α1, . . . , αn

talque v = α1v1 + · · ·+ αnvn y que esta representacion es unica. Entonces decimos que el vector v en terminos

de la base X esta dado por

vX =

α1

...

αn

.

Ejemplo 6.13. Sea X =

x1 =

1

−1

, x2 =

1

1

. Notese que v =

5

−1

= 3x1 + 2x2, entonces tenemos que

vX =

3

2

.

Page 146: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 141

Definicion 6.8. Sean X = {x1, . . . , xn} y Y = {y1, . . . , yn} bases para Rn, definimos la matriz del cambio de

base (o cambio de coordenadas) de la base X a la base Y como la matriz.

Y IX =[(x1)Y · · · (xn)Y

].

Ejemplo 6.14. Sea E =

e1 =

1

0

, e2 =

0

1

la base estandar de R2 y sea X =

x1 =

1

1

, x2 =

1

−1

entonces la matriz EIX esta dada por

EIX =[(x1)E (x2)E

]=[x1 x2

]=

1 1

1 −1

.Teorema 6.5. Sean X = {x1, . . . , xn} y Y = {y1, . . . , yn} bases para Rn y sea v ∈ Rn, entonces

vY =Y IX · vX .

Demostracion. Como X es una base, entonces existen constantes β1, . . . , βn tal que

v = β1x1 + · · ·+ βnxn (6.7)

entonces vX =

β1

...

βn

, y como Y es una base, para 1 ≤ i ≤ n, existen constantes α1i, . . . , αni tal que

xi = α1iy1 + · · ·+ αniyn, (6.8)

luego (xi)Y =

α1i

...

αni

, por tanto

Y IX =[(x1)Y · · · (xn)Y

]=

α11 · · · α1n

.... . .

...

αn1 · · · αnn

De las Ecuaciones (6.7) y (6.8) tenemos que

v = β1x1 + · · ·+ βnxn

= β1(α11y1 + · · ·+ αn1yn) + · · ·+ βn(α1ny1 + · · ·+ αnnyn)

= (β1α11 + · · ·+ βnα1n)y1 + · · ·+ (β1αn1 + · · ·+ βnαnn)yn

luego

vY =

β1α11 + · · ·+ βnα1n

...

β1αn1 + · · ·+ βnαnn

=

α11 · · · α1n

.... . .

...

αn1 · · · αnn

︸ ︷︷ ︸

Y IX

β1

...

βn

︸ ︷︷ ︸vY

=Y IXvY .

Page 147: 64806112 Algebra Lineal Matlab

142

Ejemplo 6.15. Consideres las bases X =

x1 =

−1

0

, x2 =

2

1

y Y =

y1 =

3

1

, y2 =

4

1

de R2 y

v = 2x1 + 3x2, expresar a v en terminos de la base Y .

Solucion. Notese que x1 = y1 − y2 y x2 = 2y1 − y2, luego (x1)Y =

1

−1

y (x2)Y =

2

−1

, de donde

Y IX =

1 2

−1 −1

. Ahora, como vX =

2

3

, entonces

vY =Y IXvX =

1 2

−1 −1

2

3

=

8

−5

.Es decir, v = 8y1 − 5y2.

La dificultad que a menudo se encuentra al usar este procedimiento es en el calculo de la matriz de cambio

de base Y IX , la cual, en este ejemplo, fue facil calcular. El siguiente teorema nos dara una forma efectiva de

calcular esta matriz en el caso general.

Teorema 6.6. Sean X = {x1, . . . , xn} y Y = {y1, . . . , yn} bases para Rn y sean A =[x1 · · · xn

]y B =[

y1 · · · yn

]. Entonces Y IX = B−1A.

Demostracion. Expresando los vectores x1, . . . , xn en terminos de la base Y obtenemos:

x1 = α11y1 · · ·+ αn1yn...

xn = α1ny1 · · ·+ αnnyn

. (6.9)

Entonces (x1)Y =

α11

...

αn1

, . . . , (xn)Y =

α1n

...

αnn

y por tanto

Y IX =

α11 · · · α1n

.... . .

...

αn1 · · · αnn

.De la Ecuacion (6.9) tenemos que

x1

...

xn

=

α11 · · · αn1

.... . .

...

α1n · · · αnn

y1...

yn

.Transponiendo, obtenemos

[x1 · · · xn

]︸ ︷︷ ︸

=A

=[y1 · · · yn

]︸ ︷︷ ︸

=B

α11 · · · α1n

.... . .

...

αn1 · · · αnn

︸ ︷︷ ︸

=Y IX

,

Page 148: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 143

por tanto A = B Y IX , multiplicando a ambos lados por B−1 obtenemos

Y IX = B−1A.

De este teorema se sigue un procedimiento para calcular la matriz del cambio de base, el cual damos a contin-

uacion.

Procedimiento 6.2. (Procedimiento para calcular la matriz del cambio de base) Sean X = {x1, . . . , xn}

y Y = {y1, . . . , yn} bases para Rn y sean A =[x1 · · · xn

]y B =

[y1 · · · yn

]entonces

1. Aplicar reduccion Gauss-Jordan a la matriz aumentada[B A

]hasta encontrar su forma escalonda

reducida.

2. Al final del paso 1. obtenemos

[I B−1A︸ ︷︷ ︸

Y IX

]. Luego en la parte derecha de la matriz aumentada se obtiene

la matriz de cambio de base Y IX .

Ejemplo 6.16. Considere las bases X =

x1 =

1

1

, x2 =

1

−1

y Y =

y1 =

2

−1

, y2 =

1

0

de R2,

calcular Y IX y vY si vX =

1

1

.

Al reducir la matriz[y1 y2 x1 x2

]=

2 1 1 1

−1 0 1 −1

obtenemos la matriz 1 0 −1 1

0 1 3 −1

y por tanto Y IX =

−1 1

3 −1

Por el Teorema 6.5 tenemos que vY =Y IX · vX =

0

2

.

Ejemplo 6.17. (MatLab) Considere las bases X =

2

1

1

,

1

2

−2

,

1

−2

3

y Y =

1

2

3

,

1

1

2

,

1

1

1

de R3.

Calcular la matriz de cambio de base Y IX y calcular vY si v = 2x1 − x2 + x3.

Solucion. En MatLab calcular la matriz de cambio de base es simplemente un producto de matrices, ya que

podemos definir A =[x1 x2 x3

]y B =

[y1 y2 y3

]y calcular B−1A, lo cual hacemos como sigue en

MatLab:

>> A = [2 1 1; 1 2 − 2; 1 − 2 3]; B = [1 1 1; 2 1 1; 3 2 1]; yIx = inv(B) ∗A

yIx =

−1 1 −3

1 −5 8

2 5 −4

Page 149: 64806112 Algebra Lineal Matlab

144

Entonces la matriz de cambio de base esta dada por Y IX =

−1 1 −3

1 −5 8

2 5 −4

. Ahora, para el calculo de vY ,

tenemos que vX =

2

−1

1

y vY =Y IXvX , esto lo hacemos en MatLab como sigue:

>> vx = [2;−1; 1]; vy = yIx ∗ vx

vy =

−6

15

−5Entonces tenemos que v = −6y1 + 15y2 − 5y3.

Las matrices de cambio de base cumplen las siguientes propiedades.

Teorema 6.7. Sean X = {x1, . . . , xn}, Y = {y1, . . . , yn} y Z = {z1, . . . , zn} bases de Rn entonces tenemos que:

1. Y IX = (XIY )−1

2. ZIX =Z IY ·Y IX

Demostracion. 1. Sean A =[x1 · · · xn

], B =

[y1 · · · yn

], por el Teorema 6.6 tenemos que Y IX =

B−1A y XIY = A−1B, por tanto

(XIY )−1 =(A−1B

)−1= B−1A =Y IX .

2. Sea C =[z1 · · · zn

]entonces por el Teorema 6.6 tenemos que Y IX = B−1A, ZIY = C−1B y ZIX =

C−1A, entonces

ZIX = C−1A = C−1BB−1A =Z IY ·Y IX .

6.3.1. La matriz de una transformacion con respecto a dos bases

Definicion 6.9. Sea T : Rn −→ Rm una transformacion lineal y sean X = {x1, . . . , xn} y Y = {y1, . . . , ym}

bases para Rn y Rm, respectivamente. Definimos la matriz de T con respecto a las bases X y Y , denotada por

Y TX como la matriz

Y TX =[T (x1)Y · · · T (xn)Y

].

La matriz de una transformacion es la matriz con respecto a las bases estandar.

Observacion 6.1. Si T : Rn −→ Rm es una transformacion lineal y E = e1, . . . , en y E = e1, . . . , em son las

bases estandar de Rn y Rm, respectivamente, y S es la matriz de T , es decir, la matriz tal que T (x) = Sx, para

todo x ∈ Rn, entonces

S = ETE =[T (e1) . . . T (en)

].

Page 150: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 145

La siguiente es la propiedad mas importante de la matriz con respecto a dos bases.

Teorema 6.8. Sea T : Rn −→ Rm una transformacion lineal, sean X = {x1, . . . , xn} y Y = {y1, . . . , ym} bases

para Rn y Rm, respectivamente y sea v ∈ Rn. Entonces

T (v)Y = Y TXvX .

Demostracion. Como X es una base, entonces existen constantes β1, . . . , βn tal que

v = β1x1 + · · ·+ βnxn (6.10)

entonces vX =

β1

...

βn

, y como Y es una base, para 1 ≤ i ≤ m, existen constantes α1i, . . . , αmi tal que

T (xi) = α1iy1 + · · ·+ αmiym, (6.11)

luego T (xi)Y =

α1i

...

αmi

, por tanto

Y TX =[T (x1)Y · · · T (xn)Y

]=

α11 · · · α1n

.... . .

...

αm1 · · · αmn

De las Ecuaciones (6.10) y (6.11) tenemos que

T (v) = β1T (x1) + · · ·+ βnT (xn)

= β1(α11y1 + · · ·+ αm1yn) + · · ·+ βn(α1ny1 + · · ·+ αmnyn)

= (β1α11 + · · ·+ βnα1n)y1 + · · ·+ (β1αm1 + · · ·+ βnαmn)yn

luego

T (v)Y =

β1α11 + · · ·+ βnα1n

...

β1αn1 + · · ·+ βnαnn

=

α11 · · · α1n

.... . .

...

αm1 · · · αmn

︸ ︷︷ ︸

Y TX

β1

...

βn

︸ ︷︷ ︸vX

=Y TXvX .

De nuevo el problema en este teorema es el calculo de la matriz Y TX , en el siguiente teorema se hara explicito

un procedimiento para calcular dicha matriz.

Teorema 6.9. Sea T : Rn −→ Rm una transformacion lineal, sean X = {x1, . . . , xn} y Y = {y1, . . . , ym} bases

para Rn y Rm, respectivamente y sean A =[x1 . . . xn

]y B =

[y1 . . . yn

], entonces

Y TX = B−1[T (x1) · · · T (xn)

],

Page 151: 64806112 Algebra Lineal Matlab

146

mas aun

Y TX = B−1 ·E TE ·A.

En palabras el teorema dice que la matriz de T con respecto a las bases X y Y es el producto de las matrices la

inversa de la matriz de Y , la matriz de T y la matriz de X.

Demostracion.

XTY =[T (x1)Y · · · T (xn)Y

]=[Y IET (x1)E · · · Y IET (xn)E

]=[Y IET (x1) · · · Y IET (xn)

]= Y IE

[T (x1) · · · T (xn)

]= B−1

[ETEx1 · · · ETExn

]= B−1

ETE

[x1 · · · xn

]= B−1

ETEA

Este teorema nos da un procedimiento para calcular la matriz de una transformacion T : Rn −→ Rm con

respecto a dos bases X = {x1, . . . , xn} y Y = {y1, . . . , ym}, el cual describimos a continuacion.

Procedimiento 6.3. (Procedimiento para calcular YTX)

1. Calcular T (xi) para i = 1, . . . , n,

2. Aplicar reduccion Gauss-Jordan a la matriz aumentada[y1 · · · yn | T (x1) · · · T (xn)

]=[B T (x1) · · · T (xn)

]=[B ETE ·A

]hasta llevarla a la forma escalonada reducida, donde A =

[x1 · · · xn

]y

B =[y1 · · · yn

],

3. Al final del paso 2. obtenemos

[I B−1 ·E TE ·A︸ ︷︷ ︸

Y TX

].

Ejemplo 6.18. Sea T : R2 −→ R2 la transformacion lineal dada por T

xy

=

2x− y

x+ y

, sean X =x1 =

1

1

, x2 =

1

−1

y Y =

y1 =

2

−1

, y2 =

1

0

bases de R2, calcular Y TX y T (v)Y si vX =

1

1

Primero notese que ETE =

2 −1

1 1

y ası

T (x1) =E TE · x1 =

2 −1

1 1

·1

1

=

1

2

y

Page 152: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 147

T (x2) =E TE · x2 =

2 −1

1 1

· 1

−1

=

3

0

.Entonces necesitamos reducir la matriz[y1 y2 | T (x1) T (x2)

]=

2 1 | 1 3

−1 0 | 2 0

cuya forma escalonada esta dada por

1 0 −2 0

0 1 5 3

, de

donde tenemos

Y TX =

−2 0

5 3

.Finalmente, tenemos que:

T (v)Y =Y TX · vX =

−2 0

5 3

·1

1

=

−2

8

.Ejemplo 6.19. (MatLab) Considere la tranformacion T : R3 −→ R4 definida por

T

x

y

z

=

x+ y + 3z

2x+ y − 2z

x+ 2y + z

−x− y + 2z

y sean X =

x1 =

2

1

1

, x2 =

1

2

−2

, x3 =

1

−2

3

y

Y =

y1 =

1

2

3

4

, y2 =

1

1

2

3

, y3 =

1

1

1

2

, y4 =

1

1

1

1

bases de R3 y R4, respectivamente. Calcular la matriz Y TX

y T (v)Y si v = x1 − x2 + x3.

Solucion. Usamos el Teorema 6.9 que nos dice que Y TX = B−1 ·E TE ·A, con

A = [x1 x2 x3] =

2 1 1

1 2 −2

1 −2 3

, B = [y1 y2 y3 y4] =

1 1 1 1

2 1 1 1

3 2 1 1

4 3 2 1

y ETE =

1 1 3

2 1 −2

1 2 1

−1 −1 2

.

En MatLab solo necesitamos multiplicar las matrices, lo cual hacemos a continuacion.

>> A = [2 1 1; 1 2 − 2; 1 − 2 3]; B = [1 1 1 1; 2 1 1 1; 3 2 1 1; 4 3 2 1];

eTe = [1 1 3; 2 1 − 2; 1 2 1;−1 − 1 2]; yTx = inv(B) ∗ eTe ∗A

yTx =

−3 11 −14

5 −16 20

−8 −5 1

12 7 1

Entonces Y TX =

−3 11 −14

5 −16 20

−8 −5 1

12 7 1

. Finalmente, multiplicamos Y TX por vX =

1

−1

1

, lo que nos da T (v)Y .

Page 153: 64806112 Algebra Lineal Matlab

148

>> vx = [1;−1; 1]; Tvy = yTx ∗ vx

Tvy =

−28

41

−2

6

Por tanto T (v)Y =

−28

41

−2

6

.En MatLab tambien se puede usar el Procedimiento 6.3 para calcular la matriz Y TX , primero notese que

[T (x1) T (x2) T (x3)] = [ETEx1 ETEx2 ETEx3] =E TE [x1 x2 x3]

=E TEA

, entonces se debe calcular la matriz escalonada reducida de la matriz [B | ETEA]. En MatLab lo calculamos

como sigue:

>> C = [B, eTe ∗A]; rref(C)

ans =1 0 0 0 −3 11 −14

0 1 0 0 5 −16 20

0 0 1 0 −8 −5 1

0 0 0 1 12 7 1Notese que en la respuesta se tiene la matriz identidad en la parte izquierda y en la parte derecha se tiene

Y TX .

Es importante observar que las matrices de una transformacion lineal con respecto a bases diferentes son

similares:

Observacion 6.2. Sea T : Rn −→ Rn una transformacion lineal y sea X = {x1, . . . , xn} una base para Rn.

Entonces las matrices XTX y ETE son similares, ya que por el Teorema 6.9 tenemos que XTX = A−1 ·E TE ·A,

o equivalentemente

ETE = A ·X TX ·A−1

donde A =[x1 · · · xn

].

6.4. Diagonalizacion

En esta seccion se daran condiciones equivalentes a que una matriz sea diagonalizable, comenzamos con el

siguiente resultado.

Page 154: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 149

Teorema 6.10. Sea A una matriz de tamano n×n, entonces A es diagonalizable si y solo si A tiene n vectores

propios linealmente independientes. En este caso A es similar a la matriz diagonal D =

λ1 0 · · · 0

0 λ2 . . . 0...

.... . .

...

0 0 · · · λn

donde λ1, . . . , λn son los valores propios de A y si los correspondientes vectores propios son v1, . . . , vn entonces

A = CDC−1 con C =[v1 · · · vn

].

Demostracion. “ ⇒ ” Supongamos que A es diagonalizable, entonces existe una matriz D diagonal y una

matriz invertible C tal que A = CDC−1. Sean c1, . . . , cn las columnas de C y λ1, . . . , λn las entradas en la

diagonal de D.

Afirmacion: Los vectores c1, . . . , cn son vectores propios de A con valores propios λ1, . . . , λn.

Como A = CDC−1 entonces AC = DC, por tanto

[Ac1 · · · Acn] = A[c1 · · · cn] = AC = DC

=

λ1 · · · 0...

. . ....

0 · · · λn

[c1 · · · cn] = [λ1c1 · · · λncn].

De esta igualdad se sigue que Ac1 = λ1c1, · · · , Acn = λncn, lo que demuestra la afirmacion.

Finalmente, como la matriz C es invertible, entonces sus columnas c1, . . . , cn son linealmente independientes,

por tanto A tiene n vectores propios linealmente independientes.

“⇐ ” Sean v1, . . . , vn vectores propios linealmente independientes de A con valores propios λ1, . . . , λn, respec-

tivamente, es decir, Avi = λivi, para i = 1, . . . , n.

Sea X = {v1, . . . , vn} entonces X es una base para Rn y sea T : Rn 7−→ Rn la transformacion lineal determinada

por A, es decir, T (x) = Ax, para todo x ∈ Rn.

Como T (ei) = Aei = i-esima columna de A, entonces ETE = A. Ahora, sea C =[v1 · · · vn

], entonces por el

Teorema 6.9 tenemos que XTX = C−1ETE︸︷︷︸A

C = C−1AC, por tanto

A = C XTXC−1. (6.12)

Ahora veamos que XTX es una matriz diagonal. Como T (vi) = Avi = λivi = 0v1 + · · · + λivi + · · · + 0vn,

Page 155: 64806112 Algebra Lineal Matlab

150

entonces T (vi)X =

0...

λi...

0

, por tanto

XTX =[T (v1) T (v2) · · · T (vn)

]=

λ1 0 · · · 0

0 λ2 · · · 0...

.... . .

...

0 0 · · · λn

. (6.13)

De la Ecuacion (6.12) tenemos que A y XTX son similares y de la ecuacion (6.13), XTX es diagonal, por tanto

A es diagonalizable.

Ejemplo 6.20. La matriz A =

4 −5

2 −3

tiene vectores propios v1 =

5

2

y v2 =

1

1

de valores propios 2 y

-1, respectivamente (ver Ejemplo 6.1.)

Si tomamos la base X = {v1, v2} de R2, formada por los valores propios de la matriz A, C =[v1 v2

]la

matriz de vectores propios y D =

2 0

0 −1

, entonces de acuerdo al Teorema 6.10 tenemos que

A = CDC−1.

Esto lo podemos verificar de la siguiente manera. De acuerdo al Teorema 6.9 la matriz XAX de A con respecto

a la base X esta dada por:

XAX = C−1AC =13

1 −1

−2 5

·4 −5

2 −3

·5 1

2 1

=

2 0

0 −1

= D,

de donde C−1AC = D y por tanto

A = CDC−1.

Ejemplo 6.21. En el Ejemplo 6.6 calculamos los valores y vectores propios de la matriz A =

3 −1 0 0

−1 3 0 0

7 −1 −4 0

7 −1 0 −4

y encontramos que los vectores propios son v1 =

0

0

1

0

y v2 =

0

0

0

1

ambos de valor propio λ = −4, v3 =

1/2

−1/2

1/2

1/2

Page 156: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 151

de valor propio λ = 4 y v4 =

1/2

1/2

1/2

1/2

de valor propio λ = 2. Como A tiene cuatro vectores linealmente indepen-

dientes entonces A es diagonalizable y A = CDC−1 con

C =

0 0 1/2 1/2

0 0 −1/2 1/2

1 0 1/2 1/2

0 1 1/2 1/2

y D =

−4 0 0 0

0 −4 0 0

0 0 4 0

0 0 0 2

Corolario 6.11. Si una matriz A de tamano n×n tiene n valores propios distintos, entonces A es diagonalizable.

Ejemplo 6.22. (MatLab) La matriz A =

−2 −2 3

−5 1 3

−6 0 5

tiene tres valores propios diferentes, λ = −1, λ = 3

y λ = 2. Esto lo podemos verificar en MatLab como se muestra a continuacion

>> A = [−2 − 2 3;−5 1 3;−6 0 5]; factor(poly(sym(A)))

ans =

-1

3

2

Por tanto A es diagonalizable, de hecho A es similar a la matriz D =

−1 0 0

0 3 0

0 0 2

.

Teorema 6.12. Sea A una matriz de tamano n×n, entonces A tiene n vectores propios linealmente independi-

entes si y solo si para cada valor propio λ, se tiene que

multiplicidad geometrica de λ = multiplicidad algebraica de λ.

En particular, si todos los valores propios de A son diferentes, todos los vectores propios de A son linealmente

independientes.

Demostracion. Para comenzar la demostracion, supongamos queA tiene k valores propios distintos, λ1, . . . , λk,

con multiplicidades n1, . . . , nk, respectivamente. Es decir, el polinomio caracterıstico de A esta dado por pA(λ) =

(λ− λ1)n1 · · · (λ− λk)nk , con n = n1 + · · ·+ nk.

“⇒”Supongamos que A tiene n vectores propios linealmente independientes, sean v11, . . . , v1m1 , . . . ,

vk1, . . . , vkmkestos vectores con m1 + · · · + mk = n y agrupados de tal forma que v11, . . . , v1m1 tienen valor

propio λ1, v21, . . . , v2m2 tienen valor propio λ2 y, de manera inductiva, vk1, . . . , vkmktienen valor propio λk.

Como para i = 1, . . . , k, multiplicidad geometrica de λi ≤ multiplicidad algebraica de λi, entonces mi ≤ ni,

Page 157: 64806112 Algebra Lineal Matlab

152

ahora si mi < ni para algun i = 1, . . . , k entonces tenemos que

n = m1 + · · ·+mk < n1 + · · ·+ nk = n,

lo cual es imposible, por tanto para todo i = 1, . . . , k, mi = ni, es decir, para todo i = 1, . . . , k tenemos que

multiplicidad geometrica de λi = multiplicidad algebraica de λi.

“ ⇐”Supongamos que la multiplicidad geometrica de cada valor propio es igual a la multiplicidad algebraica,

entonces dim(Eλj) = nj , para 1 ≤ j ≤ k. Sean {v11, . . . , v1n1}, {v21, . . . , v2n2}, . . . ,

{vk1, . . . , vknk} bases para Eλ1 , Eλ2 , . . . , Eλk

, respectivamente.

Veamos que los vectores v11, . . . , v1n1 , v21, . . . , v2n2 , · · · , vk1, . . . , vknkson linealmente independientes.

Supongamos que

α11v11 + · · ·+ α1n1v1n1 + · · ·+ αk1vk1 + · · ·+ αknkvknk

= 0 (6.14)

y sean v1 = α11v11 + · · ·+ α1n1v1n1 , . . . , vk = αk1vk1 + · · ·+ αknkvknk

, entonces la ecuacion (6.14) se convierte

en

v1 + v2 + · · ·+ vk = 0. (6.15)

Afirmacion: v1 = v2 = · · · = vk = 0

Supongamos que algunos de los vj 6= 0, como vij ∈ Eλipara 1 ≤ i ≤ k entonces tenemos que v1 ∈ Eλ1 ,

v2 ∈ Eλ2 , . . . , vk ∈ Eλk, entonces los vectores de la lista v1, . . . , vk que son no nulos, son vectores propios de

valores propios λ1, . . . , λk, respectivamente. Como los valores propios λ1, . . . , λk son distintos, entonces, por el

Teorema 6.2, los vectores no nulos de la lista v1, . . . , vk son linealmente independientes, pero de la Ecuacion (6.15)

se sigue que estos vectores son linealmente dependientes, lo cual es contradictorio y por tanto v1 = · · · = vk = 0,

y la afirmacion se cumple.

Luego para 1 ≤ j ≤ k tenemos que

0 = vj = αj1vj1 + · · ·+ αjn1vjnj,

pero como los vectores {vj1, . . . , vjnj} son una base para Eλj , entonces son linealmente independientes y por

tanto αj1 = · · · = αjnj= 0. Como esto es para todo j = 1, . . . , k tenemos que

α11 = · · · = α1n1 = · · · = αk1 = · · · = αknk= 0.

Entonces los vectores v11, . . . , v1n1 , v21, . . . , v2n2 , . . . , vk1, . . . , vknkson linealmente independientes y como to-

dos estos son vectores propios de A y n1 + · · · + nk = n, entonces A tiene n vectores propios linealmente

independientes.

Corolario 6.13. Sea A una matriz A de tamano n×n, entonces A es diagonalizable si y solo si para todo valor

propio λ de A se cumple que

multiplicidad geometrica de λ = multiplicidad algebraica de λ.

Page 158: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 153

Demostracion. El corolario se sigue de los Teoremas 6.10 y 6.12.

Ejemplo 6.23. 1. En el Ejemplo 6.6 vimos que la matriz

A =

3 −1 0 0

−1 3 0 0

7 −1 −4 0

7 −1 0 −4

tiene valores propios λ = −4, λ = 4 y λ = 2 y que las multiplicidades

geometricas y algebraicas eran a−4 = g−4 = 2, a4 = g4 = 1 y a2 = g2 = 1, entonces la matriz es

diagonalizable.

2. En el Ejemplo 6.7 vimos que el unico valor propio de la matriz A =

−3 −2 1

1 −6 1

1 −2 −3

es λ = −4 con

multplicidad algebraica a−4 = 3 y geometrica g−4 = 2, entonces por el corolario anterior A no es diago-

nalizable.

3. En el Ejemplo 6.8 vimos que el unico valor propio de la matriz A =

−4 −1 1

0 −5 1

−1 0 −3

es λ = −4 con

multiplicidad algebraica es a−4 = 3 y geometrica g−4 = 1, por tanto A no es diagonalizable.

6.5. Matrices Simetricas y Diagonalizacion Ortogonal

Definicion 6.10. Sea A =

a11 · · · a1n

.... . .

...

am1 · · · amn

de tamano m× n con entradas complejas.

1. Definimos la matriz conjugada de A, denotada por A, como la matriz que se obtiene al conjugar las

entradas de A, estos es

A =

a11 · · · a1n

.... . .

...

am1 · · · amn

2. La transpuesta hermitiana de A, denotada por AH , se define como AH = A

t.

3. Decimos que A es hermitiana si A = AH .

Ejemplo 6.24. Considere la matriz A =

1 1− i

1 + i 2

, notese que A =

1 1− i

1 + i 2

=

1 1 + i

1− i 2

y

AH = At

=

1 1− i

1 + i 2

. Como A = AH entonces A es una matriz hermitiana.

Page 159: 64806112 Algebra Lineal Matlab

154

Teorema 6.14. Sea A una matriz hermitiana de tamano n×n entonces los valores propios de A son reales.

Esto es, si λ es un valor propio de A entonces λ ∈ R. En particular, si A una matriz simetrica con entradas

reales, entonces sus valores propios son reales y por tanto sus vectores propios son reales.

Demostracion. Como A es hermitiana, entonces A = AH = At

de donde At = A, entonces

λv · v = λvtv = vtλvAv = vtAv = vtAHv = vtAtv = (Av)tv

= (Av)tv = (λv)tv = λvtv = λv · v.

De donde se sigue que (λ− λ)v · v = 0, como v 6= 0 entonces v · v 6= 0. Por tanto λ− λ, es decir λ = λ.

Teorema 6.15. Sea A una matriz hermitiana de tamano n×n y sean x y y vectores propios de valores propios

λ1 y λ2, respectivamente. Si λ1 6= λ2 entonces x · y = 0, es decir, x y y son ortogonales. El teorema tambien se

cumple si A es una matriz simetrica con entradas reales.

Demostracion.

λ1(v1 · v2) = (λ1v1 · v2) = (Av1 · v2) = (Av1)tv2 = (Av1)tv2

= v1t A

t︸︷︷︸AH=A

v2 = v1tAv2 = v1

tλ2v2 = λ2v1tv2 = λ2(v1 · v2).

Luego (λ1 − λ2)v1 · v2 = 0, como λ1 6= λ2 entonces v1 · v2 = 0.

Ejemplo 6.25. Sea A =

2 1

1 2

. Los valores propios de A son λ = 1 y λ = 3 los cuales son numeros reales y

los vectores propios son v1 =

1

−1

y v2 =

1

1

. Notese que v1 · v2 = 0.

Ejemplo 6.26. La matriz simetrica A =

2 −1 −1

−1 2 −1

−1 −1 2

debe tener valores propios reales, usamos MatLab

para calcular la factorizacion de su polinomio caracterıstico:

>> A = [2 − 1 − 1;−1 2 − 1;−1 − 1 2]; factor(poly(sym(A)))

ans =

x ∗ (x− 3)2

Por tanto los valores propios son λ = 0 y λ = 2 de multiplicidad 2.

6.6. Formas Cuadraticas

Definicion 6.11. Una forma cuadratica es una expresion de la forma

n∑i=1

aiix2i +

∑i<j

aijxixj .

Page 160: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 155

Notese que si F =n∑i=1

aiix2i+∑i<j

aijxixj es una forma cuadratica entonces F = xtQx dondeQ =

a11

a122 · · · a1n

2

a122 a22 · · · a2n

2

......

. . ....

a1n

2a2n

2 · · · ann

y x =

x1

...

xn

.

Ejemplo 6.27. La forma caudratica F = 2x2 + 2xy + 2y2 se puede escribir matricialmente como F =[x y

]2 1

1 2

xy

.

Observacion 6.3. Un hecho muy conocido, pero que no sera demostrado en este libro, es que toda matriz

simetrica es diagonalizable, esto hecho lo usaremos en el siguiente teorema.

Teorema 6.16. (Teorema de los ejes principales) Sea F = xtQx un forma cuadratica en n variables con Q una

matriz simetrica. Como Q es diagonalizable existen vectores propios v1, . . . , vn de Q linealmente independientes.

Sean λ1, . . . , λn los respectivos valores propios correspondientes a v1, . . . , vn y sea X = {v1, . . . , vn}, entonces

X es una base de Rn. Entonces bajo la base X, la forma cuadratica tiene la forma:

F = λ1y21 + · · ·+ λny

2n.

Demostracion. Primero veamos que a la base X la podemos tomar ortonormal.

Si los λi son todos distintos, entonces los vectores propios son ortogonales y X es ortogonal, si no lo son,

tomamos v11, . . . , v1k1 , . . . , vs1, . . . , vsksuna reindexacion de los vectores de X de tal manera que v11, . . . , v1k1 son

vectores propios de valor propio λ1,. . . vs1, . . . , vsksvectores propios de valores propios λs. Aplicando Gramm-

Schmidt a cada uno de los conjuntos {v11, . . . , v1k1 , }, . . . ,

{vs1, . . . , vsks} obtenemos vectores w11, . . . , w1k1 , . . . ,ws1, . . . , wsks formando una base ortogonal y redefinimos

X ={

1||w11||

w11, . . . ,1

||w1k1 ||w1k1 , . . . ,

1||ws1||

ws1, . . . ,1

||wsks||wsks

}.

Por tanto X es ortonormal.

Como X es una base de vectores propios entonces

XQX =

λ1 · · · 0...

. . ....

0 · · · λn

. (6.16)

Ademas sabemos que XQX = BQB−1 donde B =[v1 · · · vn

]. Como X es ortonormal, entonces B es una

matriz ortogonal y B−1 = Bt, por tanto

Q = B−1XQXB = BtXQXB (6.17)

Page 161: 64806112 Algebra Lineal Matlab

156

Definamos y = Bx y sean y1, . . . , yn las componentes de y, entonces de (6.17) tenemos que la forma cuadratica

tiene la forma

F = xtQx = xtBt XQXBx = (Bx)t XQXBx = yt XQXy. (6.18)

Luego de (6.16) y (6.18) tenemos que

F = λ1y21 + · · ·+ λny

2n.

Ademas notese que los ejes de esta forma cuadratica son los vectores de la base X, los cuales son perpendiculares.

Observacion 6.4. Una ecuacion de la forma F = c con F una forma cuadratica y c una constante es una

seccion conica.

El teorema de los ejes principales nos permite identificar la secciones conicas. Sea xtQx = c una conica con

c > 0 constante y sean λ1, . . . , λ2 los valores propios de Q, entonces tenemos lo siguiente:

Si Q es 2x2 y:

1. λ1, λ2 > 0 entonces xtQx = c es una elipse.

2. λ1, λ2 < 0 entonces xtQx = c es vacia.

3. λ1 · λ2 < 0 entonces xtQx = c es una hiperbola.

4. λ1 · λ2 = 0 entonces xtQx = c es una forma degenerada.

En el caso 3x3 tenemos:

1. Si λ1, λ2, λ3 > 0 entonces xtQx = c es un elipsoide.

2. Si λ1, λ2, λ3 < 0 entonces xtQx = c es vacia.

3. Si uno de los λi es positivo y los otros negativos entonces xtQx = c es un hiperboloide de 2 hojas

4. Si uno de los λi es negativo y los otros positivos, entonces xtQx = c es un hiperboloide de una hoja.

5. Si c = 0 y uno de los λi es positivo y los otros negativos o dos positivos y uno negativo entonces xtQx = c

es un cono.

Ahora consideremos la ecuacion z = xtQx con z variable y Q de tamanno 2x2 con valores propios λ1 y λ2.

Entonces tenemos lo siguiente

1. Si λ1 · λ2 > 0 entonces z = xtQx es un paraboloide elıptico.

2. Si λ1 · λ2 < 0 entonces z = xtQx es un paraboloide hiperbolico o silla de montar.

Page 162: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 157

Ejemplo 6.28. La seccion conica 2x2+2xy+2y2 = 4 se puede escribir matricialmente en la forma[x y

]2 1

1 2

xy

=

4.

Los vectores propios de Q =

2 1

1 2

son v1 =

1

−1

y v2 =

1

1

con valores propios 1 y 3, respectivamente.

Entonces con respecto a la base X = {v1, v2} tenemos que la ecuacion de la forma cuadratica esta dada por

x′2 + 3y′2 = 4 cuya ecuacion corresponde a una elipse.

Ahora, si consideramos la ecuacion z = 2x2 + 2xy+ 2y2 entonces con respecto a la base X la ecuacion tiene

la forma z = x′2 + 3y′2 el cual corresponde a un paraboloide elıptico.

Ejemplo 6.29. La seccion conica 4xy = 5 se puede escribir matricialmente en la forma[x y

]0 2

2 0

xy

=

5.

Los vectores propios de Q =

0 2

2 0

son v1 =

1

−1

y v2 =

1

1

con valores propios

-2 y 2, respectivamente. Normalizando estos vectores obtenemos w1 = 1√2v1 y w2 = 1√

2v2, entonces con respecto

a la base X = {w1, w2} tenemos que la ecuacion de la seccion conica esta dada por −2x′2 + 2y′2 = 5 cuya

ecuacion corresponde a una hiperbola abierta en la direccion de y′, es decir, en la direccion de la linea generada

por v2 y con interceptos√

5√2w2 =

√5

2 v2 =

√5/2√

5/2

y −√

5√2w2 =

−√5/2

−√

5/2

.

Ahora, si consideramos la ecuacion z = 4xy entonces con respecto a la base X la ecuacion tiene la forma

z = −2x′2 + 2y′2 la cual corresponde a un paraboloide hiperbolico o silla de montar.

Ejemplo 6.30. (MatLab) Sea Q =

5 −1 −1

−1 5 −1

−1 −1 5

, determinar que tipo de conica corresponde a la ecuacion

xtQx = 5.

Solucion. Usamos MatLab para calcular los valores propios de A,

>> A = [5 − 1 − 1;−1 5 − 1;−1 − 1 5]; eig(A)

ans =6

3

6Por tanto la conica corresponde a un elipsoide. Para calcular los ejes coordenados, calculamos los vectores

propios los cuales son v1 =

1

1

1

con valor propio 3 y v2 =

−1

1

0

y v3 =

−1

0

1

ambos de valor propio 6. Notese

que v2 y v3 no son ortogonales, pero estos forman una base para el subespacio propio E6, entonces usando

Gramm-Schmidt, reemplazamos v3 por w3 = v3−proyv2v3 =

−1/2

−1/2

1

. Obtenemos que los ejes coordenados bajo

Page 163: 64806112 Algebra Lineal Matlab

158

los cuales la grafica de xtQx = 5 es un elipsoide son las lineas determinadas por los vectores:

v1 =

1

1

1

, v2 =

−1

1

0

y w3 =

−1/2

−1/2

1

.

Ejemplo 6.31. Sea Q =

−1 5 −1

5 −1 −1

−1 −1 5

, determinar que tipo de conica corresponde a la ecuacion xtQx = 5.

Solucion. Se puede ver que los valores propios de Q son λ = 3, 6 y −6. Por tanto la conica corresponde a un

hiperboloide de una hoja.

Es facil ver que los vectores propios de Q son v1 =

1

1

1

con valor propio 3, v2 =

−1/2

−1/2

1

de valor propio

6 y v3 =

−1

1

0

de valor propio -6. De donde se sigue que la ecuacion de esta conica con respecto a la base

{v1, v2, v3} es 3x′2 + 6y′2 − 6z′2 = 5, la cual corresponde a un hiperboloide de una hoja cuyo eje central es la

linea generada por el vector v3.

Ejemplo 6.32. Determine el tipo de conica determinada por la cuadratica 2xy + 2xz + 2yz = 5.

Solucion. La matriz de la forma cuadratica es Q =

0 1 1

1 0 1

1 1 0

cuyos vectores propios ortogonales son v1 =

−1

1

0

y v2 =

−1/2

−1/2

1

ambos de valor propio -1 y v3 =

1

1

1

de valor propio 2. Por tanto la ecuacion de esta

conica con respecto a la base {v1, v2, v3} es −x′2 − y′2 + 2z′2 = 5 cuya grafica corresponde a un paraboloide de

dos hojas cuyo eje central es la linea generada por el vector v3.

6.7. Ejercicios

1. Encuentre los valores, vectores y subespacios propios de la matriz y determine si es diagonalizable.

a. A =

−2 −2

−5 1

, b. B =

2 −1

5 −2

, c. C =

−3 2

0 −3

,

d. D =

5 4 2

4 5 2

2 2 2

e. E =

0 1 0

0 0 1

1 −3 3

Page 164: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 159

2. Para cada una de las matrices diagonalizables del problema anterior escriba la matriz en la forma MDM−1

con D diagonal.

3. Demuestre que A y At tienen los mismos valores propios.

En los problemas 4-8 λ1, λ2, . . . , λn son los valores propios de una matriz A.

4. Demuestre que los valores propios de αA son αλ1, αλ2, . . . , αλn.

5. Demuestre que |A| = λ1 · λ2 · · ·λn.

6. Demuestre que los valores propios de A− αI son λ1 − α, λ2 − α, . . . , λn − α.

7. Demuestre que los valores propios de Am son λm1 , λm2 , . . . , λ

mn .

8. Sean v es un vector propio de A con valor propio λ, f(λ) = a0 + a1λ + · · · + akλk un polinomio y f(A) =

a0I + a1A + · · · + akAk, entonces f(A)v = f(λ)v. Use el resultado para demostrar que los valores propios de

f(A) son f(λ1), f(λ2), . . . , f(λn).

9. Sea A una matriz y sea pA(λ) el polinomio caraterıstico de A, demuestre que pA(A) = 0, donde pA(A) es la

matriz definida como en el problema anterior.

10. Sea A una matriz n×n con entradas reales y sea v ∈ Cn un vector propio de A de valor propio λ, demuestre

que v es un vector propio de A de valor propio λ.

11. Verifique el problema 7. si A =

−2 −2

−5 1

(del problema 1.a.) y f(λ) = 1− 2λ+ 3λ3.

12. Determine cual de las siguientes 3 matrices es diagonalizable

a. A =

3 0 0

0 3 0

0 0 3

b. B =

3 1 0

0 3 0

0 0 3

c. C =

3 1 0

0 3 1

0 0 3

13. Demuestre que si B es invertible entonces AB y BA son similares.

Page 165: 64806112 Algebra Lineal Matlab

160

14. Encuentre una matriz ortogonal Q y una matriz diagonal D tal que A = QDQt si:

a. A =

3 4

4 −3

b. A =

3 2

2 3

c. A =

3 1 0

1 3 0

0 0 2

d. A =

1 3 0

3 1 0

0 0 1

15. Para cada una de las matrices del problema anterior identifique el tipo de conica representada por la forma

cuadratica xtAx = 4 y bosquejar su grafica.

16. Para las matrices dadas en los problemas 12.a y 12.b. identifique el tipo de superficie que que representa la

ecuacion z = xtAx con z variable.

15. Para cada una de las matrices del problema 12 encuentre una base X de vectores propios y encuentre la

matriz XAX .

17. Sean X =

x1 =

1

−1

0

, x2 =

0

1

−1

, x3 =

−1

0

2

y

Y =

y1 =

1

1

0

, y2 =

0

1

1

, y3 =

1

0

1

bases de R3. Encuentre las matrices de cambio de base Y IX y XIY .

18. Sea T : R3 −→ R2 la transformacion lineal cuya matriz ETE esta dada por

ETE =

−1 1 1

0 2 −1

. Calcular la matriz ZTX de T con respecto a las bases

X =

x1 =

1

−1

0

, x2 =

0

1

−1

, x3 =

−1

0

2

de R3 y Z =

z1 =

1

−1

, z2 =

0

1

de R2.

19. Sea T : R3 −→ R3 la transformacion lineal cuya matriz ETE esta dada por

ETE =

−1 1 0

0 2 −1

1 0 −1

. Calcular la matriz XTX de T con respecto a la base

X =

x1 =

1

−1

0

, x2 =

0

1

−1

, x3 =

−1

0

2

de R3.

Mas Problemas.

Page 166: 64806112 Algebra Lineal Matlab

Autor: OMAR DARIO SALDARRIAGA 161

20. Sea X =

x1 =

1

−1

0

, x2 =

0

1

−1

, x3 =

−1

0

2

una base de R3, encontrar una base Y = {y1, y2, y3}

tal que XIY =

1 0 1

1 1 0

0 1 1

.

21. Repetir el problema anterior si en lugar de XIY se nos da Y IX =

1 0 1

1 1 0

0 1 1

.

22. Sea T : R3 −→ R2 una transformacion lineal y sea Z =

z1 =

1

−1

, z2 =

0

1

una base para R2 y

X =

x1 =

1

−1

0

, x2 =

0

1

−1

, x3 =

−1

0

2

una base para R3. Si ZTX =

−1 1 1

0 2 −1

, calcular la matriz

ETE .

23. Sea T : R2 −→ R2 la transformacion lineal definida por T

xy

=

x+ 2y

2x+ y

y sea Y =

y1 =

1

−1

, y2 =

0

1

una base de R2. Calcular la base X tal que Y TX =

−1 1

0 2

.

24. Sea T : R2 −→ R2 tal que ETE =

2 1

1 1

. Demuestre que no existe una base X tal que XTX =

1 1

0 1

.