396

Click here to load reader

Herstein Algebra moderna

Embed Size (px)

DESCRIPTION

Matemática

Citation preview

Page 1: Herstein   Algebra moderna
Page 2: Herstein   Algebra moderna
Page 3: Herstein   Algebra moderna
Page 4: Herstein   Algebra moderna
Page 5: Herstein   Algebra moderna
Page 6: Herstein   Algebra moderna
Page 7: Herstein   Algebra moderna
Page 8: Herstein   Algebra moderna
Page 9: Herstein   Algebra moderna
Page 10: Herstein   Algebra moderna
Page 11: Herstein   Algebra moderna
Page 12: Herstein   Algebra moderna
Page 13: Herstein   Algebra moderna
Page 14: Herstein   Algebra moderna
Page 15: Herstein   Algebra moderna
Page 16: Herstein   Algebra moderna
Page 17: Herstein   Algebra moderna
Page 18: Herstein   Algebra moderna
Page 19: Herstein   Algebra moderna
Page 20: Herstein   Algebra moderna
Page 21: Herstein   Algebra moderna
Page 22: Herstein   Algebra moderna
Page 23: Herstein   Algebra moderna
Page 24: Herstein   Algebra moderna
Page 25: Herstein   Algebra moderna
Page 26: Herstein   Algebra moderna
Page 27: Herstein   Algebra moderna
Page 28: Herstein   Algebra moderna
Page 29: Herstein   Algebra moderna
Page 30: Herstein   Algebra moderna
Page 31: Herstein   Algebra moderna
Page 32: Herstein   Algebra moderna
Page 33: Herstein   Algebra moderna
Page 34: Herstein   Algebra moderna
Page 35: Herstein   Algebra moderna
Page 36: Herstein   Algebra moderna
Page 37: Herstein   Algebra moderna
Page 38: Herstein   Algebra moderna
Page 39: Herstein   Algebra moderna
Page 40: Herstein   Algebra moderna
Page 41: Herstein   Algebra moderna
Page 42: Herstein   Algebra moderna
Page 43: Herstein   Algebra moderna
Page 44: Herstein   Algebra moderna
Page 45: Herstein   Algebra moderna
Page 46: Herstein   Algebra moderna
Page 47: Herstein   Algebra moderna
Page 48: Herstein   Algebra moderna
Page 49: Herstein   Algebra moderna
Page 50: Herstein   Algebra moderna
Page 51: Herstein   Algebra moderna
Page 52: Herstein   Algebra moderna
Page 53: Herstein   Algebra moderna
Page 54: Herstein   Algebra moderna
Page 55: Herstein   Algebra moderna
Page 56: Herstein   Algebra moderna
Page 57: Herstein   Algebra moderna
Page 58: Herstein   Algebra moderna
Page 59: Herstein   Algebra moderna
Page 60: Herstein   Algebra moderna
Page 61: Herstein   Algebra moderna
Page 62: Herstein   Algebra moderna
Page 63: Herstein   Algebra moderna
Page 64: Herstein   Algebra moderna
Page 65: Herstein   Algebra moderna
Page 66: Herstein   Algebra moderna
Page 67: Herstein   Algebra moderna
Page 68: Herstein   Algebra moderna
Page 69: Herstein   Algebra moderna
Page 70: Herstein   Algebra moderna
Page 71: Herstein   Algebra moderna
Page 72: Herstein   Algebra moderna
Page 73: Herstein   Algebra moderna
Page 74: Herstein   Algebra moderna
Page 75: Herstein   Algebra moderna
Page 76: Herstein   Algebra moderna
Page 77: Herstein   Algebra moderna
Page 78: Herstein   Algebra moderna
Page 79: Herstein   Algebra moderna
Page 80: Herstein   Algebra moderna
Page 81: Herstein   Algebra moderna
Page 82: Herstein   Algebra moderna
Page 83: Herstein   Algebra moderna
Page 84: Herstein   Algebra moderna
Page 85: Herstein   Algebra moderna
Page 86: Herstein   Algebra moderna
Page 87: Herstein   Algebra moderna
Page 88: Herstein   Algebra moderna
Page 89: Herstein   Algebra moderna
Page 90: Herstein   Algebra moderna
Page 91: Herstein   Algebra moderna
Page 92: Herstein   Algebra moderna
Page 93: Herstein   Algebra moderna
Page 94: Herstein   Algebra moderna
Page 95: Herstein   Algebra moderna
Page 96: Herstein   Algebra moderna
Page 97: Herstein   Algebra moderna
Page 98: Herstein   Algebra moderna
Page 99: Herstein   Algebra moderna
Page 100: Herstein   Algebra moderna
Page 101: Herstein   Algebra moderna
Page 102: Herstein   Algebra moderna
Page 103: Herstein   Algebra moderna
Page 104: Herstein   Algebra moderna
Page 105: Herstein   Algebra moderna
Page 106: Herstein   Algebra moderna
Page 107: Herstein   Algebra moderna
Page 108: Herstein   Algebra moderna
Page 109: Herstein   Algebra moderna
Page 110: Herstein   Algebra moderna
Page 111: Herstein   Algebra moderna
Page 112: Herstein   Algebra moderna
Page 113: Herstein   Algebra moderna
Page 114: Herstein   Algebra moderna
Page 115: Herstein   Algebra moderna
Page 116: Herstein   Algebra moderna
Page 117: Herstein   Algebra moderna
Page 118: Herstein   Algebra moderna
Page 119: Herstein   Algebra moderna
Page 120: Herstein   Algebra moderna
Page 121: Herstein   Algebra moderna
Page 122: Herstein   Algebra moderna
Page 123: Herstein   Algebra moderna
Page 124: Herstein   Algebra moderna
Page 125: Herstein   Algebra moderna
Page 126: Herstein   Algebra moderna
Page 127: Herstein   Algebra moderna
Page 128: Herstein   Algebra moderna
Page 129: Herstein   Algebra moderna
Page 130: Herstein   Algebra moderna
Page 131: Herstein   Algebra moderna
Page 132: Herstein   Algebra moderna
Page 133: Herstein   Algebra moderna
Page 134: Herstein   Algebra moderna
Page 135: Herstein   Algebra moderna
Page 136: Herstein   Algebra moderna
Page 137: Herstein   Algebra moderna
Page 138: Herstein   Algebra moderna
Page 139: Herstein   Algebra moderna
Page 140: Herstein   Algebra moderna
Page 141: Herstein   Algebra moderna
Page 142: Herstein   Algebra moderna
Page 143: Herstein   Algebra moderna
Page 144: Herstein   Algebra moderna
Page 145: Herstein   Algebra moderna
Page 146: Herstein   Algebra moderna
Page 147: Herstein   Algebra moderna
Page 148: Herstein   Algebra moderna
Page 149: Herstein   Algebra moderna
Page 150: Herstein   Algebra moderna
Page 151: Herstein   Algebra moderna
Page 152: Herstein   Algebra moderna
Page 153: Herstein   Algebra moderna
Page 154: Herstein   Algebra moderna
Page 155: Herstein   Algebra moderna
Page 156: Herstein   Algebra moderna
Page 157: Herstein   Algebra moderna
Page 158: Herstein   Algebra moderna
Page 159: Herstein   Algebra moderna
Page 160: Herstein   Algebra moderna
Page 161: Herstein   Algebra moderna
Page 162: Herstein   Algebra moderna
Page 163: Herstein   Algebra moderna
Page 164: Herstein   Algebra moderna
Page 165: Herstein   Algebra moderna
Page 166: Herstein   Algebra moderna
Page 167: Herstein   Algebra moderna
Page 168: Herstein   Algebra moderna
Page 169: Herstein   Algebra moderna
Page 170: Herstein   Algebra moderna
Page 171: Herstein   Algebra moderna
Page 172: Herstein   Algebra moderna
Page 173: Herstein   Algebra moderna
Page 174: Herstein   Algebra moderna
Page 175: Herstein   Algebra moderna
Page 176: Herstein   Algebra moderna
Page 177: Herstein   Algebra moderna
Page 178: Herstein   Algebra moderna
Page 179: Herstein   Algebra moderna
Page 180: Herstein   Algebra moderna
Page 181: Herstein   Algebra moderna
Page 182: Herstein   Algebra moderna
Page 183: Herstein   Algebra moderna
Page 184: Herstein   Algebra moderna
Page 185: Herstein   Algebra moderna
Page 186: Herstein   Algebra moderna
Page 187: Herstein   Algebra moderna
Page 188: Herstein   Algebra moderna
Page 189: Herstein   Algebra moderna
Page 190: Herstein   Algebra moderna
Page 191: Herstein   Algebra moderna
Page 192: Herstein   Algebra moderna
Page 193: Herstein   Algebra moderna
Page 194: Herstein   Algebra moderna
Page 195: Herstein   Algebra moderna
Page 196: Herstein   Algebra moderna
Page 197: Herstein   Algebra moderna
Page 198: Herstein   Algebra moderna
Page 199: Herstein   Algebra moderna
Page 200: Herstein   Algebra moderna
Page 201: Herstein   Algebra moderna
Page 202: Herstein   Algebra moderna
Page 203: Herstein   Algebra moderna
Page 204: Herstein   Algebra moderna
Page 205: Herstein   Algebra moderna
Page 206: Herstein   Algebra moderna
Page 207: Herstein   Algebra moderna
Page 208: Herstein   Algebra moderna
Page 209: Herstein   Algebra moderna
Page 210: Herstein   Algebra moderna
Page 211: Herstein   Algebra moderna
Page 212: Herstein   Algebra moderna
Page 213: Herstein   Algebra moderna
Page 214: Herstein   Algebra moderna
Page 215: Herstein   Algebra moderna
Page 216: Herstein   Algebra moderna
Page 217: Herstein   Algebra moderna
Page 218: Herstein   Algebra moderna
Page 219: Herstein   Algebra moderna
Page 220: Herstein   Algebra moderna
Page 221: Herstein   Algebra moderna
Page 222: Herstein   Algebra moderna
Page 223: Herstein   Algebra moderna
Page 224: Herstein   Algebra moderna
Page 225: Herstein   Algebra moderna
Page 226: Herstein   Algebra moderna

11. PruCbcse quc el pentadec4gono rcgular cs constructible.

12. PruCbcsc que cs posiblc trisccar el @lo de 72".

13. PruCbcrie quc un mdgono regular no es constructible.

*14. PruCbcrie quc el poligono regular dc 17 lados es umstructiblc.

Volvcmos a la cxposici6n general. Sea F u n campo y, como usualmente, F[x] el anillo dc 10s polinomios en x sobrc F.

D~PIHICI~H. Si f (x) = a o P + a l P - l + ... +al?-'+ ... +am- ,x+a . cs un polinomio en q x ] , cntonccs la derivada dc f(x), rcpresentada por f'(x), es el polinomio f'(x) = n a o P - l + ( n - l ) a l P - l + ... +(n-i)a#-I-'+ ... +o; - , dc F[x] .

Dar esta d&ici6n o probar las propicdades b4sim formales dc la derivada en cuanto a polinomios sc refiere, no requicrc el concept0 dc Ilmite. Pcro, como el campo F es arbitrario, podcmos espcrar quc pasen algunas cosas cxtra2las. Por cjemplo, si F a dc caracterletica p + 0 la derivada dcl polinomio x' cs pxn-' = 0. As1 pucs, el resultado com6n del d c u l o dc quc un polinomio cuya derivada cs cero dcbc ser una constante, no sigve sicndo vuido. Pcro si la caracterlstica de Fcs 0 y si f ' (x) = 0 para f ( x ) ~ F [ x ] cr cicrto que f (x) = a € F case el problcma 1). Incluso cuando la caractcrlstica dc F cs p # 0 podemos a h describir lor polinomios con derivada a r o ; si f'(x) = 0 entonas f(x) cs un polinomio en xp (vhrie el problcma 2).

Probarnor ahora la8 anAlogas dc las rcglas formaks dc difmciaci6n quc tan bien conocemos.

LEMA 5.5 . PWQ ~ l e s q u i e r a f ( x ) , g ( x ) € q x ] y ~ l q u i c r ~ E F

1) Cf(4 +g(x))' = f'(4 +g ' (x ) ; 2) (af(x))' = aY(x); J) Cf(x)g(x))' - f'(x)g(x)+f(x)g'(x).

Prueba. Las pruebas dc las partcs (1) y (2) son extraordiumiimcnte feciles y se dqan como cjercicio. Para probar la partc (3) n6tcsc quc, & acuerdo w n la8 part- (1) y (2), cs suficicntc probarla en el caso muy espcial A x ) = X I y g (x ) = xJ dondc tanto i wmo j son positives. Pcro mtonccs f(x)g(x) = x"', dc dondc Cf(x)g(x))' = ( i+ j ) x'+'-'; pcro f'(x)g(x) = i 2 - lxJ = ~ . + J - I y f(x)g'(x) = jx'xJ-' = jx'+I-'; dc don&, en

consrmcnaa, f ' (x)g(x)+f(x)gl(x) = (l+j)x'+'-' = Cf(x)g(x))'.

Page 227: Herstein   Algebra moderna

16 . MAS ACERCA OE RAICES 116

Rccutrdcsc que en el c4lculo elemental sc mucstra la cquivalcncia cntrc la cxistencia dc una raiz multiple dc una funci6n y la anulaci6n simultanca de la funci6n y su derivada en un punto dado. lncluso dcntro dc nucstro actual rnarco, en el quc Fcsun carnpo arbitrario, existc una tal intcrrclaci6n.

LEMA 5.6. El polinomio f{x)eF[x] riene una raiz multiple si y sdlo si f(x) y f'(x) rienen un factor comun no rri13ial (es decir, de grado posiriro).

Prueba. Antes dc probar el lcha, parecc adecuado quc hagamos obxr- var quc si f(x) y g(x) en fix] ticnen un factor cornin no trivial en K[x], para una K extension dc F, cntonces tienen un factor comun no trivial en F[x]. En efecto, si fucran primos relativos como clcmcntos en FIX], cntonccs podrlan mcontrarsc dos polinomios a(x) y b(x) en F[x] tales quc a(x)f(x)+ b(x)g(x) = 1. Como esta rclaci6n tambitn se vcrifica para cstos elcmmtos vistos como elernmtos dc K[x], deberlan ser tambitn primos rclativos en Kbl.

Vamos ahora con el lcma. Dc la observacion quc acabamos dc haccr podcmos suponer, sin pCrdida dc generalidad, quc las ralccs dc f(x) sc cn- cuentran todas en F (dc otra manera extendemos F hasta K, el c a m p dc descomposici6n dc f(x)). Si f(x) ticnc urn raiz multiple a entones f(x) = (x-a)"q(x) donde m > I. Pcro, como puedc calcularx dc inmediato, ((x-a)")' = m(x-a)"- I , dc dondc, scgun el lcrna 5.5,f'(x) = (x-u)"q'(x) +m(x-a)*- ' q(x) = (x-a)r(x), ya quc rn > I . Pcro csto nos dice quc

f(x) y f'(x) ticncn x-a como factor corntin, con lo quc el lcma queda pro- bad0 en una direcci6n.

Por otra partc, si f(x) no time ninguna raiz m6ltiplc, cntonccs f(x) = ( x - ( x - a ) . . ( x - a ) , dondc las u , son todas distintas (estarnos

suponiendo quc f(x) cs m6nico). Pcro cntonccs f'(x) = 1 (x-a,) ... n I - I

(x-a,) . . . (x-a,) dondc la A detcrmina el ttrmino quc se ha suprimido. Afirrnamos quc ninguna raiz dc f(x) cs una raiz dc/'(x), pucs si/'(ai) = n (a,-a,) # 0, ya quc las ralccs son todas distintas. Pcro si f(x) y /'(x) J * I

ticnm un factor comun no trivial, tiencn una raiz comlin, a saber, cualquicr raiz dc cste factor comhn. El resultado ncto es que f(x) y /'(x) no ticncn ningun factor comun no trivial, con lo quc el lcrna ha sido probado en la otra dirccci6n.

COROLARH) I . S i f (x)~F[x] es irreducible, enronces : 1 ) Si la caracferlsfiea de Fes 0, f(x) no tiene ralces rntikiple~. 2) Si la caracferlsrica de F es p # 0, f(x) Iiene una ralz mrilfiple sdlo si

es & la f o r m f(x) = g(xp).

Pruuba. Como f(x) cs irreducible, sus unicos factores en fix] son 1 y f(x). Si f(x) ticnc una ralz multiple, cntonccsf(x) y f'(x) ticnen un factor

Page 228: Herstein   Algebra moderna

228 CAMPOS - Cap. 6

comun no trivial de acuerdo con el lema, de donde f ( x ) l f ' ( x ) . Pero c o r n el grado de f ' ( x ) es menor que el de f ( x ) , la unica forma posible de que eslo suceda es que f ' ( x ) sea 0. En caracterlstica 0 esto implica que f ( x ) es una constante, que no tiene ninguna ralz: cuando la caracteristica en p # 0, eslo obliga a que f ( x ) = g(xp) .

Volveremos dentro de un momenlo a discutir las implicaciones del corolario I mas complftamente. Pero antes, para su posterior uso en el capitulo 7 en nuestro tratamiento de campos finitos, probaremos un caso mAs bien particular

COROLAR~O 2. Si F eS Un campo de caracfer~srica p # 0, enfonees el polinomio xp" - X E ~ X ] , riene, para n 3 1 , raices disfinfas.

Prueba. La derivada de xP" -x es p"xp"- ' - l = - 1, ya que F es de caracteristica p. Por tanto. x p - x y su derivada son ciertamente primos relativos, lo que, segrin el lema, implica que xp"-x no tiene raices multiples.

El corolario 1 no descarta la posibilidad de que en caracterlstica p # 0 un polinomio irreducible pueda tener raices multiples. Para &jar ideas, exhibimos un ejemplo en donde lo dicho es lo que realmente sucede. Sea F, un campo de caracteristica 2 y sea F = F,(x) el campo de las funciones rationales en x sobre F,. Afirmamos que el polinomio 1 ' -x en F[t] es irreducible sobre F y que sus raices son iguales. Para probar la irreducibilidad debemos demostrar que no hay ninguna func i~n racional en F o ( x ) cuyo cuadrado sea x ; este es el contenido del problema 4. Para ver que r l - x tiene una raiz mliltiple, notese que su derivada (la derivada es con respecto a 1, pues x estando en F, se considera como una constante) es 21 = 0. Desde luego. el ejemplo anilogo funciona para cualquier caracteristica prima.

Ahora que hemos visto que la posibilidad es una realidad, se sefiala una aguda diferencia entre 10s casos de caracteristica 0 y 10s de caracteristica p. La presencia de polinomios irreducibles con raices multiples en el ultimo caso, nos lleva hasla muchas sutilezas tan interesantes como complicadas. Su estudio requiere un tratamiento m b elaborado y sofisticado que pre- ferimos evitar en esre nivel. Por ranto, para el resfo de esre caplfulo con- renimos en que fodos 10s campos que aparecen en el fexro propimenre dicho. son wmpos de ea?acferisrica 0.

DEFINICI~N. La extensidn Kde Fesunaexlensidn simple de F si K = F(%). para al@n a en K.

En caracteristica 0 (o en extensiones propiamenle condicionadas en caracterlstica p # 0; vkase problema 14) todas las extensiones finitas son realizables como extensiones simples. Este resultado es.eI

Page 229: Herstein   Algebra moderna

5 5 , MAS ACERCA D L RAICLS 227

TEOREMA S.P. Si F es de caracreristico 0 y si o y b son olgebroicor sobre F. enronces exisre un elemento csF(a, 6) rolque F(a, b) = F(c).

Pruebo. Sean f (x ) y g(x), de grados m y n, 10s polinomios irreducibles sobre F satisfechos por a y b respectivamente. Sea K una extension de Fen que lanto f ( x ) como g(x ) se descomponen completamente. Como la caracteristica de F es 0 todas las raices de f ( x ) son distintas. y lo mismo ocurre con las de g(x). Sean las rakes de f (x) , a = a,. a,, ..., a. y las de g(x) . b = b , , b2. ..., 6,.

Si j # I . entonces bj # b, = b. de donde la ecuacidn a,+&, = a, + i b , = o+i.b tiene solarnente una solucion 1 en K, a saber,

. 0 1 - 0 /. =-. b-b,

Como F es de caracteristica 0 tiene un numero infinito de elementos, de donde resulta que podemos encontrar un elemento ysF tal que a(+ ybj # o+gh para todo i y para toda j # I . Sea c = o+yb; nuestra tesis es que F(c) = F(o. b ) . Como csF(o, b) no hay duda de que F(c) c F(o. 6). De- mostraremos que tanro o como b estan en F(c) de lo que se sigue que F(a, b) c F(cJ.

Como h satisface al polinomio g(x) sobre F, lo satisface tambien mando lo constderamos un polinomio sobre K = F(c). Ademas, si h ( r ) = f(c- yx). entonces h(x )sK [x ] y h(h) = f (c-; 'b) = f(a) = 0, ya que o = c-76. Luego en una extension de K. h(x), y g(x) tienen x-h como factor comun. Aseguramos que x-b es, en realidad, su miximo comljn divisor. Pues si b, # b es otra raiz de g(.O, entonces h(bj) = f(c-yb,) = 0, ya que, por nuestra election de ;,, c - yb, para j # I esquiva todas las raices a j de f (x). Ademas, como (x-b)'.+'g(x), (x-b)' no puede dividir al maximo comun divisor de h(x) y g(x). Asi pues, x - b es el maximo comun divisor de h(x) y g(x) sobre alguna extension de K. Pero entonces rienen un meximo comun divisor no trivial sobre K, que debe ser un divisor de x-b. Como el grado de I - b es I, vemos que el maxim0 comun divisor de g(x ) y h(x) en K[x ] es exactamente x-b. Luego x - b ~ K [ x ] . de donde beK: recordando que K F(c), obtenemos que beF(c). Como a = c-yb, y como b. CEF(C), ~ E F c F(c), tenemos que a ~ F ( c ) , de donde F(a, b) c F(c). Las dos relaciones de contention opuestas nos dicen que F(a, b) = F(c).

Un s~mple argument0 de inducci6n extiende el resultado de dos elemenros a cualquier numero finito, es decir, si a , . .... a, son algebraicor sobre F, entonces hay un elemento ceF(z, , ..., .z,) tales que F(c) = F(z, . .... z.). Luego el

COROLARIO. Cualquier exrenridn .finira de un compo de caracrerisrica 0 er uno exrensidn simple.

Page 230: Herstein   Algebra moderna

1U1 U M P O S - Cap. 6

I . Si F es de caracterlslica 0 y f (x )cF[x] es taI quef'lx) = 0, pmCbese que f ( x ) - a e F.

2. Si F es de caracterlstica p # 0 y si f (x )eF[x] es tal quef ' (x ) = 0, prutbest quc A x ) = g(x7 para a l g h polinomio g ( x ) ~ F [ x ] .

3. PmCbese quc W x ) + g ( x ) ) ' - f ' ( x ) + g ' ( x ) y quc (af(x))' = uf'(x) p r a f (x ) . g(x)eF[xI Y REF.

4. Prutkse quc no hay ninguna funci6n racional en F(x) tal quc su cuadrado sea x.

5. ComplCtese h inducci6n nccesaria para establecer el corolario al tcorcma 5.p.

Un elcmento a en una cxtensi6n K dc F se llama scparablc sobrc F si satisface un polinomio sobrc F quc no tienc ralccs multiples. Una cxtmsi6n K dc F se llama scparablc sobre F si todos SUP elementos son separables sobrc F. Un campo F st llama perfecto ai todas las cxtensiones finitas de F 'son separables.

6. Pruttme que cualquicr campo dc caractcristica 0 es perfecto.

7. a ) Si F cs dc caracterlstica p # 0 mukatrcse que para a , bcF, ( a + b)" = + b'".

b ) Si F es de caracterlstica p f 0 y si K es una extension dc F, sea T = { n e K #.SF para algun n) . PruCbese que Tes un subcampo de K.

8. Si K . 7, F son como en el problema 7(b), p d h c quc cualquier automofimo de K que dcja Ejos todos 10s clementos de F deja tambitn a o s todos 10s elementos de T.

*9. Dcmutstrcsc que un carnpo F de caracterlstica p # 0 es perfecto si y 5610 ai para cualquier a e F podernos cncontrar un b e F tal que bp = a.

10. Usando el resultado del problema 9, pruCbtse que cualquicr campo h i t o es perfecto.

**11. Si K es unn extensihdc F pru~btde que el conjunto de elementos en K quc son separables sobrc Fforma un subcampo de K.

12. Si F es de caractcristica p + 0 y si K es una extcnsih finita de F, pmCbese que dado a c K o d " c f p a r a algun n o podcrnos mcontrnr un entero m tal que aF+F y es separable sobre F.

13. Si K y F son como cn el problema 12, y si n indn clcmento que csth en K, per0 no en F, es separable sobre F, p d b e s t que dado ~ E K podemos encontrar un entero n. depcndimte de a, tal quetF.sF.-

Page 231: Herstein   Algebra moderna

10. ELEMENTOS DE U TEORIA DL OALDIS 119

14. Si K es una extensi6n h i t a y separable de F, pruCbese que K es una extensi6n simple de F.

IS. Si uno de lor elementos a o b es separable sobre F, pruCbesc que F(a, b) es una extmsi6n simple de F.

6. ELEMENTOS DE LA TEORh DE CALOlS

Dado un polinomio p(x) en FIX], el anillo de polinornios en x sobre F, asociaremos con p ( x ) un grupo al que llamaremos el grupo de Galois de p(x). Hay una relaci6n muy estrecha entrc la$ raices de un polinornio y su grupo de Galois; en realidad, el grupo de Galois resultark ser uncierto grupo de permutaciones de Ins ralocs del polinornio. Haremos un estudio de estas ideas en esta y las pr6ximas miones.

lntroduciremos este grupo por medio del c a m p de descomposici6n de p(x) sobre F, quedando definido d grupo de Galois de p(x) como un cierto grupo de automorfismos de cste c a m p de descomposici6n. Es esta la raz6n de que en tantos de 10s teoremas que vamos ahora a ver nos ocupernos de 10s automor6smos de un campo. Entre 10s rubgrupos del grupo de Galois y 10s subcampos del campo dc descomposici6n, existe una hcrmosa dualidad que expresa el teorema fundamental de la teorla de Galois (tcorema 5.v). De esto derivarcmoa una condicidn para la solubilidad por medio de radi- cales de las ralces de un polinornio en tkrminos de la estructura algebraica de su grupo de Galois. De esta condici6n derivaremos, a su vez, el cllsico resultado de Abel sobre la no solubilidad por radicales del polinomio general de grado 5. Durante el proceso derivaremos, tambitn, como resulta- dos colaterales, teoremas que, de por sl, son de gran interhs. Uno de ellos sera el teorema fundamental sobre funciones simhtricas. Nuestro enfoque del tema st basa en el tratamiento dado por Artin.

RecuCrdese que estamos suponiendo que todos nuestros campos son de caracterlstica 0, de donde resulta que podemos haccr Cy haremos) libre uso del toorema 5.p y su corolario.

Por un automorjsmo del campo K entenderemos, como es comln, una aplicaci6n a de K sobre sf mismo tal que a(a+b) ;. a(a)+a(b) y a(&) = a(a)a(b) para (I, beKcualesquiera. Dos automorfismos o y r de Ksedia que son distintos si #(a) Z r(a) para a1 menos un elemento a€K.

Comenzamos con el aiguiente

TEOREMA 5 . ~ . Si K es un mmpo y si a , , . . ., om son disrintos ouromorfis- mos de K, enlonces es imposible enconrrar elemenros a , , . .., am, no rectos 0. en K, ralesquea,a,(u)+a,a,(u)+ ... +ama.(u) = Opararodo UEK.

Prueba. Supongamos que pudikramos encontrar un conjunto de eiemen- 10s a , , .... a, en K, no todos ccro, tales que a,a,(u)+ ... +4o,(u) - 0

Page 232: Herstein   Algebra moderna

I30 CAMPOS - Cmp. 6

para todo UEK. Enlonces podriamos encontrar una relacion la1 que tuviera tan pocos terminos como fuera posible; renumerando, si fuera preciso. podemos suponer que esta relacibn minima es

donde a,, . .., a, son todos diferentes de 0. Si m fuera igual a I enlonces a, ol (u) = 0 para todo UEK, lo que nos

llevaria a a, = 0, en coptra de lo supuesto. Podemos, pues, suponer que 1)r > I. Como 10s automorfismos son distintos hay un elemento CEK tal que o, (c) # o.(r). Como cue K para todo ueK, la relacion ( I ) debe tambikn verificarse para cu, es decir, a,o, (cu)+a,o,(cu)+ ... +a,o.(cu) = 0 para todo UEK. Usando la hipdtesis de que las o son automorfismos de K. esta relacion toma la forma

Multiplicando la relacion ( I ) por a,(c) y restando el resultado de (2) obtenemos

Si hacemos b, = a,(o,(c)-o,(c)) para i = 2, ..., m. entonces 10s b, estanenK,bm=a. (o . (c ) -o , (c ) )#O,yaqueam#O,yom(c) -a l (c )#0 , aunque b,02 (u)+ . . . + b,o,(c) = 0 para todo ucK. Esto produce una relaci611 mas corta, en contra de la elcccion quc hicimos: luego el teorema esta probado.

DEFINICION. S i C es un grupo de automorfismos de K, entonces el campojjo de Ges e l conjunto de todos 10s elementos aeKtales que o(a) = a para lodo aeG.

N6tese que esta definicibn t ime sentido, incluso s i G no es un grupo, sino simplemente un conjunto de automorfismos de K. Pero el campo fijo de un conjunto de automorfismos y el del grupo de automorfismos generado por esle conjunto (en el grupo de todos 10s automorfismos de K ) son iguales (problema I), de donde nada perdemos por definir el concept0 solo para grupos de automorfismos. Ademas. unicamente estaremos interesados en 10s campos fijos de grupos de automorfismos.

Habiendo llamado en la anterior definicion eampo fijo de C a1 conjunto que alli se define, seria agradable comprobar que la terminologia empleada en este caso es en verdad exacta. Es lo que nos dice el

Prueba. Sean a, b elementos del campo fijo de G. Para todo ofG, tenemos, pues. o(a) = a y a(b) = b. Pero entonccs- o(af b) = o(a)f

Page 233: Herstein   Algebra moderna

5 6. ELEMEHTOS DE U TEORIA DE GALOIS 231

a(b) = a k b , y dc la misma forma, a(ab) = a(a)a(b) = ab; de donde a+b y ab estiin tambien en el campo fijo de G. Si b # 0, entonces a(b- ' ) = a(b)- ' = b- ', de donde b- ' tambien se encuentra en el campo fijo de G. Luego hernos verificado que el campo fijo de G es, ciertamente, un subcampo de K.

Nos ocuparemos de 10s automorhsmos de un campo que se comportan de una forma determinada sobre un subcampo dado.

DEFINICI~N. Sea K un campo y sea F u n subcampo de K. Entoncn, el grupo de aulomorfrsmos de K relalivos a F, que representaremos por G(K, F), es el conjunto de todos 10s automorfismos de K que dejan fijos todos 10s elementos de F; es decir, el automorfisrno a dc K cstii en G(K, F ) si y 8610 si a(a) = a para todo LIEF.

Noes sorprendente, y es muy fhcil de probar, el siguicnte

LEMA 5.8 G(K, F ) es un svbgrupo del grupo de lodos 10s oulomorfismos de K.

Dejamos la pmeba de este lema a1 lector. Una observaci6n : K contiene el campo de 10s ninneros racionales F,, ya que K es de caracteristica 0 y es facil ver que el campo fijo de cualquier grupo dc automofismos de K, siendo un campo, debe contcncr a F,. De aqui quc todo numcro racional permanece fijo en todo automorhsmo de K.

Hacemos una pausa para examinar unoscuantos ejemplos de 10s conceptos que acabamos de presentar.

EJEMPLO I . Sea K el campo de 10s n h e r o s complejos y sea F el campo de 10s numeros reales. Calculamos G(K, F). Si a es un automorfismo cual- quiera de K, como i' = - 1 , a(i)' = a( i2 ) = a ( - 1) = - I , de dondc a(i)+ k i . Si, ademh, a deja fijos a todos 10s reales, entonces para cualquier a+bi donde a y b son reales. a(a+bi) = a(a)+a(b)j = a f bi. Cada una de estas posibilidades, es decir, la aplicaci6n a , (a+ bi) = a+ bi y a , (a+ bi) = a-bi define un automofimo de K ; a , es el automorfismo identidad y a , La conjugation compleja. Asi pues, G(K, F)es un grupo de orden 2.

LCuhl es el campo fijo de G(K, F)? Debe, ciertamente, contener a F, Lpero contiene algo miis? Si a + bi estii en el campo fijo de G(K, F) entonces a+bi = a,(a+ bi) = a- bi de donde b = 0 y a = a+ b i ~ F . En este caso vemos que el campo fijo de G(K, F)es precisamente el mismo F.

E J E M P ~ 2. Sea F, el campo de 10s numeros racionales y sea K = F o ( g ) donde $2 es la ralz cubica real de 2. Todo elemento en K es de la forma a,+a, $?+a,(p)' donde a,, a, y a, son n6meros racionales. Si.0 es un

Page 234: Herstein   Algebra moderna

232 CAMPOS - Cap. 6

automorfismo dc K, cntonces a(<;I)' = ~((32) ' ) = a(2) = 2, de dondc ~ (35) dcbe tambien ser una raiz clibica de 2 pcrtcnccicntc a K. Pcro hay solamenre una ralz ccbica rcal de 2, y como K cs un subcampo dcl campo rcal, debemos tcner q u e a ( 3 ) = $9. Pero cntonces a(ao+a, <,2+a,($?)') = ao+a, ;5+a2($5)', es decir, a es el automorfismo identidad dc K. Vcmos. pues, que G(K. Fa) consta solo dc la aplicacion identidad. y en cste caso el campo f jo & G(K, Fa) no es Fa. sin0 que en realidad es bartante mayor, pues es rod0 K.

EJEMPLO 3. Sea Fo el campo dc lor numcros racionales y sea w = C l " l l J . , tenemos pues que o' = I y que o satisface al polinomio x4+x3+ xl+x+ l sobre Fo. Por el criterio dc Eiscnstein se puede probar quc .r4+x"x2 + x + 1 cs irreducible sobre Fa (vkasc el problcma 3). As1 pues, K = F0(w1 cs de grado 4 sobre Fo y lodo elemento dc K es de la forma a,+ n, w+a,o'+a3r3dondetodoslos ao.a,.a,,a3est~ncnFa. Ahora bicn. para cualquier automorfismo a de K. a(w) # I. ya quc a ( l ) = I. y a(w)' = a(w5) = a(l) = I. dedonde a(w) es tambitn una raiz quinta de la unidad. En consecuencia, a(w) puedc solamentc ser w. w2, w3 o w'. Afirmamos que cada una dc estas posibilidades ocurre realmente, pues definamos las cualro aplicaciones a,, a,, a, y a, por a,(ao+a,w+a,wl+.r,w') =

aa+a , (w1)+a1 (wf~1+a3(w1)3 , para i = 1. 2.3.4. Cada uno dc ellos define un automorfismo de K (problema 4). Por tanro, como aeG(K. Fa) cst i completamentc dctcrminado por a(w1. G(K, Fo) cs un grupo de ordcn 4. con a, como su elemento unidad. Como a,' = a,, a,' = a, y a,' = a,. G(K. Fa) es un grupoclclicodc orden 4. Se puede ficilmente probar que el campo fijo dc G(K. Fo) cs Fo (problcma 5). El subgrupo A = {a,. a,) dc G(K. Fo) ticnccomo su campo fijo el conjunto de todos lor elementor no+ a,(w'+wJ), quc cs una exlension de Fo de grado 2.

Los ejemplos. aunquc ilustrativos, son aun demasiado cspeciales, pues pucde obscrvarsc que en cualquiera de ellos G(K, F) rcsulta ser un grupo ciclico. Esto cs cxtraordinariamcnte atipico, pues. en general. G(K. F) no ncccsita ser ni siquicra abeliano (vkase el teorcma 5.a). Pero. a pesar dc su caricter especial, traen a luz cicrtos hechos importanles. Por una parte. mucstran que debemos estudiar el efecto dc 10s automorhsmos sobrc las raices de 10s polinomios y. por otra, subrayan que F no neresarian~rf~te ha dc ser igual a todo e l campo fijo de GIK. F). Lor casos en que csto sucede son muy convenicnles y son s~tuaciones a las quc den~ro dc poco dedi- carcmos mucho tiempo y esfucrro.

Calculamqs ahora una importante cola dc la magnilad de G(K. F).

TEOREMA 5 . ~ . Si K es una e.rrensidn ,Jiniro de F. ento~~res G( K. F) rs r ~ r i

grupofinirn .I su orden. o ( G ( K. F)), sati.$are o(G(K. Fl) <[K: F].

Page 235: Herstein   Algebra moderna

I6. ELEMENTOS DE LA TEORIA DE GALOIS 233

Prueba. Sea [ K : F ] = n y supongamos que u , , ..., u, es una base de . K sobre F. Supongamos que podemos encontrar n+ l automorfismos distintos a , , a , , . . ., a,+ , en G(K, F). De acuerdo con el corolario a1 teo- rema 4.f el sistema de n ecuaciones lineales homogeneas en las n + 1 incogni- t a s x , , ..., x,+ , :

tiene una solucion no trivial (no toda 0) x , = a , , ..., x,+ , = a,+, en K Luego

para i = 1, 2, . .., n. Como cada uno de 10s ai deja fijo a todo elemento de F y como un

elemento arbitrario t de K es de la forma I = z , u , + . . . +gnu, con z , , . . ., z, en F, entonces, por el sistema de ecuaciones (I), tenemos a , a, ( t ) + . . . + a, , , a,+ , ( t ) = 0 para toda ~ E K . Pero esto cont,radice el resultado del teorema 5.q. Luego el teorema 5.r ha sido probado.

El teorema 5.r es de importancia central en la teoria de Galois. Pero aparte del papel que alli juega nos sirve tambitn para probar un resultado clasico concerniente a las funciones racionales simetricas. Este resultado sobre funciones simetricas, a su vez juega un papel importante en la teoria de Galois.

Hagamos primer0 algunas observaciones sobre el campo de las funciones racionales en n variables sobre un campo F. Recordemos que en la secci6n I I del capitulo 3 definimos el anillo de 10s polinomios en las n variables x , , . . ., x, sobre F y de esto pasamos a definir el campo de las funciones racionales en x , . . . ., x, , F ( x , . . . ., x,). sobre F como el anillo de todos 10s cocientes de tales polinomios.

Sea S, el grupo simetrico de grado n considerado como si actuara sobre el conjunto [ I , 2, .. .. n ] : para a c S , e i un entero con I ,< i ,< n, sea a ( i ) la imagen de i bajo a . Podemos hacer actuar a S, sobre F ( x , . ..., x,) en la siguiente forma: para ~ E S , y r ( x I , .... x , ) c F ( x , , .... x,), definimos la aplicacion que lleva r(.\-, . . . ., .r,) sobre r(x, , , ,, . . ., x,, , ,). Representaremos a esta aplicacion de F ( x , , . . ., s,) sobre si mismo tambien por a. Es obvio que estas aplicaciones definen automorfismos de F ( x , , .. ., .\-,). ;CuaI es el campo fijo de F ( s , . . . .. .v,) respecto a S,? Consiste simplemente en todas las funciones racionales r ( s , . .... .v,) tales que r ( s , . .. ., s,) = r(x, , , , . . . ..

Page 236: Herstein   Algebra moderna

234 CAMPOS - Cap. 5

x,,,,) para todo UES, . Pero estos son precisamente aquellos elementos en- F ( x , , . . ., x,) que se conocen como funciones racionales sirnktricas. Como son el campo fijo de S, forman un subcampo de F ( x l , .. ., x,) llamado el campo de las funciones racionales simbtricas al que representaremos por S. Nos ocuparemos de estos tres problemas :

1) LA qut es igual [ F ( x l , . . ., x,) : S ] ?

2 ) ~ Q u t es G ( F ( x , , ..., x,), S ) ?

3 ) ~Podemos describir S en ttrminos de alguna extensidn simple par- ticular de F?

Contestaremos a estas tres preguntas simultlneamente. Podemos presentar explicitamente algunas funciones particularmente

sencillas de S construidas con x , , . . ., x, conocidas como funciones simhtricm elementales en x , , . . ., x,. Las definimos como sigue :

a, = x , x2 x,. - Probar que estas son funciones simttricas se deja como ejercicio. Para n = 2 , 3 y 4 las escribimos explicitamente a continuacion.

n = 2

a , = x , + x , .

Page 237: Herstein   Algebra moderna

5 6. ELEMENTOS DE LA TEORIA DE GALOIS 235

Notese que cuando n = 2, x , y x , son las raices del polinomio I' -a , ?+a,, cuando n = 3, x , , x2 y x , son las raices de t 3 -a , f 2+a2f -a3 , y cuando n = 4 , x , , x , , x 3 y x4son, todas, raicesdet4-a,t3+a,t2-a3f+a4.

Como a , , ..., a, estln, todos, en S el campo F(a,, ..., a,) obtenido por la adjuncion de a , , . . ., a, a F debe encontrarse en S. Nuestro 'objetivo es ahora doble, a saber, probar que

I ) [ F ( x ] , ..., x,):S] = n!. 2) S = F(al , . . ., a,). 4

Como el grupo S, es un grupo de automorfismos de F ( x I , . . ., x,) que deja a S fijo, S, c G(F(x , , .. ., x,), S). Luego, seglin el teorema 5.r, [ F ( x l , .... x,):S] k o ( G ( F ( x I , ..., x,), S ) ) k o(S,) = n!. Si puditramos de- mostrar que [F(x, , . . ., x,): F(a, , . . ., a,)] < n!, entonces, como F(a, , . . ., a,), es un subcampo de S, tendriamos n! k [ F ( x I , .. ., x,): F(a, . . ., a,)] = [ F ( x , , . . ., x,) : S ] [ S : F(a, ,. . ., a,)] k n!. Pero entonces tendriamos que [ F ( x I , ..., x,):S] = n!, [ S : F(a, , ..., a,)] = 1 y, por tanto, S = F(a,, ..., a,), y, finalmente, S, = G ( F ( x I , .. ., x,), S ) (esto ultimo por lo afirmado en la segunda oracion de este parrafo). Estas son precisamente las conclusiones que buscamos.

Asi pues, para concluir con todo este asunto solo debemos probar que [ F ( x l , . . ., x,): F(a, , . .., a,)] < n!. Para ver esto, observemos primero que el polinomio p(r) = rn-a, rn- '+a2tn-2 ... +(-])"a,, que tiene coeficientes en F(a, , . . ., a,), se factoriza sobre F(x, , . . ., x,) como p(t) = ( t - x , ) (t - x2 ) . . . (r -x,) (este es en realidad el origen de las funciones simttricas elementales).Asi pues, p(t) de grado n sobre F(a, , . . ., a,), se descompone en un product0 de factores lineales sobre F(x , , ..., x,). No pyede descom- ponerse sobre un subcampo propio de F ( x I , ..., x,) que contenga a F(a, , . . ., a,). pues este subcampo tendria entonces que contener tanto a F como a cada una de las raices de p(t), es decir, a x , , x , , . . ., x, ; pero entonces este subcampo seria todo F(x, , . . ., x,). Asi pues, rernos que F ( x I , . .., x,) es elcarnpodedescornposicidndelpolinorniop(t) = t n -a , t n - I+ ... +(-])"a, sobre F(a, , .. ., a,). Como p(r) es de grado n, seg6n el teorema 5.h, tenemos [F(x, , . . ., x,): F(a, , . . ., a,)] ,< n!. De donde todas nuestras afirmaciones quedan probadas. Resumimos todo este estudio en el siguiente basic0 e importante resultado.

TEOREMA 5.s. Sea F un campo y F(x, , . . ., x,) el carnpo de las funciones racionales en x , , . . ., x, sobre F. Supongarnos que S es el carnpo de las fun- ciones racionales sirne'tricas; entonces

I ) [F(x, , ..., x,):S] = n!. 2) G( F(x, , . . ., x,), S ) = S,, el grupo sirne'trico de grado n. 3) Si a , , .... a, son las funciones sirne'tricas elernentales en x , , ..., x,,

entonces S = F(a, , . . ., a,).

Page 238: Herstein   Algebra moderna

236 CAMPOS - Cap. 6

4) F(x,, ..., x,) es el campo de descomposicidn sobre F(a, , ..., a,) = S- delpolinomiotn-a,t"-1+a,t"-2 ... +(-l)"~,.

Mencionamos anteriormente que dado un entero cualquiera n es posible construir un campo y un polinomio de grado n sobre este campo cuyo campo de descomposici6n sea del maximo grado posible, n!, sobre este campo. El teorema 5.s nos proporciona explicitamente tal ejemplo, pues si hacemos S = F(a,, ..., a,), el campo de las funciones rationales en n variables a , , . . ., a, y consideramos 4el campo de descomposici6n del polinomio tn - al tn- +a, tn- . . . + (- I)"a, sobre S, entonces vemos que es de grado n! sobre S.

La parte (3) del teorema 5.s es un teorema muy clhsico. Afirma que una funcibn racional simktrica en n variables es una funcibn racional en las fun- ciones simktricas elementales de estas variables. Este resultado puede hacerse a ~ i n mas solido : un polinomio simttrico en n variables es un polinomio en sus funciones simttricas elementales (vkase el problema 7). Este resultado se conoce como el teorema sobre polinomios sime'tricos.

En 10s ejemplos discutimos de grupos de automorfismos de campos y de campos fijos bajo tales grupos, vimos que podla muy bien suceder que F fuera realmente menor que el campo fijo total de G(K, F). Ciertamente, F esta siempre contenido en este campo, pero no necesariamente lo Ilena. Asi pues, imponer la condicion sobre una extension K de Fque Fsea precisamente el campo fijo de G(K, F) es una limitacion genuina sobre el tipo de extension de F que estamos considerando. Es en esta clase de extension en la que estamos mas interesados.

DEFINICI~N. K es una extensibn normal de F si K es una extension finita de F tal que F es el campo fijo de G(K, F).

Otro modo de decir lo mismo: si K es una extension normal de F, en- tonces todo elemento de K que no esta en F sufre alteracion por alg6n elemento de G(K, F). En 10s ejemplos discutidos, 10s ejemplos 1 y 3 eran extensiones normales, mientras que el ejemplo 2 no lo era.

Una consecuencia inmediata de la hipotesis de normalidad es que nos permita calcular con gran precision el tamaiio del campo fijo de cualquier subgrupo de G(K, F) y, en particular, dar mhs fuerza al enunciado del teorema 5.r, cambiando la desigualdad que en t l aparece en una igualdad.

TEOREMA 5 . ~ . Sea K una extensibn normal de F y sea H un subgrupo de G(K, F) ; sea K,, = {XE K ( u(x) = x para toda UE H) el campo fijo de H. Entonces :

I ) [K:KH] = o(H). 2) H = G(K, K,)

(En particular, cuando H = G(K, F), [K: F] = o(G(K, F)).l

Page 239: Herstein   Algebra moderna

i 6. ELEMENTOS DE IA TEORIA DE GALOlS 237

Prueba. Como todos 10s elementos de H dejan fijos a todos 10s elementos - de K H , es claro que H c G(K, KH). De acuerdo con el teorema 5.r sabemos que [K: KH] 2 o(G(K, KH)) ; y como o( G(K, KH)) 2 o ( H ) tenemos las desigualdades [K: KH] 2 o (G(K, KH)) 2 o (H) . Si puditramos demostrar que [K: KH] = o ( H ) se seguiria de inmediato que o ( H ) = o(G(K, KH)), y como un subgrupo de G(K, K H ) con el orden de G(K, K H ) tendriamos H = G(K, KH). Luego solo nos queda, por demostrar que [K: KH] = o ( H ) para haber demostrado todo. 4

Segun el teorema 5.p existe un ~ E K tal que K = KH(a); esta a debe, por tanto, satisfacer un polinomio irreducible sobre KH de grado m = [K: KH] y ninglin polihomio no trivial de grado mas bajo (teorema 5.c). Sean 10s elementos de H 10s u , , u,, ..., uh donde u , es la identidad de G(K, F) y donde h = o(H). Consideremos las funciones simttricas elementales de a = ul (a), 0, (a), . . ., ah (a), a saber :

Cada a i es invariante bajo cualquier a€ H (iPdbese!). Asi pues, por la definici6n de K H , a , , a,, . . ., ah son todos 10s elementos de K H . Pero a (lo mismo que u, (a), . .., uh(a)) es una raiz del polinomio p(x) = ( x - 0 , ) (x-u2(a)) ... (x-uh(a)) = xh-a lxh- I +a2xh-,+ ... +(- que tiene todos sus coeficientes en K H . Por la naturaleza de a esto obliga a que h 2 m = [K: KH], de donde o ( H ) B [K: KH]. Como ya sabemos que o ( H ) 9 [K: KH] sabemos que o ( H ) = [K: KH], la conclusion deseada.

Cuando H = G(K, F), por la normalidad de K sobre F, KH = F; por consiguiente, para este caso particular tenemos el resultado [ K : F ] =

o(G(K, F)).

Estamos acercandonos rhpidamente al teorema central de la teoria de Galois. Lo que aun falta es la relacion entre 10s campos de descomposicion y las extensiones normales. Llenamos esta falla con el

TEOREMA 5.u. K es una wtensidn normalde F si y sdlo si K es el campo de descomposicidn de algrin polinomio sobre F.

Prueba. En una direccion la prueba nos recordara mucho la del teorema 5.t.

Page 240: Herstein   Algebra moderna

238 CAMPOS - Cap. 5

Supongarnos que K es una extension normal de F ; segun el teorema 5.p, K = F(a). Consideremos el polinomio p ( x ) = ( x - a , (a ) ) ( x - a , (a ) ) . . . (x-a,(a)) sobre K, donde a , , a, , . . ., a, son todos 10s elementos de G ( K , F). Desarrollando p ( x ) vemos que p ( x ) = x" - a , xn- +a, x"- + . . . + (- I )"a, donde a , , ..., a, son las funciones simetricas elementales en a = a , (a) , a,(a), ..., a,(a). Pero entonces a , , ..., a, son, cada una, invariantes con respecto a toda a € G ( K , F) , de donde, por la normalidad de K sobre F, todas deben estar'en F. Por tanto, K descompone al polinomio p ( x ) ~ F[x] en un product0 de factoris lineales. Como a es una raiz de p ( x ) y como a genera K sobre F, a no puede estar en ningun subcampo propio de K que contenga a F. Luego K es el campo de descomposicion d e p ( x ) sobre F.

Ahora en la otra direccion; esto es un poco mas complicado. Apartamos una pieza de la prueba en el

LEMA 5.9. Sea K el campo de descomposicidn de f ( x ) en F[x] y sea p ( x ) un factor irreducible de f ( x ) en F[x]. S i las raices dep ( x ) son a , , . . ., a,, entonces para cada i existe un automor-smo o i en G(K,F) tal que a i ( a I ) = a i .

Prueba. Como cualquier raiz de p ( x ) es una raiz de f ( x ) , tal raiz debe encontrarse en K. Sean a , , ai dos raices cualesquiera de p(x) . De acuerdo con el teorema 5.i hay un isomorfismo r de F, = F(a , ) sobre F; = F(ai) que lleva a , sobre ai y deja todos 10s elementos de F fijos. Ahora bien, K es el campo de descomposicion de f ( x ) considerado como un polinomio sobre F, : analogamente, K es el campo de descomposicion de f ( x ) considerado como un polinomio sobre F ; . Segun el teorerna 5.j hay un isomorfismo a i de K sobre K (luego un automorfismo de K ) que coincide con r sobre F, . Pero entonces a i ( a , ) = r ( a , ) = ai y a i deja a todos 10s elementos de Ffijos. Esto es, desde luego, exactamente lo que afirma el lema 5.9.

Volvemos ahora a nuestra tarea de completar la prueba del teorema 5.u. Supongamos que K es el campo de descomposici6n del polinomio f ( x ) en F[x]. Queremos demostrar que K es normal sobre F. Procedemos por induccion sobre [ K : F] , suponiendo que para cualquier par de campos K, , Fl con [Kl : F,] menor que [ K: F], siempre que K, es el campo de des- composici6n sobre F, de un polinomio en F,[x] , entonces K, es normal sobre P I .

Si ~ ( x ) E F[x] se descompone en factores lineales sobre F, entonces K = F, que ciertamente es una extension normal de F. Asi pues, supongarnos que f ( x ) tiene un factor irreducible p ( x ) ~ F [ x ] de grado r > I . Las r raices distintas a , , a,, . . ., a, de p ( x ) todas se encuentran en K y K es el campo de descomposicion de f ( x ) considerado como un polinomio sobre F(a,).

Page 241: Herstein   Algebra moderna

16. ELEMENTOS DE LA TEORIA DE GALOIS

Como

de acuerdo con nuestra hipotesis de induccidn, K es una extension normal de F(a !).

Sea BEK fija para cualquier automorfismo a e G ( K , F ) ; queremos demostrar que 8 esta en F. "Ahora bien, cualquier automorfismo en G(K, F(a l ) ) deja, ciertamente, fija a F, de donde deja a 8 fija; por la nor- malidad de K sobre F(a,) , esto implica que 8 esta en F(a,). Asi pues

1 ) 8 = Ao+A1al +A2a,2 +. . .+A_, alr- ' donde A, ,..., E F .

De conformidad con el lema 5.9 hay un automorfismo a i de K, sic G(K, F), tal que a i ( a l ) = ai ; como Qte o i deja 8 y toda Aj fijas, aplicin- dolo a ( I ) obtenemos

2 ) 2 8 = Ao+Alai+12ai +...+ i,_,a;-' para i = 1 , 2 , ..., r.

Asi pues, el polinomio q ( x ) = Ar-1xr- '+Ar-2xr-2+ ... +A,x+(A,-8) en K[x] , de grado cuando m k r- 1, tiene las r distintas raices a,, a,, . . ., a,. Esto puede suceder solamente si todos 10s coeficientes son cero; en particular A, - 8 = 0, de donde 8 = A,, luego esta en F. Esto completa la induccidn y prueba que K es una extension normal de F. El teorema 5.u esta completa- mente probado.

DEFINICION. Sea f ( x ) un polinomio en F[x] y sea K su campo de descom- posicion sobre F. El grupo de Galois de f ( x ) es el grupo G(K, F ) de todos 10s automorfismos de K que dejan fijos todos 10s elementos de F.

Notese que el grupo de Galois de f ( x ) puede considerarse como un grupo de permutaciones de sus raices, pues si a es una raiz de f ( x ) y si U E G ( K , F) entonces a(a) es tambien una raiz de f (x) .

Llegamos ahora al resultado conocido como el teorema fundamental de la teoria de Galois. Establece una correspondencia biyectiva entre 10s subcampos del campo de descomposicion de f ( x ) y 10s subgrupos de su grupo de Galois. Ademas da un criterio para que un subcampo de una extension normal sea el mismo una extension normal de F. Este teorema fundamental se usara en la proxima seccion para derivar condiciones para la solubilidad por radicales de las raices de un polinomio.

TEOREMA 5.v. Sea f ( x ) un polinomio en F[x], K su campo de descompo- sicion sobre F y G ( K , F) su grupo de Galois. Para cualquier subcampo T d e K que contiene a F sea G(K, T ) = { a € G(K, F) I a ( t ) = t para todo t~ T ) y para cualquier subgrupo H de G(K, F ) sea K , = { X E K I o ( x ) = x para

Page 242: Herstein   Algebra moderna

240 CAMPOS - Cbp. 5

todo H ) . Entonces la asociacibn de T con G(K, T ) establece una correspon- dencia biyectiva del conjunto de subcampos de K que contienen a F sobre el conjunto de subgrupos de G(K. F) tal que :

1) T = KG,,,,). 2) H = G(K, K,). 3) [K: TI = O(G(K, T)) , [ T : q = indice de G(K, T ) en G(K, F). 4) T es una extensibn aormal de F si y sblo si G(K, T ) es un subgrupo

normal de G(K, F). 5) Cuando T es una extensibn normal de F, entonces G(T , F) es isomorjb

a G ( K F)IG(K, T) .

Prueba. Como K es el campo de descomposicion de f ( x ) sobre F es tambitn el campo de descomposicion de f ( x ) sobre cualquier subcampo T que contenga a F; por tanto, seg6nel teorema 5.u, K es una extension normal de T. Asi pues, por la definicion de normalidad, Tes el campo fijo de G(K, T ) , es decir, T = KG(,,,), probando asi ( 1 ).

Como K es una extension normal de F, de acuerdo con el teorema 5.t, dado un subgrupo H de G (K, F), entonces H = G (K, K,) que es lo que se afirma en la parte (2). AdemPs, esto demuestra que cualquier subgrupo de G(K, F) se presenta en la forma G(K, T ) , de donde la asociacion de T con G(K, T ) transforma el conjunto de todos 10s subcampos de K que contienen a Fsobre el conjunto de todos 10s subgrupos de G(K, F). Que es inyectiva es claro, pues, si G(K, T , ) = G(K, T2) , entonces, por la parte (I), T , = KG(,,,,) = K G ( K . T ~ ) = T2.

Como K es normal sobre T, tenemos, al aplicar de nuevo el teorema 5.t, [K: T ] = o(G(K, T ) ) ; pero entonces, o(G(K, F)) = [K: F] = [K:T:I [ T : q = o(G(K, T ) ) [ T : F], de donde

en G(K, F). Y tsta es la parte (3). Las unicas partes que quedan por probar son las que conciernen a la nor-

malidad. Haremos primer0 la siguiente observaci6n. T es una extensi6n normal de F si y so10 si para cada o~ G(K, F), o ( T ) c T. iPor quc!? Sabemos por el teorema 5.p que T = F(a); asi pues, si o ( T ) c T entonces u ( a ) ~ T para todo o e G ( K , F). Pero como vimos en la prueba del teorema 5.u esto implica que T es el campo de descomposicion de p(x) = n (x-o)(a))

aeG(K.F) que tiene coeficientes en F. Como campo de descomposici6n T , por el teorema 5.u, es una extensi6n normal de F. Reciprocamente, si T es una extensi6n normal de F, entonces T = F(a), donde el polinomio minimo de a, p(x), sobre Ftiene todas sus raices en T (teorema 5.4. Pero para cualquier o~ G(K, F), o(a) es tambih una raiz de p(x), de donde o ( 4 debe estar en T.

Page 243: Herstein   Algebra moderna

5 6. ELEMENTOS DE LA TEORIA DE GALOIS . 241

Como T estti generado por a sobre F tenemos que a(T) c T, para todo a € G(K, F).

Asl pues, Tes una extensi6n normal de Fsi y s610 si para todo a € G(K, F), r€G(K, T ) y ~ E T , a ( t ) ~ T y, por tanto, r(a(t)) = a(t); es decir, si y s610 si a - 'ra(t) = t. Pero esto dice que Tes normal sobre Fsi y s610 si a - ' G(K, T ) a c G(K, T ) para todo a € G(K, F). Siendo esta hltima condici6n precisa- mente la que define G(K, T) como un subgrupo normal de G(K, F), vemos que la parte (4) queda probada. .

Finalmente, si T es normal sobre F, dado a€G(K, F), como a(t) c T, a induce un automodismo a, de T definido por a,(t) = a(t) para todo ~ E T . Como a, deja a todo elemento de F fijo, a, debe estar en G(T, F). Ademtis, como es evidente, para cualquier a, $E G(K, F), (a$), = a, $, de donde la aplicaci6n de G(K, F) en G(T, F) definida por a -+ a, es un homo- modismo de G(K, F) en G(T, F). i Q d h el nhcleo de este homomodismo 1 Consiste en todos 10s elementos a en G(K, F) tal que a, es la aplicaci6n identidad sobre T. Es decir, el nhcleo es el conjunto de todos 10s a,€ G(K, F) tales que t = a,(t) = a(t); por la misma debici6n, tenemos que el nhcleo es exactamente G(K, T), La imagen de G(K,F) en G(T, F), se@n el teorema 2.d, es isomorfa a G(K, F)/G(K, T), cuyo orden es o(G(K, F))/ o(G(K, T)) = [T:I;l (por parte 3) = o(G(T, F)) (como establece el teo- rema 5.t.). Asi pues, la imagen de G(K, F) en G(T, F) es todo G(T, F) y, por tanto, G(T, F) es isomorfo a G(K, F)/G(K, T). Esto termina la prueba de la parte (5) y con eUo completamos la prueba del teorema 5.v.

Problemas

1. Si K es un campo y Sun conjunto de homomodismos de K, demuestre que el campo fijo de S y el de S (el subgrupo del grupo de todos 10s automor- fismos de K generados por S) son idbnticos.

2. Prubbese el lema 5.8.

3. Usando el criterio de Eisenstein, prubbese que x4+x3 +x2 +x+ 1 es irreducible sobre el campo de 10s nhmeros racionales.

4. En el ejemplo 3 del texto, prubbese que cada una de las aplicaciones a, que alli se dehieron es un automorfismo de Fo (a).

5. En el ejemplo 3, prukbese que el campo fijo de Fo(w) bajo a, , u2, a, y a4 es precisamcnte Fo.

6. Prubbese directamente que cualquier automodismo de K debe dejar fijos todos 10s racionales.

*7. Prubbese que un polinomio simbtrico en x, , . . ., x, es un polinomio en las funciones simktricas elementales en x , , . . ., x,.

Page 244: Herstein   Algebra moderna

242 . CAMPOS - Cap. 5

8. Exprksense 10s siguientes corno polinornios en las funciones sime- tricas elernentales en x, , x2 y x,.

a) x , ~ + x ~ ~ + x , ~ . 6) x , ~ + x ~ ~ + x , ~ .

c) (XI - X ~ ) ~ ( X I - X , ) ~ ( X ~ -x3Y.

9. Si or, , or,, a, son las raices del polinornio clibico x3 + 7x2 - 8x+ 3, encukntrese el polinomid clibico cuyas raices son :

2 2 2 a) or, , a 2 , a 3 .

*lo. Pruebense las.identidades de Newton, es decir, si o r , , or,, ..., orn son lasraices def(x) = x " + a , x " - ' + ~ , x " - ~ + ... +any si sk = crIk+or2'+ ... + a t , entonces

a) s k + ~ I ~ k - I + a 2 ~ k - 2 + ... = Osi k = 1,2 ,..., n. 6) sk+aIsk- , + ... +ansk-, = 0 para k >n. c) Para n = 5, apliquese la parte (a) para deterrninar s2 , s3 , s, y s, .

11. Pruebese que las funciones sirnitricas elernentales en x, , . . ., xn son, ciertarnente, funciones sirnetricas en x, , . . ., xn.

12. Si p(x) = xn- I, prukbese que el grupo de Galois de p(x) sobre el carnpo de 10s nlirneros racionales es abeliano.

El nurnero cornplejo w es una raiz n-Psima primitira de la unidad si wn = 1 pero wm # I para 0 < m < n. Fo denotari el carnpo de 10s nlirneros racionales.

13. a) Pruebese que hay 4(n) raices n-Csirnas prirnitivas de la unidad donde 4(n) es la funcion 4 de Euler.

6) Si w es una raiz n-esirna prirnitiva de la unidad, pruebese que Fo(w) es el campo de descornposicion de xn- I sobre Fo (y por tanto es una extension normal de F,).

C) Si wI , . . ., w4(,, son las 4(n) raices n-esirnas prirnitivas de la unidad, prutbese que cualquier autornorfisrno de Fo(w,) lleva w, en alglin mi.

d ) Pruebese que [Fo( w, ): Fo] ,< 4(n).

14. La notacion es corno la del problerna 13. *a) Pruebese que hay un autornorfisrno ai de Fo(wl) que lleva w, en

wi. b ) Pruebese que el polinorniop,(x) = (x-w,) (x-w,) . . . (x-w4(,,)

Page 245: Herstein   Algebra moderna

17. SOLUBlLlDAD POR RADICALES 243

tiene coeficientes racionales. El polinomio pn(x) se llama el n-dim0 polinomio ciclotimico.

*c) Pruebese que en realidad 10s coeficientes depn(x) son enteros.

15. Osense 10s resultados de 10s problemas 13 y 14 para probar que pn(x) es irreducible sobre Fo para todo n 2 1.

16. Para n = 3, 4, 6 y 8, calculese y,(x) explicitamente, demutstrese que tiene coeficientes enteros y prukbese directamente que es irreducible sobre Fo .

17. a) PruCbese que el grupo de Galois de x3 - 2 sobre Fo es isomorfo a S, , el grupo simetrico de grado 3.

b) Encutntrese el campo de descomposici6n K de x3 - 2 sobre Fo . c) Para cada subgrupo H de S, encuentrese K, y comprutbese que

la correspondencia da en el teorema 5.v. d) Encukntrese una extension normal en K de grado 2 sobre Fo.

18. Si el campo F contiene una raiz ndsima primitiva de la unidad prudbese que el grupo de Galois de 2' -a, para a € F, es abeliano.

1

7. SOLUBILIDAD POR RADICALES

Dado el polinomio especifico x2 + 3x+4 sobre el campo de 10s numeros racionales Fo, de acuerdo con la formula cuadrltica para sus raices, sabemos que estas son (- 3 + p ) / 2 ; asi pues, el campo ~ , ( m es el campo de descomposici6n de xZ + 3x + 4 sobre Fo . Hay, por consiguiente, un elemento y = -7 en Fo tal que el carnpo extension Fo(o) donde oZ = y es tal que contiene todas las raices de x2 + 3x + 4.

Desde un punto de vista ligeramente diferente, dado el polinomio cuadritico general p(x) = x2 + a, x+a, sobre F, podemos considerarlo como un polinomio particular sobre el campo F(a,, a,) de las funciones racionales en las dos variables a, y a, sobre F; en la extension obtenida por la adjuncion de w a F(al , a,) donde 02 = a, -4p,~F(a, , a,) encon- tramos todas las raices de p(x). Hay una f6rmula que expresa todas las raices dep(x) en terminos de a, , a, y raices cuadradas de funciones racionales deal ya,.

Para una ecuacion cubica la situacion es muy semejante; dada la ecuacion general clibica p(x) = x3 +a, x2 +a, x + a, puede darse una formula explicita, incluyendo combinaciones de raices cuadradas y raices citbicas de funciones racionales en a , , a, y a,. Aunque en forma algo complicada las fdrmulas de Cardano nos las dan explicitamente : Seanp = a, - (a, 2/3) y

Page 246: Herstein   Algebra moderna

CAMPOS - Cap. 5

y sea

(con raices cubicas propiamente escogidas); entonces las raices de p(x) son P+Q-(a,/3), oP+ozQ-(al/3) y 0 2 p + o ~ - ( a l / 3 ) donde o f 1 es una raiz clbica de 1. Estas formulas solo nos sirven para ilustrar que, se&n la adjuncion de una cierta raiz cuadrada y luego una raiz cubica a F(a, , a,, a3) llegamos a un campo en el que p(x) tiene sus raices.

Para polinomios de cuarto grado, que no daremos explicitamente, me- diante el uso de operaciones racionales y raices cuadradas podemos reducir el problema al de resolver cierta raiz cubics, de mod0 que tambibn aqui puede darse una formula que exprese las raices en tdrminos de combina- ciones de radicales de funciones racionales de 10s coeficientes.

Para polinomios de grado quinto o mhs alto, no puede darse tal formula universal radical, pues demostraremos que es imposible expresar sus rakes, en general, de este modo.

Dado un campo F y un polinomio p(x) E F[x] decimos que p(x) es soluble por radicales sobre F si podemos encontrar una sucesi6n finita de campos F, = F(w,), F, = F, (o,), . . ., Fk = F,-, (w,) tal que olrl EF, o l r 2 ~ F 1 , . . .,

F, - , tal que las raices de p (x) se encuentren todas en F, . Si K es el campo de descomposici6n de p(x) sobre F, entonces p(x) es

soluble por radicales sobre F si podemos encontrar una sucesion de campos como anteriormente tales que K c F,.Una observation importante y que usaremoS posteriormente en la prueba del teorema 5.x, es que si puede encon- trarse un tal F,, podemos, sin pdrdida de generalidad, suponer que sea una extension normal de F; dejamos la prueba de esta afirmacion como problema (problema 1).

Por polinomio general de grado n sobre F, p (x) = x" + a, x" - ' + . . . + a, entendemos lo siguiente : Sea F(a, , . . ., a,) el campo de funciones racionales en las n variables a, , . . ., a, sobre F, y considbrese el polinomio particular p(x) = x"+a,x"-'+ ... +a, sobre el campo F(a,, ..., a,). Decimos que es soluble por radicales si es soluble por radicales sobre F(a, , . . ., a,). Esto expresa realmente la idea intuitiva de "encontrar una formula" para las raices de p(x) que implique combinaciones de raices mCsimas para varias m, de funciones racionales en a , , a,, . . ., a,. Para n = 2, 3 y 4 seiialamos que esto puede hacerse siempre. Para n k 5; Abel prob6 que no puede hacerse. Pero esto no excluye la posibilidad de que un polinomio dado sobre F pueda resolverse por radicales. En realidad, daremos un criterio

Page 247: Herstein   Algebra moderna

1 7 SOLUBlLlDAD POR RADICALES 246

para esto en tCrminod del grupo de Galois del polinomio. Pero primer0 debemos desarrollar unos pocos resultados de teoria pura de grupos. Algunos de estos aparecieron como problemas al final del capitulo 2; pero, sin embargo, 10s haremos aqui oficialmente.

DEHNICI~N. Un grupo G se dice que es soluble si podemos encontrar una cadena finita de subgrupos G = No 2 N, 2 N, =, . . . 3 Nk = (e) donde cada Ni sea un subgrupo normal de N,-, y tal que ca& grupo factor N,- ,INi sea abeliano.

Todo grupo abeliano es soluble, pues simplemente se toma No = G y N, = (e) para satisfacer la anterior definicion. El grupo simttrico de grado 3, S,, es soluble. En efecto, si tomamos N, = {e, (1, 2, 3), (1, 3, 2)), N, es un subgrupo normal de S, y S,/N, y N,/(e) son, ambos, abelianos por ser de 6rdenes 2 y 3, respectivamente. Se puede demostrar que S, es soluble (problema 3). Para n 2 5 demostraremos en el teorema 5.w que S, no es soluble.

Busquemos una descripci6n alternativa para la solubili&d. Dado el grupo G y 10s elementos a y b de G, entonces el commufador de a y b es el elemento a - ' b- ab. El subgrupo conmufador, G', de Gesel subgrupo de G generado por todos 10s conmutadores de G. (No es necesariamente cierto que el conjunto de 10s conmutadores mismo forme un subgrupo de G.) Vimos en un ejercicio anterior que G' es un subgrupo normal de G. AdemBs, el grupo G/Gf es abeliano, pues &dos dos elementos cualesquiera en dl, aG', bG', con a, ~ E G , entonces

(aGf)(bG') = abG' = ba(b- 'a- ' ab) G' =

(como a- 'b- 'ab~G') = baG' = (bG1)(aG'). Por otra parte, si M es un subgrupo normal de G tal que G/M es abeliano, entonces M 3 G', pues &dos a, ~ E G , entonces (aM)(bM) = (bM)(aM) de donde deducimos abM = baM, luego a - ' b- 'abM = M y, por tanto, a- ' b- ' a b ~ M. Como M contiene todos 10s conmutadores, contiene a1 grupo que estos generan, es decir, a G'.

G' es un grupo por derecho propio, asi que podemos hablar de su grupo conmutador G(2) = (GI)'. Este es el subgrupo de G generado por todos 10s elementos (a1)- '(6')- ' a'b' donde a', b ' ~ G'. Es ficil probar que no solo es G(,) un subgrupo normal de G', sino tambikn un subgrupo normal de G (problema 4). Continuando de esta forma definimos 10s subgrupos con- mutadores mBs altos G("' por G("' = (G("- ")'. Todo G'"' es un subgrupo normal de G (problema 4) y G("- ')/G("' es un grupo abeliano.

En ttrminos de estos subgrupos conmutadores mis altos de G, tenemos un criterio sucinto de solubilidad, a saber,

LEMA 5.10. G es soluble si y sblo si Qk) = (e) para algljn entero k:

Page 248: Herstein   Algebra moderna

246 CAMPOS - Cap. 5

Prueba. Si G ( ~ ) = (e) sea No = -G, N, = G', N, = G(", . . ., Nk = G ' ~ ) = (e). Tenemos G = No 2 N, =IN, 2 . . . =IN, = (e); con cada Ni por normal en G, ciertamente, tambien normal en Ni-, . Finalmente,

luego es abeliano. Asi pues; segun la definici6n de solubilidad de un grupo, G es un grupo soluble.

Reciprocamente, si G es un grupo soluble, hay una cadena G = No 3

N, 3 N, 3 . . . =I N, = (e) donde cada Ni es normal en Ni-, y donde Ni- ,INi es abeliano. Pero, entonces, el subgrupo conmutador N',-, de Ni- , debe estar contenido en N,. Asi pues, N, 3 Nd = G', N, 3 N; 3 (G')' = G(,), N, 3 N; 3 (G(,))' = G(,), . . ., Ni 3 G('), (e) = Nk 3 G(k). De donde resulta que G") = (e).

COROLARIO. Si G es un grupo soluble ,y si G es una imagen homomdrfica de G, entonces G es soluble.

Prueba. Como G es una imagen homom6rfica de G, es inmediato que (G)(" es la imagen de G(k), Como G(" = (e) para alguna k, (G)'" = (e) para la misma k, de donde, de acuerdo con el lema, C es soluble.

El siguiente lema es clave en la prueba de la familia infinita de grupos S,, con n 2 5, no es soluble; aqui S, es el grupo simktrico de grado n.

LEMA 5.1 1. Sea G = S, donde n 2 5; entonces G(') para k = 1, 2, . . ., contiene todo ciclo de orden 3 de S, .

Prueba. Observemos primer0 que para un grupo arbitrario G, si N es un subgrupo normal de G entonces N' debe tambiCn ser un subgrupo normal de G (problema 5).

Afirmamos que si N es un subgrupo normal de G = S, donde n 2 5, que contiene todo ciclo de orden 3 en S,, entonces N' debe tambien contener todo ciclo de orden 3. Pues supongamos a = (I, 2, 3), b = (1,4, 5) de N (estamos aqui usando que n 2 5); entonces a - ' b- ' ab = (3, 2, I) (5,4, 1) (1, 2, 3) (1,4, 5) = (1,4, 2), como conmutador de elementos de N debe estar en N'. Como N' es un subgrupo normal de G, para cualquier ~ E S , , n- ' ( l ,4, 2)n debe estar tambiCn en N'. Escojamos n en S, tal que n(1) = i , , n(4) = i, y n(2) = i,, donde i, , i, e i, son cualesquiera tres enteros distintos en el rango de I a n; entonces n- ' ( I , 4, 2)n = (i,, i,, i,) estA en N'. Luego N' contiene todos 10s ciclos de orden 3.

Haciendo N = G, que es ciertamente normal en G y contiene todos 10s ciclos de orden tres, tenemos que G' contiene todos 10s ciclos de orden 3;

Page 249: Herstein   Algebra moderna

17. SOLUBILIDAD POR RADICALES 247

como G' es normal en G, G(2' contiene todos 10s ciclos de orden 3 ; como 02) es normal en G, G ' ~ ) contiene todos 10s ciclos de orden 3. Continuando de esta forma llegamos a la conclusion de que G"' contiene todos 10s ciclos de orden 3 para cualquier k .

Una consecuencia directa de este lema es el resultado interesante para la teoria de grupos de que -

TEOREMA 5.w. Sn no es soluble para n > 5.

Prueba. Si G = Sn , segdn el lema 5.1 1, G'" contiene todos 10s ciclos de orden 3 de Sn para todo k . Por tanto, G") # ( e ) para toda k , de donde de acuerdo con el lema 5.10 G no puede ser soluble.

lnterrelacionamos ahora la solubilidad por radicales de p ( x ) con la solubilidad como grupo del grupo de Galois de p(x). La misma terminologia es altamente sugestiva de que una tal relacion existe. Pero primero necesita- mos un resultado acerca del grupo de Galois de un cierto tipo de polinomio.

LEMA 5.12. Supongamos que el campo F tenga todas las raices n-himas de la unidad (para un cierto determinado n ) y supongamos que a #O estci en F. Sea 2 - a € F[x] y sea K su campo de descomposicidn sobre F. Entonces:

1) K = F(u), donde u es cualquier raiz de 2 -a.

2) El grupo de Galois de 2 -a sobre F es abeliano.

Prueba. Como F contiene a todas las raices n-tsimas de la unidad, contiene t = eZni1"; notese que tn = 1 pero tm # I para 0 c m c n.

Si u~ K es cualquier raiz de x" -a, entonces u, t u , t2 u, . . ., r"- ' u son todas las raices de 2 - a . Que son raices, es evidente; que son distintas se sigue de que si t i u = t i u con 0 < i c j< n, entonces como u # 0 y (ti- t j ) u = 0, debemos tener t i = ti, lo que es imposible ya que ti-' = 1 con 0 < j- i c n. Como ~ E F , todos 10s u, t u , . . ., t" -' u estdn en F(u), luego F(u) descompone 2 - a ; como ninglin subcampo propio de F(u) que contenga a F contiene tambitn a u, ninglin subcampo propio de F(u) puede descomponer a ?-a. Asi pues, F(u) es el campo de descomposici6n de 2-a, y hemos probado que K = F(u).

Si o, T son dos elementos cualesquiera de x"-a, es decir, si o, r son automorfismos de K = F(u) que dejan todos 10s elementos de F fijos, entonces como tanto o ( u ) como r (u ) son raices de ?-a, o (u ) = t i u y r (u ) = t i u para algunas i y j. Asi pues, o r ( u ) = o ( t i u ) = t i o ( u ) (ya que t i e F ) = t t i u = t i + j u ; anhlogamente, ro(u) = t i + j u . Por tanto, or y ro coinciden sobre u y sobre F, de donde, en todo K = F(u). Pero entonces or = ro, de donde el grupo de Galois es abeliano.

Page 250: Herstein   Algebra moderna

CAMPOS - Cap. 6

Ndtese que el lema dice que cuando F tiene todas las raices n-tsimas de la unidad, entonces, adjuntando una rdz de 2 - a a F, donde ~ E F , tenemos todo el campo de descomposici6n de 2 - a, luego Qte &be ser una extension normal de F.

Suponemos para el resto de la seccidn que F es un campo que contiene todas las raices n-Psimas de la unidadpara todo entero n. Tenemos

TEOREMA 5.x. Si p(x)~F[x] es soluble por radicales sobre F, entonces el grupo de Galois sobre F de ) (x) es un gmpo soluble.

Prueba. Sea K el campo de descomposici6n de p(x) sobre F; el grupo de Galois de p(x) sobre F es G(K, F). Como p(x) es soluble por radicales existe una sucesi6n de campos

F c F, = F ( o , ) c F, = F,(w2)c ... c F, = Fk-,(ak),

donde wlrl EF, w Z n ~ F 1 , . . ., OPE Fk- y donde K c F,. Como dijimos podemos suponer, sin @rdida de generalidad, que F, es una extensi6n normal de F. Como extensi6n normal de F, Fk es tambitn una extensi6n normal de cualquier carnpo intermedio, de donde Fk es una extension normal de cada una de las Fi . I

Se@n el lema 5.12 toda Fi es una extension normal de Fi-, y como F, es normal sobre Fi-,, de acuerdo con el teorema 5.v, G(Fk, Fi) es un sub- grupo normal en G(Fk, Fi- ,). Consideremos la cadena:

1) G(Fk, F) 3 G(Fk, F,) 3 G(Fk, F2) 3 ... 3 G(Fk, Fk-1) ~ ( 4 .

Como acabamos de hacer notar, cada grupo en la cadena es un subgrupo normal en el que le precede. Como Fi es una extension normal de Fi-,, de acuerdo con el teorema fundamental de la teoria de Galois (teorema 5.v) el grupo de Fi sobre Fi-, , G(Fi, Fi-,) es isomorfo a G(F,, Fi-,)/G(F,, F,). Pero se@n el lenia 5.12, G(Fi, Fi-,) es un gupo abeliano. Luego todos 10s grupos cociente G(Fk, Fi- ,)/G(Fk, Fi) de la cadena (1) es abeliano.

iLueg0 el grupo G(F,, F) es soluble! Como K c Fk es una extensi6n nor- mal de F (por ser un campo de descomposici6n), segtin el teorema 5.v, G(Fk,K) es un subgmpo normal de G(Fk,F) y G(K,F) es isomorfo a G(Fk,F)/G(Fk,K). Asi pues, G(K,F) es una imagen homom6rfica de G(Fk. F) que es un gmpo soluble; por el corolario del lema 5.10, el mismo G(K, F) debe entonces ser un grupo soluble. Como G(K,F) es el grupo de Galois de p(x) sobre F, el teorema ha sido probado.

Hacemos dos observaciones sin prueba. 1) El reciproco del teorema 5.x es tambitn cierto, es decir, si el grupo de

Galois de p(x) sobre F es soluble, entonces p(x) es soluble por radicales sobre F.

2) El teorema 5.x y su reciproco son ciertos incluso si F no contiene raices de la midad.

Page 251: Herstein   Algebra moderna

17. SOLUBILIDAD POR RADICALES 249

Recordando lo que se entiende por polinomio general de grad0 n sobre F, p(x) = Y + a , Y - ' + . . . +a,, y lo que se entiende por soluble por radicales, cerramos el capftulo con el gran teorema clisico de Abel

TEOREMA 5 . ~ . El polinomio general de grado n 2 5 no es soluble por radicales.

Prueba. En el teorema 5.s demostramos que si F(a, , . . ., a,) es el c a m p de las funciones rationales en las ;variables a,, . . ., a,, entonces el grupo de Galois del polinomio p(t) = tn+a, tn- ' + . .. +a, sobre F(al , . . . , a,) era S,, el grupo simCtrico de grado n. De acuerdo con el teorema 5.w S, no es un grupo soluble cuando n 2 5, asl pues, segtin el teorema 5.x p(t) no es soluble por radicales sobre F(a, , . . ., a,) cuando n 2 5.

*l. Si p(x) es soluble por radicales sobre F, pruCbeseque puede encon- trarse una sucesi6n de campos

F c F, = F(a,) c F, = F, (a,) c . . . c Fk = Fk-, (ak)

don& a l r l ~ F , a z r z ~ F l , . . ., a?eFk- I , con Fk conteniendo todas las raices dep(x) tal que Fk es normal sobre F.

2. Prutbese que un subgrupo de un grupo soluble es soluble.

3. PruCbese que S, es un grupo soluble.

4. Si G es un grupo, pruCbese que todos 10s G(k) son subgrupos normales de G.

5. Si N es un subgrupo normal de G, pruCbese que N' &be tambiCn ser un subgrupo normal de G.

6. PruCbese que el grupo alternante (el grupo de las permutaciones pares en S,) A,, tiene subg1-6pos normales no triviales para n 2 5.

ARTIN, E., Galois Theory, segunda edici6n. Notre Dame Mathematical Lectures, numero 2.

POLLARD, H., Theory of Algebraic Numbers, Carus Monographs, n6mero 9. John Wiley and Sons, Inc., Nueva York, 1950.

VAN DER WAERDEN, B. L., Modern Algebra, vol. 1. Ungar Publishing Company, Nueva York, 1949.

W~ISNER, L., Theory of Equations. The Macrnillan Company, Nueva York, 1938.

Page 252: Herstein   Algebra moderna

250 CAMPOS - Cap. 5

SIEGEL, C. L., Transcendental Numbers, Annals of Mathematical Studies, nlimero 16. Princeton University Press, Princeton, Nueva Jersey, 1949.

NIVEK, I., Irrational Numbers, Carus Monographs, nlimero 11. John Wiley & Sons, Inc., Nueva York, 1956.

T6picos para discusib en dase

NIVEN, I., "A simple proofpf the irrationality of IT", Bulletin of the American Mathematical Society, vol. 53 (1947), pag. 509.

Page 253: Herstein   Algebra moderna
Page 254: Herstein   Algebra moderna
Page 255: Herstein   Algebra moderna
Page 256: Herstein   Algebra moderna
Page 257: Herstein   Algebra moderna
Page 258: Herstein   Algebra moderna
Page 259: Herstein   Algebra moderna
Page 260: Herstein   Algebra moderna
Page 261: Herstein   Algebra moderna
Page 262: Herstein   Algebra moderna
Page 263: Herstein   Algebra moderna
Page 264: Herstein   Algebra moderna
Page 265: Herstein   Algebra moderna
Page 266: Herstein   Algebra moderna
Page 267: Herstein   Algebra moderna

4 3. MATRICES 265

7. PruCbese el corolario 2 al teoTema 6.f.

8. Si V es n-dimensional sobre F y si TEA (V) es nilpotente (es decir, tal que Tk = 0 para alglin k), pruCbese que Tn = 0. (Sugerencia: si ce V usese el hecho de que v, vT, vT2, ..., L'T" deben ser linealmente independientes sobre F.)

.. 3. MATRICES

Aunque ya llevamos algJn tiempo tratando de transformacianes, siempre lo hemos hecho en una forma impersonal y un poco lejana; para nosotros, una transformacion lineal ha sido un simbolo (muy a menudo T) que actua en una cierta forma sobre un espacio vectorial. Vemos, cuando pensamos en lo hasta aqui hecho, que fuera de 10s pocos ejemplos concretos con que nos hemos encontrado en 10s problemas, nunca nos hemos enfrentado con transformaciones lineales especificas. AI mismo tiempo, es claro que si hemos de proseguir con el tema un poco mas lejos a menudo se presentara la necesidad de hacer un estudio completo y detallado de una transformacion lineal dada. Para mencionar un problema preciso, si se nos presenta una transformacion lineal (y suponiendo por el momento que tenemos medios para reconocerla), jc6m0 podemos arreglarnoslas para encontrar, de una forma practica y calculable, sus raices caracteristicas?

Lo que primer0 buscarnos es una notacion sencilla o, quiza mas precisa- mente, una representacion sencilla para las transformaciones lineales. Llegaremos a ello mediante el uso de una base particular del espacio vectorial y por el uso de la acci6n de una transformacibn lineal sobre esta base. Una vez que se ha conseguido todo esto, por medio de las operaciones en A ( V ) podemos inducir operaciones para 10s simbolos creados que hagan de ellos un algebra. Este nuevo objeto, infundido de una vida algebraica propia. puede estudiarse como una entidad matematica que tiene un interes por si misma. Este estudio es lo que comprende la llamada teoria de matrices.

Pero ignorar el origen de estas matrices, es decir, investigar el conjunto de simbolos independientemente de lo que representan, puede ser costoso, porque estariamos desperdiciando una gran cantidad de informacion util.

En lugar de ello, nosotros siempre usaremos las interrelaciones entre el abstract0 A(V) y lo concreto, el algebra de matrices, para obtener infor- macion de una sobre la otra.

Sea V un espacio vectorial n-dimensional sobre un campo F y sea v, , . . ., v, una base de V sobre F. Si TEA ( V) entonces T esta determinado en cualquier vector tan pronto como conozcamos su accion sobre una base de V. Como T transforma Ven V, u , T, c2 T, . . ., c, Tdeben estar todos en V. Como elementos de V cada uno de estos es realizable de un linico mod0 como

Page 268: Herstein   Algebra moderna

266 TRANSFORMACIONES LINEALES - Cap. 6

combinaci6n lineal de v, , . . ., v, sobre F. Asf pues:

don& c a b aijeF. Este sistema de ecuaciones puede escribirse mhs com- pactamente como

v i T = z a i j v j , para i = 1 , 2 , . . . , n . j = 1

El conjuntoordenado de n2 nlimeros a,) en F describe completamente a T. Nos serviran como medio para representar T.

DEFINICI~N. Sea V un espacio vectorial de dimensi6n n sobre F y sea v,, . . ., v, una base para V sobre F. Si TeA(V) entonces la matriz de Ten la base v, , . . ., v,, a la que representaremos por m(T), es

Una matriz es entonces un arreglo ordenado en forma & cuadrado de elementos de F con, hasta el momento,. ninguna otra caracterlstica, que representa el efecto de una transformaci6n lineal sobre una base &da.

Examinemos un ejemplo. Sea Fun campo y sea V el conjunto de todos 10s polinomios en x de grado n- l o menor sobre F. Definamos D sobre V por (jYo+jY1x+ ... +jY,,-,xll-')D = jY1+2jY2x+ ... +i/3,xi-I ... +(n-1) /-In-, 9- '. Es trivial comprobar que D es una transformaci6n lineal sobre V; como el lector habrh visto, se trata simplemente del operador de diferen- ciaci6n.

~ C u h l es la matriz de D? La pregunta carece de sentido a menos que especifiquemos una base de V. En primer lugar, calculemos la matriz de D en la base v, = 1, v, = x, v, = x2, . . ., vi = xi-', . . ., v, = x l l - I . Ahora

Page 269: Herstein   Algebra moderna

4 3. MATRICES

bien,

= (C- l ) v i - , +Ovb+ ,+.. + O v l ~ 2 + ( i - l ) v , ~ , + O v l

v, Q = xn- I D = ( n - I ) X " - ~

Si volvemos a la propia definicion de matriz de una transformacion lineal en una base dada, vemos que la matriz de D en la base v , , . .., v,, m, ( D ) , es un realidad

o o o . . . 0 0

rn , ( D ) = 0 2 0

0 0 : 3 ...

Q 0 0 ... ( n - I ) 0

Pero na& hay de especial en la base que acabamos de usar ni en como numeramos sus eiementos. Supongamos que nos limitamos a reordenar 10s elementos de esta base; obtenemos entonces una base tan buena como la anterior w , = xn- ' , w, = A?-', ..., wi = Y-', ..., W, = 1. ~CU% a, con respecto a esta nueva base, la matriz de la misma transformaci6n lineal? Tenemos ahora,

= O w , + ( n - 1)w2+Ow, + ... +OW,

wi D = x n - i ~ = ( n - i ) x " - i - '

= O w , + + O w i + ( n - i ) w i + , + O w l + 2 + +Ow,

W, D = I L) = 0 = Ow, +Ow2+ +Own,

Page 270: Herstein   Algebra moderna

268 TRANSFORMACIONES LINEALES - lbp. 6

& donde m2 (D), la matriz de D en esta base es

Antes de terminar con este ejemplo, calculemos la matriz de D en otra base m h d e Vsobre F. Seau, = 1, u2 = l+x, u3 = l + x 2 ...., u, = I+x"-'; es fhcil verificar que u,, ..., u, forman una base & V sobre F. ~Cuhl es la matriz de D en esta base? Como

/O (n- 1) 0 0 0 O\

ulD = ID = 0 = 0u,+0u2+ ... +Ou, u2D= ( l+x )D= 1 = lul+Ou2 + ... +Ou, u3D = ( 1 + x 2 ) ~ = 2x = 2(u2-u1) = -2u1+2u2+Ou3+ ...+ Ou,

m2(D)=

0 0 (n-2) 0 ... 0 0

0 0 0 (n-3) .-. 0 0

0 ... ... . . . . . . . . . . -

... 0 0 0 ... 0 1

Por el ejemplo que hemos estudiado vemos que las matrices de D, para las tres bases usadas dependfan completamente de las bases. Aunque diferentes las unas de las otras representan, sin embargo, a-la rnisma trans-

... 0 0 0 0 0

la matriz m3(D) de D en esta base es

/ 0 o o . . . 0 0

I m3(D) =

1 0 0 ... 0 0

-2 2 10 ... 0 0

-3 0 3 0 0

. . . . 0 0

. . . . . 0 0

-(n-1) 0 0 - - - (n-1) 0

Page 271: Herstein   Algebra moderna

5 3. MATRICES 269

formaci6n lineal D, y podriamos haber reconstruido D partiendo de una a

cualquiera de ellas si conocitramos la base usada en su determinacibn. Pero, aunque diferente, seria de esperar que existiera alguna relaci6n entre ml(D), m2(D) y m,(D). Esta relaci6n sera la que determinaremos exacta- mente mas tarde.

Como la base a usar en cualquier ocasi6n puede ser cualquiera, dada una transformaci6n lineal T (cuya definicidn, desputs de todo, no depende de ninguna base) es natural que busquemos una base en que la matriz de T tenga una forma particularmente sencilla. Por ejemplo, si T es una trans- formaci6n lineal sobre V, que es n dimensional sobre F, y si T tiene n raices caracteristicas distintas A,, . . ., A,, en F, entonces, de acuerdo con el coro- lario 2 a1 teorema 6.f, podemos encontrar una base v, , . . ., v, de V sobre F tal que viT = A,vi. En esta base T tiene como matriz la de forma par- ticularmente sencilla,

Hemos visto que una vez que hemos escogido una base para V, a cada transformaci6n lineal se le asocia una matriz. Reciprocamente, una vez que hemos escogido una base fija v, , . . ., v, de V sobre F, una matriz dada

da lugar a una transformaci6n lineal T definida sobre V por vi T = 1 aijvj j

sobre esta base. Notese que la matriz de la transformaci6n lineal T que acabamos de construir en la base v, , . . ., v, es exactamente la matriz con la que comenzamos. Por tanto, toda posible ordenacidn en forma de cuadrado nos sirve como la matriz de alguna transformaci6n lineal en la base V1, . . ., 0".

Es claro lo que quiere decir cada una de las expresiones primer rengldn, segundo renglbn, ..., de una matriz, como analogamente, lo que debe entenderse por primera columna, segunda columna, . . . . En la matriz

Page 272: Herstein   Algebra moderna

270 TRANSFORMACIONES LINEALES - Cap. 6

el elemento a i j esti en el i-esimo renglon y j-esima columna; nos referimbs a tl como el elemento (i, j) (o la entrada (i, j)) de la matriz.

Escribir todo el arreglo cuadrado de la matriz es algo pesado; en lugar de ello escribiremos una matriz como (aiJ); esto indica que la entrada (i, j) de la matriz es aij.

Supongamos que V es un espacio vectorial de dimension n sobre F y v, , . . ., v, es una base de V sobre F que quedarh fija en toda la discusion que sigue. Supongamos que S y T son transformaciones lineales sobre V (y sobre F) con matrices m(S) = (aii) y m(T) = (riJ), respectivamente, en la base dada. Nuestro objetivo es aplicar la estructura algebraica de A(V) al conjunto de matrices que tienen sus entradas en F.

Para co menzar, como S = T si y solo si US = vT para todo VE V, se tiene que S = T si y solo si vi T = v i S para todos 10s v , , . . ., v, que forman una base de V sobre F. 0, lo que es equivalente, S = T si y so10 si ail = Ti] para todo i y todo j.

Dadas m(S) = (aiJ) y m(T) = (rij), ipodemos escribir explicitamente m(S+ T)? Como m(S) = (aiJ), v i S = 1 aiJv,; anilogamente, viT = 1

i i rijvi, de donde ui(S+ T) = v i S + v i T = x a i j ~ j + x rlivj = l ( a i i + rij)ui.

i i i Pero entonces, por lo que se entiende por matriz de una transformacion lineal en una base dada, m(S+ T) = (Aij) donde Ai j = aij+ r l j para toda i y toda j. Un chlculo de la misma clase muestra que para ye F, m(yS) = (piJ) donde pij = raii para toda i y toda j.

El c~lculo mis interesante, y tambitn el mhs complicado, es el de m(ST). Tenemos ahora vi(ST) = (0,s) T = ( x aikvk) T = x aik(vk T). Sin embargo,

k k

v, T = 1 rkivj ; lo que sustituido en la formula anterior, nos da i

(Prutbese). Por tanto, m(ST) = (vii), donde para todo i y para toda j, UiJ = 1 T k ~ -

k

A primera vista, la regla para calcular la matriz del producto de dos transformaciones lineales en una base dada parece complicada. Sin embargo, n6tese que la entrada (i,j) se obtiene como sigue: consideremos 10s renglones de S como vectores y las columnas de T como vectores; entonces la entrada (i, j ) de m(ST) es simplemente el producto punto de la i-isima fila de S con la j-6sima columna de T.

Ilustremos esto con un ejemplo. Supongamos que

Page 273: Herstein   Algebra moderna

13. MATRICES

Y

el producto punto del primer rengldn de S con la primera columna de T es (1) (- 1) +(2) (2) = 3, de donde la entrada (1, 1) de m(ST) es 3; el producto punto de la primera fila de S oon la segunda columna de T es (I) (0)+ (2) (3) = 6 , de donde la entrada ( l ,2) de m(ST) es 6 ; el producto punto del segundo renglon de S con la primera columna de T es (3) (- 1) +(4) (2) = 5, de donde la entrada (2, 1) de m(ST) es 5; finalmente, el producfo punto de la segunda fila de S con la segunda columna de T es (3) (0)+(4) (3) = 12, de donde la entrada (2,2) de m(ST) es 12. Asi pues,

La anterior discusion se ha hecho pensando principalmente en que sirviera de motivation para las construcciones que estamos a punto de presentar.

Sea F un campo; una matriz n x n sobre F sera'un arreglo en forma de cuadrado de elementos en F,

(que representamos por (aij)). Sea F,, = {(aij) I aij€F); en Fn queremos introducir la nocidn de igualdad entre sus elementos, una adicion, una multiplicacion escalar por elementos de F y una multiplicaci6n de forma que se convierta en un llgebra sobre F. Usamos las propiedades de m(T) para TE A ( V ) como nuestra guia en todo esto.

1) Afirmamos que (aij) = (Bij), cuando tenemos dos matrices en Fn, si y solo si ail = Bij para to& i y para toda j.

2) Definimos (ai,)+(Bii) = l i j ) donde lij = aij+Bij para to& i y para toda j.

3) Para yeF, definimos y(aij) = (pij) donde pij = yaij para to& i y para toda j.

4) Definimos (aij) (Bij) = (vij), donde para toda i y toda j vij = aikhj . k

Sea V un espacio vectorial de dimension n sobre F y sea v , , . . ., vn una base de V sobre F ; la matriz m(T) en la base v , , . . ., on asocia con TEA(V) un elemento m(T) en F,. Sin mls preambulo, afirmamos que la aplicacion de

Page 274: Herstein   Algebra moderna

272 TRANSFORMACIONES LINEALES - h p . 8

A ( V ) en F, definido al transformar T sobre m(T) es un isomorfismo de algebras de A(V) sobre F,. Por este isomorfismo F, es un algebra asociativa sobre F (corno puede tambikn verificarse directamente). Llamamos a F, el algebra de todas las matrices n x n sobre F.

Toda base de V nos provee de un isomorfismo de algebras de A(V) sobre F,. Es un teorema que todo isomofismo de algebras de A(V) sobre F, es obtenible de tal forma.

A la luz de la misma naturaleza espccifica del isomofismo entre A(V) y F, identificaremos a menudo una transformaci6n lineal con su matriz, en alguna base, y A ( V) con F, . En realidad, F, puede considerarse como A (V) actuando sobre el espacio vectorial V = F(") de todos 10s n-tuples sobre F, dondeparala baseu, =(1,0 ,..., O),v, =(0,1,0 ,..., 0) ,..., un=(O,O ,..., 0,1), (aij)€Fn actua como ui(aij) = i-ksima fila de (a,]).

Resumimos lo que se ha hecho en el siguiente

TEOREMA 6.~. El conjunto de todas las matrices n x n sobre F forma un algebra asociatiua F, sobre F. Si V es un espacio vectorial de dimensidn n sobre F, entonces A(V) y F, son isomorfos como algebras sobre F. Dada una base cualquiera u, , . . ., u, de V sobre F, si para TEA ( V), m (T) es la matriz de T en la base v, , . . ., u, , la aplicacibn T + m(T) nos proporciona un isomorfismo de algebras de A ( V) sobre F, .

El cero respccto a la adici6n en F, es la matriz cero todas cuyas entradas son cero; a menudg la representaremos simplemente por 0. La matriz uno, que es el elemento unitario de F, respecto a la multiplicacion, es la matriz cuyas entradas estan en la diagonal I y fuera de la diagonal 0; la represen- taremos por I, I, (cuando queramos enfatizar las dimensiones de las matrices) o simplemente como I. Para a € F, las matrices

(10s espacios en blanco indican solamente entradas iguales a 0) se llaman matrices escalares. Por el isomorfismo entre A ( V) y F, , es claro que TEA (V) es invertible si y s610 si m(T), como matriz, tiene inversa en F,.

Dada una transformacibn lineal TEA(V), si escogemos dos bases u, , . . ., u, y w,, . . ., w, de V sobre F, cada una da lugar a una matriz, a saber, m, (T) y m,(T), las matricesde Ten las bases u , , . . ., u, y w, , . . ., w,, respectivamente. Como matrices, es decir, como elementos del algebra de matrices F,, iquk relaci6n hay entre m, (T) y m,(T)?

TEOREMA 6.~. Si V es de dimensidn n sobre F y si TeA(V) tiene la matriz m, (T) en la base v , , . . ., u, y la matriz m,(T) en la base w, , . . ., w, de V

Page 275: Herstein   Algebra moderna

13. MATRICES 273

(ambas sobre F), entonces hay un elemenro CE F, tal que mz ( T) = Cm, (T)C- '. En realidad, si S es la transformacidn lineal de V dejnida por v,S = wi para i = 1,2, . . ., n, enronces podemos escoger como C a m, (S).

Prueba. Sea m,(T) = (a,,) y mz(T) = (Pi,); asi pues vIT = 1 aljuj, i

WIT = CBijw,. i

Sea S la transformaci6n lineal -sobre V definida por viS = wi. Como u , , .. ., u, y w,, .. ., w, son bases de V sobre F, S transforma V sobre V, de donde, segun el teorema 6.d, S es invertible en A(V).

Ahora bien, w,T = FBijwj; como wi = viS, a1 sustituir esto en la J

expresidn para w,T obtenemos (viS)T = 1 Bij(vjS). Pero entonces I

u,(ST) = ( 1 B,,v,)S; como S es invertible, esto se simplifica hasta obtener i

v,(STS- ') = 1 Bijvj. Por la misma definici6n de matriz de una trans- i

formaci6n lineal en unas bases dadas, m,(STS-') = Vij) = mz(T). Pero la aplicaci6n T+m,(T) es un isomorfismo de A ( V ) sobre F,; por tanto, ml (STS- ') = m, (S)m, (T)m, (S- ') = m, (S)m, (T)m, (S)- '. Reuniendo todo lo que hemos estado estudiando, obtenemos m2(T) = m,(S)m, (T)m, (S)- ', que es exactamente lo que se afirma en el teorema.

Ilustramos este irltimo teorema con el ejemplo de la matriz de D que antes estudiamos, en varias bases. Para minimizar el c8lcul0, suponemos que V es el espacio vectorial de todos 10s polinomios sobre F de grado 3 o menor, y D serh, como antes, el operador diferencial definido pro (a,+ a1x+a2x2+a3x3)D = a1+2a2x+3a3xZ.

2 Como anteriormente vimos, en la base v, = 1, v2 = x, v3 = x y v4 = x3, la matriz D es

En la base u, = 1, u2 = 1 +x, u3 = 1 +xZ, u4 = 1 +x3, la matriz de D es

Page 276: Herstein   Algebra moderna

274 TRANSFORMACIONES LINEALES - Cap. 6

Sea S la transformacibn lineal de V definida por u, S = w, (= v;), v 2 S = w2 = 1 + x = v , + v ~ , v ~ S = w3 = 1+x2 = u , + ~ ~ y a d e m d s v , S = w4 = 1 + x3 = v1 + v4. La matriz de Sen la base v1 , v2 , v3 , o, es

Un simple dlculo muestra que

Entonces

como debia ser, de acuerdo con el teorema. (Verifiquense todos 10s cilculos usados.)

El teorema afirma que, si conocemos la matriz de una transformacibn lineal en una base cualquiera, podemos calcularla en cualquier otra base, siempre que conozcamos la transformaci6n lineal (o matriz) del cambio de base.

Aun no hemos contestado la pregunta: &da una transformacibn lineal, ic6m0 se calculan sus raices caracteristicas? Esto llegard un poco mis tarde. Partiendo de la matriz de una transformaci6n lineal mostraremos

Page 277: Herstein   Algebra moderna

13. MATRICES 275

como construir un polinomio cuyas raices Sean precisamente la. rakes caracteristicas de la transformaci6n lineal.

Problemas

1. Calculense 10s siguientes productos de matrices:

2. Verifiquense todos 10s chlculos hechos en el ejemplo que ilustra el teorema 6.h.

3. Prutbese directamente en F,,, usando las definiciones de suma y producto, que

a ) A ( B + C ) = A B + A C ; b ) ( A B ) C = A ( B C ) ;

para A, B y C pertenecientes a F,, . 4. Prutbese en F2 para cualesquiera dos elementos A y B, que ( A B - BA)'

es una matriz escalar.

5. Sea V el espacio vectorial de 10s polinomios de grado menor o igual que 3 sobre F. Definase T en V por (a , + a , x + a 2 x 2 + a 3 x 3 ) T = a , + a , ( x + l ) + a , ( ~ + l ) ~ + a ~ ( x + l ) ~ . Calculese la matrizde Ten las bases:

a ) 1, x , x 2 , x 3 . b ) 1, I + x , I + x 2 , 1 + x 3 . c ) Si la matriz de la parte ( a ) es A y la en parte ( b ) es B, encukntrese

una matriz C tal que B = C A C - ' .

Page 278: Herstein   Algebra moderna

278 TRANSFORMACIONES LINEALES - Cap. 8

6. Sea V = F( , ) y supongamos que

es la matriz de T E A ( V ) en la base v , = (1, 0,O), v , = (0, I, 0) y v , = (0,0, I ). EncuCntrese la mkriz de 7 en las bases:

a) u, = (I, 1, 1), u2 = (0, 1,1), u3 = (0,0, 1).

b) ul = (1, u2 = (1,2,0), u3 = (1, 2, 1).

7. PruCbese que &da la matriz

(donde la caracteristica de F no es 2), entonces:

a) A 3 - 6 A 2 + I I A - 6 = 0.

b) Existe una matriz C E F , tal que

8. PruCbese que es imposible encontrar una matriz C E F , tal que

para cualesquiera a, BE F.

9. Una matriz A E F, se dice que es una matriz diagonal si todas las entradas fuera de la diagonal principal de A son 0, es decir, si A = (aij) y a,j = 0 para i # j. Si A es una matriz diagonal tal que sus entradas sobre la diagonal principal son todas distintas, encudntrense to&s las matrices BEF, que conmutan cor. A, es decir, encutntrense todas las ma- trices B tales que BA = AB.

10. Usando el resultado del problema 9, pruCbese que solo las matrices en F, que conmutan con todas las matrices de F, son matrices escalares.

Page 279: Herstein   Algebra moderna

13. MATRICES

11. Sea AEF, la matriz

todas cuyas entradas, except0 las de la superdiagonal, son 0, y cuyas entradas sobre la superdiagonal son todas iguales a 1. Prukbese que A" = 0 per0 An- 1 # 0.

*12. Si A es como en el problema 11, encukntrense todas las matrices en F, que conmutan con A y demukstrese que deben ser de la forma a,+ a , A + a 2 A 2 + ... + a , - l A " - l donde a, , a , , . . ., a, - , EF.

13. Sea AEF, y sea C ( A ) = {BEF, 1 AB = BA). Sea C ( C ( A ) ) = { G E F , I GX = XG para todo X E C ( A ) ) . Prukbese que si G E C ( C ( A ) ) entonces G es de la forma a, + a , A, donde a, , a , EF.

14. Resuklvase el problema 13 para A E F ~ probando que toda G E C(C(A) ) es de la forma a, + a , A + a 2 A2.

15. Definamos las matrices Eij en F, como sigue: Ei, es la matriz cuya finica entrada distinta de cero es la (i, j) que es igual a 1. Prukbese que:

a ) Las Eij forman una base de F, sobre F. b) EijEk, = 0 para j # k ; EIjEj[ = E,,. c) Dadas i y j, existe una matriz C tal que CE, ,C- ' = E j j . d ) Si i # j, existe una matriz C tal que C E I j C - ' = E l , . e ) Encudntrense todas las BEF, que conmutan con E l l . f ) Encudntrense todas las BE F, que conmutan con E l l .

16. Sea F el campo de 10s numeros reales y sea C el campo & 10s n~meros complejos. Para a e C sea T,: C + C dada por xT, = xu, para todo XEC. Usando la base 1, i encudntrese la matriz de la transformaci6n lineal T, y obtdngase asi una representacion isom6rfica de 10s numeros complejos como matrices 2 x 2 sobre el c a m p de 10s numeros reales.

17. Sea Q el anillo con divisi6n & 10s cuaternios sobre el c a m p real. Usando la base 1, i, j, k de Q sobre F, prockdase como en el problema 16 para encontrar una representaci6n isom6rfica & Q por matrices 4 x 4 sobre el campo de 10s numeros reales.

Page 280: Herstein   Algebra moderna

278 TRANSFORMACIONES LINEALES - Cap. 6

*IS. Combinense 10s resultados de 10s problemas 16 y 17 para encontrar una representaci6n isom6rfica de Q por matrices 2 x 2 sobre el campo de 10s n~imeros complejos.

19. Sea 3?l el conjunto de todas las matrices n x n que tienen entradas 0 y 1 de tal forma que hay un tinico I en cada rengl6n y en cada columna. (Tales matrices se llaman matrices de permutacidn.)

a) Si M E 92l describase A M en tkrminos de 10s renglones y las columnas de A:

b) Si M e m describase MA en tCrminos de 10s renglones y las columnas de A.

20. Sea ?ll como en el problema 19. Pruebese que : a) fli tiene n! elementos. b) Si M E .m. entonces es invertible y su inversa esta tambien en 221. c) Proporci6nese la forma explicita de la inversa de M . d) Prukbese que es un grupo respecto a la multiplication de

matrices. e) PruCbese que nri es isomorfo, como grupo, a S,, el grupo simetrico

de grado n.

21. Sea A = (aij) tal que para todo i, C aij = 1 . PruCbese que I es i

una raiz caracteristica de A (es decir, que A - I no es invertible).

22. Sea A = (aij) tal que para todo j, 1 aij = I . Pruebese que I es una raiz caracteristica de A. i

23. EncuCntrense las condiciones necesarias y suficientes que a, 8, y y 6

han de cumplir para que A = (; $) sea invertible. Para 10s casos en que A

es invertible, escribase A- ' explicitamente.

24. Si EeF, es tal que EZ = E # 0. prutbese que hay una matriz CEF, tal que

donde la matriz unidad en la parte superior izquierda es r x r, donde r es el rango de E.

Page 281: Herstein   Algebra moderna

14. FORMAS CANONICAS: FORMA TRIANGULAR 279

25. Si F es el campo real, prutbese que es imposible encontrar matrices A, B pertenecientes a F, tales que AB- BA = 1.

26. Si F es de caractedstica 2, prutbese que en F, es posible encontrar matrices A, B tales que AB-BA = 1.

27. La matriz A se llama triangular si todas las entradas sobre la diagonal principal son 0. (Si todas las entradas debajo de la diagonal principal son 0 la matriz tambitn se llama triangular.)

a) Si A es triangular y ninguna entrada en la diagonal principal es 0, prutbese que A es invertible.

b) Si A es triangular y una entrada en la diagonal principal es 0, prutbese que A es singular.

28. Si A es triangular, prutbese que sus rdces caracteristicas son precisamente 10s elementos en su diagonal principal.

29. Si Nk = 0, NEF,, prutbese que 1 + N es invertible y encutntrese su inversa como un polinornio en N.

30. Si A E F, es triangular y todas las entradas en'su diagonal principal son iguales a 0, prutbese que A" = 0.

31. Si AEF, es triangular y todas las entradas en su diagonal principal son iguales a a # OE F, encutntrese A- '.

32. Sean S, T transformaciones lineales sobre V tales que la matriz de S en una base es igual a la matriz de T en otra. Prutbese que existe una transformacibn lineal A sobre V tal que T = ASA- '.

4. FORMAS CAN~NICAS: FORMA TRIANGULAR

Sea V un espacio vectorial n-dimensional sobre un campo F.

DEFINIC~~N. Las transformaciones lineales S, TEA(V) se dice que son semejantes si existe un elemento invertible CEA(V) tai que T = CSC- '.

En vista de 10s resultados de la seccibn 3, esta definicibn se traduce en una acerca de las matrices. En realidad, como F, actca como A(V) sobre F'"), la delhicibn anterior define ya una semejanza entre matrices. Por ella, A, BEF, son semejantes si existe una CGF, invertible tal que B = CAC- ' La relacibn sobre A(V) delinida por la semejanza es una relacibn de

equivalencia; la clase de equivalencia de un elemento se llamar6 su clase de semejanza. Dadas dos transformaciones lineales, ~ d m o podemos de- teminar si son o no semejantes? Desde luego, podiamos examinar la clase de semejanza de una de estas para ver si la otra se encuentra en ella,

Page 282: Herstein   Algebra moderna

280 TRANSFORMACIONES LINEALES - Cap. 6

pero este procedimiento no es realizable. En su lugar, intentaremos estableeer alguna clase de seiial en cada clase de semejanza y un amino para ir de cualquier elemento de la clase a su sefial. Probaremos la existencia de transformaciones lineales en cada clase de semejanza cuya matriz, en alguna base, es de una forma particularmente conveniente. Estas matrices se llamaran formas candnicas. Para determinar si dos transformaciones lineales son semejantes no necesitaremos otra cosa que calcular una forma can6nica particular para cada una y comprobar si estas son las mismas.

Hay muchas posibles'formas can6nicas; solo consideraremos nosotros tres de Cstas, a saber, la forma triangular, la forma de Jordan y la forma can6nih rational, en Csta y las siguientes dos secciones.

DEFINICI~N. El subespacio W de V es invariante bajo T E A ( V ) si WT c W.

LEMA 6.6. Si W c V es invariante bajo T, entonces T induce una trans- formacidn lineal T e n V/ W definida por (v+ W)T = vT+ W. Si T satisface el polinomio q ( x ) ~ F [ x ] , entonces tambibn lo satisface T, Si p, ( x ) es el polinomio minimo para 'P sobre F y si p(x) es el polinomio rninimo para T, entonces p, ( x ) 1 p (x) .

Prueba. Sea 7 = V/ W; 10s elementos de 7 son, por supuesto, las clases laterales v+ W de W en V. Dados 6 = u+ W E P definimos 6T = vT+ W. Verificar que T tiene todas las propiedades formales de una transformaci6n lineal sobre V es una facil tarea una vez que se ha establecido que Testa bien dejnida sobre V. Nos contentaremos, pues, con probar este hecho.

Supongamos que 6 = v, + W = v, + W donde v, , v2 E V. Debemos probar que v, T+ W = v2 T + W. Como v,+ W = v,+ W, v,-v, debe estar en W, y como W es invariante bajo T, (v , -v,) T debe estar tambiCn en W. Por consiguiente 0 , T-v, T E W, de donde se sigue que v, T+ W = u, T+ W, como queriamos probar. Sabemos ahora que T define una trans- formaci6n lineal sobre V = V / W.

Si 6 = v+ WE^, entonces 6(p) = vTZ+ W = (vT)T+ W = (vT+ W) T = ((v + W) T ) T = 6 ( Q 2 ; asi pues (?) = (T)'. Anhlogamente m= (T)k para cualquier k 2 0. Por consiguiente, para cualquier polinomio q ( x ) ~ F[x], q(T) = q(T). Para cualquier q ( x ) ~ F [ x ] con q ( T ) = 0, como 6 - es la transformacibn 0 sobre V, 0 = q ( T ) = q ( T )

Sea p,(x) el polinomio minimo sobre F satisfecho por T. Si q ( T ) = 0 para q ( x ) ~ F[x], entonces p , ( x ) 1 q(x). Si p(x) es el polinomio rninimo para T sobre F, entonces p ( T ) = 0, de donde p(T) = 0; en consecuencia, P l W I P(x).

Como vimos en el teorema 6.f, todas las raices caracteristicas de T que se encuentran en F son raices del polinomio rninimo de T sobre F. Decimos

Page 283: Herstein   Algebra moderna

14. FORMAS CANONICAS: FORMA TRIANGULAR 281

que todas las raices caracteristicas de T e s t h en F si todas las raices del - polinomio rninimo de T sobre F se encuentran en F.

En el problema 27 a1 final de la liltima seccion, definimos como matriz triangular a toda aquella que tenga todas sus entradas sobre la diagonal principal iguales a 0. 0 lo que es lo mismo, si T es una transformacion lineal de V sobre F, la matriz de Ten la base v , , . . ., v,, es triangular si

~1 T = all?, u,T = a,,o,+a,,v,

es decir, si vi T es una combination lineal solamente de vi y sus predecesores en la base.

TEOREMA 6.~. Si TEA ( V) tiene todas sus raices caracteristicas en F, enton- ces hay una base de V en que la matriz de T es triangular.

Prueba. La prueba se hace por induccibn sobre la dimension de Vsobre F. Si dimF V = I entonces todo elemento en A(V) es un escalar y, por

tanto, para tal caso el teorema es cierto. Supongamos que el teorema es cierto para todos 10s espacios vectoriales

sobre F de dimension n - I, y sea V de dimension n sobre F. La transformacion lineal T sobre V tiene todas sus raices caracteristicas

en F ; sea I, E F una raiz caracteristica de T. Existe en V un vector v, distinto de cero tal que u, T = I, v,. Sea W = {av, 1 aEF}; W es un subespacio unidimensional de V, y es invariante bajo 7: Sea V = V/ W ; por el lema 4.8, dim V = dim V- dim W = n - 1. De acuerdo con el lema 6.6, T induce una transformacion lineal Tsobre Vcuyo polinomio minimo sobre F divide a1 po\inomio minimo de T sobre F. Asi pues, todas las raices del polinomio minimo de Tpor raices del polinomio minimo de T, deben encontrarse en F. La transformacion lineal T en su accion sobre V satisface la hipotesis del teorema; como V es (n- 1)-dimensional sobre F, por nuestra hip6tesis de induccion, existe una base i,, i,, . . ., 6, de Vsobre F tal que:

5, T = a,, 6, i3 T = a,, i, + a,, 6,

Sean v,, ..., u, elementos de V que se transforman en 6, ...., fin, respectiva- mente. Entonces c , , v,, . . ., v,, forman una base de V (ver el problema 3

Page 284: Herstein   Algebra moderna

282 TRANSFORMACIONES LINEALES - Cap. 6

a1 final de esta section). Como 6, T = a,, 6,, 6, T-a,, fi, = 0, de donde 0, T-a,, 0, deben estar en W. Asi pues, 0, T-a,, v, es un m6ltiplo & v, , digamos a,, v, , de donde tenemos, despuCs de trasponer, v, T = a,, v, + a,, v,. Anhlogamente, vi T-ai2v, -ai3 v3 - . . . -aiiviE W, de donde vi T = ail v1 + ai2 V, + . . . +alivi. La base ul , . . ., v, de V sobre F nos proporciona una base respecto a la cual todo vi T es una combinaci6n lineal de vi y sus predecesores en la base. Por lo tanto, la matriz de Ten esta base es triangular. Esto completa la inducci6p y prueba el teorema.

Queremos reformular el teorema 6.j para matrices. Supongamos que la matriz AEF, tiene sus raices caracteristicas en F. A define una transforma- ci6n lineal T sobre F cuya matriz en la base

v, = (l,O, ..., O), v2 = (0, l,O, . . a , O), ..., v, = (0, 0, ..., 0, 1),

es precisamente A. Las raices caracteristicas de T, siendo iguales a las & A, estAn todas en F, de donde, seg6n el teorema 6.j, hay una base en F(") en la que la matriz de T es triangular. Pero, de acuerdo con el teorema 6.h, este cambio de base varia simplemente la matriz de T, es decir, la A, en la primera base, en CAC- ' para una C adecuada C c F, . Asi pues

FORMA ALTERNADA DEL TEOREMA 6.1. Si la matriz AEF, tiene todas sus raices caracteristicas en F, entonces hay una matriz CEF, tal que CAC- ' es una matriz triangular.

El teorema 6.j (en cualquiera de sus formas) se describe usualmente diciendo que T (o A) puede ser llevada a una forma triangular sobre F.

Si volvemos nuestra mirada a1 problema 28, a1 final de la secci6n 3, veremos que despuCs de que T se ha llevado a la forma triangular, 10s elementos de la diagonal principal de su matriz juegan el siguiente signifi- cativo papel : son precisamente las raices caracteristicar de T.

Concluimos la secci6n con el . TEOREMA 6 . ~ . Si V es n-dimensional sobre F y si TEA(V) tiene todas sus

raices caracteristicas en F, entonces T satisface un polinomio de grado n sobre F.

Prueba. De acuerdo con el teorema 6.j, podemos encontrar una base v,, . . ., v, de V sobre F tal que:

v, T = Alv,

v2 T = v1 +A2u2

viT = allv,+ ... +al, l-,vi-l+Alvl

para i = 1, 2, . ., n.

Page 285: Herstein   Algebra moderna

14. FORMAS CANONICAS: FORMA TRIANGULAR

0 lo que es equivalente:

para i = I, 2, ..., n. 'Que es v2(T-A,) ( T - A , ) ? Como resultado de v 2 ( T - I , ) = a , , v , y

r , ( T - A , ) = 0, obtenemos r2(T-A,) ( T - R , ) = 0. Como

La continuacion de este tip0 de calculo nos lleva a:

L'I(T--Ii) ( T - A i - , ) ... ( T - A , ) = 0,

rz(T-Ai) (T-Ai- 1 ) . . . ( T - I , ) = 0, . . .,

ui ( T - I i ) ( T - l i - ... ( T - A , ) = 0.

En particular, para i = n, la matriz S = ( T - An) (T-A,- ,) . . . ( T - I , ) satisface r , S = L', S = . . . = rn S = 0. Como S suprime una base de V, S tiene que suprimir tambitn a todo V. Por lo tanto, S = 0. Por consiguiente, T satisface el polinomio ( x - A , ) ( x - 2 , ) .. . ( x - I n ) en F[x] de grado n, con lo que el teorema queda probado.

Desgraciadamente esta en la naturaleza de las cosas que no to& trans- formation lineal sobre un espacio vectorial sobre todo campdF tenga todas sus raices caracteristicas en F. Que tal ocurra depende totalmente del campo F. Por ejemplo, si F es el campo de 10s numeros reales, entonces la ecuacion minima de

sobre F es x2 + 1 que no tiene raiz alguna sobre F. No tenemos, pues, ningun derecho a suponer que las raices caracteristicas se encuentren siempre en el campo en cuestion. Pero, podemos p.reguntarnos, ;no podemos ampliar ligeramente F hasta un nuevo campo K de mod0 que todo trabaje muy bien sobre K?

Haremos la discusion para matrices; lo mismo podria hacerse para transformaciones lineales. Lo que se necesitaria seria lo siguiente: dado un espacio vectorial V sobre un campo F de dimension n, y dada una extension K de F, entonces podemos sumergir V en un espacio vectorial V, sobre K

Page 286: Herstein   Algebra moderna

284 TRANSFORMACIONES LINEALES - Cap. 4

de dimension n sobre K. Una forma de hacer esto seria tomar una base c , , . .., v, de V sobre F y considerar V, como el conjunto de todos 10s a, v , + . . . +anon con las a,€K, considerando las vi linealmente indepen- dientes sobre K. Este pesado uso de una base es antiestktico; todo puede hacerse de mod0 independiente de toda base si introducimos el concept0 de product0 tensorial de espacios vectoriales. No lo haremos aqui; en su lugar argumentaremos con matrices (lo que es efectivamente el camino delineado anteriormente usando una base fija de V).

Consideremos el algebra F,. Si K es cualquier extension del campo de F, entonces F, c K,, el conjunto de las matrices n x n sobre K. Asi pues, cualquier matriz sobre el campo F puede considerarse como una matriz sobre K. Si TE F, tiene el polinomio minimo p(x) sobre F, considerada como un elemento de K, puede concebiblemente satisfacer a un polinomio diferente po(x) sobre K. Pero entonces po(x) 1 p(x), ya que po(x) divide a todos 10s polinomios sobre K (y, por tanto, a todos 10s polinomios sobre F) que son satisfechos por T. Especializamos ahora a K. Por el teorema 5.h existe una extension finita K, de F e n la cual el polinomio minimo p(x), para T sobre F tiene todas sus raices. Como elemento de K,, itiene T, para esta K, todas sus raices caracteristicas en K? Como elemento de K, el polinomio minimo de T sobre K, po(x), divide a p(x) de mod0 que todas las raices de po(x) son raices de p(x) y, por tanto, se encuentran en K. Por consiguiente, como elemento de K,, T tiene todas raices caracteristicas en K.

Asi pues, dada Ten F,, a1 irnos a1 campo de descomposici6n K, de su polinomio minimo llegamos a la situacion en que las hip6tesis de 10s teoremas 6.j y 6.k se satisfacen, no sobre F, sino sobre K. Por lo dicho, T puede, por ejemplo, ser llevada a la forma triangular sobre K y satisface un polinomio de grado n sobre K. A veces, cuando tenemos Yerte, sabiendo que cierto resultado es cierto sohre K podemos limitarnos a'F y saber que el resultado es tambikn verdadero sobre F. Pem llegar hasta $no es ninguna panacea, pues hay situaciones frecuentes donde 10s resultados para K no implican nada para F. Es por esto por lo que tenemos dos tipos de teoremas de "formas canonicas", aquellos en que se supone en que todas las raices caracteristicas de T se encuentran en F y aquellos en que no se hace tal supuesto.

Una palabra fina1;'si TEF,, por la frase "una raiz caracteristica de T" entenderemos un elemento A del campo de descomposici6n K del polinomio minimo p(x) de T sobre F tal que A- T no es invertible en K,. Es un hecho (vCase el problema 5) que toda raiz del polinomio minimo de T sobre F es es una raiz caracteristica de T.

Problemas

1. Prudbese que la relaci6n de semejanza es una relaci6n de equivalencia en A(V) .

Page 287: Herstein   Algebra moderna

14. FORMAS CANONICAS: FORMA TRIANGULAR 285

2. Si TEF, y si K 3 F, pmibese que como un elemento de K,, T es invertible si y so10 si es ya invertible en F,.

3. En la pmeba del teorema 6.j pruebese que v, , . . ., v, es una base de V.

4. Proporcionese una prueba, usando c6lculo matricial, que si A es una matriz triangular n x n con entradas I, , . . ., A,, sobre la diagonal, entonces

(A-Al)(AyA2) ... (A-A,,) = 0.

*5. Si TEF, tiene p(x) como polinomio minimo sobre F, pmebese que toda raiz de p(x) en su campo de descomposicion K, es una raiz caracteristica de T.

6. Si TEA(V) y si AEF es una raiz caracteristica de T en F, sea UA =

{VE V I vT = Iv). Si SEA(V) conmuta con T, prukbese que U, es invariante bajo S.

*7. Si 32i es un conjunto conmutativo de elementos en A(V) tales que toda ME TE tiene todas sus raices caracterlsticas en F, pmebese que hay un CEA(V) tal que toda CMC- ', para ME 32i esth en forma triangular.

8. Sea W un subespacio de V invariante bajo TEA ( V). Cuando restrin- gimos T a W, T induce una transformacion lineal T(definida por w T = wT para toda we W). Sea p(x) el polinomio minimo de f'sobre F.

N

a) Pruebese que p(x) 1 p(x), el polinomio minimo de T sobre F. b) Si T induce T sobre VIW, con T satisfaciendo el polinomio minimo p(x) sobre F, prukbese quep(x) I F(x)p(x).

*c) Si P(x) y p(x) son primos relativos, prukbese quep(x) = P(x)F(x). *d) Proporci6nese un ejemplo de un T para el quep(x) # P(x)p(x).

9. Sea 322 un conjunto no vaclo de elementos en A(V),; el subespacio W c V se dice que es incariante bajo 31i si para todo ME 373, WM c W. Si W es invariante bajo 32i y es de dimension r sobre F, prukbese que existe una base de V sobre F tal que todo ME :XI tiene una matriz, en esta base, de la forma

donde M, es una matriz r x r y M2 es una matriz (n-r) x (n-r).

10. En el problema 9 probamos que M, es la matriz de una transforma- ci6n fi inducida por M sobre W, y que M2 es la matriz de la transformaci6n lineal inducida por M en V/ W.

*11. El conjunto no vacio 377 de transformaciones lineales en A(V) se llama conjunto irreducible si 10s subespacios de V invariantes bajo 373 son

Page 288: Herstein   Algebra moderna

286 TRANSFORMACIONES LINEALES - Cap. 6

(0) y V. Si XI es un conjunto irreducible de transformaciones lineales sobre i/ y si

D = {TEA(V) 1 TM = MT para to& ME .XI,

prukbese que D es un anillo con division.

*12. Resutlvase el problema I 1 usando el resultado (lema de Schur) del problema 14, final del capitulo 4.

*13. Si F es tal que todos 10s elementos de A(V) tienen todas sus raices caracteristicas en F, prutbese que el D del problema 1 1 consiste solamente en escalares.

14. Sea F el campo de 10s nlimeros reales y sea

a) Prutbese que el conjunto 7ll consiste solamente en

es un conjunto irreducible. b) Encutntrese el conjunto D de todas las matrices que conmutan

con

y prutbese que D es isomorfo al campo de 10s nlimeros complejos.

15. Sea F el campo de 10s nlimeros reales. a) Prutbese que el conjunto

es un conjunto irreducible. b) Encukntrense todas las AEF, tales que AM = MA para to&

ME fll. C) Prutbese que el conjunto de todas las A de la parte (b) es un

anillo con division isomorfo a1 anillo con division de 10s cuaternios sobre el campo real.

Page 289: Herstein   Algebra moderna

1 5. FORMAS CANONICAS: TRANSFORMACIONES NILPOTENTES 287

16. Un conjunto de transforrnaciones lineales, !XIc A(V), se llama descomponible si hay un subespacio W c V tal que V = W e W, , W # (0), W # V, y tanto W corno W, son invariantes respectoa TI. Si !XI no es descornponible se llama indescomponible.

a) Si TI es un conjunto descornponible de transformaciones lineales sobre V, prutbese que hay una base de V en que todo ME !XI tiene una matriz de la forrna

don& M, y M, son matrices cuadradas. b) Si V es un espacio vectorial n-dimensional sobre F y si TEA(Y)

satisface Tn = 0, pero Tn- ' # 0, prutbese que el conjunto {T) (consistente en T) es indescornponible.

17. Sea TEA(V) y supongarnos que p(x) es el polinomio rninirno para T sobre F.

a) Si p(x) es divisible por dos distintos polinornios irreducibles p, (x) y p,(x) en F[x], pruCbese que {T) es descomponible.

b) Si para algdn TEA(V) es descomponible {T), pruCbese que el polinornio rninimo para T sobre F es la potencia de un polinornio irreducible.

18. Si TEA(V) es nilpotente, prutbese que T puede ser puesto en forrna triangular sobre F y en esa forrna todos 10s elernentos de la diagonal son 0.

19. Si TEA ( V) tiene solarnente 0 corno una raiz caracteristica, prutbese que T es nilpotente.

5. FORMAS CAN~NICAS: TRANSFORMACIONES NILPOTENTES

Una clase de transformaciones lineales que tienen todas sus raices carac- teristicas en F es la clase de las nilpotentes, pues corno todas sus raices caracteristicas son 0, es evidente que todas esdn en F. Por tanto, por el resultado de la secci6n previa, una transforrnaci6n lineal nilpotente puede siempre ser puesta en forrna triangular sobre F. Para algunos propcisitos, esto no es suficientemente agudo, y corno veremos pronto, puede decine bastante mas.

Aunque la clase de las transforrnaciones lineales nilpotentes es bastante restringida, la verdad es que merece un estudio solo por sus propios rntritos. Pero, lo que adn es mas importante para nuestros propbsitos, una vez que

Page 290: Herstein   Algebra moderna

288 TRANSFORMACIONES LINEALES - Cap. 6

hemos encontrado una buena forma canonica para ellas, nos es facfi encontrar una buena forrna canonica para todas las transformaciones lineales que tienen todas sus raices caracteristicas en F.

Una palabra acerca del metodo que seguiremos en esta seccion. Podriamos estudiar estos problemas "b8sicos" o podriamos basarnos en 10s resultados acerca de la descomposicion de modulos que obtuvimos en el capitulo 4. Nos hemos decidido por un compromiso entre ambas posibilidades; estudiaremos el material en esta seccion y en la siguiente (sobre formas de Jordan) independientemente de la nocion de modulo y 10s resultados acerca de modulos desarrollados en el capitulo 4. Pero en la seccion que trata de la forma candnica racional cambiaremos completamente de punto de vista, introduciendo por medio de una transformacidn lineal dada una estructura de modulo sobre el espacio vectorial bajo discusion; haciendo uso del teorema 4.j tendremos, entonces, una descomposicion de un espacio vec- torial, y la forma can6nica resultante correspondiente a una transformacibn lineal dada.

Incluso aunque no usemos un enfoque basado en la teorla de modules, por ahora, el lector debe darse cuenta de la analogia entre 10s argumentos usa- dos en la prueba del teorema 4.j con 10s utilizados para probar el lema 6.10.

Antes de concentrar nuestros esfuerzos sobre transformaciones nilpo- tentes probemos un resultado de inter& que verifica transformaciones lineales cualesquiera.

LEMA 6.7. Si V = V, @ V2@ . . . @ Vk, donde cada espacio Vi es de dimensibn nl y es invariante bajo T, un elemento de A(V), entonces puede encontrarse una base de V tal que la matriz de Ten esta base sea de la fo rm

donde cada A , es una matriz n, x n, y es la matriz de la transformacidn lineal inducida por T sobre Vi.

Prueba. Escojamos una base de V como sigue: v,( '), . . ., u, (') es una base de V,, v , ( ~ ) , ..., G, es una base de V2, y asi sucesivamente. Como cada V, es invariante bajo T, oi') TE Vi, luego es una combination lineal de ul('), . . ., on, ('), y solamente de ellos. Asl pues, la matriz de Ten la base asi escogida es de la forma deseada. Que cada A , es la matriz de Ti, la trans- formacibn lineal inducida sobre Vi por TI es claro por la misma definicibn & matriz de una transformation lineal.

Page 291: Herstein   Algebra moderna

16. FORMAS CANONICAS: TRANSFORMACIONES NILPOTENTES 289

Limitamos ahora nuestra atencion a las transformaciones nilpotentes.

LEMA 6.8. Si T E A ( V) es nilpotente, entonces r , + r l T+ . . . +am Tm, donde /as m i € F, es inrertible si a, # 0.

Prueba. Si S es nilpotente y r , # OEF, un simple chlculo muestra que

si S r = 0. Ahora bien, si T r = 0, S = a1T+a,T2+ ... + a m F debe tambien satisfacer Sr = 0 (prukbese). Luego para a, # 0 en F, a, + S es invertible.

NOTACION. M, denotara la matriz t x t

cuyas entradas son 0, except0 en la superdiagonal donde todas son 1. .

DEFINICI~N. Si TEA(V) es nilpotente, entonces a k le llamamos fndice de nilpotencia de T si T k = 0 pero T k - ' # 0.

El resultado clave respecto a transformaciones nilpotentes es

TEOREMA 6 . ~ . Si TEA(V) es nilpotente, de indice de nilpotencia n,, entonces puede encontrarse una base de V tal que la matriz de T en esta base tenga la forma

" ' M,,

donden, a n 2 > ... >nrydonden,+n2+ ... +nr = dim, V.

Prueba. La prueba sera un poco detallada, de mod0 que a1 hacerla separaremos algunas sus de partes como lemas.

Page 292: Herstein   Algebra moderna

290 TRANSFORMACIONES LINEALES - Cap. 6

Como T n l = 0 pero T n l - ' # 0, podemos encontrar un vector L'E V <a1 que oTnl - ' # 0. Afirmamos que 10s veciores v, vT, . . ., v T n l - ' son lineal- mente independientes sobre F. En efecto, supongamos que c x , i5+cx2 rT+ . . . +an,vTn' - ' = 0 donde las a,€ F; sea a, la primera a distinta de cero. Tenemos entonces

vTs-'(a,+a,+,T+ ... + a n , T n l - 7 = 0.

Como a, # 0, por el lema 6.8, as+ as+, T+ . . . +cxnl Tnl-"s invertible y, por tanto, vTS- ' = 0. Pero s < n , , luego esto contradice que cTnl - ' # 0. Luego ninglin a, distinto de cero existe y v, cT, . . ., v T n l - se ha mostrado son linealmente independientes sobre F.

Sea V , el subespacio de V generado por v , = L', r , = vT, ..., L?,, = rTn ' - I ; V I es invariante bajo T y, en la anterior base, la transforrnacion lineal inducida por T sobre V , tiene como matriz Ma, .

Hasta el momento hemos producido la esquina superior izquierda de la matriz del teorema. Debemos, de alguna forma, producir el resto de esta matriz.

LEMA 6.9. S i U E V l es ral que u T " ' - ~ = 0, donde 0 < k < n , , entonces u = uo T k para algtjn u , ~ V l .

Prueba. Como U E V , , u = a , v+a,uT+ . . . + a , u ~ ~ - ' + c x k + , L ; T ~ + . . . + ( X , ~ L ' T " ~ - ~ . Asi pues, O = uTnl-' = a , VT"~- ,+ ... + a k r ~ " l - ' . Pero r T n l - k , . . .. cTn' - ' son linealmente independientes sobre F, de donde c x , = cx2 = ... = ak = 0, y por lo tanto, u = a,+, UT'+ ... +anluTnl - ' = u o T k , donde uo = ak+,r.+ ... +a n I v T " ~ - ~ - ' E V , .

El argumento, hasta el momento, no ha sido nada complicado. Se hace ahora un poco mhs denso.

LEMA 6.10. Exisre un subespacio W de V , invarianre bajo T , ral que v = V , @ W.

Prueba. Sea W un subespacio de V, de la mayor dimension posible, tal que:

I) V , n W = (0) 2) W es invariante bajo T.

Queremos ahora demostrar que V = V , + W. Supongamos que asi no fuera; entonces existiria un elemento Z E V tal que 2 4 V , + W. Como T n l = 0, existe un entero k, 0 < k < n , tal que Z T ~ E V I + W y tal que Z T ' ~ V , + W para i < k. Asi pues, ZT" = u+w donde U E V , y W E W. Pero entonces 0 = zTnl = ( z T ~ ) T I I \ - ~ = u T " I - ~ + wTnl- '; pero, como tanto V , como W

Page 293: Herstein   Algebra moderna

1 5. FORMAS CANONICAS: TRANSFORMACIONES NILPOTENTES 291

son invariantes bajo T, uTnl -'E V, y wTnl -'E W. Como V, n W = (0) esto nos dice que UT"'-& = - WT" ' -~E V, n W = (O), de donde uTnl-' = 0. Segun el lema 6.9, u = uo Tk para algun u , ~ V, ; por tanto zTk = u+w = uoTk+ul. Seaz, = z-uo;entoncesz, Tk = z T ' - u , ~ ~ = u-~W,ycomo W es un invariante bajo T esto implica z, Tm6 W para toda m> k. Por otra parte, si i < k, z, Ti = zTi-uo Ti$ W+ W, pues de otra forma zTi deberia estar en V, + Wen contra de la eleccion de k.

Sea W, el subespacio de V generado por W y z, , z, T, . .., z, Tk- '. Como z, 4 W, y como W, 2 W, la dimension de W, debe ser mayor que la de W. Ademas como z, T'E W y como W es invariante bajo T, W, debe ser invariante bajo T. Por la naturaleza maxima de W debe haber un elemento de la forma ~ ~ ~ + a , z , +a2z, T+ ... +akz, Tk-I # 0 en W, n V, donde woe W. NO todos 10s a , , ..., a, pueden ser cero; de otra forma tendriamos 0 # woe Wn V, = (O), una contradiccion. Sea a, el primer a distinto de cero; entonces wo+z, T'- '(a,+a,+, T+ . .. +ak Tk-')e V,. Como a, # 0, por lema 6.8, a,+a,+, T+ ... +a,Tk-' es invertible y su inversa R, es un polinomio en T. Por tanto, W y V, son invariantes bajo R; pero, por lo anterior, woR+z, T"- ' E VI R c V, , lo que obliga a que z, Ts-' E V, + WR c V, + W. Como s- I < k esto es imposible; por tanto V, + W = V. Como V, n W = (0), V = V, @ W, y el lema queda probado.

El trabajo pesado, por el momento, se termin6; ahora vamos a completar la prueba del teorema 6.1.

Segun el lema 6.10, V = V, @ W donde W es invariante bajo T. Usando las bases L',, . . .. o,, de V, y cualquier base de W como una base de V, por el lema 6.7, la matriz de Ten esta base tiene la forma

donde A , es la matriz de T,, la transforrnacion lineal inducida sobre W por T. Como T"' = 0, TZn2 = 0 para algun n, < n, . Repitiendo el argument0 usado para T, sobre W podemos descomponer W como hicimos con V (0, aplicar induction sobre la dimension del espacio vectorial de hue tratemos). Continuando este camino obtenemos una base de V en que la ~rlatriz de T es de la forma

Que n, +n, + . . . +n, = dim V es claro, ya que la dimen$6n de la matriz es n x n donde n = dim V.

Page 294: Herstein   Algebra moderna

TRANSFORMACIONES LINEALES - Cap. 6

DEFINIC~~N. LOS enteros n, , n, , . . ., nr se llaman 10s invariantes de T.

DEFINIC~~N. Si T E A ( V ) es nilpotente, el subespacio M de V, de dimen- si6n m, que es invariante bajo T, se llama ciclico con respecto a T, si :

1 ) MT'" = (0), MTm-I # (0);

2) hay un elemento ZE M tal que z, IT, . . ., zTm- forma una base de M.

(Nota: La condicion (1) esth realmente implicada por la condici6n 2.)

LEMA 6.1 1. Si M, de dimensidn ,m, es ciclica con respecto a T , entonces la dimensidn de MTk es m - k para todo k d m.

Prueba. Podemos obtener una base de MTk tomando la imagen de cualquier base de M bajo Tk. Usando la base z, IT, . . ., zTm- de M obtene- mos una base zTk, zTk+ I , . . ., zTm- l de MTk. Como esta base tiene m-k elementos, el lema queda probado.

El teorema 6.1 nos dice que dado un nilpotente T en A(V) podemos encontrar enteros n, k n, B . . . k n, y subespacios V , , ..., V, de V clclicos con respecto a T y de dimensiones n, , n, , . . ., n, respectivamente, ya que v = V,@ ... @V,.

i Es posible que podamos encontrar otros enteros m, 2 m, 3 . . . k m, y otros subespacios U, , . . ., Us de V, clclicos respecto a T y de dimensiones m , , . . ., ma, respectivamente, tales que V = U, @ . . . @ U,? Afirmamos que no es posible o, en otras palabras, que s = r y m , = n, , m, = n,, . . ., m, = n, . Supongamos qtle tste no fuera el caso; entonces habrla un primer entero i tal que m , # nl. Podemos suponer que mi < ni.

Consideremos VTm'. Por una parte, como V = V,@ . . . @ Vr. VTm' = V , Tm'@ ... @ Vi T'"'@ ... @ VrTm'. Como dim V , Tm' = n, -mi, dim V, Tm' '= n,-m,, ..., dim VITm' = nl-ml (seglin lema 6.11E dim VT""k(n, - nr,)+(n, - m,)+ ...+( nl-mi). Por otra parte, como V= U, @ ...@ Us y como U,Tm'=(0) para j2 i , V F ' = U, Tm'@ U,Tmi+ ...@ Ui-, 7"'. Asl pues

dim VT"' = (m,-ml) + (m,-mi) + ... +(mi- , -mi).

Por nuestra elecci6n de i, n, = m,. n, = m,. ..., ni- , = mi- , , de donde

dim VTm' = (n, -m,)+(n, -mi)+ . . . +(nl- , -mi).

Pero esto contradice el hecho anteriormente probado de que dim VTm' k (n,-mi)+ ... +(ni-, -ml)+(nl -ml) ,yaquenl-ml>O.

Asl pues, hay un linico conjunto de enteros n, k n, . . . k n, tal que V es la suma directa de subespacios clclicos con respecto a T y de dimensiones n,, n,, .... n,. Es decir. hemos demosrrado que 10s invariantes de T son linicos.

Page 295: Herstein   Algebra moderna

Matricialmente, el argument0 que acabambs de mostrar ha probado que si n, 2 n, 2 . . . 2 n, y m, 2 m, 2 . . . 2 m,, entonces las matrices

son semejantes solamente si r = s y n, = m, , n, = m,, ..., n, = m,. Hasta el momento hemos probado la mitad mis dificil del

TEOREMA 6 . ~ DOS transformaciones Iineales nilpotentes son semejantes si y so'lo si tienen las mismas uariantes.

Prueba. La discusi6n que precede al teorema ha demostrado que si dos transformaciones lineales nilpotentes tienen diferentes invariantes, entonces no pueden ser semejantes, pues sus respectivas matrices

no pueden ser semejantes. Pasemos a comprobar la parte del teorema en la otra diteccibn. Si las dos

transformaciones lineales nilpotentes S y T tienen 10s mismos invariantes n, 2 ... 2 n,, pot el teorema 6.1 hay bases v , , . . ., u,, y w,, ..., w,, de V tales que la matriz de S en u,, ..., L;, y la de T en w , , ..., wn son, ambas, iguales a

Pero si A es la transformaci6n lineal definida sobre V por u,A = w i , entonces S = A,TA-' (iprudbese!, comphrese con el problema 32 al final de la secci6n 3), de donde S y T son semejhntes.

Calculemos un ejemplo. Supongamos que

Page 296: Herstein   Algebra moderna

2 94 TRANSFORMACIONES LINEALES - C ~ D 6

act~ia sobre F, con base u, = (1,0, O), u, = (0. 1, 0) y u, = (0,0, 1). Sea L;, = U , , o2 = U , T = u2 +-u,, o, = U, ; en la base u, , u,, o, la matriz de Tes

de forma que 10s invariantes de T son 2, 1. Si A es la matriz del cambio de base, es decir

un simple calculo muestra que

A T A - ' = o o o . % l a Una observacion final: 10s invariantes de T determinan una particion de

n, la dimension de V. Reciprocamente, una particion de n, n , 2 ... n,, n , +n, + ... +n, = n, determina 10s invariantes de la transformacion lineal nilpotente

As; pues, el nljmero de clases distintas de semejanza de /as matrices nilpotentes n x n es precisamente p(n), el nljmero de particiones de n.

6. FORMAS CANONICAS . UNA DESCOMPOSlClON DE V : FORMA DE JORDAN

Sea V un espacio vectorial de dimension finita sobre F y sea Tun elemento arbitrario de A,(V.). Supongamos que V , es un subespacio de V invariante bajo T. Por tanto, T induce una transformacion lineal TI sobre V , definida por uT, = uT para toda U E V , . Dado un polinomio cualquiera p ( x ) ~ F [ x ] . afirmamos que la transformacion lineal inducida por q(T) sobre V , es precisamente q(T,). (La prueba de esto se deja como ejercicio.) En par-

Page 297: Herstein   Algebra moderna

16. FORMAS CANONICAS. U N A DESCOMPOSICION DE V: FORMA DE JORDAN 295

ticular, si q ( T ) = 0, entonces q(T , ) = 0. Asi pues, T I satisface cualquier -

polinomio satisfecho por T sobre F. i Q u t podemos decir en la direccion opuesta ?

LEMA 6.12. Supongamos que V = V , @ V, donde V , y V, son subespacios de V inuariantes bajo T. Sean T , y T , las transformaciones lineales inducidas por T sobre V , y V,, respectivamente. Si el polinomio minimo de T I sohre F es p, ( x ) mientras que el de T2 es p2 (x), entonces el polinomio minimo pura T sobre F es el minimo comlin mljltiplo de p,(x) y p, (x) .

Prueba. Si p(x) es el polinomio minimo para T sobre F, como hemos visto antes, tanto p ( T l ) como p(T,) son cero, de donde p , ( x ) ( p ( x ) y p,(x) ( p(x). Pero entonces el minimo comlin multiplo de p, ( x ) y p,(x) debe tambitn dividir a p(x).

Por otra parte, si q(x) es el minimo comun multiplo de p, ( x ) y p,(x), consideremos q(T). Para r , E V , , como p, ( x ) I q(x), v, q ( T ) = r , q ( T l ) = 0; analogamente, para r , E V,, r,q(T) = 0. Dada cualquier re V, r puede escribirse como r = L: , + v2 donde L?, l V , y L',E V 2 , en consecuencia de lo cual rq(T) = ( r , +r,)q(T) = v Iq (T)+v2q(T) = O.Asi pues, q ( T ) = 0 y T satisface q(x). Combinado con el resultado del primer parrafo, esto nos da el lema.

COROLARIO. Si V = V I @ ... @Vk, donde todo Vi es invariante bajo T y si pi ( x ) es polinomio minimo sobre F de T i , la transformacibn lineal inducida por T sobre V i , entonces el polinomio minimo de T sobre F es el minimo comun multiplo de p, ( x ) , p2 (x) , ..., pk (x) .

Dejamos la prueba del corolario al lector. Sea TEA,(V) y supongamos que p(x) en F[x] es el polinomio minimo

de T sobre F. Seglin lema 3.21, podemos factorizar p(x) en F[x] en forma linica como p(x) = q, (x)" q2(x)12 ... qk(x)Ik, donde 10s q,(x) son polinomios irreducibles distintos en Fix] y donde I , , I,, ..., Ik son enteros positivos. Nuestro objetivo es descomponer V en suma directa de subespacios in- variantes bajo T tales que sobre cada uno de Cstos la transformaci6n lineal inducida por Ttiene como polinomio minimo una potencia de un polinomio irreducible . Si k = I, V mismo sirve a nuestro propcjsito. Supongamos pues q u e k > 1 .

Sea V , = { r e v I oq, (T)I1 = 0}, V, = { V E v 1 vq,(T)12 = 0}, ..., Vk = { V E V rqk(T)Ik = 0). Es una trivialidad que cada Vi es un subespacio de V. AdemPs, Vi es invariante bajo T, pues si U E V i , como T y q,(T) conmutan, ( u ~ ) q , ( T ) " = (uqi(T)ll) T = OT = 0 . Por la definicion de Vi esto sitlia a uT en Vi. Sea Ti la transformaci6n lineal inducida por T sobre Vi.

TEOREMA~.N. Paracadai = 1,2, ..,k, Vi # ( 0 ) y V = V,@V,@ ... @ Vk. Elpolinomio minimo de Tl es qi{x)lr.

Page 298: Herstein   Algebra moderna

296 TRANSFORMACIONES LINEALES - Csp. 6

Prueba. Si k = I entonces V = V, y no hay nada que necesite probarse. Supongamos entonces que k > I .

Primero necesitamos probar que todo Vi # (0). Con este fin introducimos 10s k polinomios:

~ I ( X ) = 4 2 ( ~ ) ' ~ q 3 ( ~ ) I ' . . . 4r(x)Ik,

Como k > I . li;(x) # p(x). de donde hi(T) # 0. Asi pues, dada i, hay un 1.e V tal que 11. = rlii(T) # 0. Pero u9qi(T)" = r(hi(T)qi(T)'i) = rp(T) = 0. En consecuencia, 1 ~ ' # 0 esta en Vi y por tanto Vi # (0). En realidad hemos demostrado un poco mas, a saber, que VIii(T) # (0) esta en V,. Otra observacion acerca de /ii(x) viene ahora a cuento, si Vj para j # i, como qj(x)'j I lii(x). rilli( T) = 0.

Los polinomios lii(x). /12(x), . .., lik(x) son primos relativos. (ipruebese!) De aqui que segun el lema 3.20 podemos encontrar polinomios a , (x), . . ., a,(.u) en F[x] tales que a , (x)h,(x)+ ... +a,(x)h,(x) = I . De donde tenemos. a,(T)Ii , (T)+ ... +&(T)h,(T) = 1, de donde, dado r e v , r = 1.1 = i ( a , (T)l i , (T)+ ... +ak(T)Ilk(T)) = ra, (T)h, (T)+ ... +rak(T)hk(T). Ahora bien, cada rai(T)Iii(T) esta en VIi,(T), y como hemos probado anteriormente que VIii(T) c V,, hemos demostrado ahora LI como o = I . , + . . . +r, , donde cada r i = [.ai( T)hi(T) esd en Vi. Luego V = V, + v2+ ... + v,.

Debemos ahora verificar que esta suma es una suma directa. Para mostrar esto es suficiente probar que si ui+u2 + . . . +uk = 0 con cada uie V,, entonces cada ui ='O. Supongamos, pues, que u, + u, + . . . + u, = 0 y que algun ui, digamos u, , no es 0. Multipliquemos esta relacion por h, (T); obtenemos u, h, ( T ) + ... +u,Ii, (T) = Oh,(T) = 0. Ademas. ujh,(T) = 0 paraj # 1 yaqueujeVj; laecuacion sereduceasiau,h,(T)= 0. Pero u,q,(T)" = 0 y como 11, (x) y q,(x) son primos relativos, esto implica que u, = 0 (ipruebese!), lo que es, desde luego, incompatible con la hipotesis de que u, # 0. Hasta el momento hemos conseguido probar que v = V,$V,@ ... @V,.

Para completar la prueba del teorema debemos todavia probar que el polinomio minimo de Ti sobre Vi es q(x)';. Por la definicion de V,. como Viqi(T)li = 0, qi(Ti)li = 0, de donde la ecuacion minima de Ti debe ser un divisor de qi(x)Ii, luego de la forma q,(x)fi con f i <Ii. Por el corolario al lema 6.12, el polinomio minimo de T sobre F es el minimo comlin miltiplo de q,(x)", . . ., q,(x)** y debe, por tanto. ser q, (x)lr . . . q,(x)/*. Como este polinomio minimo es en realidad q, (x)'~. . . q,(x)Ik debemos tener que

Page 299: Herstein   Algebra moderna

16. FORMAS CANONICAS. UNA DESCOMPOSICION DE V: FORMA DE JORDAN 297

f l 3 I , . f , 3 I , , ...,. fi B 1,. Combinada con la desigualdad de sentido opuesto que antes probamos, esto nos da el resultado buscado, que I , = f ; para i = 1, 2, . . ., k , con lo que completamos la prueba del teorema.

Si todas las raices caracteristicas de T sucediera que estaban en F entonces el polinomio minimo de T toma la forma particularmente sencilla q ( x ) = ( x - A I ) I 6 . . . ( x - A,)', donde A , , . . ., A, son las distintas raices caracteristicas de T. Los factores irreducibles q , (x ) anteriores son simplemente q i (x ) = x - A,. Notese que sobre V , , Ti solamente tiene A, como raiz caracteristica.

COROLARIO. Si toclas las distintas raices caracteristicas A , , . . ., A, de T se encuentran en F, entonces V puede escribirse como V = V , @ . . . @ V, donde V i = {CE V ( r(T- Ai ) " = 0) y donde Ti tiene solamertte una raiz caracteristica, A, , sobre V i .

Volvamos a1 teorema por un momento; usamos la misma notacion Ti , V i que en el teorema. Como V = V , @ . . . @ V,, si la dimensi6n de V i es n , , por el lema 6.7 podemos encontrar una base de V tal que en esa base la rnatriz de T sea de la forma

donde cada A ; es una matriz ni x ni y es en realidad la matriz de Ti. ~ Q u C es exactamente lo que andarnos buscando? Queremos encontrar

un elemento en la clase de semejanza de T que pueda distinguirse en alguna forma. A la luz del teorema 6.h esto puede reformularse como sigue: buscamos una base de V en que la matriz de T tenga una forma especial- mente sencilla (y reconocible).

De acuerdo con la anterior discusion, esta busqueda puede quedar limitada a las transformaciones lineales Ti , con lo que el problema general puede reducirse de la discusion de transformaciones lineales generales a la de las transformaciones lineales especiales, cuyos polinomios minimos son potencias de polinomios irreducibles. Para la situacidn especial en que todas las raices caracteristicas de T se encuentran en F es lo que vamos a hacer a continuacion. El caso general en el que no ponemos restriccion alguna sobre las raices caracteristicas de T lo estudiaremos en la pr6xima seccion .

Estamos ahora en una feliz posicion. Hemos construido todas las piezas ' y todo lo que tenemos que hacer es juntarlas. Resulta de ello e! importan-

Page 300: Herstein   Algebra moderna

298 TRANSFORMACIONES LINEALES - Cap. 6

tisimo y utilisimo teorema en el que se exhibe lo que usualmente se llama jorrna candnica de Jordan. Pero demos primer0 una definicion.

DEFINICION. La matriz

con 1 en la diagonal y I en la superdiagonal y 0 en las demis entradas es un bloque basico de Jordan perteneciente a I..

TEOREMA 6 . ~ . Sea TE A F ( ~ t ) con todas sus distintas rakes caracteristicas I., , . . ., i,,, en F. Entonces puede encontrarse una base de V en que la matriz T sea de la,/'orma

donde cada

y donde Bi, . . . ., B,, son bloques basicos de Jordan pertenecientes a Ri .

Prueba. Antes de comehar notemos que un bloque basic0 rn x rn de Jordan perteneciente a I es simplemente I. + M,, donde M, es la matriz que se ha definido al final del lema 6.8.

De acuerdo con la combinaci6n del lema 6.7 y el corolario a1 teorema 6.n, podemos reducirnos al caso en que T tiene solamente una raiz caracteristica I, es decir, al caso en que T- I. es nilpotente. Asi pues, T = 1 +(T -A) , y

Page 301: Herstein   Algebra moderna

16. FORMAS CANONICAS. UNA DESCOMPOSICION DE V: FORMA DE JORDAN 299

como T-A es nilpotente, seghn el teorema 6.1, hay una base en que su matriz es de la forma

Pero entonces la matriz de Tes de la forma

usando la primera observacion hecha en esta prueba acerca de la relacion entre un bloque de Jordan basico y las M,. Y esto completa el teorema.

Usando el teorema 6.1 podriamos arreglar las cosas de forma que en cada J i , la dimensi6n de B i , 2 la dimensi6n de Biz 2 .... Cuando esto se ha hecho, entonces la matriz

se llama la forma de Jordan de T. N6tese que el teorema 6.p para matrices nilpotentes se reduce a1 teorema 6.1.

Dejamos como ejercicio lo siguiente: dos transJormaciones lineales en A ,( V) que tienen todas sus raices caracteristicas en F, son semejantes si y solo si pueden llei1arse a la misma forma de Jordan.

Asi pues, la forma de Jordan actua como un "determinador" para clases de semejanza de este tipo de transformaciones lineales.

En tCrminos de matrices, el teorema 6.p puede formularse como sigue: sea A E Fn y supongamos que K es el campo de descomposicion del polinomio minimo de A sobre F ; entonces puede encontrarse una matriz ini~ertible C E K, tat que CA C - ' estP en la forma de Jordan.

Dejamos 10s pocos puntos necesarios para hacer la traducci6n del teorema 6.p a su forma matricial como ejercicio para el lector.

Una observacion final: si AEF" y si Kn, donde K es el campo de des-

Page 302: Herstein   Algebra moderna

300 TRANSFORMACIONES LINEALES - Cap. 8

composici6n del polinomio minimo de A sobre F,

donde cada J i corresponde a una raiz caracteristica distinta l i de A, entonces la mul!iplicidad de l i como raiz caracteristica de A es, por defini- cion n i , donde Ji es una matriz n i x n i . N6tese que la suma de las multi- plicidades es exactamente n.

Es claro que analogamente podriamos definir la multiplicidad de una raiz caracteristica de una transformacion lineal.

Problemas

1. Si S y T son transformaciones lineales nilpotentes que conmutan, pruibese que ST y S+ T son transformaciones lineales nilpotentes.

2. Mediante un calculo matricial directo, demukstrese que

no son semejantes.

3. Si n, 2 q , y m , 2 m,, pruebese, mediante un calculo matricial directo que

son semejantes si y solo si n, = m , y n, = m,

*4. Si n, > n, 2 n, y m, 2 m, 2 m,, pruibese, por medio de un dlculo matricial directo que

son semejantes si y solo si n , = m , , n, = m, y n, = m,. -

Page 303: Herstein   Algebra moderna

16. FORMAS CANONICAS. UNA DESCOMPOSICION DE V: FORMA DE JORDAN 301

5. a ) PruCbese que la matriz

es nilpotente y encukntrense sus invariantes y forrna de Jordan.

b) PruCbese que la rnatriz de la parte ( a ) no es semejante a

6. Pru6bese el lerna 6.12 y su corolario, incluso si las sumas que en C1 aparecen no son sumas directas.

7. PruCbese la afirrnacion hecha de que dos transforrnaciones lineales en A , ( V ) todas cuyas raices caracteristicas se encuentran en Fson sernejantes si y solo si sus forrnas de Jordan son iguales (except0 por una permutation en la ordenacion de las raices caracteristicas).

8. ComplCtese la prueba de la version matricial del teorerna 6.p, dada en el texto.

9. PruCbese que la matriz n x n

. - ..

0 0 0 1 0

con entradas 1 en la subdiagonal y 0 todas las dernas, es sernejante a M,.

10. Si F tiene caracteristica p > 0 pruibese que A = (A ;) satisface

AP = 1 .

11. Si F' tiene caracteristica 0, pruebese que A = (A ;) satisface

Am = 1 para m > 0 solamente si z = 0.

Page 304: Herstein   Algebra moderna

302 TRANSFORMACIONES LINEALES - Cap. 6

12. Encuentrense todas las formas de Jordan posibles para: a ) todas las matrices 8 x 8 que tienen x2(x- como polinomio

minimo: h ) todas las matrices IOx 10 sobre un campo de caracteristica

diferente de 2, que tiene x2(x- I) '(x+ I ) 3 como polinomio nlinimo.

13. Pruebese que la matriz n x n

es semejante a

si la caracteristica de F es 0 o si es p y p t n. ;CuBI es la multiplicidad de 0 como raiz caracteristica de A ?

Una rnatriz A = (aij) se dice que es una matriz diagonal si a,, = 0 para i # j , es decir, si todas las entradas aparte de las de la diagonal principal son 0. Una matriz, o transformacidn lineal, se dice que es diagonali- zable si es semejante a una matriz diagonal (tiene una base en la que su matriz es diagonal). -

*14. Si T esta en A(V) entonces T es diagonalizable (si todas sus raices caracteristicas estan en F) si y solo si siempre que v(T-A)'" = 0, para L'E V y A E F, entonces u(T- A ) = 0.

15. Usando el resultado del problema 14, prutbese que si E2 = E entonces E es diagonalizable.

16. Si E2 = E y FZ = F prutbese que son semejantes si y s61o si tienen el mismo rango.

17. Si la multiplicidad de cada una de las raices caracteristicas de T es 1, y si todas las raices caracteristicas de T esthn en F, prukbese que T es diagonalizable sobre F.

*18. Si la caracteristica de F es 0 y si TEA ;( V) satisface Tm = I , prukbese que si las raices caracteristicas de T estan en F entonces T es diagonalizable. (Sugerencia: usese la forma de Jordan de T.)

Page 305: Herstein   Algebra moderna

17 . FORMAS CANONICAS: FORMA CANONICA RACIONAL 303

*19. Si A , B E F son diagonalizables y si conmutan, pruebese que hay un elemento C E F,, tal que tanto C A C - ' como C B C - ' son diagonales.

20. Pruebese que el resultado del problema 19 es falso si A y B no conmutan.

7. FORMAS CANONICAS: FORMA CANONICA RACIONAL

La forma de Jordan es la mas comunmente usada para probar teoremas acerca de las transformaciones lineales y las matrices. Desgraciadamente tiene un serio inconveniente en 10s requerimientos que impone sobre la localizacion de las raices caracteristicas. Es cierto que si T E A , ( V ) (o AE F,,) no tiene sus raices caracteristicas en F, no tenemos mas que ir a una extension finita K de F en que todas las raices caracteristicas de T se encuentran y luego llevan T a su forma de Jordan sobre K . En realidad, este es un procedi- miento operativo estandar; pero prueba resultados en K, , no en F,,. Muy a menudo el resultado en F,, puede deducirse del resultado en K,,, pero hay muchas ocasiones en que despuks que un resultado se ha establecido para AEF,, considerado como un elemento en K,, , no podemos volver de K, para obtener la informaci6n deseada en F,, .

Asi pues, necesitamos alguna forma canonica para elementos en A , ( V ) (o en F,,) que no presupongan nada sobre la locaiizacion de las raices caracteristicas de sus elementos, una forma canonica y un conjunto de invariantes creados en A , ( V ) mismo usando solamente sus elementos y operaciones. La forma candnica rational, que describimos a continuacion en el teorema 6.q y su corolario, es una forma canonica de tal tipo.

Sea T E A F ( V ) ; por medio de,T nos proponemos hacer de V un modulo sobre F [ x ] , el anillo de 10s polinomios en x sobre F. Hacemos esto definiendo para cualquier polinomio , f ( x ) en F [ x ] , y cualquier ~ E V , f ( x ) r = l : f ( T ) . Dejamos la verification al lector de que, bajo esta definicion de multiplica- cion de elementos de V por elementos de F [ x ] , V se hace un F[x]-modulo.

Como V es de dimension finita sobre F, esta finitamente generado sobre F, luego tanto mas sobre F [ x ] que contiene a F. Ademas. F [ x ] es un anillo euclidiano; luego como un modulo finitamente generado sobre F [ x ] , por el teorema 4.j, V es la suma directa de un numero finito de submodulos ciclicos. Por la misma forma en que hemos introducido la estructura de modulo sobre V , cada uno de estos submodulos ciclicos es invariante bajo T ; ademas, hay un elemento m,, en un tal submodulo M, tal que todo elemento m en M es de la forma m = m, f ( T ) para algun f ( x ) ~ F [ x ] .

Para determinar la naturaleza de T sobre V sera, por tanto, bastante para nosotros conocer como parece T sobre un subm6dulo ciclico. Es esto precisamente lo que intentamos determinar.

Pero efectuemos primero una descomposicion preliminar de -Y, como

Page 306: Herstein   Algebra moderna

304 TRANSFORMACIONES LINEALES - C ~ D . 6

hicimos en el teorema 6.n, de acuerdo con la descomposicion del polinomio minimo de T como product0 de polinomios irreducibles.

Sea el polinomio minimo p ( x ) de T sobre F, p ( x ) =q , (x ) " ... q,(x)'* donde 10s q i ( x ) son polinomios irreducibles distintos en F [ x ] y donde cada ei > 0; entonces, como vimos en el teorema 6.n, V = V, @ V,@ . . .@ V, donde cada Vi es invariante bajo T y donde el polinomio minimo de T sobre Vi es q,(x)". Para resolver la naturaleza de un subm6dulo ciclico para un Tarbitrario vemos, por esta discusion. que es suficiente establecer- la para un Tcuyo polinomio minimo sea una potencia de uno irreducible.

Probamos el

LEMA 6.1 3. Supongamos que T, en A ,( V) , tiene como polinomio minimo sobre F el polinomio p ( x ) = y o + y , x + . . . + y r - , xr- ' + xr. Supongamos, ademas, que V como mddulo (de acuerdo con lo antes descrito). es un mddulo ciclico (es decir, es ciclico respecto a T ) . Entonces hay una base de V sobre F tat que, en esta base, la matriz de T es

Prueba. Como V es ciclico respecto a T, existe un vector r en V tal que todo elemento w en Ves de la forma w = 13f(T) para alglin,f(x) en F[x] .

Ahora bien, si para algun polinomio s (x ) en F[x ] , vs (T) = 0, entonces para cualquier w en V, ws(T) = (~ l f ' (T ) )s (T ) = l l s (T) j ' (T) = 0; luego s ( T ) aniquila a todo V y, por tan@, s ( T ) = 0. Pero entonces p (x ) l s ( x ) ya que p ( x ) es el polinomio minimo de T. Esta observacion implica de inmediato que v, vT, cT * , . . ., pTr- son linealmente independientes sobre F, pues si asi no fuera, entonces a, r + a , PT+ . . . +ar - , vT ' - ' = 0 con a,, . . ., ar- , en F. Pero entonces u(a, +a , T + . . . +a r - , T r - ') = 0, y de aqui, seglin la anterior discusion, p(x)l (*,+a, x+ . . . +a r - , x r - I ) , lo que es imposible ya que p (x ) es de grado r salvo si a, = a, = .. . = a,-, = 0.

Como T' = - yo- y , T - . . . I- y r - , T r - I , es inmediato que Tr+' , para k >, 0, es una combinacion lineal de I, T , ..., T r - ' y, por tanto, que f ( T ) para cualquier f ( x ) ~ F [x ] , es una combinacion lineal de I, T, . . ., T r - ' sobre F. Como cualquier w en V es de la forma w = vf(T) tenemos que w es una combinacion lineal de v, 17T, . . ., vTr- I .

Hemos probado, en 10s liltimos dos parrafos, que 10s elementos u, vT, . . ., z l r - ' forman una base de V sobre F. En esta base, como puede verificarse de inmediato, la matriz de T es exactamente como afirmibamos.

Page 307: Herstein   Algebra moderna

5 7. FORMAS CANONICAS: FORMA CANONICA RACIONAL 306

DEFINICI~N. Si f(x) = y o + y1 X + . .. +y,-, xr-' +xr esth en F[x] entonces la matriz r x r

se llama matriz compaiiera de f (x). La representamos por CCf(x)). N6tese que el lema 6.13 dice que si V es ciclico respecto a T y si el

polinomio minimo de T en F[x] es p(x), entonces para alguna base de V la matriz de T es C(p(x)).

Nbtese, ademis que la rnatriz C( f(x)), para cualquier polinomio mdnico f (x) en F[x], satisface f (x) y tiene a f (x) como su polinomio minimo. (Vbase el problema 4 a1 final de esta seccidn; vbase tarnbibn el problema 29 a1 final de la secci6n 1 .)

Probamos ahora un importantisimo teorema.

TEOREMA 6.~. Si T en A,(V) tiene un polinomio minimo p(x)= q(x)', donde q(x) es un polinomio mdnico irreducible en F[x], entonces puede encontrarse una base de V sobre Fen que la matriz de T sea de la forma

dondee = el > e, ... > e,.

Prueba. Puesto que V como modulo sobre F[x] esta finitarnente generado, y como F[x] es euclidiano, podemos descomponer V como V = V, @ . . . @ V, donde.10~ Vi son m6dulos ciclicos. Los Vi son, entonces, invariantes bajo T; si Ti es la transformaci6n lineal inducida por T sobre V,, su polinomio minimo debe ser un divisor de p(x) = q(x)', luego de la forma q ( ~ ) ~ . Podemos reordenar 10s espacios de forma que el 2 e, 5 . . . 2 e,.

Ahora bien, q(T)" aniquila a cada Vi, de donde suprime a V, de donde q(T)"= 0. Luego el > e; como el es claramente cuando mas igual a e, tenemos que el = e.

Se&n el lema 6.13, como cada Vi es ciclico respecto a T podemos en- contrar una base tal que la matriz de la transformaci6n lineal de T, sobre V,

Page 308: Herstein   Algebra moderna

306 TRANSFORMACIONES LINEALES - Cap. 6

es C(q(x)".) Asi pues, segim el teorema 6.n, podemos encontrar una base d e V tal que la matriz de Ten esta base es

COROLARIO. Si T en A F ( V ) tiene el polinomio minimo p(x) = q , (x)" . . . qk(x)Ik sobre F, donde q , ( x ) ,. . ., qk(x) son polinomios irreducibles distintos en F[x], entonces puede enconrrarse una base de V en la que la marriz de T sea de la forma

donde cada

Prueba. Por el teorema 6.1, V puede ser descompuesto en la suma directa V = V , $ . . . $ V,, donde cada Vi es invariante bajo T y donde el polinomio rninimo de T i , la transforrnacion lineal inducida por T sobre V i , es qi(x)". Usando el lema 6.7 y el teorema anterior, obtenemos el corolario. Si el grado de qi(x) es d,, notese que la suma de todos 10s dieij es n, la dimension de V sobre F.

DEFINICI~N. La matriz de T en el enunciado del corolario anterior se llama forma candnica racional de T.

DEFINICI~N. LOS polinomios q,(x)"', q , (e)'12, . . ., q, (x)'~",. . ., q,(x)'*', . . ., qk(x)"'" en F[x] se llaman divisores elementales de T.

iUna definition mhs!

Page 309: Herstein   Algebra moderna

5 7. FORMAS CANONICAS: FORMA CANONICA RACIONAL 307

DEFINICION. Si dimF( V ) = n, entonces el polinomio caracteristico de T, pT(x) , es el producto de sus divisores elementales.

Podremos identificar el polinomio caracteristico que acabamos de definir con otro polinomio que construiremos explicitamente en la secci6n 9. El polinomio caracteristico de Tes un polinomio de grado n que se encuentra en F[x]. Tiene muchas propiedades importantes, una de las cuales es la contenida en la siguiente

OBSERVAC~ON. Toda transformacidn lineal T e A F ( V ) satisface a su polinomio caracteristico. Toda raiz caracteristica de T es una raiz de pT(x).

Nota 1. La primera parte de la anterior observacion es el enunciado de un teorema muy famoso, el reorema de Cayley-Hamilton. Pero llamarlo asi en la forma en que lo hemos expuesto resultaria un poco abusivo. El meollo del teorema de Cayley-Hamilton es el hecho de que T satisface pT(x) cuando a pT(x) se le da una forma concreta muy particular, fhcilmente construible partiendo de T. Pero incluso en la forma en que aparece, la observacion tiene un contenido bastante interesante, pues como el polinomio caracteristico es un polinomio de grado n, hemos probado que todo elemento de A F ( V ) satisface un polinomio de grado n que se encuentra en F[x]. Hasta ahora, solo habiamos probado esto (en el teorema 6. k) para transformaciones lineales que tenian todas sus raices caracteristicas en F.

Nota 2. Tal como esta formulada, la segunda parte no dice nada, pues siempre que T satisface un polinomio, entonces toda raiz caracteristica de T satisface ese mismo polinomio; asi pues, pT(x) no seria nada especial si lo que se enuncia en el teorema fuera todo lo que es valido en 61. Pero la historia real es la siguiente: Toda raiz caracteristica de T es una raiz & pT(x), y reciprocamente, toda raiz de pT(x) es una raiz caracteristica de T ; ademas, la multiplicidad de cualquier raiz de pT(x), como una raiz del polino- mio, es igual a su multiplicidad como raiz caructeristica de T. Podriamos probar lo dicho ahora, pero diferimos la prueba hasta mhs tarde, cuando seamos capaces de hacerla de una forma mas natural.

Prueba de la observacrdn. Solamente tenemos que demostrar que T satisface a pT(x), pero esto es casi trivial. Como pT(x) es el producto de ql(x)CI1, q 1 ( ~ ) C 1 2 , ..., qk(x)ckl, ..., y como e l l = e , , e l l = e l , ..., ekl = e,, pT(x) es divisible por p(x) = q , (e)"' . . . q,(x)'*, el polinomio minimo de T. Como p ( T ) = 0 se sigue que p T ( T ) = 0.

Hemos llamado a1 conjunto de 10s polinomios que aparecen en la forma racional can6nica de T 10s divisores elementales de T. Seria muy conveniente que Cstos determinasen una semejanza en AF(V) , pues entonces las clases de semejanza en A F ( V ) estarian en una correspondencia biyejctiva con

Page 310: Herstein   Algebra moderna

308 TRANSFORMACIONES LINEALES - Cap. 6

conjuntos de polinomios en F[x]. Nos proponemos hacer esto, per0 primer0 establecemos un resultado que implica que dos transformaciones lineales tienen 10s mismos divisores elementales.

TEOREMA 6.R. Sean V y W dos espacios vectoriales sobre F y supongamos que $ es un isomorfismo de. espacios uectoriales de V sobre W . Supon- gamos que S E A F( V) y T E A F ( W ) son tales que para cualquier U E V, ( U S ) $ = (r$) T.) Entonces S y T tienen 10s mismos divisores elementales.

Prueba. Comenzamos con un simple chlculo. Si U E V, entonces (vS2) $ = ((cS) S )$ = ( (rS)$) T = ( (c$) T ) T = (u$) T2 . ES claro que continuando anilogo proceso tendremos que (vSm)$ = (v$)Tm para cualquier entero m k 0, de donde para cualquier polinomio f ( x ) ~ F [ x ] y para cualquier V E V, ( ~ : f ( S ) ) * = (v*lf( T) .

Si f ( S ) = 0, entonces (v$) f (T) = 0 para cualquier U E V y coma $ transforma V sobre W tendriamos que W f ( T ) = (0). a consecuencia de lo cual f ( T ) = 0. Reciprocamente, si g ( x ) ~ F[x] es tal que g ( T ) = 0, entonces para cualquier re V, (l.g(S)$ = 0 y como JI es un isomorfismo, esto nos dice que [g(S) ='O. Esto desde luego implica que g(S ) = 0. Asi pues, S y T satisfacen el mismo conjunto de polinomios en F[x], de donde deben tener el mismo polinomio minimo

donde q , (x) , . . ., qk(x) son polinomios irreducibles distintos en F[x]. Si U es un subespacio de V invariante bajo S, entonces U$ es un sub-

espacio de W invariante bajo T, pues (U$) T = (US)$ c U$, Como U y U$ son isomorfos, el polinomio minimo de S , , la transformation lineal inducida por S sobre U es la misma, de acuerdo con las observaciones anteriores que el polinomio minimo de T I , la transformacidn lineal inducida spbre U$ por T.

Ahora bien, como el polinomio minimo para S sobre V es p(x) = q, (x)" . . . q , ( ~ ) ' ~ , como hemos visto en el teorema 6.q y su corolario, podemos tomar como el primer divisor elemental de S a1 polinomio 9, (x)C1 y podemos encontrar un subespacio de V, de V que es invariante bajo S tal que :

I ) V = V, @ M donde M es invariante bajo S ; 2) 10s unicos divisores elementales de S , , la transformaci6n lineal

inducida sobre V, por S, esq, (x)C1 ; 3) 10s otros divisores elementales de S son 10s de la transformaci6n

lineal S2 inducida por S sobre M.

Combinamos ahora las afirmaciones hechas anteriormente y afirmamos:

1 ) W = W , 8 N donde W , = V, $ y N = M$ son invariantes bajo T.

Page 311: Herstein   Algebra moderna

5 7. FORMAS CANONICAS: FORMA CANONICA RACIONAL 309

2) El unico divisor elemental de T,, la transformacion lineal inducida -

por T sobre W, es q, (x)" (que es un dirisor elemental de T ya que el polinomio minimo de T es p(x) = q, (x)" . . . q,(x)'").

3) Los otros divisores elementales de T son 10s de la transformaci6n lineal T, inducida por T sobre N.

Como N = M$, M y N son espacios vectoriales isomorfos sobre F bajo el isomorfismo $, inducido por $. Ademas, si UEM entonces (US,)$, = (US)$ = (u$) T = (u$,) T,, de donde S, y T, estan en la misma relacion con respecto a $, que S y T estaban respecto a $. Por induccion sobre la dimension (o repitiendo el argumento) S, y T, tienen 10s mismos divisores elementales. Pero como 10s divisores elementales de S son simplemente q1 (x)'' y 10s de S, mientras que 10s de T son simplemente q, (x)" y 10s de T,, S y T deben tener 10s mismos divisores elementales, probando con ello el teorema.

El teorema 6.q y su corolario nos dieron la forma canonica racional y 10s divisores elementales. Nos gustaria apurar un poco mas la situacion y ser capaces de afirmar alguna propiedad de unicidad. Es lo que hacemos en el

TEOREMA 6.s. LOS elementos S y T en A,( Y) ion semejantes (en A ,( V)) si y sblo si tienen 10s misnlos dirisores elementales.

Prueba. Probar esto es sencillo en una direccibn, pues supongamos que S y T tienen 10s mismos divisores elementales. Entonces hay dos bases de Y sobre F tales que la matriz de Sen la primera base es igual a la matriz de T en la segunda (y cada una de ellas igual a la matriz de forma racional canonica). Pero como ya hemos visto varias veces antes, esto implica que S y T son semejantes.

Vamos ahora a ir en la otra direccion. Tambien aqui el argumento se asemeja estrechamente al usado en la seccion 5 en la prueba del teorema 6.m. Como alli fuimos muy cuidadosos con todos 10s detalles, creemos que aqui podemos permitirnos ser un poco mas esquemkicos.

Observemos primero que en vista del teorema 6.n, podemos limitarnos al caso de la transformacion lineal cuyo polinomio minimo es una potencia de un polinomio irreducible. Asi pues, sin perdida de generalidad podemos suponer que el polinomio minimo de T es q(x)' donde q(x) es irreducible en F[x ] y de grado d

La forma canonica racional nos dice que podemos descomponer Yen la forma V = V , @ . . .@ Vr donde 10s subespacios V i son invariantes bajo T y donde la transformacion lineal inducida por 7 sobre V i tiene como matriz C(q(xYi), la matriz compafiera de q( .u )" . Suponemos que lo que realmente estamos intentando probar es lo siguiente: si V = U, @U,@ ... @Us donde 10s Uj son invariantes bajo T y donde la transformacion lined inducida

Page 312: Herstein   Algebra moderna

31 0 TRANSFORMACIONES LINEALES - Cap. 6

por T sobre Uj tiene como matriz C(q(x)/j), f l 2 f2 2 . . . 2 1;. entonces r = s y e l = f,, el = ,/;, ..,, e, = f,. (Pruebese que la demostracion de esto es equivalente a la demostracion del teorema.)

Supongamos entonces que tenemos las dos descomposiciones arriba descritas, V = V, $ . .. $ V, y V = U I Q . .. @U, y que algun ei ff J;. Entonces hay un primer entero m tal que em # ,fm mientras que e , = f, , . . ., em- , = f m - , . Podemos suponer que em >.fm.

Ahora bien, g(T)Im suprime Urn, Urn+, , . . ., U, , de donde

Pero se puede demostrar que la dimensi6n de uiq(T)/" para i ,<m es d(J.- fm) (iprudbese!), de donde

Por otra parte, V ~ ( T ) ~ ~ 3 V, q(T)lm@ , . . $ . . . @ V,~(T)~" ' y como Viq(T)fm tiene dimension d(ei- fm) para i < m, tenemos que

Como e, = f , , ..., ern-, = f m - , y em > fm esto contradice la igualdad antes probada. Hemos, pues, probado el teorema.

COROLARIO 1 . Supongarnos que las dos matrices A y Ben Fn son semejantes en Kn donde K es una extensia'n de F. Entonces A y B son ya semejantes en Fn .

Prueba. Supongamos que A, BEF, son tales que B = C - 'AC con CEK,. Consideramos a Kn como si actuara sobre K'"', el espacio vectorial de n-tuples sobre K. Asi pues, F'"' esth contenido en K'"' y aunque es un espacio vectorial sobre F no es un espacio vectorial sobre K. La imagen de F'"', en K'"', bajo C no necesariamente incidira de nueclo en F'"' per0 en cualquier caso F'"'C es un subconjunto de K'"' que es un espacio cectorial sobre F (pruebese). Sea V el espacio vectorial F'"' sobre F, W el espacio vectorial F'"'C sobre F y para ~ E V sea r$ = LC. Ahora bien, A E A ~ (V) y &A,( W ) y para cualquier V, (rA)G = rAC = rCB = ( r $ ) B, de donde las condiciones del teorema 6.r se satisfacen. Asi pues, A y B tienen 10s mismos divisores elementales; de acuerdo con el teorema 6.s, A y B deben ser semejantes en F,.

Una palabra de advertencia: el corolario no afirma que si A, BEF, son tales que B = C - ' AC son CE Kn entonces C debe necesariamente estar en Fn ; esto es falso. Lo que afirma simplemente es que si A, BEF, son tales que B = C - 'AC con CEK,, entonces existe un DE Fn (posiblemente diferente a C) tal que B = D- 'AD.

Page 313: Herstein   Algebra moderna

5 7. FORMAS CANONICAS: FORMA CANONICA RACIONAL ' 31 1

Problemas -

1. Verifiquese que V se hace un F[x] modulo bajo la definition dada.

2. En la prueba del teorema 6.s proporcionense demostraciones com- pletas de todos 10s puntos en que se sefiala (prukbese).

*3. a) PruCbese que toda raiz del polinomio caracteristico de T es una raiz caracteristica de T.

b) PruCbese que la multiplicidad de cualquier raiz de p,(x) es igual a su multiplicidad como una raiz caracteristica de T.

4. Pruebese que para f(x)€F[x], C(f(x)) satisface f(x) y tiene a f(x) como su polinomio minimo. iCual es su polinomio caracteristico?

5. Si F es el campo de 10s numeros racionales, encukntrense todas las formas canonicas racionales posiblzs y todos 10s divisores elementales para:

a) Las matrices 6 x 6 en F, que tienen (x- 1) (x2 + 1)' como poli- nomio minimo.

b) Las matrices 15 x 15 en F,, que tienen (x2 + X + 1)' (x3 + 2)' como polinomio minimo.

c) Las matrices 10 x 10 en F, , 'que tienen (x2 + 1)' (x3 + 1) como polinomio minimo.

6. a) Si K es una extension de F y si A esta en K, , pruCbese que A puede escribirse como A = 1 , A , + ... + I , A , , donde A , , . .., A, estiin en F, y donde A, , . . ., 1 , estan en K y son linealmente indepen- dientes sobre F.

b) Con igual notacion que en la parte (a), pruCbese que si BEF, es tal que AB = 0 entonces A , B = A , B = ... = A,B = 0.

c) Si C en F, conmuta con A pruCbese que C conmuta con cada uno de 10s A , , A , , . . ., A, .

*7,. Si A , , . . ., A, esthn en F, y son tales que para ciertos I , , .. ., I , en K , una extension de F, 1 , A , + ... + I k A k es invertible en K, , prutbese que si F tiene un nzimero injinito de elemenros podemos encontrar a , , . . ., a, en F tales que a , A , + . . . + a , A, es invertible en F,,.

*8. Si F es un campojinito, pruCbese que el resultado del problema 7 es falso.

*9: Usando 10s resultados de 10s problemas 6 (a) y 7, pruCbese que si F tiene un numero infinito de elementos entonces siempre que A, BEF, son semejantes en K,,, donde K es una extension de F, entonces son semejantes en F,,. (Esto nos da una prueba, independiente de las formas canonicas del corolario 1 a1 teorema 6.s en el caso particular en que F es un campo infinito.)

Page 314: Herstein   Algebra moderna

31 2 TRANSFORMACIONES LINEALES - Cap. 6

10. Usando chlculos con matrices (pero siguiendo 10s lineamientos marcados en el problema 9), pruebese que si F es el campo de 10s numeros reales y K el de 10s nGmeros complejos, entonces dos elementos en F, que son semejantes en K, son ya semejantes en F, .

8. TRAZA Y TRANSPUESTA

Desputs de la dificultosa marcha en las liltimas secciones, la falta de complicaciones del material sobre el que ahora vamos a tratar va a llegarnos como un agiadable respiro.

Sea F un 'camp0 y A una matriz en Fn.

D E F I N I C I ~ N . La fraza de A es la suma de 10s elementos de la diagonal principal de A.

Representaremos a la traza de A por tr A; si A = (zij), entonces n

Las propiedades fundamentales de la funcion traza estan contenidas en el

LEMA 6.14. Para A, BE Fn J. ;.E F.

I ) tr (;.A) = i. tr A;

2) tr (A+B) = tr A+tr B;

3) tr (AB) = tr (BA).

Prrreba. Establecer ( I ) y (2) (que aseguran que la traza es una funcional lineal en Fn) es sencillo y se deja como' ejercicio para el lector. Solamente presentamos la prueba de la parte (3) del lema.

Si A = (2,) y B = (fiij). entonces ne = (yij) donde 'iij = aspkj Y k = 1

n

BA = (lrij) donde pi, = x Bikzkj. k = 1

Asi pues. (AB) = X y i i = x ; si intercambiamos el orden de i i

sumaci6n en la ultima suma, tenemos

Page 315: Herstein   Algebra moderna

5 8. TRAZA Y TRANSPUESTA 313

Prueba. Sea B = CA-I; entonces tr (ACA-I) = tr (AB) = tr (BA) =

tr (CA-'A) = tr C.

Este corolario es importante por dos razones; primere, nos permitira definir la traza de una transformacidn lineal arbitraria; segundo, nos permitiri encontrar una expresi6n alternativa para la traza de A.

DEFINICI~N. Si TEA(V) entonces tr T, la tram de T, es la traza de m , (T) donde m, (T) es la matriz de Ten una base cualquiera de V.

Afirmamos que la definici6n tiene sentido y depende solamente de T y no de cual sea la base de V que se emplee. En efecto, si m , (T) y m,(T) son matrices semejantes, entonces, segun el corolario al lema 6.14, ambas tienen la misma traza.

LEMA 6.1 5. Si TEA ( V), er1tonce.v tr T es la slrrna de las raices caracteri ti- cas de T (usando-cada raiz caracteristica tantas 1-eces como su niultiplicid d d ) .

Prueha.' Podemos suponer que T es una matriz en F, ; si K es el campo de descomposici6n para el polinomio mininio de Tsobre F. entonces en K,, por el teorema 6.p, T puede llevarse a su forma de Jordan, J. J es una matriz sobre cuya diagonal aparecen las raices caracteristicas de T, cada raiz que aparece tantas veces como unidades tiene su multiplicidad. Asi pues, tr J = suma de las raices caracteristicas de T; per0 como J es de la forma ATA-I, tr J = tr T, y esto prueba el lema.

Si T es nilpotente, entonces todas sus raices caracteristicas son 0, de donde, de acuerdo con el lema 6.15, tr T = 0. Pero si T es nilpotente, entonces tambiCn lo son T2, T3, . . .. luego tr Ti = 0 para todo i 2 1 .

jY quC podemos decir en la otra direction, es decir, si tr Ti = 0, para i = 1, 2, . . .?, jse sigue de ello que T es nilpotente? Con esta generalidad la contestaci6n es no, pues si F es un campo de caracteristica 2, entonces la matriz unidad

en F2 tiene traza 0 (pues I + I = 0) al igual que todas sus potencias. per0 es claro que la matriz unidad no es nilpotente. Pero si restringimos la caracteristica de F a 0, el resultado es verdaderamente cierto.

LEMA 6.16. Si F es un campo de caracteristica 0 y si TcAF( V ) es fa1 que tr T' = 0 para totlo i 2 I . entonces T es nilpotente.

Page 316: Herstein   Algebra moderna

31 4 TRANSFORMACIONES LINEALES - Cap. 6

Prueba. Como TEA,(V), T satisface alglin polinomio minimo p(x) = x"'+a,xm-I+ ... + a r n ; comoTm+z, Tm-I+ ... +a,-, T+z, = 0, tomando trazas de ambos lados, tenemos

tr Tm+a, tr T m - ' + ... +a,-, tr T+trz, = 0.

Pero por hipotesis, tr Ti = 0 para i 2 I, luego tenemos tr a, = 0; si dim V = n, tr a, = na,, de donde na, = 0. Pero la caracteristica de F es 0; luego n # 0, de donde se sigue que a, = 0. Como el termino constante del polinomio minimo de Tes 0, por el teorema 6.b Tes singular y por tanto 0 es una raiz caracteristica de T.

Podemos considerar a T como una matriz en F, y, por tanto, tambikn como una matriz en K,, donde Kes una extension de Fque, a su vez, contiene todas las raices caracceristicas de T. En K,, seglin el teorema 6.j, podemos poner T en forma triangular, y como 0 es una raiz caracteristica de T, podemos realmente llevarla a la forma

donde

es una matriz (n- I) x (n- I) (10s * indican partes en cuyas entradas no estamos interesados). Ahora

de donde 0 = tr Tk = tr TZk. Luego T , es una matriz (n - I ) x (n- I ) con la propiedad de que tr TZk = 0 para todo k 2 1. 0 bien usando induccion sobre n, o repitiendo el argument0 sobre T, que usamos para T, tenemos, como a,, . . ., a, son las raices caracteristicas de T,, que a, = .,. = an = 0. Luego cuando T se pone en forma triangular todas sus entradas en la diagonal principal son 0, lo que implica que T sea nilpotente (prukbese).

Este lema, aunque pueda parecer particular, nos servirh en una gran cantidad de casos. Hacemos uso inmediato de CI para probar un resultado usualmente conocido como el lema de Jacobson.

Page 317: Herstein   Algebra moderna

5 8. TRAZA Y TRANSPUESTA 31 5

LEMA 6.17. Si F es de caracteristica 0 y si S y T, de A,(V), son tales que . ST- TS conmuta con S, entonces ST- TS es nilpotente.

Prueba. Para cualquier k >, I, calculamos (ST-TS)'. Ahora bien, (ST- TS)' = (ST- TS)'- (ST- TS) = (ST- TS)k- ' ST-(ST- TS)'- ' TS. Como ST- TS conmuta con S, el termino (ST- TS)k- ' ST puede escribirse en la forma S((ST- TSlk- I ) T. Si hacemos B = (ST- TS)k- ' T vemos que (ST- TS)k = SB- BS; de donde tr ((ST- TS)k) = tr (SB- BS) = tr (SB)- tr (BS) = 0 seglin el lema 6.14. El lema anterior nos dice ahora que ST- TS debe ser nilpotente.

La traza nos provee de una funcional lineal sobre Fn (y, por tanto, sobre A,( V)) en F, extremadamente litil. lntroducimos ahora una impor- tante transformaci6n de Fn en si mismo.

DEFINICION. Si A = (a i j )€ Fn, entonces la transpuesta de A, escrita como A', es la matriz A' = ( y i j ) donde y i j = a j i para todas las i y j.

La transpuesta de A es la matriz que se obtiene intercambiahdo 10s renglones de A con las columnas de A. Las propiedades formales basicas de la transpuesta, estan contenidas en

LEMA 6.18. Para cualesquiera A, BE F, , 1) (A') ' = A ;

2) (A+ B)' = A'+ B ' ;

3 ) (AB)' = B'A'.

Prueba. Laspruebas de las partes (I) y (2) son muy sencillas y se dejan como ejercicio para el lector; nos contentamos nosotros con la prueba de la parte (3).

Supongamos que A = (a i j ) y B = (B i j ) ; entonces AB = (Aij) donde

n

Por tanto, por definition, (AB)' = (p i j ) , donde p i j = ,Iji = 1 ajkPki. k = l

Por otra parte, A' = ( y i j ) donde y i j = aj i y B' = ( t i j ) donde t i j= p j i , n n n

de donde el elemento (i , j ) de B'A' es 1 t i k y k j = 1 Pkia jk = 1 a,ikPki = k = 1 k = l k = I

p i j . Es decir, (AB)' = B'A', con lo que hemos verificado la parte (3) del lema.

En la parte (3), si nos fijamos en el caso particular en que A; = B, obtenemos (A2) ' = (A') ' . Continuando obtenemos (Ak)' = (A')k para todo entero positivo k. Cuando A es invertible, entonces (A - I ) ' = (A_')- l .

Page 318: Herstein   Algebra moderna

316 TRANSFORMACIONES LINEALES - Cap. 6

Existe otra propiedad de la transpuesta, a sab_er, s i ;.EF entonces (;.A)' =

AA' para toda AEF,,. Ahora bien, si AEF, satisface un polinomio rOAm+ a, Am- ' + ... +rm = 0, obtenemos (roAm+ ... +rm)' = 0' = 0. Calculando explicitamente ( ro Am + . . . + r,)' usando las propiedades de la transpuesta, obtenemos ao(A ')"+a, (A1)"-' + . . . +rm = 0, es decir, A' satisface cualquier polinomio sobre F al que satisfaga A. Como A = (A')', por el mismo razonamiento, A satisface cualquier polinomio sobre F a1 que satisfaga A'. En particular, A y A' tiene el mismo polinomio minimo sobre F y, por tanto, tienen las misr?ias raices caracteristicas. Puede de- mostrarse que todas las raices tienen la misma multiplicidad en A que en A'. Esto es evidente una vez que se establece que A y A' son realmente semejantes (vCase el problema 14).

D E F I N I C I ~ N . La matriz A se dice que es una matriz sir~iPtrica si A' = A.

D E F I N I C ~ ~ N . La matriz A se dice que es una matriz antisir?i&trica si A' = -A.

0

Cuando la caracteristica de F es 2, como I = - I. no podemos distinguir entre matrices simetricas y antisimetricas. Para lo q~re resta de esta seccidn, conrenkios de uria rez por todas que la caracteristica de F es dijkrente de 2.

Tenemos procedimientos muy sencillos para producir matrices simetricas y matrices antisimetricas. Por ejemplo, s i A es una matriz arbitraria, entonces A + A' es simttrica y A - A' es antisimetrica. Si pensamos que A = f(A+A')+f(A-A'), vemos que toda matriz resulta ser la suma de una matriz simdtrica y otra antisimetrica. Esta descomposici6n es ~inica (vtase el problema 19). Otro metodo de producir matrices simttricas es el que sigue: s i A es una matriz arbitraria, entonces tanto AA' como A'A son simttricas. (N6tese que no tienen porqut ser iguales.)

Esth en la naturaleza de todo matemhtico que, una vez que se ha dado un concepto interesante surgido de una situaci6n particular, ha de intentar despojarlo de las particularidades de su origen y emplear las propiedades claves del concepto como medio de hacerlo mhs abstracto. Procedemos a seguir tal camino con la transpuesta. Tomamos, como propiedades formales de mayor interes, aquellas que aparecen en el enunciado del lema 6.18 que afirma que sobre F,, la transpuesta define un antiautomorfismo de period0 2. Nos lleva esto a la siguiente

D E F I N ~ C ~ ~ N . Una aplicacion de F,, en F, se llama adjunta sobre F,, si

I ) (A*)* = A; 3) (A+B)* = A*+B*;

3) (AB)* = B*A*;

para cualesquiera A, BE Fn .

Page 319: Herstein   Algebra moderna

18. TRAZA Y TRANSPUESTA 31 7

Notese en que no insistimos en que ().A)* = ;.A* para I E F. En realidad, en algunas de las adjuntas mas interesantes este no es el caso. Pasamos a discutir una tal. Sea F el campo de 10s numeros complejos; para A =

( r i j ) € F,,, sea A* = y i j ) donde y i j = ? i j i , el conjugado complejo de scij. En este caso * suele llanlarse adjunta liermitiana sobre F,,. Dentro de unas pocas secciones haremos u n estudio bastante extensivo de las matrices bajo la adjunta hermitiana.

Todo lo que hemos dicho acerca de la transpuesta como, por ejemplo, 10s conceptos de simetria y antisimetria, puede ser aplicado a las adjuntas generales, y hablamos de elementos simetricos bajo * (es decir. de aquellos A tales que A* = A), de elementos antisimetricos bajo *, etc. En 10s ejercicios del final de esta seccion, hay muchos ejemplos y problemas que se refieren a adjuntas en general.

Pero ahora, como diversion, juguemos un poco con la adjunta hermitiana. No llamamos a nada de lo que obtenemos un teorema, no porque no se. merezcan tal titulo, sino mas bien porque 10s volveremos a hacer mas tarde (y 10s designaremos entonces propiamente) partiendo de un punto de vista central.

Asi pues, supongamos que F es el campo de 10s numeros complejos y que la adjunta * sobre F,, es la adjunta hermitiana. La matriz A se llama hermitiana si A" = A.

Primera observacihn: si A # OEF,, entonces tr(AA*)>O. Segunda observacion : Como una consecuencia de la primera observacion, si A, , . . .,

- A,EF,, y si A l A l * + A 2 A 2 * + ... +A,A,* = 0, entonces A, = A, = ... - A, = 0. Tercera observacion: Si 1. es una matriz escalar, entonces I* = A. el conjugado complejo de 1..

Supongamos que AE F,, es hermitiana y que el numero complejo %+Pi. donde sc y p son reales e i2 = - I , es una raiz caracteristica de A. Tenemos, pues, que A - (sc + Pi) no es invertible; pero entonces (A - ( s c +Pi)) (A - (%-Pi)) = (A -2)' + P 2 no es invertible. Pero si una matriz es singular debe eliminar una matriz distinta de cero (teorema 6.b, corolario 2). Debe haber, por tanto, una matriz C # 0 tal que C ( ( A - C X ) ~ + P ~ ) = 0. Multipli- camos esto a la derecha por C* y obtenemos:

C(A - r)' C* + P2 CC* = 0.

Sea D = C(A - 9 ) y E = PC. Como A* = Ayr es real, C(A - r ) 'C* = DD*; como es real, P2CC* = EE*. Luego la ecuacion ( I ) toma la forma DD*+ EE* = 0 ; por las observaciones antes hechas esto implica D = 0 y E = 0. Solamente vamos a usar la relacion E = 0. Como 0 = E = PC y como C # 0, debemos tener P = 0. ;Qut es exactamente lo que hemos probado? En realidad, hemos probado el bello e importanre resultado de que si Lrn nlitnero cotnplqjo ;. es una raiz caracteristica de una matriz liermitiana. entonces ;. debe ser real. Aprovechando las propiedades del campo de 10s

Page 320: Herstein   Algebra moderna

31 8 TRANSFORMACIONES LINEALES - Cap. 6

n~imeros complejos se puede, realmente, reformular esto como sigue: Las raices caracteristicas de una matriz hermitiana son, todas, reales.

Continuamos con esta vena un poco mAs adelante. Para AEF, , sea B = AA*; B es una matriz hermitiana. Si el nlimero real a es una raiz caracteristica de B, ipuede a ser un numero real arbitrario o debe estar restringido de algun modo? Afirmamos que a debe ser no negativo. Pues si a fuera negativo entonces a = -P2, donde P es un numero real. Pero entonces B-a = B+P' = AA*+P' no es invertible, de donde hay un C # 0 tat que C(AA*+P2) = 0. Multiplicando por C* a la derecha y razonando como anteriormente, tenemos p = 0, una contradiccion. Hemos demostrado que cualquier raiz caracteristica real de AA* debe ser no negativa. En realidad, lo de "real" en la anterior afirmacion es supeduo y podriamos decir: para cualquier AEF, todas las raices caracteristicas de AA* son no negativas.

Problemas

1. PruCbese que tr ( A + B) = tr A +tr B y que para AEF, tr (AA) = A tr A.

2. a ) Usando un argument0 basado en la traza pruebese que si la caracteristica de F es 0 entonces es imposible encontrar A, BEF, tales que AB- BA = 1.

6 ) En la parte (a), pruebese que en realidad 1 - (AB- BA) no puede ser nilpotente.

3. a ) Sea f una funcion definida sobre F,, con valores en F tales que:

1) f ( A + B ) = f ( A ) + f ( B ) , 2) f ( W = Af(A), 3) f (AB) = f (BA), para todo A, BEF,, y para todo AEF. Prutbese que hay un elemento a , ~ F t a l que f ( A ) = a, tr A para todo A en F,.

6 ) Si la caracteristica de F es 0 y si la f de la parte (a ) satisface la propiedad adicional de que f ( l ) = n, pruibese que f ( A ) = tr A para todo A E F,, .

Notese que el problema 3 caracteriza la funci6n "traza".

*4. a ) Si el campo F tiene un numero infinito de elementos, pruebese que todo elemento en F, puede escribirse como la suma de matrices regulares.

6 ) Si F tiene un numero infinito de elementos y sif, definido sobre F, y con sus valores en F, satisface

1) f ( A + B ) =f (A)+f (B) , 2 ) f ( W = Af(A), 3) f ( B A B - = f(All

Page 321: Herstein   Algebra moderna

18. TRAZA Y TRANSPUESTA 31 9

para toda AE F,, I,E F y todo elemento invertible Ben F,, pruebese - que f (A ) = a, tr A para un ~ , E F determinado y toda AEF,.

5. Pruebese que el lema de Jacobson para elementos A, B en F, si n es menor que la caracteristica de F.

6. a) Si CEF,, definamos la aplicacion dc sobre F, por d,(X) = XC- CX para coda XEF,. Pruebese que dc(XY) = (dc(X))Y+ X(dc(Y)). (;No le recuerda esto al lector la derivada?)

6) Usando la parte (a), pruebese que si AB- BA conmuta con A, entonces para cualquier polinomio q ( x ) ~ F [ x ] , q(A)B- Bq(A) = q'(A) (AB- BA), donde ql (x) es la derivada de q(x).

*7. osese la parte (6) del problema 6 para dar una prueba del lema de Jacobson. (Sugerencia: Sea p(x) el polinomio minimo para A y co~~siderese 0 = p(A) B- Bp(A).)

8. a) Si A es una matriz triangular, pruibese que las entradas sobre la diagonal de A son exactamente todas las raices caracteristicas de A.

6) Si A es triangular y 10s elementos en su diagonal principal son 0, pruibese que A es nilpotente.

9. Para cualquier A, BE F, y LE F prudbese que (A')' = A, (A + B)' = A'+ B' y (IA)' = I A ' .

10. Si A es invertible, prutbese que (A- I ) ' = (A')- '. 11. Si A es antisimttrica, prukbese que 10s elementos en su diagonal

principal son, todos, cero.

12. Si A y B son matrices simdtricas, prukbese que AB es simdtrica si y solo si AB = BA.

13. Proporci6nese un ejemplo de una A tal que AA' # A'A.

*14. DemuCstrese que A y A' son semejantes.

15. Los elementos simktricos en F, forman un espacio vectorial; encuentrese su dimensi6n y exhibase una de sus bases.

*16. Denotemos por S el conjunto de 10s elementos simitricos de F,; pruebese que el subanillo de F, generado por S es, todo, F,.

*17. Si la caracteristica de Fes 0 y AEF, tiene traza 0 (tr A = 0) pruCbese que hay una CEF, tal que CAC- ' tiene solamente 0 en su diagonal principal.

*18. Si F es de caracteristica 0 y AEF, tiene traza 0, pruCbese que existen B, CEF, tales que A = BC-CB. (Sugerencia: Primer paso, sup6ngase, por el resultado del problema 17, que todos 10s elementos diagonales de A son 0.)

Page 322: Herstein   Algebra moderna

320 TRANSFORMACIONES LINEALES - Cap. 6

19. a) Si * es cualquier adjunto sobre F,, sea S = {A ~ g , : A* = A) y sea K = {AEF,(A* = -A). Prutbese que S + K = F,.

b) Si AEF, y A = B+C donde BES y CEK, prutbese que B y C son dnicos y determlnense.

20. a) Si A, BES prutbese que A.B+ BAES.

b) Si A, BE K prutbese que AB- BAE K. c) Si A E S ~ BEK pruCbese que A B - B A E S ~ que AB+BAEK.

21. Si 4 es un automorfismo del campo F definimos la aplicacion @ sobre F, por: si A = (alj) entonces @(A) = (4(aij)). Prutbese que @(A+B) = @(A)+@(B) y que @(AB) = @(A)@(B) para toda A, BEF,.

22. Si * y @ definen dos adjuntos sobre F,, prutbese que la aplicacion $ : ~ - , ( ~ * ) @ ~ a r a t o d o ~ ~ ~ , , s a t i s f a c e $ ( ~ + B ) = $(A)+$(B)y$(AB) = $(A) $ (B) para cualesquiera A, BE F, .

23. Si * es un adjunto cualquiera sobre F, y I es una matriz escalar en F,, prutbese que I* debe tambitn ser una matriz escalar.

*24. Supongamos que conocemos el siguiente teorema: si $ es un auto- morfismo de F, (es decir, $ transforma F, sobre t l mismo, de tal mod0 que $(A + B) = $(A)+ $(B) y $(AB) = $(A)+ $(B)) tal que $(I) = I para toda matriz escalar I , entonces hay un elemento PEF, tal que $(A) = PA P- ' para todo A E F, . Basindose en este teorema, prutbese que : si * es un adjunto de F, tal que I* = I para toda matriz escalar I , entonces existe una matriz PE F, tal que A* = PA'P- ' para to& AEF, . Ademis, P- 'P' debe ser un escalar.

25. Si PE F, es tal que P- ' P' # 0 es un escalar, prutbese que la aplicacion definida por A* = PA'P-' es un adjunto sobre F,.

*26. Basindose en el teorema acerca de automorfismo enunciado en el problema 24, prutbese lo siguiente: Si * es un adjunto sobre F, hay un automorfismo 4 de F de period0 2 y un elemento PEF, tales que A* = P(@(A))'P- ' para todo A EF, (para notacion, vtase el problema 21). Ademas, P, debe satisfacer P - ' @(P)' es un escalar.

Los problemas 24 y 26 indican que una adjunta general sobre F, no esti tan alejada de la transpuesta como se habria creldo a primera' vista.

**27. Si $ es un automorfismo de F, tal que $(I) = I para todos 10s escalares, prutbese que hay un PEF, tal que $(A) = PAP-' para todo AEF, .

En el resto de 10s problemas, F serd el campo de 10s nzimeros complejos y * la adjunta hermitianu sobre F, .

Page 323: Herstein   Algebra moderna

5 9. DETERMINANTES 321

28. Si AEF, , pruebese que hay matrices hermitianas 6nicas B y C tales queA = B + ~ c ( i 2 = -1).

29. PruCbese que tr A A* > 0 si A # 0.

30. Por calculo direct0 de las entradas de las matrices, pruCbese que si A , A , * + . . . + A , A,* = 0, entonces A , = A , = . . . = A, = 0.

31. Si A estl en F, y si BAA* = 0, pruebese que BA = 0.

32. Si AEF, es hermitiana y BA' = 0, pruCbese que BA = 0.

*33. Si AEF, es hermitiana y si 1, p son dos raices caracteristicas reales distintas de A y si C ( A - 1 ) = 0 y D ( A -p) = 0, pruebese que C D = D C = 0. (Sugerencia: Considtrese primer0 el caso en que C y D son hermitianos y luego apliquese el resultado del problema 31).

*34. a ) Suponiendo que todas las raices caracteristicas de la matriz hermitiana A estan en el campo de 10s nirmeros complejos, combinando 10s resultados de 10s problemas 32 y 33, y el hecho de que las raices deben, por tanto, ser todas reales, y el resultado del corolario del teorema 6.n, pruebese que A puede ser puesta en forma diagonal; es decir, que hay una matriz P tal que PAP-' es diagonal.

b) En la parte ( a ) prutbese que P puede escogerse de forma que PP* = 1.

35. Sea V, = { A E F , I AA* = 1). Prutbese que V, es un grupo bajo la multiplicaci6n de matrices.

36. Si A conmuta con AA* - A*A, pruCbese que AA* = A*A.

9 . DETERMINANTES

La traza define una funci6n importante y irtil del anillo de las matrices F, (y de A , ( V ) ) en F; sus propiedades se relacionan en su mayor parte con las propiedades aditivas de las matrices. lntroduciremos ahora la funcibn, airn mas importante, conocida como el determinante, que transforma F, en F. Sus propiedades eSan estrechamente ligadas con las propiedades multiplicativas de las matrices.

Aparte de su efectividad como argument0 para probar teoremas, el determinante es valioso para usos "practicos". Dada una matriz T, podemos construir en ttrminos de determinantes explicitos un polinomio concreto cuyas raices son las raices caracteristicas de T; a~in mas, la multiplicidad de una raiz de este polinomio es igual a su multiplicidad com'o raiz caracteristica de T. En realidad, el polinomio caracteristico de T, definido anteriormente, puede exhibirse como este polinomio determinante explicitamentel

Page 324: Herstein   Algebra moderna

322 TRANSFORMACIONES LINEALES - Cap. 6

Los determinantes juegan tambitn un papel fundamental en la solucion de sistemas de ecuaciones lineales. Por esta direction es por la que motivaremos su &finici6n.

Hay muchas formas de desarrollar la teoria de determinantes, algunas muy elegantes y otras muy aburridas. Nosotros hemos escogido un camino distinto del de cualquiera de estos extremos, pero que para nosotros tiene la ventaja de que podemos alcanzar 10s resultados necesarios para nuestra discusi6n & las transformaciones lineales con la mayor rapidez posible.

En lo que sigue, F sera un campo arbitrario, F, el anillo de las matrices n x n sobre F, y F'") el espacio vectorial & n-adas sobre F. Por una matriz entenderemos dcitamente un elemento en F,,. Como es usual, las letras griegas indicarhn elementos de F (salvo advertencia en contra).

Consideremos el sistema de ecuaciones

Nos preguntamos: ibajo quC condiciones sobre las ai j podemos resolver para x , y x2 con 8, y 8, dadas cualesquiera? 0, lo que es equivalente, dada la matriz

jcuindo esta matriz transforma F") sobre si mismo? Procediendo como en secundaria, eliminamos x , entre las dos ecuaciones;

el criterio de solubilidad resulta, entonces, ser que a , , a,, - a 1 2 a 2 , # 0. Pasamos ahora a1 sistema de tres ecuaciones lineales

y de nuevo nos preguntamos sobre las condiciones de solubilidad para @, , P2 y P3 arbitrarias. Eliminando x , entre estas dos a la vez, y luego x2 de las restantes dos ecuaciones, obtenemos como criterio de solubilidad

Usando estos dos como modelo (y con el presentimiento de que psto va a funcionar) daremos el gran salto hasta el caso general y definiremos el determinante de una matriz arbitraria n x n sobre F. Pero fijCmonos antes un poco en la notacion.

Page 325: Herstein   Algebra moderna

19. DETERMINANTES 323

Sea Sn el grupo simktrico de grado n ; considerarnos que 10s elernentos de Sn estan actuando sobre el conjunto {I, 2, ..., n ) . Para aeS,,, a(i) denotara la imagen de i bajo a. (Carnbiarnos la notacion escribiendo la perrnutacion corno si actuara a la izquierda en lugar de. corno previarnente, a la derecha. Lo hacernos para facilitar la escritura de 10s subindices.) El sirnbolo ( - I)" para oeSn indica + I si o es una perrnutacion par, y - 1 . si es una perrnutacion impar.

DEFINICI~N. Si A = (oij), entonces el determinante de A, lo que se escribe: det A, es el elernento de F ( - I )Qz,,(l,a2,(,, .. . a,,,,,

r c S ,

Usarernos a veces la notacion

a , , ..- @ ~ n

zn1 ... ann

para el deterrninante de la rnatriz

a,,

Notese que el deterrninante de una rnatriz A es la surna (si prescindimos, por el mornento, de 10s signos) de todos 10s productos posibles de entradas de A en 10s que aparezcan uno y solo uno de cada rengl6n y colurnna. En general es una labor pesada desarrollar el deterrninante de una matriz- fijtrnonos que hay nada menos que n! tkrrnino;; en la expansi6n-mas para al rnenos un tipo de matriz podernos hacer este desarrollo visualmente, a saber

LEMA 6.19. El determinante de una matriz triangular es el producto de sus entradas en la diagonal principal.

Prueba. Ser triangular irnplica dos posibilidades, a saber, o todos 10s elernentos por encima de la diagonal principal son 0, o todos 10s elementos por debajo de la diagonal principal son 0. Probarernos aqui el resultado para A de la forrna

Page 326: Herstein   Algebra moderna

324 TRANSFORMACIONES LINEALES - Cap. 6

e indicaremos el pequefio cambio en el argument0 a emplear para la otra clase de matrices triangulares.

Como a,, = 0 salvo si i = 1, en la expansion de det A j la unica con- tribuci6n no nula viene de aquellos tkrminos donde a(]) = 1. Asi pues, como a es una permutacion, a(2) # 1 ; pero si a(2) > 2, a,,(,, = 0; luego, para obtener una contribucion no nula a det A, a(2) = 2. Continuando de esta forma, debemos tener a(i) = i para todo i, lo que es lo mismo que decir que en la expansion de det A el unico termino distinto de cero se presenta cuando a es el elemento identidad de S,. De aqui que la suma de 10s r i ! tdrminos se reduce a exactamente uno solo, a,, a,, . . . a,, , que es lo que el teorema afirma.

Si A es una triangular inferior comenzamos con el extremo opuesto probando que para una contribuci6n distinta de cero a(n) = n, luego que a(n-1) = n-1,etc.

Algunos casos especiales son de interks:

1) Si

es diagonal, det A = All2 ... A,. 2) Si

la matriz identidad, entonces det A = 1

3) Si

la matriz escalar, entonces det A = An.

Page 327: Herstein   Algebra moderna

Obskrvese tambiin que si un rengldn o columna de una marriz esrli com- puesta solo de ceros, entonces el determinante es 0, pues cada ttrmino del desarrollo del determinante serh un product0 en el que a1 menos uno de 10s factores es 0, de donde cada ttrmino es 0.

Dada la matriz A = (a,,) en F, podemos considerar su primera fila L', = (z, l , a,,, . . ., al,) como un vector en F'"), y antilogamente para su segunda fila, u,, y las restantes. Podemos considerar entonces det A como una funcion de 10s n vectores o,, ..., u,. Muchos resultados se pueden enunciar mhs sucintamente en estos ttrmjnos, por lo que a menudo con- sideraremos det A = d(ul, . . ., 0,); en este caso la notacibn siempre se entiende que implica que u1 es el primer rengldn, u, el segundo, y asl sucesiva- mente, de A.

Una observaci6n miis: aunque estamos trabajando sobre un camp, podriamos sin la menor dificultad suponer que esthbamos trabajando sobre un anillo conmutativo, except0 en las obvias ocasiones en que dividimos por elementos. Esta observaci6n solamente vendrl a cuento cuando discutamos determinantes de matrices que tengan entradas polinomiales, lo que haremos dentro de poco en esta misma secci6n.

LEMA 6.20. S i AE F, y y E F, entonces d(ul , . . ., ui- l , yo,, v,+ . . . 0,) = yd(u1, ., ui- 1 , ui, U I + 1, . ., 0,).

N6tese que el lema dice que si todos 10s elementos de un rengl6n de A son multiplicados por un elemento fijo y de F, entonces el determinante de A queda tambitn multiplicado por y.

Prueba. Como solamente las entradas de la i-tsima fila han cambiado, el desarrollo de d(u, , . . ., v,- , , yo,, ui+ , , . . ., u,) es

como esto es igrral a y 1 (-1)" a,,(,, ... ... a,.(.), es claro que es oes,

igual a yd(ul, . . ., v,).

Antes de probar el resultado, veamos quC es lo que dice y lo que no dice. No dice que det A+det B = det(A + B); esto es falso como puede verse en el ejemplo

donde det A = det B = 0 mientras que det (A+ B) = 1. Dice que si A y B son matrices iguales en 'todas partes salvo en el i-ksimo renglbn-entonces

Page 328: Herstein   Algebra moderna

326 TRANSFORMACIONES LINEALES - Cap. 6

la nueva matriz obtenida de A y B usando todos 10s renglones de A except0 el i-esima. y usando como i-esimo renglon la sumz de 10s i-esimos renglones de A y B, tiene un determinante igual a det A +det B. Si

entonces

Prltrba. Si c., = (z , , ,..., z,,) ..... r i = (ziI ,.... !xi,,) ..... I; = (z,, ,..., z,,) y si illi = (pi,. ..., pi,,). entonces

Las propiedades que aparecen en 10s lemas 6.19. 6.20 y 6.2 1 . junto con las que aparecen en el pr6ximo lema, puede demostrarse que caracterizan a la funcion determinante (vkase el problema 13 al final de esta seccibn). Asi pues, la propiedad formal exhibida en el siguiente lema es basica en la teorla de determinantes.

LEMA 6.22. Si dos renglones de A son igrrales (es decir. si or =us para r # s), entonces det A = 0.

Prueba. Sea A = (aij) y supongamos que para ciertos r, s con r # s zrj = aSj para todo j. Consideremos el desarrollo

det A = 1 ( - I)"z~,,( l ) Zra(r1 zm(r) ... zna(n). ncS.

En el desarrollo, apareamos 10s tkrminos como sigue: Para aeS, apareamos el tkrmino ( - l)"z ,,,,, . . . a ,,,,, con el termino ( - 1): al ,o,l , ... a ,,,,, ,,

Page 329: Herstein   Algebra moderna

donde r es la transposicion (u(r), u(s)). Como r es una transposicion y r Z = 1, esto nos &, ciertamente, un aparejamiento. Pero como a,(,, = as,(,,, por hipotesis, y as,(,, = a,,,(,,, tenemos que a,,(,, = a,(,,. Anlloga- mente, as,(,, = a,,,(,, . Por otra parte, para i # r y i # s, como ru(i) = u(i), cx,,(,, = air,(i,. Luego 10s tCrminos a,,(,, ... a,,(,, y a,,,(,, ... a,,(,, son iguales. El primer0 aparece con el signo (- 1)" y el segundo con el signo (- 1)'" en la expansion de det A. Como r es una transposici6n y por tanto una permutation impar, (- I)'" = -(- 1)". Por tanto, en el aparejamiento, 10s tCrminos apareados se cancelan mutuamente en la suma, de donde det A = 0. (La prueba no depende de la caracterlstica de F y es igualmente vhli& incluso en el caso de caracteristica 2.)

De acuerdo con 10s resultados hasta ahora obtenidos, podemos deter- minar el efecto sobre un determinante de una matriz && de una permuta- cion de sus renglones.

LEMA 6.23. El intercambio de dos renglones de A cambia el signo de su determinante.

Prueba. Como hay dos renglones iguales, s e g h el lema 6.22, d(u, , . . ., 01-1, Ui+uj, UI+I, ..., uj-1, u ~ + u j 9 17j+1, . . ., 0,) = 0. Usando el lema 6.21 varias veces po&mos desarrollar esto para obtener d(v,, ..., v,-, , v,, ..., ~ j - ~ , u j , ..., 0,) + d(u1, ..., ~ ~ - 1 , uj, ..., ~ j - l , u i , ..-, 0,) + d(ul,...,v1-l, u,, .. ., uj- 01, . .., on) + d(u1, .. ., 0,- ,, uj, ..., uj- ,, uj, . .., 0,) = 0. Pero ca& uno de 10s 6ltimos dos ttrminos tiene en t l dos renglones iguales. de donde, seglin el lema 6.22, cada uno es 0. La anterior relacion se reduce entonces a d(v,, ..., v,-, , u,, ..., vj-, , vj, ..., v,) + d(vl, ..., vl- ,, uj, ..., vj- ,, vi, ..., 0,) = 0, que es precisamente lo que el lema afirma.

COROLARIO. Si la matriz B se obtiene de la A mediante una permutacidn de 10s renglones de A, entonces det A = f det B, siendo el signo + 1 si la permutacidn es par, y - 1 si la permutacidn es impar. ,

Estamos ahora !en position de unir piezas para probar la propiedad algebraica bhsica & la funci6n determinante, a saber, que preserva 10s productos. Como un homomorfismo de la estructura multiplicativa de F, en F el determinante adquirirh ciertas caractedsticas importantes.

TEOREMA 6.f. Pura A, BE F, , det (AB) = (det A) (det B).

Prueba. Sea A = (a,,) y B = (&); Sean las filas & B 10s vectores u, , u,, . . ., u,. Introducimos 10s n vectores w, , . . ., w, como sigue:

Page 330: Herstein   Algebra moderna

328 TRANSFORMACIONES LINEALES - Cap. 6

Consideremos d(w,, ..., w,); desarrollando este determinante y haciendo un uso mliltiple de 10s lemas 6.20 y 6.21, obtenemos

En esta suma mliltiple i, , . . ., in van tomando independientemente todos 10s valores desde I hasta n. Pero, si cualesquiera dos i, = is entonces u,, = ui, de donde d(ui,, ..., uic, ..., ui,, ..., urn) = 0 por el lema 6.22. En otras palabras, 10s unicos ttrminos en la suma que pueden dar una contribu- ci6n distinta de cero son aquellos para 10s que todo 10s i, , i,, ..., in son distintos, es decir, aquellos para 10s que la aplicacion

1 2 n u =

( i , i, - i,,)

es una permutacion de 1, 2, . . ., n. Ademls, cualquier permutacion tal es posible.

Observernos finalmente que seglin el corolario del lema 6.23, cuando

es una permutacion, entonces d(uil, u,,, ..., u,.) = (- l ) a d ( ~ I , ..., u,) = (- det B. Tenemos asi

d(wl , --., 4 ) = 1 a,,(,)(- 1)' det B aeS.

= (det B) (det A).

Deseamos ahora identificar ahora -d(w, , . . ., w,) como det (AB). Pero cornow, = a , , u , + ... +a,,u,,

tenernos que d(w, , . . ., w,) es det C, donde el primer rengl6n de C es w, , la segunda es w, , etc.

Pero si desarrollamos w, en tCrminos de coordenadas obtenemos

Page 331: Herstein   Algebra moderna

que es el primer renglon de AB. Analogamente uj, es el segundo renglon de - AB, y asi sucesivamente, para el resto de 10s renglones. Luego C = AB. Como det (AB) = det C = d(u7,. .... u.,) = (det A) (det B), hemos probado el teorema.

COROLARIO I. Si A es inrerrible entonces det A # 0 y det (A - ) = (det A)- '

Prueba. Como A A - I = I, det(AA-I) = det I = I. Luego segun el teorema. I = det (AA - I ) = (det A) (det A - I ) . Esta relacion afirma en-

I tonces que det A # 0 y det A - ' = -

det A

COROLARIO 2. Si A es invertible, entonces para toda B, det (ABA- I ) = det B.

Prueba. Usando el teorema en la forma en que se aplico a (AB)A- tenemos det ((AB) A- I ) = det (AB) det (A - I ) = det A det B det (A- I ) .

Aplicando el corolario I esto se reduce a det B. Luego det (ABA-I) =

det B.

El corolario 2 nos permite definir el determinante de una transformacion lineal. Pues s i TEA( V) y m, (T) es la matriz de Ten alguna base de V, para otra base, s i m,(T) es la matriz en esta segunda base. entonces. segdn el teorema 6.h, m,(T) = Cm, ( T ) C - I , de donde det (m,(T)) = det (m, (T)) segdn el anterior corolario 2. Es decir. la matriz de Ten cualquier base tiene e l misma determinante. Luego la definicibn: det T = det m, (T ) es en realidad iridependiente de la base y provee a A(V) de una funcion determi- nante.

En uno de 10s primeros problemas, la finalidad del problema era la de probar que A', la matriz transpuesta de la A, es semejante a A. Si esto fuera cierto (y lo es), entonces A' y A de acuerdo con el corolario 2 anterior tendrian el mismo determinante. No es, pues, motivo de asombro que poda- mos dar una prueba directa de este hecho.

LEMA 6.24. det A = det A'.

Prueba. Sea A = (aij) y A ' = (bij): desde luego, pij = zji. Ahora bien

mientras que

Page 332: Herstein   Algebra moderna

330 TRANSFORMACIONES LINEALES - Cap. 6

Per0 el tkrrnino ( - I )"z ,,,,, . . . a,,,,, es igual a ( - I)'a,,- ,, , , . . . a,,- ,,,,. (pruebese). Pero a y a - ' son de la rnisrna paridad, es decir, si a es irnpar, entonces tarnbien lo es a - I , rnientras que si a es par entonces a - es par. Luego

Finalrnente, corno a recorre S,, a - ' recorre tarnbien por ello S,,. Luego

det A' = ( - l ) n ~ ' z l n - ~ l l , ~ ~ ~ ~ n n - l , n ~ n ' ' E S,,

= det A.

A la luz del lema 6.24, el intercambio de 10s renglones y las colurnnas de una matriz no cambia su determinante. Pero entonces 10s lemas 6.20, 6.2 1, 6.22 y 6.23 que son rdlidos para operaciones con renglones de la mafriz, se ~Serifican igualmenfe para las columnas de la mafriz.

Hacernos un uso inrnediato de la observacion para derivar la regla de Cramer para la resoluci6n de un sistema de ecuaciones lineales.

Dado el sistema de ecuaciones lineales:

llamarnos a A = (a,,) la rnatriz del sistema y a A = det A el deferminanfe del sisfema.

Supongamos que A # 0 ; es decir, que

De acuerdo con el lema 6.20 (en su forma modificada para columnas en lugar de para renglones),

Pero corno una consecuencia de 10s lernas 6.21 y 6.22, podemos aiiadir

xiA =

a , , zIIxi a - V R I B

anl .-. a,, xi - - a an,

Page 333: Herstein   Algebra moderna

5 9. DETERMINANTES 331

cualquier multiplo de una columna a otra sin cambiar el determinante (vtase el problema 5). Anadase a la i-tsima de x i A , x, veces la primera colurnna, x, veces la segunda. . . .. xi veces 1a.j-esima (para todo j # i ) . Asi pues

y usando a,, x , +... +a,,xn = 2,. vemos finalmente que

Ai De donde. .rj = -. Esto es

A

TEOREMA 6.u. (REGLA DE CRAMER). Si es delemiinante A del sistema de ecrracione.~ lineales

Ai us dijkrente de cero, entonces la solucidn del sistema ~'iene dada por x i = -

A ' rlonde A , es el determinante obtenido de A a1 reemplazar en la i -hima columna par P I , D z . .... f in.

Ejeniplo. El sistema

x ,+2xz+3x , = - 5

I x , +x ,+x , = - 7

x ,+x ,+x , = 0

tiene determinante

Page 334: Herstein   Algebra moderna

332 TRANSFORMACIONES LINEALES - Cap. 6

de donde

Podemos relacionar la invertibilidad de una matriz (o transformacion lineal) con el valor de su determinante. El determinante nos provee, por tanto, de u n criterio de invertibilidad.

TEOREMA 6.v. A es inrerrible si +v sblo si det A # 0.

Prueba. Si A es invertible. hemos visto en el corolario I del teorema 6.t. que det A # 0.

Supongamos ahora que el det A # 0 donde A = (zij). Segun la regla de Cramer, podemos resolver el sistema

para x , . .... x, dando /3,, ..., /3, arbitrarios. Como una transformacion lineal sobre F'"'. A ' es pues*suprayectiva, en realidad el vector ( P I , . . ., 8,)

es la imagen bajo A' de -1, . . ., - . Por ser suprayectiva, seglin el teo- (: 2) rema 6.d, A' es invertible, de donde A es invertible (pru~bese).

Podemos ver el teorema 6.v desde un punto de vista alternarivo y probablemente mas interesante. Dada A E F , podemos sumergirla en K, donde K es una extension de F escogida de mod0 tal que en K,, A pueda ser puesta en forma triangular. Hay, por tanto, un BE K, tal que

aqui A , , . . ., A, son todas las raices caracteristicas de A, cada una apareciendo tantas veces como unidades tiene su multiplicidad como raices caracteristicas de A. Asi pues, det A = det (BAB- I ) = A , A, ... segun el lema 6.19. Pero A es invertible si y solo si ninguna de sus raices caracteristicas es cero;

Page 335: Herstein   Algebra moderna

5 9. DETERMINANTES 333

pero det A # 0 si y solo si i., i2 ... i., # 0, es decir, si ninguna de las - raices caracteristicas de A es 0. Luego A es invertible si y solo si det A # 0.

Este argument0 alternativo tiene algunas ventajas, pues al efectuarlo probamos realmente un subresultado interesante por si mismo, a saber ,

LEMA 6.25. det A es el producto, contando /as niultiplicidades, de las raices caracteristicas de A.

DEFINICION. Dada AEF,,, la ecuacidn secular de A es el polinomio det ( x - A ) en F [x ] .

Generalmente lo que hemos llamado la ecuacion secular de A se suele llamar polinomio caracteristico de A. Pero hemos definido ya el polinomio caracteristico de A como el producto de sus divisores elementales. Es un hecho (rkase el problenia 8 ) yue el polinomio caracteristico de A es igual a su ecuacidn secular, pero corno nosotros no necesitarnos desarrollar esto explicitamente en el texto. introducirnos el tCrmino de ecuacion secular.

Calculemos un ejemplo. Si

en tonces

de donde d e t ( x - A ) = ( x - 1 ) x - ( - 2 ) ( - 3 ) = x 2 - x - 6 . Asi pues, la ecuacion secular de

es x 2 - X - 6 . Unas cuantas observaciones acerca de la ecuacibn secular: Si i. es una

raiz de det ( x - A), entonces det (I. - A ) = 0; de donde, segun el teorerna 6.v, 1.- A no es invertible. Asi pues, I. es una raiz caracteristica de A. Reciproca- mente. si i. es una raiz caracteristica de A, i.- A no es invertible, de donde det (i. - A ) = 0 y . por tanto, i. es una raiz de det ( x - A). Asi pues, el polinomio explicit0 y computable "ecuacion secular de A", nos proporciona un polinonlio cuyas raices son exactamente las raices caracteristicas de A. Necesitamos subir un escalon mis y probar que una raiz dada entra como una raiz de la ecuacion secular precisamente tantas veces como sa multiplici-

Page 336: Herstein   Algebra moderna

334 TRANSFORMACIONES LINEALES - Cap. 6

dad como raiz caracteristica de A. En efecto, si Ai es la raiz caracteristica cte A con multiplicidad m i , podemos poner A en forma triangular de mod0 que

donde cada Ai aparece en la diagonal mi veces. Pero

B ( x - A ) B - ' = x - B A B - ' =

Page 337: Herstein   Algebra moderna

de modo que det ( x - A ) = det ( B ( x - A ) B - I ) = ( x - i . , )m l (x - j . l )m l . . . (x - l , )"* , y, por tanto, cada i.,, cuya multiplicidad como raizcaracteristica de A es m i , es una raiz del polinomio det(x- A ) de multiplicidad exactamente igual a m i . Y hemos probado el

TEOREMA 6.w. Las raices caracteristicas de A son las raices, con la multiplicidad correcta, de la ecuacion secular, det ( x - A ) , de A.

Damos termino a esta seccion con el significativo e historic0 teorema de Cayley- Hamilton.

TEOREMA 6.x. Toda A E Fn satis/ace su ecuacion secular.

Prueba. Dada cualquier matriz invertible BEK, , donde K es una extension cualquiera de F, A E F y BAB- ' satisfacen 10s mismos polinomios. Ademas, como det (x - BAB- ' ) = det ( B ( x - A ) B - I ) = det ( x - A) , BAB- ' y A tienen la misma ecuacion secular. Si podemos demostrar que algun BAB- ' satisface su ecuacion secular, se seguira de ello entonces que A tambien la satisface. Pero podemos escoger K 2 F y BEK, de mod0 que BAB- sea triangular; en tal caso ya vimos bastante antes (teorema 6.k) que una matriz triangular satisface su ecuaci6n secular. Luego el teorema queda probado.

1. Si F es el campo de 10s numeros complejos. evaluense 10s siguientes determinantes :

2. para que caracteristicas de Fson 0 10s siguientes determinantes?

3. Si A es una matriz con entradas enteras tales que A - es tambitn una matriz con entradas enteras, i,c~lSles pueden ser 10s valores de det A?

Page 338: Herstein   Algebra moderna

336 TRANSFORMACIONES LINEALES - Cap. 6

4. Prutbese que si se suma el mliltiplo de un rengl6n a otro no se cambia el valor del determinante.

*5. Dada la matriz A = (ajj), sea A i j la matriz obtenida de la A quitando el i-esimo renglon y la ,j-esima columna. Sea M. . I J = ( - 1)"' det Aij. A Mij se le suele llamar cofactor de ail. PruCbese que det A = air Mi, + ... +ain M,.

6. a) Si A y B son submatrices ccadradas, prutbese que

det ( :] = (det A ) (det B ) .

h ) Generalicese la parte !a) a

det [ A 2 . . . 1) donde cada A ; es una submatriz cuadrada.

7. Si C(f) es la matriz compafiera del polinomio j'(x), prutbese que la ecuacion secular de C( j') esjlx).

8. Usando 10s problemas 6 y 7 prutbese que la ecuacion secular de A es su polinomio caracteristico. (Vtase la secci6.n I ; esto prueba la obser- vacion que antes hicimos de que las raices de p,(x) aparecen con multiplici- dades iguales a sus multiplicidades como raices caracteristicas de T.)

9. Usando el problema 8, proporcionese una prueba alternativa del teorema de Cayley-Hamilton.

10. Si F es el campo de 10s numeros rationales, calclilense la ecuacion secular y las raices caracteristicas con sus multiplicidades de

11. Para cada una de las matrices de problema 10, verifiquese, por calculo matricial directo, que satisface su ecuaci6n secular. -

Page 339: Herstein   Algebra moderna

*12. Si el rango de A es r, prukbese que hay una submatriz cuadrada -

r x r de A de determinante distinto de 0, y si r <n, que no hay ninguna submatriz ( r + I ) x ( r + I ) de A con esta propiedad.

*13. Seaf una funcion de n variables de F'") a F tal que:

a) , f ( r , , ..., c,) = 0 para r i = L;.EF(") con i # j.

6) f ( r l , ..., ar i , ..., rn ) = af(r I , .... r,) para toda i y ZEF.

Pruebese que , f ' ( ~ 5 , , ..., 11,) = det A para cualquier AEF,, donde r i es la primera fila de A, L,, la segunda, r'tc.

14. h e s e el problema 13 para probar que det A' = det A.

a) PruCbese que AB y BA tienen la misma ecuacion secular (carac- teristica).

6) Proporcionese un ejemplo en donde AB y BA 110 tengan el mismo polinomio minimo.

16. Si A es triangular prukbese, por un calculo directo, que A satisface su ecuacion secular.

17. usese la regla de Cramer para calcular las soluciones en el campo real de 10s sistemas:

a) x+y+z =t I b) x+y+z+w = I

2x+3y+4z = I x+2y+32+4w = 0

x-y-z = 0 x+y+4z+5w = I

x+y+5z+6w = 0.

18. a) Sea GL(n, F ) el conjunto de todos elementos de Fn cuyo deter- minante es diferente de 0. PruCbese que GL(n. F ) es un grupo bajo la multiplicacion de matrices.

b) Sea D(n, F ) = { A E GL(n, F ) ldet A = 1 ). Pruebese que D(n. F ) es un subgrupo normal de GL(n, F).

C ) PruCbese que GL(n, F)/D(n, F ) es isomorfo al grupo de elementos distintos de cero de F bajo la multiplicacion.

19. Si K es un campo extensibn de F, sea E(n. K. F ) = {AeGL(n, K ) ( det A E F) .

a) PruCbese que E(n, K, F ) es un subgrupo normal de GL(n. K) .

*b) Determinese GL(n, K)/E(n, K, F).

Page 340: Herstein   Algebra moderna

338 TRANSFORMACIONES LiNEALES - Cap. 6

*U). Si F es el campo de 10s numeros racionales, prudbese que cuandosN es un subgrupo normal de D(2, F ) entonces o N = D(2, F ) o N consiste solamente en matrices escalares.

10. TRANSFORMACIONES HERMITIANAS, UNITARIAS Y NORMALES

En nuestras consideraciones previas acerca de las transformaciones lineales, la naturaleza especifica del campo F ha jugado un papel relativa- rnente insignificante. Cuando se hizo sentir fue usualmente respecto a la presencia o ausencia de raices caracteristicas. Ahora, por primera vez, restringiremos el campo F -generalmente sera el carnpo de 10s nurneros complejos, per0 a veces sera el de 10s numeros reales- y haremos un gran uso de las propiedades de 10s nurneros complejos y reales. A menos que explicitamente se diga lo contrario, en toda esta seccidn F representarci a1 ;amPo de 10s ntjmeros complejos.

Haremos tambidn un uso extensivo y constante de las nociones y resul- tados de la seccion 4, capitulo 4, sobre espacios con product0 interior. Aconsejamos al lector que revise y asimile por completo tal material antes de seguir mas adelante.

Una observation mas acerca de 10s numeros cornplejos: hasta ahora hernos evitado usar resultados que no hubieran sido probados en el libro. Ahora, sin embargo, nos vernos forzados a desviarnos de esta norma y a ernplear un hecho basico referente al campo de 10s nurneros complejos, el llarnado "teoreina fundamental del cilgebra", sin que aqui lo dernostrernos. Nos desagrada sacar tal resultado corno quien dice del aire, enunciarlo corno un hecho y pasar sin mas a hacer uso de dl. Desgraciadarnente, es esencial para lo que sigue y hacer aqui una digresion para probarlo nos llevaria dernasiado lejos. Esperamos que la mayoria de 10s lectores habran estudiado ya su dernostracion en un curso sobre variables cornplejas.

HECHO I . Un polinomio con coeficientes que son ntjmeros complejos tiene todas sus raices en el campo complejo.

El hecho 1 puede reformularse diciendo que 10s linicos polinornios irreducibles no constantes sobre el campo de 10s nurneros cornplejos son 10s de grado I .

HECHO 2. Los tjnicos polinomios irreducibles no constantes sobre el campo de 10s ntjmeros reales son 10s de grado I o grado 2.

La f6rmula para las raices de una ecuacion cuadratica nos perrnite probar facilrnente la equivalencia de 10s hechos 1 y 2. -

Page 341: Herstein   Algebra moderna

1 10. TRANSFORMACIONES HERMITIANAS, UNITARIAS Y NORMALES 339

La irnplicaci6n inrnediata, para nosotros, del hecho I, serh que to& - transformacidn lineal de las que aqui consideraremos ten&d sus rafces caracteristicas en el campo de los ntimeros complejos.

En lo que sigue, V seri un espacio vectorial de dirnensi6n finita con producto interior sobre F, el carnpo de 10s nirrneros cornplejos; el producto interior de dos elementos de V se escribirh, corno antes se hizo, corno (0, w),

LEMA 6.26. Si TcA(V) es tal que (vT, v) = 0 para todo VE V, entonces T = 0.

Prueba. Como (uT, v) = 0 para VE V, dados u, iuc V, ((u + w) T, u + w) = 0. Desarrollando esto y haciendo uso de que (r:T, a) = (wT, w) = 0, obtene- mos

1) (uT, w) + (w T, u) = 0 para cualesquiera u, W E V.

Como la ecuaci6n (I) se verifica para w arbitrario en V, debe aun verificarse si reemplazamos en ella w por iw, donde i2 = - 1 ; pero (uT, iw) = - i(uT, w), mientras que ((iw) T, u) = i(wT, u). Sustituyendo estos valores en (I) y cancelando i tenemos

Surnando (I) y (2) tenernos (wT, u) = 0 para cualesquiera u y w de V, de donde, en particular, (wT, wT) = 0. Por las propiedades delinitoriris de un producto interior esto implica que wT = 0 para todo WE V, de donde T = 0. (Nola: si V es un espacio con producto interior sobre el c a m p real, el lema puede ser falso. Por ejemplo, sea V = {(a, /3))a, 8 reales, donde el producto interior es el producto punto. Sea T la transformacibn lineal que manda (a, 8 ) en (-8, a). Una simple comprobaci6n nos dice que (vT, v) = 0 para cualquier vc V, sin embargo, T # 0.)

DEFINICI~N. La transformaci6n lineal TcA(V) se diceque es unitaria si (uT, oT) = (u, o) para cualesquiera u, oc V.

Una transformaci6n unitaria es una que preserva toda la estructura de V, su suma, su multiplication por escalares y su producto interior. N6tese que una transformaci6n unitaria preserva la longitud, puesto que

I I ~ I I = JIG? = Jm) = IIVTII.

iEs lo reciproco cierto? La contestacibn nos la da el

LEMA 6.27. Si (oT, oT) = (o, u) para to& VE V, entonces T es unitaria.

Prueba. La prueba tiene el mismo estilo que la del lema 6.26. Sean u, UE V; por hipotesis ((u+ o) T, (u+ v) T) = (u+ v, u+ v). Desa~ollando y

Page 342: Herstein   Algebra moderna

340 TRANSFORMACIONES LINEALES - C s a 6

simplificando, tenemos

1 ) (uT, oT)+(i?T, u T ) = (u. r )+(r , u) ,

para cualesquiera u; L:E V. Reem plazando en ( 1 ) I: pro ir y calculando esto nos da

2) - (uT ,oT)+(rT ,uT) = -(u. r )+(r ,u) .

Sumando (I) y (2 ) obtenemos (uT. r T ) = (u, o) para cualesquiera u, V E V, de donde T es unitario.

Caracteritamos la propiedad de ser unitario en terminos de la accion sobre una base de V.

TEOREMA 6 . ~ . La transformacidn lineal T sobre V es unitaria si y s6lo si lleoa una bare ortonormal de V en una base ortonormal de V.

Prueba. Supongamos que { r , , . . .. r,) es una base ortonormal de V ; por tanto, ( r i . r j ) = 0 si i # j, mientras que ( r i . vi) = 1 . Queremos demos- trar que si T es unitario, entonces { r , T, ..., v n T ) es tambitin una base ortonormal de V. Pero ( r i T, r j T ) = ( t i , r j ) = 0 para i # j y (v , T, oi T ) = (c i , r i ) = I , de donde ciertamente { r , T, . . ., rn T ) es una base ortonormal de V.

Por otra parte, si T E A ( V ) es tal que tanto {o , , ..., on) como {o, T, ..., L;, T } son bases ortonormales de V, para u. U 'E V tenemos entonces

n

de donde por la ortonormalidad de las pi, (u , W ) = gigi. Per0 uT = i= 1

. giri T y u*T =. x'/?,ri T, de donde por la ortonormalidad de las 1= 1 i= I

n

ri T , (uT, u7T) = 2 rid i = (u. W ) , lo que prueba que T es unitaria. i= 1

El teorema 6. y nos dice que un cambio de base de una base ortonormal a otra base tambien ortonormal es precisamente lo que produce una transfor- macion lineal unitaria.

LEMA 6.28. Si T E A ( V ), entonces dada cualquier rE V , existe un elemento U'E V, que depende de r y de T. tal que (uT. r ) = (u, w) para toda U E V. Este elemento 'queda linicamente determinado por r y T.

Prueba. Para probar el lema es suficiente exhibir un W E V que trabaje para todos 10s elementos de una base de V. Sea {u , ...., u,} una base

Page 343: Herstein   Algebra moderna

110. TRANSFORMACIONES HERMITIANAS, UNITARIAS Y NORMALES 34 1

ortonormal de V ; definimos = 1 ( u i ~ , ( ' )ui . Un facil calculo muestra que . i = 1

(ui,w) =(uiT,c.), de donde el elemento tc. tiene la propiedad deseada. Que u1 es unico puede verse como sigue: Supongamos que (uT, v) = (u,ul,) = (u, w,); entonces (u, ul, - 117, ) = 0 para toda U E V, lo que obliga al poner

P u = U ' ~ - U ' ~ aquerc , = u.,. El lema 6.28 nos permite dar la siguiente

DEFINICION. Si T E A ( V ) , entonces el adjunto liermitiano de T, al que representaremos por T*, se define por (uT, 1.) = (u, rT*) para cualesquiera u, l l E v.

Dado L.E V acabamos de obtener una expresion explicita para rT* (como w ) y prodriamos usar esta expresion para probar las distintas propiedades que deseamos tenga T*. Pero preferimos hacerlo de mod0 que no tengamos que depender de una base determinada.

LEMA 6.29. Si T E A ( V ) , etttonces T*t.-A( V ) . Ademas:

I ) (T*)* = T, 2) (S+T)* = S*+T*, 3) (AS)* = IS*, 4 ) (ST)* = T*S*,

para S, T E A ( V ) cualesquiera y todo 1.

Prueba. Debemos primer0 probar que T* es una transformacion lineal sobre V. Si u, u, u. estan en V, entonces (u, ( r+u~)T*) = (uT, U + W ) = (uT, u ) + (uT, w) = (u , rT*) + (11. utT*) = (u, rT* + UTT*), en consecuencia de lo cual (L'+ w) T* = i.T* + KT*. Analogamente, para AE F, (u, ( l v ) T*) = (uT, Ac) = I(uT, L.) = ;(U, rT*) = (u, j.(i.T*)), de donde (Av)T* = A(;T*). Con lo que hemos probado que T* es una transformacion lineal sobre V.

Para ver que (T*)' = T, notemos que (u. r(T*)*) = (uT*, 1,) = (v, uT*) =

(rT, U ) = (u , uT) para todo u. L.E V. de donde c.(T*)* = uT lo que implica que (T*)* = T. Dejamos las pruebas de (S+ T)* = S* + T* y de (AT) = IT* para el lector. Finalmente, (u, ST)*)' = (uST, v) = (US, oT*) = (u, cT*S*) para u, L.E V cualesquiera; esto implica v(ST)* = ilT*S* para cualquier C E V lo que nos dice que (ST)' = T* S*.

Como consecuencia del l h a tenemos que la adjunta hermitiana define una adjunta, en el sentido de la section 8, sobre A(V).

La adjunta hermitiana nos permite dar una descripcion alternativa para las transformaciones unitarias en terminos de la relacion de T y T*.

LEMA 6.30. T E A ( V ) es trnittrria .si !. stilo .\i TT" = I .

Page 344: Herstein   Algebra moderna

342 TRANSFORMACIONES LINEALES - Cap. 6

Prueba. Si T es unitaria, entonces para todo u, VE V, (u, vTT*) = (uT, oT) = (u, o), de donde TT* = 1. Por otra parte, si TT* = 1, entonces (u, o) = (u, o n * ) = (uT, vT), lo que implica que T es unitaria.

TEOREMA 6.2. Si {ol , . . ., on) es una bare ortonormal de V y si la matriz de TEA(V) en esta base es (alj), entonces la rnatriz de T* en esta base es (Bij), dondeBij = ajl.

Prueba. Como las matrices de T y T* en esta base son, respectivarnente, n

(a$ Y (Pij), entonen oi T = x aijvj y v1 T* = f Pijvj. Ahora bien, 1 x 1 i= 1

1

de las 0,. Lo que prueba el teorema.

Este teorema nos interesa muy en particular a la luz de lo que hicimos anteriormente en la secci6n 8. Pues la adjunta hermitiana abstracta definida sobre el espacio con producto interior V, cuando cs trasladado a matrices en una base ortonormal de V, no se hace otra cosa que la adjunta hermitiana concreta explicita que definimos para las matrices.

Usando la representation matricial en una base ortonormal, afirmamos que TEA(V) es unitaria si y solo si siempre que (alj) es la matriz de Ten

n

en esta base ortonormal, entonces x aljEik = 0 para j # k, mientras que I = 1

n

/a,,/' = 1. En ttrminos de productos punto sobre espacios vectoriales i = 1

complejos, esto nos dice que 10s renglones de la matriz de T forman un conjunto ortonormal de vectores en F'") bajo el producto punto.

DEFINICI~N. TEA ( V) se llama autoadjunta o herrnitiana si T* = T.

Si T* = - T, entonces llamamos a T antiherrnitiana. Dada cualquier SEA( V),

2

'+'* son hermitianas, S = A+iB, donde tanto A como B y como - 2 y2i

son hermitianas. En la secci6n 8, usando el chlculo de matrices, probamos que cualquier

raiz caracterlstica compleja de una matriz hermitiana es real; a la luz del hecho 1, esto puede cambiarse para que diga: To& raiz caracteristica de una matriz hermitiana es real. Volvemos ahora a probar esto desde el punto de vista, mhs uniforme, de un espacio con producto interior.

Page 345: Herstein   Algebra moderna

5 10. TRANSFORMACIONES HERMITIANAS, UNITARIAS Y NOAMALES 343

TEOREMA 6.2, . Si T E A ( V ) es hermitiana, entonces todas sus raices caracteristicas son reales.

Prueba. Sea A una raiz caracteristica de T ; hay pues una v # 0 en V tal que uT = Ac. Calculamos: A(u, r ) = (Ar, 1') = (oT, o) = (v, oT*) = (1: L ~ T ) = (L', A c ) = X(r, 1 1 ) ; como ( 1 3 , ~ ) # 0, como tenemos A = 1, 1 es real.

Deseamos describir formas canonicas para transformaciones lineales unitarias, hermitianas e incluso de tipos mas generales que serhn tambiCn mas sencillas que las formas de Jordan. Es por esto por lo que apartcen 10s siguientes lemas que, aunque de interes independiente, son en su mayor parte de naturaleza mas bien tkcnica.

LEMA 6.3 1 . Si S E A ( V ) y si cSS* = 0, entonces rS = 0.

Prueba. Consideremos (vSS*, c ) ; como rSS* = 0, 0 = (vSS*, v) = (US, v(S*)*) = (US, U S ) segun el lema 6.29. En un espacio con product0 interior esto implica que vS = 0.

COROLARIO. Si T es hermitiana y V T ~ = 0 para k 2 1, entonces vT = 0.

Prueba. Mostramos que si vT2" = 0, entonces cT = 0; pues si S = T2"-' , entonces S* = S y SS* = T2", de donde (rSS*, r ) = 0 implica que 0 = vS = uT2"-'. Continuando hacia abajo en esta forma, obtenemos vT = 0. Si vTk = 0, entonces rT2" = 0 para 2" > k, de donde vT = 0.

lntrdducimos una clase de transformaciones lineales que contiene como casos especiales las transformaciones unitarias, hermitianas y antihermi- tianas.

DEFINIC~~N. T E A ( v ) se dice que es normal si T* = T* T

En lugar de probar 10s teoremas que siguen para transformaciones unitarias y para transformaciones hermitianas separadamente, lo que haremos serii probarlos para transformaciones normales y derivar, como corolarios, 10s resultados deseados para las unitarias y hermitianas.

LEMA 6.32. Si N es una transformacidn lineal normal y si cN = 0 para V E V, entonces vN* = 0.

Prueba. Consideremos (vN*, ilN*); por definition, (i'N*, ON*) = (vN*N, V ) = (vNN*, o), ya que NN* = N*N. Pero 1.N = 0, de donde ciertamente vNN* = 0. De esta forma obtenemos que (r.N*. I'N*) = 0, de donde forzosamente ha de tenerse cN* = 0.

Page 346: Herstein   Algebra moderna

344 TRANSFORMACIONES LINEALES - Cap. 6

COROLARIO I . S i I, es una raiz caracteristica de la transformacion normal N jv si 1.N = i.o, entonces r N * = l r .

Priieha. Como N es normal, N N * = N * N , de donde tenemos ( N - A) ( N - i . ) * = ( N - I ) ( N * - X ) = N N * - A N * - X N + A X = N * N - E . N * - X N + i.2 = ( N * - 2 ) ( N - I ) = ( N - I ) * ( N - I ) , es decir. N - I . es normal. Como r ( N - i.) = 0, por La normalidad de N - 1. se tiene del lema: r ( N - A)* = 0. de donde i .N* = X i t i

El corolario enuncia el interesante hecho de que si i. es una raiz carac- teristica de la transformacion normal N , no solamer~te es una raiz caracteristica de N * , sino que cualquier vector caracteristico de N pertene- ciente a i. es un vector caracteristico de N* perteneciente a X y viceversa.

COROLARIO 2. Si T es unitaria y si 1. es una ,raiz caracteristica de T , etitonces (E.1 = 1 .

Prireba. Como T es unitaria, es normal. Sea I una raiz caracteristica de T y supongamos que tlT = I r con r # 0 en V. Por el corolario 1 , r T * =Xr , luego r = i lTT* = ArT* = A h , ya que T T * = I . Luego tenemos 11 = I , lo que nos dice ( I ) = 1.

Hacemos una pausa para ver adonde vamos. Nuestro objetivo ininediato es probar que una tiansformacion normal N puede llevarse a la forma diagonal por una unitaria. Si i,, , . . ., A, son raices caracteristicas distintas de V. usando el teorema 6.n podemos descomponer V como V = V, . . . @ V,. donde para L.,E Vi, oi(N-A,)"' = 0. De acuerdo con esto, necesitamos estudiar dos cosas, a saber: la relacion entre vectores que se encuentran en distintos V,, y la naturaleza caracteristica de cada V,. Cuando estas dos cosas hayan sido estudiadas, seremos capaces de reunirlas para probar el teorema deseado.

LEMA 6.33 Si N es normal y v N k = 0, entonces i!N = 0.

Prueba. Sea S = N N * ; S es hermitiana, y segh la normalidad de N , r S k = ~ ( N N * ) ' = U N ' ( N * ) ~ = 0. De acuerdo con el corolario al lema 6.31. deducimos que U S = 0, es decir, o N N * = 0. Aplicando el lema 6.31 se tiene que ilN = 0.

COROLARIO. S i N es normal y si para I E F , ~ ( N - r l ) ~ = 0, entonces r N = Ic .

Prueba. De la normalidad de N,se sigue que N - A es normal, de donde, a1 aplicar el lema que acabamos de probar a N - A obtenemos el corolario.

Page 347: Herstein   Algebra moderna

1 10. TRANSFORMACIONES HERMITIANAS. UNITARIAS Y NORMALES 345

Siguiendo con la discusidn que precedia al liltimo lema, este corolario demueslra que todo ivctor en V, es un irector caracteristic.~ de N perte- neciente a la ra i l caracteristica A,. Hemos delern~inado la naluraleza de V, ; ahora procederemos a investigar la interrelacibn entre dos distintas V,.

LEMA 6.34. Sea N una trans/ormacibn normal y supongamos que 3. y p son dos raices caracteristicas distintas de N. Si 1%. u* son rle V y tales que PN = Irl, u-N = pul, entonces (I., u1) = 0.

Prueba. Calculamos ( rN , u)) de dos formas diferentes. Como una consecuencia de que ilN = 217, (PN. w ) = (Ar, K!) = A(r, w) . Como ulN = pul, usando el lema 6.32 obtenemos que ulN* = pw. de donde ( r N , u3) = (I., ulN*) = (17, Pu') = j ~ ( r , ul). La comparacion de 10s dos calculos, nos da I ( [ . , LP) = p( i3 , u'). y como # 11, de ello resulta que (1.. u,) = 0.

Todo el trabajo preliminar ya ha sido hecho para que podamos probar este basico y bello teorema:

TEOREMA 6 . ~ ~ . Si N es una trans/ormacidn lineal normal sobre V, entonces existe una base ortonorrnal, consistente en rectore$ caracteristicos de N, en la cual la matriz de N es diagonal. Equii?alentemente, si N es una matriz normal, existe una mafriz unitaria U tal que UN U - ( = UNU * ) es diagonal.

Prueba. Completamos el esquema informal que hemos hecho de la prueba antes de la demostracion del lema 6.33.

Sea N normal y sea A , , . . ., A, las distintas raices caracteristicas de N. Por el corolario al teorema 6 . 4 podemos descomponer V en la ,forma V = V, O . . . 0 V, donde toda a,€ Vi es aniquilada por ( N - Por el corolario al lema 6.33, Vi consiste solamente en vectores caracteristicos de N pertenecientes a la raiz caracteristica A,. El producto interior de V induce un producto interior sobre V, ; por el teorema 4.h. podemos encontrar una base de Vi ortonormal respecto a su producto interior.

Por el lema 6.34, 10s elementos pertenecientes a distintos Vi son ortogo- nales. Luego la union de las bases ortonormales de las Vi nos proporciona una base ortonormal de V. Esta base consiste en 10s vectores caracteristicos de N, de donde en esta base la rnatriz de N es diagonal.

No probamos el equivalente matricial dejandolo como un problema; solamente seiialamos que dos hechos son necesarios:

1 ) Una transformaci6n unitaria (teorema 6.y) cambia una base orto- normal por una base tambitn ortonormal.

2) En un cambio de base, la matriz de una transformacion lineal se cambia por conjugacion por.la matriz del carnbio de base (teorema 6.h).

Page 348: Herstein   Algebra moderna

346 TRANSFORMACIONES LINEALES - Cap. 6

Los dos corolarios que siguen son casos muy particulares del teorema 6.2,. per0 como cada uno de ellos es tan importante por si mismo, 10s enunciamos como corolarios para subrayarlos.

COROLARIO I . Si T es una transjbrmacidn unitaria, entonces hay una base ortonormal en la que la matriz de T es diagonal; equiualentemente, si T es una matriz unitaria, entonces hay una matriz unitaria U fa1 que UTU - ' (= UTU*) es diagonal.

COROLARIO 2. Si T es una transformacidn lineal hermitiana, entonces existe una base ortonormal en la que la matriz de T es diagonal; equiua- lentemente, si T es una matriz hermitiana, entonces existe una matriz unitaria U fa1 que UTU- ' ( = UTU*) es diagonal.

El teorema probado es el resultado bhsico para las transformaciones normales, pues las caracteriza en forma neta como precisamente aquellas transformaciones que pueden llevarse a la forma diagonal por unitarias. Tambien muestra que la distincion entre transformaciones normales, hermitianas y unitarias es solamente una distincion causada por la naturaleza de sus raices caracteristicas. Precisamos esto en el

LEMA 6.35. L a transformacidn normal N es:

I ) Hermitiana si y solo si sus raices caracteristicas son reales;

2 ) Unitaria si y solo si sus raices caracteristicas son todas de valor abso- lute I .

Prueba. Argumentamos usando matrices. Si N es hermitiana, entonces es normal y todas sus raices caracteristicas son reales. Si N es normal y tiene solamente raices caracteristicas reales, entonces para alguna matriz unitaria U, UNU-' = UNU* = D donde D es una matriz diagonal con elementos reales en la diagonal. Asi pues, D* = D ; como D* = ((/NU*)* = UN*U*, la relacion D* = D, implica UN*U* = UNU*, y como U es invertible obtenemos N* = N. Luego N es hermitiana.

Dejamos al lector la prueba de la parte referente a las transformaciones unitarias.

Si A es una transformaci6n lineal cualquiera sobre V, entonces tr (AA*) puede calcularse usando la representation matricial de A en cualquier base de V. Escogemos una base ortonormal de V; en esta base si la matriz de A es (a i j ) entonces la de A* es (p i j ) donde pij = iji. Un chlculo simple nos muestra entonces que tr (AA*) = 1 laij(2 y esto es cero si y s61o si todo

1.1

a,j = 0, es decir, si y s61o si A = 0. En una palabra, tr (AA*) = 0 si y s61o

Page 349: Herstein   Algebra moderna

5 10. TRANSFORMACIONES HERMITIANAS, UNITARIAS Y NORMALES 347

si A = 0. Este es un criterio util para mostrar que una transformaci6n lineal dada es 0. llustramos esto en el siguiente

LEMA 6.36. Si N es normal y AN = NA, entonces AN* = N*A.

Prueba. Queremos demostrar que X = AN*- N*A es 0; lo que haremos es probar que tr XX* = 0, y deducir de'esto que X = 0.

Como N conmuta con A y con N*, debe conmutar con AN*- N*A, asi pues XX* = (AN*- N*A) (NA*- A*N) = (AN* - N*A)NA*-(AN*- N*A)A*N = N{ (AN* -N*A)A* ) - { (AN*- 'N*A)A*) N. Como XX* es de la forma NB- BN, la traza de XX* es 0. Luego X = 0, y AN* = N*A.

Acabamos de ver que N* conmuta con todas las transformaciones lineales que conmutan con N, cuando N es normal; esto es suficiente para que forzosamente N* sea una expresion polinomial en N. Pero esto puede dernostrarse directamente como una consecuencia del teorema 6.z2 (vease el problerna 14).

La transformacion lineal T es herrnitiana si y solo si ( rT, 11) es real para todo v~ V (vkase el problema 19). De especial interks son aquellas trans- formaciones lineales hermitianas para las que ( rT , r ) 2 0 para todo r e V. Las llamamos transformaciones lineales no negatiras y denotamos el hecho de que una transformacibn lineal sea no negativa escribiendo T 2 0. Si T 2 0 y ademas ( rT , L') > 0 para r # 0 entonces llamamos a T positka (o positii.amente definida) y escribimos T > 0. Queremos distinguir a estas transformaciones lineales por sus raices caracteristicas.

LEMA 6.37. La transformacibn lineal hermitiana T es no negatira (positica) si y sdlo si todas sus raices caracteri'sti *as son no negatiras (positiras).

Prueba. Supongamos que T 2 0 ; si 1 es una raiz caracteristica de T, entonces uT = l r ? para algun r # 0. Luego 0 < ( rT , r ) = (Au, r ) = 1(c, u); como ( r , u) > 0, se deduce que 1 2 0.

Reciprocamente, si Tes hermitiana con raices caracteristicas no negativas. entonces podemos encontrar una base ortonormal { r , , . . ., r,) consistente en vectores caracteristicos de T. Para cada r , , r i T = ,Ii r i , donde li 2 0. Dado ~ E V , r = L a i c i de donde cT = x a i r i T = Xi.,.airi. Per0 entonces (vT, v) = ( I l i a i : , , L a i c i ) = Lliaicxi por la ortonormalidad de las r i . Como l i 2 0 y aicxi 2 0, se tiene ( rT. r ) 2 0, de donde T 2 0.

Los resultados correspondientes para el caso "positivo" se dejan como ejercicio.

LEMA 6.38. T 2 0 si y s61o si T = AA* para alguna A.

Prueba. Demostramos primer0 que AA* 0. Dado ~ E V , (uAA*, L ! ) = ( rA , PA) = 0, de donde AA* 2 0.

Page 350: Herstein   Algebra moderna

348 TRANSFORMACIONES LINEALES - Cap. 6

Por otra parte. si 7 2 0 podemos encontrar una rnatriz unitaria U tal que-

donde cada ibi es una raiz caracteristica de 7. luego toda i i 2 0. Sea

como cada i i 2 0, cada pi es real, luego S hermitiana. Por tanto U*SU es hermitiana: per0

Hemos representado a 7 en la forrna AA*, donde A = U*SU. Notese que realrnente hernos probado un poco mhs; a saber, si al

construir S hubieramos escogido la raiz no negativa fii para cada l i , entonces S, y U*SU, habria sido no negativa. Luego T 2 0 es el cuadrado de una transformacion lineal no negativa; es decir, toda 7 3 0 tiene una raiz cuadrada no negativa. Esta raiz cuadrada no negativa puede demostrarse que es unica (vease el problema 24).

Cerramos esta seccion con una discusion sobre las matrices unirarias y hermitianas sobre el campo real. En este caso, las matrices unitarias se llaman ortogonales, y satisfacen QQ' = I . Las hermitianas son en este caso exactamente simetricas.

Afirmamos que una niatriz real simitrica puede llecarse a la ,forma diagonalpor una matriz ort~gonal. Sea A una matriz real simitrica: Podemos considerar a A actuando sobre un espacio real V con product0 interior. Considerada como una matriz compleja, A es hermitiana y por tanto todas sus raices caracteristicas son reales. Si estas son A,, . . ., ik entonces V puede descomponerse en V = V, @ . . . @ V, , donde L : ~ ( A = 0 para r i e Vi. Como en la prueba del teorema 6.33 esto trae como consecuencia obligada riA = i.iri. Usando exactarnente la misma prueba que la que usamos en el lema 6.34, mostrarnos que para vie Vi, L'/E Vj con i # j,

Page 351: Herstein   Algebra moderna

1 10. TRANSFORMACIONES HERMITIANAS, UNITARIAS Y NORMALES 349

(i.,, r j ) = 0. Podernos, pues. encontrar una base ortonorrnal de V todos cuyos elernentos Sean vectores caracteristicos de A . El carnhio de bases. de la base ortonorrnal {( 1, 0, . . ., 0). (0. 1 , 0.. . ., 0). . . ., (0, . . .. 0. 1 ) : a esta nueva base se efectua rnediante una rnatriz unitaria real. es deci~. por una ortogonal. Asi pues. A puede llevarse a forrna diagonal por una niatriz orto- gonal. probando nuestra afirrnacion.

Deterrninar forrnas canonicas para las matrices ortogonales reales sobre el carnpo real es un poco mas cornplicado, tanto en su respuesta corno en su ejecucion. Pasarnos ahora a estudiar este problerna; per0 antes varnos a hacer una observacion general acerca de todas las transforrnaciones uni- tarias.

Si W es un subespacio de V invariante bajo la transforrnacion unitaria 7, ;es cierto que W', el cornplernento ortogonal de W, es tarnbien invariante bajo T? Sea W E W y X E W'; tenernos entonces: (KT. xT) = ( 1 1 . . x) = 0: corno W es invariante bajo T y Tes regular, WT = W, de donde xT, para X E W', es ortogonal para todo W. Luego es cierto que ( W 1 ) T c W'. Recuerdese que V = W e W'.

Sea Q una rnatriz ortogonal real; entonces T = Q + Q- ' = Q + Q' es sirnetrica, de donde tiene raices caracteristicas reales. Si estas son i., , .. .. i.,, entonces V puede descomponerse en V = V, @ . . . Q V,, donde r ,e Vi implica r i T = Airi. Las Vi son mutuamente ortogonales. Afirmamos que cada Vi es invariante bajo Q (pruebese). Luego, para discutir la accion de Q sobre V, es suficiente describirla sobre cada Vi.

Sobre V,, corno Air, = r i T = r i (Q+ Q- I ) , multiplicando por Q tenemos L.,(Q~-A, Q + 1 ) = 0. Se presentan dos casos particulares, a saber: A i = 2 y li = -2 (que pueden, desde luego, no ocurrir). pues entonces r i (Q+ 1 ) ' = 0, lo que nos lleva a r i (Qf I ) = 0. Sobre estos espacios. Q actua corno I o corno - I .

Si X i # 2, - 2, entonces Q no tiene ningun vector caracteristico sobre V,, de donde para 17 # OE Vi, L', L'Q son linealmente independientes. El sub- espacio que generan, W, es invariante bajo Q, ya que rQ2 = I,,i.Q- 1.. Ahora

, bien, V, = W e W' con W' invariante bajo Q. Luego podemos presentar a Vi corno la suma directa de dos subespacios bidimensionales mutuamente ortogonales invariantes bajo Q. Para encontrar formas canonicas de Q sobre V, (de donde sobre V), solamente debemos resolver el problerna para matrices ortogonales reales 2 x 2.

Sea Q una matriz ortogonal real 2 x 2 que satisface Q2 -i.Q+ I = 0:

supongamos que Q = . La ortogonalidad de Q implica :

1 ) a 2 + p 2 = I ,

2) y 2 + 6 2 = I ,

3) ay+p6 = 0 ;

Page 352: Herstein   Algebra moderna

350 TRANSFORMACIONES LINEALES - Cap. 6

como Q2 - 1 Q + I = 0. el determinante de Q es I, de donde

Afirmamos que las ecuaciones 1, . . ., 4, implican que a = d, B = - y. Como rx2+B2 = I, 191 < 1, de donde podemos' escribir 9 = cos 8 para algun angulo real 8; en estos ttrminos = sen 8. Por tanto, la matriz Q toma la forma

Todos 10s espacios usados en todas nuestras decomposiciones eran mutuamente ortogonales, luego eligiendo bases ortogonales en cada uno de eilos obtenemos una base ortonormal de V. En esta base la matriz de Q es

Como hemos ido de una base ortonormal a otra tambikn ortonormal, y como esto se ha conseguido por una matriz ortogonal, dada una matriz ortogonal real Q podemos encontrar una matriz ortogonal T tal que TQT- ' (= TQT*) es de la forma que acabamo~ de describir.

Page 353: Herstein   Algebra moderna

5 10. TRANSFORMACIONES HERMITIANAS, UNITARIAS Y NORMALES

Problemas -

1. Determinese cuales de las siguientes matrices son unitarias, cuales hermitianas. cuales normales.

2. Para aquellas matrices del problema I que sean normales, encuin- trense sus raices caracteristicas y llevense a la forma diagonal por una matriz unitaria.

3. Si T es unitaria, prutbese usando tan solo la definicion ( L ~ T , uT) =

(v , u) que T es no singular.

4. Si Q es una matriz ortogonal real. prutbese que det Q = + I 5. Si Q es una matriz real simitrica que satisface Qk = I para k Z 1,

prutbese que Q 2 = 1.

6. Complitese la prueba del lema 6.29 mostrando que (S+ T)* = S* + T* y (AT)* = AT*.

7. Prutbense las propiedades de * en el lema 6.29 haciendo uso de la forma explicita de w = uT* dada en la prueba del lema 6.28.

8. Si T es antihermitiana, pruibese que todas sus raices caracteristicas son imaginarias puras.

9. Si T es una matriz real antisimitrica n x n, prutbese que si n es impar entonces det T = 0.

10. Por un calculo matricial directo, prutbese que una matriz real sirnttrica 2 x 2 puede ser puesta en forrna diagonal por una ortogonal.

11. Cornpldtese la prueba delineada para la parte de equivalencia de matrices del teorema 6.2,.

Page 354: Herstein   Algebra moderna

352 TRANSFORMACIONES LINEALES - Cap. 6

12. Pruebese que una transformacion normal es unitaria si y solo si las raices caracteristicas son todas de valor absoluto igual a I .

13. Si N , , . . .. N, es un numero finito de transforrnaciones normales que conmutan. pruebese que existe una transformacion unitaria T tal que todas las T N , T ' son diagonales.

14. Si N es normal. pruebese que N * = p ( N ) para algun polinomio p(x) .

15. Si N es normal y si AN = 0. pruebese que AN* = 0.

16. Pruebese que A es normal si y solo si A conmuta con AA*.

17. Si N es normal pruebese que N = ZLiEi donde E i 2 = E i , Ei* = E i , y las Li son las raices caracteristicas de N . ( A ksta se le llama la resolucibn espectral de N . )

18. Si N es una transformacion normal sobre V y sif(x) y g ( x ) son dos polinomios primos relatives con coefi~ient~s reales, pruibese que si r f (N ) = 0 y u ,g(N) = 0. para r , u. en V , entonces (1: . u1) = 0.

19. Pruebese que una transformacion lineal T sobre V es hermitiana si y solo si ( r T , 1.) es real para todo a€ V.

20. Pruebese que T > 0 si y solo si T es hermitiana y tiene todas sus raices caracteristicas positivas.

21. Si A 2 0 y B a 0 y A B = BA, prudbese que A B 2 0.

22. Prukbese que si A a 0, entonces A tiene una raiz cuadrada no negativa rinica.

23. Si A 2 0 y ( rA , 11) = 0, prukbese que r A = 0.

24. a ) Si A a 0 y A* conmuta con la transformacion hermitiana B, entonces A conmuta con B.

b) Prutbese la parte ( a ) sin exigir que B sea hermitiano.

25. Sea A = ( a i j ) una matriz n x n real simetrica. Sea

A, = ( a 1 1 ... a l s )

a,, a . a a,

a) Si A > 0, prutbese que A, > 0 para s = 1 . 2, ..., n.

b) Si A > 0, prukbese que det A, > 0 para s = 1, 2, .. ., n.

c) Si det A , > O para s = 1, 2, ..., n, prutbese que A >0.

d) Si A 2 0, pruebese que A, 2 0 para s = 1, 2, ..., n.

Page 355: Herstein   Algebra moderna

1 11. FORMAS CUADRATICAS REALES 363

e) Si A 2 0, pruCbese que det A, 2 0 para s = 1, 2, . . ., n. j ) Proporcionese un ejemplo de una A tal que det A, 2 0 para toda

s = 1,2, . . ., n y, sin embargo, A no sea no negativo.

26. Prudbese que cualquier matriz compleja puede ser llevada a la forma triangular por una matriz unitaria.

Cerramos el capitulo con una breve discusi6n sobre formas cuadrhticas sobre el campo de 10s numeros reales.

Sea V un espacio real con producto interior y supongamos que A es una transformaci6n lineal (real) simdtrica sobre V. La funci6n valuada en el campo real Q(u) definida sobre V por Q(v) = (vA, v) se llama la jorma cuadratica asociada con A.

Si consideramos, c6mo podemos hacer sin p4rdida de generalidad, que A es una matriz simdtrica real n x n, (all) actuando sobre F(") y que el producto interior para (S,, ..., 6,) y (y,, ..., y,) en Fen) es el nlimero real S, y , +S2 y 2 + . .. +Sn y,, para un vector arbitrario v = (x,, . . ., xn) en Fen), un simple ciilculo muestra que Q(v) = (vA, v) = a,, x, + . . . +a,,xn2 + 2 C ailxixl.

i < j

Por otra parte, dada una funci6n cuadriitica cualquiera en n variables y , , x i 2 + .. . + ynnxn2+2 C yijxix,, con coeficientes reales y,], es claro

r < i que podemos realizarla como la forma cuadratica asociada con la matriz real simCtrica C = (y,]).

En el espacio euclidiano n-dimensional una funci6n cuadrhtica sirve para definir las superficies cuadricas. Por ejemplo, en el plano real la forma ax2+Pxy+ yy2 & lugar a una secci6n c6nica (posiblemente con su eje mayor inclinado). No es ildgico pensar que las propiedades geomitricas de esta secci6n c6nica deben estar ligadas intimamente con la matriz simdtrica

con la que su forma cuadratica estii asociada. Recordemos que en geometria analitica elemental se prueba que por

una rotaci6n de ejes adecuada la ecuacion ax2+/3xy+ yy2 puede, en el nuevo sistema de coordenadas, tomar la forma a, (x ' )~ + y, (Y')~. Recor- demos que a ,+y, = a + y y ay-/3'/4 = a, y , . Luego a, y y, son las rakes caracterbticas de la matriz

Page 356: Herstein   Algebra moderna

354 TRANSFORMACIONES LIN.EALES - Cap. 6

la rotacion de ejes es tan solo un cambio de bases por una transformacion ortogonal, y lo que hicimos en la geometria fue simplemente llevar la matriz simetrica a su forma diagonal por una matriz ortogonal. La natu- raleza de ax2+Dxy+ yy2 como conica estaba basicamente determinada por la magnitud y signo de sus raices caracteristicas a , y y , .

Una discusion analoga puede llevarse a efecto para clasificar las super- ficies cuadricas en el espacio tridimensional y, ciertamente, para supeficies cuadricas en espacios de dimension n. Lo que esencialmente determina la naturaleza geometrica de la superficie cuhdrica asociada con a , , x , + . . . + a,,xn2 + 2 a i j x i x j es la magnitud y signo de las raices caracteristicas de

i < j

la matriz ( a i j ) . Si no estuviesemos interesados en el achatamiento relativo de la superficie cuadrica (por ejemplo, si consideramos una elipse como una circunferencia aplastada), entonces podriamos ignorar la magnitud de las raices caracteristicas distintas de cero y el factor determinante de la forma de la superficie cuidrica seria el nlimero de raices caracteristicas 0 y el nlimero de positivas (y de negativas).

Estas cosas motivan, y al mismo tiempo se clarifican en ella, la discusion que sigue, que culmina en la ley de inercia de Sylrester.

Sea A una matriz real simetrica y consideremos su forma cuadratica asociada Q(I . ) = ((.A, 1.). Si T es una transformacion lineal real no singular cualquiera, dado ~ E F ' " ' , I. = u 'T para alglin weF("), de donde ((,A, v) = (ulTA, wT) = (u'TAT', w ) . Luego A y TAT'definen, efectivamente, la misma forma cuadritica. Sugiere esto la siguiente

DEFINICI~N. DOS matrices simttricas reales A y B son congruente3 si hay una matriz real no singular T tal que B = TAT'.

LEMA 6.39. La congruencia es una relacidn de equitlalencia.

Prueba. Escribamos, cuando A es congruente a B, A r B.

1) A = A pues A = I A l ' .

2) Si A r B entonces B = TAT' donde T es no singular, de donde A = SBS' donde S = T- I . Luego B r A.

3) Si A r B y B r C, entonces B = TAT' mientras que C = RBR', de donde C = RTAT'R' = (RT)A(RT)', y por tanto A z C.

Corno la relacion satisface las condiciones definitorias para una relacidn de equivalencia, el lema queda probado.

El principal teorema que concierne a las congruencias es su caracteriza- cicin, contenida en la fey de Sylvester.

Page 357: Herstein   Algebra moderna

1 11. FORMAS CUADRATICAS REALES 366

TEOREMA 6 . ~ ~ . Dada la matriz real simkrrica A hay una matriz inoerrible T tal que

donde I, e I, son respecrivamenre las matrices unirarias r x r y s x s y donde 0, es la 0 matriz t x t. Los enreros r+s, el rango de A, y r-s, la signatura de A, caracrerizan la clase de congruencia de A. Es decir, dos matrices sirnktricas reales son congruenres si y sblo si tienen el mismo rango y la misma s i g ~ t u r a .

Prueba. Como A es real simktrica sus raices caracteristicas son todas reales; Sean I , , . . ., I , sus raices caracteristicas positivas y - I , + , , . . ., &+, sus raices negativas. Por la discusi6n al final de la secci6n 10 podemos encontrar una matriz ortogonal real C tal que

donde r = n - r -s. Sea D la matriz diagonal real

Page 358: Herstein   Algebra moderna

TRANSFORMACIONES LINEALES - Cap. 6

un simple ciilculo muestra que

' Luego hay 'una matriz de la forma requerida en la clase de congruencia de A.

Nuestra tarea es ahora demostrar que esta es la unica matriz en la clase de congruencia de A de esta forma o. lo que es equivalente. que

son congruentes solamente si r = r', s = s' y t = t'. Supongamos que M = TLT' donde T es invertible. Por el lema 6.3 el

rango de M es igual al de L: como el rango de M es n- t' mientras que el de L es n - t , tenemos, t = t'.

Supongamos que r < r': como n = r + s + t = r1+s'+ t ' , y como t = t ' . debemos tener s > s'. Sea U el subespacio de F(") de todos 10s vectores que tienen las primeras y las ultimas t coordenadas iguales a 0; U es de dimensibn s y'para rr # Oen U, (uL, u) < 0.

Sea W el subespacio de F'"' para el que 10s componentes r '+ I, . . ., r '+s son todos 0; sobre W, (wM. 1 ~ ) 2 0 para cualquier WE W. Como T es invertible, y como W es (n - s')-dimensional, WT es (n -sl)-dimensional. Para U ~ E W, (u~M, u') 2 0; de donde (wTLT', w ) 2 0; es decir, (wTL. uyT) 2 0. Por tanto, sobre WT, (u,TL, 1cT) 2 0 para todos 10s elementos. Ahora bien, dim (WT)+dim (U) = (n-s ' )+r = n+s-sf > n; luego seglin el corolario a1 lema 4.8, WTn U # 0. Pero esto no tiene sentido, pues si x # OE WTn U , por una parte, estando en U, (xL, x) < 0, mientras que por la otra, estando en WT, (xL. x) 2 0. Luego r = r' y s = s'.

El rango r+s, y la signatura r-s, determinan desde luego r y s, y por lo tanto t = (n- r-s), de donde determinan la clase de congruencia.

Problemas

1. Determinense el rango y la signatura de cada una de las siguientes formas cuadriiticas reales:

a) X, +'2xI xr +xZ2.

6) x , 2 + x , x z + 2 x , x 3 + 2 x 2 2 + 4 ~ 2 ~ 3 + 2 x 3 2 .

Page 359: Herstein   Algebra moderna

8 11. FORMAS CUADRATICAS REALES 367

2. Si A es una matriz simktrica con entradas complejas, prudbese que podemos encontrar una matriz invertible compleja B tal que

y que r , el rango de A, determina la clase de congruencia de A respecto a la congruencia compleja.

3. Si Fes un campo de caracteristica diferente de 2, dada AEF,, pmdbese que existe una BE F, tal que BAB' es diagonal.

4. PruCbese que el resultado del problema 3 es falso s i la caracteristica de F es 2.

HALMOS, PAUL R. Finite Dimensional Vector Spaces, segunda edici6n. D. Van Nostrand Company, Inc.. Princeton, Nueva Jersey, 1958.

Page 360: Herstein   Algebra moderna
Page 361: Herstein   Algebra moderna

Topicos selectos

EN ESTE liltimo capltulo nos hemos marcado dos objetivos. El primero de ellos es presentar algunos resultados matemfiticos que penetren m8s profundamente que la mayor parte del material que hasta ahora hemos visto, resultados que Sean mas sofrsticados y un poco apartados del desarrollo general que hemos seguido. Nuestro segundo objetivo es escoger resultados de esta clase cuya discusi6n, ademas. haga uso de una gran seccion transversa de ideas y teoremas de 10s anteriormente expuestos en este libro. Con estas tinalidades en mente hemos escogido tres temas como puntos focales de este capitulo.

El primero de estos es un teorema famoso probado por Wedderburn en 1905 ("A Theorem on Finite Algebras". Transactions of the- American

Page 362: Herstein   Algebra moderna

360 TOPICOS SELECTOS - Cap. 7

Mathematical Society, vo1.6 (1905), paginas 349-352) que afirma que un anillo con divisidn que tiene solamente un numero finito de elementos debe ser un campo conmutativo. Daremos dos pruebas de este teorema, total- mente diferentes una de otra. La primera seguira fielmente la prueba original de Wedderburn y usara un argument0 tip0 conteo; se apoyara en gran medida sobre resultados que desarrollamos en el capitulo sobre teoria de grupos. La segunda usara una mezcla de argumentos de la teoria de grupos y de la teoria de campos. y sacarh un gran partido del material que estudiamos en estas dos teorias. La segunda prueba tiene la evidente ventaja de que en su curso de ejecuci6n obtendremos ciertos resultados colaterales que nos permitirhn proceder a la prueba, en el caso de 10s anillos con division, de un ,bell0 teorema debido a Jacobson ("Structure Theory for Algebraic Algebras of Bounded Degree", Annals of Mathematics, vol. 46 (1945). paginas 695-707) que es una generalization de gran alcance del teorema de Wedderburn.

Nuestro segundo gran tema es un teorema debido a Frobenius ("Uber lineare Substitutionen und bilinearen Formen", Rerue fiir die reine und angewandte Mathematik, vol. 84 (1877). especialmente las phginas 59-63) que afirma que 10s ~inicos anillos con division algebraicos sobre el campo de todos 10s numeros reales son el campo de 10s numeros reales, el campo de 10s numeros complejos y el anillo con division de 10s cuaternios reales. El teorema sefiala un papel linico para 10s cuaternios y es sorprendente, en cierto modo, que Hamilton 10s descubriera en su forma, podriamos decir, un poco ad hoc. Nuestra prueba del teorema de Frobenius, ahora completa- mente elemental, es una variacion de un enfoque marcado por Dickson y Albert; empleara resultados de la teoria de polinomios y de la teoria de campos.

Nuestro tercer objetivo es el teorema de que todo entero positivo puede representarse como la suma de cuatro cuadrados. Este famoso resultado parece que fue conjeturado ya por el primitivo matemhtico griego Diofantos. Fermat trabaj6 en su demostraci6n sin tixito y anuncio con tristeza su derrota (en un escrito donde el, sin embargo, resolvi6 el teorema de 10s dos cuadrados que nosotros probamos en la secci6n 8 del capitulo 3). Euler abrio grandes brechas que, aprovechadas por Lagrange, permitieron que Cste, en 1770, diera una primera prueba completa. Nuestro enfoque serh completamente distinto del de Lagrange. Tiene sus raices en el trabajo de Adolfo Hurwitz y empleara una generalizaci6n de 10s anillos euclidianos. Usando nuestras tecnicas de teoria de anillos sobre un cierto anillo de cuaternios, el teorema de Lagrange caera como una consecuencia.

En nuestra marcha hacia el establecimiento de estos teoremas, cose- charemos muchas ideas y resultados interesantes de por sl. Esto es carac- teristico de un buen teorema - su prueba invariablemente conduce a resultados colaterales de casi igual interts.

Page 363: Herstein   Algebra moderna

1. CAMPOS FINITOS

Antes que podamos entrar en una discusion del teorema de Wedderburn y de 10s anillos finitos con division, es esencial que investiguemos la naturaleza de 10s campos que tienen solo un numero finito de elementos. Tales campos se llaman camposfinitos. Es claro que existen campos finitos, pues el anillo Jp de 10s enteros modulo cualquier primo p nos da un ejemplo de tal campo. En esta secci6n determinaremos todos 10s posibles campos finitos y muchas de las importantes propiedades que poseen.

Comenzamos con el

LEMA 7.1. Sea F un campo finito con q elementos y supongamos que F c K donde K es tambikn un campo finito. Entonces K tiene q" elementos donde n = [K: 4.

Prueba. K es un espacio vectorial sobre F y como K es finito es cierta- ,

mente de dimension finita como espacio vectorial sobre F. Supongarnos que [K: F ] = n ; entonces K tiene una base de n elementos sobre F. Sea r , , . . ., i:, una tal base. Entonces todo elemento en K tiene una representacion linica en la formaa,o,+a,c,+ ... +anon dondea,, a ,,..., a, esdn todasen F. Asi pues, el numero de elementos en K es el numero de a, L', + a, V , + . . . + anrn que se producen cuando las I,, a,, . . ., a,, van tomando valores sobre F. Como cada coeficiente puede tomar q valores, K debe tener q" elementos.

COROLARIO I . Sea F un campofinito; entonces F tiene pm elementos donde el nrimero primo p es la caracteristica de F.

Prueba. Como F tiene un numero finito de elementos, el corolario 2 al teorema 2.a, f l = 0 donde f es el numero de elementos de F. Asi pues, F tiene caracteristica p para algljn numero primo p. Por tanto F contiene un campo Fo isomorfo a Jp . Como Fo tiene p elementos, F tiene pm elementos donde m = [ F : Fo] segun el lema 7.1.

COROLARIO 2. Si el campo finito F tiene pm elementos, entonces todo a € F satisface a Pn = a.

Prueba. Si a = 0, la afirmacion del corolario es trivialmente cierta.

Por otra parte, 10s elementos distintos de cero de F forman un grupo bajo la multiplicaci6n de orden pm- I, luego, segun el corolario 2 al teo- rema 2.a. aPm- ' = I para todo a # 0 en F. Multiplicando esta relacion por a obtenemos aPm = a.

De este ljltimo corolario podemos ficilmente pasar al

Page 364: Herstein   Algebra moderna

302 TOPICOS SELECTOS - Cap. 7

LEMA 7.2. Si el campo jinito F tiene pm elementos, entonces el polinomb xP"' - x en F [ x ] se , factoriza en F [ x ] como xP"' - x = ll ( x - A).

LEF

Prueba. De acuerdo con el lema 5.2, el polinomio xp"'-x tiene cuando mas pm raices en F. Pero, segun el corolario 2 a1 lema 7.1, conocemos p" de tales raices, a saber, todos 10s elementos de F. Por el corolario al lema 5.1 podemos concluir que xP"'-x = ll (x -A) .

AEF

COROLARIO. Si el campo F tiene pm elementos, entonces F es el campo de descomposicibn del polinomio xp" - x.

Prueba. Por el lema 7.2, xp"'-x se descompone en F. Pero no puede descomponerse en un campo mas pequeiio. porque ese campo tendria que tener todas las raices de este polinomio y, por tanto, tendria que tener al menos pm elementos. De esta manera, F es el campo de descomposicion de xP"' - X.

Como vimos en el capitulo 5 (teorema 5.j) cualesquiera dos campos de descomposicion sobre un campo dado de un polinomio dado son isomorfos. A la luz del corolario al lema 7.2 podemos enunciar

LEMA 7.3. Cualesquiera dos campos finitos 9ue tienen el mismo ntimero de elementos son isomorfos.

Prueba. Si estos campos tienen pm elementos, por el anterior corolario ambos son campos de descomposici6n del polinomio xPm-x, sobre J, . luego ambos son isomorfos.

Asi pues, para cualquier entero m y cualquier numero primo p hay, salvo isomorfismo, cuando mas un campo que tienepm elementos. El proposito del proximo lema es demostrar que para cualquier numero primo p y cualquier entero m hay un campo que tiene pm elementos. Cuando hayamos hecho esto, sabremos que hay exactamente un campo con pm elementos, donde p es un primo arbitrario y m entero arbitrario.

LEMA 7.4. Para todo numero primo p y todo entero posirivo m exisre un campo con pm elementos.

Prueba. Consideremos el polinomio xPm-x en J,[x], el anillo de polinomios en x sobre J,, el campo de 10s enteros mod p. Sea K el campo de descomposici6n de este polinomio. En K sea F = { a ~ K l a ~ = a } . Los elementos de F son, pues, las raices de x p - x que, seglin el corolario 2 a1 lema 5.6 son distintas, de donde F tiene pm elementos. Afirmamos ahora que

Page 365: Herstein   Algebra moderna

4 1. CAMPOS FlNlTOS 363

F es un campo. Si a, b E F, entonces up" = a, bP"' = b, y asi ( ~ b ) ~ " ' = ar" bP"' = ab; luego abeF. Ademas, como la caracteristica es p, (a+b)"' = aPmf bPm = a k b , de donde a_+beF. Por consiguiente Fes un subcampo de K y, por tanto, un campo. A1 mostrar que el campo F tiene pm elementos, hemos probado el lema 7.4.

Combinando 10s lemas 7.3 y 7.4, tenemos

TEOREMA 7.A. Para todo nljmero primo p y todo entero positiro m, hay un campo ljnico 9ue tiene pm elemenros.

Volvamos ahora, por un momento, a la teoria de Ics grupos. El resultado de la teoria de 10s grupos que buscamos, determinarl la estructura de cualquier subgrupo rnultiplicativo finito del grupo de elementos distintos de cero de un campo y, en particular, determinara la estructura multiplica- tiva de cualquier campo finito.

LEMA 7.5. Sea G un grupo abeliano Jinito con la propiedad de que la relacidn x" = e se satisface por, a lo mas. n elementos de G, para todo entero n. Entonces G es un grupo ciclico.

Prueba. Si el orden de G es una potencia de algun numero primo y entonces el resultado es muy sencillo. Supongamos, en efecto, que aeG es un elemento cuyo orden es todo lo grande que sea posible; su orden debe ser q' para algun entero r . Los elementos e, a, a', ..., aq'-' nos dan 9' soluciones distintas de la ecuaci6n xqr = e que, por nuestra hipbtesis, implica que estas son todas las soluciones de la ecuaci6n. Ahora bien, si beG, su orden es q" donde s< r , de donde b' = (bq')q'-' = e. Por la observaci6n anteriormente hecha, esto obliga a que b = a' para algdn i, y por lo tanto G es ciclico.

El grupo abeliano finito general G, puede realizarse como G = S,, S,, . . . Sqk donde las qi son 10s distintos divisores primos de o(G) y donde 10s S~ son 10s subgrupos de Sylow de G. Ademas, todo elemento geG puede escribirse de forma Jinica como g = s, s,. . .s,, donde si€Sqi (vCase la seccidn 7, capitulo 2). Cualquier soluci6n de 2' = e en Sqi es una de x" = e en G, de forma que todo Sqi hereda la hip6tesis que hemos impuesto sobre G. Por las observaciones del primer parrafo de la prueba, cada S,, es un grupo ciclico; sea ai un generador de Sqi . Afirmamos que c = a , a,. . .a, es un generador ciclico de G. Para verificar esto, todo lo que tenemos que hacer es probar que o(G) divide a m, el orden de c. Como c'" = e, tenemos que aImazm . .. a,"' = e. Por la unicidad de la representation de un elemento de G como un product0 de elementos en las S,,, concluimos que aim = e para ioda i. Luego o(Sqi )Jm para toda i. Luego o(G) = o(Sqi) o(Sq,) .. . o(S,,)(m. Pero m(o (G) , luego o(G) = m. Lo que prueba que G es ciclico.

Page 366: Herstein   Algebra moderna

364 TOPICOS SELECTOS - Cap. 7

El lema 7.5 tiene una consecuencia importante.

LEMA 7.6. Sea K un campo y sea G un subgrupo finito del grupo multi- plicatilio de elementos distintos de cero de K. Entonces G es un grupo ciclico.

Prueba. Como K es un campo, cualquier polinomio de grado n en K[x] tiene cuando mas n raices en K. Luego, en particular, para cualquier entero n. el polinomio i- I tiene cuando mas n raices en K, y tambikn cuando mls, n raices en G, evidentemente. La hipotesis del lema 7.5 se satisface, luego G es ciclico.

Aun cuando la situation de un campo finito es un caso particular tan solo del lema 7.6, es de interks en tantos campos que lo subrayamos enunciandolo corno un

TEOREMA 7.8. El grupo multiplicatii~o de elementos distintos de cero de un campo finito es ciclico.

Prueba. Sea F un campo finito. Aplicando simplemente el lema 7.6 con F = K y G = grupo de elementos distintos de cero de F, tenemos el resultado.

Concluimos esta seccion usando un argument0 de conteo para probar la existencia de soluciones de ciertas ecuaciones en un carnpo finito. Nece- sitaremos el resultado en una demostracion del teorerna de Wedderburn.

LEMA 7.7. Si F es un campofinito y a # 0, /? # 0 son dos elementos de F, entonces p o d e m encontrar elementos a y b en F tales que I + aa2 +/?b2 = 0.

Prueba. Si la caracteristica de F es 2, F tiene 2" elementos y cada elernento x en F satisface x2" = X. Asi pues, cada elemento en F es un cuadrado. En particular a- ' = a2 para alguna ae F. Usando esta a y b = 0 tenemos l +aa2 + /?b2 = I +aa- ' +O = 1 + 1 = 0, en donde la liltima igualdad es una consecuencia d.el hecho de que la caracteristica de F es 2.

Si la caracteristica de Fes un ndmero impar primop, F tiene p" elernentos. Sea Wa = {I +ax21xeF). iCuhntos elementos hay en W,? Debemos cornprobar cuantas veces I +ax2 = I +ay2, Pero esta relacion obliga a que ax2 = ay2 y, pot tanto, corno a # 0, a que x2 = y2 . Finalmente, esto nos lleva a que x = f y. Luego para x # 0 tenemos de cada par x y - x un elemento en W , y para x = 0 obtenemos I E W,. Luego W , tiene

pR-l p"+l I + - = - elementos. Anhlagamente Wp = { - /?x2 1 x E F } tiene 2 2

p"+l elementos. Corno tanto Wa como Wp tiene miis de la mitad de 10s 2

Page 367: Herstein   Algebra moderna

$ 2 . TEOREMA DE WEDDERBURN SOBRE ANILLOS FlNlTOa CON DIVISION 365

elementos de F deben tener una interseccion no vacia. Sea CE W, n W g . Como C E W,, c = l +aa2 para algun a c F ; como c c W p , c = -/3b2 para algun ~ E F . Por tanto, l +aa2 = -Bb2, que por transposicion nos da el resultado deseado, I +aa2 +/3b2 = 0.

Problemas

1. De acuerdo con el teorema 7.b, 10s elementos distintos de cero de J , forman un grupo ciclico bajo la multiplicaci6n. Cualquier generador de este grupo se llama una raiz primiti~la de p.

a ) Encukntrense las raices primitivas de: 17, 23, 3 1 . b) ~Cuantas raices primitivas tiene un primo p?

2. Usando el teorema 7b pruebese que x 2 = - 1 mod p es soluble si y solo si el primo impar p es de la forma 4n+ 1.

3. Si a es un entero no divisible por el primo impar p pruCbese que x2 = a mod p es soluble para alglin entero x si y solo si a ' ~ - " ' ~ r 1 mod p. (Se llama a esto el criterio de Euler para que a sea un residuo cuadratico mod p.)

4. Usando el resultado del problema 3 determinese si

a ) 3 es un cuadrado mod 17. b ) 10 es un cuadrado mod 13.

5. Si el campo F tiene pn elementos prukbese que 10s automorfismos de F forman un grupo ciclico de orden n.

6. Si F es un campo finito, por 10s cuaternios sobre F entenderemos el conjunto de todos 10s a ,+a , i + a , j + a , k donde a, , a , , a , , a , € F y donde la suma y la multiplicacion se efectuan como en 10s cuaternios reales (es decir, i2 = j2 = k2 = i s jk = - I, etc.). PruCbese que 10s cuaternios sobre un campo finito no forman un anillo con division.

2. TEOREMA DE WEDDERBURN SOBRE ANILLOS FINITOS CON DIVISION

En 1905, Wedderburn prob6 el teorema, considerado ahora como clasico, de que un anillo finito con division debia ser un campo conmutativo. Este resultado ha captado la imaginacion de la mayoria de 10s matemhticos, por lo inesperado de su contenido en que dos cosas aparentemente tan ajenas como son el numero de elementos de un cierto sistema algebraic0 y la multiplicacion en ese sistema, aparecen de pronto en una estrecha inter- relacion. Aparte de su intrinseca belleza el resultado ha sido muy-importante

Page 368: Herstein   Algebra moderna

366 TOPICOS SELECTOS - Cap. 7

y litil. pues surge en 10s m b variados contextos. Para citar solo un ejemplo; la unica prueba conocida del hecho puramente geomktrico de que en una geometria finita la configuracion de Desargues implica la de Pappus (para la definicion de estos terminos vCase cualquier buen texto de geometria proyectiva) consiste en reducir el problema geomttrico a uno algebraico, y este problema algebraico tiene una solucion basada en el teorema de Wedderburn. Para 10s algebristas, el teorema de Wedderburn ha' servido como trampolin para saltar a una gran Brea de investigacion, durante algunas decadas, concerniente a la conmutatividad de anillos.

TEOREMA 7 . ~ . Un anillo finito con dirisidn es necesariamente un campo conmutatiro.

Primeraprueba. Sea K un anillo finito con division y sea Z = {zEKI zx = xz para todo xeK) su centro. Si Z tiene q elementos entonces, como en la prueba del lema 7. I, se sigue que K tiene qn elementos. Nuestro objetivo es probar que Z = K, o lo que es equivalente, que n = 1.

Si aeK, sea N(a) = {xeKlxa = ax). N(a) claramente contiene a Z, y, como una simple comprobacion revela, N(a) es un subanillo con division de K. Asi pues, N(a) contiene qn'"' elementos para algun entero n(a). Afirmamos que n(a) divide a n. En efecto, 10s elementos distintos de cero de N(a) forman un subgrupo de orden qn'"'- 1 del grupo, bajo la multiplication, de elementos distintos de cero de K, que tiene qn- I elementos. De acuerdo con el teorema de Lagrange (teorema 2.a) q n ( " ) - 1 es un divisor de qn- 1 ; per0 esto obliga a que n(a) sea un divisor den (vease el problema I al final de esta seccion).

En el grupo de elementos distintos de cero de K tenemos la relacion de conjugacion usada en el capitulo 2, a saber, a es conjugado de b si a = x- ' bx para algun x # 0 en K.

Segun el teorema 2.h el numero de elementos de K conjugados de a es el indice del normalizador de a en el grupo de elementos distintos de cero de

qn - 1 K. Por tanto, el numero de conjugados de a en K es -

qnlo) - . Aliora bien, I

a e Z si y solo si n(a) = n, luego, por la ecuacion de clase (vease el corolario al teorema 2.h)

donde la suma es efectuada sobre una a en cada clase conjugada para a no en el centro.

El problema se ha reducido a probar que ninguna ecuacion tal como la (I) puede verificarse en 10s enteros. Hasta este punto hemos seguido la prueba del articulo original de Wedderburn con casi absoluta fidelidad. Wedderburn

Page 369: Herstein   Algebra moderna

12 . TEOREMA D E WEDDERBURN SOBRE ANILLOS FlNlTOS CON DIVISION 367

prosigue hasta desechar la posibilidad de la ecuacidn ( I ) haciendo uso del siguiente resultado de la teoria de numeros debido a Birkhoff y Vandiver: para n > 1 existe un numero primo que es un divisor de qn - I , pero no es un divisor de ningun qm- l donde m es un divisor propio de n, con las excepciones de 26- 1 = 63 cuyos factores primos ya se presentaron como divisores de 22 - I y 23 - 1, y n = 2, y 9 un primo de la forma 2'- 1. Si admitimos este resultado, ~como acabariamos la prueba? Este numero primo seria un divisor del primer miembro de (I) y tambien un divisor de cada ttrmino de la suma que aparece en el segundo miembro pues divide a qn- I , pero no a q"'"' - I ; luego este primo dividiria tambien a q- I dAndonos una contradiccion. El caso 26- 1 se tendria tambikn que desechar, pero esto es sencillo. En el caso n = 2, la otra posibilidad no cubierta por el anterior argumento, no hay ningun subcampo entre Z y K lo que obliga a que Z = K. (iprutbese! Vtase el problema 2.)

Pero no queremos aplicar el resultado de Birkhoff y Vandiver sin probarlo y su prueba nos llevaria a una digresion demasiado larga. Buscamos, pues, otro artificio. Nuestra finalidad es encontrar un entero que divida a qn- 1 , para todos 10s divisores n(a) de n, pero que no divida a q - I. Una p') - 1

vez hecho esto, la ecuacion (I) sera imposible salvo para n = I y, por tanto, el teorema de Wedderburn habra sido probado. El medio que emplearemos con este proposito es la teoria de polinomios ciclot6micos. (Los hemos mencionado en 10s problemas al final de la secci6n 6, capitulo 5.)

Consideremos el p'olinomio x" - 1 como elemento de C[x] donde C es el campo de 10s nlimeros complejos. En C[x]

donde este producto se toma sobre todos 10s 1 que satisfacen 2 = 1. Un numero complejo 0 se dice que es una raiz primitiva n-ksima de la

unidad si 8" = 1 pero 8m # I para cualquier entero positivo m c n. Los numeros complejos que satisfacen x" = 1 forman un subgrupo finito, bajo la multiplicacidn, de 10s numeros complejos, de donde, seglin el teorema 7.b, este grupo es ciclico. Cualquier generador ciclico de este gr'upo debe, entonces, ser una raiz nCsima primitiva de la unidad, de donde sabemos que tales rakes primitivas existen. (Alternativamente, 0 = eZXi'" nos da una raiz primitiva de la unidad.)

Sea @,(x) = n(x-0) donde este producto se toma sobre todas las raices n-tsimas primitivas de la unidad. Este polinomio se llama polinomio ciclotdmico. Enumeramos 10s primeros polinomios ciclotornicos: @, (x) = x-l,@,(x) = X + 1,rn3(x) = x 2 + x + I,@.+(x) = x ~ + ~ , @ ~ ( x ) = x4+x3+ x 2 + x + 1, Q6(x) = x2-x+ I .

Notese que todos ellos son polinomios m6nimos con coeficientes enteros.

Page 370: Herstein   Algebra moderna

368 TOPlCOS SELECTOS - Cap. 7

Nuestro primer objetivo es probar que, en general, @,(x) es un polinomib m6nico con coeficientes enteros. Reagrupamos la forma factorizada de 3- I como se nos da en (2 ) , y obtenemos

Por induccion, suponemos que ad(x) es un polinomio m6nico con coeficientes enteros para d 1 n, d # n. Luego 2' - l = mn (x)g(x) donde g(x) es un polinomio monico con coeficientes enteros. Por tanto

que, a1 dividirse realmente (o por comparacion de coeficientes), nos dice que mn(x) es un polinomio monico con coeficientes enteros.

Afirmarnos ahora que para cualquier divisor d de n, donde d # n,

en el sentido de aue el cociente es un volinomio con coeficientes enteros. Para ver esto observemos primer0 qui xd- I = n mk(x), y como todo

kid divisor de d es tambitn un divisor de n, reagrupando ttrminos en el segundo miembto de (3) obtenemos xd- 1 sobre el segundo miembro; ademhs, como d < n, xd- l no envuelve a @,(x). Por tanto, Y - 1 = @,(x) (xd- l)f(x) donde f (x) = n Qk(x) tiene coeficientes enteros y por tanto

kin k + d

on (x) I = xd- l

en el sentido de que el cociente es un polinomio con 'coeficientes enteros. Y esto establece nuestra afirrnacion.

Para cualquier entero t, @,(t) es un entero y, por lo anteriormente dicho, como un entero divide a (tn- l)((td- I ) . En particular, volviendo a la ecuacion ( I ) ,

y @,(q) I (qn- I ) ; luego por (I), @,(q) l (q - 1). Afirmamos, sin embargo., que si n > 1 entonces I@,(q)) > q- I . Pues @,(q) = n(q-8) donde 8 toma 10s valores de todas las raices primitivas n-tsimas de la unidad y Jq- 8 ) > q- 1 para todo 8 # 1 una raiz de la unidad (prutbese) de donde IcDn(q)l =

Page 371: Herstein   Algebra moderna

12 . TEOREMA DE WEDDERBURN SOBRE ANILLOS FlNlTOS CON DIVISION 369

Il I(/- 01 > q - I . Es claro entonces que @,(q) no puede dividir a q - I . lo que nos lleva a una contradiccion. Debemos por tanto suponer que n = 1 . lo que obliga a admitir el teorema de Wedderburn.

Segundaprueha. Antes de examinar explicitamente 10s anillos finitos con division una vez mhs, probamos algunos lemas preliminares.

LEMA 7.8. Sea R un anillo y sea a€ R. Sea Ta la aplicacidn de R en si mismo dejnida por xTa = xu - ux. Entonces

Prueba. iQue es XT,~? xTa2 = (xTa)Ta = (xu-ax)Ta = (xu-ax)a- a(xa-ax) = xu2 -2axa+a2x. iQui podemos decir acerca de XT,~? xTa3 = (xTa2)Ta = (xu2-2axa+a2x)a-a(xa2-2axa+a2x) = xu3- 3axa2 + 3a2xa-a3x. Continuando de esta forma o por induction. obtenemos el resultado del lema 7.8.

COROLARIO. Si R es un anillo en el que px = 0 para toda XE-R, donde p es un numero primo. entonces xTaPm = xuPn' - apn'x.

Prueba. De acuerdo con la f6rmula del lema 7.8, si p = 2, XT,' = xu2-a2x, ya que 2axa = 0. Asi pues. ,xTa4 = (xu2-a2x)a2 - a2(xa2- a 2 x ) = xu4-a4x, y asi sucesivamente hasta xTa2".

Sip es u n primo impar. de nuevo, seg~in la formula del lema 7.8.

y como

para i <p , todos 10s tirminos medios desaparecen y nos quedamos con xTaP = xuP-aPx = xTaP. Ahora bien, xTaP2 = X(T,,,)~ = xTaP2. y asl sucesivamente por las potencias mhs altas dep.

LEMA 7.9. Sea D un anillo con dirlisidn de caracteristica p > 0 con cenfro 2, y sea P = {O, 1, 2, . . ., (p- 1)) el subcampo de Z isomorfo a J , . Sapongarnos

Page 372: Herstein   Algebra moderna

370 TOPICOS SELECTOS - Cap. 7

que a€ D, a$Z es tal que aP" = a para algrin n 2 I . Entonces existe una x i D tal que

I ) xax-' # a . 2) xax- ' E P(a), el campo obtenidopor la adjuncibn de a a P.

Prueba. Definamos la aplicacion Ta de D en si mismo por yTa = ya-ay para todo Y E D.

P(a) es un campo finito, ya que a es algebraic0 sobre P y tiene, digamos, pm elementos. Todos ellos satisfacen up" = u. De acuerdo con el corolario al lema 7.8, yTaPm = yap" - up" y = ya-ay = yTa, luego Tap"' = Ta.

Ahora bien, si A E P(a), (Ax) Ta = (1x)a-a(1x) =ixa- lax = A(xa-ax) = i.(xTa), ya que A conmuta con a. Asi pues, la aplicacion A1 de D en si mismo definida por 1I:y +Ay conmuta con Ta para todo A E P(a). Ahora bien, el polinomio up"'- u = n (u - A ) por el lema 7.2. Como Ta conmufa con

I. E P(a )

l.I para fodo I E P(a), y como T~~~ = Ta , tenemos que 0 = T,~"- Ta =

Si para todo 1 # 0 en P(a), Ta-11 no aniquila a ningun elemento distinto de cero en D (si y ( T a - i f ) - 0 implica y = 0), como Ta(Ta-I , I ) . . . (Ta- 1, I ) = 0, donde 1., , . . ., I, son 10s elementos distintos de cero de P(a), tendriamos, Ta = 0. Es decir, 0 = yTa = ya-ay para todo ED, lo que obligaria a que a e Z en contra de la hipotesis. Luego hay un i. # 0 en P(a) y un x # 0 en D tales que x(Ta-AI) = 0. Escribiendo esto explicitamente, xu-ax-).x = 0; de donde xax- ' = a+;, esta en P(a) y no es igual a a ya que I # 0. Lo que prueba el lema.

COROLARIO. En el lema 7.9, xax- ' = a' # a para alglin entero i.

Prueba. Sea a de orden s; entonces en el campo P(a) todas las raices del polinomio u" I son I , a, a2. ..., a" ' ya que estas son, todas, raices distintas y son s en total. Como (xax-I)" xu"-' = I, y como xax- ' E P(a), xax- es una raiz en P(a) de u" I , de donde xax- ' = a'.

Tenemos ya todas las piezas que necesitabamos para efectuar nuestra segunda prueba del teorema de Wedderburn.

Sea D un anillo finito con division y sea Z su centro. Por induccion, podemos suponer que cualquier anillo con division que tenga menos elementos que D es un campo conmutativo.

Hagamos notar primer0 que si a, ED son tales que b'a = ab' pero ba # ab, entonces ~ ' E Z . En efecto, consideremos N(bl) = {xEDI b'x = xb'). N(bl) es un subanillo con division de D; si no fuera D, por nuestra hipotesis de induccion seria conmutativo. Pero tanto a como b se encuentran en N(bl) y no conmutan, luego N(bl) no es conmutativo, luego debe ser todo D. Luego ~ ' E Z .

Page 373: Herstein   Algebra moderna

5 2. TEOREMA DE W E D D E R B U R N SOBRE ANILLOS FlNlTOS CON DIVISION 371

Todo elemento distinto de cero en D tiene orden finito; luego alguna . potencia positiva de el cae en Z . Dado W E D sea el orden de w relativo a Z el entero positivo minimo m(u1) tal que u."'~""EZ. Escojamos un elemento a en D, per0 no en Z , que tenga el minimo orden relativo a Z posible, y sea tal orden r . A.firmamos que r es un nljmero prirno, pues si r = r , r , con I < r , < r , < r. entonces a'' no esta en Z. per0 (ar')" = areZ, luego a" tiene un orden relativo a Z menor que el de a.

Por el corolario al lema 7.9, hay un X E D tal que xax- = a' # a ; luego = x(xax- ' ) x - ' = xa ix - ' = (xax- I ) ' = (ai)' = ai2. Analo-

- gamente, tenemos x r - ' ax-"- " - a i i r - " Pero r es un nlimero primo, luego por el pequeiio teorema de Fermat (corolario al teorema 2.a), i r- ' = I +u,r, de donde 1 ) = a' +"or - - aaUor = i a donde i. = aUoreZ. Asi pues, X r - l a = l a x r - I . Como x $ Z , por la naturaleza minima de r , x r - ' E Z . Por la observacion del parrafo anterior, corno xa # ax, x r - ' a # axr-' y por lo tanto I # I . Sea b = x r - ' ; entonces bab- ' = i a ; por consiguiente, ).'ar = (bab-I)' = barb- ' = a', ya que areZ. Esta relacion obliga a que ).' = I .

Afirmamos que si Y E D, entonces siempre que yr = I ha de tenerse y = 1' para algun i, pues en el campo Z ( y ) hay cuando mas r raices del polinomio ur - I ; 10s elementos I . i., R2, . . ., ir- de Z son todos distintos, ya que 1 es del orden primo r y todos ellos constituyen las r raices de ur- 1 en ZQ), en consecuencia de lo cual y = 1'.

Como A' = 1 . br = Arbr = ( Ib) ' = (a - ' ba)' = a- bra, de donde obtenemos abr = bra. Como a conmuta con br, pero no conmuta con b por la observacion antes hecha, br debe estar en Z . Segun el teorema 7.b, el grupo multiplicative de 10s elementos distintos de cero de Z es ciclico; sea ~ E Z un generador. Entonces a' = yi, b' = y k ; si , j = sr, entonces a' = y", de donde (a\y")' = I ; esto implicaria que a\y" i i , lo que implica ~ E Z en contra de a$ Z . De donde r k j ; anhlogamente rkk . Sea a , = ah y b, = bi ; un calculo direct0 partiendo de ha = ;.ah nos lleva a a, b, = pbla, donde

. - p = n jkeZ. Como el numero primo r que es el orden de i , no divide ni a j ni a k , i. jk = I , de donde 11 # I. Notese que ur = 1 .

Veamos donde estamos. Hemos producido dos elementos a, y 6, tales que :

1 ) a l r = b I r = X E Z ;

2) a, b , = pb, a , . con p # I en Z .

3) pr = 1 .

Calculamos ( a , - ' b , ) ' ; ( a l - ' b , ) 2 = a l - ' b 1 a , - ' b l =a , - ' (b ,a , - ' )b l= a , - ' ( pa , - ' b, )b , = pa,- 'b l ' . Si caiculamos (a, - ' b, ) ) encontramos que es igual a ~ i ' " a , - 3 b l ). Continuando de esta forma obtenemos (al- ' 6,)' =

+2+."+(r - I ) - r a1

blr = +Z+".+(r- I ) = p r i r - " I 2 , Si r es un primo

impar, corno pr = I, tenemos p r ' r - ' " 2 = I, de donde (a1-'b,)' = 1. Siendo una solucion de yr = I, a , - ' 6 , = i' de mod0 que b, = A'a, ; per0

Page 374: Herstein   Algebra moderna

372 TOPICOS SELECTOS - Cap. 7

entonces pb, a, = a, b, = b, a , , lo que contradice p # I . Luego si r es in ndmero primo impar, el teorema estP probado.

Debemos ahora descartar el caso r = 2. En esta situacion especial tenemosdoselementosa,. b,eD talesquea12 = b12 = zeZ.a, 6, = jtblal d o n d e p 2 = I y p # I . A s i p u e s , p = - I y a , b , = - h , a , # h , a , ; c o m o consecuencia, la caracteristica de D no es 2. De acuerdo con el lerna 7.7 podemos encontrar elementos C, qeZ tales que I + i2 -zq2 = 0. Consideremos (a, + Cb, + qa, b, 12; al computar esto encontsamos que (a, + Cb, +Val b1)2 = a ( ] + C 2 -zq2) = 0. Estando en un anillo con division esto implica que a,+Cb,+qa,b, = 0; luego 0 # 2aI2 = a , ( a , + jh,+ gal 6,) + (a, + [b, +qal b,)a, = 0. Esta contradiccion termina la prueba y el teorema de Wedderburn queda establecido.

Esta segunda prueba tiene la ventaja de que podemos utilizar partes de ella para establecer un resultado notable debido a Jacobson, a saber,

TEOREMA 7 . ~ . (JACOBSON). Sea D un anillo con dirisidn tal que para todo a e D existe un entero positiro n(a) > 1, dependiente de a, tal q~re a"'"' = a. Entonces D es un campo conmutatiro.

Pruebrr. Si a # 0 esta en D, entonces a" = a y (2a)" = 2a para algunos enteros n, m > I . Sea s = (n- I ) (m- I)+ I; s > 1 y un simple cllculo muestra que a' = a y (241)' = 2a. Pero (247)" = 2"a" ='a, de donde 2'0 = 20 de lo que se obtiene (2L2)a = 0. Asi pues. D tiene caracteristica p > 0. Si P c Z es el campo que tienep elementos (isomorfo a J,), como a es algebraic0 sobre P, P(a) tiene un numero finito de elementos. en realidad pb elementos para alfin entero h. Asi pues. como aeP(a). aph = a. Por tanto, si a$Z todas las condicionesdel lema 7.9 se satisfacen, de donde existe una b€D tal que

Por el mismo argumento, bPk = b para algun entero k > I . Sea pk P"

W = {xeDlx = 1 pijaib' donde pije P}. W es finito y es cerrado i = 1 j= I

respecto a la adicion. Por virtud de (1) es tambiCn cerrado respecto a la multiplication (iverifiquese!). Luego W es un anillo finito con division ; por el teorema de Wedderburn es conmutativo. Pero a y b estan ambas en W; por tanto, ab = ba en contra de que a'b = ba. Y esto prueba el teorema.

El teorema de Jacobson realmente se verifica para cualquier anillo R que satisfaga 6'"' = a para todo a € R, no solamente para anillos con division. La transicion del caso de anillo con division a1 caso general aunque no

Page 375: Herstein   Algebra moderna

$ 2 . TEOREMA DE WEDDERBURN SOBRE ANTILLOS FlNlTOS CON DIVISION 373

dificil exige la aplicacion del axiorna de election, y discutirlo nos llevarla demasiado lejos.

I. Si t > I es un entero y (tm- I ) 1 (tn- I), pruebese que m In.

2. Si D es un anillo con division, pruebese que su dimensi6n (como espacio vectorial) sobre su centro no puede ser mayor que 2.

3. Pruebese que cualquier subanillo finito de un anillo con divisi6n es un anillo con division.

4. a ) Sea D un anillo con division de caracteristica p # 0 y sea G un subgrupo finito del grupo de elementos distintos de 0 de D bajo la multiplicacion. Pruebese que G es abeliano. (Sugerencia: considerese el subconjunto {XE Dl x = ZA,gi, A,€ P, g , ~ G}.)

b ) Pruebese en la parte (a) que G es realrnente ciclico.

*5. a) Si R es un anillo finito en el que x" = x, para todo XER donde n > I, pruebese que R es conmutativo.

b ) Si R es un anillo fihito en el que x 2 = 0 implica que x = 0, pruebese que R es conmutativo.

*6. Sea D un anillo con division y supongamos que ED solamente tiene un nurnero finito de conjugados (es decir, solamente un ndmero finito de elernentos x- ' ax). Pruebese que a tiene solamente un conjugado y debe estar en el centro de D.

7. ljsese el resultado del problema 6 para probar que si un polinomio de grado n con coeficientes en el centro de un anillo con divisi6n tiene n+ 1 raices en el anillo con division, entonces tiene un numero infinito de rakes en ese anillo con division.

*8. Sea D un anillo con division y K un subanillo con divisi6n de D tal que xKx- ' c K para todo x # 0 de D. Pruebese que o K c Z, el centro de D, o K = D. (Este resultado se conoce como el teorema de Brauer-Cartan- Hua.)

*9. Sea D un anillo con division y K un subanillo con division de D. Supongamos que el grupo de elementos distintos de cero de Kes un subgrupo de indice finito en el grupo (bajo la multiplicacion) dk elementos distintos de cero de D. Pruebese que entonces o D es finito o K = D.

10. Si 0 # 1 es una raiz de la unidad y si q es un entero positivo, prudbese que lq-Ot>q-I.

Page 376: Herstein   Algebra moderna

374 TOPICOS SPLECTOS - Cap. 7

3. TEOREMA DE FROBENIUS

En 1877, Frobenius clasifico todos 10s anillos que tienen el carnpo de 10s numeros reales en su centro y que satisfacen, adernas. una condicion que describiremos posteriorrnente. La finalidad de esta secci6n es presentar este trabajo de Frobenius.

En el capitulo 6 sefialamos dos importantes hechos acerca del campo de 10s numeros complejos. Los recordarnos aqui :

HECHO I . Todo polinornio de grado n sobre el campo de 10s numeros complejos tiene todas sus n raices en el campo de 10s nurneros cornplejos.

HECHO 2. LOS 6nicos polinornios irreducibles sobre el carnpo de 10s numeros reales son de grado I o 2.

DEFINICION. Una algebra con division D se dice que es algebraica sobre un campo F si :

I ) Festa contenido en el centro de D; 2) todo a€ D satisface un polinornio no trivial con coeficientes en F.

Si D, corno espacio vectorial, es de dimension finita sobre el campo F que esta contenido en su centro, se puede rnostrar facilrnente que D es algebraico sobre F (vease el problerna 1 al final de esta seccion). Pero puede suceder que D sea algebraico sobre F y, sin embargo, no sea de dimension finita sobre F.

Cornenzarnos nuestra discusi6n sobre anillos algebraicos con divisi6n sobre el campo real investigando, en primer lugar. cuhles son 10s algebraicos sobre el carnpo cornplejo.

LEMA 7.10. Sea C el campo de 10s nljmeros complejos y supongarnos que el anillo con dirisidn D es algebraico sobre C. Entonces D = C.

Prueba. Supongarnos que a€ D. Corno D es algebraico sobre C , an+ z, a"- ' + . . . + a n - , a + a, = 0 para algunas c i , , u2 , . . ., a, en C .

Ahora bien, el polinornio p ( x ) = x"+ci, Y- ' + ... +a,- ,x+cin en C[x] puede, por el hecho I, factorizarse en C[x] en un producto de factores lineales; es decir, p ( x ) = ( x - 1 1 ) ( x - A 2 ) . . . (x-I.,) donde A , , I , , . . ., A, estan todos en C. Como C esta en el centro de D, todo elemento de C conmuta con a, de donde p(d) = ( a - A , ) ( a - A 2 ) . . . (a-A,). Pero, por hipbtesis, p(a) = 0, luego ( a - A , ) ( a - 1 , ) . . . (a - I,) = 0. Corno un producto en un anillo con division es solo cero en el caso de que uno de 10s factores, a1 menos, sea cero, concluimos que a - 1 , = 0 para algun k, de donde a = ,Ik, entonces se tiene que a e C . Por tanto, todo elemento de D es de C ; como C c D, se obtiene D = C .

Page 377: Herstein   Algebra moderna

13. TEOREMA DE FROBENlUS 375

Estamos ahora en posicion de probar el clisico resultado de Frobenius, a saber

TEOREMA 7 . ~ (FROBENIUS). Sea D un anillo con divisidn algebraico sobre F, el campo de 10s .ntimeros reales. Entonces D es isomorfo a uno de 10s siguientes: el campo de 10s n~imeros reales, el campo de 10s ntimehos complejos, o el anillo con diuisidn de 10s cuaternios reales.

Prueba. La prueba consta de tres partes. En la primera, y mas sencilla, resolvemos la cuestion para el caso conmutativo; en la segunda, suponiendo que D no es conmutativo, construimos una replica de 10s cuaternios reales en D; en la tercera parte mostramos que esta rkplica de 10s cuaternios satis- face completamente a D.

Supongamos que D # F y que a estl en D, pero no en F. De acuerdo con nuestras hipotesis, a satisface algun polinomio sobre F, de donde alg6n polinomio irreducible sobre F. Si esta ecuacion es lineal, a debe estar en F en contra de lo supuesto. Asi que podemos suponer que a2 -2aa+/l = 0 donde a, BE F. Luego (a - a)2 = a2 - 8; afirmamos que a 2 - /l < 0, pues, de otra forma tendria una raiz cuadrada 6 y tendriamos a-a = +S y, por tanto, a estaria en F. Como a2 - p < 0 se puede escribir como - y2 donde y E F. En

consecuencia (a- a)' = - y ', de donde - = - I . Asi pues si UE D, (.Y ar ria>' a # F podemos encontrar reales a, y tales que - = - 1.

a-a Si D es conmutativo, escojamos a e D, a$ F y sea i = - donde a, y en F

Y se escogen de mod0 que hagan i2 = - 1. Por tanto, D contiene a F(i), un campo isomorfo al campo de 10s numeros complejos. Como D es conmutati- vo y algebraico sobre F es evidentemente tambien algebraico sobre F(i). Segun el lema 7.10 concluimos que D = F(i). Luego si D es conmutativo entonces es F o F(i).

Supongamos, entonces, que D no es conmutativo. Afirmamos que el centro de D debe ser exactamente F. Si asf no fuera, habria un a en el centro

que no %ria de F. Pero entonces para algunas a, yeF, .-(I = - 1 de i Y )

forma que el centro contendria un campo isomorfo al'& ios numeros complejos. Pero, de acuerdo con el lema 7.10, si 10s numeros complejos (o un campo isomorfo a cllos) estuviese en el centro de D entonces D = C, luego D seria conmutativo. Por tanto, Fes el centro de D.

a-a Sea asD, a#F; para algunas a, ~ E F , i = -satisface i2 = - 1. Como

Y i#F, i no esta en el centro de D. Por lo tanto hay un elemento beD tal que

Page 378: Herstein   Algebra moderna

376 TOPICOS SELECTOS - Cap. 7

c = h i - i h # 0.Calcularnos ic+ci ; ic+ci = i ( b i - i b )+ (b i - i h ) i = i h i - i 2 h + hi2 - ih i = 0. ya que i 2 = - I . Asi pues, ic = - c i ; deducimos de esto que ic2 = -c ( ic ) = - C ( - c i ) = c2 i , es decir. c2 conmuta con i. Aho- ra bien. c satisface alguna ecuacion cuadratica sobre F, c2+Ac+p = 0. Corno c2 y i t conmutan con i. Ac debe tambitn conrnutar con i : es decir. Aci = iAc = Air = - k i , de donde 2Aci = 0, y corno 2ci # 0. tenemos que j. = 0. Luego c2 = - p ; corno c $ F (pues ci = -ic # i c ) podemos decir, corno antes hicirnos, que 11 es positivo y por lo tanto kt = v 2 donde

C Y E F . Por lo tanto. c 2 = - \ i 2 ; sea j = -. Entoncesj satisface

v

Sea k = i i . Las i, j, k que hernos construido se cornportan corno las de 10s cuaternios. de donde T = {z, + z , i+ z2J+ 2, k 1 z, , 2 , , z2 , 2, E F ) forrna un subanillo con division de D isomorfo a 10s cuaternios reales. iHernos construido una rtplica T, del anillo con division de 10s cuaternios reales en D!

Nuestro ultimo objetivo es dernostrar que T = D. Si r e D satisface r 2 = - I, sea N ( r ) = { x e D l x r = r x } . N ( r ) es un

subanillo con division de D ; adernas, r , y por lo tanto todos 10s *,+a, r , zo , z , E F, estan en el centro de N ( r ) . Segdn el lerna 7.10, de ello se sigue que N ( r ) = {zo + z , r 1 a,, a , EF. Luego si x r = r x entonces x = a. + a, r para algunas zo . a , en F.

u - a Supongarnos que u E D, u $ F . Para algunos a, B E F, u1 = -

B sat isface

u12 = - I . Afirmamos que wi+iw conrnuta tanto con i corno con w ; para i (u l i+ iw) = iu3i+i2 w = iwi+ w i2 = (iw+ w i ) i ya que i 2 = - 1. Analoga- mente. w(lc i+iw) = (wi+iw)w. Por la observacibn del phrafo anterior, u'i+iuT = z ; + z ; i = ao+a, W. Si w # T esta ultima relacion implica z , = 0 (pues de otra forma podriamos resolver para w en terminos de i ) . Luego u>i+iui = Z ~ E F . Analogarnente. wj+jw = P,EF y wk+kw = ~ , E F . Sea

Entonces

Page 379: Herstein   Algebra moderna

1 4 . CUATERNIOS ENTEROS Y EL TEOREMA DE LOS CUATRO CUADRADOS 377

analogamente zi+,j: = 0 y z k + k z = 0. Afirmamos que estas relaciones - obligan a : a ser 0. En efecto. 0 = zk + k z = :ij+ ij: = (z i+ iz) , j+ i ( , jz - ; j ) =

i ( j z - z j ) . pues z i + i z = 0. Pero i # 0. y como estamos en un anillo con division de ello se sigue que ,I:-zj = 0. Pero , j :+zj = 0. Luego 2.1: = 0. y como 2 j # 0, tenemos : = 0. Volviendo a la expresicin para z tel1enlos

de donde u 9 e T, en contradiccion con ut$ T. Luego, ciertamente, i ~ e T. Como U-51 w = - , u = /lu1+z y p o l lo tanto, I I E 7'. Hemos probado qile cualquier

1) elemento de D esth en T. Como T c D concluimos que D = T ; como T es isomorfo a 10s cuaternios reales tenemos que D es isomorfo al anillo con division de 10s cuaternios reales. Pero esto es. exactamente. el enunciado del teorema.

Problemas

1. Si el anillo con division D es de dimension finita como espacio vectorial sobre el campo F contenido en el centro de D, pruebese que D es algebraico sobre F.

2. Proporcionese un ejemplo de un campo K algebraico sobre otro campo F, per0 no finito dimensional sobre F.

A es un anillo algebraico sobre un campo F y A no tiene divisores de se que A es un anillo con division.

4. CUATERNlOS ENTEROS Y EL TEOREMA DE LOS CUATRO CUADRADOS

En el capitulo 3 consideramos cierta clase particular de dominios enteros. la de 10s dominios euclidianos. Cuando 10s resultados de esta clase de anillos se aplicaban al anillo de 10s enteros gaussianos obteniamos, como una consecuencia, el famoso resultado de Fermat de que todo numero primo de la forma 4n + I es la suma de dos cuadrados.

Consideraremos ahora un subanillo particular del de 10s cuaternios que en todos 10s aspectos, salvo en el de su falta de conmutatividad. parecera un anillo euclidiano. A causa de ello sera posible caracterizar explicitamente a sus ideales izquierdos. Esta caracterizacion de 10s ideales izquierdos nos llevara rapidamente a una prueba del teorema clasico de Lagrange, de que todo en tero posi tivo es una suma de cuatro cuadrados.

Page 380: Herstein   Algebra moderna

378 TOPICOS SELECTOS - Cap. 7

Sea Q el anillo con division de 10s cuaternios reales. Procedemos a introducir una operacion adjunta en Q, *, por la siguiente

DEFINICION. Para x = r , + r , i+ r , j + r 3 k en Q, el adjunto de x , al que denotaremos por x*, estl definido por x* = r , - r , i - r 2 j- r 3 k .

LEMA 7.1 1 . El adjunlo en Q satisface

I ) x** = x

2 ) (Sx + yy)* = Sx* + yy*

4) (xy)* = y*x*

para todo x , y en Q y cualesquiera reales S y y.

Prueba. Si x = ao+a, i + r 2 j + a 3 k , entonces x* = r , - r , i - r 2 j - r 3 k . luego x** = (x*)* = a,+a, i + r 2 j + r 3 k , lo que prueba ( I ) .

Sean x = r o + r , i + r 2 j + r 3 k y y = Po+ P I i +P2 j+P3k elementos de Q y Sean 6 y y numeros reales arbitrarios. Entonces 6x+ yy = (6ro+ yp,) + (Sa, + yP,) i + (Sa, + yP2)j + (Sr, + ~/3,)k, luego, por la definicion de *, (ax+ YY)* = ( roo+ y P o ) - (Sr, + yP1)i - ( 6 ~ 2 + rP2 ) j - (6r3+ rP3)k = S(ao-a, i - r 2 j - a 3 k ) + y(pO-p, i -P2 j -P3k ) = ax*+ yy*. LO que es claro que prueba (2).

A la luz de (2), para probar (3) es suficiente hacerlo para una base de Q sobre 10s reales. Lo probamos para la base 1, i , j, k . Ahora bien, i j = k , de donde (ij)* = k* = - k = ,ji = ( - j ) ( - i ) = j * i * . Analogamente ( ik)* = k* i * , ( jk)* = k* j * . Ademas, ( i2)* = (- 1)" = - I = ( i * ) ' , y analogamente para j y k. Como (3) es cierto para 10s elementos de la base y (2) se verifica, (3) es cierto para todas las combinaciones lineales de 10s elementos de la base con coeficientes reales, de donde (3) se verifica para x y y de Q arbitrarios.

D E F I N I C ~ ~ N . Si X E Q entonces la norma de x , a la que representaremos por N ( x ) , esta definida por N ( x ) = xx*.

Notese que si x = ao+a, i +a2 j+a3k , entonces N ( x ) = xx* = ( ao+a l i +a2 j+a3k ) ( ao -a , i - a2 j - a3k ) = a o 2 + a , 2 + r 2 2 + a 3 2 ; por tanto, N(0 ) = 0 y N ( x ) es un numero real positiro para x # 0 en Q. En particular, para cualquier nimero real r , N (a ) = a2. Si x # 0, notese

I que x - I = - x*.

N (a)

LEMA 7.12. Para lodo x, Y E Q, N ( x y ) = N(x )N (y ) .

Prueba. Por la misms definicion de la norma, N(xy) = ( xy ) (xy ) * ; por parte (3) del lema 7.1 1 , (xy)* = y*x* y por lo tanto N(xy ) = xyy*x*. Pero yy* = N ( y ) es un numero real y por tanto esta en elsentro de Q; en

Page 381: Herstein   Algebra moderna

§ 4. CUATERNIOS ENTEROS Y EL TEOREMA DE LOS CUATRO CUADRADOS 379

particular debe conmutar con x*. Por consiguiente, N ( x y ) = x(yy*)x* = ,

.

(xx* ) (YJ*) = N ( x ) N ( y ) .

Como una consecuencia inmediata del lema 7.12 se tiene.

LEMA 7.13 (IDENTIDAD DE LAGRANGE). Si a,, a I , a 2 , a, y Po, B, , B2, /3, son nlinieros reales, entonces (a, + a , + a2 + a, 2 , (PO + P I + P2 + 8, 2 , = ( ~ o P o - ~ I P I -a2P2-a3B3)'+(aoB1 + ~ I B O + ~ , P ~ - ~ , B ~ ) ~ +(aoB2-a1 P , + a 2 P o + ~ 3 8 1 ) ~ + (ao83+a1 P2-a182+a3BoI2-

Prueha. Hay desde luego una prueba obvia de este resultado, la de efectuar las multiplicaciones en ambos miembros y comparar 10s resultados.

Pero una forma mas fhcil de reconstruir el resultado y a1 mismo tiempo probarlo, es observar que el primer miembro es N ( x ) N ( y ) , mientras que el segundo miembro es N ( x y ) con, x = ao+a l i + a 2 j + a 3 k y y = Po+Pl i+ p , j+P,k . De acuerdo con el lema 7.12, N ( x ) N ( y ) = N(xy) , luego la identidad de Lagrange.

La identidad de Lagrange nos dice que la suma de cuatro cuadrados por la suma de cuatro cuad~ados es, de nuevo, de una forma muy especifica, la suma de cuatro cuadrados. Un resultado muy impresionante de Adolf Hurwitz dice que si la suma de n cuadrados por la suma de n cuadrados es de nuevo una suma de n cuadrados, donde esta ~iltima suma tiene termi- nos bilinealmente calculables partiendo de las otras.dos sumas, entonces n = 1, 2, 4 u 8. Hay, en realidad, una identidad para el product0 de sumas de ocho cuadrados, pero es demasiado largo y complicado para transcribirlo en este lugar.

Veamos ahora por que es oportuno introducir el anillo de Hurwitz de cuaternios reales. Sea I = +(I + i+j+ k ) y

H = { m o I + m I i + m 2 j + m 3 k ) m o , m , , m,, m, enteros).

LEMA 7.14. H es un subanillo de Q. Si X E H , entonces x * ~ H y N ( x ) es un enter0 positivo para todo elemento disrinro de cero x de H.

Dejamos la prueba del lema 7.14 para el lector. No ofrece dificultad alguna.

En cierto modo, H podria parecernos un anillo un poco extraiio, arbi- trario. iPor que usar 10s cuaternios ( ? iPor quC no considerar simplemente el anillo mas natural Q, = {mo+ml i+m2j+m3k lm,, m , , m , , m, enteros? La contestation es que Q, no es suficientemente grande, mientras que H es, segun el lema clave que sigue algo que parece suficiente. Necesita- mos este lema por que nos va a permitir caracterizar 10s ideales izquierdos del anillo. Esta posibilidad quiza fue la raz6n por la que Hurwitz se inclin6 a trabajar en H en lugar de en Q,,

Page 382: Herstein   Algebra moderna

380 TOPICOS SELECTOS - Cap. 7

LEMA 7. I5 (ALGORTIMO DE LA U I V I S I ~ N IZQUIERDA). Sran a ?. h elenienros rlr H cot1 h # 0. Etitonces existeti (lo.\ elrtilrtitos c ?. d m H. tales <lire a =

r .h+t l \ . N ( d ) < N ( h ) .

Pnreha. Antes de probar el lema, veamos que es lo que nos dice. Si observamos la seccion del capitulo 3 que trata de 10s anillos euclidianos, podemos ver que el lema 7.15 nos asegura que, except0 por su falta de conmutatividad, H tiene todas las propiedades de u n anillo euclidiano. El hecho de que 10s elementos de H puedan fallar en cuanto a conmutatividad se refiere, no nos preocupa. Ciertamente, debemos tener un poco de cuidado para no saltar a conclusiones erroneas; por ejemplo, a = ch+r/, per0 no tenemos ningun derecho a suponer que a es tambien igual a bc+c/, pues b y c es posible que no conmuten. Pero esto no influira en ningun argument0 de 10s q ue usenios.

Debemos conienzar por probar el lema en un caso muy particular, a saber, aquel en que a es u n elemento arbitrario de H, per0 h es u n entero positivo n. Supongamos que a = to < + t , i + t z , j + t 3 k donde t , , . t , , t , y r , son enteros y que h = n donde t i es un entero positibo. Sea c = x , < + x , i + s 2 . j + x , k donde .yo. .v, . x, y .r3 son enteros auli por determinar. Queremos escogerlosen tal forma que hagan que obligadamente N ( a - c t i ) < .N (n) = ti2. Pero

Si pudiksemos escoger 10s enteros x,, x , , x , , x , de tal forma que se tuviera to-nxol < + n , ( t o + 2 t l - n ( l o f 2 x l ) l < n n l t o + 2 1 , t i y I to+ 21, - n( to + 2 x 3 ) I < n entonces lendriamos

que es el resultado deseado. Pero afirmamos que esto siempre puede hacerse:

n ti I ) Hay u n entero x, tal que t o = x , n + r donde - - < r. < -; para

2 2

n este x , , ( t o - x , n J = ( r J < -.

2

Page 383: Herstein   Algebra moderna

3 4. CUATERNIOS ENTEROS Y EL TEOREMA DE LOS CUATRO CUADRADOS 381

I ) Hay iln entero k lal que to + I t , = kt i + r y 0 < r < n. Si k - t o es par, - pcingase 2.r, = k - t,, ; entonces to + 21, = (2x, + to)n + r y It,+ 21, - (2.\-, + t,,)tl( = r < ti. Si, por otra parte, k - to es impar, hagamos I.\-, = k-t,,+1;entoncest0+Zt, =(2. r l+ t , - I )n+r = (2x ,+ to )n+ r - t i . de donde I to+2 t , - ( I x ,+ to ) t i ) = ( r - t i I C t i ya que O < r < t i .

Podemos, pues, encontrar un entero .r, que satisfaga 1to+2t, - (I.r, +t l , ) t l l < 11.

3) Corno en ( 2 ) . podemos encontrar enteros s2 y x, que satisfacen 1 to + 2t2 - ( I x 2 + tO)ti 1 < t i y Ito + 21, -(2.r3 + to)nl < t i respectiva- menle.

En el caso especial en que a es un elemento arbitrario de H y h es un entero positico. hemos niostrado que el lema es cierto.

Vamos ahora al caso general en que a y b son elenientos arbitrarios de H y h # 0. Segun el lema 7.14. n = hh* es un entero positivo. luego exisle un CE H tal que ah* = oi+d, donde N(d, ) < N(n). Luego N(uh* -cn) < N(t1); pero t i = hh* de donde tenemos N(ab*-&be) < N(n) y, por tanto. N ( (a - ch)h") < NO?) = N(bh*). De acuerdo con el lema 7.12. esto se reduce a N(a-ch) N(b*) < N(h)N(be); como N(b*) > 0 tenemos N(a-cb) < N(b). Haciendo d = a - cb tenemos a = ch + d donde N(d) < N(b). Y esto completa la prueba del lema.

Como en el caso conmutativo, podemos deducir del lema 7.15 el

LEMA 7.16. Sea L un irleal iiquierdo ile H. Entonces existe un elemento UE L /a/ c/ue toclo elentento en L es un 11iLltip10 iztluierdo de 11 : en otras palabras, existe L r n LIE L tal (/lie todo XE L es de la/ornia x = r u dotide r E H.

Prirehu. Si L = (0) nada hay que probar. simplemente hacemos 11 = 0. Podemos. pues. suponer que L tiene elementos distintos del cero. Las

normas de 10s elementos distintos de cero son enteros positivos (lema 7.14) de donde hay un elemento 11 # 0 en L cuya norma es minima entre las de 10s elementos distintos de cero de L. Si XEL, segun el lema 7.15, x = crt+d donde N(t1) < N(u). Pero d esta en L porque x y u. y por tanto cu, estan en L que es un ideal izquierdo. Luego N(d) = 0 y, por tanto, d = 0. De donde es una consecuencia que x = cv.

Antes de que podamos probar el teorema de 10s cuatro cuadrados. que es la finalidad de esta seccion, necesitamos un lema mas, a saber

LEMA 7.17. S i a~ H entonces a - ' E H st' y solo s i N(a) = 1.

Prueba. Si tanto a como a - esthn en H, entonces. segun el lema 7.14, tanto N(a) como N(a- I ) son enteros positivos. Pero aa- ' = I. de donde, de acuerdo con el lema 7.12. N(a) N(a- ') = N(aa- I ) = N ( I ) = 1 . Luego ha de tenerse N(a) = 1 .

Page 384: Herstein   Algebra moderna

382 TOPICOS SELECTOS - Cap. 7

Por otra parte, si a€ H y N(a) = I, entonces aa* = N(a ) = I y a- ' = a*. Pero segun el lema 7.14, como a€ H tenemos ~ * E H , de donde a- ' = a* estl tambien en H.

Hemos determinado bastante de la estructura de H para usarlo en forma efectiva en el estudio de las propiedades de 10s enteros. Probamos ahora el clasico teorema de Lagrange.

TEOREMA 7 . ~ . Todo entero positiro puede expresarse como la suma de 10s cuadrados de cuatro enteros.

Prueba. Dado un entero positivo n afirmamos en el teorema que n =

xoZ + x , +x , +x, para cuatro enteros x,, x , , x, y x, . Como todo entero se factoriza en un product0 de numeros primos, si todo numero primo fuera realizable como una suma de cuatro cuadrados, teniendo en cuenta la identidad de Lagrange (lema 7.13), todo entero seria expresable como una suma de cuatro cuadrados. Hemos reducido el problema para poder con- siderar tan solo n~imeros primos n. El numero primo 2 es claro que puede escribirse como la suma de cuatro cuadrados: 2 = 1 + 1 +02 +02.

Luego, sin perdida de generalidad, podemos suponer que n es un nljmero primo impar. Como es costumbre, lo denotamos por p.

Consideremos 10s cuaternios Wp sobre 'Jp, 10s enteros mod p ; Wp= {x,+z, i+a, j+a,k~a,, a , , z,, a , ~ J p j . Wp es un anillo finito; ademas, como p # 2 no es conmutativo, pues i j = -j i # j i . Luego, segcn el teorema de Wedderburn, no puede ser un anillo con division, de donde segun el problema I al final de la seccion 5 del capitulo 3, debe tener un ideal izquierdo que no sea ni (0 ) ni Wp.

Pero entonces el ideal bilateral V en H definido por V = {x , ( + x , i+ x,j+x,k lp divide a x,, x , , x, y x,) no puede ser un ideal izquierdo maximo de H, ya que H / V es isomorfo a W,. (i Pruebese!) (Si V fuera un ideal maximo izquierdo en H. H / V , y por tanto W,, no tendria otros ideales izquierdos que (0 ) y HIV ) .

Hay, pues, un ideal izquierdo L de H que satisface: L # H, L # V, y L 2 V. De acuerdo con el lema 7.16, hay un elemer~to u e L tal que todo elemento de L es un multiple izquierdo de u. Como p~ V, P E L , de donde p = cu para algun C E H . Como u$ V, c no puede tener un inverso en H, pues de otra forma u = c- ' p estaria en V. Luego N(c) > 1 por lema 7.17. Como L # H, u no puede tener un inverso en H, de donde N(u ) > 1. Luego p = cu, P 2 = N(p) = N(cu) = N(c)N(u). Pero N(c) y N(u) son enteros, pues tanto c como u estan en H, ambos son mayores que I y ambos dividen a p2. La unica forma de que esto sea posible es que N(c) = N(u) = p.

Como U E H , u = m,(+m,i+m,j+m,k donde m,, m , , m,, m, son enteros; luego 2u = 2mo(+2m,i+2m,j+2m,k = (m,+m,i+m,j+m,k) +2ml i+2m,j+2m3k = mo+(2ml +mo)i+(2m, +mo)j+(2m,+mo)k. Por tanto, N(2u) = m, + (2ml + m,), + (2m, + m,)' + (2m3 + rn,),. Pero

Page 385: Herstein   Algebra moderna

5 4. CUATERNIOS ENTEROS Y EL TEOREMA D E LOS CUATRO CUADRADOS 383

N(2u) = N(2 )N (u ) = 4p ya que N(2) = 4 y N(u) = p. Hemos demostrado *

que 4p = mo2 +(2m, +mo)2 + (2m2 +mo)2 + (2m3 +mo)2. Y ya casi hemos terminado.

Para terminar la prueba introducimos un viejo truco de Euler: Si 2a = xO2 + x I + x~~ + x j 2 , donde a, x,, x , , x2 y x, son enteros, entonces a = yo2 + y , + y 2 2 + y 3 2 para algunos enteros yo , y , , y , , y,. Para ver esto notese que corno 2a es par, 10s x son todos pares, todos impares, o dos pares y dos impares. En cualquiera de 10s tres casos podemos renurnerar 10s x y aparearlos de forma que

sean todos enteros. Pero

Como 4p es una suma de cuatro cuadrados, segun la observacion que acabamos de hacer 2 p tambiCn 10s es; corno 2p es una suma de cuatro cuadrados, p tambien debe ser igual a una tal suma. Luego p = ao2 +a, +

para algunos enteros a,. a, , a , , a , , y el teorema de Lagrange ha quedado establecido.

Este teorerna es el punto de partida de una gran area de investigacibn en teoria de numeros, la del llamado problema de Waring. Se pregunta en Cste si todo entero puede escribirse corno una suma de un numero fijo de potencias k-esimas. Por ejernplo, puede demostrarse que todo entero es la suma de nueve cubos, diecinueve cuartas potencias, etc. En el presente siglo el gran maternaticp Hilbert demostro que el problema de Waring tiene una respuesta afirmativa.

Problemas

I . PruCbese el lema 7.14.

2. EncuCntrense todos 10s elementos a de Qo tales que a- ' esta tambiin en Qo.

3. Pruibese que hay exactamente 24 elementos a en H tales que a-I esth tarnbiin en H. Determinense todos ellos.

Page 386: Herstein   Algebra moderna

384 TOPICOS SELECTOS Cap. 7

4. Proporcitinese un ejemplo de illla (I y ulia h. h # 0. ell (I,, tales qile sea iniposible encontrar y J en Q, que satisfagon u = ( . / I+ ( / do~ide N ( d ) < rV(h).

5. Prukhese qile si U E H elitonces exislen enreros z. /I tales que u2+ . lu+ / I = 0.

6. Pru~hese qile hay un entero positivo que no puede escribirse como la silnia de trcs cuadrados.

"7. Ex1iih;ise 1111 nuniero in fn i to de enteros positives que no puedan escrihirse como la sunia de tres cuadrados.

1,ecturas suplementarias

Para ilna discusion niLs profunda de campos finitos: ALBERT, A. A., F ~ ~ ~ i c l a ~ ~ i e ~ i r a l Coriceprs of' Higlier Algebra. University of Chicago Press, Chicago, 1956. ,

Para muchas pruebas del reorema de 10s cuatro cuadrados y una discusi6n del problema de Waring: HARDY, G. H. y WRIGHT, E. M., An Ilitro- d~~cr ion lo the Tlieory of Nir~~ibers, segunda edicion. Clarendon Press, Oxford, Inglaterra, 1945.

Para otra prueba del teorema de Wedderburn: ARTIN, E., "Ober einen Satz von Herrn J. H. Wedderburn", Abhancll~ingen. Hamburg, Mathemarisches Seminar, vol. 5 ( 1928). pags. 245-250.

Page 387: Herstein   Algebra moderna

lndice analitico

ABEL, 229, 244, 249 Abeliano, grupo, 41 Adjunci6n de un elemento a un campo,

2111 ~djunto(sj, 317, 320

cuaternios, 377 hermitiana, 317, 320, 341, 342

ALBERT, 360, 384 Algebra, 253

booleana, 20 con divisi6n algebraica sobre F, de todas las matrices n X n sobre

272 de transformaciones lineales, 252 lineal, 252 teorema fundamental del, 338

Algebraica, extensi6n, 204 Algebraico, elemento, 200, 201

de grado n, 203 nlimero. 205-206

entero, 206 Algoritmo:

de divisi6n izquierda, 380 euclidiano, 29

Alternante, grupo, 249 de grado n, 86

Angulo, trisecci6n del, 222 Anillo(s), 103, 253

asociativo, 104 booleano, 1 12 cociente, 117, 1 19 con elemento unitario, 104 conmutativo, 104 de divisi6n, 109 de matrices rationales 2 X 2, 106 de polinomios, 136 de polinomios en n variables, 146 de todas las funciones reales conti-

nuas, 121 de transformaciones lineales. 158 euclidiano, 126, 377

' homomorfismos de, 1 13 isomorfismos de, 1 15 no asociativo, 104 po!inomio sobre un, 146 unldad de un, 128

Aniquilador de un subespacio, 175

Antihermitiana, 342 Antisimetrica, matriz, 3 16 Aplicacion(es) 21, 22

composition de, 24 conjunto de todos los, inyectiva, 26,

39 identidad, 22 igualdad de, 24 inverso de un, 26 producto de, 24 restrlcci6n a un subconjunto, 28 suprayectiva, 23 inyectiva, 23

ARTIN, 229, 249, 384 Asociados, 129, 147 Asociativa(s), ley(es), 25, 34, 39 Asociativo, anillo, 104 Autoadjunta, matriz, 342 Automorfismo(s):

campo fijo de un grupo de, 230 de grupos, 72 de K relativos a T, grupo de los, 231 de un grupo, 72 del campo, 229 exteriores, grupo de 10s. 76 interiores, 73 interiores, grupo de 10s. 73, 74

Axioma de elecci6n, 120

Base(s), 162, 166 dual, 174 ortonormal, 340 dadas, matriz de una transformaci6n

lineal respecto a, 266 Bessel, desigualdad de, 187 Binaria, relacibn, 22 B ~ K H O F F . 36, 367 Biyectiva. correspondencia(s), 26

conjunto de todas las, 26. 39 Booleana, ilgebra, 20 Booleano, anillo. 112 Brauer-Cartan-Hua, teorema de. 373 BURNSIDE. 102

Campo(s), 105, 109 adjunci6n de elementos a un, 200 automofismos de, 229 -

Page 388: Herstein   Algebra moderna

Campos, de cocientes, 123. 125 de descompsici6n. 2 14. 2 16-21 9. 236.

238 -- - de h~nciones racionales en n variables.

146 simktricas, 236

extension de un. 198 fijo de un grupo de automorfismos, 230 finito. 105. 361, 363. 364 perfecto. 228

Cancelacion, leyes de, 43 Canbnica(s) forma(s), 280

de Jordan, 298 racionales. 303, 306

Caracteristica, 333 de un dominio entero, 112 finita, l 12

Caracteristicas. rakes. 26 1, 28 1-282, 284 multiplicidad de las, 300

Caracteristico, polinomio, 307 subgrupo, de C, 76 vector, 263

Cardan, formulas de, 243 Cartesiano, producto, 16 CAUCHY. 92 Cauchy. teorema de. 67. 92 CAYLEY. 77 Cayley-Hamilton, teorema de, 255, 307,

335, 336 Cayley, teorema de, 77 Centralizador, 55 Centro de un grupo, 55, 74 Cero, divisores de, 109

matriz, 272 Cerrado respecto a una operaci6n, 39 Ciclica, descomposici6n, 94 Ciclico, 190

grupo, 42, 47 enerador de un, 55

m& ulo, 190 subespacio. 292 subgrupo. 47

Ciclotomico, polinomio, 243, 367 Clase(s):

de congruencia, 33, 257 de conjugados. 89, 95 de equivalencia, 18 de semejanza, 279 ecuaci6n de, 90, 366 lateral derecha, 54

izquierda, 54 Cociente, anillo, 1 15, 117, 119

espacio. 160 estructura, 58 grupo, 56, 58 m6dul0, 189, 194

Cocientes, c a m p de, 123, 125 Coeficientes, 1 37 Cofactor. 336 Columna de una matriz. 269 Comhinaci6n lineal, 163 Compa!era, matriz. 305 Complejo, espacio vectorial, 178

Complemento, 16 Complemento ortogonal. 182 Composici6n de aplicaciones, 24 Congruencia. clases de, 33, 357

mbdulo n, 33 m a u l 0 un subgrupo, 48

Congruente. 354 Conjugaci6n. 88 Conjugado(s). 84

clases de, 89. 95 elementos, 88 subgrupos. 101

Conjunto(s): ajenos. 15 ajenos, 14

mutuamente. 15 de indices, 14 de 10s enteros m6dulo n: 34 de subconjuntos, 23 de todas las aplicaciones inyectivas. 26,

39 diferencia de, I5 jmagen de un. bajo un mapeo. 23 ~nfinito. 28 intersection de, 14 ortonormal, 183 teoria de, 12 uni6n de, 13. 15 vacio, I3

Conmutador(es), 245 de C. 71. 245 subgrupos, mih altos, 245

Conmutativas, leyes, 34 Conmutativo(s) anillo, 104

anillos de polinomios sobre anillos, 145 grupo, 40

Construcci6n con regla y comphs, 220 Construcci6n o prueba invariante, 174,

175 ~onstr"ctible, 222

nlimero, 220 Contenido de un polinomio, 143, 147 Correspondencia biyectiva. 26 Cramer, regla de, 330, 331 Crilerio: - .~ ~

de Eisenstein, 144, 232, 24 1 de Euler, 365

Cuaternio(s), 1 18, 2 12, 220, 286, 365, 375

adjunto de un, 378 enteros, 377 norma de un, 378

Cuatro cuadrados. teorema de los, 377 Cubo, duplicacion del, 222, 223

De dimension finita, 163 De Euclides. algoritmo. 29 De las casillas, ley. 110 De Morgan. reglas de. 19 Dcfinida psitiva, 347 Dliu W.?I'RI)EN, VAN, 249 I)crech:~. clase lateral, dc rln sl~hprl~po.

4X inverlihle ;I la. 255 -

Page 389: Herstein   Algebra moderna

Derecho, ideal. I I9 Derivada, 142, 224 Desargues, teorema de, 366 Descomponible, conjunto de transforma-

ciones lineales. 287 Descomposicicin en ciclos, 94 Desigualdad:

de Bessel. I87 de Schwarz. 18 1 . 187 del triangulo, I87

Determinante(s), 32 1 de un sistema de ccuaciones lineales.

330 de una matriz. 323 de una transformacicjn lineal. 329

Diagonal, matriz, 276. 302 subconjunto, 16

Diagonalizable. 302

DICKSON. 360 DiecisietePgono regular, 224 Diferencia. conjunto, I5

(O cociente), rncjdulo, I89 simttrica de dos conjuntos, 19

Ditdrico, grupo, 61 Dimension, 168 DIOFANTO, 360 Directa, suma:

de m6dulos. 190 exterior, 160 interior, 160

Distributiva(s) ley(es), 34. 104 Divisor(es), 29

elementales, 308. 309 Division algebraica, blgebra con. 374

algoritmo de la, para polinornios, 139 anillo con, 109

Divisibilidad, 127 Dominjo:

de factorizacihn linica. 148 entero, 109

Dual(es). base(s), 174 espacro(s). 17 1 , 173 seiundo, 174

Duplication del cubo, 222, 223

de clase, 90, 366 Eisenstein, criterio de. 144. 232. 241 Elecci6n. axioma de. 120 Elementales. divisores, de una transfor-

rnacicin lineal, 306-309 funciones sirnttricas, 234, 236

F,lernento(s): adjuncicin de un, a un carnpo, 200 algehraico, 200 conjugados, 88 en un rncjdulo, orden de, 195 identidad. 39 orden de un, 50 period0 de un, 50 primo. 130. 147 separable. 228

Eneiigono regular, 224

Entcro, dominio, I09 caracteristica de un. 1 12

F.nlero(s). 28 algebraicos. 206 g;iussl;inos. 133 p;~1icipaci6n de un. 93 prinios rclativos. 30

Entcros rncidulo 11. conjunfo de, 34 Equivalencia. clase de, 18 Fscalar (es). 156. 178

matrices, 272 F.spacio(s):

cociente. 160 con proaucto interior. 178, 180. 338 dual. 171. 173 vectorial, 156 vectorial complejo. 178 vectorial real. 178

Espectral. resoluci6n. 352 Expansi6n lineal. 163 Extension:

algebraica, 204 de un, campo, 198 finita. 198-201 grado de una. 198 normal, 236, 237, 240 separable. 229 simple. 226, 227

Exterior, suma directa, 160 Exteriores, grupo de automorfismos, 76 Euclidiano, anillo. 126, 377 EULER, 5 1, 360, 383 Euler, criterio de, 365

funci6n T de. 5 1 . 77, 219. 242

Factor. grupo, 58 Factorizacidn bnica, dominio de, 148

teorerna de. 3 1, 13 1 FEIT. 67 FERMAT, 51, 126, 133, 135, 360, 377 Fermat, pequeiio teorema de, 371 Finita, caracteristica, 1 12 Finitamente generado($, m6dulo(s), 190

teorema fundamental sobre, 190 Finito(s):

carnpo(s), 105, 361, 363, 364 grupo, 40 grupos abelianos, teorerna sobre, 192

Forma(s): can6nica. 280 canonica de Jordan, 298 de Jordan, 299 racional canonica, 303, 306 real cuadritica, 353 triangular, 279, 282

F6rrnulas de Cardan, 243 FROBENIUS, 360. 374 Frobenius. teorema de, 374 Funcional lineal. 173, 188 Funciones:

anillo de todas las. reales cotinuas. 121 racionales, 139. 233 racionales simttricas, 233, 234 simttricas elernentales, 234. 236

Page 390: Herstein   Algebra moderna

GALOIS, 56. 198 (u ,v) , 158 Galois, grupo de. 229, 239. 247, 248 (V,W), 172, 173, 351

teoria de. 216, 229. 237 HomogCneas, ecuaciones lineales, 177 teorema fundamental de la teoria de, Homomorfismo(s), 61, 1 13

239 de anillos, 1 13 Gauss, lema de, 143, 145, 147 de espacios vectoriales, I58 . Gaussianos, enteros. 133 de grupos, 61 GELFOND, 207 de m6dulos, 190, 194 Generado por: ndcleo de un, 62. 114

U, subgrupo, 7 1 HURWITZ, 207, 360, 379 W, subgrupo de G, 47

Generador de un grupo ciclico. 55 (it]>, entrada, 270 Grado n: Ideal(es), 1 15, 116, 120

algebraic0 de, 203 derecho, 119 de f ( x ) , 146 izquierdo, 118 de un polinomio, 138 m4xim0, 120 de una extensibn, 198 primo, 151 grupo alternado de, 86 principal. 127 grupo sirnktrico de, 40, 81, 233, 246, radical de un, 152

249, 278 Idernpotente, 260 Gram-Schmidt, proctso de ortogonaliza- Identidad, elemento, 39

cion de, 183 aplicaci611, 22 Grupo(s), 39 Identidades:

abeliano, 40 de Lagrange, 379, 382 alternante, 249 de Newton, 242 alternante de grado n, 86 Igualdad de dos conjuntos. 13 autornorfismos de un, 72 Igualdad de aplicaciones, 24 centro de un, 55, 74 Imagen, 22 cicliw, 42, 47 de un conjunto bajo una aplicaci6n, 23 cociente, 56, 58 inversa, 23, 64 , conmutativo, 40 Impar, perrnutaclon, 86 de automorfismos, c a m p fijo de un, Independencia lineal, 162

230 fndice: de automorfismos de K relativos a F , de H en G, .49

23 1 de nilpotencia, 289 de automorfismos exteriores de G, 76 Inercia, ley de Sylvester de la, 354 de automorfismos interiores, 73, 74 Infinito, conjunto, 28 de Galois, 229, 239, 247, 248 Interior, producto, 178, 180 de permutaciones, 81 espacios con, 178, 180, 338 dikdrico, 61 Interior, surna directa, 160 factor, 58 Interior(es), automorfismo(s), 73 finito, 40 grupo de, 73, 74 generador de un, ciclico, 55 Interseccibn de conjuntos, 14, 15 homornorfismos de, 61 Invariante, construccibn o prueba, 174, isomorfismo de, 64 175 isomorfos. 64 subespacio, 280, 285 orden de un, 40 Invariantes: simktrico, 93, 323 de transformaciones lineales nilpoten- simple, 66 tes, 292, 293, 294 soluble, 99, 246 de un grupo abeliano finito, 193

Inversa, imagen, 23, 64 HALMOS, 195, 357 Inverso de una aplicaci6n, 26 HALL, 102 Inverso, elemento, 39 HAMILTON, 107, 360 Invertible, transformaci6n lineal, 255 HARDY, 384 Irreducible, conjunto de transformacio- HERMITE, 207, 208 nes lineales, 286 Hermitiano(a), adjunto, 317, 320, 341, elemento, 147

342 m6dul0, 195 rnatriz, 317, 321 polinomio, 140 transformaci6n, 338, 343, 347 lineales homogineas, 177 transformaci6n lineal, 346 rango de un sisterna de, lineales, 177

HexBgono, regular, 223 secular, 333 HILBERT, 207, 383 Isomorfismo: Horn: de anillos, 115

Page 391: Herstein   Algebra moderna

Isomorfismos. de espacios vectoriales, 158 de grupos, 64 de m6dulos, 194

Isomorfos, anillos, 1 15 espacios vectoriales, 158 .grupos, 64

Izquierdo(a), algoritmo de divisi6n. 380 clase lateral, 54 ideal, 118 invertible, 255

JACOBSON, 360, 372 Jacobson, lema de, 314, 319

teorema de, 372 Jordan, bloque de, 298

forma canonica de, 298 forma de, 299

LAGRANGE, 49, 360, 377 Lagrange, identidad de. 379, 382

teorema de, 50, 382, 383 Lema:

de Gauss, 143, 145, 147 de Jacobson. 3 14, 31 9 de Schur, 195

Ley(es): asoclativa, 25, 34, 39 conmutativa, 34 de cancelaci6r1, 43 de inercia de Sylvester, 354 de las casillas, 110 de Sylvester, 354 distributiva, 34 doblemente distributiva, 104

LINDEMANN, 207 Lineal(es):

blgebra, 252 com binacih, 163

ecuaclones; determ~nante de un sistema de, 330 homogkneas, 177 rango de un sistema de, 177

expansi6n, 163 funcional, 173, 188 independencia, 162

Linealmente dependientes, vectores, 164 LIOUVILLE, 207 Longitud, 178, 180

MACLANE. 36 Matrices n X n sobre F. 271

Algebra de todas las, 272 Matriz(es), 265

columna de una, 270 compafiera, 305 de una transformaci6n lineal respecto

a bases dadas, 266 determinante de una, 323 diagonal, 276, 302 escalar, 272 renglbn de una, 270 hermitiana. 317, 321 ortogonal, 349

Matriz(es), permutation, 278 semisimitrica, 3 16 simCtrica real, 348 teoria de las 252, 265 transpuesta de una, 315 traza de una, 312 triangular, 28 1-282 unidad, 272

Mbximo. ideal, 120 Mdximo comdn divisor. 29. 128 McCoy, 153 MCKAY, 92, 102 Minimo, polinomio, 202. 256 Minimo comdn mdltiplo. 34. 132 M6dulo(s), 188. 304

ciclico, 190 de una congruencia. 33 diferencia o cociente de. I89 finitamente generado. 190 finitamente generados, teorema fr~ndi~-

mental sobre, 190 homomorfismo entre. 190. 194 irreducible, 194 isomorfismo entre, 194 orden de un elemento en un, 195 rango de un, 191 sobre R, 189

M6nic0, polinomio, 144 Morgan, leyes de De, 19 MOTZKIN. 127, 153 Mdltiple, rafz, 225 Multiplicative, sistema, 125 Multiplicidad de una raiz, 21 1 Multiplicidad de una raiz caracteristica.

300 Mdltiplo, minimo comdn, 34 Mutuamente ajenos, 15

n-variables: anillo de polimonios en. 146 c a m p de las funciones racionales en.

146. polinomlos en, 233

Newton, identidades de, 242 Nilpotencia, indice de, 289 Nilpotentes, transformaciones lineales.

287, 288 invariantes de, 292. 293, 294

NIVEN, 207, 250 No abeliano, 40 No asociativos, anillos, 104 No negativas, transformaciones lineales.

347 No triviales, subgrupos, 46 Norma, 180

de cuaternios, 378 Normal(es), extensi6n. 236, 237, 240

subgrupo(s), 56, 57 transformaci6n lineal. 338, 343, 34.5

Nbcleo. 158 de un homomorfismo, 62, 1 14

Nbmero(s): algebraicos, 205-206 _

Page 392: Herstein   Algebra moderna

Ndmero(s1 constructible. 220 primo, 30 trascsndente, 205, 207

Orhita de S respecto a e, 83 Orden:

de G , 40 de un elemento. 5 1 de un elemento en un m5dulo. 195

Operation, cerrado respecto a una, 39 Ortogonal(es), 182, 349, 350

complemento, 182 matrices, 349

Ortogonalizacion, proceso de Gram- Schmidt, 183

Ortonormal, base, 340 conjunto, 183

psubgrupo de Sylow, 98 Pappus, teorema de, 366 Par, permutaci6n. 85 Partici6n(es), 193, 294

de un entero, 93 Pentadecagono regular, 224 Pentigono regular, 223 Pequefio teorema de Fe~.mat, 37 1 Perfecto, campo, 228 Periodo de un elemento. 5 1 Permutacion(es), grupos de. 8 1

impar, 86 matriz de una, 278 par, 85

Perpendicularidad, 178, 182 Pi (7). funcihn, de Eules. 5 1. 77. 2 19. 242 Pol~nomio(s):

anillo de, 136 anillos de, sobrc con~nutativos. 145 caracteristico, 307 ciclot6mic0, 243, 367 contenido de un, 143 en n variables, 233 general de grado tr. 244 grado de un, 138 irreducible, 140 minimo, 202, 255 mbnico, 144 primitivo, 143 raices de un, 210 simktrico, 236 sobre el campo racional. 143 sobre un anillo. 146 valor de un, 200

POLLARD, 249 Positiva, transformacion lineal. 347, Positivamente definida. transformacron li-

neal, 347 Primitiva, 148

raiz n-tsima, de la unidad. 242. 367 plinomio, 143

r e de un primo. 365 Primo, elemento. 1 30. 147

ideal, 15 1 numero, 30

Primo. elemento. raiz primitiva de un. 365

Primos relativos, 130 Principales, anillo de ideales, 127 Principio de las casillas, l I0 Producto:

cartesiano, 16 de aplicaciones, 24 interior, 178, 180 punto, 179

Propio, subconjunto, 13 Proyeccion, 22 Punto, producto, 178

R-modulo. 189 unitario, 189

Racional(es), forma. can6nica. 303. 306 func~ones, 139, 233

campo de, 235 simttricas, 233. 234

polinomios sobre un campo, 143 Radical de un ideal, 152 Radicales, soluble por, 243, 244, 247,

249 Raiz ti-2s-(ma primitiva de la unidad, 242 Raiz(es), 2 1 1 , 224

caracteristicas, 261, 28 1. 282. 284 de polinomios, 21 1 multiples, 225 multiplicidad de una, 21 1

Rango, 356 de un m6dul0, 191 de un sistema de ecuaciones lineales,

176 de una transformaci6n lineal, 257. 258

Keal(es): anillo de las funciones continuas, 121 cuaternios, 107 espacio vectorial, 178 formas cuadriticas, 353 matriz simttrica, 348

Reflexividad de relaciones. 17 Regla de Cramer. 330. 33 I . , Regla y compis. construcclon con, 220 Reglas de De Morgan. 19 Regular:

diecisieteigono. 224 heptigono, 223 hexigono. 223 n-igono, 224 pentadecigono, 224 pentigono. 223 transformacion lineal, 255

Relaci6n(es): binarias, 22 de equivalencia. 17 reflexividad de una, 17 simetria de una. 17 transitividad de una. 17

Relativos, primos, 130 enteros primos, 30

Rengldn de una matriz, 269 Residuo cuadratico, 100, 365 Res~duo, teorema de1,-200

Page 393: Herstein   Algebra moderna

Resoluci6n espectral, 352 Restriction de una aplicacion a un sub-

conjunto, 28

SAMUEL, 153 Schwarz. desigualdad de. 18 1. 187 SCHNEIDER, 207 Schur, lema de, 195 Secular, ecuacion, 333 SEGAL, 102 Segundo dual, 174 Semejanza, 279 Semicampo, 108 Separable, elemento, 228

extension. 229 SIEGEL, 207; 250 Signatura, 355, 356 Sirnetria de relaciones, 17 SimCtrica(s), diferencia, de dos conjun-

tos, 19 funciones. elementales. 234. 236 funcionei rationales, 233, 234

campo de las, 235 matriz, 316 matriz real. 348

SimCtricos, grupos, 93, 323 grupos de grado n, 42, 81, 233, 246,

249, 278 SimCtricos, polinomios, 236

teoremas sobre, 236 Sim~le. extension. 226. 227

~ i lgu ia r ; 257 transformacidn lineal, 255

Sistema de ecuaciones lineales: rango de un, 176 determinante de un. 330

Sistema m~lti~licativo; 125 Soluble, grupo, 99, 245

w r radicales, 243, 244, 247, 249

conjunto de, 23 diagonal. 16 propio, 13 restriccion de una aplicacion a un, 28

Subespacio, 158 aniquilador de un, 175 ciclico, 292 invariante, 280. 285

Subgrupo(s), 46 caracteristico, 76 ciclico generado por ( I , 47 clase lateral derecha de un, 48 conjugado, 101 conmutador, 71, 245 conmutador superior. 245 derecha, clase lateral, de un, 48 generado por a, ciclico, 47 pcnerado p)r G, 7 1 ~ c n c r ; ~ ~ l o por It'. 47 1 1 4 1 lrivii~l. 40 111)1111:11. 3 0 . ;7 1) \ \ I l l \ \ . 'IS I1 l\l;ll. 40

Submodulo, 190 Suma:

directa exterior, 160 directa interior, 160

Suprayectivas, aplicaciones, 23 SYLOW. 92, 97 Sylow, teorema de, 68, 97, 98 101,

82 Sylvester, ley de, 354 Sylvester, ley de inercia de. 354

Teorema: de Brauer-Cartan-Hua. 373 de Cauchy, 67. 92 de Cavlev. 77 de caylei-~amil ton, 255, 307,

335, 336 de Desargues. 366 de factorizacibn Cnica, 31, 141 de Frobenius. 374 de Jacobson, 372 de la teoria de Galois, fundamental,

239 de ~agrange, 50, 382, 383 de 10s cuatro cuadrados, 377 de Pappus, 366 de Sylow, 68, 97, 98, 101 de Wedderburn, 361, 365, 367, 382 de Wilson, 99, 135 del Blgebra, fundamental, 338 del residuo, 210 fundamental del algebra, 338 fundamental de la teoria de Galois.

239 fundamental sobre 10s grupos abelianos

finitos, 192 fundamental sobre 10s modulos finita-

mente generados, 190 pequefio de Fermat, 371 sobre 10s grupos abelianos finitos, fun-

damental, 192 sobre 10s mddulos finitamente gemra-

dos, fundamental, 190 sobre polinomios simCtricos. 236

Teoria: de conjuntos, 12 de Galois. 216, 229, 237 de matrices, 252, 265

THOMPSON, 66 Trascendentes, nhmeros, 205, 207 Transformation (es) lineal (es), 253

i l p b r a de las 252 anillo de, 158 conjunto dcsconiponible de, 287 determ~nante de una, 329 divisores elementalus dc una, 306 hurmitiana, 342, 346 invariantes de una, n~lpolente, 294 ~nvertible, 255 irreducible, conjunto de, 216 ~natriz de unn, en unas bases dadas,

266 nilpotente, 287, 288 no negirliva. 347

Page 394: Herstein   Algebra moderna

L'ransformaci6n (es) not tnal. 343, 345, 347 p1~41\ l \ i l , 347 1.1nb.o de una, 257, 258 regular. 255 \inbnlar. 255 t ~ i u u de una, 313 unitaria, 340, 346

I ransitividad de relacioaes, 17 I'ran~posiciones, 85 I l4an5puesta. 3 12

de una matriz, 315 't (aza. 312, 319 de uns matriz. 312 de unlt t r a n s f k a c i o n lineal, 313

'I'riangular, 279 formo, 279, 282 . mat I iz. 279-282

l I iiingulo, desigualdad dcl. 187 rt iwcci6n de un bwulo. 222

Unidad en un algebra de matrices, 272 Unidad cn ud anillo. 128

,I-64ma raia. prirnitiva de, 242. 367 Unitin tie conjuntos, 13, 15 Unitwio, K-mdulo, 189 U ~ k a r i a , transformaci6n. 338, 342, 346

Vacio, conjunto, 13 Valor de un polinomio, 200 Valor propio, 261 VAN DER WAERDEN, 249 VANDIVER, 367 Vector(es). 157

caracteristicos. 263 linealmente dependientes, 164

Vectorial(es), espacio(s), 155 complejo, 178 homomorfismo entre, 158 isomofismo entre, 158 real, 178 ,

WAERDEN, VAN DER, 249 Waring, problema de. 383 WEDDERBURN, 359, 366 Wedderburn, teorema de 361, 365, 367,

382 W E I S N G ~ ~ ~ ~ WIELANDT, 97 Wilson, teorema de, 99, 135 WRIGHT, 384

2 X 2, anillo de las matrices racional'es, 106

Esra o h terntino de imprimirse el dia 4 de noviembre de 1980,

en 10s talleres de 1,itogriiifca Ingramex, S. A..

se encuadernb en Ediciones ,y Encuadernaciones Trillos, S. A.,

se timron 2 000 c.iettlplares, mtis sobrantes de reposicibn

Page 395: Herstein   Algebra moderna

hacer practicas sobre 10s resultddos obte- - nidos. Otrcip problerhas se han *luido ' a

no tanto para ser resueltm en ,su totali- dad, sino mas bien para que el estudian- te, a1 intentar su soluci6n, maneje y se ejercite en 10s diferentes aspedos del . tema, teniendo asi oportunidad, precisa- mente por la dikultad que ofrece la solu- ci6n, de conocer varios caminos hacia la misma. Otros problemas se han incluido como material preliminar o precursor de conceptos que proseguirhn en el orden del aprendizaje.

OBRA A F ~ N

Anhlisis matemhtieo Curso de introdmi&

Teoria de 10s grupos Marehall Hall Jr.

La presente obra ofrece una exposici6n muy com- pleta de un aspect0 tan fandamental del algebra moderna como es la teorfa de 10s grupos. Supone del estudiante un conocimiento elemental de Algebra moderna. Entre sus campos de aplica- ci6n figuran - ademas de las ciencias puras - la eetadlatica superior, la ingenieria y la economia. Todos 10s fundamentos de la materia aparecen clara y detalladamente tratados y se reaumen gran parte de 10s temas de mayor inter& de la teoria de 10s grupos: grupoa abelianos infinitos, estru~tura de 10s grupos, redes de subgrupos, representaci6n de grupos, etc. En el liltimo capi- tulo se desarrolla una presentaci6n algebraica de diatintos t6picos,de la geometria proyectiva, de gran inter&. Es un texto pdcticarnente autosuficiente, no requbre obra auxiliar alguna para su cabal comprensi6n. Por otra parte, ofrece una selecta bibliografia mediante la cual todo estudiante o a ,

investigador podr8. orientarse en 10s temas que sean de su particular inter&.

Page 396: Herstein   Algebra moderna

1

. . I

- La presente obra ha sido pen- -'