24
Entrop ´ ıas Andr´ es Nava s Introducci´ on La noci´on de ent rop ´ ıa tiene su origen (como muc has otras nociones en mate atica) en la ısica, es- pec´ ıficamente en la termodin´amic a de nes del siglo XIX (vea [15]). Gracias al desar roll o de las probabil- idades y la teor´ ıa de la informaci´ on, poco a poco fue adentr´andose en diversas ´areas de la matem´atica, al punto que hoy en d´ ıa se puede armar que, de entre los conceptos relativamen te modernos de la f ´ ısica, uno de los que ha sido mejor asimilado por las matem´ aticas es p recisamente el de la e ntrop ´ ıa. La presentaci´on que haremos dista mucho de ser una revisi´ on de to dos los aspect os ligado s a la entrop ´ ıa. En efecto, a lo largo de estas notas adoptaremos en general una perspectiva “din´ amic a” del concepto. De manera m´ as precisa, nos interesaremos en sistemas evolutivos que presentan un comportamient o dif´ ıcil de predecir. En este contexto, la  ent rop´ ı a   corresponde a un par´ametro que puede ser asociado de manera natural a una amplia gama de sistemas , permitiend o “medir” el grado de caoticidad de ellos: a sistemas as complejos se les aso cia una mayor entrop´ ıa, y l os siste mas “equ ivalentes” tienen la misma entrop´ ıa. Los sistemas de entrop ´ ıa nula c orresp onden as ´ ı a sistemas relativamente simples. 1 La funci´ on  s log(s) En esta secci´ on explicaremos la naturalidad del uso de la funci´ on H(s) = s log(s) para medir la predi- cibilidad de un fen´ omeno. Supongamos que un experimento pueda dar  n  resultados diferentes  A 1 ,...,A n . A dich o experimento nos gustar ´ ıa asociarle un par´ ametro (a saber, una  entrop´ ı a  ) que permita medir el  grad o de incerteza  de sus posible s resulta dos. Si el experiement o est´ a modelado en un espacio de probabilidad del que los  A i constituyen una partici´on P , entonces quisi´ eramos que dicho p ar´ ametro  H (P ) = H (  p 1 ,...,p n ) dependiese olo de las probabilidades  p i  de cada resultado  A i , y no del experimento en s´ ı. Otras propiedades naturales se imponen. Por ejemplo, si la probabilidad de un evento  A i  es total, entonces no existe incerteza. Cuando no exista suceso de probabilidad igual a 1, nos gustar´ ıa que el grado de impredecibilidad fuese p ositivo. En resumen, H (  p 1 ,...,p n ) = 0 si y s´ olo si  p i  = 1 para alg´ un  p i .  (1) Puesto que H  depende s´ olo de las probabilidades asociadas a los resultados del experimento, ella debiese ser una funci´ on  siet ri ca  , es decir, invariante bajo permutaci´on de las coordenadas: H (  p 1 ,...,p i ,...,p j ,...,p n ) =  H (  p 1 ,...,p j ,...,p i ,...,p n ).  (2) 1

Cur So Andres

Embed Size (px)

Citation preview

  • 5/25/2018 Cur So Andres

    1/24

    Entropas

    Andres Navas

    Introduccion

    La nocion de entropa tiene su origen (como muchas otras nociones en matematica) en la fsica, es-

    pecficamente en la termodinamica de fines del siglo XIX (vea [15]). Gracias al desarrollo de las probabil-idades y la teora de la informacion, poco a poco fue adentrandose en diversas areas de la matematica, alpunto que hoy en da se puede afirmar que, de entre los conceptos relativamente modernos de la fsica, unode los que ha sido mejor asimilado por las matem aticas es precisamente el de la entropa.

    La presentacion que haremos dista mucho de ser una revision de todos los aspectos ligados a la entropa.En efecto, a lo largo de estas notas adoptaremos en general una perspectiva dinamica del concepto. Demanera mas precisa, nos interesaremos en sistemas evolutivos que presentan un comportamiento difcil depredecir. En este contexto, la entropa corresponde a un parametro que puede ser asociado de maneranatural a una amplia gama de sistemas, permitiendo medir el grado de caoticidad de ellos: a sistemasmas complejos se les asocia una mayor entropa, y los sistemas equivalentes tienen la misma entropa. Lossistemas de entropa nula corresponden as a sistemas relativamente simples.

    1 La funcion s log(s)

    En esta seccion explicaremos la naturalidad del uso de la funcionH(s) =s log(s) para medir la predi-cibilidad de un fenomeno.

    Supongamos que un experimento pueda dar n resultados diferentes A1, . . . , An. A dicho experimentonos gustara asociarle un parametro (a saber, una entropa) que permita medir el grado de incerteza desus posibles resultados. Si el experiemento esta modelado en un espacio de probabilidad del que los Aiconstituyen una particionP, entonces quisieramos que dicho parametroH(P) = H(p1, . . . , pn) dependiesesolo de las probabilidades pi de cada resultadoAi, y no del experimento en s. Otras propiedades naturalesse imponen. Por ejemplo, si la probabilidad de un evento Ai es total, entonces no existe incerteza. Cuandono exista suceso de probabilidad igual a 1, nos gustara que el grado de impredecibilidad fuese positivo. Enresumen,

    H(p1, . . . , pn) = 0 si y solo si pi= 1 para algun pi. (1)

    Puesto queHdepende solo de las probabilidades asociadas a los resultados del experimento, ella debiese seruna funcion simetrica, es decir, invariante bajo permutacion de las coordenadas:

    H(p1, . . . , pi, . . . , pj , . . . , pn) = H(p1, . . . , pj , . . . , pi, . . . , pn). (2)

    1

  • 5/25/2018 Cur So Andres

    2/24

    Si un resultado tiene mayor probabilidad de ocurrir que otro, entonces la incerteza no debiera ser maximal,

    pues dicho resultado debiese aparecer con mayor frecuencia (es decir, contamosa prioricon cierta informacionrelevante sobre el experimento). Por lo tanto, el grado de incerteza debe ser m aximo cuando los resultadosestan equidistribuidos, lo que justifica la siguiente propiedad:

    H(p1, . . . , pn) asume su valor maximo en (p1, . . . , pn) = (1/ n , . . . , 1/n). (3)

    Si uno de los resultados del experimento tiene probabilidad nula de producirse, entonces podemos descartardicho resultado, lo que se traduce en que

    H(p1, . . . , pn, 0) = H(p1, . . . , pn). (4)

    Las propiedades anteriores consideran solo un experimento, pero si realizamos dos experiencias simultaneas,nos gustara relacionar de alguna manera sus grados de incerteza. Claro esta, si dichas experiencias sonindependientes, entonces la entropa de la experiencia conjunta debiese ser la suma de las originales.Supongamos ahora que tenemos dos experiencias no necesariamente independientes modeladas en un mismoespacio de probabilidad y cuyos posibles resultados quedan plasmados en particionesP1 ={A1, . . . , An} yP2 ={B1, . . . , Bm}. La particion asociada al experiemento conjunto, denotada porP1P2, es aquella cuyoselementos son de la forma Ai Bj . Quisieramos entonces que fuese valida una formula del tipo

    H(P1 P2) = H(P1) +H(P2/P1), (5)

    donde H(P2/P1) correspondiera a una entropa condicional deP2 dadaP1. En terminos probabilsticos,la igualdad precedente se interpretara diciendo que la entropa de un experimento conjunto es la suma dela entropa del primero con la entropa del segundo conociendo el resultado del primero. La definicion masnatural de entropa condicional correspondera as a la media de las entropas asociadas a las distribucionescondicionadas, es decir

    H(P2/P1) = ni=1

    p(Ai) H

    p(B1 Ai)p(Ai)

    , . . . ,p(Bm Ai)

    p(Ai)

    .

    Para resumir la discusion anterior, para cadanN consideremos n={(p1, . . . , pn) : pi0,

    pi = 1},y definamos =nn. Buscamos entonces una funcion H : R tal que:(i)H(p1, . . . , pn)0, con la igualdad si y s olo si algunpi es igual a 1;(ii) la restriccion deHa cada n es invariante por cambios de orden de las coordenadas;

    (iii) sobre cada n, la funcionHse maximiza en el punto (1/ n , . . . , 1/n);

    (iv) se tiene la igualdad H(p1, . . . , pn, 0) = H(p1, . . . , pn) para todo (p1, . . . , pn);

    (v) siP1 ={A1, . . . , An}yP2 ={B1, . . . , Bm} son dos particiones de un mismo espacio de probabilidades,entonces

    H(P1 P2) = H(P1) +H(P2/P1).

    La solucion a este problema es esencialmente unica, de acuerdo al siguiente teorema fundamental, cuyademostracion hemos tomado de [14]. Para evitar confusiones, convengamos en la igualdad 0 log(0) = 0 (ellector notara rapidamente que, de acuerdo a (4), esta es la convencion natural).

    2

  • 5/25/2018 Cur So Andres

    3/24

    Teorema 1.1. SeaHuna funcion que satisface las propiedades anteriores. Si la restriccion deHa cada

    n es continua, entonces existe una constantec > 0 tal que para todo(p1, . . . , pn) se tiene

    H(p1, . . . , pn) = cni=1

    pilog(1/pi).

    Demostracion. Consideremos la funcionU : NR definida por U(n) = H(1/ n , . . . , 1/n). Comenzaremosprobando que existe una constante c > 0 tal que U(n) = c log(n) para todo n N. El lector reconocera lasimilitud entre el argumento presentado a continuacion y aquel que permite probar que toda funcion definidaen el conjunto de los numeros naturales y que es positiva, multiplicativa y creciente, es necesariamente de laformanan para alguna >0.

    Por (iii) y (iv) tenemos

    U(n) = H(1/ n , . . . , 1/n, 0)H(1/(n+ 1), . . . , 1/(n+ 1)) =U(n+ 1),es decir, Ues una funcion no decreciente. Afirmamos que para todo k, n en N se cumple

    U(nk) = k U(n). (6)

    Para verificar esto, consideremosk experimentos independientes entre s que tengan resultados equidistribui-dos (1/ n , . . . , 1/n). La distribucion del experimento conjunto es entonces (1/nk, . . . , 1/nk), y la propiedad(iv) implica que

    U(nk) = H(1/nk, . . . , 1/nk) =k

    i=1

    H(1/ n , . . . , 1/n) = k H(1/ n , . . . , 1/n) = k U(n).

    Consideremos ahora dos enteros positvos arbitrariosm y n. Para cadakN existe un unicok

    =k

    (k) Ntal quemk

    < nk mk+1.Observe que estas desigualdades implican

    k

    k log(n)

    log(m) k

    k +

    1

    k,

    y por lo tanto

    limk

    k

    k =

    log(n)

    log(m).

    Por otra parte, la monotonicidad de la funcionUy la desigualdad (6) implican que

    k U(m)k U(n)(k + 1) U(m),

    por lo que U(n)U(m) log(n)log(m) 1k .

    3

  • 5/25/2018 Cur So Andres

    4/24

    Pasando al lmite cuando k tiende al infinito obtenemos entonces

    U(n)

    log(n)=

    U(m)

    log(m).

    Como m y n son enteros positivos arbitrarios, la expresion anterior es constante (y positiva), es decir queexistec >0 tal que U(n) = c log(n) para todo n N, como queramos probar.

    Fijemos ahora n numeros racionales pi = qi/q tales que

    pi = 1 (cada qi es un entero positivo).Queremos probar que

    H(p1, . . . , pn) = cni=1

    pilog(1/pi). (7)

    Para ello, consideremos un experimento a n resultados Ai de probabilidad pi. Imaginemos ahora otroexperimento dependiente del primero consistente de qeventos B1, . . . , Bq tales que:

    - dichos eventos pueden ser distribuidos en n grupos conteniendo respectivamente q1, q2, . . . , q n elementos;

    - si el eventoAi tuvo lugar en el primer experimento, entonces en el segundo solo pueden ocurrir los eventosdeli-esimo grupo, cada uno con la misma probabilidad 1/qi.

    Las condiciones impuestas determinan unicamente la entropa condicional:

    H(P2/P1) =ni=1

    piH(1/qi, . . . , 1/qi) = cni=1

    pilog(qi) = cni=1

    pilog(pi) +c log(q).

    Por otra parte, para i {1, . . . , n} cada evento de la forma AiBj se produce con probabilidad nula oigual a pi/qi = 1/q, y esta ultima situacion se produce en exactamente qi ocasiones. Esto implica queH(P1 P2) = c log(q), por lo que la condicion (v) nos da

    H(P1) +c ni=1

    pilog(pi) +c log(q) = c log(q),

    de donde (7) se deduce inmediatamente.

    Finalemente, puesto que hemos asumido que la (restriccion a cada n de la) funcion H es continua, lavalidez de (7) para entradas racionales implica su validez para todo (p1, . . . , pn)n.

    En lo que sigue consideraremos siempre la normalizacion segun la cual c = 1. Una particion (finita)P={A1, . . . , An} de un epacio de probabilidad en conjuntos Ai de probabilidad pi tiene entonces asociadauna entropa igual a

    H(P) =n

    i=1pilog(1/pi).

    La funcionH(s) =s log(s) satisface propiedades muy interesantes. Sin duda que la mas utilizada essu concavidad, as como el hecho queH(0) =H(1) = 0. Ellas permiten probar (rigurosamente) muchasdesigualdades frecuentemente utilizadas en la teora, como por ejemplo

    H(P2)H(P2/P1), (8)

    4

  • 5/25/2018 Cur So Andres

    5/24

    que conjuntamente con (v) implica

    H(P1 P2)H(P1) +H(P2). (9)Ahora bien, la desigualdad (8) es intuitivamente obvia: al considerar H(P2/P1) estamos asumiendo elconocimiento del experimento asociado aP1, mientras que en H(P2) no disponemos de tal informacion.En otras palabras, cada vez que disponemos a priori de cierta informacion, la incerteza sera menor. De-

    jamos a cargo del lector la tarea de asimilar mediante argumentos heursticos analogos (o probar usandodesigualdades de convexidad) las siguientes propiedades:

    (i)H(P1 P2/P3) = H(P1/P3) +H(P2/P1 P3);(ii) H(P1 P2/P3)H(P1/P3) +H(P2/P3);(iii) si cada elemento deP1 es union de elementos deP2, entonces H(P1)H(P2);(iv) si cada elemento deP1 es union de elementos deP2, entonces H(P/P1)H(P/P2);

    Para mayor informacion en relacion con lo anterior, recomendamos la lectura de [4]. Para cerrar estaseccion, presentamos un lema tecnico que es constantemente utilizado en teora ergodica.

    Lema 1.2. Sea(an)nN una sucesion de numeros reales. Suponga que existe una constanteC0 tal que|am+n am an| C (10)

    para todo m, n enN. Entonces existe un unico R tal que la sucesion (|an n|)nZ es acotada. Dichovalor es igual al lmite de la sucesion(an/n) cuando n tiende al infinito (en particular, este lmite existe).

    Demostracion. Para cadan N consideramos el intervalo In=

    (an C)/n, (an+ C)/n

    . Afirmamos queImn esta contenido en In para todo m, n en N. En efecto, de (10) se obtiene|amn man| (m 1)C, dedonde se concluye que amn+Cman+mC, y por lo tanto

    amn+C

    mn an+C

    n .

    Analogamente se prueba queamn C

    mn an C

    n ,

    y estas dos ultimas desigualdades implican que ImnIn.Una aplicacion simple de la propiedad de interseccion finita muestra que la interseccion I=nNIn es

    no vaca. Si I entonces pertenece aIn para todo n, de donde se concluye facilmente que|an n| C. (11)

    Luego, satisface la afirmacion del lema. Si = entonces|an n|=|(an n) +n( )| n| | C,

    por lo que|an n| tiende al infinito. Finalmente, de (11) se deduce que| an/n| C /n para todo n,por lo que = lim(an/n).

    En lo que sigue, nosotros utilizaremos solo la existencia del lmite de la sucesion (an/n). Hemos queridosin embargo presentar la version completa del lema, pues ella es muy importante en el estudio de invariantesde tipo algebraico de ciertos sistemas dinamicos (vea por ejemplo [10]).

    5

  • 5/25/2018 Cur So Andres

    6/24

    Ejercicio 1.3. Sea (an)nN una sucesion casi subaditiva, es decir una sucesion para la cual existe una constante

    C0 tal que para todo m, nenN

    se verificaam+n am+ an+ C.

    Pruebe directamente la existencia del lmite (en R {}) de la sucesion (an/n)nN. Pruebe ademas que si (an) essubaditiva, es decir si C= 0, entonces la sucesion (an/n) es decreciente.

    2 Entropa medible

    Para el estudio de la dinamica de una transformacion, es fundamental trabajar con medidas invariantes.Es por ello que el teorema siguiente, debido a Bogoliubov y Krilov, es de vital importancia. Recuerde quesi T : X X es una transformacion medible, la imagen de por T es denotada por T() y definida porT()(A) = (T

    1(A)) para cada subconjunto medible A de X. La medida es invariante (por T) si se

    cumple T() = .Teorema 2.1. SiT es una tranformacion continua de un espacio metrico compactoX, entonces existe almenos una medida de probabilidad sobre los boreleanos deX invariante porT.

    Demostracion. Recuerde que el espacio de las medidas de probabilidad sobre los boreleanos de un espaciometrico compacto se identifica a la interseccion de la esfera unidad con el cono positivo del espacio dual delas funciones continuas: cada P rob(X) induce un funcional lineal positivo L: C(X) R, a saber

    L() =

    X

    (x) d(x).

    Dotado de la topologa debil estrella, Prob(X) es entonces un espacio (metrico) compacto. Fijemos uno desus elementos . Para cada n N consideramos la medida de probabilidad n definida por

    n= 1n

    +T() + (T

    2)() +. . .+ (Tn1)()

    .

    Por la compacidad de P rob(X), la sucesion (n) contiene una subsucesion convergente (nk). Seael lmitede esta subsucesion. Afirmamos quees invariante por T. En efecto, la igualdadT() =es equivalentea que, para toda funcion continua : X R,

    X

    (x) d(x) =

    X

    (T(x)) d(x).

    Ahora bien, a partir de T(n) = n+ ((Tn)() )/n se deduce que

    X

    (T(x)) d(x) =

    X

    (x) dT()(x)

    = limkX

    (x) dT(nk)(x)

    = limk

    X

    (x) dnk(x) + limk

    1

    nk

    X

    (x) d(Tnk)()(x) limk

    1

    nk

    X

    (x) d(x)

    =

    X

    (x) d(x),

    6

  • 5/25/2018 Cur So Andres

    7/24

    que es la igualdad que queramos demostrar.

    Denotaremos porP robT(X) al espacio de las medidas de probabilidad de un espacioXque son invariantespor una transformacionT.

    Ejercicio 2.2. Considere la transformacionT : [0, 1] [0, 1] definida por T(0) = 1 y T(x) =x/2 parax ]0, 1].

    (i) Pruebe que no existe ninguna medida de probabilidad sobre [0 , 1] invariante por T.

    (ii) De un ejemplo de una metrica sobre [0, 1] para la cual T sea una transformacion continua.

    (iii) Concluya que Xno puede ser compacto respecto a una metrica que satisface la propiedad en (ii).

    Ejercicio 2.3. Sean (X, A) e (Y, B) dos espacios provistos de-algebras. Suponga que existe una biyeccion medible : X Y cuya inversa es medible. Dada una transformacion medible S : X X, denote por T : Y Y latransformacion S 1.

    (i) Pruebe que si es una medida de probabilidad sobre (X, A) invariante por S, entonces= () es una medida

    de probabilidad en (Y, B) invariante por T (recuerde que ()(B) =(1(B))).

    (ii) Pruebe que la aplicacion S: [0, 1] [0, 1] definida por

    S(x) = 2x si x [0, 1/2], S(x) = 2(1 x) si x [1/2, 1],

    preserva la medida de Lebesgue (esta transformacion es conocida como la transformacion de la carpa, debido a sugrafica).

    (iii) Considere el homeomorfismo : [0, 1] [0, 1] dado por (x) = sen2(x/2). Verifique que se tiene la igualdad

    T(x) = S 1(x) = 4x(1 x).

    (iv) Concluya que la medida de probabilidad dada por

    d= dx

    x(1 x)

    es invariante por la transformacion (logstica) T : [0, 1] [0, 1] definida por T(x) = 4x(1 x).

    Ejercicio 2.4. Considere la aplicacion de GaussT :]0, 1]]0, 1] definida por T(x) ={ 1x}. Pruebe que lamedida dada por

    d= 1

    log(2) dx

    1 +x

    es una medida de probabilidad invariante por T.

    SeaXun espacio provisto de una medida de probabilidad . Dada una particionPdeXen una familiafinita de conjuntos medibles, denotamos porH(P) = H(P, ) su entropa respecto a, es decir

    H(P, ) =AP

    (A) log((A)) =AP

    H((A)).

    SiT es una transformacion deXque preserva , para cada nN denotamosPn=P . . . T(n1)(P) laparticion cuyos elementos son conjuntos de la forma Ai1 T1(Ai2) . . . T(n1)(Ain1), donde los Aij

    7

  • 5/25/2018 Cur So Andres

    8/24

    son elementos de la particion originalP. Afirmamos que la sucesion (H(Pn))nN es subaditiva. En efecto,por (9) tenemos

    H(Pm+n) = H(P . . . T(m+n1)(P)) H(P . . . T(m1)(P)) +H(Tm(P) . . . T(m+n1)(P))= H(P . . . T(m1)(P)) +H(P . . . T(n1)(P))= H(Pm) +H(Pn).

    La subaditividad de la sucesion (H(Pn))nN permite entonces definir la entropa de Trespecto aP por

    h(T,, P) = limn

    H(Pn)n

    = infn>0

    H(Pn)n

    .

    La entropa (medible) de T respecto a es el supremo de los valores de la entropa respecto a diferentes

    particiones finitas, es decirh(T, ) = sup

    P

    h(T,, P).

    Ejercicio 2.5. Pruebe que a lo largo de la definicion precedente, es posible reemplazar las particiones finitas porparticiones de entropa finita, sin alterar el valor final de la entropa de la transformacion.

    De la definicion se concluye inmediatamente que la entropa respecto a una medida es invariante porconjugaciones medibles: si S : X X preserva Prob(X) y : X Y es una bijeccion medible coninversa medible, entonces para la transformacion T = S 1 :YY se cumple

    h(T, ()) = h(S, ).

    Ejercicio 2.6. Generalizando lo anterior, pruebe que si S y T son semiconjugadas, es decir si existe : X Y

    medible (no necesariamente invertible) tal que S= T , entonces se tiene la desigualdad de monotonicidad

    h(T, ()) h(S, ). (12)

    Decir queAi1 T1(Ai2) . . .T(n1)(Ain1) es el elemento dePnque contiene axXes equivalentea prescribir (hasta el orden n 1) el itinerario de x respecto aP:

    xAi1 , T(x)Ai2 , . . . T n1(x)Ain1 .

    Consideremos ahora la aplicacion T como un experimento cuyos resultados son ledos usando solo loselementos de la particion prescritaP. Si bien los experimentos repetidosT , . . . , T n no son independientesentre s, ellos pueden comportarse con cierta independencia cuando sus resultados son ledos respecto a lamisma particionP. Si esto ocurre, H(Pn) crece linealmente, y por lo tanto h(T, P)> 0.

    El calculo de la entropa no siempre es sencillo, pues de acuerdo a la definicion debemos tener si-multaneamente en consideracion todas las posibles particiones finitas medibles del espacioX. Sin embargo,las cosas se simplifican cuando existe una particiongeneradora, es decir una particionPtal que la -algebragenerada por la reunion de lasPn coincide con la -algebra original de X. El importantsimo resultadosiguiente fue obtenido a Kolmogorov y Sinai. Una demostracion puede ser hallada en [19] o en [24].

    8

  • 5/25/2018 Cur So Andres

    9/24

    Teorema 2.7. SiP es una particion generadora de entropa finita, entoncesh(T, ) = h(T,, P).

    Ejemplo 2.8. Sobre el espacio de sucesiones infinitas X={0, 1}N, considere la medida de Bernoulli equi-librada invariante por el desplazamiento T : X Xdefinido por T(x1, x2, . . .) = (x2, x3, . . .) (recuerdeque la medida de Bernoulli equilibrada es aquella que asigna a cada cilindro de longitud n una masa igual a1/2n). La particionP={X0, X1} de Xdada por

    Xi={(x1, x2, . . .) : x1 = i}, i {0, 1},

    es generadora. En efecto, los elementos dePn corresponden exactamente a los cilindros de longitud n, yla -algebra sobre Xes justamente aquella generada por los cilindros (de longitud finita). Del teorema 2.7concluimos que

    h(T, ) = h(T,, P).

    Ahora bien, cada elemento dePn tiene masa igual a 1/2n

    , y comoPn contiene 2n

    cilindros, su entropaes igual a log(1/2n) = n log(2). A partir de la definicion obtenemos h(T,, P) = log(2), por lo que laentropa de Trespecto a es igual a log(2).

    Ejercicio 2.9. De manera mas general, verifique que la entropa del desplazamiento en el espacio de sucesiones a ksmbolos respecto a la medida de Bernoulli es igual a log(k).

    Dadas una transformacion medible T : X Xy una particion de entropa finitaP de X, para cadaxXy cada nN designamos porPn(x) el elemento dePn que contiene a x. La entropa local de T enx(respecto aP y P robT(X)) se define por

    hx(T,, P) = limn

    log((Pn(x)))n

    . (13)

    Obviamente, esta definicion es pertinente solo si el lmite correspondiente existe. Sin embargo, esto ocurrepara casi todo punto, como queda estipulado en la primera parte del importantsimo teorema siguiente,debido a Shannon, Mc Millan y Breiman.

    Teorema 2.10. La convergencia (13) se produce en casi todo punto x X y en L1(X, ), y se tiene laigualdad

    h(T,, P) =X

    hx(T,, P). (14)

    Observe que la aplicacion x hx(T,, P) es invariante por T. Luego, siT es ergodica respecto a ,entonces ella es constante c.t.p., siendo el valor de dicha constante igual a h(T,, P).Ejercicio 2.11. Considere el desplazamiento en el espacio de sucesiones infinitas a k smbolos dotado de una medidade Bernoulli no necesariamente equilibrada (es decir, las probabilidades correspondientes a smbolos diferentes puedenser distintas). Usando la ley de los grandes numerosde Borel, pruebe que la igualdad h(T, ) = hx(T,, P) se verificaen casi todo punto x X(considerando la particion inicial Pen cilindros de longitud 1).

    9

  • 5/25/2018 Cur So Andres

    10/24

    3 Entropa topologica

    Dada una transformacionTde un espacio metrico compacto X, para cada >0 y cadan N denotemospor H(T , n , ) el numero maximo de puntos del espacio X cuyas orbitas por T se -separan antes de niteraciones. De manera mas precisa, H(T, n, ) es el maximo entero positivo k para el cual existen puntosdistintos x1, . . . , xk enXtales que, para cada i=j , se tiene dist(Tm(xi), Tm(xj))> para algun m < n.

    Para espacios y transformaciones razonables, el valor de H(T, n, ) es finito. Definimos entonces

    h(T, ) = limsupnN

    log(H(T , n , ))

    n .

    Observe que el valor de h(T, ) crece cuando >0 decrece, lo que permite definir la entropa topol ogicadeT por

    htop(T) = lim0

    h(T, ) = sup>0

    h(T, ).

    Ejemplo 3.1. En el espacio X={0, 1}N consideramos la distancia

    dist(x, y) =i1

    |xi yi|2i

    .

    Dados dos enteros positivos r y n, es facil verificar que dos puntos x = (x1, x2, . . .) e y = (y1, y2, . . .) estan(1/2r, n)-separados por el desplazamiento T si y solo si existe algun m < n+r para el cual xm= ym. Deesto se concluye que h(T,n, 1/2r) = 2n+r1, por lo que

    h(T, 1/2r) = limsupn

    log(2n+r1)

    n = log(2),

    y por lo tantohtop(T) = log(2).

    Ejercicio 3.2. Pruebe que si T es un homeomorfismo de un espacio metrico compacto X, entonces se tiene laigualdadhtop(T) = htop(T

    1).

    La entropa topologica mide el grado de divergencia exponencial de las orbitas de una transformacion.Su calculo preciso no siempre es sencillo. Una de las herramientas usadas para el viene dada por el impor-tantsimo principio variacional, contenido en el siguiente teorema.

    Teorema 3.3. SiT es una transformacion continua de un espacio metrico compacto, entonces

    htop(T) = sup{h(T, ), P robT(X)}. (15)

    La demostracion de este resultado es tecnicamente elaborada y puede ser hallada en [24]. Observe que enel no se estipula la existencia de una medida de probabilidad en Xpara la cual se tengahtop(T) = h(T, ).En efecto, un tal estado de equilibrio no siempre existe. A continuacion presentamos un ejemplo sencillopero artificial ilustrando esta situacion.

    10

  • 5/25/2018 Cur So Andres

    11/24

    Ejemplo 3.4. Sea Tn : Xn Xn una sucesion de transformaciones continuas entre espacios metricoscompactos tales que htop(Tn) < htop(Tn+1) para todo n N y supnNhtop(Tn)

  • 5/25/2018 Cur So Andres

    12/24

    que los conjuntos Tn(V) son dos a dos disjuntos para n0 (pues si n > m0 yTn(V) Tm(V)=,entonces T

    nm

    (V) V=). Por la invariancia de concluimos que, para todo n N,

    1 n1k=0 Tk(V)=n1k=0

    (Tk(V)) = n (V),

    lo cual implica evidentemente que (V) = 0.

    De entre los numerosos resultados de dinamica topologica que pueden ser obtenidos mediante metodosergodicos, uno de los mas notables es el que presentamos a continuacion, debido a Katok [17].

    Teorema 3.9. SeaTun difeomorfismo de una superficie compacta de claseC1+ para algun >0. Si laentropa topol ogica deTes positiva, entoncesT posee una infinidad de puntos periodicos.

    En efecto, bajo las hipotesis del teorema se puede concluir la existencia de una herradura de Smale[21]para algun iterado deT.

    Ejercicio 3.10. Dada una transformacion continua T : X X, denotemos por Pn(T) al conjunto de los puntosperiodicos deTcuyo periodo es igual a n. Uno de los problemas mas interesantes de la teora ergodica es la busquedade condiciones que garanticen la igualdad (conocida como formula de Mane)

    htop(T) = limn

    log(|Pn(T)|)

    n .

    Verifique que esta formula es valida para el desplazamiento en el espacio de sucesiones infinitas de un numero finitode smbolos.

    4 La entropa en teora de grupos

    Diversas nociones de entropa han sido propuestas para el estudio general de acciones de grupos. Comoveremos en las secciones que siguen, ellas deben tener en consideracion simultaneamente la dinamica de laaccion y la estructura algebraica del grupo. Los topicos que presentamos son la ventana de entrada a unarea de la matematica de gran desenvolvimiento en la actualidad.

    4.1 Entropas topologicas

    Una accion de un grupo por homeomorfismos de un espacio metricoX es una correspondencia entrecada elementog con una transformacion continua(g) deX, de modo que para todog, hen se cumple

    (gh) = (g)

    (h), (g1) = (g)1.

    En otras palabras, : Homeo(X) es un homomorfismo de grupos. Para simplificar, supondremos en loque sigue que este homomorfismo es inyectivo, y denotaremos a (g) simplemente por g .

    Supongamos que sea finitamente generado y fijemos en el un sistema finito y simetrico de generadoresG1 ={g1, . . . , gm} (el termino simetrico significa que si g G1 entonces g1 G1). Para cada g

    12

  • 5/25/2018 Cur So Andres

    13/24

    definimos la longitud deg (o la distancia de g al elemento neutro) como el numero mnimo de elementos (no

    necesariamente distintos) deG1 que son necesarios para representar a g . De manera mas precisa,long(g) = dist(e, g) = min{n N : g = gi1gi2gin, gij G1}.

    La distancia entre dos elementos arbitrarios del grupo queda homogeneamente definida mediante la igualdaddist(g, h) = dist(e, h1g). Los elementos del grupo pueden as ser pensados como los vertices de ungrafo, conocido como grafo de Cayley(asociado aG1). La inclusion de (provisto de la metrica dist) enel grafo de Cayley (dotado de la metrica simplicial) es una isometra. Denotaremos por B (e, n) al conjuntode elementos de de longitud menor o igual a n (es decir, al conjunto de los vertices contenidos en la bolacerrada cuyo centro es el elemento neutro y cuyo radio en igual a n en el grafo de Cayley). La esfera de radion correpondiente sera denotada simplemente por Sn.

    Inspirandose en la definicion de la seccion (3), dados >0 ynN denotemos porH(, n , ) la cantidadmaxima de puntos de Xque estan-separados por algun elemento de B (e, n

    1). Definimos entonces

    h(, ) = limsupn

    log(H(, n , ))

    2n (16)

    El valor de h(, ) aumenta cuando > 0 decrece. Definimos entonces la entropa topol ogica(de la accionde ) por

    h() = lim0

    h(, ) = sup>0

    h(, ).

    Debe tenerse siempre en cuenta que el valor de h() no es inherente a la estructura algebraica del grupo,sino que depende de la accion considerada. Ella depende tambien del sistema de generadores elegido. Sinembargo, el lector verificara sin dificultad que si la entropa de la accion es positiva para un sistema (finito)de generadores, entonces ella es positiva respecto a cualquier otro sistema (finito) de generadores.

    Ejercicio 4.1. Pruebe que para acciones del grupo de los enteros, la definicion precedente coincide con aquella dadaen la seccion 3 (gracias a este ejercicio el lector comprendera la naturalidad del factor 2 en el miembro a derecha de(16)).

    Ejemplo 4.2. Considere dos transformaciones de Mobius hiperbolicash1 y h2 cuyos conjuntos de puntosfijos sean disjuntos. Designemos por p (resp. p) el punto fijo repulsor (resp. atractor) de h1. Cambiandoh2por h12 si es necesario, podemos suponer que el punto q= h2(p) pertenece al intervalo ]p, p

    [ (respecto a laorientacion canonica del crculo). Fijemos >0 tal que p+ < q y h2([p, p+])]q, p[, y consideremosun entero positivo suficientemente grandek de modo que hk1 (h2(p + ))< q. Si en fijamos un sistema degeneradores que contiene a g1 = h

    k1 y g2 =h2 (as como a sus inversos), entonces para todo nN y todo

    > 0 menor que min{, dist(p+, q),dist(q, g2(p+))} se verifica

    H(, 2n, )2n+2 (17)

    (en particular, la entropa topologica de la accion es positiva, pues esta minorada por log(2)/2). En efecto,si denotamos I1 = [p, p+] y I2 = g2(I), entonces podemos definir

    I1,1 = g1(I1), I1,2 = g1(I2),

    I2,1 = g2(I1,1), I2,2 = g2(I1,2).

    13

  • 5/25/2018 Cur So Andres

    14/24

    De manera mas general, si los intervalos Ii1,...,in1 han sido definidos para cada (i1, . . . , in1) {1, 2}n1 ,hacemos I1,i1,...,in1 =g1(Ii1,...,in1), I2,i1,...,in1 =g2(I1,i1,...,in1).

    Los intervalosIi1,...,in corresponden a aquellos aparecen en la n-esima etapa de la construccion de un conjuntode Cantor (observe sin embargo que nosotros necesitamos de 2(n 1) transformaciones para generar cadauno de ellos a partir de I1 e I2). Considerando los inversos de los elementos que originan dichos intervalos, secomprueba facilmente que sus extremos son puntos que estan (2n, )-separados por la accion. La desigualdad(17) se deduce entonces del hecho que existen 2n intervalos en la n-esima generacion (y cada uno de ellosposee dos extremidades).

    Resulta evidente de la definicion y del ejemplo precedente que si el grupo es grande, entonces es m asfacil obtener acciones de entropa positiva. Las nociones a continuacion resultan por lo tanto naturales; ellasfueron introducidas por Milnor en [18].

    Definicion 4.3. Dados un grupo y un sistema (finito y simetrico) de generadoresG1 ={g1, . . . , gm},la funcion de crecimiento L = LG1 : N N es aquella que asocia a cada n N el cardinal L(n) de labola B(e, n) de centro e y radio n en el grafo de Cayley correspondiente. El grupo tiene crecimientopolinomial si existe un polinomio P tal queL(n)P(n) para todon N. Si tal es el caso, el grado mnimode un polinomio verificando dicha propiedad es llamado el grado de crecimiento de . Se dice que tienecrecimiento exponencial (resp. subexponencial) si L(n)1/n converge a un lmite mayor que (resp. igual a) 1(observe que por el lema 1.2, la expresionL(n)1/n es convergente; denotaremos por c() =c(, G1) el lmitecorrespondiente).

    Observe que las nociones de crecimiento exponencial, subexponencial o polinomial, son invariantes bajocambio de sistema (finito) de generadores (a pesar de que el valor dec(, G1) depende deG1).Ejercicio 4.4. Pruebe que si un grupo tiene crecimiento polinomial de grado k respecto a un sistema (finito) de

    generadores, entonces ocurre lo mismo respecto a cualquier otro sistema (finito) de generadores.

    Observacion. Un celebre teorema de Gromov estipula que un grupo finitamente generado es de crecimiento polino-mial si y solamente si el contiene un subgrupo nilpotente de ndice finito (vea [12]).

    Como hemos visto en el ejemplo 4.2, si un grupo de homeomorfismos de S1 posee un elemento con unpunto fijo topologicamente contractivo cuyo dominio de atraccion contiene al menos un elemento de la orbitadel punto fijo, entonces la entropa topologica de la accion del grupo en cuestion es positiva (para el lectorinteresado no en la entropa sino que en el crecimiento de grupos de difeomorfismos, recomendamos la lecturade [20]). La recproca de esta ultima afirmacion es valida para grupos de diffeomorfismos de clase C1+ deS1. Esto es una consecuencia de un resultado mucho mas general (demostrado originalmente en clase C2),debido a Ghys, Langevin y Walzac [11]. Una presentacion de facil acceso del teorema a continuacion apareceen [5].

    Teorema 4.5. Si una foliacion de codimension 1 y transversalmente de clase C1+ (con > 0) tieneentropa positiva, entonces ella posee hojas de tipo resorte hiperbolico.

    Algunas aclaraciones son necesarias. Primeramente, recuerde que en una foleacion no corresponde pre-cisamente a una accion de grupo. Sin embargo, si fijamos un sistema (completo) de transversales, entonces

    14

  • 5/25/2018 Cur So Andres

    15/24

    las aplicaciones de holonoma constituyen un pseudo-grupo (es decir que las aplicaciones en cuestion solo

    estan definidas localmente). La nocion de entropa se generaliza directamente para pseudo-grupos, y estadefinicion generalizada es la que consideramos en el teorema citado m as arriba. Una hoja es hiperbolicasi laholonoma asociada a un lazo no homotopicamente trivialen ella fija un punto de la transversal determinandoun elemento del pseudo-grupo de holonoma con un punto fijo hiperbolico. Si la hoja en cuestion intersectaa la transversal dentro del dominio de atraccion de dicho punto, entonces estamos en presencia de una hojaque se acumula sobre s misma, o mas precisamente de una hoja resorte

    4.2 El problema de la medida invariante

    El teorema de Bogoliubov y Krylov, el cual implica en particular que para todo homeomorfismo de unespacio metrico compacto existe (al menos) una medida de probabilidad invariante, no es valido para el casogeneral de acciones de grupos. Presentamos a continuacion dos ejemplos sencillos; el segundo de ellos (que

    es una generalizacion del primero) fue ideado por Furstenberg y reviste especial interes (vea [25] para unadiscusion mas detallada).

    Ejemplo 4.6. El grupo de homeomorfismos del crculo del ejemplo 4.2 no preserva ninguna medida deprobabilidad sobre S1. Dejamos la verificacion de esto a cargo del lector.

    Ejemplo 4.7. La accion natural del grupo SL(n,R) ={M M(n n,R) : det(M) = 1} sobre el espacioproyectivo RPn1 no admite medida invariante (donde n2).

    Para demostrar esta afirmacion, consideremos una sucesion (gk) de elementos de SL(n,R) que escapede todo compacto. Cadagk puede ser representado por una matriz Mk tal queMk = 1, donde esuna norma completa en el espacio de matrices nn. Pasando a una subsucesion podemos suponer queMk converge a cierta matriz M, la cual sera necesariamente no invertible (pues en caso contrario (gk) noescapara de los compactos). Sea Ela imagen de Rn1 por la aplicacion lineal correspondiente a M.

    Supongamos que sea una medida de probabilidad sobre RPn1 invariante por SL(n,R). Dejamos allector verificar, a partir de la igualdad Mk() = (valida para todo k N), que M() = . Esto ultimoimplica que el soporte de esta contenido enE(identificamos un espacio vectorial a su imagen en RPn1).

    Sea h SL(n,R) tal que dim(Eh(E)) < dim(E). De la igualdad h() = se concluye que sop()queda incluido enE h(E). Procediendo inductivamente concluimos que es una medida cuyo soporte esun espacio vectorial de dimension uno, es decir, un punto en RPn1. Sin embargo, esto es imposible, ya quela accion de SL(n,R) en RPn1 es transitiva.

    La importancia de la existencia de medidas invariantes para acciones de grupos amerita la siguientedefinicion.

    Definicion 4.8. Un grupo es promediablesi toda accion de por homeomorfismos de un espacio metrico

    compacto admite (al menos) una medida de probabilidad invariante.

    Existen muchas caracterizaciones de los grupos promediables. Nosotros nos concentraremos en el casode grupos finitamente generados. Para ilustrar nuestro problema, tratemos de utilizar la estrategia de laprueba del teorema de Bogoliubov y Krylov para obtener una medida invariante para una accion arbitraria

    15

  • 5/25/2018 Cur So Andres

    16/24

    de un grupo sobre un espacioX. Fijemos un sistema (finito y simetrico)G1 ={g1, . . . , gm}de generadoresde , as como una medida de probabilidad sobre X. Para cada n N consideremos la medida

    n= 1

    LG1(n 1)

    gB(e,n1)

    g().

    Pasando a una subsucesion tenemos que limk nk =para cierta medida de probabilidad . El problemaque se presenta es que no es necesariamente una medida invariante. En efecto, si tratasemos de repetir elargumento de la demostracion del teorema 2.1, entonces deberamos estimar una expresion del tipo

    1

    LG1(nk 1)

    g B(e, nk 1),gi G1

    (gig)().

    Sin embargo, esta expresion no converge necesariamente a cero, pues puede darse el caso en que la cantidadde elementos del conjunto B (e, nk) \ B(e, nk 1) sea grande en comparacion a LG1(nk 1). Las siguientesdefiniciones resultan entonces naturales.

    Definicion 4.9. Dado un subconjunto A, definimos el borde geometricode A como el conjunto

    A =gG1

    AgA

    ,

    donde denota la diferencia simetrica de los conjuntos respectivos.

    Definicion 4.10. Una sucesion de Flner para es una sucesion (An) de subconjuntos finitos de talesque

    limn |An

    ||An| = 0.

    Utilizando el argumento de Bogoliubov y Krylov, no es difcil verificar que si admite una sucesion deFlner entonces toda accion de por homeomorfismos de un espacio compacto admite una medida invariante.El panorama completo queda aclarado entonces por el siguiente teorema, debido a Flner [8].

    Teorema 4.11. Un grupo finitamente generado es promediable si y solo si admite una sucesion de Flner.

    Es importante remarcar que esta caracterizacion es independiente del sistema de generadores. En efecto,no es difcil verificar que el cuociente de las funciones longitud de un elemento g con respecto a dossistemas finitos de generadores esta acotado por una constante que depende de ambos sistemas y es inde-pendiente de g. Por lo tanto una sucesion de Flner respecto a un sistema origina una sucesion de Flner

    respecto al otro sistema.

    Ejercicio 4.12. Pruebe que si un grupo discreto posee un subgrupo libre a dos generadores, entonces dicho grupono es promediable.

    Ejercicio 4.13. Pruebe que todo grupo abeliano es promediable.

    16

  • 5/25/2018 Cur So Andres

    17/24

    Ejercicio 4.14. Pruebe que la propiedad de promediabilidad es estable por operaciones elementales, es decir:

    (i) todo subgrupo de un grupo promediable es promediable;

    (ii) todo grupo que es lmite directo de grupos promediables es promediable;

    (iii) el cuociente de un grupo promediable es promediable;

    (iv) la extension de un grupo promediable por otro grupo promediable es promediable.

    Concluya que todo grupo virtualmente soluble es promediable. Si tiene problemas para probar estas afirmaciones,vea el captulo 3 de [25].

    Ejercicio 4.15. Pruebe de dos maneras diferentes que todo grupo de crecimiento polinomial es promediable.

    Ejercicio 4.16. Generalizando el ejercicio anterior, pruebe que todo grupo finitamente generado y de crecimientosubexponencial es promediable.

    La discusion de este captulo muestra que, para desarrollar una teora medible de grupos que seainteresante, deben ser introducidas nuevas ideas. Una de ellas consiste en considerar acciones (generalmentelibres) que a prioripreservan una medida de probabilidad. Este punto de vista, desarrollado por Connes,Weiss, Popa, Gaboriau y otros, se ha revelado muy fecundo y ha estrechado la teora de grupos con otrasareas de la matematica, como el algebra de operadores [6]. Otra perspectiva interesante, y que nosostrosintroduciremos en las secciones que siguen, consiste en considerar el grupo como un sistema din amico ens mismo: la estructura del grupo puede ser leda directamente de su accion por traslaciones (teorema deCayley), y si asignamos parametros de frecuencia a dichas traslaciones (equivalentemente, para las tran-siciones entre los elementos), entonces es esperable recuperar parte de esa informacion algebraica medianteargumentos probabilsticos.

    4.3 Caminatas aleatorias y entropa asintotica

    Consideremos un grupo (enumerable) provisto de una medida de probabilidad . Lacaminata aleatoriasobre siguiendo la ley dada por consiste en el movimiento de un elemento a otro en el grupo, de modoque en cada paso la probabilidad p(g h) de ir desde g a h es igual a (g1h). Evidentemente, elcomportamiento estadstico de la caminata depende en gran medida de la estructura del grupo, pues cadacamino cerrado de la caminata corresponde a una relacion algebraica en .

    Para estudiar la evolucion de la caminata, en el espacio de las sucesiones finitas de largo n de elementosde podemos considerar la medida producto (nfactores). Bajo la accion de la aplicacion n dada por

    (g1, g2, . . . , gn)g1g2 gn,la imagen de dicha medida es denominada lan-esima convolucionde consigo misma, y denotada por (n).De manera un poco mas general, si y son medidas de probabilidad sobre , entonces la convolucion es una nueva medida de probabilidad sobre , definida por

    (h) =fg=h

    (f) (g).

    Cuando hablemos de la probabilidad de que cierto suceso que depende de n pasos ocurra en la caminatainducida por , estaremos tacitamente pensando en la probabilidad correspondiente dada por (n). Por

    17

  • 5/25/2018 Cur So Andres

    18/24

    ejemplo, la probabilidad de transicion entre g y h en n pasos es p(n)(gh) =(n)(g1h). Observe que si es simetrica, es decir si (g) = (g

    1

    ) para todo g , entonces lo mismo ocurre para la medida (k)

    para todo k N. En dicho caso se tiene la igualdad p(k)(gh) =p(k)(hg) para todo g , h en y todokN.

    La nocion de entropa (asintotica) para caminatas aleatorias sobre grupos fue introducida por Avez en[2]. La idea es considerar la caminata aleatoria como sistema dinamico, interpretando los posibles estadosde esta caminata (tras el numero correspondiente de pasos) como los iterados del sistema. De manera masprecisa, consideremos la entropa H() de la particionPde en sus elementos, es decir

    H() = H(P, ) =g

    (g)log((g)).

    Para cada n1 definamos

    Hn() = H((n)

    ) =g

    (n)

    (g)log((n)

    (g)).

    Observe que Hn() puede ser igual a infinito si el soporte de no es finito. Sin embargo, es facil verificarque si H() = H1() es finito, entonces Hn() es finito para todo n1.Lema 4.17. SiHn()

  • 5/25/2018 Cur So Andres

    19/24

    En terminos probabil sticos, h(, ) es la informacion promedio de uno de los factores de un producto

    hn= g1 gn de n variables aleatorias independientes gi con distribucion.Ejemplo 4.20. Si = 1+ (1 )2 entonces

    H((n)) =g

    H

    ( 1+ (1 )2)(n)(g)

    =g

    H

    ni=0

    n

    i

    i(1 )ni

    h

    (i)1 (h)

    (ni)2 (h

    1g)

    ni=0

    n

    i

    i(1 )ni

    g

    Hh

    (i)1 (h)

    (ni)2 (h

    1g)

    n

    i=0

    nii(1 )ni g,hH

    (i)

    1 (h)

    (ni)

    2 (h1g)

    =ni=0

    n

    i

    i(1 )ni

    g,h

    (i)1 (h)H((ni)2 (h1g)) +(ni)2 (h1g)H((i)1 (g))

    =ni=0

    n

    i

    i(1 )ni(H((i)1 ) +H((ni)2 ))

    ni=0

    n

    i

    i(1 )ni(ih(, 1) + (n i)h(, 2))

    = n( h(, 1) + (1 )h(, 2)),por lo que

    h(, ) = limn

    H((n))n

    h(, 1) + (1 )h(, 2).Luego, si la entropa de respecto a una combinacion convexa de dos medidas de probabilidad 1 y 2 espositiva, entonces su entropa respecto a al menos una de las medidas originales es positiva.

    Ejercicio 4.21. Sobre el grupo libre a dos generadores L2 considere la medida de probabilidad simetrica yequidistribuida sobre dichos generadores. Calcule el valor de h(L2, ).

    La entropa permite obtener informacion sobre un invariante probabilstico asociado a un grupo, a sabersu borde de Poisson-Furstenberg [9]. De esta manera, ella aparece relacionada con el espacio de las funcionesharmonicas sobre : si H() 0 si y solamente si admite funciones harmonicasacotadas no triviales. Recordemos que una funcion : R es harmonica (respecto a) si ella verifica laigualdad de la media, es decir si para todo g

    se cumple

    (g) =h

    (gh)(h).

    Lamentablemente, no tenemos espacio suficiente para desarrollar en mayor profundidad este apasionantetema. Nos limitaremos entonces a probar solo un resultado concreto, a saber la desigualdad que relaciona

    19

  • 5/25/2018 Cur So Andres

    20/24

    el crecimiento, la razon de escape al infinito y la entropa de un grupo. El lector notara cierta similitud

    entre dicho resultado y el principio variacional estudiado en la secci on 3. Para el estudio de otros tipos deequilibrio ligados a la entropa, esta vez en geometra diferencial, vea [3].

    Definicion 4.22. Fijemos un sistema finito y simetrico de generadores en un grupo . Respecto a dichosistema viene asociada una funcion distancia dist. Si es una medida de probabilidad sobre , entonces sedefine el k-esimo momento de por

    Mk() =g

    dist(e, g)k (g)

    Para analizar la relacion entre la entropa y el primer momento de una medida, necesitamos del siguientelema elemental, cuya demostracion ha sido tomada de [19].

    Lema 4.23. Si una sucesion de numerosn]0, 1[ satisfacenNn n

  • 5/25/2018 Cur So Andres

    21/24

    Por la hipotesisM1()

  • 5/25/2018 Cur So Andres

    22/24

    Ejemplo 4.27. La razon de escape del grupo libre Lk respecto a la medida de probabilidad simetrica y

    equidistribuida sobre sus generadores es igual a (k1)/k. Como ya analizamos el caso en que k = 1,supondremos que k es al menos igual a 2. En tal caso, si n 1 entonces con probabilidad (2k1)/2kse tiene I(g1 gngn+1) = I(g1 gn) + 1, mientras que I(g1 gngn+1) = I(g1 gn)1 se cumple conprobabilidad 1/2k. De ello se deduce que

    E(In+1) = E(In) +2k 1

    2k 1

    2k,

    lo cual implica la igualdadI= (k 1)/k va un argumento sencillo de suma telescopica.

    A continuacion expondremos una desigualdad interesantsima que relaciona la razon de escape al infinitocon el crecimiento y la entropa de un grupo (vea [23] para mayores detalles).

    Teorema 4.28. Si es una medida de probabilidad cuyo soporte es finito y genera a como semigrupo,entonces se tiene la desigualdad

    h(, )I() c(,sop()).

    Demostracion. Fijemos >0 y denotemos por X,n al conjunto de elementos de a los que se llega en npasos de la caminata pero cuya distancia al elemento neutro se sit ua en el intervalo [(1 )nI, (1 +)nI)].La discusion anterior muestra que(n)(X,n)1 paran suficientemente grande. Escribamos la medida(n) como la combinacion convexa de dos medidas de probabilidad 1,n y2,n, donde 1,n es la restriccionnormalizada de (n) a X,n y 2,n es la restriccion normalizada de

    (n) al complemento de X,n. Unaaplicacion sencilla de (3) muestra que

    H(, (n))(1 )H(1,n) log(1 ) + log(|Bn|).

    Dividiendo por n y pasando al lmite obtenemos

    h(, )(1 )liminfn

    H(1,n)

    n + c(,sop()). (19)

    Observe ahora que, considerando como conjunto generador a sop(), el conjunto X,n esta contenido en labolaB(e, (1 + )nI). Puesto que el valor deH(1,n) esta acotado por log(|X,n|), a partir de (19) obtenemos

    h(, )(1 )liminfn

    log(|B(e, (1 +)nI)|)n

    + c(,sop()).

    Como el valor de log(|B(e, (1 +)nI|)/n tiende a (1 +)Ic(,sop()) cuando n tiende al infinito, tenemos

    h(, )(1 2)Ic(,sop()) +c (,sop()).

    Siendo esta desigualdad valida para todo >0, concluimos finalmente que h(, )I() c(,sop()).

    Ejercicio 4.29. Pruebe que para el caso de la medida simetrica y equidistribuida sobre los generadores del grupolibreLk, la desigualdad anterior es una igualdad.

    22

  • 5/25/2018 Cur So Andres

    23/24

    La desigualdadh(, )I() c(,sop()) implica que si I() = 0 entoncesh(, ) = 0. La recproca deesta ultima afirmacion tambien es valida, de acuerdo a un interesantsimo resultado de Varopoulos [1, 22].

    Para concluir estas notas, enunciamos una version del teorema de Shannon, Mc Millan y Breiman validopara caminatas aleatorias sobre grupos. El resultado siguiente fue obtenido por Kaimanovich y Vershik en[16] (vea tambien [7]).

    Teorema 4.30. Si es una medida de probabilidad de entropa finita sobre un grupo enumerable, entoncesla convergencia

    limn

    log((n)(gn))

    n =h(, )

    tiene lugar tanto en casi todo punto = (g1, g2, . . .)N como enL1(N, N)

    Referencias[1] Alexopoulos, G.On the mean distance of random walks on groups.Bull. Sci. Math. 111 (1987), 189-199.

    [2] Avez, A. Entropie des groupes de type fini. C. R. Acad. Sci. Paris275 (1972), 1363-1366.

    [3] Besson, G., Courtois, G. & Gallot, S. Entropies et rigidites des espaces localement symetriques decourbure strictement negative. Geom. Funct. Anal. 5 (1995), 731-799.

    [4] Billingsley, P. Ergodic theory and information. Wiley Series in Prob. and Math. Statistics (1965).

    [5] Candel, A. & Conlon, L. Foliations I. Graduate Studies in Mathematics 23, American MathematicalSociety, Providence (2000).

    [6] Connes, A.Nombres de Betti L2 et facteurs de type 1 (dapres D. Gaboriau et S. Popa). Asterisque294(2004), 321-333.

    [7] Derriennic, Y.Quelques applications du theoreme ergodique sous-additif. Asterisque74 (1980), 183-201.

    [8] Flner, E.On groups with full Banach mean value. Math. Scand. 3 (1955), 243-254.

    [9] Furstenberg, H. Random walks and discrete subgroups of Lie groups. Advances in Probability and RelatedTopicsvol 1 (1971), 1-63.

    [10] Ghys, E.Groupes dhomeomorphismes du cercle et cohomologie bornee. Cont. Math. 58 (1987), 81-106.

    [11] Ghys, E., Langevin, R. & Walczak, P. Entropie geometrique des feuilletages. Acta Math. 160 (1988),105-142.

    [12] Gromov, M.Groups of polynomial growth and expanding maps. Publ. Math. de lIHES53 (1981), 53-73.

    [13] Keller, G. Equilibrium states in ergodic theory. London Mathematical Society Student Texts 42, Cam-bridge University Press (1998).

    [14] Khinchin, A. Mathematical Foundations of Information Theory. Dover Publ. Math. (1957).

    [15] Khinchin, A. Mathematical Foundations of Statistical Mechanics. Dover Publ. Math. (1949).

    [16] Kaimanovich, V. & Vershik, A. Random walks on discrete groups: boundary and entropy. Ann. Probab.11 (1983), 457-490.

    [17] Katok, A. Lyapunov exponents, entropy and periodic orbits for diffeomorphisms. Publ. Math. de lIHES51 (1980), 137-173.

    [18] Milnor, J.A note on curvature and fundamental group. J. Diff. Geometry 2(1968), 1-7.

    23

  • 5/25/2018 Cur So Andres

    24/24

    [19] Mane, R. Introducao a teoria ergodica. Projeto Euclides 14, IMPA (1983).

    [20] Navas, A. A group of diffeomorphisms of the interval with intermediate growth. Prepublicacion (2004).

    [21] Palis, J. & Takens, F. Hyperbolicity and sensitive chaotic dynamics at homoclinic bifurcations. Fractaldimensions and infinitely many attractors. Cambridge Studies in Advanced Mathematics 35, CambridgeUniversity Press (1993).

    [22] Varopoulos, N. Long rate estimates for Markov chains. Bull. Sci. Math. 109 (1985), 225-252.

    [23] Vershik, A.Dynamic theory of growth in groups: entropy, boundaries, examples. Russian Math. Surveys55 (2000), 667-733.

    [24] Walters, P. An introduction to ergodic theory. G.T.M. 79, Springer Verlag (1982).

    [25] Zimmer, R. Ergodic theory of semisimple groups. Monographs in Mathematics, Birkhauser (1984).

    Andres Navas

    IHES, 35 route de Chartres, 91440 Bures sur Yvette, France ([email protected])Univ. de Chile, Las Palmeras 3425, Nunoa, Santiago, Chile ([email protected])

    24