Apuntes

Universidad Andrés Bello
Departamento de Ciencias Físicas
Apuntes de Mecánica Clásica
Andrés Gomberoff Selowsky
Primer semestre 2015
Índice general
1. La estructura de la Mecánica
1.1. Las leyes de Newton . . . . . . . . . . . . . . .
1.2. Las ecuaciones de movimiento . . . . . . . . .
1.3. Coordenadas generalizadas . . . . . . . . . . .
1.4. Integración de las ecuaciones de movimiento
.
.
.
.
.
.
.
.
.
.
.
.
2. Mecánica Lagrangiana
2.1. Trayectorias de luz . . . . . . . . . . . . . . . . . . .
2.2. Cálculo de variaciones . . . . . . . . . . . . . . . . .
2.3. Espejismos . . . . . . . . . . . . . . . . . . . . . . . .
2.4. El lagrangiano . . . . . . . . . . . . . . . . . . . . . .
2.5. Lagrangiano para sistemas de muchas partículas
2.6. Lagrangiano y coordenadas generalizadas . . . .
2.7. Lagrangiano y vínculos . . . . . . . . . . . . . . . .
2.8. Momentum y energía . . . . . . . . . . . . . . . . . .
2.9. Principio de Maupertuis . . . . . . . . . . . . . . . .
3. Transformaciones de coordenadas y teoría grupos
3.1. Revisitando el Álgebra lineal y los tensores .
3.1.1. Espacio Vectorial . . . . . . . . . . . . .
3.1.2. Espacios duales . . . . . . . . . . . . . .
3.1.3. Cambios de base . . . . . . . . . . . . .
3.1.4. Tensores . . . . . . . . . . . . . . . . . . .
3.2. Métricas . . . . . . . . . . . . . . . . . . . . . . .
3.3. Espacios Euclídeos . . . . . . . . . . . . . . . . .
3.4. Grupo ortogonal . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
3
3
6
10
11
.
.
.
.
.
.
.
.
.
13
13
15
18
20
23
24
25
26
29
.
.
.
.
.
.
.
.
32
32
32
33
33
35
37
38
41
4. Pequeñas oscilaciones
45
4.1. Espacio tangente . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
4.2. Lagrangianos cuadráticos . . . . . . . . . . . . . . . . . . . . . . . 45
1
5. El grupo de rotaciones y el sólido rígido
5.1. Rotaciones infinitesimales de SO(2)
5.2. Rotaciones en 3D: El grupo SO(3) .
5.2.1. Fórmula de Rodrigues . . . .
5.2.2. Ángulos de Euler . . . . . . .
5.3. Sistemas de coordenadas rotantes .
5.4. El sólido rígido . . . . . . . . . . . . .
5.5. Propiedades del tensor de inercia . .
5.6. Ecuaciones de Euler . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
50
50
52
55
56
57
59
63
64
6. El teorema de Noether y las simetrías del espaciotiempo
67
6.1. El teorema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
6.2. El grupo de Galileo . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
7. La relatividad especial y el grupo de Lorentz
7.1. La transformación de Lorenz . . . . . . . .
7.1.1. La dilatación del tiempo . . . . . .
7.1.2. La contracción de Lorentz . . . . .
7.1.3. Relatividad de la simultaneidad .
7.2. El grupo de Lorentz . . . . . . . . . . . . .
7.3. La partícula libre relativista . . . . . . . .
8. Mecánica Hamiltoniana
8.1. Variables auxiliares . . . . . . . . . . .
8.2. Transformación de Legendre . . . . .
8.3. Termodinámica y Mecánica . . . . . .
8.4. Bordes y la incerteza de Heisenberg
8.5. Transformaciones canónicas . . . . .
8.6. Ejemplo: el oscilador armónico . . . .
8.7. Paréntesis de Poisson . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
. . . . .
. . . . .
. . . . .
clásica
. . . . .
. . . . .
. . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
9. Estructura Simpléctica
9.1. El grupo simpléctico . . . . . . . . . . . . . . . . .
9.2. Integración de una transformación infinitesimal
9.3. Teorema de Liouville . . . . . . . . . . . . . . . . .
9.4. Generadores infinitesimales y sus álgebras . . .
9.5. Simetrías y cantidades conservadas . . . . . . .
9.6. La teoría de Hamilton-Jacobi . . . . . . . . . . . .
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
74
75
78
78
79
79
81
.
.
.
.
.
.
.
83
83
84
87
88
90
93
94
.
.
.
.
.
.
96
97
101
102
103
106
107
Capítulo 1
La estructura de la Mecánica
1.1.
Las leyes de Newton
Las ecuaciones de Newton son quizás la cima de la historia intelectual de
nuestra especie. Un conjunto de ideas que desde su creación han cambiado
el curso de nuestra civilización e inspirado casi todo el trabajo científico
posterior. Se trata de un cuerpo de ideas que definen lo que hoy llamamos
"mecánica clásica", y que de una u otra manera dominaron la física hasta el
advenimiento de la mecánica cuántica durante la tercera década del siglo
XX. Este curso asume que el estudiante tiene familiaridad con las leyes de
Newton y con su aplicación en contextos diversos. También asume dominio
del cálculo diferencial e integral en varias variables y del álgebra lineal. El
objetivo es reformular la mecánica clásica desde una perspectiva más general
y sintética, lo que nos permitirá, por una parte, el uso de poderosas técnicas
matemáticas y por otro, nos dejará listos para el estudio de sus contrapartes
cuánticas.
Comenzaremos recordando la formulación Newtoniana de la mecánica.
Esta se basa en las tres leyes de Newton:
1. Primera ley o ley de inercia. Si un cuerpo está tan alejado de otros
cuerpos que la influencia de estos es despreciable, entonces su velocidad es constante, esto es,
x~¨(t) = 0.
(1.1)
Lo que esta ley nos dice es que existen sistemas de referencia muy
especiales, que llamamos sistemas inerciales. Las leyes de la mecánica en su formulación original, son válidas solo en éstos sistemas de
referencia. Si hacemos nuestras observaciones desde un laboratorio
3
que acelera respecto del sistema inercial, es evidente que la primera
ley no será respetada. Tampoco lo será si medimos el tiempo con un
reloj cuyas manijas no avanzan a ritmo constante, o si nuestras reglas
cambiaran de tamaño al cambiarlas de posición espacial (todo esto en
relación al sistema inercial). De hecho, la ecuación (1.1) solo es válida
para coordenadas espaciales cartesianas. En coordenadas esféricas,
por ejemplo, tendrá una forma bien distinta. Para ser más precisos digamos que en coordenadas oblicuas, es decir, aquellas en que los ejes
de coordenadas no se intersectan ortogonalmente, la primera ley también se satisface. Sin embargo, es fácil pasar de éstas a coordenadas
cartesianas, cuyas propiedades las hacen más útiles.
2. Segunda ley. Quizás la expresión matemáticas más popular de la física,
mx~¨(t) = F~ (~
x , x~˙, t).
(1.2)
La segunda ley de Newton nos dice cómo se moverá un cuerpo, al
observarlo desde un sistema inercial, en presencia de otros que puedan
influir en su movimiento. Esta influencia es representa por medio de
una fuerza F~ , que puede depender de la posición, del tiempo, y de la
velocidad del cuerpo. La masa m es una propiedad intrínseca de éste,
y representa la resistencia que impone a ser acelerado. Tal como está
escrita en (1.2), esta expresión asume que m es constante. Podemos
generalizar esta expresión para el caso en que m varía en el tiempo
definiendo el momentum
~ = mx~˙,
p
de modo que (1.2) se reescribe,
~˙ (t) = F~ (~
p
x , x~˙, t),
(1.3)
que es la forma más general de la segunda ley de Newton.
3. Tercera Ley. Acción y reacción. Esta ley nos dice que cuando un cuerpo
ejerce una fuerza sobre otro, no quedará inmune. El mismo experimentará una fuerza de igual magnitud pero en dirección opuesta. Matemáticamente, si tenemos un conjunto de N partículas que interactúan
entre sí, y si la fuerza que ejerce la i-ésima sobre la j-ésima es F~ij ,
entonces,
F~ij = −F~ji .
(1.4)
Definiendo el momentum de la i-ésima partícula,
~ i = mi x~˙i ,
p
4
(1.5)
la tercera ley nos dice que el momentum total,
~=
P
N
X
~i
p
(1.6)
i=1
es una cantidad conservada. En efecto,
N
N
X
X
~˙ =
~˙ i =
P
p
F~i .
i=1
(1.7)
i=1
Pero la fuerza F~i que experimenta la i-ésima partícula es la suma de
las fuerzas que ejercen sobre ella todas las demás,
F~i =
N
X
F~ji .
(1.8)
j=1
en que la suma contiene los términos Fii = 0. Así,
N X
N
X
X
~˙ =
F~ji + F~ij = 0.
P
F~ji =
(1.9)
i>j
i=1 j=1
Note que la ley de acción y reacción tiene dos requerimientos básicos. Primero, la ausencia de fuerzas externas. Es decir, significa que
el sistema es cerrado, que las fuerzas que actúan sobre cada partícula
son ejercidas por otras dentro del mismo. En ocasiones es útil invocar
fuerzas externas, como cuando estudiamos el movimiento de partículas en el campo gravitacional terrestre, sin considerar a la tierra como
parte del sistema. En este caso, por supuesto, el momentum de las
partículas no se conserva. Segundo, requerimos que el concepto de "simultaneidad"sea universal, ya que las dos fuerzas involucradas actúan
simultáneamente. Más adelante, cuando estudiemos las relatividad especial, veremos como esto deja de tener sentido. La nueva formulación
de la mecánica que estudiaremos en lo que sigue nos permitirá generalizar la tercera ley y así permitir la definición de un momentum
conservado en sistemas cerrados.
5
Ejercicio 1.1
Escriba la primera ley de Newton en dos dimensiones espaciales en coordenadas polares, y note que, efectivamente no tiene la forma (1.1). Muestre
que incluso en coordenadas cartesianas, si usamos un reloj cuyo tiempo t 0
difiere del original t de acuerdo a una función no lineal,
t = f (t 0 ),
entonces la forma (1.1) para la ley de inercia no se satisface. Finalmente
corrobore que la primera ley se satisface en coordenadas oblicuas.
1.2.
Las ecuaciones de movimiento
Suponga ahora que pasamos a un sistema de coordenadas no inercial1
Uno de los objetivos de este curso es, precisamente, tener una visión más
general de la mecánica, independiente de sistemas de coordenadas o del
estado de movimiento del laboratorio. Supongamos entonces que tenemos
un número N de partículas que se mueven en el espacio tridimensional bajo
la acción de ciertas fuerzas. En un sistema inercial, las ecuaciones tendrán
la forma,
¨ a (t) = f a (q, q
˙ , t).
q
(1.10)
Aquí los ínidices a = 1 . . . 3N, etiquetan a las coordenadas qa de las partículas,
qa = (x1 , y1 , z1 , x2 , y2 , z2 , . . . , xN , yN , zN )
mientras que f a (x, x˙, t) son las fuerzas sobre cada una de ellas, divididas
por las masas respectivas. Cuando omitimos el índice a en expresiones como
ésta nos referimos al conjunto completo de coordenadas. Una transformación
general de coordenadas, puede no solo mezclar las coordenadas de cada
partícula, como ocurre la pasar de coordenadas cartesianas a polares, sino
que también mezclar las coordenadas de partículas distintas, tal como ocurre
1
En este curso hablaremos de sistemas inerciales como aquellos definidos arriba, que
incluyen un set de coordenadas cartesianas, y un reloj üniversal". El pasar a un sistema en
que cambiamos las coordenadas que describen el espacio a unas no cartesianas, nos sacará
del sistema inercial. Esta definición, inspirada en la mecánica relativista que veremos más
adelante, puede no ser la usual en los primeros textos sobre mecánica de Newton, para los
que salir del sistema inercial implica un movimiento no uniforme respecto del éste.
6
al pasar a modos normales cuando trabajamos con vibraciones (ver ejercicio).
En cualquier caso, la transformación será de la forma,
qa = qa (Q, t),
(1.11)
en que Q a son las nuevas coordenadas. La relación entre los dos sistemas
debe ser invertible, esto es, debemos poder despejar Q a en (1.11) y escribir
la relación inversa Q a = Q a (q, t). Esto implica que
det
∂Q a
6= 0.
∂qb
(1.12)
Supongamos por simplicidad que la relación (1.11) no depende explícitamente del tiempo, de modo que qa = qa (Q). Entonces,
˙a =
q
3N
X
∂qa ˙ b
Q .
∂Q b
(1.13)
b=1
Note que el índice b sobre el que está hecha la suma aparece repetido. Esto
es típico en cálculos "tensoriales", de los que hablaremos más adelante en
más detalle. Por ahora solo aprovecharemos esto para utilizar
la llamada
P
"notación de Einstein", en la que eliminaremos el símbolo
en las sumas. A
menos que digamos explícitamente lo contrario, las expresiones con índices
repetidos se asumirá se trata de sumas sobre estos. Así,
¨a =
q
∂2 qa ˙ c ˙ b ∂qa ¨ b
˙ t),
Q Q +
Q = f a (Q, Q,
c
b
b
∂Q ∂Q
∂Q
(1.14)
en donde hemos hecho uso de la invertibilidad de la transformación para
˙ t) = f a (q(Q), q
˙ (Q), t). Ahora,
escribir la función f en términos de Q, f a (Q, Q,
dado (3.28), podemos definir la matriz inversa, de modo que
∂qa ∂Q c
= δba
c
b
∂Q ∂q
(1.15)
¨ a de la ecuación (1.14), obteniendo
De este modo, podemos despejar Q
a
2 b
∂Q
∂
q
a
b
c
d
¨ =
˙ t) −
˙ Q
˙
Q
f (Q, Q,
Q
.
(1.16)
∂qb
∂Q c ∂Q d
Las ecuaciones de movimiento en estas coordenadas tienen exactamente la
misma forma que la ecuación (1.10),
¨ a (t) = ga (Q, Q,
˙ t),
Q
7
(1.17)
˙ t) es igual al lado derecho de la ecuación (1.16).
en que la función ga (Q, Q,
Vemos entonces que en general, un sistema de N partículas en 3 dimensiones
espaciales, no importa en que sistema de coordenadas lo estudiemos, dará
lugar a 3N ecuaciones de la forma (1.17). Observamos de inmediato de estas
expresiones, que si f = 0, g no necesariamente se anula. Esto solo ocurre
cuando q es una función lineal de Q. Estas funciones lineales son precisamente las relaciones entre coordenadas cartesianas (en general oblicuas).
Ejercicio 1.2
Muestre que la ecuación (1.15) es válida. Encuentre explícitamente las
matrices para la transformación entre coordenadas cartesianas y polares en
tres dimensiones. Calcule las ecuaciones para la partícula libre en coordenadas polares.
Ejercicio 1.3
Considere una transformación general en que la relación entre los dos
conjuntos de coordenadas depende explícitamente del tiempo, qa = qa (Q, t).
Encuentre cómo se generaliza la expresión (1.16) y verifique que también es
de la forma (1.17).
Veamos ahora un ejemplo en el cual las coordenadas de dos partículas se
combinan en nuevas coordenadas. Considere dos masas, m1 , m2 conectadas
por un resorte de constante k en una dimensión espacial, como se ilustra en
la figura 1.1. Las ecuaciones de Newton en un sistema inercial son,
k
(x2 − x1 ),
m1
k
= − (x2 − x1 ),
m2
x¨1 =
(1.18)
x¨2
(1.19)
en que x1 , x2 es el desplazamiento de la masa m1 y m2 respectivamente
respecto de la posición inicial de equilibrio. Definamos nuevas coordenadas,
q1 = m1 x1 + m2 x2 ,
q2 = (x2 − x1 ).
8
(1.20)
(1.21)
Figura 1.1:
En éstas, las ecuaciones de movimiento toman la forma,
¨ 1 = 0,
q
¨ 2 = −k
q
(1.22)
1
1
+
m1 m2
q2 .
(1.23)
Estas últimas son mucho más sencillas, ya que se trata de dos ecuaciones
desacopladas. La primera nos dice que la coordenada q1 se mueve con velocidad constante, cosa que era de esperar pues esta coordenada no es otra
cosa que el centro de masas. La segunda describe la oscilación del resorte en el centro de masas. Intencionalmente no nos hemos preocupado de
que las coordenadas tengan unidades de distancia. No es importante para
nuestros propósitos. De hecho, ya en ejemplos anteriores en los que usamos
coordenadas polares renunciamos al requerimiento de que las coordenadas
espaciales tengan unidades de distancia: los ángulos no tienen unidades. El
punto esencial es que encontramos un sistema de ecuaciones sencillas. Las
unidades o el concepto de masa para cada coordenada, si bien en este caso
podríamos establecerlos2 no son lo central. Lo importante es que tenemos
un sistema descrito con coordenadas q convenientes, que podemos resolver,
y que es de la forma (1.17).
2
Claro, la coordenada
q1
m1 + m2
es el centro de masas, cuya posición se conserva por conservación de momentum. La masa
asociada al centro de masas es la masa total m1 + m2 . La coordenada q2 , por otra parte,
tiene asociada una “masa reducida", M, tal que,
1
1
1
=
+
.
M
m1
m2
Si bien en ese caso sencillo hay formas de interpretar físicamente las coordenadas, en casos
más generales esto dejar de ser cierto.
9
1.3.
Coordenadas generalizadas
Cualquier conjunto de coordenadas qa que describan completamente el
sistema, de modo que sus ecuaciones dinámicas tengan la forma (1.17) se
denominan coordenadas generalizadas. El espacio etiquetado por éstas se
denomina espacio de configuración. Si se trata, digamos, de N partículas que
se pueden mover libremente en D dimensiones, el espacio de configuración
tendrá ND dimensiones. En muchos casos, las partículas estarán restringidas
por vínculos. Por ejemplo, en el caso de un péndulo que se mueve en un plano,
la partícula esta restringida a moverse en una trayectoria que mantenga su
distancia al origen de largo constante l. En coordenadas cartesianas como
las de la figura , esto significa que x e y no se mueven independientemente,
sino que deben satisfacer el vínculo
x 2 + y2 − l2 = 0.
(1.24)
Aunque este vínculo es mediado por una fuerza, en este caso la tensión de la
Figura 1.2:
cuerda, es mucho más sencillo describir el sistema en coordenadas polares,
e ignorar la coordenada r, que dado el vínculo (1.24) está obligada a ser
siempre r = l. El sistema por lo tanto, a pesar de contener una partícula
en dos dimensiones espaciales, puede describirse con solo una coordenada
generalizada, el ángulo φ respecto del eje negativo de la coordenada y (y
que medimos, digamos, en sentido opuesto a las manecillas del reloj). De
este modo, la ecuación dinámica es,
¨ = − g sin φ,
φ
l
10
que es de la forma de (1.17). En términos generales por lo tanto, un sistema
dinámico está compuesto por un conjunto de coordenadas generalizadas qa
que lo definen unívocamente en todo instante, y un sistema de ecuaciones
diferenciales ordinarias de segundo orden de la forma (1.17). Más adelante
estudiaremos un modo sistemático de tratar los vínculos. En términos generales, considere un sistema de N partículas en D dimensiones, en presencia
de M vínculos independientes de la forma
ΦA (qa , t) = 0,
(1.25)
en que a = 1 . . . ND son las coordenadas de las partículas y A = 1 . . . M
etiqueta los vínculos. Este sistema puede describirse utilizando ND − M
coordenadas generalizadas. En el ejemplo anterior N = 1, D = 2 y M = 1.
Así, basta con 1 × 2 − 1 = 1 coordenada, en este caso el ángulo φ. Los
vínculos de la forma (1.25), que solo dependen de las coordenadas (y no de
las velocidades) se llaman holonómicos.
1.4.
Integración de las ecuaciones de movimiento
Para terminar este capítulo recapitulemos. Desde la perspectiva matemática, un sistema clásico es descrito por un conjunto qa de N coordenadas
generalizadas (en adelante solo ‘coordenadas"), que definen el espacio de
configuración C. En caso que los −∞ < qa < ∞ estuviesen definidos sobre
todo el eje real, C = RN . Esto no es siempre así, como podemos verlo en
el caso del péndulo, en el que el espacio de configuración es un círculo (o
medio círculo si hay un techo que no permite al péndulo dar una vuelta completa). En cada instante de tiempo, el sistema está en un punto del espacio
de configuración. La sucesión de instantes define una trayectoria. Esta es
una función de R en C, que a cada t ∈ R le asocia un q ∈ C, como se
representa en la figura 2.1. En mecánica, las trayectorias están dadas por
un conjunto de N ecuaciones diferenciales ordinarias de segundo orden, las
ecuaciones dinámicas,
¨ a (t) = f a (q, q
˙ , t).
q
(1.26)
En general, resolver este conjunto de ecuaciones puede ser tremendamente
difícil, y salvo para sistemas muy sencillos, se suelen resolver numéricamente con la ayuda de un computador. Para integrarlas, hará falta de 2N
constantes de integración. En sistemas de partículas éstas se suelen definir
imponiendo condiciones iniciales, esto es, la posición inicial y la velocidad
˙ (t0 ) en cierto instante t0 . Las ecuaciones dinámicas nos perinicial q(t0 ), q
miten de este modo asociar las condiciones iniciales en cierto instante t0
11
Figura 1.3: Una trayectoria en el espacio de configuración C, para el intervalo
t ∈ [t1 , t2 ]
con las trayectorias posibles del sistema (al menos para cierto intervalo al
rededor de t0 ).
12
Capítulo 2
Mecánica Lagrangiana
2.1.
Trayectorias de luz
La dinámica de un sistema mecánico se describe usualmente a través
de ecuaciones de movimiento dinámicas y las correspondientes condiciones
iniciales, tal como vimos en el capítulo anterior. Existe, sin embargo, otro
modo de describir trayectorias, y es el que usualmente utilizamos al describir
rayos de luz, que satisfacen el principio de Fermat. Este dice que la luz
siempre escoge, entre todos los caminos posibles entre dos puntos, aquel
que minimiza el tiempo que demorará en recorrerlo. Es claro entonces que,
en el vacío, la luz se moverá siempre en líneas rectas (por definición, la más
corta entre dos puntos). Pero veamos dos ejemplos más. Primero, considere
un espejo y dos puntos a la misma distancia d de éste, A y B, como en la
figura 2.1. El espejo esta sobre el eje x, y los puntos A y B tienen coordenadas
B
A
d
q1
0
x
q2
L
1
Figura 2.1:
(0, d) y (L, d) respectivamente (la acción ocurre en el plano (x, y), por lo que
ignoramos la tercera coordenada). Evidentemente, la línea recta que une
a los dos puntos es la más corta, pero no es del todo claro cuál será la
13
trayectoria minimal si exigimos que el rayo rebote en el espejo. Si el rayo
rebota en un punto del espejo de coordenada (x, 0) entonces el largo de la
trayectoria I será,
p
√
I(x) = x 2 + d2 + (L − x)2 + d2 .
(2.1)
Encontrar el punto de rebote que minimiza I implica encontrar x tal que
∂I
= 0.
∂x
Esto es,
(2.2)
x
(L − x)
−√
+p
= 0,
x 2 + d2
(L − x)2 + d2
o bien, lo que es lo mismo,
cos θ1 = cos θ2
Esto significa que el camino más corto es tal que θ1 = θ2 , o x = L/2.
Precisamente la ley de reflexión que conocemos. Note que en este caso, a
diferencia de lo que ocurre en mecánica, el problema que estamos analizando
no tiene una solución única. Tiene dos, razón por la cual si A es nuestro ojo,
y B una ampolleta, veremos dos ampolletas, una mirando directamente y la
otra en x = L/2 en el espejo. A pesar de que la naturaleza del problema
es distinto, la forma en que está planteado resulta físicamente bastante más
natural. Fijamos dos puntos en el espacio y nos preguntamos cual es la
trayectoria que minimiza el tiempo en que la luz la recorre. Es una forma
más intuitiva e independiente de coordenadas, y una, como veremos, muy
útil. Por esto intentaremos replicarla para las trayectorias en el espacio de
configuración de la mecánica clásica.
Con esto en mente, analicemos un caso más general en torno al principio
de Fermat. Considere nuevamente dos puntos A, B en el plano, y suponga
que éste está lleno de cierto material dieléctrico con índice de refracción
n(x, y). La velocidad de la luz en el punto (x, y) será por lo tanto c/n(x, y),en
donde c es la velocidad de la luz en el vacío. Considere ahora una trayectoria
arbitraria y(x) tal que sus extremos están fijos en A y B, esto es,
y(xA ) = y(xB ) = 0.
(2.3)
En la figura 2.2 mostramos tres de estas posibles curvas. El tiempo T que
demora la luz en recorrer la curva es
Z
p
1 xB
dx n(x, y(x)) y0 (x)2 + 1.
(2.4)
T [y(x)] =
c xA
14
y
B
A
Figura 2.2:
Vale la pena detenerse un momento en el objeto T [y(x)]. Ésta no es una
función del tipo que usualmente nos encontramos. De allí el uso de paréntesis
cuadrados. Esta clase de funciones son llamadas funcionales, ya que no
depende de un número finito de variables, sino que de una función, y(x)
en este caso. Los funcionales son funciones cuyo dominio es un espacio de
funciones, en este caso
F : H −→ R
en donde H es el espacio de funciones continuas y(x) con x ∈ [xA , xB ] y los
extremos fijos según (2.3). El espacio H es de dimensión infinita. Un modo
intuitivo y útil de verlo es comparando el funcional F [y(x)] con una función
de varias variables f (x a ). En este caso, la función de pende de un conjunto
de coordenadas x a , en que a = 1 . . . N es un índice discreto. EL funcional
generaliza este índice, haciéndolo continuo. Podemos pensar en la función
y(x) como un conjunto de coordenadas etiquetadas por un índice continuo,
x.
Para calcular el mínimo de una función varias variable simplemente buscamos puntos en donde sus derivadas parciales respecto de todas las variables se anulan. Cuando tenemos un conjunto continuo de variables, minimizar
un funcional como (2.4) es una tarea un poco más compleja. Es lo que estudiaremos en la próxima sección.
2.2.
Cálculo de variaciones
Cuando tenemos una función de una variable I(x), como en el caso del
ejemplo anterior, sabemos que si tiene un mínimo (o un máximo), en ese punto
se satisface (2.2). Otra forma de decirlo, es que si estamos en un extremo de
15
I, digamos x0 , entonces cualquier pequeño desplazamiento desde ese punto,
dx, implicará variaciones en I nulas a primer órden,
∂I dI = I(x0 + dx) − I(x0 ) =
dx + O(dx 2 ).
(2.5)
∂x x0
En el límite cuando dx → 0 el primero los términos O(dx 2 ) se pueden despreciar y obtenemos la definición de derivada (2.2). En física es muchas veces
útil trabajar con ïnfinitesimalesçomo dx o dI, y será el modo en que introduciremos la derivada funcional más abajo. Existen muchos textos sobre cálculo
de variaciones en donde los interesados podrán encontrar derivaciones matemáticamente formales.
Veamos ahora una función de varias variables f (x a ). Si variamos infinitesimalmente cada coordenada, x a → x a + dx a , la función variará (siempre a
primer órden en las variaciones),
df =
∂f
dx a .
a
∂x
(2.6)
En un punto extremo, x0 , mínimo o máximo, esta variación se anula, df = 0.
Pero esto debe ser cierto para variaciones infinitesimales arbitrarias dx a ,
por lo tanto
∂f = 0.
(2.7)
∂x a x0
Es decir, todas las derivadas parciales en x0 se anulan si este punto es
extremo.
Estudiemos ahora, de manera análoga, el funcional T [y(x)] definido en
(2.4). Supongamos que hacemos una variación infinitesimal δy(x) de la función y(x). La convención universal es utilizar el símbolo δ cuando consideramos variaciones de funciones. Procederemos igual que cuando variamos
coordenadas finitas dx a , salvo porque ahora el índice a se transformo en el
índice continuo x. Y al igual como
dx a = x¯a − x a
cuando x¯ se acerca arbitrariamente a x,
¯ (x) − y(x),
δy(x) = y
(2.8)
¯ (x) se acerca arbitrariamente a y(x). De igual modo, tracuando la función y
taremos δy(x) como una cantidad infinitesimal, despreciando sus potencias
16
cuadráticas y mayores. La expresión análoga a (2.6) es una suma sobre un
índice continuo, es decir una integral,
Z
δT
δT [y] = dx
δy(x).
(2.9)
δy(x)
El objeto δT /δy(x) que aparece en esta expresión, es la generalización a
índices continuos de la derivada parcial. Se llama derivada funcional, y por
supuesto, deberá anularse en los extremos del funcional T .
En el presente caso el funcional T en (2.4) es de la forma,
Z xB
dx L y(x), y0 (x), x .
(2.10)
T =
xA
Obviamente, no todo funcional puede escribirse de esta manera. En primer
término, la función L podría depender de derivadas de orden mayor. También
podría incluir varias integrales. La forma (2.10) será, sin embargo, suficientemente general para nuestros propósitos. Hagamos una variación infinitesimal
de ella,
Z xB
∂L 0 ∂L
δy +
δy .
(2.11)
δT =
dx
∂y0
∂y
xA
Note ahora que, usando (2.8)
¯ 0 (x) − y0 (x) = (δy)0 ,
δy0 = δy(x) = y
es decir la derivada d/dx la variación δ conmutan, de modo que,
Z xB
d
d
∂L
∂L
∂L
δT =
dx
δy −
δy .
δy +
dx ∂y0
dx ∂y0
∂y
xA
(2.12)
Por lo tanto,
x
Z xB
∂L B
d
∂L
∂L
δT =
δy +
dx −
δy.
+
∂y0 xA
dx ∂y0
∂y
xA
(2.13)
Finalmente, note que el primer término es cero, ya que estamos demandando
que las variaciones en los extremos se anulen, δy(xA ) = δy(xB ) = 0, luego,
Z xB
d
∂L
∂L
δT =
+
dx −
δy.
(2.14)
dx ∂y0
∂y
xA
Comparando con (2.9), tenemos que la derivada funcional
δT
d
∂L
∂L
=−
+
.
0
δy(x)
dx ∂y
∂y
17
(2.15)
En el caso discreto, las variaciones dx a eran independientes, por lo que la
única forma de asegurar (2.6) era que la derivada parcial respecto de cada
coordenada x a se anulara. Del mismo modo, en esta caso, las variaciones
δy(x) son independientes en cada punto x, por lo que la única forma en que
δT se puede anular para variaciones arbitrarias es que la expresión (2.15)
se anule. En un extremo, por lo tanto,
∂L
∂L
d
+
=0.
(2.16)
−
0
dx ∂y
∂y
Estas ecuaciones se llaman de Euler-Lagrange.
2.3.
Espejismos
Calculemos las ecuaciones de Euler-Lagrange para el funcional T (y) en
(2.4).
∂L
1 p 02
∂n
=
y +1
∂y
c
∂y
0
∂L
n
y
p
.
=
0
∂y
c y02 + 1
Las ecuación de la trayectoria de la luz es, por lo tanto,
!
p
d
y0
∂n
02
np
− y +1
= 0.
dx
∂y
y02 + 1
(2.17)
Evidentemente, si n es una constante, la solución es fácil. Simplemente
y0 =constante. Esto implica que para índice de refracción homogéneo la
luz seguir’a l’ineas rectas. En el caso de la figura 2.2, en la que utilizamos
las condiciones (2.3) en los extremos, tendremos simplemente y(x) = 0.
Supongamos ahora que n varía solo con la altura y, n = n(y). En ese
caso, la ecuación (2.17) se simplifica bastante,
y00 =
1 ∂n
1 + y02 .
n ∂y
(2.18)
Note que cuando el índice de refracción aumenta con la altura, entonces el
lado derecho de (2.18) es siempre positivo, y la función y(x) es convexa,
y00 (x) > 0.
18
Esto explica los espejismos que vemos en el pavimento en calurosos días de
verano. El sol calienta el cemento, provocando un gradiente de temperatura
en el aire cercano al suelo, mientras más cercano, más caliente. La densidad
del aire disminuye con la temperatura, y de este modo, el índice de refracción.
De este modo, en una región cercana al suelo, n(y) diminuye aumenta con la
altura, por lo que los rayos de luz seguirán curvas convexas en esa región.
La figura muestra cómo este hecho nos hace ver los reflejos que vemos en
el suelo, y que nos dan la impresión que hubiese agua allí derramada.
Figura 2.3: Los rayos de luz se curvan de modo convexo en un sistema cuyo
índice de refracción aumenta con la altura y. Por lo tanto, los rayos que
llegan a los ojos del personaje de la figura desde el automóvil deben seguir
un camino cuya forma es cualitativamente como la mostrada. El hombre,
verá, por lo tanto, la imagen del automóvil especularmente reflejada como se
muestra.
Ejercicio 2.1
Suponga que el índice de refracción viene dado por
n = eλy .
Calcule las trayectorias de los rays de luz. Dibuje la curva entre ciertos
puntos A y B en (−d, l) y (d, l) respectivamente.
Ejercicio 2.2
Diseñe un funcional que mida el tiempo de viaje de un haz de luz en tres
dimensiones. Suponga que pedimos que estas curvas conecten dos puntos
19
A y B fijos. Encuentre las ecuaciones que se obtienen al extremisar este
funcional.
2.4.
El lagrangiano
El principio de Fermat es un modo particularmente sintético y elegante
para enunciar las leyes dinámicas en el caso de la luz. Además, es inherentemente independiente de coordenadas espaciales (aunque sigue requiriendo
que tengamos un acuerdo respecto de un tiempo universal Newtoniano). La
pregunta es evidente. ¿Es posible formular la dinámica de Newton en términos de un principio análogo?
Lo primera distinción que observamos, es que cuando minimizamos la
duración de una trayectoria de luz, usualmente fijamos la posición de sus
extremos. En mecánica, sin embargo, es más usual fijar parámetros (posición
y velocidad en este caso) solo en uno de sus extremos. Esto hace más complejo imaginar la analogía. Sin embargo este obstáculo es fácil de sortear. Un
sistema de N ecuaciones diferenciales ordinarias de segundo orden, para N
coordenadas en el espacio de configuración, se pueden integrar también si
en lugar de fijar posiciones y velocidades en un extremo, fijamos la posición
en ambos. Después de todo, lo único que requieren las ecuaciones es de 2N
constantes de integración1 .
Seamos ahora más precisos. Consideremos una partícula de masa m que
se mueve en una dimensión espacial y que describimos con una coordenada
x(t). Suponga que se ejerce una fuerza sobre la partícula proveniente de un
potencial V (x), de modo que
dV
.
(2.19)
dx
Supongamos que requerimos que la partícula esté en x1 en t1 , y en x2 en t2 .
En este caso, efectivamente, es posible definir un funcional cuya minimización
dé origen a al trayectoria,
Z t2
I[x(t)] =
dtL(x, x˙, t).
(2.20)
m¨
x=−
t1
1
En realidad el fijar coordenadas en ambos extremos podría dar lugar a casos en que la
solución no exista, a diferencia del caso estándar, en donde siempre existe una solución, al
menos en una vecindad del instante inicial. ¿Puede imaginar algún caso en que la solución
no exista al fijar la posición en los extremos?
20
En que
1 2
L(x, x˙, t) = m˙
x − V (x) .
(2.21)
2
El funcional I se denomina la acción del sistema, y el integrando L el Lagrangiano. Antes de hacer la variación de la acción para mostrar que, efectivamente, dan origen a las ecuaciones de Newton (2.19), algunas observaciones:
El funcional (2.20) tiene la misma forma de (2.10), salvo por cambios en
los nombres de las cantidades. Si en uno la variable de integración era
x, ahora es t. Si la trayectoria era parametrizada por y(x), la altura en
cada posición espacial, ahora es por x(t), la posición en cada tiempo.
Matemáticamente es exactamente lo mismo, por lo que al variar la
acción, obtendremos las mismas ecuaciones de Euler Lagrange (2.16),
con las sustituciones apropiadas:
∂L
d ∂L
=0.
(2.22)
+
−
dt ∂˙
x
∂x
El Lagrangiano (2.23) es precisamente la diferencia entre la energía
cinética y la energía potencial de la partícula.
Es evidente que al sustituir este lagrangiano en las ecuaciones (2.22) obtendremos las ecuaciones de Newton (2.19).
La generalización de esto a dimensiones mayores es directo. En 3D, el
lagrangiano de una partícula en un potencial es
1
x) .
L(~
x , x~˙, t) = mx~˙2 − V (~
2
(2.23)
En efecto, consideremos todas las trayectorias que comienzan en t1 en x~1 y
terminan en t2 en x~2 .
Z t2 ∂L i ∂L i
dt
δ x˙ + i δx .
δI =
(2.24)
∂˙
xi
∂x
t1
Así,
t
Z t2 ∂L i 2
d ∂L
∂L i
i
δx +
dt −
δx + i δx .
δI =
∂˙
xi
dt ∂˙
xi
∂x
t1
t1
(2.25)
Las variaciones son nulas en los extremos, y por lo tanto, para que esto se
anule para variaciones arbitrarias δx i ,
d ∂L
∂L
+ i = 0,
(2.26)
−
i
dt ∂˙
x
∂x
21
en este caso,
~ .
mx~¨ = −∇V
(2.27)
Hay dos arbitrariedades inmediatas que observamos al construir nuestro
principios de acción. La primera es que podemos sumar al lagrangiano una la
derivada temporal de una función arbitraria de las coordenadas y el tiempo,
h(x, t),
d
(2.28)
L −→ L + h.
dt
Este termino al ser integrado da origen a términos que solo son funciones
de x i (t1 ) y x i (t2 ). Pero estas cantidades se mantienen fijas en la variación
de la acción por lo que no contribuyen. La segunda es la multiplicación del
lagrangiano por una constante arbitraria.
Terminemos esta sección con una pregunta.¿Cómo sabemos que el extremo que calculamos es un mínimo y no es un máximo?. Bueno, en realidad
no necesariamente será un mínimo. En ocasiones será un punto de ensilladura. De lo que sí podemos estar seguros, es que no puede ser un máximo,
ya que, si la masa es positiva, (2.23) entre dos puntos fijos puede ser tán
grande como queramos. Basta buscar una trayectoria que oscile muy rápido, pero con una amplitud pequeña respecto de otra dada. Las oscilaciones
harán que la energía cinética sea tan grande como queramos, mientras el
término con el potencial no varíe mucho por lo pequeñas de las amplitudes.
Ejercicio 2.3
Muestre que la acción tiene unidades de momentum angular.
Ejercicio 2.4
Considere una acción cuyo lagrangiano depende de las segundas derivadas de x,
L ≡ L(x, x˙, x¨, t).
Encuentre las ecuaciones de movimiento provenientes de extremizarla. ¿Qué
cantidades debe mantener fijas en los extremos para que el mínimo de la
acción exista? ¿de qué orden son las ecuaciones de movimiento que obtuvo?
¿En qué caso serán de segundo orden?
Ejercicio 2.5
22
Muestre explícitamente que la transformación (2.28) lleva a un lagrangiano que da origen a las mismas ecuaciones de movimiento. Note que si la
función h dependiera también de las primeras derivadas,
h ≡ h(x, x˙, t),
entonces las ecuaciones de movimiento también serán las mismas. En este
caso, sin embargo, la variación impondrá condiciones distintas a las discutidas en el texto en los extremos. Considere ahora el lagrangiano de la
partícula libre, y sumándole una derivada total, construya aquel apropiado
para fijar las velocidades en los extremos.
2.5.
Lagrangiano para sistemas de muchas partículas
Considere dos partículas, x~1 , x~2 que se mueven en los potenciales externos
V1 y V2 respectivamente. Si ambas están muy lejos una de la otra, entonces
es fácil comprobar que el lagrangiano
L(~
x1 , x~˙1 , x~2 , x~˙2 ) = L1 (~
x1 , x~˙1 ) + L2 (~
x2 , x~˙2 )
(2.29)
con L1 y L2 dados por (2.23), da cuenta de la física del sistema. Tal como
discutimos en el capítulo anterior, podemos multiplicar cada uno de los dos
lagrangianos en la suma por constantes y las ecuaciones seguirán siendo
correctas. Sin embargo, esto deja de ser cierto cuando agregamos un acoplamiento, esto es, cuando aproximamos las partículas de modo que exista
una fuerza que ellas mutuamente se ejerzan
Lac (~
x1 , x~˙1 , x~2 , x~˙2 ) = L1 (~
x1 , x~˙1 ) + L2 (~
x2 , x~˙2 ) − Vac (~
x1 , x~2 ).
(2.30)
En este caso es evidente que la multiplicación de uno de los lagrangianos
por una constante modificará las ecuaciones. Es por esto que mantendremos
siempre la normalización del lagrangiano de una partícula tal como en la
ecuación (2.23). Para un sistema de partículas,
L = K − U,
en que K es la energía cinética total,
X1
mi x~˙i
K =
2
23
(2.31)
y U la energía potencial total. Este último tiene contribuciones de fuerzas
externas, y que por lo tanto dependen de las coordenadas de cada partícula,
y contribuciones de fuerzas internas, fuerzas que ejercen una sobre las otras.
En un sistema cerrado, esto es, en ausencia de fuerzas externas,
U=
1X
Vij (~
xi − x~j ),
2 i,j
(2.32)
en que Vij = Vji y Vii = 0. Un ejemplo de esto es la gravedad, en que
grav
Vij
=−
mi mj G
|~
xi − x~j |
Note que en estos casos se satisface la ley de acción y reacción de Newton,
ya que
~ i Vij = −∇
~ j Vij
∇
(2.33)
2.6.
Lagrangiano y coordenadas generalizadas
Una de las virtudes de la formulación lagrangiana es que el cambio de
coordenadas en el lagrangiano es mucho más sencillo que directamente
en las ecuaciones. Veamos un ejemplo. Considere un péndulo esférico, esto
es, una partícula de masa m que se mueve en una esfera de radio r bajo
la influencia de la gravedad. El cuadrado de la velocidad en coordenadas
esféricas es
˙ 2,
v~˙2 = l2 θ˙ 2 + l2 sin2 θ φ
en que l es el largo del péndulo. El potencial,
V = −mgl cos θ.
Así el lagrangiano es,
L=
m 2 ˙2
˙ 2 + mgl cos θ.
l θ + l2 sin2 θ φ
2
(2.34)
Las ecuaciones de Euler-Lagrange para las coordenadas generalizada θ y
φ son, respectivamente,
˙ 2 + mgl sin θ = 0
ml2 θ¨ − ml2 sin θ cos θ φ
d
˙ = 0.
ml2 (sin2 θ φ)
dt
24
(2.35)
(2.36)
El uso de coordenadas generalizadas nos sugiere romper amarras, y considerar sistemas dinámicos cuyo lagrangiano
˙ a , t),
L ≡ L(qa , q
a = 1 . . . N,
(2.37)
dependa de N coordenadas generalizadas que incluso no tengan la forma
K − U de los sistemas de partículas de mecánica Newtoniana. Más adelante veremos ejemplos como el de la mecánica relativista, en que en efecto,
esto deja de ser cierto. La esencia de la mecánica lagrangiana está en la
existencia de un espacio de configuración descrito por coordenadas qa y un
funcional de acción definido como la integral en el tiempo, entre t1 y t2 del
lagrangiano (2.37),
Z
I=
t2
t1
˙ a , t).
dtL(qa , q
(2.38)
El extremo de éste, cuando consideramos trayectorias cuyos extremos están
fijos, qa (t1 ) = qa1 , qa (t2 ) = qa2 se obtiene exigiendo que sea estacionario,
Z t2 ∂L
∂L
d
+ a δqa (t).
(2.39)
0 = δI =
dt −
a
dt
∂˙
q
∂q
t1
Para variaciones arbitrarias δqa esto implica que la curva satisface las ecuaciones de Euler-Lagrange,
d
∂L
∂L
−
= 0.
(2.40)
+
dt ∂˙
qa
∂qa
2.7.
Lagrangiano y vínculos
En ocasiones, la eliminación de vínculos para la identificación de coordenadas generalizadas puede no ser tan directa. En esos casos podemos utilizar el método de los multiplicadores de Lagrange para trabajar con vínculos
holonómicos como los de la ecuación (1.25). En presencia de vínculos, las
variaciones δqa (t) no son arbitrarias, ya que están restringidos por los M
vínculos,
ΦA (qa , t) = 0.
(2.41)
Una forma de salir del paso, es extender el espacio de configuración añadiendo M nuevas coordenadas, λA , y definiendo un nuevo lagrangiano,
˙ a , t) + λA ΦA (qa , t).
˙ a , λA , t) = L(qa , q
L0 (qa , q
(2.42)
Este nuevo principio de acción no tiene vínculos, pero debemos variar la
acción respecto de las N + M coordenadas. Al variar respecto de los λa no
25
surgen términos de borde, ya quel lagrangiano no depende de λ˙A , y por lo
tanto no nos exige fijar estas coordenadas en los extremos. Es directo comprobar que las ecuaciones de Euler-Lagrnage en este caso son precisamente
los vínculos (2.41). Al variar con respecto a las coordenadas qa obtenemos,
en términos del antiguo lagrangiano L,
∂L
∂L
∂ΦA
d
+ a + λA a = 0.
(2.43)
−
a
dt ∂˙
q
∂q
∂q
EL término extra que aquí aparece corresponde a la tensión, esto es, la fuerza
extra requerida para mantener los vínculos. Veamos el mismo ejemplo de la
sección anterior, el péndulo esférico, pero utilizando las tres coordenadas
espaciales más un vínculo,
Φ(r) = r − l = 0.
El lagrnagiano es,
m 2
˙ 2 + mgr cos θ + λ(r − l)
˙r + r 2 θ˙ 2 + r 2 sin2 θ φ
L=
2
(2.44)
Las ecuaciones correspondientes a las coordenadas θ y φ son idénticas
luego de utilizar el vínculo para reemplazar r por l. Ahora, sin embargo,
tenemos una ecuación extra, aquella que se obtiene variando respecto de la
coordenada r,
˙ 2 + λ,
m¨r = mr θ˙ 2 + r sin2 θ φ
(2.45)
la que, al reemplazar r = l nos permite encontrar λ,
˙ 2.
λ = mlθ˙ 2 + l sin2 θ φ
Esta ecuación nos muestra que lambda es, efectivamente, la fuerza normal
que la esfera debe aplicar sobre la partícula.
2.8.
Momentum y energía
Definimos el momentum pa asociado a la coordenada qa , como
pa =
∂L
.
∂˙
qa
(2.46)
En términos del momentum, las ecuaciones de Euler-Lagrange (2.40) toman
la forma,
∂L
˙a =
.
(2.47)
p
∂qa
26
~ = m~˙x,
Es evidente que en el caso del lagrangiano de una partícula (2.23), p
como es de esperar. En ese caso, el término de la derecha de la ecuación
~ , por lo que obtenemos las ecuaciones de New(2.47) es precisamente −∇V
ton para una fuerza conservativa. La definición en este caso, sin embargo, es
para coordenadas generalizadas y para cualquier tipo de lagrangiano. Para
el péndulo esférico de (2.44), por ejemplo,
˙
pφ = mr 2 sin2 θ φ.
(2.48)
Ejercicio 2.6
Verifique que el momentum pφ asociado a la coordenada φ de las coordenadas esféricas es precisamente el componente z del momentum angular
de la partícula.
El hecho que el lagrangiano del péndulo esférico no depende explícitamente de la coordenada φ, implica, de acuerdo a (2.47) que el componente z
del momentum angular de la partícula, pφ se conserva. Esto es una resultado
general. Si el lagrangiano no depende explícitamente de una coordenada, el
momentum asociado se conserva. Veamos otro ejemplo. Considere un conjunto
de N partículas que interactúan entre ellas, sin fuerzas externas involucradas, a través de un potencial de la forma (2.32) en coordenadas cartesianas.
Definamos el centro de masas,
1 X
~C M =
mi x~i ,
(2.49)
q
M i
en que M es la masa total,
M=
X
mi .
(2.50)
i
Hagamos un cambio de coordenadas a un nuevo conjunto
~ i = x~i − q
~C M ,
q
(2.51)
que define las coordenadas (cartesianas) respecto del origen en el centro de
masas. Note que las nuevas coordenadas no son independientes, ya que
X
X
X
~i =
~C M ) =
~ C M = 0.
mi q
mi (~
xi − q
mi x~i − M q
(2.52)
i
i
i
27
~ i no constituyen, por lo tanto, un conjunto de coordenaLas coordenadas q
das generalizadas de nuestro espacio de configuración. Para un descripción
~ C M }, suplementado
completa, por lo tanto, podemos utilizar el conjunto {~
qi , q
con el vínculo
X
~ i = 0.
mi q
(2.53)
i
El lagrangiano del sistema es, por lo tanto
L =
X
1 X ˙ 2 1 ˙2
~C M + q
~˙ C M ·
~˙ i +
~i + M q
mi q
mi q
2 i
2
i
X
X
~·
~j ) + λ
~ i.
−
Vij (~
qi − q
mi q
i>j
(2.54)
i
Al variar respecto de λ obtenemos el vínculo (2.53). AL variar respecto de las
coordenadas del centro de masa obtenemos
X
~˙ i = 0.
~¨ C M −
−M q
mi q
i
El segundo término de esta se anula al usar el vínculo, lo que nos muestra
que el centro de masa se mueve a velocidad constante. Otro modo de ver lo
~C M ,
mismo es notar que nuestro lagrangiano no depende de la coordenada q
~
por lo que el momentum asociado, pC M , debe ser conservado. En este caso,
luego de utilizar el vínculo,
~C M = M q
~˙ .
p
(2.55)
~ i obtenemos, teniendo en cuenta
Al variar respecto de una coordenada q
(2.53),
X
~ = 0.
~ i Vij + mi λ
~¨ i −
∇
(2.56)
−mi q
j
Esta ecuación puede parecer extraña por el tercer término que incluye el
multiplicador de Lagrange. Sin embargo, podemos comprobar rápidamente
que λ = 0. Basta sumar la ecuación sobre el índice i. La primera suma se
anula en virtud de (2.53), la segunda en virtud de la tercera ley de Newton
~ = 0, lo que demuestra nuestra afirmación.
(2.33). Nos queda que M λ
Otra cantidad muchas veces conservada, y central en los sistemas dinámicos es la energía. En la formulación lagrangiana la energía viene dada
por
∂L a
˙) =
˙ − L = pa q
˙ a − L.
E(q, q
q
(2.57)
∂˙
qa
28
Si el lagrangiano no depende explícitamente del tiempo, entonces la energía será una cantidad conservada en las trayectorias clásicas, esto es, en
aquellas que satisfacen las ecuaciones de Euler-Lagrange. En efecto,
dE
d
∂L
∂L
∂L a
∂L a ∂L
˙a + a q
¨ − aq
¨ − .
=
− a q
a
dt
dt ∂˙
q
∂q
∂˙
q
∂˙
q
∂t
Las ecuaciones de Euler-Lagrange implican que el primer término es nulo.
El tercero y cuarto se cancelan trivialmente. El último es cero porque dijimos
que el lagrangiano no dependía explícitamente del tiempo. Por lo tanto,
dE
= 0.
dt
(2.58)
Ejercicio 2.7
Muestre que para un sistema de partículas la energía viene dada por
E = K + U.
2.9.
Principio de Maupertuis
Un ingrediente básico, que debemos siempre tener en cuenta cuando extremizamos un funcional, es la condición que imponemos en los extremos. En
nuestro caso, las variaciones se hacen con los extremos de las trayectorias
fijos, δqa (t1 ) = δqa (t2 ) = 0. En ocasiones, sien embargo, podemos diseñar
funcionales apropiados para otras condiciones en los extremos, tal como vimos en el ejercicio . Allí vimos como la acción adecuada para fijar qa en los
˙a
extremos difería por un término de borde de aquella apropiada para fijar q
en los extremos. Aquí veremos un tercer principio variacional, el principio de
Maupertuis que en ocaciones es útil. Es menos general que el principio de
mínima acción, ya que solo es aplicable a sistemas que conservan energía,
esto es, cuando L no depende explícitamente del tiempo. Históricamente, es
el principio de Maupertuis el que realmente se denomina "de mínima acción",
y el que vimos antes se llama "principio de Hamilton". Seguiremos usando
29
el término mínima acción para ambos, ya que es una costumbre generalizada. Note hasta ahora, los tiempos inicial y final, t1 y t2 siempre se han
mantenido fijos en las variaciones de la acción. El principio de Maupertuis
propone un funcional que no fija esos tiempo. En su lugar, solo fija los puntos
˙ ) en todo punto de la trayectoria.
final e inicial qa1 y qa2 , y la energía E(q, q
Evidentemente, esto significa que la trayectoria que seleccionaremos tendrá
˙ ) constante, cosa que solo es consistente si esta se conserva.
energía E(q, q
Consideremos un principio de acción proveniente de una lagrangiano
a
˙ a ), y hagamos variaciones sin suponer que nada está fijo. Obviamente
L(q , q
si nada está fijo, difícilmente el funcional tenga un extremo. Más adelante
veremos como fijamos la energía y las posiciones tal como lo anunciamos.
t2 Z t2
∂L
a (EEL)a δqa ,
(2.59)
δI = Lδt + a δq +
∂˙
q
t1
t1
en que (EEL)a es el lado izquierdo de las ecuaciones de Euler-Lagrange
(2.40).
Debemos ser cuidadosos aquí con el significado de las variaciones. Si
¯ a (t) es la trayectoria que obtenemos al variar infinitesimalmente qa (t),
q
¯ a (t) − qa (t).
δqa = q
Note que la diferencia en la posición de la posición inicial entre ambas
curvas no es δq(t1 ), sino que
¯ a (t1 + δt1 ) − qa (t1 ) = q
˙ a (t1 )δt1 + δqa (t1 ),
δ ∗ q1 = q
y una expresión análoga para la diferencia en la posición final δ ∗ q2 . Reemplazando en (2.59),
t
Z t2
∂L ∗ a 2
(EEL)a δqa ,
(2.60)
δI = −Eδt + a δ q +
∂˙
q
t1
t1
en donde E es la energía (2.57). Es claro que si mantenemos fija la energía
las variaciones de I no podrán tener un mínimo cuando se satisfacen las
ecuaciones de movimiento. Podemos sin embargo definir
Im = I + E(t2 − t1 ).
(2.61)
Si variamos Im manteniendo fijo E y δ ∗ qa , entonces la variación del término
extra se cancela con el primer término de (2.62), y
Z t2
δIm =
(EEL)a δqa ,
(2.62)
t1
30
que es cero, cuando se satisfacen las ecuaciones de Euler-Lagrange, tal como
queríamos. La variación se ha hecho ahora sobre trayectorias que tienen
fija la energía y la posición de sus extremos, pero no los tiempos en que
comienzan y terminan. Terminemos esta sección mirando con un poco más
de detalle la forma de Im . Ya que el principio esta construido para trayectorias
con energía constante,
Z t2
Z t2
˙ a dt
Im = I + E(t2 − t1 ) =
dt(L + E) =
pa q
(2.63)
t1
t1
En que para la última igualdad se usó la relación (2.57). Esto se puede
escribir como una integral de línea espacial,
Z q2
Im =
pa dqa .
(2.64)
q1
Esta es la forma final de la acción que queremos minimizar, con qa1 , qa2 y E
fijos.
31
Capítulo 3
Transformaciones de coordenadas
y teoría grupos
3.1.
Revisitando el Álgebra lineal y los tensores
Las próximas secciones asumen que el lector ya conoce el álgebra lineal,
y es solo una revisión de algunos de sus aspectos fundamentales y una forma
de definir la notación que utilizamos en el texto.
3.1.1.
Espacio Vectorial
Un espacio vectorial V es tal que si v1 , v2 ∈ V y α ∈ R, entonces v1 + αv2
también está en V . Aquí solo consideramos espacios vectoriales sobre los
reales, que es lo que necesitaremos.
Decimos que un conjunto de vectores ui es linealmente independiente si
no existen parámetros reales λi tales que
λi ui = 0 ,
Un espacio vectorial de dimensión finita tiene una base, esto significa,
un conjunto ei , i = 1 . . . N de vectores linealmente independientes tales que
cualquier otro v ∈ V se escribe, en forma única
v = v i ei ,
(3.1)
en que los coeficientes v i son reales. Los llamamos las componentes de v en
la base ei . Note
32
3.1.2.
Espacios duales
Dado un espacio vectorial V definimos el espacio dual V ∗ como el espacio
de funciones lineales entre V y los números reales. Esto es, la función w ∈
V ∗ , es tal que w(v) ∈ R para todo v ∈ V . Además, si v1 , v2 ∈ V y α ∈ R,
w(v1 + αv2 ) = w(v1 ) + αw(v2 ).
El espacio dual V ∗ es un espacio vectorial que tiene la misma dimensión
que el espacio vectorial V . Para mostrar esto basta construir la base dual
ei asociada a la base ei de V definiendo su acción,
ei (ej ) = δji .
(3.2)
Para ver que es una base tome un elemento cualquiera w en V ∗ y defina
wi = w(ei ).
Es ahora evidente que podemos escribir w como
w = wi ei ,
lo que muestra que los ei son una base de V ∗
3.1.3.
Cambios de base
Si Mji es una matriz invertible, y ei es una base de V entonces
e
¯j = M i j ei
(3.3)
también lo es. Un vector v se puede escribir respecto de cualquiera de estas
bases,
j
v = v i ei = v¯i e
¯i = v¯i M i ej .
De aquí vemos que los componentes v i en la base ei , se relacionan con los
componentes v¯i en la base ei según,
j
v¯i M i = v j ,
o, lo que es lo mismo,
v¯i = (M −1 )i j v j ,
(3.4)
Un cambio de base en el espacio vectorial V induce otro en V ∗ . La base dual
de e
¯i es
e
¯i = (M −1 )i j ej .
(3.5)
33
En efecto,
e
¯i (¯
ej ) = (M −1 )i k ek (M l j el ) = (M −1 )i k M l j ek (el ) =
= (M −1 )i k M l j δlk = (M −1 )i k M kj = δji .
De (3.5), obtenemos que las componentes wi de un elemento w = wi ei del
espacio V ∗ transforman de acuerdo a
j
¯ i = M i wj
w
(3.6)
En la definición de un espacio vectorial hemos usado subíndices para etiquetar la base del espacio vectorial, y supraíndices para la base de su espacio
dual. A su vez, los componentes de un vector tienen un supraíndice y los
de un elemento del espacio dual subíndices. Así, en las sumas sobre índices
repetidos (notación de Einstein) siempre uno de ellos esta “arriba” y otro
“abajo". Así, por ejemplo, el número real que obtenemos al aplicar w ∈ V ∗
sobre v ∈ V es
w(v) = wi ei (v j ej ) = wi v j ei (ej ) = wi v j ei (ej ) = wi v j δji = wi v i .
(3.7)
Evidentemente, este número es invariante bajo cambio de base, ya que es
independiente de bases. Pero para ejercitarnos con la mecánica de índices
lo mostrarmos explícitamente,
j
j
¯ i v¯i = M i wj (M −1 )i k v k = δk wj v k = wj v j .
w
En física, muchas veces hablaremos de un vector v i . Esto es estrictamente
incorrecto, ya que los v i son las componentes del vector. Es, sin embargo,
un abuso de notación que nos ahorrara algo de tinta. Cuando hablemos
de vector v i , estamos realmente refiriéndonos al vector v i ei . De igual modo
hablaremos de un elemento del espacio dual wi . La posición del índice nos
revela si se trata de un elemento de V o de V ∗ . Así por ejemplo, vi es un
elemento de V ∗ . Ya que V ∗ es también un espacio vectorial, en ocasiones
sus elementos se llaman vectores covariantes. Más aún, llamamos a cualquier
subíndice un índice covariante. En ocasiones también, los elementos de V ∗
son llamados 1−formas. A su vez, los vectores en V son llamados vectores
contravariantes, y los correspondientes supraíndices, índices contravariantes.
La característica principal que distingue a un vector contravariante de uno
covariante es el modo en que (sus componentes) transforman ante cambios
de base, como queda de manifiesto en las ecuaciones (3.4) y (3.6). Llamamos
escalares a las cantidades que son invariantes bajo cambios de base, tales
como wi v i .
34
3.1.4.
Tensores
Observe que el espacio V es el espacio dual de V ∗ . En efecto, es el
espacio de funciones lineales entre V ∗ y R. Dado un elemento w de V ∗ y un
v de V ,
v : V ∗ −→ R
w 7−→ w(v)
Es decir, v(w) = w(v). Es inmediato comprobar que las funciones así definidas
son lineales. De este modo, hemos mostrado que V ∗∗ = V . Desde el punto
de vista de componentes, la cosa es aún más evidente. El vector covariante
wi , como toda función, es un objeto que está la espera de otro. En este caso,
el otro debe tener un índice arriba, digamos v i . Juntos formarán el escalar
wi v i . Pero esta expresión escalar es simétrica, en el sentido que también
podemos interpretar que el vector v i es un objeto a la espera de otro con
el índice abajo para formar un escalar. Cuando un vector covariante y otro
contravariante producen un escalar sumando sobre sus índices, hablamos de
una contracción de índices.
Pensemos ahora en un caso un poco más general. Una función bilineal,
que tome un vector w de V ∗ y otro v de V y produzca un real,
T : V ∗ × V −→ R
(w, v) 7−→ T (w, v).
Que sea bilineal significa que es lineal en cada entrada,
T(λw1 + w2 , v1 ) = λT(w1 , v1 ) + T(w2 , v1 ),
T(w1 , λv1 + v2 ) = λT(w1 , v1 ) + T(w1 , v2 ),
para v1 , v2 ∈ V , w1 , w2 ∈ V ∗ y λ ∈ R. Por linearidad, basta conocer la acción
de T sobre una base de V y V ∗ para conocer su acción para cualquier par
(w, v) en V ∗ × V . Definamos,
T (ei , ej ) = T ij
Entonces para vectores arbitrarios w = wi ei y v = v i ei , tenemos que
T (w, v) = T ij wi v j
La función bilinear T es un (1, 1)-tensor, ya que sus componentes T ij tienen
un índice contravariante y otro covariante. Es un objeto que tiene dos posiciones disponibles para producir un real, una a la espera de las componentes
35
de un vector covariante y la otra de uno contravariante. Note que T tambien
puede verse como una función lineal entre V y V , ya que si solo llenamos la
segunda entrada, T(·, v~) nos queda una función a la espera de un elemento
de V ∗ para formar un real. Es decir, un elemento de V . Dicho en componentes, T ij v j es un vector contravariante. Por esta razón un (1, 1)-tensor es una
matriz.
El espacio de (1, 1)-tensores es también un espacio vectorial, ya que podemos sumar estas funciones o multiplicarlas por reales. Como todo espacio
vectorial debe tener una base. La base {ei } de V induce naturalmente una
base para este espacio. Estas son las funciones, ei ⊗ ej , definidas a través
de su acción sobre las bases de V ∗ y V ,
j
ei ⊗ ej (ek , el ) = ei (ek ) ej (el ) = δik δl .
(3.8)
Podemos comprobar rápidamente que
T = T ij ei ⊗ ej .
El producto ⊗ se llama producto tensorial. Es un producto ordenado, definido
por (3.8), y que podemos extender linealmente cualquier par (w, v),
w ⊗ v = wi ei ⊗ v j ej = wi v j ei ⊗ ej .
(3.9)
Si ahora cambiamos de base,
j
j
T = T ij ei ⊗ ej = T ij (M −1 )ki e
¯l = T ij (M −1 )ki M l e
¯k ⊗ M l e
¯k ⊗ e
¯l
(3.10)
de donde vemos que la ley de transformación para un (1, 1)-tensor es,
j
T¯ kl = (M −1 )ki M l T ij .
(3.11)
Esta construcción podemos generalizarla para cualquier (n, m)-tensor,
T = T i1 ...in
j1 ...jm ei1
⊗ · · · ⊗ ein ⊗ ej1 ⊗ · · · ⊗ ejm ,
Sus componentes transformarán, bajo cambio de base
j
j
T¯ k1 ...kn
= (M −1 )k1 i · · · (M −1 )kn i M 1 · · · M m T i1 ...in
l1 ...lm
n
1
l1
ln
j1 ...jm
(3.12)
Ejercicio 3.1
δji
La delta de Kronecker, es una matriz, es decir, un (1,1)-tensor. Muestre
que es un tensor invariante, es decir, sus componentes son las mismas en
cualquier base.
36
3.2.
Métricas
Una métrica es un (0, 2)-tensor simétrico. O, lo que es lo mismo, una
función bilineal y simétrica,
g : V × V −→ R
(v1 , v2 ) 7−→ g(v1 , v2 ) = g(v1 , v2 ).
Además, la métrica debe ser tal que no exista ningún vector v1 para el cual
g(v1 , v2 ) = 0 para todo v2 . En otras palabras, los componentes de la métrica,
gij = g(ei , ej )
deben tener determinante no nulo. Note que gij = gji . En estos componentes
podemos escribir,
g = gij ei ⊗ ej .
La métrica actuando sobre un par de vectores define el producto escalar, o
producto punto entre vectores,
~ = g(v, u) = gij v i uj .
v~ · u
(3.13)
La medida o norma al cuadrado de un vector se define como el producto
escalar consigo mismo,
|v|2 = gij v i v j .
(3.14)
De la sección anterior se desprende que bajo el cambio de base (3.3) las
nuevos componentes de la métrica son,
j
¯ kl = M i k M l gij .
g
(3.15)
Cuando trabajamos con objetos de dos índices, es útil en ocasiones utilizar
notación matricial. Esto nos permite operar con los arreglos de N ×N usando
el álgebra de matrices. Para esto, utilizamos algunas reglas estándar. Un
tensor de dos índices es una matriz, en el que el primer índice denota la fila
y el segundo la columna, sin importar si es covariante o contravariante. En
esta notación perderemos la información de cómo transforma este objeto, pero
eso no importa para estos efectos. La multiplicación de matrices corresponde
a la contracción de un índice de fila con otro de columna. La contracción de
dos índices de fila implica que en estamos multiplicando una matriz por la
traspuesta de la otra. Así por ejemplo, la ecuación (3.15) se puede reescribir
como,
g
¯ = MT gM.
(3.16)
37
Este tipo de expresiones son útiles para operar, pero nos hacen perder el
carácter tensorial de la expresión. Otra cosa importante que deducimos fácilmente de esta forma de escribir la ecuación, es cómo transforma la inversa
de la métrica. Invirtiendo (3.16) vemos que transforma como un (2,0)-tensor.Es
costumbre denotarlo con la misma letra, pero con los índices arriba, esto es,
gij , de modo que,
gij gjk = δki .
(3.17)
La métrica y su inversa nos permiten construir objetos covariantes a partir
de objetos contravariantes y viceversa. Por ejemplo, si v j es un vector contravariante, v j gjk es un vector contravariante. Al revés, si uj es covariante,
uj gji es contravariante. La costumbre es utilizar el mismo símbolo para un
tensor cuando uno de sus índices es “subido” o “bajado"por la acción de la
métrica o de su inversa. Así por ejemplo,
Ti
3.3.
j
k
= gjl Tilk
Ti
j
k
= glk Ti
jl
.
(3.18)
Espacios Euclídeos
Consideremos el espacio en 3D. Como sabemos, en coordenadas cartesianas, la medida de los vectores posición x i se introduce a través del producto
punto,
j
x~1 · x~2 = δij x1i x2 ,
en donde δij es la métrica Euclídea, que tiene los mismos valores de la
delta de Kronecker en estas coordenadas, esto es 0 si i 6= j y 1 si i = j.
Note que no es la delta de Kronecker ya que es un (0,2)-tensor, y al hacer
una transformación de coordenadas, los componentes de δij , a difernecia de
aquella, cambian.
Es posible mostrar que si tenemos una métrica positiva definida, esto es,
una tal que
g(v, v) ≥ 0,
(3.19)
entonces existe una base en la que toma la forma δij . La restricción (3.19) es
bastante utilizada en las definiciones de producto escalar en matemáticas.
Llamaremos espacio vectorial Euclídeo a aquel que la satisface, pero no la
exigiremos, ya que en relatividad especial, más adelante, veremos, la utilidad
de relajarla.
Ahora demostraremos esto, y de paso recordaremos como construir el
cambio de base requerido. Escribamos primero la ecuación de autovalores
de gij ,
j
j
gij v(k) = λ(k) δij v(k) .
(3.20)
38
Aquí no hay suma sobre el índice repetido k, que además hemos escrito
entre paréntesis para recalcar que no es un índice tensorial. Los autovalores
λ(k) se obtienen de la ecuación
det gij − λδij = 0,
(3.21)
la cual podemos encontrar usando (3.20). Un teorema clásico de álgebra
lineal nos dice que una métrica real simétrica, positiva definida, de N × N
tiene N autovalores λ(k) , no necesariamente todos distintos, de modo que los
N autovectores asociados vki forman una base ortonormal, esto es
j
i
gij v(k)
v(l) = δ(k)(l)
(3.22)
Reproducimos parte de la demostración en el apéndice por completitud, en
la que además generalizamos para el caso en que no todos los autovalores son positivos. Esta ecuación nos muestra cuál es la transformación que
buscamos. Considere la matriz de transformación M i k cuyas columnas son
precisasamente cada uno de los vectores v ik ,
i
M i k = v(k)
,
entonces, de (3.22),
j
M i k M l gij = δkl
(3.23)
Comparando con (3.15) vemos que la transfrmación definida por esta matriz
M i k era exactamente lo que buscábamos.
Ejercicio 3.2
Considere el espacio vectorial R3 en la base,
 
 
 
1
0
0





0
1
0 
e1 =
e2 =
e3 =
0
0
1
con la métrica,
√ 
7
−3
√2

gij =
−3
7
− 2 
√
√
2 − 2 10

Encuentre una nueva base en la cual la métrica sea la de Euclides.
39
Ejercicio 3.3
Defina el (3, 0)-tensor de Levi-Civita, ε ijk en un espacio vectorial euclideo
tridimensional, i = 1, 2, 3 de acuerdo a,

 1 si (i, j, k) = (1, 2, 3) o (2, 3, 1) o (3, 1, 2)
−1 si (i, j, k) = (1, 2, 3) o (2, 3, 1) o (3, 1, 2)
ε ijk =
(3.24)

0 otros casos.
Defina el (0, 3)-tensor de Levi-Civita εijk con los mismos valores en sus entradas que su contraparte contravariante. Muestre que,
1. εijk ε ilm = δjl δkm − δkl δjm
2. εijk ε ijm = 2δkm
~
~ y b,
3. Muestre que para dos vectores arbitrarios en tres dimensiones, a
~ i = εijk aj bk .
(~
a × b)
Utilice esto para demostrar algunas de las identidades clásicas del
producto de vectores,
~ · (~
~ = v~ · (w
~ ×u
~ ).
u
v × w)
~ × (~
~ = (~
~ v − (~
~
u
v × w)
u · w)~
u · v~)w.
~ × z~) = (~
~ v · z~) − (~
~
(~
u × v~) × (w
u · w)(~
u · z~)(~
v · w)
4. Podemos utilizar esta técnica para encontrar identidades entre operadores diferenciales. Note que,
~ i = ∂i Φ
(∇Φ)
~ = ∂i E i
~ ·E
∇
~ i = ε ijk ∂j Bk ,
~ × B)
(∇
en donde ∂i es una abreviación para ∂/∂x i . Utilice esto para mostrar
algunas identidades:
~ = Φ∇
~ + ∇Φ
~
~ · (ΦE)
~ ·E
~ ·E
∇
~ × B)
~ =B
~ · (∇
~ −E
~ · (∇
~
~ · (E
~ × E)
~ × B)
∇
~ = Φ∇
~ + ∇Φ
~
~ × (ΦE)
~ ×E
~ ×E
∇
~ =0
~ · (∇
~ × E)
∇
~ × (∇Φ)
~
∇
=0
~ −∇
~ =∇
~
~ ∇
~ · E)
~ × (∇
~ × E)
~ 2E
∇(
40
3.4.
Grupo ortogonal
La métrica de Euclides tiene una característica importante. Existe un
conjunto de bases del espacio vectorial en el que la métrica tiene la mismas
componentes δij . Una transformación entre dos bases con esta propiedad se
llama transformación ortogonal, y debe satisfacer,
j
δkl = M i k M l δij .
(3.25)
Tal como vimos en la sección anterior, en ocasiones es útil pasar a notación
matricial, y escribir esto como,
o, lo que es lo mismo,
1 = MT M
(3.26)
M−1 = MT .
(3.27)
Las matrices que satisfacen esta relación forman el llamado grupo ortogonal
de dimensión N, y se denotan como O(N). El conjunto tiene las propiedades
algebraicas de lo que matemáticas se denomina un grupo. Estas son:
Una regla de composición o multiplicación asociativa. En este caso, el
hacer dos transformaciones sucesivas, M1 ∈ O(N) y luego M2 ∈ O(N)
da origen a una tercera transformación, M = M2 M1 que también está
en O(N). La asociatividad se hereda de la multiplicación matricial.
La existencia del elemento identidad. En este caso δji ∈ O(N).
La existencia del inverso. Si M ∈ O(N) entonces M−1 ∈ O(N).
De la ecuación (3.25) resulta que
det M = ±1.
(3.28)
Los elementos con determinante positivo forman un subgrupo de O(N) llamado grupo ortogonal simple, que se denota SO(N).
Veamos el ejemplo no trivial más simple. Supongamos que N = 2. Entonces,
a b
M=
(3.29)
c d
La matriz inversa y la traspuesta son,
1
d −b
−1
M =
ad − bc −c a
41
T
M =
a c
b d
.
(3.30)
Así, (3.27) requiere,
a = ±d
b = ∓c
ad − bc = ±1,
con que el signo de arriba para det M = 1 y el de abajo para det M = −1.
Estas ecuaciones implican que
a2 + b2 = 1,
por lo que podemos parametrizar la solución con a = cos φ, b = sin φ y
0 ≤ φ < 2π. Del resto de las ecuaciones obtenemos,
cos φ
sin φ
1 0
M=
=
R(φ)
(3.31)
∓ sin φ ± cos φ
0 ±1
en que,
R(φ) =
cos φ sin φ
− sin φ cos φ
,
(3.32)
son las matrices de rotación en un ángulo φ, que tienen determinante +1,
y corresponden a los elementos de SO(2). El grupo O(2) contiene además
a los elementos de (3.31) que toman el signo de abajo, y corresponden a
hacer una rotación seguida de un cambio de paridad. Este es realizado por
la matriz
1 0
P=
,
0 −1
que cambia la dirección del eje y. Es equivalente a realizar una reflección
especular de nuestro plano.
Ejercicio 3.4
1. Argumente por qué los elementos de O(N) de determinante −1 no
forman un grupo.
2. Muestre gráficamente la acción de R(π/4) y de P sobre los vectores
0
1
1
,
,
.
1
0
2
42
3. Muestre que R(φ1 )R(φ2 ) = R(φ1 + φ2 ). En particular, R(φ)−1 = R(−φ).
4. Observe que el grupo O(N) se definió como un conjunto de transformaciones que dejan un objeto invariante, en este caso la métrica euclídea.
Argumente por qué, en general, cualquier conjunto de transformaciones
que se defina a través de un objeto que dejan invariante será un grupo.
Supongamos ahora un espacio euclídeo de dimensión N con métrica δij ,
y un segundo (0,2)-tensor simétrico, Tij . Mostraremos que es posible encontrar una base en que los componentes de la métrica siguen siendo δij , pero
T¯ij es diagonal. Dicho de otro modo, existe una transformación en O(N) que
diagonaliza Tij . Antes de mostrar cómo hacerlo, es importante aclarar un
punto que lleva muchas veces a confusión. Es sabido que dos matrices hermíticas no se pueden diagonalizar simultáneamente a menos que conmuten.
Aquí de la impresión que pretendemos hacer lo mismo, esto es, diagonalizar
dos matrices simétricas, gij y Tij , simultáneamente, sin preocuparnos de si
conmutan o no. El error en este argumento es que no estamos diagonalizando matrices, (1,1)-tensores. Estamos diagonalizando (0,2)-tensores. No tiene
porqué ser lo mismo. Y no lo es, como veremos a continuación.
Considere el problema de valores propios del tensor Tij ,
j
j
Tij u(k) = µ(k) δij u(k) .
(3.33)
Usando el mismo argumento que nos llevó de (3.20) a (3.22), sabemos que
deben existir una base ortonormal de N autovectores ui(k) ,
j
δij ui(k) u(l) = δ(k)(l) .
(3.34)
Multiplicando (3.33) por ui(l) y usando (3.33) obtenemos,
j
ui(l) Tij u(k) = µ(k) δ(k)(l) .
(3.35)
Las últimas dos ecuaciones nos dicen que la transformación cuyos componentes son
M i j = ui(j) ,
está en O(N) y lleva al tensor Tij a una forma diagonal, en la que los
elementos de la diagonal son los autovalores µ(k) .
43
Ejercicio 3.5
Haga nuevamente el ejercicio 3.2. Ahora encuentre una transformación
que lleve la métrica a la de Euclides y el tensor,


2 0 1
Tij =  0 3 0 
1 0 1
a su forma diagonal.
44
Capítulo 4
Pequeñas oscilaciones
4.1.
Espacio tangente
El espacio de configuración de un sistema mecánico está parametrizado
por las coordenadas generalizadas qa . Estas coordenadas, en general, no
definen un espacio vectorial. Esto debido a que bajo una transformación de
coordenadas-el tipo de transformación relevante para nosotros - no transforman como los componentes de un vector,
¯ a = f a (q, t).
q
(4.1)
En cada punto del espacio de configuración se define el “espacio tangente.a
q, Tq , que corresponde al conjunto de desplazamientos infinitesimales, dqa .
Estos sí transforman como vectores bajo cambio de coordenadas,
a
d¯
qa = (M −1 ) b dqb ,
(4.2)
en que la matriz de transformación viene dada por
a
b
(M −1 )
=
∂f a
.
∂qb
(4.3)
˙ a son elementos de Tq .
En particular, las velocidades q
4.2.
Lagrangianos cuadráticos
˙,
Considere ahora un lagrangiano cuadrático en q y q
1
1
˙ aq
˙ b − Vab qa qb ,
L = Tab q
2
2
45
(4.4)
en que Tab y Vab son constantes. El lagrangiano es un escalar ante cambio
˙ a transforma como vector, entonces Tab debe
de coordenadas, por lo que si q
ser un (0,2)-tensor. Si nos restringimos a transformaciones de coordenadas
lineales,
a
¯ a = (M −1 ) b qb ,
q
(4.5)
entonces las coordenadas qa también transformarán como vectores y Vab
como un (0,2)-tensor. Note que esto no es general, y solo funciona para este
conjunto preciso de transformaciones y para lagrangianos cuadráticos. Este
lagrangiano es de particular interés en mecánica, ya que describe pequeñas perturbaciones sobre posiciones de equilibrio en sistemas linealmente
estables. Expliquemos esto con el caso más sencillo posible: el del oscilador
armónico en una dimensión,
L=
m 2 k 2
˙ − q.
q
2
2
(4.6)
Las ecuaciones provenientes de este lagrangiano son,
m¨
q = −kq,
que tiene una solución estática, o de equilibrio,
q(t) = 0.
Esta solución es estable si m y k son positivos, ya que al perturbarla, obtenemos oscilaciones en torno a ella,
q(t) = Re(Aeiωt ) ,
ω2 =
k
,
m
(4.7)
en que A es una constante compleja. Note que si k es negativo, la solución
es una exponencial no oscilante, por lo que la nueva solución se alejará
rápidamente de la posición de equilibrio, y por lo tanto éste no será estable.
En el caso estable, la posición de equilibrio esta en el fondo de un potencial
parabólico convexo, en el otro,en la cima de uno cóncavo.
Este ejemplo se puede generalizar al lagrangiano (4.4). Para esto, utilizamos las técnicas matemáticas discutidas en las secciones anteriores. Primero
asumimos que Tab es positivo definido. De no ser así el sistema mecánico
estaría mal definido, ya que no podría tener un mínimo: habrían trayectorias
con acciones arbitrariamente negativas. Esto ya que si Tab no es positivo
definido, existen vectores v a tales que Tab v a v b < 0. De ser así, podemos
construir trayectorias que zigzagueen con velocidades v a y −v a , dando origen a acciones de valor arbitrariamente negativo.
46
Así, podemos pensar en Tab como una métrica y llevarla a la forma diagonal de Euclides. En segundo lugar, diagonalizamos Vab , utilizando transformaciones en SO(N), de modo de no cambiar la forma de la métrica. En
las nuevas coordenadas, el lagrangiano (4.4) tiene la forma,
1
1
˙ aq
˙ b − Ωab qa qb ,
L = δab q
2
2
en que



Ωab = 

ω12
0
..
.
0
...
0

0
.. 
. 

0 
ωN2
ω22
..
.
0
0
...
(4.8)
(4.9)
es diagonal. Algunos de los autovalores ωa podrían ser imaginarios. Las
ecuaciones provenientes de este lagrangiano son desacopladas,
¨ a = −ωa2 qa
q
(sin suma sobre a aquí)
(4.10)
Si ωa es real, entonces la solución es un oscilador armónico igual al de (4.7).
Cada una de estas coordenadas oscilatorias reciben el nombre de modos
normales, esto, debido q que podemos apagar el movimiento en todas las
coordenadas, dejando solo una frecuencia pura encendida. Un modo normal.
Si alguno de los ω es imaginario la solución es exponencial.
Veamos un clásico ejemplo simple. Considere dos péndulos de igual masa
m conectados por un resorte de constante k como en la Fig. 4.2.
l
l
f2
f1
m
k
m
Figura 4.1: Dos péndulos acoplados a través de un resorte. Cuando los dos
péndulos están en reposo.el resorte se encuentra en equilibrio.
El lagrangiano del sistema es,
L=
m 2 ˙2 ˙2
k
l (φ1 + φ1 ) + lgm cos φ1 + lgm cos φ2 − (D(φ1 , φ2 ) − d)2 ,
2
2
47
(4.11)
en que,
D 2 (φ1 , φ2 ) = (d + l sin φ2 − l sin φ1 )2 + (l cos φ2 − l cos φ2 )2
(4.12)
es la distancia entre las dos masas. Si consideramos pequeñas oscilaciones,
podemos expandir en serie de Taylor los ángulos, y quedarnos solo con los
términos cuadráticos. El lagrangiano, en esta aproximación, toma la forma,
L=
kl2
lgm 2
m 2 ˙2 ˙2
l (φ1 + φ1 ) −
(φ1 + φ22 ) −
(φ2 − φ1 )2 .
2
2
2
(4.13)
El tensor Tab ya es proporcional a δab , por lo que no haremos nada con él.
El tensor Vab sin embargo no lo es,
gm + kl
−kl
Vab = l
(4.14)
−kl
gm + kl
Para diagonalizarlo, buscamos primero los valores propios,
(gml + kl2 − λ)2 − k 2 l2 = 0,
de donde obtenemos los autovalores,
λ1 = gml,
λ2 = gml + 2kl2 .
Los autovectores, normalizados, asociados a estos autovalores se obtienen
directamente,
!
!
v1 =
√1
2
√1
2
,
√1
2
− √12
v2 =
.
La matriz de transformación unitaria que diagonaliza Vab es, por lo tanto,
!
M ab
=
√1
2
√1
2
√1
2
− √12
.
Podemos usarla ahora para encontrar los modos normales,
1
q1 = √ (φ1 + φ2 ) = Re(A1 eiω1 t ),
2
1
q2 = √ (φ1 − φ2 ) = Re(A2 eiω2 t ),
2
en que
ω12 =
g
,
l
ω22 =
48
g 2k
+
.
l
m
Si hacemos A2 = 0 vemos que el primer modo normal corresponde a ambos
péndulos oscilando paralelos, con frecuencia igual al que tendría cada uno
sin la existencia del resorte. Si hacemos A2 = 0, los péndulos se mueven en
direcciones contrarias, y la frecuencia aumenta en 2k/m, que es precisamente
lo que esperamos en el límite en que g = 0.
En este ejemplo utilizamos una técnica que se puede generalizar a problemas mucho más complejos: expandimos el lagrangiano en series de Taylor
hasta orden cuadrático en torno a una solución estática. En este caso, aquella en que ambos péndulos cuelgan verticales, en reposo. La aproximación
de pequeñas oscilaciones es válida siempre que pequeñas perturbaciones en
torno a esta se mantengan pequeñas durante la evolución del sistema. Esto
será cierto siempre que los autovalores de Vab sean positivos. En este caso
las soluciones oscilaran con una amplitud tan pequeña como la perturbación
inicial. Si, en cambio, hay algún autovalor negativo, entonces habrá soluciones exponenciales que crecerán haciendo que la hipótesis que permitió la
aproximación resulte incorrecta.
49
Capítulo 5
El grupo de rotaciones y el sólido
rígido
La mecánica clásica Newtoniana tiene un grupo de simetrías que conocemos como el grupo de Galileo, que incluye las rotaciones, las traslaciones
y los “boosts", o cambios a otro sistema inercial de referencia. Para entenderlo bien, debemos introducir un poco más de matemáticas. Comenzaremos
revisitando el grupo de rotaciones en el plano, SO(2), desde una perspectiva más sistemática. Como primer ejemplo utilizaremos estas herramientas
para estudiar sistemas de coordenadas que rotan respecto de uno inercial,
y luego el sólido rígido.
5.1.
Rotaciones infinitesimales de SO(2)
El grupo SO(2) contiene todas aquellas transformaciones del plano, conectadas a la identidad, que dejan invariante la métrica δij . Por conectadas a
la identidad queremos decir que podemos ir, continuamente, desde cualquier
rotación a la identidad. Esto es evidente en este caso, ya que las rotaciones
R(φ) contienen un parámetro, φ, que podemos llevar continuamente a φ = 0,
que corresponde a la identidad. Esta es otra forma de reducir el grupo de
rotaciones O(N) al su subgrupo SO(N), ya que los elementos del primero
que tienen determinante negativo, claramente no pueden llevarse continuamente a la identidad (no existe ninguna acción que suavemente pueda llevar
un −1 en un 1 sin pasar por todos los números intermedios).
Considere una transformación infinitesimal de SO(2),
x i = (δji + εJ i j )¯
xj ,
(5.1)
en que ε << 1 es el parámetro infinitesimal y Jji es una matriz. La condición
50
para que esta transformación esté en SO(2) es,
(δ i j + εJ i j )(δ kl + εJ kl )δik = δjl .
Despreciando términos cuadráticos en ε esto es igual a
J i j δil + J kl δjk = 0.
Usando la notación que nos permite “subir” o “bajar” índices usando la métrica, (3.18), esto se puede reescribir como
Jlj = −Jjl .
(5.2)
Esto nos dice que Jij es un (0,2)-tensor antisimétrico. En este caso, por lo
tanto,
0 1
Jij =
.
(5.3)
−1 0
Ciertamente cualquier Jij porporcional a ésta hace el trabajo, pero esta elección no es importante ya que la constante de proporcionalidad se podrá
reabsorber en el parámetro ε en (5.1). La matriz J i j se llama generador infinitesimal del grupo. En este caso hay uno solo, ya que el grupo tiene un
solo parámetro, el ángulo φ.
Considere cierto grupo que actúa linealmente sobre el plano,
x i = L(φ)i j x¯j
y que se describe por un solo parámetro φ, tal como el grupo de rotaciones.
Si parametrizamos de modo que la identidad esté en φ = 0, entonces una
transformación infinitesimal, es
d i i
i
L(ε) j = δj + ε
L
,
dφ j φ=0
de donde vemos que el generador infinitesimal es
d i i
Jj=
L
.
dφ j φ=0
A la inversa, podemos encontrar una transformación finita iterando la acción
de una infinitesimal. En notación matricial,
N
φ
L(φ) = l´ım 1 + J
= eφJ .
N→∞
N
51
En el caso del grupo SO(2), la matriz J viene dada por (5.3), para exponenciarla, la técnica usual es la de primero diagonalizarla, escribiéndola en la
forma,
J = A−1 JD A,
(5.4)
en que
JijD
=
i 0
0 −i
(5.5)
es la forma diagonal de J, y contiene en su diagonal los valores propios de
esta matriz, i, −i.
Ejercicio 5.1
Diagonalize J y muestre que la matriz A que la lleva a la forma diagonal
en (5.4) es,
!
− √i2 √i2
A=
.
√1
√1
2
2
Ahora,
D
eφJ = A−1 eφJ A
!
!
i
1
iφ
√
√
− √i2 √i2
e
0
2
2
=
−iφ
√1
√1
√i
√1
0
e
−
2
2
2
2
! e−iφ
eiφ
ie−iφ
ieiφ
+
−
cos
φ
sin
φ
2
2
2
2
=
=
,
−iφ
iφ
e−iφ
eiφ
−
sin
φ
cos
φ
− ie2 + ie2
+
2
2
que es precisamente la matriz R(φ), de (3.32), tal como esperábamos.
5.2.
Rotaciones en 3D: El grupo SO(3)
Repitamos ahora el análisis anterior para el grupo de rotaciones en el
espacio tridimensional. Trabajaremos en coordenadas cartesianas con la métrica δij , en que ahora i, j = 1, 2, 3. Los argumentos entre las ecuaciones (5.1)
y (5.2) son exactamente los mismos,
x i = (δji + εJ i j )¯
xj ,
52
(5.6)
o, lo que es lo mismo,
δx i = x i − x¯i = εJ i j x¯j
(5.7)
Solo que ahora Jij es un (0,2)-tensor antisimétrico de 3 × 3. La forma más
general de una matríz antisimétrca en 3D es,
Jij = Jijk θk ,
(5.8)
en donde θa son parámetros reales, y






0 0 0
0 0 −1
0 1 0
Jij1 =  0 0 1  , Jij2 =  0 0 0  , Jij3 =  −1 0 0  .
0 −1 0
1 0 0
0 0 0
Es útil en ocasiones escribir esto en forma abreviada como,
(J i )jk = ε ijk ,
(5.9)
en que los índices se suben y bajan aquí con la métrica euclidea δij . Cada rotación queda definida por los tres parámetros θi . Imitando el análisis
anterior,
i
R(θa ) = eθi J .
Considere una rotación R(θi ) y un vector v cuyos componentes son proporcionales a los componentes de θi , esto es v 1 = θ1 , . . .. Entonces,



0
θ3 −θ2
θ1
θ1   θ2  = 0.
Jv = (θa Ja )v =  −θ3 0
θ2 −θ1 0
θ3
Esto significa que una transformación infinitesimal definida por
(1 + εJ) ,
deja invariante cualquier vector paralelo a v. Podemos iterar esta transformación infinitesimal para construir una finita, y el vector v seguirá invariante.
Así,
N
λ
= eλJ .
R(θa , λ) = l´ım 1 + J
N→∞
N
deja invariante a v para cualquier λ, y en particular para λ = 1, cuando
coincide con R(θa ). El recíproco también es cierto, ya que como podemos ver
directamente, la matriz J siempre tiene uno y solo un valor propio nulo. Este
resultado se conoce como el teorema de Euler: Todo elemento de SO(3) es
53
una rotación en torno a algún eje. Para el eje x, por ejemplo, tomamos la
transformación infinitesimal en que solo θ1 6= 0 obtenemos,


1
0
0
R1 (θ1 ) = eθ1 J1 =  0 cos θ1 sin θ1  .
(5.10)
0 − sin θ1 cos θ1
Esta es claramente una rotación en torno al eje x, ya que deja invariante al
vector e1 = xˆ. Es importante, antes de continuar, definir bien las convenciones. Asumimos que las coordenadas cartesianas (x, y, z), están orientadas
de modo que la base ortonormal construida a lo largo de sus direcciones
ˆ , zˆ) es “derecha", esto es, xˆ × y
ˆ = zˆ. La rotación (5.10) rota nuestro sis(ˆ
x, y
tema de coordenadas en dirección de las manecillas del reloj en un ángulo
θ1 . Si miramos la rotación en su forma “activa", esto es equivalente de decir
que rota todo los vectores en contra de las manecillas del reloj en el mismo
ángulo.
Análogamente, si exponenciamos transformaciones con solo θ2 6= 0 y
θ3 6= 0, obtenemos las rotaciones R2 (θ2 ) en torno al eje y, R2 (θ3 ) en torno al
eje z, en donde los tres parámetros son ángulos entre 0 y 2π. La dirección
en que se mueven los sistemas de coordenadas siempre sigue la ley de la
mano derecha para el movimiento de los vectores (o de la mano izquierda
para las bases). Evidentemente,


cos θ2 0 − sin θ2
,
1
0
R2 (θ2 ) =  0
(5.11)
sin θ2 0 cos θ2


cos θ3 sin θ3 0
R3 (θ3 ) =  − sin θ3 cos θ3 0 
(5.12)
0
0
1
Ejercicio 5.2
Muestre que los generadores infinitesimales de SO(3), J i satisfacen
[J i , J j ] = J i J j − J j J i = −ε ijk Jk .
Esta es el álgebra so(3).
54
(5.13)
5.2.1.
Fórmula de Rodrigues
Existen diversas maneras de parametrizar un elemento general del grupo
de rotaciones SO(3). Una particularmente útil es la dada por la fórmula de
rotaciones de Rodrigues. Para encontrarla, primero notemos que usando (5.9)
el cuadrado del generador infinitesimal,
(J2 )i j = θk (J k )i m θl (J l )mj = θk θ l ε kim εlmj = θk θ l (δjk δli − δlk δji ) = θ i θj − θ 2 δji ,
en que δ 2 = θ i θi . El cubo,
(J3 )i j = θk (J k )i m (θ m θj − θ 2 δjm ) = −θ 2 (J)i j .
Iterando nos damos cuenta que, para potencias impares,
J2n+1 = (−θ 2 )n J.
Para potencias pares,
(J2n )i j = (−θ 2 )n−1 (θ i θj − θ 2 δji ),
(5.14)
J2n = (−θ 2 )n−1 J2 .
(5.15)
o bien,
De este modo,
e
∞ l
X
J
J
=
l=0
= 1+
∞
∞
X
X
J2n
J2n+1
=1+
+
l!
(2n)! n=0 (2n + 1)!
n=1
∞
X
(−θ)2n+1 (ni Ji )
∞
X
( − θ 2 )n−1 J2
+
(2n)!
n=1
Ahora escribamos
θ i = ni θ,
en que ni es un vector unitario, ni ni = 1, y θ =
J
e
= 1+
∞
X
( − θ)2n (ni Ji )2
√
θ 2 .Así,
∞
X
(−θ)2n+1 ni Ji
+
n=1
(2n)!
(2n + 1)!
= 1 − (ni Ji )2 (cos θ − 1) −
(2n + 1)!
n=0
n=0
ni Ji sin θ
−n22 − n23 (1 − cos θ) + 1
n1 n2 (1 − cos θ) − n3 sin θ
n n (1 − cos θ) + n3 sin θ
1 2
−n21 − n23 (1 − cos θ) + 1
n1 n3 (1 − cos θ) + n2 sin θ
n2 n3 (1 − cos θ) − n1 sin θ
Esta es la fórmula de Rodrigues.
55
=
n1 n3 (1 − cos θ) − n2 sin θ
n n (1 − cos θ) + n1 sin θ
2 3
−n21 − n22 (1 − cos θ) + 1
!
(5.16)
Lo que nos dice esta expresión, es que una rotación con parámetros θi
es equivalente a una rotación en un ángulo θ en torno al eje en la dirección
ni . Para ver esto, reescribamos de otra forma la fórmula. Usando (5.15),
Jk θk
R(θk ) = e
i
j
= δji − (ni nj − δji )(cos θ − 1) − nk ε kij sin θ
= δji cos θ + ni nj (1 − cos θ) − nk ε kij sin θ.
Si aplicamos una de estas rotaciones sobre cierto vector r,
R(θk )r = r cos θ + n(r · n)(1 − cos θ) + (r × n) sin θ.
(5.17)
Aquí reconocemos la a veces llamada simplemente fórmula de rotación y que
pueden encontrar en diversos textos de mecánica. Es interesante notar que
θ debe estar en [0, 2π], lo que significa que
θ12 + θ12 + θ12 < 2π,
Note, sin embargo, que una rotación (θ, n) es la misma que una (−θ, −n). Por
lo tanto, para parametrizar SO(3) basta considerar a θ a dentro de una esfera
radio π, en la cual identificamos las antípodas, ya que (π, n) representa la
misma rotación que (−π, −n).
5.2.2.
Ángulos de Euler
Otra forma muy utilizada para parametrizar una rotación arbitraria es a
través de los llamados ángulos de Euler. Estos consisten en tres rotaciones
sucesivas, todas en dirección contraria a las manecillas del reloj. Primero
una rotación en torno al eje z en un ángulo φ. Luego una en un ángulo χ
en torno al nuevo eje x (la primera rotación llevó al vector e1 en un nuevo
e
¯1 ). Finalmente hacemos una rotación en torno al nuevo eje z en un ángulo
ψ. La matriz de rotación, que hace esto es
RE (φ, θ, ψ) = R3 (ψ)R1 (χ)R3 (φ) =
cos φ cos ψ − cos χ sin φ sin ψ cos ψ sin φ + cos φ cos χ sin ψ
ψ sin φ − cos φ sin ψ
cos φ cos χ cos ψ − sin φ sin ψ
= − cos χ cossin
φ sin χ
− cos φ sin χ
sin χ sin ψ
cos ψ sin χ
cos χ
.
(5.18)
Los 3 ángulos de Euler están en [0, 2π]. Podemos igualar los elementos de
(5.16) y (5.18) y encontrar la relación entre los parámetros entre las dos
parametrizaciones. Encontraríamos varias soluciones para los ángulos de
Euler, ya que estos no representan unívocamente cada rotación.
56
5.3.
Sistemas de coordenadas rotantes
Asuma que tenemos dos sistemas de referencia, S y s. El primero está
provisto de un sistema cartesiano de coordenadas (X , Y , Z ). El segundo rota
respecto del primero y tiene fijo un sistema cartesiano (x, y, z), de modo que
el origen de ambos sistemas coinciden. Debe existir, por lo tanto, una matriz
~ y x~ de
de rotación R(t) en cada instante t, de modo que las coordenadas X
un vector en los sistemas S y s respectivamente se relacionan por
~ (t) = R(t)~
X
x (t).
(5.19)
Si consideramos cierto punto fijo, x~0 , en el sistema rotante, entonces
~˙ = R(t)~
˙ x0 ,
X
O bien,
T
~˙ = R(t)R
~.
˙
X
(t)X
(5.20)
T
˙
La matriz R(t)R
(t) es antisimétrica, ya que RRT = 1, por lo tanto, derivando,
T
T
T
˙
˙
˙
R(t)R
(t) + R(t)R˙T (t) = R(t)R
(t) + (R(t)R
(t))T = 0,
y luego,
T
˙
R(t)R
(t) = −Ωi Ji .
(5.21)
De este modo, (5.20) se puede reescribir
X˙ i = −ε ijk xj Ωk ,
o, vectorialmente,
~˙ = Ω
~.
~ ×X
X
(5.22)
De la ecuación de Rodrigues es evidente que en el instante en que ambos
˙ Note que aquí Ω
~ =n
~ es la velocidad angular
~ θ.
sistemas de ejes coinciden, Ω
respecto del sistema cartesiano S. Este vector puede también escribirse en
~ . Por supuesto,
las coordenadas del sistema s, como ω
~ = Rω
~.
Ω
~ en s se pueden determinar directamente calculando (5.22)
Las coordenadas ω
en ese sistema. Para esto observe que a pesar de que la velocidad x˙0 de un
~˙ en
punto en reposo en s es obviamente nula, podemos escribir el vector X
este sistema. Llamaremos v~ a sus componentes. De este modo
~˙ = RT R~
˙ x0 = ω
~ × x~0 ,
v~ = RT X
57
en que
˙ = −ωi Ji .
RT R
(5.23)
Ejercicio 5.3
1. Utilice la fórmula de Rodrigues para mostrar que, en general
˙ + cos θ(1 − cos θ)(˙
ω = θn
n × n) + sin θ˙
n
2. Observe las ecuaciones (5.21) y (5.23). Ambas definen una velocidad
angular, pero cada una lo hace en un sistema de ccordenadas distinto.
Muestre explícitamente que ambas se relacionan de acuerdo
~ = Rω,
Ω
como es de esperar para cantidades vectoriales.
Supongamos ahora que x es un vector que se mueve en s. Entonces,
~˙ = R~
˙ x + Rx~˙
X
de donde,
~˙ = RR
~ + Rx~˙
˙ TX
X
o bien,
~˙ = Ω
~ + Rx~˙.
~ ×X
X
(5.24)
Esta expresión relaciona las velocidades en ambos sistemas. Podemos diferenciar nuevamente para obtener la aceleración. La expresión resultante se
simplifica en el caso en que la velocidad angular es constante. Allí,
~¨ = Ω
~˙ + R
~ ×X
˙ x~˙ + Rx~¨.
X
Utilizando (5.24),
~¨ = Ω
~˙ + RR
~˙ − Ω
~ ) + Rx~¨
~ ×X
˙ T (X
~ ×X
X
~˙ − Ω
~ ) + Rx~¨
~ ×X
~ × (Ω
~ ×X
= 2Ω
58
Observamos aquí que inlcluso en ausencia de fuerzas externas, el sistema
rotante experimenta fuerzas ficticias,
F = −2m~
ω × x~˙ + m~
ω × (~
ω × x~),
si m es la masa de la partícula en s cuya posición describimos con x~. El
primer término corresponde a la fuerza centrífuga, el segundo a la Fuerza
de Coriolis.
Ejercicio 5.4
Estudie el movimiento de un péndulo de largo L que realiza pequeñas
oscilaciones en una latitud θ dada sobre la tierra.
5.4.
El sólido rígido
Un sólido rígido es un objeto tal que la distancia entre dos puntos sobre él
es simpre la misma. Es más o menos claro que que su posición en cualquier
instante podrá ser descrita por seis cantidades. Para verlo con claridad,
primero definamos 3 sistemas de referencia cartesianos que utilizaremos en
el análisis, que podemos ver en la Fig. 5.4. El primero, s, es un sistema de
¯ de
ejes (x, y, z) adosado al cuerpo rígido. El segundo, un sistema inercial, S,
coordenadas (X¯ , Y¯ , Z¯ ), y tercero, un sistema S, cuyo origen O coincide con
el de s, pero que se mantiene paralelo al sistema inercial, sin rotar.
Un punto del sólido, P puede ser descrito en el sistema s, con coordenadas x~. En este sistema las coordenadas de P se mantienen constantes.
~ . En cada instante t
También podemos describirlo en S con coordenadas X
estas dos cantidades están relacionadas por una rotación R(t), según (5.19),
~ (t) = R(t)~
X
x.
¯ el punto P tiene coordenadas,
Así, en el sistema inercial S
~r(t) = R(t)~
x + ~r0 (t).
(5.25)
En cualquier instante, el sólido queda descrito por R y ~r0 , las seis cantidades
antes anunciadas. La velocidad,
˙ x + ~˙r0 = RR
˙ T (~r − ~r0 ) + ~˙r0 .
~˙r = R~
59
(5.26)
Y
Y
O
X
P
r0
r
X
O
Figura 5.1: Para describir el sólido rígido le adosamos un sistema cartesiano
de coordenadas (x, y, z), s. Este rota respecto de un segundo sistema cartesiano, S, de coordenadas (X , Y , Z ), que se mantiene siempre paralelo a cierto
¯ de coordenadas (X¯ , Y¯ , Z¯ ). El vector OP
~ se puede describir
sistema inercial S,
~ o x~ respecto de los sistemas S, s respectivamente.
con coordenadas X
~ . Luego,
Pero en el sistema inercial (~r − ~r0 ) es precisamente X
~ + ~˙r0 .
˙ TX
~˙r = RR
Usando (5.21) esto se escribe,
~ + ~˙r0 = Ω
~ + ~˙r0 ,
~ ×X
~˙r = −Ωi Ji X
(5.27)
en que Ωi es la velocidad angular medida en el sistema S. La energía cinética
del solido viene dada por la suma de las energías de todas las partículas rA
que lo conforman,
X mA
X mA
~A + ~˙r0 )2 ,
~ ×X
~˙rA2 =
(Ω
T =
2
2
A
A
en que la suma se reemplaza por una integral en el caso continuo. Esto
podemos escribirlo como,
T =
M ˙ 2 X mA 2
~r0 +
XA δij − XAi XAj Ωi Ωj + 2εijk Ωj ˙r0i XAk ,
2
2
A
60
(5.28)
P
en que M =
mA es la masa total. El último término es nulo en las dos
situaciones de interés para nosotros. Primero, cuando el sólido gira en torno
a un punto fijo. En ese caso ˙r0i = 0. Segundo, cuando el origen
P en el sistema
rotante O lo ponemos en el centro de masa. En ese caso
mA XA = 0. En
ambos casos,
X1
M
Iij Ωi Ωj ,
(5.29)
T = ~˙r02 +
2
2
A
en que el tensor de inercia del sólido rígido se define,
X
Iij =
mA XA2 δij − XAi XAj .
(5.30)
A
Note que la energía está separada en dos componentes. El primero es la
energía traslacional, del cuerpo moviéndose sin girar. El segundo es la energía del giro intrínseco del cuerpo, que es distinta de cero aunque su centro
de masa esté en reposo. Note también que, como T , el segundo término es
un escalar, por lo que podemos calcularlo también en el sistema rotatorio
adosado al cuerpo, de modo que la energía rotacional será
TR =
X1
A
Iij ωi ωj ,
2
en donde ωi es la velocidad angular medida en s, y Iij el tensor de inercia
en este sistema de coordenadas, que se calcula igual que en (5.30), pero
reemplazando las coordenadas Xi en S por xi en s. Esto tiene la ventaja de
que Iij es constante a lo largo del movimiento.
Veamos algunos ejemplos. Considere primero una barra infinitamente delgada de densidad lineal ρ y largo l. Calculemos su tensor de inercia respecto
del centro de la barra. Asumamos que la barra esta dispuesta entre −l/2 y
l/2 del eje z, en x = y = 0. Entonces
Z
Ixx = Izz = ρ
l/2
−l/2
dzz 2 =
ρl2 M
ρl3 ρ
=
,
12
12
en que M = ρl es la masa total. Es claro que todos los componentes del
tensor de inercia se anulan.
Considere ahora una argolla infinitamente delgada de radio R y masa
total M. Calculemos su tensor de inercia relativo al centro de la argolla.
Disponemos la argolla en el plano (x, y) con su centro en el origen x = y = 0,
Z
Z
Z
M
M
M
MR 2
2
2
2
Ixx =
(R −x )Rdφ =
y Rdφ =
R 2 sin2 φRdφ =
.
2πR
2πR
2πR
2
61
Por simetría, Ixx = Iyy , y
Izz = MR 2 .
Los términos Ixz ,Iyz son claramente nulos, y
Z
M
Ixy = −
R 3 sin φ cos φdφ = 0.
2πR
Vemos que si deseamos hacer rotar una argolla en torno a su centro con
velocidad angular ω, lo más caro energéticamente es hacerlo en torno a su
eje de simetría, allí su energía cinética será,
1
K = MR 2 ω2 .
2
Mientras mayor sea el radio, más energía es requerida. Finalmente calculemos el tensor de inercia de un disco de radio R y masa M respecto de
su origen. Nuevamente los disponemos en el plano (x, y) con centro en el
origen.
Z
Z
Z
2
2
2
Ixx = σ (r − x )dxdy = σ y dxdy = σ r 2 sin2 φrdrdφ,
en que σ = M/πR 2 es la densidad del disco. Así,
Z
σ πR 4
MR 2
2
2
Ixx = σ r sin φrdrdφ =
=
.
4
4
Nuevamente por simetría, Ixx = Iyy , y
Z
Z
MR 2
2
Izz = σ r dxdy = σ r 3 drdφ =
.
2
Los términos cruzados se anulan todos de igual forma que en el ejemplo
anterior.
El momento angular del sólido rígido viene dado por la suma de cada
trozo infinitesimal. En el sistema inercial,
X
X
~A + ~r0 ) × (Ω
~A + ~˙r0 ).
~ ×X
~rA × p
~A =
L~ =
mA (X
A
A
Nuevamente asumiremos que estamos en uno de los dos casos de interés: o
~r0 = 0, o está en el centro de masas del sólido. En esos casos,
X
~A × (Ω
~A ),
~ ×X
L~ = M~r0 × ~˙r0 +
mA X
A
62
en que M es la masa total. El primer término es el momentum angular orbital. Es decir, el del cuerpo moviéndose en torno al origen de coordenadas
¯ (en caso que este origen no esté fijo). El segundo es el momeninerciales S
tum intrínseco del sólido rígido, y que podemos escribir, luego de algo de
gimnasia tensorial como
Ji = Iij Ωj .
(5.31)
5.5.
Propiedades del tensor de inercia
Veamos ahora alguna propiedades importantes del tensor de inercia. Antes que todo, vemos de (5.30) que es un (0, 2)-tensor simétrico,
Iij = Iji .
Además, es definido positivo. En efecto, suponga que ni es un vector unitario,
entonces,
X
Iij ni nj =
mA xA2 − (xAi ni )(xAj nj ) .
A
Cada término de la suma es claramente positivo, ya que la norma al cuadrado de un vector es siempre más grande que el cuadrado de su proyección
en cualquier dirección. Solo es igual a cero cuando ~r apunta en la misma
~ . Esto significa, que podemos llevar Iij a una forma diagonal,
dirección que n
en que sus tres entradas son mayores o iguales a cero. Podemos hacer esto utilizando solo el grupo ortogonal, es decir, rotando nuestro sistema de
coordenadas en forma apropiada.
Otra propiedad útil es el llamado teorema del eje paralelo, que nos permite calcular el tensor de inercia respecto de un punto si lo conocemos
respecto de su centro de masa. Suponga que Iij es el tensor de inercia respecto de un sistema de coordenadas cartesiano con origen en el centro de
~ El
masas. Suponga que desplazamos el origen a lo largo de cierto vector B.
nuevo tensor de inercia es,
X
IijB =
mA (rAk + Bk )(rAk + B k )δij − (rAi + Bi )(rAj + Bj ) .
A
Ya que el origen está en el centro de masas, varios términos de esta expresión
se anulan, sobreviviendo solo
IijB = Iij + M(B 2 δij − Bi Bj ).
63
(5.32)
Ejercicio 5.5
1. Muestre que ningún momento de inercia puede superar la suma de los
otros dos.
2. Muestre que si un cuerpo tiene simetría de reflexión, entonces dos de
sus ejes principales deben estar en el plano de reflexión.
3. Muestre que cualquier tensor de inercia puede conseguirse disponiendo cuatro partículas de igual masa en posiciones apropiadas.
5.6.
Ecuaciones de Euler
En ausencia de fuerzas externas, el momento angular del sólido rígido
se conserva. Dado que no hay fuerzas externas el centro de masas se mueve
con velocidad constante, por lo que podemos elegir un sistema inercial en
que está en reposo con origen en O. Así, el sistema S coincide con el sistema
inercial, y
˙ ˙
L~ = ~J = 0.
De (5.31) esto es,
d ~
(IΩ) = 0.
dt
Esta ecuación podemos escribirla en términos de las cantidades medidas
~ es el
en el sistema rotante s. Para eso debemos tener en cuenta que, IΩ
ij
vector contravariante de componentes I Ωj . Así la conservación de momentum
puede escribirse
d
˙ ω
~ ) = RI ω
~˙ , +RI
~
0 = (RI ω
dt
o bien, multiplicando esta expresión por la izquierda por RT ,
~˙ + ω
~ × Iω
~.
0 = Iω
Estas son las ecuaciones de Euler del trompo libre. Si hacemos coincidir los
ejes cartesianos de s con los ejes principales del cuerpo, de modo que Iij
64
sea diagonal, estas ecuaciones toman la forma,
˙ 1 + (I3 − I2 )ω2 ω3 = 0
I1 ω
˙ 2 + (I1 − I3 )ω1 ω3 = 0
I2 ω
˙ 3 + (I2 − I1 )ω2 ω1 = 0.
I3 ω
(5.33)
(5.34)
(5.35)
Vemos que podemos hacer girar el sólido en torno a cualquier eje principal
a velocidad angular constante.
Podemos obtener las ecuaciones de Euler a partir de un Lagrangiano.
Para esto debemos escribir las velocidades angulares en función de un sistema de coordenadas generalizadas, digamos, los ángulos de Euler. En el
sistema de coordenadas s, usando (5.23)
1
˙ jk .
ωi = − ε ijk (RT R)
2
Introduciendo la matriz R de (5.18), obtenemos
˙
ω1 = cos φ χ˙ + sin φ sin χ ψ
˙
ω2 = sin φ χ˙ − cos φ sin χ ψ
˙
˙ + cos χ ψ.
ω3 = φ
(5.36)
(5.37)
(5.38)
El lagrangiano de un sólido libre será por lo tanto,
˙ χ˙ , ψ)
˙ = 1 Iij ωi ωj .
L(φ, χ, ψ, φ,
2
Note que el lagrangiano no depende de ψ, por lo que el momentum asociado
a esta coordenada se debe conservar. Analizaremos esto con mayor detalle
en el próximo capítulo.
Finalmente, podemos agregar a este lagrangiano un potencial V (φ, χ, ψ).
Como ejemplo, veamos el caso de un sólido rígido que se mueve en un campo
gravitacional: un trompo en la tierra. En los ángulos de Euler, es la segunda
rotación, en χ, la que cambia la posición del centro de masas cuando el
punto O está fijo fuera de éste (la otras son en torno al eje z). El potencial
resultante es
V = mgl cos χ,
en donde l es la distancia desde O al centro de masas.
Ejercicio 5.6
65
1. Escriba un programa (usando Mathematica, Maple, Maxima u otro programa o lenguaje de programación) en el que pueda visualizar la acción
de un elemento de SO(3) sobre un conjunto de puntos en 3D. Utilice
ˆ , φ de la fórmula de Rodrigues.
como entrada los ángulos de Euler y n
2. Verifique (5.36), (5.37), (5.38). Puede utilizar un programa de lenguaje
simbólico.
3. Un libro con Ix < Iy < Iz rota libremente en el espacio. Muestre que el
movimiento de rotación es estable solo a lo largo de los ejes x o z.
66
Capítulo 6
El teorema de Noether y las
simetrías del espaciotiempo
El teorema de Noether (Emmy Noether, 1915), es uno de los más bellos
resultados de la física-matemática del siglo XX. Se trata de un profundo
resultado que relaciona las simetrías de un sistema físico descrito a través
de un principio de acción con sus cantidades conservadas.
6.1.
El teorema
Comenzaremos con una versión menos general, pero más simple del teorema. Considere un sistema gobernado por la acción I[qa (t)]. Suponga que
ésta es invariante bajo la transformación infinitesimal,
˙ , t),
δqa = εf a (q, q
(6.1)
en que ε es el parámetro infinitesimal. Es decir,
I[qa (t)] = I[qa (t) + δqa ].
(6.2)
Decimos que δqa es una simetría de la acción cuando esto se satisface.
Entonces, despreciando términos O(ε 2 ),
Z t2 ∂L
∂L
a
a
˙
δq + a δ q
δI = 0 =
dt
∂qa
∂˙
q
t1
t2 Z t2 ∂L
∂L
d ∂L
a
=
δq +
dt
−
δqa .
(6.3)
a
a
∂˙
qa
∂q
dt
∂˙
q
t1
t1
Note que no hemos utilizado las ecuaciones de movimiento. La acción es
invariante para cualquier trayectoria qa (t), sea o no una trayectoria extrema. La transformación (6.1) actúa no trivialmente en cualquier punto de la
67
trayectoria, incluidos los extremos. Esto significa que el primer término en
(6.3) no tiene porqué anularse.
En el caso en que la trayectoria qa (t) es une extremo, las ecuaciones
de Euler-Lagrange se satisfacen, por lo que el segundo término de (6.3) se
anula. Por lo tanto en ese caso, obtenemos, usando (6.1),
∂L a ∂L a f
=
f
.
∂˙
qa t1
∂˙
qa t2
Dado que esto es cierto para cualquier t1 o t2 , esto nos dice que la cantidad
Q=
∂L a
f ,
∂˙
qa
(6.4)
se conserva sobre las trayectorias que satisfacen las ecuaciones de movimiento. Es una cantidad conservada.
El ejemplo más sencillo es el de las coordenadas cíclicas, es decir, aquellas que no aparecen en el lagrangiano. Suponga que la primera coordenada,
q1 , es cíclica,
∂L
= 0,
∂q1
entonces es evidente que la traslación
0 si a 6= 1
a
δq =
ε si a = 1
es una simetría de la acción. De (6.4) tenemos que la cantidad conservada
asociada a esta simetría es
∂L
.
Q=
∂˙
q1
Este es el momentum asociado a la coordenada cíclica q1 , cuya conservación
ya habíamos discutido en la sección 2.8.
Ahora generalizaremos de dos modos distintos el teorema. Primero, en
cuanto a la definición de simetría, y luego en cuanto a la clase de transformaciones que consideramos.
Ya sabemos que cuando dos Lagrangianos difieren por una derivada temporal, entonces los principios de acción dan origen a las mismas ecuaciones
de movimiento. Podemos intuir, por lo tanto, que una transformación infinitesimal tal que
˙ )|tt21
δI = ε Λ(q, q
(6.5)
68
también podría ser de interés. En efecto, ampliaremos nuestra noción de
simetría para incluir toda transformación infinitesimal que satisface (6.5).
Ahora,
t2 Z t2 ∂L
∂L
d ∂L
t2
a
˙ )|t1 =
δI = ε Λ(q, q
δqa .
(6.6)
δq +
dt
−
a
a
∂˙
qa
∂q
dt
∂˙
q
t1
t1
Cuando qa (t) es un extremo de la acción tenemos que
Q=
∂L a
f −Λ
∂˙
qa
(6.7)
es una cantidad conservada.
Veamos un ejemplo en la que esta generalización es útil. Considere una
partícula libre en una dimensión espacial,
Z
1 2
m˙
x dt ,
I=
2
y la transformación
δx = εt.
Esta transformación representa un “boost"de velocidad ε, y al aplicarla sobre
la acción resulta,
Z
Z
δI = m x˙δ x˙ = m x˙ε = ε Λ|tt21 ,
en donde
Λ = mx.
De este modo, δx es una simetría, y de (6.7) obtenemos la cantidad conservada,
Q = m(˙
x t − x).
Podemos comprobar directamente que esto es cierto derivando Q y usando
˙ = 0.
las ecuaciones de movimiento para mostrar que Q
Ahora, generalizaremos en cuanto a permitir que la transformación infinitesimal actúe también sobre el tiempo t,
˙ , t),
δqa = εf a (q, q
˙ , t).
δt = εh(q, q
(6.8)
(6.9)
Es en ocasiones confuso el significado de la traslación temporal δt. Por esta
razón, seremos más precisos en cuanto a la forma de implementar (6.8),(6.9).
69
La translación temporal debe realizarse en los extremos de la integral que
define la acción (el tiempo dentro de la integral es solo una variable de integración). Esto, sin embargo, resulta incómodo para comparar luego distintos
términos. Es por esto que haremos un cambio de variable de modo de dejar
los extremos de integración iguales para las integrales antes y despées de
la transformación.
¯ = q + δq, entonces la variación es,
Si q
Z
δI =
t2 +δt2
t1 +δt1
Z
˙
¯ (t − δt), q
¯ (t − δt), t −
dtL q
t2
t1
˙ (t), t).
dtL(q(t), q
(6.10)
¯ , luego hemos trasladado
Aquí primero hemos hecho la variación de q → q
¯ (t) curva en δt. Para hacer la sustracción
temporalmente la misma cueva q
es mejor tener a las dos integrales entre los mismos límites de integración.
Para eso hacemos un cambio de variable en la primera integral,
t 0 = t − δt.
Luego del cambio de variable todas las referencias al tiempo corresponden
a la nueva variable. En particular,
dq dt 0
dq
dq
˙
= 0
= 0 (1 − δt),
dt
dt dt
dt
en donde la derivada temporal de δt no importa si es respecto de t o t 0 ya
que la diferencia entre las dos es cuadrática en ε. Lo mismo ocurre para la
medida de integración. Así,
Z t2
Z t2
0 ˙ 0
0
˙
˙
¯ (t ), q
¯ (t )(1 − δt), t + δt −
˙ (t), t)
δI =
dt(1 + δt)L q
dtL(q(t), q
t1
t1
Z t2
Z t2
˙
˙ t + δt −
˙ + δq
˙−q
˙ δt,
˙ , t)
=
dt(1 + δt)L
q + δq, q
dtL(q, q
t1
t1
Z t2 ∂L
∂L
∂L a ˙
∂L
a
a
˙
˙ − aq
˙ δt + δt
=
dt δtL + a δq + a δ q
∂q
∂˙
q
∂˙
q
∂t
t1
Z t2 ∂L
∂L
∂L
∂L
∂L
a
a
a
a
a
˙ + Lδt
˙ −
˙ +
˙ − aq
˙ δt
˙ δt − a q
¨ δt
=
dt δtL
δq + a δ q
q
∂qa
∂˙
q
∂˙
q
∂qa
∂˙
q
t1
Ahora asumimos que q(t) es un extremo de la acción, es decir, satisface las
ecuaciones de Euler-Lagrange,
Z t2 d
∂L
∂L a
a
˙ δt .
δI =
dt
Lδt + a δq − a q
(6.11)
dt
∂˙
q
∂˙
q
t1
70
Por otro lado, si esta es una simetría, de (6.5),
t
∂L a
∂L a 2
t2
˙ )|t1 = ε Lh + a f − a q
˙ h δI = ε Λ(q, q
∂˙
q
∂˙
q
t1
Por lo tanto, si (6.8), (6.9) es una simetría, entonces la siquiente es una
cantidad conservada,
∂L a ∂L a
˙ −Λ
f
+
h
L
−
q
(6.12)
Q=
∂˙
qa
∂˙
qa
es una cantidad conservada.
El ejemplo más importante en que necesitamos esta forma general del
teorema es el análisis de la simetría de traslación temporal para lagrangianos que no dependen explícitamente del tiempo.
δqa = 0
δt = −ε.
Si el lagrangiano no depende explícitamente del tiempo es evidente que esta
es una simetría, por lo que la cantidad,
E=
∂L a
˙ −L
q
∂˙
qa
(6.13)
se conserva. Esta es precisamente la energía conservada que discutimos en
(2.57).
Ejercicio 6.1
1. Considere una partícula que se mueve en una dimensión en un potencial
α
V (x) = 2 ,
x
en que α es una constante. Este sistema es invariante bajo traslaciones
temporales, pero tiene otra simetría menos evidente. Si multiplicamos
el tiempo por una constante λ y x por una potencia distinta de la misma
constante, digamos λn , podemos dejar la acción invariante eligiendo n
en forma adecuada. Encuentre esta simetría y sus cantidad conservada
asociada. Use las dos cantidades conservadas que tiene en su poder
para integrar completamente las ecuaciones de movimiento.
71
6.2.
El grupo de Galileo
Considere un sistema cerrado de N partículas, de masas mI , I01 . . . N,
interactuando a través de un potencial, como en la ecuación (2.31). Suponga
además que el potencial depende solo de las distancias,
VIJ ≡ VIJ (|~
xI − x~J |).
Este sistema es cláramente invariante ante traslaciones espaciales en las
tres direcciones, ante traslación temporal, ante boosts y ante rotaciones. Si
no le parece tan claro, veamos. Primero las traslaciones espaciales,
~,
δ~
xI = ε a
~ es cualquier vector constante. Aquí trasladamos todas las partículas
en que a
~ . Por esta razón, el potencial es
en la misma distancia a lo largo del vector a
invariante. La energía cinética también lo es, ya que el vector constante no
contribuye a la velocidad. Así δI = 0. La cantidad conservada asociada es el
~,
momentum lineal total en la dirección del vector a
Pa~ =
X
X ∂L
a
~ ·a
~=P
~ .
f
=
mI x~˙I · a
∂˙
qa
I
Para traslaciones en el tiempo, como ya vimos en (6.13), será la energía
total. Para las rotaciones usamos la transformación infinitesimal (5.7), en
ˆ.
que elegimos una rotación en torno a cierto eje paralelo al vector unitario n
Jij = ni εijk .
Cada uno de los términos cinéticos es invariante ante esta transformación,
m I 2
δ
x˙I = mI x˙Ii δ x˙Ii = εmI x˙Ii nk ε kij x˙Ij = 0.
2
Lo mismo ocurre para cada término del potencial, que depende del cuadrado
del vector x~IJ = x~I − x~J . Al hacer una rotación, x~IJ2 permanece invariante.
Podemos, calcular entonces la cantidad conservada usando (6.4),
Jn =
X ∂L
X
a
f
=
mI x˙Ii ε kij nk x j .
a
∂˙
q
I
Vemos que esto no es otra cosa que la componente del momentum angular
total ~J,
X
~J =
mI x~ × x~˙I
I
72
al lo largo de −ˆ
n,
Jn = −ˆ
n · ~J.
Las tres rotaciones independientes, las tres traslaciones, los tres boost y la
traslaci’on temporal forman un grupo de 10 dimensiones (se puede parametrizar con 10 parámentros). Se llama el Grupo de Galileo.
73
Capítulo 7
La relatividad especial y el grupo
de Lorentz
Con la publicación, en 1965 de “Una teoría dinámica del campo electromagnético", el escocés James Clerk Maxwell cierra un largo capítulo en
la historia de la física. Una teoría completa y consistente que unificaba la
electricidad, el magnetismo y la luz, dando cuenta de todos los fenómenos
electromagnéticos conocidos hasta en entonces. Sin embargo, estas ecuaciones de Maxwell también eran el origen de un profundo misterio: predecían
la velocidad de propagción de las ondas de luz. ¿Cómo era esto posible? Ya
desde tiempos de Galileo parecía evidente que cualquier sistema inercial era
igualmente bueno para describir la naturaleza, pero también, que la velocidad de un cuerpo depende del sistema que elegimos para medirla. El hecho
que las ecuaciones de Maxwell predijeran una velocidad, hacía pensar que
debía existir un sistema preferencial, en el que la teoría era válida. Quizás
el electromagnetismo no era fundamental después de todo, sino más bien
una teoría emergente de un sistema mucho más complejo. El sonido, por
ejemplo, es un fenómeno colectivo que emerge de un conjunto muy grande
de moléculas. Su velocidad se mide respecto del sistema en que la velocidad
promedio de las moléculas es cero. De igual modo, se pensaba que existía
el eter, un fluido responsable de los fenómenos electromagnéticos, y que la
teoría de Maxwell era correcta en el sistema en que estaba en reposo.
Einstein vino a cambiar esta forma de pensar, mostrando que el eter no
era necesario. Lo que se necesitaba era un cambio profundo sobre nuestra
concepción del espacio y del tiempo.
74
7.1.
La transformación de Lorenz
La idea de Einstein era que las ecuaciones de Maxwell en el vacío eran
correctas en cualquier sistema de referencia inercial, y que por lo tanto en
cualquiera de ellos la velocidad de la luz era la misma,
c = 299,792,458m/s.
También insistía en que los sistemas inerciales eran todos equivalentes, por
lo que tanto las ecuaciones de Maxwell como cualquier otra teoría fundamental de la naturaleza, debía ser idéntica en cualquiera de éstos.
Supongamos que estamos en una dimensión espacial parametrizada a
través de un sistema inercial Sde coordenada X y tiempo t. Supongamos
que tenemos un segundo sistema inercial, s de coordenada x, que se mueve
a velocidad v, hacia la derecha, respecto del primero. Si procedemos de
acuerdo al grupo de Galileo, la relación entre los dos sistemas es,
X = x + vt.
(7.1)
Si X (t) describe a una partícula moviéndose a velocidad c hacia la izquierda
en el sistema S, entonces la velocidad en el sistema s es,
v = c + V.
Esta es la ley de suma de velocidades que se desprende del grupo de galileo, y que es muy acorde con nuestro sentido común. Einstein llega a la
conclusión que (7.1) no es la forma correcta de conectar los dos sistemas
inerciales antes descritos. La forma correcta debe ser tal que la velocidad
de la luz sea invariante, y que para velocidades pequeñas respecto de c, es
decir, para aquellas con que normalmente convivimos, (7.1) sea una buena
aproximación.
Supongamos entonces que lanzamos un flash de luz en t = 0 de acuerdo
al reloj de S, instante en que ambos sistemas de referencia coiniciden. En
S,
X − cT = 0,
(7.2)
en que ahora hemos usado la letra T para denotar el tiempo del reloj en
S. Esto, porque tal como veremos más abajo, la nueva forma de conectar
dos sistemas inerciales requerirá que la coordenada temporal también sea
modificada en la transformación. En (7.2) hemos asumido que el flash es
apuntado hacia la derecha. Si invertimos la linterna, el signo cambiara a
positivo. Ambos flashes pueden describirse con
X 2 − c 2 T 2 = 0.
75
Ahora, si la velocidad de la luz es la misma en s, entonces,
x 2 − c 2 t 2 = 0,
(7.3)
en donde t es el tiempo que mide el reloj del sistema s.
Ahora podemos proceder por analogía. Note que lo que queremos es
pasar de un sistema de coordenadas a otro manteniendo invariante una
forma cuadrática. Esto es muy similar al grupo de rotaciones, en donde
δij x i x j = δij X i X j
para una rotación entre dos sistemas x i , X i con el origen común. La diferencia
está en el signo negativo y la constante c que multiplican a la coordenada
temporal. Podemos sin embargo hacer un truco definiendo
u = itc,
de modo que (7.3) tomo la forma
x 2 + u2 = 0.
En este caso, sabemos que si (x, u) transforma con la matriz (3.32), entonces,
x 2 + u2 = X 2 + U 2 ,
tal como necesitamos. Ahora,
icT
cos φ sin φ
ict
ict cos φ + x sin φ
=
=
(7.4)
X
− sin φ cos φ
x
−ict sin φ + x cos φ
Note que para que el truco sea consistente, X debe ser real y T imaginario.
Esto será así siempre que φ = iβ sea imaginario, de modo que podemos
reescribir esta relación como,
cT
cosh β sinh β
ct
=
(7.5)
X
sinh β cosh β
x
Esta es la transformación que necesitamos. Note que también es una matriz
de determinante uno, y que al igual que en el caso de las matrices de SO(2),
satisface
A(β1 )A(β2 ) = A(β1 + β2 ).
Estas matrices forman el grupo de Lorentz SO(1, 1). Antes de detenernos en
sus propiedades matemáticas, veamos sus consecuencias físicas. Primero si
76
miramos el origen x = 0 del sistema s desde el sistema S, sus coordenadas
son
cT = ct cosh β
X = ct sinh β.
Esto significa que de acuerdo al sistema S el sistema s se mueve con una
velocidad
sinh β
v =c
= c tanh β.
cosh β
Se define,
1
γ(v) = cosh β = q
,
v2
1 − c2
de donde la transformación de Lorentz se puede escribir
xv T = γ t+ 2
c
X = γ (x + vt) .
(7.6)
(7.7)
Estas ecuaciones nos muestran que si v << c, entonces γ ∼ 1, T ∼ y
X ∼ x +vt, reduciéndose en este límite a la ecuación (7.1). La transformación
de Lorentz mezcla el espacio y el tiempo de modo que ya no podemos hablar
de tiempo y espacio como entes independientes de distinta naturaleza. Tal
como decía Minkowski,
El espacio como tal, y el tiempo como tal están destinados a desvanecerse en meras sombras. Sólo cierta unión de ambos puede
representar una realidad independiente.
Esa cierta comunicación de ambos la analizaremos al final de esta sección.
Veamos ahora cómo funciona la adición de velocidades en este contexto.
Suponga que en el sistema s un objeto se mueve con velocidad constante u,
x = ut.
En el sistema S, de (7.7) y (7.6),
X = γ(u + v)t
uv T = γ 1 + 2 t.
c
De modo que en S la velocidad del objeto es
V =
(u + v)
1 + uv
c2
77
Si u, v < c, entonces V < c. En efecto, dada una velocidad v < c, la función
V (u) es monótonamente creciente entre u = 0 (en donde V = v)y u = c (en
que V = c),
v(u + v)
∂V
1
1 − v 2 /c 2
−
=
=
2
>0
2 1 + uv 2
∂u
1 + uv
c 2 1 + uv
c
c2
c2
c2
Las transformaciones de Lorentz dan origen a ciertos fenómenos físicos aparentemente paradojales, los que desafían nuestro sentido común: la
dilatación del tiempo, la contracción de Lorentz y la relatividad de la simultaneidad.
7.1.1.
La dilatación del tiempo
Suponga que una persona está en el origen del sistema s, con un reloj.
En t = 0 produce un flash de luz, luego espera un tiempo ∆t y produce un
segundo flash. Usted está en el sistema S, y ve el primer flash en t = 0, x = 0,
cuando los sistemas coinciden. El segundo flash lo observa en un tiempo
∆T = γ∆t.
Note que 1 ≤ γ < ∞, por lo que el lapso de tiempo entre los dos flash puede
ser arbitrariamente grande. El sistema S, en movimiento respecto del sistema
en que ocurrieron dos eventos en un mismo punto, percibió una dilatación
del tiempo, la que ne el límite cuando v → c tiende a infinito.
7.1.2.
La contracción de Lorentz
Suponga que el sistema s va montado sobre un tren de longitud L, que
se extiende entre x = 0 y x = L. Una persona en el sistema S mide el largo
del tren en T = 0. Un extremo del tren está en ese instante en X = 0. Para
calcular el otro extremo, veamos primero a que valor de t corresponde el
instante T = 0 cuando x = L. De (7.6)
0 = γ(t +
Lv
),
c2
de donde t = −Lv/c 2 . Así, el otro extremo del tren, de (7.7), está en
L
X = γ L − Lv 2 /c 2 = .
γ
78
Vemos entonces que desde el sistema S el tren en movimiento tiene una
longitud menor,
L
LS = .
γ
Esta es la contracción de Lorentz.
7.1.3.
Relatividad de la simultaneidad
Suponga dos eventos simultáneos en s. Digamos que ambos ocurren en
t = 0, pero uno en x = 0 y el otro en x = a. En el sistema S, usando(7.6)
y (7.7) el primer evento tambien ocurre en T = 0. El segundo, sin embargo,
ocurre en
γav
T2 = 2 ,
c
es decir, un poco después del primero. Este fen’omeno es extraordinariamente extraño, ya que aparentemente destruiría la causalidad. Es decir, alguien
en el sistema S podría viajar desde un evento hasta otro, conectando causalmente dos cosas que no lo estaban en s. Afortunadamente esto no es así.
En S, un objeto que desee partir en (T = 0, X = 0) para llegar a (T2 , X2 )
debe moverse a una velocidad
c2
X2
= .
T2
v
Evidentemente, esta velocidad es mayor que c. Esto nos muestra que siempre
que las velocidades de los objetos se mantengan subluminales, la causalidad
está protegida. Ya sabemos que a través de boosts no podemos superar la
velocidad de la luz. Veremos además, que una partícula con masa requeriría
energía infinita para llegar a ella. La naturaleza, por lo demás parece confirmarlo: Nunca se ha observado una partícula cuya velocidad supere la de
la luz.
7.2.
El grupo de Lorentz
En tres dimensiones espaciales es fácil generalizar la transformación de
Lorentz. Para que la velocidad de un rayo de luz que parte en el origen en
t = 0 sea la misma en otro sistema que coincide en el origen, debe dejar
invariante la forma cuadrática
−c 2 t 2 + x 2 + y2 + z 2 .
79
Definimos el espacio de Minkowski como el espacio de eventos etiquetados
con las coordenadas (x 0 , x 1 , x 3 , x 4 ) = (ct, x, y, z), y la Métrica de Minkowski
como el (0,2)-tensor simétrico,


−1 0 0 0
 0 1 0 0 

ηµν = 
(7.8)
 0 0 1 0 ,
0 0 0 1
en que los índices griegos µ, ν toman los valores 0, 1, 2, 3. Así, una transformación de Lorentz es análogo a una rotación, salvo que ahora el espacio es
de cuatro dimesniones en lugar de tres, y que en lugar de dejar invariante
la métrica Euclídea, debe dejar invariante la de Minkowski. Si M µν es una
matriz de transformación que deja invariante esta métrica,
ηµν = M αν M βµ ηαβ .
(7.9)
En adelante utilizaremos unidades tales que
c = 1.
Esto significa que el tiempo lo mediremos en las mismas unidades que la
distancia. Cuando queramos recuperar las unidades usuales, basta con insertar las potencias de c necesarias apropiadas. La métrica de Minkowski
no es positiva definida, ya que tiene un valor propio negativo. Esto significa
que hay vectores cuyo norma es negativa. Por ejemplo,
  2
1  0 
  = −1
 0 
0 Un vector de norma negativa representa el desplazamiento desde el origen
que podría experimentar una partícula que se mueve a una velocidad v < c.
Decimos que es tipo tiempo. Análogamente, definimos los vectores tipo luz
x µ xµ = 0 y tipo espacio, x µ xµ > 0. El espacio vectorial de eventos etiquetados
con el sistema de coordenadas inercial x µ y provisto de la métrica (7.8) se
denomina Espacio de Minkowski.
Debido a que dejan invariante una métrica con tres autovalores positivos
y uno negativo, llamamos a este grupo O(3, 1). Al igual que para el grupo
de rotaciones, aquellas transformaciones conectadas a la identidad, de determinante +1, componen el grupo propio de Lorentz SO(3, 1). En adelante
cuando nos refiramos al grupo de Lorentz nos referiremos a éste.
80
Las transformaciones infinitesimales de SO(3, 1) las podemos obtener
insertando
M µν = δ µν + ∆µν
en (7.9), en que ∆µν es una matriz de entradas infinitesimales. Al igual que
para las rotaciones, obtenemos
∆µν = −∆νµ ,
en que los índices se bajan con la métrica ηµν y se suben con su inversa,
el (2,0)-tensor ηµν , cuyos componentes son idénticos a los de ηµν . A diferencia del caso Euclídeo, en donde el valor de las componentes de un vector
no cambiaban al subirlo o bajarlo, el espacio de Minkowski requiere que
tengamos cuidado con la altura de nuestros índices, ya que
v 0 = −v0 .
Las transformaciones infinitesimales, una vez bajado sus índices, son matrices
antisimétricas. Existen seis matrices antisimétricas en cuatro dimensiones,
(J αβ )µν = δµα δνβ − δνα δµβ
Estas seis matrices corresponden a los generadores de las tres rotaciones
y los tres boosts. Las matriz J ij , con i, j = 1, 2, 3 genera una rotación en el
plano (x i , x j ), mientras que J 0i genera un boost en la dirección de x i . Nuevamente, exponenciando estos generadores infinitesimales podemos obtener
las transformaciones finitas.
7.3.
La partícula libre relativista
Intentemos ahora encontrar un principio de acción para una partícula
libre relativista. Nuestro espacio de configuración es ahora el espacio de
Minkowski, y las trayectorias en éste deben describirse con algún parametro
λ,
x µ ≡ x µ (λ).
El parámetro λ tendrá en la acción la misma función que tenía el tiempo
en el caso no relativista. Si embargo no se trata del tiempo físico, ya que
éste corresponde a la coordenada x 0 . El parámetro λ no tiene un significado
físico, y solo nos es de utilidad para etiquetar puntos sobre la trayectoria.
Evidentemente, hay muchos modos de parametrizar una curva, y dado que
81
la física no debe depender de esta arbitrariedad, esperamos que el principio
de acción sea invariante bajo la elección de un nuevo parámetro,
λ −→ λ0 ≡ λ0 (λ).
(7.10)
Por otra parte, el lagrangiano debe depender de las velocidades solamente,
al igual que en el caso no relativista, para así asegurar la invarianza bajo
traslaciones,
x µ −→ x µ + aµ .
Esto implicará la conservación de momentum. Para garantizar, además, la
invarianza de Lorentz, la acción debe ser de la forma,
Z
µ
I[x (λ)] = F (˙
x µ x˙µ )dλ,
en que “·"= d/dλ. La única posibilidad para la función F de modo que la
integral sea invariante bajo (7.10), es
Z p
µ
−˙
x µ x˙µ dλ,
(7.11)
I[x (λ)] = −m
en que hemos además incluido una constante, m, que veremos es la masa
de la partícula.
82
Capítulo 8
Mecánica Hamiltoniana
Ahora procederemos a estudiar un nuevo principio de acción que da origen a las ecuaciones de movimiento mecánicas. A diferencia de la acción
lagrangiana que estudiamos en capítulos anteriores, la acción hamiltoniana
dará origen a ecuaciones de primer órden, y al doble de variables independientes (coordenadas y momenta). La existencia de esta formulación la
podemos intuir, ya que las ecuaciones de Euler-Lagrange nos dan de inmediato una pista con respecto a ellas. En término del momentum,
pa =
∂L
,
∂˙
qa
(8.1)
˙a =
p
∂L
.
∂qa
(8.2)
las ecuaciones son
En caso que podamos invertir (8.1) en función de las velocidades,
˙ a = Q a (˙
q
q, p),
(8.3)
entonces el conjunto (qa , pa ) son 2N variables que satisfacen (8.2), (8.3), 2N
ecuaciones de movimiento de primer órden. La acción hamiltoniana no es otra
cosa que un principio de acción que da origen a estas ecuaciones. Una vez
que lo construyamos nos permitirá, además, construir una estructura algebraica, los paréntesis de Poisson, que serán de gran utilidad, particularmente
en el paso a la Mecánica cuántica.
8.1.
Variables auxiliares
˙ , z), que depende de una colección q
Considere un Lagrangiano L(q, q
˙ a y de otro conjunto de
de coordenadas qa , de sus derivadas temporales q
83
coordenadas z A , (pero no de z˙A ). Las ecuaciones de movimiento resultantes
de variar la acción respecto de las z A son
∂L
=0 .
∂z A
(8.4)
˙,
Si estas ecuaciones nos permiten encontrar z A como funciones de q y q
˙ ),
z A = Z A (q, q
entonces decimos que las z A son variables auxiliares. Estas variables pueden
ser eliminadas utilizando esta relación, de modo que podemos construir el
lagrangiano
˙ , ) = L(q, q
˙ , z(q, q
˙ )).
L0 (q, q
Las trayectorias que extremizan L0 eson las mismas que extremizan L cuando
˙ ). Para demostrarlo, variamos la acción,
z A = Z A (q, q
Z
Z
0
˙ ) = δ dtL(q, q
˙ , Z (q, q
˙ ))
δ dtL (q, q
Z
d ∂L
∂Z
∂L ∂Z
∂L
a
a
a
˙
−
δq + a δ q
δq +
,
=
dt
∂qa dt ∂˙
qa
∂Z ∂qa
∂˙
q
˙ ) satisface (8.4), y el primer término
El segundo término se anula ya que Z (q, q
se anula precisamente en el extremo de la acción basada en L. De este modo
vemos que los lagrangianos L y L0 son equivalentes. Ambos tienen las mismas
trayectorias extremales qa (t).
8.2.
Transformación de Legendre
La estrategia para encontrar el principio de acción hamiltoniano, es decir,
aquel que nos proporcionará directamente las ecuaciones (8.2), (8.3), es pensar en los momenta como variables auxiliares. La acción más general que da
origen a ecuaciones de primer órden, en donde los momento son variables
auxiliares es
Z
I = dt [la (q, p)˙
qa − H(q, p)] .
Ahora bien, si queremos que al variar la acción con respecto a qi obtengamos
ecuaciones de la forma (8.2), necesitamos que li = pi . Probaremos por lo tanto
un principio de acción,
Z
˙ a − H(q, p)] .
I = dt [pa q
(8.5)
84
Al variar respecto de pi obtenemos
˙a =
q
∂H
,
∂pi
(8.6)
ecuaciones que asumiremos que podemos invertir, de modo de encontrar
˙ ), ya que los p son variables auxiliares. Las ecuaciones (8.6) deben
p = p(q, q
reproducir (8.3).
Al variar ahora respecto de q obtenemos
˙a = −
p
∂H
,
∂qa
(8.7)
que son las ecuaciones dinámicas (8.2). El problema ahora es, dado L encontrar la función H de modo que (8.6), (8.7) sean equivalentes a (8.3), (8.2). Pero
esto es precisamente lo que vimos en la seccion anterior. Solo requerimos
˙ ),
que al insertar la variable auxiliar p ≡ p(q, q
˙ ) = pa (q, q
˙ )˙
˙ )).
L(q, q
qa − H(q, p(q, q
(8.8)
De esta forma, dado H encontramos L. El inverso es igualmente sencillo, ya
˙ es invertible,
que la relación entre p y q
˙ a (q, p) − L(q, q
˙ a (q, p)).
H(q, p) = pa q
(8.9)
Esta función se denomina el hamiltoniano del sistema. Vemos que es precisamente la energía que definimos en (2.57). La única precisión que debemos
hacer es que el hamiltoniano es siempre una función de (q, p), de igual forma
˙ ).
como el lagrangiano es siempre una función de (q, q
La transición de la función L a H, (8.9), se denomina transformación de
Legendre, y será posible siempre que
pa =
∂L
∂˙
qa
sea invertible. Esto también de puede expresar como
det
∂2 L
6= 0.
∂˙
qa ∂˙
qb
La transición de H a L, (8.8), es exactamente de la misma forma. Ahora
debemos pedir que (8.6) sea inverible, o bien,
det
∂2 H
6= 0.
∂pa ∂pb
85
Las ecuaciones (8.6) y (8.7) se llaman ecuaciones de Hamilton y son la formulación de primer orden de las de Euler-Lagrange.
Veamos un ejemplo. Considere un sistema partículas newtonianas en un
potencial, en donde el lagrangiano suele ser de la forma
1
˙ aq
˙ a − V (q),
L = T (q)ab q
2
en que Tij es una matriz simétrica que solo depende de las coordenadas (es
lo que ocurre en la mayoría de las coordenadas usuales). El momentum es
˙ b.
pa = Tab q
Podremos encontrar una formulación hamiltoniana siempre que la matriz Tij
sea invertible, ya que en ese caso,
˙ a = (T −1 )ab pb ,
q
(8.10)
y el hamiltoniano es
˙a − L
H(qa , pb ) = pa q
1
˙ aq
˙ a + V (q)
= (T −1 )ab pb pa − T (q)ab q
2
1 −1 ab
(T ) pb pa + V (q).
=
2
Las ecuaciones de Hamilton son, primero
˙a =
q
∂H
= (T −1 )ab pb ,
∂pa
que es precisamente la expresión (8.10), y segundo,
˙a = −
p
∂H
1 ∂
∂V
=−
(T −1 )bc pb pc − a .
a
a
∂q
2 ∂q
∂q
(8.11)
Estas son precisamente las ecuaciones de Euler-Lagrange. Cuando usamos
coordenadas cartesianas, Tab no depende de q, y el lado derecho de (8.11)
es simplemente el negativo del gradiente del potencial.
Ejercicio 8.1
Encuentre los hamiltonianos y verifique las ecuaciones de Hamilton para
los siguientes lagrangianos,
86
1. Una partícula no relativista acoplada a un campo electromagnético,
L=
m ˙2
~ · x~˙ − qφ.
x~ + qA
2
2. Una partícula relativista truncada en una dimensión,
L=
m ˙2 m ˙4
x~ + x~ .
2
8
3. Una partícula libre en coordenadas esféricas,
2
2
m 2
2 ˙2
˙
˙r + r (θ + sin θφ ) .
L=
2
4. Un péndulo de largo l y masa m cuyo punto de suspensión se puede
mover sobre la parábola z = ax 2 .
5. Un sistema cuyo lagrangiano es
˙ 21 +
L=q
8.3.
˙ 22
q
˙ 21 q
˙ 22 .
+ k1 q21 + k2 q
a + bq21
Termodinámica y Mecánica
La transformación de Legendere es una técnica matemática que también
tiene mucha utilidad en termodinámica. Esto se debe a que tanto la mecánica
como al termodinámica se basan en un principio extremal. En esta última se
trata del principio de maximización de la entropía, o lo que es equivalente, la
minimización de la energía. Un sistema termodinámico consistente, digamos,
de N moléculas de cierto gas de energía total U, volumen V puede describirse por una función entropía S(U, V , N). Si el sistema está dividido en varios
subsistemas a través de barreras físicas (pistones, paredes diatérmicas, etc.),
entonces los subsistemas se repartirán la energía, el volumen y el número
de partículas de modo de maximizar S. Equivalentemente, podemos invertir
la relación en favor de la energía U(S, V , N) y formular las termodinámica
en términos de ésta. Ahora los subsistemas se reparten S, V , N de modo de
minimizar la energía.
87
Esto es muy similar al problema de la mecánica, que se describe con
un funcional I[q]. Dado q(t1 ) y q(t2 ), los puntos intermedios q(t), t ∈ (t1 , t2 )
toman los valores que extremizan I[q].
En el caso termodinámico la función U(S, V , N) contiene toda la información del sistema, por lo que recibe el nombre de relación fundamental. La
temperaura se define como,
∂U
T =
.
∂S
En ocasiones preferimos trabajar con T como variable independiente, ya que
esta es más fácil de medir y controlar que la energía. Así, es de interés encontrar un principio extremal aplicable a una función de (T , V , N). Para esto
necesitamos hacer una transición desde U(S, V , N) a otra función F (T , V , N)
que contenga la misma cantidad de información (esto es, que sea invertible).
Esta transición es precisamente la que nos provee la transformación de Lagrange,
∂U
− U.
−F (T , V , N) = S
∂S
Por convención la energía libre de Helmholtz, F (T ) se define como el negativo
de la transformada de Lagrange. Así,
F = U − T S,
S=−
∂F
.
∂T
Esto será posible en la medida que T (U) sea invertible. La termodinámica
se puede formular en términos de F . Se puede demostrar que el encontrar el
estado que minimiza la energía con S, V y N fijos es equivalente a minimizar
F con T , V y N fijos.
8.4.
Bordes y la incerteza de Heisenberg clásica
Al hacer la variación de la acción hamiltoniana (8.12) no reparamos el
tratamiento de los términos de borde que aparecen. Note que debido a la
integral por partes que hicimos en la variación,
Z
0 = δI = dt(Ecuaciones de Hamilton) + pa δqa |tt21 .
Para que las ecuaciones de Hamilton den cuenta del extremo de I debemos
pedir que qa (t1 ) y qa (t2 ) estén fijos en la variación. Esto es igual que en la
variación lagrangiana. En ese caso, sin embargo, el tratamiento es simétrico
para las N coordenadas generalizadas qa . En este caso, tenemos 2N coordenadas del espacio de fase, y solo debemos fijar la mitad de ellas. Esto está
88
bien desde el punto de vista dinámico, ya que ahora las ecuaciones son de
primer orden, pero no nos permite tratar de igual modo a las coordenadas
del espacio de fase. Es el precio que debemos pagar si deseamos trabajar
en esta formulación.
Podemos, sin embargo, diseñar principios hamiltonianos que nos permitan
escoger de distintas maneras las coordenadas que fijaremos. Para hacer
esto, basta agregar términos de borde a la acción. Estos no cambiarán las
ecuaciones de movimiento, pero sí modificarán nuestras exigencias en los
bordes. Por ejemplo, consideremos la acción
I 0 = I − pa qa |tt21 .
Variando,
δI
0
Z
dt(Ecuaciones de Hamilton) − δpa qa |tt21 − pa δqa |tt21 + pa δqa |tt21
Z
dt(Ecuaciones de Hamilton) − δpa qa |tt21 .
=
=
En este caso, por lo tanto, tenemos que exigir que los pa esten fijos en t1 y
t2 si deseamos que las ecuaciones de Hamilton se satisfagan en el extremo
de la acción. Note que podemos escribir
Z
0
˙ a − H(q, p)] .
I = dt [−qa p
(8.12)
Podemos también construir un principio de acción mixto, que requiera fijar
qa en t1 y pa en t2 . Para esto basta definir
I 00 = I + pa (t2 )qa (t2 ),
de modo que la variación arroja los términos de borde,
− pa δqa |tt21 + δpa (t2 )qa (t2 ) + pa (t2 )δqa (t2 ) = pa (t1 )δqa (t1 ) + δpa (t2 )qa (t2 ).
Vemos entonces que I 00 requiere que fijemos qa en t1 y pa en t2 . Podemos
diseñar finalmente un principio de acción apropiado para fijar qa en t2 y pa
en t2 ,
I 000 = I − pa (t1 )qa (t1 ).
Tenemos así cuatro principios de acción, apropiados para fijar en cada extremo de la trayectoria o bien las coordenadas generalizadas, o bien los
momentos. Es fácil construir principios de acción apropiados para otras combinaciones, digamos, un principio de acción para un espacio de fase de cuatro dimensiones, (q1 , q2 , p1 , p2 ), en que fijamos (q1 , p2 ) en t1 y q2 , p1 en t2 .
89
Ejercicio 8.2
Constrúyalo.
No podemos, sin embargo, fijar todas las coordenadas del espacio de fase
en uno de los extremos. Más aún, no podemos fijar una coordenada y su
momentum asociado simultáneamente, ya que p(t1 )δq(t1 ) no es la variación
total de ninguna función f (q, p), lo que implica que no hay nada que podamos sumar a I de modo que la variación anule totalmente los términos de
borde en un extremo. No podemos fijar simultáneamente el momentum y la
posición. Esto se parece mucho al principio de incertidumbre de Heisenberg,
que dicta que en mecánica cuántica no es posible medir simultáneamente la
posición y el momentum. De hecho, es más que una analogía, es la versi’on
clásica de ese principio, y se puede trasladar a su versión cuántica rápidamente utilizando la formulación de integrales de camino de Feynman. Pero
esto es materia de otro curso.
8.5.
Transformaciones canónicas
Una de las ventajas de la formulación lagrangiana era su independencia
˙ a ) se puede escribir en otro sistema
de coordenadas. El lagrangiano L(qa , q
a
de coordenadas generalizadas Q ,
Z
Z
Z
a
a
a
b
a
b ˙b
˙ a ),
˙ ) = dtL(q (Q ), q
˙ (Q , Q )) = dtL0 (Q a , Q
dtL(q , q
˙ a ) son totalmente equiva˙ a ) y L0 (Q a , Q
de modo que los lagrangianos L(qa , q
lentes en la descripción del sistema físico en cuestión. Más aún, dado que las
coordenadas están fijas en los bordes, podemos sumar términos de bordes
a la acción (o, lo que es lo mismo, derivadas totales del tiempo al lagrangiano) y el lagrangiano resultante será igualmente bueno. La formulación
hamiltoniana rompe con esta covarianza ya que no podemos aceptar formas
arbitrarias de la acción. Si definimos nuevas variables en el espacio de fase,
Q a ≡ Q a (qb , pb )
P a ≡ P a (qb , pb ),
90
(8.13)
entonces, para que las ecuaciones de Hamilton sean de la forma (8.6), (8.7),
la transformación debe ser tal que
Z
Z
a
˙ a − H 0 (Q, P) + términos de borde.
˙ − H(q, p) = dt Pa Q
dt pa q
(8.14)
Esto restringe el conjunto de transformaciones de coordenadas del espacio de fase de forma ostensible. Aquellas que satisfacen (8.14) se llaman
transformaciones canónicas. En las nuevas coordenadas, las ecuaciones de
Hamilton mantienen su forma,
0
0
˙ a = ∂H
Q
∂Pa
˙ a = − ∂H .
P
∂Q a
(8.15)
Los términos de borde que aparecen en (8.14) solo pueden ser derivadas
totales del tiempo,
o bien
˙ a − H 0 (Q, P) + d F ,
˙ a − H(q, p) = Pa Q
pa q
dt
(8.16)
dF = pa dqa − Pa dQ a + (H 0 − H)dt.
(8.17)
Note ahora que si queremos que el nuevo principio variacional sea consistente con la fijación de las coordenadas Q a en t1 y t2 , entonces más vale que
la función F solo dependa de las coordenadas y del tiempo,
F ≡ F q(P, Q), Q, t .
(8.18)
Comparando (8.22) y (8.18) obtenemos,
∂F
= pa
∂qa
∂F
= −Pa
∂Q a
∂F
+ H = H0
∂t
(8.19)
De este modo hemos obtenido un resultado importante. Dado un principio
variacional hamiltoniano, (8.12), apropiado para fijar qa en los extremos de la
trayectoria, y dada una función arbitraria de qa , de Q a , y del tiempo t, podemos generar una transformación canónica a una nueva acción hamiltoniana
equivalente, con coordenadas (Q a , Pa ) y hamiltoniano H 0 (Q, P) implícitamente definidos por (8.19). La función F (Q, q) se llama la función generadora de
la transformación canónica. Es importante subrayar que no cualquier transformación canónica entre principios de acción apropiados para fijar q se
puede generar de esta forma. Como ejemplo considere el cambio de escala,
qa = αQ a
pa =
91
1 a
P .
α
(8.20)
Es evidente que el término p˙
q es invariante bajo esta transformación. De
hecho, satisface (8.14) sin ningún término de borde. Así, F = 0 en este caso,
y no podemos obtener la ecuación (8.22). Es claro además que no existe una
función F (q, Q) que pueda dar lugar a (8.20) a través de (8.19).
Terminamos esta sección notando que podemos generalizar la construcción de transformaciones canónicas usando funciónes generadoras para los
casos en que los principios de acción están diseñados para otro tipo de
condiciones de borde. Por ejemplo, supongamos que queremos que en las
nuevas coordenadas (Q a , Pa ) sea Pa lo que fijemos en los bordes. En ese
caso, reemplazamos (8.16) por
˙ a Q a − H 0 (Q, P) + d G,
˙ a − H(q, p) = −P
pa q
dt
(8.21)
en que ahora G debe ser una función de q y de P. Luego,
dG = pa dqa + Q a dPa + (H 0 − H)dt.
(8.22)
Ahora entonces,
∂G
= pa
∂qa
∂G
= Qa
∂Pa
∂G
+ H = H 0.
∂t
(8.23)
En esta familia podemos incluir un cambio de escala (8.20), definiendo
G=
1 a
q Pa .
α
Para α = 1, esta transformación corresponde a la identidad, que es evidentemente canónica. Podemos también proceder análogamente para encontrar
funciones generadoras que lleven de un principio de acción diseñado para
fijar pa a otros para fijar Q a o Pa .
Ejercicio 8.3
Encuéntrelas
92
8.6.
Ejemplo: el oscilador armónico
Hasta ahora todo lo que hemos hecho ha sido bastante formal, por lo que
en esta sección analizaremos un ejemplo bien familiar, como es el oscilador
harmónico, desde una perspectiva hamiltoniana. Consideremos el lagrangiano
m 2 k 2
˙ − q.
L= q
2
2
El hamiltoniano es,
H(q, p) = p˙
q−L=
p2
k
+ q2 ,
2m 2
de donde obtenemos las ecuaciones de hamilton,
˙=
q
p
∂H
=
∂p
m
˙=−
p
∂H
= −kx.
∂q
2
Es
√ útil hacer ahora una transformación canónica de escala, (8.20), con α =
km, de modo que obtenemos un nuevo hamiltoniano,
r
1
k 2
¯) =
¯ 2 ),
H 0 (¯
q, p
(¯
q +p
2 m
en que hemos rebautizado a las coordenadas luego de la transformación
¯ yp
¯ entran de igual modo en el hamiltoniano. Las
En estas coordenadas q
trayectorias son las círculos H =constante, como podemos ver en la figura
˙¯ , p
˙¯ ). En la formuxx. También hemos dibujado algunos vectores velocidad, (q
¯ 0 ), que
lación hamiltoniana podemos establecer condiciones iniciales, (¯
q0 , p
representan un punto en el espacio de fase. La dinámica de este punto estará dada por las ecuaciones de hamilton, o, como a veces se lo llama, el
flujo hamiltoniano, que se representa con el campo de vectores velocidad
que vemos en la figura.
Considere ahora una transformación canónica generada por la función
F (¯
q, Q) =
De (8.19) tenemos,
de donde
cos Q
¯=q
¯
p
sin Q
¯=
p
¯ 2 cos Q
q
.
2 sin Q
¯2 1
q
P=
,
2 sin2 Q
√
2P cos Q
¯=
q
93
√
2P sin Q.
Las nuevas coordenadas son una suerte de coordenadas polares en el espacio de fase. El nuevo hamiltoniano, H, es
r
k
H=
P.
m
Aunque sabemos que la transfrmación es canónica por lo que debe dejar
˙¯ , veamos
¯q
invariante, salvo por una derivado total del tiempo, el término p
explícitamente que esto es cierto,
√
√
˙¯ = ( 2P cos Q) d ( 2P sin Q) = ( 2P cos Q)
¯q
p
dt
√
˙
√
P
˙
√
sin Q + 2P cos Q Q
2P
˙
˙ + 2P cos2 Q Q
˙ = d (P cos Q sin Q) + P Q.
= cos Q sin Q P
dt
En este sistema, las ecuaciones de Hamilton son
r
˙ = k
˙ =0,
Q
P
m
por lo que la solución es inmediata,
r
k
P = P 0 Q = Q0 +
t.
m
Ejercicio 8.4
Encuentre una transformación canónica que lleve el hamiltoniano
λ 1
2 2
H=
+p q
2 q2
al del oscilador armónico.
8.7.
Paréntesis de Poisson
Se define el paréntesis o corchete de Poisson entre dos funciones del
espacio de fase y del tiempo, f (q, p, t), g(q, p, t) como,
{f , g} =
∂f ∂g
∂g ∂h
− a
.
a
∂q ∂pa ∂q ∂pa
94
(8.24)
!
Las siguientes propiedades del paréntesis de Poisson hacen que su operación
sobre el espacio de fase defina lo que se conoce como un Algebra de Lie.
Dadas funciones f , g, h y un real λ,
Anticonmutación:
Linealidad:
{f , g} = −{g, f }
{f , g + λh} = {f , g} + λ{f , h}.
Regla de Leibniz
{f , gh} = g{f , h} + h{f , g}.
Identidad de Jacobi,
{f , {g, h}} + {g, {h, f }} + {h, {f , g}} = 0.
Ejercicio 8.5
1. Demuestre estas propiedades.
2. Demuestre que el conmutador en el espacio de matrices cuadradas de
dimensión dada,
[A, B] = AB − BA,
también satisface estas propiedades.
En un sistema Hamiltoniano cuyo espacio de fase se describe con coordenadas (qa , pa ), los corchetes de Poisson de éstas son,
{qa , pb } = −{pb , qa } = δba ,
{qa , qb } = {pa , pb } = 0.
(8.25)
Las ecuaciones de Hamilton, (8.6), (8.7) se pueden escribir de modo muy
conveniente como,
˙ a = {qa , H},
q
˙ a = {pa , H} = 0.
p
(8.26)
Notemos que esta forma de las ecuaciones tienen la propiedad de devolver la
simetría entre las coordenadas q y p. Por supuesto, esto es solo aparente, ya
que en la misma definición del corchete de Poisson se esconde la distinción
entre coordenadas y momenta.
95
Capítulo 9
Estructura Simpléctica
La simetría en que qA y pA entran en las ecuaciones de Hamilton una vez
definido el corchete de Poisson nos invita a considerar el espacio de fase
como una estructura unificada, de 2N coordenadas, en un espíritu similar al
que usamos para unificar el tiempo y el espacio para construir el espacio
de Minkowski. Así, definimos coordenadas del espacio de fase z A , con A =
1 . . . 2N, y
A
q
Si A = 1 . . . N
A
z =
pA−N Si A = N + 1 . . . 2N
De este modo podemos reescribir (8.26) como
y (8.25) como
z˙A = {z A , H},
(9.1)
{z A , z B } = J AB ,
(9.2)
en que la matriz J AB viene dada

 1
AB
−1
J =

0
por,
Si A ≤ N, B = A + N
Si A > N, B = A − N
Otros casos.
(9.3)
Para dos funciones cualquiera del espacio de fase, (8.24) toma la forma,
{g, h} = J AB
∂g ∂h
.
∂z A ∂z B
(9.4)
La dinámica del espacio de fase viene dada por las ecuaciones (9.1), (9.2),
(9.3). Las cooordenadas z A aparecen de manera simétrica en estas ecuaciones. La falta de simetría está ahora escondida en la forma de la matriz J AB ,
96
conocida como la matriz simpléctica. Cualquier función del espacio de fase
A(q, p, t) evoluciona en el tiempo de acuerdo a
∂f A ∂f
∂f A
∂f
˙
=
z
+
{z
,
H}
+
∂z A
∂t
∂z A
∂t
∂f AB ∂H
∂f
J
+ ,
=
A
A
∂z
∂z
∂t
˙f =
o bien,
9.1.
˙f = {f , H} + ∂f .
∂t
(9.5)
El grupo simpléctico
Acabamos de ver como el paréntesis de Poisson permite escribir la evolución de cualquier cantidad en el espacio de fase de manera sencilla. La
ecuación maestra es (9.5), en que el paréntesis {·, ·} viene dado por (9.4), y
J AB es la matriz simpléctica (9.3). Las ecuaciones de Hamilton (9.1) pueden
escribirse,
∂H
(9.6)
z˙A = J AB B .
∂z
Si ahora hacemos una transformación general de coordenadas del espacio
de fase,
z A ≡ z A (ηB , t),
las ecuaciones transforman,
C
∂z A A ∂z A
AB ∂η ∂H
˙ +
η
=J
.
∂ηB
∂t
∂z B ∂ηC
(9.7)
La transformación es canónica si estas ecuaciones tienen la misma forma
que las ecuaciones de Hamilton, es decir, si se puede reescribir como (9.8),
˙ A = J AB
η
∂K
,
∂ηB
(9.8)
en que K es el hamiltoniano en las nuevas coordenadas.
Comenzaremos analizando esto en el caso en que la transformación no
tiene dependencia explícita del tiempo, z ≡ z(η). Este caso, además de ser
más simple de analizar, será el más importante y útil en lo que sigue. Por
completitud, al final de esta sección analizaremos brevemente el caso general.
97
Dado que z(η) es invertible, (9.7) es en este caso,
˙A = JC D
η
∂ηA ∂ηB ∂H
.
∂z C ∂z D ∂ηB
Por lo tanto, vemos que para que la transformación sea canónica en este
caso basta exigir que
JCD
∂ηA ∂ηB
= J AB
∂z C ∂z D
K (η) = H(z(η)).
(9.9)
(9.10)
La primera ecuación nos dice que la matriz simpléctica debe ser invariante
ante la transformación. Esto es análogo a lo que ocurría para en la definición
de los grupos de rotaciones (3.25), y el de Lorentz (7.9). Las transformaciones canónicas deben dejar invariante la matriz J AB , y por lo tanto también el
corchete de Poisson. Éste es el mismo no importa cual sea el set de coordenadas que elijamos, en la medida que estén conectadas por una transformación
canńica,
A
B
∂f ∂g
∂f ∂g
C D ∂η ∂η
=
J
A
B
C
D
∂η ∂η
∂z ∂z ∂ηA ∂ηB
∂f ∂g
= J AB A B = {f , g}z .
∂z ∂z
{f , g}η = J AB
Este resultado, ya veremos, también es válido para el caso en que la transformación depende explícitamente del tiempo.
La segunda ecuación, (9.10), nos dice que el hamiltoniano transforma
como un escalar. Esto no será cierto en el caso en que la transformación
depende del tiempo, cosa que podemos preveer de, digamos, las ecuaciones
(8.19) cuando la función generadora F depende explícitamente del tiempo.
El set de matrices de transformación de 2N × 2N,
∂ηA
= M AB
∂z B
(9.11)
que satisfacen (9.9) forman el llamado grupo simplećtico en 2N dimensiones,
Sp(2N).
Análogamente a lo que hicimos para otros grupos, ahora estudiaremos
transformaciones infinitesimales,
ηA = z A + εhA ,
98
(9.12)
en que ε es un parámetro infinitesimal. Al reemplazar en (9.9) y conservar
solo los términos lineales en ε,
B
A
C D A ∂h
C D B ∂h
ε J δC D + J δD C = 0.
(9.13)
∂z
∂z
Podemos resolver esta ecuación notando que J AB es una matriz invertible,
por lo que,
hA = J AB hB ,
(9.14)
para cierto hA . De este modo, (9.13) es
∂hD
J AC J BD C
∂z
+
∂hD
J C B J AD C
∂z
=J
AC BD
J
∂hD ∂hC
− D
∂z C
∂z
= 0.
(9.15)
Dado que J AB es invertible, el término entre paréntesis debe anularse. Esto
implica, que al menos localmente, existe una función h tal que
hA =
∂h
.
∂z A
(9.16)
Reemplazando esto en (9.12), obtenemos que dada una función arbitraria
h(z) del espacio de fase,
δz A = ηA − z A = εJ AB
∂h
,
∂z B
es una transformación canónica. En general, por lo tanto, una transformación
canónica infinitesimal es generada, localmente, por una función h del espacio
de fase a través de
δz A = ε{z A , h}
(9.17)
El grupo simpléctico es de dimensión infinita si lo consideramos actuando
en todo el espacio de fase, ya que existen infinitas funciones distintas h.
Sin embargo, en cada punto del espacio de fase la matriz de transformación
(9.11) es, en el caso infinitesimal,
M AB = δBA + εJ AC
∂2 h
.
∂z A ∂z B
La segunda derivada de h es una matriz simétrica arbitraria de 2N × 2N,
por lo que tiene N(2N + 1) parámetros. Decimos que el grupo simpléctico es
de dimensión N(2N + 1).
Las ecuaciones (9.17) tiene una forma bastante sugerente, ya que es muy
similar a las ecuaciones de Hamilton. De hecho, estas últimas las podemos
escribir,
dz A = dt{z A , H}.
99
Aquí dt es el parámetro infinitesimal. Esta ecuación nos dice que la evolución temporal es una transformación canónica. Algo esperable, ya que las
ecuaciones de Hamilton y el paréntesis de Poisson son idénticos para todo
tiempo.
Terminaremos esta sección mostrando qué sucede cuando la transformación canónica depende explícitamente del tiempo. Para esto, consideremos
nuevamente la ecuación (9.7), en la forma
˙A = JC D
η
∂ηA ∂z B
∂ηA ∂ηB ∂H
.
−
∂z C ∂z D ∂ηB ∂z B ∂t
(9.18)
Reemplacemos la transformación infinitesimal (9.12) en que hA ≡ hA (z, t)
depende del tiempo. Para esto es importante notar que a orden ε, la inversa
es
z A (η, t) = ηA − εhA (η, t),
de modo que los términos lineales en ε dan origen a la ecuación
∂hA
∂hD ∂hC ∂H
∂κ
A
C D BD
˙ =J J
η
−
+
= J AB B ,
C
D
B
∂z
∂z
∂η
∂t
∂η
(9.19)
en que hemos definido hA como en (9.14) y
K = H + εκ.
Note que las transformaciones canónicas se definen independientes de la
dinámica. Esto es, si (hA , κ) definen un transformación canónica infinitesimal
de un sistema con hamiltoniano H, también lo hacen para cualquier otro. De
no ser así, por ejemplo, cualquier transformación independiente del tiempo
sería canónica para H = 0. Aunque este no es un ejemplo muy útil, pone
de manifiesto la esencia de una transformación canónica: Es una propiedad
del espacio de fase, no de la dinámica de un Hamiltoniano particular. De
este modo, el término entre paréntesis de la ecuación (9.19) debe anularse independientemente. Esto implica lo que ya anunciamos, que la relación
(9.10) se satisface incluso para transformaciones tiempo dependientes. También implica que hA tiene la forma (9.16). De este modo, nos queda que
∂2 h
∂κ
∂hA
= J AB B ,
= J AB
B
∂t
∂t∂z
∂η
por lo que,
κ=
∂h
+ O(ε).
∂t
100
El hamiltoniano, como ya vimos, no transforma como un escalar ante transformaciones canónicas dependientes del tiempo, sino que de acuerdo a,
δH = ε
∂h
.
∂t
Esta ecuación, junto con (9.17) representan la transformación canónica infinitesimal más general posible.
9.2.
Integración de una transformación infinitesimal
Al igual como lo hicimos para transformaciones infinitesimales del grupo
de rotaciones, podemos integrar, al menos formalmente, la transformación infinitesimal para encontrar una transformación finita. Suponga para esto que
h es el generador infinitesimal para cierta transformación canónica. Repitiendo (9.17) podemos encontrar la transformación finita, de manera análoga
a lo que hicimos en el Cap. 5 para encontrar los elementos del grupo de
rotaciones a partir de las transformaciones infinitesimales.
Considere una familia de transformaciones canónicas
ηA = ηA (z, ξ),
parametrizadas por cierto parámetro ξ, z A (ξ), de modo que ξ = 0 corresponda a la identidad,
ηA (z, 0) = z A
Cuando ξ es suficientemente pequeño podemos expandir en serie de Taylor,
1 ∂2 η 2 ∂ηA A
A
ξ+
ξ ξ2 + · · · .
(9.20)
η (z, ξ) = z +
2
∂ξ ξ=0
2 ∂ξ
ξ=0
Cada una de las derivadas que aquí parecen podemos calcularlas usando
(9.17), ya que
∂ηA
= {ηA , h(z)},
∂ξ
de modo que
∂2 ηA
= {{ηA , h}, h},
2
∂ξ
y así sucesivamente. De este modo, la expansión (9.20) se escribe
1
ηA (z, ξ) = z A + {ηA , h(z)}0 ξ + {{ηA , h}, h}0 ξ 2 + · · · .
2
101
(9.21)
Note que esta expansión es muy similar a la que encontramos en la secci’on 5, el mapa exponencial de los generadores infinitesimales del grupo de
rotaciones. De hecho, podemos también escribir la ecuación formalmente,
η(ξ) = eξ{·,h} η(0)
En que la exponencial queda definida por la expansión (9.21). Note que esto
no es solo una notación austera. Al igual que la matriz de 3 × 3, que es
una función lineal sobre R3 , el objeto {·, h} es un operador lineal que actúa
sobre el conjunto de funciones del espacio de fase. En general, considere la
ecuación,
dx
= Ox,
dα
en que x(α) es una trayectoria en cierto espacio, y O un operador lineal
sobre este. Ésta tiene como solución,
x(α) = R(α)x(0),
R(α) = eαO .
En la expansión en serie entendemos O n como la sucesiva aplicación, n
veces, del operador O.
9.3.
Teorema de Liouville
Supongamos que tomamos un subconjunto del espacio de fase, una región D como en la figura. Cada punto en esta región, en cierto momento t,
representa la información completa del sistema y evolucionará desde allí de
acuerdo a las ecuaciones de Hamilton. La evolución de cada punto define
una evolución de la región, como en la figura xxx. El teorema de Liouville
nos dice que el volumen de esta región en el espacio de fase,
Z
Z
dq1 . . . dqN dp1 . . . dpN =
d2N z
D
D
es invariante. Para demostrarlo recuerde que la evolución hamiltoniana es
una transformación canónica, por lo que, si z A parametriza la región D1 en
t1 y ηA la región D2 en t2 , y si ηA (z, t) es la transformación que lleva una
región en la otra,
A Z
Z ∂η 2N A
2N
d η=
det ∂z B d z .
D2
D1
102
Sin embargo, de (9.9) tenemos que
A
∂η C D ∂ηB
= det J AB .
det
J
∂z C
∂z D
El determinante de la matriz simpléctica es 1, por lo que esto implica que
A det ∂η = 1,
∂z B de donde obtenemos el resultado enunciado,
Z
Z
2N
d z=
d2N η
D1
D2
Por supuesto, este resultado es válido para cualquier transformación canónica, no solo para la evolución hamiltoniana.
9.4.
Generadores infinitesimales y sus álgebras
Considere el espacio de fase 2N-dimensional (qa , pa ), y el generador
G(p, q) = p1 .
Este tiene corchetes de Poisson no nulos solo con q1 , y por lo tanto, genera
la transformación canónica,
δq1 = ε{q1 , G} = ε, δqa6=1 = 0,
δpa = 0.
Es decir, pa genera una traslación infinitesimal de su coordenada conjugada,
qa . Podemos diseñar así generadores de traslaciones de cualquier función
Q del espacio de fase. Basta que encontremos una transformación canónica en la que Q sea una de las coordenadas. Su momentum conjugado P
será el generador que buscamos. Así por ejemplo, −q1 genera traslaciones
infinitesimales de su momentum conjugado p1 .
Veamos un ejemplo. Consideremos una partícula no relativista en 3D.
Supongamos que queremos buscar un generador de rotaciones entorno al
eje z. Si φ es el ángulo de la partícula en el plano (x, y), sabemos que su
conjugado es el momentum angular,
Jz = py x − px y.
103
Comparando con la discusión en la sección 5.2, notamos que, efectivamente,
éste es el generador infinitesimal de rotaciones en torno a z,
δx
δy
δz
δpx
δpy
δpz
=
=
=
=
=
=
ε{x, Jz } = ε{x, −px y} = −εy
ε{y, Jz } = ε{y, py x} = εx
ε{z, Jz } = 0
ε{px , Jz } = ε{px , py x} = −εpy
ε{py , Jz } = ε{py , −px y} = εpx
ε{pz , Jz } = 0.
Podemos generar rotaciones en torno a los ejes x, e y utilizando
Jx = pz y − py z,
Jy = px z − pz x,
respectivamente. Ahora calculemos los corchetes de Poisson entre estos generadores,
{Jx , Jy } = {pz y − py z, px z − pz x}
= {pz y, px z} + {py z, pz y}
= px y − py x = Jz
Si ahora hacemos los otros dos corchetes, llegaremos a que
{Ji , Jj } = εijk J k
(9.22)
Ejercicio 9.1
Demuestrelo.
Una cosa interesante de la expresión (9.22) es que nos muestra que los
generadores J i forman un subálgebra de Lie del álgebra funciones del espacio
de fase. Note además, que la expresión (9.22) es idéntica a (5.13) (Hay un
signo menos de diferencia ya que aquí escogimos la orientación inversa,
J → −J ). A pesar de que en un caso se trata de conmutadores de matrices
y en otro de corchetes de Poisson de generadores en el espacio de fase,
el isomorfismo entre las dos expresiones no es casual. En ambos casos J i
104
representa un generador infinitesimal del grupo de rotaciones SO(3). En un
caso, sin embargo, el generador es una matriz que actúa sobre un vector del
espacio euclídeo,
δ~
x = εJi x~,
en el otro es una función actuando sobre las coordenadas del espacio de
fase a través del corchete de Poisson,
δz A = ε{z A , J i }.
Ambos generadores deben satisfacer el mismo álgebra ya que la información que ésta contiene sobre el grupo de rotaciones es más fundamental
que el espacio en que sus elementos actúen. Para entenderlo, suponga que
hacemos cuatro rotaciones infinitesimales. Primero una generada por J i con
parámetro ε1 y luego una generada por J j , y parámetro ε2 . Luego haremos las
operaciones inversas, esto es, una rotación generada por J i con parámetro
−ε1 y posteriormente una generada por J j , -ε2 . Independiente de si estas rotaciones son hechas sobre el espacio de configuración o sobre el espacio de
fase, podemos escribirlas como una sucesión de cuatro operadores lineales,
x 0 = R4 R3 R2 R1 x,
utilizando la notación del final de la sección 9.2. Ahora expandimos hasta
segundo órden en los parámetros infinitesimales ε1 , ε2 , cosa necesaria pues
será el orden más bajo que no se anula,
1 2 2
1 2 2
0
x =
1 − ε2 Oj + ε2 Oj
1 − ε1 Oi + ε1 Oi
2
2
1 2 2
1 2 2
1 + ε2 Oj + ε2 Oj
1 + ε1 Oi + ε1 Oi x
2
2
= x − ε1 ε2 Oi Oj − Oj Oi x.
Por lo tanto, el efecto total de esta secuencia de transformaciones es al orden
más pequeño,
δx = −ε1 ε2 Oi , Oj .
(9.23)
En el caso en que actuamos sobre el espacio de configuración, Oi son las
matrices Ji , y el lado derecho de (9.23) corresponde a un conmutador de
matrices. En el caso en que actuamos en el espacio de fase Oi = {·, Ji }, por
lo que,
δz A = −ε1 ε2 {{z a , J i }, J j } − {{z a , J j }, J i }
= −ε1 ε2 {z A , {J i , J j }},
105
en donde en el último paso usamos la identidad de Jacobi. Vemos entonces
que si en el espacio de configuración la combinación de las cuatro rotaciones
en consideración es generada por [Ji , Jj ], entonces en el espacio de fase lo será
por {J i , J j }. Note que en ningún momento hemos utilizado las propiedades
particulares del grupo de rotaciones. Podemos afirmar por lo tanto que, en
general, cualquier álgebra de generadores infinitesimales que construyamos
en el espacio de configuración tendrá una representación isomorfa en el
espacio de fase.
9.5.
Simetrías y cantidades conservadas
Considere una cantidad conservada en el espacio de fase Q(z), que no
depende explícitamente del tiempo,
dQ
= {Q, H} = 0.
dt
Vemos que la característica de una cantidad conservada de este tipo es que
tiene corchetes de Poisson nulos con el Hamiltoniano. Otra forma de decir
lo mismo, es que bajo la transformación canónica infinitesimal que genera el
Hamiltoniano, esto es, el flujo Hamiltoniano, la cantidad Q es invariante,
dQ = ε{Q, H} = 0.
(9.24)
Esta expresión se puede también leer a la inversa, en el sentido que bajo la
tranformación canónica generada por Q, el Hamiltoniano es invariante,
dH = ε{H, Q} = 0.
(9.25)
Estas dos ecuciones representan el teorema de Noether en su versión Hamiltoniana. En efecto, recordemos la forma del principio de acción en forma
Hamiltoniana,
Z
˙ a − H) .
dt (pa q
Toda transformaci’on canónica deja invariante el primer término, salvo por
posibles términos de borde. Si además el generador de la transformación
tiene corchetes de Poisson nulos con el Hamiltoniano, el segundo tambi’en
es invariante de acuerdo con (9.25). La acción es invariante salvo términos
de borde, por lo que la transformación generada por Q es una simetría. La
expresión {Q, H} = 0 nos dice, por lo tanto, que Q es un generador de
simetría, y, simultáneamente, que Q es una cantidad conservada.
106
9.6.
La teoría de Hamilton-Jacobi
Hemos visto que los sistemas mecánicos con N grados de libertad satisfacen N ecuaciones diferenciales ordinarias de segundo orden (ecuaciones
Lagrangianas), pero que podemos también escribirlas en términos de 2N
variables que satisfacen 2N ecuaciones de primer orden (ecuaciones Hamiltonianas). Una tercera manera, matemáticamente, equivalente de formular el
problema, es a través de una única ecuación diferencial, en N + 1 derivadas
parciales: la ecuación de Hamilton-Jacobi.
Para encontrarla, recuerde que la evolución es una transformación canónica, por lo que debe existir una que lleve cualquier punto del espacio de fase
en cualquier tiempo t, z A (t), a sus valores iniciales en t = 0, Z0A (t) = z A (0).
Evidentemente, estas nuevas variables satisfacen
Z˙0A = 0.
Por lo tanto, el hamiltoniano transformado debe anularse. Considere una
función generadora S que depende de (qa , Pa ), como la descrita en (8.23).
En este caso las coordenadas Z0A = (Q a , Pa ) representan los valores iniciales
en t = 0, y H 0 = 0, de donde,
∂S
= pa ,
∂qa
∂S
= Qa,
∂Pa
∂S
+ H = 0.
∂t
(9.26)
Encontrar S(q, P, t) que satisfaga la tercera ecuación es equivalente a encontrar la solución general a las ecuaciones de movimiento. Esto eimplica
resolver,
∂S
∂S
+ H q, a = 0.
(9.27)
∂t
∂q
Ésta es la ecuación de Hamilton-Jacobi.
Podríamos también haber elegido una función generadora S 0 (q, Q, t), que
dependa de las coordenadas qa en t y de las condiciones iniciales en t = 0,
Q a , como la descrita en (8.19). La ecuación de Hamilton-Jacobi resultante
será la misma, salvo porque en ese caso
∂S 0
= −Pa .
∂Q a
Pero en realidad ambas funciones generadoras darán origen a una descripción equivalente. Al resolver (9.27) , una ecuación de primer orden en N + 1
variables, encontraremos N + 1 constantes de integración. Una de estas es
trivial, ya que en la ecuación solo aparecen derivadas de S, por lo que siempre podemos sumar una constante aditiva. Así, podemos identificar las N
107
constantes no triviales con los N momentum en t = 0, Pa . Del mismo modo,
podemos identificarlas con los Q a , que también son constantes. Una vez que
tenemos S(q, P, t), podemos encontrar la solución general de las ecuaciones,
resolviendo las dos primeras relaciones en (9.26) en favor de qa y pa .
Veamos el ejemplo más sencillo: la partícula libre no relativista en una
dimensión,
1 2
p.
H=
2m
La ecuación de Hamilton-Jacobi es
2
∂S
1
∂S
+
= 0.
(9.28)
∂t
2m ∂q
Probando con
S = αt + βq,
obtenemos
α=−
β2
,
2m
y
β2
t + βq.
2m
Ahora identificamos P con β. Esta no es la única posibilidad, pero es la que
adoptaremos,
P2
S(q, P) = −
t + Pq,
2m
de donde
S=−
∂S
=P
∂q
∂S
P
Q =
= − t + q,
∂P
m
p =
de donde obtenemos la solución general,
q=Q+
P
t,
m
108
p = P.
Ejercicio 9.2
Resuelva el oscilador armónico en una dimensión,
H=
α 2
q + p2 ,
2
en el formalismo de Hamilton-Jacobi.
109