MET Mmi-Apuntes PDF
MET Mmi-Apuntes PDF
MET Mmi-Apuntes PDF
Gabriel Álvarez
25 de septiembre de 2014
ii
Índice general
1. INTRODUCCIÓN 3
1.1. Ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Sistemas de ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Reducción a sistemas de ecuaciones de primer orden . . . . . . . . . . . . . . . . . . . 4
1.4. Ecuaciones y sistemas autónomos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.5. Ecuaciones y sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.6. Soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
3. ECUACIONES LINEALES 25
3.1. Funciones complejas de variable real . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3.2. Ecuaciones lineales de segundo orden . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.1. Operadores diferenciales lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 26
3.2.2. Dependencia lineal de funciones . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2.3. Soluciones de la ecuación homogénea . . . . . . . . . . . . . . . . . . . . . . . 28
3.2.4. Teorema de separación de Sturm . . . . . . . . . . . . . . . . . . . . . . . . . 29
1
2 ÍNDICE GENERAL
4. SISTEMAS LINEALES 49
4.1. Notación matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
4.2. Sistemas lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
4.3. Sistemas homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
4.3.1. Matrices fundamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4.3.2. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.4. Sistemas no homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.5. Fórmula de variación de constantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
4.5.1. Ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
4.6. Sistemas lineales con coeficientes constantes . . . . . . . . . . . . . . . . . . . . . . . 55
4.6.1. Exponencial de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
4.6.2. Solución general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
4.6.3. Cálculo de la exponencial de una matriz . . . . . . . . . . . . . . . . . . . . . 56
Capı́tulo 1
INTRODUCCIÓN
dx
= f (t, x)
dt
o abreviadamente x0 = f (t, x), donde x es función de la variable t y f está definida en una región D
del plano (t, x).
El término “explı́cita” indica que la derivada x0 está dada como función explı́cita de (t, x) en la
región D. La forma general de una ecuación diferencial de primer orden es F (t, x, x0 ) = 0, que no
necesariamente determina x0 como función unı́voca de (t, x).
Definición 1.2 Se llama ecuación diferencial de orden n explı́cita a una ecuación de la forma
dn x dx dn−1 x
= f (t, x, , . . . , )
dtn dt dtn−1
De nuevo el término “explı́cita” indica que el segundo miembro determina la derivada de orden más
alto (el orden de la ecuación) como función explı́cita de la variable t, de la propia función x y de sus
derivadas x(k) hasta el orden n − 1.
dx dx
= t − 2x y = x2
dt dt
son explı́citas. Las ecuaciones de primer orden
2 2
dx dx
+1=0 y + x2 = 0
dt dt
no son explı́citas.
3
4 CAPÍTULO 1. INTRODUCCIÓN
x01 = f1 (x1 , . . . , xn )
..
.
0
xn = fn (x1 , . . . , xn ).
Los usos del término lineal para ecuaciones y para sistemas son compatibles, ya que el sistema
de ecuaciones diferenciales de primer orden asociado a una ecuación diferencial lineal (homogénea)
mediante el método de la sección 1.3 es un sistema lineal (homogéneo).
6 CAPÍTULO 1. INTRODUCCIÓN
1.6. Soluciones
Definición 1.8 Una solución de la ecuación diferencial
x0 = f (t, x)
Definición 1.10 Una solución del sistema de ecuaciones diferenciales de primer orden
x01 = f1 (t, x1 , . . . , xn )
..
.
0
xn = fn (t, x1 , . . . , xn )
Definición 2.1 (Problema de valores iniciales) Dado un punto (t0 , x0 ) de la región D en que
está definida la ecuación diferencial x0 = f (t, x), encontrar un intervalo I que contenga a t0 y una
solución u definida en I tal que u(t0 ) = x0 .
Ejemplo 2.2 Mediante una fórmula debida a Leibniz que se estudiará en la sección 2.6 se encuentra
que la solución del problema de valores iniciales para la ecuación x0 = t − 2x es
1 t −2(t−t0 ) 1 t0
u(t) = − + + e x0 + − .
4 2 4 2
En particular la solución que pasa por el punto (t0 , x0 ) = (1/2, 0), o equivalentemente, que cumple
la condición inicial u(1/2) = 0, es la recta
1 t
u(t) = − + .
4 2
7
8 CAPÍTULO 2. ECUACIONES DE PRIMER ORDEN
2 2
1 1
0 0
-1 -1
-2 -2
-2 -1 0 1 2 -2 -1 0 1 2
1
u(t) = , t<1
1−t
que deja de estar definida en t = 1 aunque la función f (t, x) = x2 es continua en todo el plano (t, x).
Y en general tampoco basta con la continuidad de f para que la solución del problema de valores
iniciales sea única.
u1 (t) ≡ 0, u2 (t) = t3
x0 = 3x2/3 , u(0) = 0.
Definición 2.3 Una solución u de la ecuación diferencial x0 = f (t, x) se denomina maximal cuando
no admite prolongación.
La solución maximal correspondiente es v(t) = 1/(1 − t), t < 1 que coincide con la suma de la serie
de Taylor u(t) en el intervalo −1 < t < 1 en el que esta serie converge.
Teorema 2.2 Si f y ∂f /∂x son continuas en una región D del plano (t, x), entonces para todo
(t0 , x0 ) en la región D existe una única solución maximal u que verifica u(t0 ) = x0 . El intervalo I en
el que está definida esta solución maximal es abierto.
Teorema 2.3 Si f y ∂f /∂x son continuas en todo el plano y el intervalo de definición I de una
solución maximal u tiene un extremo α, entonces |u(t)| → ∞ cuando t → α.
2 2
1 1
0 0
-1 -1
-2 -2
-2 -1 0 1 2 -2 -1 0 1 2
dx
= f (t)
dt
donde la función f es continua en un intervalo I. Geométricamente describen campos de direcciones
invariantes bajo traslaciones a lo largo del eje x.
La solución del problema de valores iniciales se obtiene aplicando el teorema fundamental del
cálculo: si t0 está en I entonces
Z t
u(t) = x0 + f (s) ds
t0
es la solución definida en I que cumple la condición u(t0 ) = x0 (en general esta solución no se puede
expresar como combinación finita de funciones elementales). La aparición de x0 como constante
aditiva muestra que si una curva es solución de la ecuación diferencial, cualquier curva obtenida
trasladando verticalmente la dada también es solución, de acuerdo con la simetrı́a del campo de
direcciones.
dx
=t
dt
es
t2 t20
u(t) = x0 + − .
2 2
El campo de direcciones y siete soluciones de la ecuación aparecen en la figura 2.2.
2.4. ECUACIONES CON VARIABLES SEPARABLES 11
y las restricciones mencionadas en el párrafo anterior se deben a posibles ceros de la función h(x),
que dan lugar a soluciones constantes.
Se puede demostrar que si la ecuación tiene la propiedad de unicidad (para lo cual es suficiente que
g sea continua y h tenga derivada continua) este método da todas las soluciones (maximales) de la
ecuación.
12 CAPÍTULO 2. ECUACIONES DE PRIMER ORDEN
-1
-2
-2 -1 0 1 2 3
2.4.2. Ejemplo 1
La ecuación
dx
=x
dt
tiene la solución constante u(t) ≡ 0. Si x 6= 0, mediante separación de variables se obtiene
Z
dx
= t + c, ln |x| = t + c, |x| = et+c = ket
x
con k = ec > 0, o lo que es equivalente
x = cet
con c arbitraria (c = 0 da la solución constante). La solución del problema de valores iniciales es
u(t) = x0 et−t0 .
Estas soluciones están definidas para todo t real y cubren el plano (t, x).
2.4. ECUACIONES CON VARIABLES SEPARABLES 13
-1
-2
-2 -1 0 1 2 3
2.4.3. Ejemplo 2
La ecuación
dx
= 2tx2
dt
tiene la solución constante u(t) ≡ 0. Si x 6= 0, mediante separación de variables se obtiene
Z Z
dx 1 2 1
= 2t dt, − = t + c, x = − .
x2 x t2 + c
A continuación es preciso extraer de esta relación soluciones de la ecuación diferencial:
Si c es positivo se obtiene una solución definida para todo t real.
Si c = 0 se obtienen dos soluciones, una definida para t > 0 y otra definida para t < 0.
√ √
Si c es negativo se obtienen tres soluciones,
√ una (positiva)
√ definida si − −c < t < −c y dos
soluciones (negativas) definidas en t < − −c y en −c < t respectivamente.
El teorema de existencia y unicidad implica que por cada punto (t0 , x0 ) del plano pasa una y sólo
una solución, que si x0 6= 0 corresponde al valor
1
c = −t20 − (x0 6= 0).
x0
En resumen, la solución al problema de valores iniciales es
1
u(t) = − si x0 6= 0,
t2 t20
− − 1/x0
u(t) ≡ 0 si x0 = 0.
Salvo las soluciones constantes, ninguna solución puede tener máximos o mı́nimos relativos. Es
decir, toda solución o es constante, o es estrictamente creciente o es estrictamente decreciente.
Si una solución permanece acotada debe tender asintóticamente a una solución constante.
En efecto, si |u(t)| ≤ K para todo t ≥ t0 y u no es constante, es estrictamente monótona. Pero
toda función monótona y acotada tiende a un lı́mite, luego existe
lı́m u(t) = a.
t→∞
3 3 3
2 2 2
1 1 1
0
x
0 0
x
x
-1 -1 -1
-2 -2
-2
-3
2 1 0 -1 -2 -3 -2 -1 0 1 2 3 -3 -2 -1 0 1 2 3
x - x3 t t
2.5.2. Ejemplo
Como ilustración de estos resultados, en la figura 2.5 aparecen las soluciones de la ecuación
autónoma
dx
= x − x3 .
dt
Las soluciones constantes son u(t) ≡ −1, u(t) ≡ 0 y u(t) ≡ 1.
Todas las soluciones u tales que −1 ≤ u(t) ≤ 1 para algún t están definidas para todo t real.
Puesto que f (x) < 0 si −1 < x < 0, las soluciones comprendidas entre x = −1 y x = 0 son
decrecientes, tienden a −1 cuando t → ∞, y tienden a 0 cuando t → ∞.
Puesto que f (x) > 0 si 0 < x < 1, las soluciones comprendidas entre x = 0 y x = 1 son
crecientes, tienden a 1 cuando t → ∞, y tienden a 0 cuando t → −∞.
Puesto que f (x) < 0 si x > 1, las soluciones con valores iniciales x0 > 1 son decrecientes y
tienden a 1 cuando t → ∞.
Puesto que f (x) > 0 si x < −1, las soluciones con valores iniciales x0 < −1 son crecientes y
tienden a −1 cuando t → ∞.
Todas las curvas de cada una de las cuatro bandas se obtiene mediante traslación horizontal
de una curva cualquiera de esa banda.
En este ejemplo el método de separación de variables permite obtener fórmulas para las soluciones
no constantes: Z Z Z
dx 1 2 1 1
= − − dx = dt,
x − x3 2 x x−1 x+1
1 (x − 1)(x + 1) 1 1
− ln = − 2 ln 1 − x2 = t − c,
2 x2
1
x = ±√
1 ± e−2(t−c)
16 CAPÍTULO 2. ECUACIONES DE PRIMER ORDEN
2.5.3. Estabilidad
Definición 2.5 Sea u(t) ≡ c una solución constante de la ecuación autónoma x0 = f (x).
Se dice que la solución constante u(t) ≡ c es estable si para todo > 0 existe un δ > 0 tal que
si v es una solución que satisface la condición inicial |v(t0 ) − c| < δ entonces |v(t) − c| < para
todo t ≥ t0 .
Si además existe un δ > 0 tal que |v(t0 ) − c| < δ implique lı́mt→∞ v(t) = c, se dice que la
solución constante u(t) ≡ c es asintóticamente estable.
Cuando se quiere especificar que una solución es estable pero no asintóticamente estable se dice
que es débilmente estable.
Ejemplo 2.7 La figura 2.5 ilustra que las soluciones constantes u(t) ≡ −1 y u(t) ≡ 1 son asintóti-
camente estables, mientras que u(t) = 0 es inestable.
Teorema 2.4 Condición necesaria y suficiente para que u(t) ≡ c sea asintóticamente estable es
que f (x) > 0 para todo x suficientemente próximo a c y menor que c y que f (x) < 0 para todo x
suficientemente próximo a c y mayor que c.
En particular, si f (c) = 0 y f 0 (c) < 0 entonces u(t) ≡ c es asintóticamente estable, y si f (c) = 0
0
y f (c) > 0 entonces u(t) ≡ c es inestable.
Si f (c) = 0 y f 0 (c) = 0 la solución puede ser débilmente estable (por ejemplo, cualquier solución
de x0 = 0), inestable (por ejemplo, la solución nula de x0 = x3 ), e incluso asintóticamente estable
(por ejemplo, la solución nula de x0 = −x3 ).
2.6. ECUACIÓN LINEAL 17
2
2
1 1
0 0
-1 -1
-2
-2
0 1 2 3 4 5 1 2 3 4
Figura 2.6: Campo de direcciones y siete soluciones de la ecuación lineal homogénea de primer orden
x0 = (t/10 + sen(πt))x.
o equivalentemente
Rt Z t R
a(τ )dτ t
a(τ )dτ
w(t) = x0 e t0
+ e s b(s)ds.
t0
En particular si 0 está en el intervalo I, la solución que cumple v(0) = 0 está dada por
Z t
v(t) = G(t, s)b(s)ds.
0
Rt
a(τ )dτ
donde G(t, s) = e s se denomina función de Green para el problema de valores iniciales.
Ejemplo 2.8 La ecuación diferencial que se utilizó para ilustrar el concepto de campo de direcciones
x0 = t − 2x
es una ecuación lineal. Poniendo a(t) = −2, b(t) = t en la fórmula de Leibniz se obtiene
1 t −2(t−t0 ) 1 t0
w(t) = − + + e x0 + − .
4 2 4 2
2.7. FORMAS DIFERENCIALES 19
ω = P (x, y) dx + Q(x, y) dy
define en cada punto del plano (x, y) una forma lineal que actúa sobre los vectores tangentes en dicho
punto del plano: si v = (v1 , v2 ) es un vector tangente en el punto (x0 , y0 ), entonces
En particular, si (u(t), v(t)) es una curva con vector tangente v = (u0 (t), v 0 (t)), entonces la forma ω
hace corresponder al vector tangente v en el punto (x, y) = (u(t), v(t)) el número
ω1 = dx,
ω2 = xdy,
ω3 = 2xdx + 2ydy.
La acción de cada una de estas formas diferenciales sobre los vectores tangentes v1 , v2 y v3 de la
figura 2.7 está dada en la siguiente tabla:
v 1 v2 v 3
ω1 0 −1 1
ω2 0 −2 −2
ω3 0 −8 0
v2 v3
v1
1 2 3
Definición 2.8 Una forma diferencial ω = P (x, y) dx + Q(x, y) dy se denomina exacta si existe una
función H(x, y) tal que
∂H ∂H
P (x, y) = , Q(x, y) =
∂x ∂y
de modo que ω = dH.
Teorema 2.8 La integral de una forma diferencial exacta ω = dH a lo largo de una curva γ sólo
depende del punto inicial y del punto final de la curva:
Z
ω = H(u(b), v(b)) − H(u(a), v(a)).
γ
En efecto:
Z Z b
ω= [P (u(t), v(t))u0 (t) + Q(u(t), v(t))v 0 (t)]dt
γ a
Z b
= [Hx (u(t), v(t))u0 (t) + Hy (u(t), v(t))v 0 (t)]dt
a
Z b
d
= [H(u(t), v(t))]dt
a dt
= H(u(b), v(b)) − H(u(a), v(a)).
Teorema 2.9 Si la forma diferencial ω = P (x, y) dx + Q(x, y) dy está definida en todo el plano, la
condición necesaria y suficiente para que sea exacta es la igualdad de las derivadas parciales cruzadas:
∂Q ∂P
= .
∂x ∂y
Entonces
Z 1 Z 1
H(x, y) = x P (tx, ty)dt + y Q(tx, ty)dt
0 0
Z x Z y
= P (t, 0)dt + Q(x, t)dt.
0 0
2.8. ECUACIONES EXACTAS 21
P (x, y) dx + Q(x, y) dy = 0.
Geométricamente la ecuación impone que (salvo en los puntos en los que P y Q se anulen simultánea-
mente) el vector tangente (x0 (t), y 0 (t)) a la curva solución en el punto (x0 , y0 ) sea perpendicular al
vector (P (x0 , y0 ), Q(x0 , y0 )).
P (x, y) dx + Q(x, y) dy = 0
ω = P (x, y) dx + Q(x, y) dy
es exacta.
∂H ∂H
= P (x, y), = Q(x, y).
∂x ∂y
(x − y 2 ) dx + (2y − 2xy) dy = 0
es exacta, ya que
∂Q ∂P
= −2y = .
∂x ∂y
Aplicando la fórmula de la sección anterior se obtiene
Z 1 Z 1
2 2
H(x, y) = x (tx − t y )dt + y (2ty − 2t2 xy)dt
0 0
2
x
= + y 2 − xy 2 .
2
y las soluciones están definidas implı́citamente por
x2
+ y 2 − xy 2 = c.
2
22 CAPÍTULO 2. ECUACIONES DE PRIMER ORDEN
Definición 2.10 Una función M (x, y) > 0 se dice que es un factor integrante de la ecuación
P (x, y) dx + Q(x, y) dy = 0
si la ecuación
M (x, y)P (x, y) dx + M (x, y)Q(x, y) dy = 0
es exacta, es decir, si
∂(M Q) ∂(M P )
= .
∂x ∂y
Equivalentemente, M (x, y) es un factor integrante de la forma diferencial ω si M ω = dH, en cuyo
caso las soluciones de ambas ecuaciones están definidas implı́citamente por H(x, y) = c.
No existe un método general para calcular un factor integrante, aunque existen criterios válidos
en algunos casos particulares. Por ejemplo, para que una ecuación admita un factor integrante M (x)
que sea función sólo de x, el segundo miembro de
M 0 (x)
1 ∂Q ∂P
=− −
M (x) Q(x, y) ∂x ∂y
debe ser independiente de y y función continua de x, en cuyo caso se obtiene
R Qx (x,y)−Py (x,y)
M (x) = e− Q(x,y)
dx
.
También se pueden utilizar factores integrantes negativos (M (x, y) < 0).
M 0 (xy)
1 ∂Q ∂P
=− −
M (xy) yQ(x, y) − xP (x, y) ∂x ∂y
sea función únicamente del producto xy. En este caso se comprueba que
1 ∂Q ∂P 1
− − =−
yQ(x, y) − xP (x, y) ∂x ∂y xy
luego
1
M (xy) =
|xy|
es un factor integrante en el interior de cada uno de los cuatro cuadrantes.
Por último, nótese que los factores integrantes (globales o locales) en general no son únicos y
pueden existir factores integrantes de una misma forma diferencial con dependencia distinta en las
variables (x, y).
ECUACIONES LINEALES
Nótese que g y h son funciones reales definidas en el intervalo real I. Los lı́mites se definen mediante
Se dice que f es continua, derivable o integrable si lo son tanto su parte real como su parte imaginaria.
La derivada de f está dada por
f 0 (t) = g 0 (t) + ih0 (t).
Análogamente, Z Z Z
f (t) dt = g(t) dt + i h(t) dt.
Entre las funciones de variable real con valores complejos que se usarán con más frecuencia figuran
los polinomios con coeficientes complejos a0 , . . . , an ,
p(t) = a0 + a1 t + · · · + an tn , t ∈ I,
25
26 CAPÍTULO 3. ECUACIONES LINEALES
Teorema 3.1 Sean a1 (t), a2 (t) y b(t) funciones complejas continuas definidas en un intervalo I.
Dado un número real t0 en I y dos números complejos cualesquiera x0 , x1 , existe una única solución
maximal w de la ecuación diferencial x00 + a1 (t)x0 + a2 (t)x = b(t) que cumple las condiciones iniciales
w(t0 ) = x0 , w0 (t0 ) = x1 . El intervalo de definición de w es el intervalo I.
Geométricamente, dos soluciones reales distintas pueden cortarse en un punto pero no pueden tener
además la misma tangente en el punto.
Definición 3.2 Se dice que las funciones u1 , . . . , un son linealmente dependientes si existen constan-
tes c1 , . . . , cn no todas nulas tales que c1 u1 (t) + · · · + cn un (t) = 0 para todo t de I. En caso contrario
se dice que las funciones son linealmente independientes.
En particular dos funciones u1 y u2 son linealmente dependientes si y sólo si una de ellas es un
múltiplo de la otra. Es decir, si existe una constante c tal que u1 (t) = cu2 (t) o u2 (t) = cu1 (t) para
todo t de I.
Ejemplo 3.1 Las funciones u1 (t) ≡ 1, u2 (t) = cos(2t) y u3 (t) = sen2 t son linealmente dependientes
ya que
u1 (t) − u2 (t) − 2u3 (t) ≡ 0.
Teorema 3.2 Si las funciones u1 , . . . , un son linealmente dependientes y derivables hasta el orden
n − 1, entonces su wronskiano
u1 (t)
0 · · · un (t)
0
u1 (t) ··· un (t)
W (t) = .. ..
...
. .
(n−1) (n−1)
u1 (t) · · · un (t)
es idénticamente nulo en I.
Si las funciones son linealmente dependientes, existen constantes c1 , . . . , cn no todas nulas tales que
c1 u1 (t) + · · · + cn un (t) = 0 para todo t de I. Derivando n − 1 veces esta identidad se obtiene el sistema
homogéneo de n ecuaciones lineales con n incógnitas
c1 u1 (t) + · · · + cn un (t) = 0
c1 u01 (t) + · · · + cn u0n (t) = 0
..
.
(n−1)
c1 u 1 (t) + · · · + cn u(n−1)
n (t) = 0.
Teorema 3.4 Si u es una solución de la ecuación homogénea L(x) = 0 que para cierto t0 cumple
u(t0 ) = 0, u0 (t0 ) = 0, entonces u(t) ≡ 0.
Es consecuencia inmediata de la unicidad.
Teorema 3.5 Dos soluciones u1 y u2 de la ecuación homogénea L(x) = 0 son linealmente depen-
dientes si y sólo si su wronskiano se anula para algún valor t0 .
En la sección anterior hemos demostrado que si u1 y u2 son linealmente dependientes, su wronskiano
es idénticamente nulo (es decir, se puede tomar como t0 cualquier punto). Recı́procamente, si el
wronskiano se anula en un punto t0 , el sistema de ecuaciones
c1 u1 (t0 ) + c2 u2 (t0 ) = 0
c1 u01 (t0 ) + c2 u02 (t0 ) = 0
tiene solución c1 , c2 no nula. Por tanto la función u(t) = c1 u1 (t) + c2 u2 (t) es solución de la ecuación
homogénea y cumple la condición inicial u(t0 ) = 0, u0 (t0 ) = 0. La unicidad implica que u(t) ≡ 0 y
por tanto u1 y u2 son linealmente dependientes.
Teorema 3.7 El wronskiano de dos soluciones de la ecuación homogénea L(x) = 0 o es nulo para
todo t o no lo es para ningún t. En el primer caso las soluciones son linealmente dependientes; en el
segundo caso son linealmente independientes. En particular las soluciones u1 y u2 que cumplen las
condiciones iniciales u1 (t0 ) = 1, u01 (t0 ) = 0 y u2 (t0 ) = 0, u02 (t0 ) = 1 son linealmente independientes,
ya que W (t0 ) = 1.
3.2. ECUACIONES LINEALES DE SEGUNDO ORDEN 29
x00 + p(t)x = 0
y
x00 + q(t)x = 0
respectivamente, donde p(t) > q(t) > 0 para todo t del intervalo I. Entonces u se anula al menos
una vez entre cada dos ceros sucesivos de v.
6 0
En efecto, sean t1 y t2 dos ceros sucesivos de v, de modo que v(t1 ) = 0, v(t2 ) = 0 y v(t) =
si t1 < t < t2 . No hay restricción en tomar v(t) > 0. Supóngase además que fuera u(t) > 0 en
t1 < t < t2 y sea W (t) el wronskiano
Pero
ϕ(t1 ) = u(t1 )v 0 (t1 ) ≥ 0 ϕ(t2 ) = u(t2 )v 0 (t2 ) ≤ 0
lo que conduce a una contradicción.
donde se puede tomar c(t0 ) = 0, ya que c(t0 ) simplemente suma a la solución un múltiplo de u1 .
Se obtiene ası́ la fórmula para u2 que aparece en el teorema. Nótese que la integral que da c(t) en
principio está definida únicamente en un entorno de t0 en el que u1 (t) no se anule, pero debido a la
unicidad, la solución u2 (t) = c(t)u1 (t) está bien definida en todo el intervalo de definición de u1 .
Para comprobar que u2 es linealmente independiente de u1 basta con calcular el wronskiano:
W (t) = u1 u02 − u01 u2
= u1 (c0 u1 + cu01 ) − u01 cu1
= c0 u21
Rt
− a1 (τ )dτ
=e t0
6= 0.
Ejemplo 3.2 Aplicando este resultado a la ecuación
x00 + x = 0
con u1 (t) = cos t se obtiene como segunda solución linealmente independiente
Z
1
u2 (t) = cos t dt = cos t tan t = sen t.
cos2 t
32 CAPÍTULO 3. ECUACIONES LINEALES
Teorema 3.13 La suma de una solución de la ecuación completa L(x) = b(t) y una solución de la
ecuación reducida L(x) = 0 es una solución de la ecuación completa.
Si L(v) = b(t) y L(u) = 0 entonces
w = v + c1 u 1 + c2 u 2
x00 − x = 0
admite como soluciones linealmente independientes las funciones u1 (t) = et y u2 (t) = e−t (o equiva-
lentemente u1 (t) = cosh t y u2 (t) = senh t). Por tanto la solución general de la ecuación completa
x00 − x = 1 es
x00 − x = 2et
x00 − x = 1 + 2et
x00 − x = t2 et
admite como soluciones linealmente independientes u1 (t) = et y u2 (t) = e−t , cuyo wronskiano es
W (t) = −2. Aplicando la fórmula de variación de constantes se obtiene la solución particular de la
ecuación completa
Z t2 t Z −t 2 t
−t et e t e te
v(t) = e dt − e dt
(−2) (−2)
e−t et
Z Z
2t 2
=− e t dt + t2 dt
2 2
3
t2
t t t 1
=e − + − .
6 4 4 8
x00 + a1 x0 + a2 x = b(t)
p(λ) = λ2 + a1 λ + a2 ,
y la función u1 (t) = eλ1 t es una solución de la ecuación diferencial. Hay dos posibilidades:
Si el polinomio caracterı́stico p(λ) tiene dos raı́ces distintas λ1 y λ2 , entonces las funciones
u1 (t) = eλ1 t y u2 (t) = eλ2 t son dos soluciones linealmente independientes de la ecuación, y la
solución general se puede escribir
Si el polinomio caracterı́stico p(λ) tiene una única raı́z λ1 doble, solamente hay una solución
exponencial u1 (t) = eλ1 t linealmente independiente, pero se puede obtener una segunda solución
derivando la ecuación L(eλt ) = p(λ)eλt con respecto a λ:
∂ ∂ λt
λt
L(e ) = L e = L(teλt ) = p0 (λ)eλt + p(λ)teλt .
∂λ ∂λ
u2 (t) = teλ1 t
x00 + a1 x0 + a2 x = 0
Si el polinomio caracterı́stico tiene raı́ces distintas λ1 6= λ2 , las funciones u1 (t) = eλ1 t y u2 (t) =
eλ2 t son dos soluciones linealmente independientes de dicha ecuación homogénea, cuya solución
general es
u(t) = c1 eλ1 t + c2 eλ2 t .
Si el polinomio caracterı́stico tiene una raı́z doble λ1 , las funciones u1 (t) = eλ1 t y u2 (t) = teλ1 t
son dos soluciones linealmente independientes de dicha ecuación homogénea, cuya solución
general es
u(t) = (c1 + c2 t)eλ1 t .
En el caso de que las constantes a1 y a2 sean reales y el polinomio caracterı́stico tenga raı́ces no
reales, estas raı́ces han de ser complejas conjugadas: λ1 = γ + iω y λ2 = λ̄1 = γ − iω, y las soluciones
de la ecuación pueden escribirse en forma real mediante funciones trigonométricas:
En otras palabras, se pueden tomar u1 (t) = eγt cos(ωt) y u2 (t) = eγt sen(ωt).
Si λ1 y λ2 son reales y distintas, la soluciones son u(t) = c1 eλ1 t + c2 eλ2 t . Si ambas raı́ces son
negativas, todas las soluciones tienden a cero cuando t → ∞. Si una raı́z es cero y la otra
negativa, todas las soluciones están acotadas para t ≥ 0, pero no todas tienden a cero. Si
alguna raı́z es positiva, entonces existen soluciones que no están acotadas para t ≥ 0.
36 CAPÍTULO 3. ECUACIONES LINEALES
Si λ1 es raı́z doble, las soluciones son u(t) = (c1 + c2 t)eλ1 t . Si λ1 es negativa, todas las soluciones
tienden a cero cuando t → ∞. Si λ1 ≥ 0, hay soluciones que no están acotadas para t ≥ 0.
Si las raı́ces γ ± iω son complejas conjugadas, las soluciones son u(t) = eγt (c1 cos ωt + c2 sen ωt).
Si γ es negativa, todas las soluciones tienden a cero cuando t → ∞. Si γ es positiva, todas las
soluciones no nulas no están acotadas para t ≥ 0. Si γ = 0, las soluciones son periódicas con
periodo 2π/ω, y por tanto acotadas para todo t.
Teorema 3.18 La condición necesaria y suficiente para que todas las soluciones tiendan a cero
cuando t → ∞ es que todas las raı́ces del polinomio caracterı́stico tengan parte real negativa. En este
caso la solución nula es asintóticamente estable. Si alguna raı́z tiene la parte real positiva o si cero
es una raı́z doble, la solución nula es inestable. En los casos restantes, la solución nula es débilmente
estable.
x00 + a1 x0 + a2 x = f (t)eµt
L(v̂) = f (t)eγt+iωt
= f (t)eγt cos ωt + if (t)eγt sen ωt
se obtiene
x00 + 4x = e2it .
De acuerdo con el método de coeficientes indeterminados, esta ecuación admite una solución de la
forma
v̂(t) = cte2it .
Sustituyendo v̂(t) y v̂ 00 (t) en la ecuación se obtiene
de donde c = −i/4 y
i
v̂(t) = − te2it
4
t t
= sen 2t − i cos 2t.
4 4
Por tanto la solución general de la ecuación de partida
x00 + 4x = sen 2t
es
w(t) = Im[v̂(t)] + c1 u1 (t) + c2 u2 (t)
t
= − cos 2t + c1 cos 2t + c2 sen 2t.
4
3.4. Osciladores
En esta sección estudiamos la ecuación
x00 + a1 x0 + a2 x = b(t)
con a1 ≥ 0, a2 > 0 y b(t) real, continua y periódica.
es
p(λ) = λ2 + ω02 = (λ − iω0 )(λ + iω0 ).
2π
T0 = .
ω0
u(t) = A sen(ω0 t + φ)
donde
c1 c2
q
A = c21 + c22 , sen φ = p , cos φ = p 2 ,
c21 + c2 2
c1 + c22
de manera que A ≥ 0 y φ se puede elegir en el intervalo 0 ≤ φ < 2π. Recı́procamente
c1 = A sen φ, c2 = A cos φ.
x
x
1 1
0.5 0.5
t -1 -0.5 0.5 1 x
Π 2Π
-0.5 -0.5
-1
Figura 3.1: Oscilador armónico simple con amplitud A = 1, frecuencia angular ω = 1 y fase φ = π/4,
es decir, u(t) = sen(t + π/4).
En los tres casos las raı́ces caracterı́sticas λ1 y λ2 tienen parte real negativa. Por tanto todas las
soluciones tienden a cero para t → ∞ y la única solución periódica es la trivial u(t) ≡ 0.
Si γ < ω0 el movimiento es oscilatorio con amplitud decreciente:
q q
−γt 2 2 −γt 2 2
u(t) = c1 e cos t ω0 − γ + c2 e sen t ω0 − γ ,
x
x
1
0.5
0.5
x
-0.5 0.5 1
t
2Π 4Π 6Π
-0.5
-0.5
x x
t 2
0.5 1 1.5 2 2.5 3
-0.25
-0.5
-0.75 1
-1
-1.25 x
-0.25 0.25
-1.5
se obtiene
B
c= .
ω02 − ω 2 + 2iγω
Por tanto una solución particular de la ecuación de partida es v(t) = Im(ceiωt ), es decir,
B
v(t) = p sen(ωt + φ)
4γ 2 ω 2 + (ω02 − ω 2 )2
3π 2γω
φ= si ω = ω0 , tan φ = si ω 6= ω0 .
2 ω2 − ω02
El factor
1
F (ω) = p
4γ ω + (ω02 − ω 2 )2
2 2
se denomina función de respuesta, y sus gráficas para distintos valores de γ se llaman curvas de
respuesta. La solución general en el caso subamortiguado γ < ω0 es
q q
−γt 2 2 −γt 2 2
w(t) = c1 e cos t ω0 − γ + c2 e sen t ω0 − γ + F (ω)B sen(ωt + φ).
Como hemos dicho en la sección anterior, si la aproximación a la solución periódica es muy rápida,
en la práctica no hay que tener en cuenta ninguna otra solución. Es decir, las condiciones iniciales
que fijan c1 y c2 son irrelevantes.
Perturbaciones periódicas más generales se estudian utilizando series de Fourier y el principio de
superposición.
3.4. OSCILADORES 43
1.5
0.5
0
0 0.5 1 1.5 2 2.5 3
√
Figura 3.4: Curvas de respuesta para un oscilador con ω0 = 1 y γ = 2, 1/ 2, 1/2 y 1/4.
x00 + ω02 x = 0
La discusión general de las soluciones periódicas de esta ecuación cuando b(t) es periódica con periodo
T se complica por la periodicidad de las soluciones de la ecuación reducida. Se puede demostrar lo
siguiente:
Si T /T0 es irracional, existe una única solución periódica, que tiene periodo T .
Si T /T0 = m/n es racional (irreducible) pero no es entero, existe una única solución con periodo
T y todas las soluciones tienen periodo nT .
Si T = nT0 o toda solución tiene periodo T o ninguna solución es periódica, según que las
integrales Z T Z T
b(t) sen(ω0 t) dt b(t) cos(ω0 t) dt
0 0
se anulen o no simultáneamente.
Estudiaremos la solución explı́cita en el caso de una fuerza externa armónica
x x
10 75
50
5
25
t t
25 50 75 100 125 150 25 50 75 100 125 150
-25
-5
-50
-10 -75
Figura 3.5: Batidos y resonancia en el oscilador armónico forzado. La duración de cada batido es
2π/|ω0 − ω|.
Teorema 3.22 Sean a1 (t), . . . , an (t) y b(t) funciones complejas continuas definidas para todo t real.
Dado un número real t0 y n − 1 números complejos x0 , . . . , xn−1 existe una única solución maximal w
de la ecuación diferencial x(n) + a1 (t)x(n−1) + · · · + an (t)x = b(t) que cumple las condiciones iniciales
w(t0 ) = x0 , w0 (t0 ) = x1 , . . . , w(n−1) (t0 ) = xn−1 . El intervalo de definición de w es toda la recta real.
dn dn−1
L= + a 1 (t) + · · · + an (t).
dtn dtn−1
Con esta notación, la ecuación lineal completa se escribe de nuevo L(x) = b(t) y la ecuación lineal
reducida es L(x) = 0.
El wronskiano de n soluciones u1 , . . . , un de la ecuación homogénea es ahora el determinante
u1 (t)
0 u2 (t) · · · un (t)
0 0
u1 (t) u2 (t) ··· un (t)
W (t) = .. .. .. .
...
. . .
(n−1) (n−1) (n−1)
u1 (t) u2 (t) · · · un (t)
Teorema 3.24 Las n soluciones de la ecuación homogénea L(x) = 0 que cumplen las condiciones
iniciales (
(j) 1 si j = k − 1
uk (0) =
0 si j 6= k − 1
u(t) = c1 u1 + · · · + cn un
Teorema 3.26 La solución general de la ecuación completa L(x) = b(t) está dada por
w = v + c1 u1 + · · · + cn un
Para encontrar una solución v de la ecuación completa L(x) = b(t) conocidas n soluciones linealmente
independientes u1 , . . . , un de la ecuación reducida L(x) = 0 de nuevo se puede utilizar el método de
variación de constantes, que en este caso se expresa de forma más concisa con la notación matricial
del capı́tulo siguiente.
La estudio de las ecuaciones con coeficientes constantes también es análogo. La acción del operador
diferencial L sobre una función exponencial eλt es
L(eλt ) = p(λ)eλt
p(λ) = λn + a1 λn−1 + · · · + an .
Su factorización
p(λ) = (λ − λ1 )n1 · · · (λ − λs )ns
junto con sucesivas derivaciones con respecto a λ en el caso de raı́ces múltiples conduce al siguiente
resultado.
x(n) + a1 x(n−1) + · · · + an x = 0
Teorema 3.28 La condición necesaria y suficiente para que todas las soluciones de la ecuación
homogénea x(n) + a1 x(n−1) + · · · + an x = 0 tiendan a cero cuando t → ∞ es que todas las raı́ces
del polinomio caracterı́stico tengan parte real negativa. Si alguna raı́z tiene parte real positiva, o si
existe una raı́z múltiple con parte real nula, algunas soluciones son no acotadas para t ≥ 0. En todos
los demás casos todas las soluciones están acotadas para t ≥ 0, pero no todas tienden a cero cuando
t → ∞.
v̂(t) = cteit .
SISTEMAS LINEALES
u0 (t) = u̇(t).
La derivada y la integral de una función vectorial u(t) = (u1 (t), . . . , un (t)) se definen término a
término:
Z b Z b Z b
1 n
u(t)dt = u (t)dt, . . . , u (t)dt .
a a a
Tal como se hizo en Álgebra Lineal, se denotará por u(t) el vector columna correspondiente:
u1 (t)
u(t) = ... .
un (t)
d
[V (t)U (t)] = V̇ (t)U (t) + V (t)U̇ (t).
dt
49
50 CAPÍTULO 4. SISTEMAS LINEALES
d −1
V (t) = −V −1 (t)V̇ (t)V −1 (t).
dt
Finalmente, la derivada del determinante W (t) = det V (t) está dada por
V̇11 (t) · · · V1n (t) V11 (t) · · · V̇1n (t)
.. . . .
. .. . . .
.
Ẇ (t) = . + ··· + .
. . . .
V̇n1 (t) · · · Vnn (t) Vn1 (t) · · · V̇nn (t)
V̇ (t) · · · V̇ (t) V11 (t) · · · V1n (t)
11 1n
. .
.. . .. .
.. + · · · + . . . . .
= . . .
.
Vn1 (t) · · · Vnn (t) V̇n1 (t) · · · V̇nn (t)
Por sencillez supondremos que todas las funciones ai j (t) y bi (t) son funciones continuas de t para
todo t real, y que pueden tomar valores complejos.
Teorema 4.1 Sean A(t) una matriz n × n de funciones complejas continuas ai j (t) definidas para
todo t real, y b(t) un vector de n funciones complejas continuas bi (t) definidas para todo t real. Dado
un número real t0 y un vector de n números complejos η = (η 1 , . . . , η n ), existe una única función
vectorial u = (u1 , . . . , un ) definida para todo t real que es solución del sistema
ẋ = A(t)x + b(t)
u1 (t0 ) = η 1 , . . . , un (t0 ) = η n .
4.3. SISTEMAS HOMOGÉNEOS 51
En el primer capı́tulo se demostró que toda ecuación diferencial lineal o sistema de ecuaciones dife-
renciales lineales puede escribirse de esta forma. Ası́, las ecuaciones estudiadas en el capı́tulo anterior
son casos particulares de estos sistemas lineales. Con la notación (x1 , x2 , . . . , xn ) = (x, x0 , . . . , x(n−1) )
la ecuación lineal
x(n) + a1 (t)x(n−1) + · · · + an (t)x = b(t)
es equivalente al sistema de ecuaciones lineales
ẋ1 0 1 0 ··· 0 x1 0
ẋ2 0 0 1 ··· 0 x2 0
.. .. .
.. .. .. .. .. ..
. = . +
. . . . .
n−1 n−1
ẋ 0 0 0 ··· 1 x 0
ẋn −an (t) −an−1 (t) −an−2 (t) ··· −a1 (t) xn b(t)
y se comprueba inmediatamente que las definiciones y teoremas dados en el estudio de las ecuaciones
lineales son un caso particular de las correspondientes a sistemas de ecuaciones lineales (por ejemplo,
la definición de wronskiano o la fórmula de Liouville).
u̇ = c1 u̇1 + · · · + ck u̇k
= c1 A(t)u1 + · · · + ck A(t)uk
= A(t)(c1 u1 + · · · + ck uk )
= A(t)u.
Teorema 4.3 Si u es una solución del sistema homogéneo ẋ = A(t)x que para cierto t0 cumple la
condición inicial u(t0 ) = (0, . . . , 0), entonces u(t) ≡ (0, . . . , 0).
Es consecuencia de la unicidad.
Teorema 4.4 Las n soluciones u1 , . . . , un del sistema homogéneo ẋ = A(t)x son linealmente depen-
dientes si y sólo si su wronskiano
u1 1 (t) · · · u1 n (t)
.. . . .
.
W (t) = det[u1 (t)| · · · |un (t)] = .
. .
n n
u 1 (t) · · · u n (t)
Por tanto W (t) o es nulo para todo t o no se anula para ningún t. En el primer caso las soluciones
son linealmente dependientes; en el segundo caso son linealmente independientes.
52 CAPÍTULO 4. SISTEMAS LINEALES
Teorema 4.6 Las soluciones u1 , . . . , un del sistema homogéneo ẋ = A(t)x que cumplen las condi-
ciones iniciales ui (0) = ei (donde ei es el i-ésimo vector de la base canónica) son linealmente inde-
pendientes, ya que W (0) = det I = 1. Cualquier otra solución se puede escribir como combinación
lineal de u1 , . . . , un .
Teorema 4.8 Si U (t) es una matriz fundamental del sistema homogéneo ẋ = A(t)x, cualquier so-
lución del sistema se puede expresar en la forma u(t) = U (t)c, donde c es un vector constante.
Definición 4.2 (Matriz fundamental canónica) Se llama matriz fundamental canónica del sis-
tema homogéneo ẋ = A(t)x a la matriz fundamental U (t) = [u1 (t)| · · · |un (t)] que cumple U (0) = I,
es decir, a la matriz fundamental cuyas columnas son las soluciones de dicho sistema que cumplen
las condiciones iniciales ui (0) = ei , (i = 1, . . . , n).
Teorema 4.9 Si U (t) es la matriz fundamental canónica del sistema homogéneo ẋ = A(t)x, la
solución u del sistema que cumple la condición inicial u(0) = η es u(t) = U (t)η.
4.4. SISTEMAS NO HOMOGÉNEOS 53
4.3.2. Ejemplo
Sea el sistema
ẋ1 = −x1
ẋ2 = (sen t)x1 − x2
que escrito en forma matricial es
1 1
ẋ −1 0 x
2 = .
ẋ sen t −1 x2
La solución u1 que cumple la condición inicial
e−t
1
u1 (0) = es u1 (t) = −t .
0 e (1 − cos t)
La solución u2 que cumple la condición inicial
0 0
u2 (0) = es u2 (t) = −t .
1 e
Por tanto la matriz fundamental canónica es
e−t
0
U (t) = −t
e (1 − cos t) e−t
y la solución u que cumple la condición inicial
e−t
1 1
η 0 η
u(0) = 2 es u(t) = −t .
η e (1 − cos t) e−t η 2
Teorema 4.11 Sea U (t) una matriz fundamental del sistema homogéneo ẋ = A(t)x. La solución
general del sistema no homogéneo
ẋ = A(t)x + b(t)
es Z t
w(t) = U (t)C + U (t) U −1 (s)b(s)ds.
ẋ = A(t)x + b(t)
o equivalentemente
Z t
w(t) = U (t)η + G(t, s)b(s)ds.
0
4.5.1. Ejemplo
Sea el sistema
ẋ1 = −x1
ẋ2 = (sen t)x1 − x2 + t
e−t
0
U (t) = −t
e (1 − cos t) e−t
Por tanto la solución particular que cumple la condición inicial v(0) = (0, 0) es
Z t
v(t) = U (t) U −1 (s)b(s)ds
Z0 t
es 0 0
= U (t) ds
0 es (cos s − 1) es s
Z t
0
= U (t) ds
0 ses
0
= U (t) t
e (t − 1) + 1
0
= −t .
e +t−1
converge (en el sentido de que todos los elementos de la matriz son convergentes) absolutamente y
uniformemente en conjuntos acotados, lo mismo que la serie que se obtiene derivando término a
término la serie anterior con respecto a t.
Multiplicando las series correspondientes a esA y a etA y agrupando potencias se obtiene
e(s+t)A = esA etA .
Matrices nilpotentes
Si una matriz es nilpotente, es decir, si Ak 6= 0 pero Ak+1 = 0, entonces todas las potencias
superiores se anulan, y la serie para la exponencial se reduce a un polinomio en A:
tk k
etA = I + tA + · · · + A , (Ak+1 = 0).
k!
Ejemplo 4.1 Considérese el sistema correspondiente a la ecuación x00 = 0:
ẋ1 = x2
ẋ2 = 0
cuya matriz es
0 1
A= .
0 0
Como A2 = 0, la serie que da la matriz fundamental canónica termina en el segundo término:
tA 1 t
e = I + tA = .
0 1
Las soluciones (linealmente independientes) que cumplen u1 (0) = e1 y u2 (0) = e2 son las columnas
de etA :
1 t
u1 (t) = , u2 (t) = .
0 1
4.6. SISTEMAS LINEALES CON COEFICIENTES CONSTANTES 57
Finalmente, la solución general u(t) = c1 u1 (t) + c2 u2 (t) sin notación matricial se escribe
u1 (t) = c1 + c2 t
u2 (t) = c2 .
Suma de la serie
En algunos casos que aparecen en Mecánica Clásica y sobre todo en Mecánica Cuántica es posible
sumar explı́citamente la serie que define la exponencial.
ẋ1 = x2
ẋ2 = −x1
cuya matriz es
0 1
A= .
−1 0
Esta matriz cumple A2 = −I, de modo que
A2 = −I, A3 = −A, A4 = I, A5 = A, . . .
y en adelante las potencias se repiten cı́clicamente. Por tanto la matriz fundamental canónica del
sistema es:
t t2
etA = I + A + A2 + · · ·
1! 2 2! 4
t3 t5
t t
= I 1 − + − ··· + A t − + − ···
2! 4! 3! 5!
= I cos t + A sen t
cos t sen t
= .
− sen t cos t
Las soluciones que cumplen u1 (0) = e1 y u2 (0) = e2 son las columnas de etA :
cos t sen t
u1 (t) = , u2 (t) = .
− sen t cos t
Finalmente, la solución general u(t) = c1 u1 (t) + c2 u2 (t) sin notación matricial se escribe
De nuevo x(t) = c1 cos t + c2 sen t = u1 (t) es la solución general inmediata de la ecuación de partida
x00 + x = 0, y u2 (t) = x0 (t).
58 CAPÍTULO 4. SISTEMAS LINEALES
Matrices diagonalizables
El caso más frecuente en la práctica es aquel en que la matriz A es diagonalizable.
u̇ = c1 v1 λ1 eλ1 t + · · · + cn vn λn eλn t
= c1 (Av1 )eλ1 t + · · · + cn (Avn )eλn t
= A(c1 v1 eλ1 t + · · · + cn vn eλn t )
= Au.
Y puesto que los vectores propios v1 , . . . , vn son linealmente independientes, cualquier vector condi-
ción inicial se puede escribir como combinación lineal de ellos.
En notación matricial, esta solución equivale a tomar como matriz fundamental del sistema
U (t) = P etD ,
ẋ1 = x1 + x2 ,
ẋ2 = 3x1 − x2 + et .
En este caso
1 1 0
A= , b(t) = t .
3 −1 e
Los valores propios de la matriz A son λ1 = 2 y λ2 = −2, y la matriz de vectores propios (por
columnas) es
1 1
P = .
1 −3
El sistema de ecuaciones para y es 1 1
ẏ 2 0 y
2 =
ẏ 0 −2 y 2
y una matriz fundamental (dos soluciones linealmente independientes por columnas)
2t
e 0
V (t) = .
0 e−2t
e−2t
2t
e
W (t) = P V (t) = 2t ,
e −3e−2t
4.6. SISTEMAS LINEALES CON COEFICIENTES CONSTANTES 59
Para hallar una solución particular del sistema completo se usa la fórmula de variación de constantes:
1 3e−2s e−2s
−1
W (s) = ,
4 e2s −e2s
1 e−s
−1
W (s)b(s) = ,
4 −e3s
Z t
1 3e−t
−1
W (s)b(s) ds = − ,
12 −e3t
Z t
−1 1 et
v(t) = W (t) W (s)b(s) ds = − ,
3 0
o explı́citamente
1
v 1 (t) = − et .
3
2
v (t) = 0.
para ciertas funciones qk (t). Putzer dio dos métodos para expresar etA como un polinomio en A sin
necesidad de calcular la forma normal de Jordan de la matriz A. De ellos, se estudiará el más sencillo.
Teorema 4.15 Sean λ1 , . . . , λn los valores propios de la matriz A, y sean los polinomios
Entonces
etA = r1 (t)P0 (A) + r2 (t)P1 (A) + · · · + rn (t)Pn−1 (A)
donde las funciones rk (t) se determinan por recurrencia a partir del sistema de ecuaciones diferen-
ciales lineales
r10 (t) = λ1 r1 (t), r1 (0) = 1,
0
rk+1 (t) = λk+1 rk+1 (t) + rk (t), rk+1 (0), k = 1, . . . , n − 1.
60 CAPÍTULO 4. SISTEMAS LINEALES
Ejemplo 4.4 Sea A una matriz 2×2 con un único valor propio λ doble. El método de Putzer permite
obtener fácilmente una fórmula general para etA . Poniendo λ1 = λ2 = λ en el sistema anterior se
tiene,
r10 (t) = λr1 (t), r1 (0) = 1 ⇒ r1 (t) = eλt .
r20 (t) = λr2 (t) + eλt , r2 (0) = 0 ⇒ r2 (t) = t eλt .
Como P0 (A) = I y P1 (A) = A − λI,
etA = I + tA.
Ejemplo 4.5 Sea A una matriz 2 × 2 con dos valores propios distintos λ 6= µ. El método de Putzer
permite obtener fácilmente una fórmula general para etA . Del sistema correspondiente se obtiene,
eλt − eµt
r20 (t) = µr2 (t) + eλt , r2 (0) = 0 ⇒ r2 (t) = .
λ−µ
Como P0 (A) = I y P1 (A) = A − λI,