EDP - Primer Orden Soluciones

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 68

Transformaciones entre Soluciones

Completas de EDPs de Primer Orden


Índice general

Introducción VI

1. Ecuaciones Diferenciales Parciales 1


1.1. Introducción . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Ecuaciones Diferenciales Parciales de primer orden . . 2
1.3. Ecuaciones Diferenciales Parciales cuasilineales de pri-
mer orden . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3.1. Solución general de una EDP cuasilineal . . . 6
1.4. Ecuaciones Diferenciales Parciales no lineales de pri-
mer orden . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.1. Tipos de soluciones de una EDP no lineal de
primer orden . . . . . . . . . . . . . . . . . . 19
1.4.2. Método de separación de variables . . . . . . . 22
1.4.3. Método de Charpit . . . . . . . . . . . . . . . 24
1.4.4. Método de Jacobi . . . . . . . . . . . . . . . . 27
1.5. Soluciones que satisfacen condiciones dadas . . . . . . 35
1.5.1. Soluciones que pasan por una curva dada . . . 35
1.5.2. Solución completa a partir de otra solución
completa usando curvas . . . . . . . . . . . . 38

2. Soluciones Completas 40
2.1. Relación entre soluciones completas de una EDP . . . 42
2.2. Obtención de otra solución completa . . . . . . . . . 49

3. Ecuación de Hamilton-Jacobi 57

Conclusiones 63

Referencias 65

viii
Capı́tulo 1

Ecuaciones Diferenciales
Parciales

1.1. Introducción

Las Ecuaciones Diferenciales Parciales es un área de las matemáti-


cas bastante amplia, cuyo inicio data de la cuarta década del siglo
XVIII con trabajos de Euler, a los que llega gracias a sus investi-
gaciones dentro de la geometrı́a pero no adquieren interpretación en
otra área de estudio independiente. De forma paralela Clairaut y
D´Alembert hicieron aportaciones al comienzo de esta nueva rama,
por una parte, Clairaut estudió las ecuaciones de primer orden tra-
bajando con lo que ahora se conoce como ecuación diferencial total,
dándole una interpretación dentro de la mecánica de fluidos; y por
otro lado D´Alembert planteó ecuaciones diferenciales parciales de
segundo orden con aplicaciones en la fı́sica y desarrolló un méto-
do de solución de las mismas, que aunque carecı́a de interpretación
geométrica, dió lugar al desarrollo de métodos de solución basados
en la reducción de una ecuación diferencial parcial en ecuaciones
diferenciales ordinarias.[4][7]

Con estos resultados se da inicio a una nueva etapa del análisis, en-
focando las investigaciones a las ecuaciones diferenciales parciales de
segundo orden debido a sus aplicaciones en la mecánica, que era la
ciencia dominante del siglo XVIII. Sin embargo no es hasta finales
1
Capı́tulo 1. 2

de ese siglo y principios del siglo XIX que se profundiza en el estudio


de las ecuaciones diferenciales parciales de primer orden, gracias a
los trabajos de Lagrange, quien logró plantear la definición conocida
de solución completa de una ecuación diferencial parcial y además,
demostró que a partir de ella es posible obtener su solución general
y singular. Siguiendo los pasos de Lagrange, Charpit desarrolló otro
método para resolver este tipo de ecuaciones con dos variables in-
dependientes, el cual consiste en la introducción de otra ecuación
diferencial parcial. Además, otro resultado importante de esa época
fue el desarrollo de las interpretaciones geométricas de las ecuaciones
diferenciales parciales gracias a los trabajos de Monge, Pfaff, Cauchy
y Jacobi.[4]

Hasta ese momento, todos esos avances se habı́an estudiado única-


mente para ecuaciones diferenciales parciales de primer orden con
dos variables independientes pero existı́a el problema de ampliar esa
teorı́a para ecuaciones con un número arbitrario de variables, el cual
persistió por décadas hasta 1838 cuando Jacobi pudo generalizar los
métodos de Lagrange y de Charpit; sin embargo su trabajo fue ha-
llado después de su muerte y no fue publicado hasta 1862.[4]

Estas investigaciones forman parte de la teorı́a conocida de las ecua-


ciones diferenciales parciales de primer orden, misma que en este
capı́tulo se expone.

1.2. Ecuaciones Diferenciales Parciales


de primer orden

Una ecuación en derivadas parciales (EDP) para la función descono-


cida u(x1 , x2 , ..., xn ) es una relación entre u, las variables indepen-
dientes x1 , x2 , .., xn y sus derivadas parciales

∂u ∂u ∂ 2u ∂ 2u
, ..., , , ..., , ...
∂x1 ∂xn ∂x1 ∂x1 ∂x1 ∂xn
Capı́tulo 1. 3

escrita de la forma

∂ 2u ∂ 2u
 
∂u ∂u
F x1 , ..., xn , u, , ..., , , , ... = 0 (1.2.1)
∂x1 ∂xn ∂x1 ∂x1 ∂x1 ∂x2

El orden de una EDP es definido en analogı́a con el de una ecuación


diferencial ordinaria (EDO), como el mayor orden de la derivada que
aparece en 1.2.1 y determina el número de funciones arbitrarias que
debe contener la solución general de la ecuación.

Una solución de la EDP 1.2.1 es una función u = u(x1 , x2 , ...xn ) defi-


nida en un subconjunto D ⊆ Rn abierto y conexo llamado dominio,
donde u es continuamente diferenciable tal que todas sus derivadas
parciales involucradas en la EDP existen y están bien definidas, tales
que satisfacen la ecuación 1.2.1 idénticamente.

Partiendo del aspecto geométrico tridimensional, considerando una


familia de superficies en el espacio XY U , llámese

f (x, y, u, a, b) = 0 (1.2.2)

donde a y b son parámetros arbitrarios, es posible llegar a una EDP


de primer orden de la forma
 
∂u ∂u
F x, y, u, , =0 (1.2.3)
∂x ∂y

mediante la resolución de un sistema de ecuaciones para los paráme-


tros arbitrarios. El sistema de ecuaciones a resolver está formado por
la ecuación de la familia de superficies y por las siguientes ecuaciones
que resultan al diferenciarla con respecto de las variables indepen-
dientes x y y

∂f ∂f ∂u ∂f ∂f ∂u
+ =0 + =0 (1.2.4)
∂x ∂u ∂x ∂y ∂u ∂y

De esta forma se ve que una EDP de primer orden con dos variables
independientes surge a partir de una familia de superficies de la
forma 1.2.2 pero, si se considerara un mayor número de variables, se
llegarı́a a un resultado análogo en un espacio de mayor dimensión.
En este trabajo se estudian las ecuaciones diferenciales parciales de
Capı́tulo 1. 4

primer orden para el caso tridimensional, llamando a sus soluciones


superficies integrales en el espacio XY U . Además el trabajar con dos
variables independientes permite introducir una notación estándar
para las derivadas parciales, donde

∂u ∂u
p := ux = q := uy = (1.2.5)
∂x ∂y

Ası́, la forma más general para una EDP de primer orden con dos
variables independientes x, y puede ser escrita como:

F (x, y, u, p, q) = 0 (1.2.6)

y al resolverla, se busca hallar una función continuamente diferen-


ciable en D tal que relacione x, y y u.

1.3. Ecuaciones Diferenciales Parciales


cuasilineales de primer orden

Las ecuaciones diferenciales parciales de primer orden se pueden cla-


sificar en cuasilineales o no lineales de acuerdo a las caracterı́sticas
de los coeficientes, tanto de la función desconocida como de sus de-
rivadas parciales. Ası́, la forma más general para expresar una EDP
de primer orden cuasilineal con variables independientes x, y es me-
diante la ecuación conocida como la ecuación de Lagrange:

P p + Qq = R (1.3.1)

donde la cuasilinealidad se refiere a que los términos p y q son de


primer grado, por lo que P, Q y R son funciones continuas de clase C 1
en una vecindad del punto donde se estudia la ecuación y dependen
únicamente de x, y y u.

Debido a que en la ecuación 1.3.1 no se exige la linealidad para el


término u dentro de las funciones P, Q y R entonces, podemos es-
pecificar una clasificación más minuciosa dentro de las consideradas
ecuaciones cuasilineales de primer orden con variables independien-
Capı́tulo 1. 5

tes x, y.

a) EDP cuasilineal: Es lineal en p y q, dando la libertad de que


las funciones P, Q y R dependan de x, y y u

P (x, y, u)p + Q(x, y, u)q = R(x, y, u)

b) EDP semilineal: Si P , Q son funciones que no dependen de u.

P (x, y)p + Q(x, y)q = R(x, y, u)

c) EDP lineal: Si es lineal en las variables u, p y q y además sus


coeficientes son funciones únicamente de las variables indepen-
dientes x, y.

P (x, y)p + Q(x, y)q + R(x, y)u = S(x, y)

Si S ≡ 0 o en su caso R ≡ 0, se dice que la ecuación es homogénea,


de lo contrario es llamada inhomogénea.

Ejemplos de ecuaciones diferenciales parciales lineales, indicando la


clasificación a la que pertenecen son

xp + yq = u2 + x2 b)
x2 p + y 2 q = (x + y)u c) homogénea
uxp − zyq = y 2 − x2 a)
(y + ux)p − (x + yu)q = x2 − y 2 a)
(y 2 − u2 )ux − xyuy = xu a)

Al generalizar esta notación de la ecuación de Lagrange, se tiene que


una EDP cuasilineal de primer orden con n variables independientes
es de la forma
X1 p1 + X2 p2 + ... + Xn pn = Y

donde X1 , ..., Xn son funciones de la variable dependiente u y de las


variables independientes x1 , x2 , ..., xn , tal que para toda i = 1, ...n,
∂u
pi = ∂xi
.
Capı́tulo 1. 6

1.3.1. Solución general de una EDP cuasilineal

Al resolver una ecuación cuasilineal de primer orden se busca hallar


directamente su solución general, ya que el hallarla no representa
gran dificultad como lo es para el caso no lineal. Cabe recordar que
por tratarse de una ecuación de primer orden, su solución general
debe tener sólo una función arbitraria.

En primer lugar se verá cómo hallar la solución general de una ecua-


ción homogénea con tres variables independientes x, y, z dada de la
forma
∂u ∂u ∂u
P +Q +T =0 (1.3.2)
∂x ∂y ∂z
y para ello se supondrá que u(x, y, z) = 0 es una solución de la EDP
cuyo diferencial total es

∂u ∂u ∂u
du = dx + dy + dz = 0 (1.3.3)
∂x ∂y ∂z

Con esto se puede ver que las ecuaciones 1.3.2 y 1.3.3 son propor-
cionales, esto es que existe una función µ tal que

dx = P dµ, dy = Qdµ, dz = T dµ (1.3.4)

de lo cual se obtienen dos ecuaciones diferenciales ordinarias, cono-


cidas como ecuaciones caracterı́sticas

dx dy dz
= = (1.3.5)
P Q T

Generalmente el número de ecuaciones caracterı́sticas es uno menos


que el número de variables independientes en la EDP, cuyas solucio-
nes son funcionalmente independientes entre sı́, es decir que no existe
una función que las relacione; y son llamadas funciones o curvas ca-
racterı́sticas o simplemente caracterı́sticas. De esta forma, como la
relación que debe existir entre las variables independientes de la so-
lución de la EDP está dada por las soluciones de las ecuaciones 1.3.5,
entonces la solución general de la ecuación 1.3.2 debe ser una función
arbitraria de esas dos caracterı́sticas.

Ahora, para el caso de una EDP inhomogénea con variables inde-


Capı́tulo 1. 7

pendientes x, y, z de la forma

∂u ∂u ∂u
P +Q +T =R (1.3.6)
∂x ∂y ∂z

se supondrá que ψ(u, x, y, z) = c es solución de la EDP dada de


forma implı́cita, donde c es una constante y sus derivadas parciales
son

∂ψ ∂ψ ∂u ∂ψ ∂ψ ∂u ∂ψ ∂ψ ∂u
+ = 0, + = 0, + =0
∂x ∂u ∂x ∂y ∂u ∂y ∂z ∂u ∂z

de lo cual podemos deducir que

∂u ∂ψ
∂x
=−
∂x
/ ∂ψ
∂u
,
∂u
∂y
=−
∂ψ
∂y
/ ∂ψ
∂u
,
∂u
∂z
=−
∂ψ
∂z
/ ∂ψ
∂u

Sustituyendo estas ecuaciones en la ecuación 1.3.6, notamos que el


problema se reduce a resolver la siguiente ecuación homogénea de
cuatro variables independientes:

∂ψ ∂ψ ∂ψ ∂ψ
P +Q +T +R =0 (1.3.7)
∂x ∂y ∂z ∂u

donde ahora las ecuaciones caracterı́sticas son:

dx dy dz du
= = = (1.3.8)
P Q T R

De esta forma se puede ver que este método puede generalizarse a


ecuaciones que involucran cualquier número de variables indepen-
dientes no importando si son homogéneas o inhomogénas. Este re-
sultado es conocido como el método de solución de Lagrange y se
establece en el siguiente teorema.

Teorema 1.3.1. La solución general de la EDP

P p + Qq = R (1.3.9)

es
f (v, w) = 0 (1.3.10)

donde f : D → R es una función arbitraria continua y de clase C 1


de las caracterı́sticas v(x, y, u) = c1 y w(x, y, u) = c2 ; las cuales son
Capı́tulo 1. 8

curvas solución de las ecuaciones caracterı́sticas

dx dy du
= = (1.3.11)
P Q R

Cabe recalcar que la solución general 1.3.10 también puede expre-


sarse como la variable dependiente u igualada a una función de las
variables independientes x, y

u = u(x, y)

A este método de solución se le da la siguiente interpretación geométri-


ca que viene de considerar a la solución u = u(x, y) o dada de forma
implı́cita por f (x, y, u) ≡ u(x, y) − u = 0, como una superficie solu-
ción en el espacio XY U . Esta consideración permite ver a la EDP
1.3.9 como un producto escalar entre el vector gradiente, que es nor-
mal a la superficie en cada punto (x, y, u) de la misma, definido como
∇f := (fx , fy , fu ) = (ux , uy , −1) = (p, q, −1) y el vector (P, Q, R)

P p + Qq − R = (P, Q, R) · (p, q, −1) = 0

Lo anterior indica que el vector (P, Q, R) es tangente a la superficie


integral f en el punto (x, y, u) y por lo tanto debe pertenecer a un
plano tangente a la superficie f . De esta forma, (P, Q, R) determi-
na un campo direccional llamado dirección caracterı́stica o eje de
Monge, que para las ecuaciones lineales es único en cada punto .

Por lo anterior, se concluye que f (x, y, u) ≡ u(x, y) − u = 0 es


una solución de 1.3.1 si y sólo si el campo vectorial de direcciones
(P, Q, R) se encuentra en los planos tangentes de la superficie in-
tegral f (x, y, u) = 0 para cada punto (x, y, u), donde ∇f 6= 0 (ver
Figura 1.1). Esto se logra haciendo a f una función de curvas en el
espacio XY U cuya tangente en cada punto coincida con el campo de
direcciones (P, Q, R), lo cual conlleva al establecimiento de las ecua-
ciones caracterı́sticas 1.3.11, ya que si se supone que las ecuaciones
paramétricas de una de estas curvas son

x = x(t) y = y(t) u = u(t)


Capı́tulo 1. 9

dx dy du

entonces su vector tangente es , ,
dt dt dt
, lo cual origina el sistema
de ecuaciones diferenciales ordinarias

dx dy du
= P (x, y, u), = Q(x, y, u), = R(x, y, u) (1.3.12)
dt dt dt

que a su vez permite llegar a las ecuaciones caracterı́sticas 1.3.11.


Por lo tanto la solución general f debe ser función de las curvas
caracterı́sticas.

Figura 1.1: Campo vectorial normal y tangente de una superficie


solución en el punto (x, y, u)

En resumen, el método de Lagrange establece que todas las super-


ficies integrales de 1.3.9 son generadas por las curvas integrales de
las ecuaciones 1.3.11 y de igual forma, todas las superficies genera-
das por las curvas integrales de las ecuaciones 1.3.11 son superficies
integrales de la ecuación 1.3.9.

Ejemplo 1. Hallar la integral general de la EDP lineal

px(x + y) = qy(x + y) − (x − y)(2x + 2y + u)

Solución: Las ecuaciones caracterı́sticas para esta EDP son

dx dy du
= =
x(x + y) −y(x + y) (y − x)(2x + 2y + u)
Capı́tulo 1. 10

dx dy
Se puede ver que de la ecuación x(x+y)
= −y(x+y)
se obtiene que

xy = c1 (1.3.13)

Por otro lado se tiene

dx dy dx + dy
= = 2
x(x + y) −y(x + y) x − y2

lo cual implica que

dx + dy du
2 2
=
x −y (y − x)(2x + 2y + u)

que es equivalente a

d(x + y) du
=−
(x + y) 2(x + y) + u

Como se trata de una EDO homogénea, su solución es


 
2 u
(x + y) +1 = c2
x+y

que es equivalente a

(x + y)(u + x + y) = c2 (1.3.14)

Por lo tanto de las ecuaciones 1.3.13 y 1.3.14 se tiene que

f (xy, (x + y)(x + y + u)) = 0

es la integral general de la EDP, o de forma equivalente g(xy) =


(x + y)(x + y + u) con g una función arbitraria.

La generalización del Teorema 1.3.1 para el caso de una EDP cua-


silineal de primer orden con n variables independientes, se enuncia
de la siguiente manera.

Teorema 1.3.2. Si para toda i ∈ {1, 2, ..., n}, ui (x1 , x2 , ..., xn , u) =


Capı́tulo 1. 11

ci son soluciones independientes de las ecuaciones

dx1 dx2 dxn du


= = ··· = =
P1 P2 Pn R

Entonces la relación Φ(u1 , u2 , ..., un ) = 0, donde Φ : D → R es una


función arbitraria continua y de clase C 1 con D un dominio, es una
solución general de la EDP lineal

∂u ∂u ∂u
P1 + P2 + · · · + Pn =R
∂x1 ∂x2 ∂xn

donde para toda i ∈ {1, 2, ..., n} Pi es una función de x1 , x2 , ..., xn , u.

Ahora, si se tuviera el problema de hallar una superficie integral par-


ticular que pase sobre alguna curva C, con ecuaciones paramétricas
x = x(t), y = y(t), u = u(t), donde t es un parámetro, entonces se
buscarı́a una solución de las ecuaciones 1.3.11 tal que satisfaga

v(x(t), y(t), u(t)) = c1 w(x(t), y(t), u(t)) = c2

lo cual, permitirı́a eliminar el parámetro t y llegar a una relación


f (c1 , c2 ) = 0, que serı́a la solución deseada.

Este problema puede ser formulado en términos de un problema de


Cauchy o problema de valor inicial:

Teorema 1.3.3 (Problema de Cauchy para una ecuación cuasi li-


neal). Sea la EDP P p + Qq = R tal que P, Q, R tienen primeras de-
rivadas parciales continuas con respecto a sus argumentos en algún
dominio D del espacio XY U y sea la curva Γ en el espacio XY U con
ecuaciones paramétricas x = x(t), y = y(t), u = u(t) con parámetro
t, tal que
P yt − Qxt 6= 0 (1.3.15)

Entonces, existe una única solución u = u(x, y) de la ecuación que


pasa por Γ, es decir,

u(t) = u(x(t), y(t))


Capı́tulo 1. 12

Si se tuviera que P yt −Qxt = 0 entonces la curva inicial Γ coincidirı́a


con una curva caracterı́stica y por lo tanto, existirı́a una infinidad
de soluciones del problema de valor inicial.

1.4. Ecuaciones Diferenciales Parciales


no lineales de primer orden

Las ecuaciones diferenciales parciales no lineales surgen de varias


áreas de la fı́sica como la óptica geométrica, la dinámica de fluidos y
la dinámica analı́tica; sin embargo uno de los principales problemas
que impulsaron su desarrollo es el de propagación de onda no lineal,
por ejemplo, las ondas de choque, ondas de agua, solitones y ondas
solitarias.

Este tipo de ecuaciones a resolver en esta sección se suelen represen-


tar como
F (x, y, u, p, q) = 0 (1.4.1)

donde la función F no necesariamente es cuasilineal en p y q, aunque


de serlo nos lleva a considerar a las ecuaciones cuasilineales como un
caso particular de las ecuaciones no lineales.

Cauchy, uno de los contribuyentes al desarrollo de la interpretación


geométrica de la teorı́a de las ecuaciones diferenciales parciales de
primer orden, desarrolló una forma de resolverlas, dando lugar al
planteamiento de los problema de Cauchy, que ya han sido mencio-
nados para el caso de una ecuación cuasi lineal en la sección anterior.

El método de Cauchy parte de considerar a un punto (x, y, u, p, q) del


dominio D ⊆ XY U P Q de la EDP que la satisface, como un plano
tangente a la solución que pasa por el punto (x, y, u) con normal
(p, q, −1), al cual Cauchy le llamó elemento integral de la ecuación
1.4.1 en el punto (x, y, u). Dado ese punto y asegurando que en la
EDP aparecen las derivadas parciales p y q, se puede afirmar que la
ecuación 1.4.1 puede resolverse en alguna vecindad del mismo punto
para p o q en términos de las cuatro variables restantes, por ejemplo
q = G(x, y, u, p), donde al variar p y dejar fijos x, y y u, se obtiene un
Capı́tulo 1. 13

conjunto de planos que dependen únicamente del parámetro p, que


pasan por el punto (x, y, u) con normales (p, q, −1). Ese conjunto de
planos se encuentra envuelto por un cono con vértice en el punto
(x, y, u), llamado cono de Monge en el punto (x, y, u). De esta forma
se concluye que cualquier superficie solución que pasa a través de
un punto en el espacio, debe ser tangente al correspondiente cono
de Monge en ese punto, como se muestra en la Figura 1.2. Cabe
mencionar que para el caso lineal, el cono de Monge se degenera,
convirtiéndose en el vector (P, Q, R).

Figura 1.2: Cono de Monge.

Con base en lo anterior, un generador del cono de Monge se encuentra


en el plano tangente a cada punto de la solución u = u(x, y) de 1.4.1 y
define una única dirección en la superficie u. Este campo direccional
comprende las tangentes de una familia uniparamétrica de curvas
que recorren la solución, a las cuales nuevamente se les denomina
caracterı́sticas de la EDP; sin embargo, dado que la ecuación es no
lineal, entonces muchas curvas caracterı́sticas pueden pasar a través
de un mismo punto en el espacio, cada una surgiendo de una solución
diferente de 1.4.1.

Al igual que para el caso cuasilineal, es posible encontrar un sistema


de ecuaciones diferenciales ordinarias para obtener las curvas carac-
terı́sticas, las cuales ahora serán descritas como bandas, ya que junto
con las variables x, y y u se debe incluir a p y q como variables depen-
dientes sobre cada una de ellas. Para hallarlas es necesario retormar
el concepto de envolvente de una familia de curvas.

Definición 1.4.1. La envolvente a una familia de curvas F (x, y, α) =


0 es una curva que en cada punto es tangente a algún miembro de
Capı́tulo 1. 14

la familia.

La envolvente de una familia de curvas F (x, y, α) = 0 se halla elimi-


nando α del sistema de ecuaciones

F (x, y, α) = 0
Fα (x, y, α) = 0

Ahora, considérese el cono de Monge correspondiente al punto (x0 , y0 , u0 )


que satisface la EDP, el cual es la envolvente de la familia unipa-
ramétrica de planos tangentes al punto (x0 , y0 , u0 ) con parámetro
α:
u − u0 = (x − x0 )p0 (α) + (y − y0 )q0 (α) (1.4.2)

por lo tanto, dicho cono de Monge se halla eliminando el parámetro


α de las ecuaciones simultáneas:

(x − x0 )p0 (α) + (y − y0 )q0 (α) = u − u0


(x − x0 )p00 (α) + (y − y0 )q00 (α) = 0

donde para cada α fijo, estas ecuaciones describen una recta que es
generadora del cono de Monge para cada (x, y, u).

Si por otro lado se toma en cuenta la diferenciación con respecto de


α de F (x0 , y0 , u0 , p0 (α), q0 (α)) = 0

Fp p00 (α) + Fq q00 (α) = 0 (1.4.3)

entonces se evita mencionar p00 (α) y q00 (α), permitiendo llegar a la


relación
x − x0 y − y0
= (1.4.4)
Fp Fq
lo cual implica que esta caracterı́stica debe satisfacer la ecuación
diferencial ordinaria
dx dy
= (1.4.5)
Fp Fq
Por otro lado, también se necesita obtener una ecuación diferencial
similar para u, p y q, ya que las cinco cantidades aparecen como
argumentos de Fp y Fq . Estas ecuaciones surgen al considerar la
Capı́tulo 1. 15

diferencial total de la función u

du = pdx + qdy

y la igualdad 1.4.5, obteniendo

du pdx + qdy dx dy
= = = (1.4.6)
pFp + qFq pFp + qFq Fp Fq

Ahora, para hallar expresiones para dp y dq, se diferencı́a la ecuación


original 1.4.1 con respecto de x y y, obteniendo

F x + F u p + F p px + F q qx = 0
F y + F u q + F p py + F q qy = 0

luego entonces considerando la ecuación 1.4.5 y como py = qx , se


deduce que
dp px dx + py dy dx
=− =− (1.4.7)
Fx + pFu px F p + py F q Fp
y análogamente

dq qx dx + qy dy dy
=− =− (1.4.8)
Fy + qFu qx F p + qy F q Fq

Entonces las ecuaciones 1.4.5, 1.4.7 y 1.4.8 se resumen en el sistema


de cuatro ecuaciones diferenciales ordinarias

dx dy du dp dq
= = =− =− (1.4.9)
Fp Fq pFp + qFq Fx + pFu Fy + qFu

para determinar x, y, u, p y q a lo largo de una banda caracterı́stica.

Se puede ver que introduciendo un parámetro apropiado s, el sistema


de ecuaciones 1.4.9 se expresa como

dx dy du
= Fp , = Fq , = pFp + qFq
ds ds ds
dp dq
= −Fx − pFu , = −Fy − qFu (1.4.10)
ds ds

Estas ecuaciones son las ecuaciones caracterı́sticas de 1.4.1 y si las


funciones que aparecen en ellas son de Lipschitz, entonces existe
una única solución de las ecuaciones para cada conjunto de valores
Capı́tulo 1. 16

iniciales de las variables establecido. Por lo tanto la banda carac-


terı́stica es determinada de forma única por algún elemento inicial
(x0 , y0 , u0 , p0 , q0 ) y un valor inicial s0 de s.

Ası́, las condiciones de existencia de una solución para una EDP de


primer orden, se establecen a partir del problema clásico de Cauchy,
enunciado en el siguiente teorema.

Teorema 1.4.1. Si las funciones x0 (µ), y0 (µ), u0 (µ) son de clase


C 1 en un intervalo M = (µ1 , µ2 ) y si F (x, y, u, p, q) es una función
continua en una región S del espacio XY U P Q, entonces existe una
función φ(x, y) tal que

1. φ, ∂φ
∂x
y ∂φ
∂y
son funciones continuas en R ⊆ R2

2. ∀x, y ∈ R, (x, y, φ(x, y), φx (x, y), φy (x, y)) ∈ U y


F (x, y, φ(x, y), φx (x, y), φy (x, y)) = 0

3. ∀µ ∈ M , (x0 (µ), y0 (µ)) ∈ R y φ(x0 (µ), y0 (µ)) = u0

La interpretación geométrica del teorema anterior es que se busca


probar la existencia de una superficie u = φ(x, y) que pasa sobre
una curva Γ cuyas ecuaciones paramétricas son:

x = x0 (µ), y = y0 (µ), u = u0 (µ)

y que en cada punto de ésta, la dirección de la normal (p, q, −1) sea


tal que F (x, y, u, p, q) = 0; para lo cual, se hace uso del siguiente
teorema

Teorema 1.4.2. A lo largo de cualquier banda caracterı́stica de la


ecuación F (x, y, u, p, q) = 0, la función F (x, y, u, p, q) es una cons-
tante.

De esta forma, los valores iniciales de p, q son determinados por las


relaciones

χ0 (v) = p0 θ0 (v) + q0 φ0 (v)


F (θ(v), φ(v), χ(v), p0 , q0 ) = 0
Capı́tulo 1. 17

Luego, si se sustituyen x0 , y0 , u0 , p0 , q0 y el valor apropiado de t0 en


la solución de las caracterı́sticas, se obtiene que x, y, u pueden ser
expresadas en términos de v, t como

x = X1 (v, t), y = Y1 (v, t), z = Z1 (v, t)

pero si se eliminan v y t de estas ecuaciones se llega a una relación


ψ(x, y, u) = 0, que es la ecuación de la superficie integral buscada
que pasa por la curva Γ.

Ejemplo 2. Hallar la solución de la ecuación

1
z = (p2 + q 2 ) + (p − x)(q − y)
2

que pasa a través del eje X


Solución: Unas ecuaciones paramétricas del eje X son

x(v) = v, y(v) = 0, z(v) = 0

Ası́ los valores iniciales son x0 (v) = v, y0 (v) = 0, z0 (v) = 0 y para


p0 y q0 se debe notar que

(x00 , y00 , z00 ) · (p0 , q0 , −1) = 0

por lo que se tiene

(1, 0, 0) · (p0 , q0 , −1) = 0

lo cual implica que p0 = 0. Luego entonces sustituyendo estos valores


iniciales en la EDP, se tiene que

1
0 = q02 − vq0
2

lo cual implica que √


2v ± 4v
q0 =
2
y como p y q no pueden ser 0 al mismo tiempo, entonces se concluye
que q0 = 2v.
Por otro lado se tiene que las ecuaciones caracterı́sticas de esta EDP
Capı́tulo 1. 18

son

dx
= x0 (t) = p + q − y
dt
dy
= y 0 (t) = q + p − x
dt
dz
= z 0 (t) = p(p + q − y) + q(p + q − x)
dt
dp
= p0 (t) = q − y + p
dt
dq
= q 0 (t) = p − x + q
dt
dx dp
de donde por la ecuación dt
= dt
se tiene que x = p + c donde c es
una constante que por los valores iniciales resulta ser c = x0 −p0 = v.
Por lo tanto x = p + v.
dy dq
Por otro lado de la ecuación dt
= dt
se tiene que y = q+a donde a es
una constante que por los valores iniciales resulta ser a = y0 − q0 =
−2v. Por lo tanto y = q − 2v.
Se puede ver que

d
(p + q − x) = p + q − x
dt

de donde se tiene que log(p+q−x) = t+b con b una constante, lo cual


es equivalente a p+q−x = ket con k una constante arbitraria, la cual
por los valores iniciales resulta ser k = v. Por lo tanto p+q −x = vet
También se puede ver

d
(p + q − y) = p + q − y
dt

de donde se tiene que log(p+q−y) = t+a con a una constante, lo cual


es equivalente a p+q−y = ket con k una constante arbitraria, que por
los valores iniciales resulta ser k = 2v. Por lo tanto p + q − y = 2vet .
Ahora, como x = p+v, y = q −2v entonces p = x−v, q = y +2v; por
lo que de la ecuación p + q − x = vet se concluye que y = v(et − 1).
Y análogamente de la ecuación p + q − y = 2vet se concluye que
x = v(2et − 1)
Capı́tulo 1. 19

Luego

p = v(2et − 1) − v = 2v(et − 1)
q = v(et − 1) + 2v = v(et + 1)

Ası́, sustituyendo estos valores en la ecuación caracterı́stica de z 0 se


tiene

dz
= p(p + q − y) + q(p + q − x)
dt
= 5v 2 e2t − 3v 2 et

de lo cual se deduce que

5
z = v 2 e2t − 3v 2 et + c (1.4.11)
2

donde “c” es una constante que por los valores iniciales resulta ser
k = − 25 v 2 + 3v 2
5 2 2t
Por lo tanto se tiene que z = 2
v (e − 1) − 3v 2 (et − 1), pero es
necesario eliminar et de esta expresión, para lo cual se retomarán
las ecuaciones x = v(2et − 1), y = v(et − 1), de donde se tiene que
x − 2y = v y por otro lado también se tiene y − x = −vet , por lo que
surge la ecuación
y−x y−x
et = =
−v 2y − x
Ası́, sustituyendo este resultado en la ecuación 1.4.11 se tiene que
la solución de la EDP que pasa a través del eje X es

1
z = y(4x − 3y)
2

1.4.1. Tipos de soluciones de una EDP no lineal


de primer orden

Toda EDP de primer orden de la forma 1.4.1 posee una solución


dependiente de una función arbitraria, que es la solución general,
sin embargo, en muchas aplicaciones fı́sicas, esta solución es menos
Capı́tulo 1. 20

importante que las llamadas soluciones completas, que son del tipo

f (x, y, u, a, b) = 0

con a, b constantes arbitrarias denominadas parámetros. Estas fami-


lias de soluciones son soluciones particulares de la EDP que contienen
tantas constantes arbitrarias como variables independientes que in-
tervienen en la ecuación. Cabe resaltar que la familia de soluciones
biparamétricas no es única, es decir que es posible tener dos solu-
ciones completas particulares que no pertenezcan a la misma familia
biparamétrica f .

Por otro lado, si nos fijamos en la envolvente del sistema biparamétri-


co f (x, y, u, a, b) = 0 notamos que ésta es tocada en cada uno de sus
puntos por algún miembro del sistema; por lo que posee el mismo
conjunto de valores (x, y, u, p, q) de la superficie particular y por lo
tanto, también debe ser solución de la ecuación diferencial.

De esta forma, se tienen los siguientes tres tipos de integrales o so-


luciones de una EDP del tipo 1.4.1

a) Una familia de superficies biparamétrica f (x, y, u, a, b) = 0 lla-


mada integral o solución completa.

b) La envolvente de un subsistema arbitrario uniparamétrico

f (x, y, u, a, φ(a)) = 0

de la familia de superficies biparamétrica, llamada integral o


solución general. Cabe recalcar que toda EDP posee este tipo
de soluciones y que si φ es fija, obtenemos un caso particular
de la integral general de la ecuación.

c) En caso de existir la envolvente del sistema biparamétrico

f (x, y, u, a, b) = 0

ésta es llamada integral o solución singular de la EDP. Para


una EDP de primer orden invariablemente existe este tipo de
solución.
Capı́tulo 1. 21

Por lo tanto podemos decir que el hallar soluciones de una EDP no


lineal, se reduce a encontrar soluciones completas y al cálculo de
envolventes de familias de superficies.

Teóricamente siempre es posible obtener integrales completas dife-


rentes no equivalentes a otras, es decir, soluciones que no pueden
obtenerse de otra al cambiar la elección de la constante arbitraria.
Sin embargo cuando se ha obtenido una integral completa, cualquier
otra solución correspondiente a esta, es del tipo b) o c) (Ver Sec.1.5).

Ejemplo 3. Se hallarán los tres tipos de solución para la EDP

u2 (1 + p2 + q 2 ) = 1

Solución: Para comenzar resulta sencillo ver que la ecuación

(x − a)2 + (y − b)2 + u2 = 1

con a y b constantes arbitrarias, es solución completa de la EDP, ya


que al diferenciar con respecto de x se tiene 2(x − a) + 2up = 0 que
es equivalente a
u2 p2 = (a − x)2

y al diferenciar con respecto de y se tiene 2(y − b) + 2uq = 0 que es


equivalente a
u2 q 2 = (b − y)2

Lo cual implica

u2 p2 + u2 q 2 = (a − x)2 + (b − y)2

y si se considera la igualdad inicial se tiene

u2 p2 + u2 q 2 = 1 − u2

que es equivalente a la EDP u2 (p2 + q 2 + 1) = 1

Por lo tanto (x−a)2 +(y−b)2 +u2 = 1 es solución completa de la EDP.

Ahora si en la solución completa se considera b = a, se obtiene el


Capı́tulo 1. 22

subsistema uniparamétrico

(x − a)2 + (y − a)2 + u2 = 1

cuya envolvente se obtiene eliminando “a” del sistema de ecuaciones


(
(x − a)2 + (y − a)2 + u2 = 1
x + y − 2a = 0

de lo cual se tiene
  2   2
x+y x+y
x− + y− + u2 = 1
2 2

que es equivalente a
(x − y)2 + 2u2 = 2

Por lo tanto (x − y)2 + 2u2 = 2 es un caso particular de la integral


general de la EDP.
Por otro lado, al diferenciar (x − a)2 + (y − b)2 + u2 = 1 con respecto
de los parámetros a, b, se tiene el sistema de ecuaciones

2 2 2
 (x − a) + (y − b) + u = 1


x−a = 0

y−b = 0

de donde se tiene que u2 = 1 y por lo tanto, la envolvente del sistema


biparamétrico o integral singular es el par de planos u = ±1.

A continuación se estudiarán métodos para hallar soluciones com-


pletas de una EDP no lineal de primer orden.

1.4.2. Método de separación de variables

Este método consiste en reducir una EDP con n variables indepen-


dientes a un sistema de ecuaciones diferenciales ordinarias, buscando
expresar la solución de la EDP como una función formada al operar
n funciones que dependen de una variable diferente cada una. Sin
embargo, esto mismo, conlleva al problema de que este método no
Capı́tulo 1. 23

es aplicable a cualquier EDP, ya que existen ecuaciones diferencia-


les parciales que no poseen soluciones completas expresadas de esta
forma.

Aunque este método es muy usado para resolver ecuaciones diferen-


ciales parciales de segundo orden, en especial para resolver proble-
mas que involucran condiciones iniciales y/o de frontera, es posible
aplicarlo a algunas ecuaciones diferenciales parciales de primer or-
den, buscando expresar su solución como una suma de funciones de
una variable. Dada la EDP de la forma F (x, y, u, p, q) = 0, se busca
una solución u(x, y) = f (x) + g(y) que será solución completa de la
EDP, ya que incluirá dos constantes arbitrarias, por el número de
integrales que involucra.

Ejemplo 4. Sea la siguiente EDP aplicable en óptica geométrica

p2 + q 2 = 1 (1.4.12)

Se buscan soluciones de la forma

u = f (x) + g(y) (1.4.13)

las cuales al sustituirse en la EDP 1.4.12 resultan ser

(f 0 (x))2 + (g 0 (y))2 = 1

por lo que para tener la igualdad se concluye que f 0 (x) y g 0 (y) son
constantes. Por otro lado, si se retoma la identidad trigonométrica
sin2 (x) + cos2 (x) = 1 para todo valor de x, se concluye que

f 0 (x) = cos(a), g 0 (y) = sin(a)

lo cual implica que

f (x) = x cos(a) + c1 , g(y) = y sin(a) + c2

Por lo tanto se tiene que una familia de soluciones completas de la


Capı́tulo 1. 24

EDP 1.4.12 es de la forma

u = x cos(a) + y sin(a) + b

1.4.3. Método de Charpit

Este método para hallar soluciones completas de la EDP F (x, y, u, p, q) =


0, se basa en introducir una segunda EDP de primer orden G(x, y, u, p, q) =
0 tal que

a) Las ecuaciones sean funcionalmente independientes, permitiendo


que el sistema de ecuaciones formado por ambas pueda resol-
verse para p y q, describiéndolas como funciones de x, y y u.
Para esto es necesario que

∂(F, G)
J= 6= 0 (1.4.14)
∂(p, q)

∂(F,G) ∂F ∂G ∂F ∂G
donde ∂(p,q)
:= ∂p ∂q
− ∂q ∂p

b) Ambas ecuaciones sean compatibles, es decir, que toda solución


de la primer ecuación sea solución de la segunda y viceversa.

Estas dos condiciones que deben cumplir las ecuaciones se satisfacen


simultáneamente al pedir que

∂(F, G) ∂(F, G) ∂(F, G) ∂(F, G)


[F, G] :≡ +p + +q = 0 (1.4.15)
∂(x, p) ∂(u, p) ∂(y, q) ∂(u, q)

lo cual a su vez permite resolver el problema de hallar la segunda


EDP mediante la resolución de la siguiente EDP lineal que surge al
expandir la ecuación 1.4.15

∂G ∂G ∂G ∂G ∂G
Fp + Fq + (pFp + qFq ) − (Fx + pFu ) − (Fy + qFu ) =0
∂x ∂y ∂u ∂p ∂q
(1.4.16)
que de acuerdo al Teorema 1.3.2, su solución se halla mediante las
siguientes ecuaciones auxiliares conocidas ahora como ecuaciones de
Charpit, que son equivalentes a las ecuaciones caracterı́sticas 1.4.10
Capı́tulo 1. 25

del método de Cauchy[8]:

dx dy du dp dq
= = = = (1.4.17)
Fp Fq pFp + qFq −(Fx + pFu ) −(Fy + qFu )

A pesar de que mediante estas ecuaciones auxiliares es posible hallar


la solución general de la EDP 1.4.16, que viene siendo la segunda
EDP G = 0, se sabe que por la forma en que fue construida, las
expresiones para p y q también deben satisfacer la EDP F = 0, por
lo tanto basta hallar estas funciones a partir de las ecuaciones 1.4.17
y sustituirlas en el diferencial total de la función u

∂u ∂u
du = dx + dy
∂x ∂y
= pdx + qdy (1.4.18)

para que ası́, mediante la integración de esta última ecuación, se


obtenga una expresión de la solución completa f (x, y, u, a, b) = 0 de
la EDP original.

Ejemplo 5. Se hallará una integral completa de la siguiente ecua-


ción por el método de Charpit

(p2 + q 2 )y = qu

Solución: Se tiene que f (x, y, u, p, q) = (p2 + q 2 )y − qu


Las ecuaciones de Charpit para esta EDP son:

dx dy du dp dq
= = 2 2
= =
2py 2qy − u 2p y + 2q y − qu pq −p2

dp dq
Se puede ver que de la ecuación pq
= −p2
se tiene que

p2 = −q 2 + c con c una constante.

Entonces se busca resolver el siguiente sistema de ecuaciones para p


y q:
(
(p2 + q 2 )y − qu = 0
p2 + q 2 = c
Capı́tulo 1. 26

de donde se tiene que cy − qu = 0 y ası́

cy
q=
u

Luego entonces se tiene


 cy 2
2
p + =c
u

que es equivalente a
  cy 2  12
p=± c−
u

Ası́ la ecuación 1.4.18 resulta


  cy 2  12 cy
c− dx + dy = du
u u

que es equivalente a

 21
udu − cydy = cu2 − c2 y 2 dx

de donde se tiene
udu − cydy √
p = cdx
u2 − cy 2
o escrito de otra manera
p √
d( u2 − cy 2 ) = cdx

p √
Por lo tanto, la integral completa es u2 − cy 2 = cx + d con c, d
constantes.

A pesar de que en 1784 Charpit logró establecer un método para


la resolución de las ecuaciones no lineales de primer orden con dos
variables independientes, este no fue posible generalizarlo para resol-
ver ecuaciones con n > 2 variables independientes, ya que presenta
el problema de asegurar la independencia funcional entre ecuaciones
que dependen de n > 2 variables, para lo cual es necesario tener el
mismo número de ecuaciones que de variables. Este problema per-
sistió durante más de medio siglo hasta la publicación en 1862 de
Capı́tulo 1. 27

uno de los artı́culos póstumos de Jacobi escrito en 1838, donde logra


generalizar los métodos de Lagrange y de Charpit para la resolución
de una EDP con un número arbitrario de variables independientes,
mismo que será expuesto en la siguiente sección. [4]

1.4.4. Método de Jacobi

Este método desarrollado por Jacobi para hallar una solución com-
pleta de la EDP
F (x, y, u, p, q) = 0 (1.4.19)

extiende los métodos de Lagrange y de Charpit, con la ventaja de po-


der generalizarlo directamente para una EDP no lineal con un núme-
ro arbitrario de variables independientes, a diferencia del método de
Charpit.

Para la explicación de este método, se modificará la notación con la


que se ha estado trabajando para facilitar su escritura, denotando
a la variable dependiente o función buscada como z y por v a la
función que lleva implı́cita la solución de la EDP.

Este método consiste en expresar una EDP de una forma equivalente


donde la variable dependiente aparezca únicamente mediante sus
derivadas, para lo cual se parte de suponer que una solución de la
EDP original esta dada de forma implı́cita por v(x, y, z) = 0 y por
lo tanto, suponiendo que en una vecindad del punto (x, y, z) donde
se satisfacen las condiciones del Teorema de la función implı́cita se
llega a que

∂v ∂v
∂z ∂x ∂z ∂y
p := = − ∂v , q := = − ∂v (1.4.20)
∂x ∂z
∂y ∂z

∂v
por lo que si se define a vi := ∂xi
para i = 1, 2, 3 y x1 := x, x2 := y,
x3 := z, entonces se tiene

v1 v2
p=− , q=− (1.4.21)
v3 v3

Mediante la sustitución de esta redefinición de términos en la EDP


Capı́tulo 1. 28

original, se genera una EDP auxiliar equivalente donde la variable


dependiente aparece únicamente mediante sus derivadas y donde el
número de variables independientes es igual al de la EDP original
más uno, es decir, se incrementa la dimensión del espacio donde se
trabaja, ya que ahora consideraremos a z como variable indepen-
diente y como variable dependiente o solución buscada a v. De esta
forma, una solución completa de la EDP original es una solución
completa particular de la EDP auxiliar dada de la forma

F (x, y, z, v1 , v2 , v3 ) = 0 (1.4.22)

Basándose en el método de Charpit, Jacobi plantea su método de


solución introduciendo dos ecuaciones diferenciales parciales más de
primer orden

G(x, y, z, v1 , v2 , v3 ) = 0 y H(x, y, z, v1 , v2 , v3 ) = 0 (1.4.23)

tales que las ecuaciones 1.4.22 y 1.4.23 puedan resolverse para alguna
expresión de v1 , v2 y v3 . Estas nuevas ecuaciones G y H se hallan
al satisfacer la condición de compatibilidad con la ecuación F , dada
mediante las siguientes ecuaciones

∂(F, G) ∂(F, G) ∂(F, G)


+ + =0
∂(x, v1 ) ∂(y, v2 ) ∂(z, v3 )

∂(F, H) ∂(F, H) ∂(F, H)


+ + =0
∂(x, v1 ) ∂(y, v2 ) ∂(z, v3 )
que al extender se pueden ver como las siguientes ecuaciones dife-
renciales parciales lineales

∂G ∂G ∂G ∂G ∂G ∂G
Fv1 + Fv2 + Fv3 − Fx − Fy − Fz = 0
∂x ∂y ∂z ∂v1 ∂v2 ∂v3
∂H ∂H ∂H ∂H ∂H ∂H
Fv1 + Fv2 + Fv3 − Fx − Fy − Fz = 0
∂x ∂y ∂z ∂v1 ∂v2 ∂v3

las cuales por el Teorema 1.3.2 originan las ecuaciones auxiliares

dx dy du dv1 dv2 dv3


= = = = = (1.4.24)
Fv1 F v2 Fv3 −Fx −Fy −Fz
Capı́tulo 1. 29

Aunque mediante estas ecuaciones es posible hallar las ecuaciones G


y H, no es necesario conocerlas explı́citamente, ya que basta usar las
ecuaciones 1.4.24 para hallar expresiones de v1 , v2 y v3 en función de
x, y y z, que por construcción también satisfacen a la EDP original
F.

Una vez teniendo las expresiones para las vi es posible sustituirlas


en el diferencial total de v

∂v ∂v ∂v
dv = dx + dy + dz
∂x ∂y ∂z
= v1 dx + v2 dy + v3 dz

y ası́, mediante la integración de esta ecuación, se halla la expre-


sión v(x, y, z, a, b, c) para la solución de la EDP 1.4.22, que por el
número de integrales involucradas posee tres contantes. Sin embar-
go, si la EDP está dada en la forma 1.4.19, únicamente se necesitan
dos constantes arbitrarias en la solución, para lo cual se opta por
dar un valor especı́fico a alguna de las tres constantes arbitrarias de
v(x, y, z, a, b, c).

Ejemplo 6. Se hallará la integral completa de la siguiente EDP por


el método de Jacobi.
p2 + qy − z = 0 (1.4.25)

Solución: Como p = − vv31 , q = − vv23 entonces la EDP se reescribe


como
v12 − v2 v3 y − v32 z = 0 (1.4.26)

Las ecuaciones auxiliares que nos permiten hallar una solución com-
pleta de esta EDP son

dx dy dz dv1 dv2 dv3


= = = = = 2
2v1 −v3 y −v2 y − 2v3 z 0 v2 v3 v3

De lo cual se concluye que

v1 = a con “a” una constante


Capı́tulo 1. 30

dy dv2
Además de la ecuación −v3 y
= v2 v3
se obtiene que

b
v2 = con “b” una constante
y

Luego, sustituyendo v1 y v2 en la EDP 1.4.26 se tiene que

b
a2 − v3 y − v32 z = 0
y

lo cual implica que



−b ± b2 + 4za2
v3 =
2z

Ası́ se tiene que


√ !
b −b ± b2 + 4za2
dv = adx + dy + dz
y 2z

√ √ 
Por lo tanto v = ax + b ln y + b2 + 4az 2 − b ln b2 + 4az 2 + b + c
es solución completa de la EDP 1.4.26 y si c = 0 entonces se tiene
que una familia de soluciones completas de la ecuación 1.4.25 es
√ √ 
v = ax + b ln y + b2 + 4az 2 − b ln b2 + 4az 2 + b

Al generalizar este resultado para una EDP con n − 1 variables in-


dependientes, se tiene que si su solución está dada de forma implı́ci-
∂v
ta por v(x1 , ...xn−1 , z) y si se define a vi como ∂xi
para toda i ∈
∂v
{1, 2, ..., n − 1} y a vn como ∂z
, entonces la EDP a resolver es de la
forma
F (x1 , x2 , ..., xn , v1 , ..., vn ) = 0 (1.4.27)

Ası́ las ecuaciones auxiliares quedan expresadas como

dx1 dx2 dxn dv1 dv2 dvn


= = ··· = = = = ··· = (1.4.28)
F v1 Fv2 Fvn −Fx1 −Fx2 −Fxn

y al resolver estas ecuaciones para v1 , v2 , ..., vn , es posible determinar


v integrando la siguiente ecuación, cuya solución contiene n constan-
Capı́tulo 1. 31

tes arbitrarias n
X
dv = vi dxi (1.4.29)
i=1

En este método se tiene que recalcar que el hecho de hallar expre-


siones para las vi a partir de las ecuaciones auxiliares, no garantiza
llegar a un diferencial 1.4.29 exacto, es decir, donde las parciales
cruzadas sean iguales

∂vi ∂vj
= con i 6= j
∂xj ∂xi

lo cual conlleva al problema de no hallar una solución completa de


la EDP, por lo que será necesario hallar otras expresiones para las
vi e integrar la nueva diferencial que se origine.

Ejemplo 7. Sea la EDP

2(z + xp + yq) = yp2

que por el método de Jacobi es equivalente a

2(zv32 − xv1 v3 − yv2 v3 ) − yv12 = 0

y sus ecuaciones auxiliares son

dx dy dz dv1
= = =
−2xv3 − 2yv1 −2yv3 4zv3 − 2xv1 − 2yv2 2v1 v3
dv2 dv3
= 2
=
2v2 v3 + v1 −2v32

dy dv3
Se puede ver que de la ecuación −2yv3
= −2v32
se concluye que

v3 = ay con a una constante

dv1 dv3
y de la ecuación 2v1 v3
= −2v32
se tiene que

c c b
v1 = = =
v3 ay y
Capı́tulo 1. 32

dx dy
Además la ecuación −2xv3 −2yv1
= −2yv3
es equivalente a
 
ydx xdy xdy − ydx 1 x
2
= = 2
=− d (1.4.30)
−2yxv3 − 2y v1 −2xyv3 y v1 v1 y

dv1 dv2
y por otro lado la ecuación 2v1 v2
= 2v2 v3 +v12
es equivalente a
 
v2 dv1 v1 dv2 v1 dv2 − v2 dv1 1 v2
= 2
= 3
= d (1.4.31)
2v1 v2 v3 2v1 v2 v3 + v1 v1 v1 v1

De esta forma usando las ecuaciones 1.4.30 y 1.4.31 resulta


   
1 x 1 v2
− d = d
v1 y v1 v1

que equivale a    
x v2
−d =d
y v1
lo cual implica que
x v2
− =
y v1
y por lo tanto se tiene que

bx
v2 = −
y2

Luego entonces

dv = v1 dx + v2 dy + v3 dz
b bx
= dx − 2 dy + aydz
y y

que no es una diferencial exacta, ya que

∂v3 ∂v2
= a, =0
∂y ∂z

Método de Jacobi para ecuaciones cuasilineales

Como se mencionó con anterioridad, las ecuaciones cuasilineales pue-


den considerarse como una forma particular de una ecuación no li-
neal, por lo que en este caso, el método de Jacobi se reduce al método
de Lagrange. A continuación se mostrará que las ecuaciones auxilia-
Capı́tulo 1. 33

res del método de Jacobi aplicado a una EDP lineal se reducen a las
ecuaciones caracterı́sticas 1.3.11 del método de Lagrange.

Sea la EDP cuasilineal inhomogénea de dos variables independientes

P p + Qq = R

Se puede ver que aplicando el cambio de variables requerido para el


método de Jacobi, esta ecuación se transforma en la EDP cuasilineal
homogénea con tres varibles independientes

P v1 + Qv2 + Rv3 = 0 (1.4.32)

cuyas ecuaciones auxiliares del método de Jacobi resultan ser

dx dy dz dv1
= = = ∂v1 ∂Q
P Q R ∂P
v
∂x 1
+ ∂x
P + v
∂x 2
+ ∂v
∂x
2
Q+ ∂R
v
∂x 3
+ ∂v3
∂x
R
dv2
= ∂P
v + ∂v
∂y 1 ∂y
1
P + ∂Q v + ∂v
∂y 2 ∂y
2
Q+ ∂R
v
∂y 3
+ ∂v3
∂y
R
dv3
= ∂v1 ∂Q
∂P
v
∂z 1
+ ∂z
P + v
∂z 2
+ ∂v
∂z
2
Q+ ∂R
v
∂z 3
+ ∂v3
∂z
R

Sin embargo estas cinco ecuaciones se reducen a

dx dy dz
= =
P Q R

ya que como v1 , v2 y v3 son funciones de x, y, z sólamente entonces

dv1 ∂v1 dx ∂v1 dy ∂v1 dz


= + +
dµ ∂x dµ ∂y dµ ∂z dµ

dv2 ∂v2 dx ∂v2 dy ∂v2 dz


= + +
dµ ∂x dµ ∂y dµ ∂z dµ
dv3 ∂v3 dx ∂v3 dy ∂v3 dz
= + +
dµ ∂x dµ ∂y dµ ∂z dµ
y si se retoman las ecuaciones 1.3.4 se puede ver que

dv1 ∂v1 ∂v1 ∂v1


=P +Q +R
dµ ∂x ∂y ∂z

dv2 ∂v2 ∂v2 ∂v2


=P +Q +R
dµ ∂x ∂y ∂z
Capı́tulo 1. 34

dv3 ∂v3 ∂v3 ∂v3


=P +Q +R
dµ ∂x ∂y ∂z
además suponiendo que las parciales cruzadas son iguales entonces
se llega a que
dv1 ∂v1 ∂v2 ∂v3
=P +Q +R
dµ ∂x ∂x ∂x
dv2 ∂v1 ∂v2 ∂v3
=P +Q +R
dµ ∂y ∂y ∂y
dv3 ∂v1 ∂v2 ∂v3
=P +Q +R
dµ ∂z ∂z ∂z
que es equivalente a

dv1 ∂ ∂P ∂Q ∂R
= (P v1 + Qv2 + Rv3 ) − v1 − v2 − v3 R
dµ ∂x ∂x ∂x ∂x

dv2 ∂ ∂P ∂Q ∂R
= (P v1 + Qv2 + Rv3 ) − v1 − v2 − v3 R
dµ ∂y ∂y ∂y ∂y
dv3 ∂ ∂P ∂Q ∂R
= (P v1 + Qv2 + Rv3 ) − v1 − v2 − v3 R
dµ ∂z ∂z ∂z ∂z
y por la ecuación 1.4.32 se tiene que

dv1 ∂P ∂Q ∂R
= −v1 − v2 − v3
dµ ∂x ∂x ∂x

dv2 ∂P ∂Q ∂R
= −v1 − v2 − v3
dµ ∂y ∂y ∂y
dv3 ∂P ∂Q ∂R
= −v1 − v2 − v3
dµ ∂z ∂z ∂z
de donde se concluye que

dv1 dv2
dµ = ∂Q
=
−v1 ∂P
∂x
− v2 ∂x − v3 ∂R
∂x
−v1 ∂P
∂y
− v2 ∂Q
∂y
− v3 ∂R
∂y
dv3
= (1.4.33)
−v1 ∂P
∂z
− v2 ∂Q
∂z
− v3 ∂R
∂z

pero las ecuaciones 1.3.5 también satisfacen esta condición de ser


idénticas a dµ, por lo que las ecuaciones 1.4.33 resultan ser redundan-
tes a ellas y por lo tanto no es necesario considerarlas para resolver
una EDP lineal por el método de Jacobi.
Capı́tulo 1. 35

1.5. Soluciones que satisfacen condicio-


nes dadas

En esta sección se determinarán superficies solución de la EDP

F (x, y, u, p, q) = 0 (1.5.1)

que satisfacen alguna otra condición, como lo son el pasar a través


de una curva dada o circunscribir una superficie dada. Además se
mostrará una forma de hallar una integral completa a partir de otra.

1.5.1. Soluciones que pasan por una curva dada

Sea una curva C con ecuaciones paramétricas

x = x(t), y = y(t), u = u(t) con t parámetro.

Si existe una superficie integral de la ecuación 1.5.1 a través de la


curva C, entonces ésta puede ser de tres tipos

a) Un caso particular de la integral completa

f (x, y, u, a, b) = 0 (1.5.2)

obtenida al dar valores particulares de a y b.

b) Un caso particular de la integral general correspondiente a 1.5.2,


es decı́r, la envolvente de un subsistema uniparamétrico de
1.5.2
f (x, y, u, a, φ(a)) = 0

c) La envolvente del sistema biparamétrico 1.5.2.

Sin embargo, es poco probable que la solución sea del tipo a) o c),
por lo que tratará únicamente el caso b).

Se busca una superficie solución E que sea envolvente del subsistema


uniparamétrico 1.5.2 cuyos miembros también toquen la curva C.
Capı́tulo 1. 36

Por esta razón, para determinar E se debe considerar el subsistema


de los miembros de la familia 1.5.2 que tocan la curva C. Los puntos
de intersección de la familia 1.5.2 y la curva C están determinados
por la siguiente ecuación en términos del parámetro t

f (x(t), y(t), z(t), a, b) = 0 (1.5.3)

y la condición de que la curva C debe tocar la superficie 1.5.2 se


satisface al pedir que la ecuación 1.5.3 tenga dos raı́ces iguales, ya
que la curva C también toca a la envolvente de esas superficies en ese
mismo punto. De forma equivalente, para satisfacer esta condición
se pide que la ecuación 1.5.3 y la ecuación


f (x(t), y(t), u(t), a, b) = 0
∂t

deben tener una raı́z en común.

Ejemplo 8. Se hallará una integral completa de la siguiente EDP y


se deducirá la solución que pasa a través de la curva x = 0, u2 = 4y

(p2 + q 2 )x = pu

Solución: Se tiene que f (x, y, u, p, q) = (p2 + q 2 )x − pu.


Por el método de Charpit, las ecuaciones auxiliares son

dx dy du dp dq
= = 2 2
= 2
=
2xp − u 2xq 2xp − up + 2xq −q pq

dp dq
de donde la ecuación −q 2
= pq
implica que

p2 + q 2 = a con a una constante

Ası́ se tiene el sistema de ecuaciones


(
(p2 + q 2 )x = pu
p2 + q 2 = a

de donde se obtiene que


r
ax a2 x 2
p= y q= a−
u u2
Capı́tulo 1. 37

luego entonces
1
a2 x 2 2

ax
du = dx + a − 2 dy
u u

que es equivalente a

1
udu − axdx = (au2 − a2 x2 ) 2 dy

o visto de otra forma como

1
2
d(u2 − ax2 ) √
√ = ady
u2 − ax2

que equivale a
√ √
d( u2 − ax2 ) = ady

lo cual implica que


u2 − ax2 = ( ay + b)2

Ahora, como las ecuaciones paramétricas de la curva dada son x = 0,


y = t2 , u = 2t entonces la intersección de la integral completa 1.5.4
con esta curva es

a2 t4 + (2ab − 4)t2 + b2 = 0

la cual tiene raı́ces iguales si (ab − 2)2 = a2 b2 o equivalentemente si


ab = 1. Por esto, el sistema uniparamétrico apropiado es

1
u2 = a2 x2 + (ay + )2
a

o visto de forma equivalente a4 (x2 + y 2 ) + a2 (2y − u2 ) + 1 = 0; cuya


envolvente se obtiene al eliminar el parámeto “a” del sistema
(
u2 = a2 x2 + (ay + a1 )2
0 = 4a3 (x2 + y 2 ) + 2a(2y − u2 )
Capı́tulo 1. 38

2y−u 2
lo cual implica que a2 = − 2(x2 +y 2 ) Luego se tiene

2y − u2 2(x2 + y 2 )
 
2 2 2
u = − (x + y ) + 2y −
2(x2 + y 2 ) 2y − u2

que es equivalente a

4(x2 + y 2 )2
2(x2 + y 2 )u2 = −2y(x2 + y 2 ) + u2 (x2 + y 2 ) + 4y(x2 + y 2 ) −
2y − u2

Por lo tanto 4(x2 + y 2 ) = 2y − z 2 es la solución del problema. Ver


Figura 1.3

Figura 1.3: Superficie solución que pasa por la curva dada

1.5.2. Solución completa a partir de otra solu-


ción completa usando curvas

El resultado de hallar una solución de una EDP que pase por una
curva es usado para hallar una solución completa de una EDP a
partir de otra solución completa.

Se supondrá que dada una EDP de la forma F (x, y, u, p, q) = 0 se


Capı́tulo 1. 39

conoce una de sus soluciones completas de la forma

f (x, y, u, a, b) = 0 (1.5.4)

y se busca hallar otra solución completa g(x, y, u, h, k) = 0 con h, k


constantes.

Para esto se requiere dar una curva Γ en forma paramétrica por


la que se quiere que pase la solución, tal que en ella aparezcan las
dos constantes arbitrarias h, k como parámetros independientes; y
después se halla la ecuación de la envolvente del subsistema unipa-
ramétrico de 1.5.4 donde cada miembro toca esta curva Γ.

Ejemplo 9. Dada la EDP xpq + yq 2 = 1 y una de sus integrales


completas (z +b)2 = 4(ax+y), se deducirá otra integral completa que
pase por la curva con ecuaciones paramétricas y = 0, x = k(z + h).
Solución: Se puede notar que la intersección de la integral completa
ya dada y la curva es

(z + b)2 − 4ak(z + b) + 4ak(b − h) = 0

la cual es una ecuación cuadrática que tiene raı́ces iguales si

16a2 k 2 − 16ak(b − h) = 0

esto es, si ak = 0 o b = h + ak.


Si se considerase ak = 0 entonces se tendrı́a (z + b)2 = 0 y su
envolvente no dependerı́a de h y k. Por lo tanto se puede hacer b =
h + ak, con lo que se obtiene

(u + h + ak)2 = 4(ax + y)

cuya envolvente es (k(u + h) − 2x)2 = ((u + h)2 − 4y)k 2


Por lo tanto kx(u + h) = k 2 y + x2 es una solución completa de la
EDP que pasa por la curva dada.
Capı́tulo 2

Soluciones Completas

En el capı́tulo anterior se mencionaron métodos para hallar solu-


ciones completas de una EDP de primer orden, sin embargo, estos
procesos pueden tornarse difı́ciles al momento de combinar las ecua-
ciones auxiliares; por lo que podrı́a pensarse que todas las soluciones
completas de la EDP pertenecen a las familias de superficies encon-
tradas, lo cual es erróneo. Es posible hallar una infinidad de solucio-
nes completas de una EDP que pertenezcan a distintas familias de
superficies.

En la sección 1.5.2 se introdujo una forma de hallar una solución


completa de una EDP a partir de otra ya conocida, sin embargo,
este método no se puede aplicar considerando cualquier curva, ya
que se puede llegar a proponer curvas que no intersecten a ninguna
superficie solución de la EDP en ningún punto.

Debido a las dificultades que presentan estos métodos para hallar


otras soluciones completas de las EDP, surge la necesidad de esta-
blecer otras formas de abordar este problema.

Un método para hallar otra solución completa a partir de una cono-


cida f (x, y, u, a, b), donde a y b son constantes arbitrarias, es consi-
derar a b como una función de a donde se involucre también otras
dos constantes arbitrarias, digamos c y d; tal que ahora se tenga una
expresión de la forma f (x, y, u, a, b(a, c, d)).

Con esta redefinición de b, la solución f ya no es una solución com-


40
Capı́tulo 2. 41

pleta de la EDP en cuestión, ya que involucra tres parámetros ar-


bitrarios, por lo que es necesario eliminar un parámetro, digamos
a. Esto se logra mediante la obtención de una expresión para este
parámetro en función de x, y, c y d, a partir de la derivada parcial
de f (x, y, u, a, b(a, c, d)) con respecto de a; y posteriormente susti-
tuyéndola en f (x, y, u, a, b(a, c, d)).

Ejemplo 10. Retomando la EDP del ejemplo 6, p2 + qy − z = 0 y


una de sus soluciones completas

1
!
ln z √ 2az 2 b
v(x, y, a, b, z) = ax+ln y− + 1 + 4za2 +ln √ +
2 1 + 4za2 + 1 2

se hallará otra solución completa para esta EDP definiendose b =


ac − d.
Solución: Con base en los requisitos se tiene la expresión

ln(z) √
f (x, y, z, a, c, d) = ax + ln(y) − + 1 + 4za2
 √ 2 
2a z ac − d
+ ln √ + (2.0.1)
2
1 + 4za + 1 2

De donde se obtiene que

∂z 4za 1 4za c
= x+ √ + − √ √ +
∂a 1 + 4za2 a ( 1 + 4za2 )( 1 + 4za2 + 1) 2

∂z
Ası́, ∂a
= 0 si y sólo si
 
4za 1 1  c
√ 1− √ + =− x+
1 + 4za2 1 + 4za2 + 1 a 2

o de forma equivalente

4za 1  c
√ + =− x+
1 + 4za2 + 1 a 2

de donde se tiene
1
a2 =
(x + c/2)2 − 4z
Luego, sustituyendo a = − √ 1
en la ecuación 2.0.1 y ha-
(x+c/2)2 −4z
ciendo la simplificación, se tiene que otra solución completa de la
Capı́tulo 2. 42

EDP es
√ !
log(z) 2 z d
e = log(y) −
u + log − p −
2 x + c/2 + (x + c/2)2 − 4z 2

Cabe mencionar que para obtener otra solución completa de la EDP


no importa el parámetro que se elija a eliminar, sin embargo, si se
desea que la nueva solución pertenezca a otra familia de superficies
es necesario eliminar el “viejo” parámetro, es decir, el que aparece
en la solución completa original.

2.1. Relación entre soluciones comple-


tas de una EDP

El método de la sección anterior hace ver que existe una relación


entre las soluciones completas de una EDP, la cual parece depender
de los parámetros arbitrarios de las soluciones. Éste es precisamente
el trabajo desarrollado en esta tesis, basado en el artı́culo [10], don-
de se retomará el método de Jacobi, expuesto en la sección 1.4.4,
mediante el cual una EDP con n variables independientes se expresa
de forma equivalente como

F (x1 , ..., xn , z, v1 , ..., vn , vn+1 ) = 0 (2.1.1)

donde v es considerada una solución completa de la EDP original


∂v
dada de forma implı́cita, vi = ∂v/∂xi para i ∈ {1, ..., n} y vn+1 = ∂z
.
Cabe recordar que una solución completa de esta EDP es una función
de 2n + 2 variables, por lo que una solución completa de la EDP
original es una función de 2n + 1 variables v(x1 , ..., xn , P1 , ..., Pn , z),
donde Pi son las constantes arbitrarias y z la variable dependiente.

Para el desarrollo de este trabajo es importante suponer que se co-


noce una solución completa de la EDP original, dada de la forma

v(x1 , ..., xn , P1 , ..., Pn , z)


Capı́tulo 2. 43

tal que cumpla con la condición de que

∂ 2v
 
det 6= 0 (2.1.2)
∂xi ∂Pj

ya que esto permite garantizar poder expresar a las constantes ar-


bitrarias Pi únicamente en función de las variables xi y z, o a la
variables xi en función de z y las constantes Pi .

Ahora, si en la EDP 2.1.1 se despeja la variable vn+1 = ∂v/∂z,


entonces ésta se puede expresar como

G(x1 , ..., xn , v1 , ..., vn , z) + vn+1 = 0 (2.1.3)

lo cual permite escribir el diferencial de la solución completa v como


n
X
dv = (pi (xj , Pj , z)dxi + Qi (xj , Pj , z)dPi )−G(xi , pi (xj , Pj , z), z)dz
i=1
(2.1.4)
donde pi y Qi son funciones de xj , Pj y z definidas como

∂v ∂v
pi = , Qi = (2.1.5)
∂xi ∂Pi

De forma análoga, si se supone que ve(x1 , ..., xn , Pe1 , ..., Pen , z) es otra
solución completa de la EDP 2.1.1 tal que se satisface la ecuación
2.1.2, entonces el diferencial total de ve es expresado como
n 
X 
de
v= ei (xj , Pej , z)dPei −G(x
pei (xj , Pej , z)dxi + Q e i , pei (xj , Pej , z), z)dz
i=1
(2.1.6)
donde pei y Q
ei son funciones de xi , Pei y z definidas como

∂e
v ei = ∂e v
pei = , Q (2.1.7)
∂xi ∂ Pei

Luego, como v y ve son soluciones completas de la EDP 2.1.1, entonces


vi es equivalente a vei para toda i ∈ {1, ..., n + 1}; por lo que al restar
Capı́tulo 2. 44

las ecuaciones 2.1.4 y 2.1.6 se tiene que


n
X n
X
v − v) =
d(e ei dPei −
Q Qi dPi (2.1.8)
i=1 i=1

Por otro lado, si se toma en cuenta a la función ve − v que depende


de xi , Pi , Pei y z, se tiene que su diferencial total es
n  
X v − v)
∂(e v − v)
∂(e v − v) e
∂(e
v − v) =
d(e dxi + dPi + d Pi
i=1
∂xi ∂Pi ∂ Pei
v − v)
∂(e
+ dz
n 
∂z 
X ∂e
v ∂v ∂e
v ∂v ∂e v e ∂v e
= dxi − dxi + dPi − dPi + dPi − dPi
∂xi ∂xi ∂Pi ∂Pi ∂ Pei ∂ Pei
i=1
∂e
v ∂v
+ dz − dz (2.1.9)
∂z ∂z

donde ∂e
v /∂Pi = 0, ∂v/∂ Pei = 0 ya que ve no depende de Pi y v no
depende de Pei .

De esta forma, como las ecuaciones 2.1.8 y 2.1.9 deben ser iguales
entonces se tiene que satisfacer que

∂e
v ∂v ∂e
v ∂v
dxi − dxi + dz − dz = 0
∂xi ∂xi ∂z ∂z

lo cual es equivalente a

v − v)
∂(e v − v)
∂(e
dxi + dz = 0
∂xi ∂z

pero como vi es equivalente a vei para toda i ∈ {1, ..., n} entonces se


debe cumplir que
v − v)
∂(e
=0 (2.1.10)
∂xi
v − v)
∂(e
=0 (2.1.11)
∂z
La ecuación 2.1.11 se satisface automáticamente ya que v y ve son
soluciones de la EDP, pero por otro lado, las ecuaciones de 2.1.10
constituyen un sistema de n ecuaciones que, bajo la condición de que
v y ve satisfacen 2.1.2, determinan a las xi como funciones de Pi , Pei
y z para toda i ∈ {1, ..., n}.
Capı́tulo 2. 45

Ahora, si se retoma la ecuación 2.1.8 se tiene que al integrarla resulta


la ecuación
ve − v = F (xi , Pi , Pei , z) (2.1.12)

pero si en la función F se sustituyen las expresiones para xi pro-


venientes del sistema 2.1.10, se puede notar que ésta únicamente
depende de los parámetros Pi y Pei ya que la variable z desaparece
automáticamente por pertenecer a las soluciones v, ve. Cabe recalcar
que los parámetros Pi y Pei deben ser funcionalmente independientes
entre sı́ para poder hallar la función F (Pi , Pei ) que relaciona a las dos
soluciones completas v y ve; de lo contrario, se estarı́a tratando con
soluciones equivalentes.

Ejemplo 11. Sea la EDP

p2 + qy − z = 0

misma que se trabajó en el Ejemplo 6 donde por el método de Jacobi


se halló que una de sus soluciones completas es
√ √ 
v = ax + b ln y + b2 + 4az 2 − b ln b2 + 4az 2 + b (2.1.13)

Si nuevamente se consideran las ecuaciones auxiliares para hallar


dy de
v3
otra solución completa tenemos que de la ecuación −e
v3 y
= e32
v
se
tiene que
c
ve3 = con c una constante
y
Por otro lado, se tiene de forma directa que ve1 = k con k una cons-
tante arbitraria.
Ası́ al sustituir ve1 y ve3 en la ecuación 1.4.26 resulta

c2 z
 
2 c
k − ve2 y− 2 =0
y y

lo cual implica que


k 2 cz
ve2 = − 2
c y
Capı́tulo 2. 46

Luego entonces se tiene

de
v = ve1 dx + ve2 dy + ve3 dz
 2 
k cz c
= kdx + − 2 dy + dz
c y y
2
k z
= kdx + dy + cd( )
c y

con lo que se implica que

k 2 y cz
ve = kx + + +d
c y

Por lo tanto si d = 0, entonces otra solución completa de la EDP


1.4.25 es
k 2 y cz
ve = kx + + (2.1.14)
c y
Ahora, como las soluciones 2.1.13 y 2.1.14 son completas en el sen-
tido de que satisfacen 2.1.2, entonces es posible hallar la función
dependiente de los parámetros a, b, k y c que las relaciona.
Sea

k 2 y cz √ √ 
ve−v = kx+ + −ax−b ln(y)− b2 + 4az 2 +b ln b2 + 4az 2 + b
c y
(2.1.15)
de donde el sistema de ecuaciones a resolver para x, y en función de
z, a, b, c, k
(
v −v)
∂(e
∂x
= 0
v −v)
∂(e
(2.1.16)
∂y
= 0

resulta ser
(
k−a = 0
k2 cz b
(2.1.17)
c
− y2
− y
= 0

De aquı́ se obtiene que k = a y al sustituir esto en la segunda ecua-


ción del sistema se llega a que

bc + c b2 + 4a2 z
y=
2a2
Capı́tulo 2. 47

Con lo que al sustituir estos valores en la ecuación 2.1.15 se tiene


√ √ !
b b2 + 4a2 z 2a2 z c(b + b2 + 4za2 )
ve − v = − + √ − b ln
2 2 b + b2 + 4a2 z 2a
 √ 
+ b ln b + b2 + 4za2
c
= −b ln
2a

Por lo tanto la función que relaciona a las soluciones completas ve y


v es c
F (a, b, c, k) = −b ln
2a
pero como a = k, por la primer ecuación del sistema 2.1.17, la fun-
ción es equivalente a
 
c
F (a, b, c, k) = −b ln
a+k

En este ejemplo cabe mencionar que la primer función obtenida F


únicamente depende de tres parámetros ya que a y k no son fun-
cionalmente independientes, como lo muestra la primer ecuación del
sistema 2.1.17.

Ejemplo 12.
Este es un ejemplo que permite ver que si los parámetros de dos
soluciones completas no son funcionalmente independientes, no es
posible hallar una función F que las relacione. La dependencia fun-
cional de los parámetros se dará mediante la obtención de la otra
solución completa por medio del método de la sección anterior de
este capı́tulo.

Sea la EDP
zpq = p + q (2.1.18)

que por el método de Jacobi es equivalente a

zv1 v2 + v3 v1 + v3 v2 = 0
Capı́tulo 2. 48

y las ecuaciones auxiliares son

dx dy dz dv1 dv2 dv3


= = = = =
zv2 + v3 zv1 + v3 v1 + v2 0 0 v1 v2

de donde se obtiene que v1 = a y v2 = b donde a y b son constantes


arbitrarias.
dz v3
Luego, de la ecuación v1 +v2
= v1 v2
se tiene que

abz
v3 = (2.1.19)
a+b

Ası́

dv = v1 dx + v2 dy + v3 dz
abz
= adx + bdy + dz
a+b

Lo cual implica que

abz 2
v = ax + by + +c
2(a + b)

Por lo tanto, si c = 0 entonces una solución completa de la EDP


2.1.18 es
abz 2
v = ax + by + (2.1.20)
2(a + b)
Ahora, para hallar otra solución completa de la EDP 2.1.18, defı́nase
b = ac − d donde c y d son otras constantes arbitrarias, con lo que
se tiene
a(ac − d)z 2
vb = ax + (ac − d)y − (2.1.21)
2(a + ac − d)
que no es una solución completa de la EDP 2.1.18, ya que posee tres
constantes arbitrarias.
∂b
v
Luego, partiendo de la ecuación ∂a
= 0 se busca expresar a la cons-
tante “a” en función de x, y, z, c y d para ası́ poder eliminarla de la
ecuación anterior.

∂b
v 2(2z 2 ac − z 2 d)(a + ac − d) − 2(1 + c)(z 2 a(ac − d))
= x + cy −
∂a 4(a(1 + c) − d)2
z 2 (a2 c + a2 c2 − 2acd + d2 )
= x + cy −
2(a(1 + c) − d2 )
Capı́tulo 2. 49

∂b
v
Luego entonces ∂a
= 0 si y sólo si

z 2 (a2 c + a2 c2 − 2acd + d2 )
x + cy − =0
2(a(1 + c) − d2 )

es decir

d zd
a= − p
1 + c (1 + c) 2(1 + c)(x + cy) − cz 2

Ası́, sustituyendo “a” en la ecuación 2.1.21 se tiene que otra solución


completa de la EDP 2.1.18 es
 
(x − y)d zd p
2
z(c − 1)
ve = − 2(1 + c)(x + cy) − cz +
1+c (1 + c)2 2
(2.1.22)
Podrı́a pensarse que como las soluciones 2.1.20 y 2.1.21 son comple-
tas en el sentido de que satisfacen 2.1.2, entonces podrı́a hallarse una
función dependiente de los parámetros arbitrarios que las relacione,
sin embargo, el sistema de ecuaciones 2.1.10 correspondiente a estas
soluciones completas es indeterminado para x, y, por la forma como
se contruyó la segunda solución completa.

2.2. Obtención de otra solución comple-


ta

Retomando la ecuación 2.1.12 de la sección anterior, se puede ver


que mediante un despeje se obtiene la ecuación

ve(xi , Pei , z) = v(xi , Pi , z) + F (Pi , Pei ) (2.2.1)

lo cual parece indicar otra forma de hallar una nueva solución com-
pleta de la EDP, sin embargo en esta expresión ve también depende
de Pi , es decir, posee más de n constantes arbitrarias, lo cual no la
hace una solución completa. Pero se puede notar que al diferenciar
esta ecuación, del lado izquierdo de la igualdad resulta
n  
X ∂e
v ∂e v e ∂e
v
de
v= dxi + dPi + dz (2.2.2)
i=1
∂xi ∂ Pei ∂z
Capı́tulo 2. 50

y del lado derecho de la igualdad


n  
X ∂v ∂F ∂v ∂F ∂v e ∂F e
d(v + F ) = dxi + dxi + dPi + dPi + d Pi + dPi
i=1
∂xi ∂xi ∂Pi ∂Pi ∂ Pei ∂ Pei
∂v ∂F
+ dz + dz
∂z ∂z
n  
X ∂v ∂(v + F ) ∂F e ∂v
= dxi + dPi + dPi + dz (2.2.3)
i=1
∂x i ∂P i ∂ P
ei ∂z

por lo tanto, para tener la igualdar de las ecuaciones 2.2.2 y 2.2.3


es necesario que

∂(v + F )
=0 ∀i ∈ {1, ..., n} (2.2.4)
∂Pi

ya que los otros términos mantienen la relación automáticamente por


ser v y ve soluciones completas de la misma EDP y por la definición
de ve en la ecuación 2.2.1.

De esta forma, para que ve, definida como en 2.2.1, sea solución com-
pleta de la EDP es necesario resolver el sistema de n ecuaciones
2.2.4 para Pi en función de xi , Pei , z y sustituir estas expresiones en
la ecuación 2.2.1.

Cabe recalcar que por el sistema de ecuaciones 2.2.4, ve(xi , Pei , z) = 0


es la envolvente de la familia de superficies v(xi , Pi , z)+F (Pi , Pei ) = 0,
parametrizada por las Pi . Además otro detalle importante que es
necesario remarcar es que si el número de parámetros Pei contenidos
en F es menor que n, entonces la función ve obtenida en términos
de las ecuaciones 2.2.1 y 2.2.4, no será una solución completa pero
sı́ una solución de la EDP, ya que se puede pensar que las constantes
arbitrarias faltantes han tomado ciertos valores fijos.[10]

Ejemplo 13. Considerando la EDP 1.4.25 del ejemplo 6 y su solu-


ción obtenida por el método de Jacobi, se buscará hallar otra solución
completa ve para la EDP mediante la suma de una función F a la pri-
mer solución.
Sea
ve(x, y, e
a, eb, z) = v(x, y, a, c, z) + F (a, c, e
a, eb)
Capı́tulo 2. 51

tal que F (a, c, e a) + c2eb, entonces


a, eb) = ln(ae

1
!
ln z √ 2az 2
a, eb, z) = ax + ln y −
ve(x, y, e + 1 + 4za2 + ln √
2 1 + 4za2 + 1
c
+ + ln(aea) + c2eb
2

Luego, se busca resolver el siguiente sistema de ecuaciones para “a”


y “c”
∂e
v ∂e
v
= 0, =0
∂a ∂c

  
√ 4az
2z 1/2 ( 1 + 4a2 z + 1) − 2az 1/2 √
∂e
v 4az 1+ 4a2 z +1  1+4a2 z  1
= x+ √ +  √ +
∂a 1 + 4a2 z 2az 1/2  ( 1 + 4a2 z + 1)2  a

√ 2
1 + 4a2 z + 1 − √ 4a z 2
4az 1+4a z 1
= x+ √ + √ +
1 + 4a2 z a( 1 + 4a2 z + 1) a
4az 1 1
= x+ √ + √ +
1 + 4a2 z a 1 + 4a2 z a

1 + 4a2 z 1
= x+ +
a a

∂e
v
Entonces ∂a
= 0 si y sólo si

1 + 4a2 z 1
x+ + =0
a a

es decir
2x
a=
4z − x2
∂e
v
Por otro lado ∂c
= 0 si y sólo si

∂e
v 1
= + 2ceb
∂c 2

lo cual implica que c = − 41eb . Por lo tanto


p
2x2 ln z (4z − x2 )2 − 16x2 z
ve = + ln y − +
4z − x2 2 4z − !x2
4xz 1/2
 
2xe
a 1
+ ln p + ln −
(4z − x2 )2 − 16x2 z + 4z − x2 4z − x2 16eb

es otra solución completa de la EDP 1.4.25.


Capı́tulo 2. 52

Ejemplo 14. Sea la EDP

pq − z 2 = 0 (2.2.5)

que por el método de Jacobi resulta ser equivalente a la EDP

v1 v2 − v32 z 2 = 0 (2.2.6)

Las ecuaciones auxiliares que permiten hallar soluciones completas


de esta EDP son

dx dy dz dv1 dv2 dv3


= = = = =
v2 v1 −2v3 z 2 0 0 2v32 z

De donde se puede concluir que

v1 = a con a una constante arbitraria

v2 = b con b una constante arbitraria

Ası́, al sustituir estos valores en la ecuación 2.2.6 se tiene que



ab
ab − v32 z 2 = 0 ⇔ v3 =
z

y por lo tanto √
ab
dv = adx + bdy + dz
z

lo cual implica que v = ax + by + ab ln z + c es solución completa
de la EDP 2.2.6. Pero si se considera c = 0, entonces una solución
completa para la EDP 2.2.5 es

v = ax + by + ab ln z

Ahora se hallará otra solución completa para la EDP 2.2.5 mediante


la ecuación

ve(x, y, e
a, eb, z) = v(x, y, a, b, z) + F (a, b, e
a, eb)
Capı́tulo 2. 53

√ √
donde F (a, b, e
a, eb) = e
a a + eb b, entonces
√ √ √
ve(x, y, e
a, eb, z) = ax + by + ab ln z + e
a a + eb b (2.2.7)

lo cual implica que


√ √
∂e
v b ln z a ∂e
v a ln z eb
=x+ √ + √ , =y+ √ + √
e
∂a 2 a 2 a ∂b 2 b 2 b

Entonces se busca resolver el siguiente sistema de ecuaciones para a


yb
( √
b√ln z a
x+ + √
e
= 0
√2 a 2 a
a ln z b
y+ √ + √ = 0
e
2 b 2 b

Se puede ver que

√ √  a

b ln z

a

√ 2 a x+ √
e
2 a
√ =− x+ √ ⇒ b=−
e
2 a 2 a ln z

Ası́
(ln z)2 eb ln z
y−  − √   =0
4 x + 2√ea a 4 a x + 2√ea a

lo cual implica que


 
2
a(ln z) + b ln z 
e
y− √   =0
a
4 a x+ 2 a √
e

que a su vez implica que


a (ln z)2 − 4yx = 2ye

a − eb ln z

de donde se concluye que


!2
2yea − eb ln z
a=
(ln z)2 − 4yx

Por otro lado la ecuación



b ln z a
x+ √ + √ =0
e
2 a 2 a
Capı́tulo 2. 54

implica que
√ a(ln z)2
2xeb ln z + e
b=−
ln(z) [(ln z)2 + 4yx]
y por lo tanto !2
2xeb − e
a ln z
b=
(ln z)2 − 4yx

De esta forma, al sustituir a y b en la ecuación 2.2.7 y simplificar,


se tiene que otra solución completa para la EDP 2.2.5 es

xeb2 + yea2 − e
aeb ln z
ve(x, y, e
a, eb, z) =
(ln z)2 − 4xy

Un aspecto importante que se debe recalcar es que, para obtener otra


solución completa a partir de la suma de una función dependiente
de los parámetros y de una solución completa conocida, es necesario
que ésta satisfaga la ecuación 2.1.2, ya que de no hacerlo la expresión
que se obtenga será solución de la EDP pero no será una solución
completa. Un ejemplo de esto es desarrollado a continuación.

Ejemplo 15. Sea la EDP

p2 − 3q 2 − z = 0 (2.2.8)

que por el método de Jacobi resulta ser equivalente a la EDP

v12 − 3v22 − v32 z = 0 (2.2.9)

Las ecuaciones auxiliares que permiten hallar una solución completa


de esta EDP son

dx dy dz dv1 dv2 dv3


= = = = = 2
2v1 −6v2 −2v3 z 0 0 v3

De donde se concluye que

v1 = a con a una constante arbitraria

v2 = b con b una constante arbitraria


Capı́tulo 2. 55

Ası́, al sustituir estas expresiones en la ecuación 2.2.9 se tiene

a2 − 3b2 − v32 z = 0
q
a2 −3b2
de donde se obtiene v3 = z
y por lo tanto

r
a2 − 3b2
dv = adx + bdy + dz
z

lo cual implica que


√ √
v = ax + by + 2 a2 − 3b2 z + c (2.2.10)

Esta última es una solución completa de la EDP 2.2.9 y si, por ejem-
plo, b = 1 entonces se tiene que
p
v = ax + y + 2 z(a2 − 3) + c

es una solución completa de la EDP 2.2.8, sin embargo no es com-


pleta en el sentido de satisfacer 2.1.2.
Ahora, omitiendo que la solución no satisface 2.1.2 se buscará hallar
otra solución mediante la expresión

ve(x, y, e
a, eb, z) = v(x, y, a, c, z) + F (a, c, e
a, eb)

donde F (a, c, e
a, eb) = ac + e
aeb, entonces
p
ve(x, y, e
a, eb, z) = ax + y + 2 z(a2 − 3) + c + ac + e
aeb

∂e
v
Ahora ∂a
= 0 si y sólo si

2za
x+ p +c=0
z(a2 − 3)

∂e
v
Por otro lado ∂c
= 0 si y sólo si a = −1, y por lo tanto

2z
c= √ −x
−2z
Capı́tulo 2. 56

Ası́ sustituyendo “a” y “c” se tiene que


a, eb, z) = −x + y + 2 −2z + e
ve(x, y, e aeb

es otra solución de la EDP 2.2.8, sin embargo ésta no es una solución


completa ya que aunque parece depender de dos constantes arbitrarias
a y eb, estas aparecen solamente en la combinación “ab”, y no de
e
forma separada.

De esta forma los resultados de este capı́tulo se pueden resumir de


la siguiente manera.

Sea una EDP F (x1 , ..., xn , z, p1 , ..., pn ) = 0 tal que dos de sus
soluciones completas
 2 v(xi , Pi , z) y ve(xi , Pi , z) son conocidas y
e
satisfacen det ∂x∂i ∂P
v
j
6= 0. Entonces el sistema de n ecuacio-
nes
v − v)
∂(e
=0
∂xi
tiene solución y existe F : R2n → R tal que

ve − v = F (Pi , Pei )

Sea una EDP F (x1 , ..., xn , z, p1 , ..., pn ) = 0cuya solución


 com-
2
pleta v(xi , Pi , z) es conocida tal que det ∂x∂i ∂P v
j
6= 0. Dada
cualquier función F : R2n → R, el sistema de n ecuaciones

∂(v + F )
=0
∂Pi

tiene solución y

ve(xi , Pei , z) := v(xi , Pi , z) + F (Pi , Pei )

es solución completa de la EDP.


Capı́tulo 3

Ecuación de
Hamilton-Jacobi

La ecuación de Hamilton-Jacobi es una EDP de primer orden que


puede considerarse como la ecuación de esta clase más importante
de la fı́sica-matemática, debido a que permiten simplificar las ecua-
ciones de Euler-Lagrange y de Hamilton para hallar las ecuaciones
de movimiento de un sistema mecánico, entre otras aplicaciones en
la fı́sica. [8]

Esta EDP se obtiene usualmente mediante transformaciones canóni-


cas y tiene sus orı́genes en el cálculo variacional, que es un área de
las matemáticas que permite estudiar métodos para hallar valores
máximos y mı́nimos de funcionales, que en términos generales son
funciones cuyo dominio es un conjunto de funciones y su codominio
el conjunto de los números reales

v:A→R

v = v[y(x)] y(x) ∈ A

Ejemplos de funcionales son la longitud de arco de una cruva plana


y los momentos de inercia.

Para comenzar con el estudio de los funcionales, es necesario intro-


ducir una definición básica dentro del cálculo variacional que es la
de incremento o variación del argumento y(x) de un funcional v,
57
Capı́tulo 3. 58

definido como la diferencia entre dos funciones y es denotado por


δy:
δy = y(x) − y1 (x) con y(x), y1 (x) ∈ A

De esta forma se define el incremento de un funcional como

∆v = v[y(x) + δy] − v[y(x)]

y por consiguiente la variación del funcional v es la derivada con


respecto de α del funcional v[y(x) + αδy] evaluada en α = 0.[5]

Para el desarrollo de esta sección se trabajará con funcionales de la


forma Z x1
v[y(x)] = F (x, y, y 0 )dx
x0

donde x0 , x1 son los extremos de las curva y y se supondrá que en


la curva y ∗ = y ∗ (x), que es dos veces derivable, se tiene un extremo;
además se considerará una cierta curva y = y(x) ∈ A cercana a y ∗ ,
es decı́r, tal que la norma entre y y y ∗ es menor que un ε > 0 dado.[5]

Como la variación δy = y(x) − y ∗ (x) es una función de x entonces es


0
posible derivarla obteniendo que (δy)0 = y 0 − y ∗ (x) = δy 0 , es decir,
la derivada de la variación es igual a la variación de la derivada; y
análogamente para derivadas de mayor orden.[5]

De este modo si se considera únicamente a la familia de curvas y =


y(x, α) = y(x) + αδy, que para α = 0 contiene a la curva en la
cual se alcanza el extremo del funcional y para α = 1 se alcanza la
curva cercana y, llamada curva de comparación; entonces la funcional
Rx
v[y(x)] = x00 F (x, y, y 0 )dx se transforma en una función de α

ϕ(α) = v[y(x, α)]

la cual tiene un extremo en α = 0, por lo que también se necesita


que en este valor se anule su derivada donde
Z x1  
0 ∂ ∂ 0
ϕ (α) = Fy y(x, α) + Fy0 y (x, α) dx para todo α ∈ R
x0 ∂α ∂α

con
∂ ∂
y(x, α) = [y(x) + αδy] = δy
∂α ∂α
Capı́tulo 3. 59

∂ 0 ∂ 0
y (x, α) = [y (x) + αδy 0 ] = δy 0
∂α ∂α
Entonces la condición necesaria para que la funcional tenga un ex-
tremo es la anulación de su variación, esto es
Z x1
[Fy δy + Fy0 δy 0 ]dx = 0
x0

De aquı́ se nota que integrando por partes el segundo sumando y


tomando en cuenta que δy 0 = (δy)0 , se obtiene
Z x1 Z x1
Fy δydx + Fy0 δy 0 dx = 0
x0 x0

que es equivalente a
Z x1 Z x1
d
Fy δydx + Fy0 δy|xx10 − δy Fy0 dx = 0
x0 x0 dx

y a su vez es equivalente a
Z x1  
d
Fy0 δy|xx10 + Fy − Fy0 δydx = 0
x0 dx

Pero

δy|x=x0 = y(x0 ) − y(x0 ) = 0 δy|x=x1 = y(x1 ) − y(x1 ) = 0

R x1 d

Por lo tanto se tiene que δv = x0
Fy − F0
dx y
δydx

De este modo, la condición necesaria de extremo toma la forma


Z x1  
d
Fy − Fy0 δydx = 0 (3.0.1)
x0 dx

pero a esta ecuación es posible aplicarle el siguiente lema.[5]

Lema fundamental del cálculo variacional. Si para cada fun-


ción continua η(x) tal que η(x0 ) = 0 = η(x1 ), se tiene que
Z x1
Φ(x)η(x)dx = 0
x0

siendo Φ(x) una función continua en el segmento [x0 , x1 ], entonces


Capı́tulo 3. 60

en dicho segmento
Φ(x) ≡ 0

De esta forma, sabiendo que se cumplen las condiciones del lema


para la ecuación 3.0.1, se tiene que la condición para que haya un
extremo en la curva y es que se satisfaga la ecuación

d
Fy − Fy 0 = 0
dx

que de forma desarrollada es vista como

Fy − Fxy0 − Fyy0 y 0 − Fy0 y0 y 00 = 0

la cual es conocida como la ecuación de Euler-Lagrange. En resumen,


la condición necesaria para que la funcional v tenga un extremo,
consiste en la anulación de la variación: δv = 0. [5]

Estos resultados son aplicados a sistemas mecánicos conservativos


con n grados de libertad, cuyo movimiento puede ser descrito por ex-
presiones conocidas para ciertas coordenadas generalizadas x1 , ..., xn
y sus derivadas generalizadas x˙1 , ..., x˙n como funciones del tiempo
t, que representan posibles estados del sistema. Estas expresiones
están dadas por la diferencia entre la energı́a cinética T y la energı́a
potencial V del sistema, llamadas Lagrangianas del sistema

L(t, x1 , ..., xn ; x˙1 , ..., x˙n ) = T − V

donde t es un parámetro.[6]

De esta forma, la acción fı́sica del sistema se define como una integral
de lı́nea sobre las trayectorias de movimiento γ, cuyos extremos son
t0 y t1 ; y se busca hallar la trayectoria real del sistema a partir de
extremar el funcional
Z t1
S(γ) = L(t, x1 , ..., xn ; x˙1 , ..., x˙n )dt
t0

lo cual se logra anulando su variación δS mediante la resolución de


Capı́tulo 3. 61

las siguientes ecuaciones de Euler-Lagrange

∂L d ∂L
− =0 ∀i ∈ {1, ..., n} (3.0.2)
∂xi dt ∂ ẋi

Estas ecuaciones forman un sistema de n ecuaciones diferenciales


ordinarias de segundo orden conocidas como ecuaciones de movi-
miento, las cuales mediante una transformación de Legendre del La-
grangiano se transforman en un sistema equivalente de 2n ecuaciones
de primer orden, llamado sistema hamiltoniano de ecuaciones.[6][5]

En el sistema hamiltoniano, las ecuaciones de movimiento están da-


das por una función H, llamada hamiltoniano, que en ciertos casos
puede representar la energı́a total del sistema
n
X
H(x1 , ..., xn , p1 , ..., pn , t) = ẋi pi − L(x1 , ..., xn , x˙1 , ..., x˙n , t)
i=1
(3.0.3)
∂L
donde pi = ∂ x˙i
, lo cual nos implica que

n  
X ∂L ∂L ∂L
dH = ẋi dpi + ṗi dẋi − dxi − dẋi − dt
i=1
∂x i ∂ ẋ i ∂t
n  
X ∂L ∂L
= ẋi dpi − dxi − dt (3.0.4)
i=1
∂xi ∂t

∂L
donde a las pi = ∂ x˙i
usualmente se les conoce como momentos con-
jugados. Por otro lado el diferencial total de H es
n  
X ∂H ∂H ∂H
dH = dxi + dpi + dt (3.0.5)
i=1
∂xi ∂pi ∂t

Y entonces partiendo de las ecuaciones 3.0.4 y 3.0.5 y haciendo uso


de las ecuaciones de Euler-Lagrange 3.0.2 se tiene

∂H ∂H ∂H ∂L
= −ṗi , = ẋi , =− ∀i ∈ {1, ..., n}
∂xi ∂pi ∂t ∂t
(3.0.6)
donde a las primeras 2n ecuaciones diferenciales parciales de primer
orden se les conoce como ecuaciones de Hamilton.[1]

A pesar de que esta transformación permite trabajar con ecuaciones


de primer orden, la resolución del sistema puede seguir siendo com-
Capı́tulo 3. 62

plicada por el número de ecuaciones involucradas, sin embargo, estas


ecuaciones pueden verse como ecuaciones caracterı́sticas de una EDP
no lineal de primer orden, donde la variable dependiete está ausente,
es decir, una EDP de la forma 1.4.27. A esta EDP, correspondiente
al Hamiltoniano H(x1 , ..., xn , p1 , ..., pn , t), se le conoce como ecuación
de Hamilton-Jacobi y está dada de la forma
 
∂S ∂S ∂S
H x1 , ..., xn , , ..., ,t + =0 (3.0.7)
∂x1 ∂xn ∂t

donde la función desconocida es S(x1 , ..., xn , t) que depende de n + 1


variables independientes, llamada función principal de Hamilton, la
cual contiene la solución de las ecuaciones de Hamilton.[6][5]
Capı́tulo 3. 63

Conclusiones
En este trabajo de tesis se expusieron métodos desarrollados por
Cauchy, Charpit y Jacobi para hallar soluciones completas de una
EDP de primer orden y además, métodos conocidos para hallar otras
soluciones completas a partir de una conocida; sin embargo, se pro-
pusieron métodos más convenientes, desde el punto de vista opera-
cional, basados en el artı́culo [10] que gracias al método de Jacobi
se pudieron trasladar a cualquier EDP de primer orden, ya que per-
mite trabajar con ecuaciones donde la variable dependiente aparece
únicamente a través de sus derivadas.

Cabe recalcar que si se buscara aplicar los resultados del Capı́tulo 2


a una EDP con n variables independientes, sin transformarla a una
equivalente por el método de Jacobi, se deben considerar únicamente
n − 1 variables como independientes y la restante tomar el lugar de
parámetro o de la variable z.

La ventaja de los métodos propuestos en este trabajo de tesis para


hallar una nueva solución completa a partir de una conocida y estar
seguro de que representará otra familia de superficies, es el poder
proponer cualquier función dependiente de los parámetros arbitra-
rios sin restricción, siempre y cuando la solución inicial satisfaga la
ecuación
∂ 2v
 
det 6= 0. (3.0.8)
∂xi ∂Pj

Además, otro resultado importante de este trabajo es el asegurar que


existe una función que depende únicamente de los parámetros arbi-
trarios, que relaciona cualesquiera dos soluciones completas de una
EDP tales que sean funcionalmente independientes y que satisfagan
la ecuación 3.0.8.

Dado que la dificultad de los métodos propuestos recae en los cálculos


algebraicos, podrı́a llegar a pensarse que el uso de algún software
facilitarı́a o resolverı́a este problema, sin embargo frecuentemente los
softwares no muestran una simplificación óptima para nuestro uso
y/o necesidad y a veces, las expresiones que se introducen resultan
ser difı́ciles de operar para el programa; por lo que se recomienda
Capı́tulo 3. 64

hacer estos cálculos manualmente aunque aparenten gran dificultad


o se necesite invertir mucho tiempo, ya que se sabe con certeza que
a pesar de ello se llegará a un buen resultado.
Referencias

[1] G. F. Carrier and C. E. Pearson, Partial Differential Equations


(Academic Press, New York, 1976)

[2] R. Courant and D. Hilbert, Methods of Mathematical Physics


(Wiley, New York, 1989)

[3] L. Debnath, Nonlinear Partial Differential Equations for Scien-


tists and Engineers (Birkhäuser, New York, 2012)

[4] S.S. Demidov, “The Study of Partial Differential Equations of the


First Order in the 18th and 19th Centuries”, Archive for History
of Exact Sciences 26, 325 (1982).

[5] L. Elsgoltz, Ecuaciones Diferenciales y Cálculo Variacional (Mir,


Moscú, 1969)

[6] P. R. Garabedian, Partial Differential Equations (Wiley, New


York, 1964)

[7] M. Kline, Mathematical thought from ancient to modern times


(Oxford University Press, New York, 1972)

[8] I. N. Sneddon, Elements of Partial Differential Equations (Dover,


New York, 2006).

[9] O. N. Stavroudis, The Mathematics of Geometrical and Physical


Optics (Wiley-VCH, Weinheim, 2006)

[10] G. F. Torres del Castillo and G. S. Anaya González, “Comple-


te solutions of the Hamilton- Jacobi equation and the envelope
method”. Revista Mexicana de Fı́sica 60, 414 (2014)

65

También podría gustarte