Gradiente
Gradiente
Gradiente
Vector gradiente
f (a + tu) − f (a)
D f (a) u = lı́m ∀u ∈ X (1)
t→0 t
83
8. Vector gradiente 84
ϕu : ] − r , r [→ Y , ϕu (t) = f (a + tu) ∀t ∈ ] − r , r [
Obsérvese que ϕu describe el comportamiento de f en la recta que pasa por el punto a y tiene
a u como vector de dirección, suficientemente cerca del punto a .
Pues bien, dado u ∈ S , decimos que f es derivable en la dirección u , en el punto a ,
cuando la función ϕu es derivable en 0 , en cuyo caso, al vector derivada ϕu0 (0) lo llamamos
derivada direccional de f en a , según la dirección u , y lo denotamos por fu0 (a) . Así pues,
∂f
(a) = D f (a) ek ∀ k ∈ IN (4)
∂ xk
En efecto, basta usar la definición de derivada parcial, caso particular de (3) , pues para a ∈ Ω
y k ∈ IM se tiene evidentemente
la equivalencia anterior nos dice que f es parcialmente derivable con respecto a la k-ésima
variable en el punto a si, y sólo si, ψ es derivable en el punto ak , en cuyo caso se tiene
Nada que no supiéramos ya, el concepto de derivada parcial de un campo escalar coincide
con el de derivada de una función real de variable real, pero ahora la relación entre ambas
funciones se comprende mejor. Mientras f depende de N variables x1 , x2 , . . . , xN , vemos que
la función ψ de una sola variable, describe “parcialmente” el comportamiento de f . Sólo refleja
la dependencia de f respecto de la variable xk , cuando por así decirlo, las demás variables se
mantienen constantes, pues para obtener ψ(xk ) a partir de f (x1 , . . . , xk−1 , xk , xk+1 , . . . , xN ) ,
tomamos x j = a j para todo j ∈ IN \ {k} . Por eso decimos que la derivada de ψ en ak es sólo
una “derivada parcial” de f en a .
Consideremos por ejemplo el caso N = 2 . Si Ω es un abierto de R2 y f : Ω → R es
parcialmente derivable en un punto (a, b) ∈ Ω , sus dos derivadas parciales vienen dadas por
Volviendo al caso general, es hora de mover el punto a ∈ Ω , hasta ahora fijo. Dado k ∈ IN ,
decimos que f es derivable con respecto a la k-ésima variable, cuando lo es en todo x ∈ Ω , en
∂f ∂f
cuyo caso tenemos la función derivada parcial : Ω → R dada por x 7→ (x) . Si esto
∂xk ∂xk
ocurre para todo k ∈ IN decimos simplemente que f es parcialmente derivable. Las funciones
∂f
derivadas parciales, : Ω → R con k ∈ IN , son entonces campos escalares análogos a f ,
∂xk
están definidos en el mismo abierto Ω que f .
Si ahora usamos las coordenadas (x1 , x2 , . . . , xN ) de un punto genérico x ∈ Ω , la igualdad
∂f ∂f
(x) = (x1 , . . . , xk−1 , xk , xk+1 , . . . , xN )
∂ xk ∂ xk
plantea una cuestión que conviene aclarar. En el segundo miembro, xk es la k-ésima coordenada
del punto x ∈ Ω en el que estamos calculando una derivada parcial, pero también aparece en el
símbolo ∂ f /∂ xk para indicar cuál de las N derivadas parciales de f en x estamos calculando.
8. Vector gradiente 87
En vez de representar un problema, este doble uso de la variable xk nos debe ayudar a
recordar la regla práctica para calcular derivadas parciales que resuelve la mayoría de los casos,
sin necesidad de recurrir a la igualdad (5) , como vamos a explicar.
El símbolo ∂ f /∂ xk nos indica la derivada parcial que estamos calculando, así que, en la
expresión f (x1 , . . . , xk−1 , xk , xk+1 , . . . , xN ) , típicamente una fórmula en la que aparecen las N
variables x1 , x2 , . . . , xN , debemos pensar que xk es la única variable, tratar a las demás como
constantes, y calcular la derivada de la función de una variable que de esta forma tenemos en
mente. Ni que decir tiene, para ello podemos usar todas las reglas de derivación para funciones
reales de variable real que podamos necesitar.
Este procedimiento se entenderá muy fácilmente con un ejemplo concreto, que exponemos
en el caso más sencillo, N = 2 . Entonces f es una función de dos variables que habitualmente
se denotan por x e y . Por tanto, sus derivadas parciales en un punto a = (x0 , y0 ) ∈ Ω , caso de
que existan, vendrán dadas por
Sea por ejemplo f : R2 → R la función dada por f (x, y) = e x sen y para todo (x, y) ∈ R2 .
Si en la expresión e x sen y , vemos y como constante, pensamos en la función x 7→ e x sen y ,
producto de la exponencial por una constante, cuya función derivada es ella misma, y esto es
válido para todo y ∈ R . Análogamente, para cualquier constante x ∈ R , la función y 7→ e x sen y
es el producto de una constante por el seno, cuya función derivada es el producto de la misma
constante por el coseno. Por tanto, f es parcialmente derivable en todo punto de R2 con
∂f ∂f
(x, y) = e x sen y y (x, y) = e x cos y ∀ (x, y) ∈ R2
∂x ∂y
∂f
Nótese que = f . En general, la definición de f puede ser mucho más complicada, pero el
∂x
mecanismo de razonamiento es el mismo.
Naturalmente, las dos variables de las que depende nuestra función no siempre se denotan
por x e y . Incluso es posible que x e y sean dos funciones que estemos estudiando. Por ejemplo,
cuando trabajamos con las coordenadas polares en el plano, usamos determinadas restricciones
de las funciones x, y : R2 → R definidas, para todo (ρ, θ) ∈ R2 , por
La última suma es el producto escalar de x por el vector cuyas coordenadas en la base usual
de RN son las N derivadas parciales de f en a , que recibe el nombre de vector gradiente, o
simplemente gradiente, del campo escalar f en el punto a .
Dicho más formalmente, cuando el campo f es parcialmente derivable en a , el gradiente
de f en a es, por definición, el vector ∇ f (a) ∈ RN dado por
N
∂f ∂f ∂f ∂f
∇ f (a) = (a) , (a) , . . . , (a) = ∑ (a) ek
∂ x1 ∂ x2 ∂ xN k=1 ∂ xk
de modo que la k-ésima coordenada del vector gradiente de f en a es la derivada parcial con
respecto a la k-ésima variable de f en a , para todo k ∈ IN .
Acabamos de ver que, cuando f es diferenciable en a , su diferencial se obtiene mediante
el producto escalar por el vector gradiente de f en a .
Recíprocamente, si sólo suponemos que f es parcialmente derivable en a , disponemos del
vector gradiente ∇ f (a) y, como el producto escalar de RN es una forma bilineal simétrica, al
hacer el producto escalar por ∇ f (a) , obtenemos una aplicación lineal de RN en R que es la
única posible diferencial de f en a . Así pues, la aplicación lineal T : RN → R dada por
T x = ∇ f (a) x
∀ x ∈ RN
D f (a) x = ∇ f (a) x (7)
8. Vector gradiente 90
Sea Φ : RN → L(R N
, R) la aplicación definida, para todo y ∈ RN por Φ(y) = Ty ,
donde Ty x = y x para todo x ∈ RN . Se tiene que Φ es lineal, biyectiva y conserva la
norma, luego permite identificar totalmente los espacios normados L(RN , R) y RN .
La linealidad del producto escalar en la segunda variable nos dice que Ty ∈ L(RN , R) mientras
que, de la linealidad en primera variable deducimos fácilmente que Φ es lineal.
Para ver que Φ conserva la norma, fijamos y ∈ RN \ {0}, pues si y = 0 no hay nada que
comprobar. La desigualdad de Cauchy-Schwartz nos dice que | Ty x | 6 k y k para todo x ∈ S ,
pero tomando x = y / k y k ∈ S obtenemos Ty x = k y k , luego
k Φ(y) k = k Ty k = máx | Ty x | : x ∈ S = k y k
En particular, Φ es inyectiva. Finalmente, para ver que es sobreyectiva, fijada T ∈ L(RN , R) ,
N
tomamos y = ∑ T (ek ) ek y tenemos claramente Ty ek = T ek para todo k ∈ IN , de donde por
k=1
ser T y Ty lineales, deducimos que T = Ty = Φ(y) .
Recuérdese que RN también se identificó en su momento con L(R, RN ) , pero de otra forma.
Un vector y ∈ RN se identificó con la aplicación lineal T ∈ L(R, RN ) dada por T t = t y para
todo t ∈ R , usando el producto por escalares de RN . En cambio ahora, usamos el producto
escalar de RN para identificar y con la aplicación lineal T ∈ L(RN , R) , dada por T x = ( y | x )
para todo x ∈ RN .
Conviene resaltar que por ahora, sólo tenemos la equivalencia entre las tres afirmaciones
anteriores, con la hipótesis previa f ∈ D(Ω) . Sin embargo, más adelante veremos un resultado
que mejora al anterior, dando nueva información.
z − z0 = α0 (x − x0 ) + β0 (y − y0 )
Usando (7) , vemos que g es una función afín que ya hemos manejado anteriormente:
∀ (x, y) ∈ R2
g(x, y) = f (x0 , y0 ) + D f (x0 , y0 ) (x, y) − (x0 , y0 )
Al comentar el significado analítico de la diferencial, vimos que g es la función afín que nos da
una buena aproximación de f cerca del punto (x0 , y0 ) , es decir,
| f (x, y) − g(x, y) |
lı́m =0 (9)
(x,y)→(x0 ,y0 ) k (x, y) − (x0 , y0 ) k
Geométricamente, esto significa que la distancia (vertical)
entre el punto x, y, f (x, y) de la
superficie Σ y el correspondiente punto x, y, g(x, y) del plano Π , tiende a cero cuando ambos
puntos se acercan a (x0 , y0 , z0 ) , “mucho más rápidamente” que k (x, y) − (x0 , y0 ) k , así que la
siguiente definición está plenamente justificada.
Sea Σ = Gr f una superficie explícita en R3 , donde f : Ω → R es una función continua en
un abierto conexo Ω ⊂ R2 . Si f es diferenciable en un punto (x0 , y0 ) y z0 = f (x0 , y0 ) , se dice
que el plano Π de ecuación explícita
∂f ∂f
z − z0 = (x − x0 ) (x0 , y0 ) + (y − y0 ) (x0 , y0 )(y − y0 ) (10)
∂x ∂y
es el plano tangente a la superficie Σ en el punto (x0 , y0 , z0 ) . Decimos también que el vector
∂f ∂f
(x0 , y0 ) , (x0 , y0 ) , −1 ∈ R3 (11)
∂x ∂y
Sin embargo, el plano así obtenido sólo es una buena aproximación de la superficie Σ cerca
del punto (x0 , y0 , z0 ) cuando se cumple (9) , que equivale a la diferenciabilidad de f en (x0 , y0 ) ,
como vimos en (6) . De ahí que sólo hayamos definido el plano tangente y el vector normal a
la superficie Σ = Gr f en el punto (x0 , y0 , z0 ) cuando f es diferenciable en (x0 , y0 ) . Así pues,
la noción geométricamente relevante, la que justifica la definición de plano tangente y vector
normal, es la diferenciabilidad, no basta la derivabilidad parcial. Más adelante, la regla de la
cadena para las derivadas parciales, servirá también para reafirmar la interpretación geométrica
que acabamos de hacer.
De nuevo, f tiene un mínimo relativo en a si, y sólo si, − f tiene un máximo relativo en a .
Finalmente, decimos que f tiene un extremo relativo en un punto a ∈ A , cuando tiene un
máximo relativo o un mínimo relativo en a .
Observemos que las nociones de extremo absoluto y relativo no están relacionadas. Cierto
que, cuando f tiene un extremo relativo en a , la restricción de f a una bola B(a, r) ⊂ A tiene un
máximo absoluto en a , pero fuera de dicha bola, f puede tomar valores estrictamente mayores
y menores que f (a) , en cuyo caso f no tendrá un extremo absoluto en a . En sentido opuesto,
es claro que si f tiene en a un extremo absoluto, entonces tendrá un extremo relativo si, y sólo
si, a ∈ A ◦ . Por tanto, salvo que A sea abierto, f puede perfectamente tener un extremo absoluto
en un punto a ∈ A \ A ◦ , que nunca puede ser un extremo relativo.
Pues bien, a la hora de encontrar los puntos en los que un campo escalar puede tener un
extremo relativo, entra en juego el cálculo diferencial, igual que ocurría con funciones reales de
variable real. Supongamos pues que A es un subconjunto no vacío de RN y que f : A → R es un
campo escalar diferenciable en un punto a ∈ A ◦ . Tanto el punto de vista físico como la intuición
geométrica sugieren que, si f tiene un extremo relativo en a , se debe tener ∇ f (a) = 0 . En
efecto, si fuese ∇ f (a) 6= 0 , el campo aumentaría en la dirección y el sentido del vector ∇ f (a)
y disminuiría en sentido opuesto, luego f no puede tener un extremo relativo en a . Igualmente,
en el caso N = 2 , cabe esperar que, si f tiene un extremo relativo en el punto a = (a1 , a2 ) , el
plano tangente a la superficie Gr f en el punto a1 , a2 , f (a1 , a2 ) tenga que ser horizontal, es
decir, ∇ f (a1 , a2 ) = 0 .
Comprobamos fácilmente que las ideas anteriores son correctas, e incluso, esta vez no es
necesario que f sea diferenciable en el punto a , basta la derivabilidad parcial:
Supongamos que f tiene en a un máximo relativo, pues en el otro caso, sustituimos f por − f .
Sea pues r ∈ R+ tal que B(a, r) ⊂ A y f (x) 6 f (a) para todo x ∈ B(a, r) . Fijado k ∈ IN , para
todo t ∈ ]0 , r [ se tiene entonces
8.7. Ejercicios
1. Calcular todas las derivadas direccionales en el punto (−1, 0, 0) de la función f : R3 → R
definida por
f (x, y, z) = x 3 − 3 x y + z 3 ∀ (x, y, z) ∈ R3