Optimización CVV
Optimización CVV
Optimización CVV
En el capítulo anterior se mencionó que si 𝑓 es una función diferenciable entonces la expresión 𝑧 = 𝑓(𝐱 𝟎 ) +
[𝐷𝑓(𝐱 𝟎 )][𝐱 − 𝐱 𝟎 ] debe ser una buena aproximación de la función en la vecindad de 𝐱 𝟎 , es decir:
𝜕𝑓 𝜕𝑓 𝑥−𝑥 1 𝑓 𝑓 𝑥−𝑥
𝑓(𝑥, 𝑦) = 𝑓(𝑥 , 𝑦 ) + 𝑦−𝑦 + [𝑥 − 𝑥 𝑦−𝑦 ]
𝑦−𝑦 +𝑟
𝜕𝑥 𝜕𝑦 ( , )
2 𝑓 𝑓
( , )
Condiciones suficientes para la existencia de extremos: Sea 𝑓: 𝑈 ⊆ ℝ ↦ ℝ, suponga que 𝒙𝟎 es un punto tal que
∇𝑓(𝒙𝟎 ) = 0, suponga que 𝑓 tiene derivadas parciales de segundo orden continuas, entonces:
1. Si la matriz Hessiana 𝐻(𝒙𝟎 ) es definida POSITIVA (todos sus valores propios son positivos) entonces 𝑓(𝒙𝟎 ) es
un valor MÍNIMO de 𝑓.
2. Si la matriz Hessiana 𝐻(𝒙𝟎 ) es definida NEGATIVA (todos sus valores propios son negativos) entonces 𝑓(𝒙𝟎 ) es
un valor MÁXIMO de 𝑓.
3. Si la matriz Hessiana 𝐻(𝒙𝟎 ) es NO DEFINIDA (valores propios positivos y negativos) entonces 𝑓(𝒙𝟎 ) es un
PUNTO DE SILLA de 𝑓.
4. Si la matriz Hessiana 𝐻(𝒙𝟎 ) tiene algún valor propio nulo, el teorema no es concluyente.
O utilizando determinantes:
Sea 𝑓(𝑥, 𝑦) una función dos veces diferenciable en 𝑈 ⊆ ℝ , sea (𝑥 , 𝑦 ) ∈ 𝑈 un punto crítico estacionario de 𝑓.
Defínanse la matriz:
𝑓 𝑓
𝐻=
𝑓 𝑓
( , )
Entonces: