tema_7_matematicas_1
tema_7_matematicas_1
tema_7_matematicas_1
- OPTIMIZACIÓN DE FUNCIONES DE
VARIAS VARIABLES
7.1 Óptimos locales y globales.
7.2 Optimización sin restricciones.
7.3 Optimización con restricciones de igualdad.
Método de los multiplicadores de Lagrange
7.4 Conjuntos y funciones convexas. Teorema
Local-Global.
OPTIMIZACIÓN DE FUNCIONES DE
VARIAS VARIABLES
ESTRUCTURA DE UN PROGRAMA MATEMÁTICO
..................... ∀j =1...m
gm ( x1 ,...,xn ) = bm
F= { x ( x ,..., x
1 n
) ∈ D ⊂ IR n
/ g j ( x1 ,..., xn )= b j , j= 1...m}
En la programación clásica tanto la función objetivo como las restricciones
han de ser diferenciables.
Utilizaremos el cálculo diferencial para buscar los óptimos locales.
Si los programas son convexos, dichos óptimos son además globales.
4
Optimización Clásica Libre.
Condición Necesaria:
Sea f : D ⊂ IR n → IR, f ∈ C 1 ( D ), D abierto
Si f tiene un óptimo en x*∈ D ⇒ ∇f ( x *) =
0
Punto Crítico
1
Dada f : D ⊂ IR → IR, f ∈ C ( D) se dice que
n
x*∈ D Posibles
óptimos
es un punto crítico de f si ∇f ( x *) =
0
Punto de Silla
Un punto crítico que no es máximo ni mínimo se denomina
punto de silla.
5
Optimización Clásica Libre.
Condición Suficiente
2
Sea f : D ⊂ IR → IR, f ∈ C ( D ), D abierto
n
∇f x( )=
0*
C. Suficiente
Definida Positiva ⇒ mínimo local
Definida Negativa ⇒ máximo local
signo de
Indefinida ⇒ punto de silla
h Hf ( x *)h
t
Semidef. Positiva Estudio
Semidef. Negativa
⇒
local
Matriz Nula
7
Ejemplo: Optimización Clásica Libre.
f ( x, y ) = x 2 − y 2
Condición necesaria:
∇f ( x, y ) = ( 2 x, −2 y ) = ( 0, 0 ) ⇒ ( x, y ) = ( 0, 0 ) .
Condición suficiente:
2 0 2 0
Hf
= ( x, y ) ⇒ Hf ( 0, 0 ) = 0 −2 . Indefinida
0 −2
Punto de silla
f ( x1 , x2 ) = x1 + e x2
2
Condición necesaria:
∇f ( x1 , x2 ) =( 4 x13 , 4 x23 ) =( 0, 0 ) ⇒ ( x1 , x2 ) =( 0, 0 ) .
Condición suficiente:
12 x12 0 0 0
Hf ( x1 , x2 )
= 2
⇒ Hf ( 0, 0 ) = .
0 12 x2 0 0
Estudio local:
f (0,0 ) = 0.
f ( h, k ) = h 4 + k 4 > 0 = f ( 0 , 0 ) , ∀ ( h,k ) ≠ ( 0 , 0 ) .
Conjunto factible:
F= { x ( x ,..., x ) ∈ D ⊂ IR
1 n
n
/ g j ( x1 ,..., xn )= b j , j= 1...m}
El óptimo libre
siempre es mejor Máx libre ≥ Máx Condicionado
o igual que el Mín libre ≤ Mín Condicionado
óptimo restringido
Opt. f ( x1 ,..., xn )
s.a. g j ( x1 ,...,=
xn ) b= f ( x ), g j ( x ) ∈ C 1 ( D )
j, j 1,..., m
∀j =1...m
∀x0 ∈ F , g j ( x0 )= b j j= 1,.., m ⇒ L( x0 , λ )= f ( x0 )
12
Optimización Clásica Restringida.
Método de Lagrange. Lo primero es
buscar, en el
conjunto factible,
Condición Necesaria los puntos críticos
(posibles óptimos)
Dado el programa
( x1f,...,
Opt. zf = xn )x )
( x ,...,
1 n
f ( x ), g j ( x ) ∈ C 1 ( D )
s.a. gg j((xx1,...,
,...,xx)n )==b b j ∀j =1...m
j 1 n j
Multiplicadores de Lagrange
Interpretación Económica
Miden la sensibilidad del valor óptimo de la ∂f *
∂b
j
infinitesimales en las constantes de las j
restricciones.
15
CONJUNTOS CONVEXOS
16
CONJUNTOS CONVEXOS
Segmento lineal : Dados dos puntos x1 y x2 ∈ IR n el segmento lineal
cerrado que los une es el conjunto
[ x1, x2 ] ={ x ∈ IR n / x= λ x2 + (1 − λ ) x1 , ∀λ ∈ [ 0,1]}
Combinación lineal convexa : Se dice que x ∈ IR n es combinación convexa
de x1 , x2 ,..., xk ∈ IR n si existen K números reales α1 ,α 2 ,...,α k tales que:
x , y ∈ S1 , S1 convexo ⇒ λ y + (1 − λ ) x ∈ S1 , ∀λ ∈ [ 0,1]
y ⇒
x , y ∈ S , S convexo ⇒ λ y + (1 − λ ) x ∈ S , ∀λ ∈ [ 0,1]
2 2 2
⇒ λ y + (1 − λ ) x ∈ S1 ∩ S 2 , ∀λ ∈ [ 0,1] ⇒ S1 ∩ S 2 convexo
18
CONJUNTOS CONVEXOS
H = { x ∈ IR n / a ⋅ x = b} = {( x , x ,..., x ) / a x + a x
1 2 n 1 1 2 2 + ... + an xn = b}
Ejemplos
19
CONJUNTOS CONVEXOS
ALGUNOS TIPOS DE CONJUNTOS CONVEXOS:
SEMIESPACIO: Sea a ∈ IR n y b ∈ IR llamaremos semiespacios a
los siguientes conjuntos
S= { x ∈ IR n
/ a ⋅ x ≤ (<) b}= {( x , x ,..., x ) / a x
1 2 n 1 1 + a2 x2 + ... + an xn ≤ (<) b}
≥ (>) ≥ (>)
H = { x ∈ IR n / a x = b} = { x ∈ IR n / a x ≤ b} ∩ { x ∈ R n / a x ≥ b}
20
CONJUNTOS CONVEXOS
PROPOSICIÓN 1: Todo semiespacio es un conjunto convexo.
Demostración:
Dado {x ∈ IR n / a x ≤ b}
S= y sean x, y ∈ S hemos de
z a ( λ y + (1 − λ ) x=
a= ) a ( λ y ) + a ( (1 − λ ) x=)
= λ a y + (1 − λ ) a x ≤ λ b + (1 − λ )=
b b
Cuerda: λ f ( x2 ) + (1 − λ ) f ( x1 ), λ ∈ [ 0,1]
f (x2)
Segmento: x1 x2 = λ x2 + (1 − λ ) x1 , λ ∈ [ 0,1]
f ( x1 )
Gráfica: f λ x2 + (1 − λ ) x1 , λ ∈ [ 0,1]
Cuerda: λ f ( x2 ) + (1 − λ ) f ( x1 ), λ ∈ [ 0,1]
f (x2)
Segmento: x1 x2 = λ x2 + (1 − λ ) x1 , λ ∈ [ 0,1]
Gráfica: f λ x2 + (1 − λ ) x1 , λ ∈ [ 0,1]
f ( x1 )
Demostración: “ ”
Por ser f convexa en D
f (λ x2 + (1 − λ ) x1 ) ≤ λ f ( x2 ) + (1 − λ ) f ( x1 ) ∀x1 , x2 ∈ D, ∀λ ∈ [0,1]
Multiplicando por (-1) la desigualdad:
(− f )(λ x2 + (1 − λ ) x1 ) ≥ λ (− f )( x2 ) + (1 − λ )(− f )( x1 )
⇓
(− f )( x) es cóncava en D
Análogamente “ ”
25
FUNCIONES CONVEXAS: Propiedades.
∑ c f [λ
i i
i 1 =i 1
2 1 x + (1 − λ ) x ] ≤ ∑ c [λ i λ ) f i ( x1 )]
f i ( x2 ) + (1 −=
n n
λ ∑ ci fi ( x2 ) + (1 − λ )∑ ci f=
i ( x1 ) λ f ( x2 ) + (1 − λ ) f ( x1 )
i 1 =i 1
n
Por tanto: f ( x ) = ∑ ci fi ( x ) es convexa en D
i =1
26
FUNCIONES CONVEXAS: Propiedades.
3. Si f es convexa y
tiene un mínimo en x* ,
entonces – f tiene un
máximo en x* y, además: f ( x *)
x*
min f ( x* ) = − f ( x *)
= – max – f ( x* )
27
FUNCIONES CONVEXAS: Propiedades.
2
4. Sea f : D ⊂ IR → IR, f ∈ C ( D), siendo D un conjunto abierto y
n
convexo, entonces:
la forma cuadrática asociada a la
f convexa (cóncava)
matriz hessiana es al menos
en D
semidefinida positiva (negativa) en D.
h t Hf ( x )h ≥ 0, ∀x ∈ D
( ≤ 0)
Si la forma cuadrática asociada a la f es estrictamente
matriz hessiana es definida positiva convexa (cóncava)
(negativa) en D. en D
28
OPTIMIZACIÓN DE FUNCIONES DE
VARIAS VARIABLES: Teorema Local-
Global
Dado el programa
Opt. f ( x ), f : D ⊂ IR n → IR, f ∈ C 1 ( D )
Si la función objetivo es convexa (cóncava) en D, siendo D un
conjunto convexo y x* es un punto crítico de f, entonces el
punto crítico x* es un mínimo (máximo) global.
( )
∇f (x1 , x2 ) = 4 x1 ,4 x2 = (0,0 ) ⇒ ( x1 , x2 ) = (0,0 ).
3 3