tema_7_matematicas_1

Descargar como pdf o txt
Descargar como pdf o txt
Está en la página 1de 33

TEMA 7.

- OPTIMIZACIÓN DE FUNCIONES DE
VARIAS VARIABLES
7.1 Óptimos locales y globales.
7.2 Optimización sin restricciones.
7.3 Optimización con restricciones de igualdad.
Método de los multiplicadores de Lagrange
7.4 Conjuntos y funciones convexas. Teorema
Local-Global.
OPTIMIZACIÓN DE FUNCIONES DE
VARIAS VARIABLES
ESTRUCTURA DE UN PROGRAMA MATEMÁTICO

Opt. f ( x1 ,..., xn ) Función objetivo


s.a g1 ( x1 ,..., xn ) * b1
g 2 ( x1 ,..., xn ) * b2 Restricciones
........................ *(≤, ≥, =)
g m ( x1 ,..., xn ) * bm

CONJUNTO FACTIBLE O DE OPORTUNIDADES

F = { x = ( x1 , x2 ,..., xn ) ∈ D ⊂ IR n / g j ( x1 , x2 ,..., xn )* b j , j = 1,...m}


2
OPTIMIZACIÓN DE FUNCIONES DE
VARIAS VARIABLES: Óptimos
Sea el programa matemático
Opt. f ( x )
s.a x ∈ F

máximo global del programa ∀x ∈ F , f ( x * ) ≥ f ( x )


mínimo global del programa ∀x ∈ F , f ( x * ) ≤ f ( x )
* ∀x ∈ F "suficientemente próximo"
x ∈F máximo local del programa
a x *, f (x *) ≥ f (x )

mínimo local del programa


∀x ∈ F "suficientemente próximo"
a x*, f (x*) ≤ f (x )

Todo óptimo global será también local.


3
Optimización Clásica
 Optimización Clásica Libre Opt. f ( x ), f : D ⊂ IR n → IR
El conjunto factible coincide con el dominio de definición de la función.

 Optimización Clásica Restringida


Opt. f ( x1 ,...,xn ) f : D ⊂ IR n → IR

s.a. g1( x1 ,...,xn ) = b1 g j : D ⊂ IR n → IR

..................... ∀j =1...m

gm ( x1 ,...,xn ) = bm
F= { x ( x ,..., x
1 n
) ∈ D ⊂ IR n
/ g j ( x1 ,..., xn )= b j , j= 1...m}
En la programación clásica tanto la función objetivo como las restricciones
han de ser diferenciables.
Utilizaremos el cálculo diferencial para buscar los óptimos locales.
Si los programas son convexos, dichos óptimos son además globales.
4
Optimización Clásica Libre.
Condición Necesaria:
Sea f : D ⊂ IR n → IR, f ∈ C 1 ( D ), D abierto
Si f tiene un óptimo en x*∈ D ⇒ ∇f ( x *) =
0

Punto Crítico
1
Dada f : D ⊂ IR → IR, f ∈ C ( D) se dice que
n
x*∈ D Posibles
óptimos
es un punto crítico de f si ∇f ( x *) =
0
Punto de Silla
Un punto crítico que no es máximo ni mínimo se denomina
punto de silla.

5
Optimización Clásica Libre.
Condición Suficiente
2
Sea f : D ⊂ IR → IR, f ∈ C ( D ), D abierto
n

y x* un punto crítico de f en el que la matriz hessiana es no nula,

Si la forma cuadrática h t Hf ( x *)h es:

Definida positiva el programa posee un mínimo local en x *

Definida negativa el programa posee un máximo local en x *

Indefinida el programa posee un punto de silla en x *

En el caso en que la hessiana sea nula o la matriz asociada a


la forma cuadrática sea semidefinida, se realizará un estudio
local para determinar si x* es un óptimo o un punto de silla.
6
Optimización Clásica Libre.
f : D ⊂ IR n → IR, f ∈ C 2 ( D), D abierto
C. Necesaria

∇f x( )=
0*

C. Suficiente
Definida Positiva ⇒ mínimo local
Definida Negativa ⇒ máximo local
signo de
Indefinida ⇒ punto de silla
h Hf ( x *)h
t
Semidef. Positiva Estudio
Semidef. Negativa

local
Matriz Nula
7
Ejemplo: Optimización Clásica Libre.

f ( x, y ) = x 2 − y 2
Condición necesaria:
∇f ( x, y ) = ( 2 x, −2 y ) = ( 0, 0 ) ⇒ ( x, y ) = ( 0, 0 ) .

Condición suficiente:
2 0  2 0 
Hf
= ( x, y )   ⇒ Hf ( 0, 0 ) =  0 −2  . Indefinida
 0 −2   

Punto de silla

f ( x1 , x2 ) = x1 + e x2
2

No tiene puntos críticos, por tanto, no tiene máximos ni mínimos.


8
Ejemplo: Estudio local.
f ( x1 , x2=
) x + x2 1
4 4

Condición necesaria:
∇f ( x1 , x2 ) =( 4 x13 , 4 x23 ) =( 0, 0 ) ⇒ ( x1 , x2 ) =( 0, 0 ) .
Condición suficiente:
12 x12 0  0 0
Hf ( x1 , x2 ) 
= 2 
⇒ Hf ( 0, 0 ) =  .
 0 12 x2   0 0 

Estudio local:
f (0,0 ) = 0.
f ( h, k ) = h 4 + k 4 > 0 = f ( 0 , 0 ) , ∀ ( h,k ) ≠ ( 0 , 0 ) .

La función tiene un mínimo estricto en (0,0)


9
Optimización Clásica Restringida
Opt. f ( x1 ,...,xn ) f ( x ), g j ( x ) ∈ C 1 ( D )
s.a g j ( x1 ,...,xn ) = b j ∀j =1...m

Conjunto factible:
F= { x ( x ,..., x ) ∈ D ⊂ IR
1 n
n
/ g j ( x1 ,..., xn )= b j , j= 1...m}

El óptimo libre
siempre es mejor Máx libre ≥ Máx Condicionado
o igual que el Mín libre ≤ Mín Condicionado
óptimo restringido

Ambos óptimos coinciden cuando el óptimo libre verifica las


restricciones del programa restringido.
10
Optimización Clásica Restringida.
Método de Lagrange. n variables
m restricciones
n-m grados de libertad
Dado el programa matemático

Opt. f ( x1 ,..., xn )
s.a. g j ( x1 ,...,=
xn ) b= f ( x ), g j ( x ) ∈ C 1 ( D )
j, j 1,..., m
∀j =1...m

Grados de libertad del programa: es la diferencia entre el número de


variables y el número de restricciones del programa (n-m).
El número de grados de libertad debe ser mayor o igual a uno

Función Lagrangiana: se construye como una combinación lineal


de la función objetivo y las m funciones de restricción, siendo
λ1 , λ2 ,..., λm los multiplicadores de Lagrange
m
L( x , λ ) =f ( x ) + ∑ λ j (b j − g j ( x ))
j =1 11
Optimización Clásica Restringida.
Método de Lagrange.

Sobre vectores factibles, la Lagrangiana coincide con la función objetivo

∀x0 ∈ F , g j ( x0 )= b j j= 1,.., m ⇒ L( x0 , λ )= f ( x0 )

CONDICIÓN DE REGULARIDAD: PUNTO REGULAR

x0 ∈ F es un punto regular del programa condicionado si el rango de la matriz


 ∂g1 ∂g1 ∂g1 
 ∂x ...
∂x2 ∂xn 
 ∇g1 ( x0 )   ∂g ∂g 2 
1
∂g 2
 ∇g 2 ( x0 )  =  2 ... 
    ∂x1 ∂x2 ∂xn 
 ∇g ( x )   ... ... 
 m 0 
 ∂g m ∂g m ∂g m 
 ∂x ...
 1 ∂x2 ∂xn 

es igual al número de restricciones del programa, es decir, m.

12
Optimización Clásica Restringida.
Método de Lagrange. Lo primero es
buscar, en el
conjunto factible,
Condición Necesaria los puntos críticos
(posibles óptimos)
Dado el programa

( x1f,...,
Opt. zf = xn )x )
( x ,...,
1 n
f ( x ), g j ( x ) ∈ C 1 ( D )

s.a. gg j((xx1,...,
,...,xx)n )==b b j ∀j =1...m
j 1 n j

Si x * es un óptimo del programa condicionado y verifica la condición


de regularidad entonces:
∃ λ * ∈ IR m tal que el punto ( x * , λ * ) es un punto crítico de la
función Lagrangiana, es decir, ∇L( x * , λ * ) =
0

Si planteamos el sistema ∇L( x * , λ * ) =


0 y tiene solución, los puntos obtenidos
cumplen la condición de regularidad. Si el sistema no tiene solución habría que
aplicar otro método para buscar los óptimos del programa restringido. 13
Optimización Clásica Restringida.
Método de Lagrange. Se aplica solo a puntos
críticos.
Condición Suficiente
Opt. f ( x1 ,..., xn )
Consideremos el programa  y sea (x* , λ * )
 s.a g j ( x1 ,..., xn ) = b j
un punto crítico de Lagrange, entonces si la forma cuadrática restringida

h t H x L( x *, λ *)h es definida el programa posee un


s.a positiva mínimo local en x *
 ∇g1 ( x *)  es definida el programa posee un
 

 2 g ( x *) h = 0 negativa máximo local en x *
   es
  el programa posee un

 m g ( x *)  indefinida punto de silla en x *

En el caso en que la forma cuadrática restringida sea


semidefinida, sería necesario realizar un estudio local para
determinar si x * es un óptimo o un punto de silla.
14
Optimización Clásica Restringida.
Método de Lagrange.
Por cada una de las
Dado el programa restricciones del
Opt. f ( x1 ,...,xn ) programa aparece una
s.a. g j ( x1 ,...,xn ) = b j nueva variable λ a la que
m llamamos multiplicador
L( x , λ ) =f ( x ) + ∑ λ j (b j − g j ( x )) de Lagrange
j =1

Multiplicadores de Lagrange

Interpretación Económica
Miden la sensibilidad del valor óptimo de la ∂f *

función objetivo ante cambios λ =


*

∂b
j
infinitesimales en las constantes de las j
restricciones.
15
CONJUNTOS CONVEXOS

Concepto geométrico: Un conjunto de puntos S se dice


que es convexo si dados dos puntos cualesquiera del
conjunto, el segmento de recta que los une tiene todos sus
puntos en dicho conjunto S.

Conjunto convexo Conjunto no convexo

16
CONJUNTOS CONVEXOS
Segmento lineal : Dados dos puntos x1 y x2 ∈ IR n el segmento lineal
cerrado que los une es el conjunto

[ x1, x2 ] ={ x ∈ IR n / x= λ x2 + (1 − λ ) x1 , ∀λ ∈ [ 0,1]}
Combinación lineal convexa : Se dice que x ∈ IR n es combinación convexa
de x1 , x2 ,..., xk ∈ IR n si existen K números reales α1 ,α 2 ,...,α k tales que:

x = α1 x1 + α 2 x2 + ... + α k xk con ∑α i = 1 y α i ≥ 0, ∀i = 1,..., k

Definición de conjunto convexo:


Un conjunto S ⊂ IR n es convexo si
∀ x1 , x2 ∈ S , x= λ x2 + (1 − λ ) x1 ∈ S , ∀λ ∈ [ 0,1]
Ejemplos:
a) El conjunto vacío es convexo (por convenio)
b) El conjunto IR n es convexo 17
CONJUNTOS CONVEXOS:
La intersección de cualquier número (finito o infinito) de conjuntos
convexos es convexo.
Demostración (para el caso de dos conjuntos)
Sean S1 y S 2 dos conjuntos convexos / x , y ∈ S1 ∩ S 2 ,entonces:

 x , y ∈ S1 , S1 convexo ⇒ λ y + (1 − λ ) x ∈ S1 , ∀λ ∈ [ 0,1] 
 
 y ⇒
 x , y ∈ S , S convexo ⇒ λ y + (1 − λ ) x ∈ S , ∀λ ∈ [ 0,1] 
 2 2 2 

⇒ λ y + (1 − λ ) x ∈ S1 ∩ S 2 , ∀λ ∈ [ 0,1] ⇒ S1 ∩ S 2 convexo

OBSERVACIÓN: La unión de conjuntos convexos puede ser o no un


conjunto convexo.

18
CONJUNTOS CONVEXOS

ALGUNOS TIPOS DE CONJUNTOS CONVEXOS:

HIPERPLANO: Sea a ∈ IR n y b ∈ IR llamaremos hiperplano determinado


por ellos al conjunto

H = { x ∈ IR n / a ⋅ x = b} = {( x , x ,..., x ) / a x + a x
1 2 n 1 1 2 2 + ... + an xn = b}

Ejemplos

2x+3y=5 es un hiperplano de IR 2 (recta)

x-2y+3z=7 es un hiperplano de IR (plano)


3

19
CONJUNTOS CONVEXOS
ALGUNOS TIPOS DE CONJUNTOS CONVEXOS:
SEMIESPACIO: Sea a ∈ IR n y b ∈ IR llamaremos semiespacios a
los siguientes conjuntos

Semiespacios cerrados (abiertos)

S= { x ∈ IR n
/ a ⋅ x ≤ (<) b}= {( x , x ,..., x ) / a x
1 2 n 1 1 + a2 x2 + ... + an xn ≤ (<) b}
≥ (>) ≥ (>)

Todo hiperplano es la intersección de dos semiespacios cerrados:

H = { x ∈ IR n / a x = b} = { x ∈ IR n / a x ≤ b} ∩ { x ∈ R n / a x ≥ b}

20
CONJUNTOS CONVEXOS
PROPOSICIÓN 1: Todo semiespacio es un conjunto convexo.
Demostración:
Dado {x ∈ IR n / a x ≤ b}
S= y sean x, y ∈ S hemos de

probar que z = λ y + (1 − λ ) x ∈ S , ∀λ ∈ [ 0,1] , es decir que: a z ≤ b

z a ( λ y + (1 − λ ) x=
a= ) a ( λ y ) + a ( (1 − λ ) x=)
= λ a y + (1 − λ ) a x ≤ λ b + (1 − λ )=
b b

Entonces S es un conjunto convexo.

PROPOSICIÓN 2: Todo hiperplano es un conjunto convexo.

Todo hiperplano es la intersección de dos convexos.


21
FUNCIONES CONVEXAS
Concepto geométrico:
Una función convexa es aquella en la que el segmento de
recta que une cualquier par de puntos de su gráfica
(cuerda) nunca se sitúa por debajo de la misma.

Cuerda: λ f ( x2 ) + (1 − λ ) f ( x1 ), λ ∈ [ 0,1]
f (x2)
Segmento: x1 x2 = λ x2 + (1 − λ ) x1 , λ ∈ [ 0,1]

f ( x1 )
Gráfica: f λ x2 + (1 − λ ) x1  , λ ∈ [ 0,1]

f (x) convexa si:


x1 x2
Gráfica ≤ Cuerda
f λ x2 + (1 − λ ) x1  ≤ λ f ( x2 ) + (1 − λ ) f ( x1 )
22
FUNCIONES CÓNCAVAS
Concepto geométrico:
Una función cóncava es aquella en la que el segmento de
recta que une cualquier par de puntos de su gráfica
(cuerda) nunca se sitúa por encima de la misma.

Cuerda: λ f ( x2 ) + (1 − λ ) f ( x1 ), λ ∈ [ 0,1]
f (x2)
Segmento: x1 x2 = λ x2 + (1 − λ ) x1 , λ ∈ [ 0,1]

Gráfica: f  λ x2 + (1 − λ ) x1  , λ ∈ [ 0,1]
f ( x1 )

f (x) cóncava si:


x1 x2
Gráfica ≥ Cuerda
f λ x2 + (1 − λ ) x1  ≥ λ f ( x2 ) + (1 − λ ) f ( x1 )
23
FUNCIONES CONVEXAS Y CÓNCAVAS.

Sea f : D ⊂ IR n → IR con , D no vacío y convexo:


 f (x) será convexa (estrictamente convexa) en D si:

f λ x2 + (1 − λ ) x1  ≤ λ f ( x2 ) + (1 − λ ) f ( x1 ) , ∀ x1 ,x2 ∈ D , ∀λ ∈ [ 0,1]


(<)

 f (x) será cóncava (estrictamente cóncava) en D si:

f λ x2 + (1 − λ ) x1  ≥ λ f ( x2 ) + (1 − λ ) f ( x1 ) , ∀ x1 ,x2 ∈ D , ∀λ ∈ [ 0,1]


( >)
24
FUNCIONES CONVEXAS: Propiedades.
1. f : D ⊂ IR → IR es convexa (estrictamente) en D si y sólo si su
n

opuesta - f es cóncava (estrictamente) en D .

Demostración: “ ”
Por ser f convexa en D

f (λ x2 + (1 − λ ) x1 ) ≤ λ f ( x2 ) + (1 − λ ) f ( x1 ) ∀x1 , x2 ∈ D, ∀λ ∈ [0,1]
Multiplicando por (-1) la desigualdad:

(− f )(λ x2 + (1 − λ ) x1 ) ≥ λ (− f )( x2 ) + (1 − λ )(− f )( x1 )

(− f )( x) es cóncava en D

Análogamente “ ”

25
FUNCIONES CONVEXAS: Propiedades.

2. Toda combinación lineal no negativa de funciones convexas en D


(convexo) es una función convexa en D.
n
Demostración =
Sea f ( x ) ∑ c f (x ) / c
i i i ≥ 0, fi convexa,
= ∀i 1,2,...,n
n i =1
 
+ (1 − λ ) x1 ]  ∑ ci f i  [λ x2=
f [λ x2 = + (1 − λ ) x1 ]
 i =1 
n n

∑ c f [λ
i i
i 1 =i 1
2 1 x + (1 − λ ) x ] ≤ ∑ c [λ i λ ) f i ( x1 )]
f i ( x2 ) + (1 −=

por ser f convexa


i

n n
λ ∑ ci fi ( x2 ) + (1 − λ )∑ ci f=
i ( x1 ) λ f ( x2 ) + (1 − λ ) f ( x1 )
i 1 =i 1
n
Por tanto: f ( x ) = ∑ ci fi ( x ) es convexa en D
i =1
26
FUNCIONES CONVEXAS: Propiedades.

3. Si f es convexa y

tiene un mínimo en x* ,
entonces – f tiene un

máximo en x* y, además: f ( x *)

x*
min f ( x* ) = − f ( x *)

= – max – f ( x* )

27
FUNCIONES CONVEXAS: Propiedades.

2
4. Sea f : D ⊂ IR → IR, f ∈ C ( D), siendo D un conjunto abierto y
n

convexo, entonces:
la forma cuadrática asociada a la
f convexa (cóncava)
matriz hessiana es al menos
en D
semidefinida positiva (negativa) en D.

h t Hf ( x )h ≥ 0, ∀x ∈ D
( ≤ 0)
Si la forma cuadrática asociada a la f es estrictamente
matriz hessiana es definida positiva convexa (cóncava)
(negativa) en D. en D

28
OPTIMIZACIÓN DE FUNCIONES DE
VARIAS VARIABLES: Teorema Local-
Global

• Si f es convexa (cóncava) y está definida sobre un


conjunto convexo D, entonces si tiene un mínimo
(máximo) local en D, éste también es global.

• Si existen dos o más mínimos (máximos) globales de f


en D convexo, siendo f una función convexa
(cóncava) cualquier combinación lineal convexa de
dichos mínimos (máximos) es también mínimo
(máximo) global.
29
OPTIMIZACIÓN DE FUNCIONES DE
VARIAS VARIABLES: Teorema Local-
Global
Opt. f ( x )
Consideremos el programa matemático 
 s.a x ∈ F

 Si la función objetivo es convexa en F convexo,


entonces si tiene un mínimo local, éste es global.

 Si la función objetivo es cóncava en F convexo,


entonces si tiene un máximo local, éste es global.

Un programa matemático que verifique las condiciones


anteriores se denomina program a convex o
30
Optimización Clásica Libre. Programas
convexos.

Dado el programa
Opt. f ( x ), f : D ⊂ IR n → IR, f ∈ C 1 ( D )
Si la función objetivo es convexa (cóncava) en D, siendo D un
conjunto convexo y x* es un punto crítico de f, entonces el
punto crítico x* es un mínimo (máximo) global.

f (x) convexa en x* Punto x* mínimo


D convexo y Crítico de f global
f (x) cóncava en x* Punto x* máximo
D convexo y global
Crítico de f

Sólo en el caso de que el programa sea


convexo, podremos garantizar que el
óptimo obtenido es global.
31
Ejemplo: Programa convexo La función es convexa/
cóncava en su dominio
si la forma cuadrática
mantiene el signo en
todo el dominio
Ejemplo f ( x1 , x2 ) = x1 + x2 + 5.
4 4

Veamos que la función objetivo es convexa en su dominio (IR2)


que a su vez es un conjunto convexo. Para estudiar la
convexidad construimos la matriz hessiana
Clasificación de la f.c.: matriz diagonal
12 x12 0 
Hf ( x1 , x2 ) = 
 
2 . con coeficientes positivos ->
 0 12 x2  semidefinida positiva en IR2 -> función
Condición necesaria: convexa en IR2

( )
∇f (x1 , x2 ) = 4 x1 ,4 x2 = (0,0 ) ⇒ ( x1 , x2 ) = (0,0 ).
3 3

El punto crítico (0,0) es un mínimo global, al


tratarse de un programa convexo
32
Optimización Clásica Si el programa es convexo,

Restringida. basta con hallar los puntos


críticos de la Lagragiana

Programa convexo. (x*, λ*). Por el teorema


Local-global, se deduce
que son óptimos y además
Dado el programa Opt. f ( x1 ,..., xn ) óptimos globales
s.a. g j ( x1 ,..., xn ) = b j
Si la función objetivo es convexa (cóncava) en D, el conjunto
Factible F es un conjunto convexo y x * es un punto crítico del
programa condicionado, entonces el punto crítico x * es un mínimo
(máximo) global.
f ( x ) convexa y x * Punto x * mínimo
y
F convexo Crítico global
f ( x ) cóncava y x * Punto x * máximo
F convexo y Crítico global

Sólo en el caso de que el programa sea


convexo, podremos garantizar que el óptimo
obtenido es global.
33

También podría gustarte