Upload
dangcong
View
218
Download
0
Embed Size (px)
Citation preview
Tema 17
Optimización Clásica
Lo primero que vamos a ver son dos condiciones de optimalidad global que establecen condiciones
suficientes para la existencia de máximos y mínimos globales y son aplicables tanto en la optimización
clásica como en la programación lineal.
Teorema 17.1 (Teorema de Weierstrass) Si la función objetivo es una función continua y el conjunto facti-
ble es cerrado y acotado, entonces existen un mínimo y un máximo globales. ♣
Teorema 17.2 (Teorema local-global bajo convexidad) Si el conjunto factible es un conjunto convexo y la
función objetivo es una función convexa en caso de que exista un mínimo éste es un mínimo global (si la
función objetivo es cóncava en caso de que exista un máximo éste es global).
Más aún, si la función objetivo es estrictamente convexa y tiene un mínimo este mínimo es único y de
carácter estricto. ♣
La optimización convexa trata el problema general de minimizar una función objetivo convexa sobre
un conjunto factible convexo. En este caso, la condición de convexidad permite que baste con encontrar un
mínimo local para tener un mínimo global. La versión del teorema local-global bajo concavidad garantiza
que en caso de que exista un máximo éste es un máximo global.
17.1. Programación no lineal sin restricciones.
El primer caso que vamos a estudiar es la optimización sin restricciones, en la que el conjunto factible
F coincide con el dominio de la función D (F = D). En este caso, si la función es diferenciable y convexa
tenemos una caracterización de sus mínimos.
461
Bloque V. PROGRAMACIÓN MATEMÁTICA
Proposición 17.3 (mínimos de funciones convexas) Sea f : G ⊆ Rn→ R diferenciable y convexa en G,
con G convexo.
a) x0 ∈ G es un mínimo (global) si y solo D f (x0)(x − x0) ≥ 0.
b) x0 ∈ int(G) es un mínimo (global) si y solo D f (x0) = 0 (∇ f (x0) = θ). ♣
Un punto del interior del conjunto factible, x0 ∈ int(G), en el que el gradiente de la función objetivo es
cero recibe el nombre de punto crítico.
Definición 17.4 Sea f : D ⊆ Rn−→R diferenciable en x0 ∈ int(D).
x0 es un punto crítico o estacionario de f si D f (x0) = 0 (∇ f (x0) = θ). ♣
Nota Si (x0, y0) es un punto crítico de f (x, y) el plano tangente a la superficie z = f (x, y) es paralelo al
plano XY . ♣
La proposición 17.3 garantiza que para las funciones convexas diferenciables todos los puntos críticos
son mínimos (globales). En el caso de las funciones cóncavas diferenciables todos los puntos críticos son
máximos (globales). En el caso general los puntos críticos son los únicos puntos del interior de un conjunto
que pueden ser óptimos locales de la función.
Proposición 17.5 (Condición necesaria de óptimo local de primer orden) Sea f : D ⊆ Rn−→R diferen-
ciable en x0 ∈ int(D).
Si x0 es un óptimo local de f entonces x0 es un punto crítico de f (∇ f (x0) = θ). ♣
Un óptimo local siempre es un punto crítico, pero no todo punto crítico es un óptimo local. Cuando un
punto crítico no es un máximo relativo ni un mínimo relativo tenemos un punto de silla.
Definición 17.6 Sea f : D ⊆ Rn−→R diferenciable en x0 ∈ int(D).
x0 es un punto de silla de f si es un punto crítico y ∀U(x0) ⊆ D
∃ x1, x2 ∈ U(x0) tales que: f (x1) > f (x0) y f (x2) < f (x0). ♣
Proposición 17.7 (Condición necesaria de óptimo local de segundo orden) Sea f : D ⊆ Rn−→R, dos
veces diferenciable con continuidad en un punto crítico, x0 ∈ int(D)
Si x0 es un mínimo relativo, entonces q es semidefinida positiva.
Si x0 es un máximo relativo, entonces q es semidefinida negativa.
Proyecto MATECO 2.1 Página 462
TEMA 17. OPTIMIZACIÓN CLÁSICA
Nota Esta condición es necesaria pero no suficiente, por ejemplo, f (x, y) = x2y tiene un punto de silla
en (0, 0) y su matriz hessiana en el punto es nula y, por consiguiente, es tanto semidefinida positiva como
semidefinida negativa. ♣
Proposición 17.8 (Condición suficiente de óptimo local de segundo orden) Sean f : D ⊆ Rn−→R dos
veces diferenciable en un punto crítico, x0 ∈ int(D).
Si H f (x0) es definida positiva x0 es un mínimo local estricto.
Si H f (x0) es definida negativa x0 es un máximo local estricto.
Si H f (x0) es indefinida x0 es un punto de silla.
Si H f (x0) es semidefinida positiva x0 es un mínimo local o un punto de silla.
Si H f (x0) es semidefinida negativa x0 es un máximo local o un punto de silla. ♣
Nota Si H f (x) existe y es semidefinida positiva en un entorno de x0 es un mínimo local y si existe y
es semidefinida positiva en todo el conjunto factible x0 es un mínimo global. Si existe y es semidefinida
negativa en un entorno de x0 es un máximo local y si es semidefinida negativa en todo el conjunto factible
es un máximo global (por la convexidad y concavidad de la función objetivo). ♣
Nota Por abuso de notación para hablar del signo de la forma cuadrática asociada a la matriz hessiana de
f en x, q(h) = ht H f (x) h (h ∈ Rn), hablamos del signo de esta matriz hessiana. ♣
Nota El teorema de Weierstrass garantiza que si D es compacto y f es continua en D entonces f alcanza
su máximo/mínimo absoluto en D (teorema 17.1).
Si f es diferenciable en int(D) los alcanza o bien en un máximo/mínimo relativo del interior (punto
crítico de f ), o bien en la frontera. ♣
Ejemplo 17.9 Estudiar los extremos relativos de la función
f (x, y) = 40x − 7x2 + 20y − 4y2 − 4xy − 120.
Solución
Paso 1 Obtenemos los puntos críticos imponiendo ∇ f (x, y) = 0:∂ f∂x
(x, y) = 0 ⇒ 40 − 14x − 4y = 0
∂ f∂y
(x, y) = 0 ⇒ 20 − 8y − 4x = 0
Página 463 Proyecto MATECO 2.1
Bloque V. PROGRAMACIÓN MATEMÁTICA
Despejamos y de la primera ecuación, obteniendo y = 40−14x4 (∗).
Sustituimos y en la segunda ecuación y despejamos x, obteniendo x = 52 .
Sustituimos el valor de x en (∗), obteniendo y = 54 .
* Por tanto, el único punto crítico es (52 ,
54 ).
Paso 2 Estudiamos las condiciones de segundo orden calculando la matriz hessiana de f :
H f (x, y) =
∂2 f∂ x2 (x, y)
∂2 f∂ y∂ x
(x, y)
∂2 f∂ x∂ y
(x, y)∂2 f∂ y2 (x, y)
=
−14 −4
−4 −8
Como la matriz no depende del punto y es definida negativa, ya que los menores principales de la matriz
son D1 = −14 y D2 = 96, la función es concava y tenemos un máximo global estricto (en general depende
del punto y es necesario sustituir el punto crítico para estudiar el signo de la forma cuadrática, obteniéndose
resultados locales).
Ejercicio 17.10 Determinar si el punto (0, 0) es un óptimo de las siguientes funciones y, en su caso, si es
un óptimo local o global.
(a) f (x, y) = 2x3 − 2x2 − y2 (b) f (x, y) = x4 − 2x2y + y2.
Ejercicio 17.11 Calcular y clasificar los puntos estacionarios de las siguientes funciones:
(a) f(x, y) = 2x + 4y − x2 − y2 − 3 (b) f(x, y) = x3 + y3 − 3xy
(c) f(x, y) = x2 + 2xy + 2y2 (d) f(x, y) = (x − y)(1 − xy)
(e) f(x, y) = 2x2 + y2 + 6xy + 10x − 6y + 5 (f) f(x, y) = 2xy − 2x2 − y2 + 8x − 2y
(g) f(x, y) = x2 − x2y + 2y2 (h) f(x, y) = x3 + 3xy2 − 15x − 12y
(i) f(x, y) = 100x + 150y − 40lnx − 20lny − 20x2 − 35y2 con x, y ≥ 0
(j) f(x, y) = 30x12 y
13 − 15x − 10y con x, y ≥ 0
(k) f(x, y, z) = 16x + 12y + 20z − x2 − 2y2 − 3z2 − 2xz − 25 con x, y, z ≥ 0
Ejemplo 17.12 Hallar los valores de a y b para que la función f (x, y) = ax3 + 3bxy2 − 15a2x − 12y tenga
un mínimo local en el punto (2, 1)
Solución
Para que el punto (2, 1) sea un punto crítico se tiene que cumplir ∇ f (2, 1) = θ:∂ f∂x
(2, 1) = 0 ⇒ 3ax2 + 3by2 − 15a2|(2,1) = 0 ⇒ 12a + 3b − 15a2 = 0
∂ f∂y
(2, 1) = 0 ⇒ 6bxy − 12|(2,1) = 0 ⇒ 12b − 12 = 0
Proyecto MATECO 2.1 Página 464
TEMA 17. OPTIMIZACIÓN CLÁSICA
1. Despejamos b de la segunda ecuación, obteniendo b = 1.
2. Sustituimos b en la primera ecuación, obteniendo 12a + 3 − 15a2 = 0, es decir, 5a2 − 4a − 1 = 0, con
lo que los posibles valores de a son:
a =4 ±√
16 + 2010
=
1
−15
La matriz hessiana de f en el punto crítico (2, 1) es
H f (2, 1) =
∂2 f∂ x2 (2, 1) ∂2 f
∂ y∂ x (2, 1)∂2 f∂ x∂ y (2, 1) ∂2 f
∂ y2 (2, 1)
=
6ax 6by
6by 6bx
∣∣∣∣∣∣∣∣(2,1)
=
12a 6b
6b 12b
Como los menores principales de esta matriz son D1 = 12a y D2 = 144ab − 36b2, la forma cuadrática
asociada al hessiano en (2, 1) es:
definida positiva para a = 1 y b = 1 (D1 = 12 y D2 = 108)
indefinida para a = −15 y b = 1 (D1 = −12
5 y D2 = −3245 ).
Por tanto, para que la función tenga un mínimo local en el punto (2, 1) tiene que cumplirse a = 1 y
b = 1. ♣
Ejemplo 17.13 Sean f : R2→ R una función diferenciable dos veces con continuidad y (x0, y0) un punto
crítico suyo (en el cuál se anulan las derivadas parciales de primer orden). Se sabe:
∂2 f∂x2 (x0, y0) =
∂2 f∂y2 (x0, y0) = a, con a , 0,
∂2 f∂x∂y
(x0, y0) =∂2 f∂y∂x
(x0, y0) = 0
Estudiar el carácter como extremo relativo del punto (x0, y0) según los valores de a.
Solución La matriz hessiana de f en el punto crítico (x0, y0) es
H f (x0, y0) =
∂2 f∂ x2 (x0, y0)
∂2 f∂ y∂ x
(x0, y0)
∂2 f∂ x∂ y
(x0, y0)∂2 f∂ y2 (x0, y0)
=
a 0
0 a
Como los menores principales de esta matriz son D1 = a y D2 = a2, la forma cuadrática asociada al hessiano
en (x0, y0) es definida positiva para a > 0 y definida negativa para a < 0(podemos razonar también sobre los
autovalores ya que tiene como autovalor doble λ = a). Por tanto:
Página 465 Proyecto MATECO 2.1
Bloque V. PROGRAMACIÓN MATEMÁTICA
para a > 0 tenemos un mínimo local estricto,
para a < 0 tenemos un máximo local estricto. ♣
Ejercicio 17.14 Dada la función f (x, y) = ax2 + 2xy + by2 + x + y + 1 con a, b ∈ R tales que ab , 1 y
a , 0, discútanse los extremos de f según los valores de los parámetros a y b.
Nota (Métodos numéricos para el cálculo de óptimos)
Un vector d ∈ Rn es una dirección de descenso de la función en el punto x ∈ Rn si para todo λ ∈ R
arbitrariamente pequeño f (x +λd) < f (x) y es una dirección de ascenso si para todo λ ∈ R arbitrariamente
pequeño f (x + λd) > f (x).
Para determinar un óptimo nos movemos desde un punto xk a un punto xk+1 = xk + λkdk siguiendo una
dirección de ascenso o descenso, según sea un problema de maximización o minimización.
En el algoritmo del gradiente partimos de un punto inicial, desde el que tomamos como dirección de
ascenso el vector gradiente y de descenso la dirección opuesta al gradiente. La longitud del paso λk la
determinamos maximizando o minimizando el valor de la función, según sea un problema de maximización
o minimización (optλ
f (xk + λdk)).
El proceso se termina según un criterio de parada y entre los más usados están
||∇ f (xk)|| < ε | f (xk+1) − f (xk)| < ε |xk+1 − xk| < ε
donde ε recibe el nombre de tolerancia. ♣
17.2. Programación no lineal con restricciones de igualdad.
Definición 17.15 Sean f , gi : D ⊆ Rn−→R, ci ∈ R, x0 ∈ D tal que gi(x0) = ci, i = 1, . . . ,m < n
(a veces denotamos g = (g1, . . . , gm) y c = (c1, . . . , cm)).
Consideramos el problema de optimización:
(?) max /mın f (x1, . . . , xn)
s.a. g1(x1, . . . , xn) = c1
...
gm(x1, . . . , xn) = cm
Proyecto MATECO 2.1 Página 466
TEMA 17. OPTIMIZACIÓN CLÁSICA
en el cual la función f (x) recibe el nombre de función objetivo y las restricciones gi(x) = ci (i = 1, . . . ,m)
el de ecuaciones de ligadura. El conjunto factible es el de conjunto de puntos del dominio que verifican
las ecuaciones de ligadura
F = {x ∈ D/gi(x) = ci ∀i : 1 ≤ i ≤ m}
En este caso cada óptimo del problema (?) recibe el nombre de óptimo condicionado y pueden ser tanto
máximos condicionados como mínimos condicionados (pueden ser de carácter local o global). ♣
El problema (?) consiste en encontrar el punto o los puntos del conjunto factible en los que la función
objetivo alcanza su valor máximo/mínimo y en general se buscan óptimos absolutos condicionados. Las
restricciones de tipo igualdad reducen las dimensiones del espacio donde el programa está definido y si es
posible despejar m variables en función de las otras mediante las m restricciones el problema (?) se reduce
a un problema de optimización de una función de n − m variables sin restricciones.
Nota (Eliminación de variables) Si podemos escribir el problema (?) como
opt f (h(xm+1, . . . , xn), xm+1, . . . , xn)
entonces si x0 ∈ A es un mínimo del problema reducido entonces (h(x0), x0) ∈ F es un mínimo del pro-
blema original (?) y con el mismo carácter local o global, siendo la situación análoga para máximos. Esto
no siempre es posible y sólo lo podemos hacer si existe h : A ⊆ Rn−m → Rm continua verificando que
(x1, . . . , xm) = h(xm+1, . . . , xn) ∀ (x1, . . . , xn) ∈ F ♣
Ejemplo 17.16 La producción de un determinado producto depende del capital, K, y trabajo, L utilizados
en su producción según la función f (K, L) = 3K1/2L1/2 y con unos costes unitarios de capital y trabajo
de 6 y 3 u.m. respectivamente. Determinar las cantidades de capital y trabajo necesarias para obtener la
máxima producción si se dispone de 30 u.m.
Solución
max 3K1/2L1/2
s.a: 6K + 3L = 30
(K > 0, L > 0)
Despejamos K en la restricción en función de L
K = 5 −12
L
Página 467 Proyecto MATECO 2.1
Bloque V. PROGRAMACIÓN MATEMÁTICA
Sustituimos en la función objetivo y resolvemos el problema sin restricciones
max3(5 −
12
L)1/2
L1/2
Al ser L = 5 un máximo global del problema reducido entonces K = 5/2 y L = 5 proporcionan un
máximo global del problema original. ♣
Otra posibilidad es la resolución gráfica mediante la representación de las curvas de nivel de la función
objetivo. En este caso, para problemas de minimización determinamos el punto de la restricción por el que
pasa la curva de nivel de menor valor y para problemas de maximización el punto de la restricción por el
que pasa la curva de nivel de mayor valor (de nuevo esto no siempre es posible y seguimos necesitando un
método más general).
El método general que vamos a ver recibe el nombre de método de los multiplicadores de Lagrange
y sólo necesitamos que la función sea diferenciable con continuidad. Este método convierte el problema
(?) en un problema sin restricciones en el que a las variables originales añadimos tantas variables como
restricciones. Aunque tenemos un número mayor de variables, el método de los multiplicadores de Lagrange
tiene la ventaja de permitir analizar la sensibilidad de los óptimos a variaciones en las restricciones que
puedan hacer que los óptimos dejen de ser óptimos. En primer lugar, vamos a definir y analizar la función
lagrangiana asociada al problema (?), que nos va a permitir determinar los candidatos a óptimos.
Proposición 17.17 Sean f , gi : D ⊆ Rn−→R de clase C1 en int(D), ci ∈ R, (i = 1, . . . ,m < n)
La función lagrangiana asociada al problema (?), L(x, λ), es:
L(x1, . . . , xn, λ1, . . . , λm) = f (x1, . . . , xn) − λ1[g1(x1, . . . , xn) − c1
]− · · · − λm
[gm(x1, . . . , xn) − cm
]donde λ1, . . . , λm ∈ R reciben el nombre de multiplicadores de Lagrange.
Esta función verifica
∇L(x, λ) =
∂ f∂x1
(x) − λ1∂g1(x)∂x1− · · · − λm
∂gm∂x1
(x)...
∂ f∂xn
(x) − λ1∂g1(x)∂xn− · · · − λm
∂gm∂xn
(x)
c1 − g1(x)...
cm − gm(x)
Si x es un punto factible del problema condicionado entonces L(x, λ) = f (x).
Proyecto MATECO 2.1 Página 468
TEMA 17. OPTIMIZACIÓN CLÁSICA
∇L(x, λ) = 0 si y sólo si x es un punto factible del problema condicionado y además
∇ f (x) = λ1∇g1(x) + · · · + λm∇gm(x) ♣
Teorema 17.18 Teorema de los multiplicadores de Lagrange (Condición necesaria de óptimo local condi-
cionado de primer orden) Sean f , gi : D ⊆ Rn−→R de clase C1 en int(D) (i = 1, . . . ,m < n) y x0 ∈ int(D)
del conjunto factible del problema (?) tal que ∇g1(x0), . . . ,∇gm(x0) son linealmente independientes (condi-
ción de regularidad).
Si x0 es un óptimo local condicionado para el problema entonces existen λ∗1, . . . , λ∗m ∈ R tales que
(x0, λ∗), con λ∗ = (λ∗1, . . . , λ
∗m), es un punto crítico de la función lagrangiana asociada al problema o
equivalentemente
∇ f (x) = λ1∇g1(x) + · · · + λm∇gm(x) ♣
Nota Si en un óptimo los gradientes de las restricciones no son linealmente independientes puede no ser
un punto crítico de la función lagrangiana y no tiene por qué aparecer entre los candidatos a óptimo. ♣
Ejemplo 17.19 (Importancia de la condición de regularidad)
min x2 + y2 + z2
s.a: (1 − x)3 − y = 0
y = 0
Solución
La función lagrangiana asociada a este problema no tiene puntos críticos:
L(x, y, z, λ1, λ2) = x2 + y2 + z2 − λ1((1 − x)3 − y) − λ2y
L′x = 2x + λ13(1 − x)2 = 0
L′y = 2y + λ1 − λ2 = 0
L′z = 2z = 0
L′λ1= ((1 − x)3 − y) = 0
L′λ2= y = 0
x = 1 y = 0 z = 0
⇓
2 − λ13(1 − 1)2 = 0
⇓
2 = 0 absurdo
Tenemos que buscar puntos en los que los gradientes sean linealmente dependientes
∇g1(x, y, z) =(3(1 − x)2,−1, 0
)∇g2(x, y, z) = (0, 1, 0)
Página 469 Proyecto MATECO 2.1
Bloque V. PROGRAMACIÓN MATEMÁTICA
Como para x = 1 los gradientes son linealmente dependientes analizamos esta posibilidad. El conjunto
factible es
F = {(1, 0, z) | z ∈ R}
y en él f (1, 0, z) = z2 con mínimo en z = 0, por lo que el punto (1,0,0) es el mínimo global del problema. ♣
Nota El teorema de Weierstrass garantiza que si F es compacto y f es continua en F entonces f alcanza
su máximo y mínimo absolutos en F. Si el dominio D es abierto y f es diferenciable en D entonces los
extremos absolutos condicionados están entre los puntos críticos de la función lagrangiana o son puntos del
conjunto factible en los que los gradientes de las restricciones son linealmente dependientes. ♣
Nota Si la función objetivo está definidas en un abierto convexo el estudio de su concavidad y convexidad
puede permitirnos aplicar el teorema local-global de forma que óptimos locales se transformen en óptimos
globales. Si la función es de clase C1 y es cóncava o convexa en el conjunto factible podemos aplicar
el teorema local-global y cualquier punto que satisfaga las condiciones necesarias de primer orden es un
óptimo local y, por tanto, global (si la función es convexa todo mínimo local es un mínimo global y si la
función es cóncava todo máximo local es un máximo global). ♣
No siempre es fácil estudiar si la función es cóncava o convexa en el conjunto factible y puede ser más
fácil estudiar es si la función objetivo es cóncava o convexa en su dominio. Distinguiremos dos casos, en
el primero las restricciones son lineales y tenemos garantizado que todo óptimo local es un óptimo global.
En el segundo caso alguna de las restricciones es no lineal y se necesitan condiciones adicionales sobre
la concavidad y convexidad de las funciones que definen estas restricciones para que un óptimo local se
transforme en global. En este caso, las restricciones no lineales no influyen en el carácter del óptimo , ya
que las funciones correspondientes son tanto cóncavas como convexas. ♣
Proposición 17.20 (Condiciones de optimalidad global bajo restricciones de igualdad lineales) Sean f :
D ⊆ Rn−→R de clase C1 en int(D) con D convexo, gi : D ⊆ Rn
−→R (i = 1, . . . ,m < n) funciones
lineales y bi ∈ R (i = 1, . . . ,m < n).
Si f es convexa en D entonces cualquier punto que satisfaga las condiciones necesarias de primer
orden es un mínimo local y, por tanto, global.
Si f es cóncava en D entonces cualquier punto que satisfaga las condiciones necesarias de primer
orden es un máximo local y, por tanto, global. ♣
Proposición 17.21 (Condiciones de optimalidad global bajo restricciones de igualdad generales) Sean
f , gi : D ⊆ Rn−→R de clase C1 definidas en un abierto convexo D de Rn.
Proyecto MATECO 2.1 Página 470
TEMA 17. OPTIMIZACIÓN CLÁSICA
Si x0 ∈ F es un punto que verifica las condiciones necesarias de primer orden con vector de multiplica-
dores λ∗ = (λ∗1, . . . , λ∗m) y separamos los multiplicadores en negativos y positivos se verifica
• f convexa en D
gi convexa en D ∀i/λ∗i < 0
g j cóncava en D ∀ j/λ∗j > 0
⇒ x0 mínimo global condicionado
• f cóncava en D
gi cóncava en D ∀i/λ∗i < 0
g j convexa en D ∀ j/λ∗j > 0
⇒ x0 máximo global condicionado
♣
Ejemplo 17.22 La producción de un determinado producto depende del capital, K, y trabajo, L utilizados
en la producción según la función f (K, L) = 3K1/2L1/2. Los costes unitarios de capital y trabajo son de cK
y cL u.m. respectivamente.
a) (Producción dada minimizando los recursos empleados) Determinar las cantidades de capital y trabajo
necesarias para producir Q unidades de producto si se pretende minimizar el coste. >Cuál debería ser
el precio mínimo de venta del producto para que resultase rentable incrementar la producción?
min cKK + cLL
s.a. 3K1/2L1/2 = Q
(K > 0, L > 0)
b) (Máxima producción para unas disponibilidades dadas) Determinar las cantidades de capital y trabajo
necesarias para obtener la máxima producción si se dispone de k u.m. >Cómo afectan las variaciones
en la cantidad de recursos disponibles a la producción?
max 3K1/2L1/2
s.a: cKK + cLL = k
(K > 0, L > 0)
Solución
Apartado a
min cKK + cLL
s.a: 3K1/2L1/2 = Q
Página 471 Proyecto MATECO 2.1
Bloque V. PROGRAMACIÓN MATEMÁTICA
Todos los puntos del conjunto factible cumplen las condiciones de regularidad (al ser una única restric-
ción su gradiente es linealmente independiente si no es cero)
∇g(K, L) =
(32
K−1/2L1/2,32
K1/2L−1/2), (0, 0)
Posibles óptimos: ∇L(K, L, λ) = 0
K =Q3
(cL
cK
)1/2
L =Q3
(cK
cL
)1/2
λ =23
(cLcK)1/2
La matriz hessiana de la función lagrangiana obtenida tomando como variables sólo las variables ori-
ginales es:
HxL(K, L, λ) =
34λK−3/2L1/2 −3
4λK−1/2L−1/2
−34λK−1/2L−1/2 3
4λK1/2L−3/2
Vamos a clasificarla restringida al subespacio tangente a las restricciones en el punto crítico pero sólo
vamosa obtener un resultado local:
HxL =
0 cK cL
cK34λK−3/2L1/2 −3
4λK−1/2L−1/2
cL −34λK−1/2L−1/2 +3
4λK1/2L−3/2
Como |HL| es negativo y tiene el signo de (−1)m la forma cuadrática restringida es definida positiva y,
por tanto, es un mínimo local estricto.
Para estudiar su optimalidad global consideramos que la matriz hessiana de la función lagrangiana
obtenida tomando como variables sólo las variables originales es semidefinida positiva (D1 > 0, D2 = 0),
lo que, en principio, no es suficiente para afirmar que es un mínimo. Sin embargo, como la función es lineal
el carácter del óptimo depende de la concavidad o convexidad de las restricciones.
En este caso la matriz hessiana de la restriccíon f (K, L) − Q
H f (K, L) =
− 3√
L4K3/2
34√
K√
L3
4√
K√
L− 3√
K4L3/2
es semidefinida negativa en todo el dominio y, por tanto, la restriccíon es cóncava
Como la función objetivo es convexa, el multiplicador es positivo (λ > 0) y la restricción cóncava el
punto crítico es un mínimo global.
Además, como el multiplicador es positivo un aumento de la producción implicaría un aumento de los
costes de λ = 23 (cLcK)1/2 por unidad producida por encima de la producción óptima. Para compensar este
coste el precio de venta debe ser mayor que este valor.
Proyecto MATECO 2.1 Página 472
TEMA 17. OPTIMIZACIÓN CLÁSICA
Apartado b
max 3K1/2L1/2
s.a: cKK + cLL = k
L(K, L, λ) = 3K1/2L1/2 − λ (cKK + cLL − k)
Todos los puntos del conjunto factible cumplen las condiciones de regularidad (si no hay costes de
capital o trabajo el problema no tiene sentido)
∇g(K, L) = (ck, cL) , (0, 0)
∂L
∂K(K, L, λ) =
32
K−1/2L1/2 − cKλ = 0
∂L
∂L(K, L, λ) =
32
K1/2L−1/2 − cLλ = 0
∂L
∂λ(K, L, λ) = cKK + cLL − k = 0
−→
K = k
2cK
L = k2cL
λ = 32√
cK√
cL
La matriz hessiana de la función lagrangiana obtenida tomando como variables sólo las variables ori-
ginales es:
HxL(K, L, λ) =
− 3√
L4K3/2
34√
K√
L3
4√
K√
L− 3√
K4L3/2
Vamos a clasificarla restringida al subespacio tangente a las restricciones en el punto crítico pero sólo
vamosa obtener un resultado local:
HxL =
0 cK cL
cK − 3√
L4K3/2
34√
K√
L
cL3
4√
K√
L− 3√
K4L3/2
Como |HL| es positivo y tiene el signo de (−1)m+1 la forma cuadrática restringida es definida negativa
y, por tanto, es un máximo local estricto.
Para estudiar su optimalidad global consideramos que la matriz hessiana de la función lagrangiana
obtenida tomando como variables sólo las variables originales es semidefinida negativa (D1 < 0, D2 = 0),
lo que, en principio, no es suficiente para afirmar que es un máximo. Sin embargo, como las restricciones
son lineales, la matriz hessiana de f coincide con la matriz hessiana obtenida tomando como variables sólo
las variables originales. En este caso es semidefinida negativa en todo el dominio y, por tanto, cóncava.
Página 473 Proyecto MATECO 2.1
Bloque V. PROGRAMACIÓN MATEMÁTICA
La proposición 17.20 garantiza que es un máximo global. Además, como el multiplicador es positivo un
aumento de los recursos disponibles implicaría un aumento de la producción. ♣
Nota (Interpretación de los multiplicadores de Lagrange) Si x0 es un óptimo local condicionado de la
función bajo las restricciones gi(x) = ci 1 ≤ i ≤ m y estas restricciones cambian, también cambian el
óptimo local y el valor máximo/mínimo de la función. Si el vector de multiplicadores es λ∗ = (λ∗1, . . . , λ∗m),
cada λi corresponde a la tasa de variación del valor óptimo de la función respecto al cambio en la constante
ci. Por tanto, cuando una restricción determina la cantidad utilizada de un recurso concreto y el término
independiente de las restricciones es la cantidad de recurso disponible, el multiplicador correspondiente
aproxima el cambio en el valor óptimo de la función objetivo al incrementar en una unidad la cantidad
de recurso utilizada. Cuando la función a optimizar está dada en unidades monetarias el multiplicador
representa la cantidad que estaríamos dispuestos a pagar por una unidad más de recurso, por lo que a veces
recibe el nombre de precio sombra o precio marginal. ♣
Las condiciones de optimalidad de segundo orden se basan en reducir el estudio de la forma de la
función al estudio de la forma de la función en el subespacio tangente a las restricciones
T (x0) = {h ∈ Rn /∇gi(x0) · h = 0 ∀ i = 1, · · · ,m}
ya que si x0 es un óptimo local condicionado para el problema (?) entonces cualquier punto factible de su
entorno está en la intersección de las restricciones y, por tanto, el vector que lo une a x0 es ortogonal a todos
los vectores gradientes de las funciones que definen estas restricciones (∇gi(x0) ∀ i = 1, · · · ,m).
Reciben el nombre de condiciones de segundo orden porque sólo consideramos funciones de clase C2
en el interior de su dominio El punto a analizar será un punto crítico de la función lagrangiana asociada al
problema que verifique las condiciones de regularidad y, para este punto, consideramos la matriz hessiana de
la función lagrangiana obtenida tomando como variables sólo las variables originales y la forma cuadrática
asociada a esta matriz restringida al subespacio tangente a las restricciones
q|T (h) = ht HxL(x0, λ∗) h ∀ h ∈ T (x0) ♣
Proposición 17.23 (Condición suficiente de óptimo local condicionado) Sean f , gi : D ⊆ Rn−→R de
clase C2 en int(D) (i = 1, . . . ,m < n), x0 ∈ int(D) un punto crítico de la función lagrangiana asociada al
problema perteneciente al conjunto factible y q|T la forma cuadrática asociada a la matriz hessiana de la
función lagrangiana obtenida tomando como variables sólo las variables originales restringida al espacio
tangente a las restricciones en x0.
Si q|T es definida positiva x0 es un máximo relativo condicionado.
Proyecto MATECO 2.1 Página 474
TEMA 17. OPTIMIZACIÓN CLÁSICA
Si q|T es definida negativa x0 es un mínimo relativo condicionado. ♣
Nota Las condiciones necesarias de 1er y 2o orden son necesarias pero no suficientes. Por ejemplo la
función f (x, y) = x3 +y3 restringida a x−y = 0 tiene un punto de silla en (0,0) y cumple ambas condiciones.
♣
Ejercicio 17.24 Hallar, bajo la restricción que se indica, los máximos y mínimos de f : R2−→R definida
por:
(a) f(x, y, z) = x − 2y + 2z restringida a x2 + y2 + z2 = 9
(b) f(x, y) = 8x2 − xy + 12y2 restringida a x + y = 42 (x, y ≥ 0)
(c) f(x, y) = x2y2 restringida a x2 + y2 = 1 (x, y ≥ 0)
(d) f(x, y) = −x + (y − 1)2 + 10 restringida a x2 + (y − 1)2 = 9 (x, y ≥ 0)
(e) f(x, y) = xy restringida a 3x + 2y = 120 (x, y ≥ 0)
(f) f(x, y) = 2xy + 6y restringida a 2x + 3y = 60 (x, y ≥ 0)
(g) f(x, y) = xy restringida a x + y = k (k ∈ R)
Ejercicio 17.25 Determinar tres números positivos x, y, z tales que:
(a) xyz es máximo sujeto a x + y + z = 18
(b) x + y + z es mínimo sujeto a xyz = 27
Ejercicio 17.26 >Para qué valores de b el punto (1, 1,−1) es un mínimo de la función f (x, y, z) = x2 + y2 +
bxy + x + y + 2z restringida a x2 + y2 − z2 = 1?. >Y para qué valores de b es un máximo?.
17.3. Programaciónno lineal con restricciones de desigualdad
Cuando la optimización de una función se sujeta a un conjunto de restricciones formado por desigual-
dades las restricciones introducen nuevas fronteras en el conjunto de soluciones factibles del problema sin
restricciones. Cuando el nuevo conjunto factible es compacto si la función es continua podemos aplicar
el teorema de Weierstrass para asegurar la existencia de máximo y mínimo globales. Si el nuevo conjunto
factible es convexo y la función objetivo cóncava o convexa podemos aplicar el teorema local-global para
máximos y mínimos respectivamente.
Ejemplo 17.27opt (x − 3)2 + (y − 2)2
s.a. x + y ≤ 7
x, y ≥ 0
Página 475 Proyecto MATECO 2.1
Bloque V. PROGRAMACIÓN MATEMÁTICA
En este problema el dominio es un conjunto compacto y la función objetivo es continua y, por tanto, el
problema tiene máximo y mínimo globales (teorema de Weierstrass). El conjunto factible es un conjunto
convexo y la función objetivo es estrictamente convexa habrá un único mínimo local que será global (la
matriz hessiana de la función objetivo es definida positiva siempre).
Como la función objetivo es diferenciable, los posibles óptimos interiores al dominio cumplen la con-
dición necesaria de óptimo local (su gradiente es cero) y el resto de candidatos a óptimos estarán en la
frontera del conjunto factible. Además de los posibles óptimos en los vértices, en esta frontera los posibles
óptimos interiores a cada frontera dada por una restricción son óptimos condicionados a esta restric-
ción tomada como restricción de igualdad (cumplen la condición necesaria de óptimo condicionado y el
gradiente de la correspondiente lagrangiana es cero). En nuestro caso, los candidatos a óptimo son (los
cálculos se dejan como ejercicio)
1. Óptimos interiores al dominio: (3,2) con f (3, 2) = 0
2. Óptimos interiores a las restricciones (uno por cada restricción): (4,3) con f (4, 3) = 2, (0,2) con
f (0, 2) = 9 y (3,0) con f (3, 0) = 4.
3. Óptimos en los vértices del dominio (0,0) con f (0, 0) = 13, (0,7) con f (0, 7) = 34 y (7,0) con
f (7, 0) = 20.
Entre estos puntos el que tenga la imagen mayor será el máximo global y el que la tenga menor el mínimo
global. Por tanto (3,2) es el mínimo global y el valor mínimo es 0 y (0,7) es el máximo global y el valor
máximo es 34 (obsérvese que al ser la función objetivo convexa teníamos garantizado por el teorema local-
global que el óptimo interior al dominio era un mínimo global). ♣
Para determinar los candidatos a óptimos locales vamos a ver una generalización del método de los
multiplicadores de Lagrange que establece condiciones necesarias para que la solución de un problema de
programación matemática sea óptima. Estas condiciones son las condiciones de Karush-Kuhn-Tucker y son
también conocidas como condiciones de Kuhn-Tucker (condiciones KKT o KT). En determinados casos
y bajo ciertas hipótesis también son suficientes para que los candidatos a óptimos locales sean óptimos
globales.
Nota La formulación general del problema con una función objetivo f : D ⊆ Rn→ R y b ∈ Rm es
opt f (x1, · · · , xn)
s.a. li(x1, · · · , xn) ≤ bi ∀ i = 1, · · · , r
hi(x1, · · · , xn) ≥ bi ∀ i = r + 1, · · · ,m
Proyecto MATECO 2.1 Página 476
TEMA 17. OPTIMIZACIÓN CLÁSICA
En general, tenemos restricciones dadas por desigualdades menor o igual y por desigualdades mayor o
igual. En la formulación que vamos a utilizar consideramos todas las desigualdades menor o igual, para lo
que multiplicamos las que estén en sentido contrario por -1 y el problema queda
(?) opt f (x1, · · · , xn)
s.a. gi(x1, · · · , xn) ≤ ci i = 1, . . . ,m
En este problema se dice que una solución factible x0 = (x1, · · · , xn) satura la restricción i-ésima o que es
activa en x0 si se verifica con igualdad (gi(x0) = ci). Si no se verifica con igualdad diremos que no satura la
restricción o que la restricción es inactiva (gi(x0) < bi). ♣
Antes de proceder a la resolución de un problema es importante estudiar tanto la compacidad del con-
junto factible como la convexidad del dominio. Así, si el conjunto factible es compacto la continuidad de
la función objetivo permite deducir que el problema tiene máximo global y mínimo global. Si el dominio
es un conjunto convexo la convexidad o concavidad de la función objetivo permite aplicar el teorema local-
global, de forma que todo mínimo local sea un mínimo global si la función es convexa y que todo máximo
local sea un máximo global si la función es cóncava.
Las condiciones de Kuhn-Tucker son condiciones sobre los multiplicadores de Lagrange λ1, . . . , λm
correspondientes a la función lagrangiana asociada al problema necesarias para que la solución de un pro-
blema de programación matemática sea óptima y tienen la ventaja de ser distintas para máximos y mínimos.
Estas condiciones dependen del signo de los multiplicadores, que en este caso también reciben el nombre
de multiplicadores de Kuhn-Tucker, y es necesario resaltar que estos dependen de la formulación del pro-
blema. Por tanto, supondremos siempre que el problema está formulado sólo con desigualdades menor o
igual (si no, las condiciones sobre los signos de los multiplicadores cambian):
L(x1, . . . , xn, λ1, . . . , λm) = f (x1, . . . , xn) − λ1[g1(x1, . . . , xn) − c1
]− · · · − λm
[gm(x1, . . . , xn) − cm
]Proposición 17.28 (Condiciones de Kuhn-Tucker) Sean f , gi (i = 1, . . . ,m) funciones diferenciables y sea
x0 un punto factible en el cual las restricciones activas cumplen las condiciones de regularidad.
Si x0 es un óptimo del problema (?) entonces existen unos escalares λ1, . . . , λm tales que
• El gradiente de la función objetivo en x0 es combinación lineal de los gradientes de las restricciones
activas
∇ f (x0) = λ1∇g1(x0) + · · · + λm∇gm(x0)
• Los multiplicadores asociados a las restricciones no activas en x0 son nulos
λi(gi(x0) − ci) = 0 ∀ i = 1, · · · ,m
Página 477 Proyecto MATECO 2.1
Bloque V. PROGRAMACIÓN MATEMÁTICA
• El punto x0 pertenece al conjunto de soluciones factibles del problema (cumple todas las restriccio-
nes)
gi(x1, · · · , xn) ≤ ci ∀ i = 1, · · · ,m
• En un máximo todos los multiplicadores son positivos y en un mínimo negativos.
λi ≤ 0 ∀ i = 1, · · · ,m (mın); λi ≥ 0 ∀ i = 1, · · · ,m (max)
Nota Geométricamente las condiciones KT indican que en un posible máximo el gradiente de la función
objetivo es combinación lineal positiva de los gradientes de las restricciones activas al quedar dentro del
cono convexo generado por los gradientes de las restricciones activas. Análogamente, indican que en un
posible mínimo el gradiente de la función objetivo es combinación lineal negativa de los gradientes de las
restricciones activas al quedar en la parte opuesta del cono convexo generado por los gradientes de las
restricciones activas. ♣
Las condiciones KT son condiciones necesarias de optimalidad local, de forma que todo máximo local
satisface las condiciones KT para máximo y todo mínimo local satisface las condiciones KT para mínimo.
Por tanto, si un punto no satisface las condiciones KT para máximo no es un máximo local y si no satisface
las condiciones KT para mínimo no es un mínimo local. Además, bajo hipótesis de concavidad o convexidad
son condiciones suficientes para que los candidatos a óptimos locales sean óptimos globales (si es concava
los máximos locales serán globales y si es convexa los mínimos locales serán globales).
Proposición 17.29 (Condiciones suficientes de optimalidad global bajo restricciones de desigualdad con
convexidad/concavidad) Sean f , gi : D ⊆ Rn−→R, ci ∈ R, (i = 1, . . . ,m <) funciones C1 en int(D)
tales que la región factible del problema (?), F = {x ∈ D/gi(x) ≤ ci, ∀ i = 1, . . . ,m}, es un conjunto
convexo.
Si f es una función convexa en F cualquier punto que cumpla las condiciones de Kuhn-Tucker para
mínimos es un mínimo global del problema (?).
Si f es una función cóncava en F cualquier punto que cumpla las condiciones de Kuhn-Tucker para
máximos es un máximo global del problema (?). ♣
Nota (Interpretación de los multiplicadores de Kuhn-Tucker) Al igual que sucede con los óptimos locales
condicionado por restricciones de igualdad, cuando las restricciones cambian puede cambiar el óptimo local
y el valor óptimo de la función. En nuestro caso, una desigualdades del tipo menor o igual limita el dominio
Proyecto MATECO 2.1 Página 478
TEMA 17. OPTIMIZACIÓN CLÁSICA
y si hay un incremento en el valor del término independiente se produce un incremento del dominio y,
por tanto, puede haber puntos que mejoren los óptimos ya obtenidos. Por el contrario, una disminución en
el valor del término independiente disminuye el dominio y podemos perder los óptimos obtenidos. Cada
multiplicador corresponde a la tasa de variación del valor óptimo de la función respecto al cambio en
el término independiente y si se trata de máximos, los multiplicadores serán positivos o nulos y el valor
máximo será mayor. En cambio, en el caso de mínimos los multiplicadores serán negativos o nulos y el
valor mínimo será menor. Obsérvese que cuando una restricción no es activa el multiplicador asociado es
cero y una variación en el término independiente no afecta al valor óptimo de la función objetivo.
Al igual que sucede con los problemas condicionado por restricciones de igualdad, cuando una restric-
ción determina la cantidad utilizada de un recurso concreto y el término independiente de las restricciones
es la cantidad de recurso disponible, el multiplicador correspondiente aproxima el cambio en el valor ópti-
mo de la función objetivo al incrementar en una unidad la cantidad de recurso utilizada. Cuando la función
a optimizar está dada en unidades monetarias el multiplicador representa la cantidad que estaríamos dis-
puestos a pagar por una unidad más de recurso, por lo que también a veces recibe el nombre de precio
sombra o precio marginal. Obsérvese que si un recurso no se agota en el óptimo el multiplicador es cero
y no estaríamos dispuestos a pagar nada por obtener más cantidad de recurso. ♣
Al igual que en los problemas con restricciones de igualdad, las condiciones de optimalidad de segun-
do orden se basan en reducir el estudio de la forma de la función en el subespacio tangente a las restriccio-
nes. En este caso consideramos sólo las restricciones que estén activas (denotamos por I = {i/gi(x0) = ci}
el conjunto de restricciones activas en x0)
T (x0) = {h ∈ Rn /∇gi(x0) · h = 0 ∀ i ∈ I.}
Para ello, al igual que en los problemas con restricciones de igualdad, analizamos la matriz hessiana
de la función lagrangiana obtenida tomando como variables sólo las variables originales y su restricción al
correspondiente subespacio tangente a las restricciones activas:
q|T (h) = ht HxL(x0, λ∗) h ∀ h ∈ T (x0)
Proposición 17.30 (Condiciones suficientes de segundo orden para optimalidad local bajo restricciones
de igualdad) Sean f , gi : D ⊆ Rn−→R (i = 1, . . . ,m) funciones de clase C2, x0 una solución factible
verificando las condiciones de regularidad con (x0, λ∗) verificando las condiciones de Kuhn-Tucker y seaa
HxL(x0, λ∗) la matriz hessiana de la función lagrangiana obtenida tomando como variables sólo las varia-
bles originales.
Página 479 Proyecto MATECO 2.1
Bloque V. PROGRAMACIÓN MATEMÁTICA
Si HxL(x0, λ∗) restringida al espacio tangente a las restricciones activas en x0, T (x0), es definida
positiva entonces x0 es un mínimo condicionado estricto.
Si HxL(x0, λ∗) restringida al espacio tangente a las restricciones activas en x0, T (x0), es definida
negativa entonces x0 es un máximo condicionado estricto. ♣
Nota Para clasificar la matriz hessiana restringida al espacio tangente a las restricciones activas podemos
utilizar los mismos criterios que en el caso de óptimos condicionados por restricciones de igualdad. ♣
Ejercicio 17.31 Resolver los siguientes problemas:
(a)
mın x2 + 2y2
s.a. x + 2y ≤ −3
x − 2y ≤ 2
x ≥ −2
(b)
opt (x1 + 1)2 + (x2 + 1)2
s.a. x21 + x2
2 ≤ 2
x2 ≤ 1
Proyecto MATECO 2.1 Página 480
TEMA 17. OPTIMIZACIÓN CLÁSICA
Ejercicios del tema.
Ejercicio 17.32 Calcular los mínimos, máximos y puntos de silla (si los hay) de las siguientes funciones:
(a) f (x) = x2 + 2 (b) f (x) =√
1 + x
(c) f (x) = x(x − 3)2 (d) f (x) = ln(1 + x)
(e) f (x) = x3 − 3x + 2 con x ≥ 0 (f) f (x) = sen(x) con 0 ≤ x ≤ 2π
(g) f (x, y) = x2 + xy + 2y2 (h) f (x, y) = 3xy + x2y + xy2
(i) f (x, y) = 4x + 9
y + 1 + y + x (j) f (x, y) = (y − x2)(y + 2x2)
(k) f (x, y) = x2 − x(y2 − 4y) (l) f (x, y) = x2y2
(m) f (x, y) = (x2 − 4x)y − y2 (n) f (x, y, z) = 6xz3 − yz
(ñ) f (x, y, z) = xy + yz + xz (o) f (x, y, z) = x2 + y2 − 3x − 3xz + 3z2
(p) f (x, y, z) = 16x + 12y + 20z − x2 − 2y2 − 3z2 − 2xz − 25 con x, y, z ≥ 0
Ejercicio 17.33 Dada la función f (x, y) = ax2 + 2xy + by2 + x + y + 1 con a, b ∈ R tales que ab , 1 y
a , 0, discútanse los extremos de f según los valores de los parámetros a y b.
Ejercicio 17.34 Determinar si el punto (0, 0) es un punto óptimo de f (x, y) = 2x3−2x2−y2. >Es un óptimo
local o global?. Igual para la función f (x, y) = x4 − 2x2y + y2.
Ejercicio 17.35 Encontrar, si es posible y suponiendo que las variables son continuas, los óptimos globales
de los problemas de PNL sin restricciones que se plantearon en los ejercicios del tema 16 (problema 16.26,
problema 16.27, problema16.36, problema 16.37, problema 16.44 y problema 16.47).
Ejercicio 17.36 Resolver los siguientes problemas:
a) mın(2x1 + 3x2), s.a. x21 + 3
2 x22 = 6.
b) max(x21 + x2
2 − x23), s.a. {x1 + x2 = 1, x1 − x2 + x3 = 3}.
c) mın(x21 + x2
2 + x23), s.a. x1 = 3.
d) mın(x21 + x2
2 + x23), s.a. x1 + x2 + x3 = 3.
e) mın(x21 + x2
2 + x23), s.a. {x1 = 3, x1 + x2 + x3 = 3}.
f) opt (−x21 − 4x2
2 − 16x23), s.a. x1 − 1 = 0.
g) opt (−x21 − 4x2
2 − 16x23), s.a. x1x2 − 1 = 0.
Página 481 Proyecto MATECO 2.1
Bloque V. PROGRAMACIÓN MATEMÁTICA
h) max(x21 + x2), s.a. x2
1 + x22 = 1.
i) mın 3 + x21 + 2x2
2 + 4x2 − 2x1 + (x3 − 2)2, s.a. 2x1 + 4x2 + x3 = 0.
j) opt x1x2 + x23, s.a. 2x1 − x2 + x3 = 0.
k) opt (1 + x21)x2, s.a. x2 − x2
1 = 3.
Ejercicio 17.37 Una fábrica produce un único bien a partir de tres factores, siendo fijos tanto el precio de
venta del producto, como los precios de compra de los factores. El beneficio obtenido por dicha empresa es
(en miles de euros):
B(x1, x2, x3) = x31 −
12
x22 + x3 + 10
donde x1, x2, x3 es el número de toneladas de las tres materias primas utilizadas en el proceso de produc-
ción. La empresa tiene un contrato con un proveedor que le obliga a consumir exactamente 2 toneladas de
la primera materia y a que las cantidades consumidas de las otras dos sean iguales.
a) Calcular las cantidades de materias primas que debe comprar la empresa para maximimizar sus bene-
ficios si se cumplen las condiciones del contrato.
b) Si el proveedor admitiese suministrar más cantidad de la primera materia prima a un coste negociables
de p1 (miles de euros) por tonelada, calcular el valor máximo de p1 que el empresario estaría dispuesto
a pagar para que le fuese rentable recibir una tonelada más.
Ejercicio 17.38 Resolver, si es posible y suponiendo que las variables son continuas, los problemas de PNL
con restricciones de igualdad que se plantearon en los ejercicios del tema 16 (problema 16.29, problema
16.32 y problema 16.46).
Ejercicio 17.39 Encontrar el valor de β para que el punto x∗1 = 1, x∗2 = 2 sea óptimo del siguiente problema
mediante las condiciones de Kuhn-Tucker y comprobarlo gráficamente
max 2x1 + βx2, s.a.{x21 + x2
2 ≤ 5, x1 − x2 ≤ 2}
Ejercicio 17.40 Resolver los siguientes problemas:
a) max x1 + x2, s.a. x21 + x2
2 ≤ 1.
b) max (x1 + 1)2 + (x2 + 1)2, s.a. {x21 + x2
2 ≤ 2, x2 ≤ 1}.
Proyecto MATECO 2.1 Página 482
TEMA 17. OPTIMIZACIÓN CLÁSICA
c) mın −x1 − x2 + 12 x2
1 + x22 − x1x2, s.a. {x1 + x2 ≤ 3, −2x2 − 3x2 ≤ −6, x1 ≥ 0, x2 ≥ 0}.
d) max x21 + x2
2, s.a. {2x1 − x2 ≤ 1, x1 + x2 ≤ 1}.
e) mın x21 + x2
2, s.a. {2x1 − x2 ≤ 5, x1 + x2 ≥ 3}.
f) max x31 + 2x1x2, s.a. {x1 − x2 ≤ 0, x1 ≥ 0, x2 ≥ 0}.
g) max x1 − x2, s.a. {x1 + x22 ≤ 3, x1 ≥ 0}.
h) max 2x21 + x2
2, s.a. x1 ≥ 1.
i) mın 9x21 + x2
2, s.a. {x21 + (x2 − 2)2 ≤ 1, x1 ≥ 0, x2 ≥ 0}.
>En cuanto varía el valor de la función objetivo en los ejercicios c), d) y e) si el término independiente
de la primera restricción aumenta en 0.2 unidades y disminuye en 0.1 el de la segunda restricción? >Cuál
sería el nuevo valor de la función objetivo?
Ejercicio 17.41 Una empresa desea minimizar sus costes totales, con la condición de que los ingresos
obtenidos por la venta de las cantidades x1 y x2 de los dos productos que fabrica superen un cierto umbral
mínimo de 3 unidades. Sabiendo que los costes unitarios de fabricación de cada bien son funciones lineales
de los outputs producidos de la forma c1 = x1 y c2 = 2x2, se vende todo lo que se produce y los precios son
respectivamente p1 = 1 y p2 = 3. Formular el problema matemático y resolverlo mediante las condiciones
de Kuhn-Tucker. Además, estudiar cómo varía el coste óptimo con respecto a la situación anterior si como
mínimo se ingresan 2,8 u.m. ¿Y si como mínimo se desea ahora ingresar 3,1 u.m.?.
Ejercicio 17.42 Resolver, si es posible y suponiendo que las variables son continuas, los problemas de
PNL con restricciones de desigualdad que se plantearon en los ejercicios del tema 16 (problema 16.30,
problema 16.33 y problema 16.38).
Página 483 Proyecto MATECO 2.1