Upload
danutza1105
View
68
Download
5
Embed Size (px)
DESCRIPTION
Curs Matematica Final Anul I
Citation preview
1
UNIVERSITATEA „PETRE ANDREI” DIN IAŞI
Facultatea de Economie
MATEMATICI SUPERIOARE
APLICATE ÎN ECONOMIE (Note de curs)
Acad. Radu Miron – profesor emerit U.P.A.
Prof.univ.dr. Vasile Tamaş – profesor emerit U.P.A.
Prof.univ.dr. Bogdan Andronic
Iaşi - 2006
2
Introducere
Implementarea Procesului Bologna la Facultatea de economie a impus o
radicală restructurare a planurilor de învăţământ şi a programelor analitice. În consens
cu aceste schimbări am considerat de mare utilitate elaborarea unor materiale
bibliografice actualizate. Această acţiune este de fapt o continuare firească a unei
preocupări recunoscute de sprijinire a studenţilor în efortul lor de însuşire a
cunoştinţelor necesare unui viitor economist.
Prezentele note de curs au la bază cărţile apărute în anii din urmă la
Universitatea „Petre Andrei” şi au fost scrise de profesori ai universităţii.
Pentru o informare completă recomandăm:
1. V. Tamaş, Lecţii de calcul economic. Editura Universităţii „Al.I. Cuza”,
Iaşi, 1970.
2. V. Tamaş, Lecţii de programare matematică, Iaşi, 1975.
3. V. Tamaş şi colectiv, Matematici generale pentru economişti, Editura
Graphix, Iaşi, 1993.
4. V. Tamaş şi colectiv, Modele matematice în economie, Iaşi, Editura
Graphix, Iaşi, 1995.
5. V. Tamaş, Matematică pentru studenţii economişti, Editura Junimea, Iaşi,
2001.
3
CAPITOLUL 1
ELEMENTE DE ALGEBRĂ
1.1. Spaţii vectoriale (spaţii liniare)
Fie S≠Ø şi k un corp comutativ.
Definiţia 1.1.
Spunem că S este un k-spaţiu vectorial dacă pe S este definită o operaţie
internă binară notată + faţă de care este grup şi există o operaţie externă, prin care ( )∀
aœk şi u∈S îi asociem elementul αu din S şi care îndeplineşte condiţiile:
1. a(u+v)= au+av
2. (a+b)u=au+bu
3. a(bu)=(ab)u
4. 1μu=u
pentru 1, a, b, ... din k şi u, v, ... din S.
Elementele lui S se numesc vectori în operaţia din S adunarea vectorilor.
Operaţia externă se numeşte produs cu scalari. Elementul nul din S şi ele-
mentul nul din k le notăm cu 0.
Consecinţe:
1. Dacă S este k – spaţiu atunci (S, +) este grup abelian.
Într-adevăr fie u, v∈S. Putem scrie:
(u+v)+(u+v)=2(u+v)=2u+2v=u+u+v+v
Ţinând cont că S este grup se obţine:
v+u=u+v
pentru orice u, v∈ S.
4
2. Dacă au=0 atunci a=0 sau u=0.
Mai întâi observăm că 0u=(0+0)u=0u+0u şi deci 0u=0. Apoi a0=a(0+0)=
a0+a0 şi deci şi a0=0.
Pentru partea a doua avem: au=0. Dacă a∫0 rezultă că există a-1∈k deci
a-1(au)=1μu=u. Adică u=0.
3. ( )∀ a∈k şi u∈S avem:
(-a)u=a(-u)=-(au)
(-a)(-u)=au
Într-adevăr 0u=0⇒[a+(-a)]u=au+[(-a)u]=0. Dar au+(-(au))=0 şi deci (-a)u=
=-au. Pentru partea a doua avem:
(-a)(-u)=-(a(-u))=-(-au)=au
4. ( )∀ a, b∈k şi u, v∈S avem:
(a-b)u=au-bu
a(u-v)=au-av
Având în vedere precedentele putem scrie succesiv:
(a-b)u=au+(-b)u=au+(-(bu))=au-bu
a(u-v)=au+a(-v)=au+(-(av))=au-av
5. Dacă a, a1, a2, ..., an∈k, u, v1, v2, ..., vm∈S şi n, m∈N au loc relaţiile:
(a1+ ...+an)u=a1u+...+anu
a(u1+...+um)=au1+...+aum
(a1+...+an)(u1+...+um)= a1u1+...+anum
Aceste relaţii se scriu prescurtat:
( ) ( )∑ ∑=⎟⎠⎞
⎜⎝⎛ ∑=⎟
⎠⎞⎜
⎝⎛∑
= ===
n
1i
m
1jj
m
1jji
n
1ii uu,uu αααα
∑ ∑=⎟⎠⎞
⎜⎝⎛ ∑⎟⎠⎞⎜
⎝⎛∑
= ===
n
1i
m
1jji
m
1jj
n
1ii uu αα
5
Toate aceste trei relaţii se demonstrează cu uşurinţă folosindu-se metoda
inducţiei complete.
Exemple:
1. Mulţimea Mnxm( ) este un -spaţiu vectorial în raport cu operaţiile
obişnuite.
2. Mulţimea k[X] a polinoamelor cu coeficienţii din k este un k-spaţiu. Pentru
k= , , se obţin spaţii deosebit de interesante.
3. Mulţimea kn=k×k×...×k este un k-spaţiu dacă (a1, ..., an)+(b1+...+bn)=(a1
+b1, ..., an +bn) şi a(a1, ..., an)=(aa1, ..., aan).
În particular pentru k= sau k= se obţin spaţiile n, n. Trebuie să observăm
că avem kn=M1×n(k) şi deci putem spune că elementele acestor spaţii sunt matrici cu o
linie şi n coloane.
4. Spaţiul nul. Dacă notăm cu O mulţimea cu un singur element notat cu 0
atunci definind 0+0=0 şi ( )∀ a∈k, aμ0=0 putem spune că O este k-spaţiu.
Acest spaţiu se numeşte spaţiu nul.
Atenţie, spaţiul nul are elemente.
5. Orice corp k poate fi interpretat ca un k-spaţiu vectorial în raport cu
adunarea şi înmulţirea lui k.
1.2. Subspaţii liniare
Definiţia 1.2.
O submulţime nevidă din k-spaţiul S se numeşte k-subspaţiu vectorial (sau
simplu subspaţiu) dacă este k-spaţiu în raport cu operaţiile induse.
Teorema 1.1.
Fie S1∫Ø, S1⊆S. Următoarele afirmaţii sunt echivalente:
(1) S1 subspaţiu în S;
(2) ( )∀ u, v∈S1, ( )∀ a∈k⇒u-v∈S1, au∈S1;
(3) ( )∀ u, v∈S1, ( )∀ u+v∈S1, au∈S1;
(4) ( )∀ u, v∈S1, ( )∀ a, b∈k⇒au+bv∈S1.
6
Demonstraţie: Să arătăm că (1)⇔(2).
Dacă S1 subspaţiu în S⇒S1 subgrup în grupul S şi deci ( )∀ u, v∈S1⇒u-v∈S1 şi
de asemenea evident şi au∈S1 pentru orice a∈k. Reciproc: O submulţime S1∫Ø cu
proprietatea (2) este evident subgrup în grupul aditiv (S, +) stabilă la operaţia externă.
Restul axiomelor din definiţie se verifică cu uşurinţă. Analog se justifică şi cu
celelalte echivalenţă.
Observaţie: O şi S sunt subspaţii în k-spaţiul S şi se numesc subspaţii improprii sau
subspaţii banale. Un interes deosebit prezintă subspaţiile nebanale.
Exemple:
1. kn[X] este subspaţiu în k[X].
2. Fie u1, u2, …, un vectori din k-spaţiu S.
Definiţia 1.3.
Vectorul uœS este o combinaţie liniară de vectori u1, u2, ..., un dacă există a1,
α2, ..., αnœk astfel încât u se poate scrie în forma:
u=α1u1+α2u2+...+αnun
Să notăm mulţimea combinaţiilor liniare de u1, u2,..., un cu simbolul <u1, u2,...,
un>.
Mulţimea <u1, u2,..., un> este un subspaţiu liniar în S numit subspaţiul generat
de u1,..., un iar fiecare ui se numeşte generator.
Justificarea afirmaţiei rezultă imediat din faptul că are loc T 1.1 cazul (3). De
aici se obţine o sursă foarte importantă de subspaţii ale unui spaţiu dat (dacă acestea
există). Se spune că spaţiul S este finit generat dacă există o submulţime finită de
vectori aşa fel încât subspaţiul generat de ei să fie chiar spaţiul S.
În toate consideraţiile care urmează vom admite să spaţiile respective sunt finit
generate. Dacă S1, S2 sunt subspaţii ale spaţiului S atunci în multe cazuri se pune
problema operaţiilor cu ele.
Definiţia 1.4.
a) Se numeşte intersecţia subspaţiilor S1 şi S2 mulţimea:
S3=S1…S2
b) Se numeşte suma subspaţiilor S1 şi S2 mulţimea:
7
S4=S1+S2={xœS/x=x1+x2, x1œS1, x2œS2}
Teorema 1.2.
Intersecţia şi suma a două subspaţii este tot un subspaţiu în S.
Demonstraţie: Observăm că S3 şi S4 sunt mulţimi nevide deoarece măcar vectorul
nul, care face parte din toate subspaţiile, face parte şi din S3 şi din S4.
Fie u, vœS3 şi a, bœk fl auœS1, auœS2 şi analog bvœS1, S2 şi deci deoarece S1,
S2 subspaţii conform T 1.1. şi au+bvœS1, S2 adică au+bvœS3.
Pentru S4 procedăm astfel. Luăm u, vœS4 atunci există u1, v1œS4 şi u2, v2œS2
astfel încât u=u1+v1 şi v=u2+v2. În acest caz pentru orice a, bœk avem:
au+bv=a(u1+v1)+b(u2+v2)=(au+bv1)(au2+bv2)=u3+v3
unde u3œS1, v3œS2.
Deci au+bvœS4 şi conform T 1.1 punctul (4) S4 este subspaţiu.
1.3. Dependenţă liniară, baze, coordonate
Să revenim acum din nou la familii de vectori.
Definiţia 1.5.
Fie u1, u2,..., unœS
a) O relaţie de forma (1) a1u1+a2u2+...+anun=0, aiœk se numeşte relaţie de
dependenţă liniară.
b) Mulţimea u1,..., un este liniar dependentă dacă (1) are loc cu măcar un ai∫0.
c) Vectorii u1,..., un se numesc liniari independenţi dacă relaţia (1) are loc
numai dacă toţi ai=0.
Consecinţe:
1) Vectorul nul este totdeauna liniar dependent deoarece 1μ0=0
2) Orice vector u∫0 este liniar independent deoarece
au=0 şi u∫0 fl a =0
3) O familie (o mulţime) de vectori din S care conţine o submulţime liniar
dependentă este liniar dependentă. În adevăr fie u1,..., un cu u1,..., um (m<n) liniar
dependentă. Atunci a1u1+...+amum=0 are loc cu măcar un ai∫0. Această relaţie o
putem scrie a1u1+...+amum+0um+1+...+0um=0 relaţie care arată liniara dependenţă a
8
vectorilor u1,..., un. Urmează, de asemenea, că orice familie de vectori care conţin
vectorul nul este liniar dependentă.
4) Vectorii u1,...,un, n>1 sunt liniar dependenţi dacă şi numai dacă unul dintre
ei se exprimă ca o combinaţie liniară de ceilalţi. În adevăr dacă u1,...,un sunt liniar
independenţi atunci a1u1+a2u2+...+anun=0 are loc cu măcar un ai∫0. Fie de exemplu
an∫0. Atunci 1nn
1n2
n
21
n
1n u...uuu −
−−−−−=αα
αα
αα adică unœ<u1, u2,..., un-1>.
Reciproc:
Dacă ui=a1u1+...+ai-1ui-1+ai+1ui+1+...+anun avem a1u1+...+ai-1ui-1+(-1)ui+ai+1
ui+1+...+anun=0. De aici urmează evident că u1,..., un liniar dependenţi.
5) Dacă mulţimea de vectori {u1,..., un} este liniar independentă atunci orice
submulţime a ei conţine tot vectori independenţi. În adevăr fie vectorii u1,..., um (m<n)
liniar dependenţi. Atunci există relaţia a1u1+...+amum=0 cu măcar ai∫0. Această
relaţie se mai poate scrie:
a1u1+a2u2+...+amum+0um+1+...+0un=0
De aici rezultă u1,..., un liniar dependenţi în contradicţie cu ipoteza.
Definiţia 1.6.
Un sistem (o mulţime) de vectori u1,..., un din spaţiul S se numeşte bază dacă:
1) u1,..., un sunt liniar independenţi
2) <u1,..., un>=S
Existenţa unei baze într-un spaţiu finit generat o presupunem fără demonstraţie.
Fie u1,..., un o bază în k-spaţiu S şi uœS atunci u, u1, u2,..., un sunt liniar
dependenţi şi deci avem:
(2) u=a1u1+...+anun
Vom arăta acum că scalarii a1,..., an sunt unici. În adevăr presupunem prin re-
ducere la absurd că u=b1u1+b2u2+...+bnun. Atunci, prin scădere sau egalare, obţinem:
(b1-a1)u1+(b2-a2)u2+...+(bn-an)un=0
Cum vectorii u1,..., un sunt liniar independenţi urmează că b1=a1, b2=a2,...,
bn=an.
Definiţia 1.7.
Scalarii a1, a2,..., an unic determinaţi se numesc coordonatele vectorului u în
baza u1,..., un, iar expresia (2) dezvoltarea vectorului u în baza respectivă.
9
Vrem acum să arătăm că toate bazele din spaţiul S au acelaşi număr de vectori.
În acest scop vom da o teoremă cunoscută sun numele de teorema înlocuirii sau
teorema lui Steiniz.
Teorema 1.3.
Fie u1,..., um şi v1,..., vn vectori din k-spaţiul S, care îndeplinesc condiţiile:
1) u1,..., um liniari independenţi,
2) uiœ<v1, v2,…, vn> m,1i = .
În aceste condiţii:
a) m§n
b) <v1,..., vm, vm+1,..., vn>=<u1,..., um, vm+1,..., vn> (eventual după o renumero-
tare a vectorilor v1,…, vn).
Demonstraţia poate fi găsită în Matematica pentru studenţii economişti de
Vasile Tamaş.
Consecinţă: Dacă u1,..., um şi v1,..., vm sunt două baze atunci conform teoremei
1.3. rezultă m§n şi apoi n§m şi deci m=n. Aşadar oricare două baze au acelaşi număr
de vectori.
Definiţia 1.8.
Numărul vectorilor dintr-o bază se numeşte dimensiunea spaţiului peste corpul
k şi se notează dim S.
Într-un spaţiu liniar de dimensiune finită, orice familie de vectori liniar
independenţi poate fi completată până la o bază.
Să considerăm acum spaţiul S de dimensiune n şi u1, u2,..., un o bază.
Admitem că o anume problemă impune folosirea unei noi baze formată din
vectori v1, v2,..., vn. Dorim să vedem cum se schimbă coordonatele unui vector
oarecare x când se face trecerea la noua bază.
Fie x=b1u1+b2u2+...+bnun şi x=x1v1+x2v2+...+xnvn. În baza u1,..., un vom avea:
⎪⎪⎩
⎪⎪⎨
⎧
+++=
+++=+++=
nnn22n11nn
nn22221212
nn12121111
u...uuv..............................................
u...uuvu...uuv
ααα
αααααα
10
Aceste relaţii determină matricea:
⎟⎟⎟
⎠
⎞
⎜⎜⎜
⎝
⎛=
nn1n1n
n12111
........................
Aααα
ααα
numită matricea schimbării de bază.
Observaţie: Matricea schimbării de bază este o matrice nedegenerată.
Justificarea se realizează astfel: det A=0 înseamnă că între liniile A există o
combinaţie care să dea ultima linie. Deci ln=c1l1+c2l2+...+cn-1ln-1. Aceasta însă arată că
vn=c1v1+...+cn-1vn adică vectorii v1,..., vn ar fi dependenţi, fapt care contrazice ipoteza.
Pentru a găsi formulele de transformare ale coordonatelor înlocuim expresiile
vectorilor v1,..., vn în dezvoltarea vectorului x. După calcule se obţin:
⎪⎪⎩
⎪⎪⎨
⎧
=+++
=+++=+++
nnnn2n21n1
2n2n222112
1n1n221111
bx...xx...............................................
bx...xxbx...xx
ααα
αααααα
Formulele căutate se obţin după rezolvarea acestui sistem care este un sistem
Cramer. Deosebit de important pentru cele ce urmează este cazul în care cele două
baze diferă între ele printr-un singur vector.
Să ne ocupăm mai îndeaproape de acest caz. Fie deci u1,..., un baza iniţială şi
u1,..., un-1, v noua bază şi x=b1u1+b2u2+...+bnun şi x=x1u1+x2u2+...+xn-1un-1+xnv.
Urmând o cale analoagă cu cea generală avem:
⎪⎪⎩
⎪⎪⎨
⎧
+++==
=
−−
nn2211
1n1n
11
u...uuvuu
..........uu
ααα
Matricea schimbării de bază va fi:
⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜
⎝
⎛
=
n21 ..................
0...100...01
A
ααα
Din det A∫0 fl an∫0.
Deci, în general, vectorul v poate înlocui vectorul ui din bază dacă coordonate
ai∫0. Sistemul de ecuaţii va avea forma:
11
⎪⎪⎪
⎩
⎪⎪⎪
⎨
⎧
==+
=+=+
−−−
nnn
1nn1n1n
2n22
1n11
bxbxx
......................bxxbxx
αα
αα
De aici obţinem:
⎪⎪⎪⎪⎪⎪
⎩
⎪⎪⎪⎪⎪⎪
⎨
⎧
−=
−=
−=
−=
−−−
n
nnnn
n
n1n1n1n
n
n222
n
n111
bbx
bbx
.........................
bbx
bbx
αα
αα
αα
αα
Formulele găsite permit obţinerea unui algoritm foarte comod de calcul ale
coordonatelor la o schimbare de bază. În unele cărţi aceste formule sunt numite
„regula dreptunghiului”. Schimbarea se va face înlocuind numai câte un vector.
Formăm un tabel cu coordonatele tuturor vectorilor consideraţi, notând atât
coordonatele iniţiale cât şi cele finale.
Baza u1 u2 ... un-1 un v u u1 1 0 ... 0 0 a1 b1 u2 0 1 ... 0 0 a2 b2 . . . . . . . . . . . . . . . . . .
un-1 0 0 ... 1 0 an-1 bn-1 un 0 0 ... 0 1 an bn
u1 1 0 ... 0 0 n
n11
bbα
α−
u2 0 1 ... 0 0 n
n22
bbα
α−
. . . . . . .
. . . . . . .
. . . . . . .
un-1 0 0 ... 1 0 n
n1n1n
bbα
α −− −
v 0 0 ... 0 1
1α
1 n
nbα
12
Trecerea de la partea I-a la a II-a se poate realiza prin următoarele două reguli
simple:
a) Linia vectorului care vine în bază se obţine din linia vectorului care pleacă
împărţită la an (pivot).
b) Celelalte linii se obţin din vechile linii înmulţite cu câte un scalar astfel ales
încât pe coloana pivotului să se obţină de zero (în afara pivotului).
Exemplu:
Baza u1 u2 u3 v u u1 1 0 0 5 u2 0 1 0 -2 1 u3 0 0 1 4 -3
v 31 0 0 1
35
u2 32 1 0 0
313
uv 34
− 0 1 0 329
−
Am adus în bază în locul lui u1 vectorul v. În baza v, u0, u3 vectorul u se scrie:
32 329
313
35 uuvu −+= .
Observaţii:
1. Spaţiul n are dimensiunea n iar vectorii:
)1,...,0,0(.......................)0,...,1,0()0,...,0,1(
2
1
=
==
ne
ee
formează o bază numită bază canonică. Dacă xœ n şi x=(a1, a2,..., an) atunci:
x=a1e1+a2e2+...+anen
Prin urmare în baza canonică coordonatele vectorului x sunt egale cu
componentele de acelaşi nume. Această particularitate este foarte importantă şi
folosită în foarte multe cazuri teoretice sau practice.
2. Fie vectorii ui=(ai1, ai2,..., ain) din n pentru mi ,1= şi matricea:
13
⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜
⎝
⎛
=
⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜
⎝
⎛
=
mn2m1m
n22221
n11211
m
2
1
a...aa...................
a...aaa...aa
u...uu
A
asociată lor. Sistemul de vectori u1, u2,..., um este: liniar dependent dacă rang A<m şi
liniar independent dacă rang A=m.
1.4. Sisteme de ecuaţii liniare
Scopul acestui paragraf este de a completa cunoştinţele despre sisteme
căpătate în liceu. Datorită acestei intenţii nu am mai reluat chestiunile învăţate, în
clasa a XI-a de liceu.
A) Sisteme descrise vectorial.
Aşa cum ştim forma generală a unui sistem de ecuaţii liniare este:
(1) ij
mnmn22m11m
2nn2222121
1nn1212111
bxa...xaxa............................................bxa...xaxabxa...xaxa
α
⎪⎪⎩
⎪⎪⎨
⎧
=+++
=+++=+++
œ
Să convenim să notăm cu A – matricea sistemului, B – matricea extinsă, P1,
P2,..., Pn coloanele matricii A şi P0 coloana termenilor liberi.
Sistemul considerat se scrie evident:
(2) AX=P0
sau (3) x1P1+x2P2+...+xnPn=P0.
unde
⎟⎟⎟⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜⎜⎜⎜
⎝
⎛
=
n
2
1
x...xx
X
Uneori x=(x1, x2,..., xn).
Dacă P0=0 sistemul se numeşte omogen.
14
Definiţia 1.9.
a) Se numeşte soluţie a sistemului de ecuaţii orice vector Xœ n care verifică
sistemul.
b) Un sistem care are măcar o soluţie se numeşte compatibil.
Lemă. Dacă un sistem are două soluţii X1, X2 atunci are o infinitate de soluţii.
Demonstraţie:
Avem AX1=P0, AX2=P0. Fie Y=lX1+(1-l)X2, lœ . Atunci putem scrie:
AY=A[lX1+(1-l)X2]=lAX1+(1-l)AX2=lP0+(1-l)P0=P0
Deci Y este tot soluţie.
Această observaţie permite clasificarea sistemelor compatibile în două tipuri:
a) Sisteme compatibile cu soluţie unică – sisteme determinate.
b) Sistem compatibil cu măcar două soluţii numit compatibil neterminat.
Teorema 1.4. (Teorema generală de compatibilitate)
Condiţia necesară şi suficientă ca sistemul (3) să fie compatibil este ca
P0œ<P1, P2,…, Pn>.
Demonstraţie:
Condiţia este necesară. Dacă sistemul este compatibil şi X=(a1, a2,..., an) este
o soluţie putem scrie:
P0=a1P1+a2P2+...+anPn adică P0œ<P1, P2,..., Pn>.
Condiţia este suficientă: Dacă P0œ<P1, P2,..., Pn> Ø există a1, a2,..., an aşa
încât a1P1+...+anPn=P0 adică X=(a1, a2,..., an) este o soluţie.
Observaţie: Teorema 1.4. este echivalentă cu teorema lui Kronecker-Capelli sau
teorema Rouché întâlnite în manualele de liceu.
Să observăm că de fiecare sistem se poate ataşa cu uşurinţă un sistem omogen
ignorând termenii liberi. Se obţin:
⎪⎪⎩
⎪⎪⎨
⎧
=+++
=+++=+++
0xa...xaxa...........................................0xa...xaxa0xa...xaxa
)'1(
nmn22m11m
nn2222121
nn1212111
0AX)'2( =
15
0...)'3( 2211 =+++ nnPxPxPx
Teorema 1.5.
Orice sistem omogen este compatibil şi are şi soluţii cu componente nenule
dacă şi numai dacă rA<n.
Demonstraţie:
Pentru prima parte este suficient să observăm că x1=x2=...=xn=0 este soluţie.
Pentru a fi nedeterminat trebuie ca măcar o necunoscută să fie secundară deci rangul
matricei să fie mai mic decât n.
Teorema 1.6.
Mulţimea soluţiilor unui sistem omogen formează un subspaţiu liniar în n de
dimensiune n-r unde r =rA.
Demonstraţie:
Fie X1 şi X2 două soluţii. Atunci X1+X2 şi aX1 cu aœ sunt tot soluţii. În
adevăr A(X1+X2)=AX1+AX2=0+0=0 şi A(aX1)=a(AX1)=a0=0.
Să găsim dimensiunea şi o bază în acest spaţiu liniar de soluţii.
Admitem că rA=r şi că:
rr1r
r111
a...a.............a...a
=δ
este determinantul principal. Atunci pentru rezolvare vom opri numai ecuaţiile
principale pe care le vom scrie în forma:
⎪⎪⎩
⎪⎪⎨
⎧
−−−=+++
−−−=+++
−−−=+++
++
++
++
nrn1r1r,rrrr22r11r
nn21r1r,2rr2222121
nn11r1r,1rr1212111
xa...xaxa...xaxa..........................................................................
xa...xaxa...xaxaxa...xaxa...xaxa
Rezolvând acest sistem, în ipoteza xr+1,..., xn cunoscute vom obţine nişte
expresii de forma:
16
⎪⎪⎩
⎪⎪⎨
⎧
+++=
+++=
+++=
−++
−++
−++
nnr,r2r2r1r1rr
nnr,22r221r212
nnr,12r121r111
xb...xbxbx...................................................xb...xbxbxxb...xbxbx
Pentru a obţine diverse soluţii particulare vom da necunoscutelor secundare
valori după voie. Să facem pe rând câte una din ele egale cu 1 şi restul zero vom
obţine:
x1 x2 ... xr xr+1 xr+2 ... xn b11 b21 ... br1 1 0 ... 0 b21 b22 ... br2 0 1 ... 0 ... ... ... ... ... ... ... ...
b1,n-r b2,n-r ... br,n-r 0 0 ... 1
Se obţin n-r soluţii pe care le notăm ci X1, X2,..., Xn-r având componentele
înregistrate pe linie.
După cum se poate verifica imediat aceşti vectori sunt liniar independenţi şi
dacă X=(a1, a2,..., an) este o soluţie oarecare atunci X=ar+1X1+ar+2X2+...+anXn-r. Prin
urmare vectorii X1, X2,..., Xn-r generează spaţiul soluţiilor şi este numită, prin tradiţie,
sistem fundamental de soluţii.
Deoarece problema dependenţei sau independenţei liniare a unui sistem de m
vectori din n este strâns legată de existenţa soluţiilor nebanale ale unui sistem
omogen putem concluziona: dacă m>n vectorii sunt liniari dependenţi, dacă m§n
atunci vectorii sunt independenţi dacă şi numai dacă rangul matricii componentelor
lor este egal cu numărul vectorilor.
Metoda eliminării complete
Metoda lui Gauss (a „eliminării complete”) pentru rezolvarea sistemelor
liniare este dintre cele mai avantajoase din punct de vedere practic. Să considerăm
sistemul (S) alcătuit din m ecuaţii liniare:
(Ei) ai1x1+ai2x2+...+ainxn=b1
în necunoscutele x1, x2,..., xn.
Renumerotând eventual ecuaţiile (Ei) putem admite că are loc a11∫0.
Amplificând succesiv (E1) cu factori convenabili aleşi şi scăzând din ecuaţiile
(Ei) cu i∫1 ne putem asigura că x1 nu mai figurează în celelalte ecuaţii. Deşi
coeficienţii iniţiali s-au modificat vom păstra aceleaşi notaţii ca la început.
17
Renumerotând eventual ecuaţiile (Ei) cu m,2i = putem admite că are loc
a22∫0. Amplificând succesiv (E2) cu factori convenabil aleşi putem face să dispară
necunoscuta x2 atât din ecuaţiile (Ei) cu i >2 dar şi din ecuaţia (E1). (Ultima operaţie
reluată şi pentru variabilele x3,..., xr justifică adjectivul „complet” din denumirea
metodei.
Să admitem că am reluat ultima etapă şi pentru x3,..., xk-1. În încercarea de a
relua operaţia pentru variabila xk putem constata că în ecuaţiile (Ek), (Ek+1),..., (Em) nu
mai figurează variabila xk. Altfel spus, pentru coeficienţii actualizaţi are loc:
(*) aik=0 pentru i¥k
În această situaţie vom face operaţia mai sus descrisă la variabila x2 pentru
variabila xh cu h>k, desigur în ipoteza că ecuaţiile (Ei) cu m,ki = mai conţin măcar o
variabilă xh. Operaţia va fi încheiată când:
- nu mai avem variabile xh de luat în consideraţie, sau
- nu mai avem ecuaţii care să permită eliminarea unei noi variabile.
Putem rezuma rezultatul acestor operaţii de „reducere” sau „eliminare”
considerând că după eventuale renumerotări ale necunoscutelor xi prin yi şi renotări de
coeficienţi sistemul se prezintă sub forma:
(E1) d1y1+ +c11yr+1+...+c1pyn=e1
(E2) d2y2+ +c21yr+1+...+c2pyn=e2
................................................................
dryr +crpyr+1+...+crpyn=er
................................................................0=fr+1
................................................................
(Em) ................................................................0=fm
Concluziile sunt acum imediate:
(a) Dacă există cel puţin un indice j încât fj∫0 sistemul este incompatibil.
(b) Dacă fr+1=fr+2=...=fm=0 sistemul este compatibil cu subcazurile:
(b1) Dacă r =n soluţia este unică, dată de zi=ei:di pentru r,1i = .
(b2) Dacă r <n, se pot da valori arbitrare variabilelor zi cu j >r, celelalte fiind
unic precizate de ecuaţiile (Ei) cu r,1i = .
Succesiunea operaţiilor mai sus descrise se realizează grafic simplu şi clar
folosind în locul ecuaţiilor tablouri de coeficienţi. Spre a preîntâmpina confuzii
18
tablourile conţin o primă linie cu indicele variabilei corespunzătoare. Vom prezenta o
astfel de succesiune de tablouri pentru a rezolva efectiv următoarea problemă.
Să se precizeze pentru ce valori ale parametrului real m sistemul:
⎪⎪⎩
⎪⎪⎨
⎧
+=+−+++−=−+−−+−
=+++++=+−+++
m213x9xx2x6x9x4x4x14x8x2x3x
16x6xx5x6x13x5x3x2x4x3x
654321
654321
65321
653321
este compatibil şi, pentru aceste valori ale lui m să i se indice soluţia generală.
Tablourile sunt succesiunea lor:
(T1)
1 2 3 4 5 6 1 3 4 2 -3 5 13 1 6 5 0 1 6 16 -1 3 -2 -8 14 -4 -4 1 9 6 2 -1 9 13+2m
(T2)
1 2 3 4 5 6 1 3 4 2 -3 5 13 0 3 1 -2 4 1 3 0 6 2 -6 11 1 9 0 6 2 0 2 4 2m
(T3)
1 2 3 4 5 6 1 0 3 4 -7 4 10 0 3 1 -2 4 1 3 0 0 0 -2 3 -1 3 0 0 0 2 -3 1 m-3
(T4)
1 2 3 4 5 6 1 0 0 3 -1 2 16 0 3 0 1 1 2 0 0 0 -2 0 3 -1 3 0 0 0 0 0 0 m
Concluzii:
Sistemul este compatibil dacă (şi numai dacă) m=0. Pentru soluţia generală x3,
x5, x6 pot lua valori arbitrare şi:
19
6531 x2xx316x −+−=
)x2xx(31x 6532 ++−=
)3xx3(21x 654 −−=
Exerciţii.
1. Fie }Qc,b,a/3c2ba{S ∈++= . Să se arate că S este Q – spaţiu liniar.
Daţi exemplu de subspaţii ale lui S.
2. În spaţiul vectorial k[x] precizaţi care dintre următoarele condiţii asupra
polinoamelor P conduce la subspaţii: grad P=n, grad P§n, grad P¥n, unde nœ şi n
este fixat.
3. Care din spaţiile vectoriale din exemplele de mai sus este finit generat?
4. Se dau vectorii u1=(1,0,3), u2=(2,1,-1), u3=(0,3,1). Precizaţi vectorul
u4=3u1+2u2-u3. Se pot preciza coordonatele lui u3 în baza u1, u2, u4?
5. Se dau vectorii: u1=(1,2,3), u2=(3,-1,2), u3=(0,0,0), u4=(4,1,5), u5=(5,3,8),
u6=(6,5,11).
Să se aleagă dintre ei un număr maxim de vectori independenţi şi să se
exprime ceilalţi drept combinaţii liniare de cei aleşi.
6. Fie A=X2-3X+1, B=X2+5X-3, C=X2+X-1 elemente din [X]. Să se spună
dacă sunt sau nu liniar independente.
7. În 3 se consideră vectorii v1=(0,1,-1), v2=(1,1,2), v3=(1,3,1), v=(2,10,-1).
a) Să se arate că v1, v2, v3 formează o bază în 3;
b) Să se afle coordonatele lui v în această bază.
20
CAPITOLUL 2
PROGRAMARE LINIARĂ
INTRODUCERE Aplicaţii tot mai numeroase ale matematicii în cele mai variate domenii ale
activităţii umane a impus tot mai mult necesitatea unor lecţii de programare
matematică pentru studenţii economişti.
După cum se ştie una dintre aplicaţiile cele mai importante ale metodelor
matematice este contribuţia lor la soluţionarea unor importante probleme economice.
În acest sens problemele de optimizare ocupă un loc din cele mai importante.
Pregătirea teoretică serioasă pe care o capătă studenţii în primii ani fac
posibilă abordarea celor mai dificile probleme ridicate de activitatea economică,
problemele de optimizare.
Printre problemele de optimizare un loc de seamă îl ocupă problemele de
programare matematică. Problema găsirii celui mai convenabil plan de folosire a
resurselor, prin care cu cheltuieli minime să se obţină realizarea unor anumite
obiective, este o problemă cheie a economiei. Majoritatea problemelor de planificare
admit un număr foarte mare de soluţii din care apoi se alege o variantă optimă. De
aceea este necesară găsirea unui procedeu de a afla varianta căutată fără a le
determina pe toate.
Rezolvarea unei astfel de probleme constituie obiectivul programării
matematice. Putem spune, deci, că programarea matematică este o ramură a
matematicii formată din totalitatea principiilor şi metodelor care permit optimizarea
(minimizarea sau maximizarea) unei funcţii în anumite condiţii.
Modelul general al unei probleme de programare matematică este deci: să se
determine valorile necunoscutelor: x1, x2,..., xn, astfel încât funcţia f(x1, x2,..., xn)
21
numită funcţia obiectiv sau funcţia de eficienţă să-şi atingă valoarea optimă şi în plus
x1, x2,..., xn, să îndeplinească şi nişte restricţii de forma:
F1(x1, x2,..., xn)≷b1
F2(x1, x2,..., xn)≷b2
...............................
Fm(x1, x2,..., xn)≷bm
şi încă x1¥0, x1¥0,..., x1¥0.
După forma funcţiilor ƒ şi F1, F2,..., Fm problemele de programare matematică
s-au împărţit în clase, fiecare clasă având nu numai particularităţi în formulare ci şi în
ce priveşte instrumentul matematic folosit.
Dacă ƒ şi F1, F2,..., Fm sunt funcţii liniare, programarea se numeşte liniară. În
caz contrar problemele sunt programare neliniară.
2.1. FORMULAREA PROBLEMEI
Din cele precedente urmează că problema generală a programării liniare se
prezintă sub forma:
Să se determine necunoscutele x1, x2,..., xn aşa încât acestea să satisfacă la
relaţii de forma:
a11x1+a12x2+...+a1nxn≷b1
(1) a21x1+a22x2+...+a2nxn≷b2
.......................................
am1x1+am2x2+...+amnxn≷bm
(2) x1¥0, x1¥0,..., x1¥0 şi pentru care
(3) f(x1,...,xn)=c1x1+c2x2+...+cnxn=optim
(maxim sau minim)
Observaţie. Vom conveni notaţia f(x1,...,xn)=f (X)
Pe scurt obiectivul problemelor de programare liniară este de a găsi extremul
funcţiei obiectiv (de eficienţă) f pe mulţimea soluţiilor nenegative ale sistemului (1).
Problema determinării unui extrem supus la restricţii pentru o funcţie de mai
multe variabile nu este nouă.
22
Noutatea programării liniare constă în aceea că ea pune la îndemâna celor
interesaţi metode iterative care, eventual programate la calculator, ne dau răspuns la
existenţa sau neexistenţa soluţiei şi la determinarea efectivă a ei.
Pentru simplificarea prezentării materialului în cele ce urmează vom avea în
vedere următoarele consideraţii:
1. Datorită faptului că orice inegalitate poate fi transformată în egalitate prin
adăugarea sau scăderea unei necunoscute nenegative convenabil alese în condiţiile (1)
vom folosi numai egalităţi.
În adevăr ecuaţia: ai1x1+ai2x2+...+ainxn≷bi se scrie:
ai1x1+ai2x2+...+ainxn≤yi=bi cu yi¥0
Variabilele yi le numim variabile de echilibrare.
2. Din modalităţile variate de scriere ale unui sistem obţinem diferite moduri
de scriere pentru problema de programare liniară.
a) Notând cu A matricea coeficienţilor sistemului (1), cu X vectorul coloană de
componente x1, x2,..., xn, P0 vectorul coloană de componente b1, b2,..., bm şi cu c=(c1,
c2,..., cn) problema generală a programării biniare se enunţă: să se determine vectorul
X care să satisfacă:
(1’) AX=P0
(2’) X¥0
(3’) şi pentru care f(X)=cX= optim
b) Notând cu:
Pj
⎟⎟⎟⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜⎜⎜⎜
⎝
⎛
=
mj
j2
j1
a..
a
a
j=1, 2,..., n
problema generală a programării liniare se enunţă: să se determine vectorul X ale
cărui componente să îndeplinească condiţiile:
(1’’) x1P1+x2P2+...+xnPn=P0
(2’’) X¥0
(3’’) f(X)=cX=optim
Aceasta se numeşte forma vectorială de prezentare a problemei de programare
liniară.
23
3. Orice problemă de programare poate fi considerată de minimizare, fiindcă
dacă s-ar cere maximizarea funcţiei f, atunci egalitatea max f = -min(-f) ne-ar permite
să o înlocuim cu una de minimizare.
O problemă de programare prezentată în forma:
AX=P0
X¥0, P0¥0
şi să se minimizeze: f(X)=cX spunem că este sub forma standard.
Dacă problema se prezintă sub forma:
AX§P0
X¥0
şi să se minimizeze f(X)=cX spunem că este sub forma canonică.
Este evident că orice problemă se poate prezenta sub forma standard sau
canonică folosindu-se transformări din cele mai simple, parte din ele deja amintite.
4. Convenim de asemenea în cele ce urmează că toţi termenii liberi
(componentele lui P0) sunt nenegativi, că m<n şi că rangul matricii A este egal cu m.
Aceste cerinţe se pot realiza uşor: prima prin înmulţirea ecuaţiei respective cu
–1, iar ultima dacă nu ar fi îndeplinită şi rA<m atunci ar rezulta că m-rA ecuaţii sunt
dependente de celelalte şi deci pot fi eliminate (evident, în cazul rA=rB, unde B este
matricea lărgită a sistemului (1)).
Definiţia 1. Un vector XœRn care satisface sistemul (1) şi condiţiile (2) se
numeşte soluţie posibilă, sau soluţie admisibilă a problemei de programare liniară.
Uneori o astfel de soluţie se mai numeşte pe scurt program.
Definiţia 2. O soluţie posibilă este de bază dacă vectorii Pj din (1’’) corespun-
zători componentelor lui X diferite de zero sunt liniar independenţi.
Din definiţia soluţiei posibile de bază rezultă imediat că numărul compo-
nentelor pozitive ale acestuia nu poate fi mai mare decât m (vectorii Pj fiind vectori
din Rm).
Dacă soluţia posibilă de bază are exact m componente nenule vom spune că
este nedegenerată şi degenerată în caz contrar.
Soluţia X pentru care funcţia f capătă valoarea minimă sau maximă o numim
soluţie optimală.
În scopul prezentării teoremei fundamentale a programării liniare amintim
câteva elemente legate de mulţimi convexe de vectori dintr-un spaţiu liniar S peste un
corp numeric K.
24
Fie vectorii v1, v2,..., vmœS. Se numeşte combinaţie liniară convexă a acestor
vectori o combinaţie liniară:
v=a1v1+a2v2+...+amvm
ai¥0, mi ,1= şi a1+a2+...+am=1
Evident că în cazul în care avem numai doi vectori v1 şi v2 atunci orice combi-
naţie convexă a lor se poate scrie în forma:
av1+(1-a)v2 cu 0§a§1
O mulţime M de vectori din spaţiul S se numeşte mulţime convexă dacă odată
cu oricare doi vectori v1 şi v2, M conţine şi orice combinaţie convexă a lor.
Dacă M este o mulţime convexă din spaţiul S atunci elementele sale se pot
clasifica în două: vectori interiori şi vârfuri.
Se spune că vœM este interior dacă există cel puţin doi vectori v1, v2œM aşa
încât v=av1+(1-a)v2, 0<a<1. Elementele lui M care nu sunt interioare le vom numi
vârfuri sau puncte de extrem. Orice punct interior se exprimă ca o combinaţie liniară
convexă de un număr finit de puncte extreme. (Spaţiile de care ne ocupăm sunt de
dimensiune finită).
Aceste câteva elemente legate de convexitate ne sunt suficiente pentru a
evidenţia unele proprietăţi ale mulţimii soluţiilor posibile ale unei probleme de
programare liniară.
Propoziţia 1. Mulţimea soluţiilor posibile ale unei probleme de programare
liniară este o mulţime convexă.
Demonstraţie: Orice soluţie este un vector X din Rn. Fie M mulţimea solu-
ţiilor posibile şi X1, X2œM deci:
AX1=P0 X1¥0
AX2=P0 X2¥0
Fie X3=aX1+(1-a)X2 cu 0§a§1
Din X1¥0 şi a¥0 rezultă aX1¥0 şi la fel
X2¥0 şi (1-a)¥0 rezultă (1-a)X2¥0 şi deci X3¥0.
Pe de altă parte X3 este un element din M pentru că:
AX3=A[aX1+(1-a)X2]=aAX1+(1-a)AX2=aP0+(1-a)P0=P0
Propoziţia 2. Dacă forma liniară a unei probleme de programare liniară îşi
atinge minimul atunci forma ia valoarea minimă şi într-un vârf al lui M. Dacă forma
25
liniară capătă valoarea minimă în mai multe puncte extreme atunci capătă aceeaşi
valoare în orice combinaţie convexă a lor.
Demonstraţie. Fie X0 o soluţie optimală adică f(X0)=min f(X); XœM.
Dacă X0 este vârf demonstraţia este încheiată. Presupunem că este interior.
Atunci există în M elementele extreme X1, X2,..., Xp aşa încât:
X0=a1X1+a2X2+...+apXp cu 0§a§1 şi
a1+a2+...+ap=1
Pe de altă f(X0)§f(X) pentru orice XœM.
Din expresia lui X0 rezultă că putem scrie:
f(X0)=f(a1X1+a2X2+...+apXp)=a1f(X1)+a2f(X2)+...+apf(Xp)
Fie XK vârful pentru care f(XK)=min f(Xi), pi ,1= . Punând în locul tuturor
f(X1),..., f(Xp) pe f(XK) şi având în vedere că ai¥0 rezultă:
f(X0)¥a1f(XK)+ a2f(XK)+...+ apf(XK)=f(XK)(a1+a2+...+ap)=f(XK)
Deci avem f(X0)¥f(XK). Dar f(X0)§f(XK) prin urmare: f(X0)=f(XK).
Deci dacă forma liniară are un minim există şi un vârf în care forma ia de
asemenea valoarea minimă.
Pentru a demonstra partea a doua să presupunem că X1,..., Xm sunt vârfurile în
care forma liniară f ia valoarea minimă deci:
f(X1)= f(X2)=...= f(Xm)=minim
Fie X o combinaţie convexă oarecare a lor X=a1X1+...+amXm, cu 0§ai§1 şi
∑ ==
m
ii
11α .
Atunci f(X)= f(a1X1+...+amXm)= f(X1)(a1+...+am)=f(X1)
De aici urmează o determinare a soluţiei optime se poate face limitându-ne la
examinarea valorilor formei f în vârfurile mulţimii M.
Teorema fundamentală a programării liniare
Dacă o problemă de programare liniară admite o soluţie optimală, atunci admite
o soluţie optimală de bază.
Demonstraţie. Vom demonstra teorema arătând că orice soluţie posibilă de
bază este un vârf în M şi reciproc.
Fie X=(x1, x2,..., xK, 0...0) o soluţie posibilă de bază a problemei de programare
liniară. Să arătăm că X este vârf în M.
26
Din X soluţie posibilă de bază urmează că:
x1P1+x2P2+...+xkPk=P0, k§m
x1>0, x2>0,..., xk>0
şi P1, P2,..., Pk liniar independenţi.
Presupunem că X nu este vârf, atunci există X1, X2œM aşa încât:
X=aX1+(1-a)X2, cu 0<a<1
Din faptul că X este o soluţie cu ultimele n-k componente egale cu zero şi
0<a<1 rezultă că vectorii X1 şi X2 trebuie de asemenea să aibă ultimele n-k compo-
nente nule, deci:
X1= ( )0...0,,...,, 112
11 kxxx
X2= ( )0...0,,...,, 222
21 kxxx
Din X1, X2œM rezultă: 11x P1+ 1
2x P2+...+ 1kx Pk=P0
21x P1+ 2
1x P2+...+ 2kx Pk=P0
Dar P1, P2,..., Pk sunt liniar independenţi şi am ajuns la situaţia când P0 s-ar
putea descompune în raport cu ei în două moduri diferite. Absurditatea justifică prima
parte a teoremei.
Pentru partea a doua să luăm un vârf în M şi să arătăm că vectorii sunt liniar
independenţi. Din X soluţie posibilă urmează:
x1P1+x2P2+...+xkPk=P0
Înmulţind această egalitate cu un număr oarecare θ şi adunând şi scăzând din
expresia lui P0 se obţine:
(x1+θd1)P1+(x2+θd2)P2+...+(xk+θdk)Pk=P0
(x1-θd1)P1+(x2-θd2)P2+...+(xk-θdk)Pk=P0
Alegându-l pe θ suficient de mic şi având în vedere că xi>0, ki ,1= rezultă
imediat că:
X1=(x1+θd1, x2+θd2,..., xk+θdk, 0...0)
X2=(x1-θd1, x2-θd2,..., xk-θdk, 0...0)
sunt soluţii posibile, adică X1, X2œM. Dacă θ este astfel ales, atunci este uşor de
observat că 21 21
21 XXX += , adică X este un element interior lui M contrar ipotezei.
27
Prin urmare şi a doua parte este demonstrată. Demonstraţia teoremei se încheie dacă
avem în vedere Propoziţia 2 de mai sus.
Din teorema fundamentală urmează că:
1. – O soluţie optimală se găseşte printre soluţiile de bază.
2. – Fiecărui punct de extrem din M îi corespunde un sistem de m vectori liniar
independenţi dintre vectorii P1, P2,…, Pn.
În adevăr, din teorema fundamentală există k≤m asemenea vectori.
Dacă k=m consecinţa este justificată. Presupunem k<m şi că există r-k vectori
aşa încât P1,…, Pk, Pk+1,…, Pr să fie liniar independenţi şi să formeze o bază în m cu
r<m. Acest lucru ar contrazice faptul că rangul matricii A este m deci r=m.
3. – O problemă de programare liniară are cel mult mnC soluţii posibile de
bază.
Observaţia este imediată dacă avem în vedere observaţia 2) şi faptul că nu
orice sistem de m vectori din cei n vectori P1,…, Pn sunt liniar independenţi acesta
reduce cercetarea mulţimii infinite de soluţii la cercetarea unei mulţimi finite.
2.2. MODELAREA UNOR PROBLEME PRACTICE
1. Problema planificării producţiei unei întreprinderi.
Presupunem că o anumită întreprindere dispune de resursele R1, R2,…, Rm
care sunt limitate de numerele b1, b2,…, bm. În procesul de producţie trebuie să se
realizeze produsele P1, P2,…, Pn. Cunoscându-se consumurile aij din resursa Ri pentru
o unitate finită din produsul Pj, precum şi valoarea cheltuielilor totale pe unitatea de
produs finit din fiecare articol se cere: cât trebuie planificat din fiecare produs pentru
ca în limita resurselor disponibile să se realizeze o producţie cu un cost minim.
Datele problemei le putem prezenta într-un tabel de forma:
ProduseResurse P1 … Pj … Pn
R1 a11 … a1j … a1n b1 … … … … … Ri ai1 … aij … ain bi … … … … … Rm am1 … amj … amn bm Cheltuieli c1 … cj … cn - Plan x1 … xj … xn -
28
Impunând condiţia ca procesul de producţie să se desfăşoare numai în limitele
resurselor, o analiză sumară a consumurilor ne arată că trebuie să satisfacă condiţiile:
⎪⎪⎩
⎪⎪⎨
⎧
≤+++
≤+++≤+++
mnmnmm
nn
nn
bxaxaxa
bxaxaxabxaxaxa
............................................
......
2211
22222121
11212111
Apoi natura concretă a datelor problemei ne arată că:
x1¥0, x2¥0,…, xn¥0
În plus, cantităţile x1, x2,…, xn trebuie în aşa fel planificate încât costul total al
producţiei să fie minim adică:
f=c1x1+c2x2+…+cnxn=minim
Planul optimal care se determină rezolvând această problemă se mai numeşte
şi planul sortimentului optim.
2. Problema nutriţiei (Problema dietei, problema amestecului, etc.).
Această problemă constă în următoarele: ştiind că o alimentaţie raţională
trebuie să conţină anumite cantităţi din diferite substanţe şi că acestea se găsesc în
anumite proporţii în diferite alimente de preţuri cunoscute se cere să se stabilească o
dietă corespunzătoare şi totodată să fie cât mai ieftină.
Fie substanţele S1, S2,…, Sm care trebuie să intre în compunerea hranei şi A1,
A2,…, An de care dispunem.
Substanţele amintite se mai numesc şi principii nutritive.
Fie bi cantitatea minimă din substanţa Si care trebuie conţinută în raţia zilnică,
ck preţul unei unităţi din alimentul Ak şi aik cantitatea (numărul de unităţi) din
substanţa Si care se găseşte într-o unitate din alimentul Ak.
Notând cu x1, x2,…, xn cantităţile din alimentele A1, A2,…, An folosite pentru
întocmirea raţiei, aceasta va conţine:
a11x1+a12x2+…+a1nxn unităţi din substanţa S1
Această cantitate trebuie să fie cel puţin egală cu b1, deci:
a11x1+a12x2+…+a1nxn¥b1
Analog găsim următorul sistem de condiţii:
29
⎪⎪⎩
⎪⎪⎨
⎧
≥+++
≥+++≥+++
mnmnmm
nn
nn
bxaxaxa
bxaxaxabxaxaxa
............................................
......
2211
22222121
11212111
La acestea trebuie să adăugăm condiţiile:
x1¥0, x2¥0,…, xn¥0
Având în vedere preţurile alimentelor, funcţia care exprimă costul va fi:
f=c1x1+c2x2+…+cnxn
Pentru f trebuie să găsim valoarea minimă în condiţiile de mai sus.
Importanţa problemei constă în faptul că ea îşi găseşte aplicaţii în industria
petrolieră (amestecuri de benzine şi uleiuri), în industria alimentară (sortimente de
îngheţată, lichioruri, etc.), în industria farmaceutică ş.a..
3. Problema transporturilor
Presupunem că o anumită marfă depozitată în depozitele D1, D2,…, Dm trebuie
transportată toată la nişte centre de consum C1, C2,…, Cn. Fie d1, d2,…, dm capacităţile
depozitelor (pe care le presupunem pline) şi c1, c2,…, cn capacităţile centrelor de
consum (presupuse goale).
Cunoscând cij costul transporturilor pe unitatea de produs de la depozitul Di la
centrul Cj se cere să facem o astfel de repartiţie a mărfii încât costul de transport să fie
minim. Datele unei probleme de transport le putem prezenta prin tabelul:
D C C1 … Cj … Cn
D1 c11 x11
… cij x1-j
… c1n x1n
d1
… … … …
Di ci1 xi1
… cij xij
… cin xin
di
… … … …
Dm cm1 xm1
… cmj xmj
… cmn xmn
dm
c1 .. cj … cn
Presupunem mai întâi că d1+d2+…+dm=c1+c2+…+cn şi în acest caz vom spune
că problema este echilibrată.
Din enunţul problemei rezultă imediat că:
30
⎪⎪⎩
⎪⎪⎨
⎧
=+++
=+++=+++
mmnmm
n
n
dxxx
dxxxdxxx
...................................
......
21
222221
111211
Având în vedere că şi centrele au capacităţi limitate rezultă că au loc şi
următoarele relaţii:
⎪⎪⎩
⎪⎪⎨
⎧
=+++
=+++=+++
nmnnn
m
m
cxxx
cxxxcxxx
...................................
......
21
222212
112111
Numerele xij reprezentând mărimi concrete nu pot fi decât numere nenegative
adică:
xij¥0, mi ,1= , nj ,1=
Funcţia de minimizat care este preţul de transport are evident expresia:
∑∑= =
=m
i
n
jijij xcP
1 1
Dacă problema de transport nu este echilibrată atunci echilibrarea se face
relativ uşor prin introducerea unui centru sau depozit fictiv. Astfel dacă de exemplu
d1+…+dm<c1+…+cn adică în depozite avem mărfuri în cantitate mai mică decât
cererea, atunci introducem un nou depozit fictiv Dm+1 care să aibă capacitatea dm+1 aşa
încât:
dm+1=(c1+c2+…+cn)-(d1+d2+…+dm)
În acest caz vom presupune că preţurile de transport de la acest depozit la
fiecare centru se iau egale cu zero. Celălalt caz în care d1+d2+…+dm>c1+c2+…+cn se
tratează într-o manieră analoagă. Din acest motiv se tratează de obicei cazul
echilibrat.
2.3. ALGORITMUL SIMPLEX PRIMAL
Algoritmul simplex, în oricare dintre variantele sale este o schemă de calcul
care permite trecerea de la o soluţie de bază la o soluţie de bază mai „bună” fără a fi
necesară cercetarea tuturor soluţiilor.
În principiu algoritmul simplex porneşte de la o soluţie de bază care este
testată pe baza unui criteriu de optimalitate dacă este soluţia căutată sau nu. În cazul
31
când această soluţie nu este soluţia căutată se trece la o soluţie mai convenabilă pe
care din nou o verificăm ş.a.m.d.. După un număr finit de paşi (mulţimea soluţiilor de
bază fiind finită) ajungem fie la soluţia optimă, dacă aceasta există, fie suntem în
măsură să afirmăm că o astfel de soluţie nu există.
Să presupunem că este cunoscută soluţia posibilă de bază corespunzătoare
primilor vectori Pj. Soluţia are prin urmare forma:
(1) X=(x1, x2, x3,…, xm, 0…0)
Atunci din faptul că X este soluţie urmează:
(2) x1P1+x2P2+…+xmPm=P0 xi>0
Să încercăm să determinăm o nouă soluţie pe baza soluţiei date. Admitem că
toţi vectorii P1, P2,…, Pn au fost exprimaţi în baza P1, P2,…, Pm cu alte cuvinte
presupunem că sistemul de restricţii are de la început forma explicită:
⎪⎪
⎩
⎪⎪
⎨
⎧
=+++
=+++
=+++
++
++
++
mnmnmmmm
nnmm
nnmm
bxaxax
bxaxaxbxaxax
..............................................
......
11,
2211,22
1111,11
Aceasta implică evident că x1=b1,…, xm=bm, xm+1=…=xn=0
Din cele presupuse rezultă că putem scrie:
(3) a1jP1+ a2jP2+…+ amjPm=Pj, j=m+1, m+2,…, n
Presupunem că vectorul Pk cu indicele k fixat trebuie să intre în bază. Ce
condiţii trebuie ca în soluţie pe locul k să apară o cantitate oarecare θ >0.
Acest lucru se realizează uşor astfel, din:
b1P1+b2P2+…+bmPm=P0
scădem θPk şi obţinem:
(4) (b1-θa1k)P1+(b2-θa2k)P2+…+(bm-θamk)Pm+θPk=P0
Din (4) urmează vectorul
X’=(b1-θa1k, b2-θa2k,…, bm-θamk, 0,..., θ,..., 0) este o soluţie a sistemului de
restricţii din problemă. Pentru a fi o soluţie posibilă a problemei de programare
trebuie ca X’ să aibă toate componentele pozitive sau nule. Deci:
(5)
⎪⎪⎩
⎪⎪⎨
⎧
≥−
≥−≥−
0...................
00
22
11
mkm
k
k
ab
abab
θ
θθ
32
Se pot întâmpla două situaţii:
a) toate cantităţile a1k, a2k,…, amk§0; atunci relaţiile (5) au loc pentru orice
θ >0.
b) există măcar un i pentru care aik>0, atunci relaţia
bi-θaik>0 care se mai scrie:
0≥⎟⎟⎠
⎞⎜⎜⎝
⎛−θ
ik
iik a
ba are loc numai dacă ik
i
ab
≤θ
Dacă ar exista mai mulţi indici pentru aik>0 ar trebui evident ca θ să fie mai
mic decât cel mai mic dintre rapoartele ik
i
ab pentru ca (5) să aibă loc.
Pe de altă parte să observăm că X’ este o soluţie cu m+1 componente, deci ea
nu poate fi de bază decât dacă θ va lua chiar valoarea:
lk
l
ik
i
ai ab
ab
ik
==≥0/
minθ
Dacă lk
l
ab
=θ măcar componenta cu indicele 1 se anulează şi toate celelalte,
care nu se anulează, rămân pozitive şi deci X’ în acest caz este o nouă soluţie posibilă
de bază.
Rezultă deci că:
1. Pentru ca un vector Pk să poată înlocui un vector din bază trebuie să aibă şi
componente pozitive.
2. Vectorul Pl care trebuie înlocuit de Pk este acela pentru care:
ik
i
ailk
l
ab
ab
ik 0/min
≥
=
Am obţinut o regulă după care facem eliminarea din bază. Această regulă o
vom numi criteriul de eliminare.
Vrem în continuare să găsim criteriul după care vom alege vectorul care
urmează să intre în noua bază, adică criteriul de intrare.
Dintre vectorii din afara bazei trebuie să alegem unul pentru care noua soluţie
să dea pentru forma liniară o valoare mai mică (deoarece ne ocupăm de probleme de
minimizare) şi dacă avem mai multe posibilităţi s-o alegem pe cea mai avantajoasă. În
acest scop să vedem valoarea formei f pentru soluţiile X şi X’ şi să le comparăm.
Avem:
33
f(X)=c1b1+ c2b2+…+ cmbm
f(X’)=c1(b1-θa1k)+c2(b2-θa2k)+…+cm(bm-θamk)+θck=(c1b1+c2b2+…+cmbm)-
(c1a1k+c2a2k+…+cmamk)θ+θck
Notând zk=c1a1k+c2a2k+…+cmamk putem scrie:
(6) f(X’)=f(X)-θ (zk-ck)
Putem avea două situaţii:
a) Pentru orice k, zk-ck§0 atunci f(X’)¥f(X) şi deci nu putem găsi o soluţie de
bază în care forma f să aibă o valoare mai mică. Aceasta este echivalent cu a spune că
soluţia X este soluţie optimă. Aşadar criteriul de optimalitate s-ar putea formula astfel:
Dacă pentru o soluţie X toate diferenţele zk-ck sunt mai mici sau egale cu zero, soluţia
este optimă.
b) Există indici k pentru care zk-ck>0 atunci evident că valoarea formei f poate
fi micşorată şi dacă vom lua vectorul Ph pentru care: (zh-ch)=max(zk-ck) vom obţine
micşorarea cea mai mare.
În felul acesta am pus în evidenţă şi criteriul după care alegem vectorul care
urmează să fie introdus în bază – criteriul de intrare. Mai trebuie să clarificăm puţin
situaţia în care pentru un vector Pk dintre cei din afara bazei, zk-ck>0 dar toţi aik
mi ,1= sunt negativi.
În acest caz, pe de o parte X’ este o soluţie cu m+1 componente nenegative
pentru orice θ >0, iar din (6) se constată că atunci când θ creşte valoarea lui f poate fi
făcută oricât de mică, deci problema nu are un minim finit. Se spune că, în acest caz,
problema are optim infinit. Cele de mai sus conduc la următorul algoritm de rezolvare
a unei probleme de programare liniară cunoscut sub denumirea de algoritm simplex
primal.
1. Determinăm o soluţie de pornire.
2. Calculăm diferenţele zk-ck şi aplicăm criteriul de optimalitate.
a) dacă toate diferenţele zk-ck§0 soluţia este optimă şi STOP.
b) există diferenţe zk-ck¥0, atunci verificăm dacă nu cumva Pk respectivi au
componentele toate negative sau zero.
- Dacă „da” atunci problema are optim infinit şi STOP.
- Dacă „nu” atunci la 3).
3. Aplicăm criteriul de intrare luând max(zk-ck)=zh-ch şi determinăm vectorul
Ph care urmează să intre în bază.
34
4. Aplicăm criteriul de eliminare luând
jh
j
ih
i
ai ab
ab
ih
=≥0/
min
Şi determinăm vectorul Pj care trebuie eliminat din bază.
5. Facem schimbarea de bază, obţinem noua soluţie şi trecem din nou la 2.
Datele unei probleme de programare liniară se sistematizează într-un tabel,
numit tabel simplex care are forma:
c1 c2 … c1 … ch … cn Baza cb P0 P1 P2 … P1 … Ph … Pn P1 c1 b1 1 0 … 0 … a1h … a1n P2 c2 b2 0 1 … 0 … a2h … a2n : : : : : : : : : : : : : : : :
P1 c1 b1 0 0 … 1 … a1h … a1n : : : : : … : : : : : : : : … : : :
Pm cm bm 0 0 … 0 … amh … amn zk-ck - f(X) 0 0 … 0 zh-ch … zn-cn
Observaţii:
1) Elementele de pe linia zk-ck se obţin foarte simplu înmulţind coloana cb cu
coloanele care urmează şi scăzând coeficientul ci care se găseşte scris la capătul de
sus al coloanei.
2) Presupunem cunoscute diferenţele zk-ck şi vrem să găsim un procedeu
pentru a determina noile diferenţe z’k-ck de la etapa (iteraţia) următoare:
c1, c2,…, c1-1, ck, c1+1,…, cm
iar pe coloana lui Pk elementele:
a’1k, a’2k,…, a’1-1,k, a’1,k,…, a’m,k
Deci z’k-ck=c1a’1k+c2a’2k+…+c1-1a’1-1,k+cha’1,k+…+c’ma’m,k-ck
Dar mhlh
lkmkmk
lh
lkkh
lh
lkkk a
aaaa
aaaa
aaaa −==−= ',...,'...,' 11,1,1 şi prin urmare:
z’k-ck=(c1aik+…+cmamk-ck)-c1ak-lh
lk
aa (c1a1h+…+cmamh)+c1
lh
lk
aa a1h+
lh
lk
aa ch
De unde:
z’k-ck=(zk-ck)- lh
lk
aa (zh-ch)
35
Această relaţie ne arată că noile diferenţe (linia diferenţelor) se calculează
exact după aceeaşi regulă ca şi restul elementelor din tabelul simplex.
Pentru exemplificare să considerăm problema:
Să se minimizeze f(X)=2x1+x2-5x3-4x4 în condiţiile
⎩⎨⎧
=++=−+363
432
431
xxxxxx
şi x1¥0, x2¥0, x3¥0, x4¥0
Formăm tabelul simplex
2 1 -5 -4 Baza cb P0 P1 P2 P3 P4 P1 2 6 4 1 3 -1 P2 1 3 0 1 1 1 zj-ci - 15 0 0 12 3 P3 -5 2 1/3 0 1 -1/3 P2 1 1 -1/3 1 0 4/3 zj-ci - -9 -4 0 0 7 P3 -5 9/4 1/4 1/4 1 0 P4 -4 3/4 -1/4 3/4 0 1 zj-ci - -57/4 -9/4 -21/4 0 0
Soluţia optimală va fi x1=x2=0, x3=9/4, x4=3/4, iar min f=-57/4.
Mai rămâne de văzut cum putem determina o soluţie de pornire în cazul
general. Aşa cum am văzut cunoaşterea unei soluţii de bază de pornire echivalează cu
faptul că sistemul de restricţii în care toţi termenii sunt nenegativi este explicitar. Dar
o astfel de condiţie, în general, nu este îndeplinită.
Problema explicitării sau a determinării unui program iniţial fără a utiliza
decât transformări elementare se poate rezolva folosind metoda necunoscutelor
artificiale sau a necunoscutelor auxiliare.
Această metodă constă în a crea în mod artificial un program de bază de
pornire pentru o problemă de programare strâns legată de problema dată.
Dacă toţi termenii liberi sunt nenegativi se adaugă la fiecare ecuaţie câte o
necunoscută artificială astfel încât în matricea obţinută din matricea A să se formeze
submatricea unitate de ordinul m.
Dacă presupunem că erau necesare m noi necunoscute artificiale sistemul de
restricţii devine:
36
⎪⎪⎩
⎪⎪⎨
⎧
=++++
=++++=++++
+
+
+
mmnnmnmm
nnn
nnn
bxxaxaxa
bxxaxaxabxxaxaxa
........................................................
......
2211
222222121
111212111
Se obţine în felul acesta o nouă problemă de programare pe care o numim de
obicei problemă extinsă. Această problemă are drept soluţie admisibilă de bază
x1=x2=...=xn=0, xm+1=b1,..., xn+m=bm.
Cele două probleme sunt strâns legate în sensul că orice soluţie a problemei
extinse în care necunoscutele artificiale sunt zero este o soluţie a problemei iniţiale.
Rezultă deci că pentru a avea soluţie de pornire pentru rezolvarea problemei iniţiale
este necesar să căutăm, să găsim, o soluţie a problemei extinse cu ultimele
componente (cele artificiale) nule.
Acest lucru se poate realiza în două moduri prin:
1) metoda penalizărilor;
2) metoda celor două faze.
1. Metoda penalizărilor.
În acest caz funcţia obiectiv iniţială este înlocuită cu o nouă funcţie de forma:
f1=c1x1+c1x2+...+cnxn+Mxn+1+...+Mxn+m
cu M >0 şi oricât de mare vrem.
Problemei extinse cu această nouă funcţie de optimizat îi aplicăm algoritmul
simplex primal în scopul găsirii unei soluţii cu componentele artificiale nule.
Aplicarea algoritmului ne conduce la una din situaţiile:
a) Ajungem la o soluţie de forma căutată. Dacă aceasta nu este soluţie
optimală pentru problema iniţială aplicăm în continuare algoritmul până la rezolvarea
completă.
b) Baza conţine vectori artificiali dar valorile corespunzătoare ale
necunoscutelor artificiale sunt zero şi coeficienţii lui M din diferenţele zk-ck sunt
negativi sau nuli. Atunci programul respectiv este un program degenerat al problemei
iniţiale.
c) Baza conţine măcar o variabilă artificială strict pozitivă şi coeficienţii lui M
din diferenţele zk-ck sunt negativi: în acest caz problema iniţială nu are soluţii.
Exemplu. Să se minimizeze f(X)=12x1+3x2-x3-3x4 în condiţiile
37
⎩⎨⎧
=−++=+−+
17231432
4321
4321
xxxxxxxx
xi¥0, 4,1=i
12 3 -1 -3 M M Baza C P0 P1 P2 P3 P4 P5 P6 P5 M 14 2 1 -1 3 1 0 P6 M 17 1 1 3 -2 0 1 zk-ck - 31M 3M-12 2M-3 2M+1 M+3 0 0 P1 12 7 1 1/2 -1/2 3/2 0 P6 M 10 0 1/2 7/2 -7/2 1 zk-ck - M/3+3 7M/2-5 -7M/2 10M+ 0 0 84 +21 P1 12 59/7 1 4/7 0 1 P3 -1 20/7 0 1/7 1 -1 zk-ck - 688/7 0 26/7 0 16
Până la această etapă am determinat o soluţie, a problemei extinse, cu toate
componentele artificiale nule. Această soluţie însă nu este optimală pentru problema
iniţială. Continuând aplicarea algoritmului, după o iteraţie se obţine şi soluţia optimă:
x1=59/7, x2=79/7, x3=x4=0, min f=-256/7.
2. Metoda celor două faze.
În această metodă problema se rezolvă în două faze distincte. Prima fază ne
permite să determinăm dacă există o soluţie şi în caz afirmativ să calculăm una, iar a
doua ne conduce pornind de la soluţia găsită la soluţia optimală.
Faza I. Se introduce pe lângă funcţia f şi o a doua funcţie:
g=xn+1+xn+2+...+xn+m
căreia i se caută minimul în condiţiile problemei extinse. Evident că determinarea unei
soluţii a problemei iniţiale echivalează cu găsirea unei soluţii pentru problema extinsă
pentru care min g=0.
Aplicând algoritmul simplex primal, problemei extinse cu funcţia de optimizat
g se ajunge la una din situaţiile:
a) min g=0 şi nici un vector artificial nu figurează în bază. Atunci soluţia
găsită este soluţia de bază de pornire pentru problema iniţială şi se trece la faza a
doua.
38
b) min g=0 dar baza conţine un vector artificial; atunci problema iniţială are
soluţii degenerate.
c) min g∫0; atunci problema iniţială nu are soluţii.
În cazurile a) şi b) se trece la Faza a II-a în care se optimizează f pornind de la
soluţia obţinută.
Reluăm exemplul precedent
Faza I
0 0 0 0 1 1 Baza Cb P0 P1 P2 P3 P4 P5 P6 P5 1 14 2 1 -1 3 1 0 P6 1 17 1 1 3 -2 0 1 zk-ck - 31 3 2 2 1 0 0 P1 0 7 1 1/2 -1/2 3/2 0 P6 1 10 0 1/2 7/2 -7/2 1 zk-ck - 10 0 1/2 7/2 -7/2 0 P1 0 59/7 1 4/7 0 1 P3 0 20/7 0 1/7 1 -1 zk-ck - 0 0 0 0 0
Obţinând pe linia zk-ck toate elementele egale cu zero am obţinut soluţia de
pornire căutată x1=59/7, x3=20/7, x2=x4=0.
Cu această soluţie problema propusă şi numai după o iteraţie se ajunge la
soluţia optimală.
2.5. PROBLEMA TRANSPORTURILOR
Problema transporturilor este un caz particular de problemă de programare
liniară. Aceste probleme constituie însă un grup aparte de probleme de programare dar
fiind specificul lor: matricea coeficienţilor având dimensiuni relativ mari şi fiind
partiţionată în submatrici. Specificul, matrice cu o structură foarte simplă, a condus la
procedee foarte simple de rezolvat.
Aşa cum am mai spus modelul matematic al unei probleme echilibrate este:
Tcdn
jj
m
ii =∑=∑
== 11
0,,1;,1,,1
11
≥==∑=∑==
ij
m
ij
n
jij xnjmicdx
39
şi P(X)= min1 1
=∑ ∑= =
m
i
n
jijij xc
Am folosit notaţiile anterioare.
Pentru problemele de transport avem teorema următoare:
Teoremă. O problemă de transport are întotdeauna o soluţie şi o soluţie
posibilă de bază are cel mult m+n-1 componente nenule.
Demonstraţie. Prima parte a teoremei rezultă observând că mărimile
Tcd
y jiij = mi ,1= ; mj ,1= verifică sistemul de restricţii.
Pentru partea a doua observăm că oricare dintre ecuaţiile funcţionale este o
combinaţie a celorlalte şi deci poate fi lăsată la o parte. Cum numărul componentelor
nenule ale unei soluţii posibile de bază este cel mult numărul ecuaţiilor, urmează că o
asemenea soluţie are cel mult m+n-1 componente nenule şi deci demonstraţia este
terminată.
Din această teoremă rezultă că pentru problemele de transport problema
existenţei soluţiei optimale nu se pune şi aceasta s-ar putea găsi prin una dintre
variantele algoritmului simplex cunoscute. Dimensiunile mari ale bazei precum şi
structura simplă a matricii coeficienţilor au impus căutarea unor metode specifice.
În principiu rezolvarea unei probleme de transport se face ca de obicei: se
determină o soluţie de pornire şi din aceasta se construieşte un şir de soluţii din ce în
ce mai „bune” până se ajunge la soluţia optimală. În scopul determinării criteriilor
necesare precum şi procedeelor de lucru vom urmări în continuare următoarele
obiective:
1. Determinarea unei soluţii de pornire.
2. Algoritmi de optimizare a soluţiei.
3. Rezolvarea unor probleme de transport speciale.
1. Determinarea unei soluţii de pornire.
Pentru determinarea soluţiei iniţiale există mai multe metode practice:
a) Metoda colţului de Nord-Vest sau metoda diagonalei.
În principiu această metodă constă în următoarele: se începe cu primul depozit
şi se repartizează marfă primului centru; dacă primul centru poate primi toată marfa
din depozitul întâi, în continuare se trece la depozitul doi pentru completarea
necesarului din c1 ş.a.m.d.; dacă primul centru nu poate primi toată marfa din
depozitul D1 atunci cu cantitatea rămasă se trece la centrul următor ş.a.m.d..
40
Totdeauna se are în vedere ca să nu părăsim un depozit până nu este epuizat şi nici un
centru până nu este completat.
Exemplu.
C D C1 C2 C3 C4
D1 5
25 3 1 2 25
D2 2
4 3
171
244 45
D3 1 5 1
186
22 40
29 17 42 22
b) Metoda costurilor minime.
Această metodă are trei variante: metoda minimului pe linie, metoda
minimului pe coloană şi metoda minimului pe tabel.
Metoda precedentă, a diagonalei, ne arată pas cu pas cum trebuie găsite
componentele xij ale soluţiei căutate. În cazul metodelor de faţă se dă tot o metodă de
a găsi componentele xij ale soluţiei căutate. Astfel în primul pas se determină chk=min
cij şi se ia xhk=min (ah, bk) apoi cu restul preţurilor cij rămase se procedează analog
după ce am modificat corespunzător disponibilităţile din depozite şi cererile de la
centru. Evident că dacă min cij se realizează pentru mai multe perechi de indici acestea
le vom lua pe rând, după voie. Reluând exemplul precedent obţinem:
C D C1 C2 C3 C4
D1 5
3
11
22
22 25
D2 2
29 3
161 4 45
D3 1 5 1
406
40
29 17 42 22
Dacă njmi ,1,1 == în calculul minimului obţinem metoda minimului pe
tabel. Dacă îl fixăm pe i şi calculăm cik=min cij obţinem metoda minimului pe linie,
fixându-l pe j se obţine metoda minimului pe coloană. Aceste metode dau soluţii
avantajoase din puncte de vedere diferite. De exemplu: dacă costul transportului este
41
suportat de depozite metoda minimului pe linie va fi cea la care se ajunge, iar dacă
costul transportului este suportat de centrele de consum se ajunge la metoda
minimului pe coloane ş.a.m.d..
Metoda minimului pe linie sau coloană evident dau alte soluţii. De exemplu
metoda minimului pe linie dă:
C D C1 C2 C3 C4
D1 5
3 1
252 25
D2 2
28 3 1
174 45
D3 1
1 5
171 6
22 40
29 17 42 22
2. Algoritm de optimizare a soluţiei
O examinare atentă a algoritmului simplex primal aplicat acestor probleme ne
pune în evidenţă o serie de particularităţi care ne ajută să formulăm noul algoritm.
Presupunem că X este o soluţie posibilă de bază nedegenerată (adică cu n+m-1
componente nenule). Dorim să construim o nouă soluţie X’ care să fie mai „bună”
decât soluţia X, adică pentru care preţul să fie mai mic. Vom urmări ca X’ să fie tot o
soluţie posibilă de bază fiindcă soluţia optimală se găseşte printre acestea. În acest
scop vom proceda în felul următor: consider o componentă xij care este nulă în X.
Dorim ca pe locul (ij) să apară o anumită valoare nenulă θ. Acest lucru va fi posibil
dacă θ >0 pentru a putea fi un xij, apoi dacă vom putea modifica vechile componente
din X aşa încât vectorul X’ să fie soluţie a sistemului de restricţii. Transformările de
care spunem trebuie făcute în aşa fel încât noile componente să fie nenegative.
Rezultă deci că pe linia i şi pe coloana j două componente ale lui X trebuie micşorate
cu θ şi pentru ca să avem tot soluţie va trebui să modificăm încă două componente
care vor trebui mărite cu θ.
Aceste modificări vor înceta numai atunci când cele două elemente care
urmează a fi schimbate coincid. Unind componentele modificate care se găsesc pe
aceeaşi linie sau coloană se obţine o figură geometrică numită ciclu. În felul acesta
rezultă clar că modificările nu se pot face decât după un ciclu. Existenţa şi unicitatea
unui asemenea ciclu pentru componenta xij=θ din X se poate arăta uşor făcând un
42
raţionament similar cu acela de la trecerea de la o soluţie la alta în cadrul algoritmului
simplex primal. În ipoteza că am pus deja în evidenţă ciclul urmează că în unele
vârfuri θ se adună şi în altele se scade. Pentru ca X’ să fie tot soluţie trebuie ca θ să fie
mai mic decât toate componentele soluţiei situate în vârfurile ciclului în care se scade.
Pentru ca X’ să aibă exact n+m-1 componente nenule va trebui ca θ =min xij, xij fiind
componentele lui X din care θ se scade. Pentru a ne realiza şi cerinţa ca X’ să fie mai
bună decât X va trebui să evaluăm noul preţ de transport. În acest scop observăm că
pentru componentele nemodificate preţurile rămân aceleaşi. Dacă xij devine xij+0
atunci preţul creşte cu θ cij, dacă însă devine xij-θ atunci preţul scade cu θ cij deci:
(1) P(X’)=P(X)+θδij
unde δij este un număr care se obţine făcând suma algebrică a preţurilor din vârfurile
ciclului, acestea fiind luate cu plus dacă θ se adună şi cu minus dacă θ se scade.
Am notat δij suma obţinută pentru ciclul obţinut pornind de la componenta
nulă xij.
Din discuţia făcută rezultă imediat cele trei criterii necesare algoritmului
simplex adaptat.
1. Soluţia X este optimală dacă pentru toţi xij=0, δ¥0;
2. Componenta xij=0 devine egală cu θ (intră în bază) dacă δ=min δhk;
3. Componenta xij>0 devine egală cu zero (este eliminată din bază) dacă
θ=min xij unde xij sunt componentele lui X din vârfurile ciclului din care θ se scade.
Aceste trei criterii ne permit să dăm următorul algoritm:
1. Determinăm o soluţie nedegenerată de pornire X.
2. Pentru xij=0 calculăm δij şi aplicăm criteriul de optimalitate.
a) Dacă toţi δij¥0 soluţia X este optimală şi STOP.
b) Dacă există δij<0 trecem la 3.
3. Alegem δhk=min δij şi determinăm locul (h, k) unde trebuie plasat θ.
4. Formăm ciclul, aflăm valoarea lui θ şi găsim care componentă se va anula.
Calculăm componentele noii soluţii şi trecem la 2. Reluăm problema din exemplul
precedent în care soluţia o determinăm după metoda minimului pe tabel.
43
C D C1 C2 C3 C4
D1 5
3 1
252 25
D2 2
3
171
174
11 45
D3 1
29 5 1 6
11 40
29 17 42 22
Calculăm δij
δ11=5-1+6-4+1-1=6
δ12=3-3+1-1=0 ş.a.m.d.
Obţinem:
δ11=6, δ12=0, δ13=-2, δ21=3, δ32=0, δ33=-2.
Alegem δhk=δ14=-2 şi deci x14=θ
Pentru această primă soluţie X1
P(X1)=25+51+17+44+29+66=232
Pentru a găsi noua soluţie X2, formăm ciclul corespunzător
25-θ θ
17+θ 11-θ
De aici obţinem θ=11
Noua soluţie X2 va fi:
C D C1 C2 C3 C4
D1 5
3 1
142
11 25
D2 2
3
171
284
45
D3 1
29 5 1 6
11 40
29 17 42 22
Preţul corespunzător lui X2 va fi:
P(X2)=232-2μ11=210
Cu X2 reluăm ciclul de calcule. Calculăm δij.
44
δ11=8, δ12=0, δ21=5, δ24=7, δ32=-2, δ33=-4.
Trebuie ca x33=θ.
Formăm ciclul:
14-θ 11+θ
θ 11-θ
Aceasta dă evident θ=11.
Prin urmare noul preţ va fi:
P(X3)=210-44=166
Soluţia X3 va fi dată de:
C D C1 C2 C3 C4
D1 5
3 1
32
22 25
D2 2
3
171
284
45
D3 1
29 5 1
116
40
29 17 42 22
Calculând cantităţile δij avem:
δ11=4, δ12=0, δ21=1, δ24=2, δ32=2, δ34=4 şi deci conform criteriului de
oportunitate X3 este soluţie optimală şi preţul minim este 166.
Exerciţii.
1. Să se minimizeze f(X)=3x1+4x2 în condiţiile:
⎪⎩
⎪⎨
⎧
≤+≤≤
972
21
2
1
xxxx
x1, x2¥0
2. Să se minimizeze f(X)=x1+x2+x3-x4 în condiţiile:
⎩⎨⎧
−≤−+−≤+−+
442823
5321
4321
xxxxxxxx
x1, x2, x3, x4, x5¥0
3. Să se maximizeze f(X)=-3x1+x2-5x3 în condiţiile:
45
⎪⎩
⎪⎨
⎧
−≥−≤+≤+
31210
31
32
21
xxxxxx
x1, x2, x3¥0
4. Să se maximizeze f(X)=x1-10x2-6x3+x4 în condiţiile:
⎪⎩
⎪⎨
⎧
=−−+=++−
−=−+−
6325322
4
4321
4321
4321
xxxxxxxx
xxxx
x1, x2, x3, x4¥0
5. Să se maximizeze f(X)=5x1+2x2-x3+x4 în condiţiile:
⎪⎩
⎪⎨
⎧
=++−≥++
≤−+
10262
8
431
432
431
xxxxxx
xxx
x1, x2, x3, x4¥0
6. Să se determine măcar patru soluţii de bază pentru problema de transport:
C D C1 C2 C3 C4
D1 1
2 1 3
32
D2 2
3 2 4
40
D3 3
5 4 5
60
19 37 45 62 7. Să se determine o soluţie optimală problemei:
C D C1 C2 C3
D1 2 3 1 25
D2 3 1 2 30
D3 1 1 1 40
D4 1
2 3 35
27 44 50
8. Să se rezolve problema de transport:
46
C D C1 C2 C3 C4
D1 5
7 6 4
40
D2 8
1 2 7
60
D3 4
10 9 11
80
20 20 40 100
47
CAPITOLUL 3
ELEMENTE DE ANALIZĂ MATEMATICĂ
3.1. Serii numerice
Fie şirul de numere reale:
(1) a1, a2, a3,..., an,...
Definiţia 1.
Se numeşte serie suma infinită
(2) a1+a2+a3+...+an+...
an se numeşte termenul general iar suma se mai prezintă şi în forma:
(3) ∑∞
=1nna
Dată seria (2) sau (3) se formează şirul:
(4) A1=a1, A2=a1+a2,...., An=a1+a2+...+an,...
numit şirul sumelor parţiale.
Definiţia 2.
Dacă AAnn=
∞→lim (A finit sau nu) se spune că seria are limita A.
Dacă A este număr finit se spune că seria converge iar dacă A este un număr
infinit se spune că seria diverge. Numărul A se numeşte suma seriei.
În legătură cu seriile se pun două probleme:
a) Să se cerceteze dacă seria este sau nu convergentă (să se stabilească natura
seriei).
b) În caz de convergenţă să se calculeze suma.
Exemple.
1. O serie cunoscută deja este seria geometrică cu raţia q∫1.
a+aq+ag2+...+aqn-1+...
48
Se ştie că q
aqaSn
n −−
=1
Dacă |q|<1 atunci q
aSnn −=
∞→ 1lim adică serie convergentă.
Dacă |q|¥1 seria diverge.
Pentru a=1, q=-1 progresia dă 1-1+1-1+... cu sume parţiale 0 sau 1 deci caz în
care suma nu există.
2. Seria cu !
1...!1
11n
An +++= aşa cum s-a văzut în liceu este convergentă şi
e!n
111n
=∑+∞
=.
Proprietăţi.
1. Dacă într-o serie lăsăm la o parte un număr finit de termeni seria obţinută
are aceeaşi natură ca şi seria iniţială.
În adevăr să lăsăm la o parte din (2) primii m termeni.
Rămâne:
(5) ∑=++++∞
+=+++
1mnnkm2m1m a...a...aa
Să notăm cu Sk=am+1+...+am+k cu m fixat mai înainte. Evident că Am+k=Am+Sk,
şi deci Sk=Am+k-Am. Trecând la limită obţinem S=A-Am şi deci (5) converge şi are suma
A-Am.
Să presupunem acum că (5) converge şi SSk → , atunci avem S=A-Am şi deci
A=S+Am.
Dacă notăm cu am=A-Am constatăm că pentru .0,m m →∞→ α
Observaţii.
1. Seria (5) se numeşte serie rest iar am rest.
2. Putem enunţa proprietatea: dacă (2) converge atunci restul tinde la zero.
3. Dacă termenii seriei convergente (2) se înmulţesc cu acelaşi factor a, a∫0
se obţine o serie convergentă şi suma ei este aA.
4. Fie ⎩⎨⎧
++++=++++=...b...bbB...a...aaA
n21
n21 şi a, bœR atunci seria ⎟⎠⎞⎜
⎝⎛ ∑+⎟
⎠⎞⎜
⎝⎛ ∑
∞
=
∞
= 1nn
1nn ba βα
este tot convergentă. Notând cu An, Bn, Cn sumele parţiale putem scrie:
49
Cn=(aa1+bb1)+...+(aan+bbn)=aAn+bBn şi deci ∞→n
lim Cn=aA+bB.
5. Din relaţia an=An-An-1, rezultă ∞→n
lim an=0. Condiţia nu este suficientă. În
adevăr fie ∑∞
=1n n1 avem evident 0
n1
→ şi totuşi din faptul că 1+2
1 +3
1 +...+n
1 >
> nn
1n = rezultă evident că seria diverge.
O altă serie cu o proprietate asemănătoare şi în acelaşi timp deosebit de
importantă este seria armonică.
Aceasta este ...n1...
31
211
n1
1n+++++=∑
∞
=.
Denumirea vine de la faptul că orice termen este media armonică a termenilor
vecini.
Se mai observă de asemenea că:
21
n21n
1n21...
1n1
n1
=>−
+++
+
şi deci grupând termenii câte 1, 2, 4, 8, ... se obţine:
31
21,1 + ;
71
61
51
41
+++ ;...
Deoarece fiecare sumă este mai mare decât 1/2 rezultă că suma seriei este
nemărginită şi deci rezultă că seria armonică este divergentă.
Profităm de prilej pentru a prezenta o serie cunoscută sub numele de serie
armonică generalizată.
...n1...
31
211
n1
sss1n
s +++++=∑∞
= unde sœR.
Dacă s=1 se obţine seria armonică prezentată mai înainte. Are loc afirmaţia:
pentru s<1 seria diverge iar pentru s>1 seria converge.
În adevăr s<1 termenii seriei armonice generalizate sunt mai mari decât
termenii corespunzători ai seriei armonice ei prin urmare şirul sumelor este nemărginit
şi deci seria diverge.
Pentru s>1 să punem s=1+t, t>0.
Şi în cazul acestei serii se poate observa că:
tssss n1
n1n
)1n2(1...
)1n(1
n1
=<+
+++
+
Făcând grupări asemănătoare ce cele precedente se obţin sumele:
50
...;71
61
51
41;
31
21,1 ssssss ++++
Cum fiecare grupă, exceptând-o pe prima, este mai mică decât ...21
41,
21
t2tt =
rezultă evident că suma seriei armonice generalizate este mai mică decât:
t
t2t
211
11...21
211
−+=+++
şi deci seria converge.
Definiţia 3.
Seria (A) ...a...aaa n211n
n ++++=∑∞
= este serie cu termeni pozitivi dacă an¥0
pentru n=1, 2, ....
În cazul seriei cu termeni pozitivi şirul sumelor parţiale este monoton
nedescrescător deoarece An+1=An+an+1¥An.
Rezultă deci că seria (A) este convergentă şi suma va fi finită dacă şirul An este
mărginit superior.
Problema precizării naturii unei serii cu termeni pozitivi poate fi soluţionată
dacă vom indica procedee care să asigure mărginirea de care am vorbit.
În acest sens mai întâi vom prezenta câteva teoreme numite teoreme de
comparaţie şi apoi unele condiţii suficiente (numite şi criterii) de convergenţă.
Teorema 1. (Prima teoremă de comparaţie)
Fie seriile cu termeni pozitivi (A) ∑∞
=1nna şi (B) ∑
∞
=1nnb .
Dacă începând cu un anumit rang fiecare termen al seriei (A) este mai mic
decât termenul corespunzător al seriei (B) atunci din convergenţa seriei (B) rezultă
convergenţa seriei (A) sau din divergenţa seriei (A) rezultă divergenţa seriei (B).
Demonstraţie: Putem presupune că an§bn pentru n=1, 2,... deoarece lăsând la
o parte un număr finit de termeni natura seriei se conservă. Fie din nou An, Bn sumele
parţiale corespunzătoare. Avem deci An§Bn.
Prin urmare dacă BnöB rezultă că An<B şi deci şirul sumelor parţiale este
mărginit adică seria (A) converge.
Se observă de asemenea că nemărginirea lui An implică nemărginirea lui Bn
adică divergenţa seriei (A) implică şi divergenţa seriei (B).
51
Teorema 2. (Teorema a doua de comparaţie)
Dacă există kbalim
n
n
n=
∞→, 0<k<¶ atunci din convergenţa seriei (B) pentru k<¶
urmează convergenţa seriei (A), iar din divergenţa seriei (A) pentru k>0 rezultă
divergenţa seriei (B).
Demonstraţie: Să presupunem că seria (B) converge şi fie k finit. Fie ε >0.
Atunci pentru n suficient de mare avem ε+< kba
n
n şi deci an<(k+ε)bn. Convergenţa
seriei (B) implică convergenţa serie ∑ + nb)k( ε . Urmează că din convergenţa seriei
(B) rezultă mărginirea şirului An şi deci convergenţa seriei (A).
Partea a doua rezultă imediat prin reducere la absurd.
Teorema 3. (Teorema a treia de comparaţie)
Dacă de la un anumit indice n este îndeplinită inegalitatea n
1n
n
1n
bb
aa ++ ≤ atunci
convergenţa seriei (B) asigură convergenţa seriei (A) iar divergenţa seriei (A)
divergenţa seriei (B).
Demonstraţie: Admitem, din, nou, că relaţia din enunţ are loc pentru n=1, 2,
.... Putem scrie:
1n
n
1n
n
2
3
2
3
1
2
1
2
bb
aa...
bb
aa,
bb
aa
−−
≤≤≤
Prin înmulţirea membru cu membru se obţine 1
n
1
n
bb
aa
≤ sau n1
1n b
baa ≤ pentru
n=1, 2, 3,....
Convergenţa seriei (B) asigură convergenţa seriei ∑∞
=1nn
1
1 bba şi prin urmare şi
seria ∑∞
=1nna , este convergentă şi analog şi partea a doua.
Alegând convenabil seriile (A) sau (B) se obţin condiţii suficiente de
convergenţă numite criterii de convergenţă.
Reamintim că seria geometrică ∑∞
=1n
nq este convergentă pentru 0<q<1 iar pentru
q=1 divergentă.
Să folosim drept serie (B) seria geometrică. Vom obţine criteriul lui Cauchy
sau criteriul rădăcinii. Fie nnn ac = .
52
Teorema 4.
Dacă de la un n suficient de mare cn§q unde 0<q<1 atunci seria (A) converge
iar dacă cn>1 seria (A) diverge.
Demonstraţie: Condiţia cn§qïan§qn şi deci teorema 3) asigură convergenţa
seriei (A).
Partea a doua asigură an¥1 şi deci comparând cu Ê1 rezultă divergenţa seriei
(A).
Observaţie. Dacă cclim nn=
∞→(finită sau nu) se poate obţine forma limită a
criteriului rădăcinii. Dacă c<1 seria (A) converge, dacă c>1 seria diverge iar dacă c=1
nu putem decide (se spune că avem situaţia de dubiu).
Comparând tot cu seria geometrică dar folosind teorema 3) se obţine criteriul
lui D’Alembert sau criteriul raportului.
Teorema 5.
Fie n
1nn a
ad += . Dacă pentru n suficient de mare dn§q, 0<q<1 atunci (A)
converge iar dacă dn¥1 urmează că seria (A) diverge.
Demonstraţie: În adevăr dacă bn=qn din teorema 3) rezultă imediat concluzia:
Observaţie: În forma limită: fie ddlim nn=
∞→
Dacă d<1 seria (A) converge, dacă d>1 seria (A) diverge iar pentru d=1 avem
caz de dubiu.
Un criteriu cu putere mai mare în privinţa înlăturării dubiului este criteriul lui
Raabe.
Teorema 6.
Fie ⎟⎟⎠
⎞⎜⎜⎝
⎛−= +
n
1nn a
a1nr
Dacă pentru n suficient de mare rn¥1, r>1 atunci seria (A) converge iar dacă
r<1 seria (A) diverge. Dacă r=1 dubiu.
Demonstraţia se găseşte în manualele indicate.
Observaţie: Pentru a obţine forma limită fie rrlim nn=
∞→.
Dacă r>1 seria (A) converge, dacă r<1 seria diverge iar dacă r=1 este dubiu.
Exemple:
Să se precizeze natura seriilor:
53
1. ∑ ⎟⎠⎞
⎜⎝⎛ −
∞
=1n
n2
n11
Aplicăm criteriul lui Cauchy 1e1clim,
n11c nn
n
n <=⎟⎠⎞
⎜⎝⎛ −=
∞→ deci seria este
convergentă.
2. ∑∞
=1n
n
!nx (x>0)
Folosind criteriul lui D’Alembert 0dlim,1n
xa
ad nnn
1nn =
+==
∞→
+ şi deci (∀ ) x
seria converge.
3. ∑ ⎟⎠⎞
⎜⎝⎛∞
=1n
n
nx!n , (x>0). Acum nn
n11
xd⎟⎠⎞
⎜⎝⎛ +
= şi exd =
Prin urmare:
1. dacă x<eïd<1 şi seria converge;
2. dacă x>eïd>1 seria diverge şi
3. dacă x=e caz de dubiu.
4. 1n2
1!!n2
!)!1n2(11n +
×∑−
+∞
=
Aplicând criteriul lui D’Alembert )1n2(n2
)1n2(d2
n +−
= rezultă d=1 şi deci dubiu.
Să aplicăm şi criteriul lui Raabe.
123r,
)1n2(21n6
)1n2(n2)1n2(1nr n
2
n >→+−
=⎟⎟⎠
⎞⎜⎜⎝
⎛+
−−=
şi deci seria este convergentă.
Nu toate seriile sunt cu termeni pozitivi. Seriile cu termenii pozitivi şi negativi
se numesc serii cu termeni oarecare iar seria a1-a2+a3-a4+...+(-1)n-1an+... (cu toţi ai>0)
se numeşte serie alternantă.
Pentru astfel de serii consideraţiile de mai sus nu mai sunt valabile (şirul
seriilor parţiale nu mai este, în general, monoton crescător).
Pentru serii cu termen oarecare are loc criteriul general de convergenţă a lui
Cauchy).
54
Teorema 7.
Condiţia necesară şi suficientă ca seria (A) să conveargă este ca pentru orice
ε>0 să existe N aşa încât pentru n>N.
ε<++=− +++ mn1nnmn a...aAA
să aibă loc pentru orice m=1, 2, 3, ...
Rezultă de aici că ε<+1na adică an+1ö0 când nö¶.
Acest criteriu general este nepractic.
Un pas în rezolvarea problemei determinării naturii unei serii oarecare îl face
teorema următoare:
Teorema 8.
Dacă ∑∞
=1nna este convergentă atunci ∑
∞
=1nna este convergentă.
Demonstraţie: Să folosim criteriul general de convergenţă a lui Cauchy. Fie
ε>0 şi ∑∞
=1nna convergentă; atunci n>N şi m=1, 2, 3,... avem ε<++ ++ mn1n a...a sau
ε<++<++ ++++ mn1nmn1n a....aa...a pentru n>N şi m=1, 2, ... şi deci ∑∞
=1nna este
convergentă.
Definiţia 4.
Seria ∑∞
=1nna pentru care seria ∑
∞
=1nna este convergentă se numeşte absolut
convergentă.
Pentru seriile cu termeni oarecare în cazul în care ∑∞
=1nna este convergentă iar
seria modulelor termenilor este divergentă se spune că seri ∑∞
=1nna este serie
semiconvergentă.
Iată un exemplu:
...51
41
31
21
11
−+−+−
este o serie convergentă în timp ce seria modulelor termenilor este o serie divergentă.
Teorema 9.
Dacă 0alim nn=
∞→ şi ...aa 21 > atunci seria este convergentă. (Fără
demonstraţie).
55
3.2. SERII DE FUNCŢII
Definiţia 5.
O serie de forma:
(1) ∑ ∈+++=∞
=0n
nn10
nn xa...xaaxa se numeşte serie de puteri (serie întreagă).
Numerele an se numesc coeficienţii seriei. Pentru anumite valori particulare ale lui x
se obţin serii numerice care pot fi convergente sau nu.
Mulţimea valorilor lui x în care seria considerată este convergentă se numeşte
domeniul de convergenţă al seriei. Acest domeniu poate fi finit sau nu. Pentru
determinarea acestui domeniu esenţială este:
Teorema 10.
Dacă există un număr A şi un x0 aşa fel ca Axa n0n < pentru orice n, atunci
seria ∑∞
=0n
nn xa este absolut convergentă pentru toate valorile lui x care verifică relaţia:
0xx <
Demonstraţie: Din convergenţa serie (1) pentru x0 urmează că orice sumă
parţială este mărginită şi deci şi Axa n0n < pentru un A oarecare. Fie x aşa fel ca
0xx < .
Putem scrie:
...xa...xaaxa nn10
0n
nn ++++=∑
∞
=
iar n
0
n0n
nn x
xxaxa = şi termenii sunt mai mici ca
termenii corespunzători ai progresiei geometrice cu raţia 1xx
0
< . Convergenţa seriei
geometrice asigură seriei (1) absoluta convergenţă în x<x0.
Condiţia 0xx < echivalentă cu 00 xxx <<− arată că în general domeniul
de convergenţă este un interval cu centrul în origine şi deci are forma (-R, R). Pentru
x=≤R seria poate converge sau nu, iar pentru Rx > seria este divergentă. Numărul R
astfel definit se numeşte raza de convergenţă a seriei (1).
Observaţie: Termenul „rază” se justifică suplimentar în cazul în care x şi
eventual an sunt numere complexe. Consideraţii analoge asigură convergenţa pentru
56
Rx < şi divergenţă pentru Rx > , cazurile de dubiu şi cele de „semi-convergenţă”
survenind când numărul complex x se plasează pe un cerc de rază R.
Pentru calculul razei de convergenţă observăm că aplicând criteriile lui
D’Alembert sau Cauchy se obţine:
nnn
alim1R
∞→
= sau 1n
n
n aalimR+
∞→=
Exemple.
Seria ∑∞
=0n
nx are raza de convergenţă R=1 şi deci intervalul de convergenţă (-1,
1), iar seria ∑∞
=0n
n
!nx are raza infinită şi deci este convergentă pe toată axa reală. Aflăm
de asemenea că ∑∞
=0n
nx!n are raza de convergenţă egală cu zero.
Dată o serie de puteri se pune în evidenţă posibilitatea definirii unei funcţii
definită pe domeniul de convergenţă şi cu valori în R. Se obişnuieşte să se spună că
această funcţie este suma seriei (1). Pentru a putea prezenta proprietăţi ale acestei
funcţii vom pune problema într-un cadru mult mai general.
În acest scop vom considera şirul de funcţii reale f1, f2,…, fn,… toate definite
pe domeniul D cu valori în R şi vom admite că pentru orice xœD şirul:
(2) f1(x), f2(x),…, fn(x),… are limită. Obţinem astfel o funcţie f: DöR pe care
o vom numi funcţia limită şi vom scrie:
(3) f(x)= )x(flim nn ∞→
Mai mult deci, dacă avem şirul de funcţii u1, u2,…, un,… suntem conduşi la
considerarea seriei:
(4) ∑∞
=
++++=1n
n21n ...)x(u...)x(u)x(u)x(u cu sumele parţiale date de fn(x)=
=u1(x)+u2(x)+…+un(x).
Dacă admitem că seria (4) converge în orice x din domeniul D de definiţie al
funcţiilor u1,…, un se obţine de fapt funcţia din (3).
De obicei interesează dacă anumite proprietăţi ale funcţiei f1, f2,… se transmit
funcţiei f.
57
Definiţia 6.
Dacă:
1. Şirul (2) are în domeniu D limita f(x).
2. Pentru fiecare ε>0 există N(ε) astfel încât pentru n>N(ε), ε<− )x(f)x(fn
să aibă loc pentru orice xœD. Vom spune că (2) converge uniform la f(x).
Exemplu.
Orice serie de puteri este uniform convergentă pe intervalul său de
convergenţă.
În adevăr: să notăm cu rn(x)=an+1xn+1+a2xn+2+… expresie numită restul seriei.
Fie ε>0 şi x un punct oarecare din intervalul de convergenţă (-R, R). Să arătăm
că putem determina un rang N(ε) independent de x, aşa fel ca pentru x>N(ε) restul
seriei să îndeplinească condiţia:
ε<+= ++ ...xa)x(r 1n
1nn
Să alegem un x0 din (-R, R) aşa fel ca:
Rxx 0 <<
Din convergenţa seriei ∑∞
=0n
n0n xa în (-R, R) restul rn(x0) îndeplineşte condiţia:
ε<+= ++ ...xa)x(r 1n
01n0n începând cu un anumit rang n>N(ε).
Dar n0n
nn xaxa < aşa că putem scrie ε<)x(rn de la rang n>N(ε) oricare ar fi
xœ(-R, R).
Teorema 11.
Dacă u1, u2, u3,…, un … sunt definite şi continui pe [a, b] şi seria (2) converge
uniform la f atunci şi f este continuă pe [a, b].
Demonstraţie: Fie x0œ[a, b] atunci din f(x)=fn(x)+rn(x) rezultă că f(x0)=
=fn(x0)+rn(x0). De aici decurge:
)x(r)x(r)x(f)x(f)x(f)x(f 0nn0nn0 ++−≤−
Fie ε>0, se poate fixa n aşa încât 3
)x(rnε
< (∀ ) xœD.
Atunci din continuitatea funcţiei fn rezultă că dacă δ<− 0xx decurge
3)x(f)x(f 0nn
ε<− şi deci în concluzie ε<− )x(f)x(f 0 , adică tocmai teorema.
58
Consecinţă: Dacă f este suma seriei ∑∞
=0n
nn xa unde xœ(-R, R), f este o funcţie
continuă.
Au de asemenea loc următoarele afirmaţii:
Teorema 12.
a) Dacă nnxxculim
0
=→
, n=1, 2,…, şi (2) converge uniform la f, atunci cclim nx=
∞→
şi c)x(flim0xx
=→
.
b) Dacă un, n=1, 2, 3,… este continuă pe [a, b] şi (2) converge uniform la f
atunci are loc:
∫ ∫ ∫ ++=b
a
b
a
b
a21 ...dx)x(udx)x(udx)x(f
c) Dacă un, n=1, 2,… sunt definite pe [a, b] şi există derivatele un’(x) şi (2)
converge uniform la f atunci:
∑∞
=
=1n
n )x('f)x('u
Consecinţă: O serie de puteri se poate deriva termen cu termen şi seria
obţinută este convergentă şi aceeaşi rază de convergenţă.
Observaţie: Fie seria f(x)=a0+a1x+a2x2+…+anxn+….
Conform consecinţei precedente putem deriva termen cu termen şi vom obţine
serii noi cu aceeaşi rază de convergenţă.
Procedând astfel obţinem:
f’(x)=a1+2a2x+…
f’’(x)=2a2+…
De unde făcând x=0:
f(0)=a0, f’(x)=a1, f’’(x)=2a2…
şi deci f se scrie:
(5) ...)0(f!n
x...)0(''f!2
x)0('f!1x)0(f)x(f )n(
n2
+++++=
numită seria lui Mac-Laurin. Deci o funcţie f indefinită derivabilă se dezvoltă în serie
de puteri după formula lui Mac-Laurin.
Definiţia 7.
O funcţie care admite o dezvoltare în serie de puteri se numeşte funcţie
analitică.
59
În practică alături de seria Mac-Laurin este folosită frecvent o serie care o
generalizează numită seria lui Taylor.
Vom prezenta mai întâi formula lui Taylor pentru un polinom de gradul n (mai
precis funcţia polinomială ataşată).
Fie f(x)=a0+a1x+a2x2+…+anxn. Dorim să găsim coeficienţii A0, A1,…, An aşa
ca:
f(x)=A0+A1(x-x0)+A2(x-x0)2+…+An(x-x0)n unde x0 este o valoare reală fixată.
Evident f(x0)=A0, f’(x0)=A1, f’’(x0)=2A2,…, f(n)(x0)=n!An
Prin urmare avem:
(6) )x(r)xx(!n
)x(f...)xx(!1
)x('f)x(f)x(f nn
00
)n(
00
0 +−++−+=
numită formula lui Taylor pentru funcţia f în jurul lui x0.
Observaţii:
1. Dacă x0=0 din (6) se găseşte (5).
2. Restul rn(x) are diverse expresii şi are importanţă esenţială în calculul
valorii f în punctul x.
O expresie des întâlnită pentru rest este formula lui Lagrange:
1n)1n(
n x)!1n(
)x(f)x(r ++
+×
=θ θœ(0, 1)
3. Dacă în (6) omitem rn se obţine o serie de forma:
∑∞
=
−0n
n0n )xx(a ,
!n)x(fa 0
)n(
n = numită serie Taylor.
Fiind tot o serie de puteri înseamnă că şi aici se pune problema determinării
razei de convergenţă.
Raţionând analog ca mai sus asupra seriei:
|C0|+|C1||x-a|+|C2||x-a|2+…+|Cn||x-a|n+…
se obţine R şi deci convergenţa va fi asigurată pentru |x-a|<R adică a-R<x<a+R şi deci
în acest caz domeniul de convergenţă este de forma: (a-R, a+R).
De exemplu, fie ∑∞
=
+
1nn
n
2n)1x( . Obţinem
21x
uu
limn
1n
n
+=+
∞→ şi deci seria
converge pentru 12
1x<
+ de unde –3<x<1.
Exemple de funcţii dezvoltate în serii de puteri.
60
1) Rx...!n
x...!2
x!1x1e
n2x ∈++++=
2) 1x...x...xx1x1
1 n2 <+++++=−
3) 1x...nx)1(...
3x
2xx)x1ln(
n1n
32
<+−+−+−=+ −
4) Rx...x)1n2(
1)1(...x!5
1x!3
1xxsin 1n21n253 ∈++
−+++−= ++
5) Rx...x)!n2(
1)1(...x!4
1x!2
11xcos n2n242 ∈+−+++−=
3.3. FUNCŢII DE MAI MULTE VARIABILE
1. Generalităţi
Foarte multe probleme practice şi mai ales din domeniul cercetării economice
şi sociale impun folosirea unor funcţii care depind de mai multe variabile. Funcţiile de
mai multe variabile se definesc analog cu funcţiile de o variabilă. Fie DÕRn. Orice
aplicaţie f: DöR se numeşte funcţie de n variabile. Vom nota ca de obicei imaginea
punctului (x1, x2,…, xn) prin f(x1, x2,…, xn), iar mulţimea D o vom numi domeniul de
definiţie.
Observaţie: Pentru înţelegerea celor ce urmează precizăm că domeniul D din
Rn poate fi dat în foarte multe moduri în funcţie de n şi de problemă. De cele mai
multe ori mulţimile de puncte se dau prin punctele unui paralipiped dreptunghic dat
prin condiţii de forma:
a1§x1§b1, a2§x2§b2,…, an§xn§bn
Pentru n=2 se obţine dreptunghiul; n=3 paralipipedul dreptunghic ş.a.m.d..
Dacă se exclud egalităţile se obţin domeniile deschise, analoagele intervalelor
deschise.
Pentru n=2 domeniul deschis se poate da prin a<x<b, c<y<d.
Numind vecinătatea unui punct n0(x10, x2
0,…, xn0) orice paralelipiped deschis
rezultă că o vecinătate simetrică sau cub se poate descrie prin: x10-δ<x1
0<x10+δ,…, xn
0-
δ<xn0<xn+δ (δ>0). Un punct M cu coordonatele satisfăcând condiţiile precedente se
numeşte punct interior vecinătăţii.
Domeniile şi vecinătăţile pot fi descrise şi cu ajutorul sferei n – dimensionale.
61
Dacă punctul (x1, x2,…, xn) îl notăm cu M atunci z=f(x1,…, xn) se notează cu
z=f(M) numindu-se chiar funcţie de punct.
Definiţia 8.
Se spune că funcţia f(x1,…, xn)=f(M) are limita A pentru cazul în care M tinde
la M0(a1,…, an) dacă oricum am alege M1, M2,…, Mp,… (Mi∫M0) un şir de puncte
care să conveargă la M0 şirul f(M1), f(M2),…, f(Mp),… converge la A.
Acest fapt se notează prin:
)M(flimA0MM→
= sau )x,...,x(flimA n1
ax........
ax
nn
1
→
→=
Deci pentru cazul a două variabile dată funcţia z=f(x, y) spunem că f(x, y) tinde
către o limită A, dacă pentru orice număr pozitiv ε, oricât de mic, putem determina un
număr δ, astfel încât pentru |x-a|<δ, |y-b|<δ să rezulte:
|f(x, y)-A|<ε
Vom nota ca şi mai sus prin A)y,x(flimbyax
=→→
Definiţia 9.
Se spune că funcţia z=f(M) este continuă în punctul M0 din D dacă:
)M(f)M(flim 0MM 0
=→
Observaţie: Atunci când scriem )b,a(f)y,x(flimbyax
=→→
vom considera că x şi y
tind independent unul de altul la a, b. Acest fapt este valabil în general.
Această observaţie se impune deoarece dacă îl fixăm pe y şi facem xöa
obţinem )y()y,x(flimax
ϕ=→
. Făcând apoi yöb se obţine )y,x(flimlim))y((limaxbyby →→→
=ϕ .
Analog putem obţine )y,x(flimlimbyax →→
. Asemenea limite se numesc limite iterate
(repetate) pe când cealaltă se numeşte limită dublă (globală).
În general limitele iterate nu sunt egale şi chiar dacă ar fi limita globală poate
nici să nu existe.
Are loc afirmaţia: dacă există limita globală )y,x(flimAbyax
→→
= şi pentru orice y
există limita în raport cu x, )y,x(flim)y(ax→
=ϕ atunci există limita iterată:
)y,x(flimlim))y((limaxbyby →→→
=ϕ
şi este egală cu limita globală.
62
Teorema 13.
Dacă z=f(x, y) este continuă atunci ea este continuă în raport cu fiecare
variabilă separat.
Demonstraţie: Considerăm cazul n=2. Dacă funcţia este continuă în (a, b)
atunci făcând y=b avem:
)b,a(f)b,x(flimax
=→
şi făcând x=a
)b,a(f)y,a(flimby
=→
.
Reciproc nu este adevărat. O funcţie continuă separat în raport cu x şi separat
în raport cu y nu este continuă ca funcţie de două variabile.
Aşa de exemplu: yxyx)y,x(f
+−
= este continuă ca funcţie de x în origine şi
1)y,x(flim0x
−=→
. Ca funcţie de y de asemenea şi 1)y,x(flim0x
=→
pe când în (0, 0)
f(x, y) nu există.
2. Derivate parţiale. Extreme.
Proprietăţile învăţate la funcţiile de o variabilă se extind la cazul a n –
variabile considerând formulări adecvate. Această analogie ne sugerează să punem şi
problema derivării.
Fie z=f(x, y) definită pe (D), ⎩⎨⎧
≤≤≤≤
11
11
byabxa
şi (a, b)œD.
Dacă privim y ca o constantă sau facem y=b, z devine o funcţie de o singură
variabilă. Derivata acesteia dacă există în x=a se numeşte derivata parţială în raport cu
x a funcţiei f(x, y) în (a, b).
Se notează cu xf∂∂ . Dacă xœ[a1, b1] şi x
f∂∂ există pentru orice x se obţine o
nouă funcţie, funcţia derivată parţială de ordinul unu în raport cu x.
Analog se poate proceda şi cu y.
Exemple:
Să se calculeze derivatele parţiale pentru:
1) f(x, y)=3axy-x3-y3,
2x3ay3xf
−=∂∂
2y3ax3yf
−=∂∂
63
2) 22
2
yxyx)y,x(f
+= ,
222
3
)yx(xy2
xf
+=
∂∂
222
222
)yx()yx(x
yf
+−
=∂∂
Pentru n=3, 4,… raţionându-se la fel se obţin derivate parţiale în raport cu
fiecare variabilă.
Derivatele parţiale fiind şi ele funcţii de mai multe variabile se pot defini
derivatele lor parţiale (dacă există). Se obţin astfel derivate parţiale de ordinul doi ale
funcţiei iniţiale iar derivarea lor ne va conduce la derivate parţiale de ordinul trei
ş.a.m.d.. Derivatele parţiale de ordin superior se obţin pe o cale inductivă
asemănătoare cu situaţia de la funcţiile de o singură variabilă.
Se obţin deci xyf,
yxf,
yf,
xf 22
2
2
2
2
∂∂∂
∂∂∂
∂∂
∂∂ . Ultimele două se numesc şi derivate
parţiale mixte. În general derivatele parţiale mixte nu coincid, egalitatea lor are loc
numai dacă acestea sunt continue ca funcţii de x şi y.
Fie f:(a, b)öR o funcţie derivabilă în x0œ(a, b).
După cum ştim urmărind să evaluăm creşterea unei funcţii f, de o variabilă am
fost conduşi la:
f(x)-f(x0)@(x-x0)f’(x0)
Adică în vecinătatea lui x0 Df@f’(x0) Dx unde Df=f(x)-f(x0) şi Dx=x-x0.
Am numit diferenţiala lui f în x0 aplicaţia T: RöR, T(h)=f’(x0)h. De obicei
aplicaţia T se notează df(x0). Prin urmare avem df(x0)(h)=f’(x0)h. Deoarece pentru
f(x)=x, f’(x0)=1 şi dx(x0)(h)=h pentru hœR rezultă:
df(x0)=f’(x0)μdx(x0)
Dacă f este derivabilă în orice x0œ(a, b) relaţia precedentă se scrie:
df=f’(x)μdx.
Dacă revenim la variaţia funcţiei f obţinem:
Df@f’(x0)μdx=df(x0)(Dx)
din care constatăm că diferenţa lui f aproximează variaţia lui f. Pentru cazul mai
multor variabile (de exemplu două) z=f(x, y) se introduce noţiunea de diferenţială
totală.
64
Definiţia 10.
Se numeşte diferenţială totală a funcţiei f expresia:
dyyfdx
xfdz
∂∂
+∂∂
=
Pentru trei variabile expresia corespunzătoare este asemănătoare. Ca şi la
funcţiile de o variabilă şi în cazul general al mai multor variabile diferenţiala totală se
poate folosi la aproximarea variaţiei funcţiei atunci când se trece de la un punct la un
punct vecin. Facem observaţia că dz este tot o funcţie de variabile x, y şi deci iarăşi ne
pune problema diferenţialei totale numită diferenţială totală de ordinul doi.
Presupunând existenţa derivatelor parţiale secunde şi egalitatea celor mixte avem:
22
222
2
2
2
222
2
2
2
dyy
fdxdyyxf2dx
xf
dydyy
fdxxyfdxdy
yxfdx
xf
dyyfddx
xfddy
yfdx
xfd)dz(dzd
∂∂
+∂∂
∂+
∂∂
=
=⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
+∂∂
∂+⎟⎟
⎠
⎞⎜⎜⎝
⎛∂∂
∂+
∂∂
=
=⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
+⎟⎠⎞
⎜⎝⎛∂∂
=⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
+∂∂
==
Inductiv putem defini dnz=d(dn-1z).
Observaţie: Se convine ca f din expresia diferenţialei de ordinul I să se scrie
în afara unei paranteze obţinându-se un binom formal care apoi se comportă chiar ca
un binom la diferite puteri. Avem:
fdyy
dxx
dz ⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
+∂∂
=
Atunci: fdyy
dxx
zd)2(
2⎟⎟⎠
⎞⎜⎜⎝
⎛∂∂
+∂∂
=
O formă analoagă întâlnim la 3, 4,…, n variabile. Dacă (x, y) este dintr-o
vecinătate a lui (a, b) atunci are loc egalitatea:
...)b,a(fd!n
1...)b,a(fd!2
1)b,a(df)b,a(f)y,x(f n2 +++++=
cunoscută sub numele de formula lui Taylor pentru funcţii de mai multe variabile.
(Fără demonstraţie).
Definiţia 11.
Se spune că punctul M0(x0, y0) este un punct de extrem pentru funcţia z=f(x, y)
dacă pentru o întreagă vecinătate a lui M0 diferenţa f(x, y)-f(x0, y0) îşi păstrează un
65
semn constant. Dacă f(x, y)-f(x0, y0)¥0 extremul se numeşte punct de minim, iar dacă
f(x, y)-f(x0, y0)§0 extremul se numeşte punct de maxim.
Teorema 14.
Dacă funcţia f(x, y) are un maxim sau minim în M0 acelaşi lucru este adevărat
şi pentru funcţia f(x0, y), f(x, y0).
Demonstraţie: Din f(x, y)-f(x0, y0)¥0 pentru orice M(x, y) din vecinătatea lui
M0(x0, y0) rezultă f(x, y0)-f(x0, y0)¥0 şi analog f(x0, y)-f(x0, y0)¥0 şi deci M0 este extrem
de acelaşi fel pentru funcţiile de o variabilă obţinute.
Consecinţă: În conformitate cu teorema lui Femat rezultă:
0)y,x(xf
00 =∂∂ şi 0)y,x(
yf
00 =∂∂
Anularea derivatelor parţiale de ordinul I într-un punct (x0, y0) reprezintă
condiţiile necesare dar nu şi suficiente de extrem.
Ca şi la funcţiile de o variabilă soluţiile sistemului format din anularea
derivatelor parţiale de ordinul I le vom numi puncte critice.
Să notăm cu 2
22
2
2
yfC,
yxfB,
xfA
∂∂
=∂∂
∂=
∂∂
= în (x0, y0)
Teorema 15.
Condiţia suficientă ca un punct critic să fie punct de extrem este ca B2-AC<0.
Dacă A<0 (C<0) punctul este de maxim iar dacă A>0 (C>0) punctul este de minim.
Demonstraţie: Fie M0(x0, y0) un punct critic. Urmează că (x0, y0) este soluţie
pentru sistemul:
0xf=
∂∂ 0
yf=
∂∂
Pentru M0 formula lui Taylor se scrie:
...)y,x(fd!2
1)y,x(df)y,x(f)y,x(f 002
0000 +++=
Deci ...)y,x(fd!2
1)y,x(df)y,x(f)y,x(f 002
0000 ++=−
Dar 0dy)y,x(yfdx)y,x(
xf)y,x(df 000000 =
∂∂
+∂∂
= . Deci rămâne:
...)y,x(fd!3
1)y,x(fd!2
1)y,x(f)y,x(f 003
002
00 ++=−
Semnul diferenţei va fi dat de semnul termenului d2f(x0, y0).
66
Dar:
22
222
2
2
002 dy
ffdxdy
yxf2dx
xf)y,x(fd
∂∂
+∂∂
∂+
∂∂
= şi deci:
22
222
2
2
002 dy
ffdxdy
yxf2dx
xf)y,x(fd
∂∂
+∂∂
∂+
∂∂
=
sau [ ]CBt2Atdy)y,x(fd 2200
2 ++= unde dydxt =
Dacă B2-AC<0 rezultă că trinomul din paranteză are rădăcini complexe şi deci
pentru orice t are semnul lui A şi deci concluzia din teoremă.
Observaţii:
1) Dacă dădeam factor pe dx2, rolul lui A era preluat de C.
2) A şi C au acelaşi semn deoarece B2-AC<0öB2<AC adică AC>0.
3) Dacă B2-AC>0 trinomul îşi schimbă semnul deci M0 nu este extrem.
4) Dacă B2-AC=0 nu putem decide (avem caz de dubiu).
Exemplu:
Fie z=x3+3xy3-15x-12y. Să se afle extremele lui z.
Formăm sistemul 0xz=
∂∂ , 0
yz=
∂∂ . Se obţine:
⎩⎨⎧
=−=−+
02xy05yx 22
cu soluţiile (1, 2), (2, 1), (-1, -2), (-2, -1).
Făcând derivatele secunde şi calculând A, B, C aflăm că primul punct nu este
punct de extrem, al doilea este minim şi ultimul punct de maxim.
Evident că teorema 15 are loc numai pentru două variabile. Pentru mai multe
variabile termenul din paranteză care decide semnul diferenţei nu mai este un trinom
ci un polinom care duce la studiul unor forme pătratice. Deci dacă forma pătratică
obţinută este pozitiv definită punctul critic este extrem, dacă este negativ definită este
extrem iar când nu este definită punctul nu este de extrem.
3. Metoda celor mai mici pătrate.
În numeroase cazuri suntem conduşi la situaţii în care trebuie să stabilim
corelaţia (legitatea) între două mulţimi de date care reprezintă cauze şi efecte într-un
anume cadru.
Fie datele:
67
x x1 x2… xn y y1 y2… yn
Admitem că funcţia căutată este de forma y=ax+b cu a, b necunoscuţi. Să
notăm cu baxy ii += şi cu iii yy −=ε . Numind εi – erorile datorate unor cauze
întâmplătoare putem spune că dorim a, b aşa fel ca erorile să fie cât mai mici. Practica
arată că acest lucru se realizează atunci când suma pătratelor erorilor este cât mai
mică. Fiind pozitive suma va fi minimă când pătratele vor fi cele mai mici. Deci aşa
se justifică numele metodei. Deci urmărim .minn
1i
2i =∑
=
ε Înlocuind se obţine:
( ) .minybax)b,a(En
1i
2ii =−+=∑
=
Formând sistemul:
0aE=
∂∂ , 0
bE=
∂∂
obţinem:
( )
( )⎪⎪⎩
⎪⎪⎨
⎧
=−+
=−+
∑
∑∞
=
=
1iii
n
1iiii
2i
0ybax
0yxbxax
sau
⎪⎪⎩
⎪⎪⎨
⎧
=⎟⎠
⎞⎜⎝
⎛+⎟
⎠
⎞⎜⎝
⎛
=⎟⎠
⎞⎜⎝
⎛+⎟
⎠
⎞⎜⎝
⎛
∑∑∑
∑∑∑
===
===
n
1ii
n
1i
n
1ii
n
1iii
n
1ii
n
1i
2i
yb1ax
yxbxax
Acest sistem ne dă a, b şi deci funcţia dorită. Dacă y=ax2+bx+c se procedează
pe o cale asemănătoare. În primul caz se mai spune că se face ajustarea datelor cu
ajutorul unei drepte iar al doilea cu ajutorul unei parabole.
Exemplu:
Să se facă ajustarea liniară a datelor:
x 0 1 2 3 4 5 y -4 -1 2 2 6 7
68
Vom aşeza datele pe coloane deoarece oferă avantaje:
xi yi xi2 xiyi
0 -4 0 0 1 -1 1 -1 2 2 4 4 3 2 9 6 4 6 16 24 5 7 25 35 15 12 55 68
În partea de jos sunt trecute sumele necesare. Sistemul va fi:
⎩⎨⎧
=+=+12b6a1568b15a55
cu soluţia 724b
3576a −== . Deci legătura căutată este dată de:
724x
3576y −=
3.4. ECUAŢII DIFERENŢIALE
Sunt foarte numeroase situaţiile când studiul unor probleme matematice,
economice, biologice, mecanice etc. ne conduce la rezolvarea unor ecuaţii în care
necunoscuta este o funcţie. O astfel de ecuaţie se numeşte ecuaţie funcţională. O
categorie aparte de ecuaţii funcţionale o constituie acele ecuaţii funcţionale în care
apar şi unele derivate ale funcţiei necunoscute, ecuaţii care se numesc ecuaţii
diferenţiale.
Prezentăm în continuare două exemple.
I. Modelul matematic al creşterii populaţiei.
Să considerăm populaţia unei specii, populaţiei la care nu se înregistrează nici
imigrări, nici emigrări. Dorim să punem în evidenţă o funcţie care, în raport cu timpul,
să descrie variaţia numărului de indivizi ai populaţiei. Fie y=f(t) această funcţie, ale
cărei valori reprezintă numărul de indivizi din colectivitate la momentul t. Având în
vedere interpretarea derivatei întâi a unei funcţii, urmează că derivata întâi a funcţiei f
în raport cu t (notată tot y’=f’(t)) ne oferă viteza de creştere a populaţiei. Pe de altă
parte însă, această viteză de creştere este, de fapt, tocmai diferenţa dintre rata
natalităţii şi rata mortalităţii, diferenţă care se poate admite că este proporţională cu
69
numărul indivizilor populaţiei, adică cu f(t). Prin urmare, funcţia căutată verifică o
condiţie de forma:
(*) y’=ky
unde k este constanta de proporţionalitate.
Aşadar, modelul matematic pe care l-am găsit este caracterizat de o ecuaţie
care conţine atât funcţia necunoscută y, cât şi prima sa derivată y’.
Din (*) obţinem kydtdy
= sau kdty
dy= , unde obţinem mai departe:
ln y=kt+c¨y(t)=ekt+c¨y(t)=ecekt
care nu este altceva decât legea lui Malthus de creştere a populaţiei.
II. Dobânda simplă continuă.
Orice proces economic antrenează numeroase fenomene, unele dintre ele
putând fi exprimate sub aspect cantitativ, valoric, prin utilizarea sumelor de bani. De
exemplu, procesul de producţie dintr-o unitate economică se poate urmări cu ajutorul
valorii realizate într-o anumită perioadă. Orice fenomen care se desfăşoară în timp şi
se exprimă în bani poartă numele de operaţie financiară, cantitatea de bani care
intervine în operaţia financiară respectivă numindu-se sumă. Dar este evident, pe de
altă parte, că suma intrată într-o operaţie financiară variază în timpul desfăşurării,
evoluţiei, fenomenului economic respectiv. Variaţia unei sume de bani într-un interval
de timp se numeşte dobândă, operaţia financiară respectivă numindu-se operaţie de
dobândă. Dacă se notează dobânda cu D, suma iniţială cu s, iar timpul cu t, modelul
matematic al reproducţiei simple ne arată că D=kst, factorul de proporţionalitate k
determinându-se imediat dacă luăm s=1, t=1. Obţinem deci k=D=constant, adică
factorul de proporţionalitate este dobânda sumei de o unitate bănească într-o unitate
de timp.
În practică se ia t=1 an, situaţie în care factorul de proporţionalitate se notează
cu i şi se numeşte dobândă unitară anuală, lucrându-se cu relaţia D=ist.
Aplicarea practică a operaţiei de dobândă simplă asupra sumei s este legată de
unitatea de timp, dobânda calculându-se la sfârşitul perioadei. O analiză atentă a
fenomenului ne arată însă că variaţia sumei nu are loc, de fapt, în mod discontinuu, şi
deci D este o funcţie de timpul t: D(t).
Pentru o variaţie infinitezimală a timpului obţinem deci:
(**) dD(t)=ksdt
70
(unde df notează diferenţiala funcţiei f, relaţia (**) fiind o ecuaţie în care necunoscuta
este funcţia D(t), şi care intervine în ecuaţie prin intermediul diferenţialei sale.
Definiţia 15.
O ecuaţie care în afara variabilei independente conţine şi o funcţie necuno-
scută şi derivate ale sale se numeşte ecuaţie diferenţială. De exemplu y’=x, y’’=0, etc..
A rezolva e ecuaţie diferenţială, înseamnă a găsi toate funcţiile y=f(x) care
satisfac ecuaţia dată.
Pentru primul exemplu C2xy
2
+= reprezintă mulţimea tuturor soluţiilor.
Soluţia indicată se numeşte soluţia generală. Dacă fixăm o valoare pentru C,
de exemplu C=0, vom obţine 2xy
2
= numită soluţie particulară.
În concluzie, ecuaţia diferenţială are forma F(x, y, y’,..., y(n))=0. Ordinul
maxim al derivatei care intervine în ecuaţie se numeşte ordinul ecuaţiei.
Ecuaţiile din exemplu au ordinul unu respectiv ordinul doi.
Să ne ocupăm puţin de ecuaţii diferenţiale de ordinul unu.
Forma generală a unei astfel de ecuaţii este:
(1) F(x, y, y’)=0 sau
(2) y’=f(x, y)
Dacă în (2) funcţia f nu depinde de y ecuaţia devine y’=f(x).
În acest caz determinarea soluţiilor ecuaţiei este de fapt problema
fundamentală a calculului integral, adică:
∫ +== c)x(dx)x(fy ϕ
unde j este o primitivă.
Deoarece rezolvarea unei ecuaţii diferenţiale, în general, presupune una sau
mai multe operaţii de integrare vom spune că integrăm ecuaţia diferenţială.
Aşa cum am văzut soluţia generală va conţine una sau mai multe constante.
Fiecare integrare va duce o nouă constantă şi evident că numărul lor este egal
cu ordinul ecuaţiei. De exemplu y’’=2 ne dă y’=2x+c1 şi apoi y=x2+c1x+c2.
Există câteva tipuri de ecuaţii care se pot integra cu uşurinţă.
1) Ecuaţii cu variabile separabile
Admitem că (2) f(x, y)=f1(x)μf2(y) adică y’=f1(x) μf2(y)
Dacă avem în vedere că dxdy'y = obţinem
dxdy = f1(x)μf2(y)
71
De aici: dx)x(f)y(f
dy1
2
=
Constatăm că am reuşit să separăm variabilele y şi x.
De aici integrarea se face membru cu membri, după care se află y.
Observaţie:
O ecuaţie de forma:
(3) P(x, y)dx+Q(x, y)dy=0
este şi ea în anumite cazuri cu variabile separabile.
În adevăr, dacă P(x, y)=P1(x)μP2(y) şi Q(x, y)=Q1(x)μQ2(y) obţinem imediat:
dx)x(Q)x(Pdy
)y(P)y(Q
1
1
2
2 −=
adică variabilele s-au separat.
Este normal ca o ecuaţie să se numească cu variabile separabile dacă este ca
cele din formulele (2), (3) de mai înainte.
Exemple:
1) xy'y = . Avem
xy
dxdy
= sau x
dxy
dy= , ln|x|=ln|x|+c1
Dacă c1=ln c obţinem |y|=c|x|.
2) Ecuaţia xyy’=1-x2 se scrie
dxxx1ydy
2−=
adică variabilele independente s-au separat.
În continuare:
∫ ∫ +−
= Cdxxx1ydy
2
2) Ecuaţii omogene.
Se spune că o ecuaţie de ordinul I este omogenă dacă se poate scrie în forma:
(4) ⎟⎠⎞
⎜⎝⎛=
xyf'y
Metoda de rezolvare constă în schimbarea funcţiei necunoscute y cu una nouă
dată de relaţia:
(5) txy= sau y=tx
De aici obţinem y’=t+t’x.
72
Înlocuind în (4) obţinem:
t+t’x=f(t)
Aceasta este o ecuaţie cu variabile separabile. În adevăr avem:
t’x=f(t)-t sau t)t(fxdxdt
−= care dă:
(6) x
dxt)t(f
dt=
−
Din (6) aflăm t şi apoi y=tx.
Exemplu: xy’=x+y
Împărţind cu x obţinem xy1'y += . Deci este omogenă. Să schimbăm funcţia y
cu t prin txy= sau y=txöy’=t+xt’. Avem t+xt’=1+t sau xt’=1.
Această ecuaţie cu variabile separabile se scrie dxx1dt = şi deci:
t=ln|x|+ln c
t=ln c|x| şi deci y=x ln c|x|.
3) Ecuaţii diferenţiale reductibile la ecuaţii omogene
Să considerăm o ecuaţie de forma:
(7) ⎟⎟⎠
⎞⎜⎜⎝
⎛++++
=pnymxcbyaxf'y cu c, p∫0
Cazul 1. Sistemul ⎩⎨⎧
=++=++
0pnymx0cbyax
are soluţie unică (x0, y0).
Atunci (8) ⎩⎨⎧
=++=++
0pnymx0cbyax
00
00
Schimbăm şi variabila x şi funcţia y prin relaţiile:
(9) ⎩⎨⎧
+=+=
0
0
yvyxux
Relaţii (8) dau: y’=v’ şi deci din:
( ) ( )( ) ( ) ⎟⎟
⎠
⎞⎜⎜⎝
⎛++++++++
=pyvnxumcyvbxuaf'v
00
00
Dacă avem în vedere (8) rămâne:
⎟⎠⎞
⎜⎝⎛
++
=nvmubvauf'v
73
În membrul doi sub f împărţim cu u şi avem:
⎟⎟⎟⎟
⎠
⎞
⎜⎜⎜⎜
⎝
⎛
+
+=
uvnmuvba
f'v
Aceasta arată că am ajuns la o ecuaţie omogenă care se integrează ca mai
înainte.
Cazul 2. Sistemul considerat nu este compatibil determinat.
Atunci 0nmba
= şi a=mk, b=nk.
Înlocuind în (7) obţinem:
⎟⎟⎠
⎞⎜⎜⎝
⎛++++
=pnymxcnkymkxf'y sau
(10) ( )⎟⎟⎠
⎞⎜⎜⎝
⎛++++
=pnymx
cnymxkf'y
Suntem conduşi să considerăm o funcţie nouă prin u=mx+ny.
Ea ne dă u’=m+ny sau n
m'u'y −= .
Înlocuind în (10) obţinem:
)u(gpuckuf
nm'u
=⎟⎟⎠
⎞⎜⎜⎝
⎛++
=−
Aceasta este ecuaţia cu variabile separabile deoarece se scrie: u’=m+ng(u) sau
dx)u(ngm
du=
+ care se integrează obişnuit şi ne dă u şi din relaţia de schimbare se
obţine z.
4) Ecuaţia diferenţială de ordinul I
O astfel de ecuaţie are forma:
(11) y’+P(x)y=Q(x)
În cazul în care Q(x)=0 se obţine o ecuaţie omogenă (fără termen liber)
ataşată.
Integrarea ecuaţie (11) se poate face cu ajutorul ecuaţiei omogene:
(12) y’+P(x)=0
Aceasta se scrie:
74
dxdy =-P(x) sau
ydy = -P(x)dx
care are variabilele separate şi ne dă ∫ +−= clndx)x(Pyln sau ∫=− dx)x(P
cey .
În ce le din urmă vom admite că y>0 şi formula devine:
(13) ∫=− dx)x(P
cey
Aceasta este soluţie generală a ecuaţiei (12).
Pentru a integra ecuaţia (11) căutăm o soluţie de forma:
(14) ( ) ∫=− dx)x(P
excy
unde c este o funcţie ce urmează a fi determinată.
Derivând (14) obţinem:
( ) ( ) ( ) ∫−∫=−− dx)x(Pdx)x(P
excxPex'c'y
Înlocuind în (11) avem:
( ) ( ) ( ) ( ) ( ) )x(QexcxPexcxPex'cdx)x(Pdx)x(Pdx)x(P=∫+∫−∫ −−−
sau
( ) )x(Qex'cdx)x(P=∫−
Aceasta are variabilele separabile şi ne dă:
( ) ( ) 1dx)x(P cdxexQxc +∫∫=
−
Cu aceasta avem soluţia generală a ecuaţiei (11) dacă înlocuim în (14).
Exemplu:
Să se integreze: 0y,xxy'y 2 >=+
Considerăm ecuaţia omogenă ataşată: 0xy'y =+ sau
xy
dxdy
−= sau x
dxy
dy−= .
Obţinem clnxlnyln +−= sau xcy = .
Pentru ecuaţia dată încercăm o soluţie de forma ( )xxcy = .
Derivând avem:
( ) ( )2x
xcxx'c'y −=
Înlocuind în ecuaţia propusă se ajunge la c’(x)=x3 care dă:
75
( ) 1
4
c4xxc +=
aşa dar soluţia generală este:
xc
4xy 1
3
+=
5) Ecuaţia lui Bernoulli
Această ecuaţie are forma:
(15) y’+P(x)y=Q(x)ya unde aœR\{0,1}
pentru a=0, 1 se obţin ecuaţii cunoscute.
Împărţind (15) cu ya obţinem:
)x(Qy
)x(Py
'y1 =+ −αα
Să considerăm o funcţie nouă dată de:
u=y1-a
Aceasta dă:
u’=(1-a)y-aμy’
Prin înlocuire mai sus avem:
)x(Qu)x(P1
'u=+
−α
Am ajuns la o ecuaţie liniară neomogenă care este cunoscută.
6) Ecuaţia diferenţială de ordinul doi cu coeficienţi constanţi
O astfel de ecuaţie are forma:
(16) y’’+py’+qy=f(x)
Dacă f(x) ecuaţia se numeşte omogenă şi neomogenă în caz contrar.
Şi aici se porneşte de la ecuaţia omogenă (17) y’’+py’+qy=0.
Pentru rezolvare se pleacă de la observaţia că mulţimea soluţiilor ecuaţiei (17)
este un subspaţiu liniar de dimensiunea doi în mulţimea funcţiilor derivabile.
Pentru a găsi soluţia generală este suficient să indicăm o bază. Pentru a găsi o
astfel de bază se procedează astfel. Presupunem că soluţia ecuaţiei (17) este forma
y=erx cu rœR. Atunci y’=rerx, y’’=r2erx.
Înlocuind în (17) obţinem:
erx[r2+pr+q]=0
Deci soluţia de mai sus trebuie să aibă r o rădăcină a ecuaţiei.
r2+pr+q=0
76
Deosebim trei cazuri:
1) Ecuaţia are rădăcini distincte r1, r2 atunci se obţin xr1
1ey = , xr2
2ey = care
sunt independente. Deci soluţia generală este: xr
2xr
121 ececy += c1, c2œR
2) Ecuaţia are rădăcinile r1, r1. În acest caz xr1
1ey = , xr2
1xey =
3) În fine, dacă rădăcinile sunt complexe r1=a+ib, r2=a-ib, atunci baza este
formată din:
y1=eaxcos bx şi y2=eaxsin bx
Rezolvarea ecuaţiei neomogene se face numai în cazuri speciale ale funcţie f.
Exerciţii:
1) Precizaţi natura seriilor:
a) ( )∑−∞
=1nn
2
1n2 b) ∑ ⎟⎠⎞
⎜⎝⎛
+−∞
=1n
n
1n21n c) 0a
n!na
1nn
n
>∑∞
=
2) Să se dezvolte 2x3x
1)x(f n +−= după puterile lui x+3.
3) Să se precizeze domeniul de convergenţă pentru seriile:
a) ∑∞
=1nnx!n
1 b) ∑+
∞
=1n
nx2n
n2 c) ( )( )∑
+−∞
=1nn
n
21n22x
4) Să se afle extremele funcţiilor:
a) z=(x-1)2+2y2
b) z=x2+xy+y2-2x-y
c) z=x4+y4-2x2+4xy-2y2
5) Folosind metoda celor mici pătrate să se stabilească corelaţia dintre datele:
a)
x -2 0 1 3 4 y 1 2 3 4 5
b)
x 1 2 3 4 5 y 7 1 1 2 5
6) Să se integreze ecuaţiile diferenţiale:
a) x2(y-1)y’+(x-1)y=0
b) xy’=xex+y+x
c) (2x+3y+1)y’+(x+2y-5)=0
77
d) 1xy'y −=
e) xxy
dxdy
=−
f) 2xy y’-y2+x=0
g) y’’-5y’+6y=0
h) y’’-4y’+4y=0
i) y’’+4y’+13y=0