96
Conférences de Conférences de méthodes méthodes Sébastien Rouillon Sébastien Rouillon 2009 2009

Conférences de méthodes

  • Upload
    millie

  • View
    37

  • Download
    0

Embed Size (px)

DESCRIPTION

Conférences de méthodes. Sébastien Rouillon 2009. 1. Systèmes linéaires. Cette conf. a pour but de vous apprendre à résoudre des systèmes d’équations linéaires de la forme : a 11 x 1 + a 12 x 2 + … + a 1n x n = b 1 (1) a 21 x 1 + a 22 x 2 + … + a 2n x n = b 2 (2) … - PowerPoint PPT Presentation

Citation preview

Page 1: Conférences de méthodes

Conférences de Conférences de méthodesméthodes

Sébastien RouillonSébastien Rouillon20092009

Page 2: Conférences de méthodes

1. Systèmes linéairesCette conf. a pour but de vous apprendre

à résoudre des systèmes d’équations linéaires de la forme :

a11 x1 + a12 x2 + … + a1n xn = b1 (1)a21 x1 + a22 x2 + … + a2n xn = b2 (2)…an1 x1 + an2 x2 + … + ann xn = bn (n)

Page 3: Conférences de méthodes

1. Systèmes linéairesRemarques :• On se contentera de donner la

méthode de résolution dans le cas simple où la solution du système existe et est unique ;

• Autrement dit, le système comporte autant d’équations que d’inconnues et les équations sont linéairement indépendantes.

Page 4: Conférences de méthodes

1. Systèmes linéairesTerminologie :• Les "xi" sont des nombres à

déterminer, appelés les inconnues.

• Les "aij" et les "bi" sont des nombres donnés, appelés les paramètres.

Page 5: Conférences de méthodes

1. Systèmes linéairesLa méthode consiste à utiliser quelques règles

simples, de façon systématique, pour transformer le système initial sous une forme triangulaire supérieure :

11 x1 + 12 x2 + … + 1n xn = 1 (1) 22 x2 + … + 2n xn = 2(2)…nn xn = n (n)

Page 6: Conférences de méthodes

1. Systèmes linéairesRemarque :• Si le système de départ a une solution

unique, il est toujours possible, en utilisant de façon systématique les règles proposées, de parvenir à cette forme triangulaire supérieure.

Page 7: Conférences de méthodes

1. Systèmes linéairesUne fois qu’on parvient à cette forme

triangulaire supérieure, on trouve la solution en remontant le système comme suit :

(n) La n-ième ligne permet de trouver xn ;(n-1) En remplaçant xn par la valeur

obtenue dans la (n-1)-ième ligne, on trouve xn-1 ;

(…) Et ainsi de suite jusqu’à la 1-ière ligne…

Page 8: Conférences de méthodes

1. Systèmes linéairesLes règles suivantes permettent d’obtenir

le système triangulaire :

Règle 1. On ne change pas la solution d’un système linéaire en modifiant l’ordre des lignes.

Règle 2. On ne change pas la solution d’un système linéaire en modifiant l’ordre des inconnues.

Page 9: Conférences de méthodes

1. Systèmes linéairesRègle 3. On ne change pas la solution d’un

système linéaire en multipliant les membres de gauche et de droite d’une ligne par un nombre non nul quelconque.

Règle 4. On ne change pas la solution d’un système linéaire en ajoutant ou en soustrayant deux lignes.

Page 10: Conférences de méthodes

1. Systèmes linéairesLes règles 1 et 2 permettent de permuter

l’ordre des lignes et des inconnues du système comme cela nous arrange (en particulier, pour faciliter les calculs à venir).

Les règles 3 et 4 permettent d’écrire, en n-1 étapes, le système sous forme triangulaire supérieure.

Page 11: Conférences de méthodes

1. Systèmes linéaires1-ière étape (où l’on utilise la 1-ière

inconnue et la 1-ière ligne) :• On multiplie chaque ligne (2) à (n) par un

nombre choisi de manière à ce que la 1-ière inconnue soit affectée du même coefficient que dans la 1-ière ligne ;

• On remplace ensuite chaque ligne (2) à (n) par sa différence avec la 1-ière ligne.

Au final, la 1-ière inconnue n’apparaît plus dans les lignes (2) à (n) .

Page 12: Conférences de méthodes

1. Systèmes linéaires2-ième étape (où l’on utilise la 2-ième

inconnue et la 2-ième ligne) :• On multiplie chaque ligne (3) à (n) par un

nombre choisi de manière à ce que la 2-ième inconnue soit affectée du même coefficient que dans la 2-ième ligne ;

• On remplace ensuite chaque ligne (3) à (n) par sa différence avec la 2-ième ligne.

Au final, la 2-ième inconnue n’apparaît plus dans les lignes (3) à (n).

Page 13: Conférences de méthodes

1. Systèmes linéairesEt ainsi de suite…

Au terme des n–1 étapes, où l’on a utilisé à tour de rôle les lignes (1), (2), …, (n-1), le système obtenu a une forme triangulaire supérieure.

Page 14: Conférences de méthodes

2. OptimisationCette conf. a pour but de vous

apprendre à résoudre des problèmes d’optimisation de la forme :

Choisir xpour maximiser f(x)

sous g(x) = 0.

Page 15: Conférences de méthodes

2. OptimisationTerminologie :• La variable x est appelée variable de

décision ;• La fonction f(x) est appelée fonction

objectif ;• La fonction g(x) est appelée contrainte.

Page 16: Conférences de méthodes

2.1 DérivationSoit f(x) une fonction quelconque.On suppose que cette fonction est dérivable

et on note f’(x) sa dérivée.

Par définition : f(x + e) – f(x)f’(x) = lime -> 0 ---------------- e

Page 17: Conférences de méthodes

2.1 DérivationFormulaire (dérivées utiles en économie de

l’environnement) :f(x) -> f’(x) a -> 0 x -> 1 x² -> 2x 1/x -> -1/x2

ln(x) -> 1/x ex -> ex

Page 18: Conférences de méthodes

2.1 DérivationSoient :

f(x), g(x) = deux f° dérivables ;a = un nombre.

Les f° suivantes sont dérivables :a f(x), f(x) + g(x),f(x) g(x), f(x)/g(x).

Pour les dériver, on utilise 4 règles.

Page 19: Conférences de méthodes

2.1 DérivationRègle 1. La dérivée du produit d’une

fonction par un nombre est le produit de sa dérivée par le même nombre : a f(x) -> a f’(x)

Règle 2. La dérivée d’une somme de deux fonctions est la somme des dérivées des deux fonctions : f(x) + g(x) -> f’(x) + g’(x)

Page 20: Conférences de méthodes

2.1 DérivationRègle 3. La dérivée du produit de

deux fonctions est donnée par :f(x) g(x) -> f’(x) g(x) + f(x) g’(x)

Règle 4. La dérivée du quotient de deux fonction est donnée par :f(x)/g(x) -> [f’(x) g(x) - f(x) g’(x)]/[g(x)]2

Page 21: Conférences de méthodes

2.2 Optimisation libreCommençons par étudier le cas

simple où il n’y a pas de contrainte sur la variable de décisions.

Le problème devient alors simplement :

Choisir xpour maximiser f(x).

Page 22: Conférences de méthodes

2.1 Optimisation libreOn sait que le signe de la dérivée

f’(x) donne le sens de variation de la fonction en x.

f’(x) > 0 ->f est croissante en x ;f’(x) = 0 -> f est constante en x ;f’(x) < 0 ->f est décroissante en x.

Page 23: Conférences de méthodes

2.2 Optimisation libre

x

y

f(x)

f’(x°) = 0 Si f est maximum en x°, sa courbe repré-sentant est hori-zontale en ce point.Alors, sa dérivée, quimesure la croissance de f en x, est nulle.

Page 24: Conférences de méthodes

2.2 Optimisation libreProposition : Si la fonction f(x) atteint

un maximum en x°, alors f’(x°) = 0.

Preuve : Si f’(x°) > 0, f est croissante en x°. Donc, si e > 0, f(x° + e) > f(x°) ! Si f’(x°) < 0, f est décroissante en x°. Donc, si e < 0, f(x° - e) > f(x°) !

Page 25: Conférences de méthodes

2.2 Optimisation libreRemarques : La condition donnée

est (s)uffisante, pas (n)écessaire :

(s) Si f(x) est maximum en x°, alorsf’(x°) = 0.

(n) Si f’(x°) = 0, f(x) peut ne pas être maximum en x° (Cf. Fig. préc.).

Page 26: Conférences de méthodes

2.3 Optimisation sous contrainte

Revenons maintenant aux problèmes d’optimisation de la forme :

Choisir xpour maximiser f(x)

sous g(x) = 0.

Page 27: Conférences de méthodes

2.3 Optimisation sous contrainte

La différence est qu’on ne peut plus choisir x librement, mais que l’on doit choisir x dans l’ensemble des valeurs telles que g(x) = 0.

Selon les cas, cela peut changer ou non le résultat du problème.

Page 28: Conférences de méthodes

2.3 Optimisation sous contrainte

x

y

f’(x°) = 0 Un exemple où la contrainte g(x) = 0 ne change pas la solution du problème.La solution du problème vérifiera alors f’(x°) = 0.

g(x)

g(x) = 0

f(x)

. .

Page 29: Conférences de méthodes

2.3 Optimisation sous contrainte

x

y

f(x)

f’(x°) <> 0Un exemple où la contrainte g(x) = 0 change la solution du problème.La solution du problème vérifiera alors f’(x°) <> 0. (Ici, f’(x°) < 0).

g(x)

g(x) = 0

. .

Page 30: Conférences de méthodes

2.3 Optimisation sous contrainte

Pour trouver la solution d’un problème d’optimisation sous contrainte, on construit la fonction :

L(x) = f(x) – a g(x),en soustrayant à la fonction objectif f(x), la fonction contrainte g(x), multipliée par un coefficient a.

Page 31: Conférences de méthodes

2.3 Optimisation sous contrainte

Terminologie :• La fonction L est appelée lagrangien;• Le paramètre a est appelée

multiplicateur (de Lagrange).

Remarque : Le paramètre a est une inconnue.

Page 32: Conférences de méthodes

2.3 Optimisation sous contrainte

On a le théorème suivant.

Théorème : Une solution x° du problème d’optimisation vérifie les conditions :

L’(x°) = f’(x°) – a g’(x°) = 0,g(x°) = 0.

Page 33: Conférences de méthodes

3. Théorie de JeuxCette conf. a pour but de vous présenter

quelques notions de base en théorie des jeux.

Pour faciliter la compréhension, on prendra des exemples classiques.

Page 34: Conférences de méthodes

3.1 Jeux sous forme stratégique

Définition : On définit un jeu sous forme stratégique, en donnant un ensemble de joueurs N = {1, …, n}, un ensemble de stratégies si Є Si, pour chaque joueur i, et une fonction d’utilité ui(s1, …, sn), définie pour tout profil de stratégies (s1, …, sn), pour chaque joueur i.

Page 35: Conférences de méthodes

3.1 Exemples : Le dilemme du prisonnier

On pose :N = {1, 2} = les deux voleurs présumés ;si Є Si = {(D)énoncer, (T)aire} ;

(s1, s2) (D, D) (T, D) (D, T) (T, T)u1(s1, s2) -2 -3 1 0u2(s1, s2) -2 1 -3 0

Page 36: Conférences de méthodes

On pose :N = {1, 2} = les deux firmes ;si ≥ 0 = la quantité offerte ;ui(s1, s2) = P(s1 + s2) si – Ci(si),

où :P(q) = la fonction de demande inverse ;Ci(qi) = le coût de production de i.

3.1 Exemples : Le duopole de Cournot

Page 37: Conférences de méthodes

3.2 Concepts de solution d’un jeu

Définition : Un profil stratégique (s1*, …, sn*) est une solution d’un jeu si on a de bonnes raisons de penser que des joueurs rationnels, guidés par leur intérêt personnel, le choisiraient.

Page 38: Conférences de méthodes

3.2.1 Stratégie dominante

Définition : On dit qu’une stratégie si* d’un joueur est une stratégie dominante si, quel que soit le profil des stratégies (s1, …, si-1, si+1, … sn) des autres joueurs, le gain du joueur est maximum lorsqu’il joue cette stratégie.

Page 39: Conférences de méthodes

3.2.1 Stratégie dominante

Définition : On dit qu’un jeu possède un équilibre en stratégies dominantes s’il admet un profil stratégique (s1*, …, sn*), composée uniquement de stratégies dominantes des joueurs.

Page 40: Conférences de méthodes

3.2.1 Stratégie dominante

Ex. 1. Dilemme du prisonnier.N = {1, 2}. Si = {(D)énoncer, (T)aire}.(s1*, s2*) = (D, D) est un éq. en strat. dom.

Joueur 2 (D) (T)(D) (-2, -2) (1, -3)

Joueur 1(T) (-3, 1) (0, 0)

Page 41: Conférences de méthodes

3.2.1 Stratégie dominante

Il y a de fortes présomptions pour croire que, si un joueur a une stratégie dominante, il la jouera.

Donc, si un jeu admet un équilibre en stratégies dominantes, on le considérera comme une solution du jeu.

Mais, rares sont les jeux qui admettent des équilibres en stratégies dominantes.

Page 42: Conférences de méthodes

3.2.1 Stratégie dominante

Ex. 2. Guerre des prix.N = {1, 2}. Si = {p ; P}.

Joueur 2 (p) (P)

(p) (1, 1) (3, 0)Joueur 1

(P) (0, 3) (2, 2)

Page 43: Conférences de méthodes

3.2.1 Stratégie dominante

Ex. 3. Guerre des sexes.N = {♂, ♀}. Si = {(F)oot ; (S)olde}.

Joueur ♀ (F) (S)(F) (2, 1) (0, 0)

Joueur ♂(S) (0, 0) (1, 2)

Page 44: Conférences de méthodes

3.2.2 Eq. de NashDéfinition : On dit qu’une stratégie si*

d’un joueur i est une meilleure réponse de ce joueur au profil stratégique (s1, …, si-1, si+1, … sn) des autres joueurs, si elle maximise le gain du joueur i, lorsque les autres jouent les stratégies en question.

Page 45: Conférences de méthodes

3.2.2 Eq. De NashDéfinition : On dit qu’un jeu possède un

équilibre de Nash s’il admet un profil stratégique (s1*, …, sn*), tel que chaque stratégie individuelle de ce profil est une meilleure réponse aux stratégies des autres joueurs.

Page 46: Conférences de méthodes

3.2.1 Stratégie dominante

Ex. 1. Guerre des prix. N = {1, 2}. Si = {p ; P}.(s1*, s2*) = (p, p) est un équilibre de Nash.

Joueur ♀ (p) (P)(p) (1, 1) (3, 0)

Joueur ♂(P) (0, 3) (2, 2)

Page 47: Conférences de méthodes

3.2.2 Eq. de NashEx. 2. Guerre des sexes.N = {♂, ♀}. Si = {(F)oot ; (S)olde}.(s1*, s2*) = (F, F) et (S, S) sont 2 éq de Nash.

Joueur ♀ (F) (S)(F) (2, 1) (0, 0)

Joueur ♂(S) (0, 0) (1, 2)

Page 48: Conférences de méthodes

3.2.2 Eq. de NashEx. 3. Duopole de Cournot.La demande sur le marché est :

P(q) = 2 – q.La fonction de coût des deux firmes est :

C1(q) = C2(q) = q.

Page 49: Conférences de méthodes

3.2.2 Eq. de NashEtant donné s2, la firme 1 choisit son offre s1

pour maximiser son profit :u1(s1, s2) = (1 – s1 – s2) s1.

La solution de ce problème vérifie (Cf. 2. Optimisation) :∂u1/∂s1 = 1 – 2 s1 – s2 = 0.

Il s’ensuit la f° de meilleure réponse de 1 : s1 = (1 – s2)/2.

Page 50: Conférences de méthodes

3.2.2 Eq. de NashEtant donné s1, la firme 2 choisit son offre s2

pour maximiser son profit :u2(s1, s2) = (1 – s1 – s2) s2.

La solution de ce problème vérifie (Cf. 2. Optimisation) : ∂u2/∂s2 = 1 – s1 – 2 s2 = 0.

Il s’ensuit la f° de meilleure réponse de 2 :s2 = (1 – s1)/2.

Page 51: Conférences de méthodes

3.2.2 Eq. de NashUn profil stratégique (s1*, s2*) est un équilibre

de Nash du jeu si chaque stratégie est une meilleure réponse à la stratégie de l’autre.

Le profil stratégique (s1*, s2*) vérifie donc :s1* = (1 – s2*)/2.s2* = (1 – s1*)/2.

On trouve s1* = s2* = 1/3 (Cf. 1. Résolution des systèmes linéaires).

Page 52: Conférences de méthodes

3.2.2 Eq. de NashEx. 4. Jeu de lobbying. N = {E, I}. si ≥ 0.Un lobby écologiste E et un lobby industriel I

cherchent à influencer une décision politique sur l’implantation d’une nouvelle usine. Une ouverture de l’usine :

• occasionnerait un dommage D aux membres du lobby écologiste E ;

• assurerait un bénéfice B aux membres du lobby industriel I.

Page 53: Conférences de méthodes

3.2.2 Eq. de NashEx. 4. Suite.Pour influencer la décision, chaque lobby

dépense une somme si (i = E, I) (financement de campagne électorale et/ou pots de vin).

La probabilité que les politiques votent pour l’ouverture de l’usine est alors :P = sI/(sE + sI).

Déterminer l’éq. de Nash de ce jeu.

Page 54: Conférences de méthodes

3.3 Jeux sous forme extensive

Certaines interactions stratégiques sont, par nature, séquentielles.

Autrement dit, pour les décrire précisément, il faut donner :

• l’ordre dans lequel les joueurs jouent ;• les actions qu’ils peuvent jouer à

chaque moment.

Page 55: Conférences de méthodes

3.3.1 Représentation d’un jeu sous forme

extensiveDans ce cas, une description sous forme

stratégique du jeu est malaisée.On lui préférera une représentation sous

forme extensive, reposant sur la construction d’un arbre, spécifiant l’ordre des joueurs, leurs actions et les conséquences de leurs actions.

Page 56: Conférences de méthodes

Ex. 1. Un jeu quelconque. Forme normale Forme extensive N = {1, 2} S1 = {ac ; ad ; bc ; bd} S2 = {A ; B} u1(s1, s2) = … u2(s1, s2) = …

3.3.1 Représentation d’un jeu sous forme

extensive

oa

b

(3, 0)1

oA

B(2, 2)

2

oc

d

(4, 1)1

(0, 3)

Page 57: Conférences de méthodes

Terminologie : Nœuds et Sous-jeux.

3.3.1 Représentation d’un jeu sous forme

extensive

oc

d

(4, 1)1

(0, 3)Sous-jeu 1

Sous-jeu 2Sous-jeu 3

oA

B(2, 2)

2

oa

b

(3, 0)1

Nœud

initial

Nœud

final

2-ièmenœud

Page 58: Conférences de méthodes

3.3.2 Récurrence à rebours

Le principe de résolution d’un jeu sous forme extensive utilise le principe de la récurrence à rebours.

Concrètement, il s’agit de partir de la fin de l’arbre, en résolvant chaque sous-jeu final, puis en lui substituant les gains associés.

On répète l’opération jusqu’à atteindre le nœud initial.

Page 59: Conférences de méthodes

Ex. 1. Suite.Dans le sous-jeu 1,le joueur 1 choisit c, pourobtenir un gain égal à 4.(En choisissant d, son gainserait égal à 0).On remplace donc lesous-jeu 1 par le résultat (4, 1).

3.3.2 Récurrence à rebours

oc

d

(4, 1)1

(0, 3)Sous-jeu 1

Page 60: Conférences de méthodes

Ex. 1. Suite.Dans le sous-jeu 2,le joueur 2 choisit B, pourobtenir un gain égal à 2.(En choisissant A, son gainserait égal à 1).On remplace donc lesous-jeu 2 par le résultat (2, 2).

Sous-jeu 2

oA

B(2, 2)

2

(4, 1)

3.3.2 Récurrence à rebours

Page 61: Conférences de méthodes

Ex. 1. Suite.Dans le sous-jeu 3,le joueur 1 choisit a, pourobtenir un gain égal à 3.(En choisissant b, son gainserait égal à 2).On remplace donc lesous-jeu 3 par le résultat (3, 0).

Sous-jeu 3

3.3.2 Récurrence à rebours

oa

b

(3, 0)1

(2, 2)

Page 62: Conférences de méthodes

Ex. 1. Suite.Finalement, la solution du jeu est :• Le joueur 1 joue a au nœud initial ;• Le joueur 2 joue B au second nœud ;• Le joueur 1 joue c au nœud final.Le profil stratégique d’équilibre est (ac, B).Les gains des joueurs 1 et 2 sont respectivement 3 et 0.

3.3.2 Récurrence à rebours

Page 63: Conférences de méthodes

Ex. 1. Suite.On remarque que les 2-ième et3-ième (final) nœuds nesont jamais atteints. Ilssont dits hors-équilibre.Toutefois, pour résoudrele jeu, les joueurs ont besoinde savoir ce qu’il s’y passerait si…

3.3.2 Récurrence à rebours

oa

b

(3, 0)1

oA

B(2, 2)

2

oc

d

(4, 1)1

(0, 3)

Page 64: Conférences de méthodes

Ex.1. Jeu d’entrée 1.3.3.3 Exercices

oentre

n’entre pas

E

(0, 3)

ocède

ne cède pas

M

(-1, 0)

(1, 2)

Page 65: Conférences de méthodes

Ex 2. Jeu d’entrée 2.3.3.3 Exercices

ocède

ne cède pas

Mo

entre

n’entre pas

E

(3, 0)

(2, 1)

oentre

n’entre pas

E

(3, 0)

(0, -1)

Page 66: Conférences de méthodes

Ex. 3. Jeu de négociation.3.3.3 Exercices

o x1 ooui

non

(x, 1 – x)2

o y2 ooui

non

(1 – y, y)1

(0, 0)

Page 67: Conférences de méthodes

Ex. 4. Le jeu du mille-pattes (Rosenthal).3.3.1 Exemples

…o AD

(1, 1)

1 o ad

(0, 3)

2 o AD

(8, 8)

1 o ad

(7, 11)

2 (10, 10)

Page 68: Conférences de méthodes

3.4 Jeux coopératifsLa théorie des jeux coopératifs postulent

que les joueurs peuvent s’organiser en coalitions, au sein desquelles :

• Les actions individuelles sont décidées en commun, pour maximiser les gains des joueurs coalisés ;

• Les engagements individuels pris dans une coalition sont contraignants (contrats, lois, sanctions, etc.).

Page 69: Conférences de méthodes

3.4 Jeux coopératifsSous ces hypothèses, les questions

pertinentes sont :• Quelles coalitions vont se former ?• Comment les individus vont se répartir

les gains qu’ils obtiennent en coopérant entre eux ?

Page 70: Conférences de méthodes

3.4 Jeux coopératifsDéfinition : On définit un jeu sous forme

caractéristique, en donnant un ensemble de joueurs N = {1, 2, …, n} et en associant à chaque sous-ensemble de joueurs S de N, appelé coalition, un nombre v(S), représentant le gain maximum que les joueurs de S peuvent réaliser ensemble en décidant une stratégie commune.

Page 71: Conférences de méthodes

3.4 Jeux coopératifsExemple. N = {1, 2, 3}.Seuls, les joueurs ne gagnent rien.En formant des coalitions de 2, les deux

membres gagnent 1 (à deux).En coopérant tous, ils gagnent 2 (à trois).

v({1}) = v({2}) = v({3}) = 0 ; v({1, 2}) = v({1, 3}) = v({2, 3}) = 1 ; v({1, 2, 3}) = 2.

Page 72: Conférences de méthodes

3.4 Jeux coopératifsL’exemple précédent vérifie la propriété de

super-additivité. Si deux coalitions S et T sont distinctes, alors v(S) + v(T) ≤ v(S U T).

Autrement dit, un profil d’actions décidé collectivement (par les membres de S et de T réunies), donne un gain au moins aussi grand que deux plans d’actions décidés séparément (par les membres de S, d’un coté, et de T, de l’autre).

Page 73: Conférences de méthodes

3.4 Jeux coopératifsL’hypothèse de super-additivité implique que

la coopération est rentable.On est donc conduit à se demander à quelle

condition la grande coalition N devrait se former.

A priori, une coalition se forme si ses membres y ont intérêt. Donc, si leur gain au sein de cette coalition est plus grand que le gain qu’ils pourraient acquérir dans toutautre coalition.

Page 74: Conférences de méthodes

3.4 Jeux coopératifsDéfinition : On dit que le jeu est à utilité

transférable si toute coalition S peut distribuer le gain v(S) entre ses membres de toutes les manières possibles telles que ∑iєS ui = v(S), où ui est le gain de i.

Page 75: Conférences de méthodes

3.4.1 Le cœur d’un jeuDéfinition : On appelle cœur d’un jeu sous

forme caractéristique, toute répartition (u1*, …, un*) du gain v(N) de la grande coalition, telle qu’aucune coalition S ne peut distribuer :

• à tous ses membres, un gain au moins aussi grand ;

• à (au moins) un de ses membres, un gain plus important.

Page 76: Conférences de méthodes

3.4.1 Le cœur d’un jeuFormellement, le cœur vérifie :Si (u1*, …, un*) appartient au cœur du jeu,alors :

∑iєN ui* = v(N).∑iєS ui* ≥ v(S), pour tout S.

Page 77: Conférences de méthodes

3.4.1 Le cœur d’un jeuCette figure représente lesrépart° possibles des gainsdes coalitions de {1, 2, 3}.Par ex., P12 est l’ens.des (u1, u2) tels queu1 + u2 = v({1, 2}).Le cœur du jeu est lapartie de P123 au-dessus de P12, P13 et P23.

O u1

u2

u3

P12

P23

P123

P13

Page 78: Conférences de méthodes

3.4.1 Le cœur d’un jeuLe cœur d’un jeu peut être vide, même si

l’hyp. de super-additivité est vérifiée.

Ex. v({1}) = v({2}) = v({3}) = 0 ;v({1, 2}) = v({1, 3}) = v({2, 3})

= 1 ;v({1, 2, 3}) = x.

Page 79: Conférences de méthodes

3.4.1 Le cœur d’un jeuSi (u1, u2, u3) appartient au cœur du jeu

on doit avoir :u1 + u2 ≥ 1, u1 + u3 ≥ 1 et u2 +

u3 ≥ 1.

En additionnant membres à membres ces trois inégalités, on obtient :

u1 + u2 + u3 ≥ 3/2.

Page 80: Conférences de méthodes

3.4.1 Le cœur d’un jeuOn en conclut que si x < 3/2, le cœur du

jeu est vide.

Dans ce cas, la grande coalition est instable car, quelle que soit la manière de distribuer les gains qu’elle décidera, il se trouvera toujours deux de ses membres qui pourront faire mieux en la quittant et en formant une coalition plus petite.

Page 81: Conférences de méthodes

4. Théorie de la croissance

Dans une économie fermée, on veut déterminer la dynamique d’une économie, vue comme un système mécanique, dont les ressorts sont la démographie, l’épargne des ménages et la technologie.

Page 82: Conférences de méthodes

4. Théorie de la croissance

On utilise les notations habituelles :I = l’investissement ;K = le stock de capital ;L = la population active ;S = l’épargne nationale ;Y = le revenu national.

Page 83: Conférences de méthodes

4. Théorie de la croissance

On utilise des minuscules pour noter les variables par tête.

Par exemple :k = K/L = le capital par tête ;y = Y/L = le revenu par tête.

Page 84: Conférences de méthodes

4. Théorie de la croissance

Remarque : On suppose que l’économie produit un bien unique, composite d’une multitude de biens. Ce bien peut servir soit à la consommation, soit à l’accumulation du capital. Ainsi, I, K, S et Y se mesurent dans la même unité.

Page 85: Conférences de méthodes

4.1 La démographieLa pop° active, notée L, est

supposée suivre l’évolution :L(t) = L0 ent,

où :L0 = pop° active initiale ;n = taux de croissance.

Page 86: Conférences de méthodes

4.2 L’épargneOn suppose que les ménages

épargnent une part constante de leur revenu.

On appelle :s = le taux d’épargne.

Ainsi, lorsque le revenu national est Y, l’épargne disponible est S = s Y.

Page 87: Conférences de méthodes

4.3 La technologieOn suppose que la production

nationale dépend des quantités de capital K et de travail L utilisées.

On note :F(K, L) = la f° de product°

agrégée.

Page 88: Conférences de méthodes

4.3 La technologieOn suppose que :

F(K, L) = A Ka L1–a,où :

A = Paramètre technologique ;a = Part de la rémunération du capital dans le PIB (~ 1/3).

Page 89: Conférences de méthodes

4.4 L’accumulation du capital

Notons :δ = le taux de dépréciation du capital.

A chaque période, l’accroissement du stock de capital est égal à la différence entre l’investissement, I,et la dépréciation du capital, δ K, au cours de la période considérée.

Page 90: Conférences de méthodes

4.4 L’accumulation du capital

En utilisant le fait queI = S = s Y = s A Ka L1–a,

on écrit l’équation d’accumulation du capital :

dK/dt = s A Ka L1–a - δ K.

Page 91: Conférences de méthodes

4.4 L’accumulation du capital

Notons :k = K/L = le capital par tête.

On peut montrer, en dérivant et en utilisant les hypothèses précédentes, que :

dk/dt = s A ka – (δ + n) k.

Page 92: Conférences de méthodes

4.5 Etude de la dynamique

Diagramme des phases.

k

dk/dt (δ + n) k

k*

s A ka

Si s A ka > (δ + n) k, on a dk/dt > 0. Donc, k augmente avec t.Si s A ka < (δ + n) k, on a dk/dt > 0. Donc, k diminue avec t. Le système converge donc vers k*, tel que s A k*a = (δ + n) k*.

Page 93: Conférences de méthodes

4.5 Etude de la dynamique

Proposition : A long terme, le capital par tête est constant, égal à :

k* = [s A/(δ + n)]1/(1–a).

Preuve. On obtient k* en résolvant dk/dt = s A ka – (δ + n) k = 0.

Page 94: Conférences de méthodes

4.5 Etude de la dynamique

Proposition : A long terme, les variables par tête (k, c, i, y) sont constantes.

Preuve. On sait que k est constant à long terme. Or, toutes les autres quantités sont liées à k (y = A ka ; c = (1 – s) A ka ; i = s A ka )

Page 95: Conférences de méthodes

4.5 Etude de la dynamique

Proposition : A long terme, les variables en niveau (K, C, I, Y) croissent à un taux constant égal à n.

Preuve. On a k = K/L. Donc, à long terme, K = L k* = L0 k* ent. De même pour les autres variables.

Page 96: Conférences de méthodes

oP

AN

(0, 0)USA

URSS oP

RN

(1, -2)

(-1, -1)

oNon

Entre

(0, 3)E

I oCombat

(1, 1)

(-1, 0)

Non