Upload
latexbeameruser
View
235
Download
0
Embed Size (px)
Citation preview
8/6/2019 Introduction Aux Reseaux de Neurones
1/31
INTRODUCTION AUX RESEAUX DE
NEURONES
MASTER
2005-2006
8/6/2019 Introduction Aux Reseaux de Neurones
2/31
1. Introduction ___________________________________________________________ 3
Historique ____________________________________________________________________ 4
Analogie neurone formel et neurone biologique _____________________________________ 5
Exemple de rseaux de neurones __________________________________________________ 6
Applications___________________________________________________________________ 7
2. Caractristiques des rseaux de neurones artificiels ___________________________ 8
2.1. Poids (w) et biais (b) dun neurone__________________________________________ 8
2.2. La fonction de sommation_________________________________________________ 8
2.3. La fonction de transfert__________________________________________________ 10
2.4. Rseaux statiques (Apprentissage par paquet ) et Rseaux dynamiques
(Apprentissage squentiel ) ___________________________________________________ 113. Les diffrents types de rseaux de neurones et leurs applications ________________ 12
3.1. Le perceptron __________________________________________________________ 123.1.1. Description _________________________________________________________________ 123.1.2. Loi dapprentissage du perceptron _______________________________________________ 12
3.2. Les rseaux (filtres) linaires _____________________________________________ 133.2.1. Description _________________________________________________________________ 133.2.2. Algorithme dapprentissage (LMS ou Windrow-Hoff algorithme)_______________________ 13
3.3. Le perceptron multicouche _______________________________________________ 153.3.1. Description _________________________________________________________________ 153.3.2. La rtro propagation ou algorithme dapprentissage de Backpropagation ______________ 153.3.3. Amlioration de la gnralisation (ou le dilemme biais/variance) _______________________ 163.3.4. Applications ________________________________________________________________ 17
3.4. Les rseaux de neurones fonctions radiales de base (Radial Basis Network) _____ 233.4.1. Description _________________________________________________________________ 233.4.2. Les rseaux de neurones rgression gnralise (Generalized Regression Networks)_______ 243.4.3. Les rseaux de neurones probabilistes (Probabilistic Neural Networks)___________________ 25
3.5. Les rseaux de neurones comptitifs ou cartes auto organisatrices ______________ 263.5.1. Rseaux de neurone comptitif ou rseaux de Kohonen (loi dapprentissage de Kohonen)____ 263.5.2. Les cartes auto organisatrices ___________________________________________________ 273.5.3. Les LVQ rseaux de neurones___________________________________________________ 29
3.6. Les rseaux rcurents ___________________________________________________ 303.6.1. Rseaux de Elman____________________________________________________________ 303.6.2. Rseaux de Hopfield __________________________________________________________ 31
8/6/2019 Introduction Aux Reseaux de Neurones
3/31
1. IntroductionLes rseaux de neurones sont composs dlments simples (ou neurones) fonctionnant en
parallle. Ces lments ont t fortement inspirs par le systme nerveux biologique. Comme
dans la nature, le fonctionnement du rseau (de neurone) est fortement influenc par la
connections des lments entre eux. On peut entraner un rseau de neurone pour une tche
spcifique (reconnaissance de caractres par exemple) en ajustant les valeurs des connections
(ou poids) entre les lments (neurone).
En gnral, lapprentissage des rseaux de neurones est effectu de sorte que pour une entre
particulire prsente au rseau corresponde une cible spcifique. Lajustement des poids sefait par comparaison entre la rponse du rseau (ou sortie) et la cible, jusqu ce que la sortie
corresponde (au mieux ?) la cible. On utilise pour ce type dapprentissage dit supervis un
nombre consquent de pair entre/sortie.
Lapprentissage par paquet (batch training) du rseau consiste ajuster les poids et biais
en prsentant les vecteurs dentre/sortie de tout le jeu de donnes.
Lapprentissage pas pas ou squentiel (incremental training) consiste ajuster les poids
et biais en prsentant les composantes du vecteur dentre/sortie les unes aprs les autres. Ce
type dapprentissage est souvent qualifi dapprentissage en ligne ( on line training) ou
adaptatif ( adaptive training).
Lapprentissage permet aux rseaux de neurones de raliser des taches complexes dansdiffrents types dapplication (classification, identification, reconnaissance de caractres, de
la voix, vision, systme de contrle). Ces rseaux de neurones peuvent souvent apporter
une solution simple des problmes encore trop complexes ne pouvant tre rsolus
rapidement par les ordinateurs actuels (puissance de calcul insuffisante) ou par notre manque
de connaissances.
La mthode dapprentissage dite supervis est souvent utilise mais des techniques
dapprentissage non supervis existent pour des rseaux de neurones spcifiques. Ces rseaux
peuvent, par exemple, identifier des groupes de donnes (rseaux de Hopfield).
Les rseaux de neurones ont une histoire relativement jeune (environ 50 ans) et les
applications intressantes des rseaux de neurones nont vu le jour quil une vingtainedanne (dveloppement de linformatique).
Lobjectif de ce cours (de 2 heures) est de prsenter (sommairement) les grands types de
rseaux de neurones, leurs applications et ventuellement les rgles et algorithmes
dapprentissage. On sattardera un petit peu plus sur le perceptron multicouche. Les figures de
ce cours sont issus du livre Neural Network Toolbox fournit par le logiciel Matlab et des
recherches effectues au Laboratoire de Mtorologie Physique.
8/6/2019 Introduction Aux Reseaux de Neurones
4/31
Historique
Le champ des rseaux neuronaux va dmarrer par la prsentation en 1943 par W. McCulloch
et W. Pitts du neurone formel qui est une abstraction du neurone physiologique. Le
retentissement va tre norme. Par cette prsentation, ils veulent dmontrer que le cerveau est
quivalent une machine de Turing, la pense devient alors purement des mcanismesmatriels et logiques.
Une machine de Turing se rsume une tte de lecture comportant un nombre fini dtats
internes et un ruban. La puissance de lanalyse de Turing (1912-1954) tient au fait que sa
tte de lecture ne lit quun seul symbole la fois, et que cette lecture, associe la table
dtats adquate, suffit effectuer toutes les oprations possibles. La Machine de Turing est
toutefois une machine imaginaire, abstraite, et idale. Elle na pu tre construite. Son
fonctionnement implique en effet davoir un ruban extensible volont donc infini! La
combinaison de cette mmoire infinie et dun nombre dtats fini a cependant apport la
preuve que, si un problme est calculable, alors il existe une machine pour le rsoudre. Ds
lors, une MACHINE, reprenant les rgles de toutes les autres, est UNIVERSELLE .)En 1949, D. Hebb prsente dans son ouvrage The Organization of Behavior une rgle
dapprentissage. De nombreux modles de rseaux aujourdhui sinspirent encore de la rgle
de Hebb.
En 1958, F. Rosenblatt dveloppe le modle du perceptron. Cest un rseau de neurones
inspir du systme visuel. Il possde deux couches de neurones : une couche de perception et
une couche lie la prise de dcision. Cest le premier systme artificiel capable dapprendre
par exprience.
Dans la mme priode, Le modle de LAdaline (ADAptive LINar Element) a t prsent
par B. Widrow et Hoff. Ce modle sera par la suite le modle de base des rseaux multi-
couches.
En 1969, M. Minsky et S. Papert publient une critique des proprits du Perceptron. Cela va
avoir une grande incidence sur la recherche dans ce domaine. Elle va fortement diminuer
jusquen 1972, o T. Kohonen prsente ses travaux sur les mmoires associatives et propose
des applications la reconnaissance de formes.
Cest en 1982 que J. Hopfield prsente son tude dun rseau compltement reboucl, dont il
analyse la dynamique.
8/6/2019 Introduction Aux Reseaux de Neurones
5/31
Analogie neurone formel et neurone biologique
8/6/2019 Introduction Aux Reseaux de Neurones
6/31
Exemple de rseaux de neurones
Rseau entirement boucl (carte
topologique)
Rseaux avec connections arrire (rseauxrcurrent ou feedback
8/6/2019 Introduction Aux Reseaux de Neurones
7/31
Rseau ordonn sans connexion arrire (rseau feed-forward)
Applications
Arospatial : pilotage automatique, simulation du vol Automobile : systme de guidage automatique, Dfense : guidage de missile, suivi de cible, reconnaissance du visage, radar, sonar,
lidar, traitement du signal, compression de donnes, suppression du bruit
Electronique : prdiction de la squence dun code, vision machine, synthtiseurvocal, modle non linaire,
Finance : Prvision du cot de la vie Secteur mdical : Analyse EEC et ECG Tlcommunications : Compression de donnes
8/6/2019 Introduction Aux Reseaux de Neurones
8/31
2. Caractristiques des rseaux de neurones artificiels
2.1.Poids (w) et biais (b) dun neurone
2.2.La fonction de sommation
8/6/2019 Introduction Aux Reseaux de Neurones
9/31
Lentre dun neurone contient le biais et la somme des ses poids. La sortie dun neurone
dpend de lentre du neurone et de sa fonction de transfert f .
8/6/2019 Introduction Aux Reseaux de Neurones
10/31
2.3.La fonction de transfert
Fonction seuil Tangente hyperbolique Fonction Gaussienne
Pas unitaire
Sigmode
Linaire Seuille
Gaussienne
Identit f (x) = x
8/6/2019 Introduction Aux Reseaux de Neurones
11/31
2.4.Rseaux statiques (Apprentissage par paquet ) et Rseaux dynamiques(Apprentissage squentiel )
Le format des donnes dentre va affecter lvolution des poids et biais des rseaux de
neurones lors de leur apprentissage.
Un rseau dit statique est un rseau qui ne contient pas de connexion arrires (feedback or
delay). Par consquent, on peut lui prsenter les donnes en entre dans nimporte quel ordre,
cela ninfluencera pas lvolution de ses poids lors de la phase dapprentissage. Il est alors
prfrable de lui donner tout le jeu de donne en un seul coup lors de la phase
dapprentissage. On parle alors dapprentissage par paquet ( batch training ). Les rseaux
feedforward ne peuvent pas simuler des processus dpendant du temps.
Par contre, si lon veut simuler un processus qui dpend du temps, alors on pourra utiliser un
rseau de neurones contenant des connections arrires. Lordre de prsentation du jeu de
donnes au rseau de neurone sera alors primordial. On parle alors dapprentissage squentiel.
8/6/2019 Introduction Aux Reseaux de Neurones
12/31
3. Les diffrents types de rseaux de neurones et leurs applications3.1.Le perceptron
3.1.1. Description
3.1.2. Loi dapprentissage du perceptronSoientp et tles vecteurs dentre et sortie cible utiliss pour lapprentissage du perceptron et
a est rponse du perceptron. Lvolution de la valeur des poids Wet des biais b du perceptron
vont varier, chaque fois (nombre de epoch) que les vecteurs dentre sont prsents au
perceptron, selon la rgle
( ) TT eppatW == et ( ) eatb == )1( ,
donc on aura :
+=
+=
ebb
epWWoldnew
Toldnew
8/6/2019 Introduction Aux Reseaux de Neurones
13/31
Exercice : Dterminez un ensemble de poids (et une valeur de seuil) qui va produire la
classification suivante :
x1 x2 sortie
-0.2 0.5 0
0.2 -0.5 0
0.8 -0.8 1
0.8 0.8 1
3.2.Les rseaux (filtres) linaires
3.2.1. Description
3.2.2. Algorithme dapprentissage (LMS ou Windrow-Hoff algorithme)Soientp et tles vecteurs dentre et sortie cible utiliss pour lapprentissage du rseau et a est
la rponse du rseau. Lobjectif des de minimiser la fonction cot F (erreur quadratiquemoyenne entre entres et rponses du rseau) dfinie comme :
( ) ( )[ ] ( )[ ]2
1
2
1
11
==
==Q
k
Q
k
keQ
kaktQ
F ,
Q tant le nombre dexemples. Cette minimisation se fait selon une rgle delta :
8/6/2019 Introduction Aux Reseaux de Neurones
14/31
W
FW
= .
Lalgorithme LMS (Least Mean Squared) estime la kime itration lerreur quadratique
moyenne en calculant la drive des erreurs quadratiques moyennes par rapport au poidset biais du rseau. Ainsi :
2e
( )( )
( )
( )( )
( )Rj
b
keke
b
ke
w
keke
w
ke
jj ...1pour
2
2
2
2
=
=
=
or
( ) ( ) ( )[ ] ( ) ( )( )[ ] ( )( )
j
R
i
ii
jjjj w
bkpw
w
kt
w
bkWpkt
w
kakt
w
ke
+
=
+=
=
=1
donc on peut simplifier par
( )( )
( ) Rjb
ke
kpw
kej
j
...1pour1
=
=
=
Cela veut dire que les poids et les biais du rseau doivent changer de
( ) ( )kpke2 et ( )ke2 ,
o est le taux dapprentissage. Pour le cas de plusieurs neurones, on peut crire
( ) ( ) ( ) ( )( ) ( ) ( )
+=+
+=+
kekbkb
kpkekWkW T
21
21
Cela revient au postulat (rgle) de Hebb : si des neurones, de part et dautre dune synapse,
sont activs de manire synchrone et rpte, la force de la connexion synaptique va allercroissant.
8/6/2019 Introduction Aux Reseaux de Neurones
15/31
3.3.Le perceptron multicouche
3.3.1. Description
3.3.2. La rtro propagation ou algorithme dapprentissage de Backpropagation La rtro propagation a t cre en gnralisant la loi dapprentissage de Widrow-Hoff des
rseaux de neurones multicouches constitus de fonctions de transfert diffrentiables. Les
vecteurs dentres et les vecteurs cibles correspondant sont utiliss pour apprendre le rseau.
Les rseaux de neurones constitus de biais et de fonctions de transfert sigmodale et unecouche de sortie constitue de fonctions de transfert linaires sont capables dapproximer
nimporte quelle fonction possdant un nombre fini de discontinuit.
La rgle delta impose toujoursW
FW
= . La difficult rside toujours dans le calcul
deW
F
.
La rtro propagation standard est un algorithme de descente du gradient, comme la loi
dapprentissage de Widrow-Hoff, dans lequel les poids du rseaux sont ajusts dans le sens du
gradient ngatif de la fonction cot. Le terme de rtro propagation veut dire que le gradient est
calcul pour des rseaux multicouches non linaires. De nombreuses techniques existent, plus
ou moins rapides, performantes et gourmandes en mmoire vive. Il apparat que la technique
de Levenberg-Marquardt est un algorithme trs rapide.
8/6/2019 Introduction Aux Reseaux de Neurones
16/31
3.3.3. Amlioration de la gnralisation (ou le dilemme biais/variance)Un problme qui apparat lors dun apprentissage est le problme du sur apprentissage. Si le
rseau de neurone apprend par cur, il donnera de mauvais rsultats quand on lui prsentera
des donnes un peu diffrentes. Des mthodes existent pour optimiser la phasedapprentissage afin que le phnomne de sur ou sous apprentissage disparaisse, dont la
technique de learly stopping et de la rgularisation.
3.3.3.1.Rgularisation
La technique de rgularisation consiste imposer des contraintes, donc apporter une
information supplmentaire, sur lvolution des poids du rseau de neurones. Par exemple, on
peut volontairement pnaliser les poids trop grands selon la formule :
( )21 = ierreur e
NF et ( )
21 = ipoids wn
F donc on impose
( ) Poidserreurnew FFF += 1
o est un paramtre doptimisation. Mais le problme rside dans le choix de la valeur de
ce paramtre.
La rgularisation bayesienne, qui suppose que les poids et les biais suivent des distributions
spcifiques (les paramtres sont estims au fur et mesure de lapprentissage) donne engnral des rsultats trs satisfaisants.
+ Vecteur dentres
Gnralisation : Levenberg-Marquardt
Levenberg-Marquardt+ rgularisation bayesienne
8/6/2019 Introduction Aux Reseaux de Neurones
17/31
3.3.3.2. Early stopping
Cette technique consiste diviser les donnes disponibles en trois lots distincts. Le premier lotsert entraner le rseau de neurone. Le second lot sert la validation du rseau. Lerreur de
validation doit normalement diminuer au cours du processus dapprentissage (la variance
diminue). Mais quand le rseau commence apprendre par cur (le biais augmente, alors
lerreur de validation recommence crotre), on arrte alors la phase dapprentissage. Le
troisime lot sert vrifier que la gnralisation est correcte.
3.3.3.3. Normalisation des donnes
Afin damliorer la performance des rseaux neuronaux multicouches, il est prfrable denormaliser les donnes dentre et de sortie de telle sorte quelles se trouvent dans lintervalle
[-1 1].
3.3.3.4. Recherche de linformation
Avant de vouloir utiliser un rseau de neurones en tant quapproximation de fonction, il est
ncessaire de faire des tudes de sensibilits afin de dterminer les paramtres pertinents qui
doivent tre gards, et de supprimer les autres, qui ne ferait que diminuer la performance du
rseau. Une autre solution peut aussi consister faire une analyse en composante principale
sur le jeu de donnes (rduction de linformation).
3.3.4. Applications
3.3.4.1.Restitution de paramtres nuageux partir dimage satellite
Champ 2D de lpaisseur optique dun nuage htrogne (modle gaussien) et le champ de
radiance simul par un code radiatif 3D
8/6/2019 Introduction Aux Reseaux de Neurones
18/31
Corrections
Vecteurdentres
Vecteur de
sorties
8/6/2019 Introduction Aux Reseaux de Neurones
19/31
8/6/2019 Introduction Aux Reseaux de Neurones
20/31
3.3.4.2.Simulation de radiances au sommet dun nuage htrogne
Interactions rayonnement visible - htrognits nuageuses
Petite chelleGrande chelleLongueur/Hauteur < 0.2Longueur/Hauteur > 20
8/6/2019 Introduction Aux Reseaux de Neurones
21/31
z ViewValeur des poids de 1 neurone (;Solar
(0=0;0=60)
en fonction de la distance (m) 0
partir du pixel central y
x
8/6/2019 Introduction Aux Reseaux de Neurones
22/31
CiblesRadiances
SHDOM
Rseau de neuronesEntre Sortieincluant des connexions
Compa
-(appeles poids)
entre les neuronesRadiance
MNN raisonRadianceIPA
Ajustementdes poids
600
= =
Observation
au nadir
Technique du pixel Modle de transfertPerceptrons multicoucheindpendant radiatif 3D
Observation
Epaisseur optique moyenne =10; Rayon effectif=10m
Incidence solaire=60; albdo terrestre=0; couverture fractionnaire = 50 %
8/6/2019 Introduction Aux Reseaux de Neurones
23/31
3.4.Les rseaux de neurones fonctions radiales de base (Radial Basis Network)
3.4.1. Description
Ici, la fonction de transfert est une exponentielle. Loprateur sommation disparat au profit de
lopration multiplication (lment par lment des matrices).
Les rseaux bases radiales ncessitent beaucoup plus de neurones quun rseau feedforward.
8/6/2019 Introduction Aux Reseaux de Neurones
24/31
3.4.2. Les rseaux de neurones rgression gnralise (Generalized RegressionNetworks)
Dans un rseau rgression gnralise (GRNN), il y a un rseau base radiale auquel on
ajoute une couche de sortie constitue dune fonction de transfert linaire. nprod signifie une
multiplication lment par lment, moralis par la somme des lments de a.
Ces rseaux sont aussi utiliss en tant quapproximation de fonction, mais sont plus lourds
dutilisation que les perceptrons multicouches.
8/6/2019 Introduction Aux Reseaux de Neurones
25/31
3.4.3. Les rseaux de neurones probabilistes (Probabilistic Neural Networks)
Ces rseaux sont gnralement utiliss pour des problmes de classification. La premire
couche qui est un rseau base radiale, donne une information sur la ressemblance entre la
donne dentre et le jeu de donnes utilis lors de lapprentissage. La deuxime couche
produit comme sortie un vecteur de probabilit. Finalement, une fonction de transfert
comptitive produit 1 ou 0.
8/6/2019 Introduction Aux Reseaux de Neurones
26/31
3.5.3.5.Les rseaux de neurones comptitifs ou cartes auto organisatricesLes rseaux de neurones comptitifs ou cartes auto organisatricesCes rseaux peuvent dtecter des rgularits et des corrlations dans les donnes dentres et
peuvent adapter leurs rponses en fonction de ces entres.
Ces rseaux peuvent dtecter des rgularits et des corrlations dans les donnes dentres et
peuvent adapter leurs rponses en fonction de ces entres.
Les neurones de ces rseaux peuvent reconnatre des groupes dans les vecteurs dentre. Les
cartes auto organisatrices peuvent apprendre reconnatre des groupes de vecteurs similaires,
ce qui entrane que les neurones physiquement proches les uns des autres dans la couche de
neurones rpondre ces vecteurs dentre similaires.
Les neurones de ces rseaux peuvent reconnatre des groupes dans les vecteurs dentre. Les
cartes auto organisatrices peuvent apprendre reconnatre des groupes de vecteurs similaires,
ce qui entrane que les neurones physiquement proches les uns des autres dans la couche de
neurones rpondre ces vecteurs dentre similaires.
La LVQ mthode (Learning Vector Quantization) permet dentraner les rseaux de neurones
comptitifs de manire supervise. Comme la classification se fait par le calcul de distance
entre les poids des vecteurs dentre, il ny a pas de mcanisme strict qui permettent de dfinir
si les vecteurs dentrs sont dans la mmes classe ou non. Celles-ci peuvent tre imposes par
lutilisateur.
La LVQ mthode (Learning Vector Quantization) permet dentraner les rseaux de neurones
comptitifs de manire supervise. Comme la classification se fait par le calcul de distance
entre les poids des vecteurs dentre, il ny a pas de mcanisme strict qui permettent de dfinir
si les vecteurs dentrs sont dans la mmes classe ou non. Celles-ci peuvent tre imposes par
lutilisateur.
3.5.1. Rseaux de neurone comptitif ou rseaux de Kohonen (loi dapprentissage deKohonen)
3.5.1. Rseaux de neurone comptitif ou rseaux de Kohonen (loi dapprentissage deKohonen)
8/6/2019 Introduction Aux Reseaux de Neurones
27/31
Les poids des neurones vainqueurs sont ajusts suivant la loi de Kohonen qui impose que le
poids dun neurone qui est proche des donnes dentre sera ajust la prochaine tape. Ainsi,
ce type de rseau est capable dapprendre catgoriser des vecteurs dentre.
Lvolution de la colonne i de la matrice des poids du rseau est dicte par la rgle deKohonen :
( ) ( ) ( ) ( )[ ]11 += qWqpqWqW iii
Ainsi, sil y a assez dexemples et de neurones, il se peut mme que la sortie des neurones
vainqueurs soit 1 et celle des autres 0.
3.5.2.
Les cartes auto organisatrices
Les cartes auto organisatrices apprennent classifier des vecteurs dentre selon la faon dont
ils sont groups dans lespace. Ceci diffre des rseaux comptitifs o les neurones et leurs
voisins apprennent reconnatre des groupements dans lespace dentre. En effet, la rgle
dvolution des poids des neurones suit la rgle de Kohonen sauf quau lieu dactiver lunique
neurone vainqueur, tous les neurones se trouvant au voisinage (infrieur une distance dpar
exemple), seront eux aussi activs.
Ces rseaux sont trs utiliss pour lanalyse de donnes. Ils permettent de cartographier en
deux dimensions et de distinguer des groupes dans des ensembles de donnes (Voir lexemple
graphique ci-dessous).
27
8/6/2019 Introduction Aux Reseaux de Neurones
28/31
40 prsentations
120 prsentations
500 prsentations 5000 prsentations
28
8/6/2019 Introduction Aux Reseaux de Neurones
29/31
3.5.3. Les LVQ rseaux de neurones
Les rseaux LVQ ont une premire couche de neurones comptitifs et une seconde constitue
de neurone fonction de transfert linaire. Ce type de rseaux apprend classifier mais grce
la seconde couche, ce rseau classera selon les critres de classification imposs par
lutilisateur.
29
8/6/2019 Introduction Aux Reseaux de Neurones
30/31
3.6.Les rseaux rcurents
3.6.1. Rseaux de Elman
Le rseau de Elman des neurones tansig dans sa couche cache rcurrente et un neuronelinaire dans sa couche de sortie. Ce type de rseau peut aussi approximer nimporte quelle
type de fonction pourvu que la couche cache ait assez de neurones.
Puisque ce rseau peut enregistrer de linformation pour une rfrence future, il est capable
dapprendre des associations aussi bien temporelles que spatiales.
30
8/6/2019 Introduction Aux Reseaux de Neurones
31/31
3.6.2. Rseaux de Hopfield
Ces rseaux sont des rseaux rcursifs, un peu plus complexes que les perceptrons
multicouches. Chaque cellule est connecte toutes les autres et les changements de valeurs
de cellules senchanent en cascade jusqu un tat stable. Ces rseaux sont bien adapts la
reconnaissance de formes.