Cours-Strategies de Codage Canal-1

Embed Size (px)

Citation preview

Universite de Metz

C OURS

Filire : DESS ATTI

S TRATGIES DE CODAGE CANAL PARTIE I

2003/2004

Amine MSIR, LICM - 07 Rue Marconi, Technople, 57070 Metz, France Tel : +33.(0)387.54.73.06- Fax : +33.(0)387.54.73.07 Email : [email protected]

2

TABLE DES MATIRES

3

Table des matiresL GENDE i

I C ODAGE CANAL : T HORIE ET APPLICATION1 N OTIONS DE LA THORIE 1.1 1.2 1.3DE L INFORMATION

13 3 3 5 5 6 7 7 9 11 11 12 12 12 13 13 13 14 14 15 15 15

Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Mesure quantitative de linformation . . . . . . . . . . . . . . . . . . . . . . . . . . Dnition de lentropie et de linformation mutuelle . . . . . . . . . . . . . . . . . . 1.3.1 1.3.2 1.3.3 Dnition de lentropie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dnition de linformation mutuelle . . . . . . . . . . . . . . . . . . . . . . Dbit dinformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Modlisation des erreurs . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.4 1.5 1.6

Canal de transmission 1.4.1

Thorme fondamental du codage canal . . . . . . . . . . . . . . . . . . . . . . . . Chane de transmission . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.6.1 1.6.2 1.6.3 1.6.4 1.6.5 1.6.6 1.6.7 1.6.8 Source dinformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Codage source . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Codage canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Modulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Canal de transmission . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dmodulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dcodage canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Dcodage source . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .CANAL

2

S TRATGIES DE CODAGE 2.1 2.1.1

Stratgies ARQ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Systmes ARQ avec arrt et attente . . . . . . . . . . . . . . . . . . . .

4 2.1.2 Systmes ARQ continue . . . . . Stratgies FEC . . . . . . . . . . . . . . . . Stratgies hybride ARQ/FEC . . . . . . . . . Comparaison des stratgies de codage canal . Techniques de codage canal FEC . . . . . . 2.5.1 Codes blocs . . . . . . . . . . . . . . 2.5.2 Codes cycliques . . . . . . . . . . . 2.5.3 Codes convolutifs . . . . . . . . . . . 2.5.4 Reprsentation des codes convolutifs 2.5.5 Dcodage des codes convolutifs . . . 2.5.6 Modulation code en treillis . . . . . 2.5.7 Codes entrelacs . . . . . . . . . . . 2.5.8 Codes concatns . . . . . . . . . . 2.5.9 Turbo-codes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

TABLE DES MATIRES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 17 17 17 18 18 19 20 21 24 25 25 26 26

2.2 2.3 2.4 2.5

i

L GENDE

Clarication

Remarque

Exemple

Application

ii

LGENDE

1

Premire partie C ODAGE CANAL : T HORIE ET APPLICATION

3

Chapitre 1 N OTIONS DE LA THORIE DE L INFORMATION1.1 IntroductionLa thorie de linformation est une thorie qui sintresse la transmission des messages dune source vers un destinataire travers un canal. Elle a t introduite en 1948 par lingnieur amricain Claude Elwood Shannon [1, 2] et afrme quen codant linformation correctement, celle-ci peut tre transmise travers un canal parasit sans perte de son contenu la rception. Elle se base sur une mesure quantitative de linformation, cest dire quelle ne sintresse pas au sens du message du point de vue smantique, mais seulement la quantit dinformation que le message vhicule. Dans [3] on lassimile un messager dont le but est de porter une lettre sans avoir connaissance de son contenu, les seules informations dont il dispose sont le poids et les dimensions extrieures de cette lettre, Le message quelle vhicule nayant aucune inuence sur les moyens de la transporter. La distinction entre message utile et parasite est totalement lie la nalit du rcepteur. Par exemple si deux personnes A et B coutent chacune leur propre musique de deux sources Sa et Sb proches, Sb savrera tre une source de perturbation pour la personne A qui essaye dcouter linformation qui lintresse de la source Sa et rciproquement. An de dissocier les deux types dvnements, linformation utile est localise dans le bloc source tandis que les lments parasites sont dans le bloc canal.

1.2

Mesure quantitative de linformation

Un destinataire nest pas cens connatre au pralable le contenu dun message quil reoit, sinon lmission de ce message napporte rien au rcepteur comme information. De cette afrmation dcoulent deux points : la source dinformation fournit de manire alatoire un ensemble de messages lmentaires qui

4

CHAPITRE 1. NOTIONS DE LA THORIE DE LINFORMATION forment le message mis. Donc, comme on est en prsence dvnements alatoires, chaque message lmentaire est pondr par sa probabilit doccurrence (mission) ; la quantit dinformation est une mesure de son imprvisibilit. Plus le message reu est prvisible moins est grande la quantit dinformation quil apporte. De manire concrte, en remplaant la source par une urne et les messages lmentaires par des boules (9 boules blanches et 1 boule noire). Dans ce cas la probabilit dmission est remplace par la probabilit de tirage. Il est clair quil ya 9 chances sur 10 de tirer une boule blanche et 1 chance sur 10 den tirer une noire. Dans le cas ou la boule tire est blanche, linformation obtenue est faible puisquon savait a priori quil yavait de forte chance den tirer une blanche. Tandis que si la boule tire tait noire, linformation obtenue a posteriori est grande puisquil tait peu probable den tirer une de cette couleur.

Si x est un message lmentaire avec une probabilit dmission de p(x) , la quantit dinforma1 tion quil apporte h(x) est une fonction croissante de son improbabilit p(x) . h(x) = f 1 p(x) (1.1)

Si x est un message lmentaire avec une probabilit dmission certaine p(x) = 1, alors la quantit dinformation quil apporte est nulle. h(x) = f (1) = 0 (1.2)

De plus si x et y sont deux vnements indpendants, la quantit dinformation quils apportent est la somme des quantits dinformation de chacun. h(x,y) = f (x) + f (y) (1.3)

La fonction qui correspond h est la fonction logarithmique [1]. Donc, la quantit dinformation intrinsque scrit suivant lquation (1.4). h(x) = logb (p(x)) o b reprsente la base logarithmique. Il dnit lunit dinformation. Dans la pratique, les contraintes technologiques des systmes de tlcommunications imposent lutilisation de symboles binaires valeurs dans {0,1}. Dans ce cas, b = 2 et lunit est le Shannon (Sh). Si x est un message lmentaire avec une probabilit priori dmission p(x) et y est un message lmentaire reu, et si p(x|y) est la probabilit que x ait t mis sachant que y a t reu, la quantit (1.4)

1.3. DFINITION DE LENTROPIE ET DE LINFORMATION MUTUELLE dinformation mutuelle h(x; y) est donne par : h(x; y) = log2 p(x|y) p(x)

5

(1.5)

1.3 Dnition de lentropie et de linformation mutuelleSoit une source alatoire, discrte et nie, mettant plusieurs messages lmentaires x1 , x2 , , xk avec des probabilits dmission respectives p1 , p2 , , pk . Lmission des messages par cette source est formalise par la variable alatoire discrte X avec pi = P {X = xi } (i {1, ,k}). De la mme manire, lensemble des messages lmentaires reus y1 , y2 , , yn pondrs par les probabilits respectives q1 , q2 , , qn est formalis par la variable alatoire Y avec qi = P {Y = yj } (j {1, ,n}).

1.3.1

Dnition de lentropie

Lentropie de la source est la quantit dinformation moyenne de cette dernire. Elle est dnie comme tant lesprance mathmatique de la quantit dinformation intrinsque h(x) de chaque message lmentaire x de la source.k

H(X) = E [h(xi )] = i=1

pi log2 (pi )

(1.6)

Dans le cas o tous les messages lmentaires sont quiprobables p1 = p2 = = pk , lentropie H(X) est maximale et vaut log2 (k). En considrant la variable alatoire (X, Y ) de probabilit pij = P (X = xi ,Y = yj ), lentropie conjointe de (X,Y ) est :k n

H(X,Y ) = E [h(xi ,yj )] = i=1 j=1

pij log2 (pij )

(1.7) (1.8) (1.9)

= H(X) + H(Y |X) = H(Y ) + H(X|Y )

Lentropie conjointe est toujours infrieure la somme des entropies intrinsques de X et Y sauf si celles-ci sont indpendantes. Lentropie conditionnelle de la variable alatoire (Y |X = xi ) de probabilit pj|i = P (Y = yj |X = xi ) est :n

H(Y |X = xi ) = j=1

pj|i log2 pj|i

(1.10)

6

CHAPITRE 1. NOTIONS DE LA THORIE DE LINFORMATION Dans le cas dune variable binaire X ayant les probabilits dmissions suivantes : X = 1 avec p1 = p, X = 0 avec p0 = 1 p. (1.11)

Lentropie (H(X) en Shannon) de cette variable en fonction de p est reprsente sur la gure 1.1 et est gale : si 0 < p < 1 H(X) = p log2 (p) (1 p) log2 (1 p) si p = 0 ou 1 H(X) = 0 (1.12)

F IG . 1.1

1.3.2

Dnition de linformation mutuelle

Linformation mutuelle mesure la quantit dinformation que la connaissance dune variable (message lmentaire reu y) permet dapporter sur lautre (message lmentaire mis x). Linformation mutuelle entre lentre et la sortie dun canal est : I(X; Y ) = H(X) H(X|Y ) = H(Y ) H(Y |X) (1.13) (1.14)

Lquation (1.14) reprsente la diffrence entre lincertitude la sortie du canal quand on a aucune connaissance du message lmentaire mis moins celle que lon a quand on connat le message lmentaire mis. I(X; Y ) = 0 canal mauvais. I(X; Y ) = H(X) canal sans erreurs. (1.15) (1.16)

1.4. CANAL DE TRANSMISSION

7

1.3.3 Dbit dinformationLe dbit dinformation est dni comme tant le produit de lentropie de la source par le nombre moyen de symboles par seconde. Si la dure moyenne de chaque symbole est m , le dbit de linformation de la source est [4] : H(X) DS = Sh/s (1.17) m

1.4 Canal de transmissionUn canal de transmission discret sans mmoire est constitu de trois blocs : une entre (mission) modlise par la variable alatoire X qui peut prendre nimporte quelle valeur parmi un ensemble de messages lmentaires (symboles) SE = {x1 , x2 , , xk } ; une sortie (rception) modlise par la variable alatoire Y qui peut prendre nimporte quelle valeur parmi un ensemble de symboles SR = {y1 , y2 , , yn } ; une matrice de transition TR dont llment tij = pj|i est la probabilit que pour un symbole xi mis, le symbole reu soit yj .

F IG . 1.2 Modlisation du canal discret sans mmoire. La capacit CC du canal de transmission est dnie comme le maximum de linformation mutuelle moyenne I(X; Y ). CC = max (I(X; Y )) (1.18)(pi )

8

CHAPITRE 1. NOTIONS DE LA THORIE DE LINFORMATION Un canal est dit binaire et symtrique (BSC : Binary Symetric Channel) si ses symboles dmissions et de rceptions sont gaux et binaires respectivement (SE = SR = {0,1}) et si sa matrice de transition TR est symtrique (cf. paragraphe 1.4.1) : TR = 1p p p 1p (1.19)

Dans le cas dun canal BSC, la capacit est reprsente sur la gure 1.3 et est dnie par : CC = 1 H(X) (1.20)

F IG . 1.3 Capacit dun canal BSC.

Le but dans tout systme de communication est de se rapprocher le plus possible de la capacit du canal de transmission. Cependant la prsence invitable du bruit dgrade considrablement les symboles mis. De plus comme le bruit est un phnomne imprvisible on ne peut pas le supprimer de manire directe. Do la ncessit denvisager des mcanismes permettant de compenser les effets perturbateurs du bruit et de se rapprocher ainsi de cette limite. En pratique, les canaux de transmission sont limits en puissance et en frquence. La limitation moyenne de puissance PS xe le nombre dchantillons n en limitant leurs amplitudes un ensemble ni x1 ,x2 , ,xn [1], elle est donne par : 1 n n(xi )2 PSi=1

(1.22)

La limitation en frquence dtermine un intervalle de frquence ou bande passante BP sur lequel le signal ne subit pas daffaiblissement suprieur une valeur de 3 dB, ce qui correspond un affaiblissement du signal dentre de 50%. Laffaiblissement reprsente la perte du signal en nergie dissipe dans le canal. Il est caractris par un signal en sortie plus faible que le signal en entre et est calcul de la manire suivante : As Af (dB) = 10 log (1.23) Ae

1.4. CANAL DE TRANSMISSION

9

Dans beaucoup de cas, on considre quun bruit blanc gaussien (AWGN : Additif White Gaussian Noise) dnergie N0 , de moyenne nulle et de variance N0 /2 sadditionne au signal utile [1]. lexpression de la capacit du canal AWGN : CC = 2Ec 1 log2 (1 + ) 2 N0 (1.21)

Ec est lnergie moyenne du bit modul aprs codage. Ec = R Eb [5], Eb est lnergie du signal modul avant codage, R le rendement du code. La gure 1.4 reprsente la capacit dun canal AWGN dans le cas dentre E continue et binaire avec modulation BPSK en fonction du rapport Nb (dB). 0

F IG . 1.4 Capacit du canal AWGN (continue & binaire). o, Af est laffaiblissement en dB, Ae et As sont les amplitudes respectives des signaux dentre et de sortie.

1.4.1

Modlisation des erreurs

Les modles des canaux prcdents sont des fonctions de la puissance du bruit introduit par le canal de transmission. Ce bruit se traduit par lintroduction derreurs dans linformation. La distribution des erreurs peut tre reprsente par des modles thoriques tel que : le modle de Poisson [1] qui considre que le nombre derreurs par unit de temps est une variable alatoire qui suit une loi de Poisson ; le modle de Neymann-Pearson [1] utilis pour modliser les erreurs qui apparaissent par paquet, qui se base sur deux lois de Poisson, une pour dcrire lapparition dun paquet et une pour dnir le nombre derreurs par paquet ; le modle de Pareto [1] qui suppose que les intervalles entre deux erreurs sont indpendants et suivent une loi de Pareto ; le modle de Markov [1], etc. Dans le cas de canaux sans mmoire, le canal BSC dnit par sa matrice de transition TR (cf. paragraphe ??) est reprsent par son diagramme de transition sur la gure 1.5. Chaque bit reu a une probabilit p dtre faux et 1 p dtre correct, indpendamment des autres bits transmis. Par consquent, les erreurs dans les canaux sans mmoire sont alatoires. Ce type de canal est appel canal avec erreurs alatoires . Dans le cas dun canal avec mmoire, la sortie y du canal linstant t dpend des perturbations

10

CHAPITRE 1. NOTIONS DE LA THORIE DE LINFORMATION

F IG . 1.5 Diagramme de transition du canal BSC.

Communications spatiales (sonde dexploration, satellite de communication).

linstant t et de celles antrieures t. Un modle simpli dun canal avec mmoire est reprsent sur la gure 1.6.

F IG . 1.6 Diagramme de transition dun canal avec mmoire.

Dans lexemple le canal a deux tats possibles, S1 reprsentant une transmission sans erreurs et S2 une transmission avec erreurs. La probabilit de transition de S1 vers S2 est q1 et de S2 vers S1 est q2 avec q1 ARQ complexit < FEC dbit variable dialogue bidirectionnelle

TAB . 2.1 Stratgies de codage canal.

2.52.5.1

Techniques de codage canal FECCodes blocs

Le codage en bloc consiste fractionner la trame dinformation en plusieurs blocs de taille xe k, ensuite, de transformer chacun des messages Di en un mot de code Ci de taille n en appliquant une loi linaire (g. 2.4). La redondance associe chaque bloc est de taille k , o k + k = n. Le rendement dun code bloc est donn par la formule (2.1). R= k n (2.1)

o, k et n reprsentent respectivement les nombres de bits en entre et en sortie du codeur. Ils sont dnis par les paramtres (q, k, n, t) o r = k/n est le rendement du code et t le nombre derreurs corriges par symbole q-aire.

F IG . 2.4 Codage en bloc.

Distance de Hamming : La distance de Hamming reprsente le nombre de positions identiques dans deux mots de code contenant des bits de valeurs diffrentes. On calcule cette distance en effectuant laddition modulo 2 entre les deux mots de code, puis en comptant le nombre de 1 dans le rsultat. La distance de

2.5. TECHNIQUES DE CODAGE CANAL FEC

19

Hamming entre le mot de code lui-mme et le mot de code 0 est appele poids de Hamming . En dautres termes, le poids de Hamming est le nombre de 1 dans un mot de code. Distance minimale : La distance minimale dun code est la distance de Hamming la plus petite entre deux mots de code ci et cj appartenant au mme ensemble. dmin = min(ci , cj )i=j

(2.2)

Pour dtecter te erreurs, il est ncessaire dutiliser un code dont la distance minimale dmin est au moins gale te + 1. dtection de te erreurs dmin te + 1 (2.3) Pour corriger te erreurs il faut utiliser un code dont la distance dmin est au moins gale 2te + 1. correction de te erreurs dmin 2te + 1 (2.4)

2.5.2 Codes cycliquesUn code est dit cyclique, si pour chaque dcalage cyclique dun mot de code C1 = ( c0 , c1 , ,cn1 ) on obtient un autre mot de code C2 = ( cn1 , c0 , , cn2 ) valide. Si C1 (x) = c0 + c1 x + + cn1 xn1 est le polynme associ au mot de code C1 et C2 (x) = cn1 + c0 x + + cn2 xn1 celui associ C2 alors si xn =1 (xn -1= xn +1= 0) 1 , C2 (x) = x C1 (x). Par consquent la permutation cyclique dune position sexprime par lquation (2.5) et la gnralisation i positions par lquation (2.6). C2 (x) = x C1 (x) mod [xn+1 ] Ci+1 (x) = xi C1 (x) mod [xn+1 ] Comme tous les codes, un code cyclique est totalement dni par sa matrice gnratrice 2 G : G= g0 0 0 0 g1 g0 0 0 gm g0 0 0 0 0 gm 0 gm1 gm (2.5) (2.6)

1. Dans le corps de galois CG(2) laddition et la soustraction se confondent. 2. Par convention les polynmes et matrice gnratrice lis une boucle rcursive seront identis par la notation G , alors que dans le cas dune branche directe ils seront nots par H .

20

CHAPITRE 2. STRATGIES DE CODAGE CANAL

o m reprsente la taille de la mmoire du codeur (le nombre de bascules D). La reprsentation matricielle savre fastidieuse lorsque le nombre de coefcients de G augmente. Une autre manire de spcier un code cyclique est la reprsentation polynomiale. En effet, un code cyclique peut tre dni par son polynme gnrateur G(x) = g0 + g1 x1 + g2 x2 + + gm xm , le mot de code par son polynme correspondant C(x) et le message par son polynme D(x). Les codes cycliques sont implants laide de registres dcalage linaire. les codes de Hamming (1946) sont utiliss dans la norme bluetooth [9] qui utilise un code (n=15,k=10) de polynme gnrateur G(x) = (1 + x)(1 + x + x4 ) ; Le code de Golay binaire a t utilis par la NASA dans la sonde spatiale Voyager I ; Les codes Reed-Muller (1954) ont t utiliss dans les annes 70 par la sonde spatiale Mariner qui avait pour mission daller sur Mars [6] ; Les codes CRC (Cyclic Redundancy Check) (1957) sont gnralement utiliss pour la dtection derreurs (protocoles X25, Ethernet, FDDI (Fiber Distributed Data Interface), ATM-AAL5 3 ) [12], la correction seffectuant par retransmission ; les codes BCH (1959-1960) sont la gnralisation des codes de Hamming pour la correction derreurs multiples ; les codes RS sont largement utiliss dans les lecteurs CD, DVD et prconiss par le standard CDPD (Cellular Digital Packet Data) ainsi que par la norme DVB-C (Digital Video Broadcasting-cable) concernant les systmes de diffusion par cble qui utilisent un code RS (k = 188, n = 204, t = 8) [13].

2.5.3

Codes convolutifs

Lapproche du codage convolutif consiste calculer la redondance partir du bloc dinformation courant de taille k et des m blocs prcdents. Les n bits en sortie sont calculs par une combinaison linaire entre les k bits en entre et les m blocs prcdents (g 2.5). Les codeurs convolutifs sont des systmes k entres et n sorties spcis par n k polynmes gnrateurs. Le codeur contient k registres dcalage qui correspondent chacun une entre. Si mi est la taille du registre dcalage associ lentre i, la taille totale m de la mmoire du codeur est :k1

m=i=0

mi

(2.7)

2.5. TECHNIQUES DE CODAGE CANAL FEC

21

F IG . 2.5 Codage convolutif. Le nombre maximum de bits associs une sortie pouvant tre affects par un bit quelconque lentre est appel longueur de contrainte Kc du codeur. Kc = 1 + max mii

(2.8)

Chaque bit du mot de code est calcul suivant lquation (2.9).me

ci(e,s) (e)

(e,s)

=j=0

dij hsj

(e)

(e)

(2.9)

o ci et hsj sont respectivement le mot de code et les coefcients du polynme gnrateur associs (e) lentre e et la sortie s. dij est le bit de donne lentre e. Le mot de code C est form par multiplexage des sorties C (s) .

2.5.4

Reprsentation des codes convolutifs

Un codeur convolutif 4 peut tre vu comme un ltre rponse impulsionnelle nie (FIR : Finite Impulse Response) possdant k entres et n sorties. Son tat est dtermin par le contenu de ses registres dcalage. En pratique, un codeur convolutif peut tre considr comme une machine dtat et tre reprsent par un diagramme dtat, une structure en arbre ou une reprsentation en treillis. Diagramme dtat Le diagramme dtat (g.2.6) est une reprsentation du fonctionnement du codeur ne faisant pas apparatre explicitement le temps. Il reprsente les transitions possibles entre les tats. Les valeurs des sorties du codeur sont indiques sur chacune des transitions. Tous les tats internes possibles du4. Le terme codeur convolutif indique par dfaut le cas non rcursif sinon il sera mentionn explicitement que le codeur est rcursif, auquel cas il est considr comme un ltre rponse impulsionnelle innie IIR (Innite Impulse Response).

22

CHAPITRE 2. STRATGIES DE CODAGE CANAL

codeur sont reprsents par des nuds Sj . Pour un codeur de rendement 1/n possdant une mmoire de taille m, il existe 2m tats internes possibles. Chaque nud est connect un autre via une branche et le passage se fait par une transition y/x0 x1 , o y correspond au bit dentre et x0 x1 reprsente la squence correspondante en sortie.

F IG . 2.6 Exemple dun diagramme dtat (R=1/2, m=2).

Structure en arbre Un arbre (g. 2.7) est une structure partant dun point appel racine, il se compose darcs et de nuds. Les arcs sont des traits verticaux dont le sens est dtermin par le bit dinformation. Par convention, le 0 est reprsent par un arc montant et le 1 par un arc descendant. Les nuds sont des traits horizontaux indexs par les n sorties correspondant au bit dentre. Le chemin en gras sur la gure 2.7 correspond au mot de code 11100001 gnr par la squence dentre 1011.

F IG . 2.7 Exemple dune structure en arbre (R=1/2, m=2).

2.5. TECHNIQUES DE CODAGE CANAL FEC Reprsentation en treillis.

23

Contrairement au deux prcdentes, la reprsentation en treillis met en vidence le paramtre temporel. Chaque nud S(j,i) correspond un tat particulier Sj du codeur un instant i, o i reprsente lindice du temps. Chaque branche est indexe par les bits qui se prsentent en entre et en sortie du codeur e/s. Chaque mot de code est associ un chemin unique du treillis quon appelle squence dtat , dnote par s = (s0 , ,sL ). Un chemin complet commence ltat s0 = S(0,0) et se termine ltat sL = S(0,L) .

F IG . 2.8 Exemple dune reprsentation en treillis (R=1/2, m=2).

Terminaison du treillis : Un mot de code convolutif na pas de longueur xe. Cependant pour des raisons pratiques dans la plupart des applications il est ncessaire dimposer une longueur maximale xe pour le mot de code. A cet effet, on ajoute la squence dinformation m bits appels bits de queue et dont les valeurs sont nulles, ce qui pour effet de forcer le treillis revenir ltat S(0,L) . Dans ce cas, les codes convolutifs avec terminaison du treillis sont vus comme des codes blocs avec un rendement R : k (L m) k R = < (2.10) nL n La rduction du taux de codage est dnie par le paramtre : = RR n = R k m = L k k (L m) n nL (2.11)

R est le rendement du code sans terminaison du treillis. Lquation (2.11) permet de voir que linuence de la procdure de terminaison du treillis devient ngligeable lorsque L m.

24

CHAPITRE 2. STRATGIES DE CODAGE CANAL

2.5.5

Dcodage des codes convolutifs

La contrainte principale du dcodage convolutif rside dans le fait que le mot de code est trs long, ce qui a tendance compliquer le circuit dcodeur. Les algorithmes de dcodage les plus rpandus sont : Dcodage squentiel : il a t propos par Wonzencraft et Reiffen en 1961 puis amlior en 1963 par Fano et en 1968 indpendamment par Jelinek et Zigangorov [6, 14]. Le nombre ditrations ncessaires pour le dcodage dun bloc est considr comme une variable alatoire : bien que la plupart des trames soient dcodes rapidement, il se peut que le dcodage soit dfectueux ou la cause deffacements, ce qui lui vaut lappellation de mthode probabilistique de dcodage. Quant la complexit du dcodage, elle est indpendante de la longueur de contrainte du code. Ce type de dcodage est appropri au cas des canaux sans mmoire [15]. Algorithme de Viterbi : propos en 1967 par A. J. Viterbi [16], il est bas sur le principe du maximum de vraisemblance. Cet algorithme est une mthode optimale de dcodage pour les codes convolutifs, ses performances dpendant de la qualit du canal de transmission utilis. Par contre la complexit des systmes de dcodage augmentant exponentiellement avec la longueur de contrainte du code utilis restreint leur emploi aux applications o le code a une petite longueur de contrainte. Les codes convolutifs ont t utiliss dans les applications commerciales des satellites de communication [17], ainsi que dans les applications de satellites militaires (DSCS : Defense Satellite Communication System) [18]. On les retrouve aussi dans les sondes spatiales dexploration comme Voyager [19]. Les codes convolutifs ont t recommands en tlmtrie par le standard CCSDC (Consultative Committee for Space Data Systems) [20] et prconiss par HIPERLAN/2 et IEEE 802.16 dans les applications rseaux sans l LAN/WAN [21]. De plus tous les standards de tlphonie mobile de deuxime gnration prconisent lutilisation de codes convolutifs. La norme GSM (Global System for Mobile Communications) incorpore un code de longueur de contrainte Kc = 6 et de rendement 1/2. La norme USDC 5 utilise un code avec Kc = 6 et un rendement 1/2. La norme IS-95 emploie un code avec Kc = 9 et un rendement de 1/2 en canal montant et 1/3 en canal descendant, Globalstar 6 utilise un code de rendement 1/2 avec Kc = 9, et pour Iridium 7 le rendement est de 3/4 et la longueur de contrainte Kc = 7 [23, 24].

Dcodage par seuil (logique majoritaire) : le dcodage par logique majoritaire appliqu aux codes convolutifs a t propos par Massey en 1963 [6]. Il diffre des dcodages de Viterbi et squentiel par le fait que la dcision nale prise pour un bloc donn est seulement bas sur la longueur de contrainte du bloc en cours de dcodage plutt que sur lutilisation de toute la squence reue, ce qui conduit des performances de dcodage infrieures aux deux autres mthodes. Ses points forts rsident dans la simplicit de son implantation et sa rapidit de dcodage.

2.5. TECHNIQUES DE CODAGE CANAL FEC

25

Le dcodage de syndrome est appropri pour des transmissions sur des canaux a mmoire o les erreurs apparaissent par paquet. Il est plutt utilis dans des applications qui ne demandent pas de grands gains de dcodage. On le retrouve dans des applications telles que la tlphonie ou la radio HF [25]. Il est aussi utilis dans les systmes de tlcommunication haut dbit [6].

2.5.6

Modulation code en treillis

Dans un systme de codage classique de rendement R < 1, le dbit aprs codage est rduit dun facteur R par rapport au mme systme non cod. Donc si lon veut maintenir le dbit aprs codage il est ncessaire daugmenter la bande passante du systme (cf. remarque paragraphe ??). La modulation code en treillis (TCM : Trellis Coded Modulation) introduite par Ungerboeck [26, 27] permet de remdier cette contrainte lie au codage. Le principe consiste fusionner les tapes du codage canal et de la modulation en un seul bloc de faon maintenir la totalit de la bande aprs codage. Lapproche originelle associe un code convolutionnel et une modulation multidimensionnelle (N-QAM, QPSK, etc.). Lutilisation de la TCM dans les modems a permis dobtenir des dbits au-del de 9600 bits/s( Normes V.32, V.34, V.90, etc.). La TCM est aussi utilise dans les applications spatiales telle que les communications satellite. Plus rcemment, avec lapparition des turbo-codes on retrouve des systmes T-TCM qui substituent au code convolutionnel un turbo-code [28, 29].

2.5.7

Codes entrelacs

Lentrelacement ou opration de gnration de permutations consiste changer selon lapplication lordre des symboles du mot dinformation ou du code, de manire dterministe an de pouvoir les remettre dans lordre lors du dcodage. La rorganisation des bits permet dtaler les erreurs qui surviennent par paquets lors dune transmission (cf. paragraphe 1.4.1). Lutilisation par exemple dun entrelacement avec un code convolutif diminue sa susceptibilit aux paquets derreurs. Les gnrateurs de permutations sont aussi utiliss dans le cas des turbo-codes an de minimiser les squences susceptible de gnrer des mots de codes poids faible. Lentrelacement priodique engendre des permutations selon une fonction priodique du temps. On peut le raliser, soit par de la mmoire vive (entrelacement par blocs), technique utilise dans tous les standards de tlphonie de deuxime gnration, ou par des registre dcalage (entrelacement convolutionnel). Lentrelacement pseudo-alatoire consiste crire la squence aux adresses successives dune mmoire vive, puis deffectuer la lecture suivant un ordre donn par un gnrateur pseudo-alatoire. Lopration inverse consiste crire dans la mmoire suivant le mme ordre pseudo-alatoire, et ensuite de lire la squence suivant lordre croissant des adresses de la mmoire.

26

CHAPITRE 2. STRATGIES DE CODAGE CANAL

2.5.8

Codes concatns

La concatnation de codes permet daugmenter la puissance des systmes de codage au prix dune augmentation de la complexit globale. La concatnation peut se faire de trois faons : parallle, srie ou hybride (parallle et srie) et sur deux ou plusieurs niveaux [30]. Dans le cas dune structure srie deux codes, linformation est code deux fois. Une premire fois par le premier code appel code externe, puis une seconde fois par le deuxime, dit code interne [1]. Les deux codes utiliss sont en gnral complmentaires : les codes convolutifs par exemple sont susceptibles aux erreurs qui apparaissent par paquets alors que les codes RS sont adquats pour ce type derreurs. Dans ce cas, le dcodeur convolutif soccupera des erreurs alatoires pour de faibles rapports signal sur bruit tandis que le dcodeur RS soccupera des erreurs par paquets pour de rapports signal sur bruit levs. Ce type de concatnation srie a t propose par David Forney en 1966 [31] puis standardis en 1987 pour les communications spatiales. Ils ont t utilis par les agences spatiales NASA (National Aeronautics and Space Agency) et ESA (European Space Agency) dans le contexte spatiale tels que les applications DSN (Deep Space Network). On les retrouves aussi dans les systmes de diffusion par satellite (norme DVB-S) [32] et de diffusion hertzienne terrestre (norme DVB-T) [33] qui employe un code RS externe (k = 188, n = 204, t = 8) et un code convolutif interne de rendement R = 1/2, 2/3, 3/4, 7/8 spars par un entrelacement. Les codes produits, invents par P. Elias en 1954 [34], sont construits par la concatnation de deux ou plusieurs codes en blocs linaires faible pouvoir de correction. En gnral, les codes utiliss sont les codes BCH et Hamming.

2.5.9

Turbo-codes

Les turbo-codes [35] peuvent tre considrs comme une classe des codes concatns. Dans [5], on regroupe dans cette classe tous les codes capables dtre dcods par un dcodeur de type SISO (SoftInput Soft-Output), la concatnation srie propose par Forney tant exclue de cette classe car le code RS ne peut pas tre dcod par SISO. Un turbo-code est la concatnation dun ou de plusieurs codes (convolutifs ou blocs) spars par des blocs dentrelacements. Les turbo-codes plusieurs niveaux prsentent un faible rendement par rapport aux turbo-codes deux niveaux, ce qui explique leur raret dans les applications. Quant aux turbo-codes hybrides, ils ne prsentent pas un grand intrt car les niveaux de performances atteints pas les turbo-codes parallles et srie sont trs sufsants pour les applications actuelles [5]. La premire structure pour un turbo-code a t propose en 1993 par Berrou, Glavieux et Thitimajshima [35]. Le turbo-code prsent tait la concatnation parallle de deux codes convolutifs rcursifs et systmatiques (RSC) identiques, de rendement 1/2, relis par un bloc dentrelacement.

2.5. TECHNIQUES DE CODAGE CANAL FEC

27

Les codes de type RSC constituent une sous classe des codes convolutifs qui possdent une rponse impulsionnelle innie du fait de leur rcursivit et dont une des sorties est ddie au message lui-mme (sortie systmatique) (cf. paragraphe ??).

Les turbo-codes ont permis datteindre des taux derreurs de 105 pour un niveau de signal sur bruit gal 0.7 dB [35, 36]. Au vu de ces rsultats, ce sont les codes qui offrent les meilleures performances de dcodage en se rapprochant le plus de la limite xe par le thorme fondamental de Shannon. Les turbo-codes, au sens strict, sont la concatnation parallle de codes RSC. Ils englobent cependant aussi la concatnation de codes en blocs [40]. Dans [5], les codes en blocs concatns avec un entrelacement alatoire sont appels turbo-codes en bloc et ceux avec entrelacement lignes-colonnes, codes produits. Dans [40], les codes produits sont dsigns sous le vocable de code en bloc, la justication tant que le principe du dcodage itratif des codes produits est semblable celui des turbocodes convolutifs. En 1999 par exemple, le programme IMT-2000 concernant les spcications de tlphone mobiles de 3eme gnration [37] tablies par lUIT (Union Internationale des Tlcommunications) les a retenus pour ses normes WCDMA (UMTS) 8 [38], compatible avec les rseaux GSM, et CDMA2000 9 , compatible avec les rseaux IS-95. En 2000, les turbo-codes ont t choisis par le standard DVB (Digital Video Broadcasting) [39] dans les systmes de diffusion de vido numrique, concernant le codage des canaux de retour par voie terrestre (DVB-RCT) et satellitaire (DVB-RCS). En 2001, les turbo-codes ont t retenus par les normes Europennes ETSI Hiperacces et Amricaine IEEE 802.16.1 comme codage optionnel pour augmenter le dbit dans les systmes de boucle locale radio haut dbit. Ils ont aussi t recommands par le standard CCSDS (Consultative Committee on Space Data System) [41] pour le codage de canaux en tlmetrie [20]. Cette nouvelle recommandation apporte une amlioration de 1,5 2 dB par rapport aux performances du code utilis prcdemment construit par la concatnation dun code RS et convolutif [42]. Les turbo-codes sont aussi en vue pour tre utiliss dans les rseaux de satellites de communication tel que Inmarsat 10 , dans le cadre de lamlioration de la qualit du service dans les offres multimedia [43, 44, 45] ou Intelsat 11 pour des transmissions 2 Mbits/s [46]. Les agences spatiales NASA et ESA ont utilis les turbo-codes respectivement dans le satellite dexploration SOHO et pour la mission SMART-1 en 2001. De plus la NASA envisage de les utiliser dans les sondes spatiales destines aux prochaines missions en espace profond (DSN) [47]. Les turbo-codes sont aussi tudis dans le cadre des technologies xDSL, notamment en ADSL (Asymmetric Digital Subscriber Line) exploitant la modulation DMT (Digital MultiTone). Les turbo-codes sont aussi tudis dans le cadre de canaux denregistrement magntique [48, 49, 50]. Enn les turbo-codes ont fait lobjet de nombreux dpts de brevet par France Tlcom dont certain conjointement avec TDF (Tldiffusion De France).

28

CHAPITRE 2. STRATGIES DE CODAGE CANAL

BIBLIOGRAPHIE

29

Bibliographie[1] A. Poli et LI. Huguet, Codes Correcteurs, Thorie et Applications, Ed. Masson, 1989. [2] W. Weaver et C. E. Shannon, Thorie Mathmatique de la Communication, Ed. Les Classiques des Sciences Humaines, 1975. [3] G. Battail, Sciences et Avenir, hors-srie, pp.28-29, Dc. 1999. [4] A. Spataru, Fondements de la Thorie de la Transmission de LInformation, Ed. Presses Polytechniques Romandes, 1987. [5] J. J. Boutros, Les turbo codes parallles et sries, dcodage SISO et performance ML , rapport, Oct. 1998. [6] Shu Lin, Daniel J. Costello, Jr. Error Control Coding : Fundamentals and Applications, Prentice-Hall Serie in Computer Applications in Electrical Engineering, 1983. [7] J. Oswald, Thorie de lInformation ou Analyse Diacritique des systmes, Ed. Masson, 1986. [8] A. Dandache, Contribution la conception de circuits et de systmes pour les applications tlcom , Travaux Scientiques en Vue dune Habilitation Diriger des Recherches, Univ. Metz, Jan. 2000. [9] Specication of the bluetooth system, vol. 1.0B, Dec. 1999. [10] H. Yamamoto, K. Itoh, Viterbi decoding algorithm for convolutional codes with repeat request , IEEE Trans. on Inf. Theory, vol. IT-26, Num.5, Sept. 1980. [11] http://www.themanualpage.org/glossaire, consult en 2003. [12] F. Monteiro, A. Dandache, A. Msir and B. Lepley, A fast CRC implementation on FPGA using a pipelined architecture for the polynomial division , 8th ICECS, (St Julian, Malta), Sept. 2001. [13] ETS, Digital Broadcasting for Television, Sound and Data Service, Framing structure, channel coding and modulation for cable systems , PrETS 300 429, Dec. 1994. [14] Pierre Csillag, Introduction aux codes correcteurs, Edition Marketing, 1990. [15] V. Cappellini, Data Compression and Error Control Techniques with Applications, Ed. Academic Press, 1985. [16] A. J. Viterbi. Error bounds for convolutional codes and an asymptotically optimum decoding algorithm . IEEE Trans. on Inf. Theory, IT-13, 260-269, April. 1967. [17] E. R. Berlekamp, R. E. Peile and S. P. Pope, The application of error control to communication , IEEE Commun. Mag., vol. 25, pp. 4457, Avril 1987. [18] J. P. Odenwalder and A. J. Viterbi, Overview of existing and projected uses of coding in military satellite communications , NTC Conf.-Rec., (Los Angeles, California), Dec. 1977. [19] M. K. Simon and J. G. Smith, Alternate symbol inversion for improved symbol synchronisation in convolutionally coded system , IEEE Trans. Commun., COM-28, Feb. 1980. [20] Consultative Committee for Space Data Systems, Recommendation for space and data systems standard: Telemetry channel coding , Blue Book, vol. 101.0-B-4, issue 4, May 1999. [21] OFDM-based 802.16.3.SUB 11 Ghz, BWA AIR INTERFACE Physical Layer Proposal , IEEE 802.16.3C-00/30 RL, Oct. 2000.

30

BIBLIOGRAPHIE

[22] J. L. Leray, C. Barillot et J. C. Boudenot, Electronique spatiale : Les Nouveaux ds dus aux ceintures de radiation , Revue de llectricit et de llectronique, no. 09, pp. 54-62, Oct. 1999. [23] Matthew C. Valenti, Iterative detection and decoding for wireless communication , manuscrit de thse PhD, Virginia Polytechnic Institute and State University, (Blacksburg, Virginia), July 1999. Disponible sur http://scholar.lib.vt.edu/theses/available/etd-071399-133447, consult en 2001. [24] B. Miller, Satellites free the mobile phone , IEEE Spectrum, vol. 35, pp. 26-35, March 1998. [25] J. G. WADE, Codage et Traitement du Signal, LExemple des Systmes Vido Numriques, Ed. Masson, 1991. [26] G. Ungerboeck and I. Csajka, On improving data link performance by increasing the channel alphabet and introducing sequence coding , IEEE Int. Symp. on Inf. Theory, (Ronneby, Sweeden), June 1976. [27] G. Ungerboeck, Channel coding with multilevel/phase signals , IEEE Trans. on Inf. Theory, vol. IT-28, no. 1, pp. 55-67, Jan. 1982. [28] P. Robertson and T. Worz, A novel coded modulation scheme employing turbo codes , URSI & ITG Conf., (Kleinheubach, Germany), Oct. 1995. [29] D. Divsalar and F. Pollara, On the design of turbo codes , JPL TDA Progress Report 42-123, (Pasadena, California), pp. 99-121, Nov. 1995. [30] S. Benedetto, D. Divsalar, G. Montorsi, and F. Pollara, Serial concatenation of interleaved codes: Performance analysis, design, and iterative decoding , IEEE Trans. on Inf. Theory, vol. 44, no. 3, pp. 909-926, May 1998. [31] G. D. Forney, Concatenated Codes , MA: MIT Press, Cambridge, 1966. [32] ETS, Digital Broadcasting for Television, Sound and Data Service, Framing structure, channel coding and modulation for 11/12 Ghz sattelite services , PrETS 300 421, Dec. 1994. [33] ETS, Digital Broadcasting for Television, Sound and Data Service, Framing structure, channel coding and modulation for terrestrial television , PrETS 300 744, Dec. 1994. [34] P. Elias, Error Free Coding , IRE Transaction on Inf. Theory, vol. IT-4, pp. 29-37, September 1954. [35] C. Berrou, A. Glavieux, and P. Thitimajshima, Near Shannon limit error correcting coding and decoding : Turbo-codes , IEEE Int. Conf. on Commun., (Geneva, Switzerland), pp.1064-1070, May 1993. [36] D. Divsalar and F. Pollara, Turbo codes for deep space communications , IEEE Commun. Theory Workshop, (Santa Cruz, California), April. 1995. [37] ITU-R International Mobile Telecommunication (IMT) 2000 Recommendation. [38] E. Berutto, M. Gudmunson, R. Menolascino, W. Mohr, M. Pizarroso, Research activities on UMTS radio interface, network architecture and planning , IEEE Commun. Mag., vol. 36, Feb. 1998. [39] Digital Video Broadcasting (DVB): Interaction Channel for Sattelite Distribution System ,ETSI PR EN 301 790, V1.1.1, April. 2000. [40] C. Berrou, A. Glavieux, R. Pyndiah, Turbo-Codes: Principes et Applications , GRETSI95, (Juan-les-pins, France), Sept. 1995. [41] http://www.ccsds.org, consult en 2003. [42] R. Garello, R. Maggiora, G. Montosi, P. Coccia, S. Benedetto and A. Serra, DSP implementation of turbo decoders for satellite communications , 6th Int. Workshop on Digital Signal Processing Techniques for Space Applications, (Noordwijk, The Netherlands), Sept. 1998. [43] H. Feldman and D. V. Ramana, An introduction to INMARSATs new mobile multimedia service , 6th Int. Mobile Satellite Conf., (Ottawa, Canada), pp. 226-229, June 1999. [44] E. Trachtman and T. Hart, Research elements leading to the development of INMARSATs new mobile multimedia services , 6th Int. Mobile Satellite Conf., (Ottawa, Canada) pp. 209-212, June 1999. [45] J. Broughton, J. Nemes, Multimedia services for aeronautical mobile satellite applications , 6th Int. Mobile Satellite Conf., (Ottawa, Canada), pp. 1-4, June 1999. [46] S. A. Barbulescu, R. Chang and S. Yaghmour, Turbo codec - QPSK modem for INTELSAT digital services , The 2nd Int. Symp. on Turbo Codes, (Brest, France), pp. 487- 490, Sept. 2000.

BIBLIOGRAPHIE

31

[47] C. D. Edwards, C. T. Stelzried, L. J. Deutsch and L. Swanson, NASAs deep-space telecommunications road map , JPL TMO Progress Report 42-136, (Pasadena, USA), pp. 1-20, Feb. 1999. [48] A. Ghrayeb and W. E. Ryan, Concatenated coding and iterative SOVA decoding with PR4 signaling , Int. Conf. on Commun., pp. 597-601, June 2000. [49] L. L. McPheters, S. W. McLaughlin and E. C. Hirsch, Turbo codes for PR4 and EPR4 magnetic recording , The 32nd Asilomar Conf. on Signals, Systems and Computers, pp. 1778-1782, 1998. [50] W. E. Ryan, Performance of high rate turbo codes on a PR4-equalized magnetic recording channel , Int. Conf. on Commun., pp. 947-951, June 1998.