• Aide
  • Eurêkoi Eurêkoi

Livre

Théorie de l'information et du codage : signal analogique, signal numérique et applications en télécommunications

Résumé

Présentation des outils qui permettent de comprendre les systèmes modernes de télécommunications. Développement de la théorie de l'information avec le codage de source et de canal, détail du traitement analogique et numérique et de la théorie de l'échantillonnage. Description des transmissions en bande et sur fréquence, de la récupération d'horloge et de la synchronisation.


  • Éditeur(s)
  • Date
    • impr. 2006
  • Notes
    • Bibliogr. p. 487-490. Index
  • Langues
    • Français
  • Description matérielle
    • 1 vol. (492 p.) : graph., couv. ill. ; 24 cm
  • Collections
  • Sujet(s)
  • ISBN
    • 2-7462-1343-5
  • Indice
    • 621.4 Électronique appliquée, théorie du signal
  • Quatrième de couverture
    • Electronique pour le traitement du signal est une collection en huit volumes élaborée de manière pédagogique et pratique.

      Ces ouvrages permettent d'appréhender les principaux concepts utilisés pour mettre en oeuvre les moyens modernes de traitement du signal appliqués aux systèmes de télécommunications.

      Chaque volume est accompagné de problèmes corrigés de difficulté croissante. Les corrigés sont détaillés pour faciliter la compréhension du lecteur.

      Les huit volumes s'intitulent ainsi :

      • Outils mathématiques et espaces transformationnels
      • Notions de signal et de bruit
      • Circuits linéaires
      • Techniques de modulation
      • Théorie de l'information et du codage
      • Filtrage numérique
      • Electromagnétisme
      • Compatibilité électromagnétique

  • Tables des matières
      • Théorie de l'information et du codage

      • signal analogique, signal numérique et applications en télécommunications

      • Yvon Mori

      • Hermes Science

      • Lavoisier

      • Chapitre 1. Théorie de l'information15
      • 1.1. Source d'information16
      • 1.1.1. Généralités16
      • 1.1.2. Transmission de l'information, code16
      • 1.1.3. Code à décodage unique17
      • 1.1.3.1. Codes à décodage unique17
      • 1.1.3.2. Règle de reconnaissance d'un code à décodage unique17
      • 1.1.4. Codes instantanés ou irréductibles19
      • 1.1.4.1. Construction d'un code à l'aide d'un graphe19
      • 1.1.4.2. Conditions d'existence d'un code instantané20
      • 1.2. Codage de l'information21
      • 1.2.1. Généralités21
      • 1.2.2. Codage de l'information sur une voie sans bruit21
      • 1.2.3. Définition de l'entropie23
      • 1.2.3.1. Entropie comme mesure de la quantité d'information23
      • 1.2.3.2. Entropie d'une source à deux états24
      • 1.2.3.3. Entropie d'une source uniforme25
      • 1.2.3.4. Cas particulier du traitement binaire de l'information25
      • 1.2.4. Propriétés de l'entropie26
      • 1.2.4.1. Entropie d'un vecteur aléatoire26
      • 1.2.4.2. Entropie comme mesure de l'incertitude28
      • 1.2.5. Information mutuelle entre l'entrée et la sortie d'une voie28
      • 1.2.6. Capacité d'un canal de transmission29
      • 1.2.7. Modélisation d'un canal de transmission bruité dans le cas discret29
      • 1.2.8. Exemple du canal binaire symétrique31
      • 1.3. Recherche des codes optimaux32
      • 1.3.1. Généralités32
      • 1.3.2. Limite inférieure de (...). Théorème du codage sans bruit32
      • 1.3.3. Méthode de R.M. Fano34
      • 1.3.4. Méthode de Huffman35
      • 1.3.5. Efficacité et redondance d'un code36
      • 1.3.6. Débit et vitesse de transmission37
      • 1.4. Codage et espaces de signaux. Théorème de Shannon40
      • 1.4.1. Généralités40
      • 1.4.2. Construction de l'espace de signaux41
      • 1.4.2.1. Transmission de l'information « utile »41
      • 1.4.2.2. Bruit du canal de transmission42
      • 1.4.2.3. Représentation géométrique des signaux43
      • 1.4.2.3.1. Application aux signaux binaires simples46
      • 1.4.2.3.2. Application aux signaux binaires composés ou mots binaires46
      • 1.4.2.3.3. Application aux signaux orthogonaux47
      • 1.4.2.4. Représentation du bruit47
      • 1.4.2.5. Conclusion48
      • 1.4.3. Critère de décision49
      • 1.4.3.1. Cas du bruit n(t) nul49
      • 1.4.3.2. Cas où le bruit n(t) existe50
      • 1.4.4. Calcul des probabilités d'erreur55
      • 1.4.4.1. Cas des signaux binaires simples N = 255
      • 1.4.4.2. Cas des signaux binaires composés58
      • 1.4.5. Source discrète séquentielle60
      • 1.4.5.1. Comparaison du taux d'erreur de deux procédés de codage. Codage binaire composé et codage binaire orthogonal62
      • 1.4.6. Théorème de Shannon64
      • 1.4.6.1. Propriété de la capacité d'un canal de transmission69
      • 1.4.6.2. Conclusion69
      • Chapitre 2. Théorie du codage71
      • 2.1. Notions de codage72
      • 2.1.1. Généralités72
      • 2.1.2. Types de codages72
      • 2.1.3. Codage des mots numériques72
      • 2.1.4. Classement adopté73
      • 2.2. Rappels d'algèbre linéaire. Corps de Galois. Préalables mathématiques74
      • 2.2.1. Généralités74
      • 2.2.2. Loi de composition interne sur un ensemble E (espace)74
      • 2.2.3. Monoïde74
      • 2.2.4. Groupe74
      • 2.2.5. Groupe quotient75
      • 2.2.6. Anneau75
      • 2.2.7. Idéal75
      • 2.2.8. Anneau quotient. Classes résiduelles76
      • 2.2.9. Corps de Galois77
      • 2.2.10. Préalables mathématiques simplifiés78
      • 2.3. Etude des codes en blocs (Hamming, BCH, Reed Salomon)82
      • 2.3.1. Généralités sur les codes82
      • 2.3.2. Définitions : détection, correction d'erreurs82
      • 2.3.3. La métrique de Hamming83
      • 2.3.4. Codes linéaires84
      • 2.3.4.1. Extension aux espaces vectoriels85
      • 2.3.4.2. Notion de code systématique et de matrice G réduite86
      • 2.3.4.3. Indépendance des vecteurs de base87
      • 2.3.4.4. Orthogonalité87
      • 2.3.4.5. Matrice de contrôle ou parity check matrice88
      • 2.3.4.6. Notion de syndrome89
      • 2.3.4.7. Notion d'erreur (vecteur (e))90
      • 2.3.4.8. Notion de tableau de décodage (standard array)91
      • 2.3.4.9. Code parfait93
      • 2.3.4.10. Distance minimale. Bornes pour les codes linéaires. Probabilité d'erreur sur les mots93
      • 2.3.4.11. Précisions sur les propriétés précédentes. Exemple99
      • 2.3.5. Codes de Hamming102
      • 2.3.5.1. Codes de Hamming étendus. Codes optimaux de distance d = 4105
      • 2.4. Les codes cycliques (ou codes CRC)106
      • 2.4.1. Introduction et formalisme106
      • 2.4.2. Les circuits associés aux codes cycliques112
      • 2.4.2.1. Circuit de multiplication de polynômes113
      • 2.4.2.2. Circuit de division de polynômes115
      • 2.4.2.3. Utilisation de ces circuits en algèbre modulo 2116
      • 2.4.3. Encodage des codes cycliques118
      • 2.4.4. Décodage des codes cycliques. Décodeur de Meggitt122
      • 2.4.5. Relation entre polynôme générateur et matrice génératrice des codes en bloc123
      • 2.4.6. Les codes BCH (Bose, Chandhuri, Hocquenghem)125
      • 2.4.7. Les codes de Reed Salomon (RS)129
      • 2.4.8. Codes pour détection d'erreurs en paquet130
      • 2.5. Les codes convolutifs ou récurrents131
      • 2.5.1. Définition131
      • 2.5.2. Le codage132
      • 2.5.3. Matrice génératrice133
      • 2.5.4. Représentations134
      • 2.5.4.1. Représentation sous forme d'arbre136
      • 2.5.4.2. Représentation sous forme de treillis137
      • 2.5.5. Décodage138
      • 2.5.5.1. Algorithme de Viterbi138
      • 2.5.5.2. Décodage séquentiel141
      • 2.5.6. Notion de codes catastrophiques144
      • 2.5.7. Notion de distance dans les codes convolutifs145
      • 2.5.8. Exemple pratique de code spécifié146
      • 2.5.9. Conclusion146
      • 2.6. Les turbo codes147
      • 2.7. Procédé d'entrelacement147
      • 2.8. Construction des codes148
      • 2.8.1. Construction à partir d'un code C(n, m, d)149
      • 2.8.2. Constructions combinant deux codes150
      • 2.9. Aide à la décision. Systèmes experts152
      • 2.9.1. Une organisation possible des critères de choix154
      • 2.9.2. Exemples de règles157
      • 2.9.3. Conclusion158
      • Chapitre 3. Signal analogique, signal numérique. Applications en télécommunications161
      • 3.0. Introduction162
      • 3.1. Généralités168
      • 3.2. Source analogique échantillonnée169
      • 3.2.1. Source analogique permanente169
      • 3.2.2. Source analogique échantillonnée idéale170
      • 3.2.3. Source analogique échantillonnée pratique (discrétisation du temps)172
      • 3.2.4. Source discrète analogique (discrétisation de l'amplitude)173
      • 3.3. Source discrète binaire (transformation du concret à l'abstrait)175
      • 3.3.1. Généralités175
      • 3.3.2. Conversion A/N avec codage PCM176
      • 3.3.3. Conversion A/N avec codage redondant176
      • 3.3.4. Généralités sur le codage détecteur et correcteur d'erreur177
      • 3.4. Théorie de l'échantillonnage178
      • 3.4.1. Définition178
      • 3.4.2. Exemple d'échantillonnage analogique par suiveur182
      • 3.4.3. Cas de l'échantillonnage avec maintien183
      • 3.4.4. Problème des erreurs d'échantillonnage185
      • 3.4.4.1. Recouvrement des spectres ou erreur d'aliassage185
      • 3.4.4.2. Erreur dans le processus de reconstitution187
      • 3.4.5. Echantillonnage dans le domaine des fréquences191
      • 3.4.6. Echantillonnage des fonctions passe-bande192
      • 3.4.7. Echantillonnage stroboscopique197
      • 3.5. Quantification198
      • 3.5.1. Généralités198
      • 3.5.2. Loi de quantification uniforme200
      • 3.5.2.1. Rapport signal à bruit du quantificateur uniforme201
      • 3.5.2.2. Notion de dynamique de codage202
      • 3.5.3. Loi de quantification non uniforme ou non linéaire203
      • 3.5.3.1. Analyse des différents types d'erreurs203
      • 3.5.3.2. Loi de compression idéale204
      • 3.5.3.3. Loi de compression de type µ205
      • 3.5.3.4. Loi de compression de type A (ou à 13 segments)206
      • 3.5.3.5. Rapport signal à bruit de quantification (distribution uniforme du bruit)208
      • 3.5.3.6. Comparaison des rapports signaux à bruit210
      • 3.6. Types de transmissions211
      • 3.6.1. Généralités211
      • 3.6.2. Types de codages PCM213
      • 3.6.2.1. Codes linéaires215
      • 3.6.2.2. Codes non linéaires215
      • 3.6.2.3. Conclusion215
      • 3.6.3. Codage des mots numériques216
      • 3.6.3.1. Codes pondérés216
      • 3.6.3.2. Codes non pondérés217
      • 3.6.4. Codes alphanumériques222
      • 3.6.5. Rappel sur le codage de canal avec détection et correction d'erreur223
      • 3.7. Limitations des transmissions dues au canal de transmission224
      • 3.7.1. Transmission idéale224
      • 3.7.1.1. Cas analogique224
      • 3.7.1.2. Cas numérique225
      • 3.7.2. Codage de source et codage de canal225
      • 3.7.2.1. Pour la source d'information225
      • 3.7.2.2. Pour le canal de transmission229
      • 3.7.3. Conditions de transmission du canal230
      • 3.7.3.1. Notion de bande passante230
      • 3.7.3.2. Résolution dans le temps. Premier théorème de Nyquist231
      • 3.7.3.3. Résolution en amplitude. Théorème de Shannon232
      • 3.7.3.4. Condition de transmission. Adaptation au canal de transmission232
      • 3.7.4. Les différents critères de Nyquist relatifs à l'interférence intersymbole234
      • 3.7.4.1. Signaux numériques234
      • 3.7.5. Interférence entre symboles239
      • 3.7.5.1. Mesure de l'interférence intersymbole241
      • 3.7.5.2. Premier critère de Nyquist241
      • 3.7.5.3. Deuxième critère de Nyquist243
      • 3.7.5.4. Critère de Nyquist élargi244
      • 3.7.6. Egalisation et Diagramme de l'oeil246
      • 3.7.6.1. Egaliseur temporel à filtre transversal247
      • 3.7.6.2. Diagramme de l'oeil248
      • 3.8. Transmissions numériques en bande de base249
      • 3.8.1. Généralités249
      • 3.8.2. Occupation spectrale d'un mode ou « code » de transmission250
      • 3.8.2.1. Représentation des digits et des mots250
      • 3.8.2.2. Distribution spectrale des divers modes252
      • 3.8.3. Types de modes ou « codes » usuellement utilisés255
      • 3.8.3.1. Types de signaux temporels utilisés255
      • 3.8.3.2. Mode NRZ (sans retour à zéro)256
      • 3.8.3.3. Mode RZ (avec retour à zéro)257
      • 3.8.3.4. Mode Biphase (BiPhi) appelé aussi mode Manchester260
      • 3.8.3.5. Mode de Miller262
      • 3.8.3.6. Autres formes de modes263
      • 3.8.3.7. Modes bipolaires ou type AMI (Alternate marked inversion)263
      • 3.8.3.8. Mode bipolaire entrelacé264
      • 3.8.4. Modes à haute densité HDB (high density bipolar code)265
      • 3.8.5. Comparaison des différents modes usuels évoqués267
      • 3.8.5.1. Densités de puissance ou spectres en fréquence267
      • 3.8.5.2. Efficacité d'un mode267
      • 3.8.5.3. Choix d'un mode268
      • 3.9. Modulation analogiques discrètes. Transmission en bande translatée269
      • 3.9.1. Rappel sur les types de modulations269
      • 3.9.2. Modulation d'une sous porteuse271
      • 3.9.2.1. Modulation de fréquence FM à déplacement de fréquence (FSK = frequency shift keying)271
      • 3.9.2.2. Modulation de phase PM à déplacement de phase (PSK = phase shift keying)274
      • 3.9.3. Modulation directe d'une porteuse277
      • 3.9.3.1. Modulation directe de phase277
      • 3.9.3.2. Modulation directe de fréquence FM281
      • 3.9.4. Première conclusion sur les types de codage et de modulation282
      • 3.9.5. Modulations discrètes m-aire283
      • 3.9.5.1. Modulation mixte d'amplitude et de phase A+PSK285
      • 3.9.5.2. Modulation en quadrature QAM286
      • 3.9.6. Démodulations discrètes m-aire287
      • 3.9.6.1. Démodulation par déplacement de fréquence (FSK) m-aire287
      • 3.9.6.2. Démodulation par déplacement de phase (FSK) m-aire290
      • 3.10. Systèmes de transmission à modulation digitale293
      • 3.10.1. Introduction293
      • 3.10.2. Principe du multiplexage temporel293
      • 3.10.3. Organisation du message294
      • 3.10.4. Réception, décommutation297
      • 3.10.4.1. Circuit d'identification des digits. Transmission en bande de base297
      • 3.10.4.2. Transmission avec porteuse. Réception en bande translatée302
      • 3.10.4.2.1. Démodulation de phase PM (type PSK)302
      • 3.10.4.2.2. Démodulation de fréquence FM (type FSK)303
      • 3.10.4.2.3. Comparaison PSK, FSK306
      • 3.11. Récupération des rythmes d'horloge307
      • 3.11.1. Généralités307
      • 3.11.2. Boucle d'estimation d'un signal310
      • 3.11.2.1. Boucle d'asservissement de phase analogique (PLL)310
      • 3.11.2.1.1. Phasemètre d'entrée équivalent312
      • 3.11.2.1.2. Générateur de signal sinusoïdal313
      • 3.11.2.2. Mise en équation dans le cas général316
      • 3.11.2.2.1. Equation linéarisée316
      • 3.11.2.2.2. Fonctionnement dans le domaine linéaire321
      • 3.11.2.2.3. Equations non linéarisées. Caractéristique d'accrochage333
      • 3.11.2.3. Dispositifs d'aide à l'acquisition342
      • 3.11.3. Variantes numériques342
      • 3.11.3.1. Exemple pour la modulation de phase à deux états MDP2343
      • 3.11.3.2. Exemple pour la modulation de phase à quatre états MDP4346
      • 3.11.3.3. Notion de codage différentiel346
      • 3.11.4. Conclusion351
      • 3.12. Décommutation du message. Restitution des mots351
      • 3.12.1. La synchronisation primaire351
      • 3.12.2. Synchronisation secondaire354
      • 3.12.3. Stratégie d'acquisition de la synchronisation371
      • 3.12.4. Conclusion372
      • Exercices et corrigés373
      • Bibliographie générale487
      • Index491

  • Origine de la notice:
    • BNF
  • Disponible - 621.4 MOR

    Niveau 3 - Techniques