Ernst Henze

Einführung in die Informationstheorie

Studienbuch für Mathematiker, Informatiker, Naturwissenschaftler und Ingenieure ab 3. Semester. 4. Auflage 1974.
kartoniert , 92 Seiten
ISBN 3528130067
EAN 9783528130060
Veröffentlicht Januar 1974
Verlag/Hersteller Vieweg+Teubner Verlag

Auch erhältlich als:

pdf eBook
39,99
54,99 inkl. MwSt.
Lieferbar innerhalb von 3-5 Tagen (Versand mit Deutscher Post/DHL)
Teilen
Beschreibung

1. Einleitung.- 1.1. Ziele der Informationstheorie, Überblick.- 1.2. Mathematische Hilfsmittel.- 2. Die Entropie.- 2.1. Die Entropie eines endlichen Wahrscheinlichkeitsraumes.- 2.2. Der Eindeutigkeitssatz für die Entropie.- 3. Informationsquellen.- 3.1. Grundlegende Definitionen.- 3.2. Stationäre Quellen.- 3.3. Ergodische Quellen.- 3.4. Der Satz von McMillan und die asymptotische Gleichverteilung.- 3.5. Beweis des Satzes von McMillan.- 4. Kanäle.- 4.1. Definition des Kanals, Eigenschaften spezieller Kanäle.- 4.2. Anschluß eines Kanals an die speisende Quelle.- 4.3. Die Transinformation oder die Übertragungsgeschwindigkeit der Information.- 4.4. Die Kanalkapazität oder Durchlaßkapazität.- 4.5. Ein Beispiel für einen Kanal mit Störungen.- 5. Der Satz von Feinstein.- 5.1. Formulierung des Satzes.- 5.2. Ein Hilfssatz.- 5.3. Beweis des Satzes von Feinstein.- 6. Die Sätze von Shannon.- 6.1. Codierungen, Übertrager.- 6.2. Hilfssätze.- 6.3. Der erste Satz von Shannon.- 6.4. Der zweite Satz von Shannon.- 7. Abschließende Bemerkungen.- Literatur.- Sachwortverzeichnis.

Hersteller
Vieweg+Teubner Verlag
Abraham-Lincoln-Straße 46

DE - 65189 Wiesbaden

E-Mail: ProductSafety@springernature.com