Ernst Schultze

Einführung in die mathematischen Grundlagen der Informationstheorie

kartoniert , 128 Seiten
ISBN 354004633X
EAN 9783540046332
Veröffentlicht Januar 1969
Verlag/Hersteller Springer

Auch erhältlich als:

pdf eBook
38,66
59,99 inkl. MwSt.
Lieferbar innerhalb von 3-5 Tagen (Versand mit Deutscher Post/DHL)
Teilen
Beschreibung

1. Die Entropie des endlichen Wahrscheinlichkeitsfeldes.- 1.1. Definition und Eigenschaften der Entropie.- 1.2. Entropie eines zusammengesetzten Wahrscheinlichkeitsfeldes. Bedingte Entropie.- 1.3. Die Synentropie zweier Wahrscheinlichkeitsfelder.- 1.4. Informationsgehalt.- 1.5. Eindeutigkeitssatz der Entropie.- 2. Die diskrete Informationsquelle und ihre Kodierung.- 2.1. Beschreibung.- 2.2. Diskrete Informationsquelle ohne Gedächtnis.- 2.3. Informationsgehalt und Redundanz.- 2.4. Stationäre diskrete Informationsquelle mit Gedächtnis.- 2.5. Beispiele diskreter Informationsquellen.- 3. Diskreter Uebertragungskanal mit Störungen.- 3.1. Einführung.- 3.2. Definition des diskreten stationären Kanals.- 3.3. Kanalkapazität.- 3.4. Fundamentalsatz der Informationstheorie.

Hersteller
Springer-Verlag GmbH
Tiergartenstr. 17

DE - 69121 Heidelberg

E-Mail: ProductSafety@springernature.com