Bücher Wenner
Wer wird Cosplay Millionär?
29.11.2024 um 19:30 Uhr
Einführung in die mathematischen Grundlagen der Informationstheorie
von Ernst Schultze
Verlag: Springer Berlin Heidelberg
Reihe: Lecture Notes in Economics and Mathematical Systems Nr. 9
E-Book / PDF
Kopierschutz: PDF mit Wasserzeichen

Hinweis: Nach dem Checkout (Kasse) wird direkt ein Link zum Download bereitgestellt. Der Link kann dann auf PC, Smartphone oder E-Book-Reader ausgeführt werden.
E-Books können per PayPal bezahlt werden. Wenn Sie E-Books per Rechnung bezahlen möchten, kontaktieren Sie uns bitte.

ISBN: 978-3-642-86515-2
Auflage: 1969
Erschienen am 08.03.2013
Sprache: Deutsch
Umfang: 120 Seiten

Preis: 38,66 €

38,66 €
merken
zum Hardcover 59,99 €
Inhaltsverzeichnis

1. Die Entropie des endlichen Wahrscheinlichkeitsfeldes.- 1.1. Definition und Eigenschaften der Entropie.- 1.1.1. Die Ungevissheit.- 1.1.2. Eigenschaften der Entropie.- 1.1.3. Beispiele.- 1.2. Entropie eines zusammengesetzten Wahrscheinlichkeitsfeldes. Bedingte Entropie.- 1.2.1. Bezeichnungen.- 1.2.2. Unabhängige Wahrscheinlichkeitsfelder.- 1.2.3. Abhängige Wahrscheinlichkeitsfelder.- 1.2.4. Entropieungleichungen.- 1.2.5. Umkehrung der Abhängigkeit.- 1.3. Die Synentropie zweier Wahrscheinlichkeitsfelder.- 1.3.1. Definition und Interpretation.- 1.3.2. Schranken.- 1.3.3. Beispiel und Aufgaben.- 1.4. Informationsgehalt.- 1.4.1. Informationsgehalt eines Wahrscheinlichkeitsfeldes.- 1.4.2. Informationsgehalt eines Elementarereignisses.- 1.4.3. Gegenseitiger Informationsgehalt zweier Elementarereignisse.- 1.5. Eindeutigkeitssatz der Entropie.- 2. Die diskrete Informationsquelle und ihre Kodierung.- 2.1. Beschreibung.- 2.2. Diskrete Informationsquelle ohne Gedächtnis.- 2.2.1. Beschreibung.- 2.2.2. Kodierung.- 2.2.3. Eindeutige Dekodierbarkeit.- 2.2.4. Kodierbaum.- 2.2.5. Ungleichung von Kraft.- 2.2.6. Mittlere Kodewortlänge.- 2.2.7. Optimaler Kode.- 2.2.8. Konstruktion eines optimalen Kodes nach Huffman.- 2.2.9. Kettchenkodierung.- 2.3. Informationsgehalt und Redundanz.- 2.4. Stationäre diskrete Informationsquelle mit Gedächtnis.- 2.4.1. Definition.- 2.4.2. Entropie der stationären Informationsquelle.- 2.4.3. Informationsgehalt.- 2.5. Beispiele diskreter Informationsquellen.- 2.5.1. Allgemeine stationäre Quelle 2. Ordnung mit 2 Symbolen.- 2.5.2. "Künstliche" Schriftsprache.- 2.5.3. Die natürliche Schriftsprache.- 3. Diskreter Uebertragungskanal mit Störungen.- 3.1. Einführung.- 3.2. Definition des diskreten stationären Kanals.- 3.3. Kanalkapazität.- 3.3.1. Definition der Kanalkapazität.- 3.3.2. Die Kapazität des Kanals ohne Gedächtnis.- 3.3.3. Beispiele.- 3.4. Fundamentalsatz der Informationstheorie.- 3.4.1. Entstörung durch den "idealen Beobachter".- 3.4.2. Kodierer zwischen Quelle und Kanal.- 3.4.3. Formulierung des Fundaraentalsatzes.- 3.4.4. Asymptotische Verteilung der Kettchen.- 3.4.5. Heuristischer Beweis des Fundamentalsatzes.


andere Formate
weitere Titel der Reihe