Differentielle Entropie
Die differentielle Entropie ist ein Begriff aus der Informationstheorie und stellt ein Maß für die Entropie einer kontinuierlichen Zufallsvariable dar, ähnlich der Shannon-Entropie für diskrete Zufallsvariablen.
Genaugenommen ist sie eine Kennzahl einer Wahrscheinlichkeitsverteilung. Sie kann zum Vergleich zweier kontinuierlicher Zufallsvariablen herangezogen werden, besitzt jedoch nicht die gleiche Aussage wie die Shannon-Entropie. Einen Versuch die differentielle Entropie anzupassen, um ähnliche Eigenschaften wie die der Shannon-Entropie zu erhalten, ist die "limiting density of discrete points" von Edwin Thompson Jaynes.[1]
Definition
Eine kontinuierliche Zufallsvariable kann unendlich viele Werte annehmen, d. h. könnte man ihre Werte exakt ermitteln, wäre die Wahrscheinlichkeit für einen bestimmten Wert gleich Null:
Und somit der Informationsgehalt eines jeden Werts unendlich:
Sei eine kontinuierliche Zufallsvariable mit der Wahrscheinlichkeitsdichtefunktion , dann ist ihre differentielle Entropie definiert als
Im Gegensatz zur Shannon-Entropie kann die differentielle Entropie auch negativ sein.
Da die differentielle Entropie nicht skalierungsinvariant ist (s. u.), empfiehlt es sich, die Zufallsvariable geeignet zu normieren, sodass sie dimensionslos ist.
Eigenschaften
- Die differentielle Entropie ist verschiebungsinvariant, d. h. für konstante . Es ist somit hinreichend, mittelwertfreie Zufallsvariablen zu betrachten.
- Für die Skalierung gilt: mit dem Zufallsvektor und dem Betrag der Determinante .
Differentielle Entropie für verschiedene Verteilungen
Für eine gegebene Varianz besitzt die Gauß-Verteilung die maximale differentielle Entropie, d. h. ihre „Zufälligkeit“ oder ihr Überraschungswert ist – verglichen mit allen anderen Verteilungen – am größten. Sie wird deshalb auch zur Modellierung von Störungen beim Kanalmodell verwendet, da sie ein Worst-Case-Modell für Störungen darstellt (siehe auch additives weißes gaußsches Rauschen).
Für einen endlichen Wertebereich, d. h. ein gegebenes Betragsmaximum besitzt eine gleichverteilte Zufallsvariable die maximale differentielle Entropie.
Verteilung | Wahrscheinlichkeitsdichtefunktion | Differentielle Entropie (in Bit) | Träger |
---|---|---|---|
Gleichverteilung | |||
Normalverteilung | |||
Laplace-Verteilung | |||
Symmetrische Dreiecksverteilung |
Literatur
- Thomas M. Cover, Joy A. Thomas: Elements of Information Theory. John Wiley & Sons, 1991, ISBN 0-471-06259-6, S. 224–238.
- Martin Werner: Information und Codierung. Grundlagen und Anwendungen, 2. Auflage, Vieweg+Teubner Verlag, Wiesbaden 2008, ISBN 978-3-8348-0232-3.
- Peter Adam Höher: Grundlagen der digitalen Informationsübertragung. Von der Theorie zu Mobilfunkanwendungen, 1. Auflage, Vieweg+Teubner Verlag, Wiesbaden 2011, ISBN 978-3-8348-0880-6.
Weblinks
- Differential Entropy, Wolfram Mathworld
- Informations- und Codierungstheorie (abgerufen am 2. Februar 2018)
- Entropie différentielle (abgerufen am 2. Februar 2018)
Einzelnachweise
- ↑ Edwin Thompson Jaynes: Prior Probabilities. In: IEEE Transactions on Systems Science and Cybernetics. Band 4, Nr. 3, 1968, ISSN 0536-1567, S. 227–241, doi:10.1109/TSSC.1968.300117 (wustl.edu [PDF; abgerufen am 1. April 2021]).