Diskussion:Redundanz (Informationstheorie)
Weitschweifigkeit
Wird das Wort Weitschweifigkeit wirklich in der Informationstheorie als Synonym für Redundanz benutzt? Sonst würde ich eine Formulierung wie "Die Redundanz (in der Informationstheorie im Sinne von Weitschweifigkeit benutzt) ..." benutzen. Was meint Ihr?--Supaari bla!bla! 21:17, 24. Sep 2006 (CEST)
- Mir ist "Weitscheifigkeit" in der Informationstheorie noch nicht untergekommen.--Akribix 02:44, 26. Sep 2006 (CEST)
- Na dann google mal nach +shannon +weitschweifigkeit Da findest Du genug Aussagen der Art: "Redundanz (Weitschweifigkeit) ist die Differenz zwischen maximal möglichem Informationsgehalt und tatsächlichem Informationsgehalt." Klausb 22:37, 6. Mai 2007 (CEST)
- Ist die Formel der Redundanz R, bei einem Code, nicht eher R=L-H(0) wobei H(0) dem Enscheidungsgehalt entspricht? - von wem auch immer
- Der Versuch eines deutscheren Wortes.
- Wie wäre es mit der Erwähnung von explizit und signifikant, beides eine Art von Gegensatz. --Aanon 16:52, 30. Jun. 2009 (CEST)
- Ist die Formel der Redundanz R, bei einem Code, nicht eher R=L-H(0) wobei H(0) dem Enscheidungsgehalt entspricht? - von wem auch immer
- Na dann google mal nach +shannon +weitschweifigkeit Da findest Du genug Aussagen der Art: "Redundanz (Weitschweifigkeit) ist die Differenz zwischen maximal möglichem Informationsgehalt und tatsächlichem Informationsgehalt." Klausb 22:37, 6. Mai 2007 (CEST)
Überschrift mittlere Codewortlänge
Ich hab die mittlere Codewortlänge hervorgehoben - wäre wohl nicht schlecht, dafür ein eigenes Lemma zu erstellen, da auf diese sicher mehrere Artikel verweisen (sollten). (nicht signierter Beitrag von 88.117.59.84 (Diskussion | Beiträge) 17:16, 29. Jun. 2009 (CEST))
Redundanz eines Symbols
In dem Artikel wird nur von der mittleren Redundanz einer Übertragung gesprochen. Die Redundanz eines Symbols ist die Differenz zwischen maximaler Entropie und dem Informationsgehalt des Symbols im Code.
p ist der prozentuale Anteil des Symbols im Code.
--ToixD (Diskussion) 16:12, 4. Nov. 2015 (CET)
Redundanz "ist zu vermeiden"?
In der Datenbankentwicklung sowie in Datenstrukturen von Programmen gilt es, Redundanzen möglichst vollständig zu vermeiden, da diese zu einem höheren Speicherplatzbedarf und zu Inkonsistenzen führen können.
Wer sagt das denn? Das steht da ohne Quelle und so da, als sei es selbstverständlich.
Warum mir das auffällt, ist, weil ich selber anderer Meinung bin. Um das etwas kurz zu erläutern:Generell (wenn ich jetzt speziell an Datenbanken denke) halte ich es für viel eher richtig, daß natürlich übertriebene Redundanz zu vermeiden ist. Das auf die Spitze zu treiben führt aber dazu, daß andauernd JOINs auf die arme DB losgelassen werden müssen, was merklich mehr Aufwand ist als sich einfach eine Zeile ausgeben zu lassen, und daß einer schon ein Verständnis von Datenbanken haben muß, um überhaupt mit den Daten durch Direktabfrage etwas anfangen zu können. Auch setzt die wirklich konsequente Redundanz, wenn man einmal darüber nachdenkt, die Fehlerfreiheit aller Tabellen voraus - und die ist praktisch nicht gegeben. Gibt es Gelegenheit zu Inkonsistenzen, so dürfte die Wahrscheinlichkeit viel geringer sein, daß gewisse Datenbankeinträge konsistent falsch sind - das eigentliche Problem; Inkonsistenz dagegen kann auffallen und zu entsprechenden Nachforschungen führen. Und Plattenspeicher ist heutzutage nicht mehr so billig.
Auf deutsch: Natürlich gehört nicht in jede Tabelle alles. Aber - konkretes, häufig vorkommendes Beispiel: wenn es z. B. um irgendwelche Personen geht, so dient (nach klassischer Lehre, die auch richtig ist) die Personenidentifikationsnummer als Hauptschlüssel; aber sinnvoll dürfte es in den allermeisten Fällen sein, auch in fast allen anderen Tabellen außer der Personentabelle den Nach- und Vornamen redundanterweise mitzuführen. (Aber natürlich nicht Adresse und Personalausweisnummer und Bankkonto.) --2001:A61:3A6B:B901:79CC:2418:59D6:B89E 22:46, 23. Nov. 2019 (CET)