Diskussion:Information/Archiv/1

aus Wikipedia, der freien Enzyklopädie

Semiotik

Ich sehe keinen Sinn darin, einen eigenen Begriff Information (Semiotik) einzuführen, während hier unter Information ein Großteil der Erklärung auf der Semiotik aufgebaut wird. Im Übrigen ist die Darstellung hier, in der die Semiotik nur drei Ebenen hat, falsch, da sie insbesondere die Sigmatik außer acht lässt.

Früher hat man eher drei, heute eher vier Ebenen betrachtet. Dadurch haben sich auch die Definitionen der einzelnen Begriffe geändert. Am deutlichsten wird das bei der Betrachtung des Artikels Semiotik klar. Stern 11:54, 21. Jan 2004 (CET)

Broken Link Über die Fortschritte, Pannen und Zukunftsentwicklungen des Themas Technik am Ende !

Broken Link am Ende der Seite: Über die Fortschritte, Pannen und Zukunftsentwicklungen des Themas Technik (nicht signierter Beitrag von 141.51.213.210 (Diskussion | Beiträge) 14:10, 30. Apr. 2009 (CEST))

Basisdogmen

Mit dem Bild will ich andeuten, daß auch die Naturwissenschaften auf Basisdogmen (Basisaxiome) aufbaut , die teilweise nur schwer erklär- und verstehbar sind. Vergleiche zb die Abgrenzung von

Entropie - und Information , meines Erachtens ein ziemlich ungeklärtes Verhältnis. Gleichzeitig die Basis vieler Aussagen in der Physik und Naturwissenschaft.

Außerdem soll Wikipedia m.E. auch nicht so toternst sein. Gerade die Definition von Information ist ja eher trocken . Da ist ein bißchen Provokation mit dem Begriff heilige Dreieinigkeit zum Aufwachen vielleicht ganz gut.

Wenn es auf allgemeines Mißfallen stößt kann ich das Bild auch ändern. Siehe auch http://www.madeasy.de/1/definfo.htm Mfg rho

Dualität von Materie und Energie

Mich stört mehr, dass diese Dualität von Materie und Energie schon nicht stimmt. Materie ist in der Naturwissenschaft nichts anderes als eine Form der Energie. Und die Rolle der Information ist ziemlich umstritten, d. h. man kann vermutlich gar nicht mehr tun, als eine schwammige Meinung dazu zu präsentieren, aber es ist problematisch, das wie eine Lehrmeinung darzustellen. IMHO -- HelmutLeitner

rho:Im allgemeinen ist Materie und Energie grundverschieden , nur in der Sonne kann Materie in Energie verwandelt werden. Deswegen halte ich es schon für richtig Energie und Materie einander gegenüberzustellen. Energie kann sich zb mit Lichtgeschwindigkeit ausbreiten , Materie nicht.

Beim Thema Information sind die Akten noch nicht geschlossen . Es ist unklar, ob es eigenständige Infonen , Uralternativen also Informations"teilchen" geben kann. Da wird noch viel gestritten und geforscht. Für unser Alltagsverständnis stimmt das Dogma : Reine Information gibt es nicht . Information gibt es immer nur im Zusammmenhang mit Energie und Materie. Übrigens kann man das naturwissenschaftliche Dreigestirn auch noch anders bezeichnen: Stoff -- Strahlung -- Struktur

Man sollte sich immer in Erinnerung rufen , daß diese physikalischen Begriffe sich nur sehr langsam herausgeschält haben. Bis ca 1850 war zb die Unterscheidung zwischen Kraft und Energie noch nicht vollzogen und Anlaß für viele Mißverständnisse.

Im 20.Jahrhundert ist als fundamentale Größe eben noch die Information dazugekommen. Diese Größe hat aber in der Physik bis heute noch keinen so richtigen Platz gefunden . Über den Zusammenhang zwischen Information und Entropie wird da auch noch heftig diskutiert.

Mfg rho

Ergebnisse der Wissenschaft?

Wenn "die Akten noch nicht geschlossen" sind, und "noch viel gestritten und geforscht" wird, so sollte das aber im Artikel klargemacht werden. Ich bin der Ansicht, dass der Artikel viel 'Spekulation' und 'Ideen', aber nicht 'Ergebnisse der Wissenschaft' enthält. Die Tatsache, dass physikalische Begriffe lange unklar definiert waren, verlangt ja geradezu, hier auch bei der Information besonders vorsichtig zu sein, um eben nicht Dinge, die noch nicht wohldefiniert sind, hier so darzustellen, als ob sie wohldefiniert seien.

Ausserdem ist mit nicht bekannt, in welcher Wissenschaft die 'Information' eine fundamentale Größe sein soll. Die von Dir oft angeführte Beziehung zur Entropie ist vielleicht in der populären Darstellung der Physik verbreitet, wird aber in der Physik selbst nicht benutzt. Ich sage mal bewußt provokativ: "Information' ist nur ein leeres Schlagwort, das in vielen Bereichen benutzt wird, aber nirgends definiert ist.

Wenn Du z.B. schreibst:

"In jeder Art von Struktur oder Muster von Materie oder Energie steckt Information",

dann finde ich das eine leere Definition. Ein vager Begriff (Information) wird durch einen anderen vagen Begriff (Struktur) definiert.

Wenn ich (um Masse zu definieren) schriebe,

"In jeder Art von Materie steckt Masse",

dann ist das auch nicht definierend.

Ich finde Deinen Zugang, hier riesige Artikel abzuladen, sehr problematisch: Warum beginnst Du nicht klein, und erlaubst uns auch unsere Ideen einzubringen. Die Wikipedia soll doch ein Gemeinschaftsprojekt sein, und ich zumindest finde solche langen, kontroversen Artikel nicht der Idee einer Gemeinschaftsarbeit förderlich.

-- Schewek

Arbeitstexte

Hallo Schewek ! Ich beschäftige mich schon ziemlich lange mit dem Begriff Information und habe dazu einige Arbeitstexte ins Internet gestellt.

Das der Begriff Information grundlegend ist , kann man bei vielen Leuten nachlesen

  • zb Weizsäcker
  • zb Shannon
  • zb Wiener
  • zb von Haken

Typisch für die Naturwissenschaften ist , daß sie eine vage Idee von etwas hat und dann anfängt damit zu arbeiten. Sie kümmert sich zunächst nicht um genaue Definitionen . Wir leben im "Informationszeitalter" und haben nur eine vage Vorstellung von dem Begriff , der dem zu Grunde liegt. Dem wollte ich mit meinem Beitrag etwas abhelfen.

Das interessante an dem Begriff Information ist , daß er an der Grenze der Naturwissenschaften zur Mathematik , bzw auch zu den Geisteswissenschaften steht. Auch die Mathematik hat Probleme grundlegende Begriffe sauber zu erklären. Frage mal einen Mathematiker, was ein Punkt ist . Jeder Schüler arbeitet damit , hat eine intuitive Vorstellung davon , aber eine saubere Definition ist schwierig. So eine saubere Definition hört sich dann auch ein bißchen tautologisch an . Siehe dein Beispiel mit der Materie und der Masse.

Wenn dich die Länge meines Beitrages stört , dann lösch ihn wieder heraus . Ich fände es schade, da viel Mühe in meinem Beitrag steckt, aber ich kann dich nicht dran hindern. Besser wäre es , den Artikel wirklich durchzuarbeiten und zu überlegen , wo noch Widersprüche und Unklarheiten zu finden sind, die man verbessern kann.

Oder du versuchst dich mal an anderen Begriffen , wie zb Bedeutung oder Ordnung , die eng verwandt mit der Definition der Information sind , aber m.E. in Wikipedia noch zuwenig beackert wurden Mfg rho

Danke, Rho, für das Beispiel mit dem Punkt! Genau was ich brauchte: Ein Punkt ist jedem Schüler 'bekannt', in seinem 'Erfahrungsbereich' oder 'Zusammenhang'. Ein Mathematiker kann dir genau sagen, wenn er einen Beweis führt oder ein Theorem formuliert, was ein 'Punkt' in genau dem Zusammenhang bedeuten soll. Er gibt die Definition für den konkreten Fall (zB Punktmenge, Vektorraum, ...) an, und schafft damit einen Bedeutungszusammenhang, so dass er ein sinnvolles Gespräch mit dem Kollegen führen kann. Und genau dieser Zusammenhang ist es, was ich in Deinem Artikel vermisse! Ich habe leider auch nur vage Kenntnisse dazu, was zZ in den verschiedenen Wissenschaften zum Thema Informatik geforscht wird. Aber wenn zB Shannon den Begriff gebraucht, so geschieht das in einem Zusammenhang. Wenn Du solche Hinweise geben würdest, wäre Dein Artikel einem interessierten Laien viel zugänglicher; ausserdem natürlich dann auch Ausgangspunkt zu anderen Artikeln in der Wikipedia.

-- Schewek

Probier doch einmal eine Definition des Begriffes Punkt für Wikipedia . Es ist gar nicht so einfach.

Wenn man bei Shannon zum Thema Information nachliest , dann findet man da auch keine allzu tiefschürfende philosophische Abhandlung , sondern er setzt einfach Information gleich der Entropie und fängt fröhlich damit zu rechnen an. Für sein Gebiet der praktischen Nachrichtentechnik ist das ganz brauchbar. Gleichzeitig hat er aber eine seit 50 Jahren währende Diskussion über das Verhältnis zwischen Information und Entropie losgetreten , die bis heute noch nicht befriedigend zu Ende gekommen ist. Die Grundfrage lautet dabei : Was unterscheidet geordnete Information von Zufallsinformation ?

Das ist ja ein bunter Reigen zum Thema Information. Insgesamt eben ein vielschichtiges Thema. Ich würde auf der obersten Ebene vielleicht etwas weniger schreiben. Die Aussagen zu Energie und Materie z.B. weglassen. Mit einer wirklichen Definition beginnen, oder eben schreiben, daß es eine solche nicht gibt. Außerdem stört mich die fehlende Trennung zwischen Daten und Informationen. Bei der Kurzzusammenfassung der Shannonschen Informationstheorie fehlt ein Verweis auf Shannon, obwohl dieser dann durchaus in den Quellenangaben genannt wird. Hmmm ... werde mich vielleicht in den nächsten Tagen da mal etwas einbringen :o) Markus Schaal

Strahlung, Stoff und Struktur

Hallo! Die Verbindung zur Energie und Materie habe ich deswegen gebracht , weil es m.E. die 3 grundlegenden Begriffe der Naturwissenschaften sind, die in vielfältiger Weise miteinander verknüpft sind . Man sie auch anders bezeichnen : Strahlung - Stoff und Struktur. Jeder soll eben auch einmal selber nachdenken, was für ihn die Basisbegriffe sind, auf die er seine Vorstellungen von der Welt aufbaut.

Der reine Materialismus hat ja immer nur Energie und Materie als grundlegend zugelassen , mit dem Begriff Information ( oder Struktur,Muster etc) kommt es aber zu einer entscheidenden Erweiterung des naturwissenschaftlichen Denkens, auch wenn sich zb die Physik dem Begriff Information noch nicht so klar geöffnet hat.

Auch wenn die Definition eines solchen grundlegenden Begriffes schwierig ist, sollte man sie trotzdem versuchen . Ich habe das mit den Basisaussagen zur Information versucht.

Der Text ist ein Anfang und eine Diskussionsanregung , kein abgeschlossenes Thema. Verbesserungen und Diskussionsbeiträge sind sehr willkommen.

Daten und Information hängen eng zusammen . Vielleicht kann man Daten als Informationseinheiten bezeichnen .

Sehr interessant finde ich die Frage, wie bedeutsame Information entsteht und wie sich Zufallsinformation von geordneter Information unterscheidet.

rho

[snip]

Danach dann erst das Verhältnis von Information zu Materie und Energie. Doch auch hierzu habe ich noch eine Anmerkung. Dein Text beschreibt eigentlich nicht das Verhältnis zu Materie und Energie, sondern er sagt nur, daß es neben Materie und Energie eben noch etwas drittes gibt. Dazu habe ich zwei kritische Fragen: 1) Ist der Zusammenhang zwischen Energie und Materie ähnlich wie zwischen Energie und Information oder wie zwischen Energie und Materie? Falls nein, welchen Informationsgehalt trägt dann das Bild von der Dreieinigkeit? 2) Gibt es nicht noch weitere wichtige Konzepte neben Energie, Materie, Information? Zum Beispiel Zeit?

Ich denke im übrigen, daß Daten und Strukturen in der Tat Informationseinheiten sein können. Hierbei ist zu berücksichtigen, daß die Einheit typischerweise nicht festgelegt ist.

Zufallsinformation unterscheidet sich auf der Datenebene nicht von geordneter Information ... was immer das auch heißen mag. Auf der Bedeutungsebene mglw. schon. Bedeutung der Information entsteht m.E. immer dadurch, daß eine Bedeutung zugeordnet wird. Mich würde interessieren, was man unter der Zuordnung von Bedeutung versteht. Die Evolution hat beispielsweise sehr viel bedeutsame Information hervorgebracht, deren Bedeutsamkeit alleine aus dem Erfolg erwächst, ohne Beurteilung durch den Menschen.

Gruß, Markus

Antwort rho: Mir scheint es wichtig, zunächst einmal Information völlig unabhängig vom Menschen zu definieren. Es gab Information nach meinem Verständnis bereits lange bevor es Menschen gab. Es gab informationsverarbeitenden Systeme wie zb lebende Zellen oder Nervensysteme in Tieren. Auch die Entstehung von bedeutsamer Information kann völlig ohne menschliches Zutun erfolgen. Die ganze biologische Evolution ist ein Prozess der Entwicklung von bedeutsamer Information.

Der Fachbegriff für Bedeutung ist die Semantik und Pragmatik. Auch hier gilt semantische und pragmatische Information kann sich völlig unabhängig vom Menschen entwickeln.

Dann kann man sich fragen, wie unterscheidet sich bedeutsame Information von nicht bedeutsamer Information. Wenn man nur die Zeichenfolge einer Informationssequenz anschaut kann man darüber schon gewiße Aussagen treffen. Eine völlig gleichförmige Informationsfolge zb 101010101010101010101010 hat relativ wenig Bedeutung. Eine völlig zufällige Informationsfolge hat auch wenig Bedeutung. Bedeutsames liegt also immer zwischen den 2 Extremen völlig gleichförmige Ordnung und Zufallsreihe.

Ob der Begriff Information wirklich eine echte, eigenständige Entität im philosophischen Sinne sein kann, weiß ich auch nicht. Es ist bis heute offen, ob es Infonen oder die Weizäckerschen Uralternativen unabhängig von Energie und Materie gibt. Ich habe das die Gretchen Frage der Informationstheorie bezeichnet.

Jedenfalls ist der Begriff Information sehr gut brauchbar, er ist sehr grundlegend und wichtig und er ist einigermaßen neutral. Auch Raum und Zeit sind solche grundlegenden Begriffe. Bei beiden Begriffen streiten sich die Physiker auch, ob es nur Eigenschaften von Energie und Materie sind oder ob sie eine eigenständige physikalische Existenz haben, wie das die klassische Physik angenommen hat.

Man kann die Physik auf den drei Begriffen Energie, Materie und Information aufbauen oder man sucht sich andere Begriffe wie Feld, Kraft, Entropie . Auch darauf läßt sich ganz gut die Physik aufbauen. Welche Begriffe dann die unterste Ebene bilden ist Ansichtssache und muß pragmatisch entschieden werden.

Ist der Zusammenhang zwischen Energie und Materie ähnlich wie zwischen Energie und Information oder wie zwischen Energie und Materie?

Das kann ich auch nicht klar beantworten. Manche Physiker sehen da eine Ähnlichkeit. So behauptet Stonier , daß Materie in Energie und Energie in Information umgerechnet werden kann. Wobei die Dimensionsstufen immer einige Zehnerpotenzen auseinanderliegen. So kann man aus sehr wenig Materie eine große Menge Energie erzeugen und das läuft in der Sonne auch so ab. Ähnlich soll man aus einer kleinen Menge Energie eine sehr große Menge Information erzeugen können. Hier komme ich persönlich nicht mehr mit, denn bislang wurde eben reine (nackte ) Information nie nachgewiesen. Fest steht aber, die Information, die in der Struktur von Materie gespeichert ist kann in die Struktur einer elektromagnetischen Welle umgewandelt werden und umgekehrt.

Deine Aussage "Zufallsinformation unterscheidet sich auf der Datenebene nicht von geordneter Information" ist meines Erachtens nicht korrekt.

Man kann zb 01 Folgen statistisch betrachten und schon recht gut herausfiltern, ob es sich um Zufallsinformation oder nicht zufällige Information handelt. siehe dazu zb: Mein Programm 01 Statistik.

Mfg Rho

O.K., das mit der Gleichheit von Zufälligkeit und Ordnung nehme ich zurück. Ich wollte wohl eher sagen, daß Zufälligkeit und Ordnung für mich nichts mit Bedeutung zu tun hat, d.h. dies kein Weg ist, der Bedeutung auf die Spur zu kommen. Auch bedeutsame Information kann zufällig regelmäßig erscheinen oder zufällig, je nachdem. Dennoch halte ich die Bedeutung für ein wesentliches Element von Information (auch unabhängig vom Menschen) und würde gerne von der Materie/Energie-Diskussion wegkommen. Bist Du einverstanden, daß ich mir die Seite mal vornehme und etwas anders strukturiere? Ich möchte insbesondere schon früh im Text interessante Fragen geballt stellen und dabei auf Unterseiten verweisen, die sich dann dem jeweiligen Thema (Bezug zu Materie und Energie, Bezug zu Zeit und Raum, Shannonsche Informationsmenge, Infonentheorie, etc.) annehmen. Auf diese Weise wird es auch leichter, einzelne Punkte getrennt zu diskutieren :o) Ich werde dabei keine wichtigen Teile von Dir entfernen. Immerhin will ich mir die Arbeit ja nicht nochmal machen ... ;-)

Gruß, Markus

Hallo! Kannst du gerne machen. Ich habe meine Texte sowieso , etwas ausführlicher aber vielleicht auch etwas ungeordneter noch einmal getrennt im Netz stehen. Siehe zb : http://home.t-online.de/home/0926161717-0002/mathe2.htm Oder: http://home.t-online.de/home/0926161717-0001/2nkmdef.htm Mfg rho

Hallo!

Konzept der reinen Information

Hallo, ich finde, daß das Konzept der reinen Information etwas unklar formuliert ist. Aus diesem Grunde ist es auch schwierig, die Bedeutung der damit verbundenen grundsätzlichen philosophischen Frage zu verstehen. Wie wäre es, reine Information in einem separaten Artikel zu diskutieren? In meinem Verständnis stellt sich in diesem Artikel (Information) die Frage der Gebundenheit von Information an Materie gar nicht, weil Information über Struktur und Bedeutung definiert wird. Die Frage hängt also eng damit zusammen, ob (1) die Bindung von Information an Struktur zulässig ist und (2) Struktur überhaupt notwendig der Bindung an Materie bedarf.

Markus Schaal 07:48, 9. Sep 2002 (UTC)

Hi,

spannendes Thema :-)

nicht geklärt ist m.E. auch das Verhältnis des Begriffs zur Vorstellung über den Begriff und zur beschriebenen Sache, seinem "Objekt". Der normale Alltagsverstand nimmt an, das JEDEM Begriff eine "objektive Realität" entspricht, also eine Sache, die "wirklich existiert". So wird jeder Begriff zum Problem, das man zu lösen sucht indem der Begriff durch andere Begriffe "erklärt" wird. Durch die Natur unseres Denkens verlassen wir dabei jedoch "nie wirklich" die "begriffliche Ebene"... nur deshalb wage ich die Definition:

- Information ist die Bedeutung die Menschen Strukturen beimessen -

Gruss Jonas 22.01.2003


Hallo Jonas! Zu deinem Satz - Information ist die Bedeutung die Menschen Strukturen beimessen - folgender Kommentar und ein paar Fragen:

Wenn die Vorstellung von Information sehr grundlegend ist, sollte sie auch ohne die Menschen in der Definition auskommen. Oder würdest du zB die Begriffe Materie und Energie nur auf den Menschen bezogen definieren ? Information und Informationsverarbeitung gab es schon lange vor den Menschen und wird es noch lange nach den Menschen geben. zb Information die in einem Kristall steckt. Oder Information in der DNS

Zum Thema Bedeutung: Schau dir einmal den Wiki Beitrag dazu an Bedeutung. Es gibt auch völlig unbedeutsame Informationen. Zufallsinformation ist weitgehend bedeutungslos. Auch C.Shannon hat seine Berechnungen der Leistungsfähigkeit von Informationsübertragungskabel ohne jede Rücksicht auf die Bedeutung der Information gemacht. Es kam ihm nur darauf an wieviel er fehlerfrei durch eine Leitung bekommen konnte . Welche Bedeutung die Information hatte, hat ihn zunächst nicht interessiert. Übrigens: Bedeutung entsteht in der Natur auch von ganz alleine, ohne Menschen.

Zum Thema Struktur: Dieser Begriff ist sicher sehr eng mit dem Begriff Information verwandt und könnte genauso gut als Basis einer allgemeinen Informationstheorie dienen.

So etwas grundlegendes zu definieren wie Information ist schwierig, ohne sich im Kreis zu drehen. Ich habe einiges darüber zusammengetragen, an der Basis bleibt es trotzdem dünn, weil die Vorstellung von Information sehr abstrakt ist Siehe auch:

Mfg rho

23.01.2003 - Hallo rho,

ob ich die Begriffe Materie und Energie nur auf den Menschen bezogen definieren würde - ja und nein. Jein?

Im praktischen Leben ist es sicherlich ratsam so zu tun, als wären Materie und Energie objektive Tatsachen. Das bringt auch in wissenschaftlicher Hinsicht zumindest im praktischen Bereich einige Vorteile.

Im Zuge der Interpretationen zur Quantenphysik ist jedoch klar geworden, dass der Beobachter durchaus eine Rolle spielt, die weit über die blosse Beobachtung und Interpretation hinausgeht - Stichwort Schrödingers Katze.

Information, Bedeutung, Struktur und sogar Mensch sind Begriffe die so abstrakt sind dass sie m.E. mehr mit der menschlichen Art des Denkens zu tun haben als mit dem, was wir die physikalische Realität nennen. Und dennoch sind solche Begriffe, neben der Mathematik, so immens wichtig in der Wissenschaft und Philosophie...

ich habe angefangen auf deinen Seiten zu lesen und finde sie sehr lesenswert :-)

dort hast du auch einen Link zu http://www.mauthner-gesellschaft.de/ - zum Thema Religionskritik. Diese Seite bietet auch mir schon seit einiger Zeit einen wahren Online-Schatz an philosophischen Texten. Viele von Mauthner, aber auch einige andere. Es geht dort primär um die Sprachkritik, welche allerdings die Religionskritik fast notwendigerweise folgen lässt ;-) Sprachkritik im Wortsinn beschreibt und kritisiert die "Sprache selbst", sozusagen sprachliche "Metaebene" (auch wieder "nur" so ein "Begriff"...).

"vielleicht" "kann" "man" "auch" "alles" "in" "Anführungszeichen" "schreiben" "."

"jeder" "Begriff" "ist" "ein" "Problem" (lol)

was bedeuten für Dich eigentlich Anführungszeichen ('"')?

Beste Grüsse - Jonas


--zeno 03:06, 24. Apr 2003 (CEST)

Relevanz

  • Mir fehlt hier der Begriff der Relevanz, also dass Informationen in sinnvoll/-los ein/ausgegrenzt werden müssen. --nerd 12:59, 11. Mai 2003 (CEST)~

Erster Satz

"Information ist die Wiedererkennbarkeit eines bestimmten Musters innerhalb einer Situation, die mehr ist, als das Muster." mir gefällt der 1. Satz nicht, oder findet den jm gut? --nerd 22:48, 13. Mai 2003 (CEST)

Bin auch nicht begeistert, aber er ist allgemein gehalten und nicht falsch. Für den Anfang eigentlich gut. Cassis 14:24, 19. Mai 2003 (CEST)

Desinformation

Desinformation -> da gehört in einen eig Artikel. der ist eh noch Kraut und Rüben--nerd 10:35, 28. Mai 2003 (CEST)

Wieder rein. Gehört zum 1. Teil der Definition!
Ich ersuch um Angabe einer Quelle, die deine Meinung stützt. --nerd
Quelle ist Wikipedia! Ist doch nur die Erg. des 1. Teils. Kann man doch nicht so halb stehenlassen.
Und sonst haste nix anzubieten? Lehrbuch? Webseite? --nerd 15:31, 28. Mai 2003 (CEST)
Warum muss ich meinen Teil haarklein belegen, und du schreibst den ersten Teil so rein? Biste was besseres??
Darüber können wir wo anders diskutieren - nur mir erscheint der erste Teil (der nicht von mir stammt) schon nicht sehr gut. Und der zweite halt auch nicht? Ein Anfrage zu Quellen ist sinnvoll. --nerd 15:47, 28. Mai 2003 (CEST)

Zufallsinformation

Zufallsinformation ist nicht sehr verbreitet. --nerd 10:41, 28. Mai 2003 (CEST)

Musterdefinition

Dies "Muster"def. ist nur eine von vielen (IMHO sehr informatiklastig, wenn überhaupt gültig) und sollte nicht am Anfang stehen, siehe en. WP.

Meyers meint: zu lat. Informare=druch Unterweisung Gestalt geben unterrichten:

  1. Unterrichtung, Benachrichtigung
  2. Nachricht (zweckorientiert, a. neues Wissen vermittelnd)

Wiedererkennbarkeit eines Musters in einer Situation, die mehr ist, als das Muster

Zur aktuellen Definition (Wiedererkennbarkeit eines Musters in einer Situation, die mehr ist, als das Muster): Die stammt von mir, und ich kann leider kein Lehrbuch angeben, dem ich sie entnommen habe. Das Problem ist, das es einfach noch keine allgemeingültige Definition von Information gibt. Es gibt die Shannonsche Nachrichtentechnik (Information von 1 bit ist die Unterscheidbarkeit von 2 Zuständen), und den allgemeinen Sprachgebrauch (Information ist irgendwas semantopragmatisches). Wir sollten aber einen einleitenden Satz haben, der alle drei Aspekte (Syntax, Semantik, Pragmatik) einschließt. Diese Definition tut das:

  • Wiedererkennbarkeit: Semantik
  • eines Musters: Syntaktik
  • Innerhalb einer Situation, die mehr ist als das Muster: Pragmatik

Uli 17:20, 28. Mai 2003 (CEST)

Vielleicht kommt man tatsächlich zu so einer Definition, wenn man sich eingehend mit verschiedenen Informationstheorien beschäftigt, aber für mich als normale Sprachbenutzerin ist der Bezug zur normalen Verwendung des Wortes kaum nachvollziehbar. Und ich denke nicht, dass der erste und einleitende Satz so formuliert sein sollte, dass man zuerst eine halbe Stunde darüber nachdenken muss, was gemeint sein könnte.

Was mit Muster gemeint ist, lässt sich ja vielleicht noch ertüfteln, da solllte man dann aber m.E. Beispiele dazuschreiben (sprachliche, graphische...), aber die Wiedererkennbarkeit? Ist die Wiedererkennbarkeit nicht erst die Voraussetzung, dass ich die Information aus irgend etwas rausholen kann? Und was ist dann die neue Information für mich, wenn ich etwas w i e d e r erkenne? -Hunne 12:26, 11. Jun 2003 (CEST)

Das en WP ziegt immerhin noch drei andere Def, die ohen Muster auskommen und verichtet auf eine (IMHO= informatiklastige Def. im 1. Satz. --nerd 21:28, 28. Mai 2003 (CEST)

Vorschläge / Verständnisschwierigkeiten

Zwei Vorschläge / Verständnisschwierigkeiten:

1. Müßte es a.E. von "Semantische Ebene" statt 

"Sie wissen jetzt, daß es warm ist" nicht heißen:

"Sie wissen jetzt, daß  dort steht, daß es warm 

ist" oder "...daß jemand dahin geschrieben hat: "es ist warm" " ? Der Unterschied ist doch erheblich! Nicht alles, was geschrieben ist stimmt.

Hast recht, ist eingebaut! Uli 17:26, 10. Jun 2003 (CEST)
2. Bei Quanteninformation könnte hinzugefügt 

werden "zu zerstören oder zu verändern". Kann's mir einer erklären / Stellung nehmen? hhc2, 8.6.03, 15,45 h

Zum Punkt 2: "Zu zerstören" soll sich hier auf die (Quanten-)Information beziehen, nicht auf das Objekt, das diese Information trägt. Eine Veränderung der Information ist eine Zerstörung derselben (wenn ich das Wort "hier" in das Wort "dort" verändere, dann ist die Information des Wortes "hier" zerstört).

OK, das kann man so sehen, auch wenn die Zerstörung im unbefangenen Verständnis (soweit auf dem Level möglich) das Vernichten des Informationscharakters überhaupt ist, und das Verändern eine Änderung des Informationsinhalts, unter Beibehaltung der Tatsache, dass Information vorliegt. Und zu Punkt 1? Der ist imho wichtiger.
Den ersten Abschnitt incl. Definition, der schon einige Disskussion hier ausglöst hat, finde ich auch problematisch, aber darüber muss ich noch nachdenken. hhc2
Nun ja, wenn man Quanteninformation naiv "kopiert", dann wird in gewissem Sinn auch der Informationscharakter des Originals zerstört: Das Original und die "Kopie" sind dann nämlich in einem verschränkten Zustand, d.h., keines von beiden hat für sich einen definierten Zustand (die Information steckt aber noch in der Kombination beider). Man kann allerdings die Information auf das andere System transferieren, und das Originalsystem hat dann einen definierten Zustand, der aber nichts mehr mit der ursprünglichen Information zu tun hat.
Was Punkt 1 angeht: Wie wäre es mit: "Sie wissen jetzt, dass die Zeichenfolge bedeutet, dass es warm ist."?

Übernahme von der englischen WP

Jetzt wurde wieder komentarlos diesen Blödsinn aus der englischen Wikipedia eingebaut:

Information ist ein Begriff, der sehr verschiedene, abhängig vom Kontext, gebraucht wird und mit verschiedenen Konzepten wie Wissen, Negentropy, Unterscheidung, Kommunikation, Wahrheit, Repräsentation, und mentalen Reizen in Verbindung gebracht wird.

Kann mir jemand einen guten Grund nennen, warum? Der Absatz ist: a) Absolut nichtssagend (Lieber Leser, wir können Euch leider garnichts über Information sagen, außer dass es häufig vokommt), b) grammatisch falsch (sehr verschiedene gebraucht wird, hä?), c) inhaltlich falsch (Information und Wahrheit sind wie Äpfel und Birnen), d) falsch übersetzt (Negentropy ist im deutschen die Negentropie), e) blankes Name-Dropping ohne Auswahl

Ich behaupte nicht, dass meine Definition eine letztgültige sein muss, aber sie ist allemal besser als gar keine, und sie schließt jeden mir bekannten Anwendungsfall des Wortes und des Begriffes Information ein. Ich finde, sie ist eine gute Ausgangsgrundlage für einen Encyclopädie-Artikel zum Thema. Sie ist offen für Diskussion und Veränderung. Wenn jemand eine bessere hast, immer her damit, aber dieses Blabla aus der Englischen WP blind zu übernehmen halte ich wirklich nicht für glücklich. Uli 17:26, 10. Jun 2003 (CEST)

j'en suis d'accord. in den ersten beiden saetzen steht jetzt etwas allgemeines, aber eher fassbares. kompliziert wird es weiter unten sowieso. 8-) die buzzwords sind in das siehe auch herabgestuft worden. -- kakau 17:46, 10. Jun 2003 (CEST)

Auftretenswahrscheinlichkeiten

Falls mich keiner vom Gegenteil überzeugt, werde ich Auftretenswahrscheinlichkeiten ausgliedern. Das ist IMHO zu speziell! --'~'

Done.Auftretenswahrscheinlichkeiten --'~'
Oh Nerd, Sorry, ich hab das zu spät mitbekommen. Bitte das ganz dringend wieder zurück zu lagern und von mir aus gerne besser zu formulieren. Aber der Begriff und die Formel I = - log p ist so zentral für die gesamte Informationstheorie, dass sie unbedingt wieder rein müssen. Im Grunde ist die Zentrale Aussage der Informationstheorie, das Information etwas mit Wahrscheinlichkeit zu tun hat. Sie sind viel zentraler als das jetzt drin stehende Beispiel für Binarisierung, (aber das brauchts, um den Schritt mit der Wahrscheilichkeit zu machen). Speziell wäre IMHO die (recht lange) Herleitung der Formel, aber die ist ja schon nicht drin. Wenn Du nicht's dagegen hast, glieder ich das wieder ein. Ich geb aber zu, dass die Ausführungen zu lang geraten sind, irgendwie müssen wir die ganze Passage kräftig kürzen.
Uli 11:00, 26. Okt 2003 (CET)
Mach nur - ich hab das durchs googlen nicht finden können, aber du wirst schon wissen.--'~'

Physik und Information

Der Begriff der Information gewinnt in der Physik mehr und mehr an Bedeutung. Die erste Theorie, die eine Verbindung zwischen der Physik und der Informationstheorie aufzeigte, war die statistische Mechanik. Die Quantenmechanik schließlich zeigt den Weg zu einer völlig neuen Art von Information. Siehe dazu auch Informationsübertragung (Physik).

Anmerkung: Informationsübertragung (Physik) wurde nach Informationsübertragung (Kybernetik) verschoben. Eine Seite Information (Physik) wird neu angelegt. --Dogbert66 13:10, 21. Jan. 2012 (CET)


Information und statistische Mechanik

Mit der Thermodynamik wurde auch eine neue Größe in der Physik eingeführt: Die Entropie. Diese Größe zeigt ein ungewöhnliches Verhalten: Sie kann in einem geschlossenen System nicht ab-, sondern nur zunehmen. Diese Eigenschaft ist in Form des 2. Hauptsatzes eine der Grundlagen der Thermodynamik.

Die statistische Mechanik, die die Thermodynamik auf ungeordnete mikroskopische Bewegungen zurückführt, erklärt nun die Entropie über die Wahrscheinlichkeit von Bewegungszuständen. Die Formel, die dabei auftritt, ist bis auf einen konstanten Vorfaktor gerade die Formel für die Informationsentropie. In der Tat lässt sich die statistische Mechanik vollständig aus dem Prinzip der maximalen Entropie herleiten, das darauf beruht, bei nur teilweise bekannten Daten stets davon auszugehen, dass die (durch die Informationsentropie beschriebene) Unkenntnis über das System maximal ist.

Im Artikel über statistische Mechanik erscheint das Wort Information nicht. Wenn der Zusammenhang so prominent ist, dann würde ich zumindest dort etwas davon erwarten. Beziehungslos folgt ein Satz, dass Entropie in der Thermodynamik eine Rolle spielt. Eine Formel tritt nicht auf, sondern mit einer Formel beschreibt man eine reproduzierbare physikalische Beobachtung. Warum schreibt man die Formel nicht hin, damit es der Leser nachprüfen kann? Ist es nur ein äusserer Zusammenhang? Das ganze gibt vor etwas auszusagen und sagt doch nichts.


Ein anschauliches Beispiel, wie der 2. Hauptsatz der Thermodynamik mit der Information zusammenhängt, liefert der Maxwellsche Dämon. Der Maxwellsche Dämon umgeht den zweiten Hauptsatz, indem er an einem kleinen Loch zwischen zwei Gasbehältern sitzt, das durch eine reibungsfreie Klappe verschlossen werden kann. Das Loch ist so klein, dass nur ein Gasmolekül gleichzeitig hindurchfliegen kann. Der Dämon beobachtet nun die Gasmoleküle, die auf das Loch zufliegen. Kommt von links ein schnelles Molekül oder von rechts ein langsames Molekül, so macht er die Klappe auf, so dass es durchkann. Kommt hingegen von links ein langsames oder von rechts ein schnelles Molekül, so schließt er die Klappe. Dadurch sammeln sich links die langsamen und rechts die schnellen Moleküle, das heißt der rechte Behälter heizt sich auf und der linke kühlt sich ab, ohne dass Arbeit verrichtet werden müsste, im Widerspruch zum 2. Hauptsatz. Durch Information (ist das Molekül ein "erwünschtes" oder "unerwünschtes"?) wird also scheinbar ein physikalisches Gesetz "ausgehebelt".

Die Lösung des Problems liegt darin, dass der Erwerb (beziehungsweise das anschließende Vergessen) der Information seinerseits Entropie (also Wärme) produziert, die groß genug ist, um die Entropieverringerung der Behälter auszugleichen. Eine Folge davon ist, dass nach heutigen Konstruktionsprinzipien aufgebaute Computer bei gegebener Temperatur einen inhärenten Energieverbrauch pro Operation haben, der prinzipiell nicht unterschritten werden kann (heutige Computerchips sind jedoch noch weit von dieser prinzipiellen Grenze entfernt).

Eine physikalische Grösse eines phyischen Objektes ist nicht Information im Sinne diese Artikels. Es gibt eine Codes, keine Syntax, keine Sender, keine Empfänger.

Das Landauer-Prinzip, auf dem die obige "Auflösung" des Maxwellschen Dämons basiert, ist durchaus umstritten, da es auf der Gleichsetzung von thermodynamischer Entropie und informations-Entropie aufbaut. Ich würde es auch erst glauben, wenn mir jemand ein Experiment zeigt, bei dem sich an einem Computerspeicher tatsächlich thermische Effekte durch das Löschen von Informationen zeigen lassen. --Homosapiens 21:01, 20. Okt. 2006 (CEST)

Quanteninformation

Die Quantenmechanik zeigt, dass Quantenobjekte eine Art Information enthalten, die nicht über klassische Kanäle (also beispielsweise als Folge von Nullen und Einsen) übertragen werden kann. Außerdem kann man Quanteninformation nicht kopieren (ohne die Originalinformation im Original zu zerstören).

Die besonderen Eigenschaften der Quanteninformation ermöglichen Anwendungen, die mit klassischer Information nicht möglich sind, wie Quantencomputer und Quantenkryptographie.

Was ist klassische Information? Um die Begriffsdifferenzierung klassisch gegen nicht-klassisch einzuführen bedarf es sicher mehr als diese zwei Sätze. Ein siehe auch unten am Arikel auf Quantencomputer dürfte vorerst völlig ausreichen.

Ich denke ein Grundproblem bei dieser Diskussion ist, dass für einige Leute eine physikalische Grösse bereits Information ist. In Spezialfällen kann das der Fall sein, aber nicht allgemein. Vgl. Artikel Information  ;-).

HannesH 22:35, 19. Nov 2004 (CET)

Ich halte obigen Abschnitt auch nicht für gelungen (ist auch nicht von mir), und in teilen ungenau bis fehlerhaft. Dennoch bin ich dafür, den Zusammenhang anzuerkennen und zu erläutern. Ich persönlich würde Information einfach als Gegenteil von Entropie betrachten, aber darüber kann man prächtig philosophieren, insbesondere im zusammenhang mit Gravitation. Ich halte es jedoch für kaum bestreitbar, dass jede physikalische Grösse spätestens dann zur Information wird, wenn sie beobachtet wird. Ein gutes Beipiel für den Zusammenhang ist auch der Begriff Wechselwirkung, der ja nur ein anderes Wort für Kommunikation bzw. Informationsübertragung ist. Oder andersrum: Information ist IMHO alles, was einen Unterschied macht. -- D. Düsentrieb 23:42, 19. Nov 2004 (CET)
Nachtrag: ein Zitat aus Entropie, der ganz gut zusammenfasst worum es geht:
Das Gegenteil von Entropie ist Negentropie, also im physikalischen Sinne Ordnung oder im Sinne der Informationstheorie Information.
-- D. Düsentrieb 23:48, 19. Nov 2004 (CET)


Einverstanden. HannesH 10:08, 20. Nov 2004 (CET)
Das halte ich für äusserst widersprüchlich, zu sagen Entropie sei der Gegenpart zu Information, zumal Information wie auch Entropie zwei nach innen gewandte Dinge sind, ebenso ergibt auch ein Ausdruck wie Informationsentropie ein Beinschlag mit Sturz. Grundlegend: Information kann und wird niemals in einer Umwelt auftauchen, daher wird es nie versendet, elektronisch verarbeitet oder gespeichert werden. (Siehe v.Förster,Wissen und Gewissen). Information ist ein Verfahren und kein Datum. @ Düsentrieb...ja du hast recht, wenn es beobachtet wird und ja wenn es einen Unterschied macht,das ist neurophysiologisch begründet, (maturana). Die Veränderungen in unserer Umwelt werden informiert, immer neurophysiologisch, damit unser sensomotorischer Apparat reagieren kann.Information ist dabei eine kontinue aber dennoch temporäre Operation des Gehirns, es würde niemals Sinn machen Informationen zu speichern, nur der Betrag der Information bleibt als Datum zurück, man muss sich mal vorstellen welche Kapazitäten unser Gehirn aufbringen müsste, um das was man üblich als Information versteht zu speichern.
--Vito bica 22:29, 22. Dez 2004 (CET)

Kritik der Wesentlichkeit

Im Artikel ist als fünfter Absatz zu lesen:

Das Wesentliche an Information ist die Eigenschaft, Veränderungen im empfangenden System hervorzurufen.

Das ist so aussagekräftig wie

Das Wesentliche einem Hammerschlag ist die Eigenschaft, Veränderungen im empfangenden System hervorzurufen.
Das Wesentliche an Bananen ist die Eigenschaft, (irgendwann) gelb zu sein.

"Wesentlich" wofür? Wesentlich sollte IMHO sein, dass in einem Artikel zum Thema "Information" eine Defininition oder zumindest hinreichende Kriterien genannt werden, wann (in den verschiedenen Disziplinen) ein Ding Information genannt werden darf. --87.183.154.138 15:21, 21. Feb. 2009 (CET)

Unter 10 Neuigkeitsgehalt? Wird Neuigkeitsgehalt und Wiedererkennbarkeit als wesentlich behauptet. Wenn man die verschiedenen Eigenschaften, die eine Information haben kann, untersucht, wird man feststellen, dass die "Veränderung im empfangenden System" die größte Priorität hat. Beispiel:Wenn ich eine ausländische Zeitung habe, dann weiss ich zwar, dass da eine Information enthalten ist, aber wenn ich sie nicht verstehe, kann sich keine Veränderung bei mir zeigen, d.h. die eigentliche Information hat mich nicht erreicht – ich halte nur den Träger in den Händen. --178.2.221.112 16:12, 10. Nov. 2010 (CET)

Im Kontext/System/Medium lebende Zelle ist die Modulation der Reihenfolge der Nukleotide im Träger DNA/RNA die Darstellung der Information welche Aminosäuresequenzen/Proteine in den Ribosomen synthetisiert werden sollen. Insofern bewirkt die Information dargestellt in der RNA Veränderungen im empfangenden System Ribosom. Nur dort und innerhalb der Zelle entfaltet diese Information ihren Sinn und Zweck und haben dort ihre Relevanz. Und obwohl das Genom komplexer Organismen schon sequenziert wurde, also die Abfolge der Nukleotide ausgewertet werden kann, ist noch kein umfassendes Wissen darüber vorhanden was die Informationen bedeuten, welchem Zweck die Proteine in der Zelle erfüllen. Insofern ist für uns Menschen die decodierte Nukleotid-Sequnz offensichtlich eine Information mit der wir allerdings noch nicht allzu viel anfangen können.

An dieser Stelle möchte ich auch meinen Diskussionsbeitrag 'Signal und Information' im Artikel 'Signal (Physik)' hinweisen. gero.dobberstein@t-online.de 217.226.57.55 04:51, 8. Aug. 2009 (CEST)

Wie ich oben schon unter "Aktuelle Definition mangelhaft" erklärte, ist alles materielle Zugleich auch Information, wobei der Kontext bekannt sein muß, sonst ist der Sinn (die Information) nicht aus dem matreiellen Gegenstand (Informationsdarstellung) erkennbar. gero.dobberstein@t-online.de -- 194.138.39.52 10:57, 9. Aug. 2010 (CEST)

Aktuelle Definition mangelhaft

Ich bin gerade zufällig auf diese Seite gestoßen, da ich eine Definition für den Begriff 'Information' suchte. Zugegebenermaßen ein nicht so einfach zu definierender Begriff. Allerdings ist die Definition, so wie sie jetzt auf der Seite steht, einfach - sorry - scheiße. Da wird um den heißen Brei herum gerdet und am Ende noch ein englisches Zitat eingeworfen - bravo! Echt professionell! Ich empfehle dringendst, die Definition zu überarbeiten. Für eine allgemeine Definition sollte man sich vielleicht eher an einem richtigen Lexikon orientieren.--139.18.249.170 11:14, 9. Jan. 2010 (CET)

Ich muss mich anschließen! Information...ist ein in vielen Lebensbereichen verwendeter Begriff. Was ist das für eine nichtssagende Floskel? ...Dazu gehören die Naturwissenschaften, die Geisteswissenschaften, die Technik und der Bereich des menschlichen Handelns. Ja schön, welcher Bereich gehört denn nicht dazu? Wieder nichtssagend. Ein Blick auf die englische Seite tut da wirklich gut! http://en.wikipedia.org/wiki/Information --Intja 16:23, 19. Jan. 2010 (CET)

Die Information verliert, sobald sie informiert hat, ihre Qualität als Information: „News is what's different.” Das ist unhaltbar. Allein schon, Information mit News zu übersetzen. Für Neuigkeit würde das stimmen. Grausam. Im allgemeinen Sprachgebrauch bezeichnet eine Information Daten und deren Bedeutung (http://www.springerlink.com/content/t874mfknl97pnnnd/). Ich habe allerdings nicht den Eindruck, dass sich jemand um diese Seite hier kümmert. -- 78.53.120.194 19:44, 1. Dez. 2011 (CET)

Späte Ergänzung: Aus meiner Sicht ist der Artikel SOOO schlecht nicht wie es hier in den Diskussionen scheint. Aber die Einleitung ist wirklich für kaum jemanden verständlich. Da wird im ersten Satz behauptet, I. sei "der strukturelle 'Aspekt' ... von Wechselwirkungen"; hallo, was soll das sein? Ist ein Zeitungsartikel bzw. das was darin transportiert wird, ein 'struktureller Aspekt'? Nachschauen unter Aspekt hilft übrigens auch nicht.
Besonders beim 3. Satz stehe ich im Dunkel. Er lautet: "Sie ist ausnahmslos jeder Übertragung von Materie (sowie mikroskopisch und makroskopisch) von Energie oder von Impuls als Form aufgeprägt." Was ist 'als Form aufgeprägt'? Ist hier gemeint: "Sie entsteht ausnahmslos bei der Übertragung von Materie (mikroskopisch wie makroskopisch), von Energie oder von Impulsen."? Ich will hier nicht auf den Inhalt eingehen, sondern nur den Satz verstehen.
Für den Fall, dass all diese Aussagen aus geisteswissenschaftlicher Sicht (und evtl. als Meta-Ebene) korrekt sein sollten, würde 'man' sich eine 'Übersetzung' für normale Leser und insbesondere OMAs wünschen. Schließlich sollte Wikipedia für ein derart zentrales und wichtiges Lemma eine korrekte UND verständliche Definition bieten. --VÖRBY (Diskussion) 13:00, 18. Apr. 2013 (CEST),
geändert: --VÖRBY (Diskussion) 17:47, 18. Apr. 2013 (CEST)
nochmal ergänzt: --VÖRBY (Diskussion) 17:47, 20. Apr. 2013 (CEST)


An dieser Stelle möchte ich noch einmal auf meine Definition von Information hinweisen, die ich vor einiger Zeit zur Diskussion gestellt hatte. Diese ist zugegebenermaßen sehr abstrakt und von der Wortwahl eher aus dem Kontext der Nachrichtenverarbeitung und -übertragung zu verstehen. - Mit der Bitte um Kritik oder Widerlegung:

* Information ist die Modulation eines Trägers auf/in einem Medium. *

Information und Informationsdarstellung (Modulation, Träger, Medium) bilden einen dialektischen Zusammenhang - sind untrennbar miteinander verbunden. Auch auf die Gefahr hin mißverstanden zu werden, möchte ich hier zum Vergleich auf den Teilchen/Welle-Dualismus hinweisen: Eine Welle *ist* ein Teilchen - man kann nur beides zugleich haben. Falls einer der drei Bestandteile der Darstellung der Information fehlt (Modulation, Träger oder Medium), kann keine Information existieren oder übertragen werden. Andererseits ist die materielle Welt auch immer gleichzeitig Information.

Zum Beispiel ist bei einem Schriftstück das Blatt Papier das Medium auf dem der Träger Tinte festgehalten werden kann. Die wohlgeordnete Verteilung der Tinte auf dem Papier ist die Modulation des Trägers. Fehlt nur eine der drei Bestandteile der Information: Papier, Tinte oder dessen wohlgeordnete Verteilung kann das Schriftstück nicht existieren (ist das vorliegende Objekt kein Schriftstück).

Auffallend in Beispiel ist noch das Wort *wohlgeordnete* (Verteilung). Information ist nämlich nur in Bezug auf einen Kontext (Schrift in einer bestimmten Sprache oder eine Zeichnung in einer Symbolsprache) möglich. Der Kontext ist eine Einordnung in eine Modellvorstellung.

Einen Stein als Informationsquelle anzusehen ist möglich, wenn z.B. unter der Modellvorstellung der physikalischen Größe Masse, die Information gewonnen wird, welche Masse der Stein hat. Der Stein kann allerdings nur in einem Bereich äußerer Unstände existieren, wobei wir wieder bei dem Begriff Medium wären. Das Innere einer Sonne wäre z.B. kein geeignetes Medium zur Existenz des Steins. Im Medium also in dem der Stoff aus dem der Stein besteht, ist dieser in gewisser Weise geformt (moduliert), woraus sich in Bezug auf bestimmte Modellvorstellungen Informationen gewinnen lassen.

Wobei die "Gewinnung von Information" eigentlich nur die Umwandlung von einem System1 {Information~Informationsdarstellung1: (Modulation1, Träger1, Medium1)} in ein anderes System2 {Information~Informationsdarstellung2: (Modulation2, Träger2, Medium2)} ist. Dies würde allerdings streng genommen auf ein mechanistisches Weltbild hinauslaufen, welches besagt, daß man nur alle Informationen zum Zustand im jetzigen Zeitpunkt haben müßte, um alles aus der Geschichte zu wissen und alles zukünftige vorhersagen zu können.

Man beachte: kopiert man einen Datenträger (Kontext: EDV), so ist die kopierte Information die *selbe* aber die Informationsdarstellung die *gleiche* (anderes Medium)! -- 194.138.39.62 16:46, 5. Aug. 2010 (CEST)

Bitte unterscheide Information und Informationsträger. Information ist nichtmateriell --94.216.226.168 15:44, 6. Nov. 2010 (CET)
Meine Behauptung ist ja gerade, daß Information immer an die materielle Darstellung gekoppelt ist. Dies ist die Behauptung, daß Matrie und Information einen Dualismus bilden (vergleichbar mit dem Welle-Teilchen-Dualismus)!

Der (Informations-)Träger ist ja nur einer der drei zusammenhängenden Begriffe von Information. Um meine ursprüngliche Definition einmal zu erweitern (und damit der Definition im Text auch näher zu kommen und die "Signallastigkeit" etwas zuverringern):

Information ist die Modulation/Variation eines/r Trägers/Symbolik in/auf einem Medium/Kontext.

Der/Die Träger/Symbolik kann nur in oder auf einem Medium/Kontext existieren. Fehlt eine der drei Bestandteile Modulation/Variation, Träger/Symbolik oder Medium/Kontext, dann gibt es auch keine Information. Die drei vorgenannten Begriffe können nur über ihren Zusammenhang definiert werden. Quelle und Ziel von Information ist dem Wesen nach der Mensch mit seinem geistigen Verständnis (oder eine andere Gattung von intelligentem Wesen).

Der/die Träger/Symbolik kann sowohl örtlich (1D, 2D, 3D) als auch zeitlich (t) oder kombiniert örtlich und zeitlich moduliert/variiert sein.

Ein Datenträger oder Informationsträger ist Medium und Daten sind Information gemäß der oben stehenden Definition von Information. Der Begriff Datenträger wird umgangssprachlich für das Speichermedium elektronisch maschinenlesbarer Darstellungen von Information verwendet.

Eine Darstellung (von Information) ist die wohldefinierte (1D, 2D, ..., 4D) und dem Wesen nach verständliche Art der Modulation/Variation eines/r Trägers/Symbolik in/auf einem Medium/Kontext. Die Darstellung von Information ist die Anwendung und Übertragung von einer bestimmten Modulation eines bestimmten Trägers in/auf einem bestimmten Medium auf eine andere bestimmte Modulation eines möglicherweise anderen Trägers in/auf einem möglicherweise anderen Medium, auf wohldefinierte (von Mensch oder Maschine zu Maschine) bzw. bekannte und verständliche Art (von Mensch oder Maschine zu Mensch). Die Übertragung von Maschine zu Maschine kann ein natürlicher Ursache-Wirkungsmechanismus sein. Der natürliche Ursache-Wirkungsmechanismus wird an dieser Stelle als Maschine verstanden (auch wenn kein Mensch an der Verwirklichung natürlicher Ursache-Wirkungsmechanismen beteiligt war). Damit ist der Gegenstand selber auch Information und Information ist selber auch ein Gegenstand in seiner bzw. ihrer Darstellung. Ein Gegenstand hat mindestens eine Information. Eine Information wird mindestens von einem Gegenstand dargestellt. Zum Beispiel ist die Darstellung aus einer Maschine oder durch den Menschen Mensch von Text mittels Druckerschwärze bzw. Tinte als Träger in Form von Buchstaben (Symbole in einer Sprache) auf einem Medium wie einem Blatt Papier moduliert/verteilt dem Ziel alphabetisierter Menschen im Kontext seiner Sprache direkt verständlich. Drucksatz ist eine nicht flüchtige Darstellung. Zum Beispiel ist die Darstellung von Text gesprochen von einem Menschen mittels Druck als Träger in Form von Schwankungen (Schall) in einem Medium wie Luft im hörbaren Frequenzbereich moduliert dem Ziel nicht tauber/gehörloser Menschen im Kontext seiner Sprache direkt verständlich. Schall ist eine flüchtige Darstellung.

Die Darstellung von Information ist vielschichtig - hier ein Beispiel - ein gedrucktes Schriftstück: Die unterste Schicht ist die ortlich verteilete Anordnung (Modulation) der Tinte (Träger) auf dem Blatt Papier (Medium). Die Schicht darüber: die örtliche Verteilung der Tinte bildet eine Abfolge von Symbolen - z.B. lateinische Buchstaben als Kontext, welche aber nur in ihrem übergeordneten Kontext der Sprache mit ihrer Syntax und Grammatik (weiter übergeordnete Schicht) verstanden werden können. Syntak und Grammatik sind dann Regeln der Darstellung.

Diese Vielschichtigkeit der Darstellung von Information ist meiner Meinung nach das Bindeglied zur Sigmatik, Semionik (siehe unten) oder anderen Betrachtungsweisen als Schichten der Darstellung.

gero.dobberstein@t-online.de -- 194.138.39.55 11:58, 1. Jul. 2011 (CEST)

Strukturierungsvorschlag

Bitte mal einen Blick auf http://de.wikipedia.org/wiki/Wikipedia:Kandidaten_f%FCr_exzellente_Artikel#Information_--_20._November werfen.

(Das folgende habe ich mal zu Anfang dieser Seite geschrieben und jetzt an diese Stelle kopiert) Ich möchte vorschlagen, eine zusätzliche Orientierung einzubauen, die ich bei Gaus (Gaus, W. [1995], Dokumentations- und Ordnungslehre, Berlin Heidelberg 1995) fand: Information als

  1. Struktur = structure approach
  2. Erkenntnis = knowlegde approach
  3. Signal = signal approach
  4. Nachricht = message approach
  5. verstandene Nachricht = meaning approach
  6. Wissensvermehrung = effect approach
  7. Vorgang = process approach

Mit freundlichem Gruss P. Meurer, 28.11.03

djspacejam@yahoo.de

Nur zu! Einfach im Artikel auf "Bearbeiten" klicken und einbauen! Uli 17:58, 28. Nov. 2003 (CET)

Informationsbegriff in der Semiotik

(alles Quatsch)

Wieso die Trennung Information (Semiotik) und Information? Und dann auch noch die veraltete Sicht der Semiotik in der die Sigmatik-Ebene fehlt? Der ganze Text baut auf der veralteten Sicht auf und kann eigentlich in die Tonne! Guillermo 12:45, 10. Dez. 2003 (CET)

Man müsste hier viel mehr "trennen", denn es gibt durchaus verschiedene Sichten auf Information, so auch die der Informationswissenschaft, die zwar auch die eher naturwissenschaftliche Sicht kennt, aber doch mehr aus der Sicht des Menschen als des Nutzers von Information argumentiert, siehe Information (Informationswissenschaft) (als Eintrag erst ein Anfang). lucky 13:00, 10. Dez. 2003 (CET)
"Alles Quatsch" war zwar plakativ gemeint. Ich bin aber durchaus dafür, hier nochmal von Grund auf an den Artikel neu zu verfassen. Guillermo 13:01, 10. Dez. 2003 (CET)

Vorschlag pro Gebiet einen individuellen Artikel zu schreiben

Bei so schwierigen Fällen kann man vielleicht doch mal einen temporär parallen Artikel schreiben, wenn die beiden dann zusammengeführt werden. Vielleicht würde ein Splitten in Information in der Physik, Information in der Philosophie, Information in der Informationswissenschaft... der Sache ganz gut tun, sofern ein kurzer, verständlicher, neutraler übergeordneter Artikel Information existiert. -- Nichtich 18:35, 11. Dez. 2003 (CET)

Information in der Wirtschaftinformatik

Was haltet Ihr von der Mitarbeit am Wikipedia:WikiProjekt Wirtschaftsinformatik. Ein wesentlicher Teil der Wirtschaftsinformatik ist der Informationsbegriff. Daher heißt das Fach auf Englisch auch information systems. Da könnte man dann den Themenkomplex geordnet einmal neu aufrollen Und Begriffe wie Semiotik, Daten, Wissen, Informationsmanagement etc. gleich mit behandeln. Automatischer Zeitstempel durch vier Tilden hitnereinander (~) Stern 11:48, 21. Jan. 2004 (CET)

Der Ursprung biologischer Information

Ganz interessante Ausführungen zur Information sind zu lesen in Bernd-Olaf Küppers "Der Ursprung biologischer Information". Im Prinzip steht dort: die Menge an Information in einem Informationsträger ist kleiner als die Menge an Information in einem Programm (einer Turingmaschine), das die erste Information erzeugen kann. Anders ausgedrückt: Man hat eine Bitfolge und einen Algorithmus, der diese Bitfolge erzeugt. Wenn die Länge der Bitfolge des Algorithmus kleiner ist als die erzeugte Bitfolge, kann seine Informationsmenge nicht größer sein als es seiner Bitzahl entspricht. Nun geht man iterativ vor, das heißt, man sieht das Programm als Information an und versucht, weiter zu reduzieren durch finden eines neuen, noch kürzeren Programms. Wenn das gelingt, hat man eine obere Schranke für die Informationsmenge gefunden.

Auf die Natur angewendet bedeutet das eventuell, dass sich im Laufe der Geschichte die Natur aus dem Chaos schöpft, das heißt, sie baut bestimmte Strukturen auf und wir als Teil der Natur versuchen, die Algorithmen zu finden, die bei ihrer Anwendung den gleichen Zustand generieren. Nun vergeht aber Zeit, das bedeutet, dass wir nicht ein statisches System betrachten, sondern ähnlich dem Reversispiel (Go auch? hab ich nie gespielt) kann mit jedem neuen Zug alles einfach umklappen. Es bleibt also interessant! RaiNa 17:44, 1. Feb. 2004 (CET)

Das sind Punkte, die im Artikel noch fehlen, meines Erachtens aber nicht unbedingt inhärent zum Begriff "Information" gehören: Bei diesen Betrachtungen geht es vorwiegend um Komplexität, die über algorithmische Tiefe definiert wird. Das ist eng verbunden mit der Information, soviel ist klar, nur halt nicht unbedingt Bestandteil des Charakters von Information. Uli 17:53, 1. Feb. 2004 (CET)

Ich habe dieses Buch zitiert, weil ich es für bemerkenswert halte. Mir ist die aktuelle Definition viel zu kompliziert. Ich kann das aber im Moment nicht diskutieren, denn das verlangt schon viel Zeit. Zur Zeit ist mein Hauptthema mein Verständnisproblem Wirkungsquantum. Aber ich will kurz ausführen:

Diskussion um die Definition des Begriffs

Information ist das, was einen Informationsträger zu einem Zeitpunkt t von sich selbst zu einen anderen Zeitpunkt t1 unterscheidbar macht. Das heißt, zuerst muss man einen Informationsträger einführen als System, das mehrere Zustände annehmen kann. Der einfachste Informationsträger hat zwei mögliche Zustände und hat die Kapazität 1 Bit. Der nächst kompliziertere hätte drei mögliche Zustände und 1,5 Bit??. Der nächste vier Zustände und 2 Bit. Letzterer kann durch zwei einfachste substituiert werden. Das ist dann der erste Schritt.

Die Dimensionen der Modulation/Variation können örtlich und/oder zeitlich sein. Die Modulation eines Trägers, der zwei Zustände zugeordnet zu 0 und 1 annehmen kann ist eben die Darstellung mit Hilfe dieser beiden Zustände, die aber örtlich und/oder zeitlich den Träger ändern. Die Zuordnung von Werten oder Symbolen zu Bit-Mustern ist die Darstellung der Information.

gero.dobberstein@t-online.de -- 194.138.39.55 11:58, 1. Jul. 2011 (CEST)

Nun kann man fragen, wie stellt man eigentlich fest, wieviele Zustände ein Informationsträger annehmen kann? Dazu muss man ihn beschreiben und prüfen, auf wieviele Arten das möglich ist. Hier ein einfaches Beispiel, das aber gleich schon die Problematik zeigt: Man hat einen Magnetkern (wie in den alten Kernspeichern). Wenn man nun ein Bit einschreibt und es wieder liest, wird es durch das Lesen invertiert und muss wieder zurückgeschrieben werden.

Hat man nun einen Informationsträger für n Bit, so kann man in ihm 2^n verschiedene Bitsequenzen speichern, das heißt, man kann ein Symbol aus einem Ensemble von 2^n Symbolen für die Symbolisierung von 2^n beliebig komplexen, unterschiedlichen Objekten in diesem Informationsträger als Information speichern. (klingt noch kompliziert).

Liegt nun eine Bitfolge vor, so stellt sich die Frage, was sie symbolisiert. Die Antwort darauf liegt meiner Auffassung nach aber schon außerhalb des Themas.

Ich denke, dass obiger Absatz aber richtig definiert, was Information ist. Wenn man so Konsens erzielt, kann man weiter fragen, wie man zum Beispiel bei welchem Rauschen möglichst viele Bits pro Sekunde durch einen Draht quetscht. RaiNa 21:11, 1. Feb. 2004 (CET)

Das definiert Information nur auf der "untersten", der syntaktischen Ebene, wie sie die Nachrichtentechnik und die Informationstheorie benutzt. Information geht aber darüber hinaus, die bloße Möglichkeit des Vorhandenseins von unterschiedlichen Zuständen ist noch keine Information: Information ist (vermutlich) nur dann vorhanden, wenn sie auch bedeutungstragend für das empfangende System ist, das sind die Ebenen darüber: die der Semantik, die die Symbole interpretiert (und erstmal definiert, was das Bit überhaupt ist), und die der Pragmatik, die die Wirkung beschreibt (Information als etwas neues). Information definiert sich über zwei Punkte: Die Wiedererkennbarkeit und die Neuigkeit. Beide definieren letztlich erst, welche Zustände man am Informationsträger unterscheidet, der Informationsträger ist nicht per se in unterscheidbare "Stückchen" aufgeteilt. Beispiel: Der Ball ist entweder rot oder blau: Das ist ein Bit. Nun interessiert mich aber gar nicht die Farbe, sondern die Frage, ob er groß oder klein ist (oder ob ich ihn an den Kopf bekomme oder er an mir vorbeifliegt): Erst indem ich ein Bezugssystem an den Träger anlege (einen semantischen Kontext definiere, innerhalb dessen mir der Informationsträger etwas neues mitteilen kann), definiere ich, was letztlich ein Bit ist. Uli 21:44, 1. Feb. 2004 (CET)

Ich denke, hier ist ein Problem: Wir bauen ein komplexes System auf, bevor wir das Fundament setzen. "Das Bit ist die kleinste Informationseinheit". Dieser Aussage stimmen viele zu, das kann man oft lesen. Mir sagt es nichts. Deshalb habe ich versucht, zuerst den Informationsträger zu definieren und dessen Fähigkeit, eine bestimmte Bitmenge zu tragen. In deinem Beispiel: ein Bit hat die Fähigkeit, wahlweise einen roten oder einen blauen Ball zu repräsentieren, oder einen Großen oder Kleinen. Um aber das Bit an den Ball zu koppeln, verlangt es einen Mechanismus, der viel komplizierter ist als der Speicher oder der Ball. Die Fähigkeit, ein Bit als kleinste Informationseinheit zu speichern, ist nicht abhängig von der Verwendung des Bits. RaiNa 22:23, 1. Feb. 2004 (CET)

zum 'wesen der information': 82.82.55.81 - wie auch immer du heisst - wenn du der meinung bist, dass 'der neuigkeitsgehalt' falsch ist, dann begruende das bitte. -- kakau 14:23, 2. Mär. 2004 (CET)

Abgrenzung von Information gegenüber Wissen

Es scheint mir hier ziemlich stark und unreflektiert Information mit "Wissen" oder Bedeutungsinhalten gleichgesetzt zu werden. Dabei ist Information in Wirklichkeit nur der Übertragungsvorgang, nicht aber der Inhalt an sich. Dies verdeutlicht besonders folgendes:
Die Darstellung im Artikel

  • Information ist ein Gewinn an Wissen
  • Information ist die Verringerung von Ungewissheit
  • Information ist eine Mitteilung, die den Zustand des Empfängers ändert.

bedeutet, näme man sie ernst, daß per dieser Definition

  • inhaltlich falsche Mitteilungen
  • Mitteilungen, die Ungewißheit erzeugen
  • Mitteilungen, die mich unberührt lassen - keine Informationen sein können.

Per allgemein akzeptierter Definition sind aber alle Mitteilungen als solche doch "Information". Obige Zuordnung muß also falsch sein.

Der Satz "Die Semiotik versteht unter Informationen zweckorientierte Daten, die das Wissen erweitern." würde bedeuten: wenn mir aus dem Semiotik-Seminar Daten übermittelt werden, ist das als Informationsinformation zu betrachten. Lustig, nicht? Gruß --WHell 12:03, 21. Apr. 2004 (CEST)

Neuer Artikel Information und Kommunikation

Aus meiner Begriffsklärung ist leider auch ein etwas längerer Artikel geworden, den ich unter Kommunikation und Information abgelegt habe --Hansjörg 11:46, 26. Jun. 2004 (CEST)

Überarbeitungs- bzw. Löschantrag des Absatzes Zyklische Verschränkung

Ich beantrage dass das Kapitel 2.5 - Zyklische Verschränkung - von jemandem überarbeitet wird, der versteht, was der Autor damit gemeint hat. Ich verstehe es nicht. Von mir aus kann er auch vorläufig gelöscht werden. HannesH 14:12, 11. Sep. 2004 (CEST)

Ich bin dafür, den Absatz und ganz besonders die Tabelle "Telefongespräch" ersatzlos zu löschen. Es scheint sich hier eher um eine Art "Privattheorie" des Autors zu handeln, die er zudem auch noch weitgehend unverständlich kommuniziert. Die Begriffe Syntax, Semantik und Pragmatik werden in der Tabelle mit Erscheinungen in Zusammenhang gebracht, die nun aber auch wirklich überhaupt nichts mit diesen Begriffen zu tun haben. mfg --michaelsy 07:41, 6. Okt. 2004 (CEST)
Die Tabelle finde ich auch nicht schön, das Beispiel ist in zu vielen Punkten zu unsauber. Die zyklische Verschränkung selbst würde ich aber drinlassen. Wie ausgeführt, ist eine rein syntaktische Betrachtung (bspw. die Informationstheorie im Sinne Shannons) nicht möglich, ohne bereits eine Semantik (bekannter Zeichenvorrat) vorauszusetzen. - Uli 09:29, 6. Okt. 2004 (CEST)
Mit Wikepedia wird das Ziel verfolgt, bekanntes Wissen darzustellen. Ich denke nicht, dass der Absatz "Zyklische Verschränkung" diesem Anspruch gerecht wird. Ich lasse mich aber gerne eines Besseren belehren. Kannst Du mir/uns z.B. eine Literaturstelle nennen, in der etwas zum Thema "zyklische Verschränkung" ausgeführt wird oder in der der von Dir verwendete Begriff "Semantopragmatik" definiert (oder auch nur verwendet) wird? Google weist keine Stelle aus, außer unserem Wikepadia-Artikel - ich finde, das spricht für sich.
Was meinst Du eigentlich mit "eine rein syntaktische Betrachtung ... ist nicht möglich"? Was verstehst Du unter dem Begriff Semantik? Das Annehmen eines "bekannten Zeichenvorrats" innerhalb einer mathematischen Theorie ist kein semantischer Aspekt. Die Semantik beschäftigt sich mit Aspekten der Bedeutung von z.B. Zeichen (Semiotik), Informationen (Informationswissenschaft) bzw. Sprache (Linguistik). Solange also z.B. den Zeichen innerhalb eines „bekannten Zeichenvorrats“ keine Bedeutung zugeordnet wird, ist kein semantischer Aspekt vorhanden. Gruss --michaelsy 09:50, 8. Okt. 2004 (CEST)
Ich kann Dir den in den Literaturangaben genannten "Holger Lyre: Informationstheorie" ans Herz legen. Ich zitier mal kurz das, was ich als zyklische Verschränkung verstehe, S. 193f: "... ist die Annahme semantischer Ebenen nur eine Näherung, denn die in die Darstellung semantischer Ebenen ihrerseits investierte Information muss ja unter einer bereits vorausgesetzten anderen Semantik stehen.". Der Begriff "Semantopragmatik" wird ebenfalls von Lyre eingeführt (drum habe ich auch "manchmal zusammengezogen" geschrieben, nicht "oft"), der auf Carl Friedrich von Weizsäcker (Information ist nur, was verstanden wird; Information ist nur, was Information erzeugt) aufsetzt. Google ist nicht der Quell aller Informationen ;-) - Uli 10:17, 8. Okt. 2004 (CEST)
Ich würde nicht mit dem unüblichen Begriff Semantopragmatik arbeiten, sondern die Ebenen Semantik und Pragmatik weiterhin getrennt behandeln, wie es im Artikel der Fall ist. Ich finde weiterhin wir sollten den Absatz vorerst ersatzlos streichen, da er wirr wirkt. Uli kann ihn durchaus später wieder hereinsetzen, wenn er die Bezüge (Verschränkungen?) der Ebenen besser herausarbeiten kann. Oder: Vielleicht kann mal jemand beschreiben, wie die vier Ebenen miteinander in Beziehung stehen; es muss ja nicht gleich mehrfach und zyklisch verschränkt sein.  ;-) HannesH 14:59, 8. Okt. 2004 (CEST)
Wie man es dreht oder wendet: Der Absatz gehört hier nicht her. Es wird nicht verständlich, was eigentlich gemeint ist – und allgemeinverständlich ist der Absatz schon gar nicht.
Der Absatz behandelt eine sehr spezifische Fragestellung, die eigentlich erkenntnistheoretisch diskutiert werden müsste und diese steht mit dem Thema des Artikels "Information" in nur sehr indirekter Beziehung.
Die angeführte Tabelle ist absolut nicht geeignet, die übliche Verwendung der Begriffe Syntax, Semantik und Pragmatik zu erläutern. Sie ist in dieser Hinsicht schlichtweg falsch.
Der Begriff „Semantopragmatik“ stammt nach Angaben des Autors (Uli) aus einem philosophisch orientierten Buch aus dem Jahr 2002 ist somit noch brandneu und hat offensichtlich noch nicht einmal den Eingang in eine öffentliche Diskussion gefunden; ganz zu schweigen davon, dass man hier von bekanntem Wissen sprechen könnte.
Der Ausdruck „zyklische Verschränkung“ ist wohl ein Begriff, der nur innerhalb der Privattheorie von Uli eine Verwendung findet und somit auch nicht dem bekannten Wissen angehört.
--michaelsy 16:49, 8. Okt. 2004 (CEST)

Kommunikation

Ich möchte vorschlagen, diesen Artikel inhaltlich und Strukturell mit dem Artikel Kommunikation und seinen fachspezifischen Unterartikeln zu koordinieren - insbesondere desshalb, weil die Problematik ähnlich ist: Es gibt nur eine sehr dürftige Definition, auf die sich alle Disziplinen einigen können. Vieles muss dann Fachspezifisch abgehandelt werden. Also, schaut mal ein...

P.S.: Die Artikel Kommunikation und Information sowie Information und Kommunikation sollte man evtl mit einbinden. -- D. Düsentrieb (?!) 14:53, 11. Sep. 2004 (CEST)

Hinweis @Ulrich Fuchs: Information hängt mit Kommunikation zusammen

Der Zusammenhang mit Kommunikation soll m.E. ausgebaut werden. Das Löschen eines Satzes, der darauf hinwies ist nicht zielführend.

Startpunkt ist folgende Überlegung: In der klassischen Informationstheorie von Shannon geht von einer Kommunikationsituation (Sender-Emppfänger-Modell) aus und entwickelt vor diesem Hintergrund den Informationsbegriff.

In einer beliebigen Struktur steckt nicht per se Information im allgemeinen Sinn des Wortes. Information setzt den Entscheid (s. Willen) voraus etwas den Wert von Information zu geben.

Der von Ulrich Fuchs angesprochene Fall, dass irgendwelche Strukturen Information enthalten meint wohl folgendes:

Durch Naturbeobachtung, Messung und Festhalten (Aufzeichnungsgerät, Papier) wird Information erzeugt. Dabei ist der Mensch direkt oder indirekt der Auslöser. Dass das Erdinnere eine Struktur hat ist nicht schon Information. Erst wenn ich es mit Hilfsmitteln erforsche und beschreibe und in einen Zusammenhang stelle, sei es für mich selbst, sei es für andere wird es zur Information. Auch zum Beispiel die Temperaturverläufe, Windverhältnisse und Wolkenverteilungen werden erst zur Information, wenn sie entweder direkt beobachtet oder durch Messgeräte und Computer erfasst und verdichtet und ausgewertet werden. Dann verfügen wir über Wetterinformation.

Zudem: Die Beispiele wo behauptet wird, es gäbe Information ohne Sender sind meistens sehr gesucht.

Ein Hinweis: Ich kann durchaus Sender und Empfänger einer Information sein: Bsp. Führen einer Agenda oder eines Laborjournals.

HannesH 12:16, 16. Okt 2004 (CEST)

Ja, genau um den Fall mit dem Erdinneren gehts mir. Ich halte daher die Aussage, dass Information immer mit Kommunikation verknüpft ist, für falsch. Kommunikation ist ein zweiseitiger Prozess. Der Großteil der Informationen, die wir verarbeiten, hat aber nur in den wenigsten Fällen einen Sender, wenn man mal die Natur oder das Universum "an sich" als Sender ausschließt. Wenn ein Ingenieur die Bruchstelle eines Werkstücks betrachtet, ein Historiker aus alten Rechnungen Informationen herausfiltert, die die längst verblichenen Rechnungssteller nie mit der Rechnung mitschicken wollten (beispielsweise wie man anno dunnemal ein Dach gedeckt hat, und eben nicht, was es gekostet hat) etc., dann handelt es sich um Informationen, die einem Informationsträger entnommen werden (soviel ist klar), aber die wurden nicht gesendet. Insofern ist es sicher richtig zu sagen, dass Kommunikation immer den Austausch von Information bedingt (sonst verändert sich der Zustand des Empfängers nicht, es hat dann keine Kommunikation stattgefunden), aber zu sagen, Information ist so gut wie immer an Kommunikation geknüpft, ist wohl falsch: Es gibt offensichtlich jede Menge Fälle der Informationsverarbeitung, die definitiv keine Kommunikation sind, weil die Information nicht gesendet wurde. Dennoch ist sie da, sobald man eine bestimmte Semantik an den Informationsträger anlegt. Die Kernfrage der Information ist im Grunde: Ist sie vorher schon da, oder entsteht sie erst im Moment der Beobachtung. Wenn ersteres: Was ist sie dann, wie vielgestaltig muss sie sein, um so dicht zu sein, dass sie im Grunde beliebige Semantiken unterstützt? Wenn letzteres, warum entsteht sie und woraus? - Uli 13:47, 16. Okt. 2004 (CEST)
Mal ein paar Punkte:
  • Kommunikation setzt nicht unbedingt voraus, dass es einen Sender gibt. Es gibt auch Kommunikationsbegriffe, die das nicht voraussetzen, zum Beispiel in der Systemtheorie. Dazu am besten mal die Artikel lesen, die von Kommunikation verlinkt sind.
  • Ob Information verhanden ist, wenn sie nicht kommuniziert/empfangen/verarbeitet wurde, darüber kann man streiten (Baum fällt im Wald... sollte man evtl. als Beispiel erwähen?)
  • Ich bin jedoch der überzeugung, dass Information stets kommunizierbar sein muss. Insbesondere setzt die "Verarbeitung" von Information die kommunizierbarkeit voraus.
  • Des weiteren ist Information, die nicht empfangbar ist, weil sie z.B. so weit enfernt ist, dass kein Signal von dort uns erreichen kann, zumindest irrellevant. Manche würde sogar argumentieren, dass sie für uns nicht vorhanden sei, da sie auf uns keinen Effekt hat. In der Physik ist das z.B. wichtig - die Frage, ob ein Schwarzes Loch Information vernichtet, geht auf dieses Problem zurück. Auch ein wichtiges Thema...
Ich bin daher der Ansicht, dass man den gelöschten Satz, oder einen ähnlichen, präzieseren, wieder aufnehmen sollte, damit die enge verknüpfung deutlich wird. -- D. Düsentrieb 14:22, 16. Okt. 2004 (CEST)

Ich bin ebenfalls dafür, die Verbindung zwischen Information und Kommunikation wieder herzustellen. Ich denke da vor allem an die Erklärung, die ich in Herkunftswörterbücher für informieren gefunden habe: "benachrichtigen, Auskunft geben, belehren". Damit dürfte die Verbindung zu kommunizieren zwingend sein. --cavendish 10:59, 18. Okt. 2004 (CEST)

Buch Roger Penrose, Computerdenken gelöscht

Ich habe mir erlaubt, den Verweis auf das Buch "Roger Penrose, Computerdenken" herauszunehmen. Wie es dazu kommen konnte, dass dieses Werk angeblich eine "Einführung in den Informationsbegriff" enthalten soll, ist mir schleierhaft. Es beinhaltet zwar einen bunten Reigen einiger Dutzend populärwissenschaftlicher Themen aus Informatik, Mathematik und Physik, bis hin zur Biologie und Philosophie, enthält aber nichts zum Thema Informationsbegriff. Weder das Wort "Information" noch ein davon abgeleiteter Begriff (z.B. Informationstheorie) sind überhaupt im Stichwortverzeichnis vorhanden. --michaelsy 06:58, 6. Okt. 2004 (CEST)

Ich hatte die Literaturangabe vorwiegend wegen der recht guten Beschreibung von Turing-Maschinen reingesetzt, kann mich aber mit der Herausnahme durchaus anfreunden - über Information selbst ist dem Buch wirklich kaum was zu entnehmen. - Uli 09:34, 6. Okt. 2004 (CEST)

Bemerkung zum Absatz: Binarisierung und die Wahrscheinlichkeit von Zeichen

Das folgende soll als Begründung für meine Anpassung im Absatz Binarisierung und die Wahrscheinlichkeit von Zeichen dienen.

In der klassischen Informationstheorie von geht es um die mathematische Betrachtung der Informationsübertragung. Eine wichtige Frage ist, wie ich sicher mit genügender Qualität Telefongespräche übertragen kann: Man geht davon aus, dass ein ein Signal vorliegt, das Information trägt. Ich digitalisiere das Signal, kodiere es, sende es über eine Leitung und dekodiere es am andern Ende. Für diese Arbeit gehe ich nur davon aus, dass ich ein Signal übertragen will (ob das Bach, Jazz, House oder das Gespräch mit der Oma ist, spielt keine Rolle). Signaleigenschaften (Häufigkeiten der Digitalisierungswerte) spielen die entscheidende Rolle. Syntax und Semantik, geschweige denn Pragmatik kommen hier nicht ins Spiel. D.h. die klassische Informationstheorie von Shannon beschreibt einen Teilsaspekt des Informationsbegriffes. Damit man ihm gerecht wird, sind die weiteren Ebenen auf jeden Fall einzubeziehen, was im Artikels an anderer Stelle durchaus auch geschieht.

HannesH 13:49, 6. Okt. 2004 (CEST)

Signaleigenschaften (Häufigkeiten der Digitalisierungswerte) spielen die entscheidende Rolle. Genau das ist aber die als bekannt vorausgesetzte Semantik. Die Shannonsche Theorie funktioniert nur, wenn der Zeichenvorrat bekannt ist. Beispiel: Wenn ein Faxgerät meine Nummer wählt und mir ins Ohr pfeift, ist die Information für mein Gehör nicht dekodierbar, weil die Semantik nicht bekannt ist. Erst wenn ich an diesen Fluss eine bestimmte Semantik anlege, entsteht(?!?) Information: Für ein Faxgerät ein lesbarer Datenstrom, für mich als Mensch mit etwas gutem Willen eine Melodie, eine Abfolge von Tönen. Beides sind komplett unterschiedliche Interpretationen des gleichen Informationsträgers. Information im Sinne Shannons ist nichts a priori existierendes, was sozusagen "ganz unten in der Heirarchie der Informationen" steht. Darauf sollte schon hingewiesen werden. - Uli
Die Shannonsche Theorie funktioniert nur, wenn der Zeichenvorrat bekannt ist. Einverstanden. Also z.B. die Übereinkunft, dass wir die Buchstaben A..Z und einige weitere Zeichen verwenden. Ob nun aus den Buchstaben Wörter einer existierenden Sprache und daraus sinnvolle Sätze gebildet werden (Syntax und Semantik), spielt für diese mathematischen Betrachtungen der Shannon'schen Theorie gar keine Rolle. Sie hat sich als sehr nützliches, aber keineswegs ein hinreichendes Instrument zur Charakterisierung von Information bewährt. Diesen Aspekt möchte ich gerne herausgearbeitet haben. Weiter: Eine zu allgemeine Verwendung des Begriffes Semantik (allgemein im Sinne von jeglicher Art von Übereinkunft) ist verwirrend, da dann nämlich alles Semantik ist; da bleibt man lieber bei einem deutschen Begriff. Vermutlich dürfte eine vorgängige Ausarbeitung des WP-Eintrages Semantik hilfreich sein.

Zitat aus der WP-DE: Die Informationstheorie ist eine mathematische Theorie aus dem Bereich der Wahrscheinlichkeitstheorie und Statistik, die auf Claude Shannon zurückgeht. Sie beschäftigt sich mit Begriffen wie Information, Entropie, Informationsübertragung, Datenkompression, Kodierung, Kryptographie und verwandten Themen. (Der Artikel kann einen Ausbau auch gut gebrauchen). HannesH 16:40, 6. Okt. 2004 (CEST)

Berechtigte Kritik

Ich habe mal zwei absätze mit (IMHO berechtiger) Kritik aus dem Artikel genommen, weil sie dort in dieser From unpassen sind. Bitte erstmal hier diskutieren und dann in konsiser Form einarbeiten. So ist das nur Meta-Information über einen Artikel der über Information informiert...

Also, hier sind die absätze. Der erste war schon 'ne Weile drinn, der zweite kam heute von Benutzer:Dr- Seltsam. -- D. Dÿsentrieb 01:00, 27. Jan. 2005 (CET)

(Kritische Anmerkung: Auch während der Übertragung der Informationen mit Hilfe von elektromagnetischen Wellen ist sie an Materie gebunden. Lediglich die Ruhemasse der Teilchen der Strahlung (Photonen) ist Null. Man sollte vielleicht deshalb besser von stofflosem anstelle von masselosem Transport sprechen. Dieselbe Kritik gilt auch an einigen anderen Stellen dieses Artikels. Es ist wahrscheinlich besser, überall statt "Materie und Energie" "Stoff und Energie" zu verwenden, die beide verschiedene Ausprägungen von Materie sind.)

(Weiter kritische Anmerkung: Informationstransport ist eine metaphysische Größe. Bisher gibt es keine Meßverfahren. Wenn in der Physik etwas transportiert wird oder fließt (wie z.B. Elektronen, Wasser, Wellen,..) so werden Meßverfahren definiert, die klären welche Menge in welcher Zeit geflossen sind. Dies ist für Information bisher nicht geleistet. Auch die Isolation eines Grundelementes "Information" ist nicht geleistet. Solange diese nicht geklärt ist würde ich nicht von Informationstransport sprechen. Inzwischen gibt es Modelle der Kommunikation (siehe: Autopoiesis von Maturana und Varela) oder Konstruktivismus (von Glaserfeld), die den Prozess der Kommunikation erklärenn ohne die Annahme von Informationstransport). Der Begriff der des Informationstransportes beruht auf einem Missverständnis des "Sender-Empfänger-Modells" von Shannon und Weaver, die eigentlich Signaltransport meinten, aber Informationstransport geschrieben haben. Dies räumten Shannon und Weaver auch ausdrücklich ein. Ein Signal enthält aber keinerlei Bedeutung - es ist inhaltslos. Dr-Seltsam


ende der Absätze aus dem Artikel -- D. Dÿsentrieb 01:00, 27. Jan. 2005 (CET)

Übersicht

Über das Wissen kann man sich nicht einig werden, da es viel zu kompliziert ist. Meine Meinung: Wenn das Wort schon kompliziert ist, dann sollte wenigstens die Seite unkompliziert sein. Z.B.: Das Kapitel "Siehe auch"...

Gruss Steelmaschine


Dieser Artikel ist äusserst konfus. Was soll z.B. der Satz "Das Wesentliche an Information ist die Eigenschaft, Veränderungen im empfangenden System hervorzurufen." in der Übersicht? Gruss 2breiten 14:26, 2. Mai 2008 (CEST)

Semantik und DNA

Aus Artikel hierherverschoben: Bereits die strukturelle Ebene setzt eine Semantik voraus, innerhalb derer die Symbole dekodiert werden: Die Struktur der DNA codiert im Rahmen des Genetischen Codes bestimmte Proteine: Um diese Struktur innerhalb der DNA überhaupt zu erkennen, muss bereits die Semantik des genetischen Codes berücksichtigt werden. Denn das DNA-Molekül kann durchaus noch andere Informationen tragen: So ist zum Beispiel die "Doppelhelixstruktur" der Ausdruck einer anderen Semantik, nämlich der des räumlichen Erscheinungsbildes des Moleküls.

Ich denke nicht, dass Semantik ein allgemeiner fest eingeführter Begriff der Genetik ist, auch wenn er vielleicht manchmal umgangssprachlich verwendet wird. Auch im Index mehrerer Wälzer über Molekularbiologie, Genetik, usw. habe ich den Begriff nirgends gefunden. Wenn man in hier schon verwendet, sollte man wenigstens genau angeben wie er hier verstanden wird, da ein Begriff der normalerweise ein bewusstes Wesen impliziert, welches einen Information interpretiert, in einem naturwissenschaftlichen Bereich sehr missverständlich ist. Gruss --Moriolis 05:47, 19. Jun. 2005 (CEST)

Neuigkeitsgehalt?

Zitat von der Seite: "Information....Wesentlich für die Information ist die Wiedererkennbarkeit sowie der Neuigkeitsgehalt"

Wiedererkennbarkeit ja, aber Neuigkeitsgehalt??? erscheint mir sehr fraglich. Ist denn eine Information, die fuer mich neu war nach dem lesen keine Information mehr? Oder ist eine "Mitteilung" die mir bekannt ist, meinem Kollegen aber nicht, nun eine Information oder nicht.

Diskussion erwuenscht! --Lepmur 15:34, 11. Jul. 2005 (CEST)


Ich kann Dir in der Kritik nur teilweise zustimmen, aber ich bin mit der Begriffserklärung auch nicht einverstanden. Ich sehe es so: Information entsteht, wenn ein Mensch Daten interpretiert. Wenn A die Zeichenkette "04091981" als Geburtsdatum interpretiert, hat er für sich eine Information erzeugt. Wenn B diese Interpretation nicht vermag, bleibt die Zeichenkette für ihn bedeutungslos. Wenn der Neuigkeitsgehalt eines Datums (Datum im Sinne von strukturierten Zeichen) erst Information entstehen lässt, dann wäre "04091981" für A nur im ersten Augenblick der Interpretation eine Information, danach nicht mehr. Da er jedoch seine Interpretationsfähigkeit auch darüber hinaus bewahrt und sie sogar an B weitergeben kann, bleibt "04091981" für ihn eine Information. Folglich ist eine Mitteilung, die Dir bekannt ist, Deinem Kollegen aber nicht, für Dich Information, für Deinen Kollegen nicht. Wenn Dein Kollege die Mitteilung liest, sie aber nicht versteht, entsteht auch keine Information.

Die Beurteilung, ob ein Datum oder eine Datenmenge nun Information ist oder enthält, hängt von der Fähigkeit ab, sie interpretieren/verstehen zu können. Das wiederum ist eine individuelle Fähigkeit. Ich finde es aus diesem Grunde nicht richtig von Informationssystemen, Informationsübertragung oder Informationsverarbeitung etc. zu sprechen, da maschinell nur Signale und Daten verarbeitet werden können. Maschinen können nicht verstehen und nicht interpretieren. Wenn ich einem Chinesen eine plattdeutsche E-Mail schicke, kann man wohl kaum sagen, er hätte Informationen erhalten.

Ich möchte noch einen Punkt absprechen: Im Artikel wird gesagt, dass Information nutzbares oder genutztes Wissen sei. Dieser Satz ist zu oberflächlich und kann falsch bis gar nicht verstanden werden. Er sagt, dass Information durch die Anwendung von Wissen entsteht. Wo aber kommt das Wissen her? Entsteht jedes Mal Information, wenn ich Gewusstes anwende? Ich glaube, der Zusammenhang verläuft anders herum. Ein Mensch erzeugt durch Interpretation aus Daten Informationen. Kann er diese Informationen anwenden, um Probleme zu lösen (auch Zusammenhänge zu erklären etc.), erwirbt er Wissen. Also ist Wissen genutzte oder anwendbare Information, nicht anders herum. Es kann interpretierbare und nichtinterpretierbare Daten, anwendbare und nichtanwendbare Informationen geben, aber kein nutzloses Wissen, denn dann wäre es keins.

Natürlich ist diese Diskussion sehr vage und philosophisch, und wahrscheinlich kann man das Gedankenspiel auch bei Wissen anfangen und bei Daten aufhören. Umso wichtiger finde ich, dass die Begriffserklärungen nicht so oberflächlich und kontextfrei aufgeschrieben werden. Meinem sprachlichem Gefühl nach hat Information eine höhere Qualität als Datum und Wissen wiederum eine höhere Qualität als Information. Dem versuche ich Rechnung zu tragen.

--Alexraasch 16:35, 21. Jul. 2005 (CEST)


Ich hab's Euch in Wikiweise:Information nochmal aufgebröselt. Uli 00:37, 22. Jul. 2005 (CEST)

Hallo Alexraasch. Ich denke, das Problem ist, daß ein ganz großer Teil der Information, die in so einer Zahlenfolge steckt, außerhalb der Information bereits vorhanden sein muß. Stell Dir doch mal die Information vor, die im Wort "Ja" Steckt. Ein Bit, könnte man jetzt sagen, aber es ist eben doch ganz von der Situation abhängig, in der das Ja kommt. Das berücksichtigen die üblichen Theorien leider nicht, und für meine eigene ist hier nicht genug Platz. --Homosapiens 21:14, 20. Okt. 2006 (CEST)

Definition

Es wurde schon mehrmals hier angesprochen, dass der Begriff 'Wissen' im Artikel problematisch verwendet wird. Zumindest ist die Definition zirkulär. Klickt mal auf Wissen - ist ganz schön verwirrend. Die 'Wikiweise' kann da ein Vorbild sein. -- Gamma 19:45, 15. Sep. 2005 (CEST)

Informationsquellen

Am Artikelende befindet sich ein auskommentierter Text aus Informationsquellen - Bitte einarbeiten/bearbeiten, Danke Matt1971 ♫♪ 14:50, 16. Jan. 2006 (CET)

zu Literatur

Literatur zu dem Thema ist sicherlich ein schwieriges Thema, da es Bücher nicht nur in allen Fachgebieten, sondern auch in allen Schattierungen gibt - vom wissenschaftlichen Lehrbuch bis hin zur esoterischen Verbrämung. Ein Literatursegment auf Wikipedia kann also höchstens ein kleiner Auszug davon sein.

Dass auf Wikipedia alle Positionen vertreten sein können (NPOV), ist für mich ein gewaltiger Vorzug gegenüber allen Fachpublikationen, da Innovation nichts ist, was sich in Ketten oder Patenten, Titeln oder Posten einfangen lässt, also bitte nicht falsch verstehen, dass ich gerne so etwas wie eine Thematisierung innerhalb der Literaturquellen hätte. So eine Art "Kennung", ob es sich hier nun um eine allgemein anerkannte Position handelt, eine diskutierte, doch fundierte oder eine völlige Außenseiter-Meinung (wie in der Justiz, wo es eine "herrschende Meinung", eine "im Herrschende Meinung werdende Mindermeinung" (oder so ähnlich) und eine "gelegentlich diskutierte Mindermeinung" gibt). Ich habe deshalb erst vor drei Tagen zwei unbekannte weitere Definitionen der Information zu der Überschrift "Information als Veränderung" hinzugefügt, weil ich persönlich sie zwar hochinteressant/überzeugend finde, sonst aber wohl kaum einer und weil dieser Standpunkt ansonsten praktisch nie diskutiert wird (auf Wikipedia auch erst seit dem 23.01.05) - also sicher nicht "herrschende Meinung" ist und weil erst das Vorhandensein dieser Überschrift mich davon überzeugte, dass es wohl genügend Diskussionsstoff auch an dieser Ecke schon gibt, um die beiden Definitionen als vervollständigende Ergänzung zu erwähnen.

Deshalb will ich mich auch nicht in die Inhalte der Literaturquellen einmischen - wenn aber ein Holger Lyre zusammen mit einem "kreationistischen Informatiker" (aus der Quellenangabe) genannt wird, dann frage ich mich einfach, ob interessierte Leute, die sich mit dem Thema erstmalig beschäftigen, nicht Hilfestellung erhalten sollten, denn Kreationismus wird hier in Europa noch nicht als Wissenschaftsdisziplin verstanden, Quantenphysik aber schon. Quellen werden aus dem Grund angegeben, dass man sie nachverfolgen, prüfen und selbst einstufen kann - Internet-Links sind hier einfach, ein Klick und du kannst sehen, was es ist. Doch Bücher zu kaufen, ist kostspieliger in Zeit und Geld und wird deshalb sicher weit weniger nachgeprüft: Wikipedias guter Ruf (Computerwoche ISSN 0170-5121, 4/2006, S. 4, Frage der Woche: Vertrauen Sie den Inhalten von Wikipedia: 82,0 % Ja) sollte nicht dazu dienen dürfen, persönliche Weltvorstellungen auf gleiche Ebene wie naturwissenschaftlich beweisbare Sachverhalte zu stellen, um die Überzeugungskraft der Naturwissenschaft (ohne deren exakte Methodik) für die eigenen Anschauungen "einzusetzen" - ohne dass dies zumindest gekennzeichnet wird.

Andererseits sollen und dürfen Außenseitermeinungen nicht diskriminiert werden. Frage also: Wie bringt man beides unter einen Hut? --Bussole 10:24, 28. Jan. 2006 (CET)

Etymologie des Wortes "Information"

Ich weiß nicht, woher diese "in forma tuon"-Geschichte stammt, aber sie ist völlig aus der Luft gegriffen. 'Informatio' kommt natürlich aus dem Lateinischen und ist dort auch belegt, und den Begriff 'Altdeutsch' gibt es in der Linguistik nicht. Soll das Althochdeutsch sein? Egal, die Deutung ist ohnehin falsch.--84.169.83.120 16:39, 31. Jan. 2006 (CET)

Siehe dazu Benutzer_Diskussion:JFKCom#Information_Wortherkunft. Ich bin als total unwissender aber auch eher geneigt der lateinischen Version vorrang zu geben, einfach weil sie insgesamt anerkannter ist als die von JFKCom. --dbenzhuser 16:49, 31. Jan. 2006 (CET)
Du lieber Himmel ... aus dieser Ecke stammt das also. Was für ein blühender Unsinn! Als ob das Wort "Information" jemals Bestandteil der "altdeutschen Volkssprache" gewesen wäre und somit nicht aus der "Schriftsprache" Latein stammen könnte. Vielleicht verrät Herr Zillmer uns, ob er für jedes Wort mit der Endung -tion eine ähnlich plausible Herleitung vorbringen kann? B. Neuner
Bevor ich's vergesse: "Form" im Deutschen kommt natürlich auch vom lateinischen 'fōrma', insofern ist "in forma tuon" ohnehin ein Eigentor. B. Neuner

Ist ja wunderbar und beinahe schon unfassbar, dass endlich hier mal jemand gerafft hat, was die Wikipedia seit Wochen für einen Blödsinn erzählt. Der Artikel steht garantiert auf zig Beobachtungslisten. Und natürlich, die hier genannte Etymologie ist hirnrissig, und sie wird auch nicht besser, wenn JFK Zillmers von keinerlei wissenschaftlichem Erkenntnisstand getrübten Fantastereien als "kritischere Fachliteratur" verkauft. Naja, die typische Literatur halt, aus der Wikipedia Artikel gemacht sind... Uli 20:02, 1. Feb. 2006 (CET) (Wikiweise - besser zu Wissen!)

Naja, die typische Literatur halt, aus der Wikipedia Artikel gemacht sind... - ich habe zwar auch Bedenken gegen manche Quellenangaben (s.o. "zu Literatur"), zumindest ohne weitere Hilfestellung, obige Formulierung erweckt jedoch den Anschein, als wären Wikipedia-Artikel generell unglaubwürdig. Das freilich scheint den oben zitierten Ergebnissen der Computerwoche nach nicht allgemein so gesehen zu werden, deren Publikum sicher nicht statistisch repräsentativ, aber vermutlich auch nicht überwiegend auf den Kopf gefallen ist. Dass Wikipedia keine Wissenschaftslektüre ist, heißt schließlich längst nicht, dass es "typischerweise" von "keinerlei wissenschaftlichem Erkenntnisstand getrübten Fantasterei" sein muss - Wikipedias Absicht liegt auch eigenem Bekenntnis nach nicht in Fachliteratur: "Die Wikipedia ist eine allgemeine Enzyklopädie und kein Fachbuch. Jeder Artikel sollte deshalb auch für Laien verständlich sein." aus Wikipedia:Wie_schreibe_ich_einen_guten_Artikel. Auch scheint mir diese abfällige Formulierung sogar mit dem NPOV-Prinzip von Wikipedia in Konflikt zu geraten - denn wer sollte entscheiden, welche Position, "die nicht dem „Stand der Wissenschaft“ entsprechen oder kontrovers sind" nun "von keinerlei wissenschaftlichem Erkenntnisstand getrübten Fantasterei" ist und welche Innovation? Gerade solche unbekannte Positionen sind selbst von hochkarätigen Wissenschaftler keineswegs immer auf den ersten Blick korrekt einzustufen. --Bussole 18:39, 2. Feb. 2006 (CET)
Ihr habt ja recht, dass erst mal die offizielle Lehrmeinung genannt wird, dann erst die mögliche andere Herkunft des Wortes als Zweitnennung. Hab mal ne dreiviertel Rolle rückwärts gemacht und das entsprechend angepaßt. Aber wir sollten die ausfallenden Bemerkungen von Benutzer:Ulrich.fuchs nicht so wichtig nehmen! Dieser EDV-Berater nutzt jede Möglichkeit einer fulminanten Diskussion unter der Gürtellinie, um seine typischen Selbstdarsteller-Links auf die eigene "Wikiweise" (wo er als "Gottheit" uns Wiki-Autoren in "gut" und "böse" klassifiziert) und mittelbar - über seinen Starautor-Auftritt darin - auf seine EDV-Schuppenseite publikumswirksam anzubringen. Brrr.--JFKCom 22:42, 2. Feb 2006 (CET)
auf die eigene "Wikiweise" - fragte mich schon, was das (ohne Link) sollte. Andererseits ist die Klientel der Computerwoche genau seine Branche und wie gesagt, die hält viel von Wikipedia ;-) --Bussole 16:18, 3. Feb. 2006 (CET)

Ich habe den Unsinn jetzt herausgenommen. --Tilman 10:47, 25. Feb. 2006 (CET)

Weil JFKCom die Ableitung aus dem Althochdeutschen noch einmal hineingesetzt hat, will ich noch etwas deutlicher sagen, warum das Unsinn ist. Erstens steht in sämtlicher seriöser Literatur (ich verweise nur auf das "Etymologische Wörterbuch des deutschen Sprache" von Kluge/Seebold) nur die Ableitung aus dem Lateinischen, zweitens müsste man dann, wenn man Information wirklich so herleiten, erst erklärt werden, warum das Wort im Englischen und Französischen genauso lautet (die stammen nun wahrlich nicht vom Althochdeutschen ab). Auch die Erwähnung an zweiter Stelle ist meines Erachtens nicht sinnvoll - wenn die Wikipedia eine seriöse Enzyklopädie werden will, dann kann sie sich solche Pseudotheorien nicht leisten. Gruß --Tilman 00:16, 26. Feb. 2006 (CET)

Wer solls verstehen?: "Information ist ... ein Muster" Leider kann ich mir keine Vorstellung machen von dem, was das ist, eine Information, wenn Information wie oben begonnen wird zu definieren. Das geht einfach nicht so. Ich weiß es zwar nicht besser, aber ich weiß, so geht das nicht; man wird verwirrter statt klüger, wenn man ein Lexikonartikel wie diesen zu Rate ziehen möchte. 12.4.06, 11.30 Uhr (CET)

Informationstheorie

Der Abschnitt zur Informationstheorie war sachlich grob falsch (bitte im entsprechenden WP-Artikel nachlesen), ich habe ihn daher gelöscht. Ein Hinweis wäre allerdings schon weiter oben im Artikel notwendig. Ich versuche es mal einzubringen. --Homosapiens 20:32, 20. Okt. 2006 (CEST)

Information und Kontext

Ich finde im Artikel außer im ersten Absatz das Wort Kontext überhaupt nicht. Jeder wird mir zustimmen, daß Informationen vom Kontext abhängen, aber in der Theorie findet sich das nicht wieder. Gibt es denn da keine Literatur, die das beleuchtet? Schließlich ist das Ja-Wort vor dem Altar im Sinne der Informationstheorie nur ein Bit. Der Versuch, alle Bedeutung in diesem einen Bit zu suchen, wäre sicher nicht sinnvoll. Aber irgendwo steckt ja die besondere Bedeutung, und offensichtlich eben nicht in der Information, sonder außerhalb von ihr. --Homosapiens 00:30, 28. Okt. 2006 (CEST)

definition von Joseph Weizenbaum

"information wird erzeugt, wenn daten bzw. signale von menschen interpretiert werden." hab ich mir gerade (nochma)l im einem vortrag von ihm aus dem jahre 1998 in karlsruhe angehört. [1] Dontworry 07:47, 30. Okt. 2011 (CET)

Fax = Lichtgeschwindigkeit

Der Artikel hat einen Fehler. Das Fax sendet mittels elektronischen Impulsen über die Telefonleitung. Das ist keine Lichtgeschwindigkeit. (nicht signierter Beitrag von 80.139.127.190 (Diskussion) 02:03, 29. Dez. 2011 (CET))

Überarbeiten Mai 2013

Nachdem es kein Feedback zu meinem Eintrag unter #Aktuelle Definition mangelhaft gab, suchte ich nach Quellen, mit deren Hilfe die von mir monierte Unverständlichkeit (theoretische Form der Beschreibung) beseitigt werden kann. Im ersten Anlauf möchte ich die neue Fassung für den bisherigen 1. Abschnitt (Begriff) in mehrere Teilabschnitte gliedern: Ich zitiere dort unterschiedliche Definitionen (mit Beleg), beschreibe die Eigenschaften von Information (ebenfalls belegt) und verwende weitgehend die bisherigen Texte. Nachfolgend also der Entwurf, bitte Feedback unter #Diskussion zum Entwurf:--VÖRBY (Diskussion) 17:20, 3. Mai 2013 (CEST)

Entwurfstext

Der Inhalt wurde nach dem Einstellen in den Artikel HIER gelöscht; 
alter Inhalt siehe Disk-Update [2] 
--VÖRBY (Diskussion) 12:48, 8. Mai 2013 (CEST), Link ergänzt: --VÖRBY (Diskussion) 16:10, 8. Mai 2018 (CEST)

Einzelnachweis (temporär):


Diskussion zum Entwurf

Formale Aktualisierung (Anführungszeichen etc.) steht noch aus, hat vorläufig hier in der Disk noch niedrige ÖPrirität.--VÖRBY (Diskussion) 17:26, 3. Mai 2013 (CEST)

Beispiele und Einleitungstext aktualisiert / erweitert - mit Quelle. Text m.E. nun übernahmebereit.--VÖRBY (Diskussion) 09:44, 7. Mai 2013 (CEST)

Leider gab es kein Feedback. Der (mehrfach ergänzte) Textentwurf wurde heute in den Artikeltext übernommen. Die bisherigen Texte wurden in die entsprechenden Kapitel aufgenommen. Für neue Inhalte werden mehrere Quellen zitiert. --VÖRBY (Diskussion) 12:48, 8. Mai 2013 (CEST)

Information vs. Nachricht

Im Artikel wird munter (imo unzulässig) vermischt zwischen

Information

und

Nachricht

. Informatiker und Nachrichtentechniker unterscheiden das sehr exakt.

Der Kopf eines Menschen, und ebenso die Festplatte eines Computers, können voller Informationen sein - und nicht eine einzige Nachricht enthalten, erhalten oder verschicken.

Auch kann man Informationen durchaus versenden, ohne dass daraus eine Nachricht würde. (Bspl: Ein Konzern lagert eine Lkw-Ladung Festplatten voller Geschäftsdokumente in ein sicheres Archiv ein. Terabyte an Informationen, die den Konzern verlassen und in ein Bergwerk gefahren werden. Trotzdem erhält das Bergwerk keine "Nachricht" - dort schaut sich niemand die Informationen an, die kommen einfach ins Regal...)

Imo muss der Artikel bzgl. dieser Unterscheidung massiv überarbeitet werden.

--arilou (Diskussion) 10:27, 20. Mär. 2018 (CET)

Hi, Arilou! In der Einleitung steht lediglich als ein Beispiel, dass Informationen "Bewusst als Nachricht übermittelt" werden können. Wobei Nachricht (siehe Lemma) als Übermittlungsvorgang jeglicher Art gilt. Information wird das erst wenn (lt. Einleitung u.a.) "ein ... Interesse an Wissen befriedigt" wird. Im Abschnitt 'Verwandte Begriffe' wird INFO vom Begriff 'Daten' abgegrenzt ("Aus ihnen (= Daten) kann durch kognitive Tätigkeiten des Empfängers „Information“ werden"). Denn: Information entsteht erst, wenn "wahrgenommene Daten „intraindividuell“ (vom jeweiligen Individuum) semantisiert ... werden".
Dein Disk-Beitrag berücksichtigt diesen wesentlichen Unterschied nicht, sondern setzt Daten mit Information gleich. Wenn man etwas versendet, dann sind das erstmal nur 'Daten', der Übermittlungsvorgang heißt 'Nachricht', der ZWECK kann 'zur Information' sein, 'Information' selbst wird das aber erst empfängerbezogen (s.o.). Auch befinden sich auf der Festplatte nur DATEN, keine Informationen. Ja, vielleicht müsste man die Textteile mit 'Nachricht' nochmal überprüfen, aber Dein Beitrag geht m.E. von falschen Voraussetzungen aus. --VÖRBY (Diskussion) 16:41, 20. Mär. 2018 (CET)
Ich fass' deine Antwort mal zusammen: "Was in der Informatik und Nachrichtentechnik an allen Unis und Hochschulen der Erde gelehrt wird, ist falsch."
Das sind ja auch nur die beiden Wissenschaftsdisziplinen, die sich explizit mit Information und dem Umgang damit beschäftigen. (Eine abweichende Definition/Behandlung des Themas in den Disziplinen 'Philosophie' und 'Psychologie' muss man als 'technischer Wissenschaftler' wohl hinnehmen.)
--arilou (Diskussion) 09:11, 21. Mär. 2018 (CET)
Was willst Du damit sagen? Ich bezog mich einzig auf die im Artikel genannten Aussagen, Definitionen und Quellen. Andere Sichten auf den Ausdruck 'Information' können in Information (Begriffsklärung) verlinkt werden. --VÖRBY (Diskussion) 09:32, 21. Mär. 2018 (CET)
A) Der "Hauptartikel" Information ohne Klammerzusatz sollte die Bedeutung(en) aus jenen 'Disziplinen' enthalten, die sich wesentlich mit dem Thema beschäftigen. Das sind afaik vor allem Informatik und Psychologie; evtl. noch Teile der Philosophie und Journalistik sowie Nachrichtentechnik.
B) Soweit ich mich erinnere (ist schon einige Zeit her), wird an der Uni dem Informatiker gelehrt:
Information === Daten
Das ist ein-und-dasselbe. (Aus Sicht des Informatikers.)
Ferner:
Nachricht = (Information "im Versand von Sender zu Empfänger" UND "mit Neuigkeitswert")
Aber ich denke, es ist vielleicht besser, anstatt einer "Fundamental-Alles-Kritik" den Artikel in Einzelpunkten zu diskutieren. (Ich würde dann im Anschluss einen Punkt nach dem anderen aufführen, als einzelne Disku-Kapitel.)
--arilou (Diskussion) 14:07, 11. Apr. 2018 (CEST)

Nach meiner aktuellen Sicht ist es so:

  • Die Abschnitte bis 'Struktur und Bedeutung' (außer 'Der Begriff in verschiedenen Wissenschaften') entsprechen der Sichtweise 'Informationstheorie' - wie in der Einleitung formuliert ist.
  • Die Fülle an Texten weist Überschneidungen und Redundanzen auf und ist irgendwie wirr gegliedert. So gibt es 'Verwandte Begriffe' und 'Verwendte Themenkomplexe', ebenso 'Der Begriff in verschiedenen Wissenschaften' und 'Definition der Information in verschiedenen Fachrichtungen'. Da hat sich wohl vieles im Zeitverlauf kumuliert.

Es müsste also nochmal eine Bereinigung stattfinden, zumindest sollte 'Der Begriff in verschiedenen Wissenschaften' weiter hinten eingereiht werden. Dann würden die der Einleitung entsprechenden Texte vorne stehen und weitere Sichten danach erläutert werden. Ob dann irgendwo 'Information = Daten' rauskommt (oder "derzeitige Einleitung beschreibt Nachrichten"), wäre eine andere Frage. --VÖRBY (Diskussion) 11:02, 9. Mai 2018 (CEST)

Einzelne Kritikpunkte

(Fortsetzung von der vorherigen Diskussion)

Einleitung

Artikel:

Information (von lateinisch in-formare ‚formen‘, ‚bilden‘, ‚gestalten‘, ‚ausbilden‘, ‚unterrichten‘, ‚darstellen‘, ‚sich etwas vorstellen‘)[1] ist in der Informationstheorie eine Teilmenge an Wissen, die ein Absender einem Empfänger mittels Signalen über ein bestimmtes Medium (auch „Informationskanal“ genannt) vermitteln kann.

Die Einleitung ist ab dem Wörtchen "ist" falsch:

  • Shannons "Informationstheorie" ist inhaltlich vielmehr eine "Nachrichtentheorie", und wird an Unis auch in der Nachrichtentechnik gelehrt - kaum in der Informatik.
  • Die Einleitung verwechselt schon im 1. Satz "Information" mit "Nachricht".
    Auch ist die Übertragbarkeit einer Information eher Folge ihrer Eigenschaften als "Definitionsgrundlage". Beispiel: Ein Einsiedler, der ganz für sich alleine im Wald wohnt und mit niemand jemals kommuniziert, kann dennoch problemlos Informationen erheben, verarbeiten, speichern und sonstwas damit machen, komplett unabhängig von irgend einer Kommunikation.
    Information definiert sich (normalerweise) nicht über Kommunikation.

Mein Vorschlag für eine Einleitung:

Information (von lateinisch in-formare ‚formen‘, ‚bilden‘, ‚gestalten‘, ‚ausbilden‘, ‚unterrichten‘, ‚darstellen‘, ‚sich etwas vorstellen‘)[2] ist gleichbedeutend zu Daten oder Wissen. Information selbst ist immateriell; sie kann jedoch nicht ohne physische Repräsentation existieren: Ein Informationsfragment, das nicht als Eigenschaft oder Zustand von Materie oder Energie abgebildet ist, ist verloren. Zusätzlich zum Zustand der abbildenden Eigenschaft benötigt jede Information eine Vereinbarung, wie sie zu interpretieren ist. Diese Vereinbarung („Interpretationsvorschrift“; bei Daten „Datenformat“) besteht aus einer Sprache (Alphabet und Syntax) und einer zugehörigen Bedeutungsfestlegung („Semantik“). Sind Sprache und Semantik einem Absender und einem Empfänger bekannt, so können Informationen mittels Signalen (Materie- oder Energiezustände) über ein bestimmtes Medium vermittelt werden, wodurch die Informationen zu einer Nachricht werden.

--arilou (Diskussion) 14:41, 11. Apr. 2018 (CEST)

  1. Duden Herkunftswörterbuch, Meyers Lexikonverlag informieren, ISBN 3-411-20907-0
  2. Duden Herkunftswörterbuch, Meyers Lexikonverlag informieren, ISBN 3-411-20907-0
Nach meinem Verständnis wird hier das Lemma 'Information' grundlegend anders definiert und beschrieben als bisher. Ich will/kann mich an diesem 'Projekt' nicht beteiligen; die bisherige Sichtweise mit ihrer klaren Abgrenzung zu 'Daten' und Nachricht und den - belegten - Def-Kriterien ('aktionsprägend, kognitiv ... und zielorientiert ...') erscheint mir jedenfalls korrekt. Dass die Informatik Daten und Information nicht unterscheidet, wäre mir neu.
Hier müssten sich gescheitere Leute als ich einschalten, möglicherweise gibt es auch in den Wissenschaften unterschiedliche Sichten auf diesen Begriff. Ggf. sollte man die Sache bei der QS zur Vorlage bringen. --VÖRBY (Diskussion) 19:28, 15. Apr. 2018 (CEST)
Halte den aktuellen Einleitungssatz auch nicht für korrekt. Der vorgeschlagene Absatz ist aber für eine Einleitung viel zu komplex (ab dem zweiten Satz) und der erste Satz stimmt meiner Meinung nach auch nicht (Information ist _nicht_ gleichbedeutend zu Daten oder Wissen - siehe dazu auch die englischsprachige WP). Ich würde vorschlagen analog zur englischsprachigen WP in der Einleitung nur auf den Unterschied / Nähe zu Daten und Wissen einzugehen und die anderen Sätze im Artikel wo unterzubringen. Bin mir aber eigentlich sicher, dass sie nicht stimmen - Information ist auch gegeben, ohne dass sie interpretiert werden kann und ich kann Informationen auch vermitteln ohne Sprache und Semantik zu verstehen. --Sebastian.Dietrich 07:07, 20. Apr. 2018 (CEST)

Die Diskussion hat viele Wahrheiten ans Licht gebracht:

  • Information ist nicht deckungsgleich mit Nachricht
  • Information ist nicht deckungsgleich mit Daten / Wissen
  • die Trennung erfolgt im täglichen Gebrauch unterschiedlich genau
  • die Einleitung ist zu kompliziert/umfangreich
  • die Differenzierung zwischen den verwandten Begriffen erfolgt vergleichsweise unstrukturiert.

Meine Sichtweise: (teilweise belegbar)

  • Informationen sind Daten mit Zweckbezug (ggf. auch entscheidungsrelevant)/ Bedeutungsinterpretation (Semantik)
  • Redundanz sind Daten ohne Zweckbezug / Bedeutung / Neuigkeitswert(z.B. doppelt vorhandende Daten)
  • Information ist Inhalt einer Nachricht
  • Nachrichten sind Daten, die mitgeteilt werden

Mein Vorschlag:

  • Abschnitt 'verwandte Begriffe' besser strukturieren: (erl: --VÖRBY (Diskussion) 19:35, 8. Mai 2018 (CEST))
  • Einleitungssatz: Informationen' (von lateinisch in-formare ‚formen‘, ‚bilden‘, ‚gestalten‘, ‚ausbilden‘, ‚unterrichten‘, ‚darstellen‘, ‚sich etwas vorstellen‘)[1] sind Daten mit Sinnzusammenhang (Semantik) und/oder Nachrichten mit Bedeutungsinterpretation (Pragmatik).
  • weitere Erläuterungen in Abschnitt 'verwandte Begriffe'
  • Artikel Nachricht entsprechend anpassen.

--> Begründung: ist ausreichend einfach und vereint dennoch Ansätze aus Informatik, Linguistik, Systemtheorie und Nachrichtentechnik.

--DixMartin, 07. Mai 2018

Stellungnahme zum Disk-Beitrag von @Benutzer:DixMartin:

Vorweg: Ich bin kein Informationswissenschaftler! Ich sehe die Sache aber so, dass es klar keine offizielle, einzig richtige Definition gibt, und dass sich einzelne Wissensbereiche wohl unterschiedliche, zum Teil auch stark unterschiedliche sog. 'Definitionen' gegeben haben. Und dass umgangssprachlich kaum zwischen Daten und Informationen unterschieden wird. Die aktuell vorderen Abschnitte des Artikels gründen wohl auf einer Sichtweise der Informationstheorie, wonach die Kriterien für 'Information' im Wesentlichen die in der Einleitung genannten sind (empfängerbrzogen, Wissens-ZUWACHS, intraindividuell, ~aktionsprägend ...), wobei Info-Quelle (~Daten), Sender, Infokanal, Transfer, Empfänger und die bei 'Struktur ...' genannten Aspekte unterschieden werden.
Ab Abschnitt 'Der Begriff in verschiedenen Wissenschaften' kommen andere Sichten ins Spiel. Dabei ist allerdings nicht abzustreiten, dass es dort Redundanzen zu bereits weiter vorne Gesagtem gibt. Jedenfalls ist tatsächlich schwer erkennbar/verständlich, welche Aussage zu welcher 'Schule' gehört.
Eine Bereinigung halte ich für eine komplizierte Operation. Vielleicht müsste man für jede dieser Sichtweisen (Definitionen?) eigene Hauptabschnitte bilden - oder die Texte (außer nach 'Informationstheorie') in unterschiedliche Lemmas aufteilen. Auch schwierig. Jedenfalls halte ich Deinen Einleitungsvorschlag ("... SIND Daten ....") für unpassend, weil falsch. Außerdem sollten wir keine eigenen Definitionen erfinden ('TF'), es gibt bereits zuviele davon - bis zur Umgangssprache. Leider hat sich in der QS quasi noch niemand mit der Sache befasst.--VÖRBY (Diskussion) 19:31, 24. Mai 2018 (CEST)
..."Vielleicht müsste man für jede dieser Sichtweisen (Definitionen?) eigene Hauptabschnitte bilden" --> ja, das denke ich auch, auch wenn es "eine komplizierte Operation" wird; vgl. neuer Diskussionspunkt Artikelstruktur. Vielleicht ist es einfacher mit einem übersichtlichem Artikel eine bessere Einleitung zu finden.
"keine eigenen Definitionen erfinden ('TF')" --> Das war nicht mein Ansatz, sondern eher eine Formulierung, die möglichst viele Einzel-Definitionen enthält.
Es gibt zum einen die Definition Information=Nachricht+Neuigkeitswert+Verwendungszweck (Quellen: Rechenberg, Peter.: Informatik-Handbuch &Tiemeyer: IT-Management & Gabler Wirtschaftslexikon)
Zum anderen gibt es die Definition Information= Daten + Kontext(=Pragmatik) (Quellen: Rehäuser/Krcmar 1996) bzw. interpretierte Daten (nach Voß/Gutenschwager 2001 bzw. Teubner 2003)
Die Version für 'OMA' findet sich ebenso bei Tiemyer, Zitat: "Information = Zeichen + Struktur + Bedeutung + Zweckorientierung "
bitte hier weiterdiskutieren ...
--DixMartin (Diskussion) 22:25, 25. Mai 2018 (CEST)
neuer Vorschlag (Quelle Brockhaus, scheint ausreichend übergreifend zu sein):
"Information: für die Übermittlung und Aneignung »in Form gebrachtes« Wissen, wie Mitteilungen, Nachrichten, Messwerte, Daten, im Allgemeinen zur Beseitigung einer Ungewissheit. [...]"
--DixMartin (Diskussion) 19:04, 28. Mai 2018 (CEST)
neuer Vorschlag (nach Brockhaus), vgl. :
Information (von lat. informatio: Vorstellung, Begriff; Darlegung, Erläuterung, Deutung) (PONS online Wörterbuch) ist in der Alltagssprache gleichbedeutend mit Nachricht, Auskunft, Mitteilung.(Brockhaus online) Im menschlichen Bereich gibt eine Information Auskunft über mindestens eine der Fragen „Wer? Was? Wo? Wann? Wie? Warum? Mit wessen Hilfe?“(DUDEN Informatik, ISBN 3-411-05232-5)
Information (Informatik): "Für die Übermittlung und Aneignung »in Form gebrachtes« Wissen, wie Mitteilungen, Nachrichten, Messwerte, Daten, im Allgemeinen zur Beseitigung einer Ungewissheit. In der ::::Informatik werden insbesondere Informationen betrachtet, die Gegenstand von Speicherung, Verarbeitung und Übertragung sind, meist dargestellt als eine Folge von Zeichen aus einem bestimmten Zeichenvorrat ::::(z. B. einem Alphabet). Die Bewertung von Informationen kann nach verschiedenen Gesichtspunkten erfolgen: Man unterscheidet zwischen syntaktischen, semantischen und pragmatischen Aspekten." (Brockhaus online) --DixMartin (Diskussion) 18:52, 1. Jun. 2018 (CEST)
  1. Duden Herkunftswörterbuch, Meyers Lexikonverlag informieren, ISBN 3-411-20907-0

Ebene 'Codierung'

Aktuell ist in diesem Unterabschnitt nur ein Beispiel beschrieben ("Es ist warm"). Die für eine Information grundlegende Bedeutung von 'Code' (binär - welcher Binärcode? Buchstaben/Zahlen - welche Sprache? Zeichen - welche sind gültig?) fehlt noch. Ich bemühe mich um einen kurzen validen Text - ohne TF.--VÖRBY (Diskussion) 16:19, 30. Mai 2018 (CEST)

Textvorschlag dazu:
Die Betrachtungsebene „Codierung“ bedeutet diesbezüglich: Die Erscheinungsform, in der die (potenzielle) Information ihre(n) Empfänger erreichen, muss identifiziert und das Wahrgenommene ‚dekodiert‘ werden. Die Information „Es ist warm“ kann beispielsweise schriftlich (etwa als Teil eines Zeitungsartikels) oder akustisch (über den Informationskanal <Stimme, Schallfrequenz, Ohren> überermittelt werden; jeweils bestehend aus Zeichen oder Lauten einer bestimmten Sprache. Auch die Anzeige an einem Thermometer (analoge Darstellung in Säulenform oder in Form einer numerischen Gradanzeige) und sogar die absolute Temperatur selbst könnten in diesem Zusammenhang Code(-formate) sein, die „Es ist warm“ transportieren. Andere Codebeispiele wären ein Binärcode, mit dem solche Buchstaben oder eine Gradangabe zwischen zwei Computerprogrammen fließen – oder (optisch/akustisch empfangene) Morsezeichen usw. Ohne Kenntnis des Codes kann das „nur Wahrgenommene“ nicht interpretiert werden und ist empfängerbezogen keine ‚Information‘.
Oder gibts was kürzeres, das hier passen könnte? --VÖRBY (Diskussion) 14:20, 1. Jun. 2018 (CEST); ergänzt: --VÖRBY (Diskussion) 09:51, 3. Jun. 2018 (CEST); aktualisiert:--VÖRBY (Diskussion) 19:58, 3. Jun. 2018 (CEST)
Hinweis: Ein Code ist eine Abbildungsvorschrift oder eine Vereinbarung über einen Satz von Symbolen aber keine physikalische Form. Gruß tzeh (Diskussion) 10:44, 3. Jun. 2018 (CEST)
Danke, habs angepasst. Noch unklar, ob es verwendet wird. --VÖRBY (Diskussion) 12:50, 3. Jun. 2018 (CEST)
Text ist gut, kürzer wäre:
Ebene Beispiel Erläuterung
Code "3", "4" Die Ziffern "3" und "4" (bsp. auf einer Anzeige)
Syntax 34 Regelsystem zur Kombination elementarer Zeichen zu zusammengesetzten Zeichen
Semantik Aussentemperatur = 34 Grad Celsius Bedeutung der Zeichen
Pragmatik Draußen ist es warm ==> leichte Kleidung anziehen Interpretation im Kontext des Informationsempfängers
--DixMartin (Diskussion) 18:04, 1. Jun. 2018 (CEST)
Danke. Sowas könne man vlt im Hauptkapitel als Zusammenfassung am Ende anfügen. Als detaillierte Beschreibung zu Code wäre mir das aber zu wenig, denn hier geht es ja um den Code einer jeglichen beim Empfänger ankommenden (potenziellen) 'Information', nicht nur als Buchstaben und Ziffern, die ja nur Möglichkeiten in einem bestimmten Code sind - was erstmal identifiziert werden muss: Ein Chinese (oder auch ein Tier) wird damit nichts anfangen können. Evtl. fehlen derartige Details auch bei den anderen Ebenen.--VÖRBY (Diskussion) 19:32, 1. Jun. 2018 (CEST)

Hab die o.a. Einleitung mal im alten Artikel eingestellt. Ich denke, es sollte klar gemacht werden, was HIER mit Code-Ebene gemeint ist und dass man das durchaus im weitesten Sinn verstehen muss. --VÖRBY (Diskussion) 20:42, 3. Jun. 2018 (CEST)

Artikelstruktur

Ich danke VÖRBY (Diskussion) für die bereits vorgenommenen minimal-invasiven schönheitschirurgischen Eingriffe. Ich denke, es ist darüber hinaus noch eine (wenn auch aufwändige) Neuorganisation des Artikels gemäß der oben angestoßenen Diskussion notwendig. Vorschlag:

  • Definitionen (Überblick) / 2 Unterschiedliche Bedeutungen / 11 Definition der Information in verschiedenen Fachrichtungen / 7 Der Begriff in verschiedenen Wissenschaften --> eine Überschrift
    • Informationstheorie (nach Shannon et al, Nachricht+Neuigkeit) ... jeweils ggf. mit Modellen, Beispielen, weiterführenden Links und Fachliteratur
    • Informatik / Informationsmanagement (nach Krcmar et al, Nachricht(Daten)+Pragmatik+Semantik)
    • Informationswissenschaft (nach Gantert, Ott et al, Inhaltsbezug)
    • ggf. weitere (Nachrichtentechnik, Naturwissenschaften, Linguistik, Philosophie...)
    • weitere Begriffsverwendungen (bisher: unterschiedliche Bedeutungen) VÖRBY: bezieht sich auch auf I. gem. Informationstheorie, nur mit individuellen Schwerpunkten.
  • Informationseigenschaften
  • Informationshandlungen VÖRBY: besser 'informationsbezogene Handlungen?'; denn Informationen tun nichts. Quellen?
    • Informationen sammeln/aufnehmen (inkl. Wissen extrahieren, Nachrichten senden)
    • Informationen transportieren (inkl. Kommunikation)
    • Informationen verarbeiten (Wissen speichern, Wissen generieren)
    • VÖRBY: vollständig?
  • Informationsfunktionen
    • Information als Wirtschaftsgut
    • Information als Veränderung
    • ggf. weitere
    • zurückgenommen --DixMartin (Diskussion) 22:25, 25. Mai 2018 (CEST)
  • Verwandte Begriffe und Themenkomplexe (inkl. Abgrenzung zu 'Information')
    • Daten
    • Wissen
    • Nachricht
    • Kommunikation
  • Einzelnachweise

--DixMartin (Diskussion) 21:48, 24. Mai 2018 (CEST)

Hi Martin, ich glaube, wir bewegen uns hier auf "dünnem Eis": Die verschiedenen sog. Definitionen unterscheiden sich oft nur dadurch, dass z.B. bestimmte Kriterien nicht erwähnt wurden. Möglicherweise wurde dies nur vergessen oder ist im jeweiligen Kontext irrelevant. Weil wir hier ein sehr wichtiges Lemma bearbeiten, sollten nur wirklich valide Definitionen/Quellen verwendet werden. Es sollte hier nicht so kommen wie beim Lemma 'Daten' im Gabler-Lexikon: Dort machte man die Benennung von Einflussgrößen in einem Modell von Eucken, der sie dort (situationsbezogen!) als 'Daten' bezeichnet, zur globalen Definition für Daten.
Kann man alle bisherigen Aussagen im Artikel (ohne Neutexte, also ohne TF) in Deinem Schema einordnen? Stehen sie immer nur im Zusammenhang zu einer bestimmten Definition (welcher? mehreren? das ist ja unser derzeitiges Problem)? Ich meine, vor diesen Veränderungen man müsste weitere Leute hinzuziehen, die im Thema "zuhause" sind. --VÖRBY (Diskussion) 12:38, 25. Mai 2018 (CEST)

  • "keine invaliden Definintion" -> Struktur korrigiert
  • "mehr Leute in die Diskussion einbeziehen" - gute Idee
  • "neues Schema möglich?" -> Ich glaube schon, 1. Versuch siehe hier: Benutzer:DixMartin/Information Alternative

--DixMartin (Diskussion) 22:25, 25. Mai 2018 (CEST)

Ja, das ist wirklich ein "großer Brocken". Dein Entwurf gefällt mir überhaupt noch nicht. Beispiele:
  • Der Einleitungssatz sagt nicht, was I. ist.
ja, das Problem hatten wir vorher auch schon, vgl. #Einleitung--DixMartin (Diskussion) 15:14, 26. Mai 2018 (CEST)
  • Die Einleitung ist zu lang.
ja, habe ich noch nicht zusammengestrichen, sondern nur zusammengetragen.--DixMartin (Diskussion) 15:14, 26. Mai 2018 (CEST)erledigtErledigt--DixMartin (Diskussion) 16:09, 26. Mai 2018 (CEST)
  • Der große letzte Absatz (vor 'Gaus ..') gehört evtl. als einleitender Allgemeintext ins Kapitel 'Definitionen'.
ja, mach ich.--DixMartin (Diskussion) 15:14, 26. Mai 2018 (CEST)erledigtErledigt--DixMartin (Diskussion) 16:09, 26. Mai 2018 (CEST)
  • Du erweiterst einfach die 4 (mit Quelle!) benannten Punkte von 'Unterschiedliche Bedeutungen' um weitere, nicht aus der Quelle stammende Aspekte.
unbeabsichtigter Kopierfehler, schaue ich mir an ...--DixMartin (Diskussion) 15:14, 26. Mai 2018 (CEST)erledigtErledigt--DixMartin (Diskussion) 16:09, 26. Mai 2018 (CEST)
  • Daneben sind diese 4 'weiteren Bedeutungen' (vlt auch die anderen) dem Inhalt nach keine 'Definitionen' - sondern nur Teilsichtweisen aus der Hauptdefinition. Sie gehören damit nicht ins Hauptkapitel 'Definitionen'. So wie auch die Aufzählung nach Gaus aus der Einleitung.
schaue ich mir an...--DixMartin (Diskussion) 15:14, 26. Mai 2018 (CEST)erledigtErledigt--DixMartin (Diskussion) 16:09, 26. Mai 2018 (CEST)
  • Dann: Jede der unterschiedlichen Definitionen sollte mit der "Definition" (als belegtes Zitat) beginnen, und nicht wie gleich im ersten Unterabschnitt mit Erläuterungen dazu.
Einverstanden! (habe jedoch bisher nur strukturiert, nicht umgeschrieben) --DixMartin (Diskussion) 15:14, 26. Mai 2018 (CEST)(erledigtErledigt->#Einzelne Kritikpunkte...)--DixMartin (Diskussion) 16:09, 26. Mai 2018 (CEST)
  • 'Informationstransport ...' und 'I. als Veränderung' sind keine Unteralternativen von '.. in Mathematik ...' - das ebenfalls nicht mit der Definition beginnt, sondern allgemein für I. geltende Aussagen.
erledigtErledigt--DixMartin (Diskussion) 16:09, 26. Mai 2018 (CEST)
Willst Du das wirklich derartig umarbeiten? Wenn ja, dann müssen die wirklich und nicht nur partiell unterschiedlichen Definitionen klar herausgestellt werden. Weitere Beschreibungen sollten entweder (falls zutreffend) als einer bestimmten Definition untergeordnet dargestellt werden oder (falls eher allgemeingültig) unabhängig von den Defs beschrieben sein. Nicht einfach! --VÖRBY (Diskussion) 13:03, 26. Mai 2018 (CEST)
Deine Kritikpunkte sind berechtigt. Ich habe in Benutzer:DixMartin/Information Alternative versucht, eine Struktur in den Artikel zu bringen, damit die von --arilou (Diskussion) angestoßene Diskussion, die Einzelthemen überhaupt funktionieren kann. Meines Erachtens ist dadurch der Artikel schon lesbarer geworden.
Ja, ich möchte den Artikel 1. neu strukturieren und dann 2. Einzelthema für Einzelthema mit allem was dazu gehört (Einleitungsdefinition, Quellen etc.) abarbeiten.
Ich teile die Ansicht, dass das ein grosser Brocken ist, aber ich glaube auch, dass es um einen wichtigen Artikel geht, und sich die Arbeit daher lohnt.
Für die Mitarbeit auf der Seite Benutzer:DixMartin/Information Alternative lade ich herzlich ein!
--DixMartin (Diskussion) 15:14, 26. Mai 2018 (CEST)
Wo und in welchem Format sollte ich Anmerkungen/Korrekturen einstellen? Vorschlag: Im jeweils neuesten Artikel, direkt beim jeweiligen Text, in kleiner Schrift und kursiv, beginnend mit 'VÖRBY: '. Danach kannst Du ein ERL. oder einen sonstigen Kommentar einstellen, ebenfalls kursiv. Nach der Überarbeitung durch Dich kann eine weitere neue Version entstehen. Mal sehen, ob das funzt.
Oder schlägst du was anderes vor? --VÖRBY (Diskussion) 17:06, 26. Mai 2018 (CEST)
Können wir so machen. Hatte einfacher gedacht: unter Benutzer:DixMartin/Information Alternative einfach ändern, Grund in die Zusammenfassung, nachsehen kann man in der Versionsgeschichte, und wem etwas nicht passt, meldet sich.--DixMartin (Diskussion) 18:14, 26. Mai 2018 (CEST)

@DixMartin: Habe parallel zu Deiner Umarbeitung den Originalartikel nochmal etwas umstrukturiert; ich denke, so wäre die Reihenfolge logischer und einige Doppelbezeichnungen in den Abschnitten sind jetzt zusammengefasst. Bis 'unsere' Alternativbearbeitung diesen Stand erreicht hat, ist m.E. noch ein langer Weg. Möglicherweise müssten, bedingt durch die Verschiebungen, nochmal textuelle Kleinigkeiten eingearbeitet werden. Aber, wie schon weiter oben gesagt, m.E. ist der Artikel so inhaltlich ok. Vor allem kommt für den Leser klar raus, was Information ist und welche Kriterien/Aspekte dabei zusammenwirken. --VÖRBY (Diskussion) 19:12, 28. Mai 2018 (CEST)

Der Alternativartikel sollte im Wesentlichen der (zügigen) Strukturfindung dienen, bevor wir uns den Einzelthemen widmen. Dies ist auch aus Konsistenzgründen sinnvoll, damit sich der Originalartikel zwischenzeitlich nicht in eine andere Richtung entwickelt. A propos: bitte dran denken, die Strukturänderungen in Benutzer:DixMartin/Information Alternative nachzuziehen. Danke. --DixMartin (Diskussion) 19:30, 28. Mai 2018 (CEST)
Nach nochmaligem 'Überfliegen' des derzeitigen Artikelstands bin ich der Ansicht, dass die Struktur eigentlich passt - und die Inhalte auch. Bei 'Semiotik' könnte man den Text mehr auf 'Information' ausrichten, aktuell sind dort eher 'Daten' behandelt. Vlt. könnte man einiges noch kürzen (zB bei Modelle), aber sonst finde ich den Artikel ok. --VÖRBY (Diskussion) 13:25, 29. Mai 2018 (CEST)
nach intensiver Auseinandersetzung mit dem Dualismus der Information nach Capurro: Informationstheorie schließt Semantik und Pragmatik aus; Informationswissenschaft betont gerade Semantik und Pragmatik)
habe ich Benutzer:DixMartin/Information Alternative nochmals überarbeitet; siehe auch #Einleitung. --DixMartin (Diskussion) 18:52, 1. Jun. 2018 (CEST)

Hallo, wie gehts weiter? Meine Sicht: Die Einleitung sollte eine nach den meisten Quellen passende Beschreibung sein. Da sollten folgende Kriterien in einem Fließtext genannt werden: Information ist ...: In Form gebrachtes Wissen (Code, Syntax), 'transportiert' über Info-Kanal, als Nachrichten etc (s.Synonyme), Wissenszuwachs/in bestimmtem Kontext bedeutsam, = empfängerbezogen, nicht auf Daten/IT beschränkt. Im Abschnitt 'Unterschiedliche Definitionen' könnte man dann nur beschreiben, was bei bestimmten Quellen zusätzlich gilt oder weggelassen wurde, z.B. dass man sich (nach Blieberger etc, s. E.1.2.5) "zur Übertragung einer SPRACHE bedient" oder eben, dass bestimmte Autoren es vermeiden, eine Definition zu formulieren. Immer noch Sysyphos, es hat offensichtlich seinen Grund, dass es noch keine allgemeingültige Def gibt. --VÖRBY (Diskussion) 12:47, 13. Jun. 2018 (CEST)

Wie geht's weiter: siehe oben: 1. neu strukturieren und dann 2. Einzelthema für Einzelthema mit allem was dazu gehört (Einleitungsdefinition, Quellen etc.) abarbeiten.
zu 1. Hat Benutzer:DixMartin/Information Alternative jetzt die Struktur mit der wir leben können
zu 2. siehe #Vorschlag für eine präzise, gleichwohl hinreichend allgemeine Begriffsbestimmung
Was ist aus deiner Idee einer Liste der Definitionsansätze geworden? --DixMartin (Diskussion) 21:21, 13. Jun. 2018 (CEST)
zu 1. Vorläufig halte ich den Originalartikel für die geeignetere Form. Kleinere Anpassungen nehme ich von Fall zu Fall schon mal dort vor - was ggf. in eine andere Fassung zu übernehmen wäre.
zu 2. Habe die Einleitung um die Aspekte 'Wissenszuwachs' und 'Kontext' ergänzt (in den meisten Definitionen so genannt). Die Aussagen 'Informationstheorie' und zu 'Absender' müssen dort noch überarbeitet/verifiziert werden. Auch 'Synonym für Daten' und 'Oberbegriff' habe ich in der Einleitung ergänzt. Sie soll m.E. schon präzise genug sein, um den Ausdruck hinreichend genau (und nicht nur 'allgemeinsprachlich'!) zu beschreiben.
Weitere Definitionen mit ihren Abweichungen vom Einleitungstext müssen im Abschnitt 'Definitionen' noch ergänzt werden. Jeweils mit Belegen, diskutierte Quellen dazu nutzen. --VÖRBY (Diskussion) 19:21, 21. Jun. 2018 (CEST)

Vorschlag für eine präzise, gleichwohl hinreichend allgemeine Begriffsbestimmung

Information (von lateinisch in-formare ‚formen‘, ‚bilden‘, ‚gestalten‘, ‚ausbilden‘, ‚unterrichten‘, ‚darstellen‘, ‚sich etwas vorstellen‘) ist die Bedeutung von Daten, die von einem Individuum durch Interpretation aus diesem gewonnen wird. Das Individuum führt diese Interpretation innerhalb eines Kontextes durch. Der umgekehrte Vorgang, bei dem Information aus einem Kontext heraus als Daten dargestellt wird, ist deren Kodierung.

Für den Begriff Information selbst ist deren Wahrheit ohne Belang. Informationen können sowohl aufgrund falscher Daten als auch aufgrund deren fehlerhafter Interpretation falsch sein.

Informationen können bewusst als Nachricht über einen Kanal/Datenträger von einem Sender an einen Empfänger übermittelt oder auch unbewusst transportiert werden und durch die Wahrnehmung von Form und Eigenschaft eines Objektes anfallen.

20:12, 11. Jun. 2018 (CEST) West of House (Diskussion)

Ich halte für die Definition (zumindestens im Kontext Informatik) gut. Aufgrund der vielen Definitionsansätze und Meinungen (s.o.) wäre es hilfreich, wenn Du eine Quelle für diesen Ansatz hast.--DixMartin (Diskussion) 20:28, 11. Jun. 2018 (CEST)
Hallo zusammen, ich finde die aktuelle Fassung allgemeingültiger, sie enthält alle Kriterien, die man überall mehr oder weniger auf den Begriff anwenden kann. Die Einleitung nur auf die Informatik zu beziehen, ist solange nicht ok, als der Artikel nicht 'Information (Informatik)' heißt. Besser sollte man - siehe unsere Diskussion - eine derartige Definition als eine von mehreren/vielen Definitionen - mit dem Anwendungsbereich (Informatik?) und einer Quellenangabe - aufzählen. --VÖRBY (Diskussion) 10:47, 12. Jun. 2018 (CEST); Lemma ist in Bearb (s.o.): --VÖRBY (Diskussion) 18:50, 12. Jun. 2018 (CEST)
Ich sehe hier keinen besonderen Informatik-Bezug. "Daten" kommt von Datum, dem PPP zu "dare" = geben, also "das Gegebene". Gemeint ist das bloße kommunizierte, gelesene, wahrgenommene, wie das Wort "Ja" als Antwort auf die Frage "Fährt dieser Zug nach Ulm?": Das Datum ist hier "Ja", die Information ist, dass dieser Zug nach Ulm fährt und Sie erschließt sich nur im Kontext der Frage.
Wo ist da ein Informatik-Bezug? 19:47, 12. Jun. 2018 (CEST) West of House (Diskussion)
Zu Deinem Vorschlag:
  • "Ist die Bedeutung von Daten": Müsste wohl heißen "Die Bedeutung, die aus Daten in einem bestimmten Kontext abgeleitet wird." "Bedeutung" allein ist zu wenig und schwer verständlich.
  • 'Daten': Die Definition bezieht sich lediglich auf 'Daten', die interpretiert werden. Im weiteren Sinn gehört dazu viel mehr; auch die (angezeigte/tatsächliche/gefühlte) Temperatur kann zu 'Information' werden, auch eine hohe Gewitterwolke (Kontext 'Hagel?') oder die Farbe eines Autos (Taxi?). Insofern könnte man sagen, Deine Def ist IT-bezogen.
  • Noch zu "Kodierung": Deine Beschreibung unterstellt, dass vor dem Senden immer irgendwie 'codiert' wird. Als Beispiel ist das aber bei einer Gewitterwolke nicht der Fall. Es ist umgekehrt: Zu JEDEM Interpretieren gehört ein 'Dekodieren': Bei einer Wandmalerei mit Hieroglyphen ist das i.S. von 'Code' noch verständlich, sowieso bei den Zeichen in einer Zeitung; doch ist jegliches 'Sehen' oder auch 'Hören' (und auch das Erkennen von Figuren) eine Art 'Dekodieren'. Insofern liegt eine 'Nachricht' (das Wahrgenommene, die physikalische Grundlage der subjektiven 'Information') immer in einem bestimmten Code vor. Ob dazu der Vorgang 'kodieren' stattfand, ist unbestimmt. Jedenfalls muss beim Transport und beim Interpretieren immer und ggf. mehrfach um- und dekodiert werden.--VÖRBY (Diskussion) 09:39, 13. Jun. 2018 (CEST)
zu Daten, laut WP: Unter Daten versteht man im Allgemeinen Angaben, (Zahlen-)Werte oder formulierbare Befunde, die durch Messung [36°C] , Beobachtung [Gewitterwolke/Taxifarbe] u. a. gewonnen wurden. In der Umgangssprache versteht man darunter Gegebenheiten, Tatsachen, Ereignisse. Daneben existieren in verschiedenen Fachbereichen, wie z. B. der Informatik oder der Wirtschaftstheorie, unterschiedliche – wenn auch meist ähnliche – Definitionen ==> also nicht zwingend Informatik
Gemäß obiger Diskussion gehört in eine allgemeine/allgemeinsprachliche Definition von Information: Bedeutung (von Daten) für, Interpretation durch, Kontext des Empfängers. Das findet sich in den meisten aktuellen Definitionen wieder.
nicht (zwingend) in eine allgemeinsprachliche Definition gehört m.E. Transport und Info-Kanal, da sich diese Begriffe nur in der Informationstheorie (eigentlich communication theorie) und deren Ableitungen wiederfinden. Insofern steht die Informationstheorie im Ggs. zu den Begriffen Bedeutung, (Interpretation) und Kontext. Bedeutung und Kontext wurden von Shannon explizit ausgeschlossen.
Wir sollten 1. eine Quelle für eine Definition ähnlich West of House finden und nennen; 2. die Definition der Informationstheorie davon getrennt aufführen und 3. darauf hinweisen, dass es keine eindeutige Definition gibt. (Für den letzten Punkt gibt es jedenfalls ausreichend Quellen). --DixMartin (Diskussion) 21:21, 13. Jun. 2018 (CEST)
Der Fehler. der hier meines Erachtens gemacht wird ist, anzunehmen, dass es einen einheitlichen Informations-Begriff gäbe. Zumindest der Informationsbegriff der Informatik und der der Nachrichtentechnik unterscheiden sich aber in wesentlichen Punkten. In der Nachrichtentechnik wird die Definition nach Claude Shannon zu Grunde gelegt. Sie besagt dass Daten, die den Zustand des Zielsystems verändern, Informationen sind. Daten, die das Zielsystem dagegen nicht verändern, sind zwar Daten, tragen aber keine Information. (Nachzulesen in seinem Artikel A Mathematical Theory of Communication) Redundante Daten enthalten nach dieser Definition keine Information (obwohl sie interpretierbar sind) und können bei der Daten-Kompression (auch hierzu hat Shannon die Grundlagen gelegt) ohne Informationsverlust entfallen.
In der Informatik dagegen werden Definitionen akzeptiert, wie in der Diskussion oben nachzulesen. Vermutlich verwenden Semiotik und Bibliothekswesen den Informationsbegriff noch einmal anders. Allgemeinsprachlich wird zwischen Daten und Information meist gar kein Unterschied gemacht.
Bei einem allgemeinen Artikel über Information müssten diese Unterschiede deutlich werden. Jeweils getrennt mit Referenzen unterlegt. Und als Nutzer von Wikipedia würde ich mir natürlich wünschen, dass nicht nur erwähnt wird, dass es unterschiedliche Definitionen gibt, sondern welches Fach aus welchen Gründen welche Definition zu Grunde legt und worin diese sich unterscheiden. Ok, das ist natürlich schon eine größere Aufgabe und würde eine fachübergreifende Zusammenarbeit erfordern.
--MRewald (Diskussion) 00:04, 18. Jul. 2018 (CEST)
Ich halte die Definition "Bedeutung von Daten" für falsch, ebenso den Bezug auf Individuen. Es können ja auch Maschinen miteinander kommunizieren und Informationen austauschen. Für Interessierte biete ich mal einen Beitrag der Teleakademie: Zum Thema Informationstheorie. 84.163.78.69 09:56, 19. Jul. 2018 (CEST)
Hier noch ein Veröffentlichter Vorschlag für eine Disziplin-übergreifende Definition der Information [3] 84.163.78.69 10:13, 19. Jul. 2018 (CEST)
Dieses Handbuch gilt als einschlägig: [4] 84.163.78.69 10:17, 19. Jul. 2018 (CEST)
Was das "Handbook of Philosophy of Information" angeht, stellt sich erst einmal die Frage, bei wem es als "einschlägig" gilt? Unter Philosophen? Oder würde es auch von Informatikern und Nachrichtentechnikern als "einschlägig" anerkannt? Das würde mich zumindest überraschen. Solange das nicht der Fall ist, kann der Verweis eigentlich seriös nur verwendet werden, wenn von einem philosophischen Informations-Begriff die Rede ist.
In Bezug auf "A discipline independent definition of information" ist das erst einmal eine vollmundige Behauptung des Autors, die zu diskutieren wäre. Das Problem aus meiner (nachrichtentechnischen) Sicht: Die Definition ist so allgemein gehalten, dass sie zwar so schnell niemandem auf die Füße tritt, aber auch so allgemein und nichts-sagend, dass sie letztlich für eine praktische Umsetzung unbrauchbar ist.
Es gibt in den verschiedenen Disziplinen schon Gründe, warum Definitionen so gefasst sind, wie sie gefasst sind. Und diese Gründe stehen einer Verallgemeinerung im Wege. Es führt IMHO deshalb kein Weg daran vorbei, die Unterschiede in den verschiedenen Fachgebieten heraus zu arbeiten, wie ja im Kapitel Information#Der Begriff in verschiedenen Wissenschaften/Fachrichtungen begonnen. Der Ansatz sollte weiter ausgebaut werden.
Ansonsten steht der Bezug auf "Individuen" nicht dem Einsatz von Maschinen entgegen. Die Definition von Shannon hat Machinen sogar ganz besonders im Blick. Trotzdem ist die Frage, was Information ist, und was nicht, abhängig von der jeweiligen Instanz einer konkreten Maschine und sogar von deren individuellen Vorgeschichte. Das bedeutet, dass die selben Daten, der selben Maschine angeboten, zu verschiedenen Zeitpunkten mal eine Information darstellen und zu einem anderen Zeitpunkt aber nicht. Für Philosophen ist das nach meiner Erfahrung eine sehr harte Nuss, jedenfalls dann, wenn sie keine Technik-Philosophen sind.
--MRewald (Diskussion) 20:58, 19. Jul. 2018 (CEST)

Wo stehen wir jetzt eigentlich in der Artikelverbesserung? Es gab zuletzt soviele Anmerkungen, die alle irgendwie richtig zu sein scheinen, die sich aber offensichtlich nach Meinung der Disk-Autoren nicht in der richtigen Struktur präsentieren. Ich denke, man sollte einen Abschnitt 'Definitionen' ergänzen, in dem wesentliche Quellen (welche ist 'wesentlich'?) zitiert und kurz erläutert werden, so wie vorgenannt von @MRewald vorgeschlagen. Ob dies den aktuellen Abschnitt [Der Begriff in verschiedenen Wissenschaften/Fachrichtungen] ersetzen oder nur ergänzen soll, wäre von den letztlich 'auserwählten' Definitionen und dem derzeitigen Inhalt abhängig. Die meisten anderen Abschnitte behandeln den Begriff aus unterschiedlichen Teilsichten, die m.E. weitgehend allgemeingültig sind (z.B. Kodierung, Semantik, Eigenschaften ...) und wohl auch ihre Berechtigung haben. Sie können also unabhängig von einzelnen sich unterscheidenden Definitionen behandelt werden, d.h. im Wesentlichen bleiben wie sie sind. Andere Lösungen zum 'Umbau' des Artikels (s.a. Entwurf von @DixMartin) scheinen mir zu aufwendig oder würden die bisherigen Arbeiten am Artikel zT ignorieren. --VÖRBY (Diskussion) 12:26, 18. Jul. 2018 (CEST)

Wie oben schon angemerkt: Der Abschnitt "Der Begriff in verschiedenen Wissenschaften/Fachrichtungen" ist ein richtiger Anfang, der weiter ausgebaut werden sollte. Ich hatte das in meinem ersten Post ziemlich ungeschickt formuliert. Aber wir sind noch nicht angekommen. Auf dem Weg muss aber sicherlich noch die eine oder andere Diskussionen geführt werden. Oder auch wiederholt werden, gegenüber Leuten, die da das eine oder Andere noch nicht mitgeschnitten haben. --MRewald (Diskussion) 20:58, 19. Jul. 2018 (CEST)

In etwa auf die vorangegangenen Vorschläge eingehend (i.W. verschiedene Definitionen vorstellen) beginne ich anschließend mit einem Textentwurf, basierend ~ auf aktuellen Artikeltexten. Bitte per Diskussion darin Änderungen und Ergänzungen direkt vornehmen, ggf. Texte aus dem Artikel verwenden. Diskussionen darüber im Anschluss an den Entwurfstext; Rohtexte sind durch ~ gekennzeichnet. Oder hat jemand einen anderen Vorschlag? ZB den Entwurf Benutzer:DixMartin/Information Alternative i.Z. mit den vorandgegngenen Diskussionen? --VÖRBY (Diskussion) 12:11, 21. Jul. 2018 (CEST)

Diskussion aus dem Review

steht auf der Review-Hauptseite --slg 18:25, 28. Sep. 2004 (CEST)

Hab nur kurz in der Physik gelesen: Die statistische Mechnik auf die Information zurückzuführen ist schlichtwegs falsch. Bolzmann hat als erster die Entropie verwendet, erst dann kam Informations-Shannon, der diesen Begriff verwendet, und explizit auf Bolzmann verweist. Das die Quantenmechanik Information auf nicht klassischen Weg übertragen kann ist ebenfalls falsch. Das man Information nicht kopiern kann stimmt vielleicht auch nicht (aber das kann man diskutieren): Man kann kein QM-System klonen. Ich kann die Information (photon a ist im Zustand b) aber auslesen aufschreiben und in den Kopierer legen ... 128.97.70.87 01:44, 1. Okt. 2004 (CEST)
Ich möchte mich der Meinung von 128.97.70.87 insofern anschliessen, als dass ich den ganzen Absatz über Physik und Information unverständlich finde. Ich werde den Eindruck nicht los als dass jemand auf Biegen und Brechen eine Verbindung zwischen Physik und Information konstruieren will. Das kann er meinetwegen, aber dann sollte er etwas so sagen können, dass man es versteht. So wie das jetzt vorliegt trifft das m.E. nicht zu. Ich beantrage das Löschen dieses Absatzes (komplett). HannesH 10:19, 19. Nov. 2004 (CET)
Über die sachliche Richtigkeit des betreffenden Abschnitts kann man sicher steiten, es ist aber ganz sicher so, dass Information in der Physik wichtig ist. Insbesondere in der Thermodynamik spielt Information eine Grosse rolle - hat Stephen Hawkings nicht gerade eine Wette in Bezug darauf verloren, ob Schwarze Löcher Information vernichten? Ein sehr gutes Beispiel für den Zusammenhang ist auch der Maxwellscher Dämon, ein Paradoxon dass erst durch die Informationstheorie gelösst werden konnte. Kurz gesagt: Wenn man einem System Energie zuführt, verringert man die Entropie und erhöht den Informationsgehalt des Systems. Es gibt eine minimale Energiemenge für die darstellung eines Bits, etc. Desweiteren orientiert sich z.B. in der Relativitätstheorie der Begriff der Gleichzeitigkeit daran, wann, wie und wo Informationen übertragen werden - Einstein schließt Reisen in die Vergangenheit aufgrund von Paradoxa aus, die sich ausschließlich auf Information beziehen, etc. Die Verbindung ist also nicht zu leugnen... -- D. Düsentrieb 13:58, 19. Nov. 2004 (CET)


Bezüglich Maxwellscher Dämon: Dort lese ich erstmal

  1. Der maxwellsche Dämon oder Maxwell-Dämon ist ein Gedankenexperiment
  2. Leider würde dieser Aufbau in Wahrheit so nicht funktionieren, da er einen entscheidenden Denkfehler enthält.
  3. Der zweite Hauptsatz behält seine Gültigkeit.

Über die Lösung eines Widerspruchs durch die Informationstheorie lese ich nichts.

Düsentrieb weist darauf hin, das ein Zusammenhang zwischen Physik und Informationstheorie exisitiere. Damit das dokumentiert ist, sei auch falsche Information im Artikel in Kauf zu nehmen. Wirklich? Düsentrieb schreit: Wenn man einem System Energie zuführt, verringert man die Entropie und erhöht den Informationsgehalt des Systems. Wo ist der höhere Informationsgehalt, wenn ich einen Topf Wasser auf den Herd stelle und erhitze? Solche allgemeine Aussage enthalten unfreiwillige Komik. Könnte jemand bitte den Absatz überarbeiten? Sonst bin ich immer doch vorerst für Löschen. HannesH 17:25, 19. Nov. 2004 (CET)

Aaaalso:
  • dass falsche Infos im Artikel in kauf zu nehmen seihen habe ich nirgens gesagt. Ich sage nur, es gibt einen Zusammenhang, und der sollte angesprochen werden. Fehler sollten natürlich raus.
  • Dass der maxwellsche Dämon ein Gedankenexperiment ist, ändert nichts. Alle psysikalischen Paradoxa sind Gedankenexperimente (per definition!), sie verhelfen dennoch zu wichtigen Einsichten über die Gültigkeit und den Konsequenzen einer Theorie.
  • Dass der Dämon nicht funktionieren würde und der zweite Hauptsatz der Thermodynamik seine Gültigkeit behält ist genau der Punkt. Das lässt sich nämlich u.A. auch durch informationstheoretische Betrachtung zeigen:
Leider weiß ich nicht mehr, wo ich das las (ist schon einige Jahre her), der Punkt ist im Prinzip der selbe, der im Artikel mit der "elektronischen Schaltung" angesprochen wird: die Entscheidung, ob ein Molekül "schnell" ist, benötigt Energie, völlig egal ob sie elektronisch oder sonstwie realisiert ist. Das lässt sich daran zeichen, dass eben zu Darstellung und Verarbeitung von Information immer Energie notwendig ist.
  • Was ist das Gegenteil von Entropie? Meist spricht man von "Struktur" oder einem "Ungleichgewicht", es wird also eine Unterscheidbarkeit von Komponenten betrachtet. Unterscheidbarkeit ist immer Information (häufig wird "Information" sogar so definiert). Um einem System struktur zu verleihen (also die Entropie zu senken) muss man dem System Energie zuführen - der Umkehrschluss (mehr Energie -> weniger Entropie) ist nicht ohne weiteres wahr, da war ich oben zu ungenau, das gebe ich zu.
Bitte sag doch mal, was konkret du an dem Absatz für falsch hällst. Bislang hast du nur gesagt dass du ihn unverständlich findest. Wenn du ihn nicht verstehst, woher weisst du dann, dass er falsch ist? -- D. Düsentrieb 18:39, 19. Nov. 2004 (CET)

Ich zügle den fraglichen Abschnitt mal hierher (hellblau) und füge meinen Kommentar ein: >>Div Style auf Kommentar gesetzt, weil Div-Ende fehlte. --VÖRBY (Diskussion) 19:09, 1. Aug. 2018 (CEST)