Schön, dass Sie da sind!

PlusPedia wird derzeit technisch modernisiert. Wie alles, was bei laufendem Betrieb bearbeitet wird, kann es auch hier zu zeitweisen Ausfällen bestimmter Funktionen kommen. Es sind aber alle Artikel zugänglich, Sie können PlusPedia genauso nutzen wie immer.

Bei PlusPedia sind Sie sicher: – Wir verarbeiten keine personenbezogenen Daten, erlauben umfassend anonyme Mitarbeit und erfüllen die Datenschutz-Grundverordnung (DSGVO) vollumfänglich. Es haftet der Vorsitzende des Trägervereins.

Bitte beachten: Aktuell können sich keine neuen Benutzer registrieren. Wir beheben das Problem so schnell wie möglich.

PlusPedia blüht wieder auf als freundliches deutsches Lexikon.
Wir haben auf die neue Version 1.43.3 aktualisiert.
Wir haben SSL aktiviert.
Hier geht es zu den aktuellen Aktuelle Ereignissen

Hinweis zur Passwortsicherheit:
Bitte nutzen Sie Ihr PlusPedia-Passwort nur bei PlusPedia.
Wenn Sie Ihr PlusPedia-Passwort andernorts nutzen, ändern Sie es bitte DORT bis unsere Modernisierung abgeschlossen ist.
Überall wo es sensibel, sollte man generell immer unterschiedliche Passworte verwenden! Das gilt hier und im gesamten Internet.
Aus Gründen der Sicherheit (PlusPedia hatte bis 24.07.2025 kein SSL | https://)

Information: Unterschied zwischen den Versionen

Aus PlusPedia
Zur Navigation springen Zur Suche springen
Randbemerkung und Satzbau ...
Fmrauch (Diskussion | Beiträge)
soweit erl.
 
(24 dazwischenliegende Versionen von 3 Benutzern werden nicht angezeigt)
Zeile 1: Zeile 1:
Informationen sind eine Folge von Zeichen die einer bestimmten Menge entnommen sind. Ist der Zeichenvorrat geordnet dann ist es ein - informationstechnisch gesehen - [[Alphabet]].
Eine '''Information''' ist streng genommen zunächst eine Folge von [[Zeichen]] oder Bildern, die einer bestimmten Menge entnommen sind. Ist der Zeichenvorrat geordnet, dann ist es zum Beispiel ein [[Alphabet]]. Informationen können in Form von [[Daten]] geliefert werden. Information kann zu einem Gewinn an [[Wissen]] führen und ein bestimmtes Verhalten bewirken. Wenn Informationen der Irreführung dienen, werden sie als ''Desinformation'' bezeichnet. Informationen können aus Sicht der [[Biologie]] durch [[Licht]], alle Arten von [[Schall]] (einschließlich [[Geräusch]]e), den Tastsinn und sogenannte Botenstoffe ([[Geruch|Duft]]- und Geschmacksstoffe) übermittelt werden. Beim Menschen und den höheren Tieren ist das zentrale Organ zur Verarbeitung von Informationen das [[Gehirn]].


== Eigenschaften ==
== Eigenschaften und Regeln ==
* [[Syntax]] (Regelwerk zur Wort oder Satzbildung - die Syntax muss streng befolgt werden)
Bei den Informationen wird folgendes unterschieden:
* [[Semantik]] (Bedeutung)
* Die [[Syntax]] ist ein Regelwerk zur Wort oder Satzbildung. Die Syntax muss befolgt werden, da sonst das Verständnis erschwert wird
* [[Pragmatik]] (Anwendungskontext - Python ist eine Progrmamiersprache, ist ein Interpreter, Programme sind Skripte)
* [[Semantik]] ist die formale Bedeutung
* [[Semiotik]]: Es kommt auf den Zusammenhang an, in dem die Information steht, und die sinnvolle Nutzung. Dies ist sowohl vom Absender als auch vom Empfänger abhängig
* [[Quelle (Wissen)|Quelle]]: Dieser Begriff bezieht sich auf die Herkunft der Informationen. Die Art der Quelle entscheidet, inwieweit eine Information zuverlässig ist. In der Theorie wird zwischen [[Primärquelle]] und Informationen aus „dritter Hand“ unterschieden.<ref>Erste Hand ist hier der Absender, zweite Hand der Empfänger</ref>


* I = 'ANTON' (ein Wort über dem Alphat der lateinsichen Großbuchstaben.)
Alle vier Bereiche stehen untereinander in Beziehung. So ergibt sich die inhaltliche Bedeutung einerseits aus dem Zusammenhang - etwa bei einem Text - und andererseits aus der Herkunft. Ein Wissenschaftler wird Forschungsergebnisse für zuverlässiger halten als Informationen aus einer [[Tageszeitung]].
* I = 42 (ein Wort über dem Alphabet der Ziffern [0, .., 9] - des Typs Integer)
 
== Kodieren - Dekodieren ==
* Daten werden zu Informationen kodiert; Informatione werden zu Daten dekodiert.
 
Unscharfer Begriff wird auch zwischen Daten und Daten und Informationen und Informationen verwendet.
 
* Ziele
** Speicherung
** Übertragung
** Berechnung
** Komprimierung
** Verschlüsselung
** Veranschaulichung


== Ebenen ==  
== Ebenen ==  
Es gibt vier Ebenen unter denen Informationen betrachtet werden.
Es gibt vier Ebenen unter denen Informationen betrachtet werden.  
* Codierung - Nachrichtentechnik - und Informatik
* Codierung - in der Nachrichtentechnik und Informatik werden Informationen zu Daten kodiert.
* Syntax - Formale Sprache (Th. Informatik) - Linguistik
* Syntax - Form
* Semantik - Bedetuung
* Semantik - Bedeutung
* Pragmatik -
* Verarbeitung und Verwendung


== Codierung ==
== Statistische und wissenschaftliche Betrachtung ==
* Die Zeichenfolge "Informatik ist spannend" ist zu kurz für eine statistische Betrachtung. Die Häufigkeit einzelner Buchstaben ist nicht gleich.
* Das Auftreten von e in einem [[Text]] liefert nicht die gleiche "Informationsmenge" wie x. Ist ein x in einem Wort enthalten, so erhöht sich die Menge der möglichen Worte und zum Teil auch die Aufmerksamkeit des Lesers.
* [[Claude Elwood Shannon]] stellte die Frage, wieviel Information verlustfrei übertragen werden kann (Telefonnetz zum Beispiel). Dabei sind Informationen von Rauschen zu unterschieden.
* In der [[Informatik]] stellt sich die Frage: Wie kann man [[Bit]]fehler erkennen und gegebenenfalls korrigieren?


* Gewisse Buchstaben wie e und t sind häufiger als andere. (e 14,7% - n 8,8%, x 0,01%) <ref>Anm.: Prozentangabe für die deutsche Sprache. Andere Sprachen weisen davon abweichende Häufigkeitsverteilungen auf.</ref>
== Informationsgehalt ==
* Das Auftreten von e liefert nicht die gleiche "Informationsbenge" wie x
Für eine Nachricht gilt nach [[Claude Elwood Shannon]] eine Formel mit dem [[Logarithmus]]:
** Ist ein X in einem Wort enthalten, so reduziert sich die Menge der möglichen Worte auf viel wenger als bei einem E
* l(x) = - log <sub>2</sub> P(x) = -Id P(x)
* Bei der verlustfreine Kompression ist es möglich die häufigen Buchstaben verkürzt darzustellen.
** Mit steigender Wahrscheinlichkeit für das Auftreten einer Nachricht sinkt deren Informationsgehalt
* Die naive Kodierung ist bei einem E und einem X nicht die beste.
** Immer positiv
* Claude Elwood Shannon stellt sich die Frage, wieviel Information kann er verlustfrei übertragen über einen elektrischen Kanal (Telefonnetz zum Beispiel) sicherstellen - Das Ziel ist es Informationen von Rauschen zu unterschieden.
* Wie kann man Bitfehler erkennen und gegebenenfalls korrigieren.
 
"abrakadabra"
* Nicht alle Buchstaben kommen gleich oft vor
* Dies gilt für alle natürlichen Sprachen
* 5 a - 5/11 = 0,45
* 2 b - 0,18
* 1 d - 0,09
* 1 r - 0,09
* 2 k - 0,18
 
Die Häufigkeit ist nicht identisch mit der Wahrscheinlichkeit.
 
Informationsgehalt einer Nachricht nach Shannon
* l(x) = - log <sub>2</sub> P(x) = -Id P(x) negativer Logarithmus dualis
** Mit steigender Wahrscheinlichkeit für das Auftreten einer Nachricht sinkt deren Informaitonsgehalt
** Immer postiiv
** Für Nachricht mit gegen Null gehender Wahrscheinlichkeit stiegt der Informationsgehalt stark an und geht für P8x) --> gegen unendlich
** Für Nachricht mit gegen Null gehender Wahrscheinlichkeit stiegt der Informationsgehalt stark an und geht für P8x) --> gegen unendlich
** Bei unabhängingen Nachrichten addiert sich der Informationsgehalt
** Bei unabhängigen Nachrichten addiert sich der Informationsgehalt
** Der Informationsgehalt gibt die günstigste (kürzeste) Codelänge für die Darstellung des Zeichens in Bit an
** Der Informationsgehalt gibt die günstigste (kürzeste) Codelänge für die Darstellung des Zeichens in Bit an


* Information führt zu einem Gewinn an [[Wissen]].
[[Kategorie:Information| ]]
* Informationsmenge ist was anderes als eine Datenmenge.
 
== Links und Quellen ==
=== Siehe auch ===
=== Weblinks ===
=== Quellen ===
=== Literatur ===
=== Einzelnachweise ===
<references/>
----
 
[[Kategorie:Informatik]]
[[Kategorie:Informationstheorie]]
[[Kategorie:Informationswissenschaft]]
[[Kategorie:Semantik]]
[[Kategorie:Semantik]]
[[Kategorie:Semiotik]]
[[Kategorie:Semiotik]]
[[Kategorie:Sprachphilosophie]]
[[Kategorie:PPA-Silber]]
[[Kategorie:Wissen (Philosophie)]]
 
{{Vorlage:PPA-Eisen|Txt=Information}}

Aktuelle Version vom 30. Mai 2024, 12:55 Uhr

Eine Information ist streng genommen zunächst eine Folge von Zeichen oder Bildern, die einer bestimmten Menge entnommen sind. Ist der Zeichenvorrat geordnet, dann ist es zum Beispiel ein Alphabet. Informationen können in Form von Daten geliefert werden. Information kann zu einem Gewinn an Wissen führen und ein bestimmtes Verhalten bewirken. Wenn Informationen der Irreführung dienen, werden sie als Desinformation bezeichnet. Informationen können aus Sicht der Biologie durch Licht, alle Arten von Schall (einschließlich Geräusche), den Tastsinn und sogenannte Botenstoffe (Duft- und Geschmacksstoffe) übermittelt werden. Beim Menschen und den höheren Tieren ist das zentrale Organ zur Verarbeitung von Informationen das Gehirn.

Eigenschaften und Regeln

Bei den Informationen wird folgendes unterschieden:

  • Die Syntax ist ein Regelwerk zur Wort oder Satzbildung. Die Syntax muss befolgt werden, da sonst das Verständnis erschwert wird
  • Semantik ist die formale Bedeutung
  • Semiotik: Es kommt auf den Zusammenhang an, in dem die Information steht, und die sinnvolle Nutzung. Dies ist sowohl vom Absender als auch vom Empfänger abhängig
  • Quelle: Dieser Begriff bezieht sich auf die Herkunft der Informationen. Die Art der Quelle entscheidet, inwieweit eine Information zuverlässig ist. In der Theorie wird zwischen Primärquelle und Informationen aus „dritter Hand“ unterschieden.[1]

Alle vier Bereiche stehen untereinander in Beziehung. So ergibt sich die inhaltliche Bedeutung einerseits aus dem Zusammenhang - etwa bei einem Text - und andererseits aus der Herkunft. Ein Wissenschaftler wird Forschungsergebnisse für zuverlässiger halten als Informationen aus einer Tageszeitung.

Ebenen

Es gibt vier Ebenen unter denen Informationen betrachtet werden.

  • Codierung - in der Nachrichtentechnik und Informatik werden Informationen zu Daten kodiert.
  • Syntax - Form
  • Semantik - Bedeutung
  • Verarbeitung und Verwendung

Statistische und wissenschaftliche Betrachtung

  • Das Auftreten von e in einem Text liefert nicht die gleiche "Informationsmenge" wie x. Ist ein x in einem Wort enthalten, so erhöht sich die Menge der möglichen Worte und zum Teil auch die Aufmerksamkeit des Lesers.
  • Claude Elwood Shannon stellte die Frage, wieviel Information verlustfrei übertragen werden kann (Telefonnetz zum Beispiel). Dabei sind Informationen von Rauschen zu unterschieden.
  • In der Informatik stellt sich die Frage: Wie kann man Bitfehler erkennen und gegebenenfalls korrigieren?

Informationsgehalt

Für eine Nachricht gilt nach Claude Elwood Shannon eine Formel mit dem Logarithmus:

  • l(x) = - log 2 P(x) = -Id P(x)
    • Mit steigender Wahrscheinlichkeit für das Auftreten einer Nachricht sinkt deren Informationsgehalt
    • Immer positiv
    • Für Nachricht mit gegen Null gehender Wahrscheinlichkeit stiegt der Informationsgehalt stark an und geht für P8x) --> gegen unendlich
    • Bei unabhängigen Nachrichten addiert sich der Informationsgehalt
    • Der Informationsgehalt gibt die günstigste (kürzeste) Codelänge für die Darstellung des Zeichens in Bit an
  1. Erste Hand ist hier der Absender, zweite Hand der Empfänger