Schön, dass Sie da sind!

PlusPedia wird derzeit technisch modernisiert. Wie alles, was bei laufendem Betrieb bearbeitet wird, kann es auch hier zu zeitweisen Ausfällen bestimmter Funktionen kommen. Es sind aber alle Artikel zugänglich, Sie können PlusPedia genauso nutzen wie immer.

Bei PlusPedia sind Sie sicher: – Wir verarbeiten keine personenbezogenen Daten, erlauben umfassend anonyme Mitarbeit und erfüllen die Datenschutz-Grundverordnung (DSGVO) vollumfänglich. Es haftet der Vorsitzende des Trägervereins.

Bitte beachten: Aktuell können sich keine neuen Benutzer registrieren. Wir beheben das Problem so schnell wie möglich.

PlusPedia blüht wieder auf als freundliches deutsches Lexikon.
Wir haben auf die neue Version 1.43.3 aktualisiert.
Wir haben SSL aktiviert.
Hier geht es zu den aktuellen Aktuelle Ereignissen

Hinweis zur Passwortsicherheit:
Bitte nutzen Sie Ihr PlusPedia-Passwort nur bei PlusPedia.
Wenn Sie Ihr PlusPedia-Passwort andernorts nutzen, ändern Sie es bitte DORT bis unsere Modernisierung abgeschlossen ist.
Überall wo es sensibel, sollte man generell immer unterschiedliche Passworte verwenden! Das gilt hier und im gesamten Internet.
Aus Gründen der Sicherheit (PlusPedia hatte bis 24.07.2025 kein SSL | https://)

Information: Unterschied zwischen den Versionen

Aus PlusPedia
Zur Navigation springen Zur Suche springen
Randbemerkung und Satzbau ...
Fmrauch (Diskussion | Beiträge)
überarbeitet
Zeile 1: Zeile 1:
Informationen sind eine Folge von Zeichen die einer bestimmten Menge entnommen sind. Ist der Zeichenvorrat geordnet dann ist es ein - informationstechnisch gesehen - [[Alphabet]].
Eine '''Information''' ist eine Folge von Zeichen oder Bildern, die einer bestimmten Menge entnommen sind. Ist der Zeichenvorrat geordnet, dann ist es - informationstechnisch gesehen - ein [[Alphabet]]. Informationen sind etwas anderes als [[Daten]]. Information können zu einem Gewinn an [[Wissen]] führen und ein bestimmtes Verhalten bewirken. Wenn Informationen der Irreführung dienen, werden sie als ''Desinformation'' bezeichnet.


== Eigenschaften ==
== Eigenschaften ==
Zeile 8: Zeile 8:
* I = 'ANTON' (ein Wort über dem Alphat der lateinsichen Großbuchstaben.)
* I = 'ANTON' (ein Wort über dem Alphat der lateinsichen Großbuchstaben.)
* I = 42 (ein Wort über dem Alphabet der Ziffern [0, .., 9] - des Typs Integer)
* I = 42 (ein Wort über dem Alphabet der Ziffern [0, .., 9] - des Typs Integer)
== Kodieren - Dekodieren ==
* Daten werden zu Informationen kodiert; Informatione werden zu Daten dekodiert.
Unscharfer Begriff wird auch zwischen Daten und Daten und Informationen und Informationen verwendet.
* Ziele
** Speicherung
** Übertragung
** Berechnung
** Komprimierung
** Verschlüsselung
** Veranschaulichung


== Ebenen ==  
== Ebenen ==  
Es gibt vier Ebenen unter denen Informationen betrachtet werden.
Es gibt vier Ebenen unter denen Informationen betrachtet werden.  
* Codierung - Nachrichtentechnik - und Informatik
* Codierung - Nachrichtentechnik - und Informatik. Daten werden zu Informationen kodiert; Informatione werden zu Daten dekodiert.
* Syntax - Formale Sprache (Th. Informatik) - Linguistik
* Syntax - Formale Sprache (Th. Informatik) - Linguistik
* Semantik - Bedetuung
* Semantik - Bedetuung
* Pragmatik -  
* Pragmatik -  


== Codierung ==
== Statistik ==
* Die Zeichenfolge "Informatik ist spannend" ist zu kurz für eine statistische Betrachtung. Die Häufigkeit einzelner Buchstaben ist nicht gleich.


* Gewisse Buchstaben wie e und t sind häufiger als andere. (e 14,7% - n 8,8%, x 0,01%) <ref>Anm.: Prozentangabe für die deutsche Sprache. Andere Sprachen weisen davon abweichende Häufigkeitsverteilungen auf.</ref>
In der deutschen Schriftsprache sind gewisse Buchstaben wie e und t sind häufiger als andere (e 14,7% - n 8,8%, x 0,01%). Andere Sprachen weisen davon abweichende Häufigkeitsverteilungen auf.
* Das Auftreten von e liefert nicht die gleiche "Informationsbenge" wie x
* Das Auftreten von e liefert nicht die gleiche "Informationsmenge" wie x. Ist ein x in einem Wort enthalten, so erhöht sich die Menge der möglichen Worte.
** Ist ein X in einem Wort enthalten, so reduziert sich die Menge der möglichen Worte auf viel wenger als bei einem E
* Bei der verlustfreine Kompression ist es möglich, die häufigen Buchstaben verkürzt darzustellen.
* Bei der verlustfreine Kompression ist es möglich die häufigen Buchstaben verkürzt darzustellen.
* Claude Elwood Shannon stellte die Frage, wieviel Information verlustfrei übertragen werden kann (Telefonnetz zum Beispiel) sicherstellen. Dabei sind Informationen von Rauschen zu unterschieden.
* Die naive Kodierung ist bei einem E und einem X nicht die beste.
* Claude Elwood Shannon stellt sich die Frage, wieviel Information kann er verlustfrei übertragen über einen elektrischen Kanal (Telefonnetz zum Beispiel) sicherstellen - Das Ziel ist es Informationen von Rauschen zu unterschieden.
* Wie kann man Bitfehler erkennen und gegebenenfalls korrigieren.
* Wie kann man Bitfehler erkennen und gegebenenfalls korrigieren.


"abrakadabra"
Informationsgehalt einer Nachricht nach Shannon:
* Nicht alle Buchstaben kommen gleich oft vor
* Dies gilt für alle natürlichen Sprachen
* 5 a - 5/11 = 0,45
* 2 b - 0,18
* 1 d - 0,09
* 1 r - 0,09
* 2 k - 0,18
 
Die Häufigkeit ist nicht identisch mit der Wahrscheinlichkeit.
 
Informationsgehalt einer Nachricht nach Shannon
* l(x) = - log <sub>2</sub> P(x) = -Id P(x) negativer Logarithmus dualis
* l(x) = - log <sub>2</sub> P(x) = -Id P(x) negativer Logarithmus dualis
** Mit steigender Wahrscheinlichkeit für das Auftreten einer Nachricht sinkt deren Informaitonsgehalt
** Mit steigender Wahrscheinlichkeit für das Auftreten einer Nachricht sinkt deren Informaitonsgehalt
Zeile 58: Zeile 31:
** Bei unabhängingen Nachrichten addiert sich der Informationsgehalt
** Bei unabhängingen Nachrichten addiert sich der Informationsgehalt
** Der Informationsgehalt gibt die günstigste (kürzeste) Codelänge für die Darstellung des Zeichens in Bit an
** Der Informationsgehalt gibt die günstigste (kürzeste) Codelänge für die Darstellung des Zeichens in Bit an
* Information führt zu einem Gewinn an [[Wissen]].
* Informationsmenge ist was anderes als eine Datenmenge.


== Links und Quellen ==
== Links und Quellen ==
Zeile 71: Zeile 41:
----
----


[[Kategorie:Informatik]]
[[Kategorie:Informationstheorie]]
[[Kategorie:Informationswissenschaft]]
[[Kategorie:Informationswissenschaft]]
[[Kategorie:Semantik]]
[[Kategorie:Semantik]]
[[Kategorie:Semiotik]]
[[Kategorie:Semiotik]]
[[Kategorie:Sprachphilosophie]]
[[Kategorie:PPA-Silber]]
[[Kategorie:Wissen (Philosophie)]]
 
{{Vorlage:PPA-Eisen|Txt=Information}}

Version vom 24. Februar 2018, 13:04 Uhr

Eine Information ist eine Folge von Zeichen oder Bildern, die einer bestimmten Menge entnommen sind. Ist der Zeichenvorrat geordnet, dann ist es - informationstechnisch gesehen - ein Alphabet. Informationen sind etwas anderes als Daten. Information können zu einem Gewinn an Wissen führen und ein bestimmtes Verhalten bewirken. Wenn Informationen der Irreführung dienen, werden sie als Desinformation bezeichnet.

Eigenschaften

  • Syntax (Regelwerk zur Wort oder Satzbildung - die Syntax muss streng befolgt werden)
  • Semantik (Bedeutung)
  • Pragmatik (Anwendungskontext - Python ist eine Progrmamiersprache, ist ein Interpreter, Programme sind Skripte)
  • I = 'ANTON' (ein Wort über dem Alphat der lateinsichen Großbuchstaben.)
  • I = 42 (ein Wort über dem Alphabet der Ziffern [0, .., 9] - des Typs Integer)

Ebenen

Es gibt vier Ebenen unter denen Informationen betrachtet werden.

  • Codierung - Nachrichtentechnik - und Informatik. Daten werden zu Informationen kodiert; Informatione werden zu Daten dekodiert.
  • Syntax - Formale Sprache (Th. Informatik) - Linguistik
  • Semantik - Bedetuung
  • Pragmatik -

Statistik

In der deutschen Schriftsprache sind gewisse Buchstaben wie e und t sind häufiger als andere (e 14,7% - n 8,8%, x 0,01%). Andere Sprachen weisen davon abweichende Häufigkeitsverteilungen auf.

  • Das Auftreten von e liefert nicht die gleiche "Informationsmenge" wie x. Ist ein x in einem Wort enthalten, so erhöht sich die Menge der möglichen Worte.
  • Bei der verlustfreine Kompression ist es möglich, die häufigen Buchstaben verkürzt darzustellen.
  • Claude Elwood Shannon stellte die Frage, wieviel Information verlustfrei übertragen werden kann (Telefonnetz zum Beispiel) sicherstellen. Dabei sind Informationen von Rauschen zu unterschieden.
  • Wie kann man Bitfehler erkennen und gegebenenfalls korrigieren.

Informationsgehalt einer Nachricht nach Shannon:

  • l(x) = - log 2 P(x) = -Id P(x) negativer Logarithmus dualis
    • Mit steigender Wahrscheinlichkeit für das Auftreten einer Nachricht sinkt deren Informaitonsgehalt
    • Immer postiiv
    • Für Nachricht mit gegen Null gehender Wahrscheinlichkeit stiegt der Informationsgehalt stark an und geht für P8x) --> gegen unendlich
    • Bei unabhängingen Nachrichten addiert sich der Informationsgehalt
    • Der Informationsgehalt gibt die günstigste (kürzeste) Codelänge für die Darstellung des Zeichens in Bit an

Links und Quellen

Siehe auch

Weblinks

Quellen

Literatur

Einzelnachweise