Information

Information (von lateinisch in-formare ‚formen‘, ‚bilden‘, ‚gestalten‘, ‚ausbilden‘, ‚unterrichten‘, ‚darstellen‘, ‚sich etwas vorstellen‘) ist eine Teilmenge an Wissen, die ein Absender einem Empfänger über ein bestimmtes Medium (in der Informationstheorie auch als „Informationskanal“ bezeichnet) in einer bestimmten Form (Signale, Code) vermitteln kann und die beim Empfänger in einem für diesen bedeutsamen Kontext zu einem ‚Wissenszuwachs‘ führt.

Sender und Empfänger können sowohl Menschen und höherentwickelte Tiere als auch andere komplexe Systeme, wie Maschinen oder Computer(programme), sein. Im menschlichen Bereich gibt eine Information Auskunft über mindestens eine der Fragen „Wer? Was? Wo? Wann? Wie? Warum? Mit wessen Hilfe?“ Information kann ein allgemeines oder spezielles Interesse an Wissen befriedigen – gegebenenfalls zur Verwirklichung eines bestimmten Vorhabens (aktionsprägend) – oder sie regt nur die Phantasie an.

Information kann bewusst als Nachricht über einen Kanal/Datenträger von einem Sender an einen Empfänger übermittelt oder auch unbewusst transportiert werden und durch die Wahrnehmung von Form und Eigenschaft eines Objektes auffallen.

Information erhält ihren Wert durch die Interpretation des Gesamtgeschehens auf verschiedenen Ebenen, die teils bewusst, größtenteils aber unbewusst abläuft. Darin reduzieren wir einerseits die Informationsmenge nach bestimmten Algorithmen, filtern sie, z.B. nach unserem Erkenntnisinteresse, erweitern sie andererseits aber auch durch Verknüpfung mit vorhandener Information.

„Information“ gilt umgangssprachlich auch als Synonym für „Daten“ sowie als Oberbegriff für zahlreiche konkretere Begriffe wie Auskunft, Meldung etc.

Definition

1. Begriff: Derjenige Anteil einer Nachricht, der für den Empfänger einen Wert besitzt. Durch Informationen werden beim Wirtschaftssubjekt bestehende Wahrscheinlichkeitsurteile bez. entscheidungsrelevanter Daten oder Ereignisse (z.B. Tauschmöglichkeiten oder technische Innovationen) verändert.
2. Merkmale: a) Eine Information kann als immaterielles Gut charakterisiert werden, das i.d.R. auch bei mehrfacher Nutzung nicht verbraucht wird. Informationskäufer erhalten eine, meist zu geringen Grenzkosten herstellbare, Kopie der Information, können aber die Rechte der Informationsnutzung in vollem Umfang erwerben. Als wirtschaftliches Tauschobjekt i.e.S. ist deshalb nicht die Information selbst, sondern das Recht, sie zu nutzen, zu betrachten (Verfügungsrechte).
b) Informationen zeichnen sich des Weiteren dadurch aus, dass sie (v.a. angesichts neuerer Informations- und Kommunikationstechniken) extrem schnell und preiswert transportierbar sind.
c) Wegen der erwähnten Eigenschaften treten bei der Produktion und Distribution von Informationsprodukten erhebliche ökonomische Risiken auf.

‚Information‘ wird im Sprachgebrauch auch als allgemeine Bezeichnung für Daten benutzt, beide Ausdrucke werden oft als gleichbedeutend (synonym) angenommen. Daraus entstanden auch Ausdrücke wie Informationstechnik, Informationsfluss usw. – die sich aber meist auf Daten beziehen. So ist der Begriff ‚Informationsverarbeitung‘ nur sinnvoll, wenn Information als Variante von Datum und Nachricht verstanden wird. Doch wird Information auch als höhere Ordnung den Daten gegenübergestellt – aus denen sie sich zusammensetzt.

Daneben ist die Bezeichnung „Information“ (auch im Plural) ein Oberbegriff für zahlreiche Unterlagen/Ausdrücke mit situationsbezogen konkreteren Bedeutungen und Bezeichnungen; Beispiele sind Hinweis, Auskunft, Bericht, Meldung usw.

Eigenschaften

Energie, Materie und Information stellen die drei wichtigsten Grundbegriffe der Natur- und Ingenieurwissenschaften dar. Für die Informatik, die sich als die Wissenschaft von der systematischen Verarbeitung von Information versteht, ist der Begriff Information von zentraler Bedeutung.

In erweitertem Sinn zählen auch die Kriterien, die die Qualität einer Information bestimmen, zu den Eigenschaften, die eine Information aufweisen kann/soll. Dies sind zum Beispiel: Zweckorientiertheit, Wahrheit/Richtigkeit, Vollständigkeit, Konsistenz (widerspruchsfrei), Glaubwürdigkeit und Prüfbarkeit, Aktualität.

Modelle

Das Wesentliche an Information ist die Eigenschaft, Veränderungen im empfangenden System hervorzurufen. Da es bislang keine anerkannte einheitliche Theorie der „Information“ gibt, sondern lediglich unterschiedliche Modelle, steht eine eindeutige Definition des Begriffs „Information“ noch nicht zur Verfügung, wenngleich auch eine nicht anerkannte Definition bereits zur formalen Beschreibung des Experimentiervorgangs führen konnte.

Erklärungsansätze für den Begriff der Information kommen sowohl aus geistes- und sozialwissenschaftlicher Richtung (Semantik, Semiotik, Philosophie, Kommunikationswissenschaft usw.), als auch aus naturwissenschaftlicher Richtung (Physik, Kybernetik, Nachrichtentechnik, Informatik usw.). Die unterschiedlichen Ansätze decken sich nicht, haben aber Überschneidungen.

Einer der wesentlichen Unterschiede zwischen geisteswissenschaftlichen und naturwissenschaftlichen Modellen besteht darin, dass für die Naturwissenschaft bereits in einer Wechselwirkung subatomarer Teilchen ein Informationsaustausch gesehen wird (vgl. z.B. das Einstein-Podolsky-Rosen-Paradoxon, von dem das klassische Zitat Einsteins über eine „spukhafte Fernwirkung“ herrührt, weil hier zwei Teilchen scheinbar instantan Information auszutauschen scheinen, statt mit Lichtgeschwindigkeit, wie Einstein dies vorhersagt.)

Der naturwissenschaftliche Begriff von „Information“ ist eng verknüpft mit dem Konzept der Entropie (d.h. dem zweiten Hauptsatz der Thermodynamik). Hieraus ergeben sich zahlreiche Konsequenzen, entsprechend den zahlreichen Konsequenzen, die sich aus dem zweiten Hauptsatz der Thermodynamik ergeben. (Eine der möglichen Konsequenzen lautet: Als Gegenstand der Naturwissenschaften wird unter Information ein potenziell oder tatsächlich vorhandenes nutzbares Muster von Materie oder Energieformen verstanden. Information ist hier, was sich aus dem Zustand eines Systems für die Zustände anderer Systeme ableiten lässt.)

Dieses naturwissenschaftliche Verständnis steht im Widerspruch zu dem Informationsbegriff, der von den Geisteswissenschaften herrührt, sowie den alltäglichen Sprachgebrauch dominiert.

Sowohl die Geisteswissenschaften als auch der Begriff von „Information“ im täglichen Gebrauch tendieren zu einem Verständnis, für das dem Begriff der „Bedeutung“ eine tragende Rolle zukommt. Die „Bedeutung“ ist hier eine intrinsische Eigenschaft von Information, womit außerdem die Existenz eines (potentiellen) Empfängers impliziert wird, für den sich der Bedeutungsinhalt entfaltet.

Die gängigen Kommunikationsmodelle basieren auf diesem Konzept. Somit gehen sowohl die meisten geisteswissenschaftlichen Konzepte als auch das weitläufige Verständnis im täglichen Sprachgebrauch davon aus, dass Information immer eine funktionale Bedeutung hat, im Gegensatz zum naturwissenschaftlichen Verständnis, in dem weder Funktion noch Bedeutung zwingend konstitutive Eigenschaften von Information sind.

Als Terminus in der mathematischen Informationstheorie bezieht sich Information auf die Auftretenswahrscheinlichkeiten von bestimmten Folgen von Elementen (beispielsweise einer Folge von Buchstaben) aus einer festgelegten Menge (beispielsweise dem Alphabet). Durch diese Festlegung wird Information zu einem berechenbaren Maß für die Wahrscheinlichkeit zukünftiger Ereignisse in einem technischen System. Claude Elwood Shannon (1948) konzipierte die mathematische Theorie der Information ursprünglich nicht für den Bereich menschlichen Handelns und menschlicher Kommunikation, sondern für die technische Optimierung von Übertragungskapazitäten.

Im Bereich des menschlichen Handelns wird unter Information ein Wissen (genauer: das Ergebnis eines Erfahrungsprozesses) verstanden, dem in der jeweiligen aktuellen Situation Bedeutung und Geltung beigemessen wird. In diesem Zusammenhang wird die Rede von „Information“ oder „sich informieren“ mit einer Beseitigung oder Verkleinerung von Ungewissheit verbunden, die durch Auskunft, Aufklärung, Mitteilung, Benachrichtigung oder durch Kenntnis über Gegenstände und Phänomene geschieht. Bestandteil des Informationsbegriffs ist dabei häufig Wiedererkennbarkeit sowie ein Neuigkeitsgehalt.

In der Algorithmischen Informationstheorie wurde ein Maß entwickelt, mit dem man die Komplexität von Strukturen bestimmen kann, z.B. der Komplexität von Zeichenketten. Dies kann unter gewissen Voraussetzungen auch als Maß für die Information angewendet werden, das in einigen Aspekten Vorteile gegenüber dem von Shannon hat.

Informationstransport, Entstehung und Vernichtung

Interessant ist es, dass Information, die an Materie als Informationsträger gebunden ist, auf bzw. durch Elektromagnetische Wellen übertragen werden kann. Diese Information kann, da masselos, dann im Prinzip mit Lichtgeschwindigkeit transportiert werden. Schließlich kann die Information wieder zurück an Materiestrukturen gebunden werden. Ein Beispiel für so einen Übertragungsprozess ist das Telefax. Dabei wird die Information eines bestimmten Schriftstückes mit Lichtgeschwindigkeit über große Entfernungen transportiert und am Ziel auf ein zweites Schriftstück mit exakt demselben Informationsinhalt übertragen.

Allgemeiner: Um Informationen zu transportieren, ist ein Informationsträger nötig.

Kann Information ohne Verlust weitergegeben werden? Beim Kopieren von Software ist dies der Fall, weil technische Mechanismen (redundante Codes / Prüfsummen) dafür sorgen. Information kann nicht generell weitergegeben werden, ohne dadurch weniger zu werden. Das Ausmaß des Verlustes hängt von den physikalischen Randbedingungen ab. Gemäß Shannon kann bei einer Übertragung nicht mehr Information aus einem Kanal entnommen werden als auf der Senderseite hineingegeben wird. Beim Weitergeben oder Kopieren von Information wird sie aber an sich nicht verdoppelt, sondern sie liegt dann nur redundant vor.

In einem thermodynamisch als geschlossen anzusehenden System wird Information letztlich vernichtet, spätestens beim Wärmetod des Universums. In einem thermodynamisch offenen System kann Information weitergegeben werden, informationstragende Strukturen können sogar spontan entstehen. Beispiele sind eine Vielzahl von theoretisch und experimentell untersuchten dissipativen Strukturen. Besonders Spin-Systeme (Spin = Drehimpuls atomarer und subatomarer Teilchen), insbesondere die sogenannten Spin-Gläser bzw. Ising-Modelle, sind sehr oft untersucht worden, nicht zuletzt wegen ihrer Relevanz für die Theorie neuronaler Netze. Viele Experimente zeigen, dass in Ising-Gläsern spontan Strukturen entstehen können, die wegen der gequantelten Natur des Spins sogar schon als in digitalisierter Form vorliegende Information interpretiert werden können, welche z.B. die Entstehungsbedingungen der Struktur in codierter Form enthält.

Kartellrecht

Aus kartellrechtlicher Perspektive kann Information als „jeder Umstand, der dem Wahrnehmenden einen Erkenntnisgewinn ermöglicht“ definiert werden. Ein Informationsaustausch kann „jeder direkte oder indirekte Informationsfluss zwischen Unternehmen über das Marktgeschehen“ sein, wobei das Marktgeschehen „alle Aktivitäten, Ereignisse, Prozesse und Interdependenzen, welche die Beschaffenheit eines Marktes tangieren, betreffen oder beeinflussen können“ umfasst.

Information als Wirtschaftsgut

Information kann als wirtschaftliches Gut angesehen werden, da Information im Unternehmen durch Einsatz anderer Produktionsfaktoren (Menschen, Computer, Software, Kommunikation usw.) produziert, oder von außen angekauft werden kann. Information hat somit einen Wert, der handelbar ist. Der Wert ergibt sich aus dem Nutzen der Information und den Kosten zur Produktion, Bereitstellung und Weiterleitung. Problematisch hierbei ist, dass der potenzielle Käufer den Wert der Information nicht immer im Voraus kennt und sie teilweise erst nachdem er sie erworben hat, bewerten kann (sog. Informationsparadoxon). Bereits der angestrebte Handel mit Information ist dabei mit dem Problem asymmetrischer Information behaftet.

Weiterhin kann man Information auch als Produktionsfaktor verstehen. Information wird somit nicht nur konsumtiv genutzt, sondern kann auch produktiv verwendet werden.

Information als Veränderung

Nach den Arbeiten des Berliner Informatikers Peter Rüdiger: „Information ist eine Veränderung konkreter Quantität und Dauer.“

Eine Definition der Information über Veränderung bedeutet eine Beschreibung der Information über physikalische Auswirkung. Wird eine einfache Veränderung als ein mathematisches Element betrachtet, das einen Zustandswechsel herbeiführt, so lässt sich beweisen, dass eine Menge solcher Elemente, die Zustandswechsel am selben „Objekt“ herbeiführen und Eigenschaften wie Zusammenhang und Wiederholbarkeit aufweisen, eine mathematische Gruppe darstellen, die als Information bzgl. des Objekts deklariert wird. Diese Gruppe erlaubt eine Längenbestimmung, die für Optimierungen verwendet werden kann, denn da Veränderung Folge physikalischer Wirkung ist, gilt auch das Variationsprinzip der geringsten Wirkung.

Eine weitere mathematische Beschreibung, die auf der Natur der Veränderung beruht, ist die Beschreibung von Jan Kåhre: The Law of Diminishing Information.

Bewegung ist auch Veränderung. Eine (weitere) Definition der Information über Veränderung erfolgt deshalb über Bewegungsunterschied (Informationsbewegung) und Unterschiedsbewegung (Ruhepotentialität): „Information existiert nur in der Bewegung, die immer eine komplementäre, relative Bewegung ist“.

Verwandte Begriffe

Nachricht

Information wird auch synonym für Nachricht, Auskunft, Belehrung, Aufklärung verwendet, zum Teil auch für Medien wie Zeitungsartikel, Internet-Seiten, E-Mails, Telefonate, Berichte (Quartals-, Projekt-, Geschäftsbericht), Prospekte und Broschüren, Fahrpläne, Wetterberichte u. v. a. m. – die aber i. e. S. nur die „Träger von Informationen“, nicht die Information selbst sind. Diese Beispiele zeigen die weite Verbreitung und grundlegende Bedeutung des Begriffs Information in nahezu allen (Lebens-) Bereichen.

Kommunikation

In einem engen Zusammenhang steht auch die (menschliche) Kommunikation: Die Kommunizierbarkeit gilt als eine wesentliche Eigenschaft von Information, und jegliche Kommunikation setzt Information voraus.

Daten

Daten sind nur Darstellungen/Angaben über Sachverhalte und Vorgänge, die in der Form bestimmter Zeichen/Symbole auf bestimmten Datenträgern existieren. Aus ihnen kann (bei Menschen durch kognitive Tätigkeiten des Empfängers) „Information“ werden, zweckbezogenes Wissen, das man beim Handeln im Hinblick auf gesetzte Ziele benötigt. Dies geschieht, indem wahrgenommene Daten „intraindividuell“ (vom jeweiligen Individuum) semantisiert und weitere Operationen (wie z.B. Schlussfolgerungen) ausgeführt werden. Anhand gleicher Daten können also unterschiedliche Informationen gewonnen werden. Die Begriffe Information und Daten sind also eng miteinander verwandt.

Trenner
Basierend auf einem Artikel in: Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung: Jena, den: 12.08. 2024