• Keine Ergebnisse gefunden

Information als Gut

Im Dokument Information als Gut (Seite 38-73)

τοιοῦτον δὲ τρόπον μέν τινα ἡ ὕλη λἑγεται, ἄλλον δὲ τρόπον ἡ μορφή, τρίτον δὲ τὸ ἐκ τούτων. λέγω δὲ τὴν μὲν ὕλην οἷον τὸν χαλκόν, τὴν δὲ μορφὴν τὸ σχῆμα τῆς ἰδέας, τὸ δ᾿ ἐκ τούτων τὸν ἀνδριάντα τὸ σύνολον.

Als solches [Zugrundeliegendes] wird nämlich in einer Weise die Materie be-zeichnet, in einer anderen die Form, in einer dritten deren Kombination. Als Ma-terie bezeichne ich etwa das Erz, als Form den Umriss der äußeren Erscheinung, als deren Kombination die Bildsäule.

Aristoteles, Metaphysik*

Bevor im zweiten Teil die rechtliche Zuordnung von Information unter-sucht werden kann, ist der Begriff der Information zu klären. Dazu wer-den im ersten Kapitel die möglichen Begriffsdefinitionen dargestellt und wichtige Konzepte im Zusammenhang mit Information, wie die Unter-scheidung potenzieller und faktischer Information, die Quantifizierung von Information oder die Semiotik vorgestellt (§ 1). Im anschließenden Kapitel wird aus diesen Grundlagen eine Unterscheidung dreier auch im Alltag an-zutreffender objekthafter Auffassungen von Information entwickelt, die als semantische, strukturelle und syntaktische Information bezeichnet werden (§ 2). Abschließend wird diese Unterscheidung mit dem Güterbegriff kom-biniert und ein Überblick über wichtige Informationsgüter gegeben (§ 3).

Insgesamt soll so das Instrumentarium für die Analyse von informations-bezogenen Ausschließlichkeitsrechten geschaffen werden.

* VII 3, S. 8.

Fragt man, was Information eigentlich ist, so besteht vor allem darüber Einigkeit, dass es nicht den einen Informationsbegriff gibt.1 Dennoch wäre es vorschnell, den Versuch einer Definition für sinn- oder aussichtslos zu halten. In diesem Kapitel soll deshalb ein Überblick über die verschiede-nen außerhalb und innerhalb des Rechts bestehenden Informationsbegriffe gegeben werden. Zwar ist umstritten, ob sich diese überhaupt auf ein ein-heitliches Konzept zurückführen lassen,2 bei näherer Betrachtung kann man aber Zusammenhänge erkennen, die eine einheitliche Darstellung erlauben.

Dabei zeigt sich, dass es Definitionen gibt, die mit sehr wenigen Merk-malen auskommen (beispielsweise Information als Gegenteil von Unbe-stimmtheit), und solche, die auf den einfacheren aufbauen und zusätzliche Merkmale enthalten (wie etwa Information als Wissen). Damit ergibt sich auch eine Vorgehensweise für die Darstellung: Ausgehend vom einfachsten Verständnis von Information wird der Bogen bis hin zum Wissensbegriff gespannt.

Als Ergebnis soll neben den wichtigsten Informationsbegriffen auch gezeigt werden, wie diese zusammenhängen. Außerdem werden wichtige Konzepte der Informationswissenschaften vorgestellt, wie insbesondere die Informationsentropie als quantitatives Maß der Information und die Semiotik als Wissenschaft von den Zeichen. Durch die Darstellung soll schließlich deutlich werden, wie die Informationsbegriffe mit dem Alltag, den das Recht regelt, zusammenhängen und welche Definitionen als Tat-bestand rechtlicher Regelungen in Betracht kommen.

1 Wenzlaff, Nachr. Dok. 42 (1991), 355 ff.; Wersig, Information – Kommunikation – Dokumentation, S. 28 ff.; Fuchs/Hofkirchner, in: FS Klaus Fuchs-Kittowski, S. 241 (242 ff.); Floridi, in: ders. (Hrsg.), The Blackwell Guide to the Philosophy of Computing and Information, S. 40 ff.; Spiecker gen. Döhmann, RW 2010, 247 (251 ff.). Zur Geschichte des Informationsbegriffs Capurro, Information, S. 16 ff.

2 Vgl. Floridi, in: ders. (Hrsg.), The Blackwell Guide to the Philosophy of Computing and Information, S. 40 (40 f.).

I. Information als Zustand eines Systems

Es besteht kein Zweifel, dass Information grundsätzlich dem menschlichen Geist zugänglich ist. Versucht man aber, einen möglichst grundlegenden Be-griff von Information zu finden, so muss man als Erstes vom menschlichen Bewusstsein abstrahieren. Information ist dann etwas, was auch unabhän-gig vom menschlichen Geist existiert.3 Dementsprechend wird gelegentlich

„strukturelle“ von „intellektueller“ Information unterschieden.4 Letztere liegt in der Verstandes- und Geisteswelt des Menschen. Bei ihr wird somit die Bewusstseinskomponente hinzugefügt. In diesem Abschnitt geht es aber gerade um Information, die nicht vom menschlichen Geist abhängt.5 Die Abstraktion vom menschlichen Geist wird erreicht, indem man faktische und potenzielle Information unterscheidet. Dadurch kann eine Struktur, wenn sie nur potenziell beobachtet werden kann, mit Information (und zwar als potenzielle Information) gleichgesetzt werden. Solche „struktu-relle“ Information findet sich vor allem bei physikalischen Systemen. Mit Hilfe der Statistik lässt sich diese Information auch quantifizieren.

1. Information als Gegenteil von Unbestimmtheit

Die grundlegendsten Definitionen von Information bezeichnen diese als

„Verminderung der Unbestimmtheit des Zustandes eines Systems“6 bzw.

„beseitigte Ungewissheit“.7 Ihnen ist gemein, dass es um Aussagen über den Zustand eines Systems geht (zur Rolle des Beobachters und der Möglichkeit, von ihm zu abstrahieren, sogleich unter 2.). Als Zustand kommt dabei vor allem die Struktur eines Systems in Betracht. Ähnlich dem Sprachgebrauch im Alltag kann Information den Vorgang der Verringerung von Unbe-stimmtheit oder das Ergebnis dieses Vorgangs bedeuten. Sucht man die Gemeinsamkeit von Vorgang und Ergebnis, so lässt sich Information als das Gegenteil von Unbestimmtheit definieren.

3 Die ontologische Streitfrage, in welchem Maße die Wirklichkeit in ihrer Existenz von einem Beobachter abhängt, soll hier ausgeklammert bleiben. Vielmehr beruht der Informationsbegriff gerade darauf, dass eine solche Trennung – entsprechend der Alltags-anschauung – möglich ist.

4 Beyer, GRUR 1994, 541 (547).

5 Die Unabhängigkeit vom menschlichen Geist ist freilich selbst ein gedankliches Kon-strukt und setzt zumindest einen hypothetischen Beobachter voraus. Der sich dahinter verbergende mögliche Zirkelschluss ist aber ein erkenntnistheoretisches Problem.

6 Ebeling/Freund/Schweitzer, Komplexe Strukturen, S. 40.

7 Klimant/Piotraschke/Schönfeld, Informations- und Kodierungstheorie, S. 12; vgl.

Wersig, Information – Kommunikation – Dokumentation, S. 73: „Information (im wei-testen Sinne) ist die Reduktion von Ungewissheit.“

Kennzeichen eines Systems ist, dass eine Menge von Elementen aus einer Gesamtheit ausgewählt wird und diese Elemente miteinander in Beziehung stehen.8 Der Systembegriff, der auch zur Grundlage sogenannter System-theorien in verschiedenen Wissenschaftsbereichen geworden ist, lässt sich ganz allgemein definieren als Menge von Elementen, die miteinander inter-agieren.9 Da rein gedankliche Systeme hier außer Betracht bleiben, kann man auch von Ausschnitten der Wirklichkeit sprechen.10 Ein zusätzliches Merkmal von Systemen besteht darin, dass sie eine gewisse Komplexität aufweisen, wobei der Begriff der Komplexität noch genauer zu definieren ist.11

Systeme besitzen eine Struktur. Diese lässt sich definieren als die Art der Zusammensetzung eines Systems aus Elementen und die Menge der Rela-tionen, die die Elemente miteinander verknüpfen. Die Struktur abstrahiert vom konkreten System und ist dadurch auf andere Systeme übertragbar.12 Mehrere Systeme können die gleiche bzw. dieselbe Struktur aufweisen.

Information als Aussage über die Struktur zeichnet sich somit dadurch aus, dass sie einer Vielzahl von Systemen (zum Beispiel physikalischen Systemen in Form von Körpern) gemein sein kann.

2. Potenzielle und faktische Information

Bei der soeben vorgestellten Definition spielt der Beobachter eine bemer-kenswerte Rolle: Zum einen wird Information als beseitigte Ungewiss-heit, also aus der Sicht des Beobachters, definiert. Zum anderen soll aber der Beobachter gerade ausgeblendet werden, was im Begriff der Unbe-stimmtheit zum Ausdruck kommt. Diesem scheinbaren Widerspruch trägt die Unterscheidung zwischen potenzieller und tatsächlicher Information Rechnung:13 Während potenzielle Information sich auf die Gesamtheit aller Aussagen bezieht, die erforderlich wären, um den Zustand eines Systems zu beschreiben, liegt faktische Information nur vor, soweit diese Aussagen von einem Beobachter auch getroffen wurden.14

8 Krieger, Einführung in die allgemeine Systemtheorie, S. 12.

9 Garstka, in: Steinmüller (Hrsg.), ADV und Recht, S. 8 (9); Krieger, Einführung in die allgemeine Systemtheorie, S. 12.

10 Ein System muss also immer abgrenzbar sein. Je nachdem, ob es mit der Umgebung interagiert oder nicht, handelt es sich um ein offenes oder ein geschlossenes System.

11 Siehe S. 21.

12 Ebeling/Freund/Schweitzer, Komplexe Strukturen, S. 13 f.

13 Zum Begriff der potenziellen Information Bentele/Bystrina, Semiotik, S. 96 ff.;

Ebeling/Freund/Schweitzer, Komplexe Strukturen, S. 40 ff.; Schweitzer, in: Fenzl/Hof-kirchner/Stockinger (Hrsg.), Information und Selbstorganisation, S. 341 (342 ff.); Grimm, Digitale Kommunikation, S. 16 f.

14 Bei physikalischen Systemen besteht die Besonderheit, dass die Gesamtheit aller Aus-sagen, die erforderlich wären, um ihren Zustand vollständig zu beschreiben, prinzipiell

Ein System ist dann bestimmt, wenn es für einen potenziellen Beobachter bestimmbar ist. Ein konkreter Beobachter ist gerade nicht erforderlich.

Information ist also zum einen das Resultat einer Beobachtung (faktische Information), besteht aber dennoch auch unabhängig davon als Gegenstand einer möglichen Beobachtung (potenzielle Information). Die Gewissheit über die Struktur eines Systems ist faktische Information; Strukturen kön-nen aber auch potenzielle Information enthalten.15 Diese Unterscheidung ermöglicht es, die beobachtbare Struktur eines Systems mit der in der Struk-tur enthaltenen potenziellen Information gleichzusetzen.

3. Strukturelle Information

Der Unterschied zwischen potenzieller und faktischer Information spielt eine große Rolle, wenn man physikalische Systeme betrachtet, also Aus-schnitte aus der naturwissenschaftlich beschreibbaren Wirklichkeit. Diese Systeme lassen sich auf verschiedenen Ebenen, d. h. mit unterschiedlicher Genauigkeit, betrachten. Eine vollständige Beschreibung kann aber – nicht nur wegen der überaus großen Anzahl von Elementen, sondern auch auf-grund physikalischer Gesetzmäßigkeiten (Heisenbergsche Unschärferelati-on) – prinzipiell nicht erreicht werden.

Information im naturwissenschaftlichen Sinne kann definiert werden als abstrahierbare Aussage über ein physikalisches System. Die Struktur physikalischer Systeme (physikalische Struktur) ist der räumliche Aufbau von Materie in Körpern. Die Elemente der physikalischen Struktur sind die Elementarteilchen, in der Chemie sind es die Atome. Sofern die räumliche Anordnung nicht bekannt ist, handelt es sich um potenzielle Information.

Da Materie und Energie physikalisch äquivalent sind, besteht zwischen Materie- und Energiemustern kein Unterschied.16

Obwohl der Begriff der Struktur nicht nur physikalische Strukturen um-fasst, wird mit „struktureller Information“ in der Regel diejenige Informa-tion bezeichnet, die physikalische Strukturen betrifft. Die DefiniInforma-tion lautet:

„Information […], die mit einer vorliegenden (materiellen) Struktur zu einer be-stimmten Zeit an einem bebe-stimmten Ort gegeben ist“.17

nicht getroffen werden kann. Dennoch lässt sie sich mit Hilfe des Entropiebegriffs als po-tenzielle Information statistisch beschreiben (vgl. S. 18 ff.). Daneben enthalten physikalische Systeme die – wesentlich geringere – tatsächlich beobachtbare potenzielle Information.

15 Seiler, Wissen zwischen Sprache, Information, Bewusstsein, S. 90, spricht von „ob-jektiver oder systemimmanenter Information“.

16 Zum physikalischen Materiebegriff Mainzer, Materie, S. 20 ff.

17 Schweitzer, in: Krapp/Wägenbaur (Hrsg.), Komplexität und Selbstorganisation, S. 99 (103); ders., in: Fenzl/Hofkirchner/Stockinger (Hrsg.), Information und Selbstorganisati-on, S. 341 (345); Ebeling/Freund/Schweitzer, Komplexe Strukturen, S. 54.

Die Idee der Information als etwas Unkörperlichem, das dennoch der Welt der Körper anhaftet, reicht zurück bis in die griechische Philosophie und ist insbesondere auf die platonische Ideenlehre und die aristotelische Substanz-lehre zurückzuführen.18 C. F. v. Weizsäcker hat dazu festgestellt:

„Man beginnt sich daher heute daran zu gewöhnen, daß Information als eine dritte, von Materie und Bewußtsein verschiedene Sache aufgefaßt werden muß. Was man aber damit entdeckt hat, ist an neuem Ort eine alte Wahrheit. Es ist das platonische Eidos, die aristotelische Form, so eingekleidet, daß auch ein Mensch des 20. Jahr-hunderts etwas von ihnen ahnen lernt.“19

Während noch bei Platon die Ideen im Gegensatz zu den Erscheinungen das einzige wahrhaft Seiende darstellen, wurde Aristoteles mit der Gegenüber-stellung von Form und Stoff, die erst in ihrer Kombination die Wirklich-keit ausmachen, zum Gründervater der modernen materialistischen Welt-anschauung. Betrachtet man einen Körper als physikalisches System, so ist die aristotelische Form seine strukturelle Information. C. F. v. Weizsäcker definiert dementsprechend Information auch als „Maß einer Menge von Form“.20

Die griechische Antike wurde damit nicht nur zur Wiege des modernen wissenschaftlichen Weltbilds, sie war auch die erste „Informationsgesell-schaft“:21

„Für das griechische Denken war nur das Konstante wirklich. Die Kühe kamen und gingen, was aber gleich blieb, war die Form der Kuh. Hinter dem Gewimmel des Konkreten stand die Konstanz der ewigen Formen. […]

[…] der Schlüssel zum Verständnis der griechischen Kultur, das Konzept, das das Erleben und Denken organisiert, die zentrale Kategorie, die am meisten Bedeu-tungs-Arbeit leistet und der alle anderen zuarbeiten, die von sich aus einleuchtende Vorstellung – das ist der Gedanke, daß in der Realität eingebaute Muster stecken, Baupläne und Grundformen, über die sich die Wirklichkeit organisiert; und daß diese Grundformen einfach, erkennbar und rational sind.“22

Philosophischer Natur ist die Frage, ob man auch von Information sprechen kann, wenn die Struktur noch gar nicht vorhanden ist, also nur „gedacht“

18 v. Weizsäcker, Die Einheit der Natur, S. 51; Capurro, Information, S. 16 ff.; Oeser, in: Folberth/Hackl (Hrsg.), Der Informationsbegriff in Technik und Wissenschaft, S. 231 (231 f.).

19 v. Weizsäcker, Die Einheit der Natur, S. 51.

20 v. Weizsäcker, Aufbau der Physik, S. 167; ders., Zeit und Wissen, S. 342.

21 Zum Begriff der Informationsgesellschaft Otto/Sonntag, Wege in die Informati-onsgesellschaft, S. 7; Wersig, Die Komplexität der InformatiInformati-onsgesellschaft, S. 9 ff. (14);

Lübbe, in: Zöller (Hrsg.), Informationsgesellschaft – Von der organisierten Geborgenheit zur unerwarteten Selbstständigkeit?, S. 17 ff.; Spinner, Die Architektur der Informations-gesellschaft, S. 18; Steinbicker, Zur Theorie der InformationsInformations-gesellschaft, S. 13 ff.; May, The Information Society, S. 3 ff.; Kloepfer, Informationsrecht, S. 1 ff.

22 Schwanitz, Die Geschichte Europas, S. 39 f.

werden kann. Ein solches Verständnis entspräche der platonischen Ideen-lehre, ist aber mit dem modernen physikalischen Verständnis abzulehnen.

Information, die als Struktur eines physikalischen Systems gar nicht existiert, ist nicht vorhanden. Auch gedachte Information existiert erst dann, wenn sie bereits als physikalische Struktur, nämlich als Muster der neuronalen Tätigkeit im Gehirn, vorhanden ist. Das sich hinter diesen Betrachtungen verbergende Leib-Seele-Problem liegt aber außerhalb des Gegenstands der Arbeit.

Information, die nie existiert hat und nie existieren wird, spielt für Fragen des Alltags keine Rolle. Existierende Information kann zerstört werden, indem sämtliche Informationsträger verändert oder vernichtet werden. Die Information existiert dann nicht mehr. Die Existenz von Information setzt allerdings keine dauerhafte Verkörperung voraus.23 Das gesprochene Wort existiert als physikalische Information, verkörpert als Schallwellen. Ist das Wort verklungen und nicht aufgezeichnet worden, existiert die Information ebenfalls nicht mehr.

Die Frage, ob strukturelle Information als „objektive Größe mit eigenem ontologischem Status“24 neben Materie und Bewusstsein oder neben Masse und Energie zu stellen ist, soll hier ebenfalls nicht beantwortet werden.

Für die Alltagsanschauung ist das Konzept der strukturellen Information jedenfalls prägend geworden und hat, wie noch im dritten Teil ausführ-licher darzustellen sein wird, durch die technische Entwicklung zusätzlich an Bedeutung gewonnen.

4. Quantifizierung der Unbestimmtheit: Informationsentropie

Die Unbestimmtheit eines Systems lässt sich auch durch die Zahl der mög-lichen Zustände beschreiben, die es einnehmen kann. Damit gewinnt man ein Maß für die Menge der Information, die zur Beschreibung des Zustands

23 Zur Problematik urheberrechtlichen Schutzes nicht dauerhaft verkörperter Werke Peukert, Güterzuordnung als Rechtsprinzip, S. 39. Zu bedenken ist, dass hier Information zumindest in ausreichender Genauigkeit gespeichert worden sein muss, und sei es in den Köpfen der Zuhörer, da sonst eine Nutzungshandlung gar nicht möglich wäre.

24 Ebeling/Freund/Schweitzer, Komplexe Strukturen, S. 57; vgl. Arndt, Information Measures, S. 18 ff. Berühmt geworden ist der Ausspruch „Information is information, not matter or energy.“ von Norbert Wiener (ders., Cybernetics or Control and Com-munication in the Animal and the Machine, S. 132). In der Rechtswissenschaft hat diese Diskussion Widerhall bei der Frage gefunden, ob Information als eigene beherrschbare Naturkraft im Sinne der patentrechtlichen Technikdefinition nach (BGH, Beschl. v.

27. 3. 1969 – X ZB 15/67, BGHZ 52, 74 [79] = GRUR 1969, 672 – Rote Taube) aufgefasst werden kann; vgl. Beyer, in: FS 25 Jahre BPatG, S. 189 (191 ff.); ders., GRUR 1990, 399 ff.;

v. Hellfeld, GRUR 1989, 471 (484); Wiebe, GRUR 1994, 233 (234 f.); van Raden, GRUR 1995, 451 (456 f.).

eines Systems erforderlich ist. Auf diesen Umstand stellt die folgende De-finition von Information ab:

„[Information is] that which enables us to make a selection from a set of possibilities about which we are ignorant.“25

Je mehr Zustände möglich sind, ohne dass eine Aussage darüber getroffen werden kann, welchen Zustand das System einnimmt, desto unbestimmter ist das System, desto geringer die Information über das System. Umgekehrt lässt sich sagen, dass ein System, das einen bestimmten Zustand aus meh-reren möglichen eingenommen hat, ein bestimmtes Maß an Information enthält.

Statistisch lässt sich das Maß an Information als Kehrwert der Wahr-scheinlichkeit beschreiben, mit der der bestimmte Zustand zu erwarten war.26 Je unwahrscheinlicher der Zustand, desto größer die Information.

Der Informationsgehalt I eines Systems in einem bestimmten Zustand lässt sich daher als negativer Logarithmus der Wahrscheinlichkeit p des Auf-tretens dieses Zustands beschreiben. Verwendet man einen Logarithmus zur Basis zwei, so ergibt sich für I die Einheit bit. Es gilt:

I = – log2 p [bit]

Liegt die Wahrscheinlichkeit, dass das System einen bestimmten Zustand einnimmt, bei ½ (zwei gleich wahrscheinliche Möglichkeiten), so beträgt der Informationsgehalt einer Aussage über den Zustand 1 bit. Stehen 32 gleich wahrscheinliche Zustände zur Auswahl (p = 1/32), so bedeutet die Fest-legung auf einen davon eine Information von 5 bit. Die in bit angegebene Informationsmenge entspricht also der Zahl der ja/nein-Aussagen, die er-forderlich wären, um ein System zu beschreiben. C. F. v. Weizsäcker spricht anschaulich von der Anzahl von Uralternativen, die dem Zustand eines bestimmten physikalischen Systems zu Grunde liegen.27

Strukturen, die schwerer zu beschreiben sind, enthalten mehr Informa-tion als einfache. Allerdings kommt es entscheidend darauf an, ob es sich um potenzielle Information handelt oder um faktische. Da die Zahl an Ele-menten physikalischer Systeme sehr hoch ist (ein Liter eines Gases unter Normalbedingungen enthält z. B. an die 27 Trilliarden Moleküle), lässt sich ihr Zustand nur sehr ungenau beschreiben. Die potenzielle Information

25 MacKay, Information, Mechanism and Meaning, S. 11.

26 Nöth, Handbuch der Semiotik, S. 170; Lyre, Informationstheorie, S. 18 f.; Lochmann, Vom Wesen der Information, S. 70 f. Entsprechend auch die Definition für „Informations-gehalt“ in DIN 44 301 (1977) Nr. 2.

27 v. Weizsäcker, Aufbau der Physik, S. 390 ff. Die ja/nein-Aussagen lassen sich auch grafisch als Entscheidungsbaum darstellen, vgl. Seiffert, Information über die Informa-tion, S. 47 ff.

eines physikalischen Systems kann also sehr groß sein, während die fak-tische Information gering ist.28

Daher unterscheidet die Physik zwischen dem Zustand auf Teilchen-ebene (Mikrozustand) und dem Zustand auf höherer Ebene (MakroTeilchen-ebene).

Diese Unterscheidung liegt auch dem in der Physik (Thermodynamik) entwickelten Begriff der Entropie zu Grunde: Entropie wurde definiert als Maß der Wahrscheinlichkeit eines makroskopischen Zustands, die sich aus der Zahl der Möglichkeiten, diesen mikroskopisch zu realisieren, ergibt.29 Der Thermodynamik ist es so gelungen, durch statistische Beschreibung des Bewegungsverhaltens molekularer Teilchen Aussagen über das Wärmever-halten makroskopischer Körper zu treffen.

Mit Hilfe des Entropie-Konzepts lässt sich aber auch der beobachtbare Informationsgehalt eines Systems definieren.30 Je höher die Anzahl von Mikrozuständen ist, die einen beobachtbaren Makrozustand ergeben, desto höher ist die Wahrscheinlichkeit dieses Makrozustands. Damit sinkt aber gerade der Informationsgehalt, den eine Beobachtung des Makrozustands erbringen kann. Informationsentropie ist damit nichts anderes als Infor-mationsarmut. Sie entspricht dem Informationsgehalt mit umgekehrtem Vorzeichen:

„Die Entropie ist ein Maß für die unzureichende Information über den Zustand eines physikalischen Systems.“31

Gleichzeitig enthält ein System mit großer Entropie viel potenzielle, jedoch nicht beobachtbare Information:

„Mit anderen Worten, die statistische Entropie des Makrozustandes entspricht der Information, die notwendig ist, um den Mikrozustand aufzuklären.“32

Diese spielt aber für den Beobachter keine Rolle. Strukturelle Information muss zumindest beobachtbar sein. Deshalb lässt sie sich über die Entropie quantifizieren. Der Nullpunkt ist dann erreicht, wenn ein System maximale Entropie aufweist, also keinerlei beobachtbare Information mehr enthält.

Damit ergibt sich der Informationsgehalt eines Systems aus der Differenz zwischen seiner größtmöglichen Entropie und seiner tatsächlichen Entro-pie.33 Entsprechend wird Information auch als „difference between

poten-28 Die Nanotechnologie zeichnet sich dadurch aus, dass sie Strukturen mit einer de-finierten Anordnung einzelner Moleküle oder Atome nutzt, siehe Uhrich/Zech, GRUR 2008, 768 (768 f.).

29 Zeh, Entropie, S. 15.

30 Dazu Völz, Grundlagen der Information, S. 22 f.; Ebeling/Freund/Schweitzer, Kom-plexe Strukturen, S. 34 ff.; Lyre, Informationstheorie, S. 23 ff.; Zeh, Entropie, S. 42 ff.

31 Boltzmann nach Kindler, in: Scharf (Hrsg.), Informatik, S. 113 (117).

32 Ebeling/Freund/Schweitzer, Komplexe Strukturen, S. 36.

33 Layzer, in: Weber/Depew/Smith (Hrsg.), Entropy, Information, and Evolution, S. 23 (26).

tial entropy and actual entropy“,34 Entropie-Absenkung,35 negative En-tropie36 oder Negentropie37 bezeichnet.38

5. Komplexität und algorithmischer Informationsgehalt

Mit der Entropie und dem Informationsgehalt eines Systems verbunden sind die Begriffe der Ordnung und der Komplexität. Entropie wird um-gangssprachlich auch als Maß der Unordnung eines Systems bezeichnet.

Ordnung wäre damit das Gegenteil von Entropie. Diese Gleichsetzung lässt jedoch außer Acht, dass sich Ordnung nicht nur durch Entropieabnahme, sondern auch durch Symmetrie erreichen lässt.39 Systeme mit hohem Ord-nungsgrad enthalten also nur dann viel Information, wenn sie keinen hohen Symmetriegrad aufweisen.

Diese Einschränkung berücksichtigt der Begriff der Komplexität, der durch die Anzahl von Elementen und Relationen eines Systems definiert

Diese Einschränkung berücksichtigt der Begriff der Komplexität, der durch die Anzahl von Elementen und Relationen eines Systems definiert

Im Dokument Information als Gut (Seite 38-73)