• Keine Ergebnisse gefunden

Information als positive Entropie: Korrektur einer notorischen Fehllektüre Dieser Vorzeichenwechsel, den es im Folgenden als fundamental herauszustellen gilt,

Digitalität als Tod mit Shannon

5.2. Information als positive Entropie: Korrektur einer notorischen Fehllektüre Dieser Vorzeichenwechsel, den es im Folgenden als fundamental herauszustellen gilt,

wird von unglücklichen Amalgamierungen wie der „Wiener-Shannon-Theorie“236 ver­

kannt; und gerade innerhalb der Medienwissenschaft hält sich mit eklatanter Nachhaltig­

keit ein mathematisches Missverständnis. So sind Fehllektüren, die Shannons Definition von Information als positiver Entropie mit Wieners Informationsmenge als negativer Entropie verwechseln, mittlerweile Legion. Friedrich Kittler: „Auch und gerade wenn Shannons Formel [...] bis aufs umstrittene Vorzeichen mit Boltzmanns energetischer Formel für Entropie identisch ist, entspringt die Möglichkeit von Information nicht physikali­

scher Notwendigkeit, [...] sondern der Chance.“237 Claus Pias: „Information ist, in ihrer mathematischen Formel ausgedrückt, schlicht Entropie mit einem Minuszeichen davor.“238 Bernhard Siegert: „Tatsächlich könnte man meinen, Claude Shannons Mathematical Theo­

ry of Communication [...] habe mit ihrer Definition der Information als Entropie mit negati­

vem Vorzeichen Maxwells Dämon zum Gott der technischen Medien erhoben.“239 Matteo

236 Kay 2001, 178.

237 Kittler 1993d, 164 – Hervorhebung M. W. Dieses Missverständnis überrascht in zweifacher Hinsicht. Ers­

tens handelt es sich – wie aufgezeigt – bei Boltzmanns Formel um keine energetische, sondern um eine statis­

tische, sodass sich „physikalische Notwendigkeiten“ schon dort durch einen reinen Wahrscheinlichkeitskal­

kül abgelöst finden. Zweitens unternimmt der Primärtext, mit dem Kittler seinen Befund zu belegen vor­

gibt (siehe ebd., Anm. 11), eine genau gegenteilige, nämlich korrekte Formelanatomie: „It is [...] rather di­

sturbing to find that in a paper which is one of the major works of information theory for communication engineering, Shannon appears to equate information to entropy without the negation sign.“ (Bell 1962, 35 – Hervorhebung i. O.)

238 Pias 2003, § 66 – Hervorhebung M. W. Diese Definition ist natürlich nicht per se falsch – wohl aber im Rahmen eines Textes, der bereits im Abstract definiert, „der fundamentale Unterschied zwischen digitalen und analogen Bildern [sei], dass digitale Bilder Information haben“ (ebd., unpaginiert), was so lediglich mit Shannons Informationsbegriff behauptet werden kann. Dass, hiervon unabhängig, die Definition von In­

formation als Entropie mit negativem Vorzeichen alles andere als „schlicht“ (Pias) ist, hat die vorliegende Arbeit im Zusammenhang mit Wiener deutlich zu machen versucht.

239 Siegert 2008, 283 – zweite Hervorhebung M. W. Hier sind die Folgen der Verwechslung zwischen Wieners und Shannons Informationsbegriff besonders verheerend. Erstens wird durch den Hinweis auf den Max­

well'schen Dämon ein Scheinparadox konstruiert, da besagtes Gedankenexperiment auf Shannons Theorie

Pasquinelli: „In quantitative terms Shannon decided to measure the quality of communi­

cation as a negative value against the background noise of a given channel. [...] Informa­

tion was described then as a sort of ‚negative entropy‛.“240

Aufgrund dieser verworrenen Rezeptionslage241 sei an dieser Stelle eine etwas ausführ­

lichere Anatomie von Shannons Formel242

(5.I)

geboten. Was bei Boltzmann mit dem Formelzeichen S notiert war, erhält bei Shannon den Buchstaben H. Dass vor dem Term rechts des Gleichheitszeichens ein Minuszeichen steht, hat einzig damit zu tun, dass Shannons pi wie schon Schrödingers D1 der Kehrwert dessen ist, was bei Boltzmann die Komplexionszahl P hieß; und weil der Logarithmus ei­

ner Zahl kleiner 1 immer negativ ist, folgt aus dem Minuszeichen, dass sich am Ende der Berechnung, als Resultat einer doppelten Negation, eben doch ein positiver Entropiewert ergibt. Das Summenzeichen wird für den Fall benötigt, dass Teilwahrscheinlichkeiten inner­

halb des Zeichenensembles vorliegen. Selbst diese Gewichtung ist jedoch kein funda­

mentaler Unterschied zur physikalischen Entropie, sondern findet sich bereits in der so­

genannten statistischen Entropie nach Gibbs, dort in Bezug auf Partialvolumina unter­

schiedlicher Größe.243

Die gravierende Differenz zu Boltzmanns Formel äußert sich vielmehr in einem Feh­

len, einem Fehlen im Dazwischen von Minus- und Summenzeichen. Wie in Vorwegnahme

kaum applizierbar ist, eben weil die Entropiesenkung signalisierende Negation hier fehlt. Zweitens fügt Sie­

gert qua Fußnote ironischerweise die korrekte Formel Shannons als Nachweis ein (siehe ebd., Anm. 35), exponiert also unfreiwillig seinen eigenen, genuin mathematischen Lektürefehler.

240 Pasquinelli 2010, 2 – Hervorhebung M. W. Dieser Passus ist terminologisch so falsch wie die drei zuvor genannten, verfügt allerdings sachlich über einen gewissen Wahrheitswert. Wo Shannons Theorie Maßnah­

men vorsieht, drohendes Rauschen vom schützenswerten Signal fernzuhalten (über die Maximierung des Signal-Rausch-Abstandes), verbindet sie dies am Stärksten mit der Theorie Wieners, der seinen Begriff der negativen Entropie explizit auf Ordnungserhöhungen innerhalb der Signalübertragung anwendet. Da bei Shannon der Informationsbegriff jedoch ausdrücklich als positive Entropie definiert ist und zudem in Be­

zug auf Nachrichten, nicht auf Signale fällt, ist die Rede von ‚negativer Entropie‛ auch hier unannehmbar.

241 Dass eine der prägnantesten nicht-mathematischen Abhandlungen über die verschiedenen Informations­

begriffe, die dem Autor dieser Arbeit bekannt ist, nicht etwa der Medienwissenschaft, sondern ausgerech­

net einer Online-Datenbank „für außergewöhnliches Wissen in der Ganzheitsmedizin und den Grenzge­

bieten der Wissenschaft“ entstammt (siehe Held o. J.), spricht mit Blick auf die beinahe kanonischen Fehl­

leistungen innerhalb der ‚offiziellen‛ Wissenschaft eine geradezu entlarvende Sprache.

242 Shannon 1948/2000a, 26.

243 Gibbs' Formel lautetH=−k

i=1 n

pilnpi. Zu den formalen Eigenschaften dieses Ausdrucks sowie seiner weitestgehenden Deckungsgleicheit mit dem Shannon-Maß siehe Zucker 1974, 39f. sowie Marriage 2000, 3.

H=−

i=1 n

pi∗log2 pi

von Shannons Printed English, mit dessen Ausdehnung des Symbolvorrats um ein Leerzei­

chen der typographischen Leerstelle zu eigenem Recht verholfen wurde,244 liegt die Poin­

te auch hier in einer Abwesenheit – nämlich in der Abwesenheit der Boltzmann-Kon­

stante

k=1,380655∗1023 J

K . (3.IV)

Dies ist der ganze und doch in seiner epistemologischen Brisanz nicht zu gering veran­

schlagbare Bruch, der zwischen den Entropien Boltzmanns und Shannons steht. Wo die Boltzmann-Formel schon durch ihre Naturkonstante eindeutig auf Raum und Zeit bezo­

gen blieb – auf ‚Raum‛ im Sinne des physikalischen Phasenraums und auf ‚Zeit‛ im Sinne des Zweiten Hauptsatzes –, verkündet Shannons Gleichung schon formal die Loslösung des Kalküls von jeglichem Bezug auf Materialität. Der Shannon'sche Informationsbe­

griff ist mathematisch also nicht ‚Entropie mit einem Minuszeichen davor‛, sondern die physikalische Entropie unter Ausklammerung der Naturkonstante.245

Durch den Logarithmus zur Basis 2 kann Shannons Informationsmaß schließlich, der epistemischen Lesart von Entropie folgend, als die durchschnittliche Anzahl an Ja/Nein-Fragen definiert werden, die gestellt werden müssen, um ein Symbol innerhalb eines Nachrichtenvorrats oder Alphabets zu ‚erraten‛.246 Shannon selbst spricht von einem Maß für „Information, Wahlfreiheit und Unsicherheit“.247 Gleichermaßen ließe sich for­

mulieren, dass seine Entropie, um einen Begriff aus dem Grundlagenkapitel 3.1 der vor­

liegenden Arbeit zu benutzen, den Spielraum innerhalb einer Nachrichtenquelle angibt.

Der Unterschied zu Boltzmann liegt also nicht in der Mathematik, sondern auf der Phä­

nomenebene, die es zu berechnen gilt: Bei Boltzmann ist es der Ordnungsgrad materiel­

244 Vgl. Anm. 233.

245 Diese Minimaldiskrepanz wird nicht erst im Vergleich von Shannons Term mit der Gibbs-Entropie (siehe Anm. 243) deutlich, vielmehr findet sie sich – wenn auch nicht ausgeschrieben – bereits bei Shannon ange­

legt. Für den Fall der Gleichwahrscheinlichkeit innerhalb einer Nachrichtenquelle nämlich könne „jegliche monotone Funktion dieser Anzahl als ein Maß der Information angesehen werden, die erzeugt wird, wenn eine Nachricht aus dem Vorrat ausgewählt wird“; an Stelle des Kehrwerts pi tritt somit der ganzzahlige Wert. „[D]ie natürlichste Wahl [sei] die logarithmische Funktion“ (Shannon 1948/2000a, 9). Dies ent­

spricht – eben bis auf die Naturkonstante – der Boltzmann-Entropie. Eine ähnliche Formel innerhalb der Kommunikationstheorie stellte bereits Harry Nyquist mit seinem Ausdruck W = k∙log m auf, wobei W die Geschwindigkeit der Übertragung einer Nachricht – Nyquist sprach von „intelligence“ – angibt und m die Anzahl von übertragbaren Stromwerten (siehe Nyquist 1924, 333). Shannons ‚Entropie‛ darf als Generali­

sierung dieses Kalküls gelten. Für eine ‚Archäologie‛ von dessen Formel siehe auch Kay 2001, 139-141.

246 Vgl. Weaver 1949/1976, 18-23; Audretsch 2007, 96.

247 Shannon 1948/2000a, 26. Vollkommen fehl geht daher die Deutung, „Shannons Maßzahl 1“ sei der „Be­

reich der höchsten Informationsstufe“ (Bitsch 2001, 272), denn niedriger als ein bit kann dessen Entropie in der Praxis nicht sein.

ler Systeme, also Wahrscheinlichkeit im Realen, bei Shannon ist es der Ordnungsgrad von Nachrichten, also Wahrscheinlichkeit im Symbolischen.

In der statistischen Mechanik stand dieses Symbolische ganz am Ende, also auf dem Pa­

pier. Zwar operiert letztlich jede geschriebene Formel im terminologischen Horizont die­

ser Arbeit auf Seiten des materievertilgenden Todes im Sinne einer Dematerialisierung.

Bei Shannon jedoch findet sich dieser Tod, mit einem Begriffspaar Lacans/Kittlers ge­

sprochen, nicht erst auf der formalen Ebene der Äußerung (énonciation), sondern bereits auf der referenziellen Ebene des Geäußerten (enoncé).248 Symbole sind nun nicht mehr bloß das Mittel, um Berechnungen anzustellen, sondern nunmehr Gegenstand der Be­

rechnungen selbst. Auch wenn die digitale Informationsverarbeitung darauf aufbaut, den kritischen Wert dieser Wahrscheinlichkeiten, das bit, wiederum in realen Schaltern zu im­

plementieren,249 beruht – wie sich zeigen wird – ihr ganzer Clou auf besagter Abstrakti­

onsleistung.