Digitalität als Tod mit Shannon
5.2. Information als positive Entropie: Korrektur einer notorischen Fehllektüre Dieser Vorzeichenwechsel, den es im Folgenden als fundamental herauszustellen gilt,
wird von unglücklichen Amalgamierungen wie der „Wiener-Shannon-Theorie“236 ver
kannt; und gerade innerhalb der Medienwissenschaft hält sich mit eklatanter Nachhaltig
keit ein mathematisches Missverständnis. So sind Fehllektüren, die Shannons Definition von Information als positiver Entropie mit Wieners Informationsmenge als negativer Entropie verwechseln, mittlerweile Legion. Friedrich Kittler: „Auch und gerade wenn Shannons Formel [...] bis aufs umstrittene Vorzeichen mit Boltzmanns energetischer Formel für Entropie identisch ist, entspringt die Möglichkeit von Information nicht physikali
scher Notwendigkeit, [...] sondern der Chance.“237 Claus Pias: „Information ist, in ihrer mathematischen Formel ausgedrückt, schlicht Entropie mit einem Minuszeichen davor.“238 Bernhard Siegert: „Tatsächlich könnte man meinen, Claude Shannons Mathematical Theo
ry of Communication [...] habe mit ihrer Definition der Information als Entropie mit negati
vem Vorzeichen Maxwells Dämon zum Gott der technischen Medien erhoben.“239 Matteo
236 Kay 2001, 178.
237 Kittler 1993d, 164 – Hervorhebung M. W. Dieses Missverständnis überrascht in zweifacher Hinsicht. Ers
tens handelt es sich – wie aufgezeigt – bei Boltzmanns Formel um keine energetische, sondern um eine statis
tische, sodass sich „physikalische Notwendigkeiten“ schon dort durch einen reinen Wahrscheinlichkeitskal
kül abgelöst finden. Zweitens unternimmt der Primärtext, mit dem Kittler seinen Befund zu belegen vor
gibt (siehe ebd., Anm. 11), eine genau gegenteilige, nämlich korrekte Formelanatomie: „It is [...] rather di
sturbing to find that in a paper which is one of the major works of information theory for communication engineering, Shannon appears to equate information to entropy without the negation sign.“ (Bell 1962, 35 – Hervorhebung i. O.)
238 Pias 2003, § 66 – Hervorhebung M. W. Diese Definition ist natürlich nicht per se falsch – wohl aber im Rahmen eines Textes, der bereits im Abstract definiert, „der fundamentale Unterschied zwischen digitalen und analogen Bildern [sei], dass digitale Bilder Information haben“ (ebd., unpaginiert), was so lediglich mit Shannons Informationsbegriff behauptet werden kann. Dass, hiervon unabhängig, die Definition von In
formation als Entropie mit negativem Vorzeichen alles andere als „schlicht“ (Pias) ist, hat die vorliegende Arbeit im Zusammenhang mit Wiener deutlich zu machen versucht.
239 Siegert 2008, 283 – zweite Hervorhebung M. W. Hier sind die Folgen der Verwechslung zwischen Wieners und Shannons Informationsbegriff besonders verheerend. Erstens wird durch den Hinweis auf den Max
well'schen Dämon ein Scheinparadox konstruiert, da besagtes Gedankenexperiment auf Shannons Theorie
Pasquinelli: „In quantitative terms Shannon decided to measure the quality of communi
cation as a negative value against the background noise of a given channel. [...] Informa
tion was described then as a sort of ‚negative entropy‛.“240
Aufgrund dieser verworrenen Rezeptionslage241 sei an dieser Stelle eine etwas ausführ
lichere Anatomie von Shannons Formel242
(5.I)
geboten. Was bei Boltzmann mit dem Formelzeichen S notiert war, erhält bei Shannon den Buchstaben H. Dass vor dem Term rechts des Gleichheitszeichens ein Minuszeichen steht, hat einzig damit zu tun, dass Shannons pi wie schon Schrödingers D1 der Kehrwert dessen ist, was bei Boltzmann die Komplexionszahl P hieß; und weil der Logarithmus ei
ner Zahl kleiner 1 immer negativ ist, folgt aus dem Minuszeichen, dass sich am Ende der Berechnung, als Resultat einer doppelten Negation, eben doch ein positiver Entropiewert ergibt. Das Summenzeichen wird für den Fall benötigt, dass Teilwahrscheinlichkeiten inner
halb des Zeichenensembles vorliegen. Selbst diese Gewichtung ist jedoch kein funda
mentaler Unterschied zur physikalischen Entropie, sondern findet sich bereits in der so
genannten statistischen Entropie nach Gibbs, dort in Bezug auf Partialvolumina unter
schiedlicher Größe.243
Die gravierende Differenz zu Boltzmanns Formel äußert sich vielmehr in einem Feh
len, einem Fehlen im Dazwischen von Minus- und Summenzeichen. Wie in Vorwegnahme
kaum applizierbar ist, eben weil die Entropiesenkung signalisierende Negation hier fehlt. Zweitens fügt Sie
gert qua Fußnote ironischerweise die korrekte Formel Shannons als Nachweis ein (siehe ebd., Anm. 35), exponiert also unfreiwillig seinen eigenen, genuin mathematischen Lektürefehler.
240 Pasquinelli 2010, 2 – Hervorhebung M. W. Dieser Passus ist terminologisch so falsch wie die drei zuvor genannten, verfügt allerdings sachlich über einen gewissen Wahrheitswert. Wo Shannons Theorie Maßnah
men vorsieht, drohendes Rauschen vom schützenswerten Signal fernzuhalten (über die Maximierung des Signal-Rausch-Abstandes), verbindet sie dies am Stärksten mit der Theorie Wieners, der seinen Begriff der negativen Entropie explizit auf Ordnungserhöhungen innerhalb der Signalübertragung anwendet. Da bei Shannon der Informationsbegriff jedoch ausdrücklich als positive Entropie definiert ist und zudem in Be
zug auf Nachrichten, nicht auf Signale fällt, ist die Rede von ‚negativer Entropie‛ auch hier unannehmbar.
241 Dass eine der prägnantesten nicht-mathematischen Abhandlungen über die verschiedenen Informations
begriffe, die dem Autor dieser Arbeit bekannt ist, nicht etwa der Medienwissenschaft, sondern ausgerech
net einer Online-Datenbank „für außergewöhnliches Wissen in der Ganzheitsmedizin und den Grenzge
bieten der Wissenschaft“ entstammt (siehe Held o. J.), spricht mit Blick auf die beinahe kanonischen Fehl
leistungen innerhalb der ‚offiziellen‛ Wissenschaft eine geradezu entlarvende Sprache.
242 Shannon 1948/2000a, 26.
243 Gibbs' Formel lautetH=−k∗∑
i=1 n
pi∗lnpi. Zu den formalen Eigenschaften dieses Ausdrucks sowie seiner weitestgehenden Deckungsgleicheit mit dem Shannon-Maß siehe Zucker 1974, 39f. sowie Marriage 2000, 3.
H=−
∑
i=1 n
pi∗log2 pi
von Shannons Printed English, mit dessen Ausdehnung des Symbolvorrats um ein Leerzei
chen der typographischen Leerstelle zu eigenem Recht verholfen wurde,244 liegt die Poin
te auch hier in einer Abwesenheit – nämlich in der Abwesenheit der Boltzmann-Kon
stante
k=1,380655∗10–23 J
K . (3.IV)
Dies ist der ganze und doch in seiner epistemologischen Brisanz nicht zu gering veran
schlagbare Bruch, der zwischen den Entropien Boltzmanns und Shannons steht. Wo die Boltzmann-Formel schon durch ihre Naturkonstante eindeutig auf Raum und Zeit bezo
gen blieb – auf ‚Raum‛ im Sinne des physikalischen Phasenraums und auf ‚Zeit‛ im Sinne des Zweiten Hauptsatzes –, verkündet Shannons Gleichung schon formal die Loslösung des Kalküls von jeglichem Bezug auf Materialität. Der Shannon'sche Informationsbe
griff ist mathematisch also nicht ‚Entropie mit einem Minuszeichen davor‛, sondern die physikalische Entropie unter Ausklammerung der Naturkonstante.245
Durch den Logarithmus zur Basis 2 kann Shannons Informationsmaß schließlich, der epistemischen Lesart von Entropie folgend, als die durchschnittliche Anzahl an Ja/Nein-Fragen definiert werden, die gestellt werden müssen, um ein Symbol innerhalb eines Nachrichtenvorrats oder Alphabets zu ‚erraten‛.246 Shannon selbst spricht von einem Maß für „Information, Wahlfreiheit und Unsicherheit“.247 Gleichermaßen ließe sich for
mulieren, dass seine Entropie, um einen Begriff aus dem Grundlagenkapitel 3.1 der vor
liegenden Arbeit zu benutzen, den Spielraum innerhalb einer Nachrichtenquelle angibt.
Der Unterschied zu Boltzmann liegt also nicht in der Mathematik, sondern auf der Phä
nomenebene, die es zu berechnen gilt: Bei Boltzmann ist es der Ordnungsgrad materiel
244 Vgl. Anm. 233.
245 Diese Minimaldiskrepanz wird nicht erst im Vergleich von Shannons Term mit der Gibbs-Entropie (siehe Anm. 243) deutlich, vielmehr findet sie sich – wenn auch nicht ausgeschrieben – bereits bei Shannon ange
legt. Für den Fall der Gleichwahrscheinlichkeit innerhalb einer Nachrichtenquelle nämlich könne „jegliche monotone Funktion dieser Anzahl als ein Maß der Information angesehen werden, die erzeugt wird, wenn eine Nachricht aus dem Vorrat ausgewählt wird“; an Stelle des Kehrwerts pi tritt somit der ganzzahlige Wert. „[D]ie natürlichste Wahl [sei] die logarithmische Funktion“ (Shannon 1948/2000a, 9). Dies ent
spricht – eben bis auf die Naturkonstante – der Boltzmann-Entropie. Eine ähnliche Formel innerhalb der Kommunikationstheorie stellte bereits Harry Nyquist mit seinem Ausdruck W = k∙log m auf, wobei W die Geschwindigkeit der Übertragung einer Nachricht – Nyquist sprach von „intelligence“ – angibt und m die Anzahl von übertragbaren Stromwerten (siehe Nyquist 1924, 333). Shannons ‚Entropie‛ darf als Generali
sierung dieses Kalküls gelten. Für eine ‚Archäologie‛ von dessen Formel siehe auch Kay 2001, 139-141.
246 Vgl. Weaver 1949/1976, 18-23; Audretsch 2007, 96.
247 Shannon 1948/2000a, 26. Vollkommen fehl geht daher die Deutung, „Shannons Maßzahl 1“ sei der „Be
reich der höchsten Informationsstufe“ (Bitsch 2001, 272), denn niedriger als ein bit kann dessen Entropie in der Praxis nicht sein.
ler Systeme, also Wahrscheinlichkeit im Realen, bei Shannon ist es der Ordnungsgrad von Nachrichten, also Wahrscheinlichkeit im Symbolischen.
In der statistischen Mechanik stand dieses Symbolische ganz am Ende, also auf dem Pa
pier. Zwar operiert letztlich jede geschriebene Formel im terminologischen Horizont die
ser Arbeit auf Seiten des materievertilgenden Todes im Sinne einer Dematerialisierung.
Bei Shannon jedoch findet sich dieser Tod, mit einem Begriffspaar Lacans/Kittlers ge
sprochen, nicht erst auf der formalen Ebene der Äußerung (énonciation), sondern bereits auf der referenziellen Ebene des Geäußerten (enoncé).248 Symbole sind nun nicht mehr bloß das Mittel, um Berechnungen anzustellen, sondern nunmehr Gegenstand der Be
rechnungen selbst. Auch wenn die digitale Informationsverarbeitung darauf aufbaut, den kritischen Wert dieser Wahrscheinlichkeiten, das bit, wiederum in realen Schaltern zu im
plementieren,249 beruht – wie sich zeigen wird – ihr ganzer Clou auf besagter Abstrakti
onsleistung.