• Keine Ergebnisse gefunden

Kommentar zu:

»Technikentwicklung als soziales Experiment«

von Ralf Herbold, Wolfgang Krohn und Johannes Weyer Manfred Mai

Die These von W eyer/Krohn/Herbold lautet, auf einen Nenner gebracht, daß technischem Handeln eine besondere Qualität der Unsicherheit an­

hafte, die dem gesellschaftlichen Umgang mit neuen Technologien relativ enge Grenzen setze. Im folgenden wird dagegen die These vertreten, daß für jeden Typ sozialen Handelns diese Unsicherheit gilt - also auch für die Herstellung und den Gebrauch technischer Systeme. Im Verlauf der Ent­

wicklung der Industriegesellschaft haben sich verschiedene Institutionen und Verfahren ausdifferenziert, die die Beherrschung technischer Risiken regulieren. Die Entwicklung dieser Beherrschungsmodi einerseits und die der Schadenspotentiale andererseits klafft jedoch zunehmend auseinan­

der. Es trifft nicht zu, daß - wie Hölderlin es lyrisch formulierte - wo Ge­

fahr wachse, auch das Rettende mitwachse. Trotz dieses Auseinanderklaf­

fens ist es nicht gerechtfertigt, von einer »Experimentiergesellschaft«

(W eyer/Krohn/Herbold) zu sprechen, da dies ein völliges Ausgeliefert- Sein der Gesellschaft an die Technik suggeriert. Die damit teilweise unter­

stellte Ohnmacht gesellschaftlicher Institutionen reproduziert sich somit selbst, weil tendenziell die Suche nach realen Gestaltungsspielräumen zu­

gunsten bloßer Verhinderungs- und/oder Widerstandsstrategien blockiert wird. Zur Sicherung der sozialen und ökologischen Vernunft in der Tech­

nikentwicklung wird im folgenden für eine auf allen Stufen der Technik­

genese zu institutionalisierende Technikbewertung plädiert. Dazu gehört unter anderem die Reform bestehender Verfahren (Technische Überwa­

chung, Umweltverträglichkeitsprüfung u. a.) zur Risikobeherrschung.

Kommentar zu Herbold / Krohn / Weyer 107 1. Unsicherheit als konstituierendes Merkmal sozialen Handelns

Unsicherheit über den Ausgang sozialer Handlungen ist für diese (nicht nur im Bereich der Technik) konstitutiv. Die Stabilität von sozialen Nor­

men, Gesetzen, Gebräuchen usw. sorgt dafür, daß die Unsicherheit über die zu erwartenden Reaktionen auf eine Handlung möglichst gering bleibt. Nur wenn diese Stabilität der Erhaltenserwartungen einigermaßen gegeben ist, macht es Sinn, von Gesellschaft zu sprechen. Luhmann (1987, S. 33 ff.) spricht sogar von einer »doppelten Kontingenz«, die allem so­

zialen Handeln eine doppelte Relevanz verleiht: »die eine auf der Ebene unmittelbarer Verhaltenserwartungen, in der Erfüllung oder Enttäu­

schung dessen, was einer vom anderem erwartet; die andere in der Ein­

schätzung dessen, was eigenes Verhalten für fremdes Erwarten bedeutet.

Im Bereich der Integration dieser beiden Ebenen ist die Funktion des Normativen und damit auch des Rechtes zu suchen«. Die verschiedenen Entscheidungstheorien können bestenfalls Erfolgswahrscheinlichkeiten unter gegebenen oder gesetzten Randbedingungen für bestimmte Hand­

lungsstrategien liefern, aber niemals Gewißheiten. Wirtschaftliche und politische Entscheidungsträger verlassen sich daher letztendlich mehr oder weniger auf ihre Erfahrung oder ihren Instinkt, trotz rechnergestütz­

ter, rationaler Entscheidungstheorien sowie mathematischer und system­

theoretischer Kalküle.

Die prinzipielle Unsicherheit menschlichen Handelns wird durch ge­

schichtsphilosophische (vgl. Rapp 1987, S. 42 ff.), ethische (vgl. Spaemann 1980, S. 180 ff.), anthropologische (vgl. Tenbruck 1989, S. 21 ff.) und so­

ziologische (Weber 1980, S. 13 und Parsons 1986, S. 215 f.) Erkenntnisse belegt. Max Weber hat vier Idealtypen sozialen Handelns definiert, von denen der des »zweckrationalen Handelns« für die Technikgestaltung und -bewertung von größter Bedeutung ist:

»Zweckrational handelt, wer sein Handeln nach Zweck, Mitteln und Neben­

folgen orientiert und dabei sowohl die Mittel gegen die Zwecke, wie die Zwecke gegen die Nebenfolgen, wie endlich auch die verschiedenen mögli­

chen Zwecke gegeneinander abwägt«. (Weber 1980, S. 13)

Die Unsicherheit menschlicher Handlungen beruht auch auf der Tatsa­

che, daß sich das Handeln nicht einfach in eine Folge von Einzelentschei­

dungen auflösen läßt. Gerade für die Entwicklung von technischen Syste­

108 Mcü

men ist es typisch, daß sie auf einer Vielzahl von kleinen Einzelschritten beruhen, die zudem in hocharbeitsteiligen Organisationen stattfinden. Die Rationalität der Einzelschritte sagt jedoch nichts über die Rationalität des Gesamtprojektes aus.

»Jede Wahl zwischen anstehenden Alternativen wirft die Frage auf, was die Ausgänge zur längerfristigen und durchschnittlichen Befriedigung aller Ziele und Bedürfnisse beitragen [...]. Jede Entscheidung trägt in sich die Entschei­

dung nach den ‘eigentlichen’ Zielen, nach den ‘wahren’ Bedürfnissen, nach den ‘echten’ Interessen, nach den ‘richtigen’ Werten.« (Tenbruck 1989, S. 34)

Auch die durch soziale Institutionen gewonnene Sicherheit ändert nichts daran, daß es »im Wesen menschlicher Handlungen« liegt, Nebenfolgen hervorzubringen (Spaemann 1980, S. 180). Kollektive und individuell auf­

gebaute Handlungsmuster »erfordern ständige Steuerung [...). So ver­

standen, ist die Unsicherheit eine interkulturelle Konstante, welche die conditio humana ausmacht« (Tenbruck 1989, S. 43). Auch die Herstellung und der Gebrauch technischer Systeme und Artefakte sind soziale Hand­

lungen. Der stetig wachsende Grad der Arbeitsteilung bei der Herstellung technischer Systeme und die ebenso stetig wachsende Vielfalt von Ge­

brauchsoptionen haben zu einer kaum noch überschaubaren Vielfalt mög­

licher sozialer Handlungen im Zusammenhang mit der Technik geführt.

Die an den Gebrauch technischer Systeme geknüpften Nutzungserwartun­

gen sind schon deshalb niemals exakt vorhersehbar, weil sich (individuelle und kollektive) Bedürfnisse und technische Entwicklungen oftmals gegen­

seitig aufschaukeln, so daß nicht mehr erkennbar ist, wer wen steuert: die Technik die Bedürfnisse oder umgekehrt.

2. Technikentwicklung zwischen Normalität und Katastrophen

Wenn bestimmte Pflanzenschutzmittel oder Kunststoffe jahrzehntelang gesellschaftlich akzeptiert, also »sozialverträglich« sind, und eines Tages aufgrund entweder neu entdeckter oder nicht mehr akzeptierter Neben­

wirkungen verboten werden, spielen sowohl gesellschaftliche als auch sachlogische Faktoren eine Rolle. Gesellschaftlich insofern, als ein Wer­

tewandel die bisher ignorierten Nebenfolgen nicht mehr hinnimmt, zumal alternative Pflanzenschutzmittel zur Verfügung stehen. Sachlogische Fak­

Kommentar zu Herbold / Krohn / Weyer 109 toren spielen insofern eine Rolle, als die Wirkungen eines Pflanzen­

schutzmittels (bzw. eines Wirkstoffes usw.) mit der Umwelt niemals nur den erwünschten Effekt hervorruft, sondern immer auch mehr oder weni­

ger gravierende Nebenfolgen, die zum Teil (wie etwa im Falle des DDT) erst nach Jahren erkannt werden. Die Vielfalt der möglichen Wechselwir­

kungen eines technischen Systems mit seiner natürlichen und menschli­

chen Umwelt, die in der Natur der Sache begründet sind, führen durch die Vielfalt der möglichen Folgen auch zu der eigentlich gesellschaftlichen und politischen Problematik, diese Folgen zu bewerten. Man kann sie ak­

zeptieren, ignorieren, tolerieren oder aber im Extremfall für nicht mehr hinnehmbar halten, so daß auch ein Verzicht auf den eigentlichen Nutzen der betreffenden Technologie naheliegt. Die damit eng zusmmenhängen- de Frage der Zumutbarkeit läßt sich entweder durch die jeweils konkrete Zustimmung der Betroffenen lösen oder durch den Konsens über das Verfahren der Zumutbarkeitsbestimmung: Zumutbar ist das, was nach einem definierten Verfahren als zumutbar gilt (vgl. Spaemann 1980, S. 184 f.). So zweckmäßig letzteres ist, so fragwürdig wird dies durch die Praxis des Zugemuteten. An überzeugenden Alternativkonzepten fehlt es.

Die Alternative, daß über jeden einzelnen Schadstoff einzeln in Bürger­

versammlungen oder ähnlichem abgestimmt wird, ist weder sachlich noch verfahrensmäßig sinnvoll.

Bestimmte Technikfolgen können durch technische Maßnahmen (ge­

schlossene Kreisläufe, Herausfiltern usw.) vermieden werden; aber solan­

ge technische Systeme auch auf andere Systeme (ökologische oder sozia­

le) einwirken, wird es Wechsel- und Nebenwirkungen geben (Arzneimit­

tel, auf deren Beipackzettel keinerlei Nebenwirkungen angegeben wer­

den, legen den Verdacht nahe, daß sie noch nicht mal die erwünschte Wir­

kung haben).

Bei jeder neu zu entwickelnden Technik stellen sich daher mindestens zwei Fragenkomplexe:

Welche (ökologischen, sozialen, politischen, ethischen usw.) Neben­

wirkungen sind zu erwarten und wie werden sich - zweitens - die sozialen Nutzungsformen entwickeln?

Als die Firma Sony in den siebziger Jahren den Walkman auf den Markt brachte, konnte niemand ahnen, daß damit - gemessen am Verbrei­

110 Mai

tungsgrad - offenbar ein Grundbedürfnis meist jugendlicher Käufer be­

friedigt wurde. Auch die (möglicherweise einzige) sinnvolle Verwendung von Walkman-Geräten als mobiles Lernmedium oder ähnlichem dürfte angesichts der tatsächlichen Nutzungsform ad absurdum geführt werden.

Auch der umgekehrte Fall ist möglich:

Eine vom Hersteller vorgestellte Nutzung (etwa der Quadrophonie) kann ausbleiben. Die Hersteller insbesondere von Konsumgütern versu­

chen die Unsicherheiten über die möglichen Nutzungsformen und ihre Verbreitung durch eine systematische Marktbeobachtung zu reduzieren und versuchen durch ein entsprechendes Marketing den potentiellen Käu­

fern die Nutzungsoptionen gleich mitzuliefern. Das Risiko des Flops bleibt allemal erhalten.

Nun werden in der Soziologie üblicherweise nicht solche Risiken be­

trachtet, die sich für die Hersteller von technischen Systemen ergeben, obwohl dies zweifellos auch zur Techniksoziologie gehört. Daß auch dies mit technischen Risiken zu tun hat, wird spätestens dann deutlich, wenn durch die falsche Markteinschätzung eines Herstellers Arbeitsplätze be­

droht sind (zum Beispiel Grundig, der »sein« Video-System der Welt auf­

zuzwingen glaubte und schließlich sein Unternehmen verkaufen mußte).

Dieser kurze Exkurs in die Welt der Technikgenese soll daran erin­

nern, daß Unsicherheiten und Risiken der Technik mehrere Dimensionen haben, die sich für die verschiedenen Akteure und Betroffenen jeweils un­

terschiedlich auswirken. Die »eigentliche« Risikodiskussion bezieht sich auf die unerwünschten Nebenfolgen von Techniken. Insbesondere neue Techniken mit hohen Schadenspotentialen (Nukleartechnik, Gentechnik) haben zu der Frage geführt, ob und wie die Technik überhaupt noch ver­

antwortet werden kann. Für die Risikoforschung und Techniksteuerung wäre es fatal, wenn alle Artefakte nur noch unter dem Gesichtspunkt des größten anzunehmenden Unfalls beurteilt würden, wobei das gesamte Schadenspotential einschließlich des kriminellen Mißbrauchs einbezogen wird. Die »Normalität« der Technikgenese und -anwendung wird so völlig aus dem Blick geraten und die Sozialwissenschaft von den Technikher­

stellern noch weniger ernst genommen als dies ohnehin der Fall ist.

Im Normalfall stürzen Gebäude nicht ein, sinken Schiffe nicht laufend und werden ISDN-Teilnehmer nicht ständig von übelwollenden Postbe­

Kommentar zu Herbold / Krohn / Weyer 111 amten rund um die Uhr überwacht, um Bewegungsprofile zu erstellen. Es kann nicht der Sinn der Techniksoziologie sein, Sensationsjournalisten im Ausmalen von Szenarien zu übertreffen (an Aktualität und Sprachwitz wären sie ihnen ohnehin unterlegen).

Der starre Blick auf Katastrophen und Schadenspotentiale kann den Blick für sinnvolle Gestaltungsoptionen und Spielräume versperren. (Das schließt nicht aus, daß technische Risiken ein sinnvolles soziologisches Thema sein können und die aus diesen Fällen gewonnenen Erkenntnissen zur Reduzierung dieser Risiken beitragen können. Ein gutes Beispiel einer solchen konstruktiven soziologischen Risikoforschung ist zum Bei­

spiel die Studie von Lagadec 1987.)

3. Institutionalisierte Verfahren zur Beherrschung von Risiken

Im »Normalfall«, der im folgenden betrachtet werden soll, birgt jede neue Technik soziale, ökologische, gesundheitliche Risiken. Aus diesem Grund gibt es für eine Reihe von Produkten rechtlich vorgeschriebene Testproze­

duren, die die Unbedenklichkeit (etwa für die Gesundheit) testen. So exi­

stiert für die Zulassung von Arzneimitteln ein standardisiertes Prüfverfah­

ren und erst die Freigabe durch das Bundesgesundheitsamt erlaubt den Verkauf (in Deutschland). Jeder Hersteller von Autos führt Crash-Tests durch, um seinen Produkten wenigstens den Ruf passiver Sicherheit zu ge­

ben.

Durch das gestiegene Folgen- und vor allem Umweltbewußtsein ist die Palette von Test- und Prüfverfahren ständig erweitert worden, und es wird zunehmend Diskussionen darüber geben, ob der Prüfungsaufwand ge­

rechtfertigt ist. Die Industrie verweist in diesem Zusammenhang gerne auf das Ausland, demgegenüber man durch die zunehmenden vorgeschriebe­

nen Testverfahren deutscher Behörden in einen Wettbewerbsnachteil ge­

rate. Tierschützer halten den Aufwand, der etwa für die Herstellung von Körperpflegemitteln vorgeschrieben ist, um ihre Toxizität zu prüfen, für unangemessen und haben eine Reduzierung der Testprozeduren gefor­

dert, um den Verbrauch an Versuchskaninchen (im wahrsten Sinne des Wortes) einzuschränken. Inzwischen haben Hersteller von kosmetischen

112 Mai

Mitteln den Hinweis, daß dieses Produkt ohne Tierversuche hergestellt wurde, als Teil der Werbung für dieses Produkt entdeckt.

Ein weiteres Beispiel, wie gut gemeinte Testprozeduren im Einzelfall in keinem Verhältnis zu erwarteten Erkenntnissen über Nebenwirkungen stehen, sind Medikamente zur Behandlung von Aids. Einige Aids-Selbst- hilfegruppen haben selbst auf den Verdacht hin, daß es Nebenwirkungen gibt, für eine Freigabe eines neuen Medikamentes plädiert, obwohl das Bundesgesundheitsamt nur eine Stichprobe zulassen wollte.

In vielen Fällen hat gerade die Entwicklung der Computertechnik dazu geführt, daß standardisierte Testverfahren auf dem Rechner simu­

liert werden können. Es ist eben viel einfacher, ein neues Verkehrssystem auf dem Bildschirm hundertmal unter definierten Bedingungen gegen die Wand fahren zu lassen, als in der Praxis. Auch die Entwicklung von Flug­

simulatoren gehört zu diesem Kapitel.

Bei all den vorhandenen Institutionen der technischen Sicherheit (TÜV, Bundesanstalt für Materialprüfung, Prüfstelle des Verbandes deut­

scher Elektrotechniker usw.) bleibt die Frage, ob dies ausreicht, um den gesellschaftlichen Umgang mit Technik sicherer zu machen.

Ulrich Beck (1986) wirft den technischen Überwachungsvereinen recht pauschal ein völliges Versagen in diesem Punkte vor, weil die Tech­

nikmacher mehr oder weniger sich selbst überwachen bzw. eben dies nicht tun. Nun genießen gerade in der Soziologie Verschwörungstheorien eine hohe Popularität nicht zuletzt, weil sie eine genauere soziologische Ana­

lyse ersparen (sollen). Aber auch über die Rolle technischer Überwa­

chungsinstitutionen kann nicht sinnvoll nachgedacht werden, wenn man nur deren extreme Verirrungen im Blick hat und nicht ihren eigentlichen Zweck. In Teilgebieten der Technik trifft es sicherlich zu, daß hochgradig spezialisierte Expertenzirkel scheinbar nur noch durch Selbstkontrolle

»kontrolliert« werden.

Technische Überwachung kann aber nur funktionieren, wenn sie zwi­

schen den unterschiedlichen Interessen des Staates, der Gesellschaft und der Industrie vermitteln. Weder kann die Industrie (als größter Technik­

hersteller) nicht allein die Verantwortung für die Folgen der Technik übernehmen, noch kann sie den gesellschaftlichen Wertepluralismus und die politischen Zielvorgaben vertreten. Die Politik ihrerseits (konkret: die

Kommentar zu Herbold/K ro h n / Weyer 113 Administration und die Legislative) ist allein nicht in der Lage, Sicher­

heitsstandards für neue Technologien festzuschreiben, durchzusetzen und zu überprüfen. Verbände können dies allerdings nur dann, wenn sie so­

wohl den gesellschaftlichen und politischen Zielvorstellungen verpflichtet sind als auch dem technischen Sachverstand, der in der Regel bei den in­

dustriellen Herstellern vorhanden ist. Es ist allerdings eine Aufgabe dieser Verbände, diesen Sachverstand auch anderen zugänglich zu machen, um eine Basis für die eigentliche Bewertung aus der Sicht unterschiedlicher Betroffener und Nutzer zu ermöglichen.

Ulrich Beck hat insofern recht, als für einige Bereiche in der Tat nicht erkennbar ist, wie gesellschaftliche Interessen in den Prozeß der Technik­

gestaltung (insbesondere bei der Formulierung von Sicherheitsstandards und Grenzwerten) einfließen. Die technisch-wissenschaftlichen Verbände (vgl. Mai 1990a), die durch die Arbeit in der Regel- und Normsetzung einen großen Einfluß auf die Technikgestaltung und Minderung ihrer Ri­

siken besitzen, haben jedoch dazugelernt und sich zögernd einem Interes­

senpluralismus geöffnet. Ein gutes Beispiel dafür ist das Hearing der In­

formationstechnischen Gesellschaft (ITG) über Probleme des Datenschut­

zes, bei dem Hersteller, Datenschützer, Vertreter der Post und des Bun­

destages sowie Sozialwissenschaftler beteiligt waren (ITG 1990). Noch vor wenigen Jahren hätte man von seiten der Techniker die Beteiligung von Datenschützern und Sozialwissenschaftlern für abwegig gehalten.

Derartige Arenen und Diskussionsforen gilt es in den Verbänden aus­

zubauen und für die Interessen der sozialverträglichen Technikgestaltung zu nutzen. Da in der Technikherstellung mehrere gesellschaftliche Teilsy­

steme (Industrie, Verbände) beteiligt sind, muß der Staat in Wahrneh­

mung seiner Gesamtverantwortung für die Technik und ihre Folgen für die jeweiligen Akteure unterschiedliche Instrumente und Strategien an­

wenden. Dies können im Einzelfall Festlegungen von Grenzwerten sein, aber auch steuerliche Belastungen bestimmter Rohstoffe (etwa um ihre sparsame Verwendung zu erreichen) und vieles andere mehr.

Bei der Vielzahl der an der Technikentstehung beteiligten Akteure können nur dezentrale und kontextspezifische Steuerungsmodelle wirken.

Letztlich dient dieses Instrumentenbündel dazu, die Risiken der Technik

114 Mai

zu minimieren oder wenigstens sozial beherrschbar zu machen (vgl. Mai 1990b).

4. Zur Möglichkeit technischen Handelns

Die historisch gewachsenen Institutionen und Verfahren zur Technikregu­

lierung und -kontrolle gilt es kritisch zu überprüfen und von wirkungslo­

sen Selbstkontrollausschüssen Abschied zu nehmen.

Bei all dem muß bedacht werden, daß es nicht darum geht, jede neue Technik zu verhindern nach dem Motto: Wer nichts macht, macht auch nichts falsch. Auch der Verzicht auf Technik kann ein Risiko bedeuten (zum Beispiel beim Verzicht durch den Einsatz eines Arzneimittel mit un­

bekannten Nebenwirkungen, die gegen unheilbare Krankheiten eingesetzt werden). Es gibt auch Situationen, in denen ein sachlicher und/oder poli­

tischer Entscheidungsdruck ein schnelles Handeln erzwingt. Ein Pilot kann eine kritische Flugsituation nicht erst mit allen Passagieren durchdis­

kutieren, sondern muß aufgrund seiner Sachkenntnis und Erfahrung, die auch Abwägungsprozesse impliziert, sofort entscheiden und diese Ent­

scheidung auch verantworten. Ähnlich geht es einem Chirurgen, der wäh­

rend einer Operation Komplikationen feststellt. Beide wissen, daß sie im Falle falscher Entscheidungen (das heißt bei Nichtbeachtung von eindeu­

tigen Regeln für definierte Notfallsituationen) zum Teil erhebliche Kon­

sequenzen tragen müssen. Die Souveränität gesellschaftlichen Handelns auch mit technischen Hilfsmitteln muß ebenso gewährleistet sein wie der Schutz vor unerwünschten Nebenfolgen. Souveränität gesellschaftlichen Handelns bedeutet, daß sachtechnische Systeme nicht ihrerseits einen möglichen Handlungsverlauf dadurch strukturieren, daß keine Optionen mehr für eine Umkehr oder einen Ausstieg gegeben sind (»Sachzwänge«).

Ein Auto kann ich abbremsen, einen Fernseher ausstellen und ein Flugzeug nicht besteigen; aber aus einer technischen Infrastruktur im Energie-, Verkehrs- oder Informationsbereich kann man kaum »ausstei­

gen«, auch wenn der einzelne konsequent die Schnittstellen mit diesen In­

frastrukturen verweigert. Allenfalls können massenhafte Nutzungsverwei­

gerungen (wie dies am Beispiel BTX geschehen ist) dazu führen, daß die

Kommentar zu Herbold/K ro h n / Weyer 115 entsprechende Infrastruktur bedeutungslos wird. Der Ausstieg einzelner Hausbesitzer oder Wohnblocks aus der Breitbandverkabelung führt dage­

gen allenfalls zu einigen weißen Flecken auf der sonst flächendeckenden Versorgung.

Es sind vor allem die Strukturen des Verkehrswesens, des Städtebaus, der Energieerzeugung, der Massenkommunikation usw., die alternative Verkehrs-, Städtebau-, Energieversorgungskonzepte usw. erschweren. Bei dem politischen Bemühen um sozial- und umweltverträgliche Konzepte auch im Bereich technischer Großstrukturen geht es nicht um die Verhin­

derung von Weltuntergängen (obwohl eine autofreundliche Innenstadt für die Anwohner schlimm genug ist), sondern um die Sicherung der sozialen Vernunft und politischen Freiräume in der Gestaltung der Lebenswelt mit der Technik und nicht gegen sie. Auch Radwanderwege, dezentrale Wär- me-Kraft-Kopplungssysteme und anderes sind High-Tech!

Die bestehende Landschaft der Technikregulierung ist im 19. Jahrhun­

dert und in der Regel mehr oder weniger unfreiwillig entstanden, obwohl sich die Verbände selbst zum Prinzip der freiwilligen Selbstkontrolle und Selbstverantwortung bekennen.

D er wichtigste Impuls zur Gründung von Überwachungsvereinen war die Drohung des Staates (damals: der preußischen Gewerbeaufsicht), die Technikkontrolle selbst vorzunehmen. Um dies zu verhindern, schlossen sich die industriellen Anlagenbetreiber »freiwillig« zum Beispiel im Dampfkesselüberwachungsverein DÜV zusammen. Im großen und ganzen ist dies bis heute so geblieben, wobei gewisse Entwicklungen in Richtung eines erweiterten Sicherheits- und Risikoverständnisses unübersehbar ist, das weit über das hinaus geht, was man vor hundert Jahren unter Gefah­

renabwehr verstand. Auch dieser Wandel ist mehr oder weniger extern angeregt worden, um das Überleben und die Legimität der technischen Überwachungsverbände im Zeichen eines gesellschaftlichen Wertewan­

dels gegenüber der Technik zu sichern (vgl. Kuhlmann 1989, S. 81-96).

Nicht nur die Strukturen und Institutionen der technischen Überwa­

chungsverbände sind den gesellschaftlichen Ansprüchen an die Beherrsch­

barkeit der Technik unzureichend gefolgt, sondern auch andere gesell­

schaftliche und politische Institutionen. Dabei ist noch nicht einmal an die Notwendigkeit eines sofortigen Reagierens etwa im Falle eines Störfalles

116

gedacht. Normalerweise vergehen nicht selten Jahrzehnte, bis ein techni­

sches System ausgereift ist und in die Gesellschaft integriert wurde. Flexi­

ble Fertigungssysteme, neue Informations- und Kommunikationstechni­

ken und ähnliches erfordern langwierige Konzeptions-, Entwicklungs-, Er- probungs- und schließlich Implementationsphasen.

Aus der Geschichte gesellschaftlicher Diskurse über bestimmte Tech­

nologien (vgl. Vahrenkamp 1988) ist erkennbar, daß sie eigentlich nie zu einem Abschluß im Sinne eines dauerhaften politischen Konsenses kom­

men. Die Zyklen und die Dynamik des Handels sind weitgehend abgekop­

men. Die Zyklen und die Dynamik des Handels sind weitgehend abgekop­