• Keine Ergebnisse gefunden

3 Herausforderungen einer vorausschauenden Technikgestaltung

Die hohe Zukunftsrelevanz der Mensch-Maschine-Entgrenzung steht auch jen-seits transhumanistischer Spekulationen außer Frage. Sensorische Neuropro-thesen, Gliedmaßenprothesen oder Anwendungen wie die Tiefenhirnstimulation versprechen hunderttausenden Patientinnen und Patienten Linderungen bei körperlichen Defiziten, die mit schwersten Einschränkungen der Lebensqualität einhergehen. Dabei gilt es allerdings den therapeutischen Nutzen sorgfältig mit den teils gravierenden gesundheitlichen Risiken und Nebeneffekten (u.a. Per-sönlichkeitsveränderungen) abzuwägen, die mit den jeweiligen Eingriffen ver-bunden sein können. Zu fragen ist auch, inwiefern grundlegende Persönlich-keitsrechte durch die zunehmende Verbreitung derartiger Technologien bedroht sind (z.B.Verletzung der Intimsphäre durch Aufzeichnen neuronaler Daten; Drew 2019). Schließlich stellen sich–vor allem mit Blick auf die personale Autonomie und Verantwortungsfähigkeit des Menschen–auch grundsätzliche anthropolo-gische Fragen, wenn Mensch und Maschine zunehmend zu einer „hybriden Handlungseinheit“verschmelzen (Kehl/Coenen 2016, 148; vgl. Müller 2010).

Der Verantwortungsbegriff wird aber noch in einem anderen Sinne virulent.

Auf einer übergeordneten Handlungsebene stellt sich nämlich die Frage, wie ein angemessener Umgang mit Entwicklungen der Mensch-Maschine-Entgrenzung gefunden werden kann. Dass„eine frühzeitige Auseinandersetzung mit den ge-sellschaftlichen Konsequenzen, aber auch Rahmenbedingungen der Entgren-zungsdynamik […] dringend erforderlich“erscheint, so die Schlussfolgerung im TAB-Bericht, ist vor dem Hintergrund der skizzierten ethischen Implikationen absolut naheliegend (Kehl/Coenen 2016, 150). Doch wer ist für die Beherrschung des technischen Fortschritts eigentlich die verantwortliche Instanz? Wie der Blick zurück auf den Umgang mit den Folgen und Nebenfolgen technischer Entwick-lungen seit Mitte des 20. Jahrhunderts zeigt, haben sich entsprechende institu-tionalisierte Praktiken der Verantwortungszuschreibung kontinuierlich gewan-delt (Grunwald 2020; Rip 2014).

Dass der technologische Fortschritt nicht einfach sich selbst überlassen werden sollte, rückte spätestens ab den 1950er Jahren immer stärker ins gesell-schaftliche Bewusstsein. Die damaligen Debatten um die aufkommende Gen-technik oder die militärische sowie zivile Nutzung der Kernenergie stehen ex-emplarisch für ein sich veränderndes gesellschaftliches Risikobewusstsein.Waren es anfänglich vor allem die beteiligten Wissenschaftlerinnen und Wissenschaftler selbst, die ihr eigenes Handeln kritisch zu reflektieren begannen (z. B. im Man-hattan-Projekt oder im Rahmen der Asilomar-Konferenz von 1975 zu gentechnisch veränderten Organismen), rückte nach und nach die Verantwortung des Staates und der Politik in den Vordergrund. Das in den 1970er Jahren entwickelte Vor-sorgeprinzip, das verlangt, Risiken für Umwelt und Gesundheit vorbeugend zu begegnen und möglichst zu vermeiden, spielt bis heute als Leitlinie politischen Handelns in Deutschland und der EU eine zentrale Rolle. Mit der Technikfol-genabschätzung (TA) entstand etwa zur gleichen Zeit eine wissenschaftliche Be-ratungsdisziplin, die sich prospektiv mit den Wirkungen und Nebenwirkungen wissenschaftlich-technischer Entwicklungen beschäftigte, um politischen Ent-scheidungsträgern als„Frühwarnung vor technikbedingten Gefahren“zu dienen (Paschen/Petermann 1992).

Die Institutionalisierung der TA vollzog sich zunächst im Rahmen der Par-lamente, wobei das ursprüngliche Selbstverständnis als neutrale wissenschaftli-che Beratungsinstanz sich in der Herangehensweise widerspiegelte (Dobroćet al. 2018): Spezifische Folgen konkreter Technologien sollten durch expertenba-sierte Prognosen aufgespürt werden, um unerwünschte Konsequenzen durch entsprechende Gegenmaßnahmen unterbinden zu können. Die Gewissheit aller-dings, dass sich Technikfolgen prognostisch beherrschen lassen, löste sich im Laufe der Zeit immer mehr auf (Bora/Kollek 2011, 22f.). Es wurde deutlich, dass Technologien sich erstens nicht in quasi deterministischer Weise entfalten,

son-dern ihre Genese selbst sozial geformt ist; dass zweitens ihre gesellschaftlichen Auswirkungen von vielschichtigen, interessengeleiteten Anwendungszusam-menhängen bestimmt sind und die Bewertung möglicher Technikfolgen somit notgedrungen nicht nur mit großen epistemischen, sondern auch normativen Unsicherheiten behaftet ist. Die Entwicklung partizipativer und konstruktiver TA-Ansätze in den 1990er Jahren ist Ausdruck der Bemühung, die neu erkannte Komplexität soziotechnischer Wechselwirkungen angemessen abzubilden. Ver-bunden damit ist gewissermaßen eine Verantwortungsdiffusion: Eine Pluralität von Akteurinnen und Akteuren mit ihren je eigenen Perspektiven wirkt in der einen oder anderen Form an der Herstellung von Technikzukünften mit, weshalb es kaum noch sinnvoll erscheint, eine zentrale Steuerungsinstanz für den tech-nischen Fortschritt prospektiv in die Verantwortung zu nehmen (von Schomberg 2013, 13).

Mit dem jüngsten Ruf (seit ca. 2010) nach„Responsible Research and Inno-vation“(RRI) wird dieser Gedanke nun auf die Spitze getrieben: Nicht mehr nur

„Fragen von technologie- und innovationsinduzierten Risiken und deren reaktiv-regulative Einhegung [stehen] im Zentrum […], sondern die möglichst demokra-tische, inklusive Verständigung darüber, welche Zukunft durch Innovation be-fördert werden soll“(Lindner et al. 2016, 8). Das vor allem auf der EU-Ebene stark geförderte RRI-Konzept (unter anderem wurde es als Leitbild im Forschungsrah-menprogramm Horizont 2020 verankert) ist dabei vor allem als Antwort auf große gesellschaftliche Herausforderungen (sog.„Grand Challenges“) wie die Digitali-sierung oder den Klimawandel zu verstehen, welche mit disruptiven Verände-rungen auf globaler Ebene einhergehen. In Anbetracht dessen ist es das erklärte Ziel von RRI, das Innovationsgeschehen als Ganzes (statt einzelner Technologien) einer proaktiven Gestaltung zuzuführen und an übergeordneten gesellschaftli-chen Zielen auszurichten. Es ist folglich nur konsequent, die Verantwortung dafür nicht Einzelnen mit ihren Partikularinteressen zu überlassen, sondern im Sinne kollektiver Verantwortung die Gesellschaft als Ganzes in der Pflicht zu sehen (von Schomberg 2013).

Was heißt das nun für den verantwortungsvollen Umgang mit dem Phänomen der Mensch-Maschine-Entgrenzung? Gerade das vom TAB diagnostizierte Span-nungsfeld zwischen relativ unterentwickelten Anwendungen einerseits und weitreichenden Anwendungsvisionen andererseits verweist auf die latenten Schwierigkeiten bei der Umsetzung einer vorausschauenden Technik- und Inno-vationsgestaltung im Sinne von RRI. Drei kritische Punkte sind dabei besonders hervorzuheben:

1. Eckpfeiler einer proaktiven Steuerung von Innovationsprozessen ist nach wie vor dieAntizipationpotenzieller Technikfolgen, da nur auf dieser Basis eine reflektierte gesellschaftliche Auseinandersetzung mit möglichen

Entwick-lungspfaden machbar ist. Damit stellt sich nun aber die Frage nach dem richtigen Zeitpunkt eines„upstream engagement“, wie es im Rahmen von RRI gefordert wird (Lindner et al. 2016, 66). Eine möglichst frühzeitige gesell-schaftliche Intervention in den Forschungs- und Innovationsprozess scheint zwar geboten, da sich nur dann die erhofften Gestaltungsspielräume bieten, wirft aber gleichzeitig das Problem auf, dass die Anwendungsperspektiven und Technikfolgen meist noch völlig diffus erscheinen und sich eben kaum sinnvoll antizipieren lassen. Dieses Kontrolldilemma ist altbekannt und wurde bereits in den 1980er Jahren formuliert (Collingridge 1982). Mit Blick auf die zwar besonders zukunftsträchtigen, aber meist noch sehr frühen Entwicklungen im MME-Bereich werden also, wie bei anderen emergierenden Technologien auch, die Grenzen eines antizipativen Governanceansatzes deutlich (Grunwald 2015). Dies ist umso mehr der Fall, als diesen Technolo-gien häufig eine disruptive Qualität unterstellt wird, womit Zukunft endgültig zur Chiffre für das Unbekannte wird (vgl. Nordmann 2014).

2. Dass die gesellschaftlichen Debatten rund um die Emergenz der neuen Ent-grenzungstechnologien von sehr weitreichenden, äußerst konträr bewerteten Zukunftsvisionen bestimmt sind, ist plastischer Ausdruck davon. Wesentlich ist: Die propagierten Zukünfte sind zwar gesellschaftlich äußerst wirkmächtig und von anhaltender Faszination, sie sagen aber wenig Gehaltvolles über zukünftige Entwicklungen aus (Coenen 2015)–es handelt sich vom Charakter her um Prophezeiungen ohne prognostischen Wert (vgl. Grunwald 2012, 113).

Gleichwohl werden die imaginierten soziotechnischen Zukünfte oft als un-ausweichlich dargestellt, was einer gewissen Eigenlogik futuristischen Den-kens geschuldet ist (Grunwald 2012, 106ff.). Im Besonderen gilt das für den Transhumanismus, der dem technischen Fortschritt eine nicht zu hinterfra-gende Eigengesetzlichkeit unterstellt („myth of progress“, vgl. Burdett 2014).

Angesichts dieser Konstellation besteht die Gefahr, dass durch die unkritische Verbreitung derartiger Zukunftsnarrative (wie bspw. im iHuman-Bericht der Royal Society (2019) geschehen; vgl. Lancet 2019) der Blick auf näherliegende Herausforderungen (wie sie eingangs dieses Abschnitts skizziert wurden) und sich daraus ergebende Gestaltungsmöglichkeiten der Entwicklung verstellt wird. Dies konterkariert ein reflexives„Denken in Alternativen“, wie es für

„die aktive Gestaltung von Innovationsprozessen“unerlässlich ist (Dobroćet al. 2018).

3. Zu beachten ist schließlich, dass hinter den technikvisionären Verheißungen oft auch handfeste ökonomische Interessen stecken und„visionäre Speku-lationen“ auch gerne eingesetzt werden, um im Sinne „technovisionären Marketings“Aufmerksamkeit (und Fördergelder) für aufkommende Techno-logien zu generieren (Coenen 2009). Wie gezeigt entstammen viele

transhu-manistische Vordenker dem Umfeld der Tech-Branche, die selbst die For-schung zu technikvisionären Themen massiv vorantreibt – Beispiele sind Elon Musks Firma Neuralink sowie Facebook, das vor kurzem das Neurotech-Start-up CTRL-Lab übernommen hat (Holzki 2019).³ In verheißungsvollen Forschungsfeldern wie der KI oder auch den Neurotechnologien ist davon auszugehen, dass viele Akteurinnen und Akteure kein gesteigertes Interesse an demokratischer Kontrolle haben oder sich dieser sogar ganz bewusst zu entziehen versuchen. Neben dem Privatsektor gehört dazu insbesondere das US-Militär, das ebenfalls seit vielen Jahren intensiv an einem neurotechno-logischen Enhancement forscht (Benedikter et al. 2017; Moreno 2012). Bislang ist es eine weitgehend offene Frage, wie verantwortungsvolle Forschung und Innovation auch in Sphären institutionalisiert werden kann, die nicht primär am Gemeinwohl orientiert sind, und wie angesichts divergierender Interessen überhaupt eine gesellschaftliche Verständigung über Ziele möglich ist (Blok/

Lemmens 2015; Stahl 2018).

In visionären, diskursiv geformten Feldern wie der MME gibt es somit keinen ar-chimedischen Punkt außerhalb des Geschehens, von dem aus sich der wissen-schaftlich-technische Fortschritt in eine wünschenswerte Zukunft steuern lässt (Dupuy/Grinbaum 2004). Jeglicher Versuch, Zukunft zu antizipieren, verändert unser Bild derselben und beeinflusst damit den weiteren Gang der Ereignisse.Vor diesem Hintergrund ist in der TA-Community aktuell eine Wende hin zur kriti-schen Befassung mit Zukunftserwartungen zu beobachten, im Sinne eines sog.

Vision assessments. Ziel ist gewissermaßen eine Entzauberung allzu einseitig präsentierter Visionen, um„überzogene Erwartungen und ausgeschlossene Al-ternativen aufzuzeigen sowie Machtkonstellationen und stillschweigend voraus-gesetzte Normalitäten zu hinterfragen“(Lösch et al. 2016, 16). Die Ethik spielt bei diesem Unterfangen eine wichtige, aber durchaus ambivalente Rolle.

4 Die Rolle der Ethik: Zwischen Ethics Washing

Outline

ÄHNLICHE DOKUMENTE