• Keine Ergebnisse gefunden

Wir müssen Maschinen bauen, die Gefühle haben

N/A
N/A
Protected

Academic year: 2022

Aktie "Wir müssen Maschinen bauen, die Gefühle haben"

Copied!
24
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Transkript zum Podcast

Wir müssen Maschinen bauen, die Gefühle haben

Antonio Chella im Gespräch mit Karsten Wendland

Podcast-Reihe „Selbstbewusste KI“

Folge 8

Erstveröffentlichung: 03.11.2020

Forschungsprojekt:

Abklärung des Verdachts aufsteigenden Bewusstseins in der Künstlichen Intelligenz – KI-Bewusstsein

www.ki-bewusstsein.de

Projektleitung:

Prof. Dr. Karsten Wendland

Institut für Technikfolgenabschätzung und Systemanalyse (ITAS)

Förderkennzeichen: 2016ITA202

Zur Podcast-FolgeZur Podcast-Folge

(2)

Hinweis zum Copyright:

Lizenz: Namensnennung 4.0 International (CC BY 4.0) https://creativecommons.org/licenses/by/4.0/deed.de Copyright notice:

License: Attribution 4.0 International (CC BY 4.0) https://creativecommons.org/licenses/by/4.0/deed.en

Herausgeber:

Karsten Wendland, Nadine Lahn, Pascal Vetter

Empfohlene Zitationsweise/Suggested citation:

Wendland, K., Lahn, N. & Vetter, P. (Hg.) (2021). Wir müs- sen Maschinen bauen, die Gefühle haben. Antonio Chella im Gespräch mit Karsten Wendland. Karlsruhe: KITopen.

https://doi.org/10.5445/IR/1000139828

(3)

Inhalt

1 Zum Projekt „KI-Bewusstsein“ ...4

2 Podcast-Serie „Selbstbewusste KI“ ...5

3 Bibliometrische Angaben zur Folge ...6

4 Transkription des Gesprächsverlaufs ...7

5 Erwähnte Quellen ... 23

6 Kontakt ... 24

(4)

1 Zum Projekt „KI-Bewusstsein“

Im Projekt „Abklärung des Verdachts aufsteigenden Bewusstseins in der Künstlichen Intelligenz (KI-Bewusstsein)“ am Institut für Technikfolgenab- schätzung und Systemanalyse (ITAS) des Karlsruher Instituts für Technologie (KIT) untersuchen und kartieren wir, welche Gruppen wissenschaftlich, wirt- schaftlich und weltanschaulich zu „aufsteigendem Bewusstsein“ in der KI ar- beiten. Wir fragen danach, welche Motive, Intentionen und Verankerungen jeweils dahinterstecken und welche Zukunftsszenarien angedacht sind oder auch in Zweifel gezogen werden. Dabei klären wir technische Entwürfe ab und hinterfragen Mythen und Narrative, die in die Welt gesetzt werden und bestimmte Zuschreibungen auslösen.

Die Idee einer „erwachenden“, sich selbst bewusst werdenden Künstlichen Intelligenz hat in den vergangenen Jahren zunehmend Popularität erfahren, u.a. durch verbrauchernahe KI-gestützte Systeme wie Siri von Apple und den auf Alexa hörenden Smart Speaker, den eingebürgerten Roboter Sophia und auch IBMs dialogfähigen Watson. Renommierte KI-Akteure melden sich be- geistert, mahnend oder warnend zu Wort und stellen die Entwicklung einer

„Superintelligenz“ in Aussicht, die alles planetarisch Dagewesene in den Schatten stellen und den Menschen in seinen Fähigkeiten überholen werde.

In der KI-Community ist die Fragestellung zum sogenannten „maschinellen Bewusstsein“ zwar bekannt, aber kaum systematisch erforscht – das mys- tisch aufgeladene Nischenthema geht mit dem Risiko einher, sich einen wis- senschaftlichen Reputationsschaden einzuhandeln. Gleichzeitig nähren KI- Forschung und -Marketing genau diese Mystik, indem sie vermenschlichende Sprachbilder verwenden, die ein aufkeimendes Bewusstsein verheißen, wenn etwa der Roboter „denkt“ oder „fühlt“, das autonome Fahrzeug mit einer „en- vironment perception“ ausgestattet ist oder das Smart Home „weiß“, wie es seinen Bewohnern „helfen“ kann. Hierdurch werden Redeweisen und Narra- tive aufgebaut, die in der (medialen) Öffentlichkeit Vorstellungen zu einer „be- wussten KI“ verbreiten, ohne dass hierzu wissenschaftlich belastbare Aussa- gen geliefert würden. Auch der transdisziplinäre Dialog zur Frage, was am sogenannten maschinellen Bewusstsein „dran“ sein könnte, ist bislang kaum vorhanden.

An diesem Defizit setzt das Projekt an mit dem Ziel, eine Abklärung zum Ver- dacht aufsteigenden Bewusstseins in der KI herbeizuführen, indem beste- hende Diskurse analysiert, empirisch untersucht, einschlägige Akteure fä- cherübergreifend zusammengeführt, offene Fragen identifiziert und bearbei- tet werden, ein gemeinsames, transdisziplinär tragfähiges Verständnis erar- beitet wird und die Ergebnisse in den öffentlichen Diskurs eingebracht wer- den.

„KI-Bewusstsein“ im Netz: Institut für Technikfolgenabschätzung Web: www.ki-bewusstsein.de und Systemanalyse (ITAS):

Twitter: @KIBewusstsein http://www.itas.kit.edu/

Zum Projekt

(5)

2 Podcast-Serie „Selbstbewusste KI“

Kann Künstliche Intelligenz ein Bewusstsein entwickeln? Wie könnte das überhaupt funktionieren, und was würde das für uns bedeuten? 12 Folgen, 12 Gespräche mit Expertinnen und Experten und eine gemeinsame Ab- schlussrunde.

Folge Titel Gast

01 Ohne Leben kein Bewusstsein (01:10:29) Thomas Fuchs 02 Roboter bekommen eine menschliche Aura

(59:37)

Andreas Bischof 03 In der heutigen KI ist kein Geist (57:45) Ralf Otte

04 Die Gründerväter der KI machten sich über Bewusstsein keine Gedanken (01:03:36)

Christian Vater 05 Von Kühlschranklichtern, KI-Pubertät und

Turnschuhen (01:08:58)

Thomas Metzinger 06 Wir müssen auf Weitsicht fahren und fra-

gen: Was wäre wenn? (41:31)

Frauke Rostalski 07 Bewusstsein ist eine kausale Kraft und kein

cleverer Programmier-Hack (55:24)

Christof Koch 08 Wir müssen Maschinen bauen, die Gefühle

haben (39:04)

Antonio Chella 09 Dass Roboter uns Emotionen vorgaukeln,

kann sehr wichtig sein (45:06)

Janina Loh 10 Die größte Hoffnung wäre, die Dystopien zu

verhindern (52:46)

Joachim Weinhardt 11 Die meisten SF-Romane sind als Warnung

gedacht, nicht als Gebrauchsanleitung (55:14)

Andreas Eschbach

12 Roboter werden bald ein Bewusstsein be- sitzen (34:55)

Junichi Takeno Bonus Das große Staffelfinale – Diskussionsrunde

zu bewusster KI (01:41:08)

Gesprächsrunde

Verfügbarkeit der Audiodaten

KITopen: https://publikationen.bibliothek.kit.edu/serie/649 Anchor.fm: https://anchor.fm/kibewusstsein

Spotify: https://open.spotify.com/show/4BzUdFgR6o74H5sS2ait9z Apple Podcasts: https://podcasts.apple.com/de/podcast/selbstbewusste-

ki/id1530833724

Zu KITopen Zur Podcast- Serie

(6)

Titel: Wir müssen Maschinen bauen, die Gefühle haben

Dauer: 39:04

Erstveröffentlichung: 03.11.2020

Autor: Karsten Wendland

Gesprächsgast: Antonio Chella Fragensteller: Armin Grunwald Redaktion und

Produktion: Annalena Hörth Aufnahmeleitung: Tobias Windmüller Synchronsprecher Konstantin Kleefoot

DOI Audiofile: https://doi.org/10.5445/IR/1000125589 DOI Transkription: https://doi.org/10.5445/IR/1000139828

3 Bibliometrische Angaben zur Folge

Teasertext

Für den Robotiker Prof. Dr. Antonio Chella, Leiter des Robotic Labs und For- schungszentrums für Wissenstechnologien an der Universität von Palermo, geht Bewusstsein deutlich über das Gehirn hinaus. Für den Herausgeber des Journal of Artificial Intelligence and Consciousness kann nur eine empathi- sche Maschine auch eine ethische Maschine sein. Deshalb sei es erstrebens- wert, Maschinen mit Gefühlen zu bauen, und aus deren Verhalten schließlich auch mehr über unser eigenes phänomenales Bewusstsein erfahren zu kön- nen. Viele KI-Leute haben seiner Beobachtung nach kein Interesse an philo- sophischen Debatten, weswegen er versucht, praktische Brücken zwischen den Disziplinen zu bauen und interdisziplinäre Diskurse zu unterstützen.

Metadaten

Folgenlogo

(7)

4 Transkription des Gesprächsverlaufs

Karsten Wendland: Hallo und herzlich willkommen bei „Selbstbewusste KI“, dem Forschungspodcast an der Grenze zwischen Mensch und Maschine.

[00:00:09]

Antonio Chella: It`s like the man on the moon. [00:00:13] We want to beat it.

[00:00:14] We want to beat it because we are humans. [00:00:16] Beating is kind of robots of a conscious robot. [00:00:20] We better understand: What does it mean to be you. [00:00:25]

Karsten Wendland: Mein Name ist Karsten Wendland. [00:00:29] Ich bin Forscher am Karlsruher Institut für Technologie und gehe Fragen nach, wie Technik, die gerade erst noch erforscht wird, morgen vielleicht schon unseren Alltag prägen könnte. [00:00:39] Kann Künstliche Intelligenz ein Bewusstsein entwickeln, wie könnte das überhaupt funktionieren und was würde das für uns bedeuten? [00:00:49] Mein heutiger Gast zu dieser spannenden Frage entwickelt Roboter und dies seit über 25 Jahren. [00:00:56] Er verbindet tech- nische Informatik mit kognitiver Robotik und mit der technischen Implemen- tierung sozialer Wahrnehmung. [00:01:03] Er ist Gründungsmitglied und Vor- stand der Gesellschaft für biologisch inspirierte kognitive Architekturen, Vor- standsmitglied der Vereinigung für Künstliche Intelligenz seines Landes.

[00:01:14] Er ist Mitglied in vielen einschlägigen internationalen Fachgesell- schaften und Direktor des Zentrums für Wissenstechnologie an seiner Uni- versität. [00:01:24] Außerdem ist er Hauptherausgeber einer wissenschaftli- chen Zeitschrift, die sich mit Künstlicher Intelligenz und Bewusstsein beschäf- tigt [Quellenverweis 1]. [00:01:31] Mein heutiger Gast ist, wer hätte das ge- dacht, Professor für Robotik und Gründer des RobiticsLabs am Institut für In- dustrielle und Digitale Innovation der Universität von Palermo. [00:01:44]

Sono molto felice che oggi possiamo parlare della coscienza dell‘intelligenza artificiale, benvenuto Antonio Chella! [00:01:55]

Antonio Chella: Grazie, thank you very much for involving me in this inter-

esting project, I am very pleased and I am very happy to be here. [00:02:03]

Karsten Wendland: Antonio, Sie sind ein Experte für Künstliche Intelligenz, die wir immer auch im Verhältnis mit unserem Gehirn diskutieren. [00:02:13]

Was haben Sie für ein Verhältnis zu Ihrem Gehirn? [00:02:16] What is your relationship with your brain? [00:02:19]

Zur Podcast-Folge

(8)

Antonio Chella: Nun, ich denke schon, dass unser Gehirn wichtig ist.

[00:02:26] Ich leite gerne meine Vorträge und Lehrveranstaltungen mit dem Zitat von Woody Allen ein, dass unser Gehirn das am meisten überschätzte Organ ist, weil ich denke, dass wir eben nicht nur unser Gehirn sind [Quellen- verweis 2]. [00:02:38] Meiner Meinung nach spielt der Körper eine wichtige Rolle unsere Bewegungsaktivitäten und die äußeren Umgebungen sind wich- tig. [00:02:46] Ich glaube, dass wir nicht, wie einige Philosophen sagen, ein Gehirn in einer Flasche sind oder dass unser Geist komplett in unserem Ge- hirn steckt. [00:02:55] Aber um unser Bewusstsein besser zu verstehen, müs- sen wir die Art der Beziehung zwischen unserem Gehirn, unserem Körper und unseren äußeren Umgebungen berücksichtigen. [00:03:04] Wenn wir nur auf unser Gehirn schauen, finden wir unser Bewusstsein nicht. [00:03:10] Wissen Sie, es geht um die Art der Interaktion zwischen dem Gehirn und dem Körper und mit der äußeren Umgebung. [00:03:18] Und natürlich auch mit anderen Gehirnen, also mit den anderen Menschen. [00:03:22] Denken Sie daran, dass wir im sozialen Austausch miteinander stehen und Bewusstsein auch aus dieser sozialen Perspektive verstehen können. [00:03:31] Wir sind in ge- wisser Weise soziale Tiere und wir müssen die Art der Beziehung zwischen uns und unserer Umwelt berücksichtigen. [00:03:38] Ich bin eher für solchar- tige Positionen der Externalisten, wie zum Beispiel die meines Kollegen, Ric- cardo Manzotti und anderen, die sagen, dass wir die Außenwelt anschauen müssen, um Bewusstsein zu finden. [00:03:51] Genau genommen sollten wir die Beziehung unseres inneren Selbst und unserer Außenwelt betrachten, um Bewusstsein zu finden. [00:03:58] Also, die Erforschung des Gehirns ist wich- tig, aber es ist nicht das einzige, was zählt. [00:04:05] Deshalb gefällt mir der Witz von Woody Allen so gut. [00:04:08]

Karsten Wendland: Ja, Woody Allen mit dem oft zitierten Spruch „The brain is the most overrated organ“, „Das Gehirn ist das am meisten überschätzte Organ“. [00:04:18] Und wir setzen ja oftmals sehr viele und große Hoffnungen in das Gehirn und es gibt laufende Forschungsprojekte, das Gehirn nachzu- bauen. [00:04:28] Ja und einige Kollegen erwarten Durchbrüche im Feld der neuromorphen Computer, in denen es darum geht, das Gehirn nicht nur digi- tal zu simulieren, sondern in seinen Mechanismen nachzubauen, also tat- sächlich eine Implementierung des Gehirns durchzuführen und dann vielleicht sogar auch ein Bewusstsein bauen zu können. [00:04:51] Und Antonio, Sie haben dazu eine andere Position, Sie sagen, der Körper spielt auch eine

(9)

große Rolle. [00:04:57] Die Interaktion zwischen Kognition und dem Körper, das ist die Embodiment-Fraktion, ja, die Sie vertreten. [00:05:04] Und was halten Sie von dem Ansatz, neuromorphe Computer zu bauen? [00:05:10]

Antonio Chella: Neuromorphe Computer sind natürlich ein interessantes Forschungsgebiet. [00:05:18] Und ich glaube übrigens nicht, dass derzeit die Computer nach Vorlage der Turingmaschine in der Lage sein werden, wirkli- ches Bewusstsein zu erreichen. [00:05:26] Neuromorphe Computer sind in- teressant, weil sie eine Möglichkeit darstellen, das menschliche Gehirn bes- ser nachzuahmen. [00:05:33] Gleichzeitig gibt es aber auch andere interes- sante Zugriffe, zum Beispiel den Quantenaspekt. [00:05:38] Quantencompu- ter haben uns ganz andere Sichtweisen auf Berechnung und Berechenbarkeit vermittelt. [00:05:44] Es gibt Probleme bei den Berechnungen, aber auch bei der Rechenleistung. [00:05:48] Ich glaube aber, dass das Bewusstsein etwas haben könnte, das mit den Quantenberechnungen in Verbindung gebracht werden kann, ich freue mich auf diese Art von Forschung. [00:05:58] Ein wei- teres interessantes Forschungsgebiet, die ebenfalls mit den neuromorphen Computern zu tun hat, sind sozusagen biologische Berechnungen. [00:06:07]

Heute gibt es etliche Forschungslabors, die in der Lage sind, sehr einfache Berechnungen mit biologischem Material durchzuführen, wir befinden uns auf der Ebene der logischen Gatter. [00:06:17] Das wird sehr interessant.

[00:06:19] Wenn wir Berechnungen also nicht auf der Basis von Silizium, nicht mit dem Turingmaschinen-Modell, sondern mit den anderen Modellen durch- führen könnten, nämlich mit einem biologischen Substrat, dem Quantensub- strat. [00:06:32] Oder sogar mit neuromorphen Berechnungen. [00:06:34]

Diese Art von Modellen, müssen wir uns ansehen, um besser zu verstehen, was für eine Berechnung notwendig ist, um zum Bewusstsein zu gelangen.

[00:06:44]

Karsten Wendland: Also sollten wir uns stärker in den biologischen Bereich ausdehnen und auch nicht ganz ignorieren, was die Quantenforschung zu- tage bringt. [00:06:53] Ja und damit sind wir mitten im Begriffsverständnis, was Bewusstsein eigentlich sein kann. [00:06:59] Wir versuchen hier in unse- rem Podcast auch diesem Zusammenhang von Künstlicher Intelligenz und Bewusstsein auf die Spur zu kommen und stoßen da auf ganz unterschiedli- che Begriffsverständnisse und Definitionen aus verschiedenen Fachgebieten, was Bewusstsein eigentlich nun genau sein soll, was darunter verstanden

(10)

wird. [00:07:18] Und was meinen Sie, als Robotiker, mit Bewusstsein, wenn Sie dieses Wort „Bewusstsein“, „consciousness“, unter Kollegen als Arbeits- begriff verwenden, also wenn Sie untereinander von Bewusstsein sprechen?

[00:07:33] What do you mean by consciousness when you use this word as a working term among colleagues? [00:07:38]

Antonio Chella: Tja, ich denke, dass es schwierig ist, Bewusstsein zu defi- nieren. [00:07:45] Es ist ein Wort wie „Leben“, es ist ein Wort wie „Intelligenz“, so wie es viele Begriffe gibt, die sehr schwer zu definieren sind. [00:07:53]

Für mich selbst ist der interessanteste Aspekt des Bewusstseins mit dem phä- nomenalen Bewusstsein verbunden, also mit der Fähigkeit, etwas zu fühlen.

[00:08:03] Dies ist für mich die Fähigkeit mit den interessantesten zu untersu- chenden Aspekten. [00:08:08] Und es ist etwas, das uns von Maschinen, von Objekten unterscheidet. [00:08:13] Wir fühlen etwas, da ist etwas, wenn man sich ein Wort betrachtet. [00:08:17] Da ist etwas, wenn man andere Men- schen anschaut und so weiter. [00:08:22] Das finde ich am interessantesten, dieses Fühlen von etwas. [00:08:26] Ich denke, dass Bewusstsein bedeutet, eine Art Innenleben zu haben. [00:08:30] Wir haben ein inneres Gefühl, wir haben innere Emotionen und wir haben auch innere Sprache und wir haben auch innere Vorstellungen. [00:08:38] Wir haben ein reiches Innenleben und so ist das Bewusstsein mit all diesen Aspekten verbunden. [00:08:43] Wenn ich von Bewusstsein spreche, beziehe ich mich auf all diese Dinge, ein Innen- leben zu haben und etwas zu fühlen. [00:08:51]

Karsten Wendland: Ja und dieser innere Aspekt ist ja das, was es scheinbar auch ausmacht, was wir auch häufig vom Begriffsverständnis zwischen Be- wusstsein und dem Selbstbewusstsein unterscheiden. [00:09:03] Wenn man noch genauer und stärker schärft, kommt man zu dem phänomenalen Be- wusstsein, was Sie eben erwähnt haben, was so verstanden wird, dass man sich selbst als lebend empfinden und den allermeisten von uns ist das ja be- kannt. [00:09:17] Wir empfinden uns als lebend, wir haben auch den Eindruck, dass andere sich als lebend empfinden, wobei wir das nicht überprüfen kön- nen. [00:09:24] Da haben wir auch in diesem Podcast schon öfters darüber gesprochen. [00:09:28] Aber unsere Erfahrung und unsere Beobachtung, nicht nur bei den Menschen, auch bei Delphinen, bei Menschenaffen bei- spielswese, sind ja so, dass wir davon ausgehen, dass diese anderen Wesen auch ein phänomenales Bewusstsein haben und darauf verlassen wir uns

(11)

dann auch, ja. [00:09:46] Und was ist denn Ihre Position jetzt zu diesem phä- nomenalen Bewusstsein genau auf der Basis von Künstlicher Intelligenz, kann das überhaupt funktionieren? [00:09:57] Antonio, what is your position on phenomenal consciousness based on artificial intelligence? [00:10:03]

Antonio Chella: Eigentlich glaube ich nicht, dass das phänomenale Bewusst- sein aus historischer Sicht für die Künstliche Intelligenz so besonders interes- sant war. [00:10:14] Wichtig waren da andere Aspekte der Intelligenz, zum Beispiel die Wissensrepräsentation, die Bewegungsplanung und so weiter.

[00:10:21] Und auch heute gilt Deep Learning als das Interessanteste und das ist meiner Meinung nach ein großer Fehler. [00:10:28] Es gibt etwas, das in der KI einfach fehlt, weil wir eben nicht nur unsere Intelligenz sind.

[00:10:34] Ich arbeite seit langer Zeit im Bereich Computervision und KI, aber ich hatte immer das Gefühl, dass bei dieser Art von Studien und Entwicklung etwas fehlt. [00:10:44] Denn wenn wir ein Objekt oder eine Handlung erken- nen oder wenn wir einen Roboter steuern, dann fehlt etwas. [00:10:50] Es ist nicht nur das Erkennen der Form, das Erkennen einer Ecke oder was auch immer. [00:10:54] Es geht mir um das Gefühl, das mit dieser Art des Erken- nens verbunden ist. [00:10:58] Ich denke also, dass selbst wenn wir es mit Bewegung zu tun haben und wenn wir in der Welt agieren, geht es nicht nur um die Bewegungsplanung und derlei Dinge, denn es gibt Empfindungen, die mit dieser Art von Bewegung verbunden sind. [00:11:14] Ich denke also, dass die KI in einigen Aspekten sehr gut funktioniert. [00:11:19] Die meisten, ge- rade im Feld der Robotik, machen sich sehr gut bei der Bewegungsplanung und bei der Bewegungsgeschicklichkeit und so weiter. [00:11:27] Aber es fehlt einfach noch etwas und deshalb halte ich das Studium des phänomenalen Bewusstseins für so wichtig. [00:11:34] Außerdem denke ich, dass wir KI- Systeme dazu nutzen können, um Bewusstsein insgesamt besser zu verste- hen. [00:11:42] Ja, ich denke, die KI wird ein nützliches Werkzeug sein, um Bewusstsein besser zu verstehen, aber wir müssen vor allem das phänome- nale Bewusstsein besser verstehen, um einen Weg zu finden, phänomenales Bewusstsein auch in die KI zu bringen. [00:11:58]

Karsten Wendland: Nun gibt es aber trotzdem verschiedene Vorstellungen in der Forschungslandschaft und bei Entwicklungen und Ansätze, die versu- chen, Bewusstsein irgendwie in die Maschine hineinzubekommen oder Be- wusstsein in der Maschine entstehen zu lassen. [00:12:16] Manche sagen,

(12)

alles auf der Welt ist Bewusstsein, das ist der Panpsychismus. [00:12:21] Und dann wäre unsere Frage auch schon beantwortet, wo denn das Bewusstsein zu suchen sei, man kann es überall finden. [00:12:29] Und manche Weltan- schauung, wie der Shintoismus in Japan, sind da ja auch ziemlich dicht dran.

[00:12:34] Andere sagen, es geht um, ja, möglichst hohe Integration von In- formation in einem System. [00:12:41] Da kann man sich ja ein autonomes Fahrzeug vorstellen, das sehr viel Information permanent aufnimmt und in sich integriert, Modelle entwickelt und die immer weiter anreichert. [00:12:53]

Und da ist auch ein Ansatz, dass da ein Bewusstsein irgendwann entstehen könnte aus dieser starken Integration von Informationen, ja, da liefert die In- tegrated Information Theory verschiedene Impulse. [00:13:10] Und dann gibt es noch den großen Bereich der Phantasie oder der Science Fiction in dem Kinofilm „Nummer 5 lebt“, der heißt ja im englischen „Short Circuit“ [Quellen- verweis 3]. [00:13:20] Ich weiß bis heute noch nicht, warum die deutschen Filmtitel oftmals so seltsam sind, dafür müssen wir vielleicht mal einen ande- ren Podcast machen. [00:13:28] Aber in diesem Film gab es dann noch einen ganz anderen Grund, da gab es einen Roboter, der von einem Blitz getroffen wurde und dann ist irgendwas passiert, etwas ist in ihn eingefahren, eine Art Fulguration. [00:13:40] Man könnte auch etwas romantischer sagen, er wurde wachgeküsst und dieser Trigger kam von außen. [00:13:47] Frage an Sie, Antonio: Wie kann man das denn jetzt hinbekommen, technisch, wie kommt das Bewusstsein in die Maschine? [00:13:55] Can it really happen, how does consciousness could enter the machine? [00:13:59]

Antonio Chella: Ja, ich denke, dass das Bewusstsein natürlich nicht in einer Maschine hochgeladen werden kann. [00:14:07] Die Filme mit Nummer 5 sind wirklich gute Filme, aber ich glaube nicht, dass das Bewusstsein einfach durch eine Art Upload oder wie auch immer, in eine Maschine gelangen kann, denn das ist eine Frage der Komplexität. [00:14:20] Ich denke schon, dass wir eine solche Art von Komplexität erreichen sollten, aber wir sind heute längst nicht auf der Ebene der Komplexität des Gehirns. [00:14:29] Und zwar nicht nur vom rechnerischen Standpunkt aus, sondern auch wenn wir an die heute verwendeten Sensoren und Aktoren denken. [00:14:37] Und nur dann, wenn wir in der Lage sind, eine Maschine mit einer Komplexität zu erreichen, die unserem Körper ähnlich ist, nicht nur unserem Gehirn, wie ich bereits sagte, sondern unserem Körper, wenn man also die Komplexität unserer selbst, unseres Körpers und all das berücksichtigt. [00:14:55] Und alle unsere

(13)

Körper können, wie ich vorhin zu erklären versuchte, zu einem Bewusstsein beitragen. [00:15:01] Davon sind wir aber sehr weit weg. [00:15:03] Und erst wenn wir diese Art von Komplexität erreichen, sollten wir eine Maschine in Betracht ziehen, die potentiell bewusst sein könnte. [00:15:12] Lassen Sie mich hier aber nochmal auf einen wichtigen Zusammenhang hinweisen, der nützlich in unserer Diskussion über Bewusstsein ist. [00:15:20] Ich glaube nicht, dass wir es mit einer klaren Unterscheidung zwischen Hardware und Software zu tun haben. [00:15:25] Ein Gedankenspiel: Wir hätten also eine Maschine, wir laden eine Art von Software hoch und die Maschine würde be- wusst. [00:15:32] Dann gäbe es eine enge Vermischungen zwischen der Hardware und der Software in der bewussten Maschine. [00:15:38] Und wei- ter gedacht führt dies auch zu dem Problem, wie man Bewusstsein reprodu- zieren wollte. [00:15:45] Heute ist es ja ganz einfach, wenn ich meinen Com- puter kaputt mache, kann ich alle meine Daten herunterladen und ich kann all diese Daten in einem ähnlichen Computer hochladen. [00:15:56] Und dann würde daraus ein Computer, der derselbe ist, wie der Computer, den ich vor- her hatte. [00:16:03] Bei einem Roboter hingegen ist es ziemlich schwierig, diese Art von Operationen durchzuführen, weil beim Roboter die Software und die Hardware in enger Wechselwirkung zueinander stehen. [00:16:12]

Wir bauen die Software des Roboters, weil die Hardware des Roboters in ir- gendeiner Weise entwickelt wurde. [00:16:19] Und wenn der Roboter sich zum Beispiel ändert, weil es ein Problem gibt, er wird zum Beispiel alt, dann muss etwas, was bei der Software des Roboters nicht mehr funktioniert, an den Roboter angepasst werden. [00:16:31] Die Software des Roboters wird also von Tag zu Tag für diesen Roboter gebaut und nicht einen anderen Ro- boter, der diesem Roboter ähnlich ist oder so. [00:16:40] Und dieser Roboter weist einige Besonderheiten auf, die Motoren, die Aktoren und die Kamera.

[00:16:47] Und so wird die Software eben für diesen Roboter gebaut und nicht für diese Art von Roboter, sondern also für diese Einheit. [00:16:55] Der Ro- boter gewinnt also eine Art Einzigartigkeit und diese ist so eine Art, sagen wir, eine erste Persönlichkeit des Roboters. [00:17:05] Zusammenfassend glaube ich nicht, dass wir das Bewusstsein in einen Roboter hochladen können, und auch nicht, dass wir in der Lage sein werden, es herunterzuladen und dann auf einen anderen Roboter hochzuladen. [00:17:17] Es ist wie beschrieben, ein ganz anderer Prozess. [00:17:20] Der hat zwar heute nicht ganz die rech- nerische Komplexität erreicht, geht aber Tag für Tag etwas weiter. [00:17:26]

Ich denke, es könnte auf einer solche Identität von Robotern hinauslaufen.

(14)

[00:17:30] Verschiedene Roboter, wenn sie sich äußerlich ähnlich sind, könn- ten eine Art von Bewusstsein haben, weil sie unterschiedliche Teile haben.

[00:17:39] Somit hängt es also auch von der Story, der Vergangenheit und der Geschichte des Roboters ab. [00:17:45]

Karsten Wendland: Auch in unserer heutigen Podcast-Folge haben wir wie- der einen Fragesteller, der Ihnen einige Fragen stellen möchte. [00:17:52]

Heute ist es Armin Grunwald aus Karlsruhe, hören wir ihm kurz zu. [00:17:58]

Armin Grunwald: Ich heiße Armin Grunwald, ich war mal Physiker, ich bin dann in die Philosophie gewandert. [00:18:03] Mein Hauptjob ist aber die Technikfolgenabschätzung. [00:18:07] Ich leite hier in Karlsruhe das Institut für Technikfolgenabschätzung und Systemanalyse am KIT und auch in Berlin das Büro für Technikfolgenabschätzung beim Deutschen Bundestag.

[00:18:18] Und meine erste Frage: Antonio, Sie sind einfach total begeistert von den Möglichkeiten der Robotik, auch vielleicht des maschinellen Be- wusstseins, dass ganz neue Entitäten entstehen können. [00:18:31] Bei aller Begeisterung, ja, Ingenieure, Informatiker, Wissenschaftler sind ganz häufig begeistert von ihren neuen Dingen, versprechen wunderbare Sachen.

[00:18:41] Und wenn man dann halt guckt, was so nach 10, 20 Jahren da ist, dann sieht man okay, teilweise sind gute Sachen gekommen, teilweise aber auch nicht. [00:18:50] Und manchmal geht der Schuss richtig nach hinten los.

[00:18:53] Ich denke mal an Ozonloch oder die Asbestgeschichte, negative Technikfolgen, die Ambivalenz der Technik. [00:19:02] Kannst du dir vorstel- len oder denkst du manchmal darüber nach, dass vielleicht auch schlimme Dinge passieren können, schreckliche Szenarien oder ganz unerwartete Dinge? [00:19:12]

Antonio Chella: Ja, die Frage verstehe ich vollkommen. [00:19:17] Natürlich präsentieren uns viele Science Fiction Filme solche Zukünfte in der etwas schief gehen kann. [00:19:22] Von der guten alten „Space Odyssee 2001“, in der die Menschen aus der Sicht der Maschine am Ende irrelevant sind [Quel- lenverweis 5]. [00:19:28] Oder der „Ex Machina“, in der Roboter in der Lage sind, zu betrügen und uns zu täuschen [Quellenverweis 6]. [00:19:34] Diese Geschichten und Motive kennen wir ja schon von Frankenstein oder dem Go- lem [Quellenverweise 7,8]. [00:19:38] Es gibt tatsächlich ein aktuelles Risiko und wir müssen uns diesem Risiko auch stellen. [00:19:43] Wenn wir uns für

(15)

ein Moratorium entscheiden, wie es der deutsche Philosoph Thomas Metzin- ger zum Maschinenbewusstsein vorschlägt, verlieren wir aber auf der ande- ren Seite etwas. [00:19:53] Wir verlieren die Möglichkeit, besser zu verstehen, was Bewusstsein ist, und wir verlieren die Möglichkeit, Roboter als Werk- zeuge dafür einzusetzen, um das Bewusstsein besser zu verstehen.

[00:20:04] Das ist natürlich eine politische Entscheidung. [00:20:07] Und ich sehe, dass es auf der europäischen Ebene und sogar weltweit interessante Diskussionen darüber gibt, wie mit diesem Risiko der KI und auch dem Risiko des Maschinenbewusstseins umgegangen werden kann. [00:20:20] Das ist interessant, weil es diese Entscheidung im politischen Raum sind. [00:20:24]

Also auf der einen Seite ist es wichtig, dass wir uns als Menschen dessen bewusst sind, was wir in der Forschung eigentlich tun und welche Vor- und Nachteile damit einhergehen. [00:20:36] Auf der anderen Seite bin ich nicht für eine Art Moratorium oder dafür, diese Art von Forschung zu vermeiden, weil wir, wie gesagt, etwas verlieren. [00:20:45] Ähnliche Diskussionen finden wir in der Biologie oder in der Neurowissenschaft. [00:20:50] Auch dort gibt es viele Risiken, die mit solcher Art von Forschung verbunden sind und den- ken Sie nur an das atomare Risiko. [00:20:58] Und genau deshalb sollten wir für diese Art von Forschung verantwortlich sein. [00:21:03] Hierzu brauchen wir die Kontrolle und Regulierung von politischer Seite, aber wir müssen wei- termachen, denn wir können uns nicht leisten, das Risiko einherzugehen, alle Vorteile dieser Art von Forschung zu verlieren. [00:21:15] Persönlich fürchte ich eher etwas ganz anderes, nämlich eine Art Softwareanalogie zum Covid- Virus. [00:21:22] Eine Art superintelligentes Virus, das unsere gesamte Com- puterausrüstung oder andere Netzwerke kontrolliert. [00:21:29] Ich fürchte mehr diese Art von Risiko, vielmehr, als dass wir morgen einen superintelli- genten Roboter im Sinne eines Terminators haben, der uns tötet. [00:21:38]

Und beim Maschinenbewusstsein ist noch ein weiterer Aspekt von Bedeu- tung. [00:21:43] Es ist sehr schwierig, Ethik ohne die Fähigkeit zu leiden, zu verstehen. [00:21:47] Also ohne die Fähigkeit zu einer Art innerem Gefühl.

[00:21:51] Auch in diesem Gesichtspunkt könnte es interessant sein, Maschi- nenbewusstsein zu untersuchen. [00:21:57] Nehmen wir einmal an, eine Ma- schine wäre mit der Fähigkeit ausgestattet, Empathie zu empfinden.

[00:22:03] An ihr könnte man untersuchen und vielleicht besser verstehen, was es bedeutet, zu leiden. [00:22:08] So wie es Herr Metzinger sagt und ja, auch befürchtet, irgendwann könnten wir eine Maschine haben, anhand derer wir besser verstehen, was es bedeutet, Mensch zu sein. [00:22:18] Meiner

(16)

Meinung nach ist es eine ethische Regulierung, also es ist sehr wichtig.

[00:22:24] Aber wie gesagt, in diesem Aspekt fehlt noch etwas. [00:22:27]

Unter all den Vorschriften und Gesetzen können wir keine Maschine bauen, die uns die Fähigkeit gibt, besser zu verstehen, was es bedeutet, ein Mensch zu sein, was es bedeutet, zu leiden, was es bedeutet, in einem guten Leben zu sein und so weiter. [00:22:42] Es fehlt der phänomenale Aspekt der Em- pathie. [00:22:45] Meiner Meinung nach, kann nur eine empathische Ma- schine eine echte ethische Maschine sein. [00:22:51]

Karsten Wendland: Ja, das wäre dann empathisches Vermögen als Voraus- setzung für, tja, eine ethische Basiskompetenz. [00:23:00] Also das müssten wir schon nochmal etwas weiter vertiefen und hinsichtlich der Konsequenzen abklopfen. [00:23:06] Dazu haben wir auch noch eine zweite Frage von Armin Grunwald. [00:23:10]

Armin Grunwald: Wenn es jetzt um autonome Roboter geht und die gibt es ja schon, aber die werden immer autonomer. [00:23:15] Und wenn die dann vielleicht sogar eine Art von Bewusstsein mal haben sollten, ja, wir wissen es nicht, aber es gibt ja Anlass, darüber nachzudenken, die werden ab und zu Dinge tun, die sie nach menschlichem Ermessen, nach Ethik und Recht nicht tun würden. [00:23:32] Nehmen wir mal an, ein solcher Roboter bringt einen anderen Menschen um. [00:23:37] Was sollte man deiner Meinung nach dann machen? [00:23:41] Sollte man diesen Roboter vor Gericht stellen?

[00:23:44] Anklagen mit Verteidigern natürlich und vielleicht auch dann le- benslänglich in das Gefängnis sperren? [00:23:51] Oder sollte man ihn ver- schrotten? [00:23:53] Wo bleibt also die Verantwortung, wenn wir Technik, wenn wir Robotern diese Autonomie übertragen? [00:24:00]

Antonio Chella: Nun, in Zukunft sollten wir Roboter als eine Art echte auto- nome Einheit anerkennen und ihnen bestimmte Rechte einräumen. [00:24:12]

Erinnern wir uns doch daran, wie wir in Vergangenheit Rechte vergeben ha- ben. [00:24:17] Frauen hatten zum Beispiel sehr lange keine Rechte, bis sie irgendwann die gleichen Rechte bekamen, wie Männer. [00:24:23] Auch black people hatten keine Rechte, sie waren Sklaven und heute haben Far- bige und Frauen selbstverständlich Rechte. [00:24:31] Wir haben alle die glei- chen Rechte. [00:24:33] Und wir haben sogar den Tieren Rechte gegeben und wir haben der Umwelt Rechte gegeben und auch beispielsweise dem kulturellen Erbe. [00:24:43] Schauen Sie, es gibt Menschen, die während des

(17)

Krieges ihr eigenes Leben aufs Spiel setzen, um ein bestimmtes Gemälde oder einen bestimmten Staat zu retten, etwas, das aus ihrer spezifischen Sicht wichtig ist. [00:24:56] Ich kann mir also vorstellen, dass es morgen je- manden geben könnte, der bereit ist, sein eigenes Leben zu opfern, um einen bestimmten Roboter zu retten. [00:25:04] Wie ich bereits sagte, ist es nicht leicht, einen Roboter zu duplizieren, weil der Roboter eine Mischung aus Soft- ware und Hardware ist. [00:25:14] Man könnte einen Roboter vergleichen mit Dingen, die bereits gesetzlich geschützt sind, etwa aus der schönen Malerei oder einem Gemälde zum Beispiel. [00:25:23] Und dies vor allem in Anbe- tracht der Tatsache, dass der Roboter lernen kann. [00:25:27] Wir befinden uns ja mitten in der Deep Learning-Epoche. [00:25:30] Und damit zurück zur Frage, was denn ist, wenn ein Roboter einen Mensch tötet. [00:25:35] Nun, es wird immer schwieriger, die Verantwortung dafür den Ingenieuren zuzu- weisen, die den Roboter konstruiert haben. [00:25:43] Ich weiß nicht, ob man sie heute dafür in das Gefängnis steckt, aber für morgen sehe ich das nicht.

[00:25:48] Erinnern wir uns in diesem Zusammenhang mal an den bekannten Fall dieses Chat-Roboters von Microsoft, der Tay genannt wurde [Quellenver- weis 4]. [00:25:56] Tay war ein Schock. [00:25:58] Er basierte vollständig auf Deep Learning-Konzepten und dieser Chatbot Tay lernte innerhalb von nur wenigen Stunden eine bemerkenswerte Sprache und wurde dabei zu einem rassistischen Chatbot, zu einem politisch vollkommen unkorrekten Chatbot.

[00:26:13] Und dieses lag nur teilweise an der Schuld der Ingenieure, die den Chatbot entworfen haben, tatsächlich lag es auch an der äußeren Umgebung, dass dieser Chatbot so wurde, wie er wurde. [00:26:24] Ich sehe also schon, dass Roboter morgen irgendeine Art von Verantwortung haben könnten und auf der anderen Seite der Medaille sollten die Roboter dann auch Rechte ha- ben. [00:26:33] Die Roboter könnten morgen Rechte haben ähnlich wie, sa- gen wir, künstlerische Meisterwerke sie haben, oder besonders schöne Na- turschutzgebiete. [00:26:42] Es ist also keine einfache Sache. [00:26:44] Wie ich bereits sagte, ist es wichtig, dass die Menschen diese Art von Problemen verstehen und die Politik sollte in der Lage sein, all diese schwierigen Prob- leme ernsthaft zu überdenken und zu bearbeiten. [00:26:55] Wir Wissen- schaftler, Robotiker und Computerleute, sind nicht allein dazu in der Lage, diese Art von Entscheidung zu treffen. [00:27:03] Und das bedeutet, dass hier die politische Ebene gefragt ist. [00:27:08]

(18)

Karsten Wendland: Antonio, lassen Sie uns mal etwas weiter in die Zukunft schauen, vielleicht weniger furchtsam, sondern mit einem etwas pragmati- scherem Blick. [00:27:16] Hierzu die dritte Frage an Sie von Armin Grund- wald. [00:27:19]

Armin Grunwald: Die Welt wird sich stark ändern, die ändert sich schon seit langer Zeit ziemlich schnell. [00:27:24] Die wird sich mit autonomen Robotern, mit selbstbewusster Technik weiterhin sehr stark verändern. [00:27:32] Wenn sich Technik ändert, ändern wir Menschen uns auch, wir müssen uns auch ändern. [00:27:37] Was müssen wir lernen, worauf sollen wir uns einstellen, wie können wir uns vorbereiten? [00:27:43] Welche neuen Kompetenzen brauchen wir in unserem Alltag, in der Arbeitswelt, im Gerichtswesen, wo auch immer, wenn wir auf einmal Gegenüber haben, technische Gegenüber haben, die nicht mehr nur Objekte alten Typs sind, sondern so ein bisschen Subjektstatus bekommen? [00:28:02]

Antonio Chella: Ja, wie schon gesagt, sollten Roboter und KI auf der glei- chen Ebene betrachtet werden und bestimmte Arten von Roboter sollten tat- sächlich als eine Art Kunst und Meisterwerk betrachtet werden und dement- sprechend auch geschützt werden. [00:28:18] Darüber hinaus sollte meiner Meinung nach ein deutlich stärkeres Verständnis in der gesamten Gesell- schaft darüber entstehen, wie Computer überhaupt funktionieren und arbei- ten. [00:28:28] Dieses zu unterstützen mit Aktivitäten und Initiativen so wie Ihrer Initiative zum Beispiel mit dieser Art von Podcast, die den Menschen helfen, besser zu verstehen, was die Risiken des Maschinenbewusstseins und der KI-Systeme sind. [00:28:43] Es ist wichtig, dass die Menschen besser verstehen, was die wirklichen Risiken und die wirklichen Chancen in dieser Art von Forschung und Entwicklung sind. [00:28:51] Naja und außerdem soll- ten wir unsere Rolle in der Welt überdenken. [00:28:57] Wir sehen uns als Krone der Schöpfung, als einzige vollkommene Einheit auf der ganzen Welt.

[00:29:03] Aber vielleicht wird es den Zeitpunkt geben, zu dem wir in unserem Kopf zwei ähnliche Arten von Intelligenz tragen. [00:29:10] Vielleicht müssen wir uns sogar damit abfinden, dass wir eines Tages eine andere Art von Intel- ligenz haben. [00:29:16] Meiner Meinung nach ist es entscheidend, wie wir diese Art von Intelligenz aufbauen, die unserer Intelligenz ähnlich sein soll.

[00:29:24] Wir Menschen haben ein Modell für diese Art von Künstlicher In- telligenz und auf der anderen Seite sollte die Künstliche Intelligenz ein Modell

(19)

der Menschlichkeit haben, um für uns nützlich zu sein. [00:29:35] Wissen Sie, das ist so ein bisschen wir der Mann auf dem Mond, ein langer, weit entfernter Wunsch. [00:29:40] Es ist ein Traum, ein Wesen zu schaffen, das uns ähnlich ist, es ist ein alter Traum von uns Menschen. [00:29:47] Wir wollen das haben, wir wollen das bauen, weil wir Menschen eben nun mal so sind. [00:29:52]

Und dieses entwickeln von bewussten Robotern hilft uns, besser zu verste- hen, was es bedeutet, Ich und Du zu sein. [00:30:02] Dies ist meiner Meinung nach das wichtigste beim Studium des Maschinenbewusstseins. [00:30:07]

Was bedeutet das für uns, Mensch zu sein? [00:30:10] Und hierzu benutze ich wirklich gerne Roboter, kognitive Robotik, um über diese Art von For- schung zu verstehen, was der Mensch ist, das menschliche Gehirn, der menschliche Körper, ja, um das Menschsein besser zu verstehen. [00:30:27]

Karsten Wendland: Also bei der Frage nach dem Subjektgehalt von Robo- tern, werden wir letztlich auf uns als Subjekte zurückgeworfen und sind ge- fordert, über uns selbst nachzudenken. [00:30:42] Das ist ja auch mindestens mal ein nützlicher Nebeneffekt. [00:30:45] Wenn wir aber überlegen, was auf uns zukommen könnte, da klang eben auch ein bisschen raus, dass die Krone der Schöpfung weiter wandern könnte. [00:30:54] Worauf sollten wir uns ein- stellen, also werden bewusste KI‘s tatsächlich Gefühle haben? [00:31:00]

Und wenn ja, was wäre denn, wenn diese Systeme empfindungsfähiger wä- ren, als wir Menschen? [00:31:07]

Antonio Chella: Ja, also ich denke schon, dass die bewusste KI eine Art von Gefühlen haben sollte, wenn eine bewusste KI keine Gefühle hat, kann sie nicht wirklich empathisch sein. [00:31:21] Empathie bedeutet hier also, wie gesagt, das bewusste KI-Systeme in der Lage sein sollten, besser zu verste- hen, was es bedeutet, ein Mensch zu sein. [00:31:28] Ein wirklich ethisches System sollte eine Art Einfühlungsvermögen haben und um Einfühlungsver- mögen zu haben, ist es notwendig, eine Art von Gefühl zu haben, vielleicht sogar ganz einfach, Gefühle. [00:31:42] Wir müssen also Maschinen bauen, die Gefühle haben und das ist nicht auf der konzeptionellen Ebene der Turing- maschine, sondern vielleicht mit dem vorhin erwähnten neuromorphen Com- puting, dem Quantencomputing oder den biologischen Rechnern möglich, wie auch immer. [00:31:57] Wenn wir keine Maschine haben, die in der Lage ist, etwas zu fühlen, haben wir das Hauptziel des Bewusstseins verfehlt.

[00:32:04] Und ja, wie werden uns dabei auf Probleme einstellen müssen.

(20)

[00:32:07] Es gibt aus funktionaler Sicht ein paar knifflige funktionale Fragen zu einfachen Problemen des Bewusstseins. [00:32:14] Wir haben es mit den sogenannten harten Problemen des Bewusstseins und mit leichteren Proble- men zu tun. [00:32:21] Ich fühle aber eine große Niederlage in der Philosophie heraufziehen. [00:32:26] Nun, wie gesagt, wir müssen ein Maschinenbe- wusstsein einsetzen, um Gefühle in uns Menschen und in den Maschinen besser zu verstehen. [00:32:34]

Karsten Wendland: Also in diesem Zusammenhang, da sind die Ingenieure ja möglicherweise jetzt die Ratgeber für die Philosophen. [00:32:41] Was wä- ren denn Ihre Empfehlungen an jene Philosophen, die sich mit den Möglich- keiten Künstlicher Intelligenz beschäftigen? [00:32:49]

Antonio Chella: Ich habe zwei Empfehlungen. [00:32:54] Vielleicht helfen sie, die KI und Computertheorien besser zu verstehen. [00:32:58] Ich habe viele Bücher und viele Abhandlungen von Philosophen gelesen, die über KI diskutieren, aber ich habe den Eindruck, dass sie nicht wirklich wissen, was sozusagen der aktuelle Stand des Herzens der KI ist und was die wirklichen Möglichkeiten von Computersystemen sind. [00:33:15] Mein erster Vorschlag besteht also hauptsächlich darin, KI-Systeme zu untersuchen und Grundla- gen der Informatik zu lernen. [00:33:22] Eine Programmiersprache zu erler- nen zum Beispiel. [00:33:25] Und zweitens denke ich, dass KI-Leute auf der anderen Seite kein wirkliches Interesse an philosophischen Debatten über In- telligenz, über Bewusstsein haben. [00:33:36] Sie wollen einfach nur ihre Ar- beit tun, sie wollen ihre Paper veröffentlichen und solche Sachen. [00:33:40]

Es gibt zwei fachliche Welten, die nicht interagieren. [00:33:44] Die Leute ge- hen sozusagen nicht auf die andere Straßenseite rüber. [00:33:47] Und das ist eine meiner Motivationen, das „Journal of AI and Consciousness“ heraus- zugeben. [00:33:53] Ja und von Zeit zu Zeit organisiere ich Workshops, weil ich versuche, Leute aus der Informatik, also Leute aus der KI, und Leute aus der Philosophie zusammenzubringen, damit sie sozusagen mal die Straßen- seite überqueren. [00:34:06] Das klingt nach einem, ja, bescheidenen Anfang.

[00:34:08] Die Idee ist aber, sich einen neuen Beruf vorzustellen, der teils von Philosophen und teils von Informatikern ausgeübt wird. [00:34:16] Ich habe hier an meiner Universität in Palermo ein paar Versuche unternommen, um Philosophiekurse für Informatiker einzuführen und ich muss sagen, dass die Ergebnisse noch nicht so berauschend waren. [00:34:27] Aber wir müssen

(21)

auf diesem Weg weitergehen. [00:34:30] Die Welt der Geisteswissenschaften und insbesondere der Philosophie mit der Welt der Robotik, Informatiker zu- sammenzubringen, um miteinander zu interagieren. [00:34:40] Wir brauchen mehr Gelegenheiten zum Reden und zum Verstehen, um eine Art gemein- same Sprache aufzubauen. [00:34:46] Und wie ich bereits sagte, ist dies eine der Motivationen, die ich mit der Zeitschrift für künstliche Intelligenz zum Be- wusstsein habe. [00:34:54] Als Ort an dem Menschen aus der Philosophie, aus der Informatik und der Kognitionswissenschaft sich gegenseitig verste- hen lernen. [00:35:03]

Karsten Wendland: So we need more interdisciplinary approaches in teach-

ing and also in projects and in practice? [00:35:10]

Antonio Chella: Ja, definitiv, und wir müssen in der Lehre beginnen schon in frühen Semestern. [00:35:18] Wie ich bereits sagte, versuche ich an meiner Universität eine Art von Philosophie-in-Informatik-Kurs einzuführen.

[00:35:24] Wir müssen damit fortfahren und auf der anderen Seite mit einem Kurs für Informatik im Bereich der Philosophie. [00:35:32] Lassen Sie mich hierzu an dieser Stelle noch etwas aus meiner aktuellen Forschung ergänzen:

Derzeit arbeite ich an einem System, das auf die innere Sprache ausgerichtet ist. [00:35:41] Also an einem Roboter, der in der Lage ist, innere Sprache zu erzeugen und die innere Sprache wird vielfach als Bestandteil des Bewusst- seins betrachtet. [00:35:50] Die Entwicklung von Robotern, die diese Art von innerer Sprache haben, ist ein weiterer Schritt auf dem beschriebenen Weg.

[00:35:57] Ich versuche, den Reichtum unserer inneren Bilder nachzustellen.

[00:36:01] Und daher kann man noch viel mehr machen. [00:36:03] Nicht nur von neurowissenschaftlicher Sicht aus, sondern sogar vom philosophischen Standpunkt aus, bis hin zu inneren Zuständen, wie der Flow-Erfahrung zum Beispiel. [00:36:12] Also ich würde mir viel mehr Studien zum Studium des Bewusstseins wünschen. [00:36:18] Nicht nur aus neurowissenschaftlicher Sicht, sondern auch auf anderen Gebieten, wie dem der inneren Sprache zum Beispiel. [00:36:25]

Karsten Wendland: Ich glaube, da haben wir noch alle einiges zu tun.

[00:36:27] Antonio Chella, wir sprachen jetzt in großem Bogen über Roboter, Ethik, Verantwortung und über selbstbewusste Künstliche Intelligenz, die, wenn es sie denn gäbe, mehr wäre, als eine bloße Maschine. [00:36:44] Final question to you: How long will it take? [00:36:48]

(22)

Antonio Chella: Das ist natürlich schwer zu sagen. [00:36:54] Aber ich kann sagen, dass ich angesichts der extremen Fortschritte bei den Computersys- temen nicht überrascht sein werde, wenn wir in einigen, sagen wir, 10, 20 oder 30 Jahren, etwas sehen können, dass mindestens die gleiche Komple- xität, wie das menschliche Gehirn hat. [00:37:10] Das ist nur ein Teil des Be- wusstseins, wir brauchen Substrat, das mindestens die gleiche Komplexität eines menschlichen Gehirns hat. [00:37:18] Und dann geht es natürlich nicht nur um das Substrat, sondern es geht weiter. [00:37:22] Also ich hoffe, dass ich in meinem gegenwärtigen Leben etwas sehen kann, das dem maschinel- len Bewusstsein nahe kommt zumindest. [00:37:33]

Karsten Wendland: Das war Antonio Chella, gestandener Ingenieur, imple- mentierungsstarker Robotiker und seit vielen Jahren Experte für Künstliche Intelligenz und Bewusstsein im schönen Palermo. [00:37:47] Er war zu Gast in unserer Podcast-Serie „Selbstbewusste KI“, Ihrem Forschungspodcast an der Grenze zwischen Mensch und Maschine. [00:37:55] Sind Ihnen beim Zu- hören weitere Frage eingefallen oder geniale Ideen gekommen? [00:38:00]

Wir freuen uns über Ihre Gedanken. [00:38:02] Lassen Sie uns daran teilha- ben und eine Nachricht über unsere Projekt-Website zukommen, die Sie im Internet unter www.ki-bewusstsein.de finden. [00:38:11] Oder schreiben und folgen Sie uns auf Twitter, dort finden Sie unser Projekt unter dem gleichen Namen @KIBewusstsein. [00:38:19] In der nächsten Folge sprechen wir mit Janina Loh, sie ist Philosophin in Wien und Expertin für Neomaterialismus und das spannende Thema Roboterethik. [00:38:30] Die Redaktion und Pro- duktion dieser Folge lagen in den guten Händen von Anna Hörth, die Aufnah- meleitung hatte Tobias Windmüller und Synchronsprecher war Konstantin Kleefoot. [00:38:40] Ich freue mich, wenn es Ihnen gefallen hat und auch diese Folge für Sie ein Beitrag dazu war, KI-Bewusstsein etwas mehr zu ent- mystifizieren. [00:38:50] Bleiben Sie gesund, hoffnungsvoll und gestaltungs- stark. [00:38:53] Das war Ihr und euer Karsten Wendland, bis bald, arri- vederci.

[Ende 00:38:58]

(23)

5 Erwähnte Quellen

Folgende weiterführende Quellen wurden in der Podcast-Folge genannt:

[1] Antonio Chella: Journal of Artificial Intelligence and Consciousness.

https://www.worldscientific.com/worldscinet/jaic

[2] Zitat von Woody Allen: “You rely too much on brain. The brain is the most overrated organ.“

[3] Der US-amerikanische Science-Fiction-Film „Nummer 5 lebt“ (Engli- scher Originaltitel: „Short Circuit“), 1986.

https://www.filmdienst.de/film/details/1752/nummer-5-lebt [4] Artikel bei Zeit.de über den Chat-Bot Tay (vom 24.03.2020).

Artikel bei Zeit.de über den rassistischen Chat-Bot Tay (vom 24.03.2020).

[5] Das Der Science-Fiction-Film 2001: Odyssee im Weltraum (Originalti- tel: 2001: A Space Odyssey) von Stanley Kubrick, 1968.

https://www.warnerbros.com/movies/2001-space-odyssey

[6] Das Science-Fiction-Drama Ex Machina von Alex Garland, 2015.

http://exmachina-movie.com/

[7] Der Schwarzweißfilm Frankenstein von Mary Shelley, 1931.

http://www.frankensteinfilms.com/

[8] Der Stummfilm Der Golem von Paul Wegener und Heinrich Galeen, 1914.

https://www.filmportal.de/film/der-go-

lem_ab77346a527a471eba5a89e47f04768b

(24)

Zur Website des ITAS

6 Kontakt

Prof. Dr. Karsten Wendland karsten.wendland@kit.edu

Karlsruher Institut für Technologie (KIT)

Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) Karlstraße 11

76133 Karlsruhe GERMANY

Referenzen

ÄHNLICHE DOKUMENTE

Auszeichnungen (Auswahl): Barnefi lmfesti- valen Kristiansand 2021: Preis als bester internationaler Kinderfi lm; Deutsches Kinder Medien Festival Goldener Spatz 2021:.. Preis

Ab 19.30 Uhr werden dann im Gemeindehaus der Apostelkirche in der Rohrlachstraße 68 "Kurzfilme über das Leben und den Tod" gezeigt.. Der zweite Kinoabend findet am

Im Mikrokosmos eines Internats veranschaulichen Volker Schlöndorff in seinem Film die Bildung einer autoritären Gesellschaftsstruktur. Unter den Zöglingen herrscht eine Hackordnung,

Das erste, was man beispielsweise sieht, wenn man mit dem Flugzeug landet, ist: Der Flieger fährt an das Gate und das Ding steht noch nicht richtig, da haben alle schon ihre

Stichworte: Alltagsleben in der Migration, Frauen, Gewalt, Good Practice, Identität, Jugendliche, Kriminalität, Rassismus, Geschlechterrolle, Integration

Der Film schildert, wie sich Vincent van Gogh (Kirk Douglas) durch sein exzentrisches Verhalten immer mehr von seiner Familie und seinen Nachbarn entfremdet.. Er verläßt

September 1945 in Österreich von einem ame- rikanischen Soldaten er- schossen („Hörbare Stil- le", Drittes Fernsehen West und Hessen,

Nacht für Nacht zwängt sich Cassie (Carey Mulligan, DRIVE), eine ehemalige Medizinstudentin, in das Outfit einer feuchten Männer- fantasie und räkelt sich – gespielt – komatös