• Keine Ergebnisse gefunden

Haftungsfragen der Automatisierung

N/A
N/A
Protected

Academic year: 2022

Aktie "Haftungsfragen der Automatisierung"

Copied!
146
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Haftungsfragen der Automatisierung Anna-Katharina Mendl

13,90 € ISBN 978-3-96163-208-4 www.readbox.net/unipress

HJB16

Haftungsfragen der AutomatisierungAnna-Katharina Mendl

Hagener Juristische Beiträge Band 16

(2)

Anna-Katharina Mendl

Haftungsfragen der Automatisierung

(3)

Hagener Juristische Beiträge

Band 16

(4)

Haftungsfragen der Automatisierung

Anna-Katharina Mendl von

(5)

Impressum

Bibliografische Information der Deutschen Nationalbibliothek Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar.

Die vorliegende Arbeit wurde von Prof. Dr. Sebastian Kubis, LLM. (Illinois) betreut und hat im Sommersemester 2020 als Masterarbeit im Studiengang „Master of Laws“ der Rechts- wissenschaftlichen Fakultät der FernUniversität in Hagen vorgelegen.

Gedruckt mit freundlicher Unterstützung der FernUniversität in Hagen.

1. Auflage 2021 ISSN 2511-0411 ISBN 978-3-96163-208-4 readbox unipress

in der readbox publishing GmbH Rheinische Str. 171

44147 Dortmund

http://www.readbox.net/unipress

(6)

Inhaltsverzeichnis

ABKÜRZUNGSVERZEICHNIS ... IX

A. EINLEITUNG ... 1

I.BEGRIFFSBESTIMMUNG... 2

II.RISIKEN DER AUTOMATISIERUNG ... 7

B. RECHTLICHE AUSEINANDERSETZUNG DE LEGE LATA ... 11

I.HAFTUNGSSUBJEKTE ... 12

1. Automat als Haftungssubjekt ... 12

2. Haftungssubjekte auf Produzentenseite ... 14

3. Haftungssubjekte auf Benutzerseite ... 14

II.HAFTUNG AUF BENUTZERSEITE ... 15

1. Vertragliche Haftung ... 15

a) Zustandekommen des Vertrages unter Einbeziehung von Automaten ... 15

aa) Vorliegen einer Willenserklärung ... 15

bb) Abgabe der Willenserklärung durch Automaten ... 20

cc) Zugang der Willenserklärung durch Automaten ... 21

b) Pflichtverletzung ... 22

aa) Anknüpfung an das Verhalten des Automaten ... 23

bb) Zurechnung des Verhaltens des Automaten an den Benutzer ... 23

cc) Anknüpfung an eigenes Verschulden des Benutzers ... 29

c) Kausalität und Rechtfolgen: Schadensersatz ... 33

d) Zwischenergebnis ... 34

2. Deliktische Verschuldenshaftung ... 35

a) Haftung gemäß § 823 Abs. 1 BGB ... 35

aa) Betroffene Rechtsgüter ... 35

(7)

bb) Kausale Verletzungshandlung ...35

cc) Verschulden und die Zurechnungsfrage ...39

b) Haftung gemäß § 823 Abs. 2 BGB i.V.m. einem Schutzgesetz ...40

c) Haftung für den Verrichtungsgehilfen gemäß § 831 BGB ...41

d) Zwischenergebnis ...44

3. Gefährdungshaftung des Benutzers ...45

III.HAFTUNG AUF PRODUZENTENSEITE ...47

1. Vertragliche Mängelhaftung ...47

a) Schuldverhältnis ...47

b) Sache ...48

c) Mangel ...51

aa) Lückenhafte Dokumentation ...51

bb) Hilfe-Funktion und Fehlerroutinen ...52

cc) Mangelhafte Berücksichtigung von Leistungsanforderungen ...53

dd) Ungewöhnliche Antwortzeitverhalten ...53

ee) Programmierfehler ...54

ff) Hardwarefehler ...54

d) Gefahrübergang und Rechtsfolge ...55

2. Deliktische Haftung auf Produzentenseite ...56

a) Deliktische Produzentenhaftung gemäß § 823 Abs. 1 BGB ...56

aa) Rechtsgutverletzung ...57

bb) Kausale Verletzungshandlung ...59

(1)Verkehrssicherungspflichten allgemein: Sorgfaltsmaßstab ...60

(2)Entwicklungsfehler ...61

(3)Konstruktionsfehler ...62

(4)Fabrikationsfehler ...64

(5)Befundsicherungspflicht ...65

(6)Instruktionspflicht ...67

(8)

(7)Produktbeobachtungspflicht ... 68

cc) Verschulden, Beweislast und Rechtsfolge ... 72

3. Deliktische Haftung gemäß § 823 Abs. 2 i.V.m. ProdSG ... 74

4. Produkthaftung gemäß § 1 Abs. 1 ProdHaftG ... 77

a) Rechtsgutverletzung und geschützte Rechtsgüter ... 78

b) Inverkehrbringen eines fehlerhaften Produkts .... 80

aa) Fehlerhaftes Produkt ... 81

(1)Produkt; insbesondere Software ... 81

(2)Fehler ... 87

c) Kausalität ... 89

d) Haftungsausschluss... 89

e) Beweislast und Rechtsfolge ... 91

5. Ergebnis ... 92

C. LÖSUNGSANSÄTZE DE LEGE FERENDA ... 97

I.ZURECHNUNG IM VERTRAGS- UND DELIKTSRECHT ... 97

II.GEFÄHRDUNGSHAFTUNG UND PFLICHTVERSICHERUNG ... 100

III.ZUSCHREIBUNG EINES STATUS ... 102

1. Zuschreibung von (Teil-)Rechtsfähigkeit ... 103

2. Zuschreibung eines Status als e-Person ... 105

D. CONCLUSIO UND AUSBLICK... 109

LITERATURVERZEICHNIS ... 113

(9)
(10)

Abkürzungsverzeichnis a.A. andere Ansicht

Abs. Absatz

AcP Archiv für die civilistische Praxis AI Artificial Intelligence

Art. Artikel

ApuZ Aus Politik und Zeitgeschichte (Zeitschrift)

BB Betriebs-Berater (Zeitschrift) BeckOK Beck´scher Online-Kommentar

BeckOGK Beck-online. Grosskommentar zum Zivil- recht

BGB Bürgerliches Gesetzbuch BGH Bundesgerichtshof

BGHZ Entscheidungen des Bundesgerichtshofs in Zivilsachen

bzw. beziehungsweise

CCZ Corporate Compliance Zeitschrift CR Computer und Recht (Zeitschrift) DAR Deutsches Autorecht (Zeitschrift) d.h. das heißt

DIN Deutsches Institut für Normung

(11)

DSRITB Deutsche Stiftung für Recht und Informatik Tagungsband DuD Datenschutz und Datensicherheit Einl. Einleitung

EuCML Journal of European Consumer and Market Law

EuZW Europäische Zeitschrift für Wirtschaftsrecht

f. folgende

ff. fortfolgend

FS Festschrift

GG Grundgesetz

GmbH Gesellschaft mit beschränkter Haftung ggf. gegebenenfalls

GRUR-Prax Gewerblicher Rechtsschutz und

Urheberrecht, Praxis im Immaterialgüter- und Wettbewerbsrecht (Zeitschrift) HMD Praxis für Wirtschaftsinformatik

(Zeitschrift) Hrsg. Herausgeber

Hs. Halbsatz

i.S.d. im Sinne des i.V.m. In Verbindung mit

(12)

IEEE Institute of Electronical an Electronic Engeneers

InTeR Zeitschrift zum Innovations- und Technikrecht

IWRZ Zeitschrift für Internationales Wirtschafstrecht

JR Juristische Rundschau (Zeitschrift) JuS Juristische Schulungen (Zeitschrift) JZ Juristenzeitung

Kap. Kapitel

Kennz. Kennzeichen Kfz Kraftfahrzeug KI Künstliche Intelligenz

KI-Zeitschrift German Journal of Artificial Intelligence (Zeitschrift)

LG Landgericht

LR Legal Revolutionary (Zeitschrift) m.w.N. mit weiteren Nachweisen

MDR Monatsschrift für Deutsches Recht MMR Zeitschrift für IT-Recht und Recht der

Digitalisierung (vormals: MultiMedia und Recht)

MüKo Münchner Kommentar

(13)

NJOZ Neue Juritische Online-Zeitschrift NJW Neue Juritische Wochenschrift

(Zeitschrift)

NJW-RR Neue Juritische Wochenschrift- Rechtsprechungs-Report (Zeitschrift)

Nr. Nummer

NZV Neue Zeitschrift für Verkehrsrecht NZA Neue Zeitschrift für Arbeitsrecht OLG Oberlandesgericht

Phi Produkthaftungspflicht international (Zeitschrift)

ProdHaftG Produkthaftungsgesetz ProdHaftRL Produkthaftungsrichtlinie ProdSG Produktsicherheitsgesetz

Rn. Randnummer

S. Satz/Seite

sog. sogenannt/sogenannte(r/s) StGB Strafgesetzbuch

StVG Straßenverkehrsgesetz u.a. unter anderem

VersR Versicherungsrecht (Zeitschrift) vgl. vergleiche

(14)

Vorbem. Vorbemerkung

ZAP Zeitschrift für die Anwaltspraxis z.B. zum Beispiel

ZfPW Zeitschirft für die gesamte Privatrechtswissenschaft

ZHR Zeitschrift für das gesamte Handelsrecht und Wirtschaftsrecht

zit. zitert

ZIP Zeitschrift für Wirtschaftsrecht ZStW Zeitschrift für die gesamte

Strafrechtswissenschaft

ZUM Zeitschrift für Urheber und Medienrecht

(15)
(16)

A. Einleitung

„Wenn nämlich jedes Werkzeug auf Geheiß oder mit eigener Voraus- sicht seine Aufgaben erledigen könnte, wie es von den (Standbildern) des Daidalos und den Dreifüße des Hephästos berichtete, die, wie der Dich- ter sagt, „sich von selbst zur Versammlung der Götter einfinden“ – wenn so die Webschiffchen von allein die Webfäden durcheilten und die Schlag- plättchen Kithara spielten, dann brauchten die (planenden und beauf- sichtigenden) Meister keine Gehilfen und die Herren keine Sklaven“1 Die Automatisierung blickt auf eine lange Geschichte zurück.

Bereits in der Antike beschäftigte sich der Mensch mit dem Gedanken wie er sich seine Arbeit durch Automatisierung er- leichtern könnte.2 Im Laufe der Jahrhunderte kam es immer wieder zu einschneidenden Entwicklungen, die diesen Wunsch voranbrachten. Man denke nur an die Erfindung der Dampfmaschine im 18. Jahrhundert und deren Folgen für die Menschheit.3 Zu Beginn des 20. Jahrhunderts ermöglichte die Einführung des Fließbandes neue Arbeits- und Produktions- formen. Durch die Weiterentwicklung der Kommunikations- und Informationstechnik in den 70er Jahren des letzten Jahr- hunderts war eine weitere Automatisierung der Arbeitsab- läufe möglich. Besonders in der Automobil- und Chip-Her- stellung bewirkte dies eine Entlastung der Arbeitnehmer.

So hat die Menschheit bis heute drei industrielle Revolutionen und deren Weiterentwicklungen durchlebt. Die jetzige vierte industrielle Revolution, die sogenannte Industrie 4.0, führt zu nicht abschätzbaren Erscheinungsformen der Automatisie- rung. Die Industrie 4.0 findet vor allem durch den Einsatz künstlicher Intelligenz, moderner Sensoren und die zentrale

1 Aristoteles, Politik, Buch I, Kap. 4, Rn. 1253b, S. 9.

2 Vgl. Aristoteles, Politik, Buch I, Kap. 4, Rn. 1253b, S. 9.

(17)

und dezentrale Vernetzung einzelner Maschinen statt. So fin- det eine Entwicklung von Systemen, die bei ihrer Aufgaben- erfüllung menschlich gesteuert oder zumindest ständig über- wacht werden, hin zu Systemen statt, die allenfalls noch mit den zu erfüllenden Aufgaben betraut werden müssen. Die Zusammenarbeit modernster Maschinen mit der Internet- technologie (Internet of Things) hat eine neue Entwicklungs- stufe in der Mechanisierung unserer Welt herbeigeführt. Im Wirtschaftsleben werden wir neuartige automatisierte Sys- teme vermehrt im Dienstleistungssektor antreffen, welche uns dort beratend unterstützen und „unliebsame“ oder für den Menschen gefährliche Arbeiten abnehmen können. Me- dizinroboter unterstützen Chirurgen bei komplexen Operati- onen. Pflegeroboter befinden sich in der Entwicklung. Aber nicht nur die Arbeitswelt, sondern auch den privaten Alltag hat die Automatisierung stark verändert. Man denke nur an das Smartphone und die damit verbundenen Möglichkeiten, oder die vielfältigen Assistenzfunktionen eines Autos, aber auch in unserem zu Hause werden die automatisierten Tech- nologien vermehrt Einzug halten und das Wohnen „smarter“

gestalten. Die mit den neuen Technologien verbundenen Möglichkeiten und Chancen sind groß, bergen aber auch Ri- siken.

I. Begriffsbestimmung

Zunächst gilt es Klarheit über einige wichtige Begriffe zu schaffen, denn schon die Abgrenzung und Definition der Grundbegriffe Automatisierung, Autonomie aber auch der Begriff der künstlichen Intelligenz bereiten Schwierigkeiten.

Dies liegt daran, dass diese Begriffe einem ständigen Wandel

(18)

im Bereich von Technik, Gesellschaft und Recht unterliegen und es daher kein einheitliches Begriffsverständnis gibt.4 Nach der etymologischen Betrachtung hat der Begriff der

„Automatisierung“ seine Wurzeln im Griechischen und be- deutet in etwa „selbsttätiges Handeln“.5 Die DIN V 19233 definiert die Automatisierung so, dass durch den Einsatz künstlicher Mittel, der Vorgang selbstständig läuft.6 Er funk- tioniert nach allgemeinem Sprachgebrauch „von selbst“, wo- bei von außen in der Regel nicht erkennbar ist, wodurch der Vorgang gesteuert wird.7 Als Automatisierung kann sowohl ein Arbeitsprozess, also das Automatisieren, als auch dessen Ergebnis, ein automatisiertes Objekt, bezeichnet werden.8 Der Mensch bedient sich der Automatisierung in der Regel als Werkzeug, das ihm eine Bandbreite von Tätigkeiten ab- nimmt, von kleinen Arbeitserleichterungen bis hin zur selbst- ständigen Aufgabenbewältigung.9 Durch den Einsatz „künst- licher Intelligenz“ und deren fortschreitenden Weiterentwick- lung ist es möglich technische Abläufe ganz oder teilweise ohne die Mitwirkung und die Überwachung des Menschen durchzuführen.10 „Künstliche Intelligenz“ (Abkürzung: KI und englisch: Artificial Intelligence)11 als Teilgebiet der Infor- matik12, bezeichnet den Versuch menschliche Intelligenz

4 John, S. 15; Günther, S. 17; Maurer/Gerdes/Lenz/Winner/Maurer, S. 2.

5 Langmann, S. 19.

6 Langmann, S. 19.

7 Kastl, S. 25.

8 Weller, S. 5 ff.

9 Fidler, JuS 1970, 552, 552.

10 Langmann, S. 19; Schulz, S. 44.

11 Lenzen, S. 22; Pieper, InTeR 2018, 9, 9.

12 Pieper, InTeR 2018, 9, 9.

(19)

nachzubilden. Dies wird mit Hilfe von Algorithmen und tech- nischen Verarbeitungsmethoden erreicht.13 Sie kann als Be- schreibung der Automatisierung intelligenten Verhaltens de- finiert werden.14 Ein Teilgebiet der Forschung zur „künstli- chen Intelligenz“ ist das sog. „Machine Learning“, bei der das IT-System mit Hilfe von Produkteigenbeobachtung oder durch „Trial-and-Error“-Verfahren, die in einer typischen Si- tuation passendste Handlungsalternative für die Zukunft er- lernen kann.15 Durch den stetigen Fortschritt der „künstli- chen Intelligenz“ kommt es zu einer anhaltenden und deutli- chen Ausweitung der Automatisierung.16 Trotzdem funktio- nieren diese automatisierten Systeme nach einer eindeutig vom Menschen vorgegebenen Programmierung und führen präzise spezialisierte, sich wiederholende Automatismen aus.17 Entsprechend der Definition „ganz oder teilweise ohne Mitwirkung und Überwachung des Menschen“ werden unter- schiedliche Grade der Automatisierung festgelegt.18 Die Not- wendigkeit höher entwickelte Formen von „künstlicher Intel- ligenz“ einzusetzen, steigt mit zunehmendem Automatisie- rungsgrad. War vor der Einführung der „künstlichen Intelli- genz“ von technischer Automatisierung die Rede, werden heute durch den Einsatz von Algorithmen Vorgänge automa- tisiert, die vorher nicht von selbst abgelaufen sind.19 Die Mit- wirkung des Menschen auf das System nimmt mit steigendem Automatisierungsgrad ab und damit einhergehend ein gewis- ser Kontrollverlust. Die letzte Kontrollinstanz bleibt jedoch

13 Zech, ZfPW 2019, 198, 198.

14 Bräutigam/Küchler, Rn. 30a.

15 Linardatos, in: Looschelders/Michael, S. 4; Ohly, S. 24; Decker, in:

Gless/Seelmann, S. 23, S. 33 ff.; Gaede, in Hilgendorf/Beck, S. 19 f.

16 Schmid, CR 2019, 141, 141.

17 Reusch/Weidner, Rn. 6.

18 Zech, in: Gless/Seelmann, S. 169.

(20)

immer der Mensch. Vielfach diskutiert wird in diesem Zusam- menhang, ob technische Systeme durch den verstärkten Ein- satz von „künstlicher Intelligenz“ zu „autonomen“ Handeln im Stande sind und ob überhaupt von „Intelligenz“ und „au- tonomen“ Handeln gesprochen werden kann. Dies liegt da- ran, dass neben dem Begriff der „künstlichen Intelligenz“, auch der Begriff der „Autonomie“ mit unterschiedlichen Be- deutungen verwendet wird.20 In der Rechts-, Moral- und po- litischen Philosophie bedeutet „Autonomie“, die Betätigung des menschlichen Willens, um einerseits unabhängige Ent- scheidungen zu treffen und andererseits sich selbstgesteckte Ziele durch diese Entscheidungen zu erreichen.21 So ist auch eines der Grundprinzipien des Zivilrechts, dass der Mensch im Rahmen von Recht und Gesetz sein Leben selbstbestimmt gestalten kann. Dies spiegelt sich in Art. 2 Abs. 1 GG22 wie- der, welcher die Handlungsfreiheit des Menschen, nach sei- nem eigenen Willen innerhalb der gesetzlichen Grenzen zu handeln, festlegt.23

Legt man dieses Autonomieverständnis zugrunde, nachdem es auf die Möglichkeit ankommt, den eigenen Willen zu be- folgen, handelt ein Automat auch dann nicht autonom, wenn im Einzelfall nicht vorhersagbar ist, welche Entscheidungen im Falle der Erfüllung der Parameter getroffen werden.24 Ein System wäre nur dann autonom, wenn sein Tun und Lassen einem eigenen Willen folgen würde.25 Vielmehr dienen auch die vermeintlichen autonomen Systeme immer ausschließlich

20 Zech, ZfPW 2019, 198, 199; Christaller, in: Christaller, S. 36.

21 Vgl. Christaller/Wehner, in: Christaller/Wehner, S. 12; Kant, S. 60 f.

22 Maunz/Dürig/Di Fabio, Art. 2 Abs. 1 GG, Rn. 101.

23 Palandt/Ellenberger, Überbl. v. § 104 BGB, Rn. 1.

24 Nürnberger/Bugiel, DuD 2016, 503, 503; Gless/Janal, JR 2016, 561, 561 f;

Lutz, NJW 2015, 119, 119; Wagner, AcP 217 (2017), 707, 708 ff.

25 Maunz/Dürig/Di Fabio, Art. 2 Abs. 1 GG, Rn. 12.

(21)

dazu, Grenzen oder auch Nachteile des menschlichen Ver- haltens auszugleichen, da Menschen diese Systeme für eine bestimmte Aufgabe programmiert haben und diese den Wil- len des Menschen umsetzen sollen.26 Ihre Handlungen füh- ren sie aufgrund ihrer Bauweise und Programmierung aus und sind somit durch den Nutzer oder zumindest durch den Her- steller bestimmt und begrenzt.27 Das System folgt in seinem Tun und Lassen nicht seinem eigenen Willen, sondern den Vorgaben eines Menschen, der darüber entscheidet, ob das künstliche System überhaupt eingesetzt wird.28 Daher soll nicht von autonomen sondern von automatischen Systemen gesprochen werden,29 auch ist es nicht von Belang, ob man von Robotern oder Automaten spricht.30 Diese hochgradig automatisierten Systeme sind höchstens operationell, aber nicht moralisch autonom.

Die Abgrenzung zur moralischen Autonomie bei „lernfähi- gen" Systemen wäre problembehaftet, wenn die künstliche Intelligenz über sogenannte „learning algorithms“ verfügt, sodass sie sich neue, nicht vorab programmierte Fähigkeiten aneignen könnten.31 Hier bestünde die Möglichkeit, dass das System auf eine Art und Weise handelt, also eigenständig Ent- scheidungen trifft, die seine Hersteller und Programmierer nicht mehr nachvollziehen könnten.32 Nach wie vor ist es aber so, dass auch die beste „künstliche Intelligenz“ vom In- tellekt des Menschen und den durch seine Programmierung

26 Gless/Weigend, ZStW 126 (2014), 561, 564.

27 Foerster, ZfPW 2019, 418, 421.

28 Struma, in: Christaller/Wehne, S. 38.

29 Struma, in: Christaller/Wehne, S. 38, Teubner, AcP 218 (2018), 115, 162.

30 In dieser Arbeit werden die Begriffe „Automat“ mit denen des „Roboters“, des „elektronischen Agenten“ und des „Softwareagenten“ gleichbedeutend verwendet.

31 Franke, in: ApuZ 35–36/2016, S. 29.

32 Franke, in: ApuZ 35–36/2016, S. 28.

(22)

gesetzten Grenzen abhängig ist, auch wenn sie heute wesent- lich weiter sind als noch vor etlichen Jahren.33 Es handelt sich um hochkomplexe und anpassungsfähige, aber auch um stör- anfällige Systeme, die aber letztlich immer im Rahmen der Programmierung arbeiten.34

Intelligente Systeme, welche durch die „learning algorithms“

lernfähig sind und eine eigene Entscheidungsfähigkeit oder Willen entwickeln können, stellen derzeit noch eine Zu- kunftsvision dar35 und werden in dieser Arbeit nicht behan- delt.

II. Risiken der Automatisierung

Automatisierte Systeme bieten, wie schon erwähnt, eine Viel- zahl von Einsatzmöglichkeiten, unter anderem in den Berei- chen der Medizin, Finanzen und der Mobilität, in denen Men- schen durch die Automatisierung unterstützt, teilweise oder ganz ersetzt werden.36 Besonders im täglichen Einsatz kön- nen sich eine Vielzahl von Risiken ergeben.

Eines der Risiken, dass durch den Einsatz automatisierter Systeme entstehen kann, ist das Mobilitätsrisiko.37 Es entsteht durch die Körperlichkeit mancher Systeme das Risiko, dass sich Menschen verletzten oder Sachen beschädigt werden.38 Mobile Systeme können sich frei bewegen und haben keinen

33 Pieper, InTeR 2018, 9, 9.

34 Spindler, CR 2015, 766, 766; so ist derzeit nur die Programmierung „schwa- cher KI“ möglich, also KI die eine konkrete Problemlösung zum Gegenstand hat. „starke KI“ dagegen, die ein „Bewusstsein“ oder „Kreativität“ besitzt, ist weiterhin Zukunftsmusik; Searle, S. 417 ff.; Bibel, KI-Zeitschrift 2011, S.

299 ff.; Dengel, KI-Zeitschrift 2011, S. 317 ff.; Jänisch/Schrader/Reck, NVZ 2015, 313, 314; Jourdan/Matschi, NVZ 2015, 26, 27; Pieper/Gehrmann, LR 2019, 123, 128.

35 Pieper/Gehrmann, LR 2019, 123, 128.

36 Hanisch, S. 9; Zech, ZfPW 2019, 198, 205.

37 Zech, in: Gless/Seelmann, S. 173.

38 Schulz, S. 75.

(23)

bestimmten Standort den Menschen meiden oder von dem anderen Gegenständen ferngehalten werden können. Gerade wenn die Systeme Menschen unterstützen sollen und dafür im privaten oder beruflichen Alltag eingebunden werden, ist eine strenge räumliche Abgrenzung des Handlungsraums der Systeme kaum denkbar.39 Hierbei ist zu unterscheiden, ob der Einsatz im öffentlichen Raum stattfindet oder in geschlosse- ner Umgebung. Beim Einsatz innerhalb eines geschlossenen räumlichen Bereichs, fällt die Beherrschung der mit den au- tomatisierten Systemen verbundenen Gefahren leichter, als beim Einsatz in der freien Umwelt. Hier ergeben sich beson- ders Risiken für Dritte.40 Daher kann das Mobilitätsrisiko und damit verbunden die Unterscheidung wo das automatisierte System eingesetzt wird, bei der Bestimmung der Verkehrssi- cherungspflichten eine Rolle spielen.41

Ein weiteres Risiko ergibt sich durch die Vernetzung mit einer Vielzahl von Mess,- aber auch Steuerungsdaten der Umge- bung d.h. anderer Systeme.42 Die Systeme können wegen der sehr komplexen Technik und der vielfältigen internen und ex- ternen Vernetzung fehleranfällig und angreifbar sein,43 und so zu strittigen Kausalverläufen führen.44 Die Vernetzung führt dazu, dass es eine große Menge Beteiligter gibt,45

39 Schulz, S. 75.

40 Zech, in: Gless/Seelmann, S. 174; Hanisch, S. 9 f.

41 Zech, in: Gless/Seelmann, S. 174.

42 Zech, in: Gless/Seelmann, S. 175; Hanisch, S. 9 f.

43 Schulz, S. 75; Schäfer, in: Technology Review 9/2013, S. 95.

44 Gruber, in: Hilgendorf/Günther, S. 145; Horner/Kaulartz, CR 2016, S. 7 ff.;

Zech, in: Gless/Seelmann, S. 175; Zech, ZfPW 2019, 198, 205; Pieper, in:

DSRITB 2016, S. 972.

45 Schulz, S. 77.

(24)

wodurch sich mögliche Probleme bei der Aufklärung von Ge- schehensabläufen ergeben könnten und damit die Rechts- frage der Zurechnung und Verantwortung.46

So kann von den automatisierten Systemen auf Grund der Menge an Informationen, die in einem bestimmten Volumen gespeichert werden, ein Komplexitätsrisiko ausgehen.47 Dieses kann sich durch den Einsatz komplexer Maschinen und durch Fehlfunktionen komplexer Algorithmen (Softwarefeh- ler), unter Umständen auch durch Fehlfunktion komplexer Hardware ergeben oder durch missbräuchliche Schädigung Dritter.48 Dieses Risiko besteht insbesondere dann, wenn au- tomatisierte Systeme mit dem Internet verbunden und alle ge- botenen Möglichkeiten ausgeschöpft werden. So agieren im sogenannten „Internet of Things“ unterschiedlich vernetze Maschinen und Geräte miteinander.49 Auf Grund dieser hö- heren Komplexität wird das Verhalten eines Systems schwe- rer vorhersagbar und damit das Problem der Beweisbarkeit eröffnet.50

Da diese Risiken sowohl Benutzer, als auch Hersteller von automatisierten Produkten betreffen können, machen sie un- terschiedliche Haftungsszenarien und damit verbunden even- tuell Haftungslücken denkbar, deren Bewältigung insbeson- dere die des zivilrechtlichen Haftungsrechts sind.

Ziel dieses Beitrags soll sein, juristische Herausforderungen und mögliche Haftungslücken im Zusammenhang mit den zi- vilrechtlichen Haftungsfragen der Automatisierung de lege

46 Gruber, in: Hilgendorf/Günther, S. 145; Zech, in: Gless/Seelmann, S. 175;

Zech, ZfPW 2019, 198, 205.

47 Zech, in: Gless/Seelmann, S. 167.

48 Calo, in: Maryland Law Review 70 (2011), S. 101, S. 122 ff.: „robots as physical PCs“; zur Komplexität von Computern als Risikoquelle; Baase, S.

405 ff.; Zech, in: Gless/Seelmann, S. 172; Zech, ZfPW 2019, 198, 205.

49 Steege, NZV 2021, 6, 6.

(25)

lata aufzuzeigen, einen eventuellen Änderungsbedarf des gel- tenden Rechtsrahmens zu erkennen und mögliche Lösungs- ansätze der Haftungslücken de lege ferenda darzulegen.

(26)

B. Rechtliche Auseinandersetzung de lege lata

Die Haftungsfrage im Zivilrecht ist wichtig, weil sie maßgeb- lich zur Risikobegrenzung, Verhaltenssteuerung und somit zur Schadensprävention beiträgt, zugleich aber auch die Re- geln für den Schadensausgleich festlegt und so für Rechtsfrie- den im sozialen Zusammenleben sorgt.51 Für die Einführung und den zunehmenden alltäglichen Umgang mit automatisier- ten Systemen sind dies wesentliche Voraussetzungen, um Vertrauen und Akzeptanz für diese neue Technologie zu schaffen.52 Klärungsbedarf besteht vor allem dahingehend, welche rechtlichen Auswirkungen durch den technischen Fortschritt und den zunehmenden Grad an Automatisierung, entstanden sind.53 Die Klärung dieser Problematik ist von In- teresse, da die Verantwortung des Menschen mit steigendem Grad der Automatisierung der Automaten und deren Eigen- ständigkeit abnimmt und damit in den Hintergrund rückt.54 Der Mensch wird sich immer häufiger mit dem Hinweis ent- schuldigen, dass er sich vollständig auf das automatisierte Sys- tem verlassen habe. Es sei schließlich Sinn und Aufgabe von Automaten weitgehend selbstständig zu arbeiten und nicht ständig überwacht zu werden.55 Haftete früher ein Mensch für die von ihm verursachten Schäden, steht hier heute eine Maschine.56 Versagt diese, ist zu klären, wer letztlich für die daraus folgenden Konsequenzen einzustehen hat und wie die Einstandspflicht rechtlich begründet werden kann. So kann

51 Rohde, AcP 201 (2001), 117, 123; Kötz/Wagner, Rn. 57; Hanisch, in: Gün- ther/Hilgendorf, S. 109.

52 Taeger, S. 72.

53 Zech, in: Gless/Seelmann, S. 172 ff.

54 Pieper/Gehrmann, LR 2019, 123, 124.

55 Pieper/Gehrmann, LR 2019, 123, 124.

(27)

im Rahmen der Haftungsfragen der Automatisierung vor al- lem über Ansprüche aus dem Vertrags-, Delikts- und dem Produkthaftungsgesetz nachgedacht werden.

Zunächst ist zu betrachten, wer Haftungssubjekt sein kann und ob auch ein Automat de lege lata als Haftungssubjekt zur Verantwortung gezogen werden könnte.

I. Haftungssubjekte

1. Automat als Haftungssubjekt

Ob ein Automat als Haftungssubjekt in Betracht kommt, setzt voraus, dass dieser als eigene Rechtspersönlichkeit aner- kannt wird und ein Haftungssubstrat besteht.57 Im Zivilrecht bemisst sich die Frage, bei wem dies möglich ist, nach der Rechtsfähigkeit. Rechtsfähig ist, wer Träger von Rechten und Pflichten sein kann.58 Dies trifft insbesondere auf Menschen zu, deren Rechtfähigkeit in § 1 BGB geregelt ist und mit ihrer Geburt beginnt. Der Mensch bekommt die Rechtsfähigkeit allerdings nicht erst durch diese Vorschrift verliehen, sie ist vielmehr Teil der Menschenwürdegarantie gemäß Art. 1 Abs. 1 GG.59 Durch die Garantie der Menschenwürde erhält jeder Mensch einen sozialen Wert- und Achtungsan- spruch, der unabhängig von seiner sozialen Herkunft, seinen Eigenschaften und Leistungen und seiner geistigen oder kör- perlichen Verfassung ist.60 Die Menschenwürde ist also nicht abhängig davon wie vernünftig der Mensch handelt, von ei- nem „Selbstbewusstsein“, Selbstreflexion oder ob er in der

57 Schulz, S. 89.

58 MüKo/Spickhoff, § 1 BGB, Rn. 6.

59 MüKo/Spickhoff, § 1 BGB, Rn. 13; Maunz/Düring/Herdegen, Art. 1. Abs. 1 GG, Rn. 19 f.; Schulz, S. 91.

60 BVerfG, Beschluss des Ersten Senats vom 20.10.1992, Az.: 1 BvR 698/89, Rn. 113, BVerfGE 87, 209, 228; Jarass/Pieroth/Jarass, Art. 1 GG, Rn. 6.

(28)

Lage ist die Umwelt vollumfänglich wahrzunehmen und zu interagieren.61 Die Menschenwürde schützt damit grundle- gend die menschliche Persönlichkeit, dazu gehören der Schutz der Individualität, der Identität und der Integrität.62 Automaten sind technische Systeme und mithin nicht Teil der Menschenwürdegarantie, da die „Würde“ des Systems nicht mit der des Menschen zu vergleichen ist.63

Darüber hinaus hat der Gesetzgeber aber die Möglichkeit, Rechtsfähigkeit auch in Bezug auf andere „Personen“ durch Gesetz zu regeln. Das deutsche Recht kennt nicht nur die na- türliche Person als Rechtssubjekt, vielmehr können auch ju- ristische Personen Träger von Rechten und Pflichten sein (§§ 21 ff. BGB, Art. 19 Abs. 3 GG).64 Juristische Personen sind solche zweckgebundenen Organisationen, denen die Rechtsordnung Rechtsfähigkeit zuerkennt.65 Typischerweise handelt es sich dabei um Zusammenschlüsse von Personen.

Hierbei handelt es sich jedoch nicht um ein konstitutives Merkmal. Eine GmbH kann z.B. auch nur einen einzigen Ge- sellschafter haben.66 Juristische Personen haben ein eigenes Vermögen, sie stellen insbesondere Haftungseinheiten dar und sie sind unabhängig vom Wechsel ihrer Mitglieder.67 Spe- ziell juristische Personen sind mit einer eigenen Identität aus- gestattet.68 Sie handeln durch ihre Organe und entstehen durch Eintragung in das Handelsregister.

Die Rechtsfähigkeit der Automaten kann weder Art. 1 Abs. 1 GG noch dem sonstigen Recht entnommen

61 Gitter, S. 167.

62 Dreier/Dreier, Art. 1 I GG, Rn. 60.

63 Gitter, S. 167.

64 Schulz, S. 89.

65 MüKo/Leuschner, Vorab. zu §§ 21 ff. BGB, Rn. 1.

66 Sorge, S. 35.

67 Staudinger/Schwennicke, Einl. zu §§ 21 ff. BGB, Rn. 8.

(29)

werden. De lege lata besitzt der Automat keine Rechtspersön- lichkeit und kann bis dato nicht als Haftungssubjekt in An- spruch genommen werden.

Da der Automat als Haftungssubjekt entfällt, gilt es andere mögliche Haftungssubjekte zu betrachten, welche für den Schaden durch Einsatz von Automaten zur Verantwortung gezogen werden könnten.

2. Haftungssubjekte auf Produzentenseite

Auf Produzentenseite können Hersteller, Programmierer, Fabrikanten und in Anlehnung an § 4 ProdHaftG auch Im- porteure und Händler als Haftungssubjekte durch das Inver- kehrbringen von Automaten angesehen werden.69 Gegen diese können Ansprüche über die verschuldensunabhängige Gefährdungshaftung nach § 1 ProdHaftG bestehen und auch die verschuldensabhängige Abwicklung über §§ 823 ff. BGB nach den Grundsätzen der Produzentenhaftung.70 Ansprü- che des Käufers gegen den Verkäufer bzw. Hersteller ergeben sich meist nur, soweit vertragliche Beziehungen bestehen.71 3. Haftungssubjekte auf Benutzerseite

Ein Einsatz von Automaten auf Benutzerseite kann sowohl im privaten, als auch im unternehmerischen Bereich erfolgen.

Hier kommt vor allem eine Haftung des Benutzers für Auto- matenversagen aus Vertrags- und Deliktsrecht gemäß

§ 823 ff. BGB in Betracht. Aber auch ein Haftungsanspruch aus Gefährdungshaftung soll berücksichtigt werden.

69 Zech, in: Gless/Seelmann, S. 177.

70 Kötz/Wagner, Rn. 606 f.

(30)

II. Haftung auf Benutzerseite 1. Vertragliche Haftung

Wird ein Automat zur Erfüllung einer vertraglich geschulde- ten Leistung eingesetzt, kann ein Anspruch auf Schadenser- satz aus dem § 280 Abs. 1 BGB gegen den Automatenbenut- zer für das Versagen des Automaten in Betracht kommen.

Erste Voraussetzung der Haftung ist das Vorliegen eines Schuldverhältnisses, also der Vertrag. So könnte bereits hier durch den Einsatz eines Automaten der Vertragsschluss zu- stande kommen.72

a) Zustandekommen des Vertrages unter Einbeziehung von Automaten

Grundlage eines Vertrags sind zwei übereinstimmende, aufei- nander bezogene Willenserklärungen, in Form von Angebot und Annahme gemäß §§ 145 ff. BGB.73 Von entscheidender Bedeutung für die vertragliche Haftung gemäß

§ 280 Abs. 1 BGB ist, wer die Willenserklärung abgibt und für und gegen wen sie wirkt. So können sowohl der Vertrags- partner als auch der Haftungsgegner festgestellt werden. Eine Willenserklärung wird durch Abgabe und Zugang wirksam.74 aa) Vorliegen einer Willenserklärung

Eine Willenserklärung wird als Willensäußerung, die auf die Erzielung von Rechtsfolgen gerichtet ist, verstanden.75 Sie be- inhaltet einen subjektiven und einen objektiven Tatbestand.

72 Cornelius, MMR 2002, 353, 357; Clemens, NJW 1985, 1998, 2000; Köhler, AcP 182 (1982), 126 ff.; Möschel, AcP 186 (1986), 187, 192.

73 BGH, Urteil vom 07.11.2001, Az.: VIII ZR 13/01, NJW 2002, 363, 364.

74 MüKo/Einsele, § 130 BGB, Rn. 11; Paulus, JuS 2019, 960.

75 Brox/Walker, Rn. 82; Boecken, Rn. 198; Günther, S. 48.

(31)

Der subjektive Tatbestand besteht aus Handlungswillen, Ge- schäftswillen und Erklärungsbewusstsein.76 Der objektive Tatbestand ist erfüllt, wenn der Erklärende bei der Abgabe der Willenserklärung auch den Willen hatte, die Rechtsfolge herbeizuführen.77 Zur Erfüllung des objektiven Tatbestands genügt jede Äußerung, auch in maschineller Form.78

Während der äußere Eindruck der Willenserklärung vorhan- den ist, bereitet der Willensbildungsprozess eines Automaten angesichts dieser Merkmale erhebliche Probleme.

Der subjektive Tatbestand wird schon durch das Wort „Sub- jekt“ eingegrenzt, da es sich hierbei um ein Subjekt also um eine natürliche oder juristische Person handelt. Nur sie kön- nen gemäß § 1 BGB und §§ 21 ff. BGB de lege lata Rechts- subjekte sein.79

Demzufolge können nur Menschen einen jedenfalls rechtsge- schäftlichen Willen bilden, d.h. geschäftsfähig sein.80 Es man- gelt Automaten an der Fähigkeit Rechtsgeschäfte selbststän- dig vorzunehmen, da sie keinen freien Willen bilden können, sondern nach fest vorgebeben Programmparametern ablau- fen.81

Die logische Folge der fehlenden Rechtsfähigkeit von Auto- maten ist, dass auch Willenserklärungen immer auf ein menschliches Verhalten, sowie einen menschlichen Willen zurückzuführen sein müssen. Es bestehen keine Zweifel, dass eine „computerunterstützte“ Willenserklärung, also eine von

76 Brox/Walker, Rn. 82; Musielak/Hau, Rn. 42 ff., 54 ff.; Hanisch, S. 17; Gün- ther, S. 48.

77 Brox/Walker, Rn. 83; Palandt/Ellenberger, § 133 BGB, Rn. 7.

78 MüKo/Armbrüster, Vor § 116 BGB, Rn. 3.

79 Palandt/Ellenberger, Überblick vor § 1 BGB, Rn. 1; vgl. hierzu auch die Ausführungen auf S. 16 ff.

80 Palandt/Ellenberger, Überblick vor § 1 BGB, Rn. 1.

81 Reusch/Weidner, Rn. 13.

(32)

einem Menschen erzeugte Willenserklärung, die unter Ver- wendung elektronischer Hilfsmittel übermittelt wird, eine menschliche Willenserklärung ist.82 Man bezeichnet diese als elektronische Willenserklärung. Dies besagt jedoch nicht, dass Willenserklärungen stets auch durch einen Menschen er- zeugt und übermittelt bzw. im technischen Sinne des

§ 130 Abs. 1 BGB abgegeben werden müssen.83 Ganz im Gegenteil gibt es heutzutage sogar unzählige Fallgestaltungen, in denen Willenserklärungen durch Software automatisch er- zeugt und ggf. sogar abgegeben werden. Alltägliche Beispiele sind etwa Waren- und Fahrkartenautomaten sowie automati- siert versendete Annahmeerklärungen im Online-Handel o- der zwischenzeitlich sogar selbsttätige Warennachbestellun- gen.84 Im Unterschied zur elektronischen Willenserklärung weist die automatische Willenserklärung einen höheren Grad an Selbstständigkeit auf.85 Die Besonderheit dieser automati- sierten Willenserklärung besteht auf den ersten Blick darin, dass zum Zeitpunkt ihres Zustandekommens und der Abgabe kein aktives menschliches Handeln erfolgte. Es liegt daher zu- nächst keine einem Menschen zurechenbare Willenserklä- rung, sondern ein Maschinenprodukt vor, dem scheinbar ein konkreter menschlicher Wille fehlt.86 Daher ist zu klären, wie dem Nutzer diese Willenserklärung zuzurechnen ist.

82 Köhler, AcP 182 (1982), 126, 133; Cornelius, MMR 2002, 353, 354.

83 Köhler, AcP 182 (1982), 126, 134; Staudinger/Singer, Vorbem. zu §§ 116- 114 BGB, Rn. 57.

84 Köhler, AcP 182 (1982), 126, 134; Staudinger/Singer, Vorbem. zu §§ 116- 144, Rn. 57.

85 Bräutigam/Rücker/Dienst/Falke, 999, 1004, Rn. 7; Taeger/Kremer, S. 15, Rn.

5. 86 Spindler/Schuster/Spindler, Vorbem. zu §§ 116 BGB ff., Rn. 6.

(33)

Die hierfür genutzten Systeme werden vor ihrem Einsatz von Menschen programmiert und können nur in diesem vorgege- benen Rahmen arbeiten, ohne selbst kreativ zu werden. Es findet somit eine klare Begrenzung des Umfangs der Willens- erklärung statt.87 Es handelt sich hierbei um die sogenannte

„Computererklärung“.88 Auch mit der bisher rechtlichen Dogmatik der Willenserklärungen können solche Computer- erklärungen von hochgradig automatisierten Automaten dem Verwender zugerechnet werden. Ebenso wird bei diesen hin- sichtlich des subjektiven Tatbestandes bzw. der voluntativen Elemente der Willenserklärung stets auf den Menschen als Rechtssubjekt hinter dem System abgestellt.89 Der erforderli- che Handlungswille liegt dabei zwar nicht im Zeitpunkt der Erzeugung der Willenserklärung vor, ist aber aufgrund des gestreckten, arbeitsteiligen Erklärungsprozesses bereits in der Inbetriebnahme des Automaten durch den Benutzer zu se- hen.90 Dies gilt auch für das fehlende konkrete Erklärungsbe- wusstseins und den fehlenden konkreten Geschäftswillen des Benutzers zum Zeitpunkt der Generierung der Willenserklä- rung.91 Die eingesetzten Programme beruhen letztlich immer auf dem Willen des menschlichen Benutzers.92 Daher müssen

87 Sosnitza, CR 2016, 764, 765; Bräutigam/Rücker/Dienst/Falke, 999, 1003, Rn. 7.

88 Taeger/Kremer, S. 15, Rn. 5.

89 Spindler/Schuster/Spindler, Vorbem. zu §§ 116 BGB ff., Rn. 6.

90 Bräutigam/Rücker/Dienst/Falke, 999, 1007, Rn. 17 f.; Hoeren/Sie- ber/Holznagel/Kitz, Teil 13, Rn. 15.

91 Hoeren/Sieber/Holznagel/Kitz, Teil 13, Rn. 15.

92 Sorge, S. 26.

(34)

der generell vorhandene Wille93 und das allgemeine Erklä- rungsbewusstsein94 des Benutzers, sich die Willenserklärun- gen zurechnen zu lassen, ausreichen.95 Die Computererklä- rung ist daher als vollwirksame Willenserklärung anerkannt, da sie dem Benutzer des Computerprogramms auf die aufge- zeigte Art und Weise zugerechnet werden kann.

Sollte es zu einer fehlerhaften automatisierten Willenserklä- rung kommen, muss sich der Benutzer auch diese zurechnen lassen.96 Durch die bewusste Entscheidung den Automaten einzusetzen und freiwillig die Vorteile zu nutzen, begründet sich ein Rechtsschein für welchen der Benutzer verantwort- lich ist.97

Auch die Willenserklärung durch Nutzung unbefugter Dritte könnte dem Nutzer zugerechnet werden, wenn er vorsätzlich oder fahrlässig handelt. Fahrlässig handelt er dann, wenn der Inhaber seinen Account nicht hinreichend vor dem Zugriff unbefugter Dritter schützt.98

Regelmäßig stellt ein Vertragsangebot eine empfangsbedürf- tige Willenserklärung dar.99 Voraussetzung für die Wirksam- keit einer unter Einsatz von Automaten zustande gekomme- nen Computererklärung unter Abwesenden gemäß

§ 130 Abs. 1 BGB ist die Abgabe sowie der Zugang der Er- klärung.100

93 Sosnitza, CR 2016, 764, 767; Hoeren/Sieber/Holznagel/Kitz, Teil 13, Rn.

15. 94 Hoeren/Sieber/Holznagel/Kitz, Teil 13, Rn. 15.

95 Spindler/Schuster/Spindler, §§ 116 BGB ff., Rn. 6.

96 Hoeren/Sieber/Holznagel/Kitz, Teil 13, Rn. 14 f.; Sester/Nitschke, CR 2004, 548, 550 f.

97 Sosnitza, CR 2016, 764, 767.

98 AG Mitte, Urteil vom 28.07.2008, Az.: 12 C 52/08, MMR 2008, 696, 697.

99 Zum Begriff Staudinger/Singer/Benedict, § 130 BGB, Rn. 9; Soergel/Hefer- mehl, § 130 BGB, Rn. 1; MüKo/Einsele, § 130 BGB, Rn. 1.

100 Härting, Rn. 403.

(35)

bb) Abgabe der Willenserklärung durch Automaten Eine Willenserklärung gilt nach der herrschenden Empfangs- theorie101 dann als abgegeben, wenn sie wissentlich und wil- lentlich derart in den Rechtskreis des Empfängers entsandt wird, dass unter gewöhnlichen Umständen mit ihrem Zugang zu rechnen ist.102

Beim Einsatz automatisierter Systeme ist der Erklärende nach Vornahme der Vorbereitungshandlungen weder an der Er- stellung noch an der Übermittlung der konkreten Willenser- klärung beteiligt.103 Die Willenserklärung mit ihrem endgülti- gen Inhalt wird bei Nutzung eines automatisierten Systems erst generiert, wenn durch bestimmte vordefinierte Bedin- gungen ein Automatismus ausgelöst und die Erklärung durch Abgabe des elektronische Signals abgeschickt wird.104 Der Erklärende erteilt bei Verwendung automatisierter Systeme keinen konkreten Absendebefehl der Computererklärung.105 Die Abgabe der Erklärung könnte bereits durch die Inbe- triebnahme des automatisierten Systems durch den Benutzer gesehen werden, da der Benutzer zu diesem Zeitpunkt bereits persönlich alles getan hat, was zu tun ist, um die Erklärung auf den Weg zu ihrem Empfänger zu bringen.106 Allerdings bedeutet diese Inbetriebnahme des Systems noch keine end- gültige Äußerung des Willens des Benutzers, da er den Betrieb jederzeit einstellen und die Abgabe der Computererklärung

101 MüKo/Einsele, § 130 BGB, Rn. 11, Rn. 29; Soergel/Hafermehl, § 130 BGB, Rn. 8; BeckOK-BGB/Wendtland, § 130 BGB, Rn. 10; BeckOGK/Gomille,

§130 BGB, Rn. 9.4; Weiler, JuS 2005, 788, 789 ff.

102 Palandt/Ellenberger, § 130 BGB, Rn. 4, Wolf/Neuner, § 33, Rn. 12.

103 Herold, S. 73.

104 Cornelius, MMR 2002, 353, 354; Reichwald/Pfisterer, CR 2016, 208, 209 f.

105 Vgl. Süßenberger, S. 138.

106 Ähnlich Nitschke, S. 67.

(36)

verhindern könnte.107 Die Abgabe der Willenserklärung im Vorfeld der Erzeugung der Erklärung kommt nicht allein durch Inbetriebnahme des Systems zu Stande.108 In den Rechtsverkehr gelangt die Willenserklärung erst dann, wenn sie elektronisch versandt wird.109 Erst in diesem Moment wird der Geschäftswille des Systembenutzers konkret und manifestiert sich schlussendlich durch das Entsenden in den Empfängerkreis.110

cc) Zugang der Willenserklärung durch Automaten Aufgrund der herrschenden Empfangstheorie111 dürfte es beim Zugang der Willenserklärung kaum Diskussionsbedarf geben, egal wie fortschrittlich das System ist.

Nach der Empfangstheorie geht eine Willenserklärung zu, so- bald sie in den Machtbereich des Empfängers gelangt und un- ter Annahme normaler Umstände damit zu rechnen ist, dass er von ihr Kenntnis erlangen kann.112

In den Machtbereich des Empfängers ist die Willenserklärung dann gelangt, wenn sie eine typischerweise für den Empfang von Willenserklärungen geschaffene Vorrichtung erreicht.113 Der Empfänger hat sich um einen ordnungsgemäßen „Ab- ruf“ zu kümmern, ganz gleich, wie der Empfangsbereich

107 Süßenberger, S. 139

108 Vgl. Nitschke, S. 67 f.

109 Härting, Rn. 403.

110 Vgl. Kuhn, S. 87.

111 Cornelius, MMR 2002, 353, 356; Redeker, Rn. 864; Grappentin, S. 104.

112 BGH, Urteil vom 03.11.1976, Az.: VIII ZR 140/75, NJW 1977, 194;

BGH, Urteil vom 21.01.2004, Az.: XII ZR 214/00, NJW 2004, 1320; BGH, Urteil vom 21.06.2011, Az.: II ZB 15/10, NJW-RR 2011, 1184, 1185, Rn. 15;

Palandt/Ellenberger, § 130 BGB, Rn. 5; Bork, S. 251, Rn. 619; Flume, S. 230 f.;

Herold, S. 76.

113 BeckOK-BGB/Wendtland, § 130 BGB, Rn. 9; Palandt/Ellenberger, § 130 BGB, Rn. 5; Brox/Walker, Rn. 155; Herold, S. 74.

(37)

technisch ausgestaltet ist.114 Deswegen können auch Briefkäs- ten ordnungsgemäße „Empfangsagenten“ sein. Der Empfän- ger muss sich in angemessenen Abständen um ihre Leerung kümmern. Insofern kann es auch keinerlei Unterschied ma- chen, ob ein Automat den Empfang verwaltet und diesen technisch womöglich sogar optimiert.115 Hier bietet das Recht eine interessengerechte Verteilung der Risiken, die aufgrund des technischen Fortschritts (jedenfalls bisher, und wohl auch künftig) keiner ernsthaften Diskussion ausgesetzt sein dürfte.116

Auch ein Vertragsschluss beurteilt sich beim Einsatz automa- tisierter Willenserklärungen ganz normal nach

§§ 145  ff. BGB, und zwar selbst dann, wenn auf beiden Sei- ten automatisierte Willenserklärungen eingesetzt werden.117 b) Pflichtverletzung

Weitere Voraussetzung für die vertragliche Haftung gemäß

§ 280 Abs. 1 BGB ist eine Pflichtverletzung die der Schuldner zu vertreten haben muss. Die Art des Vertrages gibt vor, wel- che Rechtsfolgen durch die Verletzung der im Vertrag festge- legten Pflicht entstehen.118 In praktischer Hinsicht bestehen Schwierigkeiten vor allem darin, nachzuvollziehen, ob das schädigende Ereignis auf den Benutzer des Automaten oder den Automaten selbst zurückzuführen ist.119

114 Bauer, S. 112, Nitschke, S. 72 f.

115 Schulz, S. 119.

116 Pieper, GRUR-Prax 2019, 298, 300.

117 Pieper, GRUR-Prax 2019, 298, 300.

118 Reusch/Weidner, Rn. 50; Horner/Kaulartz, DSRITB 2015, 501, 504.

119 Reusch/Weidner, Rn. 51; Horner/Kaulartz, DSRITB 2015, 501, 506;

Wendt/Oberländer, InTeR 2016, 58 ff.; Kluge/Müller, InTeR 2017, 23, 26.

(38)

aa) Anknüpfung an das Verhalten des Automaten Der erste Ansatzpunkt für das Vorliegen einer Pflichtverlet- zung ist das dem Vertragsschluss nächstliegende Verhalten.

Bestellt der sogenannte „smarte“ Kühlschrank für die nächste Woche statt der tatsächlich benötigten 3 Liter Milch wegen eines Fehlers im System 300 Liter Milch, könnte darin eine Pflichtverletzung des Automaten selbst liegen.120 Hier sind ähnliche Überlegungen wie beim Vertragsschluss anzustellen:

Auch für eine Pflichtverletzung bedarf es einer zurechnungs- fähigen Rechtsperson. Der Automat verfügt jedoch weder über Zurechnungsfähigkeit im Sinne von Einsichtsfähigkeit, noch über eine eigene Rechtspersönlichkeit.121 Eine Pflicht- verletzung des Automaten scheidet somit aus.

bb) Zurechnung des Verhaltens des Automaten an den Benutzer

Da die menschliche Arbeitskraft zunehmend durch Automa- ten ersetzt wird, steht das Rechtssystem vor der Herausforde- rung, wie ein Schuldner für Fehlleistungen von Maschinen einzustehen hat, wenn diese an Stelle von menschlichen Er- füllungsgehilfen treten.

Ein Erfüllungsgehilfe ist ein anderer, der „mit Willen des Schuldners bei der Erfüllung einer Verbindlichkeit“122 als Hilfsperson in dessen Rechtskreis tätig wird.123 Innerhalb ei- nes bestehenden Vertragsverhältnisses regelt § 278 BGB die Zurechnung des Verschuldens, wenn vom Vertragspartner

120 Leyens/Böttcher, JuS 2019, 133 ff.

121 Groß/Gessel, NZA 2016, 990, 995.

122 BGH, Urteil vom 21.04.1954, Az.: VI ZR 55/53, NJW 1954, 1193; BGH, Urteil vom 09.10.1986, Az.: I ZR 138/84, NJW 1987, 1323, 1326; BGH, Ur- teil vom 14.11.2002, Az.: III ZR 131/01, NJW 2003, 348, 349.

123 Palandt/Grüneberg, § 278 BGB, Rn. 7; Looschelder, Rn. 542. Günther, S. 73.

(39)

zur Erfüllung seiner Verbindlichkeit bewusst ein Erfüllungs- gehilfe eingesetzt wurde.124 Folglich handelt es sich um die Zurechnung von Fremd- und nicht Eigenverschulden.125 Im Grundsatz könnte die Definition des Erfüllungsgehilfen auf automatisierte Systeme zutreffen. So könnte dem Benut- zer möglicherwiese ein Fehlverhalten des Automaten gemäß

§ 278 S. 1 BGB zugerechnet werden.126 Jedoch erfordert der Gesetzeswortlaut des § 278 S. 1 BGB das Verschulden einer mit eigener Rechtspersönlichkeit ausgestatteten „Person“, also einer natürlichen oder juristischen Person.127 Eine di- rekte Anwendung des § 278 BGB scheidet aus, da es einem Automaten an der Rechtsfähigkeit und somit auch an der Verschuldensfähigkeit mangelt.128

Da ein Automat keine anerkannte Rechtspersönlichkeit ist, gilt es zu überlegen, ob nicht eine Zurechnung der Handlung des Automaten als Erfüllungsgehilfen des Benutzers gemäß

§ 278 S. 1 BGB in Analogie denkbar wäre.129 Voraussetzun- gen für eine Analogie sind eine planwidrige Regelungslücke und eine vergleichbare Interessenlage.130 Planwidrig ist eine

124 Lüke, S. 40.

125 Palandt/Grüneberg, § 278 BGB, Rn. 40.

126 Hanisch, S. 23; Günther, S. 73.

127 Staudinger/Löwisch/Casper, § 278 BGB, Rn. 5; Schulz, S. 138; Bork, S. 523, Rn. 1324.

128 Schulz, S. 138; Grützmacher, CR 2016, 695, 697

129 Brunner, S. 87 ff.; Wolf, JuS 1989, 899, 901; Wettig, S. 330 ff.; Wieacker, in:

FS Bötticher, S. 283 ff.; Schmidt, AcP 166 (1966), 1, 22 ff.; Köhler, AcP 182 (1982), 126, 167 f.; Müller-Hengstenberger/Kirn, MMR 2014, 307, 310 f.; John, S.

248 f.; Hanisch, S. 23 ff.; Schulz, S. 138 ff.; Günther, S. 75; Bauer, S. 219 ff.; Spiro, S. 209 ff.; Köhler, AcP 182 (1982), 126, 167 f.; Wolf, JuS 1989, 899, 901 f.; Für eine analoge Anwendung der § 278 BGB zugrunde liegende Wertungen; So- ergel/Pfeiffer, § 278 BGB, Rn. 25; a.A. MüKo/Grundmann, § 278 BGB, Rn.

46; Staudinger/Löwisch/Casper, § 278 BGB, Rn. 5; Medicus/Lorenz, Rn. 37; He- rold, S. 136.

130 Schmidt, JuS 2003, 649, 651; Canaris, S. 148 f.

(40)

Lücke dann, wenn eine Regelung nicht nur vermutet, sondern vermisst wird.131

Für die notwendige planwidrige Regelungslücke spricht zum einen, dass der historische Gesetzgeber bei der Schaffung des BGB im Jahr 1900 nicht an einen schuldhaften Pflichtverstoß durch automatisierte Systeme gedacht hatte; daher konnte er kaum eine so große Ausweitung des Anwendungsbereichs se- hen.132 Aus historischer Betrachtung würde eine planwidrige Regelungslücke daher vorliegen.

Zum anderen könnte man auch aus heutiger Sicht eine Lücke annehmen, da es an Vorschriften fehlen könnte, die das Au- tomatenversagen dem Schuldner zurechnen. Der § 278 BGB setzt ein Verschulden des Erfüllungsgehilfen voraus, also ein vorsätzliches oder fahrlässiges Verhalten gemäß § 276 BGB, das es zuzurechnen gilt.133 Die zugrundeliegende Regelungs- absicht des § 278 BGB ist die Schaffung einer Haftung, wel- che die Vorzüge, die der Schuldner durch Einsatz eines ande- ren „Akteurs“ hat zu rechtfertigen.134

Betrachtet man diesen Aspekt kann davon ausgegangen wer- den, dass der Gesetzgeber bei Schaffung des § 278 BGB keine so große Ausweitung des Anwendungsgebiets auf den Einsatz von Automaten gesehen hat.135 Daher kann hier von einer planwidrigen Regelungslücke ausgegangen werden.

131 Canaris, S. 241.

132 Reusch/Weidner, Rn. 55; Günther, in: Gruber/Bung/Ziemann, S. 163; Wolf, JuS 1989, 899, 901; Hanisch, S. 24; Günther, S. 76 f.; in Bezug auf Softwarea- genten Bauer, S. 220; Herold, S. 137.

133 Günther, S. 77.

134 Wolf, JuS 1989, 899, 901; m.w.N. Hanisch, S. 24.

135 Zur Ausdehnung des Anwendungsgebiets: Günther, in: Gruber/Bung/Zie-

(41)

Die Begründung einer vergleichbaren Interessenlage zwi- schen der Haftung für Erfüllungsgehilfen nach dem bisheri- gen, klassischen Verständnis und automatischen Erfüllungs- gehilfen ist jedoch problematischer.

Für eine vergleichbare Interessenlage und damit für eine ana- loge Anwendung des § 278 BGB würde sprechen, dass derje- nige der sich einer Hilfsperson bedient und somit den Vorteil der Arbeitsleistung in Anspruch nimmt, gleichsam die damit verbundenen Nachteile tragen muss, nämlich das Risiko, dass der an seiner Stelle handelnde Gehilfe schuldhaft rechtlich ge- schützte Interessen der Vertragspartners verletzt.136 Darüber hinaus hat der Benutzers die alleinige Einwirkungs- und Herr- schaftsmöglichkeit, so dass der Erfüllungsgehilfe aus diesem Grund dem Geschäfts- und Gefahrenkreis zuzurechnen ist, für den der Geschäftsherr einzustehen hat (sog. Sphärenthe- orie).137 So bedient sich auch der Betreiber eines Automaten dessen Vorteile. Er hat zudem die Einwirkungsmöglichkeiten auf den Automaten. Für die Zurechnung des Verhalten der Automaten könnten daher die gleichen Voraussetzungen gel- ten, welche auch für die „normale“ Gehilfenhaftung spre- chen.138

Würde man eine Analogie des § 278 BGB verneinen, könnte sich der Benutzer bei der Nutzung eines Automaten für den entstandenen Schaden damit entschuldigen, dass er diesen ordnungsgemäß ausgewählt, instruiert und gewartet hat.

Nutzt er statt des Automaten jedoch einen schuldhaft han- delnden Erfüllungsgehilfen wäre der Benutzer haftbar, da er sich das Handeln des Erfüllungsgehilfen gemäß § 278 BGB

136 BGH, Urteil vom 27.06.1985, Az.: VII ZR 23/84, BGHZ 95, 128, 132.

137 BGH, Urteil vom 23.11.1995, Az.: IX ZR 213/94, NJW 1996, 464, 465;

Möschel, AcP 186 (1986), 187, 199 f.

138 Schulz, S. 140.

(42)

ohne Exkulpationsmöglichkeit zurechnen lassen muss.139 Eine unterschiedliche Behandlung der beiden Fälle sei daher nicht gerechtfertigt und eine vergleichbare Interessenlage ge- geben.

Hiergegen wird eingewendet, dass gerade keine gleichwertige Interesselage zu der der Erfüllungsgehilfen vorliegt.140 Be- gründet wird dies damit, dass der automatisierte Erfüllungs- gehilfe nach dem Wortlaut des § 278 BGB schuldhaft han- deln muss.141 Mangels eigener Rechtsfähigkeit, ist dem Auto- maten jedoch die Schuldfähigkeit abzusprechen.142 Überlegt werden könnte in diesem Zusammenhang, ob auch das Han- deln des unzurechnungsfähigen nicht verschuldensfähigen Erfüllungsgehilfen dem Schuldner zuzurechnen ist. Da zum Wortlaut des § 278 BGB jedoch der Verweis auf die

§§827, 828 BGB in § 276 Abs. 1 S. 2 BGB hinzutritt, be- dingt die Haftung gemäß § 278 BGB einen zurechnungsfähig handelnden Gehilfen.143 Einem Automaten kann nicht vor- geworfen werden, er habe etwas verschuldet. Angesichts des personenbezogenen Konzepts des BGB setzt ein Verschul- den ein menschliches Handeln voraus.144 Das Menschen und nicht Automaten Normadressaten sind, bestimmt bereits der

139 Brunner, S. 39 f., S. 99.

140 Schulz, S. 140.

141 Jauernig/Stadler, § 278 BGB, Rn.12; MüKo/Grundmann, § 278 BGB, Rn.

50. 142 Erfüllungsgehilfe kann zwar etwa ein Unternehmen sein, siehe etwa MüKo/Grundmann, § 278 BGB, Rn. 44, allerdings wird auch diesem wiede- rum menschliches Verhalten zugerechnet.

143 Staudinger/Löwisch/Casper, § 278 BGB, Rn. 68; Foerster, ZfpW 2019, 418, 431.

144 Schulz, S.140; MüKo/Grundmann, § 278 BGB, Rn. 44 f.

(43)

Wortlaut des § 278 BGB eindeutig durch die Begriffe „Perso- nen“ und „Verschulden“.145 Nicht denkbar ist aber das schuldhafte Handeln eines Automaten. Verzichtet man auf den Aspekt des schuldhaften Handelns, würde § 278 BGB von einer Verschuldenshaftung hin zu einer Verursachungs- haftung führen.146 Eine solche Ungleichbehandlung ist im Wege der Analogie nicht überbrückbar. Es fehlt daher an der vergleichbaren Interessenlage.

Gegen eine Analogie spricht auch, dass während der

§ 278 BGB eine Haftung für menschliches Verhalten regelt, die analoge Anwendung bei Automaten zu einer Haftung für die Risiken einer Sache führen würde. Im Haftungsrecht wird aber strikt zwischen der Haftung für menschliches Verhalten und der Haftung für die Risiken von Sachen unterschieden.147 Auch die derzeitige gesellschaftliche Akzeptanz hochgradig automatisierter Systeme spricht gegen eine analoge Anwen- dung des § 278 BGB, da diese Systeme noch nicht so weit entwickelt sind, dass sie eine Anerkennung als „Akteure“ mit einer bewussten Verschuldensfähigkeit durch die Gesell- schaft erfahren würden.148 Insbesondere unter Berücksichti- gung des technischen Standes scheint eine vergleichbare In- teressenlage und damit eine analoge Anwendung zurzeit nicht angezeigt und ist im Ergebnis abzulehnen.

145 Brunner, S. 76 ff., S. 97 ff.; Wolf, JuS 198, 899, 901 f,; Soergel/Pfeiffer, § 278 BGB, Rn. 25; Möschel, AcP 186 (1986), 187, 197 ff.; Spiro, S. 209 ff, Schwörbel, S. 93 ff., S. 108; John, S. 249; Schulz, S. 140; Wiebe, S. 188.

146 Lieser, JZ 1971, 759, 761; Köhler, AcP 182 (1982), 126, 168; Ackermann, S.

153.

147 Es soll ein Verwischen der Grenzen von Verschuldens- und Verursa- chungshaftung verhindert werden, siehe hierzu John, S. 249.

148 Günther, in: Gruber/Bung/Ziemann, S. 164; Günther, S. 4.

(44)

cc) Anknüpfung an eigenes Verschulden des Benutzers Da ein Anknüpfungspunkt an das Verhalten des Automaten und eine Zurechnung nicht angezeigt ist, muss untersucht werden, ob ein eigenes Verschulden des Benutzers i.S.d. Ver- treten müssen nach § 276 BGB durch den Einsatz des Auto- maten gegeben ist. Es ist grundsätzlich Vorsatz und Fahrläs- sigkeit zu vertreten, dabei ist ausschließlich ein objektiver Maßstab anzuwenden.149 Vorsatz ist das Wissen und Wollen der Tatbestandsverwirklichung.150 Der Vorsatz ist im Bereich der Automatisierung nicht besonders problembehaftet. Fälle in der Praxis sind zwar denkbar, aber wohl eher selten, da der Benutzer des Automaten in der Regel einen rechtswidrigen Erfolg nicht absichtlich herbeiführen möchte. Besonderes Augenmerk ist auf die Fahrlässigkeit gemäß

§ 276 Abs. 2 BGB zu legen. Fahrlässigkeit bedeutet, dass Au- ßer-Acht-Lassen der im Verkehr erforderlichen Sorgfalt.151 Voraussetzung ist die Erkennbarkeit und Vermeidbarkeit der drohenden Tatbestandsverwirklichung.152 Dabei ist ein ob- jektiver153 Sorgfaltsmaßstab anzuwenden. Entscheidend ist, was in der konkreten Situation von einem durchschnittlichen Angehörigen des Verkehrskreises zu erwarten wäre.154 Dieser Maßstab bestimmt sich normativ.155 Fehlt eine konkrete Normvorgabe, hat eine Interessenabwägung stattzufinden. Je

149 Schlechtriem/Schmidt-Kessel, Rn. 566.

150 Nomos-BGB/Staudinger, § 823 BGB, Rn. 84; Nomos-BGB/Schulze, § 278 BGB, Rn. 6.

151 Deutsch, NJW 1993, 1506, 1507; Günther/Eck, in: Burkamp, S. 88.

152 MüKo/Grundmann, § 276 BGB, Rn. 53; Günther, S. 68.

153 Dies war nicht immer so. Zur Entwicklung des objektiven Maßstabs Eska, S. 1 ff., S. 46; zum objektiven Maßstab: BeckOK-BGB/Lorenz, § 276 BGB, Rn. 20.

154 Günther/Eck, in: Burkamp S. 88; Hanisch, S. 21; Günther, in: Gru- ber/Bung/Ziemann, S. 162, Günther, S. 68.

155 MüKo/Grundmann, § 276 BGB; Rn. 60, Hanisch, S. 22; Günther, S. 68.

(45)

wahrscheinlicher der Schadenseintritt ist, desto eher sind Ver- meidungsmaßnahmen einzuleiten.156 Im Rahmen der auto- matisierten Systeme stellt sich für Systeme mit einem hohen Automatisierungsgrad die Frage nach der Erkennbarkeit157 des Schadenseintritts in tatsächlicher Hinsicht.158 Die Gefahr muss im Zeitpunkt der letzten Handlungsmöglichkeit für den Schädiger erkennbar sein.159 Nur wenn die Erkennbarkeit ge- geben ist, kann überhaupt eine Abwägung von Vermeidbar- keit und Schadensmaß erfolgen.160 Soweit die Erkennbarkeit möglich ist, ist auch das sogenannte Aufgreifkriterium erfüllt, also der Zeitpunkt, ab dem Überlegungen zur Vermeidbarkeit und zum Schadensmaß angestellt werden müssen.161 In die- sem Zusammenhang ist auch die Vorhersehbarkeit der Kau- salität zu beachten.162 Dabei muss der Schädiger den Zusam- menhang der Gefahr mit der Schädigung vorhersehen. Dieser Zusammenhang ist nur in besonderen Situationen ausge- schlossen.163

Der Automatisierungsgrad und der Kenntnisstand des Benut- zers sind ausschlaggebend für die Bewertung der Fahrlässig- keit. Hat ein Angehöriger aus dem Verkehrskreis viel Wissen über den Automaten, ist die Erkennbarkeit für den Benutzer einfacher. Dies hat Einfluss auf die Erkennbarkeit der Gefahr und die Vorhersehbarkeit des Verhaltens des Systems.

156 MüKo/Grundmann, § 276 BGB, Rn. 61.

157 Die Begriffe Erkennbarkeit und Vorhersehbarkeit werden teilweise unter- schiedlich verwendet. Jedoch geht es in der Regel um dasselbe Kriterium, vgl.

etwa MüKo/Grundmann, § 276 BGB, Rn. 68 ff.

158 Gruber, in: Hilgendorf/Günther, S. 125.

159 Günther/Eck, in: Burkamp, S. 88; Günther, S. 68.

160 MüKo/Grundmann, § 276 BGB, Rn. 68.

161 MüKo/Grundmann, § 276 BGB, Rn. 68.

162 MüKo/Grundmann, § 276 BGB, Rn. 70.

163 MüKo/Grundmann, § 276 BGB, Rn. 70.

Referenzen

ÄHNLICHE DOKUMENTE

Mitglied kann jede na- türliche Person, Gesellschaft bürgerlichen Rechts (Zuchtgemeinschaft) oder juristische Person werden. Für die Mitgliedschaft von juristischen Personen,

Kann der Mandant die Herausgabe der Daten an sich selbst verlangen (z. per E-Mail, auf DVD oder USB-Stick) oder kann der Vorberater darauf bestehen, dass die Daten auf den

Zuwendungsempfangende können anerkannte Träger der Jugendhilfe, kirchliche Träger, na- türliche Personen, Vereine, Verbände und Unternehmen sein, die Angebote der Jugendhilfe

1 Der Inhaber eines Signaturschlüssels haftet Drittpersonen für Schäden, die diese erleiden, weil sie sich auf das qualifizierte gültige Zertifikat einer anerkannten Anbieterin

als rechtsfähig, als Träger von Rechten und Pflichten, gilt, unterscheidet das römische Recht wie andere antike Rechtsordnungen grundsätzlich zwischen rechts- und

Stefan Pilz, Ilmenau, Verfassungsrechtliche Grenzen der Privatisierung des Gerichtsvollzieherwesens – Anmerkungen zum Entwurf eines Gesetzes zur Reform des

© Nationales Zentrum Frühe Hilfen (NZFH) und Stiftung Pro Kind Kind und ElternKinderbetreuung /10805 (2. Aufl.).. Ich mache etwas ohne

Alle Menschen (= natürliche Personen) sind von Geburt bis zum Tod rechtsfähig, d. sie können Träger von Rechten und Pflichten sein..