• Keine Ergebnisse gefunden

Ethische Normen und Werte

1 Einleitung

2.6 Ethische Normen und Werte

Die Schweizerische Akademie der Technischen Wissenschaften (SATW) hat im Rahmen eines Projekts ethische Normen und Werte herausgearbeitet, von denen Big Data Anwen-dungen betroffen sind. Eines dieser Werte ist der Schutz der Privatsphäre, welches bereits im vorherigen Abschnitt erläutert wurde. Folgend sollen diese identifizierten Normen und Werte vorgestellt werden.

1. Schutz der Privatsphäre

Wie bereits im vorherigen Kapitel aufgezeigt, ist die Frage der Privatsphäre nicht so einfach zu lösen. Nutzer und Kunden sollten so gut wie möglich geschützt werden, jedoch kann nicht jedes Sammeln und Auswerten von Daten ethisch gleichgestellt werden. Durch das Sammeln von Daten können viele Unternehmen, aber auch Kunden profitieren, indem beispielsweise Angebote angepasst und Produkte verbessert werden. Kunden erwarten immer bessere und innovative Produkte, personalisierte Angebote usw. Aus diesem Grund sind Unternehmen auf deren Daten angewiesen. Auch für Fortschritte in der Wissenschaft und in der Forschung (Bsp. Medizin) sind Daten notwendig. Werden Kunden transparent über die Datennutzung aufgeklärt, ist dieser Eingriff in die Privatsphäre gerechtfertigt und stellt keinen Verstoss gegen den Datenschutz dar. Problematisch wird es jedoch, wenn

Daten, auch anonyme, aus verschiedenen Datenquellen kombiniert und analysiert werden, um so Nutzerprofile erstellen zu können und daraus Rückschlüsse zu ziehen (Bsp.

Schwangerschaftsvorhersage). Wegen diesen unterschiedlichen Anwendungen und Rechtfertigungen kann nicht jeder Eingriff in die Privatsphäre ethisch gleichgestellt werden und ist in jedem Einzelfall anders zu bewerten. (SATW, 2016, S. 12f.)

2. Gleichheit und Nichtdiskriminierung

Big Data Algorithmen machen es möglich, Personen aufgrund verschiedener Merkmale zu unterscheiden und individuell zu behandeln, wie z. Bsp. individualisierte Preisgestaltung für das gleiche Angebot. Aufgrund von Merkmalen werden Kunden klassifiziert, was proble-matisch ist, wenn diese nicht wissen, auf welcher Kriterienbasis eine solche Auswertung stattfindet bzw. dass eine solche Auswertung überhaupt stattfindet. Durch diese Klassi-fizierung werden einige Personengruppen privilegiert oder eben diskriminierend behandelt, in dem sie für eine Leistung mehr bezahlen oder ihnen sogar verweigert wird (Bsp. kein Kredit).

Jedoch sind Unternehmen darauf angewiesen, dass sie solche Analysen durchführen können, um ihr Geschäft aufrecht zu erhalten (Bsp. Zahlungsmoral der Kunden einschätzen können, um zu entscheiden, ob ein Kredit finanziert wird oder nicht). Deshalb ist die ethische Diskussion, ob eine solche Selektion rechtens ist oder nicht, auch in diesem Fall nicht eindeutig (ebd., S. 13f).

3. Informationelle Selbstbestimmung

Die informationelle Selbstbestimmung besagt, dass jeder Mensch das Recht hat, selbst über seine persönlichen Daten zu bestimmen. Dementsprechend müsste jeder Nutzer über die Verwendung der Daten aufgeklärt werden und dieser müsste der Verwendung seiner persönlichen Daten für diesen Zweck auch zustimmen. Werden nun Daten aus verschie-denen Quellen kombiniert und analysiert, sowie Daten für eine zweite Verwendung weiter-gegeben bzw. verkauft, ist die informationelle Selbstbestimmung verletzt. Ein Problem besteht ebenfalls dadurch, dass Personen auch manipuliert werden können (z. Bsp. mit zielgerichteter Werbung). Ein Nutzer, der das Erheben der Daten nicht erlaubt, könnte zudem diskriminiert werden, indem er gewisse Dienstleistungen nicht erhält oder mehr dafür bezahlen muss (vgl. Punkt 2). Jedoch, wie bereits in den vorherigen Punkten aufgezeigt, gibt es Unternehmen und Institutionen, welche auf persönliche Daten angewiesen sind und deshalb gerät die informationelle Selbstbestimmung in den Hintergrund. Man muss somit abwägen, was einem wichtiger ist: das Recht auf die informationelle Selbstbestimmung oder die Dienstleistung in Anspruch nehmen zu können. (ebd., S. 14)

4. Kontrolle der eigenen (digitale) Identität

All die Daten, die wir im Netz hinterlassen, ermöglichen es, ein digitales Profil zu erstellen.

Einzeln sind erhobene Daten eher als harmlos zu betrachten, doch mit der Kombination und Korrelation mit Daten aus den verschiedenen Datenquellen können diese etwas über einen Menschen aussagen. Rückschlüsse aufgrund solcher digitalen Identitäten sind problema-tisch, wenn der Nutzer bzw. Kunde von der Datengrundlage nichts weiss und auch nicht ändern kann. Da etwas, was einmal im Netz ist, dort auch bleibt, werden für solche Analysen auch Daten verwendet, welche zu einem früheren Zeitpunkt entstanden sind und nicht mehr der heutigen Verhaltensweise des Nutzers entsprechen. Die informationelle Selbstbestim-mung ist somit nicht mehr möglich. Mittels den digitalen Medien ist es jedoch auch möglich, dass sich Personen anders als in der Realität darstellen, somit können bewusst Informa-tionen preisgegeben bzw. vorenthalten werden, welche Personen in ein besseres Licht rücken und sich somit Vorteile verschaffen. Falls Personen sich im Netz jedoch nur noch so präsentieren, um ihr Verhalten den Erwartungen anzupassen und so auch diese Vorteile zu erhalten, wäre das jedoch ein Problem, da Freiräume entzogen werden. (ebd., S. 14f.)

5. Transparenz

Die Transparenz fordert, dass Personen wissen, welche Daten über sie gesammelt und zu welchem Zweck verarbeitet werden. Wie jedoch bereits geschrieben, ist den Kunden und Nutzern oftmals nicht bekannt, welche Daten über sie gesammelt und ausgewertet werden.

Durch Allgemeine Geschäftsbedingungen holen sich Unternehmen zwar die Einwilligung der Nutzer ein, Daten zu erheben und zu verarbeiten, jedoch sind solche Dokumente für viele nicht verständlich bzw. werden nicht von allen gelesen. Die Handhabung von Daten bei Plattformen und Apps ist ebenfalls unklar. Der ganze Datenzugriff, die Analyse und ob die Daten an Drittunternehmen verkauft werden, wir nicht transparent dargestellt. Das Vorgehen der Datenanalyse, die verwendeten Algorithmen usw., unterliegen gleichzeitig aber auch dem Geschäftsgeheimnis, da diese ja auch vor der Konkurrenz geschützt werden sollen. Wie ein Unternehmen mit dieser Situation umgeht ist eine Herausforderung, denn obwohl das Geschäftsgeheimnis geschützt werden soll, dürfen die Kunden nicht aussen vorgelassen werden. Durch das maschinelle Lernen droht die Transparenz ebenfalls unterzugehen, da selbst die Systementwickler nicht mehr sagen können, auf welcher Basis Entscheidungen getroffen werden. (ebd., S. 15f.)

6. Solidarität

Das Problem bei Big Data Analysen ist, dass es möglich ist, Personen zu segmentieren und benachteiligen: So kann beispielsweise eine Versicherung risikobehaftete Personen vom Versicherungsschutz ausschliessen oder höhere Prämien verlangen. Dies entspricht jedoch

nicht dem Sinn der Solidarität, da die Personen mit ihren Problemen sonst alleine gelassen werden. Das Verursacherprinzip, also ob eine Person für ihre Situation selber verantwortlich ist, ist ein gängiges Kriterium. Durch die Datenbasis mit Big Data ist dies nun einfacher zu identifizieren und somit gewisse Leistungen für Personen zu entziehen bzw. zu verweigern, da die Anspruchslegitimität hinterfragt werden kann. Es ermöglicht jedoch auch, die Personen zu kontrollieren und ihnen gewisse Vorlagen bezüglich des Verhaltens aufzu-zwingen (Bsp. Sensor am Körper tragen), was wiederum das Recht der Selbstbestimmung einschränken würde. Fraglich ist auch, ob durch solche Methoden das Solidaritätsprinzip verschwinden würde. (ebd., S. 16)

7. Kontextuelle Integrität

In unterschiedlichen Situationen kann man eine Verhaltensveränderung bei Menschen erkennen: Im Kreise der Familie gibt man sich offener, im Geschäftsbereich gibt man sich seriös, professionell. Auch in der Datenwelt kann man solche Unterschiede erkennen. In sozialen Bereichen, z. Bsp. in der Medizinforschung, ist man eher bereit persönliche Daten preiszugeben, da man weiss, dass damit Gutes getan wird. Werden diese Daten jedoch in einem anderen Kontext bzw. für einen anderen Zweck weiterverarbeitet, wird die kontextuelle Integrität verletzt. Daten werden weitergegeben bzw. von Data Brokern gesammelt und verkauft, deswegen ist oftmals der Ursprung dieser Daten auch für die Käufer selber nicht ersichtlich. Da sich die moralischen Werte von Menschen je nach Situation verändern und somit auch die Vorstellung der Privatsphäre, kann nicht immer klar festgestellt werden, ob nun eine Verletzung der kontextuellen Integrität stattgefunden hat oder nicht. (ebd., S. 17)

8. Eigentums- und Urheberrecht

Für Big Data Analysen werden erstmals Rohdaten benötigt, welche von Nutzern von verschiedenen Internetpattformen, Apps usw. generiert werden. Da nicht das Unternehmen, welches die Daten später verwertet, diese produziert hat, stellt sich die Frage ob in diesem Fall das Eigentums- und Urheberrecht gilt. Die Frage des Dateneigentums beschäftigt Unternehmen, da es keine klaren Anweisungen und Regelungen gibt. Auch die Entschädi-gung der Datenlieferanten ist eine Frage, die nicht einheitlich geklärt ist. Oftmals wird im Gegenzug für die Daten der Dienst gratis angeboten, so profitieren beide Parteien. Zukünftig können weitere Modelle der Entschädigung ausgearbeitet werden, um Anreize für die Nutzung der Dienstleistung und Bekanntgabe (privater) Daten zu schaffen. (ebd., S. 18) Dieser Abschnitt hat gezeigt, dass nicht nur der Datenschutz und die Privatsphäre Heraus-forderungen für Big Data sind, sondern noch weitere ethische Bedenken zu beachten sind.

Oftmals müssen die Konsequenzen der Datenverwendung und der Profit daraus abgewogen

werden, um feststellen zu können, ob nun ein Verstoss gegen die Privatsphäre stattgefunden hat oder nicht. Viele der obengenannten ethischen Normen und Werte sind miteinander verbunden, da das Eine ohne das Andere nicht gegeben ist (Bsp. Informationelle Selbst-bestimmung ist ohne Transparenz der erhobenen Daten und dessen Zweck nicht gegeben).

Auch können die moralischen und ethischen Werte gemäss Interessengruppen unterschied-lich sein.