• Keine Ergebnisse gefunden

Daten

Abbildung 61: Faktoren der Risikovermeidung

Faktor: Data Management

„ Die Datenschutzgesetze sollten regelmäßig überprüft und entsprechende Risikovermeidungsmaßnahmen festgelegt werden. Zum Beispiel durch Hinweisgeber-systeme, Anonymisierung und Aggregation, Pseudo-nymisierung sowie durch Schulungen der Mitarbeiter.

„ Eine Datenlandkarte mit Metainformationen der Daten im System kann ersichtlich machen, ob Daten von Änderungen an äußeren Bedingungen betroffen sind oder ob kein Handlungsbedarf besteht.

„ Daten sollten im System nur endgültig gelöscht werden können. Löschungen die Daten nur scheinbar aus der Datenbank entfernen und sie im Hintergrund archivieren bergen ein hohes Risiko. Löschprotokolle verbessern die Nachweisbarkeit von Löschungen.

„ Um eine Big-Data-konforme Verwaltung der Daten umsetzen zu können, muss zu jeder Zeit und mit geringem Aufwand auf die eigenen Daten zugegriffen werden können.

Faktor: Organisation

„ Angemessene Ressourcen, in Form von Budget, Exper-tise, Arbeitskraft und Zeit gewährleisten Compliance.

„ Eine eigene Data-Science-Fachabteilung verbessert die Compliance und reduziert Risiken. Innerhalb dieses Daten-Gremiums sollten Personen aus dem Betriebs-rat und der IT, der Datenschutzbeauftragte und der Chief Data Officer vertreten sein.

„ Es sollten klare Formulierungen bezüglich der gere-gelten Verantwortlichkeiten und Aufgaben sowie der bestehenden Schnittstellen, Zugriffsrechten und Nutzungsregeln existieren.

„ Die Nutzer sollten über die Funktionsweise der im Modell verwendeten Analyse-Algorithmen aufgeklärt werden. Ein allgemeines Verständnis der Anwendung beugt Fehlinterpretationen vor.

„ Erkenntnisse der internen Überwachung sollten regelmäßig kommuniziert werden. Besondere Auf-merksamkeit sollte Hinweisen auf Verstöße zukom-men. Die bestehenden Sanktionen sollten allgemein bekannt sein.

Faktor: Prozess

„ Durch eine externe Überwachung des Prozesses der Datenwertschöpfung können Datenmissbrauch und Ergebnismanipulation vermieden werden.

„ Beständige Begleitung des Projektprozesses durch den Betriebsrat sowie durch einen Datenschutzbeauf-tragten um kontinuierlich die Rechtskonformität zu überprüfen.

„ Strenge Kontrollen und Prüfungen des Ablaufs kön-nen Schwachstellen innerhalb der interkön-nen Prozesse aufdecken. Aus den Ergebnissen der Prüfung können überarbeitete Prozessplanungen aufgesetzt werden.

Faktor: Kunden als Betroffene

„ Der Mehrwert der für einen Anwender entsteht, wel-cher seine Einwilligung zur Nutzung seiner persönli-chen Daten erteilt, sollte deutlich artikuliert werden.

Der Kunde sollte genauestens über Art und Umfang der Verwendung informiert werden. Durch die Dar-stellung des persönlichen Nutzens und die genaue Auskunft, kann das Vertrauen des Kunden durch die Transparenz bestärkt werden.

„ Ohne eine explizite Einwilligung, d.h. ohne Legitima-tion sollte keine Datenspeicherung und -verarbeitung stattfinden.

„ Personenbezogene Daten sollten immer nur zweck-bezogen angefordert und gespeichert werden. Laut dem BDSG gelten zum einen die Zweckbindung und zum anderen die Datensparsamkeit, weshalb niemals mehr Daten als unbedingt notwendig gespeichert werden sollten.

„ 7.5 Methodische Herausforderungen

Big Data verkörpert vor allem eine Kombination vieler ver-schiedener, technologischer Architekturen. Online-Trans-aktionsverarbeitung und Online Analytical Processing verschmelzen. Data Warehouses und BI-Lösungen erhal-ten mit innovativen, dem Bereich Big Data zuzurechnen-den Technologien206 neue Aspekte. Die Herausforderung besteht in der Kombination der bisherigen mit den neuen Technologien und der Überwindung der traditionellen Trennung von transaktionaler und analytischer Online-Verarbeitung. Das erfordert neben den Technik-Investiti-onen vor allem organisatorische Maßnahmen und einen Kulturwandel in den Unternehmen – bis hin zur Neudefi-nition von Rollen und Verantwortlichkeiten. Anwender, die bereits mit Data Warehousing und Business Intelligence vertraut sind, werden auf dem Weg zur Verarbeitung sehr großer Datenmengen zunächst einzelne Analyseaufga-ben durch neue Technologien ersetzen oder ergänzen.

Auch die Kombination von Stapelverarbeitung und Online-Verarbeitung stellt eine Herausforderung dar, die in einem Big-Data-Projekt mit methodischen und techni-schen Maßnahmen adressiert werden muss.

„ 7.6 Technische Herausforderungen

Mit den neuen Technologien ist die Skalierbarkeit der vorhandenen Systeme zu prüfen. Werden große Daten-mengen aggregiert und zunächst im eigenen Rechen-zentrum gespeichert und verarbeitet, erschöpft sich die Skalierbarkeit von Standardsystemen207 im Terabytes- und im Petabytes-Bereich. Oft müssen dann weitere Systeme – mithin weitere Rechenzentren – geplant, installiert und in die Unternehmensprozesse integriert werden. Hier werden Erfahrungen und Lösungen benötigt, die bislang im Supercomputing typisch sind.

Dabei ist wiederum offen, wie weit die bereits genutzten und auch die neu hinzugekommen Software-Lösungen dieses Wachstum mittragen, denn oft ist die Paral-lelisierung innerhalb einzelner Systeme schon eine enorme Herausforderung für die Systembetreuer in den Anwenderunternehmen.

Echtes Disaster-Recovery (Wiederherstellung von Syste-men und Daten im Katastrophenfall) kann im Petabytes-Bereich derzeit nicht mit akzeptablem finanziellen Aufwand realisiert werden. Die Anwender müssen also sehen, dass sie mit den vorhandenen Technologien eine größtmögliche Hochverfügbarkeit, auch gegen logische Fehler, erreichen. Die hardwareseitigen Hochverfügbar-keitsmechanismen (RAID, Snapshot-Technologien) müs-sen durch Datenspiegelungsverfahren ergänzt werden.

Auch die Deduplizierung von Daten spielt eine Rolle. Kon-traproduktiv im Sinne der Erschließung von derzeit noch in den großen Datenmengen verborgenen Informationen wäre es, auf eine Reduzierung der zu administrierenden und zu sichernden Daten zu setzen.

Die Erfahrungen aus dem Supercomputing zeigen auch, dass die Performance des gesamten Systems und auch die Performance zwischen den Servern, innerhalb des SANs und im Weitverkehrsnetz genauer betrachtet werden muss. Es wird künftig eine Herausforderung sein, den Datendurchsatz auch im Petabytes-Bereich nicht nur auf

206 In-Memory Computing, Complex Event Processing, neue Datenbank-Architekturen

207 Storage und Server

der verarbeitenden Seite, sondern auch bei der Ein- und Ausgabe zu erreichen. Dementsprechend muss auch die Leistungsfähigkeit des Netzwerks (LAN und WAN). Dieser Problematik werden sich auch die Telekommunikations-anbieter stellen müssen.

Die Netzwerkauslastung wird auch bei der Verteilung der Berechnungsergebnisse eine Rolle spielen, da viele Big-Data-Szenarien den Nutzen darin ziehen, dass die Berechnungsergebnisse (im Gegensatz bzw. in Erweite-rung zu klassischen Business-Intelligence-Lösungen an größere Benutzergruppen, z. B. ganze Vertriebsmann-schaften verteilt werden).

8 Technologien zur Umsetzung rechtlicher