• Keine Ergebnisse gefunden

Warum die manuelle Programmierung so kostspielig ist

N/A
N/A
Protected

Academic year: 2022

Aktie "Warum die manuelle Programmierung so kostspielig ist"

Copied!
11
0
0

Wird geladen.... (Jetzt Volltext ansehen)

Volltext

(1)

Warum die manuelle Programmierung

so kostspielig ist

Warum intelligentes, automatisiertes und modernes Cloud Data Management heutzutage wichtiger ist als je zuvor

White Paper

(2)

Informationen zu Informatica

Die digitale Transformation verändert unsere Erwartungshaltung hin zu besserem Service und schnellerer Lieferung zu geringeren Kosten. Unternehmen müssen sich neu orientieren, um wettbewerbsfähig zu bleiben. Dabei spielen Daten eine zentrale Rolle.

Als führender Anbieter für Enterprise Cloud Data Management unterstützt Informatica Sie dabei, sich als intelligenter Vorreiter zu etablieren – völlig unabhängig davon, in welcher Branche, Kategorie oder Nische Sie tätig sind. Wir ermöglichen es Ihnen, flexibler zu werden, neue Wachstumsmöglichkeiten wahrzunehmen und Innovationen voranzutreiben. Informatica ist zu 100 % auf Daten fokussiert, und bietet Unternehmen vielseitige Lösungen, um sich am Markt durchzusetzen.

Entdecken Sie jetzt das gesamte Angebot von Informatica, um das komplette Potenzial Ihrer Daten zu nutzen und so die nächste intelligente Innovation auf den Weg zu bringen.

(3)

Inhaltsverzeichnis

Einleitung ... 4 Welche Möglichkeiten die IT hat ... 4 Datenbezogene Herausforderungen in einer hybriden

Multi-Cloud-Welt ... 5 Warum einige Unternehmen immer noch die manuelle

Programmierung nutzen ... 5 4 Nachteile der manuellen Programmierung für die IT ... 6 3 Nachteile der manuellen Programmierung für Unternehmen ... 7 4 Aspekte des intelligenten, automatisierten Cloud Lakehouse

Data Managements ... 8 Informatica Cloud Lakehouse Data Management ... 10 Nutzen Sie einen umfassenden Ansatz für das intelligente,

automatisierte, moderne Cloud Data Management ... 11

Die nächsten Schritte ... 11

(4)

Einleitung

Heutzutage investieren Unternehmen stark in neue cloudbasierte Prozesse, Plattformen und Umgebungen, um Vorteile wie Skalierbarkeit, Elastizität, Agilität und Kosteneffizienz zu erreichen.

Zur selben Zeit wissen Unternehmen, dass Daten die Grundlage für die erfolgreiche digitale Transformation bilden und oberste Priorität haben müssen.

Daher ist es Aufgabe der IT-Abteilung, das Unternehmen dabei zu unterstützen, Cloud-Ready zu werden bzw. einen Cloud-First-Ansatz zu ergreifen, was bei der Modernisierung von Analytics besonders wichtig ist. Unternehmen modernisieren oder richten neue Data Warehouses und Data Lakes in der Cloud ein bzw. so genannte Lakehouses. Eine Cloud Data-Plattform ist eine kombinierte Lösung sowohl für traditionelle als auch für Predictive Analytics.

Doch wenn es um die Verwaltung von Daten geht, um die Amortisierungszeit zu verkürzen und den ROI durch Investitionen in Cloud Data Warehouses, Data Lakes und Lakehouses zu erreichen, kann der Ansatz, den IT-Abteilungen normalerweise zuerst ergreifen, zu weitreichenden Problemen führen, wie höhere Kosten, Verzögerung von Projekten und komplexe Wartung. Dadurch verschwinden leider all die Vorteile, die die Modernisierung von Analytics in der Cloud bietet.

Welche Möglichkeiten die IT hat

Nehmen wir einmal ein Finanzdienstleistungsunternehmen als Beispiel, das seine On-Premise Data Warehouses und seinen Data Lake modernisieren und in ein Cloud Lakehouse konsolidieren möchte, um Customer Experience kontinuierlich zu verbessern. Der erste Schritt besteht darin, Kunden anzusprechen, die online Interesse an Produkten aus anderen Kategorien gezeigt, aber bislang kein solches Produkt gekauft haben. Es gibt jedoch digitale Signale (z. B. Web Clickstreams, Daten aus sozialen Medien, Transaktionen usw.), die es dem Unternehmen ermöglichen,

die Interaktion mit Kunden zu verbessern, um sie zu mehr Käufen zu bewegen.

Dazu muss die IT-Abteilung alle Daten aus On-Premise Datenbanken, Dateien oder CRM- und ERP-Daten in die Cloud transferieren und in der Lage sein, verschiedene Advanced Analytics- und KI-Projekte zu unterstützen. Der scheinbar schnellste Weg zum Erfolg – und der Fehler, den viele IT-Teams machen – ist es, schnell eine selbst entwickelte Lösung zur Cloud-Integration als Prototyp zu nutzen, um den ersten Use Case zu unterstützen. Das Problem dabei ist,

dass Geschäftsinitiativen aus mehreren Projekten und Workstreams bestehen und nicht nur aus einem einmaligen Projekt. Die Lösung lässt sich aber nicht erweitern, um den komplexen Anforderungen an das Data Management gerecht zu werden.

Aufgrund neuer Datentypen (Daten aus sozialen Medien, Sensoren und Protokolldateien, unstrukturiertem Text, Daten von Drittanbietern usw.) haben Unternehmen neue Technologien eingesetzt, wie Frameworks zur Verarbeitung von Open-Source-Daten, wie Apache Spark, um Daten in Cloud-Umgebungen, wie Amazon Web Services, Microsoft Azure oder Google Cloud Platform, zu verarbeiten und zu speichern. Und viele Unternehmen müssen eine komplexe Multi-Cloud- Umgebung verwalten, da sie oftmals Umgebungen mit zwei oder mehr Clouds haben. Dadurch sieht sich die IT-Abteilung mit dem Problem konfrontiert, dass On-Premise-Systeme und Cloud- Anwendungen eventuell nicht integriert werden können, um Daten effektiv und effizient zu nutzen.

„Um all diese [komplexen Daten]

zu verwalten, benötigen wir ein Heer von

Mitarbeitern, die sich mit manueller Programmierung und Tabellen beschäftigen.“

– Director of Enterprise Information Management and Governance,

Gesundheitsdienstleister

4

(5)

Viele IT-Abteilungen sehen sich mit neuartigen Herausforderungen konfrontiert:

• Wie gelingt es der IT, Entscheidungsträgern in Silos befindliche Daten bereitzustellen?

• Sollten sich IT-Manager darauf verlassen, dass interne Entwickler maßgeschneiderte Datenintegrationen entwickeln?

• Sollten IT-Experten den Einsatz von Tools zur Datenintegration in Betracht ziehen?

Dieses White Paper soll IT-Experten als Leitfaden zur Umsetzung einer intelligenten, automatisierten Data Management-Lösung dienen, anstatt Zeit für die Entwicklung eigener, manuell programmierter Lösungen aufzuwenden.

Datenbezogene Herausforderungen in einer hybriden Multi-Cloud-Welt

Da Unternehmen beginnen, Cloud-, Analytics- und KI-Initiativen zu unterstützen, ist die Versuchung groß, ihre internen Entwickler mit der Planung, Entwicklung und Umsetzung einer Lösung zu beauftragen. Doch wenn sie sich für die manuelle Programmierung entscheiden, werden sie schnell auf zahlreiche datenbezogene Hürden treffen. In vielen Fällen sind diese Schwierigkeiten schon von On-Premise Data Warehouses und Data Lakes bekannt:

• Verschiedenartige Daten und Datensilos: Viele Unternehmen haben unterschiedlichste Datentypen, die sich in vielen verschiedenen Systemen und Speichern befinden, sowohl On-Premise als auch in der Cloud. Die Daten sind oft über separate Data Warehouses, Data Lakes, Cloud-Anwendungen oder Ressourcen von Drittanwendern verteilt. Doch immer mehr Daten stammen aus Online-Transak- tionssystemen und -Interaktionen, wie Web- und Maschinenprotokollen, und aus sozialen Medien.

Im Einzelhandel sind Daten beispielsweise über viele verschiedene Systeme verteilt. Dazu zählen POS-Systeme mit Transaktionsdaten aus dem jeweiligen Geschäft, Kundendaten in CRM- und MDM- Systemen, Daten aus sozialen Medien und Web-Clickstream-Daten aus Cloud Data Lakes und mehr.

• Fehlende Data Governance und Datenqualität: Bei verschiedenartigen Daten und Datensilos sind Datenqualität und Data Governance oft nicht einheitlich. Richtlinien (sofern sie vorhanden sind) werden oft nicht einheitlich durchgesetzt. Daten werden einfach in Data Lakes verschoben, so dass Data Swamps entstehen. So ist es schwierig, Daten zu suchen, zu verstehen, zu verwalten und zu schützen und nur wenige Data Scientists haben Zugriff darauf. Ein noch größeres Problem sind Daten von mangelhafter Qualität, die in das Cloud Data Warehouse gelangen, da Hunderte von Business-Analysten und andere Datennutzer diese Daten für die Entscheidungsfindung, Predictive Analytics und KI benötigen.

• Zu viele neue und sich ändernde Technologien: Mit dem steigenden Datenvolumen steigt auch die Anzahl an neuen Anbietern, Technologien und Open-Source-Projekten, die die IT-Landschaft verändern. Es gibt veraltete, neue und sich ändernde Technologien für Speicherung, Computing, Datenbanken, Anwendungen, Analytics, KI und Machine Learning. Entwicklern fällt es oft schwer, immer den Überblick über diese sich ändernde Landschaft zu behalten, so dass es schwierig ist, eine bestimmte Methode zu standardisieren oder zu implementieren.

Warum einige Unternehmen immer noch die manuelle Programmierung nutzen

Einige Unternehmen nutzen die manuelle Programmierung, da sie glauben, dass dies einfacher ist als die Anschaffung eines neuen Tools zur Datenintegration, für das eine gewisse Einarbeitungszeit erforderlich ist. Zudem haben Entwickler manchmal den Eindruck, dass ihre Kreativität für bestimmte Use Cases durch Integrationstools eingeschränkt wird. In den meisten Fällen handelt es sich hierbei um kurzfristige Einwände gegen eine intelligente, automatisierte Lösung. Die manuelle Programmierung kann jedoch für einen schnellen Machbarkeitsnachweis mit geringen Kosten angemessen sein.

„Wenn Sie derjenige sind, der diese Scripts zur Dateneinspeisung direkt programmiert...

werden wir uns stets an Sie wenden.

...Ich möchte auf jeden Fall vermeiden, dass die Entwicklungsteams...

immer auf Abruf stehen müssen, um diesen Ansatz zu unterstützen.

Wir benötigen unbedingt einen Code, der

wiederverwendet und gepflegt werden kann.“

– Director of Data Architecture, Hersteller

(6)

4 Nachteile der manuellen Programmierung für die IT

Die manuelle Programmierung für die Datenintegration kann IT-Abteilungen zunächst als schnelle und kostengünstige Lösung zur Errichtung von Daten-Pipelines erscheinen. Dieser Ansatz beinhaltet jedoch gravierende Nachteile.

Die manuelle Programmierung ist kostspielig

Über einen längeren Zeitraum hinweg ist es sehr kostspielig, die manuelle Programmierung in der Produktionsumgebung einzusetzen und zu warten. Sie muss je nach Einsatzbereich angepasst und optimiert werden. Und da der Hauptteil des IT-Budgets für Betrieb und Wartung ausgegeben wird, steigen die Kosten für die manuelle Programmierung immerzu. Zudem steigen die Kosten, die durch eine eigens entwickelte Lösung entstehen, an, wenn die Komplexität steigt und es zu immer mehr Quellen, Zielen, erweiterten Datenumwandlungen oder der Terminierung von Ereignissen kommt.

Beim dritten oder vierten Durchlauf merkt die IT, dass die Ausgaben für Gehälter rapide steigen, so dass sich die Lösung nicht mehr rechnet. Doch dann ist es zu spät, da bereits große Investitionen getätigt wurden und niemand der Unternehmensführung erklären möchte, dass die Millionen, die in die manuelle Programmierung investiert wurden, stattdessen in die Data Management- Lösung eines anderen Anbieters investiert werden sollten, da diese Lösung Funktionen bietet, die über die grundlegende Dateneinspeisung und Datenintegration hinausgehen.

Die manuelle Programmierung ist nicht zukunftssicher

Aufgrund der schnellen neuen Technologien müssen Entwickler die manuelle Programmierung und den zugrundeliegenden Code jedesmal anpassen, wenn sich die Technologie ändert, ein Upgrade stattfindet oder sich Änderungen an der Verarbeitungs-Engine ergeben. Vor kurzem noch gab es Hadoop, jetzt gibt es Spark und morgen wird es eine andere Version von Spark oder eine noch bessere Technologie geben. Sobald ihre manuell programmierte Datenintegration fertig ist, ist sie bereits veraltet. Zudem ist sie nicht für die heutige Multi-Cloud-Landschaft geeignet.

Die meisten Unternehmen nutzen abteilungs- oder projektübergreifend bzw. aufgrund von Übernahmen oder Zusammenführungen mehrere Clouds.

Die manuelle Programmierung lässt sich nicht automatisieren

Die manuelle Programmierung lässt sich für datenbasierte Unternehmen nicht skalieren und erfüllt die Anforderungen des Unternehmens nicht. IT-Teams erhalten einfach viel zu viele Anfragen zur Errichtung von Pipelines für die Datenintegration. Die einzige Möglichkeit, die Bereitstellung von Datenintegrationen zu erhöhen, ist die Automatisierung – und dafür sind KI und Machine Learning erforderlich.

Bei der manuellen Programmierung erfolgen Entwicklung, Test, Umsetzung und Verwaltung des Quellcodes jedoch manuell. Die Dokumentation ist zeitaufwändig und dauert oft viel zu lange.

Bei der manuellen Programmierung müssen unterschiedliche Tools für die Fehlerbehebung in unterschiedlichen Umgebungen genutzt werden. Der Einsatz dieser Tools muss geplant und überwacht werden, in der Hoffnung, dass die Fehlerbehebung in der Umgebung gut funktioniert.

Zudem lässt sich ein manuell programmierter Prozess oft nur für eine bestimmte Umwandlung nutzen. Um beispielsweise die Datenqualität zu verbessern, muss ein Data Engineer einen Prozess manuell entwickeln, um Codes zu standardisieren oder Adressen für eine bestimmte Region zu bereinigen.

6

(7)

3 Nachteile der manuellen Programmierung für Unternehmen

Die Einschränkungen der manuellen Programmierung sind nicht nur auf die IT beschränkt.

Letztendlich wirkt sich die manuelle Programmierung auch auf die Geschäftsergebnisse aus. In den folgenden drei Kernbereichen kann sich die manuelle Programmierung äußerst negativ auswirken:

Hohe Kosten

Die Kosten für die manuelle Programmierung und Arbeitszeit können sehr hoch sein und es ist schwierig, entsprechende Fachleute zu finden. Diese Kosten steigen mit der Zeit an. Ein einzelnes Projekt mit begrenztem Umfang lässt sich zwar noch schnell und kostengünstig umsetzen, doch bei Erweiterung des Projektrahmens schwinden die Kostenvorteile. Die manuelle Programmierung ist nicht wiederverwendbar. Manchmal schreiben Data Engineers sogar Scripts, ohne zu wissen, dass diese bereits existieren. Fähigkeiten können für zukünftige Projekte nicht wiederverwendet werden. Methoden zur modernen Datenintegration beinhalten beispielsweise Dateneinspeisung mit verschiedenen Latenzen, komplexe ETL-/ELT-Umwandlungen, Streaming, Bereinigung und Parsing von Daten. Mit der manuellen Programmierung lassen sich diese Methoden nur schwer weiterentwickeln und können nicht für neuere Daten oder Projekte verwendet werden. Daher entstehen dem IT-Team hohe Kosten, um Entwickler umzuschulen, vor allem, weil sie die neu gewonnenen Kenntnisse in Zukunft nur begrenzt einsetzen können.

Hohe Entwicklungskosten führen auch zu hohen Wartungskosten. Wenn der Code geändert werden muss, müssen Data Engineers prüfen, welche Auswirkungen die Änderungen haben, Code neu erstellen und ihn auch für Artefakte verwenden, die davon betroffen sind, wie BI-Berichte.

Wenn es bei der Datenverarbeitung zu Fehlern kommt, gestaltet sich die Fehlerbehebung bei einer manuell programmierten Lösung schwierig. Das führt dazu, dass die Entwickler in einer sich ständig ändernden Umgebung an ihren Code gebunden sind.

Hohes Risiko

Aufgrund der ständigen Upgrades der zugrundeliegenden Infrastruktur ist eine komplexe Koordination erforderlich. Bei der manuellen Programmierung erfolgt die Entwicklung langsamer als die Umsetzung von Innovationen. Jedesmal, wenn sich die Datenlandschaft ändert (z. B. Oracle Upgrade, Wechsel von einem On-Premise Teradata Data Warehouse in Amazon Redshift, ein Wechsel von SAP zu Salesforce CRM) müssen Entwickler ihre Arbeit unterbrechen und den Code warten.

Durch diese Abhängigkeiten steigt das allgemeine Risiko, da geschultes Personal rar ist. Je nach den erforderlichen Fähigkeiten müssen Unternehmen viel Geld dafür ausgeben, die richtigen Fachkräfte zu finden und zu schulen, um intern entwickelte Lösungen zu unterstützen. In vielen Regionen ist es schwierig, Entwickler mit manuellen Programmierkenntnissen zu finden, die auch mit den neuesten Technologien vertraut sind, und erfahrene Entwickler sind äußerst gefragt, so dass der Wettbewerb hoch ist.

Die manuelle Programmierung ist keine Lösung auf Enterprise-Niveau

Es hat jahrelang gedauert, bis Entwickler, die die manuelle Programmierung für die Datenintegration bevorzugten, erkannt haben, was für eine wichtige Rolle Datenqualität und Governance dabei spielen, sicherzustellen, dass dem Unternehmen zuverlässige Daten bereitstehen. Das ist heutzutage wichtiger als je zuvor, da immer mehr Unternehmen datenbasiert handeln und KI und Machine Learning eine tragende Rolle spielen. Die manuelle Programmierung bietet einfach nicht den Grad an Datenintegration, Datenqualität und Metadaten-Management, der für Unternehmen erforderlich ist.

(8)

Langsamere Amortisierungszeit

Wenn Unternehmen sich auf eine Handvoll Entwickler verlassen, die für Entwicklung, Implementierung und Wartung eigens erstellter Lösungen zuständig sind, führt dies oftmals zu Verzögerungen. In einigen Fällen verlängert sich die Amortisierungszeit sogar erheblich, so dass Verkaufschancen verloren gehen.

Betrachten wir einmal folgendes Beispiel: Ein großes Versorgungsunternehmen hatte eine Hadoop-Umgebung, die nicht den erwarteten Mehrwert generierte. Es stellte sich heraus, dass der Hauptentwickler trotz sechsmonatiger Suche keine geeigneten Fachkräfte finden konnte, um die erforderlichen Spark-Jobs zu erstellen. Daher hat sich das Unternehmen dazu entschieden, in ein Tool zur Integration von Unternehmensdaten zu investieren, um seine Investitionen zu optimieren und dem Hauptentwickler dabei zu helfen, die angesammelten Anfragen zu bearbeiten.

Durch fehlende Data Governance, Datenqualität und End-to-End-Datentransparenz stehen Unternehmen weniger zuverlässige Daten für die digitale Transformation zur Verfügung.

Fehlen zuverlässige Daten oder Data Governance, werden Unternehmen vorsichtig, Nutzer werden skeptisch und der erwartete geschäftliche Nutzen verzögert sind.

4 Aspekte des intelligenten, automatisierten Cloud Lakehouse Data Managements

Da Unternehmen ihre On-Premise Data Warehouses und Data Lakes in der Cloud konsolidieren, modernisieren oder neu einrichten, ist es heutzutage wichtiger als je zuvor, die Nachteile zu vermeiden, die durch die manuelle Programmierung entstehen können. Insbesondere heutzutage – wo Data Warehouses und Data Lakes durch Lakehouses inklusive Cloud- Agilität und -Skalierbarkeit ersetzt werden – ist es wichtig, auf Metadaten beruhende KI und Automatisierung zu nutzen, um effiziente Daten-Pipelines zu erstellen.

Obwohl die meisten IT-Abteilungen sich nur auf die Datenintegration konzentrieren, ist eine umfassendere Lösung erforderlich, um sämtliche Anforderungen an das Data Management zu erfüllen. Dabei sind folgende Funktionen besonders wichtig:

„[Mit Informatica]

können wir Systemupdates bedarfsabhängig durchführen, ohne manuellen Programmieraufwand, und verschiedene Datenquellen an

unterschiedlichen Orten können miteinander verbunden werden, ohne dass sich das auf Datentypen und Datenformat auswirkt.“

– Senior IT Director, Reiseunternehmen

Hier ein Beispiel, das die Situation verdeutlicht: Ein erfahrener Entwickler eines globalen Pharma-Unternehmens hat ein Framework zur Dateneinspeisung entwickelt, um Daten mithilfe von Sqoop (eine Open-Source-Komponente von Apache Hadoop) in den Data Lake des Unternehmens zu transferieren. Das Framework zur Dateneinspeisung konnte nur von einer einzigen Person gewartet und betrieben werden. Der Entwickler hat irgendwann die Stelle gewechselt und niemand konnte mit dem vorhandenen Framework umgehen. Es konnten keine neuen Daten in den Data Lake transferiert werden, da niemand den Code verstand oder in der Lage war, ihn zu warten. Das Unternehmen hat seinen Fehler erkannt und stattdessen eine Lösung zur Integration von Unternehmensdaten eingesetzt.

8

(9)

Datenqualität

Im heutigen Zeitalter von Cloud Lakehouses reicht eine erstklassige Datenintegration alleine nicht aus. Erstklassige Datenqualität ist genauso wichtig. Mit intelligenten, automatisierten Datenqualitätsfunktionen können Sie sicherstellen, dass Daten bereinigt, standardisiert, zuverlässig und im gesamten Unternehmen konsistent sind. Suchen Sie nach einer Lösung, die folgende Funktionen bietet:

• Data Governance mit integriertem Data Profiling

• Datenqualitätsregeln und automatisierte Erstellung von Regeln

• Wörterbücher zur Verwaltung von Wertelisten

• Prozesse für Bereinigung, Standardisierung, Parsing, Überprüfung und Deduplizierung/Konsolidierung

• Integration mit Ihrer Lösung zur Datenintegration

• Analytics für Datenqualität

• Spark-basierte Verarbeitung in der Cloud Metadaten-Management

Eine unternehmensweite Metadaten-Grundlage ermöglicht intelligente, automatisierte End-to- End-Transparenz und Data Lineage in Ihrer gesamten Umgebung. Durch umfassende Metadaten- Konnektivität über verschiedene Datentypen und Datenquellen hinweg können Sie sicherstellen, dass Sie auf Daten zugreifen können, die sich in heterogenen Transaktionsanwendungen, Data Stores und Systemen, SaaS-Anwendungen und proprietären, veralteten Systemen befinden.

Mit einer einheitlichen Metadaten-Grundlage können Sie intelligente, automatisierte Funktionen für Folgendes nutzen:

• Data Discovery

• End-to-End Data Lineage

• Kennzeichnung von Datenbeständen und Datenpflege

• Verständnis von technischen, geschäftlichen, betrieblichen und nutzungsbasierten Metadaten

• Konnektivität für On-Premise- und Cloud-Datenbanken (Data Warehouses und Data Lakes), Anwendungen, ETL, BI-Tools und mehr

Datenintegration

Eine branchenführende, intelligente, automatisierte Lösung zur Datenintegration ist wichtig, um Cloud Data Warehouses, Data Lakes und Lakehouses zu verwalten. Mithilfe der folgenden Funktionen können Sie Daten-Pipelines schnell und effizient erstellen, um zuverlässige Daten in Ihr Cloud Data Warehouse, Ihren Data Lake und Ihr Lakehouse einzuspeisen:

• Programmierfreie Integration mithilfe von Templates und auf KI-basierenden nächstbesten Umwandlungen

• Masseneinspeisung für Dateien, Datenbanken, geänderte Daten und Streaming

• Pushdown-Optimierung für Datenbanken, Cloud Data Warehouses und PaaS-Lakehouses

• Serverlose und elastische Skalierbarkeit

• Spark-basierte Verarbeitung in der Cloud

• Umfassende und native Konnektivität

• Verarbeitung von Datenströmen

• Nutzung von KI und Machine Learning für Schema-Abweichungen und komplexes Datei-Parsing

• Unterstützung für DataOps und MLOps (Data and Machine Learning Operations)

(10)

Informatica Cloud Lakehouse Data Management

Informatica® Cloud Lakehouse Data Management ist die einzige cloudnative, End-to-End Data Manage- ment-Lösung für Lakehouses, Data Warehouses und Data Lakes auf Enterprise-Niveau in der Cloud.

Die Lösung basiert auf IICS, Informatica Intelligent Cloud ServicesSM, der innovativsten iPaaS-Lösung der Branche speziell für Unternehmen. Informatica Cloud Lakehouse Data Management kombiniert Datenintegration, Datenqualität und Metadaten-Management in einer vollständig automatisierten, cloudnativen Lösung, basierend auf Metadaten-gestützter KI und Machine Learning.

Mit der Lösung lassen sich viele komplexe, datenbezogene Herausforderungen meistern, mit denen sich Unternehmen beim Wechsel in die Cloud konfrontiert sehen. Sie profitieren von folgenden Vorteilen:

• Geringere Gesamtbetriebskosten während der gesamten Software-Entwicklung (Erstellung, Implementierung, Wartung, Betrieb)

• Einsatzbereite Konnektivität für Hunderte von Datenquellen, um die grafische, programmierfreie Integration und integrierte Funktionen für komplexe Umwandlungen zu nutzen

• Beseitigung des Risikos, das von manueller Programmierung und begrenzten Punktlösungen für das Data Management ausgeht, indem Komplexität verborgen und die Lösung im Falle von Daten- und Technologie-Änderungen angepasst werden kann

• Nutzung aller Vorteile, die eine Cloud-Lösung as-a-Service bietet: Skalierbarkeit, Agilität, minimaler Installations- und Setup-Aufwand, automatische Upgrades, hohe Verfügbarkeit und erweiterte Sicherheit

• Kürzere Amortisierungszeit, indem Sie Data Lakes und Data Warehouses dank der auf KI/

ML basierenden Automatisierung schneller in die Cloud migrieren können, da Tausende von manuellen Aufgaben wegfallen

• Sicherstellung, dass Data Analytics-Initiativen im sich ständig ändernden Public Cloud-Ökosystem zukunftssicher sind und Sie in der Multi-Cloud-Umgebung nicht an einen einzigen Anbieter gebunden sind

• Erstellung einer modernen Data Management-Infrastruktur mit umfassenden Funktionen für Datenintegration, Datenqualität und Metadaten-Management

„Mit der Intelligent Data Platform von Informatica können wir Open-Source- Technologie optimal nutzen, um Ausführung und Implementierung zu beschleunigen und zu verbessern. Mit diesem Ansatz können wir unsere Daten auf systematische, wiederholbare und nachhaltige Weise verwalten.“

– Senior Data Engineer, Juristisches Unternehmen

Cloudnative Funktionen, basierend auf KI und Machine Learning

Hierbei handelt es sich um die Grundlage, auf der die oben genannten drei Kernfunktionen aufbauen. Datenintegration, Datenqualität und Metadaten-Management sollten auf KI und Machine Learning basieren, um mit dem steigenden Volumen an Unternehmensdaten umgehen zu können. Suchen Sie nach einer cloudnativen Lösung, die Multi-Cloud-fähig, API- und Microservices-basiert ist und zudem folgende Funktionen bietet:

• Auf KI/ML basierende Automatisierung, wie Empfehlungen zur nächstbesten Umwandlung, Ähnlichkeit von Daten-Pipelines, Warnmeldungen und automatische Feinabstimmung

• Containerisierung

• Serverlose Architektur

• Minimaler Installations- und Setup-Aufwand

• Automatische Upgrades

• Nutzungsbasierte Abrechnung

• Zertifizierte Zuverlässigkeit

• Integrierte und erweiterte Sicherheit für das gesamte Technologie-Stack mit hoher Verfügbarkeit (Plattform, Netzwerk, Infrastruktur)

10

(11)

© Copyright Informatica LLC 2020. Informatica, das Logo von Informatica, und Informatica Intelligent Cloud Services sind Marken oder eingetragene Marken von Informatica LLC in den USA und in anderen Ländern. Die aktuelle Liste mit Marken von Informatica ist hier zu finden: https://www.informatica.com/de/trademarks.html. Alle weiteren Firmen- und Produktbezeichnungen können Handelsnamen oder Marken ihrer jeweiligen Eigentümer sein. Die in diesem Dokument enthaltenen Informationen können sich ohne vorherige Ankündigung ändern und werden „wie gesehen“

IN09_0420_03852

Nutzen Sie einen umfassenden Ansatz für das intelligente, automatisierte, moderne Cloud Data Management

Viele Unternehmen benötigen Daten, um ihre Geschäfte effektiv zu verstehen, zu betreiben und auszubauen, doch die Komplexität dieser Daten stellt ein großes Problem dar. IT-Unternehmen suchen nach einer intelligenten, automatisierten Lösung zum Data Management, um die Kluft zwischen der Bereitstellung On-Premise und in der Cloud zu überbrücken, ohne eine gänzlich neue Lösung erstellen zu müssen, um die Vorteile einer erfolgreichen Implementierung zu nutzen.

Ohne eine einheitliche und umfassende Datenplattform bleibt Unternehmen nichts anderes übrig, als fragmentierte Punktlösungen miteinander zu verbinden, die gar nicht darauf ausgelegt sind, miteinander verknüpft zu werden. Die Integration dieser Systeme ist zeitaufwändig, kostspielig und risikoreich. Zudem kann sie nicht auf Änderungen reagieren. Wenn sich eine Punktlösung ändert, müssen Sie sämtliche Systemintegrationen neu erstellen und testen.

Wenn Sie stattdessen einen Enterprise-Ansatz verfolgen, bedeutet das nicht, dass sie alles auf einmal umsetzen müssen. Einer der Vorteile des intelligenten und automatisierten Data Managements ist es, dass Unternehmen Methoden, Prozesse und Technologien schrittweise umsetzen können, wobei sie mit einem oder zwei Projekten beginnen.

Mithilfe einer Enterprise Data Management-Plattform, die die Produktivität erhöht, kann die IT die Umsetzung erster Projekte beschleunigen, um sofort Business Value zu generieren. Sobald weitere Projekte ausgeführt werden, können vorhandene Ressourcen optimiert und wiederverwendet werden, so dass der Kosten- und Zeitaufwand stark sinkt und dem Unternehmen schnell neue Funktionen bereitgestellt werden können, wobei Konsistenz und Kontrolle verbessert werden.

Mit der branchenführenden, auf Metadaten basierenden Cloud Lakehouse Data Management-Lösung können Sie das Potenzial Ihrer Cloud Data Warehouses und Data Lakes in einer hybriden Multi- Cloud-Umgebung optimal nutzen. Sie profitieren von Effizienzsteigerung und Kosteneinsparungen, können klein beginnen und Ihre Projekte mit branchenführenden Funktionen für Datenintegration, Datenqualität, Data Governance und Metadaten-Management erweitern, die speziell für die Cloud entwickelt wurden und auf einer intelligenten KI-Datenplattform basieren.

Die nächsten Schritte

Testen Sie die intelligente, automatisierte Cloud Lakehouse Data Management-Lösung von Informatica 30 Tage lang kostenlos. Melden Sie sich an, um Informatica Cloud Data IntegrationInformatica Cloud Data Integration 30 Tage lang kostenlos zu testen

30 Tage lang kostenlos zu testen.

Local Headquarters Ingersheimer Str. 10, 70499 Stuttgart Tel: +49 (0) 711 139 84-0 Gebührenfrei in den USA: 1.800.653.3871

Referenzen

ÄHNLICHE DOKUMENTE

Oberseminar I „Datenbanksysteme – Aktuelle

cluster in the new architecture: sending avatar’s state data to the player and game server when a player starts the game; backing up state data from in-memory database and store

We provide a cost model for the quorum construction that jointly considers the load and network distance between sites. The goal of the cost model is to construct the quorums in such

Im Blickpunkt des Workshops standen daher sowohl Technologien und Infrastrukturen für das skalierbare Datenmanagement als auch etablierte und neue Anwendungsbereiche, in denen das

However, with distributed services running on multiple instances and on potentially untrusted nodes, the protection of data and in particular the preservation of privacy has become

The question of how many machines are desirable depends partly on how efficiently their use is organ- ized. A comparatively few machines can do more work than

The challenges of cloud computing data management can be summarized as mas- sively parallel and widely distributed data storage and processing, integration of novel processing

The UFBGKSIZE (generic key size) specifies the number of characters to be considered in a comparison. After the START has been performed, UFBGKSIZE reverts to