NetApp ONTAP One: Eine All-in-One-Lizenz für alle
NetApp hat mit ONTAP ONE ein geradezu revolutionäres Lizenzierungsmodell erschaffen. Lesen Sie in dieser aktuellen Ausgabe des Datacenter-Newsletters, wie auch Sie Ihre Storage-Lizenzen äußerst einfach erwerben und nutzen können.
Immer mehr Unternehmen beschäftigen sich mit künstlicher Intelligenz. Doch die Anforderungen an die IT-Infrastruktur sind hoch. Wir stellen Ihnen vor, wie Sie mit WEKA als moderner Speicherlösung und Komponenten von Cisco und Intel eine leistungsstarke und einfach zu verwaltende Lösung aufbauen, die Sie sich in unserem Solution Center ansehen können.
Lesen Sie außerdem, wie agiles Auditing dazu beiträgt, interne Auditierungen effizienter und wertschöpfend zu gestalten.
Ein weiteres Thema dieser Ausgabe ist, wie Sie die Migration von Daten und Anwendungen in die Cloud erfolgreich bewerkstelligen – von der Analyse über die Planung bis hin zur Umsetzung.
Unsere aktuelle Back-up-Kolumne zeigt, welcher Aufwand und welcher Nutzen mit einem Isolated Recovery Environment (IRE) verbunden sind, während sich unsere Agile-IT-Kolumne diesmal damit beschäftigt, welche Schritte besonders dazu geeignet sind, mehr Tempo in die Bereitstellung neuer Softwarelösungen zu bringen.
Wie immer freuen wir uns über Ihr Feedback, damit wir die Schwerpunkte aufgreifen können, die für Sie von Interesse sind.
Herzliche Grüße
Markus Kunkel
Group Partner Management
Cisco hat sein Compute-Portfolio grundlegend erneuert. Lernen Sie die Technologien in unserem Solution Center in München hautnah kennen und lassen Sie sich von unseren Expert:innen die Funktionen in der Praxis zeigen!
Weitere InfosComputacenter wurde von der Information Services Group (ISG) in ihrem Bericht "2023 ISG Provider Lens™ Future of Work - Services & Solutions" in Großbritannien und Deutschland als Leader ausgezeichnet.
Weitere InfosNach den vorläufigen Geschäftsergebnissen für das erste Halbjahr 2023 stieg der Umsatz von Computacenter in Deutschland im Jahresvergleich um 18 Prozent, der adjustierte Gewinn vor Steuern um 27,2 Prozent auf 83,6 Millionen Euro.
Weitere InfosDennis Schröder
In der rasanten Welt der Informationstechnologie sind Veränderungen und die Notwendigkeit zur Anpassung unausweichlich, aber nur so können auch Innovation und Fortschritt entstehen. Mit ONTAP One hat nun NetApp die Art und Weise, wie Unternehmen Storage-Lizenzen erwerben und nutzen können, geradezu revolutioniert.
ONTAP One führt die früheren Lizenzpakete „Core“, „Security & Compliance“, „Data Protection“, „Hybrid Cloud“ und „Encryption“ zu einem einzigen umfassenden Paket zusammen. Dieser Schritt bietet klare Vorteile für die Kunden: Die Beschaffung von Lizenzen wird ebenso wie deren Implementierung erheblich vereinfacht. Statt mühsamer Entscheidungen über verschiedene Angebotspositionen und Add-ons gibt es jetzt nur noch eine einzige Lösung zu einem klaren Preis. Das Beste daran ist, dass Sie mit ONTAP One Zugriff auf alle Funktionen haben, die ONTAP inzwischen zu bieten hat. Und für Cluster-Erweiterungen wird die Lizenzierung dank dieses neuen Modells ebenfalls wesentlich unkomplizierter. Bestandssysteme können ab einer ONTAP Version 9.10.1 oder höher dieses kostenfreie Upgrade erhalten. ONTAP One ist jetzt in jedem AFF- (A-Series und C-Series), All-SAN Array (ASA) und FAS-System enthalten. Sprechen Sie einfach Ihr Account-Team darauf an.
Egal, für welche NetApp-Technologie oder welches NetApp-Produkt Sie sich bereits interessiert haben, mit ONTAP One können Sie dieses Interesse nun abdecken. Eins der aktuell meistdiskutierten Themen in Management-Meetings ist beispielsweise das Thema „Schutz vor Ransomware Angriffen“.
Die Anwälte von NetApp sagten vor Kurzem: „Kein Ransomware-Erkennungs- oder Präventionssystem kann die Sicherheit vor einem Ransomware-Angriff vollständig garantieren. Obwohl es möglich ist, dass ein Angriff unentdeckt bleibt, ist die NetApp-Technologie eine wichtige Verteidigungsebene.“
Mit ONTAP One können Sie jetzt, und zwar proaktiv, an diesem unerlässlichen Thema „Ransomware“ arbeiten und das mit einer kostenfreien Lizenz für Ihre Bestands- und Neusysteme. Die Kombination des integrierten autonomen Ransomware-Schutzes mit manipulationssicheren NetApp-Snapshot-Kopien (ermöglicht durch SnapLock) bietet die branchenweit beste Methode zum Schutz Ihrer Daten und zur Wiederherstellung nach einer Ransomware-Attacke.
Ein weiteres akutes und sicherlich noch lang diskutiertes Thema ist Sustainability. Im Zeitalter des Nachhaltigkeitsstrebens und des Umweltschutzes ist es von entscheidender Bedeutung, Lösungen zu finden, die nicht nur technologische Fortschritte bieten, sondern auch mit unseren endlichen Ressourcen schonend umgehen. Mit ONTAP One wird eben dieser Schritt in diese Richtung gegangen, indem Lizenzen konsolidiert werden und somit der Ressourcenverbrauch reduziert wird. Die Vereinfachung des Lizenzierungsprozesses führt zu weniger Papierkram, geringerem Energieverbrauch und einem insgesamt kleineren ökologischen Fußabdruck. So können Sie nicht nur Ihre IT vereinfachen, sondern auch einen Beitrag zur Nachhaltigkeit leisten. Mit diesen Einsparungen können Sie einen großen Teil zur Verbesserung der CO2-Bilanz Ihres Unternehmens beisteuern, was sich nach außen hin gut vermarkten lässt – und das alles nur mit einer kostenfrei erhältlichen Lizenz.
Der Wechsel zu ONTAP One ist für Bestandskunden denkbar unkompliziert und kostenfrei. Wenn Sie bereits über bestehende Systeme und laufende Wartungsverträge verfügen, können Sie Ihre aktuellen Lizenzen problemlos in ONTAP One migrieren – und das ohne zusätzliche finanzielle Belastung. Die einzige Voraussetzung ist, dass Sie zuvor Lizenzen wie Flash, Core und Data Protection oder das Premium Bundle genutzt haben, was auf mehr als 95 Prozent der bestehenden NetApp-Kunden zutrifft. Wenn Sie hierbei Unterstützung wünschen, wenden Sie sich einfach an Ihre:n Ansprechpartner:in im Account-Team von Computacenter.
Ralf Becker
Die Fortschritte bei der künstlichen Intelligenz und der Simulation von Prozessen haben in den letzten Jahren verschiedene Bereiche revolutioniert, etwa bei Bilderkennung und Sprache. Dies führt dazu, dass sich jedes Unternehmen und auch die öffentliche Verwaltung mit dem Thema beschäftigt – und mit einem großen Ressourcenbedarf konfrontiert wird.
Für die meisten Unternehmen ist es eine Herausforderungen, die benötigte Infrastruktur bereitzustellen, um die Leistung von künstlicher Intelligenz (KI) und High Performance Computing (HPC) in großem Umfang nutzen zu können. Herkömmliche Ansätze für KI-Infrastrukturen beinhalten Rechen- und Speicherarchitekturen, die durch Analyse-, Trainings- und Inferenz-Workloads oft durch einzelne Use Cases isoliert sind, was zu einer Komplexität führt, die Kosten in die Höhe treibt und die Skalierungsgeschwindigkeit einschränkt. Unternehmen benötigen daher eine neue Data- & Analytics-Plattform, die alle Analytics Workloads vereinheitlicht, die Infrastruktur vereinfacht und die Abbildung mehrerer Use Cases ermöglicht.
Ein wesentlicher Baustein in einer Data- & Analytics-Plattform ist ein skalierbares Speichersystem, welches den Workload von HPC und KI-Workloads abbilden kann. Moderne Anwendungen wie Analytics, KI und HPC Workloads stellen eine Vielzahl von Anforderungen an die Speicherleistung wie beispielsweise IOPs, Bandbreite, Latenz. In Verbindung mit der Vielfalt der Dateiformate, mit Zugriffsprotokollen und Datenstrukturen von Anwendungen kann dies zu einer erhöhten IT-Komplexität führen. Besonders herausfordernd sind Workloads wie beispielweise künstliche Intelligenz und maschinelles Lernen (ML), Genomforschung und Finanzanalysen, die alle sowohl einen sequenziellen Zugriff auf große Dateien als auch einen wahlfreien Zugriff auf kleine Dateien bei sehr großen Datensätzen erfordern.
WEKA ist ein parallelisiertes Filesystem und eine Software-basierte Lösung, die auf Basis von x86-Servern und NVMe SSDs betrieben wird. In unserem Solution Center in München demonstrieren wir diese Lösungen unseren Kunden. Die Server werden mit leistungsfähigen Intel® Xeon™ Scalable CPUs und 100-GbE-Ethernet-Karten von Intel angetrieben. Damit ist diese moderne Datenplattform eines der schnellsten Filesysteme am Markt. Selbst rechenintensive Prozesse laufen deutlich schneller ab, weil Compute-Ressourcen zum Beispiel für das Training von Modellen nicht mehr auf das Speichersystem warten müssen.
Die Vorteile dieser Lösung sind:
Im Solution Center im München wird die WEKA-Lösung auf Cisco-Infrastruktur betrieben. Als Serversysteme kommen Cisco Rack Server der Generation M6 zum Einsatz. Die WEKA Cluster Nodes kommunizieren über ein performantes Cisco-Nexus-9300-Netzwerk den internen WEKA Cluster Traffic und stellen darüber auch den externen Zugriff auf die Speicherlösung bereit. Zur Verwaltung dieser Lösung wird Cisco Intersight verwendet.
Cisco Intersight ist eine Betriebsplattform, die als SaaS-Hybrid-Cloud, Appliance- oder Air-Gapped-Lösung ausgeführt werden kann und eine intelligente Automatisierung, Managebarkeit und Optimierung für herkömmliche und Cloud-native Anwendungen und Infrastruktur bietet. Sie unterstützt unter anderem die für die WEKA-Lösung verwendeten Cisco Unified Computing Systems (Cisco UCS) und andere mit Intersight verbundene Geräte wie die eingesetzten Cisco Nexus 9300 100 GbE Switches. Mithilfe von Profilen können IT-Mitarbeiter:innen Richtlinien, Servereigenschaften und Workloads konsistent abstimmen. Diese Richtlinien können einmal erstellt und dann verwendet werden, um die Serverbereitstellung zu vereinfachen und so die Produktivität und Compliance zu verbessern und das Risiko von Ausfällen aufgrund einer inkonsistenten Konfiguration zu verringern.
Weitere Vorteile der Lösung sind:
Die Cisco Rack M6 Server sind mit Intel® Xeon™ Scalable CPUs der dritten Generation mit ihren integrierten KI- und Sicherheitsfunktionen sowie mit Ethernet 800 HBA (Host Bus Adapter) ausgestattet. Die Netzwerkkarte von Intel, die speziell für High-Performance-Netzwerkanwendungen entwickelt wurde, bietet folgende Vorteile:
Insgesamt bietet der Intel Ethernet 800 HBA eine leistungsstarke, zuverlässige, skalierbare und flexible Netzwerklösung mit hoher Geschwindigkeit und niedriger Latenz, die ideal für anspruchsvolle Datenplattformen wie die WEKA-Lösung ist.
In unserem Solution Center in München besteht für unsere Kund:innen, die Möglichkeit, sich ein Bild davon zu machen, wie KI-basierte Workloads auf der WEKA-Lösung abgebildet werden können.
Haben Sie Fragen zu parallelen Filesystemen und den Herausforderungen für KI und HPC Workloads? Wir beraten Sie gern! Melden Sie sich dazu am besten gleich bei Ihrer/Ihrem Ansprechpartner:in von Computacenter.
Norbert Steiner
Agilität und Auditierung sind heute ein präsenter Ansatz für interne Auditor:innen. In Deutschland wurde dazu zwischen 2019 und 2023 eine gemeinsame Vorgehensweise abgestimmt. Aus Sicht der agilen Softwareentwicklung und der Anforderungen an eine sichere Softwarelieferkette leitet sich die Frage ab, wie agiles Auditing eine hochautomatisierte Umsetzung unterstützen kann.
Traditionell bestehen interne Audits aus vier Phasen, die sequenziell abgearbeitet werden:
Der Auditierungsprozess läuft durchschnittlich über drei Monate und ist für die betroffenen Menschen oft intransparent und arbeitsintensiv. Um dies etwas plakativ zu unterfüttern, eine subjektive Sichtweise aus Sicht der Softwareentwicklung und Auslieferung dazu:
Das hat in der Auditierungsindustrie zu der Frage geführt, wie interne Auditierungen effizienter und wertschöpfend gestaltet werden können. Erste Arbeiten dazu begannen im Jahr 2016 und erste Publikationen entstanden 2017 (ein Beispiel dafür finden Sie hier). Die Prinzipien dazu werden unter „agiles Auditing“ zusammengefasst und führen agile Arbeitsweisen und eine Zusammenarbeit – jedoch mit einer strikten Trennung des Arbeitsauftrags der Auditor:innen von den zu auditierenden Teams und Bereichen – ein.
Merkmale des Agilen Auditings sind beispielsweise die Präsenz von internen Auditor:innen in den Daily Standups der relevanten Teams, eine Arbeit in Sprints und das Bereitstellen der ersten Erkenntnisse beispielsweise nach dem Ende eines zweiwöchigen Sprints. Das verzahnt das Auditing enger mit der laufenden Entwicklung und Umsetzung und führt schnell zu einer Wertschöpfung, da Erkenntnisse unverzüglich in die Arbeit der Teams einfließen und Risiken schneller adressiert werden können. So kann nach dem Auditierungsprozess bereits ein Teil der ermittelten Risiken aufgelöst sein und die Teams erkennen sofort einen Nutzen und Wert in der Auditierung, was zu einer besseren Kooperation und Zusammenarbeit führt.
Und wie kann ein agiles Auditing bei einer sicheren Softwarelieferkette einen Wert liefern?
Die sichere Softwarelieferkette unterliegt einer Anzahl von Kontrollmechanismen und Anforderungen, die seitens der Gesetzgebung und von Sicherheitsbehörden definiert und eingefordert werden. Je nach Land und Industrie existieren Unterschiede, aber im Kern muss die komplette Kette von dem Heranziehen von Open-Source-Artefakten bis zur Auslieferung der fertiggestellten Software nachvollziehbar und sicher sein. Bei Tausenden von Entwickler:innen, einer hohen Automation, der Nutzung von DevSecOps-Methoden und potenziell Hunderten von Releases am Tag wird das insgesamt komplex und aufwendig.
Die Antwort dazu muss in einer Automation der Kontrollen liegen. Anders können Teams diese Skalierung nicht erreichen, zudem reduzieren manuelle Kontrollen die Geschwindigkeit zur Wertschöpfung und die Wettbewerbsfähigkeit des Unternehmens.
Agiles Auditing ist eine perfekte Methodik, um kooperativ zwischen den Produktteams und internen Auditor:innen die notwendigen Kontrollen zu automatisieren und die erforderlichen Nachweise bereitzustellen. Beide Teams arbeiten Hand in Hand in Sprints, die internen Auditor:innen sind in den Dailys präsent und es erfolgt ein Austausch, welche Kontrollen die internen Auditor:innen einfordern und wie die Produktteams diese per Code automatisieren und deren Erfüllung belegen können. Und wie beim Grundprinzip in der agilen Entwicklung werden neue Fähigkeiten und Anpassungen (Changes) in kleinen, inkrementellen Schritten bereitgestellt. Das führt dazu, dass sich mit jedem Sprint Risiken Stück für Stück reduzieren und die Produktteams und die Auditor:innen einen Erfolg erreichen und einen Wert liefern.
Moderne DevSecOps-Plattformen liefern dafür das notwendige Handwerkszeug. Aber in den Teams – also in den Produkt- beziehungsweise Applikationsteams und bei den internen Auditor:innen – müssen sich auch die Denkweise und eine Ausrichtung auf die Wertschöpfung und den zu erreichenden Value entwickeln. Externe Beratungsfirmen wie die Big 3 entwickeln hierzu Vorgehensweisen und Analysewerkzeuge, um Unternehmen in diese Richtung zu begleiten. Einrichtungen wie das Deutsche Institut für Interne Revision (DIIR) schaffen dazu gemeinsame Vorgehensweisen. DevSecOps-Plattformen stellen technisch die notwendigen Werkzeuge bereit. Jetzt müssen nur die Applikationsteams und internen Auditor:innen in diesen kooperativen Modus schalten und gemeinsam an dem Wert Reduktion von Risiken arbeiten.
Wir bei Computacenter fokussieren uns auf den Aufbau und das Bereitstellen der DevSecOps-Plattformen im Rahmen unseres Angebots DevSecOps Foundation Services. Das umfasst auch das Enablement für die Applikations- und Produktteams zum Nutzen der Plattform. Das Enablement ist aber nicht nur auf die technische Ebene ausgerichtet, sondern adressiert auch die Herausforderungen, ein Auditing zu automatisieren (Auditing-as-Code) und das Verständnis und Mindset in den Teams und bei den internen Auditor:innen zu etablieren.
Wenn Sie mehr über unser Vorgehen und unsere Angebote erfahren möchten, sprechen Sie uns gern an.
Jessica Linke
Die digitale Transformation ist in der heutigen Geschäftswelt von zentraler Bedeutung. Ein wesentlicher Baustein dazu ist die Migration von Daten und Anwendungen in die Cloud. Hier erfahren Sie, wie diese erfolgreich gelingt.
Seit Jahren ist klar, dass die Cloud-Migration ein zentraler Bestandteil moderner Unternehmensstrategie ist. Wie kommt es dann, dass diesem Thema weiterhin eine so herausragende Bedeutung zukommt und nicht jedes Unternehmen schon sämtliche Migrationen abgeschlossen hat?
Die Antwort liegt in der unaufhaltsamen Welle der digitalen Transformation, die immer schneller über die globalen Märkte hinwegrollt.
Die Cloud-Migration ist schon lange nicht mehr nur ein technologischer Trend – sie ist ein Akzelerator, der Unternehmen dabei unterstützt, in diesem digitalen Zeitalter wettbewerbsfähig zu bleiben.
Die Notwendigkeit einer robusten digitalen Transformation ist in der heutigen Geschäftswelt unumstritten. Die Migration in die Cloud spielt hierbei eine entscheidende Rolle. Aber warum?
Skalierbarkeit trifft Kosteneffizienz
In der Geschäftswelt ist das Bedürfnis nach IT-Ressourcen selten konstant. Es gibt Zeiten intensiver Aktivität, etwa während Werbekampagnen, Produkt-Launches oder saisonalen Höhepunkten, und es gibt weniger intensive Phasen. Traditionelle IT-Infrastrukturen erfordern oft erhebliche Investitionen in Hardware, die sowohl in Spitzen- als auch in ruhigen Zeiten betrieben und gewartet werden muss. Dies führt zu suboptimalen Kostenstrukturen, bei denen Unternehmen entweder für ungenutzte Kapazitäten bezahlen oder in Zeiten hoher Nachfrage an ihre Grenzen stoßen.
Hier kommt die Skalierbarkeit und Flexibilität der Public Cloud ins Spiel. Unternehmen können ihre IT-Ressourcen nahezu in Echtzeit hoch- oder herunterskalieren, je nach aktuellem Bedarf. Dies bedeutet, dass Sie immer genau die richtige Menge an Ressourcen zur Verfügung haben – nicht mehr und nicht weniger.
Die direkte Konsequenz dieser dynamischen Anpassungsmöglichkeit ist eine hervorragende Kosteneffizienz. Sie zahlen nur für das, was Sie tatsächlich nutzen. Es gibt keine Verschwendung von Ressourcen oder Kapitalbindung in ungenutzter Hardware. Gleichzeitig werden IT-Ressourcen optimiert, da die Cloud-Anbieter ihre Infrastrukturen ständig modernisieren und verbessern, sodass Unternehmen jederzeit Zugang zu den neuesten und effizientesten Technologien haben.
Diese Skalierbarkeit und Kosteneffizienz der Cloud ermöglichen es Unternehmen, agil zu bleiben, sich schnell an Marktveränderungen anzupassen und dabei die Kostenstruktur zu optimieren.
Beschleunigte Implementierung digitaler Lösungen
Die Einführung neuer Software oder das Rollout von Updates wird in der Cloud erheblich beschleunigt. Anstatt jeden einzelnen Server oder Computer manuell aktualisieren zu müssen, können Aktualisierungen und neue Anwendungen zentral und global verteilt werden. Dies ermöglicht eine rasche Anpassung an neue Geschäftsanforderungen oder Marktbedingungen.
Förderung der Kollaboration und des Datenaustausches
Die Public Cloud beseitigt geografische und physische Barrieren. Teams an verschiedenen Standorten können in Echtzeit zusammenarbeiten, auf dieselben Daten zugreifen und sicherstellen, dass alle stets über die neuesten Informationen verfügen. Insbesondere in unserer globalisierten Welt, in der Telearbeit und dezentrale Teams immer häufiger werden, bietet die Cloud die notwendigen Tools, um effektiv und effizient zu arbeiten.
Erhöhte Sicherheit und Compliance
Die bekannten Hyperscaler investieren erhebliche Ressourcen in Sicherheitsmaßnahmen und gewährleisten, dass ihre Dienste den neuesten Standards und Vorschriften entsprechen. Unternehmen können von diesen Investitionen profitieren, indem sie ihre Daten und Anwendungen in sicheren Cloud-Umgebungen hosten, ohne selbst die volle Last der Sicherheits- und Compliance-Aufgaben tragen zu müssen.
Die Cloud-Migration bezeichnet den Prozess, bei dem Daten, Anwendungen oder andere Geschäftselemente von einem On-Premises-System, also einem beim Unternehmen vor Ort befindlichen System, in die Cloud verlagert werden. Wie schon beschrieben, kann dieser Prozess aus verschiedenen Gründen beziehungsweise strategischen Anforderungen erfolgen.
Der tatsächliche Prozess der Cloud-Migration lässt sich auf verschiedene Arten bewerkstelligen. Die Wahl erfolgt abhängig von den unternehmensspezifischen Anforderungen und dem aktuellen Zustand der Systeme beziehungsweise Applikationen.
Der Lift-and-Shift-Ansatz beispielsweise verschiebt Anwendungen unverändert in die Cloud, was oft der schnellste und einfachste Weg ist, aber nicht immer der effizienteste. Bei der Anwendungsrefaktorisierung wird die Anwendung angepasst und optimiert, bevor sie in die Cloud verschoben wird, was meist eine höhere Anfangsinvestition erfordert, aber langfristig zu besseren Ergebnissen führen kann. Replatforming hingegen bedeutet, Teile der Anwendung aufzurüsten, während der Kern der Anwendung unverändert bleibt, was einen Mittelweg zwischen den ersten beiden Ansätzen darstellt.
Es gibt noch einige andere Migrationsstrategien, aber diese drei sind besonders gängig und bieten jeweils unterschiedliche Vorteile für Unternehmen, die den Schritt in die Cloud wagen möchten.
Norbert Steiner
Der Begriff Isolated Recovery Environment (IRE) hat Einzug gefunden in die Backup/Restore-Welt. IRE steht für eine von der Produktion und der Datensicherung für die Produktion getrennte und isolierte Umgebung für die Datensicherung. Welcher Aufwand verbirgt sich dahinter und welchen Nutzen bieten IREs?
Im Kern wird eine getrennte und isolierte Umgebung für die Datensicherung aufgebaut, damit eine vor Angriffen geschützte Umgebung existiert. Der Fokus ist hier ein gestaffelter Schutz gegen Ransomware-Angriffe. Technisch umgesetzt wird dies in der Regel mit einer Kopie der relevanten Datensicherungen verbunden mit einem Backup-Server und den Metadaten beziehungsweise dem Backup-Katalog. So findet man es auch häufig in den Darstellungen verschiedener Anbieter. Das Konzept wird auch als CyberVault oder immutable Backup-Kopie bezeichnet. Aber das IRE betont die Wiederherstellung, das Recovery, von Daten. Somit müssen auch Datensicherungen in der IRE wiederhergestellt werden können. Sie werden dann durch Spezialist:innen der IT-Sicherheit und anderer Teams auf Schad-Code geprüft und anschließend für eine Wiederherstellung in der Produktion freigegeben.
Der Ansatz ist nachvollziehbar und sinnvoll. Aber Datensicherungen müssen im Kontext betrachtet werden. Ein Backup einer Datenbank kann nur in Verbindung mit der Datenbank geprüft werden. Unternehmen haben mehrere Datenbanken im Einsatz – also müssten in der IRE die Wiederherstellung von mehreren Datenbanken wie Oracle, SQL Server, MongoDB oder PostgresQL ermöglicht werden. Und da die Regulatorik nicht zwischen den eigenen Rechenzentren und den bei Cloud Providern genutzten Ressourcen differenziert, muss das Konstrukt der IRE formal auch bei Cloud Providern umgesetzt werden. Es wird schnell ersichtlich, dass es sich um ein sehr komplexes und wirtschaftlich aufwendiges Vorhaben handelt, will man es konsequent umsetzen. Dazu bietet sich folgendes
Stufe 1: Konzeption und Risikobewertung
Im ersten Schritt sollten eine Risikobewertung und Konzeption erfolgen. Diese sollte die Frage beantworten, wie umfangreich die IRE und verbunden damit eine Recovery-Fähigkeit ausfallen sollen. Parallel dazu sollten die verschiedenen Maßnahmen nach Wirksamkeit und Aufwand betrachtet werden.
Stufe 2: Isolierte Kopie der Datensicherung
Als Minimum sollte eine unabhängige und isolierte Kopie der Datensicherung – eine Immutable Kopie – erstellt werden. Isolation umfasst hier eine Abschottung (Firewalls, eigenes Netz, physische Trennung) und auch eine Trennung der Zuständigkeiten, damit kompromittierte Benutzer:innenkennungen im Wirkungskreis (Blastradius) beschränkt bleiben. Es gibt bereits entsprechende Lösungen am Markt, beispielsweise Veritas NetBackup IRE.
Stufe 3: Die Cloud nicht vergessen
Als weitere Maßnahme sollten konzeptionell auch die Datenbestände bei Cloud Providern für ein IRE betrachtet werden. Cloud Provider übernehmen meistens nicht die Verantwortung für die Daten. Selbst bei SaaS ist der Schutz der Daten erforderlich, da auch hier kompromittierte Benutzer:innenkennungen seitens der Unternehmen ein Risiko für die Daten darstellen können. In der Praxis sind aber Daten bei Cloud Providern und SaaS häufig nicht im Fokus und die regulatorischen Vorgaben wie beispielsweise die EU DORA (Digital Operation Resilience Act) adressieren auch explizit die operationale Resilienz der Daten bei Cloud Providern.
Stufe 4: Recovery-Plan mit Automation
Moderne IT-Landschaften von der Edge über eigene Rechenzentren bis in die Cloud werden zunehmend automatisiert. Das Deployment der Systeme und Konfigurationen von Netzwerkgeräten über Betriebssysteme und Middleware bis hin zu Cloud-Ressourcen erfolgt über Werkzeuge wie Ansible oder Terraform. Diese Automation kann eine bedeutende Rolle für ein IRE-Konzept einnehmen. Alles, was bis zur letzten Konfiguration als Code beschrieben und reproduzierbar wiederhergestellt werden kann, nutzt dazu die Software aus den Repositories der Anbieter wie beispielsweise die Pakete von Red Hat Enterprise Linux (RHEL). Anstelle eines Recovery aus der Datensicherung können die Konfigurationen und Softwarepakete automatisiert wiederhergestellt werden. Das liefert gleich mehrere Vorteile:
Bei der Wiederherstellung nach einem Ransomware-Angriff kann jetzt auch ein paralleles Vorgehen erfolgen – zum einen wird die automatisierte Wiederherstellung gestartet, zum anderen kann im IRE die Wiederherstellung der relevanten Daten – abgestuft nach Kritikalität – eingeleitet werden.
Stufe 5: Persistente Daten
Die genannten Maßnahmen lösen die Datensicherung und die Anforderungen an ein IRE nicht ab – aber sie erlauben es, den Fokus auf die persistenten Daten zu legen, die in die Datensicherung und in das IRE zu überführen sind. Der spezifische Datenbestand einer Datenbank oder eines E-Mail-Postfachs können nicht neu erzeugt werden – diese hier als persistente Daten bezeichneten einzigartigen Informationen müssen über ein Backup/Restore abgesichert werden. Dabei ist es in einem Ransomware-Fall nicht wahrscheinlich, dass die verschiedenen Systeme mit persistenten Daten kompromittiert werden. Das würde gezielte Angriffe auf die Datenhaltungssysteme (SaaS, Datenbanken, andere) voraussetzen und wäre äußerst komplex. Auszuschließen ist es allerdings nicht, da Ransomware-as-a-Service verbunden mit künstlicher Intelligenz (RaaS und AI) immer leistungsfähiger und ausgefeilter wird. Somit sind diese Daten gezielt abzusichern.
Eine organisatorische Maßnahme ist hierbei die Identifikation der spezifischen Teams, die für diese persistenten Daten zuständig sind, und das Vereinbaren der Datensicherungs- und IRE-Strategie mit diesen Teams. Daraus leiten sich anschließend die konkreten Anforderungen an die Datensicherungen und das IRE ab. Das ist grundsätzlich erforderlich, da nur diese Dateneigner:innen letztendlich eine Aussage treffen können, ob die Daten nach einer Wiederherstellung nutzbar sind.
Stufe 6: Automatisierte Testszenarien
Wenig überraschend sind regelmäßige beziehungsweise jährliche Wiederherstellungsübungen prominent in der Regulatorik gefordert. Daher ist es sinnvoll, solche Übungen möglichst zu automatisieren und regelmäßig durchzuführen. Das sollte nicht nur ein exemplarischer Restore für ein System oder eine Datenbank sein, sondern ein Restore für jeden Backup/Restore-Workflow, und es sollte eine Bestätigung des oder der jeweiligen Verantwortlichen für die Daten oder die Applikation erfolgen. Beispiele sind Sicherungen der Dateisysteme, das Wiederherstellen der Datenbank aus einem Datenbank-Dump, das Wiederherstellen der Datenbank aus den online durchgeführten Sicherungen mit den Transaktions-Logs und so fort.
Nachvollziehbare Metriken und automatisierte Berichte der Unternehmensführung und der IT-Sicherheit können dann einen aktuellen Status darüber angeben, wie erfolgreich die Wiederherstellungsübungen ablaufen.
Der Aufbau eines IRE erstreckt sich über eine große Bandbreite und kann von einer einfachen isolierten Datensicherungskopie bis zu einer isolierten Umgebung für das Recovery von Daten aller Art reichen. Es ist sinnvoll, dabei schrittweise vorzugehen und die wertschöpfenden Maßnahmen zu identifizieren und umzusetzen. Eine fortlaufende Verbesserung ist im Anschluss immer möglich. Aber hier den potenziell kompletten Scope eines IRE direkt anzugehen, ist mit Hinblick auf die Kosten und den Personalbedarf in der Regel zu komplex. Ein mögliches Vorgehen haben wir in diesem Artikel anhand der sechs Stufen exemplarisch dargestellt.
Gern begleitet Computacenter Ihr Unternehmen bei einer Planung für ein IRE-Konzept und bei der Umsetzung. Wir unterstützen Sie gern! Melden Sie sich am besten noch heute bei Ihrem/Ihrer Ansprechpartner:in von Computacenter.
Norbert Steiner
Das Tempo in der Digitalisierung und damit verbunden in der Bereitstellung von neuen Softwarelösungen steigt massiv an. Das ist für die Wettbewerbsfähigkeit und Innovation der Unternehmen kritisch. Nur schneller Coden ist nicht die Antwort – also welche Maßnahmen liefern Geschwindigkeit?
Neue Software und innovative Features entstehen in der Softwareentwicklung. Der Nutzen davon, also der gewünschte Wert oder Value, entsteht aber erst mit dem Bereitstellen der Software in der Produktion. Geschwindigkeit ist also bei dem Bereitstellen des Values für die Nutzer:innen der Software und bei der Verfügbarkeit der innovativen Lösung gefragt.
Auf dem Weg von der Entwicklung in die Produktion existieren aus technischer Sicht, hier vereinfacht dargestellt, mehrere Schritte:
Das ist eine Sichtweise auf Geschwindigkeit und eine durchaus logische Sequenz von notwendigen Schritten und technischen Aspekten. Aber eine Komponente fehlt an dieser Stelle noch, die in der Praxis die meiste Zeit erfordert, nämlich das Durchlaufen der Prozesse.
Tatsächlich sind die Releasemanagement- und Change-Prozesse für die meisten Verzögerungen verantwortlich, die durchaus mehrere Wochen betragen können. In dieser Zeit ist die Softwareentwicklung bereits ein oder zwei Sprints weitergelaufen und neue Features stehen bereits in der Warteschlange, während noch die alten Features von vor zwei Wochen in Bearbeitung sind.
Für eine deutliche Steigerung der Wertschöpfung und der Wettbewerbsfähigkeit der Unternehmen müssen auch diese Prozesse beschleunigt, also automatisiert, werden.
Zwei relevante Aspekte bei der Beschleunigung der Prozesse sind die deutlich steigenden regulatorischen Anforderungen und die an Menschen übergebenen Aufgaben und Zuständigkeiten.
Selbstverständlich muss ein Unternehmen nachweisen können, dass die regulatorischen Anforderungen für die jeweils ausgelieferte Software erfüllt werden, unter anderem auch im Bereich von Change- und Releasemanagement. Und wenn man bei jedem Schritt des oben skizzierten Ablaufs automatisiert die Nachweise generiert und sammelt, entsteht automatisiert eine lückenlose Kette von Nachweisen für eine Auditierung.
Diese Anforderung kann mit modernen DevSecOps-Plattformen und -Technologien umgesetzt werden – wenn der Faktor Mensch mit eingebunden wird.
Manuelle Schritte sind Momente, in denen der Mensch in einem Prozess aktiv wird und eine Entscheidung fällt, also beispielsweise eine Freigabe erteilt. Bei der Automation definiert der Mensch die Kriterien für die positive Entscheidung, setzt dies gemeinsam mit der Softwareentwicklung um und stellt sicher, dass die Nachweise generiert werden. Aber es erfolgt kein manueller Eingriff mehr.
Es sind aber viele Menschen eingebunden, die aus einer Risiko- und Compliance-Sicht auf die Vorgaben schauen – und damit naturgemäß eine große Distanz zu der technischen Umsetzung haben. Dadurch ist eine enge Zusammenarbeit zwischen den Softwareteams, der IT-Sicherheit und den internen Auditoren nötig. Und das setzt Vertrauen voraus, dass die automatisierte Umsetzung korrekt erfolgt und die Freigaben automatisiert genau wie vorgesehen erteilt werden. Dieses Vertrauen muss etabliert werden – um den größten Hebel für mehr Geschwindigkeit umzulegen und Innovation schnell zu den Nutzer:innen zu bringen.
Vertrauen kann nicht verordnet werden. Es muss sich nach und nach entwickeln. Und moderne Abläufe in der Softwareentwicklung sind nicht sofort für alle Entwickler:innen und Betriebsteams greifbar und umsetzbar. Somit zeichnen sich drei Handlungsfelder ab, die zunächst angegangen werden sollten:
Es sind viele kleine Schritte notwendig, um das Vertrauen aufzubauen und die Geschwindigkeit – messbar – zu erhöhen. Eine gute Skalierbarkeit ist dabei wichtig – weil globale Unternehmen Tausende von Entwickler:innen beschäftigen und aufgrund der regulatorischen Anforderungen viele Prozesse und Ressourcen verwenden.
Im Sinne des agilen Vorgehens ist der erste Schritt auf dem Weg besonders wichtig. Gern begleiten wir Sie dabei – oder wir unterstützen zu einem späteren Zeitpunkt, wenn die Anfänge bereits gemacht sind.
Wenn Sie mehr über unser Vorgehen und unsere Angebote erfahren möchten, sprechen Sie uns an – wir beraten Sie gern, wie auch Sie mehr Geschwindigkeit erreichen.