Ausgabe 10/2023

NetApp ONTAP One: Eine All-in-One-Lizenz für alle

Datacenter-Newsletter

NetApp hat mit ONTAP ONE ein geradezu revolutionäres Lizenzierungsmodell erschaffen. Lesen Sie in dieser aktuellen Ausgabe des Datacenter-Newsletters, wie auch Sie Ihre Storage-Lizenzen äußerst einfach erwerben und nutzen können.

Immer mehr Unternehmen beschäftigen sich mit künstlicher Intelligenz. Doch die Anforderungen an die IT-Infrastruktur sind hoch. Wir stellen Ihnen vor, wie Sie mit WEKA als moderner Speicherlösung und Komponenten von Cisco und Intel eine leistungsstarke und einfach zu verwaltende Lösung aufbauen, die Sie sich in unserem Solution Center ansehen können.

Lesen Sie außerdem, wie agiles Auditing dazu beiträgt, interne Auditierungen effizienter und wertschöpfend zu gestalten.

Ein weiteres Thema dieser Ausgabe ist, wie Sie die Migration von Daten und Anwendungen in die Cloud erfolgreich bewerkstelligen – von der Analyse über die Planung bis hin zur Umsetzung.

Unsere aktuelle Back-up-Kolumne zeigt, welcher Aufwand und welcher Nutzen mit einem Isolated Recovery Environment (IRE) verbunden sind, während sich unsere Agile-IT-Kolumne diesmal damit beschäftigt, welche Schritte besonders dazu geeignet sind, mehr Tempo in die Bereitstellung neuer Softwarelösungen zu bringen.

Wie immer freuen wir uns über Ihr Feedback, damit wir die Schwerpunkte aufgreifen können, die für Sie von Interesse sind.

Herzliche Grüße

Markus Kunkel
Group Partner Management

Aktuell bei Computacenter
Einladung zum „Cisco Datacenter Techupdate“

Cisco hat sein Compute-Portfolio grundlegend erneuert. Lernen Sie die Technologien in unserem Solution Center in München hautnah kennen und lassen Sie sich von unseren Expert:innen die Funktionen in der Praxis zeigen!

Weitere Infos
Computacenter ist „ISG Provider Lens™ Future of Work - Services & Solutions: Leader“

Computacenter wurde von der Information Services Group (ISG) in ihrem Bericht "2023 ISG Provider Lens™ Future of Work - Services & Solutions" in Großbritannien und Deutschland als Leader ausgezeichnet.

Weitere Infos
Computacenter Deutschland: Umsatz und Gewinn steigen im ersten Halbjahr

Nach den vorläufigen Geschäftsergebnissen für das erste Halbjahr 2023 stieg der Umsatz von Computacenter in Deutschland im Jahresvergleich um 18 Prozent, der adjustierte Gewinn vor Steuern um 27,2 Prozent auf 83,6 Millionen Euro.

Weitere Infos

NetApp ONTAP One: Eine All-in-One-Lizenz fuer alle

Dennis Schröder

In der rasanten Welt der Informationstechnologie sind Veränderungen und die Notwendigkeit zur Anpassung unausweichlich, aber nur so können auch Innovation und Fortschritt entstehen. Mit ONTAP One hat nun NetApp die Art und Weise, wie Unternehmen Storage-Lizenzen erwerben und nutzen können, geradezu revolutioniert.

Was ist ONTAP One?

ONTAP One führt die früheren Lizenzpakete „Core“, „Security & Compliance“, „Data Protection“, „Hybrid Cloud“ und „Encryption“ zu einem einzigen umfassenden Paket zusammen. Dieser Schritt bietet klare Vorteile für die Kunden: Die Beschaffung von Lizenzen wird ebenso wie deren Implementierung erheblich vereinfacht. Statt mühsamer Entscheidungen über verschiedene Angebotspositionen und Add-ons gibt es jetzt nur noch eine einzige Lösung zu einem klaren Preis. Das Beste daran ist, dass Sie mit ONTAP One Zugriff auf alle Funktionen haben, die ONTAP inzwischen zu bieten hat. Und für Cluster-Erweiterungen wird die Lizenzierung dank dieses neuen Modells ebenfalls wesentlich unkomplizierter. Bestandssysteme können ab einer ONTAP Version 9.10.1 oder höher dieses kostenfreie Upgrade erhalten. ONTAP One ist jetzt in jedem AFF- (A-Series und C-Series), All-SAN Array (ASA) und FAS-System enthalten. Sprechen Sie einfach Ihr Account-Team darauf an.


Bildquelle: NetApp

Technologische Innovationen von ONTAP One im Überblick

Egal, für welche NetApp-Technologie oder welches NetApp-Produkt Sie sich bereits interessiert haben, mit ONTAP One können Sie dieses Interesse nun abdecken. Eins der aktuell meistdiskutierten Themen in Management-Meetings ist beispielsweise das Thema „Schutz vor Ransomware Angriffen“.

Die Anwälte von NetApp sagten vor Kurzem:
„Kein Ransomware-Erkennungs- oder Präventionssystem kann die Sicherheit vor einem Ransomware-Angriff vollständig garantieren. Obwohl es möglich ist, dass ein Angriff unentdeckt bleibt, ist die NetApp-Technologie eine wichtige Verteidigungsebene.“

Mit ONTAP One können Sie jetzt, und zwar proaktiv, an diesem unerlässlichen Thema „Ransomware“ arbeiten und das mit einer kostenfreien Lizenz für Ihre Bestands- und Neusysteme. Die Kombination des integrierten autonomen Ransomware-Schutzes mit manipulationssicheren NetApp-Snapshot-Kopien (ermöglicht durch SnapLock) bietet die branchenweit beste Methode zum Schutz Ihrer Daten und zur Wiederherstellung nach einer Ransomware-Attacke.

Ein weiteres akutes und sicherlich noch lang diskutiertes Thema ist Sustainability. Im Zeitalter des Nachhaltigkeitsstrebens und des Umweltschutzes ist es von entscheidender Bedeutung, Lösungen zu finden, die nicht nur technologische Fortschritte bieten, sondern auch mit unseren endlichen Ressourcen schonend umgehen. Mit ONTAP One wird eben dieser Schritt in diese Richtung gegangen, indem Lizenzen konsolidiert werden und somit der Ressourcenverbrauch reduziert wird. Die Vereinfachung des Lizenzierungsprozesses führt zu weniger Papierkram, geringerem Energieverbrauch und einem insgesamt kleineren ökologischen Fußabdruck. So können Sie nicht nur Ihre IT vereinfachen, sondern auch einen Beitrag zur Nachhaltigkeit leisten. Mit diesen Einsparungen können Sie einen großen Teil zur Verbesserung der CO2-Bilanz Ihres Unternehmens beisteuern, was sich nach außen hin gut vermarkten lässt – und das alles nur mit einer kostenfrei erhältlichen Lizenz.

Für Bestandskunden: Ein reibungsloser Übergang zu ONTAP One, ohne zusätzliche Kosten

Der Wechsel zu ONTAP One ist für Bestandskunden denkbar unkompliziert und kostenfrei. Wenn Sie bereits über bestehende Systeme und laufende Wartungsverträge verfügen, können Sie Ihre aktuellen Lizenzen problemlos in ONTAP One migrieren – und das ohne zusätzliche finanzielle Belastung. Die einzige Voraussetzung ist, dass Sie zuvor Lizenzen wie Flash, Core und Data Protection oder das Premium Bundle genutzt haben, was auf mehr als 95 Prozent der bestehenden NetApp-Kunden zutrifft. Wenn Sie hierbei Unterstützung wünschen, wenden Sie sich einfach an Ihre:n Ansprechpartner:in im Account-Team von Computacenter.

WEKA: Moderner Datenspeicher

im Zeitalter der Simulation und der künstlichen Intelligenz

Ralf Becker

Die Fortschritte bei der künstlichen Intelligenz und der Simulation von Prozessen haben in den letzten Jahren verschiedene Bereiche revolutioniert, etwa bei Bilderkennung und Sprache. Dies führt dazu, dass sich jedes Unternehmen und auch die öffentliche Verwaltung mit dem Thema beschäftigt – und mit einem großen Ressourcenbedarf konfrontiert wird.

Anforderungen an die Infrastruktur

Für die meisten Unternehmen ist es eine Herausforderungen, die benötigte Infrastruktur bereitzustellen, um die Leistung von künstlicher Intelligenz (KI) und High Performance Computing (HPC) in großem Umfang nutzen zu können. Herkömmliche Ansätze für KI-Infrastrukturen beinhalten Rechen- und Speicherarchitekturen, die durch Analyse-, Trainings- und Inferenz-Workloads oft durch einzelne Use Cases isoliert sind, was zu einer Komplexität führt, die Kosten in die Höhe treibt und die Skalierungsgeschwindigkeit einschränkt. Unternehmen benötigen daher eine neue Data- & Analytics-Plattform, die alle Analytics Workloads vereinheitlicht, die Infrastruktur vereinfacht und die Abbildung mehrerer Use Cases ermöglicht.

Ein wesentlicher Baustein in einer Data- & Analytics-Plattform ist ein skalierbares Speichersystem, welches den Workload von HPC und KI-Workloads abbilden kann. Moderne Anwendungen wie Analytics, KI und HPC Workloads stellen eine Vielzahl von Anforderungen an die Speicherleistung wie beispielsweise IOPs, Bandbreite, Latenz. In Verbindung mit der Vielfalt der Dateiformate, mit Zugriffsprotokollen und Datenstrukturen von Anwendungen kann dies zu einer erhöhten IT-Komplexität führen. Besonders herausfordernd sind Workloads wie beispielweise künstliche Intelligenz und maschinelles Lernen (ML), Genomforschung und Finanzanalysen, die alle sowohl einen sequenziellen Zugriff auf große Dateien als auch einen wahlfreien Zugriff auf kleine Dateien bei sehr großen Datensätzen erfordern.

Die Vorteile von WEKA

WEKA ist ein parallelisiertes Filesystem und eine Software-basierte Lösung, die auf Basis von x86-Servern und NVMe SSDs betrieben wird. In unserem Solution Center in München demonstrieren wir diese Lösungen unseren Kunden. Die Server werden mit leistungsfähigen Intel® Xeon™ Scalable CPUs und 100-GbE-Ethernet-Karten von Intel angetrieben. Damit ist diese moderne Datenplattform eines der schnellsten Filesysteme am Markt. Selbst rechenintensive Prozesse laufen deutlich schneller ab, weil Compute-Ressourcen zum Beispiel für das Training von Modellen nicht mehr auf das Speichersystem warten müssen.

Die Vorteile dieser Lösung sind:

  • Weltweit schnellstes gemeinsam genutztes Dateisystem gemäß den Benchmarks SPEC SFS 20141, SPEC Storage 20202, IO-5003 und STAC4
     
  • Exabyte-Skalierung on-premises, hybrid und in der Cloud, lineare Skalierung entsprechend der Größe des Clusters
     
  • Hoch performante Lösung mit extrem geringen Latenzen für HPC und KI-Workloads
     
  • Einsetzbar als konvergente Plattform, dedizierte Speicher-Appliance oder nativ in der Public Cloud
     
  • Verfügbarkeit in den wichtigsten Cloud-Hyperscalern wie AWS, GCP, OCI und Azure
     
  • Ideal geeignet für die Herausforderungen gemischter Arbeitslasten – große und kleine Dateien, zufälliger und sequentieller Zugriff, strukturierte und unstrukturierte Daten; die Software wurde so entwickelt, dass kein Tuning für die eine oder andere Arbeitslast erforderlich ist
     
  • Multiprotokoll-Zugriff über POSIX, NFS, SMB, S3 und NVIDIA GPUDirect
     
  • Einfaches Management, einmalige Einrichtung
     
  • Automatisiertes integriertes Tiering mit externen S3-Speicherherstellern/-providern zur Erweiterung des Namensraums von schnellem Flash zu Objektspeicher entweder vor Ort oder in der Cloud
     
  • Unterbrechungsfreie Upgrades für Speicherdienste
     
  • Vollständige GUI-, CLI- und API-Verwaltung

Einfache Verwaltung mit Cisco InterSight, Cisco UCS und Cisco Nexus 9300 Switches

Im Solution Center im München wird die WEKA-Lösung auf Cisco-Infrastruktur betrieben. Als Serversysteme kommen Cisco Rack Server der Generation M6 zum Einsatz. Die WEKA Cluster Nodes kommunizieren über ein performantes Cisco-Nexus-9300-Netzwerk den internen WEKA Cluster Traffic und stellen darüber auch den externen Zugriff auf die Speicherlösung bereit. Zur Verwaltung dieser Lösung wird Cisco Intersight verwendet.

Cisco Intersight ist eine Betriebsplattform, die als SaaS-Hybrid-Cloud, Appliance- oder Air-Gapped-Lösung ausgeführt werden kann und eine intelligente Automatisierung, Managebarkeit und Optimierung für herkömmliche und Cloud-native Anwendungen und Infrastruktur bietet. Sie unterstützt unter anderem die für die WEKA-Lösung verwendeten Cisco Unified Computing Systems (Cisco UCS) und andere mit Intersight verbundene Geräte wie die eingesetzten Cisco Nexus 9300 100 GbE Switches. Mithilfe von Profilen können IT-Mitarbeiter:innen Richtlinien, Servereigenschaften und Workloads konsistent abstimmen. Diese Richtlinien können einmal erstellt und dann verwendet werden, um die Serverbereitstellung zu vereinfachen und so die Produktivität und Compliance zu verbessern und das Risiko von Ausfällen aufgrund einer inkonsistenten Konfiguration zu verringern.

Weitere Vorteile der Lösung sind:

  • Einheitliche Überwachung und Verwaltung: Ein zentrales Dashboard bietet übersichtlich alle erforderlichen Daten zur Überwachung sowie alle Möglichkeiten für eine komfortable Verwaltung.
     
  • Konfiguration, Bereitstellung und Installation: Mit richtlinienbasierten Profilen und Vorlagen für Bereitstellung, Konfiguration und die Erstellung mehrerer Serverprofile werden Server konsistent bereitgestellt und konfiguriert, wodurch Konfigurationsfehler vermieden und Abweichungen minimiert werden.
     
  • Orchestrierungs- und Workflow-Designer: Intersight Cloud Orchestrator ist ein Framework zum Erstellen und Ausführen komplexer Workflows in Intersight über mehrere Infrastrukturdomänen, Cloud-Plattformen und Softwareintegrationen hinweg.
     
  • Bestandsinformationen, Status und Kapazitätsplanung: Die Bestandsinformationen für Cisco UCS und die Firmware-Verwaltung werden übersichtlich dargeboten. Zudem wird der Kompatibilitätsstatus sowie der Supportvertragsstatus fortlaufend überprüft und angezeigt.
     
  • Proaktive Benachrichtigungen und Hinweise: Durch die Übermittlung von Telemetriedaten kann ein proaktiver Support erfolgen und Probleme verhindert werden, bevor sie auftreten.
     
  • Nahtlose Integration und Upgrades: Upgrades auf Cisco Intersight werden automatisch bereitgestellt, ohne dass die Ressourcen herkömmlicher Management-Tool-Upgrades und Betriebsunterbrechungen erforderlich sind.

Intel: Performance durch das richtige „Zubehör“

Die Cisco Rack M6 Server sind mit Intel® Xeon™ Scalable CPUs der dritten Generation mit ihren integrierten KI- und Sicherheitsfunktionen sowie mit Ethernet 800 HBA (Host Bus Adapter) ausgestattet. Die Netzwerkkarte von Intel, die speziell für High-Performance-Netzwerkanwendungen entwickelt wurde, bietet folgende Vorteile:

  • Höhere Geschwindigkeiten: Der Intel Ethernet 800 HBA unterstützt Übertragungsgeschwindigkeiten von bis zu 100 Gbps (Gigabit pro Sekunde). Dies ermöglicht es, große Datenmengen schnell und effizient zu übertragen, was ideal für rechenintensive Anwendungen wie Big-Data-Analysen, Cloud Computing und High Performance Computing (HPC) ist.
     
  • Niedrige Latenz: Mit dem Intel Ethernet 800 HBA können Unternehmen und Organisationen von niedrigen Latenzzeiten profitieren, was die Reaktionszeiten in Echtzeit-Anwendungen verbessert. Das ist entscheidend für Anwendungen wie High-Frequency Trading und künstliche Intelligenz (KI), bei denen Echtzeit-Kommunikation und geringe Latenzzeiten erforderlich sind.
     
  • Zuverlässigkeit: Der Intel Ethernet 800 HBA bietet erweiterte Funktionen zur Fehlererkennung und Fehlerkorrektur, die die Zuverlässigkeit des Netzwerks erhöhen. Dies hilft, Netzwerkausfälle zu minimieren und eine hohe Verfügbarkeit von Netzwerkdiensten sicherzustellen.
     
  • Skalierbarkeit: Der Intel Ethernet 800 HBA ermöglicht die Skalierung der Netzwerkinfrastruktur, um den steigenden Anforderungen von modernen Rechenzentren gerecht zu werden. Kunden können mehrere Intel Ethernet 800 HBAs in ihrem Rechenzentrum einsetzen, um die Netzwerkkapazität zu erhöhen und mehrere Anwendungen und Workloads zu unterstützen.
     
  • Energieeffizienz: Der Intel Ethernet 800 HBA verfügt über fortschrittliche Energiesparfunktionen wie Energy Efficient Ethernet (EEE), die den Energieverbrauch reduzieren und dabei helfen, die Energiekosten zu senken und umweltfreundlicher zu sein.

Insgesamt bietet der Intel Ethernet 800 HBA eine leistungsstarke, zuverlässige, skalierbare und flexible Netzwerklösung mit hoher Geschwindigkeit und niedriger Latenz, die ideal für anspruchsvolle Datenplattformen wie die WEKA-Lösung ist.

Das Solution Center in München – ein Ort, der es in sich hat

In unserem Solution Center in München besteht für unsere Kund:innen, die Möglichkeit, sich ein Bild davon zu machen, wie KI-basierte Workloads auf der WEKA-Lösung abgebildet werden können.

Haben Sie Fragen zu parallelen Filesystemen und den Herausforderungen für KI und HPC Workloads? Wir beraten Sie gern! Melden Sie sich dazu am besten gleich bei Ihrer/Ihrem Ansprechpartner:in von Computacenter.

Agilitaet und Auditing

Norbert Steiner

Agilität und Auditierung sind heute ein präsenter Ansatz für interne Auditor:innen. In Deutschland wurde dazu zwischen 2019 und 2023 eine gemeinsame Vorgehensweise abgestimmt. Aus Sicht der agilen Softwareentwicklung und der Anforderungen an eine sichere Softwarelieferkette leitet sich die Frage ab, wie agiles Auditing eine hochautomatisierte Umsetzung unterstützen kann.

Was bedeutet agiles Auditing?

Traditionell bestehen interne Audits aus vier Phasen, die sequenziell abgearbeitet werden:

  • Planung, meistens mit einem klaren, singulären Fokus
  • Durchführung (Fieldwork)
  • Erstellen der Berichte
  • Maßnahmen & Aktivitäten

Der Auditierungsprozess läuft durchschnittlich über drei Monate und ist für die betroffenen Menschen oft intransparent und arbeitsintensiv. Um dies etwas plakativ zu unterfüttern, eine subjektive Sichtweise aus Sicht der Softwareentwicklung und Auslieferung dazu:

  • Intransparent, weil Auditor:innen meist hinter verschlossenen Türen arbeiten und Fragen stellen, die nur teilweise dem fachlichen Kontext durch die Expert:innen im Team zugeordnet werden können
     
  • Arbeitsintensiv, da Fragen gestellt und Unterlagen eingefordert werden und damit ein Wechsel des Arbeitskontexts und eine Unterbrechung des Sprint-Fokus erfolgt.

Das hat in der Auditierungsindustrie zu der Frage geführt, wie interne Auditierungen effizienter und wertschöpfend gestaltet werden können. Erste Arbeiten dazu begannen im Jahr 2016 und erste Publikationen entstanden 2017 (ein Beispiel dafür finden Sie hier). Die Prinzipien dazu werden unter „agiles Auditing“ zusammengefasst und führen agile Arbeitsweisen und eine Zusammenarbeit – jedoch mit einer strikten Trennung des Arbeitsauftrags der Auditor:innen von den zu auditierenden Teams und Bereichen – ein.

Merkmale des Agilen Auditings sind beispielsweise die Präsenz von internen Auditor:innen in den Daily Standups der relevanten Teams, eine Arbeit in Sprints und das Bereitstellen der ersten Erkenntnisse beispielsweise nach dem Ende eines zweiwöchigen Sprints. Das verzahnt das Auditing enger mit der laufenden Entwicklung und Umsetzung und führt schnell zu einer Wertschöpfung, da Erkenntnisse unverzüglich in die Arbeit der Teams einfließen und Risiken schneller adressiert werden können. So kann nach dem Auditierungsprozess bereits ein Teil der ermittelten Risiken aufgelöst sein und die Teams erkennen sofort einen Nutzen und Wert in der Auditierung, was zu einer besseren Kooperation und Zusammenarbeit führt.

Und wie kann ein agiles Auditing bei einer sicheren Softwarelieferkette einen Wert liefern?

Kontrolle einer sicheren Softwarelieferkette durch Automation

Die sichere Softwarelieferkette unterliegt einer Anzahl von Kontrollmechanismen und Anforderungen, die seitens der Gesetzgebung und von Sicherheitsbehörden definiert und eingefordert werden. Je nach Land und Industrie existieren Unterschiede, aber im Kern muss die komplette Kette von dem Heranziehen von Open-Source-Artefakten bis zur Auslieferung der fertiggestellten Software nachvollziehbar und sicher sein. Bei Tausenden von Entwickler:innen, einer hohen Automation, der Nutzung von DevSecOps-Methoden und potenziell Hunderten von Releases am Tag wird das insgesamt komplex und aufwendig.

Die Antwort dazu muss in einer Automation der Kontrollen liegen. Anders können Teams diese Skalierung nicht erreichen, zudem reduzieren manuelle Kontrollen die Geschwindigkeit zur Wertschöpfung und die Wettbewerbsfähigkeit des Unternehmens.

Agiles Auditing für die sichere Softwarelieferkette

Agiles Auditing ist eine perfekte Methodik, um kooperativ zwischen den Produktteams und internen Auditor:innen die notwendigen Kontrollen zu automatisieren und die erforderlichen Nachweise bereitzustellen. Beide Teams arbeiten Hand in Hand in Sprints, die internen Auditor:innen sind in den Dailys präsent und es erfolgt ein Austausch, welche Kontrollen die internen Auditor:innen einfordern und wie die Produktteams diese per Code automatisieren und deren Erfüllung belegen können. Und wie beim Grundprinzip in der agilen Entwicklung werden neue Fähigkeiten und Anpassungen (Changes) in kleinen, inkrementellen Schritten bereitgestellt. Das führt dazu, dass sich mit jedem Sprint Risiken Stück für Stück reduzieren und die Produktteams und die Auditor:innen einen Erfolg erreichen und einen Wert liefern.

Moderne DevSecOps-Plattformen liefern dafür das notwendige Handwerkszeug. Aber in den Teams – also in den Produkt- beziehungsweise Applikationsteams und bei den internen Auditor:innen – müssen sich auch die Denkweise und eine Ausrichtung auf die Wertschöpfung und den zu erreichenden Value entwickeln. Externe Beratungsfirmen wie die Big 3 entwickeln hierzu Vorgehensweisen und Analysewerkzeuge, um Unternehmen in diese Richtung zu begleiten. Einrichtungen wie das Deutsche Institut für Interne Revision (DIIR) schaffen dazu gemeinsame Vorgehensweisen. DevSecOps-Plattformen stellen technisch die notwendigen Werkzeuge bereit. Jetzt müssen nur die Applikationsteams und internen Auditor:innen in diesen kooperativen Modus schalten und gemeinsam an dem Wert Reduktion von Risiken arbeiten.

Wir bei Computacenter fokussieren uns auf den Aufbau und das Bereitstellen der DevSecOps-Plattformen im Rahmen unseres Angebots DevSecOps Foundation Services. Das umfasst auch das Enablement für die Applikations- und Produktteams zum Nutzen der Plattform. Das Enablement ist aber nicht nur auf die technische Ebene ausgerichtet, sondern adressiert auch die Herausforderungen, ein Auditing zu automatisieren (Auditing-as-Code) und das Verständnis und Mindset in den Teams und bei den internen Auditor:innen zu etablieren.

Wenn Sie mehr über unser Vorgehen und unsere Angebote erfahren möchten, sprechen Sie uns gern an.

Erfolgreiche Cloud-Migration

Der Akzelerator für die digitale Transformation

Jessica Linke

Die digitale Transformation ist in der heutigen Geschäftswelt von zentraler Bedeutung. Ein wesentlicher Baustein dazu ist die Migration von Daten und Anwendungen in die Cloud. Hier erfahren Sie, wie diese erfolgreich gelingt.

Seit Jahren ist klar, dass die Cloud-Migration ein zentraler Bestandteil moderner Unternehmensstrategie ist. Wie kommt es dann, dass diesem Thema weiterhin eine so herausragende Bedeutung zukommt und nicht jedes Unternehmen schon sämtliche Migrationen abgeschlossen hat?

Die Antwort liegt in der unaufhaltsamen Welle der digitalen Transformation, die immer schneller über die globalen Märkte hinwegrollt.

Die Cloud-Migration ist schon lange nicht mehr nur ein technologischer Trend – sie ist ein Akzelerator, der Unternehmen dabei unterstützt, in diesem digitalen Zeitalter wettbewerbsfähig zu bleiben.

Warum die Cloud-Migration ein Schlüssel zur digitalen Zukunft ist

Die Notwendigkeit einer robusten digitalen Transformation ist in der heutigen Geschäftswelt unumstritten. Die Migration in die Cloud spielt hierbei eine entscheidende Rolle. Aber warum?

Skalierbarkeit trifft Kosteneffizienz

In der Geschäftswelt ist das Bedürfnis nach IT-Ressourcen selten konstant. Es gibt Zeiten intensiver Aktivität, etwa während Werbekampagnen, Produkt-Launches oder saisonalen Höhepunkten, und es gibt weniger intensive Phasen. Traditionelle IT-Infrastrukturen erfordern oft erhebliche Investitionen in Hardware, die sowohl in Spitzen- als auch in ruhigen Zeiten betrieben und gewartet werden muss. Dies führt zu suboptimalen Kostenstrukturen, bei denen Unternehmen entweder für ungenutzte Kapazitäten bezahlen oder in Zeiten hoher Nachfrage an ihre Grenzen stoßen.

Hier kommt die Skalierbarkeit und Flexibilität der Public Cloud ins Spiel. Unternehmen können ihre IT-Ressourcen nahezu in Echtzeit hoch- oder herunterskalieren, je nach aktuellem Bedarf. Dies bedeutet, dass Sie immer genau die richtige Menge an Ressourcen zur Verfügung haben – nicht mehr und nicht weniger.

Die direkte Konsequenz dieser dynamischen Anpassungsmöglichkeit ist eine hervorragende Kosteneffizienz. Sie zahlen nur für das, was Sie tatsächlich nutzen. Es gibt keine Verschwendung von Ressourcen oder Kapitalbindung in ungenutzter Hardware. Gleichzeitig werden IT-Ressourcen optimiert, da die Cloud-Anbieter ihre Infrastrukturen ständig modernisieren und verbessern, sodass Unternehmen jederzeit Zugang zu den neuesten und effizientesten Technologien haben.

Diese Skalierbarkeit und Kosteneffizienz der Cloud ermöglichen es Unternehmen, agil zu bleiben, sich schnell an Marktveränderungen anzupassen und dabei die Kostenstruktur zu optimieren.

Beschleunigte Implementierung digitaler Lösungen

Die Einführung neuer Software oder das Rollout von Updates wird in der Cloud erheblich beschleunigt. Anstatt jeden einzelnen Server oder Computer manuell aktualisieren zu müssen, können Aktualisierungen und neue Anwendungen zentral und global verteilt werden. Dies ermöglicht eine rasche Anpassung an neue Geschäftsanforderungen oder Marktbedingungen.

Förderung der Kollaboration und des Datenaustausches

Die Public Cloud beseitigt geografische und physische Barrieren. Teams an verschiedenen Standorten können in Echtzeit zusammenarbeiten, auf dieselben Daten zugreifen und sicherstellen, dass alle stets über die neuesten Informationen verfügen. Insbesondere in unserer globalisierten Welt, in der Telearbeit und dezentrale Teams immer häufiger werden, bietet die Cloud die notwendigen Tools, um effektiv und effizient zu arbeiten.

Erhöhte Sicherheit und Compliance

Die bekannten Hyperscaler investieren erhebliche Ressourcen in Sicherheitsmaßnahmen und gewährleisten, dass ihre Dienste den neuesten Standards und Vorschriften entsprechen. Unternehmen können von diesen Investitionen profitieren, indem sie ihre Daten und Anwendungen in sicheren Cloud-Umgebungen hosten, ohne selbst die volle Last der Sicherheits- und Compliance-Aufgaben tragen zu müssen.

Von Lift-and-Shift bis Replatforming: Die gängigsten Optionen für eine Cloud-Migration

Die Cloud-Migration bezeichnet den Prozess, bei dem Daten, Anwendungen oder andere Geschäftselemente von einem On-Premises-System, also einem beim Unternehmen vor Ort befindlichen System, in die Cloud verlagert werden. Wie schon beschrieben, kann dieser Prozess aus verschiedenen Gründen beziehungsweise strategischen Anforderungen erfolgen.

Der tatsächliche Prozess der Cloud-Migration lässt sich auf verschiedene Arten bewerkstelligen. Die Wahl erfolgt abhängig von den unternehmensspezifischen Anforderungen und dem aktuellen Zustand der Systeme beziehungsweise Applikationen.

Der Lift-and-Shift-Ansatz beispielsweise verschiebt Anwendungen unverändert in die Cloud, was oft der schnellste und einfachste Weg ist, aber nicht immer der effizienteste. Bei der Anwendungsrefaktorisierung wird die Anwendung angepasst und optimiert, bevor sie in die Cloud verschoben wird, was meist eine höhere Anfangsinvestition erfordert, aber langfristig zu besseren Ergebnissen führen kann. Replatforming hingegen bedeutet, Teile der Anwendung aufzurüsten, während der Kern der Anwendung unverändert bleibt, was einen Mittelweg zwischen den ersten beiden Ansätzen darstellt.

Es gibt noch einige andere Migrationsstrategien, aber diese drei sind besonders gängig und bieten jeweils unterschiedliche Vorteile für Unternehmen, die den Schritt in die Cloud wagen möchten.

Backup-Kolumne

Isolated Recovery Environments

Norbert Steiner

Der Begriff Isolated Recovery Environment (IRE) hat Einzug gefunden in die Backup/Restore-Welt. IRE steht für eine von der Produktion und der Datensicherung für die Produktion getrennte und isolierte Umgebung für die Datensicherung. Welcher Aufwand verbirgt sich dahinter und welchen Nutzen bieten IREs?

Was ist ein Isolated Recovery Environment?

Im Kern wird eine getrennte und isolierte Umgebung für die Datensicherung aufgebaut, damit eine vor Angriffen geschützte Umgebung existiert. Der Fokus ist hier ein gestaffelter Schutz gegen Ransomware-Angriffe. Technisch umgesetzt wird dies in der Regel mit einer Kopie der relevanten Datensicherungen verbunden mit einem Backup-Server und den Metadaten beziehungsweise dem Backup-Katalog. So findet man es auch häufig in den Darstellungen verschiedener Anbieter. Das Konzept wird auch als CyberVault oder immutable Backup-Kopie bezeichnet. Aber das IRE betont die Wiederherstellung, das Recovery, von Daten. Somit müssen auch Datensicherungen in der IRE wiederhergestellt werden können. Sie werden dann durch Spezialist:innen der IT-Sicherheit und anderer Teams auf Schad-Code geprüft und anschließend für eine Wiederherstellung in der Produktion freigegeben.

Der Ansatz ist nachvollziehbar und sinnvoll. Aber Datensicherungen müssen im Kontext betrachtet werden. Ein Backup einer Datenbank kann nur in Verbindung mit der Datenbank geprüft werden. Unternehmen haben mehrere Datenbanken im Einsatz – also müssten in der IRE die Wiederherstellung von mehreren Datenbanken wie Oracle, SQL Server, MongoDB oder PostgresQL ermöglicht werden. Und da die Regulatorik nicht zwischen den eigenen Rechenzentren und den bei Cloud Providern genutzten Ressourcen differenziert, muss das Konstrukt der IRE formal auch bei Cloud Providern umgesetzt werden. Es wird schnell ersichtlich, dass es sich um ein sehr komplexes und wirtschaftlich aufwendiges Vorhaben handelt, will man es konsequent umsetzen. Dazu bietet sich folgendes

Stufenweises Vorgehen

Stufe 1: Konzeption und Risikobewertung

Im ersten Schritt sollten eine Risikobewertung und Konzeption erfolgen. Diese sollte die Frage beantworten, wie umfangreich die IRE und verbunden damit eine Recovery-Fähigkeit ausfallen sollen. Parallel dazu sollten die verschiedenen Maßnahmen nach Wirksamkeit und Aufwand betrachtet werden.

Stufe 2: Isolierte Kopie der Datensicherung

Als Minimum sollte eine unabhängige und isolierte Kopie der Datensicherung – eine Immutable Kopie – erstellt werden. Isolation umfasst hier eine Abschottung (Firewalls, eigenes Netz, physische Trennung) und auch eine Trennung der Zuständigkeiten, damit kompromittierte Benutzer:innenkennungen im Wirkungskreis (Blastradius) beschränkt bleiben. Es gibt bereits entsprechende Lösungen am Markt, beispielsweise Veritas NetBackup IRE.

Stufe 3: Die Cloud nicht vergessen

Als weitere Maßnahme sollten konzeptionell auch die Datenbestände bei Cloud Providern für ein IRE betrachtet werden. Cloud Provider übernehmen meistens nicht die Verantwortung für die Daten. Selbst bei SaaS ist der Schutz der Daten erforderlich, da auch hier kompromittierte Benutzer:innenkennungen seitens der Unternehmen ein Risiko für die Daten darstellen können. In der Praxis sind aber Daten bei Cloud Providern und SaaS häufig nicht im Fokus und die regulatorischen Vorgaben wie beispielsweise die EU DORA (Digital Operation Resilience Act) adressieren auch explizit die operationale Resilienz der Daten bei Cloud Providern.

Stufe 4: Recovery-Plan mit Automation

Moderne IT-Landschaften von der Edge über eigene Rechenzentren bis in die Cloud werden zunehmend automatisiert. Das Deployment der Systeme und Konfigurationen von Netzwerkgeräten über Betriebssysteme und Middleware bis hin zu Cloud-Ressourcen erfolgt über Werkzeuge wie Ansible oder Terraform. Diese Automation kann eine bedeutende Rolle für ein IRE-Konzept einnehmen. Alles, was bis zur letzten Konfiguration als Code beschrieben und reproduzierbar wiederhergestellt werden kann, nutzt dazu die Software aus den Repositories der Anbieter wie beispielsweise die Pakete von Red Hat Enterprise Linux (RHEL). Anstelle eines Recovery aus der Datensicherung können die Konfigurationen und Softwarepakete automatisiert wiederhergestellt werden. Das liefert gleich mehrere Vorteile:

  • Das Recovery ist automatisiert und führt eine Neuinstallation mit Wiederherstellung der letzten Konfigurationen durch
     
  • Die Umgebungen sind als Code beschrieben und in einem Software-Code-Management-System abgelegt und gesichert – wie auch eine isolierte Kopie dieser Daten
     
  • Der Aufbau und die Konfiguration der IT-Landschaft als Code führt zu einer besseren Skalierung bei gleichem Personalbedarf und erlaubt höhere Sicherheitsstandards und eine einfachere Aktualisierung der Landschaft, beispielsweise durch das Ausrollen von Sicherheits-Updates

Bei der Wiederherstellung nach einem Ransomware-Angriff kann jetzt auch ein paralleles Vorgehen erfolgen – zum einen wird die automatisierte Wiederherstellung gestartet, zum anderen kann im IRE die Wiederherstellung der relevanten Daten – abgestuft nach Kritikalität – eingeleitet werden.

Stufe 5: Persistente Daten

Die genannten Maßnahmen lösen die Datensicherung und die Anforderungen an ein IRE nicht ab – aber sie erlauben es, den Fokus auf die persistenten Daten zu legen, die in die Datensicherung und in das IRE zu überführen sind. Der spezifische Datenbestand einer Datenbank oder eines E-Mail-Postfachs können nicht neu erzeugt werden – diese hier als persistente Daten bezeichneten einzigartigen Informationen müssen über ein Backup/Restore abgesichert werden. Dabei ist es in einem Ransomware-Fall nicht wahrscheinlich, dass die verschiedenen Systeme mit persistenten Daten kompromittiert werden. Das würde gezielte Angriffe auf die Datenhaltungssysteme (SaaS, Datenbanken, andere) voraussetzen und wäre äußerst komplex. Auszuschließen ist es allerdings nicht, da Ransomware-as-a-Service verbunden mit künstlicher Intelligenz (RaaS und AI) immer leistungsfähiger und ausgefeilter wird. Somit sind diese Daten gezielt abzusichern.

Eine organisatorische Maßnahme ist hierbei die Identifikation der spezifischen Teams, die für diese persistenten Daten zuständig sind, und das Vereinbaren der Datensicherungs- und IRE-Strategie mit diesen Teams. Daraus leiten sich anschließend die konkreten Anforderungen an die Datensicherungen und das IRE ab. Das ist grundsätzlich erforderlich, da nur diese Dateneigner:innen letztendlich eine Aussage treffen können, ob die Daten nach einer Wiederherstellung nutzbar sind.

Stufe 6: Automatisierte Testszenarien

Wenig überraschend sind regelmäßige beziehungsweise jährliche Wiederherstellungsübungen prominent in der Regulatorik gefordert. Daher ist es sinnvoll, solche Übungen möglichst zu automatisieren und regelmäßig durchzuführen. Das sollte nicht nur ein exemplarischer Restore für ein System oder eine Datenbank sein, sondern ein Restore für jeden Backup/Restore-Workflow, und es sollte eine Bestätigung des oder der jeweiligen Verantwortlichen für die Daten oder die Applikation erfolgen. Beispiele sind Sicherungen der Dateisysteme, das Wiederherstellen der Datenbank aus einem Datenbank-Dump, das Wiederherstellen der Datenbank aus den online durchgeführten Sicherungen mit den Transaktions-Logs und so fort.

Nachvollziehbare Metriken und automatisierte Berichte der Unternehmensführung und der IT-Sicherheit können dann einen aktuellen Status darüber angeben, wie erfolgreich die Wiederherstellungsübungen ablaufen.

Fazit

Der Aufbau eines IRE erstreckt sich über eine große Bandbreite und kann von einer einfachen isolierten Datensicherungskopie bis zu einer isolierten Umgebung für das Recovery von Daten aller Art reichen. Es ist sinnvoll, dabei schrittweise vorzugehen und die wertschöpfenden Maßnahmen zu identifizieren und umzusetzen. Eine fortlaufende Verbesserung ist im Anschluss immer möglich. Aber hier den potenziell kompletten Scope eines IRE direkt anzugehen, ist mit Hinblick auf die Kosten und den Personalbedarf in der Regel zu komplex. Ein mögliches Vorgehen haben wir in diesem Artikel anhand der sechs Stufen exemplarisch dargestellt.

Gern begleitet Computacenter Ihr Unternehmen bei einer Planung für ein IRE-Konzept und bei der Umsetzung. Wir unterstützen Sie gern! Melden Sie sich am besten noch heute bei Ihrem/Ihrer Ansprechpartner:in von Computacenter.

Agile-IT-Kolumne

So erreichen Sie mehr Geschwindigkeit

Norbert Steiner

Das Tempo in der Digitalisierung und damit verbunden in der Bereitstellung von neuen Softwarelösungen steigt massiv an. Das ist für die Wettbewerbsfähigkeit und Innovation der Unternehmen kritisch. Nur schneller Coden ist nicht die Antwort – also welche Maßnahmen liefern Geschwindigkeit?

Welche Geschwindigkeit steht im Fokus?

Neue Software und innovative Features entstehen in der Softwareentwicklung. Der Nutzen davon, also der gewünschte Wert oder Value, entsteht aber erst mit dem Bereitstellen der Software in der Produktion. Geschwindigkeit ist also bei dem Bereitstellen des Values für die Nutzer:innen der Software und bei der Verfügbarkeit der innovativen Lösung gefragt.

Auf dem Weg von der Entwicklung in die Produktion existieren aus technischer Sicht, hier vereinfacht dargestellt, mehrere Schritte:

  • Bereitstellung einer Planungs- und Dokumentationssoftware, die ein agiles Vorgehen unterstützt und über die die Gesamtdauer aller Schritte bis zum Deployment in die Produktion automatisiert abgebildet werden kann
     
  • Bereitstellung einer integrierten und leistungsfähigen Entwicklungsumgebung sowie der Zugriffsmöglichkeit auf sichere und konforme wiederverwendbare Code-Sequenzen und Artefakte
     
  • Unterstützung sowohl der Code-Entwicklung als auch der Zusammenarbeit im Team durch AI-basierte Lösungen, die Code prüfen, ergänzen und die Durchführung der Planung und Dokumentation vereinfachen
     
  • Fortlaufende Prüfung der Software auf Sicherheit – ganz im Sinne der Shift-Left-Sicherheitsparadigmen
     
  • Automatisiertes Testen der Software und Weiterleitung in die Produktion
     
  • Messen der Geschwindigkeit bezogen auf Häufigkeit und Dauer von Deployments, Behebung von Fehlern und Dokumentation, wie häufig Änderungen nicht ausgeführt werden können (DORA-Metriken)

Das ist eine Sichtweise auf Geschwindigkeit und eine durchaus logische Sequenz von notwendigen Schritten und technischen Aspekten. Aber eine Komponente fehlt an dieser Stelle noch, die in der Praxis die meiste Zeit erfordert, nämlich das Durchlaufen der Prozesse.

Tatsächlich sind die Releasemanagement- und Change-Prozesse für die meisten Verzögerungen verantwortlich, die durchaus mehrere Wochen betragen können. In dieser Zeit ist die Softwareentwicklung bereits ein oder zwei Sprints weitergelaufen und neue Features stehen bereits in der Warteschlange, während noch die alten Features von vor zwei Wochen in Bearbeitung sind.

Für eine deutliche Steigerung der Wertschöpfung und der Wettbewerbsfähigkeit der Unternehmen müssen auch diese Prozesse beschleunigt, also automatisiert, werden.

Automation der Regulatorik?

Zwei relevante Aspekte bei der Beschleunigung der Prozesse sind die deutlich steigenden regulatorischen Anforderungen und die an Menschen übergebenen Aufgaben und Zuständigkeiten.

Selbstverständlich muss ein Unternehmen nachweisen können, dass die regulatorischen Anforderungen für die jeweils ausgelieferte Software erfüllt werden, unter anderem auch im Bereich von Change- und Releasemanagement. Und wenn man bei jedem Schritt des oben skizzierten Ablaufs automatisiert die Nachweise generiert und sammelt, entsteht automatisiert eine lückenlose Kette von Nachweisen für eine Auditierung.

Diese Anforderung kann mit modernen DevSecOps-Plattformen und -Technologien umgesetzt werden – wenn der Faktor Mensch mit eingebunden wird.

Das große Umdenken

Manuelle Schritte sind Momente, in denen der Mensch in einem Prozess aktiv wird und eine Entscheidung fällt, also beispielsweise eine Freigabe erteilt. Bei der Automation definiert der Mensch die Kriterien für die positive Entscheidung, setzt dies gemeinsam mit der Softwareentwicklung um und stellt sicher, dass die Nachweise generiert werden. Aber es erfolgt kein manueller Eingriff mehr.

Es sind aber viele Menschen eingebunden, die aus einer Risiko- und Compliance-Sicht auf die Vorgaben schauen – und damit naturgemäß eine große Distanz zu der technischen Umsetzung haben. Dadurch ist eine enge Zusammenarbeit zwischen den Softwareteams, der IT-Sicherheit und den internen Auditoren nötig. Und das setzt Vertrauen voraus, dass die automatisierte Umsetzung korrekt erfolgt und die Freigaben automatisiert genau wie vorgesehen erteilt werden. Dieses Vertrauen muss etabliert werden – um den größten Hebel für mehr Geschwindigkeit umzulegen und Innovation schnell zu den Nutzer:innen zu bringen.

Viele kleine Schritte zur Transformation

Vertrauen kann nicht verordnet werden. Es muss sich nach und nach entwickeln. Und moderne Abläufe in der Softwareentwicklung sind nicht sofort für alle Entwickler:innen und Betriebsteams greifbar und umsetzbar. Somit zeichnen sich drei Handlungsfelder ab, die zunächst angegangen werden sollten:

  • Ein Service für die moderne Softwareentwicklung und Bereitstellung auf Basis einer DevSecOps-Plattform und das Enablement für Teams, diese schnell zu nutzen
     
  • Unterstützung der Betriebsteams, sich enger mit der Entwicklung zu verzahnen und auf Basis der gleichen Plattform mit einer As-Code-Strategie zu arbeiten und den aktiven engen Austausch zu pflegen
     
  • Begleitung der Sicherheits- und Auditierungsteams, die Anforderungen durch Code automatisiert umsetzen zu lassen und über die generierten Berichte und Dashboards zu kontrollieren

Es sind viele kleine Schritte notwendig, um das Vertrauen aufzubauen und die Geschwindigkeit – messbar – zu erhöhen. Eine gute Skalierbarkeit ist dabei wichtig – weil globale Unternehmen Tausende von Entwickler:innen beschäftigen und aufgrund der regulatorischen Anforderungen viele Prozesse und Ressourcen verwenden.

Im Sinne des agilen Vorgehens ist der erste Schritt auf dem Weg besonders wichtig. Gern begleiten wir Sie dabei – oder wir unterstützen zu einem späteren Zeitpunkt, wenn die Anfänge bereits gemacht sind.

Wenn Sie mehr über unser Vorgehen und unsere Angebote erfahren möchten, sprechen Sie uns an – wir beraten Sie gern, wie auch Sie mehr Geschwindigkeit erreichen.