Ausgabe 12/2024

Direct Liquid Cooling

Datacenter-Newsletter

Immer leistungsfähigere IT-Systeme in den Rechenzentren verlangen nach neuen Kühlungstechnologien. Der neue Goldstandard ist das Direct Liquid Cooling. Wie es funktioniert und was es dabei zu beachten gilt, erfahren Sie in dieser aktuellen Ausgabe unseres Datacenter-Newsletters.

Der IONOS AI Model Hub hilft Unternehmen dabei, ihre KI-Projekte erfolgreich umzusetzen, ihre Geschäftsprozesse zu revolutionieren und die Effizienz zu steigern – sicher und unter Einhaltung der geltenden Bestimmungen. Wir stellen Ihnen die Plattform vor.

Eine Sovereign Cloud bietet die Vorteile des Cloud-Computings und wahrt gleichzeitig die digitale Souveränität. Lesen Sie, welche technischen Komponenten eine Sovereign Cloud ausmachen, wie der Markt dafür aktuell aussieht und wohin die Reise gehen wird.

Mit dem Computacenter Sustainability Dashboard haben Sie jederzeit den Überblick über die Energiekennzahlen der IT-Infrastruktur im Rechenzentrum. Erfahren Sie, wie sie damit Ihren Energieverbrauch und die CO2-Emissionen optimieren und zudem ganz einfach Ihre Nachhaltigkeitsreports erstellen können.

Ein weiterer Artikel befasst sich mit den Anforderungen und technologische Besonderheiten von KI-Infrastrukturen im Datacenter, insbesondere in den Bereichen Compute, Storage und Netzwerk. Wir geben konkrete Tipps an die Hand, damit die Implementierung von KI-Infrastrukturen reibungslos vonstattengeht.

In unserer aktuellen Agile-IT-Kolumne geht es um die erfolgreiche Automation in Unternehmen, die neben der Auswahl der Technologiebausteine auch die Einbindung der Menschen erfordert, deren Arbeitsweise sich dadurch radikal ändert. Computacenter unterstützt Unternehmen durch gemeinsame Enablement-Programme, damit das Vorhaben gelingt und die zahlreichen Vorteile der Automation zum Tragen kommen.

Und in unserer Back-up-Kolumne erläutern wir den Unterschied zwischen Disaster Recovery und Cyber Recovery. So sind nach einer Cyberattacke einige zusätzliche Dinge zu beachten, die wir Ihnen vorstellen.

Wie immer freuen wir uns über Ihr Feedback, damit wir die Schwerpunkte aufgreifen können, die für Sie von Interesse sind.

Herzliche Grüße

Markus Kunkel
Group Partner Management

Aktuell bei Computacenter
Eines der weltweit besten Unternehmen für nachhaltiges Wachstum

Computacenter wurde vom TIME Magazine zu einem der besten Unternehmen weltweit im Bereich nachhaltiges Wachstum im Jahr 2025 ernannt. In dem Bericht werden die 500 besten Konzerne der Welt für ihr Engagement für nachhaltiges Wachstum gewürdigt.

Weitere Infos
Leader für Cloud und Data Center Services

Computacenter ist in der Studie 'Provider Lens™ Private/Hybrid Cloud - Data Center Services' der Information Services Group (ISG) als Leader für Managed Services - Large Accounts in Großbritannien positioniert worden.

Weitere Infos

Direct Liquid Cooling

Der neue Goldstandard für Rechenzentren

Ulf Schade

Die IT-Systeme in den Rechenzentren werden immer leistungsfähiger – und erzeugen immer mehr Abwärme. Neue Kühlungstechnologien sind gefragt, die nicht nur effizient, sondern auch nachhaltig sind. Besonders interessant ist hier das Direct Liquid Cooling, das viele Vorteile, aber auch einige Herausforderungen bei der Implementierung mit sich bringt.

Die steigende Nachfrage nach Kühlung im Rechenzentrum

Mit dem Aufkommen von Hochleistungssystemen für künstliche Intelligenz (KI, auf Englisch: artificial intelligence (AI)), maschinelles Lernen (ML) und High-Performance Computing (HPC) stehen IT-Abteilungen mit eigenem Rechenzentrum und Rechenzentrumsprovider (Colocation) weltweit vor enormen Herausforderungen. Die benötigte Kühlleistung in solchen Rechenzentren steigt drastisch an – teilweise bis zum Zehnfachen der Anforderungen konventioneller Systeme. Gleichzeitig zwingt das Energieeffizienzgesetz die Betreiber, Wärme-Rückgewinnungssysteme zu integrieren. Eine effiziente und nachhaltige Kühlung ist daher nicht nur wünschenswert, sondern notwendig. Eine der aussichtsreichsten Technologien in diesem Bereich ist das Direct Liquid Cooling (DLC), speziell in der Ausprägung des Direct-to-Chip Cooling.

Zeitgemäße und effiziente Kühlung im Rechenzentrum

Fast ausschließlich sind in den letzten 30 Jahren IT-Systeme in Rechenzentren mit Luft gekühlt worden. Als Richtwert gelten 3,5 kW Kühlleistung für freistehende Racks in den ausklingenden 90er Jahren. Zusammen mit der Konsolidierung von IT-Systemen bei der Virtualisierung von Systemen stieg der Bedarf, den Platz im Rechenzentrum ebenfalls zu konsolidieren und die Energieeffizienz pro Quadratmeter Fläche zu steigern. Heute finden sich damit Kalt- oder Warmgang-Einhausungen in fast allen Rechenzentren der Moderne. Um eine weitere Verdichtung auf kleinen RZ-Flächen zu ermöglichen, kamen SideCooler innerhalb einer Rackreihe hinzu. Mit bis zu 30 kW Rackkühlleistung scheint hier aber die physikalische Grenze der Technologie zu liegen.

Für Hochleistungssysteme, wie zum Beispiel HPC Cluster, wurden schon immer auch Systeme mit direkter Wasserkühlung der IT-Chips verwendet. Die Nachfrage danach war sehr klein und damit das Angebot der Serverindustrie sehr gering. Mit den Möglichkeiten der GPU-Nutzung, dem Wunsch nach einer breiten Verwendung von AI/ML-Systemen im Geschäftsleben und der Zugänglichkeit von Large Language Models (LLM) in der Allgemeinheit, steigt der Bedarf an Leistungsdichten und der Verwendung von anderen Kühltechniken in Kombination mit einer effizienten Wärmerückgewinnung. Direct Liquid Cooling (als Direct-to-Chip) besitzt das vielversprechende Potenzial, hierauf die entsprechenden Antworten nach bis zu zehnfacher Leistungsdichte zu liefern.

Immersions-Kühltechniken befinden sich noch in der Erprobung und stellen gerade im täglichen Betriebsablauf IT-Organisationen vor sehr viele praktische Herausforderungen. Für heutige Anwendungsfälle scheint die Technologie eher eine Nischenanwendung zu bleiben.

Was ist Direct Liquid Cooling?

Direct Liquid Cooling (DLC) beschreibt den Einsatz von Flüssigkeiten direkt zur Kühlung von Komponenten, die Wärme erzeugen, wie Prozessoren, GPUs oder Speicherchips. Anders als bei herkömmlicher Luftkühlung, die zunehmend an ihre Grenzen stößt, ermöglicht DLC eine deutlich effizientere Wärmeabfuhr. Dabei wird die Kühlflüssigkeit – oft deionisiertes Wasser oder spezielle Kühlflüssigkeiten – direkt an die zu kühlenden Komponenten geführt. Der Vorteil: Flüssigkeiten haben eine höhere Wärmekapazität als Luft, wodurch sie mehr Wärme aufnehmen und schneller abführen können.

Direct-to-Chip Cooling: Die nächste Stufe der Kühltechnologie

Direct-to-Chip Cooling ist eine spezifische Form des DLC, bei der die Kühlflüssigkeit direkt über die Oberfläche oder in unmittelbare Nähe des Chips geleitet wird. Diese Technologie verwendet Kühlplatten, die an die Chips angeschlossen sind, um die Wärme direkt von der Quelle abzuleiten. So entsteht eine hocheffiziente Kühlkette, die auf den Bedarf von Prozessoren, GPUs und anderen Hochleistungsbauteilen zugeschnitten ist.

Vorteile des Direct-to-Chip Cooling

  • Höhere Kühlleistung: Flüssigkeiten können bis zu 4.000 Mal mehr Wärme abführen als Luft, was die Effizienz stark erhöht.
  • Kompakte Bauweise: Direkt gekühlte Systeme benötigen weniger Platz als luftgekühlte Systeme, da sie keine großen Lüfter oder Luftkanäle erfordern.
  • Effektive Nutzung der Rückgewinnungswärme: Die direkte Abführung der Wärme ermöglicht eine gezielte Nutzung der entstehenden Wärme in Wärmerückgewinnungssystemen, was den gesetzlichen Anforderungen entspricht.

Herausforderungen bei der Einführung von DLC-Systemen im Rechenzentrum

Obwohl die Vorteile der DLC-Technologie auf der Hand liegen, stehen Betreiber von Rechenzentren vor großen Herausforderungen bei der Implementierung:

  1. Veraltete Infrastruktur: Die meisten bestehenden Rechenzentren sind nicht auf die enormen Kühlanforderungen moderner Hochleistungssysteme ausgelegt. Die Umstellung auf DLC-Systeme erfordert oft größere Umbauten und Investitionen.
  2. Kompatibilitätsprobleme: Die Standardisierung im DLC-Bereich steht erst am Anfang. Verschiedene Hersteller bieten eigene, oft inkompatible Lösungen an, was die Integration erschwert.
  3. Gesetzliche Anforderungen: Das Energieeffizienzgesetz verlangt nicht nur eine hohe Kühlleistung, sondern auch eine Möglichkeit zur Rückgewinnung und Nutzung der abgeführten Wärme. Die Implementierung solcher Systeme ist komplex und stellt zusätzliche Anforderungen an das Design und den Betrieb von Rechenzentren.
  4. Kosten und ROI: Die initialen Kosten für die Einführung von DLC und insbesondere Direct-to-Chip Cooling können hoch sein. Viele Betreiber fragen sich, wie schnell sich diese Investitionen rentieren, auch wenn die Effizienzgewinne langfristig erheblich sind. So liegen beispielsweise die Kosten für einen Server mit Direct-to-Chip Cooling um 20 bis 30 Prozent höher als bei herkömmlichen Servern und auch der Einsatz von notwendigen Cooling Distribution Units (CDUs) in den IT-Racks kostet zusätzlich Geld.

Aktuelle Lösungen und Ansätze in der Praxis

Die Hersteller von Kühlungslösungen arbeiten derzeit an verschiedenen Modellen und Technologien, um die DLC-Technologie zugänglicher zu machen. Dabei gibt es drei vorherrschende Ansätze:

  • Single-Phase Direct Liquid Cooling: Bei dieser Methode wird eine Flüssigkeit, meist Wasser, verwendet, um die Hitze zu absorbieren und aus dem System zu leiten. Die Flüssigkeit verdampft hierbei nicht, sondern bleibt im flüssigen Zustand und kann durch Wärmetauscher zurückgeführt werden. Diese Methode ist derzeit die am weitesten verbreitete und ermöglicht eine effiziente Wärmerückgewinnung.
  • Two-Phase Direct Liquid Cooling: In diesem System verdampft die Kühlflüssigkeit bei Kontakt mit dem heißen Chip und wird anschließend in einem Kondensator wieder verflüssigt. Die Methode ist zwar etwas aufwendiger in der Umsetzung, bietet jedoch höhere Effizienz und ist vor allem für sehr leistungsintensive Anwendungen geeignet.
  • Immersionskühlung: Hierbei handelt es sich um ein alternatives DLC-Verfahren, bei dem gesamte Server oder Komponenten in nicht leitende Kühlflüssigkeiten eingetaucht werden. Während diese Technik für bestimmte Hochleistungssysteme sinnvoll sein kann, bringt sie Herausforderungen in Bezug auf Wartung und Kompatibilität mit sich. Auf mittelfristige Sicht scheint der Einsatz der Technologie sehr praktische Akzeptanzprobleme bei den IT-Verantwortlichen zu haben.

Zukunftsaussichten: Standardisierung und Weiterentwicklung

Da sich DLC-Methoden wie Direct-to-Chip Cooling zunehmend in der Rechenzentrumsbranche etablieren, ist die Standardisierung ein entscheidender nächster Schritt. Es ist notwendig, dass Hersteller gemeinsam einheitliche Standards entwickeln, um die Kompatibilität der Systeme zu gewährleisten und den Einsatz zu erleichtern. Die Open Compute Project Foundation (OCP) sowie weitere Branchenorganisationen setzen sich bereits dafür ein, universelle Standards für DLC-Technologien zu schaffen. Eine erste Normierung für Verbindungstechniken von Systemen – wie Manifold-Schläuche und Steckverbindungen – wird als IEEE-Norm für 2025 erwartet.

Zudem arbeiten Forschungsinstitute und Unternehmen an neuen Kühlflüssigkeiten und verbesserten Wärmerückgewinnungssystemen, um die Effizienz weiter zu steigern. Diese Entwicklungen werden voraussichtlich dazu beitragen, DLC in den kommenden Jahren noch wirtschaftlicher und nachhaltiger zu machen.

Praktische Schritte für Rechenzentrumsbetreiber

IT-Abteilungen und Betreiber von Rechenzentren, die DLC-Systeme in Erwägung ziehen, können sich mit einigen praktischen Schritten die Implementierung erleichtern:

  1. Bestandsaufnahme und Machbarkeitsanalyse: Eine erste Analyse des bestehenden Rechenzentrums gibt Aufschluss darüber, wie leicht DLC-Technologien implementiert werden können.
  2. Pilotprojekte: Der Einsatz von DLC in ausgewählten Hochleistungssystemen, zum Beispiel in einzelnen Racks, kann wertvolle Erkenntnisse liefern und Risiken minimieren.
  3. Zusammenarbeit mit Partnern: Kooperationen mit Herstellern und externen Experten für DLC-Technologien helfen, maßgeschneiderte Lösungen zu finden und Know-how aufzubauen.
  4. Alternativen für kurzfristigen Einsatz betrachten: Eine Erneuerung von eigenen Rechenzentren dauert gewöhnlich 18 bis 48 Monate. Alternativen könnten modulare RZ-Container außerhalb des eigenen Rechenzentrums oder die Nutzung von Flächen bei Colocation-Anbietern darstellen.
  5. Regelmäßige Schulungen: Mitarbeiter sollten für die Wartung und Verwaltung von DLC-Systemen geschult werden, da die Anforderungen anders sind als bei luftgekühlten Systemen.

Fazit: Direct Liquid Cooling – der neue Goldstandard im Rechenzentrum.

Direct Liquid Cooling, insbesondere Direct-to-Chip Cooling, stellt eine zukunftsweisende Lösung für die Herausforderungen moderner Rechenzentren dar. Mit der Fähigkeit, immense Wärmemengen effizient abzuführen, und der Möglichkeit zur Wärmerückgewinnung erfüllt DLC sowohl die technischen als auch die gesetzlichen Anforderungen. Die Standardisierung und weitere Forschung werden die Implementierung dieser Technologie erleichtern und sicherstellen, dass Rechenzentren den steigenden Anforderungen an Rechenleistung und Nachhaltigkeit gerecht werden.

Jetzt ist die Zeit für Rechenzentrumsbetreiber, in DLC zu investieren und so den Weg in eine nachhaltige, zukunftsorientierte IT-Infrastruktur zu ebnen. Sprechen Sie uns gern dazu an!

Souveraene KI-Plattform

Jessica Linke

In der heutigen digitalen Welt spielt die Souveränität von Daten und Plattformen eine entscheidende Rolle. Unternehmen müssen sicherstellen, dass ihre Daten sicher und konform mit den geltenden Vorschriften verarbeitet werden. Der IONOS AI Model Hub bietet eine souveräne KI-Plattform, die diese Anforderungen erfüllt und gleichzeitig leistungsstarke KI-Lösungen bereitstellt.

Die Herausforderungen der KI-Integration

Effizienzsteigerung durch KI

Künstliche Intelligenz (KI) hat das Potenzial, Geschäftsprozesse grundlegend zu verändern, indem sie repetitive Aufgaben automatisiert und erweiterte Datenanalysen ermöglicht. Dies kann zu Kosteneinsparungen und einer Verbesserung der Entscheidungsfindung führen.

Unternehmen können durch den Einsatz von KI ihre Effizienz steigern und ihre Mitarbeiter von Routineaufgaben entlasten, sodass diese sich auf strategischere Aufgaben konzentrieren können.

Das Potenzial von KI ist also enorm, doch es fällt vielen Unternehmen schwer, dieses vollständig zu nutzen. Die Komplexität und die schnelle Weiterentwicklung der KI-Technologien stellen eine Herausforderung dar. Um KI effektiv zu nutzen, bedarf es einer umfassenden Strategie, die kontinuierliche Weiterbildung, Investitionen in die richtigen Werkzeuge und Technologien sowie die Anpassungsfähigkeit an neue Entwicklungen beinhaltet.

Die Beschleunigung der KI-Entwicklung

Die rasante Entwicklung der KI-Technologien erfordert ständiges Lernen und Anpassung. Besonders für Dienstleister und Softwareanbieter ist es wichtig, stets auf dem neuesten Stand zu bleiben, um ihren Kunden innovative Lösungen bieten zu können. Strategische Partnerschaften und die Teilnahme an KI-Ökosystemen können zusätzliche Ressourcen und Einblicke bieten, die es ermöglichen, fortschrittliche und effektive KI-Lösungen zu entwickeln.

Ist KI nur eine weitere IT-Herausforderung?

KI teilt viele Herausforderungen mit traditionellen IT-Projekten, wie die Notwendigkeit einer robusten Infrastruktur, Datensicherheit und nahtlose Integration in bestehende Systeme. Frühere Erfahrungen mit IT-Implementierungen können Unternehmen helfen, diese Hindernisse zu überwinden. Allerdings erfordert das Datenmanagement in der KI den Umgang mit großen und vielfältigen Datensätzen, was fortschrittliche Datenverwaltung und Sicherheitsmaßnahmen notwendig macht.

Die Integration von KI stellt einzigartige Herausforderungen dar, die in ihrem Umfang größer sind als bei vielen anderen IT-Projekten. Es sind spezialisierte Kenntnisse, erhebliche Rechenleistung und fortschrittliche Datenmanagement-Fähigkeiten erforderlich. Eine erfolgreiche KI-Integration bedarf eines umfassenden und strategischen Ansatzes, der Investitionen in Hochleistungsrechner, den Aufbau robuster Datenpipelines und die kontinuierliche Überwachung und Verfeinerung der KI-Modelle umfasst. Zudem sind ethische Überlegungen und Transparenz in den Entscheidungsprozessen der KI entscheidend, um Vertrauen zu gewinnen und langfristigen Erfolg zu sichern.

Die Rolle der Softwareanbieter in der IT-Transformation

In den letzten zwei Jahrzehnten haben Softwareanbieter eine entscheidende Rolle dabei gespielt, Unternehmen bei der Etablierung und Verbesserung ihrer Online-Präsenz zu unterstützen. Durch die Entwicklung von Websites, E-Commerce-Plattformen und digitalen Marketinglösungen haben Softwareanbieter es Unternehmen ermöglicht, ein breiteres Publikum zu erreichen und ihre digitale Präsenz auszubauen. Aufgrund dieser digitalen Transformation können Unternehmen nun effizienter arbeiten, neue Märkte erschließen und Kunden auf bedeutungsvollere Weise an sich binden.

Softwareanbieter haben so die Produktivität von Unternehmen erheblich verbessert, indem sie Werkzeuge entwickelt und implementiert haben, die Abläufe rationalisieren und die Kommunikation verbessern. Diese Lösungen haben Unternehmen geholfen, effizienter und effektiver zu arbeiten. Beispielsweise haben Kollaborationstools die Fernarbeit und Echtzeitkommunikation ermöglicht, was zu größerer Flexibilität und Reaktionsfähigkeit innerhalb der Organisationen geführt hat. Zudem haben Automatisierungstools den Bedarf an manuellen Eingriffen in Routineaufgaben reduziert, wodurch Ressourcen für strategischere Initiativen freigesetzt wurden und die Gesamtproduktivität gesteigert wurde.

Auch haben sie die Kundenerfahrungen durch die Entwicklung von Lösungen, die das Engagement und die Zufriedenheit verbessern, transformiert. Personalisierte Dienstleistungen, Chatbots und nahtlose Schnittstellen sind Beispiele dafür, wie Softwareanbieter die Kundenreise verbessern. Durch die Nutzung von Daten und Analysen können Lösungen entwickelt werden, die die Bedürfnisse und Vorlieben der Kunden antizipieren und maßgeschneiderte Erlebnisse bieten, die Loyalität und Zufriedenheit fördern.

Zudem kann die Integration von KI in Kundenservice-Lösungen proaktiven und reaktionsschnellen Support bieten, Probleme frühzeitig erkennen und eine positivere Kundenerfahrung sicherstellen.

Der wachsende Compliance-Druck

Die IT-Landschaft wandelt sich

Mit der fortschreitenden Entwicklung in der IT sind Datenschutz und Sicherheit zu einem immer größeren Anliegen geworden. Der regulatorische Druck nimmt zu, und Unternehmen müssen diese Herausforderungen meistern, um sensible Informationen im Sinne Ihrer Kunden zu schützen und die Einhaltung von Vorschriften wie der DSGVO sicherzustellen.

Bestehende Anbieter am Markt können eine entscheidende Rolle dabei spielen, Unternehmen bei der Bewältigung dieser Compliance-Herausforderungen zu unterstützen, indem sie Lösungen entwickeln, die robuste Sicherheitsmaßnahmen beinhalten und die Einhaltung der regulatorischen Anforderungen erleichtern. Dies umfasst die Implementierung von Verschlüsselung, Zugangskontrollen und regelmäßigen Sicherheitsüberprüfungen, um Daten zu schützen und sicherzustellen, dass Unternehmen in einer sich ständig verändernden regulatorischen IT-Landschaft regelkonform bleiben.

Diese Anbieter helfen also Unternehmen dabei, Vorschriften einzuhalten und gleichzeitig die Freiheit und Flexibilität zu bewahren, die für Innovationen notwendig sind. Ihre Expertise im Umgang mit Compliance-Fragen trägt entscheidend zum Erfolg einer KI-Einführung bei. Durch die Entwicklung von Lösungen, die Sicherheit und Compliance mit der Notwendigkeit von Agilität und Innovation in Einklang bringen, wird den Nutzern dieser Lösungen geholfen, ihre strategischen Ziele zu erreichen, ohne dabei die regulatorischen Anforderungen zu vernachlässigen. Dies erfordert, dass die Anbieter über regulatorische Änderungen auf dem Laufenden bleiben, deren Auswirkungen verstehen und proaktiv Lösungen anpassen, um kontinuierlich Compliance und Sicherheit zu gewährleisten.

Aber wohin geht die Reise?

KI und prädiktive Analytik

Prädiktive Analytik wird zunehmend zu einem Eckpfeiler, da sie hilft, Trends vorherzusagen und datengetriebene Entscheidungen zu treffen. Unternehmen können KI nutzen, um prädiktive Modelle zu entwickeln, die ihren Kunden umsetzbare Einblicke bieten und deren Entscheidungsprozesse und operative Effizienz verbessern. Beispielsweise kann prädiktive Analytik im Einzelhandel helfen, die Nachfrage nach Produkten vorherzusagen, Bestände zu optimieren und die Kundenzufriedenheit zu verbessern, indem die Verfügbarkeit beliebter Artikel sichergestellt wird. Durch die Nutzung historischer Verkaufsdaten und aktueller Markttrends können Softwareanbieter Lösungen entwickeln, die es Einzelhändlern ermöglichen, das Verbraucherverhalten vorherzusehen und ihre Strategien entsprechend anzupassen.

KI in der Cybersicherheit

Die zunehmende Komplexität von Cyberbedrohungen erfordert fortschrittliche KI-Lösungen für die Echtzeit-Erkennung und -Minderung von Bedrohungen. Softwareanbieter können diesen Trend nutzen, indem sie KI-gesteuerte Cybersicherheitswerkzeuge entwickeln, die proaktiven Schutz vor potenziellen Angriffen bieten. KI-gestützte Sicherheitssysteme können große Datenmengen analysieren, um ungewöhnliche Muster zu erkennen und Bedrohungen zu identifizieren, bevor sie erheblichen Schaden anrichten. Außerdem lässt sich mithilfe von KI der Vorfallreaktionsprozess automatisieren, sodass sich und die Belastung der IT-Sicherheitsteams reduziert. Dieser proaktive Ansatz zur Cybersicherheit ist in der heutigen Bedrohungslandschaft, in der die Geschwindigkeit und Raffinesse der Angriffe ständig zunimmt, unerlässlich.

KI-gesteuerte Personalisierung

Personalisierung hat sich zu einem wichtigen Trend entwickelt, um Kundenerfahrungen zu verbessern. KI ermöglicht es Softwareanbietern, hochgradig personalisierte Lösungen zu schaffen, wie maßgeschneiderte Empfehlungen und benutzerdefinierte Benutzeroberflächen, die die Kundenzufriedenheit und -loyalität steigern. Im E-Commerce-Sektor kann KI-gesteuerte Personalisierung das Einkaufserlebnis verbessern, indem Produktempfehlungen basierend auf den individuellen Vorlieben und dem Browserverlauf der Nutzer angeboten werden. Softwareanbieter können ausgeklügelte Algorithmen entwickeln, die das Nutzerverhalten analysieren und personalisierte Inhalte liefern, was die Engagement- und Konversionsraten erhöht. Diese Personalisierung kann auch auf andere Sektoren wie das Gesundheitswesen und die Finanzdienstleistungen angewendet werden, um maßgeschneiderte Lösungen zu bieten.

KI und Edge Computing

Edge Computing ermöglicht die Verarbeitung von Daten direkt am Netzwerkrand, was besonders für Echtzeit-Analysen und kurze Reaktionszeiten von Vorteil ist. Durch die Integration von KI in Edge-Plattformen können Unternehmen Daten nahezu in Echtzeit analysieren und auf Vorkommnisse reagieren, ohne dass eine zentrale Verarbeitung erforderlich ist. Dies führt zu schnelleren und effizienteren Ergebnissen, da die Daten lokal verarbeitet werden und somit die Latenzzeiten minimiert werden.

Datenverarbeitung und Sicherheit beim IONOS AI Model Hub

Eine Antwort auf diese Herausforderungen und Möglichkeiten ist der IONOS AI Model Hub.

Der IONOS AI Model Hub arbeitet als stateless Service, was bedeutet, dass keine Benutzereingaben oder -ausgaben gespeichert werden. Dies erhöht die Sicherheit und den Datenschutz, da keine sensiblen Daten dauerhaft gespeichert werden.

Die Daten werden in Berliner Rechenzentren gespeichert, die höchsten Sicherheitsstandards entsprechen. Diese Rechenzentren bieten eine robuste Infrastruktur für die sichere Speicherung und Verwaltung großer Datenmengen. Die Infrastruktur von IONOS ist nach den höchsten Sicherheitsstandards zertifiziert, einschließlich ISO 27001 und GDPR-Konformität, um den Schutz Ihrer Daten zu gewährleisten.

Unter anderem setzt IONOS auf fortschrittliche Verschlüsselungsprotokolle und regelmäßige Sicherheitsüberprüfungen, um die Integrität und Vertraulichkeit der Daten zu gewährleisten und sie vor unbefugtem Zugriff zu schützen. Dies umfasst auch den Schutz der Benutzerrechte. Die Einhaltung der DSGVO ist nicht nur ein zentraler Bestandteil des IONOS AI Model Hub, sondern ist ein wesentliches Anliegen von IONOS und steht somit bei allen von IONOS angebotenen Services im Fokus. Unternehmen können sich also sicher sein, dass ihre Daten gemäß den höchsten Datenschutzstandards verarbeitet werden.

Doch der IONOS AI Model Hub bietet deutlich mehr als nur Datenverarbeitung und Sicherheit. Diese Aspekte sind zwar wichtig, aber bei Weitem nicht alles. Der AI Model Hub ist einfach integrierbar und bietet Ihnen die Freiheit, ohne Vendor Lock-in zu arbeiten. Die IONOS-Plattform basiert auf offenen Standards und bietet Unterstützung für verschiedene Frameworks und Bibliotheken wie TensorFlow, PyTorch und ONNX. Dies gewährleistet, dass Sie jederzeit die Freiheit haben, Ihre Modelle und Daten zu migrieren. Nutzen Sie außerdem die optimierten Datenbanken, die speziell für KI-Anwendungen entwickelt wurden. Diese bieten hohe Leistung und Skalierbarkeit für große Datenmengen und komplexe Abfragen, um Implementierungs- und Konfigurationsaufwand zu reduzieren und direkt beginnen zu können.

Und so sieht der Prozess im Detail aus:

Die IONOS-Plattform unterstützt Sie dabei, die optimale KI-Lösung für Ihre spezifischen Anforderungen zu finden, zum Beispiel:

  • Kundendaten effizient analysieren: Erstellen Sie detaillierte Kundenprofile und gewinnen Sie wertvolle Einblicke in das Verhalten und die Vorlieben Ihrer Kunden.
  • Personalisierte Marketingkampagnen erstellen: Nutzen Sie KI, um maßgeschneiderte Marketingstrategien zu entwickeln, die genau auf Ihre Zielgruppe abgestimmt sind.
  • Produktentwicklung optimieren: Analysieren Sie Marktdaten und Kundenfeedback, um Ihre Produkte kontinuierlich zu verbessern und neue Marktchancen zu identifizieren.

Mit dem IONOS AI Model Hub haben Sie die Möglichkeit, Ihre Geschäftsprozesse zu revolutionieren und Ihre Effizienz zu steigern. Die Plattform bietet Ihnen die Werkzeuge und Ressourcen, die Sie benötigen, um Ihre KI-Projekte erfolgreich umzusetzen.

Fazit

Der IONOS AI Model Hub bietet eine souveräne KI-Plattform, die durch ihre robusten Sicherheitsmaßnahmen, die Einhaltung der DSGVO und die effiziente Datenverarbeitung überzeugt. Unternehmen können diese Plattform nutzen, um innovative KI-Lösungen zu entwickeln und ihre Geschäftsprozesse zu optimieren.

Interessiert? Wir beraten Sie gern persönlich. Wenden Sie sich dazu einfach an Ihre Ansprechpartnerin oder Ihren Ansprechpartner bei Computacenter.

Digitale Souveraenitaet dank Sovereign Cloud

Jessica Linke

Datenschutz sowie die Kontrolle über Daten sind heutzutage von entscheidender Bedeutung. Eine Sovereign Cloud ist eine spezielle Cloud-Umgebung, die Unternehmen dabei unterstützt, ihre Daten innerhalb bestimmter geografischer und rechtlicher Grenzen zu speichern und zu verwalten. Dies ist besonders wichtig, um den wachsenden Anforderungen an Datenschutz und Compliance gerecht zu werden.

Eine Sovereign Cloud bietet nicht nur die Vorteile des Cloud-Computings, sondern stellt auch sicher, dass sensible Daten vor externen Bedrohungen geschützt sind und den lokalen Vorschriften entsprechen. Für Unternehmen und Organisationen ist dieses Thema von großer Bedeutung, da die Einhaltung gesetzlicher Vorgaben und der Schutz sensibler Daten essenziell für ihren Geschäftsbetrieb ist. Die Nutzung einer Sovereign Cloud kann helfen, das Vertrauen der Kunden zu stärken, rechtliche Risiken zu minimieren und die betriebliche Effizienz zu steigern. In einer Zeit, in der Datenverstöße und Cyberangriffe immer häufiger werden, bietet die Sovereign Cloud eine sichere und regelkonforme Lösung für das Datenmanagement.

Was bedeutet Souveränität und was ist eine Sovereign Cloud?

Mit dem Wort „Souveränität“ wird die Fähigkeit einer juristischen Person bezeichnet, unabhängig und eigenständig Entscheidungen zu treffen und zu handeln. In der Rechtswissenschaft bedeutet dies die ausschließliche rechtliche Selbstbestimmung eines Staates oder einer Institution, ohne Einmischung von außen.

Souveränität in der IT bezieht sich auf die Fähigkeit von Individuen, Organisationen und Staaten, ihre IT-Infrastrukturen und digitalen Systeme unabhängig und selbstbestimmt zu nutzen und zu gestalten. Dies bedeutet, dass sie die volle Kontrolle über ihre Daten, die eingesetzten Technologien und die damit verbundenen Prozesse haben.

Digitale Souveränität ist entscheidend, um die Sicherheit und Integrität von Daten zu gewährleisten und um sicherzustellen, dass IT-Systeme den spezifischen Anforderungen und gesetzlichen Vorgaben entsprechen. In der Nutzung von IT-Infrastrukturen bedeutet Souveränität, dass Unternehmen und Organisationen nicht von externen Anbietern oder fremden Staaten abhängig sind. Dies umfasst die Fähigkeit, eigene IT-Systeme zu betreiben, Daten sicher zu speichern und zu verarbeiten sowie die Kontrolle über die eingesetzte Software und Hardware zu behalten. Digitale Souveränität ermöglicht es, Risiken wie Cyberangriffe und Datenverluste zu minimieren und gleichzeitig die Innovationsfähigkeit und Wettbewerbsfähigkeit zu stärken.

All diese Aspekte muss auch eine Sovereign Cloud beachten. Eine Sovereign Cloud ist daher eine spezielle Cloud-Umgebung, die entwickelt wurde, um den Anforderungen an die gerade beschriebene digitale Souveränität gerecht zu werden. Dies bedeutet, dass Daten innerhalb bestimmter geografischer und rechtlicher Grenzen gespeichert und verwaltet werden, um den lokalen Datenschutz- und Compliance-Vorschriften zu entsprechen. Hauptmerkmale einer Sovereign Cloud umfassen die Kontrolle über den physischen Standort der Daten, strenge Zugriffsbeschränkungen und die Einhaltung spezifischer gesetzlicher Anforderungen. Diese Cloud-Umgebungen sollen Unternehmen die Möglichkeit bieten, ihre sensiblen Daten sicher zu speichern und gleichzeitig die Vorteile des Cloud-Computings zu nutzen.

Im Vergleich zu anderen Cloud-Modellen gibt es daher deutliche Unterschiede. Public Clouds bieten ihre Dienste über das Internet für mehrere Mandanten an. Sie sind kostengünstig und skalierbar, jedoch können sie bei strengen Datenschutzanforderungen und Compliance-Vorgaben weniger geeignet sein. Private Clouds hingegen werden entweder intern von einem Unternehmen oder von einem Drittanbieter exklusiv für ein Unternehmen betrieben. Sie bieten höhere Sicherheitsstandards und mehr Kontrolle, sind jedoch oft mit höheren Kosten und einem größeren Verwaltungsaufwand verbunden.

Eine Sovereign Cloud kombiniert Elemente beider Modelle, indem sie die Flexibilität und Skalierbarkeit der öffentlichen Cloud mit den Sicherheits- und Compliance-Vorteilen der privaten Cloud vereint.

Vorteile der Sovereign Cloud

Die Sovereign Cloud bietet zahlreiche technische und rechtliche Vorteile, die für Unternehmen und Organisationen von großer Bedeutung sind. Zu den wichtigsten Aspekten zählen die Compliance und der Datenschutz.

Der Anbieter einer Sovereign Cloud hat es sich zur Aufgabe gemacht, Unternehmen zu ermöglichen, gesetzliche Vorschriften und Datenschutzbestimmungen einzuhalten, indem sichergestellt wird, dass Daten innerhalb bestimmter geografischer und rechtlicher Grenzen gespeichert und verarbeitet werden. Dies ist besonders relevant in Regionen mit strengen Datenschutzgesetzen wie der EU, wo die Datenschutz-Grundverordnung (DSGVO) gilt. Durch die Nutzung einer Sovereign Cloud sollen Unternehmen sicherstellen können, dass sensible Daten vor unbefugtem Zugriff geschützt sind und den lokalen Vorschriften entsprechen.

Ein weiterer Vorteil der Sovereign Cloud ist die verbesserte Kontrolle und Transparenz über Daten und IT-Infrastruktur. Unternehmen haben die Möglichkeit, genau zu bestimmen, wo ihre Daten gespeichert werden und wer darauf zugreifen kann. Dies erhöht die Sicherheit und reduziert das Risiko von Datenverlusten oder -missbrauch. Zudem bietet die Sovereign Cloud eine höhere Transparenz in Bezug auf die Datenverarbeitung und -speicherung, was es Unternehmen erleichtert, ihre IT-Umgebungen zu überwachen und zu verwalten.

Schließlich trägt die Sovereign Cloud auch zur betrieblichen Resilienz bei, indem sie die Ausfallsicherheit und die Geschäftskontinuität erhöht. Durch die Nutzung einer souveränen Cloud-Infrastruktur können Unternehmen sicherstellen, dass ihre kritischen Daten und Anwendungen auch im Falle von Störungen oder Ausfällen verfügbar bleiben. Dies wird durch redundante Systeme und Disaster-Recovery-Mechanismen erreicht, die in der Sovereign Cloud automatisch integriert sind. Dadurch können Unternehmen ihre Betriebsabläufe aufrechterhalten und sich schnell von unerwarteten Ereignissen erholen.

Sovereign Clouds können daher in verschiedenen Branchen Anwendung finden, darunter Gesundheitswesen, Finanzdienstleistungen und die öffentliche Verwaltung.

Technische Komponenten einer Sovereign Cloud

Der technische Aufbau einer Sovereign Cloud umfasst mehrere Schichten und Komponenten, die zusammenarbeiten, um eine sichere und konforme Cloud-Umgebung zu schaffen. Das wohl bekannteste Beispiel für eine solche Architektur ist der Sovereign Cloud Stack (SCS), der als technischer Unterbau des europäischen Cloud-Projekts GAIA-X dient.

Die Architektur einer Sovereign Cloud – wie auch einer Public Cloud – beginnt mit der Infrastrukturschicht, die aus physischen und virtuellen Servern besteht. Diese Server sind in Rechenzentren untergebracht, die sich innerhalb bestimmter geografischer Grenzen befinden, um die Anforderungen an die Datenresidenz und -souveränität zu gewährleisten. Auf dieser Schicht wird eine Software zur Verwaltung von Cloud-Computing-Ressourcen benötigt.

Darüber hinaus spielt die Containerisierung eine wichtige Rolle, um Anwendungen in isolierten Containern zu betreiben. Diese Container werden durch eine Plattform orchestriert. Deren zentrale Aufgabe ist die Automatisierung der Bereitstellung, Skalierung und Verwaltung von containerisierten Anwendungen.

Ein weiteres zentrales Element ist das Identity-Management, das sicherstellt, dass nur autorisierte Benutzer Zugriff auf die Cloud-Ressourcen haben.

Die Netzwerkkapazität und -isolierung wird durch dedizierte Netzwerke gewährleistet, um höchste Sicherheitsanforderungen zu erfüllen. Dies bedeutet, dass bestimmte Netzwerke vollständig vom öffentlichen Internet isoliert sind, um unbefugten Zugriff zu verhindern.

Ein weiterer wichtiger Aspekt ist die Sicherheit, zu der auch die Verschlüsselung gehört. Hierbei kommen fortschrittliche Verschlüsselungstechniken und Sicherheitsprotokolle zum Einsatz, um sicherzustellen, dass Daten sowohl während der Übertragung als auch im Ruhezustand geschützt sind. Dies umfasst die Nutzung von End-to-End-Verschlüsselung und die Verwaltung von Verschlüsselungsschlüsseln, die entweder vom Cloud-Anbieter oder von den Kunden selbst kontrolliert werden können.

Anbieter am Markt

Der Markt für Sovereign-Cloud-Lösungen wächst stetig, da immer mehr Unternehmen und Regierungen die Bedeutung der digitalen Souveränität erkennen. Zu den bekanntesten Anbietern gehören große Technologieunternehmen sowie spezialisierte europäische Anbieter.

Amazon Web Services (AWS) plant die Einführung der AWS European Sovereign Cloud für 2025. Sie wurde speziell für europäische Kunden entwickelt, um den Anforderungen an Datenresidenz und betriebliche Autonomie gerecht zu werden. Diese neue, unabhängige Cloud wird in Deutschland angesiedelt sein.

Microsoft bietet in Zusammenarbeit mit SAP und Arvato die Delos Cloud an, die auf Microsoft Azure basiert und speziell für europäische Kunden entwickelt wurde, um den Anforderungen an Datenschutz und Compliance gerecht zu werden. Auch sie wird 2025 mit den ersten Services verfügbar sein.

Google arbeitet mit T-Systems zusammen, um die T-Systems Sovereign Cloud powered by Google Cloud anzubieten. Diese Lösung kombiniert die Leistungsfähigkeit der Google Cloud mit den strengen Datenschutz- und Sicherheitsanforderungen, die von T-Systems gewährleistet werden.

Oracle hat die EU Sovereign Cloud entwickelt, die es europäischen Unternehmen ermöglicht, ihre Daten innerhalb der EU zu speichern und zu verwalten. Diese Cloud-Lösung ist darauf ausgelegt, den strengen europäischen Datenschutzbestimmungen zu entsprechen.

IONOS und StackIT sind europäische Anbieter, die Sovereign-Cloud-Lösungen anbieten. Ebenfalls als europäischer Anbieter mit einer Spezialisierung auf Datenschutz und Compliance ist OVH mit seiner OVHcloud am Markt.

Alle Anbieter unterscheiden sich in ihren Ansätzen und Technologien, bieten jedoch allesamt Lösungen, die darauf abzielen, die digitale Souveränität ihrer Kunden zu gewährleisten und gleichzeitig die Vorteile des Cloud-Computings zu nutzen.

Wohin geht die Reise?

Die Idee, die hinter der Sovereign Cloud steht, wird auch in Zukunft Anwendung finden. Immer mehr Unternehmen und Regierungen erkennen die Bedeutung der digitalen Souveränität, aber auch die Vorteile der Nutzung einer skalierfähigen und flexiblen Umgebung. Ein wesentlicher Trend ist die zunehmende Investition globaler Cloud-Anbieter in regionale und nationale Cloud-Infrastrukturen, um den spezifischen Anforderungen an Datenschutz und Compliance gerecht zu werden.

Ein weiterer Trend ist die Integration fortschrittlicher Technologien wie künstliche Intelligenz (KI) und maschinelles Lernen (ML) in Sovereign Clouds. Diese Technologien ermöglichen es Unternehmen, ihre Daten effizienter zu analysieren und zu nutzen, während sie gleichzeitig die Kontrolle und Sicherheit über ihre Daten behalten.

Die Herausforderungen bleiben jedoch bestehen. Die Einhaltung der sich ständig ändernden regulatorischen Anforderungen und die Sicherstellung der technischen Implementierung erfordern kontinuierliche Anpassungen und Investitionen. Dennoch bietet die Sovereign Cloud eine vielversprechende Lösung für Unternehmen, die ihre Daten sicher und konform verwalten möchten.

Wünschen Sie eine individuelle Beratung zu Sovereign Clouds, die Ihre spezifischen Anforderungen berücksichtigt? Sprechen Sie uns gern an!

Energiedaten im RZ auf einen Blick

Computacenter Sustainability Dashboard

Sven Pietsch

Unternehmen müssen künftig Nachhaltigkeitsinformationen im Geschäftsbericht offenlegen. Mit einem einheitlichen Energiemonitoring sorgt das Computacenter Sustainability Dashboard für einen Überblick über die Energiekennzahlen der IT-Infrastruktur im Rechenzentrum. So liegen die relevanten Werte für das Nachhaltigkeitsreporting vor – und die Visualisierung der Effektivität und Optimierungspotenziale hilft zudem dabei, schnell gezielte Maßnahmen einleiten zu können.

In der heutigen Geschäftswelt ist Nachhaltigkeit nicht nur ein Trend, sondern eine Notwendigkeit. Unternehmen stehen unter zunehmendem Druck, ihre Kennzahlen in den Bereichen Umwelt, Soziales und Unternehmensführung (auf Englisch: Environmental, Social und Governance, daher die Abkürzung ESG) transparent zu machen.

Mit der Einführung von Regularien wie der Corporate Sustainability Reporting Directive (CSRD), den European Sustainability Reporting Standards (ESRS) und dem Energieeffizienzgesetz (EnEfG) – wie auch den damit einhergehenden Reportingvorschriften (der Report ist zukünftig Teil des Geschäftsberichts) – wird die Notwendigkeit einer zentralen Bereitstellung von Energiedaten in einem Nachhaltigkeits-Dashboard auch für das Rechenzentrum immer deutlicher.

Der Grund: Rechenzentren verbrauchen heute schon vier Prozent der weltweiten Energieressourcen. Das Management und die Transparenz von unterschiedlichen Messpunkten im Rechenzentrum werden daher helfen, die Effizienz zu verbessern und gleichzeitig die notwendigen Daten für ein Nachhaltigkeitsreporting zu liefern.

Was ist ein „Datacenter-Nachhaltigkeits-Dashboard“?

Ein Nachhaltigkeits-Dashboard ist ein zentrales Tool, das Unternehmen dabei hilft, ihre ESG-Leistungen im Bereich des Rechenzentrums zu überwachen, zu analysieren und sie in einem Bericht zusammenzufassen. Es integriert Daten aus verschiedenen Quellen und stellt sie in einer benutzerfreundlichen Oberfläche dar. Ein solches Dashboard basiert auf einer multikompatiblen LogAnalyse-Plattform, die es ermöglicht, Daten aus unterschiedlichen Systemen zu sammeln und zu korrelieren.

Vorteilhaft ist eine solche Dashboard-Lösung unter anderem im Hinblick auf folgende Aspekte:

  1. Zentralisierte Datenverwaltung für das Rechenzentrum:
    Ein Nachhaltigkeits-Dashboard bietet eine zentrale Plattform zur Verwaltung aller relevanten ESG-Daten. Dies erleichtert die Erfassung, Analyse und Berichterstattung von Nachhaltigkeitskennzahlen.
  2. Beitrag des Rechenzentrums zur Einhaltung von Regularien:
    Durch die Integration von CSRD-, ESRS- und EnEfG-Regularien stellt das Dashboard sicher, dass alle gesetzlichen Anforderungen erfüllt werden. Dies reduziert das Risiko von Strafen und verbessert die Transparenz gegenüber Stakeholdern.
  3. Echtzeit-Überwachung:
    Das Dashboard ermöglicht die Echtzeit-Überwachung von Nachhaltigkeitskennzahlen wie PUE (Power Usage Effectiveness), CUE (Carbon Usage Effectiveness) und WUE (Water Usage Effectiveness). Dies hilft Unternehmen, spontan korrekt zu reporten und gleichzeitig ihre Umweltleistung kontinuierlich zu verbessern.
  4. Datenvisualisierung:
    Durch die benutzerfreundliche Visualisierung von Daten können Unternehmen Trends und Muster leicht erkennen. Dies unterstützt die Entscheidungsfindung und ermöglicht die proaktive Planung von Maßnahmen. etwa mittels Simulation von Entwicklungen (unerheblich, ob in der IT-Umgebung, im Nutzerverhalten oder in anderen Unternehmensbereichen) zur Verbesserung der Nachhaltigkeitsleistung.

Technische Machbarkeit und Implementierung

Die Implementierung eines Datacenter Sustainability Dashboards erfordert eine robuste und gleichzeitig flexible multikompatible Plattform, da in ihr unterschiedlichste Datenströme, Logs, Traces, Kennwerte und Metriken korreliert und dargestellt werden. Die Computacenter-Lösung bietet eine solche integrierte Plattform, die alle notwendigen Funktionen in einer einzigen Lösung vereint. Dies bedeutet, dass Unternehmen nicht mehr viele Einzel-Tools für die jeweiligen Disziplinüberwachungen nutzen und mühsam deren Werte manuell zusammenführen müssen, sondern dass sie hierfür eine zentrale Plattform nutzen können, die alle wesentlichen Aspekte der Nachhaltigkeitsberichterstattung abdeckt und entsprechende Resultate nachvollziehbar und transparent darstellt.

Die Plattform unterstützt aktuell die Erfassung und Analyse von Daten aus verschiedenen Quellen, einschließlich Energieverbrauch (PUE), Emissionen (CUE), Wasserverbrauch (WUE) sowie die Faktoren für die Nutzung erneuerbarer Energien. Die benutzerfreundliche Oberfläche ermöglicht es den Anwendern zudem, Daten einfach zu visualisieren und Berichte zu erstellen.

Alltagsbeispiele aus der IT-Welt

Ein Beispiel aus der Praxis zeigt, wie ein Unternehmen durch den Einsatz eines Datacenter Sustainability Dashboards seine Umweltleistung verbessern konnte. Durch die Echtzeit-Überwachung von PUE, CUE und WUE konnte das Unternehmen ineffiziente Prozesse und Technologiebereiche identifizieren und optimieren. Dies führte zu einer signifikanten Reduzierung des Energieverbrauchs und der CO2-Emissionen.

Ein weiteres Beispiel zeigt, wie ein Unternehmen durch die Integration dieser Dashboard-Lösung die Transparenz gegenüber Stakeholdern verbessern konnte. Durch die zentrale Verwaltung und Berichterstattung von ESG-Daten konnte das Unternehmen sowohl seinen Reporting-Verpflichtungen nachkommen als auch das Vertrauen der Investoren stärken und seine Marktposition verbessern.

Fazit

Getreu dem Motto „Nur was man messen kann, kann man auch verbessern!“ bietet ein zentrales Datacenter Sustainability Dashboard zahlreiche Vorteile für Unternehmen, die ihre ESG-Leistungen überwachen und berichten müssen oder sich bezüglich ihrer ressourcenschonenden Nachhaltigkeit schlichtweg verbessern möchten. Es ermöglicht eine zentrale Datenverwaltung, Echtzeit-Überwachung und benutzerfreundliche Datenvisualisierung. Mit der Computacenter-Plattform erhalten Unternehmen eine umfassende Lösung, die notwendige Daten für die Nachhaltigkeitsberichterstattung über das Rechenzentrum abdeckt und die Effizienz und Transparenz verbessert.

Möchten Sie die Vorteile des Computacenter Sustainability Dashboards in einer persönlichen Beratung vorgestellt bekommen? Wir freuen uns auf Ihre Anfrage!

KI-Infrastrukturen im Datacenter

Anforderungen und technologische Besonderheiten


Thomas Munser

In der heutigen digitalen Ära ist künstliche Intelligenz (KI) nicht mehr nur ein Schlagwort, sondern eine transformative Kraft, die Unternehmen in nahezu allen Branchen revolutioniert. Die Implementierung von KI-Lösungen erfordert jedoch spezialisierte Infrastrukturen, die den einzigartigen Anforderungen dieser Technologien gerecht werden. Das betrifft besonders die Bereiche Compute, Storage und Netzwerk, aber auch die Rechenzentren, in denen diese Systeme betrieben werden.

Für KI-Anwendungen bedarf es oft Compute-Ressourcen mit leistungsstarken Prozessoren und GPUs (Graphics Processing Units), die für die Verarbeitung großer Datenmengen und komplexer Algorithmen unerlässlich sind. Storage-Lösungen müssen in der Lage sein, riesige Datenmengen effizient zu speichern und schnell bereitzustellen. Die verbindenden Netzwerkinfrastrukturen müssen hohe Bandbreiten und niedrige Latenzzeiten bieten, um die Kommunikation zwischen den verschiedenen Komponenten optimal zu gewährleisten.

Schließlich sind – auf diese Anforderungen – optimierte Rechenzentren erforderlich, um die physische Sicherheit und die optimale Betriebsumgebung für die Hardware zu gewährleisten. All diese Komponenten gemeinsam ermöglichen es Unternehmen, das volle Potenzial von KI-Technologien in den eigenen Rechenzentren oder in Edge-Lokationen auszuschöpfen und innovative Lösungen zu entwickeln. Dieser Artikel fokussiert sich auf KI-Infrastrukturen in Rechenzentren – daneben ist auch die Nutzung von Public-Cloud-Angeboten eine Option. Für diese Entscheidung sind aber weniger technologische Aspekte ausschlaggebend, sondern vielmehr die Frage nach dem Betriebsmodell der Bereitstellung von Ressourcen für die Nutzung von KI-Technologien.

Compute: Die Rechenleistung hinter der Intelligenz

Schauen wir zunächst auf die eigentlichen Compute-Komponenten. Die Implementierung von KI-Infrastrukturen stellt je nach Phase und Anwendungsfall mitunter erhebliche Herausforderungen an die Server-Hardware dar. Eine der größten Herausforderungen ist die Notwendigkeit, enorme Rechenleistung bereitzustellen. KI-Modelle, insbesondere solche des Deep Learnings, erfordern leistungsstarke Prozessoren, die in der Lage sind, große Datenmengen effizient zu verarbeiten.

GPUs sind hierbei besonders wichtig, da sie parallele Berechnungen schneller und effizienter durchführen können als herkömmliche CPUs. Neben GPUs werden auch TPUs (Tensor Processing Units) eingesetzt, die speziell für KI-Berechnungen entwickelt wurden. Die folgende Tabelle gibt eine allgemeine Übersicht, in welcher Phase GPUs zum Einsatz kommen:

Phase Beschreibung Notwendigkeit von GPUs
Datenvorbereitung Daten werden gesammelt, bereinigt und in ein passendes Format gebracht. Nicht unbedingt nötig.
Hier sind CPUs oft ausreichend, aber GPUs können bei großen Datenmengen den Prozess beschleunigen.
Modelltraining Die KI lernt aus den Daten und erkennt Muster und Zusammenhänge. Sehr wichtig!
GPUs beschleunigen die Berechnung von Matrizen und Vektoren. Das Training komplexer Modelle dauert ohne GPUs deutlich länger.
Modelloptimierung Verbesserungen des Modells durch Feineinstellungen oder Rechenanforderungsreduktion. Teilweise nötig.
GPUs sind hilfreich für größere Optimierungen, kleinere Anpassungen sind jedoch oft mit CPUs möglich.
Inference (Anwendung) Das Modell wird genutzt, um neue Daten zu analysieren oder Entscheidungen zu treffen. Teilweise nötig.
Wichtig bei Echtzeitanwendungen (z. B. Sprachassistenten). Weniger zeitkritische Anwendungen können auch auf CPUs laufen.

 
Eine weitere Herausforderung ist die Kühlung der Hardware, denn die hohe Rechenleistung führt zu einer erheblichen Wärmeentwicklung, die effektiv abgeführt werden muss, um die optimale Leistung und Lebensdauer der Komponenten zu gewährleisten. Dies erfordert fortschrittliche Kühlsysteme, die oft teuer und komplex in der Implementierung sind. Die Skalierbarkeit der Hardware ist ebenfalls eine Herausforderung – KI-Anwendungen können schnell wachsen, und die Infrastruktur muss in der Lage sein, diese Expansion zu unterstützen.

Dies bedeutet, dass die Server-Hardware flexibel und modular aufgebaut sein sollte, um eine einfache Erweiterung zu ermöglichen. Zudem müssen die Server robust und zuverlässig sein, um den kontinuierlichen Betrieb sicherzustellen. Ausfälle können zu erheblichen Unterbrechungen und Datenverlusten führen, was in vielen Anwendungsbereichen inakzeptabel ist. Daher ist die Auswahl von qualitativ hochwertiger Hardware und die Implementierung von Redundanzmechanismen entscheidend. Schließlich stellt auch die Energieeffizienz eine Herausforderung dar, da die hohen Leistungsanforderungen zu einem erheblichen Energieverbrauch führen, was nicht nur Kosten verursacht, sondern auch ökologische Auswirkungen hat. Effiziente Hardwarelösungen und nachhaltige Energiequellen sind daher wichtige Aspekte bei der Planung und Implementierung von KI-Infrastrukturen.

Storage: Der Speicherbedarf intelligenter Systeme

KI-Anwendungen generieren und nutzen riesige Datenmengen. Diese Daten müssen nicht nur gespeichert, sondern auch schnell zugänglich sein. Daher sind sowohl Kapazität als auch Geschwindigkeit entscheidende Faktoren. Für einen schnellen Zugriff kommen NVMe(Non-Volatile Memory Express)-Speicher zum Einsatz, da diese hohe Geschwindigkeiten für den schnellen Zugriff auf Daten bieten. Aber auch Bandlaufwerke sind in diesem Zusammenhang wieder interessant, da eine große Menge an Daten archiviert werden muss. Unabhängig vom eingesetzten Medium sind effiziente Datenmanagementlösungen notwendig, um sicherzustellen, dass die relevanten Daten bei Bedarf verfügbar sind. Data Lakes und Datennetzwerke ermöglichen es Unternehmen, strukturierte und unstrukturierte Daten in großem Umfang zu speichern.

Eine der größten Herausforderungen besteht darin, die Balance zwischen Kosten und Leistung zu finden. Hochleistungs-Speicherlösungen wie NVMe sind teuer, während kostengünstigere Optionen wie klassische Festplatten und Tapes möglicherweise nicht die erforderliche Geschwindigkeit bieten. Unternehmen müssen daher sorgfältig abwägen, welche Speicherlösungen für ihre spezifischen Anforderungen am besten geeignet sind. Auch hier besteht eine weitere Herausforderung in der Skalierbarkeit, wie schon bei den Compute-Komponenten.

Mit dem exponentiellen Wachstum der Datenmengen müssen Speicherlösungen flexibel erweiterbar sein, ohne dass es zu Leistungseinbußen kommt. Dies erfordert eine sorgfältige Planung und Implementierung von skalierbaren Speicherarchitekturen. Die Zuverlässigkeit der Speicherhardware ist ebenfalls von entscheidender Bedeutung, da Datenverluste oder -beschädigungen verheerende Auswirkungen haben können, insbesondere in kritischen Anwendungen. Daher sind robuste Backup- und Wiederherstellungslösungen unerlässlich, um die Integrität der Daten zu gewährleisten. Wie auch bei den Compute-Komponenten stellt hier ebenfalls die Energieeffizienz eine zusätzliche Herausforderung an die IT-Abteilungen dar.

Netzwerk: Die Verbindung der Komponenten

Ein leistungsfähiges Netzwerk ist das Rückgrat jeder KI-Infrastruktur. Es muss in der Lage sein, große Datenmengen schnell und zuverlässig zwischen verschiedenen Systemen zu übertragen. High-Bandwidth-Netzwerke sind erforderlich, um den Datentransfer zwischen Speichersystemen und Recheneinheiten zu optimieren. KI-Systeme umfassen oft eine Vielzahl von Verarbeitungseinheiten, insbesondere GPUs, die stark beansprucht werden. Dies stellt bei dem hier benötigten „Ost-West-Verkehr“ erhebliche Anforderungen an die KI-Netzwerkinfrastruktur, die häufig Hunderte von Hochgeschwindigkeits-Ports (100 Gbit/s, 400 Gbit/s und 800 Gbit/s) unterstützen muss. Dabei spielen zudem geringe Latenzzeiten eine entscheidende Rolle. Software-defined Networking (SDN) ermöglicht dabei eine flexible Anpassung der Netzwerkkapazitäten an wechselnde Anforderungen.

Zusätzlich zur Bandbreite und Latenzzeit ist die Zuverlässigkeit des Netzwerks von entscheidender Bedeutung. Ausfälle oder Unterbrechungen können zu erheblichen Verzögerungen und Datenverlusten führen, was in vielen Anwendungsbereichen inakzeptabel ist. Daher sind robuste Netzwerkarchitekturen und Redundanzmechanismen unerlässlich, um eine kontinuierliche Verfügbarkeit zu gewährleisten. Ein weiterer wichtiger Aspekt ist die Sicherheit des Netzwerks. Da KI-Anwendungen oft sensible Daten verarbeiten, müssen umfassende Sicherheitsmaßnahmen implementiert werden, um Daten vor unbefugtem Zugriff und Cyberangriffen zu schützen.

Dies umfasst die Verschlüsselung von Daten während der Übertragung sowie den Einsatz von Firewalls und Intrusion-Detection-Systemen. Schließlich ist auch hier die Skalierbarkeit des Netzwerks ein wesentlicher Faktor. Mit dem Wachstum der Datenmengen und der zunehmenden Komplexität der KI-Modelle muss das Netzwerk in der Lage sein, sich flexibel an die steigenden Anforderungen anzupassen. Dies erfordert eine sorgfältige Planung und kontinuierliche Überwachung der Netzwerkleistung.

Rechenzentren: Die physische Basis

Die physische Infrastruktur eines Rechenzentrums muss robust genug sein, um die speziellen Bedürfnisse von KI-Systemen zu unterstützen. Dazu gehören leistungsstarke Kühlungssysteme zur Wärmeableitung sowie Sicherheitsmaßnahmen zum Schutz sensibler Daten. Innovative Kühllösungen wie Flüssigkeitskühlung helfen dabei, die hohen Temperaturen zu bewältigen. Der Einsatz dieser Kühlungsmethode ist zwar nicht neu, jedoch in den meisten Rechenzentren heute nicht im Einsatz und muss dann nachgerüstet werden.

Da KI-Systeme viel Energie verbrauchen, ist eine energieeffiziente Gestaltung des Rechenzentrums wichtig. Neben der Kühlung spielen auch noch weitere Einrichtungen wie die Notstromversorgung, die Stromzuleitung und die physische Sicherheit entscheidende Rollen. Rechenzentren müssen gegen physische Bedrohungen wie Einbruch, Feuer und Naturkatastrophen geschützt sein. Dies erfordert den Einsatz von Überwachungssystemen, Zugangskontrollen und Brandschutzmaßnahmen. Darüber hinaus müssen die Rechenzentren so gestaltet sein, dass sie eine hohe Verfügbarkeit und Zuverlässigkeit bieten. Dies umfasst redundante Stromversorgungen und Notstromaggregate, um Ausfälle zu vermeiden.

Die Standortwahl ist für Rechenzentren ebenfalls von Bedeutung. Faktoren wie Klimabedingungen, Energieversorgung und Nähe zu wichtigen Datenquellen können die Effizienz und Sicherheit der Infrastruktur beeinflussen. Insgesamt erfordert die physische Infrastruktur eines Rechenzentrums eine sorgfältige Planung und kontinuierliche Wartung, um den hohen Anforderungen von KI-Systemen gerecht zu werden.

Zusammenfassung

Die Implementierung von KI-Infrastrukturen stellt Unternehmen vor zahlreiche Herausforderungen in Bezug auf Compute-Leistung, Speicherbedarf, Netzwerkfähigkeit und physische Infrastruktur. Die unterschiedlichen Aufgaben bei der Nutzung von KI wie Lernen, Anpassen und Regelbetrieb stellen zudem sehr unterschiedliche Anforderungen an die KI-Infrastruktur. Neben den klassischen Infrastrukturkomponenten und gängigen Technologien kommen im Kontext der KI-Infrastruktur auch neue Technologien zum Einsatz, die spezielle Anforderungen stellen.

Ein Beispiel hierfür sind spezialisierte Prozessoren wie GPUs und TPUs, die für die Verarbeitung großer Datenmengen und komplexer Algorithmen optimiert sind. Diese erfordern nicht nur eine hohe Rechenleistung, sondern auch effiziente Kühlsysteme, um die entstehende Wärme abzuleiten. Darüber hinaus müssen Speicherlösungen in der Lage sein, große Datenmengen schnell und zuverlässig zu speichern und abzurufen. Netzwerkinfrastrukturen müssen hohe Bandbreiten und niedrige Latenzzeiten bieten, um eine bestmögliche Kommunikation zwischen den verschiedenen Komponenten zu gewährleisten.

Computacenter unterstützt seine Kunden bei diesen Herausforderungen durch maßgeschneiderte Lösungen, die auf die spezifischen Bedürfnisse und Anforderungen der jeweiligen KI-Anwendungen abgestimmt sind. Dies umfasst die Planung, Ertüchtigung, Implementierung und Wartung der gesamten KI-Infrastruktur, um eine optimale Leistung und Zuverlässigkeit zu gewährleisten. Darüber hinaus unterstützen wir unsere Kunden aber auch bei der Anpassung bestehender oder Implementierung neuer Betriebsmodelle und der Entwicklung der notwendigen Skills für die erfolgreiche Einführung von KI-Services.

Haben Sie Fragen zu diesem Thema? Wir freuen uns auf Ihre Kontaktaufnahme!

Vom Systemadministrator zum Entwickler

Norbert Steiner

Strategien wie Infrastruktur-als-Code (IaC) und das Erreichen eines hohen Automationsgrades stehen bei allen Unternehmen auf der Agenda. Der Weg zu einer erfolgreichen Automation muss aber die Menschen einbinden, deren Arbeitsweise sich radikal ändert.

Mit Code arbeiten

Bei einer Automation werden Automationsskripte und automatisierte Konfigurationen erstellt – also letztendlich Code und Playbooks. Dazu werden Tools wie Terraform, Ansible oder Puppet genutzt und im einem ersten Schritt meistens lokal oder auf File Servern abgelegt und verwaltet.

In kleinen Umgebungen und Teams ist auf dieser Basis meist ein Austausch und gemeinsames Arbeiten möglich – wenn es aber auf große Teams und Umgebungen skaliert werden muss, zeigen sich schnell die Grenzen einer solchen lokalen und individuellen Verwaltung.

Technologisch werden dann Werkzeuge aus der Softwareentwicklung und der Open Source-Welt relevant, wo eine Skalierung auf viele auch global verteilte Teams über Jahrzehnte etabliert und aufgebaut worden ist.

Für eine effiziente Arbeit werden dazu Code-Editoren (Integrated Development Environment – IDE) verwendet und der Code wird in einer Versionsverwaltung – in der Regel Git – gespeichert. Dazu werden dann noch die notwendigen Open-Source-Artefakte über ein Repository bereitgestellt.

Spätestens jetzt haben Systemadministratoren und Team-Leiter in Bereichen wie Datacenter, Sicherheit und Netzwerke viele Fragezeichen in den Augen oder sogar die Aufmerksamkeit anderweitig fokussiert. In den Betriebsteams sind Begriffe wie IDE oder Git und die damit verbundenen Arbeitsweisen weitgehend unbekannt. Das führt bei der Einführung einer Automation zu Herausforderungen in der Transformation der Arbeitsweise und dem Erlernen neuer Werkzeuge.

Automation automatisiert nicht automatisch

Das Anschaffen einer Automationslösung oder der Einkauf einer Software für eine Automation allein schafft keine Automation. Eine Automationslösung muss sich in ein Eco-System von weiteren Werkzeugen einbinden, was am besten durch ein zentrales Team übernommen wird. Und die Menschen müssen sich in diese neuen Werkzeuge und Abläufe einarbeiten können. Einarbeiten bedeutet, dass die sehr hohe Kompetenz der einzelnen Kolleginnen und Kollegen in Ihrem Spezialgebiet und deren Fachwissen in das Erstellen und Nutzen der Automatismen einfließen.

Eine Automation bringt zahlreiche Vorteile mit sich. So kann durch die Automation des Patch- und Release-Managements und das Einspielen der jeweils aktuellen Versionen von Softwarepaketen und Artefakten die Sicherheit massiv erhöht werden – was aber die konsequente Umsetzung der Automation inklusive der Anpassung der Freigabeprozesse wie dem Change-Management erfordert.

Mehr als eine Schulung

Die Erwartung, aus Systemadministratoren Entwickler zu machen, die Ihre Fachdomäne (teilweise) automatisieren, kann nicht durch eine einzelne Schulung erfüllt werden. Automation nachhaltig in den Teams zu verankern, beginnt mit einer Anpassung der Arbeitsabläufe und mit Konzepten wie der zentralen Ablage aller Code- und Automations-Artefakte in Git.

Dazu müssen die Regeln für eine Zusammenarbeit in Git und Best Practices abgestimmt und etabliert werden. Dann nutzen Automationslösungen Open Source-Artefakte – wie aber werden diese sicher bereitgestellt und wie fließen sie in die Automation und in Prozesse zur Aktualisierung der Versionen ein? Wichtig ist zudem eine Abstimmung zu automatisierten Tests sowie eine Entscheidung, wie eine schnelle und automatisierte Freigabe von Automatismen in der Produktion gesteuert werden soll.
Hieran lässt sich schnell die Komplexität erkennen, die eine effektive Automation in der Unternehmens-IT beinhaltet.

Ein Enablement-Programm

Neben der Auswahl der Technologiebausteine muss eine Automationsstrategie mit einem Enablement-Programm unterlegt sein. Abhängig von der Ausgangslage im jeweiligen Unternehmen sollte ein solches Programm von wenigen Monaten mit einem Onboarding-Programm für die nutzenden Teams bis zum Aufbau einer selbstorganisierten Community-of-Practice (CoP) reichen.

Mitarbeitenden wird über ein solches Programm eine schrittweise und modulare Einarbeitung in die Technologien sowie Best Practices für die eigentliche Automation verbunden mit Praxisbeispielen zu den Fachdomänen an die Hand gegeben. Darüber hinaus wird eine Plattform für Austausch und gemeinsames Lernen geschaffen, wo auch konkrete Automationsmodule ausgetauscht und gemeinsam verbessert werden.

Computacenter hat zusammen mit Kunden diese Enablement-Programme umgesetzt und eine nachhaltige Automations-Kultur geschaffen. Dies geht Hand in Hand mit Empfehlungen auf Basis von Methoden wie DevOps oder dem Plattform-Engineering.

Aber die Grundlage für diese Transformationen ist, sich von der Konsole und der grafischen Administrationsoberfläche abzuwenden und sich stattdessen der IDE und Git Code Commits für eine erfolgreiche Automation zuzuwenden. Diese Transformation rechtfertigt den Aufwand durch eine bessere Skalierung, höhere Sicherheit und reproduzierbare und nachvollziehbare Ergebnisse.

Haben Sie noch Fragen zu diesem Thema? Ihr Ansprechpartner beziehungsweise Ihre Ansprechpartnerin bei Computacenter hilft Ihnen gern weiter.

Disaster Recovery vs. Cyber Recovery

Dirk Hannemann

Cyberangriffe auf Unternehmen und öffentliche Einrichtungen haben in den letzten Jahren rasant zugenommen. Dadurch haben sich sowohl Technologien zur Abwehr und Erkennung als auch zum Schutz der Daten, speziell für eine Wiederherstellung, entwickelt. Die Vorgehensweisen und Prozeduren bei der Wiederherstellung können sich jedoch signifikant unterscheiden – je nachdem, ob es sich um ein „klassisches“ Desaster oder um einen Cybervorfall handelt.

Die aktuelle Bedrohungslage

Die zehn größten Geschäftsrisiken weltweit im Jahr 2024:


Allianz Risk Barometer 2024; Quelle: Allianz Commercial

Weitere Informationen zur aktuellen Bedrohungslage, unter anderem die Top-Risiken für jedes Jahr der letzten zehn Jahre – finden Sie im Allianz Risk Barometer.

Worin besteht nun der Unterschied?

Wenn wir von einem Desaster sprechen, müssen wir in der aktuellen geopolitischen und von Naturkatastrophen geprägten Lage bei Bedrohungen folgende Szenarien betrachten (ohne Gewähr auf Vollständigkeit):

  • Ausfall eines Servers
  • Löschen von Daten durch User/Administratoren (auch durch Vorsatz)
  • Ausfall eines Brandabschnittes oder gar gesamten Datacenters
  • Korruption von Daten durch logische Fehler
  • Brand, Wasser, Erdbeben etc., sprich Naturkatastrophen, die höherer Gewalt gleichkommen

Hierfür sind bei den meisten Kunden entsprechende Dokumentationen, Abläufe und Verantwortlichkeiten vorhanden und definiert. Üblicherweise gibt es dazu entsprechende Disaster-Recovery-Handbücher.

Was ist aber nun der Unterschied zum Cyber Recovery?

Nach einer Cyberattacke muss man feststellen:

  • Die wiederherzustellenden Daten sind per se als „verseucht“ zu betrachten und können nicht ohne vorherige Überprüfung wiederhergestellt werden.
  • Vor einer Wiederherstellung sollte der „Security Breach“ geschlossen und beseitigt sein.
  • Man muss auch davon ausgehen, dass die Hardware der verseuchten und verschlüsselten Systeme nicht mehr zu verwenden ist.
  • Auf betroffene Systeme darf und sollte ohne Weiteres KEIN Recovery durchgeführt werden.
  • Das gilt unter Umständen auch für die Client-Systeme.

Regularien wie NIS-2 und DORA sind zwar noch nicht vollständig in landespezifisches Recht umgesetzt, geben aber viele Rahmenbedingungen vor, die bei einer Cyberattacke zu beachten sind, weshalb es Sinn ergibt, zwischen Disaster und Cyber Recovery zu unterscheiden.

Auch das BSI gibt über folgenden Link nützliche Hinweise.

Für Kunden, die ein aktuelles Disaster-Recovery-Handbuch vorweisen können, ist der erste Schritt zu einem Cyber-Recovery-Handbuch schon getan, aber ein Cyber-Recovery-Handbuch ist definitiv keine Kopie des Disaster-Recovery-Handbuches.

Was benötigt man für einen Cyber-Recovery-Plan?

Wichtig: Ein Disaster-Recovery-Plan ist KEIN Cyber-Recovery-Plan!

Neben den Software- und Hardware-Komponenten muss man beim Cyber-Recovery-Plan zahlreiche weitere Aspekte einbeziehen:

Diese Unterscheidungen bedeuten aber auch, dass neben der produktiven IT ein sogenannter Cleanroom (siehe auch Newsletter-Artikel zum Isolated Recovery Environment (IRE) für eine erste Einführung) immer häufiger in die Diskussion zum Thema Cyber Recovery einfließt.

Wie dieser aussehen könnte, ist abhängig von der Risikobewertung und einem vernünftigen Assessment zur gesamtheitlichen Betrachtung einer operationalen Resilienz und der zugehörigen Business Continuity Management Services, die sich nicht ausschließlich auf Technologie und Infrastruktur beziehen.

Extrem simplifiziert dargestellt könnte ein Cleanroom und somit die Möglichkeit für ein funktionierendes Cyber Recovery folgendermaßen aussehen:

Schlussendlich gestaltet sich das Thema Cyber Recovery sehr viel mehrschichtiger als klassisches Recovery beziehungsweise Disaster Recovery.

Gern unterstützen wir auch Sie bei der Erstellung eines Disaster-Recovery- und/oder Cyber-Recovery-Plans. Wir freuen uns auf Ihre Kontaktaufnahme!