Share Storage Consortium
Share to email
Share to Facebook
Share to X
By Storage Consortium
The podcast currently has 180 episodes available.
Zum Inhalt dieses Podcasts:
Das Interesse am Einsatz von KI in deutschen Unternehmen ist weiterhin hoch und das betrifft auch das Vertrauen in KI-generierte Resultate. Damit rückt die zugehörige Speichertechnologie weiter in den Fokus.
Eigentlich sollte man meinen, Flash Storage für KI ist inzwischen ein „No-Brainer“, aber die Wahl des geeigneten Speichers hängt stark von den spezifischen Anforderungen des jeweiligen Projekts ab.
Beispiel: Modelle müssen häufig auf große Datensätze zugreifen oder hängen direkt von Echtzeit-Analysen ab. Flash Storage ist aus Performance-Gründen sinnvoll, besonders wenn hohe Leistungsanforderungen wie niedrige Latenzzeiten bei zufälligen Zugriffsmustern (random IO) im Vordergrund stehen...
Zum Inhalt dieser Podcast-Episode:
Kritische Anwendungen und IT-Systeme - hier am Beispiel von SAP - müssen rund um die Uhr an 365 Tagen laufen und sich absolut stabil verhalten. Dies führt direkt zu den zentralen Gründen, weshalb Unternehmen eine SAP-Systemhärtung durchführen sollten, unter Berücksichtigung der hierfür notwendigen Sicherheitsaspekte und Compliance-Anforderungen.
Ein Interaktiver Experten-Podcast mit
Joachim Misselbeck, Senior Solution Manager SAP, CANCOM
Jörg Bunse, Solution Achitect, SUSE
Norbert Deuschle, Moderation / Storage Consortium
Im Beitrag soll auf folgende Fragestellungen sowie Themenbereiche eingegangen werden:
Zentrale Gründe, warum Unternehmen eine SAP Systemhärtung durchführen sollten, einschließlich der relevanten Sicherheitsaspekte sowie Compliance-Anforderungen.
Konsequenzen bei Nicht-Durchführung einer SAP-Systemhärtung
Analyse der potenziellen Risiken und Konsequenzen, denen Unternehmen gegenüberstehen, wenn sie keine Systemhärtung durchführen, wie Sicherheitslücken, Datenverlust oder Compliance-Verstöße.
Status quo und praktische Umsetzung beim Kunden:
Bewertung des aktuellen Standes in Unternehmen bezüglich der SAP-Systemhärtung.
Wie gehen Unternehmen das Thema in der Praxis an und welche Herausforderungen bestehen?
Welche Rolle wird der Einsatz von künstlicher Intelligenz (KI) spielen?
Aspekte bei der praktischen Umsetzung einer SAP-Systemhärtung
Besprechung der wesentlichen Punkte, die Unternehmen bei der Umsetzung einer SAP-Systemhärtung beachten sollten (Planung, Automatisierung, Durchführung, Überwachung...)
Erläuterung, wie CANCOM Unternehmen bei der Umsetzung einer SAP-Systemhärtung unterstützen kann (Beratung, Implementierung, kontinuierliche Betreuung...)
Zur Rolle von SUSE Linux für SAP-Applikationen:
Konkrete Darstellung, wie SUSE Linux dazu beiträgt, die Sicherheit und Stabilität von SAP-Systemen zu verbessern und die Systemhärtung erfolgreich umzusetzen.
Vorteile für Unternehmen und Zusammenfassung
Wie Unternehmen von den Lösungen beider Unternehmen profitieren können und warum die SAP-Systemhärtung für Unternehmen relevant ist.
Wichtige SLA-Parameter zur Verfügbarkeit und Leistung für die schnelle Wiederherstellung kritischer Daten im Disaster- und Recovery-Fall stehen neben sicheren Backups im Vordergrund.
Die 2016 eingeführten Cybersicherheits-Vorschriften der EU wurde durch die 2023 veröffentlichte NIS2-Richtlinie weiter aktualisiert. Stichtag ist der 17. Okt. 2024.
Was bedeutet NIS-2 für Speichersysteme, Datensicherung und Disaster Recovery und weshalb sollten betroffene Unternehmen-/Organisation verstärkt auf KI, AIOps und moderne Cybersecurity-Maßnahmen-/Verfahren setzen...
Eine Podcast-Episode mit dem Datei- und Objektspeicher-Anbieter Cloudian* zu kundenseitigen Anforderungen und strategische Antworten auf den stetig steigenden Speicherbedarf im Bereich von unstrukturierten sowie semi-strukturierten Daten, akuell verstärkt im Zusammenhang mit KI- und hybriden Cloud-Anwendungen. Mit Kundenbeispielen...
*Gesprächspartner ist Herr Carsten Graf, VP EMEA Sales, bei Cloudian®. Cloudian ist ein spezialisierter Datei- und Objektspeicher Anbieter (aus dem Silicon Valley) und auf S3-API-Speichersysteme spezialisiert. Das Unternehmen stellte erstmals 2011 seine objektbasierte Plattform HyperStore® vor.
Moderation und Fragen: Norbert Deuschle vom Storage Consortium.
Einzelne Punkte, die in diesem Podcast näher behandelt werden (Hörzeit 20 min):
Object Storage ist mit File Storage ein wesentlicher technologischer Aspekt jeder zukunftsorientierten Speicher- und Datenverwaltungsstrategie im größeren Maßstab. Objekt Storage als ein technisches Element in der Cloud hat die Datenspeicherung selbst in einen Service verwandelt (von CAPEX zu einer berechenbaren Betriebsausgabe, OPEX).
Gerade entstehen mit dem raschen Wachstum im Umfeld von (generativer) KI neue Herausforderungen. Skalierbare Speicherservices für primär unstrukturierte Daten werden deshalb verstärkt nachgefragt.
Ein weiterer Aspekt betrifft die Modernisierung und Integration mit Datensicherungslösungen, mit dem Schwerpunkt auf schnellen Restore und Unveränderlichbarkeit, sowie erhöhtem Datenschutz auf Grund von steigenden Cyberbedrohungen.
Performance-Aspekte und Cloud-native Anwendungsszenarien sind weitere Aspekte des modernen Daten- und Speichermanagements. In diesem Zusammenhang gilt es die dynamischen Entwicklungen im KI-Umfeld auf der IT-Infrastrukturseite zu berücksichtigen und betrieblich sinnvoll abzubilden.
In Summe ergeben sich daraus sich eine Reihe komplexer Anforderungen aber auch Lösungsansätze, über die wir in dieser Episode sprechen werden. Die (technologischen) Randbedingungen in diesem Zusammenhang sind:
KI und Data Analytics, Flash Performance
Backup- und Cyberprotection, Data Privacy
DevOps-Initiativen, Cloud-native, Kubernetes & Co.
Weitere Informationen zum Thema finden Sie unter www.storageconsortium.de
Kritische Sicherheitsmerkmale von Tape-Automatisierungs-Systemen für mehr Schutz vor Ransomware & Co.
Um was geht es in diesem Podcast?
Tape ist technologiebedingt bereits ein sehr sicheres Speichermedium, da es vom Netz getrennt als sog. „Air-Gap"-Speicher fungieren kann und zudem mit AES-256-Bit-Verschlüsselung sowie WORM-Fähigkeiten ausgestattet ist. Die Erweiterung um Multi-Faktor-Authentifizierung (MFA) ist eine weitere Möglichkeit, den Sicherheitsstandard zu erhöhen.
Aktuell werden automatisierte Bandbiblotheken verstärkt als hochsicherer Daten-Tresor verwendet, entweder zur Speicherung dauerhafter Archivkopien - Stichwort „kalte Daten“ - oder als Zielort von Offline-Datenkopien (3-2-2-1 Regel) zum Schutz vor Ransomware- sowie Malware-Infektionen.
Norbert Deuschle vom Storage Consortium hat bei Frau Ines Wolf, Managerin Presales Central Europe, des Speicherspezialisten Quantum nachgefragt, über welche erweiterten Sicherheitsfunktionen konkret eine moderne Tape-Library neben den üblichen Standardmaßnahmen-/Verfahren im Zuge stetig steigender Anforderungen an die Datensicherheit verfügen sollte. In diesem Zusammenhang sind nach Ansicht der Expertin fünf Punkte von besonderer Bedeutung...
Um was geht es in diesem Podcast?
Generative KI ist für Unternehmen eine der Schlüsseltechnologien mit einem wirklichen Transformations-Potenzial.
Als KI-Enabler bereits etabliert haben sich dazu Graphdatenbanken. Anbieter sind Unternehmen wie ArangoDB, TigerGraph, Amazone Neptune, DataStax, Oracle, IBM, Redis, GraphDB, Neo4j und weitere...
Knowledge Graphen verknüpfen heterogene Daten zu einem semantischen Kontext, in dem sie Daten und Datenbeziehungen als gleichwertig behandeln. Dies schafft ein geeignetes Umfeld für Netzwerkanalysen, Deep und Machine Learning sowie KI. An der Seite von LLMs setzen Graphen beispielsweise notwendige Grenzen und Prioritäten, um KI-Ergebnisse genauer, erklärbar und nachvollziehbar zu machen.
Das Training von Machine Learning(ML)- und Large Language-Modellen(LLM) erfordert hohe Rechenleistungen und Speicherkapazitäten. Neue Prozessor-Serien und Super-GPUs verschieben die Grenzen des Machbaren dabei deutlich nach oben.
Die Experten des Graphdatenbanken-Anbieters Neo4j werfen für uns nachfolgend einen Blick auf aktuelle Treiber sowie die tatsächlichen Folgen für das KI-Ecosystem, inklusive noch zu lösender KI-Hürden.
Zusammengefasst sind 8 Punkte erwähnenswert:
Nicht nur sichere Technologien, sondern auch flexiblere Verbrauchsmodelle sowie Beschaffungsangebote (STaaS) für konsolidierte software-definierte Datendienste werden verstärkt gefragt…
Um was geht es in diesem Podcast? Fortschritte bei Digitalisierung, Vernetzung und Entwicklung neuer stark datengetriebener Anwendungen im Verbund mit hybriden Cloud-Deployments hat zu einem weiteren Wachstum im Bereich von semi- und unstrukturierter Daten geführt. Ältere Speichersysteme gerade im NAS-Umfeld stoßen dann schnell an ihre Grenzen, denn die möglichst nahtlose, unkomplizierte Erweiterung und Verwaltung von Leistung und Kapazität lässt sich in einer festen Hardware-Architektur nur bis zu einer bestimmten Größe sinnvoll abbilden.
Ein weiterer kritischer Punkt betrifft die Zunahme von Cyberangriffen, besonders in Form von Ransomware. Diese zielen vermehrt auf unstrukturierte Datensätze und Backupdaten. Integrierte Cyber-Security-Funktionalitäten für verteilte Dateisysteme und Objektspeicherplattformen werden deshalb notwendig, je mehr Angriffe auf diese Systeme und Daten stattfinden.
Vom Anbieter verwaltete Cloud-basierte Speicherlösungen as-a-Service (STaaS) als Ergänzung oder Ersatz für eigene Speicherinfrastrukturen vor Ort können eine Alternative darstellen (variable Kosten, Sicherheit, reduzierte Komplexität, immer die aktuellste Technologie etc.). Weiterer Vorteil: der Hersteller übernimmt die Verwaltung, Wartung und den Support und damit die komplette Verantwortung und je nach Angebot auch Sicherheit der Speicherumgebung...
Mehr dazu in diesem Podcast und auf unserer Webseite www.storageconsortium.de
Sichere Snapshots, Air Gap und Immutability...
Die sichere Offline-Aufbewahrung von Datenkopien für Backup-Zwecke ist ein entscheidender Faktor, um Lösegeldforderungen zu begegnen und die saubere Wiederherstellung von unternehmenskritischen Daten sicherzustellen.
Moderne Verfahren sichern virtuelle Maschinen über S3 direkt auf einen Objektspeicher on-premise und-/oder in der Cloud. Diese unveränderliche Speicherung (immutable Storage) über den mehrstufigen Schutz mit S3 Object Lock hat sich in der Praxis bewährt.
Offline Speichermedien mit "Air Gap" haben keine direkte physische Verbindung zum Netzwerk und sind eine wirksame Barriere gegen Ransomware und auch Malware. Neben Festplatte oder Flash erlaubt es der Einsatz von Bandspeicher-Systemen (Tape) sowie Daten-Deduplizierung, auch große Kapazitäten energieeffizient zu sichern und bei Bedarf zeitnah wiederherzustellen; ohne wesentliche Betriebsunterbrechungen.
Das physische Air Gap ist ein sicherer Weg, um kritische Daten vor Ransomware zu schützen. Die Technik ist aber wegen ihres Offline-Charakters nicht für die schnelle Wiederherstellung geeignet.
Wie kann diese Herausforderung mit Backup-Verfahren und Lösungen wie (virtual) Appliances vor-Ort angegangen werden?
ESG, Stromkosten, CO2-Emissionen und steigende Datenmengen im semi-/unstrukturierten Bereich - Ist Active Cold Storage die Lösung? Im interaktiven Tech-Podcast mit Firma Quantum nachgefragt…
Zum Inhalt dieses Podcasts (25 min.):
Die Weiterentwicklung von Rechenzentrum-Infrastrukturen aus Sicht der Energieeffizienz nimmt an Bedeutung zu. KI, ML, Cloud-Computing, immer mehr Daten und die schnelle Entwicklung neuer Business-Apps führen nicht nur zu unvorhersehbaren Auslastungen innerhalb der IT-Infrastruktur, sondern auch zu höheren Kosten und Betriebsausgaben im Zusammenhang mit der Speicherung, dem Zugriff und der Verwaltung- besonders im Zusammenhang mit der langfristigen Aufbewahrung von Massendaten (Stichworte: Complinace, unstrukturierte Daten, Cold Storage etc.).
Nachhaltigkeitsziele erreichen und die Energiekosten des Unternehmens zu minimieren – IT-Teams können dazu einen wichtigen Beitrag leisten, wenn sie richtig planen. Hintergrund: die ITK-Technologie steht derzeit für rund 10 Prozent des gesamten Energiebedarfs und ist damit für rund zwei Prozent der weltweit erzeugten CO2-Emissionen mitverantwortlich.
Norbert Deuschle vom Storage Consortium spricht in dieser Podcast-Episode mit Frau Ines Wolf - Managerin Pre-Sales CE bei der Firma Quantum (1) zu den aktuellen kundenseitigen Herausforderungen sowie Lösungen Ihres Unternehmens aus Sicht der Datenspeicherung und Verwaltung. Im einzelnen werden folgende Punkte angesprochen und ausführlicher behandelt:
Das Kürzel ESG beschreibt (drei) Verantwortungsbereiche von Unternehmen und Organisationen, die verschiedene nachhaltigkeitsbezogene Kriterien beinhalten. Umweltbewusstsein, Energiekosten (E), Emissionsvorgaben (G) etc. Was bedeutet ESG aus Sicht der Speicherverwaltung?
Veraltete IT-Infrastrukturen und der Fachkräftemangel sind für viele Unternehmen eine Herausforderung bei der Umsetzung der Nachhaltigkeitsziele. Aus Sicht der IT im Rechenzentrums-Umfeld betrifft das konkret die Modernisierung und den optimierten Einsatz der dazugehörigen IT-Infrastruktursysteme- und Komponenten.
Auf viele Daten wird nach einiger Zeit nur mehr selten zugegriffen. Als Konsequenz daraus kann die Migration kaum benutzter inaktiver (kalter) Daten von Festplattensystemen auf stromlose Bandspeicher oder teilweise auf Flash (Metadaten) zur deutlichen Verringerung der CO2-Emissionen beitragen.
Voraussetzung: Datenworkflows und den Bedarf beim Kunden verstehen
Begrifflichkeiten: Active Cold Storage; near-line storage; HSM, Active Archiving, Datenklassifizierung, Compliance-Vorgaben
Warum bestimmte Kunden Cold Storage und Objektspeicher lieber on-premise implementieren? Vorteile gegenüber der Public Cloud.
Wie lässt sich die Verbindung zu Cloud Deployments (S3 / Glacier / API-Ansatz) realisieren. Wie kann Tape in Zusammenhang mit S3, Cloud und Objektspeicher genutzt werden?
Quantum Active Cold Storage: Strategie und Lösungsangebot
Neben dem geringeren Stromverbrauch steht die Speicherung auf stromlose Medien wie Tape auch für weniger Abfall und Elektronikschrott (Stichwort: E Umweltverschmutzung).
Fazit
Neben Speichermedien nebst Anwendungsprofilen ist der Einsatz von Software-Werkzeugen zur Datenklassifizierung und als Vorbereitung zur Migration zentral. Weiter spielen Verfahren zur Datenreduktion wie Deduplizierung, Kompression, Erasure Coding sowie HSM in Verbindung mit near-line Storage (active archving) und die mögliche Anbindung an die Cloud eine Rolle.
Richtig umgesetzt können über das Jahr gerechnet daraus teils erhebliche Stromkosteneinsparungen pro KWh pro Anwendung und Speicher resultieren.
In der richtigen Kombination von modernen Hardware- mit Software-Ressourcen lassen sich aus Sicht von Energieeffizienz und Nachhaltigkeit reale Synergien erzeugen.
Interaktiver Podcast mit Experten der Firmen Cloudeteer und NASUNI zur SAS-basierten NAS-Plattform des Anbieters. Kundenseitige Herausforderungen und strategische Antworten auf einen stetig steigenden File (Storage) Bedarf...
Um was geht es in der Episode?
File-Daten Speicherdienste im Cloud-Zeitalter erfreuen sich einer verstärkten Nachfrage. Die Gründe liegen kundenseitig primär in der Notwendigkeit begründet, IT-Infrastrukturen so zu verändern und zu modernisieren, dass unter dem Strich für das Unternehmen - sowohl on-premise als auch in der Cloud - ein deutliches Mehr an Flexibilität und Vereinfachung resultiert.
Dies gilt ebenfalls für Themen wie Backup-Restore und Datenschutz im Zusammenhang mit Cyberbedrohungen durch Ransomware & Co. Aber auch im Umfeld des Managements von unstrukturierten Daten generell besteht Handlungsbedarf, gerade was die IT-Kostenseite (CAPEX vs. OPEX) betrifft.
Gesprächspartner unter Einbeziehung der Lösung der Anbieters NASUNI sind Matthias Bretag, Chapter Lead Azure und Multicloud Consultant bei Firma Cloudeteer, ein Microsoft- und Nasuni-Lösungspartner, zusammen mit Markus Warg, Field Technical Director EMEA bei Nasuni.
Die Moderation und Fragen stellt Norbert Deuschle (Storage Consortium).
Wichtige Punkte, die im Podcast ausführlich behandelt werden (Hörzeit 27 min):
Prognosen zeigen, dass sich der Speicherbedarf im unstrukturierten Bereich in den nächsten Jahren mehr als verdoppeln soll. Klassisches NAS wurde dafür nicht entwickelt. Wie können Kunden im Kontext eines weiter steigenden Kapazitätsbedarf darauf reagieren. Stichworte: mehr Flexibilität (Skalierbarkeit), Vereinfachung (Verwaltung, Fachkräftemangel), Kostenreduzierung (Budgetsituation)...
Gründe weshalb die Nasuni Lösung über die Firma Cloudeteer als Lösungspartner verkauft wird. Abgrenzung, Erweiterung und Ergänzung zu Lösungen wie z.B. von Microsoft mit Azure Files etc.
Klassische Backup-Ansätze bringen bei großen Mengen an unstrukturierten Filedaten eine Reihe von Herausforderungen mit sich. Typisches Problem im Bereich Backup-Restore: Wie können PB’s an Daten in möglichst kurzer Zeit - und zwar ohne Lösegeld zu zahlen - nach einer Verschlüsselungsattacke schnell wiederhergestellt werden? Weitergehende Ansätze zum Schutz vor Cyberangriffen im Bereich der Public Cloud. Die SAS-basierte NASUNI NAS-Plattform als Lösungsansatz zum schnellen Restore nach Verschlüsselungsangriffen.
Erweiterte Filezugriffe im Hinblick auf den geschäftlichen Mehrwert und nicht nur die IT (Technik). Stichwort: Information als zentraler Unternehmenswert; Mehrwerte aus unstrukturierten Daten erzeugen.
Objekt Storage als technisches Element in der Public Cloud hat die Datenspeicherung in einen Service verwandelt. Prozesse der Datenspeicherung transformieren damit von einer CAPEX-dominierten Funktion zu einer vorhersehbaren Betriebsausgabe, OPEX.
Fazit: Die richtige Speicher-Strategie im Bereich von File-Daten kann helfen, die potentielle Lücke zwischen Datenwachstum und IT-Budgets zu schließen. Das Nasuni Datenservice-Modell transformiert traditionelle Datei-Infrastrukturen mit einer Reihe von spezifischen Services und mit der Möglichkeit, einen oder auch mehrere Cloud-Anbieter zu wählen... Weitere Information dazu finden Sie auch auf unserer Webseite.
The podcast currently has 180 episodes available.