Datacenter


31.07.2020

Business-Continuity: Zu viele Firmen unvorbereitet auf K-Fall

Business-Continuity: Zu viele Firmen unvorbereitet auf K-FallJüngste Studien sprechen von einem steigenden Bewusstsein in Sachen Business-Continuity. Doc Storage kann den Zahlen allerdings wenig positives abgewinnen, denn noch nicht mal zwei Drittel aller Unternehmen besitzen einen Business-Continuity-Plan und fast die Hälfte verfügt über keine fest definierte Rückkehrmaßnahmen. Aus seiner Sicht ist es erschreckend, wie viele Firmen und IT-Abteilungen nicht auf einen Katastrophenfall vorbereitet sind.


31.07.2020

Pure-Vision vom All-Flash-Datacenter wird Realität

Pure-Vision vom All-Flash-Datacenter wird RealitätDie All-Flash-Plattformen von Pure Storage erhielten jüngst eine Auffrischung, und zwar mit der »Purity FB 3.0«-Software für »FlashBlade« sowie »Purity 6.0« für »FlashArray«. Data-Protection, Cloud-Anbindung und die Verschmelzung von File-, Objekt- und Block-Storage sind die Zielrichtung. Wir sprachen mit Markus Grau, Principal Systems Engineer EMEA CTO Office, auch über den Stellenwert von All-Flash-Speichern im Datacenter.


13.07.2020

SAN: Fibre-Channel wird auch in Zukunft bevorzugt

SAN: Fibre-Channel wird auch in Zukunft bevorzugtWarum hören wir so wenig von SAN und Fibre-Channel? Diese Frage gingen wir im sgTalk #08 nach. Die Antwort ist relativ simple: FC ist ausgereift und funktioniert einfach. Bei iSCSI-Strukturen ist dies nicht unbedingt der Fall. Deswegen steht unser Roundtable den neuen schnellen Ethernet-Strukturen auch skeptisch gegenüber. NVMe-over-Fabric hat Potenzial, steht aber noch am Anfang.


09.04.2020

IDC: Cloud-Infrastrukturen im Q4/2019 mit 12-Prozent-Plus

IDC: Cloud-Infrastrukturen im Q4/2019 mit 12-Prozent-PlusDas vierte Quartal rettet das Jahr 2019 für IT-Infrastrukturen für Cloud-Umgebungen. Nach zwei rückläufigen Quartalen ging es laut IDC mit 12,4 Prozent wieder nach oben. Das Gesamtjahr schließt damit mit 2,1 Prozent und Gesamtausgaben von über 66 Milliarden US-Dollar. Gleichzeitig liegen Cloud-IT-Infrastrukturen und Nicht-Cloud-IT-Infrastrukturen nun nahezu gleich auf. IDC erwartet, dass Cloud künftig die Führung übernimmt.


02.04.2020

Enterprise Storage 2020: IDC revidiert Markterwartung um 5,5%

Enterprise Storage 2020: IDC revidiert Markterwartung um 5,5%Erwartungsgemäß revidiert IDC seine Erwartung für die Server- und Enterprise-Storage-Märkte: Die Analysten rechnen für externe Enterprise-Storage-Systeme mit einem weltweiten Umsatzrückgang von 5,5 Prozent auf knapp 29 Milliarden US-Dollar. Die Corona-Pandemie dämpfen zwar die Gesamtausgaben für IT-Infrastrukturen, für 2021 wird aber eine Erholung erwartet, mit einem Plus für Cloud-Plattformen.


25.03.2020

Studie: Mit dem Wachstum steigen die Kosten für Datenverluste

Studie: Mit dem Wachstum steigen die Kosten für DatenverlusteFirmen verwalten im Schnitt fast 40 Prozent mehr Daten als noch vor einem Jahr. Waren es 2016 lediglich 1,45 PByte, sind es 2019 über 13 PByte an Daten. Einer Dell-Studie (Global Data Protection Index) zufolge war eine große Mehrheit in den vergangenen zwölf Monaten von Störfällen betroffen. Die jährlichen Kosten für Datenverluste steigen in Unternehmen auf fast 900.000 Euro. Viele haben Bedenken, dass aktuelle Datensicherungslösungen den künftigen Anforderungen nicht mehr genügen.


05.03.2020

Datacore: Hybride Speicherstrukturen mit einfacherer Verwaltung

Datacore: Hybride Speicherstrukturen mit einfacherer VerwaltungWie genau künftige Speicherstrukturen aussehen sollen, darüber gibt es verschiedene Thesen. Laut Datacore wollen Unternehmen die Kontrolle über wichtige Daten behalten, anstelle alles in die Cloud zu verschieben. Der Trend gehe daher vor allem in Richtung hybrider Strukturen, inklusive einem intelligenteren, effizienteren und einfacheren Speichermanagement.


14.02.2020

NVMe-oF: Ethernet-Attached SSDs wirklich der nächste Schritt?

NVMe-oF: Ethernet-Attached SSDs wirklich der nächste Schritt?Wenn es um Flash geht, spricht momentan jeder von NVMe und NVMe-oF. In diesem Zusammenhang stellt die SNIA die Frage, »sind Ethernet-Attached SSD tatsächlich eine gute Idee oder braucht man das eher nicht?« Welche Meinung hat hierzu wohl der Doc Storage?


04.02.2020

NVMe-over-Fabrics 1.1: NVMe für das Rechenzentrum

NVMe-over-Fabrics 1.1: NVMe für das RechenzentrumDas NVMexpress-Konsortium arbeitet aktiv an verschiedenen Spezifikationen im Rahmen von NVMe. Neben den Specs für NVMe selbst kommen von dem Industrie-Konsortium auch Standards zum Management-Interface für NVMe-Devices (NVMe-MI), sowie zur Nutzung von NVMe in Speichernetzen, auch bekannt als NVMe-oF. Zu letzterem wurde Ende 2019 die neue Version 1.1 veröffentlicht.


03.01.2020

Speichermarkt 2020 – Ein Ausblick

Speichermarkt 2020 – Ein AusblickUnser Doc Storage blickt in die »Glaskugel« und analysiert, welche Ansätze und Anforderungen den Speichermarkt 2020 bestimmen könnten: Technologisch sieht er die Notwendigkeit nach mehr Performance, Prozesse zu beschleunigen sowie mehr Effizienz und Beschleunigung. Aber auch der Umgang mit den gespeicherten Daten ist ein wichtiger Aspekt.


18.12.2019

Cloud-Speicher: Für und Wider und die Wirklichkeit

Cloud-Speicher: Für und Wider und die WirklichkeitCloud-Speicher stehen für Flexibilität und Skalierbarkeit. Eine Public-Cloud soll zudem die Kosten reduzieren, weil die Beschaffung einer eigenen Infrastruktur entfällt, sondern diese »nur« bedarfsgerecht angemietet wird. Bei einer lokalen Private-Cloud bleibt alles weiterhin in Unternehmenshand, inklusive der Anschaffungskosten. Die Gründe für eine Cloud sind vielfältig, die Wirklichkeit in der Praxis oft nicht so wolkenlos, wie versprochen…


04.12.2019

Speicherarchitekturen im Überblick

Speicherarchitekturen im ÜberblickDie Speicherarchitektur bestimmt die Performance, das Management und die Data-Protection eines Rechenzentrums. Dabei stehen Administratoren unterschiedliche Optionen zur Verfügung. Die richtige Auswahl hängt dabei meist von den bestehenden Datenbeständen, Sicherungsanforderungen und Workloads ab.


27.11.2019 Anzeige/Advertorial

NVMe etabliert sich in High-End-Speichern

Advertorial: NVMe etabliert sich in High-End-SpeichernLenovo rundet sein Storage-Portfolio mit der strategischen Partnerschaft mit Excelero und deren NVMesh-Technologie nach oben in den Bereich High-End-Storage ab. Die Software-Lösung ist flexibel einsetzbar und bündelt NVMe-Ressourcen über mehrere Systeme. Der Zugriff auf NVMe-Module in entfernten Systemen soll dabei nur unwesentlich langsamer sein, als lokal, und immer noch deutlich schneller, als der Zugriff auf HDDs.


11.11.2019

IHS-Studie: Storage-Markt schwächelt, nur NVMe wächst

IHS-Studie: Storage-Markt schwächelt, nur NVMe wächstAnalysten, die Nächste: Den neuesten Marktforschungsbericht legen die Experten von IHS Markit | Technology vor. Danach sank der Umsatz mit externem Speicher für Rechenzentren im zweiten Quartal um vier Prozent im Vergleich zum Vorjahr und 1,7 Prozent zum Vorquartal. Gegen den allgemeinen Abwärtstrend wächst offenbar die Marktakzeptanz von NVMe-All-Flash-Arrays.


18.10.2019

Ausstattung zweier Server-Räume?

Ausstattung zweier Server-Räume?Wir planen zwei getrennte Server-Räume, die durch mehrere Brandabschnitte voneinander separiert sind. Mit welchen Mitteln lässt sich existierende Hardware zu einer passenden Lösung zusammenstellen? Oder müsste der zweite Server-Raum identisch ausgestattet sein? Was wäre bei einem virtuellen Ausweich-RZ via Cloud zu beachten?


Panasas: Hochleistungs-Speicher für riesigen Datenmengen

Ab September 2019 soll »ActiveStor Ultra«, das neue Speichersystem aus dem Hause Panasas, verfügbar sein. Aktuell laufen Beta-Tests in einem Luftfahrtunternehmen, einem Energiekonzern sowie einer Universität. Unsere Autorin Corina Pahrmann sprach auf der ISC 2019 mit Praneetha Manthravadi, Director of Product Management und Jim Donovan, Chief Marketing Officer, über KI-Trends und die Besonderheiten des neuen High-Performance-Speichers.


Deep-Learning/KI: Fujitsu auf dem Weg zum Quantencomputing

Mit dem »Digital Annealer« und der »Deep Learning Unit« will Fujitsu insbesondere produzierenden Unternehmen Künstliche Intelligenz zugänglich machen. Mit einem Digitalchip wird ein Quantencomputer, quasi simuliert und besitzt gegenüber x86-Rechnern deutlich mehr Leistungsfähigkeit, vor allem im Bereich kombinatorische Optimierung. Unsere Autorin Corina Pahrmann sprach auf der ISC 2019 mit Alexander Kaffenberger, Senior Business Development Manager bei Fujitsu, über neuronale Netze und die dazu notwendige Infrastruktur.


HPC-Server: Asperitas Immersed Cooling System AIC24

Dauerhaft Vollgas: Weil das »Asperitas Immersed Cooling«-System »AIC24« die Wärme effizient von den CPUs abtransportiert, lassen sich diese dauerhaft im Turbo-Mode beitreiben. Dabei werden die Compute-Nodes (Fenway Kassetten), eine Art Blade, in ein Synthetik-Öl getaucht. Dies verbessert die Wärmeabfuhr und erhöht die mögliche Packungsdichte im Rechenzentrum. Die Server sind vor allem für High-Performance- und Cloud-Computing konzipiert.


Siemens PLM beschleunigt Simulationen mit Panasas Activestor

Simulationen treiben technologische Innovationen voran, benötigen oftmals aber enorme Ressourcen. Siemens PLM Software suchte für seine Analysen ein hoch performantes Speichersystem, das zuverlässig und einfach zu bedienen ist. Panasas ActiveStor konnte die Anforderungen erfüllen und ist unter anderem auch an Simulationen für die Formel 1 beteiligt.


Studio Hamburg: Automatischer Workflow mit Datenmanagement

Der TV- und Film-Produzent Studio Hamburg hat seinen gesamten Workflow digitalisiert. Deswegen wird die IT rund alle fünf Jahren angepasst. Das Systemhaus itiso installierte deshalb nun eine neue Storage-Infrastruktur, bestehend aus einem Online-Speicher von Huawei, der Datenmanagement-Lösung von Komprise, welche erkaltende Daten automatisch in ein Spectra Logic Verde-Archiv überführt. Das speicherguide.de-Team hat sich das Projekt in Hamburg ausführlich erklären lassen und nimmt Sie mit, auf einen Blick ins RZ.


Künstliche Intelligenz – Firmen sollten jetzt einsteigen

Das steigende Datenvolumen benötigt neue Verwaltungsansätze, damit Firmen ihren Nutzen daraus ziehen können. Experten zufolge entscheidet der Umgang mit Daten über die Zukunft und den Erfolg von Unternehmen. Künstliche Intelligenz ist dabei ein wichtiger Faktor. IT-Abteilungen und Geschäftsleitungen dürfen die aktuelle Entwicklung daher auf keinen Fall verpassen.


Erfolgsfaktoren für KI-Projekte: Strategie & Realismus

Die Erwartungshaltung ist groß: Unternehmen wollen verstärkt auf Künstliche Intelligenz (KI) setzen. Viele Projekte scheitern aber an zu hohen und unrealistischen Erwartungen. Auch ist noch nicht ganz klar, was alles möglich ist. Auf speicherguide.de zeigen Experten Erfolgsfaktoren auf, um KI-Projekte erfolgreich zu entwickeln.


IDC: »KI geht in die Breite«

Noch steckt Künstliche Intelligenz in den Kinderschuhen, aber die Mehrheit deutscher IT- und Fachentscheider planen mit KI-Projekten. Einer IDC-Studie zufolge stehen dabei KI-Lösungen zur Optimierung und Automatisierung von Prozessen im Vordergrund. Die Marktforscher sind sich sicher, die Technologie geht in die Breite und wird uns über Jahrzehnte begleiten.


Linzmeier mit Hyperkonvergenz in neue Leistungsliga

Fallstudie: Regelmäßig geriet der IT-Betrieb beim Bauelementehersteller Linzmeier ans Limit. Nachdem das Wartungsende für die bisherigen Speicher und Server erreicht war, sollte ein schneller sowie zuverlässiger IT-Stack diesen Zustand beenden. Die NetApp HCI bildet jetzt alle Workloads zuverlässig ab, garantiert Performance pro Workload, vereinfacht das Verwalten und verbraucht weniger Strom.


Datacenter-Trends 2019: IT-Modernisierung unausweichlich

Die Modernisierung der IT steht in vielen Unternehmen ganz oben auf der Agenda. Einfach nur »alt« gegen neu« zu tauschen ist jedoch nicht der richtige Weg. Experten empfehlen zuerst einen Masterplan zu erstellen und die Ziele zu definieren. Wobei hier fast immer Agilität, Zuverlässigkeit, Verfügbarkeit und Sicherheit gefordert werden. Eine zentrale Rolle nehmen dabei die Cloud, Automatisierung und Orchestrierung ein.


IDC: Automatisierung und Analytics als Innovationstreiber

Die Trends im Rechenzentrum lauten Automatisierung und Analytics sowie Continuous-Delivery, Paas und Security. Einer IDC-Studie zufolge modernisieren über 50 Prozent der Deutschen Unternehmen ihre Datacenter. Nur so lassen sich Innovationen vorantreiben und die Produktivität erhöhen. Ziel ist auf jeden Fall immer das Business erfolgreich auszubauen.


Storage-Benchmarks – the good, the bad and the ugly

Webinar-Aufzeichnung: Im herstellerunabhängigen Webinar gehen wir der Frage nach, wo und wie Storage-Benchmarks Sinn ergeben. Dabei geht Referent Wolfgang Stief auch auf die SPC-Benchmarks des Storage Performance Council an und erörtert, ob man diese auch im eigenen Rechenzentrum nachbauen kann.


Selbstlernende Sysadmin-Roboter – die Zukunft im Rechenzentrum?

Automatisierung, Containerisierung, Digitalisierung: Dies waren die drei Kernthemen der Handelsblatt Jahrestagung »Strategisches IT-Management 2019«. Als Zielgruppe der Veranstaltung diskutierten Vertreter des oberen Managements des deutschen Mittelstands, die Zukunft moderner Rechenzentren bis hin zu selbstlernenden Sysadmin-Robotern. Der Kollege Wolfgang Stief war für uns vor Ort und fasst in diesem Beitrag die 3-tägige Veranstaltung zusammen.


BSI empfiehlt 200-km-Distanz – 200 km ERNSTHAFT!?

Kurz vor Weihnachten veröffentlichte das BSI neue Kriterien für georedundante RZs. Darin wird der bisher empfohlene Mindestabstand von fünf auf 200 Kilometer hochgesetzt. Aus Praxissicht laut Doc Storage »vollkommener Blödsinn«.


Zerto: »BSI-Empfehlung für sichere RZs erhöht DR-Anforderungen«

Die empfohlene Entfernung für georedundante Rechenzentren wurde vom BSI (Bundesamt für Sicherheit in der Informationstechnik) von fünf auf 200 Kilometer erhöht. Dies sorgt im Schadensfall für eine bessere Sicherheit. Für Unternehmen steigen damit auch die Herausforderungen. Wir sprachen mit Johan van den Boogaart, Regional Sales Manager bei Zerto über die neuen Anforderungen und worauf es speziell beim Disaster-Recovery nun zu achten gilt.


Gegen das Datenchaos: Vom Data Lake zum Data Hub

Data Lakes gelten als der nächste Evolutionsschritt der Speicher- und Datenmanagementtechnik. Allerdings relativiert sich die Begeisterung momentan. Welcher Ansatz letztendlich Ordnung ins unternehmensweite Datenchaos bringt ist noch nicht entschieden. Integrative Architekturen wie Data Hubs sind ebenfalls auf dem Vormarsch. Dieser Beitrag zeigt auf, auf welche Hersteller es zu achten gilt.


DevOps: Deutsche Firmen halten an starren Strukturen fest

DevOps soll helfen, Software-Entwicklungen agil, flexibel und schnell voranzutreiben. Deutsche Unternehmen befassen sich allerdings nur zögerlich mit der neuen Technologie. Einer IDC-Studie zufolge verharren Firmen vielmehr in ihren alten Strukturen. Dies birgt auch Risiken für die künftige Wettbewerbsfähigkeit. Eine richtige Umsetzung, benötigt ein vorbehaltloses Veränderungs-Management.


Virtual Wisdom 6.0 – ganz im Zeichen der Cloud

Cloud-Computing hinterlässt auch im Leitprodukt von Virtual Instruments, »VirtualWisdom 6.0«, breite Spuren. Das System zur Analyse der Storage-Infrastruktur erhält in der neuen Version einige zusätzliche Funktionen und Verbesserungen. Schnittstellen zu Dynatrace und AppDynamics sowie in die Cloud sollen eine möglichst lückenlose Fehleranalyse bieten und bei der Beseitigung unterstützen. Langfristig soll sogar der War-Room überflüssig werden.


Digitalisierung fordert Storage-Infrastruktur

Für die einen ist die Digitalisierung das Trendthema schlechthin, für andere einfach nur eine Weiterentwicklung der IT. Sicher ist, die Anforderungen ändern sich immer schneller und entsprechend verkürzen sich die Update-Zyklen. Dafür benötigen Firmen und Rechenzentren die passende Storage-Infrastruktur. Experten sehen die Zukunft in Software-definierten Strukturen. Das gute alte SAN hat allerdings noch längst nicht ausgedient.


Storage-Infrastruktur für Rechenzentren wichtiger denn je

Durch digitale Services und Geschäftsmodelle wird das Datenvolumen in den kommenden drei Jahren etwa um den Faktor 10 steigen. Unternehmen benötigen dafür die richtige Storage-Infrastruktur. Wir sprachen hierzu mit Frank Reichart, Senior Director Global Product Marketing Storage bei Fujitsu sowie über die Vor-/Nachteile von Hyperkonvergenz und Software-defined Storage.


Mission Peak: Highspeed-Storage-Server für Highend-Anwendungen

Der Bedarf nach schnellen Storage-Systemen nimmt in Zeiten von Künstlicher Intelligenz & Co. immer mehr zu, und viele aktuelle Speicherlösungen sind den Anforderungen einfach nicht gewachsen. Diesem Umstand will ein Konsortium rund um die Firma Samsung Einhalt gebieten, indem es ein intelligentes Storage-Server-Konzept initiiert hat. Mission Peak verspricht mehr IOPS und geringere Latenzzeiten.


Digitalisierung: Sind Sie ein Optimierer oder ein Enabler?

Viele Firmen haben Digitalinitiativen gestartet, fokussieren aber vor allem auf das bestehende Geschäft und optimieren hauptsächlich ihre IT. Über den Tellerrand schauen nur wenige und hinterfragen ihre Geschäftsmodelle. Um für die digitale Zukunft gerüstet zu sein, sollten sich IT-Abteilungen rechtzeitig bedarfsgerecht aufstellen. Die passenden Infrastrukturen werden die Enabler von den Optimierern trennen.


»PowerEdge MX«: Dell EMC modernisiert sein Blade-Angebot

Mit den »PowerEdge MX«-Systemen bringt Dell EMC seine neue Blade-Server-Serie an den Start. Das Chassis wurde komplett neugestaltet und verzichtet künftig auf eine Midplane. Die modulare IT-Infrastrukturlösung soll ein breites Spektrum an Workloads abdecken, einschließlich künftiger Anforderungen und Technologien. Der Hersteller forciert damit sein Blade-Engagement, mit dem Ziel, bis 2020 die Marktführerschaft in Deutschland zu übernehmen.


Bitkom: Investment in Digitalisierung lohnt

Der Branchen-Verband Bitkom misst in seinem »Digital Office Index 2018« die digitale Kompetenz deutscher Unternehmen. Das Resümee: Investments in Digitalisierung lohnen sich für Unternehmen. Bisher investieren erst knapp sechs von zehn Betrieben und hier vor allem größere Firmen. Mit einem neuen Benchmarking-Tool können Unternehmen ihren Digital-Office-Index überprüfen.


Was ist Edge-Computing?

Neben dem Cloud-Computing wabert auch immer mal wieder der Begriff Edge-Computing vorbei. Eine der Definitionen lautet zum Beispiel, dass Daten direkt am Ursprung verarbeitet werden sollen, ohne dabei den Weg über ein Rechenzentrum einzuschlagen. Was bedeutet das genau und wofür brauchen wir Edge-Computing?



Alle Artikel aus:  2020  2019  2018  2017  2016