08.07.2019 (Corina Pahrmann)
4.2 von 5, (9 Bewertungen)

Panasas: Hochleistungs-Speicher für riesigen Datenmengen

Ab September 2019 soll »ActiveStor Ultra«, das neue Speichersystem aus dem Hause Panasas, verfügbar sein. Aktuell laufen Beta-Tests in einem Luftfahrtunternehmen, einem Energiekonzern sowie einer Universität. Unsere Autorin Corina Pahrmann sprach auf der ISC 2019 mit Praneetha Manthravadi, Director of Product Management und Jim Donovan, Chief Marketing Officer, über KI-Trends und die Besonderheiten des neuen High-Performance-Speichers.

  Auf der ISC 19 stellte Panasas erstmalig das neue Speichersystem ActiveStor Ultra vor. Was bietet es und warum sollte man es einsetzen?

Donovan: Beim Blick auf den Markt für High-Performance-Storage sehen wir drei Kategorien, von denen jede bestimmte Vorteile liefert, aber auch Kompromisse erfordert. Open-Source-Filesystems wie Lustre oder BeeGFS überzeugen durch eine gute Performance und relativ niedrige Kosten. Sie können das Filesystem mit Commodity-Hardware kombinieren und an ihre spezifischen Anforderungen anpassen. Deshalb greifen häufig Cutting-Edge-Projekte auf diese Umgebung zurück. Allerdings sind diese Systeme schwer zu managen, und sie sind sehr fragil: sie können eine bestimmte Aufgabe sehr gut lösen, aber wenn man sie nur wenig verändert, muss man sie neu einrichten.

Das andere Extrem sind Speicher der Enterprise-Klasse in Rechenzentren: Die sind zwar benutzerfreundlich, liefern aber weniger Leistung und arbeiten nicht parallel. Wir vereinen das Beste beider Optionen: Wir bieten die Performance der HPC-Klasse (High-Performance-Computing) sowie die Nutzerfreundlichkeit und Zuverlässigkeit der Enterprise-Klasse. Wir nennen es auch Enterprise-HPC oder Commercial-HPC. Das Besondere an uns ist, dass es sich wirklich um ein Plug-and-Play-Dateisystem handelt.

Praneetha Manthravadi und Jim Donovan stellten auf der ISC den Hochleistungs-Speicher »Panasas ActiveStor Ultra« vor (Bild: Corina Pahrmann).Praneetha Manthravadi und Jim Donovan stellten auf der ISC den Hochleistungs-Speicher »Panasas ActiveStor Ultra« vor (Bild: Corina Pahrmann).

Anzeige

HPC und Plug-and-Play

  Was genau bedeutet Plug-and-Play, in diesem Zusammenhang? Wie passt Activestor Ultra in bereits bestehende und noch wichtiger: künftige Systeme?

Manthravadi: Unser Credo ist die sogenannte Panasas-Experience: Von der Auslieferung der Hardware über die Arbeit im Rechenzentrum bis zum Ende des Lebenszyklus des Produkts möchten wir für eine hohe Kundenzufriedenheit sorgen, und zwar unabhängig von der Größe des Systems. Activestor ist so aufgebaut, dass es sich sogar bei verändertem Workload selbst wieder ausbalanciert. Auf diese Weise können Sie klein anfangen und später weitere Aufgaben ergänzen. Die Performance steht sofort zur Verfügung, ohne dass Sie etwas tun müssen: »Set it and forget it«. Wenn Sie eine Node hinzufügen, erkennt das System dies von selbst und fragt, ob Sie sie integrieren möchten.

Donovan: Das System skaliert Performance und Kompatibilität selbstständig. Derzeit haben wir acht Storage-Units in einem Rack, und wenn der Kunde eine weitere benötigen, steckt er diese einfach auf. Die Plug-and-Play-Funktionalität erledigt den Rest: Der IT-Manager legen nur den neuen Speicher ein und klickt »recognize it« oder »erkennen«.

Panasas »ActiveStor« ist eine geclusterte Scale-Out-NAS-Appliance, die vor allem auf Geschwindigkeit und Zuverlässigkeit ausgelegt ist.Panasas »ActiveStor« ist eine geclusterte Scale-Out-NAS-Appliance, die vor allem auf Geschwindigkeit und Zuverlässigkeit ausgelegt ist.

Anwendungsszenarien für Hochleistungs-Speicher

  Welche Anwendungsszenarien gingen Ihnen bei der Entwicklung durch den Kopf?

Praneetha Manthravadi, Panasas (Bild: Corina Pahrmann)Jim Donovan, PanasasDonovan: Einerseits das ganz traditionelle HPC wie Forschung und Wissenschaft oder für den Einsatz in Behörden. Andererseits zielen wir auch auf die Produktionsunternehmen, die Biowissenschaften, die Energiewirtschaft und die Medien- und Unterhaltungsbranche.

Manthravadi: Wir richten uns an Kunden, die große HPC-Simulationen ausführen und die über große Cluster von Compute Nodes verfügen, die sie miteinander verknüpfen. Wir skalieren jedoch von sehr wenigen bis zu Tausenden von Nodes.

  In welchen Bereichen sehen Sie einen erhöhten Nachholbedarf, welche Branchen nutzen die technischen Möglichkeiten noch nicht?

Donovan: Ich denke, die Life-Sciences haben die wahrscheinlich größte Chance, diese Technologien sinnvoll und produktiv zu nutzen. Man spricht heute beispielsweise von personalisierter Medizin oder Präzisionsmedizin, und um diese zu entwickeln, ist es nötig, mehrere Disziplinen und immense Datenmengen miteinander zu verknüpfen. Die nötige IT-Infrastruktur hängt jedoch weit zurück. Die Wissenschaft hat also einen Sprung nach vorne gemacht, aber die technologische Infrastruktur ist dazu nicht kompatibel. Eine der größten Herausforderungen besteht darin, Menschen zu finden, die nicht nur die Technologie oder die Wissenschaft verstehen. Wir brauchen Techniker, die auch etwas von der Wissenschaft verstehen.

  Sammeln diese Forschungszweige bereits genügend Daten?

Donovan: Ja, einer unserer Kunden sind National Institutes of Health in den USA. Sie haben die größte biomedizinische Bibliothek der Welt, tausende Forscher weltweit arbeiten mit deren Daten. Dann gibt es auch Technologien wie CRISPR, die mit dem Editieren von Genen zu tun hat – und die wiederum massenhaft komplexe Daten erzeugen. Darin liegen hohe Potenziale, die jedoch häufig durch die noch fehlende Möglichkeit, all diese Daten effizient zu verarbeiten, ausgebremst werden.

Manthravadi: Im Allgemeinen wachsen die Datenmengen schneller als die Methoden, mit denen sie verarbeitet werden. Künftig dreht sich also alles um hochleistungsfähige Systeme, die mit riesigen Datenmengen umgehen können.

HPC-Lösungen für KI-Projekte

  Warum sind HPC-Lösungen für die Entwicklung künstlicher Intelligenz so zentral?

Praneetha Manthravadi, Panasas (Bild: Corina Pahrmann)Praneetha Manthravadi, PanasasManthravadi: Schauen wir beispielsweise auf den Bereich Training, als Teil des Deep-Learning. Wenn Sie neuronale Netzwerke für die Bilderkennung trainieren möchten, müssen Sie viele zufällige Bilder einspeisen. Und Ihr System sollte in der Lage sein, diese Datenmengen mit einer sehr geringen Latenz in sehr kurzer Zeit zu verarbeiten. HPC-Filesystems können das leisten, sie bieten die nötige Skalierbarkeit, eine hohe Bandbreite sowie geringe Latenz.

  Welche Trends der künstlichen Intelligenz sehen Sie für die nächsten drei bis fünf Jahre?

Donovan: Machine-Learning, Deep-Learning und das Training neuronaler Netzwerke: Hier liegt das große Potenzial. Um sich diese Technologien anzueignen, sollten die Unternehmen an einem einzelnen Projekt arbeiten - sei es in einer Cloud, sei es für ein kleines Produkt - und es dann auf ein Unternehmensprojekt skalieren. Ein Großteil der KI findet heute bei Amazon, Facebook, Google und Microsoft statt. Diese Leute haben erstens das Geld und zweitens die nötigen Talente. Die Herausforderung besteht darin, KI-Technologien einer viel breiteren Schicht zugänglich zu machen.

Manthravadi: Derzeit arbeiten wir auch noch in vielen verschiedenen Frameworks. Diese Prozesse werden standardisiert, ein oder zwei Tools wie TensorFlow oder Caffe werden dominieren. Aktuell experimentieren die Unternehmen noch und versuchen herauszufinden, mit welchen Tools sie gut vorankommen.