10.02.2017 (Doc Storage)
4.2 von 5, (5 Bewertungen)

Brauchen auch KMUs einen Data Scientist?

Leserfrage: Alle sprechen von Big Data bzw. neuerdings von Smart Data. Wenn ich es richtig sehe, nutzen bereits Großunternehmen wie beispielsweise Microsoft/Facebook vermehrt Microservices, um hochskalierbare Dienste anzubieten, die in Sekunden auf herausgefilterte Ereignisse reagieren. Muss jetzt jedes Unternehmen Data Scientists beschäftigen? Was kommt da auf kleinere Unternehmen und Mittelständler zu?

Antwort Doc Storage:

Wie (fast) immer in der Informatik lautet auch hier die Antwort: »Es kommt drauf an.« Vor allem einmal auf die Definition, was überhaupt ein »kleines oder mittleres« Unternehmen ausmacht. Ist es der Umsatz, ist es die Anzahl der Mitarbeiter, die Größe der EDV oder das Volumen des installierten Speichers? Ich denke, für die Beantwortung der hier gestellten Frage sollte es (natürlich) entweder um das Volumen des installierten Speichers oder noch besser um die Anzahl der Informationen in den dort laufenden Anwendungen gehen.

Ein Data Scientist soll sich ja vor allem um die Analyse und den sinnvollen Umgang der gespeicherten Informationen kümmern. Dies wird immer dann sinnvoll, wenn größere Datenmengen (jaja, ich weiß, auch ein schwammiger Begriff) zur Bearbeitung anstehen. Aber, was sind nun größere Datenmengen? Für die eine Firma können dies schon einige Gigabyte, für ein anderes Unternehmen mehrere Terabyte, und für die Angeber unter uns Petabytes an Informationen sein. Daneben kommt es auch darauf an, wie unterschiedlich und informationshaltig die gespeicherten Daten sind. In wenigen Gigabytes hochdivergenter Daten können oft mehr Informationen enthalten sein, als in Petabytes, in denen sich ein und derselbe Block immer wiederholt.

Wenn man all dies nicht weiß, und ich gehe bei den meisten KMUs davon aus, dass die interne EDV anderes zu tun hat als sich um diese Themen zu kümmern, sollte man sich zur ersten Analyse der gespeicherten Daten Hilfe von außen holen. Es gibt genug Spezialisten, die diese Aufgabe für eine bestimmte Zeit übernehmen und dem Betreiber eine entsprechende Übersicht vorlegen. Erst dann sollte entschieden werden, ob es zum weiteren Betrieb und zum »Abernten« der gespeicherten Informationen tatsächlich einen eigenen Spezialisten im Hause braucht. Nach meinen Erfahrungen wird es aber in Unternehmen, die sowieso in der EDV auf Kante genäht sind, kaum das Budget für eigene Data Scientists geben. Hier ist es lohnenswerter, von Zeit zu Zeit externe Hilfe in Anspruch zu nehmen und die Ergebnisse dann entsprechend in die alltäglichen Prozesse einfließen zu lassen.

Aber nach dem ersten Besuch und der ersten Analyse werden die meisten KMUs feststellen, dass beim doch weitestgehend geringen Datenbestand eine solche Vollzeitstelle oder gar ein zweiter Besuch eines externen Fachmannes nicht lohnt.

Gruß
Doc Storage


Stellen Sie Ihre Frage
Doc. tec. Storage beantwortet alle Ihre technischen Fragen zu Storage, Backup & Co.

Stellen Sie Ihre Frage an: DocStorage@speicherguide.de
Kommentare (3)
10.02.2017 - jan

"Datensumpf"
I.d.R. wissen die KMUs schon was Sie gespeichert haben - aber um die wenig strukturierten Daten in proprietären Formaten nutzbar zu machen - sind erheblichen Anstrengungen nötig.
Man muss erst einmal die Investition in die Tool Chain (oder einen Piloten) zur Strukturierung dieses Sumpfes tätigen, bevor man weiß zu welchen Invest./Betriebskosten welche Daten laufend, in welcher Qualität gewonnen werden können. Daten minderer Qualität (z.B. Summen in Excel/PPT für das Mgmt. sind meist vorhanden.)
Danach kann man anfangen sich mit den Möglichkeiten der Verwertung der Daten auseinander zu setzen...

10.02.2017 - kfr

Vielen Dank für diesen kleinen Insider-Einblick.
Der "Datensumpf" ist bestimmt eines der größten Probleme. Keiner weiß, was da gespeichert ist.

10.02.2017 - jan

"....eine solche Vollzeitstelle...ein zweiter Besuch ... nicht lohnt."
Schönes Fazit, dem ich (als Data Scientist) i.d.R. voll und ganz zustimme. Zumal gerade bei KMUs die Vorarbeiten im "data swamp" um Daten nutzbar zu machen i.d.R. 80% eines Projektbudgets auffressen. D.h. die Daten liegen wie sie gefallen sind - und rotten vor sich hin.
Trotzdem sollte man ab und zu mal 20-50K in eine intensive Beratung/Analyse der Produktions-/Vertriebs-/F&E-Daten stecken (Wenn es finanziell geht.). Die Chancen, dass dort der Schlüssel zu Einsparungen/Marketinggewinnen im 6 bis 7 stelligen Bereich/pro Jahr ungenutzt und vor allem unerkannt herumliegen ist nicht Null - und mache Berater finden sie auch... Wichtig ist die Einbeziehung (Abstellung) der internen IT und Business Fachleute zu so einer Analyse - das vervielfacht die Chance auf einen Treffer.
Gerade, wenn die Geschäftsleitung neuen Risiken/Geschäften gegenüber aufgeschlossen ist sollte man das regelmäßig (alle 3-7 Jahre) angehen.
(P.S. Ich persönlich berate keine KMUs und bin bei einem DAX Konzern fest angestellt.)


Mehr von Doc. tec. Storage 16.10.2020 Welchen Stellenwert haben DMTF Redfish und SNIA Swordfish?

Die neuen Versionen von DMTF Redfish und SNIA Swordfish enthalten nun NVMe- und NVMe-oF-Spezifikations-Verbesserungen. Da stellt sich die Frage nach dem Stellenwert der beiden Spezifikationen. Doc Storage sieht hier aber großes Potenzial.


09.10.2020 Was ist ein Ingress- und Egress-Datenverkehr?

Der Datenverkehr unterliegt in Netzwerken und der Cloud einem definierten Regelwerk. Dabei fallen mitunter auch die Begriffe Ingress und Egress. Doc Storage erklärt die Bedeutung.


28.08.2020 Kommt mit QLC-Flash das Ende hybrider Speichersysteme?

Die ersten Arrays mit QLC-Flash-Technologie kommen auf den Markt. Einige Hersteller prophezeien durchaus vollmundig das Ende von hybriden Speichersystemen, also solchen mit Flash und Festplatten. Ist dieses Ende tatsächlich absehbar oder wie sieht die Zukunft in diesem Bereich aus?


21.08.2020 Mehr in die Zukunft agieren, weniger jammern

Jammern ist gerade irgendwie in Mode. Der Virus, der Markt, die Geschäfte – natürlich ist es aktuell schwierig. Für die Kunden gestaltet sich vieles aber positiv, braucht es doch weniger Manpower, um Produkte und Lösungen in Betrieb zu nehmen. Das macht sich im Geldbeutel bemerkbar. IT-Anbieter müssen künftig nicht nur in Studien in die Zukunft schauen, sondern sich generell schneller anpassen und auf neue Gegebenheiten reagieren.


07.08.2020 Marktstudien: Ergebnisse meist zu offensichtlich

Marktstudien belegen in der Regel bekannte Trends, mehr nicht. Wirkliche Erkenntnisse oder Neues fördern sie, laut Doc Storage, nicht zu Tage. Dies belegt er anhand zweier aktueller Beispiele: Die Analysekriterien sind schwammig, die Argumente eher fadenscheinig und die Resultate offensichtlich. Zudem sei fragwürdig, in wie weit Sponsoren die Ergebnisse beeinflussen.


31.07.2020 Business-Continuity: Zu viele Firmen unvorbereitet auf K-Fall

Jüngste Studien sprechen von einem steigenden Bewusstsein in Sachen Business-Continuity. Doc Storage kann den Zahlen allerdings wenig positives abgewinnen, denn noch nicht mal zwei Drittel aller Unternehmen besitzen einen Business-Continuity-Plan und fast die Hälfte verfügt über keine fest definierte Rückkehrmaßnahmen. Aus seiner Sicht ist es erschreckend, wie viele Firmen und IT-Abteilungen nicht auf einen Katastrophenfall vorbereitet sind.

powered by
N-TEC GmbH FAST LTA
Cloudian Tech Data IBM Storage Hub
Folgen Sie speicherguide.de auch auf unseren Social-Media-Kanälen
Folgen Sie und auf Facebook Folgen Sie und auf YouTube Folgen Sie und auf Twitter