Schriftgröße: +

Von Big Data zu Smart Data

Von Big Data zu Smart Data

Nur wer Daten versteht, kann Mehrwert schaffen. Will heissen, Big Data muss Smart Data werden, damit aus dem riesigen Datenmeer die vielen Schätze gehoben werden können. Dies machte Siemens Schweiz anlässlich der diesjährigen Fachpressekonferenz deutlich.

Zur diesjährigen Fachpressekonferenz lud Siemens Schweiz Ende Mai zur Stöckli Swiss Sports AG. Die Schweizer Skifirma ist zwar auf dem Weltmarkt ein kleiner Player, aber mit im Ski-Weltcup sehr erfolgreich. Siegfried Gerlach, CEO Siemens Schweiz, wies denn auch nicht ohne Stolz darauf hin, dass Siemens mit der intelligenten 3D-Software Solid Edge auch einen Teil zu den Weltcup-Erfolgen beiträgt. Das Hauptthema aber war Smart Data.

Die zunehmende Digitalisierung in Industrie und Gesellschaft stellt historisch gewachsene Prozesse in Frage und verändert wirtschaftliche Wertschöpfungsketten und ganze Geschäftsmodelle. Big Data muss zu Smart Data werden, damit aus dem Datenmeer konkrete Handlungsempfehlungen und die richtigen Aktivitäten abgeleitet werden können.

Die Daten welche sich heute und in naher Zukunft weltweit anhäufen sind derart gross, dass ein geordneter Überblick fast nicht möglich erscheint. Das digitale Gebirge soll laut den Analysten der International Data Corporation von 2010 bis 2020 um das Vierzig- bis Fünfzigfache wachsen, auf eine Datenmenge von 40 Zettabyte. Ein Zettabyte ist eine Eins mit 21 Nullen, oder anders gesagt: Pro Kopf werden im Jahr 2020 sechs Terabyte an Daten gespeichert sein – das entspricht der Textmenge von drei Millionen Büchern für jeden Erdenbürger.

Angesichts dieser immensen Datenberge versteht es sich von selbst, dass hier echte Schätze zu heben sind. Eine globale Umfrage der Universität Oxford ergab: Fast zwei Drittel der Befragten aller Branchen sind überzeugt davon, dass die Nutzung von Daten und Analyseverfahren für ihr Unternehmen einen Wettbewerbsvorteil darstellt – zwei Jahre zuvor meinten dies erst 37 %. Doch wie soll der moderne Goldgräber in den Datenbergen die Nuggets finden?

Um solche Datenmengen richtig auswerten zu können, muss man den Zugang zu ihnen finden und sie verstehen – das heisst, man muss über das Wissen verfügen, wie die Geräte und Anlagen funktionieren und mit welcher Sensorik und Messtechnik man an die wirklich nützlichen Daten herankommt. Hier ist nicht unbedingt die «Masse» (big), sondern der «wertvolle Inhalt» (smart) das entscheidende Kriterium.

In einer grossen Gasturbine beispielsweise messen Hunderte von Sensoren jede Sekunde Temperaturen, Drücke, Strömungsverläufe und die andauernd wechselnde Zusammensetzung der Gase. Wer das detaillierte physikalische Know-how über die Anlagen besitzt und damit diese Werte richtig analysiert, der kann dem Kraftwerksbetreiber wertvolle Hinweise geben, wie er seine Anlage effizienter einstellen und bei gleicher Stromproduktion die Schadstoffemissionen senken kann. Ähnliches gilt für die Optimierung der Stromproduktion von Windparks oder die Minimierung des Energieverbrauchs von Gebäuden, Stahlwerken oder ganzen Städten – überall gilt es, nicht nur die Daten zu sammeln, sondern sie auch zu begreifen.

Die besten Trümpfe hat in Zukunft derjenige in der Hand, der neben dem Gerätewissen auch das Anwenderwissen besitzt, der also nicht nur weiss, wie die Gasturbine, die Stahlpresse oder das Stromnetz funktionieren, sondern der auch die Abläufe und die Bedürfnisse der Betreiber dieser Anlagen kennt. Wenn er dann noch die richtigen Algorithmen zur Datenauswertung entwickelt, kann er seinen Kunden einen echten Mehrwert bieten, sei es, um Energie zu sparen oder umweltfreundlicher zu wirtschaften oder um die Kosten zu senken, die Prozesse zu beschleunigen oder die Zuverlässigkeit der Anlagen zu erhöhen.

Smart Data soll künftig nicht nur die Frage beantworten: «Was geschieht gerade in meiner Anlage?», sondern auch «Warum passiert etwas?» oder gar «Was wird demnächst geschehen und was sollen wir tun?» Die ersten Schritte sind bereits getan: So betreibt Siemens auf mehreren Kontinenten Fernwartungszentren, an die über 250 000 Anlagen angeschlossen sind und Monat für Monat mehr als zehn Terabyte an Daten verarbeitet werden – bis 2020 dürfte sich diese Datenmenge verzehnfachen. Analysiert wird fast alles, von Ampelanlagen und Verkehrsrechnern über Züge und Schiffsmotoren bis zu Zigtausenden von Gebäuden, Stahlwerken, Papierfabriken, Wind- und Gasturbinen, Röntgengeräten und Computertomographen.

 


Die Entwicklung der Datenmenge

 

1 Megabyte (MB) ist die typische Grösse eines komprimierten digitalen Bildes.

1 Gigabyte (GB) beträgt die Speicherkapazität eines kleinen MP3-Players.

1 Terabyte (TB) ist das ungefähre Speichervolumen einer aktuell typischen Festplatte.

1 Petabyte (PB) war 2002 die Kapazität aller Rechenzentren weltweit.

1 Exabyte (EB) entspricht fünf Mal so viel Information wie in allen je gedruckten Büchern enthalten ist.

52 EB beträgt die Datenmenge, die im Jahr 2010 in der Cloud gespeichert war.

462 EB beträgt die Datenmenge, die im Jahr 2012 in der Cloud gespeichert war – neun Mal mehr als noch zwei Jahre zuvor.

1 Zettabyte (ZB) entspricht 1,5 Mal der Menge aller Sandkörner an allen Stränden der Erde.

Im Jahr 2020 wird die prognostizierte Menge aller gespeicherten Daten aus über 40 ZB bestehen.

Blog-Bild:Der letzte Schliff: Ein Stöckli-Ski erhält unter medialer Beobachtung den letzten Schliff. (Bild Peter Jenni)

siemens 2

Fachpressekonferenz bei Stöckli Swiss Sport AG: Siegfried Gerlach, CEO Siemens Schweiz. (Bild Peter Jenni)

0