Unternehmen schöpfen das Potential von Big Data nicht aus!

Was sind eigentlich Big Data? Als Data Scientist faszinieren mich Daten. Mit Begeisterung tauche ich ein in das tobende Meer der Daten, den sogenannten Big Data und suche nach Perlen, den Insights, die selten direkt an der Oberfläche zu finden […]

Was sind eigentlich Big Data?

Als Data Scientist faszinieren mich Daten. Mit Begeisterung tauche ich ein in das tobende Meer der Daten, den sogenannten Big Data und suche nach Perlen, den Insights, die selten direkt an der Oberfläche zu finden sind. Welche Geheimnisse verbergen sich in den ungeahnten Tiefen des Datenmeeres?

Meinen Beruf anderen Menschen zu erklären ist nicht immer einfach. Oft stelle ich fest, dass viele Menschen den Begriff „Big Data“ unterschiedlich interpretieren. Bei dem Begriff „Big data“ halte ich mich an die Definition von Gartner mit den 3Vs: Volume, Variety und Velocity. Mit Volume ist das große Datenvolumen gemeint. Datenmengen, die mit gängigen Methoden nicht mehr gehandhabt werden können. Die Daten aus der Industrie kommen aus allen Bereichen der Automatisierungspyramide, von der Feldebene bis zur Unternehmensleitebene, aber auch über die gesamte Wertschöpfungskette. Dabei kommen natürlich große Mengen zusammen.

Variety- Daten variieren je nach Quelle. Bei der Feldebene sind die Daten schön strukturiert, die Messwerte. Es gibt aber auch unstrukturierte Messwerte, wie beispielsweise Texte aus Dokumentationen oder Multimediadaten wie Bilder, Videos und Schallanalysen. Es sind unterschiedliche Datentypen, die Informationen enthalten und verarbeitet werden müssen.

Velocity– die Daten müssen extrem schnell erfasst und verarbeitet werden, um daraus Entscheidungen zu treffen.

Zu der Definition wurden inzwischen einige weitere Vs ergänzt. Das kann man natürlich unendlich treiben, aber ein V finde ich persönlich noch ganz wichtig und zwar Validity. Die Datenqualität kann zum Problem werden, wenn die gesammelten Daten nicht sauber oder unvollständig erfasst worden sind.

Inwieweit werden Big Data für die Öl- und Gasindustrie genutzt?

Big Data werden in verschiedenen Bereichen der Öl- und Gasindustrie genutzt, wie z.B. in der Prozessoptimierung. Mittels historischer Daten werden Modelle trainiert, um den Ablauf von Prozessen zu analysieren. Was ich erfahren möchte: Welche Informationen kann man aus den erhobenen Daten herauslesen? Eine weitere wichtige Frage: Was sind die Folgen? Wie kann man den Prozess optimieren? In vielen Fällen lassen sich so optimierte Betriebsparameter bestimmen. Prozesse werden sich in Bezug auf Energieoptimierung angeschaut- wie kann man Prozesse besser steuern, um die Energie effektiver nutzen zu können? Ein anderes Beispiel: Der Einsatz von Robotern, die vor allem in Situationen eingesetzt werden, die für den Menschen gefährlich werden könnten, z.B. zur Erkennung von Lecks in Gasleitungen. Die Infrastruktur kann von Drohnen überwacht werden. Um Entscheidungen zu fällen, lassen sich Auswertungen von unstrukturierten Daten , wie in Maintenance Reports oder Operator Logs, nutzen.

Operator Logs nutzen wir beispielsweise um zu überprüfen, welche Handlungen die Operator tatsächlich ausführen. In der Industrie gibt es häufig sogenannte SOPs, vorgeschriebene Handlungsweisen für den Operator. In der Realität sieht dies jedoch anders aus. Da verlassen sich die Operators auf ihre Erfahrungswerte, welche in den Event- und Alarmdaten aufgezeichnet worden sind. Zusätzlich wird in Operator Logs und Tagebüchern notiert, was Außergewöhnliches in der Anlage passiert ist. Die agglomerierten Daten lassen sich auswerten, um das tatsächliche Herangehen der Operators in bestimmten Situationen zu analysieren und dadurch die SOPs zu verbessern oder ggfs. auch später Dinge automatisieren zu können.

Unternehmen schöpfen das Big Data-Potential nicht voll aus

Auch wenn man größtenteils das enorme Potential von Big Data erkannt hat, so wird das Potential in der Praxis nicht ausgeschöpft. Gerade in der Industrie gibt es noch sehr viel zu tun. Woran liegt das? Hier trifft Wunschdenken auf Bürokratie. Die Strukturen sind noch nicht so weit ausgebaut, wie sie für die Nutzung und Analyse von Big Data sein sollten. Es existieren Datensilos, jede Abteilung pflegt ihre eigenen Datenbanken. Um das volle Potential zu nutzen, müsste man allerdings alle Daten zusammenfügen. So schafft man Transparenz, deckt Schwachstellen auf und fördert produktive Initiativen. Nur so erhält man das Big Picture, das große Ganze.

Die Datenqualität ist auch ein Manko. In der Praxis werden Datenlücken oder Zeitstempel nicht dokumentiert, so dass sich Daten nicht mehr richtig zuordnen lassen können. Mein Lieblingsbeispiel: Man hat Prozessdaten und Labordaten müssen einem Prozesszustand zugeordnet werden. Hierbei ist es von höchster Relevanz, den exakten Zeitpunkt der Datenaufzeichnung zu notieren. Wenn derjenige, der die Probe aufnimmt, nicht aufschreibt, wann genau die Probe genommen wurde, ist es schwer bis unmöglich diese zuzuordnen. Dann sind die Daten nutzlos. Man muss das Bewusstsein bei den Leuten schaffen, dass die exakte Datenerhebung und Dokumentierung extrem wichtig ist. Wenn laut Zeitplan die Messung um 13h fällig ist und man sich verspätet hat, wird oft etwas mit der Zeit geschummelt. Man will das menschliche „Verschulden“ oft nicht zugeben und protokollieren. Mit dem Ergebnis, dass man im Zweifelsfall nicht mehr viel mit der Messung anfangen kann.

Für alle, die sich mit dem Thema Big-Data-Anwendungen tiefergehend auseinandersetzen möchten: Gerade sind die ersten drei Blätter der Richtlinie VDI/VDE 3714 “Implementierung und Betrieb von Big-Data-Anwendungen” im Gründruck erschienen, weitere vier Blätter werden folgen. An der Erstellung der Richtlinie habe ich als Mitglied des Richtlinienausschusses aktiv mitgewirkt und muss sagen, sie gibt wirklich eine gute und umfassende Übersicht über die aktuellen Erkenntnisse aus Praxis und Wissenschaft. Und das zugeschnitten auf die Fragestellungen der produzierenden Industrie. Wir haben Wert darauf gelegt, auch Neulingen in diesem Bereich einen guten Einstieg zu ermöglichen und haben viele Aspekte mit anschaulichen Beispielen aus der Praxis illustriert. Hereinschauen lohnt sich.

Der nächste große Trend im Bereich Big Data

Nach wie vor ist die Datenarchitektur ein ganz großer Trend. Wie werden Daten gespeichert? Wo liegen die Daten? Wie werden Daten integriert, um Silos aufzubrechen und für größere Anwendungen zur Verfügung stellen zu können?

Ein wichtiges Thema ist IIoT: Es wird immer mehr intelligente Devices und Sensoren geben, die in der Industrie neben dem Leitsystem eingesetzt werden können, Stichwort „NOA“. Abseits der Automatisierungspyramide können Daten integriert werden, visualisiert und ausgewertet werden. Ein Beispiel: Die Integration der Sushisensoren. Ein sehr spannendes Tool, mit dem man sehr einfach ein Trendanalyse machen kann. Das Potential liegt aber auch hier in der Verknüpfung mit anderen Daten. Unsere neue Join-Lösung lässt sich individuell maßgeschneidert im Bereich IIoT einsetzen. Hierbei dient Join als offene Kollaborationsplattform für verschiedene Devices: mit Cloudstruktur und skalierbarem Datenspeicher sowie integrierter Datenanalyse-Plattform und benutzerfreundlichem Dashboard.

Zu guter Letzt: Datenanalyse, wie z.B. Predictive Analytics. Was sind zukünftige Entwicklungen? Wie kann man vorausschauend planen, z.B. im Bereich Maintenance?

Auf dem weiten Feld der Big Data gibt es allerhand zu tun. Was meinen Sie, in welchem Stadium befindet sich Ihr Unternehmen gerade? Ich freue mich über Kommentare hier im Blog oder über unsere Social Media Kanäle.


Bildrechte: sdecoret-stock.adobe.com

 

 

 

 

Kommentar verfassen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Scroll to Top