Die digitale Transformation findet direkt vor unseren Augen statt. Um mit dem Mitbewerb mithalten zu können, setzen immer mehr Fertigungsunternehmen moderne Technologien ein und wechseln mit Hilfe des IIoT vom traditionellen Fabrikansatz zum Konzept der Industrie 4.0. Gleichzeitig erleben wir ein exponentielles Wachstum des Interesses an künstlicher Intelligenz (KI), und es wird zur Selbstverständlichkeit, die Analytik zu nutzen, um die Leistung der Produktionsanlagen zu optimieren. Laut den jüngsten Berichten von Gartner liefern jedoch 85 % der KI-Projekte nicht den erwarteten Wert. Obwohl es eine Vielzahl von Gründen gibt, die zum Scheitern führen könnten, können Industrieunternehmen ihre Erfolgschancen erhöhen, indem sie ihr Unternehmen auf den unvermeidlichen Übergang zu einer datengesteuerten Organisation vorbereiten.

Aggregieren und Organisieren von Daten - Transition Technologies PSC

Aggregieren und Organisieren von Daten

Es gibt keine Analytik ohne qualitativ hochwertige organisierte Daten. Diese Binsenweisheit ist einer der wichtigsten Faktoren, die die Grundlage für ein erfolgreiches KI-Projekt bilden, aber leider wird sie in der Regel nicht mit der nötigen Aufmerksamkeit behandelt.

Die größte Herausforderung besteht heutzutage nicht in der mangelnden technischen Durchführbarkeit der Erfassung von Informationen aus veralteter Hardware in der Fabrik (dank IIoT-Plattformen und Hunderten von gebrauchsfertigen Treibern und Konnektoren wie Kepware, die die Datenerfassung von buchstäblich jeder industriellen Anlage mit Leichtigkeit ermöglichen), sondern vielmehr in der Tatsache, dass die Informationen über mehrere IT-Systeme und physische Standorte verteilt sind, und zwar in unterschiedlicher Qualität und Häufigkeit.

Manch einer mag sagen, dass Data Warehouses die Lösung sind, und das ist tatsächlich teilweise richtig. Data Warehouses wurden vor vielen (relativ) Jahren als Weiterentwicklung klassischer RDMBS (relationale Datenbankmanagementsysteme) eingeführt, um große Mengen an Informationen (Big Data) für einen bestimmten Zweck zu speichern und zu verarbeiten. Und genau das ist der Grund, warum klassische Data Warehouses in der Regel nicht so nützlich sind, wenn es um KI geht – sie enthalten bereits verarbeitete Daten, wohingegen für den Feature-Engineering-Prozess (Extraktion wichtiger Informationen für weitere Analysen und maschinelle Lernberechnungen) Rohdaten benötigt werden

Die Lösung für diese Herausforderung – Data Lakes – wurde vor ein paar Jahren eingeführt und wird bereits von den größten Cloud-Service-Anbietern genutzt. Der Zweck ist einfach: Bereitstellung eines leicht zugänglichen und leicht bearbeitbaren Speichers für Rohdaten, die für die weitere Verarbeitung verwendet werden können. Es ist erwähnenswert, dass der moderne Ansatz, der manchmal auch als Data Lakehouse bezeichnet wird, eine zusätzliche Datenverwaltung ermöglicht, die letztlich die Flexibilität von Data Lakes mit den ACID-Transaktionen klassischer Data Warehouses kombiniert (ein gutes Beispiel für eine Technologie, die derzeit in diesem Bereich an Popularität gewinnt, ist Snowflake).

 

Vernünftige und messbare Ziele entdecken

Erst wenn die Daten schließlich gesammelt und gespeichert sind, ist es an der Zeit, den Geschäftsnutzen zu ermitteln. Das bedeutet nicht, dass Industrieunternehmen nicht vorher über ihre Herausforderungen nachdenken sollten – ganz im Gegenteil – aber ihr Fokus sollte eher auf messbaren Geschäftswerten liegen, als auf einem bestimmten Teil des Produktionsprozesses, den sie optimieren wollen.

Es ist weit verbreitet, dass die Erwartungen an den ROI von Analytik (insbesondere KI) auf höchster Managementebene hoch sind, aber die Wahrheit ist grausam – Analytik ist kein Zauberstab. Außerdem kann man sich nicht immer ganz sicher sein, dass das definierte Geschäftsproblem lösbar ist, bevor man versucht, es zu lösen.

Daher ist eine angemessene Analyse der Geschäftsprozesse und die Auswahl eines geeigneten und dennoch rentablen Ansatzes und Anwendungsfalls ein entscheidender Schritt für den Gesamterfolg eines jeden industriellen Analyseprojekts.

Geschäftsprozesse besser verstehen - industriellen KI-Projekt - Transition Technologies PSC

Geschäftsprozesse besser verstehen

Glücklicherweise gibt es Werkzeuge und Lösungen, die ein besseres Verständnis der Geschäftsprozesse ermöglichen, indem sie Erkenntnisse liefern, die direkt aus den von den Unternehmen gesammelten Daten abgeleitet werden. Ein gängiger Begriff für diese Tools ist Business Intelligence (BI).

Die Stärke von Business Intelligence ist definitiv die Fähigkeit, Big Data auf sehr verständliche und zugängliche Weise zu visualisieren, normalerweise in Form von fortgeschrittenen Berichten, die ein breites Spektrum an geschäftsorientierten KPIs präsentieren. Der Schlüsselfaktor in der industriellen Welt liegt darin, dass BI verwendet werden kann, um OT-Daten (aus der Produktion) mit IT-Daten (wie ERP, PLM, CRM, HR, WMS oder anderen) zu aggregieren, was eine Reihe von Möglichkeiten eröffnet, um einen Mehrwert für das Unternehmen zu schaffen und letztendlich bessere Entscheidungen zu treffen, einschließlich der Auswahl an vielversprechendsten Anwendungsfälle für KI.

BI ist heutzutage im Industriesektor ein stark unterbewerteter Zweig der Analytik, insbesondere aufgrund der Tatsache, dass Fertigungsunternehmen immer noch Angst davor haben, ihre On-Premise-Umgebungen zu verlassen und in die Cloud zu gehen, während es fast unmöglich (und was noch wichtiger ist – unrentabel) ist, Business Intelligence-Lösungen (z. B. PowerBI) einzusetzen, wenn die Daten nicht in der Cloud gespeichert sind.

Klein anfangen, schnell scheitern, groß denken

Ein weiterer Faktor ist die Methodik für die Durchführung von Analyseprojekten, die in der Regel nicht richtig definiert und angewendet wird. Wenn es um KI geht, ist es schwer, die Zukunft vorherzusagen (was eine seltsame Aussage ist, da KI häufig für die Vorhersage späterer Ereignisse verwendet wird). Der klassische IT-Softwareentwicklungsansatz (selbst Agile) führte in der Regel zu einer Eskalation oder sogar zum Abbruch von Analyseprojekten, weil die erwarteten Ergebnisse ausblieben. Daher müssen die Meilensteine vor dem Projektstart sorgfältig festgelegt werden. Industrieunternehmen müssen über die potenziell bevorstehenden Entwicklungen informiert werden, bevor sie sich für eine Investition in die Analytik entscheiden.

Wenn der zu behandelnde Anwendungsfall ausgewählt ist, ist es am besten, die Bemühungen auf die Implementierung des PoV (Proof of Value) zu konzentrieren, der eine Art Machbarkeitsstudie darstellt. Dabei muss es sich nicht unbedingt um ein hochmodernes Modell des maschinellen Lernens handeln, das alle anderen übertrifft, sondern es sollte vielmehr Erkenntnisse, Klarheit und Zuversicht vermitteln, dass diese Richtung weiter erforscht werden kann. Wenn der PoV keinen Mehrwert nachweist – was nicht selten der Fall ist -, können Unternehmen entscheiden, ob sie die Gründe für den Misserfolg untersuchen und beheben wollen (vielleicht müssen mehr Sensoren an der Produktionslinie installiert werden, mehr Daten gesammelt werden, die Häufigkeit erhöht werden oder eine Vielzahl anderer möglicher Gründe), oder ob sie lieber einen Schritt zurückgehen, den mangelnden Erfolg akzeptieren und einen anderen vielversprechenderen Anwendungsfall auswählen wollen, der ihrem Unternehmen letztendlich Nutzen bringen kann.

Wenn der PoV erfolgreich ist, kann produktionsreife Software entworfen, entwickelt und in einer Pilotfabrik eingesetzt werden, mit dem Ziel, sie für das gesamte Unternehmen zu skalieren. Entscheidend ist jedoch, dass diese häufigen Fehlschläge in den frühen Phasen des Projekts nicht als Misserfolge, sondern als notwendige Schritte zum endgültigen Erfolg betrachtet werden.

Zu einer datengesteuerten Organisation werden

Zu einer datengesteuerten Organisation werden

Sobald das Unternehmen den Wert des ersten Analyseprojekts (entweder BI oder KI) erkannt hat, gibt es keinen Weg zurück. Immer mehr Teile des Unternehmens werden digitalisiert, zusätzliche Datenquellen werden aggregiert und kontextualisiert, sodass bessere und ausgereiftere Entscheidungen getroffen werden können. Es ist nur eine Frage der Zeit, bis jedes einzelne Produktionsunternehmen Analytik im Alltag einsetzt. Es muss nur reif genug sein, um sich diesem inspirierenden Trend in geeigneter Weise anzuschließen.

Je eher der Industriesektor seine Einstellung ändert, um die Macht zu nutzen, die in den Tonnen von Informationen liegt, die bereits vor der eigenen Haustür gesammelt werden, und sich zu einer echten datengesteuerten Organisation entwickelt, desto schneller werden die Fertigungsprozesse optimiert und die Fabriken können in kurzer Zeit umweltfreundlicher werden.

Die wichtigsten Erkenntnisse:

  1. Sammeln und Speichern Sie OT/IT-Daten in guter Qualität in der Cloud (Data Lake) mit Hilfe des IoT.
  2. Definieren Sie ein messbares und realistisches Ziel, das Sie mit KI erreichen wollen.
  3. Nutzen Sie BI, um einen unmittelbaren Mehrwert für Ihren geschäftlichen Entscheidungsprozess zu schaffen.
  4. Passen Sie die Bereitstellungsmethodik an die besonderen Merkmale von Analyseprojekten an.
  5. Vertrauen Sie Ihren Daten und scheuen Sie sich nicht, Ihre Geschäftsentscheidungen auf die von Ihnen gesammelten Informationen zu stützen.

 

Erleben Sie die Möglichkeiten unserer Industrial Analytics Accelerator-Lösung noch heute.
Erkunden Sie die Möglichkeiten und sehen Sie sich eine Demo an.

_Alle Beiträge in dieser Kategorie

blogpost
Artikel

Azure Cloud Security: Wie können wir das Zero Trust Model sicherstellen und KI zu unserem Vorteil nutzen?

Seit der weltweiten Verbreitung von Remote Work in den letzten Jahren stehen IT-Sicherheitsteams vor immer größeren Herausforderungen, um einen effektiven und sicheren Zugang zu den kritischen Anlagen, Ressourcen und Daten von Unternehmen zu gewährleisten. Ausgefeilte Phishing-Angriffe, bei denen Benutzerdaten preisgegeben werden, was Angriffe von der Seite oder die Installation von Ransomware auf unternehmenskritische Infrastrukturen ermöglicht. Zero-Day-Schwachstellen ermöglichen es böswilligen Akteuren, zugängliche Dienste zu stören.

Mehr lesen
blogpost
Artikel

Quanten-Computing: Wo Schrödingers Katze es sich in der Cloud gemütlich macht

Begleiten Sie mich auf eine Reise, die uns aus dem Reich der Realität, wie wir sie kennen, in eine Welt führt, in der eine Katze sowohl tot als auch lebendig sein kann und ein Teilchen an zwei Orten gleichzeitig sein kann. Schnallen Sie sich an, wenn wir die faszinierende Welt des Quantencomputers und seine Rolle im Cloud Computing erkunden.

Mehr lesen
blogpost
Artikel

Optimieren Sie Ihren Bestand und sparen Sie Geld mit präzisen Bedarfsprognosen für den Einzelhandel

Entdecken Sie, warum Nachfrageprognosen ein Schlüsselelement im Einzelhandel sind. Herkömmliche Methoden stoßen im Zeitalter der digitalen Transformation an ihre Grenzen, aber moderne Lösungen, die auf künstlicher Intelligenz und maschinellem Lernen basieren, ermöglichen genauere Prognosen. Erfahren Sie, welche Möglichkeiten diese neuen Technologien bieten und wie sie sich auf die Nachfrageprognose in der Lieferkette auswirken können.

Mehr lesen
blogpost
Artikel

Digital Maintenance: Zwei Fliegen mit einer Klappe

Der Umgang mit Betriebsstörungen gehört zur täglichen Routine in einem Produktionsbetrieb. Allerdings wird der Meldeprozess in vielen Unternehmen stiefmütterlich behandelt und reicht von telefonischen Meldungen über Papierlisten bis hin zu komplexen Eingaben auf einem zentralen Bildschirm. Letzteres wiederum führt dazu, dass die Meldungen nicht über das System, sondern über das Telefon erfolgen.

Mehr lesen
blogpost
Artikel

Die entscheidende Rolle von Cloud-basierten Datenplattformen und die Umgestaltung des Datenmanagements in der Fertigung

Mit dem Aufkommen cloudbasierter Datenplattformen können Hersteller eine effiziente und kostengünstige Möglichkeit zur Verwaltung und Speicherung großer Datenmengen anbieten, die aus verschiedenen Prozessen stammen. Jetzt können sie diese nicht nur von IoT-Geräten und Maschinen in den Produktionslinien sammeln, sondern auch Informationen aus dem Lieferkettenmanagement, der Qualitätskontrolle und sogar der Zufriedenheit der Endkunden mit dem Service erfassen. Natürlich geschieht alles in Echtzeit.

Mehr lesen
blogpost
Artikel

7 Wege, wie Datentransparenz die Effizienz in der Fertigung verbessert

Das 21. Jahrhundert ist zweifellos das Zeitalter der Daten. Und natürlich sehen wir diesen Trend mit einer leichten Verzögerung auch in der Fertigung. Heute reicht es nicht mehr aus, die Daten zu haben. Eine gute Datentransparenz ist entscheidend und grundlegend für die Verbesserung der Effizienz in Ihrem Werk.

Mehr lesen
blogpost
Artikel

Wie kann AI Data Discovery Fertigungsunternehmen helfen?

Wir alle haben das Glück, in sehr aufregenden Zeiten zu leben. Der exponentielle technologische Fortschritt der letzten Jahrzehnte hat nicht nur unser persönliches Leben beeinflusst, sondern sich auch stark auf die Wirtschaft ausgewirkt. Natürlich entwickeln sich die Trends von Zeit zu Zeit weiter, aber man kann mit Sicherheit sagen, dass jetzt die Zeit der fortgeschrittenen Analytik ist.

Mehr lesen
blogpost
Artikel

Predictive Maintenance (Vorausschauende Wartung) – Einhorn oder realistische Lösung?

Laut Forbes und mehreren kürzlich veröffentlichten ähnlichen Berichten über die nahe Zukunft der Fertigung ist die vorausschauende Wartung einer der unbestrittenen Top-Trends für 2022, wenn es um Industrie 4.0 geht – die steigende Nachfrage nach fortschrittlichen Analysen und KI-gestützten Prognosen ist bereits zu beobachten. Trotz des unbestreitbaren Wertes, der dahintersteht, entscheiden sich nicht viele Unternehmen, […]

Mehr lesen

Sie möchten mehr Informationen?

Kontaktieren Sie uns