Rezept für die sicherste und effizienteste autonome Fertigung, die im Moment vorstellbar ist

In letzter Zeit ist häufig die Rede von Künstlicher Intelligenz und Machine Learning. Wenn man genauer hinschaut, sind manche Anwendungen so klein, dass man kaum auf die Idee gekommen wäre sie als KI zu bezeichnen. Oder sie sind vom Verhalten schwer durchschaubar und das Risiko ist zu hoch, sie auf eine komplette Produktionsstraße loszulassen. Wie kann man in der Fertigung die Möglichkeiten von Machine Learning nutzen und trotzdem auf der sicheren Seite bleiben?

Ideal wäre es, die Möglichkeiten von lernenden Algorithmen und regelbasiertem Expertenwissen zu kombinieren. Denn Machine Learning-Verfahren können zwar gut Zukunftswerte prognostizieren, haben aber Schwächen auf noch nie dagewesene Störungen zu reagieren. Regelwerke dagegen ermöglichen sofortige, validierbare Reaktionen auf Störungen, können aber bestenfalls kurzfristige Trends erkennen. Eine Verschmelzung der beiden Herangehensweisen könnte zur sichersten und effizientesten autonomen Fertigung führen, die im Moment vorstellbar ist.

In jahrelanger Arbeit und mit komplexer Technologie ist es bei GFT Technologies SE gelungen, dieses Kombinationskonzept in Software zu gießen – in Form des so genannten ‚Model in the Middle‘. Es ist ein Kernbestandteil der IoT-Plattform sphinx open online und ermöglicht sowohl die autonome Reaktion auf spontane Ereignisse als auch die Nutzung von Machine Learning-Verfahren. Dafür arbeitet es kontinuierlich „in the loop“, das heißt es ist in der Lage in sehr kurzen Abständen in die Vergangenheit zu blicken und daraus Prognosen für die Zukunft zu errechnen. Wichtig dafür ist die Fähigkeit des Model in the Middle, Ereignisse der Vergangenheit zu speichern, ohne dass eine separate Anwendung dafür erforderlich ist. Die Vergangenheitswerte werden zyklisch dem KI-Modul übergeben, das in der Regel Rechenleistung aus der Cloud nutzt. Es macht daraus Vorhersagen, die wieder zurückgespeichert werden. Damit wird der Blick in die Zukunft ermöglicht.

Derartige Vorhersagen lassen sich nun mit Expertenwissen kombinieren: Wenn man weiß, dass in einer Stunde ein Problem entstehen wird, kann man sich gezielt darauf vorbereiten und eine bewährte Handlungsweise in Form einer Regel anwenden. Das ist wie beim vorausschauenden Autofahren: Wenn man auf einer Straße bei guter Sicht in großer Entfernung sieht, dass ein Bremslicht aufleuchtet, geht man vom Gas. Bei Fahren im Nebel sieht man nur das Bremslicht vom vorausfahrenden Auto, so dass man härter abbremsen muss. Dieses gegenwartsbezogene Handeln bietet aber genau dann entscheidende Vorteile, wenn plötzlich ein Hindernis auftaucht.

Oder, um das Bild noch weiter auszuführen: Man fährt vorausschauend im normalen Verkehr, bremst und gibt Gas in Abhängigkeit von den Rücklichtern fünfzig Meter weiter vorne. Doch plötzlich springt ein Kind auf die Straße – da nutzt das vorausschauende Fahren nichts, man muss sofort abbremsen. Übertragen auf die Softwareanwendung bedeutet das: Bremsen passiert regelbasiert. Es gibt unvorhersehbare Störungen, die sich nicht prognostizieren lassen. Hier kommt die KI an ihre Grenzen, da sie immer auf trainierten Modellen basiert. Ein Modell lässt sich jedoch nur trainieren, indem es einen Fall wiederholte Male erlebt. Das geht aber nicht bei plötzlichen Störungen in Produktions- oder Steuerungsabläufen, die deterministische Reaktionen erfordern.

Daraus resultiert bei vielen technischen Entscheidern ein gewisser Respekt vor dem Einsatz von künstliche Intelligenz für autonome Produktionsaktivitäten, und der hat durchaus gute Gründe: Ein nicht ausreichend trainiertes Modell könnte Fehler machen und falsche Entscheidungen treffen. Oder der Machine Learning-Algorithmus könnte ausfallen. Das ist denkbar, lässt sich aber relativ einfach verhindern, und zwar indem man die KI, die in der Cloud läuft, kontinuierlich überwacht hinsichtlich der Plausibilität ihrer Ergebnisse. Wenn da etwas nicht stimmen sollte, reagiert die Anwendung mit der Erkenntnis: Nebel zieht auf, sprich: Es muss mit Regeln gearbeitet werden. So entsteht ein verlässlicher Rahmen, der das zu steuernde System vor Schaden bewahrt.

Wie sieht das Ganze nun in der Praxis aus, wie lassen sich diese Erkenntnisse anwenden? In Implementierungsprojekten wird meist so vorgegangen, dass zunächst das regelbasierte System aufgebaut wird. Das gibt Sicherheit und ist deshalb strategisch und psychologisch nicht zu unterschätzen. Die Regeln lassen sich validieren, d.h. man kann eine Störung provozieren und überprüfen, ob das System richtig reagiert – ob das Auto also beispielsweise eine Vollbremsung macht. Das ist vergleichbar mit dem Stammhirn im menschlichen Gehirn, das grundsätzliche Regeln enthält wie den Mechanismus der Atmung oder den Reflex, den Finger von der heißen Herdplatte zu nehmen. Sobald ein solches System implementiert ist, ist klar: Das Fahren im Nebel funktioniert.

Anschließend wird das vorausschauende Fahren, also die KI ergänzt. Ihr wird ein Ziel vorgegeben, beispielsweise einen bestimmten Wert nicht zu überschreiten. Um das Ziel zu erreichen, sammelt sie die Daten aller angeschlossenen Maschinen, Anlagen oder sonstigen Datenlieferanten und überprüft sie im Minutenrhythmus. Datenanbindung, Auswertung, Überwachung und Prognoserechnungen werden dabei im eingangs erwähnten Model in the Middle koordiniert. Diese Architektur vernetzt die digitalen Abbilder aller Datenlieferanten bidirektional, so dass sie nicht nur Daten senden, sondern auch aus diesen Daten abgeleitete Optimierungsbefehle ausführen können.

Dieses Kombinationsmodell lässt sich für beliebige Anwendungsfälle einsetzen, je nachdem, welches Expertenwissen im Regelwerk hinterlegt ist und welche Ziele der KI gegeben werden. Es gibt hunderte denkbare Szenarien, die sich mit dem Ansatz beherrschen lassen. Beispielsweise das automatische Herunterfahren einer Anlage, weil sie in einem Störungsmodus ist oder eine Gefahr droht. Oder die Materialbelieferung und Steuerung eines gesamten Shopfloors. Oder die Regulierung der für die Produktion benötigten Energiemenge. Oder das Gebäudemanagement eines großen Unternehmensstandorts. Oder oder oder…

Web-Seminar!

Wie IoT die Wirtschaft verändert – Erfahren Sie im kostenfreien Webinar am 11. Februar 2021, 11:00 bis 12.00 Uhr, wie Sie Ihre Produktion, Prozesse und Kosten auf höchstem Sicherheitsniveau optimieren und neue Geschäftsmodelle entwickeln: hier klicken für weitere Informationen!

Post a Comment

* indicates required

Core Application Renewal

Finanzhäuser gleichen teils Technologiemuseen: Die digitale Transformation beginnt im Backend. Zu unserem neuesten Whitepaper:

Mehr erfahren.