Barrierefrei
© iStock
Artikel drucken

„Eine Reparaturanleitung kann nicht einfach erfunden werden“

Ein Gespräch mit den KI-Experten Michael May und Herwig Schreiner über Anwendungen in der Industrie, die Kombination von KI-Welten und die Zusammenarbeit...

Forschung & Entwicklung

17.07.2023

Lesezeit 9 Min

Siemens

Ein Gespräch mit den KI-Experten Michael May und Herwig Schreiner
über Anwendungen in der Industrie, die Kombination von KI-Welten
und die Zusammenarbeit Mensch-Maschine.

Welche Bedeutung haben sogenannte große KI-Sprachmodelle wie ChatGPT für industrielle Anwendungen?
Michael May (MM): Solche Modelle sind ein großer Schritt auf dem Gebiet der KI. Ich würde so etwas wie ChatGPT jedenfalls als disruptive Entwicklung einreihen. Maschinen werden plötzlich sprachmächtig; sie lernen natürliche Sprache zu verstehen und auch zu formulieren, können also Texte verstehen und Antworten generieren. Das hat schon eine gewaltige Bedeutung, wenn man bedenkt, wie wichtig Sprache in unserem Leben ist. Und genauso große Auswirkungen hat das auch für industrielle Anwendungen. Ich denke hier etwa an das Service für industrielle Assets. Nutzende von Siemens-Maschinen können Fragen stellen, wenn es Probleme gibt, und sie bekommen genaue Antworten auf Basis des Wissens aller Siemens-Handbücher. Auch im Produktdesign sind Anwendungsfälle möglich; über den gesamten Produktlebenszyklus hinweg werden wir Veränderungen durch die Nutzung von KI sehen.

Wird Siemens eigene Lösungen entwickeln oder auf Bestehendem aufbauen? MM: Ich denke, dass beides Teil der Lösung sein wird – das Zurückgreifen auf kommerzielle Anbieter und das Selbstentwickeln mittels Open-Source Modellen. Um bei dem vorher schon erwähnten Servicebeispiel zu bleiben: Ein Kunde hat ein Problem auf dem Shopfloor in der Automatisierungsumgebung und er benötigt eine Hilfestellung. Hier sind so hochgezüchtete Sprachfähigkeiten wie bei ChatGPT nicht nötig. Es reichen bestimmte Fähigkeiten, um eine korrekte Antwort zur Problemlösung zu geben. In so einem Fall kann man vielleicht eigene Modelle bauen.

Wo sehen Sie bei den Large Language Models, die heute in aller Munde sind, noch Verbesserungsbedarf?
MM: Problematisch an diesen Modellen ist, dass sie halluzinieren und Fakten erfinden. Ein aktuelles Beispiel illustriert diese Fehlleistungen sehr schön: Ein Anwalt aus den USA hat in einem Verfahren ChatGPT herangezogen, um Präzedenzfälle zu finden. Er hat auch welche bekommen und diese vor Gericht verwendet. Nur stellte sich später heraus, dass diese Fälle gar nicht existieren; die KI hat sie schlicht erfunden. Hier liegt die Schwäche: Wenn die KI in ihrer Datenbasis nicht fündig wird, erfindet sie Fakten, die plausibel klingen im Rahmen dessen, was sie gelernt hat. Im Industriebereich ist das natürlich nicht hinnehmbar. Wenn wir etwa Services zur Verfügung stellen, muss sichergestellt sein, dass diese möglichst faktentreu sind und das, was vorgeschlagen wird, auch sachgerecht ist. Eine Reparaturanleitung kann nicht einfach erfunden werden.

Michael May ist Leiter des Technologiefeldes „Data Analytics und AI“ der Siemens AG (Foto: Siemens).

Warum verhalten sich diese Sprachmodelle so?
MM: Diese Modelle haben quasi alle Texte gelesen, die es im Internet gibt, und gelernt, das wahrscheinlichste nächste Wort vorherzusagen; sie berechnen also Wahrscheinlichkeiten. Das wahrscheinlichste nächste Wort muss aber nicht unbedingt wahr sein.
Herwig Schreiner (HS): Das mit den Wahrscheinlichkeiten erinnert mich immer an die Schwammerlsuche mit einer App, die voraussagt, dass dieser und jener Pilz zu 95 Prozent nicht giftig ist. Würden Sie ihn trotzdem essen? Aber es ist schon beeindruckend, was mittlerweile mit KI und vor allem mit dem neuen Zweig der generativen KI möglich ist. Die KI entwickelt sogar eine eigene Kreativität, wie man bei von ihr neu erzeugten Bildern schön sehen kann, aber im industriellen Umfeld braucht es Verlässlichkeit.
MM: Genau, die Halluzinationen dieser Modelle müssen ausgebügelt werden. Etwa in der Form, dass die Maschine selbst intern prüft, ob ihre Auskunft evidenzbasiert ist oder eine Extrapolation von Dingen, die sie gelernt hat. Hier braucht es ein Hochfahren der Forschung an logikbasierten Methoden, die den Wahrscheinlichkeiten und statistisch generierten Ergebnissen harte Fakten entgegensetzen. Die Forschungsgruppe von Herwig Schreiner forscht intensiv zu diesen Themen und das ist auch gut so, denn es braucht eine vertrauenswürdige KI, die, soweit es möglich ist, Evidenzen liefert und die Richtigkeit ihrer Angaben garantiert.

Damit sind wir bei Ihrem Forschungsgebiet angekommen, Herr Schreiner.
HS: In unserer Forschungsgruppe „Configuration Technologies“ beschäftigen wir uns seit über 30 Jahren mit der Konfiguration und Optimierung großer und komplexer Systeme mittels KI. Im Gegensatz zur „data oriented AI“ der neuronalen Netze und des maschinellen Lernens in unsere Welt die der Logik und der symbolorientierten KI. Damit haben wir innerhalb von Siemens ein Alleinstellungsmerkmal und wir werden nicht müde, darauf hinzuweisen, bei den vielen Anwendungsgebieten der KI nicht auf die logikorientierte KI zu vergessen. Denn die ist genau jetzt interessant, wenn es darum geht, beide Welten der KI zu verbinden, um eine erklärbare KI, eine „trustworthy AI“, zu ermöglichen. Ein konkreter Ansatz, den wir näher untersuchen wollen, ist, dass erzeugte Ausgaben von ChatGPT in einem sogenannten Validierungsschritt durch eine auf Regeln und Constraints basierende Software mit ausreichend Domänenwissen (ganz ähnlich einem Konfigurator) überprüft werden, ob die generierten Antworten überhaupt möglich sind und korrekt sein können.

Herwig Schreiner von Siemens Österreich leitet die Forschungsgruppe „Configuration Technologies“, die sich mit der Konfiguration und Optimierung komplexer Systeme mittels KI beschäftigt (Foto: Siemens).

Sie forschen auf diesem Gebiet zusammen mit der TU Wien.
HS: Ja, unser gemeinsames Forschungsthema mit der TU Wien und anderen
Forschungsinstituten ist das optimale Zusammenführen der zwei KI-Welten – der auf Logik und Fakten basierten Welt mit der datenorientierten Welt der neuronalen Netze und des maschinellen Lernens – um sie für industrielle Anwendungen nutzbar zu machen. „Neuro-symbolic AI“ ist das Buzzword für diesen Bereich. Dabei geht es uns darum, die rein auf Wahrscheinlichkeiten basierenden Aussagen mit einem Domänenmodell, also mit Regeln und Constraints abbildbares, logisches Wissen eines speziellen Gebiets, zu untermauern und zu verbessern.
MM: Die Forschungstätigkeiten, die es in Österreich auf diesem Gebiet gibt, und die Verbindung der erwähnten KI-Welten sehe ich als sehr wichtig an. Wir brauchen beides: Als Menschen machen wir es genauso; wir denken manchmal in Wahrscheinlichkeiten oder assoziativ und manchmal logisch. Aus der Kombination erwarte ich mir entscheidende Entwicklungen. Ich denke hier an das Thema Zertifizierung: Ohne die Tätigkeiten der Forschungsgruppe in Österreich kann ich mir nicht vorstellen, dass wir jemals eine KI im industriellen Kontext bekommen, die zertifizierbar ist. Als Siemens müssen wir Garantien geben, dass das, was wir konstruieren, allergrößte Sicherheitsanforderungen erfüllt.

Welche Rolle sollte der Mensch in KI-Systemen spielen?
MM: Wir sollten KI-Systeme anstreben, die eine 98-, 99-prozentige Genauigkeit
haben, sodass sie nützliche Werkzeuge für praktische Anwendungen sind. Für den letzten Rest würde ich im Design solcher Systeme den Menschen vorsehen, der am Ende dafür einsteht, dass nichts passiert. Eine Zusammenarbeit von Mensch und Maschine also, oder digital companion könnte man es auch nennen. Später einmal finden wir durch die Forschungen vom Team von Herwig Schreiner vielleicht auch über die Logik eine technische Lösung für die fehlenden Prozent Genauigkeit.

Werden die KI-Systeme in Zukunft immer größer und mächtiger werden?
MM: Das Gebot der Stunde ist, nicht immer größere Modelle zu bauen, sondern Systeme zu schaffen mit der Leistungsfähigkeit zumindest von heute, aber mit viel, viel weniger Rechenaufwand sowie Speicher- und Energiebedarf. Es sollte also in die Richtung kleiner, leichter und leistungsfähiger gehen, besonders auch im Hinblick auf CO2-Bilanzen von KI-Modellen.

Welche Rolle kann KI im Bereich Simulation spielen?
MM: Neben dem wichtigen Beitrag von KI für die Large Language Models ist die Simulation der zweite Bereich, wo KI momentan eine große Bedeutung hat. Das Stichwort dazu ist „physics-aware AI“. Durch das Koppeln von Physikwissen mit den Algorithmen der KI ergibt sich eine enorme Beschleunigung von Simulationsprozessen. Unser Team in Princeton beschäftigt sich intensiv damit und entwickelt Lösungen für Automobilhersteller, was die richtige Balance der Temperaturverhältnisse in der Insassenkabine eines PKW betrifft. Mit KI können in Sekundenschnelle verschiedene Szenarien mit diversen Parametern durchgespielt werden. Es geht sogar so weit, dass KI-Methoden in Zukunft Simulationen ersetzen können. Die KI-Modelle lernen dabei Simulationsergebnisse vorauszusagen.

(Weiteres Foto: iStock/AndreyPopov)