GraphAI – wenn Knowledge Graphen und GenAI zusammenfinden

In meinem letzten Blogartikel habe ich das Konzept eines Knowledge Graphen etwas näher betrachtet. Heute möchte ich diese Gedanken aufgreifen und über die Effekte und Auswirkungen sprechen, wenn man diesen Knowledge Graphen und GenAI zusammenbringt.

Wir erleben gerade den Beginn einer neuen Ära, in der künstliche Intelligenz (KI) und maschinelles Lernen (ML) die Landschaft der Produktentwicklung neu gestaltet. Dabei spielt der Knowledge Graph eine zentrale Rolle. Diese mächtige Struktur ermöglicht es, Informationen aus und in der Produktentwicklung auf eine Weise zu verknüpfen und zu nutzen, die weit über traditionelle Datenbanken hinausgeht.
Eine der vielversprechendsten Ansätze, die diesen Produktentwicklungsprozess revolutioniert, ist die Integration von Knowledge Graphs mit Generative AI (GenAI). Diese Kombination ermöglicht es, komplexe Zusammenhänge zu verstehen und fundierte Entscheidungen zu treffen. Doch wie genau funktioniert das? Und welche konkreten Vorteile bringt es in der Praxis?

Technologische Grundlagen: Vektorisierung und die Verbindung von LLMs und Knowledge Graphs

Um zu verstehen, wie diese Technologie funktioniert, müssen wir uns zwei zentrale Konzepte ansehen: die Vektorisierung und die Verbindung von großen Sprachmodellen (LLMs) mit Knowledge Graphs.

Vektorisierung ist der Prozess, bei dem Informationen in numerische Vektoren umgewandelt werden. Diese Vektoren repräsentieren Daten so, dass maschinelle Lernmodelle sie effizient verarbeiten können. Texte, Bilder und andere Datenquellen werden in ein Format gebracht, das LLMs verstehen können. Dadurch wird es möglich, semantische Bedeutungen und kontextuelle Beziehungen zu erkennen.

Ein Knowledge Graph strukturiert Informationen in einem Netz aus Entitäten und deren Beziehungen. Stellen Sie sich das wie ein riesiges, intelligentes Diagramm vor, das Wissen nicht nur speichert, sondern auch die Verbindungen zwischen den Daten versteht. Wenn LLMs, die unstrukturierte Daten analysieren und generieren können, auf diese strukturierten Daten zugreifen, entsteht eine mächtige Symbiose. Diese Verbindung ermöglicht eine tiefere Einsicht und eine umfassendere Nutzung der vorhandenen Informationen.

Soweit die Theorie – aber was heisst das jetzt konkret in der Praxis? Schauen wir uns einmal konkrete Anwendungsfälle an.

Produktentwicklung (New Product Introduction NPI):

Ein Medizingerätehersteller plant die Entwicklung eines neuen tragbaren Überwachungsgeräts für Patienten mit Herzproblemen. Die Planung und das Aufsetzen eines solchen Produktentwicklungsprojekts ist sehr komplex und unterliegt strengen regulatorischen Anforderungen.

Der Knowledge Graph dieses Unternehmens enthält eine immense Fülle von Informationen: historische Projektdaten, wissenschaftliche Studien, Patente, regulatorische Vorgaben und Marktanalysen. Diese Daten können vektorisiert und mit einem LLM verknüpft werden. Das LLM kann diese die Daten analysieren und identifiziert daraus relevante Informationen, die für die Entwicklung des neuen Medizingeräts wichtig sind oder die wiederverwendet werden können.

Das LLM kann durch den Knowledge Graph auf alle relevanten gesetzlichen Bestimmungen und auf Daten aus vergangenen Entwicklungsprojekten zugreifen. So kann eine Liste der erforderlichen Dokumentationen und klinischen Studien zur Übermittlung an die Aufsichtsbehörden generiert werden. Zudem kann es es Best Practices vorschlagen, die aus erfolgreichen Einreichungen abgeleitet wurden. Dies erleichtert das Zusammenstellen der notwendigen Unterlagen und minimiert das Risiko von Verzögerungen aufgrund unvollständiger oder fehlerhafter regulatorischer Dokumente.

Der Knowledge Graph enthält Daten über Ressourcen, frühere Projektzeitpläne und Zulieferer. Das LLM kann diese Informationen analysieren und so einen optimalen Projektplan erstellen. Dabei werden mögliche Engpässe identifiziert und Alternativen und Lösungen unter Berücksichtigung der Projekthistorie und aktuellen regulatorische Anforderungen vorgeschlagen. Auch die Auswahl geeigneter Zulieferer und Partner für klinische Studien wird durch das System unterstützt, indem es auf vergangene Leistungsdaten und aktuelle Marktanalysen zugreift.

Während der Projektlaufzeit kann das LLM in Echtzeit auf neue Daten zugreifen und den Knowledge Graph aktualisieren. Es überwacht den Fortschritt des Projekts, erkennt frühzeitig mögliche Abweichungen und schlägt proaktive Maßnahmen vor, um diese zu korrigieren. Dadurch bleibt das Projekt flexibel und kann schnell auf unerwartete Herausforderungen reagieren.

Research und Design:

Im Bereich Research und Design kann die Integration von GenAI und Knowledge Graphs die Kreativität und Effizienz erheblich steigern. Nehmen wir an, ein Designer arbeitet an einem neuen, nachhaltigen Material für Verpackungen. Der Knowledge Graph verknüpft wissenschaftliche Artikel, Patente, Markttrends und Umweltdaten. Ein LLM kann diese Informationen analysieren und dem Designer nicht nur relevante Daten liefern, sondern auch innovative Vorschläge generieren, die auf den neuesten Erkenntnissen basieren. Dadurch können neue Materialien schneller entwickelt und auf den Markt gebracht werden, die den aktuellen Anforderungen und Trends entsprechen.

Fertigung:

In der Fertigung kann diese Technologie dazu beitragen, Produktionsprozesse zu optimieren und Ausfallzeiten zu minimieren. Stellen Sie sich eine Produktionslinie vor, die kontinuierlich Daten über Maschinenleistung, Materialqualität und Produktionsgeschwindigkeit sammelt. Diese Daten werden vektorisiert und in den Knowledge Graph integriert. Ein LLM kann diese Informationen in Echtzeit analysieren und Vorhersagen über potenzielle Probleme treffen, bevor sie auftreten. Es kann auch Optimierungsvorschläge machen, um die Effizienz zu steigern und Kosten zu senken. Zum Beispiel könnte das System erkennen, dass eine bestimmte Maschine bald gewartet werden muss und somit proaktiv Maßnahmen vorschlagen, um Unterbrechungen im Produktionsprozess zu vermeiden. Oder im Falle eines unerwarteten Ausfalls einer Anlage nach alternativen Lösungen suchen.

Das sollen nur einige Beispiele sein, die das Potenzial einer Verknüpfung dieser beiden Kernelemente aufzeigen sollen. Die Integration von Knowledge Graphs und Generative AI bietet Unternehmen eine leistungsstarke Möglichkeit, ihre Produktentwicklung zu revolutionieren. Durch die Vektorisierung von Daten und die Verbindung von LLMs mit strukturierten Informationen können tiefere Einblicke gewonnen und fundierte Entscheidungen getroffen werden. Ob in der Projektplanung, im Research und Design oder in der Fertigung – die Vorteile dieser Technologie sind vielfältig und helfen Unternehmen, innovativer und effizienter zu arbeiten.

Maßgeschneiderte digitale Fäden und Knowledge Graphen

In Implementierungsprojekten von Unternehmenssoftware und insbesondere PLM-Systemen spricht man davon, dass diese Systeme an die jeweiligen Geschäftsprozesse angepasst und wie ein Maßanzug geschneidert werden müssen. Und maßgeschneiderte Anzüge zeichnen sich auch durch sehr guten Zwirn aus und dieses Nähgarn ist in Industrieunternehmen der Digital Thread.

Bild von WaveGenerics auf Pixabay

Der Begriff “Digital Thread” bezieht sich auf die digitale Verknüpfung von Daten und Informationen, die über den gesamten Lebenszyklus eines Produkts oder Systems fließen. In der Produktentwicklung  spielt er eine entscheidende Rolle, indem er eine durchgängige, digitale Informationskette schafft, die von der Konzeption über die Entwicklung und Fertigung bis hin zum Betrieb und ggf. Recycling eines Produkts reicht. Es ist also ein recht langer Faden mit einer gewissen Reißfestigkeit.

In der heutigen digitalen Ära erweist sich ein Knowledge Graphen als das passende Werkzeug für das Verständnis komplexer Datenlandschaften und eine Realisierung eines vollständigen Digital Threads. Um zu verstehen, wie ein Knowledge Graph die konzeptionelle Umsetzung eines umfassenden Digital Threads darstellt, lohnt es sich, einen Blick auf die Grundlagen der Graphentheorie und insbesondere auf gerichtete Graphenmodelle zu werfen.

Die Graphentheorie befasst sich mit der Untersuchung von Graphen, die aus Knoten (oder Ecken) und Kanten (Verbindungen zwischen diesen Knoten) bestehen. Graphen dienen als abstrakte Modelle zur Darstellung von Beziehungen zwischen Objekten und sind in der Lage, komplexe interdisziplinäre Netzwerke zu beschreiben.

Gerichtete Graphen sind eine spezielle Art von Graphen, bei denen jede Kante eine Richtung aufweist. Dies bedeutet, dass die Beziehung zwischen zwei Knoten nicht symmetrisch ist; vielmehr zeigt die Kante von einem Knoten (dem Ursprung) zu einem anderen Knoten (dem Ziel). Diese gerichteten Verbindungen eignen sich hervorragend zur Darstellung von Datenflüssen, Abhängigkeiten und Hierarchien, was sie zu einem idealen Modell für die Strukturierung von Knowledge Graphen macht.

Ein Knowledge Graph nutzt diese gerichteten Graphenmodelle, um Wissen und Informationen innerhalb eines bestimmten Kontexts zu organisieren und darzustellen. Jeder Knoten im Graphen repräsentiert ein Datenobjekt (z.B. ein Produkt, eine Komponente oder einen Prozess), während jede gerichtete Kante eine Beziehung oder Abhängigkeit zwischen diesen Objekten symbolisiert. Durch die Einbettung von Metadaten und Eigenschaften in Knoten und Kanten werden komplexe Informationsnetzwerke erschaffen, die nicht nur die Einzelteile, sondern auch deren Interaktionen und Abhängigkeiten darstellen.

Im Rahmen eines Digital Threads ermöglicht der Einsatz eines Knowledge Graphen die konzeptionelle Verwirklichung einer vollständig vernetzten und interaktiven Datenlandschaft. Er verknüpft alle relevanten Informationen und Prozesse entlang des gesamten Lebenszyklus eines Produkts oder Systems. Von der ersten Idee über Design, Entwicklung, Fertigung bis hin zur Nutzung und Wartung werden alle Daten und Beziehungen in einem zentralen, durchsuchbaren und erweiterbaren Modell abgebildet. Diese umfassende Vernetzung fördert nicht nur eine effizientere Datenverwaltung und Entscheidungsfindung, sondern unterstützt auch die Agilität und Innovationsfähigkeit von Unternehmen.

Durch die Anwendung von Graphentheorie und gerichteten Graphenmodellen in Knowledge Graphen werden somit die theoretischen Grundlagen und technologischen Rahmenbedingungen für die Realisierung eines Digital Threads geschaffen. Soweit die akademische Theorie.

Das was bedeutet das jetzt in der praktischen Umsetzung und welche Herausforderungen lauern dort?

Heterogene Datenquellen

Eine verteilte Systemlandschaft und eine eher vielschichtige IT-Unternehmensarchitektur ist in den allermeisten Fällen die Realität in Unternehmen, auch wenn sich PLM- und ERP-Systeme als Integrationsschichten etabliert haben. Neben der rein technischen Herausforderung birgt das auch eine organisatorische Aufgabe. Zum organisatorischen Aspekt verweise ich gern auf den diesen Blogartikel und möchte weitere beachtenswerte Punkte benennen:

  • Datenintegration: Heterogene Datenquellen können in unterschiedlichen Formaten vorliegen, darunter strukturierte Daten (z.B. in relationalen Datenbanken), semi-strukturierte Daten (z.B. XML, JSON) und unstrukturierte Daten (z.B. Textdokumente, E-Mails). Die Integration dieser vielfältigen Daten in einen kohärenten Knowledge Graph erfordert effektive Methoden zur Datenextraktion, -transformation und -ladung (ETL-Prozesse).
  • Datenqualität und -konsistenz: Die Qualität und Konsistenz der Daten aus heterogenen Quellen kann stark variieren. Probleme wie unvollständige Daten, Duplikate, Inkonsistenzen und Fehler müssen identifiziert und bereinigt werden, um die Integrität und Nützlichkeit des Knowledge Graphen zu gewährleisten.
  • Semantische Heterogenität: Unterschiedliche Datenquellen verwenden oft verschiedene Terminologien und Konzepte, um ähnliche Dinge zu beschreiben. Die Überbrückung dieser semantischen Lücken erfordert die Entwicklung eines gemeinsamen Vokabulars oder Ontologien, die die Beziehungen und Bedeutungen der Daten innerhalb des Knowledge Graphen definieren.
  • Skalierbarkeit und Leistung: Mit der Integration heterogener Datenquellen kann der Umfang eines Knowledge Graphen schnell anwachsen. Die Sicherstellung der Skalierbarkeit und der Leistung bei der Abfrage und Aktualisierung des Graphen, insbesondere in Echtzeitanwendungen, ist eine technische Herausforderung.
  • Datensicherheit und Datenschutz: Heterogene Datenquellen können sensible oder persönliche Informationen enthalten, die geschützt werden müssen. Die Implementierung von Datenschutz- und Sicherheitsmaßnahmen, die den rechtlichen Anforderungen entsprechen, ist entscheidend, um die Vertraulichkeit und Integrität der Daten im Knowledge Graph zu gewährleisten. Das betrifft natürlich auch sensible, besonders schützenwerte Projektdaten, die einer Geheimhaltung oder einem Need-to-know Prinzip unterliegen.

 

Sehr hohe Dynamik im Lebenszyklus der Daten

Gerade Produktentwicklungsprozesse unterliegen einer großen Dynamik und sorgen damit für viele Änderungen an den Produktdaten. Vielfach werden (und müssen – gerade in regulierten Branchen wie der Medizingeräteindustrie) diese Änderungen durch neue Revisionen und Versionen der Datenobjekte abgebildet. Somit bleibt die Entstehungsgeschichte erhalten und kann jederzeit nachvollzogen werden.

Aus dieser Dynamik und den darin enthaltenen historischen Datenobjekten ergeben sich folgende Herausforderungen:

  • Zeitliche Abfragefähigkeit: Ein Knowledge Graph, der historische Datenobjekte effektiv verwalten soll, muss Abfragen unterstützen, die sich auf den Zustand des Graphen zu einem bestimmten historischen Zeitpunkt beziehen. Dies erfordert die Implementierung von Zeitstempeln oder Versionierungskonzepten, die es ermöglichen, die Evolution von Datenobjekten im Zeitverlauf nachzuvollziehen. Diese Nachvollziehbarkeit ist in regulierten Branchen (Luftfahrt, Medizingeräteindustrie, …) essentiell wichtig. Es gibt nicht nur einen Graphen, sondern viele in der Historie des Engineeringprozesses.
  • Versionierung und Historie: Die Handhabung der Versionierung von Datenobjekten ist eine zentrale Herausforderung. Es muss entschieden werden, wie Änderungen an Objekten im Graphen gespeichert werden – ob durch das Hinzufügen neuer Versionen von Objekten bei jeder Änderung, oder durch die Speicherung von Differenzen zwischen Versionen. Ebenso ist das Verhalten der Kante (Relation) bei Änderungen des Quell- oder Zielobjektes wichtig. “Wächst” die Kante automatisch mit, zeigt also immer auf die letzte Version? Oder bleibt sie fest auf der Version kleben, auf der sie erzeugt wurde? Oft kann dieses Verhalten auch vom Status der Datenobjekte abhängen und sich bei der Freigabe eines Objektes von “Mitwachsen” auf “Fest” ändern.
  • Dynamische Datenaktualisierung: In vielen Anwendungsfällen müssen Daten in Echtzeit oder nahezu in Echtzeit aktualisiert werden, um den Knowledge Graph aktuell zu halten. Die Handhabung von Änderungen in den Datenquellen und die Sicherstellung, dass der Graph diese Änderungen zeitnah reflektiert, stellt eine große Herausforderung dar. Das gilt umso mehr, je heterogener die Systemlandschaft ist und die Datenobjekte über verschiedene System verteilt sind.
  • Effizienz der Datenspeicherung und die Performance von Abfragen: Mit der zunehmenden Anzahl historischer Datenobjekte und Versionen kann der Speicherbedarf eines Knowledge Graphen erheblich wachsen. Effiziente Speicherlösungen und -strategien sind notwendig, um die Skalierbarkeit des Systems zu gewährleisten. Optimierungen und spezialisierte Indexierungsmechanismen können erforderlich sein, um akzeptable Antwortzeiten zu gewährleisten.

Die Qualität oder Bedeutung der Relationen

Knowledge Graphen ermöglichen es, komplexe Zusammenhänge und Beziehungen zwischen Datenpunkten, also Entitäten, auf intuitive und effektive Weise darzustellen. Aber nicht alle Relationen in diesen Graphen sind gleich; sie tragen unterschiedliche Bedeutungen und Eigenschaften, die für verschiedene Anwendungsfälle entscheidend sind. Manchen Bindungen sind eher lose, aber deswegen nicht weniger wichtig, anderen wieder enger und fester.

Im Kontext des Systems Engineering können die Relationen in Knowledge Graphen grob in verschiedene Kategorien eingeteilt werden, basierend auf Beziehungstypen, die in der Systemmodellierung üblich sind. Dazu gehören:

  • Strukturelle Beziehungen (Parent-Child): Diese definieren die hierarchische Anordnung von Systemkomponenten. Ein “Parent”-Element beinhaltet ein oder mehrere “Child”-Elemente. Diese Beziehungen sind entscheidend für die Darstellung der Systemarchitektur und für das Verständnis, wie sich Teile zu einem Ganzen zusammenfügen. Stücklisten sind ein gutes Beispiel dafür.
  • Funktionale Beziehungen (depends on): Sie beschreiben, wie bestimmte Funktionen oder Prozesse voneinander abhängen. Zum Beispiel kann die Funktion “Energie bereitstellen” von der Komponente “Batterie” abhängen. Solche Abhängigkeiten sind kritisch, um zu verstehen, wie Änderungen an einem Teil des Systems Auswirkungen auf andere haben können.
  • Flussbeziehungen (flow between): Diese repräsentieren den Fluss von Material, Energie oder Informationen zwischen verschiedenen Komponenten oder Prozessen. Sie sind essenziell für die Optimierung von Prozessabläufen und die Effizienzsteigerung innerhalb des Systems.
  • Sequenzielle Beziehungen (follows): Dabei geht es um die Reihenfolge, in der Aufgaben oder Prozesse ausgeführt werden müssen. Dies ist besonders wichtig für die Planung und Koordination von Arbeitsabläufen.

Die Einbettung dieser Beziehungstypen in Knowledge Graphen, angelehnt an Industriestandards wie die Systems Modeling Language (SysML), bietet einen gute Grundlage für diese Abbildung. Es geht darum, die Kanten “intelligent” zu machen und somit die Komplexität eine Knowledge Graphen überhaupt erst beherrschen zu können.

In meinem letzten Blogartikel haben ich über die “One more Thing”-Momente gesprochen und wie künstliche Intelligenz Software für Unternehmen verändern wird. Natürlich kann man hier den Knowledge Graphen nicht ausklammern. Ganz im Gegenteil, gerade der ermöglicht spannende Anwendungen und löst kritische Herausforderungen im Zusammenwirken mit künstlicher Intelligenz. Diese Aspekte möchte ich aber in einem separaten Artikel aufgreifen.

One more thing…Intelligenz, die künstliche

One more thing” ist eines der berühmtesten Zitate der Neuzeit und es war an diesem 9.Januar 2007 zu spüren, dass hier etwas Revolutionäres geschah. Das lag zu einem hohen Grad an der charismatischen Person von Steve Jobs, aber es bleibt unbestritten, dass dieser kleine Hochleistungscomputer, den wir alle mit uns herumtragen, diese unsere Welt so stark verändert hat wie vielleicht vorher die Erfindung der Dampfmaschine oder des Automobils.

Bild von Gerd Altmann auf Pixabay

Nicht nur im privaten Sektor, sondern auch und gerade im industriellen und beruflichen Kontext funktioniert (fast) nichts mehr ohne Smartphone. Das führt unter anderem dazu, dass ich sogar zwei von diesen Teilen mit mir herumschleppe. Danke, aber kein Mitleid, das ist ein selbstgewähltes Schicksal.

Doch zurück zu besonderen Daten mit diesem “one more thing”. Die grauen Wintermonate scheinen eine gute Kulisse für diese Momente abzugeben, auch wenn der 26.Februar 2024 in unseren Breiten eher frühlingshaft daherkommt. Die Telekom hat an diesem Tag das erste Smartphone auf dem Mobile World Congress vorgestellt, das komplett ohne Apps auskommt. Und die Süddeutsche Zeitung titelt: “Ein neues Zeitalter“.

Nun kann man die Augenbrauen hochziehen – ausgerechnet die Kupferkabel-Telekom aus Deutschland, dem Entwicklungsland für Breitband-Internetzugang und mehr mobilen Funklöchern als Löcher im Schweizer Käse? Die soll jetzt das nächste “one more thing” haben?

Aber lassen wir diese Polemik mal kurz beiseite, was ist denn dieser “one more thing” Moment hier? Wir sehen ein Smartphone, dass ein extrem cleanes User Interface hat und nicht für jeden Anwendungsfall eine App anbietet. Das ich natursprachliche Aufgaben geben oder Fragen stellen kann und die KI zeigt mir Lösungsmöglichkeiten oder gibt Antworten auf meine Fragen. Was das für die private Massenanwendung bedeutet, diese Analyse überlasse ich lieber Menschen, die das viel besser können als ich.

Was ich mich aber frage und diese Frage treibt mich wirklich um: Was bedeutet das jetzt für ein PLM-System? Oder machen wir es noch ein bisschen größer, für Unternehmenssoftware im industriellen Wertschöpfungsprozess?

Auch dort haben wir einen “Zoo” aus verschiedensten Applikationen, angefangen von CRM über PDM-Systeme und deren Autorensysteme bis hin zu EMS und ERP. Und an die Logistik, QM und HR-Systeme möchte ich da noch gar nicht denken. Jede diese Anwendungen bringt dann noch eine ganze Reihe von Funktionen oder Apps mit und eigene Storages für die jeweiligen Daten. An deren Integration arbeiten wir seitdem in den 1990’er Jahren das Wort CIM das erste mal aufkam und stellen uns so der Herausforderung der zunehmenden Komplexität in den Unternehmensprozessen und -entscheidungen. Als eine beispielhafte Technologie soll der Einsatz von Cloud-Technologien und Microservices-Architekturen genannt werden. Microservices ermöglichen die Entwicklung und Wartung einzelner Funktionsbereiche einer Anwendung unabhängig voneinander, was die Komplexität reduziert und die Wartbarkeit verbessert. Cloud-Plattformen bieten zudem die notwendige Infrastruktur und Dienste, um Anwendungen effizient zu betreiben und zu skalieren.

Diese Ansätze finden sich aber eher im Maschinenraum der Unternehmenssoftware wieder. Was ist da aber für den Passagier an Deck, also den Endanwender drin? Wie können Unternehmensanwendungen diesem Endanwender zukünftig bei der Lösung seiner Herausforderungen helfen?

Bild von OpenClipart-Vectors auf PixabayUnd hier möchte ich auf den “one more thing” Moment der Telekom zurückkommen. Ist der zukünftige Client eines (PLM-)Systems nur noch ein Prompt, dem Fragen gestellt und Anweisungen erteilt werden und die KI macht dann den Rest? Was ist dann überhaupt der Rest? Hier ist eine unvollständige Auflistung:

Automatisierte Datenintegration

Eine KI kann die Identifizierung und Zusammenführung relevanter Daten aus verschiedenen Quellen und Systemen automatisieren. Durch den Einsatz von Machine Learning-Algorithmen können Systeme Muster und Zusammenhänge zwischen Daten aus unterschiedlichen Silos erkennen und diese intelligent verknüpfen. Dies vereinfacht den Integrationsprozess erheblich und ermöglicht so einen konsolidierten Blick auf die Unternehmensdaten. Damit hilft die KI dem Anwender durch den Komplexität der verschiedenen Unternehmensanwendungen und -Systeme.

Intelligente Prozessautomatisierung

Die Automatisierung von Geschäftsprozessen, die Daten aus verschiedenen Systemen benötigen, ist ein weiteren Feld des Einsatzes vom KI. Robotic Process Automation (RPA) in Kombination mit KI ermöglicht es, repetitive Aufgaben, die früher manuelle Dateneingriffe aus verschiedenen Quellen erforderten, zu automatisieren. Dadurch werden Prozesseffizienz gesteigert und Fehler reduziert.

Predictive Analytics und Entscheidungsunterstützung

Durch die Integration und Analyse von Daten aus verschiedenen Silos können KI-Systeme tiefere Einblicke in Geschäftsprozesse bieten und zukünftige Trends vorhersagen. Predictive Analytics ermöglicht es Unternehmen, fundiertere Entscheidungen zu treffen, Risiken zu minimieren und Chancen proaktiv zu nutzen. Kritische Situationen können zeitiger erkannt und darauf aufmerksam gemacht werden.

Verbesserte Datenqualität und -bereinigung

Unzureichende Datenqualität ist eine häufige Herausforderung bei der Arbeit mit Daten aus verschiedenen Silos. KI-gestützte Tools können inkonsistente, unvollständige oder duplizierte Daten automatisch identifizieren und korrigieren. Durch die Bereinigung und Normalisierung der Daten wird deren Nutzbarkeit für Analysen und Entscheidungsprozesse erheblich verbessert.

Diese Aufzählung ist sicher nicht vollständig, aber zeigt wichtige Aspekte aus der PLM-Perspektive auf.

Versuchen wir uns einmal an einem Fazit. “One more thing” kann zu einer radikalen Komplexitätsreduzierung für den (PLM-) Anwender führen. Ein Durchklicken durch Strukturen und Dashboards in unterschiedlichen Apps und Anwendungen ist nicht mehr nötig. Dagegen können einem Prompt natursprachliche Fragen gestellt und Anweisungen gegeben werden. Die KI versteht diese und kann Lösungen vorschlagen oder Antworten geben. Das ist eine revolutionäre Usability.

Des Weiteren verbessert die durch KI ermöglichte Systemintegration die Datenbasis, auf der die KI operiert und steigert damit direkt die Relevanz, Genauigkeit und Nützlichkeit der KI-generierten Antworten. Das sind dann die richtigen Vorschläge und Anworten, die die KI gibt.

 

Ein PLM-Talk – heute mit Ismail Serin, Head of Product Management SAP PLM

Herzlich Willkommen auf meiner virtuellen Blogcouch, Ismail. Nimm bitte Platz und mach es Dir gemütlich. In der PLM-Community ist Dein Name als einer der prägenden Köpfe hinter dem SAP PLM Produktportfolio bekannt. Kannst Du trotzdem bitte ein paar Worte zu Deiner Person und Deinen beruflichen Stationen verlieren?

Herzlichen Dank für die freundliche Einladung auf die virtuelle Blogcouch! Es ist mir eine Freude, hier Platz nehmen und mich über meine Erfahrungen und Einsichten im PLM austauschen zu dürfen.

Mein Name ist Ismail Serin und ich bin seit 2009 bei der SAP tätig. Während meiner Zeit bei SAP habe ich verschiedene Positionen im Bereich Produktentwicklung und -management bekleidet. Seit 2015 bin ich intensiv an der Transformation unseres PLM-Portfolios in die Cloud beteiligt, um unseren Kunden eine zukunftsfähige, skalierbare und flexible Lösung zur Verfügung zu stellen. 

Lass mich hinzufügen, dass ein entscheidender Wendepunkt in meiner Karriere bei SAP die Akquisition von Fedem Technology, einem norwegischen Unternehmen, im Jahr 2015 war. Fedem war auf die Entwicklung von Softwarelösungen im Bereich Strukturanalyse und Simulation spezialisiert. Durch diese Akquisition wurde ich in den PLM-Bereich versetzt und begann, meine Expertise in diesem Gebiet zu vertiefen.

Die Integration von Fedems Technologien und Kompetenzen in das bestehende SAP PLM-Portfolio hat nicht nur dazu beigetragen, unsere Lösungen weiterzuentwickeln und zu verbessern, sondern auch mir persönlich ermöglicht, mein Wissen im Bereich PLM auszubauen und eine wichtige Rolle bei der Gestaltung unserer Produktstrategie zu übernehmen.

Seitdem arbeite ich eng mit Kunden, Partnern und Kollegen zusammen, um die bestmöglichen PLM-Lösungen zu entwickeln und erfolgreich am Markt zu etablieren. Dabei liegt mein Fokus insbesondere auf der Integration neuer Technologien, um Unternehmen dabei zu unterstützen, ihre Produktentwicklungsprozesse zu optimieren und den Herausforderungen der digitalen Transformation erfolgreich zu begegnen.

Ich freue mich darauf, meine Erkenntnisse und Erfahrungen mitzuteilen und spannende Diskussionen rund um das Thema PLM zu führen.

Als Cloud-Befürworter im PLM-Geschäft begleitet Ihr als ein führender Lösungsanbieter Unternehmen auf Ihrem Weg in die Digitalisierung und löst Herausforderungen aus den Wertschöpfungsprozessen. Blicken wir einmal 10 Jahre zurück. Was unterscheiden die heutigen Softwarelösungen von denen der damaligen Zeit?

Wenn wir 10 Jahre zurückblicken, sind die Unterschiede zwischen den damaligen und heutigen Softwarelösungen im PLM-Bereich enorm. Die wichtigsten Veränderungen betreffen die Bereiche Digitalisierung, Vernetzung und Skalierbarkeit.

Digitalisierung

Digitalisierung im PLM hat weitreichende Auswirkungen auf die Art und Weise, wie Unternehmen ihre Produktlebenszyklusdaten verwalten und nutzen. Ein zentrales Konzept, das mit der Digitalisierung einhergeht, ist der Digital Thread. Dieses Konzept spielt eine entscheidende Rolle bei der Verbesserung von Effizienz und Entscheidungsfindung in Unternehmen. Es bezieht sich auf die digitale Verknüpfung und den Informationsfluss zwischen allen Phasen des Produktlebenszyklus – von der Ideenfindung und Konzeption über die Entwicklung, Produktion, Wartung bis hin zur Entsorgung.

  • Konsistenz und Nachverfolgbarkeit: Da alle Informationen und Daten im Digital Thread miteinander verknüpft sind, ist es einfacher, Änderungen und Anpassungen im Produktlebenszyklus nachzuvollziehen. Dies führt zu einer besseren Datenkonsistenz und ermöglicht eine lückenlose Rückverfolgung von Produktänderungen und deren Auswirkungen.
  • Schnellere Markteinführung: Durch die nahtlose Integration und den Informationsfluss im Digital Thread können Unternehmen ihre Produktentwicklung beschleunigen und Produkte schneller auf den Markt bringen. Zeitraubende manuelle Prozesse und Abstimmungen zwischen verschiedenen Abteilungen werden minimiert, was die Effizienz erhöht.
  • Innovation: Durch die Integration von Daten und Informationen aus verschiedenen Bereichen des Produktlebenszyklus kann der Digital Thread dazu beitragen, Verbesserungspotenziale und Innovationen aufzudecken. Unternehmen können auf Basis dieser Erkenntnisse ihre Prozesse und Produkte optimieren und wettbewerbsfähiger werden.

Vernetzung

Bild von Gerd Altmann auf PixabayDie Vernetzung ist ein weiterer wichtiger Aspekt im Zusammenhang mit der Digitalisierung im PLM. Sie bezieht sich auf die Verbindung und Kommunikation zwischen verschiedenen Abteilungen, Prozessen, Systemen und sogar Unternehmen, die an der Entwicklung und Verwaltung eines Produkts beteiligt sind. Die Vernetzung im PLM hat in den letzten Jahren stark zugenommen, insbesondere durch den Einsatz von Cloud-Technologien und modernen Kommunikationslösungen.

  • Verbesserte Zusammenarbeit: Eine stärkere Vernetzung ermöglicht eine bessere Zusammenarbeit zwischen den verschiedenen Akteuren im Produktlebenszyklus. Sie fördert den Informationsaustausch und ermöglicht es Teams und Abteilungen, effizienter zusammenzuarbeiten und ihre Expertise zu bündeln.
  • Integration von Lieferketten und Partnern: Die Vernetzung erlaubt es Unternehmen, ihre Lieferketten und externen Partner effizienter in den PLM-Prozess einzubinden. Dies fördert die Zusammenarbeit und den Informationsaustausch mit Zulieferern, Dienstleistern und Kunden und trägt dazu bei, die gesamte Wertschöpfungskette zu optimieren.
  • Kürzere Entwicklungszyklen: Durch die Vernetzung von Prozessen und Systemen im PLM können Unternehmen ihre Produktentwicklung beschleunigen. Die Kommunikation zwischen den verschiedenen Entwicklungsphasen wird verbessert, was zu einer schnelleren Markteinführung von Produkten führt.

 

Skalierbarkeit

  • Kosteneffizienz: Die Skalierbarkeit durch die Cloud ermöglicht es Unternehmen, ihre IT-Kosten besser zu kontrollieren. Da Ressourcen bei Bedarf hinzugefügt oder reduziert werden können, entfallen teure Investitionen in die eigene IT-Infrastruktur und Wartung. Unternehmen zahlen in der Regel nur für die Ressourcen, die sie tatsächlich nutzen.
  • Schnelle Implementierung und Aktualisierung: Cloud-basierte PLM-Lösungen können in der Regel schneller implementiert und aktualisiert werden als lokal installierte Systeme. Dies ermöglicht es Unternehmen, neue Funktionen und Verbesserungen schneller zu nutzen und ihre PLM-Prozesse kontinuierlich zu optimieren.
  • Globale Verfügbarkeit und Zusammenarbeit: Da Cloud-basierte PLM-Systeme über das Internet zugänglich sind, können Mitarbeiter und Partner von überall auf der Welt auf die Daten und Informationen zugreifen. Dies fördert die Zusammenarbeit und den Informationsaustausch zwischen verschiedenen Standorten und Abteilungen.

Der Blick in die Zukunft ist immer etwas schwierig, aber lass es uns doch einmal versuchen. Welche Dinge werden uns im PLM in den nächsten Jahren weiter massiv beschäftigen?

Künstliche Intelligenz und Process Analytics werden zweifellos eine entscheidende Rolle bei der zukünftigen Entwicklung im PLM in den nächsten 10 Jahren spielen. Diese Technologien haben das Potenzial, die Art und Weise, wie Unternehmen ihre Produktentwicklung und -verwaltung angehen, grundlegend zu verändern und zu verbessern.

KI im PLM: Künstliche Intelligenz kann in verschiedenen Phasen des Produktlebenszyklus eingesetzt werden, um den Entscheidungsprozess zu unterstützen, die Effizienz zu erhöhen und innovative Lösungen zu entwickeln. Einige mögliche Anwendungsbereiche von KI im PLM umfassen:

  • Automatisierung von Routineaufgaben: KI kann dazu beitragen, manuelle und zeitaufwändige Prozesse zu automatisieren, indem sie Muster erkennt und Aufgaben schneller und präziser ausführt als menschliche Mitarbeiter. Dadurch können Unternehmen Ressourcen einsparen und ihre Effizienz steigern.
  • Optimierung von Produktentwicklung und -design: KI kann große Mengen an Daten analysieren und Muster erkennen, um bessere Produktkonzepte und -designs zu entwickeln. Dies kann dazu beitragen, die Produktqualität zu verbessern und die Entwicklungszeit zu verkürzen.
  • Vorhersage von Produktfehlern und Wartungsbedarf: KI kann dazu verwendet werden, potenzielle Produktfehler und Wartungsanforderungen vorherzusagen, indem sie historische Daten und Sensordaten aus dem Feld analysiert. Dies ermöglicht es Unternehmen, proaktiv zu handeln und kostspielige Ausfälle oder Rückrufe zu vermeiden.

Process Analytics im PLM: Process Analytics bezieht sich auf die Analyse und Optimierung von Geschäftsprozessen. Durch den Einsatz von Process Analytics können Unternehmen:

  • Transparenz und Kontrolle über ihre Prozesse gewinnen: Process Analytics ermöglicht es Unternehmen, ihre PLM-Prozesse zu visualisieren und zu analysieren, um Engpässe, Ineffizienzen und Verbesserungspotenziale zu identifizieren.
  • Datenbasierte Entscheidungen treffen: Durch die Analyse von Prozessdaten können Unternehmen fundierte Entscheidungen treffen, die auf Fakten und Erkenntnissen basieren, anstatt auf Intuition oder Erfahrung.
  • Prozessleistung kontinuierlich verbessern: Process Analytics kann dazu beitragen, die Leistung von PLM-Prozessen kontinuierlich zu überwachen und zu optimieren, um die Effizienz, Qualität und Geschwindigkeit der Produktentwicklung und -verwaltung zu steigern.

Und wenn wir auf die Wertschöpfungsprozesse blicken, wo siehst Du die größten Unterschiede und Entwicklungen in den vergangenen Jahren? Was machen Unternehmen heute in Ihren Geschäftsprozessen anders und besser?

In den vergangenen Jahren haben sich die Wertschöpfungsprozesse in Unternehmen aufgrund technologischer Fortschritte und sich verändernder Marktbedingungen erheblich weiterentwickelt. Angesichts des schnellen Wandels in vielen Branchen haben Unternehmen begonnen, agilere und flexiblere Entwicklungsprozesse einzuführen. Sie sind in der Lage, schnell auf Marktveränderungen oder Kundenanforderungen zu reagieren und ihre Ressourcen effizienter einzusetzen. Viele Unternehmen setzen verstärkt auf digitale Technologien, um ihre Prozesse zu automatisieren und effizienter zu gestalten. Dadurch können sie ihre Produktivität steigern, Kosten reduzieren und die Qualität ihrer Produkte zu verbessern. Darüber hinaus gibt es einen wachsenden Fokus auf Nachhaltigkeit und Kreislaufwirtschaft in der Wertschöpfung. Unternehmen integrieren ökologische und soziale Aspekte in ihre Prozesse, um Ressourceneffizienz zu verbessern, Abfall zu reduzieren und ihren ökologischen Fußabdruck zu minimieren.

Als weltweit führender Anbieter für Unternehmenssoftware seid ihr untrennbarer Teil dieses Transformationsprozesses in den Unternehmen. Welche Herausforderungen bewegen Unternehmen in diesen Zeiten?

Einige der wichtigsten Herausforderungen, denen Unternehmen derzeit gegenüberstehen, sind:

  • Nachhaltigkeit und soziale Verantwortung: Unternehmen sind zunehmend gefordert, ihre soziale und ökologische Verantwortung wahrzunehmen und nachhaltige Praktiken in ihre Geschäftsprozesse zu integrieren. Dies erfordert eine Neuausrichtung der Wertschöpfungsketten, Investitionen in umweltfreundliche Technologien und die Einbindung von Stakeholdern.
  • Anpassung an die digitale Transformation: Unternehmen müssen sich an die sich schnell entwickelnde digitale Landschaft anpassen und digitale Technologien in ihre Geschäftsprozesse integrieren. Dies erfordert eine kontinuierliche Weiterbildung der Mitarbeiter, die Anpassung der Organisationsstrukturen und die Implementierung neuer Technologien und Systeme.
  • Datensicherheit und Datenschutz: Mit der zunehmenden Menge an verfügbaren Daten und der wachsenden Vernetzung von Systemen steigt auch das Risiko von Cyberangriffen und Datenschutzverletzungen. Unternehmen müssen sich darauf konzentrieren, ihre Daten und Systeme sicher zu halten und die Einhaltung von Datenschutzbestimmungen sicherzustellen.
  • Talentmanagement und Fachkräftemangel: Die digitale Transformation erfordert spezialisierte Kenntnisse und Fähigkeiten, die möglicherweise in vielen Unternehmen fehlen. Unternehmen müssen Strategien entwickeln, um qualifizierte Mitarbeiter zu gewinnen, zu halten und weiterzubilden, um den Bedarf an digitalen Kompetenzen zu decken.
  • Wettbewerbsdruck und Globalisierung: Unternehmen stehen unter immer größerem Druck, ihre Produkte und Dienstleistungen kontinuierlich zu verbessern und sich von der Konkurrenz abzuheben. Die Globalisierung eröffnet neue Märkte, erhöht aber auch den Wettbewerb und stellt Unternehmen vor zusätzliche Herausforderungen.

Als Teil des Transformationsprozesses in Unternehmen ist es unsere Aufgabe als führender Anbieter von Unternehmenssoftware, innovative Lösungen bereitzustellen, die Unternehmen dabei unterstützen, diese Herausforderungen erfolgreich zu bewältigen. Dazu zählen die Bereitstellung von Softwarelösungen zur Prozessoptimierung, Sicherheit, Zusammenarbeit und Datenanalyse sowie die Förderung von Wissenstransfer und Best Practices.

Und Herausforderungen verlangen natürlich nach Lösungen und dabei spielt gerade PLM eine herausragende Rolle. Welche PLM-Lösungen bietet Ihr denn an und wie hilft eure  Software Industrieunternehmen durch diese bewegten Zeiten?

Als Anbieter von PLM-Lösungen bieten wir eine Reihe von Cloud Services an, die speziell entwickelt wurden, um Industrieunternehmen sowohl in der Diskreten- als auch in der Prozessindustrie bei der Bewältigung der Herausforderungen der digitalen Transformation zu unterstützen. Unsere PLM-Lösungen umfassen folgende Aspekte:

  • Zentrale Datenverwaltung: Unsere PLM-Software ermöglicht es Unternehmen, sämtliche Produktinformationen zentral zu verwalten und auf einer einheitlichen Plattform bereitzustellen. Dies schafft eine Single Source of Truth für alle Beteiligten, erleichtert den Informationsaustausch und verbessert die Zusammenarbeit innerhalb des Unternehmens sowie mit externen Partnern.
  • Prozessautomatisierung und -optimierung: Unsere Lösungen unterstützen Unternehmen bei der Automatisierung und Optimierung ihrer Produktentwicklungsprozesse, um Effizienz und Produktivität zu steigern. Durch die geplante integration von KI und maschinellem Lernen können komplexe Aufgaben schneller und genauer erledigt werden, was zu einer beschleunigten Markteinführung und Kosteneinsparungen führt.
  • Nachhaltigkeits- und Kreislaufwirtschaftsanalyse: Unsere Software bietet Funktionen zur Bewertung der Umweltauswirkungen von Produkten und Prozessen sowie zur Identifizierung von Möglichkeiten zur Verbesserung der Ressourceneffizienz und Reduzierung von Abfällen.
  • Projekt- und Ressourcenmanagement: Unsere L√∂sungen bieten umfassende Funktionen für das Projekt- und Ressourcenmanagement, die es Unternehmen ermöglichen, ihre Projekte effizient zu planen, steuern und überwachen. Dies hilft dabei, Engpässe und Risiken frühzeitig zu erkennen und sicherzustellen, dass Ressourcen optimal eingesetzt werden.
  • Integration von CAD Systemen: Unsere PLM-Software ermöglicht die nahtlose Integration von CAD Systemen, um den gesamten Entwicklungsprozess von der Konzeption bis zur Fertigung zu unterstützen. Dies fördert die Zusammenarbeit zwischen den verschiedenen Abteilungen und hilft, Entwicklungszeit und -kosten zu reduzieren.
  • Konfigurations- und Änderungsmanagement: Mit unserer PLM-Software können Unternehmen den gesamten Änderungsprozess von Produktkonfigurationen verwalten und nachverfolgen. Dies stellt sicher, dass alle Beteiligten √ºber die aktuellsten Informationen verfolgen und Änderungen effizient und nachvollziehbar umgesetzt werden.
  • Compliance und Qualitätsmanagement: Unsere PLM-Lösungen unterstützen Unternehmen bei der Einhaltung von Industrienormen, gesetzlichen Vorschriften und Qualitätsstandards. Sie ermöglichen eine systematische Erfassung und Überwachung von Qualitäts- und Compliance-Anforderungen während des gesamten Produktlebenszyklus.

Durch die Bereitstellung dieser umfassenden PLM-Lösungen unterstützen wir Industrieunternehmen dabei, die Herausforderungen der digitalen Transformation erfolgreich zu meistern. Unsere Software hilft ihnen, ihre Prozesse zu optimieren, die Zusammenarbeit zu fördern, die Markteinführung zu beschleunigen

Ich danke Dir sehr für dieses Gespräch und wünsche für die Weiterentwicklung des Produktportfolios alles erdenklich Gute und viel Erfolg.

Excuse me, wir haben 2023! Nachhaltigkeit, Kreislaufwirtschaft und PLM

 

Nachhaltigkeit (Sustainability) und eine Kreislaufwirtschaft sind viel diskutierte Ansätze in der Industrie zur Reduzierung von Umweltbelastungen und zur Verbesserung des Einsatzes von Rohstoffen und Ressourcen. Die Integration nachhaltiger und zirkulärer Praktiken in die Industrie ist eine der größten Herausforderungen in naher Zukunft im Kampf gegen die Klimakrise. Wie kann PLM zur Lösung dieser Herausforderung beitragen?

Product Lifecycle Management (PLM) eine Strategie und ein Methode den gesamten Lebenszyklus eines Produkts zu verwalten, von seinem Design und seiner Entwicklung bis zu seiner Herstellung, Verwendung und Entsorgung. Eine Kreislaufwirtschaft ist ein Wirtschaftssystem, das darauf ausgelegt ist, regenerativ und wiederherstellend zu sein, indem Abfall reduziert und Ressourcen optimal genutzt werden.

Product Lifecycle Management (PLM) kann das Erreichen von Zielen zur Verbesserung der Sustainability auf vielfältige Weise unterstützen. Eine Möglichkeit besteht darin, die Bewertung der Umweltauswirkungen des Rohstoffbedarfs, der Herstellungsprozesse, der Logistik, der Nutzung des Produktes und der Entsorgung vorzunehmen und Bereiche zu identifizieren, in denen diese Auswirkungen reduziert werden können.

Darüber hinaus ist PLM ein Wegbereiter für den Übergang zu einer Kreislaufwirtschaft, indem es Unternehmen hilft, Produkte zu entwickeln, die einfacher wiederverwendet, repariert und recycelt werden können.

Dies kann die Verwendung von Materialien umfassen, die langlebiger, recycelbarer oder biologisch abbaubar sind, sowie die Entwicklung von Produkten, die modular sind und sich leicht zerlegen und wieder zusammenbauen lassen. So kann die Nutzung von Ressourcen und die Minimierung von Abfall während des gesamten Produktlebenszyklus optimiert werden. Dies kann durch den Einsatz von (PLM) Software erreicht werden, um den Ressourcenverbrauch zu verfolgen und zu analysieren und dabei Möglichkeiten zur Effizienzsteigerung zu identifizieren. PLM-Tools können weitergehend unterstützen, die Umweltauswirkungen verschiedener Designoptionen zu analysieren und die nachhaltigste Option auszuwählen. Auf diese Weise können Unternehmen die Nutzungsdauer ihrer Produkte verlängern und den Bedarf an Rohstoffen reduzieren.

PLM kann Unternehmen auch dabei helfen, die Verwendung und Entsorgung ihrer Produkte zu verfolgen, um Verbesserungen bei der Wiederverwertung und beim Recycling zu erreichen. Dabei ist das Sammeln von Daten über die Nutzung der Produkte zu Identifizierung von Verschleißmustern denkbar. Die gewonnenen Erkenntnisse fließen dann Produktdesign ein und das sorgt für eine Reduzierung der Umweltauswirkungen durch ein geschlossenes System zur Maximierung der Ressourceneffizienz.

Ein konkretes Beispiel für diese Analysen ist die Berechnung des CO2-Fußabdrucks in einer vollständigen End2End-Betrachtung.

Der CO2-Fußabdruck eines Produkts bezieht sich auf die Gesamtmenge an CO2-Emissionen, die während seines gesamten Lebenszyklus erzeugt werden, von der Rohstoffgewinnung und -verarbeitung über die Herstellung, den Transport, die Verwendung und die Entsorgung. Der CO2-Fußabdruck eines Produkts kann durch viele Faktoren beeinflusst werden, darunter die verwendeten Materialien, die Energieeffizienz des Produktionsprozesses und die verwendeten Transport- und Vertriebsmethoden.

Für das PLM sollte die Identifizierung von Potenzialen zur Reduzierung des CO2-Fußabdruck ein Heimspiel sein. Mögliche Anwendungsfälle sind die Optimierung des Designs eines Produkts, um weniger Materialien oder energieeffizientere Komponenten zu verwenden, oder die Auswahl von Lieferanten und Transportoptionen mit geringeren CO2-Emissionen. Durch sorgfältiges Management des Lebenszyklus eines Produkts ist es möglich, seine Umweltauswirkungen zu reduzieren und zu einer nachhaltigeren Zukunft beizutragen.

Um den Treibhausgas-Fußabdruck (THG) innerhalb einer Lieferkette zu berechnen, können Sie einen Lebenszyklusanalyse-Ansatz (LCA) verwenden. Dabei werden die THG-Emissionen bewertet, die mit allen Phasen des Lebenszyklus eines Produkts verbunden sind, von der Rohstoffgewinnung über die Produktion, den Transport, die Nutzung bis hin zur Entsorgung.

Zunächst müssen die Daten zu den Treibhausgasemissionen über die gesamte Lieferkette gesammelt werden. Dies kann Emissionen aus Energieverbrauch, Transport und anderen Prozessen umfassen, die Teil der Lieferkette sind. Dabei müssen auch auch indirekte Emissionen, z. B. die aus der Stromerzeugung, die in der Lieferkette verwendet wird, berücksichtigt werden. Alle diese Information und Daten aus diesen unterschiedlichen Quellen können im PLM-Datenmodell gesammelt werden. Integrationsszenarien sind hier der Schlüssel dazu.

Sobald diese Daten gesammelt wurden, kommen Tools wie das GHG Protocol oder der ISO 14044-Standard zur Anwendung. Diese Methoden bieten eine standardisierte Methodik zur Berechnung von Treibhausgasemissionen und ermöglichen so den Vergleich des Treibhausgas-Fußabdruck verschiedener Produkte und/oder Lieferketten. Aus PLM-Sicht bedarf es einer Integration dieser Logiken und Standards in das PLM-Datenmodell, ähnlich der bereits vielfach und seit langem bestehenden Integration zu anderen Autorensystemen oder anderer Industrienormen wie RoHS oder REACH..

Es ist wichtig zu beachten, dass der Treibhausgas-Fußabdruck einer Lieferkette je nach den jeweiligen Produkten und Prozessen stark variieren kann. Daher ist es wichtig, alle relevanten Faktoren bei der Berechnung des THG-Fußabdrucks einer Lieferkette sorgfältig zu berücksichtigen. Und wir sprechen von einem Merkmal des Produkts – und wo könnte man diese Informationen besser speichern als im Datenmodell im PLM-System?

Insgesamt muss PLM eine Schlüsselrolle dabei spielen, Unternehmen dabei zu helfen, die Umweltauswirkungen ihrer Produkte zu managen und zur Nachhaltigkeit der Branche beizutragen. PLM ist das Betriebssystem dafür.