Hand aufs Herz: Die meisten von uns haben gerade erst verstanden, dass RAG (Retrieval Augmented Generation) mehr ist als nur ein schickes Akronym. Wir haben gelernt, dass wir unsere LLMs „grounden“ müssen, damit sie nicht über unsere Produktdaten halluzinieren. Doch während wir noch überlegen, welche PDF-Dokumente wir in den Vektorspeicher werfen, zieht die Karawane schon weiter.
Der neue Hype heißt Long Running Agents (oder „Claude Cowork“). Die Frage, die jetzt im Raum steht: Brauchen wir den mühsamen Aufbau eines Knowledge Graphen, wenn die KI jetzt ein „Langzeitgedächtnis“ hat und wie ein digitaler Kollege agiert?
Schauen wir uns das Ganze mal unter der PLM-Lupe an. Denn im Engineering ist „fast richtig“ leider oft „falsch“.
Die drei Musketiere der Datenabfrage: Ein technischer Deep Dive
Um zu verstehen, wo die Reise hingeht, müssen wir die Werkzeuge präzise trennen. Denn ein Akkuschrauber ist kein Hammer, auch wenn man mit beiden Nägel einschlagen kann. Mein Akuschrauber weiß ein Lied davon zu singen.
Zuerst wäre da das klassische RAG, das wir als „Document Grounding“ kennen. Es funktioniert über die Suche nach Textähnlichkeiten (Vektoren) in Dokumenten. Für die Frage „Was steht in der Montageanweisung?“ ist das super. Aber in der PLM-Realität versagt dieser Ansatz oft, sobald wir fragen: „Welche Teile sind betroffen?“. Warum? Weil die Antwort nicht in einem einzelnen Dokument steht, sondern zwischen den Zeilen der Systemgrenzen vergraben ist.
Hier kommt GraphRAG ins Spiel, das auf einem Knowledge Graph basiert. Statt Textbausteine zu suchen, arbeitet dieser Ansatz auf einem Netz aus echten Objekten und deren Beziehungen, dem Digital Thread. Das ist die „mathematische Präzision“, die ich oft beschwöre. GraphRAG weiß, dass Teil A zu Baugruppe B gehört, die wiederum von Anforderung C validiert wird. Es findet Pfade und Abhängigkeiten, keine bloßen Wortfetzen.
Ganz neu auf der Bildfläche ist der Cowork-Agent (wie Claude Cowork). Das ist der digitale Praktikant. Er zeichnet sich durch ein User Memory aus und kann eigenständig Werkzeuge (Tools) ausführen. Während RAG eher passiv auf Abruf wartet, kann ein solcher Agent aktiv Suchen anstoßen, den Kontext über Wochen behalten und uns proaktiv unterstützen.
Impact Analyse: Warum Vektor-RAG hier baden geht
Stellen wir uns vor: Ein Entwicklungsingenieur plant eine Änderung an Komponente X. Es soll ein neues Material für ein Gehäuseteil verwendet werden. Die sich anschließende Frage lautet: Welche anderen Bauteile, Spezifikationen und Dokumente sind betroffen?
Wenn ihr ein klassisches RAG nach dem „Impact von Teil X“ fragt, findet es vielleicht das Lastenheft von Teil X. Aber es findet nicht die indirekten Abhängigkeiten. Vektor-Suchen verstehen keine Hierarchien oder „Where-used“-Beziehungen.
Der GraphRAG-Vorteil liegt in der Traversierung: Er folgt dem Digital Thread von der Mechanik zur Software bis hin zu den Requirements. Er liefert eine vollständige Liste der Betroffenen, weil die Beziehungen explizit modelliert und nicht nur statistisch erraten sind.
Ein Coworker-Agent wiederum setzt dem Ganzen die Krone auf: Er könnte hergehen, die Impacted Objects aus dem Graphen ziehen und dann eigenständig die betroffenen Fachabteilungen in Teams anschreiben, um eine erste Einschätzung einzuholen. Der Agent ist also der Prozessor, während der Graph die unumstößliche Source of Truth bleibt.
Weitere Use Cases aus dem Engineering
Wenn wir tiefer graben, ergeben sich Szenarien, die erst durch die Kombination von Agenten-Gedächtnis und Graph-Struktur wirklich fliegen:
- Compliance-Check in der Prozessindustrie: Ein Agent könnte neue REACH-Verordnungen überwachen (Retrieval). Er nutzt dann den Knowledge Graphen, um sofort alle Rezepturen zu identifizieren, die den kritischen Inhaltsstoff enthalten, und erstellt automatisch einen Entwurf für einen Änderungsantrag.
- Varianten-Bereinigung in der diskreten Fertigung: Ein Agent analysiert über Wochen hinweg die Verkaufszahlen im ERP und korreliert sie über den Knowledge Graphen mit der technischen Komplexität im PLM. Er schlägt aktiv vor, welche Varianten aufgrund hoher Herstellkosten bei geringer Marge eingestellt werden sollten.
- Root-Cause-Analyse im Service: Tritt ein Fehler im Feld auf, liest der Agent die Serviceberichte (RAG) und verfolgt im Graphen präzise zurück, welche Charge von welcher Fertigungslinie in diesem Zeitraum betroffen war.
Fazit: Brauchen wir den Knowledge Graphen noch?
Einige behaupten, dass die riesigen Kontextfenster und das neue Gedächtnis der Agenten den Graphen ersetzen könnten. Schließlich erlaubt das Model Context Protocol (MCP) von Anthropic einem „Coworker-Agenten“ wie Claude, sich per „Plug-and-Play“ mit externen Quellen zu verbinden, z.B. von SQL-Datenbanken über Jira bis hin zum lokalen Dateisystem. Der Agent agiert hier wie ein digitaler Kollege mit einem unendlichen Satz an Adaptern.
Das klingt nach einer Revolution und für bestimmte Use Cases ist es das auch. Wenn ein Agent ad hoc eine Zusammenfassung über die letzten Änderungen an einem Bauteil schreiben soll, kann er per MCP die Tickets in Jira lesen, die E-Mails im Outlook-Server durchforsten und die CAD-Metadaten ziehen. Er baut sich in seinem Kontextfenster eine Art „Ad-hoc-Knowledge-Graph“ auf. Das ist ein gigantischer Fortschritt gegenüber reinen LLMs, die nur auf veralteten Trainingsdaten basieren.
Doch hier lauert die „Probabilistische Falle“, die wir im PLM nicht ignorieren dürfen.
Damit dieser ad hoc erzeugte Kontext korrekt ist, muss der Agent zwei Dinge wissen: Wo sind die Daten und wie hängen sie semantisch zusammen? Bei einem MCP-basierten Ansatz muss dieses „Beziehungswissen“ entweder mühsam im System-Prompt mitgegeben werden (was das Kontextfenster belastet und bei komplexen Produktstrukturen schnell instabil wird) oder der Agent muss die Zusammenhänge zwischen den Quellen interpretieren. Er muss raten, ob die „Revision“ aus dem PDM-System wirklich logisch deckungsgleich mit dem „Gültigkeit“ im ERP verbunden ist.
Hier liegt der entscheidende Unterschied:
- Der Knowledge Graph ist deterministisch: Er hat die Ontologie (das Regelwerk des Beziehungswissens) fest „im Bauch“. Die Beziehungen (der Digital Thread) sind dort explizit modelliert und verifiziert. Wenn ich den Graphen frage, welche Baugruppe von einer Anforderungsänderung betroffen ist, ist die Antwort eine mathematische Gewissheit.
- Der Agent ist probabilistisch: Er versucht, die Beziehungen auf Basis von Wahrscheinlichkeiten zu rekonstruieren. Er baut keine „Source of Truth“, sondern eine „Source of Plausibility“.
MCP ist der perfekte „Transportweg“, um die KI mit der echten Welt zu verbinden. Aber MCP ohne einen darunterliegenden Knowledge Graphen ist wie ein hochmoderner Glasfaseranschluss in ein Haus ohne Grundriss: Der Agent findet zwar alle Zimmer (Datenquellen), weiß aber nicht, welche Wand tragend ist und wo die Leitungen verlaufen.
Im PLM brauchen wir Determinisierung. Wir müssen beweisen können, warum eine Engineering-Entscheidung getroffen wurde. Ein Agent, der sein Wissen nur ad hoc aus MCP-Sourcen und seinem „Memory“ zusammenwürfelt, bleibt eine Blackbox. Der Digital Thread im Knowledge Graph bleibt daher das Pflichtprogramm. Er liefert die semantische Landkarte. Der Agent ist die Kür. Er ist derjenige, der auf dieser Landkarte die Arbeit erledigt.
Kurz gesagt: Der Knowledge Graph ist das Rezeptbuch, MCP ist die Zutatensuche, und der Agent ist der Koch. Ohne Rezeptbuch weiß der beste Koch nicht, ob er gerade ein Flugzeugteil oder eine Kaffeemaschine konstruiert.





