Anfang Dezember 2025 hat Google still und leise eine Meldung veröffentlicht, die in der Breite wenig Aufmerksamkeit bekommen hat: Mit Google Workspace Studio können Nutzer jetzt eigene KI-Agenten bauen – per natürlicher Sprache, ohne eine einzige Zeile Code. Die Agenten verbinden sich mit Gmail, Drive, Salesforce, Jira und Dutzenden weiteren Diensten. Sie lesen, entscheiden, handeln. Der Mensch muss nur noch steuern und genehmigen.
Das ist keine isolierte Produktmeldung. Es ist ein Symptom eines strukturellen Wandels, der gerade quer durch die gesamte Softwarelandschaft rollt. Und der uns im PLM-Umfeld fundamental beschäftigen sollte.
„One more thing“ – revisited
Im Februar 2024 habe ich an dieser Stelle gefragt, was es bedeutet, wenn der zukünftige Client eines PLM-Systems nur noch ein Prompt ist, dem Fragen gestellt und Anweisungen erteilt werden. Damals war das eine provokante These. Heute ist es eine Beobachtung, die sich mit jedem Quartal klarer abzeichnet.
Was ich damals noch nicht vollständig durchdacht hatte: Die entscheidende Veränderung liegt nicht auf der Benutzerseite, sondern auf der Anbieterseite. Softwarehersteller müssen ihre Produkte nicht mehr primär für Menschen, sondern für Maschinen lesbar machen. Der neue „Endanwender“ vieler Enterprise-Systeme ist ein
KI-Agent.
Das USB-C-Moment der Unternehmenssoftware
Im November 2024 hat Anthropic das Model Context Protocol (MCP) als Open-Source-Standard veröffentlicht. Die Analogie, die sich dabei durchgesetzt hat, trifft es gut: MCP ist das USB-C für KI-Anwendungen. Wo früher für jede Kombination aus KI-Modell und Datenquelle eine individuelle Integration gebaut werden musste, entsteht jetzt ein universeller Stecker.
Die Adoptionsgeschwindigkeit ist bemerkenswert: OpenAI, Google, Microsoft und AWS haben MCP innerhalb weniger Monate übernommen. Im Dezember 2025 wurde das Protokoll an die Linux Foundation gespendet – ein klares Signal, dass es sich von einem Herstellerstandard zur kritischen Infrastruktur entwickelt hat. Seriöse Quellen sprechen inzwischen von über 10.000 MCP Servern, Tendenz stark steigend.
Das Muster ist immer gleich: Softwareanbieter schaffen programmatische Schnittstellen, über die KI-Agenten ihre Dienste konsumieren können. Die grafische Benutzeroberfläche wird dabei nicht abgeschafft – sie rückt nur in die zweite Reihe. Primäres Interface ist zunehmend das Protokoll.
Was bedeutet das für PLM?
Product Lifecycle Management hat in diesem Kontext eine besondere Ausgangssituation – und besondere Risiken. Die gute Nachricht zuerst: PLM-Systeme sind bereits hochgradig datengetrieben. Strukturierte Produktdaten, Stücklisten, Änderungsprozesse, Freigabehistorien – das ist genau das Material, auf dem KI-Agenten arbeiten können.
Ich habe in diesem Blog mehrfach argumentiert, dass ein Knowledge Graph die richtige Architektur ist, um den Digital Thread als semantische Basis für KI nutzbar zu machen. Diese Grundüberzeugung bleibt unverändert.
Aber die entscheidende Frage ändert sich gerade: Es geht nicht mehr nur darum, ob das PLM-System KI-ready ist. Es geht darum, ob das PLM-System agenten-ready ist.
Ein Blick auf die aktuellen Entwicklungen im Markt zeigt ein gemischtes Bild. Die etablierten PLM-Plattformen investieren massiv in KI-Assistenten und Copilot-Funktionen innerhalb ihrer eigenen Systemgrenzen. Das ist ein sinnvoller erster Schritt. Aber die Systemgrenze ist eben genau das: eine Grenze. Die KI versteht die Produktdaten der jeweiligen Plattform gut, aber sie „kennt“ nicht den Freigabestatus des zugehörigen REACH-Dokuments im QM-System nebenan. Sie navigiert die Stückliste, aber sie traversiert nicht den Digital Thread über Plattformgrenzen hinweg.
Das ist keine Schwäche einzelner Lösungen, sondern eine architektonische Grundfrage: Wie viel Kontext kann eine KI aus einer einzigen Datenquelle schöpfen – und ab wann braucht sie offene Protokolle, die heterogene Quellen ohne manuelle Integration verbinden?
Die eigentliche Gretchen-Frage für die PLM-Industrie
Gartner prognostiziert, dass bis Ende 2026 bis zu 40 Prozent aller Enterprise-Anwendungen aufgabenspezifische KI-Agenten integrieren werden. Das ist eine Zahl, bei der man genau hinschauen sollte. Nicht weil die Prognose zwingend eintrifft, sondern weil sie den Richtungspfeil beschreibt.
Die strategische Frage in der PLM-Industrie lautet eher: Für wen konzipiere ich meines Produkts Schnittstellen – für den Menschen, der durchklickt, oder für den Agenten, der traversiert? Und ja, das ist eine echte Entwurfsentscheidung: Datenmodell, Berechtigungskonzept, Versionierungslogik, Ontologien für Beziehungstypen – all das muss agent-consumable sein, nicht nur human-usable.
Auf der Anwenderseite stellt sich eine spiegelbildliche Frage: Welche PLM-Implementierungen sind so aufgebaut, dass KI-Agenten sinnvoll auf die Daten zugreifen können? Wer heute ein PLM-System einführt oder modernisiert, sollte diese Frage genauso ernst nehmen wie die Frage nach der Benutzerfreundlichkeit der GUI.
Das Protokoll ist das neue Interface
Die GUI stirbt nicht über Nacht. Das wäre eine übertriebene These. Aber ihr relativer Stellenwert verschiebt sich. Softwarehersteller, die ihre Produkte heute nur für menschliche Nutzer bauen, rüsten in einer Kategorie auf, die
morgen vielleicht nicht mehr der primäre Wettbewerbsparameter ist.
Für PLM gilt das in besonderem Maße: Unsere Daten sind komplex, versioniert, beziehungsreich und regulatorisch relevant. Das sind exakt die Eigenschaften, die einen gut gebauten Knowledge Graphen mit MCP-Schnittstelle von einem generischen Vektorspeicher unterscheiden. Wer diesen Baustein richtig setzt, hat das Fundament. Wer ihn ignoriert, hat eine schöne GUI gebaut – für eine Benutzergruppe, die immer seltener fragt.
Vom „one more thing“ im Februar 2024 zum agenten-ready PLM ist es nicht mehr weit. Die Blaupause liegt vor uns.
Jetzt geht es darum, wer sie schnell genug liest.



