Train. Validate. Deploy. Repeat.
PLAN D entwickelt die komplette MLOps Infrastruktur. Pipelines, Versionierung, Continuous Training und Deployment werden als durchgängiger Prozess umgesetzt.
Der Lebenszyklus von Intelligenz
DevOps orchestriert den Lebenszyklus von Programmcode. MLOps überträgt dieses Prinzip auf Daten, Features und KI-Modelle. Während sich klassische Software vor allem durch neuen Code weiterentwickelt, lernt Künstliche Intelligenz durch neue Daten und neu trainierte Versionen.
MLOps macht Machine Learning reproduzierbar. Daten, Features, Modelle und Konfigurationen werden versioniert, verwaltet und immer wieder gezielt ausgerollt.
Intelligenz, die ohne uns weiterlernt

ML Ops ist kein Wartungsvertrag, sondern ein Zielzustand. Unser Anspruch ist es, uns technisch überflüssig zu machen. Systeme sollen eigenständig laufen, nicht dauerhaft betreut werden müssen.
Machine-Learning-Initiativen starten häufig als Einzelprojekte. Trainingsläufe entstehen isoliert, Deployments erfolgen manuell, Versionen werden nicht sauber dokumentiert. Das Modell funktioniert, doch der Prozess dahinter bleibt fragil.
Aus vereinzelten Trainingsläufen entsteht im Rahmen von ML Ops ein automatisiertes System, beispielsweise auf Basis von MLflow oder Airflow. Nicht das einzelne Training steht im Mittelpunkt, sondern der reproduzierbare Prozess dahinter.
Ein KI-Modell wird so zum reproduzierbaren Produkt, nicht zum einmaligen Projekt. Das Produkt hat Versionen, klare Qualitätskriterien und eine nachvollziehbare Weiterentwicklung. Genau diese Logik übertragen wir auf Machine Learning.
Neue Daten führen zu kontrollierter Weiterentwicklung und kontinuierlichem Lernen. Das Ziel ist Transparenz, Stabilität und technologische Eigenständigkeit. Somit ist Machine Learning nicht nur intelligent, sondern dauerhaft beherrschbar.
KI Compliance
IT-Security, DSGVO und KI-VO im Griff
Wir entwickeln, betreiben und supporten KI in Deutschland gemäß ISO 27001. Verschlüsselung, Anonymisierung, klare Architektur und auditierbare Dokumentation stellen sicher, dass Datenschutz, IT-Sicherheit und regulatorische Anforderungen eingehalten werden.

MLOps läuft dort, wo Ihre Daten sind.
AWS
Azure
OnPrem
MLOps konkret umsetzen
Wenn MLOps mehr als Theorie sein soll, setzen wir es in genau diesen Formaten um.
Fragen & Antworten
MLOps steht für „Machine Learning Operations“ und beschreibt die technischen Prozesse und Strukturen, die notwendig sind, um KI-Modelle reproduzierbar zu entwickeln, kontrolliert auszurollen und dauerhaft im produktiven Einsatz zu betreiben. Es verbindet Daten, Training, Versionierung, Deployment und Monitoring zu einem durchgängigen System, sodass Modelle nicht nur einmal funktionieren, sondern stabil weiterentwickelt werden können.
MLOps ist im produktiven Einsatz wichtig, weil ein KI-Modell nach dem ersten Training nicht fertig ist, sondern sich Daten, Anforderungen und Rahmenbedingungen laufend ändern. Ohne klare Prozesse entstehen manuelle Deployments, unkontrollierte Modellversionen, unbemerkte Leistungsabfälle und dauerhaft manuelle Aufwände. MLOps schafft reproduzierbare Abläufe, Versionierung, Qualitätsprüfungen und kontrollierte Releases, sodass Modelle stabil laufen, gezielt weiterentwickelt werden können und technische Schulden vermieden werden.
Nein, MLOps ist nicht nur für große Unternehmen relevant. Entscheidend ist nicht die Unternehmensgröße, sondern welche Rolle KI im Unternehmen übernimmt. Je höher die Wertschöpfung durch ein Modell und je kritischer seine Entscheidungen für Prozesse, Umsatz oder Risiko sind, desto wichtiger ist ein stabiler, kontrollierter Prozess dahinter.
Sobald Modelle produktiv eingesetzt und regelmäßig aktualisiert werden müssen, entsteht Komplexität – unabhängig von der Teamgröße. MLOps stellt sicher, dass KI zuverlässig entlastet, aktuell bleibt und nicht durch manuelle Eingriffe oder Datenänderungen an Qualität verliert.
Modellversionen werden in MLOps systematisch verwaltet und eindeutig gekennzeichnet. Jede Version enthält nachvollziehbare Metadaten zu Trainingsdaten, Parametern, Code-Stand und Qualitätskennzahlen. So ist jederzeit klar, welche Version produktiv ist und wie sie entstanden ist.
Neue Versionen werden getestet und kontrolliert freigegeben, bevor sie in den Live-Betrieb gehen. Bei Bedarf kann gezielt auf eine frühere stabile Version zurückgesetzt werden. Dadurch bleibt der Einsatz transparent, reproduzierbar und steuerbar.
Reproduzierbarkeit im MLOps-Kontext bedeutet, dass ein KI-Trainingslauf jederzeit unter denselben Bedingungen erneut ausgeführt werden kann und zum gleichen Ergebnis führt. Dazu werden Trainingsdaten, Code-Versionen, Modellparameter und Konfigurationen eindeutig festgehalten.
So lässt sich nachvollziehen, wie ein Modell entstanden ist, warum es eine bestimmte Leistung erreicht hat und welche Änderungen welche Auswirkungen hatten. Reproduzierbarkeit schafft technische Transparenz und ist die Grundlage für Qualitätssicherung, Governance und regulatorische Anforderungen.
Neue Modellversionen werden in MLOps nicht direkt live geschaltet, sondern durchlaufen einen klar definierten Freigabeprozess. Zunächst werden sie technisch geprüft, etwa anhand von Leistungskennzahlen und Vergleichstests mit der aktuellen Produktivversion.
Zusätzlich werden gezielte Testfälle durchlaufen, bei denen das Modell definierte Eingaben erhält und die Ergebnisse mit zuvor festgelegten Erwartungswerten verglichen werden. So wird überprüft, ob das Modell fachlich korrekt reagiert und sich wie vorgesehen verhält.
Erst wenn diese Prüfungen bestanden sind, wird die neue Version kontrolliert freigegeben und ausgerollt.
Canary Deployments sind eine kontrollierte Form der Einführung neuer Modellversionen. Statt ein neues KI-Modell sofort für alle Anfragen zu aktivieren, wird es zunächst nur für einen kleinen Teil des Traffics eingesetzt.
So kann im realen Betrieb beobachtet werden, wie sich die neue Version im Vergleich zur bisherigen verhält. Leistungskennzahlen, Fehlerraten oder fachliche Ergebnisse werden dabei eng überwacht. Wenn die neue Version stabil läuft, wird ihr Anteil schrittweise erhöht. Treten Probleme auf, kann sofort zur vorherigen Version zurückgekehrt werden.
Drift Detection wird umgesetzt, indem die aktuellen Eingabedaten und Modellvorhersagen kontinuierlich mit den Daten aus dem Training verglichen werden. Dabei wird geprüft, ob sich Verteilungen, Wertebereiche oder Muster deutlich verändern.
Typisch sind statistische Tests oder Schwellenwerte, die Abweichungen automatisch erkennen und melden. Wird eine relevante Veränderung festgestellt, kann ein Retraining angestoßen oder eine genauere Analyse durchgeführt werden. So wird verhindert, dass das Modell schleichend an Qualität verliert.
Ein Modell sollte neu trainiert werden, wenn sich die Realität ändert, die es abbildet – etwa durch neue Kundenverhalten, Preisstrukturen, Produkte oder externe Rahmenbedingungen. Auch deutlich veränderte Datenverteilungen oder ein messbarer Leistungsabfall sind klare Hinweise auf notwendigen Retraining-Bedarf.
MLOps verhindert stille Modellverschlechterung, indem Eingabedaten und Vorhersagequalität kontinuierlich überwacht werden. Abweichungen werden automatisch erkannt, dokumentiert und können definierte Prozesse auslösen, etwa eine erneute Trainingspipeline. So bleibt das Modell fachlich aktuell und verliert nicht unbemerkt an Wirkung.
MLOps unterstützt die technische Umsetzung mehrerer konkreter Pflichten aus dem EU AI Act, insbesondere für Hochrisiko-Systeme.
Durch durchgängige Versionierung von Daten, Code und Modellständen entsteht eine vollständige Nachvollziehbarkeit des gesamten Lebenszyklus. Diese End-to-End-Traceability unterstützt die Anforderungen an die technische Dokumentation gemäß Art. 11 AI Act (Technische Dokumentation) sowie das geforderte Risikomanagement nach Art. 9 (Risikomanagement-System) und das Qualitätsmanagement-System nach Art. 17.
MLOps implementiert außerdem automatische Logging-Mechanismen im Betrieb. Modellversionen, Konfigurationen, Releases und relevante Ereignisse werden systematisch protokolliert. Damit werden die Record-Keeping-Pflichten aus Art. 12 AI Act (Aufzeichnungspflichten) technisch operationalisiert, der ausdrücklich eine automatische Aufzeichnung von Ereignissen zur nachträglichen Nachvollziehbarkeit verlangt.
Freigabeprozesse und kontrollierte Releases unterstützen die Anforderungen an Human Oversight gemäß Art. 14 AI Act (Überwachung durch Menschen). Neue Versionen durchlaufen definierte Tests und Prüfungen, bevor sie produktiv gehen. Diese Freigaben und manuellen Review-Schritte implementieren „Human-in-the-Loop“-Mechanismen im Sinne von Art. 14.
Durch kontinuierliches Monitoring von Performance, Drift und Fehlverhalten wird die laufende Risikoüberwachung gemäß Art. 72 AI Act (Post-Market-Monitoring) unterstützt. Der hierfür notwendige Post-Market-Monitoring-Plan ist zugleich Bestandteil der technischen Dokumentation nach Art. 11. Transparenzmechanismen zahlen zudem auf die Informationspflichten nach Art. 13 (Transparenz und Bereitstellung von Informationen für Nutzer) ein.
Ja, MLOps kann langfristig Betriebskosten reduzieren – vor allem durch Automatisierung und Standardisierung.
Ohne MLOps entstehen häufig manuelle Deployments, wiederkehrende Fehleranalysen, unklare Modellversionen und hoher Abstimmungsaufwand zwischen Teams. Diese versteckten Aufwände summieren sich im laufenden Betrieb.
MLOps automatisiert Trainingsprozesse, Releases, Tests und Monitoring. Probleme werden früher erkannt, Rollbacks sind kontrolliert möglich und wiederkehrende Aufgaben werden nicht jedes Mal neu gelöst. Dadurch sinkt der manuelle Aufwand, Ausfallzeiten werden reduziert und die Weiterentwicklung wird planbarer.
Ja, MLOps kann technisch vollständig OnPrem betrieben werden. Viele Unternehmen, insbesondere in regulierten Branchen, setzen bewusst auf eine eigene Infrastruktur.
Alle zentralen Bausteine von MLOps wie Orchestrierung, Feature Store, Experiment Tracking, Model Registry, CI/CD und Monitoring lassen sich im eigenen Rechenzentrum umsetzen. Daten verlassen dabei nicht das eigene Netzwerk und Sicherheitsmaßnahmen können vollständig selbst kontrolliert werden.
OnPrem bietet damit Vorteile bei Datenschutz, Informationssicherheit und technologischer Souveränität. Gleichzeitig steigt der organisatorische Aufwand, da Skalierung, Hardware-Management etwa für GPU-Cluster, Wartung der Plattform und Integration in bestehende IT-Landschaften intern verantwortet werden müssen.
Kurz gesagt: Vollständiges OnPrem MLOps ist möglich, erfordert jedoch eine eigene stabile Plattform und klare interne Betriebsverantwortung.
MLOps lässt sich klar in fünf Reifegrade einteilen, die den technischen Entwicklungsstand eines Unternehmens im Umgang mit produktiven ML-Systemen beschreiben.
- Level 0 – Kein MLOps: Modelle entstehen isoliert in Notebooks. Datenverarbeitung, Training und Deployment erfolgen manuell und sind nicht reproduzierbar.
- Level 1 – DevOps ohne MLOps: Applikationscode folgt DevOps-Prinzipien, ML-Modelle jedoch nicht. Training, Versionierung und Deployment sind nicht automatisiert und laufen getrennt vom restlichen System.
- Level 2 – Automatisiertes Training: Daten- und Trainingspipelines sind automatisiert und reproduzierbar. Experiment Tracking und Versionierung sind etabliert, Deployments erfolgen noch teilweise manuell.
- Level 3 – Automatisiertes Deployment: Modelle werden über CI/CD-Prozesse getestet und kontrolliert in Staging und Produktion ausgerollt. Model Registry, Feature Store, Monitoring und Governance sind integriert.
- Level 4 – Continuous Learning: Modelle werden auf Basis von Monitoring-Signalen wie Performance oder Drift automatisch neu trainiert und kontrolliert ausgerollt. Der gesamte Lifecycle ist automatisiert, versioniert und reproduzierbar.
Seit 2017 setzt PLAN D produktive Machine-Learning-Systeme unter realen Bedingungen um. Diese Projekte entstehen nicht im Labor, sondern in Unternehmen mit hohen Anforderungen an Integration, Sicherheit und regulatorische Nachvollziehbarkeit. Diese Erfahrung fließt direkt in den Aufbau Ihrer MLOps-Infrastruktur ein.
Machine Learning Engineering, Software-Engineering und Plattformarchitektur greifen dabei ineinander. Der Anspruch ist klar: KI-Modelle müssen präzise arbeiten, wirtschaftlich sinnvoll sein und dauerhaft kontrollierbar bleiben. Genau diese Verbindung aus technischer Tiefe, regulatorischem Verständnis und wirtschaftlicher Perspektive macht PLAN D zum richtigen Partner für MLOps.
Bereit wenn Sie es sind
Zukunft beginnt, wenn menschliche Intelligenz künstliche Intelligenz entwickelt. Der erste Schritt ist nur ein Klick.
Seit 2017 entwickeln wir KI-Systeme, die Unternehmen verändern. Sprechen wir über Ihres.












