Train. Validate. Deploy. Repeat.
PLAN D entwickelt die komplette ML Ops Infrastruktur. Pipelines, Versionierung, Continuous Training und Deployment werden als durchgängiger Prozess umgesetzt.
Der Lebenszyklus von Intelligenz
Dev Ops orchestriert den Lebenszyklus von Programmcode. ML Ops überträgt dieses Prinzip auf Daten, Features und KI-Modelle. Während sich klassische Software vor allem durch neuen Code weiterentwickelt, lernt Künstliche Intelligenz durch neue Daten und neu trainierte Versionen.
ML Ops macht Machine Learning reproduzierbar. Daten, Features, Modelle und Konfigurationen werden versioniert, verwaltet und immer wieder gezielt ausgerollt.
Intelligenz, die ohne uns weiterlernt

ML Ops ist nicht der Titel unserer Wartungsverträge, sondern ein Zielzustand. Unser Anspruch ist es, uns technisch überflüssig zu machen. Systeme sollen eigenständig laufen, nicht dauerhaft betreut werden müssen.
Machine-Learning-Initiativen starten häufig als Einzelprojekte. Trainingsläufe entstehen isoliert, Deployments erfolgen manuell, Versionen werden nicht sauber dokumentiert. Das Modell funktioniert – doch der Prozess dahinter bleibt fragil.
Wir schaffen Struktur. Aus vereinzelten KI-Trainings entsteht ein skalierbares, automatisiertes System. Nicht das einzelne Training steht im Mittelpunkt, sondern der reproduzierbare Prozess dahinter.
Ein KI Modell verstehen wir als Produkt, nicht als einmaliges Projekt. Ein Produkt hat Versionen, klare Qualitätskriterien und eine nachvollziehbare Weiterentwicklung. Genau diese Logik übertragen wir auf Machine Learning.
Neue Daten führen zu kontrollierter Weiterentwicklung und kontinuierlichem Lernen. Das Ziel ist Transparenz, Stabilität und technologische Eigenständigkeit. Machine Learning wird damit nicht nur intelligent, sondern dauerhaft beherrschbar.
IT-Security, DSGVO und KI-VO im Griff
Wir entwickeln, betreiben und supporten KI in Deutschland – gemäß ISO 27001. Verschlüsselung, Anonymisierung, klare Architektur und auditierbare Dokumentation stellen sicher, dass Datenschutz, IT-Sicherheit und regulatorische Anforderungen eingehalten werden.

ML Ops läuft dort, wo Ihre Daten sind.
AWS
Azure
OnPrem
ML Ops konkret umsetzen
Wenn ML Ops mehr als Theorie sein soll, setzen wir es in genau diesen Projektformaten um.
Fragen & Antworten
ML Ops steht für „Machine Learning Operations“ und beschreibt die technischen Prozesse und Strukturen, die notwendig sind, um KI-Modelle reproduzierbar zu entwickeln, kontrolliert auszurollen und dauerhaft im produktiven Einsatz zu betreiben. Es verbindet Daten, Training, Versionierung, Deployment und Monitoring zu einem durchgängigen System, sodass Modelle nicht nur einmal funktionieren, sondern stabil weiterentwickelt werden können.
ML Ops ist im produktiven Einsatz wichtig, weil ein KI-Modell nach dem ersten Training nicht fertig ist, sondern sich Daten, Anforderungen und Rahmenbedingungen laufend ändern. Ohne klare Prozesse entstehen manuelle Deployments, unkontrollierte Modellversionen, unbemerkte Leistungsabfälle und dauerhaft manuelle Aufwände. ML Ops schafft reproduzierbare Abläufe, Versionierung, Qualitätsprüfungen und kontrollierte Releases, sodass Modelle stabil laufen, gezielt weiterentwickelt werden können und technische Schulden vermieden werden.
Nein, ML Ops ist nicht nur für große Unternehmen relevant. Entscheidend ist nicht die Unternehmensgröße, sondern welche Rolle KI im Unternehmen übernimmt. Je höher die Wertschöpfung durch ein Modell und je kritischer seine Entscheidungen für Prozesse, Umsatz oder Risiko sind, desto wichtiger ist ein stabiler, kontrollierter Prozess dahinter.
Sobald Modelle produktiv eingesetzt und regelmäßig aktualisiert werden müssen, entsteht Komplexität – unabhängig von der Teamgröße. ML Ops stellt sicher, dass KI zuverlässig entlastet, aktuell bleibt und nicht durch manuelle Eingriffe oder Datenänderungen an Qualität verliert.
Modellversionen werden in ML Ops systematisch verwaltet und eindeutig gekennzeichnet. Jede Version enthält nachvollziehbare Metadaten zu Trainingsdaten, Parametern, Code-Stand und Qualitätskennzahlen. So ist jederzeit klar, welche Version produktiv ist und wie sie entstanden ist.
Neue Versionen werden getestet und kontrolliert freigegeben, bevor sie in den Live-Betrieb gehen. Bei Bedarf kann gezielt auf eine frühere stabile Version zurückgesetzt werden. Dadurch bleibt der Einsatz transparent, reproduzierbar und steuerbar.
Reproduzierbarkeit im ML-Ops-Kontext bedeutet, dass ein KI-Trainingslauf jederzeit unter denselben Bedingungen erneut ausgeführt werden kann und zum gleichen Ergebnis führt. Dazu werden Trainingsdaten, Code-Versionen, Modellparameter und Konfigurationen eindeutig festgehalten.
So lässt sich nachvollziehen, wie ein Modell entstanden ist, warum es eine bestimmte Leistung erreicht hat und welche Änderungen welche Auswirkungen hatten. Reproduzierbarkeit schafft technische Transparenz und ist die Grundlage für Qualitätssicherung, Governance und regulatorische Anforderungen.
Neue Modellversionen werden in ML Ops nicht direkt live geschaltet, sondern durchlaufen einen klar definierten Freigabeprozess. Zunächst werden sie technisch geprüft, etwa anhand von Leistungskennzahlen und Vergleichstests mit der aktuellen Produktivversion.
Zusätzlich werden gezielte Testfälle durchlaufen, bei denen das Modell definierte Eingaben erhält und die Ergebnisse mit zuvor festgelegten Erwartungswerten verglichen werden. So wird überprüft, ob das Modell fachlich korrekt reagiert und sich wie vorgesehen verhält.
Erst wenn diese Prüfungen bestanden sind, wird die neue Version kontrolliert freigegeben und ausgerollt.
Canary Deployments sind eine kontrollierte Form der Einführung neuer Modellversionen. Statt ein neues KI-Modell sofort für alle Anfragen zu aktivieren, wird es zunächst nur für einen kleinen Teil des Traffics eingesetzt.
So kann im realen Betrieb beobachtet werden, wie sich die neue Version im Vergleich zur bisherigen verhält. Leistungskennzahlen, Fehlerraten oder fachliche Ergebnisse werden dabei eng überwacht. Wenn die neue Version stabil läuft, wird ihr Anteil schrittweise erhöht. Treten Probleme auf, kann sofort zur vorherigen Version zurückgekehrt werden.
Drift Detection wird umgesetzt, indem die aktuellen Eingabedaten und Modellvorhersagen kontinuierlich mit den Daten aus dem Training verglichen werden. Dabei wird geprüft, ob sich Verteilungen, Wertebereiche oder Muster deutlich verändern.
Typisch sind statistische Tests oder Schwellenwerte, die Abweichungen automatisch erkennen und melden. Wird eine relevante Veränderung festgestellt, kann ein Retraining angestoßen oder eine genauere Analyse durchgeführt werden. So wird verhindert, dass das Modell schleichend an Qualität verliert.
Ein Modell sollte neu trainiert werden, wenn sich die Realität ändert, die es abbildet – etwa durch neue Kundenverhalten, Preisstrukturen, Produkte oder externe Rahmenbedingungen. Auch deutlich veränderte Datenverteilungen oder ein messbarer Leistungsabfall sind klare Hinweise auf notwendigen Retraining-Bedarf.
ML Ops verhindert stille Modellverschlechterung, indem Eingabedaten und Vorhersagequalität kontinuierlich überwacht werden. Abweichungen werden automatisch erkannt, dokumentiert und können definierte Prozesse auslösen, etwa eine erneute Trainingspipeline. So bleibt das Modell fachlich aktuell und verliert nicht unbemerkt an Wirkung.
ML Ops unterstützt die technische Umsetzung mehrerer konkreter Pflichten aus dem EU AI Act, insbesondere für Hochrisiko-Systeme.
Durch durchgängige Versionierung von Daten, Code und Modellständen entsteht eine vollständige Nachvollziehbarkeit des gesamten Lebenszyklus. Diese End-to-End-Traceability unterstützt die Anforderungen an die technische Dokumentation gemäß Art. 11 AI Act (Technische Dokumentation) sowie das geforderte Risikomanagement nach Art. 9 (Risikomanagement-System) und das Qualitätsmanagement-System nach Art. 17.
ML Ops implementiert außerdem automatische Logging-Mechanismen im Betrieb. Modellversionen, Konfigurationen, Releases und relevante Ereignisse werden systematisch protokolliert. Damit werden die Record-Keeping-Pflichten aus Art. 12 AI Act (Aufzeichnungspflichten) technisch operationalisiert, der ausdrücklich eine automatische Aufzeichnung von Ereignissen zur nachträglichen Nachvollziehbarkeit verlangt.
Freigabeprozesse und kontrollierte Releases unterstützen die Anforderungen an Human Oversight gemäß Art. 14 AI Act (Überwachung durch Menschen). Neue Versionen durchlaufen definierte Tests und Prüfungen, bevor sie produktiv gehen. Diese Freigaben und manuellen Review-Schritte implementieren „Human-in-the-Loop“-Mechanismen im Sinne von Art. 14.
Durch kontinuierliches Monitoring von Performance, Drift und Fehlverhalten wird die laufende Risikoüberwachung gemäß Art. 72 AI Act (Post-Market-Monitoring) unterstützt. Der hierfür notwendige Post-Market-Monitoring-Plan ist zugleich Bestandteil der technischen Dokumentation nach Art. 11. Transparenzmechanismen zahlen zudem auf die Informationspflichten nach Art. 13 (Transparenz und Bereitstellung von Informationen für Nutzer) ein.
Ja, ML Ops kann langfristig Betriebskosten reduzieren – vor allem durch Automatisierung und Standardisierung.
Ohne ML Ops entstehen häufig manuelle Deployments, wiederkehrende Fehleranalysen, unklare Modellversionen und hoher Abstimmungsaufwand zwischen Teams. Diese versteckten Aufwände summieren sich im laufenden Betrieb.
ML Ops automatisiert Trainingsprozesse, Releases, Tests und Monitoring. Probleme werden früher erkannt, Rollbacks sind kontrolliert möglich und wiederkehrende Aufgaben werden nicht jedes Mal neu gelöst. Dadurch sinkt der manuelle Aufwand, Ausfallzeiten werden reduziert und die Weiterentwicklung wird planbarer.
Ja, ML Ops kann technisch vollständig OnPrem betrieben werden. Viele Unternehmen, insbesondere in regulierten Branchen, setzen bewusst auf eine eigene Infrastruktur.
Alle zentralen Bausteine von ML Ops wie Orchestrierung, Feature Store, Experiment Tracking, Model Registry, CI/CD und Monitoring lassen sich im eigenen Rechenzentrum umsetzen. Daten verlassen dabei nicht das eigene Netzwerk und Sicherheitsmaßnahmen können vollständig selbst kontrolliert werden.
OnPrem bietet damit Vorteile bei Datenschutz, Informationssicherheit und technologischer Souveränität. Gleichzeitig steigt der organisatorische Aufwand, da Skalierung, Hardware-Management etwa für GPU-Cluster, Wartung der Plattform und Integration in bestehende IT-Landschaften intern verantwortet werden müssen.
Kurz gesagt: Vollständiges OnPrem ML Ops ist möglich, erfordert jedoch eine eigene stabile Plattform und klare interne Betriebsverantwortung.
ML Ops lässt sich klar in fünf Reifegrade einteilen, die den technischen Entwicklungsstand eines Unternehmens im Umgang mit produktiven ML-Systemen beschreiben.
- Level 0 – Kein ML Ops
Modelle entstehen isoliert in Notebooks. Datenverarbeitung, Training und Deployment erfolgen manuell und sind nicht reproduzierbar. - Level 1 – DevOps ohne ML Ops
Applikationscode folgt DevOps-Prinzipien, ML-Modelle jedoch nicht. Training, Versionierung und Deployment sind nicht automatisiert und laufen getrennt vom restlichen System. - Level 2 – Automatisiertes Training
Daten- und Trainingspipelines sind automatisiert und reproduzierbar. Experiment Tracking und Versionierung sind etabliert, Deployments erfolgen noch teilweise manuell. - Level 3 – Automatisiertes Deployment
Modelle werden über CI/CD-Prozesse getestet und kontrolliert in Staging und Produktion ausgerollt. Model Registry, Feature Store, Monitoring und Governance sind integriert. - Level 4 – Continuous Learning
Modelle werden auf Basis von Monitoring-Signalen wie Performance oder Drift automatisch neu trainiert und kontrolliert ausgerollt. Der gesamte Lifecycle ist automatisiert, versioniert und reproduzierbar.
Seit 2017 setzt PLAN D produktive Machine-Learning-Systeme unter realen Bedingungen um. Diese Projekte entstehen nicht im Labor, sondern in Unternehmen mit hohen Anforderungen an Integration, Sicherheit und regulatorische Nachvollziehbarkeit. Diese Erfahrung fließt direkt in den Aufbau Ihrer ML-Ops-Infrastruktur ein.
Machine Learning Engineering, Software-Engineering und Plattformarchitektur greifen dabei ineinander. Der Anspruch ist klar: KI-Modelle müssen präzise arbeiten, wirtschaftlich sinnvoll sein und dauerhaft kontrollierbar bleiben. Genau diese Verbindung aus technischer Tiefe, regulatorischem Verständnis und wirtschaftlicher Perspektive macht PLAN D zum richtigen Partner für ML Ops.
Bereit wenn Sie es sind
Zukunft beginnt, wenn menschliche Intelligenz künstliche Intelligenz entwickelt. Der erste Schritt ist nur ein Klick.
Zukunft beginnt, wenn menschliche Intelligenz künstliche Intelligenz entwickelt. Der erste Schritt ist nur ein Klick.










