Train. Validate. Deploy. Repeat.

MLOps – Machine Learning Operations – macht KI-Modelle im Alltag besser. Daten, Training und Deployment greifen als automatisierter Prozess ineinander. Neue Daten fließen strukturiert zurück ins Training. Modelle werden versioniert, ausgerollt und kontrolliert weiterentwickelt. So wird kontinuierliches Lernen möglich.

PLAN D entwickelt die komplette MLOps Infrastruktur. Pipelines, Versionierung, Continuous Training und Deployment werden als durchgängiger Prozess umgesetzt.
Grundlagen

Der Lebenszyklus von Intelligenz

DevOps orchestriert den Lebenszyklus von Programmcode. MLOps überträgt dieses Prinzip auf Daten, Features und KI-Modelle. Während sich klassische Software vor allem durch neuen Code weiterentwickelt, lernt Künstliche Intelligenz durch neue Daten und neu trainierte Versionen.

MLOps macht Machine Learning reproduzierbar. Daten, Features, Modelle und Konfigurationen werden versioniert, verwaltet und immer wieder gezielt ausgerollt.

Datenpipelines

Datenpipelines bereiten Rohdaten durch Bereinigung und Transformation zu verlässlichen Trainingsdaten für die KI auf und schaffen damit die Grundlage für ein stabile KI-Modell.

Datenqualität-Checks

Hohe Datenqualität wird durch klare Regeln und automatisierte Prüfungen gesichert, sodass fehlerhafte oder veränderte Trainingsdaten früh erkannt und Modellverschlechterungen vermieden werden.

End-to-End

Daten, Training und Deployment sind in durchgängig miteinander verbunden. Jeder Schritt ist versioniert, testbar und wiederholbar. So entsteht aus einzelnen Trainingsläufen ein stabiler Produktionsprozess.

Continuous Training

Modelle können zeitgesteuert oder ereignisbasiert neu trainiert werden. Neue Daten führen automatisch zu aktualisierten Versionen. So bleibt das System fachlich aktuell.

Reproduzierbarkeit

Jeder Trainingslauf ist reproduzierbar. Datensätze, Code-Versionen, Parameter und Modellstände werden vollständig dokumentiert. Das schafft technische Transparenz und Governance-Sicherheit.

Quality Checks

Modelle werden vor dem Ausrollen technisch und fachlich geprüft. Metriken, Datenchecks und Plausibilitätsprüfungen sichern die Qualität. Fehlerhafte Versionen gelangen nicht in den produktiven Einsatz.

Automatisiertes Deployment

Neue Modellversionen werden reproduzierbar und ohne manuelle Eingriffe ausgerollt. Tests, Freigaben und Versionierung sind Teil des Prozesses. Der Rollout bleibt kontrolliert und nachvollziehbar.

Model Registry

Alle Modellversionen werden an einer Stelle verwaltet. Metriken, Herkunft und Freigabestatus sind für jeden Stand dokumentiert. So bleibt nachvollziehbar, was produktiv läuft und wie es dorthin kam.

Rollbacks

Wenn eine neue Version nicht überzeugt, kann gezielt auf eine stabile Version zurückgesetzt werden. Jede Modellversion ist eindeutig gespeichert. Risiken bleiben begrenzt.
Unser Ansatz

Intelligenz, die ohne uns weiterlernt

ML Ops ist kein Wartungsvertrag, sondern ein Zielzustand. Unser Anspruch ist es, uns technisch überflüssig zu machen. Systeme sollen eigenständig laufen, nicht dauerhaft betreut werden müssen.

Machine-Learning-Initiativen starten häufig als Einzelprojekte. Trainingsläufe entstehen isoliert, Deployments erfolgen manuell, Versionen werden nicht sauber dokumentiert. Das Modell funktioniert, doch der Prozess dahinter bleibt fragil.

Aus vereinzelten Trainingsläufen entsteht im Rahmen von ML Ops ein automatisiertes System, beispielsweise auf Basis von MLflow oder Airflow. Nicht das einzelne Training steht im Mittelpunkt, sondern der reproduzierbare Prozess dahinter.

Ein KI-Modell wird so zum reproduzierbaren Produkt, nicht zum einmaligen Projekt. Das Produkt hat Versionen, klare Qualitätskriterien und eine nachvollziehbare Weiterentwicklung. Genau diese Logik übertragen wir auf Machine Learning.

Neue Daten führen zu kontrollierter Weiterentwicklung und kontinuierlichem Lernen. Das Ziel ist Transparenz, Stabilität und technologische Eigenständigkeit. Somit ist Machine Learning nicht nur intelligent, sondern dauerhaft beherrschbar.

Beratungstermin vereinbaren

KI Compliance

IT-Security, DSGVO und KI-VO im Griff

Wir entwickeln, betreiben und supporten KI in Deutschland gemäß ISO 27001. Verschlüsselung, Anonymisierung, klare Architektur und auditierbare Dokumentation stellen sicher, dass Datenschutz, IT-Sicherheit und regulatorische Anforderungen eingehalten werden.

KI Made in Germany - Entwicklung, Support & Hosting
DSGVO Konform, KI-VO-konform, Nis 2-konform
LLMs gehostet in Europa
Sicherheit der Enterprise-Klasse, ISO27001 konform

MLOps läuft dort, wo Ihre Daten sind.

AWS

Als AWS Partner setzen wir MLOps Pipelines mit Amazon SageMaker um. Trainings- und Deployment-Workflows laufen versioniert und automatisiert in Ihrer AWS Umgebung.

Azure

Mit Azure Machine Learning Pipelines realisieren wir strukturierte MLOps Prozesse. Training, Tests und Deployment sind automatisiert integriert.

Google

Auf Vertex AI Pipelines verbinden wir Daten-, Trainings- und Deployment-Prozesse zu einem durchgängigen MLOps Workflow.

OnPrem

MLOps implementieren wir in Ihrer eigenen Infrastruktur mit einem Open Source Stack auf Basis von Apache Airflow.
Techologie

Das Rückgrat produktiver KI

Wir verbinden Orchestrierung, Tests, Monitoring und Automatisierung zu einem wiederholbaren Prozess. Das Ergebnis: Produktionsniveau statt experimenteller Einzelstücke.
Unsere Projektformate

MLOps konkret umsetzen

Wenn MLOps mehr als Theorie sein soll, setzen wir es in genau diesen Formaten um.

100 Tage MVP

Von der Idee zum produktiven KI-System. Individuelle KI-Entwicklung in 100 Tagen.
KI System entwickeln

KI Tech Team

Know-how & Manpower für Ihre KI-Projekte
Jetzt KI Team etablieren

Cases

Passende Case Studies

700 Mitglieder, eine KI

Wie ein Verband KI-Dokumentenmanagement für 700 Mitglieder bezahlbar machte

700+

Mitgliedsunternehmen mit Zugang zur KI-Suche
Learn more

Digitalstrategie für 1,2 Millionen Mitglieder

Digitalstrategie für ADAC Hansa: Wenn die Ankerleistung an Relevanz verliert

100%

Zustimmung von Soundingboard und Führungskreis
Learn more

360°-Kundensicht für den Vertrieb

360°-Kundensicht mit KI: Datengetriebener Vertrieb für 1,2 Millionen Kunden

2x

Verdopplung der Verkaufswahrscheinlichkeit
Learn more

Von KI-Zurückhaltung zur KI Roadmap

KI-Strategie für FinTech: Wie ein Scale-up eine investorenreife KI Roadmap entwickelt

2

intensive Tage KI Ideenwerkstatt
Learn more

Preisprognose in Sekunden

Von 10 Jahren Transaktionsdaten zur verbindlichen Preisprognose in Echtzeit

24h → 1 Sek.

Prozessbeschleunigung der Wertermittlung
Learn more
PLAN D Logo

Reparaturkosten in Sekunden

KI-Prognose von Reparaturkosten im Kfz-Schadenmanagement

93 %

schnellere Schadenregulierung
Learn more
PLAN D Logo

Datenstrategie statt Datensilos

Datenstrategie für die Finanzbranche: Von 50 Datenquellen zur KI-fähigen Lakehouse-Plattform

6 Monate

vom Assessment bis zur produktiven Plattform
Learn more
PLAN D Logo

50 Millionen Euro durch Daten

Einkaufsoptimierung in der Kfz-Versicherung

~50 Mio. €

Einsparung pro Jahr dank KI
Learn more

Fachwissen auf Knopfdruck

KI-Assistent im Kundenservice mit RAG-System

100

Tage Idee bis MVP
Learn more

Digitale Zukunft für die Energiewende

KI-gestützte Digitalstrategie: Wie ein Bundesunternehmen seine Prozesse modernisiert

7

Monate von Ist-Analyse bis Roadmap
Learn more
PLAN D Logo

KI kalkuliert Hagelschäden

Hagelschaden in Millisekunden kalkuliert: Wie KI Versicherungen bei der Massenregulierung entlastet

40.000+

abgewickelte Hagelschäden über das KI-System pro Jahr
Learn more
PLAN D Logo

Computer Vision im Schadenmanagement

KI-Bilderkennung im Kfz-Schadenmanagement: Schadenbewertung in Sekunden statt Tagen

93 %

Prognosegüte in der Bauteilserkennung, auf Gutachter-Niveau
Learn more

Mit Daten Leben retten

KI in der Medizin: Datenanalyse in der Notfallversorgung

1,3 Stunden

schnellere Behandlung pro Schlaganfall
Learn more

Remote Videobesichtigung von Kfz Schäden

Remote Videobesichtigung von Kfz Schäden einer Versicherungsnehmerin

100.000 Euro

Projektvolumen pro bono
Learn more

Omnikanal im Versicherungsvertrieb

Gemeinsam mehr erreichen: Omnikanal im Versicherungs-Vertrieb

Learn more

Fragen & Antworten

MLOps steht für „Machine Learning Operations“ und beschreibt die technischen Prozesse und Strukturen, die notwendig sind, um KI-Modelle reproduzierbar zu entwickeln, kontrolliert auszurollen und dauerhaft im produktiven Einsatz zu betreiben. Es verbindet Daten, Training, Versionierung, Deployment und Monitoring zu einem durchgängigen System, sodass Modelle nicht nur einmal funktionieren, sondern stabil weiterentwickelt werden können.

MLOps ist im produktiven Einsatz wichtig, weil ein KI-Modell nach dem ersten Training nicht fertig ist, sondern sich Daten, Anforderungen und Rahmenbedingungen laufend ändern. Ohne klare Prozesse entstehen manuelle Deployments, unkontrollierte Modellversionen, unbemerkte Leistungsabfälle und dauerhaft manuelle Aufwände. MLOps schafft reproduzierbare Abläufe, Versionierung, Qualitätsprüfungen und kontrollierte Releases, sodass Modelle stabil laufen, gezielt weiterentwickelt werden können und technische Schulden vermieden werden.

Nein, MLOps ist nicht nur für große Unternehmen relevant. Entscheidend ist nicht die Unternehmensgröße, sondern welche Rolle KI im Unternehmen übernimmt. Je höher die Wertschöpfung durch ein Modell und je kritischer seine Entscheidungen für Prozesse, Umsatz oder Risiko sind, desto wichtiger ist ein stabiler, kontrollierter Prozess dahinter.

Sobald Modelle produktiv eingesetzt und regelmäßig aktualisiert werden müssen, entsteht Komplexität – unabhängig von der Teamgröße. MLOps stellt sicher, dass KI zuverlässig entlastet, aktuell bleibt und nicht durch manuelle Eingriffe oder Datenänderungen an Qualität verliert.

Modellversionen werden in MLOps systematisch verwaltet und eindeutig gekennzeichnet. Jede Version enthält nachvollziehbare Metadaten zu Trainingsdaten, Parametern, Code-Stand und Qualitätskennzahlen. So ist jederzeit klar, welche Version produktiv ist und wie sie entstanden ist.

Neue Versionen werden getestet und kontrolliert freigegeben, bevor sie in den Live-Betrieb gehen. Bei Bedarf kann gezielt auf eine frühere stabile Version zurückgesetzt werden. Dadurch bleibt der Einsatz transparent, reproduzierbar und steuerbar.

Reproduzierbarkeit im MLOps-Kontext bedeutet, dass ein KI-Trainingslauf jederzeit unter denselben Bedingungen erneut ausgeführt werden kann und zum gleichen Ergebnis führt. Dazu werden Trainingsdaten, Code-Versionen, Modellparameter und Konfigurationen eindeutig festgehalten.

So lässt sich nachvollziehen, wie ein Modell entstanden ist, warum es eine bestimmte Leistung erreicht hat und welche Änderungen welche Auswirkungen hatten. Reproduzierbarkeit schafft technische Transparenz und ist die Grundlage für Qualitätssicherung, Governance und regulatorische Anforderungen.

Neue Modellversionen werden in MLOps nicht direkt live geschaltet, sondern durchlaufen einen klar definierten Freigabeprozess. Zunächst werden sie technisch geprüft, etwa anhand von Leistungskennzahlen und Vergleichstests mit der aktuellen Produktivversion.

Zusätzlich werden gezielte Testfälle durchlaufen, bei denen das Modell definierte Eingaben erhält und die Ergebnisse mit zuvor festgelegten Erwartungswerten verglichen werden. So wird überprüft, ob das Modell fachlich korrekt reagiert und sich wie vorgesehen verhält.

Erst wenn diese Prüfungen bestanden sind, wird die neue Version kontrolliert freigegeben und ausgerollt.

Canary Deployments sind eine kontrollierte Form der Einführung neuer Modellversionen. Statt ein neues KI-Modell sofort für alle Anfragen zu aktivieren, wird es zunächst nur für einen kleinen Teil des Traffics eingesetzt.

So kann im realen Betrieb beobachtet werden, wie sich die neue Version im Vergleich zur bisherigen verhält. Leistungskennzahlen, Fehlerraten oder fachliche Ergebnisse werden dabei eng überwacht. Wenn die neue Version stabil läuft, wird ihr Anteil schrittweise erhöht. Treten Probleme auf, kann sofort zur vorherigen Version zurückgekehrt werden.

Drift Detection wird umgesetzt, indem die aktuellen Eingabedaten und Modellvorhersagen kontinuierlich mit den Daten aus dem Training verglichen werden. Dabei wird geprüft, ob sich Verteilungen, Wertebereiche oder Muster deutlich verändern.

Typisch sind statistische Tests oder Schwellenwerte, die Abweichungen automatisch erkennen und melden. Wird eine relevante Veränderung festgestellt, kann ein Retraining angestoßen oder eine genauere Analyse durchgeführt werden. So wird verhindert, dass das Modell schleichend an Qualität verliert.

Ein Modell sollte neu trainiert werden, wenn sich die Realität ändert, die es abbildet – etwa durch neue Kundenverhalten, Preisstrukturen, Produkte oder externe Rahmenbedingungen. Auch deutlich veränderte Datenverteilungen oder ein messbarer Leistungsabfall sind klare Hinweise auf notwendigen Retraining-Bedarf.

MLOps verhindert stille Modellverschlechterung, indem Eingabedaten und Vorhersagequalität kontinuierlich überwacht werden. Abweichungen werden automatisch erkannt, dokumentiert und können definierte Prozesse auslösen, etwa eine erneute Trainingspipeline. So bleibt das Modell fachlich aktuell und verliert nicht unbemerkt an Wirkung.

MLOps unterstützt die technische Umsetzung mehrerer konkreter Pflichten aus dem EU AI Act, insbesondere für Hochrisiko-Systeme.

Durch durchgängige Versionierung von Daten, Code und Modellständen entsteht eine vollständige Nachvollziehbarkeit des gesamten Lebenszyklus. Diese End-to-End-Traceability unterstützt die Anforderungen an die technische Dokumentation gemäß Art. 11 AI Act (Technische Dokumentation) sowie das geforderte Risikomanagement nach Art. 9 (Risikomanagement-System) und das Qualitätsmanagement-System nach Art. 17.

MLOps implementiert außerdem automatische Logging-Mechanismen im Betrieb. Modellversionen, Konfigurationen, Releases und relevante Ereignisse werden systematisch protokolliert. Damit werden die Record-Keeping-Pflichten aus Art. 12 AI Act (Aufzeichnungspflichten) technisch operationalisiert, der ausdrücklich eine automatische Aufzeichnung von Ereignissen zur nachträglichen Nachvollziehbarkeit verlangt.

Freigabeprozesse und kontrollierte Releases unterstützen die Anforderungen an Human Oversight gemäß Art. 14 AI Act (Überwachung durch Menschen). Neue Versionen durchlaufen definierte Tests und Prüfungen, bevor sie produktiv gehen. Diese Freigaben und manuellen Review-Schritte implementieren „Human-in-the-Loop“-Mechanismen im Sinne von Art. 14.

Durch kontinuierliches Monitoring von Performance, Drift und Fehlverhalten wird die laufende Risikoüberwachung gemäß Art. 72 AI Act (Post-Market-Monitoring) unterstützt. Der hierfür notwendige Post-Market-Monitoring-Plan ist zugleich Bestandteil der technischen Dokumentation nach Art. 11. Transparenzmechanismen zahlen zudem auf die Informationspflichten nach Art. 13 (Transparenz und Bereitstellung von Informationen für Nutzer) ein.

Ja, MLOps kann langfristig Betriebskosten reduzieren – vor allem durch Automatisierung und Standardisierung.

Ohne MLOps entstehen häufig manuelle Deployments, wiederkehrende Fehleranalysen, unklare Modellversionen und hoher Abstimmungsaufwand zwischen Teams. Diese versteckten Aufwände summieren sich im laufenden Betrieb.

MLOps automatisiert Trainingsprozesse, Releases, Tests und Monitoring. Probleme werden früher erkannt, Rollbacks sind kontrolliert möglich und wiederkehrende Aufgaben werden nicht jedes Mal neu gelöst. Dadurch sinkt der manuelle Aufwand, Ausfallzeiten werden reduziert und die Weiterentwicklung wird planbarer.

Ja, MLOps kann technisch vollständig OnPrem betrieben werden. Viele Unternehmen, insbesondere in regulierten Branchen, setzen bewusst auf eine eigene Infrastruktur.

Alle zentralen Bausteine von MLOps wie Orchestrierung, Feature Store, Experiment Tracking, Model Registry, CI/CD und Monitoring lassen sich im eigenen Rechenzentrum umsetzen. Daten verlassen dabei nicht das eigene Netzwerk und Sicherheitsmaßnahmen können vollständig selbst kontrolliert werden.

OnPrem bietet damit Vorteile bei Datenschutz, Informationssicherheit und technologischer Souveränität. Gleichzeitig steigt der organisatorische Aufwand, da Skalierung, Hardware-Management etwa für GPU-Cluster, Wartung der Plattform und Integration in bestehende IT-Landschaften intern verantwortet werden müssen.

Kurz gesagt: Vollständiges OnPrem MLOps ist möglich, erfordert jedoch eine eigene stabile Plattform und klare interne Betriebsverantwortung.

MLOps lässt sich klar in fünf Reifegrade einteilen, die den technischen Entwicklungsstand eines Unternehmens im Umgang mit produktiven ML-Systemen beschreiben.

  • Level 0 – Kein MLOps: Modelle entstehen isoliert in Notebooks. Datenverarbeitung, Training und Deployment erfolgen manuell und sind nicht reproduzierbar.
  • Level 1 – DevOps ohne MLOps: Applikationscode folgt DevOps-Prinzipien, ML-Modelle jedoch nicht. Training, Versionierung und Deployment sind nicht automatisiert und laufen getrennt vom restlichen System.
  • Level 2 – Automatisiertes Training: Daten- und Trainingspipelines sind automatisiert und reproduzierbar. Experiment Tracking und Versionierung sind etabliert, Deployments erfolgen noch teilweise manuell.
  • Level 3 – Automatisiertes Deployment: Modelle werden über CI/CD-Prozesse getestet und kontrolliert in Staging und Produktion ausgerollt. Model Registry, Feature Store, Monitoring und Governance sind integriert.
  • Level 4 – Continuous Learning: Modelle werden auf Basis von Monitoring-Signalen wie Performance oder Drift automatisch neu trainiert und kontrolliert ausgerollt. Der gesamte Lifecycle ist automatisiert, versioniert und reproduzierbar.

Seit 2017 setzt PLAN D produktive Machine-Learning-Systeme unter realen Bedingungen um. Diese Projekte entstehen nicht im Labor, sondern in Unternehmen mit hohen Anforderungen an Integration, Sicherheit und regulatorische Nachvollziehbarkeit. Diese Erfahrung fließt direkt in den Aufbau Ihrer MLOps-Infrastruktur ein.

Machine Learning Engineering, Software-Engineering und Plattformarchitektur greifen dabei ineinander. Der Anspruch ist klar: KI-Modelle müssen präzise arbeiten, wirtschaftlich sinnvoll sein und dauerhaft kontrollierbar bleiben. Genau diese Verbindung aus technischer Tiefe, regulatorischem Verständnis und wirtschaftlicher Perspektive macht PLAN D zum richtigen Partner für MLOps.

ERGOAscavoADACBVSKDeutsche BahnCARTVdenaAstra VersicherungenbfsSanofiDOMUS AGsearenergyTeslaUKSHvitagroupRationalR+V
ERGOAscavoADACBVSKDeutsche BahnCARTVdenaAstra VersicherungenbfsSanofiDOMUS AGsearenergyTeslaUKSHvitagroupRationalR+V
ERGOAscavoADACBVSKDeutsche BahnCARTVdenaAstra VersicherungenbfsSanofiDOMUS AGsearenergyTeslaUKSHvitagroupRationalR+V

Bereit wenn Sie es sind

Zukunft beginnt, wenn menschliche Intelligenz künstliche Intelligenz entwickelt. Der erste Schritt ist nur ein Klick.

Vertrieb kontaktieren
Jetzt bewerben

Seit 2017 entwickeln wir KI-Systeme, die Unternehmen verändern. Sprechen wir über Ihres.