Train. Validate. Deploy. Repeat.

Durch ML Ops wird ein KI Modell im Alltag besser. Daten, Training und Deployment greifen als automatisierter Prozess ineinander. Neue Daten fließen strukturiert zurück ins Training. Modelle werden versioniert, ausgerollt und kontrolliert weiterentwickelt. So wird kontinuierliches Lernen möglich.

PLAN D entwickelt die komplette ML Ops Infrastruktur. Pipelines, Versionierung, Continuous Training und Deployment werden als durchgängiger Prozess umgesetzt.
Grundlagen

Der Lebenszyklus von Intelligenz

Dev Ops orchestriert den Lebenszyklus von Programmcode. ML Ops überträgt dieses Prinzip auf Daten, Features und KI-Modelle. Während sich klassische Software vor allem durch neuen Code weiterentwickelt, lernt Künstliche Intelligenz durch neue Daten und neu trainierte Versionen.

ML Ops macht Machine Learning reproduzierbar. Daten, Features, Modelle und Konfigurationen werden versioniert, verwaltet und immer wieder gezielt ausgerollt.

Datenpipelines

Datenpipelines bereiten Rohdaten durch Bereinigung und Transformation zu verlässlichen Trainingsdaten für die KI auf und schaffen damit die Grundlage für ein stabile KI-Modell.

Datenqualität-Checks

Hohe Datenqualität wird durch klare Regeln und automatisierte Prüfungen gesichert, sodass fehlerhafte oder veränderte Trainingsdaten früh erkannt und Modellverschlechterungen vermieden werden.

End-to-End

Daten, Training und Deployment sind in durchgängig miteinander verbunden. Jeder Schritt ist versioniert, testbar und wiederholbar. So entsteht aus einzelnen Trainingsläufen ein stabiler Produktionsprozess.

Continuous Training

Modelle können zeitgesteuert oder ereignisbasiert neu trainiert werden. Neue Daten führen automatisch zu aktualisierten Versionen. So bleibt das System fachlich aktuell.

Reproduzierbarkeit

Jeder Trainingslauf ist reproduzierbar. Datensätze, Code-Versionen, Parameter und Modellstände werden vollständig dokumentiert. Das schafft technische Transparenz und Governance-Sicherheit.

Quality Checks

Modelle werden vor dem Ausrollen technisch und fachlich geprüft. Metriken, Datenchecks und Plausibilitätsprüfungen sichern die Qualität. Fehlerhafte Versionen gelangen nicht in den produktiven Einsatz.

Automatisiertes Deployment

Neue Modellversionen werden reproduzierbar und ohne manuelle Eingriffe ausgerollt. Tests, Freigaben und Versionierung sind Teil des Prozesses. Der Rollout bleibt kontrolliert und nachvollziehbar.

Rollbacks

Wenn eine neue Version nicht überzeugt, kann gezielt auf eine stabile Version zurückgesetzt werden. Jede Modellversion ist eindeutig gespeichert. Risiken bleiben begrenzt.
Unser Ansatz

Intelligenz, die ohne uns weiterlernt

ML Ops ist nicht der Titel unserer Wartungsverträge, sondern ein Zielzustand. Unser Anspruch ist es, uns technisch überflüssig zu machen. Systeme sollen eigenständig laufen, nicht dauerhaft betreut werden müssen.

Machine-Learning-Initiativen starten häufig als Einzelprojekte. Trainingsläufe entstehen isoliert, Deployments erfolgen manuell, Versionen werden nicht sauber dokumentiert. Das Modell funktioniert – doch der Prozess dahinter bleibt fragil.

Wir schaffen Struktur. Aus vereinzelten KI-Trainings entsteht ein skalierbares, automatisiertes System. Nicht das einzelne Training steht im Mittelpunkt, sondern der reproduzierbare Prozess dahinter.

Ein KI Modell verstehen wir als Produkt, nicht als einmaliges Projekt. Ein Produkt hat Versionen, klare Qualitätskriterien und eine nachvollziehbare Weiterentwicklung. Genau diese Logik übertragen wir auf Machine Learning.

Neue Daten führen zu kontrollierter Weiterentwicklung und kontinuierlichem Lernen. Das Ziel ist Transparenz, Stabilität und technologische Eigenständigkeit. Machine Learning wird damit nicht nur intelligent, sondern dauerhaft beherrschbar.

Beratungstermin vereinbaren
Compliance

IT-Security, DSGVO und KI-VO im Griff

Wir entwickeln, betreiben und supporten KI in Deutschland – gemäß ISO 27001. Verschlüsselung, Anonymisierung, klare Architektur und auditierbare Dokumentation stellen sicher, dass Datenschutz, IT-Sicherheit und regulatorische Anforderungen eingehalten werden.

ML Ops läuft dort, wo Ihre Daten sind.

AWS

Als AWS Partner setzen wir ML Ops mit Amazon SageMaker Pipelines um. Trainings- und Deployment-Workflows laufen versioniert und automatisiert in Ihrer AWS Umgebung.

Azure

Mit Azure Machine Learning Pipelines realisieren wir strukturierte ML Ops Prozesse. Training, Tests und Deployment sind automatisiert integriert.

Google

Auf Vertex AI Pipelines verbinden wir Daten-, Trainings- und Deployment-Prozesse zu einem durchgängigen ML Ops Workflow.

OnPrem

ML Ops implementieren wir in Ihrer eigenen Infrastruktur mit einem Open Source Stack auf Basis von Apache Airflow.
Techologie

Das Rückgrat produktiver KI

Wir verbinden Orchestrierung, Tests, Monitoring und Automatisierung zu einem wiederholbaren Prozess. Das Ergebnis: Produktionsniveau statt experimenteller Einzelstücke.
Unsere Projektformate

ML Ops konkret umsetzen

Wenn ML Ops mehr als Theorie sein soll, setzen wir es in genau diesen Projektformaten um.

100 Tage MVP

Von Idee zu produktivem KI-System. In 100 Tagen.
KI System entwickeln

KI Tech Team

Know-how & Manpower für Ihre KI-Projekte
Jetzt KI Team etablieren
Cases

Passende Case Studies

PLAN D Logo

700 Mitglieder, eine KI

Wie ein Verband KI-Dokumentenmanagement für 700 Mitglieder bezahlbar machte

700+

Mitgliedsunternehmen mit Zugang zur KI-Suche
Learn more

Digitalstrategie für 1,2 Millionen Mitglieder

Digitalstrategie für ADAC Hansa: Wenn die Ankerleistung an Relevanz verliert

100%

Zustimmung von Soundingboard und Führungskreis
Learn more

360°-Kundensicht für den Vertrieb

360°-Kundensicht mit KI: Datengetriebener Vertrieb für 1,2 Millionen Kunden

2x

Verdopplung der Verkaufswahrscheinlichkeit
Learn more

Von KI-Zurückhaltung zur KI Roadmap

KI-Strategie für FinTech: Wie ein Scale-up eine investorenreife KI Roadmap entwickelt

2

intensive Tage KI Ideenwerkstatt
Learn more

Preisprognose in Sekunden

Von 10 Jahren Transaktionsdaten zur verbindlichen Preisprognose in Echtzeit

24h → 1 Sek.

Prozessbeschleunigung der Wertermittlung
Learn more
PLAN D Logo

Reparaturkosten in Sekunden

KI-Prognose von Reparaturkosten im Kfz-Schadenmanagement

93 %

schnellere Schadenregulierung
Learn more
PLAN D Logo

Datenstrategie statt Datensilos

Datenstrategie für die Finanzbranche: Von 50 Datenquellen zur KI-fähigen Lakehouse-Plattform

6 Monate

vom Assessment bis zur produktiven Plattform
Learn more
PLAN D Logo

50 Millionen Euro durch Daten

Einkaufsoptimierung in der Kfz-Versicherung

~50 Mio. €

Einsparung pro Jahr dank KI
Learn more

Fachwissen auf Knopfdruck

KI-Assistent im Kundenservice mit RAG-System

100

Tage Idee bis MVP
Learn more

Digitale Zukunft für die Energiewende

KI-gestützte Digitalstrategie: Wie ein Bundesunternehmen seine Prozesse modernisiert

7

Monate von Ist-Analyse bis Roadmap
Learn more
PLAN D Logo

KI kalkuliert Hagelschäden

Hagelschaden in Millisekunden kalkuliert: Wie KI Versicherungen bei der Massenregulierung entlastet

40.000+

abgewickelte Hagelschäden über das KI-System pro Jahr
Learn more
PLAN D Logo

Computer Vision im Schadenmanagement

KI-Bilderkennung im Kfz-Schadenmanagement: Schadenbewertung in Sekunden statt Tagen

93 %

Prognosegüte in der Bauteilserkennung, auf Gutachter-Niveau
Learn more

Mit Daten Leben retten

KI in der Medizin: Datenanalyse in der Notfallversorgung

1,3 Stunden

schnellere Behandlung pro Schlaganfall
Learn more

Remote Videobesichtigung von Kfz Schäden

Remote Videobesichtigung von Kfz Schäden einer Versicherungsnehmerin

100.000 Euro

Projektvolumen pro bono
Learn more

Omnikanal im Versicherungsvertrieb

Gemeinsam mehr erreichen: Omnikanal im Versicherungs-Vertrieb

Learn more

Fragen & Antworten

ML Ops steht für „Machine Learning Operations“ und beschreibt die technischen Prozesse und Strukturen, die notwendig sind, um KI-Modelle reproduzierbar zu entwickeln, kontrolliert auszurollen und dauerhaft im produktiven Einsatz zu betreiben. Es verbindet Daten, Training, Versionierung, Deployment und Monitoring zu einem durchgängigen System, sodass Modelle nicht nur einmal funktionieren, sondern stabil weiterentwickelt werden können.

ML Ops ist im produktiven Einsatz wichtig, weil ein KI-Modell nach dem ersten Training nicht fertig ist, sondern sich Daten, Anforderungen und Rahmenbedingungen laufend ändern. Ohne klare Prozesse entstehen manuelle Deployments, unkontrollierte Modellversionen, unbemerkte Leistungsabfälle und dauerhaft manuelle Aufwände. ML Ops schafft reproduzierbare Abläufe, Versionierung, Qualitätsprüfungen und kontrollierte Releases, sodass Modelle stabil laufen, gezielt weiterentwickelt werden können und technische Schulden vermieden werden.

Nein, ML Ops ist nicht nur für große Unternehmen relevant. Entscheidend ist nicht die Unternehmensgröße, sondern welche Rolle KI im Unternehmen übernimmt. Je höher die Wertschöpfung durch ein Modell und je kritischer seine Entscheidungen für Prozesse, Umsatz oder Risiko sind, desto wichtiger ist ein stabiler, kontrollierter Prozess dahinter.

Sobald Modelle produktiv eingesetzt und regelmäßig aktualisiert werden müssen, entsteht Komplexität – unabhängig von der Teamgröße. ML Ops stellt sicher, dass KI zuverlässig entlastet, aktuell bleibt und nicht durch manuelle Eingriffe oder Datenänderungen an Qualität verliert.

Modellversionen werden in ML Ops systematisch verwaltet und eindeutig gekennzeichnet. Jede Version enthält nachvollziehbare Metadaten zu Trainingsdaten, Parametern, Code-Stand und Qualitätskennzahlen. So ist jederzeit klar, welche Version produktiv ist und wie sie entstanden ist.

Neue Versionen werden getestet und kontrolliert freigegeben, bevor sie in den Live-Betrieb gehen. Bei Bedarf kann gezielt auf eine frühere stabile Version zurückgesetzt werden. Dadurch bleibt der Einsatz transparent, reproduzierbar und steuerbar.

Reproduzierbarkeit im ML-Ops-Kontext bedeutet, dass ein KI-Trainingslauf jederzeit unter denselben Bedingungen erneut ausgeführt werden kann und zum gleichen Ergebnis führt. Dazu werden Trainingsdaten, Code-Versionen, Modellparameter und Konfigurationen eindeutig festgehalten.

So lässt sich nachvollziehen, wie ein Modell entstanden ist, warum es eine bestimmte Leistung erreicht hat und welche Änderungen welche Auswirkungen hatten. Reproduzierbarkeit schafft technische Transparenz und ist die Grundlage für Qualitätssicherung, Governance und regulatorische Anforderungen.

Neue Modellversionen werden in ML Ops nicht direkt live geschaltet, sondern durchlaufen einen klar definierten Freigabeprozess. Zunächst werden sie technisch geprüft, etwa anhand von Leistungskennzahlen und Vergleichstests mit der aktuellen Produktivversion.

Zusätzlich werden gezielte Testfälle durchlaufen, bei denen das Modell definierte Eingaben erhält und die Ergebnisse mit zuvor festgelegten Erwartungswerten verglichen werden. So wird überprüft, ob das Modell fachlich korrekt reagiert und sich wie vorgesehen verhält. 

Erst wenn diese Prüfungen bestanden sind, wird die neue Version kontrolliert freigegeben und ausgerollt.

Canary Deployments sind eine kontrollierte Form der Einführung neuer Modellversionen. Statt ein neues KI-Modell sofort für alle Anfragen zu aktivieren, wird es zunächst nur für einen kleinen Teil des Traffics eingesetzt.

So kann im realen Betrieb beobachtet werden, wie sich die neue Version im Vergleich zur bisherigen verhält. Leistungskennzahlen, Fehlerraten oder fachliche Ergebnisse werden dabei eng überwacht. Wenn die neue Version stabil läuft, wird ihr Anteil schrittweise erhöht. Treten Probleme auf, kann sofort zur vorherigen Version zurückgekehrt werden.

Drift Detection wird umgesetzt, indem die aktuellen Eingabedaten und Modellvorhersagen kontinuierlich mit den Daten aus dem Training verglichen werden. Dabei wird geprüft, ob sich Verteilungen, Wertebereiche oder Muster deutlich verändern.

Typisch sind statistische Tests oder Schwellenwerte, die Abweichungen automatisch erkennen und melden. Wird eine relevante Veränderung festgestellt, kann ein Retraining angestoßen oder eine genauere Analyse durchgeführt werden. So wird verhindert, dass das Modell schleichend an Qualität verliert.

Ein Modell sollte neu trainiert werden, wenn sich die Realität ändert, die es abbildet – etwa durch neue Kundenverhalten, Preisstrukturen, Produkte oder externe Rahmenbedingungen. Auch deutlich veränderte Datenverteilungen oder ein messbarer Leistungsabfall sind klare Hinweise auf notwendigen Retraining-Bedarf.

ML Ops verhindert stille Modellverschlechterung, indem Eingabedaten und Vorhersagequalität kontinuierlich überwacht werden. Abweichungen werden automatisch erkannt, dokumentiert und können definierte Prozesse auslösen, etwa eine erneute Trainingspipeline. So bleibt das Modell fachlich aktuell und verliert nicht unbemerkt an Wirkung.

ML Ops unterstützt die technische Umsetzung mehrerer konkreter Pflichten aus dem EU AI Act, insbesondere für Hochrisiko-Systeme.

Durch durchgängige Versionierung von Daten, Code und Modellständen entsteht eine vollständige Nachvollziehbarkeit des gesamten Lebenszyklus. Diese End-to-End-Traceability unterstützt die Anforderungen an die technische Dokumentation gemäß Art. 11 AI Act (Technische Dokumentation) sowie das geforderte Risikomanagement nach Art. 9 (Risikomanagement-System) und das Qualitätsmanagement-System nach Art. 17.

ML Ops implementiert außerdem automatische Logging-Mechanismen im Betrieb. Modellversionen, Konfigurationen, Releases und relevante Ereignisse werden systematisch protokolliert. Damit werden die Record-Keeping-Pflichten aus Art. 12 AI Act (Aufzeichnungspflichten) technisch operationalisiert, der ausdrücklich eine automatische Aufzeichnung von Ereignissen zur nachträglichen Nachvollziehbarkeit verlangt.

Freigabeprozesse und kontrollierte Releases unterstützen die Anforderungen an Human Oversight gemäß Art. 14 AI Act (Überwachung durch Menschen). Neue Versionen durchlaufen definierte Tests und Prüfungen, bevor sie produktiv gehen. Diese Freigaben und manuellen Review-Schritte implementieren „Human-in-the-Loop“-Mechanismen im Sinne von Art. 14.

Durch kontinuierliches Monitoring von Performance, Drift und Fehlverhalten wird die laufende Risikoüberwachung gemäß Art. 72 AI Act (Post-Market-Monitoring) unterstützt. Der hierfür notwendige Post-Market-Monitoring-Plan ist zugleich Bestandteil der technischen Dokumentation nach Art. 11. Transparenzmechanismen zahlen zudem auf die Informationspflichten nach Art. 13 (Transparenz und Bereitstellung von Informationen für Nutzer) ein.

Ja, ML Ops kann langfristig Betriebskosten reduzieren – vor allem durch Automatisierung und Standardisierung.

Ohne ML Ops entstehen häufig manuelle Deployments, wiederkehrende Fehleranalysen, unklare Modellversionen und hoher Abstimmungsaufwand zwischen Teams. Diese versteckten Aufwände summieren sich im laufenden Betrieb.

ML Ops automatisiert Trainingsprozesse, Releases, Tests und Monitoring. Probleme werden früher erkannt, Rollbacks sind kontrolliert möglich und wiederkehrende Aufgaben werden nicht jedes Mal neu gelöst. Dadurch sinkt der manuelle Aufwand, Ausfallzeiten werden reduziert und die Weiterentwicklung wird planbarer.

Ja, ML Ops kann technisch vollständig OnPrem betrieben werden. Viele Unternehmen, insbesondere in regulierten Branchen, setzen bewusst auf eine eigene Infrastruktur.

Alle zentralen Bausteine von ML Ops wie Orchestrierung, Feature Store, Experiment Tracking, Model Registry, CI/CD und Monitoring lassen sich im eigenen Rechenzentrum umsetzen. Daten verlassen dabei nicht das eigene Netzwerk und Sicherheitsmaßnahmen können vollständig selbst kontrolliert werden.

OnPrem bietet damit Vorteile bei Datenschutz, Informationssicherheit und technologischer Souveränität. Gleichzeitig steigt der organisatorische Aufwand, da Skalierung, Hardware-Management etwa für GPU-Cluster, Wartung der Plattform und Integration in bestehende IT-Landschaften intern verantwortet werden müssen.

Kurz gesagt: Vollständiges OnPrem ML Ops ist möglich, erfordert jedoch eine eigene stabile Plattform und klare interne Betriebsverantwortung.

ML Ops lässt sich klar in fünf Reifegrade einteilen, die den technischen Entwicklungsstand eines Unternehmens im Umgang mit produktiven ML-Systemen beschreiben.

  • Level 0 – Kein ML Ops
    Modelle entstehen isoliert in Notebooks. Datenverarbeitung, Training und Deployment erfolgen manuell und sind nicht reproduzierbar.
  • Level 1 – DevOps ohne ML Ops
    Applikationscode folgt DevOps-Prinzipien, ML-Modelle jedoch nicht. Training, Versionierung und Deployment sind nicht automatisiert und laufen getrennt vom restlichen System.
  • Level 2 – Automatisiertes Training
    Daten- und Trainingspipelines sind automatisiert und reproduzierbar. Experiment Tracking und Versionierung sind etabliert, Deployments erfolgen noch teilweise manuell.
  • Level 3 – Automatisiertes Deployment
    Modelle werden über CI/CD-Prozesse getestet und kontrolliert in Staging und Produktion ausgerollt. Model Registry, Feature Store, Monitoring und Governance sind integriert.
  • Level 4 – Continuous Learning
    Modelle werden auf Basis von Monitoring-Signalen wie Performance oder Drift automatisch neu trainiert und kontrolliert ausgerollt. Der gesamte Lifecycle ist automatisiert, versioniert und reproduzierbar.

Seit 2017 setzt PLAN D produktive Machine-Learning-Systeme unter realen Bedingungen um. Diese Projekte entstehen nicht im Labor, sondern in Unternehmen mit hohen Anforderungen an Integration, Sicherheit und regulatorische Nachvollziehbarkeit. Diese Erfahrung fließt direkt in den Aufbau Ihrer ML-Ops-Infrastruktur ein.

Machine Learning Engineering, Software-Engineering und Plattformarchitektur greifen dabei ineinander. Der Anspruch ist klar: KI-Modelle müssen präzise arbeiten, wirtschaftlich sinnvoll sein und dauerhaft kontrollierbar bleiben. Genau diese Verbindung aus technischer Tiefe, regulatorischem Verständnis und wirtschaftlicher Perspektive macht PLAN D zum richtigen Partner für ML Ops.

Bereit wenn Sie es sind

Zukunft beginnt, wenn menschliche Intelligenz künstliche Intelligenz entwickelt. Der erste Schritt ist nur ein Klick.

Vertrieb kontaktieren
Jetzt bewerben

Zukunft beginnt, wenn menschliche Intelligenz künstliche Intelligenz entwickelt. Der erste Schritt ist nur ein Klick.