EU AI Act –
Vom Paragraphen zum Pull Request

EU AI Act verständlich gemacht für KI Teams. Im Crashkurs übersetzen wir regulatorische Anforderungen in das, was jetzt wirklich zu tun ist. Mit Struktur, Checklisten und konkreten technischen To-dos für Ihre KI Systeme. Damit Regulierung ins Backlog passt.
AI Act Checkliste herunterladen
Unternehmen, die uns vertrauen
Unser Versprechen

Regulierung die man abhaken kann

Der EU AI Act ist da. Und er betrifft laufende Systeme, reale Architekturen und volle Backlogs. Unser Versprechen ist einfach: Wir machen Regulierung so klar, dass KI-Teams wissen, was zu tun ist, was warten kann – und was sie getrost ignorieren dürfen.

Genau hier setzt unser AI Act Crashkurs an. Er liefert Ihnen:

  • Klarheit: Der EU AI Act wird verständlich, einordenbar und technisch greifbar – ohne juristische Theorie und ohne Missverständnisse.
  • Übersetzung: Regulatorische Anforderungen werden konsequent in technische Denklogik, Fragestellungen und Handlungsfelder übersetzt.
  • Struktur: Klare Frameworks, Checklisten und Entscheidungslogiken ersetzen Bauchgefühl und Einzelmeinungen.
  • Befähigung: KI-Teams in die Lage versetzt, regulatorische Fragen selbstständig weiter zu bewerten.
AI Act jetzt abhaken
Workshopagenda

Was der AI Act tatsächlich von KI-Teams will

Der Gesetzestext ist lang, diese Agenda nicht. Sie bündelt genau die Themen, die KI-Teams brauchen, um regulatorische Anforderungen in konkrete Arbeit zu übersetzen. Und lässt Raum für genau die Fragen, die im Alltag wirklich auftauchen.
Bausteine des AI ACT Crashkurses

Risikoklassen

Wann KI als Hochrisiko gilt und wann Systemrisiken greifen

GPAI

General Purpose AI und die daraus resultierenden Pflichten

Open Source

Welche Pflichten entfallen und welche bleiben

Rollen

Wann aus Entwicklung, Betrieb oder Nutzung regulatorische Verantwortung entsteht

Daten

Anforderungen an Trainingsdaten, Qualität, Herkunft und Dokumentation

Transparenz & Nachweise

Welche Informationen Nutzer und Behörden erwarten

Monitoring

Welche Protokolle, Logs und Kontrollen der AI Act verlangt

Human Oversight

Wann menschliche Kontrolle verpflichtend ist

Copyright

Was ihr zum Urheberrecht offenlegen müsst
Jetzt Workshop terminieren
No items found.
No items found.
No items found.
No items found.
Ergebnis

Legal happy. Devs auch.

Regulatorische Fragen sind beantwortet und in Arbeit übersetzt. Keine Blocker mehr zwischen Legal und Engineering.

Durchblick

  • Klarheit, was der EU AI Act technisch verlangt
  • Sicherheit, welche KI erlaubt, eingeschränkt oder kritisch ist
  • Fähigkeit, eigene Systeme selbstständig einzuordnen

Backlog

  • Technische Mindestanforderungen für AI-Act-konformen Betrieb
  • Ableitbare To-dos für Tickets, Backlog und Priorisierung
  • Klare Vorgaben zu Logging, Monitoring und Dokumentation

Rechtssicherheit

  • Einordnung der Pflichten für bestehende und geplante Systeme
  • Klarheit, welche Pflichten jetzt greifen – und welche später
  • Liste konkreter Nachweise, die jetzt technisch zu erbringen sind
Nächsten Schritt klären
Ihr Zertifikat

Kompetenz belegen. Pflichten erfüllen.

Der EU AI Act macht KI-Kompetenz zu einer verbindlichen Anforderung. Artikel 4 verpflichtet Unternehmen dazu, sicherzustellen, dass Mitarbeitende und verantwortliche Personen über ausreichende KI-Kenntnisse verfügen.

Alle Teilnehmenden erhalten ein persönliches Zertifikat als Nachweis ihrer erworbenen KI-Kompetenz. Die KI Ideenwerkstatt vermittelt fundiertes, praxisnahes Wissen zu Funktionsweisen, Einsatzmöglichkeiten und Grenzen von KI im Unternehmenskontext.

Das Zertifikat dient als formaler Nachweis ausreichender KI-Kenntnisse bei Anbietenden und Betreibenden von KI-Systemen.

KI-Kompetenz belegen
Vorher & Nachher

Von Interpretieren zu Implementieren

Vorher Interpretationen und offene Fragen zur KI Regulierung. Danach klare Anforderungen, sauberes Handwerk mit klaren Schritten für Entwicklung und Betrieb.

Wissen

Unsicherheit, was KI-Regulierung konkret für Entwicklung und Betrieb bedeutet.
Klare Einordnung, was KI-Regulierung technisch verlangt und was nicht.

Anforderungen

Unklar, welche Pflichten gelten und wie dringend sie sind.
Klar getrennte Must-haves, Should-haves und Nice-to-haves.

Daten

Trainingsdaten wurden primär nach Modellperformance ausgewählt und optimiert.
Trainingsdaten erfüllen zusätzlich alle relevanten Anforderungen der KI-Regulierung.

Dokumentation

Dokumentation entsteht projektbezogen nach internen Anforderungen.
Dokumentation ist ebenfalls auf die Mindestanforderungen des AI Acts ausgerichtet.

Nachweise

Keine Klarheit, welche Nachweise erforderlich sind oder wann.
Konkrete Liste der Nachweise, die jetzt technisch zu erbringen sind.

Betrieb

Monitoring und Logs dienen Stabilität und Performance, nicht Nachweispflichten.
Klare Anforderungen für AI-Act-konformen Betrieb im Alltag.

Backlog

Regulierung bleibt abstrakt und blockiert Entscheidungen.
Konkrete To-dos als Grundlage für Tickets, Backlog und Priorisierung.
Jetzt ins Nachher wechseln
Vertrauen

Stimmen unserer Kunden

No items found.
Ihr Team

Zwei Expertiesen, ready to merge

Der AI Act Crashkurs verbindet Technik und Regulierung. In Partnerschaft mit Taylor Wessing übersetzen wir Anforderungen in umsetzbare technische Klarheit.
Sebastian Bluhm
Geschäftsführender Gesellschafter

Informatiker, Experte für KI-Technologien und Strategien

Sebastian Bluhm hat jahrelange Erfahrung in der Leitung und Umsetzung komplexer Technologieprojekte  – in mittelständischen Unternehmen wie in multinationalen Konzernen.  Seine Arbeitsschwerpunkte zielen insbesondere auf die nachhaltige Entwicklung und Implementierung von KI-Produkten, IT-Architekturen und neuen Technologien.

  • Mitglied des KI Bundesverbandes
  • Certified Data Scientist Specialized in Deep Learning
  • Best of Consulting Mittelstand 2021 Digitalisierung & KI, WirtschaftsWoche
Mehr erfahren
Fritz-Ulli Pieper, LL.M.
Salary Partner

Fachanwalt für IT-Recht

Fritz-Ulli Pieper berät nationale und internationale Mandant:innen im IT-, Telekommunikations- und Datenschutzrecht. Er verfügt über besondere Erfahrung zu Rechtsfragen der Digitalisierung und Künstlicher Intelligenz. Zudem berät er die öffentliche Hand bei großvolumigen IT- und Infrastrukturvorhaben.

  • TOP Anwalt für IT-Recht, WirtschaftsWoche 2021, 2022
  • Führender Anwalt im Datenschutzrecht, Kanzleimonitor (diruj) 2019-2022
  • Hervorgehoben als Kernanwalt für Informationstechnologie und Digitalisierung, Legal 500 Germany 2021
Mehr erfahren
Team kennenlernen
Cases

Passende Case Studies

PLAN D Logo

700 Mitglieder, eine KI

Wie ein Verband KI-Dokumentenmanagement für 700 Mitglieder bezahlbar machte

700+

Mitgliedsunternehmen mit Zugang zur KI-Suche
Learn more

Digitalstrategie für 1,2 Millionen Mitglieder

Digitalstrategie für ADAC Hansa: Wenn die Ankerleistung an Relevanz verliert

100%

Zustimmung von Soundingboard und Führungskreis
Learn more

360°-Kundensicht für den Vertrieb

360°-Kundensicht mit KI: Datengetriebener Vertrieb für 1,2 Millionen Kunden

2x

Verdopplung der Verkaufswahrscheinlichkeit
Learn more

Von KI-Zurückhaltung zur KI Roadmap

KI-Strategie für FinTech: Wie ein Scale-up eine investorenreife KI Roadmap entwickelt

2

intensive Tage KI Ideenwerkstatt
Learn more

Preisprognose in Sekunden

Von 10 Jahren Transaktionsdaten zur verbindlichen Preisprognose in Echtzeit

24h → 1 Sek.

Prozessbeschleunigung der Wertermittlung
Learn more
PLAN D Logo

Reparaturkosten in Sekunden

KI-Prognose von Reparaturkosten im Kfz-Schadenmanagement

93 %

schnellere Schadenregulierung
Learn more
PLAN D Logo

Datenstrategie statt Datensilos

Datenstrategie für die Finanzbranche: Von 50 Datenquellen zur KI-fähigen Lakehouse-Plattform

6 Monate

vom Assessment bis zur produktiven Plattform
Learn more
PLAN D Logo

50 Millionen Euro durch Daten

Einkaufsoptimierung in der Kfz-Versicherung

~50 Mio. €

Einsparung pro Jahr dank KI
Learn more

Fachwissen auf Knopfdruck

KI-Assistent im Kundenservice mit RAG-System

100

Tage Idee bis MVP
Learn more

Digitale Zukunft für die Energiewende

KI-gestützte Digitalstrategie: Wie ein Bundesunternehmen seine Prozesse modernisiert

7

Monate von Ist-Analyse bis Roadmap
Learn more
PLAN D Logo

KI kalkuliert Hagelschäden

Hagelschaden in Millisekunden kalkuliert: Wie KI Versicherungen bei der Massenregulierung entlastet

40.000+

abgewickelte Hagelschäden über das KI-System pro Jahr
Learn more
PLAN D Logo

Computer Vision im Schadenmanagement

KI-Bilderkennung im Kfz-Schadenmanagement: Schadenbewertung in Sekunden statt Tagen

93 %

Prognosegüte in der Bauteilserkennung, auf Gutachter-Niveau
Learn more

Mit Daten Leben retten

KI in der Medizin: Datenanalyse in der Notfallversorgung

1,3 Stunden

schnellere Behandlung pro Schlaganfall
Learn more

Remote Videobesichtigung von Kfz Schäden

Remote Videobesichtigung von Kfz Schäden einer Versicherungsnehmerin

100.000 Euro

Projektvolumen pro bono
Learn more

Omnikanal im Versicherungsvertrieb

Gemeinsam mehr erreichen: Omnikanal im Versicherungs-Vertrieb

Learn more

Fragen & Antworten

Ein Unternehmen bereitet sich auf den EU AI Act vor, indem es systematisch Klarheit schafft, bevor es um Umsetzung geht.

Konkret heißt das: Zuerst wird erfasst, welche KI-Systeme existieren oder geplant sind. Diese werden eingeordnet, um zu verstehen, welche überhaupt unter den EU AI Act fallen und wo erhöhte Anforderungen entstehen. Anschließend wird abgeleitet, welche technischen Mindestanforderungen relevant sind und welche Pflichten jetzt greifen – und welche noch nicht.

Erst danach werden die Anforderungen in konkrete Aufgaben übersetzt, priorisiert und ins Backlog überführt. So wird Regulierung vom abstrakten Risiko zu umsetzbarer Arbeit und blockiert weder Entwicklung noch Betrieb.

Für KI-Teams bedeutet der EU AI Act vor allem zusätzliche technische Pflichten im laufenden Entwicklungs- und Betriebsalltag – nicht neue Theorie.

Konkret müssen Teams verstehen, welche ihrer Systeme betroffen sind, wie sie eingeordnet werden und welche Mindestanforderungen technisch erfüllt werden müssen. Dazu gehören unter anderem Anforderungen an Datenherkunft und -dokumentation, Modell- und Systemdokumentation, Logging und Monitoring im Betrieb, Nachweise für Entscheidungen sowie klar definierte Formen menschlicher Kontrolle.

Der zentrale Unterschied zu bisher: Viele Dinge, die technisch ohnehin gemacht werden, müssen gezielt, nachvollziehbar und prüfbar umgesetzt werden. Für KI-Teams wird der EU AI Act damit zu einer Frage von Struktur, Priorisierung und sauberem Engineering – nicht zu einem reinen Rechtsthema.

Der Aufwand hängt stark vom konkreten KI-Anwendungsfall ab. Nicht jedes KI-System fällt unter die Regulierung, und nicht für jedes System gelten die gleichen Pflichten.

Je höher die Risikoklasse eines Systems ist, desto umfangreicher werden die Anforderungen. KI-Systeme in regulierten Bereichen oder höheren Risikoklassen erfordern deutlich mehr Nachweise, Dokumentation und organisatorische Maßnahmen als einfache oder unterstützende Anwendungen. Für andere Systeme ist der zusätzliche Aufwand entsprechend geringer.

Gleichzeitig gilt: Die Anforderungen des EU AI Acts zielen weniger auf neue Technik als auf Struktur, Nachvollziehbarkeit und saubere Einordnung. Der Aufwand entsteht vor allem dort, wo unklar ist, welche Pflichten konkret gelten und wie sie sinnvoll umgesetzt werden sollen.

Entscheidend ist daher nicht eine pauschale Bewertung, sondern eine präzise Einordnung pro Anwendungsfall: Was ist betroffen, welche Mindestanforderungen greifen – und wo besteht kein Handlungsbedarf. Genau hier setzt der AI Act Crashkurs an.

Der AI Act Crashkurs richtet sich an Unternehmen, die KI-Systeme entwickeln, betreiben oder produktiv einsetzen und jetzt klären müssen, was der EU AI Act konkret für ihre Technik und ihren Betrieb bedeutet.

Geeignet ist das Format insbesondere für KI-, Data- und Engineering-Teams, Tech Leads, Product Owner, CTO-nahe Rollen sowie Schnittstellen zu Legal und Compliance. Also für alle, die Verantwortung für KI-Systeme tragen und wissen müssen, was technisch umzusetzen ist und was warten kann.

Nicht gedacht ist der Crashkurs als reine Management- oder Theorieschulung. Er ist für Teams, die KI bauen, deployen und betreiben – und dafür eine klare, umsetzbare Einordnung der KI-Regulierung brauchen.

Der richtige Zeitpunkt für einen AI Act Crashkurs ist immer dann, wenn KI bereits existiert oder konkret geplant ist – und Unklarheit darüber besteht, was der EU AI Act dafür bedeutet.

Typische Auslöser sind:

  • KI-Systeme sind produktiv oder kurz vor dem Go-live
  • Neue KI-Anwendungsfälle werden entwickelt oder skaliert
  • Fragen aus Legal, Compliance oder Management nehmen zu
  • Entscheidungen werden aus Vorsicht vertagt oder blockiert
  • Unklar ist, welche Mindestanforderungen jetzt umzusetzen sind

Kurz gesagt: Bevor Regulierung Entwicklung und Betrieb ausbremst – aber nachdem klar ist, dass KI ein reales, laufendes Thema im Unternehmen ist.

Der AI Act Crashkurs ist keine klassische Schulung, sondern ein Arbeitsformat für KI-Teams. Eine normale Schulung vermittelt Wissen über den EU AI Act. Der Crashkurs übersetzt Regulierung in konkrete Relevanz für Ihre KI-Systeme.

Der Unterschied in der Praxis:

  • Keine Folienschlacht, sondern Einordnung realer KI-Anwendungen
  • Keine Theorie, sondern Ableitung technischer Mindestanforderungen
  • Keine pauschalen Aussagen, sondern klare Abgrenzung von Must-haves, Should-haves und Nice-to-haves
  • Kein Zertifikat ohne Kontext, sondern Wissen, das direkt ins Backlog passt

Kurz gesagt: Schulungen erklären den EU AI Act. Der AI Act Crashkurs macht ihn handhabbar für Entwicklung und Betrieb von KI Systemen.

Ein KI-Team nimmt aus dem AI Act Crashkurs vor allem Klarheit und Arbeitsfähigkeit mit. Konkret bedeutet das:

  • Eine saubere Einordnung, was der EU AI Act für die eigenen bestehenden und geplanten KI-Systeme bedeutet
  • Klarheit, welche Anforderungen jetzt relevant sind und welche nicht
  • Ein gemeinsames Verständnis, was technisch als „konform“ gilt
  • Eine konkrete Liste technischer Mindestanforderungen für Daten, Modelle, Monitoring, Logs und Dokumentation
  • Ableitbare To-dos als Grundlage für Tickets, Backlog und Priorisierung
  • Sicherheit in der Kommunikation mit Legal, Compliance und Management

Kurz gesagt: Nach dem Crashkurs weiß das Team nicht nur, was der EU AI Act verlangt, sondern was konkret zu tun ist – und kann wieder am Produkt weiterarbeiten.

Der AI Act Crashkurs dauert einen Tag. Der Workshop ist bewusst kompakt gehalten und fokussiert sich auf das Wesentliche: klare Einordnung, konkrete Anforderungen und direkt ableitbare technische To-dos. Keine mehrtägige Schulung, keine Theorieblöcke – sondern ein konzentrierter Arbeitstag mit echtem Output für das KI-Team.

Teilnehmen sollten die Personen, die KI-Systeme fachlich, technisch oder organisatorisch verantworten und Entscheidungen vorbereiten oder umsetzen.

Typischerweise sind das:

  • Leitungen von KI-, Data- oder ML-Teams
  • Tech Leads, Engineering Leads und Product Owner mit KI-Bezug
  • Rollen, die für Betrieb, Monitoring oder Qualitätssicherung verantwortlich sind
  • Schnittstellen zu Legal, Compliance oder Datenschutz

Wichtig ist nicht juristische Vorbildung, sondern Umsetzungsnähe. Der größte Mehrwert entsteht, wenn Technik und die relevanten Governance-Rollen gemeinsam im Raum sind.

Auf Ihrer Seite ist keine umfangreiche Vorbereitung notwendig, aber ein gezielter Austausch im Vorfeld ist wichtig. Dazu gehört die Sammlung der relevanten KI-Use Cases, Modelle oder Systeme, die aktuell im Einsatz sind oder konkret geplant werden.

Zusätzlich führen wir vorbereitende Gespräche mit den zentralen Schlüsselpersonen aus KI-Team, Technik, Legal oder Compliance. In diesen Gesprächen klären wir Ausgangslage, Erwartungen und konkrete Fragestellungen. So stellen wir sicher, dass der AI Act Crashkurs exakt auf Ihre Organisation zugeschnitten ist und sich im Workshop vollständig auf die wirklich relevanten Themen konzentriert.

Die Partnerschaft mit Taylor Wessing bedeutet im AI Act Crashkurs, dass rechtliche Einordnung und technische Umsetzung von Beginn an gemeinsam erfolgen. Regulatorische Fragen werden nicht nachgelagert geprüft, sondern direkt im Kontext von KI-Systemen, Architektur und Betrieb geklärt.

Im Crashkurs bringt Fritz-Ulli Pieper, Salary Partner bei Taylor Wessing und Experte für KI-, IT- und Datenschutzrecht, die Kanzlei-Perspektive ein. Er ordnet die Anforderungen des EU AI Acts juristisch ein und übersetzt sie gemeinsam mit PLAN D in konkrete, technisch handhabbare Leitplanken. 

Für Sie heißt das: Technik, Regulierung und rechtliche Verantwortung werden nicht getrennt diskutiert. KI-Teams erhalten eine juristische Einordnung, die direkt in technische To-dos, Backlogs und operative Entscheidungen übersetzt wird. Legal weiß, worauf es ankommt. Engineering weiß, was umzusetzen ist.

PLAN D verbindet technisches Verständnis, Umsetzungsnähe und regulatorische Einordnung in einem integrierten Ansatz. Maßstab ist nicht die Auslegung, sondern die Umsetzbarkeit.

Was uns unterscheidet:

  • Technologie aus der Praxis: Wir sprechen die Sprache von Entwicklern, Data Scientists und KI-Teams, weil wir selbst aus der technischen Umsetzung kommen. Architektur, Daten, Modelle und Betrieb sind für uns tägliche Arbeit.
  • Rechtlich mitgedacht: Durch die Partnerschaft mit Taylor Wessing werden regulatorische Fragen früh eingeordnet und fließen direkt in strategische und operative Entscheidungen ein.
  • Erfahrung aus realen Projekten: Wir arbeiten seit Jahren an produktiven KI-Systemen – von der Entwicklung über den Betrieb bis zur Skalierung, im Mittelstand wie im Konzern.
  • Ein Team, kein Baukasten: Sie arbeiten mit klar benannten Ansprechpartnern, die Verantwortung übernehmen – im Workshop und darüber hinaus.

Bereit wenn Sie es sind

Zukunft beginnt, wenn menschliche Intelligenz künstliche Intelligenz entwickelt. Der erste Schritt ist nur ein Klick.

Vertrieb kontaktieren
Jetzt bewerben

Zukunft beginnt, wenn menschliche Intelligenz künstliche Intelligenz entwickelt. Der erste Schritt ist nur ein Klick.