EU AI Act –
Vom Paragraphen zum Pull Request
EU AI Act –
Vom Paragraphen zum Pull Request

Regulierung die man abhaken kann
Genau hier setzt unser AI Act Crashkurs an. Er liefert Ihnen:
- Klarheit: Der EU AI Act wird verständlich, einordenbar und technisch greifbar – ohne juristische Theorie und ohne Missverständnisse.
- Übersetzung: Regulatorische Anforderungen werden konsequent in technische Denklogik, Fragestellungen und Handlungsfelder übersetzt.
- Struktur: Klare Frameworks, Checklisten und Entscheidungslogiken ersetzen Bauchgefühl und Einzelmeinungen.
- Befähigung: KI-Teams in die Lage versetzt, regulatorische Fragen selbstständig weiter zu bewerten.

Risikoklassen
GPAI
Open Source
Rollen
Daten
Transparenz & Nachweise
Monitoring
Human Oversight
Copyright
Legal happy. Devs auch.
Kompetenz belegen. Pflichten erfüllen.
Alle Teilnehmenden erhalten ein persönliches Zertifikat als Nachweis ihrer erworbenen KI-Kompetenz. Die KI Ideenwerkstatt vermittelt fundiertes, praxisnahes Wissen zu Funktionsweisen, Einsatzmöglichkeiten und Grenzen von KI im Unternehmenskontext.
Das Zertifikat dient als formaler Nachweis ausreichender KI-Kenntnisse bei Anbietenden und Betreibenden von KI-Systemen.

Von Interpretieren zu Implementieren
Wissen
Anforderungen
Daten
Dokumentation
Nachweise
Betrieb
Backlog
Stimmen unserer Kunden
Zwei Expertiesen, ready to merge


Informatiker, Experte für KI-Technologien und Strategien
Sebastian Bluhm hat jahrelange Erfahrung in der Leitung und Umsetzung komplexer Technologieprojekte – in mittelständischen Unternehmen wie in multinationalen Konzernen. Seine Arbeitsschwerpunkte zielen insbesondere auf die nachhaltige Entwicklung und Implementierung von KI-Produkten, IT-Architekturen und neuen Technologien.
- Mitglied des KI Bundesverbandes
- Certified Data Scientist Specialized in Deep Learning
- Best of Consulting Mittelstand 2021 Digitalisierung & KI, WirtschaftsWoche


Fachanwalt für IT-Recht
Fritz-Ulli Pieper berät nationale und internationale Mandant:innen im IT-, Telekommunikations- und Datenschutzrecht. Er verfügt über besondere Erfahrung zu Rechtsfragen der Digitalisierung und Künstlicher Intelligenz. Zudem berät er die öffentliche Hand bei großvolumigen IT- und Infrastrukturvorhaben.
- TOP Anwalt für IT-Recht, WirtschaftsWoche 2021, 2022
- Führender Anwalt im Datenschutzrecht, Kanzleimonitor (diruj) 2019-2022
- Hervorgehoben als Kernanwalt für Informationstechnologie und Digitalisierung, Legal 500 Germany 2021
FAQs
Ein Unternehmen bereitet sich auf den EU AI Act vor, indem es systematisch Klarheit schafft, bevor es um Umsetzung geht.
Konkret heißt das: Zuerst wird erfasst, welche KI-Systeme existieren oder geplant sind. Diese werden eingeordnet, um zu verstehen, welche überhaupt unter den EU AI Act fallen und wo erhöhte Anforderungen entstehen. Anschließend wird abgeleitet, welche technischen Mindestanforderungen relevant sind und welche Pflichten jetzt greifen – und welche noch nicht.
Erst danach werden die Anforderungen in konkrete Aufgaben übersetzt, priorisiert und ins Backlog überführt. So wird Regulierung vom abstrakten Risiko zu umsetzbarer Arbeit und blockiert weder Entwicklung noch Betrieb.
Für KI-Teams bedeutet der EU AI Act vor allem zusätzliche technische Pflichten im laufenden Entwicklungs- und Betriebsalltag – nicht neue Theorie.
Konkret müssen Teams verstehen, welche ihrer Systeme betroffen sind, wie sie eingeordnet werden und welche Mindestanforderungen technisch erfüllt werden müssen. Dazu gehören unter anderem Anforderungen an Datenherkunft und -dokumentation, Modell- und Systemdokumentation, Logging und Monitoring im Betrieb, Nachweise für Entscheidungen sowie klar definierte Formen menschlicher Kontrolle.
Der zentrale Unterschied zu bisher: Viele Dinge, die technisch ohnehin gemacht werden, müssen gezielt, nachvollziehbar und prüfbar umgesetzt werden. Für KI-Teams wird der EU AI Act damit zu einer Frage von Struktur, Priorisierung und sauberem Engineering – nicht zu einem reinen Rechtsthema.
Der Aufwand hängt stark vom konkreten KI-Anwendungsfall ab. Nicht jedes KI-System fällt unter die Regulierung, und nicht für jedes System gelten die gleichen Pflichten.
Je höher die Risikoklasse eines Systems ist, desto umfangreicher werden die Anforderungen. KI-Systeme in regulierten Bereichen oder höheren Risikoklassen erfordern deutlich mehr Nachweise, Dokumentation und organisatorische Maßnahmen als einfache oder unterstützende Anwendungen. Für andere Systeme ist der zusätzliche Aufwand entsprechend geringer.
Gleichzeitig gilt: Die Anforderungen des EU AI Acts zielen weniger auf neue Technik als auf Struktur, Nachvollziehbarkeit und saubere Einordnung. Der Aufwand entsteht vor allem dort, wo unklar ist, welche Pflichten konkret gelten und wie sie sinnvoll umgesetzt werden sollen.
Entscheidend ist daher nicht eine pauschale Bewertung, sondern eine präzise Einordnung pro Anwendungsfall: Was ist betroffen, welche Mindestanforderungen greifen – und wo besteht kein Handlungsbedarf. Genau hier setzt der AI Act Crashkurs an.
Der AI Act Crashkurs richtet sich an Unternehmen, die KI-Systeme entwickeln, betreiben oder produktiv einsetzen und jetzt klären müssen, was der EU AI Act konkret für ihre Technik und ihren Betrieb bedeutet.
Geeignet ist das Format insbesondere für KI-, Data- und Engineering-Teams, Tech Leads, Product Owner, CTO-nahe Rollen sowie Schnittstellen zu Legal und Compliance. Also für alle, die Verantwortung für KI-Systeme tragen und wissen müssen, was technisch umzusetzen ist und was warten kann.
Nicht gedacht ist der Crashkurs als reine Management- oder Theorieschulung. Er ist für Teams, die KI bauen, deployen und betreiben – und dafür eine klare, umsetzbare Einordnung der KI-Regulierung brauchen.
Der richtige Zeitpunkt für einen AI Act Crashkurs ist immer dann, wenn KI bereits existiert oder konkret geplant ist – und Unklarheit darüber besteht, was der EU AI Act dafür bedeutet.
Typische Auslöser sind:
- KI-Systeme sind produktiv oder kurz vor dem Go-live
- Neue KI-Anwendungsfälle werden entwickelt oder skaliert
- Fragen aus Legal, Compliance oder Management nehmen zu
- Entscheidungen werden aus Vorsicht vertagt oder blockiert
- Unklar ist, welche Mindestanforderungen jetzt umzusetzen sind
Kurz gesagt: Bevor Regulierung Entwicklung und Betrieb ausbremst – aber nachdem klar ist, dass KI ein reales, laufendes Thema im Unternehmen ist.
Der AI Act Crashkurs ist keine klassische Schulung, sondern ein Arbeitsformat für KI-Teams. Eine normale Schulung vermittelt Wissen über den EU AI Act. Der Crashkurs übersetzt Regulierung in konkrete Relevanz für Ihre KI-Systeme.
Der Unterschied in der Praxis:
- Keine Folienschlacht, sondern Einordnung realer KI-Anwendungen
- Keine Theorie, sondern Ableitung technischer Mindestanforderungen
- Keine pauschalen Aussagen, sondern klare Abgrenzung von Must-haves, Should-haves und Nice-to-haves
- Kein Zertifikat ohne Kontext, sondern Wissen, das direkt ins Backlog passt
Kurz gesagt: Schulungen erklären den EU AI Act. Der AI Act Crashkurs macht ihn handhabbar für Entwicklung und Betrieb von KI Systemen.
Ein KI-Team nimmt aus dem AI Act Crashkurs vor allem Klarheit und Arbeitsfähigkeit mit. Konkret bedeutet das:
- Eine saubere Einordnung, was der EU AI Act für die eigenen bestehenden und geplanten KI-Systeme bedeutet
- Klarheit, welche Anforderungen jetzt relevant sind und welche nicht
- Ein gemeinsames Verständnis, was technisch als „konform“ gilt
- Eine konkrete Liste technischer Mindestanforderungen für Daten, Modelle, Monitoring, Logs und Dokumentation
- Ableitbare To-dos als Grundlage für Tickets, Backlog und Priorisierung
- Sicherheit in der Kommunikation mit Legal, Compliance und Management
Kurz gesagt: Nach dem Crashkurs weiß das Team nicht nur, was der EU AI Act verlangt, sondern was konkret zu tun ist – und kann wieder am Produkt weiterarbeiten.
Der AI Act Crashkurs dauert einen Tag. Der Workshop ist bewusst kompakt gehalten und fokussiert sich auf das Wesentliche: klare Einordnung, konkrete Anforderungen und direkt ableitbare technische To-dos. Keine mehrtägige Schulung, keine Theorieblöcke – sondern ein konzentrierter Arbeitstag mit echtem Output für das KI-Team.
Teilnehmen sollten die Personen, die KI-Systeme fachlich, technisch oder organisatorisch verantworten und Entscheidungen vorbereiten oder umsetzen.
Typischerweise sind das:
- Leitungen von KI-, Data- oder ML-Teams
- Tech Leads, Engineering Leads und Product Owner mit KI-Bezug
- Rollen, die für Betrieb, Monitoring oder Qualitätssicherung verantwortlich sind
- Schnittstellen zu Legal, Compliance oder Datenschutz
Wichtig ist nicht juristische Vorbildung, sondern Umsetzungsnähe. Der größte Mehrwert entsteht, wenn Technik und die relevanten Governance-Rollen gemeinsam im Raum sind.
Auf Ihrer Seite ist keine umfangreiche Vorbereitung notwendig, aber ein gezielter Austausch im Vorfeld ist wichtig. Dazu gehört die Sammlung der relevanten KI-Use Cases, Modelle oder Systeme, die aktuell im Einsatz sind oder konkret geplant werden.
Zusätzlich führen wir vorbereitende Gespräche mit den zentralen Schlüsselpersonen aus KI-Team, Technik, Legal oder Compliance. In diesen Gesprächen klären wir Ausgangslage, Erwartungen und konkrete Fragestellungen. So stellen wir sicher, dass der AI Act Crashkurs exakt auf Ihre Organisation zugeschnitten ist und sich im Workshop vollständig auf die wirklich relevanten Themen konzentriert.
Die Partnerschaft mit Taylor Wessing bedeutet im AI Act Crashkurs, dass rechtliche Einordnung und technische Umsetzung von Beginn an gemeinsam erfolgen. Regulatorische Fragen werden nicht nachgelagert geprüft, sondern direkt im Kontext von KI-Systemen, Architektur und Betrieb geklärt.
Im Crashkurs bringt Fritz-Ulli Pieper, Salary Partner bei Taylor Wessing und Experte für KI-, IT- und Datenschutzrecht, die Kanzlei-Perspektive ein. Er ordnet die Anforderungen des EU AI Acts juristisch ein und übersetzt sie gemeinsam mit PLAN D in konkrete, technisch handhabbare Leitplanken.
Für Sie heißt das: Technik, Regulierung und rechtliche Verantwortung werden nicht getrennt diskutiert. KI-Teams erhalten eine juristische Einordnung, die direkt in technische To-dos, Backlogs und operative Entscheidungen übersetzt wird. Legal weiß, worauf es ankommt. Engineering weiß, was umzusetzen ist.
PLAN D verbindet technisches Verständnis, Umsetzungsnähe und regulatorische Einordnung in einem integrierten Ansatz. Maßstab ist nicht die Auslegung, sondern die Umsetzbarkeit.
Was uns unterscheidet:
- Technologie aus der Praxis: Wir sprechen die Sprache von Entwicklern, Data Scientists und KI-Teams, weil wir selbst aus der technischen Umsetzung kommen. Architektur, Daten, Modelle und Betrieb sind für uns tägliche Arbeit.
- Rechtlich mitgedacht: Durch die Partnerschaft mit Taylor Wessing werden regulatorische Fragen früh eingeordnet und fließen direkt in strategische und operative Entscheidungen ein.
- Erfahrung aus realen Projekten: Wir arbeiten seit Jahren an produktiven KI-Systemen – von der Entwicklung über den Betrieb bis zur Skalierung, im Mittelstand wie im Konzern.
- Ein Team, kein Baukasten: Sie arbeiten mit klar benannten Ansprechpartnern, die Verantwortung übernehmen – im Workshop und darüber hinaus.
Bereit wenn Sie es sind
Zukunft beginnt, wenn menschliche Intelligenz künstliche Intelligenz entwickelt. Der erste Schritt ist nur ein Klick.
Zukunft beginnt, wenn menschliche Intelligenz künstliche Intelligenz entwickelt. Der erste Schritt ist nur ein Klick.









