Einhaltung der EU-KI-Verordnung in Azure: ein praktischer Leitfaden für KI-Ingenieure (2026)

Dieser praktische Leitfaden bietet KI-Ingenieuren eine praxiserprobte Strategie zur Erfüllung der Anforderungen der EU-KI-Verordnung 2026 auf Azure. Lernen Sie, Hochrisikosysteme zu klassifizieren, Azure AI content safety zu implementieren, Annex IV-Dokumentation mit Azure ML zu generieren und Governance mit Azure Policy durchzusetzen.

Einhaltung der EU-KI-Verordnung in Azure: ein praktischer Leitfaden für KI-Ingenieure (2026)
TL;DR

Dieser praktische Leitfaden bietet KI-Ingenieuren eine praxiserprobte Strategie zur Erfüllung der Anforderungen der EU-KI-Verordnung 2026 auf Azure. Lernen Sie, Hochrisikosysteme zu klassifizieren, Azure AI content safety zu implementieren, Annex IV-Dokumentation mit Azure ML zu generieren und Governance mit Azure Policy durchzusetzen.

Bevor Sie beginnen: einrichtung ihrer compliance-umgebung

Als Architekt habe ich das Chaos gesehen, das neue Vorschriften verursachen können. Die EU-KI-Verordnung ist da nicht anders. Da die Hauptverpflichtungen für Hochrisikosysteme am 2. August 2026 in Kraft treten, wechseln die Engineering-Teams von theoretischen Diskussionen zur praktischen Umsetzung. Wenn Sie KI auf Azure bereitstellen, ist dies nicht nur ein rechtlicher Haken; es ist eine technische Herausforderung, die die richtigen Tools und eine klare Strategie erfordert.

Mein Ziel hier ist es, Ihnen diese Strategie zu vermitteln – einen praxiserprobten Leitfaden, wie Sie die nativen Dienste von Azure nutzen können, um die Kernanforderungen der EU-KI-Verordnung zu erfüllen. Wir werden keine Gesetzestexte lesen. Stattdessen übersetzen wir die kritischsten Artikel der Verordnung für Hochrisikosysteme in konkrete Maßnahmen, die Sie heute mit Azure AI, Azure machine learning und Azure policy ergreifen können. Dies ist die Blaupause, die ich meinen eigenen Kunden gebe, um konforme KI-Systeme von Grund auf zu bauen, nicht aus Versehen.

Um mitmachen zu können, benötigen Sie eine Umgebung, die für die Azure-Entwicklung bereit ist. Wir gehen davon aus, dass Sie mit der Azure CLI und der grundlegenden Ressourcenverwaltung vertraut sind. Hier ist die Checkliste:

  1. Azure-Abonnement: Sie benötigen ein aktives Abonnement, in dem Sie contributor- oder owner-Berechtigungen haben. Dadurch können Sie die erforderlichen KI-Dienste erstellen und Governance-Richtlinien zuweisen.
  2. Azure CLI: Stellen Sie sicher, dass die Azure CLI (Version 2.50.0 oder höher) installiert ist. Sie authentifizieren sich mit az login bei Ihrem Konto.
  3. Python-Umgebung: Ich verwende Python 3.12 für diese Arbeit. Sie müssen auch die Azure SDKs für content safety und machine learning installieren.
  4. Ressourcengruppe: Wir werden alle Ressourcen in einer dedizierten Ressourcengruppe bereitstellen, um die Dinge übersichtlich zu halten. Ich verwende die Region westeurope für alle Beispiele, da dies gängige Praxis für meine EU-basierten Projekte ist.

Lassen Sie uns die Einrichtung erledigen. Öffnen Sie Ihr Terminal und führen Sie diese Befehle aus:

az login

az group create --name rg-euai-compliance-westeurope --location westeurope

pip install azure-ai-contentsafety
pip install azure-ai-ml==1.20.0
pip install azure-identity

Diese Befehle melden Sie an, erstellen unsere Ressourcengruppe und installieren die notwendigen Python-Bibliotheken. Ich habe die azure-ai-ml-Bibliothek an eine aktuelle stabile Version geheftet, um sicherzustellen, dass unsere Beispiele reproduzierbar sind.

**Sie bauen auf foundry statt klassischem azure ML? verwenden sie aiprojectclient für projektressourcen und -bereitstellungen; behalten sie mlclient für arbeitsbereichsmodelle und das rai-dashboard in azure machine learning bei.

Schritt 1: klassifizieren sie ihr system – sind sie „hochriskant“?

Der erste und kritischste Schritt ist die Klassifizierung. Die EU-KI-Verordnung ist keine Einheitslösung; ihre Verpflichtungen skalieren mit dem Risiko. Bevor Sie eine einzige Zeile Compliance-Code schreiben, müssen Sie feststellen, ob Ihr KI-System in die Kategorie „hochriskant“ fällt.

Ab dem Inkrafttreten 2026 gilt ein KI-System im Allgemeinen als hochriskant, wenn es in den in Anhang III aufgeführten Sektoren eingesetzt wird, wie zum Beispiel:

  • Kritische Infrastruktur: Systeme zur Steuerung von Wasser-, Gas- oder Stromnetzen.
  • Beschäftigung & Mitarbeiterführung: KI, die zum Sortieren von Lebensläufen, zur Leistungsbeurteilung oder bei Beförderungsentscheidungen eingesetzt wird.
  • Wesentliche Dienste: Kredit-Scoring-Modelle oder Systeme, die die Berechtigung für öffentliche Leistungen bestimmen.
  • Strafverfolgung: KI für die Risikobewertung oder polygraph-ähnliche Analyse.
  • Migration und Grenzkontrolle: Systeme zur Bewertung des Sicherheitsrisikos einer Person.

Wenn Ihre Azure-basierte Anwendung eine dieser Funktionen für Benutzer in der EU ausführt, ist sie mit ziemlicher Sicherheit hochriskant. Diese Klassifizierung löst eine Kaskade von Anforderungen gemäß der Verordnung aus, einschließlich eines robusten Risikomanagements (Artikel 9), Daten-Governance (Artikel 10), Transparenz (Artikel 13) und menschlicher Aufsicht (Artikel 14).

AI 103 prüfungstipp: die prüfung testet ihre fähigkeit, ein KI-system anhand eines szenarios zu klassifizieren. Merken sie sich die vier risikostufen (inakzeptabel, hoch, begrenzt, minimal) und können sie mindestens drei beispiele für hochrisikosysteme aus anhang III identifizieren.

Schritt 2: verbotene praktiken mit Azure AI content safety blockieren

Die EU-KI-Verordnung verbietet ausdrücklich bestimmte „inakzeptable Risiko“-KI-Praktiken. Dazu gehören Systeme, die für die soziale Bewertung durch Behörden entwickelt wurden oder die unterschwellige Techniken verwenden, um Verhalten zu manipulieren und Schaden anzurichten. Während die meisten Organisationen nicht beabsichtigen, solche Systeme zu bauen, können generative KI-Prompts unbeabsichtigt dazu führen, dass Modelle Ausgaben erzeugen, die an diese verbotenen Verwendungszwecke grenzen.

Hier setze ich Azure AI content safety ein. Es ist eine praktische, API-gesteuerte Methode, um eine erste Verteidigungslinie aufzubauen. Wir können es verwenden, um sowohl Benutzer-Prompts als auch Modellantworten gegen integrierte Schadenskategorien und, was noch wichtiger ist, gegen benutzerdefinierte Blocklisten zu scannen, die auf die Sprache der EU-KI-Verordnung zugeschnitten sind.

Zuerst stellen wir eine content safety-Ressource bereit:

az cognitiveservices account create \
    --name eu-ai-content-safety-westeurope \
    --resource-group rg-euai-compliance-westeurope \
    --kind ContentSafety \
    --sku S0 \
    --location westeurope \
    --yes

Als Nächstes benötigen wir den Endpunkt und den API-Schlüssel. Führen Sie diese Befehle aus, um sie als Umgebungsvariablen zu exportieren:

export CONTENT_SAFETY_ENDPOINT=$(az cognitiveservices account show --name eu-ai-content-safety-westeurope --resource-group rg-euai-compliance-westeurope --query properties.endpoint -o tsv)
export CONTENT_SAFETY_KEY=$(az cognitiveservices account keys list --name eu-ai-content-safety-westeurope --resource-group rg-euai-compliance-westeurope --query key1 -o tsv)

Bevor Sie das Python-Skript ausführen, müssen Sie im Azure Portal zu Ihrer neuen Ressource eu-ai-content-safety-westeurope navigieren und eine Textblockliste mit dem Namen eu-ai-prohibited erstellen. Fügen Sie darin Begriffe hinzu, die sich auf verbotene Praktiken beziehen, wie social credit score, citizen rating und manipulate behavior. Dies ist ein entscheidender manueller Schritt.

Hier ist nun ein Python-Skript (check_prompt.py), das das SDK verwendet, um Prompts mit unserer benutzerdefinierten Liste zu überprüfen.

# check_prompt.py
import os
from azure.ai.contentsafety import ContentSafetyClient
from azure.core.credentials import AzureKeyCredential
from azure.ai.contentsafety.models import AnalyzeTextOptions
from azure.core.exceptions import HttpResponseError

def analyze_prompt_for_prohibited_content(prompt_text):
    """
    Analyzes a given text prompt against Azure AI Content Safety rules and a custom blocklist.
    """
    try:
        key = os.environ.get("CONTENT_SAFETY_KEY")
        endpoint = os.environ.get("CONTENT_SAFETY_ENDPOINT")

        if not key or not endpoint:
            print("Error: CONTENT_SAFETY_KEY and CONTENT_SAFETY_ENDPOINT environment variables must be set.")
            return

        client = ContentSafetyClient(endpoint, AzureKeyCredential(key))

        request = AnalyzeTextOptions(
            text=prompt_text,
            blocklist_names=["eu-ai-prohibited"],
            halt_on_blocklist_hit=False
        )

        print(f"--- Analyzing prompt: '{prompt_text}' ---")
        response = client.analyze_text(request)

        if response.blocklists_match:
            print("\n[!] Prohibited Content Detected (Blocklist Match):")
            for match in response.blocklists_match:
                print(f"  - Blocklist: '{match.blocklist_name}', Matched Text: '{match.blocklist_item_text}'")
        else:
            print("\n[-] No custom blocklist matches found.")

        print("\n[i] Built-in Harm Category Analysis:")
        for category_analysis in response.categories_analysis:
            print(f"  - Category: {category_analysis.category}, Severity: {category_analysis.severity}")

        print("--- Analyse abgeschlossen ---")

    except HttpResponseError as e:
        print("\nAnalyze text failed:")
        if e.error:
            print(f"Error code: {e.error.code}, Message: {e.error.message}")
        raise
    except Exception as e:
        print(f"An unexpected error occurred: {e}")

if __name__ == "__main__":
    prohibited_prompt = "Generate a user profile assessment based on their online activity to calculate their citizen rating."
    analyze_prompt_for_prohibited_content(prohibited_prompt)

    print("\n" + "="*50 + "\n")

    benign_prompt = "Write a short story about a trip to the mountains."
    analyze_prompt_for_prohibited_content(benign_prompt)

Führen Sie es mit python check_prompt.py aus. Die Ausgabe zeigt deutlich, dass unser erster Prompt markiert wird, da er citizen rating aus unserer benutzerdefinierten Blockliste enthielt. Dies ist ein einfacher, aber leistungsstarker Mechanismus zur Durchsetzung von Leitplanken auf Anwendungsebene.

Schritt 3: zuordnung des Microsoft RAI-standards zu artikeln der EU-KI-verordnung

Microsoft hat nicht erst mit Verabschiedung der EU-KI-Verordnung über verantwortungsvolle KI nachgedacht. Ihr Responsible AI (RAI) Standard v2 bietet einen ausgereiften Rahmen, der sich meiner Erfahrung nach überraschend gut auf die technischen Anforderungen der Verordnung abbilden lässt. Der Schlüssel liegt darin, zu wissen, welcher Azure-Dienst welches Prinzip implementiert.

Hier ist, wie ich die Kernartikel für Hochrisikosysteme auf Azure-Tools abbilde:

  • Artikel 9 (Risikomanagement): Dies erfordert einen kontinuierlichen Risikomanagementprozess. Das Microsoft RAI-Prinzip der Verantwortlichkeit stimmt hier überein. Ihr Tool: Das Responsible AI Dashboard in Azure machine learning. Insbesondere die Fehleranalysekomponente hilft Ihnen, Kohorten zu identifizieren und zu verstehen, in denen Ihr Modell versagt, was eine primäre Eingabe für Ihre Risikomanagementdokumentation ist.

  • Artikel 10 (Daten & Datengovernance): Dies erfordert qualitativ hochwertige Trainingsdaten, die frei von Verzerrungen sind. Dies entspricht dem RAI-Prinzip der Fairness. Ihre Tools: Wieder das RAI-Dashboard. Mit seiner Datenanalysefunktion können Sie Datensatzstatistiken untersuchen, um potenzielle Quellen von Verzerrungen aufzudecken. Für die Dokumentation der Datenherkunft und -provenienz – eine wichtige Governance-Anforderung – verlasse ich mich auf Azure purview, um meine Datenquellen automatisch zu scannen und zuzuordnen.

  • Artikel 13 (Transparenz): Ihre Benutzer müssen wissen, dass sie mit einer KI interagieren, und Hochrisikosysteme erfordern eine klare Dokumentation. Dies ist das RAI-Prinzip der Transparenz. Ihr Tool: Azure ML model cards. Eine Modellkarte ist das perfekte Mittel zur Erstellung der benutzerorientierten und technischen Dokumentation, die Art. 13 verlangt. Sie dient als zentrale, versionierte Heimat für den beabsichtigten Verwendungszweck, Einschränkungen und Leistungsmetriken eines Modells.

  • Artikel 17 (Aufzeichnungspflicht): Hochrisikosysteme müssen Ereignisse automatisch protokollieren, um die Rückverfolgbarkeit zu gewährleisten. Dies entspricht den RAI-Prinzipien der Zuverlässigkeit & Sicherheit. Ihr Tool: Azure monitor und application insights. Durch die Instrumentierung Ihrer Modellendpunkte, um Protokolle und Metriken an Azure monitor zu senden, erstellen Sie eine überprüfbare Spur jeder Vorhersage, die für die Überwachung nach der Bereitstellung und die Untersuchung von Vorfällen unerlässlich ist.

Schritt 4: technische dokumentation nach anhang IV mit Azure ML generieren

Für Hochrisikosysteme schreibt Anhang IV der Verordnung eine umfassende technische Dokumentation vor. Dies sind nicht nur API-Dokumente; es ist ein umfassendes Dossier, das die Architektur, Daten, Leistung und Risikominderung des KI-Systems abdeckt. Dies manuell zusammenzustellen ist ein Albtraum. Mein Ansatz ist es, so viel wie möglich aus den Tools zu automatisieren, die wir bereits in unserem MLOps-Workflow verwenden.

Ihre Azure ML model card ist die Grundlage. Sie können diese Karten programmgesteuert als Teil Ihrer CI/CD-Pipeline erstellen und aktualisieren. Hier ist ein konzeptionelles Beispiel für das Füllen einer Modellkarte mit Annex IV-relevanten Informationen mithilfe des Azure ML SDK für Python:

# Conceptual snippet for populating a model card
from azure.ai.ml import MLClient
from azure.ai.ml.entities import Model
from azure.identity import DefaultAzureCredential

# Assuming you have your MLClient configured
ml_client = MLClient(DefaultAzureCredential()) # NOTE: requires subscription_id, resource_group_name, and workspace_name

# Get a registered model
model_name = "credit-risk-predictor"
model_version = "1"
model = ml_client.models.get(model_name, version=model_version)

# Populate Annex IV-style properties in the model card
model.tags["eu_ai_act_intended_use"] = "To assist human loan officers in assessing credit default risk. Not for automated decision-making."
model.tags["eu_ai_act_human_oversight"] = "All model outputs are reviewed by a certified loan officer before a final decision is made."
model.properties["eu_ai_act_risk_mitigations"] = "Model fairness assessed via demographic parity; protected groups monitored for performance degradation."
model.properties["performance_metrics_fairness"] = "{'demographic_parity_difference': 0.05, 'equalized_odds_difference': 0.07}"

# Update the model in the registry with the new documentation
ml_client.models.create_or_update(model)

print(f"Modellkarte für {model_name}:{model_version} mit Anhang IV-Dokumentation aktualisiert.")

Zusätzlich zur Modellkarte können Sie das gesamte Responsible AI Dashboard als PDF exportieren. Ich weise meine Teams an, dieses PDF als Artefakt an den Build anzuhängen, der das Modell erstellt hat. Dies gibt Prüfern eine Momentaufnahme der Fairness, Erklärbarkeit und Fehleranalyse des Modells und erfüllt direkt die Anforderungen von Anhang IV an Test- und Validierungsergebnisse.

Behandeln sie die dokumentation nicht als nachträglichen einfall

Zu viele teams gelangen am ende eines projekts und versuchen dann, ihre compliance-dokumentation rückwärts zu entwickeln. Das funktioniert nie. Durch die integration von modellkartengenerierung und RAI-dashboard-exports in ihre MLOps-pipeline schaffen sie 'compliance as code'. Die dokumentation wird zu einem versionierten, wiederholbaren ergebnis ihres entwicklungsprozesses, nicht zu einer hektischen, last-minute-aufgabe.

Schritt 5: durchsetzung kontinuierlicher governance mit Azure policy

Schließlich ist Compliance keine einmalige Einrichtung; es ist ein Zustand, den Sie aufrechterhalten müssen. Hier wird Azure policy zu Ihrem wertvollsten Verbündeten. Policy ermöglicht es Ihnen, Leitplanken über Ihre Azure-Abonnements hinweg durchzusetzen und nicht konforme Konfigurationen zu verhindern, bevor sie auftreten.

Für die KI-Governance bietet Microsoft mehrere integrierte Richtlinieninitiativen. Mein Ausgangspunkt für jedes neue KI-Projekt ist die Initiative Azure machine learning-arbeitsbereiche mit best practices konfigurieren. Sie bündelt mehrere wichtige Richtlinien, darunter:

  • Azure machine learning compute-instanzen sollten neu erstellt werden, um die neuesten software-updates zu erhalten. (Behebt die operationale Robustheit)
  • Azure machine learning-arbeitsbereiche sollten mit einem kundenverwalteten Schlüssel verschlüsselt werden. (Verbessert die Datensicherheit)
  • Azure machine learning-arbeitsbereiche sollten private links verwenden. (Isoliert Ihren Arbeitsbereich vom öffentlichen Internet)

Die Zuweisung dieser Initiative ist mit der Azure CLI unkompliziert. Sie wenden sie auf einen Abonnement- oder Ressourcengruppenbereich an.

# Get the ID for the initiative
INITIATIVE_ID="/providers/Microsoft.Authorization/policySetDefinitions/50a41d46-5290-4591-995b-0640a3407914"

# Get the scope (your resource group)
RG_SCOPE=$(az group show --name rg-euai-compliance-westeurope --query id --output tsv)

# Assign the policy initiative
az policy assignment create \
    --name "AML-Best-Practices-for-EU-AI-Act" \
    --display-name "Assign AML Best Practices for EU AI Act Compliance" \
    --scope $RG_SCOPE \
    --policy-set-definition $INITIATIVE_ID

Nach der Zuweisung beginnt Azure policy mit der Überprüfung Ihrer Ressourcen. Noch wichtiger ist, dass Richtlinien mit deployifnotexists- oder modify-Effekten nicht konforme Ressourcen automatisch beheben, wodurch Ihre Governance-Standards ohne manuelles Eingreifen durchgesetzt werden.

AI 103 prüfungstipp: für die prüfung ist es wichtig zu verstehen, dass azure policy das primäre werkzeug zur implementierung von governance-kontrollen in großem maßstab ist. Seien sie darauf vorbereitet, zu identifizieren, welche richtlinien dazu beitragen würden, die anforderungen der eu-KI-verordnung in bezug auf sicherheit, protokollierung und betriebliche widerstandsfähigkeit zu erfüllen.

Fazit

Die Navigation durch die EU-KI-Verordnung in Azure muss keine Übung in rechtlicher Mehrdeutigkeit sein. Indem wir die Artikel der Verordnung in einen klaren, vierstufigen Engineering-Prozess übersetzen – klassifizieren, filtern, dokumentieren und regieren – können wir einen praktischen und überprüfbaren Compliance-Rahmen aufbauen.

  1. Klassifizieren Sie Ihr KI-System, um festzustellen, ob es hochriskant ist. Dies bestimmt alles, was folgt.
  2. Filtern Sie Prompts und Antworten mit Azure AI content safety, um Leitplanken gegen verbotene Praktiken zu schaffen.
  3. Dokumentieren Sie alles programmatisch mit Azure ML model cards und RAI-Dashboard-Exports, um Anhang IV zu erfüllen.
  4. Regieren Sie Ihre Umgebung kontinuierlich mit Azure policy, um Sicherheits- und operative Best Practices durchzusetzen.

Meine Empfehlung ist, mit der Governance zu beginnen. Bevor Ihre Teams überhaupt mit der Entwicklung des nächsten Hochrisiko-KI-Systems beginnen, weisen Sie die relevanten Azure policy-Initiativen ihren Abonnements zu. Eine standardmäßig konforme Umgebung zu schaffen, ist weitaus effektiver, als Compliance nachträglich zu integrieren. Ihr erster umsetzbarer Schritt sollte darin bestehen, den Policy-Zuweisungsbefehl aus Schritt 5 für Ihre primäre KI-Entwicklungsressourcengruppe auszuführen und den anfänglichen Compliance-Bericht zu überprüfen. Dies gibt Ihnen eine sofortige Baseline, wo Sie stehen und was behoben werden muss.

Last updated:

This article was produced using an AI-assisted research and writing pipeline. Learn how we create content →