Zum Inhalt springen
HR & People Operations

Agent Governance HR - Warum der CHRO führen muss

Agent Governance ist kein IT-Thema. HR entscheidet über Regelwerke, Bias-Definition und Eskalationsschwellen. Der CHRO muss führen.

Theandra Moreira
Theandra Moreira
Head of Client Solutions 5 Min. Lesezeit

Der Betriebsrat fragt, und niemand aus HR kann antworten

Ein Unternehmen mit 1.200 Mitarbeitenden führt einen KI-Agenten für die Vorauswahl von Bewerbungen ein. Die IT hat das Projekt umgesetzt: Monitoring steht, Audit Trail läuft, Konfidenzwerte werden geloggt. Dann kommt der Betriebsrat zur Verhandlung über die KI-Betriebsvereinbarung und stellt drei Fragen: Ab welchem Konfidenzwert wird ein Mensch hinzugezogen? Welche Bewerbergruppen erhalten besonderen Schutz? Wer hat die Eskalationsschwellen definiert?

Die IT kann die technischen Parameter nennen. Aber die fachliche Begründung - warum diese Schwellenwerte, warum diese Gruppen, warum diese Eskalationspfade - kann niemand liefern. Weil niemand aus HR sie definiert hat.

Genau das passiert gerade in Hunderten deutschen Unternehmen. Laut Bitkom (2025) setzen 36 Prozent der Unternehmen ab 20 Beschäftigten KI ein, weitere 47 Prozent planen oder diskutieren den Einsatz. Gleichzeitig zeigt der SHRM State of AI in HR Report (2026): In 52 Prozent der Organisationen ist HR bei der KI-Strategie nicht direkt eingebunden. Die Governance-Regeln für KI-Agenten im Personalbereich werden von IT und Legal geschrieben - ohne den Fachbereich, der die fachlichen Konsequenzen tragen muss.

Auf einen Blick - Agent Governance für HR

  • Agent Governance definiert, welche Entscheidungen KI-Agenten treffen dürfen, wie Aktionen dokumentiert werden und wer Regelwerke freigibt. Nur HR kann die fachlichen Schwellenwerte setzen - die IT implementiert sie.
  • SHRM (2026): 52 % der Organisationen binden HR nicht direkt in die KI-Strategie ein. Governance bleibt bei IT und Legal - ohne fachliche Steuerung.
  • Gartner (2025): Nur 19 % der HR-Verantwortlichen setzten vor zwei Jahren KI ein - Mitte 2025 waren es bereits 61 %. Die Governance hinkt der Adoption hinterher.
  • Der EU AI Act stuft KI-Systeme für Beschäftigungsentscheidungen als Hochrisiko ein. Ab August 2026 gelten Pflichten zu menschlicher Aufsicht, Bias-Monitoring und Arbeitnehmerinformation.
  • Wer jetzt startet: KI-Nutzung inventarisieren, Governance-Ownership in HR verankern, Betriebsrat mit konkreter Entscheidungsmatrix einbinden - bevor der erste Agent produktiv geht.

IT baut Kontrollen - aber HR muss die Regeln definieren

Der Reflex ist verständlich: KI ist Technologie, also gehört Governance in die IT. Die IT kann Audit Trails implementieren, Konfidenzwerte messen, Rollout-Prozesse steuern. Was sie nicht kann: entscheiden, welche Regeln der Agent anwenden soll.

Bei einem KI-Agenten für HR-Prozesse sind das keine technischen Fragen. Das sind Fachfragen:

Governance-FrageWarum nur HR sie beantworten kann
Welche Entscheidungen darf der Agent autonom treffen?Erfordert Kenntnis von Arbeitsrecht, Tarifvertrag und betrieblicher Praxis
Ab welchem Risiko muss ein Mensch eingreifen?”Risiko” bei Vergütung bedeutet etwas anderes als “Risiko” im Recruiting
Was ist Bias bei Leistungsbeurteilungen?Statistische Abweichung allein sagt nichts - HR kennt den fachlichen Kontext
Welche Mitarbeitergruppen brauchen besonderen Schutz?Schwerbehinderte, Betriebsräte, Elternzeitler - das sind HR-Schutzklassen, keine Datenkategorien
Wer gibt Regeländerungen frei?Tarifvertragsänderungen und neue Betriebsvereinbarungen müssen fachlich bewertet werden

Der SHRM-Report (2026) zeigt das Problem in Zahlen: 37 Prozent der befragten HR-Verantwortlichen geben an, dass Legal und Compliance die KI-Governance führen. Nur bei einem einzigen Thema - Upskilling und Reskilling - war HR mit 28 Prozent annähernd federführend. Selbst dort lagen funktionsübergreifende Taskforces mit 29 Prozent knapp vorn.

Das Muster ist überall dasselbe: HR nutzt die Agenten, aber andere definieren die Spielregeln.

Ohne HR-Ownership entstehen drei konkrete Governance-Lücken

Wenn der CHRO Agent Governance an die IT delegiert, ist das kein theoretisches Risiko. Es produziert drei messbare Lücken:

Lücke 1: Eskalationsschwellen ohne fachliche Begründung. Die IT setzt Eskalationen nach technischen Metriken - Konfidenzwerte, Error Rates, Response Times. Ob eine Vergütungsentscheidung mit 87 Prozent Konfidenz automatisch durchlaufen darf oder ob bei bestimmten Gehaltsgruppen grundsätzlich ein Mensch prüfen muss - das kann kein Konfidenzwert beantworten. Das ist eine personalwirtschaftliche Entscheidung.

Lücke 2: Bias-Monitoring ohne Kontext. Eine statistische Abweichung von 3 Prozent bei der Genehmigung von Weiterbildungsanträgen - ist das ein Problem? Wenn die Abweichung zwischen Vollzeit und Teilzeit besteht und Teilzeitkräfte überwiegend Frauen sind: ja, möglicherweise. Wenn sie zwischen zwei Standorten besteht und einer ein anderes Weiterbildungsbudget hat: nein. Ohne HR-Expertise ist Bias-Monitoring eine Tabelle mit Zahlen, die niemand interpretieren kann.

Lücke 3: Regelwerke als technische Konfiguration. Wenn Tarifvertragsänderungen, neue Betriebsvereinbarungen oder geänderte Unternehmensrichtlinien als Config-Updates in der IT landen, fehlt die fachliche Validierung. Regeländerungen werden deployed, ohne dass jemand aus HR geprüft hat, ob die Umsetzung dem fachlichen Intent entspricht.

Der EU AI Act macht HR-Ownership zur Pflicht

Ab August 2026 gilt der EU AI Act vollständig - und er verschärft die Lage erheblich. KI-Systeme, die Beschäftigungsentscheidungen beeinflussen, werden als Hochrisiko-Systeme eingestuft (Annex III, Abschnitt 4). Das betrifft Recruiting, Beförderungen, Vergütung, Kündigungen, Leistungsbeurteilungen und Aufgabenverteilung.

Die Pflichten sind konkret:

Menschliche Aufsicht durch Personen mit “angemessener Kompetenz, Ausbildung und Autorität”. Das sind keine IT-Administratoren. Das sind HR-Fachleute, die den fachlichen Kontext der Entscheidungen verstehen.

Bias-Monitoring mit dokumentierten Metriken und Reaktionsprozessen. Wer die Metriken definiert, bestimmt, was als Bias gilt und was nicht. Wenn die IT diese Definition übernimmt, orientiert sie sich an statistischer Signifikanz - nicht an arbeitsrechtlicher Relevanz.

Information der Arbeitnehmer und ihrer Vertreter vor der Einführung. Im deutschen Kontext: Der Betriebsrat hat nach § 87 Abs. 1 Nr. 6 BetrVG Mitbestimmungsrechte bei technischen Einrichtungen, die geeignet sind, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen. Eine KI-Betriebsvereinbarung ist faktisch Pflicht - und der Betriebsrat erwartet fachliche Ansprechpartner, nicht IT-Projektleiter.

Gartner (2025) dokumentiert die Dynamik: Vor zwei Jahren implementierten 19 Prozent der HR-Verantwortlichen KI-Lösungen. Mitte 2025 waren es 61 Prozent. 92 Prozent pilotieren oder implementieren KI innerhalb ihrer Funktion. Die Governance muss mit dieser Geschwindigkeit Schritt halten.

Kostenloses eBook: KI in HR

EU AI Act Checkliste, Decision-Framework, Betriebsrats-Perspektive und Readiness-Assessment - das Governance-Handbuch für HR-Verantwortliche.

Jetzt kostenlos herunterladen

Fünf Governance-Aufgaben, die nur der CHRO übernehmen kann

Der CHRO muss Agent Governance nicht technisch umsetzen. Er muss die fachlichen Leitplanken setzen, die dann im Decision Layer implementiert werden - der Architektur, die jeden Prozess in Entscheidungsschritte zerlegt und für jeden Schritt definiert: Mensch, Regelwerk oder KI.

Regelwerk-Ownership. Tarifverträge, Betriebsvereinbarungen, interne Richtlinien - HR ist verantwortlich für die Richtigkeit und Aktualität der Regeln, die der Agent anwendet. Jede Änderung an diesen Regeln wird von HR freigegeben, nicht von der IT deployed.

Eskalationsmatrix. HR definiert die fachlichen Schwellenwerte: Welche Entscheidungstypen autonom, welche mit menschlicher Prüfung, welche manuell. Das ist keine technische Entscheidung über Konfidenzwerte - es ist eine Entscheidung über Risikotoleranz pro Entscheidungstyp.

Bias-Strategie. HR legt fest, welche Gruppen verglichen werden, was eine relevante Abweichung ist und welche Reaktionsprozesse greifen. Das Monitoring selbst implementiert die IT. Aber die Definition von “fair” ist eine HR-Aufgabe.

Betriebsratsarbeit. Die KI-Betriebsvereinbarung ist das zentrale Governance-Dokument im deutschen Kontext. HR führt die Verhandlung, definiert die Entscheidungsmatrix für den Betriebsrat und stellt sicher, dass dessen Anforderungen als Controls im System implementiert werden.

Governance-Reporting. HR erhält und interpretiert die Governance-Reports aus dem Auditor Portal. Nicht als technisches Monitoring, sondern als fachliche Qualitätssicherung: Arbeitet der Agent im Rahmen der vereinbarten Regeln?

Gosign baut die Governance-Infrastruktur für HR-Agenten - Decision Layer, Audit Trail, Betriebsrats-Templates - damit HR die fachliche Steuerung übernehmen kann, ohne selbst Systeme konfigurieren zu müssen. Mehr dazu: HR AI Agents

Wer jetzt nicht startet, verhandelt später unter Druck

Die Zeitlinie ist klar: Ab August 2026 gilt der EU AI Act vollständig. Wer bis dahin KI-Agenten in HR-Prozessen betreibt, braucht dokumentierte Governance - menschliche Aufsicht, Bias-Monitoring, Arbeitnehmerinformation. Wer das erst unter Zeitdruck aufbaut, verhandelt eine KI-Betriebsvereinbarung aus der Defensive.

Drei Schritte, die jetzt funktionieren:

Erstens: KI-Nutzung inventarisieren. ISACA (2024) zeigt, dass nur 15 Prozent der Organisationen eine formale KI-Policy haben - bei 70 Prozent, die KI am Arbeitsplatz nutzen. Die Lücke zwischen Nutzung und Governance ist in den meisten Unternehmen größer, als die Geschäftsführung annimmt.

Zweitens: Governance-Ownership formal in HR verankern. Nicht als Nebenprojekt, sondern als definierte Verantwortung im CHRO-Bereich. Die BCG-Studie Creating People Advantage (2026) zeigt: 65 Prozent der Führungskräfte sehen HR als Business Enabler - aber 51 Prozent nennen administrative Überlastung als Haupthindernis für strategischen Beitrag. Governance-Ownership ist genau der strategische Hebel, der HR aus der administrativen Rolle hebt.

Drittens: Betriebsrat mit konkreter Entscheidungsmatrix einbinden. Nicht mit einem 80-Seiten-Rahmenvertrag beginnen, sondern mit einer tabellarischen Übersicht: Diese Entscheidungen trifft der Agent. Diese prüft ein Mensch. Diese bleiben vollständig manuell. Damit hat der Betriebsrat eine Verhandlungsbasis, die er versteht.

Wer diese drei Schritte vor August 2026 abschließt, hat die Grundlage für eine KI-Betriebsvereinbarung, die der Betriebsrat unterschreiben kann - und eine Governance-Struktur, die den Anforderungen des EU AI Act standhält.

Bert Gogolin

Bert Gogolin

Geschäftsführer, Gosign

AI Governance Briefing

Enterprise AI, Regulierung und Infrastruktur - einmal im Monat, direkt von mir.

Kein Spam. Jederzeit abbestellbar. Datenschutzerklärung

Agent Governance HR CHRO Governance Decision Layer
Artikel teilen

Häufige Fragen

Was ist Agent Governance?

Agent Governance ist die Gesamtheit der Regeln, Kontrollen und Prozesse die sicherstellen, dass KI-Agenten in einem Unternehmen korrekt, nachvollziehbar und im Einklang mit Unternehmensrichtlinien und regulatorischen Anforderungen arbeiten.

Warum ist Agent Governance ein HR-Thema?

Weil HR die fachlichen Regeln definiert die der Agent anwendet: Wann wird eskaliert? Was ist ein Bias-Risiko? Welche Entscheidungen brauchen menschliche Prüfung? Diese Regeln kann nur HR definieren - nicht die IT.

Was passiert wenn der CHRO Agent Governance an die IT delegiert?

Die IT implementiert technische Governance ohne fachliche Steuerung. Eskalationsschwellen werden nach technischen Kriterien gesetzt, nicht nach fachlichen. Bias-Definitionen orientieren sich an statistischen Metriken, nicht an HR-Expertise.

Welcher Prozess soll Ihr erster Agent übernehmen?

Hinterlassen Sie Ihre E-Mail - Sie erhalten Ihren persönlichen Terminlink sofort.