Agent Governance HR - Warum der CHRO führen muss
Agent Governance ist kein IT-Thema. HR entscheidet über Regelwerke, Bias-Definition und Eskalationsschwellen. Der CHRO muss führen.
Der Betriebsrat fragt, und niemand aus HR kann antworten
Ein Unternehmen mit 1.200 Mitarbeitenden führt einen KI-Agenten für die Vorauswahl von Bewerbungen ein. Die IT hat das Projekt umgesetzt: Monitoring steht, Audit Trail läuft, Konfidenzwerte werden geloggt. Dann kommt der Betriebsrat zur Verhandlung über die KI-Betriebsvereinbarung und stellt drei Fragen: Ab welchem Konfidenzwert wird ein Mensch hinzugezogen? Welche Bewerbergruppen erhalten besonderen Schutz? Wer hat die Eskalationsschwellen definiert?
Die IT kann die technischen Parameter nennen. Aber die fachliche Begründung - warum diese Schwellenwerte, warum diese Gruppen, warum diese Eskalationspfade - kann niemand liefern. Weil niemand aus HR sie definiert hat.
Genau das passiert gerade in Hunderten deutschen Unternehmen. Laut Bitkom (2025) setzen 36 Prozent der Unternehmen ab 20 Beschäftigten KI ein, weitere 47 Prozent planen oder diskutieren den Einsatz. Gleichzeitig zeigt der SHRM State of AI in HR Report (2026): In 52 Prozent der Organisationen ist HR bei der KI-Strategie nicht direkt eingebunden. Die Governance-Regeln für KI-Agenten im Personalbereich werden von IT und Legal geschrieben - ohne den Fachbereich, der die fachlichen Konsequenzen tragen muss.
Auf einen Blick - Agent Governance für HR
- Agent Governance definiert, welche Entscheidungen KI-Agenten treffen dürfen, wie Aktionen dokumentiert werden und wer Regelwerke freigibt. Nur HR kann die fachlichen Schwellenwerte setzen - die IT implementiert sie.
- SHRM (2026): 52 % der Organisationen binden HR nicht direkt in die KI-Strategie ein. Governance bleibt bei IT und Legal - ohne fachliche Steuerung.
- Gartner (2025): Nur 19 % der HR-Verantwortlichen setzten vor zwei Jahren KI ein - Mitte 2025 waren es bereits 61 %. Die Governance hinkt der Adoption hinterher.
- Der EU AI Act stuft KI-Systeme für Beschäftigungsentscheidungen als Hochrisiko ein. Ab August 2026 gelten Pflichten zu menschlicher Aufsicht, Bias-Monitoring und Arbeitnehmerinformation.
- Wer jetzt startet: KI-Nutzung inventarisieren, Governance-Ownership in HR verankern, Betriebsrat mit konkreter Entscheidungsmatrix einbinden - bevor der erste Agent produktiv geht.
IT baut Kontrollen - aber HR muss die Regeln definieren
Der Reflex ist verständlich: KI ist Technologie, also gehört Governance in die IT. Die IT kann Audit Trails implementieren, Konfidenzwerte messen, Rollout-Prozesse steuern. Was sie nicht kann: entscheiden, welche Regeln der Agent anwenden soll.
Bei einem KI-Agenten für HR-Prozesse sind das keine technischen Fragen. Das sind Fachfragen:
| Governance-Frage | Warum nur HR sie beantworten kann |
|---|---|
| Welche Entscheidungen darf der Agent autonom treffen? | Erfordert Kenntnis von Arbeitsrecht, Tarifvertrag und betrieblicher Praxis |
| Ab welchem Risiko muss ein Mensch eingreifen? | ”Risiko” bei Vergütung bedeutet etwas anderes als “Risiko” im Recruiting |
| Was ist Bias bei Leistungsbeurteilungen? | Statistische Abweichung allein sagt nichts - HR kennt den fachlichen Kontext |
| Welche Mitarbeitergruppen brauchen besonderen Schutz? | Schwerbehinderte, Betriebsräte, Elternzeitler - das sind HR-Schutzklassen, keine Datenkategorien |
| Wer gibt Regeländerungen frei? | Tarifvertragsänderungen und neue Betriebsvereinbarungen müssen fachlich bewertet werden |
Der SHRM-Report (2026) zeigt das Problem in Zahlen: 37 Prozent der befragten HR-Verantwortlichen geben an, dass Legal und Compliance die KI-Governance führen. Nur bei einem einzigen Thema - Upskilling und Reskilling - war HR mit 28 Prozent annähernd federführend. Selbst dort lagen funktionsübergreifende Taskforces mit 29 Prozent knapp vorn.
Das Muster ist überall dasselbe: HR nutzt die Agenten, aber andere definieren die Spielregeln.
Ohne HR-Ownership entstehen drei konkrete Governance-Lücken
Wenn der CHRO Agent Governance an die IT delegiert, ist das kein theoretisches Risiko. Es produziert drei messbare Lücken:
Lücke 1: Eskalationsschwellen ohne fachliche Begründung. Die IT setzt Eskalationen nach technischen Metriken - Konfidenzwerte, Error Rates, Response Times. Ob eine Vergütungsentscheidung mit 87 Prozent Konfidenz automatisch durchlaufen darf oder ob bei bestimmten Gehaltsgruppen grundsätzlich ein Mensch prüfen muss - das kann kein Konfidenzwert beantworten. Das ist eine personalwirtschaftliche Entscheidung.
Lücke 2: Bias-Monitoring ohne Kontext. Eine statistische Abweichung von 3 Prozent bei der Genehmigung von Weiterbildungsanträgen - ist das ein Problem? Wenn die Abweichung zwischen Vollzeit und Teilzeit besteht und Teilzeitkräfte überwiegend Frauen sind: ja, möglicherweise. Wenn sie zwischen zwei Standorten besteht und einer ein anderes Weiterbildungsbudget hat: nein. Ohne HR-Expertise ist Bias-Monitoring eine Tabelle mit Zahlen, die niemand interpretieren kann.
Lücke 3: Regelwerke als technische Konfiguration. Wenn Tarifvertragsänderungen, neue Betriebsvereinbarungen oder geänderte Unternehmensrichtlinien als Config-Updates in der IT landen, fehlt die fachliche Validierung. Regeländerungen werden deployed, ohne dass jemand aus HR geprüft hat, ob die Umsetzung dem fachlichen Intent entspricht.
Der EU AI Act macht HR-Ownership zur Pflicht
Ab August 2026 gilt der EU AI Act vollständig - und er verschärft die Lage erheblich. KI-Systeme, die Beschäftigungsentscheidungen beeinflussen, werden als Hochrisiko-Systeme eingestuft (Annex III, Abschnitt 4). Das betrifft Recruiting, Beförderungen, Vergütung, Kündigungen, Leistungsbeurteilungen und Aufgabenverteilung.
Die Pflichten sind konkret:
Menschliche Aufsicht durch Personen mit “angemessener Kompetenz, Ausbildung und Autorität”. Das sind keine IT-Administratoren. Das sind HR-Fachleute, die den fachlichen Kontext der Entscheidungen verstehen.
Bias-Monitoring mit dokumentierten Metriken und Reaktionsprozessen. Wer die Metriken definiert, bestimmt, was als Bias gilt und was nicht. Wenn die IT diese Definition übernimmt, orientiert sie sich an statistischer Signifikanz - nicht an arbeitsrechtlicher Relevanz.
Information der Arbeitnehmer und ihrer Vertreter vor der Einführung. Im deutschen Kontext: Der Betriebsrat hat nach § 87 Abs. 1 Nr. 6 BetrVG Mitbestimmungsrechte bei technischen Einrichtungen, die geeignet sind, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen. Eine KI-Betriebsvereinbarung ist faktisch Pflicht - und der Betriebsrat erwartet fachliche Ansprechpartner, nicht IT-Projektleiter.
Gartner (2025) dokumentiert die Dynamik: Vor zwei Jahren implementierten 19 Prozent der HR-Verantwortlichen KI-Lösungen. Mitte 2025 waren es 61 Prozent. 92 Prozent pilotieren oder implementieren KI innerhalb ihrer Funktion. Die Governance muss mit dieser Geschwindigkeit Schritt halten.
Kostenloses eBook: KI in HR
EU AI Act Checkliste, Decision-Framework, Betriebsrats-Perspektive und Readiness-Assessment - das Governance-Handbuch für HR-Verantwortliche.
Jetzt kostenlos herunterladenFünf Governance-Aufgaben, die nur der CHRO übernehmen kann
Der CHRO muss Agent Governance nicht technisch umsetzen. Er muss die fachlichen Leitplanken setzen, die dann im Decision Layer implementiert werden - der Architektur, die jeden Prozess in Entscheidungsschritte zerlegt und für jeden Schritt definiert: Mensch, Regelwerk oder KI.
Regelwerk-Ownership. Tarifverträge, Betriebsvereinbarungen, interne Richtlinien - HR ist verantwortlich für die Richtigkeit und Aktualität der Regeln, die der Agent anwendet. Jede Änderung an diesen Regeln wird von HR freigegeben, nicht von der IT deployed.
Eskalationsmatrix. HR definiert die fachlichen Schwellenwerte: Welche Entscheidungstypen autonom, welche mit menschlicher Prüfung, welche manuell. Das ist keine technische Entscheidung über Konfidenzwerte - es ist eine Entscheidung über Risikotoleranz pro Entscheidungstyp.
Bias-Strategie. HR legt fest, welche Gruppen verglichen werden, was eine relevante Abweichung ist und welche Reaktionsprozesse greifen. Das Monitoring selbst implementiert die IT. Aber die Definition von “fair” ist eine HR-Aufgabe.
Betriebsratsarbeit. Die KI-Betriebsvereinbarung ist das zentrale Governance-Dokument im deutschen Kontext. HR führt die Verhandlung, definiert die Entscheidungsmatrix für den Betriebsrat und stellt sicher, dass dessen Anforderungen als Controls im System implementiert werden.
Governance-Reporting. HR erhält und interpretiert die Governance-Reports aus dem Auditor Portal. Nicht als technisches Monitoring, sondern als fachliche Qualitätssicherung: Arbeitet der Agent im Rahmen der vereinbarten Regeln?
Gosign baut die Governance-Infrastruktur für HR-Agenten - Decision Layer, Audit Trail, Betriebsrats-Templates - damit HR die fachliche Steuerung übernehmen kann, ohne selbst Systeme konfigurieren zu müssen. Mehr dazu: HR AI Agents
Wer jetzt nicht startet, verhandelt später unter Druck
Die Zeitlinie ist klar: Ab August 2026 gilt der EU AI Act vollständig. Wer bis dahin KI-Agenten in HR-Prozessen betreibt, braucht dokumentierte Governance - menschliche Aufsicht, Bias-Monitoring, Arbeitnehmerinformation. Wer das erst unter Zeitdruck aufbaut, verhandelt eine KI-Betriebsvereinbarung aus der Defensive.
Drei Schritte, die jetzt funktionieren:
Erstens: KI-Nutzung inventarisieren. ISACA (2024) zeigt, dass nur 15 Prozent der Organisationen eine formale KI-Policy haben - bei 70 Prozent, die KI am Arbeitsplatz nutzen. Die Lücke zwischen Nutzung und Governance ist in den meisten Unternehmen größer, als die Geschäftsführung annimmt.
Zweitens: Governance-Ownership formal in HR verankern. Nicht als Nebenprojekt, sondern als definierte Verantwortung im CHRO-Bereich. Die BCG-Studie Creating People Advantage (2026) zeigt: 65 Prozent der Führungskräfte sehen HR als Business Enabler - aber 51 Prozent nennen administrative Überlastung als Haupthindernis für strategischen Beitrag. Governance-Ownership ist genau der strategische Hebel, der HR aus der administrativen Rolle hebt.
Drittens: Betriebsrat mit konkreter Entscheidungsmatrix einbinden. Nicht mit einem 80-Seiten-Rahmenvertrag beginnen, sondern mit einer tabellarischen Übersicht: Diese Entscheidungen trifft der Agent. Diese prüft ein Mensch. Diese bleiben vollständig manuell. Damit hat der Betriebsrat eine Verhandlungsbasis, die er versteht.
Wer diese drei Schritte vor August 2026 abschließt, hat die Grundlage für eine KI-Betriebsvereinbarung, die der Betriebsrat unterschreiben kann - und eine Governance-Struktur, die den Anforderungen des EU AI Act standhält.

Bert Gogolin
Geschäftsführer, Gosign
AI Governance Briefing
Enterprise AI, Regulierung und Infrastruktur - einmal im Monat, direkt von mir.