Das Wichtigste auf einen Blick:

  • Künstliche Intelligenz im Job birgt einige rechtliche Herausforderungen – insbesondere im Hinblick auf Datenschutz und persönliche Haftung. User haften für die Fehler der KI.
  • Der Umgang mit sensiblen Daten in externen KI-Tools wie ChatGPT erfordert besondere Vorsicht, da eine fehlerhafte oder unrechtmäßige Nutzung Konsequenzen bis hin zur Kündigung nach sich ziehen kann.
  • Beschäftigte haben laut EU AI Act ein Recht auf Schulung, Transparenz und Kennzeichnung bei KI-Anwendungen, um deren Funktionsweise zu verstehen und verantwortungsvoll damit umzugehen. 

KI-Tools erstellen nach schriftlichen oder gesprochenen Arbeitsanweisungen, sogenannten Prompts, unter anderem Texte und Bilder. Sie werten auch große Datenmengen aus oder helfen als Assistenzsysteme etwa bei der Maschinensteuerung.

Laut einer aktuellen Bitkom-Studie setzen Unternehmen generative KI am häufigsten in diesen Bereichen ein:

  • Kundenkontakt (89 Prozent)
  • Marketing und Kommunikation (40 Prozent)
  • Forschung und Entwicklung (20 Prozent)
  • Produktion (17 Prozent)

„KI hat mittlerweile in vielen Arbeitsbereichen Einzug gehalten – und das oft fast unmerklich.“ So sagt es Thomas Prinz, Experte für Arbeitsrecht bei der Bundesvereinigung der Deutschen Arbeitgeberverbände (BDA).

Damit stellen sich sofort Fragen: Wie sollten Beschäftigte mit den teils sensiblen Daten umgehen, die die KI benötigt, um Ergebnisse zu liefern? Und wie dürfen die generierten Informationen genutzt werden? Wer haftet, wenn die KI Fehler macht?

Das Arbeitsrecht liefert wichtige Leitplanken für den Umgang mit KI

Für den täglichen Umgang mit KI-Anwendungen liefert das Arbeitsrecht wichtige Leitplanken. Prinz nennt dabei die Bereiche Arbeitsleistung und vor allem: Datenschutz.

KI richtig nutzen: Für die Fehler haftet man selbst  

Wer beispielsweise von seiner Chefin die Aufgabe erhält, eine Ausarbeitung zu einem Thema zu erstellen, darf durchaus ChatGPT für eine erste Recherche nutzen. Gibt man aber die Arbeit des Chatbots als die eigene aus – „dann verstößt man gegen den Grundsatz der höchstpersönlichen Arbeitsleistung“, warnt Prinz. Damit verletzt man Pflichten aus dem Arbeitsvertrag.

Und wenn sich in eine KI-Recherche unmerklich Fehler eingeschlichen haben? „Dann muss der Arbeitnehmer für die Fehler, die etwa ChatGPT gemacht hat, wie für seine eigenen haften“, erklärt Professor Peter Wedde von der Frankfurt University of Applied Sciences. Er ist Experte für den Einsatz von KI im Betrieb.

So etwas kann schnell passieren. Laufend kommt es vor, dass etwa ChatGPT Fakten oder Quellen einfach erfindet. Zudem sind KI-Ergebnisse nicht reproduzierbar. Das heißt: Es ist durchaus normal, auf ein und dieselbe Frage unterschiedliche Antworten zu bekommen. Jedes KI-Ergebnis sollte man also gewissenhaft nachprüfen.

Außerdem stellen sich oft Fragen des Urheberrechts, gegen das verstoßen werden könnte. „Auch aus diesem Grund sollten solche Ausarbeitungen im Zweifel mit dem Vermerk ‚KI-generiert‘ versehen werden“, empfiehlt Prinz. Gerade beim Thema „Urheberrecht versus KI“ gebe es noch viele ungeklärte Fragen. 

Was hat KI mit Datenschutz zu tun?

Heikel wird es bei der KI-Nutzung, wenn es um personenbezogene oder geschäftliche Daten geht, die als Betriebsgeheimnisse gelten. Dazu zählen zum Beispiel

  • Kundendaten
  • Angebotsunterlagen oder
  • Berichte aus der Entwicklungsabteilung

Sie sollten nur in gesicherten Unternehmensnetzwerken verwendet werden!  

In jedem Fall gilt: Wer mit einem externen KI-Tool wie ChatGPT arbeitet, muss sich vor Augen halten, „dass die eingegebenen Daten auch dazu benutzt werden können, diese KI zu trainieren“, sagt Wedde. Was dann mit diesen Daten genau passiert, ist unklar. Deshalb sollte man unbedingt vermeiden, solche persönlichen oder betrieblichen Daten in ein externes KI-Tool einzugeben!

Faustregel: Erst fragen – dann prompten

BDA-Experte Prinz sagt dazu: „Hat ein Arbeitnehmer sogar vorsätzlich sensible Daten etwa in ChatGPT eingegeben und dem Unternehmen ist dadurch ein Schaden entstanden, kann der Arbeitnehmer dafür haftbar gemacht werden.“ Es könne Schadenersatzforderungen geben und womöglich sogar eine verhaltensbedingte Kündigung.

Prinz ergänzt: „Auch dann, wenn ein Mitarbeiter im Auftrag des Chefs mit KI gearbeitet hat, gilt: KI-generierte Ergebnisse müssen immer sorgfältig auf ihre Richtigkeit kontrolliert werden.“

Was beide Experten empfehlen: Beschäftigte sollten sich stets rückversichern und nachfragen, ob und womit sie eine KI füttern dürfen. Und was man sich immer klarmachen muss: Eine Anweisung des Arbeitgebers macht eine KI noch nicht zu einem verlässlichen Arbeitsmittel!

Was ist eigentlich der EU AI Act?

Für Mitarbeitende und für Unternehmen ist zudem die EU-Verordnung über Künstliche Intelligenz (EU AI Act) von Bedeutung. Sie regelt seit 2024 den Umgang mit KI-Anwendungen und formuliert nicht nur Pflichten, sondern auch Rechte der Beschäftigten, wenn sie KI im Arbeitsalltag nutzen.

  • Schulung: Mitarbeitende sollen verstehen, wie KI funktioniert. Sie sollen deren Fähigkeiten, Risiken und Chancen erkennen. Deshalb haben sie jetzt ein Recht auf Schulung. Das kann ein Seminar oder ein E-Learning-Modul sein. Die Schulung soll sich an konkreten Aufgaben der Mitarbeitenden orientieren, zum Beispiel so: Ein Produktionsmitarbeiter, der mit einem KI-System zur Fehlererkennung arbeitet, sollte wissen, wie die KI entscheidet, was als Fehler gilt und wie er selbst eingreifen kann, wenn er die KI-Entscheidung anzweifelt. Hilfreich bei einem unternehmensinternen Schulungskonzept ist eine zuständige Person für die KI-Koordination. Sie organisiert die Schulungen und entwickelt eine KI-Nutzungsrichtlinie.
  • Transparenz: Beschäftigte sollen klar erkennen, wann sie mit KI arbeiten oder womöglich von ihr beeinflusst werden. Dafür muss der Arbeitgeber sorgen. Dies soll verhindern, dass automatische Entscheidungen ohne menschliche Kontrolle fallen. Systeme müssen deshalb anzeigen, wenn sie KI anwenden, etwa durch den Hinweis „Dieses System nutzt KI“. Niemand darf gezwungen werden, KI- Ergebnisse ungeprüft zu übernehmen. Zum Beispiel: Wird etwa in einem Kundencenter ein KI-Chatbot für Kundenanfragen genutzt, müssen die Beschäftigten wissen, wann er aktiv ist und wie sie eingreifen können, wenn eine Antwort unpassend ist.  
  • Klare Kennzeichnung: Seit Anfang August 2025 müssen Unternehmen dafür sorgen, dass bestimmte KI-generierte Inhalte, sogenannte Deepfakes, erkennbar sind. Damit sind Texte, Bilder, Videos und Audios gemeint, die von einer KI erzeugt oder manipuliert wurden. Und zwar so, dass sie fälschlicherweise für echt gehalten werden können. Möglich ist diese Kennzeichnung etwa durch einen Hinweis im Dokument oder ein Wasserzeichen im Bild.  

Was sind Hochrisiko-KI?

Die EU-KI-Verordnung teilt KI in verschiedene Risikoklassen ein. Als Hochrisiko-KI gelten Systeme, die bedeutende Risiken für Gesundheit, Sicherheit oder Grundrechte darstellen.

Die seit diesem August gültigen Bestimmungen für Hochrisiko-KI-Systeme nennen konkrete Anwendungsfälle, etwa KI für die Bewerberauswahl oder für Entscheidungen über Beförderungen.

Unternehmen, die Hochrisiko-KI-Systeme nutzen, haben eine Reihe von Pflichten. Dazu gehört, die Arbeitnehmervertreter und die betroffenen Arbeitnehmerinnen und Arbeitnehmer darüber zu informieren, dass sie diesem KI-Einsatz ausgesetzt sein werden.

Welche weiteren Einstufungen es für KI-Anwendungen gibt, lesen Sie im Interview mit Adél Holdampf-Wendel, Bereichsleiterin Future of Work beim Digitalverband Bitkom

Anja van Marwick-Ebner
aktiv-Redakteurin

Anja van Marwick-Ebner ist die aktiv-Expertin für die deutsche Textil- und Bekleidungsindustrie. Sie berichtet vor allem aus deren Betrieben sowie über Wirtschafts- und Verbraucherthemen. Nach der Ausbildung zur Steuerfachgehilfin studierte sie VWL und volontierte unter anderem bei der „Deutschen Handwerks Zeitung“. Den Weg von ihrem Wohnort Leverkusen zur aktiv-Redaktion in Köln reitet sie am liebsten auf ihrem Steckenpferd: einem E-Bike.

Alle Beiträge der Autorin