- 24. September 2025
- Veröffentlicht durch: Georg Breddermann
- Kategorien: ArbeitssicherheitDigitalisierung
Künstliche Intelligenz und Arbeitsschutz: Warum die Normung klare Grenzen braucht
Künstliche Intelligenz (KI) verändert die Arbeitswelt grundlegend – auch im Bereich Sicherheit und Gesundheit bei der Arbeit. Doch wie lassen sich KI-Systeme so gestalten, dass sie Beschäftigte nicht gefährden? Ein neues Positionspapier der Kommission Arbeitsschutz und Normung (KAN) gibt hierauf klare Antworten: Es formuliert Eckpunkte für die Berücksichtigung von Arbeitsschutzbelangen in der KI-Normung.
Das Ziel: Die Chancen von KI nutzen, ohne den Schutz der Beschäftigten zu vernachlässigen – weder technisch noch regulatorisch.
Worum geht es?
Die KAN richtet sich mit ihrem Positionspapier an alle Normungsgremien, die sich mit KI befassen – sei es im Maschinenbau, in der Produktsicherheit oder in allgemeinen KI-Gremien. Der Fokus liegt auf KI-Systemen, die im Arbeitskontext eingesetzt werden und potenziell Einfluss auf die Sicherheit, Gesundheit oder Grundrechte von Beschäftigten haben.
Unterscheidung: Produktsicherheit vs. Arbeitsschutz
- Produktsicherheit betrifft Hersteller und ist europaweit harmonisiert (Art. 114 AEUV).
- Arbeitsschutz hingegen ist Sache der Arbeitgeber im konkreten Betrieb (Art. 153 AEUV) und unterliegt nationalen Vorgaben – z. B. dem Arbeitsschutzgesetz in Deutschland.
Normen dürfen nicht unreflektiert zwischen diesen Bereichen überspringen.
Zentrale KAN-Positionen zur KI-Normung
-
Keine KI-Sonderwege in sektoriellen Normen
Maschinenbau, Medizintechnik & Co. sollen keine eigenständigen KI-Anforderungen formulieren, sondern auf allgemeine KI-Normen warten und diese übernehmen.
-
Menschengerechte Gestaltung ist Pflicht
KI-Arbeitssysteme müssen den anerkannten humanzentrierten Anforderungen genügen – das bedeutet:
- Transparenz über Entscheidungen (Erklärbarkeit)
- Schutz vor Überforderung, Monotonie oder unvorhersehbaren Belastungen
-
Risikomanagement muss die Beschäftigten schützen
Normen dürfen nicht auf organisationszentrierte Risikodefinitionen (z. B. ISO 31000) setzen, sondern müssen sich am Schutz des Einzelnen orientieren – wie bei Maschinen nach EN ISO 12100.
-
Technische Sicherheit: bekanntes Wissen nutzen
Konzepte der funktionalen Sicherheit sollen auf KI übertragen werden, wo immer möglich – angepasst an die Besonderheiten datenbasierter Verfahren.
-
Fehler dürfen nicht zu Gefährdungen führen
KI-Systeme müssen robust und fehlertolerant sein. Bei sicherheitskritischen Funktionen ist ein automatischer Übergang in den sicheren Zustand erforderlich.
Fazit: Arbeitsschutz braucht Mitgestaltung in der KI-Normung
KI darf nicht zum blinden Fleck in der Normung werden. Wer Algorithmen in sicherheitsrelevante Arbeitsprozesse einbindet, trägt Verantwortung – gegenüber Beschäftigten, der Gesellschaft und dem Rechtsstaat.
„KI-Systeme müssen sicher, erklärbar und menschenwürdig sein – auch normativ.“
Quellenangabe:
KAN (2025): Eckpunkte des Arbeitsschutzes zur KI-Normung. Positionspapier der Kommission Arbeitsschutz und Normung, veröffentlicht im Mai 2025.
www.kan.de