proRIS Consultants



Künstliche Intelligenz und Arbeitsschutz: Warum die Normung klare Grenzen braucht

Künstliche Intelligenz (KI) verändert die Arbeitswelt grundlegend – auch im Bereich Sicherheit und Gesundheit bei der Arbeit. Doch wie lassen sich KI-Systeme so gestalten, dass sie Beschäftigte nicht gefährden? Ein neues Positionspapier der Kommission Arbeitsschutz und Normung (KAN) gibt hierauf klare Antworten: Es formuliert Eckpunkte für die Berücksichtigung von Arbeitsschutzbelangen in der KI-Normung.

Das Ziel: Die Chancen von KI nutzen, ohne den Schutz der Beschäftigten zu vernachlässigen – weder technisch noch regulatorisch.

 


Worum geht es?

Die KAN richtet sich mit ihrem Positionspapier an alle Normungsgremien, die sich mit KI befassen – sei es im Maschinenbau, in der Produktsicherheit oder in allgemeinen KI-Gremien. Der Fokus liegt auf KI-Systemen, die im Arbeitskontext eingesetzt werden und potenziell Einfluss auf die Sicherheit, Gesundheit oder Grundrechte von Beschäftigten haben.

Unterscheidung: Produktsicherheit vs. Arbeitsschutz

  • Produktsicherheit betrifft Hersteller und ist europaweit harmonisiert (Art. 114 AEUV).
  • Arbeitsschutz hingegen ist Sache der Arbeitgeber im konkreten Betrieb (Art. 153 AEUV) und unterliegt nationalen Vorgaben – z. B. dem Arbeitsschutzgesetz in Deutschland.

Normen dürfen nicht unreflektiert zwischen diesen Bereichen überspringen.

 


Zentrale KAN-Positionen zur KI-Normung

  1. Keine KI-Sonderwege in sektoriellen Normen

Maschinenbau, Medizintechnik & Co. sollen keine eigenständigen KI-Anforderungen formulieren, sondern auf allgemeine KI-Normen warten und diese übernehmen.

  1. Menschengerechte Gestaltung ist Pflicht

KI-Arbeitssysteme müssen den anerkannten humanzentrierten Anforderungen genügen – das bedeutet:

  • Transparenz über Entscheidungen (Erklärbarkeit)
  • Schutz vor Überforderung, Monotonie oder unvorhersehbaren Belastungen
  1. Risikomanagement muss die Beschäftigten schützen

Normen dürfen nicht auf organisationszentrierte Risikodefinitionen (z. B. ISO 31000) setzen, sondern müssen sich am Schutz des Einzelnen orientieren – wie bei Maschinen nach EN ISO 12100.

  1. Technische Sicherheit: bekanntes Wissen nutzen

Konzepte der funktionalen Sicherheit sollen auf KI übertragen werden, wo immer möglich – angepasst an die Besonderheiten datenbasierter Verfahren.

  1. Fehler dürfen nicht zu Gefährdungen führen

KI-Systeme müssen robust und fehlertolerant sein. Bei sicherheitskritischen Funktionen ist ein automatischer Übergang in den sicheren Zustand erforderlich.

 


Fazit: Arbeitsschutz braucht Mitgestaltung in der KI-Normung

KI darf nicht zum blinden Fleck in der Normung werden. Wer Algorithmen in sicherheitsrelevante Arbeitsprozesse einbindet, trägt Verantwortung – gegenüber Beschäftigten, der Gesellschaft und dem Rechtsstaat.

„KI-Systeme müssen sicher, erklärbar und menschenwürdig sein – auch normativ.“

 


Quellenangabe:

KAN (2025): Eckpunkte des Arbeitsschutzes zur KI-Normung. Positionspapier der Kommission Arbeitsschutz und Normung, veröffentlicht im Mai 2025.
www.kan.de