Robot Recruiting

Die Haftung des Arbeitgebers für Persönlichkeitsverletzungen beim Einsatz von Künstlicher Intelligenz im Bewerbungsprozess

Fabia Stöcklin *

Nach Jahren intensiver Forschung ist die Entwicklung von Künstlicher Intelligenz («KI») an einem Punkt angelangt, an dem der Einsatz von KI-Software auch im Arbeitsprozess immer alltäglicher wird. Besonders im Stadium des Bewerbungsverfahrens kam es diesbezüglich in jüngster Zeit aufgrund verschiedenster Medienberichte immer wieder zu Diskussionen, insbesondere im Hinblick auf die Haftung der KI-einsetzenden Arbeitgeber. Der Gesetzgeber hat bis dato auf eine explizite rechtliche Regelung verzichtet. Aus diesem Grund wird im Folgenden aufgezeigt, ob beziehungsweise wann ein Arbeitgeber aufgrund der heute bestehenden Gesetzeslage für den Einsatz oder eine Handlung einer KI im Bewerbungsprozess haftbar gemacht werden kann.

Après des années de recherche intensive, le développement de l'intelligence artificielle ("IA") a permis de rendre l'utilisation de logiciels d'IA de plus en plus courante, y compris dans le monde du travail. Selon certains médias, la phase d'embauche est particulièrement controversée, notamment en ce qui concerne la responsabilité de l'employeur qui utilise l'IA. Jusqu'à présent, le législateur a renoncé à une réglementation juridique spécifique. Nous allons donc examiner ici, sur la base de la situation juridique actuelle, dans quelles conditions un employeur peut être tenu pour responsable de l'utilisation ou de l'action d'une IA dans le cadre d'une procédure de recrutement.

Zitiervorschlag: Fabia Stöcklin, Robot Recruiting, sui generis 2023, S. 1

URL: sui-generis.ch/223

DOI: https://doi.org/10.21257/sg.223

* Fabia Stöcklin, LL.M. (Edinburgh), wissenschaftliche Mitarbeiterin am Lehrstuhl von Prof. Dr. iur. Corinne Zellweger-Gutknecht an der Universität Basel.



I. Einleitung

Wie findet man am effizientesten den perfekt geeigneten Mitarbeiter? Diese Frage stellt sich täglich für Arbeitgeber weltweit - und endlich scheint dank modernster Technologie eine befriedigende Antwort in Sicht.[1] Seit Jahren tüfteln Wissenschaftler bereits an Künstlicher Intelligenz («KI») und können dabei kontinuierlich neue Erfolge vorweisen.[2]

Nun scheint der Zeitpunkt gekommen zu sein, KI auch ins Arbeitsumfeld zu integrieren.[3] Angeregt wurde diese Entwicklung mitunter durch die Covid-19-Pandemie, welche eine grundsätzliche Umverteilung auf dem Arbeitsmarkt bewirkte.[4] Viele Arbeitgeber haben heutzutage Mühe, gut ausgebildetes Personal zu finden - und dies nicht nur bei notorisch knappen Fachkräften wie Pflegenden oder IT-Spezialisten.[5] Gleichzeitig fehlt dem Arbeitgeber häufig die Zeit, langwierige Bewerbungsprozesse durchzuführen. Was wäre deshalb einfacher, als ein zuverlässiges Computerprogramm die Suche nach passenden Angestellten übernehmen zu lassen?[6]

So gut diese Lösung auf den ersten Blick erscheint, eine gewisse Vorsicht ist dennoch angebracht. Denn der Einsatz einer KI bietet eigene Risiken, für welche der Arbeitgeber allenfalls einzustehen hat.

Im Folgenden wird zuerst dargestellt, wo KI heute und zukünftig im Bewerbungsprozess eine Rolle spielen kann, bevor in einem zweiten Schritt aufgezeigt wird, wann ein Arbeitgeber grundsätzlich im Bewerbungsprozess haftet. Ausgestattet mit diesem Wissen wird anschliessend die zentrale Frage, wann ein Arbeitgeber für den Einsatz oder eine Handlung der KI haftbar gemacht werden kann, im Detail analysiert.

II. Der Einsatz von KI im Bewerbungsprozess

1. Definition von KI

Die Wissenschaft befasst sich seit längerem mit der Entwicklung von KI, welche mit Hilfe von Computersystemen menschliche Denk- und Verhaltensweisen simuliert. Dies geschieht durch die Verarbeitung grosser Mengen an eingespeisten Trainingsdaten, welche es dem IT-System erlauben, Muster und Korrelationen zu erkennen und diese auf zukünftige Sachverhalte anzuwenden - kurz gesagt, die KI ist ein lernfähiges Computersystem.[7]

2. Status quo

Bereits relativ etabliert ist der Einsatz von KI bei Personalvermittlungen und Personalverleihern.[8] Während Arbeitnehmer ihre Lebensläufe und Arbeitszeugnisse online in einem Nutzer-Profil auf der entsprechenden Plattform hochladen können, wenden sich Arbeitgeber mit ihren Stellenangeboten sowie ihren Auswahlkriterien an den Betreiber der digital ablaufenden Stellenvermittlung. Der Algorithmus der Plattform sucht nun für jede ausgeschriebene Stelle den am besten geeigneten Kandidaten und lädt diesen automatisch zur Bewerbung ein. So erhält der Arbeitgeber nur auf die Ausschreibung zugeschnittene Bewerbungen von einigen wenigen Kandidaten, die alle (objektiven) Voraussetzungen erfüllen.

Der Arbeitgeber kann auch selbst eine Software einsetzen, welche alle eingehenden Bewerbungen automatisch analysiert und eine Selektion anhand definierter oder von der KI gelernten Kriterien vornimmt. In den USA sind bereits KI-Systeme im Einsatz, die Bewerbungsvideos anhand von Körpersprache und Mimik analysieren und basierend darauf Persönlichkeitsprofile erstellen. In der Schweiz ist diese Vorgehensweise bisher sehr umstritten.[9]

Unterhält der Arbeitgeber ein eigenes Stellenportal im Internet, kann eine KI auch in Form von Chatbots mit potentiellen Bewerbern agieren und gestellte Fragen beantworten.[10]

Nach Eingang der Bewerbungen kann die KI für den Arbeitgeber Fragen für Vorstellungsgespräche entwickeln oder diese sogar mittels Chatfunktion selbst führen.

3. Ausblick in die Zukunft

Heute würde noch kaum ein Arbeitgeber eine längerfristige Stelle einzig aufgrund der Empfehlung einer KI besetzen. Der persönliche Eindruck über den Charakter, die Motivation und die sozialen Kompetenzen der Bewerbenden wird von Arbeitgebern nach wie vor als sehr wichtig eingestuft.[11] Dies kann sich aber in Zukunft durchaus ändern, denn das Potential von KI als Rekrutierungsinstrument ist noch lange nicht ausgeschöpft. Die Technologie entwickelt sich stetig weiter und es können sicherlich noch weitere Anwendungsmöglichkeiten für KI gefunden werden.[12] Möglich wäre beispielsweise die Verhaltensanalyse von Bewerbern, welche mit spezifisch zugeschnittenen Problemen und Aufgaben konfrontiert werden. Im Extremfall wird künftig der gesamte Bewerbungsprozess von der Stellenausschreibung über das Bewerbungsgespräch bis zur Endentscheidung von einer KI gesteuert, ohne dass der Arbeitgeber selbst direkt je Einfluss genommen hat.

4. Möglichkeiten der Persönlichkeitsverletzung

Es sind einige Szenarien vorstellbarbar, in welchen der Einsatz von KI im Bewerbungsprozess zu einer Persönlichkeitsverletzung führen könnte. Beispielsweise werden gewisse Stellenangebote durch die Vorselektion der KI nur noch wenigen, den Kriterien entsprechenden Personen angezeigt. In den Medien präsent ist weiter die Ablehnung geeigneter Bewerber durch eine KI, welche basierend auf Stichwörtern und vorgegebenen Kriterien die Bewerbungsschreiben sortiert.[13] Eine Studie der Harvard Business School kam zum Schluss, dass allein im Jahr 2021 ungefähr 27 Millionen Bewerbungsschreiben von den genutzten Softwares der Arbeitgeber in einer Vorselektion aussortiert wurden, obwohl es sich um brauchbare Bewerber gehandelt hätte.[14] Diese Vergeudung an Arbeitspotential ist bedauerlich, stellt jedoch noch keine Persönlichkeitsverletzung dar. Der Bewerbende hat schliesslich kein Recht auf eine Anstellung, nur weil er objektiv alle Kriterien der Stellenbeschreibung zu erfüllen vermag.[15] Ausserdem kann es auch bei einer menschlichen Triage dazu kommen, dass brauchbare Bewerbungen einer Vorselektion zum Opfer fallen.

Problematisch hingegen ist eine Selektion der KI basierend auf diskriminierenden Kriterien. Die KI stützt ihre Entscheidungen dabei auf die unabsichtliche oder absichtliche Reproduktion von Vorurteilen, welche durch die eingespeisten, ihr zum Lernen dienenden Daten beigebracht werden.[16] Schlagzeilen machte in dieser Hinsicht beispielsweise das eingesetzte KI-System der Firma Amazon. Dieses lernte aufgrund der getroffenen (menschlichen) Entscheidungen der letzten zehn Jahre, dass in der Technikbranche männliche Bewerber dominieren. Daraus lernte die KI, die Bewerbungen von weiblichen Arbeitsuchenden im Ranking herabzustufen und im Endeffekt abzulehnen.[17] Auch in anderen Branchen kann diese Gefahr bestehen, wenn die KI lernt, auf längere Lücken im Lebenslauf zu achten, welche Frauen im traditionellen Familienbild aufgrund von Kinderbetreuung häufig aufweisen dürften.[18] Die Diskriminierung durch KI muss sich aber nicht zwangsläufig auf das Geschlecht fokussieren, es gab leider in den vergangenen Jahren auch viele weitere Fälle von insbesondere rassistischen und altersdiskriminierenden Vorgehensweisen von KI-Systemen.[19]

Weiter wäre eine Persönlichkeitsverletzung auch möglich als Folge von unzulässigen, von der KI generierten Bewerbungsfragen, welche in die grundrechtlich geschützten Arbeitnehmerinteressen eingreifen.[20] Dies ist ein Problem vieler auf Algorithmen basierenden Persönlichkeitstests, insbesondere wenn die (Nicht-)Beantwortung solcher Fragen am Ende den Selektionsprozess beeinflusst.[21]

Zu beachten sind für den Arbeitgeber je nach eingesetztem KI-System auch die betreffenden Datenschutzregelungen.[22] Problematisch ist insbesondere eine selbstständige, weiterführende Recherche der KI über die Bewerbenden im Internet und den sozialen Medien.[23] Dies kann zu einer Sammlung von Personendaten führen, welche für die Eignungsabklärung der betreffenden Person für die ausgeschriebene Stelle nicht mehr relevant ist und damit eine Verletzung der Datenbearbeitungsgrundsätze darstellen kann.

III. Haftung des Arbeitgebers für Persönlichkeitsverletzungen im Bewerbungsprozess

Der Bewerbungsprozess wird in der Regel durch eine als invitatio ad offerendum zu qualifizierende Stellenausschreibung des Arbeitgebers eingeleitet.[24] Mit der Bewerbungseinreichung tritt der Arbeitsuchende somit erst in ein Vertragsverhandlungsverhältnis. Während des Bewerbungsprozesses können sich die Arbeitsuchenden als Konsequenz noch nicht auf die im Arbeitsvertragsrecht[25] und Arbeitsgesetz[26] festgehaltenen Pflichten des Arbeitgebers zum Schutz ihrer Persönlichkeit berufen.[27] Stattdessen werden die Persönlichkeitsrechte der Parteien in der Bewerbungsphase durch die nachfolgend dargestellten Regelungen geschützt.[28]

Abgesehen von den in den entsprechenden Rechtsnormen gesetzlich verpönten Auswahlkriterien gilt jedoch die allgemeine Vertragsfreiheit. Der Arbeitgeber ist nicht verpflichtet, bei der Bewerbungsauswahl auf sachliche, objektiv nachvollziehbare Kriterien abzustellen.[29]

1. Allgemeiner Persönlichkeitsschutz

a. Art. 28 ZGB

Das in Art. 28 ZGB[30] statuierte Verbot widerrechtlicher Persönlichkeitsverletzung schützt die Persönlichkeitsrechte der Arbeitssuchenden in all ihren Ausprägungen, vom Recht auf Schutz der Privatsphäre bis zum Schutz vor Alters- oder Rassendiskriminierung.[31] Die Widerrechtlichkeit der Verletzung eines Persönlichkeitsrechts liegt vor, falls sich der Arbeitgeber nicht auf ein überwiegendes Interesse berufen kann.[32]

Allerdings muss die Frage aufgeworfen werden, was die Berufung auf Art. 28 ZGB einem in seiner Persönlichkeit verletzten Stellensuchenden praktisch tatsächlich nützt. Ein Anspruch auf Anstellung lässt sich aus einer Verletzung von Art. 28 ZGB wohl nicht ableiten.[33] Dies wäre ein erheblicher Eingriff in die Vertragsfreiheit und kann nicht als zulässig erachtet werden.[34] Ein allfälliger Anspruch auf Schadenersatz wird regelmässig auch nicht über die angefallenen direkten Kosten einer Bewerbung hinausgehen - deswegen ein Verfahren einzuleiten erscheint kaum lohnenswert. Möglich (aber in den wenigsten Fällen wohl tatsächlich erfolgsversprechend) wäre ein Anspruch auf Genugtuung bei einer schwerwiegenden Persönlichkeitsverletzung.[35]

Die Rechtsbehelfe von Art. 28 ZGB werden sich demgemäss in den meisten Fällen als wenig hilfreich erweisen.

b. Treu und Glauben

Art. 2 Abs. 1 ZGB verlangt vom Arbeitgeber ein Verhalten nach Treu und Glauben. Diese Generalklausel kann ausgelegt eine immense Fallrelevanz aufweisen.[36] Im Bewerbungsprozess geschieht dies insbesondere in Fällen einer quasivertraglichen Haftung aus culpa in contrahendo. Bei einem Verstoss gegen das Gebot von Treu und Glauben im Vertragsverhandlungsverhältnis kann ein Geschädigter Anspruch auf den Ersatz des Schadens erheben, welcher ihm aus dem von der Gegenpeartei erweckten Vertrauen auf das Zustandekommen eines Vertrags erwachsen ist.[37] Die Gerichte zeigen sich jedoch sehr streng bei der Beurteilung, ob die Voraussetzungen für eine culpa in contrahendo vorliegen.[38] Zusätzlich mindern die vergleichsmässig geringen Schadensummen sowie die bundesgerichtliche Rechtsprechung, analog zur deliktischen Haftung in Art. 60 OR für die culpa in contrahendo die kurze Verjährungsfrist von drei Jahren anzuwenden[39], für Bewerber regelmässig den Anreiz zu klagen. Nichtsdestotrotz kann die Haftung aus culpa in contrahendo den Arbeitgeber im Einzelfall treffen.

2. Das arbeitsrechtliche Diskriminierungsverbot

Erteilt der Arbeitgeber einem Bewerbenden eine Absage, hat der Arbeitssuchende grundsätzlich kein Recht auf eine Begründung.[40] Sollte der Arbeitgeber jedoch trotzdem einen spezifischen Grund für den negativen Entscheid nennen, darf diese Begründung nicht gegen ein gesetzlich verankertes Diskriminierungsverbot verstossen.

a. Erscheinungsformen der Diskriminierung

Eine Diskriminierung ist gemäss bundesgerichtlicher Rechtsprechung eine qualifizierte Ungleichbehandlung von Personen in vergleichbaren Situationen, indem sie eine Benachteiligung von Menschen bewirkt, die als Herabwürdigung oder Ausgrenzung einzustufen ist.[41] Dies geschieht, indem an Unterscheidungsmerkmalen anknüpft wird, die einen wesentlichen und nicht oder nur schwer aufgebbaren Bestandteil der Identität der betroffenen Personen ausmachen.[42] Wenn ein Rechtsakt ohne hinreichende Rechtfertigung an ein sensibles[43] Persönlichkeitsmerkmal anknüpft, wird von einer direkten Diskriminierung gesprochen.[44] Eine indirekte, oft schwierig zu beweisende Diskriminierung liegt hingegen vor, wenn eine Regelung, die keine offensichtliche Benachteiligung von spezifisch gegen Diskriminierung geschützter Gruppen enthält, in ihren tatsächlichen Auswirkungen Angehörige einer solchen Gruppe ohne sachliche Begründung besonders stark benachteiligt.[45]

b. Völkerrechtliche Diskriminierungsverbote

Diskriminierungsverbote finden sich in zahlreichen völkerrechtlichen Abkommen, so beispielsweise im UNO-Menschenrechtsübereinkommen[46], in der EMRK[47] oder in den ILO-Übereinkommen[48]. Die von der Schweiz ratifizierten Abkommen auferlegen dem Gesetzgeber die Pflicht, innerstaatlich einen wirksamen Schutz vor der Diskriminierung verschiedener Persönlichkeitsmerkmale zu gewährleisten. Damit ist der primäre Adressat dieser völkerrechtlichen Pflichten der Staat, wodurch die arbeitsrechtlich relevanten Diskriminierungsverbote auf private Arbeitgeber lediglich eine indirekte Drittwirkung entfalten.[49]

c. Verfassungsrechtliches Diskriminierungsverbot

Um sowohl den völkerrechtlichen Ansprüchen gerecht zu werden als auch die bisherige richterliche Rechtsprechung zu kodifizieren, wurde im Jahr 1999 nach dem Gleichheitsgebot in Art. 8 Abs. 2 BV ein Diskriminierungsverbot in der Bundesverfassung festgehalten.[50] Dieses verbietet jegliche Diskriminierung aufgrund einer Reihe nicht abschliessend aufgezählter Merkmale wie beispielsweise der Herkunft, des Geschlechts oder des Alters. Beim verfassungsrechtlichen Diskriminierungsverbot handelt es sich um ein Grundrecht, welches sich in erster Linie wieder an den Staat sowie an Institutionen, welche staatliche Aufgaben verrichten, richtet.[51] Die staatlichen Behörden haben zwar grundsätzlich für die Wirksamkeit der Grundrechte auch unter Privaten zu sorgen.[52] Durch den Konflikt zwischen dem Diskriminierungsverbot in Art. 8 Abs. 2 BV einerseits und der aus Art. 27 BV abgeleiteten Vertragsfreiheit andererseits[53] wird eine Privatperson aufgrund der fehlenden direkten Drittwirkung vor Gericht einen schwierigen Stand haben, wenn allein gestützt auf Art. 8 Abs. 2 BV oder eine internationale Vereinbarung eine Diskriminierung im Bewerbungsprozess geltend gemacht wird.[54]

d. Gesetzliches Diskriminierungsverbot

Neben den bereits erwähnten Bestimmungen in Art. 2 ZGB sowie Art. 28 ZGB (siehe Rz. 17 ff. und Rz. 20) wurde das Diskriminierungsverbot während des Bewerbungsprozesses vom Gesetzgeber insbesondere im Gleichstellungsgesetz[55] umgesetzt.[56] Dieses statuiert ausdrücklich, dass niemand aufgrund des Geschlechts vom Zugang zu Arbeitsstellen ausgeschlossen oder benachteiligt werden darf.[57] Gerechtfertigt sein können Ausnahmen, wenn das Geschlecht selbst ein essentielles Merkmal der ausgeschriebenen Arbeit darstellt[58] oder untrennbar mit der Erreichung eines rechtmässigen Arbeitsziels verknüpft ist[59]. Eine bewerbende Person, welche sich ernsthaft um eine Stelle bemüht[60] und aufgrund einer (in-)direkten Geschlechterdiskriminierung eine Absage erhält, hat Anspruch auf eine Entschädigung.[61] Dazu muss die betroffene Person die Diskriminierung beweisen, ohne dabei von der für die meisten Diskriminierungstatbestände vorgesehenen Beweislasterleichterung profitieren zu können.[62] Immerhin kann gestützt auf das Gleichstellungsgesetz vom Arbeitgeber eine schriftliche Begründung des negativen Entscheids verlangt werden.[63] Zu beachten ist auch, dass das Diskriminierungsverbot in Art. 3 GlG bei einem Stelleninserat noch keine Anwendung findet. Es darf also theoretisch eine Stelle geschlechterspezifisch ausgeschrieben werden.[64]

3. Datenschutz

Eine weitere Haftungsgrundlage für eine Persönlichkeitsverletzung kann sich aus dem Bundesgesetz über den Datenschutz[65] ergeben. Dabei erweisen sich insbesondere die Datenbearbeitungsgrundsätze als relevant. Diese umfassen unter anderem die Rechtmässigkeit und Verhältnismässigkeit der Datenbearbeitung, ein Verhalten nach Treu und Glauben, das Zweckbindungsgebot, die Erkennbarkeit der Beschaffung und des Bearbeitungszwecks sowie die Datenrichtigkeit und -sicherheit.[66] Das Bundesgericht kam vor kurzem in einer Abkehrung von der bisherigen Praxis[67] zum Schluss, dass Art. 328b OR, welcher vorsieht, dass sich jegliche Datenbearbeitung durch den Arbeitgeber auf die Eignung für das Arbeitsverhältnis einzuschränken hat, ebenfalls als Bearbeitungsgrundsatz zu qualifizieren ist.[68] Dies bedeutet, dass eine gegen Art. 328b OR verstossende Datenbearbeitung zwar rechtswidrig ist, sich allenfalls aber auf einen Rechtfertigungsgrund gemäss Art. 13 DSG stützen kann.[69]

4. Das Verbot automatisierter Einzelentscheidungen

Wenn Entscheide, welche rechtliche Konsequenzen für die betroffenen Personen haben oder sie sonst in wesentlicher Weise beeinträchtigen, statt von einer Person durch ein algorithmusbasiertes System getroffen werden, spricht man von automatisierten Einzelentscheiden.[70] Problematisch an solchen sind insbesondere die Entscheidfindungen anhand statischer Angaben, Berechnungen und schlussendlich eines Persönlichkeitsprofils (sog. Profiling).[71] Verschiedene Nachbarländer der Schweiz[72] sowie die EU[73] haben Vorschriften zur Zulässigkeit solcher automatisierter Einzelentscheidungen erlassen. Der Schweizer Gesetzgeber plant nun im nDSG[74] immerhin die Einführung einer Informationspflicht bei einer automatisierten Einzelentscheidung.[75]

5. Zwischenfazit

Von praktischer Relevanz im Hinblick auf die Haftung des Arbeitgebers im Bewerbungsprozess sind für den Geschädigten hauptsächlich die Bestimmungen des Gleichstellungsgesetzes sowie allenfalls Art. 28 ZGB und die culpa in contrahendo. Diese Gesetzesbestimmungen sollen jedoch in erster Linie einen Schutz gegen ein rechtswidriges Verhalten des Arbeitgebers bieten. Was bedeutet es nun allerdings für diese Haftungsgrundlagen, wenn die Selektion der Bewerbenden nicht vom Arbeitgeber selbst, sondern durch eine KI vorgenommen wird?

IV. Haftung des Arbeitgebers für Handlungen der KI?

In der Schweiz gibt es heute noch keine explizite gesetzliche Regelung für die Haftung bei KI-Einsätzen. Eine interdepartementale Expertengruppe des Bundes kam sodann vor Kurzem zum Schluss, dass die bestehenden Rechtsnormen ausreichen würden, um sämtliche durch den Einsatz von KI beeinflussten Situationen rechtlich abzudecken.[76] Diese Einschätzung wird in der Lehre jedoch zu Recht angezweifelt.[77]

Einem «gewöhnlichen» Roboter mangelt es an der Rechts- und Handlungsfähigkeit, womit er keine eigene rechtswirksame Willenserklärung abgeben kann.[78] Solche Erklärungen und Handlungen sind dementsprechend einem Menschen zuzuordnen.[79] Eine KI hingegen zeichnet sich dadurch aus, dass sie die Fähigkeit hat, aus eingespeisten Daten zu lernen[80] und aus den daraus gezogenen Schlüssen mit einem gewissen Grad an Autonomie zu handeln.[81] Aufgrund dessen wird die Kausalkette zwischen Handlungen der KI und deren Nutzer, hier dem Arbeitgeber, in der Gesellschaft als schwächer empfunden.[82] Doch eine eigenständige Haftung der KI ist in unserem Rechtssystem nicht vorgesehen und momentan auch gar (noch) nicht umsetzbar - zuerst müssten zahlreiche Grundsatzfragen geklärt werden, wie zum Beispiel die Frage der Rechtsnatur einer KI, Beweislastregeln oder die Bestrafungsmöglichkeiten für KI.[83]

Wird nun jedoch im Bewerbungsprozess das Persönlichkeitsrecht eines potentiellen Arbeitnehmers durch eine KI verletzt, müsste nach dem gängigen Rechtsempfinden jemand die rechtliche Verantwortung dafür übernehmen. Eine prominente Lehrmeinung vertritt dazu die Ansicht, dass dies der Arbeitgeber sein müsse.[84] Andere sehen den Programmierer bzw. den Hersteller der KI oder deren Algorithmus-Trainer in der Pflicht.[85]

1. Kausalitätsproblematik

Häufig wird bereits unklar sein, ob ein Schaden durch ein Produktfehler der KI oder ein Fehlverhalten des Arbeitgebers ausgelöst wurde.[86] Verstärkt wird dies noch durch die Tatsache, dass die Daten für das kontinuierliche Training der KI aus Datenschutzgründen oftmals nicht oder nur in verschlüsselter Form verfügbar sind.[87] Und selbst wenn die entsprechenden Daten abgerufen werden können, handelt es sich in der Regel um Millionen aus Codezeilen aus verschiedenen Quellen, was eine Rückverfolgung des Fehlers nahezu verunmöglicht.[88] Erschwerend kommt noch hinzu, dass die einzelnen Daten nur einen Bruchteil der Funktionsweise einer KI beeinflussen.[89] Damit wird die Kausalität zwischen der Persönlichkeitsverletzung und dem Verhalten der KI oder des Arbeitgebers oft nur sehr schwer nachzuweisen sein. Ohne Zugang zu allen vorhandenen Logdaten, zur Codierung der Software und unter Umständen sogar zu dem für das Training verwendeten Datensätzen wird es regelmässig unmöglich sein, den Entscheidungsprozess der KI transparent zu machen und damit die Kausalität nachzuweisen.

Ein möglicher, vielversprechender Ansatz zur Erleichterung der Beweisführung für die bewerbende Person wäre hier der Rückgriff auf die Doktrin des allgemeinen Gefahrensatzes.[90] Damit müsste derjenige, der einen gefährlichen Zustand schafft, aufrechterhält oder anderweitig rechtsverbindlich zu vertreten hat, alle in seiner Situation erforderlichen und zumutbaren Schutzmassnahmen ergreifen, um eine Beeinträchtigung der gefährdeten Rechtsgüter zu verhindern.[91] Wie der Arbeitgeber diese Schutzpflicht in der Praxis konkret umsetzen müsste, wäre von der Rechtsprechung zu etablieren.

Möglich wäre auch eine Angleichung der schweizerischen Gesetzgebung an die momentan in der EU diskutierte Beweislasterleichterung, welche in der Richtlinie über KI-Haftung vorgeschlagen wird.[92] Diese sieht die Einführung einer «Kausalitätsvermutung» vor. Wenn Opfer beweisen können, dass eine Person eine für den Schaden relevante Verpflichtung nicht eingehalten hat und dass ein ursächlicher Zusammenhang mit einer KI-Leistung wahrscheinlich erscheint, darf das Gericht von einer Kausalität zwischen Nichteinhaltung der Verpflichtung und des Schadens ausgehen. Diese Vermutung wäre von der Gegenpartei zu widerlegen. Um an die einschlägigen Beweismittel zu gelangen, dürfen Kläger die Offenlegung von Informationen über Hochrisiko-KI-Systeme beantragen.[93] Diese Handhabung der Problematik erscheint grundsätzlich sinnvoll, jedoch wäre für Arbeitnehmer eine Ausweitung der Informationsoffenlegung auf alle KI-Systeme notwendig.

2. Verschuldensabhängige Haftung

Grundsätzlich gibt es zwei mögliche Haftungssubjekte: der Arbeitgeber als Nutzer der KI und der Hersteller.[94] Die Zuordnung einer ergangenen Persönlichkeitsverletzung in die Risikosphäre einer der beiden Haftungssubjekte gestaltet sich als überaus schwierig.

Der Arbeitgeber wird sich bei der Frage nach der Haftung zweifellos auf den Standpunkt stellen, dass der KI-Hersteller durch seine Programmierung die Kontrolle über das Handeln der KI innehält.[95] Die Lernfähigkeit der KI wird jedoch graduell mit der Zunahme der Nutzungsdauer zu einer Verminderung der Kontrolle des Herstellers führen. Entscheidend für eine verschuldensabhängige Haftung muss also schlussendlich sein, wie der Arbeitgeber mit dem KI-System interagiert und welche Kontrollmöglichkeiten er besitzt.[96]

Für eine grundsätzliche Haftung des Arbeitgebers spricht, dass er die Entscheidungsgewalt darüber hat, wann, wo und zu welchen Zwecken er ein KI-System einsetzt. Gleichzeitig profitiert auch in erster Linie er von der Nutzung einer KI. Aus Sicht des Bewerbenden ist eine Haftung des Arbeitgebers natürlich einer Haftung des KI-Herstellers vorzuziehen, denn in Anbetracht der momentanen Rechtslage hat der Bewerber keine gesetzliche Haftungsgrundlage, mit welcher er direkt gegen den KI-Hersteller vorgehen könnte. Meist wird auch schon die Information, um welchen Hersteller bzw. Programmierer es sich im spezifischen Fall handelt, nur mit Mühe zu bekommen sein. Ebenfalls zu bedenken sind die arbeitnehmerschutzbedingten prozessualen Vereinfachungen im Arbeitsprozess.[97]

Gegen eine Haftung des Arbeitgebers wird jedoch in den meisten Fällen sprechen, dass ohne besondere Sachkenntnisse die wenigsten Arbeitgeber in der Lage sein werden, über die KI Kontrolle auszuüben, geschweige denn ihre internen technischen Vorgänge nachzuvollziehen. Deshalb wird von einem Teil der Lehre auch dafür plädiert, die Haftung auf professionelle KI-Nutzer einzuschränken.[98] Selbstverständlich sollte es aber in jedem Fall darauf ankommen, wie sehr der Arbeitgeber in den Entscheidungsprozess der KI eingebunden ist. Es muss differenziert werden zwischen Szenarien, in welchen die KI lediglich als Entscheidungshilfesystem fungiert («human in the loop»), die KI vom Arbeitgeber überwacht selbstständig Entscheidungen trifft («human on the loop») und völlig autonomen Entscheidfindungsprozessen der KI («human off the loop»).[99]

Ein Verschulden des Arbeitgebers müsste in jedem Fall im Sinne einer Sorgfaltspflichtverletzung erfolgen. Eine solche könnte beim Einsatz der KI, bei der Datenauswahl für den Lernprozess, bei der Wartung oder bei der Überwachung auftreten.[100]

Eine praktische Schwierigkeit wird sich ergeben, wenn es darum geht, einen realistischen Sorgfaltsmassstab festzulegen. Für den technischen Laien wird es nämlich in der Regel sehr schwierig sein, eine vernünftige Einschätzung darüber zu treffen, in welchen Situationen die Entscheidungen der KI übersteuert werden sollen - sofern diese überhaupt als einzelständige Entscheidungen erkenntlich sind.[101] Die kontinuierlichen technischen Fortschritte bei der Entwicklung von KI werden hier noch erschwerend hinzukommen.[102] Vernünftig durchsetzbar wäre zum heutigen Zeitpunkt wohl lediglich die Feststellung eines Verschuldens, wenn der Arbeitgeber gegen die vom Hersteller bekanntgegebenen Informationen zum bestimmungsgemässen und sicheren Gebrauch der KI verstösst.[103] Expertengruppen arbeiten seit Längerem daran, das Problem der mangelnden Nachvollziehbarkeit von KI-Entscheiden durch eine konkrete Aufgliederung der technischen Prozesse zu beheben (sog. Explainable AI).[104] Dies mag für bestimmte Empfängerkreise durchaus von Nutzen sein und künftig eine Basis für eine entsprechende Haftungsgrundlage schaffen, durch die Heterogenität der Arbeitgeber in der Schweiz müssten die entsprechenden Erklärungen allerdings auf ein generelles technisches Niveau heruntergebrochen werden, dass schlussendlich am praktischen Mehrwert solcher Darstellungen zu zweifeln ist.

Von Teilen der Lehre wird aufgrund der genannten Gründe eine Verschärfung der Verschuldenshaftung von KI-Benützern befürwortet.[105] Eine solche würde jedoch tiefgreifende rechtliche Änderungen wie beispielsweise die Subsumtion einer KI als Gehilfe im Sinne von Art. 55 OR[106] oder eine Verschuldenshaftung mit einer widerlegbaren Vermutung des Verschuldens oder des Kausalzusammenhangs[107] erfordern. Zum jetzigen Zeitpunkt sind dies jedoch (noch) rechtstheoretische Diskussionen, welche für die Haftung der Arbeitgeber beim Einsatz von KI keine praktische Relevanz haben dürften.[108]

3. Verschuldensfrage bei spezifischen Persönlichkeitsverletzungen im Bewerbungsprozess

Die durch eine KI begangenen Persönlichkeitsverletzungen im Bewerbungsprozess werden bezüglich des Verschuldens eines Arbeitgebers im Einzelfall beurteilt werden müssen.

In Fällen von unzulässigen Bewerbungsfragen sowie Datenschutzverletzungen dürfte wohl regelmässig derjenige verantwortlich sein, welcher die Programmierung vornimmt und dabei der KI keine angemessenen Schranken setzt. Dies wird in der Regel nicht der Arbeitgeber sein. Ausgenommen sind selbstverständlich Fälle, in welchen der Arbeitgeber konkret eine bestimmte unzulässige Bewerbungsfrage vorgibt, da hier die Kontrolle klar beim Arbeitgeber und nicht beim Programmierer der KI liegt.

Anders sieht die Situation allenfalls aus, wenn die KI aufgrund von Datensätzen, welche vom Arbeitgeber stammen, ein diskriminierendes Verhalten erlernt. Jede diskriminierende Entscheidung einer KI stellt letztendlich lediglich eine Wiederholung bzw. Vertiefung menschlichen Verhaltens dar.[109] Demzufolge wäre in Fällen, in welchen aus den vom Arbeitgeber gelieferten und damit gutgeheissenen Daten bereits Diskriminierungen ersichtlich sind, eine Haftung des Arbeitgebers durchaus möglich. Falls der Arbeitgeber zusätzlich für eine bestimmte Stellenausschreibung noch Kriterien und Stichworte vorgibt, welche eine Diskriminierung weiter unterstützen, muss fast von einer Zurechnung in die Risikosphäre des Arbeitgebers ausgegangen werden.

4. Verschuldensunabhängige Haftung

Wie aufgezeigt ist der Verschuldensnachweis neben dem Kausalitätsbeweis eines der Hauptprobleme bei der Frage der Haftung für KI-Systeme. Eine verschuldensunabhängige Haftung wäre deshalb auf den ersten Blick eine einfache Lösung, birgt allerdings bei näherer Betrachtung ihre eigenen Probleme.[110]

Für Gefahrenquellen mit besonders hohem Risikofaktor existieren für KI im geltenden Recht bereits Haftungsregelungen, so beispielsweise im SVG[111] bzw. LFG[112] für KI-gesteuerte Fahrzeuge oder Drohnen.[113] Für KI, wie sie ein Arbeitgeber im Bewerbungsprozess nützt, gibt es derzeit soweit ersichtlich noch keine spezifische anwendbare Haftungsnorm.

Weitere Regulierungsansätze, wie beispielsweise die Idee, das schweizerische Datenschutzrecht an die neuen technischen Herausforderungen durch KI anzupassen, wurden bisher nicht gross weiterverfolgt.[114]

V. Fazit und Ausblick

Zusammenfassend muss festgehalten werden, dass der zunehmende Einsatz von KI für die heutigen Schweizer Haftungsregelungen eine erhebliche Herausforderung darstellt. Klar ist, dass der Einsatz von KI im Bewerbungsprozess erweiterte Möglichkeiten für eine Persönlichkeitsverletzung schafft.

Bereits die Feststellung, ob überhaupt durch das Verhalten einer KI eine Persönlichkeitsverletzung ergangen ist und wem eine solche kausal zugerechnet werden kann, dürfte in der Praxis grösste Schwierigkeiten bereiten und überdies in der Regel zwingend ein vertieftes technisches Verständnis voraussetzen. Die Beweislast der Persönlichkeitsverletzung trägt zudem der Bewerbende[115], welcher ohne Einsicht in die Algorithmen oder zumindest in die eingespeisten Datensätze kaum Erfolg haben wird. Dazu kommt, dass sich der Hersteller der KI als nicht direkt in den Gerichtsprozess involvierte Partei regelmässig gegen eine Datenherausgabe sträuben wird. Generell befindet sich der Bewerbende durch das vorvertragliche Verhältnis in einer schwachen Position, da er in seiner Persönlichkeit hauptsächlich durch rechtliche Generalnormen und das Gleichstellungsgesetz geschützt ist. Aufgrund dieser Tatsachen dürfte es auch zukünftig kaum zu Haftungsfällen des Arbeitgebers basierend auf Persönlichkeitsverletzung durch den Einsatz von KI kommen. Dafür fehlen schlicht die gesetzlichen Grundlagen und eine Rechtspraxis. Einzig bei einer offensichtlich diskriminierenden Selektion der Bewerbenden durch eine KI kann zum heutigen Zeitpunkt eine Haftung des Arbeitgebers realistisch gesehen allenfalls eine erfolgsversprechende Rechtsverfolgung nach sich ziehen.

Trotz der eingeschränkten Haftung des Arbeitgebers durch fehlende rechtliche Regelungen sollte der Einsatz von KI im Bewerbungsprozess nicht verteufelt werden. Im Endeffekt ist es wohl schwierig zu beurteilen, ob eine KI oder ein Mensch einen Bewerbungsprozess objektiv betrachtet auf gerechtere Art und Weise durchführen kann.[116] Eine KI wird nie durch Krankheit ausfallen, kann Bewerbungen viel gründlicher und schneller durchsehen und, falls gewünscht, in zahlreichen Sprachen agieren. Theoretisch können arbeitsrechtliche Vorgaben sogar besser umgesetzt werden als von einem menschlichen Arbeitgeber, weil die entscheidenden Algorithmen im Vorfeld kontrolliert werden können.[117] Man könnte ausserdem argumentieren, dass der Einsatz von KI auch genutzt werden kann, um unbewusste menschliche Vorurteile im Bewerbungsprozess komplett auszuschliessen, indem der KI beigebracht wird, streng nach ausgesuchten objektiven Kriterien zu entscheiden.[118] Beispielsweise könnte man eine Altersdiskriminierung vermeiden, indem der KI beigebracht wird, lediglich auf den Detailreichtum, die Geschwindigkeit sowie die grammatikalische Korrektheit der Antworten in einem Bewerbungsinterview zu achten.[119] Dies wäre schlussendlich ein grosser Gewinn für Arbeitgeber und -nehmer.

Wie sehr Arbeitgeber im Bewerbungsprozess zukünftig von KI Gebrauch machen werden - und sich damit die Rechtsprechung zwangsläufig näher mit den sich damit stellenden Haftungsfragen beschäftigen muss -, bleibt abzuwarten. Momentan wird noch stark zu von Menschen geführten Bewerbungsgesprächen tendiert, während eine Vorselektion der Bewerbungsschreiben durch KI bereits teilweise umgesetzt und von der Gesellschaft auch mehrheitlich akzeptiert wird.[120] Es bleibt stark zu hoffen, dass der Schweizer Gesetzgeber in naher Zukunft eine detailliertere Regelung für die rechtliche Handhabung von KI erlassen wird. Nur so können die KI-Hersteller und Arbeitgeber ausreichend motiviert werden, seriös und unter Beachtung der Rechte der Bewerber zu agieren. An der Wirksamkeit einer freiwilligen Selbstregulierung darf aufgrund der bisherigen Erfahrung gezweifelt werden.[121] Durch klare Leitlinien wird ein rechtmässiger Einsatz von KI im Arbeitsumfeld gefördert, was wiederum zu neuen Erfahrungswerten und Erkenntnissen für die Wissenschaft und damit letztlich zu mehr technischer Innovation führt. Es erscheint essentiell, insbesondere die Kausalitäts- und Verschuldensthematik bei Haftungsfragen im Zusammenhang mit KI einer generellen, abstrakten Lösung zuzuführen, damit der Bewerber als schwächere Partei im Anstellungsprozess in seinen Rechten geschützt wird. Weiter wäre es sinnvoll, wenn der Bund durch gezieltes Informieren seiner Bürger, insbesondere der Arbeitgeber, zu einer Sensibilisierung der Bevölkerung für diese Thematik beitragen würde.



[1] In diesem Beitrag wird aus Gründen der besseren Lesbarkeit das generische Maskulinum verwendet. Weibliche und anderweitige Geschlechteridentitäten werden dabei ausdrücklich mitgemeint, soweit es für die Aussage erforderlich ist.

[2] Konrad Krafft, Die fünf ultimativen KI Trends für das nächste Jahrzehnt, doubleSlash vom 3. Januar 2020.

[3] Isabelle Wildhaber, Artificial Intelligence and Robotics, the Workplace, Employment Law and other Workplace-Related Legal Issues, in: Pagallo/Barfield (Hrsg.), Research Handbook on the Law of Artificial Intelligence, Cheltenham et al. 2018, S. 582 (zit.: Wildhaber, Artificial Intelligence).

[4] Viele kurzfristige Jobangebote (z.B. im Bereich Promotion) fielen weg, während Arbeitnehmer gewisser Branchen wie bspw. dem Service sich zu Umschulungen gezwungen sahen. Angebot und Nachfrage veränderten sich stark: Tanja Buch et al., Arbeitsmarkteffekte der Corona-Krise - Sind Berufsgruppen mit niedrigen Einkommen besonders betroffen?, Wirtschaftsdienst 1/2021, S. 14 ff.

[5] David Vonplon, Der letzte Rettungsanker für Firmen in Personalnot, NZZ vom 2. August 2022, S. 7.

[6] Man spricht hier gerne von «Hiring by Algorithm», E-Recruiting oder von der Nutzung von «Applicant-Tracking-Systemen» (ATS) und HR-Bots.

[7] Wildhaber, Artificial Intelligence (Fn. 3), S. 577; Ed Burns, Künstliche Intelligenz (KI) - Definition, Computerweekly.de, 2021.

[8] Ein prominentes Beispiel ist der Personalverleiher Coople (www.coople.com); Vonplon (Fn.5), S. 7.

[9] Gail Gottehrer / Ronald Hedges, Data Security, Professional Perspective - Using AI to Analyze Video-Recorded Job Interviews, Bloomberg Law Reports, April 2020.

[10] Ein Chatbot ist ein technisches Dialogsystem, welches eine (schriftliche) Konversation zwischen einem Menschen und einem Computersystem erlaubt. Aus der Begriffsaufschlüsselung (engl. «to chat» = sich unterhalten; «bot» = kurz für Roboter) ergibt sich eigentlich die Definition eines chatbots: ein Roboter, mit dem man sich unterhalten kann.

[11] Nadja Gross / Jacqueline Gressel, Entpersonalisierte Arbeitsverhältnisse als rechtliche Herausforderung - Wenn Roboter zu Kollegen und Vorgesetzten werden, NZA 2016, S. 991.

[14] Nolan (Fn. 12).

[15] Thomas Geiser / Roland Müller, Arbeitsrecht in der Schweiz, 4. Aufl., Zürich 2019, S. 97.

[18] Felicitas Wilke, Künstliche Intelligenz diskriminiert (noch), Zeit Online vom 18. Oktober 2018.

[19] Besonders anschaulich sind hier als Beispiel die Fälle zu nennen, in welchen das KI-System die Gesichter dunkelhäutiger Menschen nicht einmal erkannte; Lisa Kuner, KI im Bewerbungsprozess: Und raus bist du!, Frankfurter Allgemeine vom 9. August 2021.

[20] Isabelle Wildhaber, Robotik am Arbeitsplatz: Robo-Kollegen und Robo-Bosse, AJP 2017, S. 215 (zit.: Wildhaber, Robo-Bosse).

[21] Wildhaber, Artificial Intelligence (Fn. 3), S. 588.

[22] In der EU-Verordnung 5419/16 vom 6. April 2016 über zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung der Richtlinie 95/46/EG (Datenschutz-Grundverordnung; DSGVO) ist bspw. eine Zustimmung des Betroffenen notwendig, wenn eine Entscheidung «automatisch» getroffen wird (Art. 22 Abs. 2 lit. c DSGVO). Problematisch ist auch eine weiterführende Recherche der KI über die Bewerbenden im Internet und den sozialen Medien; Gwendolin Wilke / Oliver Bendel, KI-gestütztes Recruiting - technische Grundlagen, wirtschaftliche Chancen und Risiken sowie ethische und soziale Herausforderungen, HMD Praxis der Wirtschaftsinformatik 2022, S. 663.

[23] Raffael Steger / Andrea Meule, Soziale Netzwerke: Wann das Arbeitsrecht greift, KMU-Magazin Nr. 01/02 vom 21. Februar 2021.

[24] Immer mehr werden in gewissen Branchen jedoch auch Inititalbewerbungen akzeptiert und sogar erwünscht.

[25] Bundesgesetz betreffend die Ergänzung des Schweizerischen Zivilgesetzbuches (Fünfter Teil: Obligationenrecht) vom 30. März 1911 (OR; SR 220).

[26] Bundesgesetz über die Arbeit in Industrie, Gewerbe und Handel vom 13. März 1964 (Arbeitsgesetz, ArG; SR 822.11).

[28] Das Gesagte gilt nur für Bewerbungen im Bereich der Privatwirtschaft. Die Vorschriften des OR sind höchstens sinngemäss aufgrund einer Verweisung im Personalgesetz auf öffentlich-rechtliche Arbeitsverhältnisse anwendbar.

[29] Geiser/Müller (Fn. 15), S. 97.

[30] Schweizerisches Zivilgesetzbuch vom 10. Dezember 1907 (ZGB; SR 210).

[31] Zum Alter ausführlich Kurt Pärli, Altersdiskriminierung - von der Anstellung bis zur Kündigung, ARV 2018, S. 1 ff. (zit.: Pärli, Altersdiskriminierung); Kurt Pärli, Auswirkungen des Allgemeinen Gleichbehandlungsgesetzes auf das Arbeitsrecht, ARV 2006, S. 23 ff.

[33] Kurt Pärli, Vertragsfreiheit, Gleichbehandlung und Diskriminierung im privatrechtlichen Arbeitsverhältnis, Bern 2009, Rz. 790 ff. (zit.: Pärli, Vertragsfreiheit).

[34] Pärli, Vertragsfreiheit (Fn. 33), Rz. 1437 ff.

[36] Heinrich Honsell, in: Honsell/Geiser/Fountoulakis (Hrsg.), Basler Kommentar, Zivilgesetzbuch I, 6. Aufl., Basel 2018, Art. 2 ZGB N 3 (zit.: BSK ZGB I-Bearbeiter:in).

[38] Dominik Probst, in: Etter/Facincani/Sutter (Hrsg.), Arbeitsvertrag - Der Einzelarbeitsvertrag (EAV) unter Einbezug der Art. 319-355 sowie Art. 361/362 OR, Bern 2021, Art. 320 N 4; Urteil des Bundesgerichts 4C.247/2005 vom 17. November 2005 E. 3.2.

[40] Geiser/Müller (Fn. 15), S. 96.

[42] BGE 129 I 217 E. 2.1. m.H.

[43] Diese sensiblen Merkmale werden teilweise in Art. 8 Abs. 2 BV (Bundesverfassung der Schweizerischen Eidgenossenschaft vom 18. April 1999 [BV; SR 101]) aufgezählt, bspw. die Herkunft, Rasse oder das Alter einer Person. Die Aufzählung ist allerdings nicht abschliessend und kann im Sinne einer Grundrechtskonkretisierung erweitert werden; Bernhard Waldmann, in: Waldmann/Belser/Epiney (Hrsg.), Basler Kommentar, Schweizerische Bundesverfassung, Basel 2015, Art. 8 N 65. (zit.: BSK BV-Bearbeiter:in).

[44] BSK BV-Waldmann, Art. 8 N 62.

[45] BGE 126 II 377 E. 6c; BGE 134 I 49 E. 3; BGE 132 I 49 E. 8.1; BGE 132 I 167 E. 3; Andreas Stein, Die Beweislast in Diskriminierungsprozessen - ein unbekanntes Wesen?, NZA 2016, S. 849 ff.

[46] Art. 2(2) und Art. 3 Uno-Pakt II (Internationaler Pakt über wirtschaftliche, soziale und kulturelle Rechte vom 16. Dezember 1966 [UNO-Pakt II; SR 0.103.1]); Art. 2(1) und Art. 26 Uno-Pakt I (Internationaler Pakt über bürgerliche und politische Rechte vom 16. Dezember 1966 [UNO-Pakt I; SR 0.103.2]). Zu beachten ist aber der Vorbehalt der Schweiz zu Art. 26 UNO-Pakt II.

[47] Art. 14 EMRK (Europäische Konvention zum Schutz der Menschenrechte und Grundfreiheiten 5. November 1950 [EMRK; SR 0.101]).

[48] Bspw. Übereinkommen Nr. 111 über die Diskriminierung in Beschäftigung und Beruf vom 25. Juni 1958 (ILO-Übereinkommen; SR 0.822.721.1).

[49] Pärli, Altersdiskriminierung (Fn. 31), S. 3.

[51] Art. 35 Abs. 2 BV; zum Ganzen Giovanni Biaggini, in: Biaggini (Hrsg.), Zürcher Kommentar, Bundesverfassung der Schweizerischen Eidgenossenschaft, 2. Aufl., Zürich 2017, Art. 8 N 18; BGE 138 I 475 E. 3.3.2; Markus Schefer / Caroline Hess-Klein, Zum Verbot der Diskriminierung von Menschen mit Behinderung durch private Dienstleistungsanbieter, Jusletter vom 25. Februar 2013.

[53] BSK BV-Uhlmann, Art. 27 N 10.

[54] Siehe dazu beispielhaft Urteil des Obergerichts Zürich LA150046 vom 23. November 2015, wo ein 51-jähriger Arbeitsuchender im Bewerbungsverfahren abgewiesen wurde, weil man für die ausgeschriebene Stelle nur Interesse an Bewerbungen von Personen hatte, die unter 40 Jahre alt waren. Das Obergericht schützte den Entscheid des Arbeitsgerichts, dass Art. 8 Abs. 2 BV sowie Art. 14 EMRK keine Rechtsgrundlagen für einen Anspruch des Diskriminierten darstellen.

[55] Bundesgesetz über die Gleichstellung von Frau und Mann vom 24. März 1995 (GlG; SR 151.1).

[56] Soweit ersichtlich bisher gerichtlich ungeklärt ist, ob gestützt auf Art. 261bis StGB (Schweizerisches Strafgesetzbuch vom 21. Dezember 1937 [StGB; SR 311.0]) ein Schutz vor Diskriminierung im Bewerbungsprozess geltend gemacht werden kann.

[58] Dies wäre bspw. bei spezifischen Rollenangeboten für Theaterdarsteller möglich.

[59] Zu denken wäre hier z.B. an eine Betreuerin in einem Frauenhaus, siehe dazu auch BGE 113 Ia 107; BGE 125 I 71.

[60] Für ein Beispiel einer nicht ernstgemeinten Bewerbung siehe das Urteil des Gewerblichen Schiedsgerichts Basel-Stadt 1998/294 vom 17. Dezember 1998.

[61] Art. 5 Abs. 2 GlG. Die Entschädigung hat den Charakter einer Strafzahlung und darf den Betrag von drei Monatslöhnen nicht übersteigen.

[64] Angela Hensch, Gleichstellungsgesetz und Mutterschaftsschutz, in: Portmann/von Kaenel (Hrsg.), Fachbuch Arbeitsrecht, Zürich 2018, S. 10; Jakob Ueberschlag, Die Anstellungsdiskriminierung aufgrund des Geschlechts im privatrechtlichen Arbeitsverhältnis (Art. 3 Abs. 2 GlG): unter besonderer Berücksichtigung des europäischen Rechts, Luzerner Beiträge zur Rechtswissenschaft, Bd. 44, Zürich 2009, Rz. 273 ff. Immerhin kann ein diskriminierendes Stelleninserat ein Indiz für eine geschlechterdiskriminierende Anstellungspraxis darstellen; UllinStreiff / Adrian von Kaenel / RogerRudolph, Arbeitsvertrag - Praxiskommentar zu Art. 319-362 OR, 7. Aufl., Zürich et al. 2012, Art. 320 N 16 m.w.H.

[65] Bundesgesetz über den Datenschutz vom 19. Juni 1992 (DSG; SR 235.1).

[66] Art. 4 ff. DSG; Wolfgang Portmann / Roger Rudolph, in: Honsell/Vogt/Wiegand (Hrsg.), Basler Kommentar zum Obligationenrecht I, Art. 1-529 OR, 6. Aufl., Basel 2015, Art. 328b OR N 10 ff.

[67] Urteil des Obergerichts Zürich LA180031-O/U vom 20. März 2019 E. 2.c.cc.

[68] Urteil des Bundesgerichts 4A_518/2020 vom 25. August 2021.

[69] Urteil des Bundesgerichts 4A_518/2020 vom 25. August 2021 E. 4.2.4.

[70] Vgl. Joshua Kroll et al., Accountable Algorithms, Penn Law Review 2017, S. 633 ff.

[71] Bericht der Begleitgruppe Revision DSG, Normkonzept zur Revision des Datenschutzgesetzes, Bern 2014, S. 26.

[72] In Deutschland findet sich z.B. § 6a Abs. 1 BDSG/DE, wonach grundsätzlich Entscheidungen, die für den Betroffenen eine rechtliche Folge nach sich ziehen oder ihn erheblich beeinträchtigen, nicht ausschliesslich auf eine automatisierte Verarbeitung gestützt werden dürfen, die der Bewertung einzelner Persönlichkeitsmerkmale dienen; Nadja Gross / Jacqueline Gressel, Entpersonalisierte Arbeitsverhältnisse als rechtliche Herausforderung - Wenn Roboter zu Kollegen und Vorgesetzten werden, NZA 2016, S. 991.

[73] Bspw. Art. 3 Ziff. 3 und Ziff. 11 sowie Art. 11 der Richtlinie 2016/680 des Europäischen Parlaments und des Rates vom 27. April 2016 zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten durch die zuständigen Behörden zum Zwecke der Verhütung, Ermittlung, Aufdeckung oder Verfolgung von Straftaten oder der Strafvollstreckung sowie zum freien Datenverkehr und zur Aufhebung des Rahmenbeschlusses 2008/977/JI des Rates (EU-Datenschutz-Richtlinie), ABl L 119/89 vom 4. Mai 2016.

[74] Bundesgesetz über den Datenschutz vom 25. September 2020, in Kraft ab dem 1. September 2023 (nDSG; BBl 2020 7639).

[75] Art. 21 nDSG. Die betroffene Person kann ab 1. September 2023 immerhin die Überprüfung des Entscheids durch eine natürliche Person verlangen (Abs. 2), sofern sie der automatisierten Entscheidung nicht ausdrücklich zugestimmt hat (Abs. 3 lit. a).

[76] Bericht der interdepartementalen Arbeitsgruppe «Künstliche Intelligenz» an den Bundesrat, Herausforderungen der künstlichen Intelligenz, 13. Dezember 2019, IDAG KI 2019, S. 34 ff. (zit.: Bericht IDAG KI).

[77] Isabelle Wildhaber, Eine Einführung in die ausservertragliche Haftung für Künstliche Intelligenz (KI), in: Fellmann (Hrsg.), Haftpflichtprozess 2021 - Haftung für Künstliche Intelligenz, (teil-)automatisierte Fahrzeuge, Drohnen und Software, Entwicklungen im Dienstleistungs-, Privatversicherungs-, Prozess-, Staatshaftungs- und Haftpflichtrecht, Zürich et al. 2021, S. 62 (zit.: Wildhaber, Haftung); Gerhard Wagner, Verantwortlichkeit im Zeichen digitaler Techniken, VersR 2020, S. 723 f.; Walter Fellmann, Haftpflichtrecht im Zeichen der Digitalisierung, HAVE 2021, S. 110.

[78] Isabelle Wildhaber, Die Roboter kommen - Konsequenzen für Arbeit und Arbeitsrecht, ZSR 2016, S. 317 ff.; Sylvain Métille / Nicolas Guyot, Le moment est venu de reconnaître un statut juridique aux robots, plädoyer 3/2015, S. 26 ff.

[79] Claus Müller-Hengstenberg / Stefan Kirn, Intelligente (Software-)Agenten: Eine neue Herausforderung unseres Rechtssystems - Rechtliche Konsequenzen der «Verselbständigung» technischer Systeme, MMR 2014, S. 308.

[80] Melinda Lohmann, Ein zukunftsfähiger Haftungsrahmen für Künstliche Intelligenz, HAVE 2021, S. 111 f.; Daniel Castro / Joshua New, The Promise of Artificial Intelligence, Washington D.C. et al. 2016.

[81] Erdem Büyüksagis, Responsabilité pour les systèmes d'intelligence artificielle, HAVE 2021, S. 12; Silvio Hänsenberger, Die Haftung für Produkte mit lernfähigen Algorithmen, Jusletter vom 26. November 2018, N 7 f.

[82] Alexander Campolo / Kate Crawford, Enchanted Determinism: Power without Responsibility in Artificial Intelligence, Engaging Science, Technology, and Society 6/2020, S. 12 f.

[83] Herbert Zech, Zivilrechtliche Haftung für den Einsatz von Künstlicher Intelligenz, Ringvorlesung des Doktoratprogramms Recht im Wandel: Künstliche Intelligenz im Recht, Universität Basel, 20. April 2021.

[84] Wildhaber, Robo-Bosse (Fn. 20), S. 218.

[85] Wagner (Fn. 77), S. 110; Astrid Seehafer / Joel Kohler, Künstliche Intelligenz: Updates für das Produkthaftungsrecht?, EuZW 2020, S. 213.

[86] Wildhaber, Haftung (Fn. 77), S. 37.

[87] Christine Wendehorst, Safety and Liability Related Aspects of Software, Luxembourg 2021, S. 82.

[88] Mauro Quadroni, Künstliche Intelligenz - praktische Haftungsfragen, HAVE 2021, S. 349; Lohmann (Fn. 80), S. 128.

[89] Lohmann (Fn. 80), S. 111 f.

[90] Hardy Landolt, Haftung für rechtmässige Schadenverursachung, HAVE 2014, S. 5; Quadroni (Fn. 88), S. 349 f.

[91] BGE 134 IV 193 E. 7.2 f.

[94] Wildhaber, Haftung (Fn. 77), S. 36 ff. Es wird hier der Einfachheit halber angenommen, dass der Hersteller die KI auch programmiert.

[95] Wagner (Fn. 77), S. 723 f.; Fellmann (Fn. 77), S. 110.

[96] Herbert Zech, Entscheidungen digitaler autonomer Systeme: Empfehlen sich Regelungen zu Verantwortung und Haftung?, Gutachten für den 73. Deutschen Juristentag, München 2020, S. A 51 (zit.: Zech, Gutachten); Nadja Braun Binder et al., Künstliche Intelligenz: Handlungsbedarf im Schweizer Recht, Jusletter vom 28. Juni 2021, N 46.

[97] So werden bspw. gem. Art. 113 Abs. 2 lit. d und Art. 114 lit. c ZPO (Schweizerische Zivilprozessordnung vom 19. Dezember 2008 [ZPO; SR 272]) bei arbeitsrechtlichen Streitigkeiten bis zu einem Streitwert von CHF 30'000 keine Gerichtskosten gesprochen.

[98] Zech, Gutachten (Fn. 96), S. A 98 ff.

[99] Quadroni (Fn. 88), S. 347; Jerome Gurtner, Les nouvelles technologies et la responsabilité des avocats, in: Chappuis/Winiger (Hrsg.), Responsabilité civile et nouvelles technologies, Genf et al. 2019, S. 73 f.; Jeremy Prenio / Jeffery Yong, Humans keeping AI in check - emerging regulatory expectations in the financial sector, BIS 2021.

[100] Miriam Buiten / Alexandre de Streel / Martin Peitz, EU Liability Rules for The Age of Artificial Intelligence, Report for the Centre on Regulation in Europe, März 2021, S. 43; Ruth Janal, Extra-Contractual Liability for Wrongs Committed by Autonomous Systems, in: Ebers/Navas (Hrsg.), Algorithms and Law, Cambridge 2020, S. 193.

[101] Ryan Calo, Robotics and the Lessons of Cyberlaw, California Law Review 2015, S. 529.

[102] Omri Rachum-Twaig, Whose Robot Is It Anyway?: Liability for Artificial-Intelligence-Based Robots, University of Illinois Law Review 2020, S. 1144.

[103] Wagner (Fn. 77), S. 726 ff.

[104] Melinda Lohmann, Black Box öffne dich - Transparenzpflichten bei Algorithmen, Frankfurter Allgemeine Zeitung, Einspruch vom 22. August 2018.

[105] Gunther Teubner, Digitale Rechtssubjekte? Zum privatrechtlichen Status autonomer Softwareagenten, AcP 2018, S. 191 ff.; Wagner (Fn. 77), S. 736; a.M. Zech, Gutachten (Fn. 96), S. A 76 ff.

[106] Teubner (Fn. 105), S. 192; Wildhaber, Haftung (Fn. 77), S. 53.

[107] Buiten/de Streel/Peitz (Fn. 100), S. 46; Rachum-Twaig (Fn. 102), S. 1167; Anat Lior, AI entities as AI agents: Artificial intelligence liability and the AI Respondeat Superior Analogy, Mitchell Hamline Law Review 2020, S. 1056 ff.

[108] Wie in IV. erwähnt sieht die Expertengruppe des Bundes zum Thema KI zum jetzigen Zeitpunkt keine Notwendigkeit für Änderungen in der Rechtsprechung, siehe Bericht IDAG KI (Fn. 76), S. 34 ff. Ausserdem wird eine Verschärfung der Verschuldungshaftung auch von renommierten Stimmen in der Lehre vehement abgelehnt, siehe bspw. Zech, Gutachten (Fn. 96), S. A 76 ff.; Rachum-Twaig (Fn. 102), S. 1151; Lior (Fn. 107), S. 1056.

[109] Wildhaber, Robo-Bosse (Fn. 20), S. 215.

[110] Siehe statt vieler Wildhaber, Haftung (Fn. 77), S. 54 ff. m.w.H.

[111] Strassenverkehrsgesetz vom 19. Dezember 1958 (SVG; SR 741.01).

[112] Bundesgesetz über die Luftfahrt vom 21. Dezember 1948 (Luftfahrtgesetz, LFG; SR 748.0).

[113] Vgl. auch Susana Navas, Robot Machines and Civil Liability, in: Ebers/Navas (Hrsg.), Algorithms and Law, Cambridge 2020, S. 157 ff. In der aktuell laufenden SVG-Revision werden auch Normen zum automatisierten Fahren diskutiert, wobei die Vorschläge gemäss Botschaft des Bundesrates im Parlament teilweise sehr kritisch beurteilt werden, siehe Botschaft vom 17. November 2021 zur Änderung des Strassenverkehrsgesetzes (BBl 2021 3026); im Parlament Geschäft 21.080.

[114] So wird bspw. in Isabelle Wildhaber / Melinda Lohmann / Gabriel Kasper, Diskriminierung durch Algorithmen - Überlegungen zum schweizerischen Recht am Beispiel prädiktiver Analytik am Arbeitsplatz, ZSR 2019, S. 483, vorgeschlagen, dass der Gesetzgeber sich zukünftig nicht mehr auf die Datenbeschaffung bzw. Datenbearbeitung fokussieren solle, sondern auf die Auswirkung der Datenbearbeitung auf die Persönlichkeit der Betroffenen. Statt lediglich personenbezogene Daten zu regeln, solle der Informationsfluss als solcher Regelungsgegenstand werden. Dieser Auffassung ist der Gesetzgeber bei der Ausarbeitung des nDSG nicht in grösserem Masse gefolgt.

[116] Nathan Kuncel et al., In Hiring, Algorithms beat Instinct, Harvard Business Review 5/2014, S. 32 ff.; Michael Blanding, Man v Machine: Which Makes Better Hires?, Harvard 2016.

[117] Claire Cain Miller, Can an Algorithm hire Better than a Human?, The New York Times vom 25. Juni 2015; Sarah Green Carmichael, Hiring C-Suite Executives by Algorithm, Harvard Business Review vom 6. April 2015.

[118] Frida Polli, Using AI to Eliminate Bias from Hiring, Havard Business Review vom 29. Oktober 2019.

[119] Bruce Shutan, AI can identify age discrimination in recruiting, Benefit News vom 1. April 2021.

[121] Mario Martini, Algorithmen als Herausforderung für die Rechtsordnung, Juristenzeitung 2017, S. 1020.