III. Voice Recognition im Geltungsbereich des Datenschutzrechts
1. Qualifikation von Stimm- und Sprachdaten
Eine fundamentale Unterscheidung beim Einsatz von Voice Recognition ist, ob
das System Stimm- oder Sprachdaten bearbeitet. Die Stimme ist ein biometrisches Merkmal[25]
und weist als solches in jedem Fall einen Personenbezug auf. Während
biometrische Daten unter dem gegenwärtigen DSG grundsätzlich als
«gewöhnliche» Personendaten zu qualifizieren sind,[26]
gelten sie unter dem revidierten Datenschutzgesetz[27]
als besonders schützenswerte Personendaten, wenn sie eine Person
eindeutig identifizieren.[28]
Diese Formulierung dürfte schon aufgrund der technischen
Unmöglichkeit nicht so zu verstehen sein, dass das angewandte
Verfahren eine hundertprozentige Sicherheit der Identifikation
bewerkstelligt. Vielmehr bemisst sich der Erfolg des technischen Verfahrens
anhand eines vordefinierten Schwellenwertes (threshold).[29]
So sind Aufnahmen der Stimme als biometrische Daten zu qualifizieren, wenn
das Verfahren dem Zwecke der Identifikation dient.[30]
Lassen Stimmdaten Rückschlüsse auf die Gesundheit oder
Rassenzugehörigkeit zu, so können bereits unter geltendem Recht
besonders schützenswerte Daten vorliegen.[31]
Entscheidend sind die Geeignetheit der Daten und der Bearbeitungszweck.
Werden Anzeichen einer Depression diagnostiziert, liegen Gesundheitsdaten
vor, hingegen genügen temporäre Gemütszustände oder der
Wahrheitsgehalt einer Aussage nicht.[32]
Zudem können Unterschiede in Aussprache, Wortwahl, Dialekt und
syntaktischen Strukturen mit geografischen und sozialen Faktoren und
letztlich der Rasse i.S.v. Ethnizität in Verbindung gebracht werden.[33]
Die Sprache - im Gegensatz zur Stimme - ist primär ein
Medium, das dem Informationstransfer dient.[34]
Diese Informationen sind als (besonders schützenswerte) Personendaten
zu qualifizieren, wenn sie die gesetzlichen Anforderungen erfüllen.[35]
Zu beachten ist jedoch, dass die Natur der Daten nicht im Voraus erkennbar
und dementsprechend keine separate Bearbeitung realisierbar ist, womit
konsequenterweise für sämtliche Sprachdaten der strengere
Massstab der besonders schützenswerten Personendaten angelegt werden
muss.[36]
Fraglich ist allerdings, ob die Sprache an sich ein Personendatenwert sein
kann. In der Regel werden Sprachdaten durch ein auf den Arbeitnehmer
zurückzuführendes Endgerät bearbeitet. Folglich lassen sich
die Daten regelmässig einer bestimmten Person zuordnen, wodurch ein
Personenbezug anzunehmen ist. Dies gilt umso mehr für
internetfähige Endgeräte, welche eine einmalige IP-Adresse
besitzen.[37]
Ausserdem ist im Kontext von Big Data und People Analytics für einen weiten Anwendungsbereich des DSG
zu plädieren. Moderne technische Möglichkeiten erlauben selbst
bei eigentlich anonymisierten Daten eine Re‑Identifizierung.[38]
Insofern ist es schwer denkbar, dass man sich in der Bearbeitung von Stimm-
und Sprachdaten ausserhalb des Geltungsbereiches des DSG bewegt.
2. Persönlichkeitsprofile
/ Profiling
Unter der Revision des DSG ersetzt das Profiling das bisherige
Persönlichkeitsprofil.[39]
Profiling setzt eine automatisierte Bearbeitung voraus, auf deren Basis
persönliche Aspekte der betroffenen Person vorhergesagt oder beurteilt
werden.
Das rDSG folgt einem
risikobasierten Ansatz, sodass nur an Profiling mit hohem Risiko strengere
Rechtsfolgen zu knüpfen sind. Ein solches liegt vor, wenn es mit einem
hohen Risiko für die Persönlichkeit oder Grundrechte der
betroffenen Person verbunden ist. Dies ist wiederum nichts anderes als das
Persönlichkeitsprofil unter geltendem Datenschutzrecht.[40]
Die Bearbeitung von Sprach- und Stimmdaten erfolgt bei Voice Recognition
naturgemäss automatisiert. Spracherkennende Systeme betreiben
Profiling, wenn persönliche Aspekte des Nutzers bewertet werden. Sprachassistenten können den Arbeitnehmer mitunter
bezüglich Interessen, beruflichen Schwerpunkten und persönlichen
Präferenzen analysieren und ggf. darauf basierend selbständige
Handlungen vornehmen.[41]
Profiling im Rekrutierungsprozess liegt vor, wenn
Charakterzüge, der emotionale Zustand oder die Arbeitsweise des
Bewerbers analysiert werden.[42]
Stimmanalysierende Zutrittskontrollen betreiben nur Profiling, wenn die
Anzahl der Zutrittskontrollen griffige Rückschlüsse auf den
Bewegungsablauf, das Verhalten oder den Aufenthaltsort eines Arbeitnehmers
ermöglichen.[43]
Offen bleibt, ob durch das Profiling Persönlichkeitsprofile entstehen,
die zu einem hohen Risiko für die betroffene Person führen. Dies
hängt wiederum von den im konkreten Fall getroffenen Schutzmassnahmen
ab.[44]
IV. Ausgewählte datenschutzrechtliche Problemfelder
1. Bearbeitung innerhalb des arbeitsrelevanten Bereichs
Der Datenschutz ist in seiner Natur vordergründig
Persönlichkeitsschutz.[45]
Gemäss Art. 328b OR[46]
liegt im Arbeitsverhältnis eine persönlichkeitsverletzende
Datenbearbeitung vor, wenn sie über den für das konkrete
Arbeitsverhältnis relevanten Bereich hinaus geht.[47]
Der wohl herrschende Teil der Lehre betrachtet die Norm als Verbotsnorm,
was ein Durchbruch zum Prinzip der grundsätzlichen Erlaubnis mit
Verbotsvorbehalt aufzufassen ist.[48]
Die Berufung auf einen Rechtfertigungsgrund i.S.v. Art. 13 DSG[49]
wäre folglich nicht möglich.[50]
Nach einer liberaleren und hier vertretenen Ansicht ist Art. 328b OR als ein auf
das Arbeitsverhältnis beschränkter Bearbeitungsgrundsatz zu
verstehen,[51]
der den Grundsatz der Verhältnismässigkeit konkretisiert.[52]
In diesem Sinne ist eine Verletzung von Art. 328b OR ebenso durch
einen Rechtfertigungsgrund heilbar.[53]
Ein Arbeitsplatzbezug ist insb. bei der Verwendung von Spracherkennung als
Arbeitsmittel zu bejahen. Beim Keyword Spotting oder der
Stimmanalyse ist ein solcher ebenfalls zu vermuten, sofern sich die Analyse
der Leistung oder des Verhaltens betrieblich begründen lässt.[54]
Dabei ist aber insb. zu berücksichtigen, wie flächendeckend
solche Analysen durchgeführt werden, ob auch private Unterhaltungen
ausgewertet werden und ob die Analyse dem Arbeitnehmer bekannt ist.[55]
Charaktereigenschaften wie Belastbarkeit, Teamfähigkeit oder
Kommunikationsfähigkeit zählen zu den beruflichen
Qualifikationen, weshalb bei Stimm- und Sprachanalysen im Bewerbungsverfahren ebenfalls ein Arbeitsplatzbezug zu vermuten
ist.[56]
Die Analyse weiterer Charaktereigenschaften, die der persönlichen
Qualifikation zuzurechnen sind, kann sich im konkreten Fall ebenfalls
aufdrängen, besonders wenn dies aufgrund von Haftungs- und
Reputationsrisiken geboten ist.[57]
Dieselben Überlegungen sind auch während des Arbeitsverhältnisses anzustellen. Anders ist
die Rechtslage hingegen, wenn anhand von bestehenden
Schlüsselmitarbeitern ein Wunschprofil als Referenz für
Bewerbende erstellt wird. In diesem Fall erfolgt die Bearbeitung nicht im
Zusammenhang mit dem persönlichen Arbeitsverhältnis.[58]
Biometrische Stimmdaten, die zur Identifikation oder Verifikation verwendet
werden, weisen einen Arbeitsplatzbezug auf, sofern sie für
Sicherheitszwecke notwendig sind.[59]
Werden anhand von Stimmdaten Krankheiten diagnostiziert, liegt i.d.R. kein
Arbeitsplatzbezug vor.[60]
2. Arbeitnehmerüberwachung
Das Abhören und die Aufnahme fremder Gespräche ist gemäss Art. 179bis StGB[61]
verboten. Die Norm dürfte allerdings im Zusammenhang mit Voice
Recognition kaum einschlägig sein. Zunächst wäre im
Einzelfall zu klären, ob die registrierte Sequenz überhaupt ein
Gespräch i.S. eines Gedanken- und Informationsaustausches darstellt.[62]
Die definitionsgemäss vorausgesetzte Einwilligung kann
ausdrücklich oder stillschweigend erfolgen,[63]
wodurch sie sich bereits konkludent durch die Aktivierung des
entsprechenden Systems ergibt. Bei fortlaufend aktiven Systemen kann die
Einwilligung auch in Form einer arbeitsvertraglichen Klausel vorliegen.[64]
Zudem schränkt
Art. 179quinquies Abs. 1 StGB
den Anwendungsbereich von Art. 179bis StGB
zusätzlich ein.
Relevanter dürfte Art. 26 ArGV 3[65]
sein, der den Einsatz von Überwachungs- und Kontrollsystemen
verbietet, sofern sie nicht aus anderen Gründen, wie namentlich zur
Sicherheits- oder Leistungsüberwachung, erforderlich sind.[66]
Solche Systeme dürfen die Gesundheit und Bewegungsfreiheit der
Arbeitnehmer nicht beeinträchtigen.[67]
Die Abgrenzung von zulässigen und unzulässigen Systemen ist
bisweilen problematisch, zumal Leistung und Verhalten stark miteinander
verknüpft sind.[68]
Die Zulässigkeit ist letztlich von derVerhältnismässigkeit (Art. 4 Abs. 2 DSG)[69]
der konkreten Einsatzweise abhängig und inwieweit die Arbeitgeberin
berechtigte Betriebsinteressen geltend machen kann.[70]
Liegen besonders schützenswerte Daten vor, ist grundsätzlich
Zurückhaltung gefragt.[71]
In jedem Fall ist die Datenbearbeitung auf den konkreten Informationsbedarf
der Arbeitgeberin zu beschränken und die Arbeitnehmer vorgängig
anzuhören (Art. 5 und 6 ArGV 3).[72]
Sprachgesteuerte Systeme
sind regelmässig durch Produktivitätsgewinne rechtfertigbar.
Hingegen sind sie unzumutbar, wenn sie gleichzeitig die Identität oder
Gemütslage analysieren oder generell lückenlos aufzeichnen, was
auch private Unterhaltungen beinhalten kann.[73]
Das Verhalten des Arbeitnehmers gegenüber Kunden oder
Geschäftspartnern stellt grundsätzlich eine zulässige
Leistungskontrolle dar. Erfolgt nun aber eine Stimmanalyse oder Keyword
Spotting andauernd und lückenlos, liegt ein unzulässiges
Überwachungssystem vor.[74]
Es ist allerdings zu beachten, dass die Arbeitgeberin ein berechtigtes
Interesse daran hat, die Leistung der Arbeitnehmer zu überwachen. Es
ist deswegen erforderlich, die Zwecke der eingesetzten Systeme genau zu
bestimmen und nicht erforderliche Datenbearbeitungen klar abzugrenzen.[75]
M.a.W. kommt dem Grundsatz der Zweckbindung (Art. 4 Abs. 3 DSG) grosse
Bedeutung zu. In der Bewerbungsphase gesammelte Stimm- und Sprachdaten
dürfen nicht zur Persönlichkeitsdurchleuchtung oder für das
anschliessende Arbeitsverhältnis verwendet werden, wenn dies nicht vom
Bewerber akzeptierten Zweck gedeckt ist.[76]
Allgemein dürfen Stimm- und Sprachdaten nicht über längere
Zeit systematisch gesammelt und verwaltet werden (sog. Data Warehousing) oder ggf. mit anderen Daten kombiniert werden
(sog. Data Mining). Entstehen dadurch neue sog.
Sekundärdaten, werden diese i.d.R. nicht vom ursprünglich
angegebenen Zweck erfasst, zumal dieser bei der Datenbeschaffung gar nicht
ersichtlich sein konnte.[77]
Zugangskontrollen, die mittels Stimmerkennung Stimmdaten bearbeiten, sind so zu gestalten,
dass keine Erstellung eines Verhaltensprofils des Arbeitnehmers
möglich ist, d.h. keine detaillierten Bewegungsabläufe
ersichtlich sind.[78]
Zugangskontrollen sind auf sensible Räumlichkeiten und Ressourcen zu
beschränken. Weiter ist von einer zentralen Speicherung von
biometrischen Daten abzusehen.[79]
Denkbar ist die Hinterlegung des Stimmabdrucks auf einer Smartcard oder dem
dienstlichen Mobiltelefon.[80]
Überdies sind Systeme vorzuziehen, die keine abschliessende
Identifikation vornehmen, sondern durch anonymisierte Daten abgleichen, ob
der konkrete Mitarbeiter zum Kreis der berechtigten Personen gehört.[81]
3. Verlust von Arbeitnehmerdaten
Die Anwendung von Voice Recognition stellt die Datensicherheit in
verschiedener Hinsicht vor Herausforderungen. Namentlich bei
Sprachassistenten, die sich durch einen Schlüsselbegriff aktivieren
und daher permanent aufzeichnen, besteht ein gewisses Abhör- und
Manipulationsrisiko.[82]
Der Datenschutz soll den Einsatz von Cloud-Lösungen nicht unnötig
beschränken.[83]
Regelmässig ist die Auslagerung gar wünschenswert, namentlich
wenn der Cloud-Provider spezialisierte Ressourcen zur Erfüllung der
datenschutzrechtlichen Anforderungen aufweist.[84]
Es ist indes zu beachten, dass die Auslagerung in die Cloud einen
Kontrollverlust über die Daten mit sich bringt.[85]
Es obliegt somit der Verantwortung der Arbeitgeberin, den Cloud-Provider
entsprechend auszuwählen, die richtigen Instruktionen zu erteilen und
zu überwachen.[86]
Die zu treffenden Massnahmen hängen im Einzelfall von der
Arbeitgeberin, der Sensitivität der Daten sowie der Organisation der
eingesetzten Cloud-Lösung ab.[87]
Werden Daten verschiedener Nutzer in der Cloud ungenügend isoliert,
steigt das Risiko für Konsolidierungsschäden, wie Distributed Denial of Services oder Hacker-Attacken.[88]
Der Cloud-Provider muss die Datenbearbeitungen verschiedener Cloud-Nutzer
strikt voneinander getrennt ausführen und darum besorgt sein, dass es
zu keiner Durchmischung der Daten kommt. Es empfiehlt sich deswegen,
Datenschutz-Qualitätszeichen oder Zertifizierungen zu
berücksichtigen[89]
und im Rahmen der Auftragsdatenbearbeitung festzuhalten, dass der
Cloud-Provider die angemessenen Massnahmen im Rahmen des Gesetzes kennt und
erfüllt.[90]
Tritt dennoch ein ungewollter Verlust oder eine Offenlegung von Daten ein,
so lässt sich eine Informationspflicht aus dem Grundsatz von Treu und
Glauben ableiten.[91]
Biometrische Daten bergen zudem die latente Gefahr des
Identitätsdiebstahls.[92]
Der Grundsatz der Datensicherheit muss auf allen Ebenen eines
Erkennungssystems beachtet werden. Voice-Recognition-Systeme sollten
lediglich die zum Identifikationsabgleich erforderlichen Merkmale
extrahieren, die Rohdaten aber wieder vernichten. Im Weiteren sollten die
Daten nur komprimiert und/oder verschlüsselt bearbeitet werden.[93]
Zudem ist, wenn immer möglich, eine dezentrale Speicherung der Daten
zu bevorzugen.[94]
4. Datenrichtigkeit
Die Arbeitgeberin ist gem. Art. 5 Abs. 1 DSG verpflichtet,
die Richtigkeit der Daten sicherzustellen. Die digitale Verarbeitung der
Sprache und Stimme ist ein komplexer Vorgang, bei dem an verschiedenen
Stellen Fehler auftreten können, was konsequenterweise zu unrichtigen
Daten führt. Zudem sind die der Voice Recognition zugrundeliegenden
Algorithmen oft so komplex, dass ein allfälliger Fehler in der
Bearbeitung im Nachhinein kaum rekonstruierbar ist (Black-Box-Problematik).[95]
Präventiv wirkende technische Massnahmen dürften daher vermehrt
in den Vordergrund rücken.[96]
Sprachassistenten
können Eingaben falsch verstehen und in der Folge falsche
Präferenzen für den Arbeitnehmer ableiten. Ein Assistent
sollte demnach so gestaltet sein, dass falsche Eingaben unkompliziert bspw.
im Nutzerprofil abgeändert oder gelöscht werden können.[97]
Obschon ein tendenziell konstantes biometrisches Merkmal,[98]
kann sich die Stimme im Laufe der Zeit verändern.[99]
Es ist deswegen eine angemessene Akzeptanzschwelle (threshold) zu
definieren[100]
und der Stimmabdruck in regelmässigen Abständen zu aktualisieren.
In diesem Zusammenhang bieten Cloud-Lösungen den Vorteil einer
fortlaufenden Echtzeitanalyse (continuous real-time analysis),
wodurch die Stimmdaten in einem dynamischen Prozess aktualisiert werden.[101]
Der Einsatz von Cloud-Lösungen entbindet die Arbeitgeberin nicht von
der Gewährleistung der Datenrichtigkeit.[102]
Es scheint aber angebracht, den Cloud-Betreiber, der regelmässig
über sämtliche Daten verfügt, im Rahmen der
Auftragsdatenbearbeitung entsprechend zu beauftragen.[103]
5. Rechtfertigungsgründe
Im Allgemeinen ist bei der Anwendung von Rechtfertigungsgründen
Zurückhaltung zu üben.[104]
Im Kontext eines Arbeitsverhältnisses ist umstritten, ob die
Rechtfertigungsgründe nach Art. 13 DSG überhaupt
aufgerufen werden können. Nach der hier vertretenen Auffassung ist
dieser Umstand zu bejahen.[105]
In der Arbeitswelt dürfte die Einwilligung in der Praxis der
bedeutsamste Rechtfertigungsgrund darstellen. Private Interessen
könnten zwar in Form von wirtschaftlichen Interessen angeführt
werden, eignen sich jedoch kaum zur Rechtfertigung einer
Persönlichkeitsverletzung.[106]
Das rDSG anerkennt, in Anlehnung
an Art. 6 Abs. 1 lit. b DSGVO, ein
überwiegendes privates Interesse, wenn die Bearbeitung in
unmittelbarem Zusammenhang mit einem Vertragsverhältnis steht, somit
bspw. wenn sie zwecks Abklärung der Eignung eines Arbeitnehmers
für eine konkrete Stelle erfolgt.[107]
Aber auch dieser Aspekt dürfte im spezifischen Anwendungsgebiet des
Arbeitsvertrages aufgrund der Anforderungen von Art. 328b OR in den
Hintergrund treten.[108]
Öffentliche Interessen sind in privatrechtlichen Verhältnissen
ohnehin von nebensächlicher Bedeutung.[109]
Sodann ist keine Gesetzesbestimmung ersichtlich, welche als
Rechtfertigungsgrund herangezogen werden könnte.
Bei der Bearbeitung von besonders schützenswerten Personendaten und
Persönlichkeitsprofilen, resp. beim Profiling mit hohem Risiko unter
revidiertem Recht, muss die Einwilligung ausdrücklich erfolgen (Art. 4 Abs. 5 DSG resp. Art. 6 Abs. 7 rDSG).
Die Arbeitgeberin hat den Arbeitnehmer bezüglich allfälliger
Risiken der Datenbearbeitung in der Cloud aufzuklären.[110]
Bei Stimmanalysen genügt die Information, dass Gespräche zu
Trainingszwecken analysiert werden können, nicht. Die Arbeitgeberin
muss darüber aufklären, was mit den Daten geschieht und in
welchem Umfang sie verwendet werden, damit der Arbeitnehmer die Tragweite
der Einwilligung einschätzen kann.[111]
Überdies muss die Arbeitgeberin bei der Verwendung eines
Stimmabdruckes ausdrücklich über die Risiken aufklären, die
mit der Nutzung des biometrischen Datenwerts einhergehen und welche
Massnahmen sie dagegen ergreift.[112]
An die Freiwilligkeit sind im Arbeitsverhältnis hohe
Anforderungen zu stellen.[113]
Bei Bewerbern, die in Datenbearbeitungen einwilligen, um ihre
Chancen in weiteren Runden für die Stelle überhaupt aufrecht
erhalten zu können, fehlt es wohl an der Freiwilligkeit.[114]
Indessen ist zu berücksichtigen, dass die Einwilligung ohnehin obsolet
wird, wenn die Bearbeitung für die Eignung des
Arbeitsverhältnisses erforderlich ist.[115]
Stehen für biometrische Eintrittskontrollen keine Alternativen bereit,
ist die Freiwilligkeit der Einwilligung des Arbeitnehmers fraglich.[116]
Es kann indessen nicht erwartet werden, dass die Arbeitgeberin in jedem
Fall eine Alternative zur Stimmerkennung zur Verfügung stellen muss.
Ob alternative Zugangsmechanismen eingerichtet werden müssen,
hängt insb. von der Sensitivität der zu schützenden
Ressourcen oder Räumlichkeiten ab.[117]
V. Neue Instrumente unter dem revidierten Datenschutzgesetz
1. Automatisierte Einzelentscheidung
Mit Art. 21 rDSG enthält das
Konzept der automatisierten Einzelentscheidung Einzug in das
Datenschutzrecht. Im Gegensatz zum europäischen (als Recht
formuliertes) Verbot von automatisierten Einzelentscheidungen[118]
statuiert das Schweizer Pendant lediglich eine Informationspflicht des
Verantwortlichen.[119]
Stimmerkennende Zutrittskontrollen
funktionieren i.d.R. automatisiert. Es ist allerdings anzuzweifeln, dass
diese Entscheidung über die geforderte Komplexität verfügt.
Rudimentäre Wenn-Dann-Entscheidungen werden vom gesetzlichen Begriff
nicht abgedeckt. Vielmehr muss dem System hinsichtlich der Entscheidung ein
gewisser Interpretationsspielraum zukommen.[120]
Vollständig automatisierte Einzelentscheidungen können vorliegen,
wenn Sprachassistenten selbständig Handlungen vornehmen, wie
bspw. automatisierte Terminplanung oder Dienstreisebuchungen.[121]
Entscheidet ein Rekrutierungssystem über die
Berücksichtigung eines Kandidaten,[122]
ist zunächst ausschlaggebend, ob das System gänzlich autonom
entscheidet oder der Endentscheid von einer Person zumindest beeinflusst
werden kann.[123]
Zudem muss die Entscheidung mit einer Rechtsfolge verbunden sein oder die
betroffene Person erheblich beeinträchtigen. Der Nichtabschluss eines
Vertrages zieht noch keine rechtlichen Folgen nach sich,[124]
jedoch ist die Arbeitsstelle grundsätzlich jenen Bereichen zuzuordnen,
die eine hohe Bedeutung für die individuelle Lebenssituation und
-gestaltung aufweisen. Der Arbeitnehmer ist aus wirtschaftlicher Sicht
abhängig vom Entscheid im Rekrutierungsprozess und wird dadurch
erheblich beeinträchtigt.[125]
Die Kündigung eines bestehenden Arbeitsverhältnisses ist
klar mit einer Rechtsfolge verbunden und fällt folglich in den
Anwendungsbereich von Art. 21 rDSG.[126]
2. Datenschutz-Folgenabschätzung
In Art. 22 schreibt das rDSG neu
eine Pflicht zur Vornahme einer Datenschutz-Folgenabschätzung vor,
wenn die Datenbearbeitung voraussichtlich mit einem hohen Risiko für
die Persönlichkeit oder die Grundrechte der betroffenen Person
einhergeht. Ein solches kann sich namentlich aufgrund der Art der Daten
oder der Art und dem Zweck der Bearbeitung manifestieren.[127]
Werden besonders schützenswerte Personendaten umfangreich bearbeitet,
so ist die Datenschutz-Folgenabschätzung in jedem Fall
durchzuführen.[128]
Im Umkehrschluss dürften gelegentliche Bearbeitungen der Stimme, wie
der situationsbedingte Abgleich des Stimmabdruckes unterhalb der Hürde
der Datenschutz-Folgenabschätzung liegen. Im Grundsatz gilt: Je
umfangreicher die Bearbeitung besonders schützenswerter Personendaten,
desto eher drängt sich eine Datenschutz-Folgenabschätzung auf,
bspw. wenn ein Rekrutierungsprozess unter Zuhilfenahme der Stimmanalyse mit
einer Vielzahl von Bewerbern durchgeführt wird.
3. Datenschutz durch Technik und datenschutzfreundliche
Voreinstellungen
Die Arbeitgeberin muss durch technische und organisatorische Massnahmen
sicherstellen, dass die Datenschutzvorschriften eingehalten werden (Privacy by Design)[129]
und mittels geeigneter Voreinstellungen dafür sorgen, dass die
Bearbeitung möglichst datenschutzfreundlich erfolgt (Privacy by Default)[130].
Privacy by Design ist im Grunde nichts Neues, zumal bereits heute die
Voraussetzungen für eine datenschutzkompatible Bearbeitung ex ante zu treffen sind.[131]
Privacy by Default setzt in erster Linie voraus, dass eine Datenbearbeitung
vorliegt, die der betroffenen Person Eingriffsmöglichkeiten
gewährt. Ob und in welchem Umfang die betroffene Person Einstellungen
ändern darf, liegt im Ermessen der Arbeitgeberin.[132]
Ermöglicht allerdings eine Bearbeitung keine Einflussnahme von aussen
durch die betroffene Person, fällt auch das Regelungskonzept des
Privacy by Design mangels möglicher Einstellungen ausser Betracht.[133]
Dies dürfte bei den meisten Stimmerkennungs- und
-analysesystemen der Fall sein. Hingegen gewähren
Sprachassistenten regelmässig solche Einflussmöglichkeiten im
Rahmen von Benutzereinstellungen. Zu beachten ist, dass der Umfang solcher
Benutzereinstellungen in der Disposition des Herstellers liegt. Die
Arbeitgeberin kann den entsprechenden Datenschutz nur bei der Auswahl des
Produktes bzw. der Software berücksichtigen.[134]
VI. Schlussbetrachtung
Voice Recognition umfasst vielversprechende Technologien, die bereits heute
mannigfaltig und nutzenbringend in der Arbeitswelt eingesetzt werden.
Jedoch bringen die vielseitigen Einsatzmöglichkeiten und die
Fülle an bearbeiteten Daten eine Gefährdung der
Persönlichkeitsrechte des Arbeitnehmers mit sich.
Anknüpfungspunkte zur Vermeidung solcher
Persönlichkeitsverletzungen ergeben sich vordergründig aus dem
Datenschutzrecht.
Die datenschutzrechtliche Analyse hängt von vielen Umständen ab ‑
eine Universallösung lässt sich nicht konstruieren. Ausgangspunkt
ist stets die Unterscheidung nach Sprach- und Stimmdaten. Sodann liegt der
Fokus auf der Frage, ob der Einsatz im konkreten Fall
verhältnismässig ist. Insgesamt findet Voice Recognition im
Arbeitsverhältnis ihre Grenzen an der unzulässigen
Arbeitnehmerüberwachung.
Mit dem rDSG wird sich das
Datenschutzniveau dem DSGVO-Standard angleichen. Obwohl viele Regelungskonzepte an die
europäische Blaupause erinnern, wurden sie im Swiss Finish
bedeutend abgeschwächt. Sodann werden für den Einsatz von Voice
Recognition im Arbeitsverhältnis unter dem zukünftigen
Datenschutzregime nur wenige nennenswerte Praxisänderungen notwendig
sein.
[1]
Gaye Karacay, Talent Development for Industry 4.0, in:
Ustundag/Cevikcan (Hrsg.), Industry 4.0: Managing the Digital
Transformation, Cham 2018, S. 125.
[2]
Christian Jaksch, Datenschutzrechtliche Fragen des
IT-gestützten Arbeitsplatzes, Wiesbaden 2020, S. 151 ff.
[3]
So bspw. Vima Link SA,
Recruitment oder HireIQ, vgl. Kevin G. Hegebarth, Emotional Assessments,
2015, S. 4 f.; Maria Cristina Caldarola / Joachim Schrey, Big Data
und Recht, München 2019, Rz. 307; Tomas Chamorro-Premuzic /
Reece Akhtar / David Winsborough / Ryne A. Sherman, The
datafication of talent, Curr. Opin. Behav. Sci. 2017, S. 14;
Gabriel Kasper / Isabelle Wildhaber, Big Data am Arbeitsplatz, in:
Kieser/Pärli/Uttinger (Hrsg.), Datenschutztagung 2018,
Zürich 2018, S. 205.
[4]
Peter Gola, Handbuch Beschäftigtendatenschutz, 8. Aufl.,
Frechen 2019, Rz. 549, 1136 und 1357; Eberhard Kiesche / Matthias
Wilke, Neue Überwachungsformen in Call-Centern, Computer und
Arbeit 2012/4, S. 6.
[5]
Vgl. Xdroid International, Operations of VoiceAnalytics;
Kiesche/Wilke (Fn. 4), S. 6; Michael Zoebisch, Stimmungsanalyse
durch Call-Center, DuD 2011, S. 394.
[6]
So bspw. Swisscom AG,
Höchste Sicherheit an der Swisscom Hotline dank
Stimmerkennung, oder PostFinance AG,
Authentifizierung mit Stimmerkennung; vgl. John J. Fay, Access Control: People, Vehicles, Materials,
in: Fay (Hrsg.), Encyclopedia of Security Management, 2. Aufl.,
Burlington (MA) 2007, S. 255 f.; Nancy Yue Liu, Bio-Privacy,
Abingdon 2012, S. 42.
[7]
Eva Wolfangel,
Was die Stimme über uns verrät, Technology Review vom 23. Januar 2019; Thomas Jüngling,
Diese Stimmanalyse entlarvt all unsere Geheimnisse, Welt vom 6.
März 2015; Björn W. Schuller, Maschinelle Profilierung
durch KI, digma 2017, S. 206 f.
[9]
Art. 1 DSG
(Bundesgesetz über den Datenschutz vom 19. Juni 1992 [DSG; SR 235.1]); Romy Daedelow,
Wenn Algorithmen (unfair) über Menschen entscheiden…,
Jusletter vom 26. November 2018, Rz. 4.
[10]
EU-Verordnung 2016/679
des Europäischen Parlaments und des Rates vom 27. April 2016
zum Schutz natürlicher Personen bei der Verarbeitung
personenbezogener Daten, zum freien Datenverkehr und zur Aufhebung
der Richtlinie 95/46/EG, ABl 2016 L 119/1.
[11]
Vgl. Anil K. Jain / Arun Ross / Salil Prabhakar, An Introduction to
Biometric Recognition, IEEE TCSVT 2004, S. 10; Dominika Blonski,
Biometrische Daten als Gegenstand des informationellen
Selbstbestimmungsrechts, Bern 2015, S. 19.
[12]
Victor Keegan,
Has voice recognition finally come of age?, The Guardian vom 13. Dezember 2007; Daniel Jurafsky / James H.
Martin, Speech and Language Processing, 2. Aufl., Upper Saddle
River, New Jersey 2009, S. 319; Bernd Möbius / Udo Haiber,
Verarbeitung gesprochener Sprache, in: Carstensen et al. (Hrsg.),
Computerlinguistik und Sprachtechnologie, 3. Aufl., Heidelberg
2010, S. 215.
[13]
Amit Konar / Anisha Halder / Aruna Chakraborty, Introduction to
Emotion Recognition, in: Konar/Chakraborty (Hrsg.), Emotion
Recognition. A Pattern Analysis Approach, Hoboken, New Jersey 2015,
S. 7 ff.; Savita Sondhi / Ritu Vijay / Munna Khan / Ashok K.
Salhan, Voice Analysis for Detection of Deception, 11th
International Conference KICSS 2016, S. 1 ff.
[14]
Jurafsky/Martin (Fn. 12), S. 367.
[15]
Jerry Kaplan, Künstliche Intelligenz, Frechen 2017, S. 74.
[16]
George Frewat et al., Android voice recognition application with
multi speaker feature, 18th MELECON 2016, S. 1 ff.;
FindBiometrics,
Voice and Speech Recognition.
[17]
Gola (Fn. 4), Rz. 1359; Konar/Halder/Chakraborty (Fn. 13), S. 7
ff.; Johannes Wagner / Florian Lingenfelser / Elisabeth André,
Building a Robust System for Multimodal Emotion Recognition, in:
Konar/Chakraborty (Hrsg.), Emotion Recognition. A Pattern Analysis
Approach, Hoboken, New Jersey 2015, S. 387 f.; Zoebisch (Fn. 5), S.
6.
[18]
Kirstin Brennscheidt, Cloud Computing und Datenschutz, Baden-Baden
2013, S. 35 f.; Thorsten Hennrich, Cloud Computing, Berlin 2016, S.
69 f.
[19]
EDÖB, Schlussbericht im Zusammenhang mit der Datenbearbeitung
der Microsoft Corporation im Rahmen von Windows 10, Bern 2016, S.
26 f.
[20]
Brennscheidt (Fn. 18), S. 59 f.; EDÖB,
Erläuterungen zu Cloud Computing; Bruno Baeriswyl, in: Baeriswyl/Pärli (Hrsg.), Stämpflis
Handkommentar Datenschutzgesetz (DSG), Bern 2015, Art. 10a N 1
(zit. SHK DSG-BearbeiterIn).
[21]
Brennscheidt (Fn. 18), S. 59; Hennrich (Fn. 18), S. 70.
[22]
Fortune Business Insights,
Speech and Voice Recognition Market; Milica Matić / Igor Stefanović / Una Radosavac / Milan
Vidaković, Challenges of Integrating Smart Home Automation
with Cloud Based Voice Recognition Systems, 7th ICCE,
Berlin 2017, S. 248 f.
[23]
Godson Michael D'silva / Vinayak Bharadi / Shridhar Kamble,
Biometric Authentication using Software as a Service (SaaS)
Architecture with Real-time Insights, ICCUBEA 2016, S. 2;
Matić/Stefanović/Radosavac/Vidaković (Fn.
22), S. 248.
[24]
Vgl. zur ausführlichen Qualifikation Gianni
Fröhlich-Bleuler, Rechtsprechung zum Software-Vertragsrecht,
Jusletter vom 24. Januar 2011; ders., Softwareverträge, Bern
2014, Rz. 14 ff.
[25]
Blonski (Fn. 11), S. 18; Zoebisch (Fn. 5), S. 395.
[26]
Susan Emmenegger / Martina Reber, Biometrische Daten im
Bankkundenverkehr am Beispiel der Stimmauthentifizierung, in:
Emmenegger (Hrsg.), Banken und Datenschutz, Basel 2019, S. 167;
EDÖB, Leitfaden zu biometrischen Erkennungssystemen, Bern
2009, S. 17; Blonski (Fn. 11), S. 79; Philippe Meier, Protection
des données, Bern 2011, Rz. 2253 f.; teilweise wird vertreten,
dass biometrische Daten Gesundheitsdaten ergo besonders
schützenswerte Daten darstellen (Art. 3 lit. c Ziff. 2 DSG), vgl. Franziska Sprecher, Datenschutz und Big Data im Allgemeinen
und im Gesundheitsrecht im Besonderen, ZBJV 2018, S. 494.
[27]
Revidiertes Bundesgesetz über den Datenschutz vom 25.
September 2020 (rDSG, BBl 2020 7639), nicht in
Kraft.
[29]
Blonski (Fn. 11), S. 14 f.; Liu (Fn. 6), S. 33.
[30]
David Rosenthal, Der Entwurf für ein neues Datenschutzgesetz,
Jusletter vom 27. November 2017, Rz. 8.
[32]
Roland Mathys, Was bedeutet Big Data für die Qualifikation als
besonders schützenswerte Personendaten?, Jusletter IT vom 21.
Mai 2015, Rz. 22 f.; David Vasella,
Der EDÖB in 10vor10 zur Stimmerkennung bei Postfinance, in fine; a.M. wohl Emmenegger/Reber (Fn. 26), S. 167 f.,
wonach unabhängig vom Bearbeitungsvorgang besonders
schützenswerte Daten vorliegen, wenn es objektiv möglich
ist, aus den vorhandenen Daten Informationen über den
Gesundheitszustand zu gewinnen.
[34]
Vgl. Zoebisch (Fn. 5), S. 395.
[35]
Hinzuweisen ist auf die Drei-Sphären-Theorie, vgl. BGE 97 II 95 E. 3; BGE 118 IV 41 E.4; BGE 119 II 222 E. 2b;
ferner Gabor P. Blechta, in: Maurer-Lambrou/Blechta (Hrsg.), Basler
Kommentar Datenschutzgesetz & Öffentlichkeitsgesetz, 3.
Aufl., Basel 2014, Art. 3 N 35 f. (zit. BSK DSG-BearbeiterIn);
Michael Silvestro / John Black, «Who Am I Talking To?»,
Business Law Today 2016/4, S. 4.
[36]
EDÖB (Fn. 19), S. 16.
[37]
Vgl. BGE 136 II 508 E. 3.2
und 3.5; ausführlich Barbara Widmer, Bei IP-Adressen kommt es
darauf an…, digma 2017, S. 77.
[38]
Kasper/Wildhaber (Fn. 3), S. 212.
[39]
Art. 5 lit. f rDSG; zu den Unterschiedenen der Begrifflichkeiten vgl. Botschaft vom
15. September 2017 zum Bundesgesetz über die Totalrevision des
Bundesgesetzes über den Datenschutz und die Änderung
weiterer Erlasse zum Datenschutz (BBl 2017 6941), S. 7022.
[41]
Jaksch (Fn. 2), S. 169.
[43]
Gola (Fn. 4), Rz. 1226; Florian Höld, Die Überwachung von
Arbeitnehmern, Hamburg 2006, S. 57.
[44]
Vgl. Rosenthal (Fn. 40), Rz. 27.
[46]
Bundesgesetz betreffend die Ergänzung des Schweizerischen
Zivilgesetzbuches (Fünfter Teil: Obligationenrecht) vom 20.
März 1911 (OR; SR 220).
[47]
Wolfgang Portmann / Roger Rudolph, in: Lüchinger/Oser (Hrsg.)
Basler Kommentar Obligationenrecht I, 7. Aufl., Basel 2019, Art.
328b N 7 (zit. BSK OR-BearbeiterIn).
[48]
Gabriel Aubert, La protection des données dans les rapports de
travail, in: Aubert (Hrsg.), Journée 1995 de droit du travail
et de la sécurité social, Zürich 1999, S. 149 f.;
Adrian Staehelin, Zürcher Kommentar zum Schweizerischen
Zivilrecht, Bd. V/2/c, Der Arbeitsvertrag Art. 319-330 OR,
4. Aufl., Zürich 2006, Art. 328b N 1; Ullin Streiff / Adrian
von Kaenel / Roger Rudolph, Praxiskommentar Arbeitsvertrag, 7.
Aufl., Zürich 2012, Art. 328b N 3 (zit. Streiff/von
Kaenel/Rudolph).
[50]
Streiff/von Kaenel/Rudolph, Art. 328b N 3.
[51]
Meier (Fn. 26), Rz. 2037; Roberta Papa / Thomas Pietruszak,
Datenschutz im Personalwesen, in: Passadelis/Rosenthal/Thür
(Hrsg.), Datenschutzrecht, Basel 2015, Rz. 17.8; BSK
OR‑Portmann/Rudolph, Art. 328b N 23 und 26; David Rosenthal /
Yvonne Jöhri, Handkommentar zum Datenschutzgesetz, Zürich
et al. 2008, Art. 328b OR N 5 ff. (zit. HK-Rosenthal/Jöhri);
Kasper/Wildhaber (Fn. 3), S. 197 f.
[52]
Botschaft vom 23. März 1988 zum Bundesgesetz über den
Datenschutz (DSG) (BBl 1988 II 413), S. 488; gleichfalls
dürfte in Art. 328b OR aber auch der
Grundsatz der Zweckbindung verkörpert sein, vgl.
Papa/Pietruszak (Fn. 51), Rz. 17.5.
[53]
HK-Rosenthal/Jöhri, Art. 328b OR N 12; Kasper/Wildhaber (Fn.
3), S. 197 f.
[54]
Vgl. BSK OR-Portmann/Rudolph, Art. 328b N 41.
[55]
Vgl. BSK OR-Portmann/Rudolph, Art. 328b N 41.
[56]
Kasper/Wildhaber (Fn. 3), S. 201.
[57]
SHK DSG-Pärli, Art. 328b OR N 27; BSK OR-Portmann/Rudolph,
Art. 328b N 37; HK-Rosenhtal/Jöhri, Art. 328b OR N 36;
Kasper/Wildhaber (Fn. 3), S. 202.
[58]
Kasper/Wildhaber (Fn. 3), S. 195.
[59]
HK-Rosenthal/Jöhri, Art. 328b OR N 41; Blonski (Fn. 11), S.
274 f.
[60]
Vgl. EDÖB, 17. Tätigkeitsbericht 2009/2010 -
Gesundheitscheck für die Mitarbeiter der Post, Bern 2009, S.
69 f.; EDÖB, 22. Tätigkeitsbericht 2014/2015 -
Gesundheitsfragebogen bei Bewerbungsverfahren, Bern 2105, S. 55 f.
[61]
Schweizerisches Strafgesetzbuch vom 21. Dezember 1937 (StGB; SR 311.0).
[63]
Botschaft vom 21. Februar 1986 über die Verstärkung des
Schutzes des persönlichen Geheimbereichs (BBl 1968 I 585),
S. 593.
[64]
EDÖB, Erläuterungen zur Telefonüberwachung am
Arbeitsplatz, Bern 2014, S. 5.
[65]
Verordnung 3 zum Arbeitsgesetz vom 18. August 1993 (ArGV 3,
Gesundheitsschutz; SR 822.113).
[66]
Papa/Pietruszak (Fn. 51), Rz. 17.22; SECO, Wegleitung zu den
Verordnung 3 und 4 zum ArG, S. 326-1.
[68]
SECO (Fn. 66), S. 326-1; Simon Wolfer, Die elektronische
Überwachung des Arbeitnehmers im privatrechtlichen
Arbeitsverhältnis, Zürich 2008, Rz. 60; ebenso BGE 130 II 425 E. 4.3.
[69]
Die Interessensabwägung fällt mit der
Verhältnismässigkeitsprüfung nach DSG zusammen,
Urteil des Bundesgerichts 9C_785/2010 vom 10. Juni
2011 E. 6.6.
[70]
SECO (Fn. 66), S. 326-4.
[71]
Vgl. Isabelle Wildhaber, Die Roboter kommen, ZSR 2016, S. 348.
[72]
Isabelle Wildhaber, Robotik am Arbeitsplatz, AJP 2017, S. 219; SECO
(Fn. 66), S. 326-7; Papa/Pietruszak (Fn. 51), Rz. 17.55.
[73]
Dadurch könnten gemäss der Drei-Sphären-Theorie des
Bundesgerichts Informationen der Intimsphäre vorliegen, vgl.
Fn. 35.
[74]
Siehe dazu Urteil des Bundesgerichts 6B_536/2009 vom 12.
November 2009 E. 3.6.2; Urteil des Bundesgerichts 9C_785/2010 vom 10. Juni
2011 E. 6.3; Kiesche/Wilke (Fn. 4), S. 8; Papa/Pietruszak (Fn. 51),
Rz. 17.55; Wolfer (Fn. 68), Rz. 564.
[75]
Wildhaber (Fn. 72), S. 219
[76]
Kasper/Wildhaber (Fn. 3), S. 205.
[77]
Astrid Epiney, Allgemeine Grundsätze, in:
Belser/Epiney/Waldmann (Hrsg.), Datenschutzrecht, Bern 2011, Rz.
34; Stefan Gerschwiler et al., Prinzipien der Datenbearbeitung
durch Privatpersonen und Behörden, in:
Passadelis/Rosenthal/Thür (Hrsg.), Datenschutzrecht, Basel
2015, Rz. 3.86.
[78]
Wolfer (Fn. 68), Rz. 392 ff.; vgl. auch BGE 130 II 425 E. 5 zur
Erfassung von GPS-Daten.
[79]
Urteil des Bundesverwaltungsgerichts
A‑3908/2008
vom 4. August 2009 E. 3; EDÖB (Fn. 26), S. 8; BSK
DSG-Maurer-Lambrou/Steiner, Art. 4 N 22.
[80]
Vgl. Pastukhov Oleksandr / Kindt Els,
Voice Recognition: Risks To Our Privacy, Forbes vom 6. Oktober 2016; Thomas Probst, Biometrie aus
datenschutzrechtlicher Sicht, in: Nolde/Leger (Hrsg.), Biometrische
Verfahren, Köln 2002, S. 121.
[81]
EDÖB (Fn. 26), S. 7 und 22.
[82]
Bundesbeauftragte für den Datenschutz und Informationsfreiheit
(BfDI), Datenschutz kompakt - Sprachassistenten, Bonn 2017, S. 1
f.; Heires Katherine,
The Risks of Voice Technology, Risk Management Magazine vom 2. Oktober 2017.
[84]
HK-Rosenthal/Jöhri, Art. 10a DSG N 81 f.
[88]
BfDi (Fn. 82), S. 2; EDÖB (Fn. 20); Silvestro/Black (Fn. 35),
S. 4.
[89]
BSK DSG-Bühler/Rampini, Art. 10a N 15a.
[90]
EDÖB, Leitfaden zu den technischen und organisatorischen
Massnahmen des Datenschutzes, Bern 2015, S. 19; BSK
DSG-Stamm-Pfister, Art. 7 N 12; BSK DSG-Bühler/Rampini, Art.
10a N 22d.
[91]
SHK DSG-Baeriswyl, Art. 4 N 18; Epiney (Fn. 77), Rz. 22;
HK-Rosenthal/Jöhri, Art. 4 DSG N 16.
[92]
Meier (Fn. 26), Rz. 2248.
[93]
Vgl. Silvestro/Black (Fn. 35), S. 4.
[94]
Vgl. Rz. 25; ausführlich EDÖB, Schlussbericht vom 13.
September 2010, Verwendung biometrischer Daten für das
Reservationssystem des Tennisclub XX, S. 18; ebenso EDÖB (Fn.
26), S. 20 f.; Meier (Fn. 26), Rz. 2286.
[95]
Ifeoma Ajunwa / Kate Crawford / Jason Schultz, Limitless worker
surveillance, California Law Review 2017, S. 132; Danilo Doneda /
Virgilio A.F. Almeida, What Is Algorithm Governance, IEEE Internet
Computing 2016/4, S. 60 f.
[97]
Jaksch (Fn. 2), S. 197.
[98]
Blonski (Fn. 11), S. 18.
[100]
EDÖB (Fn. 26), S. 8.
[101]
D'silva/Bharadi/Kamble (Fn. 23), S. 2.
[102]
BSK DSG-Maurer-Lambrou/Schönbächler, Art. 5 N 11.
[103]
Barbara Widmer, Auftragsdatenbearbeitung - zum Vierten, digma 2014,
S. 173.
[105]
Eingehend Rz. 16 ff.
[106]
Vgl. BGE 138 II 346 E.
10.4 und 10.6; ebenso Andreas Meili, in: Geiser/Fountoulakis
(Hrsg.) Basler Kommentar Zivilgesetzbuch I, 6. Aufl., Basel 2018,
Art. 28 N 49; Emmenegger/Reber (Fn. 26), S. 181 f.
[109]
BSK DSG-Rampini, Art. 13 N 47; HK-Rosenthal/Jöhri, Art. 13 DSG
N 20.
[110]
SHK DSG-Baeriswyl, Art. 4 N 61; vgl. Rz. 27.
[111]
Kiesche/Wilke (Fn. 4), S. 9.
[112]
Vgl. Emmenegger/Reber (Fn. 26), S. 177.
[113]
BSK DSG-Rampini, Art. 13 N 6; Epiney (Fn. 77), Rz. 18.
[114]
Kasper/Wildhaber (Fn. 3), S. 225.
[116]
Vgl. Urteil des Bundesverwaltungsgerichts
A‑3908/2008
vom 4. August 2009 E. 4.5; EDÖB (Fn. 26), S. 15.
[117]
Meier (Fn. 26), Rz. 859 und 2289 ff.
[118]
Vgl. Art. 22 DSGVO;
Art. 9 Abs. 1 lit. a SEV 108
(Übereinkommen zum Schutz des Menschen bei der automatischen
Verarbeitung personenbezogener Daten [SEV]); vgl. m.w.H. Florent
Thouvenin / Alfred Früh / Damian George, Datenschutz und
automatisierte Entscheidungen, Jusletter vom 26. November 2018, Rz.
23 und 26; Art. 29 Data Protection Working Party, Guidelines on
Automated individual decision-making and Profiling for the purposes
of Regulation 2016/679, WP251rev.01, Brüssel 6. Februar 2018,
S. 12.
[121]
Jaksch (Fn. 2), S. 170.
[122]
Christoph Betz, Automatisierte Sprachanalyse zum Profiling von
Stellenbewerbern, ZD 2019, S. 148 ff.; Daniela Herdes,
Datenschutzrechtliche Herausforderungen beim Einsatz von KI im
Bewerbungsverfahren, Compliance Berater 2020, S. 95;
Kasper/Wildhaber (Fn. 3), S. 203.
[125]
So sind «Online-Einstellungsverfahren» explizit in
Erwägungsgrund 71 DSGVO genannt; Matthias Glatthaar, Robot
Recruiting, SZW 2020, S. 45.
[126]
Vgl. Gola (Fn. 4), Rz. 2478.
[131]
Rosenthal (Fn. 30), Rz. 40.
[132]
Sebastian Brüggemann, in: Esser/Kramer/von Lewinski (Hrsg.),
Auernhammer Kommentar DSGVO BDSG, 6. Aufl., Köln 2018, Art. 25
DSGVO N 27 (zit. Auernhammer/BearbeiterIn).
[133]
Vgl. Rosenthal (Fn. 30), Rz. 42.
[134]
Auernhammer/Brüggemann, Art. 25 DSGVO N 6 und 23; Sebastian
Conrad, Künstliche Intelligenz - Die Risiken für den
Datenschutz, DuD 2017, S. 744.