Datenschutzexpert*innen kritisieren KI-Einsatz bei Auswertung von Callcenter-Kundengesprächen
"Umstrittener KI-Einsatz im Callcenter: Der Algorithmus hört mit"
Viele Unternehmen nutzen Künstliche Intelligenz zur Auswertung von Kundengesprächen. Solche Software kann auch Emotionen erkennen, zeigen BR-Recherchen. Datenschutzexperten sehen das kritisch. [...]
Was viele Anruferinnen und Anrufer nicht wissen: Einzelne Callcenter werten mithilfe Künstlicher Intelligenz (KI) am Telefon ihre Emotionen aus - anhand der Stimme. [...]
Analyse von Kundenemotionen in Echtzeit
Das Callcenter-Unternehmen 11880 geht hingegen offen mit dem Einsatz von KI zur Emotionserkennung um. Zu den Auftraggebern von 11880 gehören Wohnungsbaugesellschaften, Autohäuser und Leihanbieter von Elektrorollern. Für sie bearbeitet das Unternehmen Kundenbeschwerden.
Dabei analysiert die KI in Echtzeit Sprachmelodie, Intensität, Rhythmus und Klang. Insgesamt würden mehr als 6.000 Parameter der Stimme analysiert, um daraus Emotionen zu errechnen, so Jörn Hausmann, Manager bei 11880. Die Software soll dadurch Gefühle wie Wut, Ärger, aber auch Freundlichkeit erkennen.
Hausmann betont, für die Agentinnen und Agenten sei die KI-Software zur Emotionsanalyse eine Unterstützung, ihr Einsatz durch den Betriebsrat genehmigt und von einem Datenschützer geprüft.
Während laufender Gespräche sehen die Callcenter-Agentinnen und Agenten auf ihrem Bildschirm Smileys, die die Stimmung der Unterhaltung anzeigen. Ein Smiley zeigt die Emotionen des Anrufers, ein weiteres die des Callcenter-Agenten. Auch dessen Emotionen werden ununterbrochen getrackt und ausgewertet. So soll sichergestellt werden, dass die Agentinnen und Agenten freundlich bleiben und die Kundinnen und Kunden im besten Fall zufriedener auflegen. Dieses Vorgehen ist nicht unumstritten.
Bandansage "rechtlich problematisch"
In der Bandansage des Unternehmens ist nur von einer Auswertung "zur Prüfung und Verbesserung unserer Servicequalität" die Rede. Bandansagen dieser Art nennt Rechtsprofessorin Lena Rudkowski von der Universität Gießen "rechtlich problematisch", weil Anruferinnen und Anrufer nicht wissen könnten, wie das Gespräch ausgewertet werde. Emotionserkennung sei etwas, "womit der Kunde nicht rechnen muss".
Über Emotions-KI werden Anruferinnen und Anrufer nicht aufgeklärt, bestätigt 11880-Manager Jörn Hausmann. Eine Einwilligung zur Auswertung sei dafür nicht notwendig: "Hier wird nichts gespeichert und keine Kundenprofile daraus abgeleitet", sagt Hausmann. Das heißt: Selbst wenn Kundinnen und Kunden der Aufzeichnung widersprechen, werden Emotionen ausgewertet.
Jurist Wedde: Emotionserkennung unzulässig
Der Rechtsprofessor Peter Wedde von der Frankfurt University of Applied Sciences hält Emotionsanalyse in Callcentern für rechtlich unzulässig. Von den eigenen Mitarbeitern dürften Arbeitgeber nur die Daten verarbeiten, die unbedingt notwendig seien, sagt Wedde. Die Analyse von Emotionen lasse "weitgehende Einblicke in die Persönlichkeit zu". Im weitesten Sinne handele es sich laut Wedde um Gesundheitsdaten, deren Verarbeitung extrem strengen Voraussetzungen unterliege.
Für Juristin Rudkowski von der Universität Gießen ist fraglich, ob im Falle einer ständigen Echtzeitanalyse, die Teamleiter einsehen könnten, nicht eine Totalüberwachung der Callcenter-Agenten vorliege. Arbeitgeber dürften ihre Arbeitnehmer "nicht lückenlos während der gesamten Arbeitszeit überwachen und sie unter erheblichen psychischen Anpassungsdruck setzen", betont Rudkowski. [...]
Bislang fehlt in Deutschland eine gesetzliche Regulierung von künstlicher Intelligenz - auch am Arbeitsplatz. Die Bundesregierung arbeitet momentan an einem neuen Beschäftigtendatenschutzgesetz, das auch den Einsatz von KI betreffen soll, schreibt das Bundesarbeitsministerium auf BR-Anfrage. [...]
EU-Abgeordneter: Emotions-KI "pseudowissenschaftlich"
Auf Ebene der EU soll der AI Act in Zukunft den Einsatz von Künstlicher Intelligenz grundlegend regeln. [...]
Debatte über Verbot von Emotionserkennung
Einzelne Abgeordnete der konservativen Europäischen Volkspartei (EVP) rücken indes von strikten Verboten im AI Act ab. Angelika Niebler (CSU) sagte im BR-Interview, Emotionserkennung am Arbeitsplatz sei ein Thema, bei dem man "Chancen und Risiken sorgfältig abwägen" müsse.
Aktuell verhandeln Kommission, Rat und EU-Parlament noch über die endgültigen Inhalte des AI Acts. Die Verhandlungen sollen bis zum Ende dieses Jahres abgeschlossen sein.