abusesaffiliationarrow-downarrow-leftarrow-rightarrow-upattack-typeburgerchevron-downchevron-leftchevron-rightchevron-upClock iconclosedeletedevelopment-povertydiscriminationdollardownloademailenvironmentexternal-linkfacebookfiltergenderglobegroupshealthC4067174-3DD9-4B9E-AD64-284FDAAE6338@1xinformation-outlineinformationinstagraminvestment-trade-globalisationissueslabourlanguagesShapeCombined Shapeline, chart, up, arrow, graphLinkedInlocationmap-pinminusnewsorganisationotheroverviewpluspreviewArtboard 185profilerefreshIconnewssearchsecurityPathStock downStock steadyStock uptagticktooltiptwitteruniversalityweb

Der Inhalt ist auch in den folgenden Sprachen verfügbar: English

Artikel

4 Jun 2024

Autor:
Pranshu Verma & Nitasha Tiku, The Washington Post,
Autor:
taz

Mit­ar­bei­te­r:in­nen von Tech-Unternehmen warnen vor KI-Risiken und fordern Änderungen, um Transparenz und öffentliche Debatte zu gewährleisten

"Offener Brief von KI-Forscher:innen: Schutz vor Vergeltung gefordert"

Ent­wick­le­r:in­nen wollen vor den Risiken künstlicher Intelligenz warnen dürfen. Viele fürchten die Reaktion der Konzerne auf interne Kritik.

Eine Gruppe von KI-Forscher:innen, darunter mehrere ehemalige Angestellte der ChatGPT-Firma OpenAI, fordert das Recht ein, die Öffentlichkeit über Gefahren der Software warnen zu dürfen. Der aktuelle Schutz für Whistleblower reiche nicht aus, betonten die Ex­per­t:in­nen in einem am Dienstag veröffentlichten offenen Brief.

Denn dieser sei vor allem auf illegale Aktivitäten von Firmen ausgerichtet – aber bei künstlicher Intelligenz gebe es in vielen Fällen noch keine rechtlichen Vorgaben. „Einige von uns fürchten zu Recht Vergeltungsmaßnahmen, da es bereits solche Fälle in der Branche gab.“

Ein Beispiel dafür wurde nur wenig später bekannt: Der ehemalige OpenAI-Forscher Leopold Aschenbrenner sagte dem Dwarkesh Podcast, er sei gefeuert worden, nachdem er sich beim Verwaltungsrat der Firma über KI-Sicherheit besorgt gezeigt habe.

Die For­sche­r:in­nen riefen die Unternehmen mit fortgeschrittenen KI-Modellen auf, vier Grundsätze zu befolgen. Dazu gehört, den Mit­ar­bei­te­r:in­nen nicht negative Äußerungen über ihre Arbeitgeber zu verbieten. Jüngst wurde bekannt, dass OpenAI ehemaligen Mitarbeitenden mit dem Verfall ihrer Aktienoptionen drohte, wenn sie die Firma „verunglimpfen“ sollten. OpenAI-Chef Sam Altman entschuldigte sich und ließ die Klausel, von der er nichts gewusst habe, streichen. Er behauptete auch, sie sei nie angewendet worden. [...]

Eine Sprecherin von OpenAI sagte zu dem Brief, das Unternehmen glaube an eine „wissenschaftliche Herangehensweise an Risiken der Technologie“. Mit­ar­bei­te­r:in­nen stehe frei, auch anonym ihre Sorgen zu teilen. Zugleich dürften dabei aber vertrauliche Informationen nicht öffentlich gemacht werden, die dadurch in die falschen Hände geraten könnten. [...]