Der CEO von Superhuman geht in einem hitzigen Interview auf die Kontroverse um KI-Identitätswechsel ein

5

Der CEO von Superhuman (ehemals Grammarly), Shishir Mehrotra, führte ein spannendes Interview, um über die umstrittene „Expert Review“-Funktion des Unternehmens zu sprechen, bei der die Namen prominenter Persönlichkeiten – darunter Journalisten und Autoren – ohne deren Zustimmung verwendet wurden, um KI-gesteuerte Schreibvorschläge zu generieren. Die von Casey Newton von The Verge geführte Diskussion befasste sich mit dem Entscheidungsprozess hinter der Einführung und anschließenden Entfernung des Features sowie mit den umfassenderen Auswirkungen des Eingriffs der KI in die kreative Arbeit.

Das Feature und das Spiel

Mehrotra erkannte die Empörung an, die durch Expert Review ausgelöst wurde, in dem Namen wie Casey Newton, Julia Angwin und sogar Bell Hooks aufgeführt waren, wobei Häkchen auf irgendeine Form offizieller Billigung hindeuteten. Obwohl die Funktion nur ein minimales Nutzerinteresse hervorrief, löste sie eine schnelle Gegenreaktion aus, die in einer Sammelklage gipfelte. Mehrotra entschuldigte sich, verteidigte jedoch die Absichten des Teams und behauptete, sie versuchten, die Kluft zwischen Benutzern, die Feedback auf Expertenebene suchten, und Experten, die Schwierigkeiten hatten, eine direkte Verbindung zu ihrem Publikum aufrechtzuerhalten, zu überbrücken.

„Das Feature war kein gutes Feature. Es war nicht gut für Experten, es war nicht gut für Benutzer. Es war ein ziemlich verstecktes Feature … Wir können es viel, viel besser machen.“

Der Grundgedanke des Teams beruhte auf der Idee, dass Benutzer KI-Unterstützung wünschten, die eine reale Mentorschaft widerspiegelte: ein Vertriebsleiter, der Feedback gibt, ein Supportmitarbeiter, der kontextbezogene Ratschläge gibt. Diese Vision kollidierte jedoch mit den ethischen Bedenken, Namen von Personen ohne Erlaubnis zu verwenden.

Entscheidungsfindung bei Superhuman

Mehrotra beschrieb den Entscheidungsprozess von Superhuman als darauf beruhend, vielfältiges Feedback einzuholen, um Gruppendenken zu vermeiden, und bezog sich dabei auf ein Unternehmensritual namens „Dory and Pulse“. Er räumte jedoch ein, dass die Möglichkeit einer Gegenreaktion durch die unbefugte Namensverwendung bei internen Diskussionen offenbar nicht zum Vorschein gekommen sei. Das Team ging davon aus, dass das Feature aufgrund der eindeutigen Verknüpfung mit den Originalwerken eher als Zuschreibung denn als Identitätsfälschung gewertet werden würde.

Superhuman beschäftigt rund 1.500 Mitarbeiter; Die Entscheidung, Expert Review zu starten, wurde von einem kleinen Team bestehend aus einem Produktmanager und einigen Ingenieuren getroffen.

Die Zukunft der KI-Integration

Die breitere Diskussion verlagerte sich auf Superhumans Ziel, KI nahtlos in die Arbeitsabläufe der Benutzer zu integrieren, über Plattformen wie Google Docs, Slack und mobile Apps hinweg. Mehrotra argumentierte, dass ihre Stärke in der Allgegenwart liege und unabhängig vom verwendeten Tool ein konsistentes KI-Erlebnis biete. Die neue Plattform des Unternehmens, Superhuman Go, zielt darauf ab, anderen die Möglichkeit zu geben, KI-Agenten zu entwickeln, die ähnlich wie Grammarly funktionieren, und so ihren KI-Fußabdruck effektiv zu erweitern.

Die Finanzfrage

Als Mehrotra auf eine Entschädigung für die Verwendung seines Abbilds gedrängt wurde, verzichtete er auf eine direkte Antwort. Er bekräftigte die Bedeutung der Namensnennung bei der Verwendung der Arbeit einer Person, unterschied jedoch zwischen Namensnennung und Identitätsdiebstahl und verteidigte die Expertenbewertung als eine Form der Namensnennung und nicht als böswillige Nachahmung. Er deutete an, dass das Unternehmen die Klage für unbegründet hält.

Das Interview endete mit einem heftigen Austausch über die finanzielle Entschädigung, wobei die Frage offen blieb, ob Superhuman für die unbefugte Nutzung der Identität einzelner Personen zahlen würde.

Fazit: Das Interview verdeutlichte Superhumans aggressiven Vorstoß, KI in alle Facetten der digitalen Arbeit zu integrieren, und deckte gleichzeitig die ethischen Grauzonen bei der Nutzung persönlicher Marken ohne Zustimmung auf. Der Vorfall dient als warnendes Beispiel für den schnellen Einsatz von KI-Tools und die Notwendigkeit klarerer Grenzen für geistiges Eigentum und persönliche Identität im Zeitalter der generativen Technologie.