Le PDG de Superhuman (anciennement Grammarly), Shishir Mehrotra, s’est assis pour une interview tendue pour discuter de la fonctionnalité controversée « Expert Review » de l’entreprise, qui utilisait les noms de personnalités éminentes, notamment des journalistes et des auteurs, sans leur consentement pour générer des suggestions d’écriture basées sur l’IA. La discussion, menée par Casey Newton de The Verge, a approfondi le processus décisionnel derrière le lancement de la fonctionnalité et sa suppression ultérieure, ainsi que les implications plus larges de l’empiètement de l’IA sur le travail créatif.
La fonctionnalité et le contrecoup
Mehrotra a reconnu l’indignation suscitée par Expert Review, qui comprenait des noms comme Casey Newton, Julia Angwin et même Bell Hooks, avec des coches impliquant une certaine forme d’approbation officielle. Bien que la fonctionnalité ait suscité un engagement minimal des utilisateurs, elle a déclenché une réaction rapide, aboutissant à un recours collectif. Mehrotra s’est excusé mais a défendu les intentions de l’équipe, affirmant qu’elle tentait de combler le fossé entre les utilisateurs recherchant des commentaires de niveau expert et les experts luttant pour maintenir des liens directs avec leur public.
“Cette fonctionnalité n’était pas une bonne fonctionnalité. Elle n’était pas bonne pour les experts, elle n’était pas bonne pour les utilisateurs. C’était une fonctionnalité assez enterrée… Nous pouvons faire beaucoup, beaucoup mieux.”
Le raisonnement de l’équipe tournait autour de l’idée que les utilisateurs souhaitaient une assistance par l’IA qui reflétait un mentorat réel : un directeur commercial fournissant des commentaires, un agent d’assistance offrant des conseils contextuels. Cependant, cette vision se heurtait aux préoccupations éthiques liées à l’utilisation des noms d’individus sans autorisation.
Prise de décision chez Superhuman
Mehrotra a décrit le processus de prise de décision de Superhuman comme étant basé sur la sollicitation de commentaires divers pour éviter la pensée de groupe, faisant référence à un rituel d’entreprise appelé « Dory and Pulse ». Pourtant, il a admis que le risque de réaction négative suite à une utilisation non autorisée d’un nom ne s’était apparemment pas manifesté lors des discussions internes. L’équipe pensait que cette fonctionnalité serait considérée comme une attribution plutôt que comme une usurpation d’identité, étant donné le lien clair avec les œuvres originales.
Superhuman emploie environ 1 500 personnes ; la décision de lancer Expert Review a été prise par une petite équipe composée d’un chef de produit et de quelques ingénieurs.
L’avenir de l’intégration de l’IA
La conversation plus large s’est tournée vers l’ambition de Superhuman d’intégrer l’IA de manière transparente dans les flux de travail des utilisateurs, sur des plateformes telles que Google Docs, Slack et les applications mobiles. Mehrotra a fait valoir que leur force réside dans leur ubiquité, offrant une expérience d’IA cohérente quel que soit l’outil utilisé. La nouvelle plate-forme de la société, Superhuman Go, vise à permettre aux autres de créer des agents d’IA fonctionnant de manière similaire à Grammarly, élargissant ainsi efficacement leur empreinte IA.
La question financière
Lorsqu’on lui a demandé une compensation pour avoir utilisé son image, Mehrotra a esquivé une réponse directe. Il a réitéré l’importance de l’attribution lors de l’utilisation du travail de quelqu’un, mais a établi une distinction entre attribution et usurpation d’identité, défendant l’examen par des experts comme une forme d’attribution plutôt que comme un mimétisme malveillant. Il a laissé entendre que l’entreprise estimait que la poursuite était infondée.
L’entretien s’est terminé par un échange brutal sur la compensation financière, laissant en suspens la question de savoir si Superhuman paierait pour une utilisation non autorisée de l’identité des individus.
Conclusion : L’interview a mis en évidence la volonté agressive de Superhuman d’intégrer l’IA dans toutes les facettes du travail numérique, tout en exposant les zones grises éthiques liées à l’exploitation des marques personnelles sans consentement. L’incident sert de mise en garde sur le déploiement rapide des outils d’IA et sur la nécessité de limites plus claires autour de la propriété intellectuelle et de l’identité personnelle à l’ère de la technologie générative.






























