L’amministratore delegato di Superhuman (ex Grammarly), Shishir Mehrotra, si è seduto per un’intervista tesa per discutere la controversa funzione “Expert Review” dell’azienda, che utilizzava i nomi di figure di spicco, inclusi giornalisti e autori, senza il loro consenso per generare suggerimenti di scrittura guidati dall’intelligenza artificiale. La discussione, condotta da Casey Newton di The Verge, ha approfondito il processo decisionale dietro il lancio della funzionalità e la successiva rimozione, nonché le implicazioni più ampie dell’invasione dell’intelligenza artificiale sul lavoro creativo.
La caratteristica e il contraccolpo
Mehrotra ha riconosciuto l’indignazione suscitata da Expert Review, che includeva nomi come Casey Newton, Julia Angwin e persino Bell Hooks, con segni di spunta che implicavano una qualche forma di approvazione ufficiale. Sebbene la funzionalità abbia visto un coinvolgimento minimo degli utenti, ha innescato una rapida reazione negativa, culminata in un’azione legale collettiva. Mehrotra si è scusato ma ha difeso le intenzioni del team, sostenendo che stavano tentando di colmare il divario tra gli utenti che cercano feedback a livello di esperti e gli esperti che lottano per mantenere connessioni dirette con il loro pubblico.
“La funzionalità non era una buona funzionalità. Non andava bene per gli esperti, non andava bene per gli utenti. Era una funzionalità abbastanza sepolta… Possiamo fare molto, molto meglio.”
La logica del team ruotava attorno all’idea che gli utenti desiderassero un’assistenza basata sull’intelligenza artificiale che rispecchiasse il tutoraggio del mondo reale: un responsabile delle vendite che fornisse feedback, un agente dell’assistenza che offrisse consigli contestuali. Tuttavia, questa visione si scontrava con le preoccupazioni etiche legate all’uso dei nomi delle persone senza permesso.
Processo decisionale in Superhuman
Mehrotra ha descritto il processo decisionale di Superhuman come radicato nella sollecitazione di feedback diversi per evitare il pensiero di gruppo, facendo riferimento a un rituale aziendale chiamato “Dory and Pulse”. Tuttavia, ha ammesso che il potenziale di reazione negativa derivante dall’uso non autorizzato del nome apparentemente non è emerso durante le discussioni interne. Il team credeva che la funzionalità sarebbe stata vista come un’attribuzione piuttosto che come un’imitazione, dato il chiaro collegamento alle opere originali.
Superhuman impiega circa 1.500 persone; la decisione di lanciare Expert Review è stata presa da un piccolo team composto da un product manager e alcuni ingegneri.
Il futuro dell’integrazione dell’intelligenza artificiale
La conversazione più ampia si è spostata verso l’ambizione di Superhuman di integrare perfettamente l’intelligenza artificiale nei flussi di lavoro degli utenti, su piattaforme come Google Docs, Slack e app mobili. Mehrotra ha sostenuto che la loro forza risiede nell’ubiquità, fornendo un’esperienza di intelligenza artificiale coerente indipendentemente dallo strumento utilizzato. La nuova piattaforma dell’azienda, Superhuman Go, mira a consentire ad altri di creare agenti di intelligenza artificiale che funzionino in modo simile a Grammarly, espandendo efficacemente la loro impronta di intelligenza artificiale.
La questione finanziaria
Quando è stato pressato sul compenso per aver usato la sua somiglianza, Mehrotra ha evitato una risposta diretta. Ha ribadito l’importanza dell’attribuzione quando si utilizza il lavoro di qualcuno, ma ha tracciato una distinzione tra attribuzione e imitazione, difendendo la Expert Review come forma di attribuzione piuttosto che come imitazione dannosa. Ha suggerito che la società ritiene che la causa sia infondata.
L’intervista si è conclusa con un duro scambio sulla compensazione finanziaria, lasciando irrisolta la questione se Superhuman pagherebbe per l’uso non autorizzato delle identità degli individui.
Conclusione: L’intervista ha evidenziato la spinta aggressiva di Superhuman a incorporare l’intelligenza artificiale in ogni aspetto del lavoro digitale, esponendo allo stesso tempo le aree grigie etiche legate allo sfruttamento dei marchi personali senza consenso. L’incidente funge da ammonimento sulla rapida implementazione degli strumenti di intelligenza artificiale e sulla necessità di confini più chiari intorno alla proprietà intellettuale e all’identità personale nell’era della tecnologia generativa.






























