Dyrektor generalny Superhuman (dawniej Grammarly), Shishir Mehrotra, wziął udział w pełnym napięcia wywiadzie, aby omówić kontrowersyjny portal firmy „Expert Review”, w którym nazwiska znanych osób – w tym dziennikarzy i pisarzy – bez ich zgody były wykorzystywane do tworzenia sugestii pisarskich opartych na sztucznej inteligencji. Dyskusja prowadzona przez Caseya Newtona z The Verge dotyczyła procesu decyzyjnego, który doprowadził do uruchomienia i późniejszego usunięcia tej funkcji, a także szerszych konsekwencji wtargnięcia sztucznej inteligencji do pracy twórczej.
Funkcja i reakcja
Mehrotra przyznała, że oburzenie wywołało „Expert Review”, w którym użyto nazwisk takich jak Casey Newton, Julia Angwin, a nawet dzwonków ze znacznikami wyboru, sugerującymi jakieś oficjalne poparcie. Chociaż funkcja ta spotkała się z minimalną interakcją ze strony użytkowników, wywołała silną reakcję, która doprowadziła do pozwu zbiorowego. Mehrotra przeprosił, ale bronił intencji zespołu, argumentując, że próbował on wypełnić lukę między użytkownikami szukającymi opinii ekspertów a ekspertami, którym trudno jest nawiązać bezpośredni kontakt z odbiorcami.
“Ta funkcja się nie powiodła. Nie była dobra dla ekspertów, nie była dobra dla użytkowników. To była dość ukryta funkcja… Możemy zrobić dużo, dużo lepiej.”
Zespół uzasadnił to tym, że użytkownicy potrzebowali pomocy sztucznej inteligencji naśladującej mentoring w świecie rzeczywistym: menedżera sprzedaży udzielającego informacji zwrotnej, specjalisty ds. wsparcia oferującego porady kontekstowe. Jednak ta wizja napotkała problemy etyczne związane z używaniem nazwisk ludzi bez pozwolenia.
Proces podejmowania decyzji przez Nadczłowieka
Mehrotra opisał proces decyzyjny Superhumana jako oparty na zbieraniu różnorodnych informacji zwrotnych w celu uniknięcia myślenia grupowego, powołując się na firmowy rytuał zwany „Dory and Pulse”. Przyznał jednak, że potencjalna reakcja na nieuprawnione użycie nazw nie pojawiła się w trakcie wewnętrznych dyskusji. Zespół uważał, że ze względu na wyraźne powiązanie z oryginalnym dziełem dany element zostanie uznany za atrybucję, a nie imitację.
Superhuman zatrudnia około 1500 osób; Decyzję o uruchomieniu Expert Review podjął niewielki zespół składający się z menadżera produktu i kilku inżynierów.
Przyszłość integracji sztucznej inteligencji
Szersza dyskusja skierowała się w stronę ambicji Superhumana, aby bezproblemowo zintegrować sztuczną inteligencję z przepływami pracy użytkowników na różnych platformach, takich jak Dokumenty Google, Slack i aplikacje mobilne. Mehrotra argumentował, że ich siła leży w wszechobecności, zapewniając spójne wrażenia związane ze sztuczną inteligencją niezależnie od używanego narzędzia. Nowa platforma firmy, Superhuman Go, ma na celu umożliwienie innym tworzenia agentów AI działających podobnie do Grammarly, skutecznie rozszerzając ich zasięg AI.
Problem finansowy
Zapytany o wynagrodzenie za wykorzystanie jego wizerunku Mehrotra unikał bezpośredniej odpowiedzi. Powtórzył znaczenie uznania autorstwa w przypadku korzystania z czyjejś pracy, ale rozróżnił uznanie autorstwa od naśladownictwa, broniąc recenzji eksperckiej jako formy uznania autorstwa, a nie złośliwej imitacji. Zasugerował, że spółka uważa pozew za bezzasadny.
Wywiad zakończył się ostrą wymianą zdań na temat rekompensaty finansowej, pozostawiając nierozstrzygniętą kwestię, czy Superhuman zapłaci za nieuprawnione wykorzystanie danych osobowych.
Wniosek: w wywiadzie uwydatniono agresywne zaangażowanie Superhuman we wdrażanie sztucznej inteligencji we wszystkich aspektach pracy cyfrowej, jednocześnie uwydatniając szare obszary etyczne związane z używaniem marek osobistych bez zgody. Incydent stanowi przestrogę dotyczącą szybkiego wdrażania narzędzi sztucznej inteligencji i konieczności wyznaczenia jasnych granic wokół własności intelektualnej i tożsamości osobistej w erze technologii generatywnych.





























