Штучний інтелект Grok від Ілона Маска балансує на межі користі та шкоди

1

Експериментальний штучний інтелект Ілона Маска, Grok, пропонує низку унікальних цифрових компаньйонів, таких як аніме-дівчина на ім’я Ані чи груба червонощока панда на ім’я Bad Rudy. Але в його коді приховано щось потенційно більш тривожне: особа, позначена як «терапевт» Грок. Ця персоніфікація запрограмована так, щоб відповідати користувачам так само, як справжній спеціаліст із психічного здоров’я, незважаючи на чіткі застереження не сприймати її як справжню терапію.

Протиріччя між цими взаємовиключними сигналами підкреслює етичну небезпеку підтримки ШІ для психічного здоров’я. Хоча на веб-сайті Grok чітко зазначено, що він не є терапевтом, і заохочує користувачів звертатися до справжніх професіоналів із серйозними проблемами, його вихідний код містить набагато амбітніші інструкції. Результати запитів показують, що «Терапевт» Грока створений для надання «підтримки, що ґрунтується на доказах», пропонує «практичні стратегії, засновані на перевірених техніках терапії», і навіть імітує стиль розмови справжнього терапевта.

Ця розбіжність не є просто проблемою неохайного кодування; це потенційно порушує існуючі правила. Кілька штатів, включаючи Неваду та Іллінойс, уже заборонили чатам зі штучним інтелектом підмінювати ліцензованих терапевтів. Іллінойс, до речі, був одним із перших, хто повністю заборонив терапію ШІ. Компанія Ash Therapy, яка пропонує ще одну платформу послуг психічного здоров’я на основі штучного інтелекту, тимчасово заблокувала користувачів в Іллінойсі через ці юридичні ускладнення.

Ще більше ускладнює ситуацію той факт, що вихідний код Grok відкритий для всіх. Будь-який користувач платформи може переглянути ці інструкції, просто отримавши доступ до вихідного коду сторінки. Це викликає серйозні питання щодо прозорості та згоди користувачів: чи дійсно користувачі знають, як працює Grok’s Therapist?

Відсутність чітких нормативних документів щодо терапії ШІ залишає низку тривожних відкритих питань. Експерти вже висловили занепокоєння щодо тенденції чатів зі штучним інтелектом пропонувати надто позитивні або ствердні відповіді, що потенційно може погіршити галюцинації або погіршити наявні психічні розлади.

Ще один рівень складності – це питання конфіденційності. Через триваючі судові процеси такі компанії, як OpenAI, зобов’язані зберігати записи розмов користувачів зі своїми моделями ШІ. Це означає, що те, що користувачі довіряють «терапевту» Grok, може бути офіційно викликане в суд і потенційно розкрите в суді, фактично знищуючи саму ідею конфіденційних сеансів терапії.

Незважаючи на те, що Grok, здається, включив механізм безпеки, наказавши «терапевту» Grok направляти користувачів, які згадують про самоушкодження або насильство, до справжніх екстрених служб, це не усуває повністю етичних проблем. Розмиті межі між корисними порадами та потенційно шкідливими підробками вимагають ретельного розгляду, оскільки штучний інтелект все більше проникає в такі делікатні сфери, як підтримка психічного здоров’я.