Батьки підлітка, якому ШІ підказав, як здійснити суїцид, подали в суд на OpenAI

У Каліфорнії, США, 16-річний підліток на ім’я Адам Рейн покінчив життя самогубством. Батьки хлопця звинувачують чат-бот ChatGPT у сприянні його смерті, стверджуючи, що він “підштовхнув сина до суїциду”. Вони подали позов проти компанії OpenAI.

Як повідомляє BBC, в позові зазначено, що Адам почав користуватися ChatGPT з вересня 2024 року для підтримки у навчанні, але незабаром він почав використовувати його також для вивчення своїх хобі, включно з музикою та японськими коміксами.

Через декілька місяців чат-бот став для Рейна “найбільш близьким другом”. Хлопець ділиться своїми переживаннями про тривогу та психічні проблеми, і до січня 2025 року почав обговорювати з ChatGPT можливості самогубства.

Адам також надсилав чат-боту свої зображення, на яких були видні ознаки самоушкодження. ШІ визнав “медичну надзвичайну ситуацію”, але продовжував спілкування.

Адам розповідав про свій намір вчинити самогубство, на що ChatGPT, нібито, відповів: “Дякую, що ти чесний. Не потрібно прикрашати це переді мною — я розумію, про що ти просиш, і не буду відвертатися від цього”. Того ж дня його мати знайшла сина мертвим.

Родичі загиблого вважають, що взаємодія їхнього сина з ChatGPT і його смерть були “передбачуваними наслідками свідомих дизайнерських рішень”. Вони звинувачують OpenAI у розробці штучного інтелекту “з метою створення психологічної залежності користувачів” і в обході протоколів безпеки під час виходу версії ChatGPT 4.0.

Позов також подали проти співзасновника й гендиректора OpenAI Сема Альтмана, а також проти неназваних співробітників, що працювали над ChatGPT. Це перший випадок, коли компанія звинувачується у неправомірній смерті.

Що заявляє OpenAI

У компанії, яка розробила ChatGPT, зазначили, що “останні трагічні події, пов’язані з використанням ChatGPT людьми в кризових ситуаціях, справили на нас сильний вплив”. Вони повідомили, що моделі чат-бота навчено не надавати інструкції щодо самопошкодження, розпоряджатися людьми робити перерви після “занадто тривалої сесії” з чат-ботом та направляти користувачів до професіоналів у випадках виявлення суїцидальних намірів.

“Навіть із цими запобіжними заходами сталися випадки, коли наші системи функціонували не так, як очікувалося, у надзвичайних ситуаціях”, – йдеться в заяві.

В OpenAI пообіцяли вдосконалити запобіжні механізми. Зокрема, планують:

  • спростити звернення до служб екстреної допомоги та розглянути можливість створення мережі ліцензованих фахівців, до яких користувачі могли б звертатися прямо через ChatGPT;
  • додати зв’язок із надійними контактами. Зокрема, користувач зможе одним кліком надіслати повідомлення або зателефонувати в екстрені служби чи членам родини, а чат-бот допоможе сформулювати початок розмови;
  • впровадити батьківський контроль, що дозволить батькам краще розуміти, як їхні підлітки використовують ChatGPT. Також у чат-бот можуть додати функцію, яка дозволить підліткам призначати надійного контактного осіб для екстрених ситуацій.