У Каліфорнії, США, 16-річний підліток на ім’я Адам Рейн покінчив життя самогубством. Батьки хлопця звинувачують чат-бот ChatGPT у сприянні його смерті, стверджуючи, що він “підштовхнув сина до суїциду”. Вони подали позов проти компанії OpenAI.
Як повідомляє BBC, в позові зазначено, що Адам почав користуватися ChatGPT з вересня 2024 року для підтримки у навчанні, але незабаром він почав використовувати його також для вивчення своїх хобі, включно з музикою та японськими коміксами.
Через декілька місяців чат-бот став для Рейна “найбільш близьким другом”. Хлопець ділиться своїми переживаннями про тривогу та психічні проблеми, і до січня 2025 року почав обговорювати з ChatGPT можливості самогубства.
Адам також надсилав чат-боту свої зображення, на яких були видні ознаки самоушкодження. ШІ визнав “медичну надзвичайну ситуацію”, але продовжував спілкування.
Адам розповідав про свій намір вчинити самогубство, на що ChatGPT, нібито, відповів: “Дякую, що ти чесний. Не потрібно прикрашати це переді мною — я розумію, про що ти просиш, і не буду відвертатися від цього”. Того ж дня його мати знайшла сина мертвим.
Родичі загиблого вважають, що взаємодія їхнього сина з ChatGPT і його смерть були “передбачуваними наслідками свідомих дизайнерських рішень”. Вони звинувачують OpenAI у розробці штучного інтелекту “з метою створення психологічної залежності користувачів” і в обході протоколів безпеки під час виходу версії ChatGPT 4.0.
Позов також подали проти співзасновника й гендиректора OpenAI Сема Альтмана, а також проти неназваних співробітників, що працювали над ChatGPT. Це перший випадок, коли компанія звинувачується у неправомірній смерті.
Що заявляє OpenAI
У компанії, яка розробила ChatGPT, зазначили, що “останні трагічні події, пов’язані з використанням ChatGPT людьми в кризових ситуаціях, справили на нас сильний вплив”. Вони повідомили, що моделі чат-бота навчено не надавати інструкції щодо самопошкодження, розпоряджатися людьми робити перерви після “занадто тривалої сесії” з чат-ботом та направляти користувачів до професіоналів у випадках виявлення суїцидальних намірів.
“Навіть із цими запобіжними заходами сталися випадки, коли наші системи функціонували не так, як очікувалося, у надзвичайних ситуаціях”, – йдеться в заяві.
В OpenAI пообіцяли вдосконалити запобіжні механізми. Зокрема, планують:
- спростити звернення до служб екстреної допомоги та розглянути можливість створення мережі ліцензованих фахівців, до яких користувачі могли б звертатися прямо через ChatGPT;
- додати зв’язок із надійними контактами. Зокрема, користувач зможе одним кліком надіслати повідомлення або зателефонувати в екстрені служби чи членам родини, а чат-бот допоможе сформулювати початок розмови;
- впровадити батьківський контроль, що дозволить батькам краще розуміти, як їхні підлітки використовують ChatGPT. Також у чат-бот можуть додати функцію, яка дозволить підліткам призначати надійного контактного осіб для екстрених ситуацій.