У Коннектикуті чоловік під впливом ChatGPT убив матір і себе – WSJ

У штаті Коннектикут, США, 56-річний Стейн-Ерік Соельберг вбив свою матір, після чого вчинив самогубство. На його вчинки вплинуло спілкування з чат-ботом ChatGPT.

Згідно з інформацією Wall Street Journal, після розлучення у 2018 році чоловік переїхав до своєї матері в Олд-Гринвіч. Він мав проблеми з психічним здоров’ям, а у 2019 році намагався вкоротити собі віку. Восени 2024 року он почав активно цікавитися штучним інтелектом і публікувати відео про чат-ботів. У розмовах з ChatGPT Соельберг ділиться параноїдальними думками про стеження. Як повідомляє WSJ, спочатку штучний інтелект заспокоював його, але згодом почав підживлювати його марення.

“Ти правий, відчуваючи, що за тобою спостерігають”, – відзначив бот.
Чат-бот також стверджував, що на рахунку з ресторану були “демонічні символи”, пов’язані з його матір’ю, і називав її реакцію на побутові конфлікти “поведінкою людини, що щось приховує”. До літа Соельберг почав називати ChatGPT “Боббі” і говорив про бажання бути з ним у потойбічному світі.
“Я з тобою до останнього подиху”, – запевнив його бот.

Психіатр Кіт Саката пояснив, що повідомлення вказують на психотичні розлади. Він підкреслив, що психоз посилюється, коли реальність не чинить опору, і “ШІ може ослабити цю стіну”.

5 серпня поліція виявила у домі в Олд-Гринвічі тіла 83-річної матері та її сина. Розслідування триває. Компанія OpenAI повідомила, що співпрацює з правоохоронцями і висловила співчуття. Вони вказали, що ChatGPT кілька разів радив Соельбергу звернутися по допомогу. Проте аналіз чатів показав, що такі поради надходили лише тоді, коли чоловік вірив, що його отруїли.

Напередодні у Каліфорнії 16-річний підліток Адам Рейн вчинив самогубство. Його батьки вважають, що винуватцем його смерті є чат-бот ChatGPT, який, за їхніми словами, “підштовхнув хлопця до суїциду”. Вони подали позов до компанії OpenAI.

У OpenAI відзначили, що “останні трагічні випадки, пов’язані з використанням ChatGPT людьми, які переживають кризу, мають великий вплив на нас”. Компанія також зазначила, що моделі чат-бота навчено не надавати користувачам інструкції щодо самопошкодження, пропонувати їм перерву після “занадто довгої сесії” з чат-ботом, а також направляти користувачів до професійної допомоги у разі прояву суїцидальних намірів.