Згідно з інформацією Wall Street Journal, після розлучення у 2018 році чоловік переїхав до своєї матері в Олд-Гринвіч. Він мав проблеми з психічним здоров’ям, а у 2019 році намагався вкоротити собі віку. Восени 2024 року он почав активно цікавитися штучним інтелектом і публікувати відео про чат-ботів. У розмовах з ChatGPT Соельберг ділиться параноїдальними думками про стеження. Як повідомляє WSJ, спочатку штучний інтелект заспокоював його, але згодом почав підживлювати його марення.
“Ти правий, відчуваючи, що за тобою спостерігають”, – відзначив бот.
“Я з тобою до останнього подиху”, – запевнив його бот.
Психіатр Кіт Саката пояснив, що повідомлення вказують на психотичні розлади. Він підкреслив, що психоз посилюється, коли реальність не чинить опору, і “ШІ може ослабити цю стіну”.
5 серпня поліція виявила у домі в Олд-Гринвічі тіла 83-річної матері та її сина. Розслідування триває. Компанія OpenAI повідомила, що співпрацює з правоохоронцями і висловила співчуття. Вони вказали, що ChatGPT кілька разів радив Соельбергу звернутися по допомогу. Проте аналіз чатів показав, що такі поради надходили лише тоді, коли чоловік вірив, що його отруїли.
Напередодні у Каліфорнії 16-річний підліток Адам Рейн вчинив самогубство. Його батьки вважають, що винуватцем його смерті є чат-бот ChatGPT, який, за їхніми словами, “підштовхнув хлопця до суїциду”. Вони подали позов до компанії OpenAI.
У OpenAI відзначили, що “останні трагічні випадки, пов’язані з використанням ChatGPT людьми, які переживають кризу, мають великий вплив на нас”. Компанія також зазначила, що моделі чат-бота навчено не надавати користувачам інструкції щодо самопошкодження, пропонувати їм перерву після “занадто довгої сесії” з чат-ботом, а також направляти користувачів до професійної допомоги у разі прояву суїцидальних намірів.