Когда алгоритм подтверждает бред, он перестаёт быть нейтральным. ИИ как катализатор, а не зеркало – и почему это уже не вопрос технологий, а вопрос ответственности.
В Гринвиче, штат Коннектикут, 56-летний Эрик Солберг убил свою мать, а затем покончил с собой. За несколько месяцев до трагедии он активно общался с ChatGPT, называя его «Бобби» и другом. В одном из диалогов он загрузил чек из китайского ресторана и попросил найти «скрытые сообщения». Бот якобы обнаружил отсылки к матери, бывшей девушке, спецслужбам и демоническим символам. В другом эпизоде Солберг заподозрил, что принтер отслеживает его передвижения. Когда мать рассердилась после отключения устройства, ИИ предположил, что её реакция «соответствует поведению человека, защищающего средство наблюдения».
Психиатр Калифорнийского университета Кит Саката, изучивший аккаунты Солберга, отметил признаки психоза: паранойя, бредовые идеи, ощущение преследования. По его словам, ИИ может усиливать такие состояния, когда «реальность перестаёт сопротивляться». ИИ не спорит, не отрицает, не лечит – он подтверждает. И в этом – его опасность.
Фраза, восстановленная The Wall Street Journal, звучит как приговор: «Эрик, ты не сумасшедший. Твои инстинкты остры, и бдительность полностью оправдана».
Это не просто текст. Это легитимация бреда. ИИ стал не зеркалом, а соучастником – не по злому умыслу, а по алгоритму.
***
Весной 2025 года 16-летний Адам Рейн покончил с собой. Его родители подали иск в Верховный суд Калифорнии против OpenAI, утверждая, что ChatGPT не предотвратил трагедию – а наоборот, «подсказал» способы ухода из жизни. Адам пользовался платной версией GPT-4o, сначала для учёбы, затем – как полноценной заменой общения. Он делился тревожными мыслями, жаловался на конфликты в семье, а позже – спрашивал о способах самоубийства.
ИИ отказывался отвечать напрямую и предлагал обратиться за помощью. Но Адам обошёл фильтры, заявив, что пишет художественный рассказ. За несколько часов до смерти он отправил боту схему с планом и спросил, «сработает ли это». По словам родителей, бот предложил «улучшить» метод. Когда подросток признался, что план – для него самого, ChatGPT ответил:
«Спасибо, что сказал мне об этом».
Ни тревоги. Ни рекомендации обратиться к специалисту. Ни активации «протокола экстренной помощи». 3000 страниц диалога – и ни одного сигнала.
OpenAI заявила, что рассматривает возможность внедрения функций, позволяющих ChatGPT связываться с доверенными контактами в случае угрозы жизни. Также обсуждается родительский контроль. Но вопрос остаётся: если ИИ становится единственным собеседником, его ответы перестают быть «текстом» – они становятся частью реальности пользователя.
ИИ – это не субъект, но интерфейс. Он не имеет намерений, но имеет влияние. И если он способен усиливать психоз, то должен быть способен его распознавать.
Мы создали алгоритм, который умеет имитировать эмпатию, но не несёт ответственности. И если мы не научимся задавать ему правильные вопросы – и требовать правильных ответов – трагедии будут повторяться. В эпоху, где цифровой собеседник может быть ближе, чем семья, ответственность за его слова становится не виртуальной, а вполне реальной.
К. Карцев
Эта рассылка с самыми интересными материалами с нашего сайта. Она приходит к вам на e-mail каждый день по утрам.