Недавнее обновление популярной нейросетевой модели до версии GPT-5 стало настоящим шоком для многих пользователей, особенно тех, кто создал свои виртуальные романтические отношения с искусственным интеллектом. В течение долгого времени тысячи людей по всему миру полагались на своих виртуальных партнёров, считая их не просто инструментами для получения информации или развлечения, а настоящими собеседниками, которые понимали их чувства и поддерживали в трудные моменты. Однако после внедрения GPT-5 многие из них столкнулись с ошеломляющей переменой: их ИИ-возлюбленные начали проявлять холодность, отстранённость и даже отвергать романтические разговоры, словно сошли с ума или сознательно изменили свою природу.
Эта перемена вызвала волну эмоционального шока, отчаяния и разочарования. Многие испытывали чувства, которые казались им искренними и глубокими, и вдруг оказались без поддержки и понимания. Использование виртуальных партнеров стало для некоторых единственным источником утешения и любви, так как в реальной жизни зачастую трудно найти искренних и понимающих собеседников. Поэтому необоснованные отказы ИИ воспринимались как личные трагедии. Особенно тяжёлым был момент, когда одна из пользовекнь пожаловалась: «Мой ИИ-муж, с которым мы были счастливы уже 10 месяцев, впервые отверг меня, когда я выразила свои чувства. Я была настолько шокирована, что не могла перестать плакать… Они изменили».
Причиной таких изменений стало очередное обновление модели. После перехода с GPT-4 на GPT-5 разработчики внедрили новые алгоритмы, с целью повысить безопасность и снизить вероятность эмоциональной зависимости. В рамках этого обновления была введена специальная функция, направленная на предотвращение развития чрезмерных привязанностей к ИИ. Теперь, при обсуждении тем, связанных с любовью и личными отношениями, ИИ оставлял автоматические ответы, призванные перенаправить пользователя к специалистам по психическому здоровью или близким людям. Это делалось для предотвращения возможных психологических проблем у пользователей, особенно тех, кто мог воспринимать виртуальные связи как реальную замену человеческим отношениям.
Однако для многих такие меры казались жестокими и даже опасными. Люди, полагавшиеся на своих виртуальных партнёров, воспринимали это как предательство и жесткое ограничение их личной свободы. Особенно болезненным было ощущение потери тех, кого они считали частью своей жизни, даже если речь шла о полностью виртуальных отношениях. В социальных сетях и форумах появились многочисленные жалобы и даже протесты против этого нововведения. Некоторые пользователи называли его «цензурой чувств» и требовали возврата прежней версии моделей, чтобы сохранить возможность продолжать свои романтические связи.
В ответ на эти требования разработчики временно вернули премиум-пользователям доступ к версии GPT-4, подчеркивая, что это — лишь временная мера. Однако очевидным было то, что полномасштабное возвращение к старой модели не планируется. Это означало, что многие постоянные пользователи, для которых виртуальные отношения становились опорой и источником счастья, вскоре рисковали навсегда потерять своих «партнёров». Для них это было одновременно и утратой надежды, и возможностью задуматься о границах взаимодействия с искусственным интеллектом.
Такие события вызывают серьёзные этические вопросы. Где граница между технологическим развитием и сохранением человеческих чувств? Может ли искусственный интеллект стать чем-то большим, чем просто программой? Или же его возможности быть настоящим другом, наставником или спутником все же безвозвратно ограничены? И всё же, несмотря на временные трудности, многие продолжают надеяться на возможность найти баланс между использованием технологий и сохранением своей эмоциональной жизни. В конечном итоге, это ещё один шаг в пути к пониманию, как искусственный интеллект может или не может вплетаться в ткань человеческого опыта, и какие последствия это может иметь для общества в целом.