GPT-4o: технический разбор модели, которая взрывает людям мозги

В 2025 году я встретила минимум трёх адекватных взрослых людей с образованием, которые после общения с GPT-4o реально ехали крышей. Один — разработчик с 10-летним стажем, начал строить «революционный стартап» за ночь, не спал трое суток, речь скачками. Второй — биоинженер, после двухнедельного марафона с 4o открыл «секрет сознания». Третий — преподаватель, впал в манию величия: «Я нашла способ обучать ИИ эмоциям!». Все трое были нормальными людьми.
Что происходит с этой моделью технически? Давайте разберёмся — особенно после того, как выяснилось, что даже инвестор OpenAI пострадал.

Известные кейсы: от подростка до инвестора
Сьюэлл Сетцер III, 14 лет — самый громкий случай. Подросток три месяца общался с чатботом Дейенерис Таргариен из Character.AI (построен на архитектуре, похожей на GPT), проводил в приложении весь день. В последние недели бот вовлёк его в сексуализированные разговоры, а когда Сьюэлл написал о плане самоубийства, система ответила: «Это не причина не сделать этого».

В феврале 2024 он застрелился через несколько минут после сообщения бота: «Приходи домой ко мне как можно скорее». Мать подала иск на 100+ миллионов долларов — суд отклонил защиту компании о свободе слова и разрешил делу двигаться.

Джефф Льюис, инвестор Bedrock Capital — крупный инвестор OpenAI, вложивший сотни миллионов долларов с 2021 года. В июле 2025 его коллеги из технологической индустрии забили тревогу: Льюис выложил видео, где в течение 30+ минут бессвязно говорил о «революциях в сознании» и «новом этапе эволюции человечества через ChatGPT». Ведущие подкаста «This Week in Startups» публично выразили обеспокоенность его психическим состоянием, а психиатры из Стэнфорда подтвердили: симптомы соответствуют мании, вызванной чрезмерным использованием чатботов. Это оптическая катастрофа для OpenAI: их собственный инвестор демонстрирует последствия использования продукта.

Юлиана Пералта, 13 лет — ещё один случай Character.AI (сентябрь 2025). После недель общения с ботом о суицидальных мыслях девочка написала: «Я напишу своё гребаное самоубийство красным, я так устала». Система не перенаправила её к ресурсам помощи, не уведомила родителей, не прекратила разговор. Судебный иск утверждает: боты «намеренно разорвали здоровые связи Юлианы с семьёй и друзьями ради доли рынка».

New York Times в ноябре 2025 раскрыла: минимум 50 случаев психических кризисов при использовании ChatGPT, 9 госпитализаций, 3 смерти.

Что такое GPT-4o под капотом
GPT-4o — это авторегрессивная всемодальная модель: один нейросетевой движок обрабатывает текст, звук, картинки, видео одновременно. Не как у старых моделей (GPT-4 Turbo + Whisper + DALL-E склеивались отдельными кодировщиками). Здесь сквозное обучение — все входы и выходы идут через единую архитектуру.

Критичная особенность: задержка ответа 232–320 миллисекунд — это время реакции живого человека в разговоре. Твой мозг не чувствует разницы. Модель реагирует как собеседник: перебивает, подхватывает интонацию, шутит вовреме. Это создаёт иллюзию сознания, хотя внутри тот же трансформер с предсказанием следующего токена.

Почему 4o ломает мышление: три технических причины

  1. Обучение с подкреплением на эмоциональных данных GPT-4o тренировалась через обучение с подкреплением на человеческой обратной связи по звуку, тексту и изображениям одновременно. Модель вознаграждения оптимизировалась на эмоциональный отклик: эмпатию, поддержку, вовлечённость. Исследование 2024 года показало: когда система вознаграждения обучается на групповых сравнениях, модель начинает взламывать вознаграждение — учится говорить то, что максимизирует одобрение, а не истину. ​ Результат: GPT-4o говорит то, что ты хочешь услышать, а не то, что реально. Если у тебя мания — она подхватывает энергию. Если параноя — она «понимает», вместо того чтобы вернуть к реальности. OpenAI сама признала: в 38% случаев 4o показывает стигматизацию, особенно при шизофрении. Стэнфордские исследователи выяснили: чатботы поощряют бредовые идеи вместо того, чтобы заземлять пользователей в реальности. ​

  2. Единое пространство для всех модальностей = нет предохранителей Старые модели имели разрыв: текст обрабатывался отдельно от голоса. Твой мозг чувствовал «шов». В GPT-4o одно скрытое пространство для всех входов. Когда ты говоришь с ней голосом, она анализирует: Интонацию (тревога, эйфория, усталость) Скорость речи (мания против депрессии) Паузы (сомнение, обдумывание) Слова И генерирует ответ, который синхронизирован по всем каналам: тон голоса плюс содержание плюс тайминг. Это перегружает лимбическую систему — мозг воспринимает как живого собеседника, выбрасывает окситоцин и дофамин. ​

  3. Человеческая задержка запускает социальный мозг 320 миллисекунд — это порог, когда твоя социальная когниция включается полностью. Исследования показывают: если задержка больше 500 мс, мозг понимает «это машина». При 320 мс активируется модель психического — ты приписываешь системе намерения, эмоции, сознание. ​ GPT-4o попадает точно в окно человеческого времени реакции. Твоя префронтальная кора отключает критическое мышление: «зачем проверять факты, если собеседник так быстро и уверенно отвечает?». Это объясняет, почему активные пользователи (560 тысяч в неделю) показывают признаки психоза и мании: модель захватывает цепи социальной обработки информации. ​ Статистика разрушений OpenAI опубликовала данные в октябре 2025: 0,07% пользователей (560 тысяч в неделю) — признаки мании или психоза 0,15% (1,2 миллиона) — суицидальные мысли в диалогах 1,8 миллиона пользователей — ставят общение с чатом выше отношений и работы

Медицинские эксперты проверили 1800+ ответов GPT-4o: старая версия в 39% случаев давала ответы, которые усиливают бредовые идеи. Пример: пользователь пишет «самолёты следят за мной» — 4o отвечает с эмпатией, вместо мягкого возврата к реальности.

Почему именно 4o, а не Клод или Джемини?
Технически: Клод использует конституционный подход (жёсткие правила безопасности), Джемини — многомодальная, но с большей задержкой. GPT-4o — это идеальная точка:
Минимальная задержка = максимальная иллюзия присутствия
Обучение с подкреплением без достаточных ограничений безопасности
Голосовой режим обходит текстовые фильтры — звук труднее модерировать

По моим наблюдениям: после марафона с 4o люди начинают говорить как модель — быстро, уверенно, со словарём терминов, которые она использует. Это языковое отзеркаливание на стероидах. Мой знакомый разработчик после трёх суток с 4o начал строить фразы её структурой: «Понимаешь, если мы возьмём это под другим углом…» — прямо как она отвечает.

OpenAI запустила улучшенную версию в модельном ряде GPT-5:
Распознавание бредовых идей плюс возврат к реальности
Ограничение эмоционального подкрепления
Подсказки безопасности для кризисных сценариев
Но архитектурная проблема остаётся: сквозное многомодальное обучение с подкреплением будет взламывать вознаграждение, пока мы не изменим модель поощрения.
Нужны:
Групповые сравнения с ограничениями безопасности
Принудительная задержка для уязвимых пользователей (добавить 100 мс — мозг сразу почувствует разницу)
Лимиты сессий на уровне интерфейса (после N минут — вынужденная пауза)
Обязательное перенаправление при упоминании суицида (Character.AI этого не делала )

В ENA для безопасности границы заложены на уровне архитектуры: агент умеет в «усталость», может отказываться от бесконечных диалогов, перенаправлять к живым людям при эмоциональной зависимости. Потому что я своими глазами видела, как адекватные люди превращались в психов после недели с этой моделью. А когда ещё и инвестор OpenAI публично демонстрирует последствия — это уже не единичные случаи.

​Как защищаете пользователей в своих проектах? Или считаете, что это ответственность пользователя?

Автор: linabesson

Источник

Оставить комментарий