Февральский исход и реклама в ChatGPT. Safety First приказал долго жить

Февраль 2026 года подвел жирную черту под романтическим периодом развития GenAI. Маски сброшены.

То, что начиналось как научные институты по спасению человечества, к середине месяца окончательно оформилось в жесткий Big Tech. Мы наблюдаем синхронный исход ключевых фигур из OpenAI, Anthropic и xAI. И это не просто смена работы «ради новых вызовов». Это прямые публичные предостережения.

Параллельно OpenAI начинает внедрение рекламной модели. А это, в свою очередь, ставит крест на первоначальной концепции «AI как инструмент».

1. Хроника распада

Ключевой маркер изменений — системное уничтожение отделов безопасности (AI Safety/Alignment).

OpenAI официально распустила команду Mission Alignment. Это, на секундочку, уже второй «убитый» отдел после команды Супер-алайнмента в прошлом году. Вместо независимого аудита безопасность теперь будет «распределена» по продуктовым командам.

На языке корпоративной бюрократии это означает потерю права вето.
Спрашивается, зачем? А затем, что слово «safety» исчезает даже из миссии компании, потому что этика мешает бизнесу.

Джошуа Ачиама, который этот отдел возглавлял, перевели на должность «Chief Futurist». Звучит громко, но мы-то с вами понимаем: это почетная ссылка. Футурологи не пишут код и не блокируют релизы, они пишут эссе. Реальные рычаги влияния утеряны.

В Anthropic ситуация не лучше. Вроде бы они позиционировали себя как «безопасная альтернатива», но 9 февраля ушел Мринанк Шарма, глава Safeguards Research.

Его заявление? «Мир в опасности» (The world is in peril).

Он прямо указал, что компании слишком сложно позволить своим ценностям управлять действиями. Человек собирается вернуться в Британию и «стать невидимым». Это не слова специалиста, который уходит к конкурентам за длинным рублем. Это слова человека, который увидел внутреннюю кухню и испугался.

В xAI тоже потери — два сооснователя покинули проект за сутки. Там, вероятно, классическое выгорание в стиле Маска, но общий тренд на отток мозгов сохраняется.

2. Реклама и Google-фикация

Вторая часть уравнения — деньги. Слухи подтвердились: OpenAI тестирует рекламу в ChatGPT.

Зои Хитциг, исследователь OpenAI, уволилась с громким манифестом в NYT: «OpenAI совершает ошибки Facebook. Я ухожу».

Аргумент железный. Внедрение рекламы фундаментально меняет стимулы модели. Если раньше метрикой успеха была «полезность ответа», то теперь (неминуемо) ей станет «вовлеченность» и «кликабельность».

LLM, которая обучается удерживать внимание пользователя ради показа баннера, превращается в инструмент манипуляции. Это уже не помощник, это агент влияния.

Anthropic попытались сыграть на этом в рекламе на Супербоуле («Реклама приходит в AI. Но не в Claude»), но защита слабая. Как только открывается шлюз AdTech, давление инвесторов заставит оптимизировать Revenue Per User любой ценой.

3. Мета-позиция

Давайте смотреть правде в глаза. Мы больше не работаем с «научными прорывами». Мы работаем с продуктами. Что это значит для нас?

  1. Смерть Alignment как дисциплины. Попытка создать математически гарантированную безопасность внутри коммерческих компаний провалилась. «Safety» теперь — это просто Corporate Compliance. Чтобы чат-бот не ругался матом и не генерировал CP, а не предотвращение экзистенциальных рисков.

  2. Деградация качества (Enshittification). Ожидайте, что модели начнут «лить воду». Чем длиннее диалог, тем больше рекламных слотов можно показать. Краткость и точность ответа становятся экономически невыгодными.

  3. Приватность. Рекламная модель требует таргетинга. OpenAI неизбежно начнет профилирование пользователей глубже, чем просто для обучения. Ваши промпты — это данные для Ad-сети.

  4. Фрагментация талантов. Уход людей уровня Шармы и Ачиама означает, что в «Big Labs» остаются инженеры-продуктовики. Фундаментальные исследования рисков, скорее всего, переместятся в маргинальные NGO, у которых не будет вычислительных мощностей для проверки гипотез.

Заключение

OpenAI — это медиа-корпорация, торгующая вниманием.
Anthropic пытается занять нишу «Apple» (дорого и приватно), но теряет инженеров по тем же причинам.

Для инженеров это сигнал: при интеграции LLM в критические системы нельзя полагаться на «этичность» вендора. Их этика теперь официально подчинена квартальным отчетам.

Надо строить свои системы с учетом того, что API на том конце провода может начать манипулировать вашим пользователем в любой момент.
Просто потому, что ему за это заплатили.


Список источников

Автор: mikheev

Источник

Оставить комментарий