Сначала архитектура, потом «магия»: наш путь от сценарных голосовых ботов к умным ассистент

Сначала архитектура, потом «магия»: наш путь от сценарных голосовых ботов к умным ассистент - 1

В финтехе почти никогда не происходит по красивому сценарию, который обычно рисуют в презентациях: подключили LLM — и внезапно получили умного, почти «человеческого» голосового агента. Эта картинка слишком удобная, чтобы быть правдой. В реальности всё развивается намного медленнее и, если честно, местами довольно приземлённо.

Есть популярный миф. Мол, сначала бот живёт на жёстких сценариях. Потом к нему подключают LLM — и он сам превращается в почти живого собеседника. Звучит красиво. В реальности так не работает. Если посмотреть на реальные проекты в финтехе, всё происходит гораздо проще и… скучнее.

Этот материал — результат работы технической команды СВОЙ Тех. Как Project Manager, я прошел с коллегами путь от простых блок-схем до гибридных систем и хочу поделиться реальным опытом того, что остается «за кадром» красивых презентаций об искусственном интеллекте.

Рутина, которая строит фундамент

Сначала архитектура, потом «магия»: наш путь от сценарных голосовых ботов к умным ассистент - 2

Сначала берут скрипты и раскладывают их в понятную логику: блок-схемы, интенты и их вероятности. Потом долго донастраивают — смотрят отчёты, правят ответы, снова проверяют. Это довольно рутинный этап, но без него никуда. Дальше начинают добавлять реальные компоненты: маршрутизацию звонков, интеграции через API, аналитику. Система постепенно перестаёт быть просто набором фраз и начинает работать с реальными данными. И только после этого появляется LLM. Сначала на ограниченных сценариях, потом шире. И вот в этот момент разговор действительно становится более живым. Но важно другое: это происходит не вместо архитектуры, а потому что архитектура уже есть.

Почему мы не отказываемся от сценариев

Сначала архитектура, потом «магия»: наш путь от сценарных голосовых ботов к умным ассистент - 3

Почему сценарные боты до сих пор живы? Потому что в реальных задачах важна не только «красивая речь». Важно, чтобы система вела себя предсказуемо, чтобы её можно было проверить и заранее понять, что она скажет в каждой ситуации. В финтехе это особенно чувствуется.

Например, в задачах взыскания закон прямо задаёт правила: нужно сообщать, что это автоматизированный агент, нельзя звонить когда угодно, и всегда должна быть возможность переключиться на человека. Плюс требования по ИИ:клиент должен иметь возможность отказаться от взаимодействия с ним, результат можно пересмотреть, а качество — контролировать. В такой среде сценарный бот — это не пережиток прошлого, а способ держать всё под контролем.

Когда сценарии начинают «трещать по швам»

Сначала архитектура, потом «магия»: наш путь от сценарных голосовых ботов к умным ассистент - 4

Но у этого подхода есть предел. Со временем вариантов фраз становится слишком много, исключения растут быстрее, чем команда успевает их описывать, и сценарии начинают разваливаться. При этом бизнесу уже нужен не формальный ответ, а нормальный разговор: проверить платёж, объяснить статус, провести клиента по нескольким шагам и не потерять контекст. Именно здесь и появляется потребность в LLM. 

Важно не перепутать её роль. Модель — не источник фактов и не «мозг системы». Её задача — понимать речь, удерживать контекст, принимать решения и формулировать ответ. Факты при этом должны приходить из систем — через API и сервисы. Когда это разделение соблюдается, всё работает предсказуемо. Когда нет — система начинает звучать уверенно, но ошибаться. С этого места обычно и начинается архитектура.

Сначала архитектура, потом «магия»: наш путь от сценарных голосовых ботов к умным ассистент - 5

Она выглядит не как замена одного блока другим, а как постепенное наращивание слоёв. Ниже — удобная схема такого перехода уже упрощённом виде, которую мы использовали для синхронизации работы команды. 

Этап

Что появляется

Что остается жестким

Сценарный этап

Скрипты, интенты, ключевые слова, ручная донастройка, запись диктора

Формулировки, переходы, проверка результата

Интеграционный этап

Маршрутизация звонков (routing), API, аналитика

Маршруты звонков, разершённые действия, статусы

Гибридный этап

База знаний, оркестрация запросов, более гибкое принятие решений, синтез речи с подстановкой переменных (ФИО, суммы)

Источник фактов, контроль ответа, передача на оператора (handoff)

Этап с использованием LLM

естественная речь, понимание намерения, длинный контекст, вариативность, уникальность фраз, работа без предзаписи

Юридические ограничения, ограничения контекста, наблюдаемость

Риски «быстрого» внедрения

Поэтому подключать LLM напрямую к телефонии или CRM — плохая идея. На демо это выглядит эффектно: ответы звучат живее, голос приятнее, диалог кажется более естественным. Но в реальной системе этого недостаточно. Если между моделью и источниками данных нет нормальной архитектуры — маршрутизации, API, слоя знаний и ограничений — получается не умный агент, а очень убедительный, но ненадёжный интерфейс. Он звучит уверенно, но может ошибаться, и в регулируемой среде это уже риск, а не просто недочёт.

Есть и ещё один момент, про который часто вспоминают слишком поздно — персональные данные. Закон требует чётко понимать, какие данные обрабатываются и зачем, не собирать лишнее и следить за их актуальностью.

В поисках баланса

При этом сам переход к LLM действительно даёт ценность. Разговор становится более естественным, команда меньше тратит времени на поддержку сценариев, а бот лучше справляется с нестандартными ситуациями. Но это работает только тогда, когда модель отвечает за формулировку ответа, а не за факты и не за правила взаимодействия. Когда это разделение соблюдается, система остаётся управляемой и при этом становится заметно удобнее для пользователя.

Чек-лист для команды: как не перепутать демо с рабочей системой

  • Сначала рисуйте маршруты, а уже потом спорьте о моделях.

  • Разделяйте факты и формулировки: факты должны приходить из внутренних систем, а LLM должна только объяснять и собирать ответ.

  • Стройте knowledge management как процесс с владельцами, версиями и метриками, а не как папку из PDF.

  • Юридические аспекты и правила перевода на человека — это не приложение к ТЗ, а обязательная часть проработки решения.

  • Оценивайте не абстрактное «качество модели», а долю реально завершённых сценариев, точность фактов и качество handoff.

  • Инфраструктуру выбирайте не по моде, а по тому, где лучше соблюдаются требования к данным, SLA.

  • Советуйтесь со специалистами по информационной безопасности, чтобы реализация проекта не несла дополнительных или скрытых рисков.

Вывод

В итоге переход к LLM — это не история про «было просто, стало умно». Это скорее про усложнение системы. Появляется ещё один слой, который хорошо работает с языком: понимает, что говорит человек, понимает, что говорит человек, и корректно формулирует ответ.

Но всё остальное никуда не исчезает. Маршруты, данные, правила и ответственность по-прежнему остаются на уровне архитектуры. И если их не продумать, одна только модель ситуацию не спасёт.

Автор: Olegee

Источник

Оставить комментарий