Архив рубрики ‘gpu’

Compute crunch пришёл: как считать экономику LLM в 2026

Build, Buy или Hybrid — рассуждаем о подходах к TCO. Статья — приглашение к диалогу и обсуждению, не экспертный нарратив. «Я говорил» или что случилось с тарифами на LLM API Два крупнейших API-провайдера одновременно сменили риторику. Anthropic ввёл usage-based billing для агентных фреймворков — плата за токены вместо фиксированных подписок. Часть сторонних обёрток потеряла возможность работать через […]

10% на LLM и 90% на инженерию: как российские компании используют ИИ

Привет, Хабр! Продолжаю делиться материалами живых дискуссий, которые идут на телеграм-канале Dev Q&A. На этот раз тема — выбор между open source и коммерческими LLM для корпоративных задач. Получилось собрать практиков, которые каждый день решают эту дилемму: Андрея Кувалдина («Транссеть»), Сергея Олькова («Диасофт»), Максима Семёнкина (CodeInside), Артема Панькова (Secret Agents), Владислава Кудинова (Veai), Константина Глазкова […]

Подробное руководство по облачной инфраструктуре для ИИ-проектов

Всем привет! Меня зовут Александр, я COO в SaaS-платформе аналитики данных. Последний год активно изучаю внедрение AI-решений в кросс-функциональные процессы. Делюсь материалами, которые помогают: Продуктовым менеджерам — интегрировать AI без перегрузки команд; Разработчикам — выбирать инструменты под конкретные бизнес-задачи; Специалистам по данным — избегать ошибок в production-развертывании. У себя в телеграм-канале делюсь сжатыми и структурированными […]