Пар выветрился, остались сухие технические спецификации
AiConf в этом году прошла без истерики. Никаких демо, после которых хочется плакать от ужаса или восторга. Вместо них – стенды с архитектурными диаграммами и графиками ROI. И это, чёрт возьми, освежает. Индустрия повзрослела. Она больше не кричит «посмотрите, что я умею!», а тихо, но уверенно спрашивает: «Вы готовы это внедрить? И как вы докажете, что оно окупится?».
Три темы звучали в каждом коридоре, на каждой панели и даже в очереди за кофе. Они не новые, но именно в марте 2026 года стали не просто трендом, а обязательным минимумом для выживания.
Мультиагентные системы: от демо к пайплайну
Если в 2025 вы показывали слайд с тремя кружочками, соединёнными стрелочками, и называли это «агентом», в 2026 вас бы просто попросили уйти со сцены. Речь теперь идёт исключительно о мультиагентных системах (Multi-Agent Systems, MAS), работающих в продакшене. Не прототип на LangGraph, а система, которая уже обработала миллион тикетов или провела десять тысяч финансовых анализов.
Практический совет, который раздавали всем: если вы только начинаете, не стройте свой фреймворк с нуля. Берёте готовый инструмент, настраиваете агентов под свои API и данные, и запускаете. Сложность теперь не в том, чтобы заставить их работать, а в том, чтобы отладить их общение и избежать конфликтов. (Один из спикеров сравнил это с управлением отделом гениальных, но очень капризных сотрудников).
И да, это напрямую связано с масштабным переходом бизнеса от чат-ботов к агентам. Чат-бот 2026 года – это уже не линейный диалог, а сложная агентная система под капотом.
Датасеты: новая валюта и её аудит
Закон Мура для данных. Если раньше все гнались за параметрами модели (триллион! десять триллионов!), то теперь гонка параметров официально объявлена мёртвой. Новые модели типа GPT-5, Claude 4 или открытые аналоги показывают потрясающие результаты... но только на качественных, хорошо размеченных и, что критично, легально собранных данных.
Основной доклад от Hugging Face был посвящён не новой модели, а датасету «Pilgrim-v2». Его главная фишка – полная прослеживаемость каждого примера: исходный URL, дата сбора, лицензия, даже энергозатраты на обработку. Регуляторы в ЕС и США уже смотрят на это с большим интересом. Собирать данные «вслепую» с открытого интернета – это теперь не только технический риск, но и прямой путь к многомиллионным штрафам.
Провал стартапов, которые строили бизнес на «обёртках» над чужими моделями, часто упирался именно в данные. Их собственные датасеты для тонкой настройки оказывались мусором. Подробный разбор этой ловушки стал одним из самых цитируемых материалов года.
Что это значит на практике? Отдел data science теперь тратит 70% времени не на обучение моделей, а на инженерию данных: очистку, разметку, документирование и создание synthetic data. Инструменты вроде Scale AI или открытый Snorkel Flow стали такими же обязательными, как Git.
Аргументация: продать AI тому, кто платит по счетам
Самый жёсткий и циничный трек конференции. Технарей здесь было мало. В основном – финансовые директора, руководители продуктов и те самые CDAO (Chief Data & Analytics Officers), которые изо всех сил стараются выжить в новой реальности.
Вопросы звучали так: «Как объяснить совету директоров, что наш новый агентский конвейер стоит $2 млн в год?», «Какой KPI привязать к снижению „галлюцинаций“ модели на 15%?», «Как доказать, что автоматизация 1000 рабочих мест через AI даст рост выручки, а не просто сэкономит на зарплатах?».
Ответы сводились к одному: нужен новый язык. Не точность (accuracy), а влияние на бизнес-метрики. Не размер модели, а стоимость одного inference и его углеродный след (да, энергопотребление снова в тренде). Не красивый демо-ролик, а отчёт о пилоте с реальными пользователями.
Появился целый класс инструментов для «AI-аргументации». Это не мониторинг вроде WhyLabs, а полноценные BI-панели, которые связывают метрики работы AI-систем (латентность, качество ответов, использование токенов) с бизнес-показателями (удовлетворённость клиентов, конверсия, операционные расходы). Один из лидеров – стартап Argyle AI – представил свою платформу именно здесь.
Что дальше? Совет от того, кто видел все сессии
Вот вам неочевидный прогноз, который я вынес из кулуарных разговоров. К концу 2026 года главным узким местом станет не вычислительная мощность и не качество моделей. И даже не данные.
Главной проблемой будут люди, которые умеют мыслить системно. Не data scientist, а AI-инженер, который одновременно разбирается в архитектуре микросервисов, может оценить юридические риски использования датасета и знает, как посчитать NPV для своего проекта. Такого специалиста сейчас не готовит ни один университет. Его выращивают в бою, и он на вес золота. Если вы ищете, куда двигаться, – вот ваш вектор. Остальное – уже коммодити.