$200 в месяц на своём железе. Три агента в проде: DevOps держит инфру и секьюрити, сайт-агент пишет код и деплоит, SMM-агент занимается контентом. Работают. Не демо - задачи закрываются, системы живут.

В корпорации бюджет 100-200 млн. AI внедрён. Доступ у всех. Качество - слабое.

Это не парадокс. Это архитектура.

Google Research и MIT прогнали 180 конфигураций через 4 класса задач. Главный вывод не в том, сколько агентов, а в том, как они соединены. Одна цифра объясняет разницу лучше слов:

Усиление ошибок зависит от топологии

Почему точность падает

Ответ простой: потому что падает контроль.

Один агент на конкретную задачу: ты видишь что он делает, сравниваешь с тем как делал сам, корректируешь. Пять агентов на пересекающиеся задачи: ты не валидируешь каждый, ты надеешься что система в целом делает правильно.

Количество выполненных задач растёт. Точность нет.

Один агент, одна область

Принцип, который у меня работает: один агент - один домен, без пересечений.

Изоляция как архитектурный принцип

Мой DevOps-агент не лезет в код. Сайт-агент не трогает инфру. SMM-агент не знает про деплой. Каждый выполняет законченную операцию в своей зоне.

Когда начинаются проблемы? Когда агент должен делать вещи из разных областей. Команда из двух-трёх слов - пошёл делать. Если команда требует абзац объяснений - агент плохо настроен или задача не для него.

Основная боль в моей системе не сами агенты - это координация между ними. Разделить зоны ответственности так, чтобы они не наступали друг другу на скоп, отладить взаимодействие - это и есть настоящая работа. Не настройка промптов.

Что происходит когда все лезут к одному агенту

Это знакомо по любому корпоративному внедрению. Покупают подписку на AI, открывают доступ всем 200 сотрудникам. 10% реально используют и получают ценность. Остальные 90% за неделю забывают или спамят бессмысленными запросами.

Но ресурс один на всех. При высокой нагрузке провайдер режет контекст или понижает модель - это задокументированное поведение большинства провайдеров при перегрузке. Те, кто умеет работать с AI, получают инструмент который деградирует именно в момент пиковой нужды. Качество ответов падает, ответы становятся общими и слабыми.

Качество ответов при росте нагрузки — наблюдение из практики, не исследовательские данные

Вывод простой: лучше дать одного хорошего агента пяти людям, которые умеют им пользоваться, чем открыть доступ всем и получить деградацию для всех.

Железо и реальность

Мои три агента стоят $200/мес на своём железе. В корпорации с бюджетом 100-200 млн при 2000-10000 пользователях на одной модели - качество слабое, настроить нормального агента почти нереально. Единственное что реально работает - RAG по внутренней Wiki. Остальное витрина.

Дело не в деньгах и не в архитектуре. Дело в том, что модели не проектировались под такой конкурентный доступ. При пиковой нагрузке в будние дни качество падает - провайдеры режут ресурсы на запрос чтобы обслужить всех. Те кто умеет работать с AI, получают деградировавший инструмент именно когда он нужнее всего.

Мультиагентность работает когда ты контролируешь всё - железо, доступ, нагрузку. В корпорации при 2000-10000 пользователях на одной модели этого контроля нет. Архитектура может быть правильной, но инфра не тянет.

Хайп говорит: масштабируй. Железо говорит: концентрируй.

Когда придёт оркестратор

Координатора как отдельного агента я намеренно не запускаю. Сейчас координационная логика у меня простая и явная - каждый агент знает свои границы, пересечений нет. Добавлять оркестратор значит добавлять точку отказа туда, где сейчас всё прозрачно.

Когда модели станут достаточно надёжными для тяжёлой оркестровой логики - добавлю. Пока сознательно жду.

Три агента за $200 работают лучше корпоративного AI за 100 млн не потому что я умнее. А потому что у меня три чётко ограниченных домена, полный контроль над железом и ноль конкурентного доступа. Простая архитектура под полным контролем бьёт сложную под корпоративными ограничениями.

Это и есть ответ на вопрос "почему не работает".