Проблема

Вы используете AI как инструмент. Сформулировали запрос, получили ответ. Может быть, уже используете AI как агента: дали цель, он сделал цепочку шагов. Но задача закончилась, агент исчез. Без памяти, без развития.

А что если AI не просто выполняет задачи, а управляет другими AI? Решает, какой код запускать, какие агенты нужны, когда что-то сломалось и как починить. Помнит. Учится. Модифицирует собственный код, но в рамках конституции, которую не может нарушить.

Мы это построили. Называется Jarvis.

Но эта статья не про Jarvis. Она про то, как мы его спроектировали. Потому что процесс оказался интереснее результата.

Модельный совет: три конкурента за одним столом

Обычно архитектуру проектирует человек. Или человек с одной нейросетью. Мы сделали иначе.

Мы посадили за один стол три frontier-модели от трёх конкурирующих компаний: Claude Opus (Anthropic), Gemini Pro (Google), GPT-5 Codex (OpenAI). И заставили их договариваться.

Не по очереди. Не "один генерирует, другой проверяет". Параллельно и независимо. Один и тот же набор архитектурных вопросов отправлялся каждой модели. Каждая отвечала, не видя ответов других. Потом человек сводил ответы, показывал каждой модели позиции двух конкурентов и спрашивал: "Ты по-прежнему настаиваешь?"

Правило одно: решение принимается только при консенсусе 3/3. Не голосование. Не "два против одного". Все три модели должны считать решение правильным. Если хоть одна не согласна, копаем дальше.

Модельный совет: Claude, Gemini и GPT за одним столом

4 раунда. 36 решений. Ни одного продавленного

Раунд 1: фундамент

9 вопросов. Принципы, границы, что система может и что не может.

Здесь впервые стало понятно, насколько по-разному мыслят три модели. Claude сразу ушёл в безопасность: конституция, immutable kernel, "система не должна иметь возможности обойти ограничения, даже если захочет". Gemini мыслил масштабами: "а если агентов будет тысяча? а если серверов десять?" GPT заземлял: "это красиво, но кто будет деплоить ваш immutable kernel? Как обновлять?"

Результат: 10 принципов конституции. Разделение на germline (неизменяемое ядро) и soma (всё остальное, мутирует свободно).

Раунд 2: архитектура

9 вопросов. Модули, защита, жизненный цикл изменений.

Gemini предложил биологическую метафору, и Claude с GPT сначала скептически отнеслись. "Apoptosis? Myelination? Мы софт проектируем, не организм." Gemini не отступил. Показал: homeostasis - это конкретный мониторинг с конкретными порогами. Myelination - кэширование доверия к паттернам с конкретным API. Apoptosis - graceful degradation с конкретным lifecycle. Не метафора. Архитектура.

Claude формализовал immune system - 6 проверок (5 blocking + 1 advisory), которые запускаются перед каждой мутацией. GPT определил state machine: 8 состояний proposal, детерминированные переходы, API-контракты.

Результат: паттерн "Three Horses" (Creator, Critic, Arbiter), immune system, 8-state proposal machine.

Раунд 3: самомодификация (главный спор)

9 вопросов. Память, checkpoint, sleep phase. И главный спор всего проекта.

Может ли Jarvis переписывать собственный код?

Claude: "Нет. Или минимально. Самомодифицирующаяся система - это nightmare scenario."

GPT: "Да. В этом весь смысл. Запрети самомодификацию - получишь мёртвую систему. Rollback спасёт от любой ошибки."

Gemini: "Оба правы. Оба неправы."

Они спорили. Человек показал Claude аргументы GPT. Claude прочитал и не согласился. Показал GPT аргументы Claude. GPT прочитал и не согласился. Тупик.

Тогда человек декомпозировал вопрос. Не "можно или нельзя", а: что можно переписывать? Всё, кроме ядра и конституции. Как доказать, что новый код не хуже? Behavioral equivalence testing. Кто разрешает? Human approve + canary deploy.

Claude уступил GPT: согласился, что полный запрет делает систему бесполезной. Но выторговал behavioral equivalence testing - replay corpus прогоняется на старом и новом коде, divergence не должна превышать порог. Докажи, что не сломал, тогда переписывай.

GPT принял. Gemini добавил shadow deploy. Консенсус: 3/3.

Момент тупика в Раунде 3

Раунд 4: runtime

9 вопросов. Deployment, экономика, bootstrap.

Самый практичный раунд. GPT доминировал: Docker Compose, single server, no Kubernetes day-one, external LLM API вместо локальных GPU. Claude - на безопасности контекстных окон: одна задача = одно окно = уничтожается после. Gemini - на экономике: cost budget, gradient autonomy (автономия зарабатывается метриками, а не декларируется).

Как спорят нейросети

Самое интересное не результат, а динамика.

Честности ради: не каждый вопрос порождал драму. На некоторых все три модели выдавали одно и то же с точностью до формулировок. "Используйте Docker Compose, не Kubernetes". "Append-only audit log на отдельном томе". Это не инсайт модельного совета, а общие best practices, которые знает любой senior с парой лет в production. Ценность метода проявляется на развилках, где правильного ответа не существует и нужен синтез трёх разных оптик.

Каждая модель обучена на разных данных, разными командами, с разными приоритетами. Это не три копии одного мозга. Это три принципиально разных архитектуры интеллекта.

Claude видит risk первым. Его реакция на любое "система делает X автономно" - immediate concern. Где границы? Кто контролирует? Что если пойдёт не так? Конституция, immutable kernel, append-only audit на отдельном томе - это всё Claude. Он не параноик, он видит attack surface там, где другие видят фичу.

Gemini мыслит системами. Он не думает про отдельный компонент - он думает про взаимодействие. Его вопросы: "а что происходит на границе между модулями?", "а если это запустить тысячу раз?", "а какая обратная связь?" Шесть биологических механизмов - это Gemini. Двое других сначала не приняли. К третьему раунду приняли все шесть, потому что Gemini последовательно показывал: за каждой "метафорой" стоит конкретный паттерн с конкретным API.

GPT заземляет. "Это красиво, но как это деплоить на один сервер за $50/мес?" "Ваш shadow test 24 часа, а если нужен hotfix?" "Где transaction log, если kernel упадёт во время canary?" Каждый раз, когда Claude и Gemini улетали в абстракцию, GPT возвращал разговор на землю. Не "можно ли", а "как конкретно". Не "в теории", а "в production".

Один мозг видит то, что слепо для двух других. Втроём они закрывают слепые зоны друг друга.

Claude видит риски, Gemini - системы, GPT - production

Кто кому уступал

GPT уступил Claude на аудите. Хотел оптимизировать логирование: "зачем писать каждое действие, это оверхед." Claude показал аргумент: после инцидента единственное, что ты имеешь - audit log. Если он неполный, forensics невозможен. GPT прочитал, подумал и согласился. Append-only. Отдельный том. Jarvis не может удалить или модифицировать.

Claude уступил GPT на самомодификации. Но не сдался - обменял уступку на гарантию: behavioral equivalence testing. Это не компромисс. Это торг. "Хочешь свободу - плати доказательством."

Gemini не уступил ни разу на биологических механизмах. Homeostasis, myelination, apoptosis, sleep phase, horizontal gene transfer, germline/soma. Шесть штук. Двое других сопротивлялись до раунда 3. Потом приняли все.

Это не prompt engineering

Prompt engineering - когда человек формулирует вопрос так, чтобы получить нужный ответ от одной модели.

Модельный совет - когда человек формулирует проблему, три модели предлагают решения, и выживает только то, что проходит тройной фильтр.

Человек здесь не prompt-инженер. Человек - модератор. Задаёт вопросы, сводит ответы, показывает позиции конкурентов, фиксирует консенсус, задаёт следующий раунд. Но не навязывает решения.

Близкий аналог - протокол Дельфи из management science: независимые эксперты дают оценки, модератор сводит, эксперты пересматривают. Только вместо экспертов-людей - три AI с разной "оптикой". И вместо приблизительных оценок - конкретные архитектурные решения с API-контрактами.

Andrej Karpathy сделал LLM Council для верификации ответов. Академики описали Council Mode для снижения галлюцинаций. Multi-model architectural design с formal consensus protocol и итеративными переговорами мы не встречали в публичном доступе. Если кто-то делал это раньше, расскажите.

Человек как модератор, не как решатель

Что получилось

36 решений. 4 раунда. Консенсус 3/3 на каждом.

Конституция из 10 принципов. Immune system из 6 проверок. 8-state proposal machine. Паттерн Three Horses (Creator, Critic, Arbiter), рекурсивный на каждом уровне. Биологические механизмы как архитектурные паттерны. Behavioral equivalence testing для самомодификации. Gradient autonomy - доверие зарабатывается метриками.

Потом три модели написали код. Одна - реализацию. Две другие - code review. Нашли баги друг у друга. Исправили. Снова проверили.

Что дальше

Jarvis сейчас - seed. Скелет, который компилируется, деплоится, принимает proposals и проводит их через immune checks. Но он ещё не пишет код сам.

Следующий шаг - Agent Runtime: три coding-агента в эфемерных контейнерах. Coder пишет. Reviewer проверяет. Tester тестирует. Three Horses, но теперь не на уровне текста, а на уровне кода.

Когда это заработает, Jarvis начнёт эволюционировать. В рамках конституции. Под наблюдением человека. С правом на автономию, которое зарабатывается, а не декларируется.

Частые вопросы

Что такое модельный совет? Три frontier-модели (Claude, Gemini, GPT) параллельно и независимо решают один и тот же архитектурный вопрос. Человек сводит ответы, показывает каждой модели позиции конкурентов, и фиксирует решение только при полном консенсусе 3/3.

Зачем использовать три модели вместо одной? Каждая модель обучена разными командами с разными приоритетами. Claude первым видит риски безопасности. Gemini мыслит масштабами и системными эффектами. GPT заземляет в production-реальность. Втроём они закрывают слепые зоны друг друга.

Чем модельный совет отличается от prompt engineering? Prompt engineering оптимизирует вопрос для одной модели. Модельный совет ставит задачу трём моделям и принимает только то решение, которое прошло тройной фильтр. Человек здесь модератор, не prompt-инженер.

Может ли Jarvis переписывать собственный код? Да, но с ограничениями. Ядро и конституция неизменяемы. Всё остальное можно переписать при условии: behavioral equivalence testing (replay corpus на старом и новом коде), shadow deploy и human approve. Свобода в обмен на доказательство.


Проект Jarvis. Спецификация: модельный совет (Claude Opus x Gemini Pro x GPT-5 Codex), 36 consensus decisions @ 3/3. Реализация: Claude Opus. Code review: все три. Апрель 2026.


Егор Зиновьев - IT-архитектор, аудитор, AI-инженер. NL / Remote.

zinovev.org