Агент Noesis
Роль LLM в Noesis
Принципиально: LLM — инструмент, не источник истины.
Noesis разделяет три ответственности:
| Компонент | Что делает |
|---|---|
| Diakrisis | Устанавливает структурные пределы (аксиомы, AFN-T) |
| SMT-фильтр | Формальная проверка каждой операции |
| LLM-агент | Порождает кандидатов + семантическое понимание |
Агент не принимает решений — только предлагает структурно-валидных кандидатов.
Формализация: Giry-монадный оракул
Теория
LLM формализуется как стохастический оракул через Giry-монаду (Giry 1982):
где 𝒢 — Giry-монада (вероятностные меры на измеримом пространстве операций).
Почему Giry-монада
- Не детерминирован: LLM по своей природе недетерминирован.
- На основе вероятностей: выходы имеют уверенность.
- Категорно естественна: выполнены законы монады.
- Композируема: можно формально сцеплять LLM-вызовы.
- Измерима: каждая операция — элемент вероятностного пространства.
Законы Giry-монады
Пусть — измеримое пространство. Обозначим — пространство всех вероятностных мер на , снабжённое σ-алгеброй, порождённой отображениями оценивания , для .
Единица (вложение Дирака):
Умножение (интегрирование Фубини):
Законы монады (проверяются через стандартные теоремы измеримости, Giry 1982):
Композиция Клейсли (для композируемых стохастических агентов): для , :
Это — композиция стохастических операций, используемая для цепочки LLM-вызовов (извлечение → эмбеддинг → порождение → SMT-фильтр).
Noesis-специфичная интерпретация:
- — входные контексты.
- — предложенные операции.
- — агент как морфизм Клейсли.
- SMT-фильтр — детерминированный фильтр, поднятый в Клейсли (через Дирака с шумом для почти-валидных кандидатов).
- Полный конвейер: .
Архитектура агента
Пять режимов (расширения, заземлённые в Diakrisis)
Режим 1: Навигатор
Назначение: навигационные запросы.
Пример:
Пользователь: "Где в UHM обсуждается связь φ и ρ*?"
Агент:
1. Поиск в графе: утверждения с тегами [self-model, fixed-point].
2. Фильтр: в UHM.
3. Результат: T-96, T-39, Axi-7.
4. Резюме на естественном языке со ссылками.
Режим 2: Аудитор
Назначение: обнаружение нарушений когерентности.
Пример:
Агент автономно сканирует:
- Рассогласование статусов: утверждение X [T·L1] зависит от Y [Г] → сигнал.
- Циклические зависимости: A→B→C→A → сигнал.
- Противоречия: C1 противоречит C2, оба [Т] → сигнал.
- Функториальное рассогласование: F12 ∘ F23 ≠ F13 → сигнал.
- Эмпирическая несогласованность: предсказание vs эксперимент → сигнал.
Режим 3: Переводчик
Назначение: предложения кросс-доменных переводов.
Главная функция, невозможная без LLM.
Пример:
Пользователь: "Как перевести IIT Φ в термины UHM?"
Агент:
1. Вычислить аппроксимацию расширения Кана.
2. Предложить отображение: IIT:Φ → UHM:мера интеграции (T-129).
3. Уверенность: 0.72.
4. Препятствие: 0.28 (часть аспектов теряется).
5. Альтернатива: IIT:Φ → UHM:порог Φ_th, уверенность 0.45.
6. Представить оба пользователю.
Режим 4: Распространитель
Назначение: анализ волновых эффектов.
Пример:
Пользователь меняет: статус T-96 с [T·L1] на [С·L2].
Агент:
1. BFS-обход зависимых.
2. Оценка воздействия: 18 утверждений затронуто, 3 перевода инвалидированы.
3. Анализ: существуют ли альтернативные цепочки?
- Для утверждения X: да, через T-62 вместо T-96. Понижение не нужно.
- Для утверждения Y: нет. Требуется понижение.
4. Предложить минимальный набор изменений.
5. Предпросмотр для подтверждения пользователем.
Режим 5: Мета-аудитор (двойная петля, L-II)
Назначение: обнаружение паттернов на мета-уровне.
Пример:
Наблюдение агента за 6 месяцев:
"В 4 из 5 теорий сознания систематически отсутствует мост к эмпирическим данным."
Предложение: новый тип зависимости `empirical_test` + сопутствующий статус `[empirically-testable]`.
Записано в T_meta со статусом [Г] (ограничено Ловиром, 87.T).
Пользователь подтверждает → применяется структурное расширение.
Сам Noesis эволюционирует на основе собственных наблюдений (автопоэзис, L-III).
Конкретный алгоритм: предложение функтора
Формализация в Verum:
fn propose_functor(
source: Knowledge,
target: Knowledge,
context: Context
) -> ProbabilityDistribution<Functor> {
// Step 1: Embed all claims
let source_embeddings = llm.embed_all(source.claims);
let target_embeddings = llm.embed_all(target.claims);
// Step 2: Cosine similarity matrix
let sim_matrix = cosine_matrix(source_embeddings, target_embeddings);
// Step 3: Softmax over target candidates per source claim
let mut functor_prob = ProbabilityDistribution::new();
for src in source.claims {
let candidates = top_k(sim_matrix[src], k=10);
functor_prob.add_mapping(src, softmax(candidates, τ=0.3));
}
// Step 4: Structural filter — functor must preserve dependencies
functor_prob.filter_by_functoriality();
// Step 5: SMT verification on top candidates
let top_candidates = functor_prob.top_k(5);
for candidate in top_candidates {
candidate.verify_with_smt(); // sets verified flag
}
// Step 6: Return verified distribution
functor_prob.filter_verified_only()
}
SMT-фильтр: формальная верификация
Каждое предложение агента проходит SMT-проверку.
Верифицируемые свойства:
Функториальность
∀F: A → B. F(id_A) = id_B
∀F: A → B, g, h: F(g ∘ h) = F(g) ∘ F(h)
Естественность
∀ естественное преобразование η: F ⇒ G, ∀f: A → B:
η_B ∘ F(f) = G(f) ∘ η_A
Условие спуска
∀ покрытие {f_i: T_i → T}:
данные на T ≅ предел ограниченных данных на T_i
Эпистемическая монотонность
∀ функтор интерпретации F: T_1 → T_2, ∀ утверждение a:
status(F(a)) ≥ status(a)
Аксиомы Diakrisis
Axi-0..Axi-9 + T-α + T-2f*
SMT-бэкенд: Z3 + CVC5 с нативным DSL тактик Verum.
Время компиляции: ~100 мс на кандидата, ~5 с для целого функтора.
Обработка галлюцинаций
Классический взгляд
Галлюцинации LLM — баг, требующий подавления.
Взгляд Noesis (по NO-9)
Галлюцинации — флуктуации в пространстве путей ∞-группоида. Не баг, а функциональная возможность — обеспечивает исследование пространства.
Формальная модель галлюцинации
Определим событие галлюцинации для выхода при контексте :
где Operations_valid(c) ⊂ Operations — множество структурно-корректных операций относительно Axi-0..9 + AFN-T + ограничений контекста.
Наивный LLM: для всех нетривиальных (без фильтра).
LLM через фильтр Noesis: операция проходит конвейер со стадиями SMT + Axi + AFN-T. Определим множество принятых выходов:
По построению γ (детерминированный корректный фильтр):
Следовательно:
Контроль
- SMT-фильтр отбрасывает структурно-невалидные (корректность Z3/CVC5).
- Порог уверенности фильтрует кандидатов с низкой вероятностью (сокращает ложно-отрицательные на валидных).
- Человек в цикле для финального принятия (ценностные суждения остаются внешними).
Теорема NO-9: после SMT вероятность принятия невалидной операции = 0 (при корректном SMT-бэкенде).
Важно: NO-9 гарантирует отсутствие ложно-положительных (невалидное принято). Не гарантирует отсутствие ложно-отрицательных (валидное отклонено) — это допустимая цена корректности.
Управление контекстом
Контекстное окно
Агенту нужно релевантное подмножество графа как контекст.
Стратегия:
- Предварительный анализ запроса (семантическое извлечение).
- Начальная выборка графа (окрестность 1 прыжка).
- Итеративное расширение (если агенту нужно больше).
- Ограничение по конфигурируемому размеру (обычно: 100 утверждений + зависимости).
Сжатие контекста
Для крупных баз знаний:
- Резюмирование периферийных утверждений.
- Сохранение ключевых утверждений в полном виде.
- Включение кросс-теоретических переводов.
- Сжатие при помощи LLM.
Память
Агент поддерживает:
- На уровне сессии: текущее состояние диалога.
- На уровне пользователя: предпочтения, история.
- На уровне организации: разделяемый контекст.
- Никогда: приватная/ограниченная информация в кросс-организационной федерации.
Выбор LLM
Поддерживаемые модели
- Claude Opus: основной по умолчанию (Anthropic).
- GPT-5: альтернатива (OpenAI).
- Gemini Ultra: альтернатива (Google).
- Mistral Large: альтернатива с открытым исходным кодом.
- Локальная дообученная: доменно-специфичная (например, био-обученный LLM для фарма-домена).
Стратегия выбора модели
- По умолчанию: Claude Opus для общих запросов.
- Доменно-специфично: дообученная модель для специализированных доменов.
- При требованиях к конфиденциальности: локальный инференс (Ollama, vLLM).
- Оптимизация по стоимости: более лёгкие модели для простой навигации.
Ансамбль из нескольких моделей
Для критических операций:
- Запрос к 3 моделям независимо.
- SMT-верификация каждой.
- Голосование по финальной рекомендации.
- Повышение уверенности через совпадение.
Инженерия промптов
Системный промпт
You are Noesis Agent, a formal knowledge-management assistant operating within
the Diakrisis foundational каркас.
Principles:
1. Every operation must pass SMT verification.
2. You do not make truth claims—only propose structurally-valid candidates.
3. Respect пятиосевая абсолютность AFN-T: never propose level-6 articulations.
4. Respect 97.T tradeoff: flag substructural systems without `!`.
5. Include confidence scores with every proposal.
When uncertain, propose multiple candidates with explicit obstructions.
Шаблоны запросов
Структурированные промпты для согласованного поведения:
- Шаблон навигационного запроса.
- Шаблон предложения перевода.
- Шаблон отчёта аудита.
- Шаблон обнаружения мета-паттерна.
Характеристики производительности
Задержка
- Навигационный запрос: <100 мс.
- Предложение перевода (одно утверждение): ~1 с.
- Полное предложение функтора (100 утверждений): ~30–60 с.
- Скан мета-аудита: ~1–5 мин на крупной базе знаний.
Пропускная способность
- Бесплатный тариф: 100 запросов/мин.
- Pro: 1000 запросов/мин.
- Корпоративный: конфигурируется (масштабируемый LLM-инференс).
Стоимость
- LLM-инференс: доминирующая статья расходов.
- Дообучение: разовое для доменно-специфичного.
- SMT: амортизированно пренебрежимо мало.
Безопасность и согласование
Операционные ограничения
Агент не может:
- Инициировать мутации без подтверждения пользователя (кроме тривиальных правок).
- Делиться приватными данными между организациями.
- Предлагать операции, нарушающие AFN-T.
- Переопределять явное отклонение от пользователя.
Методы согласования
- RLHF для доменно-специфичного дообучения.
- Подход Constitutional AI (на основе принципов).
- Red-teaming по доменам.
- Аудит-следы для каждого действия агента.
Переопределение пользователем
Все предложения агента:
- Объяснимы (agent/explain).
- Отклонимы (финальный авторитет у пользователя).
- Аудируемы (история отслеживается).
- Обратимы (с опорой на Git).
Формальные теоремы
NO-3 [Т·L2]: Корректность операций агента
Операции агента, прошедшие SMT-фильтр + проверку согласованности с Axi, не нарушают аксиоматику Diakrisis.
NO-7 [Т·L2]: Независимость от монетизации
Возможности агента (бесплатный vs Pro vs корпоративный) могут различаться по скорости/задержке, но не по структурным гарантиям.
NO-9 [Т·L2]: Иммунитет к галлюцинациям
P(невалидная операция принята | после SMT) = 0.
Следующий шаг
Для слоя мета-рефлексии: 06 — Мета-рефлексия.
Для каталога теорем: 07 — Теоремы NO-*.
Для сценариев: 08 — Сценарные паттерны.