Формальная модель когнитивной уязвимости
Опубликовано в сборнике трудов:
CXI Международная научно-практическая конференция «International Scientific Review of the Problems and Prospects of Modern Science and Education». США, Бостон, Декабрь 2025.
G ≈ 0.65
Влияние Умного Фанатика
Bmot
Мотивированное Мышление
Дек 2025
Опубликовано
Порог Сингулярности
D > 0.7, A < 0.5
Популяция в Зоне Риска
73% – 95%
Главный Регулятор
A (Внимание)
Чувствительность Модели
α₂ (Среда) = 5.6%
Разрешение противоречия: почему умные люди верят в иррациональные концепции (Станович, 2009).
Мотивированное мышление (Bmot) не зависит от общего интеллекта.
Высокий IQ служит инструментом для создания сложных аргументов в защиту ошибок.
Опасный агент (Высокое Влияние), способный обосновывать и распространять когнитивные ошибки.
Данная работа вводит формальную математическую модель «Глупости» (G) — не как отсутствия интеллекта, а как архитектурной когнитивной уязвимости. Глупость определяется как системный сбой, возникающий когда требования к фильтрации информации превышают ресурс контроля внимания.
Центральный тезис: высокий IQ не защищает от иррациональных убеждений. Модель разделяет когнитивные искажения на два типа: стохастические ошибки (Berr), которые снижаются интеллектом, и мотивированные убеждения (Bmot), которые ортогональны интеллекту.
Ключевое открытие — «Сингулярность Глупости»: при цифровом шуме D > 0.7 и контроле внимания A < 0.5 модель демонстрирует экспоненциальный рост G, при котором агент полностью теряет рациональную субъектность. Симуляции Монте-Карло (N=10,000) показывают, что 73% популяции попадает в зону критического риска (G > 1.0).
Практический вывод: в условиях информационной перегрузки традиционные методы — образование и накопление знаний — недостаточны. Приоритетом становится «гигиена внимания»: снижение цифрового шума (D), тренировка контроля внимания (A) и развитие критического мышления (C).
Формула Петренко открывает перспективы не только для современной психологии, но и для кибернетики и архитектуры искусственного интеллекта.
Когнитивные уязвимости, описанные в модели G, напрямую применимы к современным LLM (Large Language Models). Модели с огромными объёмами данных демонстрируют те же паттерны: при перегрузке контекста пользовательскими запросами (высокий D) и размытии внимания по токенам (низкий A) — модель начинает «галлюцинировать», рационализируя ответы вместо поиска истины.
«Сингулярность Глупости» для ИИ — это не метафора. Transformer-архитектура буквально построена на механизме Attention, и при его перегрузке происходит тот же экспоненциальный рост ошибок.
Это создаёт мост между когнитивной безопасностью человека и AI Alignment — двумя дисциплинами, работающими над одной фундаментальной проблемой: как сохранить рациональность агента в условиях информационного хаоса.
Практическое руководство по интеграции метрик когнитивной безопасности в корпоративные процессы.
Сравнительный анализ когнитивных искажений биологических агентов и галлюцинаций LLM.
Базовый обзор механизмов мотивированного мышления и архитектурных уязвимостей.