Коэволюция разума и этики α↔Ω — доработанная редакция (философско-математический черновик)
1. Краткая суть
Человеческий «разум» трактуется как результат коэволюции множества локальных онтологий (α) и публичной онтологии (Ω). Формально: агенты — FF-коалгебры; публичная онтология — (аппроксимация) финальной FF-коалгебры (ΩF,ωF)(\Omega_F,\omega_F); этика — коиндуктивное ядро EF=\gfp(T)E_F=\gfp(T). При адекватных условиях (плотность агентов, обучение, коммуникационные ресурсы, средняя сжимаемость self-моделей) коллективное self-model (Ω-SelfCon) может возникнуть как статистически устойчивая структура. Мы даём (i) строгие формулировки, (ii) слабые, применимые условия (average contraction), (iii) non-asymptotic bounds для конечного N, (iv) операционные метрики и ABM-план верификации, и (v) философско-методологические оговорки.
2. Формальная каркасная постановка
Категория и функтор. Фиксируем C\mathbf C — либо Set\mathbf{Set} (для дискретных моделей), либо пространство Polish (для стохастики). Пусть F:C→CF:\mathbf C\to\mathbf C — эндофунктор, задающий локальную динамику.
Агенты как коалгебры. FF-коалгебра (S,γ:S→F(S))(S,\gamma:S\to F(S)) моделирует локальную онтологию/динамику агента.
Публичная онтология. При удовлетворяющих условиях существует финальная коалгебра (ΩF,ωF)(\Omega_F,\omega_F) (или аппроксимации Ω(D)\Omega^{(D)} при truncation depth DD). Канонические морфизмы hS:S→ΩFh_S:S\to\Omega_F проецируют локальные состояния в публичную онтологию.
Этическое ядро. На решётке подмножеств Sub(ΩF)(\Omega_F) определён оператор T(S)=ωF−1(F(S))T(S)=\omega_F^{-1}(F(S)). Тогда EF:=\gfp(T)E_F:=\gfp(T) — коиндуктивно устойчивое множество публичных паттернов; его локальные проекции ES=hS−1(EF)E_S=h_S^{-1}(E_F).
Internal models (SelfCon). Пусть P(ΩF)\mathcal P(\Omega_F) — пространство вероятностных мер на ΩF\Omega_F с метрикой dd (в большинстве практических задач — W1W_1 или bounded-Lipschitz). Internal generative map R:ΩF→P(ΩF)R:\Omega_F\to\mathcal P(\Omega_F); realizer S:P(ΩF)→ΩFS:\mathcal P(\Omega_F)\to\Omega_F. Operational ε-SelfCon: ∀x∈C⊂ΩF, d(S∘R(x),x)≤ε\forall x\in C\subset\Omega_F,\ d(S\circ R(x),x)\le\varepsilon.
3. Ключевые условные утверждения и леммы
Ниже — самые важные формулы с чёткими предпосылками и proof-sketch.
Теорема A (существование/аппроксимация Ω\Omega) — формула
Предпосылки. C\mathbf C локально-презентируема и FF ω-доступен (или доступен finite-truncation).
Утверждение. Существует финальная FF-коалгебра (ΩF,ωF)(\Omega_F,\omega_F). Если ω-условие не выполняется, но есть конечные аппроксимации FnF_n с финальными Ω(n)\Omega^{(n)}, то последовательность {Ω(n)}\{\Omega^{(n)}\} аппроксимирует публичную онтологию в предельной топологии.
Идея доказательства. Терминальная цепочка / предел терминальных объектов (Adámek-type construction) или finite truncation → projective limit.
Интерпретация. Это чисто структурный результат: он даёт пространство смыслов при формальной моделе FF; не равнозначно заявлению, что «в реальном обществе уже есть единая Ω».
Лемма 1 (non-asymptotic concentration для empirical measure)
Сценарий. Даны NN наблюдений Xi=hSi(xi)X_i=h_{S_i}(x_i) на метрическом компактном Ω\Omega диаметра DD. Пусть μN=1N∑δXi\mu_N=\frac{1}{N}\sum\delta_{X_i}, μ=EμN\mu=\mathbb E\mu_N. Пусть агрегатор Lipschitz с константой LAL_A.
Утверждение (нежёсткая форма). Существует C1,C2>0C_1,C_2>0, зависящие от DD, размеров ε-сети и Lipschitz-параметров, такие что
P(W1(μN,μ)≥ε)≤C1exp(−C2Nε2).\mathbb P\big( W_1(\mu_N,\mu) \ge \varepsilon \big) \le C_1 \exp\big(-C_2 N \varepsilon^2\big).
Если наблюдения зависимы (сеть), то NN заменяется на эффективное NeffN_{\mathrm{eff}} (≈ N/τmixN/\tau_{\mathrm{mix}}).
Proof-sketch. Концентрация эмпирической меры для bounded Lipschitz классa функций — McDiarmid/Talagrand / Fournier-Guillin подходы; при независимости экспоненциальный хвост. При зависимости вводим блок-bootstrap/estimation of effective sample size.
Практика. Даёт количественную оценку: при конкретных Lipschitz-константах и D можно прикинуть, при каком N mean-field аппроксимация адекватна.
Теорема B (Average Contraction → stochastic stability of SR)
Проблема решается. Глобальная контрактность обычно невыполнима; заменим её на ожидаемую (average) контрактность.
Предпосылки.
-
Ω\Omega — complete metric space.
-
R:Ω→P(Ω),S:P(Ω)→ΩR:\Omega\to\mathcal P(\Omega), S:\mathcal P(\Omega)\to\Omega measurable.
-
Существует замкнутое invariant C⊂ΩC\subset\Omega и L∈(0,1)L\in(0,1), такое что для произвольных (или «часто встречающихся») пар X,Y∈CX,Y\in C,
E[d(SR(X),SR(Y))∣X,Y]≤L d(X,Y).\mathbb E\big[ d(SR(X),SR(Y)) \mid X,Y \big] \le L \, d(X,Y).
Технически требуется uniform integrability / boundedness of distances.
Утверждение. Под этими условиями процесс, итеративно применяющий SR к состояниям (в стохастическом смысле), демонстрирует уменьшение ожидаемой межкопийной дистанции; это даёт существование стационарной концентрации вокруг множества малой диаметры (оценка радиуса O(ε/(1−L)) при наличии аппроксимации SR≈Id с погрешностью ε). В частности — стохастическая стабильность и притяжение в среднем.
Proof-sketch. Конструируем coupling двух копий процесса и показываем, что expected distance сокращается геометрически; применяем Martingale/Doob convergence или Lyapunov-тип аргумент для ожидания distance.
Интерпретация. В практических системах достаточно, чтобы SR в среднем «сглаживал» расхождения; это менее требовательно, чем все-время contractivity.
Теорема C (emergence via mean-field + learning)
Предпосылки (mean-field regime).
-
Агенты взаимодействуют через агрегатор AN=μNA_N=\mu_N (empirical measure).
-
Локальные rules fif_i одинаково Lipschitz; noise bounded/has finite moments.
-
Средняя learning rule уменьшает ожидаемую predictive loss (exist δ>0 such that expected loss decrease ≥δ per unit time).
-
Коммуникация и ресурсы обеспечивают минимальную пропускную способность (см. Теорему D).
Утверждение (информально). При N→∞N\to\infty empirical internal model rˉN \bar r_N концентрируется (LLN / propagation of chaos) вокруг детерминированного оператора R∞R^\infty. Если SR∞SR^\infty удовлетворяет average contraction на некотором C, то collective SelfCon возникает с высокой вероятностью.
Proof-sketch. (i) Sznitman-type LLN / McKean-Vlasov limit даёт концентрацию empirical measure; (ii) average decrease of loss → limit operator R∞R^\infty хорошо определён; (iii) apply Theorem B to get stability.
Ограничение. Результат асимптотический; finite-N поправки оцениваются через Lemma 1.
Теорема D (resource/channel threshold impossibility)
Утверждение (informal). Для достижения заданной точности ε collective predictive fidelity требуется минимальная средняя пропускная способность Cmin(ε)C_{\min}(\varepsilon); если реальная средняя capacity Cavg<Cmin(ε)C_{\mathrm{avg}}<C_{\min}(\varepsilon), достижение ε невозможно независимо от learning rules.
Идея доказательства. Rate-distortion / rate-information lower bounds: для передачи/согласования нужного объёма информации требуется throughput; при недостатке — lower bound на achievable error.
Практика. В симуляциях можно эмпирически приближать Cmin(ε)C_{\min}(\varepsilon).
4. Формализация ретропричинности (оператор целей)
Чтобы модель отражала «этическую ориентацию на будущее», вводим оператор TB \mathcal T_B действующий на пространство локальных update-rules F\mathcal F:
TB(f)=argminf′∈F E[dist(Ωt+T(f′),B)]+λ⋅Cost(f′,f),\mathcal T_B(f) = \arg\min_{f'\in\mathcal F} \; \mathbb{E}\big[ \mathrm{dist}(\Omega_{t+T}(f'), B) \big] + \lambda\cdot \mathrm{Cost}(f',f),
где BB — целевой бассейн притяжения (желаемое будущее), Cost — мера затрат на смену правил, λ — trade-off. В дискретных моделях это приближается greedy/updating rule: агенты изменяют правила пропорционально ожидаемому увеличению шанса попасть в BB.
Последствия. Этот оператор формализует «выбор будущего» как реальную процедуру изменения локальных update-rules с учётом ограничений и неопределённости — ретропричинность равняется оптимизационной процедуре, а не магии.
5. Операционные метрики и статистические процедуры
Ниже — чётко применимые метрики, оценители и процедуры inference.
5.1 Метрики SelfCon и estimators
A. Collective predictive skill (proper scoring rules)
Для последовательности прогнозов qtq_t и наблюдаемых исходов yty_t:
-
Log-score: Slog(q,y)=−logq(y)S_{\log}(q,y) = -\log q(y).
-
Brier score (binary / probabilistic): SBrier=∑(qt−yt)2S_{\mathrm{Brier}} = \sum (q_t - y_t)^2.
Estimator: Skill^=−1T∑tS(qt,yt)\widehat{\mathrm{Skill}} = -\frac{1}{T}\sum_{t} S(q_t,y_t). Bootstrap (block bootstrap при зависимостях) → CI.
Practical rule: сравнить с baseline; если Δ\Delta skill значим положительно (p<0.05) и effect size по Cohen d > threshold, считать улучшение значимым.
B. Reflexivity index (RI)
Определение: RI — корреляция между предсказаниями публичной онтологии о собственных параметрах и последующей реализацией:
RI^=∑t(θ^t+1−θ^ˉ)(θt+1−θˉ)∑(θ^t+1−θ^ˉ)2∑(θt+1−θˉ)2.\widehat{RI} = \frac{\sum_t (\widehat{\theta}_{t+1}-\bar{\widehat{\theta}})(\theta_{t+1}-\bar\theta)}{\sqrt{\sum(\widehat{\theta}_{t+1}-\bar{\widehat{\theta}})^2}\sqrt{\sum(\theta_{t+1}-\bar\theta)^2}}.
Bootstrap CI; RI near 1 — высокая reflexivity.
C. SR-contractivity estimator L^\hat L
Sample M pairs (xk,yk)(x_k,y_k):
L^=1M∑d(SR(xk),SR(yk))1M∑d(xk,yk).\hat L = \frac{\frac{1}{M}\sum d(SR(x_k),SR(y_k))}{\frac{1}{M}\sum d(x_k,y_k)}.
Use bootstrap (block for dependence) to get CI. Decision rule: if upper CI < 1 − δ (e.g. δ=0.05), infer average contraction.
5.2 Uptake UiU_i — measures and estimation
-
Behavioral indicator: fraction of time agent i follows practices in ESiE_{S_i}. Observed as binary or continuous.
-
Textual proxy: normalized frequency of normative phrases (NLP), calibrated via supervised classifier.
Estimator: Uˉ(t)=1N∑Ui(t)\bar U(t)=\frac1N\sum U_i(t) with cluster-robust SE. For time series, use Newey-West for autocorrelation.
5.3 Causal identification suggestions (operational)
-
Randomized encouragement / phased rollout (best).
-
Instrumental variables: exogenous infrastructure shocks as instruments for channel capacity.
-
Synthetic control for large-scale interventions.
-
In all cases: report robustness checks (placebo, falsification outcomes, sensitivity analysis).
6. Concrete ABM blueprint (runnable pseudocode + parameter suggestions)
Ниже — реалистичный toy-instance, готовый для реализации в Python/Julia.
6.1 Concrete choices
-
State per agent: discrete K states (K=8–20).
-
Predictors θ_i: parametric models (softmax weights) updated by SGD on log-loss.
-
Aggregator A_N: empirical distribution of agents’ predictions.
-
Public internal model R: empirical conditional distribution of next macro-state given A_N.
-
Realizer S: policy mapping distribution→action (heuristic: choose action that maximizes expected alignment to B* over short horizon).
-
Uptake dynamics: logistic with persuasiveness function pers(x) ∈ [0,1].
-
Resource R_t: scalar (e.g., bandwidth units).
6.2 Pseudocode
# PARAMETERS
N = 1000
K = 10
T = 2000
eta = 0.01
sigma_noise = 0.01
kappa = 0.05; gamma = 0.01 # uptake speed / forgetting
channel_capacity = 1.0 # bits per timestep (or abstract unit)
mu_capture = 0.1
R0 = 1.0
# INITIALIZE
x = random_states(N, K)
theta = init_params(N, dim)
U = zeros(N)
R = R0
for t in range(T):
Omega = aggregate_predictions(theta) # empirical measure
for i in range(N):
obs_i = sample_channel(Omega, capacity=channel_capacity)
pred_i = model_predict(theta[i], obs_i)
outcome = environment_step() # generated externally or function of Omega
loss = loss_fn(pred_i, outcome)
theta[i] -= eta * grad(loss, theta[i]) + normal(0, sigma_noise)
pers = persuasiveness(E_projection(i), Omega, R)
U[i] += kappa * pers * (1 - U[i]) - gamma * U[i]
barU = mean(U)
R_model = estimate_R(Omega) # e.g., kernel density on transitions
Omega = Omega + G(Omega, R_model, barU, mu_capture, R) * dt + macro_noise()
R += H(R, extraction, maintenance(barU)) * dt
record_metrics(...)
6.3 Experiments to run (grid)
-
Sweep N ∈ {100, 1000, 10000}; channel_capacity ∈ {0.1, 0.5, 1.0, 5.0}; R0 ∈ {low, med, high}; mu_capture ∈ {0, 0.1, 0.5}.
-
Repetitions: ≥100 per cell (bootstrap CIs).
-
Outcomes: Skill, RI, L^\hat L, Var(aggregate), probability reach B*.
7. Философские оговорки (коротко, обязательны в статье)
- Модель-инструмент: всё, что формализовано — карта. Не утверждайте метафизическую истинность EFE_F.
- Плюрализм онтологий: EFE_F — формальный объект; его проекции различаются по онтологиям, и это нормально.
- Перформативность: публикация методик измерения Uptake / SelfCon может изменить поведение; включите секцию «risks & mitigation» и предложите нормы прозрачности и plural modeling.
- Нормативные шаги отдельны: технические результаты не равнозначны «нужно действовать так». Любые политические решения требуют легитимации и плюралистической делиберации.
8. План верификации и дорожная карта (конкретно)
Шаг 0 — выбор concrete instance (1–2 дня): finite-state Markov toy.
Шаг 1 — мат. доработка (3–7 дней): оформить строгую версию Theorem B (average contraction via coupling / Lyapunov) и вставить концентрационную лемму с указанными условиями; добавить network caveats.
Шаг 2 — ABM реализация и sweeps (2–3 недели): код + runs + diagnostics + power analysis.
Шаг 3 — пилот по данным (4–8 недель): взять forecasting tournaments / платформенные сообщества; вычислить Skill, RI, L^\hat L; попытка идентификации (natural experiments).
Шаг 4 — публикация и peer review: подготовить LaTeX, приложить code + data, включить философский appendix и risk-mitigation protocols.
9. Сильные стороны новой редакции и остающиеся слабости (честно)
Сильные стороны:
-
Теория теперь содержит practically testable условия (average contraction and finite-N bounds).
-
Есть конкретные estimators и ABM blueprint для верификации.
-
Ретропричинность формализована как оптимизационный оператор — это переводит философскую идею в рабочую модель.
Остающиеся слабости:
-
Для реальных социальных сетей mean-field часто не выполняется; нужны варианты (graphon / sparse graph limits).
-
Rate-distortion bound (Теорема D) требует конкретных вычислений для realistic targets; пока — частично качественный.
-
Идентификация causal paths остаётся трудной; потребуются качественные natural experiments или randomizations.
Комментарии
Зачем удваивать сущности если все и так понятно без удвоения сущностей?
Затем что вы опять не разобрались что именно написано в статье. И как понимаю даже не поняли объяснение ИИ про этику. Уже устал вам повторять, разберитесь с концепциям когнитивной эволюции, расширенного разума и распределенного разума.
А если бы разобрались что именно написано в статье и предыдущих статьях, то понимали быть что значит подсказка ИИ:
Шестое, 10, 13 правило инфоцыгана и демагога(Корректора):
Ссылка на ложный авторитет или на самого себя (на свой бред) в качестве "доказательства".
А прочитать первую часть статьи уже ни как?
Там прямо написано что этика это структурный принцип системы.
Этическое ядро есть в каждой онтологии.
Этика это единственная рациональная стратегия и оптимальный выбор.
Другим словами этика это фундаментальная структура разума. Иначе говоря наличие этики делает интеллект разумом. Но тогда и только тогда, когда этика структурный принцип системы.
Совсем просто - быть разумным значит быть этичным.
И выучите формальную логику, в этом не нехорошо полагаться на ИИ.
И как понимаю вы не выяснили про когнитивную эволюцию, распределенный разум и расширенный разум? Все верно?
cut
Слишком большая разница в оценках разных ИИ (сомнительная положительная экспертность(лучше перестраховаться чем потом сожалеть)).
Вероятность галлюцинации ИИ большая.
Использовалась слабая критическая модель.
И наконец ИИ понял в какой мета-онтологии нужно читать статьи. Но как и положено ИИ он сам себе противоречит, и это нормально для ИИ, который интеллект, а никак не разум, прочитав статью содержащую строго формальные объяснение ретропричинности ядра α↔Ω, априорные выводы он уже не может сделать вывод, хотя в отличии от вас понимает знает что именно означает финальная коалгебра и репрезентативное время. И что сами эти выводы строго формально доказаны. А вы просто не можете понять что это снова Точка Омега. И априорные выводы потому и априорные, что коалгебра и теория категорий описывает не возможность, а то как есть в действительности. Но это только модель, а точнее кусок модели для выделения "когнитивного ядра".
Именно про эти ограничения ИИ и был комментарий под статьей:
Есть непреодолимая разница между ИИ и человеческим разумом и она структурная.
Так что вы снова ничего еще не поняли. Спрашивайте ИИ дальше. Но учтите объективные ограничения ИИ.
Качественные данные зачастую важнее самих корреляций и формул(тот кто контролирует или может снимать эти данные в реальном времени - важнее того кто "придумывает формулы" и изобретает велосипед).
Корреляции в замкнутых информационно прозрачных системах(область робототехники) - самоочевидны(любая нейросеть выявляет и находит корреляции сама и об этом её можно прямо спросить(а также в дальнейшем использовать условно метод эффективной добавки через инвестицию(в ту же рекламу или статью у ЛОМа) условно 100 уе каков будет отклик (рост продаж к примеру или изменение общественного мнения(предвыборные опросы или рейтинга (для управления рейтингом))))).
Вы занимаетесь изобретением велосипеда(все области где есть возможность получить релевантные данные уже обсчитаны иначе социометристы+ не ловят мышей от слова совсем (на этом же основаны инвестиции в биг дату и "большого брата" и в поисковые системы+(сбор данных о людях в реальном времени))):
То что было выше(и удалего) - был сверх.оптимизм от нейросети, которая не понимала разницы, где есть данные и где нет данных(можно задать прямой вопрос нейросети и умножить её оптимизм на ноль(но лениво)). Там где нет релеватных данных - пример геополитика (или группа людей (чужая душа потемки)) подтвердить опровергнуть (виртуальные) "формулы" (или нейросетями найти корреляции) - не представляется возможным. Единственное - можно использовать контрольные группы и данные полученные на контрольных группах, которые очень условно можно переносить на цели (или попытки целевого воздействия на них с вероятностью какого-то успеха менее 40% условно и возможностью отрицательного успеха). Но такие исследования технически будут стоить сотни тысяч уе и формулы и теории - это наименьшая проблема в таких исследованиях (где еще и этика будет играть роль).
Т.е. все это может быть применимо на ИИ и роботах чья этика (этические коды) де-факто прозрачны. При переносе на людей начинаются огромные проблемы.
Другая проблема. Наблюдение - условие наблюдения (тестовая группа) вляет на результат (эффект плацебо).
Предсказание влияет на будущее. Попытка влияния искажает предполагаемый результат. Среда на которую пытаются влиять будет сопротивляться изменением через консерватизм.
Любые упрощенные формулы (см. статьи в ПДФ какие там шестиэтажные формулы) - ничего не значат. Любое упрощение или простота(примитивизация) - это залог фейла. Равно демагогия.
Вы своим ложным оптимизмом что якобы все можно посчитать - претендуете что можете заглянуть залезть с измерителем людям в душу и мозг в их исходники и мотивы. Это чистая иллюзия и заблуждение. И только на основании этого ваши работы не имеют смысла.
***
По более ранним работам. Они тоже не имеют смысла. Но это уже другая история или как минимум другой комментарий.
Если быстро их критиковать. То проблема роста сложности решаема через условный сверхинтеллект. А проблема сверхинтеллекта решается через его гибридизацию.
Но рост сложности управления - это лишь одна проблема управления: Управление само по себе очень сложно описуемый предмет и нельзя на него смотреть лишь через одну призму.
ссылка на кибернетику ищите на ютубе:
"Кибернетика Cybernetics лекция"
Плюс ссылки на открытые источники:
https://mtas.ru/videolectures/cybernetics/files/Cybernetics-1.pdf
...
https://mtas.ru/videolectures/cybernetics/files/Cybernetics-8.pdf
Все что менее сложное по проблемам управления - достойно лишь мусорной корзины (не может решить в обществе ничего от слова совсем). И даже представленные данные в открытых источниках по кибернетике в мировой политике не может поменять или решить что-то от слова совсем, т.к. проблемы так не решаются. Надо решать сами проблемы непосредственно по законам решения проблем. А не тухлые демагогические теории разводить ради теорий и чтобы поржать или инфоцыганство развести.
***
Не надо спешить строчить псевдо ответ и демагогическими методами переводить стрелки или прочей демагогией доказывать какой же вы умный и смешной клоун. Хотя чего-то другого от вас не ожидается.
Как вижу вы начали интересоваться теориями расширенного и распределенного разума?
Ну так это именно то что вам объяснял в самом начале - человеческий разум действительно является коллективным и социальным, а значит теории расширенного и распределенного разума описывают человеческий разум как он есть в действительности. А индивидуальность разума это практическая иллюзия интеллектуального агента следующая функции коэволюции α↔Ω, как система индивидуальных сознаний α и общественного сознания Ω. И это и есть реальная действительность. Что очень наглядно и доступно нам продемонстрировала технология ИИ - если калькулятор научить человеческой культуре, то он начнет мыслить и обзаведётся симуляцией сознания.
Как и сразу вам говорил что эта серия статей по философии истории. Поскольку само структура человеческой истории тождественная системе α↔Ω в когнитивном смысле. Когда простой и тупой расчет вычислимости истории прямо указывает на объективные пределы всякого управления. Другими словами никакой α не может управлять Ω. И даже сверх-ИИ не сможет этого делать. Думать иначе это политическая шизофрения. И если вас посетила мысль управлять историческим процессом (структурами Ω), означает что вы уже не субъект управления, а объект управления и вами движет совсем другой актор коэволюции α↔Ω. Существуют объективные пределы всякого управления далеко за пределами любых человеческих возможностей. И настоящее управление начинается с понимания этих объективных пределов управления, когда инвариант этика и жизнеспособность общества это пример таких объективных пределов составляющих коэволюционную ретропричинную пару. Буквально следствие тут предшествует причине.
И как вас ранее предупреждал попытки практического применения теории α↔Ω могут кончится очень плохо если вы не понимаете что это такое. Историческое Ω-самосознание и приближение к инварианту Ω не является строго детерминированным, но только этот вектор динамики обеспечивает устойчивую жизнеспособность, и потому этический выбор - примат разума является безальтернативным. Но все это нисколько не мешает используя модель α↔Ω построить "абсолютный фашизм" как тотальное уничтожение "души" и сознания, хотя это и приведет жизнеспособности равной нулю и гарантированному самоуничтожению человечества вообще и как биологического вида в частности.
Так что прежде чем искать "практическое применение" и впадать в политическую шизофрению советую хорошо подумать что это такое коэволюция α↔Ω, и религиозные концепции тут будет совсем не лишними, поскольку история фрактальная и ретропричинность это когнитивная реальность.
И не забудьте еще познакомиться с кибернетикой второго порядка. Очень полезно применительно к теории когнитивной эволюции. Вы же так и не поняли что общество это система функционально одинаковых интеллектуальных агентов занятых оптимизацией культуры и хозяйственных практики, и эволюционируют совсем не люди, а представления о реальной действительности.
Обсуждение перенесено в соседнюю тему.
https://aftershock.news/?q=comment/19081448#comment-19081448