Эволюционная евгеника для уменьшения смертности от неудачных мутаций

В 2017 году я писал о том, что в 2021 году автомобильные вычислительные мощности созреют настолько, что появятся роботакси, https://ailev.livejournal.com/1384766.html. Добавьте год задержки из-за всемирного ковидопомешательства, и получите 2022 год. Первым, похоже, был Motional в Лас-Вегасе, но там говорится о шаттле, то есть постоянном маршруте (это с февраля): https://www.theverge.com/2022/2/24/22947997/motional-via-autonomous-shuttle-las-vegas-free. Но вот вчера, похоже, таки в США появилось полноценное роботакси: машина вообще без водителя (даже водителя-наблюдателя), которая берёт с тебя деньги и везёт куда надо, https://techcrunch.com/2022/06/24/cruises-driverless-autonomous-cars-start-giving-rides-to-paying-passengers/https://www.bloomberg.com/news/articles/2022-06-23/gm-s-cruise-charging-fares-for-driverless-rides-in-san-francisco. Провайдер -- Cruise (читай -- General Motors), город -- Сан-Франциско, меры предосторожности -- возят с 10 вечера до 6 утра и только по нескольким улицам. Чем отличается от того, что было? До этого возили бесплатно (был робокар, но не такси), а теперь берут деньги (то есть теперь полноценное роботакси). И добавили полтора часа времени доступности, сервис будет расти постепенно: добавляться рабочие часы, улицы, города. И это США, мы тут мало читаем по-китайски и на прочих языках азиатского мира, там тоже не стоят в этом плане на месте и тоже уже бегают машинки без водителей и за деньги. Так что запомнили: прогресс таки идёт по расписанию, хотя какое такое расписание у техноэволюции?! Она ж по определению непредсказуема!

Следующее, что надо сделать, так это разобраться с этим противоречием "предсказуемости-непредсказуемости":
-- техпрогресс -- это просто продолжение эволюции?
-- или это ни разу не эволюция, а вот просто инженерия, "ум людей с приданными им компьютерами"?
-- или это что-то странное гибридное, но как тогда об этом думать?

Думать об этом нужно как об эволюции через интеллект (evolution through intelligence). То есть да, это эволюция с интеллектом внутри:
-- во вселенной действует эволюционный алгоритм (который кратенько выражается в центральной догме молекулярной биологии: появляется медиа с цифровой записью, которая гарантирует точную многократную репликацию. Записываются программы генотипа, разворачивающегося в фенотип, и далее на уровень популяции -- все эти разделения на два пола, стайный образ жизни и воспитание детей и т.д.. Это прямой ход информации: от генов к фенотипу, включая популяционные уровни. А вот назад в гены полученный опыт идёт другим способом: появляются мутации, и если они хороши, то репликация оригинала с мутацией дальше происходит, а если не очень хороши, то не происходит, ибо фенотип вымирает). А какие цели эволюции? Получить устойчивый репликатор, который копируется и копируется, выживая всё круче и круче. При этом устойчивость к внешним воздействиям и адаптивность повышается время от времени за счёт роста сложности: многоклеточные организмы, популяции, паразитизм и симбиотика. Между системными уровнями есть конфликты, квазиоптимальных оптимизационных/архитектурных решений на предмет минимизации негативных сюрпризов от проявления этих конфликтов много и от этого возникает неустроенность (буйство самых разных видов, которые примерно одинаково выживают), очень иногда возникают существенные оптимизации, типа тех самых переходов от одноклеточным к многоклеточным, или появление хорошей цифровой памяти типа мозга с ручкой-бумажкой. Это я пересказываю идеи Ванчурина-Кацнельсона-Вольфа-Кунина, вся на эту тему и более подробный рассказ есть в учебнике/курсе "Прикладное системное мышление 2022", не буду тут её подробно расписывать.
-- эволюционный алгоритм можно ускорить через моделирование, и это вроде как уже инженерная работа, "применение ума для фильтрации догадок об удачных мутациях": запускать моделирование не в виде живого организма или даже популяции (в том числе гаджеты, в том числе компьютерные программы) в физическом мире, но делать это в компьютере. Тут беда: требуются дикие вычислительные мощности на моделирование N миров, в которых живут и размножаются организмы, на которых мы пробуем те или иные мутации. С этим боремся так: увеличиваем компьютерную мощь, увеличиваем эффективность эволюционного алгоритма в целом. Например, в статье Evolution through Large Models, https://arxiv.org/abs/2206.08896 предлагается использовать внутри эволюционного алгоритма вместо случайных мутаций "умные", то есть "разработанные", но вместо инженера использовать нейронную сетку. Проблема в том, что нейронная сетка сама обычно не может сгенерировать оптимизацию, которая выходит за рамки тех примеров, которые ей показывали в ходе обучения. А эволюционный алгоритм принципиально может. Поэтому оставляем снаружи эволюционный алгоритм и вставляем внутрь "мутационный оператор", который предлагает не смертельную мутацию (в работе по эволюции как многоуровневой оптимизации подчёркивалось, что всё давно уже квазиоптимизировано, поэтому большинство мутаций смертельные, немного их нейтральные, редко что-то приводит к маленькому улучшению текущего локального оптимума, и совсем уж редко что-то радикально приближает к обычно недостижимому глобальному оптимуму). Если брать не бессмысленные смертельные мутации, а что-то более-менее осмысленное, эволюция пойдёт быстрее. Вот ровно как это делают системы подсказок для кода программ: GitHub Copilot и Amazon CodeWisperer (https://techcrunch.com/2022/06/23/amazon-launches-codewhisperer-its-ai-pair-programming-tool/). Если грубо, то статья предлагает вместо случайных перестановок текста в генетических алгоритмах использовать подсказки всех этих Copilots и CodeWhisperers. И там же даётся ещё много разных других способов ускорить эволюцию (ибо много ещё мест, где "универсальный оптимизатор" типа нейронной сетки можно воткнуть в эволюционный алгоритм как источник "умных мутаций").
-- тем самым мы имеем инженеров всея Земли, которые во всепланетной техноэволюции (много инженеров, которые делают много целевых систем, некоторые из которых достаточно хороши, чтобы их производство повторяли) своими мокрыми нейронными сетками и приданными им компьютерами предлагают умные мутации. Если угадали -- бинго, вымри твой вид продукта сегодня, а мой вид завтра. Если не угадали, то будет наоборот. Осталось поднять вероятность угадывания, и это ровно то, что должны бы делать нейросетки: 1. поднимать степень осмысленности того, что они выдают в ответ на какие-то промпты и 2. учитывать для генерации "не совсем случайной мутации" максимум информации о мире. Ровно это и происходит: большие модели, выдающие эти самые мутации, могут использовать знание о мире, которое воплощено в кодах, текстах на естественном языке, картинках (вот свежая работа по мультимодальному мышлению внутри нейронной сетки -- Allen AI & UW Propose Unified-IO: A High-Performance, Task-Agnostic Model for CV, NLP, and Multi-Modal Tasks, https://arxiv.org/abs/2206.08916) и даже геноме человека (языковая модель, выучившая геном: GENA_LM – первая в мире языковая модель ДНК, обученная на самой полной версии генома человека (T2T-CHM13), которая была опубликована в конце марта 2022 года. Она может обрабатывать последовательности в 6 раз длиннее, чем DNABERT. Вот: https://huggingface.co/AIRI-Institute/gena-lm-bert-base/https://github.com/AIRI-Institute/GENA_LM).
-- дальше можно думать о том, чтобы запускать алгоритмы "умной мутации" для того, чтобы улучшать и эволюционные алгоритмы, и для того, чтобы улучшать мутационный оператор, и для того, чтобы улучшать моделирование мира для определения того, выживет ли индивид с фенотипом, определяемым мутацией в генотипе, в виртуальном мире, чтобы уменьшить время экспериментирования и ресурсы, требуемые для проверки выживаемости в физическом мире. Тут тоже всё более интересно, если начать конкретизировать эту фразу. Скажем, если мы применим "умные мутации" к человеческому геному, то получим не совсем случайную генетическую евгенику, а более-менее осмысленную. Далее можно ехидно предложить вопрос: сколько людей в эволюции человека умрёт до появления "усиленной версии человека будущего" в ходе естественных случайных мутаций, и сколько людей умрёт в ходе вот такой "инженерной эволюции", где мутации будут предлагаться на основе какой-нибудь нейронной сетки типа GENA_LM? Ведь вся суть предложений как раз в том, чтобы уменьшить порождение потенциально дохлых индивидов, которым суждено быть просто "неудачными ветвями эволюции"! Это алгоритмы увеличения количества живых, которые будут более живучи в мире, но при этом минимизирующих количество мертвецов, на которых пробовали разные мутации. Эволюция человека тут просто предельный случай. Но вот эволюция той же нейронной сетки тут пример поближе, или эволюция робота, или эволюция компьютерной программы, или эволюция термоядерного реактора.

Всё это упирается в наше пока ещё недостаточное понимание, что такое системное мышление и откуда там берётся эмерджентность. Уже понятно, что:
-- вся "новая физика" оказывается квантовой в том смысле, что физические процессы излагаются как информационные (если можем что-то изменить при взаимодействии, то система генерирует ноль или единицу, бит информации, это и есть "новая квантовость", первый абзац в https://ailev.livejournal.com/1621262.html).
-- мы имеем дело с одними системами, которые являются моделями других систем, то есть их описаниями (ДНК это описание организма, и даже популяции -- мужчин и женщин). То есть работа с описаниями-репликаторами оказывается тесно связана с физикой как мы обычно это себе представляем (а физика теснее связана с информатикой, чем раньше казалось тем же физикам).
-- в информационных системах количество неожиданно переходит в качество, то есть эмерджентность возникает при количественном росте вычислителя. С этим вообще мало понятно, что делать, просто повторим пока ссылки на литературу из (https://ailev.livejournal.com/1633918.html):

Очень интересные исследования про порог эмерджентности при масштабировании в обучающихся/эволюционирующих системах (нейросети, термодинамика, эволюция имеют общую теорию/математику, в курсе "Практическое системное мышление" про это явно говорится, ссылки на работы Ванчурина-Кацнельсона-Вольфа-Кунина. Далее можно ещё раз перечитать предыдущее обсуждение, где "минимальное сообщество" пытались определить размером с одного человека -- но нет, нужной эмерджентности там может не получиться на нейронах одного мозга, нужно объединение "деятельных вычислителей" для роста масштаба до "порога эмерджентности"), на которые указал Григорий Сапунов в https://t.me/gonzo_ML/1031:
-- Emergent Abilities of Large Language Models, резкие пороги в работоспособности нейросетей в зависимости от числа вычислений, размеров и прочего масштабирования, https://arxiv.org/abs/2206.07682
-- гифка дерева возможных приложений у сети с масштабируемостью (пороги возможностей с ростом числа параметров сетки): https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html (впрочем, это не у Григория, это я несколько раз сам обращал уже внимание на эту работу)
-- резкое появление самых разных свойств у случайных графов (порог эмерджентности при росте связности графа): https://www.quantamagazine.org/elegant-six-page-proof-reveals-the-emergence-of-random-structure-20220425/

Это да, тут у меня толстый троллинг по поводу эволюционной евгеники. Тем более что есть два движения:
-- руки прочь от эволюции, что-нибудь повредите, всякие генетические инженерии и социальные инженерии опасны! Охранители с их скрепами. Они достаточно сильны, вон в США только что принято судебное решение как раз в области евгеники: https://www.nbcnews.com/politics/supreme-court/supreme-court-wipes-away-constitutional-guarantee-abortion-rights-over-rcna18718
-- вы что, сдурели оставлять всё эволюции, у неё ж на поиски решения уйдёт миллион лет и миллиард смертей! А то и вообще всё сдохнет, это ж эволюция! Срочно зовите инженеров! Эту точку зрения представляет, например, John Doyle, https://ailev.livejournal.com/1622346.html

А чтобы разбираться дальше, потребуется хорошенько разобраться со всем интеллект-стеком, всем набором фундаментальных дисциплин: там и про эволюцию, и про этику, и про инженерию, и про "движущую силу эволюции" как те самые конфликты между системными уровнями, и про многое другое. Учитесь, а не то вас достанут или (генные или социальные) инженеры, или эволюция, или даже ни "или", а "и" -- и непонятно ещё, какой вариант будет хуже. Или лучше.