Познавательное август

В курсе системной инженерии осталось содержательно отредактировать первую главу, ибо она "морально устарела" за время переписки. Сам курс разбух до 600Кзнаков с пробелами (примерно 345 страниц А5, если без заданий, то книжка на 300 страниц). Дальше хорошо было бы добавить примеров разных видов систем равномерно по тексту, и добавить упражнений. Но у меня есть подозрение, что на это у меня уже сил не хватит, это уже на следующие версии останется.

Системная инженерия у меня стала не только безмасштабной, как было на входе в этот проект, но и непрерывной, как стало очевидно к выпуску первого релиза. Понятие "системный инженер" мне тоже придётся в первой главе подправить, ибо никаких уже "инженеров по требованиям", поезд этот ушёл. Архитекторы и DevOps однозначно классические системные инженеры, а вот разработчики уровня команды -- уже не факт, прикладная инженерия там явно побеждает. Понятие тихонько сдвинулось в своём значении. С другой стороны, просто инженерия стала насквозь системной в смысле использования системного подхода. Но как быстро всё меняется! Интересно, что в новых учебниках ссылки идут не столько на научные статьи и книги (этого тоже хватает), сколько на посты в блогах: "впервые эта идея появилась в блоге Имярека в 20XX году". Интересно, напишет ли когда-нибудь в каком-то учебнике такую фразу про пост из моего блога.

Ускоренный прогон за 7 минут 78 минут движения роботакси Waymo по Сан-Франциско: https://www.youtube.com/watch?v=avdpprICvNI. Никакого водителя в салоне. Один из комментов: "Wow this new Tesla is awesome", звучит как "этот новый ксерокс кэнон чудесен". Вот она, меметика, кто первым даже не встал, а правильно сказал, того и тапки.

Долго смотрел на Gartner Hype Cycle for Emerging Technologies, опубликован был 10 августа 2022: https://www.gartner.com/en/articles/what-s-new-in-the-2022-gartner-hype-cycle-for-emerging-technologies. Хорошее обновление для bullshit bingo, https://en.wikipedia.org/wiki/Buzzword_bingo (особенно, если сравнить с Hype Cycle предыдущих лет). Увы, не могу по-другому к этому относиться. Но там круто: Augmented FinOps -- это типа непрерывное бюджетирование, усиленное искусственным интеллектом. Smart уже не круто, intelligent не ново, теперь AI и ML (ага, так и пишут: "AI and machine learning (ML) practices") при их использовании дают приставкой augmented.

В этом Hype Cycle третья тема Optimized technologist delivery. По-русски почему-то все эти continuous delivery переводят как доставка или поставка. Я в учебнике докручиваю до конечного смысла: там кроме поставки (логистика), разворачивания (deployment) ещё входит transfer (введение в эксплуатацию) -- и только тогда считается, что произошло delivery. Поэтому я передаю continuous delivery как "постоянный ввод в эксплуатацию", фича за фичей. Ещё там связь нового мира (delivery, причём слово continuous от него оторвано, но оставлено у integration и deployment) и старого мира (life cycle) прямо-таки прорывается, "Platform engineering is the discipline of building and operating self-service internal developer platforms (IDPs) for software delivery and life cycle management". У меня в учебнике системной инженерии тоже и life cycle остался, и continuous delivery, но я всё-таки напираю на то, что жизненный цикл стал весьма размытым понятием, если отслеживаем по возможности вечное развитие/evolving системы через много её вариантов. Ну разве только говорить про жизненный цикл вида, но это как-то слишком за уши притягивать, тем более что тут слово "вид" в зоопарке микросервисов тоже расплывается в значении: вид каких таких организмов? Там же системы систем, "всё сложно" в ответ на вопрос про их отношения.

В AI по-прежнему пара прорывов в неделю, но интерес к ним угас -- чудеса обычны. Это как в мире магии собственно магии не удивляются, это только для магглов чудеса, а нормальные люди к ним привыкли. Вот, например, языковая модель Atlas выдаёт SoTA на языковых задачах few-shot, имея x50 меньше параметров, чем "обычный стиральный порошок", тьфу, всякие "просто языковые модели", то есть GPT-3, Gopher, PaLM и прочие шиншиллы - https://arxiv.org/abs/2208.03299. Да, вычислений там тоже меньше (хотя и не x50). Идея была в том, что "процессор" с генерализацией и "память" с примерами могли бы архитектурно разойтись: память могла бы быть внешней, а не совмещённой с процессором. Это всё RAG, retriever augmented generation for knowlede-intensive NLP tasks, вот базовая статья с диким количеством цитирований за пару набежавших лет -- https://arxiv.org/abs/2005.11401. Это всё команда фейсбука, запрещённого в России ввиду полной неподконтрольности там происходящего. Впрочем, этот запрет никак не тормозит тамошний прогресс в технологиях, так что население планеты продолжает получать оттуда всё новые и новые знания.

Кодирование нейросетями движется семимильными шагами: https://arxiv.org/abs/2208.05950 -- тут предложили уточнять намерение программиста, подтверждая или опровергая предложения по тестам типа того, что делают в TDD. Создали TiCoder (test-driven interactive coder) и получили соответствие кода намерениям в 90.4% случаев. TDUIF (test-driven user-intent formalization), всё по Карпаты: код компьютер напишет лучше тебя, а формализовать задачу ты же и поможешь. Всё как в моём учебнике: требований нет, но много беседуешь с разработчиком и документируешь тестами. Вставил этот пример в текст учебника, подраздел "Смерть инженерии требований". Это работа Microsoft, Penn U & UC SanDiego, временно не запрещённых (впрочем про Microsoft уже такой уверенности нет, фирма вроде как самозапретилась, но это не точно).

Ещё интересна разработка Гугла и Georgia Tech (пока их не запретили, но это временно), которые предложили использовать классическую GAN для оптимизации программного кода: https://arxiv.org/abs/2208.05297. Так и пишут: We frame code efficiency optimization as a generative problem. Сравнивали с Transformer, выиграли существенно (использовали варианты VAE, это ж классика GAN). Намерены работать дальше, As we move towards building more ML models that can write code, it is critical that we also consider computational efficiency.

Совершенно случайно заглянул на https://www.fox.com/news/ -- обалдеть, там прямо заповедник, все мужчины в галстуках, хотя и не чиновники! На https://www.foxnews.com/ это не так заметно. Я уже и забыл, что такое бывает. Они там какого года выпуска все остались?! При этом самые популярные среди других телеканалов -- https://www.adweek.com/tvnewser/thursday-aug-18-scoreboard-the-five-tucker-carlson-top-3-million-total-viewers/512913/. Задумался. Если я вернусь к ношению галстуков, я стану более убедительным?! Рейтинги вырастут?! С другой стороны, попасть в телевизор -- это будешь популярен совсем не у тех людей, среди которых ты мог бы хотеть быть популярным. Всё, что нужно знать на сегодня о меметике: горячие темы на сейчас в США по мнению самого популярного телеканала -- это 1. Ukraine-Russia, 2. Mar-a-Lago Raid, 3. Ben Afflek-JLO wedding. JLO это Jennifer Lopez, ежели чего. Три сюжета, определяющие судьбы если не мира, так американцев, предметы особого интереса, верность выбора подтверждается высоким рейтингом канала. Остальное не так горячо. В русскоязычные телеканалы я даже смотреть не решился.

Для балующихся с нейросетями у меня идея сервиса по фильтрации пропаганды: берём какую-то новость, и перефразируем все оценочные суждения и заменяем большие объекты на маленькие. Скажем "Америка умоляет Китай снять санкции" превратится в "посол Америки в Китае написал твит про китайские санкции" (в новостной ленте видел новость в двух вариантах сразу). Хотя там нужно и дальше смотреть, и оказывается, что посол сначала похвастался инвестициями в изменение климата, а министр иностранных дел Китая твитанул ему, что сможет ли США выполнить намеченное -- это важно, а не факт инвестиций. И вот тут был тот самый твит, что "конечно, выполним". И заметил, что готов продолжать переговоры по климату, которые китайцы оборвали в пакете санкций. Вот это (https://www.newsy.com/stories/china-and-u-s-spar-over-climate-on-twitter/) и отразил заголовок "Америка умоляет Китай снять санкции" (https://fbm.ru/novosti/politics/ria-novosti-posol-ssha-v-knr-berns-umoljal-pekin-snjat-sankcii-s-ameriki.html, заголовок "РИА Новости: посол США в КНР Бернс умолял Пекин снять санкции с Америки", ссылаются на материал "Америка упрашивает Китай снять с нее санкции", https://ria.ru/20220820/sanktsii-1810851565.html. Америка таки стала послом, зато упрашивать превратилось в умолять. В итоге посыл был услышал, и это переписано окончательно как "США умоляет Китай снять с неё санкции", https://live24.ru/v-mire/ssha-umolyaet-kitaj-snyat-s-nee-sankcii.html. То, что США не "она" это уже не так важно. Есть и ещё вариации: "США не выдерживает санкций со стороны Китая", https://mos.news/news/novosti_mira/ssha_ne_vyderzhivaet_sanktsiy_so_storony_kitaya/. Никто ничего уже не умоляет, просто не выдерживает санкций, наверное там будет что-то ужасное. Хорошая задачка для балующихся с нейросетями. Если мокрые сетки могут "нагнетать истерию", то кремниевые могли бы это нагнетание как-то убирать. Другое дело, что нейтральных убиральщиков не будет, чего уж там. А пока будем читать что-то типа "читатели РИА Новости выразили недовольство словами [cами выберите, какие кого слова вам не нравятся, сами станьте читателем РИА Новости и выразите недовольство, сами напишите об этом новость на какие-нибудь сайты с комментами какой-нибудь немецкой или итальянской газеты]". Ну, или наоборот, напишите коммент в немецкую или итальянскую газету, увидите его потом в РИА Новости. Этот ход сегодня не делает только ленивый, "письма трудящихся", полюбуйтесь: https://newssearch.yandex.ru/news/search?text=читатели+выразили+недовольство . И так каждая новость. Вот и вся прикладная меметика. Самое удивительное, что хорошо работает. Ничего, с нейрохудожествами уже взяли барьерчик (Midjourney уже все видели, пока DALL-E 2 только намекает на своё могущество, и ещё несколько таких же штук на подходе), с нейроинформационным безудержным потоком ещё встретимся. Длинные, развёрнутые сюжеты с тщательно генерируемыми на лету событиями (корректируемыми по реакции аудитории), множество безупречно сгенерированных "личных свидетельств" в соцсетях.

Далее закон Brandolini, известный также как bullshit asymmetry principle, https://en.wikipedia.org/wiki/Brandolini%27s_law -- усилия по демонстрации ложности дезинформации существенно превышают усилия по генерации дезинформации. В этой войне демонстратор ложности (даже вооружённый AI, ибо с другой стороны дезинформатор тоже будет вооружён AI) всегда проигрывает дезинформатору. Так и будем жить. Не читайте на ночь большевистских газет. А других ведь нет. Вот никаких и не читайте.

Последние несколько дней ложился спать не позже часу ночи. Очень интересный опыт, давно забытый (а ведь в школу я десяток лет ходил по шесть дней в неделю к восьми часам! И в университет к 8:30, ибо это ж взрослые, им послабление было). Попробую сегодня повторить, хотя уже нет.

UPDATE: обсуждение в чате блога в телеграм -- https://t.me/ailev_blog_discussion/16961