Этика будущего

Рассмотрим примеры возрастающей роли этики в будущем и, в частности, затронем повышение значимости философов для решения бизнес-задач.

В середине 2020 года в открытую прессу просочилась информация о переговорах[1], который вел глава facebook Марк Цукерберг с сотрудниками компании: команда хочет, чтобы Цукерберг занял более жесткую позицию в отношении администрации Трампа, а его пользовательская база хочет, чтобы он делал наоборот. Обсуждение, в частности, касалось нелестных высказываний Трампа о разных категориях людей, которые команда предлагала блокировать.

Аудитория facebook перевалила за 3 млрд человек, поэтому корпорация обременена большим количеством этических обязательств, которые часто противоречат друг другу. Должна ли компания ликвидировать все плохие группы и твиты? А кто будет определять, плохие это группы или не плохие? Где заканчивается свобода слова и начинается цензура? Социальные сети типа Facebook переживают нелегкие времена, политика компаний резонирует с запросом пользователей, и совершенно непонятно, как социальным сетям удастся универсализировать свою политику, чтобы она устраивала и либеральных сотрудников, и консервативных пользователей.

Глобализация и технологии позволили пересекать в одном месте и/или в одно время многочисленные интересы абсолютно разных и не знакомых людей. Можно прогнозировать, что количество этических вопросов уменьшаться не будет. Жизнь многогранна, и она будет преподносить все новые и новые сюрпризы. В этой связи роль философов будет возрастать. Сейчас крупные корпорации привлекают специалистов по этике в помощь к юристам.

При этом вряд ли возможны универсальные решения. Только участник ситуации может видеть все интересы, и только он будет нести ответственность за принятое решение. Все остальные заинтересованные стороны могут излагать свою точку зрения, и всегда будут удовлетворенные и не удовлетворенные. А проходящим мимо, не имеющим определенного интереса, желательно не высказывать свою позицию, поскольку она заведомо будет неэтичной, так как не поставлена "шкура на кон". В этических решениях обязательна связка между принятым решением и ответственностью.

Вряд ли мы можем сказать, как правильно поступить Марку Цукербергу и команде. Только они могут принять ролевые решения, и только они будут нести за это решение ответственность, рискуя деньгами, репутацией и, возможно, свободой. А у нас есть свои решения, которые необходимо принимать с учетом морали, и потому важно разбираться в этике. И никто не сможет дать вам правильный этический совет со стороны, просто потому что никто лучше вас не понимает контекст ситуации. Даже люди, которые вам желают блага, самого наилучшего (родители, коллеги, друзья) – тоже вряд ли смогут дать вам какое-либо решение, то есть этика не дает универсального решения. Этические вопросы стоят серьёзным образом и у мировых корпораций, и у ваших компаний, и у вас лично. Мы живем в большом социуме, и чем больше компания, и чем больше вы хотите успеха[2], тем сложнее этические вопросы. Не замечать этику – это «позиция страуса», которая не уберегает от проблем, не позволяет понять откуда они все время берутся.

Подобные примеры принятия решений с явным упоминание этики становятся нормой. Еще один пример: Министр финансов США Джанет Йеллен в феврале 2021 года после получения разрешения юристов по этике созвала совещание[3] ведущих финансовых регуляторов, чтобы обсудить волатильность рынка, вызванную розничной торговлей акциями GameStop Corp[4], серебром и другими акциями, пользующимися популярностью в социальных сетях. Судьбоносные решения принимались и раньше, но сегодня все чаще можно видеть, что этику впрямую рассматривают как дисциплину для вынесения решения и об этом публично говорят.

Следующий пример касается этики технологий – использовании этики в искусственном интеллекте и биоэтики.

Технологии пришли в наш мир, никуда от этого уже не денешься. Однако технологии используются в разных целях, например, соцсети завлекают вашим вниманием (временем), и продают его рекламодателям. И либо вы понимаете, что используете технологии себе во благо и, соответственно, это ваш экзокортекс, либо так или иначе чьи-то технологии будут использовать вас вслепую и "промывать вам мозги". Используя технологии необходимо рассматривать их с точки зрения экзокортекса.

Когда говорим про более сложные технологии типа роботов, то возникает этика искусственного интеллекта. Этика искусственного интеллекта делится на робоэтику и машинную этику. Робоэтика, в первую очередь, касается морального поведения людей, которые создают роботов. Робоэтика изучает процесс интеграции роботов в человеческое общество и описывает разные аспекты взаимодействия робота и человека. Машинная этика, в первую очередь, касается воспроизведения морального поведения со стороны искусственного интеллекта.

Этика искусственного интеллекта применяется, например, при создании беспилотных автомобилей. Беспилотник, по сути, делает выбор как в известной задаче про вагонетку[5]. Если вдруг выбегает ребенок, то что должен сделать робот-водитель? Подобные этические вопросы будут возникать во многих случаях так называемых интернет-вещей. Получается, что когда человек управляет технологией (сам за рулем авто), то перед нами теоретическая проблема: как бы мы поступили в подобной ситуации. Но когда речь идет об искусственном интеллекте, то там прямо стоит инженерная задача: если увидел вот это, то значит должен вот делать то, и этика уже заложена в самом алгоритме. Что заложить в программу (и закрепить в законе) – это вопросы, которые обсуждаются при разработке такого искусственного интеллекта. Многие считают, что покупатели должны знать, кого будет «убивать» искусственный интеллект в случае критической ситуации, но производители и законодательство не спешат разглашать, какой алгоритм действий заложен в программу робомобиля.

Последний пример, который обсуждается как этика будущего, связан с продлением жизни и с бессмертием[6]. Трансгуманисты говорят про продление жизни все активней, и это новая этика про постчеловека. Технологии могут привести к тому, что постчеловек будет кардинально превосходить обычного хомо сапиенса. Не будет ли этот высокоразвитый постчеловек с высоты своего положения относится к обычным людям также, как они относятся к шимпанзе? Сейчас это кажется дикостью, но появление человека с крутым экзокортексом, который может жить достаточно долго, не является мрачной фантастикой. Данные вопросы – это этические вопросы ближайшего будущего.

Таким образом, приведенные примеры свидетельствует о значимости вопросов этики для человека-деятеля, который желает работать на фронтире и принимать решения, которые будут защищать его от возможных будущих проблем и помогать создавать успешные системы.


Понятия: этика технологий.

  • [1]  https://www.theverge.com/21444203/facebook-leaked-audio-zuckerberg-trump-pandemic-blm
  • [2]  А как вы увидите далее, успех связан с большим количеством заинтересованных лиц.
  • [3]  https://www.reuters.com/article/us-usa-treasury-yellen-gamestop/exclusive-treasurys-yellen-to-call-regulator-meeting-on-gamestop-volatility-idUSKBN2A306A
  • [4]  В конце января 2021 года розничные трейдеры подняли цены на акции GameStop и тем самым почти разорили некоторых профессиональных участников рынка. Хедж-фонды Уолл-стрит играли на понижение акций GameStop в течение длительного времени, надеясь в конечном счёте на кончину компании, чтобы заработать миллиарды. Но сообщество розничных трейдеров Reddit WallStreetBets решило устроить бунт, выкупив акции (опционы) GameStop — и это привело к резкому росту курса ценных бумаг компании. Для сравнения: если в середине 2020 года акции GameStop стоили на бирже менее $10, то на пике цена достигала 483 доллара.
  • [5]  https://ru.wikipedia.org/wiki/Проблема_вагонетки
  • [6]  Проект Гильгамеш.

Источник: учебник/онлайн-курс «Введение в системное мышление»