экология разума

Про Стейкхолдеров и запрет ИИ

В этой статье я рассмотрю забавный призыв запретить ИИ и познакомлю с несколькими системными принципами, которые позволят взглянуть на этот и другие вопросы по-новому.

На прошлой неделе многие известные персоны предложили ограничить развитие ИИ:
«Тысячи известных исследователей, топ-менеджеров и основателей IT-компаний, включая Маска и Возняка, призывают приостановить обучение мощного искусственного интеллекта хотя бы на полгода»
Я так смеялся! Почему такие подходы не работают, я уже писал больше месяца назад в нашем канале (рекомендую, будет понятнее дальнейший текст).

Призыв "запретить ИИ" полезно разобрать подробнее, тогда будут понятнее дальнейшие ходы и события в этой игре.
Часть 1. Система
1.
У нас есть система — назовем ее [Человечество]. Система, если упростить, — это связанные и взаимодействующие друг с другом элементы и процессы.

Система производит различные продукты (т. н. эмерджентные свойства) — размер популяции, развитие технологий, религию, ИИ и др.

2.
Какие-то продукты системы нам «не нравятся» или «пугают».

Например, если рассматривать систему [Предприниматель], ему может «не нравиться» уровень его дохода или его чувство «неблагополучности» (два основных запроса, которые я встречаю в рамках своей консалтинговой деятельности).

В системе [Человечество] обозначенных выше деятелей «пугает» развитие ИИ.

3.
В линейной парадигме мышления, в которой, к моему сожалению, размышляет большинство, последующее действие (реакция) обычно связывается с причиной (стимулом).

Т. е. если «ИИ пугает» (стимул), то его нужно запретить (действие, реакция).
Классика

4.
Такой подход неплохо работает в рамках более простых систем: увидел медведя (стимул) => забрался на дерево (реакция).

Однако в случае более сложных взаимодействий и сложных систем — линейный подход сбоит (Заболел живот => выпил таблетку, чтоб не болел. А он продолжил болеть => выпил таблетку посильнее).

Если продолжить «глушить» боль, то вскоре на горизонте может замаячить скорая. Почему?

Потому что «боль», как правило, — это симптом какой-то болезни, патологии, какого-то процесса, который происходит в системе [Организм].
Боль — симптом, продукт системы.
И линейное — симптоматическое лечение — вполне может «убить» или навредить организму (Вайлдберриз долго «лечили» свои метрики прибыли, перекладывая риски на ПВЗ. Мы все наблюдали последствия таких решений ТОП-менеджмента пару недель назад).

5.
В системной парадигме мышления мы понимаем, что проблема — это симптом, продукт системы.
И чтобы разобраться, нужно заглянуть «под капот», изучить структуру системы — т. е. систему взаимодействий, которые ведут к таким симптомам.
Работай не над целью, а над системой, что создаст для тебя цель — из этой же оперы.
Это — базовая аксиоматика системного подхода.
Часть 2. Стейкхолдеры
6.
Что определяет систему, ее конфигурацию и ее продукты?
Стейкхолдеры. Это могут быть люди, «объекты», процессы, идеи, которые влияют на систему и находятся под влиянием системы.
Люди (население, правительства, элиты), «объекты» (горы, моря, государственные границы), идеи (религия, этика, социальные строи) — все предъявляют определенные требования, возможности и ограничения к системе.

Это упрощенная картинка, на следующем уровне рассмотрения все можно свести к процессам, но пока так будет понятнее.

Их итоговый «консенсус» — та структура системы [Человечество], которую мы наблюдаем. Со всеми ее продуктами.
Итоговый «консенсус» взаимодействия стейкхолдеров — та структура системы [Человечество], которую мы наблюдаем. Со всеми ее продуктами.
7.
В рамках дальнейшего рассмотрения темы я выделю нескольких стейкхолдеров, чье влияние велико, и рассмотрю с их точки зрения вопрос по ИИ.

Чтобы объяснить «зачем?», приведу схематичный типовой пример из моей консалтинговой практики с предпринимателями (П):
П: Я планирую внедрить Решение Х в бизнес и Решение Y в свою жизнь. Это позволит достичь моих целей.
Я: Это не сработает.
П: Почему?
Я: Я полгода изучаю твою систему и вот что вижу: Решение Х противоречит требованиям стейкхолдеров 1, 5 и 7. Решение Y противоречит требованиям стейкхолдеров 1 и 3. Пытаясь внедрить их, начнутся проблемы с ними, а также со стейкхолдерами 6 и 8, с которыми они связаны. Учитывая их влияние на систему, ты бросишь затею через 2-3 недели…
П: Я все решу, — проходит две недели. — Ты опять был прав. Что тогда делать?
Системно работаем над вопросом.
8.
Чтобы делать подобный анализ, важно понимать ключевых стейкхолдеров системы и уметь посмотреть на систему с их точек зрения.

Тогда многие странные/нелогичные или противоречивые действия систем обретают смысл.

В рамках первой итерации рассмотрения нашей темы, мне интересны: Государства, Корпорации, Обычные люди.
Часть 3. С точки зрения Стейкхолдера
Развитие ИИ с точки зрения Государств

9.
С одной стороны, для государств ИИ-системы — большой куш.

Огромные возможности контроля (а значит, и удержания власти), влияния и экономического роста.

Нужная линия партии (с таким инструментом в руках) всегда успешно продвигается как истина. Искоренение любого инакомыслия.

С другой стороны, очевидный риск для государства — если этим инструментом завладеют другие игроки (другие государства или политические элиты).

10.
Исходя из этого, что логично делать государствам:
  • Прибрать к рукам ИИ-технологии, взять их «под козырек» (Open Ai превратилась в Closed Ai, отказавшись публиковать исследовательские материалы, лежащие в ее основе).
  • Усложнять жизнь «конкурентам» (США ограничили экспорт чипов, используемых в ИИ-системах, в Китай).
  • Если уже не догнать конкурентов: «банить» технологию или закрываться «куполом» (Италия запретила доступ к ChatGPT + в Россию прибыла группа из 40 специалистов по кибербезопасности из Китая — родины великого файрвола).

11.
Теперь с точки зрения Государства посмотрим на предлагаемое решение: «Остановить/отключить развитие ИИ»:
  • Не круто, если ты — лидер отрасли (Билл Гейтс выступил против запрета на развитие ИИ).
  • Круто, если эта остановка позволит затормозить развитие ИИ в других странах (см выше).
  • Можно посодействовать замедлению противника, вводя санкции на страны и компании, которые откажутся присоединиться к какому-нибудь подобному «меморандуму».
  • Разумеется, при этом посвятив себя совершенствованию своих ИИ-систем, непублично (тут есть риск огласки, но кто поверит этим «конспирологам», когда «нормальные» СМИ говорят о неукоснительном соблюдении всех договоренностей!).

А если что-то мы и делаем — то исключительно в рамках «меморандума», правильно и на благо света и добра, чтобы защититься от возможной тьмы!

В целом, мы уже видели эту историю в середине 20 века с атомным оружием — классическая гонка вооружений.

Ускорь себя/затормози конкурента.
Экзистенциальные риски? Да бросьте вы, эти рассуждения для бедных. Оппенгеймер, тебе спасибо конечно, но свои сожаления, братик, оставь при себе и не мешайся.
Развитие ИИ с точки зрения Корпораций
12.
Тут все схоже с Государствами: те же задачи выживания и конкурентной борьбы, а вместо власти подставим финансовое влияние.

С точки зрения Корпораций, решение остановить/отключить развитие ИИ:
  • Шанс догнать конкурентов. Посмотрите список подписавшихся и увидите там много текущих тех-лидеров, которые не поспевают на новый «передел». Нужно выиграть время.
  • И разумеется, все продолжат непубличное развитие, даже «публично» открестившис

Развитие ИИ с точки зрения обычных людей

13.
Тут кот в мешке. Отсюда и разделение на техно-оптимистов, техно-алармистов и остальных:
  • Алармисты видят огромные риски для свободы и выживания себя, как того, что представляет ценность (будь то замена меня на ИИ или страх перед самим ИИ).
  • Оптимисты видят возможности обогнать остальных, изменить место в иерархии.
  • Остальные — те, кто стараются не думать (тревожно), или вообще не в курсе. Они пока не влияют на систему.

14.
С точки зрения обычных людей, решение «Остановить/отключить развитие ИИ:
  • Будет поддержано алармистами. Они создадут нужное поддерживающее инфополе для государств и корпораций, если этот ход будет сделан (т.е. с ними провернут как с экологами — все будут говорить о рисках и необходимости заботы, а на деле устроят продажу «индульгенций» — оплат за «углеродный след», который никуда не денется).
  • Нейтрально воспринято техно-оптимистами — текущих возможностей уже достаточно, чтобы получить преимущество. Пойдут обучать и обучаться промт-инжинирингу.
  • Остальные поговорят и перестанут. «Моя хата с краю, главное, чтобы меня не касалось».

15.
Вот если начнет касаться, тут-то и пойдем что-то требовать! Как, например, было с Убером во Франции.

Вопрос только в том, что ИИ-системы — не Убер.

Они не в два-три раза улучшают отдельный процесс. Чем можно пожертвовать во имя политических задач.

Скачок от внедрения ИИ такой большой, что на кону может быть выживание Государств в рамках геополитики. А значит, плевать на ребят на улице.
16
Рассматривая этих 3-х стейкхолдеров, взгляд на систему с их точек зрения, понятно, почему я так смеялся над предложением «Остановки ИИ».

Эта затея, если в нее искренне верить, настолько не проходит требования стейкхолдеров (как в консалтинговом кейсе выше), что не может быть внедрена.

Что понятно любому человеку, кто хорошенько подумает и понимает, как работают системы.
И уж тем более понятно умным людям во главе крупных IT-гигантов.
Однако в измененном виде, как инструмент борьбы с конкурентами, — затея проходит.
Тем интереснее наблюдать за тем, как будет развиваться эта игра. Нам будет понятнее, что происходит за кулисами, и мы сможем учитывать это в своих планах и ожиданиях.

Мне лично крайне любопытно, станет ли «борьба с ИИ» новой «экологической повесткой», используемой в борьбе с неугодными странами и компаниями.
Больше о Системном Мышлении мы рассказываем в блоге, телеграме, на открытых мероприятиях, в группах и в рамках консалтинговой работы.

Дмитрий Чебоксаров
Консультант по системной инженерии бизнес-организации. Ведущий кратко- и среднесрочных программ корпоративного обучения, спикер.
Если вам понравилось, то подпишитесь