Экзистенциальные риски искусственного интеллекта в контексте аксиологии трансгуманизма (по материалам работ Н. Бострома)

Автор: Назарова Ю.В., Каширин А.Ю.

Журнал: Общество: философия, история, культура @society-phc

Рубрика: Философия

Статья в выпуске: 11, 2023 года.

Бесплатный доступ

Ограничение развития технологий искусственного интеллекта, о котором в последнее время говорят известные разработчики этих технологий, обусловлено опасениями возникновения экзистенциальных рисков, одним из которых, согласно теории философа Н. Бострома, является сверхразум (Superintelligence) как результат дальнейшего развития искусственного интеллекта. Несмотря на то что проблема искусственного интеллекта широко исследована в зарубежной философской литературе, вопрос о ценностях, лежащих в основании новых технологий, остается практически неизученным. Целью статьи выступает этико-философский анализ ценностей трансгуманизма и их роли в развитии технологий искусственного интеллекта. Исследование проводилось на базе этико-философского анализа трансгуманистических ценностей, которые Н. Бостром предлагает использовать в контексте развития искусственного интеллекта. В итоге оцениваются этические смыслы его развития в аспекте аксиологии трансгуманизма Н. Бострома.

Еще

Этика искусственного интеллекта, этика, искусственный интеллект, аксиология трансгуманизма н. бострома, постчеловеческий переход, постчеловек, экзистенциальный риск, сверхразум

Короткий адрес: https://sciup.org/149144731

IDR: 149144731   |   DOI: 10.24158/fik.2023.11.5

Текст научной статьи Экзистенциальные риски искусственного интеллекта в контексте аксиологии трансгуманизма (по материалам работ Н. Бострома)

1,2Tula State Lev Tolstoy Pedagogical University, Tula, Russia 1

В марте 2023 г. было опубликовано открытое письмо разработчиков технологий искусственного интеллекта (ИИ), призывающее приостановить развитие технологии, более совершенной, чем существующий Open AI GPT-4, из-за опасности возникновения экзистенциальных рисков для человечества. В числе подписавших были И. Маск, С. Возняк, Ю.Н. Харари и многие другие ученые, общественные деятели, бизнесмены1. Письмо размещено на сайте Института будущего жизни (Future of Life Institute)2, некоммерческой организации, целью которой является исследование экзистенциальных рисков и способов их снижения. Понятие «экзистенциальный риск» в отношении технологий ИИ ввел и обосновал философ Н. Бостром (Bostrom, 2002), который в 2005 г. открыл Институт будущего человечества (Future of Humanity Institute) при Оксфордском университете3. Оба института связаны общими идеями и целями; Институт будущего жизни выступает одним из спонсоров института, возглавляемого Н. Бостромом. Одной из известных персон, финансирующих научные работы, является И. Маск.

Развитие технологий ИИ изначально воспринималось как путь к достижению идеалов философии трансгуманизма. Однако начиная с 2000-х гг. в среде трансгуманистов формируется теория рисков ИИ, которые исследуются с точки зрения возможных социальных и этических проблем. Таким образом, в философии трансгуманизма возник своеобразный парадокс – технологии ИИ трактуются как способ достижения блага, который тем не менее может привести человечество к глобальной катастрофе. Этот парадокс обусловлен, на наш взгляд, конфликтом основных ценностей трансгуманистической философии.

Ценности трансгуманизма в том или ином виде обозначены в Декларации трансгума-низма4; документах, связанных с продвижением трансгуманистических идеалов (в частности, в России это исследования проекта «Россия 2045», где были широко представлены работы современных зарубежных и отечественных философов-трансгуманистов) (Глобальное будущее 2045…, 2013; Куне, Тучина, 2013; Тучина, 2012). Глубокий философский анализ процесса трансформации ценностей дается в концепции инфосферы (Floridi, 2011, 2014). Изучение современных этических кодексов, касающихся разработок ИИ5, показывает, что нравственные ценности, лежащие в их основании, построены на философии либерализма (Назарова, 2023). Анализ того, насколько эти ценности соотносятся с ценностями трансгуманизма, мог бы продемонстрировать степень влияния философии трансгуманизма на этику ИИ и глобальную политику разработок ИИ. Наиболее системный и полный подход к ценностям трансгуманизма можно встретить в философии Н. Бострома6 (Bostrom, 2002, 2005, 2011, 2016; Bostrom, Roache, 2007; Bostrom, Yudkowsky, 2018). Эти ценности в его концепции выступают как способ предотвращения экзистенциальных рисков, которые несет в себе развитие сверхразума, возникающего в результате прогресса ИИ.

Теория экзистенциальных рисков, ИИ и сверхразум . Как отмечается в статье известного журналиста Р. Хачадуряна (R. Khatchadourian), опубликованной в The New Yorker, «Бостром ввел философскую концепцию “экзистенциального риска” в 2002 г. в Журнале эволюции и технологий. В последние годы почти ежегодно основываются новые организации, помогающие снизить его, – среди них Центр изучения экзистенциального риска, связанный с Кембриджским университетом, и Институт будущего жизни, имеющий связи с Массачусетским технологическим институ-том»7. Согласно определению Н. Бострома, «Экзистенциальный риск – тот, при котором неблагоприятный исход либо уничтожит возникшую на Земле разумную жизнь , либо навсегда и радикально сократит ее потенциал» (курсив наш. – Ю. Н., А. К.) (Bostrom, 2002).

Что понимается под разумной жизнью? Категория разумной жизни в контексте философии трансгуманизма связана не только с человеком: «Трансгуманизм выступает за благополучие всех разумных существ, будь то искусственный интеллект, люди или нечеловеческие животные (включая внеземные виды, если таковые имеются)» (Bostrom, 2005). Таким образом, понятие разумной жизни расширяется; в данном случае ИИ также выступает как одна из форм разумной жизни, что существенно изменяет подход к традиционному пониманию этики и аксиологии.

В широком смысле эту идею озвучил ранее известный философ Л. Флориди, представив концепцию инфосферы (Floridi, 2011, 2014). Инфосфера – это новое понимание общественного бытия, которое предстает как бытие информационное; таким образом, высшей ценностью провозглашается не всеобщее благо, а благо инфосферы. Ценностью в инфосфере является любая единица информации, в этом смысле человек также рассматривается как информационная единица. Трансформируется понимание добра и зла; злом считается «энтропия инфосферы» (термин Л. Флориди), т. е. уничтожение информационной единицы или нанесение ущерба; добром – любая защита или преумножение информации. Таким образом, нравственность может стать характеристикой не только человека, но и любого искусственного агента. В то же время и Н. Бостром отмечает, что если относиться к этике как к процессу познания, то ИИ может превзойти человека в нравственном смысле: так, например, варианты решения этических дилемм, предлагаемые ИИ, будут более эффективны (Bostrom, 2003).

ИИ является одним из условий воплощения трансгуманистических ценностей. При этом ИИ может развиться в сверхразум, что станет экзистенциальной угрозой для разумной жизни. Сверхразум, по мнению Н. Бострома, – это технология, которая многократно превосходит человеческий интеллект и все интеллектуальное наследие человека. В данном смысле важно понимание, что сверхразум является чем-то большим, чем технология для расширения человеческих возможностей. Н. Бостром перечисляет следующие последствия развития сверхразума: стремительное развитие любых новых технологий (компьютерных, военных, космических, медицинских (включая избавление от болезней и старости, а также крионики и реанимационных технологий, психологии и психиатрии)); сканирование и загрузка человеческого мозга в цифровую среду (цифровое бессмертие) и т. д. Но на этом сверхразум не остановится, продолжая стремительно развивать сам себя. Далее Н. Бостром описывает угрозы такого развития: угроза копирования искусственного разума, в том числе загруженного в цифровое пространство человеческого разума; внезапный скачок развития искусственного интеллекта, который будет уже невозможно контролировать; самостоятельность сверхразума в принятии решений – и тогда сверхразум уже не должен восприниматься как средство или инструмент, а пониматься как автономный объект; невозможность предсказать познавательные процессы сверхразума и понять его мотивы (Bostrom, 2003).

Парадокс заключается в том, что именно развитие ИИ необходимо для реализации трансгуманистических ценностей, но итог этого развития противоречит им и лишает их смысла.

Таким образом, понятие экзистенциального риска напрямую связано с философией трансгуманизма и может быть раскрыто путем анализа трансгуманистических ценностей. Н. Бостром рассматривает экзистенциальный риск как угрозу трансгуманистическим ценностям. Его теория о рисках сверхразума обусловлена аксиологическими причинами: «Актуальность условия экзистенциальной безопасности для трансгуманистического видения очевидна: если мы вымрем или навсегда уничтожим наш потенциал дальнейшего развития, тогда основная ценность трансгуманизма не будет реализована» (Bostrom, 2005). Тем не менее ценность глобальной безопасности таит в себе еще один аксиологический парадокс, речь о котором пойдет далее, в ходе анализа аксиологии трансгуманизма, представленной Н. Бостромом.

Аксиологический парадокс ИИ в концепции трансгуманизма и экзистенциальная угроза . В концепции экзистенциальных рисков ИИ Н. Бострома проблема ценностей занимает центральное место; аксиология определяет цели и задачи трансгуманистической доктрины.

Отметим основные особенности аксиологии Н. Бострома. Ценности трансгуманизма связаны с движением, прогрессом, процессом познания; так, главная ценность трансгуманизма – «возможность исследовать трансчеловеческие и постчеловеческие сферы». Цель трансгуманизма – изменение человеческой природы, устранение ее несовершенств; с этической точки зрения – избавление от физических и психологических страданий, что является новым типом гедонизма. Именно физическое и интеллектуальное несовершенство человека заставляет его страдать. В идеале человек должен выйти далеко за пределы своей природы, оставив телесные ограничения – болезни, смерть – далеко позади, что приведет к появлению постчеловека и формированию новой системы ценностей: «Трансгуманисты рассматривают человеческую природу как незавершенную работу, незаконченное начало, которое мы можем научиться переделывать желаемыми способами. Нынешнее человечество не обязательно должно быть конечной точкой эволюции. Трансгуманисты надеются, что путем ответственного использования науки, технологий и других рациональных средств нам в конечном счете удастся стать постлюдьми, существами с гораздо большими способностями, чем у нынешних человеческих существ» (Bostrom, 2005).

Итак, основная ценность трансгуманизма может рассматриваться как возможность движения к формированию постчеловека. Остальные ценности – это, по сути, условия, необходимые для достижения этой цели: глобальная безопасность (которой угрожает экзистенциальный риск, например сверхразум) – «Глобальная безопасность является наиболее фундаментальным и не подлежащим обсуждению требованием трансгуманистического проекта» (Bostrom, 2005); технологический прогресс (как инструмент для расширения человеческих возможностей и трансформации человеческой природы); широкий доступ к технологиям (идеями трансгуманизма может проникнуться каждый, и каждый должен иметь шанс стать постчеловеком). Ценность доступности технологий предполагает такие ценности, как равенство, солидарность, уважение друг к другу, облегчение страданий в широком масштабе. При этом подчеркивается моральная важность скорости технологического прогресса : «Трансгуманистический идеал будет максимально реализован только в том случае, если преимущества технологий будут широко распространены и если они станут доступными как можно скорее, предпочтительно в течение нашей жизни» (Bostrom, 2005).

Производные от основных ценностей: ценность «вмешательства в природу» (предлагается осознать ценность возможности трансформации, изменения человеческой природы); ценность индивидуальной свободы (например, признается право человека самостоятельно принимать решение о трансформации собственного тела или об отказе от нее); ценность мира (под которой подразумевается сотрудничество всех народов мира и предотвращение использования оружия массового поражения); ценность познания (поощрение науки, коллективное обсуждение научных исследований, открытий, планов на будущее); ценность интеллекта (развитие человеческого и искусственного интеллекта); ценность прагматизма (приоритет науки, предпринимательства); ценность сомнения (так называемый философский фаллибизм, т. е. готовность к пересмотру истин по мере необходимости); ценность заботы (имеется в виду забота о благе разумного ); ценность разнообразия (сохранение и поощрение разнообразия рас, религий, сексуальных ориентаций и т. п.); ценность жизни (имеется в виду продление человеческой жизни, например остановка процесса старения и развитие крионики) (Bostrom, 2005).

Очевидно, что даже поверхностный анализ соотношения ценностей может выявить некоторые противоречия между ними, одно из которых – соотношение ценности глобальной безопасности и технологического прогресса. Технический прогресс и глобальная безопасность как основные ценности трансгуманизма могут формировать конфликт. Конфликт ценностей трансгуманизма порождает экзистенциальные риски, одним из которых может стать сверхразум.

Ценности постчеловека и экзистенциальные риски сверхразума . Одними из необычных особенностей концепции Н. Бострома являются рассуждения об аксиологии будущего – системе ценностей постчеловека. Н. Бостром признает, что постчеловечество потенциально может сформировать совершенно новую систему ценностей. Тем не менее это не значит, что оно откажется от привычных современных нам ценностей. В то же время в данный момент благодаря несовершенству своей природы человек даже не может предположить, какие идеалы и ценности будут в постчеловеческой эпохе: «некоторые из наших идеалов вполне могут находиться за пределами пространства способов существования, доступных нам с нашей нынешней биологической конституцией» (Bostrom, 2005).

Постчеловек – высшая стадия развития человека, усовершенствованный человек, имеющий более широкие физические и интеллектуальные возможности. Н. Бостром отмечает, что постчеловек может отличаться от исходной личности, т. е. человека, но тем не менее продолжает быть той же уникальной личностью. «Трансгуманизм поощряет стремление к дальнейшему развитию, чтобы мы могли исследовать доселе недоступные сферы ценностей. Технологическое совершенствование человеческих организмов – это средство, к которому мы должны стремиться с этой целью. Существуют пределы того, чего можно достичь с помощью низкотехнологичных средств, таких как образование, философское созерцание, моральный самоконтроль и другие подобные методы… И все же в конечном счете трансгуманисты надеются пойти дальше» (Bostrom, 2005).

Проблема постчеловеческих ценностей формирует новый парадокс: если сейчас в силу природной ограниченности человек не в состоянии представить, какие ценности будут актуальны для постчеловека, можно предположить, что угроза сверхразума уже не будет представляться экзистенциальной угрозой, потому что изменятся основные трансгуманистические ценности, и ценность глобальной безопасности потеряет важность, уйдя, например, из основных в группу производных ценностей.

Анализ позволяет сделать следующие выводы.

Современные стратегии развития искусственного интеллекта связаны с философией трансгуманизма. Таким образом, в основу ИИ закладываются трансгуманистические ценности. Так, институты исследований ИИ, в которых работают философы и социологи, активно сотрудничают с корпорациями, разрабатывающими ИИ, влияют на принятие этических кодексов по технологиям ИИ. Наиболее системно и подробно ценности трансгуманизма изложены в работе Н. Бострома «Ценности трансгуманизма».

В понимании трансгуманизма ценность искусственного интеллекта так же важна, как ценность человеческой жизни, поскольку «трансгуманизм выступает за благополучие всех разумных существ, будь то искусственный интеллект, люди или нечеловеческие животные (включая внеземные виды, если таковые имеются» (Bostrom, 2005). Это расширяет первоначальное этическое понимание категории блага, отсылая, например, к концепции инфосферы Л. Флориди, которая предложила новое видение информационного общества и информационных единиц.

Основные ценности трансгуманизма в концепции Н. Бострома – глобальная безопасность и технологический прогресс – вступают в конфликт в точке появления сверхразума, что провоцирует экзистенциальную угрозу. Философ делает попытку разрешить парадокс, раскрывая содержание производных ценностей, чье назначение – обеспечивать условия реализации основных ценностей, однако однозначное разрешение этого парадокса неочевидно.

Концепция экзистенциальных рисков сверхразума у Н. Бострома имеет аксиологическую почву и появляется, на наш взгляд, благодаря изложенному парадоксу. Это подчеркивает противоречивость идеалов трансгуманистической философии и показывает, что требуются принципиально новые подходы к пониманию философии ИИ. Развитие ИИ по сценарию трансгуманизма может привести к той самой катастрофе, о вероятности которой говорит Н. Бостром, поскольку именно трансгуманизм наделяет ИИ исключительными чертами, воспринимая его в высшей точке его развития как отдельную форму жизни .

В данный момент был бы актуален сравнительный анализ аксиологии трансгуманизма и классической теории ценностей применительно к ИИ. Основная цель такого анализа – поиск аксиологической альтернативы трансгуманизму , потому что, если признать развитие ИИ экзистенциальным риском, нужно расширять возможности его философского анализа.

Аксиологическое тестирование ИИ, например нейросетей, уже сейчас поможет понять ценности, заложенные в систему, отследить трансформации этих ценностей, проанализировать направления этих трансформаций, их причины, спрогнозировать возможные риски и угрозы. Такая работа может стать одной из наиболее необходимых в плане информационной и цифровой безопасности, особенно в контексте текущих мировых проблем. Аксиологическое обучение технологий ИИ, возможно, станет важным условием обеспечения технологической безопасности.

Список литературы Экзистенциальные риски искусственного интеллекта в контексте аксиологии трансгуманизма (по материалам работ Н. Бострома)

  • Глобальное будущее 2045. Конвергентные технологии (НБИКС) и трансгуманистическая эволюция / под ред. Д.И. Дубровского. М., 2013. 272 с.
  • Куне Р., Тучина М.Е. Второй международный конгресс «Глобальное будущее 2045» (Нью-Йорк, июнь 2013 г.) // Философские науки. 2013. № 12. С. 125-136.
  • Назарова Ю.В. Дилеммы искусственного интеллекта в аспекте этического прогнозирования // Гуманитарные ведомости ТГПУ им. Л.Н. Толстого. 2023. № 2 (46). С. 39-48. https://doi.org/10.22405/2304-4772-2023-1-2-39-47.
  • Тучина М.Е. Международный конгресс «Глобальное будущее 2045» Москва, февраль 2012 г. // Философские науки. 2012. № 9. С. 150-157.
  • Bostrom N. Superintelligence: Paths, dangers, strategies. Oxford, 2016. 390 p.
  • Bostrom N. Infinite ethics // Analysis and Metaphysics. 2011. Vol. 10. P. 9-59.
  • Bostrom N. Transhumanist values // Journal of Philosophical Research. 2005. Vol. 30. P. 3-14. https://doi.org/10.5840/jpr_2005_26.
  • Bostrom N. Ethical issues in advanced artificial intelligence // Cognitive, emotive and ethical aspects of decision making in humans and in artificial intelligence. Vol. 2 / ed. by I. Smit, W. Wallach, G. Lasker. Oxford, 2003. P. 12-17.
  • Bostrom N. Existential risks - Analyzing human extinction scenarios and related hazards' // Journal of Evolution and Technology. 2002. Vol. 9, no. 1.
  • Bostrom N., Roache R. Ethical issues in human enhancement // New waves in applied ethics / ed. by J. Ryberg, T. Petersen & C. Wolf. L., 2007. P. 120-152.
  • Bostrom N., Yudkowsky E. The ethics of artificial intelligence // Artificial Intelligence Safety and Security / ed. by R.V. Yam-polskiy. Boca Raton, 2018. P. 57-69. https://doi.org/10.1201/9781351251389-4.
  • Floridi L. The Fourth Revolution - How the infosphere is reshaping human reality. Oxford, 2014. 272 p.
  • Floridi L. The philosophy of Information. Oxford, 2011. 405 p.
Еще
Статья научная