Экзистенциальные риски искусственного интеллекта в контексте аксиологии трансгуманизма (по материалам работ Н. Бострома)

Автор: Назарова Ю.В., Каширин А.Ю.

Журнал: Общество: философия, история, культура @society-phc

Рубрика: Философия

Статья в выпуске: 11, 2023 года.

Бесплатный доступ

Ограничение развития технологий искусственного интеллекта, о котором в последнее время говорят известные разработчики этих технологий, обусловлено опасениями возникновения экзистенциальных рисков, одним из которых, согласно теории философа Н. Бострома, является сверхразум (Superintelligence) как результат дальнейшего развития искусственного интеллекта. Несмотря на то что проблема искусственного интеллекта широко исследована в зарубежной философской литературе, вопрос о ценностях, лежащих в основании новых технологий, остается практически неизученным. Целью статьи выступает этико-философский анализ ценностей трансгуманизма и их роли в развитии технологий искусственного интеллекта. Исследование проводилось на базе этико-философского анализа трансгуманистических ценностей, которые Н. Бостром предлагает использовать в контексте развития искусственного интеллекта. В итоге оцениваются этические смыслы его развития в аспекте аксиологии трансгуманизма Н. Бострома.

Еще

Этика искусственного интеллекта, этика, искусственный интеллект, аксиология трансгуманизма н. бострома, постчеловеческий переход, постчеловек, экзистенциальный риск, сверхразум

Короткий адрес: https://sciup.org/149144731

IDR: 149144731   |   DOI: 10.24158/fik.2023.11.5

Список литературы Экзистенциальные риски искусственного интеллекта в контексте аксиологии трансгуманизма (по материалам работ Н. Бострома)

  • Глобальное будущее 2045. Конвергентные технологии (НБИКС) и трансгуманистическая эволюция / под ред. Д.И. Дубровского. М., 2013. 272 с.
  • Куне Р., Тучина М.Е. Второй международный конгресс «Глобальное будущее 2045» (Нью-Йорк, июнь 2013 г.) // Философские науки. 2013. № 12. С. 125-136.
  • Назарова Ю.В. Дилеммы искусственного интеллекта в аспекте этического прогнозирования // Гуманитарные ведомости ТГПУ им. Л.Н. Толстого. 2023. № 2 (46). С. 39-48. https://doi.org/10.22405/2304-4772-2023-1-2-39-47.
  • Тучина М.Е. Международный конгресс «Глобальное будущее 2045» Москва, февраль 2012 г. // Философские науки. 2012. № 9. С. 150-157.
  • Bostrom N. Superintelligence: Paths, dangers, strategies. Oxford, 2016. 390 p.
  • Bostrom N. Infinite ethics // Analysis and Metaphysics. 2011. Vol. 10. P. 9-59.
  • Bostrom N. Transhumanist values // Journal of Philosophical Research. 2005. Vol. 30. P. 3-14. https://doi.org/10.5840/jpr_2005_26.
  • Bostrom N. Ethical issues in advanced artificial intelligence // Cognitive, emotive and ethical aspects of decision making in humans and in artificial intelligence. Vol. 2 / ed. by I. Smit, W. Wallach, G. Lasker. Oxford, 2003. P. 12-17.
  • Bostrom N. Existential risks - Analyzing human extinction scenarios and related hazards' // Journal of Evolution and Technology. 2002. Vol. 9, no. 1.
  • Bostrom N., Roache R. Ethical issues in human enhancement // New waves in applied ethics / ed. by J. Ryberg, T. Petersen & C. Wolf. L., 2007. P. 120-152.
  • Bostrom N., Yudkowsky E. The ethics of artificial intelligence // Artificial Intelligence Safety and Security / ed. by R.V. Yam-polskiy. Boca Raton, 2018. P. 57-69. https://doi.org/10.1201/9781351251389-4.
  • Floridi L. The Fourth Revolution - How the infosphere is reshaping human reality. Oxford, 2014. 272 p.
  • Floridi L. The philosophy of Information. Oxford, 2011. 405 p.
Еще
Статья научная