Этика искусственного интеллекта: от философской критики к практической ответственности

Автор: Дедюлина М.А., Папченко Е.В.

Журнал: Общество: философия, история, культура @society-phc

Рубрика: Философия

Статья в выпуске: 6, 2025 года.

Бесплатный доступ

Статья посвящена анализу этических вызовов, связанных с развитием искусственного интеллекта (ИИ), и поиску путей их преодоления через синтез философской рефлексии, инженерных методов и коллективной ответственности. Исследуются противоречия между автономией технологий, описанной Ж. Эллюлем, и необходимостью их подчинения этическим принципам согласно взглядам философов на взаимодействие человека с цифровыми системами. Методология работы включает теоретический анализ философских концепций и качественный обзор практических кейсов, таких как предвзятый алгоритм COMPAS и прозрачные системы диагностики Google Health. Предложены инструменты минимизации рисков ИИ: трехслойный аудит (юридический, технический, этический), этическая матрица Б. Мепхэма и модель «трёх линий защиты». Особое внимание уделено роли этического аудита как механизма, объединяющего нормативные принципы (OECD AI, IEEE) с практиками прозрачности (XAI, Fairlearn). Заключается, что устойчивое внедрение ИИ требует междисциплинарного подхода, интеграции философской критики в инженерный дизайн и глобальной стандартизации аудита. Следовательно, этика ИИ должна стать не барьером, а основой для инноваций, обеспечивая баланс между технологическим прогрессом и сохранением человекоцентричных ценностей.

Еще

Искусственный интеллект, этика технологий, этика ИИ, алгоритмическая предвзятость, аудит ИИ, социотехнические системы, коллективная ответственность, объяснимый ИИ (XAI), цифровая онтология, трехслойный аудит

Короткий адрес: https://sciup.org/149148187

IDR: 149148187   |   DOI: 10.24158/fik.2025.6.1

Текст научной статьи Этика искусственного интеллекта: от философской критики к практической ответственности

,

,

Введение . Развитие искусственного интеллекта (ИИ) трансформирует общество, предлагая инновационные решения в медицине, образовании, юриспруденции и других сферах. Однако их внедрение сопровождается этическими дилеммами: от алгоритмической предвзятости до утраты приватности (Zuboff, 2019).

Современные цифровые технологии, как отмечает немецкий философ Р. Капурро, создают новую онтологию «Homo digitalis» – человека, чье существование балансирует между физическим и цифровым мирами (Capurro, 2017).

Более оптимистичен в отношении цифровых технологий Н. Негропонте. По его мнению (Negroponte, 1995: 163–168), цифровая жизнь реализуется в трех основных положениях. Во-первых, все будут жить в пространстве без места. Цифровая информация преодолевает географические границы и отменяет зависимость от территории и времени. Перед экраном компьютера можно оказаться в Джакарте, слушая русскую музыку, или в Торонто, наслаждаясь яванскими песнями. Мы оказываемся в воображаемых пространствах, ставших возможными благодаря цифровым транспортным технологиям. Во-вторых, встречи лицом к лицу или телефонные разговоры больше не являются надежными. Компьютеры заменили их на онлайн-процесс. В-третьих, информацию и идеи можно получать, не полагаясь на один носитель. Движение данных через различные носители позволило осуществлять процесс их перевода из одного измерения в другое, из одного времени и пространства или культуры в другую.

Однако такой оптимистичный взгляд на цифровые технологии не мешает высказывать возражения против их активного внедрения во все сферы жизни. Так, Н. Постман (Postman, 1985: 8) говорит о том, что после появления медиа мы перестали принадлежать к сообществу, поскольку прекратили жить ценностью единения. Он утверждает, что, хотя цифровые технологии не запрещают демократию, слишком много тривиальных данных «утопили истину в море неактуальности» (Postman, 1985: 8). В том же духе высказывается С. Грингард, говоря о данных, производимых интернет-индустрией (Greengard, 2015: 20).

В философском плане еще в 60-е гг. ХХ в. французский философ Ж. Эллюль (Ellul, 1964: 82–84) предупреждал об автономии технологий, которые, по его мнению, подчиняют человека логике эффективности и контроля. Технология обладает собственной автономией по отношению к нашему моральному сознанию. По мнению Ж. Эллюля, ее нельзя остановить по моральным причинам. Напротив, технология оказывает непосредственное влияние на этические взгляды субъекта. Она автономна, потому что человек использует и ценит ее как могущественный объект (Ellul, 1964). Как следствие, человек не может желать всего, что ему вздумается, скорее, его воображение и действия формируются и ограничиваются технологией. Шкала ценностей, процессы суждения, обычаи и манеры определяются именно ей.

Ж. Эллюль также утверждал, что мы должны глубже взглянуть на процесс того, что он называет «соблазнительным дискурсом техники», и на рост технического мира через вовлечение человека в постоянную социотехническую дискуссию. Хотя технология не зависит от морали, это необязательно должно препятствовать существованию ее этики (Ellul, 2003).

Пессимистичный взгляд на технологии как саморазвивающиеся системы актуален сегодня, когда алгоритмы социальных сетей, такие как TikTok, формируют поведение пользователей, оптимизируя контент для максимизации вовлеченности. Смартфоны и компьютеры – не просто технологические инструменты, поскольку они формируют цифровую Всемирную паутину, они становятся новым миром для человека как бытия-в-мире.

В противовес этому американский философ А. Боргманн предлагает концепцию фокусных практик, в рамках которых технологии должны углублять человеческий опыт, а не заменять его (Borgmann, 1984: 153–210). Модель, которую он видит в основе технологии в целом, называется «парадигмой устройства», определяемой как создание товаров, доступных необременительным способом, все больше за счет удаления внутренних механизмов машины, производящей товары, из поля зрения человека и из человеческого понимания. Технология делает информацию доступной, но лишает ее связи с реальностью. Такое положение дел бросает нам вызов (Borgmann, 1984: 201). Например, алгоритмы-«чёрные ящики» могут быть преобразованы в прозрачные инструменты через методы объяснимого ИИ (XAI) (Chang et al., 2024).

Нидерладский философ П.-П. Вербик развивает идею технологий как моральных посредников и полагает, что они не нейтральны, а формируют ценности и поведение человека (Verbeek, 2006). Например, рекомендательные системы Spotify не только предлагают контент, но и укрепляют культурные стереотипы в обществе.

Итальянский философ Л. Магнани (Magnani, 2007: 93–204) дополняет этот анализ, вводя коллективную ответственность за использование технологических инноваций. Он настаивает, что знание о технологиях становится моральным долгом, как в случае редактирования генома CRISPR, требующего публичной дискуссии.

Цель этой статьи – синтезировать философскую критику, этические принципы и инженерные методы, предложив целостную модель для минимизации рисков в сфере ИИ.

Гипотеза исследования заключается в том, что интеграция философской рефлексии, осознанного дизайна и коллективной ответственности позволяет преодолеть ограничения автономии технологий, превратив их в инструменты служения обществу.

Методология и результаты исследования . Исследование объединило теоретический анализ ключевых философских работ с качественным обзором практических кейсов. Например, изучение алгоритма COMPAS, который систематически дискриминировал афроамериканцев (Martin, 2022), показало, как автономия технологий может приводить к социальной несправедливости.

В то же время успешные проекты, такие как алгоритмы диагностики рака Google Health, демонстрируют силу фокусных практик А. Боргманна, где вовлечение профессионалов в разработку снижает предвзятость.

Сравнение подходов Ж. Эллюля, А. Боргманна, П.-П. Вербика и Л. Магнани выявило их взаимодополняемость. Если Ж. Эллюль подчеркивает необходимость сопротивления технологической экспансии, то А. Боргманн предлагает осознанное взаимодействие с «цифрой» через прозрачность целей. П.-П. Вербик фокусируется на дизайне, который воплощает ценности, как в случае с фреймворком FAIRRET, который предлагает систему регуляции условий справедливости в машинном обучении. Однако такие инструменты никогда не должны рассматриваться как достаточные для достижения справедливости в реальных процессах принятия решений (Bender et al., 2021).

Практические инструменты: от теории к действию . Сегодня системы искусственного интеллекта (ИИ) требуют комплексных подходов к обеспечению их прозрачности, справедливости и безопасности. В этом контексте работа Дж. Мёкандера (Mökander, 2023) предлагает системный взгляд на аудит ИИ как ключевой механизм управления рисками. Исследователь подчеркивает, что аудит должен охватывать не только технические аспекты, но и правовые, и этические измерения, формируя «трёхслойный» подход.

Другим практическим инструментом в изучении этики ИИ является этическая матрица B. Мепхэма (Mepham, 2000), изначально разработанная для биоэтики. Она остается актуальной для анализа конфликтов интересов стейкхолдеров.

Этическая матрица анализирует этические дилеммы через пересечение ключевых принципов (благополучие, автономия, справедливость) с заинтересованными сторонами (например, потребители, производители). Изначально применявшаяся в пищевой этике, она формирует сетку для выявления обязательств и конфликтов.

Однако данная матрица фокусируется на балансе мнений, а не на предписании решений. Например, при оценке ИИ в кредитном скоринге матрица помогает выявить противоречия между благополучием банка (максимизация прибыли) и автономией заемщиков (защита от дискриминации). Как отмечают исследователи, такой анализ часто ограничивается теоретическим уровнем, не предлагая конкретных механизмов реализации этических принципов. Этот пробел заполняет концепция «этики предвидения» (Floridi, 2019), которая фокусируется на предотвращении долгосрочных рисков через продуманный дизайн систем. Например, встраивание «этических фильтров» в языковые модели (LLM) минимизирует генерацию вредоносного контента.

Как показывает практика, даже такие меры требуют проверки на соответствие регуляторным нормам – здесь вступает в силу предложенный Дж. Мёкандером процедурный аудит, интегрирующий юридические, технические и этические критерии. Раскроем все его составляющие более подробно.

Юридический аспект аудита, по нашему мнению, становится особенно критичным в свете новых регуляций, таких как EU AI Act1. Например, для ИИ в медицинской диагностике обязательны проверки на соответствие стандартам FDA, включая оценку точности алгоритмов и защиту персональных данных. При этом Дж. Мёкандер предупреждает о риске «чекбоксинга» – формального соблюдения требований без реального улучшения систем, что подчеркивает необходимость привлечения независимых аудиторов (Mökander et al., 2023).

Технический аудит включает как анализ входных/выходных данных алгоритмов (например, тестирование на смещения в распознавании лиц), так и оценку процессов разработки.

Интересен кейс железнодорожного сектора: аудит ИИ для управления поездами фокусируется не на анализе кода, а на тестировании безопасности в реальных условиях, что соответствует принципам EU AI Act (Gesmann-Nuissl, Kunitz, 2022).

Критика текущих практик указывает на две ключевые проблемы. Во-первых, существует зависимость от доступа к данным: компании часто ограничивают аудиторов из-за коммерческой тайны, что снижает эффективность проверок. Во-вторых, отсутствие глобальных стандартов ведет к фрагментации подходов.

Прикладная этика нашла различные решения для того, как элементы подобной оценки можно превратить в процедуры. На наш взгляд, имеет смысл адаптировать опыт финансового аудита, например, модель «трёх линий защиты» (Schuett, 2025), где ответственность распределяется между разработчиками, внутренними и внешними аудиторами. Это структура управления рисками, которая помогает организациям назначать и координировать роли и обязанности по управлению рисками в сфере ИИ.

Модель «трех линий защиты» различает четырех участников, представленных в виде синих ящиков: руководящий орган, который несет ответственность перед заинтересованными сторонами за надзор за организацией; руководство, которое принимает меры для достижения целей организации; систему внутренней этической оценки ИИ продукта, а для проверки системы ИИ на предмет потенциальных предвзятостей, несправедливости или вредных воздействий, приглашаются внешние аудиторы.

В эту модель, состоящую из ящиков и ролей, входят продукты и услуги клиентов, а также управление рисками; она отвечает за внутренний аудит (Schuett, 2025: 495).

Синтез идей Б. Мепхэма, Л. Флориди и Дж. Мёкандера демонстрирует эволюцию подхода к этике ИИ: от структурирования конфликтов через матрицы – к их практическому разрешению через аудит.

Этическая матрица начинается с общепринятых этических принципов и интерпретирует эти этические проблемы в соответствии с ситуациями всех затрагиваемых сторон. Например, при внедрении ИИ при найме сотрудников матрица Б. Мепхэма выявляет риски для психического здоровья кандидатов и репутации работодателя.

Этический дизайн (Floridi, Cowls, 2019) обеспечивает прозрачность алгоритмов, исключая скрытые предубеждения.

Процедурный аудит (Mökander et al., 2023) проверяет соответствие NYC Local Law 144, требующей независимой оценки систем перед использованием. Как заключают ученые, «аудит ИИ не роскошь, а необходимое условие для интеграции технологий в общество» (Mökander et al., 2023: 237).

Данный подход позволяет не кодифицировать этику ИИ. Аудит на основе этики помогает идентифицировать, визуализировать и сообщать, какие нормативные ценности встроены в систему (Mökander, Floridi, 2021).

Будущее развитие этой области видится в создании глобальных стандартов, аналогичных GAAP в финансах, и автоматизации аудита через инструменты непрерывного мониторинга (CAAI). Это позволит преодолеть разрыв между принципами и практикой, сделав ИИ не только инновационным, но и социально ответственным.

Таким образом, этическая матрица оценивает воздействие ИИ на пользователей, разработчиков и общество, выявляя риски, такие как манипуляция через персонализацию или цифровое неравенство (Mepham, 2000). Например, в случае ChatGPT матрица помогает балансировать между автономией пользователей и необходимостью цензуры.

Трехслойный аудит охватывает стратегический, операционный и технический уровни разработки. На первом из них компании согласуют цели с принципами OECD AI, на втором – внедряют методологии VSD, а на третьем – используют инструменты вроде Fairlearn для коррекции смещений (Floridi, 2023). Реализация этого подхода в проекте диагностики рака Google Health позволила снизить предвзятость за счет прозрачности данных и участия врачей.

С точки зрения методологии этика аудита в сфере ИИ – процесс, в пределах которого прошлая или настоящая деятельность организации оценивается на предмет соответствия предопределенным стандартам, правилам или нормам (Mökander, Floridi, 2021).

Итак, этический аудит в сфере искусственного интеллекта представляет собой процесс, который выходит за пределы формальных требований закона и технических стандартов, обращаясь к моральным императивам, стоящим за разработкой и внедрением технологий. В его основе лежат добровольно принятые принципы – от прозрачности до справедливости, предложенные авторитетными международными институтами, такими как IEEE или OECD.

Эти принципы, несмотря на различия в формулировках, сходны в одном: они задают ориентиры для оценки того, как системы ИИ влияют на общество, даже если подобное воздействие не регулируется конкретными правовыми нормами.

Суть этического аудита раскрывается через два взаимодополняющих подхода. Первый – совместный аудит – предполагает диалог между независимыми экспертами и разработчиками. Вместе они анализируют, насколько алгоритмы соответствуют заявленным этическим ценностям, будь то минимизация предвзятости или обеспечение прозрачности решений. Например, фармацевтическая компания AstraZeneca привлекла сторонних аудиторов, чтобы проверить, как ее ИИ-системы для разработки лекарств соотносятся с ее же принципами этики.

Второй подход – состязательный аудит – выстроен иначе: независимые исследователи или активисты изучают систему «извне», без доступа к ее внутренней логике, выявляя скрытые риски, которые могут остаться незамеченными при сотрудничестве с разработчиками.

Если первый подход создает гарантии для стейкхолдеров, то второй служит инструментом общественной критики, предотвращая ситуацию, когда этика становится лишь декларацией.

Однако этический аудит не существует в вакууме. Он тесно переплетается с техническими и юридическими проверками, образуя единый континуум оценки. Техническая надежность системы и ее соответствие закону – необходимая основа, но недостаточная для этичности. Например, алгоритм, технически корректно сортирующий резюме, может воспроизводить исторические предубеждения, оставаясь «легальным», но аморальным. Именно здесь этический аудит становится мостом между буквой закона и духом справедливости, между кодом и ценностями.

Заключение . Использование искусственного интеллекта (ИИ) в цифровых технологиях приводит к глубокой социотехнической трансформации. По мере того, как системы становятся полностью автономными, возникает риск того, что люди станут зависимыми от них. Когда искусственный интеллект предвзято относится к людям, они теряют свою самостоятельность, чтобы служить потребностям технологий, а не наоборот.

Этический аудит – это не просто проверка цифровых инноваций на соответствие шаблонам, а форма коллективной рефлексии, которая заставляет пересматривать саму суть технологического прогресса. Он напоминает, что даже в мире алгоритмов и данных ключевые решения остаются человеческими, а значит, требуют не только точности, но и мудрости.

Синтез философской критики и практических методов формирует этику ИИ, где технологии служат обществу через регулирование, прозрачность и ответственность.

Этика ИИ не барьер, а основа устойчивых инноваций. Специалисты в сфере ИИ могут:

  • 1.    внедрять методологии VSD и EAD для превентивного устранения рисков;

  • 2.    использовать инструменты аудита (Model Cards, Fairlearn) для обеспечения прозрачности;

  • 3.    формировать междисциплинарные команды с участием философов, юристов и социологов.

Реализация этой модели требует сотрудничества философов, инженеров и дизайнеров.

Статья научная