Модерация контента: от нормативной обязанности к контролю над информацией
Автор: Саранкина Н.Д.
Журнал: Власть @vlast
Рубрика: Политические процессы и практики
Статья в выпуске: 1 т.34, 2026 года.
Бесплатный доступ
Статья посвящена актуальным проблемам модерации онлайн-контента. С одной стороны, эта деятельность является обязательной для большинства цифровых платформ, с другой – она наделяет платформы возможностью определять пределы распространения тех или иных материалов. Автор исследует российский и зарубежные подходы к регулированию процедур модерации.
Модерация контента, цифровые платформы, свобода слова, доступ к информации, права пользователей
Короткий адрес: https://sciup.org/170211796
IDR: 170211796
Content Moderation: From a Regulatory Obligation to Information Control
The article examines current issues related to online content moderation. While this activity is mandatory for most digital platforms, it also empowers platforms to determine the limits of dissemination of certain materials. The author examines Russian and international approaches to regulating moderation procedures.
Текст научной статьи Модерация контента: от нормативной обязанности к контролю над информацией
В эпоху цифровых технологий расширяется доступ человека к любым видам информации. Это усложняет задачу государства в поиске баланса между конституционной свободой мысли и слова, включая право свободно искать, получать, передавать, производить и распространять информацию, и ограничением определенных видов контента.
Важнейшим инструментом регулирования интернет-контента является модерация – деятельность онлайн-площадок по контролю за соответствием размещаемой информации установленным правилам и нормам, по выявлению и удалению нежелательной или вредоносной информации.
Предоставление площадкам возможности самостоятельно модерировать размещаемый контент тесно сопряжено с принципом саморегулирования цифровых платформ. При этом поиск равновесия между саморегулированием и наложением правовых ограничений на распространение той или иной информации выражается в наличии различных подходов к модерации.
В рамках первого подхода на законодательном уровне закрепляется обязанность платформ предотвращать размещение запрещенного контента. Так, например, ст. 10.5 федерального закона № 149-ФЗ «Об информации, информационных технологиях и о защите информации» (далее – ФЗ № 149) закреплена обязанность владельца социальной сети осуществлять обязательный мониторинг социальной сети, размещать ежегодный отчет о результатах мониторинга, закреплять порядок модерации в правилах использования социальной сети.
Таким образом, этот подход хотя и устанавливает обязанность платформ проверять размещаемый контент, но оставляет широкое пространство для дискреции относительно процедуры и способов модерации.
Второй подход предполагает более подробное закрепление процесса модерации, в частности за счет наличия разъяснений компетентных органов, лучших практик, рекомендаций.
Так, например, в Великобритании Управление комиссара по информации (ICO) выпустило руководство «Модерация контента и защита данных»1, направленное на разъяснение обязанностей по мониторингу контента, установленных Законом Великобритании об онлайн-безопасности (Online Safety Act, OSA)1.
Руководство содержит как нормативные предписания, так и рекомендованную лучшую практику, предназначенные для усиления мер по защите пользовательской информации при модерации. Документ акцентирует внимание на необходимости соблюдения приватности, рекомендует выработать рекомендации для модераторов, которыми те будут руководствоваться при проверке контента, а также регулярно проверять любые услуги, которые передаются на аутсорсинг.
Следовательно, в рамках второго подхода не только устанавливается общая обязанность модерации контента, но и детализируются процедуры такой модерации. Установление подробных принципов осуществления модерации представляется более полезным для защиты прав пользователей.
Не менее дискуссионным является вопрос определения предмета модера- ции и тех пределов, в рамках которых модерация может осуществляться, не нарушая прав пользователей.
В соответствии с ч. 1 ст. 10 ФЗ № 149 в Российской Федерации осуществляется свободное распространение информации при соблюдении установленных законодательством требований2. Частью 6 ст. 10 ФЗ № 149 установлены категории информации, распространение которой запрещено.
Статья 10.6 ФЗ № 149 закрепляет перечень информации, по отношению к которой осуществляется обязательный мониторинг со стороны владельца социальной сети. В частности, к этому перечню относится информация о наркотических средствах, психотропных веществах и их прекурсорах, о способах совершения самоубийства, информация, направленная на склонение или иное вовлечение несовершеннолетних в совершение противоправных действий, представляющих угрозу для их жизни и здоровья либо для жизни и здоровья иных лиц, и т.д.
Помимо перечня запрещенной информации, установленого законом, недо- пустимым для размещения контентом может быть признана и иная информация, нарушающая правила платформы. Так, перечень контента, запрещенного платформой ВКонтакте, шире установленного законом: например, не разрешается публиковать «вульгарную или непристойную» информацию, распространять сведения о «цифровых наркотиках» (звуковые файлы, оказывающие воздействие на мозг человека за счет бинауральных ритмов)3.
Более того, на различных платформах одной экосистемы могут быть уста- новлены различные категории запрещенной информации. Например, в перечень запрещенной сайтом Одноклассники информации входят материалы коммерческого характера, связанные с оккультной тематикой4.
Изменение интернет-платформами общепринятых правил модерации может приводить к резонансным случаям.
Так, например, в 2022 г. компания Meta5 заявила, что некоторым пользова- телям сервисов Facebook и Instagram1 будет временно разрешено размещать публикации с призывами к насилию в отношении некоторых категорий российских граждан (публичных лиц и военнослужащих)2. В результате платформы экосистемы Meta3 на территории Российской Федерации были забло- кированы.
В 2020 г. практически на всех крупных платформах началась кампания по борьбе с дезинформацией относительно пандемии COVID -19. Facebook заявил о намерении удалять любую информацию о лекарствах от корона-вируса4 и мифах о вакцинации5. Facebook подвергся критике за свою непоследовательную позицию в отношении работы с информацией, т.к. на платформе продолжали распространяться другие спорные посты и рекламные объявления6.
Также в 2020 г. во время предвыборной кампании в США пользователи Facebook столкнулись с недостоверной политической рекламой, микро- таргетингом по политическим взглядам, недобросовестной онлайн-агита- цией, что могло оказать значительное влияние на волеизъявление избирателей, т.к. платформа навязывала определенную политическую повестку7. В 2021 г. после ряда политических заявлений Дональда Трампа относительно
«штурма Капитолия» его аккаунт в социальной сети был заблокирован на неопределенный срок8. По сути, платформа в нарушение Первой поправки к
Конституции США ограничила свободу слова. Как позднее отмечал независимый надзорный совет Facebook , бессрочная блокировка вопреки стандартам и руководящим принципам компании была необоснованной9.
Неоднозначным инструментом модерации является действующий на некоторых площадках «теневой бан» – фильтр, который блокирует контент поль- зователя, нарушающего правила использования платформы, неявным для пользователя образом (например, снижение просмотров контента). Обычно правила применения модераторами «теневого бана» не содержатся в правилах использования платформы, поэтому пользователям может быть затруднительно предугадать, какое их действие может привести к «теневому бану», а также как из него выйти. Эти факторы особенно обостряются при наличии
5d 3 c 4
в пользовательских соглашениях широких подходов к определению информации, подлежащей удалению с платформы.
Кроме того, на некоторых платформах действует много различных политик и руководств. Например, правила использования видеохостинга YouTube настолько запутанны, что на портале поддержки пользователей существует специальная страница «Как найти нужное соглашение»1. Следовательно, в случае если платформа выработала собственный перечень недопустимой информации, который шире предусмотренного законом, пользователю может быть сложно найти его среди большого объема внутренних политик платформы.
Таким образом, широкий подход к определению предмета и границ модерации способен нанести вред правам пользователей, расширение списка запрещенной к распространению информации фактически позволяет частным компаниям ограничивать свободу мысли и слова, что должно оставаться прерогативой государства.
Однако, как уже было упомянуто, для цифровой среды характерен принцип саморегулирования. Важным условием такого саморегулирования для обеспечения стабильности общественных интересов должен выступать ответственный подход бизнеса. Расширение платформой списка нежелательной информации должно быть обусловлено исключительно стремлением создания безопасной цифровой среды и защиты прав пользователей. То есть, полезный эффект от установления более широкого по сравнению с установленным законом перечня должен быть выше эффекта от допустимости распространения того или иного контента, вызывающего сомнение относительно его деструктивности.
Не менее важным вопросом в рамках регулирования правового режима деятельности по модерации контента является вопрос правовых последствий неправомерной модерации.
В приведенном выше случае с блокировкой аккаунта Дональда Трампа независимый надзорный совет Facebook обнаружил нарушение компанией своих же стандартов и руководящих принципов. Несмотря на то что в 2023 г. аккаунт политика был восстановлен, Facebook не понес ответственности за нарушение своих же внутренних правил.
Известен случай, когда блокировке аккаунтов и удалению фотографий на Facebook были подвергнуты пользовательницы закрытой группы по поддержке женщин, страдающих от рака молочной железы2. Их аккаунты были заблокированы на непродолжительный срок без возможности оспорить решение платформы. При этом правила Facebook напрямую разрешают публикацию фотографий, призванных повысить осведомленность о рисках, связанных с раком, и поддержать пациентов с данным диагнозом.
Вероятно, данные фотографии были распознаны автоматизированным инструментом модерации как нарушающие правила платформы. Для автоматизированных систем модерации характерны ошибки, которые могут привести к тем или иным негативным последствиям.
Согласно вышеупомянутому руководству «Модерация контента и защита данных» комиссара по информации ( ICO ) Великобритании, онлайн-плат-формы должны убедиться, что любые технологии, которые используются для обработки личной информации (в т.ч. искусственный интеллект), являются статистически точными и не склонными к дискриминации, поэтому рекомендуется регулярно проверять системы модерации на точность и непредвзятость.
Принятый в Казахстане в 2023 г. закон «Об онлайн-платформах и онлайн-рекламе» вводит статью, посвященную модерации контента1. В статье закреплен ряд обязанностей собственника онлайн-платформы, среди которых, в частности, совершенствование систем модерации контента и алгоритмов искусственного интеллекта.
Статья 13.50 Кодекса РФ об административных правонарушениях устанавливает ответственность владельцев социальных сетей за неисполнение обязанности по мониторингу социальной сети и принятию мер по ограничению доступа к запрещенной законом информации2. Однако в законодательстве отсутствуют меры юридической ответственности за последствия неправомерной модерации, в т.ч. за ошибки.
Тем не менее введение таких мер представляется излишним. Каналы обратной связи цифровых платформ, наличие которых необходимо в соответствии с требованиями ФЗ №149, должны выступать эффективным инструментом взаимодействия администрации платформы с пользователем. Через службу поддержки пользователю должны быть доступны подача жалобы на блокировку, получение информации о причинах блокировки, получение компенсации за инциденты ошибочной блокировки.
Следование мягкому подходу в решении данного вопроса позволит поддержать саморегулирование цифровой среды на началах сотрудничества с пользователями.
Однако такие инструменты обратной связи должны быть действующими и результативными. Так, например, приложение для знакомств Tinder известно своей политикой «вечной» и бесповоротной блокировки аккаунтов. При блокировке пользователь уведомляется о том, что это «решение окончательное» и он лишается возможности создать новый аккаунт в будущем. Такую практику нельзя признать позитивной.
Сегодня модерация становится необходимым условием распространения контента. Представляется важным построение процесса модерации с учетом сотрудничества и диалога платформы с пользователем.
Повысить эффективность и непредвзятость модерации, а также учесть требования различных юрисдикций возможно путем переноса функции по модерации контента на аутсорсинг. Внедрение данной меры потребует определения ответственного за внешнюю модерацию субъекта, что может быть выражено в назначении специального уполномоченного органа, определении субъекта на конкурсе, включении в реестр уполномоченных субъектов, выдаче лицензий и т.д. Помимо прочего, потребуется выработка правил осуществления модерации, которые будут использованы как важные механизмы унификации принципов работы модераторов.