Анализ инновационных технологий в контексте информационной безопасности

Автор: Лунева Светлана Курусовна, Семенова Вера Николаевна, Комиссарова М. А.

Журнал: Технико-технологические проблемы сервиса @ttps

Рубрика: Организационно-экономические аспекты сервиса

Статья в выпуске: 2 (72), 2025 года.

Бесплатный доступ

Актуальность исследования обусловлена необходимостью анализа эффективности политики конфиденциальности в контексте кибербезопасности для программ искусственного интеллекта, включающих агентов ИИ, используемых различными организациями для повышения эффективности своей работы. В статье рассматриваются случаи утечки данных и потенциальные последствия таких событий, политика конфиденциальности нескольких популярных моделей, таких как: Gemini, Gemma, iAsk, DeepSeek, Perplexity, ChatGPT и Claude.

Безопасность, кибербезопасность, искусственный интеллект, ии-агенты, менеджмент

Короткий адрес: https://sciup.org/148331308

IDR: 148331308

Текст научной статьи Анализ инновационных технологий в контексте информационной безопасности

Введение.

Жизнедеятельность современного человека связана с необходимостью коммуникации с различными организациями, структурами, предприятиями, сообществами при взаимодействии с которыми люди предоставляют личные персональные данные о себе, как в профессиональной сфере, так и в личной жизни. Возможности получения консультаций дистанционно, появление чат-ботов способно избавить от необходимости посещения специалистов различного профиля, в том числе медицинских, использование телемедицины, предлагают удобную и доступную альтернативу для решения широкого спектра проблем, как профессионального, так и личного характера.

С быстрым развитием технологий искусственного интеллекта (ИИ) и появлением ИИ-агентов многие компании начали активно внедрение их в свою деятельность, что дает возможность в том числе сократить персонал компаний, а в некоторых ситуациях происходит делегирование программе некоторых обязанностей. ИИ-агенты или цифровые двойники демонстрируют повышенную способность к воспроизведению различных личностей. Хотя в настоящее время эти агенты не обладают полной идентичностью, они уже начали заменять людей в различных ситуациях, таких как онлайн-встречи, и могут отвечать на запросы по темам, по которым они прошли обширную подготовку.

EDN SPLVED

Безусловно такой подход имеет экономическую привлекательность, позволяет сокращать некоторые расходы, что способствует повышению производительности труда, т.е. становится возможным выполнять больший объем работы за меньшее количество времени. Тем не менее при использовании программ с искусственным интеллектом существуют некоторые недостатки, касающиеся как достоверности получаемых данных, так и безопасности конфиденциальных данных, предоставляемых сотрудниками организации ИИ программе. В данной статье будет рассмотрены особенности данных угроз безопасности, а также потенциальные последствия в случае утечки данных, а также политика, связанная с предоставлением персональных данных этим программам, с акцентом на их использование третьими сторонами.

Компании и организации, собирающие биометрические данные, включая отпечатки пальцев, радужную оболочку глаз и фотографии лиц, аккумулируют огромный массив информации, который при неблагоприятных условиях и возможностях ИИ-агентов (а в некоторых ситуациях намеренно) можно использовать против людей, данные которых сохранены в этой базе, что может привести к так называемой «краже личности». [1]

Люди все чаще обращаются за консультацией к ИИ программам как по личным вопросам, доверяя свои секреты, по работе, делясь профессиональными вопросами, а также в связи с другими причинами. Преимуществами использования ИИ программы является удобство, доступность, более низкая стоимость по сравнению с посещением специалистов, а также это экономия времени.

В статье, опубликованной в MIT Technology Review, описываются случаи взаимодействия людей с искусственным интеллектом, которых становится все больше и больше с каждым днем, что указывает на востребованность данного общения. В статье указывается, что в системе государственного здравоохранения Канады очередь на получение помощи в области психического здоровья составляет два года, поэтому использование ИИ становится более эффективным и своевременным способом получения помощи. [3] В исследовании, опубликованном в Harvard Business Review, говорится о том, что в 2025 году самой популярной областью использования генеративного ИИ является – терапия, а также Востребованными являются вопросы организации жизни и поиска целей. Область психологии стала играть более заметную роль, чем решение научных проблем, которые ранее были более приоритетными. [4]

Сложные возможности, которые делают агентов полезными помощниками, также превращают их в мощные инструменты для проведения кибератак. С их помощью можно легко определить уязвимые цели, захватить их системы и похитить ценные данные у ничего не подозревающих пользователей. В настоящее время киберпреступники не используют ИИ-агентов для масштабных взломов, так как на данный момент модели не способны автономно добиваться успеха в этой среде. Однако исследователи продемонстрировали, что агенты могут совершать сложные атаки. Например, команда из Anthropic обнаружила, что их Claude, оснащенный программными инструментами, разработанными исследователями кибербезопасности, может воспроизвести крупномасштабную атаку на кражу личных данных, аналогичную известной крупномасштабной краже из бюро кредитных историй. Кроме того, эксперты по кибербезопасности предупреждают о возможности распространения подобных атак в реальном мире. [5] [6]

Необходимо признать, что, когда люди передают личные данные таким программам, существует риск того, что эта информация может попасть к злоумышленникам и впоследствии может быть использована для нанесения вреда человеку и его работодателю. Политика конфиденциальности программ в некоторых случаях имеет некоторые пробелы и недостаточную прозрачность, поэтому крайне важно использовать только проверенные программы, полученные от официальных производителей и не использовать программы, которые были получены из непроверенных источников.

Материалы. Исследование политики конфиденциальности ИИ моделей

В большинстве случаев ИИ программы используют похожую политику конфиденциальности и условия использования, охватывающие сбор, хранение и использование личной информации в различных целях, а также ее использование третьими лицами. В дальнейшем мы рассмотрим политику конфиденциальности нескольких известных программ искусственного интеллекта. Необходимо отметить, что у рассматриваемых моделей в политике конфиденциальности, что личная информация может быть получена третьими лицами обманным путем и впоследствии ис- пользована во вред как компаниям, так и пользователям. В данной статье мы рассмотрим политику конфиденциальности нескольких популярных моделей, таких как: Gemini, Gemma, iAsk, DeepSeek, Perplexity, ChatGPT и Claude.

На ИИ Gemini от Google распространяются условия использования и политика конфиденциальности Google, собирается информация о пользователях, которая может быть, как анонимизирована, так и персонализирована при входе в аккаунт и при каждом последующем использовании. Однако даже когда аккаунт Google не используется, Google сохраняет и накапливает данные, используя уникальные идентификаторы для различения разных пользователей. Эти идентификаторы отличаются по способу доступа к ним, сроку действия и возможности сброса пользователем. Кроме того, они связаны с браузерами, приложениями и устройствами, используемыми пользователем. Это позволяет Google сохранять уникальные настройки и другие данные, включая предпочитаемый язык, настройки персонализации рекламы и результаты поиска. [7]

Другая модель Google Gemma также собирает разнообразную информацию, включая данные учетной записи, информацию об использовании, используемом устройстве, файлы cookie и платежную информацию. Однако в политике конфиденциальности указано, что контент, обрабатываемый пользователями с помощью модели, не сохраняется для целей обучения, если только не было дано явное согласие на усовершенствование модели. Для улучшения работы модели и устранения неполадок может собираться анонимная статистика использования; однако, учитывая, что ни один способ передачи данных через Интернет или их хранения в электронном виде не является на 100% безопасным, Google LLC не гарантирует абсолютную безопасность. В определенных обстоятельствах раскрытие личной информации допустимо как по закону, так и в соответствии с другими положениями. [8]

Использование iAsk AI (Ai Search Inc) может быть настроено после входа в учетную запись, как с активным участием, так и без него. При использовании платформы iAsk собирается ряд данных. К ним относятся личные данные, такие как имя, адрес доставки, адрес электронной почты и номер телефона. Кроме того, могут собираться демографические данные, такие как возраст, пол, родной город и интересы. Также собираются технические данные, включающие IP-адрес, тип браузера, операционную систему, время доступа, а также URL-адреса, посещенные до и после доступа к iAsk. Данные третьих лиц, включающие личную информацию или онлайн-друзей, могут быть получены, если существует связь между учетной записью пользователя и третьей стороной, и iAsk получил явное согласие. Компания может использовать эти данные для различных целей, включая персонализацию и обмен с третьими сторонами. В некоторых ситуациях собранная информация может быть раскрыта. Такое раскрытие может произойти при определенных обстоятельствах, включая юридические обязательства, судебные разбирательства или защиту прав, предоставление услуг или продуктов сторонними поставщиками, маркетинговые и рекламные мероприятия, сделки с участием третьих лиц, а также случаи продажи или банкротства компании. В политике конфиденциальности указано, что всеобъемлющая гарантия безопасности невозможна. В ней отмечается, что пользователи, решившие предоставить личную информацию, признают потенциальный риск, связанный с этим, поскольку любая информация, раскрытая в интернете, может быть перехвачена и использована неавторизованными лицами. Также при удалении аккаунта некоторая информация может быть сохранена. [9]

DeepSeek собирает данные, предоставляемые пользователями, включая различные виды информации, такие как информация об учетной записи, пользовательские данные, включая ввод текста, отправку запросов, загруженные файлы, отзывы, историю чата или другой контент, а также информацию, предоставляемую при контакте, такую как подтверждение личности или возраста, контактная информация, отзывы или запросы. Кроме того, информация систематически собирается с помощью автоматических средств, включая данные об устройстве и сети, журнальную информацию, геолокацию, файлы cookie и связанные с ними технологии, а также платежную информацию. Практика сбора данных распространяется не только на платформу, но и на такие источники, как Apple или Google, особенно в тех случаях, когда аккаунт пользователя связан с сервисами третьих сторон. Кроме того, сбор публичной информации упоминается, как компонент более широкой агрегации данных. Информация о пользователях используется, как для внутренних процессов, так и может быть передана третьим лицам в ходе корпоративных сделок и выполнения юридических обязательств. Политика конфиденциальности признает риски безопасности, связанные с передачей данных через интернет или электронную почту. В частности, безопасность электронных почтовых сообщений может быть нарушена. Чтобы снизить эти риски, пользователям рекомендуется проявлять осторожность при выборе информации для передачи через программу или по электронной почте. Сервисы предоставляются и контролируются компанией Hangzhou DeepSeek Artificial Intelligence Co., Ltd. [10]

Компания Perplexity AI, Inc. собирает определенные типы пользовательских данных из различных источников. Собирается контактная информация, информация об учетной записи, платежная информация, информация о соискателях (например, информация о резюме, рекомендациях и истории работы), а также информация о взаимодействии с Perplexity. В случае если пользователи делают контент общедоступным или передают его третьим лицам, этот контент может храниться, отображаться, воспроизводиться, публиковаться или иным образом использоваться или раскрываться без разрешения пользователей и может быть приписан или не приписан им. Кроме того, компания и третьи лица, включая Google, LinkedIn, Apple, Monster, Discord, X (бывший Twitter) и Indeed, могут получать доступ к пользовательским данным. Также доступ к информации о пользователе может быть передан дочерним компаниям или другим организациям, входящим в корпоративную группу Perplexity AI, Inc, поставщикам услуг, деловым партнерам, рекламным партнерам, профессиональным консультантам, для осуществления деловых операций и другим третьим лицам, включая других пользователей и в соответствии с законодательством. Компания также указала, что передача информации не является полностью безопасной и что необходимо принимать во внимание такие риски. [11]

В модели ChatGPT, разработанной OpenAI, есть несколько моделей и режимов, в которых условия конфиденциальности варьируются. Например, в модели ChatGPT «временные чаты» не используются для обучения моделей, API или клиентских данных. Пользователи ChatGPT Free и Plus имеют возможность контролировать данные, используемые компанией для обучения моделей. Компания не обучает свои API, ChatGPT Enterprise или ChatGPT Team с помощью данных клиентов по умолчанию. Личная информация не используется для обучения моделей компании. Кроме того, общедоступная информация в Интернете не используется для создания профилей людей, рекламы или таргетинга, а также для продажи пользовательских данных. Модели OpenAI генерируют новые слова каждый раз, когда им задают вопрос. Они не хранят информацию в базе данных, чтобы потом вспомнить, и не «копируют и вставляют» учебную информацию при ответе на вопросы. При этом компания собирает пользовательские данные, включая информацию об учетной записи, пользовательский контент, контактную информацию, техническую информацию и другую информацию, которую предоставляют пользователи. Компания использует обезличенную информацию в обезличенном виде и не идентифицирует такую информацию повторно, за исключением случаев, когда к этому вынуждает закон. Компания может использовать контент, предоставленный пользователями, для улучшения своих услуг, включая обучение моделей, на которых основан ChatGPT. [12]

В модели Claude от Anthropic присутствует разделение на способы обработки персональных данных от имени коммерческих клиентов и для личного пользования. Программа собирает идентификационные и контактные данные, платежную информацию, входные и выходные данные, отзывы, персональные данные, а также техническую информацию, которая генерируется автоматически, включая файлы cookie и аналогичные технологии. Использование входных и генерируемых данных для обучения модели зависит от настроек, установленных пользователем. Anthropic стремится к прозрачности в отношении раскрытия персональных данных. Эта информация может быть передана третьим лицам, включая партнеров, корпоративных партнеров, поставщиков услуг и деловых партнеров. Anthropic также может раскрывать персональные данные в некоторых случаях, таких как; значимое корпоративное мероприятие, при взаимодействии со сторонними веб-сайтами. Услуги Anthropic могут включать в себя интеграцию с веб-сайтами, приложениями и услугами, управляемыми третьими сторонами, или в соответствии с нормативными или юридическими требованиями. В случае использования физическим лицом веб-сайта или услуг существует вероятность передачи его персональных пользовательских данных на серверы Anthropic, расположенные в США или других странах за пределами Европейской экономической зоны («ЕЭЗ») и Великобритании. Это может быть прямое предоставление персональных данных организации или передача, которую осуществляет организация или третья сторона. Когда собранные персональные пользовательские данные больше не требуются компания и их поставщики услуг произведут необходимые процедуры для уничтожения, удаления, стирания или преобразования данных в анонимную форму. [13]

Как свидетельствуют политики конфиденциальности рассматриваемых моделей, существуют потенциальные риски, связанные с передачей пользовательских данных третьим лицам, как в рамках пользовательских соглашений, так и в контексте киберугроз. Помимо программ, которые стали предметом данного анализа, существует множество бот-программ. Например, в последнее время выросла популярность ботов Telegram, и пользователи этих ботов могут обнаружить, что их политика конфиденциальности менее доступна для рассмотрения.

Проблемы утечек данных могут затронуть как крупные компании, так и небольшие. Далее рассмотрим некоторые случаи, произошедшие за последние несколько лет.

В марте 2023 года компания OpenAI сообщила об утечке данных, касающихся личной информации пользователей чат-бота ChatGPT. Расследование инцидента показало, что личные данные некоторых платных подписчиков сервиса могли быть раскрыты. В результате сбоя некоторые пользователи получили несанкционированный доступ к сообщениям, именам, фамилиям, адресам электронной почты и платежной информации других платных подписчиков сервиса. Значительное число компаний в России уже пользуются ChatGPT. Сервис облегчает создание маркетинговых материалов, при этом ChatGPT передает данные пользователей - как личные, так и коммерческие – на сервер, расположенный в Америке, где действует нейросеть. [14] [15]

В сентябре 2023 года исследовательская группа Wiz Research, специализирующаяся на искусственном интеллекте Microsoft обнаружила, что в ходе публикации учебного набора данных с открытым исходным кодом на GitHub Microsoft случайно раскрыла 38 терабайт дополнительных конфиденциальных данных, включая резервную копию диска с рабочих станций двух сотрудников. В резервной копии содержались секреты, закрытые ключи, пароли и в общей сложности 30 000 внутренних сообщений Microsoft Teams. Исследователи использовали функцию Azure, известную как SAS-токены, для облегчения обмена данными из учетных записей Azure Storage. При этом уровень доступа ограничивался определенными файлами, однако в данном случае ссылка была настроена на общий доступ ко всей учетной записи хранилища, включающей еще 38 ТБ личных файлов. [16]

В начале 2024 года в социальных сетях появились сообщения, указывающие на то, что некоторые страницы чатов, связанные с Gemini AI, попали в интернет. После того как компания Google устранила утечку и исправила ошибку, начались дискуссии о механизмах, лежащих в основе ИИ Gemini, и их последствиях для конфиденциальности пользователей. Были высказаны опасения по поводу хранения личных данных в Gemini AI. Согласно отчётам, разговоры потенциально могут храниться до трёх лет. [17]

Таким образом, в результате проблем с утечкой информации могут пострадать интересы, как граждан, так и разных организаций, соответственно это угрозы национальной безопасности страны и государства. Как было указано, сервис ChatGPT передает данные пользователей на сервер, расположенный в Америке, где функционирует нейросеть, что означает, что к коммерческой информации компаний из России могут иметь доступ третьи стороны [14] [15] (таблица 1).

Таблица 1 - Результаты сбоя и утечки информационных данных при использовании ИИ-моделей за 20232024 гг.

Наименование ИИ

Время утечки

Результаты сбоя и утечки информационных данных

OpenAI (чат-бот ChatGPT)

20 марта 2023

несанкционированный доступ к сообщениям, именам, фамилиям пользователей, адресам электронной почты и платежной информации (последние четыре цифры и дату истечения срока действия кредитной карты), в том числе коммерческих организаций, пострадали 1,2% пользователей

GitHub Microsoft

Сентябрь 2023

38 терабайт дополнительных конфиденциальных личных данных, включая резервную копию диска с рабочих станций, в которых содержались секреты, закрытые ключи, пароли и в общей сложности 30 000 внутренних сообщений Microsoft Teams от 359 сотрудников Microsoft»

Gemini AI

Февраль 2024

страницы чатов Gemini от Google оказались в открытом доступе и появлялись в результатах поиска Google.

У ИИ программ появляется все больше возможностей для управления нашей жизнью, так компания OpenAI выпустила Operator, своего первого ИИ-агента, который может выполнять простые онлайн-задачи в браузере, такие как бронирование билетов на концерт или заполнение он-лайн-заказа на продукты. [18] Клонирование голоса, дипфейки становятся все более качественными, возрастает также возможности для их распространения.

Однако на сегодняшний день не существует технологии, которая бы полностью защищала пользователей. Это связано в первую очередь с тем, что большинство людей активно пользуются социальными сетями и часто предоставляют обширную информацию о себе, которую можно легко получить в интернете.

Наиболее распространенные модели ИИ принадлежат ограниченному числу компаний. Исследование, опубликованное в приложении Voronoi в 2024 году, показало, что ChatGPT от OpenAI лидирует на рынке генеративного ИИ со значительным отрывом: на него приходится 82,5 % общего веб-трафика среди 40 инструментов генеративного ИИ, проанализированных в исследовании. Gemini и Poe заняли второе и третье места соответственно. В таблице 2 показаны инструменты генеративного ИИ по количеству посещений веб-сайта в марте 2024 года. [19] (таблица 2).

Исследования показывают, что компании, такие как Facebook и Instagram, используют высокие технологии искусственного интеллекта для персонализации контента пользователей, что может укрепить их убеждения и не представить разнообразие точек зрения.

Таблица 2 – Трафик ИИ моделей

N п/п

Инструмент GenAI

Трафик в марте 2024 г.

1

ChatGPT

2,3 млрд.

2

Gemini

133 млн.

3

Poe

43 млн.

4

Perplexity

40 млн.

5

Claude

32 млн.

Google также персонализирует результаты поиска, что может ограничить разнообразие информации и поддержать уже существующие убеждения. Это влияние алгоритмов может затронуть поведение потребителей и выбор избирателей. В дополнение, искусственный интеллект может использоваться для прогнозирования поведения людей путем анализа их активности и взаимо- действия в социальных сетях. Алгоритмы ИИ способны предсказывать будущие действия, что создает определенные риски и вызывает вопросы относительно прозрачности и влияния данного подхода. [20] [21]

Методы решения. Рекомендации по использованию организациями программ с искусственным интеллектом

Во многих случаях для работы коммерческих программ искусственного интеллекта требуется подключение к Интернету. В таких случаях компаниям настоятельно рекомендуется воздерживаться от ввода конфиденциальной или потенциально компрометирующей информации, которая может поставить под угрозу безопасность конкретного человека или организации. В контексте личного пользовательского взаимодействия и ИИ также рекомендуется проявлять осторожность при раскрытии информации, которая может быть использована в негативном ключе, как против человека, так и против компании или организации, которую он представляет. При работе в браузере можно использовать такие браузеры, которые предоставляют настройки анонимизации, например, Tor или DuckDuckGo.

При работе с конфиденциальной информации по возможности следует использовать офлайн ИИ модели и устанавливать в настройках запрет на сбор пользовательских и по возможности технических данных.

Также вследствие постоянно обновляющийся информации необходимо регулярно исследовать новые методы защиты данных. [22] [23]

Заключение

Результаты исследования показывают, что внедрение программ искусственного интеллекта повышает риски работы, включая возможность утечки данных и манипулирования полученными данными и использования их недобросовестными получателями в своих целях, что может оказать существенное влияние на принятие важнейших организационных решений и влиять на безопасность не только самого человека, но и безопасность общества и государства.

Несмотря на то, что использование программного обеспечения с искусственным интеллектом экономически привлекательно и способно снизить расходы организации, сохраняются опасения относительно надежности информации, получаемой с помощью таких программ. Это, в свою очередь, может негативно сказаться на качестве работы. Для уменьшения рисков, организациям рекомендуется отдавать предпочтение использованию офлайн-программ с искусственным интеллектом, когда это возможно. Кроме того, рекомендуется возлагать основные обязанности по принятию решений на человека, что обеспечит оптимальное качество результатов.

Для усиления безопасности на уровне нормативно-правовых актов в России правила безопасной разработки и использования искусственного интеллекта прописаны в обновленной в 2024 г. Стратегии развития искусственного интеллекта.

Статья научная