Безопасность частной жизни человека при взаимодействии с генеративным искусственным интеллектом

Бесплатный доступ

В данной научной статье критически рассматривается сложная динамика неприкосновенности частной жизни в эпоху повсеместного использования Интернета, подчеркиваются растущие проблемы, связанные с генеративным искусственным интеллектом. С каждым годом появляется все больше возможностей для мошенничества в интернете, так как люди оставляют за собой большой цифровой след. Это помогает злоумышленникам собирать информацию о человеке и использовать ее в своих целях. Одним из способов мошенничества является применение нейронных сетей в незаконных схемах. Это говорит о том, что необходимо вырабатывать механизмы взаимодействия с искусственным интеллектом, которые позволят обезопасить человека от мошенничества и любого другого посягательства на частную жизнь. Исследование выступает за усиление мер безопасности, выходящих за рамки обычной практики "цифровой гигиены". В нем предлагаются стратегические подходы, включая всестороннюю переоценку присутствия в Сети и использование передовых инструментов для сокрытия персональных данных. В конечном счете, в статье подчеркивается важность осведомленности пользователей, непрерывного обучения новым технологиям и бдительных цифровых практик для укрепления кибербезопасности.

Еще

Цифровая гигиена, генеративный искусственный интеллект, безопасность в интернете, защита от мошенничества

Короткий адрес: https://sciup.org/14128907

IDR: 14128907   |   DOI: 10.47813/2782-2818-2023-3-4-0342-0348

Текст статьи Безопасность частной жизни человека при взаимодействии с генеративным искусственным интеллектом

DOI:

В последнее время все более актуальными становятся проблемы взаимодействия человека с генеративным искусственным интеллектом. Генеративный искусственный интеллект – это тип системы искусственного интеллекта, которая может генерировать уникальный или оригинальный контент, такой как текст, аудио, видео или изображения по запросу [1]. Данные системы, благодаря своей широкой применимости, приобрели большую известность, что привело к появлению новых угроз, связанных с безопасностью в интернете.

По мере того, как пользователи вносят свой вклад в огромный объем данных, особенно те, кто обладает повышенным эмоциональным интеллектом и предрасположен делиться сложными подробностями о себе, граница между виртуальной и реальной приватностью становится все более размытой.

ПРОБЛЕМА ДОСТУПНОСТИ ПОЛЬЗОВАТЕЛЬСКИХ ДАННЫХ

Всеобщий доступ в интернет был признан ООН как базовое право человека [2]. Данное решение является свидетельством того, что интернет стал неотъемлемой частью жизни многих людей. Привело это к тому, что практически каждый активный пользователь оставляет в сети множество информации о себе и своём окружении. Люди, имеющие высокий эмоциональный интеллект также более склонны делиться информацией о себе с другими людьми [3]. Этой информации может быть вполне достаточно для того, чтобы составить точный портрет человека.

В реальной жизни человек имеет определенные имя и фамилию, внешность, место проживания и интересы. Эти отличительные признаки практически невозможно повторить или изменить, что позволяет однозначно распознать человека. В интернете, в свою очередь, проверить, с кем происходит взаимодействие значительно сложнее. Это обусловлено как тем, что интернет оставляет много возможностей для искажения информации и анонимизации пользователей, но и тем, что мошенники, используя достижения технического прогресса, могут достаточно правдоподобно выдавать себя за другого человека. В таких условиях частная жизнь не только в пределах интернета, но и в реальной жизни оказывается под угрозой [4].

ПРИМЕНЕНИЕ ГЕНЕРАТИВНОГО ИСКУССТВЕННОГО ИНТЕЛЛЕКТА МОШЕННИКАМИ

При помощи генеративного искусственного интеллекта возможно воссоздать голос человека, повторить его внешность и даже особенности его стиля письма или поведения [5]. Это становится возможным вследствие того, что нейронные сети обучаются на оригинальных данных, которые с точностью описывают поведение человека. А так как, вследствие вышесказанного, люди оставляют в интернете много информации о себе, собрать необходимые данные может практически любой человек. Для достаточно правдоподобного клонирования голоса человека достаточно собрать около часа материала [6]. А обработав несколько фотографий человека с разных ракурсов, возможно создать максимально похожую на оригинал цифровую модель человека. Сопоставив полученные результаты, появляется возможность ввести в заблуждение практически любого человека при помощи реалистично воссозданной комплексной модели, которую можно запрограммировать так, как хочет злоумышленник.

Все вышеперечисленное говорит нам о том, что в интернете необходимо следовать определённым правилам, чтобы предотвратить нежелательные последствия. Если ранее было достаточно соблюдать правила «цифровой гигиены» и ответственно подходить к работе за компьютером, то сейчас необходимо также использовать дополнительные средства, усложняющие сбор данных о человеке или даже минимизировать «цифровой след» человека [7].

ВАРИАНТЫ БОРЬБЫ С ИНТЕРНЕТ-МОШЕННИЧЕСТВОМ

Подход к решению проблемы сбора данных о человеке и использовании их против него должен быть комплексным. Полностью нивелировать влияние данной угрозы возможно только путём полного отказа от освещения своей жизни в интернете и минимизации своего «цифрового следа». Достичь этого не всегда предоставляется возможным, так как многие популярные сервисы так или иначе собирают данные о человеке, его интересах, местоположении и так далее. Даже современные технологии «Интернета вещей», которые используется во многих домах, п одвергаются заражениям вредоносным программным обеспечением и DDoS-атакам, что приводит к утечке персональных данных [8]. А факт того, что пользоваться некоторыми приложениями невозможно анонимно, заставляет пользователей добровольно предоставлять сведения о себе, при этом осознавая, что никто и никогда не даст стопроцентной гарантии того, что данные никогда не будут украдены или проданы третьим лицам вследствие масштабной кибератаки, человеческого фактора или иного другого происшествия.

Наиболее правдоподобным является путь внедрения специальных способов, затрудняющих обработку полученной информации. Как вариант, возможно перед публикацией пользователем видеоролика, при помощи дополнительного программного обеспечения, внедрять незаметные для человеческого восприятия артефакты. Это может быть как один из видов белого шума, так и применение специализированных алгоритмов сжатия или нанесение водяных знаков. В таком случае, нейронная сеть злоумышленника не сможет обработать полученные данные, так как программа, в большинстве случаев, не сможет корректно отделить оригинальный голос от искусственно внедрённых артефактов. К сожалению, даже такие способы не дают гарантии безопасности, так как параллельно с совершенствованием средств защиты информации, улучшаются и способы их преодоления.

Также немаловажным остаётся требование всегда перепроверять любую поступающую информацию. Личную страницу знакомого человека всегда могут взломать, новости могут быть подложными, а незнакомцы в интернете всегда могут оказаться злоумышленниками. Ничто не защитит человека от опасностей лучше, чем собственная внимательность и осведомлённость. «Цифровая гигиена», хоть и недостаточна, но всё также актуальна [9-10]. Данные способы дают лишь начальное представление о том, как следует вести свою деятельность в интернет-среде и каких опасностей следует остерегаться.

ЗАКЛЮЧЕНИЕ

Применение вышеприведенных способов защиты данных в интернете поднимет уровень осведомлённости пользователей, а, следовательно, уровень общей безопасности в интернет-среде. Необходимость этого продиктована тем, что эффективнее предотвращать возникновение проблемы, чем бороться с её последствиями. Иными словами, принять меры для недопущения возникновения инцидента значительно проще чем, столкнувшись с проблемой, исправить сложившуюся ситуацию. Необходимо вдумчиво подходить к ведению деятельности в интернете, изучать новые технологии, а также серьёзно относиться к применению генеративного искусственного интеллекта и понимать какие угрозы он может нести.

Статья