Криминологическое исследование потенциальных угроз для общества и государства, инициированных ростом инноваций в сфере искусственного интеллекта, и меры их предупреждения
Автор: Кобец П.Н.
Журнал: Вестник Восточно-Сибирского института Министерства внутренних дел России @vestnik-vsi-mvd
Рубрика: Уголовно-правовые науки (юридические науки)
Статья в выпуске: 3 (110), 2024 года.
Бесплатный доступ
Введение: на текущий момент безопасность общества и государства зависит от многих обстоятельств. В частности, среди ученых и практиков все больше крепнет уверенность в том, что обозначенной защищенности может серьезно угрожать усиливающийся с каждым годом рост инновационных составляющих в сфере искусственного интеллекта. По этой причине автором проведено криминологическое исследование возможных угроз для общественной и государственной безопасности, которые происходят на фоне стремительного роста цифровизации, а также обозначенных технологий. Выявление и последующее детальное изучение потенциальных рисков в рассматриваемой сфере в первую очередь необходимо с целью идентификации негативных последствий, а также их дальнейшей минимизации.
Криминологическое исследование, общественная безопасность, новые технологии, процессы цифровизации общества, опасность машинного обучения, угрозы цифровизации, причины преступности, противодействие преступности, правоохранительные органы, риски вызванные робототехникой, внедрение научных разработок, правоохранительная практика, противодействие цифровой преступности, обеспечение цифровой безопасности
Короткий адрес: https://sciup.org/143183545
IDR: 143183545 | DOI: 10.55001/2312-3184.2024.93.87.013
Текст научной статьи Криминологическое исследование потенциальных угроз для общества и государства, инициированных ростом инноваций в сфере искусственного интеллекта, и меры их предупреждения
Проблематика, связанная со становлением и развитием технологий искусственного интеллекта, уходит корнями во времена возникновения философского воззрения Р. Декарта и Т. Гоббса о вычислительной теории разума. Существенная трансформация сферы искусственного интеллекта стала происходить в 1950-х гг. года, после того как Аланом Тьюрингом было высказано предположение относительно возможности мыслительных процессов у машин [1, с. 36]. О термине «искусственный интеллект» впервые заговорили на Дартмутской конференции, которая прошла в 1956 г. Она послужила отправной точкой также для появления академической дисциплины, имеющей одноименное название, предмет которой состоит в исследовании теоретических и практических аспектов искусственных интеллектов [2, p. 17].
Как отмечают зарубежные эксперты, «в общем виде принцип работы искусственного интеллекта заключается в сочетании большого объема данных с возможностями их быстрой обработки с помощью интеллектуальных алгоритмов, что позволяет программам автоматически обучаться на базе закономерностей и признаков, содержащихся в информационных данных» [3, с. 99]. При этом сегодня среди основного конкурентного преимущества в сфере искусственного интеллекта начинают выступать сами информационные данные. Возможности использования новых технологий чрезвычайно широки, поскольку с каждым днем эти технологии входят в современные используемые нами предметы. Они присутствуют практически везде, например в обычных смартфонах – от предугадывания вводимого нами текста сообщений до автофокусирования видеокамер. Все это свидетельствует о том, что новейшие цифровые технологии не должны появиться в каком-то будущем, они существуют и используются нами уже сегодня, при этом демонстрируя свою результативность. При этом современный искусственный интеллект способен быстро принимать необходимые и оптимальные решения в режиме онлайн и одновременно анализировать колоссальные объемы информации.
Сегодня в отечественной и зарубежной науке и практике разработаны различные подходы относительно толкования рассматриваемого феномена, в то же время большинство экспертов полагают, что искусственный интеллект является сложнейшей компьютерной программно-аппаратной системой, которой присущи такие свойства, как субстантивность и автономность, а также возможность восприятия и анализа информационных данных [4, с. 123].
Актуальность проведения исследований в рассматриваемой сфере, в том числе изучения правовой проблематики, связанной с использованием анализируемых технологий, во многом подтверждается научными работами ряда отечественных правоведов: Е. В. Балацкого, И. Р. Бегишева, В. В. Бычкова, Г. А. Гаджиева, Д. С. Гришина, Н. С. Еманова, А. В. Нестерова, И. В. Понкина, С. Б. Полич, А. И. Редькиной, О. В. Ревинского, В. Н. Синельковой, Ф. В. Ужова, В. Н. Черкасовой, О. А. Ястребова и других. Кроме того, данную проблематику исследовали и зарубежные эксперты, среди которых Д. Винсен, М. Дельво, В. Курки, Н. Невеньяс, Д. Робертсон, Л. Соумул, Х.К. Сафарализода и другие.
В то же время стоит отметить, что с каждым годом анализируемая тема побуждает актуализировать все больше новых вопросов, на которые современная юридическая наука и практика пока не могут дать утвердительные ответы. В то же время уже сегодня проблематика ответственности рассматриваемых технологий является наиболее обсуждаемой всеми членами общества, а не только учеными и специалистами, активно дискутирующими по этому поводу на страницах различных правовых изданий. К людям постепенно приходит осознание потенциальных рисков и угроз, которые исходят от искусственного интеллекта.
Необходимо отметить, что вопросы, связанные с последствиями четвертой промышленной революции, впервые были озвучены главой Всемирного экономического форума К. Шваб. В частности, им было отмечено, что в процессе четвертой промышленной революции возникнут технологии, позволяющие выполнить работу самостоятельно. В результате «многие профессии и специальности перестанут быть нужными, такие как таксисты, психологи, консультанты, переводчики, бухгалтеры и десятки иных профессий» [5, с. 67].
Основные черты угроз всех промышленных революций были освещены отечественным экспертом Е. В. Балацким. Он отмечал, что «открытие паровой машины было признаком первой промышленной революции, в результате которой многие люди остались без работы. В то же время изобретение электричества считается признаком второй промышленной революции, и многие люди, потеряв работу в сфере физического труда, обратились в сферу интеллектуального труда. Изобретение электронных вычислительных машин считается признаком третьей промышленной революции, в процессе которой люди потеряли работу в сфере интеллектуального труда, а появление искусственного интеллекта является признаком четвертой промышленной революции, в результате которой многие люди теряют работу в сфере интеллектуального труда» [6, с. 10].
В настоящее время очень сложно делать прогнозы относительно всех возможных последствий после включения новых технологий в правовое поле, а также во все сферы общественной жизнедеятельности. При этом немаловажно отметить, что чрезвычайно непросто предсказывать, насколько высока в ближайшем будущем будет степень развития искусственного интеллекта, поскольку в настоящее время его развитие ограничивается рядом технических возможностей, в том числе и программным обеспечением. Когда обозначенные проблемы будут решены, как полагают многие ученые, в том числе и сам автор, то развитие рассматриваемых технологий уже ничем не будет ограничиваться [7, с. 99].
По мнению ряда экспертов, с того момента, как системам, работающим на основе рассматриваемых технологий, удастся достичь максимальных мощностей в своем развитии, они смогут превосходить возможности человека в любых сферах его жизнедеятельности. С наступлением подобной ситуации возможны фундаментальные прорывы в различных секторах, от экономики до социальной сферы и политики. Подобное развитие ситуации в области промышленной революции должно настораживать человечество появлением катастрофических рисков, которые связаны с деструктивным использованием технологий искусственного интеллекта. Причем в первую очередь могут возникнуть серьезные риски при условии развития технологий "сильного" искусственного интеллекта. В ранее проведенном исследовании автором детально раскрывается данная проблема, поэтому нет необходимости на ней подробно останавливаться [8, с. 145].
В то же время важно подчеркнуть, что некоторые оценки представителей Ассоциации по развитию искусственного интеллекта свидетельствуют о том, что искусственный разум, который будет сопоставим по когнитивным возможностям с человеческим разумом, может возникнуть уже в 2075 г., а более 70 % экспертов ожидают разработку даже суперискусственного интеллекта. По результатам исследований компании Deloitte, рассматриваемые технологии к 2030 г. могут автоматизировать порядка 35 % рабочих мест в Великобритании. Важно и то, что, как указывают отечественные эксперты из РАНХиГС, часть россиян в случае развития широкого процесса автоматизации производства могут заменить робототехникой. При этом, как указывается в проведенном учеными РАНХиГС исследовании, автоматизация производства ведет к повышению необходимости постоянного обновления знаний, а также совершенствования навыков и умений1.
Согласно отчету, сделанному в 2023 г. американским банком Goldman Sachs, развитие новейших сервисов и приложений в сфере анализируемых технологий, таких как чат-бот ChatGPT, вне всякого сомнения, поспособствует тому, что порядка 300 млн чел. во всем мире останутся без работы. Кроме того, проведенный данной компанией анализ довольно четко и объективно свидетельствует о том, что в недалеком будущем следует ожидать масштабных изменений на рынках труда2.
Как отмечается одним из крупнейших экспертов в сфере разработки программного обеспечения технологий искусственного интеллекта, а также специалистом по информатике Кай-Фу Ли, риски использования рассматриваемых технологий в первую очередь обусловлены тем, что они функционируют на основе принципа «победители обладают всем, помогая основную долю мировых богатств предоставить различным экономическим компаниям, тем самым увеличивая численность безработных и социальное неравенство, привнося кризисы в различные политические системы». Все это приводит к изменению миропорядка и подрыву экономической стабильности в ряде регионов мира. Многие столетия человечество применяло физический и умственный труд для поиска пропитания и иных необходимых предметов, что в свою очередь способствовало формированию культурных ценностей, используемых для воспитания будущих поколений в духе честности и любви к труду. Однако, вне всякого сомнения, развитие цифровых технологий в дальнейшей перспективе будет все больше нести в себе угрозу для многих человеческих ценностей [9, с. 32].
Совершенно очевидно, что в цифровом обществе, которое сегодня активно развивается, будут выстраиваться в том числе и новые экономические процессы, бичом которых станет неравенство, поскольку зависимость корпораций от рабочей силы человека постоянно будет снижаться, и практически вся чистая прибыль, за небольшим исключением, будет предназначаться лицам, владеющим этими корпорациями и компаниями. В дальнейшем технологическая зависимость современного общества будет только возрастать вследствие продвижения цифровизации, и соответственно, численность пострадавших из-за деятельности машин продолжит увеличиваться. Вновь возникающие технологии будут все быстрее и способнее людей, и поэтому необходимо совершенствовать предупреждение негативных последствий, обусловленных данными технологиями. Они должны быть в обществе на первом месте.
Еще одной важной проблемой, которая возникает параллельно с внедрением технологий искусственного интеллекта, является организация защиты персональных данных россиян, которая будет соответствовать всем возникающим угрозам в этой сфере. Становится совершенно понятно и очевидно, что для того, чтобы проводить машинное обучение, необходимо наличие огромного объема информационных данных для их накапливания в технических отделах учреждений, ведущих разработку новых технологий, и по-другому никак не обойтись. В том числе в достаточной мере очевидно, что основной объем информационных данных будет браться из различных учреждений и организаций, в интересах которых будут проектироваться продукты, использующие технологии искусственного интеллекта.
Собранные подобным образом и опять же для этих целей базы данных могут в дальнейшем представлять серьезную опасность для общества, поскольку утечки различных информационных данных из подобных технических центров и бюро уже совершенно точно избежать не удастся.
Кроме того, нежелательные последствия в процессе использования рассматриваемых технологий также вполне могут возникнуть в связи с непониманием ими всего контекста задач, которые были поставлены разработчиками. Не менее важной проблемой в процессе функционирования новых технологий непременно станет непонимание некоторых алгоритмов их действия для пользователей. Ученые в настоящее время ведут серьезные споры о том, как осуществляют свою работу нейросети. От технологий по искусственному интеллекту требуется обрабатывать колоссальный массив данных, чтобы выдать результат, и человеку сложно понять, согласно каким принципам, принимается решение данными технологиями. Совершенно очевидно, что данными технологиями выискиваются какие-то определенные закономерности, но, скорее всего, иногда их сложно обнаружить, поскольку искусственный интеллект не человек и не может видеть всю общую картину сразу. Поэтому, чтобы избежать рисков неправильных решений, принятых данными технологиями, в дальнейшем специалистам в рассматриваемой сфере следует придумать ряд комплексных инструментов, проверяющих и обнаруживающих ошибки в их логике [10, с. 45].
Кроме того, в недалеком будущем мы можем столкнуться с рядом рисков, вызванных неочевидными алгоритмами работы систем с искусственным интеллектом, еще и потому, что в настоящее время мы не обладаем доступными информационными данными об их значимости для анализируемых технологий. На сегодняшний день никакие технические устройства и системы, имеющие способность к самообучению, не могут предоставить информационные данные, при помощи каких именно критериев принимались ими решения. В связи с этим закономерно встает вопрос, необходимо ли делать ставку на результаты решений, принятых системами с искусственным интеллектом, и насколько они могут быть достоверными, корректными и точными [11, с. 389].
В качестве серьезного недостатка в работе систем с искусственным интеллектом ряд зарубежных исследователей видит низкий уровень прогностической достоверности редких событий, поскольку для составления достоверных прогнозов эти системы должны обладать достаточным объемом исходных данных, и чем их будет в этих системах больше, тем, соответственно, точнее будут и сами прогнозы [12, p. 581]. В связи с этим следует согласиться с позицией, высказанной отечественными экспертами относительно того, что ни одна из систем с искусственным интеллектом не будет полностью отвечать всему набору требований прозрачности [13, с. 19].
Именно по этой причине немедленно необходима разработка правовых основ, регулирующих деятельность систем, использующих новые технологии в системе уголовного судопроизводства. Причем в основе подобной деятельности должно быть не стремление заменить судебный персонал, а необходимость оказать помощь всему уголовному судопроизводству для подготовки и принятия законно обоснованных и справедливых решений.
Между тем многие положительные аспекты применения высокотехнологичных решений на основе анализируемых технологий зачастую приводят к проблемным ситуациям, связанным с этическими вопросами, что существенно может затруднить использование анализируемых технологий, в том числе и в правоохранительной сфере. Например, совершенно понятно, что машинное обучение способствует поиску разного рода закономерностей, в то же время решения, принятые техническими устройствами, работающими на основе обсуждаемых технологий, могут оказаться предвзятыми и нецелесообразными. При этом машинное обучение не в состоянии осознавать, что оно основано на определенных алгоритмах, при помощи которых возможно только выявлять закономерности. Немаловажным является и то, что при помощи такого обучения чрезвычайно сложно выявить любые нарушения в рассматриваемой сфере.
Именно в силу обозначенных выше причин в марте 2023 г. более тысячи экспертов сферы высоких технологий выступили с открытым письмом, в котором были изложены требования остановить обучение мощных нейросетей. Среди подписантов оказался и Стив Возняк, который был в числе сооснователей корпорации Apple. Инициаторы данного документа выражают общую позицию большинства представителей научного сообщества о том, что анализируемые системы являются угрозой для общества. В том числе, по мнению большинства зарубежных специалистов, подписавших данный документ, стремительное развитие новых технологий может закончиться потерей контроля над ними. В связи с этим зарубежными учеными и экспертами предложено перейти к разработке общих протоколов безопасности и осуществлять регулирование и контроль над новыми технологиями на уровне государств1.
Примечательно и то, что в марте 2023 г., принимая участие в международной конференции в г. Лос-Анджелесе (США) по обсуждению проблематики рассматриваемых технологий, Илон Маск согласился с перспективными оценками, высказанными канадско-английским ученым Джеффри Хинтоном, который специализируется на данных технологиях. В частности, американским инженером и предпринимателем Илоном Маском было сделано заявление о том, что дальнейшее развитие технологий искусственного интеллекта приведет к уничтожению человечества2.
По мнению заместителя главы Еврокомиссии Маргреты Вестагер, по потенциалу воздействия на человеческую цивилизацию технологии искусственного интеллекта можно сравнить с эффектом ядерного оружия, поскольку они несут экзистенциальные угрозы для всего современного человечества. Она также добавила, что, поскольку в настоящее время развитие данных технологий ничем не ограничивается и строго не контролируется, они несут разрушительный потенциал, что в свою очередь может повлиять на изменение самих принципов существования общества. При этом она абсолютно уверена в том, что в настоящее время мировому сообществу необходимо приступить не только к разработке, но и к внедрению общих правовых механизмов по контролю за развитием и использованием данных технологий – аналогичным контролю за ядерным оружием1.
Важно еще отметить, что, поскольку в основе технологий искусственного интеллекта лежит цифровая природа, они являются технологиями двойного назначения, используемые как в легальной, так и в незаконной деятельности, в том числе для совершения противоправных деяний [14, с. 46]. Поэтому не стоит исключать того, что рост развития рассматриваемых технологий поспособствует развитию новых видов преступных проявлений, о которых человечество еще и не догадывается. В связи с этим следует согласиться с отечественными экспертами из числа ученых и практиков, полагающими, что любые научные решения, которыми пользуются правоохранители, также могут быть использованы преступным миром для достижения своих криминальных целей.
В настоящее время существует немало доказательств того, что уже сегодня преступники пытаются использовать новые технологии в следующих направлениях: в целях совершения масштабных киберпреступлений, которые связаны с возможностями атак на крупные торговые площадки; для управления дронами или иной робототехникой в процессе трансграничного трафика запрещенных веществ и предметов, а также незаконной доставки товаров различного назначения на территорию пенитенциарных учреждений; с целью проведения крупномасштабных атак на объекты финансовой и банковской инфраструктуры и др. [15, с. 17].
Особые качества и свойства новых технологий значительно повышают возможности по совершению с их помощью различных противоправных деяний, важнейшим из свойств которых выступает наличие цифровых информационных данных, которые являются признаком, характеризующим предмет в составе преступного посягательства. Одна из самых больших опасностей может возникать по отношению к объектам критической информационной структуры нашей страны, поскольку сегодня работа обозначенных объектов в обязательном порядке строится с учетом функционирования автоматизированных систем управления, основанных на цифровых информационных данных, а также системных комплексов безопасности по ее защите. По этой причине важно сказать о том, что применяемые технологии, которые создаются для использования во вредоносных компьютерных программах, могут повысить возможности обозначенных автоматизированных систем управления для разного рода нарушения системы их защиты, что в свою очередь повлечет массу негативных последствий в работе объектов критической инфраструктуры [16, с. 410].
Становится очевидно, что широкая роботизация и внедрение новых IT-технологий, вне всякого сомнения, вызовут появление новых видов и рост числа уже имеющихся преступлений в сфере телекоммуникационных систем. Новые виды преступлений потребуют совершенствования законодательства в большинстве отраслей права и активизации работы правоохранительных органов в области раскрытия преступных посягательств, связанных с высокотехнологичной сферой. В данном контексте нельзя не упомянуть об опасности использования полученных знаний в деятельности, связанной с киберпреступностью международных террористических организаций.
Совершая кибератаки, международные террористы могут заниматься несанкционированным проникновением, взломом и блокированием объектов критически важной инфраструктуры, а также иных промышленных предприятий, что приведет к сбоям в работе платежных, транспортных и ряда других жизненно-важных систем. В частности, по оценкам АТЦ СНГ, международные террористы активно используют «в качестве источников доходов средства, полученные от онлайн-казино, хищения денежных средств через подставные интернет-магазины, сайты-двойники, фишинговых и фарминг-атак, несанкционированного доступа к банковским ресурсам и криптовалютным биржам, также технологии терроризма обогащаются и за счет использования современной робототехники, прежде всего беспилотных летательных аппаратов»1. Поэтому дальнейшее совершенствование технических характеристик беспилотных летательных аппаратов, основанных на анализируемых технологиях, используемых международными террористическими организациями, может способствовать новым вызовам и угрозам в правоохранительной сфере.
Отдельно хотелось бы акцентировать внимание на том, что в настоящее время человечество начинает очень сильно зависеть от того, как функционируют сложные вычислительные сети, как в финансовых и торговых сферах, так и в таких областях, как коммуникация, политика, социальные отношения, новостные данные и т. д. Кроме того, много времени современное общество стало проводить в телекоммуникационных сетях, из которых оно стремится получить самые свежие информационные данные, забывая о том, что при помощи этих же сетей может быть разрушена их репутация. Скорее всего, данные тенденции будут не только сохранены в дальнейшем, но и получат еще большее развитие, и это должно наводить на размышление не только практиков, но и научное сообщество.
Обладая криминальным потенциалом, рассматриваемые технологии используются преступниками как инструмент в процессе совершения преступных деяний с целью разработки поддельного контента с последующим шантажом либо дискредитацией потерпевших. В то же время сами противоправные деяния остаются традиционными: как правило, это кражи, вымогательства, запугивание, акты террора. В то же время данные системы могут выступать и в качестве орудий преступления, которые используются для обхода средств защиты, препятствующих совершению киберпреступлений. При помощи используемых преступниками систем, работающих на основе новых цифровых технологий, возможно совершение различных преступлений в киберпространстве, которые не только наносят серьезный материальный ущерб, но и подрывают доверие населения к власти.
Противоправные деяния, совершаемые с использованием рассматриваемых технологий, могут быть разнообразными. Данный вид преступной деятельности нацелен как на отдельных граждан, так и на целые предприятия и организации, а также различную инфраструктуру. Мотивом данной деятельности, как правило, могут являться финансовые выгоды и приобретение властных полномочий. При помощи данных преступлений может быть подорвана репутация отдельных лиц, нанесен вред различным правоотношениям, произведены изменения в политике, посеяна вражда. Их также совершают, чтобы не подвергнуться наказанию за совершение иных преступных деяний, из мести, с различными религиозными и политическими целями и т. д.
Как показывает данное криминологическое исследование, в большинстве своем эксперты и правоведы оценивают потенциальные угрозы, возникающие от преступной деятельности, основанной на использовании новых технологий, по ряду основных направлений: преступный вред, преступные доходы, достижимость, поражаемость.
-
1. Вред потерпевшим в процессе применения технологий искусственного интеллекта, в том числе социальный вред, который выражается в финансовых потерях как для отдельных лиц, так и в виде подрыва доверия в целом к государственным органам.
-
2. Получение преступных доходов в процессе реализации преступных целей при использовании новых технологий способствует причиняет финансовые убытки и репетиционный ущерб гражданам.
-
3. Достижимость для совершения преступлений – готовность различных технических устройств и оборудования для получения доступа к необходимым информационным данным.
-
4. Поражаемость, которая заключается в оценке того, насколько способы совершения преступлений являются сложными либо простыми.
Именно поэтому в дальнейшем в целях противодействия потенциальным рискам и угрозам необходимо придерживаться именно данных направлений. И поскольку рассматриваемые технологии могут быть задействованы для совершения преступлений, то в первую очередь необходимо сосредоточиться на предупреждении противоправных деяний, совершаемых с их использованием. Очевидно, что сегодня в большинстве государств мира правоохранители испытывают некую конкуренцию со стороны криминала по возможности применения высокотехнологических устройств и анализируемых технологий. Поэтому поставленные перед отечественными правоохранителями задачи требуют выработки путей их оптимальной реализации, с акцентом на особенности мирового положительного опыта. Также обязательно учитывать то обстоятельство, что использование технологий искусственного интеллекта связано с множеством экономических, юридических, этических, политических и иных проблем.
В ближайшей перспективе, чтобы более результативно предупреждать рассматриваемые преступные посягательства, специалистам уголовно-правовой и криминологической сферы необходимо совместно с экспертами, представляющими IT-сообщество, разработать цифровой антикриминальный ресурс в исследуемой области. Подобные шаги необходимо предпринять в первую очередь потому, что в настоящее время во всем мире ряд самых популярных систем по социальному контролю переводится на цифровой язык. Причем в эту систему следует загрузить все имеющиеся на сегодняшний день информационные данные в рассматриваемой сфере.
В дальнейшем всем заинтересованным службам следует сосредоточиться не только на предупреждении, но и на расследовании данных преступных посягательств. При этом правоохранителям необходимо сконцентрироваться на более детальном исследовании мотивации лиц, совершающих рассматриваемые преступные посягательства, причем именно в контексте индивидуальных теорий злоумышленников, которые стремятся объяснить новые способы совершения преступлений как инструмент для совершения других, давно известных в уголовном праве противоправных деяний [17, с. 48].
Совершенно очевидно, что во многом риски развития рассматриваемых технологий сложно прогнозировать, и данное обстоятельство в значительной мере осложняет задачу по принятию упреждающих законодательных решений, направленных на минимизацию разного рода угроз [18, с. 136]. Именно поэтому чрезвычайно важно отметить, что до настоящего времени не существует единого юридического понятия искусственного интеллекта. Отсутствие подобной правовой дефиниции выступает в качестве сдерживающего фактора по решению многих юридических проблем, которые возникают при определении правосубъектности данного феномена, а также видов ответственности за причинение ущерба, нанесенного в процессе использования новых технологий.
Сегодня наша страна является безусловным лидером в области роботизации экономических процессов, и важнейшим сопутствующим условием в этой сфере могла бы стать разработка необходимых норм по регулированию сферы робототехники. Не менее важны разработка и принятие правовых норм по регулированию различных правоотношений в рассматриваемой сфере. Что касается механизмов, с помощью которых можно было бы осуществлять привлечение к ответственности за противоправные деяния в анализируемой области, то среди отечественных экспертов по данному вопросу имеются достаточно разнообразные точки зрения [19, с. 109].
В том числе в дальнейшем следует провести ряд научных исследований для более точного и полного формулирования необходимых требований, направленных на осуществление предупредительных мер в сфере преступности с использованием устройств, работающих на основе новых цифровых технологий. Немаловажно и то, что разработка подобных технологий в нашей стране должна происходить с учетом потребностей именно нашего государства и, соответственно, нести в себе в первую очередь выгоду для государственных, а затем уже для частных компаний. Внедрение новейших разработок в сфере прогнозирования рассматриваемой преступности должно стать приоритетным в политике государства.
Таким образом, принимая во внимание риски использования новых технологий, важно повышать и совершенствовать уровень безопасности в процессе их применения.
Список литературы Криминологическое исследование потенциальных угроз для общества и государства, инициированных ростом инноваций в сфере искусственного интеллекта, и меры их предупреждения
- Смолин, Д. В. Введение в искусственный интеллект: конспект лекций. М.: Физматлит, 2004. 208 с.
- Charniak E., McDermott D. Introduction to Artificial Intelligence. Massachusetts: Ad- dison-Wesley, 1985. 57 p.
- Сафарализода, Х. К. Вызовы и угрозы научно-технического и технологического прогресса // Известия Института философии, политологии и права имени А. Баховаддинова Национальной академии наук Таджикистана. 2021. № 3. С. 97‒102.
- Сокова, А. А. Искусственный интеллект: возможности и необходимость его уголовно-правовой охраны // Молодой ученый. 2019. № 16 (254). С. 122‒125.
- Шваб, К. Четвертая промышленная революция / пер. с англ. М.: Эксмо, 2020. 288 с.
- Балацкий, Е. В. Глобальные вызовы четвертой промышленной революции // Terra Economicus. 2019. Т.17. № 2. С. 6‒12. DOI:https://doi.org/10.23683/2073-6606-2019-17- 2-6-22.
- Кобец, П. Н. Причины и условия негативных последствий, возникающих в процессе цифровизации, и меры их предупреждения // Вестник Уфимского юридического института МВД России. 2024. № 1 (103). С. 93‒101.
- Кобец, П. Н. Криминологическая оценка возможных рисков при условии развития технологий «сильного» искусственного интеллекта // Философия права. 2024. № 1 (108). С. 142‒148.
- Кай-Фу, Ли. Сверхдержавы искусственного интеллекта. Китай, Кремниевая долина и новый мировой порядок / пер. с англ. Н. Константиновой. М.: Манн, Иванов и Фербер, 2019. 240 с.
- Брянцева, О. В., Брянцев, И. И. Проблема субъектности искусственного интеллекта в системе общественных отношений // Вестник Поволжского института управления. 2023. Т. 23, № 3. С. 37‒50. DOIhttps://doi.org/10.22394/1682-2358-2023-3-37-50.
- Ларина, Е. С., Обнинский, В. С. Искусственный интеллект. Этика и право. («Коллекция Изборского клуба»). М.: Кн. мир, 2020. 192 c.
- Sutherland A.A. et al. Sexual Violence Risk Assessment: An Investigation of the Inter¬rater Reliability of Professional Judgments Made Using the Risk for Sexual Violence Protocol // International Journal of Forensic Mental Health. 2012. Vol. 11. № 2. P. 571–588.
- Тьюринг, А. Вычислительные машины и разум. М.: Изд-во АСТ, 2019. 128 с.
- Бычков, B. B., Прорвич, B. A. Искусственный интеллект в борьбе с преступлениями, совершаемыми по экстремистским мотивам, с использованием Интернета // Современное уголовно-процессуальное право – уроки истории и проблемы дальнейшего реформирования. 2020. Т. 1, № 1 (2). С. 34‒49.
- Агеев, В. В. Большие данные и искусственный интеллект на службе полиции // Стратегическое развитие системы МВД России: состояние, тенденции, перспективы: сб. ст. Междунар. науч.-практ. конф., Москва, 30 октября 2019 года / отв. за выпуск В. О. Лапин. М.: Академия управления МВД России. 2019. С. 11‒23.
- Ишбулдин, Т. Р., Кирпичников, Д. В. О некоторых аспектах использования искусственного интеллекта в преступных целях // Тамбовские правовые чтения имени Ф. Н. Плевако: мат-лы IV Междунар. науч.-практ. конф. В 2 т., Тамбов, 22–23 мая 2020 года. Тамбов: Издательский дом «Державинский», 2020. С. 408‒412.
- Вирич, Ю. А. Криминалистическое противодействие новым способам совершения преступлений на основе технологий искусственного интеллекта // Epomen. Global. 2023 № 39. С. 42–49.
- Кобец, П. Н. Необходимость разработки мер уголовно-правового предупреждения преступлений, совершаемых при помощи технических средств, использующих технологии искусственного интеллекта // Юристъ-Правоведъ. 2024. № 1 (108). С. 135‒140.
- Кравцов, Д. А. Искусственный разум: предупреждение и прогнозирование преступности // Вестник Московского университета МВД России. 2018. № 3. С. 108‒110.