1(2), 2023 - Journal of Digital Technologies and Law
Бесплатный доступ
Journal of Digital Technologies and Law – это рецензируемый периодический научно-практический журнал, посвященный исследованию синергии цифровых технологий и права, а также возможных рисков и угроз, которые несет с собой сочетание технологического прогресса, цифровизации и правового развития. Журнал фокусируется на новаторских и прорывных оригинальных исследованиях юридических аспектов технологий искусственного интеллекта и робототехники, технологий виртуальной и дополненной реальности, технологий беспроводной связи и квантовых технологий, нейротехнологий и новых производственных технологий, больших данных и систем распределенного реестра, промышленного интернета и интернета вещей, машинного обучения и человеко-машинных интерфейсов, облачных и биопринтных технологий, блокчейна и криптовалюты, беспилотных транспортных средства и дронов, смарт-контрактов и токенов, цифровых платформ и экосистем, метавселенных и цифровых миров, технологий умного дома и города, LegalTech, FinTech, RegTech, SupTech и др. В состав редакционной коллегии входят известные ученые из России и зарубежных стран, внесшие значительный вклад в развитие соответствующей области знаний, труды которых являются фундаментом общетеоретической и отраслевой юридической науки. Мы всегда рады опубликовать интересную, а главное – качественную научную рукопись в нашем журнале и открыты к сотрудничеству с новыми авторами. К публикации в журнале приглашаются отечественные и зарубежные ученые, практикующие юристы, преподаватели и студенты, докторанты, адъюнкты, аспиранты и магистранты. Журнал является двуязычным: все статьи публикуются на русском и английском языках. Редакция самостоятельно и бесплатно осуществляет перевод статей с одного языка на другой. Все поступающие в журнал материалы подлежат двойному «слепому» рецензированию. Ранее опубликованный материал не рассматривается. Публикации бесплатны как для авторов, так и для читателей.
ID: 14127008 Короткий адрес: https://sciup.org/14127008
Статьи выпуска 1(2), 2023 Journal of Digital Technologies and Law
Legal Aspects of the Use Artificial Intelligence in Telemedicine
Статья
Objective: the rapid expansion of the use of telemedicine in clinical practice and the increasing use of Artificial Intelligence has raised many privacy issues and concerns among legal scholars. Due to the sensitive nature of the data involved particular attention should be paid to the legal aspects of those systems. This article aimed to explore the legal implication of the use of Artificial Intelligence in the field of telemedicine, especially when continuous learning and automated decision-making systems are involved; in fact, providing personalized medicine through continuous learning systems may represent an additional risk. Particular attention is paid to vulnerable groups, such as children, the elderly, and severely ill patients, due to both the digital divide and the difficulty of expressing free consent. Methods: comparative and formal legal methods allowed to analyze current regulation of the Artificial Intelligence and set up its correlations with the regulation on telemedicine, GDPR and others. Results: legal implications of the use of Artificial Intelligence in telemedicine, especially when continuous learning and automated decision-making systems are involved were explored; author concluded that providing personalized medicine through continuous learning systems may represent an additional risk and offered the ways to minimize it. Author also focused on the issues of informed consent of vulnerable groups (children, elderly, severely ill patients). Scientific novelty: existing risks and issues that are arising from the use of Artificial Intelligence in telemedicine with particular attention to continuous learning systems are explored. Practical significance: results achieved in this paper can be used for lawmaking process in the sphere of use of Artificial Intelligence in telemedicine and as base for future research in this area as well as contribute to limited literature on the topic.
Бесплатно
Правовые аспекты использования искусственного интеллекта в телемедицине
Статья научная
Цель: стремительное распространение телемедицины в клинической практике и возрастающая роль искусственного интеллекта ставят перед юристами множество проблем относительно охраны неприкосновенности частной жизни. Повышенная сензитивность данных в этой области заставляет уделить особое внимание правовым аспектам таких систем. В статье исследуются правовые последствия использования искусственного интеллекта в телемедицине, в частности, систем непрерывного обучения и автоматизированного принятия решений; фактически оказание персонализированных медицинских услуг через системы непрерывного обучения может представлять дополнительный риск. Особого внимания заслуживают уязвимые группы населения – дети, пожилые люди и тяжелобольные пациенты – как по причине цифрового неравенства, так и из-за сложностей с выражением своего согласия. Методы: сравнительно-правовые и формально-правовые методы исследования позволили проанализировать текущее состояние регулирования искусственного интеллекта и выявить его соотношение с нормами регулирования телемедицины, Общим регламентом ЕС по защите персональных данных и другими нормами. Результаты: изучены правовые последствия использования искусственного интеллекта в телемедицине, в частности, систем непрерывного обучения и автоматизированного принятия решений; автор приходит к выводу, что оказание персонализированных медицинских услуг через системы непрерывного обучения представляет дополнительные риски, и предлагает пути их минимизации. Автор также уделяет особое внимание вопросам информированного согласия уязвимых групп населения (детей, пожилых, тяжелобольных). Научная новизна: изучены актуальные риски и проблемы, возникающие в сфере использования искусственного интеллекта в телемедицине, при этом особое внимание уделено системам непрерывного обучения. Практическая значимость: полученные результаты восполняют недостаток научных исследований по данной теме, могут быть использованы в законодательном процессе в сфере использования искусственного интеллекта в телемедицине, а также в качестве основы для будущих исследований в данной области.
Бесплатно
Правовые средства обеспечения принципа прозрачности искусственного интеллекта
Статья научная
Цель: анализ действующих технологических и юридических теорий для определения содержания принципа прозрачности работы искусственного интеллекта с позиции правового регулирования, выбора применимых средств правового регулирования и установление объективных границ юридического вмешательства в технологическую сферу с помощью регулирующего воздействия. Методы: методологическую основу исследования составляет совокупность общенаучных (анализ, синтез, индукция, дедукция) и специально-юридических (историко-правовой, формально-юридический, сравнительно-правовой) методов научного познания. Результаты: подвергнуты критическому анализу нормы и предложения для нормативного оформления принципа прозрачности искусственного интеллекта с точки зрения невозможности получения полной технологической прозрачности искусственного интеллекта. Выдвинуто предложение обсудить варианты политики управления алгоритмической прозрачностью и подотчетностью на основе анализа социальных, технических и регулятивных проблем, создаваемых алгоритмическими системами искусственного интеллекта. Обосновано, что прозрачность является необходимым условием для признания искусственного интеллекта заслуживающим доверия. Обосновано, что прозрачность и объяснимость технологии искусственного интеллекта важна не только для защиты персональных данных, но и в иных ситуациях автоматизированной обработки данных, когда для принятия решений недостающие из входящей информации технологические данные восполняются из открытых источников, в том числе не имеющих значения хранилищ персональных данных. Предложено законодательно закрепить обязательный аудит и ввести стандарт, закрепляющий компромисс между возможностями и преимуществами технологии, точностью и объяснимостью результата ее работы и правами участников общественных отношений. Введение сертификации моделей искусственного интеллекта, обязательных к применению, позволит решить вопросы ответственности обязанных применять такие системы субъектов. В контексте вопроса о профессиональной ответственности профессиональных субъектов, таких как врачи, военные, органы корпоративного управления юридического лица, требуется ограничить обязательное применение искусственного интеллекта в случаях, если не обеспечена его достаточная прозрачность. Научная новизна: междисциплинарный характер исследования позволил выявить невозможность и необоснованность требований полного открытия исходного кода или архитектуры моделей искусственного интеллекта. Принцип прозрачности искусственного интеллекта может быть обеспечен за счет проработки и обеспечения права субъекта данных и субъекта, которому адресовано решение, принятое в результате автоматизированной обработки данных, на отказ от применения автоматизированной обработки данных для принятия решений и права на возражения против принятых таким способом решений. Практическая значимость: обусловлена отсутствием в настоящее время достаточного регулирования принципа прозрачности искусственного интеллекта и результатов его работы, а также содержания и особенностей реализации права на объяснение и права на возражение субъекта решения. Наиболее плодотворный путь для установления доверия к искусственному интеллекту заключается в том, чтобы признать данную технологию частью сложной социотехнической системы, которая опосредует доверие, и повышать надежность этих систем. Основные положения и выводы исследования могут быть использованы для совершенствования правового механизма обеспечения прозрачности моделей искусственного интеллекта, применяемых в государственном управлении и бизнесе.
Бесплатно
Legal Means of Providing the Principle of Transparency of the Artificial Intelligence
Статья научная
Objective: to analyze the current technological and legal theories in order to define the content of the transparency principle of the artificial intelligence functioning from the viewpoint of legal regulation, choice of applicable means of legal regulation, and establishing objective limits to legal intervention into the technological sphere through regulatory impact. Methods: the methodological basis of the research is the set of general scientific (analysis, synthesis, induction, deduction) and specific legal (historical-legal, formal-legal, comparative-legal) methods of scientific cognition. Results: the author critically analyzed the norms and proposals for normative formalization of the artificial intelligence transparency principle from the viewpoint of impossibility to obtain the full technological transparency of artificial intelligence. It is proposed to discuss the variants of managing algorithmic transparency and accountability based on the analysis of social, technical and regulatory problems created by algorithmic systems of artificial intelligence. It is proved that transparency is an indispensible condition to recognize artificial intelligence as trustworthy. It is proved that transparency and explainability of the artificial intelligence technology is essential not only for personal data protection, but also in other situations of automated data processing, when, in order to make a decision, the technological data lacking in the input information are taken from open sources, including those not having the status of a personal data storage. It is proposed to legislatively stipulate the obligatory audit and to introduce a standard, stipulating a compromise between the technology abilities and advantages, accuracy and explainability of its result, and the rights of the participants of civil relations. Introduction of certification of the artificial intelligence models, obligatory for application, will solve the issues of liability of the subjects obliged to apply such systems. In the context of professional liability of professional subjects, such as doctors, militants, or corporate executives of a juridical person, it is necessary to restrict the obligatory application of artificial intelligence if sufficient transparency is not provided. Scientific novelty: the interdisciplinary character of the research allowed revealing the impossibility and groundlessness of the requirements to completely disclose the source code or architecture of the artificial intelligence models. The principle of artificial intelligence transparency may be satisfied through elaboration and provision of the right of the data subject and the subject, to whom the decision made as a result of automated data processing is addressed, to reject using automated data processing in decision-making, and the right to object to the decisions made in such a way. Practical significance: is due to the actual absence of sufficient regulation of the principle of transparency of artificial intelligence and results of its functioning, as well as the content and features of the implementation of the right to explanation the right to objection of the decision subject. The most fruitful way to establish trust towards artificial intelligence is to recognize this technology as a part of a complex sociotechnical system, which mediates trust, and to improve the reliability of these systems. The main provisions and conclusions of the research can be used to improve the legal mechanism of providing transparency of the artificial intelligence models applied in state governance and business.
Бесплатно
Future of the Artificial Intelligence: Object of Law or Legal Personality?
Статья научная
Objective: to reveal the problems associated with legal regulation of public relations, in which artificial intelligence systems are used, and to rationally comprehend the possibility of endowing such systems with a legal subject status, which is being discussed by legal scientists. Methods: the methodological basis of the research are the general scientific methods of analysis and synthesis, analogy, abstraction and classification. Among the legal methods primarily applied in the work are formal-legal, comparative-legal and systemic-structural methods, as well as the methods of law interpretation and legal modeling. Results: the authors present a review of the state of artificial intelligence development and its introduction into practice by the time of the research. Legal framework in this sphere is considered; the key current concepts of endowing artificial intelligence with a legal personality (individual, collective and gradient legal personality of artificial intelligence) are reviewed. Each approach is assessed; conclusions are made as to the most preferable amendments in the current legislation, which ceases to correspond to the reality. The growing inconsistency is due to the accelerated development of artificial intelligence and its spreading in various sectors of economy, social sphere, and in the nearest future – in public management. All this testifies to the increased risk of a break between legal matter and the changing social reality. Scientific novelty: scientific approaches are classified which endow artificial intelligence with a legal personality. Within each approach, the key moments are identified, the use of which will allow in the future creating legal constructs based on combinations, avoiding extremes and observing the balance between the interests of all parties. The optimal variant to define the legal status of artificial intelligence might be to include intellectual systems into a list of civil rights objects, but differentiating the legal regulation of artificial intelligence as an object of law and an “electronic agent” as a quasi subject of law. The demarcation line should be drawn depending on the functional differences between intellectual systems, while not only a robot but also a virtual intellectual system can be considered an “electronic agent”. Practical significance: the research materials can be used when preparing proposals for making amendments and additions to the current legislation, as well as when elaborating academic course and writing tutorials on the topics related to regulation of using artificial intelligence.
Бесплатно
Будущее искусственного интеллекта: объект или субъект права?
Статья научная
Цель: выявление проблем, связанных с правовым регулированием общественных отношений, в которых используются системы искусственного интеллекта, и рациональное осмысление обсуждаемой правоведами возможности наделения таких систем статусом субъекта права. Методы: методологической основой исследования являются общенаучные методы анализа и синтеза, аналогии, абстрагирования и классификации. Среди преимущественно применяемых в работе юридических методов – формально-юридический, сравнительно-правовой и системно-структурный, а также методы толкования права и правового моделирования. Результаты: представлен обзор состояния развития искусственного интеллекта и его внедрения на практике ко времени проведения исследования. Рассмотрено нормативно-правовое регулирование в данной области и разобраны основные из существующих концепций наделения искусственного интеллекта правосубъектностью (индивидуальная, коллективная и градиентная правосубъектность искусственного интеллекта). При этом дана оценка каждого из подходов и сделаны выводы о наиболее предпочтительных вариантах внесения изменений в действующее законодательство, которое перестает соответствовать реалиям. Растущее несоответствие связано с ускоряющимся развитием искусственного интеллекта и его распространением в различных секторах экономики, социальной сферы, а в ближайшей перспективе и в государственном управлении. Все это свидетельствует о повышении риска разрыва правовой материи с изменяющейся социальной реальностью. Научная новизна: классифицированы научные подходы к наделению искусственного интеллекта правосубъектностью. В рамках каждого из подходов выделены ключевые моменты, использование которых позволит в дальнейшем создавать правовые конструкции на основе комбинирования, уходя от крайностей и соблюдая баланс интересов всех сторон. Оптимальным вариантом определения правового статуса искусственного интеллекта может стать внесение интеллектуальных систем в перечень объектов гражданских прав, но с дифференциацией правового регулирования искусственного интеллекта в качестве объекта права и «электронного агента» как квазисубъекта права. Линия разграничения должна проходить в зависимости от функциональных различий интеллектуальных систем, причем «электронным агентом» может быть признан не только робот, но и виртуальная интеллектуальная система. Практическая значимость: материалы исследования могут быть применены в работе, связанной с подготовкой предложений по внесению изменений и дополнений в действующее законодательство, а также при разработке учебных курсов и написании учебных пособий по тематике, имеющей отношение к регулированию использования искусственного интеллекта.
Бесплатно
Алгоритмическая дискриминация и защита неприкосновенности частной жизни
Статья научная
Цель: появление цифровых технологий, таких как искусственный интеллект, стало вызовом для государств всего мира. Оно породило множество рисков, связанных с нарушением прав человека, включая права на неприкосновенность частной жизни и человеческое достоинство. Это определяет актуальность данного исследования. Цель статьи – проанализировать роль алгоритмов в случаях дискриминации и выяснить, каким образом алгоритмы могут способствовать предубежденности при принятии решений на основе персональных данных. Проведенный анализ помогает оценить проект закона об искусственном интеллекте, направленный на регулирование данной проблемы для предотвращения дискриминации при использовании алгоритмов. Методы: в работе применялись методы эмпирического и сравнительного анализа. Сравнительный анализ позволил выявить сходства и различия существующего регулирования и положений проекта закона об искусственном интеллекте. С помощью эмпирического анализа рассмотрены реальные примеры алгоритмической дискриминации. Результаты: результаты исследования показывают, что Закон об искусственном интеллекте нуждается в доработке, так как он остается на уровне дефиниций и недостаточно опирается на эмпирический материал. Автор выдвигает ряд предложений по совершенствованию данного законопроекта. Научная новизна: заключается в мультидисциплинарности данной работы, рассматривающей вопросы дискриминации, защиты данных и влияния на эмпирическую реальность в сфере алгоритмической дискриминации и охраны неприкосновенности частной жизни. Практическая значимость: состоит в привлечении внимания к тому факту, что алгоритмы выполняют инструкции, составленные на основе сообщенных им данных. Не имея возможностей для абдукции, алгоритмы действуют лишь как послушные исполнители приказов. Результаты работы могут использоваться в качестве основы для будущих исследований в данной области и в законотворческом процессе.
Бесплатно
Algorithmic Discrimination and Privacy Protection
Статья научная
Objective: emergence of digital technologies such as Artificial intelligence became a challenge for states across the world. It brought many risks of the violations of human rights, including right to privacy and the dignity of the person. That is why it is highly relevant to research in this area. That is why this article aims to analyse the role played by algorithms in discriminatory cases. It focuses on how algorithms may implement biased decisions using personal data. This analysis helps assess how the Artificial Intelligence Act proposal can regulate the matter to prevent the discriminatory effects of using algorithms. Methods: the methods used were empirical and comparative analysis. Comparative analysis allowed to compare regulation of and provisions of Artificial Intelligence Act proposal. Empirical analysis allowed to analyse existing cases that demonstrate us algorithmic discrimination. Results: the study’s results show that the Artificial Intelligence Act needs to be revised because it remains on a definitional level and needs to be sufficiently empirical. Author offers the ideas of how to improve it to make more empirical. Scientific novelty: the innovation granted by this contribution concerns the multidisciplinary study between discrimination, data protection and impact on empirical reality in the sphere of algorithmic discrimination and privacy protection. Practical significance: the beneficial impact of the article is to focus on the fact that algorithms obey instructions that are given based on the data that feeds them. Lacking abductive capabilities, algorithms merely act as obedient executors of the orders. Results of the research can be used as a basis for further research in this area as well as in law-making process.
Бесплатно
Статья научная
Цель: обзор сложившихся в науке подходов к регулированию отношений в сфере применения технологий искусственного интеллекта, выявление основных особенностей и ограничений применения рискориентированного и технологического подходов для определения направлений их дальнейшего развития. Методы: методологическую основу исследования составляет совокупность методов научного познания, в том числе общенаучный диалектический и универсальные научные методы (анализ и синтез, сравнение, обобщение, структурно-функциональный, формально-логический). Результаты: определено, что применение рискориентированного подхода предполагает построение конструктивных моделей управления рисками. Значимым вопросом для применения данного подхода является вопрос об основаниях отнесения технологий искусственного интеллекта к высокорисковым. При определении уровня риска применения технологии искусственного интеллекта необходимо применять следующие критерии: тип технологии искусственного интеллекта, сферу ее применения, а также уровень ее потенциальной опасности для окружающей среды, здоровья, других фундаментальных прав граждан. В свою очередь, центральным вопросом для применения технологического подхода является вопрос о необходимости и пределах регулирования сферы разработки и применения технологий искусственного интеллекта. Во-первых, вмешательство в данную сферу не должно создавать препятствий для развития технологий и инноваций. Во-вторых, естественная реакция регулятора в ответ на появление новых объектов и субъектов оборота – «синдром несовершенного закона». Вместе с тем ложное представление об отсутствии правового регулирования может дать обратный эффект – дублирование правовых норм. В целях решения проблемы дублирования законодательных требований следует прежде всего решить вопрос о том, необходимо ли регулировать технологии искусственного интеллекта или некоторые виды использования программного обеспечения. Научная новизна: проведен обзор основных подходов к регулированию отношений в сфере разработки и применения технологий искусственного интеллекта, выявлены возможности и ограничения их применения, предложены дальнейшие направления их развития. Практическая значимость: основные положения и выводы исследования могут быть использованы для определения оптимальных подходов к регулированию сферы цифровых технологий, а также в целях совершенствования правового регулирования рассматриваемой области общественных отношений.
Бесплатно
Статья научная
Objective: to review the modern scientific approaches to regulating relations in the sphere of using the artificial intelligence technologies; to reveal the main features and limitations of using the risk-oriented and technological approaches in order to determine the directions of their further development. Methods: the methodological basis of the research is a set of scientific cognition methods, including the general scientific dialectic method and the universal scientific methods (analysis and synthesis, comparison, summarization, structural-functional, and formal-logical methods). Results: it was determined that the use of the risk-oriented approach implies building constructive models of risk management. A significant issue in using this approach is the bases of referring the artificial intelligence technologies to high-risk ones. When determining the risk level of using the artificial intelligence technologies, the following criteria should be applied: the type of artificial intelligence technology, its sphere of use, and the level of potential harm for the environment, health and other fundamental human rights. In turn, the central issue of using the technological approach is the necessity and limits of regulation in the sphere of developing and using the artificial intelligence technologies. First, interference into this sphere must not create obstacles for developing technologies and innovations. Second, a natural reaction of a regulator towards newly emerging objects and subjects of turnover is the “imperfect law syndrome”. At the same time, a false idea about a lack of legal regulation may produce an opposite effect – duplication of legal norms. To solve the problem of duplicating legal requirements, it is necessary, first of all, to solve the issue of the need to regulate the artificial intelligence technologies or certain types of software applications. Scientific novelty: a review was carried out of the main approaches to regulating relations in the sphere of developing and using the artificial intelligence technologies; the opportunities and limitations of their use are revealed; further directions of their development are proposed. Practical significance: the main provisions and conclusions of the research can be used for determining the optimal approaches to regulating the sphere of digital technologies and for improving the legal regulation of the studied sphere of social relations.
Бесплатно
Статья научная
Цель: исследование проблемы определения субъекта юридически значимого действия, совершенного с использованием искусственного интеллекта, а также распределения ответственности за последствия его работы. Методы: для иллюстрации проблематики и практической значимости вопроса о правосубъектности искусственного интеллекта были выбраны автоматизированные закупки для государственных и корпоративных нужд, а методологическую основу исследования составила совокупность методов научного познания, используемых для теоретико-правовых исследований, в том числе сравнения, ретроспективного анализа, аналогии и синтеза. Результаты: на примере отрасли конкурентных закупок для государственных и корпоративных нужд проанализирована эволюция автоматизации хозяйственных отношений вплоть до внедрения искусственного интеллекта. Продемонстрированы успешно апробированные ответы на вызовы, обусловленные поэтапным внедрением цифровых технологий в хозяйственные отношения, а также соответствующие модификации правового регулирования. На основании текущего уровня развития технологий сформулированы перспективные вопросы правового регулирования хозяйственных отношений, реализуемых с использованием искусственного интеллекта, и прежде всего вопрос определения субъекта сделки, совершенной с использованием искусственного интеллекта. В качестве приглашения к дискуссии после анализа выводов правоведов о возможных вариантах юридического статуса искусственного интеллекта предложены варианты ответа на вопрос о его правосубъектности при заключении сделки. Для решения вопроса об ответственности за решения, ставшие результатом реализации алгоритмов программно-аппаратного комплекса, предложено несколько моделей распределения такой ответственности между его создателем, его владельцем и иными лицами, действия которых могли повлиять на результаты работы такого алгоритма. Предложенные выводы могут использоваться для развития нормативного регулирования как в совокупности, так и по отдельности. Научная новизна: в работе на основании анализа эволюции практик использования цифровых технологий в закупках сформулированы потенциальные проблемы правового порядка, обусловленные непрерывным процессом автоматизации хозяйственных отношений, а также предложены правовые конструкции для решения таких проблем. Практическая значимость: выводы и предложения настоящей работы имеют перспективное значение для концептуального понимания и нормативного регулирования инструментов проведения закупок в электронной форме как на корпоративном, так и национальном уровне.
Бесплатно
Статья научная
Objective: to research the problem of determining the subject of a legally relevant act effected with participation of artificial intelligence, as well as distribution of responsibility for the consequences of its performance. Methods: to illustrate the problematic and practical significance of the issue of legal personality of artificial intelligence, we chose automated procurements for public and corporate needs; the methodological basis of the research is the set of methods of scientific cognition, including comparison, retrospective analysis, analogy, and synthesis. Results: by the example of the sector of competitive procurements for public and corporate needs, the evolution of automation of economic relations up to artificial intelligence introduction was analyzed. Successfully tested reactions to the challenges of stage-by-stage introduction of digital technologies into economic relations were demonstrated, as well as the respective modifications of legal regulation. Based on the current level of technological development, the prospective questions are formulated, associated with the legal regulation of economic relations implemented with the use of artificial intelligence, first of all, the question of defining the subject of a deal effected with participation of artificial intelligence. As an invitation for discussion after analysis of jurists’ conclusions about the probable variants of the legal status of artificial intelligence, the author proposes variants of answers to the question of its legal personality when effecting a deal. To solve the issue of responsibility for the decisions resulting from the implementation of algorithms of a software and hardware package, we propose several models of distributing such responsibility among its creator, owner, and other persons, whose actions might influence the results of such an algorithm functioning. The proposed conclusions may be used to develop normative regulation both as a set and individually. Scientific novelty: based on the analysis of evolution of the practices of using digital technologies in procurement, the work formulates potential legal problems, determined by the constant automation of economic relations, and proposes legal constructs to solve such problems. Practical significance: the conclusions and proposals of this work are of prospective significance for conceptual comprehension and normative regulation of electronic procurement tools both at corporate and national level.
Бесплатно
AI-based Autonomous Weapons and Individual Criminal Responsibility under the Rome Statute
Статья научная
Objective: international law obligates states to prosecute those who have violated laws in armed conflicts, particularly when the international community now has International Criminal Court (ICC). That is why the aim of the paper is to discover the responsibility for the crimes made with the use of AI-based autonomous vehicles in accordance with the provisions of the Rome Statute of the ICC. Methods: doctrinal analysis allowed to research the positions of experts on the responsibility for the crimes made with the use of AI-based autonomous vehicles in accordance with the provisions of the Rome Statute of the ICC. Results: this paper argues that the ICC can only exercise jurisdiction over natural persons who allegedly have committed the crimes under its jurisdiction, as compared to autonomous weapons. This paper argues that the persons who facilitate the commission of the alleged crimes are highly likely to be criminally responsible for providing means for the alleged crimes to be committed by AI-based autonomous weapons under Article 25(3)(c) of the Rome Statute and concludes that the Rome Statute provides a solution even to AI-based autonomous weapons. Scientific novelty: this paper addresses to the highly relevant issues of the responsibility for the crimes made with the use of AI-based autonomous vehicles in accordance with the provisions of the Rome Statute of the ICC. Practical significance: the results achieved in the paper can be used in regulation design for AI-based autonomous weapons. It can also be used as a basis for the future research in the sphere of liability of AI-based autonomous weapons and AI in general.
Бесплатно
Статья научная
Цель: международное право обязывает государства преследовать лиц, нарушивших закон в ходе вооруженных конфликтов, чему способствовало создание Международного уголовного суда. Цeль данной статьи – рассмотрение ответственности за преступления, совершенные с использованием автономных устройств на основе искусственного интеллекта, согласно положениям Римского статута Международного уголовного суда. Методы: доктринальный анализ позволил изучить позиции экспертов по вопросу ответственности за преступления, совершенные с использованием автономных устройств на основе искусственного интеллекта, согласно положениям Римского статута Международного уголовного суда. Результаты: в работе показано, что Международный уголовный суд может отправлять правосудие только в отношении физических лиц, предположительно совершивших преступления в рамках его юрисдикции, но не в отношении автономных вооружений. В статье утверждается, что лица, способствовавшие совершению предполагаемых преступлений, будут, вероятно, нести уголовную ответственность за предоставление средств для совершения предполагаемых преступлений автономными вооружениями на основе искусственного интеллекта согласно статье 25(3)(c) Римского статута. Авторы приходят к выводу, что Римский статут дает решение относительно автономного вооружения на основе искусственного интеллекта. Научная новизна: в статье изучены актуальные вопросы, связанные с ответственностью за преступления, совершенные с использованием автономных устройств на основе искусственного интеллекта, согласно положениям Римского статута Международного уголовного суда. Практическая значимость: результаты работы могут быть использованы при разработке регулирования автономного вооружения на основе искусственного интеллекта, а также служить основой для будущих исследований в сфере ответственности за использование как автономных вооружений на основе искусственного интеллекта, так и искусственного интеллекта в целом.
Бесплатно
Artificial Intelligence Technologies in Criminal Procedural Proving
Статья научная
Objective: to summarize and analyze the approaches, established in criminal procedural science, regarding the use of artificial intelligence technologies, to elaborate an author’s approach to the prospects of transformation of criminal procedural proving under the influence of artificial intelligence technologies. Methods: the methodological basis of the research is integrity of general, general scientific and specific legal methods of legal science, including abstract-logical, comparative-legal and prognostic methods. Results: the main areas of using artificial intelligence technologies in the criminal procedure are defined, such as prophylaxis and detection of crimes, organization of preliminary investigation, criminological support of crime investigation, and assessing evidences at pre-trial and trial stages. The author comes to a conclusion that the rather optimistic approach to this issue, established in the science of criminal procedure, significantly outstrips the actually existing artificial intelligence technologies. The main requirements are identified, which the activity of using artificial intelligence in collecting evidences in a criminal case should satisfy. The author pays attention to the problems of using artificial intelligence technologies in conducting expert assessments, requiring an improved methodology of forensic work. The issue is considered of the prospects of transforming the criminal-procedural proving process under introduction of artificial intelligence technologies. A conclusion is substantiated that the assessment of evidences with mathematical algorithms, in which preset values of each evidence quality are used, contradict to the principle of free assessment of evidences in the criminal procedure. The author comes to a conclusion that today there are no sufficient grounds for endowing artificial intelligence with legal personality during proving. Scientific novelty: the work presents an attempt to consider the role of artificial intelligence in the criminal-procedural proving; it specifies the requirements to be met by this technology during evidences collection and analyzes the prospects of transforming the proving process under the introduction of artificial intelligence technologies. Practical significance: the main provisions and conclusions of the research can be used to improve a mechanism of legal regulation of artificial intelligence technologies in the criminal procedure.
Бесплатно
Технологии искусственного интеллекта в уголовно-процессуальном доказывании
Статья научная
Цель: обобщение и анализ сложившихся в уголовно-процессуальной науке позиций к применению технологий искусственного интеллекта, выработка авторского подхода к перспективам трансформации уголовно-процессуального доказывания под влиянием технологий искусственного интеллекта. Методы: методологическую основу исследования составляет единство всеобщего, общенаучных и специально-юридических методов правовой науки, в том числе абстрактно-логического, сравнительно-правового и прогностического. Результаты: определены основные направления применения технологий искусственного интеллекта в уголовном процессе, такие как профилактика и выявление преступлений, организация предварительного расследования, криминалистическое сопровождение расследования преступлений, оценка доказательств на досудебной и судебной стадиях. Автор приходит к выводу, что сложившийся в науке уголовного процесса достаточно оптимистичный подход по данному вопросу значительно опережает реально существующие в настоящее время технологии искусственного интеллекта. Выявлены основные требования, которым должна отвечать деятельность по применению искусственного интеллекта при сборе доказательств по уголовному делу. Обращено внимание на проблемы применения технологий искусственного интеллекта при проведении судебных экспертиз, которые требуют совершенствования методологии судебно-экспертной работы. Рассмотрен вопрос о перспективах трансформации процесса уголовно-процессуального доказывания в условиях внедрения технологий искусственного интеллекта. Обосновывается вывод, что оценка доказательств с помощью математических алгоритмов, в которых применяются заранее установленные значения качества каждого доказательства, противоречит принципу свободы оценки доказательств в уголовном процессе. Автор приходит к выводу об отсутствии в настоящее время достаточных оснований для наделения искусственного интеллекта субъектностью в процессе доказывания. Научная новизна: в работе предпринята попытка рассмотреть место искусственного интеллекта в уголовно-процессуальном доказывании, выявлены требования, которым должно соответствовать применение этой технологии при сборе доказательств, при этом проанализированы перспективы трансформации процесса доказывания с учетом внедрения технологий искусственного интеллекта. Практическая значимость: основные положения и выводы исследования могут быть использованы для совершенствования механизма правового регулирования технологий искусственного интеллекта в уголовном процессе.
Бесплатно
Статья научная
Objective: the spread and wide application of Artificial Intelligence raises ethical questions in addition to data protection measures. That is why the aim of this paper is to examine ethical aspects of Artificial Intelligence and give recommendations for its use in labor law. Methods: research based on the methods of comparative and empirical analysis. Comparative analysis allowed to examine provisions of the modern labor law in the context of use of Artificial Intelligence. Empirical analysis made it possible to highlight the ethical issues related to Artificial Intelligence in the world of work by examining the disputable cases of the use of Artificial Intelligence in different areas, such as healthcare, education, transport, etc. Results: the private law aspects of the ethical issues of Artificial Intelligence were examined in the context of ethical and labor law issues that affect the selection process with Artificial Intelligence and the treatment of employees as a set of data from the employers’ side. Author outlined the general aspects of ethics and issues of digital ethics. Author described individual international recommendations related to the ethics of Artificial Intelligence. Scientific novelty:this research focused on the examination of ethical issues of the use of Artificial Intelligence in the specific field of private law – labor law. Authors gave recommendations on ethical aspects of use of Artificial Intelligence in this specific field. Practical significance: research contributes to the limited literature on the topic. The results of the research could be used in lawmaking process and also as a basis for future research.
Бесплатно
Рекомендации по этическим аспектам искусственного интеллекта в приложении к сфере трудовых отношений
Статья научная
Цель: распространение и широкое использование искусственного интеллекта выдвигает на первый план не только проблемы защиты данных, но и этические вопросы. Цель данной статьи – изучение этических аспектов искусственного интеллекта и предложение рекомендаций для его использования в трудовом праве. Методы: исследование основано на методах сравнительного и эмпирического анализа. Сравнительный анализ позволил изучить положения современного трудового законодательства в контексте искусственного интеллекта. Эмпирический анализ выявил этические проблемы, относящиеся к искусственному интеллекту в сфере труда, путем изучения спорных случаев использования искусственного интеллекта в различных областях, таких как здравоохранение, образование, транспорт и др. Результаты: частноправовые аспекты этических проблем искусственного интеллекта были изучены в контексте этических и трудовых вопросов права, влияющих на процесс отбора с помощью искусственного интеллекта и на обращение с работниками с точки зрения работодателя. Автор выделяет как общие аспекты этики, так и вопросы цифровой этики. Предложены отдельные международные рекомендации относительно этики искусственного интеллекта. Научная новизна: исследование посвящено изучению этических аспектов использования искусственного интеллекта в конкретной отрасли частного права – трудовом праве. Автор дает рекомендации относительно этических аспектов использования искусственного интеллекта в данной сфере. Практическая значимость: исследование восполняет имеющиеся пробелы в научной литературе по указанному вопросу. Результаты работы могут использоваться в процессе законотворчества и служить базой для дальнейших исследований.
Бесплатно
Этико-правовые модели взаимоотношений общества с технологией искусственного интеллекта
Статья научная
Цель: исследование современного состояния технологии искусственного интеллекта в формировании прогностических этико-правовых моделей взаимоотношений общества с рассматриваемой сквозной цифровой технологией. Методы: основным методом исследования является моделирование. Помимо него, в работе использованы сравнительный, абстрактно-логический и исторический методы научного познания. Результаты: сформулированы четыре этико-правовые модели взаимоотношений общества с технологией искусственного интеллекта: инструментальная (на основе использования человеком системы искусственного интеллекта), ксенофобная (на основе конкуренции человека и системы искусственного интеллекта), эмпатическая (на основе сочувствия и соадаптации человека и систем искусственного интеллекта), толерантная (на основе взаимоиспользования и сотрудничества между человеком и системами искусственного интеллекта). Приведены исторические и технические предпосылки формирования таких моделей. Описаны сценарии реакций законодателя на ситуации использования этой технологии, такие как необходимость точечного регулирования, отказа от регулирования либо же полномасштабного вмешательства в технологическую отрасль экономики. Произведено сравнение моделей по критериям условий реализации, достоинства, недостатков, характера отношений «человек – система искусственного интеллекта», возможных правовых последствий и необходимости регулирования отрасли либо отказа от такового. Научная новизна: в работе приведена оценка существующих в научной литературе, публицистике мнений и подходов, проанализированы технические решения и проблемы, возникшие в недавнем прошлом и настоящем. Теоретические выводы подтверждаются ссылками на прикладные ситуации, имеющие общественную или правовую значимость. В работе использован междисциплинарный подход, объединяющий правовую, этическую и техническую составляющие, которые, по мнению автора, являются критериальными для любых современных социогуманитарных исследований технологий искусственного интеллекта. Практическая значимость: феномен искусственного интеллекта связывают с четвертой промышленной революцией, соответственно, эта цифровая технология должна быть изучена многоаспектно и междисциплинарно. Выработанные в научной статье подходы могут быть использованы при дальнейших технических разработках интеллектуальных систем, совершенствования отраслевого законодательства (например, гражданского и трудового), а также при формировании и модификации этических кодексов в сфере разработки, внедрения и использования систем искусственного интеллекта в различных ситуациях.
Бесплатно
Ethical-Legal Models of the Society Interactions with the Artificial Intelligence Technology
Статья научная
Objective: to explore the modern condition of the artificial intelligence technology in forming prognostic ethical-legal models of the society interactions with the end-to-end technology under study. Methods: the key research method is modeling. Besides, comparative, abstract-logic and historical methods of scientific cognition were applied. Results: four ethical-legal models of the society interactions with the artificial intelligence technology were formulated: the tool (based on using an artificial intelligence system by a human), the xenophobia (based on competition between a human and an artificial intelligence system), the empathy (based on empathy and co-adaptation of a human and an artificial intelligence system), and the tolerance (based on mutual exploitation and cooperation between a human and artificial intelligence systems) models. Historical and technical prerequisites for such models formation are presented. Scenarios of the legislator reaction on using this technology are described, such as the need for selective regulation, rejection of regulation, or a full-scale intervention into the technological economy sector. The models are compared by the criteria of implementation conditions, advantages, disadvantages, character of “human – artificial intelligence system” relations, probable legal effects and the need for regulation or rejection of regulation in the sector. Scientific novelty: the work provides assessment of the existing opinions and approaches, published in the scientific literature and mass media, analyzes the technical solutions and problems occurring in the recent past and present. Theoretical conclusions are confirmed by references to applied situations of public or legal significance. The work uses interdisciplinary approach, combining legal, ethical and technical constituents, which, in the author’s opinion, are criteria for any modern socio-humanitarian researches of the artificial intelligence technologies. Practical significance: the artificial intelligence phenomenon is associated with the fourth industrial revolution; hence, this digital technology must be researched in a multi-aspectual and interdisciplinary way. The approaches elaborated in the article can be used for further technical developments of intellectual systems, improvements of branch legislation (for example, civil and labor), and for forming and modifying ethical codes in the sphere of development, introduction and use of artificial intelligence systems in various situations.
Бесплатно
Искусственный интеллект как вспомогательный инструмент ограничения религиозной свободы в Китае
Статья научная
Цель: на основании изучения статистики преступлений, национального законодательства и норм международного права дать правовую оценку ограничениям права на свободу вероисповедания с применением технологий искусственного интеллекта в Китае. Методы: методологическую основу исследования составляет совокупность методов научного познания, в том числе конкретно-социологический (анализ статистических данных и иных документов), формально-юридический (изучение правовых категорий и дефиниций), формально-логические методы (анализ и синтез), общенаучные методы (индукция, дедукция) и др. Результаты: в работе изучены предпосылки использования в Китае технологий искусственного интеллекта для контроля за общественными отношениями, возникающими в процессе религиозной активности как в цифровом пространстве, так и за его пределами; проанализирована правовая база применения указанных мер; дана правовая оценка ограничения религиозной свободы с использованием технологий искусственного интеллекта; сделан прогноз дальнейшего развития китайских законодательства и внешней политики, связанных с религиозной свободой. Дополнительно в работе проанализированы материалы правозащитных организаций, направленных на сдерживание политики КНР по «китаизации» и «деэкстремификации» этнических и религиозных меньшинств, в том числе при помощи контроля и пропаганды с использованием современных цифровых технологий. Научная новизна: в работе исследована попытка Китая урегулировать связанные с религиозной активностью вызовы, возникающие в процессе стремительной цифровизации общества и государства, с которыми республика сталкивается как развивающаяся, многонациональная и поликофессиональная страна. Установленные ограничения религиозной свободы с применением технологий искусственного интеллекта рассмотрены в комплексе с релевантной статистикой преступлений. Правовая оценка применения искусственного интеллекта как инструмента ограничения свободы вероисповедания дана не только с точки зрения международного права, но и с учетом норм китайского национального законодательства. Практическая значимость: результаты проведенного исследования могут быть использованы для разработки непротиворечивой нормативной правовой базы для использования технологий искусственного интеллекта в целях противоборства экстремизму.
Бесплатно
Artificial Intelligence as an Auxiliary Tool for Limiting Religious Freedom in China
Статья научная
Objective: based on studying the statistics of crimes, national legislation and norms of international law, to give a legal assessment to restrictions of the right to worship implemented with the use of artificial intelligence technologies in China. Methods: the methodological basis of the research is the set of methods of scientific cognition, including specific sociological (analysis of statistical data and other documents), formal-legal (examining legal categories and definitions), formal-logical (analysis and synthesis), general scientific (induction, deduction), and other methods. Results: the work researches prerequisites for using artificial intelligence technologies in China to control public relations arising during religious activity both in the digital space and beyond; analyzes the legal framework of the measures implemented; gives a legal assessment to restrictions of the religious freedom using artificial intelligence technologies; forecasts the further development of Chinese legislation and foreign policy associated with religious freedom. Additionally, the work analyzes materials of human rights organizations aimed at hindering the Chinese policy of “sinicisation” and “de-extremification” of ethnic and religious minorities, including with the help of control and propaganda using modern digital technologies. Scientific novelty: the work researches the attempt of China to regulate the challenges related to religious activity, arising during rapid digitalization of the society and state, which the Republic faces being a developing, multinational and polyconfessional country. The established restrictions of religious freedom using artificial intelligence technologies are considered along with the relevant criminal statistics. The legal assessment of using artificial intelligence as a tool for restricting the right to worship is given from the standpoint of international law, as well as with the account of Chinese national legislation. Practical significance: the research results can be used to elaborate a consistent legal framework for using artificial intelligence technologies to counteract extremism.
Бесплатно
Статья научная
Цель: определение проблем, которые ставит распространение технологий искусственного интеллекта перед юридической теорией и практикой, и соотнесение этих проблем с человеко-ориентированным подходом к искусственному интеллекту (Human-Centered AI). Методы: исследование основано на критическом анализе релевантной литературы из разных дисциплинарных областей: юриспруденции, социологии, философии, компьютерных наук. Результаты: в статье сформулированы основные перспективы и проблемы, которые ставит перед правовой системой развитие цифровых технологий в целом и алгоритмов искусственного интеллекта в частности. Выделенные проблемы соотнесены с положениями человеко-ориентированного подхода к искусственному интеллекту. Авторы утверждают необходимость того, чтобы разработчики программ искусственного интеллекта, владельцы компаний, участвующих в гонке по внедрению технологий искусственного интеллекта, сосредоточивались на том, чтобы люди и человек как базовая ценность общества находились в центре внимания. В частности, специальные усилия следует направить на сбор и анализ высококачественных данных для организации разработок инструментов искусственного интеллекта, поскольку сегодня алгоритмы искусственного интеллекта эффективны настолько, насколько эффективны данные, на которых они обучаются. Авторы формулируют три принципа человеко-ориентированного искусственного интеллекта для правовой сферы: 1) человек как необходимое звено в цепочке принятия и исполнения правовых решений; 2) необходимость регулирования искусственного интеллекта на уровне международного права; 3) формулировка «табу» для внедрения технологий искусственного интеллекта. Научная новизна: статья представляет собой первую в русскоязычной научной литературе попытку обозначить перспективы развития области человеко-ориентированного искусственного интеллекта в юриспруденции. На основании анализа специальной литературы авторы формулируют три принципа включения искусственного интеллекта в юридическую теорию и практику с точки зрения человеко-ориентированного подхода к искусственному интеллекту. Практическая значимость: принципы, сформулированные в статье, будут полезны как для правового регулирования технологий искусственного интеллекта, так и для гармоничного их включения в юридические практики.
Бесплатно
The Possibility and Necessity of the Human-Centered AI in Legal Theory and Practice
Статья научная
Objective: the paper aims to define the problems juridical theory and practice face with the progress of AI technologies in everyday life and correlate these problems with the human-centered approach to exploring artificial intelligence (Human-Centered AI). Methods: the research critically analyzes the relevant literature from various disciplines: jurisprudence, sociology, philosophy, and computer sciences. Results: the article articulates the prospects and problems the legal system confronts with the advancement of digital technologies in general and the tools of AI specifically. The identified problems are correlated with the provisions of the human-centered approach to AI. The authors acknowledge the necessity for AI inventors, as well as the owners of companies participating in the race to develop artificial intelligence technologies, to place humans, not machines, into the focus of attention as a primary value. In particular, special effort should be directed towards collecting and analyzing high-quality data for the organization of artificial intelligence tools development, taking into account that nowadays, the tools of AI are as practical as the data on which they are trained are effective. The authors formulate three principles of human-centered AI for the legal sphere: 1) a human as a necessary link in the chain of making and executing legal decisions; 2) the need to regulate artificial intelligence at the international law level; 3) formulating “a taboo” for introducing the artificial intelligence technologies. Scientific novelty: the article manifests one of the first attempts in the Russian-language scientific literature to outline the prospects of developing human-centered AI methodology in jurisprudence. Based on an analysis of special literature, the authors formulate three principles of including artificial intelligence into juridical theory and practice according to the assumptions of a human-centered approach to AI. Practical significance: the principles and arguments the article advances can be helpful in the legal regulation of artificial intelligence technologies and their harmonious inclusion into legal practices.
Бесплатно