Феномен риска в условиях применения алгоритмов искусственного интеллекта

Бесплатный доступ

С появлением больших языковых моделей у исследователей возрос интерес к алгоритмам искусственного интеллекта и их применению в деятельности предприятий. Такие алгоритмы уже внесли свой значительный вклад в сферах медицины, транспорта и финансов. В настоящее время необходимо понять, какие побочные эффекты алгоритмы искусственного интеллекта могут вызвать после их интеграции в производство продуктов и услуг. Целью данной работы является выявление факторов риска применения таких алгоритмов и систем, оценка их влияния на уровень риска и предложение инструментов воздействия для снижения уровня риска. В результате проведенного исследования был уточнен термин «искусственный интеллект», выделены алгоритмы аналитического, функционального, интерактивного, текстового и визуального искусственного интеллекта, составляющие современную систему искусственного интеллекта, которая представляет собой следующую волну автоматизации деятельности предприятий. С использованием методов системной экономической теории и операциональной теории классифицированы факторы риска применения алгоритмов искусственного интеллекта в объектной, процессной, проектной и средовой подсистемах предприятия и предложены антирисковые управленческие воздействия для уменьшения вероятности возникновения ситуации риска или для компенсации причиненного ущерба. Описаны изменения в деятельности крупных компаний в области информационных технологий, связанные с изменением понятия авторского права, интеллектуальной собственности в настоящее время. Показаны ограничения внедрения и применения алгоритмов искусственного интеллекта, связанных с инерционностью мышления руководителей и сложностью перестройки бизнес-процессов на предприятии. Обоснована необходимость регулирования в сфере внедрения систем искусственного интеллекта, определения четких границ и ограничений для алгоритмов искусственного интеллекта, для обеспечения безопасности отдельных людей и общества в целом, их соответствие этическим нормам.

Еще

Факторы риска, уровень риска, искусственный интеллект, большие языковые модели, системная экономическая теория, объектная подсистема, процессная подсистема, проектная подсистема, средовая подсистема

Короткий адрес: https://sciup.org/149145133

IDR: 149145133   |   DOI: 10.15688/ek.jvolsu.2023.4.1

Список литературы Феномен риска в условиях применения алгоритмов искусственного интеллекта

  • Иванов, Д. А. Анализ тенденций изменения принципов управления предприятиями в условиях развития технологий индустрии 4.0 / Д. А. Иванов, М. А. Иванова, Б. В. Соколов // Тр. СПИИРАН. – 2018. – Вып. 5 (60). – С. 97–127. – DOI: 10.15622/sp.60.4
  • Кабалина, В. И. Контекстуализация управления талантами в российских ИТ-компаниях / В. И. Кабалина, О. В. Мондрус // Российский журнал менеджмента. – 2018. – Т. 16, № 1. – C. 5–36. – DOI: https://doi.org/10.21638/11701/spbu18.2018.101
  • Карпов, В. Э. К вопросу об этике и системах искусственного интеллекта / В. Э. Карпов, П. М. Готовцев, Г. В. Ройзензон // Философия и общество. – 2018. – Т. 2 (87). – С. 84–105. – DOI: 10.30884/jfio/2018.02.07
  • Качалов, Р. М. Бизнес-экосистемы в кризисных условиях: выявление факторов риска / Р. М. Качалов, Ю. А. Слепцова // Российский журнал менеджмента. – 2022. – Т. 20, № 2. – С. 155–171. – DOI: https://doi.org/10.21638/spbu18.2022.201
  • Качалов, Р. М. Управление риском в деятельности бизнес-экосистем в период кризисов / Р. М. Качалов, Ю. А. Слепцова // Вестник Волгоградского государственного университета. Экономика. – 2022а. – Т. 24, № 2. – С. 146–159. – DOI: https://doi.org/10.15688/ek.jvolsu.2022.2.12
  • Качалов, Р. М. Этические проблемы применения алгоритмов искусственного интеллекта в управлении предприятием / Р. М. Качалов, Ю. А. Слепцова // Системный анализ в проектировании и управлении. – 2023. – Т. 26 (2). – С. 16–23. – DOI: 10.18720/SPBPU/2/id23-77
  • Клейнер, Г. Б. Информационная теория факторов управления экономическими организациями / Г. Б. Клейнер // Российский журнал менеджмента. – 2022. – Т. 20, № 4. – С. 461–481. – DOI: https://doi.org/10.21638/spbu18.2022.401
  • Лисовский, А. Л. Применение нейросетевых технологий для разработки систем управления / А. Л. Лисовский // Стратегические решения и риск-менеджмент. – 2020. – № 11 (4). – С. 378–389. – DOI: 10.17747/2618-947Х-2020-4-378-389
  • Лобачева, А. С. Этика применения искусственного интеллекта в управлении персоналом / А. С. Лобачева, О. В. Соболь // E-Management. – 2021. – Т. 4 (1). – С. 20–28. – DOI: 10.26425/2658-3445-2021-4-1-20-28
  • Юсупов, Р. М. Особенности оценивания эффективности информационных систем и технологий / Р. М. Юсупов, А. А. Мусаев // Тр. СПИИРАН. – 2017. – № 2 (51). – С. 5–34. – DOI: 10.15622/sp.51.1
  • Algorithmic Management in a Work Context / M. H. Jarrahi [et al.] // Big Data & Society. – 2021. – Vol. 8 (2), art. 20539517211020332. – DOI: 10.1177/20539517211020332
  • A Systematic Literature Review of Information Security in Chatbots / J. Yang, Y. L. Chen, L. Y. Por, C. S. Ku // Applied Sciences. – 2023. – Vol. 13 (11). – P. 6355. – DOI: 10.3390/app13116355
  • Autonomous Tools and Design: A Triple-Loop Approach to Human-Machine Learning / S. Seidel, N. Berente, A. Lindberg, K. Lyytinen, J. V. Nickerson // Communications of the ACM. – 2018. – Vol. 62, iss. 1. – P. 50–57. – DOI: 10.1145/3210753
  • Chiu, T. K. F. The Impact of Generative AI (GenAI) on Practices, Policies and Research Direction in Education: A Case of Ch atGPT and Midjourney / T. K. F. Chiu // Interactive Learning Environments. – 2023. – DOI: 10.1080/10494820.2023.2253861
  • Clarke, R. Principles and Business Processes for Responsible AI / R. Clarke // Computer Law & Security Review. – 2019. – Vol. 35, iss. 4. – P. 410–422. – DOI: 10.1016/j.clsr.2019.04.007
  • Collins, H. Artifictionnal Intelligence: Against Humanity’s Surrender to Computers / H. Collins. – Polity Press, 2018. Julia, L. L’intelligence artificielle n’existe pas / L. Julia. – Paris : Éditions First. 2019. Le Cun, Y. Quand la machine apprend: la revolution des neurones artificiels et de l’apprentissage profond / Y. Le Cun. – Odile Jacob, 2019. Levesque, H. J. On Our Best Behaviour / H. J. Levesque, // Artificial Intelligence. – 2014. – Vol. 212. – P. 27–35. – DOI: 10.1016/j.artint.2014.03.007
  • Nilsson, N. J. Human-Level Artificial Intelligence? Be Serious! / N. J. Nilsson // AI Magazine. – 2005. – Vol. 26 (4). – P. 68–75.
  • Pouloudi, A. Stakeholder Identification in Inter-Organizational Systems: Gaining Insights for Drug Use Management Systems / A. Pouloudi, E. A. Whitley // European Journal of Information Systems. – 1997. – Vol. 6, iss. 1. P. 1–14.
  • Sallam, M. ChatGPT Utility in Healthcare Education, Research, and Practice: Systematic Review on the Promising Perspectives and Valid Concerns / M. Sallam // In Healthcare. – 2023. – Vol. 11, № 6. – P. 887. – MDPI. – DOI: 10.3390/healthcare11060887
  • Sarker, I. H. AI-Based Modeling: Techniques, Applications and Research Issues Towards Automation, Intelligent and Smart Systems / I. H. Sarker // SN Computer Science. – 2022. – Vol. 3, art. 158. – DOI: 10.1007/s42979-022-01043-x
  • Sarker, I. H. Machine Learning: Algorithms, Real-World Applications and Research Directions / I. H. Sarker // SN Сomputer Science. – 2021. – Vol. 2 (3). – P. 1–21. – DOI: 10.1007/s42979-021-00592-x
  • Shapiro, S. C. Encyclopedia of Artificial Intelligence Second Edition / S. C. Shapiro. – New Jersey : A Wiley Interscience Publication, 1992. “So What If ChatGPT Wrote It?” Multidisciplinary Perspectives on Opportunities, Challenges, and Implications of Generative Conversational AI for Research, Practice, and Policy / Y. K. Dwivedi, N. Kshetri, L. Hughes [et al.] // International Journal of Information Management. – 2023. – Vol. 71, art. 102642. DOI: 10.1016/j.ijinfomgt.2023.102642
  • The Ten Commandments of Ethical Medical AI / H. Muller, M. T. Mayrhofer, E. B. Van Veen, A. Holzinger // Computer. – 2021. – Vol. 54, iss. 7. – P. 119–123. – DOI: 10.1109/MC.2021.3074263
Еще
Статья научная