Этические аспекты реализации технологий искусственного интеллекта в классическом университете: анализ отношения студенческой аудитории
Автор: Бермус А.Г., Сизова Е.В.
Журнал: Непрерывное образование: XXI век @lll21-petrsu
Рубрика: Непрерывное образование в современном мире: методология исследования и проектирования
Статья в выпуске: 2 т.13, 2025 года.
Бесплатный доступ
Описываются этические проблемы, обусловленные применением технологий искусственного интеллекта (нейронные сети, чатботы, большие языковые модели, генеративный искусственный интеллект и т. д.) в системе высшего университетского образования. Методологической основой исследования является аксиологический подход, позволяющий в полной мере оценить серьезность этической проблематики в высшей школе в условиях цифровой трансформации. Представлены результаты эмпирического исследования, проведенного на базе двух классических университетов (Кубанский государственный университет и Южный федеральный университет), цель которого – выявить отношение студенческой аудитории (обучающиеся бакалавриата и магистратуры) к правомерной и неправомерной реализации цифровых технологий с генеративным искусственным интеллектом в образовательном процессе вуза. Сопоставляются этические позиции по отношению к некорректному использованию технологий искусственного интеллекта, а также к вопросам академической честности и недопустимости различных форм академического мошенничества со стороны будущих журналистов (Кубанский государственный университет) и будущих педагогов (Южный федеральный университет). Делается вывод о необходимости проведения систематической целенаправленной работы со студентами, направленной на предотвращение и борьбу с проявлениями академической нечестности и имитационных практик в высшей школе, в том числе связанных с внедрением цифровых технологий.
Высшее образование, классический университет, искусственный интел-лект, нейронные сети, чат-боты, этические проблемы, академическая честность, ответственность студентов
Короткий адрес: https://sciup.org/147250756
IDR: 147250756 | DOI: 10.15393/j5.art.2025.10585
Текст научной статьи Этические аспекты реализации технологий искусственного интеллекта в классическом университете: анализ отношения студенческой аудитории
Эпоха цифровой трансформации открыла перед системой высшего образования широкий потенциал технологических и дидактических возможностей, включая тотальную цифровизацию образовательного процесса и массовое внедрение технологий, основанных на применении искусственного интеллекта (нейронных сетей, чат-ботов, виртуальных помощников и др.), технологий виртуальной и дополненной реальности, аналитики больших данных и т. д. Посредством цифровых технологий студенты и преподаватели овладевают инно- вационными подходами к поиску и обработке информации, организации образовательного процесса, мониторингу образовательных результатов, автоматизации учебных задач, индивидуализации и персонализации обучения. Однако вместе с разнообразными возможностями совершенствования образовательной деятельности искусственный интеллект принес с собой также и большое количество проблем этического характера.
Какие же этические проблемы несет в себе применение технологий искусственного интеллекта в высшем образовании? Эти проблемы довольно многочисленны. Систематизируя негативные факторы влияния цифровых технологий в сфере образования, А. Г. Бермус [1] выделяет различные формы академического мошенничества: плагиат; повышение оригинальности текстов выпускных квалификационных работ посредством применения специальных компьютерных программ; феномен «копипаст» (неправомерные заимствования фрагментов чужих текстов); гострайтинг, или ложное авторство научных работ; исследовательскую недобросовестность; имитацию данных; создание псевдонаучных текстов и др.
И. Н. Емельянова и соавторы [2] систематизируют имитационные практики, распространенные в университетском образовании, такие как списывание, обращение к интернет-материалам при прохождении тестирования, выполнение учебных заданий по шаблону, деление вопросов при подготовке к практическим занятиям, сдачу заказных работ и др. По мнению исследователей, подобные практики представляют собой вполне закономерное социальное явление и включают практически всех субъектов образования – администрацию вузов, органы управления образованием, преподавателей и студентов. Внедрение технологий искусственного интеллекта оказывается удобным механизмом, который содействует росту имитационных практик. Причины подобного феномена, по мнению авторов, кроются в формальном подходе к стандартизации образования, бюрократизации и подмене борьбы за качество борьбой за показатели. Студенты, как правило, относятся к имитационным практикам лояльно, а многие преподаватели – достаточно терпимо.
Согласно исследованию И. В. Тихоновой и Г. М. Ильдугановой [3], большую угрозу академической честности представляет собой использование чат-ботов, в особенности при обучении иностранным языкам, поскольку применение цифровых программ позволяет студентам за короткий срок написать качественное эссе, подготовить диалог, сделать резюме иноязычного текста, составить вопросы и пр. При этом сгенерированные тексты отличаются довольно высоким качеством.
Разнообразные угрозы и риски вызывает бесконтрольное использование ChatGPT в образовательном процессе, среди них преобладают явления, имеющие этические и моральные последствия: ложное авторство исследовательских текстов и выпускных квалификационных работ; нарушение авторского права; плагиат; искажение либо включение в авторские тексты заведомо ложной информации; может наблюдаться цифровое неравенство среди обучающихся; ограничение объема живого общения между преподавателем и студентами;
снижение креативных качеств личности; переоценка ценностей и даже риск отхода от гуманистического миропонимания [4].
Как отмечает Т. В. Еременко [5], этические проблемы, связанные с различными формами академической нечестности, широко распространены как в отечественной, так и в зарубежной образовательной практике и являются объектом исследования ученых-педагогов и философов образования. В 1953 г. Д. Р. Кресси разработал концепцию «треугольника мошенничества», согласно которой предпосылки для возникновения мошенничества имеются в тех случаях, когда для этого созданы определенные условия: 1) наличие давления / стимула; 2) возможность осуществить мошенничество; 3) основание для самооправдания собственных действий. Эти три фактора образуют три стороны треугольника и позволяют объяснить повышенную угрозу роста мошеннических действий в цифровой образовательной среде.
Цель настоящего исследования - обобщить этические проблемы, вызванные неправомерным использованием технологий искусственного интеллекта в образовательном процессе высшей школы, а также эмпирическим путем выявить отношение современных студентов к различным («честным» и «нечестным») способам реализации цифровых технологий.
Концептуальной основой исследования стал аксиологический подход к оценке этической проблематики, обусловленной использованием систем искусственного интеллекта в образовании. Современные педагоги-исследователи, философы, социологи, представители других гуманитарных дисциплин задаются вопросом о том, насколько этично применение технологий искусственного интеллекта в образовании и обучении?
В. Э. Карпов, П. М. Готовцев и Г. В. Ройзензон полагают, что в случае с применением искусственного интеллекта мы сталкиваемся прежде всего с вопросами поведения и принятия решений [6]. Искусственный интеллект как «думающая», «сверхразумная» машина, или автономная интеллектуальная система, осуществляет определенные действия и избирает тот или иной тип поведения, который не всегда соответствует нормам человеческой этики. Но это лишь одна сторона рассматриваемого аспекта. Когда мы говорим о применении возможностей искусственного интеллекта в сфере образования, очевидно, что плодами деятельности интеллектуальной системы пользуется человек (в данном случае обучающийся), который может использовать эти плоды, нарушая принципы морали, например, присваивая себе авторство продукта, созданного машиной; искажая данные, полученные посредством применения искусственного интеллекта; неправомерно (в личных или корыстных целях) используя результаты технологического прогресса.
Имеются и более серьезные моральные опасения, в частности, возможность «вложения» либо приобретения в результате глубокого обучения интеллектуальными системами ценностей, которые не предполагались разработчиками, что опровергает постулат о ценностной нейтральности технических объектов [7]. Ученые выдвигают различные концепции «аксиологии техники», например, включение искусственного интеллекта в целостную схему ценностно окрашенного взаимодействия субъектов ради достижения человекоразмерности сложных технических систем; человекоразмерность при этом рассматривается как сообразность системы ценностям человека и общества [8]. Огромную угрозу миру представляет внедрение искусственного интеллекта в военные разработки, ведь такой вклад лишен эмпатии и нравственных ориентиров, которые зависят исключительно от целеполагания разработчиков [9].
Анализ современных гуманитарных исследований свидетельствует о становлении новой отрасли гуманитарного знания – цифровой аксиологии, основными постулатами которой должны стать равенство и гуманизм [10]. Вводятся новые термины, связанные с неограниченными, на первый взгляд, возможностями цифровизации, например, понятия «цифровое бессмертие», «цифровая танатология», «цифровая смерть», использующиеся в философских концепциях трансгуманизма. Данные теории неизбежно несут в себе нравственную проблематику в связи с трансформацией понимания категории бессмертия и восприятия человеческой телесности в контексте возможности технологической трансформации человеческого тела, переносе сознания в «небиологические объекты» и т. п. [11]. В информационном обществе все большую значимость приобретают такие ценности трансгуманизма, как «научный прогресс», «управляемая эволюция», «прагматизм», «новый гедонизм», ценности разума и интеллекта.
В связи с моральными и техническими рисками использования искусственного интеллекта в цивилизационном масштабе академическое сообщество разрабатывает кодексы чести, этические кодексы, нормы и этические стандарты применения искусственного интеллекта с тем, чтобы избежать негативных последствий неэтично принятых решений в разных сферах деятельности, включая образование. Следует упомянуть этический кодекс, утвержденный Генеральной конференцией Организации Объединенных Наций по вопросам образования, науки и культуры (ЮНЕСКО) (41-я сессия, Париж, 9–24 ноября 2021 г.) под названием «Рекомендация об этических аспектах искусственного интеллекта»1, цель которого – обеспечить уважение прав человека и человеческого достоинства, физическое, психическое и социальное благополучие индивида в обществе, экологическую безопасность и другие аспекты.
С этическими проблемами применения искусственного интеллекта тесно связаны вопросы социально-правового регулирования использования информационных технологий в разных сферах жизнедеятельности [12]. Внедрение искусственного интеллекта создает ряд рисков для общества, однако нормы и правила для минимизации угроз и рисков в условиях перехода к цифровой экономике пока только начинают разрабатываться. В России данные установления нашли отражение в двух стратегических документах – «Национальной стратегии развития искусственного интеллекта до 2030 года» (2019)2 и «Концепции развития регулирования отношений в сфере технологий ИИ и робототехники» (2020)1.
Ассоциация «Альянс в сфере искусственного интеллекта», объединяющая ведущие российские и международные технологические компании, разработала «Кодекс этики в сфере искусственного интеллекта»2, в основе которого лежат человекоориентированный гуманистический подход, уважение автономии и свободы воли личности, соответствие закону, запрет дискриминации и другие гуманистические принципы.
В большинстве зарубежных вузов разрабатываются собственные этические кодексы и нормы применения искусственного интеллекта в образовательной и научной деятельности. Издаются монографические исследования [13] и рекомендации, посвященные этической стороне применения технологий искусственного интеллекта в образовании [14]. Китайские и американские исследователи Яо Фу (Yao Fu) и Чжэньцзе Вэн (Zhenjie Weng) [15] отмечают, что вопросы этики и ответственного использования искусственного интеллекта актуальны в индустриально развитых странах на всех уровнях непрерывного образования – от детских дошкольных учреждений до системы высшего образования. Этические принципы, на которых строится ответственное человекоцентрированное применение искусственного интеллекта, включают равенство, справедливость, безопасность, конфиденциальность информации, непричине-ние вреда, прозрачность, понятность, автономию в использовании, что в совокупности может быть достигнуто лишь в результате совместных усилий всех стейкхолдеров – преподавателей, обучающихся, разработчиков образовательных программ, исследователей и управленцев сферы образования.
Оценка этичности систем искусственного интеллекта (этическая сторона выходных результатов системы и моральная ответственность человека, применяющего искусственный интеллект) также вызывает затруднения, в том числе при выработке критериев оценивания с позиций морали, нравственности, справедливости как на уровне действий индивида, так и применительно к деятельности социальных групп, национальных образований и целых государств [16].
Разработчики образовательных программ в ряде вузов предусматривают преподавание учебных курсов аксиологической направленности и соответствующих программ магистратуры, например: «Аксиология искусственного интеллекта», «Прикладная этика в сфере цифровой коммуникации и искусственного интеллекта» (МГУ имени М. В. Ломоносова), «Этика и регулирование искусственного интеллекта» (НИУ ВШЭ), «Этика в сфере искусственного интеллекта» (Уральский федеральный университет имени Б. Н. Ельцина), «Безопасность технологий искусственного интеллекта» (СПбГЭТУ «ЛЭТИ» имени В. И. Ульянова (Ленина)). Однако в целом разработка аксиологической составляющей образовательного контента для непрофильных (то есть не связанных с
ИТ-сферой) специальностей пока не стала распространенной практикой в высшей школе.
Основными методами исследования являются: критический анализ научной литературы по проблеме исследования и метод анкетирования обучающихся (анкетный онлайн-опрос на основе авторской анкеты). При составлении анкеты и обобщении результатов анкетирования использовались элементы феноменологического анализа.
В задачи настоящей публикации входило следующее:
‒ разработка материалов для анкетирования студентов вузов с целью выявления их позиции относительно того, какие факторы являются приемлемыми, а какие неприемлемыми с этической точки зрения в процессе реализации технологий искусственного интеллекта в профессиональном образовании и обучении;
-
- критический анализ и оценка полученных результатов;
-
‒ сравнение отношения к фактам академической нечестности студентов классического университета, обучающихся по направлениям подготовки «журналистика» и «педагогическое образование».
Описаний результатов эмпирических исследований подобного рода в отечественной литературе немного, в частности, сошлемся на недавние публикации Д. П. Ананина и соавторов [17]; К. И. Буяковой и соавторов [18]; П. В. Сысоева [19]; И. А. Паршутина и Д. В. Деулина [20], в которых делаются попытки выявить отношение студенческой и преподавательской аудитории к этическим проблемам, обусловленным применением искусственного интеллекта в сфере высшего образования, в том числе использованием чат-ботов и нейросетей при подготовке курсовых и дипломных работ, написании рефератов и других письменных заданий. Большинство исследователей рассматривают этические проблемы, касающиеся применения искусственного интеллекта, как приоритетные.
С целью выявления отношения обучающихся (студентов бакалавриата и магистратуры) к этической стороне использования искусственного интеллекта в образовании применялся метод анкетирования. Авторами была разработана многоцелевая анкета, направленная на получение информации относительно знакомства студентов с технологиями искусственного интеллекта в целом; выяснение ценностных установок обучающихся, касающихся соблюдения норм академической этики; определение отношения обучающихся к возможным угрозам и рискам, которые несет в себе искусственный интеллект в глобальном (цивилизационном) масштабе. Анкетирование позволило также в определенной степени выявить уровень развития у опрошенных отдельных навыков в сфере использования технологий искусственного интеллекта (чат-ботов, нейронных сетей).
Субъектами эмпирического исследования стали 75 обучающихся двух крупных российских вузов классического типа: Южного федерального университета (ЮФУ, г. Ростов-на-Дону) и Кубанского государственного университета (КубГУ, г. Краснодар), а именно 39 студентов бакалавриата и магистрантов ЮФУ, обучающихся по направлению подготовки «Педагогическое образова- ние» (44.03.05 – бакалавриат и 44.04.01 – магистратура), и 36 студентов бакалавриата (42.03.02) и магистратуры (42.04.02) факультета журналистики КубГУ. Анкетный опрос проводился в онлайн-формате с середины октября до середины декабря 2024 г., то есть в течение двух месяцев. Вопросы составлялись в логике феноменологического анализа этических установок на основе оценки имеющегося у обучающихся опыта взаимодействия с технологиями искусственного интеллекта. Анкета предлагалась в анонимном виде в Яндекс-форме и включала ряд основных и дополнительных вопросов. Различий между обучающимися в бакалавриате и магистратуре не делалось, также не проводилось гендерной дифференциации респондентов. Принималась во внимание лишь гипотетически возможная разница в восприятии этических вопросов, касающихся рискогенности искусственного интеллекта, по профессиональному признаку, а именно сравнивались ответы студентов-журналистов (КубГУ) и будущих педагогов (ЮФУ).
Анкета включала три типа вопросов: 1) альтернативные вопросы, требующие ответа «да» или «нет»; 2) вопросы множественного выбора; 3) вопросы открытого типа, которые предполагали дополнение имеющихся вариантов ответов своими собственными. Количество ответов по каждому пункту могло быть больше 75 (общее количество респондентов) за счет вопросов с множественным выбором. Кроме того, ни один из вопросов не требовал обязательного ответа.
В преамбуле анкеты указывалось, что целью исследования является выявление этических рисков и угроз использования технологий искусственного интеллекта в образовании с позиций представителей студенческого сообщества. Респондентам было предложено 10 вопросов, а именно:
-
1. В чем состоят преимущества и причины востребованности технологий искусственного интеллекта в сфере образования ( выберите один или несколько вариантов )?
-
2. В чем, на Ваш взгляд, заключаются риски и угрозы использования технологий искусственного интеллекта в учебном процессе ( выберите один или несколько вариантов )?
-
3. Какие угрозы представляет искусственный интеллект для будущего цивилизации ( выберите один или несколько вариантов )?
-
4. Какие способы использования технологий искусственного интеллекта в сфере образования Вы считаете совершенно недопустимыми с этической точки зрения ( выберите один или несколько вариантов )?
-
5. Применяете ли Вы технологии искусственного интеллекта (нейронные сети, чат-боты и т. п.) в собственной учебной деятельности ( выберите один ответ )? Если «да», то какие именно (перечислите)?
-
6. В каких сферах образовательной деятельности в условиях университета целесообразно применение искусственного интеллекта (выберите один или несколько вариантов) ?
-
7. Можете ли Вы отличить текст, сгенерированный с помощью искусственного интеллекта, от текста, написанного человеком (выберите один ответ) ?
-
8. Какие меры борьбы с академической нечестностью в контексте применения искусственного интеллекта (плагиат, списывание, искусственное повышение оригинальности текстов, генерирование учебных текстов и т. п.) Вы считаете эффективными ( выберите один или несколько вариантов )? Какие меры профилактики академической нечестности предложили бы Вы ( впишите свой вариант )?
-
9. Что заставляет студентов обращаться к «неэтичным» способам применения искусственного интеллекта, таким как плагиат, имитации, генерирование текстов учебных исследований и т. п. ( выберите один или несколько вариантов )?
-
10. Хотели бы Вы пройти обучение по курсу «Этика и безопасность применения искусственного интеллекта» в условиях вуза ( выберите один ответ )?
Ниже мы поместили обобщение ответов респондентов на некоторые вопросы (вопросы 1–4). Опрашиваемые должны были выбрать пункты, наиболее актуальные с их точки зрения (табл. 1‒4).
Таблица 1
Ответы на вопрос 1 – о преимуществах и причинах востребованности технологий искусственного интеллекта (ИИ) в сфере образования
Table 1
Answers to the question 1 – about the advantages and reasons for the demand for artificial intelligence (AI) technologies in the field of education
№ |
Перечень преимуществ применения ИИ |
Количество выборов |
|
ЮФУ n = 39 |
КубГУ n = 36 |
||
1 |
Генерирование и проверка текстов, написание аннотаций, эссе, библиографических списков и т. п. |
39 |
36 |
2 |
Уменьшение рутинных обязанностей педагогов: быстрое создание учебного контента, планов уроков, отчетов и т. п. |
37 |
29 |
3 |
Индивидуализация образовательных траекторий, адаптация программ к потребностям студентов |
35 |
18 |
4 |
Многозадачность ИИ, расширение возможностей для творчества: создание стихов и прозы, возможность рисовать, генерировать изображения и т. д. |
15 |
27 |
5 |
Возможность перевода текстов с иностранных языков, обзора иноязычных публикаций |
38 |
36 |
6 |
Доступность большого объема информации, быстрый поиск ответов на любые вопросы |
39 |
36 |
7 |
Автоматизация в управлении образованием, мониторинг успеваемости, оценка учебных достижений и т. д. |
18 |
5 |
8 |
Развитие цифровой грамотности, креативности, критического мышления студентов |
26 |
24 |
9 |
Расширение учебной коммуникации и групповой работы, создание интерактивной образовательной среды |
10 |
4 |
10 |
Общее количество ответов |
257 |
215 |
Таблица 2
Ответы на вопрос 2 – о рисках и угрозах использования технологий искусственного интеллекта в образовательном процессе
Table 2
Answers to the question 2 – about the risks and threats of using artificial intelligence technologies in the educational process
№ |
Перечень рисков и угроз применения ИИ |
Количество выборов |
|
ЮФУ n = 39 |
КубГУ n = 36 |
||
1 |
Рост плагиата, нарушение авторских прав, ложное авторство |
32 |
36 |
2 |
Имитация учебной деятельности, выполнение дипломных работ посредством нейросетей, чат-ботов, виртуальных помощников ИИ |
31 |
28 |
3 |
Формирование зависимости от технологий. Утрата навыков самостоятельной работы |
7 |
2 |
4 |
Усиление цифрового неравенства, неравный доступ обучающихся к цифровым ресурсам |
9 |
13 |
5 |
Риск утечки личных данных. Угроза кибератак |
28 |
30 |
6 |
Непрерывно возрастающие требования к цифровой грамотности |
17 |
4 |
7 |
Возможность искажения информации, сложность проверки достоверности данных |
21 |
35 |
8 |
Неглубокий, поверхностный охват информации средствами ИИ |
14 |
33 |
9 |
Угроза дезинформации, дискриминации, манипуляции данными и т. д. |
20 |
32 |
10 |
Общее количество ответов |
179 |
213 |
Таблица 3
Ответы на вопрос 3 – об угрозах использования искусственного интеллекта в цивилизационном масштабе
Table 3
Answers to the question 3 – about the threats of using artificial intelligence on a civilizational scale
№ |
Перечень цивилизационных угроз и рисков для будущего |
Количество выборов |
|
ЮФУ n = 39 |
КубГУ n = 36 |
||
1 |
Риск потери работы. Замена преподавателей искусственным интеллектом |
5 |
2 4 |
2 |
Утрата традиционных ценностей, отход от гуманистического мировоззрения |
13 |
4 |
3 |
Угрозы безопасности и конфиденциальности, утечка личных данных, рост мошенничества |
31 |
35 |
4 |
Риск аварий и нештатных ситуаций от беспилотных механизмов, роботов, автономных интеллектуальных систем и т. д. |
7 |
12 |
5 |
Усугубление социального неравенства и дискриминации в обществе |
12 |
9 |
6 |
Риск конфликтов, угроза национальной безопасности |
2 |
2 |
7 |
Дезинформация из-за ограниченных возможностей ИИ. Предвзятость и неэтичность нейросетей |
15 |
28 |
8 |
Угроза культурной и национальной идентичности |
3 |
5 |
9 |
Риск монополизации рынка ИИ-технологий |
3 |
9 |
10 |
Общее количество ответов |
91 |
128 |
Таблица 4
Ответы на вопрос 4 – об этической допустимости отдельных способов использования технологий искусственного интеллекта в сфере образования
Table 4
Answers to the question 4 – about the ethical admissibility of certain ways of using artificial intelligence technologies in the field of education
№ |
Перечень этически некорректных способов применения ИИ |
Количество выборов |
|
ЮФУ n = 39 |
КубГУ n = 36 |
||
1 |
Плагиат, компиляция чужих текстов, ложное авторство |
35 |
36 |
2 |
Присвоение чужих научных идей |
13 |
28 |
3 |
Выполнение курсовых и дипломных работ средствами ИИ |
30 |
23 |
4 |
Использование искаженной или ложной информации в учебных работах |
19 |
31 |
5 |
Повышение оригинальности авторских текстов с помощью ИИ |
10 |
6 |
6 |
Использование шпаргалок, списывание |
27 |
17 |
7 |
Прохождение тестирования, сдача экзаменов на основе сгенерированных материалов |
30 |
14 |
8 |
Сдача учебных работ, выполненных на заказ |
13 |
7 |
9 |
Обучение на основе недостоверных знаний, полученных от ИИ |
29 |
33 |
10 |
Общее количество ответов |
206 |
195 |
Согласно результатам анкетирования, статистически значимых расхождений в оценках респондентов между выборками данных, полученных от будущих журналистов и будущих педагогов, выявлено не было, хотя существенный, на первый взгляд, разброс количества выборов по отдельным пунктам имеется. Сравнение общего количества выборов, сделанных студентами-педагогами и студентами-журналистами, позволило оценить общий интерес и активность оценочной функции респондентов по отдельным вопросам. Так, выраженную заинтересованность студенческой аудитории – как будущих педагогов, так и журналистов – вызвал вопрос № 1, касающийся преимуществ применения искусственного интеллекта. Не менее значимым оказался вопрос № 2 о рисках и угрозах технологий искусственного интеллекта применительно к сфере образования. Более активными здесь оказались студенты факультета журналистики (213 выборов), а не будущие педагоги (179 выборов). В вопросе № 3 о потенциальных угрозах искусственного интеллекта в цивилизационном масштабе журналисты также проявили большую активность, чем педагоги: 128 выборов vs 91 выбора.
Что касается вопросов, затрагивающих этические аспекты применения технологий искусственного интеллекта в образовательном процессе (вопрос № 4, вопрос № 8), здесь и студенты-педагоги, и студенты-журналисты были достаточно активны (206 выборов vs 195 выборов). Определенно отрицательное отношение было выражено по отношению к таким явлениям, как плагиат, написание курсовых и дипломных работ средствами нейросетей, обучение на основе недостоверных знаний. При этом будущие педагоги оказались более непримиримыми, чем журналисты, к использованию шпаргалок, списыванию, нечестной сдаче экзаменов и прохождению тестирований посредством «нелегального» прибегания к помощи нейросетей. Студенты факультета журналистики выразили резкое неприятие «использования искаженной или ложной информации в учебных работах», а также «присвоения чужих научных идей», в то время как будущие педагоги проявили в этом вопросе более лояльную позицию.
Ни у педагогов, ни у журналистов не выявлено существенной негативной реакции на «повышение оригинальности авторских текстов с помощью искусственного интеллекта», а также «сдачу учебных работ, выполненных на заказ» (в вопросе № 4). В вопросе № 8 о путях борьбы с проявлениями академической нечестности также не наблюдалось особой активности (75 выборов у педагогов и 71 – у журналистов). Также в дополнительном открытом вопросе о возможных способах борьбы с неэтичными явлениями, вызванными использованием искусственного интеллекта в образовательной среде, не было предложено никаких новых вариантов. Студенты обоих направлений подготовки достаточно хладнокровно отнеслись к цивилизационным рискам возможных последствий применения искусственного интеллекта (вопрос № 3, пункты 5, 6, 8, 9, касающиеся угрозы национальной и культурной идентичности, монополизации рынка искусственного интеллекта, угрозы национальной безопасности, усугублению социального неравенства и пр.). Ответы на данные вопросы наводят на мысль о том, что студенты обоих профилей подготовки не слишком озабочены социальными последствиями использования искусственного интеллекта. Все это говорит о необходимости активизации просветительской деятельности в отношении применения искусственного интеллекта.
Оказалось, что в целом студенты факультета журналистики несколько шире используют технологии искусственного интеллекта в учебной деятельности (83 % опрошенных), чем студенты педагогического профиля (64 % респондентов). По утверждениям студентов-журналистов, как минимум, 58 % из них в состоянии отличить тексты, сгенерированные искусственным интеллектом (ответ на вопрос № 7), от оригинальных текстов, созданных человеком, в то время как о подобной способности сообщили лишь 25 % будущих педагогов. Возможно, данные факты объясняются тем, что обучение на факультете журнали- стики предполагает целенаправленное формирование у студентов навыков работы с различными видами текстов, широкую опору на средства мультимедиа и цифровые технологии, вовлечение в различные дискурсивные практики для решения профессиональных задач.
По данным анкетного опроса (вопрос № 5), студенты обоих вузов используют в самостоятельной учебной деятельности различные платформы на базе искусственного интеллекта, обращаются к помощи нейронных сетей и чат-ботов с генеративным искусственным интеллектом, таким как: YandexGPT, Сбербанк AI, Tinkoff AI, Авито AI, DeepSeek, Mistral AI и др.
В качестве причин, которые побуждают студентов и магистрантов пользоваться «неэтичными» способами применения искусственного интеллекта (вопрос № 9), такими как написание курсовых и выпускных квалификационных работ посредством генеративного искусственного интеллекта, подготовка заказных работ, на первое место вышла «низкая успеваемость студентов», на второе место – «нехватка времени ввиду большой загруженности по учебе», на третье место – «отсутствие интереса к изучаемому предмету», на четвертое место – «недостаточный контроль за результатами учебной деятельности в вузе». В ответах на дополнительный открытый вопрос к вопросу № 9 ни студенты-педагоги, ни студенты-журналисты не внесли каких-либо самостоятельных вариантов, объясняющих причины обращения обучающихся к тем или иным формам академической нечестности и недобросовестности. Показательно также то, что в ответе на последний вопрос (вопрос № 10) большая часть студентов бакалавриата и магистрантов (74 % педагогов и 69 % журналистов) выразили желание пройти учебный курс «Этика и безопасность применения искусственного интеллекта» в условиях вуза. Очевидно, что в студенческой аудитории классического университета наблюдается выраженный интерес к вопросам безопасного и этичного использования систем искусственного интеллекта как в сфере образования, так и в более широком масштабе.
Применение технологий искусственного интеллекта в сфере образования – это не будущая перспектива, а уже свершившаяся реальность. Однако далеко не все студенты и в особенности педагоги осведомлены о возможностях и рисках использования искусственного интеллекта в науке и образовании. Многие имеют неполное или искаженное представление о сущности, технологическом и дидактическом потенциале нейронных сетей, в том числе чат-ботов с генеративным искусственным интеллектом, преувеличивают или преуменьшают риски использования данных технологий. Однако очевидно, что ограничить внедрение нейросетей в систему образования из опасений нарушения этических норм невозможно, так же как невозможно запретить технический прогресс. Образовательному сообществу нужно учиться взаимодействовать с сервисами искусственного интеллекта, осваивать основы промпт-инжиниринга, искать способы легального использования студентами и аспирантами технологий искусственного интеллекта, разрабатывать этические кодексы использования цифровых технологий, изучать возможности и ограничения искусственного интеллекта, его плюсы и минусы в конкретных видах образовательной и учебноисследовательской деятельности.
Применение искусственного интеллекта, особенно при подготовке кадров высшей квалификации, требует предварительного содержательного определения допустимых и недопустимых форматов и, в частности, концептуального понимания того, что есть научная деятельность в контексте ИИ и что есть ее имитации; каковы границы легитимного и ложного (или теневого) авторства, каковы правила и нормы верификации и, соответственно, средства профилактики некорректного использования информации, получаемой от систем искусственного интеллекта и т. д. Очевидно, что индивидуальное самоопределение в подобных вопросах недопустимо и требуются совместные усилия всего академического сообщества по выработке достаточно универсального этического кодекса использования ИИ в науке и образовании.