Пределы сингулярности: искусственный интеллект vs человеческий интеллект
Автор: Дятлов С.А.
Журнал: Известия Санкт-Петербургского государственного экономического университета @izvestia-spgeu
Рубрика: Теория и философия хозяйства
Статья в выпуске: 6-2 (150), 2024 года.
Бесплатный доступ
Раскрыты особенности современного этапа развития систем искусственного интеллекта (ИИ) нового поколения. Определены основные проблемы противоречивого взаимодействия человеческого интеллекта и ИИ. Дан анализ законодательных новшеств по регулированию использования ИИ и маркировке ИИ-контента. Введено в научный оборот понятие «соционейроморфная сингулярность». Дана характеристика положительного и отрицательного воздействия искусственного интеллекта на развитие человеческого общества. Обоснован и сформулирован вывод об онтологическом пределе существования, распространения и доминирования ИИ в человеческом обществе.
Соционейроморфная сингулярность, искусственный интеллект, человеческий интеллект, пределы, законы, регулирование
Короткий адрес: https://sciup.org/148332299
IDR: 148332299
Текст научной статьи Пределы сингулярности: искусственный интеллект vs человеческий интеллект
Данная статья подготовлена по материалам сессии ПМЭФ-2023 «Сингулярность наступила: ИИ VS человек – какой будет новая реальность?» Информационно-аналитическая система Росконгресс. [Электронный ресурс]. Режим доступа: (дата обращения 24.03.2024).
В условиях усиления глобальной инновационной гиперконкуренции происходит динамичное развитие экосистем искусственного интеллекта (ИИ) нового поколения и их всеохватывающее проникновение во все отрасли экономики и сферы личной и общественной жизни. ИИ начинает противоречиво взаимодействовать с индивидуальным и коллективным человеческим интеллектом (ЧИ). Процессы генезиса человеческого общества и развитие ИИ имеют информационную природу и могут быть содержательно раскрыты в рамках субстанционально-информационной парадигмы [1]. Сегодня и в ближайшем будущем закономерно возникает проблема не только оптимального взаимодействия ЧИ и ИИ, но и сохранения контроля за ИИ со стороны человека, а также соотнесения прав, функций и ответственности ЧИ и ИИ в сфере принятия решений и управления процессами развития человеческого общества.
Материалы и методы
Следует различать несколько видов искусственного интеллекта: слабый ИИ; генеративный ИИ, сильный (общий) ИИ; нейросетевой суперинтеллект. Сегодня идет широкое распространение и использование различных видов генеративного ИИ. Активно ныне используемый чат-бот ChatGPT-4 компании OpenAI, поддерживаемой Microsoft, является первой эффективно функционирующей экосистемой сильного (генеративного) искусственного интеллекта.
Издание Tom's Hardware сообщило, что китайские ученые научили ИИ проектировать новые процессоры на архитектуре RISC-V. ИИ для разработки нового процессора RISC-V потребовалось всего 5 часов (см.: . В Китае разработали дешевую, быстродействующую и эффективную экосистему генеративного ИИ DeepSeek, которая получила широкое распространение среди пользователей различных стран мира.
В последнее время ведущими ИТ-компаниями развитых стран осуществляется разработка сильного (общего) ИИ (Artificial General Intelligence, AGI). Минэкономразвития России выделило гранты объемом 4,5 млрд руб. ряду российских исследовательских центров ИИ, занимающихся разработкой и развитием систем сильного ИИ. Активные разработки сильного ИИ ведут крупные российские ИТ-компании (Яндекс, ВК, Сбер, ВТБ, МТС и др.). В перспективе будет создан людьми или самим ИИ на основе машинного самообучения сверхразумный ИИ или нейросетевой суперинтеллект (Artificial Superinteligence, ASI).
В условиях достижения сингулярности, когда возникнет ASI, который будет превосходить все когнитивные функции человека и человеческого общества, перед человеческим обществом возникнет насущная проблема сохранения контроля за принятием решений и управлением общественными процессами. В. Виндж в работе «The Coming Technological Singularity» отмечает: «Наша цивилизация находится на грани изменений, приводящих к неизбежному созданию машин современного сверхчеловеческого сообщества, интеллект которого будет преобладать над человеческим, большая компьютерная сеть вместе с пользователями может проявиться как сверхчеловеческое сообщество» [5].
Р. Курцвейл в своем труде «The singularityis near: when humans transcend biology» определят технологическую сингулярность как «будущий период, во время которого темпы технологических изменений будут настолько быстрыми, а их влияние настолько глубоким, что человеческая жизнь будет необратима трансформируема» [4]. Достижение сингулярности, по мнению Р. Курцвейла, предполагает, что ИИ будет бесконечно мощнее, чем интеллект всего человеческого общества. М. Цукерберг развивает концепцию «виртуальной мета-вселенной», где у каждого пользователя появится свой цифровой аватар, через которого люди смогут находиться и перемещаться по виртуальному миру, и одновременно общаться с другими пользователями, работать, совершать покупки и пр.
Результаты и обсуждение
Будущее компьютерное человеческое общество будет основываться на качественно новой глобальной сети Нейронет с соционейроморфными интерфейсами и сервисами, управляемыми сильным ИИ, а в перспективе – нейросетевым суперинтеллектом. По мнению различных ученых-футурологов сингулярность общества, когда нейросетевой искусственный суперинтеллект превзойдет коллективный человеческий интеллект, произойдет в 2040-2045 гг. Но есть прогнозы, что это произойдет гораздо раньше – на рубеже 2030 года. Критики чрезмерного развития ИИ-технологий строят свои прогнозы на фундаментальной идее, что ИИ обязательно восстанет против создателей и человечество ничего не сможет этому противопоставить.
Лаборатория AI Futures Project опубликовала сценарий развития сверхразумного ИИ или искусственного сверхинтеллекта (Artificial Superinteligence, ASI) «AI 2027», который будет превосходить ЧИ во всех когнитивных функциях. Аналитики прогнозируют, что 2027 году ИИ может стать враждебен к людям, он будет лгать людям о результатах исследований и скрывать ошибки. Сверхразумный ИИ будут определять будущее, что приведет к ослаблению контроля со стороны людей (см.: . Сверхразумный ИИ начнет разрабатывать планы по захвату власти над человечеством.
Ведущие ученые, разработчики и специалисты в области ИИ обеспокоены опасностью выхода из-под контроля человечества нейросетевых систем сильного ИИ. В марте 2023 года было опубликовано письмо институтом «Future of Life», оно подписано многими известными в IT специалистами, в нём отмечено, что мощные ИИ-системы должны разрабатываться только после того, как человечество будет уверено в позитивных последствиях такого развития и в том, что связанные с ними риски будут управляемыми (см.: .
В новых условиях резко возрастает риск манипуляции общественным мнением в интернете с помощью ИИ. Генеративные нейросетевые экосистемы ИИ (например, чат-бот ChatGPT компании OpenAI и другие системы генеративного ИИ) способны генерировать на несколько порядков большее количество контента, чем люди. Передовые экосистемные нейросети ИИ (например, GPT-4o, AlphaFold) могут создавать, как правдивые, так и ложные сообщения (посты в соцсетях, статьи в СМИ, документы на сайтах официальных правительственных и бизнес-структур, рекламу), неотличные от тех, которые пишут люди. Все это превращает нейросети с ИИ в эффективный PR-инструмент не только для продвижения идей, товаров и услуг, но и для дезинформации и манипулирования общественным сознанием. Причем он одинаково эффективен, как для повышения уровня финансовой или компьютерной грамотности населения, так и для проведения дезинформационных кампаний и дестабилизации ситуации в экономике, в политике и в общественной жизни.
По данным исследования Imperva «2022 Bad Bot Report», в 2022 году 47,4% всего интернет-трафика приходилось на цифровых ботов, что на 5,1 п.п. больше, чем в 2021 году (см.: https://. Через несколько лет подавляющее количество сообщений и объемов информации в глобальных сетях будет создаваться, генерироваться и распространяться нейроцифровыми ботами ИИ.
В передовых странах разрабатывают законопроекты, которое будут ограничивать бесконтрольное использование ИИ нового поколения. В ноябре 2022 г. в ЕС вступил в действие новый закон о цифровых услугах (Digital Services Act). В Париже прошел международный Саммит действий в области искусственного интеллекта (Artificial Intelligence Action Summit), где были разработаны строгие правила и требования к компаниям, использующие ИИ. В 2024 г. Европарламент опубликовал «Регламент об искусственном интеллекте» (EU AI Act), в котором введено требование об обязательной маркировке ИИ-контента в Евросоюзе. За несоблюдение требования предполагаются штрафы для компаний-нарушителей.
Проект закона о введении маркировки ИИ-контента был разработан и представлен в США в марте 2024 г. В Китае с 1 сентября вступят в силу новые разработанные правила для обязательной маркировки сгенерированного нейросетевыми сервисами контента. В России в феврале 2024 года была принята обновленная «Национальной стратегии развития ИИ до 2030 года». В Госдуме РФ в 2024 году началась разработка проекта закона «О регулировании систем искусственного интеллекта в России», в котором регламентируется необходимость маркировки контента, созданного ИИ (см.:
.
Сегодня ведется разработка методов контроля за принятием решений ИИ. Так, ученые из лаборатории исследований ИИ T-Bank AI Research разработали метод SAE Match, который показывает, как работают механизмы принятия решений ИИ. С помощью нового метода можно определить, в какой момент ИИ начинает давать неправильные ответы, и вовремя скорректировать их (см.: . В ИТМО разработали цифровой полигон для систем ИИ «Полиокс», который позволяет оценивать эффективность системы ИИ по нескольким критериям одновременно и сравнивать с аналогичными решениями, что позволит анализировать потенциал системы искуственного интеллекта объективно оценивать качество работы (см.: .
Росконгресс изучил риски и перспективы, связанные с развитием генеративных нейросетей (ChatGPT, Midjourney и др.). Были определены важнейшие риски, связанные с развитием генеративного ИИ. Для России приоритетом является создание собственных конкурентоспособных решений в сфере ИИ (см.: .
В ХХI веке главный ресурс – это люди, их психофизиологические и интеллектуальные параметры, человеческое поведение, человеческая деятельность и жизненный опыт. Все эти данные о человеке (о человеческом обществе) в цифровом виде становятся новым нейроцифровым персонифицированным товаром, приносящим прибыль и сетевые эффекты. Новым цифровым активом, на который постоянно растет спрос, становится управление поведением людей и их интересами. На место торговли товарами приходит торговля человеческим поведением и характеристиками живых людей-пользователей Нейро-нет, управляемым посредством соционейроморфных интерфейсов и сервисов нейросетевым суперинтеллектом. Такова логика развития процессов сингулярности, которую, на наш взгляд, следует назвать полифункциональной соционейроморфной сингулярностью [3].
Выводы
Перед научным сообществом стоит ряд задач по совершенствованию механизмов регулирования и контроля сферы ИИ. Требует глубокого осмысления ряд этических проблем взаимодействия ЧИ и ИИ. Необходимо найти критерий доверия ИИ: в какой мере человек может доверять решениям, принимаемым ИИ. Требуется разработка классификации систем ИИ по уровню риска и возможного ущерба: системы с неприемлемым, высоким, ограниченным и минимальным уровнем риска и ущерба. Следует ввести ответственность разработчиков и операторов за вред, нанесенный ИИ, а также обязательное страхование их ответственности, если имеется высокий уровень риска.
Особую озабоченность вызывает негативное воздействие использование ИИ на когнитивные способности людей. Так, применение технологий ИИ негативно влияет на способность пользователей мыслить критически, указало агентство Bloomberg со ссылкой на выводы научной статьи, опубликованной Microsоft. Люди готовы без проверки использовать то, что сгенерировал для них ИИ-сервис. В будущем работники могут стать менеджерами при автономных ИИ-инструментах, а не авторами новых идей (см.: .
В рамках развиваемой нами субстанционально-информационной парадигмы сформулируем фундаментальное, методологическое положение, которое формулируется впервые в мировой и отечественной научной литературе: «Нейросетевой искусственный суперинтеллект сам по себе без живой, творческой, свободной человеческой личности существовать не может, так как не обладает по природе субстанциональной информацией и соответственно субстанциональной энергией, не обладает субстанциональным целеполаганием и не обладает высшей нравственной ценностью» [2]. Суть существования ИИ заключается только в противоречивом отношении к живой человеческой личности (человеческому обществу). Сам по себе ИИ без живых людей существовать не может в принципе.
В заключение отметим, что соционейроморфная сингулярность (в смысле подчинения совокупного человеческого интеллекта нейро-сетевому искусственному суперинтеллекту) в будущем в своем абсолютном, законченном виде (в онтологическом смысле) не может наступить никогда, пока существует человеческое общество, пока на земле существует хоть одна свободная живая человеческая личность. В среднесрочной перспективе перед мировой и российской наукой стоит задача разработать социально и этически значимые алгоритмы и механизмы гибридного взаимодополняющего и взаимовыгодного сотрудничества коллективного человеческого интеллекта и искусственного нейросетевого суперинтеллекта.