Стоит ли ожидать очередную "зиму" искусственного интеллекта в скором времени
Автор: Легашов Максим Александрович
Журнал: Петербургский экономический журнал @gukit-journal
Рубрика: Теория и практика управления организационно-экономическими системами
Статья в выпуске: 1 (39), 2023 года.
Бесплатный доступ
История искусственного интеллекта, хотя еще и насчитывает всего несколько десятков лет, но уже богата резкими взлетами и столь же стремительными падениями. В статье анализируются факторы, послужившие причинами проблем развития искусственного интеллекта в ХХ веке. Выявляются основные современные проблемы искусственного интеллекта, и на основании полученных данных, делается попытка оценить возможность наступления новых критических спадов интереса к технологии в ближайшем будущем. Описаны циклы всплеска интереса к развитию технологии, автором выделено и описано несколько исторических циклов развития искусственного интеллекта. Например, сегодня экономика замкнутого цикла может использовать искусственный интеллект для оптимизации процессов переработки отходов и управления ресурсами. В то же время, алгоритмы машинного обучения могут помочь оптимизировать расписание сбора отходов или предсказывать объемы отходов в определенных районах. Кроме того, искусственный интеллект может использоваться для автоматической сортировки отходов и определения наиболее эффективных способов их переработки. Все это может привести к более эффективному использованию ресурсов и уменьшению негативного воздействия на окружающую среду. Однако, необходимо учитывать потенциальные риски, связанные с развитием искусственного интеллекта. Например, автоматизация процессов может привести к потере рабочих мест и неравномерному распределению выгод между различными группами населения. Поэтому, при разработке и внедрении технологий искусственного интеллекта в экономику замкнутого цикла необходимо учитывать социальные и экологические аспекты и обеспечивать справедливое распределение выгод.
Искусственный интеллект, история искусственного интеллекта,
Короткий адрес: https://sciup.org/140299830
IDR: 140299830
Текст научной статьи Стоит ли ожидать очередную "зиму" искусственного интеллекта в скором времени
Историю искусственного интеллекта принято отсчитывать от семинара, организованного Джоном Маккарти, Марвином Мински, Клодом Шенноном и Натаниэлем Рочестером, который проходил летом 1956 г. в Дартмутском колледже (г. Гановер, шт. Нью-Гемпшир, США) [1, 2]. Именно на этом мероприятии впервые прозвучал сам термин «искусственный интеллект» или «ИИ», предложенный Джоном Маккарти. Хотя многие авторы полагают, что зарождение «думающих машин» произошло гораздо раньше, с первых попыток формализовать логику в механизмах, осуществленных Луллием Раймундом в XIII в. [3], общепринятой датой зарождения искусственного интеллекта как отрасли науки все же признается дата Дартмутского семинара (конференции). Участники конференции в дискуссии сформулировали основные поня- тия, дали свои прогнозы развития отрасли, смогли познакомить и объединить усилия ранее разобщенных ученых [4–6]. Конференция вызвала большой ажиотаж и спровоцировала бурный рост заинтересованности этой сферой. Под сформулированные идеи были выделены крупные инвестиции.
В данный период делались очень смелые предсказания: «В течение 20 лет машины получат возможность выполнять любую работу, которую выполняет человек» [7]; «В течение жизни нашего поколения… задача создания искусственного интеллекта будет в целом решена» [4]. Однако прогнозы пионеров ИИ оказались излишне оптимистичными, а поставленные задачи оказались гораздо сложнее, чем предполагалось. Апологеты искусственного интеллекта подверглись жесткой критике в прессе, в ответ на которую правительства США и Великобритании прекратили финан- сирование исследований в этой области, а за ними последовали большинство стран. Многие энтузиасты ИИ оказались разочарованными, произошло охлаждение интереса к отрасли. Подобным периодам охлаждения в 1984 г. было придумано название «зима искусственного интеллекта», которое по аналогии с термином «ядерная зима» предложили Р. Шэнк и М. Мински на четвертой национальной конференции Американской ассоциации искусственного интеллекта.
Впоследствии было несколько подобных циклов всплеска интереса к развитию технологии с последующим разочарованием в ней, замедлением развития или полным забытьем. Обычно выделяют следующие исторические циклы развития искусственного интеллекта:
1974–1980 гг. – период, известный как первая зима искусственного интеллекта (хотя некоторые исследователи считают, что первая и самая длительная зима наступила после изобретений Л. Раймунда в конце XIII в. и продлилась до середины ХХ в. [7–9]. Излишняя шумиха, раздутая прессой вокруг искусственного интеллекта, привела к завышенным ожиданиям, неосторожным, чересчур оптимистичным прогнозам исследователей, которые, не оправдавшись, вызвали обратный эффект в обществе. Изучения перцептронов резко прекратились в 1969 г. поле публикации М. Мински и С. Пейпертом работы «Перцептроны», в которой было показано, что возможности использования метода ограничены. Неудачи исследовательских проектов DARPA в начале 70-х гг. по распознаванию речи привели к сокращению финансирования. А отчет Дж. Лайт-хилла 1973 г. и вовсе содержал вывод о полной неспособности ИИ достичь своих грандиозных целей из-за проблемы «комбинаторного взрыва» – скачкообразного роста количества вариантов решений, которые машине приходилось анализировать методом обычного перебора, при усложнении поставленных задач. Начавшаяся в Великобритании и США волна сокращения финансирования скоро охватила всю Европу и послужила началом первой затяжной «зимы». Окончилась она только с запуском в Японии проекта компьютера пятого поколения в 1980 г. и развитием экспертных систем.
1987–1993 гг. – вторая длительная зима ИИ. Очередной период спада в исследованиях связывается с разочарованием рынка в экспертных системах, признанных слишком дорогими в обслуживании и пригодными в использовании только в ограниченных случаях. Последовал крах огромного рынка LISP-машин – специализированного оборудования, предназначенного для работы с экспертными системами. Также повсеместной неудачей закончились проекты компьютера пятого поколения, финансирование исследований было свернуто. Более 300 частных компаний, занимавшихся ИИ, закрылись или были поглощены. Таким «схлопыванием пузыря» закончилась первая коммерческая волна искусственного интеллекта. Оживление рынка началось только в середине 90-х гг. с увеличением вычислительной мощности техники, появлением новых методов, таких как нейронные сети и генетические алгоритмы. Нейронные сети были известны с конца 1950-х гг., однако разработка метода обратного распространения ошибки позволила перейти к построению более глубоких, многослойных нейронных сетей, которые стало возможно обучать эффективно и отказоустойчиво решать гораздо более широкий круг задач. А генетические алгоритмы и генетическое программирование позволили выстраивать самые продуктивные программы, способные ориентироваться в широком круге вопросов и создавать новаторские и неожиданные решения [5, 10, 11].
В 1997 г. компьютер «Deep Blue» впервые обыграл в шахматы действующего чемпиона мира, «умнейшего человека на земле», вернув веру исследователей в то, что создание искусственного интеллекта, не уступающего и даже превосходящего человеческий, в принципе достижимая задача.
Тем не менее последующий период, вплоть до 2010-х гг., едва ли можно назвать полноценной «весной» ИИ, скорее оттепелью или только самой ранней весной. В этот период все еще плохая репутация проектов с искусственным интеллектом заставляет исследователей избегать даже самого термина ИИ, придумывая для него различные заменители: когнитивные системы, вычислительный интеллект, машин- ное обучение, интеллектуальные агенты и т. п. [12–15]. С 2010-х гг. существенно выросшая мощность компьютеров позволяет сочетать так называемые большие данные (Big Data) с методами глубокого обучения (Deep Learning), которые основываются на использовании искусственных нейронных сетей. Весьма успешное применение во многих областях (распознавание речи и изображений, понимание естественного языка и т. д.) позволяет говорить о полноценном возрождении ИИ.
Как можно заметить из приведенных исторических циклов, каждый раз очередная «зима» наступала при столкновении с невозможностью решения проблемы на текущем уровне развития техники. Поскольку научнотехнический прогресс не поспевал за ростом ожиданий инвесторов и других заинтересованных сторон, подстегиваемого ажиотажем, неизбежно следовал крах и разочарование. Достоверно выявить тенденцию, опираясь только на два случая произошедших затяжных зим ИИ, не представляется возможным. Однако можно предположить, что глобальные спады, вызванные технологическими ограничениями, должны происходить все реже и длиться все меньше. Это связано в первую очередь с ускорением технического прогресса. Компьютерные технологии развиваются по закону Мура все более быстрыми темпами, устраняя технические лимиты. И на передний план теперь выходят ограничения, вызванные не техникой, а нормативным регулированием, общественной моралью, неготовностью общества коренным образом менять сложившиеся правила игры.
Методы исследования
Автор использовал такие методы исследования, как анализ, синтез, исторический обзор и прогнозные тенденции, постановку дискуссионных вопросов с содержательной интерпретацией выводов. Например, может ли технология искусственного интеллекта в очередной раз достигнуть своего локального максимума развития на данном историческом этапе, уперевшись в «потолок», не оправдать возлагавшихся на нее надежд, разочаровав инвесторов и энтузиастов, и забыться на не- которое время? По мнению автора, это может произойти не только в связи с отсутствием быстрой прибыли для инвесторов и ростом барьеров для входа на рынок новых игроков, что приводит к замедлению появления новых идей [10, 11], но и в связи с наличием в технологии искусственного интеллекта нерешенных принципиальных проблем.
-
1. Проблема ответственности, связанная с наличием пробелов в законодательстве. В настоящий момент правовой статус ИИ не до конца определен, нерешенной остается проблема юридической ответственности при использовании искусственного интеллекта. Кто, к примеру, должен нести ответственность при причинении вреда здоровью или имуществу третьих лиц машиной под управлением ИИ? Пользователь машины, ее разработчик или собственник? До тех пор, пока использование искусственного интеллекта не затрагивало социально значимые сферы, проблема не стояла столь остро. Однако сейчас роботы, наделенные интеллектом, используются в медицине, транспортных системах, в военной отрасли и т. д. Цена ошибки, допущенной ИИ, при этом многократно возрастает. Законодательные нормы не успевают за развитием науки и техники, а наличие пробелов в нормативном регулировании, соответственно, сдерживает развитие. Признавая это, корпорации сегодня идут по пути принятия собственных кодексов корпоративной этики ИИ [4, 15]. Неурегулированность правового статуса не позволяет однозначно определить и правообладателя объектов интеллектуальной собственности, разрабатываемых нейросетями, обладателя авторских прав на предметы искусства, создаваемые сегодня ИИ.
-
2. Не менее важными являются этические проблемы использования ИИ. В 2020 г. компания IBM из-за ошибок в распознавании лиц, допускаемых алгоритмами в большей мере по отношению к чернокожим людям, приняла решение закрыть перспективное направление и отказаться от дальнейших разработок, использования и внедрения ИИ по распознаванию лиц. И призвала пересмотреть политику применения подобных алгоритмов в правоприменительной системе государства [16]. Работа алгоритмов ИИ полностью зависит от
-
3. Проблема доверия. Большинство алгоритмов ИИ работает по принципу «черного ящика». И механизм принятия решения скрыт от пользователя. И хотя ИИ сегодня может эффективно использоваться, например, в медицине для диагностики и назначения лечения, но внедрение его в этой сфере сдерживается, поскольку медицинские работники не склонны доверять диагнозам, поставленным ИИ, особенно, если они идут вразрез с их собственным мнением. Что уж говорить о пациентах, которые тем более охотнее доверятся диагнозу и лечению человека-врача, чем, возможно, более точному диагнозу, поставленному машиной. Связана данная проблема и с проблемой ответственности. Кто будет отвечать в случае, если диагноз ИИ окажется неверным, а лечение навредит пациенту?
-
4. Проблема безопасности. В связи с тем, что алгоритмы ИИ принимают решение по принципу «черного ящика», возможности контроля за процессом принятия решений со стороны человека сильно ограничены. С учетом того, что искусственный интеллект внедряют во все более социально значимые отрасли (оборона, медицина, транспорт, производство лекарств и т. п.), создают полностью автономные устройства, возможность потери контроля над машиной не может не вселять определенные опасения. Это так называемый экзистенциальный риск ИИ – риск принятия машиной решений, которые могут привести к событиям, глобально влияющим на уровень жизни всех людей. Согласно Кембриджскому центру изучения экзистенциальных рисков искусственный интеллект отнесен к потен-
циальным угрозам для человечества наряду с ядерным оружием, изменением климата и биотехнологиями [17]. Широко обсуждался специалистами случай, произошедший в 2017 г. в компании Facebook, являющейся одной из лидирующих в финансировании ИИ-разработок. При тестировании ботов на общение друг с другом самообучающиеся алгоритмы внезапно перешли на собственный более эффективный язык общения, не понятный для людей. Операторами было принято решение об отключении системы, так как стало невозможно определить, до чего боты могут между собой договориться [6]. Признавая опасность бесконтрольного развития искусственного интеллекта, эксперты, среди которых выступили такие ньюсмейкеры, как Илон Маск, Стивен Хокинг, Билл Гейтс, призвали сообщество ввести законодательные ограничения по использованию ИИ [2].
обучающей выборки данных. И если данные будут содержать, например, расистские или гендерные преференции, то и результаты работы алгоритмов будут подвержены этим недостаткам. А избежать какой-либо предвзятости при структурировании очень большого объема данных – крайне непростая задача [17]. С учетом того количества данных о человеке, получать которые ИИ можно сегодня эффективно обучить только исходя из внешнего вида субъекта, тайна личной жизни становится все более эфемерным понятием. И это тоже серьезная этическая проблема.
Результаты и дискуссия
К сожалению, сегодня не удается компаниям, развивающим технологии искусственного интеллекта, избегать опасных старых ошибок «завышенных ожиданий». Хорошим примером в этом случае может послужить проект беспилотного автомобиля. В 2015 г. нас захлестнул шквал обещаний пересадить водителей на заднее сидение их автомобилей, управлять которыми станет ИИ. Сделать это планировалось к 2020 г. [15]. Однако вплоть до настоящего момента проект полноценно не реализован, большинство стартапов разорилось, а лидеры рынка признают, что задача оказалась много сложнее их первоначальных оценок. Уместно в этой связи вспомнить слова Д. Макдермотта: «Возможно, ожидания слишком высоки, и это в итоге приведет к катастрофе. Представьте, что через 5 лет инвестиции с треском обрушатся, когда автономные автомобили не появятся. Каждый стартап потерпит неудачу. И наступит сильная обратная реакция, когда вы не сможете получить никакие деньги под любой проект, связанный с ИИ. Все начнут изменять даже названия своих исследований, убирая из них ИИ. Это состояние и называется «зимой» ИИ» [13, 17]. Примечательно, что слова эти были сказаны в 1984 г. и оказались пророческими, «зима» действительно последовала очень скоро после их опубликования.
Любой ажиотаж привлекает и значительное количество мошенников, старающихся сделать быстрые деньги на «хайпе». Так, одна китайская компания смогла привлечь значительные средства на свой проект синхронного перевода с помощью ИИ. Однако, как потом выяснилось, компания просто использовала синхронистов для демонстрации своих проектов при привлечении инвестиций, а реальные разработки ИИ не вела [11]. Модные сегодня слова «нейронные сети», «искусственный интеллект» нередко являются лишь красивой ширмой для скрывающихся за ней целых отделов низкооплачиваемых работников, нанятых в третьих странах. Подобные случаи мошенничества довольно распространены и также отпугивают инвесторов, дополнительно подмачивая репутацию ИИ-разработкам.
Заключение
Бурное и все ускоряющееся развитие технологий искусственного интеллекта в последнее время приводит к опережению развития соответствующих областей нормативного регулирования, возникновению этических проблем, появлению опасений в широких слоях населения, что новые технологии оставят без работы большое количество людей либо вообще могут стать опасными при потере контроля над ними.
Именно сдерживание развития легальными рамками, общественной моралью и антилоббированием противниками, опирающимися на иррациональные страхи людей, плохо разбирающихся в новейших технологиях, могут послужить тем «потолком», уперевшись в который на современном этапе, искусственный интеллект может снова затормозить свое развитие и испытать очередную затяжную «зиму».
Список литературы Стоит ли ожидать очередную "зиму" искусственного интеллекта в скором времени
- Акулова А. Почему искусственный интеллект несправедлив? Этические проблемы технологий. URL: https://tass.ru/obschestvo/11140359 (дата обращения: 22.01.2023).
- Илон Маск рассказал о «фундаментальной» угрозе для всего человечества. URL: https://www.rbc.ru/technology_and_media/17/07/2017/596c4cee9a7947ef966487c5 (дата обращения: 22.01.2023).
- Клиффорд Пиковер. Искусственный интеллект. Иллюстрированная история. От автоматов до нейросетей. М.: Синдбад, 2021. C. 224.
- Крупнейшие компании подписали первый в России кодекс этики искусственного интеллекта. URL: https://tass.ru/ekonomika/12764611 (дата обращения: 22.01.2023).
- Ник Бостром. Искусственный интеллект. Этапы. Угрозы. Стратегии. М.: Манн, Иванов и Фербер, 2016. C. 496.
- Миклашевская А. Искусственный интеллект заговорил по-своему. Как боты Facebook придумали для себя непонятный людям язык. URL: https://www.kommersant.ru/doc/3372761 (дата обращения: 22.01.2023).
- Ясницкий Л. Н. Зима близко. Почему искусственный интеллект может потерять популярность. URL: https://iq.hse.ru/news/298467405.html (дата обращения: 22.01.2023).
- A proposal for the Dartmouth Summer Research Project on Artifi cial Intelligence. URL: http://www-formal.stanford.edu/jmc/history/dartmouth/dartmouth.html (дата обращения: 22.01.2023).
- A science of Global Risk. URL: https://www.cser.ac.uk/research/science-global-risk/ (дата обращения: 22.01.2023).
- Garnry Peter. OP 2020: Chips go cold in AI winter. URL: https://www.home.saxo/content/articles/outrageous-predictions/op-2020-chips-go-cold-in-ai-winter-03122019 (дата обращения: 22.01.2023).
- Hanton Alex. Dating Sites Have Fake Babes: 5 Ways Tech Companies Rip Us Off. URL: https://www.cracked.com/article_27302_dating-sites-have-fake-babes-5-ways-techcompanies-rip-us-off.html (дата обращения: 22.01.2023).
- Markoff John. Behind Artifi cial Intelligence, a Squadron of Bright Real People. URL: https://www.nytimes.com/2005/10/14/technology/behind-artifi cial-intelligence-asquadron-of-bright-real-people.html (дата обращения: 22.01.2023).
- McDermott D., Waldrop M. M., Chandrasekaran B., McDermott J., Schank R. The dark ages of AI: A panel discussion at AAAI-84 // AI Magazine. 1985. Vol. 6(3). P. 122–134.
- Minsky M. L. Computation: Finite and Infi nite Machines. Prentice-Hall, 1967. P. 2.
- Mitchell Melanie. Why AI is Harder Than We Think. URL: https://arxiv.org/abs/2104.12871 (дата обращения: 22.01.2023).
- Peters Jay. IBM will no longer offer, develop, or research facial recognition technology. URL: https://www.theverge.com/2020/6/8/21284683/ibm-no-longer-general-purposefacial-recognition-analysis-software (дата обращения: 22.01.2023).
- Simon H. A. The Ford Distinguished Lectures. Vol. 3: The New Science of Management Decision. Harper and Brothers, 1960. P. 38.