Риски развития систем искусственного интеллекта
Автор: Лупандин В.В., Егоров И.С.
Журнал: Теория и практика современной науки @modern-j
Рубрика: Основной раздел
Статья в выпуске: 1 (43), 2019 года.
Бесплатный доступ
В данной статье говорится о том, как создавался искусственный интеллект. Рассказывается какие угрозы для всего человечества может нести развитие искусственного интеллекта, и можно ли им помешать.
Интернет, искусственный интеллект, угроза, интернет технологии
Короткий адрес: https://sciup.org/140273897
IDR: 140273897
Risks of development of systems of artificial intelligence
This article talks about how artificial intelligence was created. The development of artificial intelligence, and whether it is possible to prevent them.
Текст научной статьи Риски развития систем искусственного интеллекта
Неизвестность всегда пугает. Всякий раз, когда человечество стояло на пороге новых открытий, инновационных разработок или технических революций, люди испытывали страх: что принесут эти радикальные изменения? Так было и в эпоху перехода от лошадей к автомобилям, и на заре развития электроэнергии, и во времена развития всемирной паутины Интернет.
Одни в переменах видели перспективы, другие – угрозу. Сегодня, когда техника с каждым годом становится все более совершенной, наше будущее снова выглядит туманным: каким будет искусственный интеллект через 10-50 лет, принесут ли эти разработки пользу, или станут главным врагом человека?
Почему развитие искусственного интеллекта пугает? Еще несколько лет назад разработки в сфере искусственного интеллекта были привилегией исключительно крупных компаний (Google, Microsoft, Amazon), а уже сегодня над проектами могут трудиться даже небольшие стартапы без серьезного финансирования. Это стало возможным благодаря облачным технологиям. Доступ к такой платформе, как Azure (Microsoft), и новинкам Cloud AutoML(Google), Gluon (библиотека глубокого обучения, созданная Microsoft и Amazon) позволят активнее внедрять технологии в энергетику, промышленность, медицину, военное дело. Создатели Gluon уверены, что технология позволит создавать нейронные сети также просто, как сегодня создаются простейшие приложения для смартфонов.
Однако, в этой простоте и кроется угроза, об этом говорили и Стивен Хокинг и Илон Маск, так же многие исследователи считают, что пройдет совсем немного времени до того момента, как искусственный интеллект научится самосовершенствоваться, а также использовать накопленный опыт и знания, что сделает его сверхразвитым. Краткосрочный эффект использования ИИ зависит от того, кто им управляет, а долгосрочный — от того, будет ли возможность им управлять. Такие устройства смогут самостоятельно анализировать ситуации и принимать необходимые решения, и возможно, эти решения будут не в пользу человека. Кроме того, получается, что разработки ведутся практически бесконтрольно, а значит, любой желающий сможет сконструировать устройство, которое может нанести вред одному человеку или целым странам. В Организации Объединенных Наций уже настаивают на законодательном регулировании создания разработок с искусственным интеллектом, которые могут использоваться в военных конфликтах. Учёные увидели угрозу искусственного интеллекта социального характера. Повсеместное использование техники с искусственным интеллектом станет причиной того, что люди перестанут принимать решения самостоятельно и будут полагаться на решение машины. Люди станут слишком зависимы от устройств. Умные устройства смогут манипулировать мнением и решением своих владельцев.
Ник Бостром (автор книги «Superintellingence: Paths, Dangers, Strategies») говорит о невозможности войны человека и машин, как невозможны столкновения человека и обезьян или с другими животными. Это бессмысленно, и если уж человечество допустит развитие такого сценария, то исход противостояния заранее известен. По мнению шведского философа, эволюция искусственного интеллекта будет проходить с человеческой эволюцией. От слепой эволюции, в которой мы находимся сейчас, до осознанной. В будущем хозяином планеты будет сверхразум, мы неумолимо движемся в этом направлении, единственным вопросом будет ли это сверхразум, построенный на основе человеческого, или первенство достанется искусственно созданному устройству.
Кроме того, не все ученые, исследователи и научные деятели поддерживают теорию «восстания машин». По их мнению, угрозы искусственного интеллекта, о которых так много сегодня говорится, это нечто мифическое, а те, кто активно продвигает идею угрозы преследуют собственные цели: продвижение собственных идей, попытки отвлечь людей от действительно насущных проблем. Уже сейчас мы активно используем продукты искусственного интеллекта: голосовые помощники, умные дома, беспилотные автомобили и много другое. И в дальнейшем это будет просто доводиться до совершенства. Если человек не будет ставить перед устройством цель «нанести ущерб», то и сама машина не будет генерировать подобных задач.
Искусственный интеллект, например, может снизить количество дорожно-транспортных происшествий до 90%, но также несет с собой неопределенность в вопросах ответственности и этики в случае аварии. Недавно Uber Technologies остановили тестирование самоходных автомобилей после того, как один из них сбил насмерть женщину. Это стало первой фатальной аварией с участием пешехода и автопилотируемых машин. Сразу после инцидента Uber сделала заявление о приостановке испытаний всех своих автономных транспортных средств в Питтсбурге, Сан-Франциско, Торонто и в большей части Феникса.
При этом очевидна проблема защиты личных данных пациентов, например, при широком использовании искусственным интеллектом медицинской документации для изучения новых заболеваний. Эта проблема уже привлекла внимание к необходимости изменения законодательного регулирования защиты данных и прав пациентов.
Скорее всего, изменится и ландшафт угроз в сфере цифровой безопасности. Новые технологии снизят киберриски путем лучшего выявления атак, но также увеличат их вероятность, если, например, контроль получат хакеры. Искусственный интеллект проложит для них путь к более серьезным инцидентам, снизив расходы на организацию кибератак и позволив осуществлять их более целенаправленно.
Список литературы Риски развития систем искусственного интеллекта
- Стюарт Рассел, Питер Норвиг, «Искусственный интеллект: современный подход (AIMA)», 2-е издание.: Пер. с англ. - М.: Издательский дом «Вильямс», 2016. - 1424 с.
- Алиев Р.А., Абдикеев Н.М., Шахназаров М.М. Производственные системы с искусственным интеллектом. - М.: Радио и связь, 2010.
- Люгер Джордж Ф. «Искусственный интеллект: стратегии и методы решения сложных проблем», 4-е издание.: Пер. с англ. - М.: Издательский дом «Вильямс», 2013. - 864 с.
- Ерофеев А.А., Поляков А.О. Интеллектуальные системы управления. СПб.: Издательство СПбГТУ, 2009.
- Ясницкнй Л. Н. Введение в искусственный интеллект: Учеб. пособие для студ. высш. учеб. заведений /Леонид Нахимович Ясницкий. - М.: Издательский центр «Академия», 2015. - 176 с.
- Егоров И.С., Букреев А.В. Искусственный интеллект: от истории к современности. // «VIII INTERNATIONAL CORRESPONDENCE SCIENTIFIC SPECIALIZED CONFERENCE «INTERNATIONAL SCIENTIFIC REVIEW OF THE TECHNICAL SCIENCES, MATHEMATICS AND COMPUTER SCIENCE». 2018. С. 7-9.