Спасет или убьет? Развенчаны самые популярные мифы об искусственном интеллекте | |
Для того, чтобы уничтожить человечество, AI не обязательно иметь "тело" в виде роботов или быть злым.
Искусственный интеллект применяется во многих сферах — от голосовых помощников и до беспилотных автомобилей, от поисковых алгоритмов Google и до автономного оружия. В фантастических фильмах его изображают как всемогущих роботов или сущностей, обладающих сверхчеловеческими способностями. На самом деле, современные нейросети в научном сообществе принято классифицировать как "слабые", поскольку предназначены они для выполнения узкого пула задач (например, только для распознавание лиц или только для поиска в Интернете, или только для вождение автомобиля). Однако многие ученые ставят цель создать "сильный" ИИ. Стоит ли нам уже сегодня опасаться таких технологий? На этот вопрос в своей колонке отвечает президент Института будущего человечества (FLI) Макс Тегмарк. На что будет способен суперинтеллектЧто произойдет, если поиски сильного ИИ увенчаются успехом и система станет лучше людей в плане выполнения всех когнитивных задач? Потенциально суперсистема сможет до бесконечности самосовершенствоваться, оставив человеческий интеллект далеко позади. Изобретая революционные новые технологии, такой суперинтеллект может помочь нам искоренить войны, болезни и бедность, и поэтому создание сильного ИИ может стать крупнейшим событием в истории человечества. Однако некоторые эксперты обеспокоены тем, что это может привести к краху, если мы не научимся согласовывать цели ИИ с нашими, прежде чем он станет сверхразумным.
Эксперты полагают, что наиболее вероятны два сценария. ИИ запрограммирован на разрушениеАвтономное оружие — это AI-системы, которые запрограммированы на убийство. Попадание этого оружия в руки не того человека может привести к массовым жертвам. Более того, гонка "умных" вооружений может непреднамеренно привести к войне. Риск в том, что смарт-оружие могло бы быть спроектировано таким образом, чтобы его было чрезвычайно трудно просто "выключить". В таком случае люди потеряют контроль над ситуацией. Этот риск присутствует даже сегодня и увеличивается по мере повышения уровня интеллекта и автономности нейросетей. ИИ запрограммирован на полезные делаВ таком случае очень важно уметь полностью согласовывать цели ИИ с нашими, что весьма сложно. Например, если вы попросите послушную "умную" машину доставить вас в аэропорт как можно быстрее, она разогнаться до такой степени, что вас, как минимум укачает, — со всеми вытекающими последствиями. То есть, она сделает не то, что вы хотели, а буквально то, о чем вы просили. Как показывают эти примеры, продвинутый ИИ вовсе не злой, а просто слишком компетентный. "Сверхразумный ИИ будет чрезвычайно хорош в достижении своих целей, и если эти цели не совпадают с нашими, у нас возникнут проблемы", — заключает Тегмарк. Мифы об искусственном интеллектеИлон Маск, Стив Возняк, Билл Гейтс и многие другие авторитетные личности в области науки и технологий все чаще говорят о рисках, связанных с ИИ. На фоне этих публикаций появилось множество мифов о возможностях нейросетей. А недавнее исследование показало, что около 3 млн американцев попросту боятся ИИ. Но стоит ли? Это весьма распространенное заблуждение. "Где те термоядерные электростанции и летающие машины, которые нам обещали фантасты к настоящему времени?", — иронизирует автор. Он считает, что возможности AI сильно преувеличены. И, как говорилось выше, нейросети пока могут быть заточены на одну узкую задачу — не более. С другой стороны, популярный контр-миф заключается в том, что мы точно знаем: в этом столетии мы не получим сверхчеловеческий разум. "Конечно, не можем с большой уверенностью утверждать, что вероятность равна нулю. Некоторые исследователи считают, что сверхчеловеческий ИИ никогда не появится, потому что это физически невозможно", — рассуждает Макс. "Был проведен ряд опросов, в которых исследователей спрашивали, через сколько лет, по их мнению, у нас будет AI человеческого уровня с вероятностью не менее 50%. Выводы всех этих опросов один: ведущие мировые эксперты не смогли ответить на этот вопрос, потому что ответа они попросту не знают. Например, на конференции, проходившей в Пуэрто-Рико в 2015 году, некоторые ученые сошлись во мнении, что "средний" ИИ появится к 2045 году, а некоторые исследователи предполагали, что это будет через сотни лет или больше". Проблема сверхразумных машин волнует только ламеровПринято считать, что развития нейросетей боятся только те люди, которые об этих самых сетях мало что знают. Но это далеко не так. Сегодня в мире проводится множество исследований, посвященных вопросам безопасности систем, работающих на алгоритмах машинного обучения. Возможно, исследований не так уж и много, как хотелось бы, но не стоит забывать, что это — дорогое удовольствие. "Возможно, СМИ сделали обсуждение безопасности ИИ более противоречивым, чем оно есть на самом деле. В конце концов, страх продается, а статьи, в которых используются цитаты вне контекста, провозглашающие неминуемую гибель человечества, могут генерировать больше трафика, чем вдумчивые обзорные материалы", — резюмирует автор. Искусственный интеллект будет обладать сознанием, и он обязательно будет злымЕжедневно медиа публикуют материалы о злобном Скайнете и терминаторах, которые обязательно будут настроены против людей. Почему-то принято считать, что ИИ, как только поумнеет, то обязательно обозлится на человечество.
Еще один миф — машины обязательно станут злыми"Настоящее беспокойство вызывает не злоба, а сверхкомпетентность. Сверхразумная система по определению очень хороша в достижении своих целей, какими бы они ни были, поэтому нам нужно убедиться, что ее цели совпадают с нашими. Обычно люди не ненавидят муравьев, но мы умнее их — поэтому, если мы хотим построить плотину гидроэлектростанции там, где есть муравейник, для муравьев это очень плохо, но для нас — нет. Не стоит думать, что искусственный интеллект хочет поставить человечество в положение этих муравьев", — поясняет автор. Этот миф возник вследствие заблуждения, что у машин не может быть целей. "Очевидно, что машины могут иметь цели в узком смысле, т.е. они могут демонстрировать целенаправленность поведения. Это видно на примере самонаводящихся ракет. Если вы чувствуете угрозу со стороны машины, цели которой не совпадают с вашими, то именно ее цели в этом узком смысле беспокоят вас, а не то, осознает ли машина, что она делает, и чувствует ли она, что достигла/не достигла цели. Если бы за вами гналась самонаводящаяся ракета, вы, вероятно, не подумали бы: "Я не волнуюсь, потому что у машин не может быть целей!", — пишет Макс Тегмарк. Также ученый отмечает, "чтобы доставить нам проблемы, сверхчеловеческому разуму не требуется никакого "тела" в виде робота, а только подключение к Интернету — это позволит манипулировать финансами, инфраструктурами, мировыми лидерами и даст возможность разработать оружие, которое мы даже не сможем понять и, следовательно, оценить его опасность". Миф о том, что ИИ обязательно нужна оболочка, связан с тем, что мы склонны сравнивать его с собой — раз у нас есть тело, то и у него должно быть. "Люди управляют тиграми не потому, что сильнее их, а потому, что умнее. Это означает, что если мы уступим позицию самых умных на нашей планете, возможно, мы также уступим контроль", — подытоживает автор. |
|
15.08.2022 в 21:12 |
Комментариев нет. | |